1

Über erwartbare Statistik von Tests und bestätigten Infektionen

Diese Position beruhte jedoch allein auf Logik. Ich hatte keine Daten, um diesen Gedanken zu unterstützen oder zu bestätigen.

Max Roser ist das Genie der Datenaufbereitung hinter der Website Our World In Data . Kürzlich hat er seinen Coronavirus-Testdatensatz fertiggestellt , der den Patchwork von Tests in verschiedenen Ländern abdeckt. Die Daten finden Sie hier.

Da ich selbst ein Murikaner bin, habe ich mir zuerst die täglichen neuen Tests in den USA im Vergleich zur Anzahl der täglich bestätigten Fälle in den USA angesehen. Ich muss gestehen, als ich es sah, habe ich gelacht …


Abbildung 1. Streudiagramm, täglich neue Tests im Vergleich zu täglich neuen Fällen, USA. Die gelb / schwarze Linie ist ein linearer Trend.

Wie ich bereits sagte, sind in den USA neue Fälle eine Funktion neuer Tests. Für alle hundert zusätzlichen Tests, die wir durchführen, finden wir weitere neunzehn bestätigte Fälle von Coronavirus.

Als ich weiter schaute, gab es natürlich andere Länder, die bei weitem nicht so linear waren wie die USA. Hier ist Australien zum Beispiel:

Abbildung 2. Streudiagramm, Australien – täglich neue Tests im Vergleich zu täglich neuen Fällen,. Die gelb / schwarze Linie ist ein linearer Trend.

Es gibt jedoch auch viele Länder, die genauso linear sind wie die USA.

Abbildung 3. Streudiagramm Türkei-  täglich neue Tests im Vergleich zu täglich neuen Fällen. Die gelb / schwarze Linie ist ein linearer Trend.

Polen zeigt die gleiche Art von meist linearen Beziehungen.

Abbildung 4. Streudiagramm,Polen –  täglich neue Tests im Vergleich zu täglich neuen Fällen. Die gelb / schwarze Linie ist ein linearer Trend.

Also … wie wäre es für die ganze Welt? Ich bin froh, dass Sie gefragt haben. Hier ist das Diagramm.

Abbildung 5. Streudiagramm, Weltweit – tägliche Gesamtzahl neuer Tests im Vergleich zu täglichen täglichen Neuerkrankungen. Einheiten sind Tausende von Tests und Tausende von Fällen. Gelbe / schwarze Linie ist der lineare Trend.

Schwarze „Striche“ zeigen die Unsicherheit (ein Sigma) der einzelnen Mittelwerte für die verschiedenen Tage.

Ein interessanter Punkt ist der Unterschied in der Entdeckungsrate neuer Fälle in verschiedenen Ländern. In den USA gibt es neunzehn neue bestätigte Fälle pro hundert neue Tests; Die Türkei ist 13/100; Polen ist 4/100; Australien ist 1/100; und weltweit gibt es elf neue Fälle pro hundert neue Tests.

Ich vermute, dass diese Variation direkt von mindestens ein paar Dingen abhängt – der zugrunde liegenden Anzahl von Fällen in einem bestimmten Land und der Untergruppe, die getestet wird.

In den USA beispielsweise fehlen uns noch die Tests [von „allen“ Menschen]. Daher sind die Tests Personen vorbehalten, die offensichtliche Symptome aufweisen. Infolgedessen wird erwartet, dass die US-Tests [die Symptome bestätigen und mehr neue Fälle als der globale Durchschnitt ergeben.]

Dies führt zu einer merkwürdigen Situation. Zusätzlich des Anstiegs von Bestätigungen nach dem Test von fast ausschlich Leuten mit Symptomen, kann die Anzahl Todesfälle in Bezug auf getestete Personen auch eine Funktion der Testknappheit sein. [Da Sie fast keine Personen ohne deutliche Symptome testen, wissen Sie nicht, wieviel tatsächlich angesteckt sind und nicht wie viel vielleicht schon immun sind.]

Fazit? Verwenden Sie keine bestätigten Fälle als Maß für die Ausbreitung des Virus – die Anzahl der Fälle hängt in der Tat von der Anzahl der Tests ab.

 

PS: Wenn Sie kommentieren, geben Sie bitte die genauen Wörter an, über die Sie sprechen. Es vermeidet endlose Missverständnisse.

PPS – Während ich hier bin, empfehle ich schamlos die Seite „Watts Up With That Daily Coronavirus Data Graph“ . Ich erstelle die täglichen Grafiken und pflege die Seite. Ich werde auch meinen eigenen Blog Skating Under The Ice empfehlen . Ich stelle fest, dass es einen vollen Monat her ist, seit ich in meinem Blog öffentlich aufgerufen habe, um die amerikanische Sperre zu beenden. Schließlich bin ich auf Twitter hier . Genießen Sie es

https://wattsupwiththat.com/2020/04/22/of-tests-and-confirmed-cases/

Übersetzt durch Andreas Demmig




Coronapanik und „Klimakrise“ – Petersberger Klimadialog will beides nutzen

Ein Florian Neuhann , zuvor Zuarbeiter für die eindrucksvolle Maybrit Illner, und die beliebte Framing- Sendung „Morgen Magazin“, darf den Lesern mitteilen, dass es nun – mal wieder- auf die Kanzlerin ankommt. Und zitiert dazu den brillanten Lord Nicholas Stern, der schon mal die Nullzinspolitik vorausahnte und in seinem Sternreport die Abzinsrate für zukünftige Investitionen dauerhaft auf 0 % senkte, statt geschichtlich permanent belegter 4-5 %, um damit seine Phantasierechnung über das Verbrennen von Klimageld in eine fiktive Win-Win Situation zu verwandeln. Für diesen Taschenspielertrick wurde er von Labour geadelt und zum echten Lord gemacht. Na, ja, dort gibt es ja auch einen Commander of the Empire namens John Schellnhuber. Das passt irgendwie.

Der Lord darf sagen:

„Wenn jetzt, nach der Corona-Krise, die Wirtschaft wieder aufgebaut werde, dann „darf es keinen Weg zurück geben„. Kein Zurück in eine Welt, in der die CO2-Emissionen ständig weiter stiegen. Stattdessen müsse man die Krise jetzt nutzen – für eine Transformation in eine klimaverträgliche Zukunft. Immer noch seien die Risiken durch den Klimawandel „größer als das, was wir in der Corona-Krise feststellen“. Wieder eine Warnung, wie sie drastischer nicht ausfallen könnte. Verfängt sie diesmal?

Und die ewige Kanzlerin denkt wohl genauso. Jetzt oder nie, und lässt sich nicht lumpen. Denn wenn sie etwas falsch macht, dann richtig und immer wieder. Planbarkeit soll doch ihr Markenzeichen sein, gleich nach dem Talent „vom Ende her“ zu denken.

Daher gibt sie mächtig Gas. Bei TE lesen wir:

Die Kanzlerin geht laut Medienberichten davon aus, dass für eine solche CO2-Reduzierung ein „umfassendes Maßnahmenpaket“ mit Investitionen in klimafreundliche Infrastrukturen und auch „eine CO2-Bepreisung“ erforderlich sei. „Es ist jetzt an der Zeit, unsere Standfestigkeit zu beweisen“, sagte Merkel. Sie betonte das Festhalten am deutschen Kohleaustieg bis 2038 und sagte: „Bis 2030 soll der Anteil erneuerbarer Energien 65 Prozent betragen.“ Und Mit Blick auf die Kosten der Coronakrise sagte sie: „Umso wichtiger wird es sein, wenn wir Konjunkturprogramme auflegen, immer den Klimaschutz ganz fest im Blick zu behalten und deutlich zu machen, dass wir nicht etwa am Klimaschutz sparen, sondern dass wir in zukunftsfähige Technologien investieren.“

Und weil Frau Merkel zwar vieles kann, insbesondere große Staatsprojekte teuerst möglich in den Sand zu setzen, bspw. Eurorettung, Atomausstieg, Migrantenflut, und jetzt Corona-Shutdown, nur nicht mit dem Geld anderer Leute sorgsam umgehen, ist es ihr auch diesmal völlig egal, wer diese schädliche Luxuspolitik eigentlich bezahlen soll. Es sind, wie anders, die täglich arbeitenden, steuerzahlenden Menschen in diesem Land. Diesmal soll ihr Geld aber gleich zweimal ausgegeben werden, einmal zu Linderung der selbstangerichteten Coronanot, und nochmal zur Füllung der Taschen von windigen Profiteuren des „Klimaschutzes“. Und wenn dies alles erfolgreich vollzogen wurde hat Deutschland gerade mal mit 0,000653 °Celsius[1] zur Senkung einer unbekannten Weltmitteltemperatur beigetragen. Aber auch nur dann, wenn die krude Hypothese vom Einfluss des menschgemachten CO2 auf die Weltmitteltemperatur stimmen sollte, wofür es seit über 30 Jahren, trotz Milliarden teurer Forschung noch immer keinerlei Beweis gibt.

Und ihr Obertraumtänzer Entwicklungshilfeminister Gerd Müller der schon mal den Entwicklunghungrigen in den Entwicklungsländern ein bayerisches „I love you“ zuruft, freut sich seiner Liebe nun endlich tatkräftig Ausdruck verleihen zu dürfen und das Geld  – wenn Deutschland die EU-Ratspräsidentschaft übernimmt-  auch in Afrika mit vollen Händen zu versenken. Das nennt er einen „Masterplan“. Henryk M. Broder berichtet bei ACHGUT darüber wie folgt:

„ Zum Petersberger Klimadialog, einer der vielen Konferenzen, die zwischen den Weltklimagipfeln abgehalten werden, damit die Teilnehmer nicht aus der Übung kommen, hat Müller einen Masterplan veröffentlicht – wie man Afrika retten und zugleich die Energieversorgung Europas sichern könnte: indem „aus der Sonne Afrikas grüne Energie“ produziert wird. Eine Win-Win-Idee: „Europa braucht mehr saubere Energie, und Afrika hat die Sonne, Wasserkraft und viele junge, motivierte Menschen.“

Es versteht sich von selbst, dass Müller „Europa“ sagt, aber „Deutschland“ meint. So kämen wir dann endlich zu einem Platz an der Sonne, um den wir seit 123 Jahren kämpfen. Außerdem: Die vielen jungen, motivierten Menschen sind schon da, jetzt muss nur noch die saubere Energie aus Sonne und Wasserkraft erzeugt und irgendwie nach Europa rübergeschafft werden, am besten mit umweltfreundlichen Windjammern.

Müllers Masterplan, wie wir die Welt retten und einen neuen Umgang miteinander und mit der Natur finden, damit nie wieder ein Virus vom Tier auf den Menschen überspringen kann, ist von einer Einfachheit, die alle guten Erfindungen auszeichnet, das Rad, den Geschlechtsverkehr und die Teflon-Pfanne. Hier ist er.

„Die Corona-Pandemie zeigt uns ganz klar: Wir dürfen nicht zur Normalität der Globalisierung zurückkehren. Wir müssen Globalisierung gerecht gestalten und einen neuen Umgang miteinander und mit der Natur finden. Dass das Corona-Virus vom Tier auf den Menschen überspringen konnte, ist auch eine Folge unseres Umgangs mit der Natur.

Um die Corona- und die Klimakrise weltweit einzudämmen, muss Europa jetzt entschlossen eine globale Vorreiterrolle übernehmen und darf nicht nur innen, auf sich selbst schauen.

Neben dem Schutzschirm sollte die EU auch ihren Green Deal für den Klimaschutz auf die europäische Nachbarschaft und afrikanische Länder ausweiten. Und ein ehrgeiziges Investitions- und Innovationspaket für den Ausbau erneuerbarer Energie in Afrika auflegen – weg von Kohle hin zu sauberen Zukunftstechnologien wie ‚grünem‘ Wasserstoff und synthetischen Kraftstoffen, wie wir sie in diesem Jahr in Marokko aufbauen.

Denn in Afrika entscheidet sich die Zukunft des Klimas: 600 Millionen Menschen haben in Afrika noch keinen Zugang zu Strom. Wenn jeder eine Steckdose auf Basis von Kohle bekommen würde, müssten hunderte neue Kohlekraftwerke gebaut werden. So erreichen wir die Klimaziele nie! Die Antwort Europas muss eine Energie- und Klimapartnerschaft mit einer Investitionsoffensive für Afrika sein. Denn Europa braucht mehr saubere Energie, und Afrika hat die Sonne, Wasserkraft und viele junge, motivierte Menschen.

Das liegt auch in unserem Interesse: wir stärken die Technologieführerschaft in Deutschland und helfen, die internationalen Klimaziele viel wirksamer zu erreichen. Gleichzeitig schaffen wir die dringend in Afrika benötigten Arbeitsplätze für die vielen jungen Menschen.

Ich hoffe, dass wir es während der deutschen EU-Ratspräsidentschaft ab Juli schaffen, den EU-Haushalt der kommenden Jahre auf solche Zukunftsinvestitionen auszurichten. Denn das ist die Zukunft: aus der Sonne Afrikas grüne Energie zu produzieren. Für die Menschen dort und uns in Europa.

Das Entwicklungsministerium wird dieses Jahr dazu ein Markteintrittsprogramm für erneuerbare Energien auflegen – gemeinsam mit der Afrikanischen Entwicklungsbank. Vor allem deutschen und afrikanischen Mittelständlern soll so die Finanzierung von Zukunftstechnologien in Afrika leichter gemacht werden.“

Amen

 

 

 

 

[1] Bevor nun wieder das Herumrechnen losgeht. Der völlig unverdächtige Prof. Dr. Stefan Rahmstorf kommt bei anderen Annahmen immerhin auf 0,05 ° C bis 2100




Schmelzende Gletscher enthüllen weitere Beweise einer sehr warmen Mittelal­terlichen Warmzeit

Ein Forscherteam des Innlandet County Council und des NTNU University Museums in Norwegen sowie von der University of Cambridge in UK hat eine große Menge Artefakte aus der Zeit der Wikinger gefunden, und zwar in einem lange vergletscherten Bergpass in Südnorwegen. In ihrer im Journal Antiquity veröffentlichten Studie beschreibt das Team die Örtlichkeit des Passes, erklärt warum man dort plötzlich Artefakte findet und umreißt die bisherigen Funde.

Der Pass wurde im Jahre 2011 am Lomseggen-Bergzug entdeckt nahe des sich derzeit zurückziehenden Lendbreen-Gletschers. Frühere Forschungen zeigten, dass der Grund für das Auftauchen der Artefakte der Rückzug des Gletschers infolge globaler Erwärmung war. Das Team untersuchte das Gebiet von 2011 bis 2015.

Dabei fand man eine ganze Reihe von Artefakten. 60 davon konnten datiert werden auf eine Zeit zwischen 300 und 1000 n. Chr. Die Analyse der Fundstücke ergab, dass es zwei Arten der Reisenden über den Pass gab – lokale Reisen und Fernreisende. Die Forscher zeigen, dass Anwohner den Pass nutzten, um von ihren Sommer- in ihre Winterquartiere zu wechseln. Einige Artefakte zeigten außerdem, dass der Pass zumeist zu einer Zeit benutzt wurde, wenn er mit Schnee bedeckt war – das sehr felsige Terrain würde das Laufen oder auch Reiten schwierig gemacht haben. Schnee hätte die größten Unebenheiten ausgefüllt, was das Überqueren leichter gemacht hatte.

Die Forscher fanden Waffenröcke und Fausthandschuhe, ebenso wie Pferdeausrüstung wie Hufe und Sättel. Auch Überbleibsel von Schlitten wurden gefunden und in einem Falle sogar die Reste eines Hundes mit Halsband und Leine. Bislang wurden jedoch keine menschlichen Überreste gefunden, und das wäre auch unwahrscheinlich, ist doch der Pass nur etwa 700 Meter lang.

Außerdem fanden die Forscher viele Steinhügel entlang des Passes – Steine aufgestapelt auf eine Art und Weise, um als Wegmarkierung zu dienen, um den Reisenden den einfachsten Weg hindurch zu zeigen. Auch kleine Schutzräume wurden gefunden, falls man einmal von einem plötzlichen Schneesturm überrascht worden war.

Den Forschern zufolge wurde der Verkehr über den Pass aufgegeben, als die Winter während des 14. Jahrhunderts immer kälter wurden.

Der ganze Beitrag steht hier.

Dazu passt der BBC-Beitrag Alpine melt reveals ancient life.

———————–

Grüne Alpen anstatt ewigen Eises:

Der Susten-Pass so, wie er zur Römerzeit vor etwa 2000 Jahren ausgesehen haben könnte. Der Stei-Gletscher hatte sich bis auf das Niveau des Tierberg-Gipfels zurückgezogen (2795 m), die Baumgrenze lag eindeutig höher als heute. Bild: aus „Die Alpen“ /Atelier Thomas Richner auf der Grundlage eines Entwurfs von Christoph Schlüchter.

Link: https://www.thegwpf.com/melting-glacier-reveals-more-evidence-of-very-warm-medieval-warm-period/




Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 3)

Das Zitat oben von Stefan Rahmstorf am 12.2.18[1]  ist ein Beispiel zur Behauptung warum Anomalien genauer sind als die ihnen zugrunde liegenden Absolutwerte. Er hat bis heute nicht begriffen, dass er in diesem Beispiel Absolutwerte misst und diese als Anomalien ausgibt. Klimaanomalien werden jedoch nicht gemessen, sondern aus den Absolutwerten mit all ihren Fehlern berechnet. Und da gilt nun mal das Gesetz von der Fehlerfortpflanzung. Er betreibt also – bewusst oder unbewusst- Etikettenschwindel.

Teil 1 hier und Teil 2 hier

Anomalien und sprunghafter Fehler

Machen wir dazu die Probe aufs Exempel, indem wir einen Anomalienverlauf aus einem (künstlichen) sinusförmigen Temperaturverlauf von 1850 bis 2009 erzeugen. Blau sei der Anomalienverlauf ohne Fehler. Die Anomalie verläuft fast eben, wie die blaue Trendlinie anzeigt. Ab 1940 wird nun ein Fehler von + 1 K eingefügt. Gemäß Rechenanweisung w.o. wird dann aus beiden Werten für alle Jahre (x) die Differenz gebildet. Ab 1940 hebt sich der Fehler auf. Beide Verläufe gehen ineinander über. Vor 1940 jedoch wird allein durch den Rechenprozess die Temperaturanomalie um 1 k abgesenkt. Wir sehen, die Annahme von vorhin gilt nur für die Zeit nach 1940. Vorher nicht.  Lässt man Excel eine Trendgerade durch diese Werte legen, dann sehen wir, dass sich beide erheblich unterscheiden.

Abbildung 8 Ein systematischer Fehler von + 1 K tritt ab 1940 sprunghaft auf, weil z.B. die Station neu gestrichen wurde. Von dieser Veränderung sind das „Station Normal“ wie alle aktuellen Werte ab 1940 betroffen. Ab 1940 gleicht sich der Fehler aus, vorher aber nicht. Der Trend verschiebt sich.

Daran ändert sich auch nichts, wenn wir den Eintritt des Fehler auf später verlegen. Wie das nächste Bild zeigt. Dort werden die Kurven Anomalie 1 und 3 genannt.

Abbildung 9 Ein systematischer Fehler von + 1 K tritt jetzt 1980 sprunghaft auf, weil z.B. die Station neu gestrichen wurde. Von dieser Veränderung sind das „Station Normal“ zur Hälfte und  alle aktuellen Werte ab 1980 betroffen. Der Fehler gleicht sich nicht mehr aus, weder vorher noch nachher. Der Trend verschiebt sich.

Auch hier hebt sich der Fehler nicht auf, sondern ist weiter voll vorhanden und wirksam, natürlich erst, nachdem er auftritt. Der Unterschied zum ersten Beispiel ist, dass nun überhaupt keine „wahre“ Temperaturanomalie mehr gezeigt wird, sondern nur noch die fehlerbehaftete Summe.

Schleichender Fehler

Genauso entwickelt sich das Ergebnis, wenn man anstatt (oder zusätzlich) einen schleichenden Fehler in den zuvor fehlerfreien Verlauf einbringt.  Ich habe das in der folgenden Abbildung getan. Dort wurde von Anfang an ein schleichender systematischer Fehler von +0,1 K/Dekade eingebracht, wie er z.B. vom städtischen Wärmeinseleffekt hervorgerufen werden kann.

Abbildung 10 Ein systematischer Fehler von + 1 K tritt schleichend ab Beginn auf, weil z.B. die Station altert. Von dieser Veränderung sind das „Station Normal“ entsprechend seinem linearen Anteil ebenso wie  alle aktuellen Werte von Anfang an betroffen. Der Fehler gleicht sich nicht mehr aus, weder vorher noch nachher. Der Trend verschiebt sich.

Wir sehen einen schön ansteigenden Verlauf (zuvor war er fast gerade) – verursacht allein durch den schleichenden systematischen Fehler- z.B den UHI. Nur kann jetzt überhaupt nicht unterschieden werden, ob ein systematischer Fehler vorliegt, oder ob sich die Umgebungstemperatur z.B. durch den Treibhauseffekt erhöht hat.

Man könnte nun beanstanden, dass die Fehlergröße in diesen Beispielen etwas hoch gewählt wurde. Dem ist aber nicht so, wie die zahlreichen Untersuchungen z.B. von Watts (http://www.surfacestations.org/) zeigen. Denn Fehler dieser Art gab und gibt es zahlreich. Sie werden durch Stationsverlegungen, Thermometertausch, Änderung der Farbbeschichtung der Station, Änderung des Algorithmus für die Berechnung des Mittelwertes u.v.a. mehr eingebracht. Es wäre nun vielleicht möglich den Anstieg im obigen Beispiel als Ausreißer zu erkennen, weil er einmalig und sprunghaft  -wenn auch konstant- auftritt, und ihn durch entsprechende Rechnungen zu kompensieren. Das geschieht aber nur sehr, sehr selten, weil sich bei den abertausenden von Datensätzen der Vergangenheit kaum jemand diese Mühe macht, bzw. machen kann

Kein Fehlerausgleich möglich

Eine Korrektur unterbleibt hauptsächlich deswegen, weil man die Binsenweisheit (siehe Brohan et al 2006) von zuvor glaubt, dass sich der Fehler bei Anomalienbildung von selbst ausgleicht.  Das ist aber, wie wir gesehen haben, grottenfalsch!

Eine Korrektur unterbleibt aber auch in den allermeisten Fällen deshalb, weil die dazu erforderlichen sog. „Metadaten“ fehlen und auch nicht mehr herbeigeschafft werden können. Diese beschreiben die Umgebungsbedingungen, Maßnahmen, Algorithmen und vieles anderes, was in und um die Station über den Zeitraum passiert ist. (Siehe dazu bspw. Harrys Read Me Files des Meteorologen und Programmierers bei der CRU Harry: „HARRY_READ_Me.txt.“ z.B. hier . Diese ist 274 Seiten lang. Die dazugehörige Datenbasis enthält über 11.000 Dateien aus den Jahren 2006 bis 2009[2])

Allgemein gilt daher, die Annahme, dass sich bei Anomalienbildung die Fehler aufheben, ist nur dann richtig, wenn der gemeinsame, gleich große und richtungsgleiche Fehler vor dem Beginn der untersuchten Zeitspanne eintritt und dann so bleibt. In unserem Falle also vor 1850. Das liegt jedoch weder in unserem Ermessen, noch haben wir davon Kenntnis, sondern es wird allein durch die Realität bestimmt. Deshalb kann festgehalten werden, dass diese simple Fehlerkorrekturmethode in aller Regel nicht anwendbar ist. Angewendet wird sie aber von so gut wie allen -auch IPCC- Klimatologen trotzdem.

Zusammenfassung

In der Statistik ist es eine gängige Methode Werte von div. Variablen mit Referenzwerten eben dieser Variablen zu vergleichen, um auf diese Weise bei eventuellen Abweichungen u.U. Ähnlichkeiten im Verlauf oder sogar Hinweise auf mögliche Ursache und Wirkungsbeziehungen zu bekommen. Allerdings muss man sich immer im Klaren darüber sein, wie sehr diese Methode von den Randbedingungen abhängt. Es wird gezeigt, dass eine schlichte Anomalienbildung keineswegs ausreichend ist, um schwer bestimmbare variable oder konstante systematische Fehler herauszurechnen. Im Gegenteil, man müsste in jedem Fall diese Fehler bestimmen, sie quantifizieren und einordnen, um sie dann evtl. mehr oder weniger gut rechnerisch ausgleichen zu können. In der Klimatologie ist diese Einschränkung in Bezug auf die Schwächen der Anomalienbildung offensichtlich nicht nur nicht bekannt, sondern wird auch – auf den ersten Anschein hin- negiert.

Der berühmte Physiker und Nobelpreisträger Dick Feynman würde sagen: „Sie halten sich selbst zum Narren“. Nur so lässt sich erklären, dass auch hochangesehene Forscher diese simplen Zusammenhänge oft nicht beachten. Ihre Ergebnisse sind dadurch entsprechend falsch und damit unbrauchbar, bzw. mit wesentlich größeren Fehlern (Unsicherheiten) behaftet als angegeben.

 

Anhang.

Zur behaupteten Genauigkeit

Die berechnete Globaltemperatur im letzten Jahrhundert hat sich, gemäß Aussage des Intergovernmental Panel of Climate Change (IPCC) um ca. 0,6 ° bis 0,7° C erhöht, wie uns im Bericht TAR 2001(Third Assesment Report) mitgeteilt wurde. Um diese Aussage treffen zu können, müssen Veränderungen über lange Zeiträume mit einer Genauigkeit von < 1/10 °C ermittelt, erfasst, dokumentiert und verdichtet werden. Das englische Klimazentrum CRU (Climate Research Unit) -siehe Abbildung 1- zeigt sogar einen Anstieg von 0,8 °C mit einem Vertrauensintervall bei 95% von -0,09 bis +0,11 °C (Jahr 1905) bis ± 0,08 ° (Jahr 2005.).[3]

Dem steht aber entgegen, dass selbst bei Verwendung der bestgewarteten Messstationen und von gut trainierten Meteorologen so genau wie möglich abgelesenen Temperaturwerte, diese nur die Bestimmung von Tagesmittelwerten mit einer von  Genauigkeit ± 2 bis ± 3 K erlauben. Zitat des Meteorologen und Statistikers Jürgen Pelz

Jürgen Pelz: „Anmerkungen zur Prüfung von Daten und Ergebnissen von Modellrechnungen unter Verwendung der Statistik und der ,Informationstheorie“ Beilage zur Berliner Wetterkarte vom 7.12.1995; S. 5

„Will man beispielsweise die Tagesmitteltemperatur auf ± 0.1 K genau ermitteln, darf der Abstand der Messungen nicht grösser als 15 Minuten sein. Genügt eine Genauigkeit von ± 2 bis 3 K, reichen die Klimatermine.“ [Pelz, 1995b][4]

Trotzdem behaupten die Wissenschaftler der Climate Research Unit (CRU) der University von East Anglia,  welche die CRU Hadley Reihe produzieren[5]: „How accurate are the hemispheric and global averages? Annual values are approximately accurate to +/- 0.05°C (two standard errors) for the period since 1951. They are about four times as uncertain during the 1850s, with the accuracy improving gradually between 1860 and 1950 except for temporary deteriorations during data-sparse, wartime intervals. Estimating accuracy is a far from a trivial task as the individual grid-boxes are not independent of each other and the accuracy of each grid-box time series varies through time (although the variance adjustment has reduced this influence to a large extent). The issue is discussed extensively by Folland et al. (2001a, b) and Jones et al. (1997). Both Folland et al. (2001a,b) references extend discussion to the estimate of accuracy of trends in the global and hemispheric series, including the additional uncertainties related to homogenity corrections.”

[1] Quelle: „Verwirrspiel um die absolute globale Mitteltemperatur“ https://scilogs.spektrum.de/klimalounge/verwirrspiel-um-die-absolute-globale-mitteltemperatur/ (hier)

[2] Details entnommen aus ‚Botch after botch after botch‘ Leaked ‚climategate‘ documents show huge flaws in the backbone of climate change science By LORRIE GOLDSTEIN (hier)

[3] Diese Darstellung der Zeitreihe der mittleren Globaltemperatur kommt auf vielfältige Weise in öffentlichen Berichten des IPCC AR 4 vor. So z.B. Im Summary for Policymakers SPM auf Seite 19, In den FAQ´s des Berichtes der Workung Group 1 Fig. 3.1 auf S 104. In der Technical Summary des Berichtes der Working Group 1 (WG1-TS) als Fiure TS.6 auf Seite 37 usw.

[4] Pelz, J b (1995) Anmerkungen zur Prüfung von Daten und Ergebnissen von Modellrechnungen unter Verwendung der Statistik und der Informationstheorie. Beilage zur Berliner Wetterkarte 7.12.1995

[5] Quelle http://www.cru.uea.ac.uk/cru/data/temperature/#datter (hier)

Für alle die diese Arbeit am Stück lesen wollen hier das pdf dazu Die schwierige nimmer endende Fehlerdiskussion




Bericht zur Corona-Lage vom 27.04.2020

Aktuell reden alle von der sogenannten „zweiten Welle“, allen voran das Robert-Koch-Institut (RKI) und, dauerpräsent, Professor Christian Drosten. Es wird die drohende Anflutung neuer schwer an Covid-19 Erkrankter nach einer zu frühen Öffnung des Lockdowns beschworen. Aber zumindest für Deutschland darf gefragt werden: Wie sah eigentlich die erste „Welle“ aus – und trifft die Metapher von einer “Welle“ überhaupt zu?

Seit März werden Krankenstationen und Intensivabteilungen geräumt, um Platz zu schaffen für die vielen neuen Covidkranken. Deren Zahl wurde astronomisch hoch eingeschätzt, die Warner sprachen von hunderttausenden zu erwartenden Toten. Doch in sehr vielen Krankenhäusern – nicht allen – und deren Intensivabteilungen herrscht seitdem Leere, und manche melden sogar Kurzarbeit an (auf den Skandal, dass viele Behandlungspflichtige abseits Covid nicht stationär behandelt wurden, sei an dieser Stelle gar nicht eingegangen).

Dennoch hören die Panikmeldungen nicht auf, wie beispielsweise vor zwei Wochen ein dramatischer Aufruf eines bekannten schweizerischen Herzchirurgen, der über katastrophale Zustände in Intensivabteilungen und infiziertes Pflegepersonal berichtete. Genauso schrecken Berichte über gestorbene Pfleger, Ärztinnen und Kinder auf. Doch so gut wie nie werden dazu genaue Zahlen und Umstände genannt, um dies einordnen zu können.

Im Falle des Herzchirurgen machte ich eine Probe aufs Exempel und rief in seiner Klinik in Zürich an. Dort gab man mir die Auskunft, die Betten, die man für Covid frei gehalten habe, seien weitgehend gar nicht belegt. Auch Erkrankungssfälle des Personals seien nicht bekannt. Die gleiche entspannte Lage im 30 Kilometer entfernten Kantonspital Winterthur, welches ich gut kenne. Was soll man davon halten?

Ausbreitungsgeschwindigkeit seit sechs Wochen im Sinken

Tatsache ist, in Deutschland gab es keine auffallende erste Welle. Wieso soll es dann eine zweite geben? „Für eine Übersterblichkeit mit auffälligen Abweichungen nach oben in den Monaten Januar bis März 2020 haben wir aktuell keine Hinweise“, sagt das Statistische Bundesamt. Aktuell sind wir sogar in einer Untersterblichkeit im Vergleich zu anderen Jahren. Warum ist es in anderen Ländern anders? Darauf gehe ich weiter unten in diesem Text ein.

Tatsache ist, die Ausbreitungsgeschwindigkeit ist bereits um den 9. März im Sinken. Dies geht aus der inzwischen ausgiebig diskutierten Kurve des Robert-Koch-Institutes (Abb.4) bezüglich des Reproduktionsfaktors „R“ hervor. Unter dem Schlüsselwert 1 liegt R schon seit dem 20. März, also drei Tage vor dem Lockdown, so das RKI. Als Stefan Homburg, Professor für Öffentliche Finanzen und Direktor des Instituts für Öffentliche Finanzen der Leibniz Universität Hannover, dies feststellte, wurde er in Medien teilweise  verunglimpft (inzwischen hat sich beispielsweise die dpa entschuldigt). Sehr anschaulich werden die Zusammenhänge in Verbindung mit der von Homburg angeführten Kurve auch im sehenswerten Coronovideo Nr. 35 des Hals-Nasen-Ohren-Arztes und Kollegen Bodo Schiffmann erläutert. Beachten Sie auch seinen Hinweis auf eine stattgefundene Massenveranstaltung, nämlich die Hamsterkäufe nach den Schulschließungen. Schauen Sie hier am besten ab Minute 5:30.

Dazu passt auch dieser aufschlussreiche Beitrag auf Telepolis,der sich auf Aussagen der WHO bezieht, die selbst zugibt, dass für die Lockdown-Strategie keinerlei wissenschaftliche Evidenz existiert. Die Autoren, drei Soziologieprofessoren, schließen mit diesem Satz:

Eine weniger naheliegende Lösung läge dahingegen in der Hoffnung auf die kombinierte Wirksamkeit einzeln wirkungsloser Maßnahmen und in dem Versuch, diese Hypothese im Rahmen eines Ereignisses zu überprüfen, das dann als das größte, teuerste und verheerendste Sozialexperiment in die Geschichte der Menschheit eingehen könnte.“

Versagen beim Schutz der Risikogruppen in den Pflegeheimen

Ich möchte noch einmal auf einen bisher zu wenig beachteten Abschnitt im erwähnten RKI-Artikelhinweisen. Die Bundeskanzlerin gab selbst stets das Ziel R 1 als angestrebten Zustand aus. Nun da R unter 1 liegt, heißt es plötzlich von ihr, dies reiche nicht, er müsste noch weiter sinken. Was schreibt das RKI selbst zur Ursache des nicht weiter sinkenden R-Wertes:

„Ein Grund dafür, dass der Rückgang der Neuerkrankungen trotz der gravierenden Maßnahmen nur relativ langsam passiert, ist, dass sich das Virus nach dem 18. März stärker auch unter älteren Menschen ausbreitet und wir zunehmend auch Ausbrüche in Pflegeheimen und Krankenhäusern beobachten. Ein weiterer Aspekt ist aber auch, dass in Deutschland die Testkapazitäten deutlich erhöht worden sind und durch stärkeres Testen ein insgesamt größerer Teil der Infektionen sichtbar wird. Dieser strukturelle Effekt und der dadurch bedingte Anstieg der Meldezahlen, kann dazu führen, dass der aktuelle R-Wert das reale Geschehen etwas überschätzt“

Noch einmal einfach gesagt: Mit dieser Aussage räumt das RKI ein Versagen beim Schutz der Risikogruppen in den Pflegeheimen ein. Wie dieser Schutz hätte aussehen müssen, habe ich in dieser Beitragsreihe seit Mitte März mehrfach thematisiert. Zusätzlich schreibt das RKI auch, dass ein Zusammenhang zwischen der Zahl der Testungen und der Reproduktionsrate besteht und deswegen R aktuell tiefer liege.

In diesem Zusammenhang wird auch eine neue Publikation von Professor Christof Kuhbandner vom Institut für Experimentelle Psychologie an der Universität Regensburg spannend. Sie ist anscheinend noch nicht offiziell zur Veröffentlichung freigegeben, aber dennoch verfügbar. Sie beantwortet plausibel die Frage, warum man nur sehr eingeschränkt von einer ersten „Welle“ sprechen kann.

Ein neues Licht auf die omnipräsenten Kurven der Neuinfizierten

Anhand eines anschaulichen Beispiels sei gezeigt, um was es geht. Nehmen wir an, wir haben einen großen Garten. Darin verstecken wir hundert Ostereier. Die Ostereier stehen für die gerade zu diesem Zeitpunkt Neuerkrankten. Nun schicken wir ein Kind in den Garten, welches genau eine Minute hat, um Eier zu finden. Es findet ein Ei. Die Minute steht für einen Corona-Test und das gefunden Ei für die in der Statistik angegebenen Neuerkrankungen.

Hätten wir dem Kind zwei Minuten Zeit gegeben, dann hätte es theoretisch zwei Eier gefunden. Bei vier Minuten vier Eier und bei acht Minuten acht Eier. Das ergibt ein scheinbar exponentielles Wachstum der Eierzahlen, aber nur, weil die Zahl der Minuten (also Coronatests) exponentiell wächst. In Wirklichkeit bleibt die Zahl der tatsächlich Neuerkrankten, nämlich die 100 versteckten Eier, konstant.

Wer nun die üblichen Kurven der Neuerkrankten (die mit positiven Testergebnis) betrachtet, muss deshalb dazu immer auch die Gesamtzahl aller Tests (auch der negativen) erfahren, sonst sagt diese Kurve nichts aus. Denn wenn bei einem exponentiellen Wachstum der Neuerkrankungen die Kurve der Testzahlen dazu parallel verläuft, besteht überhaupt kein exponentielles Wachstum, sondern R = 1.

Erst wenn die Kurve der Neuentdeckten steiler als die der Testzahlen ist, liegt ein exponentielles Wachstum vor. Ist die Kurve ansteigend, aber flacher als die der Testzahlen, sinkt in Wirklichkeit die Zahl der Neuinfizierten. Das wirft ein völlig neues Licht auf die omnipräsenten Kurven der Neuinfizierten, auf die sich alle Augen konzentrieren. Folgt man der Publikation von Christoph Kuhbandner, müssen sie alle modifiziert werden anhand der jeweils steigenden Testzahlen. Eigentlich verblüffend einfach und logisch, aber man muss anscheinend erst darauf kommen.

Der Regensburger Professor hat nun die bestehenden Kurven neu berechnet, in der Annahme, die Zahl der Tests wäre konstant geblieben. Was kam dabei heraus? Für Deutschland ein viel geringeres, nicht exponentielles Wachstum mit Sinken seit der 13. Kalenderwoche. So betrachtet, verliert bezüglich des Ausbreitungsrisikos Covid-19 seinen Schrecken. Dagegen spricht eben nicht, dass es schwere Fälle gegeben hat und in einzelnen Hotspots auch beachtliche Fallzahlen. Das gilt für andere Infektionen, die jedes Jahr ihr Unwesen treiben, allerdings genauso. Auch für Österreich, Belgien, Frankreich, Italien und die USA gelten die gleichen Beobachtungen.

Trugschlussanfälliges Horrorszenario

Nun eine weitere, sehr spannende Schlussfolgerung. Kuhbandner stellt fest, dass in allen Ländern, die Kurve der offiziellen Neuinfektionen (positiv Getesteten) ziemlich parallel verläuft mit der Zahl der Toten. Das verwundert, denn ab einem positiven Testergebnis aufgrund erster Symptome und einem Versterben an Covid sollte mindestens ein zeitlicher Abstand von 14 Tagen bestehen. Der Anstieg der Todesfälle müsste also zeitlich später verlaufen als der Anstieg der Neuerkrankten. Nämlich etwa 14 Tage.

Was bedeutet diese fehlende zeitliche Verzögerung der Kurven? Kuhbandner nennt zwei Schlussfolgerungen. Wären alle aufgeführten Todesfälle tatsächlich an Covid gestorben, dann hätte man 14 Tage vorher einen vergleichbaren Anstieg an Neuerkrankten sehen müssen. Da dies nicht der Fall ist, könnte es sein, dass viele als Covidtote Gemeldete erst kurz vor oder während des Sterbens positiv getestet wurden, weil sie sich erst kurz davor infiziert hatten. Dies wiederum erklärt die Obduktionsergebnisse des Hamburger Pathologen Professor Klaus Püschel, der feststellte, dass viele der Covidtoten eigentlich nicht wirklich an Covid gestorben sind, sondern mit oder als allerletztem Sterbeimpuls.

Eine weitere Überlegung von Christoph Kuhbandner ist ebenfalls erwägenswert. Er stellt fest, dass nur ein kleiner Teil der Getesteten positiv war. In Deutschland nur etwa sieben Prozent. In Italien wurden hauptsächlich Patienten mit ernsten Lungensymptomen getestet, aber auch hier waren nur 20 Prozent positiv. Könnte es sein, dass viele der in Bergamo Verstorbenen gar nicht an Corona, sondern an anderen Infektionen der Atemwege gestorben sind, wie zum Beispiel durch Influenza? Auch in den USA starben von den 6.427 Covidtoten zwischen 22.03. und 11.04. „nur“ 2.925 an einer Lungenerkrankung. Während in diesem Zeitraum insgesamt 10.006 Menschen an einer Lungenentzündung verstarben. Das bedeutet, nur ein geringerer Teil der an Atemwegserkrankung Verstorbenen in den USA verstarben tatsächlich an Covid. Übrigens, trotz der täglichen Schreckensmeldungen aus den USA herrscht dort im Vergleich zu 2019 eine Untersterblichkeit.

Wie immer man gerade die letzten Überlegungen einordnet, und auch wenn diese Publikation viel Kritik auf sich ziehen wird, die Grundthesen, die auf den offiziellen Zahlenangaben beruhen, erlauben auf jeden Fall die Aussage, dass aus epidemiologischer Sicht die Gefährlichkeit von Covid-19 nach heutigem Stand offenbar stark überschätzt wird. Der letzte Satz von Kuhbandners Publikation lautet:

„Es scheint äußerst wichtig zu sein, sich dieses statistischen Trugschlusses bewusst zu werden, um der extremen Furcht entgegenzuwirken, die durch das trugschlussanfällige Horrorszenario ausgelöst wird, dass es bald Millionen von Coronavirus-Infektionen und Todesfällen geben könnte“.

(“Becoming aware of this statistical fallacy seems to be extremely important in order to counteract the extreme fear that is induced by the fallacy-prone horror scenario that there may be soon millions of coronavirus infections and deaths.)”

Ein natürliches Ablaufdatum von Covid?

Nachdem auch mich die Bilder aus Italien schockierten und ich mir ausmalte, was diese Entwicklung zu bedeuten hat, wurde ich als Arzt intuitiv stutzig. Wenn Covid wirklich die angedrohte katastrophale Seuche wäre, dann hätte sich die Infektion schon weit vor der Abriegelung in anderen Städten ausbreiten und ähnliche Katastrophen wie in Bergamo anrichten müssen, was aber in diesem Maße nicht geschah (womit ich die Entwicklung mitnichten relativieren will). Diese schlichte Beobachtung spricht an sich schon für ein natürliches Ablaufdatum von Covid, so wie es eine Grippeepidemie auch hat.

Dazu passt die bereits im Bericht zur Coronalage vom 22.04.2020 vorgestellte Arbeit des israelischen Mathematikers und Analysten Ben-Israel, der in allen Ländern völlig unabhängig zu den Maßnahmen einen Epidemieverlauf mit Anstieg von sechs Wochen ermittelte, der danach zügig abfällt. Man kann nur spekulieren warum, ob schnelle Immunität, jahreszeitliches Klima, oder was es immer ist. Selbst wenn es punktuell zu Überbelastungen kam, sie verbreiteten sich eben nicht über das ganze Land. All dies geschah weit vor jedem Lockdown.

Allerdings spielte es eine Rolle, wie viele Menschen zum Zeitpunkt der hohen Virusinfektiösität infiziert wurden und auf welches Gesundheitssystem diese trafen. Und hier gibt es an den Hotspots starke Länderunterschiede. Dazu noch die vorher besprochenen Beobachtungen von Professor Kuhbandner und der inzwischen erhärtete Verdacht, dass viele Coronatote und auch die meisten Spätfolgen der Überlebenden auf eine falsche Beatmungstechnik zurückzuführen sind. So, wie sie wahrscheinlich in den schlimmsten betroffenen Ländern häufig angewandt wurde.

Es ist komplex, und es wird dazu in den nächsten Jahren sehr viele wissenschaftliche Publikationen geben, die immer präziser erklären können, was eigentlich passiert ist. Manches wird überraschend sein. Wir in Deutschland hatten ganz sicher das Glück, dass die Karnevalsfolgen – und auch die solcher Aktionen wie die der bayrischen Kommunalwahlen – unser im Vergleich gut aufgestelltes Gesundheitssystem bei weitem nicht überlasten konnten und dass die Lungenärzte des Verbandes pneumologischer Kliniken so vehement auf die Fehler bei der Beatmungstechnik hinwiesen.

Wieder wird mit apokalyptischen Zahlen gewarnt

Und dennoch wird jetzt vor der zweiten Welle gewarnt und wieder mit apokalyptischen Zahlen. Wie das ängstliche Kaninchen wird auf dem Lockdown beharrt, bis der rettende Impfstoff gefunden sei, um diesen dann im Hauruckvefahren ohne akzeptable Testung bei einer bereits abklingenden Infektion einzusetzen. Einen solch unnötigen wie gefährlichen Impfstoff hatten wir schon einmal, 2009 während der Schweinegrippe. Meine Patienten werde ich davor schützen.

Die Schweinegrippe-Panik diente auch als ein Impfstoff-PR-Theater, als die Harmlosigkeit im Vergleich mit normalen Influenza Epidemien schon längst klar war und die Regierung zu recht auf gekauften, gefährlichen Impfstoffen im Wert von 500 Millionen € sitzen blieb (die später zum großen Teil verbrannt wurden). Als dies alles schon klar war, legte übrigens ein Virologe namens Professor Christian Drosten im Mai 2010 den Panikgang ein und riet dringend zur Impfung. Hersteller des riskanten Impfstoffes war GlaxoSmithKline. Ein paar Jahre zuvor hatte Christian Drosten den GlaxoSmithKline-Förderpreis für Klinische Infektiologie erhalten.

Meine Risiko-Analyse der Zahlen möchte ich so zusammenfassen: Das vorhandene epidemiologische Wissen ist ausreichend, um die Ausbreitungsgefahr von Covid-19 als gut beherrschbar einzuschätzen. Auch die Sterblichkeit liegt wohl viel niedriger als angenommen. Die klassischen Schutzmaßnahmen reichen völlig aus: Händewaschen, Isolierung Erkrankter, eventuell auch ihres Umfeldes, und der Empfehlung an Risikogruppen, körperliche Nähe und größere Menschenansammlungen zu meiden.

Als Sicherheitsanker empfiehlt sich noch der hoffentlich bald professionellere Schutz von Pflegeheimen. Mit wachsendem Wissen über die Verbreitung und Wirkung des Virus, die selbstverständlich auch negative Überraschungen beinhalten können, wachsen die Chancen weiter, angemessen damit umzugehen. Völlig unangemessen dagegen ist die Einleitung eines Lockdown und vor allem das beratungsresistente Festhalten daran.

Hätten die vielen kompetenten und unabhängig agierenden Wissenschaftler eine größere Bühne in der Öffentlichkeit und müssten nicht um berufliche Konsequenzen fürchten, wenn sie ihre Meinung frei äußern, wäre eine solche Analyse der Lage längst Allgemeingut, und der immense Schaden des Lockdowns, der erst richtig auf uns zurollen wird, hätte zumindest teilweise vermieden werden können. Die öffentliche Dominanz regierungskonformer Wissenschaftsfunktionäre und Medien schwächt so die Widerstandsfähigkeit unserer Gesellschaft, in einer Krise um die besten Lösungen zu streiten.

Ein herzliches Danke

Bedanken möchte ich mich an dieser Stelle einmal für die vielen unterstützenden und kundigen Zuschriften, die mein eigenes Verstehen enorm bereicherten. Herzlichen Dank dafür. Beim letzten Beitrag habe ich vergessen zu erwähnen, dass er bei Gefallen bitte weiterverbreitet werden soll. Deshalb bekam ich Anfragen, ob man dies auch weiterhin dürfe. Selbstverständlich gerne. Auch wenn mir manchmal die Plattformen nicht gefallen, auf denen meine Beiträge dann auftauchen. Denn Richtiges bleibt richtig, auch wenn es von – je nach Gusto – den „Falschen“ verbreitet wird.

PS.

Ursprünglich wollte ich heute die Sicht der Praktiker, vor allem der Lungenärzte und Pathologen schildern – und wie sie die Gefährlichkeit der Krankheit namens Covid-19 am einzelnen Patienten erleben. Dies hole ich im nächsten Beitrag nach.

Der Beitrag erschien zuerst bei ACHGUT hier

 




Lasse keine Krise ungenutzt: Robert Habeck, das Klima und das Virus

Wie Wolfgang Meins auf der Achse gerade schrieb, wird nach der SARS2-Krise das Klimakollapsthema in den Medien wieder hochgekocht werden, sofern die Volksquarantäne nicht unübersehbare kurzfristige wirtschaftliche Schäden mit Folgeprotesten verursacht hat. In der Tagesschau wurde schon einmal vorgelegt. Die Zeit bereitet sich auch schon einmal auf die Nach-Corona-Ära vor, indem sie Robert Habeck Stichworte gibt, der mit seinen Grünen von der menschgemachten Viruskrise arg gerupft wurde. So darf der Parteichef dort hanebüchene Vergleiche ziehen, die ein Literat schlicht einen rumpelnden Übergang nennen würde:

Die Klimakrise hingegen schieben viele weg, auf irgendwann später, irgendwo anders. Zu Unrecht, zumal es gegen die Klimakrise nie einen Impfstoff geben wird.

Und:

Beide [Virus- und Klimakollapskrise] sind global, ihre Bekämpfung macht internationale Kooperation notwendig. Beide zwingen uns dazu, alte Gewissheiten infrage zu stellen. Deshalb wurden sie auch von Populisten lange geleugnet. Beide wären besser beherrschbar, wenn man vorausschauend handelt. Beide haben gemeinsam, daß der Anstieg der Kurven – Infektionen und Temperatur – abgeflacht werden muß.

„Populisten“ sind natürlich nicht die Profiteure von Panikmache, sondern immer die anderen. Interessant auch, daß Habeck von überstaatlicher Zusammenarbeit spricht, als wenn gerade SARS2 nicht gezeigt hätte, wie EU und WHO versagen, wenn es wirklich darauf ankommt. Der Vergleich mit Temperatur und Infektionen ist wohl an Schellnhubers und Hirschhausens „Fieber“ angelehnt und ähnlich sachfremd. Aber diese ungelenken Sätze sind ja noch lustig bis harmlos. Habeck kann noch härter:

Wachstum auf Teufel komm raus kann nicht mehr das alleinige Kriterium für gesellschaftlichen Wohlstand sein. Wir müssen den Kapitalismus zähmen, sprich, eine sozial-ökologische Marktwirtschaft durchsetzen.

Kapitalismus und damit verbundenes heftiges wirtschaftliches Wachstum hat nicht nur Hunderte Millionen Menschen aus der Armut geholt, sondern ermöglicht auch den überzähligen Akademikern der westlichen Welt, auf Kosten der anderen zu leben, ohne diese zur Revolte zu treiben. Der „Green new deal“, den der Grünchef hier eingedeutscht fordert.

Habeck ist nicht ganz alleine mit seiner seltsamen Themenvermengung, die die Ängste der steuerzahlenden Plebs recht ungeschickt zu den „richtigen“ Themen umlenken soll. Auch um ihre Popularität besorgte Stars und Sternchen wollen mitmischen. Die Englischsprachigen nennen so etwas übrigens virtue signalling, also Tugend-Signalisierung. Typisch für Promis, die auf der Suche nach Sinn und „höherer“ Moral irgendwelche gerade aktuellen Luxusüberzeugungen übernehmebn und dies laut herumposaunen. Kostet ja nichts, wie man an Lena Meyer-Landruts Pappschildchen mit der Aufschrift „#Fight every crisis!“ sehen kann. Die Sängerin rief damit zur „Online-Demo“ von FFF auf:

Am Freitag ist globaler Klimastreik. Wir können nicht auf die Straße, deswegen basteln wir. Macht mit, informiert euch, habt eine Meinung und seid laut.

Die Nutzung der Krisenproblematik für die Popularität scheint vielen Fans aber nicht zu gefallen. Kommentar-Beispiele:

  • Ja genau bastelt wie die wilden Schilder – das ne große Menge Bäume abgeholzt werden muss wegen euch – schmeißt euer handy weg und kauft kein neues mehr das wäre der erste Schritt im Klimaschutz …… nachdenken hilft auch

  • Statt zu streiken. Warum helft ihr nicht als Erntehelfer? Lieber Streiken? ist ja nicht so anstrengend

  • Corona macht mehr für die Umwelt als jede Friday’s for Future Demo!

  • Herr schmeiß Hirn. Im Netz zu streiken ist wohl ähnlich sinnbefreit, wie Formel 1 Autos mit Protestplakaten. Schon mal gegoogelt, was das Internet an co2 verbraucht?

 

 

 

 




Die Verfassungswidrigkeit des am 23. März 2020 von Bund und Ländern beschlossenen und am 15. April im Kern verlängerten Shutdown und das Totalversagen der Politik

Auch die „Coronakrise“ ist, wie neue empirische Daten über die weitgehende Harmlosigkeit von COVID-19 zeigen, nicht wirklich existent, es handelt sich in epidemiologischer Hinsicht allenfalls um ein Coronaproblem. Eine Krise ist entstanden allein in sozialer und ökonomischer Hinsicht infolge fehlerhafter und panischer politischer Entscheidungen; zu erwarten ist eine Jahrhundertrezession mit einer Massenarbeitslosigkeit in ihrem Gefolge, die der verheerenden Arbeitslosigkeit während der Weltwirtschaftskrise der 1930er Jahre gleich kommen könnte.

Aufgrund der Modellrechnung von Virologen (auch hier spielen also Modelle eine  entscheidende Rolle) wurde von der Bundesregierung bei der Anordnung des Shutdown am 23. März 2020 unterstellt, dass 5 % der mit dem Virus Infizierten beatmungspflichtig und ein Intensivbett benötigen würden. Dazu ist festzustellen, dass Modelle prinzipiell methodisch ungeeignet sind, komplexe Probleme zu analysieren, denn ihre Analyseergebnisse hängen stark ab von der Willkürlichkeit der ins Modell eingegeben Ausgangsannahmen (Nahamowitz 2020, 14 ff). Bei 300.000 Infizierten wären es nach dieser Modellrechnung 15.000 zusätzlich benötigte Intensivbetten, was zweifellos das Krankenhaussystem an den Rand der Belastbarkeit gebracht hätte. Denn nach einer Schätzung der Deutschen Krankenhausgesellschaft (DKG) ist Anfang April die Zahl der Intensivbetten von 28.000 auf 40.000 also nur um 12.000 gesteigert worden (Handelsblatt vom 24./25./26. April 2020, S. 33).

Daher zielten die staatlichen Abwehrmaßnahmen mit dem Shutdown als Höhepunkt auf eine Verlangsamung des Infektionsgeschehens ab. Es sollte den Krankenhäusern die Zeit eingeräumt werden, ihre Intensivkapazitäten zu erhöhen, um damit, wie immer wieder von den Politikern betont wurde, „Leben zu retten“.

Bei dieser Strategie ist bereits der Ansatz falsch, weil nicht  zwischen Infizierten mit und ohne Symptome unterschieden wurde. Letztere, die ungefähr die Hälfte ausmachen könnten, bedürfen keines Intensivbettes in der Zukunft. Ihre Anzahl wurde und wird nicht erhoben – epidemiologisch ein schwerer Fehler, so der renommierte Infektionsepidemiologe Sucharit Bhakdi (Bhakdi, Video vom  29.3.2020 ). Hinzukommt, dass von Anfang an eine weitere wesentliche Unterscheidung, diesmal bei der Zählung der Toten, nicht vorgenommen wurde, nämlich die, ob der Exitus entscheidend durch das Coronavirus herbeigeführt wurde oder ob es eine andere wesentliche Ursache gab (z.B. Diabetes, Bluthochdruck oder Herzinfarkt). In der Statistik werden alle Toten als Corona-Tote aufgeführt, bei denen das Virus aufgefunden wurde, eine Obduktion findet nicht statt  – nach Bhakdi ein Verstoß gegen die deutschen ärztlichen Leitlinien. Diese Handhabung beruht auf einer Empfehlung des Robert Koch Instituts (RKI) mit der nicht überzeugenden Begründung, dass Obduktionen das Infektionsrisiko erhöhten. Die obduzierenden Ärzte sind aber in Wahrheit bei ihrer Tätigkeit gegen Infektionen ausreichend geschützt. Erst am 21.4.2020, also erst 4 Wochen nach dem Shutdownbeschluss hat das RKI, eine Bundesoberbehörde mit einem Tiermediziner (!) an der Spitze, seine verfehlte Empfehlung aufgegeben und empfiehlt nun ebenfalls Obduktionen zur Feststellung der wirklichen Todesursache. Man wird abwarten müssen, wie sich das neue Verfahren in der Praxis bewährt.

Beide Unterlassungen wurden und werden freilich weiterhin weltweit praktiziert, sie führen in der politischen Realität zu Angsterzeugung und einer überhöhten Alarmierung der Öffentlichkeit. Im ersten Fall erscheint die Zahl der kranken Infizierten zu hoch, im zweiten die Zahl der echten, tatsächlich „an“ (und nicht nur „mit“) Corona Gestorbenen. Die Ähnlichkeit des Coronaalarmismus zum vor allem in Europa staatlich geförderten Klimaalarmismus drängt sich auf.

Auf dieser inkorrekten Faktenlage beruhte der Shutdown- Beschluss vom 23. März, der weitreichende Eingriffe in die Grundrechte der deutschen Bürger und Unternehmen mit sich brachte, und zwar vor allem in die allgemeine Handlungsfreiheit (Art. 2 Abs. 1 GG), die Religionsfreiheit (Art. 4 Abs. 2 GG), die Versammlungsfreiheit (Art. 8 Abs. 1 GG), die Freizügigkeit (Art. 11), die Berufsfreiheit (Art. 12 Abs. 1 GG) sowie in die Eigentumsfreiheit (Art. 14 Abs. 1 GG).

Nach Art. 20 Abs. 3 GG ist die vollziehende Gewalt „an Gesetz und Recht gebunden“. Nach der ständigen Rechtsprechung des BVerfG beurteilt sich die Verfassungsmäßigkeit von Grundrechtseingriffen nach dem Verhältnismäßigkeitsgrundsatz mit seinen drei Elementen der Geeignetheit, der Erforderlichkeit und der Zweck/Mittel- Proportionalität des Eingriffs.

Die Verhältnismäßigkeitsprüfung würde anders ausfallen, wenn von den zuständigen Stellen die sachgerechten Parameter statistisch erhoben worden wären. Unterstellt, nur die Hälfte der Infizierten würde Symptome entwickeln, würden bei 300.000 Infizierten nicht 15.000, sondern nur 7.500 zusätzliche Intensivbetten benötigt, eine Aufgabe, welche die Krankenhäuser bereits Anfang April bewältigt hatten. Und dann wäre sehr genau zu prüfen, ob die Radikalmaßnahme einer Verlängerung des Shutdown am 15. April überhaupt erforderlich gewesen wäre. Würde sich weiterhin herausstellen, dass die sogenannten Corona -Toten nicht durch COVID-19 als wesentlicher Ursache, sondern wesentlich an ihren i. d. R. schweren Vorerkrankungen verstorben sind, wovon jedenfalls für Hamburg ausnahmslos auszugehen ist (so die bei Markus Lanz am 9. April 2020 getroffene Feststellung des Rechtsmediziners Klaus Püschel, der in Hamburg sämtliche „Corona-Tote“ obduziert hat), so würde sich die Prüfung der Proportionalität zwischen geretteten Leben (Zweck) einerseits und den gravierenden Beeinträchtigungen des öffentlichen und privaten Lebens einer ganzen Bevölkerung (Mittel) andererseits ebenfalls anders darstellen. Denn das Hamburger Obduktionsergebnis ist sicherlich zumindest in der Tendenz auf das ganze Bundesgebiet übertragbar. In diesem Fall würde der Zweck des Shutdown, Leben zu retten, sich nahezu vollständig verflüchtigen

Anzahl der gemeldeten Neu-Infektionen pro Tag. Berücksichtigt man den Zeitverzug von gut 10 Tagen zwischen Infektion und Meldung, dann lag der Scheitelpunkt der Epidemie etwa um den 20. März 2020. Daten Worldometer hier  Grafik mit Trendlinie Prof. Homburg im Video Punkt Preradovic vom 28.4.20 hier

Glücklicherweise brauchen wir diese mit notgedrungen hypothetischen Daten arbeitende Verhältnismäßigkeitsprüfung nicht durchzuführen. Denn knapp eine Woche vor dem Shutdown-Verlängerungsbeschluss vom 15. April ist ein Ereignis eingetreten, welches die verfassungsrechtliche Waagschale zuungunsten der staatlichen Radikalmaßnahmen gesenkt hat. Der Verlängerungsbeschluss vom 15. April brachte nur zögerliche Lockerungen. Vor allem kleinere Geschäfte, Autohäuser, Buchläden und Frisöre durften wieder öffnen, für die Schulen gab es partielle Lockerungen. Wie es sich für einen föderalen Staat gehört, wurden diese Erleichterungen in den Bundesländern durchaus unterschiedlich umgesetzt. Beibehalten am 15. April aber wurde das grundsätzliche Kontaktverbot. Geschlossen blieben Geschäfte ab einer Verkaufsfläche von 800 qm, alle Hotels und Restaurants sowie die Kitas, wobei es auch hier zu föderalen Abweichungen kam. Das angesprochene verfassungsrechtlich bedeutsame Ereignis bestand in dem Ergebnis einer engagierten Forschergruppe.

Eine Anfang April von einer Forschergruppe um den Bonner Virologen Hendrik Streeck erhobene repräsentative Stichprobe mit 1.000 Probanden in der nordrhein-westfälischen Gemeinde Gangelt im Kreis Heinsberg hat nämlich die äußerst geringe Letalitätsrate von 0,37 % der Infizierten erbracht, wie auf einer Pressekonferenz am 9. April in Anwesenheit von NRW-MP Armin Laschet von Streeck mitgeteilt wurde. Das wären 1.110 Tote auf 300.000 Infizierte und 370 Tote auf 100.000 Infizierte, was SARS-CoV-2 als ein weitgehendes harmloses Virus ausweist. Hinzu kommt, dass die weit überwiegende Zahl der Toten keine „an“ Corona gestorbene Toten wären. Bhakdi schätzt die Gefährlichkeit von SARS-CoV-2 als zwischen einem Fünfzigstel und einem Hundertstel schwächer als das Grippevirus, welches vor zwei Jahren in Deutschland 25.000 Tote forderte (Bhakdi ebd.). Diese Grippeepidemie wurde damals ohne jede Schwierigkeit und ohne jedes öffentliche Aufsehen vom Krankenhaussystem bewältigt; eine staatliche Abwehrreaktion war nicht nötig und erfolgte auch nicht (ebd.). Für das viel harmlosere SARS-CoV-2 hat das umso mehr zu gelten. Die weitgehende Harmlosigkeit von SARS-CoV-2 wird auch durch eine aktuelle französische Studie bestätigt, von der  Bhakdi ebenfalls berichtet. In ihr wird die Gefährlichkeit von SARS-CoV-2  etwa gleich hoch eingeschätzt wie die alltäglicher Coronaviren. Der Titel der Studie „SARS-CoV-2“: fear versus data“ zeigt schon an, worum es geht: Die allgemeine Coronafurcht ist durch die Datenlage nicht gerechfertigt (Roussel et al. 2020).

Wir beginnen nun mit der schulmäßigen verfassungsrechtlichen Prüfung nach Maßgabe des Verhältnismäßigkeitsgrundsatzes mit seinen drei Elementen der

 

  1. Geeignetheit,

 

  1. Erforderlichkeit und

 

  1. Zweck/Mittel- Proportionalität

 

des Grundrechtseingriffs.

Auf den ersten Blick scheint der Shutdown erfolgreich und damit geeignet zu sein, das Ziel der Verlangsamung des Infektionsgeschehens zu erreichen. Denn die sog. Reproduktionsrate (R), die angibt, wie viele weitere Personen ein Infizierter ansteckt, ist von ursprünglich über 3 auf knapp unter 1 gesunken. Im Zuge dieses Erfolgs haben die Krankenhäuser denn auch erhebliche Überkapazitäten im Intensivbereich aufgebaut, was den Anteil der freien Betten an der Gesamtzahl der Intensivbetten z.B. in Bayern auf 51 % (zweithöchster Wert) und in Berlin auf 31 % (niedrigster Wert) erhöht hat (Handelsblatt vom 24./25./26. April 2020, S. 33).  Der genauere Blick anhand einer Kurve, die vom Hannoveraner Ökonomen Stefan Homburg angefertigt und bei Markus Lanz am 21. April vorgeführt wurde, zeigt aber, dass R schon einige Tage vor dem Shutdownbeschluss vom 23. März auf unter 1 gesunken ist und seitdem leicht unterhalb dieser Marke pendelt, ohne weiter deutlich zu sinken. Damit wäre den beiden Shutdownbeschlüssen das Testat der Geeignetheit i. S. des Verhältnismäßigkeitsgrundsatzes zu versagen.

Das RKI wendet freilich ein, dass der R-Wert das reale Geschehen „etwas überschätzt“, vor allem weil die Testkapazitäten stark erhöht worden seien (17. Epidemiologisches Bulletin des RKI). Unterstellt, der R-Wert läge in Wahrheit 0,2 – 0,3 Punkte niedriger, also etwa bei 0,6, ändert das nichts an der Feststellung, dass der entscheidende Abstieg von dem hohen R-Sockel von über 3 auf unter 1 bereits vor dem Shutdown erfolgt ist. Und dass aus der geringen Verbesserung des R-Wertes danach die Eignung des Shutdown nicht hergeleitet werden kann.

Man kann diese Frage aber letztlich dahin gestellt sein lassen, denn es ergeben sich eindeutige Belege für die fehlende Erforderlichkeit des Shutdown. Diese sind im Vorstehenden bereits genannt worden, sie lassen sich in der Feststellung zusammenfassen, dass SARS-CoV-2 ein weitgehend harmloses Virus ist. Das legt die sehr geringe Letalitätsrate von 0,37 % zwingend nahe. Das Hamburger Obduktionsergebnis legt nahe, dass es nahezu keine ursächlich „an“ COVID-19 Gestorbenen gibt. Die französische Studie setzt die Gefährlichkeit von SARS-CoV-2 gleich mit derjenigen normaler Coronaviren. Schließlich zeigt der Vergleich mit dem 50- bis 100- fachen stärkeren Grippevirus von vor zwei Jahren, welches trotz 25.000 Toten keinerlei Abwehrmaßnahmen des Staates evoziert hat, dass die gegenwärtigen Maßnahmen des Shutdown weit überzogen sind. Die „milderen Mittel“ wie Hygieneregeln, Abstandsgebote und (die freilich medizinisch umstrittene) Maskenpflicht sind ausreichend zur Eindämmung des Virus, weitergehende Maßnahmen sind nicht erforderlich.

Schließlich ist auch die Zweck/Mittel- Proportionalität nicht gewahrt, die Shutdownbeschlüsse sind wie das Schießen mit Kanonen auf Spatzen: es werden wesentliche  Grundrechte einer ganzen Nation über Wochen in Quarantäne genommen, um ein weitgehend harmloses Virus zu besiegen.

Um der grundrechtsdogmatischen Vollständigkeit willen sei noch erwähnt, dass die Prüfung der Zweck/Mittel- Propotionalität des Eingriffs in die Berufsfreiheit (Art. 12 Abs. 1 GG) nach den Regeln der sog. Drei-Stufen-Lehre erfolgt. Für die Berufsausübung (1. Stufe) sind „vernünftige“ Gesichtspunkte des Gemeinwohls ausreichende Rechtfertigung, für die subjektiven Zulassungsbeschränkungen bei der Berufswahl (2. Stufe) werden „wichtige“ Gesichtspunkte des Gemeinwohls zur Rechtfertigung gefordert und bei den objektiven Zulassungsbeschränkungen bei der Berufswahl (3. Stufe) „überragend wichtige“ Interessen des Gemeinwohls. Die Regelungen des Shut­down wie Restaurantschließungen und Veranstaltungsverbote erfolgen auf der 1. Stufe (Berufsausübung ), auf der wichtige Allgemeininteressen zur Rechtfertigung ausreichend sind. Das wäre klar der Gesundheitsschutz der Bevölkerung. Aber auch bei der Berufsausübungsfreiheit muss der Eingriff geeignet und erforderlich sein, wobei letzteres oben schon verneint worden ist.

Aus den Wortmeldungen der Ministerpräsidenten im Vorfeld der Verlängerungsentscheidung ergibt sich, dass sie sich an „Gefühl und Wellenschlag“ ausrichteten, und das Ergebnis der lege artis nach den Regeln der WHO durchgeführten Feldstudie der Bonner Wissenschaftler ebenso in unglaublicher Ignoranz ignorierten wie das Ergebnis der schon vorher erschienenen französischen Studie. Eine Ausnahme in der Dilettantenrunde aus Ministerpräsidenten und Vertretern der Bundesregierung bildet wahrscheinlich auch der MP von NRW Armin Laschet nicht, obwohl er die Studie der Bonner Wissenschaftler bis zuletzt politisch begleitet hatte. Das schließe ich aus dem Umstand, dass Laschet in späteren Statements (zuletzt bei Anne Will am 26. April) sich niemals auf die geringe Letalitätsrate von 0,37 % zur Begründung seines Plädoyers für mehr Lockerung berufen hat.

Hier zeigte sich das Versagen der großen Politik ein weiteres Mal, nachdem sie schon am Anfang des Prozesses die Erhebung der sachgerechten Statistiken versäumt hatte. Genauso wie beim Klimathema zeigt sich, dass die große Politik in Deutschland mit Wissenschaft nicht adäquat umgehen kann. Lässt sie sich beim Klima einseitig von dem federführenden superalarmistischen Potsdam- Institut beraten unter vollständiger Nichtbeachtung der zahlreichen hervorragenden skeptischen Klimawissenschaftler, so sind ihre Ratgeber bei Corona offensichtlich allein Wissenschaftler vom Schlag des Virologen Christian Drosten von der Berliner Charité und des Robert Koch Instituts, welche es nicht einmal angedacht hatten, den methodisch einzig richtigen Weg einer repräsentativen Stichprobe zur Erhellung der Coronaproblematik einzuschlagen. Vollends dubios ist die Rolle von Armin Laschet, der direkten Kontakt zu dem abweichenden Virologen Streeck hatte und seine Ergebnisse kannte, diese im politischen Ringen aber niemals verwendete. Wollte er seine Chancen als Bewerber um den CDU- Vorsitz nicht schmälern? Denn die von Streeck und seinen Kollegen gefundene geringe Letalitätsrate des Coronavirus legt die Axt an die gesamte Shutdown-Politik der Bundesregierung.

Und aktuell zeitigt die Totalignoranz der Politik das fatale Resultat, dass sie trotz Rückgangs der Reproduktionszahl (R) auf unter 1 und mehr als ausreichender Intensivkapazitäten in den Krankenhäusern immer noch wie das Kaninchen auf die Schlange allein auf die Infektionszahlen schaut in der furchtsamen Erwartung einer zweiten Infektionswelle. Dass die Letalitätsrate mit 0,37 % minimal ist und damit auch einer eventuellen zweiten Infektionswelle den Schrecken nimmt, ist entweder weiter unbekannt oder wird verdrängt. Geräte dieser Umstand ins öffentliche Bewusstsein, würde die unverhältnismäßige Strategie des Shutdown wie ein Kartenhaus in sich zusammen fallen.

Aus dem zuvor im Rahmen der Prüfung der Verhähtnismäßigkeit Gesagten folgt die Verfassungswidrigkeit beider Shutdown-Beschlüsse. Dass zum Zeitpunkt des ersten Beschlusses das Bonner Forschungsergebnis noch nicht vorlag, spielt keine Rolle, da es zur Feststellung der Verfassungswidrigkeit einer Maßnahme auf die Kenntnis oder Unkenntnis entscheidungsrelevanter Fakten auf Seiten der handelnden staatlichen Stelle nicht ankommt. Die Verfassungswidrigkeit kann im Wege der Verfassungsbeschwerde von den Betroffenen (das sind alle Bürger) gem. Art. 93 Abs. 1 Nr. 4a vor dem BVerfG geltend gemacht werden. Nach § 32 BVerfGG ist auch ein Eilantrag zum BVerfG zulässig. Ist einem Bürger bzw. Unternehmen aufgrund des verfassungswidrigen Staatshandelns ein Vermögensschaden entstanden, der die staatlichen Kompensationszahlungen übersteigt, kann Schadensersatz nach den Grundsätzen des Staatshaftungsrechts geltend gemacht werden (vgl. näher Will, Quarck 2018 ). Tun das viele  Rechtssubjekte, könnte die  verfassungswidrige Coronapolitik den Staat noch sehr viel mehr kosten, als sich bisher abzeichnet. Das wird genau so sein bei dem großen Klimaprojekt der „Energiewende“, nur auf sehr viel höherem Niveau – eine  letzte Ähnlichkeit zwischen  Coronapolitik und Klimapolitik.

Meine Überlegungen münden in einen kurzen Abstecher in die politische (Tiefen-) Psychologie. Gegenstand ist das Totalversagen der Politik, welches in weiten Teilen die Unfähigkeit ist, mit Wissenschaft sachgerecht umzugehen. Zum einen hat diese Unfähigkeit wohl den Grund, dass Intelligenz keine Bedingung einer erfolgreichen politischen Karriere ist. Zum anderen ist auffällig, dass die Politik sich nicht pluralistisch beraten lässt, weder in der Coronapolitik noch in der Klimapolitik. Und noch mehr fällt auf, dass sie anscheinend ohne Zögern, wie bei den Themen Klima und Corona geschehen, die alarmistische Wissenschaftvariante wählt und an dieser Wahl unbeirrt festhält. Dahinter mag auch das halb bewusste, halb unbewusste Wissen stehen, dass der Notstand (die Krise) nach einer gängigen staatsrechtlichen Erkenntnis die Stunde der Exekutive ist. Und die damit zuwachsende Macht dürfte gerade für die überall anzutreffenden narzistischen Politiker, für deren Beruf Machtausübung in all ihren Schattierungen gleichsam konstitutiv ist, ein großes Faszinosum sein. Nach dem bekannten Tiefenpsychologen und Narzissmusforscher H.-J. Maaz gilt die Erkenntnis: „Politik ist narzissmuspflichtig“ (Maaz 2016, 189 ff). Die Geltung dieser Erkenntnis ist nicht auf Deutschland beschränkt, sondern ist ebenso global wie COVID-19 global wirkt.

 

Quellenverzeichnis

 

Bhakdi, Sucharit 2020: Offener Brief an die Bundeskanzlerin, Video vom 29.3.

Maaz, Hans-Joachim 2016: Die narzistische Gesellschaft.,

 

Nahamowitz, Peter 2020: Klimawandel und CO2: falsche Alarmzeichen für die Weltgesellschaft, in: ScienceFiles, Blaue Reihe. Band 8.

 

Roussel, Yanis et al. 2020: SARS-CoV-2: fear versus data, in: International Journal of Antimicrobial Agents, 19 March.

 

Will, Quarck 2018: Staatshaftungsrecht.

 

Der Autor ist Prof. für öffentliches Wirtschafts- und Finanzrecht sowie Politikwissenschaft am Fachbereich Rechtswissenschaften der Universität Hannover und ist seit 2007 im Ruhestand. Er lehrte seit Jahrzehnten Verfassungsrecht  an seinem Fachbereich in Hannover.




Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 2)

…siehe hierhier und hier.“ (Pat Frank 9.12.2019[1])

Teil 1 hier und Teil 3 hier

Zu 3 Messregime

Da es praktisch undurchführbar war die gemessene Temperatur in kurzen Zeitabständen abzulesen, wünschenswert wären bspw. alle 5 Minuten gewesen, definierte man entweder wenige feste Tageszeiten, an denen abgelesen (und notiert) wurde, dies wurde insbesondere in Zentraleuropa – aber zu verschiedenen Zeiten und auch unterschiedlich oft- so gemacht, oder man las nur die Max. und die Min-Werte von speziellen Thermometern ab, und war dadurch zeitlich nicht so gebunden. Man handelte sich aber damit die Unkenntnis ein, nicht genau zu wissen, wann am Tag der Max. bzw. Min. Wert aufgetreten war. Das führte zu einem speziellen, aber kräftigen Fehler bei der Auswertung, der sogar einen eigenen Namen bekam, der Time of Observation Error (TOBs). Vor allem die praktischen Briten und mit ihnen dann alle ihre Kolonien und Einflussgebiete benutzten bis zum Ende des vergangenen Jahrhunderts diese Methode.

Abbildung 5 Kleine Auswahl aus historisch vielfach verwendeten Mittelwertbildungsalgorithmen

Aus diesen punktuellen Messwerten wurden dann arithmetische Mittelwerte gebildet, das sog. Tagesmittel. Diese (verschiedenen) Tagesmittel erlaubten nun Monatsgänge der Tagestemperaturen zu bilden. Sie wurden und werden dann weiter zu arithmetischen Monatsmitteln zusammengefasst, die es wiederum erlaubten Jahresgänge zu bilden, welche den Verlauf der Jahreszeiten anhand der Mittel-Temperatur zeigten.  Diese können dann zu Zeitreihen für langjährige klimatologisch interessante Zeiten zusammengefasst werden, was auch geschieht.

Es geschieht aber noch etwas anderes mit diesen Daten, sie werden in „Anomalien“ umgerechnet, d.h. es werden Differenzen aus dem aktuellen Wert abzüglich eines Referenzwertes gebildet. Dies geschieht wegen der berechtigten Annahme, dass Anomalien die eigentlich gesuchten Veränderungen präziser und weiträumig vergleichbarer abbilden, als die der absoluten Temperaturen, die zusätzlich noch weiteren Einflüssen wie Höhenlagen, windhöffiger oder stiller Messort etc. ausgesetzt sind. Doch damit handelt man sich neue Fehlerquellen ein, von denen die wenigsten Klimaforscher etwas wissen, ja schlimmer noch, die wegen falscher, wenn auch plausibler Analogien, zu völlig falschen Ergebnissen führen müssen. Welche das im Einzelnen sind und was das bedeutet wird im Teil „Weiterverarbeitung“ ausführlich beleuchtet.

Zu 4. Die geografische und zeitliche Abdeckung

Sobald die so gewonnenen Daten etwas mehr zur Beobachtung und Deutung von großräumigem Wettergeschehen herangezogen werden sollen, was in der Natur der Sache liegt, denn Wettergeschehen ist großräumig, kommt es unmittelbar auf eine genügende räumliche wie zeitliche Abdeckung der in Frage kommende Gebiete an. Doch da setzen ebenso technische wie finanzielle Machbarkeit enge Grenzen. Errichtung und Betrieb von Wetterstationen ist nicht nur teuer, sondern verlangt neben der genügenden Verfügbarkeit der richtigen Messmittel, auch genügend personelle Kapazität, großes Know How  und Disziplin für ihren Betrieb. Und das permanent über lange, im politischen Maßstab sehr lange Zeiträume. All das war von Anfang an nicht selbstverständlich und musste erst langsam nach dem Entstehen reifen. So wundert es nicht, dass die Stationsdichte sich ausnahmslos in früh entwickelten Ländern konzentriert, während weite Teile der Welt bis Anfang der 50er Jahre praktisch ohne Messstationen blieben. Das gilt für Südamerika, Afrika und weite Teile Asiens, ebenso wie die mehr als doppelt so große Ozeanfläche dieser Welt.

Abbildung 6 Entwicklung der Zahl und Position der historischen Messstationen

darunter Aktueller Stand der im Global Historical Climate Networks GHCN der NOAA mit Monatsmittelwerten der  Temperatur  insgesamt zuliefernden 7.280 Stationen mit mindesten 10 Jahren  kontinuierlicher Datenreihen. Für Stationen mit Max/Min Erfassung gibt es ähnliche Grafiken. Quelle (http://www.ncdc.noaa.gov/oa/climate/ghcn-monthly/index.php fig. 1). Man beachte jedoch, dass von GISS und CRU davon nur ungefähr 1/7 ausgewertet werden.

Quelle https://climateaudit.org/2008/02/10/historical-station-distribution/

Abbildung 7 Darstellung der gemeldeten SST´s für die Woche vom 2. bis 8. Januar 2000. Sie zeigt die dünne messtechnische Abdeckung der Wasserfläche der Erde. Frühere Abdeckungen der Wasserfläche sind mit großer Wahrscheinlichkeit noch deutlich schlechter gewesen. Aus [REYNOLDS, R. W. & RAYNER,, 2002] Seite 1611

 

Zu 5. Die Weiterverarbeitung! Was geschieht mit den meteorologischen Messdaten?

Wie zuvor schon kurz angesprochen werden die Einzeldatensätze erst einer umfassenden Prüfung auf Konsistenz, Dauer, und Plausibilität, mit anschließender Weiterverarbeitung unterzogen. Zunächst bleibt es bei den einzelnen Stationen und ihren Daten. Je nach Verwendungszweck wird aus diesen erst Tagesmittel und daraus das Monatsmittel gebildet und von diesem eines als „Station Normal“ bezeichneten langjährigem (bspw. über 360 Monate also 30 Jahre) Mittel abgezogen. Die so entstehende Differenz wird als so gut wie fehlerfrei betrachtet, weil – so die Annahme – die lokalen systematischen Fehler ja auch im „Station Normal“ vorhanden seien, und, wenn man beide Werte voneinander abzöge, sich der Fehler kompensierte (stellvertretend dafür [Brohan et al. 2006])[2],[3]. Manchmal werden aber auch zunächst die Jahresmittel gebildet und diese vom „Station Normal“ abgezogen. Die Grundannahme aber, von der Fehlerselbstkorrektur bei Bildung von Anomalien, bleibt aber dieselbe.

Und daher behaupten so gut wie alle Klimaforscher, auch Stefan Rahmstorf vom PIK unwidersprochen[4], dass Anomalien viel genauer seien als die ihnen zugrunde liegenden Absolutwerte. Liest man seinen Text genauer, dann muss man feststellen, dass er sich mit der Materie nicht beschäftigt hat, sondern nur auf die Korrelation zwischen den Trends von absoluten Temperaturdaten verweist, wie sie schon von James Hansen für seine Schwarze Kunst verweist. Es bleibt ein bitterer Treppenwitz der Wissenschaftsgeschichte, dass Annahmen über Korrelationskoeffezienten herunter bis 0,33 (Hansens Grenzwerte) die Politik in ein nie dagewesenes Desaster treiben konnte.  Wer Näheres dazu wissen möchte sei auf diesen Beitrag verwiesen: Von Korrelationen, Trends bei Anomalien![5]

Doch diese Annahme ist – bei Zeitreihen von Anomalien – und das werde ich im Folgenden belegen, bis auf eine Ausnahme, immer falsch!

Anmerkung:

Der folgende Text ist einem Artikel entnommen, den ich am 7. Februar 2011 bei EIKE einstellte, und der am 23.11.2018 aktualisiert wurde.

In der Klimatologie werden zur Bestimmung des Referenzwertes, die errechneten Monatsmittel oder Jahresmittel der gemessenen Temperatur einer Station, über den Zeitraum von 1961 bis 1990 aufaddiert und durch die Anzahl aller Monats- oder Jahresmittel dieses Zeitraumes geteilt. Der so enthaltene Wert entspricht einer Geraden gleicher „Temperatur“ über den Referenz-Zeitraum von 1961 bis 1990. (Es kann im Prinzip aber auch jeder andere Zeitraum sein.) Der zugehörige Referenz-Wert wird oft das Stationsnormal genannt. Folgerichtig heißen die Abweichungen vom (Stations)-Normal Anomalien.

Nun bildet man die Differenz aus allen absoluten Jahresmitteln Tx der Zeitreihe und dem Stationsnormal Tref und ermittelt auf diese Weise eine neue Zeitreihe der Anomalien eben dieser Station.  Dabei geht man von der Annahme aus, dass diese, wenn sie einen Fehler C enthalten, dieser auch im Stationsnormal vorhanden ist. Ferner unterstellt man, dass C eine konstante Größe hat. Bspw. Brohan und Jones[6] formulieren diese Annahme (in Bezug auf die Fehler durch unterschiedliche Mittelwertbildung) so:

„..There will be a difference between the true mean monthly temperature (i.e. from 1 minuteaverages) and the average calculated by each station from measurements made less often; but this difference will also be present in the station normal and will cancel in the anomaly.

Berechnet man jetzt die Anomalie Ax = (Tx+C) –(Tref+ C), dann hebt sich C auf. Das ist schlichte Algebra. So weit so gut! Die große Frage ist nun, funktioniert das bei Zeitreihen auch so? Warum denn nicht, wird mancher vorschnell antworten. Die Algebra ist schließlich immer gleich! Oder?

Es zeigt sich sehr schnell, dass die Idee der Fehlerkompensation, die hinter dieser einfachen Methode steckt, ebenso plausibel wie falsch ist, bzw. sie stimmt nur innerhalb ganz enger Randbedingungen, die in der hier interessierenden Praxis nicht eintreten.

Ende Teil 2

[1] Zitate in deutscher Übersetzung von Pat Frank Quelle: https://www.eike-klima-energie.eu/2019/09/09/fehler-fortpflanzung-und-die-zuverlaessigkeit-von-projektionen-der-globalen-lufttemperatur/

[2] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.

[3] Brohan et. al geben auf Seite 6 den allgemeinen Glauben an die Fehlerfreiheit der Anomalien wider, in dem sie schreiben: „..There will be a dierence between the true mean monthly temperature (i.e. from 1 minute averages) and the average calculated by each station from measurements made less often; but this dierence will also be present in the station normal and will cancel in the anomaly. So this doesn’t contribute to the measurement error.“ Im Folgenden beschreiben die Autoren wie die Anforderungen an die Bildung der „station normals“ also der Referenzewerte (lt. WMO der Mittelwert jeder Station über die Jahre 1961-1990) aufgeweicht (relaxed) wurden. Die durchgeführte Re­duk­ti­on der An­for­de­run­gen zur Bildung des Referenzwertes (Station Normal) auf nur noch 15 Jah­re und da­raus 3 x 4 Jah­re in je­der De­ka­de, er­höht den Feh­ler, der schon in der Ver­wen­dung des Sta­ti­on Nor­mals steckt, wei­ter.

[4] Verwirrspiel um die absolute globale Mitteltemperatur Verwirrspiel um die absolute globale Mitteltemperatur

[5] https://eike.institute/2018/01/09/von-korrelationen-trends-bei-anomalien/

[6] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.

Für alle die diese Arbeit am Stück lesen wollen hier das pdf dazu Die schwierige nimmer endende Fehlerdiskussion




IPCC-Politik und solare Variabilität

[Hinweis: Der folgende lange Beitrag ist an einigen Stellen gekürzt. Anm. d. Übers.]

Die Studie wirft ein grelles Licht auf die politischen Probleme beim IPCC. Um die Debatte um ACRIM vs. PMOD in den richtigen Zusammenhang zu bringen und zu zeigen, warum diese undurchsichtige und komplizierte wissenschaftliche Debatte wichtig ist, müssen wir auch das Politik-Durcheinander innerhalb des IPCC und des UNFCCC beleuchten.

Das Komposit der TSI-Aufzeichnung von ACRIM zeigt eine Zunahme der Sonnenaktivität von den 1980er Jahren bis etwa zum Jahr 2000. Danach flacht sie ab und beginnt bald abzunehmen. Das ACRIM-Komposit wurden von Richard Willson in einem Artikel für das Magazin Science bereits im Jahre 1997 vorgestellt (Willson1997). Dieses Komposit wurde im Jahre 2014 von Scafetta und Willson aktualisiert (Scafetta and Willson 2014).

Im darauf folgenden Jahr 1998 wurde von Claus Fröhlich und Judith Lean (Fröhlich und Lean 1998) ein rivalisierendes Komposit eingeführt. Darin gehen die gleichen Daten ein, doch bekommen sie eine abnehmende Sonnenaktivität von 1986 bis 1997 heraus. Claus Fröhlich arbeitete am Physikalisch-Meteorologisches Observatorium Davos (PMOD). Die beiden Komposits werden in Abbildung 1 verglichen:

Abbildung 1: Vergleich der TSI-Komposits nach ACRIM und PMOD. Der Graph der ACRIM-TSI (oben) zeigt eine Zunahme von 1986 bis 1997, was mit dem leicht abnehmenden Trend des Graphen des PMOD-Komposits kontrastiert. Der größte Teil dieser Differenz zwischen beiden ist die Art und Weise, wie die „ACRIM-Lücke“ von Mitte 1989 bis August 1991 dargestellt wird. Quelle: Modifiziert aus Scafetta, Willson and Lee et al. 2019, darin deren Abbildung 3

Es gab drei ACRIM-Satelliten, deren Messungen genau und allgemein unbestritten sind – außer von der PDMO-Gruppe. Bei dem Disput zwischen ACRIM und PDMO geht es darum, wie die „ACRIM-Lücke“ von Mai 1989 bis August 1991 zu interpretieren ist. Die Lücke hatte sich aufgetan, nachdem die Challenger-Katastrophe den Start des ACRIM2-Instrumentes verzögert hatte. Ein weiterer signifikanter Unterschied ist, dass das PMOD-Team es vorzog, die Virgo-Ergebnisse an Stelle von ACRIM3 zu nutzen.

[Hier wird der Streit mit gegenseitigen Zitaten weiter erläutert]

Es scheint, dass Judith Lean politisch motiviert war, das ACRIM-Komposit in Frage zu stellen. Aber es steckt mehr dahinter, und um das zu erläutern, müssen wir kurz auf die einzelnen IPCC-Klimawandel-Berichte eingehen. Wir man sehen wird, konnte das IPCC nur auf eine einzige Art und Weise berechnen, ein wie großer Anteil des Klimawandels dem Menschen geschuldet und welcher Teil natürlichen Ursprungs ist, nämlich indem das IPCC die natürliche Komponente modellierte und von den Beobachtungen subtrahierte, um die menschliche Komponente abzuleiten. Die natürliche Komponente ist sehr komplex und wirkt über verschiedene Zeitmaßstäbe. Sie wird hauptsächlich bestimmt durch die solare Variabilität und ozeanische Oszillationen. Beide sind noch kaum verstanden, und das IPCC sowie die CMIP-Modelle können beides nicht genau modellieren. Das IPCC führt viele Forschungen in allen möglichen Bereichen durch, aber wir wollen uns hier nur auf den wichtigsten Bereich konzentrieren, nämlich: Wie groß ist der Einfluss des Menschen auf das Klima?

Der erste IPCC-Bericht

Das IPCC ist eine unabhängige Körperschaft, ins Leben gerufen unter der Aufsicht der WMO und des UNEP. Sein selbst gestecktes Ziel ist:

Das IPCC ist die internationale Körperschaft, um die Wissenschaft bzgl. des Klimawandels zu untersuchen. Es wurde im Jahre 1988 durch die WMO und das UNEP gegründet, um politische Entscheidungsträger mit regelmäßigen Abschätzungen auf der wissenschaftlichen Grundlage des Klimawandels zu versorgen, dessen Auswirkungen und zukünftige Risiken, sowie Optionen zur Anpassung und Abschwächung (IPCC 2020)

Das UNFCCC (United Nations Framework Convention on Climate Change), welches nicht direkt mit dem IPCC verbunden ist, sagt Folgendes zur Mission des IPCC:

Das IPCC untersucht die wissenschaftlichen, technischen und sozio-ökonomischen Informationen, die relevant sind für das Verständnis der Risiken des vom Menschen verursachten Klimawandels (UNFCCC 2020).

Dem IPCC selbst zufolge untersucht dieses die Risiken des Klimawandels ohne jede Erwähnung von dessen Ursache. Es berät sowohl hinsichtlich Abschwächung (vorzugsweise durch Einschränkung fossiler Treibstoffe) als auch hinsichtlich Anpassung wie etwa mit Deichen, Air Conditioning, Heizung usw. Dem UNFCCC dagegen zufolge soll es (das IPCC) den vom Menschen verursachten Klimawandel untersuchen, was ein großer Unterschied zur Verlautbarung des IPCC ist. In ähnlicher Weise unterscheiden sich beide Agenturen auch bei der Definition des Begriffs „Klimawandel“. Das politisch ausgerichtete UNFCCC definiert diesen als

eine Änderung des Klimas, welche direkt oder indirekt menschlichen Aktivitäten zugeordnet werden kann (UN 1992)

Das kontrastiert mit der IPCC-Definition von „Klimawandel“, die weniger politisch und mehr wissenschaftlich ist:

Eine Änderung des Klimazustands, der … längere Zeit andauert, normalerweise Dekaden oder noch länger. Klimawandel kann natürlichen internen Prozessen oder externen Antrieben geschuldet sein, oder auch persistenten anthropogenen Änderungen der Zusammensetzung der Atmosphäre oder des Landverbrauchs (IPCC 2012)

Man kann leicht erkennen, dass UNFCCC und IPCC einen potentiellen Konflikt haben. Tatsächlich ist es ja so, dass wenn das IPCC zu dem Ergebnis kommt, dass der Mensch überhaupt keinen signifikanten Einfluss auf das Klima hat, das UNFCCC keine Berechtigung seiner Existenz hat. Im Ersten IPCC-Bericht 1990 (FAR) war man sich unsicher, ob globale Erwärmung natürliche oder anthropogene Ursachen habe. Die Schlussfolgerung lautete:

Die globale mittlere Temperatur ist während der letzten 100 Jahre um 0,3°C bis 0,6°C gestiegen … die Größenordnung dieser Erwärmung stimmt im Großen und Ganzen mit den Prognosen von Klimamodellen überein, ist aber gleichzeitig von gleicher Größenordnung wie die natürliche Klimavariabilität. … Die eindeutige Auffindung eines verstärkten Treibhauseffektes durch Beobachtungen ist für über ein Jahrzehnt oder noch länger unwahrscheinlich (IPCC 1992, S. 6)

Angesichts der großen Bandbreite von Meinungen innerhalb der wissenschaftlichen Gemeinschaft und des Fehlens jedweder solider Belege für den menschlichen Einfluss auf das Klima ist diese Schlussfolgerung logisch. Aber diese brachte politische Probleme für das UNFCCC mit sich. Der einzige Grund für dessen Existenz war der vom Menschen verursachte Klimawandel. Falls das IPCC die anthropogene Ursache nicht finden kann, steckte man in Schwierigkeiten. Auf die Wissenschaftler wurde enormer Druck ausgeübt, in Folgeberichten den Klimawandel menschlichen Aktivitäten zuzuordnen.

[Hervorhebung vom Übersetzer]

Der politische Standpunkt zu jener Zeit wird eindeutig mit dem folgenden Ausspruch von Senator Tim Wirth auf dem Erd-Klimagipfel in Rio im Jahre 1992 belegt:

Wir müssen auf dem Thema globale Erwärmung weiter herumreiten. Selbst wenn die Theorie der globalen Erwärmung falsch ist, tun wir das Richtige hinsichtlich Wirtschafts- und Umweltpolitik“ (National Review Editors 2010)

Der zweite IPCC-Bericht SAR

Alle nachfolgenden Berichte haben dann Klimawandel und globale Erwärmung dem Menschen zugeordnet. Der Zweite Zustandsbericht (SAR) überschritt diese Grenze mit der folgenden Schlussfolgerung:

Die Übersicht über alle Belege zeigt einen wahrnehmbaren menschlichen Einfluss auf das globale Klima!“ (IPCC 1996, S. 4)

Ronan und Michael Conolly (Conolly & Conolly 2019) erklären, dass diese Feststellung Eingang in den SAR gefunden hatte, weil Ben Santer, Leitautor des SAR-Kapitels zu den Ursachen des Klimawandels, einige unveröffentlichte und nicht begutachtete Arbeiten von ihm selbst vorgestellt hatte, in denen er behauptet, einen „Fingerabdruck“ des menschlichen Einflusses auf die globale Erwärmung gefunden zu haben. Seine Beweise umfassten Messungen, die von 1963 bis 1988 troposphärische Erwärmung und stratosphärische Abkühlung zeigten. Dies passte zu einer Prognose der für den SAR herangezogenen Klimamodelle. Vermeintlich würde zusätzliches Kohlendioxid in der Atmosphäre die Erwärmung in der Troposphäre und die Abkühlung in der Stratosphäre zunehmen lassen. Er stellte keine Verbindung her zwischen diesen Messungen und menschlichen Emissionen von Kohlendioxid oder derartigen Emissionen allgemein her, sondern er sagte einfach, dass sich so etwas Ähnliches zeigt wie von den Modellen prognostiziert.

Es waren schwache Beweise, und obwohl das Ganze nicht begutachtet und nicht einmal zur Veröffentlichung eingereicht worden war, wurde es angenommen. Weiter unten räumt die Studie ein, dass man die relative Größenordnung des natürlichen und des menschlichen Einflusses auf das Klima nicht quantifiziert hatte. Man hat einfach eine statistisch signifikante Ähnlichkeit zwischen einigen Beobachtungen und den Modellprognosen gezeigt.

Der politische Druck seitens des UNFCCC bzgl. der Verantwortung des Menschen war unerbittlich, und man musste etwas tun. Es gab einige hartnäckige Gerüchte, dass jemand heimlich den Text im SAR verändert hatte, nachdem die Autoren den Text bereits abgenickt hatten, und zwar auf eine Art und Weise, dass obige Schlussfolgerung gestützt und abweichende Ergebnisse gelöscht wurden. Das kann so sein, muss es aber nicht.

Unglücklicherweise löste die Studie von Santer (Santer et al. 1996), nachdem sie schließlich veröffentlicht worden war, einen Sturm an Kritik aus. Im Einzelnen wiesen Patrick Michaels und Paul Knappenberger (Michaels and Knappenberger 1996) darauf hin, dass der troposphärische „Hot Spot“, den Santer als den „Fingerabdruck“ des menschlichen Einfluss genannt hatte, sofort verschwand, wenn man den Zeitraum verfügbarer Daten von 1963 bis 1987 auf den Gesamtzeitraum dieser Daten ausdehnte, 1958 bis 1995. Mit anderen Worten, es sah so aus, als ob Santer für seinen „Fingerabdruck“ cherry-picking betrieben habe.

Neben der Rosinenpickerei mit den Daten gab es aber noch weitere Probleme bei Santers Interpretation. Die Erwärmungs- und Abkühlungstrends, die sie gefunden zu haben glaubten, könnten auch natürlichen Ursprungs sein, wie Dr. Gerd-Rainer Weber erklärte. Der Anfang von Santers willkürlich gewähltem Zeitraum war gekennzeichnet durch Vulkanismus und das Ende desselben durch starke El Ninos.

Der dritte Zustandsbericht TAR

Das IPCC war zutiefst brüskiert worden nach der Enthüllung, dass Santer et al. die Daten im SAR manipuliert hatte, aber man brauchte immer noch einen wie auch immer gearteten Weg, um die Menschen für den Klimawandel verantwortlich zu machen. Man fand eine andere Studie, welche perfekt für diesen Zweck geeignet schien, und hob diese im TAR lang und breit auf den Schild.

[Gemeint war natürlich der „Hockeyschläger“. Über diesen sowie dessen völlige Entlarvung als Betrug ist anderswo schon sehr viel geschrieben worden. Daher wird die erneute Beschreibung davon in dieser Übersetzung übersprungen. – Anm. d. Übers.]

Der vierte Zustandsbericht AR 4

Zu der Zeit,als der vierte Bericht verfasst wurde, war der Hockeyschläger umfangreich diskreditiert, und im Lichte dieses Vorgangs hat der Leitautor des relevanten Kapitels (Kapitel 6) Keith Briffa eingeräumt, dass die jüngste Erwärmung nicht ungewöhnlich sei. Er schrieb:

Einige der seit Erscheinen des TAR durchgeführte Studien zeigen eine größere vielhundertjährige Temperatur-Variabilität während der letzten 1000 Jahre als im TAR beschrieben (IPCC 2001, Kapitel 6, Seite 1)

Es ist ein schwaches Einräumen des Scheiterns, wie man erwarten konnte, aber er gibt zu, dass der Stiel des Hockeyschlägers zu flach verlief und dass die Temperaturen während der Mittelalterlichen Warmzeit höher gelegen haben könnten als heute. Dieses Eingeständnis nahm den Wind aus den Segeln des TAR und es stellte sich die Frage, was kann man jetzt machen? Es schien keinerlei Daten zu geben, welche den Gedanken stützen, dass die Menschen globale Erwärmung verursachen.

Das IPCC entschloss sich, im AR4 viel mehr die Klimamodelle in den Vordergrund zu schieben als Paläo-Temperatur-Rekonstruktionen, atmosphärische „Fingerabdrücke“ oder irgendwelche andere Beobachtungsdaten. Seit nunmehr zwanzig Jahren hatte man nach Belegen gesucht dafür, dass die Menschen der Hauptgrund für die jüngste Erwärmung seien, und man hat keine gefunden. Aber jetzt „entdeckte“ man, dass falls man die Klimamodelle ganz ohne irgendwelche menschlichen Klima-Antriebe laufen ließ, die berechneten globalen Temperaturen flach verliefen. Dies erkennt man in Abbildung 3 b:

Abbildung 3: Die IPCC-Modellberechnung des menschlichen Einflusses auf das Klima. Zwei Modell-Mittel werden in beiden Graphiken gezeigt. Die blaue Kurve stammt aus dem AR4, CMIP3, die rote Kurve aus dem AR5, CMIP5. Beide werden mit Beobachtungen verglichen (schwarz). Die obere Graphik zeigt Modelle unter Einbeziehung sowohl menschlicher als auch natürlicher Antriebe, die untere Graphik ausschließlich natürliche Antriebe. (Quelle: IPCC 2013, Kap. 10, S. 879).

Man ließ die Modelle also laufen, und bei der Modellrechnung mit menschlichen und natürlichen Einflüssen (Abb. 3a) zeigte sich, dass die Temperaturen steigen. Na bitte! Wir haben die menschlich verursachte globale Erwärmung belegt und brauchen keine Beobachtungsdaten mehr! Damit schrieben sie triumphierend:

Der größte Teil des beobachteten Anstiegs der globalen mittleren Temperatur seit Mitte des 20. Jahrhunderts geht sehr wahrscheinlich auf die beobachtete Zunahme von anthropogenen Treibhausgasen in der Atmosphäre zurück“ (IPCC 2007, S. 10)

Wir haben den Vergleich zwischen Modellergebnissen und Beobachtungen aus AR 5 bereits in Abbildung 3 gezeigt. In Abbildung 4 zeigen wir die dem AR 4 entsprechende Abbildung:

Abbildung 4: Vergleich des Modells einer natürlichen Erwärmung allein (b) und einer Erwärmung aus natürlichen plus menschlichen Ursachen (a) sowie Beobachtungen in schwarz. Quelle: IPCC 2007, S. 684)

In diesen Klima-Simulationen sind die einzigen natürlichen Antriebe, welche irgendeinen Unterschied machen, Vulkanausbrüche. Solare und ozeanische Variationen werden über den gesamten untersuchten Zeitraum auf Null gesetzt. Die Vulkanausbrüche sind in Abbildung 4 gekennzeichnet. Das Fehlen eines robusten Modells des natürlichen Klimawandels kann man daran erkennen, dass die Beobachtungen von 1910 bis 1944 nur schlecht zu den Simulationen passen, sowohl in Abbildung 3 als auch in Abbildung 4. Angesichts der reichlichen Literatur, in welcher ein signifikanter solarer Einfluss (Soon, Connolly and Connolly 2015) sowie ein solcher von natürlichen ozeanischen Oszillationen belegt wird (Wyatt and Curry 2014), kann man leicht jedwede Berechnung eines menschlichen Antriebs in Zweifel ziehen, welcher aus den Abbildungen 3 und 4 abgeleitet wird. Folglich ist die Schlussfolgerung im AR 4 und die ähnliche Schlussfolgerung im AR 5 mit ähnlicher Logik fragwürdig.

Der fünfte Zustandsbericht AR 5

Der AR5 ist im Wesentlichen eine Überarbeitung des AR 4 – man macht das Gleiche und führt die gleichen Verfahren durch. Es werden keinerlei neue Daten präsentiert, welche eine menschliche Mitwirkung am Klimawandel stützen; die gleichen Modelle werden bis auf ein paar minimale Änderungen hier und da laufen gelassen, und man kommt im Wesentlichen zu der gleichen Schlussfolgerung aus den gleichen Gründen wir im AR 4:

Über die Hälfte des beobachteten Anstiegs der globalen mittleren Temperatur (GMST) von 1951 bis 2010 ist sehr wahrscheinlich der beobachteten Zunahme anthropogener Treibhausgase (GHG) geschuldet (IPCC 2013, S. 869)

TSI und das IPCC

Soon, Connolly & Connolly 2015 identifizierten viele valide und begutachtete Rekonstruktionen der Sonnenaktivität (hier), welche einen Großteil der Erwärmung seit 1951 und davor erklären können. Diese Rekonstruktionen wurden samt und sonders vom IPCC ignoriert.

Zur gleichen Zeit, als der AR 4 geschrieben wurde, war die anerkannte Sonnenaktivität (TSI) als Komposit von Satellitenmessungen der Solarstrahlung, also ACRIM in Abbildung 1 (Willson 1997). Es zeigte einen zunehmenden Trend der Sonnenaktivität von den 1980er bis zu den 1990er Jahren. Dies stützt den Gedanken, dass zumindest ein Teil der Erwärmung auf die zunehmende Sonnenaktivität zurückzuführen ist. Scafetta und Willson schrieben 2014:

Unsere Analyse bietet eine Validierung erster Ordnung des ACRIM TSI-Komposits nebst dessen Aufwärtstrend um 0,037% pro Dekade während der solaren Zyklen 21 und 22 (1986 bis 1997). Die Implikationen einer zunehmenden TSI während der globalen Erwärmung der letzten beiden Jahrzehnte des 20. Jahrhunderts sind, dass ein solarer Antrieb ein signifikant größeren Faktor ist als in den CMIP5-Klimamodellen repräsentiert (Scafetta und Willson 2014).

Wir wir oben gesehen haben, leitete Judith Lean die Entwicklung des rivalisierenden PMOD TSI-Komposits und räumte ein, dass die Gründe zumindest teilweise politischer Natur waren. Fröhlich und Lean folgern, dass es unwahrscheinlich sei, dass TSI irgendeine globale Erwärmung verursacht hat. Dann sagen sie, dass sie nicht genügend Daten haben, um sich da sicher zu sein. Während das ACRIM-Komposit zu jener Zeit mehr anerkannt war, fand aber auch das PMOD-Komposit viel Unterstützung.

[Im Folgenden wird dieser Gegensatz noch ausführlich und mit vielen technischen Details ausgeführt. Auf die Übersetzung dieses Teils wird hier verzichtet. Damit kommen wir zu den…]

Conclusions

Es scheint, als ob sich das IPCC in eine Sackgasse manövriert hat. Man war nicht in der Lage, aus Beobachtungen irgendwelche Belege abzuleiten, dass der Mensch zum Klimawandel beiträgt, und noch weniger einen menschlichen Einfluss auf das Klima. Man reduzierte alles auf die Erzeugung von Klimamodellen und auf die Messungen zwischen diesen Modellen, welche menschliche Antriebe umfassen und denjenigen, bei denen das nicht der Fall ist. Dieses Verfahren fand Eingang sowohl in den AR 4 als auch in den AR 5 – es war in beiden Berichten ähnlich, genau wie auch die Ergebnisse. AR 5 war nichts weiter als eine Wiederholung des AR 4 ohne jede bedeutenden Verbesserungen oder zusätzliche Belegen.

Es sieht so aus, als ob es hinsichtlich der Ergebnisse in beiden Berichten ein signifikantes Problem war, Rekonstruktionen mit geringer solarer Variabilität eingehen zu lassen und die genauso gestützten Rekonstruktionen hoher solarer Variabilität zu ignorieren. Dies reduziert die berechnete natürliche Komponente des Klimawandels und vergrößert die berechnete menschliche Komponente. Teil des Problems mit den Rekonstruktionen geringer solarer Variabilität ist, dass sie „frisiert“ worden waren, um zum PMOD TSI-Komposit zu passen, welches ebenfalls ein Proxy-Modell zur Grundlage hat. Folglich hat man ein Modell herangezogen, um Satellitenmessungen zu verändern und diese dann zur Kalibrierung eines Proxy-Modells benutzt. Das Proxy-Modell wird dann zurück datiert bis zum Jahr 1700. Nicht sehr überzeugend.

Scafetta et al. haben in ihrer Studie das PMOD-Verfahren umgekehrt. Sie verwendeten die unstrittigen TSI-Beobachtungen vor und nach der ACRIM-Lücke, um empirisch die niederfrequente Komponente des TSI-Proxymodells zu adjustieren, um die Lücke zu schließen. Ihr Verfahren lässt ausdrücklich zu, dass den Modellen eine gering variierende Komponente in den Regionen mit ruhiger Sonne fehlt, was eine Variation von solarem Minimum zu solarem Minimum ermöglicht. Sie nahmen das Problem der ACRIM-Lücke in Angriff, ohne die TSI-Aufzeichnungen minderer Qualität von Nimbus7/ERBS oder ERBS/ERBE zu verwenden. Sie haben einfach evaluiert, wie die Proxy-Modelle die ACRIM-Lücke schließen. Die Proxy-Modelle unterschätzten die TSI-Zunahme bis zum Höhepunkt des Sonnenzyklus‘ 22 und überschätzten die Abnahme. Probleme gab es auch bei der ordentlichen Rekonstruktion der Sonnenzyklen 23 und 24.

Scafetta et al. justierten dann die Modelle, um die Diskrepanz zu korrigieren (anstatt die Daten zu verändern!) und erzeugten ein TSI-Komposit, welches gut zum ACRIM-Komposit passte sowie zu einem weiteren Komposit von Thierry Dudok de Wit (Dudok de Wit, et al. 2017). Sowohl das neue Komposit als auch das Dudok de Wit-Komposit zeigen einen zunehmenden Trend von 1986 bis 1997, genau wie das ACRIM-Komposit und ganz anders als das PDMO-Komposit.

Das neue Komposit zeigt eine Zunahme der TSI um 0,4 W/m² von 1986 bis 1996 und eine doppelt so starke Zunahme von 1980 bis 2002. Nach 2002 zeigt sich eine Abnahme. Das entspricht dem ACRIM-Komposit. Das PMOD-Komposit zeigt von 1986 bis 1996 eine Abnahme. PMOD scheint durch diese Studie diskreditiert, und es wird interessant sein, die entsprechenden Diskussionen während der nächsten Jahre zu verfolgen.

Die Bibliographie zu diesem Beitrag steht hier.

Dieser Beitrag wurde durch viele hilfreiche Vorschläge von Dr. Willie Soon und Dr. Ronan Connolly verbessert.

Link: https://wattsupwiththat.com/2020/04/20/ipcc-politics-and-solar-variability/

Übersetzt von Chris Frey EIKE




Freunde, ich bin verwirrt. Total und tutto kompletti durcheinander

Merkel bezeichnet die Pandemie als „eine demokratische Zumutung“. Die Maßnahmen, die zur Bekämpfung des Virus beschlossen wurden, hätten „kein historisches Vorbild“, an dem man sich orientieren könne.” Wie jetzt? Noch nie zuvor gab es eine weit verbreitete Seuche? Meint sie das ernst oder sagt sie das nur so in der Gegend herum, wie diese Scherzaussage, dass man Grenzen nicht schützen könne?

Es gibt kein historisches Vorbild für den Umgang mit Seuchen? Ganz Europa wurde mehrfach von der Pest heimgesucht, als Hamburgerin weiß ich, dass im 14. Jahrhundert die Pest dort die Hälfte der Bevölkerung dahinraffte mit einschneidenden Auswirkungen auf das tägliche Leben. Jetzt lebe ich in einem Ort vor den Toren Hamburgs, dort gibt es heute noch eine kleine Kapelle aus dem 15. Jahrhundert, die früher etwas außerhalb der Stadtmauern lag. Dort wurden die Lepra – und die Pestkranken untergebracht. Also so gesehen, historische Vorbilder für Isolation, Quarantäne und seuchenbedingte wirtschaftliche Probleme gibt es durchaus.

Aber das ist nur die eine Hälfte meiner Verwirrung, die andere ist der Umstand, dass neulich noch die Welt an ganz etwas anderem unterging, nämlich am Klima. Oder am CO2, so genau weiß ich es nicht. Das scheint neuerdings ein Gift zu sein, obgleich ich mal gehört habe, dass Pflanzen das irgendwie brauchen, Photosynthese oder so etwas.  Es muss jedoch neue Forschung geben, denn neuerdings ist CO2 ein Gift und das Klima wird nicht von verschiedenen Faktoren wechselwirkend beeinflusst, sondern vom Menschen gemacht, der das aber komplett vergeigt. Daher müsse man etwas tun, sonst ginge die Menschheit oder der ganze Planet wenn nicht sogar das Universum unter. Das Klima müsse also, komme was wolle und um jeden Preis gerettet werden, hat die Bundeskanzlerin gesagt.

Es sei eine nie da gewesene Herausforderung, eine „Existenzfrage“, es ginge ums Überleben. Daher müsse eine „Transformation von gigantischem historischem Ausmaß“ her, kleiner ginge es nicht. „Diese Transformation heißt im Grunde, die gesamte Art des Wirtschaftens und des Lebens, wie wir es uns im Industriezeitalter angewöhnt haben, in den nächsten 30 Jahren zu verlassen.“

Da bin ich aber nun baff

Netter Weise fügte die Kanzlerin an, es müsse einen Dialog geben zwischen denjenigen, die von einer höchsten Dringlichkeit ausgingen und den anderen, die eine klimagesteuerte Weltregierung nicht ganz so prall finden. Die Sprachlosigkeit müsse überwunden werden, sagte sie. Finde ich ja auch, Sprachlosigkeit geht gar nicht. Also ihr flugs diese Klimafragen mit Einschreiben geschickt– soll ja keiner sagen, die Kanzlerin wäre vergessen worden!  Geantwortet hat sie auch und zwar, dass sie keine fachliche Bewertung abgeben könne.

Ach was? Kann sie nicht? Da bin ich aber nun baff. Sie hat doch in Davos gesagt, es sei alles ganz, ganz schlimm und nun weiß sie nie nix? Hm, heißt das, sie will transformieren, da soll geklotzt und nicht gekleckert werden, sie hat aber ernsthaft keine Ahnung warum und wohin? Ohne quengelig erscheinen zu wollen, aber so ein kleines bisschen suboptimal ist das schon, gell? Immerhin, man muss ihr hoch anrechnen, dass sie erfrischend ehrlich zugibt, dass sie von der Sache keine Ahnung hat, das ist doch schon ein richtig guter Ansatz für ein Gespräch.

Zum Beispiel ich jetzt so: „Also wenn Sie keine Ahnung von den Klimafragen haben aber etwas transformieren wollen, warum dann nicht einfach mal das Wohnzimmer umräumen?“ Sie dann so: “Ähm, also das Wohnzimmer ist eigentlich schön, aber wie wäre es mit dem Kanzleramt?“ Ich dann so: „Ja prima, ist sowieso ein hässlicher Klotz, wie wäre es denn mit abreißen und neu bauen?“ Ich hätte auch super Vorschläge für den geplanten Wehrgraben vor dem Bundestag, den könnte man hübsch mit Zugbrücke und Türmchen als Erlebnispark aufpeppen, gerne auch mit Fanfaren, wenn die Kanzlerin erscheint. Schließlich sind viele Touristen da, denen muss man doch etwas bieten! Man sieht, gut, dass wir mal darüber geredet haben!

Immerhin hat sie uns die Adresse des Umweltministeriums mitgeteilt (Stresemannstraße 128-130, 10117 Berlin.), wo man sich die Antworten auf die Fragen abholen kann, was klar beweist, dass das Gerücht von wegen Servicewüste Deutschland erstunken und erlogen ist. Da die Bürger, die putzigen Kleinen, bestimmt noch nicht mit dem Internet umgehen können, hat sie ihnen ganz fürsorglich den Weg gewiesen. Danke, Mutti!

Kein Drache, sondern nur ein Gummibärchen

Zwei der diversen im Bundestag vertretenen Parteien, nämlich AfD und FDP haben unsere Klimafragenbeantwortet, die anderen (bisher) nicht. Man kann, muss aber nicht Rückschlüsse über das demokratische Verständnis der im Bundestag vertretenen Parteien ziehen.

Die Antworten der AfD gehen gar nicht. Einfache, klare Sätze mit deutlichem Inhalt – so geht doch Politik nicht! Da kann ja jeder kommen, das kann sogar jeder lesen und verstehen, wo kommen wir denn da hin? Von Merkel lernen heißt schwurbeln lernen, Sätze ohne Inhalt, aber dafür viel heiße Luft, so etwas hat noch jeden Ballon nach oben befördert. Und noch etwas: Man darf doch nicht inhaltlich antworten, z. B. dass der IPCC mangels langfristiger Daten gar nicht sagen kann, ob die Temperatur wirklich fällt oder steigt oder ob es nur zwischenzeitliche Wellenbewegungen sind (Börsianer wissen, wovon ich spreche), das fetzt einfach nicht. Bei Heldenepen muss es einen Helden geben, der gegen irgendetwas kämpft, wogegen ist ziemlich egal, Hauptsache es macht fix etwas her. Wenn man einfach so dahin geht und sagt, da ist aber gar kein Drache, sondern nur ein Gummibärchen, tja dann ist es doch kein Wunder, wenn die anderen einen nicht mögen. So etwas von Spielverderber!

Da macht es die FDP deutlich besser. Zunächst einmal schreibt sie viel. Da sieht man den Profi, als Jurist erkenne ich das natürlich sofort, denn ich weiß: Mangelnden Inhalt kann man am besten hinter vielen Worten verstecken. Kurz zusammen gefasst schreibt sie, dass sie allem sowohl als auch und absolut glaubt, weil alles zweifelsfrei und Wissenschaft sei, alles erwiesen usw..

Dabei ist die Frage 1 der Klimafragen mit dem Zitat, das keine belastbaren Prognosen möglich sind, ein gewisses Problem, denn wenn keine belastbare Prognose für die zukünftige klimatische Entwicklung unter dem Einfluss des anthropogenen CO2 erstellt werden kann, gibt es auch keine Berechtigung für eine Große Transformation einschließlich einer Energiewende, die eine gigantische Herausforderung für Deutschland und die gesamte Menschheit darstellt. Die FDP umschifft diese Problematik clever, indem sie sagt: „Wahrscheinlichkeit und statistische Unsicherheiten sind inhärente Merkmale jeder Forschung, die wissenschaftlichen Grundsätzen folgt.“ Und dass man nicht weiß, sei nicht nur gut, sondern ein Qualitätsmerkmal. Den genialen Einfall hätte ich früher bei einer Mathearbeit gut gebraucht. Aber Leute, wenn Nichtwissen ein Qualitätsmerkmal ist, dann bin ich so etwas von qualitativ hochwertig, das gibt es gar nicht! Ihr könnt mich glatt für jeden Spitzenposten nehmen!

Als politische Handlungsanweisung nicht ausreichend

Nun ist es aber so, dass die Ergebnisse des IPCC zwar hochinteressant sind, aber als politische Handlungsanweisung nicht ausreichend belastbar sind. Nur mal als Beispiel: Für die Modellierung des Klimas ist ein extrem kompliziertes System von partiellen nichtlinearen Differentialgleichungen mit stochastischem Anteil numerisch zu lösen. Um überhaupt rechnen zu können, benötigen die Computer Werte für Rand- und Anfangsbedingungen in diesem System – die Ergebnisse hängen entscheidend davon ab. Diese Bedingungen lassen sich zum großen Teil jedoch nur schätzen. Als Beispiel sei hier nur die Aufnahme und Abgabe von CO2  durch die Böden genannt; wozu die Untersuchungen erst in den Anfängen stecken. Bei Wikipedia kann man zur Einarbeitung der Randbedingungen lesen: „Vor allem die Prozesse in der Biosphäre werden im Augenblick noch als Größen und Parameter vorgegeben.“

Das fügt ein Element der Beliebigkeit in die Modellierungen ein, welches die Ergebnisse entscheidend beeinflussen kann. Denn: In den von ungeheuer komplizierten Wechselwirkungen geprägten Systemen kann sich eine kleine Abweichung von der Realität bei den Annahmen zu großen Fehlern im Ergebnis aufschaukeln. Ein solches Problem lässt sich auch nicht durch eine noch so erhebliche Steigerung der Rechenleistung beheben. Bereits dieser Fakt stellt die Prognosetauglichkeit der Modellrechnungen infrage.

Im Gegensatz zu einer Behauptung von Stefan Rahmstorf, dass „die Klimamodelle seit fünfzig Jahren die globale Erwärmung korrekt vorhergesagt haben “ (SPIEGEL vom 31.01.2020), gab es in der Geschichte der Modellierung bemerkenswerte Defizite. Tatsächlich konnte weder der Abfall der Globaltemperatur zwischen 1945 und 1975 (der übrigens damals führende Klimatologen zur Prophezeiung einer neuen Eiszeit veranlasste) noch die zehnjährige „Hiatuspause“ vorher rechnerisch dargestellt werden. Und im Bericht des IPCC von 2007 hieß es noch: „Die Gletscher im Himalaja sind mit hoher Wahrscheinlichkeit bis 2035 oder vielleicht schon früher verschwunden.“ Nach lebhafter Kritik an dieser Aussage brauchte der Weltklimarat drei Jahre, um sie zu revidieren.

Die zutreffende Beschreibung vergangener Klimaverläufe wäre eine notwendige Bedingung für die Fähigkeit von Modellen, zukünftige Entwicklungen zu prognostizieren – hinreichend ist eine solche Modelleigenschaft noch nicht. Wenn die Modellrechnungen Vertrauen verdienten, sollten deren Ergebnisse im Verlauf ihrer Entwicklung sich wenigstens einigermaßen asymptotisch den belastbaren Resultaten annähern. Stattdessen wurde 2018 eine Änderung der bis vom IPCC vertretenen Vorstellungen um mehr als 100 Prozent verkündet.

So unpräzise wie eh und je

Dies zeigt ein Interview des SPIEGEL vom 05. Oktober 2018 mit einem der Leitautoren des letzten Sachstandsberichtes des IPCC, dem Direktor des Max-Planck-Instituts für Meteorologie in Hamburg, Professor Jochem Marotzke. Er erklärt darin: „Unser verbleibendes CO₂-Budget für das 1,5-Grad-Ziel ist wohl mindestens doppelt so groß wie gedacht, fast tausend Gigatonnen. … Offenbar verbleibt ein kleinerer Teil der ausgestoßenen Treibhausgase in der Atmosphäre, weil Wälder und Ozeane mehr davon schlucken als gedacht.“ Gleichzeitig reduzierte das IPCC die tolerable Grenze der Temperaturerhöhung in diesem Jahrhundert von 2 auf 1,5 Grad. Prof. Marotzke stimmte der Klassifizierung dieses Wertes als „politischer Grenzwert“ in dem Interview zu.

Eine ungeschönte Darstellung der Probleme von Klimamodellierung aus berufenem Mund findet sich in der SPIEGEL – Ausgabe vom 22. März 2019: Prognosen zur Erderwärmung, Warum Wolken der Fluch aller Klimaforscher sind. Darin wird der seit 20 Jahren am Hamburger Max-Planck-Institut für Meteorologie auf dem Feld der Klimamodellierung forschende Bjorn Stevens vom SPIEGEL intewiewt. Er schildert die Schwierigkeiten einer Modellierung des Wolkenphänomens; wir geben hier einige seiner Aussagen wieder: „Die Rechenleistung der Computer ist auf das Vielmillionenfache gestiegen, aber die Vorhersage der globalen Erwärmung ist so unpräzise wie eh und je. …..Es ist nicht leicht, dieses Versagen der Öffentlichkeit zu vermitteln. ….Die Temperaturen in der Arktis zum Beispiel klaffen in den verschiedenen Modellen um teilweise mehr als zehn Grad auseinander. Das lässt jede Prognose der Eisbedeckung wie bloße Kaffeesatzleserei erscheinen.“

Die Behauptung der FDP, es sei unstrittig und wissenschaftlicher Konsens, dass ohne Minimierung der menschlichen Treibhausgasemissionen nicht verantwortbare Schäden entstünden, stehen im Widerspruch z. B. zu den Fakten aus dem Protokoll einer Anhörung von John R. Christy vor dem Ausschuss für Wissenschaft, Weltraum & Technologie der Vereinigten Staaten am 29. März 2017. John R. Christy ist Klimatologe des Staates Alabama und Professor für Atmosphärenwissenschaft sowie Direktor des Instituts für Wissenschaft des Erdsystems an der Alabama Universität in Huntsville, Leitautor und Peer-Reviewer von Veröffentlichungen des IPCC. Die von ihm präsentierten Ergebnisse von 32 Computermodellen des IPCC für Temperaturverläufe in den Tropen beweisen nicht nur, dass von „korrekter Vorhersage“ keine Rede sein kann, sondern zeigen auch die beste Übereinstimmung von berechneten mit gemessenen Werten, wenn der Treibhauseffekt unberücksichtigt bleibt.

Ein lustiges Grünen-Experiment

Immerhin kann sich die FDP freuen. Schließlich will sie ja nur eine Verlangsamung des Klimawandels, damit die Menschen sich besser anpassen können: „Der Klimawandel muss vor allem besser erforscht, begrenzt und in seiner Geschwindigkeit verlangsamt werden. Nur dann können sich unsere Gesellschaften auch erfolgreich anpassen.“

Null Problem, die Verlangsamung der Geschwindigkeit bekommen wir hin, denn wenn alles vom CO2 abhängt, dann haben wir reichlich Zeit gewonnen. Wir haben weltweit nicht nur seit Anfang des Jahres reichlich Zeit eingespart, sondern werden es auch noch ein Weilchen in der Zukunft tun, Corona lässt grüßen. Zugleich fahren wir ein lustiges Grünen – Experiment: Was passiert, wenn wir die Industrie herunterfahren? Wie prall ist es, wenn Reisen eingeschränkt ist? Auch das urbane Leben mit outgoing und socializing ist nicht wirklich klimaneutral, die Einschränkungen konnte man nun testen.

Das neue vegan ist jetzt das „stay home“. Und wie klug ist überhaupt die grüne Vision, zwar gegen Massentierhaltung zu sein, gleichzeitig aber die Massenmenschenhaltung mittels Urbanisierung zu betreiben, damit man richtig super anfällig ist für Viren oder sonstige Ereignisse (Stromausfälle?), die dann ganz einfach mit einem Streich alle Neune kegeln können? Der hochgelobte ÖPNV – die Virenschleuder schlechthin – und fällt es aus, dann sieht der Urbane alt aus. Kann aber passieren, schneller als man denkt.

Was ich aber besonders lustig finde: Kein Klimamodell hat eine Seuche eingepreist, dieser Fall war nicht bedacht. Damit zeigt sich das Problem mit den Vorhersagen der Zukunft bei komplexen Systemen. Es gibt da genau eine, absolut zuverlässige Regel, wonach es erstens anders kommt und zweitens als man denkt.

Anmerkung: Ich danke ausdrücklich und ganz herzlich Herrn Prof. Dr. Dr. Wulf Bennert für seine fachliche Zuarbeit.  

Frau Anette Heinisch ist Rechtsanwältin in Hamburg und Mitinitiatorin von Klimafragen.org

Der Beitrag erschien zuerst bei ACHGUT hier




Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 1)

Teil 2 hier und Teil 3 hier

Mein Beitrag über zwei kleine Anfragen der AfD (hier) zur ungelösten Problematik der absoluten globalen Mitteltemperatur in jüngerer historischer Zeit – die Pariser Klimaübereinkunft bezieht sich sogar auf „Werte vorindustrieller Zeit“ ohne diese auch nur ansatzweise zu beziffern- hat eine große, manchmal hitzige, Diskussion ausgelöst. Mit aktuell 127 Kommentaren und über 3000 Aufrufen (Stand 27.4.20 12:00 Uhr) gehört er sicher zur Klasse der Meistgelesenen. Soweit so gut.

Die z.T. hitzigen Kommentare zeigen m.E.n. aber auch, dass viele Leser mit der zugrunde liegenden, manchmal komplizierten, meteorologischen Messtechnik nicht so vertraut sind, wie sie der Artikel vielleicht voraussetzt. Das hat zur Folge, dass sie nicht auf Anhieb verstehen, warum der Artikel Versäumnisse – gar Falschinformationen-  der Bundesregierung – beanstandet.

Sie vertrauen dabei auf ihre eigenen, oft in wissenschaftlicher Arbeit gemachten Erfahrungen aus eigener Anwendung der Messtechnik und ihrer Behandlung von Messdaten. Diese stimmen aber – so meine eigene Erfahrung – wenig bis nicht mit den hier angewendeten Methoden und Verfahren, insbesondere bei der Erstellung und Bewertung von Zeitreihen, überein. Und sind deshalb in ihrer Schlichtheit selten auf diese Messdaten anzuwenden.

Dies voraus geschickt will ich die Leser jetzt ein wenig in die meteorologische Messtechnik von Temperaturdaten und deren Auswertung einführen. Dabei sollen die alten wissenschaftlichen Grundsätze gelten, klassifiziere erst und vergleiche dann, aber vergleiche immer nur Vergleichbares.

Zunächst schauen wir uns an, wie, wo, wann und wie oft die historischen Temperaturdaten gemessen und vorverarbeitet wurden.

Dann werden wir uns die Bildung von Anomalien aus diesen bereits vorverarbeiteten Daten und die sich daraus ergebenden Besonderheiten anschauen und zum Schluss die Bildung von Zeitreihen, und wie diese auf Fehlerkompensation bzw. Nichtkompensation Einfluss nehmen.

Was nicht behandelt wird.

Gänzlich außen vor lassen wir hier den magischen Trick der Klimaforscher, aus bekannten absoluten Unsicherheiten der Messwerte durch Bildung von Anomalien aus vielen Temperaturdaten statistische Wahrscheinlichkeiten werden zu lassen, die sich mit der bekannten Wahrscheinlichkeitsverteilung der Normalverteilung über ein oder zwei Sigma berechnen ließen. Darüber hat Kip Hansen eine sehr eindrückliche Kritik geschrieben. Sie finden Sie hier unter dem Titel„Der „Trick“ anomaler Temperatur-Anomalien

Weil es das Thema viel zu weit ausdehnen würde, lassen wir auch die merkwürdige Behauptung des Stammvaters aller Klimaängste, James Hansen außen vor, der in einem paper zusammen mit seinem Kollegen Lebedeff 1987[2] behauptet, es wäre möglich auch mit einer sehr geringen Zahl von ca. 80 Gitterzellen gleicher Fläche von 2500 x 2500 km  die Temperaturentwicklung der gesamten Erde zu bestimmen. Und dies obwohl in den meisten Zellen nur sehr wenige, in anderen überhaupt keine Messstationen vorhanden waren. Dieser Artikel war die Grundlage und ist es noch heute, für die Behauptung, dass die Anomalienbildung und deren Korrelation über große Flächen hinweg aussagefähig für die Temperaturentwicklung sehr große Flächen seien. Diese Idee, die jeder Korrelations- und Fehlerrechnung widerspricht, wird hier unter dem Titel Von Korrelationen, Trends bei Anomalien! besprochen

Und ebenfalls lassen wir die Erkenntnis von Dresdner Statistikern außen vor, die nachwiesen, dass selbst echt zufällige Fehler, sofern sie sich in Daten finden, die für autokorreliert sind und in entsprechenden Zeitreihen verwendet werden, systematische Komponenten in der Größe von einigen Zehntel Grad entwickelten. Details dazu finden Sie im Artikel mit dem Titel „Konfidenz-Intervalle* für zeitliche Mittelwerte bei langfristigen Korrelationen: eine Fallstudie zu Anomalien der Temperatur auf der Erde

Am Schluss der Vorbemerkung erlaube ich mir noch den Hinweis auf die Tatsache, dass mit der Bildung von raum- und zeitüberspannenden Durchschnittswerten, die darin enthaltenen Temperaturwerte ihre physikalische Bedeutung als Temperatur verlieren. Es entsteht stattdessen irgendeine Art von Index. Er ist für statistische Zwecke begrenzt brauchbar, wenn man die Randbedingungen beachtet, aber keine physikalische energetisch relevante Größe mehr. Wer dazu genaueres wissen möchte, der sei auf den schöne Beitrag von C. Essex und R. McKittrick von 2006 verwiesen mit dem schönen Titel „Does A Global Mean Temperature exist“[3]

 

Wie, wo und wann wurden die historischen meteorologischen Messdaten gewonnen?

  1. Thermometer

Am Anfang stand und steht das Thermometer. Dabei ist es zunächst egal, ob es ein mechanisches oder ein elektronisches ist, obwohl jede Art einen erheblichen Einfluss auf die (systematischen) Fehler hat, natürlich auch auf die erzielbare Genauigkeit.

  1. Messumgebung

Doch mindestens ebenso wichtig ist die Messumgebung. Diese wird bestimmt durch das Gehäuse (Messhütte), welches das Thermometer vor verfälschenden Umgebungseinflüssen, wie Strahlung, Wind oder Niederschlag aber auch Beschädigung schützen soll, aber auch in starkem Maße von der unmittelbaren Umgebung. Um vergleichbare Ergebnisse wenigstens annähernd zu erreichen, muss dies bestimmten überall vergleichbaren Standards genügen und sorgfältig gebaut und gepflegt werden.

  1. Messregime

Und auch das Messregime ist von entscheidender Bedeutung, nämlich wann und wie oft, von wem und wie das Thermometer abgelesen wird.

  1. Die geografische und zeitliche Abdeckung

Und da das Wetter- wie das Klimageschehen nicht an nationalen Grenzen haltmacht, muss die geografische Abdeckung mit Messstationen gesichert sein, und das sowohl nach Zahl als auch nach Ort und Zeit. Alle drei Anforderungen werden erst seit dem Aufkommen der Satelliten hinreichend erfüllt. Dabei tauscht man die Vorzüge der Satellitenmessung gegen einen enormen Nachteil ein, denn man musste einen unangenehmen Kompromiss akzeptieren. Es ist die sehr schlechte vertikalen Auflösung. Eine Satellitenmessung ist daher immer der Mittelwert von Temperaturänderung über eine Distanz von ca. 5000 m. (z.B. der lower troposphere)

  1. Was geschieht mit den meteorologischen Messdaten? Die Weiterverarbeitung!

Bis zur „Erfindung“ der Idee von der Notwendigkeit einer weltweiten Mitteltemperatur, gab es nur wenige Meteorologen, die die vorhandenen Messdaten nutzen wollten, um evtl. aus ihnen eine weltweite Mitteltemperatur zu extrahieren. Man begnügte sich damit – nachdem solche großartigen Wissenschaftler der Meteorologie wie Köppen die Definition von Klimazonen etabliert hatten- für diese Klimazonen oder Regionen Mitteltemperaturen und deren Jahresgänge zu berechnen. Normalerweise dienten die meteorologischen Messdaten aber vor allem der örtlichen Wettervorhersage und bez. ihrer Langzeit-Analyse auch dazu ggf. lokale Klimaänderungen im Nachhinein zu erkennen.

Anmerkung: Achten Sie mal auf die örtlichen Wetterberichte, dort wird man ihnen so gut wie nie die erwartetet Durchschnittstemperatur der nächsten Tage nennen, sondern ausschließlich deren Maxima und Minimawerte.

Dazu erstellte man Zeitreihen (hier Temperatur-Ganglinien) entweder aus absoluten Werten oder von Anomalien je nach Bedarf, deren erzielbare Genauigkeit für die gewünschten Zwecke völlig ausreichte.

 

Zu 1. Thermometer

Abbildung 1 zeigt eine klassische, deutsche Wetterhütte (erweiterter Stevenson Screen) und (rechts) ein darin befindliches modernes Thermometerensemble gezeigt,  wie es immer noch in vielfältiger Vewendung ist. Die senkrechten Thermometer sind (links) das Assmansche Aspirationthermometer zur Temperaturmessung, rechts daneben ein befeuchtetes und belüftetes Psychrometer zur Messung der Luftfeuchte. Quer darunter befinden sich zwei liegende Thermometer zur Messung von Max. und Min. Temperaturen. Die runde Plastiktrommel enthält den Federmotor mit Ventilator zur Erzeugung des Luftstromes mit Ø 2,5 m/s vor und während der Messung. Im März 2009 vom Autor im Metereologischen Institut der Freien Universität Berlin aufgenommen

Obwohl schon Galileo erste Versuche unternahm mit einem Thermometer meteorologische Messungen zu machen, und sich danach ein ziemlicher Wildwuchs an solchen Thermometer ausbreitete, weil viele Landesfürsten die aufkommende Meteorologie aus naheliegenden Gründen für äußerst wichtig hielten, kann man erst ab 1892 von einem Standardinstrument für meteorologische Zwecke sprechen. Es handelt sich dabei um das zwangsbelüftete Assmansche (Quecksilber gefüllte) Aspirationsthermometer (linkes, senkrechtes Thermometer). Die zuvor verwendeten tlw. mit Alkohol gefüllten Thermometer mit mehr als ± 1 Kelvin Gesamt-Unsicherheit wurden nach und nach weltweit ersetzt. In den angelsächsisch orientierten tlw. auch regierten Ländern setzte sich hingegen oft zusätzlich das Max-Min-Thermometer durch.

Doch allein die Wahl des Thermometers, sein jeweiliger Zustand, seine Montage, sein Betrieb und seine Ablesung sorgen für eine ganze Reihe von zufälligen wie systematischen Fehlern. Diese wurden vielfach sorgfältig untersucht, aber nur in geringer Anzahl auch quantitativ bestimmt und damit überhaupt erst theoretisch korrigierbar.

 

Zu 2. Messumgebung

Für die Messumgebung war von Anfang an klar, dass dieses zuallerst eine Art Schutzhütte sein sollte, von denen besonders im 19 Jahrhundert eine ganze Reihe von Konstruktionen erprobt wurden, wobei sich letztendlich die erweiterte englische Hütte als Standard durchsetzte. Doch bis dahin waren die (wenigen) Messergebnisse praktisch unvergleichbar, weil die Hütte auf ihre eigene Art die Messergebnisse beeinflusste.

Abbildung 2 Darstellung der zum Ende des 19. Jahrhunderts und bis heute verwendeten Hüttentypen bzw. Screens von links: französische Hütte, daneben (kaum erkennbar)  Mitarbeiter zum Größenvergleich, daneben (Original) Stevenson Hütte, dann Wildsche Hütte, dann mehrere erweiterte Stevenson Hütten und moderne runde kleine Screens. (Quellen. Linkes Bild [Sprung, 1890] rechtes Bild: KNMI Messfeld von van der Meulen  für die Zeit von  1989-1995)

Praktisch unkorrigiert, obwohl seit langem bekannt, ist der systematische Fehler, der allein durch die Wärmeträgheit der Hütte entsteht, und der ca + 1 bis 2 Kelvin zu jedem Ergebnis der eigentlich gesuchten Außentemperatur hinzuaddiert. Praktischerweise definieren jedoch die Meteorologen die Temperatur in der Hütte[4], als die gesuchte Außentemperatur. Woraus geschlossen werden muss, dass jede durch diese Messungen gewonnene absolute Temperatur im Mittel im 1 bis 1,5 Kelvin gegenüber der wahren Außentemperatur zu hoch sein muss.

Abbildung 3(links): Englische Hütte und moderne Messstation am Messort Detroit Lakes USA, kurz vorher aufgenommen und ins Netz gestellt am 25.07.07 von A. Watts; (rechts) Temperaturverlauf aus der GISS Datenbank zur Messstelle Detroit Lakes USA

Beispiel für den Zustand und Umgebung einer meteorologische US Messstation sowie deren Zeitreihe ihrer Jahresmittelwerte, die vom Projektteam untersucht wurde. Man beachte den Sprung ab etwa dem Jahr 2000 und die Entlüftungen der Klimaanlagen in unmittelbarer Nähe.

Nicht weniger Einfluss hat die unmittelbare Umgebung in der die Messhütte.

Zur Klärung dieses Sachverhaltes hat sich der Meteorologe und Betreiber des inzwischen weltweit erfolgreichsten Klimarealisten- Blogs Wattsupwiththat Antony Watts große Meriten erworben. Er rief 2007 das SurfaceStationorg. Netzwerk ins Leben, das 2009 erfolgreich mit einer Veröffentlichung [5]abgeschlossen wurde. Freiwillige im ganzen Land untersuchten über 850 der 1200 meteorologischen Messstationen, die von der US-Wetter- und Ozeanbehörde NOAA betrieben wurden.

Abbildung 4 Untersuchung von bisher (Ende Februar 2009) 854 von 1221 offiziell verwendeten Messstationen der unterschiedlichsten Art. Man beachte, dass nur 3 % aller Stationen dem Standard voll entsprechen,  weitere 8 % können evtl. noch als dem Standard genügend zugeordnet werden. Die restlichen 89 % zeigen jedoch potentielle Abweichungen nach den Vorgaben der CRN von mindestens 1 °C (20 %) über 2 °C ( 58% ) bis 5 °C (11%).

Auswertung der Überprüfung von 807 US Messstationen in Bezug auf die offizielle Einstufung ihrer Qualität und Umgebung (CRN).

Das Ergebnis war erschreckend. Der Zustand der Messstationen und damit die Messergebnisse waren miserabel. 89 % von ihnen lagen oberhalb der Fehlerklasse 2, was bedeutet, dass sie > 2 ° C bis > 5 °C fehlerhafte Ergebnisse zeigten. Nur 3 % lagen gleich oder unterhalb von 1 °C. Und noch schlimmer war, dass diese Stationen für die gesamte Welt sozusagen als Goldstandard in Punkto Qualität galten. D.h. die vom IPCC und ihren Zuarbeitern immer wieder herangezogenen Daten aus den anderen Kontinenten waren mit hoher Wahrscheinlichkeit noch schlechter.

Es würde hier zu weit gehen, die vielfältigen Fehlerquellen allein der landbasierten Messstationen aufzulisten, daher beschränke ich mich auf zwei kurze Ergänzungen.

  1. Selbst bei identischer Konstruktion von Hütte und Messinstrument, ergeben sich große Unterschiede allein durch das Material und seinen Anstrich, bzw. dessen Veränderung über der Zeit, z.B. durch Alterung
  2. Sind die landbasierten Messungen schon oft mit mehr (systematischen) Fehlern behaftet als ein Hund Flöhe hat, so ist das bei den seegestützten Messungen noch weit schlimmer. Und weil das Land nur 29 % der Erdoberfläche bedeckt, aber 71 % der Erde Ozeane sind, ist dieser Umstand eigentlich noch schlimmer. Denn dort sind die Messungen wirklich nur punktuell, d.h. äußerst selten sowohl in räumlicher als auch in zeitlicher Hinsicht. Ein wenig wird dieser Mangel gelindert durch die Tatsache, dass statt der eigentlich gesuchten Lufttemperatur, stattdessen, als Proxy, die Temperatur der Seewasser Oberfläche (SST Sea Water Surface Temperature) verwendet wird. Wegen der großen Wärmeträgheit und guten -Leitfähigkeit des Wassers deckt ein Messpunkt im Vergleich zum Land viel größere Gebiete ab.

Wer Interesse daran hat, diese Fehler etwas genauer behandelt zu sehen, der sei auf das Video „Wie glaubwürdig sind die Zeitreihen historischer Klimadaten“ (hier) verwiesen, dass einige der wichtigsten Aspekte zu diesen Fehlern aufzeigt.

Ende Teil 1

[1] https://www.wsj.com/articles/SB10001424052970204422404576594872796327348#printMode

[2] HANSEN, JAMES LEBEDEFF, SERGEJ (1987) Global Trends of Measured Surface Air Temperature. JOURNAL OF GEOPHYSICAL RESEARCH 92:13345 13372.

[3] Essex, C, Mc Kittrick, R. Andresen, B. (2006) Does A Global Temperature Exist? Non-Equilibrium Thermodynamics

[4] Weischet [Weischet, 1995] S115 – S 109 ff

[5]  Is the U.S. Surface Temperature Record Reliable?  By Antony Watts SurfaceStations.org ISBN 13: 978-1-934791-29-5

Für alle, die diese Information am Stück lesen wollen hier das Ganze als pdf Die schwierige nimmer endende Fehlerdiskussion




Ein sicheres Endlager in Afrika

Gabon“ – mit einem „o“ wenn Sie es französisch aussprechen wollen, auf Englisch „Gaboon“- liegt an der Westküste Afrikas auf Höhe des Äquators. Das Land ist etwa so groß wie England, hat aber in der Weltgeschichte deutlich weniger von sich reden gemacht. Nur Albert Schweitzers Hospital in Lambarene genießt gewisse Aufmerksamkeit; es wurde vor hundert Jahren geschaffen, als es die GIZ noch nicht gab.

Falls ich Sie jetzt neugierig gemacht haben sollte, noch zwei Tipps für die Reise: nehmen Sie sich vor der „Gaboon-Viper“ in Acht. Sie gilt zwar als jovial, hat aber von allen Schlangen den schnellsten Biß. Und schon ein Tausendstel des Gifts in ihren Zähnen kann für den Menschen tödlich sein.

Der zweite Tipp: wenn Sie schon mal da sind, dann besuchen Sie auf jeden Fall Oklo. Warum? Das verrate ich Ihnen gerne, nach dieser kurzen technischen Einführung.

Reaktor ABC

Ein Atomreaktor ist im Grunde genommen nichts als ein Haufen Uran, das im Wasser liegt. Dabei entstehen Hitze und Dampf, mit dem man Turbinen antreiben und Strom erzeugen kann. Und schließlich bleibt ein Cocktail aus radioaktiver Asche übrig, der für die nächsten Äonen vor sich hin strahlt.

Das Uran im Wasserbad ist an sich kein so komplizierter Aufbau, als dass er nicht in der Natur vorkommen könnte. Schließlich wird Uran auch im Tagebau geschürft, ähnlich wie Kupfer oder Silber, es liegt also nicht tief im Inneren der Erde, sondern nahe genug an der Oberfläche, um bei Regen nass zu werden.

Der japanische Wissenschaftler Paul Kazuo Kuroda war schon 1956, also lange vor uns, auf diese Idee gekommen und hat untersucht, unter welchen geologischen Bedingungen so ein natürlicher Reaktor entstehen könnte. Der französische Physiker Francis Perrin entdeckte dann 1972 genau das, was sich der Japaner ausgemalt hatte, und zwar in Gaboon, in der Region Oklo.

Hundert Kilowatt – thermisch

Wieso kommt ein Franzose auf die Idee am Äquator nach einem Atomreaktor zu suchen? Der Mann arbeitete für die französische Kernenergie-Kommission (später AREVA/ORANO), die in den fünfziger Jahren in Oklo auf Uran gestoßen war und mit dem Abbau begonnen hatte. Gaboon war damals französische Kolonie, der Abbau ging aber in großem Stil weiter, auch nachdem das Land 1960 unabhängig geworden war.

Das gewonnene Erz wurde routinemäßig in Labors sehr genau unter die Lupe genommen, sowohl chemisch als auch physikalisch, und dabei stieß man nun auf bestimmte Substanzen, bestimmte Isotope, die in dieser Konzentration nur in einem Reaktor entstehen können. Man war auf die eindeutigen Fingerabdrücke einer Kernspaltung gestoßen.

Durch systematische Analyse der Indizien rekonstruierte man nun den Ablauf der Ereignisse, die zu diesen nuklearen Überbleibseln geführt haben mussten.

Vor etwa 1,7 Milliarden Jahren fand hier spontane Kernspaltung in industriellem Maßstab statt! Das vom Regenwasser durchtränkte Uranerz bot die richtige Konfiguration für eine nukleare Kettenreaktion, die 100 kW thermische Leistung freisetzte. Solch ein „Reaktor“ – es gab mehrere dieser Art an der Lagestätte – lief kontinuierlich für 30 Minuten, dann hatte die Hitze das Wasser verdampft. Der für die Kernspaltung notwendige Moderator, das Wasser, war jetzt verschwunden.

Nach zweieinhalb Stunden aber war alles abgekühlt und die Reaktion ging wieder von vorne los. So lief das eine ganze Weile – einige hunderttausend Jahre.

Wie soll das gehen?

Als sachkundiger Leser werden Sie nun protestieren. Natürliches Uran und natürliches Wasser, wie soll das funktionieren? Daraus kann man keinen Reaktor bauen. Man braucht angereichertes Uran, oder aber natürliches Uran mit „schwerem Wasser“ als Moderator. Aber in Oklo hatte man weder das eine noch das andere.

Nun haben wir ja schon erlebt, dass manche Dinge, die früher funktionierten heute nicht mehr möglich sind. Wenn wir zwei Milliarden Jahre zurück gehen, da war einiges anders, auch in Sachen Kernspaltung. „Heutiges“ Uran besteht zu 0,7% aus dem spaltbaren Isotop U235, der Rest ist U238. Das war früher anders. Da gab es zwar auch die beiden Isotope, aber in anderem Verhältnis. Die spaltbare Komponente machte damals 3% aus; das ist auch etwa die Konzentration, wie wir sie heute im künstlich angereicherten Uran in den Brennstäben unserer Atomkraftwerke einsetzen.

Warum war das früher anders? Die Antwort ist einfach: Uran zerfällt im Laufe der Zeit – allerdings sehr langsam. Die Halbwertszeit der leichteren Komponente U235 beträgt 700 Millionen Jahre, die der anderen vier Milliarden; letzteres ist in etwa auch das Alter der Erde. Uran ist also fast eine „normale“, stabile Substanz, deren Halbwertszeit praktisch unendlich ist. Der Unterschied in den extrem langen Halbwertszeiten der beiden Komponenten hat dennoch zur Folge, dass sich die relative Konzentration über die Zeit ändert.

Zu spät auf der Party

Stellen Sie sich vor, sie wären auf einer Party und vor dem Dinner geht man herum, macht Small Talk, trinkt Champagner und nimmt sich ab und zu eines der Kanapees von dem großen silbernen Tablett. Die einen sind mit Leberpastete und einer Kaper oben drauf belegt, die anderen mit undefinierbarem Käse. Sie nehmen sich eines mit Leberpastete, die Mehrzahl der anderen Gäste übrigens auch. Die Halbwertszeit der Kanapees auf dem Tablett, also die Zeit, in der die Hälfte verschwindet, ist beim Typ Leberpastete kürzer als beim Typ Käse.

Ein Gast der später auf die Party kommt, nicht gerade zwei Milliarden Jahre, sondern eine viertel Stunde, wird nur noch ganz wenige Exemplare der leckeren Sorte vorfinden, nur noch 0,7% vielleicht. Und er wird sich deswegen bei der Gastgeberin beschweren.

Ja, so ist das auch mit dem Uran235. Wären wir früher auf der Party erschienen, dann hätten wir auch den vollen Segen abbekommen und hätten unsere Reaktoren mit natürlichem Uran und natürlichem Wasser betreiben können. Heute finden wir nur noch 0,7% davon vor. Wollen wir uns darüber beim Gastgeber beschweren? Er würde uns antworten: „Wer zu spät kommt, den bestraft das Leben.“

Sicheres Endlager

Der Fund in Oklo ist mehr als eine wissenschaftliche Kuriosität. Wir können hier viel für die Endlagerung des radioaktiven Abfalls unserer Atomkraftwerke lernen.

In Oklo fand man die gefährlichen Spaltprodukte nämlich noch genau dort, wo sie einst entstanden waren – vor zwei Milliarden Jahren. Sie hatten sich währen der halben Lebenszeit der Erde keinen Meter vom Ort ihrer Entstehung entfernt. Sie hatten sich nicht, wie ein bösartiges Virus, über unseren Planeten ausgebreitet um Trinkwasser zu vergiften und Babynahrung zu verstrahlen; nein, die gefährlichen Spaltprodukte waren, harmlos wie ein Eimer voll Sand, für alle Ewigkeit am Ort ihrer Entstehung geblieben.

Das ist für Ingenieure und politische Entscheidungsträger eine wichtige Beobachtung. Seit über einem halben Jahrhundert ist man ja in Deutschland auf der Suche danach, wie und wo der radioaktive Müll aus den Kraftwerken für immer vergraben werden soll. Man ist auf der Suche nach dem Standort für ein sicheres Endlager.

Das Grab des Tutanchamun

Diese Suche gestaltet sich schwierig, denn da ist in Teilen der Bevölkerung die Befürchtung, das Zeug hätte ein bösartiges Eigenleben, es würde den Planeten „verstrahlen“ und für Mensch und Tier auf immer und ewig unbewohnbar machen. Die Namen potentieller Standorte wie „Die Asse“ oder „Gorleben“ sind zu Schlachtrufen einer ganzen Generation grüner Aktivisten geworden.

Oklo aber hat uns demonstriert, dass diese Sorgen unbegründet sind. Wenn man den Müll gut verpackt in einen Salzstollen versenkt, dann wird er genau da bleiben, und zwar für alle Ewigkeit.

Vielleicht werden irgendwann in ferner Zukunft neugierige Forscher nach mühseliger Arbeit solch ein Endlager entdecken. Dann würden sie alles genau so antreffen wie es damals, im frühen 21. Jahrhundert, dort vergraben wurde. Sie würden sich vorkommen, wie Howard Carter, der Entdecker von Tutanchamuns Grab, der jede Kleinigkeit so vorfand, wie man sie bei Tuts Beerdigung vor mehr als drei Jahrtausenden hinterlassen hatte.

Vermutlich werden unsere Entdecker im Salzstollen dann auf zahlreiche verstaubte gelbe Täfelchen mit drei Strahlen und einem schwarzen Punkt in der Mitte stoßen. Eines davon wird dann in einem historischen Museum ausgestellt, als „Geheimnisvolles Kultobjekt, etwa aus der Zeitwende zweites / drittes Jahrtausend n.Chr. Sollte vermutlich die abergläubische Bevölkerung vor bösen Geistern schützen.“

Dieser Artikel erschien zuerst bei www.think-again.org und im Buch „Grün und Dumm“ https://think-again.org/product/grun-und-dumm/




Erneuerbare Energie: Windiges Problem für den deutschen Wald*

Wegen der kaum noch vorhandenen Akzeptanz von weiteren Windparks in der Bevölkerung und aus Mangel an sogenannten Vorrangflächen für den Bau neuer Windkraftanlagen drängen die Energiekonzerne verstärkt auf den Bau von Windparks in Wäldern. Laut dem Bundesverband Windenergie (BWE) hat der starke Rückgang der Genehmigungszahlen in den vergangenen drei Jahren zu einem „enormen Nachholbedarf“ geführt.

Zwar haben Bürger theoretisch auch bei Windkraftprojekten in Wäldern ein Mitspracherecht, jedoch liegen die Hürden für ein „berechtigtes Interesse“ sehr hoch, was sich zuletzt am Beispiel des hessischen Reinhardswalds gezeigt hat. Als „Anwälte“ der Wälder gegenüber der mächtigen Windlobby bleiben de facto nur die Naturschutzverbände, von denen aber bisher nur der Naturschutzverband Deutschland (Nabu) gelegentlich als Kläger gegen Windparkprojekte auftrat.

Generell sind BUND und Nabu aber mit der Preisgabe von Waldgebieten für den Bau von Windanlagen einverstanden, was selbst Funktionsträger dieser Organisationen schon veranlasst hat, ihre Mitgliedschaft zu kündigen.

Derartige Vorhaben sind in mehreren Bundesländern verboten, so in Schleswig-Holstein, Mecklenburg-Vorpommern und Sachsen-Anhalt. In Thüringen besteht ein solches Verbot nicht, aber es drehen sich nur zwei Windräder in den Wäldern des Freistaats. Ein Antrag von CDU und FDP, den Bau von Windrädern in Thüringens Wäldern grundsätzlich zu verbieten, stieß Anfang Januar im Erfurter Landtag bei SPD, Grünen und Linken auf Ablehnung, während die AfD den Antrag unterstützt.

In Niedersachsen, wo Ende 2019 bereits 6.311 Windkraftanlagen mit einer Gesamtleistung von 11.205 Megawatt installiert waren, wurde Anfang des Jahres das Windpark-Verbot für Wälder auf Antrag der CDU gelockert. Aus der SPD kam der Vorschlag, Windturbinen auf ausgewiesenen kahlen Flächen nach Sturmschäden und Insektenbefall zu errichten.

Damit entfiele die Vorgabe, dass Kahlflächen in Nutzwäldern aufzuforsten sind. Im Harz, wo schwerwiegende Dürreschäden infolge der anhaltenden Trockenheit verzeichnet werden, könnten somit möglicherweise bald Windräder der neuen Größenklasse mit einer Gesamthöhe von 238 Metern und einem Drehradius der Turbinen von 160 Metern aufragen und das Landschaftsbild prägen.

Die schwarz-grüne Regierungskoalition in Wiesbaden hat sich für einen radikalen Weg entschieden. Ende 2019 drehten sich 1.161 Windräder im Bundesland Hessen. Jedoch lässt sich in Hessen kinetische Energie (Wind), wenn überhaupt, nur über den meist bewaldeten Höhenlagen lohnenswert abgreifen. Neue Anlagen können kaum noch ohne Gerichtsverfahren gebaut werden.

Propeller für Grimms Märchenwald

Mit diesem Argument hat die Landesregierung im vergangenen Jahr weitere Vorrangflächen in Waldgebieten ausgewiesen, sodass man sich in Hessen jetzt mit 1,85 Prozent ausgewiesener Fläche beruhigt dem im Landesentwicklungsplan vorgegebenen Ziel nähert, wonach zwei Prozent der Landesfläche als Windvorranggebiete auszuweisen sind.

Ungeachtet massiver Proteste aus der Region und ganz Deutschland hält Wirtschaftsminister Tarek Al-Wazir (Grüne) am Vorhaben fest, den 1000 Jahre alten Reinhardswald, auch bekannt als „Grimms Märchenwald“ und „Schatzhaus der europäischen Wälder“, in einen Standort für insgesamt 50 riesige Windanlagen umzuwandeln.

Die Grünen im Schulterschluss mit der Industrie – das empört viele Einwohner und Naturfreunde.

Die Dürre hat Folgen, auch im Reinhardswald. Den Windparkbefürwortern dienen die Waldschäden als Rechtfertigung für die Ausweisung von 2000 Hektar (20 Millionen Quadratmeter) für den Bau von 50 riesigen Windrädern. Dass diese ihre Umgebung zusätzlich austrocknen, will auf offizieller Seite niemand wahrhaben. Das Genehmigungsverfahren für die ersten 20 Anlagen hat begonnen. Doch die Projektgegner sind hochmotiviert und wollen nicht aufgeben. „Die Natur Aller fällt der Profitgier Einzelner zum Opfer“, liest man auf der Internetseite der Bürgerinitiative „Rettet den Reinhardswald“.

In Nordrhein-Westfalen ist die Errichtung von Windkraftanlagen in Wäldern durch einen Erlass vom 23. Mai 2018 vom Grundsatz her erschwert worden: „Die Landesregierung will die Akzeptanz für die Nutzung der Windenergie erhalten, weil sie ein wesentlicher Bestandteil für das Gelingen der Energiewende ist.“

Der Energiekonzern BayWa (Bayerische Warenvermittlung) plant jedoch weiterhin den Bau von sieben Windrädern mit einer Nennleistung von je 4,5  Megawatt im Balver Wald westlich der Stadt Balve und südlich der Stadt Hemer.

Der Balver Wald ist die höchste Erhebung der Iserlohner Höhe wie des gesamten Märkischen Oberlandes und ein beliebtes Wander- und Erholungsgebiet. Bis Februar wurden 200.000 Euro von Kleinanlegern eingesammelt, ein nur symbolischer Kostenbeitrag für den Bau der Windturbinen. Indessen fühlen sich die Stadtverwaltungen der beiden genannten Orte bei den Planungen übergangen.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung;  24. April 2020, S.7; EIKE dankt der PAZ-Redaktion sowie der Autorin  Dagmar Jestrzemski  für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/

=================================================================




Der Schwindel von der vermeintlich grünen und erneuerbaren Energie

Hackschnitzel! Ich sage nur: Hackschnitzel werden die Welt retten. Das ist die Quintessenz der Rede von Mr. Bill McKibben. Der ist Umweltaktivist und Buchautor, schreibt Bücher über die globale Erwärmung, »End of Nature« und andere Katastrophen, ist also so etwas wie der amerikanische Franz Alt, nur noch viel lauter. Während Franz Alt einst Chinagras als Rettung der Welt propagierte und daran verdienen wollte, predigt McKibben bei der Einweihung eines holzbefeuerten Kraftwerks am Middlebury College in Vermont eben Hackschnitzel.

»Es ist unglaublich schön, sich den Hackschnitzelbunker anzusehen. Alles, was brennt, können wir dort hineinwerfen! Das zeigt, dass dies überall passieren könnte, überall passieren sollte und überall passieren muss!«

Zu sehen sind diese Szenen in dem neuesten Werk »Planet of the Humans« des amerikanischen Dokumentarfilmers Michael Moore, welches er gerade zum »Tag der Erde« auf Youtube gestellt hat.


Die Ikone der amerikanischen Grünen und Lefties schaut sich die Hinterlassenschaften der Green Energy Industrie an. Die erschrecken ihn – erstaunlicherweise.

Beispiel Daggett, California: Hier sieht er kilometerweit nur Schrott und Müll. Die Reste des einstigen Traums von ach so umweltfreundlichen Solarkraftwerken. Mit »SEGS« begann es, mit«Solar Electric Generating Systems«, neun thermischen Sonnenwärmekraftwerken. Wo? Natürlich im grünen Kalifornien.

Heute steht unter anderem in der Mojave-Wüste das Solarkraftwerk Ivanpah. Tausende von Spiegeln konzentrieren Sonnenlicht in einen Turm und erhitzen dort eine Salzlösung, die die Wärme zu einem Kraftwerk weiterleitet. Die Sprüche und Ankündigungen zu solchen »grünen« Projekten und weltbeglückenden Visionen sind immer lautstark. »Das wird die größte Solarfarm in der Welt«, zitiert Moore den damaligen Gouverneur von Kalifornien, Arnold Schwarzenegger. Normale Menschen würden in dieser Wüste nur eine tote Landschaft sehen, er aber sehe eine Goldgrube.

500 Jahre alte Yukka-Palmen mussten für die »Goldgrube« geschreddert werden. Hunderte alter Wüstenschildkröten kostete der Bau der Solarfarm das Leben. Denn Wüsten sind nicht tot.

Der Film zeigt sehr trocken die Lügen der angeblich so grünen und erneuerbaren Energie. Man sieht die Gaszuleitung zu dem Solarkraftwerk. Ohne Gas würde die gewaltige Industrieanlage nicht funktionieren. Für das Anfahren des Solarkraftwerkes muss viel Gas verbrannt werden, um die Salzlösung, die die Wärme transportieren soll, aufzuheizen.

Erstaunlicherweise hat das Kraftwerk in seiner Betriebsgenehmigung die Erlaubnis, Stickoxide auszustoßen. Dabei ist es doch scheinbar umweltfreundlich. Das Kraftwerk bezahlt sogar für sogenannte CO2 Zertifikate. Dabei wurde dies als geniale Energiequelle weltweit gepriesen, auch in Spanien, in den Pyrenäen und in Marokko entstanden mit vielen Steuermillionen geförderte Solarkraftwerke, die mit enormem technischen Aufwand das Sonnenlicht zu bündeln versuchten, um wenigstens einigermaßen brauchbare Temperaturen zu erreichen und daraus Strom zu fabrizieren. Zumindest während einiger Stunden am Tag, wenn die Sonne scheint und keine Wolken den Himmel verdecken.

»Ich musste lernen, dass auch Solarpanels nicht ewig halten«, sagt im Film ein Experte auf einer Messe für Energien. Die halten teilweise nur zehn Jahre. Das sei keine magische Energie. »Ich weiß also nicht, ob das die Lösung ist,« lacht er, »und hier helfe ich, die Materialien für Fotovoltaikanlagen zu verkaufen.«

Moore schaut hinter die Batterie-Gigafactory von Tesla inmitten der Wüste von Nevada. Gründer Elon Musk wird nicht müde zu betonen, dass die benötigte Energie ausschließlich von Wind und Sonne kommt. Hinter den Gebäuden allerdings sieht man das Umspannwerk und den Anschluss an das allgemeine Stromnetz.
Er entlarvt die Umweltpropaganda des Computergiganten Apple. »Wir hören nie auf, darüber nachzudenken, was das Beste für den Planeten ist – in allen unseren Fabriken weltweit.« Das ruft laut auf einer der legendären Apple-Konferenzen ausgerechnet Lisa Jackson in die begeistert applaudierende Menge. Jackson war übrigens die ehemalige Leiterin der amerikanischen Umweltbehörde EPA. Apple heuerte sie an.

Moore schneidet die Aussage eines Energieversorgers dagegen, der erzählt, wie Apple immer noch Strom aus ihrem Netz bezieht. Einen solchen Konzerngiganten kann man eben nicht mit Wind- und Sonnenstrom versorgen.
Moore zeigt auch die Profiteure der »Erneuerbaren«, im Fall des Solarkraftwerkes die Koch Brothers, die in ihrem Industrieimperium Guardian Glass Industry die Unmengen an Spiegel hergestellt haben sowie mit den Baustoffen Zement und Stahl kräftig verdient haben.

Man sieht den gewaltigen Materialverbrauch und die gigantischen Flächen, die für die Sonnen- und Windindustrieanlagen benötigt werden. 16 mal mehr Materialien wie Zement, Glas, Beton und Stahl verbrauchen solche Sonnenkollektoranlagen als Kernkraftwerke und erzeugen 300 mal mehr Abfall. Diese Materialien müssen abgebaut und mit hohem Energieaufwand geschmolzen und verarbeitet werden.
Im O-Ton hören wir: »Es wäre besser gewesen, fossile Brennstoffe einfach nur zu verbrennen, anstatt nur so zu tun, als ob. Wir werden im Grunde nur mit einer Lüge gefüttert«.

Moore vergisst jedoch zu sagen, dass dies prinzipbedingt ist. Die Leistungsdichten von Wind und Sonne sind zu gering, um damit nennenswerte Energien für ein Industrieland zu erzeugen. Das hat die Natur passend eingerichtet; würde die Sonne deutlich stärker auf uns herunterbrennen, könnten wir uns nicht mehr auf die Wiese legen, und schon bei einem starken Orkan hält es uns kaum noch auf den Füßen.
Eine weitere Folge des gigantischen Flächenverbrauches der »Erneuerbaren«: Brasilien muss exorbitant große Flächen zerstören und dort Zuckerrohr anbauen, um den sogenannten Biokraftstoff herzustellen. Ethanol aus Zuckerrohr benötigt ungefähr 400 mal mehr Fläche, um die gleiche Energiemenge wie Erdöl zu erzeugen.

McKibben preist im Film Deutschland, dass 80 Prozent seines Stroms aus Sonnenenergie erzeuge. Doch fehlt wieder der zweite Teil der Information, dass damit nur ein Drittel des Stromes erzeugt werde – und das nur dann, wenn der Wind weht und die Sonne scheint. Ohne Kohle und Kernkraftwerke und ohne zusätzliche Hilfslieferungen an Strom aus den Nachbarländern wäre bald Schicht im Schacht. Im Film wird sogar deutlich gesagt: Ohne Speichermöglichkeit kann man nicht auf Strom aus Wind und Sonne zählen. Die gibt es nicht – zumindest in absehbarer Zeit nicht.
Der Filmautor kommt folgerichtig auf die Frage, warum »wir« mit grüner Energie die Umwelt schädigen. Über das »Warum« sinniert und sinniert sehr langatmig: Was treibe Menschen, die sagen, die Umwelt retten zu wollen, sie zu zerstören? Das funktioniere also nicht. Kryptisch deutelt Moore, ob der Wunsch nach Nachhaltigkeit nicht in Wirklichkeit eine Art Wunsch nach Unsterblichkeit sei.

Die malthusianische Antwort, wir seien zu viele auf der Erde, ist zu kurz gesprungen. In der Erde stecken noch schier unerschöpfliche Mengen an Energie. Das Ende des Erdöls jeweils in 25 Jahren wird alle 25 Jahre aufs Neue wiederholt.
Entscheidend sind eher ganz handfeste Fragen, wie man sie in vor-ökologischen Zeiten gestellt hätte. Wie hoch ist die Leistungsdichte der jeweiligen Energie? Nicht umsonst löste Kohle einst die Holzverbrennung ab und rettete damit übrigens die Wälder. Öl und Gas verfügen über noch mehr Energie. In wichtigen Ländern wird die Kernkraft als die Energie mit der größten Leistungsdichte genutzt, nur in Deutschland nicht mehr.

Hierzulande gäbe es ebenfalls genügend Stoff für eine solche Dokumentation: 30.000 Windräder verunstalten Landschaften, die ersten zehntausend sind bereits schrottreif, doch keiner weiß, wohin mit den kritischen Rotorblättern. Auf Millionen von Dächern und auf den Äckern liegen hektarweise Fotozellen, die später als Sondermüll entsorgt werden müssen.

Das nächste Desaster deutet sich schon an. Der Euro 5 Diesel wurde einst steuerlich gefördert, schließlich emittierte er doch weniger CO2 als seine Vorgänger. Grund: Mit glänzend weiterentwickelter Technik nutzt er den Energiegehalt des Treibstoffes besser aus. Doch der wird gerade von den Umweltindustrietrupps unter einem ihrer Hauptakteure, dem derzeitigen Staatssekretär im Bundesumweltministerium, Jochen Flasbarth, zerstört.

Seit einiger Zeit werden Pelletheizungen propagiert und erheblich gefördert. Doch die belasten die Luft mit NO2 in immer stärkerem Masse, sind bereits jetzt – wie das unfreiwillige Corona-Experiment in den Städten gerade zeigt – für die NO2 Werte in den Städten verantwortlich. Wenn die NO2-Grenzwerte weiter abgesenkt werden soll, müssen als Nächstes Pelletheizungen verboten werden.
Da sage noch einer Hackschnitzel.

Der Beitrag erschien zuerst bei TE hier




Klimaalarmisten wollen Coronakrise als Blaupause für Transformation ohne Widerstand nutzen

Die politischen Umfragewerte für die Regierung steigen; nicht untypisch in Krisenzeiten; gleich, ob die Krise real oder nur medial ist. Ein junger Student neulich hinter in der Schlange am Fenster des Imbisses kommentierte mein „Hoffentlich ist der Wahn bald vorbei“ mit einem „hoffentlich nicht!“. Was soll man dazu sagen? Hat er Angst (so wirkte er nicht), oder ist er für „Vernunft“ und „Wissenschaft“?

Man sieht, wenn die Elite die Plebs ängstigt oder ihre Version von „Vernunft“ via medialer Dauerbeschallung in der Öffentlichkeit durchdrückt, sind die Plebejer erstaunlich schnell bereit, erstaunlich viel zu erdulden. Wir haben Glück, daß sich neben der „Virologen-Gretel“ Drosten (Zitat Carolin Matthié) und anderen Regierungs-Leibärzten à la Lauterbach eine große Gruppe von Ärzten um Wodarg, Bhakdi, Püschel, Streeck und Schiffmann schnell zu Wort meldete und wegen des unkontrollierbaren Internets auch nicht zu ignorieren ist. Verschwörungstheoretiker-Vorwürfe, anfangs noch gegen Wodarg geäußert, ziehen einfach nicht mehr, wenn altgediente Praktiker und renommierte Fachleute in Kompaniestärke auflaufen.

Aber wird die sprichwörtliche Fügsamkeit der Schweigenden Masse in Deutschland und Österreich (die Schweiz ist deutlich demokratischer) dadurch überwunden? Die Profiteure der Klimarettungsindustrie jedenfalls scharren schon mit den Hufen, wie ein Blick auf Klimareporter zeigt:

Die Coronakrise hat innerhalb weniger Tage alles verändert. Das zeigt: Rasche politische Maßnahmen sind sehr wohl möglich, wenn es notwendig ist. Muss das nicht auch in der Klimakrise gelten, die ein noch viel größeres Risiko darstellt?

So sagt eine der Architekten der Pariser Klimaziele, Ex-UN-Klimachefin Christiana Figueres,

Die Pfade, die wir zur Bewältigung der Krisen [Corona, Klima, Ölpreis] beschreiten, können und sollten sich auch treffen. Das müssen wir bedenken, wenn wir finanzpolitische Maßnahmen ergreifen.

Heißt: Lasse keine Krise ungenutzt; mehrere lassen sich wunderbar als Mehrfach-Argument für die Umverteilung und den Demokratieabbau nutzen.

Ein Historiker verpackt die aktuelle Umbauplanung in positive geschichtliche Entwicklungen:

„Krisen waren oft Taktgeber für Innovation“

Stimmt; so entwickelte das antike Attika seine Demokratie in der Regierungskrise. Und die Beulenpest im 14. Jahrhundert soll ein wichtiger Impuls für die Entwicklung der Renaissance gewesen sein. Allerdings war der Schwarze Tod eine Superseuche, die rund ein Drittel der Europäer tötete. SARS2 hingegen ist bekanntlich eine Infektionskrankheit, die weniger tödlich ist als die jährliche Grippewelle, um die sich niemand schert.

Interessanterweise konstruieren die Klimareporter auch einen Zusammenhang zwischen örtlicher Umweltverschmutzung und SARS2:

Studien zufolge gibt es einen Zusammenhang zwischen der Luftverschmutzung, so durch Kohlekraftwerke und Verbrennungsmotoren, und der Ausbreitung des Coronavirus. Wenn es wirklich um die Gesundheit der Menschen geht, müssen diese gesundheitsgefährdenden Quellen abgeschaltet werden.

Man sieht, den Bürgern soll nicht nur mit dem Weltuntergang, sondern auch mit dem individuellen Tod Angst gemacht werden, wie es die Anti-Atom-Bewegung in den 1980ern schon tat. Zwar ist die angegriffene Lunge eines Rauchers oder Industriegebietbewohners tatsächlich empfindlicher gegenüber Infektionen (etwas anderes ist auch nicht zu erwarten); aber wie würden sich Energiearmut und damit wirtschaftliche Armut auf die Gesundheit auf die Bürger auswirken?

Ein Interview bei den Klimareportern macht aber Mut: Ein Sozial-verbalwissenschaftler, ausgerechnet, meint:

Einige der erzwungenen Veränderungen werden überleben, doch ein breiter gesellschaftlicher Lerneffekt wird wohl ausbleiben.

Hoffen wir, daß der Mann recht behält.