1

Der alte Code und das neue Virus

Das Urteil der IT-Fachleute ist verheerend: Es handele sich womöglich um den zerstörerischten Softwarefehler aller Zeiten, was die wirtschaftlichen Kosten und die Zahl der verlorenen Leben anbetreffe. Beachten Sie bitte den Nachtrag/ die Aktualisierung am Ende des Textes-

Erinnern Sie sich noch an die Modellrechnung des britischen Wissenschaftlers des Imperial College in London, Neil Ferguson, der die Regierung in Sachen Corona beriet und die wissenschaftliche Grundlage für die strengen Ausgangsbeschränkungen in Großbritannien lieferte? Er prognostizierte 2,2 Millionen Coronatote für die USA und 500.000 für Großbritannien. Auf diesem Modell beruhte letztlich die Corona-Strategie der Abflachung der Kurve „flattening the curve“ durch Social Distancing und Lockdown.

Heute erweist sich dieses Modell als hysterische Überschätzung. Selbst die vielen Coronatoten in Großbritannien (ich möchte stets anfügen, dass diese Coronatoten auch die sehr wahrscheinlich hohe Zahl an Verstorbenen beinhalten, die unnötig intubiert wurden), werden bei weitem nicht die vorderen Ränge der jährlichen Todesursachenstatistik einnehmen, mit oder ohne Lockdown.

Gescheiterte Venus-Raumsonde

David Richards und Konstantin Boudnik, Gründer, CEO sowie Sotfwareleiter von  WANdisco bezeichnen diese Modellrechnung nun als den womöglich zerstörerischsten Softwarefehler aller Zeiten

„Die Modellierung nicht-pharmazeutischer Interventionen für Covid-19 durch das Imperial College, die dazu beitrug, Großbritannien und andere Länder zu drakonischen Lockdowns zu bewegen, wird die gescheiterte Venus-Raumsonde ablösen, die als der verheerendste Softwarefehler aller Zeiten in die Geschichte eingehen könnte, was die wirtschaftlichen Kosten und die Zahl der verlorenen Leben betrifft.“

Original auf Englisch heißt es:

„Imperial College’s modelling of non-pharmaceutical interventions for Covid-19 which helped persuade the UK and other countries to bring in draconian lockdowns will supersede the failed Venus space probe could go down in history as the most devastating software mistake of all time, in terms of economic costs and lives lost.”

Im britischen Telegraph fragen die beiden anerkannten Programmier-Spezialisten, warum die Regierung keine zweite Meinung eingeholt hat, bevor sie das Covid-Computer-Modell des Imperial College akzeptiert hat. Weiter schreiben Sie:

„Seit der Veröffentlichung des Mikrosimulationsmodells von Imperial haben diejenigen von uns, die ein berufliches und persönliches Interesse an der Softwareentwicklung haben, den Code studiert, auf dem die politischen Entscheidungsträger ihre schicksalhafte Entscheidung basierten, unsere mehrere Billionen Pfund schwere Wirtschaft einzumotten und Millionen von Menschen in Armut und Not zu stürzen. Und wir waren zutiefst beunruhigt über das, was wir entdeckt haben. Das Modell scheint völlig unzuverlässig zu sein, und Sie würden nicht Ihr Leben darauf verwetten.“

Schon vor 20 Jahren Schnee von gestern

Das Modell von Imperial scheine auf einer Programmiersprache namens Fortran zu basieren, die schon vor 20 Jahren Schnee von gestern gewesen sei. Ihr Code sei auch für die gescheiterte Raumsonden-Mission verwendet worden, wie für die Raumsonde Mariner 1. Und sie sagen: „In unserer kommerziellen Realität würden wir jeden für die Entwicklung eines solchen Codes feuern, und jedes Unternehmen, das sich bei der Herstellung von Software zum Verkauf darauf verlässt, würde wahrscheinlich pleite gehen“.

Weiter schreiben Sie: Die Modelle müssten in der Lage sein, den grundlegenden wissenschaftlichen Test zu bestehen, um bei gleichen Ausgangsparametern die gleichen Ergebnisse zu erzielen. Andernfalls gibt es einfach keine Möglichkeit, zu wissen, ob sie zuverlässig sein werden.

Das Resumee der beiden Kritiker: „Tatsächlich verwenden viele globale Industrien erfolgreich deterministische Modelle, die den Zufallsfaktor berücksichtigen. Kein Chirurg würde einen Herzschrittmacher bei einem Herzpatienten einsetzen, wenn er wüsste, dass er auf einem wohl unvorhersehbaren Ansatz beruht, aus Angst, den hippokratischen Eid zu gefährden. Warum um alles in der Welt würde die Regierung ihr Vertrauen darauf setzen, wenn das gesamte Wohlergehen unserer Nation auf dem Spiel steht?“

 

Nachtrag vom 20.Mai 2020

Mein letzter Beitrag wurde  in den Leserbriefen zur Recht kritisiert, weil ich mich eben fachfremd bin bzgl. Computer Modellen. Leser Daniel Hirsch hat das ganze Problem mit dem Imperial Model viel besser und treffender erklärt. Imperial Model, Computersprache und Schuster bleib bei deinen Leisten. Beim letzten Beitrag, habe ich mein Fachgebiet verlassen, und einige Leser erweiterten daraufhin meinen Horizont. Zu Recht, denn ich werfe es beispielsweise Prof. Christian Drosten vor, dass er sich ausserhalb seiner Fachkompetenz  z.B. zur Epidemiologie äussert und genau deswegen scheitert. Ein Virologe muss vor den Gefahren warnen, aber Epidemiologie bedeutet gerade eben nicht, stets vom worst case auszugehen, sondern sich um echte Daten zu kümmern und diese im Sinne von Wahrscheinlichkeiten zu deuten. Daniel Hirsch ist Computerfachmann und kann die Problematik des Imperial Models deshalb viel treffender beschreiben. Ich möchte Ihnen mit seiner Erlaubnis seine Zuschrift an mich nicht vorenthalten:

 

Als Mathematiker mit der Spezialisierung numerische Mathematik habe ich während meines Studiums an der Uni Heidelberg zahlreiche Supercomputer entworfen, betrieben und eigene Modelle entwickelt (mit Schwerpunkt in der nichtlinearen Optimierung und im Bereich unstetige Galerkin-Verfahren). Deshalb möchte ich gern die Gelegenheit nutzen und ein bisschen von meiner Expertise beitragen.

1. Programmiersprache

Die Programmiersprache ist letztlich nur eine Form um Maschinensprache (die sprichwörtlichen „bits and bytes“) für den Menschen lesbar bzw. menschliches strukturiertes Denken für den Computer ausführbar zu machen. Die Programmiersprachen sind dabei in ihren Grundfunktionen gleich. In jeder Sprache finden sich einfache Strukturen, wie Schleifen (Zählschleife: „mache irgendwas n mal“; vorprüfende Schleife: „so lange eine Bedingung erfüllt ist, mache irgendwas“; nachprüfende Schleife: „wenn irgendeine Bedingung richtig ist, mache das, was Du vorher gemacht hast nochmal“), Bedingungen („wenn irgendwas richtig ist, mache folgendes, anderenfalls was anderes“), Zugriffe auf Dateisysteme oder auf den Monitor/Tastatur. Zudem gibt es inzwischen in vielen Programmiersprachen auch die Möglichkeit komplexere Strukturen, wie z.B. vererbbare Objekte, Templates, etc. zu bauen. Das im Detail auszuleuchten sprengt den Rahmen.

Fortran ist in der Tat eine recht alte Programmiersprache (von 1957), die ihre Vor- und Nachteile hat. Das zu diskutieren löst in aller Regel – wie so oft in der IT – einen Glaubenskampf aus. Die Unterschiede in den Programmiersprachen liegen neben der offensichtlichen anderen Syntax in der Regel eine Ebene tiefer, also wie performant ein Compiler ist, wie performant das erzeugte binary ist, wie gut der Code auf andere Plattformen übertragen werden kann, etc. Es spielt aber auch eine Rolle, wie stark die Kommerzialisierung einer Programmiersprache ist. Programmiersprachen, die für kommerzielle Software verwendet werden, sind oft stärker unterstützt und entwickeln sich schneller als weniger populäre Sprachen. Die wesentlichen Vorteile von Fortran aus meiner persönlichen Sicht sind, dass die Lernkurve um Fortran programmieren zu können, recht flach und kurz ist und sehr viel frei verfügbarer Code existiert. Es gibt Literatur, wonach gute Fortran Compiler bei Array-basierten Anwendungen schnelleren Code als flexiblere Sprachen wie z.B. C++ produzieren können sollen. Das läßt sich in der Regel aber mit „besserem“ Code kompensieren. Richtig ist in jedem Fall, dass gerade im universitären Bereich Fortran weite Verbreitung hat und es eine lebendige Community gibt, die die vorhandenen Compiler und den Standard (zuletzt 2018) weiterentwickelt. Es ist daher nicht ungewöhnlich Programme in Fortran in diesem Umfeld zu finden.

2. Universitäre Softwareentwicklung

In Mathematik und Physik ist es weit verbreitet Software für verschiedene Zwecke zu entwickeln. Oft wird die Software für eine bestimmte Klasse Großrechner (z.B. Parallelrechner) oder gar nur für einen ganz bestimmten Rechner entwickelt. Im Vordergrund steht dabei immer die Mathematik oder die Physik und weniger die informatische Qualität der Implementierung. Da es ein recht großer Aufwand ist, jedes Einzelproblem, welches man lösen möchte, dediziert zu programmieren, verwendet man den Code in sogenannten Bibliotheken immer wieder. Darin sind mathematische Formen, wie Vektoren, Tensoren, Gitter, etc. ebenso wie die mathematischen Modelle und Algorithmen, die mit diesen Strukturen umgehen müssen, bereits implementiert. Diese Bibliotheken werden dann – meist kostenlos – allen anderen Wissenschaftlern zur Verfügung gestellt. Die Entwicklungsteams sind klein und es wird nicht nach kommerziellen Standards entwickelt. Man kann nicht erwarten, dass die Software einem IT-Qualitätsassessment standhalten wird. Daraus zu folgern, dass die Software falsch rechnet, ist jedoch voreilig.

3. Mathematische Modellierung

Wenn ein Modell aufgestellt wird, bedient man sich für gewöhnlich zunächst der Mathematik und zwar ganz klassisch mit Tafel und Kreide. Die Implementierung erfolgt danach mit Hilfe der vorhandenen Bibliotheken. Wenn das Modell implementiert ist, verwendet man üblicherweise Testdaten und -probleme um zu zeigen, dass die Software funktioniert. Oft werden die Ergebnisse auch publiziert, da neue Modelle / Algorithmen in der Regel nur dann implementiert werden, wenn sie aus wissenschaftlicher Sicht neu sind oder wenn die Implementierung aus irgendeinem Grund besser ist als bisherige Implementierungen (z.B. schnellere Konvergenz, geringerer notwendiger Speicherplatz, höhere Genauigkeit, etc.). Andernfalls macht sich keiner die Mühe vorhandene Modelle nochmal zu implementieren – außer vielleicht im Rahmen einer Übung zu einer Vorlesung. Hier liegt auch der Unterschied zur Venus-Sonde. Die Software für die Venussonde war für eine einmalige Anwendung gedacht (nämlich genau diese Sonde auf dieser Mission) und konnte unter Echtbedingungen nie getestet werden. Die Modelle von Neil Ferguson sind mehrfach getestet und mit anderen Modellen gegen gerechnet worden. Das schließt Programmierfehler freilich nicht aus, aber bisher gibt es keinen Hinweis auf einen solchen. Wahrscheinlicher sind Fehler in den Ausgangsdaten.

4. Numerischer Fehler

Das größte Problem bei mathematischen Modellen ist der sogenannte numerische Fehler. Die meisten Strukturen in der alltäglichen Mathematik basieren auf den reellen Zahlen. Ohne die reellen Zahlen funktioniert unsere Welt nicht mehr. Bestes Beispiel: Der Umfang eines Kreises. Ohne die Zahl pi, ist der Umfang nicht exakt zu errechnen. Dummerweise hat pi unendlich viele Nachkommastellen (die wir logischerweise auch nicht alle kennen). Daher kann man eine solche Zahl nicht auf einem Computer abbilden, der ja nur über endlich viel Speicher verfügt, selbst wenn wir alle Nachkommastellen kennen würden. Man behilft sich durch Runden der Zahl (typischerweise auf 16 Stellen) . Für alltägliche Probleme reicht die Rundungslogik auf normalen Rechnern völlig aus. Allerdings gibt es noch ein weiteres Problem: Ein mathematisches Modell besteht aus sehr vielen Einzeloperationen. Die Rechenoperationen reagieren dabei unterschiedlich gut auf die Eingangsdaten und die Einzelfehler jeder Operation können sich im gesamten Modell aufschaukeln. Es ist daher sehr wichtig, die Stabilität/Zuverlässigkeit des Algorithmus gegen derartige Effekte zu kennen.

5. Eingangsfehler

Bei allen Algorithmen gilt das „shit-in-shit-out“-Prinzip. Arbeitet man mit Daten, die einen großen Fehler beinhalten, dann kommt am Ende ein noch viel größerer Fehler raus (wie viel schlimmer sagt uns die Stabilität eines Modells). Die Programmiersprache ist nicht entscheidend, denn es kommt überhaupt nicht darauf an, ob ein mathematisches Modell in Fortran, C++, Basic oder von mir aus auf Lochkarten implementiert wird. Genauso wenig wie es darauf ankommen sollte, ob man eine Addition mit dem Rechenschieber, dem Abakus, einem Taschenrechner oder im Kopf durchführt. Ich bin davon überzeugt, dass das Problem des Modells von Neil Ferguson in den Eingangsdaten liegt. Das von ihm verwendete Modell basiert im Wesentlichen auf folgenden Daten:

  • Todesrate (CFR) in Hubei – hierzu hat sich Neil Ferguson 39 Todesfälle von diversen Webseiten zusammen gesucht und davon 26 verwendet (leider ohne zu sagen, welche 26)
  • CFR auf den Evakuierungsflügen von China nach z.B. Deutschland, Japan und Malaysia (insgesamt 290 Fälle)
  • Aufwuchsrate der Epidemie, also der tägliche Zuwachs an neuen Fällen – diese Aufwuchsrate wurde auf Basis der offiziellen Meldungen abgeleitet
  • Zeitraum zwischen Infektion und Tod / Erholung

 

Damit gibt es folgende Probleme:

  • Zunächst ist die CFR nicht zuverlässig. Sie hatten das so schön formuliert – „viele Patienten sterben nicht an COVID-19 sondern mit COVID-19“. Diese Erkenntnis, die ja auch im Wesentlichen auf der Arbeit von Prof. Schirmacher und seinen Kollegen beruht, hatte man zu diesem Zeitpunkt (Anfang Februar) noch nicht, sondern hat platt angenommen, wer positiv auf COVID getestet wurde und starb, ist an COVID-19 gestorben. Die Todesfälle in Hubei betreffen allesamt ältere Menschen (nur sechs Opfer sind unter 60 Jahre, der Jüngste ist 36, wobei nicht klar ist, welche 26 Personen aus dem Datensatz mit 39 Opfern in die Analyse eingeflossen sind). Bereits an diesen frühen Daten war absehbar, dass ältere Menschen deutlich stärker betroffen sind als jüngere. Das Modell lässt das vollkommen unberücksichtigt. Prof. Ioannidis hat bereits früh auf die mangelnde statistische Güte der vorhandenen Daten hingewiesen.
  • Es fehlten überall Testkapazitäten, daher wurde nicht repräsentativ getestet, sondern in der Regel nur beim Vorliegen von (teils schweren) Symptomen und auch erstmal nur in Wuhan, also mit sehr hoher Wahrscheinlichkeit Menschen mit Vorerkrankungen und mit sehr geringer Wahrscheinlichkeit junge, gesunde Menschen ohne Symptome, deren CFR weit geringer ist. Menschen ohne oder mit nur milden Symptomen sind in der Stichprobe aus Hubei vollkommen unterrepräsentiert.
  • Umgekehrt wurden die ausgewählten Heimkehrerflüge größtenteils vollständig getestet. Deshalb überwiegen in diesem Datenset die Patienten ohne Symptome (Gesamt 10 Fälle, davon 7 asymptomatisch). Die Daten sind daher keineswegs vergleichbar.
  • Bei den Heimkehrerflügen war in 50% der Fälle kein Infektionsdatum bekannt. Neil Ferguson hat daher einfach das Datum des ersten Kontakts mit den Gesundheitsbehörden angenommen. Dazu schreibt er wörtlich: „We note this is the latest possbile onset date and may therefore increase our estimates of CFR”.
  • Zudem wurde mit Ausbreitung der Pandemie auch die Testkapazität erhöht, so dass sich die Wahrscheinlichkeit, dass eine bestimmte Bevölkerungsgruppe in der Gruppe aller getesteten repräsentiert ist, sich mit der Zeit – quasi täglich – verändert hat. Die Hypothese, die täglich publizierte Zahl der Infizierten, würde jeden Tag im gleichen linearen Verhältnis zur tatsächlichen Zahl der Infizierten stehen, ist nicht richtig. Neil Ferguson hat das zwar in der Studie erwähnt und auch richtigerweise auf die unterschiedlichen Testkapazitäten, -qualität und -praxis in verschiedenen Ländern hingewiesen, aber die Relation zwischen Testaufwuchs und gemessenen Infektionen konnte niemand zu diesem Zeitpunkt richtig abschätzen.
  • Die Aufwuchsrate der Epidemie wurde deutlich überschätzt, denn es wurden ja nicht jeden Tag gleich viele Menschen getestet, sondern jeden Tag mehr, so dass man auch immer mehr Infizierte fand. Der Aufwuchs setzt sich zusammen aus dem Aufwuchs der Testkapazitäten und dem Aufwuchs der tatsächlichen Infektion, ersteres wurde aber zu gering geschätzt.
  • Für die Wahrscheinlichkeitsverteilung für den Verlauf zwischen Infektion und Tod / Genesung wurde die Wahrscheinlichkeitsverteilung der SARS-Epidemie von 2003 in Hong Kong herangezogen und verallgemeinert, so dass der Zeitraum mit 22 Tagen analog zur damaligen SARS-Epidemie angenommen wurde. Auf den ersten Blick erscheint das fragwürdig, denn zum Zeitpunkt der Studie lagen noch keine gesicherten Erkenntnisse vor, dass der Verlauf von COVID-19 dem von SARS entspricht.

Mit dieser recht wackeligen Datenlage und noch wackligeren Annahmen wurde dann mit Hilfe von verschiedenen statistischen Methoden (Bayes Statistik, Maximum-Likelihood, Kaplin-Meier) die CFR berechnet.

Die hohe Unsicherheit beschreibt Neil Ferguson selbst, denn die ermittelte CFR schwankt in den Gruppen Hubei und den Rückflügen zwischen 1,2% und 18%. Am Ende werden eigentlich nicht zusammen passende Daten miteinander vermischt und eine CFR von ca. 1% mit einem Unsicherheitsintervall von 0,5% bis 4% geschätzt. Zieht man die unbeachteten Fehler (Überschätzung der Aufwuchsrate, Dunkelziffer bei den Infektionen, Differenzierung bei der Todesursache, etc.) in die Kalkulation mit ein, reduziert sich das weiter.

Aus handwerklicher Sicht hätte das eigentlich niemals publiziert werden dürfen. Die Schwankungen in den Ergebnissen gehen über eine ganze Größenordnung und die Unsicherheit in den Eingangsdaten ist offensichtlich. Es zeigt aber sehr schön, das Dilemma. Die Wissenschaft konnte im Februar keine klaren Ergebnisse liefern. Es wäre möglich, dass die CFR bei 18% lag. Genauso konnte sie bei 0,8% oder darunter oder bei jedem anderen Wert liegen. Die Entscheidung war daher eine rein politische. Die Politik wiederrum hat einfach die „aus der Hüfte geschossene“ Todesrate von 1% genommen und durchmultipliziert. Dabei kamen ebenso logisch wie falsch Millionen Tote heraus.

Man kann an diesem Beispiel wunderbar erkennen, wie gefährlich die mathematische Modellierung sein kann, wenn man die Annahmen nicht gründlich betrachtet. Ein ehemaliger Chef von mir (alter Controller) hat mal zu mir gesagt: „Businesscases schaue ich mir nie an. Ich glaube schon, dass die Leute richtig rechnen können. Ich schaue mir immer die Annahmen an. Da lügen sich alle in die Tasche.“ Um in solchen schwerwiegenden und unklaren Situationen eine gute Entscheidung zu treffen, reicht es nicht auf oft fragwürdige Zahlen zu schauen. Es braucht vor allem Führungsqualitäten, wozu auch ein Bauchgefühl und Risikobewusstsein gehören.

Der Beitrag erschien zuerst bei ACHGUT hier




Hitzerekorde aus dem Computer! UN-Klimaschutzpolitik ändert nichts am weltweiten Wettergeschehen

Überall in den Klimarechenzentren auf der Welt laufen derzeit die Computer heiß, um „warme Luft“ zu generieren für künftige Klima-Schreckensszenarien. Zu tief sitzt die Schmach darüber, dass die Weltmacht und mächtigste Industrienation der Erde nicht zu bewegen war, den „Ausstieg“ aus dem Pariser Klimaabkommen wieder rückgängig zu machen. In Erinnerung sind noch die Worte des US-Präsidenten Donald Trump, „die Wissenschaft liege mit ihrem Weltuntergangsszenario falsch“. Die Entgegnung des EU-Präsidenten Jean-Claude Juncker lautete, „Trump habe die Dimensionen des Pariser Klimaabkommens nicht voll verstanden“. Bundeskanzlerin Angela Merkel reagierte voll Trotz: Was sich die Weltgemeinschaft zum Klimaschutz einmal vorgenommen habe, sei „unumkehrbar und nicht verhandelbar“. Hätte sie das Wetter gemeint, hätte sie richtig gelegen: Das Wetter ist nicht verhandelbar und unumkehrbar!

Nun müssen die Computer ran, werden die Klimamodelle auf „Katastrophe“ justiert. Sie sind gehorsam, schnell und gehorchen jedem Befehl. Wer an den Schalthebeln sitzt, der bestimmt das Bild der Zukunft. Für seinen letzten Bericht hat der Weltklimarat rund 900 verschiedene „Zukünfte“ durchgerechnet. Es wimmelt nur so von „Konjunktiven“ und wenn-dann-Annahmen, denn niemand kennt die Zukunft und schon gar nicht die des Jahres 2100. Forscher von der Universität Edinburgh errechneten anhand von Klima-Simulationen, so die Süddeutsche Zeitung am 31. Juli 2017, dass „im Zeitraum von 1400 bis 1800 die Durchschnittstemperatur um 0,03 bis 0,19 Grad niedriger lag als am Ende des 19. Jahrhunderts“. Dies hätte zur Folge, dass entsprechend das Zwei-Grad-Ziel näher rücke und praktisch nicht einzuhalten ist, vom 1,5-Grad-Ziel ganz zu schweigen. Modelle schaffen schon wahre Wunder. Damals gab es „Klima“ noch nicht und die Celsius-Skala datiert von 1742. Auch wenn die Ablesegenauigkeit eines Quecksilberthermometers nur bei +/- 0,1 Grad liegt, schaffen es Computer, eine „Globaltemperatur“ auf exakt 0,03 Grad zu berechnen.

Weltorganisation für Meteorologie (WMO) macht Jagd auf Temperaturrekorde

 Nachdem das Jahr 2016 zum „wärmsten Jahr“ seit 130 Jahren deklariert wurde, ist die Jagd nach neuen Rekorden voll im Gange, mitten im Hochsommer der Nordhalbkugel. Noch gilt der Rekord vom 10. Juli 1913 mit +56,7°C im „Tal des Todes“ in Kalifornien. Die WMO fand in Granada/Spanien einen Wert von +41,5, in Phoenix/Arizona einen Wert von +47,8 und in Turbat/Pakistan einen Wert von +54°C. Dann wurden die Computer angeschmissen und Hochrechnungen angestellt. Heraus kam, dass bisher nur 30% der Weltbevölkerung an mehr als 20 Tagen im Jahr „bedrohlichen Hitzewellen“ ausgesetzt seien. Im Jahre 2100 werden es 48% der Weltbevölkerung sein und sogar 74% ohne „Klimaschutzmaßnahmen“. Nicht definiert wurde, was als „bedrohliche Hitzewellen“ zu verstehen ist. Wenn nichts geschehe, stünden wir vor dem „Ende der Welt, wie wir sie kannten“. Wer kann bei solchen Warnungen einen „kühlen Kopf“ bewahren?

Um die Gefühle noch mehr aufzuheizen, wird seitens der WMO gedroht, der „Globus könne sich um bis zu 50-mal schneller erwärmen, als es beim schnellsten bekannten natürlichen Klimawandel geschah“. Das muss wahr sein, denn eine UN-Institution kann nicht lügen, oder doch? Es gibt ein Sprichwort, das lautet: „Allzu klug ist dumm“. Dumm, dass diese Behauptung falsch ist und den Verdacht eines bewussten Betruges weckt. Jeder Meteorologe und Paläoklimatologe kennt den Begriff „Dansgaard-Oeschger-Ereignis“. In der letzten Eiszeit von etwa 115.000 bis 12.000 v. Chr. gab es anhand von Eisbohrkern-Untersuchungen etwa 26 solcher Ereignisse. Sie zeichneten sich dadurch aus, dass innerhalb eines Jahrzehnts, also von 10 Jahren, die Temperaturen um 6 bis 10°C anstiegen. Erklären kann man dieses Phänomen nicht, aber auf die abstruse Idee, den „Neandertaler“ dafür verantwortlich zu machen, ist noch kein Mensch gekommen. Die Behauptung der WMO, „der Globus könne sich bis zu 50-mal schneller“ erwärmen, ist frei aus der Luft gegriffen.

Die Medien sollten sich strikt weigern, solch einen „Unsinn“ zu verbreiten, denn für jede ungeprüfte Weitergabe von solchen Horrornachrichten ernten sie den Vorwurf „Lügen-Presse“. Nicht sie erfinden die „Lügen“, aber sie verletzen ihre Sorgfaltspflicht, wenn sie „alles und jedes“ unkritisch verbreiten. Am 4. August 2017 wurde eine Meldung von der ETH Zürich über ‚dpa’ verbreitet, „selbst mit den größten Anstrengungen zur CO2-Verringerung würden 80 bis 90 Prozent der Eismassen bis 2100 schmelzen“. Für die Schweizer Gletscher käme eine „Verlangsamung der Erderwärmung“ zu spät. „1973 zählte die Schweiz 2150 Gletscher, heute sind es noch rund 1400.“ Auch hier hätte ein Blick in die Geschichte des Holozän gezeigt, dass die Gletscher „kommen und gehen“, ohne Einfluss der modernen Industriegesellschaften.

Der Einfallsreichtum der „Klimaexperten“ kennt weder Grenzen noch Schranken. Aus dem Joint Research Center der Europäischen Kommission im italienischen Ispra kam wieder über ‚dpa’ die Meldung, dass „wetterbedingte Katastrophen“ um 2100 „jedes Jahr etwa zwei Drittel der Europäer beeinträchtigen. „Durch extreme Wetterereignisse könnten von 2071 bis 2100 in der Europäischen Union, der Schweiz, Norwegen und Island jährlich sogar 80.000 bis 240.000 Menschen starben.“ Fazit: „Der Klimawandel ist eine der größten globalen Bedrohungen für die menschliche Gesundheit im 21. Jahrhundert.“ Ja, wer bedroht uns nun, der „Klimawandel“ oder das Wetter, dessen Zukunft wir nicht einmal für die nächsten 24/48 Stunden exakt vorhersagen können? Hängen uns diese mit einer Penetranz ohnegleichen gebetsmühlenartig vorgetragenen Drohungen und Warnungen der „Klimaexperten“ nicht langsam zum Halse raus? Wann begehrt gegen diese unsägliche Angstmacherei der Bürger endlich auf?

Wir Bürger sollten etwas mutiger auftreten und uns gegen unbotmäßige und unhaltbare Vorwürfe wehren. Wo war unser Widerstand, als wir vor etwa 30 Jahren mit der „Warnung vor der drohenden Klimakatastrophe“ urplötzlich wie aus heiterem Himmel zu „Klimakillern“ abgestempelt wurden? Die Schlagzeile der Allgemeinen Zeitung Mainz vom 5. August 2017 lautet: „Klimawandel wird zum Killer“! Darunter: „Wissenschaft – Bis Ende des Jahrhunderts könnte das Wetter Hunderttausende Tote verursachen“. Auch hier erweist sich: Logisch ist dies nicht, aber „ideologisch“!

 

Angst vor dem „unbekannten Wesen“ Wetter hatte schon der Urmensch

Als der Mensch die irdische Bühne betrat, war die Erde belebt und überall gab es Wetter, sehr unterschiedliches Wetter. Der Mensch war gezwungen, sich dem Wetter zu fügen und anpassen, wollte er überleben. Ändern konnte er es damals wie heute nicht. Der Mensch meisterte Eis- und Warmzeiten und breitete sich über die Erde aus. Spielte das Wetter verrückt, bescherte es Hitze oder Kälte, Dürren, Fluten, Gewitter oder Tornados, dann wurde ihm das von „Weisen“ als „Strafe der Götter“ erklärt Der mächtigste unter ihnen war stets der „Wettergott“, bei den Griechen Zeus, bei den Römern Jupiter, bei den Germanen Wotan.

An der Ohnmacht des Menschen vor dem Wetter hat sich nichts geändert, an dessen Unbeständigkeit, Launenhaftigkeit, wie Unberechenbarkeit. Das Wetter schläft nie und bietet jeden Morgen neuen Gesprächsstoff. Man kann sich über das Wetter aufregen, es beschimpfen oder verdammen. Es reagiert nicht, nimmt keine Wünsche an, rächt sich aber auch nicht an uns. Kein Mensch ist „schuld“ am Wetter. Er muss es überall auf der Erde nehmen, wie es kommt, muss sich mit ihm arrangieren. Seine Bekleidung, seine Behausung, der Feldanbau, der Ernteertrag, alles richtet sich nach dem Wetter. Es ist politisch absolut neutral, so dass ideologisch verfeindete Politiker sich beim Gespräch über das Wetter näher zu kommen versuchen.

Gespräche über das Wetter entwickeln sich aber mehr und mehr zum Politikum. Es ging los im Mittelalter, als man begann, Menschen für das Wetter verantwortlich machen zu wollen. Viele Frauen mussten diesen Irrglauben als Hexen auf dem Scheiterhaufen mit ihrem Leben bezahlen. Geholfen hat es nichts, aber der Mensch ist immer auf der Suche nach Schuldigen. „Wissenschaftler“ verkündeten, dass das „Klima“ das Wetter steuere, das „Klima“ aber wieder durch den Menschen gesteuert werde, ob seines unnatürlichen und luxuriösen Lebensstils. Die „Industrienationen“ würden die Natur ausbeuten, fossile Rohstoffe verbrennen, mit „Treibhausgasen“ die Luft verpesten, eine „Klimakatastrophe“ auslösen. Glaubte man dieser These, wären wir kollektiv schuld am Wetter.

Das Wetter der letzten Monate war sehr günstig für die „Klima-Katastrophen-Jünger“. Jeder Blitz durchzuckte uns, jeder umgestürzte Bau, jeder vollgelaufene Keller weckte Schuldgefühle. „Klimaexperten“ dominieren die Schlagzeilen, haben die totale mediale Deutungshoheit. Der Chef des Berliner-Mercator-Instituts für Klimafolgenforschung, Ottmar Edenhofer sagte: „Aufgehalten werden kann der Klimawandel nicht mehr. Aber er kann noch gebremst werden.“ Hört sich „gut“ an, aber wenn der „Klimawandel“ nicht aufgehalten werden kann, dann kann er auch nicht gebremst werden. Und außerdem muss ein „Klimaökonom“ so viel Ahnung von Statistik haben, dass er eine abgeleitete Größe von den vielen Anfangswerten abhängt und nicht umgekehrt. Korrekt wäre zu sagen, dass der ewige Wandel des Wetters in der Geschichte einen Wandel des „Klimas“ ergibt, wobei sich kein Ding namens „Klima“ aktiv wandelt, sondern nur den Wandel „mittlerer Wetterzustände“ beschreibt.

 

Und was uns sonst noch alles von „Wissenschaftlern“ erzählt wird!

 

Ein möglicher Weg aus der Sackgasse „Klimawandel“ sei, so Otmar Edenhofer, die CO2-Bespreisung, denn diese bewirke höhere Einnahmen für die Staaten. Ja, „Geld regiert die Welt“ und davon können die Staaten nie genug bekommen! Hat dieser „Experte“ sich einmal gefragt, ob das Wetter bestechlich ist und wie viel es kosten würde, ein „Gewittertief mit Unwetterpotential“ aufzulösen oder zu verhindern, dass feuchtwarme Luft aus Südwest mit nasskalter Luft aus Nordwest über Deutschland „zusammenstößt“? Glaubt der „Herr Professor“, der als Volkswirt auch Chefökonom des Potsdam-Instituts für Klimafolgenforschung (PIK) ist, dass man mit Geld einen Westwind in einen Ostwind oder einen Südwind in einen Nordwind verwandeln könnte?

Der „Klimaexperte“ Peter Hoffmann vom PIK sagte: „Ganz „normale“ Bilderbuchsommer, trocken und mit Temperaturen um die 25 bis 30°C über Wochen, werden immer seltener. Normal werden zunehmend längere Trockenperioden und Hitzephasen, gefolgt von Stark- und Dauerregen.“ Diese immer wieder unterstellte „Normalität“ gibt es beim Wetter nicht. Berechnet man an einem Ort über 100 Jahre die Jahresmitteltemperatur und bildet daraus ein „Jahrhundertmittel“, so kann man davon ausgehen, dass dieser keinem einzigen Mittel der 100 Jahre entspricht. Wenn schon ein „normaler“ Bilderbuchsommer nicht „normal“ ist, dann kann er noch weniger als „Norm“ angesehen werden, die sich einstellen wird, wenn wir „Autofasten“, uns nur „vegetarisch“ ernähren, nur zu Fuß gehen. Der „Klimaexperte“ Mojib Latif sieht die Zunahme der „Gefahr extremer Wetterlagen“ im „Klimawandel“, obgleich er genau die Definition von „Klima“ kennt. Um zu einem „Klimawert“ zu kommen, muss man 30 Jahre an einem Ort Wetterdaten erheben und sie dann statistisch zu einem „Klimawert“ verdichten. „Klima“ ergibt sich aus dem Wettergeschehen! Der Wetterwandel bedingt den Klimawandel! Es ist unwahr zu sagen, der „Klimawandel“ verursacht den Wandel des Wetters, eine Zunahme der Wetterextreme.

Die Floskel „Rettet das Klima“ klingt wie ein Ruf nach einer Wettervergangenheit, die sich nicht zurückholen lässt. Wetter ruht nie wie auch die Zeit nicht. Beide, Wetter wie Zeit“, sind irreversible Naturvorgänge, sind unumkehrbar. Was es heute alles an Wetter gibt, auch an Wetterextremen oder „Unwettern“, ist alles schon mal da gewesen, wenn auch in chaotischer Reihenfolge. Wir wissen weder, wann der nächste Orkan kommt, noch wann und wo der nächste Tornado wütet. Wenn Experten verkünden „zu heiß, zu kalt, zu nass – Wetterextreme in Deutschland nehmen zu!“, dann ist dies ganz billige Wahrsagerei, Spökenkiekerei! Alle Hochwasser, 2010 an der Oder und Weichsel, 2006 an der Elbe, 2005 an der Donau, 2002 an der Elbe, 2001 an der Weichsel, 1999 an der Donau, 1997 an der Oder, 1995 und 1993 am Rhein haben nichts mit dem „Klimawandel“ zu tun. Alles ist Folge von Tiefdruckgebieten, die ihren Ursprung über dem Golf von Genua haben. Von 1970 bis 2005 hat es in Europa 222 Hochwässer gegeben! Noch verheerender waren 1362 und 1634 die beiden „Großen Manntränken“. Auch das Rheinhochwasser 1784 ist nicht auf die „Dampfmaschine“ zurückzuführen.

Waren die 15.000 Salzburger, die 1732 nach Ostpreußen auswanderten, etwa „Schuld“, dass sich dort das Wetter verschlechterte? Es waren schwere Zeiten: „Der Winter 1742 war besonders hart, dass die Obstbäume ruiniert waren; 1745 herrschte eine extreme Missernte; 1750 hat eine Viehseuche die Bestände bis auf 10% reduziert; 1755 herrschte so starker Frost, dass sogar Menschen erfroren; 1756 machte der Wassermangel besonders zu schaffen“. Sind das die „vorindustriellen Zeiten“, in die uns die Politik mit der Reduktion der „Treibhausgase“ zurückführen will? Es ist höchste Zeit, dass wir nicht blind dem „Wissen“ der Elite in Politik und Wissenschaft glauben. Seien wir kritischer und haben wir nach Immanuel Kant den Mut, unseren eigenen Verstand einzusetzen und auf unser logisches Urteilsvermögen zu bauen. Dann werden wir sehen, dass viel „Wissen“ auf haltlosen Vermutungen und nicht auf Fakten beruht, geglaubt werden muss.

Ein Wegbereiter der Aufklärung war René Descartes (1596-1650), der den Spruch prägte. „Ich denke, also bin ich“ (Cogito ergo sum!). Wer nicht denkt und denken lässt, ist nicht, sondern lässt sich passiv durch das Leben führten, als ängstliches „Schaf“ am „Nasenring“. Befreien wir uns vom Nasenring. Das ist leicht bei der Drohung mit der „Klimakatastrophe“. Man denke einfach nur an die Definition von „Klima“. „Klima“ ist eine vom Wetter abgeleitete Größe, ein Konstrukt des Menschen und kein Naturvorgang. Das Wetter ist ein realer Vorgang, das „Klima“ dagegen ein imaginärer Vorgang, ein „vorgestelltes Ding“. Das Bild von der „Klimakatstrophe“ ist ein Trugbild oder Gespenst. Es wurde konstruiert, um uns Angst einzujagen und Bußgeld für unsere „Klimasünden“ einzutreiben.

Dipl.-Met. Dr. phil. Wolfgang Thüne