1

Pandemie der Dummheit.

Schon in der 2007 erschienenen ersten Auflage meines Buches „Öko-Nihilismus“ habe ich davor gewarnt, man werde wohl bald nicht mehr zwischen Computersimulationen mathematischer Modelle und der realen Welt unterscheiden können. Inzwischen ist die Konfusion Realität. Seit der im Auftrag des Club of Rome erstellten Computersimulations-Studie „Die Grenzen des Wachstums“ (1972) werden staatliche Eingriffe in Grundrechte wie das Recht auf Privateigentum sowie Meinungs- und Bewegungsfreiheit immer öfter mit dem Verweis auf theoretische Modelle eines angeblich exponentiellen Wachstums von Problemen wie Umweltbelastung, Rohstoffverbrauch und neuerdings Virusinfektionen gerechtfertigt. Dabei tritt unbegrenztes exponentielles Wachstum sowohl in der Natur als auch in der Gesellschaft nur sehr selten auf. Bei einer Epidemie nur im theoretischen Fall, dass in der Bevölkerung keinerlei Abwehrkräfte vorhanden sind. In der Regel kommt es nur als aufsteigender Ast einer sigmoidalen Sättigungskurve vor. Das hat Angela Merkel nicht davon abgehalten, ein angeblich exponentielles Wachstum der SARS-CoV-2-Infektionen als Begründung für den von ihr unter Umgehung des Bundestages durchgedrückten Oster-Lockdown zu benutzen. Immerhin wurde sie schon am Folgetag, dem 24. März 2021, gezwungen, den drastischsten Teil ihres Beschlusses zumindest dem Anschein nach wieder zurück zu nehmen. In Wirklichkeit hält sie daran fest, im Einsperren der Menschen die einzig wirksame Maßnahme gegen die Verbreitung von Viren zu sehen.

Dabei zeigt der Vergleich zwischen Deutschland und dem US-Ferienparadies Florida, wo es seit dem letzten Sommer keinerlei Corona-bedingte Beschränkungen des täglichen Lebens gibt, dass Lockdowns keinerlei positiven Einfluss auf die Infektionskurven und die Anzahl der Todesopfer haben – negativen dagegen schon. In 98,4 Prozent der Paarvergleiche der Google-Bewegungsdaten von 87 Ländern und Regionen hat ein Lockdown keinerlei Einfluss auf die Entwicklung der Zahl der Covid-Toten, wo bei noch zu berücksichtigen wäre, dass viele der statistischen Covid-Opfer nicht an, sondern mit Covid (neben Vorerkrankungen) gestorben sind. Das ist das Ergebnis einer sauberen statistischen Analyse der ersten Covid-19-Welle vom 15. Februar bis zum 21. August 2020 (Savaris, R.F., Pumi, G., Dalzochio, J. & Kunst, R. (2021).

In Deutschland hat sich die Physikerin Viola Priesemann vom Göttinger Max-Planck-Institut für Dynamik und Selbstorganisation mit ihren Modellen der Ausbreitung von Covid-Epidemie-Wellen hervorgetan beziehungsweise wurde von unkritischen Massenmedien in die Rolle der Pythia gelobt. Viola Priesemann machte im Dezember 2020 auch als Mitverfasserin des Aufrufs „Contain Covid 19“ von sich reden, der im Januar 2021 zunächst im Fachmagazin „The Lancet“ erschien. Darin forderte sie zusammen mit Melanie Brinkmann, Sandra Ciesek und anderen einen radikalen EU-weiten Lockdown bis die positiven PCR-Tests auf täglich zehn von einer Million Einwohner gesunken sind. In Deutschland wurde dieser Appell von der überwiegend linksradikalen Bewegung „Zero Covid“ aufgegriffen. Zu den Erstunterzeichnern des Appells mit dem Titel „Das Ziel heißt null Infektionen. Für einen solidarischen europäischen Shutdown“ gehörten bekannte linksradikale Wiederholungstäter*Innen wie Georg Restle, Margarete Stokowski, Luisa Neubauer, Stefanie Sargnagel, Natascha Strobl, Rudolf Hickel, Frigga und Wolfgang Fritz Haug. Darin fordern sie einen grundlegenden Strategiewechsel. Der Versuch, die Pandemie durch eine Abflachung der Infektionskurve zu kontrollieren, sei gescheitert. Das Ziel müsse vielmehr lauten: „Gemeinsam runter auf null.“ Ob und wie weit das überhaupt realistisch ist, wird nicht gefragt. Umsetzen ließe sich die Forderung einer „solidarischen Pause von einigen Wochen“ nur mit totalitären Methoden, die darauf hinauslaufen, die Staatsbürger wie unmündige Kinder oder gar wie Sklaven zu behandeln. Aufs Ganze gehen, ist ja wohl die ursprüngliche Definition von Totalitarismus. Umso bedenklicher ist es, dass auch Regierungsmitglieder (wie zuletzt Bundesgesundheitsminister Jens Spahn mit seiner Forderung eines zweiwöchigen Total-Lockdown) sich immer öfters der Argumentation von „Zero Covid“ anschließen. Die bekannteste Definition der Dummheit lautet bekanntlich, von der Wiederholung oder gar Steigerung einer unwirksamen Maßnahme bessere Ergebnisse zu erwarten. Aber vielleicht ist die Kontrolle der Epidemie gar nicht das Ziel der Bundesregierung…

Inzwischen hat Jörg Phil Friedrich in der Tageszeitung DIE WELTonline, die selbst mitgeholfen hat, Frau Priesemann in die Rolle einer Wahrsagerin zu hieven, am 24. März grundsätzliche Kritik an den politisch gefälligen Modellspielereien geübt. Dort liest man u.a.: Kann es sein, dass wir trotz einer jahrhundertelangen Geschichte der Rationalisierung der Welt immer noch so etwas wie „Wahrsager“ brauchen und dass die modellierende Naturwissenschaft, so ungenau sie auch immer sein mag, heute die Rolle dieser magischen Kräfte übernehmen muss? (…) Weil die Modelle mit Inzidenzen und R-Werten rechnen, meinen wir, diese Zahlen hätten auch direkte Bedeutung für politische Entscheidungen. Andere Dinge, die nicht in den Modellen vorkommen oder sich erst gar nicht mathematisch fassen lassen, wie die gesellschaftliche Stimmung, die Veränderung des kulturellen Klimas, die Auswirkungen auf die Lebensqualität, scheinen unwichtig zu werden, weil sie ja nicht in den Modellen stehen.“

Zwei Tage zuvor stand im gleichen Blatt ein ausführliches Interview mit dem Stanford-Professor John Ioannidis, der als führender Epidemiologe der Welt gilt. Der auch in Deutschland aktive Forscher erklärte schon im Januar in einer gemeinsam mit anderen Forschern im „European Journal of Clinical Investigation“ veröffentlichten Studie, drakonische Maßnahmen zur Eindämmung der Epidemie wie eine Verschärfung eines bereits bestehenden Lockdowns seien überflüssig. Diese Studie stieß zumindest in Deutschland auf methodische Einwände. Inzwischen betont Ioannidis sogar, die Lockdowns hätten insgesamt eher einen negativen Effekt gehabt. Leider sei das aber wegen der opportunistischen Haltung der meisten jungen Forscher nicht deutlich geworden, beklagt Ioannidis im Interview mit der WELT: „…  bei der großen Mehrheit meiner Kritiker handelt es sich nicht um Wissenschaftler, sondern um Aktivisten oder um Anfänger, die selbst noch wenig publiziert haben. (…) Viele Forscher versuchen, ihre Analysen so anzupassen, dass es zu einem bestimmten Narrativ passt. Inzwischen haben rund 459.000 Wissenschaftler etwas zu Covid-19 veröffentlicht. Die kamen ganz plötzlich aus dem Nichts. Das mögen kluge, in Datenanalyse gut ausgebildete Leute sein, aber sie haben nicht die geringste Ahnung von Epidemiologie oder Infektionskrankheiten oder dem Gesundheitswesen. Ihre überambitionierten Modellierungen beruhen auf unsicheren, sehr fehleranfälligen Daten – das ist, als ob man einen Mercedes-Motor in einen alten Holzkarren einbaut. In ihrem Enthusiasmus glauben viele dieser Wissenschaftler, sie könnten fehlerhafte Daten analysieren, als handelte es sich dabei um Messwerte aus einem Teilchenbeschleuniger. Dabei bieten Modellierungen immer nur eine schwache Evidenz. Sie sollten auch auf meine Modellierung nicht vertrauen.“

Modelle sind provisorische Hilfsmittel der Forschung. Sie sollten niemals mit der Realität verwechselt werden, weil sie komplexe Zusammenhänge mehr oder weniger extrem vereinfachen müssen. Statt als Hilfsmittel der Forschung erscheinen Modelle heute aber immer öfters als deren eigentliches Ziel. Dieser Verdacht drängt sich auch bei der Corona-Forschung auf. Hat das von den Medien verbreitete Virus-Modell eines bunten Plüschballs überhaupt eine eindeutige Entsprechung in der Realität? Diese ketzerische Frage sollte zumindest so lange nicht als abwegig betrachtet werden, als es noch nicht gelungen ist, SARS-CoV-2 in Reinform zu isolieren und sein Genom vollständig zu sequenzieren. Zumindest einige „Querdenker“ halten SARS-CoV-2 für ein „Phantom-Virus“, hinter dem sich in Wirklichkeit mehr oder weniger harmlose Exosomen verbergen. Daher ist es auch unklar, ob PCR-Tests nach Christian Drosten das Virus an asymptomatischen Probanden wirklich nachweisen können oder ob der Test nicht vielmehr das Virus mithilfe des Primers aus wenigen Aminosäuren quasi „erschafft“.

Weil heute offenbar zu viele Forscher vor allem auf die Bestätigung eines Narratives aus sind, anstatt ergebnisoffen nach der Wahrheit zu suchen, verschwimmen die Grenzen zwischen Science und Science fiction immer mehr. Damit einher geht eine Renaissance des magischen Denkens. Dieses offenbart sich kaum irgendwo deutlicher als in der Behauptung, die „Energiewende“ mit dem Ziel der CO2-Neutralität wirke als Vorsorge gegen Covid-19. Was nicht wie gewünscht eintritt, wird notfalls inszeniert oder aus dem kollektiven Gedächtnis verdrängt, indem man einfach beschließt, über reale Probleme nicht mehr zu reden: Zum Beispiel über die Kohlekraftwerke, die nur acht Tage nach ihrer offiziellen, vom Staat entschädigten Abschaltung ihren Betrieb wieder aufgenommen haben, um das Stromnetz vor dem Zusammenbruch zu bewahren. Oder über die enormen Umweltbelastungen, die E-Autos bei der Rohstoffgewinnung in armen Ländern verursachen. Oder nicht zuletzt über die immensen gesundheitlichen und wirtschaftlichen Kollateralschäden der Corona-Lockdowns.

Immerhin läutet nun der Vorstandsvorsitzende des Deutschen Krebsforschungszentrums, Professor Michael Baumann, die Alarmglocke, indem er darauf hinweist, dass die einseitige Ausrichtung der Krankenhäuser zu massiven Kollateralschäden führt. Wegen der Verschiebung von Untersuchungs- und OP-Terminen rechnet er mit bis zu 40.000 zusätzlichen Krebstoten. Darauf hatte schon im Frühjahr 2020 der Oberregierungsrat Stephan Kohn im Bundesinnenministerium (BMI) in einer 80-seitigen Studie hingewiesen. Zweieinhalb Millionen Menschen seien durch die einseitige Ausrichtung des Gesundheitswesens auf Covid-19 nicht medizinisch versorgt worden, schätzte Kohn. Es sei dadurch eine potentielle Lebenszeit im Umfang von mehreren Millionen Jahren geopfert worden. Kohn wurde daraufhin sofort seines Amtes enthoben. Dabei hatte er nur angewandt, was in seinem Ministerium schon im Jahre 2012 aus einer realistischeren Risikoanalyse möglicher Epidemie-Ereignisse gefolgert worden war, nämlich Maßnahmen zur Eindämmung einer Epidemie einem realistischen Kosten-Nutzen-Vergleich zu unterwerfen. Nach Oberregierungsrat Kohn führt die Nichtbeachtung der Risikoanalyse von 2012 nun zu bedenklichen Konsequenzen: „Die Resilienz des hochkomplexen und stark interdependenten Gesamtsystems Kritischer Infrastrukturen ist gesunken. Unsere Gesellschaft lebt ab sofort mit einer gestiegenen Verletzlichkeit und höheren Ausfallrisiken von lebenswichtigen Infrastrukturen. Das kann fatale Folgen haben…“. Im Parallel-Universum, in dem sich Angela Merkel und ihre handverlesenen Berater bewegen, scheint diese Schlussfolgerung allerdings unerwünscht, da „nicht hilfreich“ zu sein.

 




Das Ende der Modelle – das Ende der Hiobsbotschaften

Die Botschaft

Der Spiegel schreibt am 23.7.:

Forscher prognostizieren stärkere Erderwärmung. In leistungs­starken Programmen simulieren Forscher, wie die Erde auf eine Verdopplung der Kohlendioxid-Menge in der Atmosphäre reagieren würde.

Der Guardian warnte schon im Juni:

The current pace of human-caused carbon emissions is increasingly likely to trigger irreversible damage to the planet, according to a comprehensive international study released Wednesday.

(Laut einer umfassenden internationalen Studie, die am Mittwoch veröffentlicht wurde, wird das derzeitige Tempo der vom Menschen verursachten Kohlenstoffemissionen zunehmend irreversible Schäden auf dem Planeten auslösen.)

Das sind keine guten Nachrichten, aber können wir Spiegel und Guardian blind vertrauen? Ich schlage vor, wir schau‘n uns das mal an.

Das Häschen und Corona

Bitte betrachten Sie zunächst aufmerksam dieses kurze Video (zu Beginn bitte ein paar Sekunden Geduld).

Die Vierbeiner fühlen sich in der Dunkel­heit unsichtbar, verraten sich aber durch eine geheimnisvolle Strahlung. Ist das die „Aura“, wie sie nur von ganz besonderen Wesen ausgeht?

Nicht ganz. Was man sieht, ist infrarotes Licht, das von einer Spezialkamera aufgezeichnet wurde. Solches Licht, auch Wärmestrahlung genannt, wird von jedem Körper emittiert, ob lebendig oder nicht. Es kommt nur auf seine Temperatur an.

Mit der Temperatur steigt die Energie der Strahlung, und zwar ganz gewaltig. Die stark durchbluteten und unbehaarten Partien scheinen deutlich heller als der Rest des Körpers, obwohl sie nur ein paar Grad wärmer sind. Dieser Effekt wird übrigens auch beim kontaktlosen Fieber­messen benutzt, wie es in Corona-Zeiten alltäglich ist. Das Thermometer misst die von der Haut abgestrahlte Energie und kann daran tatsächlich unterscheiden, ob wir nur 36,5 °C oder bedenkliche 38 ° haben.

Die Strahlung von Mutter Erde

Mutter Erde hat eine durchschnittliche Temperatur von etwa 15° und strahlt damit permanent etwa 340 Watt Wärme je Quadratmeter ins All. Das ist nicht viel, aber dank ihrer gigantischen Oberfläche kommt da einiges zusammen. Warum kühlt sie sich dann nicht fortlaufend ab?

Nun, Sie haben es erraten: Die liebe Sonne wärmt uns ja, und zwar mit großzügigen 1.388 Watt pro Quadratmeter. Bekommen wir dann nicht wesentlich mehr Energie geliefert, als wir abstrahlen? Warum glüht die Erde dann nicht längst?

Dazu etwas Geometrie: So wie wir den Mond, so sieht auch die Sonne unsere Erde als kreis­förmige Silhouette. Auf der Fläche dieser Scheibe von 6.371 km Radius werden die Sonnen­strahlen eingefangen. Fragen sie jetzt bitte nicht, ob das auch nachts so ist; irgendeine Hälfte des Globus ist ja immer zur Sonne gewandt.

Damit unsere Temperatur gleichbleibt, müsste die Erde ebenso viel Energie abstrahlen, wie sie empfängt. Und genau das tut sie. Sie strahlt nämlich mit ihrer gesamten Kugeloberfläche, nicht nur mit der scheibenförmigen Silhouette, die sie der Sonne darbietet. Und wie es der Zufall so will, ist die Oberfläche einer Kugel genau das Vierfache einer Scheibe gleichen Durchmessers.

Um die gesamte Energiebilanz der Erde zu berechnen, müssen wir die empfangene Sonnen­energie von 1388 Watt/m2 mit der Fläche besagter Scheibe multiplizieren und die Abstrahlung von 340 Watt/m2 mit dem Vierfachen dieser Fläche, und dann die Differenz bilden.

Multiplizieren wir zunächst die 340 mit 4, dann kommen wir auf 1.360. Aber das ist ja fast genau das, was die Sonne zu bieten hat. Das ist kein Zufall, es sagt uns, dass tatsächlich die durch­schnittlich eingestrahlte und emittierte Energie – im Rahmen unserer extrem vereinfachten Betrachtung – gleich sind.

Wie durchsichtig ist Luft?

Nun strahlt die von der Erde abgegebene Energie nicht ungehindert ins Vakuum des Weltalls, sondern muss sich erst ihren Weg durch die Lufthülle erarbeiten. Da gibt es Blockaden, die zwar die einfallenden Sonnenstrahlen passieren lassen, die ausgehende Wärmestrahlung aber behindern. Das sind die sogenannten Treibhausgase, und das berüchtigtste heißt CO2.

Als Autofahrer haben Sie sicher schon gesehen, was passiert, wenn Sie versuchen, mit den Scheinwerfern durch Nebel zu leuchten. Sie bekommen den halben Segen zurück in die Augen und können noch weniger sehen als vorher. Für die Infrarotstrahlen ist das CO2 wie Nebel, für uns (außer Greta) ist dieses Gas aber total unsichtbar. Das CO2 streut einen Teil der Wärmestrahlung, die eigentlich ins All entweichen möchte, zurück. Die Erde bleibt daher etwas wärmer, als es ohne CO2 der Fall wäre.

Ein paar Grad mehr bedeutet aber, dass die Erdoberfläche wesentlich mehr Energie abgibt. Dabei macht schon ein kleiner Temperaturanstieg einen deutlichen Unterschied. Erinnern Sie sich an die Tiere im Video? Da strahlen die Bäuche der Elefanten auch mehr als die kühleren Rücken.

Die Erdoberfläche strahlt nun also ebenfalls stärker, aber das CO2 hält davon eben einen kleinen Prozentsatz zurück, sodass letztlich die gleiche Energie ins All gestrahlt wird, wie es ohne CO2 der Fall war. Das Gleichgewicht von empfangener und abgegebener Energie ist also wiederhergestellt, wenn auch zum Preis einer höheren Temperatur.

Nun haben sich die Forscher etwas überlegt. Nehmen wir die präindustrialisierte Erde, etwa vom frühen 20. Jahrhundert, da gab es 0,028% CO2 in der Luft. Auf diese Situation hatten sich die Erde und ihre Temperatur seit Jahrtausenden eingestellt. Jetzt verdoppeln wir schlagartig die CO2-Konzentration von 0,028% auf 0,056%. Um wie viel Grad würde es dann wärmer? Das ist natürlich ein Gedankenexperiment, wir können es nicht gerade mal mit der Erde durchführen, aber es kann lehrreich sein.

Lange haben die Experten gerechnet und kamen zu dem Ergebnis, dass die Temperatur um irgendeinen Wert zwischen 1,5° und 4,5° steigen würde. Diesen Wert nannten sie Klima-Sensitivität.

Geht’s nicht genauer?

Das ist aber ein recht ungenaues Resultat. Das ist, als würde ein Handwerker einen Kosten­voranschlag machen: „… so zwischen 1.500 und 4.500 Euro wird’s schon werden.“ Können die Spezialisten mit ihren Supercomputern das nicht besser ausrechnen?

Nun, ich habe Ihnen bisher nur die halbe Wahrheit erzählt, vielleicht sogar noch weniger. Neben dem CO2 gibt es ein anderes Treibhausgas, das im Vergleich zu CO2 eine hundertmal so große Konzentration haben kann: der Wasserdampf in der Atmosphäre, auch Luftfeuchtigkeit genannt. Dieses gasförmige, unsichtbare Wasser hat auf die Wärmestrahlung den gleichen Effekt wie das CO2, allerdings wesentlich stärker.

Während sich CO2 nun einigermaßen ordentlich über die Erde verteilt, verhält sich das Wasser genau umgekehrt. Mal ist es hier, mal dort, manchmal kondensiert es zu kleinen Tröpfchen und bildet Wolken, dann werden die Tröpfchen groß und schwer, sodass sie zu Boden fallen und wir sagen:

„Es regnet.“ Dieses chaotische Treiben des Wassers ist ein wesentlicher Teil dessen, was wir als Wetter bezeichnen.

Und das Wasser, sei es gasförmig flüssig oder fest, hat einen sehr starken Einfluss auf die einfallende und emittierte Strahlung. Jetzt geht es nicht mehr nur um sanfte Streuung der Wärmestrahlung auf ihrem Weg ins All; durch das Wasser wird chaotisch ins ganze Energiegeschehen eingegriffen: Sonnenlicht wird an den Oberseiten der Wolken reflektiert, sodass es gar nicht erst auf die Erde kommt; Wärmestrahlung wird an der Unterseite blockiert und feine Nebeltröpfchen treiben ihr eigenes Spiel mit den verschiedenen Strahlen.

In diesem Chaos wollen wir nun herausfinden, welchen Einfluss die Zunahme der CO2-Konzentration um ein paar hundertstel Prozent haben soll? Das ist so, als hätte Mutter Erde ein feines Seidenhemdchen aus CO2 an, das sie niemals ablegt, darüber aber zieht sie nach Lust und Laune dicke Wollpullover, Pelz­jacken und Wintermäntel aus Wolken oder Wasserdampf an und aus. Das feine Seidenhemdchen aber wird von Jahr zu Jahr um ein paar Fädchen dichter; und wir wollen ausrechnen, welchen Einfluss genau das auf Mutters Temperatur hat?

Mission Impossible

Es ist eine „Mission impossible“, aber furchtlose Forscher vom World Climate Research Programme haben erneut ihre Computer angeworfen und mit neuesten Daten und Erkenntnissen gefüttert – und voilà, hier ist das Ergebnis: Die Klima-Sensitivität liegt bei einem Wert irgendwo zwischen 1,6° und 5,6°. Würde also das CO2 auf den besagten doppelten Wert der präindustrialisierten Ära ansteigen – gemäß aktuellem Zuwachs würde das 75 Jahre dauern – dann könnte Hamburgs mittlere Jahrestemperatur von heute 8° auf maximal 13° steigen, dann wäre es an der Alster so warm, wie heute in Mailand und in Mailand wie heute in Sevilla.

Es spricht für die Gewissenhaftigkeit der Forscher, dass sie uns auch verraten, mit welcher Wahrschein­lichkeit ihre Aussage zuträfe: nämlich 66%. Diese Unsicherheit, verknüpft mit der ohnehin schon riesigen Unschärfe von 1,6° bis 5,6°, ist aber ein Offenbarungseid: die Angelegenheit ist viel zu kompliziert, als dass wir sie berechnen könnten. Man kann einfach nichts Genaueres sagen als:

„Wenn wir so weitermachen wie bisher, dann wird es in den nächsten Jahrzehnten vermutlich ein paar Grad wärmer.“

Also, liebe Forscher: es liegt nicht an Euch oder an Euren Programmen, dass Ihr zu keinem vernünftigen Ergebnis kommt. Es liegt an der Natur des Klimas. Man kann es einfach nicht im Computer abbilden – ebenso wenig wie die Gedankengänge einer Frau. Sucht Euch einen anderen Job; bei Eurer Qualifikation ist das kein Problem.

Und noch etwas: Mit einer Wahrscheinlichkeit von 100 % minus 66 %, also mit 33 % könnte die Erwärmung außerhalb des angegebenen Bereichs von 1,6 ° bis 5,6 ° liegen. 33% ist immerhin dieselbe Wahrscheinlichkeit, mit der man beim Würfeln ein Fünf oder Sechs erwarten kann. Wir könnten also, wissenschaftlich ganz legitim, auch weniger als 1,6 ° Erderwärmung erwarten. Wären wir dann Klimaleugner, also Unmenschen? Oder befänden wir uns noch mit 33 % Wahrscheinlichkeit unter den Anständigen?

Dieser Artikel erschien zuerst bei www.think-again.org und im Buch „Grün und Dumm“

 

 

 

 




Klimawandel durch Datenmanipulation? (Eine Nuss für Faktenmörder)

Roy Spencer hat darauf hingewiesen. Wir haben vor einigen Tagen darüber berichtet:

Quelle

Dargestellt ist die Abweichung der beiden neuesten Generationen von Klimamodellen (CMIP5 und CMIP6) von den Beobachtungsdaten, also den gemessenen Temperaturen.

Schon im Juli 2019 haben wir einen Beitrag veröffentlicht, in dem wir Indizien dafür zusammengetragen haben, dass NASA und NOAA Klimadaten, Beobachtungsdaten, manipulieren. Sie nennen das Homogenisierung.

Im selben Monat haben wir von der seltsamen Erwärmung der Schweiz berichtet, die sich in den Daten der NASA findet und am Beispiel dargelegt, wie MeteoSwiss und NASABeobachtungsdaten nachbessern.

Wir sind mit dieser Darstellung nicht die ersten. Schon 2016 hat Tony Heller sehr eindrücklich dargelegt, wie man bei der NASA der Tatsache begegnet, dass sich Neuseeland einfach nicht erwärmen will, wie in Klimamodellen vorhergesagt:

Dargestellt sind die adjustierten Daten für zwei Messstationen in Neuseeland, einmal in der Dateninterpretation der NASA aus dem Jahre 2011, einmal in der Dateninterpretation der NASA aus dem Jahre 2016. Die eklatanten Unterschiede gehen auf Datenmanipulationen zurück, die bei der NASA als Datenhomogenisierung bezeichnet werden. Dass es sich dabei um eine ideologisch bedingte Datenmanipulation handelt, sieht man leicht daran, dass die Manipulation generell in dieselbe Richtung geht: Die Vergangenheit wird kälter, die Gegenwart wärmer.

Pierre Gosselin hat gerade auf NoTricksZone für eine weitere Messstation auf Neuseeland den eklatanten Unterschied in den Datenversionen der NASA dargestellt. Je neuer die Daten der NASA werden, desto kälter wird die Vergangenheit und desto wärmer wird die Gegenwart, wobei der Gag an der Sache darin besteht, dass die unterschiedlichen Verläufe auf Basis der selben Beobachtungsdaten herbeimanipuliert werden.

Electroverse zeigt dieselbe Manipulation für die Daten der Messstation in Reykjavik. Abermals wird die Vergangenheit kälter gemacht, damit die Gegenwart wärmer erscheint.

GHCN V3 steht für Version 3 des Datensatzes der GISS Surface Temperature Analysis, dem Datensatz, der als GISTEMP von Klimamodellierern weltweit genutzt wird, um ihre immer weiter von der Realität der Beobachtungsdaten abweichenden Modelle zu erstellen, wie wir eingangs dargestellt haben.

Hier schließt sich der Kreis zwischen der Beobachtung von Roy Spencer, dass die Daten der Klimamodelle, je neuer die Modelle werden, umso weiter von der Realität, von der tatsächlichen gemessenen Temperatur abweichen. Die Erklärung für diese Beobachtung besteht in der dargestellten Datenmanipulation durch das Goddard Institute for Space Studies (GISS). Die Manipulation, die offenkundig dazu dient, die fehlende Erwärmung der Gegenwart dadurch wettzumachen, dass die Vergangenheit abgekühlt wird, dass vor allem die hohen Temperaturen der 1940er Jahre verfälscht werden, findet ihren Niederschlag in immer größeren Abweichungen der Vorhersagen der Klimamodelle von der tatsächlichen Entwicklung der Erdtemperatur. Dass dieselben GISS-Daten im Verlauf der Versionen immer höhere Temperaturen für die Gegenwart mit immer kühler werdenden Temperaturen in der Vergangenheit kombinieren, hat Tony Heller schon 2016 eindrucksvoll dargestellt:

Man sollte denken, eine solche eklatante Fälschung von Daten sei nicht aufrecht zu erhalten, könne nicht durchgesetzt werden. Aber diese Rechnung ist ohne die vielen Aktivisten, die vor den Karren derer gespannt werden, die am Klima-Hoax bestens verdienen, gemacht. Sie sorgen dafür, dass ein öffentliches Klima geschaffen wird, in dem nicht derjenige, der lügt, verachtet wird, sondern derjenige, der die Lüge aufdeckt, bestraft und von gedungenen Faktenmördern, dpa-Faktencheckern, ARD-Faktenfindern, mundtot gemacht wird.

Das Drehbuch für die Manipulation der Daten, die eine zunehmende Erwärmung dadurch gaukelt, dass die warmen Jahre der 1940er Jahre eliminiert, der 1940s warming blip, der bislang als unüberbrückbarer Widerspruch zur Phantasie von Michael Mann galt, die als Hockeystick bekannt ist, beseitigt wird, findet sich in den geleakten eMails aus Climategate.Electroverse gebührt der Dank dafür, wieder einmal darauf hingewiesen zu haben. Der wohl größte Betrug in der Wissenschaftsgeschichte, “Climategate”, ist übrigens ohne Folgen geblieben. Mehr Belege dafür, dass hinter dem Klimawandel-Hoax eine Vielzahl von Personen mit Einfluss stehen, die an dem Hoax fürstlich verdienen, sind eigentlich nicht notwendig.

Aber das ist natürlich alles nicht wahr, werden die Faktenmörder Ihnen erzählen wollen. Das müssen sie erzählen. Sie wurden eigens erfunden und eingesetzt, um zu verhindern, dass die vielen Betrügereien, an denen sich wenige auf Kosten von vielen dumm und dämlich verdienen, auffliegen.

Prostitution hat viele Gesichter!

Der Beitrag erschien zuerst bei ScienceFiles hier




DUBIOSE  MODELLE

Ein ganz süßes Video

Sicherlich haben Sie schon einmal, liebe Leserin, ein ganz süßes Video wie dieses https://www.youtube.com/watch?v=HjzjSvY0vlU mit ein paar Freundinnen geteilt, und Sie lieber Leser haben den Clip eines attraktiven Models an Ihre Kumpels verschickt. Da kann man dann fragen, wie sich solche kleinen Geschenke über die Menschheit ausbreiten, wenn jeder der Bescherten genau so weitermacht.

Dazu treffen wir ein paar Annahmen über die Wirklichkeit. Wir gehen davon aus, dass jeder den Clip mit 10 Freund/innen teilt, und dass der Empfänger es dann ebenso macht; und so weiter. Wie viele haben den Clip nach 10 Tagen? Nach dem ersten Tag sind es Sie plus 10 Freunde, macht 11. Nach dem zweiten Tag sind es Sie, Ihre 10 Freunde plus deren jeweils 10 Freunde, also 1 plus 10 plus 100, macht 111.

Nach 10 Tagen wird daraus eine Zahl aus elf Einsen; das sind im Klartext 11 Milliarden.

 

Modelle sind eigenwillig

Wir haben also versucht, die Wirklichkeit durch Mathematik abzubilden. Dazu haben wir angenommen, dass der Zuwachs an neuen Betrachtern des Videos proportional ist zur Zahl der existierenden. So etwas wird durch eine „Exponentialfunktion“ beschrieben, weil man den Zuwachs als 10 hoch n schreiben könnte, wobei n, die Anzahl der Tage, als „Exponent“ bezeichnet wird.

Dieses simple Computermodell zeigt uns etwas Interessantes:

Es gibt da Annahmen, die das Endresultat extrem beeinflussen: Wir gehen davon aus, dass unsere Freunde und Freundesfreunde täglich teilen. Würden sie aber nur am Wochenende teilen, dann hätten wir nach 10 Tagen nur gut hundert Bescherte, nicht elf Milliarden! Das ist ein Unterschied.

Wir haben behauptet, dass jeder 10-mal teilt. Bei 5 „Shares“, so wie es uns WhatsApp maximal zugesteht, wären wir bei rund 10 Millionen gelandet. Auch noch eine große Zahl, aber immerhin nur ein Tausendstel der vorherigen.

Die Zeitspanne – täglich oder nur am Sonntag – und die Zahl der Shares sind die „Parameter“ unseres Modells, und wenn wir die nicht ganz genau kennen, dann wird das Resultat nicht nur falsch, es kann grotesk unsinnig werden.

 

Die innere Logik

Aber nicht nur die Parameter des Modells müssen stimmen, auch die innere Logik des Vorgangs muss durch die Mathematik richtig abgebildet sein. Wir müssen bedenken, dass über kurz oder lang die einen oder anderen antworten: „Ja, super Clip, kannt´ ich aber schon.“ Die dürfen wir dann nicht mehr zählen.

In unserem Modell hatten wir das nicht berücksichtigt. Es waren also die Parameter unsicher und die Logik falsch. Als Folge davon war das Resultat unbrauchbar.

Sie sagen, das sei trivial? Dann sagen Sie das bitte auch Herrn Neil Ferguson, Professor am Imperial College London, und seinen deutschen Kollegen, die mit ihren fürchterlichen mathematischen Modellen in Sachen Corona berühmt und berüchtigt wurden. Vermutlich lagen auch deren Annahmen zur intrinsischen Logik der Epidemie daneben, oder die Parameter waren ungenau, oder beides. Vielleicht haben auch sie „täglich“ angenommen, wenn „wöchentlich“ richtig gewesen wäre. Und heraus kam ein abstruses Ergebnis.

Globales Energie Budget mit den wichtigsten Einflussgrößen und Abhängkeiten, Grafik Willy Soon

Eine Maschine voller Schräubchen

Keine Sorge, wir werden jetzt nicht das einzig richtige Computermodell zur Ausbreitung einer Pandemie entwickeln, wir wollten nur aufzeigen, wie leicht so ein Modell uns total in die Irre führen kann.

Noch komplizierter ist vermutlich der Mechanismus unseres Klimas. Da gibt es neben CO2 so viele andere Einflussfaktoren, welche alle in unserem Modell auftauchen müssen und deren relativer Einfluss durch die jeweiligen „Parameter“ abgebildet wird. Da sind das stratosphärische Ozon, der Wasserdampf durch CH4, der Albedo-Effekt durch Wolken, die langlebigen Kondensstreifen und noch einige andere Kandidaten, die alle in die Energiebilanz des Planeten eingreifen (hier nachzulesen https://think-again.org/product/grun-und-dumm/).

Ein mathematisches Modell dafür wird eine recht komplizierte Maschine, an der viele Schrauben sind – die Parameter –, an denen wir so lange drehen, bis die Maschine das tut, was wir möchten.

 

Wunschdenken

Hört sich alles logisch an, wir werden aber sehen, dass das Drehen an den Schräubchen, welche die Wirklichkeit abbilden, vertrackt ist. Drehen wir die eine vor, dann muss die andere zurückgedreht werden, etc. Und je mehr Schräubchen an der Maschine, desto willkürlicher kann man sie einstellen, um ein gewünschtes Ergebnis zu bekommen.

In der Wissenschaft unterscheidet man experimentelle und theoretische Physik. Erstere beschäftigt sich damit, im Labor gemessene Daten den Gleichungen gegenüberzustellen, die von Theoretikern ersonnenen wurden. Mathematische Modelle sind hier das alltägliche Werkzeug. Man malt eine Kurve mit den Messwerten und vergleicht sie mit der Kurve der theoretischen Berechnungen. Dann „schraubt“ man an den Parametern, bis die beiden Kurven möglichst gleich sind.

 

Ein Elefant mit vier Schrauben

Enrico Fermi, der vermutlich größte Experimentalphysiker aller Zeiten, erklärte seinen Studenten, dass Modelle nur ganz wenige Stellschrauben haben dürfen. Er verbildlichte das mit den Worten: „Gib mir ein Modell mit drei Schrauben, und ich zeichne dir eine Kurve, die aussieht wie ein Elefant; und mit vier Schrauben wedelt der mit dem Schwanz.“

Willkommen in der Welt der Klimaforscher, die mit mega-komplexen Modellen und riesigen Computern so lange an den Schräubchen drehen, bis das rauskommt, was Politik und Geldgeber wünschen. Da wedelt der Elefant dann nicht nur mit dem Schwanz, sondern der Schwanz mit dem Elefanten, falls das gewünscht wird.

Das ganze Modellieren funktioniert also nur, wenn der Wissenschaftler unvoreingenommen ist, denn Wissenschaft ist eine Funktion der absichtslosen Wahrheit. Diese Neutralität aber ist dank der Einmischung von Politik in die Wissenschaft verloren gegangen; Corona und Klima sind nur die zwei auffallendsten Beispiele dafür.

 

Computermodell der Macht

Und nun zu einem Phänomen, zu dem wir mehr als genug Erfahrung haben, um ein zuverlässiges Computermodell zu bauen: Es ist das Phänomen der Macht. Hier sind Parameter und intrinsische Logik gut bekannt, und die Dynamik wird präzise durch die eingangs erwähnte Exponentialfunktion beschrieben.

Die Geschichte zeigt, dass je mächtiger eine Person ist, desto größer wird ihr Verlangen nach noch mehr Macht. Und da Macht nicht vergeben wird, sondern genommen, so hat der Mächtige eine sehr gute Position: Er kann sich ja nehmen, was er will.

Betrachten Sie herausragende historische Figuren und Sie werden sehen, wie sich deren Macht alle drei oder fünf Jahre „verdoppelt“ hat. Dieses grenzenlose Wachstum konnte dann nur durch eine Katastrophe gestoppt werden – wie etwa Waterloo.

Deshalb muss das exponentielle Wachstum der Macht, wenn schon unvermeidlich, so doch zeitlich begrenzt werden; etwa auf zwei Amtsperioden. Diese Randbedingung, ein wesentlicher Bestandteil der Verfassung der USA, hat dafür gesorgt, dass es dort seit 1776 nie zu einem „Meltdown“ der Demokratie kam. Niemals konnte ein machtbesessener Präsident so willkürlich in das Schicksal von Millionen eingreifen, wie das im Europa der vergangenen 250 Jahre die Regel war.

 

Ein Gedankenexperiment

Aber nicht nur in der Geschichte, auch in der Gegenwart gibt es Fälle von grenzenloser Macht. Erdogan, Putin, Zuckerberg sind Namen, die uns da sofort einfallen; ja, und in Deutschland regiert die „mächtigsten Frau der Welt“. In 15 Jahren hat ihre Macht exponentiell zugenommen und im Februar 2020, mit dem Absetzen des gewählten Thüringer Ministerpräsidenten, eine Höchstmarke erreicht.

Lassen Sie uns, in einem Gedankenexperiment – Gedanken sind bekanntlich frei – ein mathematisches Modell für die politische Zukunft Deutschlands entwerfen. Die Exponentialfunktion lässt ja ein noch stärkeres Anwachsen von Merkels Macht für die nächsten Jahre erwarten. Was wird geschehen?

Sie wird keine Welle der Beliebtheit verstreichen lassen, ohne daraus Kapital zu schlagen. Ihr aktuelles „Corona High“ wird sie nutzen, indem sie vor Ende 2020 Neuwahlen organisiert – mit ihr selbst als einziger Kandidatin. Eine schwarz/rot/rote oder schwarz/rot/grüne Koalition bringt es dann auf eine 2/3-Mehrheit.

 

Eine neue Fahne

Es wird neue Ministerien geben, reichlich besetzt mit Expertinnen sozialistischer Prägung: Eines für Faktensicherung, ein anderes für Demokratie, mit angehängten „NGOs“. Regierungskritischen Zeitungen und Blogs wird das Leben durch bürokratische Schikanen unmöglich gemacht. Der Bundestag bleibt zwar noch bestehen, zur Arbeitsplatzbeschaffung für hilfreiche Persönlichkeiten, hat aber keine Funktion mehr.

Ohne parlamentarische Opposition, ohne kritische Medien kann endlich praktiziert werden, was lange angestrebt war: Es wird durchregiert. Die Verfassung wird nur respektiert, falls sie der großen Transformation nicht im Wege steht, ansonsten wird sie angepasst. Die Demokratie in Deutschland hat damit den „Tipping Point“ überwunden und es geht vorwärts – und abwärts – in die sozialistische Vergangenheit. Die neuen strategischen Partner werden Türkei, Iran und Russland sein; Polen, England und USA bleiben Feindstaaten. Und die verhasste schwarz-rot-goldene Fahne wird endlich ersetzt durch ein Banner mit sozialistisch-ökologischen Symbolen.

Soweit also ein mathematisches Gedankenexperiment in Sachen Exponentialfunktion. Es hat keinen Bezug zur Realität, denn Frau Merkel hat ihr Ausscheiden aus der Politik bereits angekündigt, und nur ein Schelm würde an ihren Worten zweifeln.

 

Dieser Artikel erschien zuerst bei www.think-again.org und im Buch „Grün und Dumm“ https://think-again.org/product/grun-und-dumm/

 




Covid-19 und die Illusion von der Wissensgesellschaft

Yogeshwar wollte damit wohl sagen, dass die Menschen, von wochenlanger Einschränkung ihrer Freiheitsrechte frustriert und ermüdet, es nun wieder vorzogen, sicheres wissenschaftliches Wissen zu verdrängen, um zum gewohnten Trott ihres Alltagslebens zurückkehren zu können und sich dabei wieder von ihrem eigenen Hausverstand leiten zu lassen. Wie Massendemonstrationen gegen die „Hygiene-Diktatur“ in etlichen deutschen Großstädten zeigen, entwickelte sich bei einem Teil der Bevölkerung Widerstandsgeist. Der Wissenschaftsjournalist sieht seine Aufgabe offenbar darin, das lesende und fernsehende Publikum wieder zum rechten Glauben an die Leistungsfähigkeit der wissenschaftlichen Methode zurückzuführen.

Hinter dieser Einschätzung versteckt sich meines Erachtens aber ein grundsätzlicher Irrtum, der auf der Verwechslung von wissenschaftlichem Wissen und szientistischer Ideologie beruht. Zwar glaubt heute kaum noch jemand, die wissenschaftliche Forschung könne durch zähe Anstrengung irgendwann zum gottgleichen Allwissen beziehungsweise ganzheitlichen Verständnis natürlicher und/oder gesellschaftlicher Prozesse gelangen. Doch vermuten wohl immer noch viel zu viele, man könne sich der Wahrheit zumindest bis auf 90 Prozent annähern. Oft fehlen uns für das umfassende Verständnis komplexer Sachverhalte aber über 90 Prozent der nötigen Informationen. Das gilt nach Aussage der darauf spezialisierten Biologen schon für einzellige Organismen und noch in weit größerem Maße für ganze Ökosysteme und für menschliche Individuen und ganze Gesellschaften. Dennoch trauen gerade Menschen mit formal höherer Bildung den zumeist staatlich besoldeten Wissenschaftlern zu, mithilfe deterministischer Computersimulationsmodelle, d.h. mit dem Durchrechnen von Differential- bzw. Differenzengleichungen die wesentlichen Ursachen der Entwicklung komplexer Systeme ausmachen zu können. Nur wer glaubt, bereits die wesentlichen Faktoren und Zusammenhänge verstanden zu haben, kann von Computersimulationen realistische Prognosen erwarten. Es handelt sich dabei aber, wie leicht gezeigt werden kann, um nichts anderes als um das, was Wirtschafts-Nobelpreisträger Friedrich A. Hayek „Anmaßung von Wissen“ genannt hat.

Ich hatte selbst in Sachen Modellierung ein Schlüsselerlebnis. Als ich vor Jahren beim deutschen Magazin „Bild der Wissenschaft“ einen Übersichtsartikel über das Pro und Contra von Tierversuchen  einreichte, wollte der zuständige Redakteur nicht verstehen, warum man Chemikalientests an Tieren nicht vollständig durch Tests an Zellkulturen und durch Computersimulationen ersetzen kann. Er ging offenbar davon aus, dass solche Modelle alle wesentlichen Zusammenhänge abbilden konnten. Um ihn vom Umfang unseres Nichtwissens zu überzeugen, argumentierte ich mit Karl R. Popper und anderen Wissenschaftsphilosophen. Danach können Forscher aufgrund von Beobachtung und Experiment nur zu mehr oder weniger vorläufigen Hypothesen, aber nicht zu definitiven Erklärungen von Naturzusammenhängen gelangen. Aber den Namen Popper hatte der junge Mann noch nie vernommen. Mein Artikel wurde schließlich zwar veröffentlicht, aber vom Cover genommen und ins Innere des Heftes verbannt, obwohl er vom Umfang her der Hauptartikel der Ausgabe war.

Die Anmaßung von Wissen in Form mathematischer Modelle zeigte sich bislang hauptsächlich in den vergleichsweise primitiven Computersimulationen auf malthusianistischer Grundlage, die der 1972 erschienen Studie „Die Grenzen des Wachstums“ zugrunde liegen, die vom „Club of Rome“ in Auftrag gegeben worden war. Danach sollte die Weltwirtschaft schon um die Jahrtausendwende wegen der Erschöpfung von Ressourcen zusammengebrochen sein. Die aktuelle Ölschwemme auf dem Weltmarkt zeigt, wie weit von der Realität diese Modelle entfernt waren. Weniger augenfällig ist das bei den scheinbar erheblich komplexeren Klimamodellen, mit denen die so genannte Klimapolitik zur Abwendung einer der Menschheit angeblich drohenden „Klimakatastrophe“ begründet wird. Das Vertrauen in diese Modelle ist inzwischen so groß, dass ihnen widersprechende Messdaten und Alltagserfahrungen bei maßgeblichen Massenmedien und den ihnen ausgelieferten Bevölkerungsteilen der selektiven Wahrnehmung zum Opfer fallen. Kaum jemand wagt es noch zu bezweifeln, dass die Freisetzung von Kohlenstoffdioxid durch menschliche Aktivitäten die Hauptursache der Erderwärmung ist. Dabei gibt es für die monokausale Argumentation und daher nur scheinbar komplexe Struktur dieser Modelle keine empirischen Belege. Das unrühmliche Ende des Biosphere-II-Experiments in Arizona (hier) hätte schon in den 1990er Jahren zeigen können, dass die Natur nicht so funktioniert, wie die Grünen sich das vorstellen. Doch wer sich heute die akademische Freiheit nimmt, die Erzählung vom schädlichen Einfluss der industriellen Revolution auf Umwelt und Klima durch Hinweis auf eigene Beobachtungen kritisch zu hinterfragen, der riskiert, wie das Beispiel der Auseinandersetzung des australischen Meeresforschers Peter Ridd zeigt, inzwischen seine berufliche Zukunft.

Nur auf dem Hintergrund der verbreiteten Modell-Gläubigkeit bei den Regierenden und den ihnen nahe stehenden Medien wird verständlich, wie es unter Hinweis auf „die“ Wissenschaft zur politischen Entscheidung kam, der Ausbreitung des neuen Virus SARS-CoV-2 mit der dümmsten aller denkbaren Strategien, nämlich dem kompletten Lockdown des Kultur- und Wirtschaftslebens zu begegnen, anstatt lediglich die an Covid-19 Erkrankten zu isolieren und empfindliche Bevölkerungsgruppen besonders zu schützen. Eine zentrale Rolle spielte dabei das epidemiologische Modell des Teams um Neil Ferguson vom renommierten Londoner Imperial College. Dieses prognostizierte im März 2020, die Covid-19-Epidemie würde in Großbritannien höchstwahrscheinlich eine halbe Million und in Amerika über zwei Millionen Todesopfer  fordern. Wörtlich schrieb die New York Times: „With ties to the World Health Organization and a team of 50 scientists, led by a prominent epidemiologist, Neil Ferguson, Imperial is treated as a sort of gold standard, its mathematical models feeding directly into government policies.“ Der britische Premierminister Boris Johnson revidierte daraufhin die von ihm ursprünglich favorisierte Option einer kontrollierten Durchseuchung der Bevölkerung zugunsten eines strengen Lockdowns nach chinesischem Vorbild – mit unabsehbaren wirtschaftlichen und sozialen Folgekosten. Die meisten anderen europäischen Regierungen, mit Ausnahme der schwedischen, taten es ihm gleich – soweit sie nicht ohnehin bereits von sich aus dem Beispiel der chinesischen Diktatur gefolgt waren.

Ausschlaggebend für die Angst erzeugenden Projektionen des Ferguson-Modells war die Annahme einer unrealistisch hohen Infektionsrate von 80 Prozent und dessen deterministische Struktur, die keinen Platz ließ für intelligente Anpassungsmaßnahmen der von der Epidemie bedrohten Menschen. Obendrein verwendete das Team von Neil Ferguson ein total veraltetes Computerprogramm.

Das hielt die „New York Times“ nicht davon ab, es zum „gold standard“ der epidemiologischen Modellierung zu erklären. Dabei hatte Ferguson bereits eine lange Liste von haarsträubenden Fehlprognosen auf seinem Register: Im Jahre 2001 wurden auf seinen Rat hin in England vorsorglich sechs Millionen Schafe gekeult, um die Ausbreitung der Maul- und Klauenseuche zu stoppen. Kostenpunkt: Sechs Milliarden Pfund Sterling. Ein Jahr später sagte Ferguson den Tod von 150.000 Personen durch BSE (Creutzfeldt-Jacob-Krankheit) voraus. Es starben aber in GB gerade einmal 177 Menschen daran. Im Jahre 2005 prognostizierte Ferguson sage und schreibe 200 Millionen Todesopfer durch die Vogelgrippe. Es starben aber weltweit nur 282 Personen. Und im Jahre 2009 sagte er den Tod von 65.000 Briten durch die Schweinegrippe voraus. Es starben nur 457 Personen. Am Ende verlor Ferguson seinen Job nicht wegen seiner betrügerischen Fehlprognosen, sondern weil er während der von ihm selbst propagierten Kontaktsperre mit seiner Geliebten, einer verheirateten Frau mit zwei Kindern, erwischt wurde.

Auf die herrschende szientistische Ideologie ist auch der bislang wohl größte Wissenschaftsskandal der herbeigeredeten Coronakrise zurückzuführen. Es handelt sich dabei um die offenbar orchestrierte Lobby-Kampagne großer Pharma-Konzerne gegen den Einsatz des seit über sieben Jahrzehnten bewährten und obendrein sehr preiswerten Anti-Malaria- und Anti-Rheuma-Mittels Chloroquin (CQ) beziehungsweise dessen verträglichere Abkömmlinge Hydroxychloroquin (HCQ) und Chloroquinphosphat in Kombination mit dem ebenfalls zum Klassiker gewordenen Antibiotikum Azithromycin (AZ). In Frankreich verordnete Prof. Didier Raoult seinen positiv auf Covid-19 getesteten Patienten im Marseiller Hospital „La Timone“ in der Anfangsphase der Krankheit diese beiden Medikamente. Er hat nie behauptet, dass diese für ganz andere Anwendungen gedachten Medikamente allein in der Lage sind, die bereits fortgeschrittene Erkrankung zu stoppen. Vielmehr sollten sie einer Verschlimmerung der Virusinfektion vorbeugen, gehören also eher in die Kategorie Prophylaxe. Er berief sich dabei auf die guten Erfahrungen seines chinesischen Kollegen Zhong Nanshan und auf den Hippokratischen Eid, der ihm gebiete, Patienten beim Fehlen einer anerkannten Therapie auch mit unkonventionellen Methoden zu helfen. Raoult konnte sich mit seinem empirischen, vom gesunden Menschenverstand geleiteten Vorgehen auf seine Jahrzehnte lange Erfahrung als Infektiologe und seine weltweite Anerkennung als führender Mikrobiologe (dessen Namen einige bekannte Krankheitserreger tragen) berufen, was sich nicht zuletzt im Science Citations-Index niederschlug. Die zunächst bei über 1.000  und schließlich bei fast 4.000 Patienten erzielten Resultate  gaben Didier Raoult am Ende recht. Kaum irgendwo starben so wenige Patienten an Covid-19 wie in Marseille (0,9 Prozent). Nur bei 25 Patienten (0,67 Prozent) wurde die befürchtete Herzrhythmus-Störung (Verlängerung des Q-T-Intervalls) festgestellt. Nur in drei Fällen führte diese zum Abbruch der Behandlung.

Doch damit fand er bei den Mandarinen des staatlichen französischen Gesundheitswesens keine Anerkennung. Im Gegenteil: Sie mokierten sich darüber, dass Raoult in Südfrankreich vom einfachen Volk inzwischen wie ein Messias verehrt wird, und warfen ihm vor, sein Vorgehen entspreche nicht dem „Gold Standard“ klinischer Studien. Als solcher gelten angeblich nur randomisierte Doppel-Blind-Studien, bei denen ein Teil der Probanden ohne ihr Wissen nur mit Placebos behandelt wird. Bei potenziell lebensbedrohenden Erkrankungen wie Covid-19 sei es aber ethisch nicht vertretbar, Patienten mit Placebos abzuspeisen, entgegnete Didier Raoult. Medizin erschöpft sich eben nicht in der Anwendung starrer von „der“ Wissenschaft abgeleiteter Regeln, sondern ist bekanntlich auch eine Kunst, die sich auf jahrzehntelange Erfahrung und Intuition stützt. Sie hat es also weniger mit Gewissheit, sondern mehr mit Wahrscheinlichkeiten zu tun. Didier Raoult kann sich damit immerhin auf Paul Feyerabends Polemik wider den Methodenzwang  berufen.

Diese vom gesunden Menschenverstand inspirierte Haltung stieß offenbar in der französischen Gesundheitsbürokratie auf Missfallen. Yves Lévy, der Mann der früheren Gesundheitsministerin Agnès Buzyn, versuchte als Direktor des nationalen medizinischen Forschungs-Netzwerks INSERM Didier Raoult und seinem Institut Hospitalier Universitaire (IHU) Méditerranée das Leben schwer zu machen, indem er es nicht anerkannte. Seine Frau ließ zu Beginn dieses Jahres HCQ als gefährliche Substanz und damit verschreibungspflichtig einstufen, nachdem das Medikament, trotz einiger problematischer Nebenwirkungen bei Herz-Patienten, vor allem in warmen Ländern Jahrzehnte lang ohne Beanstandung in großen Mengen als Malaria-Prophylaktikum eingenommen worden war. Buzyns Amtsnachfolger Olivier Véran versuchte schließlich sogar in mehreren Anläufen, HCQ für die Behandlung von Covid-19-Patienten ganz zu verbieten.

Da kam die Veröffentlichung einer internationalen Metastudie im renommierten Magazin „The Lancet“ unter dem Titel „Hydroxychloroquine or chloroquine with or without a macrolide for treatment of COVID-19: A multinational registry analysis“  am 22. Mai 2020 offenbar wie gerufen. In dieser von Prof. Mandeep Mehra MD, Sapan S. Desai MD, Prof. Frank Ruschitzka MD und Amit N. Patel MD gezeichneten Publikation, die inzwischen zurückgezogen werden musste, geht es um die Analyse von anscheinend überwiegend aus Amerika, aber auch von anderen Kontinenten stammenden Patientendaten aus insgesamt 671 Kliniken, die nach Angaben von Sapan Desai elektronisch an das von ihm geleitete Chicagoer Start-up-Unternehmen Surgisphere übermittelt worden waren. So hätten die Heilungserfolge von fast 15.000 mit CQ oder HCQ behandelten Patienten mit Daten von 81.000 Patienten verglichen werden können, die anders behandelt wurden. Im Ergebnis Im Vergleich zur Kontrollgruppe wurde danach bei den mit HCQ (18 %), HCQ plus Makrolid-Antibiotikum (23,8 %), Chloroquin (16,4 %) und Chloroquin plus Makrolid (22,2 %) im Krankenhaus behandelten Patienten sogar eine erhöhte Mortalitätsrate wegen Herzrhythmusstörungen o.ä. festgestellt. Jedenfalls sei die Anwendung von Chloroquin und HCQ nicht von Vorteil.

Schon am 23. Mai kündigte Olivier Véran daraufhin über Twitter an, das zuständige Beratergremium HCSP werde sich mit der Aufhebung der provisorischen Zulassung von HCQ befassen. Am 27. Mai verbot Olivier Véran den Ärzten schließlich die Verschreibung von HCQ an Covid-19-Patienten. Schon am 25. Mai unterbrach die Weltgesundheitsorganisation WHO unter Hinweis auf die Veröffentlichung in „The Lancet“ teilweise ihre groß angelegte Studie SOLIDARITY . In Deutschland wurde jedoch entschieden, zwei ähnliche Studien mit etwa 3.000 Patienten fortzuführen, wie der Koordinator der beiden Studien, der Tübinger Professor Peter Kremsner gegenüber der „Ärzte-Zeitung“ erklärte. Eine dieser beiden Studien, die COMIHY-Studie konzentriert sich auf ambulant behandelte, also weniger schwer an Covid-19 erkrankte Patienten und hält sich auch mit der Dosierung an die Vorgaben von Prof. Didier Raoult, während die meisten übrigen Therapie-Experimente mit HCQ eine Überzahl schwerkranker Patienten einschlossen und obendrein mit Überdosen von HCQ arbeiteten. Auch Raoult selbst fuhr fort, von seiner autonomen Entscheidungsbefugnis als Arzt Gebrauch zu machen, wies jedoch darauf hin, dass es zu diesem Zeitpunkt zumindest in Marseille kaum noch Covid-19-Patienten gab.

In der Zwischenzeit hatte eine ganze Reihe international renommierter Kliniker und Statistiker , angeführt durch den Statistiker Dr. James Watson (aus Deutschland steht Prof. Dr. Frank Brunkhorst von der Jenaer Uni-Klinik auf der Liste) in einem Brief an die Autoren der Studie und an Richard Horton, den Herausgeber von „The Lancet“ öffentlich bezweifelt, dass bei der Datenauswertung der in „The Lancet“ veröffentlichten Metastudie von Mehra et al. alles mit rechten Dingen zugegangen ist. Unter anderem bemängelten die Wissenschaftler, dass die Herkunft der Daten wegen des Fehlens eines Codes nicht nachvollzogen werden kann. Man wisse also nicht, welche Kliniken Daten übermittelt haben und welche nicht. In Australien wurden für fünf Kliniken mehr Corona-Tote erfasst als im ganzen Land ermittelt worden waren. Als verwunderlich erschien den Kritikern auch die auffällig geringe Varianz des (verborgenen) statistischen Materials. Aus diesen und weiteren Gründen forderten die Experten die Offenlegung der Rohdaten und der Codes, mit deren Hilfe sie verarbeitet wurden. Dieser Bitte konnten Mehra et al. nicht nachkommen.

In Brasilien, dessen Präsident Jair Bolsonaro sich wie US-Präsident Trump nachdrücklich für die Verabreichung von HCQ einsetzte, versammelte der führende Chemiker Marcos Eberlin 300 weitere Top-Wissenschaftler, um den Artikel von Mehra et al. in „The Lancet“ zu zerpflücken und die Ergebnisse der Analyse in einem offenen Brief zu veröffentlichen. Die brasilianischen Kritiker der Veröffentlichung von Mehra et al. wiesen überdies nach, dass schwerkranken Patienten in der so genannten Manaus-Studie (veröffentlicht im JAMA hier) tödliche Dosen von CQ verabreicht worden war, um die Gefährlichkeit dieses Medikaments zu demonstrieren. Am Ende ihres offenen Briefes weisen die brasilianischen Wissenschaftler übrigens ausdrücklich darauf hin, dass sie sich nicht absolut gewiss sind, ob HCQ den Patienten hilft. Nur die Wahrscheinlichkeit spreche dafür. Die Justiz könne bei der Prüfung der Zulassung dieses Medikaments nur nach dem Grundsatz „In dubio pro reo“ verfahren.

(Leider gehen die Wissenschaftler nicht auf die bei Schwarzen, also gerade auch in Brasilien relativ häufige HCQ-Unverträglichkeit bei Glucose-6-Phosphat-Dehydrogenase (G6PD(H)-Mangel https://de.wikipedia.org/wiki/Glucose-6-phosphat-Dehydrogenase-Mangel ein. Durch diese ernsthafte Störung des Zuckerstoffwechsels werden die Zellmembranen, insbesondere die der roten Blutkörperchen, anfällig für oxidativen Stress durch HCQ. Das kann zur hämolytischen Anämie führen.)

Noch strenger ging ein anonymer, aber bekannter Blogger aus der Wissenschaftsszene  (Goldstein) mit den Autoren der in „The Lancet“ publizierten Studie ins Gericht. Er wies nach, dass die Studie auf Fake-Daten beruht und dass Surgisphere nichts anderes ist als eine unseriöse Briefkastenfirma, in der eine Porno-Darstellerin als leitende Angestellte untergekommen war. Weitere Statistik-Profis schlossen sich in anonymer Form dieser vernichtenden Kritik an, indem sie nachwiesen, dass Surgisphere zu tragbaren Kosten gar nicht an die in der Studie angeblich verwendeten klinischen Daten gelangt sein konnte. Schlag auf Schlag kamen dann über soziale Netzwerke im Internet weitere kompromittierende Tatsachen über die Chicagoer Firma und über Interessenskonflikte der Autoren ans Licht.

In Frankreich untersuchte der linke Soziologe Laurent Mucchielli mögliche Interessenskonflikte der Autoren des Lancet-Artikels und wies nach, dass Mandeep Mehra verschwiegen hatte, dass das Bostoner Brigham Hospital, an dem er arbeitete, vom Pharma-Konzern Gilead bezahlt wird, um das Virostatikum Remdesivir zu testen. Gilead hatte dieses Medikament entwickelt, um die in Zentralafrika ausgebrochene Ebola-Epidemie gewinnbringend zu bekämpfen. Doch diese Epidemie war von selbst erloschen, bevor das neue Medikament auf den Markt kam. Nun versucht Gilead offenbar, sein teures, aber noch kaum erprobtes Medikament in der Coronakrise loszuwerden, indem er mithilfe willfähriger Wissenschaftler und Medien das preiswerte Konkurrenz-Produkt HCQ mit allen Mitteln schlecht macht. Auch der an der Zürcher Uni-Klinik arbeitende Prof. Dr. Frank Ruschitzka forscht mit Geldern der US-Pharma-Konzerne Gilead und Abbott. Mit dem letztgenannten Konzern arbeitet auch Dr. Mandeep Mehra zusammen. Der an der University of Utah lehrende Mediziner Amit Patel gab zu, die beiden renommierten Professoren Mehra und Ruschitzka mit seinem Schwager Sapan Desai, dem Gründer von Surgisphere, bekanntgemacht und für die Unterzeichnung der gefakten Lancet-Veröffentlichung gewonnen zu haben. Er trennte sich kürzlich „im Einvernehmen“ von seiner Universität.

Anfang Juni 2020 gab es nach alledem kein Halten mehr. „The Lancet“ musste die Veröffentlichung der inkriminierten Studie zurückziehen. So endete (vorläufig) einer der größten Wissenschaftsskandale der letzten Jahrzehnte. In Frankreich spricht man von „Lancet Gate“ . Tausende von Ärzten und Angehörige von Covid-19-Opfern haben in Frankreich juristische Schritte gegen die (un)verantwortlichen Minister eingeleitet oder angekündigt. Aber vermutlich dürfte dieser Skandal noch sehr viel weiter reichende politische Konsequenzen haben.

Man erinnert sich daran, dass die Europäische Union im Rahmen des so genannten Lissabon-Prozesses einmal offiziell verkündet hat, innerhalb von einem Jahrzehnt zur dynamischsten Wissensgesellschaft der Welt werden zu wollen. Dahinter steht offenbar der u.a. auf Auguste Comte zurückgehende Anspruch, das angeblich im Mittelalter vorherrschende magische Denken durch eine wissenschaftliche Weltanschauung überwinden zu können. Es lässt sich aber leicht zeigen, dass gerade die durch deterministische Modelle begründete Politik in Verbindung mit postmoderner Werteverkehrung zur Renaissance des magischen Denkens führt. Marxisten bewegen sich ohnehin nur in Modellwelten. Beispiele dafür sind die Klimapolitik, die damit zusammenhängende „Energiewende“, die Öffnung der Grenzen für die unkontrollierte Masseneinwanderung aus nichteuropäischen Ländern und die Euro-Rettungspolitik der EZB. Es bedarf bei all diesen Politiken keiner höheren Mathematik, um zu erkennen, dass diese nicht an ihr Ziel gelangen können. Das gilt vermutlich auch für die szientistisch begründete und bürokratisierte Gesundheitspolitik Frankreichs.

Hinter dem Anspruch, im Namen „der“ Wissenschaft zu sprechen, stehen m.E. letztlich immer totalitäre Bestrebungen. Um Fehlentwicklungen wie „Lancet Gate“ zu vermeiden, gilt es, im Gesundheitswesen dem Pluralismus und vor allem dem gesunden Menschenverstand größere Chancen einzuräumen. Das darf aber nicht mit Zugeständnissen an wissenschaftsfeindliche Ideologien einhergehen. Man braucht mit der Bescheidenheit hinsichtlich der menschlichen Erkenntnisfähigkeit nicht so weit gehen wie Sokrates, dem die Aussage zugeschrieben wird: „Ich weiß, dass ich nichts weiß.“ Denn wir wissen, trotz unserer grundsätzlichen Beschränktheit, schon sehr viel über uns und unsere Umwelt und haben das für eine Vielzahl echter Verbesserungen der menschlichen Lebensqualität genutzt. Aber wir sollten m. E. nie vergessen, dass unser Wissen immer nur eine Insel in einem Ozean von Unwissen sein kann.




COVID-19-Modelle – eine Lektion für jene, welche Klimawissenschaftlern vertrauen

Wir in der Branche Wettervorhersage verwenden Modelle als ein Hilfsmittel, und sie bieten spezielle Herausforderungen. Uns steht eine Fülle von Modellen zur Verfügung, aus denen wir wählen können. Sie werden 2 oder 4 mal pro Tag oder teils sogar stündlich neu berechnet. Operationelle Modellvorhersagen reichen bis 16 Tage in die Zukunft. Dann jedoch weisen sie schon große Fehler auf, vor allem dann, wenn Wettersysteme aus spärlich mit Daten abgedeckten Regionen auf das Festland übergreifen, wie es an der US-Westküste der Fall ist. Es gibt bei uns eine beliebte Phrase – Garbage in, Garbage out (GIGO).

Hinsichtlich der Klimamodelle ist aber alles noch viel schlimmer. Die Klimamodelle übertreiben die Erwärmung durch Treibhausgase um einen Faktor 2 oder mehr:

Klimamodell-Vorhersagen im Vergleich zu Satelliten- und Ballon-Beobachtungen

Die Modelle projizierten die stärkste Erwärmung in der mittleren Troposphäre über den Tropen (genannt der Hot Spot), wo die Luft im Mittel aufsteigt aufgrund der Konvergenz aus den beiden Hemisphären. Aber die Erwärmung in den Modellen ist größtenteils eine Folge der Freisetzung latenter Wärme durch Kondensation des Wasserdampfes. CO2 ist ein Spurengas, welches nur einen Anteil von 0,04% an der Atmosphäre hat.

Man sieht: Kein Erwärmungstrend in der oberen Troposphäre seit 1979, als die Modelle ihn prophezeit hatten:

Die fehlende Erwärmung gilt auch für den tropischen Pazifik bis zu einer Tiefe von 300 m zwischen den Längengraden 160°E und 80°W:

Wie sie mit dem Fehlen von Daten in den unteren Luftschichten umgehen

Die Klimaille porträtiert die Ergebnisse ihrer Modelle als Evangelium, und die Gläubigen vermengen die Modellprojektionen mit gemessenen Daten. Die Datenzentren stellen unhaltbare Behauptungen auf, wonach ein gegebener Monat oder ein gegebenes Jahr das wärmste jemals gewesen sei seit Beginn von Aufzeichnungen (1880 oder sogar 1850), und das oftmals mit geringsten Spannbreiten (0,05°C zum Beispiel).

Aber die Daten als Grundlage derartiger Behauptungen gibt es einfach nicht.

71% der Erde sind von Ozeanen bedeckt, und bevor vor 40 Jahren die ersten Satellitendaten verfügbar waren, hingen Messungen von Ozeandaten von Schiffen ab, die auf bestimmten Routen fuhren, hauptsächlich auf der Nordhemisphäre und in der Nähe von Land.

Ein großer Teil der Landoberfläche war erratisch mit Messpunkten bestückt, und die Daten waren nur zu oft spärlich und intermittent.

Um halbwegs eine Übereinstimmung mit ihren geheiligten Modellen zu erreichen, manipulierten die Datenzentren reale Daten, oder sie erzeugten dieselben sogar mit ihren Modelldaten für 95% des Planeten mit sehr dünnem Messnetz vor der Satelliten-Ära.

Der Klimawissenschaftler am MIT Dr. Mototaka hat die verlogenen Behauptungen bloßgestellt, wonach die meisten Jahre die wärmsten jemals waren seit den 1850er Jahren.

„Die vermeintliche Bedeutung der globalen mittleren Temperaturen seit 1890 hatten Thermometer-Messungen zur Grundlage, die kaum 5% des Globus‘ abdeckten, bis vor 40 bis 50 Jahren die Satelliten-Ära begann. Wir wissen nicht, wie sich das globale Klima im vorigen Jahrhundert verhalten hat. Alles, was wir wissen, sind ein paar regionale Klimaänderungen, etwa in Europa, Nordamerika und Teilen von Asien“.

Die besten Klimawissenschaftler während der 1970er Jahre wussten das und erzeugten die erste Übersicht über globale Trends mittels Land-Temperaturen, wo immer diese auf der Nordhemisphäre verfügbar waren. Sie zeigten eine Erwärmung um ca. 1°C von den 1880er Jahren bis etwa 1940 und danach eine Abkühlung bis etwa 1970, wodurch die Erwärmung zuvor um etwa die Hälfte wieder zurück ging. Weitere Abkühlung bis Ende der 1970er Jahre eliminierte den Rest davon.

Diese frühen Messungen wurden gelöscht, als Modelle und globale Land- (und Ozean-)Daten während der folgenden Jahrzehnte ,erzeugt‘ worden waren. Die Modelle machten die frühen Daten kälter und die späteren Daten wärmer. Damit sollte eine offensichtliche stetige Erwärmung erzeugt werden während der Ära, in der der Verbrauch fossiler Treibstoffe immer mehr zunahm. Unsere Schlussfolgerung: Es gibt eine vom Menschen erzeugte globale Erwärmung, aber diese Menschen befinden sich bei der NOAA, der NASA und Hadley:

Übrigens wurde die Datenabdeckung und -genauigkeit von den Ozeanen nicht wirklich zuverlässig, bis im Jahre 2000 das ARGO-Bojenprogramm gestartet worden ist. Damit sollten Temperatur und Wärmegehalt der Ozeane genau gemessen werden. Genau wie bei den Satellitenmessungen zu Änderungen der Höhe des Meeresspiegels (welche keine Änderungen zeigten, bis man künstliche Adjustierungen vorgenommen hatte), waren die ersten Ergebnisse enttäuschend – zeigten sie doch keinerlei Erwärmung. Die ARGO-Daten stützten den unbequemen, fast zwei Jahrzehnte währenden Stillstand der Erwärmung, welcher Ende der 1990er Jahre begann.

Vermutlich aus Verzweiflung vor dem Paris-Abkommen ließen sie dies verschwinden, indem die Bojendaten so manipuliert worden waren, dass sie zu den Schiffsdaten passten

Die Modelle sind frisiert, um manipulierte (betrügerische) Daten zu erzeugen. Zusätzlich zu dem oben Gesagten wird dies deutlich, wenn man alle Extreme des Wetters betrachtet, welche diese Modelle und die Theorien prophezeit hatten. Jede Einzelne dieser Prophezeiungen ist gescheitert (hier).

Summary

COVID-19 hat gezeigt, wie groß die Auswirkung einer Pandemie auf die globale Bevölkerung sein kann. Ein Green New Deal wurde nicht in einem Laboratorium geschaffen. Aber er ist idiotisch* und würde massive Auswirkungen auf das Leben haben, so wie wir es kennen. Die Auswirkungen auf unsere Ökonomie würden nicht so rasch zutage treten, wären aber genauso ernst. Die Regierung dürfte Ihnen kaum Schecks zuschicken, um zu helfen, den rasanten Anstieg der Stromkosten aufzufangen sowie die Kosten für den Lebensstandard und wie man leben will (wohin man womit fährt, wo man leben will, wie viel man verdienen und behalten kann, usw.). Weil das alles auf Junk Science basiert, müssen wir so schnell wie möglich auch die COVID-19-Modelle loswerden.

[*Der Autor drückt sich etwas drastischer aus. Anm. d. Übers.]

Mehr dazu findet sich in dieser Präsentation vor den Steuerzahlern von New Hampshire.

Hier gibt es einen Vergleich von Klimamodellen mit COVID-19-Modellen [dieser Beitrag folgt demnächst ebenfalls in deutscher Übersetzung!] Und in diesem Video wird der ganze Betrug hinter COVID-19 aufgedeckt.

Link: http://icecap.us/index.php/go/joes-blog/covid19_models_a_lesson_for_those_who_trust_climate_scientists/

Übersetzt von Chris Frey EIKE




Klimakatastrophe: Wissenschaft und Politik auf gefährlichen Abwegen

Als Historiker schaue ich mit schaudernder Spannung auf Ideologie und Machtpolitik, wenn es um das Thema Klima geht. Als Ökonom schüttele ich betrübt den Kopf, wenn es um die Energiepolitik geht. Mein Alarmsystem als Liberaler schrillt – das geht vielen anderen Menschen ähnlich.

In meiner intensiven wissenschaftlichen Auseinandersetzung mit dem Nationalsozialismus fand ich das Konzept der Politischen Religion aussagekräftig. Längst finden sich eine Fülle von Anzeichnen, die beim sogenannten Klimaschutz auf eine Ersatzreligion hinweisen. In der ausgezeichneten Broschüre Kann der Mensch das „Klima retten“? 45 Fragen und Antworten zu Klimawandel und Energiewende, erschienen in 3. Auflage beim Kaleidoscriptum Verlag, schreiben Wulf Bennert, Wolfgang Merbach Hans-Günter Appel und Helmut Waniczek im Vorwort:

Zu den religiösen Attributen der Klimaschutzbewegung zählen: Todsünden (Fliegen, Fleischkonsum), Kardinalstugenden (vegane Ernährung, E-Auto fahren, Solarstrom nutzen), ein Tag des jüngsten Gerichts (Verfehlen des neuen 1,5-Grad-Zieles), Prozessionen (Fridays for future), sowie der geplante Ablasshandel (CO2-Steuer). Und sie kennt auch den außerhalb der Glaubensgemeinschaft stehenden Ketzer: den Klimaleugner.

Ein wenig später heißt es zur Aussage des Youtubers Rezo, dass es nur eine legitime Einstellung gebe:

Das ist die Sprache, die wir aus totalitären Systemen kennen.

Indes hat die Broschüre, die ich jederman empfehle und die in die Schulen gehört, weitaus mehr zu bieten. Das gilt für prägnante Erklärungen wie: Klima ist das über 30 Jahre gemittelte Wetter, aber auch für die treffende Bezeichnung von sogenannten E-Autos als Batterieautos. Darüber hinaus gilt es für jede Menge Denkanstöße, die die beiden großen Abschnitte enthalten, nämlich 25 Fragen und kompakte Antworten zum heutigen Klimawandeln und zum CO2 sowie 20 Fragen und kompakte Antworten zur Energiewende und Elektromobilität in Deutschland.

Ich greife drei wesentliche Aussagen heraus:

  • Die Modellrechnungen des IPCC rechtfertigen nicht, einen dramatischen, beispiellosen, menschengemachten Klimawandel anzunehmen: Es gab noch nie ein Gleichgewicht des Klimas. Temperaturschwankungen in der Vergangenheit übertrafen die heutigen. Der CO2-Gehalt war war während der meisten Epochen viel höher und folgte den Temperaturen – nicht umgekehrt.

  • Die natürlichen Ursachen für den Klimawandel, insbesondere die variierende Sonnenaktivität, deuten darauf hin, dass der Einfluss des Menschen auf das Klima gerade auch durch sogenannte Klimaschutzmaßnahmen marginal ist.

  • Das Batterieauto ist als generelle Mobilitätsstrategie ein politisch erzwungener Irrweg, der eine starke Umweltbelastung mit sich bringt.

Lesenswert sind insbesondere die zahlreichen prägnanten Schlussfolgerungen zum Klimawandel und zur Energiepolitik.

Fazit: Schützen wir unsere Umwelt, nicht das Klima!

P.S. Eine Familie mit Vater, Mutter und zwei Kindern zahlt zwischen 2015 und 2025 mindestens 25.000 Euro für die Klimapolitik. In den darauf folgenden Jahren wird es teurer. Wer knapp bei Kasse ist wird also beispielsweise ein Kind nicht studieren lassen können.

Der Beitrag erschien zuerst hier



Modell-Chaos in der Welt von Wetter und Klima

Neben meiner Tätigkeit als Prognostiker in Radio und Fernsehen bin ich hauptsächlich Berater großer Unternehmen für Energie (jedweder Energieverbrauch, Wind, Solar usw. muss auch vorhergesagt werden) und auch für Finanzinstitute. In der globalen Ökonomie steckt Wetter seine Finger in alles und jedes. Und es gibt so viele Modelle da draußen (täglich über ein Dutzend aus vielen Ländern), die kaum einmal miteinander übereinstimmen*.

[*Einschub des Übersetzers: Je mehr Informationsquellen man hat, umso weniger weiß man natürlich, was Sache ist, falls diese Informationsquellen alle etwas anderes sagen. Das gilt nicht nur für Wetter und Klima, sondern z. B. auch für sensationelle Nachrichten, wie die Berichterstattung zur derzeitigen Krise zeigt. Damit sind aber erfahrene Wetter-Prognostiker wie der Autor dieses Beitrags und auch der Übersetzer wieder gefragt. Sie können mit ihrer über 40-jährigen Erfahrung der Wetterbeobachtung zumindest verschiedenen Modellen unterschiedlich hohe Wahrscheinlichkeiten des Eintreffens zuweisen – womit wir im Grunde wieder in den Zeiten angelangt wären, bevor derartige Modellrechnungen für die Wetterprognose überhaupt verfügbar waren. – Ende Einschub]

Es folgt ein Beispiel einer Fehleinschätzung seitens Wettermodellen in den USA. Bastardi nennt aber auch ein Beispiel für Europa. Anm. d. Übers.

Die gegenwärtige Kältewelle in Europa tauchte erst vor zwei Wochen in den Modellen auf. Wärme kann das Modell immer sehen, Kälte aber nicht – außer über dem Meer, wo die Änderungen langsamer vonstatten gehen und mehr von der Wassertemperatur beeinflusst werden. Diese liegen im Nordatlantik unter den Mittelwerten.

Beispielhaft seien hier die numerischen Simulationen des EZMW für Anfang April gezeigt, einmal mit dem Lauf vom 26. März für Anfang April, darunter vom 12. März für Anfang April:

Betrachtet man die zugrunde liegenden Bedingungen in der Atmosphäre, kann der Prognostiker seinen Kunden in Europa vermutlich den kalten Aprilbeginn vorhersagen, sogar mit der Graphik des Modelllaufes vom 12. März. Manchmal ist es ziemlich schwierig, wenn eine Simulation etwas anderes zeigt als man erwartet, der Versuchung zu widerstehen, uneingeschränkt der Simulation zu folgen.

Wir müssen uns immer an die Lage anpassen, und Modelle sind keine Realität, sondern virtuelle Realität. Falls man sie als Realität behandelt, kann man ggf. wilden Schwingungen darin, die alles andere als real sind, nicht Rechnung tragen. Als ausgeprägter Liebhaber von Schnee habe ich noch nie so viele große Schneestürme in der Vorhersage gesehen, bei denen sich dann herausgestellt hatte, dass da nichts dahinter war. Ich habe das Modell geglaubt und wurde euphorisch, nur um dann traurig enttäuscht worden zu sein.

[Einschub des Übersetzers: Der Autor spricht mir hier als ebenfalls erfahrener Wetter-Prognostiker und Kälte-Fan {zu JEDER Jahreszeit!} aus der Seele! Prognostiker sind auch Menschen – mit Vorlieben für bestimmtes Wetter. Auch ich bin jedes Mal enttäuscht, wenn sich eine Kalt-Simulation als falsch entpuppt. Komischerweise kommt es viel öfter vor, dass Kalt-Simulationen falsch sind, wohingegen Warm-Simulationen fast immer zutreffen. Als Mensch und Prognostiker ist es wirklich manchmal schwierig, nicht den Wunsch Vater des Gedankens bei einer Wettervorhersage sein zu lassen. Und so denke ich, dass die derzeitige Warm-Simulation für Ostern zutreffen wird, auch wenn das noch zwei Wochen dauert. {Auf einem andere Blatt steht natürlich, dass man diesmal aufgrund der aktuellen Lage kaum etwas davon haben dürfte} – Ende Einschub].

Damit kommen wir jetzt zum Thema Klima. Wenn man weiß, wie schlecht Modelle sein können, warum sollte man dann Modellen folgen, die bislang durchweg falsch waren. Zwar stimmt es, dass es wärmer geworden ist, aber schauen wir mal auf die Modellsimulationen im Vergleich zur Realität. Dr. John Christy hat dazu folgende Graphik erstellt:

Die unterste gepunktete Linie sind die von Satelliten ermittelten Temperaturen der Erde, der ,Goldene Standard‘ der Beobachtung während dieser Ära. Die Graphik zeigt etwa bis zum Jahr 2010 einen ähnlichen Lauf wie von den Modellen vorgegeben. Darüber liegt eine Linie mit Kästchen, sie repräsentiert Daten der NASA. Die dicke durchgezogene Linie repräsentiert den Mittelwert aller Modelle.

Warum sollte man Behauptungen einer katastrophalen Erwärmung erheben, die auf falschen Modellierungen basieren; die sich auf CO2 anstatt auf die Realität konzentrieren? Komprimierte Zeitskalen übertreiben diese Probleme ebenfalls. Nehmen wir als Beispiel obige Graphik. Man stelle sich vor, dass die 5-Jahre-Intervalle darin doppelt so lang sind. Damit würde die Graphik mehr Raum füllen, und man könnte individuelle Abstufungen besser erkennen. Was man nicht bestreiten kann ist, dass fast 97% aller Modelle viel zu warm sind. Aber es gibt niemanden, der im Fernsehen darauf hinweist, obwohl sogar die Leute hinter der Klimawandel-Agenda immer weiter versuchen, ihr Anliegen als genauso düster oder noch düsterer als derzeit darzustellen. Wie um alles in der Welt kann man derartige Modelle auch nur in Betracht ziehen, wenn man nicht gerade ein Zelot ist, der eine Agenda aus ganz anderen Motiven vorantreibt?

Ein näherer Blick auf die Website von Dr. Roy Spencer zeigt, dass Super-El Ninos für die Erwärmung ursächlich sind, deren Nachwirkungen nur langsam abklingen. Man kann eine Linie vom Beginn bis zum Ende ziehen, die eine stetige Aufwärts-Bewegung zeigt. Das liegt an den Auswirkungen des Wasserdampfes (WV) auf die Temperatur (einfache Korrelation: eine geringe WV-Zunahme hat die größten Auswirkungen dort, wo es am kältesten und trockensten ist). Wenn also ein Super-Nino auftritt und WV in die Luft pumpt, dann erfolgt ein Temperatursprung bis zu einem neuen „Stillstand“, der höher liegt als derjenige zuvor. Das ist meine Hypothese, und ich habe dieser schon vor dem Super-Nino 2015/16 Ausdruck verliehen.

[Einschub des Übersetzers: EIKE-Mitglied Klaus Öllerer hat ebenfalls schon vor vielen Jahren darauf hingewiesen, dass die Temperatur „Sprünge“ (Stufen) macht und deren Niveau sich zwischen den Sprüngen kaum verändert. – Ende Einschub].

Ich weiß nicht, ob Dr. Spencer meiner Hypothese zustimmt oder nicht. Aber mein Punkt ist: Man kann einen Trend ziehen vom kältesten zum wärmsten Punkt und sich die Details ansehen, wie dieser Trend zustande kommt. Nach dem Super-El Nino 1997/98 gab es eine Erwärmung nahe 0,3°C. Die Zunahme nach dem El Nino 2015/16 betrug etwa 0,2°C.

Dies wäre dann direkt den Super-Ninos geschuldet, hat doch der auf dem wärmeren Niveau in das System eingebrachte zusätzliche Wasserdampf den Anstieg geringer sein lassen.Was nicht bestritten werden kann, ist die zyklische Natur der Ozeane, wobei zusammen fallende Warmphasen ein höheres Gleichgewicht stützen. „Hoffnungen“ auf eine Abkühlung durch geringe Sonnenaktivität zurück auf das Niveau von zuvor steht der derzeitige Wärmegehalt der Ozeane entgegen. Dieser ändert sich nur sehr langsam und kann die Folge vieler großräumiger Effekte sein, einschließlich der Sonnenaktivität (darunter 200 Jahre mit hoher Sonnenflecken-Aktivität). Aber der Punkt ist: Eine Vorhersage aufgrund des El Nino von 2015/16 eines neuen, wiederum höheren Stillstandes scheint zumindest nicht ganz abwegig zu sein.

Die Moral der Geschichte: Man kann Modellen nicht trauen, da wir einfach nicht wissen, was alles in dieselben eingeht und wie die Variablen GEWICHTET werden, darunter auch CO2, oder mit welchen Algorithmen das Modell erzeugt wird. Der allgemeine Trend ist derzeit zweifellos aufwärts. Außerdem dürfte es eine Stufen-Funktion sein, und da die Stufen jeweils den Super-Ninos folgten, während die CO2-Zunahme stetig erfolgte, ist es viel wahrscheinlicher, dass die Super-Ninos diese Erwärmung bewirkt haben und nicht CO2. Die Ursachen derartiger Ereignisse sind kaum zu definieren. Worauf ich jedoch schon oft hingewiesen habe: Im Gegensatz zu irgendwelchen Hot Spot-Spielchen über den Tropen ist die Atmosphäre trockener geworden, das heißt weniger Wolken und mehr Sonneneinstrahlung in den ENSO-Gebieten, was eine Abkühlung verzögern könnte. Aber das ist eine Relation zwischen Sonne und Ozean, nicht von CO2. Angesichts des Umstandes, dass der Mensch der Atmosphäre nur etwa 25% des CO2-Gehaltes derselben hinzufügt und die Natur die anderen 75%, vieles davon in den Ozeanen, sieht es so aus, als würde die Natur den Einfluss des Menschen weit überkompensieren. Vertraut man also Modellen, die mit CO2-Rückkopplungen beladen sind und die einen allgemeinen Trend zeigen, den auch die Natur aufweist, den die Modelle aber erheblich übertreiben, dann sollte man sehr skeptisch sein, wenn es um Politik einerseits und Prognosen andererseits auf der Grundlage dieser Modelle geht.

Ich sehe in einigen Modellen einen Schneesturm für meinen Wohnort um den 1. April. Da ist es wieder! Aber vielleicht kommt er ja diesmal wirklich.*

[*Der Beitrag datiert vom 28. März. Leider weiß man nicht, wo Bastardi wohnt, aber ein Schneesturm wird am 1. April in den US-Staaten Wyoming und South Dakota erwartet. Anm. d. Übers.]

Autor: Joe Bastardi is a pioneer in extreme weather and long-range forecasting. He is the author of “The Climate Chronicles: Inconvenient Revelations You Won’t Hear From Al Gore — and Others” which you can purchase at the CFACT bookstore.

Link: https://www.cfact.org/2020/03/28/model-mayhem-in-the-world-of-weather-and-climate/

Übersetzt von Chris Frey EIKE

Anhang: Ein Wetter-Prognosemodell, hier das Global Forecasting System (GFS) des amerikanischen Wetterdienstes. Jede bunte Linie entspricht einem Modelllauf mit jeweils ein wenig veränderten Anfangsbedingungen. Jeder kennt das Prinzip, dass sich kleinste Unterschiede immer mehr aufschaukeln. Gezeigt ist oben der Modelllauf des GFS von Montag, dem 30 März 2020, 06 UTC. Nach 24 Stunden läuft alles noch gleich (links), nicht aber in einer Simulation bis Ostersonntag, 12 UTC (rechts) sieht das völlig anders aus. Wer behauptet, dass man da für Ostern jetzt schon eine Prognose abgeben kann, der… Und das sind nur zwei Wochen! Wie eine solche Simulation wohl für 80 Jahre im Voraus aussieht …




Mojib Latif beim Schummeln ertappt

Unser Leser Dr. Wilfried Schnelle stieß am 15. März 2018 auf ein Interview von Mojib Latif im Deutschlandfunk. Dort ging Latif anlässlich des 30. Geburtstags des IPCC seiner liebsten Beschäftigung nach und spann eifrig Klimaalarm:

30 Jahre Weltklimarat: Erreichen des 1,5-Grad-Ziels “so gut wie ausgeschlossen”
Vor 30 Jahren wurde der Weltklimarat ins Leben gerufen – der Grund: man verdächtigte den Menschen, Hauptverursacher des Klimawandels zu sein. Das gelte heute als erwiesen, sagte er Klimaforscher Mojib Latif im Dlf. Dennoch habe der IPCC eine Aufgabe zu erfüllen: die Prognosen immer genauer zu machen.

Dr. Schnelle entdeckte zwei besonders bemerkenswerte Stellen. Hier Nummer 1:

Enorme Übereinstimmung bei Computer-Simulationen

Ehring: Es gibt ja immer wieder alarmierende Meldungen über das Klima, dass zum Beispiel der Meeresspiegel schneller steigt, als man bisher gedacht hat. Hat der IPCC am Anfang die Entwicklung noch unterschätzt, oder ist es ungefähr so gekommen, wie man damals vermutet hat?

Latif:Ganz grob ist es schon ungefähr so gekommen, wie man vermutet hatte.Wenn man die ersten Computer-Simulationen hernimmt und vergleicht, was in den Jahrzehnten danach tatsächlich passiert ist, dann ist doch eine enorme Übereinstimmung zu erkennen – nicht nur was die Entwicklung der globalen Durchschnittstemperatur angeht, sondern vor allen Dingen auch, was die regionale Verteilung der Erwärmung angeht. Denn es gibt sehr starke regionale Unterschiede und die Region beispielsweise, die sich am stärksten erwärmt hat bisher, ist die Arktis. Dort verläuft die Erwärmung doppelt so schnell wie im globalen Durchschnitt.

Das ist schon ziemlich erschreckend, was Latif da erzählt. Denn in Wirklichkeit hat sich das Klima weit schwächer erwärmt als von den IPCC-Experten prognostiziert. Die reale Temperaturkurve bewegt sich am unteren Ende des Vorhersagespektrums. Eine der Hauptursachen ist der unerwartete “Slowdown” der Erwärmung seit 1998, der bis kurz vor dem kräftigen El Nino 2016 sogar ein regelrechter Hiatus (Erwärmungsstopp) war. Wir haben über die Prognosefehlschläge an dieser Stelle immer wieder berichtet (hier, hier, hier, hier). Latif schert sich nicht um die unbequemen Fakten, erzählt tolle Geschichten von “enormen Übereinstimmungen”, die wohl vor allem nur er selber gesehen hat.

Und hier auch schon das zweite Highlight des Interviews:

Szenario Erderwärmung auf zwei oder fünf Grad

Ehring: Der IPCC betreibt ja selbst keine Wissenschaft. Wie ist die Arbeitsweise?

Latif: Der IPCC trägt zusammen, was in dem Berichtszeitraum an wissenschaftlichen Studien erschienen ist, und bewertet das dann auch. Man spricht im Englischen vom Assessment. Das heißt, dass man die Dinge zusammenträgt und bewertet. Eigentlich muss man sagen, der IPCC gibt auch immer einen Unsicherheitsbereich an. Der wird aber meistens nicht wahrgenommen, denn eine große Unbekannte bleibt natürlich. Die wird auch nie weggehen. Das ist nämlich die Frage, wie werden wir Menschen uns eigentlich in der Zukunft verhalten. Wird es so etwas wie eine globale Energiewende geben oder nicht, und wenn ja, wie schnell wird sie erfolgen. Deswegen streuen die Ergebnisse auch – nicht nur deswegen, aber vor allen Dingen deswegen -, und dann liest man hin und wieder, dass die Erwärmung bis zum Ende des Jahrhunderts vielleicht zwei Grad beträgt oder möglicherweise fünf Grad, und dann wundern sich die Menschen, wie kann denn das eigentlich angehen. Das liegt nicht daran, dass das eine Modell zwei Grad sagt und das andere Modell fünf Grad. Das liegt einfach an den Annahmen, an dem Szenario, das wir annehmen für die zukünftige Entwicklung der Treibhausgase in der Luft.

Wieder haben wir Latif beim Mogeln ertappt. Er erweckt hier den Eindruck, als ob die für die Modellsimulationen entscheidende Größe
der CO2-Klimasensitivität genau bekannt wäre und die Unsicherheit der Temperaturprognosen vor allen Dingen bei den Emissionspfaden liegt. Großer Quatsch! Die Größe des Intervalls für die CO2-Klimasensitivität im letzten IPCC-Bericht (AR5) von 1,5 bis 4,5 °C steht dieser impliziten Annahme eindeutig entgegen. Die Unsicherheit der Erwärmungswirkung des CO2 beträgt Faktor drei! Das könnte zum Beispiel eine Spanne von 2°C bis 6°C Erwärmung locker alleine erklären. Von Latif wird dies im Interview verschwiegen. Ehring hakt nicht nach, vielleicht weil er es nicht besser weiß. Insgesamt eine bedenkliche Irreführung der Öffentlichkeit. Das Schema ist übrigens keine Neues. Bereits im Online WWF-Klimakurs hat man es mit dieser Masche versucht. Und wer war bei der Erstellung des Kurses beteiligt? Dreimal dürfen Sie raten: Mojib Latif!

Übernommen von „Die kalte Sonne“ hier

Weitere Beispiele für Latif´s Schummeln finden Sie hier




Wenn das Modell sich selbst modelliert

… das ist jetzt bizarrer Wahnsinn für mich, aber hier ist, was Eric Worrall bei Frau Dr. Sophie Lewis [Doktor der Philosophie] gefunden hat

Es stellt sich heraus, dass meine Arbeit jetzt als Klima-Wissenschaftlerin nicht ganz gleich geht mit der Art, wie wir in der Regel über Wissenschaft sprechen und wie Wissenschaft funktioniert…

Update durch den Übersetzer; 18.08.2017, 19:35

Die Überschrift und der danach folgende Absatz haben mir keine Ruhe gelassen.

Original:

 1. Methods aren’t always necessarily falsifiable

Falsifiability is the idea that an assertion can be shown to be false by an experiment or an observation, and is critical to distinctions between “true science” and “pseudoscience”.

So würde ich es jetzt übersetzen:

 1. Methoden sind nicht immer notwendigerweise falsifizierbar  überprüfbar  

Falsifizierbarkeit   Überprüfbarkeit ist die Vorstellung, dass eine Behauptung durch ein Experiment oder eine Beobachtung bestätigt oder als falsch dargestellt werden kann und für die Unterscheidung zwischen „wahrer Wissenschaft“ und „Pseudowissenschaft“ wesentlich ist.

„Falsifiability“ wird in den Wörterbüchern mit „Falsifizierbarkeit“; „falsibiable“ mit „fälschen, oder auch „als falsch nachweisen“ . Im Original würde dann „false“ nur „falsch“ heißen, was aber m.e. unterstellt, das Frau Dr. Lewis von vornherein annimmt, dass wenn Klimamodelle geprüft werden, diese sich nur als falsch heraus stellen können!?

Was ist Ihre Meinung?

 

Klimamodelle sind wichtige und komplexe Werkzeuge für das Verständnis des Klimasystems. Sind Klimamodelle falsifizierbar? Sind sie Wissenschaft? Ein Test der Falsifizierbarkeit erfordert eine Modellprüfung oder eine Klimabeobachtung, die zeigt, dass eine globale Erwärmung durch erhöhte menschlich erzeugte Treibhausgase unwahr ist. Es ist schwierig, einen Test von Klimamodellen im Voraus vorzuschlagen, der falsifizierbar ist.

Die Wissenschaft ist kompliziert – und passt nicht immer zu der vereinfachten Version, die wir als Kinder lernen.

Diese Schwierigkeit bedeutet nicht, dass Klimamodelle oder Klimawissenschaft ungültig oder nicht vertrauenswürdig sind. Klimamodelle werden sorgfältig entwickelt und ausgewertet, basierend auf ihrer Fähigkeit, die beobachteten Klimatrends und Prozesse genau zu reproduzieren. Aus diesem Grund haben Klimatologen Vertrauen in sie [ihre Modelle] als wissenschaftliche Werkzeuge und nicht wegen der Ideen rund um die Falsifizierbarkeit.

Seit einiger Zeit sage ich, dass ein Computermodell nur eine solide Inkarnation der Überzeugungen, Theorien und Missverständnisse der Programmierer ist. Allerdings gibt es eine schöne neue Arbeit namens The Effect of Fossil Fuel Emissions on Sea Level Rise: An Exploratory Study [Die Auswirkungen von Treibstoff Emissionen auf den Anstieg des Meeresspiegels], in der ich eine kuriose Aussage fand. Die Studie verdient das Lesen der Erkenntnisse wegen, aber es gab einen Satz darin, der mir als eine natürliche Erweiterung von dem, was ich gesagt habe vorkommt, aber eine, die ich nie in Betracht gezogen hätte.

WUWT: Figure 40: Galveston Split-half test: First 80 years, Jamal Munshi, August 2017

https://www.researchgate.net/figure/318788982_fig22_Figure-40-Galveston-Split-half-test-First-80-years

 

Der Autor, Jamal Munshi, (es stellte sich heraus, dass er bei meiner Alma Mater arbeitet, etwa 45 Minuten von wo ich wohne], beschrieb zuerst die Ergebnisse anderer Wissenschaftler in Bezug auf Meeresspiegel Beschleunigung. Er führt an:

Diese Arbeit ist eine kritische Bewertung der Forschungsergebnisse. Drei Schwächen In dieser Reihe von empirischer Forschung sind bekannt.

 Erstens stört die Verwendung von Klimamodellen die Gültigkeit des empirischen Tests, weil Modelle ein Ausdruck der Theorie sind und ihre Verwendung die Unabhängigkeit des empirischen Theorietests aus der Theorie selbst kompromittiert.

Zweitens dienen Korrelationen zwischen kumulativen SLR und kumulativen Emissionen nicht als empirische Evidenz, da Korrelationen zwischen kumulativen Werten von Zeitreihendaten störend sind (Munshi, 2017).

Und drittens, der in der Regel angenommene Glaube, dass die Beschleunigung in SLR [sea level rise] an und für sich als Beweis für seine anthropogene Ursache dient, ist eine Form der zirkelförmigen Argumentation, weil sie davon ausgeht, dass die Beschleunigung unnatürlich ist.

 Nun, jeder der o.g. Punkte ist in der Tat eine verheerende Kritik zum Stand der Wissenschaft über die Beschleunigung des Meeresspiegels. Allerdings war ich besonders vom ersten Punkt betroffen:

die Verwendung von Klimamodellen (stört) die Gültigkeit des empirischen Tests, weil Modelle ein Ausdruck der Theorie sind und ihre Verwendung die Unabhängigkeit des empirischen Theorietests aus der Theorie selbst kompromittiert.

Genau…! Die Modelle sind ein Ausdruck der Theorie, dass CO2 eine Erwärmung verursacht. Als Ergebnis [ … eine Beschreibung der CO2 Theorie] sind sie damit völlig unnütz zur Prüfung dieser Erwärmungstheorie.

Nun sagt die von Eric Worrell zitierte Wissenschaftlerin, dass die Wissenschaftler den Modellen glauben, weil diese „Klimatrends und Prozesse akkurat wiedergeben“. Genau dafür sehe ich jedoch nur sehr wenige Beweise. Im Gegenteil, die Temperaturänderungen seit Beginn dieses Jahrhunderts haben die Modelle wild überschätzt. Ja, die Modelle können die historischen Aufzeichnungen reproduzieren, wenn Sie auf die Ergebnisse mit nur einem Auge und in der Dämmerung schielen … aber das ist, weil die Modelle durch ihre Programmierer evolutionär darauf trainiert worden sind, um das zu zeigen – die, die die Vergangenheit nicht reproduzieren konnten, starben im Schneideraum [Doppeldeutig]. Allerdings, für irgendetwas anderes, sagen wir mal Niederschlag und Temperatur an verschiedenen Orten, taugen sie nur sehr schlecht.

Vor kurzem habe ich gezeigt, dass das Ergebnis des „CCSM3 climate model“ (… die modellierte globale Temperatur) durch einfache Verzögerung und Reskalierung der Eingangsgrößen mit einem hohen Maß an Genauigkeit emuliert werden kann … trotz der Komplexität des Modells ist das Ergebnis eine einfache Funktion der Eingabe.

Also … daher:

  • können wir den Modellen nicht vertrauen, weil ihre Vorhersagen durch ihre Programmierer [nach Wunsch und Auftrag] eingebaut werden und
  • wir die Ergebnisse der berechneten globalen Temperatur mit einer einfachen Manipulation ihrer Eingangsgrößen erzwingen können [„emulieren“ ist das Fachwort] und
  • sie sind eine Beschreibung der CO2-Theorie, damit sind sie völlig unnütz zur Prüfung dieser Theorie.

… und dann … für was genau sind diese Modelle denn gut?

Ja, ich bin mir bewusst, dass alle [nicht nur Klima-] Modelle falsch sind, aber einige Modelle sind nützlich … aber sind Klimamodelle nützlich? Und wenn ja, für was genau sind diese Modelle nützlich?

***

Ich belasse es dabei, um Sie alle mitzunehmen. Ich zögere, noch mehr dazu zu sagen, denn ich weiß, dass jedes Wort, das ich schreibe, die Chancen erhöht, dass ein charmanter Kerl auf 1sky1 oder Mosh [ähnlich Twitter oder Facebook] kommen wird, um mir in sehr unangenehmen Worten zu erzählen, dass ich es falsch mache, weil ich so dumm bin, und dann sich schlicht verweigern wird, zu demonstrieren, wie man es denn richtig macht.

Meistens habe ich kein Problem damit, aber es ist bereits nach Mitternacht hier, die Sterne sind zu sehen und mein Blutdruck ist ganz gut, also lasse ich jemand anderen Spaß haben …

Meine Grüße an alle, Kommentatoren und Mitleser, sogar 1sky1 und Mosh, ich wünsche euch allen nur das Beste,

Willis Eschenbach

Meine übliche Bitte: Missverständnisse fangen leicht an und können ewig dauern. Ich bitte höflich, dass die Kommentatoren EXAKT DIE WORTE WIEDERGEBEN; MIT DENEN SIE NICHT EINVERSTANDEN SIND, nur so können wir alle Ihren Einwand verstehen.

Meine zweite Bitte: Bitte nicht aufhören, nachdem sie nur behauptet haben, dass ich den falschen Datenset oder die falsche Methode benutze. Ich kann wohl falsch liegen, aber solche Beobachtungen sind nicht sinnvoll, bis man einen Link zum richtigen Datenset oder eine Erklärung der richtigen Methode hinzufügt.

Erschienen auf WUWT am 11.08.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/08/11/when-the-model-models-itself/

 

Bei den Recherchen zu diesem Beitrag fand ich folgende Links, die für unsere Leser von Interesse sein könnten; der Übersetzer.

CESM „open source“ des CCSM3

Das gemeinschaftliche Klimasystemmodell (CCSM) ist ein gekoppeltes Klimamodell zur Simulation des Klimasystems der Erde. Das CCSM besteht aus vier separaten Modellen, die gleichzeitig die Erdatmosphäre, den Ozean, die Landoberfläche und das Meereseis simulieren und eine Zentralkomponente. Die CCSM ermöglicht es Forschern, grundlegende Forschungen über die Vergangenheit, die gegenwärtigen und zukünftigen Klimazustände der Erde durchzuführen.

 

ZAMG Zentralanstalt für Meteorologie und Geodynamik, Wien

Es wird sehr viel über Wetter, Klima und Modelle erklärt.

Was mir auffiel: bei „Wetter und Klima“ versucht man Klima als eigenständiges Phänomen darzustellen, Wetter hat für den unbedarften Leser nichts mit Klima zu tun:

… Das Wetter ist ein Teilprozess innerhalb des Klimasystems. Auch das Wetter trägt zum großräumigen Energieaustausch und somit zur Erhaltung eines globalen, energetischen Gleichgewichts bei. Allerdings wird es von kurzfristigen Phänomenen, z.B. von Tiefdruckgebieten, gesteuert.

 




Unsicherheiten und Fehler bei Schätzungen des Strahlungs­antriebs sind 10 bis 100 mal größer als der gesamte Strahlungs­effekt zunehmen­den CO2-Gehaltes

Die Charakterisierung als „Leugner“ stammt aus einem Interview mit Joe Kernen von CNBC, in welchem Pruitt gefragt wurde, ob er glaube, dass sich CO2 als der „Kontroll-Knopf“ des Klimas erwiesen habe. Pruitt erwiderte „das wissen wir noch nicht“ und dass es „erheblichen Streit gibt über die Größenordnung der Auswirkung“. Aber er sagte auch: „Nein, ich denke nicht, dass CO2 primär zum Klimawandel beiträgt“. Offensichtlich ist das alles, um sogleich als Klima-„Leugner“ gebrandmarkt zu werden.

Scott Pruitt: „Nein, ich glaube, dass die präzise Messung der Auswirkungen menschlicher Aktivitäten auf das Klima eine sehr große Herausforderung ist, und es gibt hier noch gewaltige Meinungsverschiedenheiten hinsichtlich des Ausmaßes der Auswirkung. Darum – nein, ich würde nicht der Aussage zustimmen, dass CO2 einen primären Beitrag leistet zu der globalen Erwärmung, die wir erleben. Aber das wissen wir noch nicht. … Wir müssen die Debatte fortsetzen, und wir müssen Begutachtung und Analysen fortsetzen“.

In einer Analyse der Washington Post zu Pruitts Kommentaren mit dem Titel „EPA Chief’s Climate Change Denial Easily Refuted…” [etwa: Leugnung des Klimawandels seitens EPA-Chef leicht widerlegt…] war in der Antwort des Kommentators das letzte Statement von Pruitt über die Notwendigkeit enthalten, das Ausmaß der menschlichen Einwirkung weiter zu diskutieren: „Das ist das ganze Zentrum der Wissenschaft. Man stellt immer weiter Fragen“.

In der Antwort zu diesem ziemlich fundamentalen Punkt scheint der Journalist Philip Bump der Zeitung der Ansicht zuzustimmen, dass Fragen und Diskussionen in der Wissenschaft immer weiter gehen müssen (da dies in der Tat „das ganze Zentrum der Wissenschaft“ ist). Aber gleich danach widersprach er sich selbst:

Nun, sicher. Aber im Zentrum der Wissenschaft steht auch, die Antworten auf jene Fragen zu akzeptieren, wenn diese entschieden sind. Und in der wissenschaftlichen Gemeinschaft ist die Antwort auf die Frage der Verbindung zwischen Treibhausgasen und Erwärmung längst entschieden“.

Also, weil offenbar „entschieden ist“, dass CO2 Erwärmung oder Abkühlung verursacht jeweils bei Zu- oder Abnahme, sollten wir nicht nach dem Ausmaß fragen, bis zu dem die Klimamodelle korrekt den Einfluss zu- oder abnehmenden CO2 zeigen, oder eine wie starke Erwärmung oder Abkühlung durch CO2-Fluktuationen verursacht ist relativ zu anderen, das Klima treibenden Faktoren.

Und warum sollten wir davon Abstand nehmen, Fragen nach dem relativen Einfluss des CO2-Antriebs bzgl. des Klimas zu stellen? Weil diese Fragen noch nicht entschieden … oder beantwortet sind. Nicht einmal annähernd. Schließlich sind die Unsicherheits- und Fehler-Bandbreiten im Zusammenhang mit der Modellierung radiativer Energieänderungen im System Erde 10 bis 100 mal größer sind als die Gesamtstärke des Antriebs, den man CO2-Änderungen zuordnet.

1. Strahlungsantrieb durch CO2 von 2000 bis 2010 war lediglich 0,2 W/m²

Das IPCC hatte festgestellt, dass das „globale Klima bestimmt wird durch die Strahlungsbilanz des Planeten“. Falls das Strahlungsenergie-Budget (einfallende vs. ausgehende Strahlung) positiv wird (ausgedrückt in Watt pro Quadratmeter oder W/m²) gibt es Erwärmung. Falls es negativ wird, gibt es Abkühlung. Das IPCC geht davon aus, dass positive Energiebilanzen seit Jahrzehnten auftreten, fast ausschließlich getrieben durch die Zunahme anthropogener CO2-Emissionen.

Den Klimamodellen zufolge beträgt der Gesamt-Klimaantriebs-Effekt der Zunahme des atmosphärischen CO2-Gehaltes von rund 120 ppm während der ~165 Jahre seit 1750 1,8 W/m².

Einer im Jahre 2015 im Journal Nature veröffentlichten Studie zufolge hat die CO2-Konzentration um 22 ppm während der ersten 10 Jahre des 21. Jahrhunderts zugenommen. Der Strahlungs-(Antriebs-)Effekt dieser CO2-Zunahme um 22 ppm wurde mit 0,2 W/m² modelliert. Folglich kamen zu dem Gesamt-Strahlungsantrieb von 1,8 W/m² seit 1750 noch 0,2 W/m² während der ersten Dekade dieses Jahrhunderts hinzu.

Feldman et al., 2015

2. Das Strahlungs-Energie-Ungleichgewicht von 2000 bis 2010 war 0,6 W/m²

In einer Studie in Nature Geoscience aus dem Jahr 2012 mit dem Titel „An update on Earth’s energy balance in light of the latest global observations” von Stephens et al. (2012) wurde das Strahlungs-Energie-Ungleichgewicht der Dekade von 2000 bis 2010 als positiv berechnet, wie erwartet. Interessanterweise jedoch war das positive Energiegleichgewicht von 0,6 W/m² 3 mal größer als der Antriebs-Wert (0,2 W/m²), welchen man im gleichen Zeitraum der CO2-Zunahme zugeordnet hatte.

Stephens et al., 2012

Die gegenwärtige überarbeitete Darstellung der globalen mittleren Energiebilanz für die Dekade 2000 bis 2010 wird präsentiert … für diesen Zeitraum beträgt das mittlere Ungleichgewicht 0,6 W/m², wenn diese TOA-Flüsse in Abhängigkeit betrachtet werden mit dem Best Estimate des ozeanischen Wärmegehaltes seit 2005.

3. 67% (0,4 W/m²) der Energie-Zunahme von 2000 bis 2010 gehen nicht auf CO2 zurück

Falls das Ungleichgewicht im Energiehaushalt im Zeitraum 2000 bis 2010 0,6 W/m² und der modellierte Strahlungsantrieb 0,2 W/m² im gleichen Zeitraum betragen hatte, bedeutet das, dass hier ein positiver Antrieb von 0,4 W/m² wirksam war, der nicht der Zunahme der CO2-Konzentration geschuldet war. Dies zeigt, dass die Schlussfolgerung des IPCC, der zufolge die gesamte oder fast die gesamte Erwärmung der jüngeren Zeit auf die Zunahme anthropogener CO2-Emissionen zurückgeht, nicht gestützt wird durch die Schätzungen des Energie-Ungleichgewichtes an der der Oberfläche. Zwei Drittel des Klimaantriebs müssen irgendeinem unbekannten Mechanismus oder Mechanismen zugeordnet werden, welche das IPCC irgendwie bei Analysen zur Ursachenforschung nicht identifizieren konnte. Und falls nur 33% des jüngsten Klimaantriebs anthropogenen Ursprungs sind und 67% auf unbekannte Ursachen zurückgehen – woher kommt dann die Sicherheit zu behaupten, dass Menschen den Klimawandel treiben?

4. Unsicherheit bzgl. Energie-Änderung ist 10 bis 100 mal größer als CO2-Antrieb

Spricht man von Sicherheit – oder, angemessener, von Unsicherheit – hinsichtlich des Klimaantriebs oder Werten des Energie-Ungleichgewichtes, betonen Stephens et al. die unerlässliche Unsicherheit der Schätzungen des Energie-Ungleichgewichtes von 2000 bis 2010: enorme ±17 W/m².

Eine Unsicherheits-Bandbreite von 17 W/m² hinsichtlich der Schätzung des Energiegleichgewichtes (0,6 W/m²) bedeutet, dass die tatsächliche Energiebilanz irgendwo zwischen -16,4 W/m² bis +17,6 W/m² liegen kann. Eine solche Bandbreite macht die 0,2 W/m² CO2-Antrieb bedeutungslos, ist doch die Unsicherheit des Volumens der Energieänderung von 2000 bis 2010 85 mal größer als der dem CO2 zugeordnete Antrieb im gleichen Zeitraum.

Stephens et al., 2012

Dieses kleine Ungleichgewicht (0.6 W/m²) ist um über 2 Größenordnungen (100 mal) kleiner als die individuellen Komponenten, welche diesen Wert festlegen, und kleiner als der Fehler innerhalb eines jeden Flusses.

Die Gesamt-Energiebilanz ist die Summe der individuellen Flüsse. Die gegenwärtige Unsicherheit bei dieser Gesamt-Energiebilanz an der Oberfläche ist groß und macht bis zu 17 W/m² aus. Diese Unsicherheit ist um eine Größenordnung (10 mal) größer als die Änderungen der Gesamt-Oberflächenflüsse, die assoziiert sind mit zunehmenden Treibhausgasen in der Atmosphäre.

Der genannte Wert des sensible heat flux ist eine Kombination der sensible heat fluxes von Festland und Ozeanen mit einer einfachen Wichtung auf der Grundlage von Festlands-/Ozeandaten. Der Fluss-Wert von 24 W/m² ist ebenfalls größer als zuvor angenommen und bleibt erheblich unsicher, wie die Bandbreite von 14 bis 34 W/m² belegt. Diese resultiert aus unterschiedlichen Schätzungen des Festlands-Flusses. Es gibt keine definitive Messung der Unsicherheit dieses Flusses, und die die angegebene Unsicherheits-Bandbreite lässt kaum eine Beurteilung zu, welcher Wert der wahrscheinlichste Wert ist.

Sogar das IPCC räumt ein, dass die Unsicherheit in Wärmeflüssen bis zu 20 W/m² erreichen kann, und diese Unsicherheit marginalisiert die weniger als 2 W/m² des Gesamt-Strahlungsantriebs anthropogener CO2-Emissionen während der letzten paar Jahrhunderte zur Bedeutungslosigkeit.

IPCC AR4 (2007)

Unglücklicherweise sind die Gesamtflüsse von Wärme und Wasser nicht gut erfasst. Normalerweise werden sie abgeleitet aus Beobachtungen in anderen Bereichen, wie Temperatur und Wind. Als Folge dieser schlechten Erfassung ist die Unsicherheit der aus Beobachtungen gewonnenen Schätzung groß – um die Größenordnung von Zehner Watt pro Quadratmeter für den Wärmefluss, sogar im zonalen Mittel.

IPCC AR5 (2013)

Die Gesamt-Unsicherheit der jährlich gemittelten Ozeanwerte für jeden Term wird in der Bandbreite von 10 bis 20% liegen. Im Falle des Terms des latenten Wärmeflusses korrespondiert dies mit einer Unsicherheit von bis zu 20 W/m². Zum Vergleich, Änderungen der mittleren globalen Werte individueller Wärmefluss-Komponenten, die durch den anthropogenen Klimawandel seit 1900 erwartet werden, liegen auf einem Niveau <2 W/m² (Pierce et al. 2006).

Frank, 2008

Es stellt sich heraus, dass die Unsicherheiten hinsichtlich der energetischen Reaktionen des irdischen Klimasystems über 10 mal größer sind als der gesamte energetische Effekt eines gestiegenen CO2-Gehaltes.

5. Das IPCC verschleiert Unsicherheiten und Fehler beim Strahlungs-Energiewandel

Befürworter der Ansicht, dass CO2 der „Kontrollknopf des Klima ist, wollen die Aufmerksamkeit von den Unsicherheiten und Fehlern der Klimamodellierung natürlich ablenken. Genauso hat das IPCC fortwährend Daten verschwinden lassen, die Zweifel an der „Konsens“-Position säen (welcher zufolge die meisten Klimaänderungen von anthropogenen CO2-Emissionen getrieben worden sein sollen seit Mitte des 20. Jahrhunderts).

Um die Unsicherheits- und Fehlerbandbreiten in den Schätzungen des Strahlungsantriebs in den Klimamodellen aufzufinden, muss man sich ganz bewusst daran machen, das esoterische „Begleitmaterial“ eines jeden Reports zu lokalisieren. Das IPCC wagt es nicht, Schätzungen massiver Klimamodellierungs-Fehler und -unsicherheiten zu veröffentlichen an Stellen, wo man sie am wahrscheinlichsten findet.

Frank, 2008

Man muss Kapitel 8 aufschlagen und besonders das Begleitmaterial [Supplementary Material] betrachten im jüngst veröffentlichten AR 4, um die graphische Darstellung der Fehler in den GCMs zu finden, dargestellt in W/m². Derartige offene Darstellungen von Fehlern und Unsicherheiten erscheinen nicht in den SPMs oder in der Techincal Summary, also dort, wo öffentliche Institutionen sie viel wahrscheinlicher ersehen würden.

Supplementary Material aus Kapitel 8, IPCC AR4

Abbildung S8.5 zeigt, dass GCM-Fehler in der „mittleren kurzwelligen Strahlung in den Weltraum“ um die 25 W/m²-Linie schwankt.

Die Fehler der ausgehenden langwelligen Strahlung, Abbildung S8.7, sind ähnlich groß (~20 W/m²)

6. „Woher stammt die Sicherheit, dass CO2 einen großen Einfluss auf das Klima hat?“

Falls also die Modelle so hoffnungslos voller Fehler und Unsicherheiten stecken, dass ein anthropogenes Strahlungsantriebs-Signal nicht vom Rauschen unterschieden werden kann, oder falls die Größenordnung der den Menschen zugeordneten Erwärmung ein Zehntel bis ein Hundertstel der Bandbreite von Fehlern und Unsicherheiten ausmachen – warum werden dann all jene, die es wagen, das Ausmaß in Frage zu stellen, mit dem Menschen das Klima der Erde beeinflussen, als „Leugner“ der Wissenschaft gebrandmarkt?

Wie genau lautet die Wahrheit, welche die Klima-„Leugner“ leugnen?

Falls die Unsicherheit größer ist als der Effekt, wird der Effekt selbst irrelevant. Falls der Effekt selbst diskussionswürdig ist, von was redet das IPCC dann überhaupt? Und woher stammt die Sicherheit einer großen Auswirkung durch CO2 auf das Klima? – Dr. Patrick Frank, “A Climate of Belief

– See more at: http://notrickszone.com/#sthash.2nhgTChS.spK3keBs.dpuf

Link: http://notrickszone.com/#sthash.2nhgTChS.spK3keBs.dpbs

Übersetzt von Chris Frey EIKE




ClimateGate 18: Die Probleme in den Modellen zur globalen Erwärmung!

So werden wir beispielsweise – obgleich es überzeugende Anzeichen dafür zu geben scheint – nicht von anpasserischen Politikern, sich selbst bedienenden Lobbyisten, fanatischen Umweltaktivisten und gierigen Wallstreet-Manipulatoren geführt. Das ist eine Illusion.

Doch es gibt einen noch stärkeren (aber kaum sichtbaren) Antreiber hinter dem Anschein. Dieser Unsichtbare ist der Computer-Programmierer. Und wie im Märchen vom „Zauberer von Oz“ soll niemand diesem wirklichen Schicksalslenker auf die Finger schauen.

Als Computer-Programmierer will ich hier alles über den „Zauberer“ ausplaudern. Auch wenn mich das vermutlich meine Mitgliedschaft im Club (auch als Physiker und Umweltaktivist) kosten wird.

Der erste Hinweis auf Probleme wird schon deutlich in der Wikipedia-Erklärung über Computer-Programmierer gegeben: 

Dieses Fach unterscheidet sich von vielen anderen technischen Berufen darin, daß Programmierer im allgemeinen weder Zulassungsprüfungen bestehen noch irgendwelche anderen standardisierten (oder amtlichen) Befähigungsnachweise erbringen müssen, um sich „Programmierer“ oder sogar „Software-Ingenieur“ nennen zu können.

Hmmm. 

Als Laie kann ich mir das nur so erklären, dass die ganze Computer-Programmiererei darin besteht, Annahmen zu treffen und diese in mathematische Gleichungen umzusetzen.

Die ganz große Frage lautet: Kann man wirklich komplexe Lagen aus der wirklichen Welt genau in Einsen und Nullen übersetzen? HAL [Anm. d. Ü.: die Computerstimme aus dem Film „Odyssee im Weltraum“] mag das glauben, doch höher verarbeitende Gehirne sagen Nein. Trotzdem wird es immer wieder mit sehr begrenztem Erfolg versucht. Schauen wir ein wenig genauer hin.

Fangen wir mit einem Beispiel an, wie Annahmen in einem Modell getroffen werden.

Ich habe ein Computer-Programm für Schuldeneintreiber geschrieben. Eine typischer Hergang war, dass dem Schuldner ein Termin für eine Zahlung genannt worden wäre und die Inkasso-Gesellschaft diese nicht rechtzeitig erhalten hätte. Welche Reaktion ist daraufhin angemessen?

In dieser Situation kontaktiert das Computer-Programm automatisch den Schuldner. (Man bedenke, dass es bei den Inkasso-Firmen Tausende von Schuldnern gibt und dass es aus Zeitgründen einfach unmöglich ist, durch persönliche Intervention jeden einzelnen Fall zu prüfen und zu verfolgen.)

Was soll also im Computerbrief an den Schuldner stehen? Nun, es hängt von den Annahmen des Computer-Programmierers ab.

Solche Situationen versucht der Programmierer auf mathematische Optionen zu vereinfachen.

Wie entscheidet der Programmierer (im Modell) über „Ja“ oder „Nein“? Also, da werden andere Hinweise benutzt (z. B. ob frühere Zahlungen rechtzeitig geleistet wurden), um eine statistische Wahrscheinlichkeit zu erzeugen. 

In einer komplexen Lage (z. B. Schuldeneintreibung, Klimawandel, Finanz-Derivate) kann leicht ein ganzes Hundert solcher Wahlmöglichkeiten entstehen, das zu behandeln ist.

Um die Implikationen zu verstehen, soll nur der Fall betrachtet werden, wo es zehn derartige Entscheidungspunkte gibt – jeder mit einer möglichen „Ja-“ oder „Nein-“ Entscheidung. Am Ende des Ablaufs stehen 210  (d. h. 1024) mögliche Antworten. Das bedeutet eine ganze Menge von möglichen Schlussfolgerungen.

Leider gibt es aber noch viel mehr Möglichkeiten! Die Annahme, dass diese Schuldner-Situation auf eine „Ja“ oder „Nein“-Antwort verdichtet werden könnte, trifft nicht zu. Denn es gibt viele weitere reale Lagen, die sich einem „Ja“ oder „Nein“ entziehen.

Zum Beispiel: Was ist, wenn der Schuldner niemals zu Anfang eine Nachricht erhalten hätte, dass die Zahlung zu dem Termin fällig war, den das Inkasso-Unternehmen überwachte? Oder: Was, wenn der Schuldner das Geld überwiesen hätte und die Zahlung fehlgeleitet wurde? Oder: Was, wenn der Schuldner die Zahlung an den ursprünglichen Gläubiger geleistet hätte, anstelle an das Inkasso-Unternehmen? Oder: Was, wenn der Schuldner das Geld rechtzeitig überwiesen und das Inkasso-Unternehmen fälschlicherweise die Gutschrift nicht rechtzeitig bewirkt hätte? Usw., usw.

In einem korrekten Computer-Modell müssen alle derartigen Lagen richtig behandelt werden (gesetzlich, zeitlich usw.). Erkennen Sie nun die Komplexität anhand dieses ganz einfachen Beispiels einer nicht fristgerechten Zahlung?

Aber da gibt es noch einen bisher nicht erwähnten weiteren wichtigen Faktor (jetzt schon Nr. 4).  Was ist, wenn der Schuldner nicht bezahlt hat, dies aber darauf zurückzuführen ist, dass sein Kind multiple Sklerose hat und er nicht krankenversichert ist? Wie schreibt ein Computer-Programmierer den Code für so abstrakte Vorstellungen wie „Fairness“? Anders gesagt, können „Einsen“ und „Nullen“ so angeordnet werden, dass sie Nicht-Anfassbares darstellen? Ich denke nein.

Daher steht unter dem Strich die Frage: Kann ein Computer-Programm überhaupt alle Möglichkeiten der realen Welt richtig behandeln – bereits schon in diesem einfachen Fall der Schuldeneintreibung? Die Antwort ist Nein.

Wir haben schon beachtliche Schwierigkeiten beim Übersetzen einer relativ einfachen Sache wie der Sprache – z. B. von griechischen biblischen Texten ins Englische. Wie viele Versionen der Bibel gibt es? Warum nicht nur eine?

Können wir möglicherweise hoffen, einen Vorgang zu übersetzen, der viel komplizierter als Wörter ist? Wir können es versuchen, aber die klare Antwort ist, dass beim Übersetzen jeder komplexen Lage (Schuldner, Energie-Leistung usw.) in mathematische Gleichungen und Computer-Code eine ganze Menge verloren geht.

Manche uninformierte Gruppen glauben, dass der Computernutzer alle Variablen beherrscht und dass er von Hand (und mit Genauigkeit) die Lagen ändern kann. Das stimmt nicht, weil die vom Computernutzer beherrschten Elemente nur einen kleinen Bruchteil der tatsächlichen Faktoren ausmachen, die in ein Computer-Modell eingebaut sind.

Ein ähnlicher Fehler ist, etwa so zu denken: „wir kennen die Annahmen, die die Programmierer trafen, und wir berücksichtigen sie“. Das ist falsch.

Beim Schreiben eines Computer-Programms mit Komplexität werden buchstäblich Hunderte von Annahmen getroffen. Der Computer-Programmierer enthüllt seinem Kunden diese nicht alle, aus dem gleichen Grund, aus dem ein Steuerberater seinem Kunden nicht alle Annahmen bei der Erstellung einer Steuererklärung mitteilt. Er erwähnt nur einige Grundannahmen und sagt dann: „Unterschreiben Sie hier“.

Ja, dieses Beispiel bringt mich auf eine weitere Hauptvariable (Nr. 7): auf die Daten, die der Programmierer als Grundlage bei der Programmerstellung benutzt.

So, wie auch die Erstellung einer Steuererklärung auf der Zusammenarbeit zweier Parteien beruht, so ist auch das Schreiben eines Computer-Modells eine Zusammenarbeit zwischen Wissenschaftler und Programmierer. Wenn der Steuerpflichtige dem Steuerberater unvollständige oder unrichtige Angaben macht, wird das Ergebnis falsch. Das Beunruhigende ist, dass in vielen Fällen keine der Parteien erkennt, dass die Ergebnisse falsch sind.

Gleichermaßen wird das Ergebnis falsch sein, wenn ein Wissenschaftler (unabsichtlich) unvollständige oder ungenaue Daten dem Programmierer für dessen Arbeit gibt. Und keine Partei wird es merken.

Es gibt eine noch bedeutendere Variable (Nr. 8) zu berücksichtigen. Nach der Fertigstellung eines Computer-Modells wird ein „Dolmetscher“ (z. B. das IPCC) die „Ergebnisse“ für Politiker und die Öffentlichkeit (z. B. die Medien) übersetzen.

Und da erleben wir eine Überraschung: Diese Übersetzungen werden von politischen, religiösen, umweltbezogenen, finanziellen und wissenschaftlichen Meinungen beeinflusst. Erklären die Dolmetscher in ihren öffentlichen Äußerungen alle ihre unterschwelligen Vorurteile? Man weiß jetzt die Antwort: ganz gewiss nicht.

Wenn alle diese Faktoren in die Gleichungen eingeführt werden, sind wir offensichtlich schon so weit von den wissenschaftlichen Tatsachen abgewichen, dass diese gar nicht mehr sichtbar sind.

Daher müssen wir sehr sorgfältig nachdenken, bevor wir große Aktionen starten, die fast ausschließlich auf Computer-Modellen beruhen (z. B. viele Billionen Dollar ausgeben wegen der Klimaprognosen, für die Nutzung der Windenergie usw.) 

Was ist zu tun? Alle Computer-Modelle einfach müllen?

Nein, da würden wir ins andere Extrem verfallen. Computer-Modelle haben ihre Verdienste – doch der Schwanz sollte nicht mit dem Hund wedeln.

Wir sollten realistischerweise Computer-Modelle als das sehen, was sie sind: Hilfsmittel beim Ordnen unserer Gedanken und Erzeuger von sehr subjektiven Ergebnissen, die am Anfang von wirklich wissenschaftlicher Analyse stehen sollten.

Alle Computer-Modelle sollten mit einem sehr gesunden Grad von Skepsis betrachtet werden wegen ihrer innewohnenden Begrenzungen (die ich hier nur angerissen habe).

Und um die angemessene Integrität zu gewährleisten, sollten alle Computer-Modelle für wichtige Angelegenheiten der strengen wissenschaftlichen Methodologie unterworfen werden.

Wenn sie nicht genau und ständig die Beobachtungen aus der wirklichen Welt reproduzieren können, dann sollten sie verworfen werden.

Unglücklicherweise geschieht das nicht. 

Wir sind derart süchtig nach der Illusion geworden, dass diese Programme stimmen – und einige Leute lassen sich von politischen Zielen antreiben. Und wir passen schon die Beobachtungen aus der wirklichen Welt an oder stellen sie gar in Abrede, wenn sie nicht mit dem Modell übereinstimmen. Das ist verrückt.

Wenn ein Modell nicht an der vollen Abbildung der Wirklichkeit erprobt worden ist, dann hat es nur sehr begrenzten Nutzen und sollte mit dem gleichen Grad von Berücksichtigung bedacht werden, wie man sie vielleicht einem Horoskop zuerkennt.

John Droz, Jr. ist Naturwissenschaftler und Anwalt. 

Den Originalartikel finden Sie hier: 

Die Übersetzung besorgte Helmut Jäger für EIKE