1

Modelle können nicht einmal das Wetter der nächsten Woche genau prognosti­zieren …

Jetzt komme man nicht mit dem Einwand „Klima ist nicht Wetter“. Das ist banal und dumm. Der Knabe, der sagt, dass „Nahrung nicht Küche ist“, ist ein Nahrungs-Kritiker und von vornherein hochmütig und unausstehlich.

Wie ist es hiermit: Wissenschaft ist keine Semantik.

Wir alle würden nur zu gerne die Zukunft vorhersagen können. Intellektuell, empirisch und rational wissen wir, dass wir das nicht können, aber einige versuchen es dennoch. In ganz Washington, DC, wo ich lebe, gibt es neben den Elite-Intelligenzen, die ihre eigenen Bücher über den in New York beheimateten Acela lesen, zahlreiche Tarotkartenleser und Hellseher, die ihre Dienste als Wahrsager anbieten.

Und wir hören Geschichten. Der Kumpel, der einen guten Aktienkauf tätigte, weil „er sicher war“, dass die Aktie steigen würde. Oder den Knaben, der proklamiert, dass „er wusste, dass die Nationals die World Series* gewinnen würden“. Das ist nicht wahr. Nicht möglich. Nicht einmal logisch zu begründen. Es ist Syntax, nicht Wahrheit.

[*Endspiel um die amerikanische Baseball-Meisterschaft, vergleichbar mit dem Super Bowl im Football. Anm. d. Übers.]

Wir können Entscheidungen für die Zukunft treffen, nicht auf der Grundlage übernatürlicher Intelligenz, sondern auf der Grundlage von Daten. Markttrends und Bilanzen leiten Aktiengeschäfte, aber es gibt keine Garantie, dass der Wert der Aktie steigt. Wären wir nicht alle schon reich, wenn das der Fall wäre? Im Baseball bilden Verletzungen, Rotation und Aufstellung sowie Teamloyalität unsere Leitlinien, aber es gibt keine Garantie, dass unser Team gewinnen wird.

Niemand „wusste“, dass das Wetter dem Start von SpaceX einen Strich durch die Rechnung machen würde, vielmehr zogen Wissenschaftler Daten heran, um einen bestmöglichen guess abzugeben, was Teil der wissenschaftlichen Methodik ist, die wir in der 3. Klasse gelernt haben. Genauso „weiß“ niemand, was in 5, 10, 15 oder 50 Jahren mit der Erde passieren wird im Zuge des Klimawandels. Ich bin es also leid, dazu ständig irgendetwas zu hören.

Und jetzt zur Antwort auf die Frage, bevor Sie sie stellen: nein, es gibt keine Daten, aus denen hervorgeht, dass die Temperaturen der Welt auf ein unbewohnbares Niveau steigen. Es gibt nur Modelle, und Modelle sind sehr, sehr menschlich.

Klimawandel-Modelle sind im Computer generiert und programmiert von voreingenommenen Individuen. Sie basieren nicht auf einem wissenschaftlichen Prozess, sondern auf Prognose auf der Grundlage verfügbarer Daten, die akkurat sein können oder auch nicht. Erinnert man sich noch an das Modell, welches 2,2 Millionen Tote durch das Coronavirus prophezeit hatte?

Whoopsie!

Müll rein, Müll raus – genau wie in jedem anderen, von Computern generierten Szenario. Vielleicht wird eines Tages künstliche Intelligenz tatsächlich intelligent werden und den Programmierer korrigieren, aber derzeit folgt der Computer genau dem vom sehr fehlbaren Menschen geschriebenen Programm.

Daher kommt auch die Empörung über den Kommentar von Kongress-Dame Alexandria Ocasio-Cortez, die da posaunte: „Die Welt wird in 12 Jahren untergehen, wenn wir nicht dem Klimawandel begegnen“. Nicht, weil der Kommentar töricht ist (ist er), nicht weil er falsch ist (ist er), sondern weil er so absichtlich irreführend ist. Es ist ein perfektes Beispiel dafür, wie man eine Spekulation in ein Faktum verwandelt, und das ausschließlich aufgrund des Vorantreibens einer politischen Agenda, die ein einziger Angriff auf meine Brieftasche ist. Es tötet jede Diskussion. Es stößt vernünftige Leute wie mich ab. Es ist kaum sinnvoll, über Klimawandel zu diskutieren, ebenso wie über den Beitrag der Menschheit zu demselben, wenn es überhaupt einen gibt. Und trotzdem, immer mehr politische Maßnahmen und immer mehr Geld des Steuerzahlers wird auf der Grundlage dieser Art von unlogischem Denken ausgegeben.

Klima ist die große Unbekannte, und Politiker und Medien gleichermaßen lieben es, normale Amerikaner bis zum Anschlag zu ängstigen, indem man eine großartige Einsicht in das Morgen vortäuscht, die sie in ihren Sesseln erzittern lässt. Der Klimawandel wird uns töten. Paul Ehrlich sagte in den 1970er Jahren, dass die Überbevölkerung dazu führen wird, dass England im Jahre 2000 nicht mehr existieren wird. Die arme Queen, als ob sie nicht schon genug um die Ohren hätte. Al Gore prophezeite vor 20 Jahren, dass das Arktische Eis längst verschwunden sein sollte – und bekam dafür einen Oskar.

Als ich das letzte Mal hingesehen hatte, ging es sowohl UK als auch dem arktischen Eis wunderbar. Das Aussehen beider ändert sich fortwährend. Das waren eben keine Prognosen. Es waren Modellergebnisse, dazu gedacht, Angst zu erzeugen und eine Agenda voranzutreiben.

Wir können das Wetter noch nicht einmal ein paar Wochen voraussagen. Am 20. März dieses Jahres prophezeite die Washington Post ein „außerordentlich warmes Frühjahr“ in den gesamten USA, und zwar aufgrund von auf Daten basierenden Modellen (Wintertemperaturen, Polarwirbel). Das wurde als Faktum dargestellt. Zeug von der Art ängstigender globaler Erwärmung. Meine Güte.

Einen Monat nach Erscheinen dieses Artikels wies der gleiche Autor in der gleichen Publikation darauf hin, dass die Temperatur in Washington DC schon zwei Wochen lang unter den Mittelwerten gelegen hatte. Das bedeutet, der Untergangs-Artikel konnte nicht einmal 2 Wochen in die Zukunft schauen. Ein paar Tage später räumte man in der gleichen Publikation ein, dass das um 1 bis 2 Grad zu kalte Wetter wahrscheinlich weitergehen werde.

Huh.

Dann wartete die gleiche Washington Post mit einem Artikel auf mit dem Titel [übersetzt] „Außerordentlich kaltes Wetter für Mai kommt heute Nacht daher mit Temperaturen nahe dem Gefrierpunkt und eisigen gefühlten Temperaturen“. Am nächsten Tag schrieb man über den kältesten Tag in Washington seit über einem Jahrzehnt, und dass in Baltimore der kälteste Tag in einem Mai jemals aufgetreten war.

Was schließen wir daraus? Einfach: Der erste Artikel, der Angst über Angst erzeugende Klimawandel-Artikel, basierte auf Modellen (wurde aber als Faktum präsentiert). Die nachfolgenden „Hilfe-ist-das-kalt“-Artikel basierten auf … nun, Tatsachen. Die aber längst nicht so ängstigend und nicht so spaßig daherkommen.

Wird die Welt wegen des Klimawandels zugrunde gehen?. Das weiß ich nicht. Werden die Meere steigen und die Seen überkochen? Ich weiß es nicht. Und auch niemand sonst weiß es.

Link: https://wattsupwiththat.com/2020/06/02/turner-models-cant-accurately-predict-next-weeks-weather-so-why-should-we-trust-them-to-predict-climate-change/

Übersetzt von Chris Frey EIKE

————————————-

Erklärung des Bildes oben:

Gezeigt ist die numerische Vorhersage des amerikanischen GFS-Modells vom Sonnabend, dem 6. Juni 2020 für 1 Tag (links), 1 Woche (Mitte) und 2 Wochen rechts. Die eingehenden Daten weisen in riesigen Gebieten große Lücken auf, z. B. über den Ozeanen, und müssen dort extrapoliert werden. Fehler sind dabei unvermeidlich, selbst wenn sie nur gering sind. Um abzuklopfen, wie zuverlässig eine solche Simulation ist (von Computern, die nicht einmal das Wort „Wetter“ buchstabieren können, wenn man es ihnen nicht sagt!), verändert man den Anfangszustand künstlich minimal und lässt die Simulation immer wieder laufen – in diesem Beispiel 10 mal.

Den Verlauf der Linien muss der Meteorologe dann in eine Wettervorhersage „übersetzen“. Je enger die Linien beieinander liegen, umso genauer die Prognose. Nach 1 Woche liegen die Linien schon deutlich auseinander, aber eine allgemeine Tendenz ist noch erkennbar – jedoch keine Einzelheiten mehr! Nach 2 Wochen gleicht der Verlauf der Linien einem Kunstwerk eines Kindergarten-Kindes. Da kann man zwar noch raten, aber nichts mehr prognostizieren. 2Wochen! Und: Jeder einzelne Verlauf ist aus der Sicht des Ausgangstages gleich wahrscheinlich!

Dipl.-Met. Christian Freuer




Nachbildung des Fehlers beim Antrieb durch den langwelligen Wolken-Faktor um ±4 W/m² sowie dessen Bedeutung

Nachbildung

Die Studie zeigte eine Gleichung der Nachbildung durch GCMs, in welcher diese lineare Beziehung ausgedrückt wird, zusammen mit extensiven Demonstrationen des unveränderten Erfolgs.

In der Studie werden die GCMs als Blackbox behandelt. Antrieb durch Treibhausgase geht ein, Projektionen der Lufttemperatur kommen heraus. Um diese Ergebnisse geht es hier. Was innerhalb der Blackbox passiert, ist irrelevant.

In der Nachbildungs-Gleichung der Studie geht der Treibhausgas-Antrieb ein und erfolgreich nachgebildete Projektionen der Lufttemperatur kommen heraus. Genau wie es in GCMs immer der Fall ist. In jedem Falle sind GCM und Nachbildung der Lufttemperatur eine lineare Extrapolation des Treibhausgas-Antriebs.

Im jüngsten Beitrag von Nick Stokes liest man: „Mit einer gegebenen Lösungs-Funktion f(t) kann man es tatsächlich perfekt nachbilden mit einer gewaltigen Variation von Differentialgleichungen“. Dies, so sagt er, ist eine Kritik an der linearen Nachbildung in der Studie.

Allerdings müsste in jede Einzelne jener Differentialgleichungen der Treibhausgas-Antrieb eingehen und eine lineare Extrapolation des minimalen Treibhausgas-Antriebs müsste herauskommen. Sollten sich die Differentialgleichungen nicht linear verhalten, wäre die Nachbildung der Lufttemperatur nicht erfolgreich.

Es würde keine Rolle spielen, welcher Differential-Loop in Nicks Differentialgleichungen auftaucht zwischen Eingangs- und Ausgangssignal. Die Ausgangssignale der Differentialgleichungen müssen notwendigerweise eine lineare Extrapolation des Eingangssignals sein. Wo das nicht der Fall ist, würden die Nachbildungen scheitern.

Jene notwendige Linearität bedeutet, dass die gesamte gewaltige Variation der Differentialgleichungen von Nick Stokes lediglich ein Satz von unnötig komplizierten Beispielen ist, welche die lineare Nachbildungs-Gleichung in meiner Studie validieren müssten.

Nicks Differentialgleichungen wären lediglich lineare Emulatoren mit irrelevanten Differential-Quellen; unwesentliche Dekorationen, angeheftet aus künstlichen, oder in seinem Fall polemischen, Gründen.

Nick Stokes‘ Differentialgleichungen sind kaum mehr als auf komplizierte Art und Weise die gleiche Einsicht wie in der Studie zu zeigen: dass nämlich Projektionen der Lufttemperatur seitens der GCMs lediglich lineare Extrapolationen des bruchteilhaften Treibhausgas-Antriebs sind.

Seine Differentialgleichungen tragen nichts zu unserem Verständnis bei. Auch widerlegen sie nicht die Aussagekraft der originalen linearen Nachbildungs-Gleichung.

Die Nachbildungs-Gleichung erfasst die gleichen physikalischen Variablen wie die GCMs, bearbeitet sie auf die gleiche, physikalisch relevante Art und Weise und erzeugt die gleichen extrapolierten Werte. Ihr Verhalten dupliziert all die bedeutenden Qualitäten der Parameter eines jedweden GCMs.

Die Nachbildungs-Gleichung zeigt die gleiche Sensitivität bzgl. Antriebs-Eingangssignale wie die GCMs. Daher zeigt sie auch die gleiche Sensitivität der physikalischen Unsicherheit in Verbindung mit genau jenen Antrieben.

Die Gleichheit der Sensitivität der Nachbildung und der GCMs bzgl. der Eingangssignale bedeutet, dass die Nachbildungs-Gleichung notwendigerweise die Zuverlässigkeit der GCMs zeigen muss, wenn man die Gleichung heranzieht für die Verbreitung der Unsicherheiten in den Eingangssignalen.

Kurz gesagt, eine erfolgreiche Nachbildungs-Gleichung kann verwendet werden, um vorherzusagen, wie sich das GCM verhält; etwas, das direkt gezeigt wird durch die Sensitivitäts-Gleichheit der Eingangssignale. Beide, Emulator und GCM, sind lineare Extrapolations-Maschinen.

Noch einmal, die Nachbildungs-Gleichung zeigt die gleiche Sensitivität bzgl. eingehender Antriebe wie die GCMs. Daher weist sie die gleiche Sensitivität wie die GCMs auf hinsichtlich der Unsicherheit, welche mit jenen genau gleichen Antrieben einhergehen.

Fortpflanzung nicht-normaler systematischer Fehler

In meinem ganz oben verlinkten Beitrag habe ich aus der relevanten Literatur der Bedeutung und des Verfahrens der Fehler-Fortpflanzung beschrieben. Die meisten dieser Studien stammen aus Ingenieurs-Journalen.

Das kommt nicht unerwartet angesichts der extrem kritischen Aufmerksamkeit, welche Ingenieure der Genauigkeit widmen müssen. Ihre Arbeitsergebnisse müssen sich effektiv verhalten unter dem Spagat zwischen Sicherheit und ökonomischem Überleben.

Allerdings kommt der Studie von Vasquez und Whiting spezielle Aufmerksamkeit zu. Sie untersuchen die Fehler-Analyse in komplexen, nicht-linearen Modellen.

Folgendes längere Zitat ist der Erwähnung würdig:

Systematische Fehler sind verbunden mit Verzerrungen bei Kalibrierung der Verfahren und der Ausrüstung … Experimentatoren haben den Auswirkungen von Zufallsfehlern bei der Fortpflanzung von Unsicherheiten bzgl. chemischer und physikalischer Eigenschaften immer besondere Aufmerksamkeit gewidmet. Obwohl jedoch das Konzept systematischer Fehler klar ist, gibt es einen überraschenden Mangel von Verfahren, um der Analyse der Fortpflanzung systematischer Fehler Rechnung zu tragen. Letzteres kann bedeutender sein als normalerweise angenommen.

Normalerweise wird angenommen, dass der Wissenschaftler systematische Fehler auf ein Minimum reduziert hat, aber es gibt immer nicht reduzierbare Schätzungen systematischer Residual-Fehler. Andererseits gibt es eine psychologische Hemmschwelle, dass die Erwähnung der Schätzung systematischer Fehler Glaubwürdigkeit und Qualität der experimentellen Messungen beeinträchtigt. Dies erklärt, warum Bias-Fehlerschätzungen kaum jemals in der Literatur zu finden sind.

Von besonderem Interesse sind die Auswirkungen möglicher Kalibrierungs-Fehler bei experimentellen Messungen. Diese Ergebnisse werden analysiert mittels kumulativer Wahrscheinlichkeits-Verteilungen (cdf) für die Output-Signale der Variablen des Modells.

Wie schon von Vasquez und Whiting (1998) bei der Analyse thermodynamischer Daten angemerkt, sind die erkannten systematischen Fehler nicht konstant und neigen dazu, eine Funktion der Größenordnung der gemessenen Variablen zu sein.

Wenn verschiedene Quellen systematischer Fehler erst einmal erkannt sind (Unsicherheiten aufgrund systematischer Fehler) wird vorgeschlagen, beta zu berechnen als ein Mittel des Bias‘ oder als Korrekturfaktoren wie folgt:

beta = sqrt[sum over(theta_S_i)²],

wobei „i“ die Quellen der Bias-Fehler definiert und „theta_S“ die Bandbreite des Bias‘ innerhalb der Fehlerquelle „i“ bezeichnet.

Das heißt, dass die Unsicherheit aufgrund systematischer Fehler in nicht-linearen Modellen sich als root-sum-square fortsetzt.

Dies ist die korrekte Berechnung der Gesamt-Unsicherheit in einem Endergebnis, und genau dieses Verfahren wende ich in meiner Studie an.

Die Bedeutung von ±4 W/m² langwelliger Wolken-Antriebsfaktor (LWCF)

Diese Illustration könnte die Bedeutung von ±4 W/m² der Unsicherheit im jährlichen mittleren LWCF klären.

Die Frage, die man sich jetzt stellen muss, lautet: Welche Genauigkeit im simulierten Wolken-Antriebsfaktor ist notwendig, um den jährlichen Einfluss des CO2-Antriebs herauszufiltern?

Wir wissen seit Lauer und Hamilton (2013), dass der mittlere jährliche ±12,1%-Fehler des von den CIMP5 berechneten Wolkenanteils (CF) einen mittleren jährlichen Fehler von ±4 W/m² im langwelligen Wolken-Antrieb (LWCF) erzeugt.

Wir wissen außerdem, dass die jährliche mittlere Zunahme des CO2-Antriebs etwa 0,035 W/m² beträgt.

Unter der Annahme einer linearen Relation zwischen dem Fehler des Wolkenanteils und dem LWCF-Fehler ist der mittlere CF-Fehler von ±12,1% proportional verantwortlich für den mittleren jährlichen LWCF-Fehler von ±4 W/m².

Dann kann man das notwendige Niveau der GCM-Auflösung abschätzen, um den jährlichen mittleren Anteil des Wolken-Antriebs als Reaktion auf den CO2-Antrieb beschreiben als

(0.035 W/m^2/±4 W/m²)*±12.1% Wolken-Anteil = 0.11%

Das heißt, ein GCM muss in der Lage sein, eine Änderung des Wolken-Anteils um 0,11% aufzulösen, um in der Lage zu sein, die Reaktion der Wolken auf die jährliche mittlere Zunahme des CO2-Antriebs um 0,035 W/m² zu erkennen.

Ein Klimamodell muss die Reaktion der Wolken auf 0,11% genau simulieren, um den Wolken-Antrieb von den jährlichen Auswirkungen der CO2-Emissionen auf das Klima trennen zu können.

Die Wolken-Rückkopplung auf einen jährlichen CO2-Antrieb von 0,035 W/m² muss bekannt und in der Lage sein, mit einer Auflösung von 0,11% des CF simuliert zu werden, um zu wissen, wie die Wolken auf den jährlichen CO2-Antrieb reagieren.

Hier folgt ein alternatives Verfahren. Wir wissen, dass die gesamte Wolken-Rückkopplung in der Troposphäre der globalen Wolkenbedeckung von 67% etwa -25 W/m² beträgt.

Noch einmal, der jährliche troposphärische CO2-Antrieb beträgt etwa 0,035 W/m². Das CF-Äquivalent dieses Rückkopplungs-Energieflusses wird wieder linear geschätzt als:

(0.035 W/m²/|25 W/m²|)*67% = 0.094%.

Das heißt, dass das zweite Ergebnis lautet, dass der Wolken-Anteil bis zu einer Auflösung von 0,094% simuliert wird, um die Rückkopplungs-Reaktion von Wolken auf den jährlichen CO2-Antrieb von 0,035W/m² zu zeigen.

Die Annahme der linearen Schätzungen ist vernünftig. Beide Verfahren zeigen, dass etwa 0,1% CF in der Modell-Auflösung gebraucht werden, um die jährliche Wolken-Rückkopplungs-Reaktion auf das Klima bei einem jährlichen CO2-Antrieb von 0,035 W/m² zu simulieren.

Dies ist der Grund, warum die Unsicherheit der projizierten Lufttemperatur so groß ist. Die benötigte Auflösung muss 100 mal besser sein als die verfügbare Auflösung.

Um das erforderliche Niveau der Auflösung zu erreichen, muss das Modell akkurat Wolkentyp, Wolkenverteilung und Wolkenhöhe simulieren, ebenso wie Niederschlag und tropische Gewitter – alles mit einer Genauigkeit von 0,1%. Diese Erfordernis zu erreichen ist unmöglich.

Der jährliche 12,1%-Fehler der CMIP5 GCMs im simulierten CF ist die untere Grenze der Auflösung. Diese untere Grenze ist noch 121 mal größer als das Limit einer Auflösung von 0,1%, welches erforderlich ist, die Wolken-Rückkopplung zu simulieren auf den jährlichen CO2-Antrieb von 0,035 W/m².

Diese Analyse illustriert die Bedeutung des LWCF-Fehlers von ±4 W/m² der Auswirkungen troposphärischer Rückkopplungen der Wolkenbedeckung.

Die Kalibrierungs-Unsicherheit im LWCF reflektiert die Unfähigkeit der Klimamodelle, den CF zu simulieren. Das wiederum belegt das allgemeine Niveau der Ignoranz bzgl. Wolken-Reaktion und -Rückkopplung.

Die CF-Ignoranz bedeutet, dass der troposphärische thermische Energiefluss nie besser bekannt sein kann als ±4 W/m², ob nun ein Antrieb durch CO2-Emissionen existiert oder nicht.

Wenn ein Antrieb durch CO2-Emissionen vorhanden ist, können die Auswirkungen desselben nicht in einer Simulation erkannt werden, welche die Auflösung der Wolken-Rückkopplung nicht besser modellieren kann als bis auf ±4 W/m² genau.

GCMs können einfach die Wolken-Reaktion nicht auf 0,1% genau simulieren. Sie können dieselbe nicht auf 1% genau simulieren – oder auf 10% genau.

Nimmt die Bewölkung mt CO2-Antrieb zu? Oder nimmt sie ab? Ändert sich die Wolkenart? Bleibt sie gleich?

Was ist mit tropischen Gewittern? Werden sie stärker, schwächer, oder was? Nimmt der Niederschlag zu oder ab?

Nichts davon kann simuliert werden. Nichts davon ist derzeit bekannt. Die Auswirkungen von CO2-Emissionen auf das Klima sind für die derzeitigen GCMs unsichtbar.

[Hervorhebung vom Übersetzer]

Die Antworten zu all diesen Fragen liegen sehr weit unterhalb der Auflösungs-Limits jedes einzelnen heutigen GCMs.

Die Antworten sind nicht einmal empirisch verfügbar, weil Satelliten-Beobachtungen nicht besser sind als ±10% bei CF.

Bedeutung

Die derzeitigen Klimamodelle können nicht simulieren, wie die Wolken auf einen CO2-Antrieb reagieren. Angesichts der geringen Durchdringung [perturbation] des jährlichen CO2-Antriebs scheint es unwahrscheinlich, dass die GCMs in absehbarer Zukunft jemals in der Lage sein werden, eine Reaktion der Wolken zu simulieren.

Der CF-Fehler in den GCMs stammt aus einer fehlerhaften physikalischen Theorie. Daher ist es für kein einziges GCM möglich, die Auswirkungen von CO2-Emissionen auf die Temperatur aufzulösen oder zu simulieren, falls es diese Auswirkungen überhaupt gibt.

Theoretische Fehler schleichen sich in jeden Schritt einer Simulation ein. Theoretischer Fehler heißt, dass ein zugrunde liegendes, sich im Gleichgewicht befindendes Klima eine irrige Repräsentation des korrekten Klima-Energie-Zustandes darstellt.

Nachfolgende Klimazustände mittels einer stufenweisen Simulation sind weiter verzerrt durch Anwendung einer fehlerhaften Theorie.

Die Simulationen beginnen falsch und werden immer schlimmer.

Wenn ein GCM sich durch eine Klima-Simulation hangelt für eine Projektion der Lufttemperatur, geht das Wissen über den globalen CF als Folge eines gestiegenen CO2-Gehaltes so ziemlich gegen Null im ersten Simulations-Schritt.

GCMs können die Reaktion der globalen Bewölkung auf den CO2-Antrieb nicht simulieren und damit auch nicht die Wolken-Rückkopplung – überhaupt nicht, in keinem Schritt.

Dies gilt für jeden Einzelschritt einer Simulation. Und die schrittweise Unsicherheit bedeutet, dass sich die Unsicherheit bei der Projektion der Lufttemperatur akkumuliert, wie Vasquez und Whiting anmerken.

In Zukunfts-Projektionen kann weder das Signal noch die Größenordnung des wahren Fehlers bekannt sein, weil es keine messbaren Größen gibt. Aus diesem Grunde wird stattdessen die Unsicherheit berechnet mittels des Kalibrierungs-Fehlers eines Modells.

Totale Ignoranz hinsichtlich der simulierten Lufttemperatur ist die notwendige Konsequenz einer Wolken-Reaktion, die um das ±120-fache unter dem Auflösungs-Limit der GCMs liegt, welches für eine Simulation der Wolken-Reaktion auf den jährlichen CO2-Antrieb erforderlich ist.

Auf der Grundlage jährlicher Mittelwerte ist die Unsicherheit der CF-Rückkopplung in den LWCF ±114 mal größer als die aufgelöste Durchdringung.

Die CF-Reaktion ist so wenig bekannt, dass selbst schon der erste Simulationsschritt in eine Terra Incognita führt.

Die Unsicherheit der projizierten Lufttemperatur nimmt deswegen so dramatisch zu, weil sich das Modell Schritt für Schritt von einem ursprünglichen Wissen um die Lufttemperatur zum Startzeitpunkt der Projektion (t = 0) entfernt – weiter und immer weiter in die totale Ignoranz.

Die Schritt-für-Schritt-Reise der GCMs in immer tiefere Ignoranz bietet die physikalische Rationale für das schrittweise Wurzel-Summen-Quadrat der Fortpflanzung des LWCF-Fehlers.

Die Fortpflanzung der LWCF-Kalibrierungs-Fehlerstatistik im GCM und die große daraus resultierende Unsicherheit bzgl. der projizierten Lufttemperatur ist eine direkte Manifestation dieser totalen Ignoranz.

Die Lufttemperatur-Projektionen der gegenwärtigen GCMs haben keinerlei physikalische Bedeutung.

Link: https://wattsupwiththat.com/2019/09/19/emulation-4-w-m-long-wave-cloud-forcing-error-and-meaning/

Übersetzt von Chris Frey EIKE