1

Systematischer Fehler bei Klimamessungen: Die Aufzeichnung der Lufttemperatur an der Erdoberfläche

Es war eine sehr interessante Konferenz, und als Nebenaspekt nahm ich mit nach Hause, dass der kurzfristige Notfall die islamistische Gewalt ist und der langfristige Notfall, dass irgendwelche Riesen-Meteore auf die Erde stürzen. Aber bitte, gleiten Sie bei der Diskussion zu diesem Vortrag nicht in diese beiden Themen ab.

Abstract: Ursprünglich war das Abstract länger, aber hier folgt die Kurzform. Jene, die die globalen gemittelten Lufttemperaturen zusammenstellen, haben nicht nur systematische Messfehler (siehe auch hier) ignoriert, sondern haben sogar auch die Messgenauigkeit der Instrumente selbst in Abrede gestellt. Seit mindestens dem Jahr 1860 wurde die Thermometer-Genauigkeit nur vage berücksichtigt. Ebenfalls seit jenem Jahr sowie im 95%-Vertrauens-Intervall ist die Rate oder Größenordnung des globalen Anstiegs der Lufttemperatur nicht erkennbar. Gegenwärtiger Streit über die Lufttemperatur und seiner Beispiellosigkeit ist spekulative Theologie.

1. Einführung: Systematischer Fehler

Systematische Fehler treten bei experimentell oder anders gemessenen Ergebnissen auf durch unkontrollierte und oftmals kryptische deterministische Prozesse (1). Diese können so einfach sein wie ein konsistenter Fehler des Bedieners. Typischer jedoch entstehen Fehler aus einer unkontrollierten experimentellen Variable oder Ungenauigkeit der Instrumente. Ungenauigkeit der Instrumente resultiert aus einer Fehlfunktion oder dem Fehlen einer Kalibrierung. Unkontrollierte Variable können die Größenordnung einer Messung beeinflussen und/oder den Verlauf eines Experimentes. Abbildung 1 zeigt die Auswirkung einer unkontrollierten Variable. Sie stammt aus meinen eigenen Arbeiten (2, 3):

Abbildung 1: Links: Titration gelösten Eisens [ferrous iron] unter Bedingungen, die ungeplant eine Spur Luft in das Experiment gelangen lassen. Kleine Graphik darin: Die inkorrekten Daten folgen präzise der Gleichgewichts-Thermodynamik. Rechts: das gleiche Experiment, aber mit einer angemessen strikten Abwehr von Luft. Die Daten sind total unterschiedlich. Kleine Graphik rechts: die korrekten Daten zeigen eine ausgesprochen unterschiedliche Thermodynamik.

Abbildung 1 zeigt, dass der unbeabsichtigte Eintritt einer Spur Luft ausreichte, um den Verlauf des Experimentes vollkommen zu verändern. Nichtsdestotrotz zeigen die fehlerhaften Daten ein kohärentes Verhalten und folgen einer Trajektorie, die vollkommen konsistent ist mit der Gleichgewichts-Thermodynamik. In allen Erscheinungen war das Experiment gültig. Isoliert betrachtet sind die Daten überzeugend. Allerdings sind sie vollständig falsch, weil die eingetretene Luft das Eisen chemisch modifiziert hat.

Abbildung 1 zeigt exemplarisch die Gefahr eines systematischen Fehlers. Kontaminierte experimentell oder anders gemessene Ergebnisse können sich genau wie gute Daten verhalten und daherkommen sowie rigoros validen physikalischen Theorien folgen. Lässt man hier keine Vorsicht walten, laden solche Daten zu falschen Schlussfolgerungen ein.

Ein systematischer Fehler ist seiner Natur nach schwer zu erkennen und zu entfernen. Zu den Methoden der Entfernung gehören sorgfältige Kalibrierung der Instrumente unter Bedingungen, die mit der Messung oder dem Experiment identisch sind. Methodisch unabhängige Experimente, die das gleiche Phänomen behandeln, bieten eine Möglichkeit, die Ergebnisse zu prüfen. Sorgfältige Aufmerksamkeit bzgl. dieser Verfahren ist Standard in den experimentellen physikalischen Wissenschaften.

Die jüngste Entwicklung einer neuen und höchst genauen Atomuhr zeigt die extreme Vorsicht, die Physiker walten lassen, wenn sie systematische Fehler eliminieren wollen. Kritisch für die Erreichung einer Genauigkeit von 10^-18 Sekunden war die Ausmerzung eines systematischen Fehlers, den die Schwarzkörperstrahlung des Instrumentes selbst erzeugte (4).

Abbildung 2 [oben rechts]: Nahaufnahme der neuen Atomuhr. Das Zeitmess-Element ist ein Cluster fluoreszierender Strontium-Atome, eingehüllt in ein optisches Netz. Thermisches Rauschen wird entfernt mittels Daten eines Sensors, der die Schwarzkörper-Temperatur des Instrumentes misst.

Abschließend hierzu: Ein systematischer Fehler mittelt sich mit wiederholten Messungen nicht heraus. Die Wiederholung kann den Fehler sogar verstärken. Wenn systematische Fehler nicht eliminiert werden können, um deren Existenz man aber weiß, müssen Angaben zur Unsicherheit zusammen mit den Daten angezeigt werden. In graphischen Präsentationen gemessener oder gerechneter Daten wird der systematische Fehler durch Balken der Fehlerbandbreite repräsentiert (1). Jene Balken geben Aufschluss über die Zuverlässigkeit des Ergebnisses.

2. Systematische Fehler bei Temperaturmessungen

2.1 Lufttemperatur auf dem Festland

Während des größten Teils des 20. Jahrhunderts wurden die Temperaturen auf dem Festland mittels eines Thermometers gemessen, in dem sich eine Flüssigkeit hinter Glas befand. Es war eingebettet in eine Wetterhütte (5, 6). Nach etwa 1985 kamen Thermistoren oder Platin-Widerstands-Thermometer (PRT) zum Einsatz, die sich in einer unbelüfteten zylindrischen Plastikumhüllung befanden. Dies erfolgte in Europa, den Anglo-Pazifischen Ländern und den USA. Seit dem Jahr 2000 platzierte das Climate Research Network der USA Sensoren in einer belüfteten Umhüllung, die ein Trio von PRTs enthielten (5, 7, 8, 9). Eine belüftete Schutzhülle enthält einen kleinen Ventilator, der für einen Austausch der Luft im Inneren der Hülle mit der Außenluft sorgt.

Unbelüftete Sensoren stützen sich auf vorherrschenden Wind zur Ventilation. Sonnenstrahlung kann die Umhüllung des Sensors aufheizen, was die Innenluft um den Sensor erwärmt. Im Winter kann aufwärts gerichtete Strahlung durch die Albedo einer schneebedeckten Erdoberfläche ebenfalls einen Warm-Bias erzeugen (10). Zu bedeutenden systematischen Messfehlern kommt es, wenn die Windgeschwindigkeit unter 5 m/s liegt (9, 11).

Abbildung 3: Der Plaine Morte Glacier in der Schweiz. Hier wird gezeigt, wie das Experiment der Kalibrierung des Lufttemperatur-Sensors von Huwald et al. während der Jahre 2007 und 2008 durchgeführt worden ist (12). Eingebettet: Nahaufnahmen der PRT und Schall-Anemometer-Sensoren. Bild: Bou-Zeid, Martinet, Huwald, Couach, 2.2006 EPFL-ENAC.

Bei den während der Jahre 2007 und 2008 durchgeführten Kalibrierungs-Experimenten auf dem Gletscher (Abbildung 3) wurde die Feld-Genauigkeit des RM Young PRT innerhalb einer unbelüfteten Umhüllung über einer schneebedeckten Oberfläche getestet. Im Labor kann der RM Young Sensor mit einer Genauigkeit von ±0,1°C anzeigen. Die Genauigkeit auf dem Feld wurde bestimmt durch den Vergleich von Lufttemperaturen, gemessen mittels eines Schall-Anemometers, wobei der Effekt ausgenutzt wird, dass die Temperatur Einfluss auf die Schallgeschwindigkeit in der Luft hat. Dies ist unabhängig von Strahlung und Windgeschwindigkeit.

Abbildung 4: Gleichzeitig aufgezeichnete Temperaturtrends auf dem Plaine Morte-Gletscher von Februar bis April 2007. (¾), Sonic anemometer, and; (¾), RM Young PRT probe.

Abbildung 4 zeigt, dass bei identischen Umwelt-Bedingungen der RM Young-Sensor deutlich höhere winterliche Lufttemperaturen aufgezeichnet hat als das Schall-Anemometer. Die Neigung des RM Young-Temperaturtrends ist auch mehr als dreimal größer. Verglichen mit einem üblichen Mittel würde der Fehler von RM Young einen unechten Erwärmungstrend in ein globales Temperaturmittel einbringen. Die noch größere Bedeutung dieses Ergebnisses ist, dass RM Young im Design und der Reaktion sehr ähnlich ist den verbesserten Temperaturmessungen, die weltweit seit etwa 1985 verwendet werden.

Abbildung 5 zeigt ein Histogramm des systematischen Temperaturfehlers, der beim RM Young in Erscheinung tritt.

Abbildung 5: Systematischer Fehler von RM Young auf dem Plaine Morte-Gletscher. Der Fehler tagsüber beträgt 2.0°C ± 1.4°C, der Fehler nachts 0.03°C ± 0.32°C.

Die systematischen Fehler von RM Young bedeuten, dass im Falle des Fehlens eines unabhängigen Kalibrierungs-Instrumentes jedwede gegebene tägliche Mitteltemperatur eine damit verbundene Unsicherheit von 1°C ± 1.4°C aufweist [an 1s uncertainty]. Abbildung 5 zeigt, dass diese Unsicherheit weder zufällig verteilt noch konstant ist. Sie kann nicht entfernt werden durch Mittelung individueller Messungen oder wenn man Anomalien heranzieht. Die Subtraktion des mittleren Bias‘ wird nicht die normale 1s-Unsicherheit [?] entfernen. Fügt man die Temperaturaufzeichnung der RM Young-Station in ein globales Mittel ein, wird dies den mittleren Fehler mit hineintragen.

Vor der Inklusion in einem globalen Mittel werden Temperaturreihen individueller meteorologischer Stationen statistischen Tests der Datenqualität unterzogen (13). Von den Lufttemperaturen weiß man, dass sie eine Korrelation von R = 0,5 über Entfernungen von etwa 1200 km zeigen (14, 15). Der erste Test der Qualitätskontrolle jeder gegebenen Stationsaufzeichnung enthält einen statistischen Check der Korrelation mit Temperaturreihen benachbarter Stationen. Abbildung 6 zeigt, dass eine mit dem RM Young-Fehler kontaminierte Temperaturreihe diesen grundlegendsten aller Tests bestehen wird. Außerdem wird die irrige RM Young-Aufzeichnung jeden einzelnen statistischen Test bestehen, der bzgl. der Qualitätskontrolle von Aufzeichnungen meteorologischer Stationen weltweit durchgeführt wird.

Abbildung 6: Korrelation der RM Young-Temperaturmessungen mit jenen des Schall-Anemometers. Eingebettet: Abbildung 1a aus (14), die Korrelationen von Temperaturaufzeichnungen zeigt von meteorologischen Stationen im terrestrischen Netz 65° bis 70°N, 0° bis 5° E. Bei einer Korrelation von 0,5 beträgt die Länge bis zu 1400 km.

Abbildung 7: Kalibrierungs-Experiment an der University of Nebraska in Lincoln (aus (11), Abbildung 1); E, MMTS shield; F, CRS shield; G, the aspirated RM Young reference.

Abbildung 7 zeigt das screen-type [?] Kalibrierungs-Experiment an der University of Nebraska. Jeder Typ enthielt den identischen HMP45C-Sensor (11). Die Referenz-Temperaturen der Kalibrierung wurden mittels eines belüfteten RM Young PRT erhalten, eingestuft als akkurat bis < ±0.2°C bei einer Sonneneinstrahlung unter 1100 W/m².

Diese unabhängigen Kalibrierungs-Experimente testeten die Auswirkung einer Vielfalt von allgemein verwendeten Typen zur Genauigkeit von Lufttemperatur-Messungen durch PRT (10, 11, 18). Unter den Typen waren auch das allgemeine Cotton Regional Shelter (CRS, Stevenson screen) und der MMTS-Screen, der jetzt allgemein verwendet wird in den USHCN-Daten.

Abbildung 8: Mittlerer systematischer Messfehler eines HMP45C-Sensors innerhalb eines MMTS über einer Gras-Oberfläche (oben) und einer schneebedeckten Oberfläche (unten) (10, 11).

Abbildung 8 oben zeigt den mittleren systematischen Messfehler einer MMTS-Umhüllung, der auf eine PRT-Temperaturmessung angewendet wird. Den Fehler fand man während des Kalibrierungs-Experimentes der Abbildung 7 (11). Abbildung 8 unten zeigt die Ergebnisse einer unabhängigen PRT/MMTS-Kalibrierung über einer schneebedeckten Oberfläche (10). Die mittlere jährliche systematische Unsicherheit, die von dem MMTS erzeugt wird, kann aus diesen Daten berechnet werden zu 1s = 0.32°C ± 0.23°C. Die verzerrte Warm-Bias-Verteilung des Fehlers über Schnee ist größenordnungsmäßig ähnlich der unbelüfteten RM Young-Hülle beim Plaine Morten-Experiment (Abbildung 5).

Abbildung 9 zeigt den mittleren systematischen Messfehler erzeugt von einer PRT-Stichprobe innerhalb einer traditionellen CRS-Umhüllung (11).

Abbildung 9: der mittlere systematische Tag-Nacht-Messfehler, erzeugt von einer PRT-Temperaturstichprobe innerhalb einer traditionellen CRS-Hütte.

Der Warm-Bias in den Daten ist offensichtlich, ebenso wie die Nicht-Normalverteilung des Fehlers. Die systematische Unsicherheit der CRS-Hütte betrug 1s = 0.44°C ± 0.41°C. Die HMP45C-PRT-Stichprobe ist mindestens genauso akkurat wie das traditionelle LiG-Thermometer innerhalb der Wetterhütte (19, 20). Mittels des PRT/CRS-Experimentes kann man dann eine untere Grenze der systematischen Messunsicherheit abschätzen, der in den Festlands-Temperaturaufzeichnungen im gesamten 19. und fast dem ganzen 20. Jahrhundert enthalten ist.

2.2 Wassertemperatur

Obwohl erhebliche Bemühungen aufgewendet wurden, um die Wassertemperaturen besser zu verstehen (21 bis 28), gab es nur sehr wenige Feld-Kalibrierungs-Experimente der Wassertemperatur-Sensoren. Eimermessungen sowie solche in Kühlwasser von Schiffen ergaben den Hauptanteil von Messungen der Wassertemperatur Anfang und Mitte des 20. Jahrhunderts. Auf Fest- und Treibbojen montierte Sensoren kamen seit etwa 1980 immer stärker zum Einsatz. Inzwischen dominieren sie die Messungen der Wassertemperatur (29). Die Aufmerksamkeit gilt den Kalibrierungs-Studien dieser Instrumente.

Die von Charles Brooks im Jahre 1926 durchgeführten Reihen-Experimente sind bei weitem die umfassendsten Feld-Kalibrierungen von Messungen der Wassertemperatur mit Eimern und im Kühlwasser von Schiffen, die jemals von einem einzelnen individuellen Wissenschaftler durchgeführt worden waren (30). Abbildung 10 zeigt typische Beispiele des systematischen Fehlers dieser Messungen, die Brooks gefunden hatte.

Abbildung 10: Systematischer Messfehler in einem Satz von Messungen der Wassertemperatur im Kühlwasser- (links) und mit Eimermessungen (rechts) wie von Brooks beschrieben (30).

Brooks stellte auch einen Mann ab, der die Messungen an Bord des Schiffes überwachen sollte, nachdem er seine Experimente abgeschlossen hatte und von Bord gegangen war. Die Fehler nach seinem Verlassen des Schiffes waren etwa doppelt so groß als mit ihm an Bord. Die einfachste Erklärung hierfür ist, dass die Sorgfalt schwand, vielleicht zurück zum Normalen, wenn niemand schaute. Dieses Ergebnis verletzt die Standard-Hypothese, dass Fehler von Temperatursensoren für jedes einzelne Schiff konstant sind.

Im Jahre 1963 beschrieb Saur das größte Feld-Kalibrierungs-Experiment von Thermometern in Kühlwasser, durchgeführt von Freiwilligen an Bord von 12 Transportschiffen des US-Militärs, die vor der US-Pazifikküste operierten (31). Das Experiment enthielt auch 6826 Beobachtungs-Paare. Abbildung 11 zeigt die experimentellen Ergebnisse einer Fahrt eines Schiffes.

Abbildung 11: Systematischer Fehler in gemessenen Kühlwasser-Temperaturen an Bord eines Militär-Transportschiffes, das im Juni/Juli 1959 operierte. Der mittlere systematische Bias und die Unsicherheit in diesen Daten beträgt 1s = 0.9°C ± 0.6°C.

Saur bezeichnete die Abbildung 11 als „eine typische Verteilung der Unterschiede“, die auf den verschiedenen Schiffen aufgetreten waren. Die ±0.6°C-Unsicherheit hinsichtlich des mittleren systematischen Fehlers ist vergleichbar mit den von Brooks genannten Werten in Abbildung 10.

Saur schloss seinen Bericht mit den Worten: „Der mittlere Bias der gemessenen Meerwasser-Temperaturen beim Vergleich mit den Wassertemperaturen an der Ozeanoberfläche wird innerhalb des 95%-Vertrauensintervalls abgeschätzt mit 0,67°C ± 0,33°C auf der Grundlage einer Stichprobe von 12 Schiffen. Die Standardabweichung der Unterschiede zwischen den Schiffen wird mit 0,9°C geschätzt. Folglich sind die in Gegenwart und Vergangenheit gemessenen Wassertemperaturdaten ohne verbesserte Qualitätskontrolle zum größten Teil nur geeignet für allgemeine klimatologische Studien“. Saurs Sorgfalt ist aufschlussreich, wurde aber offensichtlich von Konsens-Wissenschaftlern missbraucht.

Messungen mittels Bathythermographen (BT) und Einmal-Bathythermographen (XBT) haben ebenfalls bedeutend zu den Wassertemperatur-Aufzeichnungen beigetragen (32). Extensive BT und XBT-Kalibrierungs-Experimente zeigten multiple Quellen systematischer Fehler, hauptsächlich durch mechanische Probleme und Kalibrierungsfehler (33 bis 35). Relativ zu einem reversing Thermometer-Standard [?] zeigten BT-Feldmessungen einen Fehler von ±s = 0.34°C ± 0.43°C (35). Diese Standardabweichung ist mehr als doppelt so groß wie wie die vom Hersteller genannte Genauigkeit von ±0,2°C und reflektiert den Einfluss unkontrollierter Feldvariablen.

Die SST-Sensoren in treibenden und festen Bojen wurden während des 20.Jahrhunderts niemals feld-kalibriert, so dass keine allgemeine Schätzung systematischer Messfehler vorgenommen werden konnte.

Allerdings hat Emery einen 1s = ±0.3°C-Fehler geschätzt mittels eines Vergleichs der Wassertemperatur von Treibbojen, die sich nicht weiter als 5 km voneinander entfernt hatten (28). Wassertemperatur-Messungen bei Entfernungen unter 10 km werden als übereinstimmend betrachtet.

Eine ähnliche Größenordnung des Bojenfehlers von ±0,26°C wurde relativ zu den Wassertemperaturdaten gefunden, die aus Advanced Along-Track Scanning Radiometer (AATSR)-Satellitendaten abgeleitet worden waren. Die Fehlerverteilungen waren nicht-normal.

In noch jüngerer Zeit wurden ARGO-Bojen feld-kalibriert gegen sehr genaue CTD-Messungen (CTD = conductivity-temperature-depth). Sie zeigten mittlere RMS-Fehler von ±0,56°C (37). Dies ist größenordnungsmäßig ähnlich der gemessenen mittleren Differenz von ±0,58°C in buoy-Advanced Microwave Scanning Radiometer (AMSR)-Satellitendaten (38).

3.Diskussion

Bis vor Kurzem (39, 40) waren systematische Temperatursensor-Messfehler niemals erwähnt worden bei der Berichterstattung bzgl. Ursprung, Bewertung und Berechnung der globalen mittleren Lufttemperatur. Auch in Fehleranalysen hatten sie niemals Eingang gefunden (15, 16, 39 bis 46). Selbst nach der Nennung systematischer Fehler in der veröffentlichten Literatur in letzter Zeit wird jedoch das Central Limit Theorem herangezogen um abzuschätzen, dass diese sich zu Null mitteln (36). Allerdings sind systematische Temperatursensor-Fehler weder zufällig verteilt noch zeitlich, räumlich oder von Instrument zu Instrument konstant. Es gibt keinen theoretischen Grund zu erwarten, dass diese Fehler dem Central Limit Theorem folgen (47, 48) oder dass solche Fehler reduziert oder eliminiert werden durch Mittelung multipler Messungen; selbst wenn diese Messungen millionenfach durchgeführt werden. Eine vollständige Inventur der Beiträge zur Unsicherheit in den Aufzeichnungen der Lufttemperatur muss den systematischen Messfehler des Temperatursensors selbst enthalten; tatsächlich muss sie damit beginnen (39).

Die WMO bietet nützliche Ratschläge an hinsichtlich systematischer Fehler (20). Es heißt dort in Abschnitt

1.6.4.2.3 Abschätzung des wahren Wertes – zusätzliche Bemerkungen:

In der Praxis enthalten Messungen sowohl zufällige als auch systematische Fehler. In jedem Falle muss der gemessene mittlere Wert um den systematischen Fehler korrigiert werden, soweit dieser bekannt ist. Wenn man das tut, bleibt die Schätzung des wahren Wertes ungenau wegen der zufälligen Fehler und wegen jedweder unbekannter Komponenten des systematischen Fehlers. Der Unsicherheit des systematischen Fehlers sollten Grenzen gesetzt werden. Sie sollten den Zufallsfehlern hinzugefügt werden, um die Gesamt-Unsicherheit zu ermitteln. Solange jedoch die Unsicherheit des systematischen Fehlers nicht in Wahrscheinlichkeits-Termen ausgedrückt und geeignet mit dem Zufallsfehler kombiniert werden kann, ist das Vertrauensniveau unbekannt. Es ist daher wünschenswert, dass der systematische Fehler vollständig bestimmt wird.

Bei der Erstellung der globalen mittleren Lufttemperatur lagen Angaben der WMO bisher bei der Erstellung der globalen mittleren Temperatur brach.

Systematische Sensorfehler bei Messungen der Luft- und Wassertemperatur waren beklagenswert gering geachtet worden, und es gab nur sehr wenige Feld-Kalibrierungen. Nichtsdestotrotz wird aus den berichteten Fällen klar, dass die Aufzeichnung der Lufttemperatur kontaminiert ist mit einem sehr signifikanten Niveau systematischer Messfehler. Die Nicht-Normalität systematischer Fehler bedeutet, dass die Subtraktion eines mittleren Bias‘ die Messungenauigkeit des globalen Temperaturmittels nicht beseitigen wird.

Außerdem ist die Größenordnung des systematischen Fehlerbias‘ der Messungen von Luft- und Wassertemperatur offensichtlich genauso räumlich und zeitlich variabel wie die Größenordnung der Standardabweichung der systematischen Unsicherheit über den mittleren Fehlerbias. Das heißt, der mittlere systematische Fehlerbias über Schnee auf dem Plaine Morte-Gletscher betrug 2°C, jedoch nur 0,4°C über Schnee in Lincoln, Nebraska. Ähnliche Differenzen wurden von Brooks und Saur auch beim Fehlermittelwert von Kühlwasser gemeldet. Daher wird die Eliminierung eines mittleren Bias‘ um einen geschätzten Betrag immer die Größenordnungs-Mehrdeutigkeit des verbleibenden mittleren Bias‘ hinterlassen. In jeder vollständigen Fehler-Evaluierung wird die verbleibende Unsicherheit des mittleren Bias‘ mit der 1s-Standardabweichung der Messunsicherheit zur Gesamt-Unsicherheit verschmelzen.

Eine vollständige Evaluierung systematischer Fehler liegt jenseits dieser Analyse. Allerdings kann ein Satz geschätzter Unsicherheits-Balken infolge des systematischen Fehlers in der Aufzeichnung der globalen mittleren Lufttemperatur berechnet werden – unter der Voraussetzung, dass die oben beschriebenen Fehler repräsentativ sind (Abbildung 12).

Die Unsicherheits-Bandbreite in Abbildung 12 (rechts) reflektiert ein Verhältnis systematischer Fehler zwischen Wasser- und Festlands-Temperatur von 0,7 zu 0,3. Quadriert bildet die Kombination von Eimer- und Kühlwassermessungen die SST-Unsicherheit vor 1990. Im gleichen Zeitintervall bildete der systematische Fehler der PRT/CRS-Sensoren (39, 40) die Unsicherheit der Festlands-Temperaturen. Treibbojen leisteten einen teilweisen Beitrag (0,25) zu der Unsicherheit bei der Wassertemperatur zwischen 1980 und 1990. Nach 1990 wurde die Fehlerbandbreite weiterhin stetig reduziert, was den zunehmenden Beitrag und die kleineren Fehler der MMTS (Festland) und Treibbojen (Wasseroberfläche) reflektiert.

Abbildung 12: Die globale mittlere Lufttemperatur im Jahre 2010, entnommen der Website der Climate Research Unit (CRU), University of East Anglia, UK (hier). Links: Unsicherheits-Bandbreite aufgrund der Beschreibung auf der CRU-Website. Rechts: Fehlerbandbreite der Unsicherheit aufgrund geschätzter systematischer Fehler der Sensormessungen innerhalb der Land- und Wasser-Aufzeichnungen. Weiteres im Text.

Abbildung 12 (rechts) ist sehr wahrscheinlich eine genauere Repräsentation des Wissensstandes als Abbildung 12 (links), jedenfalls was die Rate oder Größenordnung der Änderung der global gemittelten Änderung der Lufttemperatur seit 1850 angeht. Die überarbeitete Unsicherheits-Bandbreite repräsentiert einen nicht-normalen systematischen Fehler. Daher verliert der mittlere Trend der Lufttemperatur jedweden Status als wahrscheinlichster Trend.

Schließlich widmet Abbildung 13 der instrumentellen Auflösung der historischen meteorologischen Thermometer Aufmerksamkeit.

Abbildung 13 provozierte einige wütende Zwischenrufe aus dem Publikum in Sizilien, die nach dem Vortrag gefolgt wurden von einigen sehr groben Angriffen und einer netten E-Mail-Diskussion. Die hier vorgebrachten Argumente waren vorherrschend.

Die instrumentelle Auflösung definiert das Limit der Messgenauigkeit [measurement detection limit]. Beispielsweise waren unter den besten historischen Thermometern vom 19. bis Mitte des 20. Jahrhunderts 1°C-Einteilungen. Die Best-Case-Temperaturauflösung unter Laborbedingungen beträgt daher ±0,25°C. Darüber kann es keinen Streit geben.

Die Standard-Eimermessungen der Wassertemperatur der Challenger-Reise hatte ebenfalls eine 1°C-Abstufung. Damit kommt das gleiche Limit der Auflösung zur Anwendung.

Die besten Thermometer zur Messung des Kühlwassers bei amerikanischen Schiffen enthielten 1°C-Abstufungen; bei britischen Schiffen waren es 2°C. Die beste Auflösung ist demnach ±(0,25 bis 0,5)°C. Dies sind die bekannten Quantitäten. Auflösungs-Unsicherheiten wie systematische Fehler mitteln sich nicht heraus. Kenntnis der Messgrenzen der Instrumente-Klassen gestattet uns die Abschätzung der Auflösungs-Unsicherheit in jeder zusammengestellten historischen Aufzeichnung der Lufttemperatur.

Abbildung 13 zeigt die Grenzen der Auflösung. Darin wird die historische instrumentelle ±2s-Auflösung verglichen mit der ±2s-Unsicherheit in der veröffentlichten Temperatur-Zusammenstellung von Berkeley Earth. Die Analyse lässt sich genauso gut anwenden auf die veröffentlichten Temperaturreihen vom GISS oder der CRU/UKMet, welche die gleichen Unsicherheitsgrenzen aufweisen.

Abbildung 13: Der Trend der globalen gemittelten Lufttemperatur von Berkeley Earth mit den veröffentlichten ±2s-Unsicherheitsgrenzen in grau. Die zeitliche ±2s-Auflösung ist rot eingezeichnet. Rechts findet sich eine Zusammenstellung der best resolution limits in blau der historischen Temperatursensoren, aus denen die globalen Auflösungs-Limits berechnet worden sind.

Die global kombinierte instrumentelle Auflösung wurde mit den gleichen Teilbeiträgen berechnet wie die oben genannte Abschätzung des unteren Limits des systematischen Messfehlers. Das heißt 0,30 zu 0,70 Land- zu Wassertemperatur-Instrumenten, und der veröffentlichte fraktionale Gebrauch jeder Instrumentenart (land: CRS vs. MMTS, and; SS: buckets vs. engine intakes vs. Buoys).

Die Aufzeichnung zeigt, dass während der Jahre von 1800 bis 1860 die veröffentlichten globalen Unsicherheits-Limits von im Feld gemessenen meteorologischen Temperaturen gleich sind der Messungen unter bestmöglichen Laborbedingungen.

Nach etwa 1860 bis zum Jahr 2000 ist die veröffentlichte Auflösung kleiner als die Auflösungs-Limits der Instrumente selbst. Seit mindestens 1860 wurde die Genauigkeit aus dünner Luft hervorgezaubert.

Findet irgendjemand die veröffentlichten Unsicherheiten glaubwürdig?

Alle Ingenieure und Experimentalwissenschaftler könnten nach der Lektüre dieses Beitrags schockiert sein. Zumindest war das bei mir so. Ein Espresso hat mir geholfen.

Die Leute, die die globalen instrumentellen Aufzeichnungen zusammenstellen, haben ein experimentelles Limit stiefmütterlich behandelt, das sogar noch grundlegender ist als systematische Messfehler: Die Messgrenzen [detection limits] ihrer Instrumente. Sie haben dem keinerlei Aufmerksamkeit geschenkt.

Auflösungs-Limits und systematische Messfehler durch das Instrument selbst legen niedrigere Grenzen der Unsicherheit fest. Die in der Konsens-Klimatologie engagierten Wissenschaftler haben beides kaum beachtet.

Das ist fast so, als ob keiner von ihnen jemals eine Messung durchgeführt oder sich jemals mit einem Instrument abgemüht hätte. Es gibt keine andere rationale Erklärung für diese Missachtung als eine ausgeprägte Ignoranz gegenüber experimentellen Verfahren.

Die hier entwickelte Unsicherheits-Abschätzung zeigt, dass die Rate oder die Größenordnung der Änderung der globalen Lufttemperatur seit 1850 nicht genauer bekannt sein kann als mit ±1°C vor 1980 oder innerhalb von ±0,6°C nach 1990, jedenfalls im 95%-Intervall.

Rate und Größenordnung der Temperaturänderung seit 1850 ist buchstäblich unbekannt. Es gibt keinerlei Unterstützung für jedwedes „beispiellos“ in den Aufzeichnungen der Lufttemperatur.

Behauptungen über die höchste Temperatur jemals, selbst auf der Grundlage von 0,5°C-Differenzen, sind völlig unhaltbar und ohne jede Bedeutung.

All diese Debatten um die höchste Lufttemperatur jemals sind nicht besser als theologische Streitereien über das Unaussprechliche. Es sind nach den Worten von William F. Buckley „langweilige Spekulationen über das inhärent Unbekannte“.

Es gibt in den Temperaturaufzeichnungen keinerlei Stützung für irgendwelche Notfälle bzgl. Klima. Außer vielleicht ein Notfall der scheinbaren Kompetenz der AGW-Konsens-Wissenschaftler.

4. Danksagungen: Ich danke Prof. Hendrik Huwald und Dr. Marc Parlange von der Ecole Polytechnique Federale de Lausanne (EPFL), CH-1015 Lausanne, Schweiz, für die großzügige Überlassung der Sensor-Kalibrierungsdaten vom Plaine Morte Gletscher, die Eingang in die Abbildungen 4, 5 und 6 gefunden haben. Diese Arbeit wurde ohne jede externe Zuwendung geleistet.

5. References

[1] JCGM, Evaluation of measurement data — Guide to the expression of uncertainty in measurement 100:2008, Bureau International des Poids et Mesures: Sevres, France.

[2] Frank, P., et al., Determination of ligand binding constants for the iron-molybdenum cofactor of nitrogenase: monomers, multimers, and cooperative behavior. J. Biol. Inorg. Chem., 2001. 6(7): p. 683-697.

[3] Frank, P. and K.O. Hodgson, Cooperativity and intermediates in the equilibrium reactions of Fe(II,III) with ethanethiolate in N-methylformamide solution. J. Biol. Inorg. Chem., 2005. 10(4): p. 373-382.

[4] Hinkley, N., et al., An Atomic Clock with 10-18 Instability. Science, 2013. 341(p. 1215-1218.

[5] Parker, D.E., et al., Interdecadal changes of surface temperature since the late nineteenth century. J. Geophys. Res., 1994. 99(D7): p. 14373-14399.

[6] Quayle, R.G., et al., Effects of Recent Thermometer Changes in the Cooperative Station Network. Bull. Amer. Met. Soc., 1991. 72(11): p. 1718-1723; doi: 10.1175/1520-0477(1991)072<1718:EORTCI>2.0.CO;2.

[7] Hubbard, K.G., X. Lin, and C.B. Baker, On the USCRN Temperature system. J. Atmos. Ocean. Technol., 2005. 22(p. 1095-1101.

[8] van der Meulen, J.P. and T. Brandsma, Thermometer screen intercomparison in De Bilt (The Netherlands), Part I: Understanding the weather-dependent temperature differences). International Journal of Climatology, 2008. 28(3): p. 371-387.

[9] Barnett, A., D.B. Hatton, and D.W. Jones, Recent Changes in Thermometer Screen Design and Their Impact in Instruments and Observing Methods WMO Report No. 66, J. Kruus, Editor. 1998, World Meteorlogical Organization: Geneva.

[10] Lin, X., K.G. Hubbard, and C.B. Baker, Surface Air Temperature Records Biased by Snow-Covered Surface. Int. J. Climatol., 2005. 25(p. 1223-1236; doi: 10.1002/joc.1184.

[11] Hubbard, K.G. and X. Lin, Realtime data filtering models for air temperature measurements. Geophys. Res. Lett., 2002. 29(10): p. 1425 1-4; doi: 10.1029/2001GL013191.

[12] Huwald, H., et al., Albedo effect on radiative errors in air temperature measurements. Water Resorces Res., 2009. 45(p. W08431; 1-13.

[13] Menne, M.J. and C.N. Williams, Homogenization of Temperature Series via Pairwise Comparisons. J. Climate, 2009. 22(7): p. 1700-1717.

[14] Briffa, K.R. and P.D. Jones, Global surface air temperature variations during the twentieth century: Part 2 , implications for large-scale high-frequency palaeoclimatic studies. The Holocene, 1993. 3(1): p. 77-88.

[15] Hansen, J. and S. Lebedeff, Global Trends of Measured Surface Air Temperature. J. Geophys. Res., 1987. 92(D11): p. 13345-13372.

[16] Brohan, P., et al., Uncertainty estimates in regional and global observed temperature changes: A new data set from 1850. J. Geophys. Res., 2006. 111(p. D12106 1-21; doi:10.1029/2005JD006548; see http://www.cru.uea.ac.uk/cru/info/warming/.

[17] Karl, T.R., et al., The Recent Climate Record: What it Can and Cannot Tell Us. Rev. Geophys., 1989. 27(3): p. 405-430.

[18] Hubbard, K.G., X. Lin, and E.A. Walter-Shea, The Effectiveness of the ASOS, MMTS, Gill, and CRS Air Temperature Radiation Shields. J. Atmos. Oceanic Technol., 2001. 18(6): p. 851-864.

[19] MacHattie, L.B., Radiation Screens for Air Temperature Measurement. Ecology, 1965. 46(4): p. 533-538.

[20] Rüedi, I., WMO Guide to Meteorological Instruments and Methods of Observation: WMO-8 Part I: Measurement of Meteorological Variables, 7th Ed., Chapter 1. 2006, World Meteorological Organization: Geneva.

[21] Berry, D.I. and E.C. Kent, Air–Sea fluxes from ICOADS: the construction of a new gridded dataset with uncertainty estimates. International Journal of Climatology, 2011: p. 987-1001.

[22] Challenor, P.G. and D.J.T. Carter, On the Accuracy of Monthly Means. J. Atmos. Oceanic Technol., 1994. 11(5): p. 1425-1430.

[23] Kent, E.C. and D.I. Berry, Quantifying random measurement errors in Voluntary Observing Ships’ meteorological observations. Int. J. Climatol., 2005. 25(7): p. 843-856; doi: 10.1002/joc.1167.

[24] Kent, E.C. and P.G. Challenor, Toward Estimating Climatic Trends in SST. Part II: Random Errors. Journal of Atmospheric and Oceanic Technology, 2006. 23(3): p. 476-486.

[25] Kent, E.C., et al., The Accuracy of Voluntary Observing Ships’ Meteorological Observations-Results of the VSOP-NA. J. Atmos. Oceanic Technol., 1993. 10(4): p. 591-608.

[26] Rayner, N.A., et al., Global analyses of sea surface temperature, sea ice, and night marine air temperature since the late nineteenth century. Journal of Geophysical Research-Atmospheres, 2003. 108(D14).

[27] Emery, W.J. and D. Baldwin. In situ calibration of satellite sea surface temperature. in Geoscience and Remote Sensing Symposium, 1999. IGARSS ’99 Proceedings. IEEE 1999 International. 1999.

[28] Emery, W.J., et al., Accuracy of in situ sea surface temperatures used to calibrate infrared satellite measurements. J. Geophys. Res., 2001. 106(C2): p. 2387-2405.

[29] Woodruff, S.D., et al., The Evolving SST Record from ICOADS, in Climate Variability and Extremes during the Past 100 Years, S. Brönnimann, et al. eds, 2007, Springer: Netherlands, pp. 65-83.

[30] Brooks, C.F., Observing Water-Surface Temperatures at Sea. Monthly Weather Review, 1926. 54(6): p. 241-253.

[31] Saur, J.F.T., A Study of the Quality of Sea Water Temperatures Reported in Logs of Ships’ Weather Observations. J. Appl. Meteorol., 1963. 2(3): p. 417-425.

[32] Barnett, T.P., Long-Term Trends in Surface Temperature over the Oceans. Monthly Weather Review, 1984. 112(2): p. 303-312.

[33] Anderson, E.R., Expendable bathythermograph (XBT) accuracy studies; NOSC TR 550 1980, Naval Ocean Systems Center: San Diego, CA. p. 201.

[34] Bralove, A.L. and E.I. Williams Jr., A Study of the Errors of the Bathythermograph 1952, National Scientific Laboratories, Inc.: Washington, DC.

[35] Hazelworth, J.B., Quantitative Analysis of Some Bathythermograph Errors 1966, U.S. Naval Oceanographic Office Washington DC.

[36] Kennedy, J.J., R.O. Smith, and N.A. Rayner, Using AATSR data to assess the quality of in situ sea-surface temperature observations for climate studies. Remote Sensing of Environment, 2012. 116(0): p. 79-92.

[37] Hadfield, R.E., et al., On the accuracy of North Atlantic temperature and heat storage fields from Argo. J. Geophys. Res.: Oceans, 2007. 112(C1): p. C01009.

[38] Castro, S.L., G.A. Wick, and W.J. Emery, Evaluation of the relative performance of sea surface temperature measurements from different types of drifting and moored buoys using satellite-derived reference products. J. Geophys. Res.: Oceans, 2012. 117(C2): p. C02029.

[39] Frank, P., Uncertainty in the Global Average Surface Air Temperature Index: A Representative Lower Limit. Energy & Environment, 2010. 21(8): p. 969-989.

[40] Frank, P., Imposed and Neglected Uncertainty in the Global Average Surface Air Temperature Index. Energy & Environment, 2011. 22(4): p. 407-424.

[41] Hansen, J., et al., GISS analysis of surface temperature change. J. Geophys. Res., 1999. 104(D24): p. 30997–31022.

[42] Hansen, J., et al., Global Surface Temperature Change. Rev. Geophys., 2010. 48(4): p. RG4004 1-29.

[43] Jones, P.D., et al., Surface Air Temperature and its Changes Over the Past 150 Years. Rev. Geophys., 1999. 37(2): p. 173-199.

[44] Jones, P.D. and T.M.L. Wigley, Corrections to pre-1941 SST measurements for studies of long-term changes in SSTs, in Proc. Int. COADS Workshop, H.F. Diaz, K. Wolter, and S.D. Woodruff, Editors. 1992, NOAA Environmental Research Laboratories: Boulder, CO. p. 227–237.

[45] Jones, P.D. and T.M.L. Wigley, Estimation of global temperature trends: what’s important and what isn’t. Climatic Change, 2010. 100(1): p. 59-69.

[46] Jones, P.D., T.M.L. Wigley, and P.B. Wright, Global temperature variations between 1861 and 1984. Nature, 1986. 322(6078): p. 430-434.

[47] Emery, W.J. and R.E. Thomson, Data Analysis Methods in Physical Oceanography. 2nd ed. 2004, Amsterdam: Elsevier.

[48] Frank, P., Negligence, Non-Science, and Consensus Climatology. Energy & Environment, 2015. 26(3): p. 391-416.

[49] Folland, C.K., et al., Global Temperature Change and its Uncertainties Since 1861. Geophys. Res. Lett., 2001. 28(13): p. 2621-2624.

Link: https://wattsupwiththat.com/2016/04/19/systematic-error-in-climate-measurements-the-surface-air-temperature-record/

Übersetzt von Chris Frey EIKE




Haben Klimaprojektionen irgendeine physikalische Bedeutung?

Geeignet für Vorhersagen, weil eine eindeutige Lösung eine abgeleitete und hochspezifische Aussage darüber ist, wie sich die physische Realität verhält. Es erlaubt, dass nur eine Möglichkeit unter einer unendlichen Anzahl von Möglichkeiten auftreten wird. Eine eindeutige Lösung behauptet eine extreme Unwahrscheinlichkeit, so dass sie anfällig ist für Widerlegung durch Beobachtung.

Falsifizierbar, weil, wenn die Vorhersage falsch ist, die physikalische Theorie widerlegt wird.

Grafik 1 im früheren Beitrag ergab, dass die großen Unsicherheitsbereiche in den Projektionen der zukünftigen globalen Lufttemperaturen sie prädiktiv nutzlos machen. Mit anderen Worten, sie haben keine physikalische Bedeutung. Siehe auch hier (528 kB pdf) und Grafik 1 hier, eine Abhandlung jetzt gerade in Energy & Environment erschienen, mit der allgegenwärtigen Nachlässigkeit, die Konsens-Klimatologie infiziert. [1]

Dieser Beitrag zeigt, dass Nachberechnungen historisch jüngster globaler Lufttemperaturtrends ebenfalls keine physikalische Bedeutung haben.

Die folgende Grafik zeigt Daten aus Grafik SPM.5 [Link eingefügt, d.Übersetzer] des IPCC 4AR. [2] Die dunkelrote Linie im oberen Bereich zeigt die Multi-Modell-Simulation der durchschnittlichen globalen Oberflächen-Lufttemperatur des 20. Jahrhunderts. Die blauen Punkte sind die Version von 1999 der GISS-Aufzeichnungen von Land + Meer der globalen Durchschnittstemperatur. [3] Die Übereinstimmung zwischen den simulierten und beobachteten Temperaturen ist gut (Korrelation R = 0,85; p <0,0001). Der Einschub an der Spitze der Tafel zeigt den SPM.5 Multi-Modell-Durchschnitt wie im 4AR veröffentlicht. Der graue IPCC Unsicherheitsbereich über der Simulation des 20. Jahrhunderts ist eine ± Standardabweichung über die Durchschnittswerte der Multi-Modelle.

Der relativ enge Unsicherheitsbereich des IPCC impliziert, dass die Nach-Simulation erhebliches Vertrauen verdient. Die gute Übereinstimmung zwischen den beobachteten und simulierten Temperaturen des 20. Jahrhunderts liegt innerhalb der Korrelation = grundlegende Norm der Konsensklimatologie.

Der untere Teil von Grafik 1 zeigt auch die Unsicherheitsbereiche der Multi-Modell Nachberechnungen des 20. Jahrhunderts. Diese stellen den durchschnittlichen CMIP5 ± 4 Wm-2 Fortpflanzungsfehler des systematischen Cloud Forcings [theoretischer Wärmeantrieb der Wolken] dar, der sich durch die gesamte Simulation zieht. Die Fortpflanzung erfolgt durch Einsetzen des Wolkenfehlers in die bisher veröffentlichte lineare Gleichung, die die Projektionen der GCM Lufttemperatur genau emuliert; auch hier zu sehen (2,9 MB pdf). Systematische Fehlerfortpflanzung als die Summe der Quadratwurzeln.

Grafik 1. Oberes Feld (rote Linie), der Multi-Modell-Simulation der globalen Lufttemperatur des 20. Jahrhunderts (IPCC AR4 Grafik SPM.5). Kleiner Einschub: SPM.5 Multi-Modell-Nachberechnungen, Durchschnitt des 20. Jahrhunderts, wie veröffentlicht. Blaue Punkte: die GISS-Aufzeichnungen der 1999 Land + Meer globalen bodennahen Lufttemperaturaufzeichnungen. Unteres Feld: die SPM.5 Multi-Modell-Simulation des 20. Jahrhunderts mit dem Unsicherheitsbereich der Fehlerfortpflanzung, Summe der Quadratwurzel des CMIP5 durchschnittlichen ± 4 W/m² Cloud Forcing.

Die Konsens-Sensibilität wird nun fragen: Wie ist es möglich, dass im unteren Feld die Unsicherheitsbereiche so groß sind, wenn die simulierten Temperaturen offensichtlich in der Nähe der beobachteten Temperaturen sind?

Darum: Die Multi-Modell Simulationen der durchschnittlichen Nachberechnungen des 20. Jahrhunderts sind physikalisch bedeutungslos. Unsicherheitsbereiche sind die Breite der Ignoranz [Unwissenheit]. Systematische Fehler bewirken, dass je weiter das Klima in der Zeit projiziert wird, umso weniger ist über die Übereinstimmung zwischen Simulation und dem wahren physikalischen Zustand des zukünftigen Klimas bekannt. Der nächste Teil dieses Beitrags zeigt die Wahrheit dieser Diagnose.

Bild 1 von Rowlands [4] unten zeigt “perturbed physics” „gestörte Physik" [siehe unten: Nachgeschlagen] Projektionen aus dem HadCM3L Klimamodell [Hadley Centre climate model Vers. 3L]. In gestörten Physik Projektionen," wird eine einzige Modellstruktur verwendet, und Störungen werden auf unsichere physikalische Parameter innerhalb dieser Struktur angewandt …" [5] Das heißt, ein gestörtes Physikexperiment zeigt die Veränderung der Klimaprojektionen, wenn Modellparameter schrittweise variiert werden über ihre physikalische Unsicherheit.

Grafik 2. Originale Legende: ". Entwicklung der Unsicherheiten in rekonstruierten globalen Mitteltemperatur-Projektionen unter SRES A1B im HadCM3L Ensemble" Die eingebettete schwarze Linie ist die Aufzeichnung der beobachteten Oberflächen-Lufttemperatur. Die horizontalen schwarzen Linien in 1 C und 3 C, und die vertikale rote Linie zum Jahresende 2055 sind vom Autor hinzugefügt.

Das HADCML Modell ist repräsentativ für das Verhalten aller Klimamodelle, darunter die erweiterten CMIP3 und CMIP5 Versionen. Verändernde Parameter erzeugen eine Spreizung der Projektionen mit zunehmenden Abweichungen mit der Simulationszeit.

Beim SRES A1B-Szenario erhöht sich das atmosphärische CO2 jährlich. Dies bedeutet, der Energiezustand des simulierten Klimas erhöht sich systematisch über die Jahre.

Die horizontalen schwarzen Linien zeigen, dass die HADCM3L die gleichen Temperaturänderungen für mehrere (tausend) Klima Energiezustände erzeugen. Das heißt, unterschiedliche Parametersätze projizieren eine konstante 1 C Temperaturerhöhung für jeden einzelnen Jahresklima Energiezustand zwischen 1995-2050. Die wissenschaftliche Frage ist, welche der Tausende von 1 C Projektionen ist die physikalisch richtige?

Ebenfalls, abhängig von Parametersätzen, kann eine konstante 3 C Temperaturerhöhung zu jedem einzelnen Jahresklima Energiezustand zwischen 2030-2080 führen. Welcher davon ist korrekt?

Keiner der verschiedenen Parametersätze ist als physikalisch korrekter bekannt als irgendein anderer. Es gibt also keine Möglichkeit, die Temperatur Projektion auszuwählen, die physikalisch unter allen Alternativen zu bevorzugen ist.

Welche ist korrekt? Keiner weiß es.

Die gleiche Logik gilt für die vertikale rote Linie. Diese Zeile zeigt, dass die HADCM3L mehrere (tausend) Temperaturänderungen für einen einzigen Klima Energiezustand (den 2055er Status) produziert. Jeder einzelne Rowlands, et al., Jahresklima-Energiezustand zwischen 1976-2080 hat Dutzende von simulierten damit verbundenen Lufttemperaturen.

Nochmals, keiner der verschiedenen Parametersätze, der diese simulierten Temperaturen produziert, ist als physikalisch korrekter bekannt als irgendein anderer. Es gibt wieder keine Möglichkeit zu entscheiden, welche unter all den verschiedenen Möglichkeiten der projektierten Jahreslufttemperatur physikalisch korrekt ist.

Diese Beispiele zeigen, dass die HADCM3L keine eindeutige Lösung für das Problem des Klimaenergiezustands produzieren können. Kein Satz von Modellparametern ist bekannt, der besser als jeder andere Satz von Modellparametern gültig ist. Keine Projektion ist bekannt, die physikalisch korrekter (oder inkorrekter) ist als jede andere Projektion.

Das bedeutet: für jede gegebene Projektion ist vom internen Zustand des Modells nicht bekannt, dass es den zugrunde liegenden physikalischen Zustand des wahren terrestrischen Klima enthüllt. Einfacher gesagt: Das Modell kann uns auf der Ebene der Auflösung des Treibhausgas-Antriebs einfach nichts über das physikalisch reale Klima sagen.

Das gleiche gilt notwendigerweise für jeden modellierten Klima-Energiezustand, einschließlich der modellierten Energiezustände der Klimavergangenheit.

Lassen Sie uns jetzt zurückblicken auf die Multi-Modell-Nachberechnung des durchschnittlichen 20. Jahrhunderts im oberen Bereich der Grafik 1. Analog der multiplen Temperaturprojektionen in Rowlands, et al., Grafik 1, die die Ignoranz Breite der Parametersätze darstellen, auf der Einzel Nachberechnungslinie SPM.5. Das bringt die Erkenntnis, dass es eine ebenso große Anzahl von gleichberechtigten, aber divergenten Nachberechnungen geben muss.

Jedes der multiplen Modelle, das eine Nachberechnung erzeugt, hat eine große Anzahl von alternativen Parametersätzen. Keiner dieser alternativen Sätze ist als physikalisch weniger gültig bekannt als jedweder andere Satz auch immer, der eine individuelle Modell-Nachberechnung erzeugt.

Es muss eine gestörte Physik-Aufspreizung existieren, sinngemäß zu Rowlands Grafik 1, für die Projektion der 20. Jahrhundert (Nachberechnung). Die alternativen Parametersätze, alle gleichermaßen gültig, würde eine Reihe von Nachberechnungen erzeugen, die mit der Zeit auseinanderlaufen würden. Beginnend ab 1900 würden die die einzelnen gestörte Physik-Nachberechnungen immer weiter von der bekannten Aufzeichnung der Lufttemperatur bis zum Jahr 2000 auseinander laufen. Aber sie wurden alle ausgespart aus Grafik SPM.5.

Die Modelle, die die SPM.5 Nachberechnungen des 20. Jahrhunderts ausführen, enthüllen überhaupt nichts über den wahren physikalischen Zustand des terrestrischen Klima des 20. Jahrhunderts, innerhalb der Auflösung des Antriebs im 20. Jahrhundert.

Das heißt, dass die Durchschnittswerte der Multi-Modell Nachberechnung in SPM.5 keine offensichtliche physikalische Bedeutung haben. Es ist der Durchschnitt der Nachberechnungsprojektionen, die keine physikalische Bedeutung haben. Dies ist der Grund für die großen Unsicherheitsbalken, trotz der Tatsache, dass der durchschnittliche Nachberechnungs-Temperaturtrend in der Nähe des beobachteten Temperaturtrends liegt. Die Modellzustände sagen uns nichts über die Ursache der beobachteten Temperaturen. Deshalb haben die Nachberechnungen der Lufttemperaturen keine physikalische Verbindung zu den beobachteten Lufttemperaturen. Die Divergenz der gestörten Physik-Nachberechnungen erhöht sich mit der Simulationszeit, in seiner Art und Weise genau durch die immer größeren Unsicherheitsbalken abgebildet.

Diese Schlussfolgerung gilt auch dann, wenn ein gegebenes Klimamodell zufälligerweise eine Projektierung erzeugt, die dem Verhalten der beobachteten Lufttemperaturen nachläuft. Solche Korrespondenzen sind zufällig, indem der für dieses Modell gewählte Parametersatz Offset Fehler haben muss. Diesem wurden versehentlich vorteilhafte Werte innerhalb ihrer Unsicherheitsgrenzen zugewiesen. Was auch immer diese vorteilhaften Werte sind, sie sind nicht bekannt, physikalisch korrekt zu sein. Ebenso wenig kann man die zufällige Korrelation mit Beobachtungen implizieren, dass der zugrunde liegende Modell Zustand dem wahren physikalischen Zustand des Klimas entspricht.

Die physikalische Bedeutung der kürzlich veröffentlichten Studie von M. England et al., [6] in Grafik 3 veranschaulicht, ist jetzt offensichtlich. England et al. berichten, dass einige CMIP5-Projektionen sich dem „Hiatus" der Lufttemperatur seit dem Jahr 2000 annähern. [lat. hiatus „Öffnung“, „Spalt“, „Kluft“ steht für die scheinbare Pause bei der globalen Erwärmung] Sie behaupteten dann, dass diese Übereinstimmung die „Robustheit der Erwärmungsprojektionen im 21. Jahrhundert" belegt und dass es „das Vertrauen in die letzten synthetisierten Projektionen im IPCC 5AR verstärkt."

Vergleichen Sie Grafik 1 von England et al., 2015 unten, mit der Grafik 1 Rowlands et al., 2012, oben. Die horizontalen schwarzen Linien und die senkrechte grüne Linie übermitteln die gleiche Diagnose wie die sinngemäßen Linien in Rowlands, et al., Grafik 1.

Der England et al.-Satz der CMIP5 Modelle produziert konstante Lufttemperaturen für mehrere Energiezustände und mehrere Lufttemperaturen für jeden einzelnen Jahresklima-Energiezustand. Dies trotz der Tatsache, dass "alle Simulationen identischen historischen Antrieben folgen ([6], Hintergrundinformationen)." Die Abweichung der Projektionen, trotz identischer Antriebe, zeigt deutlich eine Spreizung der Modellparameterwerte.

Grafik 3. Grafik 1 von England, et al. 2015 [6] Originale Legende: Globale durchschnittliche SAT-Anomalien in Bezug auf 1880-1900 in individuellen und Multi-Modell Durchschnitts CMIP5 Simulationen. Blaue Kurven: RCP4.5 Szenario; rote Kurven: RCP8.5 Szenario. Die horizontalen schwarzen Linien bei 2 C und 3 C und die vertikale grüne Linie auf 2060 sind vom Autor hinzugefügt.

Die Diagnose ergibt sich unmittelbar aus Grafik 3: CMIP5 Klimamodelle sind unfähig, eine eindeutige Lösung für das Problem des Klima-Energiezustandes zu liefern. Sie leiden alle unter internen Parametersätzen mit breiten Unsicherheitsbereichen. Die internen Zustände der Modelle verraten nichts über die zugrunde liegenden wahren physikalischen Zustände des Klimas in Vergangenheit oder Zukunft. Keine der CMIP5-Projektionen durch England et al. aufgeführt, hat eine erkennbare physikalische Bedeutung, egal ob sie über die "Erwärmungspause" führen oder nicht.

Das bringt uns zurück zur Bedeutung der großen Unsicherheitsbalken in dem unteren Feld der Nachberechnung des 20. Jahrhunderts in obiger Grafik 1. Diese ergeben sich aus dem Fortpflanzungsfehler der CMIP5-Modell ± 4 W/m² Durchschnitts Cloud Forcing. [7, 8] Wie Parameterunsicherheit, zeigen Cloud Forcings Fehler auch an, dass Klimamodelle keine eindeutige Lösung für das Problem des Klima- Energiezustandes bieten.

Unsicherheitsbalken sind eine Unwissenheitsbreite. Sie zeigen an, wie viel Vertrauen eine Vorhersage verdient. Parameter-Unsicherheit bedeutet, die richtigen Parameterwerte sind nicht bekannt. Cloud Forcing-Fehler bedeutet, der thermische Energiefluss der durch Wolken Feedback in die Troposphäre eingeführt wird, ist nicht bekannt. Modelle mit internen systematischen Fehlern präsentieren diesen Fehler in jedem einzelnen Schritt einer Klimasimulation. Je mehr Simulationsschritte, desto weniger ist über die Übereinstimmung zwischen dem simulierten Zustand und dem physikalisch wahren Zustand bekannt.

Je mehr Simulationsschritte, desto weniger Wissen, desto größer ist die Unwissenheit über die Modell Abweichungen vom physikalischen wahren Zustand. Das ist die Botschaft der zunehmenden Breite des Unsicherheitsbereichs des propagierten Fehlers.

Jede einzelne Projektion in Englands et al. Grafik 1 unterliegt dem ± 4 W/m² CMIP5 durchschnittliche Cloud Forcing Fehler. Zu einer korrekten Anzeige der physikalischen Bedeutung sollte ein Unsicherheitsbereich wie in obiger Grafik 1 unten gehören. Außerdem, der systematische Fehler in den Projektionen der einzelnen Modelle läuft in den Multi-Modell-Durchschnitt als quadratischer Mittelwert ein.[9]. Englands et al. Multi-Modell-Durchschnittsprojektionen – die dunklen roten und blauen Linien – haben sogar eine größere Unsicherheit als jede der einzelnen Projektionen. Dies ist eine Ironie, die regelmäßig Konsens-Klimatologen unterläuft.

Also, wenn Sie eine Grafik wie in Abbildung 4 oben sehen (unten), geliefert von der US National Academy of Sciences [10], erkennen Sie, dass eine Präsentation, die vollständig wissenschaftlichen Standards entsprechen würde, wie Abbildung 4 unten aussehen würde.

Abbildung 4. Oben: Grafik 4 aus [10]; Original Legende: Modellsimulationen der Klimaänderungen des 20. Jahrhunderts entsprechen besser der beobachteten Temperatur, wenn sowohl natürliche als auch menschliche Einflüsse enthalten sind. Die schwarze Linie zeigt die beobachteten Temperaturen. Unten, das linke obere US NAS Feld, die globale 20. Jahrhundert Lufttemperatur Nachberechnung, aber jetzt mit Unsicherheits Balken von propagiert ± 4 W/m² CMIP5 durchschnittlichen Cloud Forcing Fehler.

Es macht überhaupt keinen Sinn zu behaupten, dass eine Erklärung der späteren Erwärmung des 20. Jahrhunderts, ohne Einschluss "menschlicher Einflüsse" nicht möglich ist, wenn in der Tat eine Erklärung der späteren Erwärmung des 20. Jahrhunderts in diesem Zeitraum nicht möglich ist.

Klima-Modellierer wählen Parametersätze mit Offset Fehlern, um die Lufttemperatur des 20. Jahrhunderts erfolgreich nachzuberechnen. [11] Das bedeutet, jedwede Übereinstimmung zwischen nachberechneten Temperaturen und beobachteten Temperaturen ist tendenziös – Die Korrespondenz ist absichtlich eingebaut.

Der frühere Beitrag wies nach, dass ihre eigenen Aussagen zeigen, dass Klima-Modellierer nicht als Physiker ausgebildet sind. Es zeigte sich, dass das Modellieren von Klimamodellen selbst eine freie Kunst in der Art der Kulturwissenschaft ist, jedoch mit Mathematik erarbeitet. In den Kulturwissenschaften intellektualisiert Theorie nur die Vorurteile der Theoretiker. Dieser Beitrag stellt die andere Seite der Medaille dar: der Mangel an Verständnis, der aus der mangelnden Berufsausbildung folgt.

Die Tatsache, dass England, et al., behaupten können, die "Robustheit der einundzwanzigsten Jahrhunderts Erwärmung Projektionen" und "mehr Vertrauen" in IPCC Projektionen zu erreichen, wenn ihre Modelle offensichtlich nicht in der Lage sind, den Energiezustand des Klimas zu lösen, zeigt lediglich, dass sie keinerlei Verständnis haben von der Quelle der physikalische Bedeutung. Darum erkennen sie nicht, dass ihre Modell Projektionen keine physikalische Bedeutung aufweisen. Ebenso die Redakteure und Rezensenten von Nature Climate Change, die Verwaltung der US National Academy of Sciences, und das gesamte IPCC von oben nach unten.

Die Beweise zeigen, dass diese Menschen nicht wissen, wie sich die physikalische Bedeutung aus der physikalischen Theorie ergibt. Sie wissen nicht, wie man die physikalische Bedeutung erkennt, wie man physikalische Bedeutung präsentiert, noch wie man physikalische Bedeutung zu bewerten hat.

Kurz gesagt, sie verstehen weder Vorhersage noch Widerlegung; beides ist gemeinsam die Grundlage der Wissenschaft.

Klima-Modellierer sind keine Wissenschaftler. Sie arbeiten nicht wissenschaftlich. Ihre Klimamodellprojektionen haben keine physikalische Bedeutung. Ihre Klimamodellprojektionen haben niemals irgendeine physikalische Bedeutung.

Bis auf den heutigen Tag gab es keine einzige THG-Emissionen-Klimaprojektion überhaupt, die physikalische Bedeutung hatte. Daher sind all diese strittige Debatten darüber, ob irgendein Modell, einige aus der Menge von Modellen oder ein Multi-Modell Durchschnitt, die globale Lufttemperatur nachvollziehen oder nicht, völlig sinnlos. Es spielt keine Rolle, ob eine physikalisch bedeutungslose Projektion einige Beobachtungen trifft oder nicht. Die Projektion ist ohne physikalische Bedeutung. Es hat keinen wissenschaftlichen Inhalt. Die Debatte hat keinen materiellen Inhalt. Die Diskutanten können genauso gut die Anfechter der Theologie sein.

Wenn also jemand über AGW sagt: “The science is settled!", kann man wahrheitsgemäß antworten, dass es tatsächlich „abgeschlossen“ ist, es gibt keine Wissenschaft in AGW.

Erschienen am 20. Mai 2015 auf WUWT hier

References:

1. Frank, P., Negligence, Non-Science, and Consensus Climatology. Energy & Environment, 2015. 26(3): p. 391-416.

2. IPCC, Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, S. Solomon, et al., Editors. 2007, Cambridge University: Cambridge.

3. Hansen, J., et al., GISS analysis of surface temperature change. J. Geophys. Res., 1999. 104(D24): p. 30997–31022.

4. Rowlands, D.J., et al., Broad range of 2050 warming from an observationally constrained large climate model ensemble. Nature Geosci, 2012. 5(4): p. 256-260.

5. Collins, M., et al., Climate model errors, feedbacks and forcings: a comparison of perturbed physics and multi-model ensembles. Climate Dynamics, 2011. 36(9-10): p. 1737-1766.

6. England, M.H., J.B. Kajtar, and N. Maher, Robust warming projections despite the recent hiatus. Nature Clim. Change, 2015. 5(5): p. 394-396.

7. Lauer, A. and K. Hamilton, Simulating Clouds with Global Climate Models: A Comparison of CMIP5 Results with CMIP3 and Satellite Data. J. Climate, 2013. 8. Frank, P., Propagation of Error and the Reliability of Global Air Temperature Projections; Invited Poster, in American Geophysical Union Fall Meeting. 2013: San Francisco, CA; Available from: http://meteo.lcd.lu/globalwarming/Frank/propagation_of_error_poster_AGU2013.pdf (2.9 MB pdf).

9. Taylor, B.N. and C.E. Kuyatt., Guidelines for Evaluating and Expressing the Uncertainty of NIST Measurement Results. 1994, National Institute of Standards and Technology: Washington, DC. p. 20.

10. Staudt, A., N. Huddleston, and I. Kraucunas, Understanding and Responding to Climate Change 2008, The National Academy of Sciences USA: Washington, D.C.

11. Kiehl, J.T., Twentieth century climate model response and climate sensitivity. Geophys. Res. Lett., 2007. 34(22): p. L22710. 26(11): p. 3823-3845.

Übersetzt von Andreas Demmig EIKE




Sind Klimamodellierer Wissenschaftler?

Die Analyse überträgt den Fehler der Klimamodelle durch globale Projektionen der Lufttemperatur, mit einer formalisierten Version des "passive Erwärmung Modell" (PWM) GCM-Nachbildungen, wie hier von mir berichtet. Die Ausbreitung der Fehler durch eine GCM Temperaturprojektion zeigt seine Vorhersage-Zuverlässigkeit.

Interessenten können meine Übersicht (2,9 MB pdf) konsultieren, die ich beim 2013 AGU Herbsttreffen in San Francisco präsentierte. Darin geht es um die sog. Fehlerfortpflanzung. Fehlerfortpflanzung ist ein Standardverfahren, um die Zuverlässigkeit eines experimentellen Ergebnisses, oder einer Modellvorhersage zu beurteilen. Allerdings wurden Klimamodelle noch nie so beurteilt.

Hier folgt ein Beispiel: Die folgende Abbldung zeigt, was passiert, wenn sich der mittlere, aus dem Antrieb durch Wolken resultierende Langwellen-Fehler von ± 4 W/m² in den CMIP5-Klimamodellen fortpflanzt in einem Paar von Community Climate System Model 4 (CCSM4), die die globale Lufttemperatur projizieren.

CCSM4 ist ein CMIP5-Level-Klimamodell von NCAR, mit dem Kevin Trenberth arbeitet, und wurde für den IPCC AR5 2013 verwendet, Judy Curry schrieb hier darüber.

In Feld a zeigen die Punkte die Anomalie Projektionen des CCSM4 der repräsentativen Konzentrationspfade (RCP) 6.0 (grün) und 8,5 (blau)im AR 5. Die Linien sind die PWM-Emulationen der CCSM4 Projektionen unter Verwendung der Standard-RCP Antriebe von Meinshausen. [2] Die CCSM4 RCP Antriebe dürften nicht identisch mit den Meinhausen RCP-Antrieben sein. Die schattierten Bereiche sind die Bandbreite der Projektionen in allen AR5-Modellen (siehe Abbildung TS.15 AR5). Die CCSM4 Projektionen sind im oberen Bereich.

In Feld b sind die Linien die gleichen zwei CCSM4 RCP Projektionen. Aber jetzt sind die schattierten Bereiche die Bereiche der Unsicherheit, die sich ergibt, wenn der langwellige Antriebsfehler durch Wolken von ± 4 W/m² durch die Projektionen in jährlichen Schritten propagiert werden.

Die Unsicherheit ist so groß, weil mit ± 4 W/m² der jährliche Antriebsfehler ± 114 mal größer ist als der Jahresdurchschnitt von 0.035 W/m² durch den Anstieg der Treibhausgasemissionen seit 1979. Typische Fehlerbalken für CMIP5 Klimamodellprojektionen sind ±14°C nach 100 Jahren und ± 18°C nach 150 Jahren.

Es ist damit sofort klar, dass Klimamodelle keine thermische Wirkung der Treibhausgasemissionen berechnen und uns nichts über zukünftige Lufttemperaturen sagen können. Es ist unmöglich, dass Klimamodelle jemals ein anthropogenes Treibhaussignal berechnen können; weder jetzt noch zu irgendeinem Zeitpunkt in der Vergangenheit.

Die Fehlerfortpflanzung durch eine Berechnung ist eine einfache Idee. Sie ist offensichtlich logisch. Und ist von entscheidender Bedeutung. Das wird jedem Studenten von Physik, Chemie und Ingenieurswesen eingehämmert.

Aber das entging dem Überblick jedes Einzelnen der promovierten Klima-Modellierer, die mir begegnet sind, im Gespräch oder in der Begutachtung.

Damit komme ich zum Grund, warum ich hier schreibe. Mein Manuskript wurde viermal abgelehnt; zweimal von zwei hochrangigen Klima Zeitschriften. Ich habe mich mit insgesamt zehn Bewertungen auseinander gesetzt.

Neun der zehn Bewertungen wurden eindeutig durch Klimamodellierer geschrieben, waren einheitlich negativ und verlangten Ablehnungen. Ein Kritiker war eindeutig kein Klima-Modellierer. Dieser eine empfiehlt die Veröffentlichung.

Ich hatte meinen Anteil an wissenschaftlichen Debatten. Ein paar von ihnen nicht ganz liebenswürdig. Meine Forschung (mit Kollegen) hat vier "herrschende Paradigmen" verworfen und so bin ich damit vertraut, wie Wissenschaftler sich verhalten, wenn sie herausgefordert werden. Nichts davon bereitete mich auf die Standards im Spiel in der Klimaforschung vor.

Ich starte mit der Schlussfolgerung und folge mit den entsprechenden Nachweisen: Nie, in all meinen Erfahrungen mit begutachteten Veröffentlichungen, die ich je erlebt habe, traf ich auf so viel Inkompetenz in einem Gutachter. Sehr viel Unfähigkeit ist offenbar einer bestimmten Klasse von Gutachtern gemeinsam

Dem schockierenden Mangel an Kompetenz begegnete ich mit öffentlicher Bloßstellung als ein staatsbürgerliches Gut.

Physikalische Fehleranalyse ist entscheidend für alle Wissenschaften, vor allem der experimentellen Physik. Es ist nicht übertrieben, es zentral zu nennen.

Das Ergebnis Wert ± Fehler erzählt, was einer weiß. Ist der Fehler größer als das der Wert, weiß jemand nichts. Zum Beispiel war Geoff Sherrington eloquent (wortgewandt) über die Gefahren und Verzwicktheit der Versuchsfehler.

Alle Naturwissenschaften befolgen diese Standards. Naturwissenschaftler sind an sie gebunden. Klimamodellierer machen dies nicht und begründen das auch nicht.

• Weder respektieren noch verstehen sie den Unterschied zwischen Genauigkeit und Präzision.

• Sie verstehen nichts von der Bedeutung oder des Verfahrens, Fehlerbereiche durchzurechnen.

• Sie glauben, physische Fehlerbalken bedeuten, dass das Modell selbst zwischen den extremen Unsicherheiten oszilliert. (Ich mache keine Witze.)

• Sie verstehen die Bedeutung physikalischer Fehler nicht.

• Sie verstehen die Wichtigkeit eines eindeutigen Ergebnisses nicht.

Unterm Strich? Klima-Modellierer sind keine Wissenschaftler. Klimamodellierung ist kein Zweig der Naturwissenschaft. Klima-Modellierer sind nicht in der Lage, die physikalische Zuverlässigkeit der eigenen Modelle zu bewerten.

Die folgenden Unglaublichkeiten sind eine wörtliche Gutachter-Niederschrift; kursiv zitiert. Jeder Gedanke wird so geschrieben, wie der Begutachter es im Ernst meinte. Keine Anführungszeichen sind ihres Kontextes beraubt, und es ist auch nichts abgeschnitten zu etwas anderem als es der Begutachter meinte.

Und denken Sie daran, dieses sind Argumente, die gewisse Redakteure von bestimmten hochrangigen Klima-Zeitschriften überzeugend gefunden haben.

1. Genauigkeit und Präzision

Die Unterscheidung zwischen Genauigkeit und Präzision steht im Mittelpunkt der Argumentation in diesem Manuskript und wird in der Einleitung definiert.

Die Genauigkeit des Modells ist die Differenz zwischen seinen Vorhersagen und den entsprechenden Beobachtungen.

Die Präzision des Modells ist die Varianz der Voraussagen, ohne Bezug auf Beobachtungen.

Physikalische Bewertung eines Modells erfordert ein genaues Maßsystem.

Es gibt nichts Grundlegenderes für die Wissenschaft selbst als die kritische Unterscheidung der Genauigkeit von Präzision.

Hier Beispiele was Klimamodellierer über meine Arbeiten geschrieben haben:

"Zu viel dieser Arbeit besteht aus philosophischen Tiraden (z. B. Genauigkeit vs. Präzision) …"

"Der Autor glaubt, dass eine Wahrscheinlichkeitsverteilungsfunktion (pdf) nur Informationen über Präzision liefert und es keine Informationen über die Genauigkeit geben kann. Das ist falsch und wenn das wahr wäre, könnten die Statistiker zurücktreten."

"Der beste Weg, um die Fehler der GCMs zu prüfen ist es, numerische Experimente laufen zu lassen, um die vorhergesagten Auswirkungen verschiedener Parameter zu sammeln…"

"Der Autor behauptet schlicht, dass die Unsicherheiten in den veröffentlichten Schätzungen [dh. Modellgenauigkeit – P] nicht "physikalisch gültig“ sind [dh. nicht Präzise – P] -. Eine Meinung, die nicht allgemein geteilt wird "

Zwar wird obiges wohl nicht allgemein geteilt unter den Klimamodellierern, aber immerhin

Der erste Gutachter verachtet eigentlich den Unterschied zwischen Genauigkeit und Präzision. Und dies von einem vermeintlichen Wissenschaftler.

Der Rest sind alternative Erklärungen, die Modellvarianz, dh, Präzision, = physikalische Genauigkeit.

Der Genauigkeits-Präzisions Unterschied wurde im Manuskript ausgiebig dokumentiert und anhand der einschlägigen Literatur belegt, beispielsweise [3, 4].

Die Gutachter ignorierten diese Literatur. Der letzte Gutachter tat es als bloße Behauptung ab.

Jeder Gutachter der Klimamodelle, der die Genauigkeit-Präzision-Frage ansprach, konnte es genauso nicht begreifen. Ich bin noch keinem begegnet, der es versteht.

2. Kein Verständnis der sich fortpflanzenden Fehler

„Die Behauptung des Autors, dass die veröffentlichten Projektionen keine „Fortpfanzungsfehler enthalten " ist grundlegend falsch. Es ist eindeutig so, dass das Modell-Ensemble strukturelle Fehler haben kann, die die Projektionen verzerren. "

D. h. der Prüfer nimmt an: Modell-Genauigkeit = weiter gereichter Fehler.

"Die wiederholte Aussage, dass keines der vorherigen Papers Fortpflanzungsfehler in GCM Projektionen diskutiert, ist einfach falsch (Rogelj (2013), Murphy (2007), Rowlands (2012))."

Nehmen wir uns die Beispiele der Gutachter der Reihe nach vor:

Rogelj (2013) bezieht sich auf die wirtschaftlichen Kosten der Eingrenzung. Ihre Abbildung 1b umfasst globale Temperaturprojektion und Unsicherheitsbereiche. Die Unsicherheiten, "basieren auf einem 600-köpfigen Ensemble von Temperaturprojektionen für jedes Szenario …" [5]

D. h. der Prüfer nimmt an: Modell-Genauigkeit = fort gepflanzter Fehler.

Murphy (2007) schreibt: "Um die Auswirkungen der Modellfehler zu testen, ist es notwendig, Ensembles zu konstruieren, die plausible alternative Darstellungen der Systemprozesse der Erde testen." [6]

D. h. der Prüfer nimmt an: Modell Genauigkeit = fort gepflanzter Fehler.

Rowlands (2012) schreibt: "Hier präsentieren wir die Ergebnisse eines physikalischen Ensembles mit mehreren tausend Mitgliedern vorübergehend gekoppelter Atmosphäre-Ozean-Zirkulationsmodell-Simulationen“. Und weiter stellen wir fest, dass „physikalische Ensembles einen systematischen Ansatz bieten zur Quantifizierung der Unsicherheit in Modellen des Klimasystems als Reaktion auf äußere Antriebe, wenn auch in einer bestimmten Modellstruktur "[7]

D. h. der Prüfer nimmt an: Modell Genauigkeit = fort gepflanzter Fehler.

In keinem der Beispiele der Gutachter werden fort gepflanzte Fehler überhaupt erwähnt.

Doch nicht nur das, sondern auch, dass nicht eines der Beispiele physikalische Fehler überhaupt diskutiert wird. Es ist alles Modell-Präzision.

Dieser Gutachter weiß offensichtlich nicht, was  ein Fortpflanzungsfehler überhaupt ist, was er bedeutet, oder wie er zu identifizieren ist. Dieser Begutachter weiß offenbar auch nicht, wie man physikalische Fehler als solche erkennt.

Ein anderer Gutachter:

"Beispiele für Fortpflanzung der Unsicherheit: Stainforth, D. et al, 2005:. Die Unsicherheit bei der Vorhersage der Reaktion des Klimas auf die steigende Konzentration von Treibhausgasen. Nature 433, 403-406.

"M. Collins, RE Chandler, PM Cox, JM Huthnance, J. Rougier und DB Stephenson, 2012: Quantifizierung des künftigen Klimawandel. Nature Climate Change, 2, 403-409.

Schauen wir mal nach:

Stainforth (2005) stellt drei Grafiken vor; jede einzelne von ihnen zeigt Fehler als Projektions-Variante. [8]

Hier ist Grafik 1

Ursprüngliche Legende der Abbildung: "Grafik 1: Häufigkeitsverteilungen von T g (Farben zeigen Dichte von Trajektorien pro 0,1 K Intervall) durch die drei Phasen der Simulation. a) Häufigkeitsverteilung der 2017 verschiedene unabhängige Simulationen. b) Häufigkeitsverteilung der 414 Modellvarianten. In B wird T g im Verhältnis zum Wert am Ende der Kalibrierungsphase gezeigt, und wenn den Anfangszustand zeigende Ensemble-Mitglieder vorhanden sind, wurde ihr Mittelwert für jeden Zeitpunkt entnommen. "

Hier ist, was sie über die Unsicherheit sagen: "Wir haben ein großes Ensemble (ein Ensemble von Ensembles) durchgeführt, um die Unsicherheit in einem hypermodernen Modell zu erkunden. Die Unsicherheit in der Modellantwort wird mit einem physikalischen Ensemble untersucht, in dem Modellparameter um alternative Werte gesetzt werden, letztere werden von Experten in der relevanten Parametrierung der Systeme als plausibel betrachtet. "

Da ist es: Unsicherheit wird direkt als Modell Variabilität vertreten (Dichte von Trajektorien; physikalisches Ensemble).

Die übrigen Grafiken in Stainforth (2005) leiten sich von dieser ab. Fortpflanzungsfehler werden nirgends angezeigt und werden nirgends erwähnt.

Vermutung des Begutachters: Modellgenauigkeit = sich fortpflanzender Fehler

Collins (2012) stellt fest, dass Anpassung von Modellparametern, bis die Projektionen sich den Beobachtungen nähern, ausreichen, um zu hoffen, dass ein Modell physikalische Gültigkeit hat. Fehlerfortpflanzung wird nie erwähnt. Collins‘ Abbildung 3 zeigt physikalische Unsicherheit als Modell-Variabilität bzgl. eines Ensemble-Mittelwertes. [9] Hier ist es:

Abbildung 3

Original-Legende: "Grafik 3: Globale Temperaturanomalien; a) Globale mittlere Temperaturanomalien, berechnet mittels eines EBM, getrieben durch historische Veränderungen in gut durchmischten Treibhausgasen und zukünftige Steigerungen nach dem A1B-Szenario aus dem IPCC-Sonderbericht zu Emissionsszenarien.

Die verschiedenen Kurven werden durch Variation der Rückkopplungsparameter (Klimasensitivität) in dem EBM erzeugt. b, Änderungen der globalen Durchschnittstemperatur in 2050 gegenüber globaler Durchschnittstemperatur im Jahr 2000, … Das Histogramm auf der x-Achse stellt eine Schätzung der Erwärmung des zwanzigsten Jahrhunderts dar, die den Treibhausgasen zuzurechnenden sind. Das Histogramm auf der y-Achse zeigt die Beziehung zwischen der Vergangenheit und der Zukunft, um eine Projektion von zukünftigen Änderungen zu erhalten. "

Collins 2012, Teil A: Modell Variabilität selbst; Teil b: Modellvariabilität (Präzision), als physikalische Unsicherheit (Genauigkeit) dargestellt. Fortpflanzungsfehler? Nirgends zu finden.

Also, noch einmal, nicht einer diese von den Begutachtern gebrachten Beispiele von Fortpflanzungsfehlern schließt tatsächlich irgendeinen Fortpflanzungsfehler ein, noch wird ein solcher erwähnt.

Es ist sicher anzunehmen, dass diese Klima-Modellierer überhaupt kein Konzept haben zu Fehlerfortpflanzung. Sie haben anscheinend kein Konzept von physikalischen Fehlern überhaupt.

Jedes Mal, wenn Begutachter einen Fortpflanzungsfehler ansprechen, zeigen sie eine völlige Unkenntnis davon.

3. Fehlerbalken bedeuten Modell Oszillation – wobei Klimamodellierer die Unwissenheit von Neulingen offenbaren.

„Zu sagen, dass dieser Fehler darauf hinweist, dass die Temperaturen als Reaktion auf CO2 enorm abkühlen könnten, zeigt, dass ihr Modell unphysikalisch ist. "

„Diese Analyse würde voraussagen, dass die Modelle zwischen Schneeball und Runaway-Treibhauseffekt wild hin und her schwingen.“

"In der Tat, falls wir über Jahrtausende eine solche Fehlerfortpflanzung finden, wird die Unsicherheit schließlich größer sein als die absolute Temperatur auf der Erde, eine klare Absurdität."

"Ein völlig gleichwertiges Argument [zu den Fehlerbalken] wäre es zu sagen, dass es (genau) einen 2K Bereich von vorindustriellen absoluten Temperaturen in GCMs gibt und deshalb die globale Mitteltemperatur jederzeit um 2K springen kann – das ist eindeutig Unsinn … "

Verstehen Sie das? Diese Klima-Modellierer denken, dass die "±" Fehlerbalken implizieren, dass das Modell selbst schwingt (und fähig ist zu springen) zwischen den Extremen der Fehlerbalken.

Oder das die Balken der propagierten Fehler selbst die physikalische Temperatur anzeigen.

Kein Student im zweiten Jahr der Physik, Chemie oder Technik würde solche ignoranten Fehler machen.

Aber die promovierten Klima-Modellierer machen diese Fehler ausnahmslos. Ein Zuschauer (Klima-Modellierer) tat es mündlich, während Fragen & Antworten nach meinem Seminar zu dieser Analyse.

Das Schlimmste ist, dass sowohl das Manuskript als auch das unterstützende Dokument erklärt, dass Fehlerbalken eine Ignoranz der Bandbreite darstellen. Nicht einer dieser promovierten Rezensenten gab Hinweise darauf, irgendetwas davon gelesen zu haben.

[4. im Original nicht vorhanden]

5. Einzigartiges Ergebnis – ein unter Klimamodellierern unbekanntes Konzept

Verstehen Klimamodellierer die Bedeutung und Wichtigkeit eines einzigartigen Ergebnisses?

Auf der Suche nach dem letzten glazialen Maximum, produzieren die gleichen Modelle einen globalen Wechsel zwischen 4 und 6 Grad kälter als der vorindustrielle Wert. Wären die Schlussfolgerungen dieser Studie richtig, würde diese Spanne (weil sie so viel kleiner als die geschätzten Fehler von +/- 15 ° C sind), fast ein Wunder sein. "

In Wirklichkeit sind Klimamodelle viele Jahrhunderte lange Zeitskalen, die gegen die Paläoklima-Daten getestet werden (siehe die letzten PMIP Vergleichsprüfungen). Sie simulieren recht gut kleine Klimaschwankungen des Holozäns und sogar die Glazial-Interglazial-Übergänge. Doch dies ist mit den behaupteten Ergebnissen völlig unvereinbar.

"Das offensichtlichste Zeichen dafür, dass die in diesem Manuskript vorgestellten Fehlerrahmen und Emulationsrahmen falsch sind ist, dass die verschiedenen GCMs mit bekannten unterschiedlichen Bewölkungsvorgaben (IPCC) sehr ähnliche Ergebnisse produzieren, wenn auch mittels einer Spreizung der Klimasensitivität."

Schauen wir uns an, woher diese Begutachter ein solches Vertrauen bekommen. Hier ist ein Beispiel von Rowlands (2012) dessen, was die Modelle erzeugen. [7]

Original-Legende: ". Grafik 1 | Evolution von Unsicherheiten in rekonstruierten globalen Mitteltemperatur-Projektionen unter SRES A1B im HadCM3L Ensemble" [7]

Die variable schwarze Linie in der Mitte der Gruppe repräsentiert die beobachtete Lufttemperatur. Ich fügte die horizontalen schwarzen Linien mit 1 K und K 3 hinzu sowie die vertikale rote Linie am Jahresende 2055. Ein Teil der roten Linie ist in der ursprünglichen Gestalt, genauso wie der Präzisions-Unsicherheitsbalken.

Diese Abbildung zeigt Tausende von gestörten [perturbed] Physik-Simulationen der globalen Lufttemperaturen. „Gestörte Physik" bedeutet, dass Modellparameter über ihren Bereich der physikalischen Unsicherheit variiert werden. Jedes Glied des Ensembles hat das gleiche Gewicht. Keines davon ist physikalisch korrekter als irgendeins der anderen.

Der physikalische Energie-Zustand des simulierten Klimas variiert systematisch über die Jahre hinweg. Die horizontalen schwarzen Linien zeigen, dass mehrere physikalische Energiezustände die gleiche simulierte 1 K oder 3 K Temperatur-Anomalie herstellen.

Die vertikale rote Linie zum Jahresende 2055 zeigt, dass der gleiche physikalische Energie-Zustand (Jahr 2055 Zustand) mehrere simulierte Lufttemperaturen erzeugt.

Diese wandernden Projektionen stellen keine natürliche Variabilität dar. Sie zeigen, wie Parametergrößen über ihre Unsicherheitsbereiche die Temperatur-Simulationen des HadCM3L Modell selbst variieren.

Die Abbildung belegt vollständig, dass Klimamodelle unfähig sind, eine einzige Lösung für jeden Klima-Energie-Zustand zu produzieren.

Das bedeutet, dass den Beobachtungen ähnliche Simulationen nicht als akkurat bekannt sind, den wahren physikalischen Energie-Zustand des Klimas genau darzustellen. Sie haben zufällige, opportunistisch wunderbare off-setting Fehler.

Das bedeutet wiederum, die Projektionen sind nicht aussagekräftig. Sie sagen uns nichts über mögliche zukünftige Lufttemperaturen.

Es gibt keine Möglichkeit zu wissen, welche der Simulationen wirklich die korrekte zugrunde liegende Physik darstellt. Oder ob überhaupt eine von ihnen das tut. Und selbst wenn zufälligerweise eine von ihnen mit dem zukünftigen Verhalten des Klimas übereinstimmt, gibt es keine Möglichkeit festzustellen und damit zu wissen, dass es kein regelloser Zufall war.

Modelle mit großen Parameterunsicherheiten können keine einzigartige Vorhersage produzieren. Die selbstbewussten Erklärungen der Gutachter weisen nach, dass sie kein Verständnis dafür haben oder warum es wichtig ist.

Nehmen wir nun an, dass Rowlands, et al. die Parameter des HADCM3L Modell so zurecht gebogen haben, dass es die beobachtete Lufttemperatur präzise reproduziert.

Würde es bedeuten, dass HADCM3L plötzlich die Möglichkeit erreicht, eine eindeutige Lösung für den Klima-Energiezustand zu produzieren?

Würde es bedeuten, das HADCM3L plötzlich in der Lage ist, die korrekte zugrunde liegende Physik zu reproduzieren?

Offensichtlich nicht.

Optimierte Parameter verschleiern lediglich die Unsicherheit. Sie verstecken die Unzuverlässigkeit des Modells. Es ist kein Maß für die Genauigkeit, dass getunte Modelle zu ähnlichen Projektionen kommen. Oder das ihre Projektionen nah an Beobachtungen sind. Frisieren der Parameter setzt nur die Off-Sets-Fehler [?] und erzeugt eine falsche und tendenziöse Präzision.

Jede einzelne der jüngsten Holozän- oder Glazial-Ära Temperatur-Nachhersagen ist ebenfalls nicht eindeutig. Keine von ihnen bestätigt die Genauigkeit eines Klimamodells. Keine von ihnen sagt uns irgendetwas über irgendeinen physikalisch realen globalen Klimazustand. Nicht ein einziger der Begutachter der Klima-Modellierer lässt ein Verständnis dieser Grundnorm der Wissenschaft erkennen.

Jeder physikalischer Wissenschaftler würde (sollte) das wissen. Die Klima-Modellierer -Begutachter wissen es durchweg nicht.

6. Eine besonders unerhörtes Beispiel in dem die Selbstgefälligen mit ihren eigenen Waffen geschlagen werden.

Abschließend möchte ich ein letztes Beispiel erzählen. Das Essay ist bereits sehr lang und ein weiteres Beispiel mag des Guten zu viel sein.

Aber ich habe beschlossen, dass es besser ist die Ermüdung des Lesers zu riskieren, als dass etwas unter Klimamodellierern als analytisches Denken durchgeht, und dies nicht öffentlich zu machen. Entschuldigt bitte, wenn es langweilig wird.

Diese Letzte zeigt wirklich das miserable Verständnis der Fehleranalyse insgesamt in den Reihen der Klima-Modellierer. Los geht’s:

Ich werde (wieder) ein einfaches Beispiel dafür geben, warum diese ganze Übung eine Verschwendung von Zeit ist. Nehmen Sie ein einfaches Energiebilanzmodell, Solar in, Langwelle raus, einschichtige Atmosphäre, Albedo und Treibhauseffekt. dh sigma Ts ^ 4 = S (1-a) / (1 -lambda / 2), dabei ist Lambda die atmosphärische Emissivität, a die Albedo (0,7), S der einfallende Sonnenfluss (340 W / m ^ 2), sigma ist der SB Koeffizienten und Ts die Oberflächentemperatur (288K).

Die Empfindlichkeit des Modells zu einer Zunahme des Lambda von 0,02 (gibt 4 W / m2 Antrieb) beträgt 1,19 ° C (keine Rückwirkungen auf Lambda oder a angenommen). Die Empfindlichkeit eines fehlerhaften Modells mit einem Fehler in der Albedo von 0,012 (gibt 4 W / m ^ 2 SW TOA Flussfehler) zu exakt dem gleichen Antrieb gibt 1,18 ° C.

Dies ist der Unterschied, dass ein systematischer Fehler die Empfindlichkeit um zwei Größenordnungen kleiner macht, als die Wirkung der Störung. Das der Autor den Antwortfehler auf die mittlere Abweichung auch in einem solchen einfachen Modell gleich setzt, ist um Größenordnungen falsch. Es ist genau das gleiche mit dem GCM Emulator“.

Die „Differenz", von der der Begutachter spricht, beträgt 1,19 C – 1,18 C = 0,01 C. Der Begutachter setzt voraus, dass diese 0,01 C die gesamte Unsicherheit ist, die das Modell aufgrund eines 4 W/m2 Offset-Fehlers in Albedo oder Emission erzeugt.

Aber so ist es nicht.

Der erste Fehler des Begutachters: Wenn 1,19C oder 1,18C durch einen W/m2 Offset-Antriebsfehler produziert werden, dann sind die 1,19C oder 1,18C Offset Temperaturfehler

Zweiter Fehler: der Begutachter kennt die Differenz zwischen einem Offset Fehler (Statistik) und der Temperatur (eine thermodynamische Größe) nicht. Des Begutachters „Sensitivität“ ist tatsächlich „Fehler“.

Dritter Fehler: Der Begutachter setzt eine 4 W/m2 energetische Störung mit einer ± 4 W / m2 physikalischen Fehlerstatistik gleich.

Dieser Fehler zeigt übrigens erneut, dass der Begutachter nicht den Unterschied kennt zwischen einer physikalischen Größe und eine Fehlerstatistik.

Vierter Fehler: Der Begutachter vergleicht die einstufige "Empfindlichkeits"-Berechnung mit einem mehrstufigen Fortpflanzungsfehler.

Fünfter Fehler: Dem Begutachter ist die Allgemeingültigkeit offenbar unbekannt, dass physikalische Unbestimmtheiten Ausdruck eines Unsicherheitsbereiches sind; das heißt, "±" über einen gewissen Wert. Unsicherheiten sind nie konstante Offsets.

Hilfssatz zu fünf: der Begutachter weiß anscheinend auch nicht, dass der richtige Weg die Unsicherheiten auszudrücken ± Lambda oder ± Albedo ist.

Aber dann, ungünstig für den Gutachter, wenn die Unsicherheiten korrekt benannt sind, ist die vorgeschriebene Unsicherheit ± 4 W / m2 im Antrieb. Die Unsicherheit ist dann offensichtlich eine Fehlerstatistik und nicht eine energetische Verballhornung.

Für diejenigen, die von diesem Unterschied verwirrt sind: keine energetische Störung kann gleichzeitig positiv und negativ sein. Erde an Modellierer, over. . .

Das Beispiel des Begutachters wird mit der richtigen ± statistischen Schreibweise so ausgedrückt, 1,19 C und 1,18 C werden dann ± 1,19 C und ± 1,18 ° C

Und das sind die Unsicherheiten für eine einstufige Berechnung. Sie sind in der gleichen Liga wie die einstufigen Unsicherheiten, die im Manuskript vorgestellt sind.

Sobald des Rezensenten Antriebe der Unsicherheiten in eine mehrstufigen lineare Extrapolation tritt, d. h. eine GCM-Projektion, würden die ± 1,19 C und ± 1,18 C-Unsicherheiten bei jedem Schritt erscheinen und müssten dann durch die einzelnen Schritte als Summe der Wurzel ihrer Quadrate ("Root Sum Squares") ausgewiesen werden. [3, 10]

Nach 100 Schritten (einer hundertjährigen Projektion) mit ± 1,18 C pro Schritt wird der Fehler zu ± 11,8 C.

Also, richtig gemacht, validiert des Gutachters eigene Analyse das Manuskript so, dass der Gutachter es als "Zeitverschwendung“ ansieht. Guter Job.

Der Gutachter

● Kennt nicht die Bedeutung der physikalischen Unsicherheit

● Unterscheidet nicht zwischen Modellantwort (Empfindlichkeit) und Modellfehler. Sein Fehler ist, nicht zu wissen, um zwischen einer energetischen Störung und einer physikalischen Fehlerstatistik zu unterscheiden.

● er weiß nicht, wie man eine physikalische Unsicherheit ausdrückt…

● …und kennt nicht den Unterschied zwischen einem einstufigen Fehler und einem Fortpflanzungsfehler.

Daher noch mal, Klimamodellierer:

● Weder respektieren sie, noch verstehen sie, den Unterschied zwischen Genauigkeit und Präzision.

● Sie sind völlig unwissend über Fortpflanzungsfehler

● Sie denken, die ± Balken der Fortpflanzungsfehler bedeuten, das Modell selbst schwingt.

● Sie haben kein Verständnis für physikalische Fehler.

● Sie haben kein Verständnis für die Wichtigkeit oder die Bedeutung eines eindeutigen Ergebnisses.

Keinem aktiven physikalischen Wissenschaftler würde diese Menge an einzelnen Fehler unterlaufen, geschweige denn alle. Aber Klimamodellierer machen diese Fehler.

Und diese lange Essay erschöpft nicht die Vielzahl der wirklich grundlegende Fehler im wissenschaftlichen Denken dieser Begutachter.

Anscheinend ist solches Denken sehr überzeugend für bestimmte Herausgeber von Journalen.

Angesichts all dessen kann man verstehen, warum die Klimawissenschaft in diesen traurigen Zustand gesunken ist. Ohne Einschränkung durch die beobachtbare Physik ist sie überall auf der Suche nach Bedeutungen, wo immer man hin will, und die Gewährung von Nachsicht in der Wissenschaft auf die durchgeknallte akademische Theoriebildung die in den Geisteswissenschaften so weit verbreitet ist. [11]

Wenn bloße interne Genauigkeit und verschwommene Axiomatik ein Feld regieren, erhalten Begriffe wie „im Einklang mit, impliziert, müsste, könnte, möglich, wahrscheinlich“, definitives Gewicht. Alle sind frei verfügbar und auf ziemlich alles, was einer an Fantasie hat, anwendbar. Konstruieren Sie einfach Ihre Argumentation, um übereinstimmend mit Konsens zu sein. Es ist bekannt, dass das regelmäßig in Klimastudien geschieht, mit spezieller Erwähnung hier, hier, und hier.

Man erkennt eine Erklärung dafür, warum politische Sentimentalisten wie Naomi Oreskes und Naomi Klein den Klima-Alarm so gemütlich finden. Es ist so sehr opportun für Polemik und geistlose Gerechtigkeit. (Was ist überhaupt mit Menschen namens Naomi? Gibt es hartgesottene skeptische Naomis draußen? Posten Sie hier. Lassen Sie es uns wissen.)

In ihrer Ablehnung der Genauigkeit und Fixierung auf Präzision haben Klima-Modellierer ihr Gebiet vor der rücksichtslosen Gleichgültigkeit der physischen Beweise versiegelt und dadurch das kritische Urteil der Wissenschaft kurzgeschlossen.

Klimamodellierung hat die Wissenschaft verlassen. Es wurde freie Kunst, ausgedrückt in Mathematik. Nennen Sie es eine schleifenförmige Gleichung.

Die unausweichliche Schlussfolgerung ist, dass Klima-Modellierer keine Wissenschaftler sind. Sie denken nicht wie Wissenschaftler, und sie machen keine Wissenschaft. Sie haben keine Ahnung, wie man die physikalische Gültigkeit ihrer eigenen Modelle zu bewerten hat.

Sie sollten nirgends in der Nähe wichtiger Diskussionen oder Entscheidungen zur wissenschaftsbasierten sozialen oder zivilen Politik sein.

Erschienen auf WUWT am 24. Februar, 2015

References:

1. Lauer, A. and K. Hamilton, Simulating Clouds with Global Climate Models: A Comparison of CMIP5 Results with CMIP3 and Satellite Data. J. Climate, 2013. 26(11): p. 3823-3845.

2. Meinshausen, M., et al., The RCP greenhouse gas concentrations and their extensions from 1765 to 2300. Climatic Change, 2011. 109(1-2): p. 213-241.

The PWM coefficients for the CCSM4 emulations were: RCP 6.0 fCO = 0.644, a = 22.76 C; RCP 8.5, fCO = 0.651, a = 23.10 C.

3. JCGM, Evaluation of measurement data — Guide to the expression of uncertainty in measurement. 100:2008, Bureau International des Poids et Mesures: Sevres, France.

4. Roy, C.J. and W.L. Oberkampf, A comprehensive framework for verification, validation, and uncertainty quantification in scientific computing. Comput. Methods Appl. Mech. Engineer., 2011. 200(25-28): p. 2131-2144.

5. Rogelj, J., et al., Probabilistic cost estimates for climate change mitigation. Nature, 2013. 493(7430): p. 79-83.

6. Murphy, J.M., et al., A methodology for probabilistic predictions of regional climate change from perturbed physics ensembles. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 2007. 365(1857): p. 1993-2028.

7. Rowlands, D.J., et al., Broad range of 2050 warming from an observationally constrained large climate model ensemble. Nature Geosci, 2012. 5(4): p. 256-260.

8. Stainforth, D.A., et al., Uncertainty in predictions of the climate response to rising levels of greenhouse gases. Nature, 2005. 433(7024): p. 403-406.

9. Collins, M., et al., Quantifying future climate change. Nature Clim. Change, 2012. 2(6): p. 403-409.

10. Bevington, P.R. and D.K. Robinson, Data Reduction and Error Analysis for the Physical Sciences. 3rd ed. 2003, Boston: McGraw-Hill. 320.

11. Gross, P.R. and N. Levitt, Higher Superstition: The Academic Left and its Quarrels with Science. 1994, Baltimore, MD: Johns Hopkins University. May be the most intellectually enjoyable book, ever.

Link: http://wattsupwiththat.com/2015/02/24/are-climate-modelers-scientists/

Übersetzt für das EIKE von Andreas Demmig und Chris Frey

Über den Autor 

Pat Frank ist promovierter Chemiker und Spezialist in der Spektralanalyse. Er ist Verfasser mehrerer grundlegender paper über Fehlerfortpflanzung in meteorologischen Messsystemen z.B. dem hier. EIKE hat mehrfach über seine Erfahrungen berichtet. z.B. hier




Jim Hansens 99%-Sicherheit zur globalen Erwärmung ist nicht haltbar

Der Hintergrund ist wohlbekannt. Senator Tim Wirth hat die Zusammenkunft des Komitees so arrangiert, dass sie auf den statistisch heißesten Tag des Sommers fiel. Und die Rekordtemperatur von 98° F [ca. 37°C] an jenem Tag hat seine Hoffnungen voll erfüllt. Senator Wirth hat auch dafür gesorgt, dass die Fenster des Tagungsraumes während der Nacht zuvor offen geblieben waren, so dass die Air Condition wirkungslos war. Der Raum kochte. Jim Hansen war ein Hit. Es war ein glatter Sieg von Zynismus und äußerer Umstände über Zweifel und Wissenschaft.

1. Die 99%-Lösung: Der Gehalt von Jim Hansens Anhörung an jenem Tag ist in dem kleinen Anhang am Ende dieses Beitrags erhalten [wird aber hier nur im Original übernommen, da es bei der Übersetzung dieses Beitrags um den Tatbestand als Solchen geht. Anm. d. Übers.]; siehe (1) mit der gesamten Aufzeichnung. Aber die Essenz von 99% befindet sich in der nächsten Graphik, der GISS-Temperaturaufzeichnung 1987+, zusammen mit lächerlich geringen Fehlerbalken (1sigma = ±0.035°C oder ±0.025°C).

Original-Bildunterschrift: Änderung der globalen Lufttemperatur im vergangenen Jahrhundert, wobei der Nullpunkt definiert ist als der Mittelwert der Jahre 1951 bis 1980 (95% Vertrauensgrenze)… Dies ist die Folge der unvollständigen räumlichen Verteilung der Messstationen, vor allem über den Ozeanen. Der Punkt für das Jahr 1988 vergleicht die Temperatur von Januar bis Mai mit dem Mittelwert der gleichen 5 Monate von 1951 bis 1980“.

Dies entspricht ziemlich genau Jim Hansens Abbildung 1, die er dem Senatskomitee präsentierte. Ich habe den grünen Kasten hinzugefügt, der die ±0.13°C 1sigma-Schwankungen der globalen Temperatur zeigt während der Referenzperiode von 1951 bis 1980.

Die Aufzeichnung von 1987 war Abbildung 1 in Hansen und Lebedeff (April 1988), etwa drei Monate vor seiner Anhörung (2) und Abbildung 6 in Hansen und Lebedeff (1987) (3)

In seinen Ausführungen hat Jim Hansen impliziert, dass diese Schwankungsbreite von 1sigma = ±0.13°C die Gesamtsumme der natürlichen Klimavariabilität war. Der Anstieg der Lufttemperatur bis Mitte 1988 von fast 0,4°C lag dann 3 sigma jenseits des Natürlichen. Offensichtlich machte dies den Trend zu 99% unnatürlich.

Das ist eine ganze Menge Schaum. Glauben Sie nicht? Schauen sie auf seine Aussagen im Anhang.

Irgendwie wurde der Trend der Jahre 1884 und 1937 sowohl von Hansen als auch den Senatoren übersehen. Genau vor ihren Augen lag eine Zunahme der globalen Lufttemperatur von 0,84°C. Das wäre mehr als 6 sigma jenseits des Natürlichen. In Jim Hansens Welt macht dies den Trend zu über 99,99966% unnatürlich. Hmmm … was könnte der Grund dafür sein?

Was ist mit der wahrscheinlichen Zunahme der globalen Lufttemperatur von ~1°C, unnatürliches 7,7 sigma, zwischen der Kleinen Eiszeit um 1650 und dem Jahr 1900? (4) Das können die Menschen nicht gewesen sein. Klima-Gremlins vielleicht?

Und jene Dansgaard-Oeschger und Heinrich-Ereignisse mit ihren Trends einer Änderung von mehreren Grad Celsius pro Jahrzehnt. Auch unnatürlich?

Oder sind diese vielleicht niemals aufgetreten? Das wäre doch eine begeisternde neue Herausforderung für die AGW-Stallburschen: ,wir müssen die Dansgaard-Oeschger und Heinrich-Ereignisse loswerden!‘

2. Eintritt der physikalischen Kausalität: Aber die Anhörung war hier nicht zu Ende. Als Nächstes präsentierte Jim Hansen die Szenarien A, B und C der globalen Erwärmung nach seinem GISS-Modell II, um zu beweisen, dass die jüngsten 99% unnatürlicher Erwärmung durch CO2-Emissionen verursacht worden ist. Schließlich bietet die Physik Kausalität. Die nächste Abbildung zeigt, was die Senatoren gesehen haben und was das JGR [= Journal of Geophysical Research] veröffentlicht hat, nach der Begutachtung und so weiter.

Das Komitee sah und das begutachtete JGR veröffentlichte Vorhersagen ohne Fehlerbalken. Ohne dem JGR zu nahe treten zu wollen – aber das macht die Vorhersagen physikalisch bedeutungslos. Sie können keinerlei physikalische Kausalität andeuten und tun es auch nicht; überhaupt keine.

Falls man aber weitergeht und wissenschaftliche Glaubwürdigkeit einführt, indem man physikalisch gültige Fehlerbalken einzeichnet (± 8,9°C im Jahre 1988), zeigen sich die Szenarien selbst – nun – physikalisch bedeutungslos (6). Auch hier gibt es also keine Rettung.

Aus der Legende der Anhörung: Jährliche mittlere globale Lufttemperatur, berechnet für Spurengas-Szenarien A, B und C, beschrieben in Referenz 1 (Referenz (5) unten) … der schattierte Bereich ist eine Schätzung der globalen Temperatur während der Höhepunkte der gegenwärtigen und früherer Zwischeneiszeit-Perioden, jeweils vor etwa 6000 und 120.000 Jahren. …

Das also ist Jim Hansens 99%-Sicherheit: Für seine Zwecke ist die gesamte 1 sigma-Bandbreite der natürlichen globalen Variabilität der Lufttemperatur ±0,13°C. Die Tatsache, dass es keinerlei physikalische Rechtfertigung für seine Wahl gibt, schien niemanden gestört zu haben, einschließlich eines Ph.D.-Astrophysikers. Allerdings ist es eine sehr zupass kommende Statistik.

Jim Hansens physikalische Kausalität? Sie beruht auf Erwärmungs-Szenarien mit nicht genannter Genauigkeit, nicht ausgeführten Begründungen und fast mit Sicherheit auf einer nicht berechneten Genauigkeit. Sie sind berechnet mittels eines Modells, dass keiner einzigen veröffentlichten kritischen physikalischen Analyse standhält – bis auf den heutigen Tag.

Meiner Ansicht nach ist seine Analyse schrecklich inkompetent. Aber sie setzte den Standard der Konsens-Klimatologie, der man bis auf den heutigen Tag folgt.

Bis hier übersetzt von Chris Frey EIKE

Anhang [hier nur im Original, Begründung siehe oben! Erstens gibt es derzeit immer mehr interessante Beiträge, die übersetzenswert sind, und zweitens fällt es meinen Fingern schwer, den Sermon von Hansen zu übersetzen. Anm. d. Übers.]

Jim Hansen’s oral proof testimony to the committee: “[The] global temperature … is the highest of the period of record (then about 100 years). The rate of warming over the past 25 years … is the highest on record. 1988 will be the warmest year on the record.

Causal association requires first that the warming be larger than natural climate variability and, second, that the magnitude and naturel of the warming be consistent with the greenhouse mechanism.

The warming is almost 0.4 degrees Centigrade by 1987 relative to climatology, which is defined as the 30 year mean, 1950 to 1980 and, in fact, the warming is more than 0.4 degrees Centigrade in 1988. The probability of a chance warming of that magnitude is about 1 percent. So, with 99 percent confidence we can state that the warming during this time period is a real warming trend.

The main point to be made here is that the expected global warming [Jim Hansen’s Model II Scenarios A, B, and C – P] is of the same magnitude as the observed warming. Since there is only a 1 percent chance of an accidental warming of this magnitude, the agreement with the expected greenhouse effect is of considerable significance.” [1]

Jim Hansen’s written proof testimony to the committee: “The present observed global warming is close to 0.4 oC, relative to … the thirty year (1951-1980) mean. A warming of 0.4 oC is three times larger than the standard deviation of annual mean temperature in the 30-year climatology. The standard deviation of 0.13 oC is a typical amount by which the global temperature fluctuates annually about its 30 year mean; the probability of a chance warming of three standard deviation is about 1%. Thus we can state with about 99% confidence that current temperatures represent a real warming trend rather than a chance fluctuation of the 30 year period.” [1]

And, just to lock it in, here’s what the GRL authoritatively peer-reviewed Hansen and Lebedeff say about the trend: “What is the significance of recent global warming? The standard deviation of annual-mean global-mean temperature about the 30-year mean is 0.13 oC for the period 1951-1980. Thus the 1987 global temperature of 0.33 oC, relative to the 1951-1980 climatology, is a warming of between 2s and 3s. If a warming of 3s is reached, it will represent a trend significant at the 99% confidence level. However, causal connection of the warming with the greenhouse effect requires examination of the expected climate system response to a slowly evolving climate forcing, a subject beyond the scope of this paper.” [2]

The “expected climate response” was Hansen’s Model II A, B, and C scenarios, both published, [5] and presented before the committee, [1] without any error bars.

From the testimony scenario Figure legend: “[Scenario A assumes continued growth rates of trace gas emission rates typical of the past 20 years, i.e., about 1.5 % yr-1 emission growth; scenario B has emission rates approximately fixed at current rate; scenario C drastically reduces trace gas emissions between 1990 and 2000].”

[1s, (2s, 3s, etc) changed to 1sigma for clarity.  ]

References:

1. Hansen, J. Statement of Dr. James Hansen, Director, NASA Goddard Institute for Space Studies. 1988 [Last accessed: 11 August 2014; Testimony before the US Senate Committee on Energy and Natural Resources: The Greenhouse Effect: Impacts on Current Global Temperature and Regional Heat Waves]. Available from: http://image.guardian.co.uk/sys-files/Environment/documents/2008/06/23/ClimateChangeHearing1988.pdf.

2. Hansen, J. and S. Lebedeff, Global Surface Air Temperatures: Update through 1987. Geophys. Res. Lett., 1988. 15(4): p. 323-326.

3. Hansen, J. and S. Lebedeff, Global Trends of Measured Surface Air Temperature. J. Geophys. Res., 1987. 92(D11): p. 13345-13372.

4. Keigwin, L. Bermuda Rise Box Core Data. IGBP PAGES/World Data Center-A for Paleoclimatology Data Contribution Series # 96-030. 1996 [Last accessed: 14 September 2007; Available from: ftp://ftp.ncdc.noaa.gov/pub/data/paleo/paleocean/by_contributor/keigwin1996/.

5. Hansen, J., et al., Global Climate Changes as Forecast by Goddard Institute for Space Studies Three‐Dimensional Model. J. Geophys. Res., 1988. 93(D8): p. 9341-9364.

6. Frank, P., Propagation of Error and the Reliability of Global Air Temperature Projections; Invited Poster, in American Geophysical Union Fall Meeting. 2013: San Francisco, CA; Available from: http://meteo.lcd.lu/globalwarming/Frank/propagation_of_error_poster_AGU2013.pdf (2.9 MB pdf).

Link: http://wattsupwiththat.com/2015/02/18/jim-hansens-99-surety-on-global-warming-doesnt-hold-up/