1

Klimawandel … wen interessiert das?

Die ans Tageslicht gekommene Wahrheit ist, dass von den 16 Punkten, die den Menschen zur Auswahl vorgelegt worden waren zu der Frage, was die derzeit wichtigsten Themen für sie sind, das Thema Klimawandel an letzter Stelle rangierte. Nicht nur das, aber auch in jeder Untergruppe nach Alter, Geschlecht, Bildung und Ländergruppen steht es abgeschlagen am Ende der Liste. NIEMAND glaubt, dass dies ein wichtiges Thema ist. (Siehe Bild rechts!)

Nun sagen die Menschen immer, dass die USA in dieser Hinsicht eine Art Ausreißer sind, weil bei Umfragen in den USA das Thema Klimawandel immer am Ende steht, wohingegen Umfragen in Europa dieses Thema um Einiges höher listen. Aber dies hier ist eine globale Umfrage, mit Menschen auf der ganzen Welt. Die obersten 15 Länder, sortiert nach der Anzahl der antwortenden Personen, sind Mexiko, Nigeria, Indien, Pakistan, Sri Lanka, Jemen, die Philippinen, Thailand, Kamerun, die USA, Ghana, Ruanda, Brasilien, Jordanien und Marokko. Es scheint also, als sei diese Umfrage wahrhaftig repräsentativ für die Welt, die zumeist aus nicht industrialisierten Nationen besteht.

Wenn also das nächste Mal jemand zu behaupten versucht, dass der Klimawandel „die wichtigste Herausforderung ist, vor der die Welt steht“, dann verweise man auf die Website der Studie. Man informiere diese Personen freundlich darüber, dass der Rest der Welt keineswegs auch nur eine Minute lang diese Art alarmistischen Schwachsinn abnimmt. Die Menschen sind nicht so dumm wie ihre Führer glauben; die Menschen wissen, was wichtig ist und was in ihrem Leben trivial. Versuche, das Klima zu kontrollieren, gehören eindeutig zu Letzterem.

Die Umfrage läuft noch bis 2015, so dass Sie noch Ihre eigenen Prioritäten benennen können …

Link: http://wattsupwiththat.com/2014/12/05/climate-change-who-cares/

Übersetzt von Chris Frey EIKE




ARGO und der ozeanische Wärmegehalt

Abbildung 1 (rechts): Operation ARGO-Bojen: Es gibt etwa 3500 Bojen in den Ozeanen, und insgesamt rund 10.000 Bojen waren während des Zeitraumes der Operation im Einsatz.

In dieser Präsentation gab es viele interessante Dinge. Das erste hat mich total überrascht. Wir hören immer wieder, dass sich die Wärme im Ozean „versteckt“.Was ich aber nicht wusste, den ARGO-Bojen zufolge gab es die gesamte Erwärmung nur in den Südlichen Ozeanen außerhalb der Tropen, während sich sowohl die Tropischen Ozeane als auch diejenigen der Nordhemisphäre tatsächlich abkühlen … man nenne mich darob verwirrt.

Abbildung 2: Änderung des ozeanischen Wärmegehaltes in verschiedenen Zonen. Einheiten sind 10↑22 Joule. Graphik aus der oben verlinkten Präsentation

Was zeigt dies? Ich bin sicher, ich weiß es nicht … aber ich bezweifle sehr stark, dass irgendeines der Klimamodelle diese komische Kombination von Erwärmung und Abkühlung abbildet.

Am interessantesten jedoch fand ich eine Graphik der globalen Änderung des ozeanischen Wärmegehaltes während dieses Zeitraumes. Diese Graphik sieht so aus:

Abbildung 3: Globale Änderung des ozeanischen Wärmegehaltes (OHC) seit der vollständigen Ausbringung der ARGO-Bojen. Daten von der Wasseroberfläche bis in Tiefen von etwa 2000 Metern.

Ich war traurig, darin alles Mögliche gesehen zu haben. Erstens, dies sind die Daten, aus denen die monatlichen Mittelwerte (die „Klimatologie“) entfernt worden sind. Ich bevorzuge die Rohdaten, so dass ich jahreszeitliche Verteilungen betrachten kann. Zweitens, der Präsentation fehlen Fehlerbalken … aber Not kennt kein Gebot. Also benutze ich die mir zur Verfügung stehenden Daten. Diese habe ich digitalisiert, so dass ich sie selbst analysieren konnte.

Als Erstes wollte ich die Daten betrachten, die vertrautere Einheiten aufwiesen. Ich meine, niemand weiß, was 10↑22 Joule in den oberen 2 Kilometern des Ozeans bedeuten. Also habe ich die Daten von Joule in °C konvertiert. Die Konversion geht so: Man braucht 4 Joule, um ein Gramm Meerwasser um 1°C zu erwärmen (oder 4 Megajoule pro Tonne pro Grad). Als weitere Informationen braucht man die Menge des Ozeanwassers über 2000 Metern Tiefe, also 0,65 Milliarden Kubikkilometer, und dass Meerwasser etwa 1,033 Tonnen pro Kubikmeter wiegt.

Abbildung 4: Ozeanvolumen in Abhängigkeit von der Tiefe. Nur wenige Ozeanbecken sind tiefer als 5 km.

Mit diesen Informationen berechnete ich, was die Änderung des Wärmegehaltes hinsichtlich Änderung der Temperatur bedeutet. Hier folgt diese Graphik:

Abbildung 5: Änderung der Wassertemperatur von der Oberfläche bis etwa 2000 Metern Tiefe.

Eine Änderung von zwei Hundertstel Grad pro Dekade … beruhige dich, mein schlagendes Herz! Unglücklicherweise kann ich keinerlei Fehlergrenzen bzgl. des Trends angeben, weil es in der Präsentation keine Fehlerbalken gab.

Hier möchte ich einen Exkurs machen, dessen Zweck gleich erkennbar werden wird. Ich wollte mir die CERES-Daten anschauen, also die von Satelliten gestützten Daten des Strahlungshaushaltes der Erde. Hier folgt die Änderung der „Gesamt-TOA-Strahlung“ Monat für Monat. Die Gesamt-TOA-Strahlung ist die Differenz zwischen einfallender Strahlung an der Obergrenze der Atmosphäre (TOA), die die Erde erreicht (Sonnenlicht) und der Abstrahlung an der TOA, die die Erde verlässt (reflektiertes Sonnenlicht plus thermische Infrarotstrahlung). Abbildung 6 zeigt diese Änderungen:

Abbildung 6: Aufteilung der Gesamt-TOA-Strahlung nach CERES in eine jahreszeitliche und eine verbleibende Komponente [residual component]. Einheiten sind W/m². Die verbleibende Komponente (untere Graphik) zeigt die Rohdaten, wobei die monatlichen Mittelwerte (jahreszeitliche Komponente oder „Klimatologie“; mittlere Graphik) entfernt worden sind.

Nun, dies allein ist eine interessante Graphik. In der Gesamtstrahlung erkennt man die rund 20 W/m² ausmachende jährliche Schwingung der Erde zur Sonne hin und von ihr weg. Im Januar steht die Erde der Sonne am Nächsten, so dass die Erde in dieser Zeit Energie gewinnt, die sie in der anderen Jahreshälfte wieder verliert. Zusätzlich erkennt man die erstaunliche Stabilität des Systems. Entfernen wir erst einmal die monatlichen Mittelwerte, variiert das Gesamt-TOA-Ungleichgewicht nur mit einer Größenordnung von ± einem halben Watt pro Quadratmeter während der bislang 13 Jahre langen Aufzeichnung, ohne jeden statistisch signifikanten Trend … erstaunlich.

Aber ich schweife ab. Grund für diesen Exkurs ist, dass die überschüssige, die Erde erreichende Energie (positive Werte) mit der Spitze im Januar fast vollständig im Ozean gespeichert wird und dann zurück kommt mit einer Ausstrahlungs-Spitze (negative Werte) im Juli. Wir wissen das, weil die Temperatur nicht dem Strahlungs-Ungleichgewicht folgt, und es gibt nirgendwo sonst eine ausreichend große und reaktionsfähige Möglichkeit, diese Menge Energie zu speichern und wieder freizusetzen.

Mit anderen Worten, die Gesamt-TOA-Strahlung ist ein anderer Weg, mit dem wir die monatliche Änderung des ozeanischen Wärmegehaltes messen können. Folglich können wir einen Quercheck mit den OHC-Darstellungen durchführen. Er wäre nicht exakt, weil ein kleiner Teil der Energie sowohl auf dem Festland als auch im Eis gespeichert und wieder freigesetzt wird … aber der Hauptspeicher ist der Ozean. Also werden uns die CERES-Daten der Gesamt-TOA-Strahlung einen maximalen Wert für Änderungen der Ozeanspeicherung liefern, und zwar den Wert, den wir bei der Annahme bekommen, dass die gesamte Energie im Ozean gespeichert wird.

Alles, was wir also tun müssen, ist ein Vergleich der monatlichen Änderung des OHC minus der Klimatologie wie in Abbildung 1, wobei die monatliche Änderung der einfallenden Strahlung minus der Klimatologie die in der unteren Graphik von Abbildung 6 gezeigte ist … außer dass beide in unterschiedlichen Einheiten angegeben werden.

Allerdings bedeutet dies einfach, dass wir die Daten der Gesamt-TOA-Strahlung in Watt pro Quadratmeter konvertieren müssen zu Joule pro Monat. Die Konversion geht so:

1 Watt-Monat/m² (also 1 W/m² angewendet auf einen Monat) =

1 Joule-Monat/ sec-m²* 5,11e+14 m² (Gebiet der Oberfläche) * 365,2425/12 * 24 * 3600 Sekunden/ Monat = 1,35e+21 joules.

Also konvertierte ich die Gesamt-TOA-Strahlung in Joule pro Monat und verglich dies mit den ARGO-Daten des gleichen Phänomens, nämlich der Änderung des ozeanischen Wärmegehaltes in Joule pro Monat. Abbildung 7 zeigt diesen Vergleich:

Abbildung 7: Vergleich der monatlichen OHC-Änderungen gemessen mit CERES-Daten und von den ARGO-Bojen

Nun, das ist ein höchst seltsames Ergebnis. Die ARGO-Daten sagen, dass eine gewaltige, ja überwältigende Menge Energie in die Ozeane geht und wieder herauskommt … aber andererseits sagen die CERES-Daten, dass nur ein vergleichsweise sehr kleiner Teil der Energie in den Ozean hineingeht und wieder herauskommt. Wobei es auch nach CERES eine ziemlich große Menge Energie ist, die aber bei Weitem nicht das Ausmaß der von den ARGO-Bojen gezeigten Menge entspricht.

Wie muss man diesen Widerspruch verstehen? Die wahre Antwort auf diese Frage lautet … ich weiß es nicht. Möglicherweise ist mir ein arithmetischer Fehler unterlaufen, obwohl ich wieder und immer die oben aufgeführten Berechnungen durchgeführt habe. Ich weiß, dass die CERES-Daten die richtige Größenordnung zeigen, weil diese die Schwingung von rund 20 Watt aufgrund des elliptischen Erdorbits zeigen. Und ich weiß, dass meine ARGO-Daten korrekt sind, indem ich Abbildung 7 mit Abbildung 2 vergleiche.

Mein ,Best guess‘ ist, dass die Fehlerbalken der ARGO-Daten viel größer sind als allgemein angenommen. Ich sage dies, weil die CERES-Daten keineswegs akkurat sind. Aber sie sind sehr präzise. Ich sage das auch aufgrund meiner zuvor durchgeführten Analyse der behaupteten Fehler von Levitus et al. in meinem Beitrag „Decimals of Precision”.

In jedem Falle ist es ein höchst eigenartiges Ergebnis. Zumindest erheben sich dadurch Fragen über unsere Fähigkeit, den Wärmegehalt der Ozeane zu messen mit einer von den ARGO-Leuten behaupteten Präzision. Man erinnere sich, sie behaupten, dass sie die monatliche mittlere Temperatur von 0,65 MILLIARDEN Kubikkilometer Meerwasser mit einer Genauigkeit von einem Hundertstel Grad messen können … was mir sehr zweifelhaft vorkommt. Ich habe den Verdacht, dass der wirkliche Fehler in ihren Daten vom Fußboden bis zur Decke reicht.

Aber das sind lediglich meine Gedanken. Andere Vorschläge sind sehr willkommen.

Data and Code: The Argo data (as a .csv file) and R code is online in a small folder called Argo and CERES Folder. The CERES TOA data is here in R format, and the CERES surface data in R format is here. WARNING: The CERES data is 220 Mb, and the CERES surface data is 110 Mb.

Weitere Daten:

Main Argo Data Page

Main CERES Page

List of Argo “gray” floats 

Link: http://wattsupwiththat.com/2014/12/04/argo-and-ocean-heat-content/

Übersetzt von Chris Frey EIKE




Eintauchen in die Tiefen der Dekarbonisierung

Es beginnt mit der folgenden Definition:

Weit reichende Dekarbonisierung [deep decarbonization] erfordert eine sehr grundlegende Transformation von Energiesystemen. Die ultimative Objektive dieser Transformation ist es, die gesamte Verbrennung fossiler Treibstoffe mit unkontrollierten CO2-Emissionen auslaufen zu lassen. Nur fossile Treibstoffe zusammen mit CCS (Kohlenstoff-Sequestrierung)  würde übrig bleiben.

Aber das war nicht der witzige Teil. Das war einfach deprimierend. Der witzige Teil folgte später.

Hier in der realen Welt ist nun der mildeste Weg, diesen Wahnsinn zu beschreiben, also die Nationen der Welt dazu zu zwingen, fossile Treibstoffe aufzugeben, … nun, wenn ich mehr darüber nachdenke, gibt es keine Möglichkeit, diesen Idiotismus anders zu beschreiben als einen pathetischen Witz, der – falls implementiert – zu unsäglichen ökonomischen Störungen, zu Katastrophen und Tod führt.

Wie auch immer, um herauszufinden, wie man „die Verbrennung fossiler Treibstoffe auslaufen lassen“ kann, beschreiben sie etwas, das sie die „hauptsächlichen Treiber“ von CO2-Emissionen nennen, also:

Der einfachste Weg, die weit reichende Dekarbonisierung von Energiesystemen zu beschreiben, ist es, die hauptsächlichen Treiber von energiebezogenen CO2-Emissionen zu benennen – der Einfachheit halber nennen wir es hier einfach CO2-Emissionen, da im Mittelpunkt dieses Kapitels Energiesysteme stehen. CO2-Emissionen können ausgedrückt werden als das Produkt von vier Größen: Bevölkerung, BIP [GDP] pro Kopf, Energieverbrauch pro Einheit BIP und CO2-Emissionen pro Einheit Energie:

An dieser Stelle habe ich aufgehört…

Nun sieht das auf den ersten Blick irgendwie vernünftig aus. Ich meine, Emissionen müssen mit steigender Bevölkerung und mit steigendem BIP pro Kopf zunehmen und mit zunehmender Energieeffizienz wieder abnehmen.

Und aus folgendem Grund habe ich gelacht. Wir wollen diese Gleichung mal den üblichen Regeln der Mathematik unterwerfen. Wir wissen, wenn eine Variable im Zähler und im Nenner eines Bruches auftaucht, können wir sie kürzen. Beginnend von links kann man Bevölkerung [population] im Zähler gegen Bevölkerung im Nenner kürzen. Dann kürzt sich BIP im Zähler gegen BIP im Nenner. Gleiches mit Energie im Zähler und im Nenner… und übrig bleibt…

Ziemlich bahnbrechend, nicht? CO2-Emissionen sind gleich CO2-Emissionen. Wer hätte das gedacht?

[Das kam mir so unglaublich vor, dass ich im PDF selbst nachschauen musste. Aber das steht dort natürlich wirklich, auf Seite {arabisch}12 im Kapitel 3! Für welchen Müll geben wir denn noch unser Geld aus?! Anm. d. Übers. Weiter mit Eschenbach:]

Nun gut, erstellen wir ihre Gleichung noch einmal. Aber an Stelle des BIP verwenden wir diesmal Brutto-Bier-Produkt (GBP).

Man beachte, dass dies identisch und genauso gültig ist mit ihrer genialen Gleichung, in der es auf das gleiche Ergebnis hinausläuft: CO2-Emissionen = CO2-Emissionen.

Und als Ergebnis lautet die klare Schlussfolgerung meiner Analyse, dass der beste Weg zur Bekämpfung der teuflischen Bedrohung durch CO2 das Auffinden einer Möglichkeit ist, dass Bier weniger Energie verbraucht…

Und hier habe ich ein Kohlenstoff-Reduktionsprogramm, hinter das ich mich stellen kann.

Link: http://wattsupwiththat.com/2014/07/09/diving-into-the-deeps-of-decarbonization/#more-112703

Übersetzt von Chris Frey EIKE




Die Rache der Klima-Reparationen

In dieser Hinsicht habe ich heute morgen laut gelacht, und zwar über die Ergebnisse des japanischen IBUKU-Satelliten hinsichtlich CO2-Daten. Sie zeigen einen Gesamtfluss von CO2 (Emission minus Sequestration) in einem Gitternetz von 1° zu 1° für den ganzen Planeten. Auf ihrer Website wird das Projekt so beschrieben:

Der Treibhausgase beobachtende Satellit IBUKU (GOSAT), in Zusammenarbeit entwickelt vom japanischen Umweltministerium, dem National Institute for Environmental Studies und der Japan Aerospace Exploration Agency (hiernach die Drei Beteiligten). Hierbei handelt es sich um den ersten Satelliten, der speziell für die Überwachung des atmosphärischen CO2-und Methan-Gehaltes aus dem Weltall erbaut worden ist.

Der Satellit arbeitet seit dessen Start am 23. Januar 2009. Die drei Beteiligten werden jetzt die Daten des globalen CO2-Flusses veröffentlichen, und zwar auf monatlicher und regionaler Basis für den Zeitraum von einem Jahr zwischen Juni 2009 und Mai 2010. Diese Flusswerte wurden geschätzt aus CO2-Überwachungsdaten am Boden und verbessert mit den auf GOSAT basierenden Daten der CO2-Konzentration.

Es wurde bestätigt, dass Unsicherheiten der geschätzten CO2-Flusswerte durch die Hinzufügung von GOSAT-Daten zu den Bodenbeobachtungen reduziert werden können. Dies ist die erste konkrete Demonstration der Nützlichkeit satellitengestützter Konzentrationsdaten bei der Abschätzung des globalen CO2-Flusses.

Es wird erwartet, dass dieser Fortschritt auf dem Gebiet des globalen Kohlenstoff-Kreislaufes zu verlässlicheren Prognosen der Klimaänderung führt und zur Entwicklung einer effektiven Umweltpolitik, um die globale Erwärmung in der Zukunft abzuschwächen.

Und warum habe ich da so gelacht? Nun, lassen Sie mich die Sache vollständig erzählen. Zunächst folgt hier die Karte mit den Gesamtemissionen des Jahres 2010, dem einzigen vollständigen Kalenderjahr im Datensatz:

Abbildung 1 [siehe rechts!]: Gesamtemissionen durch gridcell, IBUKU-Satellitendaten von CO2.

Nun gibt es hinsichtlich dieser Karte einige interessante Dinge.

Erstens scheint sie ziemlich genau zu sein. Schaut man zum Beispiel auf den unteren rechten Teil von Australien, kann man die zwei Großstädte Sydney und Melbourne als rote Punkte in einem blauen Meer ausmachen.

Als nächstes erkannt man: Während der Pazifik insgesamt ein Emittent von CO2 ist (gelbes Band nördlich Australiens bis nach Südamerika), ist die Innertropische Konvergenzzone unmittelbar nördlich davon insgesamt ein Absorber. Ich spekuliere mal, dass die Ursache hierfür die großen Regenmengen in diesem Gebiet sind. Atmosphärisches CO2 wird in Regen gelöst, weshalb der gesamte Regen leicht sauer ist. Dies absorbiert mehr CO2 als es in den trockeneren Gebieten weiter südlich der Fall ist.

Außerdem erkennt man, dass die Tropen pro Quadratmeter doppelt so viel emittieren wie die gemäßigten Zonen … nicht wirklich das, was ich erwartet hatte.

Weiter. Im Großen und Ganzen wird dort eine Menge CO2 emittiert, wo sich viele Menschen ballen. Ja, es gibt auch menschenarme Gebiete mit CO2-Emissionen … aber allgemein gilt: Menschen = CO2.

Also habe ich mir überlegt, die Daten heranzuziehen und nach Ländern zu sortieren, um zu sehen, wie viel CO2 jedes Land entweder emittiert oder absorbiert. Die Antworten sind ziemlich überraschend … Abbildung 2 zeigt die 20 größten Emittenten von CO2.

Abbildung 2: Gesamtemissionen nach Ländern sortiert.

Darum habe ich zu lachen begonnen … Ich sehe gerade, wie Frankreich Klima-Reparationen von Indien fordert oder UK Reparationen von der „Demokratischen“ Republik Kongo … aber es wird noch besser. Abbildung 3 zeigt die Top 20 der sequestrierenden Nationen…

Abbildung 3: Gesamt-Sequestrierung nach Ländern sortiert.

Es wird immer witziger … Schweden und Norwegen dürfen Reparationen von Russland fordern, Finnland kann den USA eine Rechnung schicken, während Australien in China vorstellig werden kann, um Öko-Megamilliarden zu verlangen.

Wie sind einige dieser Ergebnisse zu verstehen? Ich werde mal spekulieren, da ich keine direkten Daten habe … obwohl behauptet wird, dass diese in den IBUKU-Daten enthalten sind, habe ich sie noch nicht finden können.

Erstens, es gibt zwei große fehlende Dinge bei der vorherrschenden Erfassung von CO2, nämlich Sequestrierung und Verbrennen von Biomasse. In den meisten armen Ländern dieser Welt sind sie so ökologisch bewusst, dass sie hauptsächlich erneuerbare Energie zum Heizen und Kochen nutzen. Und das trotz dieser Öko-Sensitivität und all dieser unzähligen Millionen offener Feuer, die Holz, Zweige und Müll verbrennen, die eine Menge CO2 erzeugen*. Plus ein großer Haufen Verschmutzung, die den „braunen Dunst“ über Asien entstehen lassen, aber das ist eine andere Frage…

Zusätzlich gibt es sowohl in Indien als auch in China gewaltige permanente Feuer im Untergrund, die CO2 (plus eine wirklich schlimme Verschmutzung) freisetzen 24/7. Die andere Wild Card ist die Sequestrierung. Ich spekuliere, dass dies in Australien passiert wegen der riesigen Masse freiliegender Felsen und Sand. Die milde Säure in Regen und Tau lösen Felsen und Sand, was CO2 sequestriert.

In Kanada, Schweden und Finnland muss ich vermuten, dass es etwas zu tun hat mit der exponierten nördlichen Lage und der ausgedehnten Wälder … aber es gibt immer noch viele Fragen ohne Antworten.

Wie auch immer, ich hatte heute früh so viel Spaß …, jemand sollte all dies für die Journale aufschreiben, denke ich, aber ich habe ständig das Gefühl, dass ich mir selbst eine Lobotomie verabreichen muss, um wissenschaftliche Standard-Prosa zu schreiben. [Hyperlink von mir – ich wusste einfach nicht, was das ist. Anm. d. Übers.]

Möchte irgendjemand mit mir zusammen so etwas schreiben und sich um Formulierung und Einreichung kümmern?

Und ich gratuliere meinen argentinischen, brasilianischen und australischen Freunden zum Gewinn der Kohlenstoff-Lotterie; sie können Reparationen von jedem anderen Land der Welt verlangen.

Bonus-Graphiken: jemand fragte nach weißer Farbe auf dem Null-Niveau:

Und hier sortiert nach Ländern…

Code: Es ist grässlich, aber hier. Es ist ein Zip-File mit 18 Mb einschließlich Code, Funktionen, Daten (NCDF-Files) und Produktpalette. Ich glaube, dass es vollständig ist; bei Fragen bitte melden.

Daten der Produktpalette: Ich habe die Daten auf Landschafts-Niveau in einem CSV-File hinzugefügt (hier).

Daten: Es dauerte eine Weile, diese zu finden, weil sie auf einer anderen Website stehen. Man muss sich zuerst registrieren lassen. Danach logge man sich ein, klicke auf „Product Search and Order” und wähle L4A global CO2 flux.

Produktpalette: Die Details zahlreicher CO2-Produkte stehen hier, auf der gleichen Website. Ich bin nicht sicher, ob man sich zuvor einloggen muss. Sie finden sich auch in meinem ZTip-File oben.

Link: http://wattsupwiththat.com/2014/07/05/the-revenge-of-the-climate-reparations/#more-112572

Übersetzt von Chris Frey EIKE




Sonnenflecken und Wassertemperatur

Dr. Shavivs Studie stellt die Behauptung auf, dass sowohl der ozeanische Wärmegehalt als auch die Wassertemperatur SST mit dem etwa 11-jährigen Sonnenzyklus variieren. Obwohl unklar ist, was mit dem Wort „wir“ gemeint ist, wenn er es verwendet, sagt er: „wir zeigen, dass der Gesamt-Strahlungsantrieb in Verbindung mit den Variationen der Sonnenzyklen etwa 5 bis 7 mal größer ist als jener in Verbindung mit Variationen der Gesamt-Einstrahlung TSI. Es ist also ein Verstärkungs-Mechanismus erforderlich, ohne dass wir auf einen bestimmten zeigen“. Da die Daten des ozeanischen Wärmegehaltes sowohl verstreut als auch unvollständig sind, habe ich einmal untersucht, ob die vollständiger vorliegenden Daten der SST Anzeichen des behaupteten Einflusses der Sonnenzyklen zeigen.

Anfangen möchte ich mit dem, was Shaviv im Jahre 2008 über die Behandlung der Daten sagte:

„Vor der Ableitung des globalen Wärmeflusses aus dem beobachteten ozeanischen Wärmegehalt muss man detaillierter die von uns verwendeten verschiedenen Datensätze untersuchen, um noch besser deren Grenzen zu verstehen. Da wir sie miteinander vergleichen wollen, beginnen wir mit der Erstellung vergleichbarer Datensätze mit gleicher Auflösung und zeitlicher Länge. Wir packen also höher aufgelöste Daten in Ein-Jahres-Körbe und beschneiden alle Datensätze auf den Zeitraum 1955 bis 2003“.

Ich vermute, dass sie 1955 deswegen als Startpunkt ihrer Daten benutzt haben, weil die Daten des ozeanischen Wärmegehaltes ab 1955 vorliegen. In ihrer Studie verwenden sie den HadISST-Datensatz, also die „Ice and Sea Surface Temperature“-Daten. Also ging ich zur wunderbaren KNMI-site und habe diese Daten von dort mit den Daten zu den Sonnenflecken verglichen. Hier folgen die ungekürzten Versionen der SIDC-Sonnenflecken und der Wassertemperaturdaten von HadISST:

Abbildung 1: Sonnenfleckenzahlen (oberes Paneel) und Wassertemperaturen (unteres Paneel).

Gibt es also eine solare Komponente in den SST-Daten? Nun, schaut man sich Abbildung 1 an, kann man auf den ersten Blick sagen: falls es eine solche Komponente gibt, ist sie ziemlich klein. Wie klein? Nun, dazu brauchen wir die Mathematik. Ich beginne oft mit einer Kreuz-Korrelation. Eine Kreuz-Korrelation beleuchtet nicht nur, wie gut korreliert zwei Datensätze sein könnten. Sie zeigt auch, wie gut die beiden Datensätze korreliert sind mit einer Verzögerung zwischen beiden. Abbildung 2 zeigt die Kreuz-Korrelation zwischen den Sonnenflecken und der SST:

Abbildung 2: Kreuz-Korrelation, Sonnenflecken und Wassertemperaturen. Man beachte, dass sie bei keiner Verzögerung irgendwie signifikant sind, und das ohne Berücksichtigung von Autokorrelation [?].

Ich kann also nichts Signifikantes bei der Kreuz-Korrelation der beiden Datensätze über deren volle Länge erkennen, also im Zeitraum 1870 bis 2013. Allerdings haben sie nicht den gesamten Datensatz verwendet, sondern nur den Teil im Zeitraum 1955 bis 2003. Das sind nur 49 Jahre … und an diesem Punkt beginne ich, nervös zu werden. Man erinnere sich, wir suchen nach einem 11-jährigen Zyklus. Ergebnisse aus diesem speziellen halben Jahrhundert repräsentieren also nur drei vollständige Solarzyklen, und das ist dürftig… Aber wie auch immer, hier folgt die Kreuz-Korrelation der zeitlich begrenzten Datensätze 1955 bis 2003:

Abbildung 3: Kreuz-Korrelation von Sonnenflecken und Wassertemperaturen, zeitlich begrenzt auf den Zeitraum 1955 bis 2003. Man beachte: während sie größer sind als im vollständigen Datensatz, sind sie bei keiner Verzögerung immer noch nicht signifikant, und das ohne Berücksichtigung der Autokorrelation.

Nun kann ich verstehen, warum man glauben könnte, dass es eine Korrelation zwischen der Wassertemperatur und Sonnenflecken gibt, wenn man nur die verkürzten Datensätze betrachtet. Zumindest Abbildung 3 zeigt eine positive Korrelation ohne Verzögerung, und zwar eine, die fast schon statistisch signifikant ist, wenn man Autokorrelation ignoriert.

Aber zur Erinnerung: In der Kreuz-Korrelation des vollständigen Datensatzes (Abbildung 2) beträgt die Korrelation ohne Verzögerung … nun, Null. Die offensichtliche Korrelation im nur ein halbes Jahrhundert umfassenden Datensatz verschwindet vollständig, wenn man den ganzen, 140 Jahre langen Datensatz betrachtet.

Dies beleuchtet ein gewaltiges periodisch wiederkehrendes Problem bei der Analyse natürlicher Datensätze und der Suche nach regelmäßigen Zyklen. Regelmäßige Zyklen, die offensichtlich auftauchen, dauern ein halbes oder sogar ein ganzes Jahrhundert, um dann ein Jahrhundert lang zu verschwinden…

In Shaviv 2008 zeigt der Autor einen Weg, um dieses Rätsel zu umgehen, nämlich:

„Eine weitere Möglichkeit, die Ergebnisse sichtbar zu machen, ist es, die Daten über den 11-jährigen Sonnenzyklus zu mitteln. Dies reduziert den Relativ-Beitrag von Quellen, die nicht mit der Sonnenaktivität korreliert sind, da sie dazu tendieren, sich herauszumitteln (seien diese nun real oder Rauschen)“.

Zur Stützung dieser Behauptung zeigt der Autor die folgende Abbildung:

Abbildung 4: Dies ist die Abbildung 5 aus der Shaviv-Studie. Für diesen Beitrag von Interesse ist das obere Paneel, das die angebliche Oszillation der gemittelten Zyklen zeigt.

Nun, dieses Verfahren habe ich selbst auch schon angewandt. Würde ich das allerdings hier tun, würde ich es nicht so machen wie er. Er hat für das solare Minimum eine Zeit t = 0 definiert und dann die Daten über die folgenden 11 Jahre gemittelt. Würde ich das auch so machen, würde ich sie am Spitzenwert anpassen und dann das Mittel von, sagen wir, sechs Jahren vor und nach diesem Spitzenwert bilden.

Aber wie auch immer, anstatt es auf meine Art zu tun, dachte ich mir zu schauen, ob ich seine Ergebnisse nachvollziehen konnte. Unglücklicherweise traf ich auf einige Schwierigkeiten, als ich die tatsächlichen Berechnungen durchzuführen begann. Hier kommt die erste Schwierigkeit:

Abbildung 5: Die von Shaviv 2008 verwendeten Daten, um die vermeintliche Korrelation zwischen Sonnenflecken und Wassertemperatur zu zeigen.

Sie werden das Problem sicher auch erkennen. Weil der Datensatz so kurz ist (n = 49 Jahre), gibt es nur vier solare Minima – 1964, 1976, 1986 und 1996. Und dass der verkürzte Datensatz im Jahre 2003 endet bedeutet, dass es während dieses Zeitraumes nur drei vollständige Sonnenzyklen gegeben hatte.

Dies führt direkt zu einem zweiten Problem, und zwar der Größenordnung der Unsicherheit bei den Ergebnissen der „zentrierten“ Daten. Mit der Analyse von nur drei vollständigen Zyklen wird die Unsicherheit ziemlich groß. Hier sind die drei zentrierten Datensätze, zusammen mit dem Mittel und dem 95%-Vertrauens-Intervall um das Mittel:

Abbildung 6: Wassertemperaturen über drei vollständige Sonnenzyklen, „zentriert“ über den 11-jährigen Sonnenzyklus, wie ihn Shaviv 2008 beschrieben hat.

Wenn ich also nach einem sich wiederholenden Zyklus suche, schaue ich auf das 95%-Vertrauens-Intervall (CI) des Mittels.  Enthält das 95%-CI die Null-Linie bedeutet das, dass die Variation nicht signifikant ist. Das Problem in Abbildung 6 ist natürlich die Tatsache, dass es nur drei Zyklen in dem Datensatz gibt. Als Folge geht das 95%-CI „vom Fußboden bis an die Decke“, wie man so sagt, und die Ergebnisse sind nicht im Mindesten signifikant.

Warum aber sehen die Ergebnisse von Shaviv 2008 in Abbildung 4 so überzeugend aus? Nun, weil er nur die Standardabweichung als Unsicherheit in seinen Ergebnissen zeigt, obwohl nur das 95%-CI von Relevanz ist. Hätte er dieses 95%-CI gezeigt, wäre offensichtlich geworden, dass die Ergebnisse nicht signifikant sind.

Allerdings spielt nichts davon eine Rolle. Warum nicht? Weil der behauptete Effekt verschwindet, wenn wir den vollständigen Wassertemperatur- und Sonnenflecken-Datensatz untersuchen. Deren allgemeine Periode reicht von 1870 bis 2013, so dass es noch viel mehr Zyklen zum Mitteln gibt. Abbildung 7 zeigt den gleichen Typ „zentrierter“ Analysen, nur diesmal für den gesamten Zeitraum von 1870 bis 2013:

Abbildung 7: Wassertemperaturen aller solaren Zyklen von 1870 bis 2013, „zentriert“ über den 11-jährigen Sonnenzyklus wie in Shaviv 2008 beschrieben.

Hier sieht man das Gleiche, was sich schon bei der Kreuz-Korrelation gezeigt hat. Der offensichtliche Zyklus, der im letzten halben Jahrhundert der Daten präsent zu sein scheint, also der in Shaviv 2008 gezeigte Zyklus, verschwindet vollständig, wenn man den gesamten Datensatz betrachtet. Und trotz eines viel kleineren 95%-CI, weil wir mehr Daten haben, gibt es keine statistisch signifikante Abweichung von Null. Zu keiner Zeit erkennt man irgendetwas Unerklärliches oder Ungewöhnliches.

Und daher noch einmal: Ich finde, dass sich die Behauptungen hinsichtlich einer Verbindung zwischen Sonne und Klima in Luft auflösen, wenn man sie genauer untersucht.

Ich möchte hier klarstellen, was ich hier sage und was ich NICHT sage. Ich sage NICHT, dass die Sonne das Klima nicht beeinflusst.

Ich sage nur, dass ich immer noch kein überzeugendes Anzeichen des 11-jährigen Sonnenflecken-Zyklus‘ in irgendeinem Klima-Datensatz gefunden habe. Auch hat bislang niemand einen solchen Datensatz gezeigt. Und solange das nicht der Fall ist, ist es sehr schwierig zu glauben, dass selbst kleinere untergeordnete Variationen der Sonnenstärke einen signifikanten Einfluss auf das Klima haben können.

Also möchte ich hier, wie ich hoffe zum letzten Mal, die offene Herausforderung benennen. Wo ist der Klima-Datensatz, der den etwa 11-jährigen Sonnenflecken-/Magnetismus-/kosmische Strahlen-/Sonnenwind-Zyklus zeigt? Shaviv plappert viele andere nach, wenn er behauptet, dass es irgendeinen unbekannten Verstärkungs-Mechanismus gibt, der die Auswirkungen „etwa 5 bis 7 mal größer macht als jene, die mit den TSI-Variationen in Verbindung stehen“. Allerdings sehe ich diesen nicht. Wo also können wir diesen 11-jährigen Zyklus finden?

[Anmerkung des Übersetzers: Könnte es sein, dass Eschenbach den Svensmark-Effekt nicht kennt? Oder verstehe ich da irgendetwas nicht?]

Link: http://wattsupwiththat.com/2014/06/06/sunspots-and-sea-surface-temperature/

Übersetzt von Chris Frey EIKE




Extreme Zeiten beim Wetter – wirklich?

Da ich ein kritischer Zeitgenosse bin, fragte ich mich, ob das stimmt. Gleich danach kam mir der Gedanke, ich weiß, dass dies eine wichtige Einsicht ist, falls sie stimmt … ich weiß nur nicht warum…

Danach brach ich in Lachen aus, als mir klar wurde, warum das wichtig wäre, falls es stimmt – aber ich wusste immer noch nicht, ob das der Fall ist. Also habe ich die entsprechende Mathematik betrieben.

Der einfachste Weg zum Austesten eines solchen Statements ist es, etwas zu tun, das unter der Bezeichnung „Monte Carlo“-Analyse bekannt ist. Man erzeugt eine große Anzahl von Datensätzen mit Pseudo-Randwerten, die eine Autokorrelations-Struktur aufweisen ähnlich irgendeinem autokorrelierten Datensatz in der Natur. Diese hoch autokorrelierten Pseudo-Randwerte werden oftmals „rotes Rauschen“ genannt. Weil ich ihn gerade zur Hand hatte, verwendete ich den Datensatz mit der globalen Temperatur von HadCRUT4 als meine Autokorrelations-Schablone. Abbildung 1 zeigt ein paar autokorrelierte Datensätze in Farbe mit „rotem Rauschen“, und zwar zusammen mit den HadCRUT4-Daten zum Vergleich.

Abbildung 1: Monatliche globale Temperaturanomalien von HadCRUT4 (Schwarz) nach der Eliminierung jahreszeitlicher Schwingungen. Blau und rot zeigen zwei Randwert-Datensätze mit „rotem Rauschen“ (autokorreliert).

Der HadCRUT3-Datensatz ist etwa 2000 Monate lang. Also erzeugte ich eine sehr lange Folge (zwei Millionen Datenpunkte) als einen einzelnen kontinuierlichen Datensatz mit „Pseudo-Temperaturen“ mit rotem Rauschen. Natürlich sind diese zwei Millionen Datenpunkte stationär, das heißt sie weisen keinen Trend mit der Zeit auf und die Standardabweichung ist mit der Zeit stabil.

Dann habe ich den Datensatz in Sequenzen mit je 2000 Datenpunkten unterteilt und habe jede Sequenz mit den 2000 Punkten betrachtet um zu sehen, wo die Maxima bzw. Minima in jedem 2000-Punkte-Datensatz selbst liegen. Falls das Minimum der dritte Datenpunkt war, habe ich ihn als „3“ markiert, und entsprechend, falls der vorletzte Datenpunkt das Maximum war, mit „1999“.

Dann erstellte ich ein Histogramm mit der gesamten Anzahl der Sequenzen und schaute, wie viele der Extremwerte sich unter den ersten 100 Datenpunkten befanden, unter den zweiten hundert Datenpunkten, und so weiter. Abbildung 2 zeigt das Ergebnis. Individuelle Läufe für 1000 variieren, aber die allgemeine Form ist immer die Gleiche:

Abbildung 2: Histogramm der Stelle (von 1 bis 2000), an der sich die Extremwerte in den 2000-Datenpunkt-Sequenzen des „roten Rauschens“ befanden.

Und siehe da, der unbekannte Autor hatte völlig recht. Falls man ein Randwert-Fenster in einen hoch autokorrelierten Datensatz mit „rotem Rauschen“ anbringt, befinden sich die Extremwerte (Minima und Maxima) zweimal so häufig am Anfang oder am Ende unseres Zeitfensters wie irgendwo in der Mitte.

Ich bin sicher, dass Sie erkennen, wohin das führt … Sie haben doch bestimmt all diese Behauptungen im Kopf bzgl. der letzten zehn Jahre, die extrem warm gewesen sind. Und über die extreme Anzahl von Stürmen und Extremwetter aller Art.

Darum musste ich so lachen. Falls man sagt „wir leben heute in extremen Zeiten ohne Beispiel“, hat man mathematisch wahrscheinlich recht, selbst wenn es überhaupt keinen Trend gibt, einzig weil die Daten autokorreliert sind und „heute“ am Ende unseres Zeitfensters liegt!

Wie urkomisch ist das denn? Wir leben tatsächlich in extremen Zeiten, und wir haben die Daten, die das beweisen!

Natürlich führt das genau in den AGW-Alarmismus, besonders weil jedwedes Extremereignis als Beweis angeführt wird, dass wir in prekären, außerordentlichen Zeiten leben, egal ob es warm oder kalt, nass oder trocken ist; ob es Dürren oder Überschwemmungen gibt…

Spaß beiseite, mir scheint, dass dies eine sehr wichtige Beobachtung ist. Typischerweise gehen wir davon aus, dass die extremen Zeiten gleichmäßig über das Zeitfenster verteilt sind. Aber wie Abbildung 2 zeigt, ist das nicht der Fall. Folge: Wir betrachten das Auftreten von Extremen in jüngster Zeit fälschlich als Beweis, dass die Grenzen der natürlichen Variabilität jetzt überschritten worden sind (z. B. „acht der zehn wärmsten Jahre“, usw.)

Dieses Ergebnis zeigt, dass wir unsere Ansichten dessen, was wir als „jüngste extreme Wetterereignisse“ betrachten, anheben müssen … weil wir selbst dann in extremen Zeiten leben, wenn es überhaupt keinen Trend gibt und wir dennoch extremes Wetter erwarten können.

Natürlich gilt dies für alle Arten von Datensätzen. Beispiel: gegenwärtig ist die Anzahl der Hurrikane extrem niedrig … aber ist diese kleine Zahl wirklich anomal, wenn die Mathematik uns sagt, dass wir in extremen Zeiten leben, so dass Extreme keine Überraschung sein sollten?

In jedem Falle schlage ich vor, dass wir dies den „Endzeiten-Effekt“ nennen, also die Tendenz der Häufung von Extremen in jüngster Zeit einfach deswegen, weil die Daten autokorreliert sind und „heute“ der Endzeitpunkt unseres Zeitfensters ist … und weil die korrespondierende Tendenz der Menschen, auf diese jüngsten Extreme zu schauen, zu der fälschlichen Annahme führt, dass wir in der Endzeit leben und alle dem Untergang geweiht sind.

Link: http://wattsupwiththat.com/2014/04/24/extreme-times/

Übersetzt von Chris Frey EIKE




Der schwer fassbare, etwa 60-jährige Zyklus des Meeresspiegel-Niveaus

Wie es so meine Gewohnheit ist, diese Behauptung zu überprüfen, habe ich mir die Daten besorgt. Also ging ich zum Permanent Service for the Mean Sea Level (PSMSL) und habe alle monatlichen Tidenmessungen von dort heruntergeladen, eine Gesamtzahl von 1413 individuellen Reihen. Nun sagten die Autoren der Studie zu der 60-jährigen Oszillation, sie hätten auf „langzeitliche Tidenaufzeichnungen“ geschaut. Falls wir wirklich nach einem 60-Jahre-Signal suchen, sagt mir meine Daumenregel, dass man einen dreimal längeren Zeitraum dafür braucht, also 180 Jahre, um die Ergebnisse einigermaßen abzusichern. Schlechte Nachrichten … wie sich herausstellt, gibt es nur an zwei der 1413 Zeitreihen, nämlich Brest und Swinemünde, 180 Jahre mit Daten. Also müssen wir uns kürzere Zeitreihen vornehmen, vielleicht die doppelte Zeitspanne von 60 Jahren, die wir untersuchen. Es ist oberflächlich, eine so kurze Zeitreihe zu verwenden, aber vielleicht reicht das ja schon. Es gibt 22 Tiden-Datensätze mit Daten aus 120 oder mehr Jahren. Abbildung 1a zeigt deren erste acht:

Abbildung 1a: Tidenmessungen über 1440 Monate (120 Jahre) oder mehr. Es handelt sich durchweg um relative Meeresspiegel, das heißt, sie alle beziehen sich auf eine willkürliche Grundlage. Einheiten sind Millimeter. Man beachte, dass die Skalen unterschiedlich und die Trends daher nicht so einheitlich sind wie sie aussehen.

Nun gibt es sicher keinen offensichtlichen 60-Jahres-Zyklus in diesen Tidenaufzeichnungen. Aber vielleicht sind ja die Feinheiten bei dieser Skalierung nicht erkennbar. Daher zeigt die nächste Abbildung die mittleren Gauss-Verteilungen der gleichen Datensätze. Um die darunter liegenden kleinen Änderungen der Mittelwerte zu enthüllen, habe ich zuerst jeden Datensatz trendbereinigt, indem ich jeden linearen Trend entfernt habe. Daher betont Abbildung 1b irgendwelche Zyklen ohne Rücksicht auf deren Größe, und beim Ergebnis muss man die sehr unterschiedlichen Skalierungen zwischen den Abbildungen 1a und 1b beachten.

Abbildung 1b: Gauss-Verteilung (14-jährige full-width half-maximum) der linear trendbereinigten acht Zeitreihen von Tidenmessungen aus Abbildung 1a. Man beachte, dass die individuelle Skalierung unterschiedlich zu Abbildung 1a sind.

Nun, sind die Daten erst einmal linear trendbereinigt, zeigen sich alle möglichen Schwingungen. Die dekadischen Schwingungen sind zumeist von der Größenordnung von 20 bis 30 mm von Spitze zu Spitze, obwohl einige etwa doppelt so stark sind. Das große Problem ist, dass die dekadischen Schwingungen unregelmäßig auftreten und völlig verschieden aussehen. Oder für unsere Frage relevant, in keinem dieser Datensätze zeigt sich ein offensichtlicher 60-Jahres-Trend.

Nun können wir noch genauer hinschauen, welche zugrunde liegenden Zyklen in jedem dieser Datensätze vorhanden sind, mit Hilfe einer Periodizitäts-Analyse. Das zeigt, wie stark die einzelnen Zyklus-Längen vertreten sind, in diesem Falle von zwei Monaten bis zu siebzig Jahren. Abbildung 1c zeigt die Periodizitäts-Analyse der gleichen acht langen Datensätze. In jedem Falle habe ich die jahreszeitlichen (jährlichen) Variationen des Meeresspiegels vor der Periodizitäts-Analyse entfernt.

Abbildung 1c: Periodizitäts-Analyse der ersten acht langzeitlichen Tiden-Zeitreihen.

Aber auch da sieht man nicht viel. Oben links in der Zeitreihe von Brest gibt es Hinweise auf einen 38-jährigen Zyklus. New York zeigt eine schwach ausgeprägte Spitze von etwa 48 Jahren. Anderswo zeigt sich durchweg kein Signal in den längerzeitlichen Zyklen, etwa von 30 bis 70 Jahren.

Schauen wir also auf die übrigen 22 Datensätze. Hier folgen die nächsten acht Zeitreihen mit Tidenmessungen in der gleichen Reihenfolge – erst die Rohdaten, dann das Gauss-Mittel und schließlich die Periodizitäts-Analyse.

Abbildungen 2a, 2b und 2c: Rohdaten, Gauss-Mittel und Periodizitäts-Analyse der nächsten acht, über 120 Jahre langen Zeitreihen

Und siehe da, es ist das gleiche Problem. Es zeigen sich alle möglichen Arten von Zyklen, aber keiner davon regelmäßig. Das größte Problem ist das Gleiche wie in den ersten acht Datensätzen – die Zyklen sind unregelmäßig und passen außerdem auch nicht zueinander. Mit Ausnahme einer kleinen Spitze bei etwa 45 Jahren in Vlissingen zeigen sich in keinem der längeren Zyklen ausgeprägte Wellen. Also weiter. Jetzt folgen die letzten sechs der 22 über 120 Jahre langen Datensätze:

Abbildungen 3a, 3b und 3c: Daten, Gauss-Mittel und Periodizitäts-Analyse wie oben für die letzten sechs der über 120 Jahre langen Tiden-Datensätze.

Da! Fallende relative Meeresspiegel in Abbildung 3a. Offensichtlich haben wir hier einige Tiden-Datensätze vor uns von Stellen mit einer nacheiszeitlichen Landhebung (PGR), das heißt, das Land hebt sich immer noch nach dem Verschwinden von Billionen Tonnen Eis aus der letzten Eiszeit. Folge: das Land hebt sich schneller als der Ozean…

Wie bizarr ist dass denn! Soeben bemerke ich, dass sich die Menschen um den Anstieg des Meeresspiegels als Folge der globalen Erwärmung Sorgen machen – dabei haben wir es hier mit der Hebung der Landmasse als Folge einer globalen Erwärmung zu tun… aber ich schweife ab. Das Gesamtergebnis der PGR in bestimmten Gebieten ist das relative Absinken des Meeresspiegels in vier der sechs Datensätze.

Wie auch in den anderen Datensätzen gibt es in diesen letzten sechs Datensätzen viele Zyklen unterschiedlicher Art, und wie zuvor sind sie nicht regelmäßig und passen auch nicht zueinander. Nur zwei von ihnen zeigen irgend eine Art stärkeres Signal in den längeren Zyklen. In Marseille zeigt sich so etwas mit einer Länge  von etwa 40 Jahren. Und da schau her, in Poti, dem Datensatz links oben, gibt es tatsächlich Hinweise auf einen 60-Jahres-Zyklus… nicht viel, aber von den 22 Datensätzen ist es der einzige, der auch nur einen vagen Hinweis auf ein Signal in der Größenordnung von 60 Jahren zeigt.

Und das ist alles. Das ist das Ergebnis aus allen Datensätzen, die mindestens zweimal so lang sind wie der 60-jährige Zyklus, nach dem wir suchen. Und wir haben grundsätzlich kein Anzeichen eines signifikanten 60-Jahres-Zyklus‘ entdecken können.

Nun nehme ich an, dass man noch weiter graben könnte. Allerdings sind alle verbleibenden Datensätze kürzer – und es tut mir leid, aber in einem Datensatz über 90 Jahre nach einem 60-jährigen Zyklus zu suchen entspricht nicht meiner Ansicht von Wissenschaft auf diesem Planeten. Man kann nicht behaupten, dass es einen Zyklus gibt, wenn man nur Daten der eineinhalbfachen Zykluslänge heranzieht. Das ist einfach Wunschdenken. Ich mag nicht einmal Daten über zwei Zykluslängen, sondern bevorzuge drei davon, aber in dieser Hinsicht gibt es eben nur zwei Datensätze.

Schließlich kann man fragen, ob es möglich ist, alle 22 Datensätze zu mitteln, um so den mysteriösen 66-Jahres-Zyklus zu entdecken? Vielleicht, aber wenn man sich das Durcheinander der oben gezeigten Aufzeichnungen ansieht – würde man es glauben, selbst wenn ich einen solchen Zyklus finden würde? Ich mag nicht einmal daran denken.

Aber als Wissenschaftler fühle ich mich immer durch unbeantwortete Fragen herausgefordert, also mache ich mich an die Arbeit. Ich plane, alle 22 langzeitlichen Datensätze heranzuziehen, diese linear trendbereinigen, sie zu mitteln und die drei Graphen zu zeigen (Rohdaten, Gauss-Mittel und Periodizitäts-Analyse. Das dauert nur einen Moment.

Zuerst kommt das Mittel aller trendbereinigten Aufzeichnungen, überlagert mit dem Gauss-Mittel.

Abbildung 4a: Mittel der trendbereinigten langzeitlichen Tiden-Aufzeichnungen. Die rote Linie zeigt ein full-width half-maximum [?] (FWHM) Gauss-Mittel der Daten, so wie es auch in den Abbildungen 1b, 2b und 3b der Fall war.

Ich sehe nichts, das wie eine Art 60-Jahres-Zyklus aussieht. Hier folgt die Periodizitäts-Analyse der gleichen 22 Stationsdaten:

Abbildung 4b: Periodizitäts-Analyse der Daten aus Abbildung 4a.

Wieder nichts! Eine sehr schwache Spitze zeigt sich bei etwa 45 Jahren, die wir auch in einer Einzel-Aufzeichnung gesehen haben. Das ist der einzige langzeitliche Zyklus, den ich erkennen kann.

Schlussfolgerungen? Nun, ich finde den 60-Jahres-Zyklus nicht, über den sie reden, weder in den individuellen noch in den mittleren Daten. Tatsächlich kann ich, wenn überhaupt, nur sehr geringe Anzeichen irgendwelcher langzeitlichen Zyklen erkennen. (Ich finde auch keine Zyklen um 11 Jahre, die in Einklang stehen könnten mit den Zyklen der Sonnenflecken, wie einige Leute behaupten, aber das ist eine andere Frage). Zur Erinnerung, die Autoren haben gesagt:

„Wir kommen zu dem Ergebnis, dass es eine signifikante Oszillation mit einer Periode von rund 60 Jahren bei der Mehrheit der im 20. Jahrhundert durchgeführten Tidenmessungen gibt…“

Tut mir leid, ich kann nichts dergleichen finden. Es gibt in den Einzel-Datensätzen dekadische Schwingungen von etwa 25 bis 50 mm. Ich glaube, man könnte dies „signifikante Oszillationen in der Mehrheit der Tidenmessungen“ nennen, obwohl das sehr weit hergeholt ist.

Aber die „signifikanten Oszillationen” sind nicht gleichmäßig. Man betrachte noch einmal die Gauss-Mittel in den ersten drei Gruppen von Abbildungen. Die „signifikanten Oszillationen“ zeigen sich überall. Selbst innerhalb jeder Einzelaufzeichnung variieren die Schwingungen erheblich hinsichtlich Zykluslänge und Amplitude. Also stimmen die Zyklen in jeder Einzelaufzeichnung nicht einmal mit sich selbst überein.

Auch untereinander stimmen sie nicht überein. Die Schwingungen in den verschiedenen Einzelaufzeichnungen passen weder zeitlich noch hinsichtlich der Größenordnung zusammen.

Und noch mehr auf den Punkt gebracht: keiner zeigt auch nur annähernd ein 60-Jahre-Signal. Nur einer der 22 Datensätze (Poti, oben links in den Abbildungen 3a, 3b und 3c) zeigt ein halbwegs erkennbares 60-Jahres-Signal bei der Periodizitäts-Analyse.

Also sage ich: Ich kann in den 22 langzeitlichen Tiden-Datensätzen keinerlei Anzeichen irgendeines 60-Jahres-Zyklus‘ erkennen. Man beachte, dies unterscheidet sich von der Aussage, dass ein solcher Zyklus in den Datensätzen nicht existiert. Ich sage, dass ich jeden einzelnen auseinander genommen und individuell nach bestem Wissen untersucht habe, und ich war nicht in der Lage, die behauptete „signifikante Oszillation mit einer Periode um 60 Jahre“ in irgendeiner dieser Aufzeichnungen zu finden.

Also gebe ich die Frage jetzt an Sie weiter. Ich habe alle relevanten Dinge verlinkt [siehe Original!] und gebe auch keine Empfehlung für eine bestimmte Analyse. Schauen Sie selbst, ob Sie die Existenz eines vermeintlichen 60-Jahres-Zyklus‘ in den 22 Aufzeichnungen finden.

Viel Glück bei der Suche!

[Es folgen die Hinweise und Links]

Aktualisierung: Ein aufmerksamer Kommentator schrieb dazu Folgendes:

Beim Googeln des Titels fand ich diesen frei zugänglich im Internet hier:
http://www.nc-20.com/pdf/2012GL052885.pdf.

Ich finde ihn überhaupt nicht überzeugend. Sie verwenden die kürzeren Zeitreihen in den PSMSL-Datensätzen und behaupten, 64-jährige Oszillationen zu erkennen, selbst wenn die Zeitreihen nur 110 Jahre lang sind.

Es gibt keinerlei Fourier- oder Periodizitäts-Analysen in dem Artikel.

Jan Kjetil Andersen

Vielen Dank, Jan, ich habe mir diese Studie mal angesehen. Sie verwenden jährlich gemittelte Daten … eine sehr eigenartige Auswahl. Warum sollte man jährliche Mittelwerte verwenden, wenn man bei PSMSL monatliche Datensätze findet?

In jedem Falle besteht das Problem in ihrer Analyse darin, dass man eine Sinus-Kurve an jede zeitliche Periode in den Tiden-Datensätzen anpassen kann und eine Nicht-Null-Antwort erhält. Als Ergebnis ist ihre Methode (Anpassen einer 55-jährigen Sinuswelle an die Daten) bedeutungslos ohne irgendetwas, mit dem man die Daten vergleichen kann.

Nach ein wenig Untersuchung erhält man beispielsweise das folgende Ergebnis. Ich habe ihre Methode verwendet und einen Sinus-Zyklus an die Daten angepasst. Hier folgen die Ergebnisse für Cascais, Aufzeichnung Nr. 43. In ihrer Studie geben sie die Amplitude (von Spitze zu Spitze, wie sich zeigt) der angepassten Sinuskurve mit 22,3 an. Ich erhalte eine ähnliche Antwort, was vermutlich einem etwas unterschiedlichen Optimierungs-Programm geschuldet ist.

Als Erstes möchte ich die von ihnen verwendeten Daten zeigen:

Falls irgendjemand glaubt, daraus einen „~60-Jahres-Zyklus” ableiten zu können, fürchte ich um seinen Geisteszustand…

Nicht nur das, aber nach all ihrem Geschwafel über einen „etwa 60-jährigen Zyklus“ analysieren sie in Wirklichkeit einen 55-jährigen Zyklus. Ist das nicht unlauterer Wettbewerb?

Als Nächstes folgen hier die Ergebnisse ihrer Analyse nach dem Typ einer Sinuswelle für die Perioden von 20 bis 80 Jahren. Die folgende Graphik zeigt die Amplitude von Spitze zu Spitze der angepassten Sinuskurve für jede Periode.

Und tatsächlich zeigt sich ein sinusartiger Zyklus von etwa der Größenordnung von 55 Jahren… aber das unterscheidet sich nicht von den Perioden auf beiden Seiten. Als solches ist das daher bedeutungslos.

Das wirkliche Problem ist: wenn die Zykluslänge im Vergleich zu den Daten so lang wird, ist die Antwort sehr, sehr vage… sie haben weniger als 100 Jahre mit Daten und suchen nach einem 55-jährigen Zyklus. Beklagenswert, um nicht zu sagen unmöglich.

In jedem Falle zeigt ihre Analyse, dass ihre Methode (Anpassen einer 55-jährigen Sinuskurve an die Daten) absolut unbrauchbar ist, weil uns dies nichts über die relative Stärke der Zyklen sagt.

Was natürlich erklärt, warum sie glauben, einen solchen Zyklus gefunden zu haben… ihre Methode ist einfach Unsinn. Wie sich zeigt, ist das Originaldokument noch schlimmer als ich gedacht habe.

Link: http://wattsupwiththat.com/2014/04/25/the-elusive-60-year-sea-level-cycle/

Übersetzt von Chris Frey EIKE

Update 2.5.14:

Autor Willis Eschenbach hat die Behauptung des Auffindens eines etwa 60 jährigen Zyklus nochmals mit einem schärferen Werkzeug ungtersucht: http://wattsupwiththat.com/2014/05/01/the-sea-level-cycles-get-more-elusive/

Er fand alle möglichen Zyklen, doch fast immer verschieden voneinander, nur nicht den behaupteten gemeinsamen 60 jährigen Zyklus




Vulkanische Eruptionen und ozeanischer Wärmegehalt

Bild rechts: Vulkan auf den Kanaren. Bild: Dieter Schütz  / pixelio.de 12.00

Ihre Abbildung 1 sieht so aus:

Bildinschrift im Original: Anomalien des globalen mittleren Wärmegehaltes aus den individuellen Mittelwerten der Aufzeichnung 1966 bis 1995, integriert über Tiefen von 0 bis 700 m und zeitlich geglättet mit einem laufenden 1-Jahres-Filter. Fette schwarze Kurve: das Ensemble-Mittel der acht nicht modellierten und teilweisen Analysen. Der lineare Trend des Ensemble-Mittels beträgt 0,77 X 10­8 J/m²/10 Jahre) oder 0,24 W/m². Trends der individuellen Analysen reichen von 0,68 bis 0,98 X 10­8 J/m²/10 Jahre) oder 0,21 bis 0,31 W/m². Die jährlichen vulkanischen Aerosol-Konzentrationen sind entlang der unteren Achse geplottet (aus Hansen et al. 2005). Der globale integrierte Wärmegehalt kann aus dem globalen Mittel gewonnen werden, indem man es mit der Oberfläche der Welt-Ozeane multipliziert mit Ausnahme der Festlandschelfe, also mit 3,4 X 10­14 m².

Bildunterschrift bei Eschenbach: Abbildung 1: neun verschiedene Schätzungen der Änderung des ozeanischen Wärmegehaltes, einschließlich eines Modells und acht auf Beobachtungen basierenden Schätzungen. Wenn man dies mit anderen Analysen vergleicht, muss man beachten, dass der ozeanische Wärmegehalt OHC in dieser Analyse mit 10­8 Joule pro Quadratmeter angegeben ist und nicht mit dem gebräuchlicheren globalen ozeanischen Gesamtwärmeinhalt, der normalerweise mit der Einheit 10­22 Joule gemessen wird. Die Konversion wird im letzten Satz der Bildinschrift beschrieben. (Tatsächlich glaube ich, dass ihre Bildunterschrift in ihrer Studie aus einem anderen Zusammenhang stammt und nicht aktualisiert worden ist … aber es ist klar, was gemeint ist).

Mein Interesse wurde nach der Lektüre des Abstract geweckt:

ABSTRACT

Diese Studie untersucht neun Analysen der globalen Wassertemperatur und des Wärmegehaltes, jeweils zwischen 0 und 700 m Tiefe, während der 43-jährigen Erwärmungsperiode von 1960 bis 2002. Unter den Analysen sind zwei, die unabhängig von jedem numerischen Modell sind, sechs, die sich auf teilweise Datenassimilation stützen einschließlich eines Allgemeinen Ozean-Zirkulationsmodells, und eine, die vierdimensionale variable Datenassimilation verwendet (4DVAR), einschließlich eines Allgemeinen Zirkulationsmodells. Die meisten Analysen zeigen eine graduelle Erwärmung des globalen Ozeans mit einem Ensemble-Trend von 0,77 X 10­8 J/m²/10 Jahre (= 0,24 W/m²) als die Folge der rapiden Erwärmung Anfang der siebziger Jahre und dann erneut ab etwa dem Jahr 1990. Eine Erklärung für diese Variationen sind die Auswirkungen von Vulkanausbrüchen in den Jahren 1963 und 1982. Die Untersuchung dieser Hypothese zeigt, dass sie trotz eines ozeanischen Signals nicht ausreicht, um die  beobachteten Variationen des Wärmegehaltes zu erklären.

Was kann man also aus dieser Studie lernen? Zunächst war mir überhaupt nicht bekannt, dass es neun unterschiedliche Schätzungen der Änderungen des ozeanischen Wärmegehaltes gibt; das war also für mich neu. Und noch ziemlich viel anderes … einschließlich der Erinnerung an die Tatsache, dass diese Art „Spaghetti-Graphik“ ohne Fehlerabschätzungen nutzlos ist.

Als Erstes habe ich also die Fehlerschätzungen in den Levitus-Daten eingeholt, die in Abbildung 1 gezeigt sind (gestrichelte violette Linie) und habe sie in die Graphik eingezeichnet um zu sehen, was dann passiert:

Abbildung 2: Genau wie Abbildung 1, aber ich habe die Levitus-Daten hervorgehoben und die roten vertikalen Linien hinzugefügt, die die Fehlerbreite der Levitus-Daten zeigen.

Nun habe ich schon lange den Verdacht gehabt, dass die Fehlerschätzungen in den Levitus-Daten unterschätzt sind … ich würde sagen, dass dieser Graph dies bestätigt.

Im Vorübergehen musste ich auch erkennen, dass ich nicht in der Lage war, ihre Abbildung 1 hinsichtlich der Levitus-Daten zu reproduzieren. Unter der aus obigem Link heruntergeladenen Daten sieht das, was die Levitus-Analyse derzeit zeigt, so aus:

Abbildung 3: Abbildung 1 aus C&S2008, überlagert mit den gegenwärtigen Levitus-Daten in rot.

Wie man sieht, gibt es eine gute allgemeine Übereinstimmung mit ihren Daten mit Ausnahme der Periode von 1969 bis 1984 … dafür habe ich keine Erklärung.

Allerdings war dies nicht das, was mich interessiert hat. Ich wollte wissen, wie das mit den Vulkanen ist. Eine Zeitlang habe ich in verschiedenen Beiträgen erklärt, dass die Folgen von Vulkanausbrüchen auf die Temperatur des Planeten überschätzt werden, manchmal sogar sehr erheblich. Ich war überrascht , ihre Ergebnisse hinsichtlich des Ausbruchs des El Chichón in Mexiko zu sehen. Sie haben einen interessanten Weg in ihrer Analyse beschritten. Für jedes Ozeangebiet haben sie den ozeanischen Wärmegehalt in den vier Jahren vor dem Ausbruch mit den vier Jahren nach dem Ausbruch verglichen. Das schien mir ein vernünftiger Ansatz. Abbildung 4 zeigt ihre Ergebnisse der 9 Analysen hinsichtlich des El Chichón-Ausbruchs im Jahre 1982:

Abbildung 4: Vergleich der Gesamtänderung des ozeanischen Wärmegehaltes (OHC) in den vier Jahren vor bzw. nach dem Ausbruch des El Chichón. Die oberen 8 Teilabbildungen darin zeigen die 8 Beobachtungs-Datensätze, die untere das Modell. Man beachte die unterschiedlichen Größenordnungen… vermutlich deswegen, weil die Änderungen in den Modellergebnissen nur etwa 2/3 so groß waren wie die Beobachtungen.

ORIGINAL-BILDUNTERSCHRIFT: Abb. 3: Änderung des 4-jährigen mittleren Wärmegehaltes jeweils 4 Jahre vor und nach dem Ausbruch des Mount Agung im Jahre 1963. Vor der Berechnung der Änderung des Wärmegehaltes wird eine Regressionsanalyse verwendet, um die Effekte der ENSO und eines linearen Erwärmungstrends zu eliminieren. (siehe Abbildung 2). … Die Änderungen größer als ± 5 X 10­8 J/m² sind schattiert. Die untersten Teilabbildungen zeigen die Änderung des Wärmegehaltes aus einem Fünfer-Ensemble der gekoppelten Simulation mit CM2.1 mit vollständigem Aerosol-Antrieb. Änderungen, die über ± 3 x 10­8 J/M² hinausgehen, sind schattiert.

Auf den ersten Blick sieht es nach einer Bestätigung aus, dass der Vulkan tatsächlich eine Abkühlung verursacht hat und dass meine Hypothese der minimalen vulkanischen Abkühlung falsch war.

Wenn allerdings die Abkühlung auf den Ausbruch zurückzuführen ist, warum gibt es dann Gebiete mit Erwärmung? Warum beschränkt sich die Abkühlung auf die Pazifik-Region unmittelbar um den Äquator, wenn die vulkanischen Aerosole ursprünglich vom Äquator stammen und dann über den ganzen Planeten verteilt werden? Und warum gibt es rund um die Ausbruchsstelle in Mexiko keine verstärkte Abkühlung?

Wie immer liegt die Antwort in mehr Beobachtungen. Abbildung 5 zeigt die korrespondierenden 4-Jahres-Mittel für den Pinatubo …

Abbildung 5: Wie Abbildung 4, nur diesmal bzgl. des Pinatubo-Ausbruchs in den Philippinen.

Wie die Studie selbst sagt …

Für den Pinatubo zeigen die meisten Analysen eine allgemeine Erwärmung, außer im westlichen äquatorialen (Süd-)Pazifik.

Allgemeine Erwärmung des Ozeans nach dem größten Vulkanausbruch unserer Zeit? Das sieht deutlich nach einer Unterstützung für meine Behauptungen aus … m. E ist die einzige Schlussfolgerung, die wir aus den Beobachtungen dieser beiden Vulkanausbrüche ziehen können, dass sie wie normale Variationen des OHC aussehen, und wie auch immer die Auswirkungen geartet sind, sind sie ziemlich klein.

Eine nähere Betrachtung enthüllt einen letzten und sehr starken Hinweis, dass die in den Abbildungen 4 und 5 gezeigten Änderungen NICHT auf die beiden Ausbrüche, sondern auf natürliche Variationen unbekannten Ursprungs zurückzuführen sind.

Das Format der Abkühlung hat nicht die von den Modellierern vorhergesagte Form angenommen. Wie die Modelle zeigen, falls der Antrieb der Ausbrüche wirklich die Temperatur bestimmen würde, würde man den stärksten Effekt unmittelbar stromabwärts der Ausbruchsstelle erwarten. Man beachte in Abbildung 5, dass von allen neun Ergebnissen (8 aus Beobachtungen, 1 aus dem Modell) nur das Modell eine Abkühlung stromabwärts des Pinatubo zeigt. Man kann es in den Modellergebnissen erkennen, und zwar an dem blauen Gebiet, das wie ein Pfeil in Richtung nördliche Philippinen zeigt mit dem Schwanz stromabwärts im nördlichen Pazifik … aber keines der Beobachtungs-Datensätze zeigt diese Verteilung der Abkühlung stromabwärts des Pinatubo.

Nicht nur das, sondern man betrachte noch einmal Abbildung 4. Dreimal darf man raten, welche der neun Analysen behauptet, dass es stromabwärts des Ausbruchs in Mexiko zu einer Abkühlung kommt, und zwar im Gebiet der Karibik und dem nördlichen Südamerika. Jawohl … das Modell war das einzige … und es ist nicht so gekommen. Selbst in den Gebieten direkt stromabwärts der Ausbrüche findet man also nicht die erwarteten Änderungen des Wärmegehaltes aufgrund von Änderungen des solaren Antriebs.

Die Vulkane stellen ein riesiges Problem dar für die allgemein verbreitete Ansicht, dass die Änderungen der globalen mittleren Temperatur eine lineare Funktion der Änderungen des Antriebs sind. Die Klimamodelle sind nichts weiter als eine mechanistische Implementierung der beschriebenen und simplistizischen Hypothese.

Nun kennen wir die Tatsache, dass der solare Antrieb nach dem Pinatubo-Ausbruch einen großen und ziemlich langen Abschwung hinlegte … aber man findet weder die Mange noch die Verteilung der von den Modellen vorhergesagten Abkühlung. Und nicht nur das, sondern das vorherrschende Element nach Pinatubo war Erwärmung, nicht Abkühlung … also noch einmal, die einzige haltbare Schlussfolgerung lautet:

1. Was immer die Vulkane auslösen – es ist nicht das, was das Modell sagt oder was die konventionelle Klimatheorie vorhersagt, und

2. was immer die Vulkane auslösen, es reicht nicht einmal aus, um Effekte über das Rauschen hinaus auszulösen.

Für mich ist das einfach ein weiterer Beweis, dass das zugrunde liegende Klima-Paradigma, also der Gedanke, dass Temperaturänderungen eine lineare Funktion der Änderungen des Antriebs sind, einfach falsch ist. Falls es korrekt wäre, hätten die Ausbrüche das gezeigt … aber das haben sie einfach nicht.

Das ist der Grund, warum ich mich selbst eher als einen Klima-Häretiker bezeichne als einen Skeptiker – ich glaube, dass das fundamentalste Paradigma dessen, wie das Klima funktioniert, falsch ist. Die Temperaturänderungen sind KEINE lineare Funktion der Änderungen des Antriebs, wie es die konventionelle Klimatheorie behauptet.

Daten:  Global Decadal Upper-Ocean Heat Content as Viewed in Nine Analyses, James Carton and Anthony Santorelli 

 Link: http://wattsupwiththat.com/2014/04/06/eruptions-and-ocean-heat-content/

Übersetzt von Chris Frey EIKE




Meeresspiegelanstieg und Frischwasserzufluss?

[*Beim Anklicken des Artikels habe ich ihn ohne Zahlschranke bekommen. A. d. Übers.]

In Cazenave14 heißt es, das parallel zum Stillstand bei der globalen Erwärmung auch die Rate des globalen Meeresspiegel(GMSL)-Anstiegs geringer geworden ist. Obwohl irgendwie andere Zahlen genannt werden, geht dies aus den Ergebnissen aller fünf Gruppen hervor, die die Satellitendaten bzgl. des Meeresspiegels bearbeitet haben, wie der obere Teil „a“ der Abbildung 1 zeigt:

Abbildung 1: Original-Bildunterschrift: GMSL-Rate über fünf Jahre lange übergreifende Ausschnitte [Original: five-year-long moving windows]. a: zeitweilige Evolution der GMSL-Rate berechnet über übergreifende 5-Jahres-Zeiträume, verschoben um 1 Jahr (Anfangsjahr: 1994). b: zeitweilige Evolution der korrigierten GSML-Rate (nomineller Fall), berechnet über übergreifende 5-Jahres-Zeiträume, verschoben um ein Jahr (Anfangsjahr: 1994). Die GMSL-Daten von jeder der fünf Gruppen werden gezeigt.

Nun darf es natürlich keine Verlangsamung der Rate des Meeresspiegel-Anstiegs geben, das würde nicht zur gewünschten Linie passen. Also haben sie sich entschlossen, die zwischenjährlichen Variationen in den beiden Komponenten heraus zu subtrahieren, die den Meeresspiegel ausmachen – die Massenkomponente und die „räumliche“ Komponente. Der untere Teil der Abbildung zeigt, was sie danach herausbekommen haben, nachdem sie die zwischenjährlichen Variationen berechnet und von jedem der fünf Ergebnisse der jeweiligen Gruppen subtrahiert hatten.

Bevor es weitergeht, möchte ich eine Frage in den Raum stellen, die ich später beantworten werde: Was genau in Abbildung 1 hat mich dazu veranlasst, diese Arbeit genauer unter die Lupe zu nehmen?

Bevor ich darauf eingehe, möchte ich noch etwas detaillierter erklären, was sie gemacht haben. Siehe dazu die Sekundärinformationen. Sie haben begonnen mit dem mittleren Meeresspiegel, der von den fünf Gruppen gezeigt wurde. Dann haben sie das trendbereinigt. Als Nächstens verwendeten sie eine Vielfalt von Beobachtungen und Modellen, um die zwei Komponenten abzuschätzen, die die Variationen im Anstieg des Meeresspiegels ausmachen.

Die Massenkomponente ist die Gesamtmenge an Wasser, die den Ozeanen entweder zugeführt oder entnommen wird durch die Launen des hydrologischen Zyklus‘ – Eisschmelze und Gefrieren, Verteilung der Regenmenge zwischen Festland und Ozeanen, und so weiter. Die räumliche Komponente (Dichte-Komponente) des Meeresspiegels andererseits ist die Änderung des Meeresspiegels infolge Änderungen der Dichte des Ozeanwassers durch unterschiedliche Temperatur und Salinität. Die Summe der Änderungen dieser beiden Komponenten ergeben die Gesamtänderungen des Meeresspiegels.

Als Nächstens haben sie die Summe der beiden Komponenten vom Mittel der Ergebnisse der 5 Gruppen subtrahiert. Damit bekamen sie die „Korrektur“, die sie danach jeweils auf die Schätzungen der fünf Gruppen angewendet haben. Sie beschreiben den Prozess in der Bildunterschrift unter ihrer Graphik:

Abbildung2: Dies ist Abbildung S3 aus den Ergänzenden Informationen. Original-Bildunterschrift: Schwarze Kurve: mittlere trendbereinigte GMSL-Zeitreihe (Mittel der fünf altimetrischen Satelliten-Datensätze) von Januar 1994 bis Dezember 2011 sowie Unsicherheitsgrenzen (in grau; basierend auf der Verteilung jeder Zeitreihe um das Mittel). Hellblaue Kurve: zwischenjährliche Massenkomponente basierend auf dem hydrologischen Modell ISBA/TRIP für Wasserspeicherung auf dem Festland plus atmosphärische Wasserdampf-Komponente von Januar 1994 bis Dezember 2002 sowie GRACE CSR RL05 Ozeanmasse von Januar 2003 bis Dezember 2011 (Hybrid-Fall 1). Die rote Kurve ist die Summe der zwischenjährlichen Massen- plus der thermosterischen Komponente. Dies ist das aus den ursprünglichen GMSL-Zeitreihen entfernte Signal. Vertikale Balken repräsentieren die Unsicherheit der monatlichen Massenabschätzung (hellblau) und monatlichen Gesamtverteilung (Massen- plus thermosterische Komponente; rot). Einheiten: mm.

Was also berechnen sie denn nun, wenn sie die rote Linie von der schwarzen Linie subtrahieren? Hier begannen die Dinge falsch zu laufen. Von der blauen Linie wird gesagt, dass sie die trendbereinigte Massen-Fluktuation sei einschließlich der zwischenjährlichen Speicherung auf dem Festland und in Wasserdampf. Von der schwarzen Linie sagen sie, dass sie das trendbereinigte Mittel des GMSL darstellt. Die rote Linie markiert die blaue Linie plus die „räumliche“ Änderung durch thermische Expansion. Hier liegen die Schwierigkeiten, die ich sehe, mit steigender Rangfolge der Wichtigkeit. Allerdings ist jede einzelne der folgenden Schwierigkeiten ausreichend, ihre Ergebnisse zu falsifizieren.

Unsicherheit

Ich habe obige Graphik so digitalisiert, dass ich sehen kann, wie ihre Korrektur wirklich aussieht. Abbildung 3 zeigt das Ergebnis in blau einschließlich des 95%-Vertrauens-Intervalls in der Korrektur.

Abbildung 3: Die in Cazenavel angebrachte Korrektur der GMSL-Daten der fünf bearbeitenden Gruppen (blau)

Die „Korrektur”, die sie an jeden der fünf Datensätze angebracht haben, ist statistisch nur in 10% aller Datenpunkte von Null unterschiedlich. Dies bedeutet, dass 90% ihrer „Korrektur“ nicht vom Rauschen unterscheidbar ist.

Trend

In der Theorie schauen sie lediglich auf zwischenjährliche Variationen. Sie beschreiben den Prozess, um diese zu erhalten. Die schwarze Kurve in Abbildung 2 wird beschrieben als „mittlere trendbereinigte GMSL-Zeitreihe“ (Hervorhebung von mir). Die blaue Kurve in Abbildung 2 beschreiben sie so (Hervorhebung von mir):

Da wir uns auf die zwischenjährliche Variabilität konzentrieren, wurden die Massen-Zeitreihen trendbereinigt.

Und die rote Kurve in Abbildung 2 ist die kombinierte Massen- und räumliche Komponente. Ich kann nirgendwo finden, dass sie die räumliche Komponente trendbereinigt hätten.

Das Problem ist, dass in Abbildung 2 keine der drei Kurven trendbereinigt ist, obwohl alle dicht beieinander liegen. Die schwarze Kurve zeigt einen aufwärts gerichteten und die anderen beiden einen abwärts gerichteten Trend.

Die schwarze GMSL-Kurve weist immer noch einen leichten Trend auf, etwa +0,02 mm pro Jahr. Die blaue räumliche Kurve geht um -0,06 mm pro Jahr in die andere Richtung. Die rote Kurve übertreibt dies noch etwas, so dass sich ein Gesamttrend der beiden von -0,07 mm pro Jahr ergibt. Und das bedeutet, dass die „Korrektur“, also der Unterschied zwischen der roten Kurve (Massen- + räumliche Komponente) und der schwarzen GSML-Kurve, ebenfalls einen Trend aufweist, nämlich die Summe der beiden oder etwa ein Zehntel eines Millimeters pro Jahr.

Wie gesagt, ich kann nicht ergründen, was damit gesagt werden soll. Sie sprechen von trendbereinigten Werten zur Bestimmung der zwischenjährlichen Unterschiede, die aus den Daten entfernt werden sollen … aber falls sie das wirklich getan hätten, hätte die Korrektur keinen Trend haben können. Und ihren Graphen zufolge ist nichts vollständig trendbereinigt, und die Korrektur hat ganz bestimmt einen Trend.

Logik

Die Studie enthält auch die folgende Beschreibung hinsichtlich der Informationsquelle zur Massenbilanz:

Um die Massenkomponente infolge Änderungen der globalen Wasserspeicherung zu schätzen, benutzen wir das Interaction Soil Biosphere Atmosphere (ISBA)/Total Runoff Integrating Pathways (TRIP) globale hydrologische Modell, das von MétéoFrance22 entwickelt worden ist. Das ISBA-Verfahren auf Landoberflächen berechnet die zeitlichen Variationen der Budgets von Oberflächen-Energie und Wasser in drei Bodenschichten. Der Wassergehalt einer Bodenschicht variiert mit dem Wassereintrag von der Oberfläche, der Verdunstung, der Pflanzen-Transpiration und der Drainage. ISBA ist gekoppelt mit dem TRIP-Modul, das den täglichen, vom ISBA simulierten Abfluss konvertiert in ein globales Fluss-System mit der Auflösung 1. In der jüngsten Version verwendet ISBA/TRIP als meteorologischen Antrieb Daten mit einer Auflösung von 0,5 der ERA Interim reanalysis des Europäischen Zentrums für Mittelfristrige Wettervorhersage (hier). Speicherungsergebnisse von Wasser auf dem Festland werden in monatlichen Intervallen angegeben von Januar 1950 bis Dezember 2011. Der Beitrag des atmosphärischen Wasserdampfes wurde aus der ERA Interim reanalysis geschätzt.

So weit, so gut. Sie benutzen also die Ergebnisse der historischen Reanalyse um zu modellieren, wie viel Wasser in jedem Monat an Land gespeichert worden ist und sogar in der Luft.

Jetzt nehmen wir einmal an, dass ihr Modell der Massenbilanz perfekt wäre. Weiter wollen wir annehmen, dass die Daten des Meeresspiegels perfekt sind und dass ihr Modell der räumlichen Komponente ebenfalls perfekt ist. Wäre die „Korrektur“ in diesem Falle nicht Null? Ich meine, die „Korrektur“ ist nichts als der Unterschied zwischen dem modellierten Meeresspiegel und dem gemessenen Meeresspiegel. Falls die Modelle perfekt wären, würde die Korrektur zu allen Zeiten Null sein.

Was zwei Schwierigkeiten aufwirft:

1. Wir haben keine Sicherheit, dass der Unterschied zwischen den Modellen einerseits und den Beobachtungen andererseits nur Modellfehlern geschuldet ist, und

2. falls die Modelle korrekt sind, woher kommt das Wasser und wohin geht es? Die „Korrektur“, die uns von den modellierten zu den beobachteten Werten bringt, muss eine riesige Menge Wasser repräsentieren, die kommt und geht … aber von wo und wohin? Vermutlich sind El Nino-Effekte in ihrem Modell enthalten, welches Wasser bewegt sich da also?

Die Autoren erklären das folgendermaßen:

Studien aus neuerer Zeit haben gezeigt, dass die kurzfristigen Fluktuationen des mit Satelliten gemessenen Meeresspiegels hauptsächlich Variationen der Wasserspeicherung auf dem Festland geschuldet sind (hauptsächlich in den Tropen) mit einer Tendenz zu einem Wasserdefizit an Land (und einem zeitweiligen Steigen des Meeresspiegels) während El Nino-Ereignissen und der entgegen gesetzten La Ninas. Dies resultiert direkt aus Regen-Exzessen über den tropischen Ozeanen (meist dem tropischen Pazifik) und Regendefizit an Land (meist in den Tropen) während eines El Nino. Bei einer La Nina ist die gegenteilige Lage vorherrschend. Die Abfolge von La Nina-Ereignissen während der letzten Jahre hat im vorigen Jahrzehnt zu vorübergehenden negativen Anomalien von mehreren Millimetern beim GMSL geführt. Diese Reduktion war Anlass für diese Studie.

Aber … Aber wenn das so ist, warum wird diese Variation der Regenmenge nicht durch das komische Modell „Interaction Soil Biosphere Atmosphere (ISBA)/Total Runoff Integrating Pathways (TRIP) global hydrological model” gezeigt? Ich meine damit: das Modell läuft mit tatsächlichen Messungen der Regenmenge einschließlich der Daten aktueller El Nino-Ereignisse.

Und wenn man Davon ausgeht, dass ein so großer und ausgedehnter Effekt nicht durch das Modell gezeigt wird, warum sollen wir dann in diesem Fall annehmen, dass das Modell etwas taugt?

Der einzige Weg, auf dem wir ihre Logik anwenden können wäre, FALLS das Modell perfekt genau ist, außer dass es irgendwie vollständig die atmosphärischen Änderungen durch ein El Nino ignoriert … aber das Modell wird mit tatsächlichen Daten gefüttert, und wie kann es da wissen, was es ignorieren soll?

Alles in allem

Was also haben sie schlussendlich getan? Nun, sie haben die Differenz gemessen zwischen den Modellen und dem Mittel der Beobachtungen der fünf Arbeitsgruppen.

Dann haben sie diese Differenz auf die individuellen Ergebnisse der fünf Arbeitsgruppen angewendet.

Mit anderen Worten, sie haben die Daten von den Modellen subtrahiert … und haben dieses Ergebnis dann zu den Daten addiert. Das wollen wir mal mathematisch ausdrücken:

Daten + „Korrektur“ = Daten + (Modelle –Daten) = Modelle

Wie unterscheidet sich das von der einfachen Aussage, dass die Modelle korrekt und die Daten falsch sind und man auf dieser Basis einfach weiter macht?

Schlussfolgerungen

1. Selbst wenn die Modelle genau und die Korrekturen echt sind, erhebt sich die Größenordnung nicht über das Rauschen.

2. Trotz der Behauptung, dass sie trendbereinigte Daten für ihre Berechnungen der Korrekturen verwendet haben, zeigt die graphische Darstellung jener Daten, dass alle drei Datensätze (GMSL, Massenkomponente sowie Massen- + räumliche Komponente) Trends aufweisen.

3. Wir haben keine Sicherheit, dass „Korrektur“, was nichts anderes ist als der Unterschied zwischen Beobachtungen und Modellen, etwas anderes ist als Modellfehler.

4. Alles in allem wollten sie mit ihrer Prozedur Beobachtungsergebnisse in modellierte Ergebnisse umwandeln. Zur Erinnerung, wenn man ihre „Korrektur“ auf den mittleren Meeresspiegel anwendet, bekommt man die die modellierten Ergebnisse zeigende rote Kurve. Also  ist die Anwendung auf die fünf individuellen Datensätze, die den mittleren Meeresspiegel ausmachen … nun … das Wort, das einem sofort in den Sinn kommt, ist ‚bedeutungslos‘. Sie haben einen großen Kreis geschlagen, um dorthin zu kommen, aber am Ende sagen sie lediglich, dass die Modelle richtig und die Daten falsch sind…

P.S. Nach guter Gewohnheit möchte ich jeden, der nicht mit mir übereinstimmt, auffordern, in den Kommentaren genau jene Worte anzuführen, mit denen man nicht übereinstimmt.

P.P.S. Ich habe oben gefragt, was mir an den Graphiken in Abbildung 1 so komisch vorgekommen war, dass ich näher hingeschaut habe. Nun, in ihrer Studie sagen sie, dass die gleiche Korrektur an die Daten jeder einzelnen Arbeitsgruppe angebracht worden war. Wenn ich das richtig verstehe (was durchaus nicht immer der Fall sein muss), sollte dies in einer linearen Transformation der Daten in jedem Monat führen. Mit anderen Worten, die Anpassung in jedem Monat war in allen Datensätzen die Gleiche, egal ob es nun +0,1 oder -1,2 oder was auch immer war. Sie wurde gleichermaßen auf jeden bestimmten Monat in den Datensätzen aller fünf Gruppen angebracht.

Nun, es gibt etwas Seltsames bei dieser Art von Transformation, also bei der Addition oder Subtraktion eines bestimmten Betrages in jedem Monat. Sie kann keine Linien in der Graphik begradigen, wenn sie gekrümmt beginnt, und umgekehrt. Wenn sie ungekreuzt beginnen, kann ihre Art der „Korrektur“ sie nicht kreuzen. Mit dem im Hinterkopf folgt hier noch einmal Abbildung 1:

Ich konnte immer noch keinen Grund finden, warum sie das gemacht haben, also bin ich für Hinweise dankbar.

DATA AND CODE: Done in Excel, it’s here.

Link: http://wattsupwiththat.com/2014/03/28/sea-water-level-fresh-water-tilted/

Übersetzt von Chris Frey EIKE, der inhaltlich nicht immer alles verstanden hat.




US Klimajournalist und Scharfmacher der Climategate Fraktion Andrew Revkin kann nicht rechnen!

Am meisten habe ich mich jedoch darüber amüsiert, wie dieser Mann, der von sich behauptet, über Wissenschaft zu berichten, die bloße Existenz seines Blogs begründet:

Bis zum Jahr 2050 oder so wird erwartet, dass die Weltbevölkerung auf 9 Milliarden gewachsen ist, was gleichbedeutend ist mit der Hinzufügung der doppelten Anzahl von heute lebenden Chinesen. Diese Millarden wollen Nahrung, Wasser und andere Ressourcen von einem Planeten, wo, wie Wissenschaftler sagen, die Menschen schon jetzt am Klima und dem Netz des Lebens kratzen. In der Rubrik Dot Earth, die von der Nachrichtenseite der Times im Jahre 2010 in die Meinungsspalte wanderte, untersucht Andrew C. Revkin Bemühungen, die menschlichen Belange mit den Limits des Planeten in Einklang zu bringen. Teils mit Unterstützung von einer John Simon Guggenheim-Mitgliedschaft [?] geht Dot Earth relevanten Entwicklungen vom Stadtrand bis nach Sibirien nach.

Wirklich? Schauen wir doch mal auf die Zahlen dieses charmanten, des Rechnens unkundigen Kerl.

Die Zahlen setzt er folgendermaßen um. Ich stimme Revkin bzgl. der Bevölkerungszahl zu, weil die meisten Behörden sagen, dass bis zum Jahr 2050 in der Tat etwa 9 Milliarden Menschen auf der Erde leben werden. Ich glaube, dass das stimmt, nicht wegen der Behörden, sondern weil meine eigene Analyse dieser Zahlen zu einem ähnlichen Ergebnis kommt. Man kann mich skeptisch nennen, aber ich glaube keinen Zahlen von irgendjemand anderem mehr.

Wie auch immer, die Zahlen der FAO der heutigen Bevölkerung sehen so aus:

Gegenwärtige globale Bevölkerung: 7,24 Milliarden

Gegenwärtige chinesische Bevölkerung: 1,4 Milliarden

Gegenwärtige Bevölkerung plus Revkins „zwei Chinas“: 10,04 Milliarden

Also irrt sich Revkin lediglich um eine Milliarde Menschen … aber was soll’s, angesichts seiner historischen Verteidigung der wissenschaftswidrigen Verfahren und seiner lächerlichen Behauptungen hinsichtlich „Leugnern“ und „Leugnung“ verblasst dieser kleine Irrtum vergleichsweise.

Abgesehen davon ist Revkins Fehler nicht unwichtig. Das Anwachsen der Bevölkerung auf 9 Milliarden, bei der sich die Bevölkerung wahrscheinlich einpendeln wird, bedeutet eine Zunahme von etwa 1,75 Milliarden. FALLS Revkins Behauptung über die zwei Chinas richtig wären, würde die Zunahme 2,8 Milliarden betragen. Sein Fehler beträgt also 2,8/1,75 – was bedeutet, dass seine Zahlen um 60% zu hoch liegen. Und um ein Problem, dessen Größenordnung er um 60% überschätzt hat, sollen wir uns große Sorgen machen? … Schlechter Journalismus, keine Frage.

Nun ist eine Fehlschätzung eines als das Wichtigste aller Probleme eingeschätzten Problems um 60% für die meisten Wissenschaftsreporter von Bedeutung. Diese Art Fehler würde sie beschäftigen. Sie würden einen Fehler dieser Größenordnung hastig korrigieren. Für Revkin jedoch geht ein Fehler um 60% im Rauschen seiner restlichen lächerlichen Gedanken unter.

Meine Vorhersage? Er sollte die betrügerische alarmistische Behauptung hinsichtlich der Bevölkerung auf seinem Blog fallen lassen, einfach weil ein „Leugner“ ihn auf diesen Fehler nach Art eines Fehlers in einer Mathe-Arbeit in der Schule hinweist, und selbst eine minimale Änderung oder ein Tüpfelchen als Antwort auf einen „Leugner“, wie ich einer bin, wäre ein unakzeptables Zugeständnis der Fehlbarkeit.

Mein Rat?

Beziehen Sie Ihre wissenschaftlichen Informationen niemals von einem Mann, der nicht bis zehn zählen kann … vor allem, wenn er nichts weiter ist als ein pathetischer PR-Lockvogel für betrügerische Wissenschaft und unaufrichtige Wissenschaftler …

Link: http://wattsupwiththat.com/2014/02/22/andrew-revkin-loses-the-plot-episode-xxxviii/

Übersetzt von Chris Frey EIKE




Sollten wir uns Sorgen machen?

Abbildung rechts: Temperaturen der microwave Sounding unit auf Satelligen (rote Linie) von der University of Alabama. Blaue Linien zeigen eine lockere Glättung [a loess smooth], Spanne = 0,4. Daten: KNMI (NCDC, 17 MB)

Also … gibt es da etwas Besorgliches?

Nun, schauen wir doch mal. Zuallererst: In den Tropen zeigt sich kein Trend, und die machen bereits 40% der Planetenoberfläche aus. Was ist also mit all jenen, die all den armen Menschen in den Tropen „Doom and Gloom“ prophezeit haben? Tut mir leid … da zeigt sich nicht die leiseste Bedrohung. Nun, tatsächlich gibt es doch eine, und zwar die Bedrohung durch steigende Energiepreise infolge des sinnlosen Krieges gegen den Kohlenstoff – und steigende Energiepreise treffen die Ärmsten am härtesten. Aber ich schweife ab…

Und was noch? Außertropische Gebiete der Südhalbkugel? Kein Trend. Südlich des antarktischen Polarkreises? Kein Trend, es hat sich leicht abgekühlt und dann um den gleichen Betrag wieder leicht erwärmt.

Das heißt, in 70% der Planetenoberfläche zeigte sich kein wahrnehmbarer Temperaturtrend während des letzten Drittels eines Jahrhunderts …

Und was noch? Außertropische Gebiete der Nordhalbkugel? Ein kaum erkennbarer Trend und gar keiner mehr seit dem Jahr 2000.

Und das bedeutet, dass sich in etwa 96% der Erdoberfläche gar keine Richtung abzeichnet…

Bleibt noch der Rest von 4% nördlich des arktischen Polarkreises. Während der ersten eineinhalb Jahrzehnte hat es sich leicht abgekühlt. Dann ist es ein Jahrzehnt lang wärmer geworden und dann ist die Temperatur ein weiteres Jahrzehnt gleich geblieben…

Meine Schlussfolgerung? Ich sehe nicht das Geringste hier, worüber man sich Sorgen machen müsste. Wieder einmal überraschend für mich ist die erstaunliche Stabilität der Temperatur des Planeten. Ein Drittel eines Jahrhunderts, und die Temperatur in den Tropen hat nicht einmal um eine Haaresbreite geschwankt. Das ist ein extrem stabiles System.

Ich erkläre mir das als Folge des thermoregulatorischen Effektes auftauchender Klimaphänomene … haben Sie eine bessere Erklräung?

Link: http://wattsupwiththat.com/2014/01/29/should-we-be-worried/

Übersetzt von Chris Frey EIKE




Mehr Spaß mit Öl und Gas

Hubbert sagte Reportern: „Ein Kind, das Mitte der dreißiger Jahre geboren worden ist, wird in seinem Leben den Verbrauch von 80% allen amerikanischen Öls und Gases erleben; ein Kind, das um 1970 geboren worden ist wird sehen, dass die meisten Reserven der Welt verbraucht worden sind“.

Da sich Mr. King Hubbert Sorgen darüber machte, dass viele der Reserven der Welt verbraucht worden sind, dachte ich mir einmal nachzuschauen, wie viele der US-Reserven während des letzten Drittels eines Jahrhunderts verbraucht worden sind. Das ist eine interessante Antwort…

Abbildung 1: Ein Vergleich der jährlichen Schätzungen der nachgewiesenen US-Ölreserven (rote Linie) und der kumulierten US-Ölerzeugung (blaue Linie) während des Zeitraumes 1980 bis 2012. Daten: 2013 BP Statistical Review of World Energy. „Nachgewiesene Reserven” in dem Datensatz sind wie folgt definiert: „Nachgewiesene Ölreserven – im Allgemeinen die Mengen, die mit hinreichender Gewissheit aus geologischer und ingenieurlicher Sicht entdeckt werden können, abgeleitet aus heutigen bekannten Reservoiren unter den bestehenden ökonomischen und bearbeitungstechnischen Bedingungen“.

Es scheint, dass wir seit 1980 keinerlei Glück mehr hatten. Zunächst verbrauchten wir vollständig die nachgewiesenen Reserven bis auf den letzten Tropfen.

Dann haben wir alles noch einmal verbraucht. Und dann zum dritten mal… und die nachgewiesenen Reserven sind immer noch dort, wo sie angefangen haben.

Da King sich auch Sorgen darüber machte, dass die Erdgasreserven der USA und global vollständig aufgebraucht seien, dachte ich mir, auch da einmal nachzuschauen.

Abbildung 2: Ein Vergleich der jährlichen Schätzungen der in den USA nachgewiesenen Gasreserven (rote Linie) und der kumulativen Gaserzeugung der USA (grüne Linie) für den Zeitraum 1980 bis 2012. Daten: 2013 BP Statistical Review of World Energy.

Und wir erkennen das Gleiche. Es begann im Jahre 1980 mit 6 Billionen Kubikmeter nachgewiesener Gasreserven. Seitdem haben wir etwa 10 Billionen Kubikmeter, etwa dreimal so viel wie unsere originalen Reserven. Der wesentliche Unterschied zwischen Gas und Öl besteht darin, dass die nachgewiesenen Reserven von Gas um ein Drittel höher liegen als 1980.

Ich erwähne das hier nur aus einem einfachen Grund: nämlich um zu zeigen, dass wir nicht genug wissen, um irgendwelche Fragen zu beantworten, wie viel Öl und Gas wir verbraucht haben; oder zu bestimmen, ob der King mit seinen Behauptungen recht hatte. All den Daten zufolge haben wir seit 1980 dreimal die nachgewiesenen Reserven von Öl und Gas verbraucht, und trotzdem sind die nachgewiesenen Reserven heutzutage immer noch genauso oder sogar größer als im Jahre 1980. Wie also können wir entscheiden, ob Hubbert recht hatte oder nicht?

Versuchen Sie jetzt bitte nicht, mir geduldig all die Gründe für dieses kuriose Phänomen zu erklären, weil ich die alle schon mal gehört habe. Ich versichere, ich verstehe alle Schwierigkeiten hinsichtlich der Schätzung nachgewiesener Reserven, und die Tatsache, dass die Daten von Ölgesellschaften stammen und sich die Technologie laufend verbessert und die Unternehmen dazu tendieren auszubeuten, bis sie Vorräte für etwa 20 Jahre angesammelt haben und dass die Wirtschaft eine große Rolle spielt und… Ich kenne alle Gründe für das, was ich oben gezeigt habe.

Ich möchte lediglich darauf hinweisen, dass es sehr, sehr schwierig ist vorherzusagen, was mit zukünftigen Reserven passiert, oder was deren Gesamtmenge betrifft, oder wieviel erschließbare Energie die Welt enthält.

Das zugrunde liegende Problem ist, dass die nachgewiesenen Reserven die Menge wirtschaftlich abbaubaren Gases und Öls repräsentieren… und das hängt natürlich komplett von den aktuellen Preisen und der gegenwärtigen Technologie ab. Mit anderen Worten, die Menge der „natürlichen Ressourcen“ der Welt ist nicht wirklich eine Funktion der natürlichen Welt – sondern eine Funktion menschlichen Erfindungsgeistes. Zum Beispiel lautete die große Sorge in den dreißiger Jahren, dass „Peak Magnesium“ erreicht werden würde, weil die nachgewiesenen Reserven von Magnesiums stark zurückgingen. Oder zurückgegangen waren, bis ein cleverer Chemiker bemerkte, dass man Magnesium aus Meerwasser extrahieren kann… und plötzlich waren die nachgewiesenen Reserven von Magnesium ins Unendliche gewachsen.

Hat sich nun die natürliche Welt verändert, als die nachgewiesenen Reserven von Magnesium von praktisch Null auf unendlich geschnellt sind? Wie ich sagte, die Menge der natürlichen Vorräte hängt von menschlichem Erfindungsgeist ab, und von sonst gar nichts!

Link: http://wattsupwiththat.com/2014/01/12/more-fun-with-oil-and-gas/

Übersetzt von Chris Frey EIKE




Die fatale Unterwerfung unter eine vermutete Linearität

Mathematisch wird das zu

∆T = lambda ∆F

wobei T die globale Mitteltemperatur ist, F ist der Gesamtantrieb an der Obergrenze der Atmosphäre TOA und lambda wird „Klimasensitivität“ genannt.

Mit andere Worten, die Idee ist, dass die Änderung der Temperatur eine lineare Funktion der Änderung des Antriebs an der TOA ist. Ich selbst bezweifle das stark, denn ich glaube nicht, dass die Welt so einfach gestrickt ist. Aber die Hypothese der Linearität macht die Berechnungen so einfach, dass die Leute es einfach nicht fertigbringen, sich davon zu lösen.

Nun wissen die Leute natürlich, dass das nicht wirklich linear ist, aber wenn ich darauf hinweise, kommt oftmals die Behauptung, dass es im interessierenden Bereich nahe genug an Linearität ist, dass wir Linearität annehmen können mit einem kleinen Fehler.

Um zu sehen, ob die Beziehungen wirklich linear sind, dachte ich mir, die CERES-Satellitendaten zu nutzen, um die Temperatur T und den Antrieb an der TOA F zu vergleichen. Diese Graphik zeigt Abbildung 1:

Abbildung 1: Festland allein, Antrieb F (Strahlungs-Ungleichgewicht an der TOA) und Temperatur T auf einem Gitternetz 1° mal 1°. Man beachte, dass zwischen 50°S und 65°S kaum Festland vorhanden ist. Der Gesamtantrieb an der TOA wird berechnet als einfallende Sonnenstrahlung minus langwellige Ausstrahlung.

Wie man sehen kann, gibt es überall eine Beziehung zwischen Antrieb an der TOA und der Temperatur, also alles andere als linear. Bei den niedrigsten Temperaturen sind sie umgekehrt korreliert. In der Mitte gibt es einen klaren Trend … aber dann, bei den höchsten Temperaturen, entkoppeln sie sich voneinander, und es gibt praktisch keine Korrelation mehr.

Über den Ozeanen ist die Lage irgendwie einfacher, obwohl wir auch dort große Variationen finden:

Abbildung 2: Ozean allein, Gesamtantrieb F gegen Temperatur T in einem Gitternetz 1° mal 1°. Die Farben indizieren die Breite.

Während die Änderungen nicht so extrem sind wie auf dem Festland, ist die Beziehung auch hier alles andere als linear. Im Besonderen beachte man, wie sich die Daten am oberen Ende der Karte mit zunehmendem Antrieb immer mehr nach rechts neigen. Das ist ein klarer Hinweis, dass die Klimasensitivität bei steigender Temperatur abnimmt. Man braucht mehr und immer mehr Energie, um die Temperatur ein weiteres Grad steigen zu lassen, und daher verläuft die Kurve oben rechts praktisch flach.

Am wärmsten Ende gibt es eine ziemlich starke Grenze der Oberflächentemperatur des Ozeans, die gerade etwas über 30°C liegt. (im Vorübergehen: Ich bemerke, dass es auch eine ziemlich starke Grenze der Oberflächentemperatur über dem Festland gibt, und zwar etwa auf dem gleichen Niveau um 30°C. Komischerweise wird diese Landtemperatur erreicht bei jährlichen mittleren Ungleichgewichten der Strahlung an der TOA, die von -50 W/m² bis +50 W/m² reicht).

Was ich oben gezeigt habe, sind die jährlichen Mittelwerte. Zusätzlich zu diesen sind wir jedoch auch an lambda interessiert, also an der Klimasensitivität, die diese Abbildungen nicht zeigen. Dem IPCC zufolge liegt die Gleichgewichts-Klimasensitivität irgendwo im Bereich 1,5°C bis 4,5°C bei jeder Verdoppelung des CO2-Gehaltes. Nun gibt es aber viele Arten der Sensitivität, darunter monatliche, dekadische und Gleichgewichts-Klimasensitivitäten.

Monatliche Sensitivität

Die monatliche Klimasensitivität tritt ein, wenn das Antriebs-Ungleichgewicht an der TOA in einer gegebenen Gitterzelle von 1° mal 1° von – sagen wir – plus 50 W/m² (Energie hinzugefügt) in einem Monat auf minus 50 W/m² im nächsten Monat sinkt (Energieverlust) Natürlich führt dies zu einem korrespondierenden Unterschied der Temperatur dieser beiden Monate. Die monatliche Klimasensitivität sagt, wie stark sich die Temperatur ändert bei einer gegebenen Änderung des Antriebs an der TOA.

Aber das Festland und die Ozeane können sich nicht augenblicklich ändern. Es gibt eine Verzögerung bei diesem Prozess. Daher ist die monatliche Klimasensitivität die kleinste der drei, weil die Temperatur keine Zeit hatte, sich zu ändern. Abbildung 3 zeigt die monatlichen Klimasensitivitäten, basierend auf den monatlichen CERES-Daten.

Abbildung 3: Die monatliche Klimasensitivität

Wie man erwarten kann, ändern sich die Ozeantemperaturen bei einer gegebenen Änderung des Antriebs weniger stark als die Landtemperaturen. Das liegt an der größeren Wärmemenge [thermal mass] der Ozeane über alle Zeiträume zusammen mit der größeren spezifischen Wärme von Wasser im Vergleich zu Erde und der größeren Verdunstung über den Ozeanen.

Dekadische Sensitivität

Die dekadische Sensitivität, auch Transient Climate response TCR genannt [?], ist die Änderung, die wir im Zeitraum von Jahrzehnten erkennen. Da die Temperaturänderung umso geringer ist, je länger die Verzögerung ist, können wir die Größe der Verzögerung benutzen, um die TCR aus der monatlichen Klimareaktion zu berechnen. Die Verzögerung über Land mittelt sich zu 0,85 Monaten und über den Ozeanen zu länger als 2,0 Monaten. Für das Festland gilt, dass die TCR im Mittel 1,6 mal so groß ist wie die monatliche Klimasensitivität. Die ozeanische Anpassung der TCR ist natürlich größer, weil die Verzögerung länger ist. Die ozeanische TCR ist im Mittel 2,8 mal größer als die monatliche Ozean-Klimasensitivität.

[Im Anhang führt Eschenbach diese Berechnung durch. Interessierte halten sich bitte an das Original, weil ich diesen Anhang nicht mit übersetzt habe. A. d. Übers.]

Abbildung 4 zeigt, was passiert, wenn wir die Informationen aus der Verzögerung zusammen mit der monatlichen Klimasensitivität betrachten. Sie zeigt für jedes Gitterquadrat die dekadische Klimasensitivität oder die TCR. Ausgedrückt wird das Ganze in Grad C bei einer Verdoppelung des CO2-Gehaltes (was das Gleiche ist wie Grad pro Zunahme des Antriebs um 3,7 W/m²). Die in Abbildung 4 gezeigte TCR enthält auch die Anpassungen für die Verzögerung auf einer Basis von Gitterzelle für Gitterzelle.

 

Abbildung 4: Transient Climate Response TCR. Sie wird berechnet aus der monatlichen Klimasensitivität für jedes Gitterquadrat und multipliziert mit dem für dieses Gitterquadrat berechneten Verzögerungsfaktor.

Es gibt einige interessante Dinge in der Abbildung 3. Eine davon ist: wenn man einmal die Verzögerung in Betracht zieht, verschwindet Einiges des Unterschieds der Klimasensitivität zwischen Festland und Ozean, und einiges davon ist verändert. Vor allem zeigt sich dies in der Südhemisphäre; man vergleiche Südafrika oder Australien in den Abbildungen 3 und 4.

Außerdem, wie man auch hier wieder sieht, regiert das Wasser. Entfernen wir den Effekt der Verzögerung, treten die trockeneren Gebiete klar hervor, und das sind auch die Stellen mit der größten Sensitivität auf Änderungen des Strahlungsantriebs an der TOA. Das ist verständlich, weil kaum Wasser für die Verdunstung zur Verfügung steht. Daher sorgt die meiste Energie für die Erwärmung des Systems. Nassere tropische Gebiete andererseits reagieren viel ähnlicher dem Ozean mit weniger Sensitivität hinsichtlich einer gegebenen Änderung des TCR-Antriebs.

Gleichgewichts-Sensitivität

Die Gleichgewichts-Sensitivität ECS, die langfristigste Art der Sensitivität, ist das, was theoretisch passieren würde, wenn einmal die verschiedenen Wärmereservoire ihre Gleichgewichts-Temperatur erreicht haben. Der Studie von Otto mit aktuellen Beobachtungen zufolge lag die ECR [ECS? Schreibfehler des Autors?]  gleichbleibend bei etwa 130% der TCR. Andererseits zeigt die Studie von Forster, dass die untersuchten 19 Klimamodelle eine ECR [ECS?], die von 110% bis 240% der TCR reichte mit einem Mittelwert bei 180%.

Damit kann man jetzt die globale mittlere Sensitivität berechnen. Falls wir die Modell-Prozentwerte zur Schätzung der ECS aus der TCR verwenden, ergibt dies ein ECS von 0.14 * 1.1 bis 0.14 *2.4. Dies impliziert eine Gleichgewichts-Klimasensitivität im Bereich 0,2 bis 0,3°C pro CO2-Verdoppelung, mit einem wahrscheinlichsten Wert (der Modelle) von 0,25°C pro Verdoppelung. Falls wir die 130%-Schätzung der Studie von Otto verwenden, bekommen wir ein sehr ähnliches Ergebnis, nämlich 0, 14 * 1.3 = 0.2 °C pro Verdoppelung.

Das ist klein genug, um im Rauschen unseres besonders rauschstarken Klimasystem verloren zu gehen.

Eine abschließende Bemerkung zu Linearität. Man erinnere sich, wir begannen mit der Behauptung, dass die Änderung der Temperatur gleich ist der Änderung des Antriebs multipliziert mit einer Konstante, die man „Klimasensitivität“ nennt. Mathematisch wird das zu

∆T = lambda ∆F

Ich habe lange gedacht, dass dies eine total ungeeignete Repräsentation ist, teils weil ich sage, dass lambda selbst, die Klimasensitivität, keine Konstante ist. Stattdessen ist es eine Funktion von T. Allerdings können wir wie gewöhnlich nicht von Linearität ausgehen … wir können keine Linearität in irgendeiner Form annehmen. Abbildung 5 zeigt die TCR (die dekadische Klimasensitivität) im Vergleich zur Temperatur.

 

Abbildung 5: Transient Climate Response im Vergleich zur mittleren jährlichen Temperatur, nur Festland. Man beachte, dass TCR nur selten unter Null sinkt. Die größte Reaktion gibt es in der Antarktis (dunkelrot).

Hier sehen wir die Entkoppelung der Temperatur und der TCR bei den höchsten Temperaturwerten. Man beachte auch, wie wenige Gitterquadrate wärmer als 30°C sind. Wie man sehen kann, während es eindeutig bei steigender Temperatur einen Abfall der TCR (Sensitivität) gibt, ist die Beziehung alles andere als linear. Und schaut man auf die Ozean-Daten, wird es noch eigenartiger. Abbildung 6 zeigt die gleiche Relation wie Abbildung 5. Man beachte die unterschiedliche Skalierung sowohl in X- als auch in Y-Richtung.

Abbildung 6: Wie in Abbildung 5, jedoch nur für den Ozean. Man beachte, dass sich die Skalierung von Abbildung 5 unterscheidet.

Ich liebe dieses Klimasystem – endlos komplex. Die Ozeane zeigen eine gänzlich andere Verteilung als das Festland. Erstens, die TCR der globalen Ozeane beträgt fast durchweg weniger als ein Zehntelgrad Celsius pro CO2-Verdoppelung (globales Mittel = 0.08°C/2xCO2). Und im Gegensatz zu meinen Erwartungen gibt es unter etwa 20°C kaum Anzeichen irgendeines Rückgangs der TCR mit der Temperatur, wie wir in Abbildung 5 für das Festland gesehen haben. Und über 25°C gibt es einen klaren und raschen Abfall in einer Reihe von Gebieten (einschließlich des pazifischen „Warm-Pools“), die negative Klimareaktionen zeigen.

Im Vorübergehen bemerke ich auch, dass die im offenen Ozean beobachtete 30°C-Grenze an einem Punkt eintritt, an dem die TCR = 0 ist …

Was schließe ich aus all dem? Nun, so genau weiß ich gar nicht, was das alles bedeutet. Einige Dinge sind aber eindeutig. Meine erste Schlussfolgerung lautet, dass der Gedanke, die Temperatur sei eine lineare Funktion des Antriebs, nicht durch die Beobachtungen gestützt wird. Die Relation ist weit entfernt davon, linear zu sein und kann nicht einfach approximiert werden.

Weiter. Die Schätzungen der ECS aus dieser auf Beobachtungen basierenden Studie zeigen eine Bandbreite von 0,2°C bis 0,5°C pro CO2-Verdoppelung. Das liegt weit unter der Schätzung des IPCC … was aber soll man andererseits von der Arbeit von Regierungen erwarten?

Und schließlich, die Entkoppelung der Variablen am warmen Ende des Spektrums der Gitterquadrate ist ein klares Zeichen dafür, dass ein aktives Temperatur-Regulierungssystem aktiv ist.

Unter dem  Strich: Das Klima ist nicht linear und war es niemals… und die Unterwerfung unter das fatale Lockmittel einer vermuteten Linearität hat das Gebiet der Klimawissenschaft um Jahrzehnte zurückgeworfen.

Link: http://wattsupwiththat.com/2013/12/18/the-fatal-lure-of-assumed-linearity/

Übersetzt von Chris Frey EIKE




Die thermostatische Kontrolle

Ähnlich dazu ist die Kontrolle in der globalen Klima-Maschine die tropische Albedo (Reflektivität). Die tropische Albedo kontrolliert, wie viel einfallende Sonnenstrahlung am warmen Ende der Wärmemaschine zurück in den Weltraum reflektiert wird. Mit anderen Worten, die Albedo steuert die einfallende Energie und damit das gesamte System.

Außerdem habe ich gesagt, dass die tropische Albedo eine extrem nichtlineare Funktion der Temperatur ist. Daher habe ich mir gedacht, die CERES-Satellitendaten heranzuziehen, um mal nachzuschauen, wie stark diese Drosselung in Watt pro Quadratmeter (W/m²) ist und wo genau sich diese Drossel befindet. Wenn es eine solche Drossel gibt, würde einer der charakteristischen Features dabei sein, dass die reflektierte Menge der Sonnenenergie mit zunehmender Temperatur zunehmen muss. Abbildung 1 zeigt das Ergebnis dieser Analyse:

Abbildung 1: Mittlere Änderung der reflektierten Solarenergie durch eine Temperaturzunahme um 1°C. Rote Flächen zeigen eine größere Reflektion mit steigender Temperatur. Die Änderung der reflektierten Energie wird berechnet auf Basis einer Gitterbox. Dabei berechnet sich die Änderung der Albedo pro 1°C Temperaturzunahme in dieser Gitterbox multipliziert mit der mittleren Solarstrahlung für diese Gitterbox. Die graue Linie zeigt, wo sich die Albedo mit der Temperatur nicht ändert. Gepunktete Linien zeigen die Tropen (von 23,45°N bis 23,45°S) und die Kreise um die Pole (jeweils nördlich von 66,55°).

Daraus erkennt man eindeutig, dass ein solcher Steuerungsmechanismus existiert. Man erkennt auch, wo wir ihn zu finden erwarten können, nämlich nahe dem Äquator, wo maximal Energie in das System eintritt. Im Mittel agiert die Drossel in den von der grauen Linie umschlossenen Gebieten. Allerdings war ich überrascht von der Stärke des Mechanismus‘. Es gibt weite Gebiete (rot), in denen 1°C Erwärmung zu einer Zunahme der Reflektion der Solarstrahlung um 10 W/m² oder mehr führt. Offensichtlich würde diese Kontrolle ein Faktor sein bei der Erklärung der Beobachtungen einer Wassertemperatur im offenen Ozean von etwa 30°C.

Der Drosselmechanismus agiert über den meisten Gebieten der tropischen Ozeane und selbst in manchen tropischen Landgebieten. Er ist am stärksten im Bereich der ITC, die unter dem Äquator in den indischen Ozean und über Afrika hinweg verläuft, und über dem Äquator im Pazifik und Atlantik.

Als Nächstes ist es der Erwähnung wert, dass die Gesamtauswirkung der Temperatur auf die Reflektion von Sonnenstrahlen etwa Null ist (der globale, nach Gebiet gemittelte Wert beträgt -1,5 W/m² pro Grad. Das ist geringer als die Fehlerbandbreite in den Daten). Außerdem ähneln sich weite außertropische Land- und Seegebiete darin, dass sie alle leicht negativ sind (hell orange). Dies ist ein weiterer Hinweis auf die Arbeit eines die Temperatur regelnden Systems. Da die Albedo in vielen Gebieten der Erdoberfläche relativ unempfindlich gegenüber Temperaturänderungen reagiert, können geringe Temperaturänderungen in den Tropen bereits große Auswirkungen auf die Energiemenge haben, die in das System eintritt. Abbildung 2 zeigt die Beziehung (nur Festland) zwischen der absoluten Temperatur in °C und die Änderung der reflektierten Energie pro Grad Erwärmung.

Abbildung 2: Änderung der reflektierten Sonnenenergie (W/m² pro °C) im Vergleich zur absoluten Temperatur in °C über dem Festland. Man beachte, dass sich in Gebieten mit einem Temperatur-Jahresmittel unter 0°C nur geringe Variationen der Reflektion von der Oberfläche mit einer sich ändernden Temperatur zeigt. Vom Gefrierpunkt bis etwa 20°C ist die reflektierte Menge allgemein rückläufig, wenn die Temperatur zunimmt. Über 20°C gibt es zwei Arten der Reaktion – nennenswerte Zunahme oder nennenswerte Abnahme der reflektierten Solarstrahlung mit der Temperatur.

Weiter! Die polnahen Ozeangebiete zeigen ein umgekehrtes Verhalten wie in den Tropen. Während tropische Albedo-Änderungen die Tropen kühlen, nehmen die Albedo und das reflektierte Sonnenlicht mit steigender Temperatur ab.

Abbildung 3: Änderung der reflektierten Solarenergie (W/m² pro °C) gegen die absolute Temperatur (°C) über den Ozeanen, jährliche Mittelwerte. Wo das jährliche Temperaturmittel nahe Null Grad liegt, gibt es eine starke negative Variation der Reflektion an der Oberfläche mit der Temperatur. Vom Gefrierpunkt bis etwa 20°C ist die Variation stabil und leicht negativ. Bei einer Mitteltemperatur über 20°C gibt es zwei Arten der Reaktion – nennenswerte Zunahme oder nennenswerte Abnahme der reflektierten Solarstrahlung mit der Temperatur – bis zur Obergrenze bei 30°C.

Das bedeutet, dass zusätzlich zur Begrenzung des Gesamt-Energie-Inputs in das ganze System die temperaturabhängige Albedo auch Änderungen des reflektierten Sonnenlichtes moderiert. Trendmäßig werden die Tropen dabei kühler und die Pole wärmer, als es sonst der Fall wäre. Dies würde eindeutig dafür sorgen, die Gesamt-Temperaturschwingungen des Planeten zu limitieren.

Und schließlich, die Verwendung monatlicher Mittelwerte verschleiert einen wesentlichen Punkt, nämlich dass sich Änderungen im Zeitscale von Minuten ändern, nicht von Monaten. Und auf täglicher Basis gibt es keine Gesamterhöhung um 10 W/m² pro Grad Temperaturänderung. Stattdessen gibt es bis zu einem bestimmten Zeitpunkt tagsüber keine Wolken, und die volle Intensität der Sonnenenergie kann in das System einfallen. Während dieser Zeit gibt es praktisch keine Änderung der tropischen Albedo mit steigender Temperatur.

Dann plötzlich, im Mittel um 11 Uhr, vollführt die Albedo einen gewaltigen Sprung, sobald sich Cumulusbewölkung bildet bis hin zu einem voll entwickelten Cumulus-Regime. Das führt zu einem Sprung in der Albedo und kann die Temperaturen sogar sinken lassen trotz des zunehmenden solaren Antriebs, wie ich hierhier,  hier, hier und hier gezeigt habe.

Daraus erkennt man, dass die thermische Regelung der tropischen Albedo erfolgt durch Änderungen der Zeit des Beginns der täglichen Cumulusbildung und der Intensität des täglichen Cumulus/Cumulonimbus-Regimes. Je wärmer es an jenem Tag ist, umso eher setzt die Bildung von Cumulus-Wolken ein, und umso mehr davon wird es geben. Dies reduziert die in das System eintretende Energiemenge um Hunderte Watt pro Quadratmeter. Und andererseits bilden sich Cumuli an kühleren Tagen später am Tag und erreichen womöglich gar nicht das Cumulonimbus-Stadium, und es gibt weniger Wolken. Dies lässt die in das System einfallende Energiemenge um Hunderte Watt pro Quadratmeter zunehmen.

Ich erwähne das um zu zeigen dass das System nicht einen mittleren Kontrollwert von beispielsweise 10 W/m² erreicht über einem mittleren Gebiet, in dem die Kontrolle aktiv ist.

Stattdessen erreicht es einen viel größeren Kontrollwert von einigen hundert Watt pro Quadratmeter, aber nur dann, wann und wo dieser gebraucht wird, um lokale Hitzeinseln zu kühlen oder um lokale kühle Gebiete zu erwärmen. Folge: die Mittelwerte führen in die Irre.

Der wichtigste Grund zu verstehen, dass die Albedo-Änderungen STÜNDLICHE und nicht monatliche Änderungen sind, besteht darin, dass das, was das System reguliert, augenblickliche Bedingungen der Kontrolle von Wolkenbildung sind und nicht mittlere Bedingungen. Wolken bilden sich nicht in Abhängigkeit von der Stärke der Antriebe, egal ob von der Sonne oder CO2 oder Vulkane. Sie bilden sich ausschließlich nur, wenn es warm genug ist.

Und das wiederum bedeutet, dass sich nicht viel ändern wird, wenn sich der Antrieb ändert … weil die Wolkenbildung temperaturabhängig und nicht antriebsabhängig ist.

Ich denke, dass diese augenblickliche Reaktion der Hauptgrund dafür ist, dass es so schwierig ist, zum Beispiel ein solares Signal in den Temperaturaufzeichnungen zu finden – weil die Thermoregulation auf der Temperatur basiert, nicht auf dem Antrieb. Daher agiert sie unabhängig von Änderungen des Antriebs.

Das ist auch der Grund dafür, dass Vulkane nur einen so geringen Unterschied in der globalen Temperatur ausmachen – weil das System augenblicklich auf kühlere Temperaturen reagiert in Gestalt einer verringerten Albedo. Damit erlaubt es den zusätzlichen Eintritt von hunderten W/m², um den Temperaturabfall zu kompensieren.

Es gibt noch viel mehr im CERES-Datensatz zu entdecken, und obwohl ich schon Einiges zutage gefördert habe, kann man immer noch sehr viel damit machen – eine Analyse der Klima-Wärmemaschine zum Beispiel. Allerdings denke ich, dass das klare Vorhandensein der Existenz eines durch die Temperatur geregelten Mechanismus, der die in das System eintretende Energiemenge kontrolliert, eines Extrabeitrages würdig ist.

Link: http://wattsupwiththat.com/2013/12/28/the-thermostatic-throttle/

Übersetzt von Chris Frey EIKE




Ein Modell, eine Wahl

Durch die gute Arbeit von Nic Lewis und Piers Forster, denen ich sehr danke, habe ich ein Set von 20 passenden Modell-Antriebs-Inputs und korrespondierende Temperatur-Outputs erhalten, wie sie vom IPCC benutzt werden. Das sind die individuellen Modelle, deren Mittelwert ich in meinem Beitrag mit dem Titel Model Climate Sensitivity Calculated Directly From Model Results [etwa: Klimasensitivität der Modelle direkt berechnet aus Modellergebnissen] behandelt habe. Ich dachte mir, zuerst die Temperaturen zu untersuchen und die Modellergebnisse mit dem Datensatz HadCRUT und anderen zu vergleichen. Begonnen habe ich mit dem Vergleich der verschiedenen Datensätze selbst. Eine meiner bevorzugten Werkzeuge zum Vergleich von Datensätzen ist der „Violin-Plot“. Abbildung 1 zeigt einen Violin-Plot eines Datensatzes mit Zufallswerten, also eine Gauss’sche Normalverteilung.

Abbildung 1 (rechts): Violin-Plot von 10.000 Zufalls-Datenpunkten mit einem Mittel von Null und Standardabweichung.

Man erkennt, dass die Form einer „Violine“, also der orangefarbene Bereich, aus zwei bekannten „Glockenkurven“ zusammengesetzt ist, die vertikal Rücken an Rücken angeordnet sind. In der Mitte gibt es einen „Kasten-Plot“, welches der Kasten ist, dessen whiskers sich nach oben und unten erstrecken. Die Ausreißer, die sich oben und unten über den Kasten hinaus erstrecken, haben die gleiche Höhe wie der Kasten, eine Distanz, die bekannt ist unter der Bezeichnung „interquartiler Bereich“, weil er sich vom ersten bis zum letzten Viertel der Daten erstreckt. Die dicke schwarze Linie zeigt nicht das Mittel, sondern den Median der Daten. Der Median ist der Wert in der Mitte des Datensatzes, wenn man den Datensatz nach Größe sortiert. Als Folge wird er weniger durch Ausreißer beeinflusst als das Mittel des gleichen Datensatzes.

Kurz gesagt, ein Violin-Plot ist ein Paar spiegelbildlicher Dichteplots, das zeigt, wie die Daten verteilt sind, hinterlegt mit einem Kasten-Plot. Mit diesem Prolog wollen wir uns jetzt ansehen, was uns Violin-Plots über den Temperatur-Output der zwanzig Klimamodelle sagen können.

Für mich ist eines der bedeutendsten Merkmale [metrics] jedes Datensatzes der „erste Unterschied“. Dabei handelt es sich um die Änderung eines gemessenen Wertes zum nächsten. In einem Jahres-Datensatz wie den Temperatur-Modelloutputs besteht der erste Unterschied eines Datensatzes aus einem neuen Datensatz, der die jährliche ÄNDERUNG der Temperatur zeigt. Mit anderen Worten, um wie viel wärmer oder kälter ist die gegebene Temperatur eines Jahres im Vergleich zum Vorjahr? Sehen wir in der realen Welt und in den Modellen große oder kleine Änderungen?

Diese Änderung bei einigen Werten wird oft mit dem Symbol Delta „∆” bezeichnet, was die Differenz in einigen Messungen im Vergleich zum vorigen Wert bedeutet. Zum Beispiel würde man die Änderung der Temperatur mit „∆T” bezeichnen.

Fangen wir also an mit der Betrachtung der ersten Unterschiede der modellierten Temperaturen ∆T. Abbildung 2 zeigt einen Violin-Plot des ersten Unterschiedes ∆T in jedem der 20 Modell-Datensätze, also mit 1 : 20, plus dem HadCRUT-Datensatz und den Zufalls-Normal-Datensätzen.

Abbildung 2: Violin-Plots von 20 Klimamodellen (beige) plus dem Beobachtungs-Datensatz HadCRUT (rot) und einem normalverteilten Gauss’schen Datensatz (orange) zum Vergleich. Horizontale gepunktete Linien in jedem Fall zeigen die Gesamt-Bandbreite des HadCRUT-Datensatzes.

Nun… als Erstes fällt auf, dass wir hier sehr, sehr unterschiedliche Verteilungen sehen. Man betrachte zum Beispiel GDFL (11) und GISS (12) im Vergleich zu den Beobachtungen…

Was bedeuten nun die Unterschiede zwischen den Mittelwerten von GDFL und GISS, wenn wir auf die Zeitreihe ihrer modellierten Temperaturen schauen? Abbildung 3 zeigt die beiden Datensätze, GDFL und GISS zusammen mit meiner Nachbildung jedes Ergebnisses.

Abbildung 3: Modellierte Temperaturen (gepunktete graue Linien) und Nachbildungen von zwei Modellen, GDFL-ESM2M und GISS-E2-R. Das Verfahren der Nachbildung wird im ersten Link oben des Beitrags erläutert. Zeitpunkte zwei wesentlicher Vulkanausbrüche sind als vertikale Linien eingezeichnet.

Der Unterschied zwischen den beiden Modell-Outputs tritt ziemlich deutlich hervor. Es gibt nur eine geringe Variation von Jahr zu Jahr bei den GISS-Ergebnissen, halb so groß oder noch kleiner, als wir es in der realen Welt beobachten. Andererseits zeigen sich sehr große Variationen von Jahr zu Jahr bei den GDFL-Ergebnissen, bis zu zweimal so groß wie die größte jährliche Änderung, die jemals in den Aufzeichnungen aufgetreten war…

Nun ist es offensichtlich, dass die Verteilung jedweder Modellergebnisse nicht identisch sein wird mit den Beobachtungen. Aber einen wie großen Unterschied können wir erwarten? Um dies zu beantworten, zeigt Abbildung 4 einen Satz mit 24 Violin-Plots von Zufalls-Verteilungen, und zwar mit der gleichen Anzahl von Datenpunkten (140 Jahre mit ∆T) wie die Modell-Outputs.

Abbildung 4: Violin-Plots verschiedener Randwert-Datensätze mit einer Beispielgröße von N = 140, und die gleiche Standardabweichung wie im HadCRUT-∆T-Datensatz.

Wie man sieht, kann man schon mit einer kleinen Beispiel-Auswahl von 140 Datenpunkten eine Vielfalt von Formen erhalten. Das ist eines der Probleme bei der Interpretation von Ergebnissen aus kleinen Datensätzen: man kann kaum sicher sein, was man sieht. Allerdings gibt es ein paar Dinge, die sich nicht groß ändern. Die interquartile Distanz (die Höhe des Kastens) variiert nicht sehr stark. Und auch nicht die Stellen, an denen die Ausreißer enden. Wenn man jetzt die modellierten Temperaturen von GDFL (11) und GISS (12) untersucht (wie sie in Abbildung 5 der Bequemlichkeit halber noch einmal gezeigt werden), kann man sehen, dass sie in keiner Weise irgendeinem der Beispiele normalverteilter Datensätze ähneln.

Es gibt noch einige weitere Merkwürdigkeiten. Abbildung 5 enthält drei andere Beobachtungs-Datensätze – den globalen Temperaturindex von GISS sowie die Datensätze von BEST und CRU ausschließlich vom Festland.

Abbildung 5: Wie Abbildung 2, aber diesmal mit den Temperatur-Datensätzen GISS, BEST und CRUTEM unten rechts. Die horizontalen gepunkteten Linien zeigen die Gesamt-Bandbreite des HadCRUT-Beobachtungs-Datensatzes.

Hier können wir eine merkwürdige Konsequenz der Manipulation der Modelle erkennen. Ich habe noch nie gesehen, wie stark das gewählte Ziel die Ergebnisse beeinflusst. Man bekommt unterschiedliche Ergebnisse abhängig davon, welchen Datensatz man auswählt, an den man das Klimamodell anpasst … und das GISS-Modell (12) wurde offensichtlich frisiert, um die GISS-Temperaturaufzeichnung zu spiegeln (22). Es sieht so aus, als hätten sie sie ziemlich gut frisiert, um zu jenen Aufzeichnungen zu passen. Und mit CSIRO (7) könnte es das Gleiche sein. In jedem Falle sind das die einzigen beiden, die eine ähnliche Form haben wie die globale Temperaturaufzeichnung von GISS.

Und schließlich sehen die beiden Datensätze nur mit Festlandswerten (23, 24, in Abbildung 5 unten rechts) ziemlich ähnlich aus. Man beachte jedoch die Unterschiede zwischen den beiden globalen Datensätzen HadCRUT (21) und GISS LOTI (22) sowie den beiden Festlands-Datensätzen BEST (23) und CRUTEM (24). Man erinnere sich, das Land erwärmt sich schneller als die Ozeane und kühlt sich auch schneller wieder ab. Wie man also erwarten würde, gibt es größere jährliche Schwingungen in den beiden Festlands-Datensätzen, was repräsentiert wird durch die Größe des Kastens und der Position der Endpunkte der Ausreißer.

Allerdings passen einige Modelle (z. B. 6, 9 und 11) viel besser zu den Festlands-Datensätzen als zu den globalen Temperatur-Datensätzen. Dies würde auf Probleme hindeuten mit der Repräsentation der Ozeane in diesen Modellen.

Schlussfolgerungen? Nun, die größte Änderung von Jahr zu Jahr der Temperatur der Erde während der letzten 140 Jahre hat 0,3°C betragen, sowohl für steigende als auch für fallende Temperatur.

Sollten wir also einem Modell vertrauen, das eine doppelt so große Änderung von Jahr zu Jahr zeigt wie beispielsweise GFDL (11)? Welchen Wert hat ein Modell, deren Ergebnisse nur halb so groß sind wie die Beobachtungen, wie GISS (12) und CSIRO (7)?

Meine wesentliche Schlussfolgerung lautet: an irgendeiner Stelle müssen wir den Gedanken der Klimamodelle-Demokratie verwerfen und alle Modelle über Bord werfen, die nicht die Realität abbilden, die nicht einmal ansatzweise die Beobachtungen spiegeln.

Mein letzter Punkt ist ein Seltsamer. Er betrifft die merkwürdige Tatsache, dass sich ein Ensemble (ein origineller Ausdruck für einen Mittelwert) der Klimamodelle im Allgemeinen besser macht als irgendein ausgewähltes Einzelmodell. Ich habe das aus folgendem Grunde verstanden.

Nehmen wir einen Haufen kleiner Kinder an, die noch nicht so gut werfen können. Man zeichnet ein Ziel an einer Scheune, und die Kinder werfen Schlammbälle auf das Ziel.

Was wird nun näher am Zentrum des Zieles liegen – das Mittel aller Würfe der Kinder oder ein speziell ausgewählter individueller Wurf?

Es scheint eindeutig, dass das Mittel aller schlechten Würfe die bessere Wahl ist. Eine Folge davon ist, je mehr Würfe es gibt, desto genauer wird das Mittel wahrscheinlich sein. Also ist dies vielleicht die Rechtfertigung in den Köpfen der IPCC-Leute für die Einbeziehung von Modellen, die die Wirklichkeit gar nicht abbilden … sie wurden mit einbezogen in der Hoffnung, dass sie ein genauso schlechtes Modell auf der anderen Seite ausbalancieren.

ABER – es gibt Probleme bei dieser Annahme. Ein Problem ist, falls alle oder die meisten Fehler in die gleiche Richtung gehen, dann würde das Mittel nicht besser sein als ein Einzelwert-Ergebnis. In meinem Beispiel nehme man an, dass das Ziel sehr hoch auf die Scheune gemalt wurde, und die meisten Kinder treffen einen Bereich darunter. Dann würde das Mittel nicht besser aussehen als irgendein individuell ausgewählter Wurf.

Ein weiteres Problem ist, dass viele Modelle große Teile der Codierung gemeinsam haben, und noch wichtiger, sie teilen eine ganze Reihe theoretischer (und oftmals nicht untersuchter) Annahmen, die hinsichtlich des Klimas stimmen können oder nicht.

Ein tiefer gehendes Problem in diesem Falle ist, dass die verbesserte Genauigkeit nur für die Nachhersage der Modelle gilt … Und sie sind ohnehin schon sorgfältig frisiert worden, um diese Ergebnisse zu zeigen. Keine Frisierung nach Art des „Drehens am Knopf“, sondern wieder und immer wieder evolutionäre Frisierung. Als Folge zeigen sie alle ziemlich gut die Temperaturvariationen der Vergangenheit, und das Mittel ist sogar besser als die Nachhersage … lediglich diese blöde Vorhersage ist immer das Problem.

Oder wie es die Börsianer an den US-Börsen ausdrücken: „Das Verhalten der Vergangenheit ist keine Garantie für zukünftige Erfolge“. Es spielt keine Rolle, wie gut ein individuelles Modell oder eine Modellgruppe die Vergangenheit abbilden kann – das bedeutet absolut nichts hinsichtlich ihrer Fähigkeit, die Zukunft vorherzusagen.

Anmerkungen:

Datenquelle: Die Modell-Temperaturdaten stammen aus einer Studie von Forster, P. M., T. Andrews, P. Good, J. M. Gregory, L. S. Jackson, and M. Zelinka, 2013, Journal of Geophysical Research, 118, 1139–1150 mit dem Titel Evaluating adjusted forcing and model spread for historical and future scenarios in the CMIP5 generation of climate models, dankenswerterweise zur Verfügung gestellt von Piers Forster. Sie steht hier und ist des Lesens wert.

Daten und Codierung: Wie üblich ist mein R-Code ein Gewirr, aber zu was das taugt, steht hier. Die Daten finden sich in einer Excel-Tabelle hier.

Link: http://wattsupwiththat.com/2013/11/21/one-model-one-vote/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Ich bitte um Verständnis, dass ich diesem Text inhaltlich manchmal nicht ganz folgen konnte.