1

Vom Unsinn der Klimasensivität CS im IPCC Bericht AR5

Dr. Kiehl’s Paradoxon

Von Willis Eschenbach

Im Jahre 2007 wies Jeffrey Kiehl in einem im GRL veröffentlichten Papier mit dem Titel Twentieth century climate Modell response and Climate Sensitivity auf ein sonderbares Paradoxon hin. Alle von den verschiedenen Forschergruppen betriebenen Klimamodellle konnten die historischen Temperaturen an der Erdoberfläche ganz vernünftig nachbilden. Aus dieser Übereinstimmung wurde von Leuten wie z. B. im IPCC viel Aufhebens gemacht. Nach deren Ansicht ist das der Beleg, dass die Modellle stimmen, dass sie die natürlich gegebene Wirklichkeit abbilden.

Fig. 1. Kiehls Ergebnis beim Vergleich der Klimasensitivität (ECS) mit allen Antrieben. 

Das Paradoxon besteht darin, dass alle Modellle eine stark unterschiedliche Klimasensitivität zeigen, aber dass sie alle in etwa zum gleichen Ergebnis kommen … was stimmt da nicht? Und so schrieb Kiehl in seinem Papier:

[4] Ein sonderbarer Aspekt dieses Ergebnisses ist, dass es allgemein bekannt ist [Houghton et al., 2001], dass die gleichen Modellle, die bei der Simulation der Anomalien bei den Temperaturen an der Erdoberfläche übereinstimmen, signifikant bei der vorhergesagten Klimasensitivität voneinander abweichen. Die angegebene Spannweite bei der Klimasensitivität aus einer großen Anzahl von Modellen reicht normalerweise bei einer Verdoppelung des CO2 von 1.5 bis 4.5C, wobei die meisten der für die Klimawandel-Studien benutzten globalen Klimamodelle wenigstens um den Faktor Zwei beim Gleichgewicht der Klimsensitivität voneinander abweichen.

[5] Die Frage ist: wenn die KlimaModellle sich um einen Faktor von 2 bis 3 in der Klimasensitivität unterscheiden, wieso können sie alle die globalen Temperatur-Aufzeichnungen in einem vernünftigen Genauigkeitsgrad nachbilden?

Kann es so etwas geben? Die Modellle haben stark unterschiedliche Sensitivitäten … aber sie können alle die historischenTemperaturgänge wiedergeben? Wie ist das möglich?

Die Antwort schieben wir zunächst auf, zuerst hier die Antwort von Kiehl (Hervorhebung vom Verfasser):

Man hat herausgefunden, dass der anthropogene Gesamtantrieb bei sehr vielen Klimamodellen sich um den Faktor Zwei unterscheidet und dass der Gesamtantrieb umgekehrt zur Klimasensitivität korreliert ist.

Irgendwie macht das Sinn, weil, wenn der Gesamtantrieb größer ist, man ihn stärker vermindern (geringere Sensitivität) muss, um beim Temperaturgang zu einer Darstellung zu gelangen, die zur historischen Aufzeichnung passt. Kiehl hat aber trotzdem nicht recht.

Meine eigene Forschung im Beitrag Climate Sensitivity Deconstructed  vom Juni dieses Jahre hat gezeigt, dass der entscheidende Faktor nicht der Gesamtantrieb ist, wie Kiehl vermutete. Ich habe herausgefunden, dass die Klimasensitivität der Modellle sehr genau durch ein einfaches Trendverhältnis emuliert wird – Trend des Antriebs geteilt durch den Trend des Modell-Outputs


Fig. 2. Lambda verglichen mit dem Trend-Verhältnis. Rot zeigt die transiente Klimasensitivität (TCR) von vier Modellen plus einen 19-Modelle-Durchschnitt. Dunkelblau zeigt das Gleichgewicht der Klimasensitivität (ECS) der gleichen Modelle. Hellblau ist das Ergebnis aus den Antriebs-Datensätzen, wie sie sich aus tatsächlichen historischen Temperatur-Datensätzen ergeben.

Man sieht, dass Kiehls Fehler bei der Erkennung der Ursache der Veränderungen naheliegend ist. Erstens sind die Outputs der Modelle alle ziemlich ähnlich dem historischen Temperaturverlauf. Deswegen konnte Kiehl den Modell-Output vernachlässigen, was die Frage vereinfacht, aber die Ungenauigkeit vergrößert. Zweitens ist der Gesamtantrieb eine Anomalie, die bei Null anfängt am Beginn der historischen Rekonstruktion. Im Ergebnis ist der Gesamtantrieb irgendwie proportional zum Trend des Antriebs. Und das vergrößert auch noch die Ungenauigkeit. Aber bevor ich das Paradoxon löse und zugleich als Erster, der darüber schreibt, möchte ich Dr. Kiehl meine hohe Anerkennung zollen.

Ich hätte eigentlich nicht davon überrascht sein sollen, dass die Sensitivität wie von den Modellen errechnet, nichts anderes als das Trend-Verhältnis ist. Schließlich ist die kanonische Gleichung des herrschenden Klima-Paradigmas, dass der Antrieb direkt mittels der Klimasensitivität (lambda) auf die Temperatur bezogen ist. So ausgedrückt:

Temperaturänderung (∆T) = Klimasensitivität (lambda) mal Veränderung im Antrieb (∆F), oder kürzer,

∆T = lambda ∆F

Das impliziert natürlich

lambda = ∆T / ∆F

Und der Ausdruck auf der rechten Seite ist nichts anderes als das Verhältnis der Trends. 

Wir sehen also, dass, wenn wir uns für einen speziellen Antriebs-Datensatz für das Modell entschieden und dazu einen historischen Datensatz festgelegt haben, der Output passen wird, und damit haben wir die Klimasensitivität hineingepackt. Jetzt brauchen wir nicht einmal mehr das Modell, um sie zu berechnen. Es ist das Trend-Verhältnis – der Trend des historischen Temperatur-Datensatzes geteilt durch den Trend des Antriebs-Datensatzes. Das ergibt sich zwangsläufig aus der Definition.

Damit haben wir die vollständige Erklärung, warum nach jahrelang und immer wieder verbesserten Computer-Modelllen diese Modellle in immer besserer Genauigkeit und Komplexität die Vergangenheit rückwärts gerichtet voraussagen können … aber bei der Klimasensitivität immer noch nicht übereinstimmen.

Der Grund liegt darin, dass die Klimasensitivität überhaupt nichts mit den Modelllen zu tun hat, aber alles mit den Trends bei den Inputs für die Modellle (Antriebe) und den Outputs (Nach-Berechnungen historischer Temperaturverläufe).

Um es zusammenzufassen, wie Dr. Kiehl vermutete, sind die Variationen in der Klimasensitivität, so wie sie die Modelle ausgeben, nur auf die Unterschiede in den Trend-Differenzen zwischen den von den unterschiedlichen Modellen benutzten Antriebe und den Trends der Outputs zurückzuführen.

Angesichts dessen habe ich laut lachen müssen, als ich den jüngsten UNO-IPCC- Mischmasch von Wissenschaft, Glauben und Pseudo-Wissenschaft durchstudierte, der auch Fünfter Zustandsbericht heißt (AR5). Man halte sich vor Augen, dass das Folgende, wie der Name sagt, von einem Ausschuss von Regierungen kommt, nicht von Wissenschaftlern:

Die Spannweite der Modelle reicht beim Gleichgewicht der Klimasensitivität von 2.1°C bis 4.7°C, und das ist sehr ähnlich wie schon beim AR4. Es besteht sehr hohes Vertrauen, dass der zur Spreizung des Gleichgewichts der Klimasensitivität beitragende Primärfaktor das Feedback der Wolken ist. Das gilt sowohl für das moderne Klima wie für das Maximum der vergangenen Eiszeit.

Ich musste lachen, obschon mir zum Weinen war.  … Die IPCC-ler verstehen wirklich überhaupt nicht, was sie machen. Wie können sie “sehr hohes Vertrauen” (95%) haben, dass die Ursache der “Wolken-Feedback” ist, wenn sie an anderer Stelle zugeben, dass sie die Wirkung der Wolken überhaupt nicht verstehen? So schreiben sie über die Beobachtungen von Wolken und deren Wirkungen und viel weniger darüber, was sie in den Modellen damit machen:

• Beträchtliche Ungewissheit und daher niedriges Vertrauen betrifft die Beobachtungen der Wolkenveränderlichkeit im globalen Ausmaß und den Trends. {2.5.7} 

• Es besteht geringes Vertrauen, dass ein globaler Trend bei Trockenperioden oder Niederschlagsarmut beobachtet wurde, weil es keine direkte Beobachtungen gibt und methodische Unsicherheiten bei der Auswahl und geographische Inkonsistenzen bei den Trends. {2.6.2} 

• Es besteht geringes Vertrauen, dass berichtete Langzeit-Veränderungen (über Jahrhunderte) bei den Eigenschaften der Tropischen Zyklonen robust sind, wenn man die jüngeren Veränderungen der Beobachtungsmöglichkeiten in Betracht zieht. {2.6.3}

Ich muss schon sagen, ich für meinen Teil habe “sehr geringes” Vertrauen in die Beurteilungen der Grade des Vertrauens durch das IPCC in allen Dokumenten … 

Wie dem auch sei, liebe IPCC-ler, die Spannweite der Modell-Sensitivität kann nicht auf die zugegebenermaßen schwächlich modellierten Wirkungen der Wolken zurückgeführt werden. Sie hat auch rein garnichts damit zu tun, wie die Modelle im Inneren ablaufen. Die Klimasensitivität ist eine Funktion der Auswahl der Antriebe und dem gewünschten Output (dem historischen Temperaturgang), und sonst nichts.

Unter Berücksichtigung des Mangels an Verständnis auf seiten der Regierungen kann das noch ein langer Kampf bergauf werden. … Aber ich weiß ja nichts Besseres zu tun.

w.

Nachsatz vom Verfasser: Ich halte die ganze Vorstellung von einer “Klimasensitivität” für bedeutungslos im Kontext von natürlichen thermoregulierten Systemen, wie das Klima eins ist. In derartigen Systemen wird eine Zunahme in einem Teilbereich von einer Abnahme in einem anderen Teilbereich oder über einen längeren Zeitraum konterkariert. Hierzu verweise ich auf meine Beiträge It’s Not About Feedback und Emergent Climate Phenomena als Diskussionsbeiträge.

Original hier 

Übersetzung: Helmut Jäger, EIKE




Genauigkeit, Präzision und ein Watt pro Quadratmeter

Ich war darauf gekommen, hierüber nachzudenken aufgrund einer seltsamen Behauptung in einer jüngst in dem Magazin Nature Climate Change erschienenen Studie mit dem Titel Model-based evidence of deep-ocean heat uptake during surface-temperature hiatus periods (paywalled) [etwa: Auf Modellen basierende Beweise der Wärmeaufnahme im tiefen Ozean während Perioden ohne Änderung der Temperatur an der Erdoberfläche]. Ich liebe dieses „Auf Modellen basierende Beweise“, aber das war es nicht, was meine Aufmerksamkeit erregte. Es war vielmehr das folgende Statement (Hervorhebung von mir):

Es gab Jahrzehnte wie z. B. 2000 bis 2009, als beobachtete Zeitreihen der globalen Mitteltemperatur nur eine geringe Zunahme oder sogar einen leicht negativen Trend gezeigt haben (eine Stillstands-Periode). Das beobachtete Energie-Ungleichgewicht an der TOA für diese jüngste Dekade zeigt jedoch, dass ein Gesamtenergie-Fluss in das Klimasystem von etwa 1 W/m² irgendwo im System Erwärmung hervorrufen sollte. Hier analysieren wir Simulationen von Klimamodellen für das 21. Jahrhundert, die ein konsistentes Strahlungs-Ungleichgewicht an der TOA von etwa 1 W/m² enthalten, wie im vergangenen Jahrzehnt beobachtet. (Referenzen am Ende dieses Beitrags)

Wie auch immer, hier kommen einige Neuigkeiten hinsichtlich jener Behauptung eines konsistenten TOA-Ungleichgewichtes aus dem CERES-Satelliten-Datensatz:

Abbildung 1: Gemessene Strahlungsniveaus an der TOA auf Basis der CERES-Satellitendaten, beginnend im Januar 2001. Die Zahlen auf der horizontalen Achse entsprechen den Monaten. Gezeigt werden die in das System eintretende Sonnenenergie (rote Linie), die das System verlassende Sonnenenergie (dunkelblaue Linie) und die das System verlassende langwellige (infrarote) Strahlung (hellblaue Linie). Das monatliche Gesamt-Ungleichgewicht an der TOA wird unten in violett gezeigt. Das gleitende 12-Monats-Mittel für jede Variable wird als dünne Linie gezeigt. Komischerweise sind die Variationen der ausgehenden langwelligen Strahlung etwa 6 Monate außer Phase mit der einfallenden Strahlung. Alle Strahlungswerte sind positiv. Ungleichgewicht an der TOA ist Solareinstrahlung abzüglich reflektierte Solarstrahlung abzüglich ausgehende langwellige Strahlung, d. h. Inflow kleiner als Outflow [dieser Satz lautet im Original: TOA Imbalance is solar less reflected solar less outgoing longwave, i.e. inflow less outflow]. 12-Monats-Mittel variieren zu wenig, um als Änderungen in diesem Maßstab hervorzutreten.

Nun gibt es eine Reihe von interessanten Dingen in dieser Graphik. Da ist zunächst die Tatsache, dass zwar die jahreszeitlichen Variationen ziemlich groß sind, mehrere Zehner-Watt pro Quadratmeter, die jährlichen Variationen aber so klein sind. In diesem Maßstab kann man sie kaum erkennen. Also wollen wir den Maßstab ausdehnen und einen genaueren Blick lediglich auf die Variationen des Gesamt-Energie-Ungleichgewichtes an der TOA werfen (violette Linie in Abbildung 1 unten). Das Ergebnis zeigt Abbildung 2:

Abbildung 2: Das Gesamt-Energie-Ungleichgewicht „durch die Lupe”: Auf der horizontalen Achse sind die Monate aufgetragen. Die dünne Linie zeigt gleitende zentrierte 12-Monats-Mittel der Ungleichgewichts-Daten an der TOA. Alle Strahlungswerte sind positiv. Das TOA-Ungleichgewicht ist solare kleiner als reflektierte solare kleiner als ausgehende langwellige Strahlung, d. h. Inflow kleiner Outflow [Original siehe oben! Ich bin einfach nicht sicher, das richtig übersetzt zu haben. A. d. Übers.]

Hier fangen die kleinen Variationen in den gleitenden 12-Monats-Mittelwerten an, sich zu zeigen. Allerdings beträgt der Mittelwert selbst 5 W/m² … das ist nicht gut. So viel Ungleichgewicht ist nicht glaubwürdig.

Das zeigt den Unterschied zwischen Präzision und Genauigkeit. Man sieht, dass die Messungen offensichtlich ziemlich präzise sind – das 12-monatige gleitende Mittel variiert nur um ein Dreiviertelgrad während des gesamten Zeitraumes.

Absolut sind sie jedoch nicht so genau; das wissen wir, weil sie sich nicht ausbalancieren … und es ist sehr zweifelhaft, dass sich die Erde um 5 W/m² außer Gleichgewicht befindet. Das ist eine sehr große Menge, die sicher bemerkt worden wäre.

Nun habe ich schon zuvor darüber berichtet, wie James Hansen mit diesem Problem umgeht. Er sagt:

Die durch die am weitesten entwickelte Generation von den Strahlungshaushalt messenden Satelliten erreichte Präzision wird gezeigt durch das planetarische Energie-Ungleichgewicht, gemessen durch CERES (Wolken und das Strahlungsenergie-System der Erde; Loeb et al. 2009). Darin zeigt sich ein mittleres 5-Jahres-Ungleichgewicht von 6,5 W/m² (Loeb et al. 2009). Weil dieses Ergebnis nicht plausibel ist, wurden Faktoren zur Kalibrierung der Instrumente eingeführt, um das Ungleichgewicht auf ein solches Niveau zu senken, wie es die Klimamodelle simulieren, also 0,85 W/m² (Loeb et al. 2009).

Ergebnis: Hansen hat eher die Levitus-Daten als die CERES-Daten verwendet, um die Behauptungen eines Strahlungs-Ungleichgewichtes von etwa 1 W/m² zu stützen. Allerdings ist nicht alles verloren. Die Präzision der CERES-Daten ist sehr gut. In Abbildung 2 kann man zum Beispiel erkennen, wie sich das Strahlungs-Ungleichgewicht an der TOA von Jahr zu Jahr unterscheidet. Also dehnen wir den Maßstab noch einmal aus und werfen einen sogar noch genaueren Blick nur auf die gleitenden 12-Monats-Mittelwerte für alle vier Strahlungsmessungen in Abbildung 1.

Abbildung 3: Ein noch näherer Blick, diesmal lediglich auf die kleinen Variationen der gleitenden 12-Monats-Mittel der CERES-Daten wie in Abbildung 1 dargestellt. Alle Strahlungswerte sind positiv. TOA-Ungleichgewicht ist solare kleiner als reflektierte solare kleiner als ausgehende infrarote Strahlung.

Jetzt beginnt man etwas zu erkennen.

Als erstes ist mir die Präzision der einfallenden Solarstrahlung aufgefallen (rote Linie). Wie zu erwarten war, ist die Sonne ziemlich stabil, die Strahlung variiert nur wenig im Vergleich zu den Variationen des reflektierten Sonnenlichtes und der langwelligen Ausstrahlung. Und die Beobachtungen reflektieren dies getreulich. Also scheint klar, dass  ihre Instrumente zur Messung von Strahlung ziemlich präzise sind.

Als nächstes fiel mir auf, dass die Änderung des Ungleichgewichtes (violett) stärker in Beziehung steht zur Änderung des reflektierten Sonnenlichtes (dunkelblau) als zu den Variationen der langwelligen Ausstrahlung. Ich habe das reflektierte Sonnenlicht in der Graphik oben (dunkelblau) besonders hervorgehoben. Das wird durch die Korrelation bestätigt. R² zwischen dem TOA-Ungleichgewicht und dem reflektierten Sonnenlicht beträgt 0,67; aber zwischen dem TOA-Ungleichgewicht und der langwelligen Ausstrahlung ist R² nur 0,07.

Es sieht wie ein wichtiges Ergebnis aus, dass das Ungleichgewicht hauptsächlich in Beziehung zur Albedo steht und dass sich wegen der Variation der Albedo die Variationen der reflektierten Sonnenenergie in der Größenordnung von ± drei zehntel eines Watts innerhalb weniger Jahre bewegen.

Schließlich bin ich wieder einmal überrascht, wie insgesamt stabil das System ist. Zwölf-Monats-Mittel aller drei Variablen sind alle stabil bis zu etwa ±0,3 W/m². Bei einer Gesamtzahl von 340 W/m² in beide Richtungen ist das plus oder minus eines Zehntelprozents … Das nenne ich extrem stabil. Ja, bei längeren Reihen sieht man wahrscheinlich größere Schwingungen, aber das ist immer noch sehr stabil.

Und das bringt mich zurück zu dem Zitat aus der Studie, mit der ich diesen Beitrag begonnen habe. Sie sagen, dass es

… ein konsistentes Strahlungs-Ungleichgewicht gibt an der Obergrenze der Atmosphäre von etwa 1 W/m², wie es im vergangenen Jahrzehnt beobachtet worden ist…

Nun, ihren Referenzen 2 und 3 zufolge basiert diese Behauptung auf dem Gedanken, dass die überschüssige Energie von den Ozeanen aufgenommen wird. Und diese Behauptung ist weit verbreitet wiederholt worden. Ich habe über diese Behauptungen hier etwas geschrieben. Die Behauptungen basieren alle auf den Levitus-Ozean-Temperaturdaten, welche eine zunehmende Wärme in den Ozeanen zeigen. Hier folgt meine Graphik des jährlich erforderlichen Antriebs zur Auslösung dieser Änderungen, die im ozeanischen Wärmegehalt nach Levitus gezeigt werden:

Abbildung 4: Jährlicher Antrieb in W/m², der erforderlich ist, um die Energiemenge in den Levitus-Daten auszulösen, die in den Ozean eintritt oder aus diesem herauskommt. Die Daten stehen für die oberen 2000 Meter Wasser. Trotz der Verwendung von Mittelwerten sowohl von Hansen als auch in der hier besprochenen Studie sind weder das Mittel noch der Trend statistisch signifikant. Weiteres hier.

Für unsere Zwecke möchte ich darauf hinweisen, dass es hinsichtlich des in den Levitus-Daten gezeigten Energiegewinns und –verlustes sehr großer Änderungen der Energiemenge von Jahr zu Jahr bedarf, die in den Ozean eindringen. Diese Energie muss von irgendwoher kommen, und sie muss irgendwohin verschwinden, wenn sie den Ozean wieder verlässt. Da der solare Input während der Periode in etwa konstant ist, muss diese Energie aus Änderungen entweder der langwelligen Ausstrahlung oder des reflektierten Sonnenlichtes stammen … und wir haben präzise (obwohl vielleicht ungenaue) Daten von CERES hierfür. Glücklicherweise spielt das Fehlen von Genauigkeit in diesem Fall keine Rolle, weil wir an Änderungen von Jahr zu Jahr interessiert sind. Hierfür ist alles, was wir brauchen, Präzision, und die CERES-Daten sind sehr präzise.

Also … jetzt möchte ich den in Abbildung 4 gezeigten Antrieb des ozeanischen Wärmegehaltes nach Levitus mit den CERES-Daten vergleichen. Abbildung 5 zeigt den Unterschied:

Abbildung 5: Antrieb aus den Levitus-Daten des ozeanischen Wärmegehaltes verglichen mit den CERES-Daten in Abbildung 3.

Wie man sieht, haben sie eine Reihe großer Probleme mit ihren Behauptungen hinsichtlich eines konsistenten Ungleichgewichtes von 1 W/m² während des letzten Jahrzehnts.

Erstens widersprechen dieser Behauptung die gleichen Daten, von denen sie behaupten, dass sie sie stützen. Da ist nichts, was „konsistent“ ist in den Levitus-Daten, es sei denn, man verwendet ein langzeitliches Mittel.

Das zweite Problem liegt in den Levitus-Daten selbst … Woher kommt die Energie bzw. wohin geht sie? Während das TOA-Ungleichgewicht nach CERES nicht akkurat ist, ist es sehr präzise, und es würde eine Fluktuation in der Größenordnung zeigen, wie sie in den Levitus-Daten zum Ausdruck kommt. Wenn wirklich so viel Energie in den Ozean eindringen bzw. diesen verlassen würde, hätte der CERES-Satellit dies sicherlich beobachtet … also wo ist sie?

Ich habe bereits hier beschrieben, was ich als unrealistische Fehlerbalken in den Levitus-Daten ansehe. Mein jüngster Vergleich mit den CERES-Daten ändert nicht meine frühere Schlussfolgerung, dass nämlich die Präzision der Levitus-Daten erheblich überschätzt wird.

Und zum Schluss, der Gedanke, dass wir über ausreichend präzise, genaue und vollständige Beobachtungen verfügen, um das TOA-Ungleichgewicht mit beispielsweise 0,85 W/m² zu berechnen … nun, ich nenne es vorläufig und mathematisch optimistisch. Wir haben einfach nicht die Daten, um die Energiebilanz der Erde mit einer Genauigkeit von ± 1 W/m² zu berechnen, weder aus den Ozeanen noch von den Satelliten.

Weitere Beiträge von mir zu den CERES-Daten:

Observations on CERES TOA forcing versus temperature

Time Lags In The Climate System

A Demonstration of Negative Climate Sensitivity

CERES data: Unfortunately, when I go to verify it’s still available, I get:

The Atmospheric Science Data Center recently completed a site wide redesign.  
It is possible that the page you are looking for is being transitioned.  Please try back later.
If the page you have requested is still not available, it may have been renamed or deleted.
It is recommended that you use the Search interface on the ASDC Web Site to find the information you were looking for.

Since I got there via the afore mentioned “Search interface on the ASDC Web Site”, I fear we’re temporarily out of luck.

[UPDATED TO ADD] I’ve collated the global and hemispheric monthly averages from R into a “.csv” (comma separated values) Excel file available here.

Levitus data

REFERENCES FOR THE NATURE CLIMATE CHANGE ARTICLE:

2. Hansen, J. et al. Earth’s energy imbalance: Confirmation and implications.
Science 308, 14311435 (2005).

3. Trenberth, K. E., Fasullo, J. T. & Kiehl, J. Earth’s global energy budget.
Bull. Am. Meteorol. Soc. 90, 311323 (2009).

4. Trenberth, K. E. An imperative for climate change planning: Tracking Earth’s
global energy. Curr. Opin. Environ. Sustain. 1, 1927 (2009).

5. Trenberth, K. E. & Fasullo, J. T. Tracking Earth’s energy. Science 328,
316317 (2010).

Link: http://wattsupwiththat.com/2013/08/30/accuracy-precision-and-one-watt-per-square-metre/

Übersetzt von Chris Frey EIKE




Bemerkungen zum Unsinn der Energiepolitik am Beispiel von British Columbia, Kanada

<xml> </xml>

British Columbia, British Utopia

Willis Eschenbach

Ein Kommentator hat mich auf einen anderen Blog der kanadischen Provinz British Columbia (BC) hingewiesen. Dort hatte man im Jahr 2008 eine auf Kohlenstoff basierende Energiesteuer eingeführt. Bevor ich auf die Kosten oder die aktuellen Ergebnisse dieses Vorgangs eingehe, möchte ich einen Blick auf die möglichen Vorteile werfen. Ich meine: wenn es keine Vorteile bringt, liegen die Kosten irgendwie neben den Gleisen. Die kohlenstoffbasierte Energiesteuer in BC wurde mit der Begründung propagiert, dass sie helfen würde, die vermeintliche durch CO2 verursachte globale Erwärmung zu bekämpfen. Um wie viel also werden die Aktionen unserer nördlichen Nachbarn die Welttemperatur beeinflussen?

Nun, das ist schwer zu beantworten, aber wir könnten mit einem Gedankenexperiment eine obere Grenze der möglichen Abkühlung festlegen. Dem gegenwärtigen Klima-Paradigma zufolge bestimmt CO2 die globale Temperatur, und die Temperaturänderung für jede Verdoppelung des CO2-Gehaltes betrage etwa 3°C. Das heißt, wenn wir die Emissionen kennen, können wir die resultierende Temperaturänderung berechnen.

Das Gedankenexperiment geht so: Man nehme an, dass British Columbia im Jahr 1850 als separater Staat gebildet worden wäre mit dem hohen ethischen Ziel, sich von den teuflischen kohlenstoffbasierten Treibstoffen freizumachen. Und anstatt diesen Staat „British Columbia“ zu nennen, haben sich die frühen Kolonisten entschlossen, ihn „British Utopia“ zu nennen, weil sie dabei waren, gegen das böse Kohlendioxid das ultimative Opfer zu bringen. Sie würden niemals wieder fossile Treibstoffe verwenden, ihr Land wäre ein wirkliches Utopia. Also haben sie eine Mauer um British Utopia errichtet und mit niemandem Handel getrieben, um den lästigen Kohlenstoff aus dem Handel herauszuhalten. Um CO2-Emissionen zu vermeiden, haben sie keinerlei Öl verwendet, weder ihr eigenes noch solches von anderswo her. Sie haben kein Zement hergestellt oder importiert, weil dabei zu viel CO2 in der Manufaktur freigesetzt worden wäre. Die Utopisten haben keine Kohle zur Heizung oder für Transporte oder die Herstellung von Stahl benutzt, sondern ausschließlich wunderbares erneuerbares Holz. Da der Kohlenstoff im Holz zuvor aus der Luft geholt worden war, würde das Verbrennen kein zusätzliches CO2 in die Atmosphäre blasen, sondern es würde lediglich genau die Menge ersetzt werden, die zuvor im Holz eingelagert worden ist. Und man nehme weiter an, dass sie das alles bis heute durchgehalten hätten.

Für mich klingt das so, als hätten sie nur kurze Zeit gelebt unter brutalen Bedingungen. Sie hätten infolge der vielen Holzfeuer eine dunstige braune Atmosphäre geatmet. Und wenn man sein Land aufgrund von Holz verwaltet, könnte es am Ende so aussehen wie in Haiti … [auf Deutsch bei EIKE hier]. Aber lassen wir das für den Moment und stellen die wichtige Frage:

Falls die Bewohner von British Utopia der Menschheit dieses noble Opfer im Jahre 1850 dargebracht und den fossilen Treibstoffen abgeschworen hätten … um wie viel wäre es heute in der Welt kühler?

Bild rechts: um wie viel es auf der Welt kühler wäre, falls die britischen Utopisten den teuflischen Kohlenstoff-Gewohnheiten im Jahr 1850 abgeschworen hätten.

Mit den Hypothesen des IPCC unter dem gegenwärtigen Paradigma können wir glücklicherweise berechnen, um wie viel es heute kühler wäre, wenn es die Bewohner von British Utopia aufgegeben hätten, CO2 zu emittieren. Das CDIAC [Carbon Dioxide Information Analysis Center] hat Daten sowohl für Kanada als auch für die Welt, die die CO2-Emissionen seit 1750 zeigen. Und da für ein gegebenes Land die CO2-Emissionen eine Funktion der Bevölkerungszahl ist und wir die historische Population in BC als Bruchteil des Ganzen kennen, können wir die Gesamtemissionen von BC herausfiltern und folglich auch die Größe der utopianischen Abkühlung. Hier also wird der wahre kanadische Hockeyschläger gezeigt, der uns sagt, um wie viel kühler es Jahr für Jahr in der Welt wäre mit dem Selbstopfer der British Utopianer:

Die blaue Kurve in der Abbildung zeigt, um wie viel sich der Planet während der letzten eineinhalb Jahrhunderte abgekühlt hätte durch die virtuosen Aktionen der British-Utopianer. Wenn sie einfach „nein“ zu fossilen Treibstoffen gesagt hätten, zeigt die blaue Linie, um wie viel es heute kühler wäre. Das wären etwa fünf Tausendstel von einem Grad … Mann, diese Utopianer wissen wirklich, wie man die größte Ausbeute für sein Geld bekommt, oder? Man gebe sämtlichen modernen Komfort für eineinhalb Jahrhunderte auf, man lebe Jahrzehnt für Jahrzehnt in einem Dunklen Zeitalter, während überall sonst Party herrscht – und was haben sie als Folge von 150 Jahren Selbstentbehrungen vorzuweisen?

Fünf Tausendstel Grad Abkühlung!

Aber Moment, es wird noch schlimmer … man denke an die Enkelkinder!

An der rechten Seite der Graphik habe ich weitere fünfzig Jahre projizierter Emissionen gezeigt. Ein junges Paar, das heute eine Familie gründet – in fünfzig Jahren werden deren Enkelkinder in den Dreißigern sein. Was also könnte man mit der kohlenstoffbasierten Energiesteuer in BC für diese Enkelkinder erreichen?

Ich habe zwei mögliche Zukunftsszenarien gezeigt. Eines ist das „Business as Usual“-Szenario in rot. Dabei setzt sich der Trend nach 1970 fort, der sich auf etwa 1,5% jährlicher Zunahme der Emissionen in BC beläuft. Das kann man pessimistischerweise erwarten, wenn es keine Energiesteuer irgendeiner Art gäbe. Das ist der Worst-Case.

Und in grün habe ich das absolute Best-Case-Ergebnis einer solchen Energiesteuer gezeigt. Das ist das totale Phantasie-Ergebnis, bei dem die BC-Emissionen auf ihrem Niveau aus dem Jahr 2008 verbleiben (dem Datum der Einführung der Steuer), und sie nehmen fünfzig Jahre lang überhaupt nicht zu. Natürlich würde der atmosphärische CO2-Gehalt weiterhin steigen infolge der konstant sich fortsetzenden Emission der im Jahr 2008 emittierten CO2-Menge, aber nicht so stark wie im „Business as Usual“-Szenario.

Die Differenz zwischen diesen beiden Szenarien, dem Worst Case und dem Best Case zeigt die theoretisch maximal mögliche Abkühlung, die aus einer kohlenstoffbasierten Energiesteuer resultieren könnte. Das repräsentiert die schwarze Linie in der unteren rechten Ecke … und diese Abkühlung beträgt drei Tausendstel Grad.

Da also haben wir es! All die Pein, die die Bevölkerung von BC erduldet, all die Meilen Papierkram, alle Opfer, alle Schädigungen der Armen, alle gesammelten Steuern und die gehätschelten Bürokraten für all das – alles, was das gute kanadische Volk für ihre Enkelkinder erreicht hat, bewirkt eine Abkühlung um drei tausendstel Grad!

Alles, was ich sagen kann, ist, dass ich sicherlich hoffe, dass die Enkelkinder eine angemessene Dankbarkeit zeigen für dieses Inter-Generationen-Geschenk und dass sie den alten Knackern eine nette Dankeskarte schicken, wie es Miss Manners verlangt [?]. Schließlich zählt der gute Wille, und man bekommt nicht oft ein Geschenk von so großer Bedeutung…

Aber ernsthaft, Leute: Die Anti-Kohlenstoff-Zeloten müssen die Massen hypnotisiert haben. Ich weiß keine andere Erklärung für eine solche Idiotie. Beispiel:

Nehmen wir mal an, es käme jemand und sagte „Ich kann garantieren, dass ich den Planeten während der nächsten fünfzig Jahre um drei tausendstel Grad kühlen kann“. Und nehmen wir weiter an, man hätte das überprüft und gefunden, dass dieser Jemand die Wahrheit sagt, dass er nämlich wirklich eine Abkühlung um drei Tausendstel Grad während der nächsten fünfzig Jahre garantieren kann.

Wie viel würden Sie persönlich dafür bezahlen wollen?

Würden Sie eintausend Dollar für eine garantierte Abkühlung um drei Tausendstel Grad zahlen, die nicht heute, sondern in fünfzig Jahren stattfindet?

Ich würde das nicht tun. Das ist es nicht wert. Zu viel Geld für zu wenig Nutzen.

Aber die kollektive Verrücktheit der Einwohner von BC hat einen Punkt erreicht, an dem sie gewillt sind, eine die Wirtschaft beeinträchtigende Steuer zu etablieren, und zwar durch eine komplette Bürokratie, mit Vollstreckungsbeamten und Stapeln von Papierkram. Und an dem sie gewillt sind, Millionen und Abermillionen Dollar auszugeben in dem wahnsinnigen Bemühen, dem Best Case-Szenario einer Abkühlung um drei Tausendstel Grad zu folgen; nicht jetzt, sondern in fünfzig Jahren.

Alles, was mir da zu tun übrigbleibt ist, meinen Kopf zu schütteln und mich über die Verrücktheit von Massen zu wundern. Ein Plan wird vorgeschlagen, jemand nimmt eine Kosten-Nutzen-Analyse vor, der Nutzen ist zu gering, um die Hoffnung zu hegen, dass er auch nur gemessen werden kann und sich noch mehrere Jahrzehnte nicht einstellt … und die Reaktion der Leute besteht darin zu sagen „toller Plan, los, lasst ihn uns sofort umsetzen!“

Nun ja … ich bin ein Optimist und hoffe, dass an irgendeinem Punkt unsere kanadischen Nachbarn aufwachen werden und sagen „Was?!“

P. S. Wie oben erwähnt, möchte ich einen Blick auf den Nutzen, die Kosten und die Auswirkungen einer kohlenstoffbasierten Energiesteuer werfen. In diesem Beitrag habe ich nur den (fehlenden) Nutzen angesprochen, so dass man erwarten kann, dass es noch ein paar weitere Beiträge geben wird, in denen es um die Auswirkungen und die Kosten geht. Tatsächlich sind diese Beiträge schon weitgehend geschrieben, weil ich eigentlich nur einen Beitrag schreiben wollte, der jedoch unerträglich lang geworden ist … also werde ich über die Kosten und den Nutzen einer Steuer in BC später sprechen [siehe nächsten Beitrag! A. d. Übers.]

P.P.S. Bitte sagen Sie mir nicht, dass dies lediglich der erste Schritt ist. Die Steuerzahler in BC haben bereits eine halbe Milliarde Dollar für diese Farce ausgegeben, und das ist noch nicht einmal die Hälfte. Falls der erste Schritt eine Milliarde Dollar kostet, um eine Abkühlung von 0,003°C zu erreichen, will ich nicht wissen, worin der zweite Schritt besteht, egal wie er aussieht.

Link: http://wattsupwiththat.com/2013/07/11/british-columbia-british-utopia/

Der zweite Beitrag wurde einen Tag später ebenfalls bei Wattsupwiththat veröffentlicht:

Treibstoff auf der Autobahn in British Pre-Columbia

Willis Eschenbach

Unterstützer der kohlenstoffbasierten Energiesteuer in BC, über die ich oben geschrieben habe, haben behauptet, dass diese Steuer den Daten zufolge ein Erfolg war … und da ich immer ein Mensch bin, der lieber immer alles überprüft, habe ich beschlossen, einmal selbst auf diese Daten zu schauen. Ich habe nicht gedacht, dass die Steuer größere Auswirkungen hätte, aber ich war darauf vorbereitet, irgendetwas zu finden. Die Wirklichkeit ist in dieser Hinsicht komisch. Ich mag manchmal gar nicht wissen, wo der Hund begraben liegt … wie auch immer, eine typische Behauptung lautet:

MOTORENBENZIN (VERKEHR)

Die obigen Abbildungen zeigen Änderungen des Gesamtverbrauchs aller Produkte aus Petroleum-Treibstoff (Gegen­stand der Kohlenstoffsteuer). Um etwas darüber zu erfahren, wie die Kohlenstoffsteuer das Verhalten der Fahrer beeinflusst hat, kann man einfach die Änderungen beim Verbrauch von Motorenbenzin untersuchen (eine Komponente des Gesamt-Ölverbrauchs). Seit 2008 ist der Pro-Kopf-Verbrauch in BC um 7,3% stärker zurückgegangen als im übrigen Kanada – ein substantieller Unterschied. Schon in den Jahren von 2000 bis 2007 war der Benzinverbrauch in BC rascher zurückgegangen als im übrigen Kanada.

Die Steuer gilt für alle kohlenstoffbasierten Treibstoffe, Heizöl, Flugzeugbenzin, Kerosin, Erdgas, alles. Für einige dieser Arten sind keine Daten verfügbar, also habe ich mir den Verbrauch auf Autobahnen angeschaut, Benzin und Diesel, um zu sehen, ob die Steuer irgendwie Auswirkungen darauf hat, wie die Menschen in den gefrorenen Norden fahren.

Statistics Canada hat eine ausgezeichnete Website, von der ich die meisten meiner Daten hinsichtlich des Treibstoffverbrauchs habe. Als erstes kommen hier die Änderungen vom Pro-Kopf-Verbrauch von Benzin und Diesel (als Kombination) pro Provinz für die Jahre 1993 bis 2011. Diese Analyse betrifft nur den Benzin- und Dieselverbrauch auf den Straßen und nicht für Benzin oder Diesel, um Traktoren und landwirtschaftliche Geräte auf den Äckern zu betreiben. (Man beachte, dass die Kohlenstoffsteuer auch für Treibstoffverbrauch in der Landwirtschaft und alle anderen Verbraucher gilt, für alles).

Abbildung 1: Pro-Kopf-Verbrauch von Benzin und Diesel in Kanada, unterteilt nach Provinzen. Nur Treibstoffe auf Autobahnen wurden gezählt. Die dicke rote bzw. blaue Linie zeigt den Treibstoffverbrauch in BC bzw. Kanada. Nunavut und die Nordwest-Territorien sind nicht mitgezählt, weil von dort Daten aus den frühen Jahren fehlen, bevor Nunavut gegründet worden war. (Datenquelle)

Das sieht zwar interessant aus, gestattet aber noch keine Einsicht in die subtilen Änderungen Jahr für Jahr. Dafür müssen wir auf die Änderungen der Prozentanteile hinsichtlich der Emissionen pro Provinz, um zu erkennen, wo der Verbrauch steigt und wo er fällt.

Wenn man sich die prozentualen Veränderungen von irgendwas anschaut, lautet die erste Frage, welchen Startpunkt man als Ausgangspunkt für die prozentuale Veränderung nimmt. Weil die Steuer im Jahre 2008 eingeführt worden ist, habe ich jenes Jahr als Startpunkt gewählt. Abbildung 2 zeigt das Ergebnis, und angesichts der Behauptungen der Befürworter dieser Steuer ist das Ergebnis ziemlich komisch … außer man lebt in BC. Ich denke, wenn man Ziel des Witzes ist, verliert dieser seine Komik. Wie auch immer, hier folgt die prozentuale Änderung im Pro-Kopf-Verbrauch von Benzin und Diesel auf Autobahnen.

Abbildung 2: Prozentuale Änderung des Treibstoffverbrauchs mit dem Jahr 2008 als Startpunkt. Die blaue Linie zeigt die korrespondierende prozentuale Änderung im wirklichen (inflationsbereinigten) Bruttoinlandsprodukt in Kanada. 2011 ist das letzte Jahr, in dem in StatCan Daten vorliegen.

Das erste, was auffällt, ist ein Phänomen, das ich auch in meinen Analysen der Fahrgewohnheiten in den USA gefunden habe – die Amerikaner fahren mehr in guten wirtschaftlichen Zeiten und weniger in schlechteren Zeiten. Ähnlich ist es beim Treibstoffverbrauch sowohl in BC als auch in Gesamt-Kanada. Der Verlauf war ähnlich der nationalen ökonomischen Lage.

Danach fiel mir auf, dass es in BC von 1993 bis 2008 den geringsten Zuwachs im Treibstoffverbrauch auf Autobahnen gegeben hatte, verglichen mit allen anderen Provinzen.

Als nächstes sind die Änderungen des Autobahnen-Treibstoffverbrauchs nach Einführung der Steuer interessant. Abbildung 3 zeigt einen vergrößerten Ausschnitt von Abbildung 2 und stellt die jüngste Periode von 2004 bis 2011 in den Mittelpunkt stellt.

Abbildung 3: Vergrößerter Ausschnitt von Abbildung 2, die die Änderungen im Straßen-Treibstoffverbrauch nach Einführung der Steuer zeigt. Die kohlenstoffbasierte Energiesteuer in BC war 2008 eingeführt worden.

Also … genau wie im übrigen Kanada (dicke schwarze Linie) ging der Treibstoffverbrauch in BC von 2004 bis 2008 zurück, als die Steuer eingeführt worden ist … außer dass der Rückgang schneller erfolgte als im nationalen Mittel.

Und auch wie im übrigen Kanada erreichte der Treibstoffverbrauch in BC im Jahr 2009 seinen Tiefpunkt, also im Jahr nach Einführung der Steuer. Ich kann nur vermuten, dass dies mit der blauen Linie zusammenhängt, die das reale Bruttoinlandsprodukt von Kanada repräsentiert.

Und genau wie im übrigen Kanada ist der Straßen-Treibstoffverbrauch in BC bis zum Ende der Aufzeichnung wieder gestiegen … außer dass der Anstieg schneller erfolgt ist als im nationalen Mittel.

Das also ist der Witz des Ganzen: Von 2004 bis zum Steuerjahr 2008 zeigte der Straßen-Benzinverbrauch in BC die schnellste Abnahme des Treibstoffverbrauchs im Land. Der Verbrauch fiel dreimal so stark wie im restlichen Kanada während dieses Zeitraumes. Das war vor der Steuer.

Nach Einführung der Steuer setzte sich der Rückgang fort, aber nur für ein Jahr. Das gilt auch für das übrige Kanada und die USA. Dies zeigt, dass der Rückgang seine Ursache zumindest teilweise in den globalen wirtschaftlichen Schwierigkeiten hat.

Und seit 2009 zeigt BC zusammen mit dem Yukon-Territorium und Neufundland/Labrador den stärksten Anstieg des Treibstoffverbrauchs im Lande. Der Autobahn-Benzinverbrauch seit 2009 stieg in BC viermal schneller als im übrigen Kanada.

Und schließlich ist der Straßen-Energieverbrauch seit 2008, also seit der Einführung der Steuer, in BC gestiegen, nicht gefallen. Und nicht nur das, seit Einführung der Steuer ist der Verbrauch in BC am viertschnellsten im Vergleich mit allen anderen Provinzen gestiegen.

Kann man sagen, dass die kohlenstoffbasierte Energiesteuer den Treibstoffverbrauch in BC beeinflusst hat? Nein, denn wir haben ja nur den Straßen-Treibstoffverbrauch betrachtet … aber der Verbrauch auf den Autobahnen in BC hat sich sicher nicht geändert. Nun, das stimmt nicht ganz.

Vor der Steuer ging der Pro-Kopf-Verbrauch von Starßen-Treibstoff in BC schneller zurück als in fast allen anderen Provinzen.

Nach der Steuer war dieser Verbrauch in BC schneller gestiegen als in fast allen anderen Provinzen.

Also – ja, ich würde sagen, dass ich unrecht hatte; die Steuer hatte einen Einfluss auf den Straßen-Treibstoffverbrauch in BC … aber wahrscheinlich nicht den, den die Befürworter erwartet hatten.

P. S. Man erinnere sich daran, dass die Befürworter den Rückgang des Benzinverbrauchs auf Autobahnen in BC in höchsten Tönen gepriesen hatten … warum bin ich nicht zu diesem Ergebnis gekommen? Warum zeigt sich bei mir eine Zunahme?

Nun, weil ich den gesamten, auf den Autobahnen verbrauchten Treibstoff gezeigt habe, nicht nur den von Benzin. Und obwohl es eine kleine Abnahme des Benzinverbrauchs in BC gegeben hatte, gab es einen größeren Zuwachs beim Dieselverbrauch. Als Ergebnis ist der Straßen-Treibstoffverbrauch in BC nicht 7,3% geringer als im übrigen Kanada, wie sie es glauben machen wollen, indem sie die Zahlen für den Dieselverbrauch einfach weglassen – der Verbrauch ist in BC um 4,2% stärker gestiegen als im übrigen Kanada. Wie ich sagte, es zahlt sich aus, misstrauisch gegenüber Statements von solchen Leuten zu sein, engstirnige Fanatiker.

P.P.S. In meinem obigen Beitrag zur kohlenstoffbasierten Energiesteuer in BC sagte ich, dass ich (das Fehlen von) Vorteilen, die Kosten und die Folgen der Steuer diskutieren wollte. Jener Beitrag zeigte, dass der größte mögliche Vorteil der BC-Steuer eine Abkühlung um drei Tausendstel Grad nach fünfzig Jahren war. In diesem Beitrag geht es um die kuriosen Folgen der Steuer, nämlich um die Tatsache, dass der Autobahn-Treibstoffverbrauch (Benzin plus Diesel) vor der Steuer zurückgegangen und nach deren Einführung gestiegen war, und zwar stärker als im übrigen Kanada.

Link: http://wattsupwiththat.com/2013/07/12/fuel-on-the-highway-in-british-pre-columbia/#more-89728

Alles übersetzt von Chris Frey EIKE




Australien und ACORN-SAT messen höhere Tiefst-Temperaturen als die (angegebenen) Höchsttemperaturen! Wie das?

Es ist ein Datensatz mit täglichen Daten, was ich mag. Und sie scheinen etwas von Anthony Watts und seinem Surface Station Project gelernt zu haben, es gibt Photos und Beschreibungen und Metadaten von jeder einzelnen Station. Außerdem sind die Daten gut auf Fehler untersucht und überprüft worden. Auf der Site heißt es:

Experten-Begutachtung

Alle wissenschaftlichen Arbeiten in dem Bureau sind Gegen­stand von Begutachtungen durch Experten. In Anerkennung des öffentlichen Interesses an ACORN-SAT als Basis für Analysen zur Klimaänderung hat das Bureau zusätzlich eine internationale Begutachtung seiner Arbeitsweisen und Methoden initiiert.

Eine Reihe weltweit führender Experten traf sich 2011 in Melbourne, um die Methoden zur Entwicklung von ACORN-SAT zu begutachten. Sie kamen zu dem Ergebnis, dass die Methoden und Datenanalysen des Bureaus unter den besten der Welt liegen.

und

Methoden und Entwicklung

Die Erstellung einer modernen homogenisierten australischen Temperaturaufzeichnung erfordert extensive wissenschaftliche Kenntnisse – zum Beispiel darüber, wie Änderungen der Technologie und Verschiebungen der Station die Konsistenz der Daten mit der Zeit beeinflussen.

Die Klimadaten-Experten des Bureau of Meteorology haben die digitalisierten Daten sorgfältig analysiert, um eine konsistente – oder homogene – Aufzeichnung täglicher Temperaturwerte während der letzten 100 Jahre zu erhalten.

Als Ergebnis davon war ich begeistert, die Sammlung dieser Temperaturdaten zu finden. Also habe ich ein R-Programm geschrieben und die Daten zur Untersuchung herunter geladen. Aber gerade als ich damit fertig war und mit meiner Untersuchung nach bester klimawissenschaftlicher Tradition beginnen wollte, ging plötzlich alles schief!

Was war geschehen? Bei der Forschung nach dem ACORN-SAT-Datensatz war ich zufällig auf eine Website gestoßen mit einem Beitrag vom Juli 2012, etwa vier Monate nach der Veröffentlichung des ACORN-SAT-Datensatzes. Der Autor stellte die überraschende Behauptung auf, dass an einer ganzen Reihe von Tagen in verschiedenen Aufzeichnungen im Datensatz die tägliche Tiefsttemperatur HÖHER lag als das Tagesmaximum … oh, das war gar nicht schön!

Nun, ich dachte mir, dass neue Datensätze manchmal Kinderkrankheiten aufweisen, und da dieser Beitrag von vor fast einem Jahr stammte und kurz nach der Veröffentlichung des Datensatzes erschienen war, dachte ich, dass man dieses Problem inzwischen gelöst habe…

…aber dann kam ich endlich zu Verstand und erinnerte mich, dass dies das Australian Bureau of Meteorology (BoM) war, und da wusste ich, dass ich ein Narr wäre, dies nicht zu checken. Die Reputation des Bureaus ist nicht Gold, sondern tatsächlich Zinn … also schrieb ich ein Programm, das alle Tage an allen Stationen mit diesem speziellen Problem finden sollte.

Von allen 112 ACORN-SAT-Stationen hatten nicht weniger als 69 zumindest einen Tag in der Aufzeichnung, an dem die Tiefsttemperatur dieses Tages höher lag als die Höchsttemperatur des gleichen Tages. Im gesamten Datensatz fanden sich 917 Tage, an denen das Minimum höher lag als das Maximum…

Ergebnisse wie diese hasse ich absolut. Für die meisten Anwendungen spielt dieses Ergebnis fast keine Rolle. Es sind tägliche Datensätze, wobei jede Station 100 Jahre lang Daten besitzt, 365 Tage im Jahr. Das bedeutet, dass der gesamte Datensatz aus 4 Millionen Daten besteht, so dass diese 917 Fehler gerade mal 0,02% der Daten ausmachen, falls … Aber es bedeutet auch, dass man den Ergebnissen einfach nicht trauen kann, wenn ich diese Daten verwende. Es bedeutet, wer auch immer diesen Datensatz zusammengestellt hatte, hat nicht seine Hausaufgaben gemacht.

Und traurigerweise bedeutet es auch, dass wir nicht wissen, was sie noch alles nicht getan haben könnten.

Noch einmal, es geht nicht darum, dass diese Probleme im ACORN-SAT-Datensatz aufgetaucht waren. Alle neuen Datensätze weisen Anfangsfehler auf.

Es geht darum, dass die Autoren und Kuratoren des Datensatzes ihrer Verantwortung nicht gerecht geworden sind. Sie hatten ein Jahr Zeit, dieses einfachste aller Probleme zu lösen, und soweit ich das sagen kann, haben sie in dieser Hinsicht gar nichts getan. Sie passen nicht auf, so dass wir nicht wissen, ob die Daten gültig sind oder nicht.

Ich muss zugeben, diese Art schäbiger „veröffentliche es“-Klimawissenschaft wird langsam zur Gewohnheit…

DIE ERGEBNISSE

Station, Anzahl der Fehlertage (an denen die Tiefsttemperatur höher liegt als die Höchsttemperatur)
Adelaide, 1
Albany, 2
Alice Springs, 36
Birdsville, 1
Bourke, 12
Burketown, 6
Cabramurra, 212
Cairns, 2
Canberra, 4
Cape Borda, 4
Cape Leeuwin, 2
Cape Otway Lighthouse, 63
Charleville, 30
Charters Towers, 8
Dubbo, 8
Esperance, 1
Eucla, 5
Forrest, 1
Gabo Island, 1
Gayndah, 3
Georgetown, 15
Giles, 3
Grove, 1
Halls Creek, 21
Hobart, 7
Inverell, 11
Kalgoorlie-Boulder, 11
Kalumburu, 1
Katanning, 1
Kerang, 1
Kyancutta, 2
Larapuna (Eddystone Point), 4
Longreach, 24
Low Head, 39
Mackay, 61
Marble Bar, 11
Marree, 2
Meekatharra, 12
Melbourne Regional Office, 7
Merredin, 1
Mildura, 1
Miles, 5
Morawa, 7
Moree, 3
Mount Gambier, 12
Nhill, 4
Normanton, 3
Nowra, 2
Orbost, 48
Palmerville, 1
Port Hedland, 2
Port Lincoln, 8
Rabbit Flat, 3
Richmond (NSW), 1
Richmond (Qld), 9
Robe, 2
St George, 2
Sydney, 12
Tarcoola, 4
Tennant Creek, 40
Thargomindah, 5
Tibooburra, 15
Wagga Wagga, 1
Walgett, 3
Wilcannia, 1
Wilsons Promontory, 79
Wittenoom, 4
Wyalong, 2
Yamba, 1

Link: http://wattsupwiththat.com/2013/06/28/australia-and-acorn-sat/

Übersetzt von Chris Frey EIKE




Energie kaufen aus dem Energie-Laden?

Bild rechts: Elemente einer Blei-Säure-Autobatterie. Quelle 

Der Autor des Gastbeitrags hat teilweise recht. Seine These lautet, dass die Lösung des Problems, große Mengen Strom zu speichern, einen sehr großen Unterschied ausmachen würde, vor allem für unregelmäßige Quellen wie Wind und Sonne. Da hat er recht, das würde es. Aber er hat unrecht, wenn er nicht darauf hinweist, wie teuflisch schwierig es bislang war, dieses Ziel in der realen Welt zu erreichen.

Die Stromspeicherung ist eine sehr seltsame Ecke wissenschaftlicher Bestrebungen. Fast alles in einem Auto aus dem Jahr 2013 unterscheidet sich von einem Auto aus dem Jahr 1913 … außer der Batterie. Autobatterien sind immer noch Blei-Säure-Batterien, und deren Aussehen unterscheidet sich nur minimal von dem vor einhundert Jahren.

Nun, wir haben Nickel-Kadmium-Batterien und Ähnliches, aber die Autobatterie als Speicher ist der Leithammel für die billige Speicherung von Elektrizität. Autos brauchen eine überraschend große Menge Energie zum Start, vor allem, wenn der Motor nicht gleich anspringt. Falls es einen billigeren Weg gäbe, diese große Menge zu speichern, wäre dies längst in jedes Auto des Planeten eingebaut. Angesichts dieses riesigen Marktes und der offensichtlichen Profite darin haben sich viele Menschen den Kopf über dieses Problem zerbrochen, seit Thomas Edison sein berühmtes Statement über Autobatterien abgegeben hat.

Und trotz dieser ein Jahrhundert langen gewaltigen Denkleistung menschlichen Erfindergeistes regieren die Blei-Säure-Batterien im Jahr 2013 immer noch. Es ist eine Anomalie, wie die Kernfusion, die sich als unglaublich schwierig zu lösen heraus gestellt hat. Potentielle Lösungen sind auf diesem Weg alle herausgefallen, durch hohe Kosten oder Kapazität oder Energiedichte oder gefährliche Komponenten oder langzeitliche Stabilität oder Verstopfung von Filtern oder der Seltenheit einiger Materialien oder die Gefahr einer Explosion oder Schwierigkeiten bei der Herstellung – die Anzahl der Fallgruben ist Legion.

Folglich werde ich begeistert sein, wenn wir irgendetwas anderes außer einer Blei-Säure-Batterie in unseren Autos hätten. Weil das nämlich der Beweis wäre, dass wir den ersten Schritt gemacht hätten … aber nicht einmal das würde ausreichen. Das andere Problem ist die gewaltige Energiemenge, um die es hier geht. Hier sind einige Zahlen:

Der mittlere Leistungsverbrauch von New York City bewegt sich im Mittel über 24 Stunden 7 Tage die Woche und 365 Tage im Jahr in einer Größenordnung von 5 Gigawatt (5 x 10^9 Watt) ununterbrochen. Nehmen wir eine Stadt, die nur ein Zehntel so groß ist. Davon gibt es viele auf dem Planeten, allein in China Dutzende und Dutzende Städte dieser Größe. Dann wollen wir uns überlegen, wie viel Speicherplatz wir benötigen, um gespeicherte Energie drei Tage lang für diese Stadt zur Verfügung zu stellen. Die Zahlen sehen so aus:  

5 x 10^8 Watt dauerhaft für 72 Stunden bereitgestellt entsprechen:

3.6 x10^10 Watt-Stunden Speicher geteilt durch

3.6 x 10^3 Sekunden/Stunde ergibt

1.3 x10^14 Joule Speicherbedarf

Das bedeutet also, dass wir 130 Terajoule (130 X 10^12 Joules) Energie speichern müssen … das einzige Problem dabei ist, dass sich nur sehr wenige Menschen intuitiv vorstellen können, wie viel Energie 130 Terajoule ist, und ich gehöre definitiv nicht dazu.

Lassen Sie mich also eine andere Energie-Einheit benutzen, eine, die für mich anschaulicher ist. Diese Einheit ist die „Energiemenge der Atombombe von Hiroshima“. Die erste jemals in einem Krieg gezündete Bombe setzte die furchtbare Energie von 60 Terajoule frei, genug, um eine Stadt dem Erdboden gleichzumachen.

Und wir schauen hier darauf, zweimal so viel Energie zu speichern…

Ich bin sicher, dass die Probleme hinsichtlich Skalierbarkeit und Sicherheit und Energiedichte und Verfügbarkeit und Garantie für diese riesige Menge Energie klar zutage treten.

Darum mag ich den Beitrag des Gastautors so, und er hat recht hinsichtlich der Speicherung einer Menge für eine Stadt … es ist ein böses Problem.

Letztendlich hat Judith wie üblich einen interessanten Beitrag auf ihrem interessanten Blog gepostet. Ich schaue nicht auf sehr viele Blogs, aber ihrer hat auf meiner Liste einen Spitzenplatz inne. Mein Dank für ihren Beitrag zur laufenden Diskussion.

Willis Eschenbach

P. S. – Edisons berühmtes Statement über Autobatterien? Ihm wurde viel Geld angeboten in jenen Tagen, um eine bessere Batterie für Elektroautos zu konstruieren und zu bauen als die Blei-Säure-Batterie. Er nahm das Geld und verschwand in seinem Labor. Monat für Monat hörte man nichts von ihm. Also haben ihn die Geschäftsleute, die ihm das Geld gegeben hatten, erneut besucht. Er sagte, er habe die Batterie nicht, und im Grunde hatte er nicht einmal die Form der Batterie.

Natürlich haben sie ihn angeklagt, das Geld einfach genommen und nichts dafür getan zu haben. Nein, versicherte er ihnen, das stimmt überhaupt nicht.

Er sagte, dass er tatsächlich große Fortschritte gemacht habe, weil er jetzt mindestens fünfzig Wege kennt, wie man eine Batterie für ein Elektroauto NICHT baut…

Kurioserweise erfand Edison am Ende eine Nickel-Eisen-Peroxid-Batterie, die jedoch ein kommerzieller Fehlschlag war … also kam nicht einmal er über Blei-Säure hinaus.

Genauso kennen wir Hunderte und Aberhunderte Wege, wie man eine Batterie für eine Stadt nicht baut. Also nehme ich an, dass dies im Sinne Edisons ein Fortschritt ist, aber nach einem Jahrhundert wird die Wartezeit doch allmählich lang. Ich habe den Verdacht, dass wir das Puzzle vielleicht lösen, vielleicht mit so etwas wie einer vanadium flow battery oder was auch immer, aber … es ist ein langwieriges Puzzle.

Link: http://wattsupwiththat.com/2013/06/29/getting-energy-from-the-energy-store/

Übersetzt von Chris Frey EIKE




Wie Umweltorganisationen die Umwelt zerstören

„Aber – und das habe ich Tom und seiner Frau Kate Taylor sowie einigen anderen gegenüber erwähnt – die Politik dazu ist schwierig [tough]“, fügte Obama hinzu, jedenfalls einem Schriftstück des Weißen Hauses zufolge. „Nur weil man ein Jahrzehnt lang keinen Anstieg beobachtet hat … wenn dein Haus immer noch mit 25000, 35000 Dollar in der Kreide steht, wirst du dir vielleicht Sorgen um die Temperatur des Planeten machen, aber das wird vermutlich nicht an oberster Stelle deiner Sorgen stehen. Und wenn die Leute glauben, dass das – nun – kurzsichtig ist, dann passiert das eben, wenn man versucht zurechtzukommen“.

Ich liebe Obamas Beschreibung ökonomischer Schwierigkeiten, wenn er sie mit den Worten charakterisiert „…wenn dein Haus in der Kreide steht…“ – in meiner Umgebung ist das etwas, das wohlwollend als ein „Problem der Ersten Welt“ bekannt ist. Aber das beschreibt sehr gut die enge Beziehung zwischen dem ökonomisch Wünschenswerten und fehlendem Umweltbewusstsein, selbst unter Menschen mit viel Geld.

In diesem Beitrag werde ich die Verbindung zwischen dem CO2-Alarmismus und Umweltzerstörung behandeln und wie die Arbeit der großen Nicht-Regierungs-Umweltorganisationen (NGOs) wie Greenpeace und der WWF aktiv die Umwelt schädigen.

Beginnen möchte ich mit den beiden wichtigsten Tatsachen in der Diskussion um die globale Umwelt. Erstens, die Hälfte aller Menschen auf diesem Planeten lebt von weniger als 2 Dollar pro Tag. Darum habe ich die Verschuldung des Grundeigentums ein „Problem der Ersten Welt“ bezeichnet. Menschen, die von 2 Dollar pro Tag leben, haben keine Schulden auf Privathäusern – die meisten davon haben kein Haus oder viel mehr als ein paar Lumpen Kleidung.

Abbildung 1 [oben rechts]: Grenze zwischen Haiti und der Dominikanischen Republik. Raten Sie mal, in welchem Land die Öko-Kriminellen zu hause sind, die es sich leisten können, fossile Treibstoffe zu verbrauchen, und in welchem Land die Naturliebhaber wohnen, die von natürlicher, erneuerbarer organischer Biomasse zur Energieerzeugung abhängig sind…

Zweitens: nur entwickelte Länder haben jemals ihre Umwelt in Ordnung gebracht. Nur wenn die Bewohner eines Landes angemessen ernährt und gekleidet und geschützt vor den Unbilden des Wetters sind, können sie es sich leisten, sich über die Umwelt Gedanken zu machen. Und weit davon entfernt, die Umwelt in Ordnung zu bringen, wie es sich wohlhabende Länder leisten können, wirken die Menschen in armen Ländern sehr zerstörerisch auf die Umwelt. Menschen in armen Ländern werden jeden Baum verbrennen, wenn das notwendig ist, und das würden Sie auch, wenn Ihre Kinder schreien. Sie werden jeden Affen essen und am Ende auch die Schimpansen verspeisen, und das würden Sie auch, wenn Ihre Familie am Verhungern wäre. Sie werden die Notwendigkeit beklagen, sie mögen es genauso wenig wie Sie oder ich … aber sie werden es tun. Im Bild oben rechts sieht man die Grenze zwischen Haiti und der Dominikanischen Republik:

Angesichts der Tatsache, dass Armut die größte Bedrohung der globalen Umwelt ist, lautet die unvermeidliche Schlussfolgerung, dass der einzige Weg, der globalen Umwelt eine Chance zu geben, darin besteht, dass sich arme Länder wirtschaftlich entwickeln können.

Und genau deswegen ist die Anti-Entwicklungs-Haltung und Pro-teure-Energie-Politik der großen Umwelt-NGOs eine der großen Umwelttragödien unserer Zeit.

Die Kausalkette sieht so aus:

1. Die Klimaalarmisten haben mit starker Unterstützung großer Umwelt-NGOs wie Greenpeace und WWF dem CO2 den Krieg erklärt.

2. Die von ihnen gewählte Methode zur Bekämpfung des CO2 war es, den Verbrauch fossiler Treibstoffe unattraktiv zu machen, indem Energie immer teurer gemacht wurde, und zwar mittels einer Kombination von Steuererhöhungen, Gesetzgebungen, internationalem Druck und teuren Subventionen, um dieses Ziel zu erreichen. Der gerade von Obama verkündete Krieg gegen die Kohle ist nur eines von hunderten anderer Beispiele der wohlhabenden NGOs und der reichen Regierungen, die daran arbeiten, Energie immer weiter zu verteuern.

3. Da Energie gleich Entwicklung ist, hält teure Energie die armen Länder in Armut. Wenn die Weltbank Anleihen für Kohlekraftwerke in Indien ablehnt, leiden die Armen … aber die Umwelt leidet noch mehr. Solange sie es sich nicht leisten können, Kohle und Gas zu verbrauchen, werden sie das Land vom Holz befreien … ich verweise zurück auf die Abbildung oben, wie gut das der Natur tut.

4. Teure Energie verzögert die ökonomische Entwicklung eines Landes, und wie Präsident Obama gesagt hat: Menschen, die sich um ihr Auskommen sorgen, achten nicht auf ihre Umwelt.

Dies führt am Ende zu einer bizarren Lage – die Aktionen der großen Umwelt-NGOs stellen die fortgesetzte Umweltzerstörung in den Entwicklungsländern sicher.

Ich habe die Lektion über den Zusammenhang zwischen Armut und Umweltzerstörung teilweise durch traurige Erfahrungen gelernt. Ich habe meine Unterhaltung mit dem mittellosen Verkäufer von Feuerholz in Costa Rica und seine Art, in Nationalen Wäldern sein Feuerholz zu holen, in meinem Beitrag über den Papageifisch diskutiert. Hier folgt die Story einer längeren und traurigeren Wechselwirkung zwischen Armut und der Umwelt.

Heute lebe ich umgeben von Wäldern, genau wie auch als Kind. Ich habe daraus Kraft gezogen. Mein Stiefvater war Holzfäller, ebenso wie dessen Vater, und ich habe in den Wäldern mitgeholfen [I’ve worked in the woods setting choker]. Ich habe gutes Holz fällen, schlechtes Holzfällen und glatt kriminelles Holzfällen gesehen, und ich war immer leidenschaftlich, wenn es um den Schutz der Wälder ging und um ethische Praktiken des Holz Fällens. Hier sieht man eine Ansicht des Redwood-Waldes aus meinem Fenster, und es regnet immer noch…

Ende der achtziger Jahre war ich ein paar Jahre lang Direktor eines Programms zur Entwicklung der Umwelt auf den Solomon Inseln, so etwas Ähnliches wie „Save the Children“, aber in einem allgemeineren Rahmen. Unter den Projekten unter meiner Leitung war das „Walkabout Sawmill“-Programm. Das war ein voller Erfolg. Anstatt Geld zur Begrenzung von Katastrophenschäden nach einem Zyklon zu verteilen, haben wir ein paar tragbare Sägemühlen von nebenan, also in Papua-Neuguinea gekauft. Wir haben einige Teams geschult, die Sägemühlen zu betreiben, die wir anschließend auf die Dörfer geschickt haben, um die Bäume zu zerlegen, die im Zyklon umgeweht worden waren. Die Dorfbewohner bekamen Holz, unsere Teams lernten den Gebrauch der Sägemühlen. Als das Projekt zu Ende gegangen war, haben wir die Sägemühlen auf Kredit an die Teams verkauft, so dass sie damit in ihren eigenen Heimatländern arbeiten konnten.

Warum war ich froh, ihnen beim Fällen im Wald helfen zu können? Weil ich wusste, dass es der einzigen anderen Option bei Weitem vorzuziehen war, die darin bestand, asiatische Holzfäller-Unternehmen ins Land zu lassen und riesige Landgebiete komplett abzuholzen. Wegen ihrer Armut haben die Bewohner der Solomon-Inseln ihr Erbe verkauft, ihre unglaublich wertvollen tropischen Harthölzer, für ein paar lumpige Pennys.

Und wie hat ihre Armut dazu geführt, dass sie ihren Wald verloren haben? Ich kann diese Frage beantworten.

Wenn ein Land arm ist, kann man alles kaufen.

Viele Jahre lang habe ich Ende der achtziger Jahre auf einem Korallenatoll in der Nähe einer großen Vulkaninsel gewohnt, die die höchst euphemistische Bezeichnung „Vella Lavella“ trug. Das Atoll befand sich in der Westprovinz der Solomon-Inseln. Zu jener Zeit wuchsen auf den Solomonen ausgedehnte tropische Wälder voller wertvoller tropischer Harthölzer. Holzfäller-Unternehmen kamen aus Übersee, zahlten den Bewohnern ein paar Pennys für ihre Stämme, bezahlten die Zollinspektoren und verschifften Ladung für Ladung des Schatzes und des Erbes der Inseln, ihre tropischen Bäume. Also machte es mich glücklich, dass es mir möglich war, den Menschen dort eine Alternative anbieten zu können, nämlich ihre eigenen Wälder zu bewirtschaften und zu erhalten.

Zu jener Zeit unternahm ein malaysisches Unternehmen Schritte, um die Rechte für das Abholzen der Insel Vella Lavella zu bekommen. Einige Leute sagten nein, aber es gab auch Befürworter. Es gibt eine Art lokalen Inselrat, mit etwa fünf „großen Männern“, lokale Führer, die alle Entscheidungen treffen. Die Leute waren leidenschaftlich, wenn es um das Fällen ging, wie man sich vorstellen kann. Der Inselrat trat zusammen, und das Unternehmen hielt seine Präsentation ab. Die großen Männer haben, das sei zu ihrer Ehrenrettung vermerkt, den Antrag abgelehnt.

Also zückte das Unternehmen seine Brieftaschen und kaufte sie gleich vor Ort. Nachdem die Leute gegangen waren, erklärten sie den Rat für immer noch in der Sitzung befindlich, und jetzt stimmten sie der Gewährung der Rechte für das Unternehmen zu. Das einzige Problem dabei war, dass das Ergebnis des ersten Treffens bereits offiziell verkündet worden war.

Natürlich geschah das auf den Solomonen, und die Männer vor Ort waren gänzlich unerfahren in der Kunst des Verbrechens. Sie griffen einfach zu ein wenig Deckweiß und weißten die Passage „keine Fällung“ aus. Dann überschrieben sie mit dieser überarbeiteten Version die ursprüngliche Version.

Als ich das gehört habe, war ich sowohl amüsiert als auch sehr zornig. Also sind einige von uns beim Public Solicitor [so etwas wie ein öffentlicher Anwalt] vorstellig geworden, damit dieser den Fall übernehme. Er war darüber zunächst enthusiastisch – bevor er erkrankte. Am Ende steckte er sich mit der Krankheit an, die viele weiße Kerle in den Tropen befällt; sie kommt in einer Flasche und macht, dass man sich elend fühlt, aber das geschah, bevor er krank geworden ist. Also hat er den Fall auf brillante Art gelöst und dafür gesorgt, dass die Entscheidung nichtig war. Wir haben alle gejubelt und das Gefühl gehabt, dass wir gewonnen hatten.

Als die Entscheidung des Gerichts verkündet worden ist, hat das Holzfäller-Unternehmen das Offensichtliche getan – dieses Mal betrogen sie nach allen Regeln der Kunst. Sie bezahlten die Inselräte, aber diesmal taten sie das vor dem nächsten Treffen. Damit bestand keine Notwendigkeit, die offizielle Verlautbarung zu ändern … ich war schwer geschockt, genau wie meine Freunde vor Ort.

Also gab dieser billige Handel der Inselräte – ich habe gehört, es waren großartige zehn Dollar pro Mann – dem Unternehmen das Recht, mit den Bewohnern von Vella Lavella einen Vertrag auszuhandeln, falls sie den unterschreiben wollten. Eines Nachmittags ließ sich ein junger Bewohner von Vella Lavella auf die Insel übersetzen, auf der ich wohnte, und fragte mich um Hilfe. Ich kaufte drei Biere, und wir unterhielten uns über das Holzfäller-Unternehmen. Er sagte, dass seine Leute agitiert haben, um die Menschen davon zu überzeugen, das Unternehmen außen vor zu lassen und sich selbst um ihre Wälder zu kümmern. Aber das Gefühl der Leute stand gegen sie. Sie wollten das leichte Geld, sich einfach zurücklehnen und das Unternehmen die Arbeit machen lassen.

Also haben sie mich gefragt, ob ich mir den Vertrag mal ansehen und ihnen erklären könnte, was das Unternehmen da von ihnen zu unterschreiben verlangte. Ich sagte, natürlich, und sie übergaben mir eine Kopie des verfluchten Dokuments.

Ich sage Ihnen, ich habe schon so manch einen durchtriebenen und listigen Weg gesehen zu betrügen und jemanden mit einem Füller und einem Blatt Papier zu ködern, aber dieses hier war wie reiner Schwefel. Weiß war darin schwarz, und schwarz war weiß. Skandalöse Dinge waren vorgeschlagen und den Bewohnern als Vorteile weisgemacht worden.

Und die Regeln selbst zum Fällen in dem Vertrag waren bodenlos. Ein 100 Meter breiter Streifen unversehrter Wälder um die Flüsse und Wasserwege wird als Minimum angesehen, um die Gewässer vor der Sedimentation zu bewahren. Das Unternehmen schlug einen 10 Meter breiten Streifen vor und behauptete, dies sei Ausdruck ihrer Sorge um die Umwelt. Auch gab es keinerlei Begrenzung der Menge, die sie fällen durften. Normalerweise schützt man auf steilen Hängen die Bäume, weil Erosion und Erdrutsche so schädlich sind … hier gab es überhaupt keinen Schutz.

Dann gab es da Strafen für Fällungen außerhalb des festgelegten Gebietes … zehn US-Dollar pro Baum. Zu jener Zeit waren die Harthölzer der Solomonen nach der Verarbeitung und Trocknung etwa 1400 US-Dollar pro Festmeter wert, und einige Bäume maßen drei oder mehr Festmeter. Dies bedeutete: wenn die Holzfäller eines wertvollen Baumes ansichtig wurden, der sich nicht auf dem zugelassenen Gebiet befand, konnten sie ihn fällen, den Bewohnern 10 Dollar dafür zahlen und ihn für fünftausend Dollar verkaufen…

Aber das ist längst noch nicht alles. Es gab da nämlich noch das kleine Problem des Preises. Von ihm sagte das Unternehmen, dass es der beste Teil des Vertrages sei. Anderswo auf den Solomonen erhielten die Menschen lediglich drei Dollar pro Festmeter, aber dieses Unternehmen bot aus reiner Menschenliebe nicht weniger als 10 Dollar pro Festmeter an…

Dann waren da noch die Transportwege. Ein gewaltiger Vorteil einer ordentlich durchgeführten Fällaktion ist es, wenn die Menschen am Ende Straßen bekommen, die die Küstendörfer mit dem Landesinneren verbinden.

Das kann aber auch ein großer Fluch sein, denn wenn die Straßen nicht ordentlich entworfen und gebaut sind, werden sie durch die tropischen Regengüsse weggespült. Zurück bleiben offene Schneisen, die Jahre brauchen, um sich wieder zu erholen.

Nun, in diesem Dokument wurde auf all das hingewiesen. Es ging darin um die mannigfaltige Qualität von Straßen, von den Waldwegen im Inneren bis zu den befestigten Straßen entlang der Küste. Es gab seitenlange Spezifikationen der Straßen und liebliche Schwarzweiß-Bilder von asphaltierten Autobahnen zu den tropischen Stränden – mit nur einem kleinen Problem.

Das Dokument beschrieb die Straßen und die Örtlichkeiten ihres Baus und wie gut diese doch wären … aber nirgends in dem gesamten Dokument fand sich tatsächlich das Versprechen, auch nur einen einzigen Meter Straße zu bauen, befestigt oder nicht. Es war alles nur Schall und Rauch; sie haben nichts versprochen.

Also arbeitete ich mich durch das gesamte Dokument und markierte die relevanten Punkte. Dann traf ich mich wieder mit den jungen Leuten, und wir durchforsteten das Ganze gemeinsam, Klausel für Klausel. Ich habe etwa zwei Drittel der Klauseln umgeschrieben; ich habe mit meinem Freund, dem Public Solicitor zusammen gearbeitet, und wir haben ein Dokument erstellt, das wirklich für die Bewohner ein guter Handel sein würde. Die Holzfäller würden immer noch auf ihre Kosten kommen, aber wie Geschäftsleute und nicht wie Straßenräuber.

Es war eine lange Sitzung, die Männer hatten sehr viele Fragen, und wir besprachen jede Klausel einzeln, damit auch jeder verstand, warum ich diese Änderungen vorgenommen hatte und was die Änderungen für sie bedeuten würden. Nach vorhergehenden Diskussionen mit einigen der Männer haben wir auch einen Abschnitt eingefügt, dem zufolge ein Trust eingesetzt werden sollte, der den Großteil des Geldes verwalten sollte, damit nicht alles für Bier und Freizeit ausgegeben und in sechs Monaten verschwunden sein würde. Sie waren sehr einverstanden damit, hatten sie doch früher schon das Geld davon rinnen sehen.

Dann waren sie bereit, sich mit den Repräsentanten des Unternehmens zu treffen. Sie fragten mich, ob ich mit ihnen zu dem Treffen gehen würde. Ich sagte, dass das nicht gehen würde … ein anderer, mir bekannter Ausgebürgerter war mit den Holzfällern einige Monate zuvor aneinandergeraten, und innerhalb einer Woche wurde seine Arbeitserlaubnis einkassiert, und er musste das Land verlassen. Ich konnte nicht riskieren, meine Arbeitserlaubnis zu verlieren, also sagte ich, dass sie das gut auch alleine könnten, schließlich hatten sie verstanden, worum es ging.

Sie fragten, ob sie in einem der Gästehäuser tagen könnten, die ich auf der Insel angemietet habe. Ich sagte, natürlich, kein Problem. Sie konnten das Treffen dort abhalten und die Nacht verbringen und am nächsten Tag nach Vella zurückfahren.

Dann kam die große Nacht des Treffens. Alle kamen, Holzfäller und Inselbewohner. Ich spielte den Gastgeber und ließ sie mit der Diskussion über das Schicksal des Waldes allein.

Und am nächsten Morgen? Alle kamen sie heraus, die Gesichter vor Scham verzogen. Ich sah es mit einem Blick, und mein Herz sank. Ich fragte einen der Alten, einen der Großen, was geschehen war. „Oh, die Männer des Holzfäller-Unternehmens waren sehr nett! Können Sie sich vorstellen, sie schenkten uns eine ganze Kiste voller Black Label Whiskey. Sie erklärten den Vertrag, und es klang wunderbar, also haben wir ihn unterschrieben…“ Oh Mann, mein Blut geriet mächtig in Wallung, und ich lief große Gefahr auszurasten … aber ich kannte den alten Mann, er war kein schlechter Mann, aber ein schwacher. Also biss ich mir auf die Zunge und schüttelte mit dem Kopf und sagte, dass seine Söhne vielleicht noch einen Vorteil davon hätten, aber dass seine Enkel sich fragen würden, warum sie ihr Geburtsrecht für ein paar lumpige Pennys verkauft haben … dann wandte ich mich an die jungen Leute. Sie sagten, dass sie es nicht verhindern konnten. Als die großen Männer einmal betrunken waren, wurden sie streitlustig, hörten auf niemanden mehr und hätten alles unterschrieben.

Zuerst war ich wütend über das Holzfäller-Unternehmen, dass es so schändlich und hinterhältig war, die Bewohner dazu zu bringen, betrunken zu unterschreiben.

Dann dachte ich: “Moment …”. Diese Männer waren keine Indianer, die noch nie in ihrem Leben Feuerwasser probiert hatten. Sie waren alle auch früher schon mal betrunken, möglicherweise sogar in der gleichen Woche. Sie wussten ganz genau, was das für ihre Urteilsfähigkeit bedeutete. Also war ich dann über sie verärgert.

Dann aber dachte ich, nein, sie waren lediglich schwach und eingeschüchtert durch fehlende Bildung und Erfahrung und Geld. Das Unternehmen hatte gebildete, gepflegte und freundliche Leute geschickt, teuer gekleidet und geschmückt mit Gold, großen Ringen und Ketten. Die Großen Männer waren alle gleich gekleidet – kurze Hosen und T-Shirts, bündelweise importiert aus Australien. Mir wurde klar: anstatt mit ihrer vorhersehbaren Unfähigkeit in Konflikt zu geraten, mit den Holzfällern zu verhandeln, haben sie den einfachen Weg gewählt und sich betrunken.

Dann ärgerte ich mich über die jungen Leute, weil sie nicht mehr Widerstand gezeigt hatten … das dauerte lange genug, um sich klarzumachen, dass man unter den unverbrüchlichen Stammesgewohnheiten von ihnen erwartete und sie zwang, ihren Alten zu gehorchen, genauso wie sie es von ihren Jungen verlangen würden, wenn sie wirklich alt geworden sind … sagen wir mal fünfzig Jahre … das Leben ist kurz hier.

Es dauerte eine Weile, aber dann kam ich letztendlich doch zu der Schlussfolgerung, dass diese Menschen immer Gefahr laufen würden, Opfer dieser Art von habgierigen und amoralischen Männergruppen zu werden, die schon immer unter uns waren – solange sie nicht angemessen ernährt und gekleidet sind oder über bequemen Wohnraum verfügten…

Und am Ende des Tages war mir klar geworden, dass ich ein Narr gewesen war. Oh, ich würde diesen Kampf immer wieder kämpfen, aber ich würde immer wieder verlieren. Es ist das, was passiert, wenn das große Geld auf ein armes Land trifft – die Umwelt wird zerstört, egal ob es um Holzfällen, angeln oder Bergbau geht. Solange ein Land nicht wohlhabend genug ist, seine Bewohner zu ernähren und sich selbst zu schützen, werden dessen Ressourcen immer meistbietend zu verkaufen sein … dabei meine ich  mit den Meistbietenden diejenigen mit der geringsten Moral.

Nun habe ich diese ganze Geschichte aus einem bestimmten Grund erzählt, nämlich um zu erhärten, welchen Schaden Armut an der Umwelt anrichtet. Wenn man einen Inselrat für zehn Dollar pro Mann kaufen kann und buchstäblich Millionen Dollar auf dem Spiel stehen, wird dieser Rat sich kaufen lassen, egal wie sehr ich dagegen ankämpfen würde. Das Bruttosozialprodukt auf den Solomonen beträgt pro Jahr etwa 600 Dollar; das Land wird als „LDC“ gelistet, also als Least Developed Country … und in einem Land, in dem zwanzigtausend Dollar das Gehalt von fast zwanzig Jahren ist, kann man viele Menschen für zehn Große kaufen…

Das ist einer der Hauptgründe, warum ich viel Zeit damit verbracht habe, in Übersee zu arbeiten in dem Versuch, die globale Armut abzumildern. Zuerst mache ich das für die Menschen, gleich danach aber für die Umwelt.

Und darum fühle ich mich so persönlich betrogen durch den gegenwärtigen geistlosen Anschub zu teurer Energie, ein Anschub durch genau jene Organisationen, die ich früher auch mal unterstützt habe, weil sie damals vermeintlich für die Umwelt eingetreten waren, nicht dagegen. Die Erhöhung der Energiepreise ist die regressivste Besteuerung, die ich kenne. Je ärmer man ist, umso härter wird man durch steigende Energiepreise betroffen, und je mehr die Armen leiden, umso mehr trägt die Umwelt den Schaden davon.

Hier also habe ich angesetzt zu erklären, warum Menschen, die CO2 bekämpfen, die Umwelt schädigen. Ich möchte die Glieder der Kette noch einmal wiederholen:

1. Teilweise angeführt von den NGOs haben viele Menschen und Regierungen dem CO2 den Krieg erklärt.

2. Ihre bevorzugte Methode der Kriegführung ist die Erhöhung der Energiepreise, und zwar durch Subventionen, Steuern, Verbote, Gesetze zur Nutzung von Erneuerbaren, die Ablehnung von Pipeline-Projekten und so weiter.

3. Der Anstieg der Energiepreise verarmt die Ärmsten noch weiter und verhindert die Entwicklung armer Länder.

4. Wie Obama gesagt hat, selbst wohlhabende Menschen mit ökonomischen Sorgen tendieren dazu, die Umwelt zu ignorieren … also ist das Herumtrampeln auf den Entwicklungsmöglichkeiten armer Länder durch das Anheben der Energiepreise eine Garantie für Jahre lange Umweltzerstörung.

Ich sage, dass die Geschichte nicht freundlich auf diese Menschen und Organisationen schauen wird, die gegenwärtig die Armen weiter verarmen und die Umwelt schädigen in einem aussichtslosen und nutzlosen Kampf gegen CO2, selbst wenn die Täter wohlhabend sind und es ihnen an Melanin mangelt, und wenn sie angeblich nur mit besten Absichten handeln…

Meine Grüße an alle von Ihnen – und führen Sie den guten Kampf fort!

Willis Eschenbach

AKTUALISIERUNG: Für all jene, die ein wenig mehr Informationen über die Verbindungen zwischen Armut und Umwelt haben möchten, die zum Foto in der Abbildung oben rechts geführt haben: Im Jahr 1960 hatten Haiti und die Dominikanische Republik (DR) etwa ein gleich hohes Bruttoinlandsprodukt (GDP). Die klimatischen und physikalischen Bedingungen waren ebenfalls gleich, teilten sich beide Länder doch die gleiche Insel.

Bis zum Jahr 2012 jedoch ist das GDP in der DR auf etwa 9600 Dollar pro Jahr gestiegen, während es in Haiti auf etwa 1200 Dollar gesunken ist, also niedriger lag als im Jahr 1960. Und als Folge dessen, dass die Haitianer fast überhaupt kein Geld haben und nur ein Achtel des GDP der DR, haben sowohl die Menschen als auch die Umwelt in Haiti schwer gelitten.

Nur so zum Vergleich: In Norwegen beträgt das Bruttosozialprodukt etwa 60000 Dollar und in den USA etwa 49000 Dollar. Am anderen Ende der Skala stehen die Solomon-Inseln, von der UN klassifiziert als eines der „Least Developed Countries“. Dort beträgt das Bruttosozialprodukt etwa das Doppelte wie in Haiti (und ein Viertel desjenigen in der DR), also etwa 2500 Dollar.

Willis Eschenbach

2. AKTUALISIERUNG von Anthony Watts: Ich wollte eine unabhängige Bestätigung des Photos in der Abbildung oben rechts einholen, weil auf dem Photo vielleicht nur ein kleiner, nicht repräsentativer Ausschnitt abgebildet sein könnte. Also habe ich das mittels Google Earth mal untersucht. Zwar sieht es nicht an der gesamten Grenze zwischen Haiti und der Dominikanischen Republik so aus wie in der Abbildung oben, doch gibt es weite Gebiete im nördlichen Teil, die dieses Phänomen zeigen, zum Beispiel:

Anthony Watts

Link: http://wattsupwiththat.com/2013/06/25/how-environmental-organizations-are-destroying-the-environment/

Übersetzt von Chris Frey EIKE




Klimasensitivität zerlegt

Bild rechts (Abbildung 1): Was passiert, wenn ich  mir den Kopf zu sehr hinsichtlich der Klimamodelle zerbreche

Vor drei Jahren machte eine für mich sehr überraschende Entdeckung. Sie wurde inspiriert durch das ultra-simple Klimamodell von Lucia Liljegren, das sie „Stückwerk“ nannte, und mit der unentbehrlichen Assistenz der mathematischen Fähigkeiten der Kommentatoren Paul K. und Joe Born. Das GISSE-Klimamodell konnte genau nachgebildet werden durch eine One-Line-Gleichung. Mit anderen Worten, die Rechenergebnisse des GISSE-Modells bzgl. der globalen Temperatur werden fast exakt durch eine lineare Transformation des Inputs in die Modelle (die „Antriebe“ in der Klimasprechweise, von Sonne, Vulkanen, CO2 und so weiter) beschrieben. Die Korrelation zwischen den aktuellen GISSE-Modellergebnissen und meiner Nachbildung dieser Ergebnisse beträgt 0,98… viel besser als das ging es nicht. Nun kann man es aber tatsächlich noch besser machen, fand ich doch heraus, dass man eine Korrelation von 99+% erreicht, wenn man berücksichtigt, dass sie irgendwie den Antrieb durch Vulkane vermindert haben. Wie auch immer, es war ein überraschendes Ergebnis für mich. Ich hätte nie gedacht, dass das Ergebnis der unglaublich komplexen Klimamodelle so sklavisch den Eingaben folgt.

Seitdem hat Isaac Held das Ergebnis unter Verwendung eines dritten Modells nachgestellt, dem CM2.1-Klimamodell. Ich habe die Antriebe und Daten dieses Modells erhalten und seine Ergebnisse reproduziert. Der gleichen Analyse wurde das GDFL-Modell unterzogen, mit dem gleichen Ergebnis. Und ich habe die gleiche Analyse mit den Forster-Daten durchgeführt, welche aus einem Mittel von 19 Antrieben und Temperatur-Outputs bestehen. Das ergibt vier individuelle Modelle plus dem Mittel aus 19 Klimamodellen, und alle Ergebnisse waren immer gleich. Daher ist die überraschende Schlussfolgerung unausweichlich: Die Ergebnisse der globalen, von den Klimamodellen berechneten Mitteltemperatur können mit einem Vertrauensintervall von 99% reproduziert werden, egal ob individuell oder in der Masse.

Allerdings war das Ergebnis meiner jüngsten Analyse der Klimamodelle vom Typ „Black Box“ für mich sogar noch überraschender und auch weitreichender.

Folgendes war geschehen: Ich habe eine Kalkulations-Tabelle erstellt, um es einfach zu machen, die verschiedenen Antriebe und die Temperatur-Datensätze zu vergleichen und ihre Eigenschaften zu berechnen. Mit dem „Solver“-Tool habe ich schrittweise die Werte von Tau (die Zeitkonstante) und Lambda (die Sensitivitäts-Konstante) ausgewählt, um die beste Anpassung an das vorhergesagte Ergebnis zu bekommen. Nach dem Blick auf einige der Ergebnisse mit breit variierenden Sensitivitäten, fragte ich mich, was in den beiden Datensätzen es war (Modellantriebe und vom Modell vorhergesagte Temperaturen), dass die resultierende Sensitivität bestimmte. Ich fragte mich, ob es irgendeine einfache Beziehung zwischen der Klimasensitivität und den grundlegenden statistischen Eigenschaften gab (Trends, Standardabweichungen, Bandbreiten und so weiter). Ich sah auf die fünf Antriebs-Datensätze, die mir zur Verfügung standen (GISSE, CCSM3, CM2.1, Forster und Otto) zusammen mit den damit verbundenen Temperatur-Ergebnissen. Zu meiner totalen Überraschung betrug die Korrelation zwischen dem Trendverhältnis (Temperaturtrend im Datensatz dividiert durch den Antriebstrend im Datensatz) und der Klimasensitivität (Lambda) 1,00. Mir sackte der Unterkiefer ab. Pefekte Korrelation?  Gibt es so etwas überhaupt? Ich habe die Punktwolke geplottet.

Abbildung 2: Punktwolke, die die Beziehung zwischen Lambda und dem Verhältnis des Output-Trends zum Input-Trend zeigt. Forster ist das Mittel des Forster 19-Modells. Otto sind die Forster-Input-Daten, modifiziert von Otto einschließlich der Hinzufügung eines Trends von 0,3 W/m² über die zeitliche Länge des Datensatzes. Weil in dieser Analyse nur Strahlungsantriebe und keine Ozeanantriebe verwendet werden, ist Lambda die vorübergehende Reaktion des Klimas (transient climate response TCR). Fügt man den Daten die Ozean-Antriebe hinzu, wäre Lambda die Gleichgewichts-Klimasensitivität. Lambda ist dargestellt in Grad pro W/m² Antrieb. Um das in Grad pro Verdoppelung des CO2-Gehaltes zu konvertieren, muss man Lambda mit 3,7 multiplizieren.

Und siehe da, diese Art Korrelation sieht man nicht sehr oft, R² = 1,00 bis auf zwei Stellen nach dem Komma … das spricht für mich.

Lassen Sie mich den Vorbehalt wiederholen, dass wir hier nicht über reale Temperaturen reden. Dies ist ein weiterer „Schwarzkörper“-Vergleich der Modell-Inputs (vermutlich eine Art reale-Welt-„Antrieb“ von der Sonne und Vulkanen und Aerosole und Ruß und alles andere) und der Modellergebnisse. Ich versuche zu verstehen, was die Modelle machen, und nicht, wie sie es machen.

Nun standen mir nicht die von den Modellen verwendeten Daten des Ozean-Antriebs zur Verfügung. Aber ich habe die Levitus-Daten des ozeanischen Wärmegehaltes seit 1950, so wenig diese auch als Ersatz taugen. Also habe ich diese jedem Antriebs-Datensatz hinzugefügt, um neue Datensätze zu erstellen, die auch die Ozeandaten enthalten. Wie man sich vorstellen kann, wenn einiges der jüngsten Antriebe in den Ozean geht, fällt der Trend im Antriebs-Datensatz ab … und wie man erwarten würde, nimmt das Trendverhältnis (und folglich die Klimasensitivität) zu. Dieser Effekt ist dort am ausgeprägtesten, wo der Antriebs-Datensatz einen kleineren Trend aufweist (CM2.1) und weniger deutlich am anderen Ende der Skala (CCSM3). Abbildung 3 zeigt die gleichen fünf Datensätze wie Abbildung 2 plus den gleichen fünf Datensätzen mit den hinzu gefügten Ozean-Antrieben. Man beachte, dass Lambda die Gleichgewichts-Klimasensitivität ist, wenn der Antriebs-Datensatz den Wärmetransport in den und aus dem Ozean enthält. Wenn der Datensatz den Strahlungsantrieb allein enthält, ist Lambda die vorübergehende Klimareaktion. Also sind die blauen Punkte in Abbildung 3 ECS und die roten Punkte TCR. Die mittlere Änderung (ECS/TCR) beträgt 1,25, was zu der Schätzung von ~ 1,3 in der Otto-Studie passt.

 

Abbildung 3: Die roten Punkte zeigen die Modelle wie in Abbildung 2. Blaue Punkte zeigen die gleichen Punkte, jedoch verstärkt mit den Levitus-Daten des ozeanischen Wärmegehaltes in jedem Antriebs-Datensatz. Die sich ergebenden Sensitivitäten sind höher für die Gleichgewichts-Bedingung als für die kurzlebige Bedingung, was zu erwarten war. Blaue Punkte zeigen die Gleichgewichts-Klimasensitivität ECS, während die roten Punkte (wie in Abbildung 2) die korrespondierende kurzlebige Klima-Reaktion TCR zeigen.

Schließlich habe ich die fünf unterschiedlichen Antriebs-Datensätze durchlaufen lassen, mit und ohne Ozean-Antrieb, und mit drei aktuellen Temperatur-Datensätzen verglichen – HadCRUT4, BEST und GISS LOTI. Ich habe Daten aus allen diesen genommen, und die Ergebnisse der Analyse dieser 29 Modellläufe sehen so aus:

 

Abbildung 4: Große rote und blaue Punkte wie in Abbildung 3. Die hellblauen Punkte sind das Ergebnis der Berechnung der Antriebe und die Teilmengen der Antriebe, mit und ohne Ozean-Antrieb sowie mit und ohne Vulkan-Antrieb, im Vergleich mit aktuellen Datensätzen. Der gezeigte Fehler beträgt 1 Sigma.

Also lautet mein neues Ergebnis: Die Klimasensitivität der Modelle, sowohl individuell als auch im Mittel, ist gleich dem Verhältnis der Trends des Antriebs und der resultierenden Temperaturen. Dabei spielt es keine Rolle, ob Änderungen des ozeanischen Wärmegehaltes in die Berechnung mit einbezogen werden. Es gilt sowohl für den Vergleich Antriebe <-> Modell-Temperaturergebnisse als auch für Antriebe <-> aktuelle Temperatur-Datensätze. Es gilt auch für Teilmengen des Antriebs wie z. B. Vulkane allein, oder auch für Treibhausgase.

Und diese Beziehung habe ich nicht nur experimentell gefunden durch Betrachten der Ergebnisse der einzeiligen Gleichung für Modelle und Modellergebnisse. Dann fand ich heraus, dass man diese Beziehung mathematisch aus der One-Line-Gleichung ableiten kann (siehe Anhang D mit Details).

Das ist eine klare Bestätigung einer Beobachtung, die zum ersten Mal im Jahr 2007 von Kiehl gemacht worden ist, als er eine umgekehrte Beziehung zwischen Antrieb und Sensitivität vermutete.

Die Frage lautet: Wenn sich die Klimamodelle um einen Faktor 2 bis 3 hinsichtlich der Klimasensitivität unterscheiden, wie können sie allesamt den globalen Temperaturverlauf mit hinreichender Genauigkeit simulieren? Kerr (2007) und S. E. Schwartz et al. (Quantifizierung der Klimaänderung – ein zu rosiges Bild? hier) wiesen kürzlich darauf hin, wie wichtig es ist, die Antwort auf diese Frage zu verstehen. Tatsächlich hat sich Kerr (2007) auf die gegenwärtige Arbeit bezogen, und die jetzige Studie zeigt die „weithin zirkulierende Analyse“, auf die sich Kerr (2007) bezieht. Dieser Bericht untersucht die wahrscheinlichste Erklärung für ein solches Übereinkommen. Sie verwendet veröffentlichte Ergebnisse von einer Vielzahl von Modellsimulationen, um dieses offensichtliche Paradoxon zwischen Klimareaktionen des 20. Jahrhunderts im Modell und verschiedenen Klimamodell-Sensitivitäten zu verstehen.

Allerdings hat Kiehl die Variationen der Sensitivität einem Unterschied im Gesamtantrieb zugeschrieben und nicht einer Trendbeziehung, und als Ergebnis ist seine Graphik der Ergebnisse viel mehr verstreut.

 

Abbildung 5: Kiehl-Ergebnisse, Vergleich der Klimasensitivität ECS mit dem Gesamtantrieb. Man beachte, dass meine Ergebnisse anders als bei Kiehl sowohl die Gleichgewichts-Klimasensitivität (ECS) als auch die kurzlebige Klimareaktion (TCR) abdecken.

Wie auch immer, es gibt noch viel mehr, das ich zu diesem Ergebnis schreiben könnte, aber ich muss mir das jetzt einfach aus dem Kopf schlagen und zur Tagesordnung übergehen. Einen abschließenden Kommentar habe ich noch:

Seit ich mit dieser Untersuchung begonnen habe, hat Kommentator Paul K zwei herausragende Beiträge hierzu auf dem ausgezeichneten Blog von Lucia, The Blackboard (Part 1, Part 2) geschrieben. In diesen Beiträgen beweist er mathematisch, dass mit dem, was wir über die die Modelle reproduzierende Gleichung wissen, nicht… aber lassen wir ihn selbst zu Wort kommen:

Die Frage: Kann man oder kann man nicht die Gleichgewichts-Klimasensitivität (ECS) aus 120 Jahren Temperaturaufzeichnung und OHC-Daten abschätzen, (selbst) wenn man die Antriebe kennt?

Die Antwort lautet: Nein! Man kann nicht! Nicht, solange man nicht andere Informationen verwendet, um die Schätzung zu belegen.

Eine wichtige Folgerung daraus lautet: Die Tatsache, dass ein Klimamodell Temperatur- und Wärmedaten zueinander passend machen kann, sagt uns nichts über die Gültigkeit der Schätzung der Gleichgewichts-Klimasensitivität dieses Klimamodells.

Man beachte, dass dies nicht eine Einzelmeinung von Paul K ist. Es ist ein mathematisches Ergebnis der Tatsache, dass selbst wenn wir ein komplexeres „Zwei Kisten“-Modell benutzen, wir die Sensitivitäts-Schätzungen nicht belegen können. Dies ist eine erstaunliche und weitgehend unbeachtete Schlussfolgerung. Das essentielle Problem besteht darin, dass wir für irgendein gegebenes Klimamodell mehr Unbekannte haben als grundlegende Gleichungen, diese zu belegen.

Schlussfolgerungen

Nun, aus meinen früheren Arbeiten war hervorgegangen, dass die Modelle sowohl für die „Nachher“- als auch für die Vorhersage des Klimas nutzlos sind. Ihre Funktion ist von einer einfachen One-Line-Gleichung ununterscheidbar.

Und nun hat uns Paul K gesagt, dass sie uns nichts über die Sensitivität sagen können, weil die Gleichung selbst nur unzureichend belegt ist.

Schließlich habe ich in dieser Arbeit gezeigt, dass die Klimasensitivität „Lambda“, die die Modelle zur Schau stellen, nichts weiter ist als das Verhältnis der Trends zwischen Input und Output, egal ob sie die Gleichgewichts-Klimasensitivität (ECS) oder kurzlebige Klima-Reaktionen (TCR) repräsentieren. Die Auswahl der Antriebe, Modelle und Datensätze ist ziemlich unerheblich. Alle Modelle zeigen das gleiche Ergebnis für Lambda, und dieses Ergebnis ist das Verhältnis zwischen den Trends des Antriebs und der Reaktion darauf. Dieses jüngste Ergebnis erklärt vollständig die Unfähigkeit der Modellierer, die Bandbreite möglicher Klimasensitivitäten zu verkleinern, trotz dreißig Jahre Modellierungsarbeit.

Ich bin sicher, Sie können daraus eigene Schlussfolgerungen ziehen …

Willis Eschenbach

———————————————————————————-

Hinweis des Übersetzers: Eschenbach fügt hier einige Anhänge bei, die sehr mathematisch sind. Zum Nachrechnen sind diese auch dieser Übersetzung beigefügt, aber nicht übersetzt. Denn erstens würde das den fachlichen Hintergrund des Übersetzers sprengen, und zweitens geht der Übersetzer davon aus, dass Personen, die diese Rechnungen nachvollziehen können, auch des Englischen so mächtig sind, dass sie keine Übersetzung brauchen.

———————————————————————————

Appendix A : The One-Line Equation

The equation that Paul_K, Isaac Held, and I have used to replicate the climate models is as follows:

Let me break this into four chunks, separated by the equals sign and the plus signs, and translate each chunk from math into English. Equation 1 means:

This year’s temperature (T1) is equal to

Last years temperature (T0) plus

Climate sensitivity (λ) times this year’s forcing change (∆F1) times (one minus the lag factor) (1-a) plus

Last year’s temperature change (∆T0) times the same lag factor (a)

Or to put it another way, it looks like this:

T1 =                      <—  This year’s temperature [ T1 ] equals

    T0 +                  <—  Last year’s temperature [ T0 ] plus

    λ  ∆F1  (1-a) +    <— How much radiative forcing is applied this year [ ∆F1 (1-a) ],  times climate sensitivity lambda ( λ ), plus

    ∆T0  a                 <— The remainder of the forcing, lagged out over time as specified by the lag factor “a

The lag factor “a” is a function of the time constant “tau” ( τ ), and is given by

This factor “a” is just a constant number for a given calculation. For example, when the time constant “tau” is four years, the constant “a” is 0.78. Since 1 – a = 0.22, when tau is four years, about 22% of the incoming forcing is added immediately to last years temperature, and rest of the input pulse is expressed over time.

Appendix B: Physical Meaning

So what does all of that mean in the real world? The equation merely reflects that when you apply heat to something big, it takes a while for it to come up to temperature. For example, suppose we have a big brick in a domestic oven at say 200°C. Suppose further that we turn the oven heat up suddenly to 400° C for an hour, and then turn the oven back down to 200°C. What happens to the temperature of the big block of steel?

If we plot temperature against time, we see that initially the block of steel starts to heat fairly rapidly. However as time goes on it heats less and less per unit of time until eventually it reaches 400°C. Figure B2 shows this change of temperature with time, as simulated in my spreadsheet for a climate forcing of plus/minus one watt/square metre. Now, how big is the lag? Well, in part that depends on how big the brick is. The larger the brick, the longer the time lag will be. In the real planet, of course, the ocean plays the part of the brick, soaking up

The basic idea of the one-line equation is the same tired claim of the modelers. This is the claim that the changing temperature of the surface of the planet is linearly dependent on the size of the change in the forcing. I happen to think that this is only generally the rule, and that the temperature is actually set by the exceptions to the rule. The exceptions to this rule are the emergent phenomena of the climate—thunderstorms, El Niño/La Niña effects and the like. But I digress, let’s follow their claim for the sake of argument and see what their models have to say. It turns out that the results of the climate models can be described to 99% accuracy by the setting of two parameters—”tau”,  or the time constant, and “lambda”, or the climate sensitivity. Lambda can represent either transient sensitivity, called TCR for “transient climate response”, or equilibrium sensitivity, called ECS for “equilibrium climate sensitivity”.

Figure B2. One-line equation applied to a square-wave pulse of forcing. In this example, the sensitivity “lambda” is set to unity (output amplitude equals the input amplitude), and the time constant “tau” is set at five years.

Note that the lagging does not change the amount of energy in the forcing pulse. It merely lags it, so that it doesn’t appear until a later date.

So that is all the one-line equation is doing. It simply applies the given forcing, using the climate sensitivity to determine the amount of the temperature change, and using the time constant “tau” to determine the lag of the temperature change. That’s it. That’s all.

The difference between ECS (climate sensitivity) and TCR (transient response) is whether slow heating and cooling of the ocean is taken into account in the calculations. If the slow heating and cooling of the ocean is taken into account, then lambda is equilibrium climate sensitivity. If  the ocean doesn’t enter into the calculations, if the forcing is only the radiative forcing, then lambda is transient climate response.

Appendix C. The Spreadsheet

In order to be able to easily compare the various forcings and responses, I made myself up an Excel spreadsheet. It has a couple drop-down lists that let me select from various forcing datasets and various response datasets. Then I use the built-in Excel function “Solver” to iteratively calculate the best combination of the two parameters, sensitivity and time constant, so that the result matches the response. This makes it quite simple to experiment with various combinations of forcing and responses. You can see the difference, for example, between the GISS E model with and without volcanoes. It also has a button which automatically stores the current set of results in a dataset which is slowly expanding as I do more experiments.

In a previous post called Retroactive Volcanoes, (link) I had discussed the fact that Otto et al. had smoothed the Forster forcings dataset using a centered three point average. In addition they had added a trend fromthe beginning tothe end of the dataset of 0.3 W per square meter. In that post I had I had said that the effect of that was unknown, although it might be large. My new spreadsheet allows me to actually determine what the effect of that actually is.

It turns out that the effect of those two small changes is to take the indicated climate sensitivity from 2.8 degrees/doubling to 2.3° per doubling.

One of the strangest findings to come out of this spreadsheet was that when the climate models are compared each to their own results, the climate sensitivity is a simple linear function of the ratio of the trends of the forcing and the response. This was true of both the individual models, and the average of the 19 models studied by Forster. The relationship is extremely simple. The climate sensitivity lambda is 1.07 times the ratio of the trends for the models alone, and equal to the trends when compared to all the results. This is true for  all of the models without adding in the ocean heat content data, and also all of the models including the ocean heat content data.

In any case I’m going to have to convert all this to the computer language R. Thanks to Stephen McIntyre, I learned the computer language R and have never regretted it. However, I still do much of my initial exploratory forays in Excel. I can make Excel do just about anything, so for quick and dirty analyses like the results above I use Excel.

So as an invitation to people to continue and expand this analysis, my spreadsheet is available here. Note that it contains a macro to record the data from a given analysis. At present it contains the following data sets:

IMPULSES

Pinatubo in 1900
Step Change
Pulse

FORCINGS

Forster No Volcano
Forster N/V-Ocean
Otto Forcing
Otto-Ocean ∆
Levitus watts Ocean Heat Content ∆
GISS Forcing
GISS-Ocean ∆
Forster Forcing
Forster-Ocean ∆
DVIS
CM2.1 Forcing
CM2.1-Ocean ∆
GISS No Volcano
GISS GHGs
GISS Ozone
GISS Strat_H20
GISS Solar
GISS Landuse
GISS Snow Albedo
GISS Volcano
GISS Black Carb
GISS Refl Aer
GISS Aer Indir Eff

RESPONSES

CCSM3 Model Temp
CM2.1 Model Temp
GISSE ModelE Temp
BEST Temp
Forster Model Temps
Forster Model Temps No Volc
Flat
GISS Temp
HadCRUT4

You can insert your own data as well or makeup combinations of any of the forcings. I’ve included a variety of forcings and responses. This one-line equation model has forcing datasets, subsets of those such as volcanoes only or aerosols only, and the simple impulses such as a square step.

Now, while this spreadsheet is by no means user-friendly, I’ve tried to make it at least not user-aggressive.

Appendix D: The Mathematical Derivation of the Relationship between Climate Sensitivity and the Trend Ratio.

I have stated that the relationship where climate sensitivity is equal to the ratio between trends of the forcing and response datasets.

We start with the one-line equation:

Let us consider the situation of a linear trend in the forcing, where the forcing is ramped up by a certain amount every year. Here are lagged results from that kind of forcing.

Figure B1. A steady increase in forcing over time (red line), along with the situation with the time constant (tau) equal to zero, and also a time constant of 20 years. The residual is offset -0.6 degrees for clarity.

Note that the only difference that tau (the lag time constant) makes is how long it takes to come to equilibrium. After that the results stabilize, with the same change each year in both the forcing and the temperature (∆F and ∆T). So let’s consider that equilibrium situation.

Subtracting T0 from both sides gives

Now, T1 minus T0 is simply ∆T1. But since at equilibrium all the annual temperature changes are the same, ∆T1 = ∆T0 = ∆T, and the same is true for the forcing. So equation 2 simplifies to

Dividing by ∆F gives us

Collecting terms, we get

And dividing through by (1-a) yields

Now, out in the equilibrium area on the right side of Figure B1, ∆T/∆F is the actual trend ratio. So we have shown that at equilibrium

But if we include the entire dataset, you’ll see from Figure B1 that the measured trend will be slightly less than the trend at equilibrium.

And as a result, we would expect to find that lambda is slightly larger than the actual trend ratio. And indeed, this is what we found for the models when compared to their own results, lambda = 1.07 times the trend ratio.

When the forcings are run against real datasets, however, it appears that the greater variability of the actual temperature datasets averages out the small effect of tau on the results, and on average we end up with the situation shown in Figure 4 above, where lambda is experimentally determined to be equal to the trend ratio.

Appendix E: The Underlying Math

The best explanation of the derivation of the math used in the spreadsheet is an appendix to Paul_K’s post here. Paul has contributed hugely to my analysis by correcting my mistakes as I revealed them, and has my great thanks.

Climate Modeling – Abstracting the Input Signal by Paul_K

I will start with the (linear) feedback equation applied to a single capacity system—essentially the mixed layer plus fast-connected capacity:

C dT/dt = F(t) – λ *T                                                            Equ.  A1

Where:-

C is the heat capacity of the mixed layer plus fast-connected capacity (Watt-years.m-2.degK-1)

T is the change in temperature from time zero  (degrees K)

T(k) is the change in temperature from time zero to the end of the kth year

t is time  (years)

F(t) is the cumulative radiative and non-radiative flux “forcing” applied to the single capacity system  (Watts.m-2)

λ  is the first order feedback parameter (Watts.m-2.deg K-1)

We can solve Equ A1 using superposition.  I am going to use  timesteps of one year.

Let the forcing increment applicable to the jth year be defined as fj.   We can therefore write

F(t=k )  = Fk =  Σ fj       for j = 1 to k                                Equ. A2

The temperature contribution from the forcing increment fj at the end of the kth

year is given by

ΔTj(t=k) =  fj(1 – exp(-(k+1-j)/τ))/λ                                                     Equ.A3

where τ is set equal to C/λ   .

By superposition, the total temperature change at time t=k is given by the summation of all such forcing increments.  Thus

T(t=k) = Σ fj * (1 – exp(-(k+1-j)/τ))/ λ     for j = 1 to k                                   Equ.A4

Similarly, the total temperature change at time t= k-1 is given by

T(t=k-1) =  Σ fj (1 – exp(-(k-j)/τ))/ λ         for j = 1 to k-1                               Equ.A5

Subtracting Equ. A4 from Equ. A5 we obtain:

T(k) – T(k-1) = fk*[1-exp(-1/τ)]/λ    +  ( [1 – exp(-1/τ)]/λ ) (Σfj*exp(-(k-j)/τ) for j = 1 to k-1)     …Equ.A6

We note from Equ.A5 that

(Σfj*exp(-(k-j)/τ)/λ for j = 1 to k-1)  =  ( Σ(fj/λ ) for j = 1 to k-1)   – T(k-1)

Making this substitution, Equ.A6 then becomes:

T(k) – T(k-1) = fk*[1-exp(-1/τ)]/λ    + [1 – exp(-1/τ)]*[( Σ(fj/λ ) for j = 1 to k-1)   – T(k-1)]      …Equ.A7

If we now set α = 1-exp(-1/τ) and make use of Equ.A2, we can rewrite Equ A7 in the following simple form:

T(k) – T(k-1) = Fkα /λ   – α * T(k-1)                                          Equ.A8

Equ.A8 can be used for prediction of temperature from a known cumulative forcing series, or can be readily used to determine the cumulative forcing series from a known temperature dataset.  From the cumulative forcing series, it is a trivial step to abstract the annual incremental forcing data by difference.

For the values of α and λ, I am going to use values which are conditioned to the same response sensitivity of temperature to flux changes as  the GISS-ER Global Circulation Model (GCM).

These values are:-

α  = 0.279563

λ    = 2.94775

Shown below is a plot confirming that  Equ. A8 with these values of alpha and lamda can reproduce the GISS-ER model results with good accuracy.  The correlation is >0.99.

This same governing equation has been applied to at least two other GCMs ( CCSM3 and GFDL ) and, with similar parameter values, works equally well to emulate those model results. While changing the parameter values modifies slightly the values of the fluxes calculated from temperature , it does not significantly change the structural form of the input signal, and nor can it change the primary conclusion of this article, which is that the AGW signal cannot be reliably extracted from the temperature series.

Equally, substituting a more generalised non-linear form for Equ A1 does not change the results at all, provided that the parameters chosen for the non-linear form are selected to show the same sensitivity over the actual observed temperature range. (See here for proof.)

Link: http://wattsupwiththat.com/2013/06/03/climate-sensitivity-deconstructed/




Warum die Daten einer Reanalyse keine Daten sind.

Original-Bildunterschrift: Abbildung 1: OHC integriert von 0 bis 300 m (grau), 700 m (blau) und Gesamttiefe (violett) von ORAS4, repräsentiert von seinen 5 Ensemble-Gliedern. Die Zeitreihen zeigen monatliche Anomalien, geglättet mit einem über 12 Monate gleitenden Mittel mit Berücksichtigung der Basisperiode 1958 bis 1965. Die Schraffierung geht über die Bandbreite der Ensemble-Glieder hinaus, so dass der Spread eine Angabe hinsichtlich der Ungenauigkeit von ORAS4 ist (der nicht alle Quellen von Unsicherheit abdeckt). Die vertikalen farbigen Balken zeigen ein zweijähriges Intervall, die den Vulkanausbrüchen 6 Monate zuvor folgen (wegen des 12-monatigen gleitenden Mittels) sowie dem El Niño-Ereignis von 1997/98, ebenfalls mit 6 Monaten auf beiden Seiten. Unten rechts wird die lineare Steigung eines Satzes globaler Erwärmungsraten in W/m² gezeigt.

Ich habe mir das angeschaut und gesagt „Waaas???“ Ich habe noch nie derartige vulkanische Signale in den Daten des ozeanischen Wärmegehalts gesehen. Was war mir entgangen?

Nun, mir war entgangen, dass Trenberth et al. etwas benutzen, was sie lächerlicherweise „Reanalyse-Daten“ nennen. Aber wie die Überschrift schon zeigt, Reanalyse-„Daten“ sind keinerlei Daten im Wortsinne. Es handelt sich dabei um das Ergebnis eines Computer-Klimamodells, die als Daten verkleidet werden.

Nun ist der grundlegende Gedanke einer „Reanalyse“ kein schlechter Gedanke. Wenn man Daten mit „Lücken“ darin hat, oder wenn Informationen aus bestimmten Zeiten und/oder an bestimmten Orten fehlen, kann man eine Art „Best Guess“-Algorithmus benutzen, um die Lücken zu füllen. Im Bergbau ist diese Prozedur allgemein üblich. Man hat Einzel-Punkttdaten darüber, was im Untergrund los ist. Also verwendet man eine Kriging-Prozedur mit allen verfügbaren Informationen, und man bekommt den Best Guess [= beste Abschätzung?] darüber, was in den datenfreien Lücken passiert. (Man beachte jedoch: wenn man behauptet, dass die Ergebnisse des Kriging-Modells reale Beobachtungen sind; wenn man sagt dass die Ergebnisse des Kriging-Prozesses „Daten“ sind, kann man wegen Fehlinterpretation ins Gefängnis wandern … aber ich schweife ab, das ist die reale Welt und das ist Klima-„Wissenschaft“ in reinster Form).

Die Probleme tauchen auf, sobald man anfängt, immer komplexere Prozeduren durchzuführen, um die Lücken in den Daten zu füllen. Kriging ist reine Mathematik, und man erhält Fehlerbereiche um die Schätzungen. Aber ein globales Klimamodell ist ein horrend komplexes Erzeugnis und gibt überhaupt keine Fehlerschätzung irgendwelcher Art.

Nun, worauf Steven Mosher mit Stolz hinweist, es sind alles Modelle. Selbst so etwas Einfaches wie

Kraft = Masse mal Beschleunigung

ist ein Modell. In dieser Hinsicht hat Mosher also recht.

Das Problem ist, das es solche und solche Modelle gibt. Einige Modelle wie das Kriging sind gut verstanden und verhalten sich wie erwartet. Wir haben das „Kriging“ genannte Modell analysiert und getestet, bis zu dem Punkt, an dem wir seine Stärken und Schwächen verstanden haben, und wir können es mit vollem Vertrauen verwenden.

Dann gibt es noch eine andere Modellklasse mit sehr unterschiedlichen Charakteristiken. Diese nennt man „iterative“ Modelle. Sie unterscheiden sich von Modellen wie Kriging oder F = M x A, weil sie bei jedem Zeitschritt das vorhergehende Modellergebnis als neue Eingangsgröße für das Modell verwenden. Klimamodelle sind iterative Modelle. Ein Klimamodell beispielsweise beginnt mit dem gegenwärtigen Wetter und sagt voraus, wohin sich das Wetter beim nächsten Zeitschritt entwickeln wird (normalerweise eine halbe Stunde).

Dann wird dieses Ergebnis, die Vorhersage für eine halbe Stunde von jetzt an, als Eingangsgröße für das Klimamodell verwendet, und die nächste halbe Stunde wird berechnet. Man mache das 9000 mal, und man hat ein Jahr Wetter simuliert … waschen, spülen und genügend oft wiederholen, und – voila! Jetzt hat man das Wetter vorhergesagt, von halber Stunde zu halber Stunde, die ganze Zeit bis zum Jahr 2100.

Es gibt zwei sehr, sehr große Probleme bei iterativen Modellen. Der erste ist, dass Fehler dazu tendieren, sich zu akkumulieren. Falls man eine halbe Stunde auch nur ein wenig ungenau berechnet, beginnt die nächste halbe Stunde mit schlechten Daten, so dass die Ergebnisse noch stärker abweichen; und so weiter, bis das Modell vollständig von der Rolle ist. Abbildung 2 zeigt eine Anzahl von Modellläufen des Klimavorhersage-Klimamodells…

 

Abbildung 2: Simulationen von www.climateprediction.net. Man beachte, dass eine signifikante Anzahl von Modellläufen weit unter die Eiszeit-Temperaturen zurück gehen… schlechtes Modell, keine Cookies!

Sehen Sie, wie viele der Modellläufe von der Rolle springen und entweder in eine Schneeball-Erde münden oder Temperaturen der Stratosphäre anzeigen? Das ist das Problem der akkumulierten Fehler in Reinform.

Das zweite Problem mit iterativen Modellen besteht darin, dass wir oftmals keine Ahnung haben, wie das Modell zu seiner Antwort gekommen ist. Ein Klimamodell ist so komplex und wird so oft wiederholt, dass die internen Prozesse des Modells oftmals total undurchsichtig sind. Man stelle sich vor, dass man als Ergebnis von drei verschiedenen Modellläufen drei sehr verschiedene Antworten erhält. Wir haben keinerlei Handhabe zu sagen, dass die eine Lösung wahrscheinlicher ist als die andere … außer der einen versuchten und echten Methode, die oft in der Klimawissenschaft verwendet wird, nämlich:

Wenn die Ergebnisse unseren Erwartungen entsprechen, handelt es sich um einen guten, brauchbaren, soliden Goldmodell-Lauf. Und wenn es den Erwartungen nicht entspricht, können wir es offensichtlich mit Sicherheit ignorieren.

Wie viele „schlechte” Reanalyse-Läufe enden also im Abfalleimer, weil der Modellierer das Ergebnis nicht mag? Viele, sehr viele, aber niemand weiß wie viele.

Damit als Einführung schauen wir jetzt auf die Reanalyse-„Daten“ von Trenberth, die natürlich alles andere als Daten sind … Abbildung 3 vergleicht die ORAS4-Reanalyse-Modellergebnisse mit den Levitus-Daten [?]:

Abbildung 3: ORAS4-Reanalyse-Ergebnisse für die Schicht zwischen 0 und 2000 m (blau) im Vergleich zu den Levitus-Daten für die gleiche Schicht. Die ORAS4-Ergebnisse wurden aus Abbildung 1 digitalisiert. Man beachte, dass die OSAR4-„Daten“ vor etwa dem Jahr 1980 Fehlerbalken vom Boden bis zur Decke haben und daher wenig brauchbar sind (siehe Abbildung 1). Die Daten sind an ihren Startpunkt 1958 angeglichen (1958 = 0)

In Abbildung 3 treten die Schwächen des Reanalyse-Modells klar hervor. Die Computermodelle sagen einen großen Rückgang des OHC durch Vulkane voraus… was offensichtlich nicht geschehen ist. Aber anstatt diese Realität keiner OHC-Änderung nach den Ausbrüchen einzubringen, hat sich das Reanalyse-Modell die Daten einfach zurecht gebogen, so dass es nun den vermeintlichen Rückgang nach den Eruptionen zeigen konnte.

Und das ist das zugrunde liegende Problem, wenn man Reanalyse-Daten wie reale Daten behandelt – sie sind nichts dergleichen. Alles, was das Reanalyse-Modell tut ist, den effektivsten Weg zu finden, die Daten so zu verändern, dass sie den Phantasien, den Vorerwartungen und den Fehlern der Modellierer entsprechen. Hier möchte ich noch einmal den Plot zeigen, den ich schon in meinem vorigen Beitrag gezeigt habe. Dieser zeigt alle Arten der verschiedenen Messungen der Ozeantemperatur, von der Oberfläche bis hinab zu den tiefsten Tiefen, die wir extensiv vermessen haben, zwei Kilometer tief.


Abbildung 4: Messungen der ozeanischen Temperaturen. Es gibt zwei Messungen an der Oberfläche, nämlich von ERSST und ICOADS, zusammen mit individuellen Schicht-Messungen für drei separate Schichten von Levitus. ACHTUNG! Abbildung 4 ist aktualisiert worden, nachdem Bob Tisdale darauf hingewiesen hatte, dass ich aus Versehen geglättete Daten für die Oberflächentemperaturen verwendet hatte.

Was mich angeht – jeder, der Abbildung 4 betrachtet und dann behauptet, dass man die Auswirkungen der Eruptionen des Pinatubo und des El Chichon sowie des Agung in diesen tatsächlichen Daten erkennen kann, halluziniert. Es gibt keinen sichtbaren Effekt. Ja, es gibt einen Rückgang der SST im Jahr nach Pinatubo … aber die voran gegangenen beiden Rückgänge waren größer, und es gibt keinen Rückgang im Jahr nach El Chichon oder Agung. Außerdem waren die Temperaturen in den beiden Jahren vor Pinatubo stärker gestiegen als sie danach zurückgegangen sind. Nimmt man all das zusammen, sagt es mir, dass es nicht einmal den Hauch einer Chance gibt, dass Pinatubo einen kleinen Rückgang nach sich gezogen hätte.

Aber die armen Klimamodellierer sind gefangen. Die einzige Möglichkeit, dass sie behaupten können CO2 werde zum befürchteten Thermageddon besteht darin, die Klimasensitivität sehr hoch anzusetzen.

Das Problem ist Folgendes: wenn die Modellierer eine sehr hohe Sensitivität ansetzen wie 3°C pro Verdoppelung des CO2-Gehaltes, führt das zu einer starken Überschätzung der Auswirkungen durch Vulkanausbrüche. Man kann dies eindeutig in Abbildung 3 erkennen, die die Reanalyse-Modellergebnisse zeigt, die Trenberth trügerisch „Daten“ nennt. Verwendet man das berühmte Bett des Procustes [?] als das zugehörige Beispiel, hat das Modell einfach die realen Daten modifiziert und angepasst, um den Phantasien der Modellierer hinsichtlich einer hohen Klima-Sensitivität gerecht zu werden. Kurz gesagt, das Reanalyse-Modell hat die realen Daten einfach so lange vermischt, bis sie die starken Rückgänge nach den Ausbrüchen zeigen … und das soll Wissenschaft sein?

Aber bedeutet das jetzt, dass alle Reanalyse-„Daten“ Schwindel sind?

Nun, das wirkliche Problem ist, dass wir auf diese Frage die Antwort nicht kennen. Die Schwierigkeit ist, dass es wahrscheinlich erscheint, dass einige der Reanalyse-Ergebnisse gut sind und andere nutzlos, aber im Allgemeinen haben wir keine Möglichkeit, zwischen den beiden zu unterscheiden. Dieser Fall von Levitus et al. ist eine Ausnahme, weil die Vulkane das Problem haben hervor treten lassen. Aber in vielen Anwendungen von Reanalyse-„Daten“ gibt es keine Möglichkeit zu erkennen, ob sie gültig sind oder nicht.

Und wie Trenberth et al. bewiesen haben, können wir uns definitiv nicht von Wissenschaftlern abhängig machen, die die Reanalyse-„Daten“ verwenden, um auch nur den Hauch einer Andeutung einer Untersuchung zu machen, ob sie gültig sind oder nicht …

(Übrigens, lassen Sie mich einen Grund nennen, warum Klimamodelle sich mit Reanalysen schwertun – die Natur weist allgemein Ecken und Kanten auf, während die Klimamodelle allgemein Glättungsverfahren durchführen. Ich habe einen großen Teil meines Lebens auf dem Ozean verbracht. Ich kann versichern, dass man selbst mitten auf dem Ozean oft eine ausgeprägte Linie zwischen zwei verschiedenen Wasserarten erkennt, wobei die eine signifikant wärmer ist als die andere. Wolken haben ausgeprägte Kanten, und sie bilden sich und vergehen wieder ohne viel „dazwischen“. Der Computer ist nicht sehr gut in der Verarbeitung dieses Ecken-und-Kanten-Zeugs. Wenn man es dem Computer überlässt, die Lücke zwischen zwei Beobachtungen zu füllen, sagen wir 10°C und 15°C, kann der Computer das perfekt – wird es aber generell graduell und glatt machen, also 10, 11, 12, 13, 14, 15.

Aber wenn die Natur diese Lücke füllt, ist es viel wahrscheinlicher, dass es so aussieht: 10, 10, 10, 14, 15, 15 … die Natur macht zumeist nichts „graduell“. Aber ich schweife ab…)

Heißt das, dass wir niemals Reanalysen benutzen sollten? Nein, keinesfalls. Kriging ist ein exzellentes Beispiel eines Typs von Reanalyse, der wirklich wertvoll ist.

Was diese Ergebnisse wirklich bedeuten: Wir sollten aufhören, die Ergebnisse von Reanalyse-Modellen „Daten“ zu nennen, und wir sollten DIE REANALYSE-MODELLERGEBNISSE EXTENSIV TESTEN, bevor wir sie verwenden. [Blockschrift im Original]

Diese Ergebnisse bedeuten auch, dass man extrem vorsichtig sein sollte, wenn Reanalyse-„Daten“ als Eingabegrößen für ein Klimamodell verwendet werden. Wenn man das tut, benutzt man die Ergebnisse eines Klimamodells als Eingabegrößen für ein anderes Klimamodell … was allgemein eine Very Bad Idea™ aus einer ganzen Reihe von Gründen ist.

Außerdem sollte man in allen Fällen, in denen man Reanalyse-Ergebnisse verwendet, genau die gleiche Analyse unter Verwendung der realen Daten durchführen. Das habe ich in Abbildung 3 oben getan. Hätten Trenberth et al. diese Graphik zusammen mit ihren Ergebnissen gezeigt … nun … falls sie das getan hätten, wäre ihre Studie wahrscheinlich überhaupt nicht veröffentlicht worden.

Was vielleicht der Grund gewesen sein könnte oder auch nicht, diese vergleichende Analyse nicht zu präsentieren, und warum sie versucht haben zu behaupten, dass die Ergebnisse von Computer-Modellen „Daten“ sind…

Willis Eschenbach

Anmerkung: Die Studie von Trenberth et al. identifiziert als tiefste Schicht als von der Oberfläche bis in die „totale Tiefe“ reichend. Allerdings zeigt die Reanalyse keinerlei Änderungen unter 2000 m, so dass dies ihre „totale Tiefe“ ist.

DATEN:

The data is from NOAA , except the ERSST and HadISST data, which are from KNMI.

The NOAA ocean depth data is here.

The R code to extract and calculate the volumes for the various Levitus layers is here.

Link: http://wattsupwiththat.com/2013/05/10/why-reanalysis-data-isnt-2/

Übersetzt von Chris Frey EIKE




Gefälschte Ergebnisse bei Untersuchungen des Proxys „Schichtdicke“

Ihre Behauptung aus dem Abstract lautet folgendermaßen:

Mittels einer hierarchischen Bayesianischen Analyse [?] von Thermometerablesungen, Baumringen, Eisbohrkernen und Sedimenten aus Seen zeigen wir hier, das Magnitude und Frequenz jüngster Warm-Extreme der Temperatur in hohen nördlichen Breiten während der letzten 600 Jahre ohne Beispiel sind. Die Sommer der Jahre 2005, 2007, 2010 und 2011 waren wärmer als alle Sommer zuvor bis zum Jahr 1400 (Waharscheinlichkeit P > 0,95), jedenfalls im Flächenmittel. Der Sommer 2010 war der wärmste Sommer der letzten 600 Jahre in Westrussland (P >0,99) und möglicherweise der wärmste in Westgrönland und der kanadischen Arktis (P > 0,90). Diese und andere Extreme aus jüngster Zeit liegen deutlich weit oberhalb der in einem stationären Klima zu erwartenden Extreme, können aber verstanden werden als resultierend aus konstanter Raum-Zeit-Variabilität über eine gestiegene Mitteltemperatur.

[Der letzte Satz lautet im Original: probably the warmest in western Greenland and the Canadian Arctic as well (P > 0.90). These and other recent extremes greatly exceed those expected from a stationary climate, but can be understood as resulting from constant space–time variability about an increased mean temperature.]

Inzwischen hat Steve McIntyre bei ClimateAudit einige liebenswerte Probleme in ihren Behauptungen gefunden. Ich überlegte mir, einmal einen Blick auf ihre Aufzeichnungen aus Sedimenten in Seen zu werfen. Die Rohdaten vor jedweder Analyse sehen so aus:


Abbildung 1: alle Schichtdicken-Aufzeichnungen aus TH2013. Die Einheiten wechseln und sind so wie vom Original-Forscher berichtet.

Was also stimmt hier nicht? Nun, eine ganze Menge!

Zu Beginn ist da die infame Korttajarvi-Aufzeichnung. Eine gute Beschreibung hiervon gibt Steve McIntyre:

In Übereinstimmung mit der totalen und vollständigen Sturheit der Paläoklima-Gemeinschaft verwenden sie die berühmteste Reihe von Mann et al. 2008: die kontaminierten Korttajarvi-Sedimente. Die Probleme dieser Reihe sind in Skeptiker-Blogs nur allzu bekannt, und Ross und ich haben darüber in einem Kommentar bei PNAS berichtet. Die Original-Autorin, Mia Tiljander, warnte vor der Verwendung des jüngsten Teils dieser Daten, waren doch die Sedimente durch modernen Brückenbau und die Landwirtschaft kontaminiert worden. Obwohl die Schwächen dieser Reihe als Proxy Lesern „skeptischer“ Blogs gut bekannt sind, haben die Begutachter bei Nature offenbar keine Einwände gegen die Berücksichtigung dieses Proxy für eine Temperaturrekonstruktion gehabt.

Hier möchte ich einen Moment innehalten und über Proxies aus Seen sprechen. Auf dem Grund nahezu jeden Sees wird in jedem Jahr eine neue Sedimentschicht abgelegt. Dieses Sediment enthält einen sehr informativen Mix von allem, was jemals während eines bestimmten Jahres in den See gespült worden ist. Man kann Änderungen der lokalen Vegetation beispielsweise durch Pflanzenpollen identifizieren, die als Teil des Sediments abgelagert worden sind. Es gibt eine Menge Informationen, die man aus dem Schlamm am Seegrund gewinnen kann.

Eine Informationsquelle, die wir betrachten können, ist die Rate, mit der sich das Sediment akkumuliert. Das nennt man „Schichtdicke“ [varve thickness], wobei eine „Schicht“ [varve] ein Paar dünner Schichten in dem Sediment bedeutet, eine für Sommer und eine für Winter, die zusammen ein einzelnes Jahres-Sediment ausmachen. Offensichtlich kann diese Dicke ziemlich variieren. Und in einigen Fällen ist es in gewisser Weise mit der Temperatur korreliert.

Allerdings unterscheiden sich See-Proxies in einem entscheidenden Punkt von Proxies aus Eisbohrkernen. Die täglichen Aktivitäten der Menschen ändern nicht die Dicke der Eisschichten, die sich jedes Jahr bilden. Aber alles vom Straßenbau bis zu Änderungen der landwirtschaftlichen Methoden kann die Sediment-Menge in lokalen Gewässern radikal verändern. Und genau das ist das Problem bei Korttajarvi.

Zusätzlich können auch Änderungen der natürlichen Landschaft das Sediment-Niveau verändern. Viele Dinge, vom Verbrennen lokaler Vegetation über Insektenvernichtung bis hin zu Änderungen des lokalen Wasserabflusses können die Sediment-Ablagerungen in einem bestimmten Teil eines bestimmten Sees verändern.

Man betrachte hierzu beispielsweise die Soper-Daten in Abbildung 1. Mehr als offensichtlich werden einige signifikante Änderungen während der ersten Hälfte des 20. Jahrhunderts  erkennbar. Nach vier Jahrhunderten eines bestimmten Regimes ist etwas geschehen. Wir wissen nicht was, aber es erscheint zweifelhaft, dass eine graduelle Temperaturänderung eine so plötzliche Änderung der abgelagerten Sedimentmenge in Kombination mit einer Änderung der Variabilität ausgelöst haben kann.

An genau dieser Stelle möchte ich innehalten und betonen, dass allein die Erwähnung dieses Proxys, wenn man die offensichtliche Unsinnigkeit ignoriert, auch Korttajarvi zu betrachten, ausreicht, die ganze Studie total zu disqualifizieren. Es gibt keinerlei Rechtfertigung für die Behauptung, dass diese Änderungen mit der Temperatur zusammenhängen. Ja, ich weiß, später in der Studie wird darauf noch eingegangen, aber bleiben wir realistisch: Dies ist keine Repräsentation der Temperatur.

Aber Korttajarvi und Soper sind nicht das einzige Problem. Man betrachte Iceberg, drei separate Aufzeichnungen. Es ist wie eine zweitrangige Quizfrage: „Welcher dieser drei Aufzeichnungen ist anders als die beiden anderen?“ Wie kann man so etwas nur als stichhaltige Proxy betrachten?

Wohin führt die Betrachtung all diesen Mülls? Die Autoren erklären es so:

Alle Schichtdicken-Aufzeichnungen, die öffentlich beim Paleolimnology Data Archive der NOAA öffentlich zugänglich sind (Stand Januar 2012) werden betrachtet unter der Voraussetzung, dass sie folgenden Kriterien genügen:

• sie reichen mindestens 200 Jahre zurück,

• sie zeigen eine jährliche Auflösung

• sie werden in Längeneinheiten dargestellt

• die Original-Veröffentlichungen oder andere Referenzen sprechen für eine positive Verbindung mit der Sommertemperatur.

Nun, das klingt alles sehr gut, aber diese Kerle sind so klassisch … man betrachte den Devon Lake in Abbildung 1, es ist DV09. Sehen Sie, wie weit diese Reihe zurück reicht? Bis 1843, also bis vor 170 Jahren … so viel zu ihrem 200-Jahres-Kriterium.

Wollen Sie den spaßigen Teil erfahren? Fast hätte ich es übersehen, aber als ich die Kriterien gelesen habe dachte ich „warum gerade 200 Jahre?“ Das schien mir eine Besonderheit zu sein, also betrachtete ich sehr genau die einzige Reihe, auf die es passte, und … nanu? Das sieht nicht wie 200 Jahre aus. Also untersuchte ich die Daten hier … 1843, nicht vor 200, sondern vor 170 Jahren.

Mann, je mehr ich schaue, umso mehr finde ich. In dieser Hinsicht haben Sawtooth und Murray wenige kurze separate Abschnitte zum Ende ihrer Hauptdaten. Vielleicht ist es Zufall, aber beide werden den wie auch immer gefälschten Hockeyschläger von Korttajarvi und Soper stützen.

Soviel also zum ersten Blick auf die Rohdaten. Jetzt wollen wir betrachten, was sie tatsächlich mit diesen Daten machen. Aus der Studie:

Wie allgemein üblich werden die Schichtdicken vor der Analyse logarithmisch transformiert, was zu Verteilungen führt, die normalverteilter sind und mit der Hypothese in Einklang stehen, die unsere Analyse charakterisiert (siehe folgenden Abschnitt).

Ich kann mich mit dieser Transformation nicht ganz abfinden. Ich verstehe die zugrunde liegende Rechtfertigung oder Logik nicht, das zu tun. Falls die Schichtdicke in irgendeiner Weise proportional zur Temperatur ist, und das kann gut sein, warum sollte sie proportional zum Logarithmus der Dicke sein?

Wie auch immer, schauen wir, über wie viel „normalverteilter“ wir reden. Hier folgen die Verteilungen der gleichen Aufzeichnungen nach der Log-Transformation [?] und Standardisierung. Ich habe einen „Violin-Plot“ verwendet, um das Aussehen der Verteilung zu untersuchen. Die Entfernung an irgendeinem Punkt steht für die geglättete Zahl der Datenpunkte um diesen Wert. Der weiße Punkt zeigt den Medianwert der Daten. Der schwarze Kasten zeigt die interquartile Bandbreite, die die Hälfte der Daten enthält. Die vertikalen „Schnurrhaare“ [whiskers] erstrecken sich 1,5 mal so weit wie die interquartile Distanz an der Ober- bzw. der Unterseite des Kastens.


Abbildung 2: Violin-Plots der Daten aus Abbildung 1, aber nach der Log-Transformation und Standardisierung. Die Randwert-Normalverteilung unten rechts dient Vergleichszwecken.

Man beachte die sehr großen Unterschiede zwischen den verschiedenen Datensätzen der Schichtdicke. Man kann die Probleme beim Soper-Datensatz erkennen. Einige Datensätze sind nach der Log-Transformation ziemlich normalverteilt, wie Big Round und Donard. Andere wie DV09 und Soper sind selbst nach der Transformation noch weit von der Normalverteilung entfernt. Viele von ihnen sind stark asymmetrisch mit Ausreißern von vier Standardabweichungen, die in positiver Richtung allgemein sind. Im Gegensatz dazu variieren sie nur halb so stark in negativer Richtung, zwei Standardabweichungen. Und wenn man sie mit einschließt, beeinflussen die Unterschiede, mit denen sie aus dem Normalzustand schwingen (die positiven Ausreißer übertreffen die negativen bei Weitem), sowohl die Ergebnisse als auch deren Unsicherheiten.

In jedem Falle sind die Datensätze nach der Log-Transformation und Standardisierung zu einem Mittel von Null und einer Standardabweichung von eins in Abbildung 3 gezeigt:

 

Abbildung 3: Schichtdicken-Aufzeichnungen nach Log-Transformation und Standardisierung.

Wie man sieht, ändert die Log-Transformation nichts an den Problemen von z. B. Soper oder Iceberg. Sie sind immer noch nicht intern konsistent. Als Ergebnis der Mitbetrachtung dieser problematischen Reihen, die allesamt sichtbare Unregelmäßigkeiten in den jüngsten Daten enthalten, zeigt selbst ein einfacher Mittelwert einen vollkommen gefälschten Hockeyschläger.

Tatsächlich zeigt das Mittel die typische Form für diese Art gefälschten Hockeyschläger. Im „Schaft“ des Hockeyschlägers scheinen sich die Rand-Variationen der gewählten Proxies einander wegzumitteln. Im „Blatt“ mitteln sich die Rand-Proxies ebenfalls heraus, und alles was übrig bleibt, sind die wenigen Proxies, die im jüngsten Abschnitt einen Anstieg zeigen.

Meine Schlussfolgerungen lauten (in beliebiger Reihenfolge):

• Man muss den Autoren hinsichtlich der Eindeutigkeit ihrer Datenquellen gratulieren. Sie lassen eine einfache Analyse ihrer Arbeit zu.

• Man muss ihnen auch zu den klaren Definitionen der Kriterien gratulieren, die sie an die Berücksichtigung der Proxies anlegen.

• Traurigerweise folgen sie nicht ihren eigenen Kriterien.

• Die wesentliche Schlussfolgerung jedoch lautet: Klare, eindeutige Kriterien von der Art, wie sie sie verwendet haben, sind ein notwendiger, aber kein ausreichender Teil des Prozesses. Es müssen noch mehr Schritte unternommen werden!

Der zweite Schritt besteht in der Verwendung von Quellen-Dokumentationen und der Literatur um zu sehen, ob es Probleme mit der Verwendung einiger Teile der Daten gibt. Hier Korttajarvi mit einzubeziehen ist ein besonders ungeheuerliches Übersehen. Michael Mann hat es in seiner Analyse aus dem Jahr 2008 umgekehrt verwendet. Er hat anschließend gesagt, dass „das keine Rolle spielt“. Es erscheint hier wieder umgekehrt, und die ursprünglichen Forscher sagten, man verwende es nicht nach 1750 oder so. Es ist absolut erbärmlich, dass nach all den Diskussionen in der Literatur und im Internet einschließlich eines veröffentlichten Briefes an PNAS Korttajarvi wieder einmal in einer Proxy-Rekonstruktion verwendet wird, und wieder einmal wird es umgekehrt verwendet. Das ist unentschuldbar.

Der nächste Schritt bei der Auswahl der Proxies muss in der Verwendung des Mark I eyeball [?] bestehen um zu sehen, ob es Lücken, Sprünge der Amplitude, Änderungen der Variabilität oder andere Anzeichen von Problemen in den Daten gibt.

Als nächstes müssen die Auswirkungen der fragwürdigen Daten auf das Endergebnis untersucht werden.

Und schließlich müssen noch die Gründe dargelegt werden für den Ein- oder Ausschluss der fragwürdigen Daten sowie deren Auswirkung auf das Ergebnis der Studie.

Unglücklicherweise haben sie nur dem ersten Teil Genüge getan, indem sie klare Kriterien formuliert haben.

Sehen Sie, man kann nicht einfach ein Bündel Proxies nehmen und diese mitteln, egal ob man Bayesianische Methoden anwendet oder nicht. Die Menge [crowd] der Paläo-Proxy-Forscher hat wieder und immer wieder gezeigt, dass man damit einen Hockeysachläger konstruieren kann, wenn man nur die richtigen Proxies dafür auswählt…

Und jetzt? Alles, was es beweist, ist: ja, wirklich; wenn man Müll hineinsteckt, wird man vermutlich auch Müll herausbekommen. Wenn man sorgfältig den Auswählprozess der Proxies durchführt, kann man jedes gewünschte Ergebnis bekommen.

Mann, wie sehr ich es satt habe, mich durch diese Art von Müll zu wühlen; künstliche Studien von künstlichen Wissenschaftlern.

Willis Eschenbach

Link: http://wattsupwiththat.com/2013/04/13/spurious-varvology/

Übersetzt von Chris Frey EIKE