1

Harmonische Klimamodelle im Vergleich mit den generellen Klima-Zirkulationsmodellen des IPCC

Hiermit möchte ich in Kürze meine jüngste Veröffentlichung präsentieren. Damit setze ich meine Forschungen über die Bedeutung natürlicher Klimazyklen und ihre Einwirkung auf Klimaänderungen fort:

Nicola Scafetta, “Testing an astronomically based decadal-scale empirical harmonic climate model versus the IPCC (2007) general circulation climate models” Journal of Atmospheric and Solar-Terrestrial Physics (2011).

http://www.sciencedirect.com/science/article/pii/S1364682611003385

Dazu gibt es hier eine .pdf-Version als Broschüre.

Die wesentlichen Ergebnisse dieser neuen Studie werden hier als Höhepunkte zusammengefasst:

1) Die Klimamodelle des IPCC (CMIP3) können beobachtete dekadische und multidekadische Klimazyklen nicht reproduzieren.

2) Äquivalente Zyklen finden sich unter den primären Oszillationen des Sonnensystems.

3) Es wird eine Korrektur der projizierten anthropogenen Erwärmung für das 21. Jahrhundert vorgeschlagen.

4) Ein vollständiges empirisches Modell wird entwickelt, um Klimaänderungen für einige Jahrzehnte ab 2000 vorherzusagen.

5) Das Klima wird wahrscheinlich bis etwa 2030/2040 stabil bleiben, wonach eine Erwärmung von 0,3°C bis 1,2°C bis zum Jahr 2100 erfolgt.

Allerdings erfordert die wissenschaftliche Methodik, dass ein physikalisches Modell zwei einfache Bedingungen erfüllen muss: es muss physikalische Beobachtungen reproduzieren und vorhersagen können. Daher ist es vollkommen legitim in der Wissenschaft zu prüfen, ob die vom IPCC übernommenen Computer-GCMs die erforderlichen wissenschaftlichen Tests bestehen, das heißt in unserem Fall, ob diese Modelle den Temperaturverlauf des 20. Jahrhunderts ausreichend rekonstruieren und als Konsequenz, ob man diesen Modellen wirklich hinsichtlich ihrer Projektionen für das 21. Jahrhundert vertrauen kann. Fällt die Antwort negativ aus, ist es vollkommen legitim, nach fehlenden Mechanismen zu suchen und/oder nach alternativen Methoden.

Eine der größten Schwierigkeiten der Klimawissenschaft, soweit ich das sehe, ist die Tatsache, dass wir die Verlässlichkeit einer Klimatheorie oder eines Computermodells nicht mit kontrollierten Labortests überprüfen können. Wir können auch nicht das Klima anderer Planeten zum Vergleich heranziehen. Wie leicht könnte es sein, die anthropogenen Auswirkungen auf das Klima quantifizieren, wenn wir einfach das Klima eines anderen Planeten untersuchen, der mit Ausnahme der Menschen mit der Erde identisch ist! Aber diesen Luxus haben wir nicht.

Unglücklicherweise können wir eine Klimatheorie oder ein Computermodell nur gegen die verfügbaren Daten testen, und wenn sich diese Daten auf ein komplexes System beziehen, ist es wohlbekannt, dass selbst eine auf den ersten Blick kleine Diskrepanz zwischen Modellergebnissen und Daten massive physikalische Probleme enthüllen kann.

In einigen meiner früheren Studien, zum Beispiel hier (2011), hier (2010), zusammen mit Loehle hier (2011) und hier (2011) haben wir dargestellt, dass die globalen Temperaturaufzeichnungen mit Thermometern, die es einigermaßen zuverlässig seit 1850 gibt, nahelegen, dass das Klimasystem mit zahlreichen astronomischen Oszillationen, z. B. in der Sonnenaktivität, heliosphärischen Oszillationen aufgrund der Planetenbewegungen und in Mondzyklen schwingt und/oder synchron verläuft.

Die bekanntesten Zyklen, die in den Aufzeichnungen der globalen Temperatur erkennbar sind, haben Perioden von 9,1 Jahren, 10 bis 11 Jahren, etwa 20 Jahre und etwa 60 Jahre. Der 9,1 Jahre lange Zyklus scheint mit solaren/lunaren Tidenzyklen zusammen zu hängen, wie ich auch in dieser Studie zeigen werde, während die anderen drei Zyklen solare/planetarische Zyklen zu sein scheinen, die direkt mit dem Orbits von Jupiter und Saturn in Beziehung stehen. Andere Zyklen mit allen Zeitscales sind ebenfalls präsent, aber nicht Gegenstand dieser Studie.

Die obigen vier wesentlichen Periodizitäten können leicht aus den Temperaturaufzeichnungen abgelesen werden, und zwar mit Methoden alternativer Analysen von Leistungsspektren [?], wie die Abbildung unten zeigt:

 

Abbildung 1

Sich ähnelnde dekadische und multidekadische Zyklen wurden in zahlreichen klimatischen Proxy-Modellen Jahrhunderte und Jahrtausende lang beobachtet, was ich in den Referenzen unten erwähnt habe, obwohl die Proxy-Modelle wegen der manchmal großen Divergenz von der Temperatur sehr sorgfältig untersucht werden müssen.

Der untere Teil der Abbildung beleuchtet einen 60-Jahres-Zyklus der Temperatur (rot), welcher klar hervortritt, wenn man den Erwärmungstrend aus den Daten herausrechnet und die schnellen Fluktuationen herausfiltert. Die schwarzen Kurven erhält man mittels harmonischer Modelle auf dekadischer und multidekadischer Basis, kalibriert auf zwei sich nicht überlappende Zeiträume: 1850 bis 1950 und 1950 bis 2010, so dass sie gegenseitig überprüft werden können.

Obwohl die diese Zyklen hervorrufende Abfolge physischer Mechanismen nach wie vor unklar ist, können die gefundenen Zyklen sicher von einem rein geometrischen Standpunkt aus als Beschreibung der dynamischen Entwicklung des Klimasystems angesehen werden. (In früheren Beiträgen von mir habe ich erklärt, dass die verfügbaren Klimadaten eine astronomisch bedingte Variation der Bewölkungsmenge nahe legen, die kleine Oszillationen der Albedo zur Folge haben mit der Konsequenz, dass auch die Temperatur am Boden oszilliert und mit ihr die Ozeane).

Offenbar können die harmonischen Komponenten der Klimadynamik empirisch modelliert werden, auch ohne detaillierte Kenntnis der zugrunde liegenden Physik, genauso wie man auch die Gezeiten des Ozeans mit einfachen harmonischen Bestandteilen rekonstruieren und vorhersagen kann, wie Lord Kelvin im 19 Jahrhundert erkannte. Leser sollten sich klarmachen, dass Kelvins harmonisches Modell wahrscheinlich das einzige geophysikalische Modell ist, das seine guten Vorhersagemöglichkeiten bereits unter Beweis gestellt hat und das man deswegen in Maschinen zur Vorhersage der Gezeiten implementiert hat. Details siehe http://en.wikipedia.org/wiki/Theory_of_tides#Harmonic_analysis

In meiner Studie habe ich die gleiche Kelvin’sche Annäherung eingebaut, und zwar auf zweierlei Art:

  1. durch abchecken, ob die GCMs des IPCC die entdeckten globalen Temperaturzyklen geometrisch reproduzieren können;
  2. und durch abchecken, ob ein harmonisches Modell für Klimavorhersagen benutzt werden könnte. Ein Vergleich der beiden Methoden findet sich ebenfalls in der Studie.

Ich habe alle verfügbaren Klimamodellsimulationen des 20. Jahrhunderts mit dem Program for Climate Model Diagnosis and Intercomparison (PCMDI) gesammelt, hauptsächlich aus den Jahren 2005 und 2006, und diese archivierten Daten ergeben Phase 3 des Coupled Model Intercomparison Project (CMIP3). Dieses kann man sich hier herunterladen.

Die Studie enthält einen großen Anhang mit Bildern aller GCM-Modellläufe und ihrem Vergleich mit der globalen Temperatur, beispielsweise von der Climatic Research Unit (HadCRUT3). Ich fordere alle nachdrücklich auf, sich die zahlreichen Abbildungen in diesem Anhang mal anzusehen, um ein Gefühl für die Leistung dieser Modelle bei der Rekonstruktion des beobachteten Klimas zu bekommen, welche nach meiner Ansicht für alle Zeiträume ziemlich dürftig ist.

In der Abbildung unten zeige ich nur mal als Beispiel die Aufzeichnungen von HadCRUT3 gegen die Simulation vom GISS-ModelE für die globale Temperatur von 1880 bis 2003 unter Verwendung aller Antriebe, die man sich hier herunterladen kann.

 

Abbildung 2

Der Vergleich zeigt klar die erhebliche Diskrepanz zwischen der Modellsimulation und den Temperaturdaten. Qualitativ ähnliche Diskrepanzen sind typisch und finden sich in allen vom IPCC übernommenen GCMs.

Obwohl ein gewisser Erwärmungstrend in den Modellen zum Ausdruck kommt, der mit den Beobachtungen übereinzustimmen scheint, ist die Modellrechnung tatsächlich nicht in der Lage, die zyklische Dynamik des Klimas zu reproduzieren, aus der sich ein etwa 60-jähriger Zyklus ergibt mit Wärmespitzen um 1880, 1940 und 2000. Diese Verteilung wird außerdem durch den synchronisierten 20-jähringen Temperaturzyklus unterstrichen.

Das GISS ModelE zeigt auch große Ausschläge aufgrund von Vulkanausbrüchen, die in den Temperaturaufzeichnungen ziemlich schwer auszumachen sind. Tatsächlich zeige ich im Anhang die Signatur des GISS ModelE für den vulkanischen Antrieb allein im Vergleich zur gleichen Signatur, die man mit zwei vorgeschlagenen empirischen Modellen erhält, die den vulkanischen Antrieb direkt aus den Temperaturdaten selbst extrahieren..

 

Abbildung 3

Die Abbildung zeigt eindeutig, dass das Modell GISS ModelE das kühlende vulkanische Signal erheblich überschätzt. Das gilt auch für die anderen GCMs, wie die Abbildungen im Anhang zeigen. Dieser Umstand ist ziemlich bedeutend, wie ich weiter unten zeigen werde. Tatsächlich gibt es Versuche, Klimavariationen durch Betonung der Auswirkung vulkanischen Aerosols zu rekonstruieren, aber das Fehlen vulkanischer Spitzen in den Temperaturaufzeichnungen zeigt, dass der vulkanische Effekt schon jetzt überschätzt wird.

In jedem Falle konzentriert sich die Studie darauf festzustellen, ob die 2007 vom IPCC übernommenen GCMs die in den Temperaturaufzeichnungen gemessenen zyklischen Modulationen reproduzieren. Mit einem einfachen, auf vier Zyklen basierendem Regressionsmodell (etwa 9,1; 10; 20 und 60 Jahre) plus einem steigenden Trend, der geometrisch durch quadrierte Abweichungen der Temperatur dargestellt werden kann, habe ich in der Studie gezeigt, dass alle vom IPCC übernommenen GCMs darin scheitern, die beobachteten Temperaturzyklen sowohl im dekadischen als auch im multidekadischen Zeitscale zu reproduzieren.

 

Abbildung 4

Die obige Abbildung beispielsweise beschreibt die Koeffizienten „a“ (für den 60-jährigen Zyklus) und „b“ (für den 20-jährigen Zyklus), wie sie von allen Modellläufen der GCMs des IPCC gezeigt werden. Sie sind einfach auf der Abszisse durchnumeriert. Werte von „a“ und „b“ nahe 1 würden darauf hinweisen, dass die Modellsimulation die korrespondierenden Temperaturzyklen gut abbildet. Wie aus der Abbildung hervorgeht (und aus den Tabellen in der Studie) scheitern alle Modelle damit in ziemlich großem Umfang.

Die Schlussfolgerung ist eindeutig, einfach und geradlinig: alle vom IPCC übernommenen GCMs scheitern daran, die in den globalen Temperaturaufzeichnungen gemessenen dekadischen und multidekadischen dynamischen Modulationen korrekt zu reproduzieren, folglich reproduzieren sie auch nicht die Dynamiken des Klimas. Offensichtlich ist die Behauptung „Die Wissenschaft ist sich einig“ falsch. Tatsächlich fehlen in den Modellen wichtige physikalische Mechanismen, die Klimaänderungen antreiben und die auch immer noch ziemlich mysteriös sein können, und von denen ich glaube, dass sie letztendlich astronomische Ursachen haben, wie ich in meinen anderen Studien ausführlicher erklärt habe.

Aber nun, was können wir mit dieser physikalischen Information jetzt anfangen?

Es ist wichtig sich klarzumachen, dass die „die-Wissenschaft-ist-sich-einig“ – Behauptung eine notwendige Vorbedingung ist, um irgendein physikalisches System effizient mit einem analytischen Computermodell laufen zu lassen, wie es die GCMs mit dem Klimasystem machen wollen. Wenn sich die Wissenschaft nicht einig ist, ist jedoch eine solche Aufgabe nicht effizient und theoretisch unmöglich. Zum Beispiel kann ein Ingenieur keine funktionierende elektronische Anlage bauen (Telefone, Radios, Fernseher, Computer) oder eine Brücke oder ein Flugzeug, wenn einige der notwendigen physikalischen Prozesse unbekannt wären. Normalerweise arbeiten Ingenieure nicht mit teilweise bekannter Wissenschaft. In der Medizin zum Beispiel behauptet niemand, die Leute mit Hilfe einer Art physiologischem GCM zu heilen! Und die GCM-Modellierer sind im Wesentlichen Computeringenieure und keine Klimawissenschaftler.

In der theoretischen Wissenschaft kann man jedoch versuchen, das o. g. Problem zu überwinden, wenn man andere Arten von Modellen benutzt, nämlich empirisch/phänologische Modelle, die selbst ihre Grenzen haben, aber auch zahllose Vorteile. Man muss lediglich geeignete Extrahierungen vornehmen und die in den Daten selbst enthaltenen Informationen verwenden, um die beobachteten Dynamiken zu modellieren.

Nun, in der Studie habe ich die aus den Daten abgeleiteten geometrischen Informationen verwendet, um zwei Dinge zu machen:

  1. Ich schlage eine Korrektur des angebotenen anthropogenen Erwärmungseffektes auf das Klima in dem harmonischen Modell vor
  2. Ich implementiere den oben genannten anthropogenen Erwärmungseffekt in das harmonische Modell, um eine angenäherte Vorhersage für die globale Temperatur im 21. Jahrhundert zu erzeugen, und zwar mit den gleichen Emissionsprojektionen wie das IPCC.

Bezüglich des ersten Punktes müssen wir eine feinsinnige Begründung übernehmen. Tatsächlich ist es nicht möglich, die natürliche und die anthropogene Komponente im beobachteten Erwärmungstrend seit 1850 (etwa 0,8°C) durch die Verwendung eines harmonischen Modells, kalibriert mit den gleichen Daten, weil aus 161 Jahren Aufzeichnungen höchstens ein 60-jähriger Zyklus gut bestimmt werden kann, voneinander zu trennen. Für noch längere Zyklen ist das nicht möglich.

Was zahlreiche Studien einschließlich einiger von mir (zum Beispiel hier) wirklich gezeigt haben ist, dass dieser Erwärmungstrend von 1850 bis 2010 Teil eines Jahrhunderte/Jahrtausende langen Zyklus’ sein kann, der auch für das Römische Klimaoptimum, die Dunklen Zeitalter, das Mittelalterliche Klimaoptimum und die Kleine Eiszeit verantwortlich war.

Die folgende Abbildung 5 von Hulum et al. (2011) vermittelt eine Ahnung davon, wie dieser Jahrhunderte/Jahrtausende lange Zyklus auftauchen kann, wenn man versucht, ein viele Jahrtausende langes natürliches Proxy-Modell für die Temperatur in Zentralgrönland zu rekonstruieren.

 

Abbildung 5

Allerdings ist eine akkurate Modellierung der Jahrhunderte/Jahrtausende langen Zyklen gegenwärtig nicht möglich. Die Frequenzen, Amplituden und Phasen sind nicht präzise bekannt, weil sich die Proxy-Modelle für die Temperatur untereinander ziemlich unterscheiden. Für diese Studie wollen wir im Wesentlichen nur reale Temperaturdaten verwenden, und diese beginnen 1850, was offensichtlich ein zu kurzer Zeitraum ist, um so lange natürlichen Zyklen zu extrahieren.

Um weiterzukommen, habe ich eine auf dem 60-jährigen Zyklus basierende Strategie übernommen, wobei eine Amplitude von etwa 0,3°C geschätzt wurde, wie der obere Teil der Abbildung 6 zeigt:

Die IPCC-Abbildungen 9.5a und 9.5b sind gut geeignet, um die Argumentation zu verstehen, sind doch diese beiden  Abbildungen bei den AGW-Vertretern teils sehr populär. Diese beiden Abbildungen folgen hier:

 

Abbildung 6

Teil b der obigen Abbildung zeigt, dass die Temperatur dem IPCC zufolge ohne anthropogenen Antrieb von 1970 bis 2000 um 0,0 bis 0,2°C hätte zurück gehen müssen, und zwar infolge vulkanischer Aktivität. Nur das Hinzufügen anthropogener Antriebe (siehe Teil a) kann die von 1970 bis 2000 beobachtete Erwärmung um 0,5°C produziert haben. Folglich wird behauptet, dass diese anthropogenen Antriebe einen Temperaturanstieg von 0,5°C bis 0,7°C innerhalb von 30 Jahren erzeugt haben. Diese Erwärmung wird dann in den GCMs des IPCC auf das gesamte 21. Jahrhundert ausgeweitet mit einem Erwärmungstrend von 2,3°C pro Jahrhundert, wie es in der Abbildung SPM5 des IPCC unten zum Ausdruck kommt:

 

Abbildung 7

Aber unser Vertrauen in diese Abschätzung des IPCC zum anthropogenen Wärmeeffekt wird direkt durch das Scheitern dieser GCMs in Frage gestellt, die 60-jährige natürliche Modulation zu reproduzieren, die für eine Erwärmung von mindestens 0,3°C von 1970 bis 2000 verantwortlich ist. Als Konsequenz sollte bei Berücksichtigung dieser natürlichen Variabilität der anthropogene Wärmeeffekt nicht über 0,2°C bis 0,4°C liegen anstatt der vom IPCC behaupteten 0,5°C bis 0,7°C.

Dies bedeutet, dass der anthropogene Erwärmungseffekt auf ein Maximum zwischen 0,5°C und 1,3°C pro Jahrhundert reduziert werden muss, und zwar seit 1970 bis etwa 2050 unter Berücksichtigung der gleichen IPCC-Emissionsprojektionen, die in der Studie beschrieben werden. Dieses Ergebnis in der Studie wird auch erreicht durch Berücksichtigung vieler Möglichkeiten einschließlich der Tatsache, dass die Abkühlung durch vulkanische Aktivitäten offensichtlich in den GCMs überschätzt wird, wie wir oben gesehen haben, und ein Teil der übrigen Erwärmung von 1970 bis 2000 könnte immer noch von anderen Faktoren verursacht sein wie den städtischen Wärmeinseleffekt oder der Landschaftsverbrauch.

An dieser Stelle ist es möglich zu versuchen, eine vollständige Vorhersage des Klimas seit 2000 abzugeben, die sich aus den vier entdeckten dekadischen und multidekadischen Zyklen plus den korrigierten anthropogenen Erwärmungstrend ergeben.

 

Abbildung 8

Die Abbildung zeigt eine vollständige Klimavorhersage meines empirischen Modells im Vergleich zu den IPCC-Projektionen seit 2000. Es ist offensichtlich, dass mein vorgestelltes Modell viel besser mit den Daten übereinstimmt als die IPCC-Projektionen, wie auch andere Tests in der Studie zeigen.

Mein vorgestelltes Modell zeigt zwei Kurven: Eine ist kalibriert auf den Zeitraum 1850 bis 1950 und der andere auf den Zeitraum von 1950 bis 2000. Es ist offensichtlich, dass beide Kurven gleichermaßen die Klimavariabilität von 1850 bis 2011 in dekadischen/multidekadischen Zeitscales gut rekonstruieren, da die graue Linie Höhepunkte glättet mit einem mittleren Fehler von nur 0,05°C.

Das vorgeschlagene empirische Modell würde nahelegen, dass die gleichen, vom IPCC projizierten anthropogenen Emissionen eine globale Erwärmung von 0,3°C bis 1,2°C bis 2100 verursachen würden, im Gegensatz zu den vom IPCC projizierten 1,0°C bis 3,6°C. Meine vorgeschlagene Schätzung schließt auch eine zusätzliche mögliche Abkühlung aus, die von Jahrhunderte/Jahrtausende langen Zyklen abgeleitet werden können.

Einige implizit enthaltene Konsequenzen dieses Ergebnisses ist, dass zum Beispiel der Ozean viel weniger steigen dürfte, sagen wir mal ein Drittel (etwa 12,5 cm) bis 2100, als was vom IPCC projiziert worden ist, und wofür wir möglicherweise nicht unsere Wirtschaft zu zerstören brauchen bei dem Versuch, CO2-Emissionen zu reduzieren.

Wird sich meine Vorhersagekurve hoffentlich für mindestens ein paar Jahrzehnte bewähren? Nun, mein Modell ist keine „kristallene Orakelkugel“. Genau wie bei den ozeanischen Zyklen können zahlreiche andere natürliche Zyklen in allen Zeiträumen im Klimasystem wirksam sein und interessante Interferenzen und eine komplexe Dynamik erzeugen. Andere nichtlineare Faktoren können ebenfalls vorhanden sein, und plötzliche Ereignisse wie Vulkanausbrüche können immer die dynamische Verteilung eine Zeitlang unterbrechen. Also kann das Modell sicher noch verbessert werden.

Vielleicht ist das von mir vorgeschlagene Modell aber auch nur eine weitere Illusion, das wissen wir noch nicht sicher. Was man tun kann, ist die Forschung fortzusetzen und zu verbessern und eventuell Monat für Monat neue Temperaturdaten hinzufügen, um zu sehen, wie sich die vorgeschlagene Vorhersage macht, wie es in der Abbildung unten argestellt ist:

 

Abbildung 9

Die obige Abbildung zeigt einen verglichen mit der Studie aktualisierten Graph, wobei die Temperaturaufzeichnung im Oktober 2011 endet. Hinzugefügt ist die Temperatur vom November 2011 in blau. Die monatlichen Temperaturdaten stammen von hier.

Die empirische Vorhersagekurve (schwarze Kurve, gebildet aus der harmonischen Komponente plus dem vorgeschlagenen anthropogenen Erwärmungstrend) zeigt bisher gute Übereinstimmung mit den Daten. Ok, es ist nur ein Monat, könnte man einwenden, aber tatsächlich startet das ausgewählte Vorhersagemodell bereits im Januar 2000!

Zum Vergleich, die Abbildung zeigt in gelb die harmonische Komponente aus den vier Zyklen allein, was interpretiert werden kann als die untere Grenze der natürlichen Variabilität, basierend auf den gleichen vier Zyklen.

 

Abbildung 10

Schlussfolgernd lässt sich sagen, dass das hier vorgestellte Modell sicher ein vereinfachtes Modell ist, das möglicherweise noch verbessert werden kann, aber schon jetzt sieht es so aus, als würde es alle vom IPCC übernommenen GCMs wie z. B. GISS ModelE übertreffen. Alle diese Modelle bringen es nicht fertig, die beobachteten dekadischen und multidekadischen Zyklen zu rekonstruieren. Außerdem haben sie bei der Vorhersage der Temperaturentwicklung seit 2001 versagt.

Es ist offensichtlich, dass ein Klimamodell für jedwede zivilen strategischen Ziele nützlich wäre, aber nur, wenn es in der Lage ist, die Klimaentwicklung zumindest auf dekadischer/multidekadischer Basis vorherzusagen. Die traditionellen GCMs sind mit diesem Ziel bisher gescheitert, wie diese Studie zeigt.

Die Versuche mancher Klimamodellierer in jüngster Zeit, den Fehlschlag ihrer GCMs hinsichtlich des fast konstanten Klimas der letzten 10 Jahre zu erklären und zu lösen, sind sehr unbefriedigend für irgendwelche praktischen und theoretischen Ziele. Tatsächlich lauten einige der vorgeschlagenen Lösungen: 1) eine vermutete Unterschätzung der abkühlenden Wirkung kleinerer Vulkanausbrüche (Solomon et al., Science 2011) (während der Vulkaneffekt in den GCMs schon jetzt offensichtlich überschätzt wird!) oder 2) eine hypothetische chinesische Emission von Aerosolen (Kaufman et al., PNAS 2011) (die jedoch seit 2005 wahrscheinlich zurückgeht!), oder 3) ein 10-jähriges „rotes Rauschen“, eine unvorhersagbare Fluktuation des Klimasystems, angetrieben durch eine Fluktuation im Wärmegehalt der Ozeane (Meehl et al., NCC 2011) (die sich jedoch in den Modellsimulationen erst 2055 und 2075 einstellen soll!)

Offensichtlich können diese GCMs die Klimaänderung nur „a posteriori“ „vorhersagen“, das heißt beispielsweise, wenn wir wissen wollen, was mit diesen GCMs von 2012 bis 2020 passiert, müssen wir erstens bis 2020 warten und die GCMs  dann mit physikalischen ad hoc-Erklärungen anpassen, einschließlich sogar einer Berufung auf einem unvorhersagbaren „roten Rauschen“ bei der Fluktuation des ozeanischen Wärmegehaltes und im Strömungssystem (laut Modell 2055 und 2075!), um zu versuchen, die Daten während Perioden mit Datenlücken zu erklären, die der projizierten anthropogenen Erwärmung durch GHGs widersprechen!

Sollte dies tatsächlich die Lage sein, ist es wirklich unmöglich, Klimaänderungen für wenigstens einige Dekaden vorherzusagen. Der praktische Nutzen dieser Art von GCMs ist begrenzt und potentiell sehr irreführend, weil das Modell eine 10-jährige Erwärmung vorhersagen kann, während das „rote Rauschen“ der Dynamik des Klimasystems die projizierte Verteilung komplett verändert!

Tatsache ist, dass die obigen ad hoc-Erklärungen in Konflikt zu stehen scheinen mit der Dynamik des Klimasystems, wie es seit 1850 offensichtlich ist. Tatsächlich legt diese Dynamik eine wesentliche multipel-harmonische Komponente beim Klima nahe, deren Ursache wahrscheinlich astronomischen Ursprungs ist (Sonne + Mond + Planeten), obwohl dies physikalisch noch nicht vollständig verstanden ist. Diese Komponente kann auch das Klima nach 2000 ziemlich befriedigend erklären, wie die obigen Abbildungen zeigen (selbst unter Verwendung meines Modells, kalibriert von 1850 bis 1950, das sind mehr als 50 Jahre vor der beobachteten Aufzeichnungslücke seit 2000!)

Vielleicht kann es eine neue Art von Klimamodell, zumindest teilweise auf einer empirischen Rekonstruktion des Klimas, konstruiert aus empirisch bestimmten natürlichen Zyklen, wirklich besser, hätte bessere Vorhersagemöglichkeiten und das als Folge nützlicher für die Gesellschaft sein könnte als die gegenwärtig vom IPCC übernommenen GCMs.

Braucht man also eine Art kopernikanische Revolution in der Forschung zur Klimaänderung, wie auch Alan Carlin vorgeschlagen hat?

Ich persönlich glaube, dass es dringend notwendig ist, mehr in wissenschaftliche Methoden alternativ zu den traditionellen GCMs zu investieren und auch allgemein mehr in die reine Klimaforschung, und nicht nur in die GCM-Forschung, wie es bisher war aufgrund der falschen Behauptung, dass solche Investitionen in die reine Wissenschaft nicht mehr nötig sind, weil sich „die Wissenschaft schon einig ist“.

Bezüglich des anderen allgemeinen AGW-Slogans, demzufolge die gegenwärtigen Mainstream-AGW-Wissenschaft nicht mehr in Frage gestellt werden kann, weil sie auf einem sog. „wissenschaftlichen Konsens“ beruht, möchte ich nachdrücklich anregen, dass jeder diesen Beitrag von Kevin Rice liest, und zwar auf dem Blog Catholibertarian mit dem Titel “On the dangerous naivety of uncritical acceptance of the scientific consensus”.

Nicola Scafetta, “Testing an astronomically based decadal-scale empirical harmonic climate model versus the IPCC (2007) general circulation climate models” Journal of Atmospheric and Solar-Terrestrial Physics (2011).

http://www.sciencedirect.com/science/article/pii/S1364682611003385

http://scienceandpublicpolicy.org/reprint/astronomical_harmonics_testing.html

Abstract:

Wir vergleichen den Aussagegehalt eines kürzlich vorgeschlagenen empirischen Klimamodells, das auf astronomischen Schwingungen im Vergleich zu allen gegenwärtig verfügbaren und vom IPCC verwendeten CMIP3-Klimamodellen zur allgemeinen Zirkulation (GCM) basiert, um den Verlauf der globalen Temperatur während des 20. Jahrhunderts zu interpretieren. Das vorgeschlagene astronomische empirische Klimamodell nimmt an, dass das Klima in Resonanz steht oder synchronisiert ist mit einer Reihe von natürlichen Schwingungen, die in früheren Studien (Scafetta 2010b, 2011b) mit dem Sonnensystem und den Planetenbewegungen assoziiert worden sind, dominiert zumeist von Jupiter und Saturn. Wir zeigen, dass die GCMs die wesentlichen dekadischen und multidekadischen Oszillationen der globalen Temperaturaufzeichnungen von 1850 bis 2011 nicht reproduzieren können. Im Gegenteil hat sich herausgestellt, dass das vorgestellte harmonische Modell (welches hier Perioden von 9,1; 10-10,5; 20-21; 60-62 Jahren nutzt) dies sehr gut kann, und es wird gezeigt, dass es in der Lage ist, die Klimaoszillationen von 1950 bis 2011 vorherzusagen unter Verwendung der Daten von 1850 bis 1950, und umgekehrt. Es wird gezeigt, dass der 9,1-jährige Zyklus wahrscheinlich zusammenhängt mit einer dekadischen Sonne/Mond-Tidenoszillation, während die anderen drei Zyklen synchron mit solaren und heliosphärischen planetarischen Oszillationen laufen. Wir zeigen, dass die Behauptung der GCMs des IPCC, dass nämlich die gesamte Erwärmung von 1970 bis 2000 anthropogen induziert worden ist, irreführend ist wegen des Scheiterns der GCMs, die 20- und 60-jährigen Klimazyklen zu reproduzieren. Schließlich zeigen wir, wie die Gegenwart dieser großen natürlichen Klimazyklen benutzt werden kann, um den vom IPCC projizierten Erwärmungstrend für das 21. Jahrhundert zu korrigieren. Wenn dieser korrigierte Trend mit natürlichen Zyklen kombiniert wird, zeigen wir, dass die Temperatur während der nächsten 30 Jahre nicht signifikant zunehmen wird, hauptsächlich wegen der negativen Phase des 60-jährigen Zyklus’. Wenn multisäkulare [?] natürliche Zyklen (welche einigen Autoren zufolge signifikant zu der beobachteten Erwärmung von 1700 bis 2010 beigetragen haben und die zu einer zusätzlichen natürlichen Abkühlung bis 2100 beitragen können) ignoriert werden, würden die gleichen vom IPCC projizierten anthropogenen Emissionen eine Erwärmung um etwa 0,3°C bis 1,2°C bis 2100 ergeben, im Gegensatz zu den IPCC-Projektionen von 1,0°C bis 3,6°C Erwärmung. Die Ergebnisse dieser Studie belegen frühere Behauptungen, dass die relevanten physikalischen Mechanismen, die die beobachteten Klimazyklen erklären können, in den gegenwärtigen GCMs immer noch fehlen und dass Klimaänderungen in multidekadischen Zeiträumen astronomisch induziert sind und in erster Näherung vorhergesagt werden können.

Von Dr. Nicola Scafetta

Link: http://wattsupwiththat.com/2012/01/09/scaffeta-on-his-latest-paper-harmonic-climate-model-versus-the-ipcc-general-circulation-climate-models/

Übersetzt von Chris Frey für EIKE




Offshore-Windpark “Bard 1″ westlich von Sylt wird zum Milliardengrab- Gaskraftwerke in Bayern rechnen sich nicht

Wie die Internetseite JustSylt nach Capital berichtet entwickelt sich für die umstrittene HypoVereinsbank (HVB) der Offshore-Windpark “Bard 1″ zum Milliardengrab.

Und das Wirtschaftsmagazin ‘Capital’ (Ausgabe 02/2012, EVT 19. Januar) berichtet, das die Unicredit-Tochter die Risikovorsorge für drohende Verluste aus dem sich verzögernden Projekt um knapp 70 Prozent auf 710 Millionen Euro aufgestockt hat.

Bereits im August 2011 hatte die Bank eine zusätzliche Kreditlinie von 860 Millionen Euro gewährt. Die bislang geheim gehaltenen Zahlen musste die HVB jetzt wegen der milliardenschweren Kapitalerhöhung der italienischen Mutter Unicredit Anfang Januar im Börsenprospekt offenlegen.

Bankintern werden die Kosten des in der Nordsee liegenden Windparks inzwischen auf 2,9 Milliarden Euro geschätzt. Diese werden zunächst komplett von der HVB getragen, da die Bank der einzige Finanzierer des Projekts ist. Der mögliche Verkaufserlös, wenn der Park fertig gebaut ist, beläuft sich Brancheninsidern zufolge auf weniger als zwei Milliarden Euro.

Der 2009 gestartete Bau des Riesenkraftwerks mit 80 Windrädern und 400 Megawatt Leistung liegt wegen technischer Schwierigkeiten mehr als zwei Jahre hinter dem Zeitplan zurück. Bislang sind in dem Windpark, der 2011 ans Netz hätte gehen sollen, erst 19 Turbinen installiert. Die HVB hatte 2007 den Kredit für das Projekt zugesagt, ohne dass es Eigenkapitalgeber gab. Die Stadtwerke, die eigentlich einsteigen wollten, haben die Verträge nie unterschrieben.

Süddeutschland findet keine Gasinvestoren

In Bayern und Baden-Württemberg soll Atomstrom durch Gaskraftwerke ersetzt werden. Doch die Länder finden dafür keine Geldgeber – nun sind Teile der Energiewende in Gefahr.

Bayern, wirtschaftlich sehr erfolgreiches Bundesland, dessen Strombedarf zu 58 % aus Kernkraftwerken stammte und das bisher von landschaftsverschandelnden Solar und Windkraftanlagen weitgehend verschont blieb, muss nun erkennen, dass die irrwitzigen Blütenträume der Energiewende auch in diesem Bundesland nicht reifen. Wegen des Atomausstiegs der schwarz-gelben Regierung unter Beteiligung der CSU müssen nun schnellstens Ersatzkraftwerke her. Mit Gas befeuert, was denn sonst. Doch, die Investoren wollen die nicht bezahlen. Sie rechnen sich nicht! It´s the economy, stupid!

So schreibt die FTD am 19.1.12

In Süddeutschland brauchen wir dringend zuverlässigen Ersatz für die Kernkraftwerke", sagte der bayerische Wirtschaftsminister Martin Zeil (FDP) der FTD. "Doch das Problem in den Gesprächen mit den Investoren ist immer wieder die mangelnde Rentabilität." In den vergangenen Monaten hat Bayerns Staatsregierung etwa Gespräche mit dem russischen Gaskonzern Gazprom geführt, allerdings ergebnislos. "Gazprom ist sehr interessiert, wartet aber noch ab", sagte Zeil."

und im grünen Baden-Würtemberg sieht die Situation nicht anders aus:

Wieder die FTD

In Süddeutschland gerät die Energiewende damit zunehmend in Gefahr. Die Region leidet am stärksten unter dem Atom-Aus.

Der Südwesten hat das gleiche Problem wie Bayern. "Es gibt in Baden-Württemberg keine Anreize für neue Kraftwerke", sagte der baden-württembergische Umweltminister Franz Untersteller (Grüne)…

natürlich hat der grüne Minister Untersteller auch gleich einen Lösungsvorschlag für dieses Problem. Nein, nicht was vernünftige Leute tun würden, nämlich das EEG abzuschaffen und den Atomausstieg zurückzunehmen…nein, er schlägt einen neuen Fördertatbestand vor: nämlich…

…ein Modell für einen bundesweiten Fördermechanismus (vor), der Kraftwerke einfach für ihr Vorhandensein bezahlt. Demnach solle bei der Netzplanung ein für die Versorgungssicherheit nötiger Mindestkraftwerkspark definiert werden.

Vielleicht lautet der Wahlspruch der sonst findigen Baden-Württemberger bald so:

Wir können alles – außer rechnen!

Und Bayern zahlte bisher, ob seines Erfolges mehr als 50 % des Gesamtbetrages in den "Länderfinanzausgleich" ein, Baden-Württemberg und Hessen den Rest. Das wird nicht so bleiben, aber dass ist unser kleinstes Problem. Ein kleiner Lichtblick ist das bankrotte aber trotzdem sonnige Spanien. Dort will man bald Politiker die zu viele Schulden machen ins Gefängnis stecken.

die Redaktion

Quellen: JustSylt mit Dank an Gegenwind Dr. Zielinski und Leser Demmig für Hiweise auf die FTD (links dazu im Text)




Grundmodell der Erde als Schwarzkörper – Ein ganz schweres Problem

Grundmodell der Erde als Schwarzkörper – Ein ganz schweres Problem

Robert G. Brown, Duke University

Die Erde hat nur eine Absorptionsfläche, die einer zweidimensionalen Scheibe gleicht, nicht einer Kugeloberfläche.

Eine halbe Nacht lang habe ich im Lern-Halbschlaf über dem Buch von Caballero zum Thema des Strahlungstransfers gebrütet und bin zu zwei Einsichten gekommen:

Erstens: das Grundmodell des Schwarzkörpers (es führt zu T_b = 255K) ist physikalisch ein schreckliches Grundmodell. Es behandelt den Planeten wie einen nicht rotierenden Wärme-Supraleiter ohne Wärmekapazität. Warum das so schrecklich ist? Weil es absolut falsch ist, 33K als Treibhauserwärmung in Bezug auf den Ausgangswert zu setzen. Dieser Ausgangswert ist ein völlig unphysikalischer Ausgangswert.
Zweitens, die 33K bedeuten nichts. Sie werfen Erwärmungs- und Abkühlungseffekte zusammen, absolut nichts mit dem Treibhauseffekt zu tun haben. Mehr dazu später.

Jetzt verstehe ich den Treibhauseffekt viel besser. Ich möchte das jetzt mit meinen eigenen Worten schreiben, weil mir einige von Caballeros Aussagen nicht gefallen, und weil ich denke, dass meine Darstellung einfacher und einleuchtender ist. Ich denke auch daran, sie vielleicht später für einen Modellbausatz zu verwenden, von der Art, wie man sie als Lernspielzeuge kaufen kann.

Fangen wir mit einer nicht rotierenden supraleitenden Kugel an, null Albedo, einheitliche Emissivität, vollständige Schwarzkörper-Strahlung von jedem Punkt der Kugel. Wie hoch ist die Durchschnittstemperatur?

Jetzt behandeln wir die nicht rotierende Kugel als vollständigen Nicht-Leiter, dergestalt, dass sich ein Teil der Oberfläche im Strahlungsgleichgewicht befindet. Wie hoch ist die Durchschnittstemperatur jetzt? Das ist für den Mond ein besseres Modell als das vorhergehende, aber immer noch nicht gut genug. Verbessern wir es!

Wir geben der Oberfläche nun einige thermische Wärme-Kapazität – wir machen sie Wärme-supraleitend, aber nur in vertikaler Richtung und wir nehmen noch eine Masseschale von einiger Dicke an, die eine vernünftige spezifische Wärme hat. Das ändert am vorherigen Ergebnis nichts, solange wir die Kugel nicht rotieren lassen. Oho, nun erhalten wir doch eine andere durchschnittliche (Oberflächen-) Temperatur, diesmal ist es der sphärische Durchschnitt einer Verteilung, die von der sphärischen Breite abhängig ist. Dabei liegt die höchste Temperatur auf der Tagseite nahe beim Äquator kurz nach dem „Mittag“ (verzögert, weil es Zeit braucht, um die Temperatur jedes Blockes zu erhöhen, weil die Einstahlung den Schwarzkörper-Verlust übersteigt, und weil es Zeit zur Abkühlung braucht, weil der Schwarzkörper-Verlust die Strahlung übersteigt, und die Oberfläche hat niemals und nirgends eine konstante Temperatur außer an den Polen (ohne axiale Kippung). Das ist wahrscheinlich ein recht passendes Modell für den Mond, wenn man rückschreitend eine Albedo hinzufügt (damit wird der Anteil der hereinkommenden Energie vermindert, der thermisch ausbalanciert werden muss).

Man kann für jede dieser Veränderungen tatsächlich die exakte parametrische Temperatur-Verteilung errechnen als Funktion des sphärischen Winkels und des Radius, und (durch Integration) die Veränderung berechnen in z. B. der durchschnittlichen Temperatur aufgrund der Annahme eines vollständigen Schwarzkörpers. Beim Übergang von einem supraleitenden, aber im Übrigen perfekt isolierenden (nicht rotierenden), Planeten zu einer lokal detaillierten Balance fällt die nachtseitige Temperatur einfach von ½ der Kugel Ihrer Wahl von 3 K, oder von null K nach sehr langer Zeit (das ist leichter zu idealisieren). Das ist die untere Grenze, unabhängig von Sonneneinstrahlung oder Albedo (in diesem Sinne hier: der Emissivität). Die tagseitige Temperatur hat eine polare Verteilung, wobei ein Pol auf die Sonne blickt, sie variiert nicht-linear mit der Einstrahlung, Albedo, und (wenn Sie sie verändern wollen) mit der Emissivität.

Das vermaledeite T^4 verkompliziert alles! Ich möchte noch nicht einmal das Vorzeichen der Veränderung der Durchschnittstemperatur zuweisen, wenn ich vom ersten Modell zum zweiten übergehe! Jedesmal, wenn ich meine, ein gutes heuristisches Argument für die Aussage von einer niedrigeren Durchschnittstemperatur zu haben, sagt eine innere Stimme – T^4 – bilde lieber das verflixte Integral, weil die Temperatur im Übergangsbereich von der Tagseite her allmählich auf Null gehen muss. und da gibt es eine ganze Menge von geringer Einstrahlung in einem Gebiet (und daher mit niedriger Temperatur), wo die Sonne auf fünf Uhr steht, sogar mit null Albedo und der Emissivität von einer Einheit! Leicht ist nur, den sphärischen Durchschnitt zu erhalten: Wir nehmen einfach den sphärischen Tagseiten-Durchschnitt und teilen durch zwei.

Mit dem Vorzeichen für die rotierende Kugel bin ich auch nicht glücklich, weil es auf vom Zusammenspiel zwischen der erforderlichen Zeit zur Erwärmung der thermischen Last (engl: „thermal ballast“) abhängt, bei gegebener Differenz zwischen Einstrahlung und ausgehender Strahlung und der Rotationsrate. Wenn man mit unendlicher Geschwindigkeit rotieren lässt, ist man wieder bei der supraleitenden Kugel. Wenn man dazwischen rotieren lässt, und – verdammt noch mal – indem man nur die Größe der thermischen Last verändert (die thermische Last bestimmt die Thermisierungszeit), kann man es sogar so einrichten, dass sich eine rasch rotierende Kugel wie die statische nicht-leitende Kugel verhält, oder wie eine langsam rotierende (jeweils zwischen null Wärme-Kapazität und sehr hoher Wärme-Kapazität).

Schlimmer noch, wenn man die Geometrie der axialen Pole verändert (die noch in Bezug auf die Ekliptik als ungekippt angenommen werden). Während zuvor die Tag/Nacht Grenze sich allmählich an T = 0 von der Tagseite annäherte, gilt das nun nur noch an den Polen! Das Integral des polaren Gebietes (bei einem gegebenen Polarwinkel dtheta) ist viel kleiner als das Integral des Äquator-Winkels, und zudem hat man nun auch noch einen darüber verschmierten Satz von festen Temperaturen, die alle Funktionen des Azimut-Winkels phi und des Pol-Winkels theta sind, der verändert sich nicht-linear, wenn man einen der folgenden Parameter ändert: Einstrahlung, Albedo, Emissivität, omega (Winkelgeschwindigkeit der Rotation) und Wärmekapazität der Oberfläche.

Und dabei ist noch nicht einmal eine Atmospäre berücksichtigt! Oder Wasser. Aber wenigstens bis zu diesem Punkt kann man die Temperaturverteilungsrechnung T (theta,phi,alpha,S,epsilon,c) exakt lösen, denke ich.

Darüberhinaus kann man tatsächlich so etwas wie das Wasser recht gut modellieren. Wenn wir uns nun die Erde als mit einer Schicht von Wasser bedeckt anstelle von Luft vorstellen, mit einem Schwarzkörper auf dem Grund und einer dünnen Schicht einer völlig transparenten Frischhaltefolie drauf, um die vermaledeite Verdampfung zu verhindern, dann wird das Wasser zu einem Teil des thermischen Ballasts. Nun braucht es viel viel länger, um die Temperatur einer ein-Meter-dicken Wasserschicht (bei gegebenem Ungleichgewicht zwischen der einfallenden Strahlung) zu erhöhen oder zu vermindern, als die Temperatur im vielleicht oberen Zentimeter eines Felsens, von Dreck oder von Sand. Es dauert viel länger.

Wenn man das alles einigermaßen im Griff zu haben meint, könnte man das Modell mit Meeren und Landmassen füllen (aber immer noch den lateralen Energie-Transfer verbieten, und einen unmittelbaren vertikalen Ausgleich unterstellen). Man könnte dem Wasser die richtige Albedo zuschreiben und es beim Erreichen der richtigen Temperatur gefrieren lassen.

Danach wird es aber wirklich schwer.

Jetzt muss nämlich eine Atmosphäre dazukommen. Auch das noch!
Die Meere müssen Konvektionsfähigkeit erhalten, Dichte und unterschiedliche Tiefen. Und das alles auf einer rotierenden Kugel, wo alles was nach oben geht (Luftmassen) gegen die Erddrehung (relativ zur Oberfläche) abgelenkt wird, wo alles, was herunterkommt, in Richtung der Erddrehung angelenkt wird, was nach Norden geht auf der Nordhalbkugel in Drehrichtung abgelenkt wird (es wird schneller), was nach Süden geht, gegen die Drehrichtung abgelenkt wird, als Funktion von Winkel, Geschwindigkeit und Drehgeschwindigkeit. Verdammte Coriolis-Kraft, sie lenkt die Küstenartillerie ab, usw. Und jetzt erwärmen wir mal dieses verdammte Ding differentiell so, dass überall und über alle Entfernungen Turbulenzen vorkommen, für die wir kaum noch die einfachste Symmetrie für das differentielle Erwärmen haben. So ungefähr, wenn wir ein fünfjähriges Kind Farbe auf die Kugel spritzen lassen, um anzuzeigen, wo Landmassen und Ozeane sind, oder wir hätten ihm auch Spielzeuglastwagen geben und es im sphärischen Sandkasten spielen lassen können, bis eine schöne unregelmäßige Oberfläche entstanden wäre. Und diese Oberfläche hätten wir mit Wasser auffüllen können, bis die Oberfläche ungefähr zu 70 % unter Wasser gestanden hätte.

O weh! Mein armer Kopf raucht!
Wohlgemerkt – Wir haben immer noch keinen Treibhauseffekt dabei! Nur eine Heuristik für die Abkühlung durch Abstrahlung in einem idealen Zustand, der ist ganz wörtlich genommen destilliert; in Temperatur und Höhe aufgebrochen, noch ohne die Präsenz von CO2. Wolken. Luft verteilt sich mit nicht-trivialer kurzer Wellenlänge über den Querschnitt. Energietransfer satt!

Bevor wir uns nun mit dem CO2 auseinandersetzen, müssen wir die Quantenmechanik und das Inzidenzspektrum berücksichtigen, dazu auf die bislang ignorierten Details des Erdbodens, der Luft und des Wassers blicken. Für die Luft brauchen wir einen Temperatur-Gradienten, der sich mit der Feuchtigkeit, der Albedo, der Bodentemperatur verändert, usw. … Die Luftmoleküle üben einen Rückstoß aus, wenn sie die einfallenden Photonen verteilen, und wenn es eine Kollision mit einem anderen Luftmolekül im rechten Zeitintervall gibt, werden sie beide einen Teil oder die gesamte Energie absorbieren und die Luft erwärmen, anstatt sie elastisch zu verteilen. Ein Molekül kann auch eine Wellenlänge absorbieren und eine Kaskade von Photonen mit einer anderen Wellenlänge emittieren (abhängig von seinem Spektrum).

Und zum Schluss müssen die Treibhausgase dazukommen, vor allem CO2, (Wasser ist schon drin). Sie bewirken eine Zunahme der ausgehenden Strahlung von der (wärmeren) Oberfläche in einigen Bändern und transferieren etwas davon auf das CO2, wo sie eingefangen bleibt, bis sie zur Spitze der CO2-Säule diffundiert ist, von wo sie mit kühlerer Temperatur emittiert wird. Die gesamte hinausgehende Kraft wird auf diese Weise aufgespalten, dabei wird das vermaledeite Schwarzkörperspektrum so moduliert, dass verschiedene Frequenzen verschiedene Wirktemperaturen haben, lokal moduliert – von nahezu allem. Temperaturgradient, Feuchtigkeitsgehalt. Wolken. Massentransport von Wärme nach oben oder unten qua Konvektion! Massentransport von Wärme nach oben oder unten qua eingefangener Strahlung in Teilen des Spektrums. Und bitte nicht die Umgehungen vergessen! Alles fließt jetzt, Wind und Verdampfung sind gekoppelt, die Zeitdauer für den Temperaturausgleich des Meeres erstreckt sich nun von „im gleichen Maß wie die Rotationsperiode“ für flache Meere bis zu tausend oder mehr Jahren. Der Ozean ist niemals im ausgeglichenen Zustand, er zieht immer an den Oberflächentemperaturen in die eine oder andere Richtung mit nennenswerter thermischer Last, die Wärme wird nicht für einen Tag, sondern für eine Woche, einen Monat, ein Jahr, eine Dekade, ein Jahrhundert, ein Jahrtausend gespeichert.

Jawohl, eine verdammt harte Nuß! Wer auch immer so etwas „gesichertes Wissen“ (settled science) nennt, muss wirklich nicht mehr ganz bei Trost sein.

Wohlgemerkt: ich habe noch nicht den solaren Magnetismus oder ernsthaftere Modulationen der Sonneneinstrahlung einbezogen, noch nicht die Neigung der Erdachse, die noch einmal alles verändert, weil damit die Zeitskalen an den Polen jährliche werden, Nord- und Südpol sind überhaupt nicht gleich. Man beachte die enormen Unterschiede ihrer thermischen Last und den ozeanischen und atmosphärischen Wärmetransport!

Eine harte Nuß. Vielleicht nehme ich sie mir einmal zum Knacken vor, wenn ich Zeit habe, wenigstens für die ersten wenigen Schritte zu Anfang. Ich möchte zumindest eine bessere Vorstellung von der Richtung der ersten kleinen Schritte gewinnen zum Bau eines Spielzeug-Modells für die Durchschnittstemperatur. (Der Begriff „Durchschnittstemperatur“ meint hier etwas Bestimmtes, nämlich bevor das System chaotisch gemacht wird).

Dr. Robert Brown

Der Aufsatz führte auf WUWT zu einer Diskussion mit derzeit über 430 Beiträgen, die wegen des Umfangs leider nicht mehr übersetzt werden können. Wer sich für die Diskussion interessiert, möge die Beiträge und das Original hier lesen.

Übersetzung: Helmut Jäger, EIKE




Der Wärmeinseleffekt (WI) als maßgeblicher Treiber der Temperaturen

Der WI lässt sich dabei in einen aktiven und einen passiven Teil aufteilen. Der aktive Teil ist der durch Zivilisationseinflüsse zusätzlich eingebrachte Energieeintrag in einen Raum. So ist allseits bekannt, dass es in der Stadt wärmer ist, als auf dem Land. Dies liegt zum einen an zusätzlich ausgebrachter Wärme durch Heizungen und Verkehr (aktiv) und/oder durch Bebauung (passiv). Dieser passive Teil ist jedoch nicht nur bei Temperaturmessstationen in der Stadt, sondern vor allem auch auf dem Land zu berücksichtigen, da durch die Kultivierung der Landschaft, sich Deutschland in den letzten 100 Jahren in der Fläche mehr änderte, als dies durch die Städtisierung erfolgte. Durch die Umwandlung von Waldgebieten (1 Quadratkilometer Buchenwald verdunstet z.B. jeden Tag 2 Millionen Liter Wasser) und Feuchtgebieten, sinkt die Verdunstungsrate dramatisch, was, da Verdunstung immer mit einer Kühlung einhergeht (auf diesem Prinzip funktioniert eine Klimaanlage), die Temperatur künstlich in die Höhe treibt. Auch ist durch die Abholzung von Waldgebieten, der Sonnenschirm sozusagen weg und die Sonnenstrahlen können nun direkt bis zum Boden gelangen und diesen großflächig aufwärmen. Von Regenwaldgebieten ist der Temperaturunterschied von Vorher zu Nachher bekannt und beträgt +16°C!

Der Wärmeinseleffekt ist also keine konstante Größe einer Station, sondern er ist, wie aus den obigen Schilderungen leicht verständlich, eine dynamische, mit der Veränderung des Raums (und der Zivilisationseinflüsse), sich mit ändernde Größe.

So ist es beim Wärmeinseleffekt  gar nicht notwendig, dass Messstationen zunehmend in die Stadt verlegt werden müssen, die Stadt kommt vielmehr zur Messstation durch die ständige Ausuferung der Bebauung. Nicht nur Gebäude, sondern Straßen, Beleuchtungen, Heizungen, Kraftwerke, Industrie- und Gewerbegebiete breiten sich täglich aus. Laut Angaben des Statistischen Bundesamtes betrug der Flächenverbrauch in Deutschland zwischen 2005 und 2008 im Durchschnitt 107 ha pro Tag.  In Baden-Württemberg beispielsweise im Jahr 2009 allein 7 ha pro Tag. Bei jedem neuen Bauwerk ist die Natur der Verlierer. Und der WI nimmt zu, weil weiträumige Wärmeinseln neu geschaffen werden.

Abbildung 1: Temperaturgang für Deutschland, Datenquelle: DWD. Bei einem Vergleich über die letzten 12 Jahre macht sich der Wärmeinseleffekt noch kaum bemerkbar. Man kann die Temperaturen direkt vergleichen. Das ist nicht möglich, wenn man größere Zeiträume vergleicht.

Völlig unberücksichtigt blieb bislang in der wissenschaftlichen Betrachtung zum WI die bereits erwähnte enorme Trockenlegung der freien Landschaft in den letzen 50 Jahren durch Sickerungsgräben entlang der Straßen und Feldwege, durch Drainagen und zigtausende Kilometer an (gelben) Sickerschläuchen, wodurch sich die physikalischen Eigenschaften des Erdbodens verändern. Das Regenwasser fließt schneller ab, die Verdunstungsrate der freien Landschaft und damit die Kühlung haben abgenommen und nehmen ständig weiter ab. Abnahme der Kühlung bedeutet umgekehrt ein Anstieg der Erwärmung. So steigt der Wärmeinseleffekt weltweit, verursacht durch gut 7 Milliarden Menschen von Jahr zu Jahr an.

Die Aussage des Deutschen Wetterdienstes, Offenbach: Auch früher habe es den WI schon gegeben, deshalb kann man ihn unberücksichtigt lassen, ist denn rundum falsch. Richtig an der Aussage ist nur, dass auch früher (z.B. vor 100 Jahren) ein WI vorhanden war, der Wert aber deutlich geringer war. Durch die fortschreitende Kultivierung der Landschaft und der vom statistischen Bundesamt genannten Zahlen, vergrößert sich der Wärmeinseleffekt von Jahr zu Jahr. Vor allem in den Alpen macht sich der WI stark bemerkbar, denn dort ist in den letzten 50 Jahren der Eingriff in die Natur, verstärkt durch das Anschwellen der Touristenströme, am größten. Bestes Beispiel ist die DWD-Messstation auf der Zugspitze, die für Temperaturvergleichsbetrachtungen wertlos ist, da sie in einer Touristenhochburg mit starker Bebauung liegt. Zudem steigt die Warmluft der Täler nach oben und damit auch die Vegetationszonen. Übrigens hat die in der Presse so oft zu hörende alpine Gletscherschmelze nichts mit menschengemachten Einflüssen zu tun, sondern basiert auf der AMO (Temperaturschwingung des Atlantikwassers) und diese wird von der Sonne bestimmt, wie die folgende Abbildung zeigt.

Abbildung 2 (Quelle: Slupetzky, 2005, Uni Salzburg) zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2002. Gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß folgt und das in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen vorlagen, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild). Dies bestätigt auch die ETH Zürich: “Alpen-Gletscherschmelze von Atlantikströmung beeinflusst?“, Geophysical Research Letters (2010), 37, L10501. Die Untersuchungen anhand von 30 Gletschern zeige, dass die Massenbilanz der Schweizer Gletscher mit der AMO korreliere, so die Forscher. Und weiter “Es zeigte sich, dass die AMO die Perioden besonders markanter Gletscherrückgänge, wie etwa in den 1940ern und seit den 1980ern, so wie Stagnation oder Zuwachs in den 1910er und 1970er Jahren, erklären kann.“

Nach diesem Exkurs wieder zum WI. Fazit: Ein direkter Temperaturvergleich von heute und vor 120 Jahren ist bei keiner Station möglich. Das ist unseriös und führt zu falschen Ergebnissen. Man müsste vom heutigen Temperatur-Wert einen Korrekturfaktor abziehen, eben den Wärmeinseleffekt. Für den Frankfurter Großflughafen beträgt der Faktor z.B. +2,5°C, denn die Klimastation steht neben der Startbahn im Strahle der heißen Abgase. Vor 100 Jahren war dort noch Wald und der Boden nicht trocken gelegt, so wie heute. Im Schnitt der 2100 Stationen Deutschlands beträgt der  WI etwa 0,1 Grad je Jahrzehnt. Die untere Linie ist zugleich der Korrekturfaktor bei Vergleichen mit früher.

Abbildung 3, Rot: Gemessene Temperaturreihe ohne Berücksichtigung des WI (dient zur jeweiligen Temperaturaussage, ist jedoch für Vergleichsbetrachtungen ungeeignet).

Blau: WI-bereinigte Vergleichstemperaturkurve (dient nicht zur Temperaturaussage, stellt jedoch die richtigen Vergleichsbedingungen und damit richtigen Vergleiche dar).

Weitere Erklärungen und Begründungen dieser Grafik, siehe:

http://www.eike-klima-energie.eu/news-anzeige/der-waermeinseleffekt-wi-als-antrieb-der-temperaturen-eine-wertung-der-dwd-temperaturmessstationen/

http://www.eike-klima-energie.eu/news-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert

http://www.eike-klima-energie.eu/news-anzeige/klimaerwaermung-in-deutschland-nicht-nachweisbar-der-dwd-hantiert-mit-falschen-daten-eine-bestandsaufnahme-der-deutschlandtemperaturen/

Die Kurzfassung dieser drei wissenschaftlichen Artikel finden Sie hier:

http://www.wahrheiten.org/blog/2011/01/27/waermeinseleffekt-taeuscht-klimaerwaermung-vor/

WI-bereinigte Daten heißt:

1)      Die Zivilisationsveränderungen durch den Menschen sind erfasst.

2)      Die Änderungen des Raumes durch die Zeit werden berücksichtigt.

Der reale Temperaturvergleich Deutschlands über die letzten 120 Jahre sieht WI-bereinigt so aus:

Abbildung 4: Auch die um den Wärmeinseleffekt korrigierten Deutschlandwerte zeigen:

(an der blauen gestrichelten Durchschnittlinie sieht man), dass zwischen 1960 und 1985 ein „Temperaturloch“ (Kaltzeit, vergleiche, die in den 1970-Jahren in Politik, Presse und Wissenschaft kursierende Furcht einer anstehenden Eiszeit) in Deutschland war und dann die Jahresmittelwerte bis zum Jahre 2000 ständig gestiegen sind. Seit über einem Jahrzehnt sinken die Temperaturen erneut, und zwar deutschland- und auch weltweit.

Zum Abschluss der Deutschlandbetrachtung eine Station, die nur einen geringen WI (WI-los ist praktisch keine Landstation, da keine Messstation und Messbedingung heute wie vor 100 Jahren ist) hat. Dies ist die DWD-Messstation auf dem Hohenpeißenberg (HPB).

Abbildung 5 zeigt die Temperaturentwicklung am HPB von 1786 – 2006. Deutlich ist ein natürliches Schwingverhalten zu sehen, deren Periode bei ca. 206 Jahren liegt (Maxima der 5 und 10-Jahrestrends).

Diese Schwingung stimmt exakt mit dem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus überein, der in 2003 sein (im Mittel) 208-jähriges Aktivitätsmaximum hatte, als ganz Europa unter einem Jahrhundertsommer stöhnte. Wie der Hauptsonnenzyklus nicht nur bei uns, sondern z.B. auch die arktische Meereisbedeckung bestimmt, hat Prof. Mörner (bis 2003 Präsident der INQUA, International Union for Quaternary Research) ermittelt.

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt Abbildung 6, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde vom Autor um den de Vries/Suess-Sonnenzyklus (Zeiten) ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erleben Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre, entgegen den Computerspielen der ACIA, eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist. Die letzte Kaltphase um 1900 wurde übrigens der RMS Titanic zum Verhängnis, als auf ihrer vergleichsweise südlichen Route Eisberge auftauchten, mit denen „normalerweise“ (in wärmeren Zeiten) niemand dort rechnete, wie Abbildung 7 zeigt.

 

Abbildung 7, Quelle:  Joanna D. Haigh, Blackett Laboratory, Imperial College London, zeigt die Anzahl der Sonnenflecken und das Eisbergaufkommen am Breitengrad 48 Nord. Insbesondere zwischen 1900 und 1914 drangen Eisberge weit nach Süden vor. Weiter, als üblich. In diesem Zeitraum hatte der Hauptsonnenzyklus sein Minimum und die solare Aktivität war entsprechend gering, was zum einen die Meerestemperatur senkte (siehe AMO) und zum anderen das arktische Eisvolumen verstärkte (siehe obige Untersuchungen von Dr. Mörner). Rechts: Zeitgenössiges Gemälde.

In größeren Ländern als Deutschland, wie z.B. den USA, auf denen wegen der Flächengröße noch Gebiete mit sehr geringem menschlichen Einfluss zu finden sind, wird schnell deutlich, wie stark der WI in urbanisierten Gebieten wirkt. Denn dort sind Messstationen zu finden, wo die Raumveränderung durch die Zeit gering und damit der WI gering ist. Eine solche Station, die praktisch keinen Wärmeinseleffekt hat, da die Umgebung fast keine Veränderung erfahren hat, ist „Dale Enterprise Virginia“. So kann es niemanden mehr überraschen, dass dort bei den real gemessenen Temperaturen der gleiche Verlauf zu sehen ist, wie bei den WI-bereinigten Temperaturen für Deutschland. Ohne den geringen Wärmeinseleffekt hätte es in den letzten 100 Jahren überhaupt keine Erwärmung gegeben, Stand 2010, da der geringe, sonnenbasierte Temperaturanstieg gegen Ende des 20. Jahrhunderts, mittlerweile, durch die zurückgehenden Temperaturen aufgebraucht ist. Der WI ist somit der primäre Temperaturtreiber in den letzten 100 Jahren, was bei einem WI-Wert für Deutschland von ca. +1,2°C, gegenüber der sonnenbasierten Erwärmung von ca. +0,6°C im 20. Jahrhundert, offensichtlich wird.

Abbildung 8, Quelle: http://sppiblog.org/news/contribution-of-ushnc-and-giss-bias-in-long-term-temperature-records-for-a-well-sited-rural-weather-station zeigt den Temperaturgang der Messstation Dale Enterprise Virginia.

Nun kann zurecht eingewendet werden, dass eine einzige Station, die nur regional „ihr“ Temperaturprofil abdeckt, kein hinreichender Beleg dafür ist, dass die vom DWD und der WMO herausgegebenen Temperaturreihen für Vergleichsbetrachtungen wertlos sind und die EIKE-Vergleichstemperaturreihe die korrektere Sichtweise abbildet. Daher soll zum Abschluss der Bereich der Erde betrachtet werden, der die größte Fläche und die geringste Bebauung aufweist – die Meeresflächen. Beginnend mit der bereits erwähnten AMO (Atlantic Multidecadal Oscillation).

Abbildung 9 zeigt die Abweichungen der Oberflächentemperatur im Nordatlantik (Quelle: NOAA), dazu eingezeichnet, die natürliche Schwingung der AMO von gut 60 Jahren, die auf die Sonne zurück zu führen ist. Abbildung 9 zeigt deutlich keinen Temperaturtrend. Gleiches Bild im Pazifik.

Abbildung 10 zeigt die Wassertemperaturen (Abweichungen vom Mittelwert, Datenquelle, ebenfalls NOAA) im Pazifik. Auch hier: kein Temperaturtrend. Ebenso im Nordpazifik (Abbildung 11).

Abbildung 11: Temperaturgang (Abweichungen vom Mittelwert) im Nordpazifik (PDO – Pacific Multidecadal Oscillation). Auch hier kein Temperaturtrend, sondern Schwingcharakter. Ebenso ist im Südatlantik kein Temperaturtrend zu sehen (Abbildung 12).

Abbildung 12: Meerestemperatur (wie oben) im Südatlantik. Der Temperaturgang spricht für sich. Auch bei den globalen Meerestemperaturen lassen die Temperaturschwankungen keinen steigenden Trend erkennen (Abbildung 13).

Abbildung 13: Temperaturabweichungen der globalen Meerestemperaturen (blau).

Da die obigen Wassertemperaturen „lediglich“ mehrere Jahrzehnte abdecken, ein Blick über die letzten 1.000 – 2.000 Jahre.

Abbildung 14 (http://www.abd.org.uk/pr/274.htm) zeigt die mittlere Oberflächentemperatur der letzten 1.100 Jahre. Deutlich ist ein Schwingungsmuster von ca. 1.000 Jahren zu sehen. Ca. alle 500 Jahre wechseln sich Warm-und Kaltzeiten ab, was auf die variable Sonne zurück zu führen ist. Um 1650 (Kleine Eiszeit) waren die tiefsten Temperaturen im Betrachtungszeitraum und im 13. Jahrhundert die höchsten. Dies stimmt weitgehend mit dem Schwankungsmuster des Meeresspiegels aus K.-E. Behre, “Probleme der Küstenforschung“, Band 28, überein.

Wie Abbildung 14 deutlich zeigt, war die Temperatur während des Klimaoptimums im Mittelalter deutlich höher als heute. Dies legt den Schluss nahe, dass auch der Meeresspiegel seinerzeit höher als heute war (thermische Ausdehnung).

Abbildung 15 zeigt die globalen Meeresspiegelschwankungen der letzten 1.800 Jahre nach Aslak Grinsted, Moberg et al., 2005 und Jevrejeva, 2006, Quelle: (http://www.c3headlines.com/). Um das Jahr 1200 lag im Betrachtungszeitraum der höchste Wert, deutlich über dem heutigen. Seit dem Klimaminimum der “Kleinen Eiszeit“ (rote Linie), steigt der Meeresspiegel wieder global an.

In der mittelalterlichen Warmzeit lagen der globale Meeresspiegel und die globale Meerestemperatur höher als heute (siehe auch http://www.oism.org/pproject/s33p36.htm#Message5976). Trotzdem lag z.B. Holland nicht 7 m unter Wasser, wie dies noch jüngst von Klimaalarmisten des AWI bei weiterer Erwärmung zu hören war. Dies zeigt, was von solchen Horrorszenarien, die gebetsmühlengleich von einigen Instituten verbreitet werden, zu halten ist.

Fazit:

Während die unbebauten und WI-losen Flächen der Erde, die Meeresflächen, keinen Temperaturtrend erkennen lassen und somit das gleiche Bild liefern, wie die gezeigte Station in Virginia (Abbildung 7), sowie die von EIKE ermittelte, richtige WI-Temperaturvergleichskurve für Deutschland (Abbildung 3 und 4) , muss davon ausgegangen werden, dass sowohl die DWD-Temperaturreihe, als auch die von der WMO jährlich veröffentlichte Globaltemperaturreihe für Vergleichsbetrachtungen wertlos sind, da dort der WI die gemessenen Temperaturen in die Höhe treibt und Vergleiche zu früheren Temperaturen damit sinnlos macht, was nicht verwundern kann, befinden sich über 50% der weltweiten Temperaturmessstationen auf Flughäfen und damit im Strahle der heißen Flugzeugabgase. DWD und besonders die WMO, weisen denn mit ihren Temperaturreihen nichts anderes aus, als die Zunahme des weltweiten Luftverkehrs. Ob zu dieser (richtigen) Erkenntnis jedoch ein teures Netz von Temperaturmessstationen notwendig ist, darf bezweifelt werden.

Raimund Leistenschneider – EIKE

Josef Kowatsch – Hüttlingen




Energiewende wirkt: Jeder fünfte Industriebetrieb verlegt Aktivitäten ins Ausland, oder plant dies!

Nicht die Eurokrise, sondern steigende Energiepreise nennen die Unternehmen als ihr größtes Problem: 86 Prozent befürchten, dass sie für ihr Geschäft an Bedeutung gewinnen. Mehr als der Hälfte machen mögliche Stromausfälle oder Spannungsschwankungen Sorgen….hier weiterlesen

Wie auch Prof. Ameling gegenüber dem Minister Ramsauer anläßlich des 4. Energiepoltischen Dialog der CDU/CSU Bundestagsfraktion ausführte, bedeutet die "Energiewende" den Untergang der energieintensiven Industrie in Deutschland. Minister Ramsauer verwies als Antwort auf seinen Kollegen Rösler von der FDP, der dafür zuständig sei, erklärte aber gleichzeitig auch dass Übertreibungen vermieden werden müssten. Was immer das bedeutet!

Die Redaktion




Verbraucherschützer Krawinkel unterstützt weiter das EEG

Auf dem 4. Energiepolitischen Dialog der CDU/CSU Fraktion im Deutschen Bundestag war auch (neben mehr als 300 Besuchern) Dr. Krawinkel anwesend. Seit längerem hatte ich versucht mit Krawinkel, als dem zuständigen Verbraucherschützer im Bundesverband der Verbraucherzentralen (VZBV), ins Gespräch zu kommen. Ich war der irrigen Ansicht, dass der Mann seinen Job als Verbraucherschützer ernst nähme. Wollte es zumindest testen.

Nach mehrmaligen höflichen Anfragen nach einem Gesprächstermin, die allesamt unbeantwortet blieben, ging der erneuten Kontaktaufnahme diese Mail vom 13.1.12 voraus:

Sehr geehrter Herr Dr. Krawinkel,
trotz zweier Anläufe meinerseits, war es Ihnen bisher leider nicht möglich mir einen Terminvorschlag, bzw. noch nicht mal auf meine Mails (vom 27.9.11 und 19.12.11, Ø s.u.) eine Antwort zu geben.
Da wir alle Verbraucher sind und immer noch davon ausgehen, dass Sie als zuständiger Bereichsleiter beim vzbw für die Verbraucher da sind, überdies aus Bundes- dh. auch unseren Steuermitteln, finanziert werden (so jedenfalls Ihre Website: Der Kernhaushalt wird zu etwa 85 Prozent durch Mittel aus dem Bundesministerium für Verbraucherschutz, Ernährung und Landwirtschaft (BMELV) finanziert….Diese Projekte werden von verschiedenen Bundesministerien, aber auch aus Mitteln der Europäischen Union finanziert.) und Ihr Verband nach landläufiger Ansicht sowie eigenem Bekunden unabhängig ist (Der Verbraucherzentrale Bundesverband ist an keinerlei Weisungen des Bundesverbraucherministeriums gebunden. Auch in Personalfragen, etwa bei der Berufung und Entlastung des Vorstands, ist der Verbraucherzentrale Bundesverband in seinen Entscheidungen völlig autonom. ) möchte ich Sie nochmals, sehr höflich aber auch nachdrücklich, um einen Terminvorschlag für ein Gespräch bitten.
Da am 18.1.11 14:30 Uhr der 4. Energiepolitische Dialog der CDU/CSU stattfindet und dazu zwei unserer Experten zusätzlich anreisen, würde ich es begrüßen, wenn Sie den 18.1.11 gegen 11:30 Uhr dafür reservieren könnten. Aber auch jeden andere Termin würden wir gerne annehmen,

Zu Ihrer Information sende ich Ihnen den jüngsten Artikel von Andreas Mihm aus der FAZ, den Sie sicher kennen, der aber nur einen Teil der traurigen Wahrheit über das ungehemmte Schröpfen der Verbraucher dank der Subventionen für "Erneuerbare" beleuchtet.

Ich verweise zudem auf den gut recherchierten und wichtigen Beitrag von Dr. Keil (ehemals am Bundesforschungsministerium) "Die Energiewende ist bereits gescheitert" den Sie hier einsehen (http://www.eike-klima-energie.eu/news-cache/die-energiewende-ist-schon-gescheitert-mit-update-4112/) bzw. herunterladen können.
Ich hoffe sehr auf Ihre Bereitschaft zum Dialog, wie auch von Ihnen anlässlich unserer kurzen Begegnung am 26.9.201 bekundet und wünschen Ihnen und Ihrem Team noch ein gutes und erfolgreiches Neues Jahr.

Mit freundlichen Grüßen
Ihr
Michael Limburg
Vizepräsident EIKE (Europäisches Institut für Klima und Energie)
Tel: +49-(0)33201-31132
http://www.eike-klima-energie.eu/

Wie auch zuvor, erfolgte auf diese Mail keine Antwort.

Bei dem anschließenden Versuch meinerseits mit Herrn Krawinkel anlässlich der Tagung persönlich ins Gespräch zu kommen, wurde ich brüsk mit den Worten (sinngemäß) beschieden.

"Mit Ihnen spreche ich nicht. Ich habe mir Ihre Website angesehen, Sie sind ja dafür, das EEG komplett abzuschaffen. Das ist mit mir auf keinen Fall zu machen."

Sprach´s, drehte sich um und ließ mich stehen. Bei der anschließenden Podiumsdiskussion – das Thema war "Spannungsfeld Energieeffizienz" – verteidigte er die Energiewende vehement, allenfalls kosmetische Änderungen wollte er angehen.

Damit machte er sich u.E.n. erneut zum Büttel der Regierung, statt die berechtigen Interessen der Verbraucher zu vertreten. 

Der ebenfalls als Podiumsteilnehmer anwesende Dr. Stefan Kohler – seines Zeichens Chef der DENA– verteidigte in der Podiumsdiskussion ebenfalls vehement die Energiewendebeschlüsse und begründete dies u.a mit der Feststellung, dass doch jeder sehen müsse, dass diese nötig sei, weil z.B. die Strompreise für den Endverbraucher seit 8-10 Jahren von rd. 18 ct/kWh auf nunmehr knapp 26 ct/kWh gestiegen seien.

Er unterließ es aber darauf hinzuweisen, dass der beklagte Anstieg einzig und allein auf erhöhte Steuern und Abgaben zurückzuführen ist. Also  von einer Regierung angetrieben wird, die wiederum steigende Strompreise als Begründung heranzieht die Strompreise weiter zu steigern. Eine noch irreführendere Argumentation ist schwer vorstellbar. So sieht also Verbraucherschutz und "Energiekompetenz"(1) in Deutschland aus. Beides Worthülsen ohne Inhalt! Denn nach wie vor gilt das grüne Glaubensbekenntnis:

"Auch die kleinste Glühbirne lässt ein Stück Polkappe schmelzen*".

Michael Limburg EIKE

(1) Aus der Website der DENA

Die Deutsche Energie-Agentur GmbH (dena) ist das Kompetenzzentrum für Energieeffizienz, erneuerbare Energien und intelligente Energiesysteme. Das Leitbild der dena ist es, Wirtschaftswachstum zu schaffen und Wohlstand zu sichern – mit immer geringerem Energieeinsatz. Dazu muss Energie so effizient, sicher, preiswert und klimaschonend wie möglich erzeugt und verwendet werden – national und international.

* gefunden im wunderbaren Artikel von Richard Kämmerlings in "Die Welt" vom 20.1.12 "Wir sind schuld"




Tisdale nimmt sich Foster & Rahmstorf 2011 vor

UPDATE 2 (5. Januar 2012): BITTE LESEN! Drei Dinge: Erstens, ich habe den Unterschied zwischen einem „linearen Zeittrend“ (Foster und Rahmstorf, hiernach F&R) und einem „linearen Trend“ nicht verstanden. Meine Konfusion führte auch bei vielen Bloggern zu Konfusion, die meinen Beitrag gelesen und bei WattsUpWithThat kommentiert haben (hier). Dafür möchte ich mich entschuldigen. Für alle Interessierten: der „lineare Zeittrend“ wird unter der Überschrift „Data as trend plus noise” bei Wikipedia beschrieben (hier).

Zweitens habe ich zusätzlich zu MEI, AOD und TSI als unabhängige Variable fälschlich die Werte des linearen Trends verwendet, die EXCEL mit seiner LINEST-Funktion aus den monatlichen GISS-Daten als vierte unabhängige Variable berechnet hat. Und dies addiert sich zu der Konfusion jener, die die Gleichungen interpretiert haben. In der Rückschau denke ich, dass ich diese Gleichungen nicht hätte bringen sollen. Stattdessen hätte ich eine Tabelle bringen sollen, in der die Koeffizienten aufgelistet sind.

Drittens, in der Eile, mit der ich diesen Beitrag veröffentlicht habe, ist es mir nicht gelungen, die Schritte zur Bearbeitung der Daten zu erklären, was Vielen beim Betrachten der Gleichungen und Graphen konfus erscheinen mochte. Ich habe die Regressionsanalysen mit den „rohen“ monatlichen Daten durchgeführt; danach habe ich unter Verwendung der sich ergebenden Koeffizienten die monatlichen Daten angepasst. (Ich hatte einen Graphen unter Verwendung monatlicher Daten vorbereitet, ähnlich der Abbildung 4 bei F&R mit den Jahren 1979 bis 2010 als Basis. Aber ich hatte den Eindruck, dass meine Version ein unintelligenter Spaghetti-Graph mit wenig Aussagekraft war, also habe ich ihn nicht gebracht). Dann habe ich die angepassten Daten in jährliche Daten umgerechnet und schließlich 1979 bis 2010 als Basisjahre herangezogen.

Unter dem Strich: Obwohl ich einen linearen Trend mit einem linearen Zeittrend verwechselt habe, und obwohl ich nicht alle zusätzlichen Feinheiten in den von F&R (2011) verwendeten Daten eingeschlossen habe, ist es schwer, irgendeinen Unterschied zwischen der Abbildung 7 von mir und der Abbildung 5 von F&R zu erkennen. Es gab Kommentare von anderen Bloggern zu dem Beitrag auf WUWT, die mit unterschiedlichen Methoden zu ähnlichen Ergebnissen gekommen waren. Heißt das, dass die Ergebnisse von F&R (2011) so stichhaltig sind wie in einigen Kommentaren bei WUWT behauptet? Nein. ENSO ist ein Prozess, kein Index, und es kann nicht für lineare Regressionsanalysen herhalten. Dies wurde klar gezeigt und detailliert diskutiert unter der Überschrift ENSO IS NOT AN EXOGENOUS FACTOR.

Update 1: (3. Januar 2012): Unter dieser Überschrift habe ich den Wortlaut eines Satzes verändert und das Wort „create“ mit dem Wort „recharge“ ersetzt.

Übersicht

Dieser Beitrag befasst sich mit einem merkwürdigen Aspekt der multiplen linearen Regressionsanalyse von Foster and Rahmstorf der in ihrem 2011 Papier “Global Temperature Evolution 1979–2010” zu finden ist. Ich finde es sehr seltsam, dass der Faktor, auf denen das Papier zu beruhen scheint, nicht im Detail hier vorgestellt wird. Zur Klarstellung für diesen Teil des Beitrages, ich will nicht implizieren, dass  etwas falsch ist mit diesem spezifischen Aspekt des Papiers, aber ich bin auch nicht einverstanden mit ihm. Ich habe es jetzt zur Diskussion hier vorgelegt.

Der zweite Teil dieses Beitrags ist eine Diskussion über eine der exogenen Faktoren, den Foster und Rahmstorf (2011) versucht haben, zu entfernen. Das Problem dabei: Es ist kein exogener Faktor. Und gibt es eine dritte Diskussion über einen Datensatz in einem Tabellenblatt vom Hauptautor Grant Foster (aka Tamino), der aber seltsamerweise nicht im Paper selbst erwähnt wird.

Es ist nicht überraschend, das das Foster und Rahmstorf (2011) Papier  auf den Blogs der Befürworter der anthropogenen globalen Erwärmung die Runde gemacht hat. Joe Romm lobte es mit dem Post "Sorry, ihr Leugner, Die Studie des "True Global Warming Signals" zeigt eine "bemerkenswert stabile" Rate der menschgemachten Erwärmung seit 1979. Und SkepticalScience erläutert das Papier in seinem Beitrag zu Foster und Rahmstorf "Sie messen das Global Warming Signal". Und auch auf RealClimate gab es eine lobende Erwähnung durch die Aufnahme als eines der Themen in ihren Neuigkeiten zur globalen Temperatur.

Einführung

F&R (2011) haben versucht, aus 5 globalen Temperaturdatensätzen die linearen Effekte von drei Faktoren zu entfernen, von denen bekannt ist, dass sie Variationen der globalen Temperatur hervorrufen.

Sie überdeckten die Periode von 1979 bis 2010. Die offensichtliche Absicht der Studie ist es zu zeigen, dass die anthropogene globale Erwärmung unvermindert in allen Datensätzen andauert. Die unabhängigen Variablen, die im Abstract von F&R (2011) aufgelistet werden, sind El Niño-Southern Oscillation, vulkanische Aerosole und solare Variationen. F&R (2011) scheint eine viel klarere Version des Beitrags von Tamino (Grant Foster) vom 20. Januar 2011 zu sein: How Fast is Earth Warming? Nach der Veröffentlichung dieser Studie hat sie Tamino in seinem Beitrag The Real Global Warming Signal diskutiert und freundlicherweise die Quelldaten und den Code in seinem Beitrag Data and Code for Foster & Rahmstorf 2011 zur Verfügung gestellt. Die Daten von Tamino finden sich hier.  Es ist eine .zip-Datei, die Tamino in eine .xls-Datei umbenannt hat, um, wie er erklärt, „die Weltpresse glauben zu machen, dass es sich um eine Excel-Datei handelt. Man muss einen „Rechtsklick und dann Speichern unter…“ durchführen und dabei die Rückbenennung in eine .zip-Datei vornehmen, um sie öffnen zu können.

Wie oben erwähnt haben F&R (2011) die exogenen Faktoren aufgelistet, die als unabhängige Variable in der multiplen Regressionsanalyse als “El Niño/southern oscillation, volcanic aerosols and solar variability“ bezeichnet werden. Komischerweise haben F&R drei Absätze später bei der nochmaligen Auflistung der Faktoren bei der multiplen Regressionsanalyse eine vierte Variable eingeführt: linearer Trend. Der letzte Satz des dritten Absatzes unter der Überschrift „Introduction“ lautet:

„Der Einfluss exogener Faktoren wird durch eine multiple Regression der Temperatur in Abhängigkeit von ENSO, vulkanischer Einflüsse, der gesamtsolaren Einstrahlung und einem linearen Zeittrend durchgeführt, um die globale Erwärmung anzugleichen, die seit 32 Jahren Gegen¬stand der Analyse ist.“

Aber eine der Grundlagen dieser Studie ist es zu illustrieren, wie ähnlich sich die Trends sind, nachdem die Anpassungen für ENSO, Solarstrahlung und vulkanischer Aerosole vorgenommen worden waren, einschließlich der linearen Trends der Datensätze, die in der Regressionsanalyse als eigenartig auffielen. In der Folge machte ich mich daran, nach einem anderen Grund zu suchen, warum F&R diesen linearen Trend in ihre Regressionsanalyse einfließen lassen mussten. Wie ich im Folgenden anmerke, benutze ich kommerzielle Zusatzsoftware für EXCEL, um diese multiple Regressionsanalyse durchzuführen. Da ich keine anderen Mittel habe, die Resultate zu verifizieren, anders als die Ergebnisse eines ihrer Graphen zu reproduzieren, bitte ich Sie, die folgenden Ergebnisse zu bestätigen, wenn Sie diese Möglichkeit haben.

Warum haben sich F&R genötigt gesehen, einen linearen Trend in die multiple Regressionsanalyse einzuführen?

Den einzigen Grund, den ich dafür erkennen kann, ist Folgender: Der Anpassungsfaktor für die solaren Daten ist das falsche Vorzeichen, wenn in der multiplen Regressionsanalyse nur ENSO, solar und vulkanisches Aerosol als unabhängige Variable eingehen. Lassen Sie mich das detaillierter erklären. Aber noch einmal bitte ich zu verstehen, dass ich in diesem Abschnitt des Beitrags nicht impliziere, dass mit diesem spezifischen Aspekt der Studie etwas nicht stimmt; und noch einmal: ich stimme damit nicht überein. Ich fand es nur interessant.

Mit den von Tamino zur Verfügung stellten Daten, habe ich Analyse-It for EXCEL– Software benutzt, um eine multiple Regressionsanalyse durchzuführen. Meine ursprüngliche Analyse schließt ein Taminos Lieblingsdatensatz der Globalen Temperatur nach GISS als abhängige Variable und den mehrdimensionalen ENSO-Index (MEI), die totale Solarstrahlung (PMOD) und die Daten zur Dichte vulkanischen Aerosols (AOD) als unabhängige Variable. Ich habe meine MEI-Daten vier Monate verzögert dargestellt, die PMOD-Daten einen Monat und die AOD-Daten sieben Monate in Übereinstimmung mit Tabelle 1 von F&R (2011), die auch in diesem Beitrag Tabelle 1 ist. Und in dieser Analyse habe ich den GISTEMP linearen Trend als unabhängige Variable nicht berücksichtigt.

Tabelle 1:

Die multiple Regressionsanalyse allein mit den ENSO (MEI), Solar (PMOD) und vulkanische Aerosole (AOD) ergibt sich aus Gleichung 1:

EQUATION 1:

GISS = 123.6 + 0.06769MEI(4m lag) – 0.09025TSI.PMOD(1m lag)– 3.837AOD (7m lag)

[4m lag etc. = 4 Monate Verzögerung usw. Gilt auch für alle anderen Gleichungen. A. d. Übers.]

Ich habe den Term für die solare Variable [in der Gleichung] in Fettdruck dargestellt, um die Tatsache hervorzuheben, dass das Vorzeichen negativ ist. Er müsste positiv sein, um die Ergebnisse von F&R (2011) zu reproduzieren. Die Vorzeichen von ENSO und für das vulkanische Aerosol entsprechen dem, was man erwartet, siehe Abbildung 1. Gegensätzlich zu F&R ist lediglich das Vorzeichen des Solarkoeffizienten, wie Abbildung 2 zeigt (welche ihre Abbildung 7 ist).

Abbildung 1

HHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHH

Abbildung 2

Und das ergibt einen monumentalen Unterschied zum Ergebnis von F&R (2011). Wenn wir die GISS-Daten der Temperatur mit den Faktoren aus Gleichung 1 anpassen, ist der Anstieg nicht kontinuierlich. Siehe dazu Abbildung 3. Das Jahr mit der globalen Temperaturspitze der adjustierten GISS-Daten ist das Jahr 2002.

Abbildung 3

Um die Ergebnisse von F&R (2011) zu stützen, habe ich einen linearen Trend von 0,167°C pro Dekade zu den Anomaliedaten von GISS als unabhängige Variable hinzugefügt. Die Verzögerungen von ENSO (MEI), Solar (PMOD) und vulkanisches Aerosol (AOD) bleiben die gleichen wie zuvor.

Die multiple Regressionsanalyse mit ENSO (MEI), Solar (PMOD) und vulkanisches Aerosol (AOD) und dem linearen Trend ergibt sich aus Gleichung 2:

EQUATION 2:

GISS = -91.43 + 1.024Trend + 0.0761MEI(4m lag) + 0.06694TSI.PMOD(1m lag)– 2.334AOD (7m lag)

Das Vorzeichen des Koeffizienten der Sonneneinstrahlung stimmt jetzt mit F&R überein, wie Abbildung 4 zeigt. Man beachte, dass die Einführung des linearen Trends als unabhängige Variable auch die Skalierung der anderen drei Variablen verändert. Es hat den Skalierungsfaktor der ENSO-Daten etwas zunehmen lassen und den Skalierungsfaktor des vulkanischen Aerosols signifikant abnehmen lassen. Natürlich ergibt die Einführung des Trends als unabhängige Variable mit der Änderung des Vorzeichens der Solarstrahlung auch mit den GISS-Daten das von F&R gewünschte Ergebnis, Abbildung 5, mit einem relativ stetigen Temperaturanstieg während des 32-jährigen Zeitraumes. Und man beachte, dass der Trend von 0,172°C pro Dekade mit den Ergebnissen von F&R (2011) vergleichbar ist, die in Tabelle 1 gelistet sind.

Abbildung 4

HHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHH

Abbildung 5

Natürlich habe ich die Trendanpassung aus Gleichung 2 nicht eingeführt (und F&R (2011) konnten sie nicht einführen), als ich die korrigierten Daten in Abbildung 5 gezeigt habe. Nachdem die Trendanpassung mit eingeschlossen war, würden die korrigierten Daten keinen Trend aufweisen. Das bedeutet: wie es scheint, mussten F&R (2011) den Trend in den GISSTEMP-Daten in die Regressionsanalyse einführen, nur um das Vorzeichen des solaren Einflusses zu bekommen, das sie haben wollten.

F&R (2011) hätten ähnliche Faktoren der Skalierung für die ENSO (MEI)-, PMOD- und AOD-Daten erhalten, wenn sie die GISS-Temperaturdaten nur trendbereinigt hätten.

EQUATION 3:

Detrended GISS = -86.31 + 0.0759MEI(4m lag) + 0.0632TSI.PMOD(1m lag) – 2.37AOD (7m lag)

Das umgekehrte Vorzeichen des solaren Einflusses haben alle globalen Datensätze der Temperatur gemeinsam.

Nun könnte man geneigt sein zu fragen, ob der GISS-Datensatz der globalen Temperatur der einzige Datensatz mit diesen Ergebnissen ist. Die Antwort lautet nein. Wenn der lineare Trend nicht in die linearen multiplen Regressionsanalysen eingeführt wird, steht das Vorzeichen des Solarkoeffizienten immer im Gegensatz zu dem, was F&R (2011) hätten benutzen müssen für die NCDC und HADCRUT Land- plus Wassertemperaturdaten sowie für die Temperaturdaten der unteren Troposphäre von RSS und UAH. Die Gleichungen 4 bis 7 liegen den Regressionsanalysen dieser Datensätze zugrunde. Die Verzögerungen sind die gleichen wie in Tabelle 1 oben gelistet:

EQUATION 4 (NCDC Land Plus Meeresoberflächentemperatur):

NCDC = 109.1 + 0.05495MEI(2m lag) – 0.0796TSI.PMOD(1m lag)– 3.113AOD (5m lag)

EQUATION 5 (Hadley Centre HADCRUT Global Surface Temperature Anomalies):

HadCRUT3v = 92.21 + 0.06421MEI(3m lag) – 0.0673TSI.PMOD(1m lag)– 3.293AOD (6m lag)

EQUATION 6 (RSS MSU Lower Troposphere Temperature Anomalies):

RSS33 = 61.44 + 0.1285MEI(5m lag) – 0.04489TSI.PMOD(0m lag)– 4.863AOD (5m lag)

EQUATION 7 (UAH MSU Lower Troposphere Temperature Anomalies):

UAH = 72.94 + 0.1332MEI(5m lag) – 0.05338TSI.PMOD(0m lag)– 5.139AOD (6m lag)

Wenn wir diese Koeffizienten verwenden, ergibt sich aus den fünf Datensätzen keineswegs der nette kontinuierliche Anstieg der globalen Temperatur, den F&R so gerne präsentiert hätten, wie Abbildung 6 zeigt. Für die drei Datensätze (GISS, HADCRUT, NCDC) war das Jahr 2002 das wärmste. Lediglich die beiden Datensätze der Temperaturanomalien in der unteren Troposphäre zeigen 2010 als das wärmste Jahr.

Abbildung 6

Und wie zu erwarten war, wenn die linearen Trends der anderen globalen Temperaturdatensätze als unabhängige Variable mit einbezogen werden, wird das Vorzeichen des Solarkoeffizienten positiv. Siehe die Gleichungen 8 bis 11.

EQUATION 8 (NCDC Land Plus Ocean Surface Temperature, with trend):

NCDC = -106.7 + 1.085Trend + 0.06832MEI(2m lag) + 0.07813TSI.PMOD(1m lag)– 1.68AOD (5m lag)

EQUATION 9 (Hadley Centre HADCRUT Global Surface Temperature Anomalies, with trend):

HadCRUT3v = -119.2 + 1.093Trend + 0.07519MEI(3m lag) + 0.08723TSI.PMOD(1m lag)– 1.858AOD (6m lag)

EQUATION 10 (RSS MSU Lower Troposphere Temperature Anomalies, with trend):

RSS33 = -135.5 + 1.05Trend + 0.1342MEI(5m lag) + 0.09923TSI.PMOD(0m lag)– 3.479AOD (5m lag)

EQUATION 11 (UAH MSU Lower Troposphere Temperature Anomalies, with trend):

UAH = -105.7 + 0.9953Trend + 0.1381MEI(5m lag) + 0.07742TSI.PMOD(0m lag)– 3.871AOD (6m lag)

Schließt man die linearen Trends in die multiplen Regressionsanalysen mit ein, ergeben die Koeffizienten aus den obigen Gleichungen die Anpassungen, die F&R (2011) präsentiert haben, Abbildung 7. Ich habe ihre Abbildung 5 als Abbildung 8 als Referenz hier mitgezeigt.

Abbildung 7

HHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHH

Abbildung 8

Die Annahme über den linearen Trend

Ich bin sicher, dass irgendeiner versuchen wird zu argumentieren, dass die Mitberücksichtigung des Trends in den Regressionsanalysen notwendig ist, da die auf Computermodellen basierenden Studien gezeigt haben, dass der Anstieg der globalen Temperatur in der Periode 1979 bis 2010 durch anthropogene Antriebe verursacht worden ist. Aber natürlich setzt diese Argumentation voraus, dass man die Klimamodelle verwenden kann, den Grund für einen Anstieg der globalen Temperatur während jeder beliebigen Periode zu bestimmen. Wir haben vor Kurzem gezeigt und diskutiert, dass die vom IPCC in ihrem 4. Zustandsbericht verwendeten  Klimamodelle die globalen Temperaturen in keiner Periode des 20. Jahrhunderts darstellen konnten. Siehe hierzu den zusammenfassenden Beitrag  hier. Das zweite Problem mit ihrer Annahme besteht darin, dass die globalen Ozeane, die etwa 70% der Erdoberfläche überdecken, während der Satellitenära keine Anzeichen einer anthropogenen globalen Erwärmung zeigen. Und das bringt uns zu…

ENSO ist kein exogener Faktor

F&R (2011) haben versucht, ENSO als einen exogenen Faktor von den Instrumentenaufzeichnungen abzuziehen. Aber ENSO ist kein exogener Faktor. ENSO ist ein gekoppelter Ozean-Atmosphäre-Prozess, der periodisch während eines El Niño Wärme in die Atmosphäre bringt. Der El Niño verursacht Änderungen in der atmosphärischen Zirkulation, was zu variierenden Temperaturen außerhalb des östlichen tropischen Pazifiks führt, teils Erwärmung, teils Abkühlung, aber insgesamt überkompensieren die warmen Gebiete die kühlen, und die globale Temperatur steigt als Reaktion auf einen El Niño. Die Verteilung von Erwärmung und Abkühlung während eines La Niña sind denen eines El Niño ähnlich, aber die Vorzeichen sind umgekehrt. Und das ist wirklich alles, worauf Studien wie die von F&R (2011) die Hoffnung begründen können, dass sich die Berücksichtigung von ENSO in den Regressionsanalysen auszahlt. Aber ENSO bedeutet noch viel mehr.

ENSO ist auch ein Prozess, der das vom El Niño selbst übrig gelassene Warmwasser umverteilt und die Verteilung des El-Niño-Warmwassers außerhalb des östlichen tropischen Pazifik verstärkt. Bei dieser Umverteilung wird warmes Wasser polwärts transportiert sowie in die angrenzenden Ozeanbecken während eines einem El Niño folgenden La Niña. La Niña-Ereignisse erwärmen auch einen Teil des Warmwassers verursacht durch El Niño. Manchmal „überladen“ La Niña-Ereignisse den tropischen Pazifik insofern, als sie mehr tropische Ozeanwärme des Pazifiks erzeugen als vorher durch El Niño entstanden war. Das war so während der La Niña-Ereignisse 1973/74/75/76 und 1995/96. Siehe Abbildung 9. Das La Niña-Ereignis von 1973/74/75/76 stellte den Initial-“Treibstoff” für den Super El Niño von 1982/83 und den mehrjährigen El Niño von 1986/87/88. Und der „El Niño des Jahrhunderts” 1997/98 wurde durch La Niña von 1995/96 angeregt. Der Prozess ENSO kann durch lineare Regression nicht in einem Index berücksichtigt werden. Dies wurde in der Einführung zu dem Beitrag ENSO Indices Do Not Represent The Process Of ENSO Or Its Impact On Global Temperature illustriert und diskutiert.

Abbildung 9

F&R (2011) bezogen sich auf Trenberth et al. (2002) Evolution of El Nino–Southern Oscillation and global atmospheric surface temperatures” als eine ihrer Referenzen zu ENSO. Aber Trenberth et al. (2002) erwähnen das folgende Dementi im zweiten Absatz ihrer Schlussfolgerungen (ihr Absatz 52, Fettdruck von mir):

Das in dieser Studie benutzte wesentliche Tool ist die Korrelation und Regressionsanalyse, die durch kleinste Quadrate-Anpassungen [?] dazu tendiert, größere Ereignisse zu betonen. Dies erscheint angebracht, weil in diesen Ereignissen das Signal ganz klar größer ist als das Rauschen. Mehr noch, diese Methode wichtet jedes Ereignis angemessen (anders als in vielen Komposit-Analysen). Obwohl es möglich ist, die Regression dazu zu verwenden, den linearen Anteil des globalen Temperatursignals in Zusammenhang mit ENSO zu eliminieren, weichen die regional zum globalen Mittel beitragenden Prozesse erheblich voneinander ab, und die lineare Annäherung verlässt wahrscheinlich ein ENSO Überbleibsel.

Die ENSO-„Reste” liefern einen signifikanten Beitrag zum Anstieg der globalen Wassertemperaturwährend der Satellitenära, wie wir noch sehen werden. Haben F&R (2011) diese Reste in ihren Analysen berücksichtigt? Nein. Sie haben angenommen, dass der Anstieg durch anthropogene Antriebe erfolgt ist, und sie vermuteten, dass ein linearer Trend dies repräsentiert.

Eine jüngere Studie ist von F&R (2011) übersehen worden. Compo und Sardesmukhs (2010) Beitrag “Removing ENSO-Related Variations from the Climate Record” scheint ein Schritt in die richtige Richtung zu sein. Sie schreiben (Fettdruck von mir):

Eine wichtige Frage bei der Abschätzung des Klimas im 20. Jahrhundert lautet, in welchem Ausmaß durch ENSO verursachte Variationen zum beobachteten Trend beigetragen haben. Diese Beiträge zu isolieren ist aus vielerlei Gründen eine Herausforderung, einschließlich Mehrdeutigkeiten, wie ENSO definiert wird. Im Besonderen kann die Definition von ENSO mit einem einzigen Index und die mit diesem ENSO in Zusammenhang stehenden Variationen als Regression über diesen Index, wie es in vielen früheren Studien getan worden ist, zu falschen Schlussfolgerungen führen. Diese Studie sagt, dass man ENSO am besten untersuchen kann, wenn man es nicht als Zahl, sondern als einen sich entwickelnden dynamischen Prozess für dieses Ziel betrachtet.

Und wie Compo und Sardeshmukh vermutet haben, kamen F&R (2011) zu den falschen Schlussfolgerungen.

Beachte: Compo und Sardeshmukh lagen bei einem sehr wichtigen Aspekt von ENSO daneben. Sie haben die Signifikanz der riesigen Menge warmen Wassers übersehen, die von den El Niño-Ereignissen übrig gelassen worden sind, und sie haben nicht den Beitrag dieses Vorgangs zum Anstieg der globalen Wassertemperatur-Anomalie seit etwa 1976 gesehen.

Wir wollen auch nicht die vielgepriesene Studie von Thompson et al. (2008) vergessen. Diese Studie von Thompson et al. (2008) für den neuen und verbesserten HADSST3-Datensatz der globalen Wassertemperatur-Anomalie vom Hadley Centre. Bei Thompson et al. (2008) wurde wie bei F&R (2011) gemogelt, weil sie versuchen, das ENSO-Signal aus den Aufzeichnungen globalen Temperaturaufzeichnung zu entfernen und dann behaupten, dass der restliche Temperaturanstieg durch anthropogene Antriebe verursacht wird. In ihrer Einführung schreiben Thompson et al. (2008) (Fettdruck von mir):

In dieser Studie werten wir eine Reihe neuer Methoden aus, um aus den ungeglätteten Datenreihen der globalen Land- und Wassertemperaturen die Varianz in Verbindung mit ENSO zu identifizieren und herauszufiltern, ebenso die dynamisch induzierte atmosphärische Variabilität und Vulkanausbrüche. Die Auswirkungen von ENSO und von Vulkanausbrüchen auf die globale mittlere Temperatur werden mit Hilfe eines einfachen thermodynamischen Modells der Reaktion der Durchmischungsschicht Atmosphäre – Ozean auf eine anomale Erwärmung geschätzt. Im Falle eines ENSO wird vermutet, dass die Erwärmung proportional zu den Anomalien der Wassertemperatur im östlichen Pazifik ist…

Das ist eine monumentale Hypothese, und es ist die gleiche bewusst irreführende Hypothese von F&R (2011).

Aber es war diese spezielle Sprache bei Thompson et al. (2008), die mich dazu veranlasst hat, die Anomalien der Wassertemperatur in die zwei Unter-Datensätze aufzuteilen. Einer zeigt die Anomalie im Ostpazifik von Pol zu Pol (90S – 90N, 180 – 80W) und der andere den Rest der Welt (Atlantik – Indischer Ozean – Westpazifik) von Pol zu Pol (90S – 90N, 80 W-180). Und rein zufällig habe ich den Datensatz der Wassertemperatur benutzt (Reynolds OI.v2), der auch für den Land-Ozean-Index von GISS benutzt wird, welcher Taminos bevorzugter Datensatz der Temperaturanomalien ist. Ich habe die Wassertemperaturen der beiden Datensätze zum ersten Mal am 3. März 2011 präsentiert, und zwar hier. (Für Interessierte gibt es ungefähr ein Dutzend zusätzliche Beiträge, in denen ENSO und die vieljährigen Folgewirkungen spezifischer ENSO-Ereignisse behandelt werden. Sie sind am Ende dieses Beitrags verlinkt.)

Die Anomalien der Wassertemperatur im Ostpazifik von Pol zu Pol, Abbildung 10, werden beherrscht von den Variationen im tropischen Pazifik, hervorgerufen durch ENSO, und als Folge imitieren die Variationen der Wassertemperatur im Ostpazifik ENSO, repräsentiert durch die skalierten NINO3.4-Anomalien der Wassertemperatur. Der Trend der Wassertemperatur im Ostpazifik ist relativ flach und beträgt 0,011°C pro Dekade.

Abbildung 10

Der Grund für diesen flachen Trend: Warmes Wasser an und unter der Oberfläche im Wärmepool des westlichen Pazifiks wird während eines El Niño ostwärts transportiert und breitet sich an der Oberfläche des östlichen tropischen Pazifiks aus, was dort zu einem Anstieg der Wassertemperatur führt. Und während der den El Niño folgenden La Niñas wird das übrig gebliebene Warmwasser in den westlichen tropischen Pazifik zurück transportiert. Wegen der gesteigerten Stärke des Passatwinde während eines La Niña kommt es zu einem verstärkten Aufquellen kälteren Tiefenwassers im östlichen äquatorialen Pazifik, so dass die Wassertemperatur dort sinkt. Mit anderen Worten, der Ostpazifik ist nichts weiter als ein Sammelpunkt für das warme Wasser eines El Niño-Ereignisses. Warmes Wasser schwappt in diesem Datensatz aus dem westlichen tropischen Pazifik und setzt Wärme frei, bevor das warme Wasser wieder zurück schwappt.

Aber das warme Wasser unter der Oberfläche des Wärmepools im Westpazifik während eines El Niño beeinflussen nicht nur die Wassertemperatur in allen globalen Ozeanen, und man kann sie nicht mit einem ENSO-Index darstellen. Das übrige Warmwasser wird während eines auf einen El Niño folgenden La Niña in den Westpazifik zurück geführt, wobei viel davon an der Oberfläche verbleibt. Die Wassertemperatur im westlichen Pazifik steigt daher. Auf einer Breite von etwa 10N transportiert auch eine sich langsam verlagernde Rossby-Welle übriggebliebenes Warmwasser vom östlichen tropischen Pazifik zurück zum westlichen Pazifik während eines La Niña. Meeresströmungen transportieren das warme Wasser polwärts in das erweiterte Strömungssystem Kuroshio – Oyashiro (KOE) östlich von Japan und zur südpazifischen Konvergenzzone (SPCZ) östlich von Australien, und der Indonesische Durchfluss [Indonesian Throughflow] (eine Meeresströmung) transportiert warmes Wasser in den tropischen Indischen Ozean. Und wie oben erwähnt quillt verstärkt kaltes Tiefenwasser während eines La Niña aufgrund der stärkeren Passatwinde im östlichen tropischen Pazifik auf, so dass die Wassertemperatur dort zurückgeht. Aber dieses Wasser, kälter als normal, wird während La Niña rasch erwärmt, da es durch die verstärkten Passatwinde westwärts strömt. Und der Grund, warum sich das Wasser bei dieser Westverlagerung so rasch erwärmt, ist Folgender: die verstärkten Passatwinde reduzieren die Wolkenbildung, so dass die kurzwellige Sonnenstrahlung (das sichtbare Sonnenlicht) das Wasser bis zu einer gewissen Tiefe erwärmt. Dieses zusätzliche Warmwasser hilft, die Wassertemperaturen im Westpazifik und dem Ostindischen Ozean während La Niña auf einem höheren Niveau zu halten, und es füttert auch den westpazifischen Wärmepool bis zum nächsten El Niño. Siehe nochmals Abbildung 9, aber man beachte dabei, dass diese Abbildung den ozeanischen Wärmegehalt für den gesamten tropischen Pazifik darstellt und nicht nur für den pazifischen Wärmepool.

Und was passiert, wenn ein starkes El Niño-Ereignis von einem La Niña gefolgt wird? Die Anomalien der Wassertemperatur für den Atlantik, den Indischen und den Westpazifischen Ozean (alle Ozeane außerhalb des Ostpazifik) nehmen als erstes zu, und zwar als Reaktion auf den El Niño; die El Niño-Ereignisse von 1986/87/88 und 1997/98. Danach werden die Wassertemperaturen dieser Ozeane durch La Niña auf einem erhöhten Niveau gehalten; die La Niña-Ereignisse 1988/89 und 1998/99/00/01. Die Folgen sind die offensichtlich steigenden Anomalien der Wassertemperatur in diesen Ozeanen von Pol zu Pol (90S-90N, 80W-180), wie in Abbildung 11 gezeigt.

Abbildung 11

Der Abfall und die Erholung mit Beginn im Jahre 1991 wurden verursacht durch die vulkanischen Aerosole der Explosion des Mount Pinatubo. Und der Grund dafür, warum die Wassertemperatur-Anomalien in den anderen Ozeanen so gering auf den Super-El Niño von 1982/83 reagieren, liegt darin, dass der Ausbruch des El Chichon im Jahre 1982 der Erwärmung entgegen wirkte.

Um den Lesern zu versichern, dass der Anstieg der Wassertemperaturen in den Ozeanen außerhalb des Pazifik mit den El Niño-Ereignissen von 1986/87/88 und 1997/98 zusammenfällt, habe ich einen ENSO-Index, NINO3.4 Wassertemperatur-Anomalien in Abbildung 12 eingezeichnet. Die NINO3.4 Wassertemperatur-Anomalien wurden (multipliziert mit dem Faktor 0,12) skaliert, um einen besseren augenscheinlichen Vergleich zu ermöglichen. Außerdem habe ich ihn um 6 Monate verschoben, um der Zeitverzögerung zwischen den Variationen in NINO3.4 und der Reaktion der Daten der übrigen Ozeane Rechnung zu tragen.

Abbildung 12

Aber der ENSO-Index rauscht sichtlich und lenkt von der Zunahme ab. Darum habe ich in Abbildung 13 die Daten zwischen den signifikanten El Niño-Ereignissen isoliert. Für diesen Zweck habe ich den  Oceanic Nino Index (ONI) der NOAA verwendet, um die offiziellen Monate dieser El Niño-Ereignisse zu bestimmen. Es gibt eine 6-monatige Zeitverschiebung zwischen den NINO3.4-Anomalien und der Reaktion der Wassertemperatur-Anomalien in den restlichen Ozeanen während der Entwicklungsphase des El Niño von 1997/98. Also wurden die ONI-Daten um sechs Monate verschoben, und die Daten der Wassertemperatur der übrigen Ozeane, die auf die El Niño-Ereignisse von 1982/83, 1986/87/88 und 2009/10 reagiert haben, wurden ausgeschlossen – übrig gelassen als schwarze gestrichelte Linien. Alle anderen Monate mit Daten verbleiben.

Abbildung 13

Und um den Anstieg weiter zu beleuchten, wurden in Abbildung 14 die mittleren Anomalien der Wassertemperatur zwischen großen El Niño-Ereignissen hinzugefügt.

Abbildung 14

Basierend auf früheren Beiträgen, in denen ich den gleichen Datensatz präsentiert habe, schlugen einige Kommentatoren vor, dass die Zeitspannen der Mitteltemperaturen irreführend sind, und verlangen, dass ich die linearen Trends illustriere. Abbildung 15 zeigt, wie flach die Trends zwischen den El Niño-Ereignissen von 1986/87/88 und 1997/98 sowie zwischen denen von 1997/98 und 2009/10 waren.

Abbildung 15

Zurück zu den Daten aus dem Ostpazifik: Falls man die Anomalien der Wassertemperatur im Ostpazifik anpasst, um den Effekte vulkanischer Aerosole Rechnung zu tragen, ist der lineare Trend leicht negativ (Abbildung 16). Mit anderen Worten, für etwa 33% der Fläche der globalen Ozeane sind die Anomalien der Wassertemperatur seit 30 Jahren nicht gestiegen.

Abbildung 16

Bemerkung: Die Methode zur Anpassung bzgl. von Vulkanausbrüchen wird hier beschrieben, und zwar im Absatz unter der Überschrift ACCOUNTING FOR THE IMPACTS OF VOLCANIC ERUPTIONS.

Und wenn wir die Anomalien der Wassertemperatur in den übrigen Ozeanen bzgl. vulkanischer Eruptionen anpassen (Abbildung 17), reduzieren wir die Effekte des Abfalls und der Erholung durch die Eruption des Mount Pinatubo 1991. Und der Trend in diesen Ozeanen zwischen den El Niño-Ereignissen von 1986/87/88 und 1997/98 ist leicht fallend verglichen mit den nicht angepassten Daten (Abbildung 15), was den Trend noch flacher und leicht negativ macht.

Abbildung 17

Zusammenfassend: ENSO ist ein gekoppelter Ozean-Atmosphäre-Prozess, und seine Auswirkungen auf die globalen Temperaturen können nicht mit einem ENSO-Index dargestellt werden, wie es F&R (2011) versucht haben – und andere vor ihnen. Wir können einfach die Studie von F&R (2011) zu der Liste zahlreicher Studien hinzufügen, die den gleichen Fehler machen. Beispiele:

Lean and Rind (2009) How Will Earth’s Surface Temperature Change in Future Decades?

Und:

Lean and Rind (2008) How Natural and Anthropogenic Influences Alter Global and Regional Surface Temperatures: 1889 to 2006

Und:

Santer et al (2001), Accounting for the effects of volcanoes and ENSO in comparisons of modeled and observed temperature trends

Und:

Thompson et al (2008), Identifying signatures of natural climate variability in time series of global-mean surface temperature: Methodology and Insights

Und:

Trenberth et al (2002) Evolution of El Nino–Southern Oscillation and global atmospheric surface temperatures

Und:

Wigley, T. M. L. (2000), ENSO, volcanoes, and record-breaking temperatures

Außerdem haben F&R (2011) vermutet, dass das Signal der globalen Erwärmung linear ist und dass es durch anthropogene Antriebe verursacht wird, aber diese Vermutungen werden durch die Messungen der Wassertemperatur in der Satellitenära nicht gestützt, wie oben gezeigt wurde. Das Signal der globalen Erwärmung ist nicht linear, und es wurde gezeigt, dass die El Niño-Ereignisse von 1986/87/88 und 1997/98 der Grund für den Anstieg der Wassertemperatur war und nicht anthropogene Treibhausgase.

Die atlantische multidekadische Oszillation

Wenn man Taminos Datei allfit2.xls heruntergeladen hat (hier – und es danach zu einem .zip.file gemacht hat), wird man bemerken, dass die erste Spalte AA als „AMO“ bezeichnet ist. Und ja, das sind die Daten der multidekadischen Oszillation von der AMO website des NOAA Earth System Research Laboratory (ESRL).

Man beachte: Die jüngsten AMO-Daten und die in Taminos Datei aufgelisteten Daten sind etwas unterschiedlich. Der Grund: Die ESRL AMO-Daten entwickeln sich ständig. Jeden Monat nachdem die neuen Daten der Wassertemperatur im Nordatlantik (0 – 70N, 80W – 0) hinzugefügt worden sind, werden die Daten mit den neuen Daten trendbereinigt.

Man kann nur darüber spekulieren, warum Tamino die AMO-Daten mit aufgeführt hat – und warum die Daten auf dem Arbeitsblatt bis zum Jahr 1950 zurückreichen, wenn es in der Studie lediglich um den Zeitraum 1979 bis 2010 geht. Und man kann sich auch fragen, warum Tamino die ESRL AMO-Daten mitführt, welche auf den Kaplan-Anomaliedaten der Wassertemperatur im Nordatlantik basieren, wenn diese Kaplan-Daten in keinem anderen Datensatz genutzt werden (GISS, HADCRUT oder NCDC). Die Datensätze sind nicht die gleichen. Ich habe Tamino und seine Jünger schon auf diesen Fehler hingewiesen, und zwar in dem Beitrag Comments On Tamino’s AMO Post.

Aber die Neugier beispielsweise kann befriedigt werden. Nehmen wir an, man fragt sich, wie die Ergebnisse aussehen würden, wenn man auf den Einfluss der AMO auf die Temperaturen der Nordhemisphäre zählt, unter Verwendung einer linearen Regressionsanalyse mit den ESRL AMO-Daten als unabhängige Variable und den GISS-Daten der nordhemisphärischen Temperatur als die abhängige Variable. Wir begrenzen das Beispiel auf die von F&R (2011) betrachtete Zeitspanne von 1979 bis 2010. Siehe Abbildung 18. Die AMO-angepasste nordhemisphärische Temperatur besitzt einen linearen Trend, der lediglich 41% der nicht angepassten Daten der Nordhemisphäre ausmacht.

Hmm. Das würde bedeuten, dass die AMO für 59% des Temperaturanstiegs in der Nordhemisphäre verantwortlich war, wenn man die Regressionsanalyse zugrunde legt.

Abbildung 18

Und das liegt auf einer Linie mit der Generalisierung durch Taminos Erfüllungsgehilfen auf RealClimate und dort auf ihrer Atlantic Multidecadal Oscillation (“AMO”) – Website. Dort schreiben sie zur AMO:

Eine multidekadische Verteilung (50 bis 80 Jahre) der nordatlantischen Ozean-Atmosphäre-Variabilität, dessen Existenz durch Verweis auf die statistischen Analysen von beobachteten und Proxy-Daten begründet wird, und den Simulationen des gekoppelten Atmosphere-Ocean General Circulation Model (“AOGCM”). Von dieser Verteilung glaubt man, dass man mit ihr die beobachtete Erwärmung im frühen 20. Jahrhundert (zwanziger und dreißiger Jahre) erklären kann und auch einen Anteil, aber nicht der gesamten, der Erwärmung in hohen Breiten im ausgehenden 20. Jahrhundert. Der Term wurde in einer Zusammenfassung von Kerr (2000)  eingeführt, und zwar aufgrund einer Studie von Delworth und Mann (2000).

Tamino fährt fort, sich darüber zu beklagen, dass man keine Anpassungen wegen der AMO vornehmen kann, weil sie eine Komponente der globalen Erwärmung enthält. Zum Beispiel schreibt Tamino in einer Antwort auf einen Kommentar von Colin Aldridge am 22. Dezember 2011 (hier):

Wenn es um die AMO geht, IST es Temperatur, anders als ENSO (oder PDO in dieser Sache). Klar und einfach, nicht mehr und nicht weniger. Eine Temperaturänderung einer Temperaturänderung zuzuordnen scheint irgendwie dumm zu sein.

Hmm. Ich glaube, dass Tamino nicht den Punkt getroffen hat, dass nämlich die AMO eine zusätzliche Variabilität einbringt und dass sie über den gesamten Datenterm trendbereinigt wird.

Um hier weiterzukommen, habe ich Tamino erklärt und illustriert, dass wir das „Erwärmungssignal“ in der globalen Wassertemperatur mit Ausnahme des Nordatlantik von den Anomalien der Wassertemperatur im Nordatlantik abziehen können. Dann bleibt nur die zusätzliche Variabilität der Wassertemperaturen im Nordatlantik verursacht durch die AMO übrig. Und nur so sollte die AMO dargestellt werden. Den Unterschied nennen wir die Nordatlantische Restgröße. Diese Restgröße hat in etwa den gleichen Trend wie die AMO im F&R (2011)-Zeitraum von 1979 bis 2010, wie Abbildung 19 zeigt:

Abbildung 19

Zur Beachtung: Die Daten der nordatlantischen Restgröße in Abbildung 16 basieren auf einer Kombination der HADISST-Daten von 1979 bis November 1981 und den ReynoldsOI.v2-Daten von Dezember 1981 bis zur Gegenwart, und zwar in Übereinstimmung mit GISS, dargestellt auf der Website der GISS Surface Temperature Analysis. Um die Wassertemperatur des Nordatlantik aus den globalen Daten der Wassertemperatur zu entfernen wurde festgelegt, dass die Fläche des Nordatlantik zwischen 0 – 70N und 80W – 0 11% der Fläche der globalen Ozeane ausmacht.

Und als einen zusätzlichen Check des Vorzeichens der solaren Korrektur habe ich multiple lineare Regressionsanalysen der nordhemisphärischen Temperaturen von GISS als der abhängigen Variable und die AMO-Daten als eine unabhängige Variable in einem Augenblick in die nordatlantische Restgröße in einer Sekunde durchgeführt. Die Analysen umfassten auch ENSO (MEI), Solar (PMOD) und vulkanische Aerosole (AOD.NH) als unabhängige Variable mit der gleichen Zeitverzögerung wie in den globalen Daten. In beiden Fällen stand das Vorzeichen der solaren Korrektur im Gegensatz zu dem, was F&R (2011) gesucht haben, wie die Gleichungen 12 und 13 zeigen:

EQUATION 12:

GISS.NH = 62.25 + 0.001696MEI (4m lag) – 0.04528TSI.PMOD(1m lag)– 1.683AOD.NH (7m lag) + 0.866AMO (0m lag)

EQUATION 13:

GISS.NH = 72.12 + 0.04751MEI (4m lag) – 0.05258TSI.PMOD(1m lag)– 2.413AOD.NH (7m lag) + 0.72N. Atl. Residual (0m lag)

Abschließende Bemerkung zur AMO: Für eine erweiterte Diskussion darüber, wie der Nordatlantik die Wassertemperaturen in der Zeitspanne zwischen den Aufwärtssprüngen der El Niño-Ereignisse von 1986/87/88 und 1997/98 schaue man hier: Supplement To “ENSO Indices Do Not Represent The Process Of ENSO Or Its Impact On Global Temperature”

Schlussbemerkungen

Ich fand das Hinzuziehen eines linearen Trends in den von F&R (2011) durchgeführten Regressionsanalysen sehr interessant. Es scheint, als seien diese linearen Trends einfach deshalb hinzugefügt worden, um das Vorzeichen der solaren Korrektur zu dem zu machen, was die Autoren für ihre Anpassungen gerne sehen wollten. Man könnte denken, wenn die grundlegenden Ergebnisse der Studie davon abhängig wären, ob ein linearer Trend in die multiplen Regressionsanalysen eingeführt wird, wäre es in der Studie behandelt worden. Und noch einmal, wenn Sie die Fähigkeit haben und mit den Ähnlichkeiten zwischen meinen Ergebnissen und denen von F&R (2011) nicht zufrieden sein sollten (Abbildungen 7 und 8), bestätigen Sie bitte die Ergebnisse der oben präsentierten Ergebnisse der multiplen Regressionsanalysen mit und ohne den linearen Trend.

Dieser Beitrag hat auch den Fehler in ihren Hypothesen deutlich gemacht und diskutiert, dass nämlich die Regressionsanalyse verwendet werden kann, um die Auswirkungen von ENSO auf die globale Temperatur zu entfernen. ENSO ist ein Prozess, der nicht vollständig durch ENSO-Indizes beschrieben werden kann. Mit anderen Worten, die ENSO-Indizes repräsentieren nur einen kleinen Teil der Auswirkungen von ENSO auf die globale Temperatur. Der Versuch, den ENSO-Index so zu verwenden, wie es F&R (2011) getan haben, gleicht dem Versuch, ein Baseballspiel allein von der Ausgangsposition des Spielfeldes aus zu spielen.

Es wurde gezeigt, dass die Hypothese von F&R (2011), dass ein linearer Trend ein ungefähres Signal „globaler Erwärmung“ bereitstellt, hinsichtlich der Wassertemperatur irrig ist. Spaltet man die Daten in zwei logische Unterdatensätze auf, nämlich Ostpazifik einerseits und die übrigen Ozeane andererseits, zeigen die satellitengestützten Werte der Wassertemperatur keinen Beweis für ein Signal einer anthropogenen globalen Erwärmung. Sie zeigen lediglich Sprünge nach oben im Zuge starker ENSO-Ereignisse. Dies scheint jeden Versuch zu komplizieren, die Hinzunahme eines linearen Trends zur Umkehrung des Vorzeichens der solaren Anpassung zu rechtfertigen.

Und Dank an Tamino, dass der die Daten der multidekadischen atlantischen Oszillation auf seinem Arbeitsblatt vermerkt hat. Dies erlaubte es mir, die signifikante Auswirkung zu zeigen, die die AMO auf die Temperaturen der Nordhemisphäre haben kann.

ABOUT: Bob Tisdale – Climate Observations

QUELLEN (aus Zeitgründen nicht mitübersetzt)

The spreadsheet that served as the source of the data for the regression analyses was linked to Tamino’s (Grant Foster’s) post Data and Code for Foster & Rahmstorf 2011.

To save you some time, here’s a copy of the file that contains the spreadsheet from Tamino’s blog that I’ve uploaded to mine, allfit2 as of 12-21-11.  Again, you’ll have to download the file and change it to a .zip file in order to open it.

The Reynolds OI.v2 Sea Surface Temperature data used in the ENSO discussion is available through the NOAA NOMADS website here.

The Aerosol Optical Thickness data used in the volcano adjustments of the Sea Surface Temperature data in Figures 13 and 14 is available from GISS the Stratospheric Aerosol Optical Thickness webpage here.

Link: http://wattsupwiththat.com/2012/01/02/tisdale-takes-on-taminos-foster-rahmstorf-2011/

Übersetzt von Chris Frey für EIKE

Nachtrag 21.1.12:

Wie u.a. ein Leser auf Science Sceptical richtig schrieb, hat Autor Bob Tisdale  am 2. Januar einen fachliche Kritik zum Foster/Rahmstorf-Artikel veröffentlicht. Oben lesen Sie die übersetzte Version davon. Das Original ist hier: Tisdale takes on Tamino’s Foster & Rahmstorf 2011. Sie enthält jedoch einige Fehler.
Bob Tisdale hatte dann am 14.Januar den Folgeartikel Tisdale takes on Foster & Rahmstorf – take 2 veröffentlicht, in dessen Vorspann er die Mängel seines 1.Artikels ausführlich erläutert hatte. In diesem zweiten Artikel selbst konzentrierte er sich ganz auf ENSO und zog die Konsequenzen aus den Ungenauigkeiten seines ersten Artikels. Da unsere Übersetzungskapazitäten derzeit bis zum Anschlag ausgefüllt sind verweisen wir für die Details auf das englische Original.

Die Redaktion




Keine Indizien für positive Rückkopplung, keine Klimakipppunkte in Sicht

Auf WATTSUPWITHTHAT hatte der amerikanische Physiker und Dozent an der Duke Universität von North Carolina, Dr. Robert Brown, den Beitrag "Was wir über den Energiefluss der Erde nicht wissen" veröffentlicht, der eine rege Diskussion auslöste. Auf viele Einwände jener Diskussion schrieb Dr. Robert Brown einen längeren Aufsatz. Anthony Watts hält Dr. Browns Ausführungen zur angeblich vom CO2 bedrohten Klimastabilität für so kenntnisreich, dass er den gesamten Beitrag auf WATTSUPWITHTHAT gesondert veröffentlichte.

Im einleitenden Satz zitiert Dr. Brown eine Behauptung aus einem der vielen Kommentare zu "Was wir über den Energiefluss der Erde nicht wissen".

Keine neuen „strange attractors“: Aussagekräftige Indizien gegen die positive Rückkoppelung und die Katastrophe

von Dr. Robert Brown

Man muss schon feststellen, dass beide Systeme innerhalb der gleichen Parameter oszillieren, aber die Wahrscheinlichkeit der Synchronisation zwischen ihnen ist nil?

Leider nein, nicht über lange Zeiträume. Systeme können so verschieden sein, wie ein magnetisierter Ferromagnet, der in einer Richtung magnetisiert ist, sich von einem identischen Ferromagneten unterscheidet, der in umgekehrter Richtung magnetisiert ist. Oder im Falle der Erde, die als eiszeitliche Erde völlig unterschiedlich sein kann von einer zwischeneiszeitlichen Erde. Der Punkt ist, dass beide Zustände “stabil” sein können, bei genau der gleichen Einstrahlung, weil die Rückkoppelung im globalen System sie zu einem stabilen Zustand rekonfigurieren kann.

Wenn Sie in dem hier angegebenen Link to chaos theory die beiden Figuren mit den geschlossenen Linienbündeln anschauen, sehen Sie ein heuristisches Bild der Art von Möglichkeiten, die ein gekoppeltes nichtlineares Differential-System hat.

Eine Darstellung der Lorenz-Attractoren für Werte r = 28, σ = 10, b = 8/3 (aus Wikipedia

Mitten in jeder Schleife ist ein sogenannter “strange attractor“, der typischerweise ein „limit point“ ist. Die x und y – Achsen sind Koordinaten in einem generalisierten (Phasen-) Raum, der den Zustand des Systems zu jedem gegebenen Zeitpunkt repräsentiert: x(t), y(t). Die Linien selbst sind der Bahnverlauf des Systems über die Zeit, wie es sich unter der Einwirkung der zugrundeliegenden Dynamiken entwickelt. Mit der Figur soll illustriert werden, dass es keinen einzigartigen Umlauf gibt, mit dem die Erde einen regulären Attractor wie die Sonne umkreist: Das System oszilliert eine Zeitlang um einen Attractor, dann um den anderen, dann um beide. Anstelle von schönen geschlossenen Bahnverläufen haben wir Verläufe, die fast niemals gleich sind.

Zwei Bahnverläufe, die in kurzem Abstand hintereinander gestartet wurden, werden normalerweise die Attractoren anfänglich auf diese generelle Art umkreisen. Aber allmählich, oft schon bemerkenswert rasch, werden beide Bahnverläufe voneinander abweichen. Eine Bahn wird auf den anderen Attractor überspringen, eine andere nicht. Nach erstaunlich kurzer Zeit werden die beiden Bahnverläufe fast völlig de-korreliert sein, dergestalt, dass das Wissen um die Lage der einen Bahn (im allgemein zugänglichen Raum der Phase) überhaupt keine Hinweise zur Lage der anderen gibt.

Nur in diesem Sinne trifft die eingangs zitierte Behauptung zu. Jedes der Systeme muss im Raum der physikalisch konsistenten Zustände durch Differenzierung vom Startpunkt aus aufgefunden werden. Es gibt keine Garantie, dass die Bahnen den “Phasenraum füllen” werden. Nur in diesem Sinne können beide in dem von den Ausgangspunkten aus zugänglichen Phasenraum gefunden werden. Wenn die beiden Startpunkte dicht genug beieinander liegen, werden sie vermutlich zu sehr ähnlichen Phasenräumen führen, aber es gibt keine Garantie, dass diese identisch sein werden – besonders, wenn es (viel) mehr als zwei Attractoren gibt und irgendeinen einfachen Parameter. In der Statistischen Mechanik gibt es ein Theorem hierzu, aber meines Wissens nicht für den allgemeinen Fall der offenen Systemdynamik eines chaotischen Systems.

Wen es interessiert – das Herumspielen damit kann ganz spaßig sein – sollte mal bei den “predator-prey differential equations” vorbeischauen.

Wenn ich mich recht erinnere, befindet sich dort eines der einfachsten Systeme mit einem Attractor und begrenztem Durchlauf und es zeigt viele der Eigenschaften von komplizierteren dynamischen Systemen. Der Attractor/fixed point in diesem Falle ist die Population von z. B. Füchsen und Kaninchen, die von Jahr zu Jahr in perfektem Gleichgewicht bleibt. Man beachte wohl, dass diese Gleichung deterministisch ist. In einer echten Population – selbst wenn sie modelliert ist – gibt es natürlich immer zufällige (oder zumindest “unvorhersehbare”) Variationen – das ist ein gewisser Anteil von Rauschen -, der in diskreten, nicht in stetigen Werten angegeben wird, weil es z.B. keinen Geparden geben kann, der pi Paviane frißt.

Eine bessere stetige “Form”  einer Differentialgleichung zur Beschreibung von Systemen mit Rauschen ist die Langevin-Gleichung in der Physik – ein System mit “schnellen” mikroskopisch kleinen Freiheitsgraden, auf das man sich verlässt bei der Durchschnittsbildung mit einem stochastischen Term und langsameren Freiheitsgraden, die man herausintegriert wie bei der „predator prey“- Gleichung. In der Physik gibt es den speziellen limitierenden Fall von etwas, was dann die verallgemeinerte „Master-Gleichung“ genannt wird. Das ist die vollständige integro-differentiale Beschreibung eines „many body open quantum systems”; Sie ist wirklich sehr sehr schwierig. Der allgemeinere Ansatz ist hier aber gangbar – vermutlich ist er Teil der meisten vereinfachten Klimamodelle. Wenn man die Temperaturverläufe “glättet”, z. B. mit Hilfe eines laufenden Durchschnitts, verliert man Information (die Variationen über kurze Zeitspannen) und man reduziert die Komplexität des Systems durch die Konzentration auf eine langsamere Dynamik auf der Zeitskala.

Das ist zulässig, wenn das System wirklich einfach ist: d.h. es gibt nur einen einzigen Attractor und das System oszilliert um ihn, das Ausglätten des “Rauschens” ist irrelevant und fügt dem einzigen Bahnverlauf nur kleine Variationen zu. Wenn aber das System multistabil mit vielen örtlichen Stabilitätspunkten ist; oder noch schlimmer, wenn einige der Freiheitsgrade Dinge wie die Sonne sind, deren zeitliche Entwicklung völlig außerhalb “des Systems” liegt, dessen Zukunft unversagbar ist, und dessen Auswirkung man nicht genau kennt, dergestalt, dass sich die Attractoren selbst umherbewegen, wenn sich das System lokal entwickelt, – dann ist das wahrscheinlich nicht zulässig.

Das Symptom eines multistabilen Systems der letzteren unzulässigen Art ist eine Folge von durchbrochenen Gleichgewichten, sichtbar in den geglätteten Daten. Die 30-jährigen Satellitendaten und die Meeresoberflächendaten (Sea Surface Temperatures) zeigen dieses Bild ziemlich klar.

Und hier ein sehr wichtiger Punkt: oszillierende Systeme haben fast immer negative Rückkoppelung. Das ist die grundlegende Eigenschaft, die ein oszillierendes System bestimmt: es besitzt selbst eigene Attractoren. Die eigenen Attractoren sind Stabilitäts-(Gleichgewichts-)Punkte dergestalt, dass das System immer wieder zurück in den Gleichgewichtszustand gezogen wird und nicht weg davon, wenn es von ihnen gestört wird.

Im allgemeinen Falle von Attractoren in hochdimensionalen Räumen führt das zu (Poincare-) Zyklen um die Attractoren herum, wie sie in den  “predator-prey”-Gleichungen sichtbar werden, oder in der Chaos-Figur mit zwei „strange attractors“, mit der Ausnahme, dass diese in 3+ dimensionalen Räumen sehr, sehr kompliziert werden können (nur schwierig zu veranschaulichen). Mit dimensionalen Räumen sind keine physikalischen Räume gemeint, sondern parametrische “Phasen”-Räume (Zustandsräume).

In der Nachbarschaft eines Attractors gibt es im Allgemeinen viel lokale Stabilität – Bahnverläufe in solcher Nachbarschaft schwingen eng angelehnt um den Attractor und springen relativ selten auf andere Attractoren um. Deshalb tendieren eiszeitliche und zwischeneiszeitliche Perioden zu recht langen Zeiträumen (im Vergleich zu all den vielen kürzeren Zeitspannen, die im System verfügbar sind).

Das Bewegen eines zugrundeliegenden externen Parameters – z. B. der anthropogenen CO2-Konzentration, des Zustands der Sonne, des geomagnetischen Zustands – kann als Verschiebung der Festpunkte des multistabilen Systems gedacht werden. Wenn wir das linearisieren, können wir oft wenigstens die Richtung der ersten Ordnung der Bewegung abschätzen. Mehr CO2 z. B., sollte unter der Annahme des Treibhauseffekts zum Einfangen von mehr Wärme führen und damit die globale Temperatur erhöhen. Der stabile Festpunkt sollte sich daher ein wenig in Richtung „wärmer“ verschieben.

Fast das gesamte Argument bewegt sich um zwei einfache Probleme herum (und das in mehr als einer Weise). Beachten Sie, dass ich diese Probleme ganz anders als gewohnt darstelle:

a) Ist die Vermutung eines linearen Verhaltens gültig?

Das ist keine triviale Frage. Erhöhtes CO2 in einem multistabilen System bewegt nicht nur den lokalen Attractor, es bewegt alle Attractoren, und das nicht notwendigerweise auf simple lineare Art in einem wirklich komplizierten System mit vielen negativen Rückkoppelungen (die Hypothese erfordert eine Bewegung über den gesamten Ort, weil das System von Attractoren bestimmt wird). In vielen Systemen befinden sich bewahrende Prinzipien (nicht notwendigerweise bekannte), die als Beschränkungen derart wirken, dass durch die Aufwärtsbewegung eines Attractors ein anderer nach unten bewegt wird. Oder die “Schwellenhöhe” zwischen zwei Attractoren wird erhöht und damit alle begrenzenden Zyklen deformiert.

b) Liegt die Systemreaktion in der Größenordnung der mittleren Differenz zwischen den Attractoren, die vorwiegend schon vom System „gesampled“ sind?

Falls sie größer ist, wird das System wahrscheinlich nicht den wirkenden Attractor bewegen, sondern auf einen anderen Attractor überkippen. Das muss nicht der erwartete Attractor auf der wärmeren Seite des vorhergehenden sein. Mehr Erwärmung – wie die Warmisten in eher heuristischen Termini sagen – kann das System zu mehr unkontrolliertem Schwingen bringen und dabei wärmer als der wärmste Teil der Schwingung sein und kälter als der kälteste. Falls der neue Ausschlag der Schwingung groß genug ist, kann er das System auf beiden Seiten zum Schwingen um einen neuen Attractor stoßen.

Man beachte, dass die letzte Behauptung noch zu einfach ist, weil sie danach klingt, als ob es nur zwei Richtungen gäbe: wärmer oder kälter. Das ist nicht der Fall. Es gibt wärmer mit mehr Wasserdampf  in the Atmosphäre, wärmer mit weniger Wasserdampf  in the Atmosphäre, wärmer mit aktiver Sonne, wärmer mit nicht aktiver Sonne, wärmer mit zunehmendem Meereis, wärmer mit abnehmendem Meereis, wärmer mit mehr Wolken, wärmer mit weniger Wolken, und die Wolken können Tages- oder Nachtwolken sein, arktische or antarktische Wolken, im Sommer, Herbst, Winter oder Frühling, monats- oder tageweise, überall mit Rückkoppelungen – das Herumfingern an jedem beliebigen Aspekt des Zyklus wirkt auf alles Andere. Das war erst der Anfang einer Auflistung der gesamten wichtigen Dimensionen. Beachten Sie auch, dass es wirklich wichtige zeitliche Skalen mit fast periodischen  Oszillationen von vielen dieser Treiber gibt, und auch, dass die zu Grunde liegende Dynamik auf einem rotierenden Globus  stattfindet, der im ständigen Verlauf Luftwirbel erzeugt, deren Beständigkeit von Tagen bis zu Jahrzehnten reicht.

Ich habe in früheren Beitragen argumentiert, dass das in der Klimahistorie erkennbare durchbrochene Quasi-Equilibrium es sehr wahrscheinlich macht, dass die Antwort auf b) JA ist. Das anthropogene CO2 verschiebt das System um die Größenordnung des Abstands von einem oder mehr Attractoren, weil das System um die Attractoren herumspringt, sogar zu Zeiten, als es noch kein anthropogenes CO2 gab. Und weiter, die Ausreißer des Systems bei seinem Wechsel zwischen den Attractoren waren ebenso groß wie heute und qualitativ nicht anders.

Dies ist ein starkes Indiz, dass der Effekt geringer, und nicht größer ist als die natürliche Schwingungsbreite. Die negativen Rückkoppelungsfaktoren, die die multistabilen Attractoren (lokal) zur Wirkung bringen, wirken auch als negative Rückkoppelung auf die CO2-induzierte Verschiebung! Diese Aussage steht, ob nun die Annahme der Gültigkeit der Existenz einer linearen Antwort (pro Attractor) in a) zutrifft oder nicht, und die zusätzlich noch mit dem riesigen Problem der Beweisführung behaftet ist.

Das letztere ist das Fluktuations-Dissipations-Theorem, wie ich schon in dem einen oder anderen Beitrag gesagt habe. In einem offenen System in lokal stabiler Phase koppeln sich die Oszillationen (fluctuations) mit der Dissipation dergestalt, dass erhöhte Fluktuation zu mehr Dissipation führt – das ist negative Rückkoppelung. Falls das nicht zuträfe, wäre die lokal stabile Phase nicht stabil.

Das ist ein starkes Argument gegen die Katastrophe! Wenn es unter der Annahme, dass CO2 nur kleine, langsame, lokale Verschiebungen der Attractoren untereinander bewirkt im Vergleich zu den großen Schwüngen des Systems; wenn es einen Punkt gäbe, wo das System wahrscheinlich auf einen viel wärmeren stabilen Punkt überspringen würde (die von den Warmisten angedrohte “Katastrophe”), dann hätte das fast mit Sicherheit bereits geschehen müssen. Denn die Phasenschwingungen der vergangenen zehntausend Jahre haben schon viele Male zur gleichen Wärme geführt wie heute.

Die Tatsache, dass es nicht geschehen ist, ist wirklich ein ganz starker Beleg gegen die Behauptung einer positiven Rückkoppelung und einer Katastrophe. Ja. anthropogenes CO2 könnte die Attractor-Temperaturen ein wenig nach oben geschoben haben, es könnte auch kleinere Anpassungen in der Anordnung der Attractoren verursacht haben, aber es gibt kein Indiz dafür, dass es wahrscheinlich und plötzlich einen neuen Attractor außerhalb der normalen, von der Klimahistorie gezeigten Variationsbreite, erzeugen würde. Wäre es unmöglich? Natürlich nicht, aber nicht wahrscheinlich.

Ich möchte eine kleine Analogie anschließen

Als die Physiker sich auf den Test der ersten Atombombe vorbereiteten, wurden damals von weniger begabten Physikern Bedenken geäußert, dass die  Erdatmosphäre „in Brand gesetzt”, oder die Erde in eine Sonne verwandelt werden könnte (Das war, bevor die Kernfusion verstanden war – auch der Energie-Zyklus der Sonne war noch unbekannt). Jüngst habe ich von Befürchtungen gelesen, das Kollisionen im Großen Hadronen-Speicherring den gleichen Effekt haben könnten – nämlich die Erzeugung eines Mini-Schwarzen Lochs oder so ähnlich, das die Erde verschlingen würde.

Das sind törichte Ängste (obgleich sie von wirklichen Wissenschaftlern geäußert werden, weil sie Derartiges für möglich und vorstellbar halten).

Warum sind solche Ängste töricht

Die von einer Atombombe erzeugten Temperaturen und Drücke sind nicht einzigartig! Wenn auch selten, so fallen doch Asteroiden auf die Erde und erzeugen dabei viel höhere Drücke und Temperaturen als Atombomben. Ein kleinerer Asteroid kann in wenigen Millisekunden mehr Energie freisetzen als das Zehntausendfache der gesamten Sprengkraft aller menschengemachten Explosivmittel auf der Erde, einschließlich der Kernwaffen. Kurz gesagt: wenn etwas mit einer gewissen vernünftigen Wahrscheinlichkeit passieren könnte, wäre es schon passiert.

Das gleiche gilt für die Furcht vor dem Großen Hadronen-Speicherring, oder anderen “Super-” Teilchenbeschleunigern. Ja, sie erzeugen Kollisionen in der Größenordnung von Elektronen-Teravolt, aber diese Art von Energie bei nuklearen Kollisionen ist nicht einzigartig! Die Erde wird ständig von hochenergetischen Partikeln bombardiert, die von energetischen Extrem-Ereignissen hervorgerufen wurden, wie den Supernovae, die sich vor langer Zeit ereigneten. Die Energien dieser kosmischen Strahlen sind viel höher  als alles, was wir jemals in Labors produzieren können, es sei denn, wir könnten eine Supernova machen. Das bislang höchstenergetische beobachtete kosmische Teilchen war (vermutlich) ein Proton mit der kinetischen Energie eines wuchtig geschlagenen Baseballs, der rund 150 Km/h erreicht. Weil wir eins davon während mehrerer Beobachtungs-Jahrzehnte entdeckt haben, müssen wir annehmen, dass sie ständig kommen – buchstäblich trifft jede Sekunde ein kosmischer Strahl mit dieser Energie die Erde irgenwo (Die Erde ist ein RIESIGES Ziel. Wenn solch eine Kollision mit einer gewissen Wahrscheinlichkeit ein Schwarzes Loch mit der Kraft zur Planetenzerstörung erzeugen könnte, dann wären wir schon vor langer Zeit zu Staub geworden.

Es bleibt daher töricht, den Großen Hadronen-Speicherring oder nukleare Brandstiftung zu fürchten. Falls dies wahrscheinlich wäre, gäbe es uns nicht, die wir einen Großen Hadronen-Speicherring oder Atombomben bauen.

Die Furcht vor dem Klimawandel ist nicht ganz so töricht

Es ist aber nicht ganz so töricht den CO2-anthropogenen Klimawandel zu fürchten. Es stimmt: Wir haben noch nicht lange genug das Klimasystem erforscht, um zu wissen, welche Arten von Rückkoppelungen und Faktoren die multistabilen Klima-Attractoren strukturieren. Deshalb kann man sich seine Weltuntergangsszenarien basteln – Erwärmung bis auf einen kritischen Punkt, der massive Mengen von Methan freisetzt, was zu einer schlagartigen Erderwärmung führt. Das Meer wird sein gesamtes CO2 freisetzen, die Eiskappen werden schmelzen und die Meere kochen. Plötzlich wäre unsere Erde wie die Venus mit einer mittleren Außentemperatur von 200 oC.

Wenn wir uns so etwas ausdenken und niederschreiben können, dann muss es möglich sein, nicht wahr? Science-Fiction Romane in Massen beschäftigen sich genau damit. Oder Filme mit dem Gegenteil: dem Auftauchen von Attractoren, die irgendwie und sofort die gesamte Erde zum Einfrieren bringen und eine Eiszeit verursachen. Schaut, es kann passieren!

Aber ist es wahrscheinlich?

Das oben Gesagte sollte uns ruhig schlafen lassen. Es gibt kaum etwas in der Klimahistorie das auf einen anderen großen stabilen Zustand hindeutet, auf einen anderen Haupt-Attractor, der weit über dem derzeitigen Warmphasen-Attractor läge. Ganz im Gegenteil: die Klima-Geschichte der vergangenen zig Millionen Jahre deutet darauf hin, dass wir uns mitten in einer verlängerten Abkühlungsphase des Planeten befinden, wie sie sich wiederholt während geologischer Zeiträume ereignete, und wir befinden uns im Haupt-Attractor der warmen Phase. Darüber gibt es nichts mehr. Wenn da noch etwas wäre, hätten wir es schon erlebt.
Stattdessen: Die lokalen Variationen und die Oszillation um sie herum hat den vielen kleinen Warmphasen-Attractoren erlaubt, wiederholt Bedingungen zu zeigen, die einen Sprung hätten hervorrufen können, wenn ein solcher überhaupt wahrscheinlich gewesen wäre.

Zumindest müsste es eine Spur von so etwas in der Temperaturhistorie der vergangenen Millionen Jahre geben, aber sie gibt es nicht. Wir sind in einer der längsten und wärmsten der uns bekannten fünf Zwischeneiszeiten. Wir befinden uns nicht am wärmsten Punkt der gegenwärtigen Zwischeneiszeit, dem Holozän. Wenn es wirklich einen wärmeren Attractor gäbe, hätte er sich wahrscheinlich bereits am wärmsten Punkt des Holozäns gezeigt.

Weil das nun wirklich nicht geschehen ist, können wir davon ausgehen, dass die gesamte Rückkoppelung sicher negativ ist, und dass alle “Katastrophe-Hypothesen“ relativ unwahrscheinlich sind.

Wir sollten uns stattdessen eher wegen einer katastrophalen globalen Abkühlung Sorgen machen. Wir wissen, dass es einen Kaltphasen-Hauptattractor von etwa 5-10 oC kühler als heute gibt. Die menschliche Zivilisation ist im Holozän entstanden, und wir sind noch nicht so weit, dass wir einen Umschwung zu eiszeitlichen Konditionen überleben könnten, jedenfalls nicht ohne den Tod von 5 Mrd Menschen und einem wahrscheinlichen Fast-Kollaps der Zivilisation. Wir wissen, dass dieser Übergang nicht nur vorkommen kann, sondern dass dies geschehen wird. Wann, wissen wir nicht, auch nicht, warum, oder wie wir seine generelle Wahrscheinlichkeit abschätzen könnten. Wir wissen ganz bestimmt, dass die Kleine Eiszeit – nurmehr 400-500 Jahre her – die kälteste Periode im gesamten Holozän nach dem jüngeren Trias-Ausreißer war. Ganz allgemein sieht es so aus, dass sich das Holozän von seiner wärmsten Periode her abzukühlen scheint, und das 20. Jh. hat  ein Großes Solares Maximum mit der aktivsten Sonne seit 11.000 Jahren erlebt. Dieses Maximum ist nun vorbei.

Eher Kälte als Wärme

Ich fürchte, wir befinden uns in einer Instabilität, in welcher ein vollständiger Umschwung zu einer kalten Phase wahrscheinlicher ist als uns lieb sein kann, als dass wir uns einer superwarmen Phase näherten, für die es keine Anzeichen in der Klimageschichte gibt. Die Wahrscheinlichkeit für Kälte ist aus zwei Gründen höher:

(1) Anders als für eine superwarme Phase wissen wir: die Kaltphase existiert tatsächlich, und sie ist viel stabiler als die Warmphase. Die “Größe” der quasistabilen Poincare-Zyklus-Schwingungen um den Hauptattractor der Kaltphase ist viel größer als die um die Warmphasen-Attractoren, und kurze Erwärmungsphasen werden oft zequetscht, bevor sie sich in tatsächliche Zwischeneiszeiten wandeln können – daran kann man erkennen, wie stabil sie sind.

(2) Wir haben 90% unserer Zeit in einer eiszeitlichen Phase verbracht, nur 10% in einer Zwischeneiszeit. Das Holozän ist eine der längeren Zwischeneiszeiten! Wir verstehen die über lange Zeitskalen wirkenden Dynamiken noch nicht. Wir haben gerade mal eine erste unklare Idee, was den (im Wesentlichen chaotischen) Übergang von einer warmen in eine kalte Phase oder umgekehrt bewirkt – es gibt sehr vorläufige Ideen über Kombinationen von Milankovich-Zyklen, Neigungen der Ekliptik, Polwanderung, Erdumlauf-Resonanzen, usw. Aber es gibt eine deutliche starke Rückkoppelung innerhalb des Klimazyklus, die das „Umkippen“ in eine Kaltphase bewirken kann, vermutlich hat das etwas mit der Albedo zu tun.

Das könnte etwas so Einfaches wie eine stille Sonne sein; das Maunder-Minimum der Kleinen Eiszeit legt nahe, dass wir eine stille Sonne wirklich fürchten sollten, weil irgend etwas im nicht-linearen Differential-System kältere Attractoren während eines Maunder-artigen Minimums zu bevorzugen scheint (während man sich noch in der Phase des warmen Attractors befindet). Man muss sich vergegenwärtigen, dass der Übergang zur Vereisungszeit wahrscheinlicher am Tiefpunkt von z. B. einer Kleinen Eiszeit liegt, als zu irgend einem anderen Zeitpunkt. Das Holozän lebt vermutlich mit "geborgter" Zeit an einem Punkt, wo es ein Intervall von der Art einer verlängerten Kleinen Eiszeit umkippen könnte.

Eine neue KLEINE EISZEIT wäre schlimmer als eine Erwärmung

Auch nur eine KLEINE EISZEIT wäre eine weit größeres Unglück als alle Katastrophenvorstellungen der Warmisten. Die Weltbevölkerung ist enorm gewachsen seit der letzten Eiszeit. Eine riesiger Anteil lebt in gemäßigten Breiten und kultiviert dort das Land. Frühe Winter mit spätem Frühlingsanfang könnten das verfügbare kultivierbare Land vermindern und die Anzahl der Ernten halbieren, und das bereits vor der totalen Vereisung. Kalte (Warme) Phasen sind oft auch verbunden mit hitzebedingten und tropischen Dürren, zumindest in gewissen Weltteilen. Meines Erachtens könnte der “rasche” Beginn einer KLEINEN EISZEIT eine Milliarde Menschen umbringen, weil es Miss-Ernten in Sibirien, China, Canada und den nördlichen Vereinigten Staaten gäbe. Dies könnte leicht die angespannte politische Weltlage destabilisieren. Ein Weltkrieg würde unsere großen Übel noch mehr verschlimmern.

Wir könnten dann vielleicht wirklich erkennen, dass ein menschengemachter Klimawandel unsere Rettung wäre. Das durch unseren Zivilisationssprung emittierte CO2 könnte die nächste KLEINE EISZEIT abmildern oder verschieben, es könnte den Ausreißer in die Kalt-Phase verhindern und den Beginn der nächsten jahrzehnte- oder jahrhundertelangen WIRKLICHEN Eiszeit verhindern. Inzwischen könnten wir vielleicht zusammenarbeiten und uns Gedanken darüber machen, wie wir in einer zivilisierten Welt zusammenleben könnten, nicht nur in einigen zivilisierten Ländern mit Menschen im Wohlstand und den übrigen Ländern, wo die Menschen arm sind und von einer Handvoll Tyrannen oder religiösen Oligarchen versklavt werden.

Wohlgemerkt, letzteres ist “spekulative Fiktion”. Auch ich verstehe die Klimazyklen nicht völlig (Sie sind ein großes Problem). Aber zumindest kann ich Indizien für eine in der tatsächlichen Klimaaufzeichnung lauernde Katastrophe liefern, sie ist viel weniger “fiktiv” als ein CO2-verursachter Klimawandel.

Dr. Robert Brown; Universität von North Carolina,

Originalbeitrag hier  

Übersetzung: Helmut Jäger, EIKE




Die deutsche Energieratlosigkeit!

Es gibt eine schöne Geschichte in den Abenteuern von Tim und Struppi des belgischen Zeichners Hergé. Beide sind zusammen mit Kapitän Haddock Gefangene auf einem Schiff, das explosives Material geladen hat. Auf hoher See bricht ein Feuer aus. Kapitän, Offiziere und Mannschaft springen voller Panik in die Rettungsboote und rudern mit aller Kraft weg von dem gefährlichen Schiff. In sicherer Entfernung warten sie auf die große Explosion. Doch nichts passiert. Eine große Welle hat das Feuer gelöscht. Die beiden Helden, Haddock und Tim, bringen das Schiff wieder in Fahrt und dampfen davon. Zurück bleibt eine wütende, ungläubige Besatzung mit ihrem hasenfüßigen Kapitän, allein auf dem weiten Ozean. Diese Comicepisode passt zu der Art und Weise, wie Deutschland auf die Ereignisse in Fukushima nach dem zerstörerischen Tsunami im März reagierte. Die Bundesregierung mit Kanzlerin Merkel an der Spitze, Politiker aller Parteien und ein großer Teil des Wählervolks hatten augenblicklich die Hosen voll und warfen alles über Bord, was zuvor in der Kernenergie als verlässlich gegolten hatte. Es herrschte blanke Panik. Jetzt – nach einem halben Jahr – sieht man: Panik ist ein schlechter Ratgeber. Fukushima hat sich nicht zu der atomaren Massenvernichtung ausgewachsen, die so viele in Deutschland erwartet hatten. Frau Merkel und ihr Volk sitzen nun in ihrem kleinen Boot und müssen den anderen – bioenergetisch angetrieben – hinterher hecheln. Zurück geht es nicht, dann müssten die Politiker zugeben, dass sie noch ängstlicher als die Bevölkerung waren, die sie vertreten. Und vorwärts, da ist es ungewiss. Da liegt eine Zukunft, bestimmt von ineffizienten und unzuverlässigen Energiequellen.

Weshalb haben andere Regierungen nicht so panikartig reagiert? Sie waren gelassener und dürften wohl Folgendes bedacht haben:

Die Havarie der Reaktoren von Fukushima 1 war Folge eines Jahrhundertbebens und eines Jahrtausend-Tsunamis. Alle KKW in der betroffenen Region, einschließlich Fukushima 1, haben das starke Beben ohne größere Schäden überstanden. Es war die 14 Meter hohe Tsunamiwelle, welche die Reaktoren von Fukushima 1 ausgeschaltet hat. Auslöser war also ein extremes Naturereignis.

Den Tsunami hätte die Anlage ohne größere Schäden überstehen können, wenn die Betreiber bestimmte Vorkehrungen getroffen hätten. [1] In den deutschen KKWs sind entsprechende Einrichtungen vorhanden, wie die Reaktorsicherheitskommission (RSK) in ihrer von der Bundesregierung initiierten Sicherheitsprüfung feststellte: Alle deutschen Kernkraftwerke weisen gegenüber Fukushima zusätzliche Sicherheitseinrichtungen sowie große Sicherheitsmargen auf, die einen Unfallablauf wie in Japan verhindern würden. Sie verfügen z. B. über verbunkerte, gegen Einwirkungen von außen geschützte Notstromeinrichtungen und sind so robust ausgelegt, dass sie das 100.000-jährige Erdbeben und das 10.000-jährige Hochwasser am jeweiligen Standort überstehen können. Der schwere Unfall in Fukushima 1 war also nicht naturgesetzlich unausweichlich und unvermeidlich. In Fukushima sind vier der sechs Reaktoren von der Katastrophe betroffen; bei drei von ihnen ist die Kernschmelze eingetreten. Für die deutsche Öffentlichkeit war dies der „Supergau“. Tatsache aber ist: Der Atomunfall ist nicht die Megakatastrophe, wie man sie in Deutschland erwartete und wie einige sie vielleicht auch gerne gehabt hätten: „Bis heute liegen keine Berichte vor, dass Menschen gesundheitliche Schäden als Folge von Strahlenbelastungen davongetragen hätten“, schreibt die Internationale Atomenergiebehörde in ihrem vorläufigen Bericht vom Juni des Jahres. [2]

Merkel aber hat nicht abgewartet. Sie legte bereits zwei Tage nach dem Reaktorunfall sieben Reaktoren in Deutschland still – eine absolut unangemessene und nicht begründbare Panikreaktion. Sie hat das Land damit auf einen abenteuerlichen Kurs gebracht, der noch viele Hunderte von Milliarden Euro kosten wird. Alle Parteien und große Teile der Bevölkerung sind bestürzend schnell und willig auf Atomhysterie und Energiewendejubel eingeschwenkt. Ebenso die Medien. Gegenstimmen waren und sind kaum zu hören.

Der Sonderweg

Der deutsche Sonderweg funktioniert nur mit viel Selbsttäuschung. Fukushima habe gezeigt, so der parteiübergreifende Konsens, dass die Kernenergie prinzipiell nicht zu beherrschen sei. Woran macht man das fest? An der Anzahl der havarierten Reaktoren in Fukushima, die trotz Riesenwelle und unzulänglichen Sicherheitseinrichtungen eben nicht „durchgegangen“ sind? Ist Kernenergie tatsächlich „die gefährlichste Technologie aller Zeiten“, wie das Hamburger Abendblatt im Juni schrieb? Was ist dann mit dem Straßenverkehr, der Jahr um Jahr weltweit eine Million Tote fordert? Darf man, wie ein Leitartikler in der Rheinzeitung, von der „menschenverachtenden Atomwirtschaft“ sprechen? Ist das nicht der geistige GAU, der größte anzunehmende Unsinn?

Angela Merkel begründete den Atomausstieg damit, dass im Falle eines Unfalls wie in Fukushima die Folgen „so verheerend und weitreichend [seien], dass sie die Risiken aller anderen Energieträger bei weitem übertreffen.“ Die vielen Toten im Kraftwerk Fukushima kann sie nicht meinen. Die gibt es nicht und wird es auch nicht geben. Meint sie den wirtschaftlichen Schaden durch die Zerstörung des Kraftwerks? Der dürfte sich in der Größenordnung des volkswirtschaftlichen Verlustes bewegen, der durch die Schnellstilllegung der deutschen Reaktoren und den endgültigen Ausstieg entsteht. Oder die Auswirkungen auf die Evakuierungszone um das Kraftwerk? Etwa 80.000 Menschen haben das Gebiet verlassen, Opfer der Strahlenkrankheit gab es nicht. Die frei gesetzten Radionuklide sind sehr ungleich verteilt. Eine beträchtliche Menge konzentriert sich dreißig Kilometer nordwestlich des Kraftwerks, während im größten Teil der evakuierten Zone die Strahlung sich schon im Mai nahe dem Normalwert bewegte. Im Januar nächsten Jahres, so damals die japanische Regierung, könne man vielleicht über eine Rückkehr der evakuierten Menschen entscheiden. [3] In Deutschland sieht man das anders: So war in der FAZ am 11. Juni über Fukushima zu lesen: „Millionen Menschen evakuiert, fast tausend Quadratkilometer Land auf unabsehbare Zeit unbewohnbar.“ [4] Eine derartige Panikmache hatte man bislang den Lobbyisten von Greenpeace überlassen. Das ist schließlich deren Broterwerb.

Inzwischen, Stand vom Juli, setzt die Anlage nur noch den zweimillionstel Teil an radioaktivem Material frei wie auf dem Höhepunkt der Krise am 15. März. Steht man heute direkt an der Kraftwerksgrenze, kann man mit einer maximalen Strahlenbelastung aus der Luft von 1,7 Millisievert pro Jahr (mSv/a) rechnen. Zum Vergleich: Die durchschnittliche Belastung durch die natürliche Hintergrundstrahlung liegt im globalen Mittel bei 2,4 mSv/a. Problematisch sind die Radionuklide, die sich am Boden abgesetzt haben. Etwa 95 Prozent des im März freigesetzten radioaktiven Materials bestanden aus Jod-Isotopen, die aufgrund ihrer geringen Halbwertzeit inzwischen nahezu verschwunden sind. Geblieben ist Cäsium-137, das in vielen Gebieten der evakuierten Zone Jahresdosen von mehr als 20 mSv liefert. 20 mSv ist die Dosis, die Arbeiter in einem Kernkraftwerk pro Jahr erhalten dürfen. Etwa so hoch ist auch die Dosis, die ein Patient bei einer einmaligen Computertomographie erhält. Zudem gibt es eine Reihe von Regionen auf der Erde, wo die natürliche Strahlung aus dem Boden erheblich höher ist – ohne gesundheitliche Schäden für die Bewohner. Soviel zur Unbewohnbarkeit auf unabsehbare Zeit. In Deutschland ist man sehr faktenresistent. Gemessen an den Auswirkungen, die tatsächlich in und um Fukushima zu beobachten sind, sind die hiesigen Katastrophenszenarien grotesk überzeichnet.

Was lässt sich wirklich lernen?

Gibt es etwas Positives an der Reaktorkatastrophe von Fukushima? Ja. Man kann daraus lernen – genauso wie aus Harrisburg und Tschernobyl. Die teilweise Kernschmelze im amerikanischen Kraftwerk TMI bei Harrisburg 1979 gilt als GAU, was eigentlich nur ein Auslegekriterium für den Bau eines Kernkraftwerks darstellt, im Mythenschatz der Kernenergiegegner aber für „größtmögliche Katastrophe“ steht. Und das Ergebnis? Am Reaktor war Totalverlust zu verzeichnen, aber es gab kein Strahlenopfer, kein Mensch wurde geschädigt, weder im Kraftwerk noch außerhalb davon. Vernachlässigbar geringe Mengen an radioaktivem Material gelangten in die Umgebung. Wenn man so will, war das Unglück von TMI ein unfreiwilliges, aber erfolgreiches Experiment, das die Wirksamkeit der Sicherheitseinrichtungen belegte. Wenige Jahre später, im sowjetischen Tschernobyl, kam es zum Supergau, zur „größtgrößtmögliche Katastrophe“. Ein Reaktor explodierte in vollem Betrieb und schleuderte große Mengen an radioaktivem Material in die Atmosphäre. Über die Folgen wird und wurde wüst spekuliert und übertrieben. Lobbyvereine wie Greenpeace sprechen (immer noch) von 100.000en, ja von Millionen Opfern. Tatsächlich liegt die Zahl der Opfer drastisch niedriger, nachzulesen in einer von der UNO veröffentlichten Studie: etwa 50 direkte Tote in der Anlage, einige tausend zusätzliche Krebserkrankungen. Das ist schlimm, liegt aber im unteren Bereich möglicher Zivilisationsrisiken. Und Fukushima? Zeigt dieser Unfall tatsächlich, wie etwa die Grünen meinen, die prinzipielle Unbeherrschbarkeit der Kerntechnik? Bei unaufgeregter Betrachtung lässt sich aus dem „ungewollten Großexperiment“ Fukushima allerdings ein anderer Schluss ziehen: vier havarierte Reaktoren, drei Kernschmelzen – trotzdem, wie gerade bilanziert, kein Megadesaster. Das war keine glückliche Fügung, das lag in der Natur der Dinge: Die Gesetze von Physik und Chemie geben einfach nicht mehr Katastrophe her. [5]

Amerikanische Kernphysiker sind auf diese grundlegende (und beruhigende) Einsicht bereits vor drei Jahrzehnten bei einer Nachbereitung des TMI- Unfalls gestoßen. Sie untersuchten ein „realistisches, aber sehr unwahrscheinliches Ereignis: die gleichzeitige Zerstörung von Systemen außerhalb der Containments, Risse in der Sicherheitshülle; eine Kernschmelze mit ungefilterter Freisetzung von radioaktivem Material“. Das klingt nach Fukushima. Und das Ergebnis dieser Untersuchung? „Selbst ein derartiges Ausnahmeereignis hätte, wenn überhaupt, nur wenige Todesfälle zur Folge. […] Die Freisetzung und die Ausbreitung radioaktiven Materials aus dem beschädigten oder geschmolzenen Brennstoff ist streng durch die physikalischen und chemischen Eigenschaften des Materials beschränkt.“ [6] Wie in Fukushima!

Lebenslüge Atomdesaster

Anfang Juni sagte Bundeskanzlerin Merkel in ihrer Regierungserklärung zur Energiewende, dass Fukushima ihre Haltung zur Kernenergie verändert habe. Ein Restrisiko könne sie nicht mehr akzeptieren. Auch andere haben ihre Haltung geändert, so George Monbiot, einer der prominentesten britischen Umweltschützer. So manchen Leser seiner wöchentlichen Kolumne im Guardian dürfte Monbiots Bekehrung, knapp zwei Wochen nach dem Tsunami, allerdings überrascht haben. „Als Folge des Desasters in Fukushima stehe ich der Kernenergie nicht länger neutral gegenüber. Ich befürworte jetzt diese Technologie.“ [7] Monbiot hat sich nicht aus ideologischen, sondern aus pragmatischen Gründen für die Kernenergie entschieden. Den engagierten Klimaschützer hat vor allem die Aussicht geängstigt, dass die Welt, insbesondere China, nun stärker wieder auf Kohle setzen werde – mit schlimmen Folgen: „In jeder Hinsicht (Klimawandel, Bergbau, lokale Umweltverschmutzung, Unfall- und Todeszahlen, Freisetzung von Radioaktivität)“, bilanziert Monbiot, ist Kohle hundertmal schlechter als Kernenergie.“ In mehreren Kommentaren erläuterte Monbiot seinen Sinneswandel, und er debattierte öffentlich mit Helen Caldicott, der globalen Ikone der Kernkraftgegner. Von ihr verlangte er Belege für die angeblich eine Million Tote durch Tschernobyl und andere gängige Horrorgeschichten. Erhalten hat er sie nicht. [8] Der grünen Bewegung wirft er vor, die Welt über die Gefahren radioaktiver Strahlung in die Irre zu führen. „Ihre Behauptungen […] haben keine wissenschaftliche Grundlage, halten Nachfragen nicht stand und sind fürchterlich falsch.“

Fürchterlich falsch sind auch die Annahmen, die der deutschen Energiewende zugrunde liegen: Es gab keine Strahlenopfer in und um Fukushima, und es wird keine auf immer unbewohnbare Todeszonen geben. Die deutsche Politik ignoriert diese positive Entwicklung, hält stattdessen am Erkenntnisstand vom März, ein paar Tage nach dem Tsunami, fest. Ausgangsniveau der Debatten, in denen Sozialwissenschaftler, Feuilletonisten und Ethiker den Ton angeben, ist immer noch die damals angenommene Megakatastrophe, die selbst die Bevölkerung Tokios dahinraffen könnte. Dass nichts von dem eingetreten ist, wird ausgeblendet. So funktionieren Lebenslügen. Lebenslügen müssen aufrechterhalten werden, damit man weiterleben kann. Bei manchen halten sie ein ganzes Leben, andere zerbrechen daran. Die deutsche Energiewende beruht auf der Lebenslüge „Atomdesaster Fukushima“.

Wie geht’s weiter?

Die Reaktorunfälle in Harrisburg und Tschernobyl hatten einschneidende Wirkung. Danach wurden nur noch wenige Kernkraftwerke gebaut, viele Ausbaupläne wurden auf Eis gelegt. Inzwischen sind allerdings wieder über 60 Reaktoren in Bau. Die Nachwehen von Fukushima sind verhaltener, sieht man einmal von dem „Hals über Kopf“-Ausstieg in Deutschland ab. Die Schweiz baut (vorerst) keine neuen Kernkraftwerke, lässt aber die vorhandenen laufen, Italien, das nie eingestiegen ist, will weiterhin auf Kernenergie verzichten und der vom japanischen Premier Kan vorgeschlagene Ausstieg irgendwann in der Zukunft stellt eine Privatmeinung dar. Andere Staaten haben ihre Ausbaupläne nicht aufgegeben. Im Mai empfahl der Council for Climate Change der britischen Regierung, außer den Erneuerbaren auch die Kernenergie weiter auszubauen. Sie, so der Rat, sei die effizienteste Methode der CO2- Vermeidung. China will bis 2020 60 neue Kernreaktoren in Betrieb nehmen (25 sind derzeit im Bau), Russland plant 35 Anlagen, unsere polnischen Nachbarn zwei Kernkraftwerke, die Niederlande und Litauen je eins. Südkorea wird vier Kernkraftwerke an die Vereinigten Arabischen Emirate liefern und will den eigenen Strombedarf bis 2030 zu über 40 Prozent mit Kernenergie decken. Gegenwärtig sind es 23 Prozent.

Die Liste ließe sich fortsetzen. Offensichtlich ist die Kernenergie kein Auslaufmodell. Analysten der britischen Economist Intelligence Unit, einer zur unabhängigen Economist Group gehörenden Beraterfirma, sehen ein „Jahrzehnt des Wachstums für die Kernenergie voraus, nur geringfügig beeinflusst durch den Fukushima-Unfall.“ Ihr im Juni veröffentlichter Bericht „The Future of Nuclear Energy“ trägt den bezeichnenden Untertitel „Ein Schritt zurück, zwei Schritte vorwärts“.

Deutschlands Energiewende ist emotionsgetrieben, aufgeladen durch die Angst vor Strahlung jeglicher Art. Dabei ist die Furcht größer als die tatsächliche Gefahr. Die Horrorvisionen, die selbst für niedrige Strahlendosen beschworen werden, stammen noch aus den Zeiten des atomaren Wettrüstens. [9] Was damals die Schrecken eines Nuklearkriegs aufzeigen sollte, haben die Grünen in ihren Mythenschatz übernommen und gegen die Kerntechnologie gewendet. Irrationale Ängste lassen sich damit einfach schüren und ausnutzen, wie die vergangenen Monate in Deutschland gezeigt haben. Ist es ethisch vertretbar, dass Politiker und Lobbygruppen zur Verfolgung eigennütziger Ziele weiten Teilen der Bevölkerung Angst einjagen? Merkels Ethikkommission hat dazu leider kein Wort verloren, im Gegensatz zu George Monbiot. Für ihn ist es eine moralische Frage: Darf man Menschen mit vollkommen übertriebenen Aussagen zu den Gefahren radioaktiver Strahlung in Angst und Schrecken versetzen? Man darf es nicht.

Weltweit arbeiten derzeit rund 450 Kernkraftwerke. Sie haben bislang etwa 64.000 Milliarden Kilowattstunden an Strom erzeugt. Dafür hätten sich, bei einer Lebensdauer von 20 Jahren pro Anlage, einige zehn Millionen Windräder drehen müssen. Durch den Nuklearstrom sind 15 bis 20 Milliarden Tonnen an Kohle in der Erde und einige 10.000 Bergleute am Leben geblieben. Rund 14 Prozent des Stroms werden weltweit durch Kernspaltung erzeugt, zwei Drittel durch Kohle und Gas. Kohle ist bei weitem der wichtigste Brennstoff für die Stromproduktion und wird es in den nächsten Jahrzehnten bleiben. Ohne die einheimische Kohle hätten die Milliardenbevölkerungen von China und Indien keine Aussicht, ihre im Schnitt immer noch ärmlichen Lebensbedingungen dem Niveau der reicheren Länder anzugleichen. Wenn man Kohle bei weltweit wachsendem Energiebedarf überhaupt ersetzen kann, wird dies nur allmählich geschehen, und zwar nicht durch Wind und Sonne. Der Ersatz von Kohlekraftwerken (die zuverlässig, effizient und damit billig Strom produzieren) durch Windräder und Solaranlagen (die teuren, nur unregelmäßig verfügbaren Strom liefern) ist eine Ausgabe, aber keine Investition. Davon profitieren einige wenige, aber die Mehrheit verliert. Diesen Luxus kann man sich in Deutschland (noch) leisten, aber nicht in China, Indien und anderen Ländern. Wohin wird sich also die Welt der Energie, realistisch gesehen, in den kommenden Jahrzehnten entwickeln? Sicher nicht in Richtung deutscher Energiewende. Das ist eine Sackgasse. Sie ist teuer, vernichtet Kapital und verschwendet Rohstoffe. Nur die effiziente Kernenergie kann die effiziente Kohleenergie ersetzen. Das wird dauern, denn die kerntechnische Industrie hat nach dreißig Jahren Auszeit viel an Substanz und Schwung verloren.

In gewissem Sinne beginnt die Kernenergie noch einmal neu – mit neuen Partnern und mit neuen Konzepten. Die Neuen im Geschäft sind China, Südkorea und Indien, sie dürften sich zu treibenden Kräften entwickeln. Korea zum Beispiel hat das Ziel, bis 2030 Kernkraftwerke für 400 Milliarden Euro zu exportieren. Schwer vorstellbar, dass Deutschland vergleichbare Summen mit Windrädern und PV-Anlagen verdienen kann. Nach technologischem Stillstand gibt es wieder Entwürfe und Planungen für neuartige Reaktoren. Es gibt neue Sicherheitskonzepte, passive Systeme, die auch funktionieren, wenn der Strom ausfällt und Reaktoren, die inhärent sicher sind, wo die Physik die Katastrophe von vornherein ausschließt. Inhärent sicher ist etwa der Hochtemperaturreaktor, den man in Deutschland schon einmal bis zum industriellen Prototyp entwickelt hatte. Chinesische Wissenschaftler bauen ihn nun neu. Er liefert nicht nur Strom, sondern auch Hochtemperaturwärme – ideal, um fossile Brennstoffe zu ersetzen. Mit seiner Energiewende hat sich Deutschland von diesen technologischen Entwicklungen und vom größten Teil der Welt abgekoppelt. Für einen solchen Sprung ins Ungewisse müsste es schon sehr, sehr gute Gründe geben. Das Reaktorunglück von Fukushima liefert diese nicht.

Anmerkungen

[1] Siehe Eike Roth: „Fukushima und was wir daraus lernen können. Versuch einer Bewertung nach 80 Tagen“ in: Energie-Fakten.de,, 1. 6.11 und IAEA: „International Fact Finding Expert Mission of the Fukushima Dai-ichi NPP Accident. Following the Great East Japan Earthquake and Tsunami: Mission Report“, 16. 7. 11, pub.iaea.org.

[2] Siehe auch J. Nakosko, T. Lazo: „Fukushima.“ NEA News, 2011, Nr. 29.1, oecd-nea.org. Die Autoren stellen u. a. fest, dass in dem Kraftwerk acht von 2400 Arbeitern eine Strahlendosis von mehr als 250 MilliSievert (mSv) erhalten haben. Und was ist mit der „radioaktiven Wolke“? Im Bezirk Ibaraki, auf halbem Weg zwischen Tokio und Fukushima, lag der Höchstwert bei 0,35 Mikrosievert (μSv) pro Stunde. Erreicht wurde er am 22. März. Hätte diese Belastung ein Jahr lang angedauert, wäre die Bevölkerung mit etwa 3 mSv belastet worden, soviel wie die durchschnittliche natürliche Hintergrundstrahlung, die jeder Mensch erhält.

[3] World Nuclear News: „Cold shutdown a must for Fukushima return“ in: World Nuclear News, 19.5.11 world-nuclear-news.org.

[4] Joachim Müller-Jung: „Atompolitik nach Fukushima. Die nukleare Selbstdemontage“ FAZ 25.6.11, faz.net. Jung leitet übrigens die Wissenschaftsredaktion der FAZ.

[5] Auch dem Chef-Wissenschaftler der britischen Regierung, Sir Beddington, war diese grundlegende Einsicht vertraut. Damit konnte er die versammelten Mitglieder der britischen Botschaft in Tokio davon überzeugen, dass eine Flucht aus der japanischen Hauptstadt unnötig wäre. Da hatten sich die Angehörigen der deutschen Botschaft in Tokio bereits nach Osaka abgesetzt. Siehe: Heinz Horeis: „Fukushima 1: Worst case scenario German angstNovoArgumente Online 18.3.2011

[6] radscihealth.org/RSH/Realism/WP-Annex1.htm. An dieser Untersuchung war neben amerikanischen Forschungszentren auch das Kernforschungszentrum Karlsruhe beteiligt. Eine ausführliche Zusammenfassung durch milton levenson und frank rahn erschien 1981 in Nuclear Technology (Vol 53, May 1981). Das Papier wurde in die jeweilige Sprache aller Mitgliedsländer der Internationalen Atomenergiebehörde übersetzt. Ernsthafte Einwände gegen diese Ergebnisse gab es nicht.

[7] George Mobiot: „Going Critical“ The Guardian, 22 03.2011.

[8] monbiot.com/2011/04/04/evidence-meltdown/. Monbiot hat von Caldicott wissenschaftlich fundierte („peer reviewed“) Belege für 14 ihrer Horror-Behauptungen verlangt. Sie konnte keine ihrer Aussagen belegen.

Sehr lesenswert dazu die Korrespondenz.

[9] 1959 hat sich die Internationale Kommission für Strahlenschutz (ICRP) auf das LNT-Modell geeinigt (LNT ist die Abkürzung für „linear no threshold“). Es besagt, kurz gefasst, dass jede noch so geringe Strahlendosis gesundheitsschädlich ist. Die Summe mehrerer kleiner Strahlendosen hätte demnach die gleiche Wirkung wie eine einmalige große Dosis. In den Alltag übersetzt hieße das: An neun Tagen hintereinander jeweils 20 Minuten Sonnenbad zur Mittagszeit hätte die gleichen Folgen wie vier Stunden Sonnenbad am Stück. Namhafte Radiobiologen und Nuklearmediziner lehnen das LNT-Modell ab. Dagegen sprächen etwa Untersuchungen zur natürlichen Strahlenbelastung wie auch Erfahrungen aus der Strahlenmedizin. Siehe dazu zum Beispiel das Buch des britischen Nuklearmediziners wade allison, Radiation and Reason, 2009.

Heinz Horeis

Dieser Artikel ist zuerst in der aktuellen Printausgabe von NovoArgumente (#112 – II/2011) erschienen. Die Online-Version bei NovoArgumente finden Sie hier in drei Teile aufgeteilt.

Heinz Horeis ist freier Wissenschaftsjournalist. Mit dem Thema Energie befasst er sich seit der ersten großen Energiedebatte in den 1980er Jahren. Er ist Mitautor eines Buches über Strahlung und Radioaktivität, das jüngst in einen japanischen Verlag erschienen ist. Heinz Horeis prägte den Begriff “NIEs” für “Neue Ineffziente Energien” 




Politisch korrekte Wettervorhersagen

Viele Abonnenten (Kopp Exklusiv) werden sich noch an unseren Bericht über die verschwiegenen Ursachen für die immer ungenauer werdenden Wetterprognosen erinnern: Weil nicht nur vor der Küste Somalias, sondern in immer mehr internationalen Gewässern Piraten die Wetterfunksprüche der Frachtschiffe auffangen. werden diese zusammen mit den Positionsangaben seit einigen Jahren nur noch zeitversetzt gesendet. Die Piraten können die Frachtschiffe nun zwar mit deren für die Meteorologen gesendeten Wetterdaten nicht mehr orten, aber zugleich haben die Meteorologen Daten, bei denen Wetterdaten und Positionsdaten in der Realität nicht übereinstimmen. 

Dennoch gehen sie in die Wetterprognosen ein – und führen zu Vorhersagen. die eben immer öfter mit der Realität nichts mehr zu tun haben. 

Interkulturelle Sensibilität

Die Wettervorhersagen werden immer unzuverlässiger. Zugleich werden sie im deutschsprachigen Raum politisch immer korrekter. Man sieht das etwa an der Benennung der Hochs und Tiefs. Damit Hochdruckgebiete nicht nur mit weiblichen Namen und Tiefdruckgebiete nicht nur mil männlichen Namen verknüpft werden. düfen in geraden Jahren Hochdruckgebiete nur männliche und Tiefdruckgebiete nur weibliche Namen tragen. Und in ungeraden Jahren ist es genau umgekehrt. Aus dem Tiefdruckgebiet Andreas im Jahre 2011 würde 2012 das Tiefdruckgebiet Andrea. Und ein Tief, das 2011 Christian genannt worden wäre. müsste 2012 Christiane heißen. Nun kann man im deutschsprachigen Raum Namenspate eines Hochs oder Tiefs werden. Doch wenn es um Geld geht, da endet die Gleichheit: Während man für 199 Euro beim Institut für Meteorologie Namenspate eines Tiefdruckgebietes werden kann, kostet ein Hoch dort gleich 299 Euro. Allerdings erfolgt die Vergabe der Namen nach den Regeln der »interkulturellen Sensibilität«. Ein Tiefdruckgebiet hat im deutschsprachigen Raum beispielsweise noch nie einen islamischen Namen wie Mohammed, Ahmed oder Yussuf getragen, weil das Muslime oder den Islam »beleidigen« könnte. Ein christlicher oder jüdischer Vorname für das Tiefdruckgebiet stellt demgegenüber kein Problem dar. Das ist allerdings nur die Spitze der politischen Korrektheit der Wettervorhersage. Denn es gibt viele neue Sprachregelungen, die Meteorologen der Politik zuliebe verwenden sollen.

Sprachregelung im öffentlich rechtlichen Rundfunk

Die Wettermoderatoren der öffentlich-rechtlichen Sender sind dazu angehalten, möglichst haufig auf etwaige Abweichungen von Durchschnittstemperaturen nach oben hinzuweisen, 

Im Klartext: Ist ein Monat gegenüber Vergleichsmonaten der Vorjahre beispielsweise ein Grad wärmer, dann soll darauf hingewiesen und zugleich an den angeblichen Klimawandel als mögliche Ursache erinnert werden. Die Tatsache, dass Wetter keiner Norm unterliegt. gerät so bei den Bürgern in Vergessenheit. Noch einprägsamer ist allerdings die Aufforderung, moglichst häufig vor Unwettern zu warnen. Ein ganz normaler Wintersturm wird heute als Orkan höchster Gefahrenklasse angekündigt. Nie zuvor hat es mehr Unwetterwarnungen im deutschsprachigen Raum gegeben als in den vergangenen Monaten. Dabei hat sich die Zahl der Stürme. von Starkregen, Hagelschauern und Trockenperioden aus der Sirht der Versicherer in den letzten Jahrzehnten in Deutschland nicht verändert. Und die müssen es schließlich wissen. Ohnehin kann man viele neue Wetterphänomene ganz natürlich erklären und muss nicht gleich den Klimawandel als Kronzeugen anführen.

Ein Beispiel, das Meteorologen gern verschweigen: Nach Angaben der wissenschaftlichen Fachzeitschrift "Science" regnet und schneit es in der Umgebung von Flughäfen öfter und stärker als vor einigen Jahrzehnten. Die Meteorologen begründen das mit dem Klimawandel. In Wahrheit reißen die vielen startenden und landenden Flugzeuge Löcher und Kanäle in die Wolkendecken und lassen sie abregnen oder abschneien. Man kann das auch dem Laien ganz einfach erklären. Doch das ist politisch nicht erwünscht. 

Udo Ulfkotte; erschienen 2/12 bei "Kopp Eclusive" , mit freundlicher Genehmigung




Mr. Spock übernehmen Sie: Über die Bearbeitung der Daten der ARGO-Bojen

Die Behauptungen und Schlussfolgerungen der H2011-Studie beziehen sich hauptsächlich auf den Wärmegehalt der Ozeane (OHC), großenteils von den ARGO-Bojen gemessen, also dachte ich, dass ich mir diese Daten mal ansehen sollte. Die Messungen der Wassertemperatur und des Salzgehaltes mit einer großen Datenmenge geben uns viele wertvolle Informationen über den Ozean. Das H2011-Papier wendet die jüngsten Ergebnisse der Studie von K. von Schuckmann und P.-Y. Le Traon an (SLT2011).

Abbildung 1 rechts:

Schema einer Argo-Boje. Sie ist insgesamt etwa 2 m hoch. Quelle: Wikipedia

Die Argo-Bojen sind Treibbojen, die selbständig arbeiten. Jede Boje misst alle zehn Tage ein komplettes vertikales Temperaturprofil. Das Profil reicht bis in eine Tiefe von 1000 oder 2000 m. Sie sendet alle Messergebnisse via Satellit vor der nächsten Messung.

Unglücklicherweise sind die in H2011 verwendeten Argo-Daten mit einigen Problemen behaftet. Die Zeitspanne des Datensatzes ist sehr kurz. Die Änderungen sind ziemlich klein. Die Genauigkeit wird überschätzt. Schließlich und am Wichtigsten, die Untersucher benutzen die falsche Methode bei der Analyse der Daten.

Erstens ist da die Länge des Datensatzes. Die von Hansen benutzten Daten überdecken nur eine Zeitspanne von 72 Monaten. Dies begrenzt die Schlussfolgerungen, die wir aus diesen Daten ziehen können. H2011 drückt sich davor, wenn er nicht nur für diese Daten, sondern für alle Daten lediglich ein gleitendes Mittel über sechs Jahre zeigt. Ich kann es wirklich nicht leiden, wenn Rohdaten nicht gezeigt werden, sondern nur die mit der Hansen-Methode bearbeiteten Daten.

Zweitens, die Unterschiede sind ziemlich klein. Abbildung 2 zeigt eine Aufzeichnung, wie sie in SLT2011 zu finden ist. Sie zeigt die Daten als jährliche Änderungen des Wärmegehalts im oberen Ozean (OHC) in der Einheit Joule. Ich habe diese OHC-Änderungen (Joules/m²) für das Wasser, das sie vermessen, in Änderungen mit Celsius-Graden übertragen. Das gilt für eine ein Quadratmeter große Wassersäule mit einer Tiefe von 1490 Metern.  Wie man erkennt, behandelt die SLT2011-Studie sehr kleine Temperaturvariationen. Dies gilt auch für die H2011-Studie.

Abbildung 2 : Temperatur des oberen Ozeans nach Schuckmann & Le Traon, 2011 (SLT2011). Graue Balken zeigen einen Sigma Fehler in den Daten. Die rote Linie steht für eine 17-Punkte-Gaussverteilung. Die vertikale rote Linie zeigt den Fehler des Gauss’schen Mittels an den Rändern des Datensatzes (95% CI). Digitalisierte Daten aus SLT2011, Abb. 5b, erhältlich als durch Kommata getrennte Textdatei hier.

Einige Dinge in diesem Datensatz sind bemerkenswert. Zunächst haben wir es hier mit winzigen Temperaturänderungen zu tun. Die Länge der grauen Balken zeigt, dass SLT2011 behauptet, dass man die Temperatur der oberen 1½ Kilometer des Ozeans mit einem Fehler von nur ±acht tausendstel eines Grades…

Nun hasse ich es, aus Unglauben zu argumentieren, und ich werde ausführlich statistische Gründe weiter unten anführen, aber, meiner Treu… ein Fehler von acht Tausendstel Grad bei den Messungen der monatlichen Mitteltemperatur in der obersten Meile Wasser von fast dem gesamten Ozean? Wirklich? Sie glauben, dass sie die Temperatur des Ozeans bis zu diesem Grad an Präzision messen können, geschweige denn Genauigkeit?

Das zu glauben fällt mir sehr schwer. Ich verstehe die Gesetze der Zahlen und das zentrale Begrenzungstheorem und wie es uns zusätzliche Hebelwirkung gibt, aber der Gedanke, dass wir die Temperatur von 400 Millionen Kubikkilometer von Ozeanwasser mit einer Genauigkeit von acht Tausendstel Grad messen können, ist… nun, nennen wir es unbegründet. Andere, die mit Temperaturmessungen in Flüssigkeiten mit weniger als ein Hundertstel an Genauigkeit Erfahrung haben,  mögen sich hierzu äußern, aber für mich sieht es wie eine viel zu weit entfernte Brücke aus. Ja, es gibt etwa 2500 ARGO-Bojen dort draußen, und auf einer Karte des Ozeans sieht die Verteilung ziemlich dicht aus. Abbildung 3 zeigt die Position der Bojen im Jahr 2011.

 

Abbildung 3: Position der ARGO-Bojen. Quelle

Aber das ist nur eine Karte. Die Welt ist unvorstellbar groß. Im echten Ozean, bis zu einer Tiefe von eineinhalb Kilometern, das heißt ein ARGO-Thermometer für jedes der 165.000 Kubikkilometer Wasser… Ich weiß nicht, wie man sich klar machen kann, wie viel das wirklich ist. Versuchen wir es mal so: Der Obere See ist der größte Binnensee Amerikas, der selbst in der obigen Karte noch erscheint. Wie akkurat kann man die mittlere monatliche Temperatur der gesamten Wassermenge im Oberen See mit einer einzigen ARGO-Boje messen? Sicher kann man sie auf und ab tauchen oder sie rund um den See treiben lassen, sie wird drei vertikale Profile pro Monat messen. Aber selbst dann deckt jede Messung nur einen kleinen Teil des gesamten Sees ab.

Aber für ARGO sieht es noch schlimmer aus. Jede einzelne Boje, jeder Punkt in Abbildung 3 repräsentiert ein Volumen, das 13 mal so groß ist wie der Obere See … mit nur einem ARGO-Thermometer…

Oder wir betrachten es auf andere Weise. In der von SLT2011 abgedeckten Zeitspanne waren 2500 ARGO-Bojen in Betrieb. Das Gebiet des Ozeans umfasst etwa 360 Millionen Quadratkilometer. Also repräsentiert jede ARGO-Boje eine Fläche von etwa 140.000 Quadratkilometer, d. h. mit einem Quadrat von etwa 380 km auf jeder Seite. Eine ARGO-Boje für das alles! Zehn Tage für jeden Tauchzyklus, wobei die Boje tausend Meter absinkt und dort neun Tage lang verharrt. Dann steigt sie wieder auf, entweder von diesem Punkt, oder sie sinkt erst in eine Tiefe von 2000 Meter, um danach mit einer Geschwindigkeit von etwa 10 cm pro Sekunde an die Oberfläche zu steigen, wobei sie ununterbrochen Temperatur und Salzgehalt misst. Auf diese Weise erhalten wir drei vertikale Temperaturprofile von 0 bis 1000 oder 0 bis 1500 oder 0 bis 2000 Metern jeden Monat, abhängig von der Drift im Einzelnen, um ein Gebiet von 140.000 Quadratkilometern abzudecken… Tut mir leid, aber drei vertikale Temperaturprofile pro Monat, um ein Gebiet von 60.000 Quadratkilometern und einer Tiefe von 1 Kilometer abzudecken, das klingt in meinen Ohren ganz und gar nicht nach „einer Genauigkeit von acht Tausendstel Grad“.

Hier habe ich noch einen dritten Weg, um sich die Herausforderung dieser Messungen klarzumachen. Wenn man je mal in einem kleinen Boot gesessen und kein Land mehr gesehen hat – weiß man dann, wie groß der Ozean von Deck aussieht? Nehmen wir an, das Deck befinde sich 3 Meter über dem Wasser und man steht an Deck und schaut sich um. Nichts als der blanke Ozean erstreckt sich ringsum bis zum Horizont, eine riesige Menge Wasser auf allen Seiten. Wie viele Thermometermessungen würde man brauchen, um die monatliche Mitteltemperatur nur des in diesem Falle sichtbaren Ozeans bis zu einer Tiefe von eineinhalb Kilometern brauchen? Ich würde sagen… mehr als eine.

Nun führe man sich vor Augen, dass jede ARGO-Boje ein Gebiet zu überdecken hat, das 2000 mal so groß ist wie die Fläche, die man auf dem Deck des Schiffes stehend überblicken kann… und die Boje nimmt drei Tauchdurchgänge pro Monat vor… wie gut passen die Messungen, wie gut repräsentieren sie die Wirklichkeit?

Es gibt noch eine weitere Schwierigkeit. Abbildung 2 zeigt, dass sich der größte Teil der Änderung während der Zeitspanne innerhalb eines Jahres ereignete, etwa von Mitte 2007 bis Mitte 2008. Die Änderung des notwendigen Antriebs, die Temperatur von Wasser bis zu einer Tiefe von eineinhalb Kilometern zu ändern, liegt etwa bei 2 W/m² für diese Periode eines Jahres. Das „Ungleichgewicht“, um Hansens Term zu benutzen, ist sogar noch schlechter, wenn wir die Menge Energie betrachten, die nötig ist, um den oberen Ozean von Mai 2007 bis August 2008 zu erwärmen. Dies erfordert ein globales „Ungleichgewicht“ von etwa 2,7 W/m² während dieser Zeit.

Weiter! Wäre dies mein Datensatz, wäre das Erste, was ich mir ansehe, was sich Mitte 2007 verändert hat. Warum sprang das globale „Ungleichgewicht“ auf einmal auf 2,7 W/m²? Noch mehr auf den Punkt gebracht, warum hat sich der obere Ozean erwärmt, nicht jedoch die Lufttemperatur?

Ich habe keine Antworten auf diese Fragen, mein erster Gedanke waren „Wolken“… aber bevor ich mit diesem Datensatz arbeitete, wollte ich hingehen und nachschauen, warum es 2007 diesen großen Sprung gab. Was hat sich verändert und warum? Wenn das globale „Ungleichgewicht“ in unserem Interesse liegt, gibt es hier ein Ungleichgewicht zu studieren.

 (Lassen Sie mich im Vorübergehen anmerken, dass es eine nicht korrekte vereinfachende Annahme ist, den Wärmegehalt der Ozeane zu eliminieren, um zur kanonischen Klimagleichung zu kommen. Diese kanonische Gleichung lautet:

Temperaturänderung = Sensitivität x Änderung des Antriebs.

Der Fehler liegt darin anzunehmen, dass die Änderung des ozeanischen Wärmegehalts (OHC) eine lineare Funktion der Temperaturänderung ∆T ist. Das ist sie nicht, wie die ARGO-Daten bestätigen… diesen Fehler habe ich in einem früheren Beitrag hier (auf Deutsch bei EIKE hier) beschrieben. Aber ich schweife ab…

Die ARGO-Aufzeichnungen bei SLT2011 haben auch eine Eigenart, wie sie auch bei einigen anderen Temperaturaufzeichnungen vorkommt. Die Schwingung während des gesamten Zeitraumes beträgt etwa ein Hundertstel Grad. Der größte Sprung innerhalb eines Jahres in den Daten liegt auch etwa bei einem Hundertstel Grad. Wenn sich in lang- und kurzfristigen Zeiträumen die gleiche Schwingung zeigt, kann man kaum noch viel über die Daten sagen. Das macht es sehr schwierig, die Daten zu interpretieren. Zum Beispiel beträgt das notwendige Ungleichgewicht zur größten Änderung innerhalb eines Monats etwa 24 W/m². Bevor wir fortfahren – Änderungen des OHC die zu betrachten sich lohnen würde, um zu sehen, a) ob sie real sind und b) falls ja, was hat sich verändert…

In jedem Falle, das war mein zweites Anliegen, die Kleinheit der gemessenen Temperaturunterschiede.

Als nächstes zur Abdeckung. Die ARGO-Analyse bei SLT2011 verwendet lediglich Daten bis zu einer Tiefe von 1500 Metern. Sie sagen, dass der Datenumfang von ARGO in noch größeren Tiefen zu dünn ist, um von Bedeutung zu sein, aber die Lage verbessert sich. Außerdem überdeckt die ARGO-Analyse nur den Bereich zwischen 60° Nord und 60° Süd. Der arktische bzw. antarktische Ozean bleibt also außen vor, ebenfalls wegen der unzureichenden Datenlage. Als nächstes fängt sie erst in einer Tiefe von 10 Metern an, lässt also die entscheidende Oberflächenschicht außen vor, obwohl die, wiewohl klein im Volumen, große Temperaturveränderungen erfährt. Schließlich fehlen in ihrer Analyse die Kontinentalschelfe, weil nur Gebiete betrachtet werden, in denen der Ozean über 1000 m tief ist. Abbildung 4 zeigt den Anteil der von den ARGO-Bojen tatsächlich vermessenen Gebiete in SLT2011, nämlich etwa 30%.

 

Abbildung 4: Anteil der Weltozeane, in denen die ARGO-Bojen messen, wie in SLT2011 verwendet.

Zusätzlich zu den Messungen der ARGO-Bojen zeigt Abbildung 4, dass es noch eine Anzahl anderer Messungen gibt. H2011 enthält Daten für einige davon, einschließlich der Südlichen Ozeane (= der antarktischen Gewässer)  des Arktischen Ozeans sowie Tiefengewässer. Hansen verweist auf seine Quelle (Purkey und Johnson,   hier PJ2010 genannt) und sagt, dass es in einer Tiefe von 2 bis 4 km keine Temperaturänderung gegeben hat. Dies gilt für das meiste des Wasseranteils auf der rechten Seite der Abbildung 4. Es ist unklar, wie sich das Wasser am Grund erwärmt, ohne dass die mittleren Wasserschichten das auch tun. Ich kann mir nicht vorstellen, wie das möglich sein soll, aber PJ2010 zufolge ist es so, dass das blaue Gebiet rechts das die Hälfte des Ozeanvolumens repräsentiert, keinerlei Temperaturänderung aufweist.

Weder H2011 noch SLT2011 bieten eine Analyse des Effekts an, den das Auslassen der Kontinentalschelfe oder der dünnen Oberflächenschicht hat. In dieser Hinsicht ist es bemerkenswert, dass sich in einer zehn Meter dicken Schicht wie in Abbildung 4 gezeigt die Temperatur problemlos um ein ganzes Grad ändern kann… und wenn sie das tut, wäre das etwa die Größenordnung der gleichen Änderung des ozeanischen Wärmegehaltes wie die 0,01°C der Erwärmung des gesamten Volumens, wie es von den ARGO-Bojen gemessen worden ist. Also ist diese Oberflächenschicht ein viel zu großer Faktor, um einfach bei der Analyse nicht berücksichtigt zu werden.

Es gibt noch ein anderes Problem mit den Abbildungen, die in H2010 als Beleg für die Änderung des Wärmegehalts des Tiefenwassers (unter 4 km) herangezogen werden. In der zitierten Studie, PJ2010, heißt es:

Schließt man den arktischen Ozean und die Nördlichen Ozeane aus, ist die Änderung des Wärmegehalts in Tiefengewässern (unter 4000 m) global in den neunziger Jahren und der ersten Dekade dieses Jahrhunderts äquivalent mit einem Wärmefluss von 0,027 (± 0,009) W/m², angewendet auf die gesamte Erdoberfläche. QUELLE: PJ2010.

Das läuft auf eine behauptete Erwärmungsrate der Tiefengewässer von 0,0007°C pro Jahr hinaus, mit einem behaupteten 95%-Intervall einer Standardabweichung von ±0,0002°C pro Jahr… Es tut mir leid, aber das nehme ich ihnen nicht ab. Ich akzeptiere nicht, dass wir den jährlichen Temperaturanstieg der Tiefengewässer auf zwei tausendstel eines Grades pro Jahr kennen, egal was PJ2010 behaupten. Die Tiefengewässer werden einmalig oder zweimal pro Dekade mit einem Profil vermessen. Ich glaube nicht, dass unsere Messungen ausreichend sind.

Wie es in der Klimawissenschaft häufig der Fall ist, ist unser Problem hier, dass als Einziges die strikte mathematische Unsicherheit hinsichtlich der Zahlen selbst berücksichtigt wird, losgelöst von der realen Welt. Es gibt eine damit verbundene Unsicherheit, die manchmal unberücksichtigt bleibt. Diese besteht darin, wie sehr unsere aktuelle Messung das gesamte Gebiet repräsentiert.

Das zugrunde liegende Problem ist, dass die Temperatur von „intensiver“ Qualität ist, während so etwas wie Masse von „extensiver“ Qualität ist. Diese beiden Arten, intensive und extensive Parameter, zu messen ist sehr, sehr unterschiedlich. Eine extensive Qualität ändert sich mit der Menge („extent“) dessen, was gemessen wird, was auch immer das ist. Die Masse von zwei Gläsern Wasser mit einer Temperatur von 40° ist zweimal die Masse eines Glases Wasser mit einer Temperatur von 40°. Zur Bestimmung der Gesamtmasse addieren wir einfach die beiden Massen.

Aber addieren wir zweimal 40°C, um eine Gesamttemperatur von 80° zu erhalten? Nein, so funktioniert das nicht, weil die Temperatur von intensiver Qualität ist. Sie ändert sich nicht auf Basis der Menge, die wir messen.

Extensive Qualitäten sind generell einfach zu messen. Wenn wir eine große Badewanne voll Wasser haben, können wir dessen Masse leicht bestimmen. Man bringe eine Skala an und mache eine einzige Messung – fertig! Eine Messung ist alles, was man braucht.

Aber die mittlere Temperatur des Wassers ist viel schwerer zu ermitteln. Es erfordert simultane Messungen der Wassertemperatur an genauso vielen Stellen wie verlangt. Die Anzahl der erforderlichen Thermometer hängt von der Genauigkeit ab, die man braucht, und von der Größenordnung der Änderung der Wassertemperatur. Wenn es warme und kalte Stellen des Wassers in der Wanne gibt, braucht man sehr viele Thermometer, um einen Mittelwert zu erhalten, der, sagen wir, auf ein zehntel genau ist.

Nun rufen Sie sich ins Gedächtnis zurück, dass wir hier anstelle einer Badewanne mit vielen Thermometern für die ARGO-Daten ein Ozeangebiet haben mit einer Seitenlänge von 380 km mit einer einzigen ARGO-Boje darin, die die Temperatur misst. Wir messen bis zu einer Tiefe von eineinhalb Kilometern, und wir erhalten drei vertikale Temperaturprofile pro Monat… wie gut charakterisieren diese drei Profile die tatsächliche Temperatur von 140.000 km² Ozean?

Man beachte ferner, dass es in den Tiefengewässern viel, viel weniger Messungen gibt… und doch wird behauptet, dass man eine noch größere Genauigkeit erreichen kann als mit den ARGO-Daten.

Bitte seien Sie sich darüber im Klaren, dass meine Argumentation nicht auf den Möglichkeiten einer großen Anzahl von Messungen basiert, um die mathematische Präzision des Ergebnisses zu verbessern. Es gibt etwa 7500 vertikale ARGO-Profile pro Monat. Die Einteilung der Ozeanoberfläche in 864 Gitterpunkte ist ausreichend, um uns mathematische Präzision in der von ihnen behaupteten Größenordnung zu geben, falls die Standardabweichung (SD) des tiefenintegrierten Gitterpunktes  etwa 0,24°C beträgt. Die Frage ist, ob die SD der Gitterpunkte so klein ist, und falls ja, warum sie so klein geworden ist.

Sie diskutieren, wie sie ihre Fehleranalyse durchgeführt haben. Ich habe den Verdacht, dass ihr Problem in zwei Gebieten liegt. Eines ist, dass ich keine Fehlerabschätzung für das Entfernen der „Klimatologie“ aus den Daten, der historischen monatlichen Mittelwerte sehe. Das andere Problem enthält die verwendete geheimnisvolle Methode der Datenanalyse durch die Gittereinteilung der Daten horizontal und vertikal. Ich möchte mich zuerst mit der Klimatologiefrage befassen. Sie beschreiben ihre Methode wie folgt:

2.2 Methode der Datenbearbeitung

Eine ARGO-Klimatologie (hiernach ACLIM, 2004 – 2009 von Schuckmann et al., 2009) wird zunächst an jeder Stelle des Profils interpoliert, um lückenhafte Profile für die Tiefe jeder Temperatur und jeden Salzgehaltes zu vervollständigen. Diese Prozedur ist erforderlich, um die tiefenintegrierten Quantitäten zu berechnen. OHC (ozeanischer Wärmegehalt), OFC (ozeanischer Frischwassergehalt) und SSL (räumlicher {temperaturabhängiger} Meeresspiegel) werden dann für die Position jedes ARGO-Profils berechnet, wie es von Schuckmann et al. (2009) beschrieben worden ist. Schließlich wurden noch Anomalien der physikalischen Gegebenheiten an jedem Ort eines Profils berechnet, relativ zu ACLIM.

Terminologie: Ein „Temperaturprofil“ ist ein Strang von Messungen mit zunehmender Tiefe durch eine ARGO-Boje. Die „Position des Profils“ liegt auf einem vorher festgelegten Druckniveau, bei dem die ARGO-Bojen ausgesetzt werden, um eine Messung durchzuführen.

Dies bedeutet, wenn Daten in einem gegebenen Profil fehlen, wird die Lücke mit Hilfe der „Klimatologie“ gefüllt, d. h. den langzeitlichen Mittelwerten für den Monat und den Ort. Nur führt dies dazu, dass ein Fehler eingebracht wird, kein sehr großer, aber einer, der sich bemerkbar macht.

In Bezug auf den letzten Satz des vorigen Absatzes kann ich jedoch in ihrer Fehlerberechnung keinerlei Fehlerabschätzung finden. Jener Satz beschreibt die Subtraktion der ACLIM-Klimatologie von den Daten. ACLIM ist eine ARGO-Klimatologie, und zwar ein Mittel Monat für Monat aus jedem Tiefenniveau.

SLT2011 weist bzgl. dieser Frage auf eine frühere Arbeit der gleichen Autoren hin, SLT2009, worin die Bildung der ACLIM-Klimatologie beschrieben wird. Ich sehe dort über 150 Niveaus der ACLIM-Klimatologie, wie sie von den Autoren beschrieben werden:

Die Konfiguration wird definiert durch das Gitternetz und den Satz von mutmaßlichen Informationen wie der Klimatologie und deren mutmaßliche Abweichungen und Kovarianzen, die erforderlich sind, um die Kovarianzmatrix zu berechnen. Das analysierte Feld wird definiert auf einem horizontalen isotropischen Gitter im Abstand von ½° einer Mercator-Projektion und ist begrenzt auf den Bereich zwischen 77°S bis 77°N. Es wurden 152 vertikale Schichten zwischen 0 und 2000 m Tiefe definiert… und zwar mit einem Abstand von jeweils 5 m von der Oberfläche bis zu einer Tiefe von 100 m, 10 m von 100 bis 800 m und 20 m von 800 m bis 2000 m.

Sie haben also die oberen Ozeanschichten in Gitterwürfel eingeteilt und jeden Gitterwürfel in Schichten, um Gitterzellen zu erhalten. Wie viele Gitterzellen? Nun, 360 Längengrade x 2 x 180° Grad Breite x 2 x 70% der Erde sind Ozeane x 152 Schichten = 27.578.880 ozeanische Gitterzellen. Dann haben sie das Temperaturmittel Monat für Monat für jede einzelne dieser 25 Millionen Gitterzellen ozeanischen Volumens berechnet… ein netter Trick. Klarer Fall, sie interpolieren wie die Verrückten.

Es gibt etwa 450.000 einzelne Werte der Ozeantemperatur pro Monat, ermittelt durch die ARGO-Bojen. Dies bedeutet, dass jede ihrer 25 Millionen Gitterzellen im Mittel nur alle 5 Jahre einmal mit [gemessenen] Temperaturwerten gestützt werden.

Dies ist die “Klimatologie”, die sie an jeder „Profilstelle“ bei jedem ARGO-Tauchgang abziehen. Angesichts der kurzen Geschichte des ARGO-Datensatzes, die Abdeckung von 140.000 Quadratkilometern Ozeanfläche und die Kleinheit der Gitterzellen sind große Unsicherheiten in der Klimatologie offensichtlich.

Wenn sie also eine Klimatologie von einer aktuellen Messung subtrahieren, enthält das Ergebnis nicht nur einen Fehler in der Messung. Es enthält auch den Fehler in der Klimatologie. Wenn wir etwas subtrahieren, addieren sich die Fehler „quadratisch“. Dies bedeutet, dass der resultierende Fehler die Quadratwurzel der Summe der Fehlerquadrate ist. Es bedeutet auch, dass die großen Fehler bestimmend sind, vor allem, wenn ein Fehler viel größer ist als der andere. Die Temperaturmessung an der Stelle des Profils enthält lediglich den Instrumentenfehler. Für die ARGO-Werte beträgt dieser ± 0,005°C. Der klimatologische Fehler? Wer weiß das schon, wenn die Volumina nur alle 5 Jahre einmal mit Messungen belegt werden? Aber es steckt viel mehr dahinter als der Instrumentenfehler…

Das also ist das wesentliche Problem, das ich ihren Analysen entnehme. Sie machen es auf eine schwer nachvollziehbare, geheimnisvolle und plumpe Art und Weise. Argo-Daten und Temperaturdaten allgemein kommen in einer irgendwie genetzten Welt nicht vor. Wenn man die Dinge macht, die sie mit den Gitterquadraten und den Schichten machen, schleichen sich Fehler ein. An einem Beispiel will ich das verdeutlichen. Abbildung 5 zeigt die Tiefenschichten von 5 m, verwendet in der oberen kleineren Sektion der Klimatologie zusammen mit den Aufzeichnungen eines Temperaturprofils einer ARGO-Boje.

 

Abbildung 5 ACLIM-Klimatologieschichten (5 Meter). Rote Kreise zeigen die aktuellen Messungen eines einzelnen ARGO-Temperaturprofils. Die blauen Karos zeigen die gleiche Information nach der Mittelung in Schichten. Quelle

Vieles kann man hier erkennen. Erstens gibt es keine Daten für drei der klimatologischen Schichten. Ein größeres Problem ist Folgendes: wenn wir eine Einteilung in Schichten vornehmen, verweisen wir den Mittelwert in den Mittelpunkt der Schicht. Das Problem damit ergibt sich, weil die ARGO-Bojen im Flachwasser in Intervallen messen, die etwas weniger als 10 m dick sind. Also sind die oberen Messungen gerade über der unteren Grenze der Schicht. Im Endergebnis ist dies gleichbedeutend, dass man das Temperaturprofil bei der Einteilung in Schichten ein paar Meter nach oben verschiebt. Dies führt zu einer großen Verzerrung bei den Ergebnissen. Zusätzlich ist diese Verzerrung abhängig von der Tiefe, weil die oberen Schichten aufwärts, die tieferen Schichten aber abwärts bewegt werden. Der Fehler ist unter 100 Metern am kleinsten, wird aber danach wegen der Änderung der Schichtdicke zu 10 Metern rasch größer.

SCHLUSSFOLGERUNGEN

Zuletzt kommen wir zur Frage nach der Analysemethode und der Bedeutung der Überschrift zu diesem Beitrag*. Im SLT2011 lesen wir weiterhin:

Um die globalen ozeanischen Indizes (GOI) mit Hilfe der unregelmäßig verteilten Profile abschätzen zu können, wird der globale Ozean in Rechtecke mit 5° Breite, 10° Länge und 3 Monate Zeit eingeteilt. Dies gewährleistet eine ausreichende Anzahl von Beobachtungen pro Rechteck. Um falsche Daten zu entfernen wurden Messungen, die um mehr als das Dreifache von der Standardabweichung entfernt liegen, ausgeschlossen. Die Information bzgl. der Varianz für dieses Kriterium wird aus ACLIM abgeleitet. Dieser Prozess schließt etwa 1% der Daten unserer Analyse aus. Nur Datenpunkte über einer gemessenen Tiefe über 1000 m wurden dann behalten. Rechtecke mit weniger als 10 Messungen wurden als eine Messlücke betrachtet.

Tut mir leid, aber das ist eine dumme Methode, diese Art von Daten zu analysieren. Sie haben die aktuellen Daten verwendet. Dann haben sie Lücken mit „klimatologischen“ Daten gestopft, so dass alles nett und ordentlich aussah. Dann haben sie die „Klimatologie“ von dem Ganzen subtrahiert, mit einem Fehler in unbekannter Größe. Dann wurden die Daten in ein Gitternetz gemittelt mit einem Abstand der Gitterpunkte von 5 mal 10 Grad sowie 150 Schichten unter der Oberfläche mit variierender Schichtdicke, dann haben sie das gemittelt über einen Zeitraum von drei Monaten… das ist alles unnötige Komplexität. Dieses Problem zeigt erneut, wie isoliert die Gemeinschaft der Klimawissenschaftler in der Welt etablierter Methoden ist.

Dieses Problem, über vertikale ARGO-Temperaturprofile zu verfügen und diese zur Abschätzung der Temperatur in den nicht gemessenen Gebieten zu nutzen, ist keineswegs neu. Tatsächlich ist es genau die Situation, der sich jede Bergbaugesellschaft gegenüber sieht hinsichtlich der Ergebnisse ihrer Testbohrungen. Genau wie bei den ARGO-Daten haben die Bergbauer vertikale Profile der Zusammensetzung der unterirdischen Wirklichkeit an verschiedenen Stellen. Auch wie bei ARGO müssen die Gesellschaften aus diesen Informationen die Verhältnisse in den Gebieten abschätzen, die sie nicht sehen können.

Aber dabei handelt es sich dann nicht um AGW stützende Wissenschaftler, für die fehlerhafte Behauptungen nichts bedeuten. Für diese Leute geht es um das große Geld abhängig von den Ergebnissen ihrer Analysen. Ich kann Ihnen versichern, dass sie kein Brimborium veranstalten und das Gebiet in rechteckige Kästen einzuteilen und den Untergrund in 150 Schichten unterschiedlicher Dicke zu zerlegen. Sie würden jeden auslachen, der versucht, mit einer solchen schwerfälligen Methode eine Goldader zu finden.

Stattdessen benutzen sie eine mathematische Methode, “kriging“ genannt. Warum machen sie das? Weil es funktioniert.

Man erinnere sich, die Bergbaugesellschaften können sich keine Fehler leisten. Das Kriging (und daraus abgeleitete Methoden) haben sich jedes Mal dabei bewährt, die besten Abschätzungen des Untergrundes zu ergeben, die man nicht messen kann.

Zweitens ergeben sich aus dem Kriging aktuelle Fehlerabschätzungen und nicht der „acht tausendstel von einem Grad“-Unsinn der ARGO-Analysten. Die Bergbaugesellschaften können sich nicht selbst mehr Sicherheit vortäuschen als die Messungen hergeben. Sie müssen genau über die Risiken Bescheid wissen und nicht irgendwelche optimistischen Berechnungen vornehmen.

Am Ende dieses Tages möchte ich sagen, werfen Sie die Analyse der ARGO-Daten zum Fenster hinaus, zusammen mit all den aufgeblasenen Behauptungen über die Genauigkeit. Hören Sie auf, mit Gitternetzen und Schichten um sich zu werfen, das ist Zeug für die Hochschule. Nehmen Sie sich einen Kriging-Experten und analysieren Sie die Daten ordnungsgemäß. Meine Vermutung ist, dass eine echte Analyse zeigen wird, dass viele Abschätzungen unbrauchbar sind.

In jedem Falle ist dies meine Analyse der Hansen-Studie zum Energieungleichgewicht. Sie behaupten darin eine Genauigkeit, von der ich nicht glaube, dass sie ihrer gewaltig komplexen Methode gerecht wird.

Dies ist ein langer Beitrag, vielleicht haben sich Ungenauigkeiten und Druckfehler eingeschlichen, seien Sie gnädig…

Willis Eschenbach

Link: http://www.columbia.edu/~jeh1/mailings

Übersetzt von Chris Frey für EIKE




Weltweit größter Windkraftanlagenbauer Vestas muss 2300 Jobs streichen

Schon im vergangenen Jahr hatte Vestas 3000 Mitarbeitern gekündigt. Nach dem Stellenabbau wird das Unternehmen weltweit noch rund 20’400 Mitarbeiter haben. Das berichten aktuell der Schweizer Tagesanzeiger [1] und das Schweizer Fernsehen [2].  Windturbinen im Abwind  
»Der weltweit grösste Windturbinenbauer entlässt mehr als 2300 Mitarbeiter. Die dänische Vestas reagiert damit auf die flaue Nachfrage….«. 

Und FinanzNachrichten.de listet Negativmeldungen quasi im Minutentakt. Und wie läuft das mit der deutschen Energiewende?

Aktienkurs der VESTAS Aktie; Quelle Finanztreff

Für den global player Enercon tun sich hingegen bei uns noch ungeahnte Zukunftspotentiale in deutschen Staatsforsten auf. Die "sichtgeschützten Standorte" würden große Chancen für den weiteren Ausbau der Windenergie bergen – so das Magazin Windblatt 04/11.

Na ja, wenn es der Wind entlang der dänischen Küstenlinien mit der Energiewende in dem kleinen Land nicht geschafft hat, wie soll es dann über den deutschen Wäldern besser gehen? Sofern den Waldstandorten keine forstfachlichen Gesichtspunkte entgegenstehen und die Stellungnahme der von einen Projekt betroffenen Gemeinde eingeholt wurde, "ist insbesondere der Landesbetrieb ForstBW grundsätzlich bereit, geeignete Flächen im Staatswald für die Errichtung von Windkraftanlagen zu verpachten" – laut Windenergieerlass Baden-Württemberg [hier]. Jobperspektiven dürften sich in der EE-Szene allerdings noch im Wartungs- und Reparaturdienst und später bei Demontage und Entsorgung entwickeln. Denn viele Anlagen sollen ja noch 20 Jahre laufen. 

Übernommen mit Dank von Wilfried Heck 

Weitere Details hier und hier

Und schlechte Nachrichten auch noch von der Offshore Front: Zeit online schreibt

Offshore-Ziele kaum noch zu schaffen

Jahrelange Planung, komplizierter Netzanschluss, schwierige Finanzierung: Die Windenergie auf See kommt angesichts der vielen Probleme nicht in Schwung….

….Stromnetzbetreiber Tennet ist überfordert

Erst vor wenigen Wochen warnte daher der Stromnetzbetreiber Tennet in einem Brandbrief an die Bundesregierung, dass der Anschluss der Windparks unter den derzeitigen Umständen nicht möglich sei. Das mittelständische Unternehmen ist überfordert, egal, ob es um die Finanzierung, das Personal und das Material geht. Allein den Netzanschluss muss der Konzern eigentlich binnen 30 Monaten gelegt haben, so sieht es die Bundesnetzagentur vor. Doch was tun, wenn Firmen wie ABB dafür 40, wenn nicht 50 Monate benötigen?

Es sind solche Probleme, die viele Experten inzwischen pessimistisch stimmen. 10.000 Megawatt Offshore-Kapazitäten will die Bundesregierung bis 2020 ans Netz bringen – theoretisch entspricht das der Leistung von zehn Atomkraftwerken. "Das ist unwahrscheinlich", sagt Verbandspräsident Hermann Albers. Eher würden es wohl nur 6.500 bis 7.000 Megawatt bis 2020. Auch innerhalb der Bundesregierung wachsen die Zweifel an den ambitionierten Plänen. Im aktuellen Energiekonzept spricht die Bundesregierung denn auch lieber vom Ziel "25.000 Megawatt in 2030"….

Die Redaktion




Windkraftstrom-SPIEGEL-Wind-Ei der Woche: Trotz “harter Fakten” keine Substanz

“8 Mrd. Kilowattstunden Strom haben deutsche Windräder im Dezember (2011; Anm. des Autors) erzeugt. Der Rekord entspricht fast der monatlichen Leistung aller deutschen Atomkraftwerke.”

Wer es noch nicht gemerkt hat – die Botschaft lautet: dank der deutschen Windkraftwerke können wir den Verzicht auf Kernkraft locker wegstecken.

Faktencheck: 

– im Dezember 2011 lag die Windstromerzeugung in der Tat bei knapp 8 Mrd. kWh – damit war dieser Monat auch wirklich der mit Abstand ertragreichste des Jahres 2011 (insges. wurden etwa 44,3 Mrd. kWh erzeugt – eine Auslastung von satten 18% der installierten Leistung) – laut Wikipedia waren in Deutschland acht Kernkraftwerke mit neun Reaktorblöcken und einer installierten Bruttogesamtleistung von 12.676 MW am Netz (bzw. hätten am Netz sein können). Mulipliziert man dies mit den 744 Stunden des Monats Dezember, landet man etwas oberhalb von 8 Mrd. kWh. Das lassen wir mal durchgehen.

Warum die SPIEGEL-Meldung trotzdem unsinnig ist, erläutert Wilfried Heck http://wilfriedheck.de/ im Blog-Beitrag vom 10. Januar im Detail

Maßeinheiten: Reihe 2 = Strommengen in MWh;

Reihe 3 = höchster und Reihe 4 = niedrigster Leistungswert in MW  

 

Nicht nur war der “Rekord"-Dezember 2011 der einzige Monat mit einer vergleichsweise “steitigen” Windstromerzeugung – in zehn von zwölf Monaten des vergangenen Jahres lag die minimale Tages-Erzeugung bei zum Teil deutlich weniger als 250 Mio. kWh. 
Da für eine einigermaßen sichere Energieversorgung immer eine sofortige Deckung des aktuellen Bedarf nötig ist, können wir also gar nichts abschalten. Außer ein paar Klein(st)kraftwerken.

Auf derselben Webseite stellt Herr Heck in einem Beitrag vom 3. Januar die Windstromerzeugung der aus konventionellen Quellen gegenüber.

Wie leicht ersichtlich ist, erzwingt jede Leistungsspitze bei der Windkrafterezeugung einen entsprechenden Einbruch bei der konventionellen Stromproduktion. Dies bedeutet nicht etwa, dass konventionelle Kraftwerke abgeschaltet werden können, wenn der Wind nur ausreichend weht. Sie müssen als Backup natürlich weiterhin mitlaufen, allerdings mit gedrosseltem Output – und damit einem oft drastisch reduziertem Nutzungsgrad des eingesetzten Brennstoffs.

Warum dies in Summe sogar dazu führen kann, dass CO2-Emissionen gerade wegen der Einspeisung von Windenergie höher ausfallen, als ohne diese, erklärt Klaus-Dieter Humpich hier. Ein konkretes Beispiel aus den Niederlanden wird hier beschrieben.

Für solche Feinheiten bieten 24 Quadratzentimeter im Print-SPIEGEL natürlich nicht ausreichend Raum.

Fazit: die “Zahl der Woche” im SPIEGEL grenzt an Desinformation. Von welcher Seite, mag der Leser selbst entscheiden.

Rainer Schulze

Der Beitrag erschien zuerst auf ACHGUT hier

Hier der Beitrag von Wilfried Heck vom 3.1.12

Ein zahlen- und faktenmäßiger Rückblick auf das Jahr 2011 hält immer noch die seit 20 Jahren bestehende Frage offen, was denn die vielen Wind- und Solarstromanlagen für eine verlässliche Stromversorgung taugen. Aus technischer Sicht ließ sich zu Beginn der vorrangigen Stromeinspeisung durchaus noch darüber lächeln. Ihre Wirkung ging schlicht im Netzrauschen unter. Natur- und Landschaftsschützer, welche in den 90er Jahren gegen die im Vergleich zu heute zwergenhaften Riesenpropeller antraten wurden veräppelt, geschmäht und diskreditiert und viele ländliche Dorfgemeinschaften sind deswegen zerbrochen. Städtische Populationen, welche wohl in Umfragen auch immer nach dem ‚Ökstrom‘ aus Sonne und Wind rufen, muss das ja nicht betreffen. 
Mit der Gier nach einer schnellen und sicheren Rendite ließen sich per Erneuerbare-Energien-Gesetz Milliarden an Investitionen aus dem Volk pressen und der technische Klimaschutz bekam seinen unangreifbaren Glorienschein. Nun haben viel Geld, eine teure und weltenrettende Propaganda das Netzrauschen deutlich spürbar überstiegen. Spürbar im Sinne steigender Belastungen für Menschen, Tiere und Umwelt samt den zunehmenden Netzproblemen aus den vielen, volatil und entgegen jeglichem Bedarf einspeisenden EE-Anlagen. Aus der einstigen Bedeutungslosigkeit im allgemeinen Netzrauschen hat sich ein wirtschaftlich hochgerüsteter Störfaktor für die Stromversorgung entwickelt – weil Wind- und Sonne nur unregelmäßig und schwer planbar ihre Energien zur Verfügung stellen. Das Problem war von Anfang an bekannt, wurde aber geflissentlich unter der Decke gehalten. Nun soll es jedoch nicht an seiner Ursache, sondern durch weitere Geschäftsmodelle wie den Netzausbau und Speicherausbauten bis nach Norwegen kompensiert werden. Das skandinavische Land wurde bereits in der Vergangenheit mit kriegerischen Handlungen von der Deutschen Wehrmacht besetzt. Das muss sich mit der Landnahme einer deutschen Ökomacht für den Aus- und Umbau der Speicherseen zu Pumpspeicherkraftwerken und der Errichtung von Höchstspannungstrassen zwecks Sicherstellung unserer Stromversorgung (Energiewende) nicht wiederholen. In der Diskussion um das neue Pumpspeicherkraftwerk Atorf im Schwarzwald rudert der Energieexperte des Sachverständigenrates für Umweltfragen, Prof. Olav Hohmeyer, nun zurück. Aha, zu Hause die ökoheile Heimat – bei anderen ist das ja weniger schlimm, oder?  
  

 Einspeisung der Wind- und Solarstromanlagen im Vergleich zu konventionellen Kraftwerken ab 100 MW LeistungZahlen und Fakten für 2011: Höchstlast der konventionellen Einspeisung über die Strombörse: 62.736,60 MW, Mittelwert: 41.677,54 MW, kleinster Wert: 21.453,40 MW, Strommenge: 365.095.214,30 MWh.Höchstleistung der von der EEX aufgezeichneten Windkrafteinspeisung: 22.869,90 MW, Mittelwert: 5.063,85 MW, kleinster Wert: 88,10 MW; Strommenge: 44.359.340,87 MWh.Höchstleistung der von der EEX aufgezeichneten Solarstromeinspeisung:13.190,90 MW, Mittelwert: 2.118,55 MW, geringster Wert: NULL – jede Nacht. Strommenge: 18.558.528,97 MWh. Die zeitgleiche Addition der Wind- und Solarstromeinspeisung liefert folgende EE-Ergebnisse: Höchster Wert: 27.862,20 MW, Mittelwert: 7.182,41 MW, Minimalwert: 204,30 MW, Strommengen aus Wind- plus Solar: 62.917.869,85 MWh – ergibt 17,23 % Anteil im Vergleich zu der konventionellen Einspeisung aus Kraftwerken ab 100 MW Leistung. Die Höhe der Grundlast ist nicht spezifisch definiert. Beispielhaft läßt sich in der obigen Grafik ein Wert von 25.000 MW ansetzen. Diesen Wert hat die Summe aus Wind- und Solareinspeisung im gesamten Jahr nur 55 mal für jeweils ein Viertelstunde überschritten. Und schon wieder stellt sich die Frage nach einer jederzeit sicheren und bedarfsgerechten Stromerzeugung. Nun bräuchte man das obige 17,23 %-Ergebnis nur mit sechs multiplizieren, und schon hätten wir 100 % der Stromversorgung nur aus Wind- und Sonnenenergie erreicht. Biomassekraftwerke und Speicherseen könnten zusätzlich die Grund- und Regelleistung liefern und das Potential der aktuell einspeisenden, herkömmlichen Kraftwerke mit derzeit 99.451 MW wäre samt Strombörse EEX obsolet. Deutschland könnte sich als autarke Insel aus dem europäischen Netzverbund ausgliedern und seinen eigenen Weg beschreiten. Also packen wir’s an und lasst uns die Anstrengungen und Windräder deutlich erhöhen und die Solarplattenfelder weitest gehend ausdehnen! Die Zeit bis 2050 ist kürzer als man denkt und es gibt noch viel zu tun – für die dafür notwendige Geldbeschaffung und die damit einhergehenden Landschafts- und Natureingriffe (Flora und Fauna) größten Ausmaßes. Die Energiewende kann schließlich nicht kostenlos sein. Damit die erneuerbaren Energien aus der Nord- und Ostsee auch in Süddeutschland ankommen, müssen bis 2030 35.000 km Stromtrassen für die Hoch- und Höchstspannungsebene (110/220/380 kV) gebaut werden – so der Verband kommunaler Unternehmen (VKU) in seiner Präsentation "Energiewende 2011 – Herausforderung für die Stadtwerke und Verteilnetze". Denn in den binnenländischen Zielregionen der Stromautobahnen warten bereits 1,7 Mill. km Mittel- und Niederspannungsleitungen (Verteilnetzebene 20/0,4 kV) auf den notwendigen Infrastrukturumbau zwecks Integration der bereits hier aus EE produzierten Strommengen. Die Höhe des Investitionsbedarfes für die Verteilnetzebene hat der VKU schon mal mit 25 Milliarden Euro angemeldet – jedoch noch ohne die Kosten für die Weiterentwicklung zu den sogenannten intelligenten Netzen.  Es ist schon erstaunlich, wieviel Geld einerseits für die regenerative und für Endverbraucher zunehmend teurer werdende Stromerzeugung und Verteilung eingesetzt werden soll und andererseits das Volk zu immer mehr Stromsparen aufgefordert wird. Wo bleibt dafür der volkswirtschaftliche Nutzen? Auf diesem Weg zur ‚Energiewende‘ bleibt kein Kapital mehr für produktive und nützliche Stromanwendungen übrig und weitere Unternehmen und Industriebetriebe werden sich Standorte in Nachbarländern suchen müssen. 




Frau Luna ist eine kühle Dame

Welche Auswirkungen haben Temperaturwechsel auf die Durchschnittstemperatur eines Planeten? Warum ist der Mond so viel kälter als erwartet? Die Albedo (Reflektivität) des Mondes ist geringer als die der Erde. Man kann den Unterschied in der Albedo in Fig. 1 sehen. Auf der Erde gibt es viele Stellen, die von Wolken, Schnee oder Eis weiß sind. Der Mond aber ist vorwiegend grau. Daher  beträgt die irdische Albedo ungefähr 0,30, die des Mondes nur 0,11. Der Mond müsste also mehr Energie absorbieren als die Erde, und die Temperatur der Mondoberfläche müsste knapp unter dem Gefrierpunkt von Wasser liegen. So ist es aber nicht. Der Mond ist viel kälter.

Fig. 1. Beobachtungen Oberflächentemperatur des Mondes von der Apollo15-Mission. Die roten und gelb-grünen kurzen waagerechten Linien links zeigen die theoretischen (rot) und die tatsächlichen (gelb-grün) durchschnittlichen Mondtemperaturen. Die violetten und blauen horizontalen LInien rechts zeigen die theoretische Stefan-Boltzmann-Temperatur der Erde ohne Atmosphäre (violett), und (in hellblau) eine Näherung, um wieviel die Erdtemperatur durch einem ± 50°C Temperaturwechsel vermindert würde infolge der Erdumdrehung. Die Sonnenuntergangstemperatur-Fluktuationen sind aus Gründen der Klarheit der Darstellung ausgelassen. (Daten-Quelle hier)

Wie die Erde empfängt die Mondoberfläche gemittelt etwa 342 Watt/Quadratmeter (W/m2) Sonnenenergie. Wie befinden uns ja im gleichen Abstand von der Sonne. Die Erde reflektiert 30% davon zurück in den Weltraum (Albedo 0,30) und behält etwa 240 W/m2. Der Mond mit seiner geringeren Albedo reflektiert weniger und absorbiert mehr Energie, etwa 304 W/m2.

Und weil der Mond im thermalen Gleichgewicht ist, muss er den gleichen Betrag abstrahlen, wie er von der Sonne erhält, ~ 304 W/m2.

Da gibt es die “Stefan-Boltzmann-Gleichung” (kurz S-B Gleichung, oder einfach S-B), die die Temperatur (in Kelvin) zur thermalen Abstrahlung in Beziehung setzt (in Watt/Quadratmeter). Sie besagt, dass die Abstrahlung proportional zur vierten Potenz der Temperatur ist.

Unter der Voraussetzung, dass der Mond etwa 304 W/m2 Energie in den Weltraum abstrahlt, um die hereinkommende Energie auszubalancieren, beträgt die der S-B Gleichung entsprechende Schwarzkörper-Mondtemperatur etwa 0,5 °C. Das wird auf Fig. 1 durch die kurze horizontale rote Linie dargestellt. Daraus ergäbe sich, dass die Mondtemperatur theoretisch knapp unter dem Gefrierpunkt läge.

Aber die gemessene tatsächliche Durchschnittstemperatur der Mondoberfläche wie in Fig. 1 gezeigt, beträgt minus 77 °C, weit unter dem Gefrierpunkt, wie die kurze waagerechte gelb-grüne Linie zeigt.
Was ist da los? Heißt das, dass die S-B Gleichung falsch ist, oder dass sie auf dem Mond nicht gilt?

Die Lösung des Rätsels ist, dass die Durchschnittstemperatur keine Rolle spielt. Was zählt, ist die Durchschnittsabstrahlung von 304 W/m2. Das ist ein absolutes Muss, das von der Thermodynamik gefordert wird – die durchschnittliche Abstrahlung des Mondes muss gleich der von der Sonne empfangenen Einstrahlung sein: 304 W/m2.

Strahlung ist proportional zur vierten Potenz der Temperatur.  Das bedeutet: Wenn die Temperatur hoch ist, gibt es viel mehr Strahlung, bei Temperaturverminderung ist die Strahlungsverminderung nicht genau so groß. Wenn es also Temperaturwechsel gibt, führen sie zu höherer Energieabstrahlung an der Oberfläche. Als Ergebnis der höheren Energieabstrahlung kühlt sich die Oberflächentemperatur ab. In einer Gleichgewichtssituation wie auf dem Mond, wo der Betrag der abgestrahlten Energie fest ist, reduzieren Temperaturwechsel immer die durchschnittliche Oberflächentemperatur.

Wenn man, wie in Fig. 1 oben, zuerst die nacheinander gemessenen Mondoberflächentemperaturen in die entsprechenden Mengen von Strahlung umrechnet und für diese dann den Durchschnitt bildet, beträgt dieser Durchschnitt 313 W/m2. Das ist nur ein kleiner Unterschied zu den 304 W/m2, die wir aus der ursprünglichen Kalkulation zum einfallenden Sonnenlicht und zur Mond-Albedo haben. Und während diese präzise Berechnung einigermaßen stimmig ist (unter der Voraussetzung, dass unsere Daten von einer einzigen Stelle auf dem Mond stammen), erklärt sie auch die große Differenz zwischen der vereinfachenden Theorie und den tatsächlichen Beobachtungen.

Es besteht also kein Widerspruch zwischen der lunaren Temperatur und der S-B-Kalkulation. Die durchschnittliche Temperatur wird von den Temperaturwechseln vermindert, während die durchschnittliche Strahlung gleichbleibt. Das tatsächliche lunare Temperaturmuster ist eines von vielen möglichen Temperaturveränderungen, die zur selben durchschnittlichen Variation von 304 W/m2 führen können.

Eines ist aber merkwürdig. Die niedrige lunare Durchschnittstemperatur ist die Folge des Ausmaßes der Temperaturwechsel. Je größer der Temperaturumschwung ist, desto niedriger ist die durchschnittliche Temperatur. Wenn der Mond sich schneller drehen würde, wären die Umschwünge kleiner und die Durchschnittstemperatur wärmer. Wenn es keine Temperaturwechsel gäbe und die Mondoberfläche überall gleichmäßig erwärmt würde, läge die Mondtemperatur kaum unter dem Gefrierpunkt. Alles, was die Temperaturveränderungen vermindert, würde die Durchschnittstemperatur auf dem Mond erhöhen.

Die Umschwünge wären kleiner, wenn der Mond eine Atmosphäre hätte, selbst wenn diese Atmosphäre keine Treibhausgase enthielte und für Infrarot völlig durchlässig wäre. Ein Effekt einer  völlig durchlässigen Atmosphäre ist, dass sie Energie von warm nach kalt transportiert. Das würde natürlich die Temperaturwechsel und Differenzen vermindern und schließlich den Mond leicht erwärmen.

Auf eine weitere Art und Weise würde eine sogar völlig durchlässige und treibhausgasfreie Atmosphäre den Mond erwärmen, indem sie dem System thermische Masse zufügte. Weil die Atmosphäre erwärmt und gekühlt werden muss, wie auch die Oberfläche, wird das auch die Temperaturwechsel vermindern und wiederum die Oberfläche leicht erwärmen. Es wäre keine große thermische Masse, und nur der geringste Teil hätte eine signifikante tägliche Temperaturfluktuation. Schließlich beträgt die spezifische Wärme der Atmosphäre nur etwa ein Viertel im Vergleich zu Wasser. Aus dieser Kombination von Faktoren würde nur ein nur ganz geringer Effekt folgen.

Hier möchte ich nun aufhören zugunsten eines wichtigen Arguments: Diese letzten beiden Phänomene bedeuten, dass ein Mond mit einer perfekt transparenten treibhausgasfreien Atmosphäre wärmer wäre als ein Mond ohne eine derartige Atmosphäre. Eine transparente Atmosphäre könnte die Mondtemperatur niemals über die S-B-Schwarzkörpertemperatur von einem halben Grad Celsius heben.

Der Beweis ist trivial einfach und kann durch die Behauptung des Gegenteils erbracht werden:
Die Behauptung würde lauten: Eine perfekt transparente Atmosphäre könnte die durchschnittliche Temperatur des Mondes über die Schwarzkörpertemperatur heben, das ist die Temperatur, bei welcher 304 W/m2 emittiert würden.
Doch nur die Mondoberfläche könnte in diesem System Energie emittieren, weil die Atmosphäre transparent wäre und keine Treibhausgase enthielte. Wenn also die Oberfläche wärmer als die theoretische S-B-Temperatur wäre, würde die Oberfläche mehr als 304 W/m2 in den Weltraum emittieren und nur 304 W/m2 aufnehmen.
Das wäre dann ein „perpetuum mobile“.  Q.E.D. (Quod Erat Demonstrandum – Was zu beweisen war)

Während also eine perfekt transparente Atmosphäre ohne Treibhausgase das Ausmaß der Abkühlung vermindern kann, die von Temperaturwechseln herrühren, kann sie nur die Abkühlung abschwächen. Es gibt eine physikalische Grenze, um wieviel sie den Planeten erwärmen kann. Im äußersten Falle, wenn alle Temperaturwechsel völlig ausgeglichen würden, können wir nur die S-B-Temperatur bekommen, nicht mehr. Das bedeutet, dass zum Beispiel eine transparente Atmosphäre nicht für die derzeitige Erdtemperatur ursächlich sein kann, weil die Erdtemperatur deutlich über der theoretischen S-B-Temperatur von ~ -18 °C liegt.

An diesem Punkt angelangt frage ich mich, wie die Temperaturwechsel der Erde ohne Atmosphäre aussähen. Unter Beachtung der derzeitigen Albedo zeigen grundlegende Kalkulationen, dass eine Erde ohne Atmosphäre eine Schwarzkörpertemperatur von 240 W/m2 ≈ -18°C hätte. Um wieviel würde aber die Erdumdrehung den Planeten abkühlen?

Unglücklicherweise rotiert der Mond so langsam, dass er kein gutes Analogon zur Erde darstellt. Aber es gibt ein Stück lunarer Information, das wir benutzen können. Das ist, wie rasch der Mond nach Sonnenuntergang auskühlt. Für diesen Fall wären Mond und Erde ohne Atmosphäre grob gleichsetzbar, beide würden ganz einfach in den Weltraum abstrahlen. Beim lunaren Sonnenuntergang beträgt die Mondoberflächentemperatur etwa -60° C (Fig. 1). Über die folgenden 30 Stunden fällt sie stetig mit einer Rate von etwa 4° C pro Stunde bis auf etwa –180 °C. Von da an kühlt sie sich leicht während der nächsten zwei Wochen ab, weil die Abstrahlung so gering ist. So beträgt die kälteste Temperatur der Mondoberfläche etwa –191 °C, und dabei strahlt sie sage und schreibe zweieinhalb Watt pro Quadratmeter ab … daher ist die Strahlungsabkühlung sehr, sehr langsam.

Also … machen wir diese Rechnung für die Erde! Wir können grob abschätzen, dass sich die Erde etwa mit der lunaren Rate von 4 °C pro Stunde über die Dauer von 12 Stunden abkühlt. Dabei würde die Temperatur um etwa 50 °C fallen. Tagsüber würde sich sich durchschnittlich auch so erwärmen. Wir könnten uns also vorstellen, dass die Temperaturwechsel auf einer Erde ohne Atmosphäre eine Größenordnung von ± 50°C hätten. (Aber die tatsächlichen Temperaturwechsel auf der Erde sind viel kleiner, im maximum etwa ± 20-25 °C, und das in Wüstengebieten.)

Wie stark würde ein ±50 °C Umschwung eine Erde ohne Atmosphäre abkühlen?

Dank eines Stückchens schöner Mathematik von Dr. Robert Brown (http://wattsupwiththat.com/2012/01/06/what-we-dont-know-etwa-Energie-flow/) wissen wir, dass die Strahlung um 1 + 6 * (dT/T)^2 variiert, unter der Voraussetzung, dass dT die Größe des Temperaturwechsels um den Durchschnitt nach oben und unten ist, wobei T die Mitteltemperatur des Temperaturwechsels ist. Mit ein bisschen mehr Mathematik (im Appendix) würde dies bedeuten, dass die durchschnittliche Temperatur bei – 33 °C läge, wenn der Betrag der eingestrahlten Sonnenenergie 240 W/m2 (≈ -18°C) wäre und die Temperaturwechsel ± 50°C betrügen. Einiges der Erwärmung von dieser kühlen Temperatur käme aus der Atmosphäre selbst und Einiges aus dem Treibhaus-Effekt.

Dabei zeigt sich wieder etwas Interessantes. Ich hatte immer angenommen, dass die Erwärmung von den Treibhausgasen nur auf die direkten Erwärmungseffekte der Strahlung zurückzuführen wären.  Aber ein Charakteristikum der Treibhausgasstrahlung (niedergehende Langwellenstrahlung, auch DLR genannt) ist, dass sie sowohl tagsüber wie nachts wirkt, vom Äquator bis zu den Polen. Aber es gibt sicher Unterschiede in der Strahlung in Abhängigkeit vom Ort und von der Zeit. Insgesamt aber ist einer der großen Effekte der Treibhausgasstrahlung, dass sie die Temperaturwechsel stark reduziert, weil sie zusätzliche Energie zu Zeiten und an Orten bereitstellt, wo die Sonnenenergie nicht da oder stark vermindert ist.

Das bedeutet, dass der Treibhauseffekt die Erde auf zwei Wegen erwärmt – direkt, und indirekt durch die Verminderung der Temperaturwechsel. Das ist neu für mich und es erinnert mich daran, dass das Beste beim Studium des Klimas ist, dass man immer noch etwas dazulernen kann.

Zum Schluss:  Jedes weitere Grad Erwärmung kostet immer mehr Energie im Zuge der Erwärmung der irdischen Systemerwärmung.
Ein Teil dieses Effekts ist darauf zurückzuführen, dass die kühlende Abstrahlung mit der vierten Potenz der Temperatur steigt. Ein Teil des Effekts ist aber auch darauf zurückzuführen, dass Murphys Gesetz immer gilt, dergestalt, dass wie bei Ihrem Automotor parasitäre Verluste (Verluste von fühlbarer und latenter Wärme von der Oberfläche) rascher zunehmen als die Antriebsenergie. Und schließlich gibt es einen Anzahl von homöostatischen Mechanismen im natürlichen Klimasystem, die die Erde vor Überhitzung schützen.

Derartige thermostatische Mechanismen sind z. B.:

• Der zeitliche Verlauf und die Anzahl der Tropengewitter.
• Die Tatsache, dass Wolken die Erde im Winter wärmen und im Sommer abkühlen.
• Der Energieübertragungmechanismus der Ozeane durch El Niño/La Niña.

Diese Mechanismen wirken mit weiteren zusammen, um das Gesamtsystem um etwa ein halbes Grad pro Jahrhundert stabil zu halten. Das bedeutet eine Temperaturvariation von weniger als 0.2%. Man beachte, da steht nicht: weniger als zwei Prozent. Die globale Durchschnittstemperatur hat sich im Verlauf eines Jahrhunderts weniger als um zwei Zehntel eines Prozents verändert, das ist eine erstaunliche Stabilität in einem so unglaublich komplexen System, das von so flüchtigen Ingredienzen wie den Wolken und dem Wasserdampf gesteuert wird. Ich kann diese Temperaturstabilität nur der Existenz von solchen multiplen, einander sich überschneidenden und redundanten thermostatischen Mechanismen zuschreiben.

Als Ergebnis, nachdem der Treibhaus-Effekt die schwere Arbeit des Anhebens der Erdtemperatur auf die gegenwärtige Höhe geleistet hat, werden die Auswirkungen der Veränderungen der Antriebe bei der gegenwärtigen Gleichgewichtslage durch Veränderungen der Albedo und der Wolkenzusammensetzung und die Umschwünge im Energiedurchsatz ausbalanciert mit sehr geringen Veränderungen der Temperatur.

Doch am schönsten ist der Vollmond heute abend, jung und kristallklar. Ich gehe jetzt hinaus und schaue ihn an.

Oh schöner voller Mond,
der du nachts den Teich umkreist,
immerdar und ewig gleich.
Matsuo Basho, 1644-1694

w.

Original mit Anhang auf WUWT

Übersetzung: Helmut Jäger, EIKE




Rückkopplung über Rückkopplungen und ähnliche Dummheiten

Kiehl und Trenberth sagen, dass das Intervall der Gesamtstrahlung von fünf hauptsächlichen Treibhausgasen bei 101 (86, 125) W/m² liegt. Da in etwa alle Temperatur-Rückkopplungen seit Entstehung der Erde inzwischen stattgefunden haben, beträgt die Nach-Rückkopplung oder das Gleichgewichtssystem Klimasensitivität als Parameter 33 K, geteilt durch das treibende Intervall – nämlich 0,22 (0,27; 0,39) K pro Watt und Quadratmeter.

Multipliziert man das Sensitivitätsparamter-Intervall durch irgendeinen gegebenen Strahlungsantrieb, ergibt sich eine Gleichgewichts-Temperaturänderung. Das IPCC nimmt diesen Antrieb aus der Verdoppelung der CO2-Konzentrationen als 3,7 W/m² an, so dass die korrespondierende Erwärmung – die System-Klimasensitivität – 1,2 (1,0; 1,4) K beträgt, oder ein Drittel des IPCC-Wertes von 3,3 (2,0; 4,5) K.

Ich habe auch gezeigt, dass die offiziell geschätzten 2 W/m² aus Strahlungsantrieben und als Folge anthropogene Temperaturänderungen von 0,4 – 0,8 K seit 1750 auf eine kurzlebige Sensitivität der industriellen Ära hindeuten, die 1,1 (0,7; 1,5) K beträgt, was auf einer Linie mit der unabhängig berechneten Sensitivität des Systems liegt.

Dementsprechend liegen kurzlebige und Gleichgewichts-Sensitivitäten so dicht beieinander, dass Temperaturrückkopplungen – zusätzliche Antriebe, die ausschließlich dadurch entstehen, dass sich die Temperatur aufgrund von Anfangsantrieben ändert – sehr wahrscheinlich bei Null liegen.

Tatsächlich liegt der kurzlebige Sensitivitätsparameter bei einer Null-Rückkopplung des IPCC bei 0,31 K pro Watt pro Quadratmeter, nahe dem Wert von 0,33 den ich als Parameter abgeleitet habe.

Ich habe daraus geschlossen, dass die Klimasensitivität bei einer Verdoppelung der CO2-Konzentration in diesem Jahrhundert klein genug ist, um harmlos zu sein.

Ein sich regelmäßig zu Wort meldender Troll – das kann man an seiner dümmlichen Hasssprache erkennen, wie ich „weiterhin Sie und andere zum Narren halte“ – hat versucht zu sagen, dass der Wert 86 bis 125 W/m² als Gesamtstrahlungsantrieb durch die Gegenwart der fünf wirksamsten Treibhausgase die Rückkopplungen konsequent enthält, und vermutet ohne Beweis, dass ich (und auch die beiden Autoren) die Begriffe Antrieb und Rückkopplung durcheinanderbringen.

Nein: Kiehl und Trenberth sind in ihrer Studie ziemlich genau: „Wir berechnen den langwelligen Strahlungsantrieb eines gegebenen Gases, indem wir die atmosphärischen Absorber Stück für Stück aus dem Strahlungsmodell entfernen. Wir führen diese Rechnungen für klaren und bewölkten Himmel durch, um die Rolle der Wolken bei der Auswirkung eines gegebenen Absorbers auf den Gesamtstrahlungsantrieb zu illustrieren. Tabelle 3 listet die individuellen Beiträge jedes Absorbers zum Strahlungsantrieb auf, und zwar bei klarem (und bewölktem) Himmel“. Antrieb, nicht Rückkopplung. Tatsächlich taucht der Begriff „Rückkopplung“ in der Studie von Kiehl und Trenberth nicht ein einziges Mal auf.

Insbesondere dachte der Troll, dass wir die Rückkopplung des Wasserdampfes behandeln, als ob es ein Treiber sei. Haben wir natürlich nicht, aber wir wollen uns mal einen Moment lang vorstellen, dass wir es doch getan haben. Wenn wir jetzt CO2 zum atmosphärischen Gasgemisch hinzufügen und damit das stören, von dem das IPCC annimmt, es sei zuvor im klimatischen Gleichgewicht gewesen, dann ist es aufgrund der Clausius-Clapeyron’schen Beziehung möglich, dass der durch die Atmosphäre eingenommene Raum fast exponentiell mehr Wasserdampf enthalten kann als für die Erwärmung nötig. Dies – bis zum Eintreten des Ereignisses – wäre wirklich eine Rückkopplung.

Jedoch, wie Paltridge et al. (2009) gezeigt haben, ist nicht klar, dass die Wasserdampf-Rückkopplung auch nur annähernd so stark positiv ist, wie das IPCC es uns glauben machen möchte. Unterhalb der mittleren Troposphäre macht zusätzlicher Wasserdampf nur einen kleinen Unterschied aus, weil die wesentlichen Absorptionsbanden weitgehend gesättigt sind. Darüber tendiert zusätzlicher Wasserdampf dazu, harmlos in tiefere Schichten abzusinken, was auch nur einen sehr kleinen Temperaturunterschied zur Folge hat. Die Autoren schließen daraus, dass die Rückkopplungen irgendwie negativ sind. Diese Schlussfolgerung wird gestützt durch Messungen in Studien wie die von Lindzen und Choi (2009,2010), Spencer und Braswell (2010, 2011) und Shaviv (2011).

Man sollte sich auch daran erinnern, dass Solomon et al. (2009) gesagt haben, dass das Gleichgewicht 3000 Jahre lang nicht erreicht wird, nachdem wir das Klima gestört haben. Falls das so ist, dann ist es nur eine vorübergehende Klimaänderung (ein Drittel der IPCC-Gleichgewichtsschätzung), die wir während unserer Lebenszeit erleben und in der unserer Enkel. Wie auch immer man es einordnet, die anthropogene Erwärmung in unserer Zeit wird immer klein und daher harmlos sein.

Ein wirklich Gläubiger fragte mich kürzlich auf einer Klimakonferenz in Santa Fe mit erschrocken klingender Stimme, ob ich wirklich die Absicht habe, unsere Enkelkinder für die Konsequenzen unseres wahnsinnigen Ausstoßes von CO2 büßen zu lassen. Da die von uns ausgelöste Erwärmung gering ist und sich sehr gut als vorteilhaft herausstellen kann, hoffen wir, dass uns künftige Generationen dankbar sein werden.

Außerdem, wie schon Vaclav Klaus, der Präsident der Tschechischen Republik, weise gesagt hat, wenn wir das Erbe unserer Enkel beschädigen, indem wir dieses Erbe in sinnlose Windmühlen, quecksilbergefüllte Lampen, Solarpaneele und anderes in diesem wirren Durcheinander stecken, in teure, verschwenderische und umweltzerstörende Modedinge, werden uns unsere Nachkommen mit Sicherheit nicht dankbar sein.

Mr. Wingo und andere fragen sich, ob es sinnvoll ist anzunehmen, dass die Summe der verschiedenen Kräfte der Temperatur auf der gesamten Erdoberfläche den Kräften der Globaltemperatur gleich ist, wie sie durch die fundamentale Gleichung des Strahlungstransports festgelegt wird. Durch zonale Berechnung vieler hundert Zonen gleicher Seehöhe und damit gleicher sphärischer Oberflächen unter Berücksichtigung des Sonnenwinkels für jede Zone habe ich bestimmt, dass die Gleichung wirklich eine fast sehr genaue mittlere Oberflächentemperatur ergibt, die von der Summe der zonalen Mittel nur um insgesamt 0,5 K variiert. Mathematisch ausgedrückt, das Holder-Ungleichgewicht ist in diesem Falle fast verschwindend gering.

Dr. Nikolov jedoch glaubt, dass die Lehrbücher und die Literatur in dieser Hinsicht falsch sind: aber ich habe meine Analyse absichtlich von den Lehrbuch-Methoden und der „Mainstream-Wissenschaft“ abgegrenzt, um die Bandbreite für irgendwelche Nicht-Übereinstimmungen mit jenen, die – bis jetzt – mit der Vermutung des IPCC konform gegangen waren, dass die Klimasensitivität hoch genug ist, um gefährlich zu sein. Indem ich ihre eigenen Methoden angewendet und saubere Schlussfolgerungen von ihnen übernommen habe, lässt sie ihre Haltung besser überdenken als zu versuchen, das Rad neu zu erfinden.

Mr. Martin fragt, ob ich meine Berechnungen auch auf die Venus anwenden würde. Allerdings teile ich nicht die Ansicht von Al Gore, Dr. Nikolov oder Mr. Huffman, dass wir von der Venus wahrscheinlich Antworten bekommen, die wir zur Bestimmung der Klimasensitivität auf der Erde bräuchten. Eine kurze Kritik an Mr. Huffmans Analyse der venusianischen Atmosphärensuppe und deren Implikationen hinsichtlich der Klimasensitivität findet sich auf der schönen Website von Jo Nova.

Brian H fragt, ob Dr. Nikolov Recht hat mit seinen Rückschlüssen, dass für viele astronomische Körper (einschließlich der Venus) alles, was für die Temperatur an der Oberfläche bedeutsam ist, die Masse der atmosphärischen Last ist. Da ich mich nicht damit zufrieden gebe, dass Dr. Nikolov mit seiner Einschätzung recht hat, dass nämlich die charakteristische Emissionstemperatur der Erde um 100 K unter dem in den Lehrbüchern genannten Wert von 255 K liegt, gedenke ich hier keine weiteren Untersuchungen anzustellen, bis diese ziemlich große Diskrepanz gelöst ist.

Rosco ist überrascht, dass ich die einfallende Solarstrahlung durch 4 teile, um Watt pro Quadratmeter auf der Erdoberfläche zu bestimmen. Diesen Schritt habe ich unternommen, weil die Erde ein scheibenförmiges Gebiet der Isolierung darstellt, welche über die rotierende sphärische Oberfläche verteilt werden muss, und das Verhältnis dieser Oberfläche einer Scheibe zu einer Sphäre mit gleichem Radius ist 1:4.

Andere Kommentatoren haben gefragt, ob die Tatsache, dass die charakteristische Emissionssphäre eine größere Oberfläche hat als die Erde, irgendeinen Unterschied macht. Nein, macht es nicht, weil das Verhältnis der Oberflächen einer Scheibe und einer Sphäre 1:4 ist, unabhängig vom Radius und damit der Oberfläche der Sphäre.

Rosco zitiert auch Kiehl und Trenberths Bemerkung, dass die absorbierte und emittierte Strahlung an der Erdoberfläche 390 W/m² beträgt. Die beiden Autoren wollen damit indirekt sagen, dass sie diesen Wert abgeleitet haben, indem sie den vierten Teil der irdischen mittleren Oberflächentemperatur von 288K mit der Stefan-Boltzmann-Konstante (0,0000000567 Watt pro Quadratmeter und Kelvin zum 4. Teil) multipliziert haben.

Sollten Kiehl und Trenberth mit ihrer Annahme recht haben, das seine strikte Stefan-Boltzmann-Beziehung auf diese Weise an der Oberfläche wirkt, können wir legitimerweise darauf hinweisen, dass der Klimasensitivitätsparameter vor der Rückkopplung – das erste Differential der Fundamentalgleichung des Strahlungstransportes mit den obigen Werten des Strahlungsflusses an der Oberfläüche und der Temperatur – 288/(390 x 4) = 0,18 K pro Watt und Quadratmeter beträgt. Wäre das so, selbst wenn wir annehmen, dass die implizite IPCC-Schätzung eines stark positiven Feedbacks 2,1 Watt pro Quadratmeter und Kelvin beträgt, würde die Gleichgewichts-Klimasensitivität bei einer Verdoppelung des CO2-Gehaltes 3,7 x 0,18 / (1-2,1 x 0,18) = 1,1 K. Und wo haben wir diesen Wert schon mal gesehen?

Bei all dem möchte ich natürlich nicht dafür garantieren, dass die Ergebnisse des IPCC, von Kiehl und Trenberth oder dass die Methoden des Lehrbuches richtig sind: das wäre, bildlich gesprochen, weit über meiner Gehaltsgruppe. Wie jedoch Mr. Fenley-Jones korrekt angemerkt hat, bin ich ziemlich glücklich, Folgendes zu zeigen: falls ihre Methoden und Werte korrekt sind, läge die Klimasensitivität – wie auch immer man die berechnet – bei einem Drittel von dem, was sie uns glauben machen wollen.

Alle Beitragenden – selbst die Trolle – haben mir sehr dabei geholfen zu klären, was im Grunde ein einfaches, aber kein simplizistisches Argument ist. Jenen, die diese Diskussion auf verschiedenen Weise komplizieren möchten, sage ich, wie der hervorragende Willis Eschenbach schon vorher hier gesagt hat, dass man sehr genau den Unterschied zwischen vordergründigen Effekten, die definitiv das Ergebnis verändern, und untergeordneten Effekten beachten, die das Ergebnis ändern oder nicht ändern, aber eine Veränderung wäre klein, und drittrangigen Effekten, die definitiv keine Änderung bringen, die groß genug ist, um einen Unterschied auszumachen. Man sollte knallhart drittrangige Effekte ausschließen, auch wenn  sie vordergründig interessant sind.

Unter der Voraussetzung, dass das IPCC die Klimasensitivität um das Dreifache übertreibt, machen nur die größten vordergründigen Einflüsse einen signifikanten Unterschied bei der Berechnung. Und es sind die offiziellen Methoden, mit denen diese Einflüsse behandelt werden, die ich hier durchweg angewandt habe.

Mein Vorsatz für das neue Jahr ist es, ein kleines Buch über die Klimafrage zu schreiben, in welchem ich die Ergebnisse dieser Diskussion hier darstellen werde. Man wird dort lesen, dass die Klimasensitivität niedrig ist. Selbst wenn sie so hoch wäre wie das IPCC uns glauben machen möchte, wäre es mindestens eine Größenordung besser, uns an die Folgen irgendeiner Erwärmung anzupassen als zu versuchen, diese zu verhindern; dass es viele Arten von Beweisen für systematischen Betrug und Korruption gibt bei einer überraschend kleinen Clique von politisch motivierten „Wissenschaftlern“, die die jetzt scheiternde Klimaangst erzeugt und weitergetrieben haben; und dass zu viele, die es besser wissen sollten, in eine andere Richtung geschaut haben, als ihre akademischen, wissenschaftlichen, politischen oder journalistischen Kollegen ihre schäbigen Betrügereien begangen und betrieben haben, weil Schweigen im Angesicht offizieller Verlogenheit sozial bequem, politisch passend und über allem finanziell profitabel ist.

Im letzten Kapitel werde ich hinzufügen, wie groß inzwischen die echte Gefahr ist, dass die UN mit Beratern aus der Europäischen Union damit Erfolg haben, die durch die Klima- und Umweltproblematik gestützte betrügerische Wissenschaft wie ein trojanisches Pferd benutzen, um die Demokratie in jenen Ländern auszulöschen, die anders als die Länder in Europa diese immer noch glücklicherweise haben; dass die Freiheit in der Welt als Konsequenz in aktueller und ernster Gefahr ist, und zwar durch die unverhohlenen Ambitionen einer besitzergreifenden, talentfreien und wissenschaftlich ungebildeten regierenden Elite einer Weltregierung, die überall dabei sein möchte; aber dass – wie die jüngste Geschichte der bürokratisch-zentralistisch geführten, aber inzwischen gescheiterten EU zeigt – die machtbesessenen Nicht-Didaktiker untergehen, und sie werden klein gehalten durch die unvermeidliche Sinnlosigkeit ihrer Versuche, mit den Gesetzen der Physik und der Wirtschaft herumzupusseln.

Die Armee der Erleuchteten und der Wahrheit, wie wenige auch immer wir sind, werden am Ende still über die Kräfte der Dunkelheit triumphieren: weil, ob sie es mögen oder nicht, die unveränderliche Wahrheit nicht unbegrenzt durcheinandergebracht, verborgen oder ihr nicht widersprochen werden kann. Wir haben die Gesetze der Wissenschaft nicht gemacht: also liegt es auch jenseits unserer Möglichkeiten, sie außer Kraft zu setzen.

Christopher Monckton of Brenchley

Den Originalartikel finden Sie hier!

Übersetzt von Chris Frey für EIKE