1

Die globale Mitteltemperatur – Ein Phantom?

Vom Prinzip her – und man muss unterstellen, sogar mit voller Absicht – wird dabei außen vor gelassen, dass es diese Größe in der Natur nicht gibt. Sie ist weder physikalisch an Hand der Realität definierbar, noch ist sie messtechnisch erfassbar. Wenn man nämlich versucht, sie sauber zu definieren, so bleibt nichts weiter als eine nach subjektiven Kriterien berechnete Zahl. Man könnte annehmen, dass sie eine Art Index ist. Aber auch das trifft nicht nicht zu, weil ihre Bezugsgrundlagen über der Zeit ständig variieren. Von einem aussagefähigen Index – wie z.B. dem Aktienindex DAX- verlangt man, dass die Zahl der Aktienwerte immer gleich ist. In diesem Falle sind es immer 30 DAX-Werte. Nicht immer dieselben, aber immer gleich viel. Das trifft aber für die per Thermometer bestimmten globale Mitteltemperatur nicht zu. Die Zahl der einbezogenenen Messstationen änderte sich permanent, auch deren Position im Kleinen wie im Großen, aber auch die Zeitpunkte an denen abgelesen wurde. Die Anforderungen die an einen Index gestellt werden, erfüllt sie also auch nicht.

Trotzdem kann man mit ihr und ihrem errechneten Trend viele kluge aber noch viel zahlreichere weniger kluge Sachen anstellen, über die sich trefflich und ausgiebig streiten lässt. Und gerade weil das so ist, wird der Streit darüber mit erbitterter Härte geführt und erinnert den geschichtsbewussten Beobachter immer mehr an den unendlichen Streit der mittelalterlichen Scholastiker über die Frage, wieviele Engel wohl auf eine Nadelspitze passen. Dieser Streit ist – weil völlig irreal – bis heute nicht entschieden, ebenso wenig wie der Streit darüber, was eine globale Mitteltemperatur eigentlich ist. Daher ist es gut, sich die physikalischen Realitäten zunächst einmal vor Augen zu führen.

 

Abbildung 1: Linkes Bild-Die Fragezeichen symbolisieren die verschiedenen Messorte von Messungen zur Bestimmung einer Durchschnittsstemperatur in einem Haus. Rechtes Bild- dasselbe Problem dargestellt an einem KfZ. In beiden Fällen wäre die Bestimmung einer Mitteltemperatur selbst wenn die Einzelwerte zur gleichen Zeit gemessen würden, sinnlos.

Die Physik definiert Temperatur in Anlehnung z.B. an Gehrtsen [Meschede, 2003] wie folgt als:

(Wärmezustand eines Körpers (nicht Wärmeenergie ))….und dann unter „Statistische Theorie der Wärme“: je Freiheitsgrad der sich in ungeordneter Wärmebewegung befindlichen Atome (L. Boltzmann 1890, Wien) gültig für Gase , Festkörper und Flüssigkeiten.

Anders ausgedrückt bedeutet dies: Die Temperatur ist eine physikalische, thermodynamische Zustandsgröße der Materie am Ort der Messung. Die physikalischen Eigenschaften der Temperatur werden in der Lehre von der Thermodynamik behandelt. Man bezeichnet dort die Temperatur als eine systemeigene, intensive Zustandsgröße.

Was ist eine „globale Erwärmung“?

In der Klimatologie wird diese Definition allerdings nicht verwendet. Welche Probleme man sich damit einhandelt, beschreiben z.B. Essex et. al [Essex, 2006] ausführlich in ihrer Arbeit. Darin zeigen sie, dass die in der Global-Klimatologie übliche Definition zu Problemen führt. Dort wird die von einer fiktiven Mitteltemperatur abhängige Temperaturabweichung Ξ(tM) (leider bildet der Zeichenvorrat des typo3 Editors mathematische Sonderzeichen nur unzreichend ab, ich bitte um Nachsicht) zur Zeit tM:

Ξ(tM) gebildet, indem von jeder Ortstemperatur ein gleitender Durchschnitt der Vergangenheit (2-ter Term in der Klammer) abgezogen wird. Ξ(tM) wird zutreffend als Temperaturanomalie bezeichnet. Die Summierung (Index i) erfordert im Prinzip eine räumliche Integration des Temperaturfeldes über die gesamte Oberfläche der Erde, wobei  die Lufttemperatur an der Position ri und zur Zeit tM ist und die Summierung über j für einen passenden Zeitraum (üblich sind 30 Jahre) durchgeführt wird. Die Anomalie Ξ ist also eine Funktion von für alle Ortsvektoren ri. Im Gegensatz dazu sind lokale (thermodynamische – Anm. des Verfassers -) Gleichgewichtszustände in einem Feld nur für einen besonderen Ort r definiert. Andere Orte, sofern sie sich nicht in infinitesimaler Nachbarschaft befinden, sind davon unberührt. Die statistische Größe Ξ hat dieselbe Eigenschaft wie ein arithmetischer Durchschnitt von unterschiedlichen Temperaturen zwischen räumlich voneinander entfernten Systemen. Sie hängt daher von den Zuständen aller räumlich getrennten Subsysteme ab.

Damit entsteht ein Paradox. Ξ am Ort r hängt auch von den Zuständen an allen entfernten Positionen {rk} ab. Jedoch sind chemische, physikalische oder biologische Prozesse, die durch die Temperatur am Ort r gesteuert werden, keine Funktionen der Temperaturen außerhalb von r. Wenn man in Klimamodellen darauf besteht, dass Ξ Prozesse auslöst, wie z.B. das Schmelzen von Gletschern, dann ist dieser Vorgang zwangsläufig eine Funktion von Temperaturen anderswo auf dem Planeten. Dies ist physikalisch unhaltbar. Fernwirkende Mechanismen für thermodynamische Prozesse gibt es nicht.

Mit der genauen Ermittlung der Kennziffer „Globaltemperatur“ T und ihres Verlaufes über der Zeit sollen u.a. Rückschlüsse auf eventuelle klimatisch relevante Einflussgrößen („Antriebe“ oder Forcings) ermöglicht werden. Namentlich ist hier der Einfluss des Spurengases CO2 gemeint, das gemeinhin als Treibhausgas bezeichnet wird. Durch die vielfältige statistische Behandlung wird jedoch aus dem ursprünglich physikalischen Wert der Temperatur T des Messortes und der Zeit nur noch eine fiktive Zahl T*. Sie hat keinen physikalischen Inhalt mehr, obwohl sie in der Literatur mit der Dimension °C oder K bezeichnet wird. Somit verliert die berechnete Größe „mittlere Globaltemperatur“ als Durchschnittswert aller gemessenen lokalen Temperaturwerte ihren physikalischen Bezug. Sie unterliegt in ihrer Bestimmung nicht mehr den allgemein gültigen physikalischen Gesetzen, sondern den zwar ausgefeilten, in wesentlichen Teilen jedoch willkürlich definierten statistisch-mathematischen Regeln und Konventionen. Jeder Versuch, ein Feld aus unterschiedlichsten lokalen Temperaturen über willkürliche Rechenregeln zusammenzuführen (es gibt z.B. – streng genommen – unendlich viele Methoden der Mittelwertbildung. Welche ist hier die „Richtige“?), liefert lediglich eine neue Zahl, die alle ihre physikalisch bestimmenden Eigenschaften verloren hat. Sie erhält dafür neue Eigenschaften, die sich primär aus den verwendeten Rechenregeln und den verabredeten (für den ursprünglichen Zweck möglicherweise sinnvollen, aber willkürlichen) Konventionen ergeben.

Der klimatologische Begriff der Lufttemperatur und die Messmethoden

Im Bericht des National Research CouncilXE „National Research Council“ [NRC, 2005] wird die mittlere Globaltemperatur T als “heat content”, also – im Gegensatz zur Auffassung von Gehrtsen- als Wärmeenergieinhalt, wie folgt definiert: ‘‘According to the radiative-convective equilibrium concept, the equation for determining global average surface temperature of the planet is

where H. . .. . .is the heat content of the land-ocean-atmosphere system. . … Equation (1) describes the change in the heat content where f is the radiative forcing at the tropopause, T´ is the change in surface temperature in response to a change in heat content, and λ is the climate feedback parameter (Schneider and Dickinson, 1974), also known as the climate sensitivity parameter, which denotes the rate at which the climate system returns the added forcing to space as infrared radiation or as reflected solar radiation (by changes in clouds, ice and snow, etc.).’’

Danach ist T  die mittlere Globaltemperatur und die Abweichung von dieser Temperatur, hervorgerufen durch die Strahlungs-Antriebe (radiative forcings) f. Diese Definition erleichtert zwar u. U. die Zuordnung einzelner Antriebe zur gemessenen oder gerechneten Veränderung T´, hilft aber bei der eigentlichen Ermittlung der Globaltemperatur T nicht weiter. Überdies unterstellt diese Definition eine reine Strahlungstemperatur, was der beobachteten Vielfalt der Temperaturquellen, zusätzlich zur Strahlungstemperatur, nicht gerecht wird.

Widersprüchliche Definitionen

Die klassische Meteorologie war sich schon lange des Widerspruchs bewusst, der sich aus der Ermittlung der lokalen wahren Lufttemperatur T und ihrer Verwendung als statistischem Mittelwert T* ergab. So erläutert R. Assmann, der Erfinder des heute noch vielfach verwendeten Aspirationspsychrometers, in seinem umfangreichen Aufsatz Das Aspirations-Psychrometer; Ein Apparat zur Ermittlung der wahren Temperatur und Feuchtigkeit der Luft“ auf  Seite 120 (6)[Assmann, 1892] Original-Zitat (alle Hervorhebungen vom Autor, die alte Schreibweise bitte zu entschuldigen):

„1. Begriff der Lufttemperatur. Sprung definiert in seinem Lehrbuche der Meteorologie auf S. 307 den Begriff der Lufttemperatur, wie man denselben in der Meteorologie schlechtweg gebraucht, als »diejenige Temperatur, welche der über betreffende Gegend hinwegstreichende Luftstrom in einer Höhe‘ von 1-2 m über der Erdoberfläche wirklich besitzt.

Abbildung 2: Das linke Bild zeigt den Temperaturverlauf an einem sonnigen Tag in Deutschland über verschiedenen Bodenarten. Die Temperaturskala links fängt bei 0°C an und endet bei 48 °C. Das rechte Bild zeigt den Temperaturverlauf symbolisch über einen Tag in feuchter Umgebung und in trockener Umgebung, sowie die Messwerte bei gleichem Verlauf aber zu verschiedenen Zeiten zur Berechnung des Tagesmittels.

Koeppen [Köppen, 1913] dagegen sagt in seiner Abhandlung »Studien über die Bestimmung der Lufttemperatur und des Luftdrucks« auf S. I: »Was ist Lufttemperatur ? Die Antwort lautet einfach: Die Temperatur der Luft, zunächst derjenigen, welche wir unmittelbar der Prüfung unterwerfen und weiterhin die Temperatur anderer, größerer Luftmassen, als deren Repräsentantin die erstere dienen kann«. Wie man sieht, ist Koeppens Definition die weitere, von einer Höhenangabe über dem Erdboden gänzlich absehende, während Sprung’s Definition dem für die beobachtende Meteorologie allerdings wesentlich maßgebenden Begriffe der »klimatischen Temperatur« nahe kommt. 

Koeppen unterscheidet aber ferner gewissermaßen zwei verschiedene Arten der Lufttemperatur, deren erste man die physikalische nennen könnte, während die letztere auf das praktische Bedürfnis klimatologischer Untersuchungen Rücksicht nimmt. Für unsern Zweck, ….. ebenso auch im Innern eines von der Lufttemperatur abhängigen physikalischen Apparates so ermitteln, wie sie unter dem Zusammenwirken aller für den speciellen Fall wirksamen Faktoren thatsächlich vorhanden ist. Man könnte deshalb vielleicht auch sagen, dass wir als Lufttemperatur diejenige Temperatur anzusehen haben, welche eine beliebige, der Untersuchung unterworfene Luftmenge unter dem Zusammenwirken der jeweiligen sie treffenden Einflüsse der Ein- und Ausstrahlung direkter wie reflektirter Wärme jeder Wellenlänge, ferner der Leitung und Konvektion von Wärme wirklich besitzt.

Eine verschleppte „Erbkrankheit“ der Meteorologie

Damit umgeht Koeppen jede physikalische Definition der Größe, die er beobachten will, was aber bis zur Erfindung der Treibhaustheorie eigentlich niemanden störte.

Dieses klar erkannte Dilemma wurde aber in den letzten 120 Jahren nicht nur nicht ausgeräumt, sondern im Gegenteil weiter verfestigt und führt daher, auch weiter bei Klimawissenschaftlern jeglicher Provenienz zu munterer Begriffsverwirrung. An dieser „Erbkrankheit“ leidet die Meteorologie sowie die mit ihr verknüpfte Klimaforschung bis heute. Anschaulich unterstreicht dies eine aktuelle, leicht verständlich gehaltene Darstellung auf der Webseite des Goddard Institute for Space Studies, GISS) der NASA, das in den USA auch für Belange der Meteorologie und Klimaforschung zuständig ist.  Dort wird das „kleine“ Problem, wie die alles entscheidende Ursprungs-Größe, die Basis aller  Globaltemperaturen, nämlich die lokale bodennahe Lufttemperatur und ihr Tagesdurchschnitt zu ermitteln ist, mit Hilfe eines kurzen Frage- und Antwortspiels wie folgt beschrieben:

Boden-Temperaturanalyse nach GISS/ Die schwer fassbare Absolute Boden-Temperatur (SAT)

Frage: Was genau ist mit SAT (Absolute Surface Air Temperature) gemeint?

Antwort: Ich bezweifle, dass es eine allgemeine Übereinstimmung gibt, wie man diese Frage beantworten kann. Selbst an ein und demselben Ort kann sich die Temperatur in Bodennähe sehr von der Temperatur in einer Höhe von 5 Fuß [ca. 1,5 m] über dem Boden unterscheiden und diese wiederum von der Temperatur in 10 oder 50 Fuß [ca. 3 m bzw. 15 m] über Grund. Vor allem beim Vorhandensein von Vegetation (sagen wir mal im Regenwald) kann sich die Temperatur oberhalb der Vegetation sehr stark von der Temperatur unter dem Blätterdach unterscheiden. Ein vernünftiger Vorschlag könnte es sein, die mittlere Temperatur der ersten 50 Fuß entweder über dem Boden oder über der Vegetation zu verwenden. Um SAT zu messen, müssten wir übereinstimmend feststellen, was damit gemeint ist, und so weit ich weiß, ist bis heute ein solcher Standard nicht vorgeschlagen oder allgemein übernommen worden. Selbst wenn man den 50-Fuß-Standard übernimmt, kann ich mir nicht vorstellen, dass man an einer Wetterstation einen 50 Fuß hohen Turm mit einer Anzahl Thermometer errichtet, um die wirkliche SAT an dieser Stelle zu ermitteln.

Frage: Was meinen wir mit dem täglichen Mittel von SAT?

Antwort: Noch einmal, da gibt es keine universell korrekte Antwort. Sollten wir die Temperatur alle 6 Stunden messen und mitteln, oder sollten wir es alle zwei Stunden tun, stündlich oder mit Hilfe einer Maschine jede Sekunde, oder sollten wir einfach das Tagesmaximum und –minimum nehmen und die Summe durch zwei dividieren? An einigen Tagen werden die verschiedenen Methoden zu drastisch unterschiedlichen Ergebnissen führen.

Frage: Über welche SAT berichten die lokalen Medien?

Antwort: Die Medien melden die Messungen an einem bestimmten Thermometer einer nahe gelegenen Wetterstation. Diese Temperatur kann von der wirklichen SAT selbst an dieser Stelle sehr unterschiedlich sein und hat mit Sicherheit nichts zu tun mit der wirklichen regionalen SAT. Um die wirkliche regionale SAT zu messen, müssten wir viele 50 Fuß hohe Thermometersäulen verwenden, die gleichmäßig über das ganze Gebiet verteilt sind, eine offensichtlich praktische Unmöglichkeit.

Frage: Wenn die gemeldeten SATs nicht die wirklichen SATs sind, warum sind sie dennoch nützlich?

Antwort: Die gemeldete Temperatur ist wahrhaftig nur für jene Person von Bedeutung, die die Wetterstation zufällig in genau dem Moment aufsucht, zu dem die gemeldete Temperatur gemessen wird – mit anderen Worten also für niemanden. Allerdings fügen die Medien zusätzlich zu der gemeldeten SAT auch hinzu, ob diese Temperatur ungewöhnlich hoch oder niedrig liegt, um wie viel sie von der Normaltemperatur abweicht, und diese Information (diese Anomalie) ist für die ganze Region bedeutsam. Außerdem, wenn wir von einer bestimmten Temperatur hören (z. B. 70°F [ca. 21°C]), übertragen wir diesen Wert instinktiv in heiß oder kalt, aber der Schlüssel für diese Übertragung hängt von der Jahreszeit und dem Gebiet ab. Der gleiche Temperaturwert kann im Juli ‚kalt’ und im Januar ‚warm’ sein, da wir mit ‚warm’ immer wärmer als normal meinen. Das heißt, wir übertragen alle Temperaturwerte automatisch in Anomalien, ob wir das nun merken oder nicht.

Frage: Falls man die SATs nicht messen kann, wie werden dann Karten mit der Temperaturverteilung erzeugt?

Antwort: Das kann man nur mit Hilfe von Computermodellen, den gleichen Modellen, die verwendet werden, um die tägliche Wettervorhersage zu erstellen. Wir können die Modellrechnung mit einigen wenigen gemessenen und verfügbaren Daten füttern und den Rest mit Vermutungen (auch Extrapolationen genannt) füllen. Danach lassen wir das Modell so lange laufen, dass die Eingangs-Annahmen keine Rolle mehr spielen, aber nicht zu lange, um die zunehmenden Ungenauigkeiten des Modells mit der Zeit zu vermeiden. Man kann auch als Anfangszustand die mittleren Bedingungen mehrere Jahre nehmen, so dass das Mittel (eine ‚Klimatologie’ genannt) hoffentlich eine typische Karte für einen bestimmten Monat oder ein bestimmtes Jahr repräsentiert.

Frage: Was muss ich tun, wenn ich absolute SATs brauche und nicht Anomalien?

Antwort: In 99,9% aller Fälle wird man finden, dass Anomalien genau das sind, was man braucht, nicht absolute Temperaturen. In den übrigen Fällen muss man sich eine der verfügbaren Klimatologien heraussuchen und die Anomalien hinzufügen (unter Berücksichtigung einer geeigneten Bezugsperiode). Als globales Mittel erzeugen die Modelle, denen man am meisten vertraut, einen Wert von etwa 14°C, aber es kann gut irgendwo zwischen 13°C und 15°C liegen, und regional, geschweige denn lokal, ist die Lage sogar noch schlimmer.

Ich bin mir sicher dass die o.a. Ausführungen zu reger Diskussion führen werden. Daher eine Bitte: Bleiben Sie in Ihren Kommentaren sachlich.

Michael Limburg

Die GISS Darstellung wurde von von Chris Frey EIKE übersetzt.

Kommentar hierzu von Dipl.-Met. Hans-Dieter Schmidt:

Als mir dieser Text des GISS gezeigt wurde, habe ich mich schon im ersten Moment ertappt gefühlt – dieses unbewusste Übertragen in Anomalien, von dem in diesem Text die Rede ist, passiert mir nämlich auch – im privaten Bereich. Als Meteorologe im Vorhersagedienst (oder besser gesagt während der Arbeit) sind mir die absoluten Werte dagegen relativ egal – die Vorhersage von Wettererscheinungen ist wichtiger und schwieriger.

Dennoch, um auf die Problematik von „globalen Temperaturen“ hinzuweisen, kann dieser Artikel gar nicht hoch genug einschätzt werden. Und wenn mich mein Nachbar fragt, wie lange ‚es noch so heiß bleibe’, gebe ich gerne die Antwort: ‚Es war doch schon mal noch heißer um diese Jahreszeit!’

‚Hitze’ und ‚Kälte’ betrachte ich als Wettererscheinungen. Auch privat – ich leide unter der Hitze – und nicht unter 32°C oder 35°C. Schon während meiner Ausbildung (vor rund 40 Jahren) habe ich gelernt, Wertungen strikt aus der Formulierung von Vorhersagen herauszuhalten. Dieser Artikel liefert mir selbst nach so langer Zeit den klaren Grund für diese Anweisung.

Hans-Dieter Schmidt

Literatur in der Reihenfolge ihrer Erwähnung

Meschede, D (2003) Gehrtsen Physik. J. Springer, Berlin Heidelberg

Essex, C, Mc Kittrick, R. Andresen, B. (2006) Does A Global Temperature Exist? Non-Equilibrium Thermodynamics

NRC (2005) Radiative Forcing of Climate Change: Expanding the Concept and Addressing Uncertainties, 207 pp.,. 207 pp.

Assmann, R (1892) Das Aspirations-Psychrometer; Ein Apparat zur Ermittlung der wahren Temperatur und Feuchtigkeit der Luft.

Köppen, W (1913) Einheitliche Thermometeraufstellungen für meteorologische Stationen zur Bestimmung der Lufttemperatur und der Luftfeuchtigkeit  Meteorologische Zeitschrift 30

GISS Surface Temperature Analysis The Elusive Absolute Surface Air Temperature (SAT)

http://data.giss.nasa.gov/gistemp/abs_temp.html




Umweltkonferenz – Onlineradio-Live am So., 18. August von 20 – 22 Uhr

Ist die Energie­wende wirklich alternativlos? Die Bundesregierung will uns das einreden. Für eine wachsende Zahl von Bürgern ist Strom zum unbezahlbaren Luxusgut geworden. Unser Strompreis wird sich auch in Zukunft erheblich verteuern, unsere Versorgungssicherheit mit elektrischem Strom sinken und unsere Naturumgebung durch immer mehr Windräder weiteren Schaden nehmen. Beim Okitalk-Klimagipfel können sich interessierte Bürger über die aktuelle Situation aus Sicht unabhängiger Wissenschaftler und er­fahrener Ingenieure informieren. Die (politisch unabhängigen, nicht der PDV angehörigen) Experten Dipl.-Physiker Professor Dr. Horst-Joachim Lüdecke, Dipl.-Ing. Sven Johannsen (Spezialist für Windmessungen) und Ing. Stefan Doliwa schildern, welche Risiken Deutsch­land eingeht und beantworten Hörerfragen".

Zum hören der Sendung sowie zum Prozedere des Teilnehmens mit Hörerfragen (hier). 




Klimaskeptische Wissenschaftler werden gemobbt: Säuberungswelle an australischen Universitäten: Zwei klimaskeptische Professoren vor die Tür gesetzt

Der Geowissenschaftler Professor Bob Carter hat in den vergangenen Jahren die große Bedeutung natürlicher Klimafaktoren für das aktuelle Klimageschehen herausgestellt, ein Konzept das sich nicht mit den Klimakatastrophenszenarien verträgt. Die Universität hat nun Carters unbezahlte, außerordentliche Professur auslaufen lassen, mit dem Hinweis, dass die Tätigkeit in diesen Positionen regelmäßig hinsichtlich der Aktivitäten in Lehre und Forschung überprüft wird. Ein fragwürdiger Vorgang, bei dem offensichtlich ein Wissenschaftler ausgeschlossen wurde, der mit berechtigten Argumenten auf Missstände in den Klimawissenschaften hinwies. Sieht so die Freiheit der Wissenschaften im 21. Jahrhundert aus?

——————-

Offenbar findet an Australiens Universitäten derzeit eine anti-klimarealistische Säuberungswelle statt. Auch der Meteorologe und Klimawissenschaftler Murry Salby wurde jetzt von seiner Universität unter fadenscheinigem Vorwand vor die Tür gesetzt. Salby wurde 2008 von der Macquarie University auf eine Professur berufen. Die ihm damals zugesagten Forschungsmittel wurden ihm jedoch nicht vollständig zur Verfügung gestellt, so dass er seine wissenschaftlichen Projekte zum Teil aus eigener Tasche bezahlen musste. Im Rahmen seiner Studien stieß Salby auf ein Problem der Klimawissenschaften, dass das Verständnis der CO2-Treibhauswirkung von Grund auf verändern könnte. Salby fand Hinweise darauf, dass der CO2-Anstieg der Atmosphäre möglicherweise eine Folge und nicht Ursache der Klimaerwärmung sein könnte (siehe unsere Blogbeiträge “CO2-Anstieg der letzten 160 Jahre durch Entgasung aus dem Ozean?” und “Videoaufzeichnung des Vortrags von Prof. Murray Salby in Hamburg am 18. April 2013″). Dies konnte der Macquarie University natürlich nicht gefallen. Der Streit zwischen Universität kulminierte  in einem filmreifen Zwischenfall in Paris. Nach einer Vortragsreise durch Europa wollte Salby auf dem Flughafen der französischen Hauptstadt gerade zu seinem Flug nach Australien einchecken, als ihm mitgeteilt wurde, dass die Universität seinen Rückflug storniert hatte. Wie nicht anders zu erwarten, bestreitet die Universität, dass die Kündigung von Salby etwas mit seinen Ansichten zum Klimawandel zu tun hätte.

Der Beitrag erschien zuerst in "Die kalte Sonne"




Riesige Offshore-Gasvorkommen vor Griechenland

Im Einzelnen sprach Samaras während seiner Gespräche mit der Obama-Administration eine geschätzte Gasmenge von 4,7 Trillionen Kubikmeter (TCM) in Griechenland an, eine Menge, die größer ist als die geschätzten Reserven von Zypern und Israel zusammen mit weiteren 4,5 tcm. Basierend auf diesen Zahlen versicherte er, dass das östliche Mittelmeer den Gasbedarf der Europäischen Union für die nächsten 30 Jahre zu 50% decken kann. Er betonte die Notwendigkeit der Konstruktion einer Pipeline-Infrastruktur, um diese Mengen nach Europa zu transportieren und es dem Kontinent so zu ermöglichen, seine Importen zu diversifizieren. Zum Vergleich: die nachgewiesenen Reserven von Aserbeidschan belaufen sich geschätzt auf 900 Milliarden Kubikmeter (bcm).

Griechenland hat dem norwegischen PGS [=Program Generation System, ?] gestattet, eine seismische Übersicht (MC2D) für Kohlenwasserstoffe in den westlichen und südlichen Landesteilen durchzuführen, zumeist aber an Stellen offshore. Obwohl bereits „optimistische Ergebnisse“ seitens des Unternehmens und Funktionären der griechischen Regierung durchgesickert waren, ist es das erste Mal, dass eine definitive und eindrucksvolle Zahl hinsichtlich der Reserven von höchster Regierungsebene Griechenlands genannt worden ist. PGS wird Ende 2013 seine eigenen Ergebnisse fertig gestellt haben, und danach werden interessierte Unternehmen die Daten kaufen und dann in bilaterale Gespräche mit dem griechischen Staat eintreten. Man spekuliert, dass Firmen wie Total, Noble Energy, Shell und Delek bereits inoffiziell ihr Interesse an diesem Prozess bekundet haben.

Nichtsdestotrotz führen die Kritiker an, dass es noch zu früh sei, die möglichen Reserven abzuschätzen, und sie merken an, dass die griechische Regierung danach trachtet, sein politisches Profil in den USA zu „schärfen“, als ob man die Bedeutung des Landes als Quelle substantieller Mengen von Kohlenwasserstoffen steigern wolle. Mehr noch, die Türkei, traditionell angesehen als ein Gegenspieler sowohl von Griechenland als auch von Zypern und seit Neuestem auch Israel, leistet in Washington starke Lobbyarbeit, als Quellenland hinsichtlich Gas angesehen zu werden, das sowohl von Zypern als auch von Israel ausgebeutet wird. Folglich könnten Samaras’ Verkündigungen als ein Versuch gesehen werden, potentielle Entscheidungen der USA zu diesem Thema zu verhindern, mit der Möglichkeit, dass Griechenland ebenfalls über größere Mengen verfügen würde. Folglich sollte man die Rolle als „Brückenland“ hinsichtlich des Gases ultimativ Athen zuordnen.

Inzwischen steckt das „Gasfieber” andere Länder rund um das Mittelmeer an. Libanon, Montenegro, Bulgarien Rumänien und Malta bereiten sich darauf vor, ihrerseits nach Offshore-Funden zu suchen, obwohl sicher ist, dass unabhängig von ausreichenden Mengen vordergründige ökonomische Aspekte wie Produktions- und Transportkosten zu den Märkten in den westlichen und zentralen Märkten Europas eine Rolle spielen. In dieser Hinsicht wird sich der „Hype“ in der Region des östlichen Mittelmeeres fast mit Sicherheit wieder beruhigen, wenn erst einmal die Ökonomie ins Kalkül gezogen wird sowie die schon jetzt gut ausgebaute Infrastruktur in Russland. Außerdem sind da noch die große Zukunft des Azeri-Gases [?] im europäischen Energiemix und die Alternative des Handels mit LNG [=Liquefied Natural Gas], dem die EU allmählich größere Priorität verleiht. Und zuletzt ist da noch das politische Risiko in Verbindung mit dem Gas aus dem östlichen Mittelmeer, das man in Betracht ziehen sollte, handelt es sich doch um eine Region mit Bürgerkriegen und politischer Instabilität.

Link: http://www.naturalgaseurope.com/greece-natural-gas-reserves

Übersetzt von Chris Frey EIKE




Eine Illustration, dass das CO2 die Erde nicht in einem Runaway-Tipping-Point rösten wird…

Aus der Abteilung „etwas, das Sie nicht jeden Tag sehen“, stammt die Graphik rechts:

Atmosphärische CO2-Konzentrationen in geologischen Zeiträumen

Quelle: GeoCO2.png Photo by dhm1353 | Photobucket

Mit Dank an Tom Nelson

Auf der folgenden Graphik werden die Quellen gezeigt:

Quelle: http://s90.photobucket.com/user/dhm1353/media/CO2_Decline.png.html

Weitere Datenquellen: (Dank an Bill Illis)

http://www.geocraft.com/WVFossils/Reference_Docs/Geocarb_III-Berner.pdf
ftp://ftp.ncdc.noaa.gov/pub/data/paleo/climate_forcing/trace_gases/phanerozoic_co2.txt

ftp://ftp.ncdc.noaa.gov/pub/data/paleo/climate_forcing/trace_gases/pagani2005co2.xls

ftp://ftp.ncdc.noaa.gov/pub/data/paleo/icecore/antarctica/epica_domec/edc-co2-2008.xls

ftp://ftp.ncdc.noaa.gov/pub/data/paleo/climate_forcing/trace_gases/royer2006co2.xls
(Verwenden Sie nicht die Boron- oder Paleosol-Methode! Sie sind unzuverlässig!) ftp://ftp.ncdc.noaa.gov/pub/data/paleo/paleocean/by_contributor/pearson2000

ftp://ftp.ncdc.noaa.gov/pub/data/paleo/ipcc2007/ipcc2007fig61top.xls
ftp://ftp.ncdc.noaa.gov/pub/data/paleo/contributions_by_author/pearson2009/pearson2009.xls

ftp://ftp.ncdc.noaa.gov/pub/data/paleo/contributions_by_author/tripati2009/tripati2009.xls

http://www.snowballearth.org/Bao08.pdf

ftp://ftp.ncdc.noaa.gov/pub/data/paleo/contributions_by_author/hoenisch2009/hoenisch2009.xls

http://www.nature.com/ngeo/journal/v4/n7/extref/ngeo1186-s1.xls
http://www.nature.com/nature/journal/v486/n7401/extref/nature11200-s2.xls

http://www.nature.com/nature/journal/v486/n7401/extref/nature11200-s2.xls

Link: http://wattsupwiththat.com/2013/08/08/an-illustration-that-co2-wont-roast-the-earth-in-a-runaway-tipping-point/

Übersetzt von Chris Frey EIKE




Die finanziellen Folterinstrumente für Wohnungsinhaber nach der Bundestagswahl liegen bereits in der Schublade!

„Alle wollen Energieeffizienz an Gebäuden, aber (fast) keiner realisiert sie“, das ist die Meinung des Herausgebers. Er hat deshalb ein Autorenteam mit EU-Energiekommissar Günther Öttinger, Bundesbaubauminister Dr. Peter Ramsauer und vielen weiteren bekannten Persönlichkeiten für das Werk gewonnen, die zwar gewisse Differenzierungen im Detail zum Besten geben, aber grundsätzlich bei den Eckpunkten einer Meinung sind. Möglicherweise haben die Buch-Autoren bis heute noch nicht begriffen, warum inzwischen die überwiegende Zahl der Bürger mit EU-Vorgaben, Energiewende, Klimapolitik, dem Erneuerbaren Energien Gesetz (EEG) und der Energieeinsparverordnung (EnEV) nur staatlich angeordnete Abzocke und Bürgergängelung verbinden. Niemand dieser werten Autoren hat mutmaßlich erkannt, dass selbstverständlich jeder Bürger Energie und Kosten dort einspart, wo es ihm vernünftig erscheint und Entmündigungen und Vorgaben bis ins Detail, so wie die meisten Politiker, Bürokraten und Führungskräfte der Verbände es für richtig halten, auf berechtigten Widerstand stoßen müssen. 

Wie dem Bürger eine stromliniengebügelte Meinung übergestülpt werden soll, vermittelt dieses Buch. Gegenmeinungen waren scheinbar nicht erwünscht und wurden nicht zugelassen.

Eine Pro- und Kontra-Diskussion zum Nutzen der Bürger und unserer Volkswirtschaft kann man von dem Buch deshalb nicht erwarten – wohl aber Hinweise darauf, was nach der Bundestagswahl von uns in Sachen Gebäudesanierung gefordert wird. Für die Einleitung des auf uns zukommenden Szenarios ist EU-Energiekommissar Günther H. Oettinger zuständig. Er macht klar, dass der Energieverbrauch um 20 Prozent bis 2020 herunterzuschrauben ist. Das ist EU-Vorgabe. Um das zu erreichen, müssen „Nationale Energieeffizienz-Richtlinien“ her sowie eine Investitionsstrategie. Es sind Energielieferungsbeschränkungen, Strafzahlungen auf Energieliefermengen oder gar „freiwillige“ Verzichtsvereinbarungen vorgesehen. Es müssen „intelligente Zähler“ angeschafft werden, damit dem Bürger jeden Tag vor Augen geführt wird, wann er schon wieder über die „Energiestränge“ geschlagen hat.

Warum das alles? Natürlich wegen der Treibhausgasemissionen in der EU und der erforderlichen Klimarettung. Dass sich seit über 15 Jahren das Weltklima abgekühlt hat, kann dabei nicht interessieren. Gegenmeinungen werden da niedergebügelt wie unlängst vom Umweltbundesamt.

Die Nachhaltigkeitsstrategie ist durchzuziehen, was sie auch kostet und nützt. Und Deutschland spielt dabei wieder den Musterschüler. Schon einmal sollte am deutschen Wesen die Welt genesen. Bis 2050 soll der klimaneutrale Gebäudebestand erreicht werden.

Einen Beweis, dass mit Gebäuden das Klima beeinflusst oder neutral gehalten werden kann, was immer das auch heißen soll, liefert das Buch nicht – wie auch?

Der Mensch muss umerzogen werden, dann klappt es auch. Nach Mittwoch kein Fleisch in der Kantine könnte es auch einen energielosen Tag einmal in der Woche geben, vielleicht gleich am Donnerstag. Da gäbe es in der Kantine dann Kaltschale und kalten Kaffee vom Vortag und umweltschädliche Autos könnten an diesem Tag nicht produziert werden.  Das hätte doch was und könnte den GRÜNEN gefallen. Nur so oder so ähnlich wäre ein Sieg über das Klima dank Klimawissenschaft möglich.

Das Buch vermittelt deshalb auch  Einblicke in den Klimakampf unserer Parteien CDU/CSU, SPD, GRÜNE, FDP, DIE LINKE und PIRATEN, der auf uns zukommt. Keine Partei unterscheidet sich von der anderen. Man hat den Eindruck, dass einer das Programm der anderen Partei abgeschrieben hat, die Textbausteine von den bekannten Klimaschützern stammen und nur anders angeordnet wurden. Nur der CDU/CSU und FDP kann man dabei zugute halten, dass sie mehr auf eine Freiwilligkeit des Bürger setzt. Massives Ordnungsrecht schließt die SPD nicht aus, die GRÜNEN und die LINKEN halten es für erforderlich. Lediglich die PIRATEN haben die gleiche Forderung wie Hausgeld-Vergleich e.V.: „Mieterhöhungen wegen energetischen Modernisierungen dürfen nur in der Höhe erfolgen wie damit Energie eingespart wird.“ Sonst kommt es zu den drastischen Mietanhebungen wie sie bisher erfolgen. 

Überraschend spricht einzig die SPD Klartext im dem Bürger bereits bekannt Sinne:

„Die Einsparungen an Energiekosten amortisieren nie die nötigen Investitionen – auch nicht langfristig.“

Doch könnte die SPD nicht Partner der GRÜNEN sein und bleiben, wenn sie nicht dem gleich hinzusetzt: Weil es sich niemals lohnt, „müssen wir die richtigen Förderinstrumente als Ausgleich und Entlastung bereitstellen.“ Sozis wie die GRÜNEN verstehen darunter wieder Zuschüsse des Staates, also Fördergelder auf Pump oder aus Steuererhöhung, statt volkswirtschaftlicher Vernunft.

Das Jahrbuch zeigt bereits die Details, wie der Bürger klimaschützend geplündert werden könnte – rechtlich einwandfrei selbstverständlich. Da hilft Prof. Dr. jur. Stefan Klinski von einer Berliner Hochschule und Veit Bürger vom Öko-Institut speziell und die Studie des den Wohnungsinhabern bereits wohl bekannten Umweltbundesamtes im Besonderen. Schließlich hat dieses Amt bereits „beste“ Erfahrungen mit den Betriebskosten für das eigene ökologische Modellvorhaben in Dessau. Der Bundesrechungshof bemerkte zu diesem Gebäude des Umweltbundesamtes:

„Die Betriebskosten des ökologischen Neubaus liegen deutlich über den Planungswerten und dem Durchschnitt herkömmlicher Gebäude.“

Auf unbedarfte Bürger zielen demnach auch die Vorschläge, mit denen das Weltklima in die gewünschte Richtung gebogen werden könnte.

Zunächst wird das „Prämienmodell“ oder „Bonusmodell“ favorisiert. Der Sanierer erhält einen gesetzlichen Prämienanspruch für „seine“ Sanierung – vergleichbar mit dem gesetzlichen KITA-Platz. Die garantierte Prämie sollen Gas- und Ölverkäufer als Aufschlag auf ihre Preise addieren. Für den Staat ist das dann kostenneutral, ja sogar mehrwertsteuererhöhend, weil der Gas- und Ölverheizer dann umso mehr zahlt. Als Vorbild gilt das EEG. Auch hier zahlt der arme Bürger die staatlich garantierten Renditen der Produzenten für den überteuerten Wackelstrom aus Sonne und Wind – eine bereits erprobte Geldumverteilung von unten nach oben liegt vor. Also eine wirklich volkswirtschaftlich sinnvolle und sozial gelungene Idee. Dann soll eine „Energieeinsparquote“ („Energieeinsparverpflichtungssystem“) kommen, immer bezogen auf das Vorjahr, egal wie hoch der verwaltungstechnische Aufwand dafür ist und ob damit sinnvoller Wachstum abgewürgt wird. Jedes Jahr gibt es einfach weniger zum Heizen.

Die „Klimaschutzabgabe mit Förderfonds“ (Klimaschutz-Obulus) ist ein weiteres Ziel.

Dabei soll der Hausbesitzer je nach der Gebäudeenergiequalität in einen staatlichen „Förderfond“ zahlen, aus dem dann die Sanierprämien ausgezahlt werden. Es zahlt der dämmungsunwillige Hausbesitzer für den Nachbarn, der Dämmungsverlockungen und den Werbeaussagen der Klimaschutz-Profiteure nicht widerstehen konnte.

Auch ein „Energiesteuerzuschlag mit Förderanspruch“ ist angedacht. Dies erscheint dem Betrachter weniger gelungen, denn Steuererhöhungen sind bereits von der SDP und den GRÜNEN in anderen Bereichen beabsichtigt.

Erhalten bleibt das „Vorzugszinsenmodell“. Mit Schuldenmachen haben die EU-Staaten bereits Erfahrung und dieses System soll mit niedrigen Zinsen auch in Deutschland dem Wohnungsinhaber zu Füßen gelegt werden. Dafür wird dem Sparer Substanzverlust seines Vermögens auferlegt. Ihm verweigert der Staat sogar eine auskömmliche Verzinsung als Inflationsausgleich. Auch hier ist Umverteilung angedacht – das Klima und die Ideen des Umweltbundesamtes haben es verdient. Was sonst noch erwähnenswert an diesen Werk ist:

Ÿ Es gibt eine Anregung vom Herausgeber, doch wieder eine Abzocke der Mieter beim Contractingsystem zuzulassen. Schließlich war die Mietrechtsnovelle in diesem Bereich ein Schuss ins Knie, wie man jetzt feststellte.

Von Siemens wird vorausgesagt, dass bei „Leichtgebäuden mit geringen Speichermassen“ (es sind die Energieeffizienzhäuser) – „Raumtemperatur-Schwankungen“ zu erwarten sind und der Komfort negativ beeinflusst werden könnte. Das erfordert dann Maschinentechnik (möglicherweise von Siemens), die angeschafft und gewartet werden muss. Prof. Dr.-Ing. habil. Claus Meier, der Rebell der energieeffizienten Bauphysik, brachte diese Entwicklung schon früher und verständlicher auf den Punkt. Er nannte solche Wohnverhältnisse in den modernen Pappendeckelbuden: „Barackenklima“.

Kein Wunder dass auch Dr. Rips vom Mieterbund im Buch seinen Kommentar abgibt. War er noch vor einiger Zeit mit der These unterwegs: „Klimaschutz ist die halbe Miete.“ Nachdem er inzwischen feststellen konnte, dass es genau anders heißt, nämlich Klimaschutz ergibt bis zu einer halben Miete mehr, plädiert er für die Drittelung der unwirtschaftlichen Aufwendungen. Ein Drittel der Plastikverpackung der Häuser soll der Mieter zahlen, ein Drittel der Vermieter und den Rest der Staat. Dann fällt dieser betriebswirtschaftliche Mist beim Mieter nicht ganz so krass auf, denkt Dr. Rips.

Resultat:

Das Buch ist eine hervorragende Plattform für Personen, die ihre Meinung hier zu Dingen abgeben konnten, die sie nicht zu zahlen haben oder falls sie überhaupt betroffen sein sollten, wegen ihres eigenen hohen Einkommens aus der Portokasse wegfertigen können.

Die betroffenen Bürger und deren wirkliche Interessenvertreter wurden nicht gehört.

Der Bürger sollte aufwachen und erkennen, was mit ihm geschehen soll und massiven Widerstand leisten. Das Buch kam rechtzeitig vor der Bundestagswahl, so dass jeder Bürger gewarnt wurde und die Möglichkeit hat, seinem Lieblingsabgeordneten die Meinung zu sagen und daran zu erinnern, dass die Bundesrepublik nicht das geworden wären, wenn man in den Aufbaujahren die Bürger gezwungen hätte, Geld in voraussehbare unwirtschaftliche Maßnahmen zu stecken und undurchdachte Planwirtschaft und Bürokratie exzessiv betrieben hätte. Und es gäbe noch eine Alternative: Dieses Mal eine Partei wählen, die solchen Unsinn nicht in ihrem Parteiprogramm hat – auch wenn diese Partei derzeit noch klein ist. Wir brauchen eine Partei, die bei der Energie- und Klimapolitik überfällige Korrekturen anstößt und durchsetzt.

Norbert Deul – Vorstand

Schutzgemeinschaft für Wohnungseigentümer und Mieter e.V.

Hausgeld-Vergleich / Hausverwalter-Check

Gehrestalstr. 8, 9112 Pommelsbrunn bei Nürnberg

Tel. 09154/1602

www.hausgeld-vergleich.de und www.buergerschutz-tag.de




Panikattacken vom Mediendschungel-„Verstrahltes Wasser verseucht Pazifik“.

„Verstrahltes Waser verseucht Pazifik“.

Unter dieser Überschrift erschien am 08.08.2013 in der Hannoverschen Allgemeinen Zeitung einmal wieder eine Schauergeschichte über Fukushima, Verfasser ist Lars Nicolaysen (Ausbildung: unklar). Da ist von hunderten Tonnen verseuchtem Wasser die Rede. Normalerweise, z.B. auf meiner Wasserrechnung, werden Wassermengen in Kubikmeter angegeben; Tonnen klingt wohl dramatischer.

Noch dramatischer wirkt die Umrechnung in Liter, wie es am nächsten Tag, den 09.08.2013, in der „Welt“ zu lesen war, geschrieben von Sonja Blaschke (Ausbildung: Kultur-Wirtin), unter der Überschrift: „Strontium geht in die Knochen“. Täglich fließen in Fukushima Hunderttausende Liter radioaktiv verseuchten Wassers ins Meer. Den Fischern ist bereits ein Milliardenschaden entstanden. Experten warnen, nun könnte sich die Lage deutlich verschlechtern.

Aber wie viel Radioaktivität ist nun durch Grundwasser in der letzten Zeit in den Ozean gelangt? Das ist doch die wesentliche Frage, aber in den Zeitungsartikeln steht nichts darüber. Man erfährt es aus der Internetseite der „Asahi Shimbun“ (s. Anlage) Sie ist Japans zweitgrößte Tageszeitung und sieht ihre Aufgabe nicht darin, Aberglauben zu verbreiten und Angst zu erzeugen. Die Antwort: Bisher, d.h. am 10.08.2013, einen Tag nach der Veröffentlichung in der „Welt“, wurde noch garnichts nachgewiesen, also Null Becquerel.

Nun gibt es künstliche Radioaktivität im Pazifik. In den ersten Tagen nach dem Unfall ist viel Radioaktivität durch die Luft ins Meer gelangt. Das war Glück im Unglück, die Radioaktivität beeinträchtigt dort zunächst niemanden und wird schnell auf unbedenkliche Werte verdünnt. Würde man den kompletten Reaktor im Pazifik auflösen, dann gäbe es nur einen unbedeutenden Zuschlag zur natürlichen Radioaktivität des Meerwassers.

Wie ist die Situation im Grundwasser, nach „Asahi Shimbun“ und anderen seriösen Berichten? Unter dem Reaktorgelände enthält das Grundwasser künstliche radioaktive Isotope. TEPCO hat viele Brunnen bohren lassen, um Radioaktivität und Wasserstand zu kontrollieren. Zum Meer hin wurden Flüssigkeiten in die Erde gepresst, die sich dort verfestigten und eine Wand gebildet haben, welche die Grundwasserströmung unterbinden soll.

Nun ist auf der Landseite seit einiger Zeit der Grundwasserspiegel erheblich angestiegen. TEPCO befürchtet, dass der dadurch ausgelöste stärkere Grundwasserstrom von der Sperrwand nicht vollständig zurückgehalten wird. TEPCO: „Die Wahrscheinlichkeit ist hoch, dass Wasser ins Meer fließt.“ Konkret festgestellt wurde also noch nichts. Der Artikel der „Asahi Shimbun“ schließt mit dem Satz: „Jedoch gibt der starke Anstieg des Grundwasserspiegels in der Nachbarschaft Anlass, die Möglichkeit in Betracht zu ziehen, dass die Trennwand von Wasser passiert wird.“

Vielleicht wird auch nichts ins Meer strömen, TEPCO baut an einer wirkungsvolleren Sperre. Und wenn doch? Dann muss man sehen, wie viel es ist, und ob sich in Meerestieren und Pflanzen wirklich bedenkliche Konzentrationen an Radioaktivität finden. 

Hannover, den 12.08.2013

Dr. Hermann Hinsch

Betr.: „Strontium geht in die Knochen“ in DIE WELT vom 9.8.2013 auf Seite 7

Sehr geehrte Damen und Herren,

zu dem Bericht schlage ich vor, einiges aus folgenden Leserbrief zu drucken: 

Es scheinen immer neue schreckliche Dinge ans Licht zu kommen, da sind Vergleiche sinnvoll. Ein kg reiner Kalidünger enthält 15 000 Becquerel. Und in der deutschen Landwirtschaft wird Kalidünger auf den Feldern verteilt (die Felder werden radioaktiv kontaminiert!!!), insgesamt sind das im Jahr in Deutschland ca. 3 mal 10 hoch 12 Becquerel, ausgeschrieben 3000000000000 Becquerel. Diese gesamte Radioaktivität gelangt in die Pflanzen und wird von uns verspeist. Wir werden verstrahlt, sagt man dazu.

Pilze können in Bayern erhöhte Konzentrationen von Cäsium-137 enthalten. Der Verzehr von 100g Pilzen mit 4000Bq/kg (Cs-137) ergibt eine Dosis von 0,006 mSv, das kann man mit Hilfe der Dosiskoeffizienten ausrechnen. 0,006 mSv ist auch die Dosis, die man bei einer Stunde Flug in unseren Breiten auf Reiseflughöhe erhält. Die Radioaktivität in Lebensmitteln wird überwacht, aber jedermann darf beliebig in Flugzeuge einsteigen und um die Welt reisen, dafür gelten die Gesetze nicht.

Der Grenzwert für jährliche Aktivitätszufuhr durch Nahrung bei überwachten Personen ist nach der Strahlenschutzverordnung (1989) bei Cs-137 angegeben als 4 mal 10 hoch 6Bq, das entspricht einer Dosis von 60mSv.

Meerwasser enthält Radioaktivität, es sind in einem Liter Meerwasser 12 Becquerel Kalium-40 und 0,075 Becquerel Uran enthalten. Die Hochrechnung auf den Stillen Ozean ergibt für den gesamten Inhalt des Ozeans 1 mal 10 hoch 22 Becquerel Kalium-40 und 3 mal 10 hoch 19 Becquerel Uran. Wenn alles in Fukushima freigesetzte Strontium-90 (das sind 3 mal 10 hoch 12 Bq) in den Ozean gelangen würde und dort gleichmäßig verteilt werden würde, erhöht sich die Radioaktivität des Ozeans um den Faktor 0,000000003. Wenn alles in Fukushima freigesetzte Cäsium (das sind 3 mal 10 hoch 16 Bq) in den Ozean gelangen würde und dort gleichmäßig verteilt werden würde, erhöht sich die Radioaktivität des Ozeans um den Faktor 0,00003.

In den evakuierten Bereichen in Japan hätte die Dosis für die Bewohner 20mSv im Jahr erreicht, das ist verboten. Bei einer CT-Untersuchung erhält der Patient in 20 Minuten in etwa solch eine Dosis, das darf sein.

Es ist ganz sicher, daß in Fukushima überall sehr vielmehr Cäsium sich befindet als Strontium, denn nur Gase können in die Luft entweichen. Cäsium hat den Siedepunkt von 690°C, Strontium hingegen 1380°C. 

Die seit altersher bekannte Tatsache der Heilung mit Strahlung in Radonheilbädern wird jährlich allein in der EU an 80 000 Patienten praktiziert. Es gibt auch in Deutschland acht Radonheilbäder. Dabei werden bei jeder Kur je Patient ca. eine Million Becquerel in den Körper aufgenommen, die erhaltene Dosis bewegt sich im Bereich einiger mSv.

Meine Frau mit 55kg stellt eine Strahlenquelle von 6000Bq dar, damit bestrahlt sie sich selber und alles in ihrer Umgebung. Unser Minister Peter Altmaier (140kg?) ist eine Strahlenquelle von ca. 16000 Bq, das ist das zweieinhalb Fache. Ich bin fest davon überzeugt, daß weder meine Frau noch Herr Minister Altmaier eine Gefahr darstellen.

Mit Gruß

Dr. Lutz Niemann




Mein persönlicher Weg zum Skeptizismus hinsichtlich katastrophaler AGW

[*Das habe ich meinem Freund, dem Meteorologen Hans-Dieter Schmidt gezeigt, der mir das mal aus seiner Sicht erzählt hat. Er wird am Schluss das eindeutige Ereignis nennen, das ihn zur Umkehr gebracht hat. A. d. Übers.]

Bild rechts: Trey Ratcliff via Flickr

Meine eigene Geschichte beginnt an einer Schule in England Anfang der achtziger Jahre. Ich erinnere mich, dass man mir zwischen Bunsenbrennern und Eisenfeilspänen erzählt hat, dass wir den Vorhersagen einiger Wissenschaftler zufolge demnächst in eine neue Eiszeit eintreten werden. Das klang ziemlich aufregend, aber ich habe nie wirklich daran geglaubt, dass es so kommen würde. Ich war damals zu jung, um schon irgendwelche signifikanten Änderungen in der Welt um mich herum zu bemerken, und es schien alles ziemlich weit hergeholt. Ein Atomkrieg erschien viel wahrscheinlicher. Schon bald schmolz die gesamte Befürchtung dahin.

Ich wurde zu einem graduierten Ingenieur mit Interesse an den meisten Bereichen der Wissenschaft, am meisten aber im Bereich Physik. Ich habe die üblichen Bücher gelesen, von Sagan, Feynman und später Dawkins (dessen Buch The Ancestor’s Tale ich nur wärmstens als Lektüre empfehlen kann). Ich habe auch den Bereich Philosophie gestreift via Bertrand Russell. Ich mag den Gedanken, dass diese Lektüre mir geholfen hat, grundlegende Fähigkeiten kritischen Denkens zu entwickeln.

Ich glaube, es war Anfang der neunziger Jahre, als ich zum ersten Mal Vorhersagen bzgl. globaler Erwärmung gehört habe mitsamt den dringenden Warnungen vor den damit verbundenen Kalamitäten. Einige davon kamen aus dem Met Office, und von daher wusste ich, dass man das mit einer gewissen Vorsicht betrachten sollte. Aber auch aus anderen Quellen kam etwas in dieser Richtung, u. a. auch von der NASA, vor der ich persönlich damals große Achtung hatte. Obwohl sie mit dem Space Shuttle das falsche Experiment fehlerhaft durchgeführt hatten, schien die grundlegende wissenschaftliche Expertise nicht in Frage gestellt. Ganz allgemein freute ich mich auf das in UK vorhergesagte wärmere Klima und nahm an, dass die Auswirkungen alles in allem über den Globus verteilt nicht nur schlecht seien.

Nun kenne ich als Engländer alle Unwägbarkeiten des Wetters, aber die Warnungen vor CAGW schienen mir immer sehr sicher zu sein. War es wirklich möglich, das Klima mit solcher Sicherheit vorherzusagen? Das globale Klima musste ein extrem komplexes System sein und sehr chaotisch. Kürzlich habe ich von Finanzquellen gehört, die riesige Geldsummen ausgegeben und die besten Mathematiker und Programmierer angeheuert haben, ohne jedoch halbwegs sicher die Bewegungen an den Finanzmärkten vorhersagen zu können. Vorhersagen hinsichtlich des Klimas müssen doch genauso schwierig sein, oder? Ich wette, dass man die Klimawissenschaftler nicht mit der gleichen Sorgfalt ausgesucht hatte wie die Wirtschaftsexperten von Wall Street. Ich dachte auch zurück an die Angst vor der Eiszeit, die nicht mit absoluter Sicherheit präsentiert worden ist. Warum jetzt diese eindeutige Gewissheit, dass wir eine Erwärmung erleben werden bis hin zu gefährlichen Niveaus? Es begann alles so unplausibel zu klingen.

Das Ganze schien auch schon hinsichtlich des einfachen gesunden Menschenverstandes unsicher zu sein. Konnte die Menschheit wirklich eine solche fundamentale Veränderung unserer Umwelt verursachen, noch dazu so schnell? Ich habe verstanden, dass Eiszeiten sehr schnell kommen und gehen können, und dass nach meiner Kindheit niemand mehr ernsthaft behauptet hat, eine solche vorhersagen zu können. CAGW war nachweislich von der Größenordnung her geringer. Es schien offensichtlich, falls die natürliche Variabilität plötzlich in eine Periode der Abkühlung wechseln würde, gäbe es keine CAGW, egal welche Einwirkungen die Menschheit auf die Atmosphäre ausübt. Noch grundsätzlicher, wie kann irgendjemand wirklich sicher sein, dass die stattfindende Erwärmung nicht ohnehin der natürlichen Variabilität geschuldet ist? Ich habe mich noch einmal vergewissert, dass das den Berichten zufolge nicht der Fall war. Aber ich wusste nicht genug Details, um zu entscheiden, ob ich den Daten zustimmen konnte oder nicht.

Das Andere, was mich wirklich zum Nachdenken gebracht hatte, war die Art Menschen, die im Fernsehen auftraten und sich über die bevorstehende Tragödie ausgelassen haben und dass es sehr bald zu spät sein würde, wenn nicht sofort Maßnahmen ergriffen werden würden. Ob von Wohltätigkeitsorganisationen, Aktivistengruppen oder den UN, ich wusste, dass ich deren schrille und politisch gefärbte Sprache gehört hatte und von deren Überzeugung, Teil des Großen Kreuzzugs zu sein, um die Welt zu retten. Dies waren die CND-Campaigners [CND = Campaign for Nuclear Disarment], klassische Kriegsagitatoren und nützliche Idioten des Kommunismus in neuem Gewand. Plötzlich wurde mir klar, dass sie nach dem Ende des Kalten Krieges einen neuen Grund gefunden haben, anstatt sich etwas Nützlichem zuzuwenden. Sie schlugen Maßnahmen vor, die im Grunde immer sozialistischer Natur waren, verlangten sie doch nach der Installation über-nationaler Einrichtungen, versuchten alles im Wege der Anordnung durchzusetzen und gaben in gewaltigen Mengen das Geld anderer Leute aus. Sie waren eindeutig eifrige Teilnehmer an einer endlosen bürokratischen Gaudi.

Man verstehe mich jetzt nicht falsch: eine wissenschaftliche Theorie ist zutreffend oder nicht ohne Rücksicht darauf, wer die Theorie stützt. Aber als ich die lautesten Befürworter von CAGW gehört hatte und für was sie die Alarmglocken geschwungen haben, wollte ich das Ganze selbst näher untersuchen. Irgendwie hegte ich immer Sympathien für Friends of the Earth, aber nicht so sehr für Greenpeace, zu jener Zeit offensichtlich an vorderster Front eines technikfeindlichen Sozialismus’ und im Grunde schamanistisch in ihren Aussichten. Ich machte mir große persönliche Sorgen um die Umwelt, hatte ich doch Berichte über gefährliche industrielle Verschmutzungen in Entwicklungsländern und dem ehemaligen Ostblock gelesen. Ich habe auch zweimal den Atlantik in einer kleinen Yacht überquert und selbst treibende Plastikabfälle hunderte Meilen von Land entfernt gesehen. (ich habe auch eine ‚Öko-Krieger’-Yacht in Antigua gesehen, mit kreuzfahrenden Hippies und zahlreichen Umweltslogans darauf. Es war schlecht gewartet und hinterließ viel mehr Öl im Wasser als jedes andere Boot dort).

Ich war also bzgl. der Umwelt ziemlich leidenschaftlich, aber im Brennpunkt stand, sie sauber zu halten und alles Leben darin zu sichern. Ich wollte die Menschen von der Überfischung abbringen und dazu bringen, Fischvorräte sorgsam zu behandeln; ich wollte, dass die Landwirtschaft bestmögliche Aussichten hatte, um ausreichend Nahrungsmittel zu erzeugen, ohne die Wildnis oder Wild-Spezies zu gefährden. Ich wollte, dass die Menschen überall saubere Luft zum Atmen und sauberes Wasser zum Trinken haben. Ich hatte gehofft, dass der CAGW-Kreuzzug ebenfalls irgendwie zu besseren Fortschritten hinsichtlich des Kampfes gegen Verschmutzung und anderer Umweltprobleme führen würde. Wenn überhaupt, bewirkte er das Gegenteil. Warum diese absolute Festlegung auf Reduzierung der CO2-Emissionen, warum nahm man als sicher an, dass dieser Weg der einzig Mögliche war? Wo war die öffentliche Debatte über das Gleichgewicht zwischen Prävention und Anpassung? Die CAGW-Protagonisten kamen ausschließlich mit Lösungen daher, die anti-industriell, anti-fortschrittlich waren und immer, immer neue öffentliche Gelder verlangten. Wo war die Ermutigung für Erfinder und Unternehmer, neue Technologien zu finden und zu entwickeln? Und was am schwersten wiegt, warum nur, warum gibt man nicht einen Teil der riesigen Geldsummen dafür aus, eine effektive Verschmutzungs-Kontrolle in Entwicklungsländern zu finanzieren?

Mir ist inzwischen nur zu klar geworden, dass die BBC und ähnliche Medien niemals auch nur ansatzweise diskutieren würden, ob die der CAGW zugrunde liegende Wissenschaft wirklich robust war. Sie wurde einfach zu einer Binsenweisheit. Einer gelegentlich sich erhebenden zweifelnden Stimme würde zwar ein wenig Zeit eingeräumt sich im Interesse der Unparteilichkeit zu äußern, aber einem CAGW-Befürworter würde immer das letzte (und viel längere) Wort zugestanden. Aber, wenn die NASA ihre Kursberechnungen der Voyager-Sonde am Rande des Sonnensystems immer neu berechnen muss (ein durch und durch triviales Problem im Vergleich zur Komplexität des Klimas), wie kann dann die Wissenschaft wie behauptet ‚settled’ sein? Besteht denn die größte Freude der Wissenschaft darin, Ignoranz zuzulassen, indem man eine honorierte Theorie übernimmt und man diese immer weiter verschärft? Die behauptete Gewissheit selbst scheint unwissenschaftlich.

Dann habe ich im Jahr 2007 im Fernsehen einen Trailer gesehen zur kommenden Dokumentation ‚The Great Global Warming Swindle’. Ich habe sehr genau hingehört, denn zum ersten Mal sprachen hier Leute die Wissenschaft und die Daten an, zogen daraus jedoch andere Schlüsse als der Mainstream. Da gab es keine der sonst üblichen Appelle, den Experten zu vertrauen, die wie von Zauberhand die einzigen Wissenschaftler in der Historie waren, die frei von Zweifeln waren. Die Angriffe gegen das Programm waren eine Geschichte für sich.

Nachdem ich seit einiger Zeit zum Internet-User geworden bin, habe ich nach weiteren Informationen gesucht und fand schon bald die exzellente Website von www.climate-skeptic.com. Hier gab es Links zu Daten, die ich nun selbst evaluieren konnte; hier gab es eine kritische Vielfalt von Berichten und Studien, die überall ohne Einwände akzeptiert waren. Von dort kam ich zu WUWT, Bishop Hill, Climate Audit und anderen. Diese alle schaue ich mir an, wann immer ich Zugang zum Internet habe. Wenn auch ziemlich spät, so war ich doch nun in der Lage, in vollem Umfang beide Seiten des Streites kennenzulernen.

Als die Klimagate-E-Mails bekannt geworden waren, fielen mir einige weitere Schuppen von den Augen. Bislang hatte ich angenommen, dass die CAGW unterstützenden prominenten Wissenschaftler in der Regel beste Absichten hatten, aber falsch lagen, ähnlich denen, die seinerzeit der Kontinentalverschiebungs-Theorie ablehnend gegenüber standen. Ich habe an vielen längeren E-Mail-Verkehren teilgenommen und habe augenblicklich vertraute Methoden entdeckt, die von jenen angewendet werden, die das politische und bürokratische Spiel spielen und für die die Daten unendlich dehnbar sind, um ein vorbestimmtes Ziel zu erreichen. Gegen diese Art der Faktenverzerrungen habe ich selbst schon gekämpft.

Ich bin sicher, dass einige (vielleicht viele?) Leser an diesem Punkt denken: ‚Toll, eine Insider-Ansicht darüber, wie jemand Gläubiger einer Verschwörungstheorie wird, vielleicht sollte ich diesen Idioten zur Grundlage einer Forschungsarbeit machen’. Meine Antwort darauf lautet, dass ich wie die meisten Menschen über wirkliche, im Internet kursierende Verschwörungstheorien gestolpert bin. Aber bei WUWT und anderen CAGW-skeptischen Sites wird Kritik am Website-Betreiber nicht nur toleriert, sondern man wird ausdrücklich dazu ermuntert. ‚Zeigen Sie, dass wir unrecht haben! Das wäre faszinierend!“ Es gibt bei WUWT viele Artikel und Ansichten, die ich mit Argwohn betrachte oder mit denen ich einfach nicht übereinstimme, aber alles ist gut belegt. Außerdem bin ich ein erfahrener professioneller Ingenieur und weiß, wie echte Wissenschaft aussieht und wenn jemand die Wissenschaft als Vorwand missbraucht. Neil Armstrong war ein großartiger Mann, und höchstwahrscheinlich ist er auf dem Mond gelandet. Richtig oder falsch, WUWT ist eine Site, auf der wirkliche wissenschaftliche Dinge besprochen werden.

So finde ich mich jetzt mit der Frage zurück gelassen, wohin die Reise von diesem Punkt aus geht. Das globale Klima wird sich weiterhin ändern, wie es das schon immer getan hat, und obwohl ich dazu tendiere, eine gewisse Abkühlung zu erwarten bin ich darüber ziemlich agnostisch. Die Natur wird mit Sicherheit machen, was sie will. Die CAGW-Panik ist dabei, sich tot zu laufen, aber ich erwarte nicht, dass sie demnächst vollständig kollabiert. Ich hoffe, diejenigen bestraft zu sehen, die Daten vorsätzlich manipuliert haben, aber ich bezweifle sehr, dass es je dazu kommen wird. Was auch immer als Nächstes passiert – es wird auf jeden Fall interessant, viel Diskussionsstoff und eine Vielfalt von Standpunkten liefern. Das ist eine gute Nachricht, weil es heißt, dass wir zum Betreiben von Wissenschaft zurückkehren.

Link: http://wattsupwiththat.com/2013/07/25/my-personal-path-to-catastrophic-agw-skepticism/

Übersetzt von Chris Frey EIKE

Zusatz von Dipl.-Met. Hans-Dieter Schmidt:

Als mir mein Freund Chris diesen Artikel gezeigt hatte, war ich regelrecht elektrisiert. Denn auch ich war einst Gläubiger von CAGW, doch gab es ein ganz bestimmtes Ereignis, dass mich augenblicklich zum Skeptiker hat werden lassen, und zwar den Orkan „Kyrill“ im Januar 2007.

Damals wurde landauf, landab verkündet, dass es in einer wärmeren Atmosphäre solche Stürme häufiger und stärker geben würde. Das habe ich damals nicht verstanden, denn im Sommer ist die Atmosphäre IMMER wärmer als im Winter, und es gibt fast NIE solche Stürme (lokal begrenzte Gewitterstürme sind etwas ganz anderes). Immer noch arglos habe ich gefragt, wie dieser Widerspruch zu erklären ist; den DWD, aber auch Fachkollegen. Die erste Antwort kam von Prof. Dr. Horst Malberg an der FU Berlin, der mir erklärte, was für ein Schwindel diese ganze AGW-Geschichte ist.

Nach Monaten kam auch vom DWD eine Antwort. Der erste Satz lautete (und ich werde ihn nie vergessen!): Man habe sich „lange überlegt, ob man diese von offensichtlich fehlender Fachkenntnis geprägten Fragen überhaupt beantworten solle“. Der Brief ging noch weiter, aber ich habe ihn bis heute nicht weiter gelesen.

DWD – Das War’s Dann mit meiner Gläubigkeit!

Hans-Dieter Schmidt




Vom Veggie-Day zur Woche der Zwangsbeglückung-Die Grünen in Diktatoren-Tradition

Der vordergründig zum Demokraten mutierte ehemalige Kommunist Jürgen Trittin hat offensichtlich nach wie vor keine Probleme damit, über Zwangsmaβnahmen für die Bevölkerung nachzudenken. Weiβ in dieser Partei eigentlich niemand, dass der Vorschlag eines zwangsläufigen Veggie-Days in der deutschen Geschichte nichts wirklich Neues ist? Auch diejenigen, die in Deutschland ab 1933 lauthals einen Eintopf-Sonntag propagierten, hatten keine Probleme damit, anderen Menschen ihre Vorstellungen mit Zwang nahezubringen. Zur Gedächtnisauffrischung deshalb hier der Bericht „Der Eintopfsonntag“ aus der erinnerungswerkstatt-norderstedt.de:

„Nach der Machtübernahme, am 30. Januar 1933, wurden viele Veränderungen für die „Deutschen Volksgenossen“ eingeführt. So auch der „Eintopfsonntag“. Es wurde befohlen, einen Sonntag im Monat, statt eines Bratens, ein Eintopfgericht auf den Tisch zu bringen. Die Differenz zwischen Braten und Eintopf sollte dem Winterhilfswerk gespendet werden. Am Eintopfsonntag machte der Blockwart in SA Uniform seine Runde. Mit Sammelbüchse und Namensliste kam er an jede Wohnungstür. Kein Mensch hätte gewagt, die Tür nicht zu öffnen.“

Doch nicht nur die Nazis neigten dazu, anderen Menschen ihre Vorstellungen von Tugend und Verzicht mit Gewalt einzubläuen. Auch die roten Diktatoren hatten da so ihre Methoden, zum Beispiel wenn es darum ging, dem ob allzu vieler lähmender Eingriffe humpelnden Bruttosozialprodukt auf die Sprünge zu helfen. Die verordneten zusätzlichen Arbeitseinsätze nannten sich damals Subbotnik, und die Partei besang dies mit Lobliedern wie: „Wir Kommunisten stapeln den Stoβ Holz am Subbotnik dem fleissigen…“ Obwohl angeblich freiwillig, wurde die Teilnahme von den Machthabern sehr gut beobachtet und registriert – und das wiederum hatte Einfluss auf behördliches Wohlwollen zum Beispiel bei der Zuteilung von Vergünstigungen wie einer gröβeren Wohnung.

Da es in der Natur von ideologischen Bewegungen liegt, sich mit einem einmaligen Erfolg bei der Bevormundung nicht zufrieden zu geben, dürften sich die Grünen spätestens nach der erhofften Machtübernahme im Herbst Gedanken machen, welche zusätzlichen Maβnahmen zur Hebung des Volkswohls und zur Besserung der Menschheit man noch ergreifen könnte. Hier deswegen eine Sammlung von Vorschlägen, mit deren Hilfe man aus einem isolierten Veggie-Day schnell und problemlos eine komplette Woche der Zwangsbeglückung des Volkes machen könnte. Den Veggie-Day sollte man dabei auf den Freitag legen, das passt bestens zu den kirchlichen Traditionen der Grünen Spitzenpolitikerin Katrin Göring-Eckardt, zugleich Präses der Synode der Evangelischen Kirche in Deutschland. 

Montag: Der Montag wird zum Wassertag deklariert. Damit soll an die ebenso mutige wie unkonventionelle Aktion führender Politiker der Grünen im Juli 2013 erinnert werden, als diese sich ungeachtet höchster Gefahren in die reiβenden Fluten der Werra stürzten, um gegen die gewissenlose Salzeinleitung durch profitgierige Bergwerksunternehmen zu protestieren. Deutschlandweit sollten an Montagen deshalb künftig Menschen bei jedem Wind und Wetter in Flüsse und Seen springen, um sich höchstpersönlich davon zu überzeugen, dass die Wasserqualität auch wirklich höchsten Anforderungen an die Erhaltung der Volksgesundheit genügt.

Dienstag: Dienstag wird zum Tank-statt-Teller Tag bzw. zum Tag der Bioenergie. Diesen könnte man in stillem Gedenken an die Hungernden dieser Welt verbringen, die auch deshalb nicht genug zu essen haben, weil riesige Agrarflächen für grüne Blütenträume wie Bioethanol, Biogas oder Biodiesel benötigt werden. Mit Hilfe derartiger ideologisch motivierter Absurditäten, deren Vaterschaft seitens der Grünen inzwischen teilweise nicht mehr so recht anerkannt zu werden scheint, verschaffen sich die Reichen dieser Welt ein gutes Gewissen, während die Armen die Zeche zahlen. Den früheren Welthungertag wird man dafür vermutlich ersatzlos streichen.

Mittwoch: Mittwoch ist dann der Tag des Abschieds vom Naturschutz. Dann gedenken wir der ungezählten Vögel und Fledermäuse, die Jahr für Jahr von den Propellern der Windräder erschlagen werden, die man mit dem Segen der Grünen in Naturschutzzonen und auf Vogelflugrouten errichtet. Zum Erinnerung daran wird in Zukunft jeden Mittwoch Flugtier-Haschee gereicht. 

Donnerstag: Den Donnerstag erklären wir ab sofort zum Blackout-Day. Um die Bevölkerung an die Kultur des Verzichts zu gewöhnen, bleiben alle konventionellen Kraftwerke abgeschaltet. Strom steht dann nur von Sonnenaufgang bis zum Sonnenuntergang zur Verfügung, es sei denn, die Windräder produzieren aus irgendwelchen Gründen nachts tatsächlich genügend Strom, um im Fernseher noch die Regierungspropaganda anschauen zu können.

Freitag: Der Freitag wird – wie bereits weiter oben dargelegt – zum Veggie-Day ausgerufen.

Samstag: Am Samstag werden die Bürger im Rahmen eines Subbotniks künftig jeweils eine freiwillige Arbeitsschicht ableisten, um das Bruttosozialprodukt zu steigern und zugleich ihre unverbrüchliche Verbundenheit mit vergangenen Helden der sozialistischen Arbeit wie Alexei Grigorjewitsch Stachanow (UdSSR) oder Adolf Henneke (DDR) zum Ausdruck zu bringen.

Sonntag: Den Sonntag sollte man zum Eiskugel-Tag erklären, zur Erinnerung daran, dass der damalige Bundesumweltminister Jürgen Trittin im Jahre 2004 erklärte, das Erneuerbare-Energien-Gesetz werde die deutschen Haushalte nie mehr als den Gegenwert einer Kugel Eis im Monat kosten. Da deutsche 4-Personen-Haushalte durch das EEG inzwischen monatliche Mehrbelastungen von rund 75 €/ Monat haben, darf an Sonntagen ab sofort jede Eiskugel nur für 75,- € verkauft werden. Egal was die Kinder sagen, basta.  

Fred F. Mueller




Das Problem der Klimaforschung

Ein Berner Team um Professor Thomas Stocker veröffentlichte letzte Woche auf dem Onlineportal der führenden Zeitschrift Nature eine Studie, die noch weit strengere Ziele für die Klimapolitik fordert: Der gesamte CO2-Ausstoss dürfe 250 Milliarden Tonnen nicht übersteigen. Warum?

Die Klimaforscher haben ein Problem. Ab September legen sie den 5. IPCC-Bericht über Ursachen und Wirkungen des Klimawandels vor, die wissenschaftlichen Grundlagen sichtet ein globales Team unter Führung von ­Thomas Stocker und mit Sitz in Bern. Diese ­Arbeit stösst auf immer lautere Kritik – um die Erkenntnisse des IPCC foutiert (schweizerisch, sich um nichts kümmern) sich die Politik und neuerdings auch die Natur.

Die Klimapolitik ist gescheitert. Seit der Konferenz von 2009 im eisigen Kopenhagen machen die Schwellenländer klar, dass sie ihr Wirtschaftswachstum nicht einschränken lassen. China erzeugt mit jährlich 9 Milliarden Tonnen ein Viertel des gesamten CO2-Ausstosses von 34 Milliarden Tonnen, es würde ­also das Kontingent der Berner Forscher in ­einem Vierteljahrhundert allein aufbrauchen. Die USA mit 6 Milliarden Tonnen liessen sich nie in das Kioto-Protokoll einbinden, jetzt machen auch Japan und Kanada nicht mehr mit. In Australien stürzte Regierungschefin Julia Gillard wegen ihrer strengen Klimapolitik, und in Grossbritannien denkt Premier David Cameron um, nachdem in Nordengland das weltweit grösste Gasvorkommen entdeckt worden ist.

Zu einer Beschränkung ihres CO2-Ausstosses verpflichten sich gegenwärtig noch Länder, die zusammen dreizehn Prozent des gesamten menschengemachten CO2 erzeugen. Dazu gehört auch die Schweiz mit 51 ­Mil­lionen Tonnen, was einem Achtel des grössten chinesischen Unternehmens oder dem ­weltweiten Ausstoss eines halben Tages ­entspricht. Wie das Bundesamt für Umwelt letzte Woche mitteilte, erreichten die Schweizer 2012 das Reduktionsziel nicht, deshalb müssen sie ab 2014 höhere Abgaben auf ­Brennstoffe bezahlen.

Und die Klimaforschung hat versagt. Seit siebzehn Jahren steigen die Temperaturen nicht mehr, und das Klima könnte sich in den kommenden Jahren sogar abkühlen. Die ­tatsächlich gemessenen Temperaturen liegen denn auch unter all jenen, die das IPCC mit ­seinen komplexen Modellen voraussagte.

Seit Jahren zweifeln die Chinesen und die Inder an der westlichen Wissenschaft, jetzt fordern ­ausgerechnet die Niederlande, die gemäss den Szenarien der Klimaforscher im Meer versänken, das IPCC dürfe sich beim Klimawandel nicht auf den menschlichen Einfluss beschränken, sondern müsse auch natürliche Ursachen untersuchen.

Die Klimamodelle scheiterten so spektakulär, dass sie in jeder anderen Wissenschaft als widerlegt gälten. Deshalb bauten die Berner ein noch komplexeres Modell des gesamten Erdsystems. Und die Drohung mit der Klimaerwärmung macht den Menschen derzeit ­wenig Eindruck. Deshalb warnen die Berner vor der Versauerung der Meere, also dem ­Absterben der Korallen – die in 500 Millionen Jahren schon in weit saurerem Wasser überlebten. Hauptsache, die Forscher um Thomas ­Stocker können, wie sie der Berner Zeitung sagten, «den Status in der Champions League des klimawissenschaftlichen Business festigen».

Der Beitrag erschien unter dem Titel „Schärferer Ton, strengere Ziele“ in der 18. Ausgabe der Schweizer WELTWOCHE am 14.Juli 2013. EIKE dankt der WELTWOCHE für die Erlaubnis, den Artikel ungekürzt wiedergeben zu dürfen.




Nur Fracking kann in Groß Britannien die Energielücke schließen

Der Energie-Regulierer OFGEM hat gewarnt, dass die Erzeugungskapazität von 14% zusätzlicher Energie bis zum Jahr 2015 auf hauchdünne 2% sinken wird, wenn wir damit fortfahren, unsere Kohlekraftwerke zu schließen, um die CO2-Emissionsziele der EU zu erfüllen. Mit diesen 2% würde UK auf Messer’s Schneide stehen. Jede Zunahme des Energieverbrauchs während einer starken Kältewelle würde das Land in Blackouts stürzen.

Der Grund für diese katastrophale Energieknappheit ist unschwer zu erkennen: Keine neuen Kernkraftwerke werden gebaut infolge der hohen Kosten der Kernkraft sowie hysterischer Opposition von Grünen und ihren Jüngern, die glauben, dass der nächste Tsunami à la Fukushima UK treffen wird.

Stattdessen wird unser Land mit gigantischen Stahl- und Beton-Windturbinen verschandelt. Bereits 5000 davon wurden im ganzen UK errichtet zu Kosten von 7 Milliarden Pfund, also genauso teuer wie ein neues Kernkraftwerk modernster Bauart – wobei der einzige Unterschied darin besteht, dass Wind unzuverlässig und unterbrochen 15 bis 20 Jahre lang kleine Mengen Energie erzeugt, während ein Kernkraftwerk neuer Bauart zu 90% effizient arbeiten wird und zuverlässig Tag für Tag 80 bis 90 Jahre lang Energie erzeugt..

Wenn wir daran gehen wollen, die heraufdämmernde Energiekrise zu bekämpfen, müssen wir daran gehen, unsere massiven Vorräte von Schiefergas auszubeuten. Das würde uns auch helfen, unsere Abhängigkeit von teurem Importgas zu reduzieren. Mit den geschätzten 200 Trillionen Kubikfuß Schiefergas, die allein in Lancashire gefunden worden waren und die ausreichen, UK 65 Jahre lang mit Energie zu versorgen, können wir auf den größten Energiefund seit Entdeckung des Nordseeöls in den sechziger Jahren schauen. Aber es ist typisch für die hitzige Natur der Debatte um die Klimaänderung in UK, dass dieser gewaltige Fund entweder komplett ignoriert oder nachhaltig als antigrün verunglimpft worden ist.

Schiefergas emittiert nur etwa halb so viel CO2 wie die Verbrennung von Kohle. Daher ist es den USA auch gelungen, ihre CO2-Emissionen während der letzten 5 Jahre um 450 Tonnen zu reduzieren. Die Pro-Kopf-Kohlenstoffemissionen liegen jetzt unter dem Niveau von 1963, und die Gaspreise, inzwischen fast auf Ramsch-Niveau, beflügeln die US-Wirtschaft, schaffen Arbeitsplätze und lassen Wohlstand wachsen. Hierzulande, wo riesige Subventionen für Windturbinen direkt an den Verbraucher weitergereicht werden, sind die Strom- und Gasrechnungen inzwischen um mehr als 1450 Pfund pro Jahr gestiegen, was fast eine Million schottischer Haushalte in die Energiearmut getrieben hat. Geschäftsleben und Industrie taumeln unter rasant steigenden Energiepreisen, die Arbeitsplätze vernichten.

In UK wurden mittlerweile viele Gebiete gefunden, die über große potentielle Schiefergas-Reserven verfügen. Kürzlich begann eine Erkundungsbohrung an einer Stelle in West Sussex, und schon hat sich ein großes Lager mit Protestierern in der Nähe gebildet, das viel mehr Ungemach verursacht als die Bohranlage. Interesse wurde auch an Schieferfeldern nahe Falkirk bekundet. Der British Geological Service weist darauf hin, dass die Offshore-Reserven von Schiefergas in UK fünf bis 10 mal so reichhaltig sind wie an Land, vielleicht über tausend Billionen Kubikfuß. Dies würde UK in die Top 20 der Länder mit Schiefergasvorkommen weltweit katapultieren.

Zum hydraulischen Brechen, oder Fracking, muss man Zehntausende Liter Wasser, gemischt mit Salz, Seife und Zitronensäure, unter hohem Druck in tiefe Bohrlöcher pressen. Diese Mixtur lässt die Felsen aufbrechen, und das darin gefangene Gas kann entweichen. Es ist dieser Prozess, der die Hysterie unter den Grünen ausgelöst hat, die sich dem Beenden der Schiefergas-Extraktion bereits vor deren Beginn verschrieben haben. Ihr ‚Fracking-Nein!-Waggon’ rollt jetzt durch unsere Landschaft. Es ist unglaublich, aber sie argumentieren, dass Schiefergas-Bohrtürme unsere Landschaft zerstören, während sie im gleichen Atemzug die Konstruktion tausender riesiger Windturbinen, Betonsockel, Überlandleitungen, Zugangswege und Steinbrüche in einigen unserer schönsten und unberührtesten Landschaften befürworten.

Die Umweltorganisation WWF Schottland sagte, dass sie sich Sorgen mache um die Kontamination von Wasser durch die Fracking-Flüssigkeiten und über Gas, das in die Wasservorräte entweicht mit dem Risiko von Explosionen. Aber Bohrlöcher für Schiefergas werden allgemein bis in eine Tiefe von 2000 Metern oder mehr getrieben, Tausende Meter unter dem Grundwasser. Das Risiko der Wasser-Kontamination ist vernachlässigbar.

Genauso haben die Gegner von Schiefergas auf Berichte in den Nachrichten verwiesen, denen zufolge Methan in der Wasserversorgung enthalten war, so dass in einigen Fällen in Amerika die Menschen in der Lage waren, das Wasser aus Wasserhähnen in ihren Badezimmern anzuzünden. Allerdings wurde dieses Phänomen zum ersten Mal schon im Jahr 1932 beobachtet, Jahrzehnte bevor man an Schiefergas gedacht hatte. Es ist ein natürliches Ereignis in bestimmten Gebieten der USA, wo Methan den  Fels durchdrungen und das Grundwasser erreicht hat. Das hat nichts, aber auch gar nichts mit Fracking zu tun.

Kritiker behaupten auch, dass Fracking Erdbeben ausgelöst hat, und zwar bei einer Erkundungsbohrung nahe Blackpool im Jahr 2011. Aber Schiefergas-Produzenten in Amerika wie Royal Dutch Shell behaupten zu wissen, wie sie diese Risiken kontrollieren können. Sie sagen, solange das Bohrgestänge sorgfältig mit Stahl und Beton ummantelt ist, ist das Risiko vernachlässigbar.

Link: http://www.thegwpf.org/struan-stevenson-fracking-plug-britains-power-gap/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Ähnlichkeiten mit den Verhältnissen bei uns in D sind natürlich rein zufällig! Nur dass man in UK diesbezüglich wohl schon etwas weiter ist.

C. F.




Hinsichtlich der anthropogen induzierten Klimaänderung besteht kein Handlungsbedarf

Unser Einfluss auf das Klima ist gering, aber vorteilhaft.

Menschliche Aktivitäten verändern das Erdklima, aber – wie die AGU jetzt zugeben muss – nicht sehr stark. Die atmosphärische CO2-Konzentration hat von 0,03% vor der industriellen Revolution auf jetzt 0,04% zugenommen. Vieles dieser Zunahme um 1 Teilchen von 10000 der atmosphärischen Zusammensetzung könnte aus der Verbrennung fossiler Treibstoffe stammen.

Während der letzten 140 Jahre hat sich die Welt um 0,8°C erwärmt, aber eine vor Kurzem erstellte Übersicht von 11944 wissenschaftlichen Studien zur Klimaänderung zeigte nur 43 Abstracts oder 0,3% der Fälle, die die Behauptung untermauern, dass die Menschen für den größten Teil dieser Erwärmung verantwortlich waren. Die mittlere Verweilzeit eines CO2-Moleküls in der Atmosphäre beträgt 7 Jahre. Die AGU muss daher einräumen, dass deren frühere Befürchtungen, dass nämlich anthropogene Emissionen das Klimasystem noch Jahrzausende lang beeinflussen werden, unbegründet waren.

Beobachtungen zeigen, dass jüngste moderate Erwärmungen der Luft- und Wassertemperatur sowie moderate Anstiege des Meeresspiegels eindeutig innerhalb der natürlichen Variabilität lagen. Atmosphärischer Wasserdampf kann zugenommen haben oder auch nicht: wir haben keine Möglichkeit, diesen exakt zu messen. Einige (aber nicht alle) Berggletscher sind geschrumpft, und frühere Behauptungen, dass sämtliches Eis im Himalaya in 25 Jahren verschwunden sein würde, wurden zurück gezogen. Die meisten Gletscher der Welt befinden sich in der Antarktis, in der sich während der letzten 30 Jahre fast alle Gebiete abgekühlt haben.

Die Ausdehnung der Schneebedeckung auf der Nordhemisphäre erreichte im Dezember 2012 einen Rekordwert. Es gibt keine globale Messung des Permafrostbodens, aber seine Ausdehnung hat sich vermutlich kaum verändert. Das arktische Meereis hat sich seit 1979 zurück gezogen, aber das Meereis um die Antarktis hat zugenommen. Diese Änderungen fanden innerhalb der natürlichen Variabilität statt und bedürfen keiner weiteren Erklärung, obwohl die Menschheit einen geringen Einfluss gehabt haben könnte. Die Änderungen sind konsistent mit Erklärungen zu Klimaänderungen, die sich auf bekannte natürliche Einflüsse berufen, können jedoch auch einen geringen menschlichen Einfluss enthalten.

Klimamodelle sagen voraus, dass die globalen Temperaturen weiterhin steigen werden, und zwar mit einer Rate, die hauptsächlich abhängig ist vom Niveau der Emissionen; dass also höhere Emissionen von Treibhausgasen zu einer stärkeren Erwärmung führen und zu größeren Risiken für die Gesellschaft und für Ökosysteme, und dass eine zusätzliche Erwärmung infolge Emissionen in der Vergangenheit unvermeidbar ist. Und doch haben die Modelle durchweg die globale atmosphärische und ozeanische Erwärmung übertrieben. Satellitenmessungen zufolge gab es seit 16 Jahren und 8 Monaten, also seit 200 Monaten, überhaupt keine globale Erwärmung mehr.

Und obwohl es dem bevor stehenden 5. Zustandsbericht zufolge seit Januar 2005 zu einer Erwärmung um 0,2°C gekommen sein sollte, zeigen die Satellitenmessungen keinerlei Erwärmung seit jenem Zeitpunkt.

Es ist zu erwarten, dass Klimaänderungen zeitlich und räumlich nie gleichförmig verlaufen. Entwaldung, Verstädterung und vor allem Verschmutzung können komplexe geographische, saisonale und längerfristige Auswirkungen haben (sowohl nachteilige als auch, wie wir jetzt einräumen, vorteilhafte) auf Temperatur, Niederschlag und Wolkenbedeckung. Außerdem kann eine vom Menschen induzierte Klimaänderung atmosphärische Zirkulationsmuster verändern, aber unser Einfluss kann nicht unterschieden werden von historischen Abläufen der natürlichen Variabilität  und kann sowohl nachteilig als auch vorteilhaft sein, vor allem in kurz- und mittelfristiger Hinsicht.

Im gegenwärtigen Klima ändert sich das Wetter an einem bestimmten Ort oder in einem bestimmten Gebiet von Jahr zu Jahr. Dabei können sich sowohl die Natur dieser Variabilität als auch die grundlegenden Wetterabläufe ändern, manchmal sogar gegenläufig – in einigen Gebieten kann es zum Beispiel kälter werden. Nimmt man das Mittel der monatlichen globalen Temperaturanomalien aus allen fünf grundlegenden Datensätzen, zeigt sich tatsächlich seit den 150 Monaten seit Januar 2001, dass die Abkühlung global gewesen ist.

Für die Gesellschaft schädliche Auswirkungen, einschließlich zunehmender Hitzeextreme, Niederschläge und küstennahe Überflutungen, sind gegenwärtig nicht häufiger oder stärker als normal, und es ist auch unwahrscheinlich, dass derartige Erscheinungen künftig zunehmen, solange die Temperaturen nicht weiter steigen, wie es die AGU früher fälschlich vorhergesagt hat. Andere projizierte Folgen, wie Bedrohungen für die öffentliche Gesundheit, die Verfügbarkeit von Wasser, die landwirtschaftliche Produktivität (vor allem in Entwicklungsländern niedriger Breiten), die küstennahe Infrastruktur und die Biodiversität sind unter den gegenwärtigen Bedingungen ebenfalls unwahrscheinlich. Die AGU muss inzwischen einräumen, dass frühere Aussagen bzgl. der „Versauerung“ von Ozeanen falsch waren, da die Ozeane ausgesprochen alkalisch sind und dies auch bleiben, solange die Felsen in den ozeanischen Becken als Puffer fungieren [?]. Vorteile einer wärmeren Welt (falls und wenn die Erwärmung wieder einsetzt) wird zunehmende Verfügbarkeit von bislang im Permafrost liegenden Ackerboden einschließen sowie eine reduzierte Sturmhäufigkeit infolge abnehmender Temperaturunterschiede und bessere Ernten dank allgemeinen Wachstums der Gesamtproduktivität der Bäume und Pflanzen der Welt infolge CO2-Düngung.

Während wichtiger wissenschaftliche Unsicherheiten verbleiben, bis zu welchem Grad welche Auswirkungen wo zu spüren sein werden, muss die AGU jetzt akzeptieren, dass keine Unsicherheiten bekannt sind, die die Auswirkungen der anthropogenen Klimaänderung signifikant schädlich machen. Außerdem können unverhoffte Ereignisse wie etwa der unerwartet starke sommerliche Eisverlust in der Arktis sogar noch ausgeprägtere Vorteile aufweisen als vermutet. Transpolare Navigation und die Ausbeutung von Rohstoffen werden ermöglicht. Allerdings ist auch bekannt, dass Vieles des Eisverlustes natürlichen Einflüssen zugeordnet werden kann, und die Hälfte des Verlustes seit 1979 wurde durch die Zunahme des antarktischen Meereises kompensiert.

Von der AGU einst in einem sinnlosen Versuch befürwortete Aktionen, die die Vorteile der Klimaänderung für Gesellschaft und Ökosysteme verringern, schließen substantielle Reduktionen von Emissionen ein. Die AGU wollte damit die Größenordnung der anthropogenen globalen Erwärmung begrenzen, die sich als bemerkenswert wenig korreliert mit der Zunahme der CO2-Emissionen erwiesen hat. Die Gemeinschaft der Wissenschaftler muss lernen zu erkennen, dass es keine Grundlage gibt, einen besonders negativen Standpunkt zur Klimaänderung und deren Auswirkungen einzunehmen. Verbesserungen wird es durch Forschungen geben, die gebraucht werden, um zu verstehen, warum die vorhergesagte Klimaänderung nicht stattfindet. Man muss mit Interessengruppen zusammen arbeiten, um relevante Informationen und daraus folgende Ergebnisse den Entscheidungsträgern und der allgemeinen Öffentlichkeit klar, akkurat, ehrlich und ohne das zuvor gepflegte Vorurteil, für das sich die AGU jetzt demütig entschuldigen muss, bekannt zu machen.

Irrige Versionen des obigen Statements waren von der AGU im Dezember 2003 übernommen worden und wurden im Dezember 2007, Februar 2012 und August 2013 überarbeitet und erneut veröffentlicht. Angesichts der Beweise muss die AGU jetzt akzeptieren, dass deren ehemalige Statements unangebracht waren.

Link: http://wattsupwiththat.com/2013/08/07/the-agu-policy-statement-as-redrafted-by-monckton/#more-91145

Übersetzt von Chris Frey EIKE




Kommentare zum UKMO-Bericht über „die gegenwärtige Pause bei der globalen Erwärmung“ – 2. Teil

Beginnen möchte ich mit ihrer ersten Abbildung im 2. Teil:

 

[Die Übersetzung der Bildunterschrift lautet:

Abbildung 1: Beobachtungen des gegenwärtigen Stillstands der Erwärmung. Die oberste Graphik zeigt Zeitreihen mittlerer jährlicher Temperaturanomalien (relativ zur Periode 1961 bis 1990) gemittelt über den ganzen Globus von HadCRUT4 (schwarz), Festland von CRUTEM4 (rot) und Ozeane von HadSST3 (blau). Die zweite Graphik zeigt den Wärmegehalt der obersten 800 Meter der Ozeane (aus Analysen des Met. Office, Anomalien relativ zur Periode 1951 bis 2006, aktualisiert von Smith und Murphy 2007). Die dritte Graphik zeigt den mittleren jährlichen Meeresspiegel, ermittelt aus Pegelmessungen (Church und White 2011). Die unterste Graphik zeigt gleitende neun-Jahres-Trends der Erwärmung und der Wärmeaufnahme der oberen Ozeanschichten. Dies ist aufgeteilt in einsetzende (dunkel) und andauernde Perioden (hell) […split into onset (dark) and continuation (light) periods]. Dabei nahm die Wärmeaufnahme der oberen Schichten während der Onset-Perioden zu, verlief dagegen relatriv flach in continuation-Perioden. Vertikale Linien zeigen große Vulkanausbrüche an.]

Meine Abbildung 1 ist auch Abbildung 1 im 2. Teil des UKMO-Berichtes zum gegenwärtigen Stillstand der globalen Erwärmung. Aus einer ganzen Reihe von Gründen ist sie kurios. Erstens hat das UKMO einen weiteren Datensatz des ozeanischen Wärmegehaltes präsentiert. Im 1. Teil des Berichtes hat UKMO den ozeanischen Wärmegehalt von 0 bis 700 m Tiefe in zwei Abbildungen dargestellt: In Kasten W der Abbildung 1 und in ihrer Abbildung 18. Der Vergleich der beiden Graphiken aus dem ersten Teil steht hier. In diesem 2. Teil ihres Berichtes hat UKMO jetzt den Wärmegehalt von 0 bis 800 m Tiefe gezeigt. Auch dieser Datensatz zeigt nach dem Jahr 2000 einen flachen Verlauf, enthält aber auch einen merkwürdigen Knick nach oben im Jahr 2012. Das UKMO beruft sich auf Smith und Murphy (2007) als Quelle der Daten zum ozeanischen Wärmegehalt in der jüngsten Graphik, aber jene Studie trägt den Titel „An objective ocean temperature and salinity analysis using covariances from a global climate model” (paywalled). [Etwa: Eine objektive Temperatur- und Salzgehalts-Analyse mit Hilfe von Kovarianzen aus einem globalen Klimamodell]. Auf ihrer  EN-3 Ocean Heat Content data webpage beruft sich das UKMO nicht auf Smith und Murphy (2007). Also scheint es so, als seien die „Daten“ des ozeanischen Wärmegehaltes, die UKMO in Abbildung 1 des zweiten Teiles präsentiert, lediglich eine Reanalyse und nicht Daten. Wie auch immer, es scheint, als ob UKMO Datensätze des ozeanischen Wärmegehaltes gezielt danach aussucht, um einen bestimmten Standpunkt zu stützen, den sie versuchen geltend zu machen.

Zweitens, der Meeresspiegel: Der dritte Plot in Abbildung 1 von UKMO zeigt einen mit einer fast monotonen Rate steigenden Meeresspiegel. Der offensichtliche Grund dafür, den Meeresspiegel in Abbildung 1 mit zu zeigen, besteht wohl darin zu belegen, dass der Meeresspiegel weiterhin steigt, obwohl der Temperaturverlauf seit dem Jahr 1997 flach verlaufen war (es war das Jahr, dass UKMO als Anfang der Abflachung festgelegt hat). Tatsächlich stellt das UKMO weiter unten in der Studie fest:

Wie Abbildung 1 zeigt und wie besprochen im 1. Teil dieser Reihe ist der Meeresspiegel während des gesamten derzeitigen Stillstands weiterhin gestiegen.

Was sie nicht erwähnen ist die Tatsache, dass der Meeresspiegel eine lausige Proxy für die globalen Temperaturen ist. Aus den Plots der globalen Temperatur im oberen Teil ihrer Abbildung 1 geht hervor, dass sich die globale Temperatur von 1880 bis etwa 1917 abgekühlt hat, gefolgt von einer Erwärmung von 1917 bis 1944. Als ob sich dieser Zyklus wiederholt hätte, hat sich die globale Temperatur danach von 1944 bis 1976 abgekühlt und von 1976 bis 1998/2000 wieder erwärmt. Der Anstieg des Meeresspiegels jedoch hat sich während der zwei Abkühlungsperioden nicht verlangsamt.

Meine Abbildung 2 zeigt die 30-jährigen linearen Trends der Temperatur und des Meeresspiegels von 1880 bis 2012. Jeder Datenpunkt in der Graphik repräsentiert die 30-Jahres-Trends in mm pro Jahrzehnt für den Meeresspiegel und Grad Celsius pro Dekade für die Temperatur, und zwar für den in jenem Jahr endenden Zeitraum. Die Temperaturdaten stammen aus den jährlichen UKMO HADCRUT4-Daten, die hier verfügbar sind. Man beachte, dass die Temperaturdaten willkürlich skaliert worden sind, indem man sie mit einem Faktor 100 multipliziert hat. Und der rekonstruierte globale Meeresspiegel von 1880 bis 2009, wie er durch Church und White (2011) beschrieben worden ist, stammt von der Website vom CSIRO hier. (CSIRO ist die australische nationale Wissenschaftsagentur). So erhalten wir die Daten der globalen Temperatur und des Meeresspiegels, wie sie vom UKMO präsentiert werden. Wie Abbildung 2 zeigt, gibt es in den 30-jährigen linearen Trends keine Übereinstimmung. Die 30-Jahres-Trends des globalen Meeresspiegels haben während der 1940 zu Ende gegangenen 30-Jahres-Perioden zugenommen, der 30-Jahres-Trend der globalen Temperatur hat jedoch von 1945 bis 1960 abgenommen.

Kurz gesagt, auf Basis der 30-Jahres-Trends gibt es keine Übereinstimmung zwischen den Raten der Erwärmung/Abkühlung hinsichtlich der Temperatur und der Raten des globalen Anstiegs des Meeresspiegels. Also gibt es auf Grundlage der Abkühlungstrends seit 1880 keinen Grund für die Annahme, dass sich der Anstieg des Meeresspiegels während eines Stillstands der globalen Temperatur verlangsamen würde. Dies könnte dazu führen, jemanden glauben zu machen, dass UKMO die Graphik des Meeresspiegels nur als Ablenkung in die Abbildung eingefügt hatte. Der globale Meeresspiegel ist seit dem Ende der letzten Eiszeit gestiegen, und aufgrund der von UKMO präsentierten Daten gibt es keinen Zusammenhang zwischen den Raten des mittels Instrumenten gemessenen Anstieg des Meeresspiegels und der Rate, mit der sich die globale Temperatur erwärmt oder abkühlt.

Der dritte Punkt hinsichtlich der Abbildung 1 im 2. Teil des UKMO-Berichtes bzgl. des Stillstands bei der globalen Erwärmung: In der untersten Darstellung zeigen sie 9-Jahres-Trends innerhalb der 3 Datensätze der globalen Temperatur und des ozeanischen Wärmegehaltes (Reanalyse?) Woher kommen diese 9 Jahre? Das UKMO ist sehr genau hinsichtlich der Diskussion über den Startzeitpunkt des Stillstands. Sie schreiben:

Es ist schwierig, den Beginn des gegenwärtigen Stillstands genau zu terminieren. Zwar wird oftmals das Jahr 1998 als Beginn genannt, doch war dies ein außerordentlich warmes Jahr wegen des stärksten El Niño seit Beginn instrumenteller Messungen. Diesem folgte ein starkes La Niña-Ereignis und ein Rückgang der globalen Temperatur um etwa 0,2°C (Abbildung 1). Das ist hinsichtlich der Größenordnung äquivalent zum mittleren dekadischen Erwärmungstrend der letzten Jahrzehnte. Tatsächlich ist der Anstieg der globalen Temperatur erst im Jahr 2000 zum Stillstand gekommen.

Die jährlichen Daten von 2000 bis 2012 überdecken einen Zeitraum von 13 Jahren, nicht 9 Jahre. Und die Jahre von 1998 bis 2012 überdecken 15 und nicht 9 Jahre. Es scheint, dass das UKMO 9 Jahre gewählt hat, um die Behauptung zu stützen, dass es hinsichtlich eines 9-jährigen Stillstands der globalen Erwärmung nichts Ungewöhnliches gibt. Aber um die 9 Jahre geht es ja gar nicht. Es geht um 13 Jahre und 15 Jahre. Es ist nur zu offensichtlich, warum das UKMO 9 anstatt 13 oder 15 Jahre gewählt hat. Man betrachte meine Abbildung 3. Hätte man beim UKMO 13 oder 15 Jahre als Periode gewählt, würde der gegenwärtige Stillstand ungewöhnlich aussehen; das heißt, seit Ende der siebziger Jahre haben wir keinen so geringen Erwärmungstrend mehr erlebt.

Es sieht ganz danach aus, als ob die meisten Inhalte der Abbildung 1 bei UKMO die Öffentlichkeit in die Irre führen sollten; sie von der Tatsache abzulenken, dass der jüngste Stillstand der globalen Erwärmung in seiner langen Dauer ungewöhnlich ist, wenn Klimamodelle Erwärmung nur simulieren können, wenn sie mit vom Menschen stammenden Treibhausgasen gefüttert werden.

Das UKMO widerspricht sich selbst

Die Atlantische multidekadische Oszillation (AMO) ist Gegenstand des nächsten Abschnitts. Für weitere Informationen bzgl. dieses Phänomens siehe hier, hier und hier.

In ihrer Besprechung ihrer Abbildung 1 bezieht sich das UKMO auf multidekadische Änderungen der globalen Temperatur. Es schreibt (Fettdruck von mir):

Eindeutig gab es auch schon zu anderen Zeiten Perioden mit einer geringen oder mit gar keiner Erwärmung in der relativ kurzfristigen Vergangenheit. Ein gutes Beispiel hierfür ist der Zeitraum zwischen den vierziger und den siebziger Jahren des vorigen Jahrhunderts (Abbildung 1). Der Erwärmungstrend während dieser Zeit ist gut verstanden und hängt zusammen mit einer substantiellen Zunahme von Aerosolen in der Atmosphäre.

Das UKMO erweckt hier die Aerosol-Vermutung erneut zum Leben und behauptet, dass diese „gut verstanden“ ist. Allerdings widersprechen sie sich weiter unten in dem Bericht selbst. Unter der Überschrift „2.2 Redistribution of energy within the climate system – Storing the heat below the surface” und als ein Vorwort zu ihrer Besprechung der Auswirkungen der AMO auf die globalen Temperaturen schreibt das UKMO:

Es ist immer noch unklar, wie diese multidekadischen Variationen der Temperaturen im Nordatlantik angetrieben werden, und es ist eine Debatte im Gange über die Rolle anthropogener Aerosole als Antrieb der AMO (Booth et al 2012, Zhang et al. 2013).

Wenn das UKMO feststellt, dass eine Debatte im Gange ist über die Auswirkungen anthropogener Aerosole auf die AMO und dass diese der dominante Faktor bzgl. der multidekadischen Variationen der Temperaturen sind, wie kann das UKMO dann von „gut verstanden“ reden und davon, dass der Stillstand der Erwärmung von den vierziger bis zu den siebziger Jahren „mit einer substantiellen Zunahme der Aerosol-Menge in der Atmosphäre verbunden ist“?

Booth et al. (2012) und Zhang et al. (2013) habe ich in meinem Blogbeitrag vom März 2013 besprochen. Er trägt den Titel Blog Memo to Lead Authors of NCADAC Climate Assessment Report. Darin habe ich geschrieben:

Booth et al (2012) – eine Studie auf Basis von Klimamodellen – behaupten im Abstract, dass ein „Zustand-der-Erde-Klimamodell…“ verwendet worden ist, „…um zu zeigen, dass Emissionen von Aerosolen und Perioden vulkanischer Aktivität 76 Prozent der simulierten multidekadischen Varianz der trendbereinigten Temperaturen im Nordatlantik von 1860 bis 2005 erklären können“. Andererseits haben Zhang et al (2013) die begrenzte Datenmenge genutzt, um diese Behauptungen in Frage zu stellen. Offensichtlich ist ein „Zustand-der-Erde-Klimamodell“ immer noch ungeeignet für Studien dieser Art der Zuordnung. Wissen wir auf Basis von Computermodellen und sehr begrenzter Daten, was die multidekadischen Variationen der Wassertemperatur im Nordatlantik auslöst? Die realistische Antwort lautet nein.

Dann gibt es da die kürzlich erschienene Studie, in der die vielen Fehler der Klimamodell-Simulationen bzgl. der AMO behandelt werden. Die Studie stammt von Ruiz-Barradas et al. (2013) und trägt den Titel The Atlantic Multidecadal Oscillation in twentieth century climate simulations: uneven progress from CMIP3 to CMIP5. Die gesamte Studie steht hier. In den „abschließenden Bemerkungen” findet sich zu Beginn eine Erklärung, warum es für die Klimamodelle so wichtig ist, in der Lage zu sein, die AMO angemessen zu simulieren. Sie schreiben (Fettdruck von mir):

Die dekadische Variabilität im Klimasystem durch die AMO ist eine der wichtigsten Quellen der Variabilität in diesem temporären Rahmen, und die Klimamodelle müssen zum Ziel haben, dies angemessen zu dokumentieren, und zwar wegen des Einflusses dieses Phänomens auf das Klima der angrenzenden Kontinente. Diese Angelegenheit hat besondere Bedeutung für die gegenwärtigen Bemühungen hinsichtlich dekadischer Klimavorhersage-Experimente, die in Vorbereitung des fünften IPCC-Zustandsberichtes analysiert worden sind. Die gegenwärtige Analyse beabsichtigt nicht, die Mechanismen hinter der Abbildung der AMO in Modellsimulationen zu untersuchen, sondern Beweise für Verbesserungen der Modellrechnungen zu liefern oder das Fehlen derselben. Falls die Klimamodelle die mit der Erzeugung der AMO (oder andere Quellen dekadischer Variabilität wie die PDO) verbundenen Mechanismen nicht angemessen spiegeln und stattdessen die Variabilität mit anderen Häufigkeiten zeigen oder verstärken, dann ist die Fähigkeit der Modelle, im Zeitrahmen von Jahrzehnten zu simulieren und vorherzusagen in Frage gestellt und damit auch die Art und Weise, mit der sie diese Variabilität des Klimas und deren Auswirkungen auf menschliche Gesellschaften übertragen.

Die einzige Möglichkeit, wie sich Ruiz-Barradas et al. noch klarer hätten ausdrücken können wäre es, wenn sie klar sagen, dass Klimamodelle nur dann einen Sinn haben, falls und wenn sie jemals die dekadischen und multidekadischen Charakteristika natürlicher ozeanischer Prozesse simulieren können. Die Autoren beschreiben dann die vielen Probleme im Zusammenhang mit den Klimamodell-Simulationen hinsichtlich der AMO. Die Studie endet mit den Worten (Fettdruck von mir):

Die hier vorliegende Analyse präsentiert keine Beweise, warum die Modelle so agieren, wie sie agieren, sondern zeigt, dass die ungerechtfertigte Zunahme der hohen 10 bis 20-jährigen Variabilität von den Modellen CMIP3 zu CMIP5 hinter dem unbefriedigenden Fortschritt stehen könnte, die räumlich-zeitlichen Erscheinungen der AMO darzustellen. Dieses Problem gekoppelt mit der Unfähigkeit der Modelle, die regionale Low-Level-Zirkulation einzubeziehen, den Treiber der Feuchtigkeits-Flüsse, scheint im Mittelpunkt der ärmlichen Repräsentation der hydroklimatischen Einflüsse der AMO zu stehen.

Falls die Klimamodelle die AMO nicht angemessen simulieren können, dann ist es sehr offensichtlich, dass der Stillstand der globalen Temperaturen von den vierziger bis zu den siebziger Jahren eben nicht „gut verstanden“ ist, wie das UKMO behauptet.

ANMERKUNG: Die Abbildungen 2 und 3 oben zeigten Variationen der Trends. Im Folgenden zeigen die Abbildungen 4 bis 7 Variationen von Temperaturanomalien.

Das UKMO zeigt dann den falschen Datensatz für eine Diskussion multidekadischer Temperaturvariationen

Weiter zur Pazifischen Dekadischen Oszillation PDO: Das UKMO stellt zu Beginn richtig fest, dass es hinsichtlich der Wassertemperaturen im Nordpazifik multidekadische Variationen gibt. Aber dann weicht es tangential von der Linie ab, wenn es die PDO und andere abstrakte Erscheinungen hinsichtlich der Wassertemperatur des Pazifiks behandelt, als ob diese abstrakten Erscheinungen die multidekadischen Variationen der Wassertemperatur im Pazifik nördlich von 20°N oder im Pazifischen Ozean repräsentieren:

Der Pazifische Ozean zeigt auch längerfristige Variationen (Abbildung 5), die verschiedentlich als die Pazifische Dekadische Oszillation PDO bezeichnet werden (Mantua et al. (1997)) oder als Pazifische Dekadische Variabilität PDV (Deser et al. (2012)) oder als Interdekadische Pazifische Oszillation IPO (Power et al. (1999)).

Dann macht das UKMO ein ziemlich überraschendes Zugeständnis (Fettdruck von mir):

Die Charakteristika und die Mechanismen der PDO sind viel weniger gut verstanden als bei der AMO, und es gibt einige Diskussionen darüber, ob die PDO lediglich das niederfrequente Verhalten der ENSO und deren Einfluss auf atmosphärische Zirkulationen der mittleren Breiten und Oberflächen-Flüsse zeigt (Deser et al. 2012), oder ob die Dynamik der Ozeane ebenfalls eine Rolle spielt.

Hier wollen wir einen Moment innehalten. Die gegenwärtige Generation der Klimamodelle kann die AMO nicht simulieren, außerdem gibt es eine Debatte darüber, ob menschliche Aerosole in der AMO eine Rolle spielen oder nicht. Und jetzt stellt das UKMO fest, dass die multidekadischen Variationen im Nordpazifik (und dem Pazifik als Ganzem) sogar noch weniger verstanden sind! Und das UKMO möchte uns glauben machen, dass „der Erwärmungstrend während jener Periode gut verstanden ist und mit einer substantiellen Zunahme von Aerosolen in der Atmosphäre zusammenhängt“.

Das ist wirklich lächerlich. (Und ich lache nicht mit ihnen, sondern über sie). Was für eine Frechheit!

Zurück zur PDO: Das UKMO macht dann weiter mit der Besprechung des PDO-Index‘ und illustriert dies mit seiner Abbildung 4. Aber sie ignorieren (absichtlich? unwissend?) die Tatsache, dass der PDO-Index nicht die Wassertemperaturen des Nordpazifik repräsentiert – dass der PDO-Index eine abstrakte Form der Wassertemperatur des Nordpazifiks repräsentiert.

Kurze Beschreibung des PDO-Index’: El Niño- und La Niña-Ereignisse erzeugen eine spezifische räumliche Verteilung der Wassertemperatur im Nordpazifik nördlich von 20°N. Zum Beispiel sind die Wassertemperaturen während eines starken El Niño im Ostteil des Nordpazifik warm und in den westlichen und zentralen Teilen kalt. Der PDO-Index zeigt im Wesentlichen, wie eng die räumliche Verteilung im Nordpazifik und deren Intensität zur räumlichen Verteilung von El Niño und La Niña-Ereignissen passt. Der PDO-Index bezieht sich nicht auf die Wassertemperatur im Nordpazifik, 1), weil die räumliche Verteilung bei jedweder Wassertemperatur existieren könnte und 2), weil der Bodenluftdruck und damit zusammenhängende Windverhältnisse) ebenfalls die räumliche Verteilung und damit wiederum den PDO-Index beeinflussen.

Und das UKMO ignoriert die Tatsache, dass die Wassertemperaturen des Nordpazifiks multidekadische Variationen aufweisen, die vergleichbar sind mit jenen im Nordatlantik. Das kann man leicht erkennen, wenn man die Anomalien der Wassertemperatur im Nordpazifik nördlich von 20°N trendbereinigt, und zwar auf die gleiche Weise, wie es NOAA ESRL mit dem Atlantic Multidecadal Oscillation Index macht. Meine Abbildung 4 vergleicht trendbereinigte Anomalien der Wassertemperatur im Nordatlantik (0° bis 70°N, 80°W bis 0) und im Nordpazifik (0 bis 65°N, 100°E bis 90°W). In dieser Graphik wird der UKMO HADSST3-Datensatz verwendet. Beide Unter-Datensätze wurden auch mit 61-Monate-Filtern geglättet, um monatliche und jährliche Fluktuationen zu reduzieren. (Anmerkung: Normalerweise präsentiere ich die trendbereinigten Anomalien der Wassertemperatur im außertropischen Nordpazifik {20N-65N, 100E-100W} in diesen Vergleichen, weil die PDO daraus abgeleitet ist, aber in diesem Falle habe ich den gesamten Nordpazifik {0-65N, 100E-90W} betrachtet).

Es ist wirklich schwierig, die multidekadischen Variationen der Wassertemperatur im Nordpazifik zu übersehen. Sie können synchron oder asynchron mit dem Nordatlantik variieren. Aber wir wollen einmal auf die Anomalien der Wassertemperatur im Nordatlantik und Nordpazifik ohne die Trendbereinigung schauen, Abbildung 5. Die Wassertemperaturen im Nordatlantik mögen einen Spitzenwert erreicht haben, aber das Plateau ist sehr kurz. Andererseits hat sich der Nordpazifik seit dem Jahr 2003 ziemlich drastisch abgekühlt.

Von den beiden Ozeanbecken trägt der Nordpazifik am meisten zum Stillstand der Erwärmung bei, aber dem UKMO zufolge sind die Variationen der Oberflächentemperaturen dort sogar noch weniger verstanden als im Nordatlantik, die auch nicht verstanden sind. Aber Moment, da ist noch mehr.

Die Abkühlung im Nordpazifik erstreckt sich auf das gesamte pazifische Becken, aber die Abflachung der Wassertemperatur-Anomalien im Nordatlantik erstreckt sich nicht auf den gesamten Atlantischen Ozean. Man betrachte Abbildung 6, welche die Wassertemperatur-Anomalien im Pazifik von Pol zu Pol (90S-90N, 120E-80W) und im Atlantik von Pol zu Pol (90S-90N, 70W-20E) repräsentiert.

Diese beiden beckenweiten Datensätze wurden in Abbildung 7 trendbereinigt, um zu zeigen, dass die multidekadische Variabilität in beiden Fällen auf das gesamte Becken übergreift.

Auf Grundlage der Statements vom UKMO selbst verstehen sie und die klimawissenschaftliche Gemeinschaft allgemein nicht die Gründe der multidekadischen Variationen der Wassertemperatur im Atlantischen und Pazifischen Ozean. Dies zeigt, dass sie auch nicht verstehen, was die globale Erwärmung von Mitte der siebziger Jahre bis zum Jahr 2000 ausgelöst hat. Wenn sie den Stillstand nicht erklären können, dann können sie mit Sicherheit auch nicht die Erwärmung erklären.

Es ist für die Gemeinschaft der Klimawissenschaftler sehr wichtig, die natürlichen Prozesse modellieren zu können, die zur Erwärmung und zur Abkühlung der globalen Ozeane beitragen. Die Temperaturen auf dem Festland folgen den jährlichen, dekadischen und multidekadischen Variationen der Wassertemperatur mit größerer Amplitude. Dies wurde von Compo und Sardesmukh (2009) in ihrer Studie Oceanic influences on recent continental warming gezeigt. Das Abstract beginnt mit den Worten:

Beweise werden präsentiert, dass die jüngste weltweite Erwärmung auf dem Festland zum großen Teil auf eine weltweite Erwärmung der Ozeane zurückzuführen ist und nicht eine direkte Reaktion auf zunehmende Treibhausgase an Land.

Wir können auch Karten der Korrelation benutzen, um den Einfluss der Wassertemperatur in Nordatlantik und Nordpazifik auf die Festlands-Temperaturen in der Nordhemisphäre zu illustrieren. Ich habe die Berkeley Earth Surface Temperature (BEST)-Daten in Abbildung 8 verwendet, weil CRUTEM4 räumlich nicht vollständig ist, und ich habe die Reynolds OI.v2-Daten anstatt der HADSST3-Daten aus dem gleichen Grund verwendet. Die Daten erstrecken sich von 1982 (dem Beginn der auf Satellitenmessungen basierenden Reynolds OI.v2-Daten) bis 2011 (dem letzten Jahr mit vollständigen BEST-Daten). Die obere Karte zeigt die Korrelationen der Festlands-Temperaturanomalien mit denen der Wassertemperatur im Nordatlantik, und die untere Karte das Gleiche mit dem Nordpazifik. Man kann leicht erkennen, warum Forscher glauben, dass der Nordatlantik einen starken Einfluss auf die Temperaturen in der Nordhemisphäre hat. Aber man kann den Pazifik nicht ignorieren, weil er ebenfalls Auswirkungen zeitigt.

Das UKMO ist kurz auf die möglichen Gründe für multidekadische Variationen der Wassertemperatur der Kuroshio Extension eingegangen, bekannt auch unter der Bezeichnung Kuroshio-Oyashio Extension oder KOE:

Es gibt einige Beweise, dass Änderungen der Wärmetransporte in den Ozeanen in Zusammenhang mit dem Gebiet der Kuroshio Extension (einer ostwärts gerichteten Meeresströmung im Nordpazifik) und die Erzeugung interner Ozean-Zirkulationen durch oberflächennahe Winde, Rossby-Wellen genannt, beitragende Faktoren sein können (z. B. Alexander 2010).

Wir haben die Prozesse besprochen, durch die das durch starke El Niño-Ereignisse zurück gebliebene Restwarmwasser in die Kuroshio-Oyashio Extension gelangt während nachfolgender La Niñas, und dass diese einem starken El Niño folgenden Erwärmungen die Auswirkungen der nachfolgenden La Niña-Ereignisse auf die Luft- und Wassertemperaturen kompensieren. Siehe diesen Beitrag hier.

Wie schon zuvor erwähnt repräsentiert der PDO-Index nicht die Wassertemperaturen des Nordpazifiks. Wir haben dies in zahlreichen Beiträgen während der letzten Jahre behandelt; siehe hier, hier und hier. Wie in jenen Beiträgen dargestellt, ist der PDO-Index umgekehrt verbunden mit den Wassertemperaturen im Nordpazifik. Und wie in Abbildung 9 dargestellt ist der PDO-Index auch mit Variationen der Temperaturen an Land in vielen Gebieten der Nordhemisphäre anti-korreliert. Das heißt, wenn der PDO-Index steigt, kühlen sich die Temperaturen an Land in vielen Gebieten des Globus‘ ab – und umgekehrt, wenn der PDO-Index sinkt. Andererseits sind die Anomalien der Wassertemperatur der Kuroshio-Oyashio Extension ein Maß für die Wassertemperatur, und sie sind positiv korreliert mit den Temperaturen an Land in ähnlichen Gebieten der Nordhemisphäre.

Zusammenfassend zu diesem Abschnitt: die PDO ist eine abstrakte Repräsentation der Wassertemperatur im Nordpazifik und als solche der falsche Datensatz zur Verwendung in den Diskussionen zur globalen Erwärmung – oder zu dem Fehlen derselben.

Repräsentationen der dekadischen Variabilität in Klimamodellen

Danach folgt beim UKMO eine Besprechung ihrer Simulationen der Wassertemperaturen des Pazifischen Ozeans mit verschiedenen Versionen ihrer Klimamodelle, und sie zeigten ein paar Karten der Simulationen, um das Übergewicht einer La Niña-Verteilung während der modellierten, ein Jahrzehnt langen Stillstandsperioden zu belegen:

Die Bedeutung der dekadischen Variabilität im Pazifischen Ozean als Antrieb für verlängerte Perioden der Abkühlung wurde auch in Multi-Jahrhundert-Simulationen mit festgesetzten Strahlungsantrieben identifiziert. Abbildung 6 zeigt die räumliche Verteilung des Temperaturtrends, gemittelt über Perioden mit extremer Abkühlung aus einer Reihe von Klimamodellen des Met. Office Hadley Centre, einschließlich des jüngsten Modells (HadGEM2), das auch Eingang in den 5. IPCC-Zustandsbericht gefunden hat. Sie sehen alle in bemerkenswerter Weise aus wie die beobachtete Verteilung während der letzten Dekade (Abbildung 6, Graphik rechts unten) und stellen einen ziemlich robusten Beweis dar für die Bedeutung des Verständnisses der Rolle des Pazifischen Ozeans hinsichtlich der gegenwärtigen Pause der mittleren globalen Erwärmung.

„Festgesetzte Strahlungsantriebe” bedeutet, dass infrarote Strahlung durch vom Menschen emittierte Treibhausgase in den Modellen nicht zunimmt, es gibt keine vorübergehenden Abnahmen des Sonnenlichts durch vulkanische Eruptionen, es gibt keine Variationen der Strahlung von der Sonne usw. Mit anderen Worten, das ist nicht die reale Welt. Es ist irrelevant.

Ich bin immer wieder erstaunt darüber, dass Gruppen von Modellierern die Fehlschläge ihrer Modelle herausstellen. Die UKMO-Präsentation von Modellergebnissen mit „festgesetzten Strahlungsantrieben“ zeigt nachhaltig, dass die Klimamodelle vom UKMO den Stillstand nicht simulieren können, falls die Modelle mit Bedingungen der realen Welt gefüttert werden. Oder vielleicht besteht die einzige Möglichkeit für die UKMO-Klimamodelle, die Jahrzehnte lange Pause der Wassertemperatur-[Änderungen] zu simulieren darin, die Auswirkungen der Treibhausgase zu entfernen. Man denke darüber mal eine Weile nach.

Das UKMO bezieht sich dann auf eine Studie von Meehl et al. 2011 mit dem Titel „Model-based evidence of deep-ocean heat uptake during surface-temperature hiatus periods“. Diese Studie basiert auf dem NCAR CCSM4 Klimamodell. Meehl et al. haben im Wesentlichen die Zukunfts-Projektionen des CCSM4-Modells hinsichtlich Jahrzehnte langer Stillstands-Perioden untersucht. Während dieser Zeiten haben die Modelle La Niña-artige Bedingungen simuliert. Aber wir wissen, dass Klimamodelle die El Niño und La Niña-Ereignisse nicht angemessen abbilden. Ich habe Guilyardi et al (2009) als Referenz für dieses Scheitern in früheren Beiträgen benutzt. Die folgende Studie ist eine jüngere Bestätigung, wie schlecht die Klimamodelle die ENSO simulieren. Die Studie: Bellenger et al. 2013: ENSO representation in climate models: from CMIP3 to CMIP5. Ein Vorabdruck findet sich hier. Der Abschnitt mit der Überschrift „Discussions and Perspectives“ beginnt mit den Worten:

Die Modellierer müssen noch viel Arbeit aufwenden, um die ENSO korrekt zu repräsentieren, seine grundlegenden Charakteristika (Amplitude, Entwicklung, Zeiträume, jahreszeitliche Abläufe…) und fundamentale Prozesse wie die Bjerkness-Rückkopplungen und andere.

Außerdem zeigen und diskutieren wir in diesem Beitrag, wie das NCAR CCSM4-Klimamodell nicht in der Lage war, die beobachtete Erwärmung im Pazifischen Ozean während der letzten 31 Jahre zu simulieren. Siehe Abbildung 10, in der modellierte und beobachtete Trends der Wassertemperatur im Pazifischen Ozean seit November 1981 dargestellt sind, und zwar auf einer breitenabhängigen Basis (zonale Mittel). Die Tatsache, dass jene Modelle gelegentlich Jahre lange Stillstandsperioden simulieren können, ist daher unerheblich.

Änderungen im Wärmehaushalt der Ozeane

In ihrer Besprechung der Abbildung 1 schreibt das UKMO (Fettdruck von mir):

Außerdem hat der ozeanische Wärmegehalt in den oberen Schichten noch ein paar Jahre nach 1998 weiter zugenommen (Abbildung 1). Nichtsdestotrotz ist aber klar, dass die Erwärmungsrate sowohl an der Oberfläche als auch in den oberen Ozeanschichten in jüngster Zeit abgenommen hat (Abbildung 1, untere Darstellung). Und dies trotz eines fortgesetzten Anstiegs der atmosphärischen Kohlendioxid-Konzentrationen, die innerhalb des Systems Erde als Fallen für Strahlung agieren.

Die Daten (vielleicht eine Reanalyse?) für den oberen Ozean in ihrer Abbildung 1 gelten für die oberen 800 m. Das UKMO fährt dann fort, über die Daten des ozeanischen Wärmegehaltes zu sprechen unter der Überschrift „2.3 What do we know about changes in the ocean heat budget?” Sie schreiben (Fettdruck von mir):

Falls die Ozeane wirklich Wärme unter ihrer Oberfläche verborgen hätten, muss man sich fragen, ob Änderungen des Wärmegehaltes vor allem im tieferen Ozean überhaupt entdeckt werden können. Es gab bedeutende Fortschritte hinsichtlich der Abschätzung des ozeanischen Wärmespeichers während des vergangenen Jahrzehnts, und zwar wegen der Korrektur von Verzerrungen bei konventionellen Erkundungen und der Entwicklung der ARGO-Bojen.

Das ist ein gewaltiges FALLS, mit dem dieser Absatz beginnt, vor allem wenn sie einräumen, dass die Daten modifiziert werden müssen, und zwar natürlich auf eine Art und Weise, dass die Daten eine Erwärmung zeigen. Sie fahren fort (Fettdruck von mir):

Die ARGO-Messungen zeigen eine rapide Zunahme des Wärmegehaltes bis zu einer Tiefe von 700 m, und zwar von 1999 bis 2004 (Guemas et al. 2013). Das zeigt auch Abbildung 1, aber die Rate der Zunahme ist danach geringer. Diese Periode fällt jedoch zeitlich zusammen mit substantiellen Änderungen im Beobachtungssystem infolge der raschen Einführung der ARGO-Bojen. Obwohl ARGO-Bojen zunehmend robuste globale Messungen der oberen Ozeanschichten zur Verfügung stellen, müssen Schlussfolgerungen aus Perioden mit großen Änderungen in einem Beobachtungssystem mit großer Vorsicht behandelt werden.

Man sollte dem UKMO gratulieren für die Anmerkung, dass „…Schlussfolgerungen aus Perioden mit großen Änderungen in einem Beobachtungssystem mit großer Vorsicht behandelt werden müssen“. Aber dabei war es um den oberen Ozean gegangen. Weiter heißt es dort (Fettdruck von mir):

Messungen des Wärmegehaltes in tieferen Ozeanschichten sind viel weiter gestreut und daher weniger gewiss. Mittels einer Kombination von Satelliten- und Ozeanmessungen bis zu einer Tiefe von 1800 m schätzen Loeb et al. 2012, dass das System Erde von 2001 bis 2010 Energie mit einer Rate von 0,5±0,4W/m² akkumuliert hat, ähnlich den 0,4 W/m² von 2005 bis 2010 bis zu einer Tiefe von 1500 m durch ARGO-Bojen allein (von Schuckman und Le Traon 2011). Reanalysen3 der Ozeandaten zeigen im Zeitraum von 2000 bis 2010 eine mittlere Erwärmungsrate um 0,9 W/m² gemittelt über den Globus, wobei 30% der Zunahme unter 700 m stattfand (Balmaseda et al. 2013). Wir folgern daraus, dass das System Erde weiterhin eine substantielle Menge an Wärme während der letzten 15 Jahre angesammelt hat, trotz des Stillstands der Erwärmung.

Die Fehler bei Balmaseda et al. 2013 haben wir bereits in zahlreichen Beiträgen während der letzten Monate angesprochen. Siehe hier, hier, hier, hier und zuletzt hier unter der Überschrift Balmaseda et al. 2013.

Fußnote 3 beim UKMO lautet:

Ozeananalysen verwenden ein globales Ozeanmodell angetrieben durch historische Schätzungen der Winde, Wärme und Frischwasser-Flüsse, um historische Beobachtungen des Ozeans zu synthetisieren mit einer ganzen Reihe von Methoden wie Datenassimilationen, um historische Änderungen des Zustands der Ozeane zu rekonstruieren.

Und die von Balmaseda et al. 2013 verwendete Reanalyse war das ORAS4 durch das Europäische Zentrum für Mittelfristige Wettervorhersage ECMWF. Auf der Website des ECMWF gibt es zu ORAS4 mehr Informationen. Es enthält die folgende Gegenerklärung (Fettdruck von mir):

Es gibt große Unsicherheiten in den Produkten ozeanischer Reanalysen (vor allem bei den Transporten), die schwierig zu quantifizieren sind. Zielgruppe dieser Websites ist die Forschungsgemeinschaft. Jedes außergewöhnliche Klimaereignis sollte weiter gehend untersucht (sic) und nicht als Wahrheit angesehen werden.

Diese einfache Tatsache findet in der UKMO-Studie keinerlei Beachtung, als ob Balmaseda et al. 2013 lediglich ein Evangelium verkünden.

Oben habe ich dem UKMO zum Einräumen von Problemen gratuliert, die bei großen Änderungen des Beobachtungssystems auftreten, als der ozeanische Wärmegehalt für die oberen Schichten der Ozeane besprochen worden ist. Jetzt scheint es so, als hätten sie das vergessen, wenn sie die Daten bis zu einer Tiefe von 2000 Metern übernehmen. In diesem Beitrag haben wir vor Kurzem gezeigt, wie die Temperaturen unterhalb der Oberfläche in Tiefen zwischen 700 und 2000 Metern kaum einen langzeitlichen Trend von 1955 bis 2002 zeigen. Siehe Abbildung 11. Dann, kaum waren die ARGO-Bojen installiert, sind die Temperaturen dort in die Höhe geschossen. Man erinnere sich auch daran, dass die ARGO-Daten adjustiert werden mussten, um Erwärmung zu zeigen.

Die Änderung im Beobachtungssystem scheint einen sehr starken Einfluss auf die Messungen der Temperaturen in Tiefen zwischen 700 und 2000 m gehabt zu haben, aber es scheint, dass das UKMO diesen Einfluss übersehen will, weil die Daten ihre Mutmaßungen stützen.

Dann stellt das UKMO das Ungleichgewicht von Strahlung zur Diskussion:

Der Meeresspiegel kann ebenfalls benutzt werden, um den ozeanischen Wärmegehalt zu belegen. Wie früher schon besprochen erfordert der Stillstand der mittleren globalen Erwärmung entweder eine Reduktion des Energie-Inputs auf den Planeten um etwa 0,6 W/m² oder die Speicherung dieser Energiemenge innerhalb des Ozeans. Falls eine zusätzliche Erwärmung von 0,6 W/m² tatsächlich im Ozean gespeichert wird, würde dies thermosterisch (thermische Ausdehnung) den Meeresspiegel um 1,2 mm/Jahr steigen lassen unter der Voraussetzung, dass sich die gesamte Wärmemenge in den oberen 700 m sammelt. Diese Zahl wäre kleiner, falls ein Teil dieser Wärme in Tiefen unter 700 m herunter gemischt wird, wo der Ausdehnungskoeffizient kleiner ist.

Das vermutete Strahlungs-Ungleichgewicht an der Oberfläche war jüngst auch Gegenstand einer Studie von Stephens et al. 2013 mit dem Titel An update on Earth’s energy balance in light of the latest global observations. Siehe ihre Abbildung 1. Sie illustrieren ein Ungleichgewicht von 0,6 W/m² an der Oberfläche mit einer geschätzten Fehlerbreite von ± 17 W/m². Hier wird klar, warum das UKMO diese Unsicherheit nicht angesprochen hat.

Das UKMO kommt dann zu einer erstaunlichen Schlussfolgerung aus diesem Abschnitt. Mit unglaublicher Selbstsicherheit stellen sie fest:

Zusammengefasst zeigen Beobachtungen des ozeanischen Wärmegehaltes und des Anstiegs des Meeresspiegels, dass die Erde weiterhin Wärmenergie während der letzten 15 Jahre absorbiert hat und dass diese zusätzliche Wärme in den Ozeanen absorbiert worden ist.

Sie haben jedoch nichts präsentiert, was ihre Sicherheit stützen würde.

UKMO hält den Mythos am Leben

Alles in allem pflegt das UKMO weiter den Mythos, dass nur ein vermutetes Energie-Ungleichgewicht, verursacht durch anthropogene Treibhausgase, die Erwärmung der globalen Ozeane erklären kann, während die Daten aufgeteilt in logische Untergruppen darauf hindeuten, dass menschliche Treibhausgase keine sichtlichen Auswirkungen auf die Erwärmung der globalen Ozeane  hatten. Wenn das für Sie neu ist, schauen Sie hier: „The Manmade Global Warming Challenge” (42MB).

Schlussbemerkungen

Allgemein gesagt hat das UKMO zahlreiche Datensätze gezeigt in dem Bemühen zu belegen, dass die globale Erwärmung theoretisch weitergeht, selbst wenn sich die Temperaturen nicht mehr erwärmen. Kümmert sich die allgemeine Öffentlichkeit um die Temperatur in den globalen Ozeanen unter 2000 m? Nein. Kümmert sie sich um Strahlungs-Ungleichgewichte? Nein. Die Leute kümmern sich um die Temperaturen und den Niederschlag in ihren Wohngebieten. Und wenn diese Leute an den Küsten leben, kümmern sie sich um den Meeresspiegel. Und der ist vielleicht die größte Sorge. Aber der Meeresspiegel wird weiterhin steigen, egal was wir hinsichtlich von Treibhausgasen unternehmen. Spricht das UKMO dies an? Nein. Dann haben sie die Leute um die Steuergelder betrogen, die sie zur Durchführung dieser Forschungen erhalten haben.

Im letzten Absatz im 2. Teil des UKMO-Berichtes zum Stillstand der Erwärmung heißt es (Fettdruck von mir):

Die wissenschaftlichen Frage, die durch den gegenwärtigen Stillstand der globalen Erwärmung aufgeworfen werden, verlangen von uns, die Energieflüsse zur Erde und von der Erde weg sowie um die Erde herum viel besser zu verstehen. Gegenwärtige Beobachtungen sind nicht detailliert oder lang genug, um definitive Antworten hinsichtlich der Gründe des jüngsten Stillstands zu liefern. Darum können wir den Energiehaushalt der Erde nicht schließen. Es gibt wesentliche wissenschaftliche Herausforderungen, die die Forschungsgemeinschaft derzeit verfolgt. Dabei wird mittels einer Kombination von Theorie, Modellen und Beobachtungen erkundet und experimentiert.

Mit anderen Worten, auf der Basis der begrenzt verfügbaren Daten versteht das UKMO nicht den Grund (oder die Gründe) für den Stillstand der globalen Erwärmung, und das zeigt sehr deutlich, dass sie den Grund der Erwärmung von Mitte der siebziger Jahre bis zum Jahr 2000 nicht verstehen – während einer Zeit also, als die Datenlage noch unsicherer war.

Link: http://wattsupwiththat.com/2013/07/30/part-2-comments-on-the-ukmo-report-the-recent-pause-in-global-warming/

Übersetzt von Chris Frey EIKE




Schiefer befeuert eine globale Revolution

Bild rechts: Versorgung aus Nicht-OPEC-Quellen hat im Juli um 570000 Barrel pro Tag zugenommen, wobei Nordamerika zu etwa 40% zu dieser Zunahme beigetragen hat. Photo: AP

Die International Energy Authority [Agency?] IEA hat erklärt: während viele OPEC-Mitglieder infolge Unruhen und Infrastruktur-Problemen Mühe haben, die Produktion aufrecht zu erhalten, hat der nordamerikanische Schiefer-Boom die Welt von steilen Ölpreis-Schocks isoliert.

Unruhen in Libyen haben die Exporte auf das niedrigste Niveau seit dem Bürgerkrieg im Jahr 2011 gedrückt, wobei die Kapazität der Verschiffung nur zu einem Drittel ausgelastet war.

Im Nordirak wird ein Streit zwischen Bagdad und der kurdischen Regionalregierung über Zahlungen und Vertragsbedingungen, gekoppelt mit Anschlägen auf Pipelines, die Pläne der Regierung unterbrechen, den Output während der nächsten fünf Jahre drastisch zu steigern. Sicherheitsbedenken in Algerien und Nigeria bleiben eine Sorge.

Obwohl Saudi-Arabien seine Ölerzeugung im Juli sogar auf ein 12-Monate-Hoch steigern konnte, war das nicht genug, um den Rückgang der Ölerzeugung in anderen OPEC-Ländern auszugleichen. Insgesamt hat der OPEC-Output im Juli um 1,1 Barrel abgenommen, Jahr für Jahr. „Die Gründe haben wenig mit mangelnder Nachfrage zu tun… sondern mit allen heimischen Entwicklungen in einigen Mitgliedsstaaten“, sagte die IEA.

Im Gegensatz dazu hat der Output aus Nicht-OPEC-Staaten im Juli um 570000 Barrel pro Tag zugenommen, wobei Nordamerika rund 40 Prozent zu dieser Zunahme beigetragen hat. Der größte Anteil davon wiederum kam aus Kanada.

Ist das der Anfang von Entwicklungen, die jetzt kommen? Die Energie-Revolution, befeuert von Schiefer, hat schon jetzt ausgeprägte Konsequenzen. In Saudi-Arabien zum Beispiel wächst die Einsicht, dass die Wirtschaft neu austariert werden muss. Die exzessive Abhängigkeit vom Öl kann nicht ewig dauern.

Hier in UK haben wir es mit einem ganz anderen Komplex von Problemen zu tun. Wie kann man die Industrie davon überzeugen, dass Schiefer die beste Garantie für unsere zukünftige Energiesicherheit ist? Wie kann sie den Widerstand einer Protestbewegung überwinden, die auf Gefühlen anstatt auf Wissenschaft beruht?

Zumindest die politische Führung hat Fortschritte gemacht. David Cameron hat in dieser Woche von den großen Möglichkeiten durch Schiefer gesprochen, und zwar mit den Worten: „Wir würden als Nation einen großen Fehler machen, sollten wir nicht intensiv darüber nachdenken, wie man das Fracking fördern könnte“.

Traurigerweise scheint sich diese Botschaft noch nicht bis zur Umweltagentur herum gesprochen zu haben. Eine vor Kurzem erstellte Beratungsstudie zeigt, dass Fracking-Genehmigungen bis zu sechs Monaten dauern können anstatt nur wenige Wochen, und zwar wegen der Empfindlichkeiten der Öffentlichkeit.

Das ist nicht wirklich die Botschaft, die George Osborne vermitteln wollte, als er davon gesprochen hat, den Genehmigungsprozess bzgl. Fracking zu beschleunigen. Aber sie ist eine perfekte Illustration der Schlachten, die voraus liegen, falls UK nicht die Vorteile der Schiefer-Revolution einheimst.

The Daily Telegraph 10 August 2013

Link: http://www.thegwpf.org/editorial-shale-fuelling-global-revolution/

Übersetzt von Chris Frey EIKE




Zweitstärkste jemals gemessene Zunahme arktischen Meereises

In einigen Tagen wird das Jahr 2013 wohl an 1. Stelle stehen.

arctic.atmos.uiuc.edu/cryosphere/timeseries.anom.1979-2008

Link: http://stevengoddard.wordpress.com/2013/08/08/second-largest-arctic-ice-gain-on-record/

Übersetzt von Chris Frey EIKE