1

Der Klimawandel wird bildlich gesprochen immer schöner, die Daten darüber nicht

Klimaretter.info, 06. Dezember 2016: [1] Schönheitskönigin wird Klimabotschafterin

Im Kern ist es wieder so eine Information, über welche man hinwegsehen könnte. Doch in der Mitteilung von Klimaretter steht unisono auch „das Übliche“ zum Untergang der Pazifik-Atolle und das soll kurz nachgesehen werden:
Klimaretter.info: [1] Der pazifische Inselstaat Fidschi ist eines der am stärksten vom Klimawandel betroffenen Länder der Welt und insbesondere vom Meeresspiegelanstieg bedroht … Fidschi hat aber auch selbst den noch stärker bedrohten Einwohnern des Atolls Kiribati Flächen zur Neuansiedlung angeboten.

Im folgenden Übersichtsbild sind die zwei im Bericht genannten Atolle gekennzeichnet und zusätzlich Standorte von Pegelstationen mit teils längeren Datensätzen.

Bild 2 Pazifik, Lage von Pegelstationen. Quelle: PSMSL Catalogue Viewer

Der Autor hat nun das gemacht, was er immer beim Nachsehen „durch den Klimawandel untergehender Inseln“ durchführt: Er schaut in den PSMSL Catalogue Viewer, lädt sich die Daten und wertet aus. So auch hier:

Zuerst die Pegel der direkt als stark gefährdet genannten Atolle von Fidschi und Kiribati im Bild 3:


Bild 3 Pegeldaten von Fidschi und Kiribati mit linearen Regressionsgeraden. Grafik vom Autor anhand der PSMSL Pegeldaten erstellt

Die Regressionsgeraden ergeben folgende Pegel-Anstiegsgeschwindigkeiten:
Fidschi: 4,6 mm / pa
Kiribati: 1,23 mm / pa
Man kann ziemlich sicher sein, dass bei größerer Zeitlänge der Daten von Fidschi deren Regression schwächer ausfallen würde. Und es stellt sich die Frage, warum Kiribati – dessen Pegel den Wert vom Jahr 1977 ausweist – wie bei Klimaretter.Info gemeldet, stärker vom Pegelanstieg bedroht sein soll als Fidschi.

Interessant wird das Bild allerdings, wenn die weiteren, in Bild 2 bezeichneten Pegelstationen mit einbezogen werden:


Bild 4 Pegeldaten der in Bild 2 benannten Messstationen (ohne Normierung). Grafik vom Autor anhand der PSMSL Pegeldaten erstellt

Manche Leser dürfte es beim Ansehen von Bild 4 verblüffen, wie die Tidenpegel-Verläufe in der weltweit gefährdetsten Klimawandelregion seit der „ganz schlimmen Klimawandel-Zeit“ wirklich aussehen. Man kann diesen (zur Überbevölkerung neigenden) Atollen sicher sinnvoll helfen, mit verschiedenen Problemen zurecht zu kommen, jeder Cent zur Einsparung von CO2 ist dafür aber nutzlos ausgegeben.
Der Autor bleibt damit weiterhin bei seiner Aussage, welche sich anhand umfangreicher Recherchen immer neu belegt: Keine Insel der Erde ist wirklich direkt durch einen übernatürlichen, Klimawandel-bedingten Pegelanstieg gefährdet.

Recherchen:
EIKE: Tuvalu versinkt mal wieder– rechtzeitig zum Klimagipfel in Marrakesch
EIKE: Aus dem Lehrbuch zur Erzeugung von Klimaalarm Teil 2: So viel Meerespegel und Stürme hat es vor dem Klimawandel nie gegeben
EIKE: Aus dem Lehrbuch zur Erzeugung von Klimaalarm Teil 1 Kapitel: Wie macht man 13,1 Millionen Amerikaner zu Klima-Betroffenen
EIKE: Wie man den Meerespegel-Verlauf in die richtige Richtung dreht
EIKE: Schon fünf Salomonen-Inseln sind durch den Klimawandel versunken – obwohl der Pegel dort nicht gestiegen ist
EIKE: Ist eine kleine Ratte das erste, unschuldige Opfer des Klimawandels?
EIKE: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren
EIKE: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang
EIKE: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 2
EIKE: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 1 Die Malediven

Extremwetter-Ereignisse

Nun sind die Pegel nicht alles, was der Klimawandel dort verbrechen soll, es kommen ja noch die Stürme dazu. Dazu hat das IPCC im letzten AR5 seine schlimmen Aussagen des Vorgängerberichtes jedoch drastisch abschwächen müssen, weil die Alarmmeldungen einfach nicht belegbar waren:

IPCC Aussagen zu Extremwetter-Ereignissen Zusammenfassung

Tropische Stürme und Hurrikane
IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin.”
Übersetzung: “Keine robusten Trends bei den jährlichen Zahlen von tropischen Stürmen, Hurrikans und Stark-Hurrikans konnten in den letzten 100 Jahren im Nordatlantischen Becken ausgemacht werden.

Tropische Zyklone
IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”
Übersetzung: “Aktuelle Datensätze zeigen keine signifikanten beobachteten Trends bei der weltweiten tropischen Wirbelsturmfrequenz während des letzten Jahrhunderts und es ist ungewiss, ob ein berichteter langfristiger Anstieg der tropischen Wirbelsturm-Frequenz robust ist, nach Berücksichtigung der letzten Änderungen in den Beobachtungs-Möglichkeiten.“

Außertropische Zyklonen
IPCC 2013, AR5, WGI, Kapitel 2, Seite 220: “In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”
Übersetzung: “Zusammenfassend ist das Vertrauen in große Änderungen in der Intensität extremer aussertropischer Zyklone seit 1900 gering. Es gibt auch [nur] ein geringes Vertrauen für einen klaren Trend bei Sturm-Proxies wegen Inkonsistenzen zwischen den Studien oder wegen dem Fehlen von Langzeitdaten des letzten Jahrhunderts in einigen Teilen der Welt (vor allem auf der Südhemisphäre). Ebenso ist das Vertrauen in Trends in extreme Winde niedrig, wegen der Qualität und wegen Konsistenz-Problemen mit den analysierten Daten.“

Dürren
IPCC 2013, AR5, WGI, Technical Summery, Seite 50: ”There is low confidence in a global-scale observed trend in drought or dryness (lack of rainfall), owing to lack of direct observations, dependencies of inferred trends on the index choice and geographical inconsistencies in the trends.”
Übersetzung: “Es besteht ein geringes Vertrauen im globalen Maßstab beobachteten Trend an Dürre oder Trockenheit (Mangel an Niederschlag), aus Mangel an direkten Beobachtungen, Abhängigkeiten von abgeleiteten Trends auf der Indexauswahl und wegen geographischer Unstimmigkeiten in den Trends.“
sowie IPCC 2013, AR5, WGI, Kapitel 2, Seite 215: “In summary, the current assessment concludes that there is not enough evidence at present to suggest more than low confidence in a global scale observed trend in drought ordryness (lack of rainfall) since the middle of the 20th century, owing to lack of direct observations, geographical inconsistencies in the trends, and dependencies of inferred trends on the index choice. Based on updated studies, AR4 conclusions regarding global increasing trends in drought since the 1970s were probably overstated. However, it is likely that the frequency and intensity of drought has increased in the Mediterranean and West Africa and decreased in central North America and north-west Australia since 1950.”
Übersetzung: „Zusammenfassend kommt die aktuelle Bewertung zu dem Schluss, dass es zur Zeit nicht genug Hinweise und [nur] ein geringes Vertrauen in einen beobachteten globalen Trend an Dürre oder Trockenheit (Mangel an Niederschlägen) gibt, aus Mangel an direkten Beobachtungen in der Mitte des 20. Jahrhunderts, geographischen Inkonsistenzen in den Trends und Abhängigkeiten der abgeleiteten Trends auf der Indexauswahl. Auf Basis aktualisierter Studien waren die AR4-Schlußfolgerungen bezüglich global zunehmender Trends an Dürre seit den 1970er Jahren wahrscheinlich übertrieben. Es ist jedoch wahrscheinlich, dass die Häufigkeit und Intensität von Dürre im Mittelmeerraum und Westafrika sich erhöhen könnte und im Zentrum von Nordamerika und Nordwest-Australien seit 1950 abnehmen könnte.“

Nachtrag

Es ist bemerkenswert, dass alle diese Zitate und Aussagen in der 28-seitigen deutschen Fassung des Summary for policymakers (hier) fehlen!

Fazit

Vielleicht ist es kein Zufall, dass man als Klimabotschafterin keine „Klima-Fachfrau“, sondern eine Juristin genommen hat. Es würde beim Verteilen der von westlichen Politikern gern und in Mengen zu spendenden Klima-Hilfsgeldern sehr stören, wenn jemand unbequeme Fragen zur Datenlage stellen würde – so einfach das auch wäre. Das machen die 30.000 – 50.000 Klimagipfelteilnehmer nicht, und das will bestimmt auch niemand mehr ändern. Eine Juristin als Klimabotschafterin, welche ihre Länder unterstützen kann, den Klimavertrag optimal zu „nutzen“ ist da sicher hilfreicher.

Quellen

[1] Klimaretter.info, 06. Dezember 2016: Schönheitskönigin wird Klimabotschafterin
http://www.klimaretter.info/politik/nachricht/22366-schoenheitskoenigin-wird-klimabotschafterin




ARD-Wetterexperte Karsten Schwanke erklärt die Unwetter im Mai/Juni zu Beweisen der Klimaerwärmung

Gerade die Starkregenfälle in Süddeutschland seien doch Beweis genug, und der Wetterexperte präsentiert eine Niederschlagskarte vom Mai/Juni 2016, erstellt aus den Daten des Deutschen Wetterdienstes. Uns fiel sofort auf, dass der Ostalbkreis, also mein Heimatkreis mit einem dunklen Rot eingezeichnet ist, und dieser wird auch ausdrücklich als Hauptregengebiet von Herrn Schwanke genannt. Von der großen Überschwemmung in einem Teilort meines Heimatortes, nämlich in Hüttlingen-Niederalfingen, wusste er nichts, sondern Braunsbach sei ja auch nicht weit entfernt. Und unser abgesoffener Teilort Niederalfingen kam halt nicht in den Medien vor, weil wir den Zufluss, den Schlierbach mit Nebenbächen naturschutznah als FFH-Schutzgebiet belassen haben mit natürlichen Rückhaltezonen, im Gegensatz zu den Baumaßnahmen in den Tälern bei Braunsbach und Simbach, die von den Wassermassen weggerissen und als Geröll, Stein- und Schlammmassen in die Orte gespült wurden. Siehe: Details dazu hier  .

Und so entstanden dort ungleich höhere menschenverschuldete Schäden als in Niederalfingen. Wie sich nachträglich durch das Video herausstellt, hatten wir im Ostalbkreis sogar einen stärkeren Niederschlag, aber weniger Hochwasserschäden. Bisher gingen wir in Hüttlingen immer davon aus, dass der Niederschlag in Braunsbach viel stärker gewesen wäre. Insofern sind die Äußerungen mitsamt der Grafik des Wetterexperten eine gute Zusatzinfo für uns in Hüttlingen. Mit der Natur arbeiten lohnt sich auf Dauer doch. Trotzdem floss der sonst kleine Schlierbach in 80 cm Höhe auf der gesamten Talbreite durch den Ort.

Aber gehen wir nun näher auf die weiteren Interpretationen des Videos ein. Tatsache ist, die Starkregen waren im kälteren Süddeutschland. Herr Schwanke begründet diese Starkregen als Anzeichen der Erwärmung und bringt logische Beweise, denen ich im Folgenden widersprechen werde.

Zunächst ist seine physikalische Aussage richtig: Wärmere Luft kann mehr Wasser aufnehmen als kältere Luft. Deshalb würden die Starkniederschläge zunehmen. Doch Herr Schwanke ist selbst überrascht, dass die Grafiken des Deutschen Wetterdienstes über Niederschläge und Starkniederschläge über viele Jahrzehnte eine ebene Trendlinie zeigen, d.h. keine Zunahme, sondern nur mal stärkere Ausschläge nach oben, dann wieder trockene Jahre dazwischen. Er sagt selbst, aus den DWD-Grafiken könne man noch keine Zunahmen ablesen, es sei schwierig die Erwärmung zu finden. Aber es werde doch wärmer, glaubt er, und setzt dazu, man müsse schon mit mehr Extremwetter zukünftig rechnen und das seien erste Anzeichen gewesen, betont er ausdrücklich.

Da Herr Schwanke sich keine Temperaturgrafiken über den Mai und Juni beim Deutschen Wetterdienst besorgt hat, wollen wir ihm diese nachliefern.

Zunächst der Mai:

Zum Mai: Keinesfalls ist der Mai 2016  mit seinen 13,7 C an 14.ter Stelle der wärmsten Maimonate. Im Diagramm wurde er lediglich in Beziehung gestellt zu den 13 wärmsten. Die Ostalbwetterwarte gibt den Mai 2016 bei uns mit 12,4 C an, das wäre in der Grafik ganz unten.

Fakt: Im Süden Deutschlands und insbesondere im Ostalbkreis war der Mai 2016 sogar über ein Grad kälter als der Deutschlandschnitt: nur 12,4C anstatt 13,7 C. 2015 hingegen war der Mai bei der Ostalbwetterwarte noch um drei Zehntel wärmer als der DWD-Schnitt. Natürlich ohne Starkregen. Dieser Mai 2016 war also im Ostalbkreis besonders kalt und ausgerechnet an einem kalten Tag, den 29.Mai öffnete der Himmel die Schleusen über meinem Heimatort.

Damit steht fest, die eigentlich richtige physikalische Erklärung, dass wärmere Luft mehr Feuchtigkeit enthält, ist ungeeignet als Erklärung, weil es kälter und nicht wärmer wurde. Deshalb ziehen wir als weitere Überprüfung die Temperaturen des Monates Juni, mit den Daten des Deutschen Wetterdienstes über einen langen Zeitraum zu Rate.

Der Juni ist seit 1910 etwa gleich warm geblieben, wir kennen das gewohnte Bild, es gibt warme Phasen und kältere. Momentan befinden sich die Junitemperaturen auf einem absteigenden Ast. Baden-Württemberg gehörte diesen Juni zu den kühlsten und nassesten Bundesländern, die Ostalb lag über ein Grad unter dem DWD-Schnitt.

Bliebe noch die Gegenwartsbetrachtung der beiden Monate. Und hier wissen wir aus der Literatur, dass beide Monate in der Gegenwart ebenfalls fallende Trendlinien haben, und somit kälter werden. Bsp. Mai

Erg: Auch in der Gegenwart werden beide Monate kälter. Juni hier: http://www.eike-klima-energie.eu/news-cache/zum-sommerstart-die-vergebliche-suche-nach-der-klimaerwaermung-im-fruehsommermonat-juni/

Fazit: Die Temperaturgrafiken des DWD der beiden Monate zeigen: a) keine Erwärmung über einen längeren Zeitraum und b) auch keine Erwärmung in den beiden letzten Jahrzehnten.

Damit haben die Klimawissenschaftler ein klassisches Erklärungsproblem. Es stimmt zwar, dass wärmere Luftmassen mehr Wasserdampf enthalten, aber dieser physikalische Fakt passt gar nicht zu dem Hochwasser-Ereignis vom 29.Mai im Süden Deutschlands. Die Wissenschaft muss somit andere Erklärungen finden. Und noch etwas sollte bedenklich stimmen. Herr Schwanke ist anerkannter Wetterexperte und weiß nicht, dass die beiden Monate überhaupt nicht wärmer werden.

Ein einfacher Erklärungsversuch wäre: Es regnete so viel bei uns, weil der Mai im Ostalbkreis saukalt war. Oder, weil es so viel regnete, wurde es automatisch so kalt. Wissenschaftlich betrachtet, handelt es sich hierbei um Kreiserklärungen, die auch nicht zielführend sind. Den wirklichen Grund, weshalb gerade der Ostalbkreis vom lieben Gott so eingeweicht wurde, wissen wir in Hüttlingen auch nicht. Dipl.-Met. Hans-Dieter Schmidt hat im 2.Teil des nächsten Artikels versucht, den wahren Gründen, die dann in der Konsequenz zu einem Zufallsergebnis führen, näherzukommen. http://www.eike-klima-energie.eu/klima-anzeige/hintergruende-der-unwetter-in-sueddeutschland-vergleich-von-braunsbach-und-niederalfingen/

Mit Kohlendioxid, Treibhausgasen und Erwärmung haben die Starkregenfälle auf der Ostalb und in Süddeutschland nichts zu tun. Das Wetter bleibt chaotisch und zufallsbedingt.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimawissenschaftler.




Klimaforscher, die neuen Weltuntergangspropheten und ihre Kirche und willige Gefolgschaft

Und hier kommt die Klimaforschung ins Spiel. Einige Klimawissenschaftler haben sich inzwischen von der seriösen Klimaforschung abgewandt und präsentieren der willigen Gefolgschaft ein Weltuntergangsszenario nach dem anderen. Eines noch schrecklicher als das andere. Und das nicht ganz uneigennützig, wie ich meine, sondern auch um ihre persönliche politische Agenda durchzusetzen und die eigene Karriere voranzubringen.

Jüngstes Beispiel ist ein Artikel von Stefan Rahmstorf in seinem Klimablog der KlimaLounge: “Westantarktis überschreitet den Kipppunkt”.

CO2 und Umweltangst: Video über einen physisch Kranken der sich für Umweltschäden voll verantwortlich fühlt

Dort verkündet er:

“Jetzt ist der Westantarktische Eisschild instabil geworden und hat seinen unaufhaltsamen Zerfall begonnen. Das wird den Meeresspiegel deutlich steigen lassen. Eine Zäsur der Menschheitsgeschichte. […] Damit sind mehrere Meter Meeresspiegelanstieg und der Untergang von Küstenstädten und ganzen Inselstaaten vorprogrammiert und praktisch unausweichlich geworden.”

Und die Medien und die treue Gefolgschaft greifen diese Botschaft willig auf und verkünden sie.

Video einer 3Sat-Sendung zur zur Kirche avancierten Klimaangst

Hans Joachim Schellnhuber, der Leiter vom Potsdam Institut für Klimafolgenforschung (PIK) und Klimaberater der Kanzlerin,präsentierte im ZDF heute journal am 23.09.2014 Stefan Rahmstorfs Weltuntergangsszenario vom unaufhaltsamen Zerfall des Eisschildes der Westantarktis. Mehre Meter Meeresspiegelanstieg, der Untergang von Ganzen Küstenlinien und Völkerwanderungen seinen damit vorprogrammiert. Und die Schuld daran trägt natürlich die vom Menschen ausgelöste Klimaerwärmung! “Deutlicher kann die Natur nicht mehr zu uns sprechen!”, sagt Schellnhuber.

Ja früher, früher wären, wenn die Natur zu einem spricht, vielleicht noch die Leute in den weißen Kitteln gekommen. Heute ist das eine weltbewegende Botschaft.

Geht man dem Weltuntergangsszenario von Rahmtorf und Schellnhuber auf den Grund, so stellt man sehr schnell fest, dass es sich hierbei um eine maßlose Übertreibung handelt, die so kein anderer, außen stehender Glaziologe, oder Ozeanograph getätigt hat, oder sogar veröffentlicht hat. Eine derartige Aussage würde ein Peer-Review-Verfahren in einem seriösen Fachjournal nicht überstehen. Und auch eine Schuld des Menschen nicht nicht nachweisbar. Denn das Wasser, welches vermehrt vor der Antarktis durch eine verstärke Westwinddrift aufsteigt und das Schefeis der Westantarktis von unten antaut und zum Aufschwimmen und Abbrechen bringt ist altes Tiefenwasser, dessen Temperatur unterm Eis bei nur +1°C liegt. Dieses Wasser ist über 100 Jahre alt, hatte also vor über 100 Jahren zuletzt Kontakt mit der Atmosphäre gehabt. Die sogenannte Kleine Eiszeit war zu diesem Zeitpunkt gerade erst abgeklungen und der Mensch hatte erst angefangen vermehrt Treibhausgase zu produzieren.

Die Gläubigen kaufen die Botschaft von Rahmstorf und Schellnhuber aber bereitwillig ab. Zweifel sind nicht erlaubt und Abtrünnige werden angegangen und diskreditiert.

“Ich war am weltweiten Treffen der Geophysiker in diesem Winter in San Francisco. Al Gore sprach. Und seine Botschaft lautete: “Haben Sie den Mut, dem Konsens beizutreten, machen Sie das öffentlich, und nehmen Sie sich die Freiheit, Abtrünnige zu unterdrücken.” Das Publikum war begeistert.” (Richard Lindzen 2007)

Der halbwegs aufgeklärte Mensch sollte bei derartigen Weltuntergangs-Botschaften glauben, jetzt ist das Kind endgültig in den Brunnen gefallen und alle weiteren Rettungsmaßnamen für das Klima vergebens. Aber weit gefehlt. Es werden neue, noch erschreckendere Szenarien aus den Hut gezogen, die gerade noch verhindert werden können. Ja wenn, wenn der Mensch noch einschneidendere Gegenmaßnahmen trifft und für seine getätigten Sünden noch mehr Buße tut.

Anders Levermann, Kollege von Rahmstorf und Schellnhuber vom PIK verkündete am 24.09.2014 in den Potsdamer Neuste Nachrichten:

“Auch im Osten des Eiskontinents tut sich etwas. „Wir haben entdeckt, dass es auch dort eine ähnliche Situation gibt, die allerdings noch nicht gekippt ist“, erklärt der Klimaforscher. Das Abschmelzen eines Eisbeckens im Wilkes-Land könnte einen Meeresspiegelanstieg auslösen, der nach Einschätzung der Wissenschaftler ebenso stark das Gesicht unseres Planeten verändern würde wie der Prozess im Westen. Mit großer Wahrscheinlichkeit wäre dann auch für Küstenstädte wie Tokio, Mumbai und Dublin ein erhebliches Risiko der Überflutung gegeben.

Die Wissenschaftler haben berechnet, dass ein Abschmelzen des relativ kleinen „Eiskorkens“, der ein Eisfeld an der ostantarktischen Küste derzeit zum Meer hin begrenzt, einen unaufhaltsamen Prozess auslösen würde. Große Eismassen würden dann für mehrere Jahrhunderte in den Ozean fließen und damit den Meeresspiegel weiter ansteigen lassen. Dadurch würden zu den drei Metern Anstieg des Meeresspiegels durch den Eisschild der Westantarktis noch einmal weitere drei bis vier Meter hinzukommen – zusammengenommen also bis zu sieben Meter.”

Spätestens hier sollten alle Alarmglocken leuten und zwar jene, die einem sagen, kann das wirklich alles angehen? Aber nichts da. Die Verkündungen der Weltuntergangspropheten werden von der treuen Anhängerschaft bis aufs Messers Schneide verteidigt, auch hier im Blog.

Aber es geht noch weiter. Stefan Rahmstorf hat am 06.09.2014 in climatestate eine Botschaft an die Menschen gerichtet, die den Klimawandel ernst nehmen:

Chris Machens: Hast du eine Nachricht für die Menschen die den Klimawandel ernst nehmen?

Stefan Rahmstorf: Darüber sprechen. In der Familie, im Freundeskreis, am Arbeitsplatz. Die norwegische Sozialwissenschaftlerin Kari Norgaard hat schön herausgearbeitet, wie bewusst wir die Klimakrise aus unseren Alltagsdiskursen verdrängen.(3) Weil wir uns hilflos und mitschuldig fühlen oder auch nicht als Moralapostel und Spielverderber daherkommen wollen.

Trotzdem müssen wir Wege finden, darüber zu sprechen und auch in unserem Wirkungskreis das Thema positiv anzupacken. Aufs Rad umsteigen, Ökostrom beziehen, im Nahbereich Ferien machen usw., und dabei auch merken und weitersagen, dass dies nicht Verzicht bedeutet. Ein nachhaltiger Lebensstil mit Entschleunigung und weniger Konsum bringt auch Freude und Lebensqualität.

Es geht also um Jene, die sich hilflos und mitschuldig fühlen. Solche Schuldgedanken plagen aber nur die wirklich Gläubigen. Skepsis an den Weltuntergangsszenarien ist also gar nicht erst gefragt, oder vorgesehen und geduldet. Es gilt sich schuldig zu fühlen, oder eine solche Schuld zu vermitteln.

Und mal ehrlich, Radfahren, Ökostrom beziehen und Ferien in Nahbereich machen, sind nur Alibihandlungen, echter Klimaschutz sieht anders aus. Spätestes an diesem Punkt sollte jeder echte Klimaschützer merken, dass es hier nicht um dem Klimaschutz geht.

Währen ein Herr Rahmstorf, Schellnhuber und Levermann von ihren Botschaften überzeugt, würden sie sofort das Fliegen einstellen und sich selbst und ihren Familien ein Leben in CO2-Verzicht auferlegen. Das können aber dann doch lieber die anderen tun.

Viel besser ist es da doch, sich durch den Erwerb von CO2-Pins, wie sie Stefanie Rahmstorfs anbietet, Ablass von seinen CO2-Sünden zu erkaufen.

Offenbar sind sich die Weltuntergangspropheten auch nicht darüber bewusst, oder sie nehmen es billigend in Kauf, dass labile Menschen besonders anfällig für solche Weltuntergangs-Botschaften sind und das zu schweren psychischen Erkrankungen bis hin zum Suizid führen kann. Hier nur ein Beispiel dafür:

Die Weltuntergangspropheten verkünden statt dessen immer weitere und noch erschreckendere Schreckensszenarien.

Auf der AGU-Tagung in Dezember 2008 erklärte James Hansen gar einen venusartigen “Runaway Greenhouse Effect” für möglich. Ein sich verselbstständigender Treibhauseffekt, bei dem sich verschiedene Rückkopplungsmechanismen im Klimasystem soweit aufschaukeln, dass es zu weitaus höheren Temperaturen kommt, als bisher angenommen (Venus-Syndrom).

Ein weiteres Szenario sieht ein sich verselbstständigendes Abtauen des grönländischen Eisschildes und einen Meeresspiegelanstieg von mehreren Metern vor, wenn eine bestimmte Schwelle erst überschritten wird.

Auch über ein mögliches Versiegen des Nordatlantikstroms und einer damit einhergehende großen Abkühlung in Europa wird noch spekuliert, erneut von Stefan Rahmstorf.

Es gibt noch etliche solcher Kipppunkte, die einige Klimaforschung parat haben, um einen weiteren noch radikaleren Klimaschutz zu fordern und rechtfertigen.

Ich hätte da auch noch ein Szenario parat:

Aus Steven Hawkins Idee eines möglichen, mathematischen Modells machen einige Leute ein Weltuntergangsszenario. Genauer: aus dem Vorwort zu einem Buch, in dem Hawkins schrieb: “Das Higgs-Potential hat die beunruhigende Eigenschaft, bei Energien über 100 Milliarden Gigaelektronenvolt möglicherweise metastabil zu werden. Das könnte bedeuten, dass das Universum einen katastrophalen Vakuumzerfall erleben könnte, wobei eine Blase des echten Vakuums sich mit Lichtgeschwindigkeit ausdehnt. Das könnte jederzeit geschehen und wir würden es nicht kommen sehen.”

In dem Sinne, frohes Spekulieren.

Anmerkung der Redaktion:

Passend dazu das Wort der österreichischen Dichterin Marie-Luise Ebner Eschenbach: „Wer nichts weiß muss alles glauben“ 

Dass diese Analyse die Realität beschreibt zeigt glasklar der Artikel: “Spiritualität statt Naturwissenschaft: Theologische Analysen zum Klimadiskurs Angst als moderne Form der Gottesfurcht” in der jüngsten Ausgabe der „Jungen Freiheit“ in der diese Auffassung ausführlich als überwiegende Meinung der katholischen Kirche zitiert wird. Siehe Zitat unten. Unser Leser Elmar Oberdörfer hat an den Verfasser, dem Prof. für (katholische) Moraltheologie Michael Rosenberg einen Brief dazu geschrieben. Sie finden ihn als pdf im Anhang

Artikel über Prof. Rosenberg

Spiritualität statt Naturwissenschaft: Theologische Analysen zum Klimadiskurs 

Angst als moderne Form der Gottesfurcht

Für Michael Rosenberg, Professor für Moraltheologie an der Katholisch-Theologischen Privatuniversität in Linz, ist der Klimadiskurs „mehr ein ethisch-spiritueller als ein naturwissenschaftlich-technischer Diskurs“. Das heißt, „es geht nicht primär um Klimadaten und deren Deutung, sondern um Weltanschauungen und Wertorientierungen“ (Gaia – Ökologische Perspektiven für Wissenschaft und Gesellschaft, 2/2014). Deshalb befürwortet der erklärte Gegner „klimaskeptischer“ Positionen auch den apokalyptischen Duktus der Apologeten des Klimawandels: „Angst rüttelt wach, reine Vernunft schläfert ein. Klimaschützerische Positionen wollen aus diesem Grund gezielt und mit guten Gründen Angst wecken.“ Das gleiche gelte für die Sorge vor Radioaktivität und Ressourcenerschöpfung: Infolge all dieser Ängste entstehe jetzt unter den Menschen eine moderne Form der Gottesfurcht, welche nach alttestamentarischem Verständnis als Mutter der Weisheit gelte. Damit liegt nun erstmals das explizite Eingeständnis eines akademischen Theologen vor, daß der Glaube an den Klimawandel tatsächlich eine zutiefst religiöse Dimension hat. Zugleich erklären die Ausführungen Rosenbergs den bemerkenswerten Eifer der Deutschen Bischofskonferenz und des katholischen Hilfswerkes Misereor in Sachen „Klimaschutz und Energiewende“. (wk)

ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):

♦  Rahmstorf in 3sat nano – Fehler ändern die Botschaft des IPCC-Berichts nicht

  Die Gletscher lügen nicht

  Das Klima-Kartell? Von Storch, Latif und Rahmstorf äußern sich zu Climategate

Der Beitrag wurde von Science Sceptical (hier) übernommen

Related Files




Anmerkung zur Konsens-Legende

Dem Doran/Zimmerman 97%-Konsens ein Licht aufgesteckt

Kürzlich habe ich die Antwort auf eine Frage gefunden, die mich seit nahezu eineinhalb Jahren quälte.
Margaret Zimmerman hat 2008 an 10.257 Geo-Wissenschaftler an Hochschulen und in Regierungsinstitutionen zwei Fragen gestellt, die von 3.146 beantwortet wurden. Diese Erhebung war die Grundlage für die berüchtigte Behauptung vom “97%-Konsens”.
Zur Berechnung des Grades des Konsens der Experten wurden bei der Auswertung laut dem Doran/Zimmerman-Artikel nur 79 von allen Antworten herangezogen. Zitat aus Doran/Zimmerman:
„In unserer Befragung galten als die höchstspezialisierten und fachkundigsten Beantworter (in Bezug auf den Klimawandel) diejenigen, die als ihr Fachgebiet „Klimawissenschaft“ angegeben hatten und die mehr als 50% ihrer jüngeren fachbegutachteten Veröffentlichungen dem Thema „Klimawandel“ gewidmet hatten (das waren insgesamt 79 aus der Gesamtheit). Von diesen Spezialisten antworteten 96.2% (76 von 79) auf die Frage 1 „angestiegen“ und 97.4% (75 von 77) auf die Frage 2 mit „Ja“.
Die Grundlage für die Behauptung vom “97%-Konsens” steht in diesem Zitat:
[von] “… den am höchsten spezialisierten und kenntnisreichsten Beantwortern (in Bezug auf den Klimawandel) … haben 97,4% (75 von 77) mit “Ja” auf Frage 2 geantwortet.“

Diese Behauptung ist falsch.

Die beiden Fragen lauteten:

Frage 1: “Im Vergleich mit den Konzentrationen vor 1800, meinen Sie, dass die Globaltemperaturen im Allgemeinen angestiegen. gefallen oder relativ konstant geblieben sind?“ 76 von 79 (96.2%) haben mit “angestiegen” geantwortet.
Frage 2: “Meinen Sie, dass menschliche Tätigkeit ein signifikanter beitragender Faktor zur Veränderungen der mittleren globalen Temperaturen ist?” 75 von 77 (97.4%) antworteten mit “Ja.”

Folgende Frage ließ mir keine Ruhe: Warum antwortete eine unterschiedliche Zahl von Leuten (79 gegenüber 77) auf die beiden Fragen? Was ist mit den beiden anderen Beantwortern geschehen?
Die Antwort darauf steht nicht im Doran-Artikel.

Aber sie steht im Zimmerman-Bericht, von dem ich schon im März 2012 ein Exemplar gekauft habe. Dumm, dass ich dieses Exemplar gelesen und sogar den einschlägigen Teil zitiert habe und dass mir erst jetzt auffiel, dass dort die Antwort auf meine bohrende Frage steht.

Hier sind alle Fragen aus der Zimmerman-Erhebung:

Frage 1: “Im Vergleich mit den vor 1800 Konzentrationen, meinen Sie. dass die Globaltemperaturen im Allgemeinen angestiegen. gefallen oder relativ konstant geblieben sind?“
1. Angestiegen
2. Gefallen
3. Relativ konstant geblieben
4. Keine Meinung/Weiß nicht

Frage 2: “Meinen Sie, dass menschliche Tätigkeit ein signifikanter beitragender Faktor zur Veränderungen der mittleren globalen Temperaturen ist?”  [Diese Frage sollten diejenigen nicht beantworten, die auf Frage 1 " „Relativ konstant geblieben“ antworteten.]
1. Ja
2. Nein
3. Ich bin mir nicht sicher

Frage 3.  Was halten Sie für das zwingendste Argument, das Ihre vorhergehende Antwort unterstützt (oder für die, die sich nicht sicher sind: Warum sind Sie sich nicht sicher?) [Diese Frage sollten diejenigen nicht beantworten, die auf Frage 1 mit „Relativ konstant geblieben“ antworteten.]

Frage 4. Schätzen Sie bitte den prozentualen Anteil Ihrer Geo-Wissenschaftler-Kollegen, die meinen dass menschliche Tätigkeit ein beitragender Faktor zum Klimawandel ist.

Frage 5.  Welchen prozentualen Anteil an Ihren veröffentlichten und fachbegutachteten Papieren beschäftigten sich thematisch mit dem Klimawandel?

Frage 6. Alter

Frage 7. Geschlecht

Frage 8. Was ist Ihr höchster erreichter Bildungsabschluß?

Frage 9. Mit welcher Kategorie können Sie am besten Ihre Fachkenntnisse bezeichnen?

Merken Sie etwas?  Wenn ein Beantworter “Relativ konstant geblieben” auf die erste Frage antwortete, dann wurde ihm die zweite Frage nicht mehr gestellt!
Das zeigt, warum nur 77 Antworten auf die zweite Frage gemeldet wurden. Zwei der 79 Spitzen-Klimatologen hatten “Relativ konstant geblieben” auf die erste Frage geantwortet. Und denen wurden dann auch nicht die zweite Frage gestellt, und sie wurden nicht in die Berechnung der angenommenen 97.4%-Zustimmung einbezogen.

Das bedeutet, dass nur 75 von 79 (94.9%) der  “am höchsten spezialisierten und kenntnisreichsten Beantworter” die Antworten gaben, die auf beide Fragen erwartet wurden.

Also, trotz des Stellens “dummer Fragen”, die sogar die meisten Skeptiker "Klimawandel-korrekt” beantworten würden und trotz des Ausschlusses von über 97% der erhaltenen Antworten, gibt es diese 97%-Zustimmung nicht.
Tatsächlich war es nur eine 94.9% Zustimmung.

Link auf die Seite des Autors: David Burton

Übersetzung: Helmut Jäger, EIKE




Der heiße, überwiegend trockene Juli 2013- (k)ein ungewöhnliches Ereignis?

Die Trockenheit der vergangenen Juli- Wochen ließ viele Pflanzen welken und Wiesen verdorren- und das nach dem Frühsommer- Hochwasser im Mai/Juni. Doch wird der Juli tatsächlich immer trockener? Für die DWD- Station Erfurt- Bindersleben ergibt sich folgendes Bild:

Man erkennt, dass der Juli zumindest in Erfurt während der vergangenen reichlich 3 Jahrzehnte eher feuchter wurde- die angeblich durch den „Klimawandel“ zunehmende Sommerdürre blieb bisher aus!

Und was ist mit der „besorgniserregend zunehmenden Hitze“?

Insgesamt wurde der Juli etwas wärmer. Besorgniserregend ist das nicht- auch in der ferneren Vergangenheit gab es immer wieder längere warme Phasen und sehr heiße Juli- Monate, so 1959, 1947, 1946, 1941 oder 1911. Nach der Messreihe von Berlin- Tempelhof (Quelle: Berliner Wetterkarte) sind in fernster Vergangenheit die Juli- Monate 1756, 57, 59, 63, 64, 75, 81 und 94 sowie 1803, 26, 34, 59, 65 und 74 mit mindestens 21°C Monatsmittel (da fließen auch die kühlen Nachtwerte mit ein!) deutlich wärmer als das dort zu erwartende Langjährige Mittel von etwa 18 bis 19°C ausgefallen; „Spitzenreiter“ war der Juli 1834 mit 23,0°C. Und warum wurde der Juli in den vergangenen Jahrzehnten insgesamt etwas wärmer? Die Hauptursache ist nicht etwa der steigende CO2- Gehalt der Luft- es ist die länger und intensiver scheinende Sonne. Die folgende Abbildung zeigt, dass auch bei langzeitlicher Betrachtung die Sonnenscheindauer den dominieren Einfluss auf die Juli- Temperaturen hat:

In Potsdam (Quelle des Datenmaterials: PIK) beeinflusste während der vergangenen 120 Jahre die Sonnenscheindauer die Variabilität der Juli- Temperaturen zu fast 70% – je länger die Sonne schien, desto wärmer war es meistens auch. Und dass die Sonnenscheindauer tatsächlich zugenommen hat (bei linearer, langfristiger Betrachtung um fast eine Stunde pro Julitag) zeigt die letzte Abbildung (Quelle des Datenmaterials: PIK):

Auch bei der Sonnenscheindauer gibt es- ähnlich wie bei anderen meteorologischen Größen- periodische Fluktuationen, erkennbar an der rötlichen Ausgleichskurve. Der Juli 2013, in diesen Abbildungen noch gar nicht enthalten, bestätigte den dominanten Einfluss der Sonnenscheindauer, denn trotz vorherrschender Nordwest-, Nord- und Nordostströmung heizte die in vielen Regionen mit weit über 250 Monatsstunden deutlich übernormal scheinende Sonne die Luftmassen subpolarer Herkunft stark auf; nur die kurzen Sommernächte fielen mit Minima teilweise um oder sogar unter 10°C empfindlich kühl aus. Erst im letzten Monatsfünftel bescherte uns dann eine südliche Wetterlage auch sehr hohe Nachttemperaturen. Außerdem sei noch erwähnt, dass neben der Sonne auch verschiedenste Wärmeinsel- Effekte durch geänderte Landnutzung, zunehmende Bebauung und Versiegelungen sowie Wärmeemissionen (Abwärme aus Industrie, Verkehr und Haushalten) zu der leichten, aber keinesfalls besorgniserregenden Erwärmung beigetragen haben.

Dieses Wissen verschafft uns angesichts der aktuellen Hitze zwar keine absolute Abkühlung- aber wenigstens hilft es dabei, einen kühlen Verstand zu bewahren. Es wäre schön, wenn derartige, nüchterne Fakten auch endlich mal in unseren öffentlich- rechtlichen Medien Berücksichtigung fänden.

Verfasst und zusammengestellt von Stefan Kämpfe, Weimar, 25. Juli 2013.

  




Paradigmenwechsel: Klima als Emergenzsystem betrachtet

Langsame Verschiebungen in thermoregulierten Emergenzsystemen

Willis Eschenbach

In meinem letzten Beitrag über “Emergente Klima-Phänomene“ habe ich ein neues Paradigma für das Klima benutzt. Nach dem aktuellen Paradigma ist „Klima“ ein System, in dem die Temperatur sklavisch den Änderungen der „Inputs“ folgt. In meinem Paradigma dagegen lassen natürliche temperaturgeregelte Systeme die Temperatur innerhalb enger Grenzen schwanken. Im letzen Jahrhundert schwankte die Temperatur beispielsweise nur um etwa ± 0.3°C, eine Temperaturvariation von nur einem Zehntel eines Prozents.
Ich meine, dass diese erstaunliche Stabilität in einem System, dessen Temperatur von so etwas veränderlichem und launischem wie Wolken und Wind gesteuert wird, ein klares Anzeichen dafür ist, dass hier ein starker thermostatischer Mechanismus wirkt. Genauer: ein Bündel von ineinandergreifenden thermostatischen Mechanismen im Zusammenwirken beim Regeln der Temperatur. 

Abbildung oben rechts.: Das Verhalten von Vogel- oder von Fischschwärmen ist ein Emergenz-Phänomen. [Definition am Schluss; zu Emergenzsystemen mehr hier]

So erhebt sich also eine Frage: Obwohl die Temperaturänderung recht klein ist – mit Verschiebungen von nur einigen wenigen Zehnteln eines Prozentes pro Jahrhundert – also weniger als einem Grad – steigt zuweilen die durchschnittliche Globaltemperatur, manchmal aber fällt sie.

Was also könnte diese langsamen, Jahrhunderte oder Jahrtausende andauernden Temperaturverschiebungen verursachen? Sind es Veränderungen der Sonne?
Die Erklärung sollte nicht bei der Sonne gesucht werden, sondern nach meiner Auffassung hier:

Das oben erwähnte und von der Temperatur geregelte System beruht auf dem Beginnzeitpunkt und der Dauer von emergenten Temperatur-Phänomenen. Es beruht nicht auf der Stärke von Antrieben (einfallende Sonnen- oder Treibhaus-Strahlung).

Ich meine also, dass das Regelungssystem anspringt, wenn die lokale Temperatur über die kritische Grenze für die Wolkenbildung ansteigt. Im Ergebnis bleibt die globale Durchschnittstemperatur der Erde eigentlich relativ unbeeinflusst von den Veränderungen der Stärke der Antriebe, ob sie nun von der Sonne kommen, vom CO2, von Vulkanen oder sonstwoher. Weil das so ist, verläuft die Temperatur weiter wie bisher, trotz der Vulkanausbrüche oder den Meteoren. Man bedenke, dass das System bei der gegenwärtigen Temperatur ständig variierend etwa ein Viertel der einfallenden Sonnenenergie über die Wolkenreflexion zurückwirft. Es könnte viel wärmer sein, als es tatsächlich ist, das ist aber nicht der Fall.

Das System regelt also die Menge der einfallenden Sonnenenergie so ab, dass die Temperatur innerhalb gewisser Grenzen gehalten wird. Dem Regelungssystem macht es nichts aus, dass der Sonnenantrieb ständig aus vielerlei Gründen schwankt: wegen des Staubs, wegen der Vulkane, wegen der 11- oder 22-jährigen Solarzyklen. Das Thermoregulationssystem beruht nicht darauf, wieviel Energie von der Sonne oder vom CO2 kommt. Die Temperatur beruht nicht auf den tatsächlichen Antrieben: wir wissen, dass es mehr als genug Antriebe gibt, die uns braten könnten. Die Temperatur wird stattdessen von den ewigen Gesetzen der Physik des Windes, der Wellen, des Drucks geregelt, und vor allem durch die Wolkenbildung. Wenn die Sonne hochsteigt, steigen die Wolken mit hoch, die Balance wird gehalten.

Und hier ist meine Erklärung, warum es so schwer ist, ein starkes und klares solares Signal in den Temperaturganglinien zu finden.  Ja, ja, man kann Anzeichen finden, kleine Fetzchen, schwache Korrelationen hie und da, doch insgesamt sind kaum Sonne-Klima-Korrelationen zu finden, die dem gegenwärtigen Paradigma zufolge sichtbare Wirkungen zeigen müssten. Ich halte dies für den Beweis, dass ingesamt die globale Durchschnittstemperatur keine Funktion des Antriebs ist. Die Sonne wird schwächer und stärker, Vulkane sind seit Jahrhunderten ausgebrochen, Meteore haben die Erde getroffen … die Wolken passen sich ganz einfach an und bescheren uns eine gleichbleibende Wärme. Diese schwache Abhängigkeit des Outputs vom Input ist genau das, was man in jedem sehr komplexen System zu erwarten hat.

Wenn die Sonne nicht die Ursache des über Jahrhunderte andauernden langsamen Anstiegs oder Absinkens der globalen Durchschnittstemperatur an der Erdoberfläche ist, welche möglichen anderen Beschuldigten können wir dann vor Gericht zitieren?

Die üblichen Verdächtigen würden im Bereich von Faktoren zu finden sein, welche mit dem Anfang und der Dauer der Wolkenbildung und deren Beständigkeit zu tun hat, oder auch mit ihrer Albedo (Färbung). Unglücklicherweise ist die Wolkenbildung ein komplexer und noch kaum verstandener Vorgang. Wassertröpfchen in Wolken bilden sich um einen “Nukleus”, eine Art von Partikel. Das kann Meersalz sein, Staub, organisches Material, Aerosole, verschiedene Typen und Arten von Mikro-Organismen, schwarzer Ruß; es gibt eine ganze Menge von bekannten Faktoren, aber keine klaren Beweise, wie oder warum es so oder anders ist, oder wie die Faktoren wirken, wenn sie sich verändern. Hier ist ein Zitat aus dem Abstract eines wissenschaftlichen Papiers von 2013. (Hervorhebung vom Autor):

Die Zusammensetzung und das Vorkommen von Mikroorganismen in der mittleren bis oberen Troposphäre (8–15 km Höhe) und deren Rolle bei der Interaktion zwischen dem Aerosol-Wolken-Niederschlag stellt wichtige und ungelöste Fragen an die Biologie und die Atmosphärenwissenschaft. Insbesondere kennen wir die Mikroorganismen in der Luft über den Meeren nicht, da bis jetzt die meiste Arbeit auf Proben beschränkt ist, die nahe der Erdoberfläche genommen worden sind. (Quelle)

Noch ein Beispiel:

Cumulus-Wolken bilden sich durch den Aufstieg feuchter Luftpakete. Eine  ungelöste Frage der Wolkenphysik ist, warum beobachtete Tröpfchenspektren aus Cumuluswolken, sogar aus deren Mitte, breiter sind, als die Spektren, die aus der Tröpfchen-Nukleation und der Kondensationszunahme in adiabatisch aufsteigenden Luftpaketen zu erwarten sind. (Pruppacher and Klett, 1997). (Quelle)

Cumulus-Wolken sind eine der am weitesten verbreiteten Arten und noch nicht einmal deren Wolken-Nukleation haben wir verstanden. Das Problem liegt darin, dass so viele Faktoren Einfluss auf die Entstehung und Dauer der Wolkenbildung und des Niederschlags haben: Größe und Zusammensetzung der atmosphärischen Aerosole, die komplexe Interaktion zwischen den Aerosolen und den verschiedenen organischen und anorganischen atmosphärischen Chemikalien, Ionen, freien Radikalen, natürlichen und menschengemachten Partikeln, dazu die verschiedenen Typen und Mengen von Mikrobenpopulationen in der Atmosphäre, dazu die Fähigkeit einer Chemikalie, sich mit einer anderen zu verbinden und dadurch die Oberflächeneigenschaften einer anderen Substanz völlig zu verändern. Das alles hat das Potential, die Entstehung und Dauer des Niederschlags und der Wolkenbildung zu beeinflussen, dazu noch deren optische Eigenschaften. Weil das so ist, mischen sie alle kräftig mit, wenn es um Temperaturverschiebungen im Jahrhundert-Maßstab geht (vielleicht auch über kürzere Zeiträume).

Eine weitere Ursache für die langsame Verschiebung könnte in einem vermuteten Zusammenhang mit der kosmischen Strahlung liegen, in der Kette

solares Magnetfeld –> Veränderung der kosmischen Strahlung –> Änderungen in der Wolken-Nukleationsrate.

Ich sehe keinen theoretischen Grund, warum das nach den bestehenden Gesetzen der Physik unmöglich sein sollte.
Als Kind habe ich eine “Nebelkammer” gebastelt, um die aus einer Armbanduhr kommende Radioaktivität zu sehen. Ein Problem bei der Frage nach der kosmischen Strahlung besteht aber darin, dass keine starken Korrelationen zwischen der Sonne und dem Klima gefunden worden sind, trotz des ausgiebigen Durchkämmens der Temperatur-Ganglinien auf Hinweise für eine Sonne/Klima-Verbindung. Es gibt schwache Korrelationen, aber nichts Auffälliges. Das heißt nicht, dass es sie nicht gäbe, es könnten aber Anzeichen für deren Schwäche sein … oder auch Anzeichen für unsere Unkenntnis …

Ein weiterer Grund könnte in den Auswirkung der allmählichen Veränderung im Erdmagnetfeld auf die Gewitter liegen. Gewitter haben ein riesiges und ein noch kaum verstandenes elektromagnetisches Komplement (man denke nur an die Blitzschläge). Sie bewirken einen unglaublich komplexen elektromagnetischen Austausch, der die Atmosphäre mit der Erdoberfläche verbindet. Das elektromagnetische Komplement verbindet sie elektromagnetisch von den „Kobolden“ [Näheres hier], die sich in den Gewittertürmen hoch über der umgebenden Tropopause bilden, bis hinunter auf die Erde, wo über flüchtige mattleuchtende Kanäle elektromagnetische Ströme auf und nieder laufen.

Gewitter sind zudem unabhängige natürliche elektrische Van-de-Graaf-Maschinen, sie strippen Elektronen in einem Bereich des Gewitters, transportieren sie meilenweit weg und fügen sie wieder in einem elektrischen Donnerbogen an. Wir wissen überhaupt nicht, welche Erscheinungen welche Wirkungen wie lange auf Gewitter ausüben, wie z. B. die langsame Veränderung der Magnetpole wirkt, wie die Veränderungen der Magnetosphäre oder des Sonnenwindes. Wir müssen also die langsamen Veränderungen der globalen magnetischen und elektrischen Felder in unsere Liste der Wirkmöglichkeiten aufnehmen, allein schon deshalb, weil wir so wenig darüber wissen.

Die nächste Möglichkeit für langsame Veränderungen hat mit der Idee der Scheidepunkte zu tun (bifurcation points). Nehmen wir als Beispiel den Wechsel zwischen den zwei Zuständen der Pazifischen Dekadischen Oszillation (PDO). In jedem Zustand der PDO gibt es eine quasi-stabile (jahrzehntelange) Konfiguration der Meeresströmungen. Zu gewissen Zeitpunkten – wir wissen nicht, warum – ändert sich diese Konfiguration der Meeresströmungen und sie wird ersetzt durch einen völlig neuen und anderen quasi-stabilen (jahrzehntelangen) Zustand. Anders gesagt: da gibt es irgendwo drin einen Scheidepunkt im jährlichen Anschwellen und Abnehmen der Strömungen und irgendwann nehmen die Strömungen einen anderen Verlauf als bislang. Schließlich wechselt der gesamte Nordpazifik in einen anderen Zustand.

Allein schon theoretisch muss einer dieser beiden Zustände wirksamer als der andere sein in der großen Wärmemaschine, die wir “Klima” nennen. Mit viel  Arbeit wird Energie vom Äquator zu den Polen bewegt. Und es gibt tatsächlich einen deutlichen Unterschied. Einer der beiden Zustände heißt „warm“, der andere „kalt“.

Auf den ersten Blick müsste man denken:

FALLS die Pazifische Dekadische Oszillation ständig im gleichen Zustand verbliebe – aus welchen Gründen auch immer – würde die Welt insgesamt wärmer oder kälter sein.

Aber nun möchte ich erklären, warum meiner Meinung nach PDO oder El Nino/La Nina, oder die Nordatlantischen Oszillationen nichts mit den langsamen Temperaturverschiebungen im Temperaturregelsystem zu tun haben.

Der Grund ist, dass hier überall Emergenzsystem-Phänomene vorliegen, wie bei den Gewittern. Nehmen wir die PDO als Beispiel: In Bezug auf den Pazifik würden wir niemals sagen: “Ich wette, dass der Nordpazifik für viele Jahrzehnte warm bleibt, dann kommt es eine große Wende, das gesamte Leben im Meer wird anders, die Winde verändern sich, auch alle Strömungen, und dann wird es viele Jahrzehnte lang kalt sein.“
Eine derartige Vermutung ist überhaupt nicht zulässig. Es liegt nämlich Emergenz vor.

Und ich meine, was für Emergenzsysteme gilt, gilt auch für Bestandteile des verbundenen interkontinentalen Temperaturregelsystems sind. Es enthält meines Erachtens kurzlebige Emergenzsysteme (tägliche Gewitter), mittelfristige (mehrmonatige Madden-Julian-Oszillationen), längerfristige (Wolken, im Sommer kühlend, im Winter wärmend), langfristige (3 bis 5-jährige El Nino/La Nina-Phasen), und sehr langfristige (multidekadische PDO, AMO). Es sind Emergenzsysteme unterschiedlicher Arten, die bei der Aufrechterhaltung einer konstanten Temperatur zusammenwirken. Es gibt davon noch viel mehr, die hier nicht aufgeführt sind.

Schließlich meine ich, dass keines dieser Emergenzsysteme ursächlich für eine langsame Verschiebung ist. Ganz im Gegenteil, ich meine, sie wirken anders herum gegen die langsame Verschiebung und verhindern eine Überhitzung.

Setzen wir hier an, so finden wir direkt Möglichkeiten für menschlich verursachte Veränderungen – Öl auf den Weltmeeren. Es braucht nur eine ganz dünne, fast mono-molekulare Ölschicht auf dem Wasser – und davon haben wir eine Menge erzeugt -, um die Oberflächenspannung zu verändern. Dadurch wird die Verdampfung auf zweierlei Weise reduziert: Einmal direkt durch die Wassermenge, die in unmittelbarem Kontakt zur Luft steht, und zum Anderen durch das Unterbinden der Bildung von Brechern, Versprühungen und Gischt.

Versprühung jedweder Art erhöht die für die Verdampfung zur Verfügung stehende Wasseroberfläche erheblich, je nach Windgeschwindigkeit. Erinnert sei daran, dass die Verdampfung durch den Wind die Ursache für die Selbsterhaltung der Gewitter ist. Wenn also die Ausdehnung der Verdampfungsfläche wegen des Fehlens von Versprühungen um zehn oder zwanzig Prozent vermindert wird, wird gleichermaßen die Verdampfung vermindert und so Entstehungszeitpunkt und Dauer der Gewitter beeinflußt.

Das möchte ich Ihnen nicht vorenthalten: Gerade hatte ich beim Schreiben des letzten Absatzes gedacht  “Man braucht Zeit für mehr Forschung”, da stoße ich auf das hier:

Seeleute, die traditionell Fässer voller Öl auf das Meer gossen, um stürmische Wasser zu glätten, waren damit ganz einfallsreich, wie eine neue Studie meint. Einem neuen mathematischen „Sandwich-Modell“ zufolge vermindert dieses altbekannte Vorgehen die Windgeschwindigkeit in tropischen Wirbelstürmen, indem es die Gischt unterdrückt.

Wenn die Hurrikan-Winde die Meereswogen aufpeitschen, geraten große Wassertropfen in die Luft und verbleiben dort. Diese Gischtwolke kann mathematisch wie eine dritte Flüssigkeitsschicht zwischen der Luft und dem Meer behandelt werden. “Unsere Rechnungen beweisen, dass die Tropfen in der Gischt die Turbulenz und Reibung vermindern und dadurch höhere Windgeschwindigkeiten erlauben – zuweilen bis zu achtmal,“ meint der Forscher Alexandre Chorin von der University of California in Berkeley, US.

Er glaubt, dass diese Erkenntnis ein altes Meeresritual erklärt. „Die alten Seebären gossen Öl auf die tobenden Wogen, um sie zu glätten – daher die Redensart – aber man wusste nie so genau, warum das so war,” sagt Chorin. Er meint, weil Öl die Tropfenbildung verhindert, verstärkt es die Reibung in der Luft und vermindert daher die Stärke der Böen. (Quelle)

Hmmm …  Gute Wissenschaftler, weniger gute Seeleute!
Ich glaube, sie haben als Wissenschaftler nur einen Teil der Erklärung. Sie sollten mal ausrechnen, wie sich die Verdampfungsfläche in der Gischt durch das Versprühen erhöht und dann daran denken, dass ein Hurrikan aus der Verdampfung seine Kraft bezieht. Deswegen sterben Hurrikane über Land: es fehlt die Feuchtigkeit.
Verhinderung der Gischt durch auf die Wogen gegossenes Öl stoppt die Verdampfung! Die Kraft des Sturms ist gebrochen. So wie es einem heißer und schwitziger wird, wenn ein feuchter Tag die Verdampfung verhindert, so ergeht es auch dem Meer. Wenn man die Verdampfung abstellt, wird es wärmer.

Das Gegenargument gegen die Hypothese vom „Öl-auf-die-Wogen verhindert die Verdampfung und erwärmt das Meer“ kommt aus dem 2. Weltkrieg. Während des Krieges wurde mehr Öl ins Meer gegossen als je zuvor und nachher, aber während des Krieges war es generell recht kühl …
Verflixt nochmal! die Tatsachen stehen doch immer im Weg!

Also, ich kenne mich auf der hohen See aus und ich kann Ihnen versichern, dass die Autoren jener Studie keine Seeleute sind. Seeleute kippen nicht Öl ins Meer, um die Windgeschwindigkeit zu vermindern, das gehört ins Reich der Phantasie der Landratten. Sie tun es, weil es die Wogen am Brechen hindert und die Tropfen und Gischtbildung unterbindet. Auf diese Weise hilft es in rauher See.
Man braucht nicht viel dazu, Sie würden sich über die Wirkung wundern: Tränken Sie einen Lumpen in Motoröl und ziehen Sie ihn ein Stück hinter dem Boot her, wenn Sie vor dem Wind treiben. Wenn die Küstenwache Sie dabei erwischt, kriegen Sie mit Recht einen Strafzettel wegen Ihres Ölfilms auf dem Wasser, aber wenn es Ihr Lebensretter ist, ist es das wert. Pech, wenn Sie in einem dicken ablandigen Sturm sitzen. Aber wenn es einen Beruhigungseffekt hat und Ihren persönlichen Angstfaktor reduziert, ist es trotzdem den Versuch wert … Aber ich schweife ab.

Eins allerdings muss klar sein. Das Klima ist in einer langsamen Auf- und Abwärtsverschiebung: warm zur Römerzeit, kalt im Dunklen Mittelalter, warm im Hohen Mittelalter, kalt während der Kleinen Eiszeit, jetzt wieder warm …
Die Menschen könnten tatsächlich eine Rolle während der Verschiebung in den Nach-1940ern spielen (erst runter, dann hoch, heute geradeaus). Wahrscheinlich spielt es keine große Rolle, sonst hätten wir es sicher bemerkt. Falls wir aber trotzdem etwas damit zu tun haben, wissen wir immer noch nicht, wie und warum.

Ich schließe mit dem Hinweis auf die Suggestivwirkung des Paradigmas. Wenn das Paradigma sagt, dass Treibhausgase die wahrscheinliche Ursache für die langsame Klimaverschiebung sind, weil man behauptet (kurioserweise und zudem falsch), dass die Temperatur dem Antrieb sklavisch folgt, dann wird man auch nach allen Veränderungen suchen, die Auswirkungen auf die Treibhausgase haben.

Wenn sich das Paradigma aber wandeln würde und wir das Klima als eine Zusammensetzung von interagierenden aktiven temperaturgeregelten Mechanismen begriffen, würden wir eine ganze Reihe von völlig anderen und glaubwürdigeren Kandidaten für die langsame Verschiebung finden, die noch nicht beachtet wurden und unerforscht sind. Es kann etwas sein, wie oben beschrieben, oder auch etwas, was ich überhaupt nicht bedacht habe, wie z. B. die Einwirkung des Planktons auf die Veränderung der Wolken, oder so ähnlich.

Deshalb klingt die Behauptung so hohl, wir hätten die “großen Antriebe” erkannt, also CO2 und Methangase. Dies sind nur die hauptsächlichen Spieler im aktuell gültigen Paradigma. Das Problem dabei ist, dass Paradigmen kein System erklären können, das in engen Grenzen so thermoreguliert ist, dass während des vergangenen Jahrhunderts die globale Durchschnittstemperatur an der Erdoberfläche nur um etwa ± ein Zehntel Prozent geschwankt hat …
Die Ingenieure mögen mich bitte korrigieren, wenn ich falsch liege, aber angesichts der Vulkane und Aerosole und alle dem Übrigen ist das ein Ergebnis, worüber ein Ingenieur von Steuerungssystemen stolz wäre. Und das Ergebnis wird mit so flüchtigen Dingen wie den Wolken erzeugt. Für mich stellt diese Tatsache allein den Beweis dar, dass die Erde einen Thermostaten hat, und der ist verdammt genau für diesen Zweck. Wir haben wirklich eine Welt voller Wunder.

In Freundschaft und angesichts der oben beschriebenen Wunder

w.[illis]

##########################

Übersetzung: Helmut Jäger, EIKE

Original hier

Hier sind weitere Artikel von Willis Eschenbach.

#############

Beispiel für eine Definition von „Emergenz“

Ein wesentliches Kennzeichen komplexer Systeme ist … Emergenz, worunter man sich vorstellt, „[…] daß in einem weitgehend kausalen Ablauf durch das Zusammentreten von Bauteilen völlig neue, und zwar unvorhersehbar neue, nie dagewesene Eigenschaften zutage kommen“. (RIEDL 2000, 11)

zit. n. Koch, Andreas:
Modellierung und Simulation komplexer geographischer Systeme.
Eine systemtheoretische Betrachtung zur Komplexität sozialer und räumlicher Systeme.
Aus: Salzburger Geographische Arbeiten, Band 43, S. 9 – 31. Salzburg 2008

##########################

Siehe auch hier in WIKIPEDIA




Kurze Geschichte der Kohlendioxid-Rekorde

Kurzer Abriss der CO2-Rekorde in der Atmosphäre

Eine kurze Geschichte der Rekorde des atmosphärischen Kohlendioxids

Von David Middleton

Die WMO – World Meteorological Organization (Warum muss ich nur immer denken: Weltpolizist wenn “Welt und “Organisation” im Titel erscheinen?)
hat vor kurzem angekündigt, dass die Treibhausgase in der Atmosphäre eine neue Rekordhöhe (Bild rechts) erreicht hätten. Rekorde werden aber nur aufgestellt, damit sie gebrochen werden können.

Ich frage mich, ob die WMO-Leute folgende drei Fakten kennen:

1) Der erste CO23-Rekord wurde bereits 1809 aufgestellt, als die kumulierten menschlichen Kohlenstoff-Emissionen noch unter 0,2 ppm CO2 lagen?

Fig. 1. Der Original CO2 – “Hockey Schläger.” CO2-Emissionsdaten vom Oak Ridge National Laboratory’s Carbon Dioxide Information Analysis Center (CDIAC).

Die Emissionen (GtC) werden durch 2,13 geteilt, um ppmv CO2 zu erhalten.

2) Von 1750 bis 1875 stieg die atmosphärische CO2-Konzentration mit einer um das Zehnfache höheren Rate an im Vergleich zu den kumulierten anthropogenen Emissionen …

Fig. 2. Woher in drei Teufels Namen ist dieses CO2 gekommen?

3) Die kumulierten anthropogenen Emissionen haben 1960 nicht mit dem Anstieg des atmosphärischen CO2 gleichgezogen …

Fig. 3. Die Menschen haben über 100 Jahre gebraucht, um mit der Natur gleich zu ziehen.

Die Emissionen haben sich nur angeglichen, weil die Konzentration des atmosphärischen CO2 auf einer Höhe um 312 ppmv zwischen 1940-1955 blieb.

Abnahme des atmosphärischen CO2 um die Mitte des 20. Jahrhunderts.

Die mir bekannten antarktischen Eisbohrkerne mit der höchsten Auflösung stammen von Law Dome (Etheridge et al., 1998), hier besonders der DE08 Kern. Im vergangenen Jahrzehnt wurde die Auflösung des Law Dome Eisbohrkerns noch verbessert durch eine dichtere Entnahme von Proben und die Anwendung von frequenzverstärkender Signalverarbeitungstechnik (Trudinger et el., 2002; MacFarling Meure et al., 2006). Wie erwartet haben die höher aufgelösten Daten höhere Variabilität bei den vor-industriellen CO2-Konzentrationen gezeigt.

Pflanzenstomata-Rekonstruktionen (Kouwenberg et al., 2005; Finsinger and Wagner-Cremer, 2009) und heutige chemische Analysen (Beck, 2007) zeigen, dass die CO2 Höhen von den 1930ern bis zu den frühen 1940ern auf der Ebene von 340 bis 400 ppmv lagen und dann rasch in den 1950ern abnahmen. Diese Ergebnisse wurden von den Anhängern des sogenannten wissenschaftlichen Konsens zurückgewiesen, weil diese Fluktuationen nicht in den antarktischen Eisbohrkernen nachzuweisen wären. Dennoch haben MacFarling Meure et al., 2006, entdeckt, dass sich ein möglicher Nachweis einer CO2-Abnahme um die Mitte des 20. Jh. im DE08 Eisbohrkern befände …

Die Stabilisierung der atmosphärischen CO2-Konzentration während der 1940er und 1950er ist eine bemerkenswerte Erscheinung in den Eisbohrkern-Proben. Die neuen hochdichten Messungen bestätigen das Ergebnis und zeigen, dass die CO2-Konzentrationen zwischen 310–312 ppm etwa zwischen 1940 -1955 verharrten. Die Zunahmeraten bei CH4 und N2O haben sich auch in jenem Zeitraum vermindert, die Veränderung bei N2O liegt aber im Bereich der Messungenauigkeit. Die Glättung wegen des Lufteinschlusses im Eis (etwa 10 Jahre bei DE08) entfernt hochfrequente Veränderungen aus der Aufzeichnung, die wahre atmosphärische Variation kann daher größer sein, als sie sich in den den Luftproben im Eisbohrkern darstellt.

Sogar eine Abnahme der atmosphärischen CO2-Konzentration Mitte der 1940er stimmt mit der Law Dome Aufzeichnung einschließlich der Glättung durch den Lufteinschluss überein, was auf eine große zusätzliche Senke von ~3.0 PgC Jahr-1 hinweist. [Trudinger et al., 2002a]. Die d13CO2 Aufzeichnung aus jener Zeit lässt erkennen, dass diese zusätzliche Senke meist ozeanischer Herkunft war und nicht durch niedrigere fossile Emmissionen oder die irdische Biosphäre verursacht. [Etheridge et al., 1996; Trudinger et al., 2002a]. Immer noch ungeklärt ist, welche Prozesse diese Erscheinung hervorgerufen haben könnten.

Die CO2-Stabilisierung ereignete sich während eines Wechsels eines lang andauernden El Niño zu einem La Niña [Allan and D’Arrigo, 1999]. Dies fiel zusammen mit einem Übergang von einer Warm- zu einer Kalt-Phase der Pacific Decadal Oscillation [Mantua et al., 1997], einer Abkühlung [Moberg et al., 2005] und progressiv zunehmender Abschwächung der nordatlantischen thermohalinen Zirkulation [Latif et al., 2004]. Der kombinierte Effekt dieser Faktoren auf die Gasmengen wird derzeit noch nicht gut verstanden. Sie könnten signifikant für die atmosphärische CO2-Konzentration sein, falls der Austausch in Bereichen von Kohlenstoff-Aufnahmen, wie z. B. im Nordpazifik, verstärkt, oder wenn der Abfluss aus den Tropen unterdrückt würde.

Von etwa 1940 bis einschließlich 1955 gingen ca. 24 Mrd. Tonnen Kohlenstoff aus Abluftkaminen direkt in die Ozeane und/oder in die Biosphäre.

Fig. 4. Oh weh! Was ist mit all dem Kohlenstoff passiert?

Wenn die Aufnahme von CO2 in die Ozeane eine Versauerung der Meere bewirkt haben sollte, müssten wir dann nicht Beweise dafür finden? Hätte nicht eine “große zusätzliche Senke von ~3.0 PgC Jahr-1″ (oder mehr) von ~1940-1955 irgendwo in den Ozeanen Spuren hinterlassen müssen, vielleicht Schnecken oder ein Riff aufgelöst haben?

Wenn das atmosphärische CO2 nur einfach seinen prä-industriellen Verlauf fortgesetzt hätte, wären sehr wahrscheinlich 315-345 ppmv um 2010 erreicht worden …

Fig. 5. Wahrscheinlich sind 40-60% des Anstiegs des atmosphärischen CO2 seit 1750 auf natürliche Ursachen zurückzuführen.

Es ist doch seltsam, dass die aus Pflanzen-Stomata abgeleiteten CO2-Rekonstruktionen darauf hindeuten, dass CO2-Konzentrationen von 315-345 ppmv während des Holozäns nicht ungewöhnlich waren …

Fig. 6. CO2 aus Pflanzen-Stomata: Nordschweden (Finsinger et al., 2009), Nordspanien (Garcia-Amorena, 2008), Südschweden (Jessen, 2005), Washington State USA (Kouwenberg, 2004), Niederlande (Wagner et al., 1999), Dänemark (Wagner et al., 2002).

Was also könnte all diese CO2-Veränderungen angetrieben haben, bevor der Mensch anfing, fossile Brennstoffe zu benutzen? Waren es möglicherweise doch Temperaturänderungen?

CO2 als Feedback

Wenn ich eine Temperatur-Rekonstruktion (Moberg et al., 2005) zusammen mit der Law Dome CO2-Ganglinie plotte, sieht es für mich ganz so aus, als ob das CO2 etwa 100 Jahre nach dem Temperaturanstieg mit dem Anstieg begann …

Fig. 7. Temperatur-Rekonstruktion (Moberg et al., 2005) und Law Dome CO2 (MacFarling Meure et al., 2006).

Der Anstieg des CO2 von 1842-1945 sieht ganz so aus, wie der Temperaturanstieg von 1750-1852…

Fig. 8. Mögliche Beziehung zwischenTemperaturanstieg und nachfolgendem CO2-Anstieg.

Die Korrelation ist sehr stark. Eine berechnete CO2-Chronologie ergibt eine gute Übereinstimmung mit dem DE08 Eisbohrkern und dem Stomata-abgeleiteten CO2 seit 1850. Man sieht auch, dass das atmosphärische CO2 auf ~430 ppmv um die Mitte des 12. Jahrhunderts n.Chr. anstieg.

Fig. 9. CO2 aus den Moberg-Temperaturen errechnet (dunkelblaue Linie), Law Dome Eisbohrkern (Magentafarbene Linie) und Pflanzenstomata (grün, hellblaue und purpurfarbene Kästchen).

Die Spitze des CO2 um die Mitte des 12. Jh. zeigt sich weder in den Eisbohrkernen noch in den Pflanzenstomata. Die Korrelation bricht vor den 1830ern ab. Der gleiche Abbruch zeigt sich auch, wenn CO2 als Antrieb und nicht als Feedback behandelt wird.

CO2 als Antrieb

Wenn ich direkt das CO2 vs. Temperatur ohne Verzögerung plotte, erhalte ich eine gute Korrelation mit den Nach-DE08-Eisbohrkern-Daten (>1833) und überhaupt keine Korrelation mit den Prä-DE08-Eisbohrkerndaten (<1833) …

Fig. 10. Temperature und CO2 zeigen eine mäßige Korrelation seit ~1833; aber überhaupt keine Korrelation vor 1833.

Wenn ich bis auf etwa 840 ppmv CO2 extrapoliere, erhalte ich etwa 3 °C Erwärmung bezogen auf 275 ppmv. Ich erhalte also den gleichen Betrag an Erwärmung bei einer Verdreifachung des prä-industriellen CO2. Das IPCC behauptet das schon bei einer Verdoppelung.

Fig. 11. CO2 vom Law Dome DE08 Eisbohrkern, geplottet gegen Mobergs NH Temperatur-Rekonstruktion.

Das auf dieser Korrelation beruhende Gleichgewicht der Klimasensitivität (Equilibrium Climate Sensitivity – ECS) bei einer Verdoppelung des prä-industriellen CO2 beträgt ~1.5 to 2.0 °C. Sehr rätselhaft ist aber das totale Fehlen einer Korrelation in den Eisbohrkernen, die älter als DE08 sind.

Eisbohrkern-Auflösung und das Fehlen einer Temperatur-Verbindung mit CO2 vor 1833

Könnte das Fehlen der Variabilität in den älteren (aus tieferen Schichten stammenden) Eisbohrkernen etwas mit der Auflösung zu tun haben? Der DE08 Eisbohrkern hat eine viel stärkere Auflösung als nahezu alle anderen antarktischen Eisbohrkerne, darin eingeschlossen der tiefere und ältere DSS Eisbohrkern von Law Dome.

Fig. 12. Die zeitliche Auflösung der Eisbohrkerne wird von der Schnee-Akkumulationsrate bestimmt.

Die Amplitude des CO2-“Signals” scheint auch gut mit der Schnee Akkumulationsrate zu korrelieren (Auflösung) des Eisbohrkerns…

Fig. 13. Schnee-Akkumulationsrate vs. CO2 für verschiedene Eisbohrkerne aus Antarktika und Grönland.

Könnte es sein, dass Schnee-Akkumulationsraten, die signifikant unter 1 m/a liegen, jahrhundertlange und höherfrequente CO2-Schübe nicht auflösen? Könnte es auch sein, dass die Frequenzdegradation ebenfalls die Amplitude des CO2-“Signals” abschwächt?

Wenn die weitaus meisten Eisbohrkerne, die älter und tiefer als DE08 sind, die jahrhundertelangen und höherfrequenten CO2-Schübe nicht auflösen, macht es dann nicht Sinn, dass Eisbohrkern-abgeleitete CO2- und Temperaturgänge nur als kaum zusammenhängend für den längsten Teil des Holozäns gelten müssen?

Warum scheinen die Belege immer nur anzuzeigen, dass das beste Szenario des IPCC das schlimmste ist, das in der realen Welt vorkommen kann?

Dieses Stück aus einem Artikel von Brad Plummer in der Washington Post erregte meine Aufmerksamkeit …

Fig. 14. Die mythischen Szenarien des IPCC. Ich denke, der graue Bereich repräsentiert den Bereich von "Grüntopia" [Anm.d.Ü.: der Verfasser benutzt ein Wortspiel: aus UTOPIA macht er GRÜNTOPIA.]

Es sieht so aus, als ob die Erde um 2100 n.Chr. zu einer Venus (A1FI) würde, wenn es so weiterginge, wie gehabt.

Wie sieht es aus, wenn ich reale Daten benutze?

Nehmen wir an, dass das atmosphärische CO2 entlang einer exponentiellen Trendlinie bis 2100 ansteigt.

Fig. 15. Projektion des CO2 bis 560 ppmv im Jahre 2100.

Ich erhalte eine CO2-Konzentration von 560 ppmv, das gleicht dem IPCC Emissions-Szenario SRES B2 …

Fig. 16. IPCC Emissions-Szenarien.

Wenn es weitergeht, wie gehabt, werden wir die gleiche Konzentration haben, wie im IPCC Grüntopia-Szenario. Warum bin ich nicht erstaunt?

Wenn wir annähmen, dass die gesamte Erwärmung seit 1833 vom CO2 verursacht wurde (das stimmt nicht), würden 560 ppmv zu etwa 1°C zusätzlicher Erwärmung im Jahre 2100 führen.

Fig. 17. Projizierter Temperatur-Anstieg, abgeleitet aus der Moberg NH Temperatur-Rekonstruktion und dem CO2 aus dem Law Dome DE08 Eisbohrkern. Projizierte Temp. Anom. = 2.6142 * ln(CO2) – 15.141

Wie verträgt sich das mit den mythischen Szenarien des IPCC? So ungefähr, wie erwartet. Das schlimmste Szenario, das aus den derzeitigen Beobachtungen abgeleitet werden kann, gleicht dem bestmöglichen IPCC-Szenario aus Grüntopia …

Fig. 18. Der aus Mobergs NH-Temperatur-Rekonstruktion und dem CO2 aus dem Law Dome DE08 Eisbohrkern abgeleitete projizierte Temperatur-Anstieg weist darauf hin, dass die 2°C “Grenze” des IPCC nicht überschritten werden wird.

Schlussfolgerungen

Die Rekorde bei den atmosphärischen CO2-Konzentration waren bereits gebrochen, bevor anthropogene Emissionen bedeutend wurden.

Atmosphärische CO2-Konzentrationen sind zwischen 1750-1875 rascher angestiegen als anthropogene Emissionen.

Anthropogene Emissionen haben bis 1960 nicht mit dem atmosphärischen CO2 gleichgezogen.

Der natürlichel Kohlenstoff-Austausch-Fluss ist variabler als der sogenannte wissenschaftliche Konsens wahrhaben will.

Das Gleichgewicht der Klimasensitivität (ECS) kann 2°C nicht übersteigen und ist wahrscheinlich näher bei 1°C.

Das schlimmste Szenario, das auf Belegen beruht, gleicht dem besten grün-utopistischen des IPCC.

Eisbohrkerne mit Akkumulationsraten unter 1m/a taugen nicht für ECS-Abschätzungen.

Das ECS, das aus dem Law Dome DE08 Eisbohrkern und Mobergs NH-Temperatur- Rekonstruktion abgeleitet iist, unterstellt, dass die gesamte Erwärmung seit 1833 dem CO2 zuzurechnen wäre. Wir wissen sicher, dass mindestens die Hälfte der Erwärmung auf solare Einflüsse und natürliche klimatische Schwankungen zurückgeht. Daher sind die abgeleiteten 2°C wahrscheinlich nur 1°C. Weil klar ist, dass etwa die Hälfte des Anstiegs von 275 auf 400 ppmv natürlichen Ursprungs ist, liegt die anthropogene Komponente des 1°C ECS wahrscheinlich unter 0,7°C.

Das Fehlen einer Korrelation zwischen Temperatur und CO2 seit dem Beginn des Holozäns bis 1833 und die Tatsache, dass der moderne CO2-Anstieg mindestens 200 Jahre lang höher war als die anthropogenen Emissionen, führt mich als Amateur-Klimaforscher zu dem Schluss, dass das CO2 während der vergangenen 10.000 Jahre sehr viel veränderlicher war als die antarktischen Eisbohrkerne anzeigen.

Appendix I: Ein alternativer Blick auf die CO2-Anstiegsrate

In Fig. 15 habe ich eine mit Excel berechnete exponentielle Trendlinie erzeugt, um die MLO CO2 Zeitreihe zu extrapolieren bis zum Ende dieses Jahrhunderts. Wenn ich die Emissionen extrapoliere und annehme, dass 55% der Emissionen in der Atmosphäre verbleiben, erhalte ich ~702 ppmv bis zum Ende des Jahrhunderts, dazu gehören 0,6°C Erwärmung und eine gesamte Erwärmung von 2,5°C gegenüber der “präindustriellen.” Sogar dieses schlimmste aller schlimmen Szenarien ergibt 1°C weniger Erwärmung als das IPCC-A1B-Referenz-Szenario. Es steht etwa in der Mitte zwischen A1B und dem oberen Rand des grün-utopistischen Bandes.

Appendix II: CO2-Aufzeichnungen, frühe Jahre

Immer wenn CO2-Aufzeichnungen erwähnt werden oder atemberaubende Aussprüche wie, “Kohlendioxid auf dem höchsten Stand seit 800.000 Jahren,“ betrachte ich diese „Aufzeichnungen“ gerne in einem geologischen Kontext. Die nachfolgenden Grafiken stammen aus Bill Illis’ ausgezeichneter Sammlung paläo-klimatischer Daten.

Die Treibhausgase haben ein neues Rekordhoch erreicht! Stimmt das? Das Anthropozän sieht überhaupt nicht anders aus, als die vorhergehenden 25 Million Jahre … Außer, dass es viel kälter ist.

Aus geologischer Perspektive sieht der “Hockeyschläger” des CO2s im Anthropozän eher aus wie die Nadel im Heuhaufen. Und es sieht eher so aus, als ob die Erde ihr CO2 in etwa 25 Millionen Jahren verloren haben wird.

Einer meiner Allzeit-Favoriten! Man beachte das totale Fehlen einer Korrelation zwischen CO2 und Temperatur während der meisten Zeit im Phanerozoischen Eon.

Im folgenden Balkendiagramm habe ich das CO2 nach geologischen Perioden dargestellt. Kambrium bis zur Kreidezeit sind Berner und Kothavala, 2001, (GEOCARB) entnommen, das Tertiär von Pagani, et al. 2006 (Tiefsee-Sediment-Eisbohrkerne), das Pleistozän stammt von Lüthi et al. 2008 (EPICA C Antarctic ice core), das“Anthropozän” ist von NOAA-ESRL (Mauna Loa Observatory), der CO2-Verlust von Ward et al., 2005.

Anthropozäne CO2-Konzentrationen liegen viel näher am Bereich der C3-Pflanzen-Aussterbe-Grenze (Ward et al., 2005) als sie in den vorgehenden 540 Millionen Jahren waren.

[Sarkasmus an]: Ich wollte auch Venus in das Balkendiagramm einfügen, doch dann hätte ich eine logarithmische Skala gebraucht. [Sarkasmus aus]

Appendix III: Von Pflanzen-Stomata abgeleitete CO2-Konzentrationen

Der Katalog der fachbegutachteten Papiere, die höhere und stärkere veränderliche präindustrielle CO2-Konzentrationen zeigen, ist sehr eindrucksvoll und anwachsend. Hier nur ein paar Erwähnungen:

Wagner et al., 1999. Century-Scale Shifts in Early Holocene Atmospheric CO2 Concentration. Science 18 June 1999: Vol. 284 no. 5422 pp. 1971-1973…

Im Gegensatz zu konventionellen Eisbohrkern-Schätzungen von 270 bis 280 ppmv verweist das Frequenzsignal aus den Stomata auf frühe Holozän Kohlendioxid-Konzentrationen von gut über 300 ppmv.

[…]

Die meisten Holozän-Eisbohrkern-Aufzeichnungen aus der Antarktis haben keine ausreichende zeitliche Auflösung.

[…]

Unser Ergebnisse falsifizieren die Vorstellung von einer relativ stabilen CO2-Konzentration von 270 bis 280 ppmv im Holozän bis zur industriellen Revolution. SI-basierte CO2-Rekonstruktionen könnten sogar darauf hindeuten, dass während des frühen Holozäns die atmosphärischen CO2-Konzentrationen von 300 ppmv eher die Regel als die Ausnahmen waren.

Die Eisbohrkerne können die CO2-Schübe nicht auflösen, die in Zeiträumen stattfanden, die kürzer waren als das Zweifache der Zeit der Blaseneinschlüsse. Das ist ein Grundsatz aus der Signal-Theorie. Die Behauptung einer stabilen prä-industriellen Konzentration von 270-280 ppmv ist völlig falsch.

McElwain et al., 2001. Stomatal evidence for a decline in atmospheric CO2 concentration during the Younger Dryas stadial: a comparison with Antarctic ice core records. J. Quaternary Sci., Vol. 17 pp. 21–29. ISSN 0267-8179 …

Es ist möglich, dass eine Anzahl von kurzzeitigen Fluktuationen, die aus den mit stomatalen Methoden stammenden Aufzeichnungen herrühren, nicht in Eisbohrkernen entdeckt werden, wie z. B. in Dome Concordia, wo langsame Akkumulationen stattfanden. Neftel et al. (1988) zufolge können CO2-Fluktuationen mit einer Dauer von weniger als dem Doppelten der Blaseneinschlusszeit (gleich etwa 134 Kalenderjahren im Falle des Byrd-Eises und bis zu 550 Kalenderjahren im Dome Concordia) nicht im Eis nachgewiesen oder durch Dekonvolution rekontruiert werden.

Noch nicht einmal die höchstaufgelösten Eisbohrkerne, wie Law Dome, haben ausreichende Auflösung um die MLO-Instrumentenaufzeichnung korrekt abzubilden.

Kouwenberg et al., 2005. Atmospheric CO2 fluctuations during the last millennium reconstructed by stomatal frequency analysis of Tsuga heterophylla needles. Geology; January 2005; v. 33; no. 1; p. 33–36…

Die Diskrepanzen zwischen den Eisbohrkern- und den aus Stomata stammenden Rekonstruktionen können teilweise durch variierende Altersverteilungen der Luft in den Blasen erklärt werden aufgrund der Einschlusszeit in der Übergangszone im Firn-Eis. Dieser Effekt erzeugt ein Bohrstellen-spezifisches Glätten des Signals (Dekaden beim Dome Summit South [DSS], Law Dome, noch mehr bei Eisbohrkern von Gebieten mit niedrigen Akkumulationsraten), wie auch als Alters-Differenz zwischen der Luft und dem umgebenden Eis, welches die Konstruktion von wohlbegrenzten Zeitskalen verhindert. (Trudinger et al., 2003).

Stomata-Rekonstruktionen sind für das Holozän wiederholbar, wenigstens für die Nordhalbkugel. Sie zeigen konsistent, dass der prä-industrielle natürliche Kohlenstoff-Fluss viel variabler war als die Eisbohrkerne erkennen lassen.

Wagner et al., 2004. Reproducibility of Holocene atmosphärisch CO2 records based on stomatal frequency. Quaternary Science Reviews. 23 (2004) 1947–1954…

Die Mehrzahl der stomatischen frequenzbasierten Abschätzungen des CO2 für das Holozän unterstützt nicht die weithin akzeptierte Vorstellung von vergleichsweise stabilen CO2-Konzentrationen in Verlauf der letzten 11.500 Jahre. Um auf die Kritik zu antworten, dass diese stomatischen Frequenz-Variationen von lokalen Veränderungen der Umwelt herrühren oder von methodologischen Einschränkungen, wurden unterschiedliche stomatische Frequenz-Aufzeichnungen über drei Klimaperioden im Holozän verglichen: während der Präborealen Oszillation, dem 8,2-tausenjährigen Abkühlungsereignis und der Kleinen Eiszeit. Die unter Benutzung verschiedener Kalibrationsverfahren dargestellten Fluktuationen in den paläo-atmosphärischen CO2-Aufzeichnungen, die von verschiedenen Kontinenten und Pflanzenarten stammen (Laub abwerfende Bedecktsamer und Korniferen), sind völlig vergleichbar. Sie zeigen starke Beweise für die Richtigkeit der auf Laub basierenden CO2-Ableitungen [Rekonstruktionen].

Die antarktischen Eisbohrkerne haben nicht genügend Auflösung weil der Prozess der Firn-Verdichtung wie ein Tiefpass-Filter wirkt.

Van Hoof et al., 2005. Atmospheric CO2 during the 13th century AD: reconciliation of data from ice core measurements and stomatal frequency analysis. Tellus 57B (2005), 4 …

Rekonstruktionen des atmosphärischen CO2 sind derzeit aus direkten Messungen von Lufteinschlüssen im antarktischen Eis verfügbar und zugleich aus stomataler Frequenzanalyse aus fossilem Laub. Eine Periode, wo beide Methoden konsistente Belege für natürliche CO2-Veränderungen ergeben, ist das 13. Jh. n.Chr. Die Ergebnisse der beiden voneinander unabhängigen Methoden unterscheiden sich signifikant hinsichtlich der Amplitude der geschätzten CO2-Veränderungen (10 ppmv beim Eis, gegenüber 34 ppmv bei der stomatalen Frequenz). Wir vergleichen dabei die stomatale Frequenz und die Eisbohrkern-Ergebnisse, indem wir ein Firn-Diffusionsmodell benutzen, um den möglichen Einfluss der Glättung während des Einschlusses auf die zeitliche Auflösung und auf die Amplitude der CO2-Veränderungen auswerten. Die sichtbaren großen Diskrepanzen zwishcen den Amplituden, die durch die kontrastierenden Methoden abgeschätzt werden, verschwinden, wenn die stomatalen Rohdaten analog so geglättet werden, wie es auf natürliche Weise durch den Firn geschieht.

Die Herleitung des Gleichgewichts der Klimasensitivität (Equilibrium Climate Sensitivity – ECS) aus dem atmosphärischen CO2 beruht zum großen Teil auf antarktischen Eisbohrkernen. Problematisch dabei ist, dass die Temperatur-Schätzungen auf dem Verhältnis von Sauerstoff-Isotopen im Eis selbst beruhen, während die CO2-Schätzungen auf Gasblasen beruhen, die im Eis eingeschlossen sind.

Die Temperatur-Daten sind sehr hoch aufgelöst. Die Verhältnisse der Sauerstoff-Isotopen zueinander sind Funktionen der Temperatur zur Zeit der Schneeablagerung. Die CO2-Daten haben eine niedrige und variable Auflösung, weil es Jahrzehnte bis Jahrhunderte dauert, bis sich die Gasblasen gebildet haben. Die CO2-Werte aus den Eisbohrkernen repräsentieren Durchschnittswerte über viele Jahrzehnte bis Jahrhunderte. Die Temperaturdaten haben eine jährliche bis dekadische Auflösung.

Der am höchsten aufgelöste  antarktische Eisbohrkern ist der DE08 Eisbohrkern von Law Dome.

Beim IPCC und beim sogenannten wissenschaftlichen Konsens nimmt man an, dass man beim CO2 bis auf jährige Veränderungen auflösen kann. Das aber geht nicht. Jeder CO2-Wert steht, grob gesprochen, für einen 30-jährigen Durchschnitt und nicht für einen jährigen Wert.

Wenn man die Messwerte vom Mauna Loa (rote Linie) und Pflanzen-Stomata-abgeleitetes prä-industrielles CO2 (grüne Linie) mit einem 30-Jahr-Filter glättet, verbinden sie sich recht gut mit dem Law Dome DE08 Eisbohrkern (hellblaue Linie) …

Der tiefere DSS Eisbohrkern (dunkelblaue Linie) hat eine viel geringere zeitliche Auflösung wegen seiner viel geringeren Akkumulationsrate und Kompressions-Effekten. Er ist völlig ungeeignet für Veränderungen auf einer Jahrhundert-Skala, schon gar nicht auf einer dekadischen Skala.

Beim IPCC und beim sogenannten wissenschaftlichen Konsens nimmt man richtigerweise an, dass die Auflösung durch die Blasen-Einschlusszeit bestimmt wird. Falsch ist es aber, die Blasen-Einschlussperiode auf die Einschlusszone zu begrenzen. Im Falle von Eisbohrkern DE08 sucht man nach einem Signal mit einer Frequenz von einer Änderung/a, als eine Stichprobe jeweils für 8-10 Jahre genommen. Das tatsächliche Signal hat eine Frequenz von 1 Änderung/30-40 Jahre, als eine Stichprobe jeweils für 8-10 Jahre genommen.

CO2-Änderungen im Bereich von 30-40 ppmv über Zeiträume von weniger als ~60 Jahre können im DE08 Eisbohrkern nicht genau aufgelöst werden. Das ergibt sich aus den Grundlagen der Signaltheorie. Wagner et al., 1999, zogen sehr feindselige Reaktionen auf sich, die aus der Gemeinde des sogenannten wissenschaftlichen Konsenses kamen. Aber alles, was Dr. Wagner-Cremer getan hatte, war die Falsifizierung einer einzigen kleinen Hypothese…

Ganz im Gegensatz zu den konventionellen Eisbohrkern-Abschätzungen von 270 bis 280 ppmv, deutet das Frequenzsignal der Stomata auf frühe Holozän-Kohlendioxid-Konzentrationen von weit über 300 ppmv.

[…]

Unsere Ergebnisse widerlegen die Vorstellung einer relativ stabilen CO2-Konzentrationen von 270 bis 280 ppmv im Holozän bis zur industriellen Revolution. SI-basierte CO2-Rekonstruktionen legen sogar nahe, dass im frühen Holozän die atmosphärischen CO2-Konzentrationen über >300 ppmv lagen und dies eher als Regel denn als Ausnahme.

Die pflanzlichen Stomata beweisen sehr schön, dass im Holozän die CO2-Konzentrationen häufig im Bereich zwischen 300-350 ppmv lagen und gelegentlich über 400 ppmv während der letzten 10.000 Jahre.

Die falsche Schätzung eines 3°C-Klimasensitivitäts-Gleichgewichts für CO2 (Equivalent Climate Sensitivity to CO2) ist total von der Annahme bestimmt, dass die präindustriellen CO2-Konzentrationen im Bereich von 270-280 ppmv lagen, wie es die antarktischen Eisbohrkerne nahelegen.

Die pflanzlichen Stomata-Daten zeigen klar, dass die präindustriellen atmosphärischen CO2-Konzentrationen viel höher waren und viel veränderlicher, als die antarktischen Eisbohrkerne andeuten. Das bedeutet, dass der Anstieg des atmosphärischen CO2 seit den 1800ern nicht besonders anomal ist und dass zumindest die Hälfte davon auf ozeanische und biosphärische Reaktionen durch die Aufwärmung seit dem Ende der Kleinen Eiszeit zurückgeht.

Kouwenberg schloss, dass das CO2-Maximum um ca. 450 n.Chr. eine lokale Anomalie gewesen wäre, weil es nicht mit einem Temperaturanstieg im Einklang mit Rekonstruktion von Mann & Jones, 2003, zu korrelieren war.

Weil das Erdklima einfach nicht mit den Modellen übereinstimmen will, wird der sogenannte Konsens irgendwann akzeptieren müssen, dass er in einem grundlegenden Irrtum befangen ist. Wir hoffen aber, dass uns der eifernde CO2-Wahn nicht vorher in den Bankrott getrieben haben wird.

Bis zum Auswechseln des Paradigmas werden alle Schätzungen einer prä-industriellen Beziehung zwischen atmosphärischem CO2 und der Temperatur, die auf antarktischen Eisbohrkernen beruhen, falsch sein, weil die Eisbohrkern-Temperaturen und die CO2-Zeitreihen völlig unterschiedliche Auflösungen haben. Und solange Anhänger des sogenannten Konsensus nicht die Grundlagen der Signalverarbeitung verstanden haben, werden sie [die Schätzungen] auch weiterhin falsch bleiben.

Referenzen:

Anklin, M., J. Schwander, B. Stauffer, J. Tschumi, A. Fuchs, J.M. Barnola, and D. Raynaud. 1997. CO2 record between 40 and 8kyr B.P. from the Greenland Ice Core Project ice core. Journal of Geophysical Research 102:26539-26545.

Barnola et al. 1987. Vostok ice core provides 160,000-year record of atmospheric CO2.
Nature, 329, 408-414.

Berner, R.A. and Z. Kothavala, 2001. GEOCARB III: A Revised Model of Atmospheric CO2 over Phanerozoic Time, American Journal of Science, v.301, pp.182-204, February 2001.

Boden, T.A., G. Marland, and R.J. Andres. 2012. Global, Regional, and National Fossil-Fuel CO2 Emissions. Carbon Dioxide Information Analysis Center, Oak Ridge National Laboratory, U.S. Department of Energy, Oak Ridge, Tenn., U.S.A. doi 10.3334/CDIAC/00001_V2012

Etheridge, D.M., L.P. Steele, R.L. Langenfelds, R.J. Francey, J.-M. Barnola and V.I. Morgan. 1998. Historical CO2 records from the Law Dome DE08, DE08-2, and DSS ice cores. In Trends: A Compendium of Data on Global Change. Carbon Dioxide Information Analysis Center, Oak Ridge National Laboratory, U.S. Department of Energy, Oak Ridge, Tenn., U.S.A.

Finsinger, W. and F. Wagner-Cremer. Stomatal-based inference models for reconstruction of atmospheric CO2 concentration: a method assessment using a calibration and validation approach. The Holocene 19,5 (2009) pp. 757–764

Fischer, H. A Short Primer on Ice Core Science. Climate and Environmental Physics, Physics Institute, University of Bern.

Garcıa-Amorena, I., F. Wagner-Cremer, F. Gomez Manzaneque, T. B. van Hoof, S. Garcıa Alvarez, and H. Visscher. 2008. CO2 radiative forcing during the Holocene Thermal Maximum revealed by stomatal frequency of Iberian oak leaves. Biogeosciences Discussions 5, 3945–3964, 2008.

Illis, B. 2009. Searching the PaleoClimate Record for Estimated Correlations: Temperature, CO2 and Sea Level. Watts Up With That?

Indermühle A., T.F. Stocker, F. Joos, H. Fischer, H.J. Smith, M. Wahlen, B. Deck, D. Mastroianni, J. Tschumi, T. Blunier, R. Meyer, B. Stauffer, 1999, Holocene carbon-cycle dynamics based on CO2 trapped in ice at Taylor Dome, Antarctica. Nature 398, 121-126.

Jessen, C. A., Rundgren, M., Bjorck, S. and Hammarlund, D. 2005. Abrupt climatic changes and an unstable transition into a late Holocene Thermal Decline: a multiproxy lacustrine record from southern Sweden. J. Quaternary Sci., Vol. 20 pp. 349–362. ISSN 0267-8179.

Kouwenberg, LLR. 2004. Application of conifer needles in the reconstruction of Holocene CO2 levels. PhD Thesis. Laboratory of Palaeobotany and Palynology, University of Utrecht.

Kouwenberg, LLR, Wagner F, Kurschner WM, Visscher H (2005) Atmospheric CO2 fluctuations during the last millennium reconstructed by stomatal frequency analysis of Tsuga heterophylla needles. Geology 33:33–36

Ljungqvist, F.C.2009. Temperature proxy records covering the last two millennia: a tabular and visual overview. Geografiska Annaler: Physical Geography, Vol. 91A, pp. 11-29.

Ljungqvist, F.C. 2010. A new reconstruction of temperature variability in the extra-tropical Northern Hemisphere during the last two millennia. Geografiska Annaler: Physical Geography, Vol. 92 A(3), pp. 339-351, September 2010. DOI: 10.1111/j.1468-0459.2010.00399.x

Lüthi, D., M. Le Floch, B. Bereiter, T. Blunier, J.-M. Barnola, U. Siegenthaler, D. Raynaud, J. Jouzel, H. Fischer, K. Kawamura, and T.F. Stocker. 2008. High-resolution carbon dioxide concentration record 650,000-800,000 years before present. Nature, Vol. 453, pp. 379-382, 15 May 2008. doi:10.1038/nature06949

MacFarling Meure, C., D. Etheridge, C. Trudinger, P. Steele, R. Langenfelds, T. van Ommen, A. Smith, and J. Elkins (2006), Law Dome CO2, CH4 and N2O ice core records extended to 2000 years BP, Geophys. Res. Lett., 33, L14810, doi:10.1029/2006GL026152.

McElwain et al., 2001. Stomatal evidence for a decline in atmospheric CO2 concentration during the Younger Dryas stadial: a comparison with Antarctic ice core records. J. Quaternary Sci., Vol. 17 pp. 21–29. ISSN 0267-8179

Moberg, A., D.M. Sonechkin, K. Holmgren, N.M. Datsenko and W. Karlén. 2005.
Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data. Nature, Vol. 433, No. 7026, pp. 613-617, 10 February 2005.

Morice, C.P., J.J. Kennedy, N.A. Rayner, P.D. Jones (2011), Quantifying uncertainties in global and regional temperature change using an ensemble of observational estimates: the HadCRUT4 dataset, Journal of Geophysical Research, accepted.

Pagani, M., J.C. Zachos, K.H. Freeman, B. Tipple, and S. Bohaty. 2005. Marked Decline in Atmospheric Carbon Dioxide Concentrations During the Paleogene. Science, Vol. 309, pp. 600-603, 22 July 2005.

Rundgren et al., 2005. Last interglacial atmospheric CO2 changes from stomatal index data and their relation to climate variations. Global and Planetary Change 49 (2005) 47–62.

Smith, H. J., Fischer, H., Mastroianni, D., Deck, B. and Wahlen, M., 1999, Dual modes of the carbon cycle since the Last Glacial Maximum. Nature 400, 248-250.

Trudinger, C. M., I. G. Enting, P. J. Rayner, and R. J. Francey (2002), Kalman filter analysis of ice core data 2. Double deconvolution of CO2 and δ13C measurements, J. Geophys. Res., 107(D20), 4423, doi:10.1029/2001JD001112.

Van Hoof et al., 2005. Atmospheric CO2 during the 13th century AD: reconciliation of data from ice core measurements and stomatal frequency analysis. Tellus 57B (2005), 4

Wagner F, et al., 1999. Century-scale shifts in Early Holocene CO2 concentration. Science 284:1971–1973.

Wagner F, Aaby B, Visscher H, 2002. Rapid atmospheric CO2 changes associated with the 8200-years-B.P. cooling event. Proc Natl Acad Sci USA 99:12011–12014.

Wagner F, Kouwenberg LLR, van Hoof TB, Visscher H, 2004. Reproducibility of Holocene atmospheric CO2 records based on stomatal frequency. Quat Sci Rev 23:1947–1954

Ward, J.K., Harris, J.M., Cerling, T.E., Wiedenhoeft, A., Lott, M.J., Dearing, M.-D., Coltrain, J.B. and Ehleringer, J.R. 2005. Carbon starvation in glacial trees recovered from the La Brea tar pits, southern California. Proceedings of the National Academy of Sciences, USA 102: 690-694.

############################

Original hier bei WUWT

Übersetzung: Helmut Jäger, EIKE

############################




Dafür schäme ich mich heute!

factum: Sie kritisieren seit Jahren die Theorie vom menschengemachten Klimawandel. Inzwischen melden sich viele prominente Wissenschaftler in diesem Sinn zu Wort. Wie wurden Sie zum Klimaskeptiker?

Puls: Bis vor zehn Jahren habe auch ich ungeprüft nachgeplappert, was das IPCC uns so erzählt. Irgendwann dann habe ich angefangen, die Behauptungen nachzuprüfen. Das Ergebnis: Es begann mit Zweifeln und mündete dann in Entsetzen und in der Erkenntnis, dass ganz viel von dem, was der IPCC und die Medien bezüglich des Klimawandels sagen, nicht stimmt und gar nicht durch naturwissenschaftliche Fakten und Messungen gedeckt ist. Für das, was ich früher als Naturwissenschaftler ungeprüft auch in eigenen Vorträgen "nach-erzählt“ habe, dafür schäme ich mich heute.

Die offensichtlich in Deutschland besonders stark ausgeprägte CO2-Klima-Hysterie wird meines Erachtens durch eine Interessen-Gemeinschaft von Profiteuren ideologisch und materiell vernetzt und durchgesetzt.

factum: Wie steht es dann mit der globale Erwärmung? Gibt es den Klimawandel?

Puls: Ja, denn Klima-Wandel ist das Normale, folglich gab es immer auch schon "Global-Warming“-Phasen, die sogar das heutige Ausmaß weit übertrafen. In den letzten hundert Jahren gab es ein "Global Warming“ von einem Dreiviertel Grad. Seit 1998 gibt es jedoch keine Erderwärmung mehr, CO2 steigt aber weiter an. Die IPCC-nahen Institute beobachten seit 1998 eine leichte Abkühlung von ein bis zwei Zehntel Grad, allenfalls kann man von einem sogenannten Temperaturplateau sprechen. Generell gilt: Das Klima hat sich schon immer gewandelt und wird sich immer wandeln.

factum: Der Weltklimarat IPCC prognostiziert 0,2 Grad Erwärmung pro Jahrzehnt beziehungsweise zwei bis vier Grad Erwärmung bis 2100. Wie bewerten Sie das?

Puls: Das sind spekulative Modell-Prophezeiungen, so genannte Szenarien – keine Prognosen. Klima ist ein hochkomplexes nicht-lineares System, deshalb sind Prognosen unmöglich. Genau das steht auch wörtlich im IPCC-Bericht 2001. Die Natur macht, was sie will, und nicht das, was die Modelle prophezeien. Die ganze CO2-Debatte ist unsinnig. Selbst wenn das atmosphärische CO2 verdoppelt wird, dann kann das aus physikalischen Gründen nur rund ein Grad Erwärmung bewirken. Die restliche vom IPCC angenommene Erwärmung beruht auf spekulativen Verstärkungsprozessen, die durch nichts bewiesen sind. Gerade können wir doch beobachten, dass sich die Erde seit 13 Jahren nicht mehr erwärmt hat, obwohl CO2 weiter zugenommen hat.

factum: Wie sieht es mit dem Ansteigen der Meeresspiegel aus?

Puls: Der Anstieg hat sich immer mehr verlangsamt, und in den letzten zwei Jahren ist der globale Meeresspiegel sogar um mehr als einen halben Zentimeter gesunken. Diese Ergebnisse kommen in den letzten 20 Jahren durch Messungen von Satelliten zustande, Pegelmessungen gibt es weltweit seit circa 150 Jahren. Die so genannte "Mittlere Meeresspiegelhöhe“ ist ein Rechenwert, kein Messwert. Genau genommen gibt es jedoch gar keinen "globalen Meeresspiegel“. Wir haben Höhenunterschiede von bis zu 150 Metern auf den weltweiten Meeren. Der Meeresspiegel wird auch durch tektonische Prozesse, wie Kontinent-Hebungen und -Senkungen beeinflusst sowie durch Änderungen von Windströmungen, Passaten, Vulkanismus. Der Klimawandel ist da nur einer von zehn Faktoren. Recht genaue Aussagen können wir zum Beispiel bei der Nordsee machen, wo man regelmäßige Pegelmessungen vornimmt.

factum: Was misst man denn für die Nordsee?

Puls: In den letzten 400 Jahren ist der Meeresspiegel an der Nordseeküste um etwa 1,40 Meter gestiegen. Das sind 35 Zentimeter pro Jahrhundert. In den letzten hundert Jahren ist die Nordsee nur noch um 25 Zentimeter gestiegen. Der Anstieg hat sich also verlangsamt.

factum: Hat der Anstieg etwas mit dem schmelzenden Eis am Nordpol zu tun?

Puls: Das ist ein Trugschluss. Selbst wenn das ganze schwimmende Nordpoleis schmilzt, steigt der Meeres-Spiegel um keinen Millimeter. Nehmen Sie ein Glas Whiskey mit Eiswürfeln und warten Sie, bis diese geschmolzen sind. Der Pegelstand im Whiskey-Glas ist danach nicht höher. Das liegt daran, dass Wasser beim Gefrieren sein Volumen um zehn Prozent vergrößert, und beim Schmelzen wieder um diesen Betrag verringert. Nur diese zehn Prozent des Eisberges ragen aus dem Wasser, und verschwinden wieder beim Schmelzen. Das ist das Archimedes’sche Prinzip.

factum: Und dass die Gletscher in den Alpen schmelzen liegt auch nicht nur an der globalen Erwärmung?

Puls: Auch da gibt es viele Faktoren. Wenn man einen Berg besteigt, fällt die Temperatur um 0,65 Grad pro 100 Meter. Als es in den letzten hundert Jahren ein Dreiviertel Grad wärmer wurde, verschob sich die mittlere Null-Grad-Grenze somit um rund 100 Meter nach oben. Zu beobachten ist aber, dass nicht nur die unteren Gletscher schmelzen, sondern auch die auf 1000 Meter und höher. Das hat eine andere Ursache, nämlich Ruß und Staub. Dunkleres Eis voller Aerosole absorbiert mehr Sonnenstrahlung, wobei die Strahlung in fühlbare Wärme umgewandelt wird. Sie merken den Unterschied selbst, wenn sie statt eines weißen ein schwarzes T-Shirt tragen, worunter Ihnen in der Sonne viel wärmer wird. Doch Ruß und Staub gibt es nicht nur anthropogen seit der Industrialisierung, sondern auch in der Natur, zum Beispiel durch Vulkanismus, Staubstürme, Wald- und Steppenbrände. Aus diesen Gründen gab es auch in der Erdgeschichte immer schon Gletscherschmelzen, wobei man zum Beispiel aus Forschungs-Ergebnissen der Glaziologen weiß, dass die Alpengletscher in den letzten 10. 000 Jahren meist kleiner waren als heute.

factum: Ihrer Ansicht nach steht es gar nicht so schlimm um das schmelzende Eis in der Antarktis, in der vor drei Jahren ein riesiger Eisberg wegbrach?

Puls: Nein, im Gegenteil. In den letzten 30 Jahren hat die antarktische Eiskappe an Fläche und Volumen zugenommen und die Temperatur dort abgenommen. Das betrifft sowohl die Antarktis als auch den peripheren schwimmenden Eisgürtel. Diesen 30-Jahre-Trend kann man recht gut beurteilen, weil man ungefähr seit dieser Zeit dort ein Messnetz mit etwa 40 Stationen von verschiedenen Ländern hat. Stationen, die schon länger messen, wie die Amundsen-Scott-Station der USA direkt am Südpol dokumentieren, dass die Temperatur sogar bereits seit 1957 zurückgeht. In der Antarktis sind 90 Prozent des Eises der Erde gebunden, und die Antarktis ist etwa eineinhalb Mal so groß wie Europa.

factum: Wieso lesen wir dann oft, es sei in der Antarktis wärmer geworden?

Puls: Die einzige erwähnenswerte antarktische Region, in der es in den letzten Jahrzehnten wärmer geworden ist, ist genau das Gebiet, in dem im März 2008 ein 100 Quadratkilometer großer Eisberg vom Wilkins-Schelf abgebrochen ist: Die Region der Antarktischen Halbinsel. Sie umfasst jedoch kaum ein Prozent der Fläche der Antarktis. Diese Halbinsel liegt rund 1000 Kilometer südlich von Feuerland und erstreckt sich um weitere 1000 Kilometer nach Süden. Somit liegt sie voll im Einflussgebiet der stärksten Sturmzone der Erde, der südhemisphärischen Westwinddrift.

factum: Was verursacht solche Abbrüche?

Puls: Bei Eisabbrüchen in der West-Antarktis spielen nicht nur Dicke, Druck und infolgedessen Rutschungen eine Rolle, sondern über die Jahrhunderte auch Intensitäts-Schwankungen dieser Westwinde, analog zu den Zirkulations-Schwankungen in den gemäßigten Breiten der Nordhalbkugel, zum Beispiel auf dem Nordatlantik. Intensivieren sich die Westwinde, was seit mehr als 20 Jahren auf der Südhalbkugel beobachtet wird, so wird es zum Beispiel an der Westküste der Antarktischen Halbinsel wärmer, denn der Temperatur-Unterschied zwischen den Winden und dem damit anbrandenden Meerwasser und dem Eis beträgt mehr als 20 Grad. Zweiter Faktor sind die durch die Winde hervorgerufenen Sturmwellen. Sie schlagen gegen das Eis und bewirken mechanisch einen Eisabbruch. Und ein dritter Faktor: Wenn sich immer mehr Schnee und Eis nach oben hin auftürmen, wächst die Eisdicke und damit auch der Druck nach unten. Druck erzeugt Wärme, so dass sich unter dem Eis eine Flüssigwasserschicht bildet, auf der die Gletscher anfangen zu rutschen. All diese Ursachen sind also meteorologischer beziehungsweise physikalischer Natur und haben nichts mit irgendeiner Klimakatastrophe zu tun.

factum: Dann muss es auch schon früher solche Eis-Abbrüche gegeben haben?

Puls: Ja, seit Jahrtausenden, so auch in den 70er Jahren, in denen ja noch nicht von „Global Warming“ die Rede war. Im Gegenteil: Der "SPIEGEL“ titelte noch im August 1974 "Kommt eine neue Eiszeit?“ Es gab damals  Eis-Abbrüche von einigen hundert Quadratkilometern Durchmesser, so dass in den Medien diskutiert wurde, ob man die Eisberge per Schlepper in trockene Länder wie Südafrika oder Namibia als Trinkwasserversorgung bringt. Das war dann aber logistisch schwer zu bewältigen.

factum: Was ist mit den Fotos von den Eisbären, die nicht mehr genug Eis haben und die gern in den Medien abgedruckt werden, wenn es um den Klimawandel geht?

Puls: Das ist eine der schlimmsten Klimahysterie-Geschichten. Der Eisbär ist da die Ikone. Der Eisbär frisst kein Eis, er frisst Robben. Er stirbt, wenn wir die Robben bejagen oder gar ausrotten, nicht, wenn das Eis schmilzt. Er hat genug Land, auf dem er leben kann, es gibt im Nordpol-Bereich sehr viele Inseln, außerdem Nordgrönland, Alaska, Sibirien, die ganze Polarkalotte. Die Eisbärpopulation hat sich während der mäßigen Klimaerwärmung auf der Nordhalbkugel sogar vermehrt! Vor 50 Jahren wurden in der gesamten Nordpolregion 5000 Eisbären gezählt, heute sind es etwa 25 000 Eisbären. 

factum: Aber es ist richtig, dass das Eis in der Arktis, anders als in der Antarktis, weiterhin schmilzt?

Puls: Ja, es schmilzt seit 30 Jahren. Das hat es aber auch schon in den letzten 150 Jahren zweimal gegeben. 2007 gab es einen sommerlichen Tiefpunkt, seitdem gibt es jedoch jedes Jahr im Sommer wieder etwas mehr Eis. Das Eis schmilzt im Sommer und legt im Winter wieder zu. Die Sorge der Forscher im Jahr 2007, dass der so genannte unumkehrbare Kipppunkt erreicht sei, war unbegründet. Der Sommer-Tiefpunkt von 2007 wurde seit fünf Jahren nicht mehr erreicht oder gar unterschritten. Eisschmelzen hat es schon immer gegeben. Zwischen 900 und 1300 war Grönland bereits schon einmal in den Randbereichen grün, die Wikinger besiedelten „Grün-Land“.

factum: Und was sagen Sie zur oft behaupteten Ausdehnung der Wüsten?

Puls: Die existiert nicht. Die Sahara schrumpfte zum Beispiel zugunsten der umliegenden Steppen. In den letzten 20 Jahren schrumpfte die Sahara im Norden um etwa 300 000 Quadratkilometer, ein Gebiet fast so groß wie Deutschland. Im Süden der Sahara liegen die Trockensteppen des Sahel-Gürtels. Auch dort ist seit mehr als 20 Jahren  sowohl eine Zunahme von Niederschlägen als auch das Ausbreiten von bestimmten Bäumen und Sträuchern zu beobachten. Mittlerweile ist eine Fläche von etwa 300 000 Quadratkilometern "ergrünt“. Die in 2010 aufgetretene Hungersnot in Somalia, Kenia und Äthiopien ist vor allem durch die Pachtung von großen Ländereien durch internationale Konzerne und den dortigen Anbau von Bio-Sprit-Pflanzen für Europa aufgetreten,  sowie natürlich auch durch Krieg und Terror. Es erscheint jedoch im wohlhabenden Europa bequemer zu sein, eine fiktive Klima-Katastrophe für die gesellschaftlichen Fehler und Versäumnisse dieser Welt verantwortlich zu machen.

factum: Brauchen wir dann gar nichts gegen den Klimawandel tun?

Puls: Wir können nichts dagegen tun. Naturwissenschaftlich ist es schier absurd, durch ein paar Drehungen an irgendwelchen CO2-Stellschrauben "ein schön angenehmes stabiles Klima“ festhalten zu wollen. Viele verwechseln jedoch Klimaschutz und Umweltschutz. Das Klima können wir nicht schützen, aber wir müssen natürlich die Umwelt schützen und uns um sauberes Trinkwasser für alle Völker kümmern.

Noch etwas ist mir wichtig: Eine auch meines Erachtens in etlichen Ansätzen sinnvolle Debatte zu alternativen Energien wird auf eine irrationale Klima-Debatte drauf gesattelt. Das eine hat mit dem anderen nichts zu tun.

Vielen Dank für das Gespräch

Interview: Bettina Hahne-Waldscheck

Der Beitrag wird mit der freundlichen Bitte um fachliche Kommentierung an die wissenschaftliche Leitung des Alfred Wegener Instituts (AWI) gesandt. Wir sind der Auffassung, dass das AWI als öffentlich rechtliche Forschungsinstitution eine Kommentierungs- und Berichtspflicht dem Bürger gegenüber hat. Wir werden die Antwort des AWI – bzw. auch das mögliche Ausbleiben einer Antwort – hier auf der EIKE-Seite veröffentlichen.

Die Redaktion

Weiterführender Link: Die Welt 2007: Nordpol bereits in fünf Jahren eisfrei

 

Related Files




Constructal Theorie von Adrian Bejan!

Dies klingt sowohl etwas geschwollen als auch scheinbar trivial, aber dahinter steckt ein geniales Prinzip, wie ich im Folgenden zeigen werde.

Fangen wir mit dem System an. Das System ist universell. Es kann ein physikalisches, biologisches, klimatologisches, gesellschaftliches etc. sein. Wir werden beispielhaft ein Wasser (Fluss)System, einen Baum und die Entwicklung der Technologie betrachten.

Es gibt in gewisser Weise eine Verwandtschaft zu den Fraktalen. Zum Beispiel der Missouri besitzt eine fraktale Dimension von 1.2, da er aus einem weit verzweigten System von Nebenflüssen aufgebaut ist. Dies wurde induktiv bestimmt. Lax gesagt, in dem man eine Karte des Missouri mit verschiedenen Maßstäben ausgemessen hat [d = log(Ni)/log(1/ri), Ni Anzahl der gemessenen Elemente für den Maßstab mit der Länge ri]. Die CT macht dies deduktiv in dem sie zeigt, dass ein Flusssystem so aufgebaut sein muss um optimal den Durchfluss zu gewähren. Wenn man sowohl das Versickern und den Abfluss optimiert, erhält man für den Quotienten des längsten Flusses im Gebiet Ai dividiert durch den längsten Fluss im Gebiet Ai-1 (Ai > Ai-1) die Zahl 2. Empirisch wurde gefunden 1.5-3.5. Macht man dies für die Anzahl der längsten Ströme so ergibt sich 4 und empirisch 3-5.

Betrachtet man das Fliegen. Die folgende Graphik zeigt die wesentlichen Komponenten.

So hat man eine vertikale Komponente, die potentielle Energie (beim Fluss war es das Versickern), und eine horizontale, den Luftwiderstand (oben das Fließen), unter der Randbedingung möglichst wenig Energie (Treibstoff beim Flugzeug, Futter bei den Tieren) auf möglichst großer Distanz, zu optimieren. Macht man nun die sehr vereinfachende Annahme, dass die Dichte des fliegenden Objektes gegeben ist durch p ~ M/L3, wobei M die Masse und L eine lineare Dimension ist, so findet man für die optimale Geschwindigkeit vopt proportional 30 x M1/ 6, wobei die Geschwindigkeit in m/s und die Masse in kg gegeben sind.. Dies ist als Gerade in der nächsten Graphik abgebildet.

Über fast elf Größenordnungen folgen Insekten, Vögel und Flugzeuge annähernd diesem Verhalten. Die verbleibenden Abweichungen sind wahrscheinlich eine Folge der Beschränkung auf eine charakteristische Länge L. Flugzeuge z.B. haben eher drei: Rumpf, Flügel und Leitwerk.

Alle diese Systeme sind Nichtgleichgewichtssysteme und haben folglich keine perfekte Symmetrie. Dies ist kein Manko, sondern notwendig. Gleichgewichtssysteme haben zwar die höchste Symmetrie, dafür sind sie aber tot. Leben, Fluss oder Bewegung gibt es nur im Nichtgleichgewicht. Die Systeme entwickeln sich im Lauf der Zeit, wenn sie die Freiheit dazu haben so, dass sie ihre Unvollkommenheiten optimieren. Mit anderen Worten, die Entwicklung verläuft in die Richtung, dass sie maximale Leistung oder minimale Dissipation (minimale Entropieproduktion) unter den vorgegebenen Randbedingungen bringen. Das Prinzip ist in der folgenden Graphik dargestellt. Die Bremse ist die Umgebung, die die Energie aufnehmen muss, z.B. durch Reibung, und die deshalb maximale Dissipation oder maximale Entropieproduktion besitzt.

Die CT wurde auch auf das System Sonne, Erde und Weltall angewendet. Betrachtet man das Ganze als eine gigantische Wärmemaschine, so wird die geleistete Arbeit zum Antrieb der Meeres- und Luftströme verwendet. Bestimmt man den maximalen globalen Energietransport von den äquatorialen Gebieten zu den Polen und optimiert nach den Breitengraden so erhält man die Grenzen zwischen den Hadley und Ferrel (25°40’) bzw. zwischen den Ferrel und den polaren Zellen (53°10’).Dies kann man auch für den Tag und die Nacht machen und in beiden Fällen stimmen die ermittelten Werte sehr gut mit den bekannten Größen überein. Beispiels- weise ergibt sich die globale mittlere Temperatur zu 283.5K.

Abschließend möchte ich noch einen wichtigen Punkt ansprechen. Es ist eine Tatsache, dass der Energieverbrauch pro Kopf in den entwickelten Ländern höher ist als in den unterentwickelten. Daraus schlussfolgern Einige, dass wir zu Gunsten der anderen unseren Verbrauch reduzieren und möglichst eine Gleichverteilung anstreben sollten. Ein Beispiel hierfür ist die Idee pro Kopf der Weltbevölkerung ein fixes CO2-Kontingent festzulegen. Geht das?

Wir verbrauchen Energie, in völliger Analogie zur Tierwelt, um Masse (Güter, Menschen, Daten etc.) zu transportieren. Diese Massenströme sind aber notwendigerweise nichtgleichmäßig verteilt, denn der Fortschritt (Optimierung) besteht gerade darin mehr Masse, Information etc. über längere Distanzen oder über gleiche Strecken in kürzeren Zeiten entlang bestimmter Kanäle zu transportieren. Die CT zeigt nun, dass nicht das gleichmäßige System das Beste ist, es führt letztendlich zum Stillstand, sondern jenes, welches seine Unzulänglichkei- ten so verteilt, dass der Gesamtwiderstand minimal wird. Hierzu verlagert es Kanäle mit großem Widerstand in Gebiete mit geringem Transportaufkommen.

Hiermit ist die Frage beantwortet. Es geht nicht, da es der Natur widerspricht, denn die Grundaussage der CT ist ein neues Naturgesetz, welches Aussagen über die Entwicklung von Strukturen macht.

Höherer Energieverbrauch bedeutet auch höheren Wohlstand. Den Verbrauch von Energie zu reduzieren, z.B. in dem man sie verteuert, bedeutet somit auch den Wohlstand zu verkleinern. Aber, kann man hier einwenden, dies muss nicht der Fall sein, da man dies auch durch Verbesserung der Effizienz erreichen kann. Richtig, dies wurde und wird aber ständig gemacht. Aber es gibt einen entscheidenden Unterschied. Die Effizienz hat einen nicht erreichbaren maximalen Grenzwert von Eins. Und trotz aller Fortschritte stieg der Energieverbrauch ständig an.

Dies wird durch die nächste Graphik sehr schön verdeutlicht. Immer mehr Menschen leben auf der Erde und die gelben Punkte in der linken unteren Ecke auf der obigen Graphik die wollen natürlich auch weiter nach rechts und somit nach oben. Deindustrialisierung der entwickelten Welt ist aber nicht die Lösung.

Wenn dies auch einer der führenden Vertreter des anthropogenen Klimawandels, Mitglied des Club of Rome und Organisator des Klimagipfels von Rio de Janeiro sagt:

Maurice Strong: "isn’t the only hope for the planet that the industrialized civilizations collapse? Isn’t it our responsibility to bring that about?"

Strong der nun in China lebt und über das Land sagt: „China is embarking on a distinctive and unprecedented pathway to a new model of development based on utilizing the methods of capitalism to achieve the goals of socialism–a socialist market economy." Wahrlich ein vorbildlicher Staat, wo der Friedensnobelpreisträger im Gefängnis sitzt und alle, die potentiell an der Zeremonie teilnehmen könnten nicht ausreisen dürfen. Zum Beispiel, der renommierte Ökonom Mao Yushi wollte zu einer Konferenz nach Singapur. „Die Flughafenpolizei stoppte mich. Meine Ausreise gefährde die Staatssicherheit“, schrieb der 81-Jährige in seinem Blog. „Das erinnert mich an die Kulturrevolution. Damals wurde meine Wohnung durchsucht, meiner Frau wurden die Haare geschoren, und ich wurde ausgepeitscht und aus der Wohnung geworfen. Sie nannten mich damals ein für die Hauptstadt gefährliches Element. Jetzt sagt man wieder, ich sei eine Gefahr für den Staat, und lässt mich nicht ausreisen.“

Viele Beispiele und Publikationen findet man auf der Webseite:

http://www.constructal.org/

Dr. Bernd Hüttner für EIKE

Weiterführender Link: http://www.eike-klima-energie.eu/news-anzeige/die-thermostat-hypothese/

Der Aufsatz kann auch als pdf Datei heruntergeladen werden, dann sind auch die richtigen Zeichen in den Formeln

Related Files




Die Überschwemmungen in Pakistan 2010: Klimaänderung oder natürliche Variabilität?

Unter den extremen Wettervorgängen im Sommer 2010 erregten die extensiven Überschwemmungen in Pakistan sowie deren gravierenden und ausgedehnten Auswirkungen maximale Aufmerksamkeit sowohl in den Medien als auch unter Wissenschaftlern. Viele Klimawissenschaftler drückten ihre Sorge aus, dass solche Ereignisse im Zuge der Klimaänderung in Zukunft häufiger auftreten, während die WMO (World Meteorological Organization) bekannt gab, dass solche Wetterkatastrophen wie im Juli und August 2010 gut in die von den Klimawissenschaftlern vorhergesagten Szenarien passen. Die furchtbaren Schäden durch die Fluten und die Flucht Tausender Menschen, die durch die weiten überschwemmten Gebiete irrten, wurden von den meisten Zeitungen und Fernsehnachrichten in Kanada [der jetzigen Heimat des Autors, A. d. Übers.] in herzerweichenden Bildern dokumentiert. Nach jüngsten Schätzungen gab es durch die Fluten über 1500 Tote und über 2 Millionen Obdachlose.

Aus persönlicher Sicht weckten die TV – Bilder von Frauen und Kindern im knietiefen Wasser ergreifende Erinnerungen an eine ähnliche Situation, die ich in Pune, meiner früheren Heimatstadt (einer Stadt 200 km südöstlich von Mumbay, der größten indischen Stadt an der Westküste) im Juli 1961 erlebt hatte. In der ersten Woche des Juli 1961 führten ununterbrochene Monsunregenfälle zum Bruch eines Dammes, was eine massive Überschwemmung der Stadt Puna zur Folge hatte, die hunderte von Häusern zerstörte und in der viele Dutzend Menschen ertranken. Viele andere Städte und Regionen waren durch den Sommermonsun 1961 von ähnlichen Überschwemmungen betroffen. Wie sich herausstellte, war der Sommermonsun 1961 in Indien und den umgebenden Gebieten der regenreichste Monsun in einer 150-jährigen, durch Messungen gut abgesicherten Reihe, der zu massiven Überschwemmungen und Sachschäden in vielen Gebieten des Landes führte (India Meteorological Departement 1962). Der Monsun dieses Jahres 2010 war seit der dritten Juliwoche ziemlich heftig, und schwere Regenfälle brachten Überschwemmungen in der Region der Halbinsel von Indien und auch in den nordwestlichen, an Pakistan grenzenden Gebieten. Hat der schwere Monsun 2010 zu den historischen Überschwemmungen in Pakistan geführt? Lassen Sie uns kurz einen Blick auf die Klimatologie des Monsuns werfen.

Überschwemmungen und Dürren des indischen Monsuns

Zunächst muss beachtet werden, dass die Monsunzeit in Pakistan fast gleichlaufend mit dem indischen Monsun ist. Er wird hauptsächlich angetrieben durch sowohl regionale als auch globale Systeme wie die ENSO (El Nino Southern Oscillation), die Ausdehnung der  Schneedecke in Eurasien während des vorangegangenen Winters und der Phase der QBO (Quasi-biennal Oscillation), also der äquatorialen stratosphärischen Windoszillation (siehe auch Khandekar 1996). Die Monsunzeit ist in Pakistan allgemein kürzer als in Indien und dauert im Mittel vom 1. Juli bis zur dritten Woche im September. Im Mittel bringt der Monsun in Pakistan als Ganzes Regenmengen um 500 mm, verglichen mit etwa 850 mm für ganz Indien in der Zeit von Juni bis September. Mit einem exzellenten Datensatz über fast 150 Jahre kann man einige der extremsten Überschwemmungen und Dürren erkennen, wie Abbildung 1 zeigt. Diese Graphik zeigt, wie unregelmäßig Dürren und Überschwemmungen während dieser 150 Jahre verteilt sind. Gleichzeitig scheint es keinen abnehmenden bzw. zunehmenden Trend zu geben. Wie früher schon erwähnt, war der Monsun 1961 der regenreichste Sommermonsun mit ausgedehnten Überschwemmungen, während es im Jahre 1877 zu einer sehr schlimmen Dürre kam mit einem Regendefizit von 40%.

Abbildung 1: Variabilität des indischen Sommermonsunregens von 1844 bis 2000, mit sieben großen Dürren (1868, 1877, 1899, 1918, 1951, 1972 and 1987) und sechs ausgedehnten Überschwemmungen (1892, 1917, 1933, 1961, 1970 and 1975).

 

 

Neben anderen Dürren und Überschwemmungen war auch der Monsunregen im Jahre 1917 außerordentlich heftig mit extensiven Überschwemmungen in vielen Gebieten des Landes, während es 1972 zu einer kapitalen Dürre mit schweren Ernteausfällen kam. Die Dekade der dreißiger Jahre des 20. Jahrhunderts waren generell gekennzeichnet durch einen Regenüberschuss und Überschwemmungen, vor allem die Jahre 1933, 1936 und 1938 (Bhalme & Mooley 1980). Es ist interessant, dass die gleiche Dekade sog. Staubschüsseljahre [dust bowl years] in den Präriegebieten der USA und Kanadas waren. Über eine mögliche Fernwechselwirkung zwischen indischen Flutjahren und Dürre in der kanadischen Prärie wurde schon von Khandekar 2004 spekuliert.

Neben diesen unregelmäßig auftretenden Überschwemmungen und Dürren zeigt Abbildung 1 die jährliche Variabilität des Monsuns viele Jahre hintereinander, in denen auf ein Dürrejahr Jahre mit schweren Überschwemmungen folgten. Beispielsweise waren die Jahre 1941, 1972 und 1987 Dürrejahre, während die jeweils folgenden Jahre 1942, 1988 und 1987 durch Überschwemmungen gekennzeichnet waren. Diese Flut-Dürre-Sequenz scheint einen zweijährigen Rhythmus des indischen Monsuns nahezulegen, angetrieben durch die großräumigen Strömungsverhältnisse zwischen Atmosphäre und Ozeanen, und wurde von Terray (1987) und Anderen analysiert. Der hauptsächliche Mechanismus für dieses Phänomen scheint in der ENSO-Phase und seiner Entwicklung von El Nin?o (warm) zu La Nin?a (kalt) zu liegen. Die Jahre 1941, 1972 und 1987 waren El Nin?o – Jahre, die jeweils folgenden 1942, 1973 und 1988 dann Jahre mit einem La Nin?a.  El Nin?o – Ereignisse unterdrücken konvektive Vorgänge im Golf von Bengalen (Francis & Gadgil 2009), von wo Feuchtigkeit zu den nördlichen Regionen der Gangesebene und von dort weiter nach Nordwestindien entlang der Achse des Monsuntroges transportiert wird. Diese Trogachse etabliert sich bis Juli in einer von Südost nach Nordwest gerichteten Position und reicht vom Golf von Bengalen bis nach Nordwestindien in die an Pakistan angrenzenden Gebiete (siehe Abbildung 2). Ein paar Monsuntiefs über dem Golf von Bengalen unterstützen diesen Transport von Feuchtigkeit nach Nordwestindien und gelegentlich bis nach Pakistan hinein, meist während der Hochsaison des Monsuns, also etwa von Anfang Juli bis Mitte August.

Mögliche Gründe der Überschwemmung in Pakistan und Nordwestindien im Jahre 2010

Das El Nin?o – Ereignis im Jahre 2009, der zu einem der mildesten Winter in Kanada führte, ging im Frühjahr 2010 zu Ende. Im Juni 2010 entwickelte sich im äquatorialen Pazifik eine La Nin?a – Situation (Kaltphase der ENSO) die sich Anfang Juli verstärkte. Folgerichtig zeigte sich die Konvektion über dem Golf von Bengalen deutlich verstärkt, und zahlreiche Monsuntiefs [monsoon depressions] unterstützten die monsunale Strömung in den nordwestlichen indischen Subkontinent. In der dritten Woche des Juli 2010 unterstützte ein persistentes Tiefdruckgebiet über dem Teilstaat Rajasthan in Nordwestindien zusätzlich den Feuchtetransport bis nach Nordwestpakistan, was zu den schweren Regenfällen und Überschwemmungen dort führte. Nach den jüngsten Statistiken (bis zum 25. August 2010) des Indian Meteorological Departement erreichte die jahreszeitliche Regenmenge in den Teilstaaten in Nordwestindien schon jetzt über 125% des Mittelwertes.

 

 

Abbildung 2: Umrisskarte von Indien und Pakistan mit der mittleren Position der monsunalen Trogachse.

 

Es muss betont werden, dass es in der Monsunzeit durchaus lokale Unterschiede gibt dergestalt, dass es lokale und/oder regionale Überschwemmungen in einigen Gebieten des indischen Subkontinents gibt, während gleichzeitig andere Gebiete unter einem Regendefizit leiden. Diese unterschiedliche Verteilung von viel/wenig Regen ist integraler Bestandteil der Monsunzeit, die nur sehr selten zu einer ausgeglichenen Verteilung des Regens in der gesamten Region führt. Während des regenreichsten Monsuns im Jahre 1961 gab es in Zentralindien 30% mehr Regen als im Mittel üblich, während die Gebiete im Nordosten (wo der regenreichste Punkt der Erde Cherrapunjee liegt) ein Regendefizit von 25% verzeichneten.

Abschließende Bemerkungen

Der rasche Übergang der ENSO – Phase von El Nin?o zu La Nin?a zwischen Frühjahr und Sommer 2010 scheint das Schlüsselelement für die Auslösung des gewaltigen Monsuns 2010 über dem indischen Subkontinent zu sein. Die La Nin?a – Phase war verantwortlich für die verstärkte Konvektion über dem Golf von Bengalen, wo sich viele Monsuntiefs bildeten. Diese Depressionen wanderten entlang der monsunalen Trogachse und transportierten sehr viel Feuchtigkeit nach Nordwesten, was zu den exzessiven Überschwemmungen führte. Lokale und regionale Faktoren wie z. B. die Topografie könnten die Auswirkungen der Flut in manchen Gebieten noch verstärkt haben. Eine Untersuchung der Klimatologie des Monsuns, dargestellt in Abbildung 1, legt nahe, dass die Überschwemmungen in Pakistan 2010, obwohl scheinbar beispiellos, noch gut in die natürliche Variabilität des monsunalen Klimas im indischen Subkontinent passen. Ein besseres Verstehen könnte es uns ermöglichen, die Vorhersage der Stärke des Monsuns zu verbessern. Damit können in Zukunft die Auswirkungen von Dürren und Überschwemmungen minimiert werden.

Link: http://icecap.us/images/uploads/MLK2010Pakistanfloods.pdf

Dr. Madhav L. Khandekar is a former Research Scientist from Environment Canada where he worked for about 25 years. Khandekar holds M.Sc degree in Statistics from India and M.S. and Ph.D. degrees in Meteorology from USA. Khandekar has been in the fields of atmosphere/ ocean/climate for over 50 years and has published over 125 papers, reports, book reviews, scientific commentaries etc. He has published over 40 peer-reviewed papers in various international Journals and authored a book on ocean surface wave analysis and modeling, published by Springer-Verlag in 1989. Khandekar is presently on the editorial board of the Journal Natural Hazards (Netherlands) and is a former editor of the journal Climate Research (Germany). He was an expert reviewer for the IPCC (Intergovernmental Panel on Climate Change) Climate Change Documents (AR4) published in 2007. 

Weitere Informationen zum Extremwetter vs Klima finden Sie hier (englisch) 

Übersetzt von Chris Frey für EIKE




Erklärung des Europäischen Instituts für Klima und Energie (EIKE) zur beabsichtigten Verabschiedung des Energiekonzeptes der Bunderregierung !

Erklärung des Europäischen Instituts für Klima und Energie (EIKE) zur beabsichtigten Verabschiedung des Energiekonzeptes der Bundesregierung

26.09.201

I Grundsätze des Energiekonzepts

 „Die Sicherstellung einer zuverlässigen, wirtschaftlichen und umweltverträglichen Energieversorgung ist eine der größten Herausforderungen des 21. Jahrhunderts“ wird im Energiekonzept (EK) festgestellt (EK, S.3). Diese Aussage steht im eklatanten Widerspruch zu den im Energiekonzept enthaltenen Vorschlägen zur Entwicklung der Energieversorgung in Deutschland. Dieser Widerspruch wird in der Erklärung von EIKE behandelt.

Zunächst wird auf den Sinn eines solchen Energiekonzepts eingegangen. Er wird von der Bundesregierung damit begründet, dass es einen Klimawandel gibt, den wir Menschen mit einer falschen Energiegewinnung und als Folge davon durch zu hohe CO2-Emissionen verursachen. Dieses CO2 soll eine ‚Erderwärmung’ bewirken, die unsere Existenz gefährdet. Um diese Gefahr abzuwenden, müssen wir unsere Energiegewinnung hin zu weniger CO2-Emissionen abändern.

II Klimawandel als Motor – Glaube statt Fakten

Das Konzept eines anthropogen verursachten Klimawandels wurde von Maurice Strong, dem Generalsekretär des ‚Erdgipfels’ in Rio de Janeiro, zusammen mit einigen Gleichgesinnten initiiert. Strong fühlt(e) sich dem richtigen Gedanken des Umweltschutzes verpflichtet. Da er und seine Mitstreiter aber offensichtlich weder geologische noch klimatologische Grundkenntnisse besaßen, wählten sie als Instrument für die notwendigen Bemühungen um unsere Umwelt den Begriff ,Klimawandel’ aus, weil er durch vom Menschen emittiertes CO2 angeblich die Erderwärmung verursacht. Um dieses CO2 zu reduzieren und damit den ‚Planeten vor dem Ruin zu retten’, sollten – so die Aussage von Strong – die Industrieländer kollabieren.

Selbstverständlich können – und müssen – wir unsere Einflüsse auf die Umwelt minimieren und wir müssen mit unseren Energieressourcen sparsam umgehen – nicht zuletzt der Kosten wegen. Die sich seit der Entstehung der Erde ständig ändernden Klimate – von polar bis tropisch – können wir jedoch nicht steuern oder gar ändern. Ständiger Klimawandel ist Normalität, und konstante Klimate sind unmöglich, so etwas gab es noch nie in der Erdgeschichte. Es kam daher, wie es nach aller paläoklimatologischen Erfahrung kommen musste: die zugrunde gelegte globale Erwärmung blieb aus. An den vom sog. Weltklimarat (IPCC) trotzdem angeordneten Klimawandel wurde mit Hilfe der Medien und der Politik jedoch zunehmend geglaubt, und inzwischen hat dieser Glaube quasi-religiöse Formen angenommen.

Am 28. September will die Bundesregierung ihr Energiekonzept verabschieden. Es basiert tatsächlich – und immer noch – auf der Annahme, dass es global wärmer wird und dass wir Menschen diese Erwärmung mit unseren CO2-Emissionen verursachen.

Inzwischen ist lange klar, dass die Fakten den Glauben widerlegen: Mit dem Ausklingen der Kleinen Eiszeit ab 1700 haben sich die Temperaturen global – von weiteren Abkühlungs- und Erwärmungsperioden unterbrochen – insgesamt wieder erholt. Sieht man sich Langzeit-Thermometerdaten verlässlicher Wetterstationen wie Hohenpeissenberg, Prag, Wien, München und Paris an, dann sieht man einen Temperaturabfall im 19. Jahrhundert, der von einem etwa gleichgroßen Anstieg im 20. Jahrhundert abgelöst wurde, alles absolut gewöhnliche und natur-normale 100-Jahres-Ereignisse. Da es im 20. Jahrhundert weltweit inzwischen ausreichend viele Messstationen gab, wurde deutlich, dass der Anstieg in diesem Jahrhundert nur für die Nordhemisphäre, nicht aber für den Süden der Erde zutraf, der sich in großen Teilen sogar abgekühlt hat. Letzteres wäre im Falle einer CO2-induzierten globalen Erwärmung nicht möglich gewesen. Globalweit ist im 20. Jahrhundert im Gegensatz zur ,konventionellen Weisheit’ keine Erwärmung nachweisbar, wie es sogar der medienbekannte Klimaforscher Prof. Schellnhuber vom Potsdamer Institut für Klimafolgenforschung (PIK) fachlich unmissverständlich, aber in bemerkenswertem Gegensatz zu seinen medialen Klimaktastrophen-Verlautbarungen bestätigt [1].

Eine Rückerwärmung nach der Kleinen Eiszeit ist insgesamt alles, was vorgefallen ist. Darüber sollten wir uns freuen, denn die Lebensumstände waren bis ins 19. Jahrhundert hinein eher durch Hunger geprägt als durch Überfluss. Das alles beweisen die Fakten. Sie beweisen auch, dass CO2 die rezente Erwärmung nicht verursacht haben kann. Bis heute ist kein ,anthropogener Fußabdruck’ in Klimavorgängen auffindbar, weder in Extremwetterereignissen, wie Tornados, Starkniederschlägen, Dürren usw. noch in ungewöhnlichen Meeresspiegelanstiegen. Dies bestätigt nicht nur die gesamte meteorologische Fachliteratur sondern sogar das IPCC selber im umfangreichen Abschnitt 2.7 seines wissenschaftlichen Berichts von 2001, in dem  einer vermuteten Zunahme von Extremwetterereignissen nachgegangen wird.

Ein maßgebender Zusammenhang von zunehmenden anthropogenen CO2 und Globaltemperaturen sowie Auswirkungen auf Klimaparameter konnte bis heute auch physikalisch nicht nachgewiesen werden. CO2 ist nach dem Wasserdampf das zweitstärkste Treibhausgas, und nach heutigem Stand der Atmosphärenphysik erzeugt eine theoretische Verdoppelung der atmosphärischen CO2-Konzentration eine globale Temperaturzunahme von etwa 1 °C – man spricht von „Klimasensitivität des CO2. Dieser Wert ist unbedenklich, denn zur CO2-Verdoppelung müsste die Menschheit schon alle fossilen Brennstoffe verfeuern, deren sie habhaft werden kann, und davon ist nicht auszugehen. Die von ökoideologisch interessierten Kreisen kolportierten 2 °C (oder sogar noch mehr) sind dagegen Fiktion, diesen Wert gibt es in der Fachliteratur nicht. Im Gegenteil, selbst der vorgenannte Konsens von 1 °C ist ein noch zu hoher Wert, wie es die jüngeren Facharbeiten von international hoch-renommierten US-Klimaforschergruppen nachweisen [2], [3], [4]. Diese Facharbeiten sind bis heute unwiderlegt geblieben, was nicht verwundert, denn sie beruhen auf Messungen – im Gegensatz zu den Verlautbarungen der Klima-Warner, die sich nur auf fiktive Klima-Computer-Modelle berufen können.

In diesem Zusammenhang ist auf den deutlichen Unterschied zwischen den wissenschaftlichen Berichten des IPCC und seinen Berichten für Politiker zu erinnern. Die Inhalte der Berichte für Politiker werden zuvor mit den betroffenen Regierungen abgesprochen, so dass der Begriff ,seriös’ oder gar ,wissenschaftlich’ hier nicht am Platz ist.  Ferner sind zunehmende Manipulationen von Daten auch in dem wissenschaftlichen IPCC-Bericht vom Jahre 2007 zu nennen. Die politisch gezielten Prognosen des IPCC beruhen daher jetzt auf Daten, die zu einem erheblichen Teil manipuliert wurden. Wenige Wochen vor dem Klimagipfel in Kopenhagen wurde das bekannt. Die New York Times verlieh infolgedessen diesem Wissenschaftsskandal unverzüglich das Prädikat ,ClimateGate’.

In Deutschland wurde das 2 °C – Ziel von der Fachwelt als „unsinnig“ erklärt, u. a. von den Präsidenten des Geoforschungszentrums Potsdam, des Alfred-Wegener-Instituts in Bremerhaven und des  Senckenberg-Museums Frankfurt/Main als eines unserer größten und wichtigsten Naturkundemuseen. Trotz ClimateGate und trotz Unsinnigkeit ist das 2°C – Ziel unverändert die Grundlage des regierungsamtlichen Energiekonzeptes, das so beschlossen werden soll – mit unübersehbaren Kosten für die deutschen Verbraucher und die deutsche Wirtschaft.

Das Energiekonzept der Bundesregierung beruht daher auf Prognosen, für die es keine belastungsfähigen Beweise gibt und die man deshalb glauben muss. Die Prognosen haben sich schon jetzt weitgehend als falsch erwiesen, so dass ein solcher Glaube kein Vertrauen verdient. Dieser Zweifel wird durch die Erfahrung verstärkt, dass es immer schon Advokaten-Wissenschaftler gegeben hat, die ihrem Dienstherrn, seinem Projekt und dem eigenen Nutzen mehr gedient haben als der Wahrheit.

In diesem Zusammenhang muss schlussendlich nachdrücklich auf das von den Medien hartnäckig kolportierte Missverständnis aufmerksam gemacht werden, dass die politische IPCC-Meinung der mehrheitlichen Auffassung aller Klimaexperten weltweit entspräche. Das genaue Gegenteil ist der Fall! Unzählige Manifeste und Petitionen von Klimaforschern und fachnahen Naturwissenschaftlern (Heidelberg, Leipzig, Oregon (USA), Kanada, US-Senat usw.) sind zwar im Internet incl. den Namen der inzwischen zu Zehntausenden zählenden Unterzeichner (Fachwissenschaftler!) einsehbar, werden aber von Medien und Politik konsequent ausgeblendet. Meinungsmehrheit ist zwar niemals ein endgültiges Urteil über die Richtigkeit einer physikalischen Hypothese, aber die politischen Entscheidungsträger sollten zur Kenntnis nehmen, dass die am IPCC-Prozess beteiligten Wissenschaftler gegenüber ihren Fachkollegen als sog. ,Klimaskeptikern’ eine Minderheit darstellen, die nur mit UN- und medialer Unterstützung als angebliche Mehrheit ,verkauft’ werden kann. 

Wir haben den Artikel 17 des Deutschen Grundgesetzes (wer kennt ihn eigentlich?) ernst genommen und uns mit unseren Bedenken an die Regierenden gewandt. Die Fakten wurden dem Bundeskanzleramt und den relevanten Ministerien mehrfach mit der Bitte zugesandt, uns eine faire und objektive Diskussion mit den Befürwortern eines anthropogen Klimawandels zu ermöglichen, denn wann immer diese zusammen mit uns eingeladen wurden, haben sie eine Beteiligung vermieden. Weder das Bundeskanzleramt selbst noch die Ministerien haben die Möglichkeit zu einer Diskussion gegeben. Ein Offener Brief an die Bundeskanzlerin, in dem eine entsprechende Bitte vorgetragen wurde und den inzwischen über 400 qualifizierte Bürger unterschrieben haben, von denen 90 Personen mit relevanten  Berufen zum Wissenschaftsbereich gehören, wurde bis heute nicht beantwortet. Dafür können unzählige Menschen in mehreren Ländern den Brief in ihren Muttersprachen lesen. Die vom Bürger geforderte aktive Mitarbeit im Staat ist wohl doch nicht ernst gemeint, und über ein demokratisches und transparentes Regierungshandeln gibt es offensichtlich unterschiedliche Vorstellungen. Auf die Eingaben hin beschränkten sich die Antworten auf den stereotypen, lapidaren Hinweis, dass sich die amtliche Klimapolitik ausschließlich am 2 °C – Ziel orientiert. In den Veranstaltungen der Öffentlich-Rechtlichen Fernsehanstalten konnten die gegensätzlichen Ausfassungen ebenfalls nicht vorgebracht oder geklärt werden, denn von Beckmann über Illner bis Will wurden fast ausschließlich Befürworter der Hypothese von einer gefährlichen globalen Erwärmung eingeladen.

Wer Entscheidungen zu treffen hat, prüft Alternativen; schon bei kleinen Anschaffungen ist das üblich. Bei wesentlichen Entscheidungen über die zukünftige Klimapolitik und die Energieversorgung sollte es zwingend sein, die Grundlagen sorgfältig zu prüfen. Das ist nicht geschehen, sondern wurde von amtlicher Seite verweigert. Daher besteht nun die Gefahr, dass ein Energiekonzept verabschiedet wird, welches irrational auf Glauben basiert und jene Fakten unberücksichtigt lässt, die die Dogmen dieses Glaubens an einen vom Menschen verursachten Klimawandel widerlegen. Zu Beginn des 21. Jahrhunderts und mitten in einer von Wissenschaft und Technik geprägten realen Welt wird damit ein Regierungshandeln praktiziert, das methodisch noch dem Mittelalter angehört.

III Bedingungen der Stromgewinnung

Politiker von ‚Bündnis 90 Die Grünen’ haben schon das Goldene Zeitalter der unbegrenzten Energieversorgung vorausgesagt  (O-Ton Eveline Lemke, Landes­vorstandssprecherin der Grünen in Rheinland-Pfalz): „Mit den ‚Er­neuerbaren’ haben wir den Strom dann praktisch umsonst“.

Leider haben auch bei der Stromgewinnung die Götter vor den Erfolg den Schweiß gesetzt, und deshalb ist zunächst die Feststellung erforderlich, dass es nach dem Gesetz von der Erhaltung der Energie tatsächlich keine erneuerbare oder regenerative Energie gibt. Unser Hauptenergielieferant ist die Sonne, und wenn wir sie nutzen wollen, müssen wir ihre Energie umwandeln – egal, ob sie in der geologischen Vergangenheit auf der Erde als Gas, Öl oder Kohle gespeichert wurde, oder ob sie täglich frisch eintrifft. Die Umwandlung erfordert technische Prozesse, und dafür sind Installationen und folglich Investitionen erforderlich. Der Aufwand für die Installation je Kilowatt Leistung ist leider um ein Vielfaches größer, wenn ,frische’ Sonnenenergie (oder Windenergie) in Strom umgewandelt werden soll, als dies bei fossilen Energieträgern oder gar der Kernenergie der Fall ist. Bei der Erzeugung von elektrischem Strom als physikalisch-technischem Prozess gelten keine Glaubensinhalte sondern feststehende Bedingungen: Ergiebigkeit, Verfügbarkeit und Wirtschaftlichkeit. Wie man am günstigsten den Strom produziert, das Lebensblut der Wirtschaft und die Existenzbedingung für immer mehr Menschen, ist folglich keine Glaubenssache sondern eine technische Rechenaufgabe.

Die Ergiebigkeit der Erneuerbaren Energien wird durch deren Energiedichte bestimmt. Dies bedeutet für die Praxis, dass die – verglichen mit Gas, Kohle, Kernkraft – viel zu geringe Energiedichte von Wind und Sonneneinstrahlung den Aufwand  bei der Stromerzeugung mit Windrädern oder Photovoltaik wirtschaftlich unbrauchbar macht. So entspricht die Leistung eines Kernkraftwerks vielen 100 km Windrädern im deutschen Binnengebiet hintereinander. Aber selbst das gilt noch nicht einmal in Gänze, weil das Leistungsangebot von Windrädern unstetig  erfolgt und daher für den praktischen Bedarf von Industrie und Verbrauchern weitgehend wertlos ist. Die Verfügbarkeit der Erneuerbaren ist begrenzt: Wind oder Photovoltaik erzeugen bei Windstille und Dunkelheit keinen Strom, weshalb eine mindestens 100-fach größere Speicherkapazität benötigt wird als wir sie gegenwärtig für den Betrieb der konventionellen Kraftwerke brauchen und installiert haben.

Diese unabdingbaren Faktoren sind weltweit bestens bekannt, und deshalb plant und baut man – bzw. behält man – in den anderen Ländern Wasserkraft-, Kohle- und Kernkraftwerke. Die sehr viel teurere Stromerzeugung aus den Erneuerbaren Energien ist erst dann als weltweiter Standard denkbar, wenn alle fossilen Brennstoffe und Kernbrennstoffe verbraucht sein werden. Mit Uran- und Thorium-Vorräten für viele tausend Jahre ist davon allerdings nicht auszugehen, wobei hinzukommt, dass der Kernbrennstoff Uran sogar im Meerwasser enthalten ist und (z.Zt. noch mit etwa 5 – 10 fach höheren Kosten als aus Minen) herausfiltert werden kann.

IV Die Widersprüche des Energiekonzeptes

„Zuverlässig, wirtschaftlich und umweltverträglich“ soll die Energieversorgung sein. Dass sie physikalisch-technischen Bedingungen unterliegt, die die Stromgewinnung bestimmen, wird im Energiekonzept leider nicht erwähnt, ist aber der entscheidende Punkt.

Zuverlässigkeit

Die Zuverlässigkeit der Versorgung ist erheblich eingeschränkt, weil

  • Die durch den wachsenden Anteil an Wind- und Solarstrom benötigte Speicherkapazi­tät nicht vorhanden ist und (s. unter V) auch praktisch niemals verfügbar sein kann;

  • Der Bedarf von Importstrom völlig ungeklärt ist, denn es fehlt die Abstimmung

1)  mit den Herkunftsländern und

2)  mit anderen Ländern, die ebenfalls Strom importieren müssen;

  • Der Import von „nachhaltigen Bioenergieträgern“ (EK, S.11) ebenso ungeklärt ist, denn:

1)    es fehlt ebenfalls die Abstimmung mit den Herkunfts- und potentiellen Konkurrenz­ländern;

2)    es ist mindestens zweifelhaft, ob der transozeanische Transport von nachhaltigen Bio­energieträgern nicht mehr Energie erfordert als ihre Verstromung einbringt; schließlich und grundsätzlich sollte aber ….

3)    …. die Stromgewinnung aus nachhaltigen  Bioenergieträgern verboten werden, weil

a)  landwirtschaftliche Produkte und die dafür benötigten Ackerflächen für die Er­nährung der zunehmendem Weltbevölkerung dringend benötigt werden, und

b) forstwirtschaftliche Produkte in den Herkunftsländern die Waldrodung verstär­ken; bei der Formulierung des Energiekonzeptes wusste man offenbar nichts von Hungerrevolten beispielsweise in Chiapas/Mexiko, die Menschenmassen gegen die Entscheidung US-amerikanischer Farmer demonstrieren ließ, ihren Mais nicht mehr ihnen für die Herstellung von Tortillas zu verkaufen, sondern wegen des größeren Gewinns daraus Biosprit herstellen zu lassen.

Wirtschaftlichkeit

Die Wirtschaftlichkeit der Erneuerbaren ist deutlich kleiner, denn wegen der geringeren Ergiebigkeit und der zeitlich begrenzten Verfügbarkeit ist die Stromerzeugung aus Wind oder Photovoltaik unabänderlich teurer. Das ist bekannt, denn nach dem EEG werden diese Gewinnungsarten mit sehr vielen Milliarden von den Verbrauchern zwangsweise subventioniert. Die bisher noch ungelöste Problematik der Stromspeicherung wird den Strom aus erneuerbaren Energien zusätzlich mit sehr großen Kosten belasten – vorausgesetzt, es ließe sich überhaupt eine technische Lösung erdenken und in die Praxis umsetzen.  

Wir leben vom Verkauf unserer Produkte auf dem Weltmarkt, und das gelingt nur, solange sie nicht wesentlich teurer sind als die unserer Konkurrenten. Wenn der Strom bis 2050 bei uns tatsächlich nur noch aus den Erneuerbaren Energien produziert werden soll, werden wir für den Weltmarkt bedeutungslos. Was das für unsere Arbeitsplätze und für unseren Lebensstandard bedeutet, sollte jedem Entscheidungsträger klar sein. 

Umweltverträglichkeit

Das Landschaftsbild Deutschlands hat sich in den letzten Jahrzehnten durch die Einrichtung der Windparks drastisch verändert, der dadurch benötige Landschaftsverbrauch und die Landschaftsschädigungen waren enorm, und sie werden weiter steigen. Die zusätzlich erforderlichen elektrischen Leitungsnetze, die für die Nutzung der Erneuerbaren Energien erforderlich sind, werden das Landschaftsbild weiter beeinträchtigen und den Landschaftsverbrauch vergrößern.

Die Wahrscheinlichkeit von Tankerhavarien mit unabsehbaren ökologischen Schäden in der dichtbefahrenen Nord- und Ostsee nimmt durch den geplanten massenhaften Bau von Offshore-Windenergieanlagen zu. Die vermutlich sehr schädlichen Auswirkungen von Offshore-Windparks auf die Vogelwelt und auf Meerestiere, z. B. Schweinswale, sind noch völlig unbekannt.

Das Energiekonzept sieht vor, die Stromgewinnung aus Biomasse erheblich zu verstärken. Das impliziert noch größere Monokulturen bei uns, Importe von Biomasse aus Übersee mit der Folge von weiteren Waldrodungen. Weder bei uns noch in den Exportländern dürfte sich das als umweltverträglich herausstellen. Außerdem muss man fragen, in welchem Umfang es bei weiterem Bevölkerungswachstum und dementsprechenden Mehrbedarf an Nahrungsmittel vertretbar ist, Agrarflächen für die Herstellung von Energierohstoffen zu benutzen. Im Sinne eines angeblich ökologisch determinierten Energiekonzeptes kann es dies nicht sein.

Stromspeicherung – ein ungelöstes Problem

Das schon angedeutete, aber im Detail noch zu erläuternde Problem ist die zwingend erforderliche, aber großtechnisch noch völlig ungelöste Speicherfrage von elektrischer Energie. Dieses Problem entsteht unvermeidbar, weil auch bei Ausfall der Erneuerbaren infolge von Windflaute bzw. Bewölkung dennoch die Stromversorgung unseres Landes aufrechterhalten bleiben muss. Die Speicherfrage ist weder in Deutschland noch irgendwo in Europa gelöst. In Anbetracht der Dimension des Problems muss sie sogar als unlösbar bewertet werden.

Pumpspeicherwerke (PSW) sind die einzig bekannte Einrichtung, um die zwingend erforderliche Frequenz- und Spannungskonstanz zu gewährleisten. Pumpspeicherkraftwerke sind technisch sehr aufwendig, ihr Bau erfordert bestimmte topographischen Gegebenheiten, nämlich Gebirge, die einerseits viele hundert Meter tiefe Täler, andererseits aber auch ausgedehnte Hochflächen zum Bau der Oberbecken aufweisen müssen. Das größte deutsche Pumpspeicherwerk ist Goldisthal in Thüringen. Mit einem anfangs gefüllten Oberbecken kann es 8 Stunden lang 1000 Megawatt liefern, dann ist es leer. Seine Planungs- und Bauzeit betrug 30 Jahre, die reine Bauzeit 11 Jahre; die Kosten beliefen sich auf 0,6 Milliarden €.

Gegenwärtig verfügt Deutschland in allen seinen PSW über eine installierte Leistung von ca. 6400 Megawatt (MW). Große PSW haben eine installierte Leistung von ca. 1000 MW. Keiner kann heute genau sagen, welche Leistung zusätzlich installiert werden muss, um den Bedarf zu decken, wenn der Strom vollständig aus Erneuerbaren Energien kommt, denn das hängt davon ab, wieviel Tage Windflaute und Sonnenbedeckung man riskieren will, ohne dass die deutsche Stromversorgung kollabiert. Nimmt man vernünftigerweise 20 Tage an, werden 140 mal mehr Leistung an PSW erforderlich als heute vorhanden sind. In Konsequenz des Energiekonzepts der Bundesregierung sind daher rund 700 neue PSW der Größe von Goldisthal in Thüringen zu bauen, was dem Begriff des Wahnsinns gleichgesetzt werden kann. Der Bau neuer Speicherbecken ist in Deutschland gar nicht möglich, weil schon die topographischen Voraussetzungen dazu fehlen. Von den astronomisch hohen Kosten braucht man dann nicht zu sprechen. Es ist nicht zu erwarten, dass Österreich, die Schweiz oder Norwegen bereit sind, für deutsche Windenergieanlagen ihre Hochgebirgstäler als Pumpspeicher-Becken zur Verfügung zu stellen. Andere Möglichkeiten der Stromspeicherung im erforderlichen Maßstab gibt es nicht.

VI Kosten 

Alle für die künftige Energieversorgung vorgeschlagenen Technologien – erneuerbare Energien, CCS, Energiespeicher, Fernleitungen – erfordern ernorme Investitionen, die nur aufgebracht werden können, wenn entweder Neuverschuldungen des Staates für Fördermaßnahmen vorgenommen werden oder Abstriche bei sonstigen Ausgaben (Infrastruktur, Bildung, Wissenschaft, Kultur, Entwicklungshilfe etc.) gemacht werden. Zu starken Kostenerhöhungen wird auch die weitere Ausdehnung des Handels mit Kohlendioxid-Emissionsrechten führen, ohne dass dadurch weltweit die Summe der CO2-Emissionen verringert wird. 

Investitionskosten für Wind- und Solarenergie-Anlagen sind pro elektrische Leistungseinheit deutlich höher als für konventionelle Kraftwerke. Hinzu kommt die naturbedingt geringere Ausnutzung der installierten Leistungen, was insgesamt zu weiter ansteigenden  Erzeugungskosten gegenüber konventionellen und nuklearen Kraftwerken führt. Die folgenden Zahlen belegen es: moderne Braunkohlenkraftwerke oder Kernkraftwerke liefern Strom für ca. 3 Ct/kWh, Wind für ca. 8 – 15 Ct/kWh und Photovoltaik für ca. 40 Ct/kWh. Es ist unverständlich, dass die einzige unsubventioniert nutzbare Primärenergiequelle Deutschlands, die Braunkohle, im Energiekonzept der Bundesrepublik nicht erwähnt wird.

Die vorgeschlagene Abtrennung und anschließende unterirdische Deponierung von CO2 bewirkt infolge der dadurch bedingten massiven Reduzierung im Wirkungsgrad der Kraftwerke einen entsprechenden Mehrverbrauch an Kohle. Nach Angaben der Deutschen Physikalischen Gesellschaft ist mit um 50 bis 130 Prozent erhöhten Anlagekosten gegenüber herkömmlichen Kraftwerken zu rechnen [5]. Hinzu kommen bei der CCS-Technik die potentiellen Gefahren aus den CO2-Einlagerungen. Es ist hochriskant, in unseren dichtbesiedelten Gegenden unterirdische CO2-Speicher anzulegen, die für immer dicht bleiben müssen: anders als bei radioaktiven Stoffen nehmen die vom eingepressten CO2 ausgehenden Gefahren nicht mit der Zeit ab.

Das von den Verfechtern der Erneuerbaren immer wieder ins Feld geführte Argument von neuen Arbeitsplätzen in den einschlägigen Industrien von Windrädern und Photozellen geht fehl. Diese Arbeitsplätze gehen auf der anderen Seite vermehrt durch Kaufkraftverlust infolge immer weiter steigender Strompreise verloren. Die im Energiekonzept für erforderlich gehaltene Erhöhung der Energiepreise führt daher insgesamt zum Verlust von Arbeitsplätzen.   

VII Anteil Deutschlands

Die im Energiekonzept beabsichtigten Maßnahmen sind größtenteils nicht erforderlich, wenn man auf der Grundlage gesicherter Fakten entscheidet. Wenn man jedoch bei der gegenwärtigen Entscheidungsgrundlage bleibt, und Maßnahmen durchführen will, weil man an unsere Urheberschaft einer gefährlichen globalweiten Erwärmung glaubt, sollte man sich vorher darüber im klaren sein, wie groß die Wirkung unseres Anteiles überhaupt sein kann, den wir mit unseren Maßnahmen erreichen können – und die unvorstellbar große Kosten erfordern. Es wurde bereits vielfach nachgewiesen, dass er praktisch bedeutungslos ist. Wenn Deutschland seinen Verpflichtungen gemäß EU-Beschluss zur Verringerung von CO2-Emissionen nachkommt, wird sich dies gemäß einer noch nicht einmal in der unterstellten Höhe nachgewiesenen Wirkung des CO2 um 0,0007 °C auf die Globaltemperatur bis zum Jahre 2020 auswirken. Das von den meisten Ländern der Erde in sachgemäßer Beurteilung der Fakten nicht ernst genommene Kyoto-Protokoll würde – ebenfalls die vermutlich viel zu hohe Einschätzungen des IPCC vorausgesetzt  – der Welt bis zum Jahre 2100 etwa 0,1 °C globaler Erwärmung ersparen.

Dieser Zusammenhang ist so gut wie allen Fachleuten bekannt, die die Regierungen dieser Welt beraten, weshalb weiterhin Kohle- und Kernkraftwerke gebaut werden. Dagegen beschreitet Deutschland, wie schon mehrfach in seiner Geschichte, einen verhängnisvollen Sonderweg, den kein anderes Volk in dieser Konsequenz mitgehen will – und wird. In Erinnerung an die Folgen unserer Sonderwege und in Anbetracht der wirtschaftlichen Folgen dieses Konzeptes muss man fragen: Darf man dem deutschen Volk derartige Lasten aufbürden, die nur auf ideologischen Dogmen beruhen? Und wie verträgt sich ein solches Regierungshandeln mit dem vor dem Bundestag per Eid geleisteten Gelöbnis, dem Wohl des Deutschen Volkes zu dienen, seinen Nutzen zu mehren und Schaden abzuwenden?

Prof. Dr. Friedrich-Karl Ewert, Dipl.-Geologe, EIKE

Prof. Dr. Horst-Joachim Lüdecke, Dipl.-Physiker, EIKE (Pressesprecher)

Dr.rer.oec, Ing. Dietmar Ufer, EIKE

Quellennachweise

[1] J.F. Eichner, E. Koscielny-Bunde, A. Bunde, and H.-J. Schellnhuber, Power-law persistence and trends in the atmosphere: A detailed study of long temperature records, Phys. Rev. E 68, 046133 (2003)

[2]  Lindzen, R., Y.-S. Choi, On the determination of climate feedbacks from ERBE data, Geophys. Res. Lett., 36, L16705, doi: 10.1029GL039628 (200), s. s Lindzen_1.pdf

[3]  Lindzen, R., Y.-S. Choi, On the observational determination of climate sensitivity and its implications, submitted to Journ. of Geophys. Research, Feb. 12 (2010), s. Lindzen_2.pdf

[4]  Paltridge, G., Arking, A., and Pook, M., Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data, Theor. Appl. Climatol., 98:351-359, DOI 10.1007/s00704-009-0117 (2009), s. Platridge.pdf

[5] Deutsche Physikalische Gesellschaft: „Elektrizität: Schlüssel zu einem nachhaltigen und klimaverträglichen Energiesystem“ Juni 2010

 Weiterführende Links:

Falsche Prioritäten: Das Energiekonzept der Bundesregierung!

Das schwarz-gelbe Energiekonzept: Kernenergie als Brücke ins Nichts!

Nachtrag: Am Wochenende hat der BDEW eine neue Plattform freigeschaltet (Motto "Energie ist nicht schwarz-weiß"), auf der das Thema breit diskutiert werden soll. 

Bitte diskutieren Sie auch dort mit: www.energiedebatte.com  

 

Related Files




Die Lebensqualität der Ärmsten der Welt kann stärker, schneller, billiger und sicherer durch Anpassung voran getrieben werden als durch Technologien, die zu einem Null-CO2-Ausstoß führen.

Vor ein paar Tagen erschien bei Tom Nelson ein Link zu einem Blog mit einem Beitrag von Mr. Bill Gates mit dem Titel: „Leseempfehlung zum Klimawandel“ [Recommended Reading on Climate Change], in dem er behauptet, dass das Risiko einer „ernsten Erwärmung“ durch den anthropogen verursachten Klimawandel groß genug ist, um Aktionen [dagegen] zu rechtfertigen. Mr. Gates fügt hinzu:

„Ich stimme dem zu, besonders weil eine sogar nur moderate Erwärmung schon zu massiven Hungersnöten und anderen sehr negativen Effekten unter den ärmsten 2 Milliarden Menschen auf der Welt führen könnte. Dies ist einer der Gründe, warum ich ein immer größeres Interesse an neuen Energietechnologien habe, die uns zu einer Null–Emission von Kohlendioxid führen könnten. Wie ich schon bei TED [?] sagte, ist es mein Traum, derartige Technologien zu entwickeln, die billiger sind als Kohle oder Öl. Dann würden selbst Klimaskeptiker diese übernehmen, und viel mehr der ärmsten Menschen der Welt würden davon profitieren und zu einer besseren Lebensqualität finden, was nur durch eine sichere Energieversorgung möglich ist.“

Seit vielen Jahren war ich sehr beeindruckt von Mr. Gates’ Wunsch und seinen Bemühungen, die Lebensqualität der ärmsten Menschen der Welt zu verbessern,  und dass er buchstäblich sein Geld dorthin steckt, wo es gebraucht wird, aber seine Feststellung, dass „selbst eine moderate Erwärmung zu massiven Hungersnöten und anderen sehr negativen Effekten unter den ärmsten 2 Milliarden Menschen auf der Welt führen könnte“, ist fundamental falsch. Und es gibt viel bessere und effektivere Methoden, ihre Lebensqualität zu verbessern als Geld für die Entwicklung von Null–Emissionen von Kohlendioxid zu verschwenden.

Um diese Ansichten klar zu machen, wollte ich eine Antwort auf Mr. Gates’ Beitrag posten, was mir aber nicht gelang; weder auf direktem Weg noch durch das allgemeine Eingabeformular auf seiner Website. Also habe ich beschlossen, Mr. Gates einen offenen Brief zu schreiben, um ihn von meinen Gedanken in Kenntnis zu setzen. Ich danke Mr. Watts, dass er diesen Brief in seinem unschätzbaren Blog veröffentlicht hat. Der Brief lautet wie folgt:

——————————–

Sehr geehrter Herr Gates,

schon lange habe ich Ihren Scharfsinn bewundert, mit dem Sie versuchen, einige der wirklich wichtigen Probleme der Welt anzugehen (wie z. B. Malaria und Hunger) als sich den jüngsten Modethemen zu widmen (wie z. B. der globalen Erwärmung). Aber nach der Lektüre Ihres Beitrags „Leseempfehlung zum Klimawandel“ auf der Site

http://www.thegatesnotes.com/Learning/article.aspx?ID=127,

auf den Mitteilungen von Gates, fürchte ich, dass meine Bewunderung voreilig gewesen sein könnte.

Zunächst einmal ist die analytische Basis für Ihre Bemerkung „selbst eine moderate Erwärmung könnte zu massiven Hungersnöten und anderen sehr negativen Effekten unter den ärmsten 2 Milliarden Menschen auf der Welt führen“ schwach, um es milde auszudrücken. Nahezu alle Analysen über künftige Auswirkungen der globalen Erwärmung pfropfen das hypothetische Klima von morgen (oftmals für die Jahre 2100 und 2200) auf die Welt von gestern auf (am häufigsten mit der Basis im Jahre 1990). Das heißt, sie nehmen an, dass die Fähigkeit zukünftiger Generationen, mit der Klimaänderung zu leben oder sich daran anzupassen (auch bekannt als „Anpassungsfähigkeit“), sich von den Umständen in 1990 kaum verändern dürfte!

Im Besonderen versagen sie dabei, in Erwägung zu ziehen, dass zukünftige Generationen, besonders in den heutigen Entwicklungsländern, viel wohlhabender sein dürften als im Basisjahr 1990, das den Szenarien des IPCC zugrunde liegt. Tatsache ist, wie man in Abbildung 1 erkennt, dass selbst unter dem wärmsten Szenario des IPCC ein normaler Bewohner eines Entwicklungslandes im Jahre 2100 mehr als doppelt so wohlhabend sein wird wie ein durchschnittlicher Bewohner der USA im Jahre 2006, selbst wenn man die Reduzierung des GDP [Bruttoinlandsprodukt] pro Kopf vollständig für den Verlust von GDP durch die globale Erwärmung verantwortlich macht. Daher dürfte die Anpassungsfähigkeit der Entwicklungsländer im Jahre 2100 die heutige Anpassungsfähigkeit der USA weit übertreffen.

 

Abbildung 1: Gesamtes GDP pro Kopf 1990 bis 2200 unter Berücksichtigung der Verluste infolge der globalen Erwärmung für vier wesentliche Emissions- und Klimaszenarien des IPCC. Für die Jahre 2100 und 2200 wurden die Szenarien vom wärmsten (A1FI) links bis zum kühlsten (B1) rechts sortiert. Die mittlere globale Temperaturzunahme für die einzelnen Szenarien wird wie folgt angegeben: 4°C für A1FI, 3,3°C für A2, 2,4°C für B2 und 2,1°C für B1. Der Vollständigkeit halber: im Jahre 2006 betrug das GDP pro Kopf $19 300 in industrialisierten Staaten; $30 000 in den USA und $1 500 in Entwicklungsländern.

Quelle:  Goklany, Discounting the Future, Regulation 32: 36-40 (Spring 2009).

Und die Abbildung 1 berücksichtigt nicht einmal profane Weiterentwicklungen von Technologien, die während der nächsten 100 Jahre die Anpassungsfähigkeit weiter erhöhen dürften. (Man sollte keinerlei Vertrauen in Analysen haben, die nur von einem geringen oder gar keinem technologischen Fortschritt ausgehen). Zum Beispiel die Analysen der Erzeugung von Nahrungsmitteln und des Hungers ignorieren das Zukunftspotential von genetisch veränderten Anpflanzungen und Fortschritten in der Agrokultur (the analyses of food production and hunger ignore the future potential of genetically-modified crops and precision agriculture) um den Hunger zu reduzieren, egal wie. Diese Technologien sollten im Jahre 2100 (oder 2200) nicht nur wesentlich fortschrittlicher sein als heute, sondern auch viel erschwinglicher, selbst für Entwicklungsländer, weil sie dann wohlhabender und die Technologien viel kosteneffektiver sein werden.

Weil zukünftige Fortschritte der Anpassungsfähigkeit weitgehend ignoriert werden, sind die Auswirkungen in der Zukunft in jedem Falle grob übertrieben, einschließlich aller Ergebnisse, die behaupten, dass es zu einer “Massenhungersnot” selbst bei einer „moderaten Erwärmung“ kommen wird.

Zweitens, selbst wenn jemand diese mangelhaften Analysen heranzieht, die die globale Erwärmung erheblich übertreiben, findet man, dass der Beitrag der globalen Erwärmung zu grundlegenden Problemen wie eine Zunahme der Hungertoten, Malaria und Extremereignisse in absehbarer Zukunft relativ klein sind, jedenfalls im Vergleich zu den Beiträgen von Faktoren, die nichts mit dem Klimawandel zu tun haben. (Link: the contribution of global warming to major problems like cumulative mortality from hunger, malaria and extreme events should be relatively small through the foreseeable future)

 

Abbildung 2: Todesfälle im Jahre 2085 durch Hunger, Malaria und Extremereignisse mit und ohne globale Erwärmung (GW). Nur die höheren Schätzwerte der Todesrate infolge der globalen Erwärmung werden gezeigt. Die mittlere globale Temperaturzunahme von 1990 bis 2085 für jedes Szebario ist unter dem jeweiligen Balken vermerkt.

Quelle: Goklany, Global public health: Global warming in perspective, Journal of American Physicians and Surgeons 14 (3): 69-75 (2009).

Abbildung 2 zeigt auch, dass selbst bei einer hypothetischen Eliminierung der globalen Erwärmung die Todesrate im Jahre 2085 um höchstens 13% sinken würde (unter dem wärmsten A1FI–Szenario). Andererseits gibt es anwendbare Annäherungen [original: adaptive approaches], die zu 100% die Todesrate betreffen (einschließlich des Beitrages der globalen Erwärmung zu diesem Problem).

Die erste solche Annäherung ist die Brennpunktanpassung (focused adaptation), das heißt, die angewendeten Maßnahmen konzentrieren sich darauf, die Anfälligkeit für klimasensitive Bedrohungen zu reduzieren. Der Hintergedanke dieser Brennpunktanpassung ist, dass die Technologien, Praktiken und Systeme, die die Probleme durch, sagen wir, Malaria oder Hunger durch nicht mit der globalen Erwärmung verknüpfte Gründe reduzieren, auch helfen würden, die Probleme durch Hunger und Malaria infolge der globalen Erwärmung zu reduzieren. Sie auch “Climate Change and Malaria”.

Die zweite anwendbare Annäherung besteht darin, Barrieren aus dem Weg zu räumen und eine umfassende wirtschaftliche Entwicklung (broad economic development) zu fördern. Dies würde die Verwundbarkeit durch fast alle Probleme reduzieren, ob sie nun mit dem Klima zusammenhängen oder nicht. Dass diese Annäherung funktioniert, wird durch die Tatsache belegt, dass wohlhabendere Staaten eine niedrigere  Sterberate (im Verhältnis zum Alter) haben, unabhängig von den Gründen (und damit auch eine höhere Lebenserwartung).

Das grundsätzliche Prinzip hinter diesen anwendbaren Annäherungen liegt darin, dass die globale Erwärmung schon bestehende Probleme eher verschärft, als dass neue Probleme entstehen. Wenn wir die Anfälligkeit zum zugrunde liegenden Problem – man denke an Malaria, Hunger oder Extremereignisse – reduzieren oder lösen, würden wir auch die Verwundbarkeit durch den Beitrag der globalen Erwärmung zu diesem Problem reduzieren.

Wie Tabelle 1 zeigt, würde das menschliche Wohlbefinden durch diese beiden Annäherungen jeweils viel kosteneffektiver gesteigert werden können als durch eine Begrenzung der globalen Erwärmung (Link: human well-being would be advanced lot more cost-effectively through either of the two adaptive approaches)

Tabelle 1: Vergleich von Kosten und Nutzen der Verbesserung der menschlichen Gesundheit durch Reduzierung (Abschwächung) der Emissionen, Brennpunktanpassung und umfassende wirtschaftliche Entwicklung. MDG’s = Entwicklungsziele des Milleniums [Millenium Development Goals MDG]. Einträge in rot kennzeichnen eine Verschlechterung der menschlichen Gesundheit oder einer intakten Umwelt.

Quelle: Goklany, Is Climate Change the “Defining Challenge of Our Age”? Energy & Environment 20(3): 279-302 (2009).

Also, wenn Sie Fortschritte beim Wohlergehen der ärmsten Länder erzielen wollen, können sie das besser, sicherer und billiger durch angepasste Annäherungen erreichen als durch Technologien mit einem Null-CO2-Ausstoß. Solche Annäherungen werden das Wohlbefinden auch schneller steigern, da das [künstliche] Zügeln der Erwärmung unvermeidlich wegen der Trägheit des Klimasystems ein langsamer Prozess ist.

Ich entnehme Ihrem Blogbeitrag auch Ihre Zustimmung, dass die Lebensqualität von einer sicheren Energieversorgung abhängt. Wenn das so ist, würde ich dafür plädieren, dass der zunehmende Energieverbrauch eine viel höhere Priorität haben sollte als die Verfügbarkeit dieser Energie durch Technologien mit einem Null-CO2-Ausstoß zu entwickeln.

Zum Abschluss dieses Briefes habe ich eine Reihe von Artikeln zur Klimaänderung aufgelistet, die man auf jeden Fall lesen sollte, um die Punkte, die ich hier angesprochen habe, zu verstehen und die das Gesagte belegen.

Freundliche Grüße

Gastbeitrag von Dr. Indur Goklany auf Watts Up With That

Übersetzt von Chris Frey

Website: http://goklany.org; E-mail: igoklany@verizon.net

*Tom Nelson Link zu einem Blog mit einem Beitrag von Mr. Bill Gates mit dem Titel: „Leseempfehlung zum Klimawandel“ [Recommended Reading on Climate Change],

————————————————————

Literaturhinweise (in denen die in diesem Brief geäußerten Gedanken ausführlicher behandelt werden)

1. Deaths and Death Rates from Extreme Weather Events: 1900-2008. Journal of American Physicians and Surgeons 14 (4): 102-09 (2009).

2. Climate change is not the biggest health threat. Lancet 374: 973-75 (2009).
3. Global public health: Global warming in perspective. Journal of American Physicians and Surgeons 14 (3): 69-75 (2009).
4. Discounting the Future, Regulation 32: 36-40 (Spring 2009).
5. Is Climate Change the “Defining Challenge of Our Age”? Energy & Environment 20(3): 279-302 (2009).
6. What to Do about Global Warming, Policy Analysis, Number 609, Cato Institute, Washington, DC, 5 February 2008.




Globaltemperatur zu hoch? (I) NOAA (amerik. Wetterbehörde) bestätigt:Globale Erwärmung der Dekade wg. defektem Satelliten zweifelhaft!

Der Fehler wurde nach einem Hinweis eines anonymen Teilnehmers am klimaskeptischen Blog Climate Change Fraud (siehe Originalartikel) entdeckt (am 9. August 2010).

Mitten im Zentrum dieser Kontroverse steht die vom Steuerzahler finanzierte National Oceanic and Atmospheric Administration (NOAA, [der amerikanische Wetterdienst, A. d. Übers]). Der Koordinator von NOAA Chuck Pistis hat jetzt bestätigt, dass die sich rasch herum sprechende Geschichte auf dem angesehenen klimaskeptischen Blog wahr ist.

Jedoch hat Chuck Pistis, der auch als Sprecher von NOAA fungiert, es abgelehnt zu sagen, wie lange dieser Fehler unentdeckt wirken konnte. Auch würde sich der gebeutelte Sprecher nicht in Spekulationen darüber verlieren, wie groß der Schaden für die Glaubwürdigkeit einer ganzen Dekade von Temperaturmessungen des problematischen Satelliten ‚NOAA-16‘ sei.

‚NOAA-16‘ wurde im September 2000 gestartet und wird derzeit operationell genutzt. Sein sonnensynchroner Orbit verläuft 849 km über der Erde und dauert 102 Minuten. Dabei ermittelt er automatisch Temperaturdaten der Erdoberfläche, die genauso automatisch in Klimamodelle einfließen.

NOAA hat von einer ganzen Folge rekordwarmer Temperaturen während der letzten Jahre berichtet, die auf Satellitenmessungen beruhten, aber diese könnten jetzt alle Makulatur sein.

Der weltbekannte kanadische Klimatologe Dr. Timothy Ball erklärte nach einem Expertenblick auf die schockierenden Ergebnisse: „Bestenfalls deutet dieser ganze Vorfall auf große Inkompetenz, im schlimmsten Fall auf einen verzweifelten Versuch, Temperaturrekorde zu konstruieren, die zum politischen Tagesgeschäft passen“.

Die großen, physikalisch nicht möglichen Fluktuationen der Temperatur der Großen Seen [Die Seenplatte zwischen USA und Kanada um Chicago, A. d. Übers.]

Wissenschaftler, die die Satellitendaten der Großen Seen auswerteten, waren die ersten, die Alarm schlugen, nachdem ihnen die völlig verzerrten Daten durch eine ganze Reihe unmöglich hoher Temperaturwerte aufgefallen waren. NOAA räumt ein, dass die maschinell aufbereiteten Daten nicht ununterbrochen aufgezeichnet worden waren, so dass die Unstimmigkeiten in der Masse der anderen automatisierten Daten verborgen geblieben waren.

In einem Beispiel, dass nach meinem Artikel rasch von NOAA entfernt wurde, zeigten die Daten von Juni und Juli für den Michigan–See völlig absurde Temperaturwerte, die niedrige bis mittlere Hunderterwerte Fahrenheit [ca. 35 bis 40°C] zeigten – und einige Gebiete des [US-Bundesstaates] Wisconsin mit Werten bis 612 F [weit über 100°C]. Mit der jetzt ans Licht kommenden immer größeren Anzahl solcher Fehler hat die diskreditierte NOAA den gesamten Datensatz der öffentlichen Einsicht entzogen. Aber dieses Entfernen ist nicht das Gleiche wie die Bewertung der Implikationen dieses gewaltigen statistischen Debakels.

Die Reinwaschung der NOAA scheitert an einem Tag

Noaa–Sprecher Chuck Pistis begann sofort mit der Reinwaschung, nachdem er erstmals von der Geschichte in der am schwersten betroffenen Region, Egg Harbor, gehört hatte, in der sämtliche Instrumente schnell zum Kochen kommen sollten  Dienstag Vormittag erklärte Pistis hochnäsig:

„Ich habe in den Archiven geschaut und habe kein Abbild zu diesem Zeitpunkt gefunden. Außerdem posten wir normalerweise nicht Bilder mit viel Bewölkung, geschweige denn mit Temperaturen. Dieses Abbild scheint durch jemanden zur allgemeinen Unterhaltung bearbeitet worden zu sein“.

Aber später am gleichen Tag warfen Pistis und seine bemitleidenswerten Kollegen das Handtuch und stellten sich dem übermächtigen Fauxpas. Pistis gab zu:

„Ich habe eben noch einmal (sic) das Abbild betrachtet. UND ES IST in meinem Archiv. Ich weiß nicht, warum die Temperaturwerte so falsch (sic) sind. Es scheint eine Fehlfunktion des Satelliten zu sein. WIR haben Tausende Bilder gepostet (sic) seit der Einführung unseres Coatwatch service (sic) [vermutl. so etwas wie ein ‚umfassender Überblick‘. A. d. Übers.] im Jahre 1994. Ich habe noch nie ein Bild wie dieses gesehen“.

Aber der Sprecher der Michigan Sea Grant Extension, einem Partner von ‚Coatwatch’, der zusammen mit NOAA durch die herausfordernden Daten ging, gestand danach ein, dass die hastig entfernten Webseiten tatsächlich Dutzende von Temperaturaufzeichnungen gezeigt hatten, die drei bis vier Mal höher lagen als nach der Jahreszeit üblich. NOAA lehnte es ab, irgendeinen Kommentar dazu abzugeben, ob eine solche Panne die Mittelwerte im gesamten Nordosten der USA um etwa 10 bis 15 Fahrenheit [5 bis 8 K] nach oben getrieben haben könnte, weil der Fehler über längere Zeiträume unentdeckt geblieben war.

Um einiges zerknirschter machte sich Pistis später an die Schadensbegrenzung und versuchte es mit Entschuldigungen: 

„Wir müssen bessere Arbeit bei der Kontrolle leisten, was in den Archiven landet oder gepostet wird. ‚Coastwatch‘ ist komplett automatisiert, so dass man leicht einsehen kann, dass so etwas durchrutschen konnte“.

In seiner Verlautbarung stimmte Pistis zu, die Satellitendaten von NOAA “herabzustufen”. Und weiter, dass die Regierung „noch mehr in dieses Desaster schauen“ muss. Tatsächlich findet man auf der Michigan Sea Grant Site die folgende offizielle Mitteilung:

“BEMERKUNG”: Wegen eines fehlerhaften Sensors im Satelliten, dessen Werte für diese Kartendarstellung genutzt wurden, haben einige Bilder extrem hohe und niedrige Temperaturdaten gezeigt. Bitte betrachten Sie diese Daten als nicht realistisch. Künftige Bilder werden diese Daten nicht mehr enthalten, und Bilder, die mit Daten des fehlerhaften Sensors erstellt wurden, wurden und werden aus dem Bilderarchiv entfernt“.

Schieb es auf die Wolken, nicht auf uns, meint NOAA

NOAA erklärte weiter, dass die Bewölkung die Satellitendaten beeinflussen und sie anfällig für Falschmessungen machen könnte. Aber Pistis konnte nicht erklären, wie viel Bewölkung signifikant wäre oder an welchem Punkt die Messungen für die Klimamodellierung unbrauchbar werden.

Wie es ein verärgerter Beobachter ausdrückt:

 „Was ist mit dunstigen Tagen? Was an Tagen mit dünner Bewölkung? Was an Tagen mit teilweise bewölktem Himmel? Selbst an heißen, klaren Tagen sorgt die Verdunstung für eine substantielle Menge Wasserdampf in der Atmosphäre, besonders über Gewässern. Wie können diese Satellitendaten nur halbwegs brauchbar sein, wenn der Satellit nicht durch die Wolken ‚sehen‘ kann?“

Ein führender Klimatologe verurteilt den Mangel von echter Sorgfalt

Die ernsten Konsequenzen dieser Vorkommnisse waren für Dr. Ball nicht von ungefähr. Er erklärte, dass diese Zahlen mit ungewöhnlich hohen oder niedrigen Werten von der Regierung für politische Zwecke ausgebeutet wurden, bereits jetzt unter den Rekorden gelistet werden und in Reportagen durch den gesamten medialen Blätterwald der Mainstream–Medien gingen, was ein weithin gewünschtes Ziel war.

Der Klimatologe, der das Militär in Klimafragen berät, bedauerte, dass solche fehlerhaften Datensätze „ausnahmslos unbereinigt bleiben. Der gescheiterte Versuch zu belegen, wie oft die Temperatur an der Wolkenoberfläche ‚sehr nahe‘ den Werten der Wassertemperatur lag, ist unakzeptabel. Wenn die Genauigkeit der Daten fraglich ist, sollten sie nicht genutzt werden. Ich würde sagen, dass das nach meinem Wissen über Inversionen sehr selten ist, besonders über Wasser“.

Wie viele andere Wettersatelliten wurden ebenfalls „herabgestuft”?

Eine Schlüsselangelegenheit für die Regierung war, dass sie es ablehnte zu sagen, wie viele andere Satelliten ebenfalls herabgestuft werden könnten. ‚NOAA-16‘ ist kein alter Satellit – also warum braucht es jemanden aus der Öffentlichkeit, um eine so große Fehlerhaftigkeit zu finden?

Klimaprofessor Tim Ball wies darauf hin, dass er dieses systematische Scheitern vorhergesehen hat und warnt die Öffentlichkeit, dass sie keinen Rückzug und auch kein Ende der düsteren, den Untergang beschreienden Klimaprognosen erwarten sollte: 

„Seit McIntyre Hansen und NASA GISS mit den falschen Daten aus den USA erwischte, habe ich noch nie gesehen, dass irgendeine Bereinigung der Daten der Welt stattgefunden hat, die aber nach den Änderungen der Aufzeichnungen in den USA unabdingbar sind. Die Aufzeichnungen aus den USA dominieren diejenigen speziell in den kritischen Mittleren Breiten. Sie so zu verändern, dass es von den neun wärmsten Jahren in den Neunziger Jahren zu vier davon in den Dreißiger Jahren des vorigen Jahrhunderts kommt, ist eine sehr signifikante Veränderung und muss die globalen Mittelwerte [der Temperatur] beeinflussen“. 

An jedem Tag gibt es neue Entdeckungen von großen Fehlern und Auslassungen. Ein kluger Kommentator auf www.climatechangefraud.com stellte fest: „Es ist allgemein bekannt, dass sich das Land schneller erwärmt als das Wasser, das sich auch langsamer abkühlt. Jedoch haben wir in den Zahlen von NOAA mindestens zwei Datensätze gefunden , die das Gegenteil dieser bekannten physikalischen Tatsache aussagen.“

Der geschickte Kommentator fügte hinzu: „Zwei Punkte, deren Daten fraglich sind, liegen in Charlevoix, wo die Temperatur bei 43,5° [F? C? Im Original stehen nur diese und die folgenden Zahlen. A. d. Übers.] liegen soll – während in der Umgebung (± 30 Meilen) 59,2° herrschen sollen; und in der Bucht östlich der Halbinsel von Leland, die mit 37,2° gelistet wird. Diese Werte wurden vermutlich um 18:38 Ortszeit gewonnen. Beide stammen aus Gebieten mit größeren Lücken in der Bewölkung.

Fehlende weitere präzise Angaben von NOAA über diese sensationelle Geschichte überlassen es der Öffentlichkeit, weiter zu spekulieren und ‚bürgerlichen Wissenschaftlern‘ [‚citizen scientists‘], zu bestimmen, ob Datensätze über zehn oder mehr Jahre von Satelliten wie NOAA-16 unzuverässig und wertlos sind. 

John O´Sullivan für Climate Fraud 11 August 2010 Originalartikel:

John O’Sullivan ist erfahrener Analyst, Autor und Journalist. Als akkreditierter Akademiker lehrte er über zwanzig Jahre lang an Schulen und Universitäten in Ostengland, bevor er in die USA übersiedelte. Als analytischer Kommentator hat er über 100 grundlegende Artikel weltweit verfasst.

Übersetzt von Chris Frey. Alle Einschübe in eckigen Klammern vom Übersetzer.  Fett Hervorhebungen EIKE Redaktion; Alle anderen Hervorhebungen einschl. runder Klammern im Original!




Die australische Temperaturgeschichte – ein Gesamtüberblick!

Mit diesem Ruf steht er nicht allein! In einem empfehlenswerten Versuch zur Verbesserung des Datenzustands hat der australische Wetterdienst (BOM) das australische Hochqualitäts-Klima-Netzwerk geschaffen. Der Ergebnis war aber, dass dabei eine vorurteilsverzerrte Wärmeverschiebung von 41,67 % eingeführt worden ist. Und die darauf beruhenden Klimaanalysen scheinen noch einmal etwa 66,67 % draufgepackt zu haben.

Dieser Beitrag hier ist die Zusammenfassung der meines Erachtens ersten unabhängigen Überprüfung des amtlichen Klimaberichts von Australien. Es ist damit auch die erste unabhängige Überprüfung eines amtlichen Klimaberichts für einen ganzen Kontinent. Ich werde mich um Einfachheit bemühen.

Hier ist die amtliche Version der “Klimatrends und Veränderungen in der australischen Messdatenaufzeichnung“ zu finden, die für die australische Öffentlichkeit, die Regierung und die ganze Welt herausgegeben wird. http://www.bom.gov.au/climate/change/aus_cvac.shtml

Trendkarte, 1910-2009:

Zeitreihengrafik über die Zeit, erzeugt mit deren handlichem Trendwerkzeug:

0,1 Grad C / Dekade, oder 1 Grad für ein Jahrhundert.

Auf der Webseite des australischen Wetterdienstes BOM steht diese Erklärung:

 Die Temperaturhistorien sind aus homogenen oder „hoch-qualitativen“ Temperaturdaten errechnet. Letztere wurden für die Überwachung langzeitlicher Temperaturtrends und Veränderungen entwickelt … Wo immer möglich, wurde jede Messstationshistorie um Daten-“Sprünge“ oder künstliche Unstetigkeiten korrigiert, herrührend aus Veränderungen der Stationsposition, Aufstellung, Instrumentierung oder Beobachtungsverfahren. Darin eingeschlossen sind die Erkennung und die Korrektur von Datenproblemen mit statistischen Techniken, Sichtprüfungen, historischen Informationen über die Stationen oder „Metadaten“.

und

Die australische Klimadaten „Hoher Qualität“ wurden entwickelt, bei denen Homogenitätsprobleme reduziert oder beseitigt wurden.

Über dieses Verfahren habe ich eine kurze Zusammenfassung veröffentlicht in:
http://kenskingdom.wordpress.com/2010/05/12/the-australian-temperature-record-part-1-queensland/

(Ich muss erwähnen, dass dieses Verfahren um einiges von Della-Marta et al. (2004) verändert worden ist, die auch eine Entfernungsgewichtungsmethode benutzten und einige Stadtstationen und Stationen mit viel kürzeren Messdatenhistorien benutzten.)

Torok und Nicholls (1996), Autoren der ersten (veröffentlichten) Homogenisierung bemerken völlig richtig:

“Ein hoch-qualitativer, langzeitlicher Datensatz mit Bodentemperaturen ist wesentlich für die verlässliche Untersuchung des Klimawandels und der Veränderlichkeit. 

Hier ist die Karte mit den 100 derzeit benutzten Stationen hoher Qualität, die vermutlich diese Forderung erfüllen:

Vor meinem ersten Beitrag hatte ich den Wetterdienst gebeten, mir einige merkwürdige Dinge zu erklären, die ich bei den Daten aus Queensland bemerkt hatte. Unter anderen fiel mir in einer E-Mail vom 25. 4. 2010 diese Aussage von Dr. David Jones, Leiter der Climate Monitoring and Prediction, National Climate Centre, Bureau of Meteorology, auf:

“Zur Frage der Anpassungen wird man feststellen, dass diese nahezu null Einfluss auf alle australischen Temperaturen haben, weil diese gleichermaßen negativ wie positiv im gesamtaustralischen Netzwerk tendieren (wie auch zu erwarten ist, weil es Anpassungen für zufällige Stationsänderungen sind). 

Diese Aussage ist die Messlatte für meine Studie.

Der Normalbürger wird die veröffentlichten Resultate so nehmen, wie sie sind, weil er keinen Zugang zur Stationsliste, den Metadaten, der benutzen Software oder zur Expertise des Wetterdienstes hat. Ich aber wollte mal genauer hinschauen. Die Resultate jeglicher Anpassungen sollten leicht mit der vorhergehenden Aufzeichnung vergleichbar sein. 

Ich habe jährliche mittlere Maxima und Minima für jede Station aus „BOM Climate Data Online“ heruntergeladen, die jährlichen Mittelwerte berechnet und geplottet.  Häufig wurden zwei oder drei Stationen (einige bereits geschlossen) für die gesamte Historie von 1910-2009 gebraucht, und sogar dann gab es Lücken, z. B. von 1957 bis 1964 wurden viele Stationsdaten nicht digitalisiert. (8 Jahre fehlende Daten ist noch gar nichts, viele Stationen zeigen für viele Jahre Schätzdaten, die „nachgetragen“ wurden, um die hoch-qualitative Datenhistorie zu erzeugen.) Ich habe auch die jährlichen Mittelwerte von der Hochqualitätsseite heruntergeladen und geplottet. Dann habe ich lineare Trends für jede hinzugefügt. 

Ich habe die Daten und die Berechnungen für alle 100 Stationen ausgiebig überprüft bevor ich diese Zusammenfassung gemacht habe. Nur bei einer, Bowen, habe ich mich für Verbesserungen entschieden, indem ich einige frühe Daten reduziert und  einige weggelassen habe, so dass der Trend mit HQ übereinstimmt. Das geschah nach dem Grundsatz der Nicht-Überlappung und führte dazu, dass der Plot grob übereinstimmt. Das ist ungenügend, Bowen sollte man auslassen. Die Netto-Auswirkung auf Queensland und die australischen Trends kann vernachlässigt werden. (0,01 C.) 

Jetzt schauen wir uns Dr. Jones‘ Behauptung für ganz Australien an.

“… null Einfluss auf alle australischen Temperaturen …”

Falsch.

Wir können uns die Aufzeichnung auf verschiedene Art anschauen – hier ist die Grafik mit den durchschnittlichen Rohdaten und mit den angepassten Daten für alle 100 Stationen. Der Unterschied sticht ins Auge. 

Er beträgt 0.6 Grad C / 100 Jahre bei den Rohdaten. Bei den angepassten beträgt der Trend 0.85 Grad.

Bevor nun jemand sich beschwert, dass die Abweichungen ein genaueres Bild bei den Trends für eine große Region ergäben, habe ich auch die Abweichungen für den Zeitraum von 1961 – 1990 für alle australischen Mittelwerte berechnet ( 0,6 bei den Rohdaten bis 0,85 HQ Zunahme)

und für alle 100 Stationen (leicht abweichendes Ergebnis : 0,6 bei den Rohdaten bis 0,9- 50%)

Aber die vom BOM veröffentlichte Zahl ist 1.0 C. Das sind zwei Drittel mehr!

Wir können uns auch die durchschnittliche Anpassung für jede Station anschauen:
+ 0.23 Grad C. (Die Tabelle mit allen 100 Stations ist zu groß zum Einfügen).

Oder wir können uns die mittlere Anpassung (+ 0.275 C) ansehen, und das Ausmaß der Anpassungen.

So viel zum Gerede vom “weil diese gleichermaßen negativ wie positiv im gesamtaustralischen Netzwerk tendieren”.

Wir können uns auch “Qualität” der Stationen anschauen.

"Urban" im Vergleich zu "nicht-urban":

“Bitte beachten: Stationen mit der Einordnung als "urban" sind aus der australischen jährlichen Temperaturreihe und den Trendkarten-Analysen ausgeschlossen. Urbane Stationen haben einen gewissen urbanen Einfluss auf einen Teil oder auf den gesamten Verlauf ihrer Datenreihe. (http://www.bom.gov.au/cgi-bin/climate/hqsites/site_networks.cgi?variable=meanT&period=annual&state=aus)

Im vorhergehenden Teil 1 habe ich gezeigt, wie 3 Stationen aus Queensland von Torok and Nicholls (1996) als urban eingestuft worden sind, die nun nicht-urban sind. Della-Marta et al haben einige weitere in anderen australischen Bundesstaaten wiederauferstehen lassen.
Hier ist die volle Liste: Cairns AMO, Rockhampton AMO, Gladstone MO, Port Hedland AMO, Roebourne, Geraldton AMO, Albany AMO, Alice Springs AMO, Strathalbyn, Mount Gambier AMO, Richmond AMO, Mildura AMO, East Sale AMO, Cashmore Airport, Launceston Airport.

15% des Netzwerks besteht aus Stationen, wo BOM Schwierigkeiten hat, uns zu versichern, dass diese nicht für die Klimahistorie benutzt würden.

Langzeithistorien

“… die Anzahl der Stationen ist viel kleiner wenn man nur Stationen betrachtet, die derzeit in Betrieb sind und mit wenigstens 80jähriger Datenhistorie. Um die Gesamtzahl der Langzeitstationen zu vergrößern wurden vorher unbenutzte Daten digitalisiert und eine Anzahl von Stationen wurde zusammengeworfen, um zusammengefasste Historien zu erzeugen … alle Stationen in der Historie (waren) in Betrieb im Jahre 1915.” (Torok and Nicholls)

Torok wollte Daten für 80 Jahre: Della-Marta et al und BOM geben sich mit viel weniger zufrieden Bei sechs Stationen gibt es vor 1930 (das ist 80 Jahre her) keine Daten, dennoch hat BOM diese Stationen drin.  Einige wieder sind wirklich schrecklich: Woomera- 1950; Giles- 1957; Newman- 1966.

Auch haben viel Stationen große Lücken durch fehlende Daten, da zeigt die HQ Historie einfach “Schätzwerte”, um die fehlenden Jahre zu füllen.

Hier ist eine Grafik mit der Anzahl von Stationen mit vollständiger Datenhistorie.

Man beachte: Nur 70% Rohdaten sind verfügbar bis 1910; 90% bis 1930; ein Abfall von 1945 to 1960; und dann der große Abfall bei den HQ data in diesem Jahrzehnt!

Datenvergleich:

“Im Allgemeinen haben Vergleichsbetrachtungen über mehr als fünf Jahre ausgezeichnete Vergleichsstatistiken zwischen den alten und den neuen Stationen geliefert, … Vergleiche über Zeiträume größer 2 Jahre und manchmal zwischen einem und zwei Jahren haben sich auch als nützlich erwiesen, wenn sie vollständig und von guter Qualität waren … Vergleiche schlechter Qualität über Zeiträume kleiner 2 Jahre haben sich im allgemeinen als nur begrenzt nützlich erwiesen.” (Della-Marta et al, 2004)

Würde man nicht “hervorragende Vergleichsstatistiken” für ganz wesentlich zu solch wichtigem Zweck halten? Anscheinend nicht. Da gibt es viele Stationen mit weniger als 5jähriger Datenüberlappung von nahegelegenen Stationen (bis zu 20 km entfernt). Eine Anzahl von Stationen hat überhaupt keine Überlappung.

Daher gibt es riesige Lücken in der Temperaturhistorie. Hier ist die Karte mit dem Hochqualitäts-Netzwerk, wo diejenigen Stationen gelöscht worden sind, die
(a) im Jahre 1996 als urban klassifiziert wurden,
(b) weniger als eine 80jährige Beobachtungshistorie hatten,
(c) weniger als eine 5jährige Überlappung mit vergleichbaren Daten hatten, manchmal trafen auch alle der genannten Kriterien zu. 

Die verbliebenen Stationen sind auf Ost- und Südwest-Australien konzentriert. In der Mitte klafft eine riesige Lücke. (Beachten Sie bitte den zugegebenermaßen sehr grob angenäherten Maßstab).

Und zum Schluss:…

Behauptungen aus dem Klimazustandsbericht (State of the Climate) von BOM und CSIRO vom März 2010.

Seit 1960 hat sich die Durchschnittstemperatur in Australien um etwa 0.7 °C erhöht. Der Langzeittrend bei der Temperatur ist klar…

WAHR. Aber die Rohdaten zeigen, dass sich die Durchschnittstemperatur seit 1910 nur um 0,6 Grad C erhöht hat.

Für die australischen Durchschnittstemperaturen wird ein Anstieg um 0,6 bis 1,5 º C bis 2030 vorhergesagt.

WIRKLICH? Dazu wäre eine 5 bis 12fache höhere Erwärmungsrate notwendig, als bei den Rohdaten sichtbar, oder eine zwischen 3 bis 7,5 mal so hohe im Vergleich zu den veröffentlichten Zahlen von BOM.

Große Teile Australiens werden trockener in den kommenden Jahrzehnten sein.

VIELLEICHT AUCH NICHT. Schauen Sie hier nach: http://kenskingdom.wordpress.com/2010/03/20/political-science-101/

Unsere Beobachtungen zeigen klar, dass der Klimawandel real ist. 

WAHR- so ist halt das Klima.

CSIRO und das Bureau of Meteorology werden fortfahren und die Beobachtungen und Forschungen veröffentlichen, so dass Australiens Reaktionen durch wissenschaftliche Erkenntnisse höchster Güte untermauert werden.

“Von höchster Güte”? WIRKLICH ?

Ergebnisse

Diese Studie zeigt eine Anzahl von Problemen beim australischen Netzwerk der Hochqualitäts-Temperaturmessstationen, auf dem die amtlichen Temperaturanalysen beruhen. Die Probleme bei den Hochqualitätsdaten schließen ein:

  • subjektive und manuelle Anpassungen.

Diese Verfahrensweise wird nicht gleichmäßig befolgt, manchmal ist sie auch anders als beschrieben.

Urbane Stationen, Stationen mit schlechten Vergleichsdaten, Stationen mit kurzzeitigen Historien wurden eingeschlossen.

Große Mengen von Daten sind nicht verfügbar, stattdessen sind Schätzdaten eingespeist worden. 

Die Anpassungen heben sich nicht positiv gegen negativ auf, sie haben eine große Auswirkung auf die australische Temperaturhistorie.

Die Anpassungen erzeugen einen um rund ein Viertelgrad höheren Durchschnittstemperaturtrend im Vergleich zu dem aus den Rohdaten.

Die Vorurteilsverzerrung beim Erwärmungstrend beträgt 41.67% beim Anomalietrend 50%.

Der vom BOM veröffentlichte Trend ist 66.67% größer als der aus den Rohdaten.

Die Hochqualitätsdaten zeigen NICHT die richtige australische Temperaturhistorie der vergangenen 100 Jahre.

BOM hat einen Klimabericht produziert, der bestenfalls eine „Einschätzung“ genannt werden kann.

Das Beste, was wir über die australischen Temperaturtrends der vergangenen 100 Jahre sagen können, ist: “Da, wo wir genug gute Historien haben, ist die Temperatur rauf und runter gegangen, aber wir wissen noch zu wenig.”

Warum die Übertreibung, wenn die anthropogene Klimawandel so sicher ist?

Es ist äußerst dringlich und wichtig, dass eine vollständige wissenschaftliche Überprüfung des amtlichen australischen Klimaberichts durchgeführt wird, völlig unabhängig vom BOM, CSIRO oder dem Klimawandelministerium (Department of Climate Change).

Mal sehen, was Dr David Jones [vom BOM] darauf antwortet.

(Mein Dank an Lance für die Hilfen beim Herunterladen der Daten und an janama für seine Arbeit zu NSW. Auch an Jo Nova, die mich ermutigt hat)

Gastbeitrag von Ken Stewart, July 2010 bei Watts Up With That

 * Der unter der Abkürzung Harry (mit bürgerlichem Namen  Ian "Harry" Harris) bekannt gewordene Programmierer arbeit(ete?) bei der CRU als Klimatologe und CRU Programmierer

Zusammenfassung der vorhergehenden Teile 1-7. Zu finden hier:
http://kenskingdom.wordpress.com/




Die Thermostat – Hypothese!

Die Stabilität der Erdtemperatur über lange Zeiträume der Vergangenheit war schon sehr lange ein klimatologisches Rätsel. Die Variation der Temperatur des Globus’ lag bei +/- 3% (einschließlich der Eiszeiten) während mindestens der letzten halben Milliarde von Jahren, dem Zeitraum also, für den wir die Temperatur abschätzen können. Während des Holozäns variierte die Temperatur um weniger als 1%. Und auch während der Eiszeiten war die Temperatur im Allgemeinen genauso stabil.
Im Gegensatz zur Stabilität der globalen Temperatur gibt es seit langem Hinweise (Gough, 1981; Bahcall et al., 2001), dass die Strahlung der Sonne vor 4 Milliarden Jahren nur etwa drei Viertel des heutigen Wertes erreichte. Jedoch war es auf der Erde in frühen geologischen Zeiten nicht um den gleichen Betrag kälter. Proxy–Daten der Temperatur wie z. B. das Verhältnis zwischen Deuterium und Wasserstoff sowie der Sauerstoff–Isotope O16 und O18 zeigten keine Anzeichen für eine Erwärmung der Erde um 30% während dieser Zeit. Warum hat sich die Erde nicht erwärmt, die Sonne aber schon?
Dies nennt man das “Schwächeparadoxon der frühen Sonne” (Faint Early Sun Paradox) nach Sagan und Mullen, 1972. Normalerweise wird dies damit erklärt, dass in der frühen Erdatmosphäre viel mehr Treibhausgase enthalten waren als in der heutigen Atmosphäre.
Jedoch würde dies eine graduelle Abnahme des GHG–Forcings [Green House Gas] implizieren, die genau zu der  Milliarden Jahre langen Zunahme der solaren Strahlung bis auf den heutigen Wert passen müsste. Dies erscheint sehr unwahrscheinlich.
Viel wahrscheinlicher ist, dass irgendein natürlicher Mechanismus die Globaltemperatur in geologischen Zeiträumen reguliert hat.

Bejan (Bejan 2005) hat gezeigt, dass das Klima grob als eine Wärmekraftmaschine modelliert werden kann, mit dem Ozean und der Atmosphäre als agierende Medien. Die Tropen sind das heiße Ende der Wärmekraftmaschine. Ein Teil der tropischen Hitze wird in den Weltraum abgestrahlt. Die agierenden Medien sorgen dafür, dass der übrige Anteil der Wärme zu den Polen transportiert wird. Dort, am kalten Ende der Wärmekraftmaschine, wird die [restliche] Wärme in den Weltraum abgestrahlt. Bejan hat gezeigt, dass die Existenz und räumliche Verteilung der Hadley–Zellen ein aus diesen Vorgängen ableitbares Ergebnis darstellen. Er zeigte auch, wie die Temperatur durch dieses System bestimmt wird.
“Wir verfolgen dies aus der Sicht der Konstruktion, die darin besteht, dass die (globale) Zirkulation selbst eine fließende Geometrie repräsentiert, die das Ergebnis der Maximierung des globalen Geschehens ist und globalen Einschränkungen unterliegt.
Die größte Kraft, die dieses zusammengesetzte System erzeugen kann, lässt sich mit dem reversiblen Betrieb eine Kraftwerkes vergleichen. Die Energieerzeugung in diesem Rahmen ist proportional zu

 
Hier steht q für den gesamten Energiefluss des Systems (von den Tropen zu den Polen) und TH und TL für die höchsten und tiefsten Werte der Temperatur (aus den Tropen und den Polarregionen in Kelvin). Das System arbeitet unaufhörlich, um jenen Energieausstoß zu maximieren. Hier sieht man das ganze System dargestellt, das die Wärme von den Tropen zu den Polen transportiert.


 
Abbildung 1: Die Erde als Wärmekraftmaschine.

Die subtropischen Hadley–Zellen liefern die Energie für das System. In den Tropen ist die Sonneneinstrahlung (orangene Pfeile) am stärksten, weil die Sonne dort am steilsten steht. Die Länge der orangenen Pfeile repräsentiert die relative Stärke der Sonnenstrahlung. Warme, trockene Luft sinkt um den 30. Breitengrad nördlicher und südlicher Breite ab und bildet die großen Wüstengürtel rings um den Globus. Die Wärme wird durch eine Kombination von Ozeanen und Atmosphäre zu den Polen transportiert. An den Polen wird die Wärme in den Weltraum abgestrahlt.
Mit anderen Worten, variable Systeme wie das Erdklima legen kein stabiles Temperaturregiment fest. Sie regenerieren ihre eigene Entwicklung dergestalt, dass sie die erzeugte und verbrauchte Energie maximieren. Es ist dieser dynamische Prozess, und nicht eine einfache lineare Transformation der Zusammensetzung der Gase in der Erdatmosphäre, der die allgemeine Temperaturspanne des Planeten bestimmt.
Man beachte: das Konstruktionsgesetz besagt, dass jedes sich in einer Umlaufbahn bewegende System danach strebt, sich „quasi zu stabilisieren“ in irgendeinem idealen Status. Dieser ideale Status wird aber nie erreicht. Im Falle des Erdklimas ist dies der Zustand maximaler Energieproduktion und maximalem Energieverbrauch. Und dies wiederum impliziert, dass jeder wasserartige Planet eine ausgeglichene Temperatur aufweist, die aktiv durch das Fließsystem festgelegt wird. Siehe das Papier von Ou (unten) für ein besseres Verständnis dieses Systems.
Mechanismen, die das Klima bestimmen

Jede Wärmekraftmaschine hat ein Ventil. Das Ventil kontrolliert, wie viel Energie in die Maschine einfließt. In einem Auto nennt man dieses Ventil das Gaspedal. Es kontrolliert die eingehende Energie.
Die Stabilität der Temperatur auf der Erde mit der Zeit (einschließlich des Wechsels zwischen Eis- und Zwischeneiszeiten, die jeweils ebenfalls stabil waren), sowie theoretische Überlegungen lassen vermuten, dass diese Wärmekraftmaschine, die wir Klima nennen, irgendeine Art von Regulator haben muss, der das Ventil kontrolliert.
Während alle Wärmekraftmaschinen ein solches Ventil haben, enthalten nicht alle einen Regulator. In einem Auto ist ein solcher Regulator das Tachometer (“Cruise Control”). Es reguliert das Ventil (das Gaspedal). [Fast alle Autos in den USA haben eine Vorrichtung, mit der man eine bestimmte Geschwindigkeit konstant einstellen kann, ohne ständig das Gaspedal zu berühren. A. d. Übers.] Ein Regulator passt den Energiefluss zum Automotor an, um eine konstante Geschwindigkeit zu erreichen, unabhängig von äußeren Einflüssen (z. B. Berge, Wind, Effizienz und Verluste des Motors).
Man kann die Kandidaten für die Regulierung des Klimas eingrenzen indem wir erstens zur Kenntnis nehmen, dass ein Regulator das Ventil kontrolliert (welches im Gegenzug den Energiezufluss einer Wärmekraftmaschine kontrolliert). Zweitens gilt, dass ein erfolgreicher Regulator in der Lage sein muss, das System über das gewünschte Resultat hinaus zu treiben (overshoot).
(Beachte, dass sich ein Regulator, der ein Trägheitsloop enthält, von negativem Feedback unterscheidet. Ein negatives Feedback kann einfallende Energie höchstens reduzieren. Es kann nicht für ein Gleichgewicht sorgen, wenn verschiedene Antriebskräfte, variable Ladungen und veränderliche Verluste auftreten. Dies kann nur ein Regulator.)
Der größte Teil der Absorption von Wärme durch die Erde findet in den Tropen statt. Die Tropen bestehen wie die übrige Welt überwiegend aus Ozeanen; und die Landmassen dort sind nass. Mit einem Wort, die dampfenden Tropen. Es gibt kaum Eis dort, so dass es nur von der Bewölkung abhängt, wie viel Sonnenenergie in die Wärmekraftmaschine des Klimas eingeht.
Ich schlage zwei separate, in Wechselwirkungen stehende Mechanismen vor, die direkt den Wärmehaushalt der Erde regulieren – tropische Kumulus- und Kumulonimbus–Wolken. Kumuluswolken sind die flauschigen „Wattebälle“, die in relativ geringer Höhe über dem Erdboden an warmen Nachmittagen entstehen. Kumulonimbuswolken sind Gewitterwolken, die aber auch als kleine Kumuli beginnen. Beide Wolkentypen sind Teil des Ventils, das die eintreffende Strahlung kontrolliert und ggf. reduziert. Außerdem sind Kumulonimbuswolken selbst aktive Wärmekraftmaschinen, die den notwendigen Überschuss zur Verfügung stellen, um als Regulator des Systems zu fungieren.
Ein einfaches Gedankenexperiment zeigt, wie dieser Wolkenregulator wirkt. Es nennt sich „Ein Tag in den Tropen“.
Ich lebe mitten in den feuchten Tropen auf 9 Grad südlicher Breite mit Blick auf den Pazifik von meinem Fenster aus. Der typische Wetterablauf an einem Tag sieht folgendermaßen aus. Tatsächlich ist es ein typischer Sommertag überall in den Tropen. Der Wetterbericht lautet so:
Klar und windstill bei der Morgendämmerung. Leichter Wind, gegen Mittag aufkommende Wolkenbildung. Weiter zunehmende Bewölkung am Nachmittag mit einzelnen Schauern und Gewittern. Aufklaren zum oder nach Sonnenuntergang, eventuell noch ein einzelnes Gewitter nach Einbruch der Dunkelheit. Fortschreitendes Aufklaren bis zur Morgendämmerung.
Dies ist der allgemeine Tageszyklus tropischen Wetters, einfach genug, um überall in der Welt als Klischee zu dienen.
Dieser Ablauf wird angetrieben durch die Tag-/Nachtvariation der Stärke der Sonnenenergie. Vor der Morgendämmerung ist die Atmosphäre typischerweise ruhig und klar. Sobald der Ozean (oder feuchtes Land) sich erwärmt, steigen Temperatur und Verdunstung. Feuchte, warme Luft beginnt aufzusteigen. Dabei kühlt sich die Luft ab, und die Feuchtigkeit kondensiert zu Wolken. Die Wolken reflektieren das Sonnenlicht. Die Wolken verschließen das Ventil etwas und reduzieren so die einfallende Energie. Damit beginnen sie, das System abzukühlen. Dies ist der Anteil des negativen Feedback der Klimakontrolle durch die Wolken.
Die tropische Sonne ist stark, und trotz des negativen Feedback durch die Kumuluswolken wird es weiter wärmer. Je mehr die Sonne auf den Ozean scheint, umso mehr warme, feuchte Luft entsteht, und umso mehr Kumuluswolken bilden sich. Natürlich reflektieren diese noch mehr Sonnenlicht, so dass das Ventil noch etwas weiter geschlossen wird. Aber der Tag bleibt warm.
Die volle Entwicklung der Kumuli bildet die Bühne für den zweiten Teil der Temperaturregulation. Dies ist kein bloßes negatives Feedback. Es ist das klimaregulierende System. Mit weiter steigender Temperatur und Verdunstung verändern sich die flauschigen Kumuli plötzlich. Sie schießen nach oben und bilden Ambossformen; schießen Tausende von Metern hoch in den Himmel in kurzer Zeit. Die Kumuli haben sich in Kumulonimben oder Gewitterwolken verwandelt. Der säulenförmige Wolkenkörper des Gewitters wirkt wie eine gigantische vertikale Warmluftröhre. Das Gewitter saugt warme, feuchte Luft von den bodennahen Luftschichten und jagt sie in den Himmel. In der Höhe kondensiert der Wasserdampf, so dass die latente Wärme wieder in fühlbare Wärme umgewandelt wird. Die Luft erwärmt sich dadurch wieder [im Vergleich zur Umgebungsluft, A. d. Übers.] und steigt immer weiter nach oben.
An der Wolkenobergrenze wird die Luft aus der Wolke ausgeblasen, weit oberhalb des größten Teils des atmosphärischen Kohlendioxids. In dieser dünnen Atmosphäre kann die Luft viel leichter in den Weltraum ausstrahlen. Durch die Bewegung im Wärmeschlauch des Gewitters umgeht die aufsteigende Luft die meisten Treibhausgase und wird erst wieder an der Obergrenze der Troposphäre ausgeblasen. Während des Transportes nach oben gibt es keine radiative oder interaktive Wechselwirkung zwischen der aufsteigenden Luft einerseits sowie der unteren und mittleren Troposphäre andererseits. Im Inneren des Gewitters wird die aufsteigende Luft kanalisiert und an der Obergrenze wieder ausgeblasen.
Zusätzlich zur Reflektion des Sonnenlichtes an der Obergrenze der Kumuli und des Wärmetransports in die obere Troposphäre, wo die Wärme leicht in den Weltraum abstrahlen kann, kühlen die Gewitter die Erdoberfläche auf vielfältige Weise, besonders über dem Ozean.

1. Durch Wind angetriebene Verdunstungskälte. Hat die Entwicklung des Gewitters erst einmal begonnen, bildet sich an der Basis ein eigenes Windsystem. Dieser selbstgenerierte Wind verstärkt die Verdunstung in vielfältiger Weise, besonders über dem Ozean.

a) Die Verdunstung nimmt linear mit der Windgeschwindigkeit zu. An einer typischen Squall-Linie mit einer Geschwindigkeit von 10 m/s ist die Verdunstung etwa zehnmal größer als unter „ruhigen“ Bedingungen (definitionsgemäß um 1 m/s).
b) Der Wind lässt die Verdunstung durch die Entstehung von Gischt und Sprühnebel sowie durch das Abtrocknen von Bäumen und Blättern zunehmen. Dies vergrößert die für die Verdunstung zur Verfügung stehenden Flächen erheblich, denn an der Gesamtoberfläche der Millionen von Tröpfchen verdunstet das Wasser genau so wie an der Erdoberfläche selbst.
c) In geringerem Umfang trägt auch die Erzeugung von Wellen durch den Wind zur Vergrößerung der Oberfläche bei (eine wellenförmige Oberfläche liefert einen größeren Beitrag zur Verdunstung als eine flache).
d) Durch Wind erzeugte Wellen wiederum lassen die Turbulenz in der Grenzschicht stark zunehmen. Dies verstärkt die Verdunstung, weil trockene Luft aus höheren Luftschichten bis zur Erdoberfläche herunter gewirbelt wird, während gleichzeitig feuchte Luft aufwärts weht.
e) Da sich der aufgewirbelte Sprühnebel rasch auf die Lufttemperatur erwärmt, die in den Tropen häufig höher ist als die Wassertemperatur, verstärkt sich die Verdunstung ebenfalls verglichen mit derjenigen an der Wasseroberfläche.

2. Durch den Wind zunehmende Albedo. Der Sprühnebel, Gischt und die weißen Wellenkämme sorgen für eine erhebliche Zunahme der Albedo der Meeresoberfläche. Dies reduziert die vom Ozean absorbierte Energie.

3. Kalter Regen und kalter Wind. Wenn die feuchte Luft durch den Wärmeschlauch in der Gewitterwolke steigt, kondensiert das Wasser und fällt aus. Da dieses Wasser aus Luftschichten mit Temperaturwerten unter dem Gefrierpunkt fällt, kühlt es die untere Atmosphäre, durch die es fällt, und die Oberfläche beim Auftreffen. Diese [selbst produzierte] Kaltluft weht radial aus dem Zentrum des fallenden Regens heraus und kühlt so auch die umgebende Luft.

4. Zunahme des Gebietes mit Reflektion. Weiße, flauschige Kumuli sind nicht groß und reflektieren [das Sonnenlicht] nur an ihrer Oberseite. Andererseits reflektiert der vertikale Luftschlauch des Gewitters das Sonnenlicht auf der gesamten Länge. Dies bedeutet, dass Gewitterwolken eine viel größere Fläche beschatten als ihr eigener horizontaler Durchmesser, vor allem am späten Nachmittag.

5. Modifizierung hochtroposphärischer Wolken aus Eiskristallen (Linden [Lindzen?] 2001, Spencer 2007). Diese Wolken bilden sich aus den winzigen Eispartikelchen, die aus der Wärmekraftmaschine des Gewitters ausgeblasen werden. Es scheint so, als ob die regulatorische Wirkung dieser Wolken eine größere Auswirkung haben, da man von ihnen glaubt, dass sie eher wärmend (wegen der Absorption von IR) als abkühlend wirken (durch Reflektion).

6. Verstärkte nächtliche Ausstrahlung. Anders als langlebige Stratusbewölkung lösen sich Kumuli und Kumulonimben im Allgemeinen zur Nacht auf, bis zu dem typischen klaren Himmel der Morgendämmerung. Dies gestattet eine verstärkte Wärmeabstrahlung in den Weltraum.

7. Absinken trockener Luft bis zur Oberfläche. Die oben aus dem Gewitter ausgeblasene Luft sinkt als Gegengewicht außerhalb der Wolke wieder ab. Diese absinkende Luft ist sehr trocken, denn beim Aufsteigen hat sie fast ihre gesamte Feuchtigkeit durch Kondensation in der Gewitterwolke abgegeben. Je trockener diese Luft ist, umso mehr Feuchtigkeit kann sie bis zum erneuten Aufsteigen aufnehmen. Dies verstärkt die verdunstungsbedingte Abkühlung der Erdoberfläche.

Indem sie eine solche Fülle abkühlender Mechanismen zur Folge haben, sorgen Kumuli und Gewitterwolken extrem effektiv für eine Abkühlung der Oberfläche. Zusammen bilden sie den Regulator für die Temperatur in den Tropen.

Aber wo ist dieser Mechanismus?

Das Problem bei meinem Gedankenexperiment, [das Wetter an] einem typischen tropischen Tag zu beschreiben, liegt darin, dass es sich ständig ändert. Die Temperatur steigt und fällt, die Wolken bilden sich und fallen wieder zusammen, der Tag wechselt zur Nacht und umgekehrt, die Jahreszeiten kommen und gehen. Wo in all dieser ewigen Änderung ist der regulatorische Mechanismus? Wenn sich alles fortwährend ändert, was sorgt dafür, dass es Monat für Monat und Jahr für Jahr das Gleiche ist? Wenn die Bedingungen immer unterschiedlich sind, was hindert sie daran, den Rahmen zu sprengen (to run off the rails)?
Wenn man die Wirkung des Regulators beobachten will, braucht man einen anderen Standpunkt. Man braucht eine zeitlose Betrachtung ohne Jahreszeiten und ohne den Wechsel von Tag und Nacht. Und komischerweise gibt es in diesem „Ein Tag in den Tropen“ genannten Gedankenexperiment tatsächlich einen solchen zeitlosen Standpunkt, bei dem es nicht nur keinen Tages- und Nachtrhytmus gibt, sondern bei dem es auch immer Sommer ist.
Der Standpunkt ohne Tag und Nacht, von dem aus wir die Wirkung des Regulators beobachten können, ist der Standpunkt der Sonne. Man stelle sich vor, man beobachte die Erde von der Sonne aus. Aus diesem Blickwinkel gibt es Tag und Nacht nicht. Alle Teile der sichtbaren Erde liegen fortwährend im Sonnenlicht. Und unter der Sonne ist immer Sommer.
Wenn wir die allgemeine Definition akzeptieren, dass Norden oben liegt, bewegt sich die sichtbare Erdoberfläche von links nach rechts durch die Erdrotation. Also befindet sich der linke Rand der sichtbaren Erdoberfläche immer beim Sonnenaufgang und der rechte Rand immer beim Sonnenuntergang. Der Mittag liegt in einer vertikalen Linie unterhalb der Sonne in der Mitte. Von diesem zeitlosen Standpunkt aus ist der Morgen immer und ewig links, der Nachmittag rechts zu finden. Kurz gesagt haben wir auf diese Weise die Zeitkoordinaten durch die Koordinaten des Weltraumes ersetzt. Dies macht die Wirkung des Regulators anschaulich.
Die Tropen erstrecken sich von links nach rechts über die runde sichtbare Oberfläche. Am linken Ende der Tropen, nach dem Sonnenaufgang, erkennt man nur sehr wenige Wolken. Die Wolken nehmen immer mehr zu, je weiter man auf diesem Band nach rechts wandert. Um die Mittagszeit gibt es schon recht viele Kumuli, während weiter rechts immer mehr Kumuli und auch eine zunehmende Zahl von Gewitterwolken weite Gebiete der Tropen überdecken.
Es ist, als ob es einen abgestimmten Spiegel [zur Reflektion des Sonnenlichtes] über den Tropen gibt, mit den wenigsten Wolkenspiegeln links, die allmählich immer mehr zunehmen bis zur ausgedehnten Bewölkung und den Gewittern rechts.
Nach der Bildung der Hypothese, dass aus Sicht der Sonne die rechte Seite der Tropen stärkere Bewölkung aufweist als die linke, dachte ich „Hey, das ist eine überprüfbare Position, um meine Hypothese zu stützen oder zu zerstören“. Um zu untersuchen, ob die postulierte stärkere Bewölkung im rechten Teil der Erdoberfläche wirklich existiert, habe ich ein Mittel von 24 Bildern vom Pazifik aneinander gereiht, jeweils aufgenommen am 1. und am 15. eines jeden Monats über ein ganzes Jahr. Daraus ermittelte ich die mittlere Änderung der Albedo und daraus folgend die Änderung des Antriebs zu jeder Zeit. Hier ist das Ergebnis:

 
Abbildung 2. Ein-Jahres-Mittel von Satellitenbildern des Satelliten GOES–West aufgenommen jeweils zur Mittagszeit lokal unter dem Satelliten.

Die innertropische Konvergenz erkennt man an dem hellen Band in dem gelben Rechteck. Die lokale Zeit wird durch die blauen Linien im Bild angezeigt. Die Uhrzeiten stehen unter den zugehörigen Graphen. Die rote Linie in der Graphik zeigt die Anomalie der Sonnenstrahlung (in Watt pro Quadratmeter) in der gelb umrandeten Fläche. Der schwarze Graph zeigt die Albedo in diesem Gebiet.
Die Graphik unter dem Bild zeigt die Albedo und die Solarstrahlung im [Bereich des] gelben Rechtecks um die innertropische Konvergenz. Man beachte die starke Zunahme der Albedo zwischen 10.00 und 11.30 Uhr. Sie sehen den Mechanismus, der dafür sorgt, dass die Erde sich nicht überhitzt. Er sorgt für eine Änderung der Sonnebestrahlung von –60 W/m² zwischen zehn Uhr und Mittag.
Nun überlegen Sie, was passiert, wenn es aus irgendwelchen Gründen in den Tropen etwas kühler ist. Die Sonne braucht dann länger, die Oberfläche zu erwärmen. Die Verdunstung setzt erst später am Tag ein. Wolken bilden sich nur zögernd. Die Gewitter bilden sich später, es bilden sich weniger davon, und wenn es nicht warm genug ist, bilden sich diese riesigen, die Oberfläche kühlenden Wärmekraftmaschinen überhaupt nicht.
Und aus der Sicht der Sonne verlagert sich die Reflektionstätigkeit nach rechts, so dass mehr und längere Zeit die Sonne scheint. Die Reduzierung der Sonnenstrahlung um 60 W/m² findet erst später am Tag statt, so dass die lokale Einstrahlung zunimmt.
Wird es in den Tropen hingegen ein wenig wärmer als normal, verschiebt sich die Reflektion nach links, und Wolken bilden sich früher. Heiße Nachmittage begünstigen die Bildung von Gewittern, die die Oberfläche kühlen. Auf diese Weise sorgt eine sich selbst justierende Abkühlung im Schatten von Gewitterwolken dafür, dass sich die Temperatur am Nachmittag in Grenzen hält.
Nun haben einige Wissenschaftler behauptet, dass Wolken ein positives Feedback haben. Aus diesem Grunde sollen Gebiete mit mehr Wolken wärmer werden als Gebiete mit weniger Wolken. Dieses positive Feedback wird als Ursache dafür gesehen, dass Wolken und Wärme miteinander korreliert sind.
Ich und andere vertreten eine entgegengesetzte Auffassung. Ich sage, dass die Wolken durch die Erwärmung entstehen, und nicht die Erwärmung durch die Wolken.
Glücklicherweise gibt es Wege, um abzuschätzen, ob Änderungen der Reflektivität durch die Wolkenschirme und Gewitter in den Tropen durch steigende Temperaturen begünstigt werden (und diese damit begrenzen), oder ob eine Zunahme der Wolken die Temperatur allgemein steigen lässt. Das heißt, man muss die Änderung in der Albedo zusammen mit der Änderung der Temperatur betrachten. Hier folgen zwei Ansichten der Albedo in den Tropen im Abstand von sechs Monaten. Der August ist der wärmste Monat in der Nordhemisphäre. Die Sonne befindet sich nördlich [des Äquators]. Beachte die hohe Albedo (hellblaue Gebiete) über Nordafrika, China und die nördlichen Gebiete von Süd- und Mittelamerika. Im Gegensatz dazu ist die Albedo in Brasilien, Südafrika und Indonesien/Australien gering.

 
Abbildung 3. Monatliche mittlere Albedo. Beide Darstellungen liegen ein halbes Jahr auseinander.

Im August herrscht auf der Nordhemisphäre, im Februar auf der Südhemisphäre Hochsommer. Hellblaue Gebiete zeigen die höchste Reflektivität (die größte Albedo).
Im Februar steht die Sonne im Süden. Die Verteilung der Albedo ist umgekehrt. In Brasilien und Südafrika sowie Australien ist es warm unter der Sonne. Als Reaktion darauf bilden sich die Wolken, so dass diese Gebiete nun eine hohe Albedo aufweisen. Im Gegensatz dazu ist die Albedo im Norden niedrig, mit Ausnahme der hohen Reflektion in den Wüsten Sahara und Rub Al Khali.
Man erkennt ganz klar, dass die Wolkenalbedo (von Kumuli und Kumulonimben) dem Sonnenstand folgt und die Erde vor der Überhitzung bewahrt. Dies zeigt ziemlich eindeutig, dass die Wolken sich infolge der Wärme bilden und nicht umgekehrt.
Unabhängig davon zeigen diese Bilder auch auf andere Weise, dass die Wärme die Wolkenbildung auslöst. Bekanntlich erwärmt sich das Festland im Sommer stärker als der Ozean. Wenn wirklich die Temperatur die Wolkenbildung steuert, müsste es über Land eine größere Änderung der Albedo geben als über dem Ozean. Und das ist ganz klar der Fall. Man erkennt im Nordpazifik und im Indischen Ozean, dass mit der Sonne die Albedo zunimmt, besonders dort, wo das Wasser flach ist. Aber die Änderungen über Land sind allgemein viel größer als die Änderungen über dem Ozean. Auch dies zeigt, dass sich die Wolken infolge der Erwärmung bilden und diese dadurch limitieren.

Wie der Regulator funktioniert

Die Bildung tropischer Kumulus- und Gewitterwolken wird durch die Dichte der Luft bestimmt. Die Dichte ist eine Funktion von Temperatur (die die Dichte direkt beeinflusst) und Verdunstung (Wasserdampf ist leichter als Luft).
Ein Gewitter ist sowohl eine sich selbst erzeugende als auch eine sich selbst erhaltende Wärmekraftmaschine. Die beteiligten Faktoren sind mit Feuchtigkeit geladene warme Luft und flüssiges Wasser. Sich selbst erzeugend bedeutet, dass immer dann, wenn es über tropischen Ozeanen warm genug wird, was fast jeden Tag geschieht, und wenn Temperatur und Feuchtigkeit ein bestimmtes Maß erreichen, die flauschigen Kumuli plötzlich explodieren. Die Wolken schießen nach oben und zeigen die fortschreitende Entwicklung der feuchtwarmen Luft. In der Höhe verlässt die aufsteigende Luft die Wolke und wird durch von unten nachströmende feuchte Luft ersetzt. Auf einmal wird aus einer friedlichen Wolke ein aktives Gewitter.
Sich selbst erzeugend heißt, dass sich Gewitterwolken spontan als eine Funktion von Temperatur und Feuchtigkeit bilden. Oberhalb des Gemenges, das für die Bildung des ersten Gewitters erforderlich ist, nimmt die Anzahl der Gewitter rasch zu. Diese rasche Zunahme der Gewitteraktivität begrenzt den möglichen Temperaturanstieg, [den es ohne diese Wolken geben würde].
Sich selbst erhaltend heißt, wenn ein Gewitter erst einmal entstanden ist, braucht es nicht mehr die volle Auslösetemperatur, um sich zu erhalten. Der Grund hierfür ist durch das sich bildende Windsystem an der Basis sowie durch von oben absinkende trockene Luft die Verdunstungsrate erheblich zunimmt. Das Gewitter wird durch die Dichte der Luft getrieben. Es braucht eine Quelle leichter, feuchter Luft. Die Dichte der Luft wird bestimmt sowohl durch die Temperatur als auch durch den Feuchtegehalt (komischerweise ist Wasserdampf mit einem Molekulargewicht von 16 nur wenig mehr als halb so schwer wie Luft mit einem Molekulargewicht etwa bei 29).
Die Verdunstung ist nicht nur abhängig von der Temperatur, sondern vielmehr von einer komplexen Mischung aus Windgeschwindigkeit, Wassertemperatur und Dampfdruck. Die Verdunstung wird mit einer statistischen Formel berechnet […by what is called a „bulk Formula“], was bedeutet, dass diese Formel ein Erfahrungswert ist und nicht auf irgendeiner Theorie basiert. Eine allgemein benutzte Formel lautet:

E = VK(es – ea)

Hier bedeutet:
E = Verdunstung
V= Windgeschwindigkeit (als Funktion des Temperaturgegensatzes[?T])
K = ein konstanter Koeffizient
es = Dampfdruck an der verdunstenden Oberfläche (als Funktion der Wassertemperatur in Grad Kelvin zur vierten Potenz [?])
ea = Dampfdruck der darüber liegenden Luft (Funktion von relativer Luftfeuchtigkeit und Lufttemperatur in Grad Kelvin zur vierten Potenz)
In dieser Formel ist hauptsächlich zu beachten, dass die Verdunstung linear von der Windgeschwindigkeit abhängt. Das heißt, dass die Verdunstung in der Nähe eines Gewitters um eine Größenordnung höher sein kann als in kurzer Entfernung davon.
Zusätzlich zur Änderung der Verdunstung gibt es zumindest noch einen anderen Mechanismus zunehmender Wolkenbildung bei zunehmendem Wind, und zwar die Entstehung von Salzkristallen aus dem Ozean. Sich brechende Wellen bei starkem Wind erzeugen diese mikroskopisch kleinen Salzkristalle. Sie bilden die Hauptquelle der Kondensationskerne für Wolken, die sich über dem Ozean bilden. Die Erzeugung dieser zusätzlichen Kondensationskerne zusammen mit einer verstärkten Verdunstung führt zu größeren und schnelleren Änderungen der Wolkenbildung mit steigender Temperatur.
Also bedeutet zusätzliche Verdunstung durch den Wind, dass die Temperatur bei der Gewitterbildung bei gleicher Luftdichte unter der Auslösetemperatur liegen kann. Dies wiederum bedeutet, dass das Gewitter auch dann aktiv bleibt, wenn es die Oberfläche bis weit unter die Auslösetemperatur abkühlt.
Dieses Vermögen, die Temperatur unter die Auslösetemperatur zu drücken, unterscheidet den Regulator vom negativen Feedback. Ein Gewitter kann mehr als nur die Bodenerwärmung zu begrenzen. Es kann mechanisch die Oberfläche unter die erforderliche Auslösetemperatur abkühlen. Das erlaubt es dem Gewitter, eine bestimmte Temperatur in der Region rings um das Gewitter festzulegen.
Eine Schlüsselfunktion dieser Kontrollmethode (Veränderungen einfallender Energie, Arbeit, zunehmende Wärmeverluste, die den Temperaturanstieg bremsen) liegt darin, dass das Gleichgewicht der Temperatur nicht bestimmt wird durch Änderungen der [Wärme]verluste oder durch Änderungen des Antriebs im System. Das Gleichgewicht der Temperatur wird bestimmt durch Wind, Wasser und Wolken in Abhängigkeit von steigender Temperatur, und nicht durch die Effizienz oder die Menge der in das System eingehenden Energieflüsse.
Außerdem wird das Gleichgewicht der Temperatur nur unwesentlich durch Änderungen der Stärke der Solarstrahlung beeinflusst. Nimmt diese Strahlung ab, verringert sich die Verdunstung, was die Wolkenbildung vermindert und wiederum mehr von der Sonnenstrahlung zur Erdoberfläche durchkommen lässt. Dies ist die wahrscheinliche Antwort auf die schon lange im Raum stehende Frage, wie die globale Temperatur selbst in den geologischen Zeiträumen so stabil sein konnte, in denen die Stärke der Sonnenstrahlung markant zugenommen hat.
Allmähliche Variationen des Gleichgewichts und des Antriebs
Falls die Thermostat–Hypothese zutrifft und die Erde tatsächlich ein aktiv bestimmtes Gleichgewicht der Temperatur aufweist, was ist dann der Grund für die langsamen Veränderungen und Verschiebungen der Temperatur, die man sowohl in historischen als auch in geologischen Zeiträumen beobachtet hat?
Wie Bejan gezeigt hat, ist ein bestimmender Faktor der Temperaturentwicklung, wie effizient die ganze globale Wärmekraftmaschine die Terawatt von Energie von den Tropen zu den Polen transportiert. In geologischen Zeiträumen sind die Anordnung, die räumliche Verteilung und die Höhe von Landmassen offensichtlich ein sehr großer Faktor in dieser Hinsicht. Darin liegt auch der heutige Hauptunterschied zwischen der Arktis und der Antarktis. Die fehlende Landmasse in der Arktis bedeutet, dass unter dem Eis warmes Wasser zirkuliert. In der Antarktis ist es kalt bis in die Knochen… 
Außerdem stellt die ozeanische Geographie, die die Meeresströme beeinflusst, die warmes Wasser in Richtung der Pole und kaltes Wasser in Richtung Äquator transportieren, ebenfalls einen großen Faktor der aktuellen Temperatur in der globalen Wärmemaschine dar.
In kürzeren Zeiträumen könnte es allmähliche Änderungen der Albedo geben. Die Albedo ist eine Funktion von Windgeschwindigkeit, Verdunstung, Dynamik der Wolken und (zu einem geringeren Grad) Schnee und Eis. Verdunstungsraten werden durch die Gesetze der Thermodynamik bestimmt, so dass lediglich Windgeschwindigkeit, Dynamik der Wolken sowie Schnee und Eis das Gleichgewicht beeinflussen können.
Die Veränderlichkeit des Gleichgewichts der Temperatur könnte beispielsweise das Ergebnis einer weltweiten Änderung der mittleren Windgeschwindigkeit sein. Die Windgeschwindigkeit reguliert den Wellengang in den Ozeanen, und es kommt zu langfristigen Änderungen in der Wechselwirkung zwischen Ozean und Atmosphäre. Diese Änderungen der Windgeschwindigkeit könnten das Gleichgewicht der Temperatur auf zyklische Weise verändern.
Oder es könnte zusammen hängen mit einer generellen Änderung von Farbe, Typ oder Ausdehnung von Wolken und/oder Schnee und Eis. Die Albedo hängt ab von der Farbe der Oberfläche, die die Energie reflektiert. Wenn sich diese Reflektionen aus irgendwelchen Gründen ändern, könnte dies das Gleichgewicht der Temperatur beeinflussen. Die Reflektionseigenschaften von Schnee und Eis ändern sich durch Russablagerungen auf der Oberfläche, was zu verstärktem Schmelzen führen könnte. Die Reflektion von Wolken ändert sich durch eine Farbveränderung durch Aerosole oder Staub.

Schließlich könnten die Veränderungen des Temperaturgleichgewichtes auch mit der Sonne zusammen hängen. Die Variation der magnetischen [Felder] und des Sonnenwindes könnten groß genug sein, um Veränderungen hervorzurufen. Es gibt starke Hinweise darauf, dass die Bewölkungsmenge beeinflusst wird durch den 22-jährigen Hale–Zyklus, und diese 14-jährige Aufzeichnung überdeckt nur einen Teil davon.

Schlussfolgerungen und Ausblick
1. Die Sonne stößt mehr Energie aus, als nötig ist, um die Erde zu rösten. Aber sie wird daran gehindert durch die Wolken, die etwa ein Drittel der einfallenden Sonnenstrahlung zurück in den Weltraum reflektieren. So weit wir heute wissen, hat dieses System der Wolkenbildung zur Begrenzung des Temperaturanstiegs noch nie versagt.

2. Dieser reflektierende Wolkenschirm bildet sich in den Tropen als Folge steigender Temperatur.

3. Sofern die Temperatur weiter steigt, wird der reflektierende Wolkenschirm verstärkt durch Wärmekraftmaschinen, genannt Gewitter. Diese kühlen die Erdoberfläche auf vielfältige Weise, transportieren Wärme nach oben und verwandeln Wärme in Arbeit.

4. Wie auch die Kumuli bilden sich Gewitter als Folge steigender Temperatur.

5. Weil sie von der Temperatur angetrieben werden, wenn die Temperatur in den Tropen steigt, nimmt die Bildung von Gewittern und Kumuluswolken zu. Diese Kombination reguliert und begrenzt den Temperaturanstieg. Wenn die Temperatur der Tropen niedrig ist, klart der tropische Himmel auf, und die Erde erwärmt sich rasch. Aber wenn es in den Tropen heißer wird, begrenzen Kumuli und Kumulonimben diese Erwärmung. Dieses System hält die [Temperatur der] Erde innerhalb eines schmalen Bandes von Temperaturwerten.

6. Das System zur Regulierung der Erdtemperatur basiert auf den unveränderlichen Gesetzen der Physik von Wind, Wasser und Wolken.

7. Dies ist eine vernünftige Erklärung dafür, wie die Temperatur der Erde Hunderte von Millionen Jahren so stabil war (oder besser, zweifach stabil in Kalt- und Warmzeiten).

Willis Eschenbach, Tuvalu. Die Originalversion erschien zuerst bei Watts Up hier

dankenswerterweise übersetzt von Chris Frey EIKE
Weiterführende Literatur

Bejan, A, and Reis, A. H., 2005, Thermodynamic optimization of global circulation and climate, Int. J. Energy Res.; 29:303–316. Available at http://homepage.mac.com/williseschenbach/.Public/Constructal_Climate.pdf
Richard S. Lindzen, Ming-Dah Chou, and A. Y. Hou, 2001, Does the Earth Have an Adaptive Infrared Iris?, doi: 10.1175/1520-0477(2001)082<0417:DTEHAA>2.3.CO;2
Bulletin of the American Meteorological Society: Vol. 82, No. 3, pp. 417–432.
Available online at http://ams.allenpress.com/pdfserv/10.1175%2F1520-0477(2001)082%3C0417:DTEHAA%3E2.3.CO%3B2
Ou, Hsien-Wang, Possible Bounds on the Earth’s Surface Temperature: From the Perspective of a Conceptual Global-Mean Model, Journal of Climate, Vol. 14, 1 July 2001. Available online at http://ams.allenpress.com/archive/1520-0442/14/13/pdf/i1520-0442-14-13-2976.pdf