1

Das Rätsel der Eiszeiten – Teil XI: Das Ende der letzten Eiszeit

scienceofdoom

In den letzten Artikeln haben wir zumeist die Modelle hinsichtlich der Auslösung der letzten Eiszeit betrachtet. In Teil sieben haben wir dazu einige frühe GCMs (GCM = global circulation model) betrachtet – Ende der achtziger bis Mitte der neunziger Jahre. In Teil acht ging es um vier verschiedene Studien vor etwa einem Jahrzehnt. In Teil neun ging es um eine Studie, die die letzten 120.000 Jahre simuliert hat, und Teil zehn befasste sich mit einer der jüngsten Studien der Auslösung einer Vereisung vor 115.000 Jahren mittels des letzten Klimamodells CCSM4.

Wir werden zum Mechanismus der Auslösung einer Eiszeit wieder zurückkehren, aber in diesem Beitrag wollen wir das Ende der letzten Eiszeit betrachten. Dies teils deswegen, weil jemand auf einem anderen Blog eine sich damit befassende Studie vorstellte und ich daraufhin einige Zeit damit zubrachte, diese Studie zu verstehen. Aus den letzten 20.000 Jahren gibt es einige exzellente Aufzeichnungen aus beiden Polargebieten. Das vor etwa 20 Jahren initiierte EPICA-Projekt erbrachte Daten aus Eisbohrkernen der Antarktis, die man mit den NGRIP-Daten aus Eisbohrkernen Grönlands vergleichen konnte, die etwa 800.000 Jahre zurückreichen. Aus anderen Forschungsprojekten standen zusätzliche Proxy-Daten aus der ganzen Welt zur Verfügung.

Shakun et al. 2012

Die Studie stammt von Shakun et al. 2012. Randbemerkung: Eine der Ko-Autoren war Bette Otto-Bliesner, ebenso wie für Jochum et al. 2012. Diese Studie haben wir in Teil zehn unter die Lupe genommen. Bette Otto-Bliesner ist eine der Leitautoren des IPCC-AR 5 im Abschnitt über Paläoklima.

Das letzte glaziale Maximum (LGM) ereignete sich vor etwa 22.000 bis 18.000 Jahren. Der Meeresspiegel lag damals 120 m niedriger als heute, weil dicke Eisschilde Teile von Nordamerika und Europa überdeckten. Warum und wie ist diese Zeit zu Ende gegangen? In der Studie geht es im Wesentlichen um die zweite Frage nach dem "wie". Die obere Kurve in der folgenden Abbildung zeigt die Temperaturen der Antarktis in rot, das CO2 in gelben Punkten und die globalen Temperaturen in blau:

Bildinschrift: CO2-Konzentration und Temperatur. a: Der globale Proxy-Temperaturblock (blau) als Abweichungen vom Mittel des frühen Holozäns (vor 11.500 bis 6500 Jahren), ein Komposit aus antarktischen Eisbohrkernen (rot) und die atmosphärische CO2-Konzentration (gelbe Punkte). Gekennzeichnet sind das Holozän, das jüngere Dryas (YD), Bølling-Alleröd (B-A), das älteste Dryas (OD) und das letzte Glaziale Maximum (LGM). Fehlerbalken, 1 sigma (Methoden); parts per million by volume ppmv. b: Phasen der CO2-Konzentration und der Temperatur global (grau), für die Nordhemisphäre (NH, blau) und die Südhemisphäre (SH, rot). Die Proxy-Blöcke basieren auf Verzögerungs-Korrelationen von vor 20.000 bis 10.000 Jahren in 1000 Monte-Carlo-Simulationen (Methoden). Das Mittel und die 1 sigma-Bandbreite werden gezeigt. Die CO2-Konzentration führt den globalen Temperaturblock in 90% der Simulationen und hinkt ihr hinterher in 6% aller Fälle.

Die zweite Graphik zeigt uns das Histogramm von CO2-Änderungen in Bezug auf die Temperatur sowohl für die Antarktis als auch global. Man erkennt deutlich, dass die Temperaturen der Antarktis vor etwa 18.000 Jahren nachhaltig zu steigen begannen – vor den globalen Temperaturen. Wir können erkennen, dass die CO2 Konzentration geringfügig den antarktischen Temperaturen vorausgelaufen oder mit dieser synchron verlaufen ist. Dies zeigt, dass die CO2-Zunahme hier eine positive Rückkopplung auf den ursprünglichen antarktischen Temperaturanstieg hatte (grundlegender Physik zufolge steigt durch mehr CO2 der Strahlungsantrieb in der Troposphäre an – siehe Anmerkung 1).

Aber was war die Ursache für diesen initialen Anstieg der antarktischen Temperaturen? Eine ins Spiel gebrachte Möglichkeit ist ein vorausgegangener Temperaturanstieg in höheren nördlichen Breiten, den man in der zweiten Graphik der folgenden Abbildung erkennt:

 

Bildinschrift: Temperaturänderung vor Zunahme der CO2-Konzentration. a: Lineare Temperaturtrends in den Proxy-Aufzeichnungen von vor 21.500 bis 19.000 Jahren (rot) sowie von vor 19.000 bis 17.500 Jahren (blau), gemittelt über Streifen von 10° Breite mit Unsicherheiten von 1 sigma. b: Proxy-Temperaturblöcke für Streifen von 30° Breite mit Unsicherheiten von 1 sigma. Die Blöcke wurden durch die Glazial-Interglazial-Bandbreite (G-IG) in jeder Zeitreihe normalisiert, um Vergleiche zu ermöglichen.

Shagun et al. führen aus: „Eine wichtige Ausnahme ist das Einsetzen des Abschmelzens, das aufgrund einer globalen Erwärmung von etwa 0,3°C erfolgte vor der initialen Zunahme des CO2-Gehaltes vor 17.500 Jahren. Dieses Ergebnis zeigt, dass das CO2 nicht der Grund für die initiale Erwärmung war. Substantielle Temperaturänderungen in allen Breiten (Figure 5b) laufen der CO2-Zunahme vor 17.500 Jahren voraus. Dies zeigt, dass CO2 nicht als Auslöser des Abschmelz-Beginns in Frage kommt. Diese frühe globale Erwärmung erfolgte in zwei Phasen: einer graduellen Zunahme vor 21.500 bis 19.000 Jahren, gefolgt von einer stärkeren Zunahme vor 19.000 bis 17.500 Jahren (Figure 2a). Die erste Zunahme hängt mit einer Erwärmung der nördlichen mittleren und hohen Breiten zusammen, am deutlichsten in Grönland, gibt es doch anderswo zu dieser Zeit nur geringe Änderungen (Figure 5) Die zweite Zunahme ereignete sich während eines ausgeprägten interhemisphärischen Wipp-Ereignisses (Figure 5), möglicherweise verbunden mit einer Abnahme der AMOC-Stärke (Anm. der Redaktion: AMOC = Atlantic Meridional Overturning Circulation), wie man in der Pa/Th-Aufzeichnung (Anm. der Redaktion: Pa ist das Proactinium-Isotop 231Pa, Th ist das Thoriumisotop 230Th, die für die Altersbestimmung verwendet werden) und unserer Modellierung sieht (nachfolgend Figure 4f, g)…… In jedem Falle zeigen wir, dass diese räumlich-zeitlichen Verteilungen der Temperaturänderung konsistent sind mit einer Erwärmung in mittleren und hohen nördlichen Breiten. Dies führte zu einer Reduktion der AMOC vor etwa 19.000 Jahren und war der Auslöser für die darauf folgende globale Abschmelz-Erwärmung. Allerdings braucht man noch weitere Aufzeichnungen, um Ausdehnung und Größenordnung der frühen Erwärmung in diesen Breiten zu stützen“. So weit Shagun et al.

Die hier erwähnte interhemisphärische Wippe ist wichtig für das Verständnis und bezieht sich auf die Beziehung zwischen zwei großräumigen Meeresströmungen – zwischen den Tropen und den hohen nördlichen Breiten einerseits sowie den Tropen und der Antarktis andererseits. Dann wird von den Autoren ein „plausibles Szenario” für die initiale Erwärmung der Nordhemisphäre wie folgt präsentiert:

Ein mögliches Antriebs-Modell zur Erklärung dieses Teils der Ereignisse beginnt mit steigender borealer sommerlicher Einstrahlung, die die Erwärmung im Norden auslöst. Dies führt zu dem beobachteten Rückzug der nordhemisphärischen Eisschilde und dem Beginn des Anstiegs des Meeresspiegels vor etwa 19.000 Jahren (Fig. 3a, b) mit dem begleitenden Süßwasser-Antrieb, welcher zu einer Abnahme der AMOC führte, die die Südhemisphäre erwärmte via der bipolaren Wippe.

Dies ist ein recht schwacher Abschnitt in dieser Studie. Ich finde es seltsam, dass jemand dies schreibt und nicht im Mindesten auf die offensichtlichen Fehler darin hinweist. Bevor ich dies ausführe, müssen zwei Punkte angesprochen werden:

1. Der in Rede stehende Mechanismus wird beschrieben als ein „mögliches Antriebs-Modell“ und ist nicht wirklich Gegenstand der Studie und wird auch offenbar nicht durch irgendwelche Beweise in der Studie gestützt.

2. Ihre Modellläufe, obige Figure 4c stützen die Hypothese nicht – sie zeigen Temperaturen der Nordhemisphäre mit einem zu jener kritischen Periode abwärts gerichteten Trend. Man vergleiche die obige Fig. 4b und 4c (b sind Proxy-Daten, C ist das Modell). Allerdings stellen sie nicht die höheren Breiten heraus; vielleicht hat also ihr Modell dieses Ergebnis gezeigt.

Der offen liegende Kritikpunkt an dieser Hypothese ist, dass die Einstrahlung (Sommer, bei 65°N) während früherer Perioden sehr viel stärker war:

Abbildung 4

Wir haben dies gesehen bei Ghosts of Climates Past – Pop Quiz: End of An Ice Age (Anm. der Redaktion: diesen Teil bitte im Original naclesen).

Auch wurden während der letzten Eiszeit frühere Perioden signifikanter Temperaturanstiege in hohen nördlichen Breiten aufgezeichnet. Warum war keiner davon in der Lage, die gleiche Folge von Ereignissen und einen antarktischen Temperaturanstieg auszulösen?

Zur Zeit der LGM wiesen die Eisschilde ihre größte Ausdehnung auf mit der positiven Rückkopplung einer höheren Albedo als Konsequenz. Falls eine geringe Zunahme der sommerlichen Einstrahlung in hohen nördlichen Breiten Abschmelzen auslösen kann, würde sicher die viel höhere sommerliche Einstrahlung vor 100.000 oder 82.000 Jahren ein Abschmelzen ausgelöst haben unter der Voraussetzung des zusätzlichen Vorteils der geringeren Albedo zu der Zeit. Bei der Fertigstellung dieses Abschnitts schaute ich noch einmal auf die Website von Nature, um zu sehen, ob es dort irgendwelche Zusatzinformationen gibt (Nature-Studien sind kurz, und Online-Material, das in der PDF nicht auftaucht, kann sehr nützlich sein). Es gab einen Link zu der Site News & Views zu dieser Studie von Eric Wolff. Eric Wolff ist einer der wichtigsten Beitragenden zu EPICA, Leitautor und Mitautor vieler EPICA-Studien. Daher schien es mir sinnvoll, seine Perspektive zu dieser Studie zu lesen. Viele Leute scheinen nämlich davon überzeugt zu sein, dass die Milankovitch-Theorie richtig sei  und sie nicht zu akzeptieren absurd ist. Siehe zum Beispiel die von mir zuvor schon einmal erwähnte Blog- Diskussion. Es ist also angebracht, ausführlich aus Wolffs kurzem Artikel zu zitieren:

In der Zeit von vor 19.000 bis 10.000 Jahren kam die Erde aus der letzten Vereisungsperiode. Der gesamte Globus erwärmte sich, Eisschilde zogen sich von den Nordkontinenten zurück, und die Zusammensetzung der Atmosphäre änderte sich signifikant. Viele Theorien versuchen zu erklären, was diese Transformation ausgelöst und am Leben gehalten hat, aber es fehlen belastbare Beweise, diese Theorien zu validieren.

Auf Seite 49 dieser Ausgabe verwenden Shakun et al. eine globale Rekonstruktion der Temperatur um zu zeigen, dass der Übergang von der Eiszeit in die derzeitige Zwischeneiszeit von einer gegenphasigen Temperaturentwicklung der beiden Hemisphären der Erde gekennzeichnet war, die einer kohärenten Erwärmung überlagert war. Änderungen der Meeresströme, die die gegensätzliche Reaktion in jeder Hemisphäre kontrollieren, scheinen für das Ende der Eiszeit mit ausschlaggebend gewesen zu sein.

Wieder einmal hat ein führender Klimawissenschaftler angemerkt, dass wir nicht wissen, warum die letzte Eiszeit zu Ende gegangen ist. Wie wir in Teil VI – “Hypotheses Abound” gesehen haben, erklärt der Titel den Inhalt:

Einige Studien haben zur Diskussion gestellt, dass Änderungen des ozeanischen Wärmetransportes ein wesentlicher Teil zur Beendigung einer Eiszeit sind. Shakun et al. kombinieren ihre Daten mit Simulationen auf der Grundlage eines Ozean-Atmosphäre-Modells, um eine plausible Abfolge der Ereignisse seit der Zeit vor etwa 19.000 Jahren zu präsentieren. Sie meinen, dass eine Reduktion der AMOC (im Modell induziert durch den Eintrag von Süßwasser in den Nordatlantik) zur Erwärmung der Südhemisphäre und einer insgesamten Abkühlung der Nordhemisphäre geführt hat. Die Kohlendioxidkonzentration begann bald danach zu steigen, möglicherweise durch Ausgasen aus den Tiefen des südlichen Ozeans. Obwohl sie ziemlich gut dokumentiert ist, bleibt die genaue Kombination der Mechanismen für diesen Anstieg fraglich. Danach erwärmten sich beide Hemisphären gleichlaufend, hauptsächlich als Reaktion auf den Anstieg des Kohlendioxidgehaltes, jedoch mit weiteren Oszillationen auf Grund des hemisphärischen Kontrastes mit Variation der Stärke der AMOC. Das Modell reproduziert sehr gut die Größenordnung und die Verteilung der globalen und hemisphärischen Änderungen mit dem sich ändernden Kohlendioxid und der sich ändernden AMOC als grundlegenden Komponenten.

Der Erfolg des von Shakun und Kollegen verwendeten Modells bei der Reproduktion der Daten ist ermutigend. Aber eine Schwäche ist, dass die Größenordnung des Süßwasser-Eintrags in den Atlantik im Modell adjustiert worden ist, um die abgeleitete Stärke der AMOC und die Größenordnung  der interhemisphärischen Klimareaktion zu erzeugen. Das Ergebnis impliziert nicht, dass die Ozean-Zirkulation in dem Modell die korrekte Sensitivität hinsichtlich der Menge des Süßwasser-Eintrags aufweist.

Die Arbeit von Shakun und Kollegen bietet eine solide, auf Daten basierende Grundlage für eine plausible Kette der Ereignisse während der meisten Zeit, in der die Eiszeit endete. Aber was führte zu der Reduktion in der AMOC vor 19.000 Jahren? Die Autoren verweisen darauf, dass in der Zeit von vor 21.500 und 19.000 Jahren die Temperatur im nördlichsten Breitenband (60°N bis 90°N) signifikant gestiegen war. Sie folgern, dass dies Folge einer Steigerung der sommerlichen Einstrahlung in hohen nördlichen Breiten ist (einfallende Solarstrahlung), getrieben von den gut bekannten Zyklen der Erdumlaufbahn um die Sonne. Sie argumentieren, dass dieser Anstieg zu einem auslösenden Schmelzen von Eisschilden geführt hat, was nachfolgend die Reduktion der AMOC einleitete.

Allerdings muss diese Folgerung mit Vorsicht betrachtet werden. Erstens gibt es nur sehr wenige Temperaturaufzeichnungen in diesem Breitenbereich: Die Erwärmung ist nur in Eisbohrkernen aus Grönland klar erkennbar.

Zweitens, es gibt mindestens einen vergleichbaren Temperaturanstieg in den Grönland-Eisbohrkernen, und zwar in der Zeit von vor 62.000 und 60.000 Jahren, der nicht zum Ende der Eiszeit geführt hat. Und schließlich, obwohl es stimmt, dass die sommerliche Einstrahlung im Norden von vor 21.500 und 19.000 Jahren zugenommen hat, blieb deren absolute Größenordnung geringer als zu irgendeiner Zeit von vor 65.000 und 30.000 Jahren. Es ist völlig unklar, warum eine Zunahme der Einstrahlung von einem niedrigen Wert das Ende der Eiszeit ausgelöst haben soll, während eine anhaltende Periode höherer Einstrahlung dies nicht bewirkt hat.

Kurz gesagt, man braucht eine weitere Zutat, um die Verbindung zwischen Einstrahlung und Eiszeit-Ende zu erklären – ebenso wie die Auslöser der Serie von Ereignissen, die so gut in der Studie von Shakun und Kollegen beschrieben worden sind. Die Schaukelei der Temperatur zwischen Nord und Süd während der gesamten Vereisungsperiode, die am klarsten in rapiden Erwärmungen Grönlands zum Ausdruck kommt (Dansgaard-Oeschger-Ereignisse), wird oftmals als Signal verstanden, dass es in der AMOC zahlreiche Änderungen der Stärke gegeben hat. Allerdings dauerte die Schwächung in der AMOC, die vor 19.000 Jahren eingesetzt hatte, viel länger als derartige Schwächungen zuvor, was einen viel substantielleren Anstieg der südlichen Temperatur und der Kohlendioxid-Konzentration ermöglicht hatte. Warum war es zu jener Zeit so schwierig, die AMOC neu zu beleben und deren Schwäche zu beenden?

Und was könnte die fehlende Zutat sein, die den Anstieg der Einstrahlung im Norden vor etwa 20.000 Jahren in den Auslöser der Deglaziation verwandelt hatte, wenn eine stärkere Einstrahlung in früheren Zeiten dies nicht vermocht hat? Es wurde in die Diskussion geworfen, dass eine Eiszeit nur zu Ende geht, wenn die Eisschilde im Norden besonders groß sind. Falls dies wirklich die zusätzliche Zutat ist, dann muss der nächste Schritt zum Verständnis der Kausalkette darin bestehen zu verstehen, welcher Aspekt der großen Eisschilde das Einsetzen und die Persistenz der AMOC kontrolliert, die anscheinend das Schlüsselelement der letzten Deglaziation war.

Danke, Eric Wolff. Meine Zusammenfassung von Shakun et al. hinsichtlich ihres zentralen Themas: es ist eine sehr gute Studie mit soliden neuen Daten, guten Erklärungen und Graphiken. Allerdings ist in diesem Bereich alles noch im Fluss.

Parrenin et al 2013

Parrenin et al. schreiben:

Das Verständnis der Rolle des atmosphärischen CO2-Gehaltes während vergangener Klimaänderungen erfordert genaue Kenntnisse darüber, wie der Gehalt relativ zur Temperatur mit der Zeit variiert. Antarktische Eisbohrkerne konservieren hoch aufgelöste Aufzeichnungen des atmosphärischen CO2-Gehaltes sowie die Temperatur in der Antarktis während der letzten 800.000 Jahre.

Hier zeigen wir eine überarbeitete relative Zeitskala für die Konzentration von CO2 in der Atmosphäre sowie die antarktische Temperatur während der letzten Erwärmung mit schrumpfenden Gletschern, und zwar mittels Daten aus fünf antarktischen Eisbohrkernen. Wir leiten die Synchronisierung zwischen CO2-Konzentration und antarktischer Temperatur zu vier verschiedenen Zeiten ab, als sich deren Trends abrupt änderten.

Wir finden keine signifikante Asynchronizität zwischen ihnen. Das zeigt, dass die antarktische Temperatur nicht hunderte Jahre begonnen hat zu steigen vor [dem Anstieg der] atmosphärischen CO2-Konzentration, wie es in früheren Studien gezeigt worden ist.

Aua! In einem späteren Artikel werden wir in die komplexe Welt der Datierung von Eiskernen und der darin eingeschlossenen Luftbläschen eintauchen.

WAIS Divide Project Members (2013)

Die Ursache für die Erwärmung der Südhemisphäre während der jüngsten Deglaziation bleibt Gegenstand der Diskussion. Hypothesen eines Auslösers auf der Nordhemisphäre durch ozeanische Umverteilungen basieren teilweise auf dem abrupten Einsetzen einer Erwärmung, die in den Eiskernen der Ostantarktis erkennbar ist und sich auf vor 18.000 Jahren datieren lässt. Diese fand mehrere tausend Jahre statt, nachdem die sommerliche Einstrahlung in hohen nördlichen Breiten zuzunehmen begonnen hatte vor etwa 24.000 Jahren.

Eine alternative Erklärung lautet, dass lokale Änderungen der solaren Einstrahlung die Erwärmung der Südhemisphäre unabhängig verursachen. Hier präsentieren wir Ergebnisse eines neuen, jährlich aufgelösten Eisbohrkerns aus der Westantarktis, die diese beiden Ansichten in Einklang bringen. Die Aufzeichnungen zeigen, dass die Schnee-Akkumulation in der Westantarktis vor 18.000 Jahren angefangen hat zuzunehmen, was mit steigenden Kohlendioxid-Konzentrationen, einer Erwärmung der Ostantarktis und einer Abkühlung der Nordhemisphäre zusammenfällt, verbunden mit einer abrupten Abnahme der AMOC. Allerdings begann eine signifikante Erwärmung in der Westantarktis bereits mindestens 2000 Jahre früher.

Abnehmendes Meereis rund um die Antarktis, getrieben durch zunehmende lokale Einstrahlung, ist der wahrscheinliche Grund für diese Erwärmung. Die maritim beeinflussten Aufzeichnungen aus der Westantarktis zeigen eine aktivere Rolle des Südlichen Ozeans beim Einsetzen der Deglaziation, als es aus Eisbohrkernen der Ostantarktis hervorgeht, die weitgehend isoliert sind von Änderungen des Meereises.

Wir erkennen daran, dass „zunehmende solare Einstrahlung” in irgendeinem Teil der Welt mit irgendeinem Wert als eine Hypothese für das Ende einer Eiszeit präsentiert werden kann. „Lokale solare Einstrahlung“ bedeutet hier die solare Einstrahlung im Gebiet der Antarktis. Man vergleiche dies mit Shakun et al., dem zufolge zunehmende Einstrahlung (von einem sehr niedrigen Wert) in hohen nördlichen Breiten als Hypothese einer Erwärmung im Norden präsentiert wurde, die dann eine Erwärmung im Süden initiiert hat.

Das WAIS Projekt ist eine sehr interessante Studie mit neuen Daten aus der Antarktis, dem westantarktischen Eisschild WAIS, wo die Bohrung im Jahre 2011 abgeschlossen worden ist. In diesem Projekt ist zu lesen:

Weil das Klima der Westantarktis ein anderes ist als im Inneren der Ostantarktis kann der Ausschluss westantarktischer Aufzeichnungen zu einem unvollständigen Bild von Klimaänderungen der Vergangenheit in der Antarktis und im Südlichen Ozean führen. Das Innere der Westantarktis liegt tiefer und ist viel stärker von maritimen Luftmassen beeinflusst als das Innere der Ostantarktis, die umgeben ist von steilen Berghängen. Maritim beeinflusste Örtlichkeiten sind von Bedeutung, weil sie direkter atmosphärische Bedingungen reflektieren, die aus Änderungen der Meeresströme und des Meereises resultieren. Eisbohrkern-Aufzeichnungen an Küsten sind allerdings oft schwierig zu interpretieren infolge der komplizierten Eisflüsse und der Geschichte der Höhe über dem Meeresspiegel.

Der Ort des Eisbohrkerns WAIS-WDX in der zentralen Westantarktis ist einmalig, liegt er doch in einem Gebiet mit sehr geringer Änderung der Seehöhe. Er ist stark beeinflusst von maritimen Bedingungen und weist eine relativ hohe Schnee-Akkumulationsrate auf. Das ermöglicht die Gewinnung genau datierter Aufzeichnungen mit hoher zeitlicher Auflösung.

WDC zeichnet wie folgt ein etwas anderes Bild als die anderen antarktischen Eisbohrkerne:

"…und eine signifikante Erwärmung bei WDC begann vor 20.000 Jahren, etwa 2000 Jahre vor einer signifikanten Erwärmung bei EDML und EDC. Sowohl die WDC als auch der schwächer aufgelöste Byrd-Eisbohrkern zeigen, dass die Erwärmung in der Westantarktis vor Abnahme der AMOC begann, die ins Spiel gebracht worden ist, um die Erwärmung der Südhemisphäre zu erklären (unter den Literaturhinweisen fand sich auch Shakun et al. 2012). Die signifikanteste frühe Erwärmung bei WDC erfolgte in der Zeit von vor 20.000 bis 18.800 Jahren, obwohl es auch in der Zeit von vor 22.000 bis 21.500 Jahren zu einer signifikanten Erwärmung gekommen war. Die Größenordnung der Erwärmung bei WDC vor 18.000 Jahren ist viel größer als bei EDML oder EDC.

 

Bildinschrift Figure 1: antarktische Isotopen-Aufzeichnungen. Verhältnis von Wasserisotopen von neun antarktischen Eisbohrkernen. Eingefügt sind die Umrisse der Antarktis mit den Stellen, an denen die Bohrkerne entnommen worden sind: {es folgen die Namen} From WAIS Divide Project (2013)

Wir werden diese Studie in einem späteren Artikel detaillierter unter die Lupe nehmen.

Schlussfolgerung

Das Ende der letzten Eiszeit ist ein faszinierendes Thema, das unsere Fähigkeit herausfordert, Klimawandel zu verstehen. Eine Kritik an der Klimawissenschaft auf vielen Blogs lautet, dass Klimawissenschaftler von GCMs besessen seien anstatt sich mit „realer Wissenschaft“ zu befassen, „reale Experimente durchzuführen“ und „wirkliche Daten betrachten“. Ich kann nicht sagen wo das Gleichgewicht wirklich liegt, aber zumindest auf meiner eigenen Reise durch die Klimawissenschaft fand ich in der Tat, dass es eine willkommene und gesunde Besessenheit gibt, neue Datenquellen zu finden, Daten zu analysieren, Datensätze zu vergleichen und reale Experimente durchzuführen. Die Eisbohrkern-Projekte aus Grönland und der Antarktis wie NGRIP, EPICA und WAIS Divide Projekt sind dafür gute Beispiele.

In anderen Klimablogs scheinen Autoren und Kommentatoren sehr glücklich zu sein, dass Klimawissenschaftler eine Studie geschrieben haben, die „die orbitale Hypothese“ stützt, ohne jede kritische Untersuchung, welche Beweise diese Studie eigentlich stützen.

Kommen wir aber jetzt zu der Kernfrage dieses Artikels zurück, nämlich der nach der Beendigung der letzten Eiszeit. Das Problem ist derzeit wohl nicht so sehr das Fehlen einer Theorie, sondern vielmehr, dass die Datenflut noch nicht in eine klare Reihenfolge von Ursache und Wirkung gebracht werden konnte. Dies ist ganz offensichtlich essentiell, um eine vernünftige Theorie zu entwickeln. Und jede Theorie, die das Ende der letzten Eiszeit erklären kann, wird auch erklären müssen, warum es nicht früher dazu gekommen ist. Die Erwähnung „zunehmender Einstrahlung“ scheint mir eine Art fauler Journalismus zu sein. Zum Glück stimmt zumindest Eric Wolff mit mir darin überein.

Quellen

Global warming preceded by increasing carbon dioxide concentrations during the last deglaciation, Shakun, Clark, He, Marcott, Mix, Liu, Otto-Bliesner, Schmittner & Bard, Nature (2012) – free paper

Climate change: A tale of two hemispheres, Eric W. Wolff, Nature (2012)

Synchronous Change of Atmospheric CO2 and Antarctic Temperature During the Last Deglacial Warming, Parrenin, Masson-Delmotte, Köhler, Raynaud, Paillard, Schwander, Barbante, Landais, Wegner & Jouzel, Science (2013) – free paper, in submission form (rather than published form)

For interest  Valérie Masson-Delmotte is one of the two co-ordinating lead authors for AR5 for the Paleoclimate section, Frédéric Parrenin is a contributing author.

Onset of deglacial warming in West Antarctica driven by local orbital forcing, WAIS Divide Project Members, Nature (2013) – free paper

Anmerkungen

Note 1 – see for example, CO2 – An Insignificant Trace Gas? – an 8-part series on CO2, Atmospheric Radiation and the “Greenhouse” Effect – a 12-part series on how radiation interacts with the atmosphere, Visualizing Atmospheric Radiation – a 13-part series to help us get a better grasp of how this works including “does water vapor overwhelm CO2″, “is CO2 saturated” and many other questions.

Link: http://scienceofdoom.com/2014/01/09/ghosts-of-climates-past-eleven-end-of-the-last-ice-age/




Atom-Müll als Energiequelle: Russland baut ökologische Atomreaktoren

Der Link zum Originalartikel hier.

Während in Deutschland die Energiewende in den Köpfen nahezu abgeschlossen ist, werden knapp 2.000 Kilometer östlich von Moskau neue Ideen mit Atomstrom umgesetzt. Vor zwei Wochen wurde der Reaktor mit der Bezeichnung BN-800 erstmals kritisch. Das bedeutet aber keinen Unfall, sondern heißt im Fachjargon lediglich, dass die Kettenreaktion erreicht wurde. Der umweltfreundliche Reaktor ist also bereits aktiv. Auf 100% Leistung fährt er allerdings noch nicht.

Das soll Stück für Stück geschehen. Parallel werden Tests durchgeführt. Laut Plan ist der komplette Prozess im Oktober abgeschlossen und dann soll der BN-800 seine maximale Stromerzeugung erreicht haben. 2015 wird er voraussichtlich ans Netz angeschlossen. Auch eine Form von Energiewende, über die die deutschen Medien gemeinsam schweigen.

Allen voran Bundeskanzlerin Merkel hat hierzulande die Variante gewählt, mit der sie die meisten Stimmen bekommt. Deshalb lautet in Deutschland die Devise: weg vom Atomstrom. Das haben die Energieversorger RWE und E.ON teuer zu spüren bekommen. Trotz Milliardengewinnen sind die Aktien von ihrem Allzeithoch weit entfernt. Ökostrom ist nicht nur Wahlprogramm, sondern hat natürlich auch viele Vorteile.

Egal ob Solaranlagen oder Windkraftwerke – Strom kann überall generiert werden und sollte inzwischen auch ökologisch vertretbar sein. Fukushima ist dank japanischer Geheimhaltungspolitik relativ harmlos dargestellt worden, auch wenn das Ausmaß sicher extremer und gefährlicher ist, als es die Regierungssprecher kommunizieren. Dennoch, der Unfall im Kernkraftwerk an der japanischen Ostküste durch die Tsunami im März 2011 hat gravierende Folgen. Wenngleich es in Europa primär die Energiepolitik betrifft.

Selbstverständlich sind Solaranlagen sicherer als Kernkraftwerke. Darüber soll die neue Atomtechnologie in Russland gar nicht hinwegtäuschen. Entscheidend ist allerdings, dass der BN-800 keinen gefährlichen Atommüll produziert. Dies war auch eins der wichtigen Argumente, warum die Energiewende in Deutschland vollzogen wurde. Wenn sich Deutschland und Frankreich nicht einigen können, wo der radioaktive Sondermüll gelagert werden muss, ist es wohl auch besser, erst gar keinen zu produzieren.

Mit diesem Hintergedanken wurde das neue Konzept der Kernreaktoren entwickelt. Diese sogenannten Schnellreaktoren haben sogar noch einen friedlichen Nebeneffekt. Sie benötigen als Brennstoff Uran und Plutonium. Letzteres kommt aus russischen Atomwaffen. Diese müssen sowieso reduziert werden, weil sich die USA und Russland darauf geeinigt haben. Atomare Sprengkörper werden recycelt und daraus Strom gewonnen. Beeindruckend, wie elegant Russland Abrüstung mit Energiegewinnung kombiniert.

Der Schnellreaktor in Belojarsk ist der bislang stärkste seiner Bauart. 789 Megawatt Nettoleistung sind das Ziel, wenn er in rund drei Monaten auf Maximallast arbeitet. Doch diesen Rekord wird der BN-800 bestimmt nicht lange halten. Derzeit sind schon neue Projekte geplant. Weitere Schnellreaktoren sollen nächstes Jahr schon gebaut werden. Unter anderem einer davon ebenfalls in Belojarsk. Der Nachfolger heißt dann BN-1200 und wird laut aktueller Planung mit 1130 Megawatt Nettoleistung 2020 mit dem Stromnetz synchronisiert.

Russland macht mobil für sauberen Atomstrom und Abrüstung der Nuklearwaffen – und das mit hohem Wirkungsgrad. Denn die Konkurrenz zum Schnellreaktor, sogenannte Leichtwasserreaktoren, können üblicherweise nur ein bis zwei Prozent des Brennstoffs verwenden. Baureihen ähnlich dem BN-800 verbrauchen dabei weit mehr als die Hälfte des Materials. Dazu kommt natürlich noch ein Faktor der gar nicht deutlich genug betont werden kann: Abfälle aus Leichtwasserreaktoren können nach einer Wiederaufbereitung in Schnellreaktoren als Brennstoff genutzt werden. Endlager ade.

Sollte Russland mit dieser revolutionären Methode tatsächlich großflächig neue Wege gehen, könnte ja sogar die leise Hoffnung bestehen, dass unsere heimischen Endlager geleert werden. Für unseren Atommüll müsste Russland sicher nichts bezahlen – im Gegenteil. Also ist gleichzeitig ein neues Geschäftsmodell entstanden, wenn Atomabfälle recycelt werden können. Denn der Besitzer des Atommülls ist garantiert froh, diesen loszuwerden und wird dafür auch etwas Geld in die Hand nehmen. Russland generiert damit also Atomstrom ohne Abfall und verdient sogar noch am Recycling.

Dieses Gedankenspiel ist zwar noch nicht Realität, aber gar nicht einmal so abwegig. Schließlich orientiert sich Deutschland immer mehr an alternativen Energiequellen. Da ist es nur noch ein kleiner Schritt, sich vom Altlager zu trennen – vor allem, wenn es sogar eine passende Recyclinganlage gibt. Dazu müsste die neue Technologie aber auch in Massenmedien erscheinen. Bislang halten sich diese in Deutschland aber noch bedeckt. Vielleicht gibt es ja eine kleine Randnotiz, wenn 2015 der BN-800 an das Stromnetz angeschlossen wird und den Russen damit saubere Kernenergie liefert.

Unsere ergänzenden Kommentare zum D-W-N Artikel

1. Die D-W-N sagt: "Ökostrom ist nicht nur Wahlprogramm, sondern hat natürlich auch viele Vorteile. Egal ob Solaranlagen oder Windkraftwerke – Strom kann überall generiert werden und sollte inzwischen auch ökologisch vertretbar sein."

Wir kennen KEINE Vorteile von Ökostrom, regelmäßig berichten die EIKE-News über die Nachteile von Ökostrom und belegen dies mit den technischen und wirtschaftlichen Fakten. Ökologisch vertretbar ist Ökostrom schon gar nicht. Jeder Anrainer eines Windrades, der nicht gerade von den üppigen Bodenverpachtungserträgen für Windradstandorte profitiert, wird es bestätigen – die getöteten Fledermäuse und Greifvögel können es leider nicht mehr. Das "Strom kann überall generiert werden" trifft weder zu, noch wäre es ein Vorteil. Standorte für Windräder sind nur in windreichen Gegenden brauchbar, zum Beispiel Offshore, also keineswegs "überall". Und dies erfordert dann kostspiele Stromleitungen.

2. Die D-W-N sagt: "Fukushima ist dank japanischer Geheimhaltungspolitik relativ harmlos dargestellt worden, auch wenn das Ausmaß sicher extremer und gefährlicher ist, als es die Regierungssprecher kommunizieren".

"relativ harmlos dargestellt worden" darf als ein wenig absurd gelten, wenn man an die deutsche Hysterie nach diesem Unfall denkt. Es ist inzwischen bekannt, dass Fukushima ein Industrieunfall war, dessen nunmehr gut dokumentierten Auswirkungen relativ begrenzt waren. Insbesondere ist durch den Kernkraftwerksunfall keine einzige Person durch Strahlenschäden ums Leben gekommen. Jeder Absturz eines größeren Verkehrsflugzeugs fordert weit mehr direkte Todesopfer als Tschernobyl und Fukushima zusammen (hier, hier, hier, hier, hier, hier, hier, hier). Der Schaden von Fukushima war vorwiegend politischer Art.

3. Die D-W-N sagt bezüglich des russischen Reaktors: "Dazu müsste die neue Technologie aber auch in Massenmedien erscheinen. Bislang halten sich diese in Deutschland aber noch bedeckt."

Wir teilen diese Hoffnung der D-W-N. Sie wird aber wohl eine Illusion bleiben. Deutschland ist fest im Griff einer grün-roten Klique von Ökoideologen, deren oft schon faschistoiden Züge auch mit bestem Willen nicht mehr übersehen werden können. Diese Leute dominieren längst den überwiegenden Teil der deutschen Medien und das öffentlich-rechtliche TV und den Rundfunk. Übertrieben? Die in ihrer Propaganda mit der ehemaligen DDR vergleichbaren Nachrichten in ARD und ZDF bieten ausreichendes Anschauungsmaterial für diese Einschätzung (Beispiel Originalton der ARD-Nachrichten nach Fukushima: "Ein Beben der Stärke 9 hatte den Nordosten des Landes erschüttert und eine Tsunamiwelle ausgelöst. In der Folge kam es zu einem Reaktorunfall im Kernkraftwerk Fukushima. Fast 16.000 Menschen starben. Tausende gelten noch als vermisst." (hier). Wer diese irreführende Formulierung als unbeabsichtigten Lapsus abtut, dem ist nicht mehr zu helfen. Uns sind nämlich bis heute keine sachlichen Berichterstattungen in ARD oder ZDF über Fukushima und Tschernobyl bekannt).

Aktuell muss man dagegen tatenlos zusehen, wie deutsche Wälder, Landschaften und geschützte Flugtiere (Raubvögel, Fledermäuse) mit wirtschaftlich völlig sinnlosen Windturbinen zerstört werden (hier, hier, hier, hier, hier, hier, hier, hier, hier). Man fragt sich, wo der Widerstand mündiger Bürger und unserer großen Medien gegen diese Verbrechen gegen eine noch weitgehend intakte Naturumgebung bleiben. Die Nutzung der Kernenergie als der, gemessen an Todesopfern pro TWh erzeugter elektrischer Energie, bei weitem sichersten und umweltschonendsten Form der elektrischen Energieerzeugung (hier) wird dagegen mit einer Konsequenz tabuisiert und bekämpft, die nur noch mit dem religiösen Eifer der Religionskriege im 17. Jahrhundert vergleichbar ist. Die Haltung der Kirchen zu den Themen "Klimaschutz", "Energiewende" und "Kernkraftwerke" bestätigt es.

Wenn es nach den grünen Ökokriegern geht, kommt als nächstes die Kohleverstromung auf den Index, unterstützt durch vermutlich wieder geduldete, gewalttätige Demonstrationen an der deutsch-polnischen Grenze. Wenn man diese Entwicklung von einem properierenden Industrieland hin zum kompletten Wahnsinn weiter widerstandslos zulässt, wird unser Land endgültig den Weg der Deindustrialisierung beschritten haben.

Einen Lichtblick gibt es inzwischen: die jüngste Landtagswahl in Sachsen hat gezeigt, dass intelligente Bürger (Sachsen als Sieger der PISA Studie!) von den Grünen und von den Braunen (NPD) die Nase voll haben. Wir hoffen, dass das  sächsische Beispiel Schule macht und diese beiden Parteien zukünftig auch in allen anderen Landtagen marginalisiert werden. Es ist höchste Zeit, dass die großen Volksparteien aufwachen und beginnen ihre Reihen gegen Undemokratisches, wie es etwa Schellnhubers "große Transformation" ist, zu schließen. Fortzufahren, verängstigt das Energiewendeuntergangs- und  Naturzerstörungsprogramm der Grünen weiterhin zur eigenen Sache zu machen, ist nicht zielstellend. Die Frage lautet: Welcher maßgebende Politiker findet endlich den Mut die Irrsinnsaktionen "Energiewende" und "Klimaschutz" in die Mülltonne der Geschichte zu treten und wieder technisch-wirtschaftliche Vernunft und echten Naturschutz in unserem Land zu etablieren?

Trotz unserer Kritik an einigen wenigen Punkten des D-W-N Artikels begrüßen wir die Initiative und den Mut der D-W-N Redakteure angesichts der deutschen Hexenjagdstimmung gegen alles, was mit "Atom" oder "Kern" anfängt, diesen Artikel verfasst zu haben.




Einladung zur 8. Klima- und Energiekonferenz (8.IKEK) am 17.10.14 in Frankfurt/Main

Beginn 10:00 Uhr. Schwerpunktthema dieser Konferenz wird diesmal das Fracking sein. Hervorragende international anerkannte Fachleute werden die neuesten Erkenntnisse zu dieser in Deutschland sehr umstrittenen Technologie vorstellen.  Wegen des beschränkten Platzangebotes ist eine frühzeitige Anmeldung empfehlenswert. 

Online-Anmeldung hier 

 

 

 

 

8. Internationale Klima- und Energiekonferenz (IKEK-8)

Steigenberger Hotel Frankfurter Hof, Frankfurt, 17. Oktober 2014 

Programm

10.15 Uhr

Präzises Klima-Timing über die letzten 2500 Jahre

Prof. Dr. Horst Lüdecke

Pressesprecher, Europäisches Institut für Klima und Energie (EIKE)

11.00 Uhr

Grund zur Panik? Klimazyklen der letzten 250 Jahre

Prof. Dr. Carl-Otto Weiss
EIKE Fachbeirat und ehem. Direktor und Professor an der Physikalisch-Technischen Bundesanstalt Braunschweig

12.00 Uhr

Mittagspause – Gemeinsames Mittagessen

13.00 Uhr

Bildungsbedingungen der Kohlenwasserstoffe und Hydraulic Fracturing verlängern ihre Verfügbarkeit oder Warum sich Fracking lohnt

Friedrich-Karl Ewert

Fachbeirat, Europäisches Institut für Klima und Energie (EIKE)

13.45 Uhr

Hydraulic Fracturing in Deutschland – Die Risiken aus geowissenschaftlicher Sicht

Dr. Volker Wrede

Geologischer Dienst NRW

14.30 Uhr

Fracking mit alternativen Chemikalien

Dr. Tore Land
Chief Executive Officer, TouGas Oilfield Solutions GmbH

15.15 Uhr – 15.45 Uhr

Pause

15.45 Uhr

Wie erpressbar ist Deutschland?

Wirtschaftliche und geostrategische Aspekte in der Energieversorgung

Dr. Andrei Illarionov

Ehem. Wirtschaftsberater des russischen Premierministers Putin, Senior Fellow Center for Global Liberty and Prosperity, Cato Institut, Washington

16.45 Uhr

Biotreibstoffe – Die unheilige Allianz zwischen Lebensmittelindustrie und Umweltschützern

Dr. Jacob Nordangård

Department of Thematic Studies – Technology and Social Change,
Linköping Universität, Schweden

17.45 Uhr – 18.15 Uhr

Pause

18.15 Uhr

Energiewende – Das Milliardengrab

Dipl.-Ing. Michael Limburg

Vizepräsident, Europäisches Institut für Klima und Energie (EIKE)

19.15 Uhr

Schlusswort

Wolfgang Müller

Generalsekretär, Europäisches Institut für Klima und Energie (EIKE)

20.00 Uhr

Abendveranstaltung Gemeinsames Abendessen mit Tischrede

Klimaberichterstattung“ – Glauben vs. Wissen. Warum Fakten keine Rolle spielen

Prof. Dr. Hartmut Kliemt

Vize-Präsident Forschung, Legal Studies & Ethics Department,

Frankfurt School of Finance & Management

Alle Vorträge werden bis 19.15 Uhr simultan Deutsch-Englisch und Englisch-Deutsch gedolmetscht.
Die Veranstalter behalten sich jederzeit das Recht auf Änderungen des Programms vor.

Hier Programm deutsch

Here Programme english

Veranstaltungsort

Steigenberger Hotel Frankfurter Hof, Kaiserstraße, 60311 Frankfurt am MainIn der Nähe des Hbf. Frankfurt: 5 Minuten (Taxi) oder 12 Minuten (zu Fuß).
Günstig mit der Bahn zur Konferenz
Die Steigenberger Hotels und Resorts bieten in Kooperation mit der Deutschen Bahn für 99 € spezielle Veranstaltungstickets zur An- und Abreise an.
Buchbar bis 3 Tage vor Reisebeginn
beim DB Service Center unter 01806/ 31 11 53*
mit dem Stichwort: "Steigenberger Hotel".
Montag-Samstag, 07.00-22.00 Uhr.

*0,20 €/Anruf aus dem deutschen Festnetz. Maximal 0,60€/Anruf  aus dem dt. Mobilfunknetz.
Frankfurt ist auch mit dem Fernbus zu erreichen

Tagungsgebühren

Firmenvertreter

Privatpersonen

Konferenz einschließlich Abendveranstaltung

Im Tagungspreis enthalten sind: Mittag- und Abendessen und alle Kaffeepausen sowie Konferenztasche mit Buch und DVD

200 €

100 €

Konferenz

Im Tagungspreis enthalten sind: Mittagessen und alle Kaffeepausen sowie Konferenztasche mit Buch und DVD

160 €

80 €

Teilnahme halbtags

Im Programm aufgeführte Kaffeepausen sind im Tagungspreis enthalten

90 €

45 €

Abendveranstaltung Abendessen ist im Tagungspreis enthalten

70 €

45 €

Für Schüler, Studenten (mit Nachweis) Konferenz: 45 €

Mittagessen und Kaffeepausen sind im Tagungspreis enthalten

Anmeldung

Mit vollem Namen, Anschrift und Institution entweder formlos oder mit dem Formular auf der Website an:
EIKE e.V.
Email: info@eike-klima-energie.eu
Fax: 03641 – 3279 8589

Anmeldungsformular

Aufgrund der begrenzten Plätze entscheiden Eingang von Anmeldung und Beitragszahlung über die Teilnahme an der Veranstaltung. 
Die Konferenz wird ausschließlich aus privaten Mitteln finanziert. EIKE erhält keine öffentlichen Mittel. 
Spenden an das Europäisches Institut für Klima und Energie (EIKE) sind steuerbegünstigt. Personen mit Hauptwohnsitz im Ausland wenden sich bitte an uns für alternative Unterstützungsmöglichkeiten.




Bündnis 90/Die Grünen: Vom Naturschutz zur Naturzerstörung

Hier der Link zum WELT-Artikel. Der Zynismus, mit dem Boris Palmer in der WELT weiteren Installationen von Windradanlagen das Wort redet, lässt jeden, dem der Naturschutz ein ehrliches Anliegen ist, die Nackenhaare sträuben. Insbesondere bei den Älteren unter uns kommen dabei Assoziationen an einen noch schlimmeren deutschen Zynismus auf, als es vor 75 Jahren nicht um die Ausradierung von Landschaften und Flugtieren sondern um die von Mitbürgern und Nachbarnationen ging.

Bild rechts: „Boris Palmer“ von Björn Láczay – Flickr. Lizenziert unter Creative Commons Attribution 2.0 über Wikimedia Commons –

B. Palmer schreibt in der WELT „Es gibt für jede Lösung das passende Problem. Das gilt selbstverständlich auch für erneuerbare Energien. Wasserkraftwerke werden als Fischhäcksler bekämpft. Pumpspeicherkraftwerke sind angeblich Betonmonster in unberührten Landschaften. Fotovoltaik ist wahlweise der finanzielle Ruin des kleinen Mannes, der deutschen Wirtschaft oder der Orts- und Stadtbilder. Biogasanlagen vermaisen die Landschaft, produzieren Verkehr oder stinken zum Himmel. Und wenn die Windkraft nicht gerade als Untergang der Vogelwelt gebrandmarkt wird, dann ist sie zu laut, zu hoch, zu blendend oder eben einfach zu hässlich„. Tatsächlich ist das, was B. Palmer hier ironisch-flapsig kleinredet, die brutale REALITÄT – ausgenommen der finanzielle Ruin des kleinen Mannes durch Photovoltaik, denn viele „kleine Hausbesitzer“ profitieren mit Altverträgen für ihre Solardächer auf Kosten der Allgemeinheit gar nicht schlecht. Palmers Ironie und seine Windrad-Ästhetik stehen in bemerkenswertem Widerspruch zu den lawinenartig ansteigenden Antiwindkraft-Bürgerinitiativen, die den Wertverlust ihrer Häuser oder ausbleibende Tourismuseinnahmen nicht so einfach hinnehmen.

Und weiter B. Palmer: „Ob Atomkraftwerke schön sind, sei dahingestellt. Die Folgen eines Reaktorunfalls wie in Tschernobyl oder Fukushima sind jedenfalls sehr, sehr hässlich. Kohlekraftwerke haben die unschöne Eigenschaft, das Weltklima so zu verändern, dass manches Naturschutzgebiet, aber auch mancher städtische Ballungsraum vor dem Anstieg des Meeresspiegels, Dürre und Flutkatastrophen oder einfach nur verheerenden Stürmen nicht zu retten sein wird. Der Braunkohletagebau in Deutschland produziert auch eher Mondlandschaften als ästhetischen Genuss. Gas erscheint da noch als schönste Option, leider sind die Reserven aber sehr beschränkt, und der Konflikt mit Russland nimmt wegen der deutschen Abhängigkeit von Erdgas auch scheußliche Züge an„.

Woher nimmt B. Palmer seine Gewissheit, Kohlekraftwerke würden das Weltklima verändern und Meeresspiegel ansteigen lassen? Nun kann man im Allgemeinen von standfesten grünen Ideologen nicht verlangen, sich fachlich zu informieren, denn die für Fakten zuständigen Denkregionen werden von Ideologie bekanntlich stillgelegt. Herr B. Palmer könnte aber vielleicht doch einmal zur Kenntnis nehmen, dass die klimawissenschaftliche Fachliteratur bis heute keine Veröffentlichung kennt, in der der Nachweis eines menschgemachten Klimawandels insbesondere durch Kohlekraftwerke aufzufinden ist. „Klimaschädigung“ durch anthropogenes CO2 ist bis zum heutigen Tage eine sachlich unbelegte FIKTION.

Nur Klimamodelle mit ihren bekannten inhärenten Defiziten, die kein neutraler Wissenschaftler als langristige Klima-Prognoseinstrumente ernst nimmt, sind für derartige Fiktionen brauchbar. Um nicht missverstanden zu werden: Klimamodelle sind für Details der Forschung sehr nützlich, siehe dazu auch unsere Serie „das Rätsel der Eiszeiten“. Und noch nebenbei: „Weltklima“ gibt es nicht, es gibt nur Klimazonen von polar bis tropisch, Herr B. Palmer hat dieses elementare Wissen aus Schulzeiten offenbar verdrängt. Der Schutz welcher dieser Klimazonen darf es nun sein? Und ehe folgendes auch noch verdrängt wird: Die vom Braunkohleabbau produzierten „Mondlandschaften“ in aktueller Gestalt wunderschöner Bade-Seen in mitteldeutschen Erholungsgebieten, die aus renaturierten Braunkohlehalden entstanden, sollte Herr Palmer vielleicht bei seinem nächsten Besuch dieser Gegend überprüfen. Wir schlagen auch noch einen Abstecher zum modernsten Braunkohlekraftwerk Europas vor – dem KW Lippendorf bei Leipzig. Dort werden technische Führungen veranstaltet, Herr B. Palmer hat sie nötig.

Und wieder weiter B. Palmer in der WELT: “ Wenn wir nicht Pippi Langstrumpf spielen wollen, bleibt uns die Entscheidung zwischen den Nachteilen der herkömmlichen Energiequellen und der erneuerbaren Energien nicht erspart.

Entscheidung? Es gab niemals einen sachlich begründbaren Entscheidungsanlass! Welche Nachteile hatte denn die deutsche Stromerzeugung vor der Energiewende? Wir sehen keine, niemand kann uns bis heute unter rationalen Kriterien Nachteile nennen, die eine Wende-Entscheidung erfordert hätten. Das Ganze war kühl inszenierte Polit-Hysterie einer Kanzlerin, deren Machterhaltsinstinkte hinlänglich bekannt sind.

Daher sei wiederholt: ES GIBT KEINE VORTEILE DER ENERGIEWENDE, verglichen mit dem fast paradiesischen Zustand unserer Stromversorgung davor! Vielleicht kann uns ja Herr Palmer nähere Auskünfte geben. Das gemäß B. Palmer „geschädigte Weltklima“ kann es jedenfalls nicht sein, denn bis heute ist weltweit kein ansteigendes Extremwettersignal aufzufinden. Dem IPCC, Climate Change 2001, the scientific basis, Chapter 02, 2.7, S. 155 (hier) wird B. Palmer wohl trauen und auch dem Extremwetterbericht des IPCC, der das Ergebnis vom Jahre 2001 in 2013 bestätigt (hier). Um Missverständnisse zu vermeiden: Das IPCC bestätigt nur den Stand der Fachliteratur, die bis heute keine Zunahmen von Extremwetterereignissen kennt. Es spricht allerdings auf der Basis fragwürdiger Klimamodelle von „wahrscheinlichen ZUKÜNFTIGEN“ Zunahmen, ohne diese Wahrscheinlichkeiten nach üblichem wissenschaftlichen Usus zahlenmäßig belegen zu können. Wer diese IPCC Kaffeesatzleserei ernst nimmt, ist selber schuld. Die Natur beschert uns schon ausreichend Klimakatastrophen. Der Mensch stellt sicher viel Unsinn an, vom Vermüllen und Leerfischen der Weltmeere bis zum unzureichenden Schutz der indonesischen Regenwälder. Für irgend einen gefährlichen Klimawandel kann er aber definitiv nicht verantwortlich gemacht werden.

Zur weiteren Information eine kleine Auswahl von sachgerechten EIKE-Artikeln über Windräder (hier, hier, hier, hier, hier, hier, hier, hier,…) und über Kernkraftwerke  (hierhierhier, hier, hier, hier, hier, ….). Der fast unendlichen Anzahl von EIKE-Beiträgen zu diesen Themen wegen bitten wir alle Autoren um Entschuldigung, die aus Platzgründen nichtmitaufgeführt wurden.

Neben einer fiktiven anthropogenen Klimaschädigung ist das zweite fundamentale Missverständnis der Grünen die unabdingbare Schonung fossiler Ressourcen. Diesem Irrtum sind freilich auch schon intelligentere Leute verfallen, und dies wird auch zukünftig immer wieder vorkommen – Dummheit ist zeitlos und leider schmerzfrei. Es hat mit dem britischen Ökonomen Robert Malthus begonnen und reicht bis hin zum Club of Rome und den deutschen Grünen. Alle diese Propheten und Warner lagen mit ihren Prognosen vom Ressourcen-Ende stets um Lichtjahre daneben. Die IPCC-Jünger bevorzugen übrigens an Stelle von Prognose den schickeren, aber sachlich völlig identischen Ausdruck „Projektionen“, wenn die nämlich nicht zutreffen, könne wenigstens das Modell noch richtig sein, so ihre smart-listige Verteidigungsstrategie. Schlüsse aus den Irrtümern wurden von den gescheiterten Wahrsagern leider nie gezogen. Wir ziehen die Schlüsse daher nun selber:

ES GIBT KEINE ENDLICHEN RESSOURCEN, DIE WIR FÜR UNSERE NACHKOMMEN SCHONEN MÜSSEN. Wir gehen mit Ressourcen selbstverständlich sparsam um, weil es die Kosten erfordern – alles andere ist unsinnig. Es gibt nur das „Least Cost“ Prinzip und den NATURSCHUTZ, letzteren haben die Grünen inzwischen vergessen. Da das „Least Cost“ Prinzip Grüne und Gutmenschen vermutlich in kompletter Verwirrung zurücklässt, weil sie oft weder mit Technik, noch mit Naturwissenschaft und schon gar nicht mit Wirtschaft vertraut sind, erlauben wir uns ihnen mit der Geschichte der mittelalterlichen englischen Langbogen aus Eibenholz weiterzuhelfen. Mit dieser Waffe vernichteten die Engländer in der Schlacht von Argincourt am 25.Oktober 1415 ein komplettes französisches Ritterheer. In England wurde daraufhin das unbefugte Abholzen von Eibenholz mit dem Tode bestraft, so wichtig war den Engländern ihre Bogenwaffe. Aber bereits bevor die extrem langsam wachsenden Eibenholz-Sprösslinge zu brauchbaren Bäumen für neues Bogenholz wurden, waren Feuerwaffen an Stelle der Bogen getreten. Die für die Nachkommen zu „bewahrende Ressource Eibenholz“ war obsolet geworden.

Da B. Palmer gemäß seinem WELT-Kommentar Pipi Langstrupf gelesen und verstanden hat, daher jetzt noch einfacher auf Pipi-Langstrumpf-Niveau: Die Steinzeit ging nicht zu Ende, weil es keine Steine mehr gab sondern weil die Bronze erfunden wurde. Erdöl, Kohle und Gas werden nicht ausgehen, weil sie zu knapp werden oder gar ein fiktives Weltklima schädigen. Sie werden irgendwann einmal zu teuer und deswegen dann durch etwas Neues ersetzt werden müssen. Dieses „Neues“ werden vermutlich inhärent sichere Brutreaktoren mit verschwindendem Abfall sein (Pilotanlagen gibt es schon). Bis jetzt ist zumindest nichts Besseres bekannt, um eine einmal 10 Milliarden zählende Menschheit auf brauchbarem zivilisatorischem Niveau mit ausreichend elektrischer Energie zu versorgen. Uran im Meer gibt es für viele Millionen Jahre, der genaue rechnerische Nachweis dieser erstaunlich hohen Brennstoffreichweite findet sich im Buch des Autors (hier).

Wind und Sonne sind für die gestellte Aufgabe leider völlig ungeeignet! Sie sind wegen der Fluktion der Energielieferung und der extrem kleinen Leistungsdichte von Wind und Sonne wegen viel zu teuer – hier haben wir also wieder das „Least Cost“ Prinzip. Sie verbrauchen beim Anlagenbau pro gelieferter elektrischer Energie zu viele kostspielige Rohstoffe und nehmen Unmengen wertvollen Platzes in dichtbesiedelten Ländern weg (letzteres gilt vorwiegend für Windturbinen). Oder technisch ausgedrückt: Die Nennleistung von Windrädern [kW] ist ohne Aussagewert und allenfalls zur Propaganda von Herstellern und grüner Politik zu gebrauchen. Entscheidend ist die von diesen Anlagen gelieferte elektrische ENERGIE [kWh], die naturgemäß infolge unsteten Windaufkommens und des v^3-Gesetzes dieser Anlagen nur einen lächerlichen Bruchteil (bundesweit im Schnitt etwa 17%) ihrer Nennleistung multipliziert mit der Betriebszeit ausmacht. Dieser Nachteil ist naturgesetzlich und infolgedessen durch keine Ingenieurkunst zu beheben. Fossile Kraftwerke und Kernkraftwerke liefern dagegen stetig, von Reparaturunterbrechungen abgesehen sind es 100% ihrer Nennleistung. Man braucht sich aus diesen Gründen über explodierende Stromkosten infolge der stetig ansteigenden Installationen von „Erneuerbaren“ nicht zu wundern. Sie werden weiter explodieren bis die Energiewende-Karre irgendwann gegen die Wand gefahren ist.

Windräder schädigen neben ihrem desaströsen Kosten/Nutzenfaktor in erheblichem Umfang die Natur, weil sie Landschaften entstellen, Hekatomben von Fledermäusen und Vögeln vernichten und die in der Nähe lebenden Menschen gesundheitlich durch Infraschall und Schattenwurf schädigen (s. hierzu die weiter oben angegebenen Links zu Windrädern). Die von B. Palmer genannten Abstände sind viel zu gering und dürfen zutreffend als Witz bezeichnet werden. Seine Wohnung befindet sich ganz offensichtlich nicht in Nähe eines Windrades. Mit realistischen Abständen wäre im dichtbesiedelten Süden Deutschlands so gut wie jedes geplante Windrad unzulässig. Hier müssten die Gerichte helfend eingreifen, die Autoren sind bei den politikhörigen Juristen aber pessimistisch.

Außerdem sind insbesondere in Süddeutschland mit seiner extrem geringen Wind-Leistungsdichte Windkraftanlagen besonders extremer Unfug, falls „besonders extrem“ sprachlich erlaubt sei. Wenn Herr B. Palmer Windräder dennoch schön findet, dann möge er nach Mecklenburg-Vorpommern ziehen und sich dort an ihrer Landschaftverschönerung erfreuen. Man kann sich ausmalen, welchen „Hals“ die in einem weiteren WELT-Artikel mit den Titel „Ganze Landstriche durch Windkraft unbewohnbar“ (hier) angesprochenen Anrainer beim Lesen des zynischen WELT-Kommentars von B. Palmer wohl bekommen haben.

Schlussendlich zur Überschrift unseres Beitrags. Eine Partei, die Windräder propagiert, dabei die technisch-wirtschaftlichen Nachteile sowie die Naturschädigung dieser Anlagen aus ideologischen Gründen ausblendet und lieber über die Energiezukunft unserer Nachkommen und eine nur durch Windräder vermeidbare Klimakatastrophe faselt, ist nicht nur verantwortungslos. Eine solche Partei wird inzwischen von schärfer sehenden Mitbürgern als gefährliche religiöse Sekte eingestuft, die für einen fiktiven Klimaschutz jeden Naturschutz und eine ehemals zuverlässige, kostengünstige Stromversorgung über Bord wirft. Es gibt inzwischen sogar Zeitgenossen, die Vergleiche zwischen der grünen Öko-Ideologie und  faschistischen Methoden ziehen. Wir heißen solche Vergleiche nicht gut, wenn wir auch ihre Gründe nachvollziehen können. Unabhängig von solchen Betrachtungen steht freilich fest, dass sich das Bündnis90/Die Grünen von einer ehemaligen NATURSCHUTZPARTEI (lange ist’s her) leider zu einer Partei der NATURZERSTÖRUNG gewandelt hat.

Klimaschutz durch Energiewende ist nichts als eine FIKTION. Die derzeitige Naturzerstörung sowie die Schädigung unserer energieintensiven Wirtschaft ist dagegen brutale REALITÄT. Zur Durchsetzung dieser Fiktion hat sich allerdings nicht nur das Bündnis90/Die Grünen sondern in katastrophaler Dummheit auch die derzeitige Regierungskoalition entschlossen. Welche unheiligen Kräfte stecken wohl dahinter? Was oder wer wird dem deutschen Energiewende-Irrsinn endlich ein Ende setzen und uns vor diesem erneuten Albtraum deutscher Geschichte befreien?

  




Das Rätsel der Eiszeiten, Teil 10, Global Circulation Models IV

scienceofdoom

Im Teil neun haben wir über eine GCM-Simulation der letzten 120.000 Jahre gesprochen, ein ziemlich ambitioniertes Projekt, das einige gemischte Ergebnisse zeitigte. Die größte Herausforderung ist einfach, ein ganzes GCM über eine so lange Zeit laufen zu lassen. Um das zu tun, hatte das Modell eine reduzierte räumliche Auflösung. Außerdem wurden alle Antriebe „beschleunigt“, so dass die Modellzeit tatsächlich über 1200 Jahre lief. Unter den Antrieben waren Größe, Ort und Höhe des Eisschildes ebenso wie Treibhausgase in der Atmosphäre. In der Realität handelt es sich dabei um Rückkopplungen, aber GCMs sind derzeit nicht in der Lage, diese zu erzeugen.

In diesem Beitrag betrachten wir eines der jüngsten GCMs, das jedoch nur über einen „Schnappschuss“-Zeitraum von 700 Jahren läuft. Das erlaubt die volle räumliche Auflösung, hat aber den Nachteil, dass ein vollständiger Eiszeit-Zyklus nicht einmal annähernd abgedeckt werden kann. Ziel dieses Artikels ist es, das Modell mit den orbitalen Bedingungen von vor 116.000 Jahren laufen zu lassen um zu sehen, ob sich eine permanente Schneedecke an den richtigen Stellen bildet. Dies ist ein Projekt ähnlich denen, die wir in Teil VII – GCM I (frühe GCMs) und Teil VIII – GCM II (GCMs vor einem Jahrzehnt) besprochen haben.

Die Studie kam zu einigen sehr interessanten Ergebnissen hinsichtlich der Rückkopplungen, die wir noch betrachten werden.

Jochum et al (2012)

Das Problem:

Modelle mittlerer Komplexität sowie flussbereinigte GCMs waren typischerweise in der Lage, eine Verbindung zwischen orbitalem Antrieb, Temperatur und Schneemenge zu simulieren. Bislang jedoch haben es vollständig gekoppelte, nicht flusskorrigierte, auf primitiven Gleichungen basierende Klimamodelle nicht vermocht, die Auslösung einer Eiszeit zu reproduzieren, ebenso wie die Abkühlung und Zunahme von Schnee- und Eisbedeckung, die von den warmen Zwischeneiszeiten zu den kalten eiszeitlichen Perioden überleiten.

Milankovitch (1941) postulierte, dass der Antreiber für diese Abkühlung die orbital bedingte Reduktion der Einstrahlung auf der sommerlichen Nordhalbkugel sei und die daraus folgende Zunahme permanenter Schneebedeckung. Die verstärkte permanente Schneebedeckung und seine positive Albedo-Rückkopplung sind natürlich nur Vorboten des Wachstums von Eisschilden. Das Scheitern der GCMs, die Auslösung der Eiszeiten nachzuvollziehen, zeigt ein Scheitern entweder der GCMs oder der Milankovitch-Hypothese.

Falls die Hypothese die Schuldige wäre, würde man sich natürlich fragen, ob das Klima in den GCMs überhaupt angemessen abgebildet werden kann. Wie auch immer, es scheint, als ob die Reproduktion der beobachteten Änderungen zwischen Eiszeit und Zwischeneiszeit hinsichtlich der Eismenge und der Temperatur einen guten Test darstellt, um die Genauigkeit einiger Schlüssel-Rückkopplungen zu evaluieren, die für Klimaprojektionen relevant sind.

Die potentiellen Gründe des Unvermögens der GCMs, die Auslösung der Eiszeit zu reproduzieren, sind vielfältig und reichen von der Numerik der GCMs bis zu vernachlässigten Rückkopplungen von Festlands-, atmosphärischen oder ozeanischen Prozessen auf der Theorie-Seite. Es ist allerdings ermutigend, dass es bei einigen GCMs nur geringer Modifikationen bedarf, damit diese eine Zunahme permanenter Schneebedeckung erzeugen (z. B. Dong und Valdes 1995). Nichtsdestotrotz muss es das Ziel der GCM-Gemeinde sein, das Auftreten zunehmender permanenter Schneebedeckung mit einem GCM zu erzeugen, das an das heutige Klima angepasst ist und ausschließlich Gegenstand von Änderungen des orbitalen Antriebs ist.

Ihr Modell:

Die numerischen Experimente wurden durchgeführt unter Verwendung der jüngsten Version des National Center for Atmospheric Research (NCAR) CCSM4, welches vollständig gekoppelte Atmosphären-, Ozean-, Festlands- und Meereismodelle enthält. CCSM4 ist ein hypermodernes Klimamodell, das in vieler Hinsicht Verbesserungen seines Vorgängers CCSM3 enthält. In unserem Zusammenhang hier besteht die wichtigste Verbesserung in der höheren atmosphärischen Auflösung, weil diese uns gestattet, die Höhe und die Schneebedeckung des Festlandes genauer zu repräsentieren.

Siehe Anmerkung 1 für einige weitere Modell-Einzelheiten aus der Studie. Und lange Zeit haben wir einige Grundlagen von CCSM3 betrachtet – Models, On – and Off – the Catwalk – Part Two. Grenzen des Modells – kein die Eisschilde betreffendes Modul (anders als das FAMOUS-Modell in Teil neun):

Das CCSM enthält immer noch nicht ein Eisschilde-Modul. Darum verwenden wir die Akkumulation von Schnee als das Hauptargument des Auslöse-Szenarios. Die Akkumulation von Schnee auf dem Festland wird berechnet aus der Summe von Schneefall, gefrierendem Regen, Schneeschmelze und dem Entfernen exzessiven Schnees. Exzessiver Schnee wird definiert als eine Schneemenge, die über 1 Meter Wasseräquivalent hinausgeht, also etwa 3 bis 5 m Schnee.

Das Entfernen des exzessiven Schnees ist eine sehr grobe Parametrisierung des Kalbens von Eisbergen, und zusammen mit dem Schmelzwasser wird exzessiver Schnee an das Netzwerk der Flüsse geliefert und eventuell den küstennahen Oberflächen-Gewässern der angrenzenden Ozean-Gitterpunkte zugefügt. Folglich werden die lokale Größe des Eisschildes und das globale Frischwasser-Volumen konserviert.

Probleme des Modells:

Eine weitere Bias, die für diese Diskussion relevant ist, ist die Temperatur auf dem Festland in hohen nördlichen Breiten. Wie im nächsten Abschnitt beschrieben wird, ist eine Menge der CCSM4-Reaktion auf orbitale Antriebe der reduzierten Schneeschmelze im Sommer geschuldet. Eine Kalt-Bias bei der Kontrolle wird es wahrscheinlicher machen, die Sommertemperatur unter dem Gefrierpunkt zu halten, so dass die Schnee-Akkumulation des Modells überschätzt wird. Im jährlichen Mittel sind Nordsibirien und Nordkanada um etwa 1°C bis 2°C zu kalt, Baffin-Insel sogar um etwa 5°C zu kalt (Gent et al. 2011). Die sibirischen Bias sind nicht so dramatisch, aber es ist ziemlich unglücklich, dass die Baffin-Insel, das Zentrum des Laurentide-Eisschildes, eine der stärksten Temperaturbias im CCSM4 aufweist. Ein genauerer Blick auf die Temperaturbias in Nordamerika zeigt jedoch, dass die Kalt-Bias dominiert wird von Bias im Herbst und Winter, während die Baffin-Insel im Frühjahr und Sommer um etwa 3°C zu kalt ist und der kanadische Archipel sogar eine geringe Warm-Bias aufweist.

Ihr Plan:

Die nachfolgenden Abschnitte werden zwei unterschiedliche Simulationen analysieren und vergleichen: einen Kontroll-Lauf 1850 (CONT), in welchem die orbitalen Parameter der Erde auf die Werte im Jahre 1900 gesetzt werden und die atmosphärische Zusammensetzung bei den Werten des Jahres 1850; und eine Simulation identisch mit CONT mit Ausnahme der orbitalen Parameter, die auf die Werte von vor 115.000 Jahren (OP115) gesetzt werden. Die atmosphärische CO2-Konzentration in beiden Experimenten beträgt 285 ppm.

Die Modelle wurden über 700 (simulierte) Jahre laufen gelassen. Dann folgen einige interessante Bemerkungen, warum sie keine Simulation über 120.000 Jahre durchführen können: Dieser experimentelle Aufbau ist natürlich nicht optimal. Idealerweise würde man gerne das Modell seit der letzten Zwischeneiszeit vor etwa 126.000 Jahren integrieren, für 10.000 Jahre in die Eiszeit mit sich langsam änderndem orbitalen Antrieb. Allerdings ist das nicht machbar; eine Integration über 100 Jahre CCSM auf den NCAR-Supercomputern würde etwa einen Monat dauern und einen substantiellen Teil der Computerbelegung der Klimagruppe beanspruchen.

Ergebnisse

Zunächst erzeugen sie in der Tat eine permanente Schneebedeckung in hohen Breiten. Die Studie bietet eine sehr gute Erklärung, wie die unterschiedlichen Klimafaktoren in hohen Breiten zusammenspielen, wo wir nach dem Einsetzen permanenter Schneebedeckung suchen. Es hilft uns zu verstehen, warum grundlegende Energiebilanzmodelle und selbst Modelläufe zwischenzeitlicher Komplexität (EMICs) keine zuverlässigen brauchbaren Antworten liefern können. Schauen wir mal:

 

Bildunterschrift: Abb. 2: Differenz des zonal gemittelten Flusses an der Obergrenze der Atmosphäre (OP115 vs. CONT). Schwarz: Einstrahlung. Blau: Einstrahlung mal Albedo aus CONT. Rot: Gesamt-Kurzwellenstrahlung bei klarem Himmel. Grün: Gesamt-Kurzwellenstrahlung (Jochum et al 2012)

Die Graphik vergleicht die jährliche Sonneneinstrahlung pro Breitenkreis von 115.000 Jahren und heute. Man beachte den zentralen Punkt: Die einfallende Sonnenstrahlung – also die schwarze Kurve – war an den Tropen höher, während die jährliche Einstrahlung in hohen Breiten niedriger war.

Konzentrieren wollen wir uns auf die Nordhemisphäre nördlich von 60°N, welche die Gebiete großräumiger Abkühlung und zunehmender Schneebedeckung überdeckt. Verglichen mit CONT ist die jährliche mittlere Einstrahlung über dieser Arktischen Domäne in OP115 geringer bei 4,3 W/m² (schwarze Linie), aber die hohe Albedo reduziert diesen Unterschied an der Obergrenze der Atmosphäre auf nur 1,9 W/m² (blaue Linie, siehe auch Tabelle 1).

In blau wird das Ergebnis gezeigt, wenn wir die bestehende Albedo berücksichtigen – das heißt, weil eine Menge Solarstrahlung schon in hohen Breiten reflektiert wird, werden sämtliche Änderungen der einfallenden Strahlung durch den Albedo-Effekt reduziert (bevor sich die Albedo selbst ändert). In grün wird das Ergebnis gezeigt, wenn wir die veränderte Albedo der größeren Schneebedeckung von 115.000 Jahren berücksichtigen.

Im CCSM4 führt diese größere Albedo im OP115 zu einer Kurzwellenstrahlung an der Obergrenze der Atmosphäre bei klarem Himmel, die um 8,6 W/m² geringer ist als im CONT – das ist 4 mal das ursprüngliche Signal. Die Schnee/Eis-Albedo-Rückkopplung wird dann berechnet mit 6,7 W/m² (8,6 bis 1,9 W/m²). Interessanterweise ist die Bedeckung mit tiefen Wolken im OP115 kleiner als im CONT, was die Differenz der Gesamt-Kurzwellenstrahlung an der Obergrenze der Atmosphäre um 3,1 bis 5,5 W/m² reduziert (grüne Linie). Zusammengefasst: ein Initial-Antrieb von 1,9 W/m² nördlich von 60°N wird um 6,7 W/m² verstärkt durch die Schnee/eis-Albedo-Rückkopplung und reduziert durch eine negative Wolken-Rückkopplung um 3,1 W/m².

Die zusammenfassende Tabelle:

 

Wegen der größeren meridionalen Temperatur- (Abbildung 1a) und Feuchtigkeits-Gradienten (Abbildung 4a) nimmt der atmosphärische Quer-Wärmefluss in die Arktis zu von 2,88 auf 3,0 PW. Dieser Unterschied von 0,12 PW bedeutet für die Arktis ein Mittel von 3,1 W/m²; das ist eine negative Rückkopplung, die genauso groß ist wie die Wolken-Rückkopplung und die 6 mal größer ist als die Zunahme des meridionalen Wärmetransportes im Ozean bei 60°N (nächster Abschnitt). Folglich kompensieren sich die negative Wolken-Rückkopplung und der meridionale Wärmetransport für die positive Rückkopplung fast vollständig. Übrig bleibt eine Gesamt-Rückkopplung von nur 0,5 W/m². Eine Möglichkeit, diese Rückkopplungen zu betrachten ist, dass das Klimasystem ziemlich stabil ist, wobei Wolken und meridionale Transporte den Einfluss von Albedo-Änderungen begrenzen. Dies könnte erklären, warum einige numerische Modelle Schwierigkeiten haben, die beobachtete Abkühlung in Verbindung mit dem orbitalen Antrieb zu erzeugen.

Ich glaube es ist wichtig zu beachten, dass sie ihre Ergebnisse durch einen unterschiedlichen Mechanismus zu einer der Studien bekommen, die wir in Teil 9 begutachtet haben:

Folglich ist die Zunahme von Schneefall im Gegensatz zu den Ergebnissen von Vetterotti und Peltier (2003) vernachlässigbar im Vergleich zur reduzierten Schneeschmelze.

Ihr Ergebnis:

Die globale Gesamt-Differenz hinsichtlich Schmelzen und Schneefall zwischen OP115 und CONT führt zu einer impliziten Schnee-Akkumulation, die äquivalent ist mit einem Rückgang des Meeresspiegels um 20 m innerhalb von 10.000 Jahren, einiges davon der Kaltverzerrung der Baffin-Insel geschuldet. Das ist weniger als die 50-m-Schätzung, die auf Rekonstruktionen des Meeresspiegels zwischen heute und vor 115.000 Jahren basiert, aber unabhängig davon zeigt sich, dass das Modell die richtige Größenordnung wiedergibt.

Atlantic Meridional Overturning Current (AMOC)

Diese Strömung hat enormen Einfluss auf die höheren Breiten im Atlantik, weil sie wärmeres Wasser aus den Tropen transportiert.

Der meridionale Wärmetransport der AMOC ist eine wesentliche Wärmequelle für den nördlichen Nordatlantik, aber man glaubt auch, dass er für kleine Störungen anfällig ist. Daraus ergibt sich die Möglichkeit, dass die AMOC den orbitalen Antrieb verstärkt oder sogar, dass diese Verstärkung für Vereisungen und Terminierungen der Nordhemisphäre notwendig ist. Tatsächlich zeigt JPML, dass eine Änderung des orbitalen Antriebs in mindestens einem GCM zu einer Abschwächung der MOC führen kann und zu einer daraus folgenden großräumigen Abkühlung der Nordhemisphäre. Hier beleuchten wir den Zusammenhang zwischen orbitalem Antrieb und Stärke der AMOC mit dem CCSM4, welches verbesserte Physik und eine höhere räumliche Auflösung als JPML aufweist.

Im Wesentlichen fanden sie eine begrenzte Änderung der AMOC in dieser Studie. Interessierte Leser können die Studie gerne einsehen. Dies ist ein wichtiges Ergebnis, weil frühere Studien mit geringerer Auflösung oder mit GCMs, die nicht vollständig gekoppelt sind, oftmals eine starke Rolle der MOC bei sich verstärkenden Änderungen gefunden hatten.

 Schlussfolgerung

Dies ist eine interessante Studie. Sie ist wichtig, weil sie ein hypermodernes GCM verwendet, um permanente Schneebedeckung von 115.000 Jahren zu simulieren, einfach mit vorindustriellen Treibhausgas-Konzentrationen und Einstrahlungsbedingungen vor 115.000 Jahren. Das Modell weist eine Kalt-Bias auf (und eine verstärkte Feuchte-Bias) in hohen Breiten der Nordhemisphäre. Dadurch erhebt sich die Frage nach der Signifikanz des Ergebnisses (für meinen skeptischen Verstand):

• Kann ein hoch auflösendes AO-GCM ohne Kalt-Bias in hohen Breiten eine permanente Schneebedeckung nur mit vorindustriellen Werten der Treibhausgas-Konzentration und orbitalem Antrieb vor 115.000 Jahren erzeugen?

• Kann dieses Modell mit dieser Kalt-Bias in hohen Breiten das Ende einer Vereisung reproduzieren?

Das heißt nicht, dass die Studie nicht sehr wertvoll ist, und die Autoren haben sicher nicht versucht, die Schwächen des Modells zu übergehen – tatsächlich haben sie diese sogar noch unterstrichen. Was die Studie ebenfalls zeigt – und was wir auch in früheren Artikeln gesehen haben – ist: wenn wir uns durch Generationen und Komplexitäten der Modelle wühlen, können wir Erfolg haben; dann scheitert ein besseres Modell, dann führt ein noch besseres Modell wieder zum Erfolg. Auch haben wir angemerkt, während das (ebenfalls kalt-bias) Modell von Vetterotti und Peltier (2003) eine permanente Schneebedeckung durch verstärkte Feuchtetransporte in  kritische Gebiete gefunden hatte (was sie als einen „Rückkopplungs-Mechanismus zwischen Atmosphäre und Cryosphäre“ bezeichnen), hat eine jüngere Studie mit einem verbesserten Modell keine Zunahme der Feuchtetransporte gefunden.

Die Details, wie unterschiedliche Modelle zum gleichen Ergebnis kommen, sind wichtig. Ich glaube nicht, dass irgendein Klimawissenschaftler dies anders sieht, aber es bedeutet, dass viele Studien mit „Erfolg“ nicht „Erfolg für alle“ bedeuten und nicht für einen „allgemeinen Erfolg“ stehen können. Die Details müssen untersucht werden.

Diese Studie aus dem Jahr 2012 zeigt die Bedeutung aller (derzeit bekannten) Rückkopplungen – eine Zunahme der Albedo durch verstärke Schneedeckenbildung wird fast vollständig durch negative Rückkopplungen  ausgebremst. Und schließlich zeigt die Studie auch, dass ihr Modelllauf über 700 Jahre  nicht die signifikante Abkühlung der Südpolarregion erzeugen kann:

Noch wichtiger ist jedoch das Fehlen jedweder Reaktion im Polargebiet der Südhalbkugel, die erforderlich sind, um Abbildung 1 zu erklären. Während Petit et al. 1999 zeigen, dass sich die Antarktis zu Beginn der letzten Eiszeit um 10°C abgekühlt hat, zeigt eine jüngere hoch aufgelöste Analyse von Jouzel et al. 2007, dass es nur wenig kälter war als heute (weniger als 3°C beim European Project for Ice Coring in Antarctica (EPICA), Stelle Dome C auf dem Antarktischen Plateau). Natürlich gibt es substantielle Unsicherheiten bei der Rekonstruktion der antarktischen Temperaturen.

Ich habe keinerlei Kommentare zu diesem speziellen Punkt, weil mir das Verständnis der jüngsten Arbeiten hinsichtlich Datierung und Korrelation mit EPICA fehlen (Eisbohrkerne aus Grönland und der Antarktis).

 

References

True to Milankovitch: Glacial Inception in the New Community Climate System Model, Jochum, Jahn, Peacock, Bailey, Fasullo, Kay, Levis & Otto-Bliesner, Journal of Climate (2012) – free paper

Notes

Anmerkung 1 – mehr zum Modell:

Die ozeanische Komponente hat eine horizontale Auflösung, die bei den Längengraden konstant 1,125° beträgt und hinsichtlich der Breite von 0,27° am Äquator bis etwa 0,7° in hohen Breiten reicht. In der Vertikalen gibt es 60 Schichten; die höchste Schicht hat eine Dicke von 10 m und die unterste Schicht eine solche von 250 m. Die atmosphärische Komponente verwendet eine horizontale Auflösung von 0,9° X 1,25° mit 26 Schichten in der Vertikalen. Das Meereis-Modell hat das gleiche horizontale Gitternetz wie das Ozean-Modell, und das Festlands-Modell hat das gleiche horizontale Gitternetz wie das atmosphärische Modell.

Link: http://scienceofdoom.com/2014/01/03/ghosts-of-climates-past-part-ten-gcm-iv/

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/

Teil IX: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-9-global-circulation-models-iii/




Die Qualität der FAZ-Berichterstattung im freien Fall

Gewählt sei diesmal die Form des Leserbriefs. Mit Leserbriefen an die FAZ macht man so seine Erfahrungen, meistens werden sie nicht veröffentlicht. In diesem Fall habe ich mich entschlossen etwas anders vorzugehen, damit die Kritik in meinem Leserbrief nicht völlig beiseite geschoben werden kann (EIKE hat eine Besucherzahl, die auch im Vergleich mit der der FAZ nicht verschwindend ist). Der Leserbrief ist abgeschickt worden und wird hier nachfolgend unverändert wiedergegeben. Einziger Unterschied ist eine zusätzliche kurze Literaturübersicht zum Inhalt. Damit wird der FAZ sozusagen die letzte Chance gegeben zu zeigen, dass noch rudimentäre Überreste eines kritischen Journalismus in ihr stecken – falls sie nämlich die Kritik abdruckt. Man darf vorsichtig pessimistisch sein.

Nun mein Leserbrief auf den Artikel von Andreas Mihm, der kaum ein Detail des üblichen Alarmisten-Sermons auslässt. Es ist unnötig, hierauf im Detail einzugehen, alles ist zumindest EIKE-Lesern hinreichend bekannt. Da Leserbriefe an Zeitungen nicht zu lang sein dürfen, konnten von mir natürlich nur die wichtigsten Punkte angesprochen werden:

Leserbrief „Klima-ALarm“, FAZ vom 29.Juli 2014

Heute fand ich ein Werbeexemplar der FAZ im Briefkasten, darin enthalten der Beitrag KLIMA-ALARM von Andreas Mihm. Er schreibt: „Der vergangene Monat war der wärmste Juni seit Beginn der Temperaturaufzeichnungen“. Das ist grob falsch. Die längste Thermometerreihe weltweit ist die „Mittelenglische Reihe“, die bis 1659 zurückreicht. Sie wird im Internet vom MET Office Center (GB) in Form von Monatsmittelwerten zur Verfügung gestellt, der Juni-Wert von 2014 ist 15,1 °C. Davor liegen sage und schreibe 83 höhere Juniwerte, das Jahr 1846 mit 18,2 °C führt diese Vorgänger an. Die Aussage „es gibt einen gefährlichen Temperaturanstieg“ ist nicht mit den jahrzehntelangen meteorologischen Messdaten vereinbar. Aber auch die weiteren Ausführungen von Mihm sind sachlich falsch. Die globale Mitteltemperatur steigt keineswegs seit Jahren in kleinen Schritten, sondern stagniert seit 1998. Extremwetter haben nicht zugenommen, das bestätigt sogar das wohl unverdächtige IPCC in Kap. 2.7 seines Sachstandsberichts von 2001 sowie in seinem speziellen Extremwetterbericht (SREX) von 2012.

Dass Versicherungen größer werdende  Schäden auflisten, verantworten nicht die Natur sondern steigende Sachwerte und die Tatsache, dass bei schwindenden Bauplätzen zunehmend in gefährdete Gebiete (Überschwemmungen, Erdrutsche, Lawinen) ausgewichen wird. All diese Fakten sind den von Mihm angeklagten „schlechten“ Vorbildländern Australien, Kanada und Japan wohlbekannt. Diese sind freilich keine „Klimasünder“ sondern Realisten. Sie nehmen zur Kenntnis, dass bis heute eine begutachtete wissenschaftliche Fachveröffentlichung, die einen anthropogenen Einfluss auf Klimawerte stringent nachweisen kann, immer noch auf sich warten lässt. Dass all dies an Herrn Mihm spurlos vorbeiging, ist wohl nur mit grünideologischem Tunnelblick und komplett verweigerter Recherche zu erklären. Ein ehemaliges Qualitätsperiodikum wie die FAZ sei daran erinnert, dass grobe sachliche Falschinformation nicht geeignet ist, die dringend benötigten neuen Leser zu gewinnen.

Literaturnachweise

1) Central England Temperatures (CET), hierhier

2) IPCC Sachstandsbericht 2001, hier

3) IPCC Extremwetterbericht 2012, hier

Für Leser, die sich näher informieren, mit den Daten herumspielen oder Grafiken erstellen möchten, habe ich den txt-File der CET-Reihe in EXCEL umgewandelt und hier beigefügt. Viel Vergnügen!

Anmerkung der EIKE-Redaktion: Der Artikel ist unter einer geänderten Überschrift jetzt auch im Internet verfügbar (hier). Man beachte die Leserkommentare! Ein wirkungsvolleres Selbstmordprogramm als das der FAZ ist schwer vorstellbar.

Admin

Related Files




Klimaaktivist Toralf Staud und Misereor – Eine unheimliche Liaison

Dass Bischöfliche Hilfswerk MISEREOR e. V. (lat. misereor „Ich erbarme mich“) ist eines der größten Hilfswerke der römisch-katholischen Kirche in Deutschland und hat seinen Sitz in Aachen. Nach dem Prinzip der Hilfe zur Selbsthilfe unterstützte Misereor seit seiner Gründung im Jahr 1958 ca. 100.000 Projekte in Asien, Afrika, Ozeanien und Lateinamerika. Das selbsterklärte Ziel Misereors ist es, den Ärmsten der Armen zu helfen und gemeinsam mit einheimischen Partnern Menschen jedes Glaubens, jeder Kultur und jeder Hautfarbe zu unterstützen. Dies sind lobenswerte Anstrengungen, die es zu unterstützen gilt.

Weniger lobenswert ist hingegen eine spezielle Praxis der Spendenmotivierung, die Misereor bereits seit etlichen Jahren betreibt. Offenbar hatte man sich gedacht, dass man die Einnahmen deutlich erhöhen könnte, wenn man den Leuten einredet, sie hätten am Elend der Welt eine Mitschuld. Das verlotterte CO2-lastige Leben der Bürger der Ersten Welt würde auf dem Wege der Klimakatastrophe zu mehr Dürren, Stürmen, Überschwemmungen und anderem Wetterunbill im armen Afrika und Asien führen. Durch Presseartikel, Aktionen und Interviews wird den potentiellen Spendern ein schlechtes Gewissen gemacht. Der Effekt bleibt nicht aus: Durch Spenden an Misereor können die Sünder ihr Gewissen reinwaschen, eine Art moderner Ablasshandel. Einzig störender Faktor in diesem Geschäft sind diejenigen Wissenschaftler, die sich weigern, in das Alarmgeschrei der Klimakatastrophe einzustimmen. Unbequeme wissenschaftliche Fakten oder gar eine ergebnisoffene Fachdiskussion sind bei Misereor ausdrücklich unerwünscht.

Es ist schon erschreckend mitanzusehen, dass in der Vergangenheit mehr als eine halbe Millionen Euro an Spendengeldern von Misereor an klimaalarmistische Institute wie das Potsdam Institut für Klimafolgenforschung (PIK) weitergegeben wurden, mit dem Ziel, die Klimakatastrophe in der Öffentlichkeit noch präsenter zu machen und in der Folge die Spendenwilligkeit zu stimulieren (siehe unseren Blogartikel “Hilfswerk Misereor überweist PIK-Klimainstitut € 520,000 an Spendengeldern für fragwürdige Klimastudie“). Und wie kann es sein, dass sich Misereor in fragwürdigen Nebenthemen verliert, die so gar nichts mit dem ursprünglichen Gründergedanken der Organisation zu tun haben? Siehe unseren Beitrag “Anstatt gegen den Welthunger kämpfen Misereor und Brot für die Welt nun für die Verschärfung des Emissionshandels“.

Zur klimaalarmistischen Werbemasche von Misereor passt auch die Zusammenarbeit mit dem Journalisten Toralf Staud, der gelegentlich auch für das Greenpeace Magazin schreibt. Staud hatte sich seinerzeit heftig gegen unser Buch “Die kalte Sonne” publizistisch gewehrt und verfasste in der Zeit und im Klimaretter-Blog eine regelrechte Artikelkampagne. Er wollte nicht wahrhaben, dass seine liebgewonnene Klimakatastrophe ausfällt und natürliche Faktoren eine wichtige Rolle im Klimageschehen spielen könnten. Vielleicht fehlte ihm einfach der naturwissenschaftliche Hintergrund, den er in seinem Journalistik- und Philosophie-Studium natürlich nicht erlangen konnte.

Im Mai 2014 erschien nun das Jahresheft von Misereor mit dem Titel “Mut zu Taten”, das einen Überblick über die Arbeit der Organisation geben soll. Auf Seite 33 ist ein mehrseitiger Artikel von Toralf Staud mit dem Titel “Zweifel ist unser Produkt” abgedruckt. Der Artikel ist leider nicht online verfügbar. Das Heft kann aber kostenlos bei Misereor bestellt werden. Der Untertitel im Inhaltsverzeichnis gibt bereits die Richtung vor:

Bei der Wahrheit über den Klimawandel geht es um die öffentliche Meinung, um politischen Einfluss und um Geld. Eine Klarstellung.

Wiederum geht es nicht um klimatische Fakten, sondern um einen persönlichen Angriff auf die wissenschaftlich andersdenkenden Seite. Kurioserweise führt die Misereor-Redaktion bereits an dieser Stelle die vermutlichen Gründe an, weshalb Staud beauftragt wurde, diesen Artikel zu schreiben: Beeinflussung der öffentlichen Meinung und der Politik auf emotionaler Ebene unter Umgehung der fachlichen Diskussion, beides zur Verbesserung der eigenen Geldzuflüsse von privater und staatlicher Seite. Die Umkehr der Vorwürfe gegen die klimaskeptisch denkende Seite wirkt plump.

Gehen wir nun in den Artikel selbst. Direkt auf der Titelseite schreibt Staud:

Während die Forscher sich ihrer Erkenntnisse zum Klimawandel immer sicherer sind, werden Wissenschaftsleugner immer lauter. Sie führen einen weltweiten Kampf um die öffentliche Meinung, der inzwischen fast zum Selbstläufer geworden ist. Dessen Folgen sind auch schon in Deutschland zu spüren.

Bereits zu Beginn dieses Appetizers führt Staud die Leser hinter die Fichte: Nur die Wenigsten wissen, dass die CO2-Klimasensitivität in den letzten zwei Jahren von 3,0°C auf 2,0°C pro CO2-Verdopplung gesunken ist. Dies berücksichtigt die Ozeanzyklen, die 1977-1998 die Hälfte der Erwärmung beigesteuert hatten und seitdem kühlend wirken. Wie kann Staud bei einer solch massiven Reduktion der CO2-Klimawirkung von “immer sicherer” sprechen? Während Staud Durchhalteparolen ausgibt, werden anerkannte Fachleute in Deutschland nervös (siehe unsere Beiträge “2</sub>-Klimasensitivität ist vom IPCC zu hoch angesetzt worden">Mojib Latif im Fachvortrag in den USA: Die CO2-Klimasensitivität ist vom IPCC zu hoch angesetzt worden“, “Klimaforscher Hans von Storch: Klimamodelle berücksichtigen möglicherweise Änderungen der Sonnenaktivität zu wenig” und “2</sub>">Judith Curry prognostiziert Erwärmungspause bis in die 2030er Jahre: Hans von Storch fordert in einem solchen Fall Misstrauensvotum gegen CO2“).

Allein die Benutzung des Begriffs “Wissenschaftsleugner” disqualifiziert Staud. Vermutlich bewegt er sich mit dieser Betitelung bereits in juristischem Sperrgebiet. Der Artikel beginnt dann mit einer Attacke gegen Fritz Vahrenholt. Was fiele ihm bloß ein, einen Klimavortrag auf einer Veranstaltung der Wirtschaft in München zu halten? Es sollte doch allgemein bekannt sein, dass die IPCC-Meinung die einzig wahre und reine Lehre darstellt. Außerdem ist Vahrenholts Buch “Die kalte Sonne” ganz doof. Dass Vahrenholt bei Shell und RWE in der Erneuerbaren Energie-Sparte tätig war unterschlägt Staud glatt. Staud schreibt:

Der Auftritt zeigt, was noch vor ein paar Jahren undenkbar schien: Das Bestreiten des menschengemachten Klimawandels wird auch in Deutschland salonfähig.

Wieder so eine Peinlichkeit. Staud hat auch nach zwei Jahren offenbar noch immer nicht unser Buch gelesen. Denn dort steht, dass das CO2 durchaus eine nicht zu unterschätzende Klimawirkung hat. Es wird dort u.a. ein menschengemachtes Klimawandel-Szenario mit einer CO2-Klimasensitivität von 1,5°C pro CO2-Verdopplung vorgestellt. Vahrenholt und Lüning bestreiten keineswegs die anthropogene Erwärmung. Stauds Behautung im Text ist schlicht unwahr. Staud offenbart zudem Probleme bei der Lektüre des 5. IPCC-Berichts (“AR5″). Er möchte dort gelesen haben:

…warnt der IPCC deutlicher als je zuvor vor einer gefährlichen Erwärmung der Erde.

Man möchte Staud zurufen: Hättest Du Dir doch vor dem Verfassen des Artikels Expertenrat hinzugezogen, dann wäre Dir diese Panne erspart geblieben. Denn die bekannte Klimaforscherin Judith Curry erläuterte kürzlich in ihrem Blog, was wirklich im IPCC AR5 enthalten ist (siehe unseren Blogartikel “Lesen lohnt: IPCC-Klimabericht von 2013 relativiert Hitzeprognosen von 2007“).

Staud wirft dann Vahrenholt vor, sein Universitäts-Chemie-Abschluss samt Promotion würde ihn nicht zur Teilnahme an der Klimadiskussion befähigen. Dies sagt wohlgemerkt ein Toralf Staud, der keinerlei universitäre naturwissenschaftliche Lorbeeren vorweisen kann. Dazu schauen wir auf der Webseite der schweizerischen Berufsberatung vorbei, die aufzählt, aus welchen Einzeldisziplinen die Klimawissenschaften bestehen:

Am [klimawissenschaftlichen] Studiengang beteiligt sind:

·       der Fachbereich Geowissenschaften

·       der Fachbereich Physik

·       der Fachbereich Mathematik

·       der Fachbereich Chemie

·       der Fachbereich Biologie

·       das Volkswirtschaftliche Institut

·       das Historische Institut.

Zum mitschreiben, Herr Staud: Die Chemie ist ein integraler Bestandteil der Klimawissenchaften. Und Fritz Vahrenholt ist ausgebildeter Chemiker. Das Buch hat er übrigens zusammen mit einem Geologen geschrieben, Sebastian Lüning. Auch Lüning ist diplomiert und promoviert, außerdem habilitiert. Und die Geologie bzw. die Geowissenschaften sind ebenfalls ein integraler Bestandteil der Klimawissenschaften. Nicht beteiligt sind hingegen die Fachbereiche Philosophie und Journalistik.

Auf Seite 36 des Artikels meckert Staud über die angeblich so üppige Finanzierung der Klimaskeptiker. Nun ja, diese Geldzuwendungen sind mittlerweile wohl ausgetrocknet bzw. fiktiv. Das kalte-Sonne-Blog wird zum Beispiel ganz ohne finanzielle Vergütung auf freiwilliger Basis erstellt. Dies steht ganz im Gegensatz zum Klimaretter-Blog, in dem die Autoren in der Regel Honorare für ihre Texte erhalten. Wieviel hat Staud übrigens von Misereor für seinen Artikel im Jahresheft bekommen? Neben üppig ausgestatteten Presseabteilungen des PIK und anderer Institute gibt es seit Anfang diesen Jahres auch noch einen US-amerikanischen Milliardär, der Geld in die Beförderung klimaalarmistischen Gedankenguts pumpt. Tom Steyer will zusammen mit anderen Spendern 100 Millionen Dollar in eine Kampagne investieren, die der US-Politik klimaalarmistische Impulse geben soll.

Auf Seite 37 seines Artikels bemängelt Staud, dass es bei den Klimaskeptikern so wenige aktive Klimaforscher gäbe. Warum erwähnt er nicht Judith Curry, Roy Spencer, Henrik Svensmark, Nir Shaviv, William Gray, Nicola Scafetta, Willie Soon, Don Easterbrook, Robert Carter, Habibullo Abdussam, Stanley Goldenberg, Nils-Axel Mörner oder Lennart Bengtsson? Und warum trauen sich wohl die jungen Kollegen nicht, klimaskeptisch mitzudiskutieren? Natürlich, weil ihnen sonst der Geldhahn und der Weg zur Festanstellung bzw. Beförderung versperrt wird. Singe das IPCC-Lied, und es wird Dir gutgehen. Singe ein anderes, stirb.

Dann wettert Staud gegen EIKE, die wichtigste klimaskeptische Organisation in Deutschland. Er mag das Layout der EIKE-Webseite nicht. Und er mag die Tagungen nicht. Und alle sind viel älter als Toralf Staud, das kann er nun wirklich nicht ab. Bei Greenpeace sind alle viel jünger. Die Anhänger dort stellen auch keine unbequemen Fragen. Vielleicht hat es damit zu tun, dass die jungen Herrschaften ihr naturwissenschaftliches ABC noch nicht ganz drauf haben, gerne dem gemütlichen Groupthink frönen. Der EIKE-Pressesprecher Horst-Joachim Lüdecke kann Staud jedenfalls nur noch als Komiker ertragen. Er enttarnt zudem Stauds Misereor-Artikel als schlechte Kopie eines bereits in der Zeit erschienenen Textes. In einem Beitrag auf EIKE zum Misereor-Stück schreibt Lüdecke am 31. Mai 2014:

Kommen wir nun zu dem eingangs erwähnten T. Staud. Es geschieht ihm fraglos zuviel der Ehre, hier auf seine Schreibergüsse einzugehen. In den besprochenen Zusammenhang von Misereor, Kirchen und Profit gehört es aber hinein. Das bemühte, schwerfällige Pamphlet von T. Staud mit der Überschrift „Zweifel ist unser Produkt“ kann freilich als müde Wiederholung seines Artikels zs. mit Benjamin Reuter „Die Gehilfen des Zweifels“ (hier) angesehen werden. Aber auch die Qualitäts-Redakteurinnen Anita Blasberg und Kerstin Kohlenberg von der ZEIT haben sich mit „Die Klimakrieger“ (hier) an dem Thema “Klimaskeptiker” verhoben. Wenn eine literarische Wertung des Autors erlaubt sei, so hat zum Trost wenigstens „Die Gehilfen des Zweifels“ einige amüsante Stellen und liest sich  stellenweise unterhaltsam. Zweifellos ist dies dem Hauptredakteur B. Reuter zu verdanken, denn der Aufguss “Zweifel ist unser Produkt” von T. Staud im Misereor-Magazin von 2014 erzeugt nur grausame Langeweile. Das gleiche trifft für den Artikel „Die Klimakrieger“ der beiden o.g. Qualitätsredakteurinnen zu. Daher an dieser Stelle eine herzliche Bitte: Liebe ZEIT, falls noch einmal ein Thema über „Klimaskeptiker“, dann bitte von Redakteuren, die wenigstens unterhaltsam zu schreiben verstehen, lass uns nicht noch einmal unter den Staud’s, Blasberg’s und Kohlenberg’s vor Langeweile sterben!

Und weil wir mit unserem Buch “Die kalte Sonne” vermutlich genau den wunden Punkt des wackeligen IPCC-Gedankengebäudes getroffen haben, kehrt Staud dann im Text noch ein weiteres Mal zu Vahrenholt zurück. Staud schreibt:

Vahrenholt ist ein geübter Redner. Seine Thesen untermauert er mit wissenschaftlich wirkenden Zitaten und Graphiken – dass die oft irreführend sind oder gar manipuliert, bemerken nur Fachleute.

Könnte es sein, dass die Thesen deshalb wissenschaftlich wirken, weil sie von Vahrenholt plausibel und sauber – also wissenschaftlich – erläutert werden? Vielleicht fehlt es hier Staud wiederum am naturwissenschaftlichen Rüstzeug, um der Thematik einigermaßen folgen zu können. Die Behauptung “irreführend…oder gar manipuliert” ist frech und aus juristischer Sicht sicher grenzwertig. Hier müsste Staud endlich einmal Beispiele nennen, insbesondere für Graphiken, die angeblich manipuliert wurden. Welche Fachleute meint Staud, die sich über Inhalte beschwert hätten? Meint er Latifs erfolglosen Versuch bei einem Hamburger Extremwetterkongress, die Klimabeteiligung der Sonne abzustreiten? (Siehe unseren Beitrag “Extreme Ansichten auf dem Extremwetterkongress: Anti-Sonnen-Beweisführung à la Latif“). Ähnlich scheiterte ein Versuch einer deutschen Wissenschaftssendung (siehe “Wissenschaftssendung Nano lässt der Sonne keinen Nanometer Klimawirkung: Fehlende Neutralität in der Berichterstattung wirft Fragen auf“).

Komödiantisch endet dann auch der Staudsche Misereor-Artikel:

Seriöse Forscher formulieren stets vorsichtig, sie müssen jede Aussage beweisen – ihre Gegner machen kurze Sätze und sagen, was sie wollen. “Es ist als wenn Pfadfinder gegen Elitesoldaten antreten”, sagt der US-Klimaforscher Michael Mann.

Meint Staud hier “vorsichtig formulierte” Studien der folgenden Art?:

·       Neue Studie im Journal of Environmental Economics and Management: Klimakatastrophe wird in den USA bis 2099 zu einer halben Millionen zusätzlicher Autodiebstähle führen

·       Klimaalarmist schlägt genetische Manipulation des menschlichen Erbguts vor, um die Bevölkerung vor der Klimakatastrophe zu schützen

·       NASA-Klimaforscher James Hansen 1986 in der New York Times: Bis 2010 wird sich der Planet um bis zu 3 Grad Celsius aufheizen

Vielleicht sollten die ‘Pfadfinder’ auch einmal kurze Sätze versuchen. Elitesoldaten muss man hier sicher als Kompliment sehen. Seltsam nur, dass noch niemals ein Klimarealist den Climate Communications Prize der American Geophysical Union gewonnen hat. Das Geheimnis des klimarealistischen Erfolges könnte auch einfach in der Tatsache stecken, dass Klimaskeptiker keinen Maulkorb verpasst bekommen haben, daher in der Tat “sagen, was sie wollen”. Liebe Freunde des IPCC, versucht es einfach mal mit ergebnisoffener Diskussion und freier Meinungsäußerung.

Fazit: Vielleicht hat es etwas zu bedeuten, dass Toralf Staud seit seinem persönlichen Kampf gegen die kalte Sonne im Wochenmagazin Die Zeit nur noch über Rechtsextremismus schreiben darf. Der Hilfsorganisation Misereor ist auf jeden Fall anzuraten, schnellstmöglich Abstand von der plumpen Klimahetze zu nehmen. Mit dem Artikel “Zweifel ist unser Produkt” verschafft Misereor einem bekannten Aktivisten eine fragwürdige Bühne, die er anderswo nicht mehr erhält. Die Klimadiskussion ist bei weitem nicht so schwarz-weiß wie sie von Toralf Staud dargestellt wird. Der Wegfall der Klimakatastrophe bedeutet übrigens nicht, dass man den armen Menschen in der ganzen Welt nicht helfen sollte. Im Gegenteil. Wieviel Gutes könnte man zum Beispiel mit den 100 Millionen Dollar tun, die Tom Steyer in den klimaalarmistischen Propagandakampf stecken möchte?

Der Beitrag erschien zuerst bei Die kalte Sonne




Save the date: IKEK 8 in Frankfurt Main am 17.10.14

8. Internationale Klima- und Energiekonferenz (IKEK-8)

Steigenberger Hotel Frankfurter Hof, Frankfurt, 17. Oktober 2014

Vorläufiges Programm

Freitag – 17. Oktober 

09.00 Uhr       Registrierung

10.00 Uhr       Begrüßung – Der deutsche Sonderweg, Klimaschutz als Selbstzweck

                 Dr. Holger Thuss

Präsident, Europäisches Institut für Klima und Energie (EIKE)

10.15 Uhr       Präzises Klima-Timing über die letzten 2500 Jahre

                 Prof. Dr. Horst Lüdecke

Pressesprecher, Europäisches Institut für Klima und Energie (EIKE) 

11.00 Uhr       Grund zur Panik? Klimazyklen der letzten 250 Jahre

Prof. Dr. Carl-Otto Weiss
EIKE Fachbeirat und ehem. Direktor und Professor an der Physikalisch-Technischen Bundesanstalt Braunschweig

12.00 Uhr       Mittagspause – Gemeinsames Mittagessen

13.15 Uhr       Schiefergas – Die saubere und günstige Energiequelle?

Klaus Angerer
Business Advisor Oil & Gas, Renewable Energy and Energy Economics at Angerer Consult

14.15 Uhr Fracking mit alternativen Chemikalien

Dr. Tore Land
Chief Executive Officer, TouGas Oilfield Solutions GmbH

15.00 Uhr – 15.30 Uhr Pause 

15.30 Uhr       Wie erpressbar ist Deutschland?

                 Wirtschaftliche und geostrategische Aspekte in der Energieversorgung

                 Dr. Andrei Illarionov

Ehem. Wirtschaftsberater des russischen Premierministers Putin, Senior Fellow Center for Global Liberty and Prosperity, Cato Institut, Washington 

16.15 Uhr       Biotreibstoffe – Die unheilige Allianz zwischen

                 Lebensmittelindustrie und Umweltschützern

                 Dr. Jacob Nordangård

Department of Thematic Studies – Technology and Social Change,
Linköping Universität, Schweden

17.15 Uhr – 17.45 Uhr Pause

17.45 Uhr Energiewende – Das Milliardengrab

                 Dipl.-Ing. Michael Limburg

                 Vizepräsident, Europäisches Institut für Klima und Energie (EIKE) 

18.30 Uhr       Schlusswort

                 Wolfgang Müller

                 Generalsekretär, Europäisches Institut für Klima und Energie (EIKE)

19.30 Uhr       Abendveranstaltung Gemeinsames Abendessen mit Tischrede 

                 „Klimaberichterstattung“ – Glauben vs. Wissen. Warum Fakten keine Rolle spielen

                 Prof. Dr. Hartmut Kliemt

                 Vize-Präsident Forschung, Legal Studies & Ethics Department,
Frankfurt School of Finance & Management

Alle Vorträge werden bis 19.00 Uhr simultan Deutsch-Englisch und Englisch-Deutsch gedolmetscht.

Die Veranstalter behalten sich jederzeit das Recht auf Änderungen des Programms vor.

Veranstaltungsort      Steigenberger Hotel Frankfurter Hof, Kaiserstraße, 60311 Frankfurt am Main

In der Nähe des Hbf. Frankfurt: 5 Minuten (Taxi) oder 12 Minuten (zu Fuß).

Günstig mit der Bahn zur Konferenz             

Die Steigenberger Hotels und Resorts bieten in Kooperation mit der Deutschen Bahn für 99 € spezielle Veranstaltungstickets zur An- und Abreise an.

Buchbar bis 3 Tage vor Reisebeginn
beim DB Service Center unter 01806/ 31 11 53*
mit dem Stichwort: "Steigenberger Hotel".

Montag-Samstag, 07.00-22.00 Uhr.

*0,20 €/Anruf aus dem deutschen Festnetz. Maximal 0,60€/Anruf  aus dem dt. Mobilfunknetz.

Frankfurt ist auch mit dem Fernbus zu erreichen 

Aufgrund der begrenzten Plätze entscheiden Eingang von Anmeldung und Beitragszahlung über die Teilnahme an der Veranstaltung.

Die Konferenz wird ausschließlich aus privaten Mitteln finanziert. EIKE erhält keine öffentlichen Mittel.

Spenden an das Europäisches Institut für Klima und Energie (EIKE) sind steuerbegünstigt. Personen mit Hauptwohnsitz im Ausland wenden sich bitte an uns für alternative Unterstützungsmöglichkeiten.

Zahlung an: EIKE e.V., Volksbank Saaletal Rudolstadt Konto Nr.: 42 42 92 01, BLZ: 830 944 54

IBAN: DE34 8309 4454 0042 4292 01      BIC: GENODEF1RUJ   oder via PayPal auf der EIKE Website

Preise und alle anderen Details entnehmen Sie bitte dem pdf Anhang

Related Files




Nachruf auf Prof. Dr. Werner Weber (TU Dortmund)

Werner Weber forschte auf dem Gebiet der theoretischen Festkörperphysik, insbesondere der Supraleitung (hier, hier) und engagierte sich, insbesondere nach seinem Ausscheiden aus den aktiven Dienst, aktuellen Fragen der Klimaforschung. So war er u.a. aktiver Teilnehmer einer Gruppe von Experten, die das Potsdamer Institut für Klimafolgenforschung (PIK) zu einem gemeinsamen Seminar eingeladen hatte (hier). Ferner schreib W. Weber einen längeren Gastbeitrag im Buch „Die Kalte Sonne“ von Vahrenholt und Lüning sowie die folgenden zwei begutachteten Fachaufsätze zum Einfluss der Sonne auf Klimaparameter:

W. Weber: Strong Signature of the Active Sun in 100 Years of Terrestrial Insolation Data, Annalen der Physik, 23 (2009) sowie

W. Weber and A. Hempelmann: Correlation between the Sunspot Number, the Total Solar Irradiance, and the Terrestrial Insolation, Solar Physics, doi 10.1007/s11207-011-9905-4 (2011).

Wer Werner Weber persönlich kannte, schätzte seine Kollegialität und insbesondere seinen trockenen Humor. Sein Lachen war ansteckend. Er war ein aufmerksamer, vielseitig beschlagener Gesprächspartner und wegen seiner profunden Kenntnisse der Experimental-Physik nicht ohne Weiteres als "Theoretiker" ausmachbar. Dazu trug wohl auch seine stets von Technik geprägte akademische Umgebung bei (TU Karlsruhe, Bell Laboratories, TU Dortmund).

Persönlich verband mich mit Werner Weber zuerst ein gemeinsames Forschungsprojekt, das inzwischen, von wenigen noch ausstehenden Ergänzungsrechnungen abgesehen und mit Werner Weber als Hauptautor, nahezu fertig vorliegt und von uns beiden zur Einreichung in ein begutachtetes Fachjournal vorgesehen war. Wir waren freilich mehr als nur eine Zweck-Arbeitsgemeinschaft. Weber war Gast im Haus von mir und meiner Fau, und unsere regelmäßigen, oft stundenlangen Telefonate umfassten nicht nur physikalische Themen sondern waren zumindest für mich stets spannende Wanderungen durch die heutige Realität von der Physik bis hin zur Politik. Werner Weber ist mir in der Zeit unserer Zusammenarbeit zu einem Freund geworden, wie man ihn in späten Jahren nicht mehr gewinnt. Sein zu früher, völlig unerwarteter Tod hat mich tief erschüttert.

Prof. Dr. Horst-Joachim Lüdecke (Physiker)
EIKE Pressesprecher

Die Redaktion schließt sich diesem Nachruf aus voller Überzeugung an. Wir sind sehr traurig einen so wertvollen und angenehmen Mitstreiter wie Prof. Werner Weber verloren zu haben. Unsere Gedanken sind bei seiner Familie.

Für die Redaktion: Michael Limburg, Vizepräsident EIKE

 




Meine Tage im Hass (FAZ)

Bevor wir die Ursachen der von Frau Andrea Diener geschilderten (hier) Leser-Anwürfe zu ergründen suchen, möchten wir definieren, wie eine freie Zeitungspresse nach unserer Auffassung aussehen muss:

Sie darf nicht voreingenommen sein, sondern muss sich vielmehr bemühen alle Aspekte eines umstrittenen Problems neutral-gleichgewichtig zu schildern. Sie sollte keine Meinung vertreten, sondern das zu einem Thema gehörende Meinungsspektrum neutral gewichtet von allen Seiten kommentieren und die Meinungsbildung dem Leser überlassen. Falls sie doch eine eigene Meinung äußert, so ist diese als solche klar zu benennen und es sind andere Auffassungen, sofern sachlich begründbar, der eigenen Meinung offen und fair gegenüberzustellen.

Soweit Theorie und Wunsch. Kommt die FAZ dieser Forderungen nach? Wir sagen eindeutig "Nein" und werden diese Behauptung insbesondere an Hand der für unsere Wirtschaft wichtigen Themen "Klima" und "Energie" im Folgenden belegen.

Beginnen wir mit "Klima". Für dieses Thema verantwortlich schaltet und waltet in der FAZ der fachfremde Biologe Müller-Jung (MJ), dessen Berichterstattung nicht objektiv sondern stark voreingenommen ist. MJ gibt im Wesentlichen die Meinung des Potsdamer Instituts für Klimafolgenforschung (PIK) wieder. Dieses Institut tritt mit seinen öffentlichen Äußerungen keineswegs neutral informierend auf, sondern darf zutreffend als mit öffentlichen Mitteln finanzierte Agitationshilfe der wissenschaftlich umstrittenen Auffassungen des IPCC bezeichnet werden.

Keine der üblichen Klima-Katastrophenmeldungen, wie sie immer wieder dem wehrlosen TV-Konsumenten im ZDF durch den unendlich selbstgefälligen TV-Journalisten Claus Kleber mit fingerdick aufgetragener weinerlicher Empathie angedient werden, lässt dementsprechend auch der FAZ Redakteur MJ aus. Der einzige Unterschied zur TV-Berichterstattung, die in ihrer Propagandaintensität der des ehemaligen DDR-Fernsehens kaum nachsteht, ist lediglich die qualitativ bessere Aufbereitung seitens MJ in der FAZ. Sie muss dem intellektuellen Stand eines FAZ-Lesers, verglichen mit dem eines BILD-Lesers, Rechnung tragen und kommt höherwertiger daher. Sachlich sind aber die Beiträge von MJ in der Regel gleich wertlos wie die von C. Kleber: Wiederkäuen sachlichen Unsinns unter dem Motto "menschgemachte Klimakatastrophen", ähnlich wie sie im Spektrum der Wissenschaften oder auf dem Blog von Stefan Rahmstorf (hier) ausgebreitet werden.

Die FAZ als angeblich hochwertiges Tagesperiodikum hat es versäumt, sich von der verkündeten menschgemachten Klimakatastrophe schmelzender Pole, beschleunigter Meeresspiegel-Anstiege und weiteren anthropogenen Klimakatastrophen-Klamauks klug zu distanzieren. Dies hätte, um drei stellvertretende Beispiele zu nennen, darin bestehen können, den großen Teil derjenigen begutachtete Fachliteratur zur Kenntnis zu nehmen, die dem IPCC und dem PIK diametral widerspricht (hier, hier) und diese wissenschaftliche Gegenposition dem FAZ-Leser journalistisch zugänglich zu machen. FAZ Leser sollen ja gemäß FAZ-Werbung vermehrt zum Selberdenken fähig sein – oder doch nicht? Um nicht missverstanden zu werden, kennen diese Teile der Fachliteratur selbstverständlich auch Klimakatastrophen, nur eben KEINE menschgemachten. Es kann nicht genug betont werden, dass bis heute der messtechnische Nachweis eines maßgebenden Einfluss des Menschen auf Klimavorgänge in der begutachteten Fachliteratur aussteht. Das ist der entscheidende Punkt, von dem wir in der FAZ nichts erfahren.

Eine neutrale Berichterstattung der FAZ könnte ferner darin bestehen, die unzähligen Manifeste und Petitionen von Fachwissenschaftlern gegen die IPCC-Agenda zur Kenntnis zu nehmen und der Öffentlichkeit mitzuteilen (hier, hier, hier, hier, hier, hier, hier, hier, hier). Dies ist bezeichnenderweise noch nie in einer deutschen Zeitung erfolgt, was Bände über die Zustände der deutschen Medien spricht. Und es könnten zum Dritten in der FAZ vermehrt Interviews mit solchen Skeptikern am menschgemachten Klimawandel erscheinen, die sich durch Veröffentlichung einschlägiger begutachteter Fachpublikationen hinreichend wissenschaftlich ausgewiesen haben. Nichts von all dem geschieht, von seltenen Ausnahmen wie Beiträgen bzw. Interviews von Mangini, von v. Storch etc. abgesehen!

Unübersehbar folgt die FAZ einer Redaktionslinie, die die unerwünschten Gegenpositionen zum IPCC zensiert. Es würde zu weit führen, über die Gründe dieses Mangels zu spekulieren, die von einer beabsichtigten Redaktionspolitik der FAZ-Eigner bis hin zu Rücksichtnahmen auf Inserenten grüner Energien reichen könnten (deren Portefeuilles aus Steuermitteln bekanntlich gut gefüllt sind). Um noch einmal nicht missverstanden zu werden: Die FAZ kann ja, wenn sie unbedingt meint, die von MJ verbreitete Auffassung vertreten, sie darf aber die wissenschaftlich seriösen Gegenpositionen nicht gänzlich ausblenden. Zumindest nicht, wenn sie wünscht, dass ihr nicht immer mehr Leser davonlaufen und sich anderweitig über das von Politik und grünen Ideologen so sehnlich herbeigewünschte aber nicht nachweisbare Phänomen eines "menschgemachten Klimawandels" informieren.

Mit der Energiewende verhält es sich nur wenig besser als mit dem religiösen Glauben weiter Teile der Öffentlichkeit von der anthropogenen Klimaschädigung. Die FAZ vertritt eine gemäßigte, mit allen Konkurrenzorganen fast schon als abgesprochen zu bezeichnende Pseudokritik der Energiewende. Noch weniger Kritik würde nämlich wirklich zu einem Leseraufstand führen und ist auch angesichts des immer mehr um sich greifenden "Energiewende-Elends" sachlich gar nicht mehr vertretbar. Nur die allerdümmsten Bundesbürger und natürlich die unzähligen wirtschaftlichen Profiteure glauben noch an die sachliche Sinnhaftigkeit der Aktion "Energiewende".

Als höchste fachliche Instanz wird nun von der FAZ – fast unglaublicherweise – eine Frau Claudia Kemfert gepriesen (hier), bei der sich viele Leute schon lange fragen, wie diese Dame eigentlich zu ihrer Professur gelangte (hier). Zumindest über die Energiewende ist nämlich von Frau Kemfert nur stark grünideologisch gewürzter sachlicher Quatsch, unterfüttert mit ein paar unrelevanten oder sachlich unzutreffenden volkswirtschaftlichen Allgemeinplätzen zu vernehmen. Dementsprechend hat ein ehemaliges Mitglied des Vorstands der deutschen physikalischen Gesellschaft (DPG), Prof. Dr. Konrad Kleinknecht, das von der FAZ hochgelobte Buch von Frau Kemfert "Kampf um Strom" auch gründlich verrissen (hier).

Was ist also von mutiger, objektiver Kritik der FAZ an der Energiewende, die nichts ausspart, zu halten? Wir würden diese eher als Aprilscherz bezeichnen! Bei der Energiewende folgt die FAZ den grünen Ideologen und der deutschen Politik, die sich, warum auch immer, zum Schaden unserer Nation nun einmal entschlossen hat, mit den grünen Rattenfängern gemeinsame Sache zu machen. Wo findet man in der FAZ eine umfassende Analyse des technisch-wirtschaftlichen Wahnsinns dieser urdeutschen Aktion namens "Energiewende", etwa wie sie Hans Werner Sinn in seinem Vortrag "Energiewende ins Nichts" an der Münchner Ludwigs-Maximilian-Universität im Detail vortrug? Warum erscheint über diesen Vortrag von H.-W. Sinn, der immerhin gelegentlich in der FAZ zu Wort kommt, nichts in der FAZ? Auf YouTube (hier) ist sein Vortrag in voller Länge zu sehen, aber die FAZ macht sich keine Mühe zu berichten, weil sie es nicht will oder weil die Redakteure es nicht dürfen.

All dies kann kein Zufall sein. Neutrale ENERGIE-FACHLEUTE sind in der FAZ nicht zu vernehmen. Warum wagt es schlussendlich die FAZ nicht, sachgerecht das Tabu-Thema Kernenergie aufzugreifen und einmal etwas über die realen, vorteilhaften biologischen Impacts der radioaktiven Strahlung zu schreiben (Hormesis)? Das wäre schließlich etwas für einen Biologen als Redakteur (MJ?). Auch hier erleben wir augenfällig, wie eine objektive Berichterstattung, die unparteiisch informiert, von der FAZ sorgsam ausgespart wird. Die Welt folgt den deutschen Träumen von grünen Energie nicht, baut neue Kernkraftwerke und lässt auf diesem Sektor Deutschland als unterbelichtete Entwicklungsnation zurück, die sich sogar der Erforschung neuer Kernreaktortypen verweigert … und die FAZ berichtet nichts über diesen Skandal.  

In Summa: Frau Andrea Diener beklagt sich zu Recht über den Ton der Leserkommentare. Über den Inhalt dieser Kommentare und den ihnen zugrunde liegenden Motivationen hat sie sich aber nicht die geringsten Gedanken gemacht. Von alleine kommen solche Leser-Kommentare nicht. Selbst die im Ton übelsten Kommentare haben immer noch einen sachlichen Kern, der ernst zu nehmen ist. Frau Andrea Diener und ihre Redaktionskollegen haben überhaupt nicht begriffen, dass selbst Kommentatoren mit den schlimmsten Formulierungen immer noch KUNDEN der FAZ sind. Jeder Manager, der sein Geld wert ist, weiß, dass Kundenzufriedenheit DAS ERSTE KRITERIUM für das Prosperieren eines Unternehmens ist. Wie reagiert man dagegen bei der FAZ? Mit Empörung über die Art und Weise darüber, wie es ihre Kunden wagen sich darüber zu beschweren, dass die FAZ andauernd gegen die Lesermeinung anschreibt (mit diesem hartnäckigen "Gegen-die-eigenen-Leser-Anschreiben" besitzt sie freilich kein Alleinstellungsmerkmal in der deutschen Zeitungslandschaft). Es scheint so, als ob sich die FAZ (und nicht nur diese) als Erziehungsinstanz ihrer Leser ansieht. Diese Arroganz wird sie auf Dauer teuer zu stehen kommen.

Die Autoren sind der altmodischen Auffassung, dass andauerndes Anschreiben gegen seine eigenen Leser Dummheit und Selbstzerstörung ist. Man muss, um dieser Dummheit abzuhelfen, keineswegs die eigene Auffassung unter den Scheffel stellen. Es darf nur nicht so weit führen, als Medien-Institution unumstößliche "Wahrheiten" zu verkünden und sich damit als die einzige ethisch-moralische Erziehungs-Instanz zu sehen, denen der Leser eben zu folgen hat – basta. Für die FAZ überraschend, nehmen doch tatsächlich Leser der FAZ diesen Standpunkt übel. Wie weit müssen die FAZ-Redakteure von der Einsicht, wie es wirklich in der Welt zugeht, entfernt sein oder aber, wie stark muss der Gleichschaltungsdruck der Redaktionspolitik sein! Beides ist gleich katastrophal!

Es drängt sich hier ein Vergleich mit der letzten Europa-Wahl auf. Ebenso wenig wie die FAZ-Kommentare kommt das gute Abschneiden der Protestpartien bei der letzten Europa-Wahl aus heiterem Himmel, wobei übrigens nur der geringste Teil dieser Protestwähler Rechtsradikale sind, so wie es uns die Politik weismachen will. Mit diesem Phänomen wird die etablierte Politik, die noch nie ein Hehl aus ihrer Verachtung von mündigen, kritischen Bürgern machte, offenbar nicht fertig. Und auch das Phänomen des FAZ-Leser-Shitstorms lässt die FAZ ratlos zurück. Dabei braucht  die FAZ-Redaktion nur mit Verstand den sachlichen Inhalt der Proteste zur Kenntnis zu nehmen, in dem sehr genau zu lesen ist, woran sich die Proteste stoßen. 

Daher: Sehr geehrte Frau Diener und sehr geehrte Redaktion der FAZ, Sie dürfen sich zwar über den unsäglichen Ton vieler Leserkommentare beklagen, wundern dürfen Sie sich aber über den Shit-Storm nicht. Früher konnte man in der FAZ noch Leserkommentare bewerten: z.B. ‚empfehlen‘ anklicken. Diese Empfehlungen wurden gezählt und der Score angegeben, so dass man daraus auf die Meinung der Leser schließen konnte. Da die Lesermeinung in letzter Zeit offensichtlich zu sehr von der veröffentlichten Meinung abwich, hat man diesen Service abgeschafft.

Wenn die Entwicklung so weiter geht wie bisher, wird das Internet immer mehr Zeitungsleser übernehmen, die neutrale Information aber keine Meinungsmache und noch weniger Erziehung wünschen. Dies wäre ein großer Schaden für die Lesekultur und das wirtschaftliche Wohlergehen von Zeitungen, insbesondere der FAZ. Eine gute Zeitung darf nicht davor zurückscheuen, sich mit allen und allem anzulegen, wenn es der neutralen Faktenschilderung dient, so wie es in früheren Zeiten (heute leider nicht mehr) der SPIEGEL einmal vormachte. Von solchem Mut und solcher journalistischen Ehrlichkeit ist die FAZ inzwischen Lichtjahre entfernt.

Da Zeitungen freilich noch nie in der Geschichte wirklich unabhängig und objektiv berichteten, sondern stets mehr oder weniger der inneren und äußeren Zensur der die Richtung bestimmenden politischen Klasse folgten, ist die FAZ in bester historischer Gesellschaft. Es wird sich nichts ändern. Einziger Trost: Die "DDR-like" Propaganda der Süddeutschen Zeitung und der ZEIT geht noch weit gründlicher vor, wie es die folgenden Beispiele belegen (hier), (hier, hier). Diese Artikel sehen wir als hilfreich an, weil sie wertvolle Zeugen für zukünftige Historiker über den Zustand der Zeitungen in einer Demokratie mit angeblicher Pressefreiheit darstellen. Sie werden daher von uns bei jeder sich bietenden Gelegenheit zitiert und in die Erinnerung zurückgerufen. Solche Produkte, die dem ehemaligen "schwarzen Kanal" eines Eduard von Schnitzler in nichts nachstehen, dürfen nicht in Vergessenheit geraten.




Das Rätsel der Eiszeiten, Teil 9, Global Circulation Models III

scienceofdoom

In Teil VII haben wir auf einige frühe GCMs und deren Ergebnisse geschaut, in Teil VIII waren dann die GCMs aus dem ersten Jahrzehnt dieses Jahrhunderts dran – atmosphärische GCMs, die die Wassertemperatur der Ozeane einbezogen sowie einige Modelle mittlerer Komplexität. Alle diese Studien versuchten, die fundamentale Grundlage des Einsetzens einer Eiszeit zu untersuchen – immer währende Schneebedeckung in hohen Breiten. Eine permanente Schneebedeckung kann zu permanenten Eisschilden führen – muss es aber nicht. Erforderlich ist also ein Eisschilde-Modell, das das komplexe Zusammenspiel von Wachstum, Zerbrechen, Gleiten und Wärmetransport der Eisschilde simuliert.

Angesichts der begrenzten Rechenmöglichkeiten der Modelle war schon die Konstruktion eines Modells, dass die Grundlagen permanenter Schneebedeckung simulieren kann (oder nicht), keine triviale Angelegenheit, aber ein komplettes Ozean-Atmosphäre-GCM mit einem Eisschilde-Modell, das 130.000 Jahre abdeckt, war überhaupt nicht möglich. In diesem Beitrag schauen wir auf eine Studie aus jüngster Zeit, in der vollständig gekoppelte GCMs verwendet worden sind. ‚Vollständig gekoppelt‘ bedeutet, dass ein atmosphärisches und ein ozeanisches Modell als Tandem agieren – wobei Wärme, Feuchtigkeit und Impulse übertragen werden.

Smith & Gregory (2012)

Das Problem:

Es ist allgemein akzeptiert, dass das Timing von Eiszeiten auf Variationen der Sonneneinstrahlung zurückzuführen ist, die aus dem Orbit der Erde um die Sonne resultieren (Hays et al. 1976, Huybers und Wunsch 2005). Diese solaren Strahlungs-Anomalien müssen durch Rückkopplungs-Prozesse innerhalb des Klimasystems verstärkt werden, einschließlich der Änderungen der atmosphärischen Treibhausgas-Konzentrationen (Archer et al. 2000) sowie des Wachstums von Eisschilden (Clark et al. 1999). Während es Hypothesen zu den Details dieser Rückkopplungen im Überfluss gibt, ist keine davon ohne Kritiker, und wir können noch nicht behaupten zu wissen, wie das System Erde das Klima erzeugte, das wir in zahlreichen Proxys wiederfinden. Das ist von mehr als nur akademischem Interesse: ein volles Verständnis des Kohlenstoffzyklus‘ während eines Eiszeitzyklus‘ oder Details darüber, wie sich der Meeresspiegel im Zuge des Wachsens und Schrumpfens von Eisschilden lokal verändert, wären sehr nützlich bei der genauen Vorhersage zukünftiger Auswirkungen der anthropogenen CO2-Emissionen auf das Klima, können wir doch erwarten, dass viele der gleichen fundamentalen Rückkopplungen in beiden Szenarios stattfinden.

Der Jahrtausende lange Zeitskala bei der Modellierung auch nur eines einzigen Eiszeitzyklus’ ist eine enorme Herausforderung für umfassende Modelle des Erdsystems, die auf gekoppelten Atmosphäre-Ozean-Modellen beruhen (AOGCMs). Wegen der begrenzten Rechenkapazität sind AOGCMs normalerweise auf Läufe über höchstens ein paar hundert Jahre limitiert, und deren Verwendung in paläoklimatischen Studien war allgemein kurz, sozusagen ein „Schnappschuss“ aus einem speziell interessierenden Zeitabschnitt.

Kurzzeitige Simulationen glazialer Zyklen wurden bislang nur mit Modellen durchgeführt, bei denen wichtige Klimaprozesse wie Wolken oder Feuchtetransporte in der Atmosphäre nur sehr grob parametrisiert sind oder ganz außen vor gelassen wurden. Die starken Beschränkungen hinsichtlich der Rückkopplungen in solchen Modellen zeigen auch dem, was wir über die Entwicklung des Klimas daraus lernen können, Grenzen auf, vor allem in paläoklimatischen Zuständen, die sich signifikant von den besser verstandenen heutigen Zuständen unterscheiden, die die Modelle eigentlich reproduzieren sollen. Die Simulation vergangener Klimazustände in den AOGCMs und der Vergleich derselben mit auf Proxys beruhenden Klimarekonstruktionen erlauben es ebenfalls, die Sensitivität der Modelle bzgl. Klima-Antrieben zu testen, um Vertrauen in deren Vorhersagen des zukünftigen Klimas zu gewinnen.

Ihr Modell:

Für diese Simulationen haben wir den FAMOUS benutzt (=FAst Met. Office and UK universities Simulator), eine niedrig aufgelöste Version des Hadley Centre Coupled Model (HadCM3) AOGCM. Die räumliche Auflösung im FAMOUS ist etwa halb so groß wie im HadCM3, was die Rechenkosten des Modells um einen Faktor 10 reduziert.

Ihr Plan:

Wir präsentieren hier die ersten kurzzeitigen Simulationen über den gesamten letzten Eiszeitzyklus. Wir haben den Rechenaufwand dieser Simulationen durch die Verwendung von FAMOUS reduziert. FAMOUS ist ein AOGCM mit einer relativ kleinen räumlichen Auflösung, und wir haben die Randbedingungen um einen Faktor 10 verändert, so dass 120.000 Jahre zu 12.000 Jahren werden. Wir untersuchen, wie die Einflüsse orbitaler Variationen der Sonneneinstrahlung, Treibhausgase und Eisschilde der Nordhemisphäre zusammenspielen, um die Evolution des Klimas zu beeinflussen.

Es gibt bei diesem Beschleunigungsprozess aber ein Problem. Die Ozeane reagieren in ganz anderen Zeitmaßstäben auf Änderungen in der Atmosphäre. Einige ozeanische Prozesse dauern Tausende Jahre. Ob also die Verkürzung des Zeitraumes reale Klimabedingungen erzeugen kann, bleibt fraglich.

Ihr Vorgehen:

Ziel dieser Studie ist es, das physische Klima von Atmosphäre und Ozeanen während des letzten Eiszeit-Zyklus’ zu untersuchen. Zusammen mit Änderungen der Sonneneinstrahlung infolge Variationen des Erdorbits um die Sonne betrachten wir die Eisschilde der Nordhemisphäre und Änderungen der Zusammensetzung von Treibhausgasen als externe Antriebs-Faktoren des Klimasystems, die wir als Grenzbedingungen spezifizieren, entweder getrennt oder in Kombination. Änderungen der Sonnenaktivität, das Eis in der Antarktis, die Vegetation, Meeresströme oder Schmelzwasserflüsse aus den sich bildenden Eisschilden sind in diesen Simulationen nicht enthalten. Unser experimenteller Aufbau ist daher in gewisser Weise vereinfacht, wobei bestimmte potentielle Klima-Rückkopplungen ausgeschlossen sind. Obwohl dies teilweise dazu führt, dass in dieser Version von FAMOUS bestimmte Prozesse fehlen oder nur sehr schwach modelliert werden, erlaubt es uns diese Vereinfachung, den Einfluss spezifizierter Antriebe besser zu erkennen, ebenso wie die Sicherstellung, dass sich die Simulationen eng an das reale Klima anlehnen.

Noch einmal zur Verdeutlichung der Kernpunkte dieser Modellierung:

1. Ein vollständiges GCM wird verwendet, jedoch mit reduzierter räumlicher Auflösung.

2. Die Antriebe werden um einen Faktor 10 beschleunigt im Vergleich zur Realität.

3. Zwei der eingehenden grundlegenden Antriebe sind in Wirklichkeit Rückkopplungen, die man spezifizieren muss, um das Modell zum Laufen zu bringen – das heißt, das Modell kann nicht diese beiden kritischen Rückkopplungen simulieren (CO2 und Ausdehnung der Eisschilde).

4. Es wurden 5 verschiedene Simulationen durchgeführt, um die Auswirkungen verschiedener Faktoren zu erkennen:

a) Nur orbitaler Antrieb (ORB)

b) Nur Antrieb durch Treibhausgase (GHG)

c) Nur Ausdehnung der Eisschilde (ICE)

d) Alle drei zusammen mit 2 unterschiedlichen Eisschild-Rekonstruktionen (ALL-ZH & ALL-5G – man beachte, dass ALL-ZH die gleiche Eisschild-Rekonstruktion aufweist wie ICE, während ALL-5g eine andere hat).

Die modellierten Temperaturergebnisse im Vergleich zu tatsächlichen Temperaturen für die Antarktis und Grönland (Schwarz) sehen so aus:

 

Abbildung 1: Temperaturunterschiede in vorindustrieller Zeit in der Ostantarktis (oben) und Grönland (unten). Aus Smith & Gregory 2012

Hier gibt es viele interessante Punkte.

Betrachten wir zunächst die Antarktis. Man erkennt, dass orbitale Antriebe allein sowie die Eisschilde der Nordhemisphäre allein wenig oder gar keinen Einfluss auf die Modellierung der Temperaturen in der Vergangenheit haben. Aber die Treibhausgaskonzentrationen selbst als Antrieb zeigen eine modellierte Temperatur, die etwa ähnlich der letzten 120.000 Jahre ist – unabhängig von Temperaturvariationen mit höherer Frequenz, worauf wir später noch eingehen. Fügen wir die Eisschilde der Nordhemisphäre hinzu, bekommen wir sogar eine noch größere Übereinstimmung. Ich bin überrascht, dass die Eisschilde angesichts der Menge an Sonnenstrahlung, die sie reflektieren, nicht noch größeren Einfluss haben.

Sowohl Treibhausgase als auch Eisschilde kann man in der Wirklichkeit als positive Rückkopplungen betrachten (obwohl sie in diesem Modell spezifiziert sind). Für die Südpol-Region haben die Treibhausgase einen viel stärkeren Effekt.

Schauen wir auf Grönland, erkennen wir, dass der orbitale Antrieb wieder einmal für sich allein kaum eine Auswirkung zeitigt, während Treibhausgase und Eisschilde allein ähnliche Auswirkungen haben, individuell aber weit entfernt sind vom tatsächlichen Klima. Kombiniert man alle Antriebe sehen wir eine gute Übereinstimmung mit tatsächlichen Temperaturen bei einer Rekonstruktion und eine nicht so gute Übereinstimmung bei einer anderen. Dies impliziert: Bei anderen Modellen, die versuchen, die Dynamik der Eisschilde zu simulieren (anstatt sie zu spezifizieren), kann die Genauigkeit für den Erfolg der Modellierung kritisch sein.

Wieder einmal erkennen wir, dass Temperaturvariationen höherer Frequenz überhaupt nicht gut simuliert werden, und selbst bei Variationen mit geringerer Häufigkeit – zum Beispiel von vor 110.000 bis 85.000 Jahren – fehlt eine ziemliche Menge Variabilität (in dem Modell).

Die Autoren schreiben:

Die EPICA-Daten (Antarktis) zeigen, dass die Temperatur relativ zu ihren jeweiligen längerzeitlichen Trends stärker zurückging als das CO2 während dieser Zeit (vor 120.000 bis 110.000 Jahre), aber in unseren Experimenten sinken die simulierten Antarktis-Temperaturen gleichlaufend mit CO2. Dies zeigt, dass in unserem Modell eine wichtige Rückkopplung fehlt, oder dass unser Modell vielleicht über-sensitiv hinsichtlich CO2 ist und unter-sensitiv hinsichtlich eines der anderen Antriebsfaktoren. Tests des Modells, bei denen die Antriebe nicht künstlich beschleunigt wurden, schließen die Möglichkeit aus, dass die Beschleunigung ein Faktor ist.

Abrupte Klimaänderung

Was ist mit den Temperatursignalen höherer Frequenz? Die Grönland-Daten zeigen eine viel höhere Größenordnung als die Antarktis bei dieser Frequenz, aber keine von beiden wird in den Modellen reproduziert.

Der andere auffällige Unterschied zwischen dem Modell und der NGRIP-Rekonstruktion ist das Fehlen abrupter Ereignisse mit großer Amplitude im Zeitmaßstab von Jahrhunderten, die aus Eisbohrkernen hervorgehen. Man glaubt, dass periodische Fluten von Schmelzwasser der nordhemisphärischen Eisschilde und die nachfolgende Störung ozeanischer Wärmetransporte in diese Ereignisse involviert sind (Bond et al. 1993, Blunier et al. 1998), und das Fehlen von Schmelzwasserabflüssen in unserem Modell ist möglicherweise einer der Hauptgründe, warum wir sie nicht simulieren können.

Die Autoren gehen dann noch etwas näher darauf ein, da diese Geschichte keineswegs settled ist, und kommen zu dem Ergebnis:

Alles in allem zeigt das Fehlen sowohl Jahrtausende langer Warnereignisse im Süden und abrupter Ereignisse im Norden sehr deutlich, dass in unserem Modell eine wesentliche Rückkopplung mit ziemlicher Bedeutung fehlt.


CO2-Rückkopplung

Die Prozesse, die dazu führen, dass hinreichende Mengen Kohlenstoff in den Tiefen der eiszeitlichen Ozeane abgelagert werden, um die in den Eisbohrkernen erkennbaren atmosphärischen CO2-Konzentrationen zu erzeugen, sind nicht sehr gut verstanden. Sie wurden bis heute noch nicht von einem realistischen gekoppelten Modell erfolgreich simuliert. FAMOUS, in dieser Studie verwendet, enthält ein einfaches Biogeochemie-Modell, obwohl es nicht auf die Antriebe in diesen Simulationen reagiert, eine zusätzliche Aufnahme von Kohlenstoff aufzunehmen. Eine weitere FAMOUS-Simulation mit interaktivem atmosphärischem CO2 hat keinerlei signifikante Änderungen des CO2-Gehaltes der Atmosphäre gezeitigt, wenn orbitale Variationen und wachsende Nord-Eisschilde als Antrieb wirksam waren.

Die genaue Modellierung eines Eiszeitzyklus‘ erfordert eine signifikante Zunahme unseres Verständnisses der involvierten Prozesse und nicht einfach die Einbeziehung von ein wenig mehr Komplexität in das jetzige Modell.

Schlussfolgerung

Dies ist eine sehr interessante Studie, die einige Erfolge hervorhebt, Grenzen der Rechenkapazitäten aufzeigt sowie kaum verstandene sowie fehlende Rückkopplungen in Klimamodellen. Die Tatsache, dass 120.000 Jahre Klimageschichte mit einem vollständigen GCM simuliert werden konnten, ist schön zu sehen. Das Fehlen abrupter Klimaänderungen in der Simulation, das Scheitern, die rasche Temperaturabnahme zu Beginn der Auslösung einer Eiszeit nachzuvollziehen und die fehlende Fähigkeit der Modelle, wichtige Rückkopplungen zu modellieren, zeigen alle zusammen, dass Klimamodelle, zumindest soweit es die Eiszeiten betrifft – noch in den Kinderschuhen stecken. (Das heißt nicht, dass sie nicht ausgereift sind, sondern dass das Klima ein wenig hinterhältig ist).

Anmerkung 1: FAMOUS

Die Ozean-Komponente basiert auf dem rigid-lid Cox-Bryan-Modell (Pacanowski et al. 1990) und läuft mit einer Auflösung von 2,5° Breite mal 3,75° Länge mit 20 verschiedenen Schichten. Die Atmosphäre basiert auf den primitiven Gleichungen mit einer Auflösung von 5° Breite mal 7,5° Länge mit 11 verschiedenen Schichten.

Die XDBUA-Version von FAMOUS (hiernach einfach FAMOUS genannt; siehe Smith et al. 2008) hat ein vorindustrielles Kontrollklima, das in geeigneter Weise dem von HadCM3 gleicht, obwohl FAMOUS in hohen Breiten der Nordhemisphäre im Winter eine Kalt-Verzerrung von etwa 5°C aufweist im Vergleich zu HadCM3 (gemittelt nördlich von 40°N). Als Folge wird die winterliche Eisausdehnung im Nordatlantik überschätzt.

Die globale Klimasensitivität von FAMOUS auf eine Zunahme des atmosphärischen CO2-Gehaltes jedoch ist ähnlich der von HadCM3.

Bei FAMOUS gibt es eine Reihe von Unterschieden im Vergleich zu HadCM3 mit dem Ziel, die Klimasimulation zu verbessern. So wurde zum Beispiel Island entfernt (Jones 2003), um einen stärkeren Wärmetransport im Nordatlantik zu erzielen. Smith und Gregory zeigen, dass die Sensitivität der Atlantic meridional overturning circulation (AMOC) hinsichtlich Störungen in dieser Version von FAMOUS etwa in der Mitte der Bandbreite liegt im Vergleich mit vielen anderen gekoppelten Klimamodellen. Das in dieser Studie verwendete Modell unterscheidet sich von XDBUA FAMOUS dadurch, dass zwei technische Bugs im Code festgemacht worden sind. Flüsse von latenter und fühlbarer Wärme aus dem Ozean wurden fälschlich als Teil der Kopplungs-Routine angesehen, und Schnee, der auf Meereis an Küsten fällt, ist dem Modell verloren gegangen. Die Korrektur dieser Fehler führte zu einer zusätzlichen Kalt-Verzerrung von einem Grad oder so in Küstengebieten hoher Breiten in Bezug auf XDBUA, doch gab es keine wesentlichen Änderungen der Modell-Klimatologie. Außerdem wurde die grundlegende Topographie des Festlandes in diesen Läufen aus den modernen Werten des ICE-5G-Datensatzes interpoliert (Peltier 2004). Sie unterscheidet sich in gewisser Weise von der von der US-Navy abgeleiteten Topographie in Smith et al (2008) und HadCM3.

Link: http://scienceofdoom.com/2013/12/31/ghosts-of-climates-past-part-nine-gcm-iii/

Die bisherigen Teile:

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/




Gesundheitsgefährdung durch windradgenerierten Infraschall

Es wird die die Hypothese vertreten, dass dieses Signal durch den Gleichgewichtssinn wahrgenommen und als Bedrohung  interpretiert wird, auf die der Mensch mit Aggression oder Depression reagiert. Windradgenerierter Infraschall besitzt ein ähnliches diskretes Schallspektrum wie Föhn, folglich sollte er auch die gleichen  Gesundheitsstörungen bewirken, die beim Föhn nachgewiesen wurden und die tatsächlich im Umkreis von Windkraftanlagen beklagt werden.  Daher  sollte an bewohnten Orten die windradgenerierte  Infraschallamplitude das dort bei  der gleichen  Frequenz  vorhandene Rauschniveau nicht wesentlich übersteigen.

Im Internet,  aber auch in der wissenschaftlichen Literatur /1/  findet man zahlreiche Beobachtungen, die darauf hinweisen, dass der von Windrädern ausgehende Infraschall Beschwerden wie Schlaflosigkeit, Angst, Schwindel, Kopfschmerzen, Konzentrationsschwächen, Gleichgewichtsstörungen, Übelkeit, Tinnitus, Herz- und Kreislaufprobleme bis hin zu Depressionen verursacht. Während diese Hinweise in Australien, Kanada, Niederlande, Schweden, UK und den USA ernst genommen werden und dort teilweise zur Ausweitung der Schutzzonen und zur staatlichen Initiierung  von relevanten Forschungsprogrammen geführt haben, vertreten die Behörden und  die Windenergieindustrie in  Deutschland den Standpunkt, dass  Infraschall  nicht schädlich sein könnte, da er nicht hörbar sei /2/. Auch liege die Schmerzschwelle für Infraschall so hoch, dass sie selbst am Fuße von Windradtürmen nicht überschritten werden könnte.

Als erste amtliche Stellungnahme wird häufig das Bayerische Landesamt für Umweltschutz mit der Aussage /3/ zitiert, dass  „….die im Infraschallbereich liegende Schallimmissionen weit unterhalb der Wahrnehmungsschwelle der Menschen liegen und daher zu keinen Belästigungen führen.“ Diese Aussage wurde zunächst von fast allen  anderen bundesdeutschen Umweltämtern und -ministerien übernommen, später aber doch vorsichtiger formuliert /2/ „….dass alle derzeit vorliegenden Infraschallmessungen übereinstimmend zeigen, dass der Infraschall von Windkraftanlagen auch im Nahbereich deutlich unterhalb der menschlichen Hörschwelle und damit auch deutlich unterhalb einer denkbaren Wirkschwelle liegt“. Hier hat man  Wahrnehmungsschwelle durch Hörschwelle ersetzt.  Offensichtlich wollte man nicht ganz ausschließen, dass der menschliche Organismus für Infraschall über andere Wahrnehmungsorgane verfügen könnte und dass dann durchaus eine wesentlich tiefer liegende Wirkschwelle denkbar wäre.

Diese verbleibende Denkbarkeit hat vor drei Jahren das Bundesumweltministerium veranlasst, das Bundesumweltamt mit der Erstellung einer Machbarkeitsstudie mit dem Titel „Wirkung von Infraschall, Entwicklung von Untersuchungen für die Ermittlung der Auswirkungen von Infraschall auf den Menschen durch unterschiedlichen Quellen“ zu beauftragen. Offensichtlich war die Planung der Entwicklung solcher Methoden – keineswegs bereits deren Bereitstellung und Anwendung – äußerst schwierig, denn die Studie wurde erst Anfang Juni 2014, drei Jahre nach Auftragserteilung,  veröffentlicht /4/, allerdings ohne ausdrückliche Distanzierung von den zuvor geäußerten falschen Auffassungen. Schwierig ist es sicher, eine Verknüpfung extrem kleiner Druckschwankungen mit Symptomen vorwiegend psychischer Art experimentell nachzuweisen, dabei  über eine hinreichend große Anzahl von Probanden zu verfügen, um akzeptable Signifikanz zu gewährleisten, weiterhin die Verträglichkeit epidemiologischer Untersuchungen mit ärztlicher Schweigepflicht und Datenschutz zu gewährleisten und schließlich  die Auskünfte der Probanden mit der gebotenen Vorsicht zu bewerten. 

Nicht erwähnt wird in /4/, dass bereits 2003 (nach Vorarbeiten von A. Delyukov /5/) die Münchener Meteorologin Eva R. Wanka all diese Probleme auf überzeugende Weise in ihrer Diplomarbeit gelöst hat, die sie 2005 auszugsweise  mit P. Höppe veröffentlichte /6/. Sie untersuchte ein Jahr lang in einem natürlichen Experiment die Wirkung des föhngenerierten Infraschalls auf 1,8 Millionen Probanden, den Einwohnern von München und Umgebung. Dazu setzte sie die Zahl der täglichen, durch psychische Erkrankungen, Suizidversuch und Suizid bedingten Rettungsdiensteinsätze in Korrelation zu den Schwankungen des Luftdruckes im Frequenzbereich des Infraschalls. Sie konnte so mit extrem hoher Signifikanz nachweisen, dass  föhngenerierter Infraschall maximal eine Verdreifachung  dieser Einsätze bewirken kann. Damit werden frühere Beobachtungen /7/, dass Föhn zu Suizid verleitet, bestätigt. Zugleich wurde Infraschall als das Vehikel identifiziert, mit dem der Föhn auf den menschlichen Organismus einwirkt. Es erscheint kurios, dass dieser naheliegende Zusammenhang erst vor wenigen Jahren erkannt wurde, obwohl das Phänomen des Föhns, das schon den alten Römern aufgefallen war, schon seit 200 Jahren wissenschaftlich untersucht worden ist.

Obwohl nicht explizit ausgesprochen, enthält die Arbeit zwei weitere wichtige Ergebnisse. Als unabhängiger Parameter dienten nicht die beobachteten Amplituden in den einzelnen Frequenzbereichen, sondern deren Verhältnisse. Diese Verhältnisse können sich nicht ändern, wenn die Amplituden in allen Frequenzbereichen gleichmäßig ansteigen. Ein solcher gleichmäßige Anstieg in allen Frequenzbereichen ist als Zunahme eines Kontinuums zu deuten, als zunehmendes Rauschen. Somit konnte das stets vorhandene, aus natürlichen oder technischen Quellen stammende Infraschall-Rauschen den gewählten unabhängigen Parameter (die Amplitudenverhältnisse) nicht verändern und damit auch nicht den abhängigen Parameter (die Rettungsdiensteinsätze) beeinflussen. Nur bei Zunahme der Amplitude in einem einzigen Frequenzintervall ergaben sich Korrelationen zu den „Suizid“-Rettungsdiensteinsätzen.  Man ist versucht, dies als Zunahme eines schmalbandigen Signals, einer linienförmigen Schallabstrahlung (Ton) zu deuten, gegebenenfalls mit einigen Oberwellen.

Verallgemeinert lässt sich sagen, dass der menschliche Organismus  Infraschall nur dann  ignoriert, wenn dieser als Rauschen auftritt und dessen Amplitude die Schmerzgrenze nicht erreicht, ihn aber wahrnehmen kann, wenn er als schmalbandige Linie das ständig vorhandene Kontinuum überragt. Nur die Tonhaltigkeit des Infraschalls wird erkannt. Als Schwellenwert wäre dann das bei der jeweiligen Frequenz liegende Rauschniveau zu nehmen, nicht aber die Schmerzgrenze. Da zugleich der Beweis erbracht wurde, dass diese (unbewusste)  Wahrnehmung mit schwersten  psychischen Folgen für den Menschen verknüpft sein kann, sollte erst recht die selbe Ursache auch für die Klasse der leichteren psychischen Beschwerden gelten, die beim Föhn beobachtet wurden.

Es ist kein Grund ersichtlich, vorstehende Folgerungen nicht auf den Fall des windradgenerierten Infraschalls zu übertragen. Das bisherige Ausschlusskriterium, der menschliche Organismus könne Infraschall, soweit er unter der Hör-oder Schmerzschwelle liege, nicht wahrnehmen, ist falsifiziert worden. Zudem besitzt die spektrale Verteilung des  windradgenerierten  Infraschalls ebenfalls eine diskrete Komponente /8/, die natürlich nur wahrnehmbar ist, wenn sie das Rauschniveau übersteigt. Damit wird auch der oft vorgebrachte Einwand entkräftet: Warum sollte windradgenerierter Infraschall schädlich sein, wenn Infraschallrauschen, erzeugt von Fahrzeugen oder Maschinen,  dies nicht ist? Die Antwort lautet: Rauschen wird ignoriert, Signale werden wahrgenommen.

In Deutschland werden jährlich etwa 9000 Suizide gemeldet, also in München und Umgebung etwa 200 Suizide pro Jahr oder ein Suizid alle zwei Tage. Geht man von 20 Föhntagen aus, an denen im Mittel eine Verdopplung der Suizidrate vorläge, so wären dem Föhn 10 Suizide pro Jahr in München anzulasten.    

Zur guten Verständlichkeit von Sprache ist ein Signal-Rauschverhältnis größer als 10 erforderlich. Überträgt man diese Bedingung auf die Wahrnehmung des Infraschalls, so sollte in ländlichen Gegenden, für die das Hintergrundrauschen bei 1 Hz ungefähr 60 dB beträgt /8/, der Pegel des windradgenerierten Infraschalls 70 dB nicht überschreiten, andernfalls wären mit Sicherheit gesundheitsschädliche Wirkungen zu erwarten. Mit dem derzeitigen Mindestabstand von 500 m wird diese Bedingung nur von Anlagen erfüllt, deren Leistung 300 kW nicht übersteigt /8/. Für 2MW-Anlagen wäre bereits ein Abstand von 2 km erforderlich.

 Als Beispiel wird angenommen, die Standorte von 3 000 einzeln stehenden 2MW-Anlagen besäßen jeweils gerade den derzeitigen Mindestabstand von 500 m zum nächsten Wohngebäude. In diesem Falle würde die Bevölkerung einer Fläche von 36 000 km2  unter Infraschall zu leiden haben, das entspräche gerade der Einwohnerzahl von München und Umgebung, wenn man für ländliche Gegenden 50 Einwohner/km2 annimmt. Rechnet man mit 200 Betriebstagen statt mit 20 Föhntagen pro Jahr, so sollten sich 100 zusätzliche Suizide pro Jahr ergeben. Im Mittel wäre jedem dieser Windräder während einer dreißigjährigen Standzeit ein Suizid zuzuschreiben.

Dieser Aussage beruht auf der Annahme einer installierten Leistung von  6 000 000 kW und unterschätzt erheblich die bereits jetzt an Land installierte WKA-Leistung. Unterstellt man, dass der Ausbau der Windenergie im bisherigen Tempo fortschreitet und damit notwendig Flächen mit wesentlich größerer Bevölkerungsdichte beschallt werden, wäre es in wenigen Jahren nicht unrealistisch, in Deutschland dem windradgenerierten Infraschall jährlich bis zu 1ooo Suizide anzulasten. Der seit 2007 beobachtete Anstieg der Suizidrate in Deutschland steht zu dieser Aussage zumindest nicht im Widerspruch.

Zum Mechanismus der Wahrnehmung und Interpretation der Infraschallsignale  möchte ich eine Hypothese,  deren Bruchstücke vor allem im Internet zu finden sind und die die Bedeutung des Infraschalls für die Evolution unterstreicht, mit folgender Wirkungskette skizzieren:

Erzeugung von Infraschall durch die Schrittfolge eines (Fress-)Feindes,
Wahrnehmung durch das Gleichgewichtsorgan, die äußeren Haarzellen der Cochlea oder durch Barorezeptoren, Analyse mittels schmalbandiger Filter im Zentralnervensystem, Interpretation als Bedrohung, Schlaflosigkeit (richtiger: erhöhte Wachsamkeit oder Aufmerksamkeit), Fight orflight bzw. Aggression oder Depression.

Im Laufe der Evolution hat erst diese Art der Wahrnehmung vielen Fluchttieren das Überleben ermöglicht. Auch bei den nicht  wenigen Menschen, bei denen der Gleichgewichtssinn zu Fehlinterpretationen neigt, ist sie erhalten. Der Mensch kann also auf drei verschiedenen Weisen auf  Infraschall reagieren, nämlich mit Aggression, mit Depression oder mit Ignorierung. Diese  zum Teil gegensätzlichen Möglichkeiten  werden die geplanten Untersuchungen sicher nicht erleichtern.

Allgemein sollte gelten: Signale, die sich mit großem aber konstantem Zeitabstand wiederholen, interpretiert das Zentralnervensystem als Bedrohung. Diese Theorie erklärt z.B.  auch die Unerträglichkeit eines tropfenden Wasserhahnes. Dessen störende Wirkung hängt weder von der Lautstärke noch von der Wiederholfrequenz ab, sondern nur vom Signalcharakter. Es erscheint plausibel, dass das Gleiche für wetter- oder windradgeneriertem Infraschall gelten sollte. Der experimentelle Beweis sollte nicht schwierig sein. Für die Frequenzunabhängigkeit finden sich in Wankas  Arbeit weitere, hier nicht behandelte Belege.    

Selbstverständlich  verbieten sich aus ethischen Gründen Laborexperimente mit dem Ziel, Depression oder gar Suizid mit Infraschall zu bewirken.  Jedoch wäre im Schlaflabor eine Korrelation zwischen Infraschall und Schlaflosigkeit fast mühelos nachzuweisen. Abhängiger Parameter wäre die Schlaf-qualität, die mit bekannten und vorhandenen Verfahren zu quantifizieren wäre. Unabhängiger Parameter wäre einmal der Pegel von (weißem, rosa oder rotem) Infraschallrauschen, zum anderen Amplitude, Frequenz und ggf. Kohärenzlänge schmalbandigerInfraschallsignale. Das Labor müsste sich im Zentrum einer windradfreien Zone von ca. 50 km Durchmesser befinden. Die Probanden-zahlen blieben im überschaubaren Bereich, wenn zunächst nur Personen, die  wettervorfühlig sind, untersucht würden. Durch die Ruhelage der Probanden während der Untersuchungszeit wird vermieden, dass ständige vertikale Kopfbewegungen im inhomogenen Feld des Atmosphärendruckes, und sei es nur um wenige cm, als unregelmäßige Druckschwankungen wahrgenommen würden, diese wiederum würden die Nutzsignale verrauschen. 

Das Fazit lautet: Der wissenschaftliche Beweis der Gesundheitsgefährdung durch wettergenerierten Infraschall wurde durch Wankas Diplomarbeit erbracht. Solange dieser Beweis nicht experimentell widerlegt werden würde, ist konkludent von einer Gesundheitsgefährdung durch windradgenerierten Infraschall auszugehen. Daher sollte bei der Festlegung der Mindestabstände der Windkraftanlagen von Wohngebäuden berücksichtigt werden, dass der Signalcharakter und nicht die Amplitude dieses  Infraschalls das entscheidende Merkmal ist. Auch eine im Flüsterton vorgetragene Morddrohung kann wirksam sein.

/1/ Pierpont, N. Wind turbine syndrome, K-selected books (2009)

/2/ Bundesumweltminister P. Altmaier, Schreiben vom 3.8.2013 an die Umweltminister/innen der Länder, PDF

/3/ Hammerl, C. u. J. Fichtner, Langzeit-Geräuschimmissionsmessung an der 1 MW-Windenergieanlage Norde N 54 in Wiggensbach bei Kempten, Bayerisches Landesamt für Umweltschutz (2000)        

/4/ Bundesamt für Umwelt, Machbarkeitsstudie zu Wirkungen des Infraschalls, (2014), (PDF), (hier)

/5/ Delyukov, A. and L. Didyk, The effects of extra-low-frequencies atmospheric pressure oscillations on human mental activity, Int. J. Biometeor. 43, 31 – 37 (1999)

/6/ Wanka, R. and P.Höppe, Human biometeorological relevance of low frequency air pressure oscillations, MeteorologischeZeitschrift, 14, 279 – 284 (2005)

/7/ Faust, V. Biometeorologie – Der Einfluss von Wetter und Klima auf Gesunde und Kranke, Hippokrates Verlag, Stuttgart (1976)

/8/ Ceranna, L., G. Hartmann & M. Henger, Der unhörbare Lärm von Windkraftanlagen, Bundesanstalt für Geowissenschaften und Rohstoffe, PDF

Dr. Joachim Schlüter, Dipl.-Physiker, Hohlenweg 8, 79410 Badenweiler

Anhang

Wir danken Herrn Dr. Schlüter für die Überlassung seiner Unterlagen und seiner Ausarbeitung für eine Veröffentlichung bei EIKE. Herr Schlüter hat das Umweltbundesamt (UBA) angeschrieben und auf die Arbeit von Wanka/Höppe hingewiesen. Die Antwort des UBA ist hier als pdf beigefügt. Wie üblich, werden vom UBA unerwünschte Fakten oder Erkenntnisse, die seiner rotgrünen Zielsetzung widersprechen, abgewimmelt.

So einfach wird es diesmal vielleicht nicht abgehen. Es sind nämlich die beiden folgenden Punkte festzuhalten (dies insbesondere allen evtl. mitlesenden Universitäts-Neurologen ans Herz gelegt):

1) Das UBA musste in seiner Broschüre zum ersten Mal einräumen, dass das bisher stets gebrachte "Totschlagargument" – was unter der menschlichen Hörschwelle liegt, kann nicht schädlich sein – NICHT zutrifft.

2) Die Arbeit von Frau Wanka vertritt die schlüssige und daher wissenschaftlich weiter zu verfolgende Hypothese, dass nicht die Stärke des Infraschalls sondern seine HUMANBIOLOGISCHE SIGNALRELEVANZ schädigt.

Wir werden daher demnächst die Veröffentlichung von Wanka und Höppe 8 in einer EIKE-News besprechen und hoffen dabei, dass auf Grund des inzwischen hohen Bekanntheitsgrades von EIKE vielleicht der eine oder andere Neurologe an einer Universität oder einem Forschungsinstitut die bisherigen Erkenntnisse von Wanka/Höppe aufgreift und in dieser Richtung weiterforscht. Hierzu wären die Originaldaten der Diplomarbeit von Frau Wanka hilfreich, die momentan aber erwartungsgemäß "schwer" zugänglich sind. Es ist freilich kaum vorstellbar, dass diese Daten einer Universität oder einem öffentlich bestallten Forschungsinstitut vorenthalten werden können.

Der Autor des Anhangs ist kein Jurist, erlaubt sich aber dennoch alle Bürgerinitiativen gegen Windräder darauf aufmerksam zu machen, dass hier ein juristischer Hebel gegen Windradprojekte vorliegen könnte. Deutschlands Richter sehen sich zwar traditionell in ihrer Rechtsprechung veranlasst, weniger dem gesunden Menschenverstand als dem oft hoffnungslos idiotischen Zeitgeist der Deutschen zu folgen (die Historie liefert ausreichend Material), aber man darf den Kampf gegen den Windrad-Wahn als neuester deutscher Idiotie dennoch nicht aufgeben. Unsere Naturumgebung sollte es uns wert sein. Alle gesetzlich zulässigen Mittel sind dabei auszuschöpfen. Zumindest kann man aber denjenigen Parteien beim nächsten Urnengang einen Denkzettel verpassen, denen 10 tote Fledermäuse Anlass sind, ein Bauprojekt zu torpedieren, die dagegen 100.000 von einem Windrad getötete Fledermäuse für ihre ideologischen Träume tolerieren.

Prof. Dr. Horst-Joachim Lüdecke

EIKE-Pressesprecher

Stellungnahme von Dr. Schlüter zu den Leserkommentaren

Ich möchte #2 Greg House etwas in Schutz nehmen. Seine Behauptung, ein Deckenventilator wirke beruhigend, ist richtig, soweit dieser, sehr gut ausgewuchtet, unter einer glatten Decke montiert ist. Dann erzeugt  er nur  Rauschen und  ist  unschädlich, eventuell sogar nützlich, da, wie #6 Christian Wetzel zutreffend feststellt, ein Rauschgenerator die Tonhaltigkeit  maskieren kann. Nur wenn die Axialsymmetrie der an- bzw. abströmenden Luft gestört ist, entsteht ein dissonanter Klang dessen Grundfrequenz  dem Produkt aus Umdrehungs- und Flügelzahl entspricht. Erst dieser tiefe Klang wirkt sehr belästigend. Dies kann man mühelos mit einem schnelllaufenden  Axialgebläse demonstrieren.

Zur Visualisierung verweise ich auf Abb. 3  in der  Arbeit von Ceranna et al. (s.o./8/). Das dort bei 1 Hz beginnende Linienspektrum hat seine Ursache in den Passagen der Windradflügel am Turmschaft vorbei, die offensichtlich zu einer Störung der Axialsymmetrie der Luftströmung führen. Man beachte, dass zumindest bis zu Windgeschwindgkeiten von 5 m/s ein windradgeneriertes Rauschen in dem dargestellten Frequenzbereich nicht erkennbar ist. Das Zentralnervensystem registriert nur die Linien als Signal und (fehl-)interpretiert dieses als Bedrohung. Rauschen, dargestellt durch die Basiskurven, wird ignoriert.

Der in einigen Kommentaren vertretenen Annahme, die Wahrnehmbarkeit von Infraschall durch den menschlichen Organismus beruhe auf Resonanzabsorption beiEigenfrequenzen der Zellen, kann ich  nicht zustimmen. Zum einen müsste ein (wie Klaviersaiten) abgestimmter Satz von Resonatoren  zur Verfügung stehen, der den Frequenzbereich 0,001 bis 5 Hz lückenlos abdecken könnte, zum anderen sind mir (und mir bekannten Biophysikern)  physikalische Modelle, die solche schwingfähige Systeme auf zellulärer Basis beschreiben, nicht bekannt. Auch im Hörbereich werden Resonanztheorien verworfen.

Ergänzend möchte ich bemerken, dass die von mir oben vertretenen Auffassungen verträglich  zu den Ergebnissen sind,  die das Bundesumweltamt in der ebenfalls im Juni 2014 veröffentlichten Machbarkeitsstudie (s.o. /4 /) dokumentiert hat. Darin wird die wissenschaftstheoretisch sowieso unhaltbare Aussage, Infraschall sei unschädlich, da unhörbar, nicht mehr vertreten (noch im April tat dies der baden- württembergische Umweltminister vor dem Stuttgarter Landtag), vielmehr wird die Wahrnehmbarkeit des Infraschalls bis 75 dB herab experimentell belegt. Auch sei es vor allem die Ton- oder Impulshaltigkeit und der Modulationsgrad tiefer Geräusche (auch der in #21 erwähnte Begriff Fluktuierender Schall  fällt unter diese Kategorie), die belästigen – exakt mein Standpunkt. Weiterhin wird angemerkt, dass die Reichweite windradgenerierten Infraschalls wesentlich größer als der prognostizierte Wert bei Annahme einer kugelsymmetrischer Ausbreitung  sein kann. Insgesamt vollzieht das BUA damit eine sensationelle Kehrtwende. Mir fehlt allerdings ein 10-semestriges Studium der Soziologie, um die im letzten Absatz der Machbarkeitsstudie gegebene Begründung zu verstehen, warum es trotzdem nicht nötig sei, die Mindestabstände der Windräder von Wohngebäuden zu vergrößern.

Joachim Schlüter

Related Files




Das Rätsel der Eiszeiten, Teil 8, Global Circulation Models II

scienceofdoom

In Teil VII haben wir eine Reihe von Studien aus den Jahren 1989 bis 1994 betrachtet. Diese haben versucht, mittels GCMs eine „Eiszeit beginnen zu lassen“. Die Entwicklung der „voranschreitenden Klimawissenschaft“ war dabei folgende:

1. Hinweise zu finden, dass das Timing des Beginns einer Eiszeit verbunden war mit der Umverteilung solarer Einstrahlung infolge orbitaler Änderungen – möglicherweise mit einer reduzierten sommerlichen Einstrahlung in hohen Breiten (Hays et al. 1976 – siehe Teil III).

2. Die Verwendung einfacher Energiebilanz-Modelle, um zu zeigen, dass hinter den plausiblen Überlegungen auch etwas Physik steckt (In Teil VI – Gewimmel von Hypothesen haben wir einige plausible Ideen kennengelernt).

3. Verwendung eines GCM (global circulation model) mit Anfangsbedingungen wie sie vor etwa 115.000 Jahren vorlagen, um zu sehen, ob man eine „nicht mehr verschwindenden Schneedecke“ in hohen Breiten erhält, die zuvor während der letzten Zwischeneiszeit nicht schneebedeckt waren – d. h. können wir eine neue Eiszeit beginnen lassen?

Warum brauchen wir ein komplexeres Modell, wenn doch schon ein Energiebilanzmodell „funktioniert“, d. h. eine andauernde Schneedecke erzeugen kann, um eine neue Eiszeit beginnen zu lassen? Wie Rind et al. 1989 in ihrer Studie schreiben:

Verschiedene Energiebilanz-Klimamodelle wurden verwendet, um abzuschätzen, wie groß die Abkühlung im Zuge veränderter orbitaler Parameter wäre. Mit einer geeigneten Anpassung der Parameter, von denen einige aufgrund von Beobachtungen gerechtfertigt sind, kann man die Modelle dazu bringen, die großen eiszeitlichen/zwischeneiszeitlichen Klimaänderungen zu simulieren. Allerdings rechnen diese Modelle nicht mit den Prinzipien all der verschiedenen Einflüsse auf die Lufttemperatur, die wir oben beschrieben haben, und sie enthalten auch keinen hydrologischen Zyklus, welcher es gestatten würde, eine Schneedecke entstehen oder sich ausweiten zu lassen. Die tatsächlichen Prozesse, die es einer Schneedecke gestatten, auch im Sommer bestehen zu bleiben, werden komplexe hydrologische und thermische Einflüsse enthalten, für welche einfache Modelle lediglich grobe Annäherungen bieten können.

Interessanterweise hat also der Schwenk zu komplexeren Modellen mit besser aufgelöster Physik gezeigt, dass es hinsichtlich des Beginns einer Eiszeit in Klimamodellen Probleme gibt. Das waren aber auch noch frühe GCMs mit begrenzter Rechenleistung. In diesem Artikel wollen wir die Ergebnisse von etwa einem Jahrzehnt später betrachten.

Überblick

Wir beginnen mit zwei Studien, die exzellente Überblicke des „Problems bis hier“ enthalten. Eine stammt von Yoshimori et al. (2002) und die andere von Vettori & Peltier (2004). Zu Ersterer:

Eine der fundamentalen und herausfordernden Dinge bei der Modellierung des Paläoklimas ist das Scheitern, den Beginn der letzten Eiszeit zu erfassen (Rind et al. 1989). In einem Zeitraum von vor 118.000 und 110.000 Jahren sank der Meeresspiegel rapide um 50 bis 80 Meter, verglichen mit der letzten Zwischeneiszeit, in der der Meeresspiegel nur 3 bis 5 Meter höher lag als heute. Dieses Absinken des Meeresspiegels macht etwa die Hälfte des letzten eiszeitlichen Maximums aus. Und der Beginn der letzten Vereisung bietet einen von nur wenigen wertvollen Testbereichen zur Validierung von Klimamodellen, vor allem der atmospheric general circulation models (AGCMs). Hierzu wurden viele Studien durchgeführt.

Phillipps & Held (1994) sowie Gallimore & Kutzbach (1995) haben eine Reihe von numerischen Sensitivitäts-Experimenten im Hinblick auf orbitale Parameter durchgeführt, indem sie mehrere extreme orbitale Konfigurationen durchspielten. Darunter befand sich ein Fall mit geringerer Neigung und kleinerem Perihel im Winter der Nordhemisphäre, was zu einem kühleren Sommer führte. Beide Studien kamen zum gleichen Ergebnis: Obwohl eine kühle sommerliche orbitale Konfiguration die besten Bedingungen für die Entwicklung permanenten Schnees und die Ausdehnung von Gletschern bietet, kann der orbitale Antrieb allein nicht für die permanente Schneebedeckung in Nordamerika und Europa verantwortlich sein.

Dieses Ergebnis wurde von Mitchell (1993), Schlesinger & Verbitsky (1996) sowie Vavrus (1999) bestätigt. Schlesinger & Verbitsky (1996) haben ein Eisschild – Asthenosphäre*-Modell mit einem AGCM-Output integriert und herausgefunden, dass eine Kombination von orbitalem Antrieb und Treibhaus-Antrieb durch reduziertes CO2 und CH4 ausreichend waren, um Zentren von Eisschilden in Nordeuropa und Amerika zu erhalten. Allerdings betrug das simulierte Eisvolumen nur etwa 31% der aus den Proxy-Werten abgeleiteten Schätzung.

[*Asthenosphäre: (griech.: asthenia = Schwäche). Die zwischen 100-200km
mächtige "schwache" oder "weiche" Zone der Erde im Oberen Erdmantel
unterhalb der Litosphäre. Mehr dazu siehe hier]

Mittels eines höher auflösenden Modells haben Dong & Valdes (1995) das Wachstum permanenter Schneedecken unter einer Kombination orbitaler und CO2-Antriebe simuliert. Ebenso wie in der Auflösung ihres Modells bestand ein weiterer wichtiger Unterschied zwischen ihrem Modell und anderen in Gestalt einer „umgebenden Orographie“ (d. h. sie haben mit der Höhe des Landes herumgespielt). Sie fanden dabei heraus, dass die Änderungen der Wassertemperatur infolge orbitaler Einflüsse eine sehr wichtige Rolle bei der Entstehung der Eisschilde in Nordamerika und Fennoskandien spielten.

Anmerkung zum letzten Abschnitt: es ist wichtig zu verstehen, dass diese Studien mit einem Atmosphäre-GCM durchgeführt worden sind und nicht mit einem Atmosphäre-Ozean-GCM – d. h. mit einem Modell der Atmosphäre mit einigen vorgegebenen Wassertemperaturen (diese könnten aus einem separaten Lauf eines einfacheren Modells stammen oder aus Werten, die aus Proxys berechnet wurden). Die Autoren kommentieren dann den potentiellen Einfluss auf die Vegetation wie folgt:

Die Rolle der Vegetation am Beginn einer Vereisung wurde von Gallimore & Kutzbach (1996), de Noblet et al. (1996) sowie Pollard und Thompson (1997) untersucht. Gallimore & Kutzbach integrierten ein AGCM mit einem Mixed Layer Ozean-Modell mit fünf verschiedenen Antrieben: 1) Kontrolle, 2) orbital, 3) Punkt 2 plus CO2, 4) Punkt 3 plus Ausdehnung der Tundra um 25% (basierend auf einer Studie von Harrison et al. (1995) und 5) Punkt 4 plus eine weitere Ausdehnung der Tundra um 25%. Dem Effekt der Ausdehnung der Tundra durch ein vegetation-snow masking feedback näherte man sich durch Zunahme des Anteils der Schneebedeckung. Und nur im letzten Fall konnte man eine andauernde Schneedecke sehen.

Pollard & Thompson (1997) führten ebenfalls ein interaktives Vegetations- und AGCM-Experiment durch sowohl mit orbitalem als auch mit CO2-Antrieb. Außerdem integrierten sie ein dynamisches Eisschilde-Modell. Sie integrierten weiterhin ein Eisflächen-Modell über 10.000 Jahre. Darin gingen die die Massenbilanz ein, welche vom AGCM-Ergebnis abgeleitet wurde. Dies wiederum erfolgte mit einem Vielschichten-Eisschild-Oberflächen-Säulen-Modell auf dem Gitternetz des dynamischen Eisflächen-Modells, welches den Effekt von gefrierendem Regen und Schmelzwasser beinhaltete. Obwohl ihr Modell das Wachstum eines Eisschildes über der Baffin-Insel und dem kanadischen Archipel vorhersagte, sagte es auch eine viel schnellere Wachstumsrate in Nordwestkanada und Alaska voraus. Keine dauerhafte Schneedecke fand sich in Keewatin oder Labrador (d. h. an den falschen Stellen). Außerdem war die Rate der Zunahme des Eisvolumens über Nordamerika um eine Größenordnung niedriger als aus Proxys geschätzt.

Sie schließen daraus:

Es ist schwierig, die Ergebnisse dieser früheren Studien zu synthetisieren, weil jedes Modell unterschiedliche Parametrisierungen ungelöster physikalischer Prozesse verwendet hat, unterschiedliche Auflösung hatte und auch noch unterschiedliche Kontroll-Klimate ebenso wie das experimentelle Design.

Zusammenfassend stellen sie fest: die Ergebnisse bis heute zeigen, dass weder orbitale Antriebe allein noch CO2 allein den Beginn einer Vereisung erklären können. Ferner sind die kombinierten Auswirkungen nicht konsistent. Die Schwierigkeit besteht in der Frage, ob dies auf die unzureichende Gitter-Auflösung des Modells oder auf Rückkopplungen aus der Biosphäre (Vegetation) zurückzuführen ist.

Ein paar Jahre später gaben dann Vettoretti & Peltier (2004) eine gute Übersicht zu Beginn ihrer Studie:

Ursprüngliche Versuche, ein größeres Verständnis der Natur von Eiszeit-Zwischeneiszeit-Zyklen zu erhalten, involvierten Studien, die auf einfachen Energiebilanz-Modellen (EBMs) basierten, die direkt auf die Simulation einer andauernden Schneedecke ausgerichtet waren unter Einfluss von angemessen modifizierten orbitalen Antrieben (z. B. Suarez und Held 1979). inzwischen wurden Analysen entwickelt, dass die gegenwärtig gebräuchlichen Modelle des Klimasystems explizit die Kopplung von Eisschilden zu den EBM enthalten müssen oder an vollständigere AGCMs der Atmosphäre ankoppeln sollen.

Die zuletzt entwickelten Modelle des vollständigen Zyklus’ über 100.000 Jahre haben sich bis zu einem Punkt entwickelt, an dem drei Modellkomponenten miteinander verbunden worden sind. Einmal ein EBM der Atmosphäre unter Einschluss der Eis-Albedo-Rückkopplung sowohl von Schnee an Land als auch Eis auf dem Meer, ein Modell der globalen Glaziologie, in dem die Eisschilde zum Wachsen und Schrumpfen gebracht werden durch meteorologisch gesteuerte Änderungen in der Massenbilanz und ein Modell der glazialen isostatischen Justierung, durch welchen Prozess die Höhe des Eisschildes unterdrückt oder erhöht  werden kann, abhängig davon, ob Akkumulation oder Abtragung dominant ist.

Derartige Modelle wurden auch verwendet, um die Schlüsselrolle zu untersuchen, die Variationen des atmosphärischen Kohlendioxids im 100.000-Jahres-Zyklus spielen, vor allem beim Übergang aus einem eiszeitlichen Zustand (Tarasov und Peltier 1997, Shackleton 2000). Da diese Modelle hinsichtlich der Computerressourcen ziemlich effizient sind, die man hier braucht, sind sie in der Lage, die große Zahl von Eiszeit/Zwischeneiszeit-Zyklen zu simulieren. Dies ist erforderlich, um die Modell-Sensitivitäten zu verstehen.

Es gab innerhalb der modellierenden Zunft eine Bewegung, auch Modelle zu benutzen, die derzeit als earth models of intermediate complexity (EMICs) bezeichnet werden und die Sub-Komponenten enthalten, die nicht so raffiniert sind im Vergleich zu den gleichen Komponenten in modernen globalen Klimamodellen (GCMs). Diese EMICs versuchen, Repräsentationen der meisten Komponenten im realen System Erde einzuschließen, darunter die Atmosphäre, die Ozeane, die Cryosphäre und die Biosphäre bzw. der Kohlenstoffzyklus (z. B. Claussen 2002). Derartige Modelle haben nützliche Einsichten in die langzeitliche Klima-Variabilität geliefert und werden das auch weiterhin tun, indem sie es ermöglichen, eine große Zahl von Sensitivitäts-Studien durchzuführen. Damit soll die Rolle zahlreicher Rückkopplungs-Mechanismen untersucht werden, die aus der Wechselwirkung zwischen den Komponenten resultieren, die das Klimasystem ausmachen (z. B. Khodri et al. 2003).

Dann kommentieren die Autoren die gleichen Studien und Themen, die von Yoshimori et al. behandelt worden sind und fügen ihre eigene Studie aus dem Jahr 2003 sowie eine weitere Studie hinzu. Zu ihrer eigenen Forschung schreiben sie:

Vettoretti und Peltier (2003a) haben in jüngerer Zeit gezeigt, dass es einer neu kalibrierten Version des CCCma AGCM2 zu einer permanenten Schneebedeckung allein als Konsequenz orbitaler Antriebe kommt, wenn die atmosphärische CO2-Konzentration auf einem Niveau entsprechend der vorindustriellen Zeit fest gehalten wird. Diese erhält man durch Messungen der Luftbläschen, die im Vostok-Eisbohrkern eingeschlossen waren (Petit et al. 1999).

 Die AGCM-Simulation zeigte, dass sich eine permanente Schneedecke in hohen nördlichen Breiten bildet ohne die Notwendigkeit der Berücksichtigung irgendwelcher Rückkopplungen durch Vegetation oder anderer Effekte. In dieser Arbeit wurde der Prozess des Beginns der Vereisung analysiert, und zwar mit drei Modellen, die drei verschiedene Kontrollklimata enthalten. Das waren jeweils das CCCma cold biased Modell, ein neu konfiguriertes Modell, das so modifiziert wurde, dass es "unbiased" aussieht, und ein Modell dass zur Wärme hin "gebiased" war hinsichtlich des modernen Satzes von AMIP2-Wassertemperaturen (Anmerkung: Bias = Tendenz, Verzerrung, Voreingenommenheit). Vettoretti und Peltier (2003b) zeigten eine Anzahl neuer Feedback-Mechanismen, die für die Ausweitung einer permanenten Schneebedeckung wichtig sind.

Im Einzelnen zeigte diese Arbeit, dass allmählich kälter werdende Klimata den Feuchtetransport in Regionen zunehmen ließen, die für den Beginn einer Vereisung empfänglich sind, und zwar durch verstärkte barokline Wirbelaktivität in mittleren und hohen Breiten. Um dieses Phänomen quantitativ abzuschätzen, wurde eine detaillierte Untersuchung zu Änderungen der Feuchtigkeits-Balance-Gleichung unter orbitalen Antrieben bzgl. der arktischen Eiskappe vor 116.000 Jahren durchgeführt. Ebenso wie die Aktivität einer „cryosphärischen Feuchtepumpe“ zu zeigen, schlugen die Autoren auch vor, dass die zonale Asymmetrie beim Beginn des Prozesses in hohen Breiten geologischen Beobachtungen zufolge eine Konsequenz zonal heterogener Zu- und Abnahmen des nordwärts gerichteten Transportes von Wärme und Feuchtigkeit ist.

Und sie fahren fort, andere Studien zu beleuchten, deren Betonung auf polwärts gerichteten Transporten von Feuchtigkeit liegt. Wir wollen jetzt einige Arbeiten aus jener Periode vorstellen.

Neuere Arbeiten mit GCMs

Yoshimori et al. 2002: Deren Modelle waren ein AGCM (atmosphärisches GCM) mit orbitalen Bedingungen vor 116.000 Jahren sowie Wassertemperaturen a) heute und b) vor 116.000 Jahren. Außerdem ein anderer Modelllauf mit obigen Bedingungen und veränderter Vegetation basierend auf der Temperatur (liegt die Sommertemperatur unter -5°C, wird der Vegetationstyp zu Tundra geändert). Weil ein „vollständig gekoppeltes“ GCM (Atmosphäre und Ozean) über einen langen Zeitraum zu viel Rechenleistung erforderte, wurde ein Kompromiss gewählt.

Die Wassertemperaturen wurden berechnet mittels eines mittelkomplexen Modells, einem einfachen atmosphärischen Modell und einem vollständigen Ozean-Modell (einschließlich Meereis) – und mit einem Modelllauf über 2000 Jahre (Ozeane haben viel thermisches Beharrungsvermögen). Die Details hierzu werden in Abschnitt 2.1 ihrer Studie beschrieben. Der Gedanke dahinter ist, Oberflächen-Wassertemperaturen (SST) zu erhalten, die mit Ozean und Atmosphäre konsistent sind.

Die Wassertemperaturen werden dann als Randwertbedingungen benutzt für einen „ordentlichen“ GCM-Lauf über 10 Jahre – dies wird in Abschnitt 2.2 ihrer Studie beschrieben. Die Einstrahlungs-Anomalie (insulation anomaly) mit Bezug zum heutigen Tag:

Abbildung 1. Einstrahlungs-Anomalie vor 116.000 Jahren relativ zu heute (nach Phillipps und Held 1994). Die Bezeichnungen VE, SS, AE und WS stehen für Frühjahrs-Tag-und-Nacht-Gleiche, Sommersonnenwende, Herbst-Tag-und-Nacht-Gleiche sowie Wintersonnenwende auf der Nordhemisphäre. Das Intervall der Isolinien beträgt 5 W/m², und negative Werte sind gepunktet.

Sie geben für die Zeit vor 116.000 Jahren eine CO2-Konzentration von 240 ppm vor, ist dies doch „das niedrigst mögliche äquivalente CO2-Niveau“ (eine Kombination von CO2- und CH4-Antrieben). Dies gleicht einer Reduktion des Strahlungsantriebs um 2,2 W/m². Die vom ursprünglichen Modell berechneten Wassertemperaturen sind global um 1,1°C niedriger, verglichen mit den heutigen modellierten Werten. Dies liegt nicht an der Strahlungs-Anomalie, die die Sonnenenergie lediglich „umverteilt“, sondern an der geringeren atmosphärischen CO2-Konzentration. Die Wassertemperatur vor 116.000 Jahren im Nordatlantik lag um etwa 6°C niedriger. Dies ist dem niedrigen Einstrahlungswert im Sommer plus einer Reduktion im MOC geschuldet. Die Ergebnisse ihrer Arbeit:

● Mit heutigen Werten der Wassertemperatur sowie orbitalen und CO2-Werten von vor 116.000 Jahren gibt es eine kleine Ausdehnung der permanenten Schneebedeckung.

● Mit berechneten Werten der Wassertemperatur, orbitalen und CO2-Werten, alle vor 116.000 Jahren, ergibt sich eine große Ausdehnung permanenter Schneebedeckung in Nord-Alaska, Ostkanada und einigen anderen Gebieten.

● Mit hinzugefügten Änderungen der Vegetation (Tundra) breitet sich die permanente Schneebedeckung nördlich von 60° noch weiter aus

Sie kommentieren, gestützt durch Graphiken, dass eine größere Schneebedeckung teils durch geringere Schneeschmelze, aber auch teils durch stärkeren Schneefall entstehen kann. Dies ist selbst dann der Fall, wenn kältere Temperaturen im Allgemeinen für weniger Niederschlag sprechen.

Im Gegensatz zu früheren Eiszeit-Hypothesen zeigen unsere Ergebnisse, dass die Erfassung des Beginns einer Vereisung vor 116.000 Jahren „kühlere“ Wassertemperaturen erfordert als sie heute vorhanden sind. Auch zeigt der große Einfluss von Änderungen der Vegetation auf das Klima, dass die Einbeziehung der Vegetations-Rückkopplung wichtig ist für die Modell-Validierung, zumindest in diesem speziellen Zeitraum der Erdgeschichte.

Was wir nicht herausfanden ist, warum ihr Modell permanente Schneebedeckung erzeugt (selbst ohne Änderungen der Vegetation), wo frühere derartige Versuche das nicht gezeigt haben. Was nicht erwähnt worden zu sein scheint ist, dass zu den notwendigen Bedingungen kältere Wassertemperaturen gehören, induziert durch einen viel geringeren atmosphärischen CO2-Gehalt. Ohne den niedrigeren CO2-Gehalt kann dieses Modell keine Eiszeit beginnen lassen. Zusätzlich sagen Vettoretti & Peltier 2004 zu dieser Studie:

Die Bedeutung dieser Ergebnisse bleibt jedoch abzuwarten, da das ursprüngliche CCCma AGCM2-Modell in hohen Breiten hin zu kälteren Temperaturen "gebiased" und empfindlich auf den niedrigen CO2-Wer istt, der den Simulationen zugrunde liegt.

Vettoretti & Peltier 2003

Auf diese Studie beziehen sie sich in ihrer eigenen Arbeit von 2004. Diese Simulation zeigt, dass der Eintritt in eiszeitliche Bedingungen vor 116.000 Jahren nur die Einführung orbitaler Einstrahlung der Nach-Eemian-Zeit und standardmäßige vorindustrielle CO2-Werte erfordert.

Im folgenden Bild sind die jahreszeitlichen und breitenabhängigen Variationen der solaren Einstrahlung an der Obergrenze der Atmosphäre TOA im Vergleich von vor 116.000 Jahren und heute gezeigt:

 

Abbildung 2: (a) Eine Zeitreihe der Exzentrizität, der Neigung, der Präzession und der Einstrahlungs-Anomalie an der Obergrenze der Atmosphäre vom vorletzten Abschmelzen bis zum Beginn der neuen Vereisung in der Nach-Eemian-Zeit [ein Zeitraum von 35.000 Jahren]. Der Punkt, an dem die Bedingungen für den Beginn einer Vereisung am günstigsten sind, wird durch die Linie mit der Bezeichnung GI gekennzeichnet. Die Einstrahlungskurve (linke vertikale Achse) misst die Gesamt-Energieanomalie im Vergleich zu heute (Einheit 10↑23 J), und zwar über der arktischen Eiskappe im Sommer. Die Orbital-Parameter für jedes der drei orbitalen Elemente sind auf der rechten vertikalen Achse aufgetragen. (b) Ein Hovmöller-Diagramm der Einstrahlungs-Anomalie (W/m²) an der Oberfläche für den jährlichen Zyklus vor 116.000 Jahren.

Aus Vettoretti & Peltier 2003

Kernpunkt ihres Modelltests war: sie nahmen ein atmosphärisches GCM gekoppelt mit festgesetzten Werten der Wassertemperatur – für drei verschiedene Datensätze – mit orbitalen und Treibhausgas-Bedingungen von vor 116.000 Jahren. Damit wollten sie herausfinden, ob sich eine permanente Schneebedeckung ergibt und wo:

Die drei Experimente der Zeit vor 116.000 Jahren zeigten, dass der Beginn einer Vereisung in zwei der drei Simulationen mit diesem Modell erfolgreich war. Das "warm-bias" Experiment erzeugte keine permanente Schneebedeckung in der Arktis außer im zentralen Grönland.

Das "kalt-bias" Experiment erzeugte in weiten Gebieten der Arktis nördlich von 60°N eine permanente Schneebedeckung. Starke Akkumulationen zeigten sich im kanadischen Archipel sowie in Ost- und Zentralsibirien. Die Akkumulation in Ostsibirien scheint exzessiv zu sein, da es kaum Beweise gibt, dass Ostsibirien jemals in einen Eiszeitzustand gelangte. Die Verteilung der Akkumulation in diesem Gebiet ist möglicherweise das Ergebnis exzessiver Niederschläge in der modernen Simulation.

Sie kommentieren weiter:

Alle drei Simulationen sind charakterisiert durch exzessive Sommerniederschläge über den meisten polaren Landgebieten. Ebenso zeigt ein Plot des jährlichen Mittleren Niederschlags in dieser Region des Globus‘, dass das CCCma-Modell im Gebiet der Arktis allgemein "nass-bias" ist. Früher wurden bereits gezeigt, dass das CCCma GCMII-Modell ebenfalls einen hydrologischen Zyklus hat, der stärker ist als beobachtet (Vettoretti et al. 2000b).

Es ist unklar, wie stark die Modell-Bias des exzessiven Niederschlags auch ihr Ergebnis der Schnee-Akkumulation in den „richtigen“ Gebieten beeinflusst. Im Teil II ihrer Studie graben sie sich in Details der Änderungen von Verdunstung, Niederschlag und Feuchtetransport in das arktische Gebiet.

Crucifix & Loutre 2002

Diese Studie (und die Folgende) verwendete ein EMIC – ein intermediate complexity model – welches ein Modell mit einer gröberen Auflösung und einfacherer Parametrisierung ist und deshalb auch viel schneller rechnet. Das erlaubt die Durchführung vieler unterschiedlicher Simulationen über viel längere Zeiträume, als es mit einem GCM möglich ist. Die EMICs sind auch in der Lage, Biosphäre, Ozean, Eisschilde und Atmosphäre zu koppeln – während den GCM-Läufen nur ein atmosphärisches GCM mit einer bestimmten Methode der Festsetzung von Wassertemperaturen zugrunde lag.  

In dieser Studie geht es um die Klimaänderung in den hohen nördlichen Breiten während der letzten Zwischeneiszeit (von vor 126.000 Jahren bis vor 115.000 Jahren) unter Verwendung des earth system model of intermediate complexity ‘‘MoBidiC’’.

Zwei Reihen von Sensitivitäts-Experimenten wurden durchgeführt, um a) die jeweilige Rolle unterschiedlicher Rückkopplungen im Modell und b) die jeweiligen Auswirkungen von Neigung und Präzession zu bestimmen. MoBidiC enthält Repräsentationen der atmosphärischen Dynamik, der Ozean-Dynamik, Meereis und Vegetation. Eine Gesamtzahl von zehn numerischen Experimenten wird hier gezeigt. Das Modell simuliert wichtige Umweltänderungen in hohen nördlichen Breiten vor dem Beginn der letzten Vereisung, d. h.: a) eine mittlere jährliche Abkühlung um 5°C hauptsächlich im Zeitraum von vor 122.000 und 120.000 Jahren; b) eine Südverlagerung der nördlichen Baumgrenze um 14 Breitengrade; c) Akkumulation einer permanenten Schneedecke mit Beginn vor etwa 122.000 Jahren und d) ein graduelles Auftauchen von permanentem Meereis in der Arktis.

Die Reaktion der borealen Vegetation ist ein ernsthafter Kandidat, um den orbitalen Antrieb signifikant zu verstärken und den Beginn einer Vereisung auszulösen. Das Grundkonzept ist, dass in einem großen Gebiet ein Schneefeld eine viel höhere Albedo zeitigt als Gras oder Tundra (etwa 0,8) oder Wald (0,4).

Es muss angemerkt werden, dass die planetare Albedo auch bestimmt wird durch den Reflexionsgrad der Atmosphäre und im Besonderen durch die Wolkenbedeckung. Allerdings ist trotz der  im MoBidiC geforderten Wolken die Oberflächen-Albedo definitiv der Haupttreiber planetarer Albedo-Änderungen.*

In ihrer Zusammenfassung schreiben sie:

In hohen Breiten simuliert MoBidiC eine jährliche mittlere Abkühlung von 5°C über den Kontinenten und eine Abnahme von 0,3°C der Wassertemperatur. Die Abkühlung ist hauptsächlich verbunden mit einer Abnahme der kurzwelligen Strahlungsbilanz an der Obergrenze der Atmosphäre um 18 W/m², teils kompensiert durch eine Zunahme von 15 W/m² in der atmosphärischen meridionalen Wärmetransport-Divergenz.

Die Änderungen werden hauptsächlich durch astronomische Antriebe ausgelöst, aber durch Meereis, Schnee und Rückkopplungen der Albedo durch Vegetation fast vervierfacht. Die Effizienz dieser Rückkopplungen wird verstärkt durch Synergien, die zwischen ihnen stattfinden. Die kritischste Synergie involviert Schnee und Vegetation und führt zu dauerhaftem Schnee nördlich von 60°N, beginnend vor 122.000 Jahren. Die Temperatur-Albedo-Rückkopplung ist auch verantwortlich für eine Beschleunigung des Abkühlungstrends in der Zeit von vor 122.000 Jahren bis vor 120.000 Jahren. Diese Beschleunigung wird nur nördlich von 60°N simuliert und fehlt in niedrigeren Breiten.

Siehe Fußnote 2 für Details des Modells. Dieses Modell weist eine Kalt-Bias bis zu 5°C im Winter in den hohen Breiten auf.

Calov et al. 2005

Wir untersuchen die Mechanismen des Beginns einer Vereisung mit dem Erde-System-Modell mittlerer Komplexität CLIMBER-2, welches dynamische Module der Atmosphäre, der Ozeane, der Biosphäre und der Eisschilde umfasst. Die Dynamik der Eisschilde wird durch das dreidimensionale polythermische Eisschild-Modell SICOPOLIS beschrieben. Wir haben transparente numerische Experimente durchgeführt, und zwar beginnend mit dem Eemian-Interglazial vor 126.000 Jahren. Das Modell läuft über 26.000 Jahre mit zeitabhängigen orbitalen und CO2-Antrieben.

Das Modell simuliert eine rapide Ausdehnung der mit Inlandeis bedeckten Gebiete der Nordhemisphäre, vor allem über Nordamerika, die vor 117.000 Jahren begonnen hatte. Während der folgenden 7000 Jahre ist das Eisvolumen im Modell graduell gestiegen, und zwar mit einer Rate, die mit einer Änderung der Höhe des Meeresspiegels um 10 m pro Millenium korrespondiert.

Wir haben gezeigt, dass der simulierte Beginn der Vereisung einen Bifurkations-Übergang im Klimasystem repräsentiert, und zwar von einem zwischeneiszeitlichen Zustand in einen eiszeitlichen Zustand, verursacht durch die starke Schnee-Albedo-Rückkopplung. Dieser Übergang erfolgt, wenn die sommerliche Einstrahlung in hohen Breiten der Nordhemisphäre unter einen bestimmten Wert fällt, der nur geringfügig niedriger liegt als die heutige sommerliche Einstrahlung (Bifurkation ist ein Begriff der Chaos-Therie).

Die Durchführung langzeitlicher Gleichgewichts-Läufe zeigt, dass es für die heutigen orbitalen Parameter mindestens zwei unterschiedliche Gleichgewichts-Zustände des Klimasystems gibt – den eiszeitlichen und den zwischeneiszeitlichen Zustand. Für die geringe sommerliche Einstrahlung vor 115.000 Jahren finden wir jedoch nur einen eiszeitlichen Gleichgewichts-Zustand, während in dem Modell bei starker Einstrahlung vor 126.000 Jahren nur ein zwischeneiszeitlicher Zustand existiert.

Durch die grobere Gitter-Auflösung des EMIC bekommen wir eine gewisse Vereinfachung:

Die Atmosphären-, Landoberflächen- und Vegetations-Modelle rechnen mit dem gleichen Gitterpunktsabstand, nämlich 10° Breite und etwa 51° Länge.

Ihr Eisschild-Modell ist wesentlich detaillierter, passen doch etwa 500 „Zellen“ des Eisschildes in 1 Zelle des Landoberflächen-Modells. Sie nehmen auch Stellung zu allgemeinen Problemen (bislang) mit Klimamodellen bei deren Versuch, Eiszeiten zu erzeugen:

Wir spekulieren, dass das Scheitern einiger Klimamodelle bei der erfolgreichen Simulation des Beginns einer Vereisung ihrer zu groben räumlichen Auflösung oder Klima-Bias geschuldet ist, die ihre Werte der sommerlichen Einstrahlung verschieben können. Dies passt mit einem Übergang von einem zwischeneiszeitlichen zu einem eiszeitlichen Klimastatus zusammen, der weit über die realistische Bandbreite orbitaler Parameter hinausgeht.

Ein weiterer wichtiger Faktor, der den Wert des Bifurkations-Übergangs bestimmt, ist die Albedo von Schnee.

In unserem Modell verhindert eine Reduktion der gemittelten Schnee-Albedo um nur 10% das rapide Einsetzen von Vereisung auf der Nordhemisphäre unter jeder orbitalen Konfiguration, die während des Quartiärs aufgetreten war. Die Albedo von Schnee ist in vielen Klimamodellen nur auf sehr grobe Weise parametrisiert und kann unterschätzt werden. Mehr noch, da die Albedo von Schnee stark von der Temperatur abhängt, kann die Unter-Repräsentation höher gelegener Gebiete in einem groben Klimamodell die Schnee-Albedo-Rückkopplung zusätzlich schwächen.

Schlussfolgerung

In diesem Beitrag haben wir ein paar Studien von vor etwa einem Jahrzehnt begutachtet, die frühere Probleme (siehe Teil Sieben) erfolgreich gelöst haben, zumindest vorläufig. Wir haben zwei Studien kennengelernt, die mit Modellen „mittlerer Komplexität“ und grober räumlicher Auflösung den Beginn der letzten Eiszeit simuliert haben. Und wir haben zwei Studien kennengelernt, die GCMs mit vorgegebenen ozeanischen Bedingungen verknüpfen. Diese haben eine permanente Schneebedeckung in kritischen Gebieten vor 116.000 Jahren simuliert.

Definitive Fortschritte

Aber man erinnere sich an die Bemerkung, frühe Energiebilanz-Modelle seien zu dem Ergebnis gekommen, dass es zu einer permanenten Schneebedeckung kommen könnte durch reduzierte sommerliche Einstrahlung in hohen nördlichen Breiten – Unterstützung für die „Milankovitch“-Hypothese. Dann jedoch haben deutlich verbesserte – aber immer noch rudimentäre – Modelle von Rind et al. 1989 sowie Phillipps & Held 1994 gezeigt, dass jene mit einer besseren Physik und einer höheren Auflösung nicht in der Lage waren, diesen Fall zu reproduzieren. Genauso war es mit vielen späteren Modellen.

Wir müssen immer noch ein vollständig gekoppeltes GCM (Atmosphäre und Ozean) betrachten, um zu versuchen, den Beginn einer Eiszeit zu erzeugen. Im nächsten Beitrag werfen wir einen Blick auf eine Anzahl von Studien aus neuerster Zeit einschließlich Jochum et al. (2012):

Bislang jedoch haben es vollständig gekoppelte GCMs nicht geschafft, den Beginn einer Vereisung zu reproduzieren und auch nicht die Abkühlung und die Zunahme der Schnee- und Eisbedeckung, die von warmen Zwischeneiszeiten zu kalten Eiszeitperioden führte.

Das Scheitern der GCMs hinsichtlich der Erzeugung eines Vereisungs-Beginns (siehe Otiento und Bromwich 2009 für eine Zusammenfassung), bedeutet ein Scheitern entweder der GCMs oder der Hypothese von Milankovitch. Natürlich, wenn die Hypothese die Schuldige wäre, müsste man sich fragen, ob man das Klima überhaupt ausreichend genug verstanden hat, um ein GCM zu entwickeln.

Wir werden auch sehen, dass die Stärke von Rückkopplungs-Mechanismen, die zu einer dauerhaften Schneedecke führen, in unterschiedlichen Studien signifikant variiert. Und eines der größten Probleme, mit denen man immer noch konfrontiert wird, ist die erforderliche Rechenleistung.

Zitat aus Jochum (2012):

Dieser experimentelle Aufbau ist natürlich nicht optimal. Idealerweise würde man gerne das Modell des letzten Interglazials vor etwa 126.000 Jahren für 10.000 Jahre in eine Eiszeit mit sich allmählich änderndem orbitalen Antrieb integrieren. Allerdings ist dies nicht machbar; eine 100-jährige Integration von CCSM auf einem NCAR-Supercomputer würde etwa 1 Monat dauern sowie einen substantiellen Teil der Rechenkapazität der Klimagruppe erfordern.

Link: http://scienceofdoom.com/2013/12/27/ghosts-of-climates-past-part-eight-gcm-ii/

Die bisherigen Teile:

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/




Misereor – das Magazin 2014: Kirchen, Energiewende und Klima

Die Kernfrage über die Rolle der kirchlichen Institutionen in der beginnenden Moderne beschied als erster Francois-Marie Arouet öffentlich negativ. Dieser Freigeist und ungemein kluge Kopf nannte sich später Voltaire, wurde unter diesem Namen weltberühmt, brachte Newton den Franzosen nahe und prägte maßgebend die Aufklärung. Die Postmoderne hat die Aufklärung freilich schon wieder vergessen. Nur mit dem Wegsperren skeptischer Störenfriede in die Bastille, wie es Voltaire erging, ist es jetzt vorbei – mal sehen wie lange. Ein wirrer Musikprofessor australischer Provenienz an der Universität Graz erstellte immerhin schon einmal eine „Todesstrafenliste“ für „Klimaskeptiker“ (hier). Auf der befindet sich auch der Autor, der deswegen von seinen australischen Freunden beneidet wurde. Die Gegenaufklärung (im Englischen wird von "unenlightment" gesprochen) der Postmoderne ist zweifellos unterhaltsam.

Dass sich die Kirchen vor die Karren von fragwürdigen Gruppierungen oder Verrückten spannen lassen, ist nichts Neues. So tauchten in den 1970-er Jahren Veröffentlichungen über EKD-Spenden auf, die an die südafrikanische SWAPO weitergeleitet und von dieser für Käufe von Waffen verwendet wurden (hier). Sind diese Ereignisse Vergangenheit und für alle Zukunft auszuschließen? Wie die jüngsten Ereignisse zeigen, darf man es bezweifeln. Obwohl die deutsche Energiewende und insbesondere Windrad-Installationen mit extrem unsozialen Schädigungen der Allgemeinheit auf Kosten der Steuerzahler nur die Taschen weniger Profiteure füllen, setzen sich die Kirchen nachdrücklich für diese Maßnahmen ein. Zur Rettung der Welt sei dies eben unabdingbar, behaupten sie. Sicher ist freilich nur, dass ganze Landschaften und die Natur (Vögel, Fledermäuse) durch den deutschen Windrad-Wahn vor die Hunde gehen. Biospritmonokulturen schädigen die Artenvielfalt und lassen die Lebensmittelpreise in armen Ländern steigen. Deutsche Autofahrer müssen CO2-neutral mit Biosprit durch die Lande rollen, weil es die gesetzlichen Beimischungen von E10-Dreck erzwingen. Das Motto all dieser Aktionen ist schließlich: Man muss die Natur gründlich zerstören, um sie zu retten.

Hierbei hilft ein neues, interessantes Phänomen. Bischöfe werden zu Fachleuten! So geschehen in der Ethikkommission der Energiewende, der zwei Bischöfe und noch ein dritter Religionsfunktionär angehörten. So geschehen auch im Bischofssitz von Limburg, der sich der profunden Kenntnisse des Amtsinhabers in Architektur, Innendesign und Wirtschaftlichkeitsrechnung erfreute. Zumindest was die Energiewende angeht, sieht der Autor daher vielversprechende, neue Horizonte. Was mühen sich noch Ingenieure ab, endlich kostengünstige Speicher für den immerflatternden Wind- und Sonnenstrom herbeizuschaffen! Sie bringen es nicht fertig. Technik, Physik, horrende Kosten widersprechen und bleiben störrisch. Sein Vorschlag daher: lasst endlich die Bischöfe ran, sie werden es richten!

Wir können es uns jedenfalls erklären, warum die Windrad-Remedur gegen den so gefährlichen anthropogenen Klimawandel Gefallen beim Klerus findet.  Die oben geschilderten Kollateralschäden an Landschaften, Einwohnern und gottgeschaffenem Fluggetier lässt die Klerikalen einfach kalt. Dies ebenso wie der Jahrzehnte lange Kindesmissbrauch durch katholische Priester die Führungsetage der katholischen Kirche warm – Pardon, kalt – ließ. Das ist verständlich und entschuldbar, Hobeln ohne Späne geht schließlich nicht, wer will schon kleinlich sein. Lassen wir doch die höchste EKD-Funktionärin in ihrem Luxus-Phaeton alkoholisiert über rote Ampeln fahren, das kann schließlich jedem passieren. Erfreuen wir uns lieber an ihren von dieser Entgleisung völlig unbeschädigten, weiteren Belehrungen ihrer Gläubigen über richtige Ethik und Moral. Nur ein Schelm ist, wer daran denkt, seine Mitgliedschaft in Vereinen mit solchen Moralheiligen unverzüglich zu kündigen.

Zu derartigen Zuständen passt die hübsche Frechheit eines Präsidenten des Bundesverbandes Windenergie, Hermann Albers, der seinem kommerziellen Unternehmen sogar religiöse Weihen zuspricht (nennt man so etwas nicht Blasphemie?, na egal). Hier eine Kostprobe aus seiner religiösen Verkündigungsschrift „neue Energie“, Ausgabe Mai 14:

„… Vor über 2000 Jahren wurde Christus über die Via Dolorosa getrieben, von den Römern und seinem eigenen Volk mit Spott überhäuft. Ich möchte nicht so weit gehen und den Sohn Gottes mit den erneuerbaren Energien vergleichen. Doch Christus ist durch die biblische Überlieferung zum Sinnbild geworden – für all jene, die verspottet und verachtet werden. Genau das geschieht derzeit mit uns Energiewende-Akteuren, die vor Jahrzehnten mit viel Idealismus angetreten sind, um für eine nachhaltige Energieerzeugung und damit den Erhalt der Erde zu kämpfen.

Getrieben von Feinden, mit Spott überhäuft: Den Platz der Römer nimmt mehr und mehr die Bundesregierung ein. Ihr Spott ist, die Erneuerbaren für zu teuer zu erklären, für nicht marktfähig, ja sogar für unsozial. Also unchristlich!? So schleppt sich die Branche in Richtung Golgatha. Kann die deutsche Politik das wollen? Die Nägel, mit denen die Energiewende „gekreuzigt“ wird, hat die Politik geschmiedet. Es sind fatale Fehler gemacht worden. Aber es ist nicht zu spät, diese Fehler zu korrigieren. … Noch ist Golgatha, der Berg der Kreuzigung, nicht erreicht. Die Volksvertretung, das Parlament, hat nun die Aufgabe der politischen Gestaltung. Beseitigen Sie, liebe Abgeordnete, die Nägel einer unsäglichen Kreuzigung ….“

Nach dem Lesen dieser theologischen Etude werden selbst hartgesottene Agnostiker blass vor Neid. Nun kann ja jeder schreiben, was er will. Schließlich lebt Wischmeyers herrliches Logbuch der Bescheuerten und Bekloppten von solchen Figuren wie Herman Albers, und wir haben bei Wischmeyer immer etwas zum Lachen über Hanswurste. Nur ausgesprochen humorlose Nörgler können es skandalös finden, dass kein Bischof oder Kardinal sich von dem Text des Herrn Albers distanzierte.

Kommen wir nun zu dem eingangs erwähnten T. Staud. Es geschieht ihm fraglos zuviel der Ehre, hier auf seine Schreibergüsse einzugehen. In den besprochenen Zusammenhang von Misereor, Kirchen und Profit gehört es aber hinein. Das bemühte, schwerfällige Pamphlet von T. Staud mit der Überschrift „Zweifel ist unser Produkt“ kann freilich als müde Wiederholung seines Artikels zs. mit Benjamin Reuter „Die Gehilfen des Zweifels“ (hier) angesehen werden. Aber auch die Qualitäts-Redakteurinnen Anita Blasberg und Kerstin Kohlenberg von der ZEIT haben sich mit „Die Klimakrieger“ (hier) an dem Thema "Klimaskeptiker" verhoben.

Wenn eine literarische Wertung des Autors erlaubt sei, so hat zum Trost wenigstens „Die Gehilfen des Zweifels“ einige amüsante Stellen und liest sich  stellenweise unterhaltsam. Zweifellos ist dies dem Hauptredakteur B. Reuter zu verdanken, denn der Aufguss "Zweifel ist unser Produkt" von T. Staud im Misereor-Magazin von 2014 erzeugt nur grausame Langeweile. Das gleiche trifft für den Artikel „Die Klimakrieger“ der beiden o.g. Qualitätsredakteurinnen zu. Daher an dieser Stelle eine herzliche Bitte: Liebe ZEIT, falls noch einmal ein Thema über „Klimaskeptiker“, dann bitte von Redakteuren, die wenigstens unterhaltsam zu schreiben verstehen, lass uns nicht noch einmal unter den Staud’s, Blasberg’s und Kohlenberg’s vor Langeweile sterben! Eure hochwertige ZEIT mit ihrem übergroßen Format und unendlichem Textumfang wird ohnehin schon von vielen Zeitgenossen nur noch als probates Einschlafmittel geschätzt.

Amüsant war übrigens der Besuch der ZEIT-Redakteurin A. Blasberg beim Autor in Heidelberg zum Zweck der Recherche über EIKE-Interna. Die Dame versuchte es selbst für die Naivität des Autors in diesen unsauberen Journalisten-Methoden zu ungeschickt und zog infolgedessen vorzeitig wegen nicht erhaltener Information enttäuscht wieder nach Hamburg ab – außer Spesen nichts gewesen. Den freundlich angebotenen Informationen über das Sachthema „anthropogener Klimawandel“ konnte sie leider gar nichts abgewinnen. War ja wohl auch nicht gerade ihr Interessengebiet, wie es dann der fertige Artikel belegte. Immerhin besaß dieser wenigstens den Vorzug, über den US-Blog eines Herrn Morano informiert zu werden, den der Autor bis dato nicht kannte, "Klima-Bösewicht" Morano sozusagen als Ersatz für EIKE, das leider zu wenig hergab. Vielsagend für die Verhältnisse in den deutschen Qualitätsmedien (die ZEIT sieht sich zwar selber nicht auf Augenhöhe mit BILD, ist aber auf der hier angesprochenen rotgrünen Seite zweifellos noch eine dicke Etage tiefer zu verorten) ist ferner, dass man für solche Langeweile wie „Die Klimakrieger“ auch noch journalistische Preise erhält (hier). Die Seilschaften „rotgrüne Journalisten ziehen rotgrüne Journalisten nach“ funktionieren perfekt.

Um auf  T. Staud zurückzukommen, so muss man ihm bereits deswegen verbunden sein, weil sein zs. mit Reuter verfasstes ehemalige Opus „Die Gehilfen des Zweifels“ ein näheres Eingehen auf sein "Zweifel ist unser Produkt" unnötig macht. Es ist nichts Neues oder Unterhaltsames mehr zu finden, man kann ruhig das Original lesen. Nur eines könnte vielleicht erwähnt werden. Falls T. Staud nicht völlig blind ist und wenigstens marginal mit dem wichtigsten Handwerkszeug eines Journalisten, der Recherche, vertraut gewesen wäre, hätten ihm beim zweiten Mal folgende Widersprüche und unterlassene Selbstverständlichkeiten auffallen müssen:

1) Skepsis ist die Grundvoraussetzung jeder Naturwissenschaft, alles andere ist Glauben=Mittelalter. Hier geht es um die Skepsis über einen anthropogenen Klimawandel, falls T. Staud den Unterschied zwischen dem naturgesetzlich immerwährendem Klimawandel und dem vorgeblich „anthropogen Klimawandel“ überhaupt verstanden hat (konstantes Klima gibt es nicht, daher kann man Klima oder das Wetter nicht schützen).

2) Schon eine simple Recherche zeigt jedem Redakteur, der sein Geld wert ist, dass das Wissen der Klimaforschung entgegen der Behauptung von T. Staud leider nicht zunimmt. Nur die Menge der gesammelten Daten, der angebotenen Klimamodell-Projektionen und des damit verzapften Klima-Unsinns nehmen zu. Trotz Milliarden schwerer Forschung wissen wir heute immer noch nicht, wann denn nun der nächste ENSO (El Nino) einsetzt oder wie die Eiszeiten funktionieren. Die Öffentlichkeit hat infolgedessen zunehmend von dem anthropogenen Klimakatastrophen-Klamauk der Medien die Nase voll. Wenigstens dieses Phänomen entging T. Staud nicht. Der Grund blieb ihm aber fremd – kein Wunder.

3) Um nur noch einen Punkte aufzuführen, eine Anmerkung zu den sog. Klima-Skeptikern: Es gibt davon dummerweise Zehntausende in Gestalt fachnaher Naturwissenschaftler und einschlägiger Klimaforscher, darunter die beiden Physik-Nobelpreisträger Robert Laughlin und Ivaer Gleaver und jüngst einer der bekanntesten Meteorologen, Prof. Bengtsson (hierhier, hier). Alle von der US-Erdölindustrie gekauft? Lieber Herr Staud, wenn Sie ja meinen, dann werden wir es Ihnen selbstverständlich glauben.

Aber Moment mal, vielleicht ist es ja gerade umgekehrt. Klimaschutz ist ein globales Geschäftsmodell, von dem viele vermuten, dass die US-Großfinanz erster Profiteur ist. Dass zumindest die Banken und großen Versicherungen zu den Hauptprofiteuren von Energiewende und „Klimaschutz“ gehören, erzählen bereits die sprichwörtlichen Dachspatzen. Zumindest der bekannte Meteorologe Chr. Schönwiese kann es beispielsweise nicht lassen, am Ende seiner Klimakatastrophen-Vorträge auf die Expertise der Versicherungen in Sachen "anthropogene Klimaschädigung" dankend hinzuweisen. Und wer steuert die US-Banken und sogar die US-Regierung selber? …. richtig, Goldman Sachs. Wie kommt es eigentlich, dass ein ganzes Institutsgebäude, an der auch die dänische Klimaforschung teilhat (Universität Kopenhagen) nach dem Ölmilliardär „Rockefeller“ benannt ist (hier)? Dagegen nennt sich leider noch nicht einmal das Postfach von EIKE nach diesem großen Ölmagnaten. Gemäß T. Staud und Gesinnungsgenossen über die Verbindung von EIKE und Big Oil müsste dies doch eher der Fall sein.

Wo kommen andererseits eigentlich die großen Mittel her, über die NGO’s wie Greenpeace verfügen, einem fragwürdigen Verein, der von den deutschen Medien schon wie ein deutsches Regierungsmitglied hofiert wird? Und welcher einflussreiche europäische Politiker stand eigentlich noch nicht auf der Gehaltsliste von Goldman Sachs? Der Autor möchte diese interessante Thematik nicht weiter vertiefen, sonst wird er nicht nur zu den Klimaskeptikern sondern auch noch in die Schublade der Verschwörungstheoretiker gesteckt. Immerhin wäre das Thema etwas für investigativen Journalismus, der diesen Namen verdient. Allmählich muss es doch selbst dem Beklopptesten dämmern, dass es mit einer von EIKE gesteuerten Weltverschwörung der Klimaskeptiker mit Hilfe von Rockefellers Milliarden nicht so weit her sein kann. Sind es bei EIKE gar wirklich nur (meist technisch gut informierte) Freiwillige, die an die Vernunft ihrer Mitbürger appellieren? Eine solche Möglichkeit passt in die Hirne von Staud, Reuter, Blasberg und Kohlenberg nicht hinein.  

Soll man nun noch auf das, was Staud über EIKE in "Zweifel ist unser Produkt" verzapft, eingehen? Nein, denn es ist unkommentierbar. Nur ein Punkt stellvertretend: EIKE habe keinen einzigen wissenschaftlichen Angestellten, so T. Staud. Respekt, ausnahmsweise richtig recherchiert und ins Schwarze getroffen! Daher, lieber Herr Staud, zur Komplettierung Ihrer Entdeckung: EIKE hat überhaupt keinen Angestellten, es ist wie bereits erwähnt ein gemeinnütziger Verein von Freiwilligen. Die Anzahl der wissenschaftlichen Fachexperten von EIKE kann man rudimentär in der Auflistung des Fachbeirats ablesen, die große Liste derjenigen Experten, die EIKE-Mitglieder sind, aber nicht dem Fachbeirat angehören, ist nicht öffentlich. Ist nun T. Staud nur schlecht oder überhaupt nicht informiert? Schwer zu sagen. Daher hat der Autor Erbarmen (misereor) und gibt sich die Ehre, Herrn T. Staud als erstem Journalisten das ultimative Geheimnis von EIKE anzuvertrauen: Jedes EIKE-Mitglied poliert sonntäglich seinen Porsche-Cayenne, da er sich vor den Zuwendungen von Big Oil nur noch durch Käufe von Luxus-Autos retten kann.

Man sollte einschlägige Artikel wie in Misereor, der ZEIT, der Süddeutschen (hier) und weiterer "Qualitätsmedien" genießen, falls sie amüsant geschrieben sind. Sie sind nämlich so abstrus, dass Spaß garantiert ist. Ferner sollte man dankbar sein, da Leser mit Hirn zwischen den Ohren die primitiven Verleumdungs-Strickmuster und Hintergründe rotgrüner Polemik durchschauen, sich ihre Gedanken machen und für neue Wahlgewohnheiten anfällig werden. Diesem Erkenntnisprozess sind die immer höheren Stromrechnungen und das drohende Windrad unweit des eigenen Hauses hilfreich. Sinn- und informationsloses Geschreibsel über EIKE wie im Misereor-Artikel ist EIKE daher willkommen. Wir danken und grüßen Herrn T. Staud und auch Misereor daher ganz herzlich.   

Nachtrag: Auf Wunsch von Herrn Kowatsch, der sich nach Erwähnung des Grazer Musikexperten die Graz-Temperaturen der letzten 15 Jahre ansah, sind diese als pdf im Anhang beigefügt. Offenbar steht die Station in der Stadtmitte (UHI-Effekt), trotzdem wird’s sogar dort kälter.

Als zweite Anmerkung der interessante Link "tinyurl.com/k283cbx" der Kommentatorin Christiane Moser (danke für diesen interessanten Hinweis!). Damit man die Spende (~500,000 €) schneller findet, einfach misereor in das Suchfenster des Browsers eingeben. Der Link belegt, dass Spendengelder von Misereor an unsere ohnehin schon im Fett schwimmenden Freunde im PIK und nicht an bedürftige Kinder in Drittländern gehen. Der Autor beginnt sich allmählich zu fragen, ob er sich nicht zu stark zurückgehalten hat. Allerdings kann man auch argumentieren: wer von diesen Zuständen Kenntnis erhält und solch fragwürdigen Organisationen wie Misereor immer noch spendet, dem kann man nicht mehr helfen. Geld auf der Straße dem nächstbesten Passanten zu schenken oder auf der nächsten Reise in den Süden anonym in Briefkästen von heruntergekommenen Wohnungen zu tüten, ist angesichts der PIK-Spende zuverlässig mit mehr christlicher Nächstenliebe und beabsichtigter Wirkung verbunden als es Misereor zukommen zu lassen.

Related Files




Das Rätsel der Eiszeiten, Teil 7, Global Circulation Models I

scienceofdoom

Im sechsten Teil ging es um einige der zahlreichen Theorien, die konfuserweise alle unter dem gleichen Namen laufen: die „Milankovitch“-Theorien.

Die Basis all dieser Theorien ist: Obwohl die Änderungen in der Neigung der Erdachse und der Zeitpunkt, in der die Erde der Sonne am Nächsten ist, nicht die Gesamt-Energieeinwirkung der Sonne auf das Klima verändert, verursacht die sich ändernde Verteilung der Energie massive Klimaänderungen über tausende von Jahren. Eine der „klassischen” Hypothesen lautet, dass zunehmende Einstrahlung im Juli bei 65°N die Eisschilde zum Schmelzen bringt. Oder umgekehrt, abnehmende Einstrahlung dort bringt die Eisschilde zum Anwachsen.

Alle hier beschriebenen Hypothesen können ziemlich überzeugend klingen. Das heißt, wenn man sie einzeln für sich betrachtet, klingt jede ziemlich überzeugend – aber wenn man diese „Milankovitch-Theorien“ in ihrer Gesamtheit nebeneinander stellt, klingen sie sämtlich nicht nach viel mehr als nach hoffnungsvollen Gedanken. In diesem Beitrag fangen wir nun an zu betrachten, was GCMs (global circulatio models – kurz "Klimamodelle") dazu tun können, diese Theorien zu falsifizieren. Zu den Grundlagen der GCMs schaue man hier.

Viele Leser dieses Blogs machen sich in verschiedener Weise so ihre Gedanken über GCMs. Aber wie der regelmäßig Kommentare schreibende Leser DeWitt Payne oft sagt: „Alle Modelle sind falsch, aber einige sind nützlich“. Das heißt, keines dieser Modelle ist perfekt, aber einige können etwas Licht auf Klimamechanismen werfen, die wir verstehen wollen. Tatsächlich sind GCMs eine wesentliche Grundlage zum Verständnis vieler Klimamechanismen und zum Verständnis der Wechselwirkungen zwischen verschiedenen Teilen des Klimasystems.

Exkurs: Eisschilde und positive Rückkopplung

Für Anfänger folgt hier ein kleiner Exkurs zu den Eisschilden und zur positiven Rückkopplung. Das Schmelzen und die Neubildung von Eis und Schnee ist unbestreitbar eine positive Rückkopplung im Klimasystem. Schnee reflektiert etwa 60% bis 90% der einfallenden Sonnenstrahlung. Wasser reflektiert weniger als 10% und die meisten Landoberflächen weniger als 25%. Heizt sich eine Region genügend auf, schmelzen Eis und Schnee. Das bedeutet, dass weniger Strahlung reflektiert und mehr Strahlung absorbiert wird, was eine weitere Aufheizung des Gebietes zur Folge hat. Der Effekt „füttert sich selbst“. Es ist eine positive Rückkopplung.

Im jährlichen Zyklus führt dies jedoch nicht zu irgendeiner Art „Runaway“ oder zu einer Schneeball-Erde, weil die Solarstrahlung einen viel größeren Zyklus durchläuft. Über viel längere Zeiträume ist es vorstellbar, dass das (regionale) Abschmelzen von Eisschilden zu mehr (regional) absorbierter Sonnenstrahlung führt, was wiederum mehr Eis zum Schmelzen bringt mit der Folge, dass noch mehr Eis schmilzt. Und umgekehrt gilt das Gleiche für das Anwachsen von Eisschilden. Der Grund, warum dies vorstellbar ist, ist ganz einfach der, dass es der gleiche Mechanismus ist.

Exkurs Ende.

Warum Global Circulation Models (GCM)?

Die einzige Alternative zu GCM’s ist, die Berechnung im Kopf oder schriftlich durchzuführen. Man nehme ein Blatt Papier, plotte den Verlauf der einfallenden Strahlung in allen Breiten während des uns interessierenden Zeitraumes – sagen wir von vor 150 ky bis vor 100 ky (ky = kilo-years = 1000 Jahre) – aufgeschlüsselt nach Jahren, Dekaden oder Jahrhunderten in Abhängigkeit von der Menge des schmelzenden Eises.  Dann bestimme man die neue Albedo für jedes Gebiet. Man berechne die Änderung der absorbierten Strahlung und dann die regionalen Temperaturänderungen. Dann berechne man den neuen Wärmetransport von niedrigen in höhere Breiten in Abhängigkeit vom Temperaturgradienten in der jeweiligen Breite, den transportierten Wasserdampf sowie Regen- und Schneemenge. Man vergesse dabei nicht, die Eisschmelze in hohen Breiten zu verfolgen sowie deren Einfluss auf die Meridional Overturning Circulation (MOC), die einen großen Teil des Wärmetransportes vom Äquator zu den Polen treibt. Dann gehe man zum nächsten Jahr, zur nächsten Dekade oder zum nächsten Jahrhundert und wiederhole das Ganze.

Wie machen sich diese Berechnungen?

Ein GCM benutzt einige fundamentale physikalische Gleichungen wie Energie- und Massengleichgewicht. Es benutzt viele parametrisierte Gleichungen, um Dinge zu berechnen wie den Wärmetransport von der Oberfläche in die Atmosphäre abhängig von der Windgeschwindigkeit, Wolkenbildung, Impulstransport durch den Wind in die Ozeane usw. Was immer wir in einem GCM haben, ist besser als die Berechnungen auf einem Blatt Papier (denn dort wird man die gleichen Gleichungen mit viel geringerer räumlicher und zeitlicher Auflösung verwenden müssen).

Falls uns die oben erwähnten „klassischen” Milankovitch-Theorien interessieren, müssen wir die Auswirkungen einer Zunahme von 50 W/m² (über 10.000 Jahre) bei 65°N herausfinden – siehe Abbildung 1 im Teil V. Welche Auswirkungen hat eine simultane Reduktion im Frühjahr bei 65°N? Heben sich die beiden Effekte gegeneinander auf? Ist die sommerliche Zunahme bedeutender als die Reduktion im Frühjahr? Wie schnell sorgt die Zirkulation für eine Verringerung dieser Auswirkungen? Der Wärmetransport von Äquator zu Pol wird getrieben durch die Temperaturdifferenz – wie jeder Wärmetransport. Heizt sich also die Nordpolarregion infolge schmelzenden Eises auf, wird sich die Zirkulation im Ozean und in der Atmosphäre ändern, und weniger Wärme wird polwärts transportiert. Welche Auswirkungen hat das?

Wie schnell schmilzt ein Eisschild bzw. bildet es sich neu? Können die Zu- und Abnahmen der absorbierten Sonnenstrahlung die massiven Eisvorstöße und –rückzüge erklären? Falls die positive Rückkopplung so stark ist, wie geht dann eine Eiszeit zu Ende und wie kann sie 10.000 Jahre später erneut einsetzen? All dies können wir nur mit einem allgemeinen Zirkulationsmodell GCM abschätzen.

Nun gibt es da jedoch ein Problem. Ein typischer GCM-Lauf erstreckt sich über ein paar Modell-Jahrzehnte oder ein Modell-Jahrhundert. Wir brauchen aber einen GCM-Lauf über 10.000 bis 50.000 Jahre. Also brauchen wir 500 mal höhere Rechenleistung – oder wir müssen die Komplexität des Modells reduzieren. Alternativ können wir ein Modell im Gleichgewicht zu einer bestimmten Zeit in der Geschichte laufen lassen um zu sehen, welche Auswirkungen die historischen Parameter auf die uns interessierenden Änderungen hatten.

Frühe Arbeiten

Viele Leser dieses Blogs sind häufig verwirrt durch meinen Ausdruck „alte Arbeiten“ zur Behandlung eines Themas. Warum nimmt man nicht die aktuellste Forschung?

Weil ältere Studien normalerweise das Problem klarer umreißen und detaillierter beschreiben, wie man sich diesem Problem nähert.

Die jüngsten Studien wurden für Forscher vor Ort geschrieben und setzen den größten Teil der bisherigen Erkenntnisse als bekannt voraus – Erkenntnisse, die jedermann vor Ort bereits hat. Ein gutes Beispiel hierfür ist die Studie von Myhre et al. (1998) zum Thema „logarithmische Formel“ für den Strahlungsantrieb durch zunehmenden CO2-Gehalt. Sie wurde auch im IPCC-Zustandsbericht 2001 erwähnt. Diese Studie hat sehr viele Blogger verwirrt. Ich habe viele Blogbeiträge gelesen, in denen die jeweiligen Autoren und Kommentatoren wegen der fehlenden Rechtfertigung des Inhalts dieser Studieihre die metaphorischen Hände gehoben haben. Es ist aber nicht mehr verwirrend, wenn man mit der Physik von Strahlungstransporten vertraut ist sowie mit den Studien aus den siebziger bis zu den neunziger Jahren, in denen das Strahlungs-Ungleichgewicht als Folge von mehr oder weniger „Treibhausgasen“ berechnet wird. Es kommt eben immer auf den Zusammenhang an.

Wir wollen jetzt einen Spaziergang durch einige Jahrzehnte von GCMs machen. Wir beginnen dazu mit Rind, Peteet und Kukla (1989). Sie umreißen die klassische Denkweise des Problems:

Kukla et al. (1981) beschreiben, wie die orbitalen Konfigurationen anscheinend zu den großen Klimavariationen der letzten 150 Millenien passen. Als Ergebnis dieser und anderer geologischer Studien besteht der Konsens, dass orbitale Variationen  für die Auslösung eiszeitlicher bzw. zwischeneiszeitlicher Bedingungen verantwortlich sind. Der offensichtlichste Unterschied zwischen diesen beiden Regimes, nämlich die Existenz subpolarer kontinentaler Eisschilde scheinen  mit der Sonneneinstrahlung in hohen Breiten der Nordhemisphäre im Sommer korreliert zu sein. Zum Beispiel war die Sonneneinstrahlung im August und September, verglichen mit den heutigen Werten, abgeschwächt, und zwar etwa 116.000 Jahre vor heute (116 ky). Während dieser Zeit begann anscheinend das Wachstum des Eises. Die Sonneneinstrahlung war erhöht um etwa 10.000 Jahre vor heute, während einer Zeit also, in denen sich die Eisschilde rapide zurückzogen (Berger 1978).

Und nun zur Frage, ob Grundlagen-Physik die angenommenen Ursache und Wirkung in Zusammenhang bringen kann:

Sind die solaren Strahlungsvariationen selbst ausreichend, um kontinentale Eisschilde wachsen oder schmelzen zu lassen?

Die Sonneneinstrahlung im Juli bei 50°N und 60°N während der letzten 170.000 Jahre zeigt Abbildung 1, zusammen mit den Werten von August und September bei 50°N (wie der Juli zeigt, traten Fluktuationen bei der Einstrahlung in verschiedenen Breiten in ähnlicher Form auf). Die Spitzen-Variation liegt in der Größenordnung von 10%. Überträgt man dies mit gleicher Prozentzahl auf Änderungen der Lufttemperatur, würden diese in der Größenordnung von 30°C liegen. Das wäre mit Sicherheit ausreichend, um Schnee in den nördlichsten Gebieten von Nordamerika den ganzen Sommer über zu halten, wo die Juli-Temperatur heute nur etwa 10°C über dem Gefrierpunkt liegt. Allerdings ignoriert die direkte Übertragung alle anderen Phänomene, die die Lufttemperatur im Sommer beeinflussen, als da wären Wolkenbedeckung und Albedo-Variationen, langwellige Strahlung, Flüsse am Boden und Advektion. 

Verschiedene Energiebilanz-Klimamodelle wurden verwendet, um abzuschätzen, wie groß die Abkühlung in Verbindung mit veränderten Orbitalparametern sein würde. Während sich mit dem Beginn von Eisausdehnung die Oberflächen-Albedo verändert und eine Rückkopplung zur Klimaänderung liefern wird, müssen die Modelle auch grobe Schätzungen einbeziehen, wie die Eisbedeckung sich mit dem Klima ändert. Mit der geeigneten Wahl von Parametern, von denen einige durch Beobachtungen gestützt sind, kann man die Modelle dazu bringen, die großen Klimaänderungen von Eis- und Zwischeneiszeiten zu simulieren.

Allerdings berechnen diese Modelle aus Prinzip nicht all die oben beschriebenen verschiedenen Einflüsse auf die Lufttemperatur, und sie enthalten auch keinen hydrologischen Zyklus, der es zulassen würde, dass sich eine Schneedecke bildet oder ausdehnt. Die tatsächlichen Prozesse, unter denen sich den Sommer über eine Schneedecke halten kann, involvieren komplexe hydrologische und thermische Einflüsse, für welche die einfachen Modelle nur grobe Annäherungen liefern können.

Sie gehen dann näher auf die praktischen Probleme ein, die sich aus der Verwendung von GCMs für Läufe über Tausende von Jahren ergeben, und die wir oben angesprochen haben. Das Problem wird angegangen durch die Verwendung vorgegebener Werte für bestimmte Parameter und durch Verwendung eines groben Gitters von 8 mal 10 Grad und 9 vertikalen Schichten.

Die verschiedenen Modellläufe der GCMs sind typisch für dieses Vorgehen, GCMs zu verwenden, um „das Zeug herauszufinden“ – man versucht, mit verschiedenen Läufen und verschiedenen Änderungen der Parameter zu erkennen, welche Variationen die größten Auswirkungen haben und welche Variationen, falls überhaupt welche, zu den realistischsten Antworten führen:

Wir haben also das GCM des GISS für eine Reihe von Experimenten verwendet, in welchen orbitale Parameter, die atmosphärische Zusammensetzung und die Wassertemperaturen verändert worden sind. Wir untersuchen, wie die verschiedenen Einflüsse die Schneebedeckung und Eisschilde beeinflussen, und zwar in den Regionen der Nordhemisphäre, wo während des letzten glazialen Maximums (LGM) Eis gelegen hatte. Soweit wir wissen, ist das GCM generell nicht in der Lage, den Beginn des Wachstums der Eisschilde zu simulieren oder Eisschilde auf dem Niveau des Meeresspiegels, unabhängig von den verwendeten orbitalen Parametern oder der Wassertemperatur.

Und das Ergebnis:

Die Experimente zeigen, dass es eine große Diskrepanz gibt zwischen den Modell-Reaktionen auf Milankovitch-Störungen und der geophysikalischen Beweise des Beginns der Bildung eines Eisschildes. Da das Modell das Wachstum oder den Erhalt von Eisschilden während der Zeit der größten Reduktion der Sonneneinstrahlung in hohen Breiten nicht simulieren konnte (120.000 bis 110.000 Jahre vor heute), ist es unwahrscheinlich, dass es dies zu irgendeiner anderen Zeit innerhalb der letzten vielen hunderttauend Jahre vermocht hätte.

Wenn die Modelläufe korrekt sind, zeigt dies, dass das Wachstum des Eises in einer extrem Wärme absorbierenden Umgebung stattfand. Folglich bedurfte es irgendeiner komplizierten Strategie oder auch irgendwelcher anderen Klimatreiber zusätzlich zum Einfluss der orbitalen Variation (und CO2-Reduktion). Dies würde implizieren, dass wir die Ursache von Eiszeiten und den Zusammenhang mit Milanlovitch nicht wirklich verstehen. Falls das Modell nicht annähernd sensitiv genug auf Klimaantriebe anspricht, kann das Implikationen auf Projektionen künftiger Klimaänderungen haben

Das grundlegende Modellexperiment hinsichtlich der Fähigkeit von Milankovitch-Variationen, selbst Eisschilde in einem GCM zu bilden (Experiment 2), zeigt, dass im GISS-GCM nicht einmal übertriebene Strahlungsdefizite im Sommer dazu ausreichen. Lässt man ausgedehnte Eisschilde in einer Höhe von 10 m ü. NN eingehen sowie eine CO2-Reduktion um 70 ppm, Zunahme des Meereises bis zu vollen Eiszeitbedingungen und Wassertemperaturen, die auf CLIMAP-Schätzungen vor 18.000 Jahren oder noch niedriger reduziert wurden, ist das Modell kaum in der Lage, diese Eisschilde in begrenzten Gebieten vor dem Schmelzen zu bewahren. Wie wahrscheinlich ist es, dass diese Ergebnisse den aktuellen Stand der Dinge repräsentieren?

Das waren die GCMs des Jahres 1989.

Phillips und Held (1994) hatten im Wesentlichen das gleiche Problem. Das ist der berühmte Isaac Held, der extensiv über Klimadynamik gearbeitet hat sowie über Wasserdampf-Rückkopplung und GCMs. Er betreibt einen sehr lesenswerten exzellenten Blog.

Während paläoklimatische Aufzeichnungen deutliche Beweise zur Stützung der astronomischen oder Milankovitch-Theorie von Eiszeiten liefern (Hays et al. 1976), sind die Mechanismen, mit denen orbitale Änderungen das Klima beeinflussen, immer noch ziemlich schlecht verstanden. Für diese Studie nutzen wir das gemischte Atmosphäre-Ozean-Modell [the atmosphere-mixed layer ocean model]. Bei der Untersuchung der Sensitivität dieses Modells auf unterschiedliche Kombinationen orbitaler Parameter haben wir drei numerische Experimente miteinander verglichen.

Sie beschreiben die Vergleichsmodelle:

Angefangen haben wir mit der Auswahl der beiden Experimente, die vermutlich die größten Unterschiede hinsichtlich des Klimas zeitigen unter Vorgabe der Bandbreite von berechneten Variationen von Parametern, die sich während der letzten paar hunderttausend Jahre ereignet haben. Die Exzentrizität wird in beiden Fällen mit 0,04 gleich gesetzt. Das ist deutlich größer als der gegenwärtige Wert von 0,016, aber vergleichbar mit dem, was es vor 90.000 bis 150.000 Jahren gegeben hat.

Im ersten Experiment werden das Perihel zur Sommer-Sonnenwende der Nordhemisphäre und die Neigung auf den hohen Wert von 24° gesetzt. Im zweiten Fall liegt das Perihel zum Zeitpunkt der Wintersonnenwende auf der Nordhemisphäre, und die Neigung entspricht 22%. Perihel und Neigung begünstigen beide warme Sommer der Nordhemisphäre im ersten Fall und kühle nördliche Sommer im zweiten Fall. Diese Experimente werden jetzt jeweils mit WS bzw. CS bezeichnet.

Dann haben wir eine weitere Berechnung durchgeführt, um zu bestimmen, wie viel der Differenz zwischen diesen beiden Integrationen der Verschiebung des Perihel geschuldet ist und wie viel davon der Änderung der Neigung. In diesem dritten Modell liegt das Perihel zur Sommersonnenwende, aber die Neigung beträgt nur 22°. Die Exzentrizität ist immer noch mit 0,04 angesetzt. Dieses Experiment wird im Folgenden als W22 bezeichnet.

Aber traurigerweise:

Trotz der großen Temperaturänderungen auf dem Festland erzeugt das CS-Experiment keinerlei neue Regionen mit permanenter Schneebedeckung auf der Nordhemisphäre. Die gesamte Schneedecke schmilzt im Sommer vollständig. Folglich ist das Modell, so wie derzeit getrimmt, nicht in der Lage, den Beginn der Bildung von Eisschilden allein aufgrund orbitaler Störungen zu simulieren. Dies ist konsistent mit dem Ergebnissen von Rind mit einem GCM (Rind et al. 1989).

Im nächsten Artikel schauen wir auf günstigere Ergebnisse im ersten Jahrzehnt dieses Jahrhunderts.

http://scienceofdoom.com/2013/11/23/ghosts-of-climates-past-part-seven-gcm-i/

Die bisherigen Teile:

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/