1

Der deutsche Atomausstieg bereitet den Franzosen keine Freude!

In Frankreich liefern heute insgesamt 58 Kernreaktoren, die zunächst auf der Grundlage einer Lizenz des US-Reaktorbauers Westinghouse errichtet wurden, über 78 Prozent des nationalen Strombedarfs zu einem unschlagbar niedrigen Selbstkostenpreis von etwa 24 Euro je Megawattstunde. Der Stromtarif für die Privathaushalte („Tarif bleu“) wurde bislang vom Staat festgesetzt. Er liegt zurzeit noch bei etwa 15 Cent je Kilowattstunde. Davon können deutsche Stromverbraucher nur träumen. Doch wird der „Tarif bleu“, Vorgaben der EU folgend, demnächst auslaufen. EdF wird dann den französischen Verbrauchern den Strom nicht mehr so günstig liefern können. Denn der in der Folge der panikartigen Abschaltung von acht deutschen Kernkraftwerken bereits eingetretene sprunghafte Anstieg der Strompreise an der Europäischen Strombörse in Leipzig (EEX) wird sich auch auf den nun geöffneten französischen Strommarkt auswirken. Hinzu kommt, dass die Kernenergie von der EU nicht als „erneuerbar“ anerkannt wird. Frankreich muss also neben dem völlig CO2-freien Betrieb seiner KKW noch teure und obendrein unnütze Wind- und Solarkraftwerke bauen, um die 20-Prozent-Quote des EU-Klima-Energie-Pakets für „Erneuerbare“ zu erfüllen.

Der in Deutschland durch die Vorgaben des Erneuerbare Energien Gesetzes (EEG) künstlich verteuerte Strom wird die Strompreise im gesamten europäischen Binnenmarkt nach oben ziehen. Das wird die Begeisterung für die europäische Einigung in Frankreich sicher nicht steigern. Im Gegenteil dürfte davon in den im kommenden Jahr anstehenden Präsidentschaftswahlen vor allem die schon jetzt aussichtsreiche nationalistische Kandidatin Marine Le Pen profitieren. Allerdings würde der Strom in Frankreich auch nach den zurzeit gültigen Plänen der Erneuerung der französischen Kernkraft-Kapazitäten, die im Wesentlichen zwischen 2020 und 2030 erfolgen soll, spürbar teurer werden. Denn die derzeit noch arbeitende erste Generation von Druckwasserreaktoren, deren Investitionskosten bei ungefähr anderthalb Millionen Euro je Megawatt lagen, soll durch sicherere Reaktoren der dritten, wenn nicht vierten Generation erfolgen, die mindestens doppelt so viel kosten.

Es scheint, dass der von AREVA und Siemens gemeinsam entwickelte Evolutionary Power Reactor (EPR), der zurzeit in Olkiluoto (Finnland), in Flammanville in der Normandie und in China gebaut wird, wie einst das Überschall-Verkehrsflugzeug „Concorde“ nur einen sehr eingeschränkten Markt finden wird. Denn der in Flammanville entstehende Reaktor kostet fünf Milliarden Euro und wird den Strom zu einem Preis von schätzungsweise über 47 Euro je Megawattstunde liefern, der bei weitem den Preis von Strom aus modernen Gas- und Dampf-Kraftwerken überschreiten wird. (Vermutlich ist das der tiefere Grund für das vor kurzem beschlossene gesetzliche Verbot der Förderung von „unkonventionellem“ Gas in Frankreich und für die Flucht von Siemens aus dem EPR-Konsortium AREVA NP.) Zu Beginn dieses Jahres hat AREVA die Ausschreibung von vier Kernreaktoren durch das Emirat Abu Dhabi an den südkoreanischen Nuklear-Newcomer KEPCO verloren, was in Paris als beschämende Niederlage empfunden wurde. Im Unterschied zum EPR von AREVA, der auf dem Prinzip aktiver Sicherheit mit vierfacher Redundanz beruht, fußt der von KEPCO erfolgreich angebotene Reaktor vom Typ AP1400 auf passiver Sicherheit und ist deshalb bei vergleichbarem Sicherheitsniveau deutlich preisgünstiger.

Das Konzept passiver Sicherheit wurde von der inzwischen zu 60 Prozent dem japanischen Mischkonzern Toshiba gehörenden Reaktorbaufirma Westinghouse entwickelt. Im Falle einer drohenden Kernschmelze führt die Aufheizung des Druckgefäßes zur Bildung von Wasserdampf, der bis zur Spitze des Sicherheitsbehälters aufsteigt, dort durch den Kontakt mit einer Wasserdusche kondensiert und dann als Regen auf den heißen Druckbehälter zurückfällt. Die Überhitzung des Druckgefäßes treibt so seine automatische Kühlung an. Westinghouse Electrique France hätte dieses Konzept natürlich gerne den Franzosen verkauft. Doch die zuständige regionale Sicherheitsbehörde untersagte AREVA, ein passives Sicherheitskonzept anzuwenden. Jean Bergougnoux, ehemaliger Chef von EdF, erklärte am 9. Juni 2011 bei einer vom liberalen Institut Turgot in der Pariser Nationalversammlung organisierten Diskussion über die Zukunft der Kernenergie in Frankreich, die Entwicklung des EPR sei ein großer Fehler gewesen, der auf den Einfluss der deutschen Reaktorsicherheitskommission zurückgehe.

Auch in Frankreich ist die Kernenergie nach Fukushima alles andere als unumstritten. In der Medienöffentlichkeit mehren sich Stimmen, es Deutschland und der Schweiz gleichzutun und den Ausstieg aus der Atomkraft einzuleiten. In den Gremien, die über die energiepolitische Zukunft des Landes diskutieren und energiepolitische Entscheidungen vorbereiten, sind die Gegner einer Renaissance der Kernenergie inzwischen sogar zahlenmäßig in der Mehrheit. Außerdem ist es schwer geworden, den Ausbau der Nuklearenergie über den Kapitalmarkt zu finanzieren. Die meisten Großbanken verlangen für Kredite an Nuklearfirmen überhöhte Zinsen, wenn sie die Finanzierung von Kernkraft-Projekten nicht ganz ablehnen. Die französische Atom- und Stromwirtschaft steht heute vor einer schwerwiegenden Entscheidung. Es läge nahe, dass AREVA und EdF das EPR-Projekt begraben und für die Erneuerung des französischen Nuklearparks einen Reaktortyp mit passivem Sicherheitssystem wählt. Doch es ist derzeit noch nicht absehbar, dass die beiden Staatskonzerne diesen Schritt tun werden. Es gibt keine Anhaltspunkte dafür, dass die am 16. Juni 2011 verkündete Ablösung der langjährigen AREVA-Chefin Anne Lauvergeon durch ihren bisherigen Stellvertreter Luc Oursel als Schritt in diese Richtung gedeutet werden könnte.

Von Edgar L. Gärtner EIKE

Literatur: Jean-Michel Bélouve: Nucléaire Civil: Le Rebond! Edition Liber Media, Vendeuvre du Poitou 2011




Offziell durch IAEA bestätigt: „Kein Mensch erlitt gesundheitlichen Schaden durch Radioaktivität“

Die Experten der Wiener Internationalen Atomenergiebehörde (IAEA) waren vom 24.5. bis 1.6.2011 in Japan und konnten dort die Lage beurteilen. Ein vorläufiger Bericht vom 1.6.2011 wurde veröffentlicht, er kann unter  http://www.iaea.org/newscenter/focus/fukushima/missionsummary010611.pdf eingesehen werden. Die Ergebnisse dieser Reise nach Japan sollen der IAEA Konferenz über nukleare Sicherheit im IAEA-Standort in Wien am 20. bis 24. Juni 2011 vorgetragen werden.

Die weiteren wichtigsten Aussagen in dem vorläufigen Bericht der IAEA:

  1. Ein Bericht über den Verlauf der Ereignisse in Japan, 

    a) das Erdbeben mit bestimmungsgemäßem Abfahren der Kernkraftwerke und sicherer Nachwärmeabfuhr durch die Notstromdiesel, trotz totaler Zerstörung der Infrastruktur in der Kraftwerksgegend,

    b) dem Tsunami 46 Minuten später mit Überflutung des Kraftwerksgeländes, Ausfall der Notstromdiesel und folglich Ausfall der Reaktorkühlungen,

    c) der unausweichlichen Erhitzung der Reaktoren durch die Nachzerfallswärme mit der Folge von Schäden an Brennelementen und Freisetzung von Radioaktivität.

  2. Es wird der mutige Einsatz des Kraftwerkspersonals gewürdigt, das in Dunkelheit und bei fehlender Kenntnis über den tatsächlichen Zustand der Anlage wegen Ausfall aller Kontrollsysteme zu arbeiten hatte.

  3. Es wird die Zusammenarbeit zwischen der Regierung, Nuklearbehörden und Kraftwerkspersonal und den Fachleuten der IAEA gelobt, die sich in der Bereitschaft zur Auskunft, Besichtigungen, Erörterungen aller Maßnahmen zeigte.

  4. Als Verbesserung wird hingewiesen auf die in deutschen Anlagen selbstverständlichen Sicherungseinrichtungen wie Diversitäten, örtlich getrennten Redundanzsystemen und Vorsorge gegenüber Wasserstoffexplosionen.

  5. Es wird der Zweck der IAEA-Mission bekräftigt, die Ereignisse in Japan als ein Mittel zur weltweiten Erhöhung der nuklearen Sicherheit zu benutzen.

Eigentlich ist also nichts passiert in Japan, eben nur ein Kraftwerk wurde zerstört, das repariert oder durch ein neues und besseres ersetzt werden kann. Deutschland steigt dennoch aus, denn „es hätte ja etwas passieren können,“ so wird häufig argumentiert – aber ist diese Denkweise in Hinblick auf die Wichtigkeit der Stromversorgung wirklich gerechtfertigt?

Dr. Lutz Niemann für EIKE

Eine Übersetzung des IAEA Berichtes finden Sie im Anhang

Related Files




„Weltklimarat“ IPCC lässt sich vom Medienkonzern Greenpeace als Sprechpuppe missbrauchen! Energiebericht von Greenpeace verfasst!

Klimalüge: Erneuter Schwindel beim IPCC

Wissenschaftliche Politikberatung soll politischen Entscheidungsträgern das Werkzeug für rationale Entscheidungen in die Hand geben. Dies gilt offiziell auch für das Intergovernmental Panel on Climate Change (IPCC). Inoffiziell fungiert dieses Gremium jedoch als Durchlauferhitzer des Umweltlobbyismus von Umweltschutz-NGOs, wie Steven McIntyres (Climate Audit) Quellenanalyse der jüngsten Szenarien zum weltweiten Ausbau der Nutzung erneuerbarer Energieträger belegt.

Seiner Recherche nach sind Greenpeace-Szenarien die Grundlage des vom IPCC jüngst veröffentlichten Materials, wobei der verantwortliche IPCC-Autor auch gleichzeitig bei der Erstellung der Szenarien für Greenpeace federführend war. Steve McIntyre kommentiert dieses PR-Desaster: 1)

The public and policy-makers are starving for independent and authoritative analysis of precisely how much weight can be placed on renewables in the energy future. It expects more from IPCC WG3 than a karaoke version of Greenpeace scenario. (1)

Aber beim IPCC hat man es mit der Wahrheit noch nie sonderlich genau genommen. Bereits 2009 wurde enthüllt, dass die Erzeugnisse dieses IPCC ein kompletter Schwindel sind, der auf der Manipulation von Computermodellrechnungen basiert, die eine Erwärmung wegen des exzessiven Ausstoßes von CO2 simuliert haben. Dabei gab es nie irgendeine Bedrohung durch CO2. Es handelt sich dabei um ein für die Vegetation auf der Erde unabdingbar notwendiges Gas. Es repräsentiert nur einen sehr kleinen, ja winzigen Anteil der Erdatmosphäre.

Damals hatte Dr. Phil Jones, führender Klimaforscher und führendes Mitglied des UN-Welklimarates (IPCC) zerknirscht die Echtheit der veröffentlichten Daten bestätigt, wollte aber keinen Kommentar zu den unglaublichen Abgründen an Betrügereien und Geldbeschaffungen abgeben. (2)

Die gehackten Dateien und E-Mails unter IPCC-Klimawissenschaftlern gaben unter anderem darüber Aufschluss, wie Datensätze mit Tricks und Fälschungen erzeugt werden konnten, um damit anschaulich eine globale Erwärmung der Neuzeit vorzutäuschen.

Sie zeigen auch auf, wie „Abweichler“ gezielt öffentlich persönlich angegriffen und in ihrer wissenschaftlichen Reputation herabgewürdigt wurden. Dazu gehörte auch die Rückweisung ihrer abweichenden wissenschaftlichen Arbeiten im sogenannten „Peer-Review“-Verfahren, die offenbar schon vorher abgesprochen und vereinbart wurde.

(1) http://climateaudit.org/2011/06/14/ipcc-wg3-and-the-greenpeace-karaoke/
(2) http://community.zeit.de/user/schneefan/beitrag/2009/11/21/cruklimawissenschaftler-gehackt-ipccschwindel-weltweit-entlarvt

Autor Roger Baettig | June 16, 2011 Copyright International Business Times Originalartikel Hier

Mit dank an Spürnase Wolfgang Nabers

Wie zur Bestätigung hier ein Link zu einem Artikel bei Joanne Nova : .

Auszug:

The IPCC issued a press release (May 9th) though as usual, with no details or sources at the time. They got the media headlines, then quietly “backed” it up a month later with a 1000 page report they figure no one will read. Certainly, they must be a little surprised that within two days of quietly releasing the tome, it is spreading like fire across the blogosphere, and some of it’s deepest secrets are already out of the bag.

Let’s be clear about this, Greenpeace is a $200-million-euro-per-year machine (see theGreenpeace annual report for 2009). Their charity status was recently revoked in New Zealand. They are a big political animal, like the IPCC. But both are claiming to use science to support them. And both, it seems, cite each other as if they were scientific. Greenpeace openly, but the IPCC hides the reverse-citations in invisible ink, between the lines.




Wenn sich Blinde an Blinden orientieren – die Messreihen der GISS et al.-Oder Hütchenspieler unter sich!

Update: Solarforscher befürchten Beginn einer kleinen Eiszeit innerhalb der nächsten 10 Jahre! hier und hier

“If we are right, this could be the last solar maximum we’ll see for a few decades,” Hill said. “That would affect everything from space exploration to Earth’s climate.”

Prof. Rahmstorf untermauerte dann seine These mit fünf Temperaturdatenreihen (Abbildung 1), die des Hadley Centers, GISS, NOAA, UAH und RSS. Bei den beiden letztgenannten handelt es sich um Satellitenmessungen, von denen allgemein angenommen wird, sie seien korrekt.

Aber dazu später. Über die ersten drei, braucht seit Climategate nichts mehr gesagt zu werden. EIKE berichtete vielfach darüber. Sie sind durch Weglassen von kälteren Stationen verfälscht. Hier dazu ein Beispiel aus den USA, wie mit manipulierten Daten Temperaturwerte in die Höhe getrieben werden/wurden.

Abbildung 2 zeigt die Temperaturwerte für die USA des GHCN (Global History Climate Network – stellt die globalen Temperaturreihen zusammen, an denen sich GISS und NOAA anlehnt). Rot ist die Temperatur und blau die Anzahl der Messstationen. Ab 1880 erhöhte sich die Anzahl der Messstationen von ca. 200 auf ca. 1.800, wobei die neuen Stationen größtenteils nicht mehr in den Städten (waren bereits gut versorgt), sondern in ländlichen und gebirgigen Gebieten aufgestellt wurden. Zwischen 1970 und 2005 wurden die Stationen auf ca. 1.200 reduziert und insbesondere die „unpassenden“ Stationen in ländlichen Gebieten ausgesondert, wodurch es zu einem deutlichen Anstieg der Temperaturen kam (blauer und roter Pfeil). In 2009 wurden die Stationen von ca. 1.200 auf unter 200 (136!) reduziert. Diese verbliebenen Stationen liegen alle in Städten oder auf Großflughäfen.

Wie der Wärmeinseleffekt (WI) und Großflughäfen die Temperatur verfälschen, hatte EIKE berichtet:

http://www.eike-klima-energie.eu/news-anzeige/der-waermeinseleffekt-wi-als-antrieb-der-temperaturen-eine-wertung-der-dwd-temperaturmessstationen/

und hier

http://www.eike-klima-energie.eu/news-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert/

So ist denn auch in Deutschland in der von EIKE erstellten richtigen Vergleichskurve der Jahrestemperaturen von einer Erwärmung nichts zu sehen.

Abbildung 3 zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und der WI-bereinigten von 1891 – 2009. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass es derzeit kälter als im 120-Jahresvergleich ist. Zum berechneten WI aus Abbildung 4, wurde, wie dies beim IPCC üblich ist, den Fehlertoleranzbereich angegeben (grüner Bereich).

Doch Rahmstorf bezieht sich ja auf die globale Mitteltemperatur, bzw. deren Änderung. Aber auch die globalen Temperaturreihen zeigen nicht nach oben, sondern nach unten – es wird kälter.

Abbildung 4 zeigt die Temperaturreihe des Hadley Centers, Quelle, (http://www.climate4you.com/GlobalTemperatures.htm) von 1850 – 2010. Wie unschwer zu erkennen, fällt seit Beginn des Jahrhunderts die Temperatur. Erwärmung leider: Fehlanzeige.

Inwieweit wir uns heute, wie die Temperaturreihen von Prof. Rahmstorf in seinem Artikel suggerieren sollen, in einer außergewöhnlichen Erwärmungsphase befinden, zeigt unbestechlich ein Blick in die Vergangenheit.

Abbildung 5 zeigt die Temperaturreihe seit der letzten Eiszeit (rot, gemessene Werte). Die heutigen Temperaturen sind vergleichsweise niedrig. Auch der Anstieg ist nichts Außergewöhnliches, Quelle, wie oben.

Das gleiche Bild ergibt sich, wenn noch weiter in die Vergangenheit der Blick gerichtet wird.

Abbildung 6 zeigt die Temperaturschwankungen der letzten 450.000 Jahre. Zum einen sind die Temperaturschwankungen zyklisch und zum anderen ist das heutige Niveau vergleichsweise niedrig! Quelle, wie oben.

Prof. Rahmstorf bezieht sich u.a. auf die berüchtigte GISS-Temperaturkurve. Hier ein kleines Beispiel, wie die GISS unter seinem Direktor, dem, spätestens seit Climategate, ins Gerede (Kohlezüge sind „Todeszüge“) geratenen Prof. James Hansen, Temperaturreihen, manipuliert werden.

Abbildung 7 (Quelle: http://icecap.us/images/uploads/GHG_Model_failure_AO.pdf) zeigt die GISS-1980-Datenreihe (blau) und zum Vergleich, für exakt denselben Zeitraum, die GISS-Datenreihe 2010 (rot), in der auf wundersame Weise, der Temperaturverlauf gänzlich anders ist. Zum Vergleich ist die Abweichung der Satellitenmessungen (+0,26°C) für 2009 eingetragen.

Eingangs wurde erwähnt, dass Satellitenmessungen allgemein als verlässlich angesehen werden. Dies ist jedoch nicht so, wie die folgenden Zeilen zeigen.

Die MSU-Messgeräte (Microwave Sounding Unit) auf Satelliten messen die Mikrowellenstrahlung von Sauerstoffmolekülen im Wellenlängenbereich von 0,5cm – 0,6cm (50,3GHz – 57,95GHz) in der Atmosphäre, deren Abhängigkeit (Strahlungsverteilung) von der Temperatur sehr genau und bekannt ist. Grundlage der Berechnung (auch hier, wie bei der bodengestützten Temperaturmittelwertbildung, werden die Temperaturen nicht direkt gemessen, sondern berechnet) ist die Strahlungsübertragungsgleichung, in Form der Schuster-Schwarzschild-Gleichung, in der die Plancksche Strahlungsformel unter der Annahme eines lokalen thermodynamischen Gleichgewichts als Quellfunktion dient und der Gewichtung der unterschiedlichen Satellitenkanäle, für die sog. mathematische Quellfunktionen (Gewichtsfunktionen) verwendet werden. MSU, der von der University of Alabama bereitgestellt wird und RSS (Remote Sensing Systems) basieren auf den selben Rohdaten (MSU-Radianzen), weisen aber teils unterschiedliche Werte aus. An der Beobachtung und Aufnahme der Daten sind immer mindestens 2 Satelliten beteiligt, deren Daten untereinander verglichen werden, um die Fehlertoleranzen einzugrenzen. MSU-Daten besitzen den großen Vorteil, dass mit ein und demselben Messgerät an allen Flächen der Erde gemessen wird und nicht an wenigen, ausgesuchten Stellen, wie dies bei Bodenmessungen der Fall ist.

 

Abbildung 8: MSU-Daten werden seit 1979 aufgenommen. Satelliten messen Strahlungsdichten! Links, Nimbus-Satellit aus der Anfangszeit der Satellitenbeobachtung und rechts, derzeitiger Aqua Satellit mit AMSU (Advanced Microwave Sounding Unit, der in 20 Kanälen misst) der NASA liefern täglich ca. 300.000 Messungen.

Die MSU-Messgeräte besitzen vier Kanäle, mit denen die Strahlungsverteilung und somit die Temperatur in verschiedenen vertikalen Profilen (Höhenbereichen) gemessen wird. Die Kanäle wurden dabei so gewählt, dass die Wolkenbedeckung keinen Einfluss auf das Messergebnis ausübt. Die Kanäle im Einzelnen sind:

  • TLT = Temperature Lower Troposphere
  • TMT = Temperature Middle Troposphere
  • TTS = Temperature Troposphere / Stratosphere und
  • TLS = Temperature Lower Stratosphere

TLT deckt die tiefe Troposphäre mit dem stärksten Gewicht bei 850 hPa (siehe Diagramm “Relative Weighting Function“). In diesem Höhenprofil tritt eine starke Beeinflussung der Bodenbeschaffenheit (Bodenstrahlung) auf (10% über Wasser, 25% über Land und 60% über Eis).

Da der Kanal sehr nahe am atmosphärischen Fenster liegt, bestehen die gemessenen Rohdaten nicht nur aus den Emissionen aus der Atmosphäre, sondern auch aus Bodenemissionen und Bodenreflexionen aufgrund der Flüsse von sensibler und latenter Wärme. Die Troposphäre wird mehr durch die Flüsse sensibler und latenter Wärme, als durch IR-Strahlung erwärmt, die insbesondere die unteren Schichten dominieren.

TMT repräsentiert die mittlere Troposphäre im Bereich zwischen 300 hPa und 850 hPa. Auch hier bedingt die Nähe zum atmosphärischen Fenster Beeinflussung durch Bodenemissionen. Etwa 10% der Rohdatenwerte stammen von Bodeneinflüssen. Wie beim TLT werden auch hier zum Datenabgleich Temperaturdaten von Bodenstationen benötigt. Satellitendaten werden also mit den Daten von Bodenstationen abgeglichen, sozusagen „geeicht“.

Sind diese Temperaturdaten zu hoch (falsch, siehe Climategate), so sind zwangsläufig, wenn auch weniger in der Höhe, die Temperaturdaten von Satelliten falsch, sprich, zu hoch! Aus diesem Grund sind auch die Trends gleich.

TTS umfasst den Übergangsbereich Troposphäre und Stratosphäre mit Schwerpunkt bei 220 hPa (ca. 10 km-Höhe). Daten liegen seit 1987 vor.

TLS deckt den Atmosphärenbereich zwischen 90 hPa und 150 hPa in der Stratosphäre ab. Wie aus der “Relative Weighting Function“ hervorgeht, liegt seine Gewichtung bei 90 hPa. In dieser Höhe sind sowohl die Tag/Nacht-Unterschiede, als auch die Land/Meer-Unterschiede zu vernachlässigen, als auch der Einfluss der Bodenemissionen auf die Rohdaten.

Abbildung 9: Um den gemessenen Strahlungswerten eine Temperatur in den verschiedenen Schichtdicken zuordnen zu können, wird neben der Strahlungsübertragungsgleichung, eine Gewichts- oder Quellfunktion benötigt. Diese Gewichtsfunktion ordnet den Hauptdurckflächen Gewichte zu, wie die Abbildung 8 für die vier MSU-Kanäle zeigt. Die Gewichtsfunktion ist dabei die Ableitung des optischen Weges, der Transmission nach der Höhe und beschreibt, welche vertikale Schicht den größten Beitrag an den gemessenen Rohdaten besitzt. Unter der Annahme, dass die Verteilung des Sauerstoffgehalts in der Atmosphäre genau bekannt ist, so ist auch über die Kenntnis des optischen Weges die Transmission bekannt.

Die Abbildung 9 zeigt, dass die Kanäle TTS und TLS nicht von Bodenemissionen beeinflusst werden. Mittlere und vor allem tiefe Troposphäre haben dagegen unterschiedliche Gewichtsfunktionen über der jeweiligen Höhe.

Abbildung 10 links zeigt das Emissionsspektrum der Erde im Wellenlängenbereich von 0,1 – 3 cm. Dazu die Absorptionen/Emissionen von Sauerstoff und Wasserdampf. Im Frequenzbereich von 50,3 – 57,95 GHz liegt der Messbereich der MSU-Kanäle. Die Messbereiche, die für die untere und mittlere Atmosphäre relevant sind, liegen nahe dem atmosphärischen Fenster und werden somit von Emissionen des Bodens beeinflusst.

Abbildung 10 rechts, Quelle: Uni Graz, “Monitoring des Klimawandels mit Satellitenmethoden“, zeigt die unterschiedlichen Gewichtsfunktionen von RSS und UAH, die einen Grund für die unterschiedlichen Temperaturwerte der beiden Datenreihen darstellen.

Auch Satellitendaten, denen eine hohe Richtigkeit zugebilligt wird, sind von den Landmessungen abhängig. Sind diese zu hoch, siehe Climategate, können die Satellitendaten nicht richtig sein, sondern sind ebenfalls zu hoch.

Aber der Autor möchte mit Herrn Prof. Dr. Rahmstorf nicht zu hart ins Gericht gehen, da es in der Tat eine menchen-gemachte Erwärmung gibt, wenn sich diese auch lediglich auf die Messsationen bezieht. Anbei für unsere Leser zwei Beispiele der menschen-gemachten Erwärmung.

 

Abbildung 11 zeigt die Temperaturmessstation auf dem Flughafen von Rom und dessen Lage zum Rollfeld, Quelle: Watts up with that.

 

Abbildung 12 (http://www.albwetter.de/Wetterstationsbilder.htm) zeigt die Wetterstation auf dem Frankfurter Flughafen. Sie liegt nicht nur sehr nah am Rollfeld (ca. 70m), sondern in direkter Richtung zu den Abgasstrahlen der Jets, wie in der rechten Abbildung zu sehen. Das Bild erinnert frappierend an die Zustände auf dem Flughafen Rom, wie von Prof. Watts gezeigt.

 

Abbildung 13 zeigt die Lage der DWD-Wetterstation auf dem Flughafengelände (roter Pfeil). Sie wird von den startenden und landenden Jets von deren heißen Triebwerksabgasen direkt getroffen.

Prof. Dr. Rahmstorf, sowie seine Kollegen vom PIK sollten sich lieber etwas mehr mit handfester Wissenschaft, als mit Zukunftsforschung beschäftigen, möchte man ihnen zurufen. Mit 5-Jahresplänen hat die Menschheit bekanntermaßen keine guten Erfahrungen gemacht. Mit 50-Jahresplänen sieht es ganz sicher nicht besser, sondern nur schlechter aus. Wie auch immer, beide haben mit Wissenschaft nichts zu tun. Stattdessen versucht sich Rahmstorf als Hütchenspieler und bot dem von ihm direkt angegriffenen Prof. Fritz Vahrenholt eine Wette an.

Ich möchte Herrn Vahrenholt daher hiermit eine Klimawette vorschlagen. Das vergangene Jahrzehnt (2000 – 2009) war das wärmste seit Beginn der Temperaturmessungen, wahrscheinlich sogar seit mindestens 2000 Jahren. Wenn das angelaufene Jahrzehnt (2010 – 2019) global kühler ausfallen sollte, dann spende ich ein Monatsgehalt an einen gemeinnützigen Zweck seiner Wahl – wenn es wärmer ausfällt als das letzte, dann spendet er ein Monatsgehalt an eine gute Sache meiner Wahl.

Dieser mochte sich dem Vorschlag nicht anschließen und antwortete unter der Überschrift ebenfalls in der SZ: „Ich stehe für Hütchenspiele nicht zur Verfügung“.

Recht hat er, sollte man hinzufügen. Darüber wetten nur Spieler oder eben Klimafolgenforscher. Auch EIKE hat einen offiziellen Widerspruch an die SZ geschickt, dieser wurde aber mit fadenscheinigen Begründung nicht veröffentlicht. Wir holen das demnächst nach.

Raimund Leistenschneider – EIKE, unter Mitarbeit von M. Limburg EIKE




Wie gewonnen, so zerronnen? Frankreich verbietet Schiefergasförderung!

Frankreich: Verbot von Hydraulic Fracturing zur unkonventionellen Gasförderung passiert Senat

In Frankreich ist am 9.6.11 das erste mal in Europa ein Gesetz zum Verbot von Hydraulic Fracturing bei der unkonventionellen Gasförderung in Schiefergas verabschiedet worden.

Der Gesetzentwurf passierte in der Rekordzeit von unter 2 Monaten alle politischen Instanzen und zwingt jetzt die gasfördernden Unternehmen, nach alternativen Fördermethoden zu suchen.

Begründet wird das neue Gesetz damit, dass die Anwendung  der aktuellen Form von Hydraulic Fracturing zur Gewinnung von Erdgas grundsätzlich gegen die französischen Umweltschutzziele verstößt.

  • der Genehmigungsprozess sei intransparent und schließe Bürgerinnen und Bürger, Umweltschutzverbände, Behörden und die lokale Politik aus.
  • Statt Energie einzusparen, werde nur der Wunsch der Unternehmen nach kurzfristigen Gewinnen berücksichtigt
  • Hydraulic Fracturing stelle eine Gefahr für Mensch und Umwelt dar
  • der Wasserverbrauch sei sehr groß
  • die Förderung und Nutzung sei schädlich für das Klima – statt CO2 zu vermeiden, wird zusätzliches CO2 in die Atmosphäre gebracht
  • die Entsorgung der Frackwasser sei ungeklärt
  • die eingesetzten Chemikalien seien ein Risiko für das Grundwasser
  • die Förderung stehe in Konkurrenz zu Landwirtschaft und Tourismus

Die Trennung des Genehmigungsprozesses von Explorationsbohrungen und Förderung wird in der Begründung des Gesetzes angezweifelt. Zur Zeit gebe es keine andere Technik, um an das unkonventionelle Gas zu gelangen. Die hohen Investitionen zeigen, dass die Unternehmen eine Förderung von Anfang an erwarten. Die Exploration würde über Probefracks nahtlos in die Vorbereitung zur Förderung übergehen.

Ausgenommen vom Gesetz ist Hydraulic Fracturing zu Forschungszwecken. Damit soll die Tür zur Förderung von unkonventionellem Gas nicht vollständig geschlossen werden und den Unternehmen einen Anreiz zur Entwicklung umweltfreundlicher Technologien gegeben werden.

Die bisher erteilten Aufsuchungslizenzen werden innerhalb von 3 Monaten ungültig. In dieser Zeit haben die Unternehmen die Möglichkeit, vorzustellen, wie sie ohne Gefährdung von Mensch und Natur und ohne Hydraulic Fracturing an das Gas gelangen wollen. Dazu können die Aufsuchungen auch in Forschungsprojekte umgewandelt werden, die unter Aufsicht der staatlichen Behörden durchgeführt werden.

Die Opposition kritisiert diese Ausnahme und befürchtet eine Hintertür, durch welche die Unternehmen weiter arbeiten können wie bisher.

Beitrag von Jörn Krüger am 10. Juni 2011 

Erschienen hier

Quelle: http://www.senat.fr/dossier-legislatif/ppl10-510.html

Update  vom 15.6.11: Polen will billige Schiefergas-Energie vorantreiben.

Wie die unabhängige European Energy Review schreibt will Polen das Thema Schiefergas anlässlich seiner Übernahme der EU Präsidentschaft am 1.7.11 kräftig vorantreiben. Hier lesen From Poland with love 

EXXON SCHEINT IN NRW EINEN SCHWEREN WEG ZU GEHEN:

… Das nehmen wir Ihnen nicht ab. Die sind riesig. Anwohner werden Sturm laufen.
Remmel: Natürlich steht der Schutz der Anwohner an erster Stelle. Aber, was das Landschaftsbild angeht. Da gilt: Windräder gehören mittlerweile zur Kulturlandschaft wie Überlandleitungen und Kühltürme von Kraftwerken. Das ist auch eine Geschmackssache.

Glauben Sie, dass in zehn Jahren auch Gas-Bohrtürme zur Kulturlandschaft von NRW gehören?
Remmel: Nein.

ExxonMobil und andere wollen hier aber nach Gas bohren – auch mit Chemikalien.
Remmel: Es ist doch relativ leicht erkennbar, dass die Menschen in NRW nicht wollen, dass beim sogenannten „Fracking“ Chemikalien in den Boden gepresst werden. Das ist doch inzwischen einhellige Meinung. Das kann weder ExxonMobil noch ein anderes Unternehmen gegen die Bevölkerung durchsetzen. Warum auch? Offenbar treten auch nach vielen Jahren noch Umweltschäden durch diese Fördertechnik auf – siehe USA. Ich glaube, das muss man sehr ernst nehmen.

Braucht NRW diese Bohrungen?
Remmel: Wir wollen sie nicht. Aber das muss rechtssicher sein. Wir müssen das Gutachten über mögliche Gefahren abwarten, das in den kommenden Tagen ausgeschrieben werden soll. …

Quelle: http://www.ruhrnachrichten.de/nachrichten/politik/inland/art29862,1306510




Nachhaltige Entwicklung? – Die Welt gehört den Lebenden!

Der Besuch im Vergnügungspark endete vor der lebensgroßen Figur des Mammuts. “Lebensgroß” bedeutet in diesem Fall nichts anderes als “ziemlich groß”, also beeindruckend. Der Gestalter hatte sich alle Mühe gegeben, denn immerhin wissen wir heute genau, wie Mammuts einmal ausgesehen haben. Und im Gegensatz zu all den vielen Dinosauriern, deren lebens- also ziemlich große Nachbildungen der Park ebenfalls zu bieten hatte, waren Mammuts einmal unsere Zeitgenossen. Das erklärt die Faszination, die diese Tiere auf uns ausüben. Und ebenfalls im Gegensatz zu den Dinosauriern gibt es zumindest Indizien, die das Aussterben dieser großen Landsäugetiere mit dem Menschen, mit den Fertigkeiten steinzeitlicher Jäger, in Verbindung bringen.  Die Figurengruppe im Vergnügungspark, die nicht nur aus dem gigantischen Rüsseltier, sondern auch aus unseren fellbedeckten, mit Speeren herumfuchtelnden Vorfahren besteht, bildete einen merkwürdigen Kontrast zu den Horden lärmender Kinder und staunender Eltern, die sie betrachteten.

Dieser Kontrast verdeutlicht das Scheitern des Prinzips der “nachhaltigen Entwicklung”.

Unsere gegenwärtigen Bedürfnisse, so dieses Prinzip, sollen wir auf eine Art und Weise erfüllen, die die Fähigkeit künftiger Generationen zur Befriedigung ihrer Bedürfnisse nicht einschränkt. Für sich genommen bietet diese Vorgabe keinerlei Entscheidungskriterium. Denn erstens kennen wir die Bedürfnisse zukünftiger Generationen nicht – und zweitens nicht deren Fähigkeiten.
Das Prinzip der nachhaltigen Entwicklung ergibt nur dann einen Sinn, wenn es in den Kontext seiner Entstehung gestellt wird. Und dieser Kontext ist die Vorstellung prinzipiell unüberwindlicher Grenzen, denen wir durch unsere Lebensweise bedrohlich nahekommen.

Es scheint ja naheliegend: Die Erde hat eine definierte Größe. Ihre Oberfläche und das, was sich auf ihr so tummelt, ihr Volumen, und das, was man darin so findet, sind tatsächlich von endlicher Menge. Die Vorstellung, daß uns dies einmal Probleme bereiten könnte, ist mindestens so alt wie die industrielle Revolution. Und diese Idee der Begrenzung unserer Möglichkeiten wurde in den 1970er Jahren so populär, daß sie in die Formulierung des Prinzips der nachhaltigen Entwicklung in den 1980ern und dessen Implementierung als grundlegendes politisches Dogma in den 1990ern mündete. Heute gibt es im deutschen Bundestag keine Partei mehr, die sich in ihrer Programmatik gegen diesen Ansatz wendet.

Für das Mammut kam diese Entwicklung etwas zu spät.

Dabei mag es eine große Bedeutung für nomadische menschliche Gesellschaften gehabt haben. Es lieferte nicht nur Fleisch, sondern vom Fell über Elfenbein bis zu den Knochen allerlei Materialien zur Anfertigung einer Vielzahl nützlicher Artefakte. Man kann durchaus eine besondere Abhängigkeit umherziehender Stammesverbände vom Mammut annehmen. Die Vorstellung, das Mammut könnte einmal nicht mehr existieren, wird vielleicht zu den Schreckensszenarien gehört haben, die sich unsere Vorfahren vor zehntausenden von Jahren in dunklen Stunden ausgemalt haben. Sich nachhaltig zu entwickeln, hätte für den Steinzeitmenschen bedeutet, das Mammut auf jeden Fall zu erhalten. Es nicht so intensiv zu bejagen, wie möglicherweise geschehen, damit es auch seinen Nachkommen weiterhin zur Verfügung steht.

Es ist anders gekommen: Das Mammut ist nicht mehr – und dies ist heute völlig ohne Belang.

Tatsächlich ist zu konstatieren: Zu keinem Zeitpunkt in ihrer Geschichte hat sich die Menschheit nachhaltig entwickelt. Immer wurden natürliche Ressourcen ausgebeutet und genutzt, um aktuelle Bedürfnisse zu befriedigen – ohne jede Rücksicht auf nachfolgende Generationen. Und zu keinem Zeitpunkt der Menschheitsgeschichte wäre ein Leben auf der Grundlage des Prinzips der nachhaltigen Entwicklung aus heutiger Sicht sinnvoll gewesen.

Was hätte ein Römer denn als wichtig genug erachten können, um es für die Nachwelt zu erhalten? Was ein Mensch des Mittelalters? Und was ein Zeitgenosse der beginnenden Neuzeit? Felle (für Kleidung), Bienenwachs und Walöl (für die Beleuchtung), Pferde und Ochsen (für Transportzwecke), Holzkohle (für die Eisenverhüttung), Pergament (für die Kommunikation)? In Wahrheit könnte man alle diese Ressourcen heute immer noch in beliebiger Menge bekommen – nur werden sie nicht mehr gebraucht (jedenfalls nicht für ihren ursprünglichen Zweck). Bei mir findet sich von all dem aktuell nur ein kleiner Vorrat Holzkohle – zum Grillen.

Es gibt – und das ist der zweite Aspekt dieser kurzen Liste – keine einzige Ressource mit Bedeutung zu irgendeinem Zeitpunkt der Menschheitsgeschichte, die heute deswegen nicht mehr vorhanden wäre. Noch nie haben wir irgendetwas vollständig und unwiderruflich verbraucht. Es ist auch alles noch da, was das Mammut zu bieten hatte: Elfenbein, Knochen, Fleisch und Fell. Die Steinzeit – und dieser Satz ist so banal wie alt wie richtig – ist eben nicht aus einem Mangel an Steinen beendet worden.

Man kann sein Verhalten nicht an der Zukunft ausrichten, da man diese nicht kennt. Die Anhänger der nachhaltigen Entwicklung sehen dies natürlich anders. Sie glauben die Zukunft ganz genau zu kennen. Sie sind davon überzeugt, die Menschheit wäre an einem singulären, besonderem Punkt ihrer Entwicklung angelangt. Am Ende eines Weges, der tatsächlich von einer hohen Mauer begrenzt würde, die man nicht überwinden könne. Es gälte, so die Forderung, anzuhalten oder gar den Weg wieder ein Stück zurückzugehen, um nicht aufzuprallen. Tatsächlich ist diese Vorstellung so alt wie die Menschheit selbst. Noch jede Gesellschaft hat sich selbst als Ende und Höhepunkt einer Entwicklung gesehen, noch jede Gesellschaft hatte keine kluge Idee von dem, was nach ihr kommen könnte. Und bislang haben sich all die angenommenen Mauern als reine Phantasieprodukte herausgestellt, die nur in den Köpfen (einiger) Menschen, nicht aber in der Realität vorhanden waren.

Vor diesem Hintergrund ist das Prinzip der nachhaltigen Entwicklung in Wahrheit nur Ausdruck von Hybris und Phantasielosigkeit. In einer Politik, die diesem Prinzip folgt, manifestiert sich ein Mangel an Vorstellungsvermögen. Mehr nicht. Die Anhänger der nachhaltigen Entwicklung glauben die Zukunft zu kennen – aber sie vergessen darüber die Vergangenheit.

Auf die Frage, warum denn genau die aktuelle Epoche der Menschheitsgeschichte eine gegenüber unseren Vorfahren grundlegende Verhaltensänderung erfordert, hat Hans-Joachim Schellnhuber jüngst in einem Essay für die FAZ eine interessante, durchaus neue und bedenkenswerte Antwort gegeben: Weil wir es (erst) heute können. Natürlich ist ihm die oben ausgeführte Argumentation geläufig: Wäre man dem Prinzip der nachhaltigen Entwicklung im 18. Jahrhundert bereits gefolgt, hätte es die industrielle Revolution nie gegeben. Und der Wohlstand, der gegenwärtig Milliarden Menschen ernährt (und alle möglichen anderen Bedürfnisse befriedigt) wäre niemals möglich gewesen. Darauf entgegnet er sinngemäß, natürlich wäre die industrielle Revolution gut und sinnvoll gewesen. Denn durch sie erst hätten wir überhaupt die Fähigkeit entwickelt, heute eine nachhaltige Lebensweise zu wählen.

Mit anderen Worten: Allein die nicht-nachhaltige Entwicklung der vergangenen Jahrhunderte hat in dieser Argumentation die Möglichkeit geschaffen, (gedachten) Gefahren für unsere weitere Entwicklung durch Abkehr und Umkehr aus dem Weg zu gehen. Der heutige Wohlstand erst, der sehr wesentlich auf der ungebremsten Ausbeutung nicht nachwachsender fossiler und mineralischer Ressourcen beruht, hat also Bremse und Rückwärtsgang geschaffen, durch die man den Aufprall auf die (gedachte) Mauer vermeiden könnte.

Was liegt also näher, als einfach dem bisher eingeschlagenen Weg weiter zu folgen? Auch unsere Nachfahren werden wohl an Mauern, an Grenzen der Entwicklung glauben. Es werden nur andere sein, als man heute annimmt. Unsere Bedürfnisse in der Gegenwart zu befriedigen und sich dabei nicht von Weltuntergangsphantasien stören zu lassen, kann also die Möglichkeiten unserer Nachfahren, mit den Problemen der Zukunft umzugehen (ganz gleich ob diese Phantasie oder Realität sind), nur noch weiter verbessern. Ganz so, wie die Entwicklung von Maschinen, die Nutzung der Elektrizität, die Herstellung von Kunststoffen, die Technisierung der Landwirtschaft und vieles mehr uns den Reichtum ermöglicht haben, der erst heute nach Schellnhuber eine nachhaltige Entwicklung gestatten würde.
Sich auf diese dann aber wirklich festzulegen, hieße, künftigen Generationen keine anderen Bedürfnisse zu erlauben, als wir sie heute schon haben.
Aus der Sicht unserer Nachfahren würden wir, folgten wir den Schellnhuberschen Ideen einer “großen Transformation”, genau den Fehler machen, den die Menschen der vergangenen Generationen glücklicherweise nicht gemacht haben. Das Prinzip der Nachhaltigkeit ist der eigentliche Irrtum unserer Zeit, schließlich muss man nicht gleich vor jeder Mauer stoppen. Sollte sie wirklich keine Illusion sein, kann man sie auch umfahren. Oder – und das war in der Vergangenheit immer die bessere Alternative – man erhöht Geschwindigkeit und Panzerung und pulverisiere sie einfach, während man sie durchbricht.

Die junge, neue Kollegin im Büro fragte mich vor kurzem erst, was denn aus meiner Sicht so kritikwürdig am Prinzip der “nachhaltigen Entwicklung” sei. Ich antwortete wortlos aus dem Fenster zeigend. Sie verstand bemerkenswert schnell: “Ah, Sie meinen, daß die Welt noch immer existiert?” Das ist der Punkt. Es geht uns heute nicht schlechter, als vor zwei oder drei Jahrzehnten. Sondern besser. Und es geht uns sogar sehr viel besser, als den steinzeitlichen Mammutjägern. Auch ohne Mammuts. Und niemand von den Besuchern des Parks, nicht die Kinder und auch nicht die Eltern, niemand wird die folgende Nacht schlaflos vor Trauer über den Verlust dieser Elefantenart verbracht haben. Ganz im Gegenteil: Auf das Mammut nicht mehr angewiesen zu sein und nicht mehr so leben zu müssen, wie unsere Altvorderen, gefällt den Menschen. Auf den Mut der steinzeitlichen Jäger, auf ihren Erfindungsreichtum und ihre Kreativität, der es ihnen ermöglichte, sich den Gefahren ihrer Umwelt erfolgreich zu widersetzen und aus diesen sogar Vorteile zu ziehen, sollten wir heute stolz sein. Versuchen wir doch einfach, diesen Stolz auf unsere Generation auch unseren Nachfolgern zu ermöglichen.

Autor Peter Heller; mit freundlicher Genehmigung

Dr. Peter Heller ist Astronom und Physiker, übt diese Profession aber mittlerweile nur noch mit dem eigenen Teleskop im eigenen Garten aus. Nach Zwischenstationen in der Software- und Raumfahrtindustrie arbeitet er heute als Strategieberater, Zukunftsforscher und Trendscout.

Der Artikel erschien zuerst in NOVO hier




Emissionshandel angezählt: der Weltmarkt für Emissionszertifikate fällt zum ersten Mal.

Ich bin gespannt, wie lange es dauert, bis der Kurs auf Null ist, wie vergangenes Jahr bei der  Chicagoer Emissionshandels-Börse CCX.

Sogar der Guardian behandelt diesen “Reinfall” auf dem Zertifikatemarkt. Dort heißt es:

Der internationale Zertifikatehandel ist fast gänzlich zusammengebrochen. Im vergangenen Jahr sind nur Zertifikate für etwa  $1.5 Mrd. gehandelt worden …

Jetzt, nachdem das Kyoto-Protokoll im Wesentlichen tot ist,  werden die Märkte nach den Rettungsringen greifen, seit es keine politische Unterstützung mehr für die Emissionsreduzierungen gibt. In diesem Bericht und auch in der Berichterstattung der Medien kann man förmlich hören, wie die Händler zu den Notausgängen rennen.

Dann auch noch das hier von Reuters: – Der europäische Emissionshandel könnte während der kommenden Jahrzehnts von überschüssigen Verschmutzungsrechten überflutet werden. Die Preise könnten um die Hälfte fallen und den Regierungen Milliarden Euro Einnahmen fehlen, wie aus EU-Quellen verlautete.

Die Weltbank meldete in ihrer Pressemitteilung:2011/514/SDN:
Wachstumsstillstand im globalen Zertifikatehandel wegen Unsicherheit
(World Bank Releases 2011 “State and Trends of the Carbon Market” Report)

Barcelona, 1. Juni 2011 – Der jährliche Zustandsbericht der Weltbank über den globalen Zertifikatehandel zeigt für 2010 einen Hagelschlag. Das seit fünf Jahren andauernde robuste Wachstum endete mit einem leichten Rückgang gegenüber 2009. Der Zustand und die Trends auf dem Markt für Emissionsrechte 2011 (Veröffentlichung auf der Carbon Expo in Barcelona) zeigt auf, dass das Gesamtvolumen des globalen Emissionshandels im vergangenen Jahr auf etwa US$ 142 Mrd. geschätzt worden war. 

Die Verfasser schreiben, dass mit Hilfe vieler Gründe der Niedergang erklärt werden kann, darunter der fortwährende Mangel an Klarheit auf dem Markt für die 2012 und der Verlust an politischer Schubkraft bei der Schaffung neuer Handelsschematat in vielen Industriestaaten. Einige Einkäufer aus Industriestaaten, die in den vergangenen Jahren ihre Minderungsziele erreicht oder übertroffen hatten, kauften konsequenterweise weniger ein als 2010. Auch die noch fortwährenden Auswirkungen der Rezession in verschiedenen Industriestaaten führten zu weniger Treibhausgasemissionen und senkten den Druck zur Erfüllung der Reduzierungsverpflichtungen.

Darüber hinaus ist der Hauptmarkt der Certified Emission Reductions (CERs), auf dem die meisten projektbezogenen Transaktionen stattfinden, zweistellig gesunken. Verschiedene Gründe spielten eine Rolle, darunter eine geringere Nachfrage nach Rechten und die Konkurrenz von besser vorhersehbaren Investitionen (Assigned Amount Units and secondary CERs). Der Markt des Clean Development Mechanismus CDM befindet sich derzeit auf dem tiefsten Stand seit dem Inkrafttreten des  Kyoto-Protokolls 2005. Er ist um 46% auf geschätzte US$ 1.5 Mrd. für neue projektbezogene Transaktionen gefallen. Gleichermaßen sind andere Zertifikates-Märkte heruntergegangen oder auf gleicher Höhe geblieben. Nichtsdestoweniger sind zusammengenommen auf dem primären Markt der Erlaubnisse Transaktionen im Werte von fast US$ 30 Mrd. seit 2005 durchgeführt worden und man erwartet, dass sie noch viel mehr Finanzmittel freigesetzt haben, vorwiegend aus dem privaten Sektor.

“Der globale Emissionshandel steht am Scheideweg. Wenn wir die falsche Richtung nehmen, riskieren wir den Verlust von Milliarden von kleineren privaten Investitionen und neue technologische Entwicklungen in den Entwicklungsländern,“ sagte Andrew Steer, Sonderbeauftragter für Klimawandel der Weltbank. “Dieser Bericht sendet die Botschaft, dass wir einen stärkeren, robusteren Emissionshandelsmarkt mit Hilfe von klaren Signalen sichern müssen.”

Der Bericht “State and Trends of the Carbon Market 2011” macht klar, dass vergleichsweise die EU-Verschmutzungsrechte (Sie werden unter dem „EU Emissions Trading Scheme ETS“ gehandelt) das bei weitem größte Segment darstellen. Sie betragen 84% des gesamten Marktvolumens des Emissionsrechtemarkts. Wenn man sekundäre CLEAN DEVELOPMENT MECHANISM (CDM) Transaktionen einbezieht, erreicht der von den ETS angetriebene Markt 97% des globalen Marktvolumens.

Die Autoren des Berichts sagen voraus, dass während der kommenden beiden Jahre die Differenz zwischen der Gesamtnachfrage und dem kumuliertem Angebot an flexibilisierten Kyoto-Protokoll-Emissionszertifikaten etwas unter US$ 140 Mio. liegen wird. Eigentlich die gesamte Nachfrage wird von den Europäischen Regierungen kommen. Nach 2012 wird die nennenswerte und uneingeschränkte Nachfrage aus Europa kommen, obwohl der mögliche Bedarf an Emissionsreduzierungen sich auf 3 Mrd. Tonnen belaufen könnte. Das zwischen 2013 und 2020, aus den existierenden Projekten herrührende verfügbare Angebot wird für ausreichend gehalten, den Bedarf zu decken. So verbleibt nur wenig Anreiz für Projektentwickler, weiter zu investieren und zukünftiges weiteres Angebot für Verschmutzungsrechte zu erzeugen.

Im Kontrast zum Fall im Marktwert steht die generelle Meinung vom Erfolg der Verhandlungen auf der UNO-Klimakonferenz in Cancun im Dezember 2010. Von dort kommt eine relativ positive Markteinschätzung.

Obwohl einige Möglichkeiten zur Stärkung der Regulierungsrahmen in einigen Industrieländern versäumt wurden, haben nationale und lokale CO2-Minderungs-Initiativen an Stärke gewonnen und lassen hoffen.

“Das Wachstum des Emissionsrechtehandels hat zu einem besonders ungünstigen Zeitpunkt gestoppt: 2010 hat sich als wärmstes Jahr seit Wetteraufzeichnungsbeginn erwiesen, dabei stiegen die globalen Emissionen ungebremst an,“

meinte Alexandre Kossoy, World Bank Senior-Finanzexperte.

“Gleichzeitig haben nationale und lokale CO2-Minderungs-Initiativen merklich an Schwung gewonnen, sowohl in entwickelten wie in Entwicklungsländern. Zusammengenommen bieten sie die Möglichkeit zur Überwindung der regulatorischen Unsicherheit und sie senden ein Signal, das auf die eine oder andere Art Lösungen für das Angehens des Klimawandels entstehen.“

Angesichts der fehlenden Nachfrage hat die Weltbank ein Anzahl von Initiativen gestartet, um den Nach-2012-Emissionshandelsmärkten Zuversicht zu vermitteln. Die in Cancun im Dezember 2010 aus der Taufe gehobene „Partnership for Market Readiness” zielt auf die Unterstützung des Trends zu nationalen Minderungsanstrengungen unter Zuhilfenahme des Marktes. Eine ganze Reihe von CO2-Fonds und Kreditlinien (Facilities) der Weltbank, wie die Carbon Partnership Facility, die zweite Tranche der Umbrella Carbon Facility und eine neue derzeit in Entwicklung befindliche Kreditlinie für die ärmsten Länder, sollen auf zukünftigen Bedarf Antwort geben durch verstärkte Reduzierung und durch den Ankauf von Verschmutzungsrechten für die Nach-2012-Zeit. Darüber hinaus unterstützt die Forest Carbon Partnership Facility die REDD+ Initiativen. Diese sind bislang noch nicht im Clean Development Mechanismus CDM enthalten. Die Weltbank hält die Emissionsrechtemärkte für ein wichtiges und wandlungsfähiges Werkzeug zur Schaffung von Anstößen zum Wechsel auf Entwicklungswege mit geringerem Kohlenstoff-Verbrauch.

Die Studie “State and Trends of the Carbon Market 2011” ist auf der CARBON EXPO 2011 vorgestellt worden. CARBON EXPO 2011 ist die weltgrößte Kohlenstoff-Messe mit über 3.000 Vertretern von Regierungen, aus dem privaten Sektor und zivilen Umweltschutzorganisationen, die sich weltweit zur Verminderung Treibhausgasemissionen einsetzen.

Mehr zu den CO2-Finanzaktivitäten der Weltbank und die elektronische Version des Berichts gibt es bei: www.carbonfinance.org

Autor Antony Watts, der Originalartikel erschien hier

Die Übersetzung besorgte Helmut Jäger (EIKE)




Die Kosten der Energiewende!

Neben den WBGU gibt es noch den Sachverständigenrat für Umwelt (SRU). Dieser hat im Auftrag der Bundesregierung ein Gutachten mit dem Titel „Wege zur 100% erneuerbaren Stromversorgung“ erstellt. Bevor darauf eingegangen wird, soll erst einmal der SRU vorgestellt werden.

Den Vorsitz hat Prof. Dr. Ing.  Faulstich (Leiter des Lehrstuhls für Rohstoff- und Energietechnologie, General Chairman der 19th European Biomass Conference 2011 in Berlin). Eine Affinität zu den erneuerbaren Energien darf vermutet werden.

Stellvertretende Vorsitzende ist Prof. Dr. med. dent. Foth. Die weiteren Mitglieder sind: Prof. Dr. jur. Calliess, Prof. Dr. rer. pol. Hohmeyer, Prof. Dr. rer. oec. Holm-Müller, Prof. Dr. rer. nat. Niekisch, Prof. Dr. phil. Schreurs.

Der einzige Naturwissenschaftler war früher Direktor beim WWF und leitet heute den Frankfurter Zoo.

„Dieses Gutachten beruht auch auf der sachkundigen und engagierten Arbeit der Mitarbeiterinnen und Mitarbeiter des SRU. Zum wissenschaftlichen Stab des SRU gehörten während der Arbeiten an diesem Gutachten:“

Die Aufzählung der Personen überspringen wir, da sie mehrheitlich Vertreter des WWF, BUND etc. sind. Es gibt unter ihnen keinen Physiker und auch keinen Ingenieur für Energiewirtschaft.

Dies mögen alles ehrenwerte Personen sein, aber trotzdem muss die Frage erlaubt sein, welche Kompetenz besitzen sie in der Energiethematik?

Wer würde in einer Analogie sein Leben einem OP-Team anvertrauen, welches aus Physikern, Ingenieuren und Biologen besteht? Sicher Niemand und sicher auch kein Vertreter vom SRU. Diesem Expertengremium wird aber die energetische Zukunft Deutschlands anvertraut.

In dem Gutachten werden acht verschiedene Szenarien diskutiert, denen gemeinsam ist, dass 2050 eine vollständige Versorgung mit erneuerbaren Energien möglich, sicher und bezahlbar ist.

Da das Gutachten knapp 400 Seiten lang ist, können wir hier nicht in Gänze darauf eingehen und werden im Wesentlichen nur die Offshore-Windenergie betrachten.

Bevor wir einige Details betrachten, sei noch einmal an den Grund für die Energiewende erinnert. Das CO2 bedroht angeblich die Welt und Deutschland fühlt sich berufen als Vorreiter den Strom bis 2050 CO2-frei zu erzeugen. Den Effekt der Anstrengungen kann man mittels der folgenden Graphik abschätzen.

Der Beitrag von Deutschland an der weltweiten Emission beträgt knapp 2.5%, deren Wegfall nahezu vernachlässigbar ist. Dies lassen wir uns, wie man sehen wird, aber sehr viel kosten.

Das Ganze wird noch irrationaler, wenn man bedenkt, dass beim letzten G8-Gipfel Russland, Japan, Kanada und die USA, China und Indien machen eh nicht mit, entschieden haben einer Verlängerung des Kyoto-Protokolls nicht zuzustimmen. Aber wir erretten die Welt. Am deutschen Wesen soll die Welt genesen, was schon einmal ein Rohrkrepierer war.

Dies ist ein Überblick über alle Szenarien, die zeigen, dass 2050 eine vollständige Versorgung mit erneuerbaren Energien möglich ist.

In Wahrheit ist überhaupt nichts bewiesen, denn das Modell (REmix), welches den Rechnungen zu Grunde liegt, macht nur eine Kostenoptimierung mit ungefähr 50 Parametern und nur für die erneuerbaren Energien. Mit anderen Worten, es wird vorn hineingesteckt, was hinten herauskommt. Die Fehler können hierbei mehr als hundert Prozent betragen. Beispielsweise eine Erhöhung der angenommenen Kosten für die Geothermie um 20% bewirkt, dass diese Energieform völlig aus den Balken verschwindet. Aber wer weiß heute schon die Preise in 20 Jahren.

Charakteristisch ist für alle Modelle, dass die Windenergie den größten Anteil besitzt.

Im Szenario 2.1a gibt es zusätzlich einen Stromaustausch mit Dänemark und Norwegen, wobei bis zu 46 GW zwischen Deutschland und norwegischen Wasserspeichern transportiert werden. Wie, das ist völlig offen. Geplant sind zurzeit zwei Leitungen mit jeweils 1.4 GW. Da fehlen noch rund 30 Hochspannungsleitungen. Ob die Dänen damit einverstanden sind das 30 Leitungen durch ihr Land gezogen werden, dies wurde nicht hinterfragt und ist eine implizite Annahme.

In Deutschland fehlen allein 3600 km im Übertragungsnetzbereich, die laut DENA rund neun Milliarden Euro kosten werden. Im noch dringlicher ausbaubedürftigen Segment der regionalen Verteilnetze rechnet der Verband Kommunaler Unternehmen (VKU) mit einem Investitionsbedarf von 25 bis 30 Milliarden Euro.

Apropos Dänemark. Das Land besitzt derzeit mit knapp 20% den höchsten Anteil an Windenergie. Es wurde aber noch kein einziges fossiles Kraftwerk abgeschaltet. Dies zeigt auch eindrücklich die folgende Graphik.

 

Dänemark und wir sind bezüglich der CO2-Emissionen bei der Stromerzeugung je Einwohner exakt gleich. Nur Frankreich mit seinem Atomstrom, Schweden und die Schweiz mit Wasser und Atom sind deutlich besser.

Nach einer Studie im Auftrage des BDI würden durch den vorgezogenen Kernenergieausstieg im Jahr 2018  durch die Energiewirtschaft 62 Mill. t CO2 mehr emittiert werden. Dänemark produziert trotz Windenergie soviel CO2, wie wir pro Kopf, bei uns werden die Meiler abgeschaltet und trotzdem sollen die Emissionen bis 2020 um 30% sinken. Welche Mathematik soll dies bewirken?

Sehen wir uns die Windkraftanlagen (WKA) einmal genauer an.

Im Szenario 1.a und 1.b sind 73.2GW maximaler Leistung vorgesehen. Daraus werden 316.9TWh/a erzeugt, was einen Wirkungsgrad von 49.4% entspricht. Wie diese fabelhafte Steigerung erzielt werden soll, wird nicht angegeben. Für Offshore-Anlagen werden vom BMU 3800 Volllaststunden, dies ist die Zeit in der die Anlage ihre optimale Leistung bringt, angegeben. Teilt man dies durch die Anzahl der Stunden im Jahr, so ergibt sich ein Wert von 43.4%. Dies wäre somit die theoretisch obere Grenze.[1] Vermutlich wird der Wind angewiesen stärker zu blasen.

Kürzlich wurde der Offshore-Park Bard 1, Park, was für ein verharmlosendes Wort für 200 m hohe Windräder, eingeweiht. Er besteht aus 80 WKA die 400 MW maximale Leistung bringen. Um eine Leistung von 73G W  zu erreichen benötigt man demnach rund 15000 WKA. Der Preis für die 80 beträgt ungefähr, man kennt die wahren Kosten noch nicht, 2 Milliarden €. Daraus ergibt sich für die 15000 WKA eine Gesamtsumme von 366 Milliarden € für die Installation. Die Wartungskosten betragen derzeit 0.12 €/W, was sich zu rund 9 Milliarden € pro Jahr aufsummiert. Da die Lebensdauer der WKA 20 Jahre beträgt, sind die Investitionen zweimal zu erbringen. Ein weiterer Faktor von rund 2 kommt hinzu, wenn man einen realistischeren Wirkungsgrad von 25% annimmt. Dies ergibt locker mehr als 1 Billion € bis 2050. Wo allerdings die 30000 WKA stehen sollen kann niemand sagen, denn dafür gibt es keinen Platz.

Der ehemalige Umweltsenator von Hamburg und Vorstandsvorsitzender der REpower AG (WKA-Bauer) jetzt bei RWE, Prof. Varenholt, sagte dazu: Für 45000 Megawatt (MW) Offshore-Windkraftanlagen, wie das UBA es verlangt, sind gar keine Flächen in der Nordsee, denn dafür würden 7500 Quadratkilometer Fläche benötigt. Zieht man von der Nordsee das Wattenmeer, die für Naturschutz, Schifffahrtswege und andere Nutzungen benötigten Flächen ab, bleiben 3500 Quadratkilometer für 20000 MW. Sind Naturschutz und Schifffahrt überflüssig?“ [2]

Nicht nur die, denn Fischerei gibt es dann auch nicht mehr. Der SRU schreibt: „Es ist davon auszugehen, dass Fischereiaktivitäten zwischen den Offshore-Windkraftanlagen verboten sind, was Beeinträchtigungen der Fischerei zur Folge hat.“ Beeinträchtigungen? Nichts geht mehr.

Wenn es für 45 GW keine Flächen gibt, wie kann es dann für 73 GW welche geben? Solche Nebensächlichkeiten stören den SRU offensichtlich nicht bei seinen Planspielen.

Es ist auch nicht ersichtlich, wie der SRU die Kosten von 13 Milliarden € pro Jahr ermittelt hat. Aber selbst in diesem Fall ergeben sich für 20 Jahre mal 13 Milliarden und dies zweimal stattliche 520 Milliarden €. Noch mehr erstaunt man über die relativ moderaten Strompreise, die aus den Rechnungen resultieren (9ct/kWh 1.a und 11.5ct/kWh 1.b). Der Grund dafür sind die angenommenen geringen Kosten für die Windenergie die in beiden Szenarien rund zwei Drittel ausmacht. Die Onshore-Kosten betragen 4.7ct/kWh und die Offshore-Kosten 4.1ct/kWh[3]. Vergleicht man dies mit den heutigen Werten (Onshore 11.8 & Offshore 14ct/kWh FOCUS 20/2011[4]) kann man sich nur wundern. Zum Vergleich, die Kosten für Biomasse steigen dagegen von 11.4ct/kWh auf 28.6. Errechnet man stattdessen die Preise mit den heutigen Windwerten, so erhält man Kosten von rund 15 (1.a) und 18ct/kWh. Dazu kommen natürlich noch die Steuern etc., welche gerade beginnen durch das Dach zu schießen, wie die folgende Graphik zeigt. Sie haben sich seit 1998 verzehnfacht!

 

Erst damit wird die Windenergie profitabel (siehe Fußnote 3). In einer funktionierenden Marktwirtschaft geht so etwas natürlich nicht. Deshalb hat die ehemalige FDJ-Sekretärin für Agitation und Propaganda[5] Merkel diese auch systematisch durch eine staatlich regulierte (Plan)wirtschaft ersetzt. Die Zeche zahlt natürlich der gemeine Bürger durch horrende Zusatzbelastungen, wie die nächste Graphik illustriert. Ab 2013 wird sich die Spirale noch weiter nach oben drehen, denn dann müssen die Stromerzeuger und die übrige Industrie CO2-Zertifikate kaufen. In der Folge werden logischerweise die Preise steigen. 

Herr Trittin von den GRÜNEN rechnet dagegen nur mit einer Steigerung von 0.5ct/kWh (FOCUS 20/2011 Seite 106). Ein Zeichen klarer Volksverdummung oder von Realitätsentzug.

Kommen wir zurück zum SRU und seinen teilweise verwunderlichen Rechnungen. Auf Seite 113 schreibt er korrekt, dass der Primärenergiebedarf in Deutschland seit Beginn der1990er-Jahre im Bereich von etwa 14 500 PJ liegt. Als Primärenergiebedarf wird die Energiemenge bezeichnet, die zur Deckung der gesamten Nachfrage der Energieversorgung einschließlich vorgelagerter Prozessketten benötigt wird. Zehn Seiten weiter wird die folgende Graphik präsentiert, die aus dem BMU von Herrn Röttgen stammt. Erstaunt sieht man, dass 2008 allein die Windenergie 40574 PJ produziert haben soll. Oberhalb der Graphik liest man dagegen, dass 40.6 TWh erzeugt wurden, was 146 PJ entspricht.  Dies ist rund 280 mal (!) kleiner als der Wert des BMU. Im BMU sitzen offensichtlich wahre Rechenkünstler. Keiner merkt etwas, weder das BMU noch der SRU.

 

Ziehen wir ein Fazit.

Ausgehend von den unbelegten Prämissen, dass es keine Erderwärmung über 2°C seit der kleinen Eiszeit geben darf und dass das anthropogene CO2 dafür verantwortlich sei, hat er ein Auftragsgutachten erstellt bei dem das Ergebnis vorgegeben war. Das Ziel ist eine „nahezu vollständige Emissionsvermeidung“ für den Stromsektor sein, wobei dies möglich, bezahlbar und sicher sein muss. Grundlage der Berechnungen bildet das Modell REmix, was von einer Vielzahl von Annahmen abhängt. Trotzdem hält der SRU auf Seite 70 fest: “ Nach Einschätzung des SRU sind alle getroffenen Annahmen plausibel“, was aber 5 Seiten weiter relativiert wird durch „Die Rückrechnung der Kostenentwicklung des DLR ergibt unterstellte Lernraten[6] von 26 %, die als sehr optimistisch bezeichnet werden müssen.“ Sie sind irreal (Fußnote 5).

Das Modell führt allerdings nur eine Kostenminimierung für die erneuerbaren Energien durch und macht keine Aussagen über die Möglichkeit und Sicherheit der Versorgung.

Allein für das Aufstellen der Offshore-WKA entstehen Kosten, die sich im Bereich von 0.6 bis 1.2 Billionen € bewegen. Hinzu kommen noch die Kosten für die Speichermedien, für die Onshore-WKA und für die Photovoltaik, die die Gesamtkosten ins Utopische treiben werden.

Zur Versorgungssicherheit konstatiert der SRU: „Aufgrund des Systemgegensatzes zwischen Kraftwerken, die technisch-ökonomisch auf Grundlast ausgelegt sind, und stark fluktuierenden regenerativen Energiequellen sind nach Einschätzung des SRU sowohl die geplante Laufzeitverlängerung von Atomkraftwerken (die ist eh perdu) als auch der geplante Neubau von erheblichen Kapazitäten von Kohlekraftwerken mit einer Übergangsstrategie auf eine vollständig regenerative Energieversorgung unvereinbar.“ Und weiter: „Atomkraftwerke (und KKW) verfügen nicht über die im zukünftigen Energiesystem notwendigen Flexibilitätseigenschaften.“ Merke, der Nachteil nicht kalkulierbar wird in den Vorteil flexibel umgedeutet.

Der SRU zieht paradoxe Schlussfolgerungen aus diesen richtigen Erkenntnissen, die am besten mittels der nächsten 2 Graphiken erläutert werden.    

 

 Der bisherige Kraftwerkspark ist so ausgelegt, dass die eingespeiste Leistung im Prinzip dem Lastgang entspricht. Der Lastgang ist in einem statistischen Rahmen vorhersagbar und entsprechend können die Kapazitäten bereitgestellt werden. Auf dieser Basis beruhte bisher eine stabile und bedarfsgerechte Stromversorgung.

 

Nun werden die Verhältnisse nahezu auf den Kopf gestellt. Strom fließt in Zukunft nicht mehr beständig zu gleichen Preisen aus der Steckdose“, sagt Rainer Stamminger, Professor für Haushalts- und Verfahrenstechnik an der Rheinischen Friedrich-Wilhelms-Universität Bonn. „Die Tarife werden hochdynamisch und zeitweise sehr teuer sein.“ (Welt 5.5.11)

Dass dies nicht nur zeitweise sondern prinzipiell teurer wird und vermutlich auch nicht beständig, kann man aus der letzten Graphik folgern.

Die sichere, verlässliche und preiswerte Form der Stromgewinnung, die die ersten vier Kraftwerke gewährleisten, wird durch deren Gegenteil (5 bis 9) ersetzt.

Dieser Irrsinn wird inzwischen von allen Parteien in Deutschland (aber nur da) gepredigt und im Merkelschen Sinne als „alternativlos“ angesehen.

 

Auf „Watts Up With That“, mehrfach als bester wissenschaftlicher Blog ausgezeichnet, wurde dies so kommentiert:

„If one of our major economic competitors volunteers to commit economic suicide, how should we respond?

Deutschland, Deutschland unter alles?“

Dem ist Nichts hinzuzufügen. Außer, wenn Deutschland 2050 eine kohlenstofffreie Exindustrienation geworden ist, kann der IPCC seine modellierte Temperaturprognose von DT= 3-4°C auf DT= 2.925-3.925°C korrigieren. Deutschland sei Dank.

Dr. rer. nat Bernd Hüttner für EIKE

Der Beitrag kann auch als pdf im anhang abgerufen werden


[1] Der SRU gibt auf Seite 123 an, dass 2008 23.987GW WKA installiert waren. Diese produzierten 40.6TWh.

   Daraus ergibt sich ein Wirkungsgrad von 19.3%.

[2] http://www.wattenrat.de/2010/09/fritz-vahrenholt-rwe-sorgt-sich-um-seetaucher/

[3] Gemäß Bard 1 kostet eine WKA 25 Millionen €. Bei sehr konservativ angenommenen 2% Zinsen pro Jahr werden aus 25 Millionen in 20 Jahren gute 37 Millionen €. Dies heißt, dass die Anlage in 20 Jahren rund 40 Millionen € bringen muss (inklusive Wartung, Reparatur und Profit) oder 2 Millionen /a. 5MW·3800h=19GWh. Bei einem Preis von 10ct/kWh ergibt dies 1.9 Millionen € oder 100k€ Verlust pro Jahr. In Wahrheit ist der Ertrag noch kleiner, da der effektive Wirkungsgrad bei rund 20% liegt (Fußnote 1 Seite 5).

[4] Quelle: Institut für Energiewirtschaft und Rationale Energieanwendung, Universität Stuttgart

[5] FDJ war die Jugendorganisation der SED (jetzt nennen sie sich LINKE). Wer studieren wollte musste dem Verein beitreten. Sekretär(in) für Agitation und Propaganda musste man nicht werden, die wurden ausgewählt.

[6] Wikipedia: Kosten KL(p)=K0Lld(p / p0), ld(x)=log2(x), L-Lernrate, K0-Kosten im 1.Jahr, p0-anfängliche Produktionsmenge; Bsp.: K0=100, p0=10, p1=10 p=p0+p1=20, L=0.26, KL(20)=100·Lld(2)=100·0.26=26, KL(30)=12

Entweder versteht der SRU etwas anderes unter der Lernrate oder die Annahmen sind schlicht irreal. 

Related Files




Jedes Jahr mehrere „hundertjährige“ Wetterereignisse und das soll noch normal sein?

Die Berliner haben es bereits erfahren: der März 1981 war hier der niederschlagsreichste seit über 100 Jahren. Dabei haben wir aus der jüngsten Vergangenheit die höchste Windgeschwindigkeit auf den Bergen, den stärksten Schneefall im Monat April. den kühlsten Sommer, den meisten Niederschlag an einem Augusttag und gleich zweimal den heftigsten Schneesturm seit in der Tat 50 oder 100 Jahren von den Fachleuten bestätigt noch in guter Erinnerung.

Diese scheinbare Häufung von meteorologischen Jahrhundert-Ereignissen legt den Schluß nahe, daß die derzeitige Witterung auf jeden Fall aus den Fugen geraten sein mußte. – Und von jedem einzelnen dieser Jahrhundert-Ereignisse kann man naheliegenderweise vermuten, daß es den Schlüssel zu den Ursachen einer ja auch durch das jeweils aktuellste Ereignis für jedermann verdeutlichten Klima-Störung enthalte; eine wichtlge Aufgabe der Wetter-Wissenschaftler müßte sein. diesen Schlüssel zu finden.

Die/der geneigte Leser (In) möge versichert sein, daß die hier vom Verfasser verdeutlichte Meinung bei vielen Wissenschaftlern Eingang gefunden hat und entsprechende Aktivitäten auslöst. Der Verfasser stellt dem lediglich seine Leitlinie gegenüber, daß alle derartigen Aktivitäten den festen Boden unter den Füßen behalten sollten: der wissenschaftliche Standort muß stets die Basis bleiben.

Jedes Jahr mehrere Ereignisse. die jedes höchstens einmal Im Laufe eines langen Menschenlebens zu erwarten gewesen wären – und das soll noch normal sein? –

Die Anllwort lautet: ja. – Um diese Antwort zu geben oder nachzuvollziehen, bedarf es im folgenden einer einfachEln Rechnung und einer Portion gesunden Menschenverstands.

Wir machen uns dazu eine (unvollständige) Uste von wichtigen Wetterereignissen der Art. daß sie mit "dies triltt in Berlin in 100 Jahren genau 1 x auf" umschrieben werden können:

 

 

Dies ergibt nach Ablauf von 100 Jahren summe summarum

172 definierte Jahrhundertereignisse dieser Art allein in Berlin; anders ausgedrückt sind innerhalb von 3 Jahren etwa 5 Jahrhundertereignisse dieser Art allein für Berlln zu erwarten.

Ja – und wie verdeutlicht sich nun der wissenschaftliche Standort bei der Darstellung solcher meteorologischer Jahrhundertereignisse für die Offentlichkeit? 

Nun. es gibt verschiedene Möglichkeiten. Die einfachste ist. zur gegebenen Zelt den trivialen Grundsatz anzudeuten, daß innerhalb von 3 Kalenderjahren gut und gerne 5 Jahrhundert-Ereignisse der oben definierten Art zu erwarten sind und im langjährigen Durchschnitt allein In Berlin auch eintreffen müssen, um sicher zu sein. daß unsere Witterung auch weiterhin statistisch "normal" bleibt.

Autor Manfred Geb in der Beilage zur Berliner Wetterkarte vom 27.3.1981 Nr. 43/81 SO 5/81

 




Die Klimakatastrophe – ein spektroskopisches Artefakt!

Ganz offensichtlich wird die Wirkung des anthropogenen Treibhauseffekts weit überschätzt, denn insbesondere der CO2-Treibhauseffekt war im wesentlichem schon zu Zeiten Goethes ausgereizt. Dies zeigen eigene quantitative Untersuchungen der IR-Absorption von Kohlendioxid mittels eines FT-IR-Spektrometers. Außerdem gibt es Äußerungen hierzu in der anerkannten Literatur, die offiziell allerdings heruntergespielt werden (23). Wegen des weitgehenden Sättigungseffekts ist der anthropogene Anteil der Treibhausgase für die gegenwärtige Klimaänderung von untergeordneter Bedeutung. Vielmehr geht die Varianz der Erdoberflächentemperatur mit der Wolkenbedeckung einher, die wiederum von der Fluktuation des solaren Magnetfelds abhängt. Mit anderen Worten: ähnlich wie ein offenes Kaminfeuers durch einen Paravent mehr oder weniger abgeschirmt wird, so steuert die Wolkendichte die Erdoberflächentemperatur weit stärker als der Treibhauseffekt. Der Einfluss der Wolkenbedeckung lässt sich aber mit den Klimamodellen des IPCC nur äußerst unzulänglich abbilden. Auch sind Klimamodelle möglicherweise auch deshalb ein spektroskopisches Artefakt, weil sie mit gewillkürten Flusskorrekturen arbeiten müssen, deren Beträge den des anthropogenen Treibhauseffekts um ein Vielfaches übersteigen.

Einleitung

Oftmals wird fälschlicherweise angenommen, der Treibhauseffekt sei mit der Absorption von Infrarotstrahlung (IR-Strahlung) durch atmosphärische Spurengase (CO2, CH4, Wasserdampf u. a.) identisch. Dadurch würde sich die Luft erwärmen, die dann ihre Wärmeenergie auf die Erdoberfläche übertrage. Es verhält sich genau umgekehrt:  Die Erdoberfläche wird fast ausschließlich durch Bestrahlung erwärmt und die Atmosphäre nimmt ihre Wärmeenergie durch direkten Kontakt mit dem Erdboden auf.

Die Bestrahlung der Erdoberfläche setzt sich aber aus zwei Teilen zusammen:

1.      Die direkte Solareinstrahlung (abhängig von der Wolkenbedeckung)

2.      Der atmosphärische Treibhauseffekt (im wesentlichem ausgereizt)

Die Existenz einer atmosphärischen Gegenstrahlung, die den Treibhauseffekt charakterisiert, lässt sich zwar leicht nachweisen, aber bereits die Größenordnung des natürlichen Treibhauseffekts kann nur berechnet werden und die ihm zugeschriebene Auswirkung auf das Klima entzieht sich vollkommen der Falsifikation (18). Zum Verständnis des CO2-Treibhauseffekts ist es dennoch nützlich, sich zunächst einmal die „ganz normale“ Infrarot-Absorption atmosphärischer Spurengases zu betrachten (1).

Nimmt man einmal an, die auf der IR-Absorption beruhende Extinktion (E) würde innerhalb der Troposphäre (bis ca. 10 km Höhe) bei heutiger CO2-Konzentration in der Größenordnung von E = 2 im Maximum des Absorptionspeaks liegen, d.h. die Transmission T = I/I0 = 10-E wäre auf 0,01 reduziert, dann wäre es für jeden, der mit den Grundlagen der quantitativen IR-Spektroskopie vertraut ist, offensichtlich, dass eine Verdopplung des CO2 zu einer merklichenTemperaturerhöhung führen müsste. Tatsächlich liegt aber die Extinktion um viele Zehnerpotenzen höher. Deshalb ist nach einer einfachen Abschätzung von Jack Barrett (2) der maximal mögliche Treibhauseffekt schon nach einem Weg von 100 m über dem Erdboden erreicht. Tatsächlich liegt eine weitestgehende Sättigung aber keine Komplettsättigung vor. Die gibt es nicht aus quantenmechanischen Gründen.

In der Literatur werden vielfach Emissionsspektren (3) oder gelegentlich auch Absorptionsspektren (4) des CO2 gezeigt. Was einen Chemiker aber besonders interessiert, ist eine Abschätzung der Sättigung des Effekts mit Hilfe  molarer Extinktionskoeffizienten der einzelnen Absorptionsbanden. CO2 ist zwar das mit am intensivsten untersuchte Molekül, weshalb man auch genügend quantitative Angaben aus der Literatur beziehen kann und natürlich gibt es die HITRAN-Spektren (5). Dennoch existieren offensichtlich unterschiedliche Vorstellungen. Auch unterliegt die prophezeite Klimaerwärmung großen Schwankungen, wobei in der Vergangenheit Angaben von 1,2 °C bis 11,5 °C bei CO2-Verdopplung genannt wurden. Dies war Anlass zu eigenen überschlagsmäßigen Messungen (6).

Zunächst muss aber geklärt werden, welche der Absorptions-/Emissionsbande des CO2 von Bedeutung ist. Hierüber geben Satellitenspektren Auskunft (3).

Bild 1: Satellitenspektren, oben über der Sahara, unten über der Antarktis

Die gestrichelten Linien im Bild 1 ist die ideale Planck-Strahlungskurve der Erdoberfläche berechnet bei unterschiedlichen Temperaturen in K. Die „gezackte Linien“ repräsentieren neben der ungehinderten Emission der Erdoberfläche (ca. 800 – 1000 cm-1 und ca. 1050 – 1300 cm-1) die Emissionsgraphen der atmosphärischen Treibhausgase. Die roten Pfeile im Bild 1 kennzeichnen die n2-Bande um 15 mm (667 cm-1). Deshalb ist nur diese relativ schwache von Bedeutung und nicht die wesentlich stärkere n3-Bande um 4,2 mm (2349 cm-1). Außerdem erkennt man, die Atmosphäre emittiert tatsächlich IR-Strahlung („Treibhauseffekt“) Dies sieht man ganz deutlich im Satellitenspektrum über der Arktis (unterer Teil im Bild 1). Die Bodentemperatur beträgt dort nämlich ca. 200 K (-73 °C), während die Atmosphäre in etwa 10 km Höhe eine höhere Temperatur von ca. 210 K (-63 °C) aufweist. Dies ist aber ein erster Hinweis darauf, dass der den IPCC-Computermodellen zugrunde liegende Strahlungstransport eine Fiktion ist. Es handelt sich vielmehr um einenEnergietransport. Dabei gelangt wärmere Luft zur Arktis und gibt ihre Energie oberhalb einer Höhe von 10 km als „ungestörte Emission“ ins Weltall ab.

1. Die Meßmethode

Zunächst soll die eigene Messung der Absorption des Kohlendioxids beschrieben werden. Eine 10 cm-Küvette mit IR-durchlässigem Fenster wurde mit synthetischer CO2-freier und wasserfreier Luft gefüllt. Danach wurde soviel CO2 mit einer Mikroliterspritze zugegeben, dass 357 ppm CO2 zugegen waren (Konzentration von 1993). Weiter wurden 2,6 % Wasserdampf zugegeben. Als IR-Strahlungsquelle diente ein Globar, ein elektrisch auf 1000-1200 ºC geheizter Siliziumkarbid-Stab mit nachgeschaltetem variablen Interferenzfilter. Nach der Aufnahme dieses Spektrums wurde mit CO2 aufgestockt, so dass 714 ppm enthalten waren. Die Messung erfolgte mit einem FT-IR-Spektrometer „Bruker IFS 48“. Als Auswertungssoftware diente das Programm OPUS. Ein Nullwert wurde ebenfalls aufgenommen und entsprechend subtrahiert.

1.1 Messung und Auswertung

Bild 2 zeigt das unbearbeitete Spektrum der 15 µm-Bande für 357 ppm CO2 und 2.6% H2O.

  

Bild 2: Unbearbeitetes Spektrum der 15 µm-Bande (n2-Bande)

Deutlich sind der R- (DJ = + 1) und der P- (DJ = – 1) sowie der Q-Zweig (DJ = +/- 0) der n2-Bande zu erkennen. Der Extinktionskoeffizient im Maximum ergab sich zu:

e = 20,2 m2 mol-1 (n2 bei 667 cm-1)

Um die Absorption zu berechnen, wurde der durchschnittliche CO2-Gehalt der Atmosphäre mit c = 1,03.10-3 mol/m3angenommen (aus der Gesamtstoffmenge und dem Volumen der Homosphäre). Setzt man die oben gemessenen molaren Extinktionen nebst der Konzentration und der Schichtdicke der Troposphäre (h = 10 km = 104 m) in das Lambert-Beer’sche-Gesetz ein, so erhält man

E(n2) = 20,2 m2 mol-1 × 1,03.10-3 mol/m3 × 104 m = 208

Dies bedeutet, dass die Transmissionen in der Mitte der Absorptionsbande bei den um 1997 gegebenen 357 ppm CO2 beiT(n2) = 10-208 liegt (Bild 3).

 

Bild 3: Spektrales Auswertungsschema

Dies ist ein extrem geringer Transmissionswert, der eine Steigerung des Treibhauseffektes bei Verdopplung des klimawirksamen Spurengases in diesem Bereich vollkommen ausschließt. Ähnliche Ergebnisse hat Jack Barrett anhand spektroskopischer und kinetischer Überlegungen (2) gefunden und damit prompt in ein Wespennest gestochen, weshalb 1995 von ihm eine äußerst heftige Diskussion angefacht wurde (7 – 10).

Setzt man den molaren Extinktionskoeffizient e für die n2-Bande sowie die Volumenkonzentration in mol/m3 (357 ppm CO2) in das Lambert-Beersche-Gesetz ein und nimmt eine Schichtdicke von 10 m an, resultiert eine Extinktion von

E = 20,2 m2 mol-1 × 0,0159 mol/m3× 10 m = 3,21

Dies entspricht einer Transmission von T = 10-3.21 = 0,6 Promille. Mit anderen Worten: Bereits nach 10 m sind 1 – T = 99,94% der IR-Strahlung absorbiert.

Bei der Absorption an den Peakflanken ist die Extinktion naturgemäß kleiner. Deshalb schreibt das IPCC1990 „The effect of added carbon dioxide molecules is, however, significant at the edges of the 15 µm band, and in particular around 13,7 and 16 µm (13)“. Natürlich existieren diese Ränder, denn die Rotationsquantenzahl J geht von J = + 1 bis J = + ¥ und vonJ = – 1 bis J = – ¥. Bedauerlicherweise werden aber die ungesättigten Bereiche an den Rändern immer schwächer. Die Besetzung der Rotationsniveaus gehorcht nämlich einer Boltzmann-Verteilung, weshalb immer weniger der vorliegenden CO2-Moleküle zu einem gegebenen Zeitpunkt in diesem Bereich absorbieren.

Um die Absorption an den Peakflanken abzuschätzen, wurde als Arbeitshypothese angenommen, die Extinktion soll sich bei Verdopplung des CO2-Gehalts um die Größenordnung E = 3 (= 10-3) erhöhen. Hierzu wurde das Gesamtintegral der Banden bis zu den auslaufenden Enden des R- und P-Zweiges bei E = 0 ermittelt (s. Bild. 3). Anschließend wurden die digital abgespeicherten Spektren ab einer Extinktion, die dem Wert  E = 3 (auf den Gesamtweg innerhalb der Troposphäre bezogen) entsprachen bis zu den auslaufenden Enden (E = 0) des R- und P-Zweiges integriert. Damit waren die „edges„ annähernd erfasst. Diese „edges„ begannen beim P-Zweig bei 14,00 µm und beim R-Zweig bei 15,80 µm und liefen jeweils bis zur Grundlinie E = 0. IPCC lässt die Banden an den Rändern bei 13,7 und 16 µm beginnen (13). Für die n2-Bande ergab sich folgendes:

15 µm-Bande 357 ppm 714 ppm
Gesamtintegral 624,04 cm -1 von 703,84 cm -1 0,5171/cm 1,4678/cm
Summe der Flanken-Integrale 1,11.10-4/cm 9,79.10-4/cm

Tabelle: 15 µm-Bande (Gesamtintegral und Flankenintegrale E = 0 bis E = 3)

Der relative Zuwachs des Treibhauseffekts bezogen auf das Gesamtintegral ist entscheidend. Er entspricht der Differenz der Flankenintegrale bei 714 ppm und 357 ppm im Verhältnis zum Gesamtintegral bei 357 ppm.

(9,79.10-4/cm – 1.11.10-4/cm) / 0,5171/cm = 0,17 %

Weil man mit der Planck-Strahlungsgleichung arbeiten muss, sind Extinktionen weniger geeignet, den Treibhauseffekt zu quantifizieren, dennoch zeigen sie sehr gut die Relationen, um die es beim anthropogenen Treibhauseffekt geht (Bild 3). Auch sind die oben angegebenen Messwerte relativ ungenau; sie werden aber durch die Aussage des Nobelpreisträges Paul Crutzen gestützt. Dieser schrieb1993 in einem Lehrbuch (20): „Es gibt bereits so viel CO2 in der Atmosphäre, dass in vielen Spektralbereichen die Aufnahme durch CO2 fast vollständig ist, und zusätzliches CO2 spielt keine große Rolle mehr.“ Man kann es auch so ausdrücken: Ein Treibhaus heizt sich bestenfalls geringfügig (Spureneffekt!) stärker auf, wenn man das normale Fensterglas gegen ein zehn Zentimeter dickes Panzerglas austauscht!

2. Vergleich mit den offiziellen Daten des IPCC

Das zur Messung verwendete und in der Chemie übliche FT-IR-Spektrometer besitzt nur einen Spiegelweg von 5 cm. Dies ergibt eine Auflösung der IR-Banden von 0,2 cm-1. Da die „ungesättigten“ Spektralbereiche ungewöhnlich schwache IR-Banden betrifft, benötigt man Spektrometer, die eine Auflösung von 0,0004 cm-1 erbringen (5). Hierzu muss man ein FT-IR-Spektrometer bauen, das theoretisch über einen Spiegelweg von 25.000 cm (25 m!) verfügt. Nur dann lassen sich dieäußerst schwachen IR-Banden messen, auf die sich die Klimamodellierer des IPCC stützen. Es sind Banden, mit einer „Absorptionsstärke“ von nur 0,05 % der 15 mm CO2-Hauptbande! Da Spiegelwege von 25 m technisch schwierig realisierbar sind, misst man reines CO2 unter höheren Druck und mit käuflichen Geräten, die über Spiegelwege bis zu 10 m verfügen. Die derart gewonnenen Extinktionskoeffizienten sind in der HITRAN-Datenbank abgelegt, welche zur Berechnung des Strahlungsantriebs („radiative forcing“) bei weiterer Steigerung der Treibhausgase (CO2, CH4 usw.) dient. Nimmt man die offiziellen Zahlen (IPCC), dann beträgt der „natürliche“ Treibhauseffekt“ 324 W/m2 (21). Bei Verdopplung des CO2 (100 % Steigerung!) wird nach Übereinkunft („best guess“ aus Computermodellrechnungen) angenommen, dass sich der Strahlungsantrieb um 3,7 W/m2 erhöht (22, 23). Im Bild 4 sind die Verhältnisse dargestellt.

Bild 4: Prozentuale Erhöhung des Treibhauseffekts bei Verdopplung des atmosphärischen CO2-Gehalts gemäß der offiziellen Angaben des IPCC

Auch das Bild 4 belegt eindeutig die oben beschriebene weitestgehende Sättigung denn die Steigerung des Treibhauseffekts bei CO2-Verdopplung beträgt nur geringfügige 1,2 %. Dies ist in der Klimaforschung bekannt. Deshalb wird versucht, den „Sättigungscharakter mit dem Argument zu entkräften, das Klima sei ein so empfindliches System, dass es bereits von kleinsten Änderungen des Strahlungsantriebs aus dem Gleichgewicht gebracht werden kann. So wird behauptet, die Abkühlung zwischen 1930 und 1970 sei durch die Staubbelastung der Industriegesellschaft verursacht. Dies ist falsch. Die Abkühlung war durch das geänderte Magnetfeld der Sonne verursacht, wie aus dem Bild 11 (rot eingekreist) hervorgeht.

3. Erdoberflächentemperatur, Treibhauseffekt und CO2-Konzentration

Zur Berechnung der irdischen Oberflächentemperatur ohne Treibhausgasatmosphäre  benutzt man eine einfache Gleichung, die auf dem Stefan-Boltzmann- Gesetz beruht.

(Gleichung 1)

A ist dabei die Albedo – das durchschnittliche „Rückstrahlvermögen“ der Erde. Sie wird mit A= 0,3 angenommen. Tatsächlich existierten in der Vergangenheit auch andere Angaben. Die Solarkonstante, die in Wirklichkeit gar nicht so konstant ist, hat den Wert Fs = 1368 W/m2. Weiterhin enthält die Gleichung die Stefan-Boltzmann-Konstante s = 5,67 .10-8 W.m-2.K-4.

Rechnet man mit diesen Angaben, so resultiert für die Oberflächentemperatur der Erde:

Dieses Ergebnis ist fragwürdig, weil die Erde kein wasserloser Gesteinshaufen im Weltall ist. Sehr wahrscheinlich liegt die irdische Mitteltemperatur ohne Treibhausgase um einiges höher! Aber bleibt man zunächst einmal dabei, dann beträgt die spezifische Ausstrahlung der Erdoberfläche bei dieser Temperatur (Formelzeichen nach DIN 5031, Teil 1):

M1 = (1-0,7) . 0,25 . 1368 W/m2 = 239 W/m2

Für die Klimanormalperiode bezeichnet, hat man sich vor Jahren unter Konsensbildung auf eine Mitteltemperatur von  + 15 °C (T = 288 K) geeinigt. Benutzt man jetzt das „unveränderte“ Stefan-Boltzmann-Gesetz

M2 = s . T4      (Gleichung 2)

und berechnet damit die spezifische Ausstrahlung der Eroberfläche erneut, resultiert:

M2 = s . T4 =  5,67 . 10-8 W.m-2.K-4 . (288 K)4 = 390,0 W.m-2

Folglich erhöht der „natürliche“ Treibhauseffekt, mit einer hypothetische Erwärmung von DT = 288 K – 225 K = 33 K(33 °C), die spezifische Ausstrahlung der Erdoberfläche um

DM = M2  – M1 = 390,0 W/m2 – 239,0 W/m2 = 151 W/m2

Wie bereits oben erläutert, wird bei Verdopplung des CO2 (100 %ige Steigerung) ein zusätzlicher Strahlungsantrieb von 3,7 W.m-2 angenommen (die Größenordnung entzieht sich der Falsifikation und beruht auf Konsens – „best guess“!). Dadurch steigt die spezifische Ausstrahlung der Eroberfläche von 390,0 W.m-2 auf 393,7 W.m-2. Setzt man diesen Wert in die Stefan-Boltzmann-Gleichung (Gleichung 2) ein, resultiert als Erdoberflächentemperatur:

Demnach erhöht sich die Temperatur bei CO2-Verdopplung (100 % mehr CO2!) von 288,0 K auf 288,7 K. Das entspricht gerade einmal DT = 288,7 K – 288,0 K = 0,7 K (0,7 °C) und nicht mehr. Die Klimamodellierung hätte keinerlei politische Beachtung gefunden, wenn man nicht die Hypothese der Wasserdampfverstärkung in die Diskussion eingebracht hätte. Dies lässt sich jedoch glücklicherweise falsifizieren, wie im nächsten Absatz dargelegt wird.

4. Die Wasserdampfverstärkung

Da eine Erwärmung von lediglich 0,7 °C bei 100 % mehr CO2 zu wenig erscheint, hat man sich vor Jahren darauf geeinigt, dass diese geringfügige Temperaturerhöhung gemäß der altbekannten Clausius-Clapeyronschen-Gleichungdeutlich mehr Wasser aus den Ozeanen verdunsten lasse. Da Wasserdampf selbst ein Treibhausgas sei, fällt dadurch die von CO2 verursachte Temperaturerhöhung  wesentlich höher aus. Originalton IPCC (24): „Der Wasserdampf-Feedback’ ist nach wie vor der durchweg wichtigste Rückkopplungseffekt, der die von den allgemeinen Zirkulationsmodellen als Reaktion auf eine CO2-Verdopplung vorhergesagte globale Erwärmung verursacht.“ Wenn dies richtig ist, muss besonders in einer kälteren Periode, während der die direkte Solarstrahlung nicht so viel Wasser verdunsten lässt, der Wasserdampfgehalt über den Ozeanen mit dem atmosphärischen CO2-Gehalt ansteigen. Dies ist eindeutig nicht der Fall, wie das Bild 5 belegt (31). Deshalb können sich die Klimamodellierer auf keinen Fall auf den durchaus einleuchtenden, hypothetischen Wasserdampfverstärkungsmechanismus berufen, der eine viel zu große Temperatursteigerung prophezeit.

Bild 5: Prozentuale Abweichung des Wasserdampfgehalts über dem Atlantik (33)

Um Missverständnissen vorzubeugen: Mit der  Prozentangabe im Bild 5 ist natürlich nicht die relative Luftfeuchte gemeint, die niemals höher als 100 % sein kann, sondern vielmehr die Abweichung des Wasserdampfgehalts nach oben und nach unten um den Messwert von 1950. So liegt der absolute Wasserdampfgehalt 1956 um 25 % höher als 1950. 1968 liegt der Wasserdampfgehalt um ca. 45 % niedriger, obwohl der CO2-Gehalt weiter angestiegen ist!

5. Die Strahlungstransportgleichung

Bei der Berechnung des Treibhauseffekts wird ein „Schicht- oder Kaskadenmodell“ zugrunde gelegt nach dem innerhalb der Atmosphäre eine ständige Absorption (I) und Emission (L) stattfindet. Diesem fiktiven Strahlungstransport liegt dieSchwarzschildgleichung zugrunde (11). Bei einem infinitesimalen Weg dz, dem Absorptionskoeffizienten sa und der Teilchenzahl n gilt hierfür im lokalen thermodynamischen Strahlungsgleichgewicht (LTE):

(Gleichung 3) 

Die Größe ist hierbei die Strahldichte (vgl. DIN 5031, Teil 1), welche die Emission gemäß der temperaturabhängigenPlanck-Strahlungsgleichung angibt.

Dass innerhalb der Atmosphäre ein Strahlungstransport stattfindet, meint man belegen zu können, indem man die gemessenen Satellitenspektren mit den berechneten vergleicht. Das Ergebnis ist verblüffend, wie das Bild 6 belegt.

Bild 6: Links das gemessene Emissionsspektrum der Erde (Satellitenspektrum); rechts das  mit Hilfe der Strahlungstransportgleichung berechnete Emissionsspektrum

Das lokale thermodynamische Strahlungsgleichgewicht (LTE) begründet man mit dem Kirchhoff’schen Gesetz der Wärmestrahlung. Danach ist das Emissionsvermögen eines Körpers genau so groß wie sein Absorptionsvermögen. Das Ganze hat nur einen Haken. Es existiert kein „Strahlungsenergieerhaltungssatz“, wie er beim lokalen thermodynamischen Strahlungsgleichgewicht stillschweigend vorausgesetzt wird. Tatsächlich gibt man bei der „nachvollziehenden“ Berechnung der Satellitenspektren das gemessene atmosphärische Temperaturprofil in die Plank-Strahlungsgleichung ein, wie aus dem Bild 7 hervorgeht.

  

Bild 7: Strahlungstransport, Planck-Gleichung und gemessener Temperaturgradient

Zur Erinnerung: Beim Treibhauseffekt geht es auch um den Temperaturgradienten ( „Temperaturprofil“), den die Atmosphäre im Kontakt mit dem Erdboden unter adiabatischer Expansion annimmt. Lässt man sich dies durch den Kopf gehen, dann wird das Ergebnis – der Temperaturgradient – in die Rechnung eingesetzt (vgl. Bild 7), um dann daraus das temperaturabhängige Emissionsspektrum der Atmosphäre und des Erdkörpers zu erhalten (vgl. auch Bild 1). Deshalb ist die Übereinstimmung der im Bild 6 gezeigten Spektren kein Beweis für das dem Strahlungstransport zugrunde liegende hypothetische „lokale thermodynamische Strahlungsgleichgewicht“ innerhalb der Atmosphäre. Es ist vielmehr ein Beweis, dass man im Kreis herumrechnet und sich dann über den mathematisch „bewiesenen“ Treibhauseffekt freut.

Experimentelle Untersuchungen und die allgemein akzeptierte Theorie belegen eindeutig, dass die Molekülfluoreszenz anders funktioniert wie die Atomfluoreszenz, bei der die absorbierte Strahlung zu 100 % wieder emittiert wird (25, 26). Das LTE setzt aber eine „100%ige Molekülfluoreszenz“ voraus, die nicht existiert – auch nicht im IR-Bereich. Während angeregte Atome nur unter Emission von Strahlung in den Grundzustand zurückkehren können, erfolgt die Relaxation bei Molekülen wegen der Rotations- und Schwingungsfreiheitsgrade meist strahlungslos gemäß den Prinzipien des Jablonski-Diagramms (27).  Deshalb reichte es eigentlich vollkommen aus, wenn man den „theoretischen“ Treibhauseffekt ohne jegliche Absorption nur mit der – temperaturabhängigen – Planck-Gleichung beschreibt, die man mit den jeweiligen Bandenstärken „klimawirksamer“ Spurengase und der „Anzahl IR-aktiver Moleküle in einem Luftvolumen“ multipliziert. Dann erhält man die thermische Emission der Atmosphäre unter Berücksichtigung des Raumwinkels.

Fazit: Dass eine atmosphärische Wärmestrahlung gemäß dem Planck-Gesetz gegeben ist, ist eine Selbstverständlichkeit. Solange aber ein atmosphärisches Temperaturprofil (oben kälter – unten wärmer) existiert und die Konvektion erheblich zum Energietransport beiträgt, solange ist die Hypothese in dem offenen System Atmosphäre existiere ein lokales thermodynamischen Gleichgewichts (LTE) falsch. Denn es gibt nämlich keinen „Strahlungsenergieerhaltungssatz“. Vielmehr übertragen „Treibhausgasmoleküle“ nach der Absorption von IR-Strahlung ihre Energie auf die nicht IR-aktiven Hauptbestandteile des Atmosphäre. Deshalb wird dem Strahlungsgeschehen bei der Klimamodellierung ein viel zu starkes Gewicht beigemessen.

6. Was Klimamodelle nicht können

Klimamodelle sind Computeralgorithmen (sprich: „Rechenvorschriften“, welche die meinungsabhängigen Vorgaben der Programmierung widerspiegeln) und nicht die Realität. Weil die Komplexität des Klimageschehens gegenwärtig und auch in absehbarer Zukunft mit keinem Computer realitätsorientiert erfassbar sein dürfte, handelt es sich mehr um politische Instrumentarien, denn um exakte Naturwissenschaft.

6. 1 Die Flusskorrekturen

Der Hypothese nach soll der „natürliche“ Treibeffekt den Globus um 33 °C aufheizen. Irrigerweise wird dabei angenommen, die Erde, die zu 70 % mit Wasser bedeckt ist, würde sich ähnlich verhalten wie der vollkommen wasserloseMond. Nimmt man an, nur die ersten 10 m Wassertiefe der Ozeane würden die mittlere Erdtemperatur thermostatisch regeln, ergibt die Rechnung, dass die Ozeane im Temperaturbereich von  –18 °C bis +15 °C eine Energiemenge von 1,57.1018 MJ speichern. Hierzu die Gegenrechnung: In 24 Stunden werden durch den irdischen Treibhauseffekt 1,43.1016MJ umgeschlagen (22). Der gesamte natürliche Treibhauseffekt macht somit nur 0,9 % der Energie aus, die in den Ozeanen bei einer Wassertiefe bis zu 10 m gespeichert ist. Die Folge sind erhebliche Schwierigkeiten bei der Kopplung atmosphärischer Zirkulationsmodelle („General Circulation Atmospheric Models“) mit ozeanischen Zirkulationsmodellen („General Circulation Oceanic Models“). Diese Probleme lassen sich nur mit Hilfe so genannter „Flusskorrekturen“ überwinden, deren Beträge, wie das Bild 8 belegt, um ein Vielfaches größer sind als der anthropogene Treibhauseffekt. Die rechte Säule in Bild 8 stellt den Strahlungsantrieb des CO2 bei Verdopplung dar. Danach ist allein schon die 100 W/m2-Flusskorrektur zur Kopplung Ozeanoberfläche-Atmosphäre rund 27-mal (!) größer als der anthropogene Treibhauseffekt bei CO2-Verdopplung (3,7 W/m2).

Bild 8: Anthropogener Treibhauseffekt (rechte kleine Säule) im Verhältnis zu den bei der Klimamodellierung angewandten Flusskorrekturen

Es soll nicht unerwähnt bleiben, dass von einschlägigen Instituten in neuerer Zeit verlautbart wird, man benötige keine Flusskorrekturen mehr. Tatsächlich kommen Klimamodelle nach wie vor nicht ohne sie aus.

6. 2 Die Wolkendichte

Bei der Abschätzung des Strahlungsantriebs der Wolken kommen Klimamodelle zu äußerst unterschiedlichen Ergebnissen. So findet das „Bureau of Meteorology Research Center“ (BMRC) von Australien, dass die Wolken eine Abkühlung von ca. 1 W/m2 erbringen, während das Labaratoire de Météologie Dynamic (LMD) aus Frankreich meint, Wolken würden eine Erwärmung von ca. 1,7 W/m2 bewirken (Bild 9). Das ist beachtenswert!

Bild 9: Strahlungsantrieb der Wolken mit unterschiedlichen Klimamodellen gerechnet

6. 3 Die Vergangenheit

Beispielsweise können bis heute Klimamodelle nicht die im Bild 10 gezeigte Abkühlung zwischen 1930 und 1975 ohne Zuhilfenahme von Kunstgriffen (atmosphärischer Staubeintrag durch die Industriegesellschaft!) nachvollziehen.

  

Bild 10: CO2-Gehalt und Temperaturverlauf (vgl. a. Bild 11)

7. Die Alternative

Da treibhausgasfixierte Computer-Klimamodelle nicht nur im Zeitraum zwischen 1930 bis 1970 versagen sondern auch die kleine Eiszeit (14. bis 18. Jh.) und das mittelalterliche Klimaoptimum (11. – 13. Jh.)  nicht nachbilden können, muss es einen anderen entscheidenden Mechanismus geben. Sehr viel spricht dafür, dass dies die Wolkendichte ist, die von der kosmischen Strahlung beeinflusst wird. Diese besteht überwiegend aus Protonen, die als Echo des Urknalls in unser Sonnensystem eindringen. Gelangen diese positiv geladenen Kernbausteine in die Atmosphäre, so führen sie über einen noch nicht restlos geklärten Mechanismus zur Kondensation von Wasserdampf  –  Wolken entstehen. Erhöht sich dasMagnetfeld der Sonne bei höherer Solaraktivität, dann werden die Protonen stärker abgeschirmt. In der Folge entstehenweniger Wolken und die erwärmende Sonnenstrahlung kann den Globus stärker aufheizen. Deshalb folgt der globale Temperaturverlauf der Schwankung des solaren Magnetfelds (Bild 11).

Bild 11: Solares Magnetfeld und Globaltemperatur (abgewandelt nach 28)

Wie Messungen zeigen, war im übrigen die Solaraktivität seit dem Jahr 850 noch nie so hoch wie nach 1940 (29). Auch im Wärmehaushalt der Weltmeere macht sich die wolkenbedeckungsabhängige Schwankung der solaren Einstrahlung stärker bemerkbar.  Somit dürfte der anthropogene Treibhauseffekt eine kleine, aufgesetzte Größe auf einer natürlichen Klimaschwankung sein.

Abgesehen davon erscheint die unter Punkt 3 vorgerechnete Temperatur von – 18 °C, welche die Erde ohne Treibhausgase angeblich hätte, viel zu niedrig angesetzt sein. Sie entspricht aber der offiziellen Doktrin, die – und das muss betont werden – eine Hypothese ist. Weil, wie bereits hervorgehoben, die Erde kein wasserloser Gesteinshaufen im Weltall ist, sondern zu 70 % mit Wasser bedeckt ist, muss die direkte Absorption im nahen Infrarotgebiet (NIR) und die sehr verzögerte Strahlungsemission von Ozeanwasser stärker berücksichtigt werden.

<hug/img height=“303″ width=“444″ v:shapes=“_x0000_s1057″ src=“Hug/image034.gif“>
</hug/img>

Bild 12: Wolkenbedeckung (Wolkendichte) und globale Temperatur

Aus dem Bild 12 geht hervor, dass sich die globale Wolkenbedeckung zwischen 1986 und 2000 von 69 % auf 65 % reduzierte (linke Ordinate, „fallend“ aufgetragen). Parallel hierzu stieg die globale Mitteltemperatur (rechte Ordinate, „steigend“ aufgetragen).

Während die Temperaturschwankungen in der Sahara im Tagesverlauf ohne weiteres bis zu 50 °C betragen können, verhalten sich Meere wesentlich träger. Der Gesamtwärmeumsatz (Wärmeenergie nicht Wärmeleistung!) eines Meeres ist die Summe vieler Größen:

Qges = (QS – QA) – QK – QV – QT + QC + QE + QF + QR

QS = im Meer absorbierte Sonnen- und Himmelsstrahlung (= „Treibhauseffekt“)

QA = effektive Ausstrahlung

QK  = „fühlbarer“ Wärmeübergang Luft-Wasser

QV  = latenter Wärmeübergang Luft-Wasser (Verdunstung, Kondensation)

QT  = Wärmetransport durch Strömung

QC  = chemisch-biologische Prozesse

QE  = Wärmezufuhr aus dem Erdinnern

QF  = Reibungswärme

QR  = radioaktiver Zerfall

Da die Speicherfähigkeit des Wassers erheblich über der von Gesteinen liegt, ist es ausgeschlossen, dass sich die Erde bei einer Trägheit des Systems Wasser-Luft nachts schlagartig um 50 °C herunterkühlen. Denn insbesondere die Abstrahlungsleistung dQA/dt unterscheidet sich wegen der wesentlich höheren Wärmespeicherungsfähigkeit von Meerwasser deutlich von jener der Sahara. Gemäß der Stefan-Boltzmann-Gleichung (Gleichung 2) hängt nämlich die spezifische Ausstrahlung der Erdoberfläche mit der Temperatur unmittelbar zusammen. Je höher die letztere ist, desto größer ist auch die Abstrahlung.

Aus der obigen Aufzählung geht aber hervor, dass der Energiegehalt des Meerwassers auch auf der Wärmezufuhr aus dem Erdinnern, auf chemisch-biologischen Prozessen, auf radioaktiven Zerfall und auf Reibungswärme beruht. Die Größe QF (Reibungswärme) in der obigen Aufzählung hängt von der Windgeschwindigkeit ab.  Wie H. Volz auf einer Tagung der Bayerischen Akademie der Wissenschaften berichtete, differiert die  spezifischen Ausstrahlung bei den Windstärken 0 und 7 in einer Größenordnung von  DM = 11,1 W/m2 (30). Die Ein- und Ausstrahlungsbilanz geht aber von einer ruhenden See aus. Addiert man diese Größe zur spezifischen Ausstrahlung bei 15 °C, so erhält man:

= 239,0 W/m2 + 11,1 W/m2 = 250,1 W/m2

Eingesetzt in die Gleichung 2 resultiert für die Temperatur T  = 257,7 K (- 15,3 °C). Diese Temperatur liegt um 2,7 °C höher, als die besagten – 18 °C. Die Treibhausgase erhöhen dann die Mitteltemperatur nicht um 33 °C sondern „nur“ um 30,3 °C, insofern die These richtig ist, die „normale“ Mitteltemperatur der Erde beträgt + 15 °C. Wie hoch war diese eigentlich während des mittelalterlichen Klimaoptimums (11. – 13. Jh. ) und während der „kleinen Eiszeit“ (14. bis 18. Jh)?

Ein weiteres kommt hinzu. Etwa 50 % der Sonneneinstrahlung, die den Erdboden erreicht, ist Wärmestrahlung (nahes und mittleres IR). Diese wird vom Meerwasser absorbiert. Die strahlungsfixierte Treibhausgastheorie saldiert nur die Einstrahlung und Ausstrahlung im Tagesverlauf als könnten sich die Weltmeere auf der Nachtsseite schlagartig auf – 18 °C abkühlen. Die Trägheit der Ozeane ist aber mit einer Relaxationszeit bis zu 200 Jahren sehr hoch. Folglich dürfte die mittlere globale Gleichgewichtstemperatur der Ozeane ohne atmosphärische Treibhausgase eher um + 4 °C (Wasser höchster Dichte am Grunde eines zugefrorenen Gewässers) denn bei – 18 °C liegen. Als ich vor einiger Zeit einmal mit einem ehemaligen Leiter eines Klimarechenzentrums korrespondierte und ihn fragte, wie hoch die irdische Mitteltemperatur ohne Ozeane anzusetzen sei aber mit dem gegenwärtigen atmosphärischen Treibhausgasgehalt, erhielt ich zur Antwort, dies sei eine interessante Frage, die man aber bislang nicht durchgerechnet habe.

Zusammenfassung

·        Der anthropogene Treibhauseffekt ist im wesentlichem ausgereizt, wie die Messung der Transmission von IR-Strahlung belegt. Eine globale Klimakatastrophe ist daher selbst bei einer CO2-Verdoppelung nicht zu erwarten.

·        Die Steigerung des Treibhauseffekt um 1,2 % bei 100 % mehr CO2 ist eine Bagatelle, die man nur mit Hilfe des Wasserdampfverstärkungsmechanismus vergrößern kann.

·        Zweifellos enthält die Atmosphäre gemäß der Clausius-Clapeyronschen-Gleichung mehr Wasserdampf, wenn es wärmer wird. Jedoch lässt sich der hypothetische Wasserdampfverstärkungsmechanismus, ohne den Klimamodelle nicht zu einem merklichen Temperaturanstieg kommen, in der Realität nicht nachzuweisen. Weil sich somit der atmosphärische Wasserdampfgehalt nicht an der Konzentration der Treibhausgase orientiert, erhöht sich die globale Mitteltemperatur bei 100 % mehr CO2 in der Atmosphäre bestenfalls um 0,7 K (0,7 °C).

·        Computerklimamodelle kommen u. a. deshalb zu falschen Ergebnissen, weil der hypothetische Wasserdampfverstärkungsmechanismus vollkommen überwertet wird.

·        Der atmosphärische Temperaturgradient beruht auf einem Energietransport und nicht auf einem Strahlungstransportmechanismus mit dem fiktiven LTE. Deshalb wird der atmosphärischen Rückstrahlung – dem Treibhauseffekt – eine zu große Bedeutung zugemessen.

·        Klimamodelle müssen mit – gewillkürten – Flusskorrekturen arbeiten, deren Größenordnung den des anthropogenen Treibhauseffekts um ein Vielfaches übertreffen. Im anderen Fall „hat (man) als Modellierer … die Wahl, entweder ohne Flusskorrektur mit einem unrealistischen Klimazustand zu operieren, oder die Flusskorrektur mit ihren Schwächen zu akzeptieren, dafür aber ein realistisches Klima zu erhalten.“(32)

·        Die Abbildung des Klimas in der Vergangenheit mit Computeralgorithmen gelingt nicht ohne massive Korrekturgrößen.

·        Die globale Mitteltemperatur ohne Treibhauseffekt dürfte um einiges höher als bei 255 K (-18 °C) liegen.

·        Das Klima wird hängt stärker von der Variation der Wolkenbedeckung ab als vom Gehalt atmosphärischer Treibhausgase.

·        Das IPCC ist eine politische Organisation, die sich eines Wissenschaftlergremiums bedient, um volkspädagogische Lernziele durchzusetzen.

Abschließend möchte ich die Leser darauf aufmerksam machen, dass dem gegenwärtigen CO2-Gehalt je nach Literaturstelle ein unterschiedlicher Temperatureffekt zugeordnet wird. In dem von von J.T. Houghton herausgegebenen Buch „The Global Climate“ geben Kondratjew und Moskalenko 7,2 K an (14). Die Autoren zitieren sich dabei selbst (15). Besorgt man sich das in Kyrillisch geschriebene Buch und schaut auf der angegebenen Seite nach, so landet man im Sachwortverzeichnisses. Auch die weitere Suche in dem Buch bringt kein Ergebnis. Andererseits scheint man sich doch recht sicher zu sein, denn die Angaben der Autoren werden gerne zitiert (16). Allerdings gibt es Widersprüche, denn K.P. Shine gibt einen anderen Wert an, nämlich 12 K (17) und R. Lindzen (18) geht davon aus, dass dem CO2 nur etwa 5% des natürlichen Treibhauseffekts zuzuordnen sind. Das wären 1,65 K und damit weniger als ein Viertel des bei IPCC benutzten Werts von 7,2 K.

Literatur

[1] R. Revelle, Scientific American, 247, No.2, Aug. 1982, 33-41
[2] J. Barrett, Spectrochim. Acta Part A, 51, 415 (1995)
[3] R.A. Hanel et al. Journal of Geophysical Research, 77, 2629-2641 (1972)
[4] H. Flohn, Nachr. Chem.Tech.Lab, 32, 305-309 (1984)
[5] L.S.Rothman et al., Appl.Opt. 26, 4058 (1987)
[6] H. Hug, Chemische Rundschau, 20. Febr., p. 9 (1998)
[7] P. S. Braterman, Spectrochim. Acta Part A, 52, 1565 (1996)
[8] K. Shine, Spectrochim. Acta Part A, 51, 1393 (1995)
[9] J. Houghton, Spectrochim. Acta Part A, 51, 1391 (1995)
[10] R. S. Courtney, Spectrochim. Acta Part A, 53, 1601 (1997)
[11] R. P. Wayne, Chemistry of Atmospheres, Oxford University Press,
2nd. Edition, 44-49 (1991),
[12] Murry L. Salby, Fundamentals of Atmospheric Physics, Academic Press, 198-257 (1996)
[13] Climate Change 1990. The IPCC Scientific Assessment, p. 49
[14] K.Ya. Kondratyev, N.I. Moskalenko in J.T.Houghton, The Global Climate, Cambridge
Universitiy Press, 225-233 (1984)
[15] K.Ya. Kondratyev,N.I. Moskalenko, Thermal Emission of Planets, Gidrometeoizdat,
263 pp (1977) (Russisch)
[16] C.D. Schönwiese, Klimaänderungen, Springer-Verlag Berlin Heidelberg, p. 135 (1995)
[17] K. P. Shine, A. Sinha, Nature 354, 382 (1991)
[18] R. S. Lindzen, Proc. Nat. Acad. of Sciences, 94, 8335 (1997)

[19] R. Raschke, R. Hollman, Strahlungsübertragung in der Atmosphäre, Modellierung und Messung, Preprint zum CO2-Kolloquium der DECHEMA in Frankfurt/Main am 11.10.2001

[20] T. E. Graedel, Paul J. Crutzen, Chemie der Atmosphäre, Spektrum Akademischer Verlag, Heidelberg, Berlin, Oxford 1993, S. 414

[21] IPCC, Climate Change 2001, Chap.  1.2.1 Natural Forcing of the Climate System

[22] J. T. Kiehl, K. E. Trendberth, Bull. Amer. Meteor. Soc.78 (1997) 197

[23] IPCC, Climate Change 1994, Radiative Forcing of Climate Change and Evaluation of the IPCC IS92 Emission Scenarios, Cambridge University Press, S. 174

[24] IPCC, Climate Change 2001, Working Group I: The Scientific Basis. Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panal on Climate Change, Chap. 7.2.1.1

[25] H. Hug, Energy & Environment, 11, 631, (2000)

[26] N. D. Coggeshall and E. L. Saier, J. Chem. Phys., 15, 65, (1947), Fig. 1

[27] Matthias Otto, Analytische Chemie, Wiley-VCH Verlag, Weinheim (2000), S. 280 ff

[28] S. Solanki, M Schüssler, M Fligge, Nature408 (2000) 445

[29] I. G. Usoskin, S. K. Solanki, M. Schüssler, K. Mursula, K. Alanako, Phys. Rev. Let., 91 (2003) 211101-1

[30] Rundgespräche der Kommission für Ökologie, Klimawandel im 20. und 21. Jahrhundert: „Welche Rolle spielen Kohlendioxid, Wasser und Treibhausgase wirklich?“ Bayerische Akademie der Wissenschaften, Verlag Dr. Friedrich Pfeil, Müchen, April 2005, S. 93

[31] Wasserdampfgraphik nach H. Flohn, BdW 12/1978, S. 132

[32] U. Cubasch, Phys. Bl. 51 (1995) 269

[33] H. Hug, Die Angsttrompeter, Signum Verlag, München, 2006, S. 227

Heinz Hug, Wiesbaden Juni 2007

Den Aufsatz können Sie auch als pdf Datei aus dem Anhang herunterladen

Related Files




Analyse des solaren Effekts und des langfristigen Klimawandels seit 1680 sowie des gegenwärtigen kurzperiodischen Klimaverhaltens.

In einem Artikel über den solaren Klimaeinfluss (M.Lockwood und C.Fröhlich..Royal Society’s journal, UK)  ist zu lesen: “There is considerable evidence for solar influence on the Earth’s pre-industrial climate and the Sun may well have been a factor in post-industrial climate change in the first half of the last century. Here we show that over the past 20 years, all the trends in the Sun that could have had an influence on the Earth’s climate have been in the opposite direction to that required to explain the observed rise in global mean temperatures.”

Die Autoren stellen somit den  in  BWK-Beiträgen nachgewiesenen solaren Einfluss auf das langfristige Klimaverhalten nicht in Frage, inklusiv der jüngsten Erwärmung bis vor einigen Jahrzehnten. Wenn man aber das Temperaturverhalten in einem  kurzen, nur 20 Jahre umfassenden Zeitraum untersucht, verlässt man die nachhaltige, langfristige Klimaskala und kommt in den Bereich der Klimafluktuationen, in dem kurzperiodische Klimafaktoren in Relation zu den langfristigen, übergeordneten Prozessen temporär an Bedeutung gewinnen. (BWK-Beiträge SO 11/09 SO 18/10, 01/11). Die kurzfristige Klimaskala lässt grundsätzlich noch keinen Schluss auf die langfristige Klimaskala zu. Wer hier bei der Interpretation keine Skalentrennung vornimmt, vergleicht Äpfel mit Birnen.

Zur Analyse des Klimawandels, also der nachhaltigen Klimaänderung, und seiner Ursachen sind „mindestens 30-jährige Klimaperioden“ (Weltorganisation für Meteorologie) erforderlich.

Wie wenig aussagekräftig dekadische  Temperaturänderungen in Bezug auf die langfristige Klimaentwicklung sind, zeigt Abb.1. Dort sind die globalen Temperaturänderungen von einer Dekade zur Vordekade dargestellt. Danach hätte man seit 1860 mehrfach auf bevorstehende Klimaerwärmungen wie auf Abkühlungen schließen können. Völlig unhaltbar sind Aussagen auf subdekadischer Datenbasis. Die tatsächliche globale Erwärmung nach 1860 ist nur langfristig zu erkennen (Abb.4).

Die nachfolgenden Analysen stellen eine Ergänzung der früheren Untersuchungen zum Klimawandel dar. Im Gegensatz zur bisherigen Definition eines Sonnenfleckenzyklus von Sonnenfleckenmaximum zu Sonnenfleckenmaximum werden jetzt die Sonnenfleckenzyklen von Sonnenfleckenminimum zu Sonnenfleckenminimum definiert. Diese Verschiebung um eine halbe Wellenlänge ist nach der Schwingungslehre ohne Einschränkung möglich. Auch entspricht die neue Betrachtung der internationalen Zählweise der Zyklen. Ferner kann durch den veränderten Ansatz die zyklenbezogene Klimaanalyse zum einen bis zum Jahr 2009 ausgedehnt werden, wodurch auch das ungewöhnliche Temperaturverhalten seit 1998 betrachtet werden kann. Zum anderen ist durch die Untersuchung eine Überprüfung der früheren Ergebnisse gegebe

Die Klimaentwicklung Mittel- und Westeuropas 1680-2009

Die Klimareihe von Mitteleuropa basiert auf den Klimabeobachtungen von Berlin, Basel, Prag und Wien, die Klimareihe von Westeuropa auf der Central England Reihe (CET), wobei aus letzterer die Mitteleuropawerte für die beiden Dekaden 1680-1700 abgeleitet wurden (Reduktion -0,5°C).

Abb.2 zeigt den Klimawandel (anhand von Klimaperioden von 3 Sonnenfleckenzyklen gleitend) seit der Kleinen Eiszeit in Mitteleuropa, Abb.3 in Westeuropa.

Wie Abb.2 und Abb.3 belegen, setzte nach der Kleinen Eiszeit des 17.Jahrhunderts eine Klimaerwärmung im 18.Jahrhundert ein. Danach  kam es zu einer rapiden Abkühlung, die um und nach der  Mitte des 19.Jahrhunderts ihren Tiefpunkt erreichte. Ihr folgte der Temperaturanstieg im 20. Jahrhundert.

Sowohl im kontinental geprägten Mitteleuropa als auch im ozeanischen Westeuropa ist diese sinusartige Klimaschwingung seit 1680 mit einer Periodenlänge von rund 200 Jahren ein Faktum. Damit widerspricht die reale Klimaentwicklung dem sog. Hockey-Schläger-Verhalten, wonach die Klimatemperatur vor 1850 konstant gewesen sei und ein Temperaturanstieg erst mit dem Beginn der Industriealisierung nach 1850 einsetzte. 

Der Einwand, der dargestellte Temperaturverlauf spiegele nur die regionalen Verhältnisse wider, nicht aber die globalen,  ist nicht stichhaltig. So berechnen sich für den Zusammenhang zwischen dekadischen Central England- bzw. Mitteleuropatemperaturen und den globalen Dekadentemperaturen im Zeitraum 1851-2010 Korrelationskoeffizienten von +0,87 bzw. +0,94, d.h. West- und Mitteleuropa machen alle wesentlichen globalen Klimabewegungen mit. Nach den Gesetzen der Logik muss dieses auch für die Zeit vor 1850 gelten. Alles andere  würde bedeuten, dass Europa vom nordhemisphärischen/globalen Klimawandel abgekoppelt wäre.

Die globale Klimareihe ab 1850 erfasst nur die Hälfte der Klimaentwicklung seit 1680. Sie gibt vom Klimawandel der letzten Jahrhunderte allein die jüngste Erwärmung wieder (Abb.4), d.h. sie beginnt in der kalten und lebensfeindlichen Periode des 19. Jahrhunderts, als in Mitteleuropa wegen der ungünstigen Klimabedingungen Menschen verhungert sind und die große Auswanderungswelle in die USA einsetzte. Der globale Temperaturanstieg um +0,7°C zwischen 1860 und 2010  war ein Segen und keineswegs der mit der „2°-Grenze“ propagierte Beginn einer Klimakatastrophe.

Das solare Aktivitätsverhalten seit 1680

In Abb.5 ist die mittlere Sonnenfleckenzahl für Klimaperioden von 3 Sonnenfleckenzyklen gleitend  dargestellt. Damit entspricht der im Mittel 33-jährige Zeitraum von 3 Sonnenfleckenzyklen zum einen  der Definition von Klimaperioden („mindestens 30 Jahre“) der Weltorganisation für Meteorologie. Zum anderen trägt der Ansatz dem kontinuierlichen solaren Energiefluss Rechnung. Erst dadurch lassen sich langfristige Sonnen-/Klimaprozesse von kurzperiodischen Prozessen trennen.

 

Wie bei den früheren Untersuchungen so folgt nach Abb.5 auch bei der veränderten Definition der Sonnenfleckenzyklen (Minimum bis Minimum) das sinusartige Schwingungsverhalten der Sonnenaktivität mit einer rund 200-jährigen Periodenlänge. Der ruhigen Sonne im 17. Jahrhundert (Maunder-Minimum)  folgte eine zunehmend aktive Sonne im 18.Jahhundert. Ihr folgte im 19.Jahrhundert wieder eine Phase mit einer ruhigen Sonne (Dalton-Minimum). Dieser schloss sich die Periode mit stark zunehmender Sonnenaktivität im 20.Jahrhundert a

Vergleicht man den solaren Aktivitätsverlauf mit den Temperaturverläufen von Mitteleuropa (Abb.2) sowie Central England (Abb.3) seit der Kleinen Eiszeit, so ist das langfristige synchrone Verhalten von Sonnenaktivität und Temperatur unverkennbar. Der solare Antrieb hat somit die langfristige Klimaentwicklung, den Klimawandel, in Mittel- und Westeuropa nachweislich gesteuert.

Zum besseren Vergleich mit der globalen Klimaentwicklung ist der Verlauf der solaren Aktivität seit 1857 in Abb.6 dargestellt. Wie man sieht, hat die solare Aktivität seit Beginn der globalen Klimareihe wesentlich zugenommen. Der Vergleich mit Abb.4 zeigt, dass die langfristige Zunahme der Sonnenaktivität und die globale Erwärmung synchron verlaufen sind.

Damit folgt: Der solare Antrieb hat nachweislich sowohl das regionale Klimaverhalten in Mittel- und Westeuropa (sowie in Japan und den USA –BWK-Beitrag SO 01/11) als auch die globale Klimaentwicklung als dominierender Faktor bestimmt. 

 

Anomalien von Sonnenaktivität und Temperatur seit 1680

Korrelationen zwischen zwei Größen liefern ein wichtige Information über den Zusammenhang beider Größen. Bei einem direkten Zusammenhang ist die Korrelation positiv, bei einem inversen Zusammenhang ist sie negativ. Ein Korrelationskoeffizient von Null besagt, dass kein Zusammenhang zwischen den Größen besteht. Je mehr sich der Korrelationskoeffizient dem Maximalwert +1,0 nähert, um so stärker ist der direkte Zusammenhang. Wesentliche Voraussetzung bei Korrelationsbetrachtungen ist die sinnvolle Fragestellung. Eine Korrelation von Geburtenzahl und Zahl der Klapperstörche, ein beliebtes Antibeispiel, ist schon von der Fragestellung her Unfug. Eine Fragestellung über den Zusammenhang von solarer Aktivität und Klimatemperatur ist vernünftigerweise nicht zu bestreiten.

 

Korrelationen haben allerdings den Nachteil, dass sie unanschaulich sind. Die Berechnung des Korrelationskoeffizienten basiert jedoch auf den Anomalien der zu untersuchenden Größen, also ihren Abweichungen vom Mittelwert. Diese aber lassen sich anschaulich darstellen.

In Abb.7 sind die Anomalien der mittleren Sonnenfleckenzahl für die Klimaperioden von 3 Sonnenfleckenzyklen (gleitend) wiedergegeben. Im 17. und 19. Jahrhundert war die Sonnenfleckenzahl/ Sonnenaktivität unternormal (negative Werte). Im 18. und 20.Jahrhundert war die Sonnenfleckenzahl/ Sonnenaktivität dagegen übernormal (positive Werte). Das heißt: Die Beobachtungen belegen den sinusartigen Wechsel von Phasen mit einer ruhigen und einer unruhigen/aktiven Sonne. Die Periodenlänge beträgt rund 200 Jahre.

In Abb.8 sind für den Zeitraum 1680-2009 die über 3 Sonnenfleckenzyklen gleitend gemittelten Abweichungen der Temperaturen von Mitteleuropa dargestellt.

 

Wie die Temperaturanomalien belegen, herrschte in Mitteleuropa im 17. und im 19.Jahrhundert eine ausgeprägte Kälteperiode (negative Werte). Hingegen waren das 18. und das 20. Jahrhundert von übernormalen Temperaturen (positive Werte), von Wärmeperioden, gekennzeichnet. Analog zum solaren Aktivitätsverhalten wird das sinusartige Temperaturverhalten mit einer Periodenlänge von rund 200 Jahren sichtbar.

 

Der Vollständigkeit halber sei auch das Temperaturverhalten von Central England seit 1680 aufgeführt. Die Temperaturanomalien weisen -durch den unmittelbaren Ozean-/Golfstromeinfluss etwas gedämpft- den gleichen langfristigen Schwingungsverlauf auf wie in Mitteleuropa, d.h. sie verlaufen grundsätzlich ebenfalls synchron zu den langfristigen Änderungen der Sonnenaktivität seit 1680.

Damit dürfte der fundamentale Zusammenhang zwischen solaren Antriebsänderungen und der Reaktion des Klimasystems der Erde seit der Kleinen Eiszeit zweifelsfrei nachgewiesen sein. Zeiten mit einer unternormalen Sonnenfleckenzahl/Sonnenaktivität führen zu Kälteperioden, Zeiten mit einer übernormalen Sonnenfleckenzahl/Sonnenaktivität sind die Ursache von Wärmeperioden.

Korrelationen

Durch die Korrelationsberechnungen werden die o.g. Zusammenhänge zwischen Sonnenaktivität und  Klimaverhalten in Maßzahlen gefasst. Gleichzeitig wird die Frage der Irrtumswahrscheinlichkeit der Aussagen, d.h. ihrer Sicherheit,  (Signifikanzniveau) geklärt.

In Abb. 10 sind die linearen Korrelationen über den Zusammenhang von Sonnenfleckenzahl und Temperatur für gleitende Klimaperioden von 3 Sonnenfleckenzyklen dargestellt, und zwar  für Mittel- und Westeuropa für den Zeitraum  1680-1823 (links) sowie ab 1857 für Mitteleuropa, Central England, global, Nord- und Südhalbkugel (rechts).

Mit Korrelationskoeffizienten bis zu +0,95 ist der Zusammenhang zwischen zunehmender Sonnenaktivität im 18.Jahrhundert und der synchronen Klimaerwärmung nach der Kleinen Eiszeit hoch-signifikant nachweisbar. Das gleiche gilt für den Zusammenhang von Dalton-Minimum und der raschen Temperaturabnahme Ende des 18./Anfang des 19.Jahrhunderts. Die Korrelation weist für die Abkühlungsphase den Maximalwert von +1,0 auf.

Für die Ursachenanalyse des Temperaturverhaltens nach 1857 ist es sinnvoll, die Korrelationen zum einen für den Zeitraum 1857-1996 und zum anderen für 1857-2009 zu berechnen. Im Zeitraum 1857-1996 folgen nach Abb.10 für den Zusammenhang von zunehmender Sonnenaktivität und langfristigem Temperaturverhalten als Korrelationskoeffizienten für Mitteleuropa +0,91, Central England +0,82, global +0,91, Nordhalbkugel +0,91 und Südhalbkugel +0,88. Damit bestätigen sich die früheren, für den Zeitraum 1860-1999 berechneten Korrelationen.

Berechnet man die Korrelationen für den Zeitraum 1857-2009, so ergibt sich nach Abb.10 folgendes Bild: Mitteleuropa  +0,83, Central England +0,78, global +0,83, Nordhalbkugel +0,84, Südhalbkugel +0,81. Das heißt: In Bezug auf die langfristige Klimaentwicklung sind die Korrelationen nach wie vor sehr hoch. Durch die Verlängerung des Zeitraums um den 23. Sonnenfleckenzyklus (1997-2009) reduzieren sich jedoch die Korrelationskoeffizienten regional wie global, und zwar  global von +0,91 auf +0,83 und in Mitteleuropa von +0,89 auf +0,83. Auffällig ist, dass im ozeanischen Central England der Rückgang nur 0,04 beträgt.

Das aktuelle Klimaverhalten

Damit erhebt sich die Frage nach der Ursache des Temperaturverhaltens im Zeitraum 1997-2009, welche den Rückgang der linearen Korrelation zwischen Sonnenfleckenzahl und Temperatur seit 1857 zur Folge hat. Bis 1996 konnte der solare Antrieb rund 80% der langfristigen Klimavarianz seit 1857 mit 99,9%-tiger Sicherheit erklären. 20% der Temperaturvariabilität waren auf andere klimarelevante Prozesse zurückzuführen. Offensichtlich hat deren Einfluss im 23. Sonnenfleckenzyklus das Temperaturverhalten maßgeblich bestimmt und die lineare Korrelation zwischen Sonnenaktivität und Temperatur verändert. Um diesen Vorgang zu analysieren, wird nachfolgend der Zusammenhang von mittlerer Temperatur und  Sonnenfleckenzahl je Sonnenfleckenzyklus, also auf der kurzen Zeitskala betrachtet. Wie im Beitrag zur BWK SO 01/11 dargelegt, wirken sich in diesem Fall neben dem permanenten solaren Antrieb verstärkt die kurzperiodischen  Klimaeinflüsse (z.B. Vulkanausbrüche und El Nino/La Nina) auf die Korrelation aus.

 

In Abb.11 sind die Korrelationen über den Zusammenhang von mittlerer Sonnenfleckenzahl und Mitteltemperatur je Sonnenfleckenzyklus ab 1857 für die Zeiträume bis 1964, 1976, 1986, 1996 und 2009 wiedergegeben. Wie sich zeigt, sind die Korrelationskoeffizienten für die Perioden bis 1996 stabil bzw. weisen noch eine steigende Tendenz auf, z.B. global von +0,67 auf +0,75. Der Einbruch der Korrelation von Globaltemperatur und Sonnenaktivität auf Werte um +0,50 erfolgt somit durch kurzfristige Prozesse erst im 23. Sonnenfleckenzyklus, also zwischen 1997 und 2009.

Die Klimagegenwart

Die Frage, welche Prozesse das Temperaturverhalten im 13-jährigen Zeitraum 1997-2009 so maßgeblich beeinflusst haben und wieso der solare Anteil  gesunken ist, wird anhand der globalen Temperaturentwicklung des 20-jährigen Zeitraums 1991-2010 untersucht.  

Abb.12 zeigt die globalen Jahresmitteltemperaturen 1991-2010 (Climate  Research Unit, UK). Deutlich ist an dem gezackten Kurvenverlauf der Einfluss hoch-frequenter Klimaprozesse zu erkennen. Besonders auffällig ist die Temperaturspitze von 1998. Seit diesem Zeitpunkt ist die globale Temperatur nicht weiter gestiegen, d.h. seit 1998 findet keine weitere globale Erwärmung mehr statt.

Wie die Regressionskurve deutlich macht, verharrt die globale Temperatur seit 1998 auf einem gleichmäßigen Niveau mit einer leicht fallenden Tendenz, die sich im La Nina-Jahr 2011 verstärken wird.

Damit gilt es zu prüfen, inwieweit der anthropogene, der solare oder der ozeanische Klimaeinfluss das plateauartige globale Temperaturverhalten zwischen 1998 und 2010 zu erklären vermag.

 

Der atmosphärische CO2-Gehalt

Nach indirekten CO2-Bestimmungen war der Kohlendioxidgehalt der Luft in der Nacheiszeit bis 1850 konstant und lag bei 280 ppm. Damit scheidet jeder CO2-Einfluss auf den Klimawandel bis 1850 von vornherein aus. Weder bei der Wärmeperiode der Römerzeit, der Kälteperiode zur Völkerwanderungszeit, der mittelalterlichen (Wikinger-)Warmzeit noch der  Kleinen Eiszeit hat der CO2-Effekt eine Rolle gespielt. Es waren somit nur natürliche Prozesse (Sonne, Ozeane, Vulkanausbrüche,…), die das Klima wiederholt nachhaltig veränderten.

Nach den obigen Korrelationsanalysen über den Zusammenhang von veränderlicher Sonnenaktivität und langfristiger Klimaentwicklung ist ebenfalls kein wesentlicher Treibhaus-/CO2-Einfluss auf den Klimawandel im Industriezeitalter zu erkennen. Der solare Effekt vermag auch bei der Erwärmung nach 1860 rund 80% des langfristigen regionalen und globalen Klimaverhaltens zu erklären.

Für den CO2-Einfluss auf den Klimawandel bleibt nur das Residuum von 20% übrig, in dem allerdings auch die langfristigen Antriebe von Ozean und globaler Eisbedeckung enthalten sind.

Damit bleibt allein noch die Frage zu klären, ob der gestiegene CO2-Gehalt der Luft das aktuelle Klimaverhalten bestimmt hat. Bedenkt man, dass von der CO2-Zunahme seit 1850 von 280 ppm auf 390 ppm im Jahr 2010 allein 45 ppm auf die 20 Jahre 1991-2010 entfallen, so wird der exponentielle CO2-Anstieg in Abb.13 verständlich. Mit diesem Anstieg müsste nach der anthropogenen Treibhaushypothese ein erheblicher Temperaturanstieg verbunden sein.

Vergleicht man nun Abb.12 und Abb.13 miteinander, so fällt zum einen auf, dass das CO2-Verhalten die kurzperiodischen Temperaturfluktuationen nicht zu erklären vermag. Der CO2-Effekt kennt physikalisch nur die Temperaturzunahme, Abkühlungen, ob kurz- oder langfristig, sind ihm wesensfremd und müssen durch natürliche, ihn überkompensierende Klimaprozesse erklärt werden. Ebensowenig vermag er sprunghafte Temperaturzunahmen zu erklären. Das gilt auch für die Temperaturspitze von 1998.

Nach 1998 steigt der CO2-Gehalt exponentiell weiter an. Die globale Temperatur hingegen geht, wie die Regressionskurve zeigt, in ein Plateau mit leicht fallender Tendenz über. Krasser kann die Divergenz zwischen aktuellem Temperatur- und CO2-Verhalten kaum sein. Damit folgt: Obwohl der CO2-Gehalt der Luft seit 1998 auf sein höchstes Niveau angestiegen ist, stagniert die globale Temperatur. Der CO2-Effekt spielt somit auch beim aktuellen Klimaverhalten  keine erkennbare Rolle.

 

Der ozeanische Einfluss von El Nino und La Nina

Die atmosphärischen Auswirkungen der periodischen Wassertemperaturänderungen im tropischen Pazifik sind bereits in mehreren Beiträgen zu BWK gezeigt worden (SO 11/09, SO 18/10). El Nino als ENSO-Warmphase und La Nina als ENSO-Kaltphase (ENSO=El Nino-Südliche Oszillation)  bestimmen wesentlich die kurzperiodischen globalen Temperaturfluktuationen. Weisen sie, wie in jüngster Vergangenheit, ein Trendverhalten auf, so können sie auch multi-dekadische Auswirkungen auf die Globaltemperatur haben. Ist (gemäß der ONI-Werte des US-Wetterdienstes) Tm die mittlere Abweichung der tropischen Pazifiktemperatur während einer El Nino-Phase vom Normalwert (Tm: positiv) bzw. einer La Nina-Phase (Tm:negativ), so kann der Wärmeeinfluss des Ozeans auf die Atmosphäre durch den thermischen Antriebsfaktor F=Tm*Mon beschrieben werden, wenn die zeitliche Dauer des jeweiligen ENSO-Ereignisses in Monaten erfasst wird.

In Abb.14 ist für jedes Jahrzehnt seit 1951 der resultierende Antrieb gemäß F(El Nino) minus F(La Nina) angegeben, also die Wärmebilanz zwischen den El Nino- und den La Nina-Phasen der Dekade.

Wie man erkennt, überwog in den 1950er Jahren der Einfluss von La Nina gegenüber dem El Nino-Einfluss auf die Atmosphäre. In der 1970er Dekade waren beide thermische Effekte gleich groß, d.h. bei der Ursachenanalyse für die Abkühlung der Nordhalbkugel in dieser Zeit kann ein ENSO-Einfluss vernachlässigt werden.

In den 1980er, den 1990er und vor allem in der Dekade 2001-2010 überwogen die Auswirkungen von El Nino jene von La Nina auf die Atmosphäre. Somit hatte  El Nino nicht nur kurzperiodisch, sondern auch multi-dekadische Auswirkung auf die globale Temperatur seit den 1980er Jahren. Insbesondere in der Dekade 2001-2010 hat El Nino das globale Temperaturniveau wesentlich beeinflusst.

 

In Abb.15 sind die Korrelationskoeffizienten über den Zusammenhang zwischen den jährlichen globalen Mitteltemperaturen und den mittleren jährlichen Anomalien der Pazifiktemperatur im El Nino-/La Nina-Gebiet wiedergegeben. Wie man erkennt, nimmt der kurzperiodische Einfluss der ENSO-Warm- und Kaltphasen auf die Globaltemperatur seit 1991 von Jahr zu Jahr zu und erreicht im Zeitraum 1999-2010 einen Korrelationskoeffizienten von +0,80, bis 2009 sogar von +0,87. Berücksichtigt man den Umstand, dass die El Nino- und die La Nina-Ereignisse jahresübergreifend sind und korreliert den thermischen Antriebsfaktor F=Tm*Mon der ENSO-Phasen mit dem wärmeren/kälteren Jahr der entsprechenden jahresübergreifenden ENSO-Phase, so ergibt sich im Zeitraum 1998-2009/10 ein Korrelationskoeffizient von über +0,95, d.h. die seit 1998 dem Temperaturplateau überlagerten Temperaturfluktuationen gehen praktisch alle auf die Auswirkungen von El Nino/La Nina zurück. 

Die Auswirkungen von El Nino auf die Atmosphäre haben somit einerseits einen maßgeblichen Beitrag zum aktuellen globalen Temperaturniveau geleistet und erklären anderseits zusammen mit den La Nina-Phasen die Pendelbewegungen der Globaltemperatur auf dem Temperaturplateau seit 1998.

Sonnenaktivität und gegenwärtiges Klimaverhalten

Um den solaren Einfluss auf den Klimawandel der letzten Dekaden einordnen zu können, ist in Abb.16 die mittlere Sonnenfleckenzahl der letzten 10 Sonnenfleckenzyklen dargestellt. Seit dem Zyklus 14 (1902-1913) ist sie von 31 auf 96 im Zyklus 19 (1955-1964) angestiegen. Synchron dazu stieg die globale Temperatur. Danach erfolgte im 20.Zyklus (1965-1976) ein Einbruch der Sonnenaktivität. Die mittlere Sonnenfleckenzahl ging um über 35% von 96 auf 59 zurück. Die Nordhalbkugel reagierte aufgrund ihres hohen Festlandanteils spontan auf den Rückgang der solaren Aktivität. In der Arktis kam es zu einem deutlichen Temperaturrückgang (R.Scherhag, BWK SO31/70), und das Nordpolareis dehnte sich im europäischen Teil so weit südwärts aus, dass die Eisbären von Grönland nach Island hätten wandern können. Noch im Frühjahr war die Dänemarkstraße zugefroren, wie die Satellitenaufnahmen zeigten. In der Klimaforschung begann man über eine bevorstehende weitere Kleine Eiszeit nachzudenken.

 

 Doch überraschend nahm im 21. Sonnenfleckenzyklus (1977-1988) die Sonnenaktivität wieder zu. Die mittlere Sonnenfleckenzahl stieg auf 83 an. Mit 78 blieb die mittlere Sonnenfleckenzahl auch im 22. Sonnenfleckenzyklus (1987-1996) auf hohem Niveau, dem dritthöchsten seit der Kleinen Eiszeit. Analog stieg auch die Temperatur der Nordhalbkugel wieder an. Die Südhalbkugel hatte auf den kurzzeitigen solaren Einbruch im 20.Zyklus aufgrund der thermischen Trägheit ihres großen Ozeananteils nicht reagiert.

Dem hohen solaren Aktivitätsniveau der Zyklen 21 und 22 folgte im 23.Sonnenfleckenzyklus (1997-2009) erneut ein Einbruch. Die mittlere Sonnenfleckenzahl ging auf 52 zurück. Wenn die globale/ nordhemisphärische Temperatur nicht unmittelbar auf die solare Aktivitätsabnahme reagiert, liegt das zum einen an der thermischen Trägheit der Ozeane. Vor allem aber wirkt sich, wie gezeigt, der gegenwärtig hohe El Nino-Einfluss auf die globale Temperatur vorübergehend stabilisierend aus.

Zusammenfassend lässt sich sagen: Nach der deutlichen Zunahme der Sonnenfleckenzahl/ Sonnenaktivität im 20.Jahrhundert ist die mittlere Sonnenfleckenzahl im 23. Zyklus auf die kritische Grenze von rund 50 gesunken. Die in diesem Grenzbereich auftretende klimawirksame solare Aktivität entspricht dem indifferenten Klimazustand zwischen einer nachhaltigen Wärme- und einer Kälteperiode (BWK SO  03/09). Das heißt: Das derzeitige Klimaverhalten auf der kurzzeitigen Klimaskala sagt nichts über die weitere langfristige Klimaentwicklung aus. Diese wird auch in Zukunft maßgeblich vom Verhalten der Sonne abhängen.

Die Klimazukunft

Die entscheidende Frage für die zukünftige Klimaentwicklung lautet: Wie verhält sich die solare Aktivität im aktuellen 24.Sonnenfleckenzyklus und den nachfolgenden Zyklen?  Nimmt die mittlere Sonnenfleckenzahl/Zyklus wieder zu, wäre nach der gegenwärtigen Stagnation der globalen Temperatur mit einem weiteren Temperaturanstieg zu rechnen. Sinkt die mittlere Sonnenfleckenzahl/Zyklus langfristig aber unter den kritischen Grenzwert von rund 50/Zyklus, so ist ein globaler Rückgang der Temperatur zu erwarten. Derzeit sprechen alle Anzeichen für eine bevorstehende Abkühlung.

So hat zum einen die NASA soeben (Feb.2011) ihre bisherige Prognose der Sonnenfleckenzahl im 24. Sonnenfleckenzyklus weiter nach unten korrigiert.

Abb.17 Sonnenfleckenzahl des 23. und Prognose des 24. Sonnenfleckenzyklus (NASA)

Wie die NASA-Prognose in Abb. 17 zeigt, wird die mittlere Sonnenfleckenzahl und damit die integrale Sonnenaktivität im aktuellen 24.Zyklus mit hoher Wahrscheinlichkeit den kritischen Grenzwert von 50 deutlich unterschreiten. Dieser Rückgang der solaren Aktivität wie die zu erwartende Abkühlung würden ferner der 200-jährigen Schwingung von Sonnenaktivität (Abb.5) und langfristiger Klimaentwicklung (Abb.2, Abb.3) entsprechen (De-Vries-Zyklus). Die von den Klimamodellen prognostizierte fortschreitende Klimaerwärmung erscheint vor diesem Hintergrund höchst unwahrscheinlich.

Dafür spricht auch die folgende Abbildung.

 

In Abb.18 ist die Abweichung der Periodenlänge der Sonnenfleckenzyklen vom 11-jährigen Mittelwert seit dem Zyklus 1646-1655 wiedergegeben. Wie man erkennt, sind positive Abweichungen von 2 bis 3 Jahren, also überlange Zyklen, selten.

Auffällig ist: Nach dem überlangen Zyklus 1621-1633 begann das Maunder Minimum, und dem Zyklus 1667-1679 folgte der letzte Höhepunkt der Kleinen Eiszeit Ende des 17. Jahrhunderts. In der Wärmeperiode des 18.Jahrhunderts fehlten überlange Zyklen. Mit den übernormalen Zykluslängen 1785-1798 bzw. 1811-1823 korrespondiert das Dalton-Minimum und damit der rapide Temperaturrückgang Ende des 18./Anfang des 19. Jahrhunderts. Die Kälteperiode um die Mitte des 19. Jahrhunderts fällt mit dem überlangen Zyklus 1844-1856 zusammen. Danach wurde bis 1996, also während der gesamten Erwärmungsphase nach 1860, kein überlanger Sonnenfleckenzyklus mehr beobachtet. Erst der Sonnenfleckenzyklus 1997-2009 weist wieder eine Überlänge wie die Zyklen im 17. und 19. Jahrhundert vor Beginn der Kälteperioden auf. Dieser Sachverhalt ist somit ein weiteres Indiz für den Übergang der Sonne von einer aktiven Phase zu einer ruhigen Sonne. Alle solaren Vorzeichen lassen daher nur den Schluss auf einen Rückgang der globalen Temperatur in naher Zukunft zu. Zu vergleichbaren Ergebnissen sind auch das russische Hauptobservatorium Pulkovo bei St.Petersburg und das US-amerikanische SSRC (Space Sciende Research Center) gekommen.

Zusammenfassende Schlussbetrachtungen

Die Analyse  des Klimaverhaltens im Zeitraum 1680-2009 bestätigt die Ergebnisse der früheren Untersuchungen. Der mehrfache Klimawandel seit der Kleinen Eiszeit wurde empirisch nachweislich primär von den langfristigen Veränderungen der Sonnenaktivität gesteuert. Mittlere Sonnenfleckenzahl und Temperatur zeigen regional wie global/ hemisphärisch auf der langfristigen Klimaskala einen synchronen Verlauf. Die Korrelationskoeffizienten über diesen (über Klimaperioden von 3 Sonnenfleckenzyklen gleitenden) Zusammenhang liegen um +0,90 bis +1,0 und sind auf dem 99,9%-Niveau signifikant, d.h. die Irrtumswahrscheinlichkeit beträgt nur 0,1%.

Dabei gilt der dominierende solare Einfluss auf den nachhaltigen Klimawandel nicht nur für die Zeit bis 1850, in der der CO2-Gehalt der Luft konstant bei 280 ppm lag und damit a priori keine Rolle beim Klimawandel spielte. Auch nach 1850 ist kein wesentlicher anthropogener CO2-/ Treibhauseinfluss auf die Klimaentwicklung  zu erkennen. Der solare Effekt vermag an der globalen wie regionalen Erwärmung von 1860 bis 1996 bei den kurzfristigen Klimafluktuationen mit ihren vielen natürlichen Einflussfaktoren   55%-60% und an dem langfristigen Temperaturanstieg rund 80% statistisch abgesichert zu erklären. Der solare Antrieb ist offensichtlich.

Seit der Kleinen Eiszeit war die mittlere Sonnenfleckenzahl/Sonnenaktivität je Zyklus niemals so hoch wie in der 2. Hälfte des 20.Jahrhunderts. Die Werte der Sonnenfleckenzyklen 19, 21 und 22 waren  viermal so hoch wie zur Kleinen Eiszeit und doppelt so hoch wie zur Zeit der Kälteperiode des 19. Jahrhunderts. Die Behauptung, der solare Effekt mache nach den Klimamodellen nur 10% bei der Erwärmung im letzten Jahrhundert aus, ist vor dem Hintergrund der Klimageschichte unlogisch und nach der empirischen Klimaanalyse durch die Realität widerlegt. Die Größenordnung dürfte eher für den anthropogenen CO2-Einfluss auf das Klima zutreffen.

Vor der Betrachtung der Klimavariabilität im Zeitraum 1997/98-2009/10 ist festzuhalten: Entscheidend für die Beurteilung des nachhaltigen Klimawandels ist das langfristige Klimaverhalten. Nicht entscheidend sind dekadische oder etwa subdekadische Klimafluktuationen, da die Prozesse auf der kurzfristigen Klimaskala nur von vorübergehender Bedeutung sind.

In dem mit 13 Jahren anormale langen 23. Sonnenfleckenzyklus (1997-2009) ist die mittlere Sonnenfleckenzahl von rund 80 der beiden Vorzyklen auf 52 zurück gegangen. Damit hat sie den kritischen Grenzwert zwischen aktiver und ruhiger Sonne, zwischen einer Wärme- und einer Kälteperiode erreicht. In dieser indifferenten solaren Übergangsphase ist derzeit auf der kurzfristigen Klimaskala ein erhöhter Einfluss kurzperiodischer Klimaprozesse festzustellen.

Seit 1998 verharrt die globale Temperatur auf einem quasi-konstanten Niveau, einem Temperaturplateau mit leicht fallender Tendenz. Die globale Temperatur führt dabei lediglich kurze und kleine Pendelbewegungen nach oben und unten aus. Dieses gegenwärtige globale Temperaturverhalten korrespondiert zum einen mit den derzeit ungewöhnlich hohen thermischen Auswirkungen von El Nino auf die Atmosphäre, wodurch die globale Temperatur stabilisiert wird. Zum anderen korrespondieren die globalen Temperaturfluktuationen mit den kurzzeitigen Wechseln zwischen El Nino- und La Nina-Phasen. Die Korrelation zwischen dem jahresübergreifenden thermischen Antriebsfaktor F=Tm*Mon der El Nino- und La Nina- Ereignisse im Zeitraum 1998-2009/10 mit der erhöhten/erniedrigten globalen Jahrestemperatur in dieser Phase liegt über +0,95. Es ist somit offenkundig der Wärmefluss des tropischen Pazifiks, der seit dem starken El Nino von 1998 bis heute die globale Temperatur auf der kurzzeitigen Klimaskala bestimmt.  

Der anthropogene CO2-Effekt kommt als Ursache des aktuellen Temperaturverhaltens nicht in Betracht. Wäre er dominant, müsste sich die globale Temperatur seit1998 auf Grund des exponentiellen CO2-Anstiegs stark erhöht haben. Eine konstante globale Temperatur ist durch einen angeblich dominierenden CO2-Effekt physikalisch ebenso wenig zu erklären, wie es globale Abkühlungen sind.  

Entscheidend für die weitere Klimaentwicklung im 21.Jahrhundert wird sein, wohin sich die solare Aktivität aus dem kritischen Grenzbereich des 23. Sonnenfleckenzyklus entwickelt. Bei einem Übergang vom kritischen Grenzwert von rund 50 zu höheren mittleren Sonnenfleckenzahlen/ Sonnenaktivität je Zyklus wäre mit einer weiteren Erwärmung zu rechnen. Ein deutliches Absinken der mittleren Sonnenfleckenzahl/Zyklus unter 50 im 24. Sonnenfleckenzyklus und den folgenden Zyklen würde zu einer Abkühlung führen.

Derzeit weisen alle Vorzeichen auf eine bevorstehende globale Abkühlung hin. Zu den Indizien zählen zum einen die 200-jährige Schwingung der Sonnenaktivität und des synchronen Klimaverhaltens sowie der mit 13 Jahren überlange 23.Sonnenfleckenzyklus. Zum anderen ist nach der aktuellen NASA-Sonnenfleckenprognose eine deutliche Unterschreitung der kritischen mittleren Sonnenfleckenzahl im 24. Sonnenfleckenzyklus bis 2020 zu erwarten.

Die durch den solaren Effekt veränderte globale atmosphärische und ozeanische Zirkulation wird, wie zu allen Zeiten, letztlich über die regionalen Auswirkungen der globalen Abkühlung entscheiden.

Zusammenfassend kann man sagen: Das gegenwärtige solare Verhalten steht nicht im Widerspruch zu seinem dominierenden langfristigen Klimaeinfluss, sondern stellt eine Ergänzung dar, indem es den Klimazustand an der kritischen Grenze der solaren Aktivität zwischen aktiver und ruhiger Sonne, zwischen einer Wärme- und Kälteperiode charakterisiert. Solange die solare Aktivität an der kritischen Grenze verharrt, wird es global weder wärmer noch kälter, d.h. die globale Temperatur strebt durch den solaren Effekt in dieser Phase ein konstantes Niveau an. Solarer Antrieb und globale Temperatur verhalten sich in ihrem Zusammenspiel daher derzeit „normal“.    

Fazit

Auch nach dieser Klimaanalyse ist der solare Einfluss auf unser Klimasystem der dominierende Antrieb des langfristigen, nachhaltigen Klimawandels. Der angeblich dominierende anthropogene CO2-/ Treibhauseffekt ist vor diesem Hintergrund eine offensichtliche Fehleinschätzung, insbesondere auch in Bezug auf seine katastrophalen Auswirkungen. Daher lautet mein Credo auch nach dieser Untersuchung: An die Stelle eines wissenschaftlich nicht konsensfähigen und daher wirtschaftlich nicht vertretbaren globalen Klimaschutzes sollte die oberste Priorität auf den weltweiten Umweltschutz gelegt werden. Saubere Luft, sauberes Wasser, unbelastete Seen, Flüsse, Ozeane und Erdböden sowie ein intaktes Ökosystem gehören zu den Grundrechten des Menschen weltweit. Ein stabiles Klima gehört, wie die Klimageschichte lehrt, nicht dazu. So sollte  man auch bei der Suche nach den Ursachen des Artensterbens die Umweltsünden im Fokus haben, anstatt eine Temperaturschwankung dafür verantwortlich zu machen, die in der jüngeren Klimageschichte  von Natur aus völlig normal ist.

Prof. Dr. Horst Malberg 

zuerst erschienen in  Beiträge zur Berliner Wetterkarte

c/o Institut für Meteorologie der Freien Universität Berlin C.-H.-Becker-Weg 6-10165 Berlin 19/11  http://www.Berliner-Wetterkarte.de                                                   ISSN 0177-3984 SO 09/11                                                                                                                                                                      

Literatur

– Brohan, P., J.J. Kennedy, I. Haris, S.F.B. Tett and P.D. Jones: Uncertainty estimates in regional and global  

   observed temperature changes: a new dataset from 1850. J. Geophysical Research, 111, D12106,  

  doi:10.1029/2005JD006548 — pdf

– BMBF  Herausforderung Klimawandel“. 2004: http://www.bmbf.de/pub/klimawandel.pdf

– Claußnitzer, A. Das Maunder-Minimum. Eine Modellstudie mit dem „Freie Universität Berlin Climate     

  Middle Atmosphere Model“ (FUB-CMAM). Diplomarbeit. 2003

– Cubasch, U. Variabilität der Sonne und Klimaschwankungen. Max-Planck-Forschung. Das Wissen-

  schaftsmagazin der Max-Planck-Gesellschaft (2001)

– Eddy, J.A. „The Maunder Minimum“. Science 192. 1976

– EIKE: www.eike-klima-energie.eu

– Hennig, R. Katalog bemerkenswerter Witterungsereignisse –von den alten Zeiten bis zum Jahre 1800.

  Abh. Kgl. Preuß. Met.Inst.Bd.II/4 .1904

– Hoyt, D. V. and Schatten, K. H.: The role of the sun in climate change. New York-Oxford, Oxford Univer-

  sity Press. 1997

– Jones, P.D., New, M., Parker, D.E., Martin, S. and Rigor, I.G., 1999: Surface air temperature and its varia-    

   tions over the last 150 years. Reviews of Geophysics 37, 173-199.

– Labitzke,K. and H. van Loon: The signal of the 11-years sunspot cycle in the upper troposphere-lower

  Stratosphere. 1997

– Labitzke, K. On the solar cycle – QBO – relationship. J.A.A., special issue 67, 45-54. 2005

– Landscheidt, T. Solar oscillations, sunspot cycles, and climatic change. In: McCormac, B. M., Hsg.:

  Weather and climate responses to solar variations. Boulder, Ass. Univ. Press (1983) 

– Malberg,H. und G. Bökens: Änderungen im im Druck-/Geopotential- und Temperaturgefäl le zwischen Sub-

   tropen und Subpolarregion im atlantischen Bereich im Zeitraum 1960-90. Z.f.Meteor. N.F. (1993)

– Malberg, H.  Beiträge des Instituts für Meteorologie der Freien Universität Berlin/Berliner Wetterkarte:

– Über den Klimawandel in Mitteleuropa seit 1850 und sein Zusammenhang mit der Sonnenaktivität. SO 17/02 

– Die globale Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 27/02

– Die nord- und südhemisphärische Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO

   10/03

– Der solare Einfluss auf das mitteleuropäische und globale Klima seit 1778 bzw. 1850. SO 01/07 (2007) –

   In Memoriam Prof. Richard Scherhag.

– Über den dominierenden solaren Einfluss auf den Klimawandel seit 1701. SO 27/07

– El Nino, Vulkane und die globale Erwärmung seit 1980. SO 34/07

– El Niño und der CO2-Anstieg sowie die globale Erwärmung bei  C11/09O2-Verdopplung. SO 02/08

– Die unruhige Sonne und der Klimawandel. SO 20/08

– Über die kritische Grenze zwischen unruhiger und ruhiger Sonne und ihre Bedeutung für den Klimawandel. SO

   03/09

– La Nina – El Nino und der solare Einfluss – Der Klimawandel 1950-2008. SO 11/09

– Über das Stadtklima und den Klimawandel in Deutschland seit 1780. SO 18/09

– Langfristiger Klimawandel auf der globalen, lokalen und regionalen Klimaskala und seine primäre Ursache:

   Zukunft braucht Herkunft. SO 29/09 (2009)

– Der solare Einfluss auf den Klimawandel in Westeuropa seit 1672. SO 37/09 (2009)

– Rekonstruktion des Klimawandels seit 1860 bzw. 1672 aufgrund solarer Aktivitätsänderungen, SO 11/10

   (2010)

– Kurzperiodische und dekadische Klimavariabilität im Zeitraum 1980-2009. SO18/10 (2010)

– Über scheinbare und tatsächliche Klimaerwärmung seit 1850. SO26/10 (2010)

 – Malberg, H. Klimawandel und Klimadiskussion unter der Lupe. Z. f. Nachhaltigkeit 5. 2007

– Malberg, H. Klimawandel und Klimadebatte auf dem Prüfstand. Verh. Ges.Erdkunde zu Berlin. 2007

– Malberg, H. Der solare Einfluss auf den Klimawandel. Jahrbuch der Freunde und Förderer der TU Bergakade-

   mie Freiberg, 2010

– Matthes, K., Y. Kuroda, K. Kodera, U. Langematz: Transfer of the solar signal from the stratosphere to the

   troposphere: Northern winter. J. Geophys. Res., 111.2005

– Matthes, K., U. Langematz, L. L. Gray, K. Kodera   Improved 11- year solar signal in the Freie Universität

   Berlin climate middle atmosphere model. J. Geophys. Res., 109. 2003 

– Negendank, J.W. Gehen wir einer neuen Kaltzeit entgegen? Klimaänderungen und Klimaschutz.TU-

   Cottbus.2007  

– Pelz, J. Die Berliner Jahresmitteltemperaturen von 1701 bis 1996, Beilage Berl. Wetterkarte, 06/1997

– Scafetta; N. and B.J. West: Is Climate Sensitive to Solar Variability. Physics today. (2008)

– Scherhag, R. Die gegenwärtige Abkühlung der Arktis. Beilage Berliner Wetterkarte SO31/1970

– Svensmark, H. Cosmic rays and earth‘s climate. Space Science Rev. 93 (2000)

– Svensmark, H. Cosmic Climatlogy – A new theory emerges. A&G, Vol. 48 (2007)

– Svensmark, H., Friis-Christensen, E. Reply to Lockwood and Fröhlich – The persistent role of the Sun in

  Climate forcing. Danish Nat.Space Center. Scientific Report 3/07 (2007)

– Wehry, W. Einige Anmerkungen zu meteorologischen Messungen und Datenreihen. Beiträge BWK SO 22/09

– Winkler, P. Revision and necessary correction of the long-term  temperature series of Hohenpeissenberg,

   1781–2006- Theor. Appl. Climatol. 75 (2009)

Daten:

Den Temperaturdaten von Basel und Wien liegen die Klimareihen von F. Baur zugrunde, die im Rahmen der „Berliner Wetterkarte“ fortgeführt wurden.

Die Temperaturdaten von Prag wurden der Internet-Veröffentlichung www.wetterzentrale .de/Klima/ entnommen, erweitert durch Werte, die von der Station Prag direkt zur Verfügung gestellt wurden.

Die Temperaturreihe von Berlin entspricht den von J. Pelz auf Berlin-Dahlem reduzierten Werten ab 1701.

Die globalen Temperaturreihen basieren auf den Werten des Climatic Research Unit, UK.

(www.cru.uea.ac.uk/cru/data)

Die Sonnenfleckenzahlen entstammen den Veröffentlichungen von NOAA

(ftp:/ftp.ngdc.noaa.gov/STP/SOLAR_Data/Sunspot­_Numbers/Monthly/)

Die Sonnen vor 1749 wurden verschiednen Quellen entnommen (u.a.Waldheimer,M.:The sunspot activityin the years 1610-1960 (Zürich 1961), Schove, D.J.:Snspot cycles (Hutchinson Stroudsburg 1983), Schönwiese,C.D. Klimatologie (UTB 1994)

Die ONI-Daten (Oceanic Nino Index) basiern auf: ftp:/www.cpc.ncep.noaa.gov/products/analysis/




Politik mit Alternativen Energien 1:Der Mythos von der Machbarkeit großindustrieller Erneuerbarer Energie.

Erinnern wir uns an die Rhetorik von Deutschlands Grüner Kanzlerin: Angela Merkel versprach 2006 bekanntlich, in ihrem Land die Kohle- und Kernkraft durch Erneuerbare Energiequellen zu ersetzen. In der Realität hat sich Merkel aber aktiv für den Bau von 26 neuen Kohlekraftwerken eingesetzt und einen besonderen Schutz für Deutschlands Schwerindustrie mittels Vergabe von kostenfreien Emissionszertifikaten gefordert. Im Jahre 2010 hatte sie einer 12jährigen Laufzeitverlängerung für Deutschlands Kernkraftwerke das Wort geredet. Wie kam denn das?

Warnende rebellische Stimmen von Deutschlands Industrieführern wegen des Verlustes der internationalen Wettbewerbsfähigkeit könnten etwas damit zu tun haben.

Wieder Rhetorik: Im April diesen Jahres in der Folge des Fukushima-Unfalls hat sich Merkel von der Laufzeitverlängerung verabschiedet. Das opportunistische Hin- und Her-Gezappe der Grünen Kanzlerin scheint ihr einen politischen Fall-out beschert zu haben.

Rhetorik: Wer an der Grünen Arbeitsplatz-Front tätig ist, sollte sich an Präsident Obamas Warnung an die Amerikaner erinnern, als er davon sprach, dass “Länder wie Spanien, Deutschland und Japan vorne lägen.” Obama wollte 5 Millionen Grüne Arbeitsplätze schaffen und einen Herrscher über alle Grünen Arbeitsplätze einsetzen.

Realität: Eine spanische Studie von 2009 zeigte, dass für jeden geschaffenen “Grünen Job” tatsächlich 2,2 andere Arbeitsplätze vernichtet werden. Das Center for American Progress, dessen Leiter an der Spitze von Obamas Wendemannschaft stand, errechnete Kosten in Höhe von $100 Milliarden für die Regierung, um 2 Millionen Grüne Arbeitsplätze zu schaffen. Das bedeutet eine Rechnung von $50.000 für den Steuerzahler pro geschaffenem Arbeitsplatz. Im Februar diesen Jahres bestätigte ein englischer Bericht, dass die Subventionierung des Grünen Sektors mehr Arbeitsplätze vernichtet als sie schafft.
Rhetorik: Der Eurokrat Andris Pielbalgs ist ein Vorkämpfer für die Interessen der Erneuerbaren mit Behauptungen  wie: “Die Windenergie kann einen Großteil der Verschmutzung der endlichen Energiereserven beseitigen, von der wir derzeit abhängig sind.
Realität: “Demnächst werden wir die 20.000ste Windkraftanlage feiern, ohne auch nur ein einziges kleines konventionelles Kraftwerk ersetzt zu haben,“ sagte Ferdinand Fürst zu Hohenlohe-Bartenstein, Vorsitzender des deutschen Landschaftsschutzverbandes.

Kann der Wind heutige konventionelle Kraftwerke ersetzen?

Rhetorik: “Die Windenergie ist eine der vielversprechendsten Techniken der Erneuerbaren, und es ist ein Gebiet, wo es schon viele Entwicklungen und Verbesserungen zur Effektivitäts-Erhöhung der Stromerzeugung gab“, sagt die Webseite der EU-Kommission über die Erneuerbaren.

Realität: Die englische Wind Energy Association musste zugeben, dass hinter den Windkraftanlagen zu 75 % fossile Kraftwerke als Sicherheitsreserve stehen müssen. Energieversorger in England wie E.ON, sprechen sogar von über 90% fossiler Reservekraftwerkskapazität. Ein Bericht des Englischen Oberhauses von 2009 geht von einer 100%igen Sicherheitsreserve aus.

Rhetorik: In seiner Ansprache zum “Earth Day” 2009 beklagte Präsident Obama, dass nur drei Prozent der U.S. Elektrizität aus Erneuerbaren stamme, hauptsächlich aus Windkraftanlagen – Dänemark lobte er als beispielhaft; das vielzitierte dänische Alternativenergie -„Wunder“.
Realität: Aase Madsen, Sprecher für Energiepolitik im Dänischen Parlament, nennt das dänische Windprogramm “eine furchtbar teure Katastrophe.” Das mit einer Untersuchung zum dänischen Stromexport 2009 beauftragte Politik-Studienzentrum (CEPOS) fand heraus, dass die dänischen Haushalte die höchsten Strompreise in Europa bezahlten (teilweise wegen der Subventionierung der Windkraft), dass 90 Prozent der neuen Arbeitsplätze aus den anderen Erwerbszweigen stammten und nur 10 Prozent an neuen Arbeitsplätzen geschaffen wurden. Und dass das Bruttosozialprodukt einen Verlust von US $270 Millionen wegen der Windkraftsubventionen hinnehmen musste.
Obendrein: “Windturbinen reduzieren die CO2-Emissionen nicht,” sagte Flemming Niseen, Entwicklungschef der Firma West Danish Generating, Elsam.

Rhetorik: Die englische Wind-Industrie und die Regierung haben unabhängig voneinander behauptet, dass es für die Windkraft “keine direkten Finanzhilfen” gäbe.
Realität: Wind und andere Erneuerbaren sind nahezu vollständig subventioniert, aber dies wird hinter einem komplexen  Regelungswerk von Einspeisetarifen, Direktsubventionen und Steuervergünstigungen “versteckt”. (Mehr dazu in einem folgenden Teil 3 dieser Serie). Die englische Regierung hat in einem Weißbuch zur Energie 2003 zugegeben, dass “jährlich £1 Milliarde bis 2010 an die Erzeuger von Erneuerbarer Energie fließen würde”. Sir Martin Holdgate, ehemaliger Vorsitzender der British Renewable Energy Advisory Group, fasste den Beitrag der Windfarmen wie folgt zusammen: “Das Problem mit den Windfarmen ist, dass sie einen großen räumlichen Fußabdruck für eine lächerlich kleine Strommenge hinterlassen. Man braucht 800 Windräder, um mit der Erzeugung eines einzigen Kohlekraftwerks gleichzuziehen.” Der Wissenschaftsautor Dr. Matt Ridley ist überzeugt, dass fossile Primärenergieträger, nicht die Erneuerbaren, weiterhin für Jahrzehnte unsere Hauptenergiequelle darstellen werden: “Wir müssten hundert mal so viele Windfarmen bauen, wie wir derzeit haben, um nur 10 Prozent unseres Energiebedarfs aus Wind decken zu können. Und wir würden bald nicht mehr wissen, wohin damit.”

So meinte der U.S.-Abgeordnete Peter Stark zum Bau von Windfarmen:” Das sind keine Windfarmen, das sind Steuergeldfarmen.“

Dr. Howard Hayden, Professor em. der Physik, University of Connecticut, rückte die völlige Abhängigkeit von Erneuerbaren ins rechte Licht:

“Mit der entsprechenden Subventionierung kann der Wind eine wertvolle Energiequelle werden. Und mit der entsprechenden Subventionierung könnte Benzin völlig kostenfrei sein, und 2-karätige Diamanten könnten in Cornflakes-Schachteln verteilt werden. Wie kommt es denn, dass der Wind schon seit 4.000 Jahren nur einen so geringen Anteil an der Energieversorgung hat? Könnte es nicht sein – ironisch gefragt  – dass die Antwort etwas mit der Physik und nicht mit Wirtschaft und Politik zu tun hat!“

Der international renommierte Energie- und Klimaexperte Dr. Richard Courtney stellte die Sache anschaulicher dar:

“Der Traum von einer neuen Zeit, in der die Welt von Windfarmen bewegt wird, bleibt ein Traum, weil die Gesetze der Physik so etwas in einer industrialisierten Welt nicht erlauben. Wenn die Windkraft wirtschaftlich wäre, wären die Öltanker Segelschiffe.”

Rhetorik: Trotz all dieser harten Fakten über das Versagen der Erneuerbaren Energien vor den Gesetzen der Physik und der Wirtschaft hat das UNO-IPCC seinen jüngsten Bericht  zur Lage der Entwicklung der Erneuerbaren Energien im Mai 2011 veröffentlicht. Schon in der Überschrift steht die IPCC-Behauptung:

“Bis zu 80 Prozent des Weltenergiebedarfs könnten von den Erneuerbaren gedeckt bis zur Mitte des Jahrhunderts gedeckt werden, wenn die richtigen Politik dahinter steht.”

Realität: Herzliche Willkommen auf dem Planeten UNIPCC. Mit der “richtigen Politik” könnten wir ja auch alle mal in Richard Bransons Virgin-Galaxis-Space-Shuttle mitfliegen. Dale Allen Pfeiffer, ein Autor über Photovoltaik, widerlegte mit mathematischen Rechnungen die solare Science Fiktion:

“Die U.S.A. würden 17 Prozent der gesamten Oberfläche der Erde benötigen, oder 59 Prozent der festen Oberfläche der Erde, um mit Sonnenenergie ihren täglichen Ölverbrauch zu ersetzen.”

Die vielleicht ultimative Ironie für die politischen Grünhöker ist, dass die gleichen energieintensiven Industrien, die sie für die hohen CO2-Emissionen verantwortlich machen, genau diejenigen sind, die von der massiven öffentlichen Großzügigkeit in Form von Subventionen für das „Saubermachen“ am meisten profitieren. Nach einem kürzlichen Bericht  planen General Electric und Total derzeit, sich am Rennen um solare Entwicklungsprojekte zu beteiligen. Politische Macht und die großen Ölkonzerne, eingeschlossen E.ON, RWE und Shell rufen nach “starker und rascher” Verminderung des CO2. Nicht zu vergessen ist auch das plötzliche „Ergrünen“ der globalen Investment Banker – genau derjenigen, die sich in London im Oktober 2008 trafen, um darüber zu sprechen, wie sie am besten Profit aus dem lukrativen CO2-Zertifikatehandel schlagen könnten.

Die Europäische Investitionsbank errechnete 2007 eine Betrag von 1,1 Tausend Milliarden Euro Kosten für 14 Jahre, um die Pläne zum Übergang auf die Erneuerbaren umzusetzen. Der gesamte EU-Haushalt damals betrug 100 Milliarden Euro. Als sie gefragt wurde, wer das bezahlen sollte, antwortete die damalige EU-Ratspräsidentin Angela Merkel in einem unbedachten Moment von Offenheit: „Um alles in der Welt, das kann ich Ihnen nicht sagen.“ Steuerzahler, hütet Euch vor Politikern, die nicht rechnen wollen!

Die vorausschauende Grabinschrift für die Erneuerbaren vom Umweltwissenschaftler Dr. John Etherington: „Geld für Diejenigen gedruckt, die es nicht verdienten, mit Billigung und Hilfe der Unbedarften“ mag ja rhetorisch sein, aber es ist doch wahr. Wie wir schon an anderer Stelle gesagt haben, „Wer nicht rechnen will, ist zum Dummschwätzen verurteilt“.

So ist es immer schon gewesen, im Leben, wie in der Politik.

von: Peter C Glover & Michael J. Economides 

Juni 2011

Der Originalartikel erschien am 3.6.11 in der Energy Tribune sie finden ihn hier

Die Übersetzung besorgte Helmut Jäger EIKE




Die Erde selbst sagt uns, dass nichts Besorgniserregendes bei einer Verdoppelung oder sogar Vervierfachung des atmosphärischen CO2-Gehaltes zu erwarten ist

Update 17.6.11

Einige Kommentatoren verwiesen auf die tlw. bösartige Kritik des Bloggers Tamino. Pat Frank hat sich dieser Kritk gestellt und ist detailliert und höflich darauf eingegangen. Ergebnis: Sie ist haltlos. Details dazu Siehe pdf Anhang

Zusammenfassung von Prof. C.O.. Weiss: Der Autor zeigt leitet aus den offiziellen globalen Erdtemperaturdaten erstmals direkt die Sensitivität des Klimas für steigende atmosphärische CO2-Konzentrationen ab. Er findet eine Erdtemperaturerhöhung von 0,45 Grad für Verdopplung des atmosphärischen CO2 Gehaltes, wie sie bis 2100 eintreten könnte. Damit ergibt sich ein konsistentes Bild der Erderwärmung durch CO2, die sich als durchaus harmlos erweist.

 Der Autor zeigt zunächst, dass sich die Erdtemperatur durch eine langsame zeitliche Zunahme, kombiniert mit einer Oszillation, sehr genau darstellen lässt. Er zeigt, dass die Oszillation auf bekannte ozeanische Oszillationen zurückzuführen ist. Zieht man diese ab, so verbleibt der Trend der langsamen Zunahme. Der Vergleich der Trendwerte für die Zeit ohne nennenswerte CO2 Emissionen mit denen nach 1960 (starke CO2 Emissionen) ergibt die Klimasensitivität für CO2 (plus der anderen Treibhausgase).

Gegenüber diesem Ergebnis sowie den  kürzlichen genauen Voraussagen ist der mittlere Wert, der „offiziell“ vom IPCC  angegeben wird, etwa 9 mal größer.

Man mag sich erinnern, dass die Voraussagen des IPCC bisher auf reinen Modellrechnungen beruhen, in denen sich die großen und angeblich gefährlichen Temperaturerhöhungen nur ergeben, da eine sehr starke positive Rückkopplung durch Wasserdampf WILLKÜRLICH ANGENOMMEN wird, die niemals durch Messungen belegt wurde.

Pat Frank

In meinem jüngsten Beitrag “New Science of Climate Change” auf Jeffs tAV war die Kosinusanpassung an Differenzen zwischen den verschiedenen Datensätzen der bodennahen globalen Temperaturanomalien (von GISS) faszinierend. Also beschloss ich, mal zu schauen, was uns die Kosinusfunktionen über die Trends der Temperaturanomalien selbst sagen können. Es stellte sich heraus, dass sie eine Menge enthüllen.

Regelmäßige Leser von tAV wissen), dass ich über die erstaunliche Vernachlässigung der Instrumentenfehler in den gegenwärtigen Aufzeichnungen der Lufttemperatur berichtet habe. Es scheint sicher zu sein, dass die Daten der Lufttemperatur an der Erdoberfläche so mit systematischen Fehlern verseucht sind – mindestens ± 0,5°C – dass die Anomalietrends der globalen Temperatur keinerlei klimatologische Bedeutung haben. Ich habe in dieser Richtung weiter gearbeitet und, obwohl die Analyse unvollständig ist, sieht es bis jetzt so aus, als ob systematische Instrumentenfehler noch schwerwiegender sind , als wir dachten. Aber das ist eine andere Geschichte.

Systematische Fehler sind lustige Dinge. Bei der Lufttemperatur ist er nicht notwendigerweise eine konstante Abweichung, sondern ein variabler Fehler. Das bedeutet, dass er nicht einfach das Mittel eines Datensatzes verschiebt, sondern dass er auch zu einer asymmetrischen Verteilung der Daten führt. Systematische Fehler dieser Art in einer Temperaturmessreihe können einen zeitlichen Trend verstärken oder abschwächen oder ihn auch in unvorhersagbarer Weise zwischen diesen beiden Polen hin- und her springen lassen. Da der systematische Fehler durch Auswirkungen des Wetters auf die Temperaturfühler verursacht wird, wird er fortwährend mit dem Wetter variieren. Die mittlere fehlerhafte Verschiebung wird für jeden Datensatz unterschiedlich sein, ebenso wie die Verteilung des systematischen Fehlers.

Für jetzt möchte ich jedoch all dies beiseite stellen und mit einer Analyse fortfahren, die die Betrachtung der Temperatur so akzeptiert, wie sie im Baseballstadion des IPCC zu finden ist. Das heißt, für diese Analyse nehme ich mal an, dass die Anomalietrends der offiziellen globalen mittleren Temperatur real und bedeutsam sind.

Ich verfüge über die jährlichen Datensätze der Temperaturanomalien von GISS und CRU bis 2010. Um die Analysen vergleichbar zu machen, benutzte ich die Startzeit von GISS im Jahr 1880. Abbildung 1 zeigt, was passiert, wenn ich  diese Daten mit einer Kombination von einer Kosinusfunktion und einem linearen Trend anpasse. Beide Datensätze lassen sich in dieser Weise gut anpassen.

Die nicht angepassten Reste sind unter diesen Plots dargestellt. Eine lineare Anpassung der Restkurve verläuft genau entlang der Nulllinie, etwa 1 zu 10^5.  Dies zeigt, dass beide Sätze der Anomaliedaten sehr gut durch eine kosinusartige Oszillation plus einem ansteigenden linearen Trend dargestellt werden. Die linearen Anteile dieser angepassten Trends sind: GISS 0,057°C pro Dekade und CRU 0,058°C pro Dekade.

Abbildung 1: Trends für die jährlichen Temperaturanomalien, und zwar zusammen mit einer Kombination aus einer Kosinusfunktion und einem linearen Trend. Darunter: die Restdaten (Daten minus fit). Die farbigen Linien entlang der Nullachse sind lineare Fits zu den betreffenden Restwerten.  Diese zeigen, dass die Restwerte keinem allgemeinen Trend folgen. Teil a: GISS, Teil b: CRU-Daten

Wenn man die Oszillationen aus den globalen Anomalietrends entfernt, sollten nur die linearen Anteile der Trends übrig bleiben. Wie sieht das aus? Abbildung 2 zeigt die in den Datensätzen von CRU und GISS verbleibenden linearen Trends nach Subtraktion des Kosinus. Die reinen Kosinusfunktionen stehen unter jedem Plot.

Jeder der Plots, der den linearisierten Trend zeigt, enthält auch zwei gerade Linien. Eine davon ist die  Kosinuslinie plus die linearen Fits aus Abbildung 1. Die andere gerade Linie ist eine lineare Anpassung mittels Minimierung der Abweichungsquarate an die linearisierten Trends. Die linearen Fits haben Trends von: 0,058°C/Dekade bei GISS, 0,058°C/Dekade bei CRU, was auch  identisch sein kann mit der Steigung der Linien in Abbildung 1.

Die Abbildungen 1 und 2 zeigen, dass mit einem hohen Grad an Sicherheit und unabhängig von der Temperaturvariabilität von Jahr zu Jahr der gesamte Trend der globalen Lufttemperatur seit 1880 durch einen linearen Trend plus einer Oszillation erklärt werden kann.

Abbildung 3 zeigt, dass der GISS-Kosinus und der CRU-Kosinus sehr ähnlich sind – wahrscheinlich identisch, wenn man die Qualität der Daten berücksichtigt. Sie zeigen eine Periode von etwa 60 Jahren und eine Amplitude von etwa ±0,1°C. Diese Oszillationen sind ganz klar verantwortlich für die blockierenden, ins Auge fallenden Änderungen der Steigung in den Anomalietrends nach 1915 und nach 1975.

Abbildung 2: oben: Der lineare Anteil der Anomalietrends der jährlichen Mitteltemperatur, sich ergebend aus der Subtraktion der angepassten Kosinusfunktionen vom Gesamttrend. Die zwei geraden Linien in jedem Plot sind: OLS-Fits an die linearen Trends und die linearen Anteile aus Abbildung 1. Die beiden Linien liegen decken sich. Unten: die voneinander subtrahierten Kosinusfunktionen.

Die Datensätze der Lufttemperatur enthalten die Temperatur auf dem Land plus die SSTs [Obeflächentemperatur der Ozeane]. Es erscheint vernünftig, dass die von den Kosinusfunktionen repräsentierten Oszillationen von einem Erwärmungs-Abkühlungszyklus der Ozeane der Welt stammen.

Abbildung 3: Vergleich der angepassten Kosinusfunktionen von GISS und CRU.

Die größeren ozeanischen Zyklen schließen die PDO, die AMO und die Oszillation des Indischen Ozeans ein. Joe D’Aleo hat diese anschaulich zusammengefasst hier (pdf-Download).

Die Kombination aus PDO und AMO ist grob eine  Oszillation mit einer Periode von etwa 55 Jahren, mit einem Maximum im 20. Jahrhundert um 1937 und einem Minimum um 1972 (Abbildung 11 bei D’Aleo). Die Kombination der Ozeanzyklen scheint nahe einem weiteren Maximum um 2002 gewesen zu sein, (obwohl sich die PDO nach Süden  bewegt hat).  Periode und Phase von PDO + AMO entsprechen sehr gut  den angepassten Kosinusfunktionen von GISS und CRU, und so scheint es, als hätten wir einen Temperaturfußabdruck der Ozeane in den Datensätzen der Temperaturanomalien gefunden.

In dem Beitrag in „New Science” sahen wir das Auftauchen einer schwachen Oszillation in den GISS-Daten der Anomaliedifferenzen nach 1999 nach Hinzufügen der SSTs. Vor und bis 1999 enthielten diese Daten nur die Temperaturwerte des Festlands.

Also untersuchte ich die Temperaturanomaliedaten von GISS 1999, um zu sehen, ob sie ebenfalls durch eine kosinusartige Oszillation plus einem linearen Trend repräsentiert werden konnten. Und sie konnten! Die Oszillation hatte eine Periode von 63 Jahren und eine Amplitude von ±0,1°C/. Der lineare Trend betrug 0,047°C/Dekade; also so ziemlich die gleiche Oszillation, aber mit einem geringeren Erwärmungstrend von 0,1°C/Dekade. Es sieht also so aus, als stünde die thermische Oszillation der Ozeane mit der globalen Temperatur an Land in einem Zusammenhang.

Aber das ist nicht die Analyse, die mich interessierte. Abbildung 2 scheint zu zeigen, dass der gesamte Zeitraum von 130 Jahren zwischen 1880 und 2010 einen stetigen Erwärmungstrend von etwa 0,058°C/Dekade aufweist. Dies erklärt offenbar den fast unaufhaltsam-stetigen [almost rock-steady] Anstieg des Meeresspiegels im 20. Jahrhundert.

Das Argument ist immer  gewesen, dass das Klima der ersten 40 bis 50 Jahre des 20. Jahrhundert nicht durch anthropogene Treibhausgase beeinflusst worden war. Nach 1960 oder so ungefähr, mit Sicherheit aber nach 1975, kam der Treibhausgaseffekt ins Spiel, und der Erwärmungstrend der globalen Lufttemperatur begann einen menschlichen Einfluss zu zeigen. So lautet die gängige Geschichte.

Ist diese Behauptung nicht widerlegt, wenn sich das späte 20.Jahrhundert mit der gleichen Rate erwärmt hat wie das frühe 20. Jahrhundert? Dies scheint die Aussage der Abbildung 2 zu sein.

Aber die Analyse kann noch weiter ausgeführt werden. Die frühen und späten Trends der Temperaturanomalie können separat abgeschätzt und dann verglichen werden. Das ist in Abbildung 4 dargestellt, erneut unter Verwendung der Datensätze von CRU und GISS. In  jedem Datensatz habe ich die Anomalien von 1880 bis 1940 und von 1960 bis 2010 angepasst. In dem Beitrag in  New Science of Climate Change habe ich gezeigt, dass diese linearen Anpassungen erheblich durch die Wahl des Startpunktes verzerrt werden können. Das Anomalieprofil von 1960 ist ähnlich dem Profil 1880, und folglich weisen diese beiden Startpunkte keine offensichtliche fehlerhafte Verschiebung auf.  Visuell scheint die Steigung der Anomalietemperatur nach 1960 ziemlich gleichmäßig zu verlaufen, vor allem im Datensatz von GISS.

Abbildung 4 zeigt die Ergebnisse dieser getrennten Anpassungen, die den linearen Erwärmungstrend zu Anfang und gegen Ende der letzten 130 Jahre ergeben.

Abbildung 4: Die aus Abbildung 2 linearisierten Trends der Anomalien nach GISS und CRU mit den separaten OLS-Anpassungen für die Zeiträume von 1880 bis 1940 und 1960 bis 2010.

Die Ergebnisse der Anpassungen der frühen und späten Anomalietrends zeigt Tabelle 1.

Tabelle 1: Zehnjährige Erwärmungsraten für die frühe und die späte Periode

Datensatz

C/d (1880-1940)

C/d (1960-2010)

(spät minus früh)

GISS

0.056

0.087

0.031

CRU

0.044

0.073

0.029

 „C/d” ist die Steigung der angepassten Linien in Grad Celsius pro Dekade.

Also, da haben wir es! Beide Datensätze zeigen, dass es sich in der späten Periode schneller erwärmte als in der früheren Periode. Obwohl die Raten zwischen GISS und CRU um 12% differieren, sind die Änderungen (Spalte 3) identisch.

Wenn wir das IPCC/AGW global warming – Denkmodell akzeptieren und die "klimatologische Sauberkeit" des frühen 20. Jahrhunderts voraussetzen, beträgt die mittlere Rate der Temperaturerholung aus der kleinen Eiszeit (LIA) etwa 0,05°C pro Dekade. Um hier weiterzukommen, müssen wir annehmen, dass diese natürliche Rate von 0,05°C/Dekade unverändert für die gesamten 130 Jahre bis 2010 geblieben ist.

Wenn wir das annehmen, dann ist die Zunahme der Steigung um 0,03°C/Dekade nach 1960 auf die schädlichen Einflüsse der unnatürlichen und unsauberen anthropogenen Treibhausgase zurückzuführen.

Wenn wir all dem zustimmen, haben wir jetzt ein Werkzeug zur Hand, um die  klimatologisch am schwersten fassbare Größe zu betrachten: die „Klimasensitivität“ der Treibhausgase.

Ich habe immer noch all die Daten für die atmosphärischen Antriebe für CO2, Methan und Stickoxide, die ich für meinen Beitrag http://www.skeptic.com/reading_room/a-climate-of-belief/ berechnet habe [auf Deutsch bei EIKE hier]. Zusammen bilden diese den Löwenanteil des neuen Antriebs durch Treibhausgase seit 1880. Die gesamten Chlorfluorkohlenwasserstoffe bringen einen Beitrag von weiteren 10% oder so, aber das ist kein großer Einfluss, so dass diese ignoriert werden können.

Alles, was wir jetzt noch tun müssen ist, den progressiven Trend des jüngsten Antriebs durch die Treibhausgase gegen den unheilvollen offensichtlichen anthropogenen Trend von 0,03°C/Dekade aufzutragen, alles im Zeitraum von 1960 bis 2010, und die Steigung zeigt uns die Klimasensitivität in ° C/(W-m^-2). Diesen Plot zeigt Abbildung 5.

Abbildung 5: Blaue Linie: die „überschüssige“ Erwärmung von 1960 bis 2010 um 0,03°C/Dekade, aufgetragen gegen den Antriebstrend der Treibhausgase durch die  zunehmenden Anteile von CO2, CH4 und N2O. Rote Linie: die linearen OLS-Anpassungen zur Antriebs-Temperaturkurve (r^2=0.991). Eingefügt: die gleichen Linien bis zum Jahr 2010 extrapoliert.

Da gibt es eine Überraschung: Die Trendlinie ist gekrümmt. Mehr dazu später. Die rote Linie in Abbildung 5 ist eine lineare Anpassung an die blaue Linie. Sie ergibt eine Steigung von 0.090 C/W-m^-2.

Also, hier haben wir es: jedes Watt pro Quadratmeter durch zusätzliche Treibhausgase hat die globale mittlere Temperatur während der letzten 50 Jahre um 0,09°C zunehmen lassen.

Verkünden Sie dies: Die Klimasensitivität der Erde beträgt 0.090 C/W-m^-2!

Das IPCC sagt, dass der verstärkte Antrieb durch den verdoppelten CO2-Gehalt**, das Flaggschiff des Klimaalarms, bei etwa 3.8 W/m^2 liegt. Die daraus folgende Zunahme der globalen mittleren Temperatur wird im Mittel mit 3 Grad Celsius angegeben. Also sagt das IPCC offiziell, dass die Klimasensitivität der Erde bei 0.79 C/W-m^-2 liegt. Das ist 8,8 mal größer als der Wert, den uns die Messungen der Temperatur der Erde sagen.

Unsere aus Messungen gewonnene Sensitivität sagt, dass die Verdoppelung des CO2**  zu einem mittleren Temperaturanstieg von 0,34°C zusätzlich zu jeder natürlichen Zunahme führt. Dieser Wert ist 4,4 bis 13 mal kleiner als die vom IPCC allein auf Grund theoretischer Annahmen, von verschiedenen Modellen vorausgesagte projizierte  Spannbreite.

Der gesamte Antrieb durch Verdoppelung des CO2** plus projizierte Zunahmen von atmosphärischem Methan und Stickoxid beträgt 5 W/m^2. Nach unseren Ergebnissen wird dies zu einer mittleren Temperaturzunahme von 0,45°C führen. Dies ist in etwa der Temperaturanstieg, wie wir ihn seit 1980 sehen. Finden Sie das wirklich beängstigend?

Aber zurück zu der negativen Krümmung des Plots der Sensitivität. Es wird allgemein angenommen, dass die Änderung der Lufttemperatur mit dem Antrieb linear ist. Aber hier sehen wir, dass die Änderung der Temperatur durch den Antrieb seit 50 Jahren negativ gekrümmt worden ist. Etwas passiert hier.

Nach Ansicht der AGW Verfechter müssen die Daten falsch (oder „nicht zuverlässig“) sein, denn nur ihre Modelle können recht haben!

Aber nach meiner eigenen wissenschaftlichen Gewohnheit (und der Gewohnheit von jedem, den ich kenne) sind die Daten die Grundlage der Theorie und nicht umgekehrt. Kevin [Trenberth], Michael [Mann] und Gavin [Schmidt] können mich dafür kritisieren, weil Klimatologie anders und einheitlich und Ravetzian ist, aber ich richte mich in jedem Falle nach den grundlegenden Standards der Wissenschaft.

Also, was bedeutet die negative Krümmung? Falls sie wirklich existiert, heißt das. Sie bedeutet, dass die Sensitivität des Klimas auf den Antrieb durch Treibhausgase abgenommen hat, und zwar während der ganzen Zeit, in der der Antrieb durch die Treibhausgase selbst zugenommen hat.

Wenn ich es nicht besser wüsste, würde ich sagen, dass es im Klimasystem irgend etwas gibt, das sich an den Antrieb durch Treibhausgase anpasst. Es führt ein zunehmend negatives Feedback ein. Der Einfluss wird also als Funktion der CO2-Konzentration kleiner*. Es liegt also eine Abweichung vom linearen Modell vor. Woher diese Abweichung kommt, bleibt offen.

Mit anderen Worten, das Klima zeigt Stabilität trotz Störungseinflüssen. Da die Störungseinflüsse zunehmen, nimmt auch die negative Kompensation durch das Klima zu.

Nehmen wir an, die letzten 50 Jahre deuten darauf hin, wie das Klimasystem auf die nächsten 100 Jahre zunehmenden Antriebs durch Treibhausgase reagiert.

Der Einschub in Abbildung 5 zeigt, wie das Klima auf einen stetig zunehmenden Antrieb durch Treibhausgase bis zum Jahr 2100 antwortet. Das ergibt sich aus einer Vervierfachung des atmosphärischen CO2-Gehaltes.

Die rote Linie zeigt die projizierte Temperaturzunahme, falls das linear angepasste Modell mit 0,03°C/Dekade zutrifft. Alternativ zeigt die blaue Linie, wie die globale Lufttemperatur darauf reagieren könnte, falls der empirisch negative Feedback stimmt.

Wenn das Klima weiter so reagiert, wie es das bis jetzt getan hat, wird die Temperaturzunahme bis zum Jahr 2100 ganze 50% geringer ausfallen, als wenn das lineare Antwortmodell richtig wäre. Und das lineare Antwortmodell erzeugt eine viel kleinere Temperaturzunahme als das IPCC-Klimamodell, umm, Modell.

Semi-empirisches lineares Modell: 0,84°C wärmer bis zum Jahr 2100.

Voll empirisches Modell mit negativem Feedback: 0,42°C wärmer bis 2100.

Und das mit einem zusätzlichen Antrieb durch Treibhausgase in Höhe von 10 W/m^2 und einem atmosphärischen CO2-Gehalt von 1274 ppmv. Zum Vergleich: das IPCC-A2-Modell hat im Jahr 2100 einen atmosphärischen CO2-Gehalt von 1250 ppmv und eine Zunahme der globalen Mitteltemperatur um 3,6°C simuliert. 

Also fügen wir hinzu: Offizielles IPCC-A2-Modell: 3,6°C wärmer im Jahr 2100.

Das semi-empirische Modell allein, empirisch durch 50 Jahre aktueller Daten belegt, sagt, dass die Temperatur nur um 0,23 K des IPCC-A2-Modells von 3,6°C zugenommen hat.

Und falls wir das empirische negative Feedback, das uns die Erde zeigt, berücksichtigen, wird die Temperaturzunahme bis 2100 nur 0,12 der IPCC-Projektion betragen.

Also liegt hier eine nette Lektion für das IPCC und die AGW-Modellierer über GCM-Projektionen vor: Ihnen widersprechen die Daten der Erde selbst. Damit nicht genug, die Erde hat der gleichen Crew schon einmal widersprochen.

Ist das nun alles physikalisch real? Lassen Sie es mich so ausdrücken: Alles das ist begründet durch echte Temperaturdaten. Zumindest dieses macht diese Analyse physikalisch viel realer als jede Rekonstruktion der Paläotemperaturen, die Baumringen oder  anderen Komponenten eine Temperatur zuordnet.

Da jedoch den globalen Temperaturwerten systematische Fehler in unbekannter Größe anhaften, wissen wir nicht, ob irgendetwas hiervon physikalisch real ist.

Aber wir können dieses jedem sagen, der den Aufzeichnungen der globalen mittleren Temperatur physische Realität beimisst, oder jedem, der darauf besteht, dass die Aufzeichnung der Anomalien klimatologisch bedeutsam ist: Die Bodentemperatur selbst sagt, dass das Klima der Erde nur eine sehr geringe Sensitivität für Treibhausgase aufweist.

Die grundlegende Hypothese für diese Analyse, nämlich dass das Klima im frühen 20. Jahrhundert frei von menschlichen Einflüssen war, ist in der AGW-Literatur Allgemeingut. Die zweite Hypothese, dass der natürliche hintergründige Erwärmungstrend sich während der zweiten Hälfte der letzten 130 Jahre fortsetzte, ist ebenfalls sinnvoll unter der Voraussetzung der typischen Ansichten über eine konstante natürliche Variabilität. Der Rest dieser Analyse folgt daraus automatisch.

Im Zusammenhang mit dem ureigenen Ballpark des IPCC sagt uns die Erde selbst, dass wir bei einer Verdoppelung**, ja selbst bei einer Vervierfachung** des atmosphärischen CO2-Gehaltes nichts zu befürchten haben.

Übersetzt von Chris Frey für EIKE unter Mithilfe von Prof. Carl Otto Weiss (ehem. Direktor der Physikalisch-technischen Bundesanstalt Hannover)

Pat Frank

Den Originalbeitrag finden Sie hier

Update 9.6.11:

Der bekannte Klimaforscher Sherwood Idso veröffentlichte schon 1998 unter dem Titel "CO2-induced global warming: a skeptic’s view of potential climate change" ein Papier, dass zu ähnlichen Ergebnissen kommt. Sie finden es als pdf im Anahng

 

*Kommentar von C.O. Weiss:

Das Ergebnis von Pat Frank  entspricht genau (!) der Berechnung von Harde (hier) und Lord Monckton. Diese Übereinstimmung ist für sich schon ein sehr wichtiges Ergebnis.

** Hinweis der Redaktion

Es wird im Text mehrfach auf die Verdopplung der CO2 Konzentration als Basis für die Kiimasensitivität CS abgestellt. Wie Prof. Werner Weber (Uni Dortmund) jüngst in seinem Vortrag bei dem EIKE undefinedPIK Kolloqium aufzeigte kann sich die Konzentration von CO2 aufgrund von physikochemischen Gleichgewichtsprozessen bei sonst gleichen Umständen nur auf ca. max 500 ppm erhöhen.

Update 17.6.11

Einige Kommentatoren verwiesen auf die tlw. bösartige Kritik des Bloggers Tamino. Pat Frank hat sich dieser Kritk gestellt und ist detailliert und höflich darauf eingegangen. Ergebnis: Sie ist haltlos. Details dazu Siehe pdf Anhang

Related Files




Die Wahrheit über die Treibhausgase: Die dubiose Wissenschaft der Klimakreuzfahrer

Ich bin ein starker Befürworter einer sauberen Umwelt. Wir müssen aufpassen, dass wir Land, Luft und Gewässer frei von echten Verschmutzungen halten, von Schwebstoffen, Schwermetallen und Krankheitserregern, aber Kohlendioxid gehört nicht zu diesen Verschmutzern. Kohlenstoff ist die Basis des Lebens. Unsere Körper bestehen aus Kohlenstoff. Ein normaler Mensch atmet rund 1 kg CO2 aus (das einfachste chemisch stabile Molekül von Kohlenstoff in der Erdatmosphäre) pro Tag. Vor der industriellen Periode lag die Konzentration von CO2 in der Atmosphäre bei 270 ppm. Gegenwärtig beträgt diese Konzentration etwa 390 ppm, 0,039 Prozent aller atmosphärischen Moleküle und weniger als 1 Prozent in unserem Atem. Es gibt geologische Beweise , dass vor fünfzig Millionen Jahren, einem kurzen Moment in der langen Geschichte des Lebens auf der Erde, das CO2-Niveau bei mehreren Tausend ppm gelegen hatte, also viel höher als heute. Und das Leben blühte in Hülle und Fülle.

Jetzt möchte die Environmental Protection Agency EPA [die us-amerikanische Umweltbehörde] das atmosphärische CO2 als “Verschmutzer” behandeln. Nach meinem neuen Lexikon Webster’s New Collegiate Dictionary heisst verschmutzen “unsauber machen, besudeln, entweihen“. Verschmutzen wir die Luft durch unser Atmen, besudeln oder entweihen wir sie? Es werden Anstrengungen unternommen, die altmodische, restriktive Definition von Verschmutzung neu zu fassen. Der jüngste Eintrag bei Wikipedia zum Stichwort Verschmutzung stellt jetzt fest, dass Verschmutzung beinhaltet: „Kohlendioxid (CO2) – ein farb- und geruchsloses, ungiftiges Treibhausgas, das mir der Versauerung der Ozeane in Verbindung gebracht wird, und das von Quellen wie Verbrennung, Zementherstellung und Atmung stammt“.

Soweit es Grünpflanzen betrifft, ist CO2 kein Verschmutzer, sondern Teil ihres täglichen Brotes – genauso wie Wasser, Sonnenlicht Stickstoff und andere essentiell notwendigen Elemente. Die meisten Pflanzen entwickelten sich unter einem CO2-Niveau von vielen Tausend ppm, einem viel höheren Niveau als heute. Bei einem höheren CO2-Niveau wachsen die Pflanzen besser, blühen stärker und tragen viel mehr Früchte. Kommerzielle Treibhausbetreiber tragen diesem Umstand Rechnung, wenn sie die CO2-Konzentrationen in ihren Treibhäusern künstlich erhöhen, und zwar auf über 1000 ppm.

Wallis Simpson, die Frau, deretwegen König Edward VIII auf den Britischen Thron verzichtet hatte, soll gesagt haben: „Eine Frau kann nicht zu reich oder zu dünn sein“. Aber in Wirklichkeit kann man des Guten zu viel oder zu wenig haben. Ob wir über das zunehmende CO2-Niveau froh oder besorgt sein sollten, hängt von quantitativen Zahlen, nicht von qualitativen Überlegungen ab.

Wie nah liegt die Atmosphäre gegenwärtig an der höchsten oder tiefsten Grenze für den Gehalt an CO2? Hatten wir gerade beim vorindustriellen Niveau von 270 ppm die richtige Konzentration? Beim Lesen atemloser Medienberichte über die „Verschmutzung“ mit CO2 und darüber, unseren Kohlenstoff-Fußabdruck zu minimieren, könnte man denken, dass die Erde gar nicht wenig genug CO2 haben kann, so wie Simpson dachte, dass man nicht zu dünn sein könne – eine Sichtweise, die auch übertrieben worden ist und die wir an den schlimmen Auswirkungen von Magersucht bei so vielen jungen Frauen gesehen haben. Verschiedene Methoden des Geo-Engeneering werden erörtert, um das CO2 aus der Luft zu entfernen und die Atmosphäre von diesem „Verschmutzer“ zu reinigen. Es gibt keine Untergrenze für die Anzahl der Menschen, wohl aber für das menschliche Leben. Wir würden uns in einer Welt mit wenig oder gar keinem CO2 bester Gesundheit erfreuen – außer dass wir nichts zu essen und zu trinken haben und unter einigen anderen kleinen Unbequemlichkeiten leiden würden, weil die meisten Pflanzen bei einem CO2-Niveau unter 150 ppm ihr Wachstum einstellen. Wenn wir weiterhin durch die Produkte grüner Pflanzen gefüttert und bekleidet werden wollen, kann es ein zu niedriges Niveau von CO2 geben.

Das Minimum von CO2 für das Pflanzenwachstum liegt nicht viel unter dem vorindustriellen Niveau von 270 ppm. Es ist möglich, dass wir mit unserem heutigen Niveau besser dran sind, und dass wir mit einem noch höheren Gehalt noch besser dran wären. Es gibt Beweise, dass die Orangenhaine in Kalifornien heute einen um 30% höheren Ertrag liefern, verglichen mit dem Ertrag vor 150 Jahren, nur wegen der Zunahme des CO2-Gehaltes.

Obwohl es Menschen und Tieren auch ganz ohne CO2 in der Luft sehr gut gehen würde, gibt es ein oberes Limit, das wir noch aushalten können. Das Einatmen von Luft mit einer Konzentration von wenigen Prozent, ähnlich der Luft, die wir ausatmen, verhindert den diffusen Austausch von CO2 zwischen Blut und Gas in der Lunge.  Sowohl die Navy der USA (für Besatzungen von U-Booten) als auch die NASA (für Astronauten) haben extensive Studien zur menschlichen Toleranz von CO2 durchgeführt. Als Ergebnis dieser Studien verlangt die Navy ein oberes Limit von 8000 ppm für Kreuzfahrten von neunzig Tagen, die NASA ein solches von 5000 ppm für Missionen von eintausend Tagen, beides unter einem Druck von einer Atmosphäre. Höhere Limits lassen sich nur auf Missionen von wenigen Tagen aushalten.

Wir schließen daraus, dass das CO2-Niveau über 150 ppm, um Schäden an den Pflanzen zu vermeiden, und unter etwa 5000 ppm liegen sollte, um Schäden für die Menschen zu vermeiden. Das ist eine sehr große Spannbreite, und in unserer Atmosphäre liegen wir viel dichter am unteren als am oberen Limit. Die gegenwärtige Rate der Verbrennung fossiler Treibstoffe fügt pro Jahr etwa 2 ppm hinzu, so dass es vom gegenwärtigen Level 300 Jahre dauern würde, um 1000 ppm zu erreichen – und diese 1000 ppm liegen immer noch unter dem, was die Pflanzen bevorzugen würden, und immer noch weit unter den Levels von Navy und NASA in Bezug auf die Menschen.

Und doch gibt es die schrillen Schreie, den weiteren Anstieg des CO2-Gehaltes in der Atmosphäre zu unterbinden und das gegenwärtige Level zu reduzieren. Wie wir gesehen haben, würde kein Tier eine Verdoppelung des CO2-Gehaltes bemerken, und die Pflanzen würden es lieben. Der vermeintliche Grund, das CO2 zu limitieren, besteht darin, die globale Erwärmung zu stoppen – oder, da die vorhergesagte Erwärmung nicht einmal annähernd das von den Computermodellen simulierte Niveau erreicht hat, die Klimaänderung zu stoppen. Die Klimaänderung selbst verlief bisher vollkommen ereignislos, und darum wird jetzt ein anderer Knüppel aus dem Sack geholt, warum das CO2 reduziert werden muss: um die hypothetische Zunahme extremer Wetterereignisse wie Hurrikane oder Tornados zu verhindern. Aber dies geschieht nicht zwangsläufig. Die Häufigkeit extremer Vorgänge hat sich entweder nicht verändert oder während der letzten 150 Jahre abgenommen, als das CO2-Niveau sich von 270 auf 390 ppm erhöht hat.

Lassen Sie mich jetzt ein paar Probleme ansprechen, die der Nichtverschmutzer CO2 angeblich verursachen soll. Mehr CO2 soll zu Überflutungen von Städten, ausgedörrten Kulturlandschaften, tropischen Krankheiten in Alaska usw., ja selbst zu einer Epidemie von Nierensteinen führen. Es führt tatsächlich zu einer gewissen Erwärmung unseres Planeten, und wir sollten dafür sehr dankbar sein, denn ohne die erwärmende Wirkung von CO2 und seinen noch potenteren Partnern, Wasserdampf und Wolken, würde es auf der Erde viel zu kalt für die gegenwärtige Vielfalt des Lebens sein.

Außerdem heißt es, dass mehr CO2 mehr Erwärmung bringen soll. Die Frage ist, wie viel Erwärmung, und ob der höhere CO2-Gehalt und die damit verbundene Erwärmung gut oder schlecht für den Planeten ist.

Die Auseinandersetzung fängt etwa so an. Das CO2-Niveau hat sich von etwa 280 ppm während der letzten 150 Jahre oder so auf 390 ppm erhöht, und auf der Erde ist es etwa 0,8°C in dieser Zeit wärmer geworden. Also hat das CO2 diese Erwärmung verursacht. Aber Korrelation bedeutet nicht Kausalität. Hähne krähen jeden Morgen bei Sonnenaufgang, aber das bedeutet nicht, dass der Hahn die Sonne zum Aufgehen bringt. Die Sonne wird auch dann noch aufgehen, wenn Sie beschließen, den Hahn am Sonntag zum Mittag zu verspeisen.

Es gab in der Vergangenheit viele Erwärmungen und Abkühlungen ohne jede Änderung des CO2-Gehaltes. Ein sehr bekanntes Beispiel ist die Warmperiode des Mittelalters um das Jahr 1000, als die Wikinger Grönland besiedelten (als es grün war) und England Wein exportierte. Dieser Warmperiode folgte die „kleine Eiszeit“, während der die Themse häufig im Winter zugefroren war. Es gibt keinen Beweis für eine signifikante Zunahme des CO2-Gehaltes während der mittelalterlichen Warmzeit, noch für eine signifikante Abnahme während der nachfolgenden kleinen Eiszeit. Dokumentierte Hungersnöte mit Millionen Toten traten während der kleinen Eiszeit auf, weil das kalte Wetter die Ernte vernichtet hatte. Seit dem Ende der kleinen Eiszeit hat sich die Erde wieder erwärmt, und die menschliche Lebensqualität hat sich in der Folge wieder verbessert.

Ein seltener Fall guter Korrelation zwischen dem CO2-Gehalt und der Temperatur findet sich in Eisbohrkernen, in denen sich Zyklen glazialer und interglazialer Perioden seit Millionen von Jahren oder so spiegeln. Aber diese Aufzeichnungen belegen, dass eine Temperaturänderung den Änderungen des CO2-Gehaltes voraus gegangen war, so dass diese Änderungen eine Folge von Änderungen der Temperatur waren. Ursache hierfür war möglicherweise die Entgasung aus den sich erwärmenden Ozeanen und umgekehrt, wenn es sich wieder abkühlte.

Die jüngsten kontinentalen Eisschilde begannen vor rund zwanzigtausend Jahren zu schmelzen. Während des „Younger Dryas“ vor etwa 12 000 Jahren kühlte sich die Erde erst dramatisch ab und erwärmte sich anschließend wieder, mit einer Rate bis zu 10°C innerhalb von fünfzig Jahren.

Das Klima der Erde hat sich immer verändert. Die gegenwärtige globale Erwärmung ist überhaupt nicht ungewöhnlich vor dem Hintergrund der geologischen Vergangenheit, und möglicherweise profitiert die Biosphäre davon. Tatsächlich gibt es nur eine sehr schwache Korrelation zwischen dem geschätzten CO2-Gehalt und der Temperatur während der letzten 550 Millionen Jahre (dem „Phänozoikum“). Es müssen viele Faktoren zusammenkommen, um den Temperaturverlauf der Erdatmosphäre zu beeinflussen, und während das CO2 eines dieser Faktoren ist, so ist es nur selten der dominante Faktor.  Die anderen Faktoren sind noch nicht so gut verstanden. Plausible Kandidaten hierfür sind spontane Variationen des komplizierten Geflechtes der Strömungen in der Luft und in den Ozeanen – vielleicht beeinflusst durch die Kontinentaldrift, Vulkane, Variationen der Orbitalparameter, Einflüsse von Asteroiden und Kometen, Variationen der Solarstrahlung (nicht nur die sichtbare Strahlung, sondern auch die Menge ultravioletten Lichtes sowie der Sonnenwind mit seinem Magnetfeld), Variationen der kosmischen Strahlung mit Veränderungen der Wolkenbedeckung und andere Gründe.

Die Existenz der kleinen Eiszeit und der mittelalterlichen Warmzeit waren für das Establishment der globalen Erwärmung ein Ärgernis, weil sie zeigen, dass die gegenwärtige Erwärmung von früheren Erwärmungen und Abkühlungen, die nichts mit dem Verbrennen fossiler Treibstoffe zu tun haben, gar nicht zu unterscheiden ist. Die mit der wissenschaftlichen Unterstützung für den Klimakreuzzug beauftragte Organisation, das IPCC, fand schließlich eine Lösung. Sie schrieben kurzerhand die Klimageschichte der letzten 1000 Jahre einfach um und produzierten den gefeierten „Hockeyschläger“.

Im ersten Bericht des IPCC, veröffentlicht im Jahr 1990, tauchten sowohl die mittelalterliche Warmzeit als auch die kleine Eiszeit klar auf.  Im Bericht aus dem Jahr 2001 erschien dann eine Graphik mit dem angeblichen Verlauf der globalen Mitteltemperatur seit dem Jahr 1000. Eine noch extremere Version des Hockeyschlägers brachte es bis auf die Titelseite des Fünfzigsten Jahresberichtes der Weltorganisation für Meteorologie (WMO). Überraschend für jeden, die von den starken und eindeutigen Beweisen für die kleine Eiszeit und das mittelalterliche Klimaoptimum hatten, zeigte der Graph eine nahezu konstante Temperatur vom Jahr 1000 bis zu einem Zeitpunkt vor etwa 150 Jahren. Danach hatte die Temperatur begonnen, abrupt zu steigen gemäß der Form eines Hockeyschlägers. Dazu wurde behauptet, Ursache hierfür sei der anthropogene „Verschmutzer“ CO2.

Diese Ansammlung (damnatia memoriae) unbequemer Fakten wurde aus dem IPCC-Bericht des Jahres 2001 kurzerhand einfach eliminiert, genauso wie Trotzki und Yezhov aus Bildern mit Stalin heraus retuschiert worden waren während der späteren Jahre der Herrschaft des Diktators. Es gab keine Erklärung dafür, warum sowohl die mittelalterliche Warmzeit als auch die kleine Eiszeit, die im Bericht von 1990 noch klar ersichtlich waren, elf Jahre später einfach verschwunden waren.

Das IPCC und seine gläubigen Unterstützer taten ihr Bestes, um die Temperaturkurve des Hockeyschlägers zu fördern. Aber wie John Adams bemerkte: „Fakten sind blöde Dinge! Was immer unsere Wünsche, unsere Neigungen oder die Vorgaben unserer Leidenschaften sein mögen, sie können den Status von Tatsachen und Beweisen nicht verändern!“ Der Hockeyschläger erregte die Aufmerksamkeit von zwei Kanadiern, Steve McIntyre, ein Minenberater, und ein akademischer Statistiker, Ross McKittrick. Als sie begannen, sich sorgfältiger mit den Originaldaten zu befassen – viele davon aus Baumringen – und mit der Analyse, die zum Hockeyschläger führten, wunderten sie sich immer mehr. Durch harte, bemerkenswert detaillierte und ununterbrochene Arbeit mehrere Jahre lang, beständig frustriert, Originaldaten und Analysemethoden zu bekommen, zeigten sie, dass der Hockeyschläger von den beobachteten Daten nicht gestützt wurde. Eine ausgezeichnete Beschreibung hierzu vor kurzem ist A. W. Montforts Buch The Hockey Stick Illusion.

Um die Zeit der Klimakonferenz in Kopenhagen im Herbst 2009 kam es zu einem anderen, für das Establishment der globalen Erwärmung katastrophalen Ereignis. Von einem russischen Server tauchte eine große Zahl von e-mails und anderer Dateien von den Computern der Climate Research Unit (CRU) der University of East Anglia im Internet auf. Darunter befanden sich e-mails zwischen Mitgliedern der Machtstruktur des Klimakreuzzuges, genannt „das Team“. Diese Dateien waren, oder sollten es zumindest sein, sehr ärgerlich für ihre Absender und die Empfänger. Ein Hauptwissenschaftler der CRU schrieb beispielsweise:  „P.s., ich werde von ein paar Leuten bedrängt, die Temperaturdaten der CRU freizugeben. Keiner von euch drei soll irgendjemandem erzählen, dass es in UK einen „Freedom of Information Act“ FOIA [etwa: ein Gesetz, dass die Veröffentlichung wissenschaftlicher Daten vorschreibt] hat!“

Ein traditioneller Weg zur wissenschaftlichen Integrität ist die wissenschaftliche Begutachtung, eine anonyme Prüfung einer wissenschaftlichen Studie durch qualifizierte, miteinander in Wettbewerb stehende Wissenschaftler vor der Veröffentlichung. Bei einer verantwortungsbewussten Begutachtung kann von den Autoren verlangt werden, eine substantielle Überarbeitung vorzunehmen, um irgendwelche Irrtümer in der Wissenschaft oder der Methodik zu korrigieren, bevor die Studie veröffentlicht wird. Aber die wissenschaftliche Begutachtung hat in der Klimawissenschaft vollständig versagt. Die Alarmisten der globalen Erwärmung haben so etwas wie die Lufthoheit von Ghaddafi über zerlumpte Gegner in Libyen.

Betrachten Sie diesen Kommentar von einem der am höchsten angesehenen Führer des IPCC, wie er in den CRU-e-mails enthüllt worden ist: „Ich denke, dass wir die Zeitschrift Climate Research nicht mehr als legitimes, wissenschaftlich begutachtetes Journal ansehen dürfen. Vielleicht sollten wir unsere Kollegen in der Gemeinschaft der Klimaforscher ermutigen, an dieses Journal keine Studien mehr zu senden, und Studien, die in diesem Journal erscheinen, nicht mehr zu erwähnen“.  Wissenschaftliche Begutachtung in der Klimawissenschaft bedeutet, dass das „Team“ die Veröffentlichung der jeweils anderen für sich verlangt und dafür sorgt, dass jede Studie mit abweichendem Inhalt nicht zur Veröffentlichung zugelassen wird.

James Madison erinnert uns in The Federalist Papers, dass “es niemandem erlaubt ist, in seinem eigenen Fall als Richter aufzutreten, weil sein Interesse mit Sicherheit seine Beurteilung verzerren würde und, nicht unmöglich, seine Integrität korrumpieren könnte. Aus dem gleichen Grunde, nein aus höheren Gründen ist eine Gemeinschaft von Männern nicht in der Lage, Richter und Partei gleichzeitig zu sein“.  Madison fährt fort, je kleiner die Gemeinschaft ist, umso wahrscheinlicher ist es, dass Partei und Richter ein und derselbe sind.

Lassen Sie mich zusammenfassen, wie sich die Schlüsselpunkte für mich darstellen, einem arbeitenden Wissenschaftler mit einem besseren Hintergrund als die meisten in der Klimaphysik. CO2 ist wirklich ein Treibhausgas, und gleichermaßen sorgt der Eintrag in die Atmosphäre durch Verbrennung von Kohle, Öl und Erdgas für eine moderate Erwärmung der Erde. Eine Verdoppelung des CO2-Gehaltes von gegenwärtig 390 ppm auf 780 ppm würde direkt eine Erwärmung von etwa 1°C bringen. Bei der gegenwärtigen Rate des Eintrags von CO2 – etwa 2 ppm pro Jahr – würde es etwa 195 Jahre dauern, diese Verdoppelung zu erreichen. Die Kombination einer etwas wärmeren Erde und mehr CO2 würde die Produktion von Nahrungsmitteln, Holz und anderen Produkten grüner Pflanzen deutlich erhöhen. Daher würde die Zunahme gut für unseren Planeten sein und irgendwelche negativen Auswirkungen weit überkompensieren. Vermeintliche Kalamitäten wie ein beschleunigter Anstieg des Meeresspiegels, die Versauerung der Ozeane, extremeres Klima und tropische Krankheiten in der Nähe der Pole und so weiter sind grobe Übertreibungen.

 „Entschärfung” [mitigation] und die vorgeschlagenen Kontrollanstrengungen werden einige Wenige mit guten politischen Verbindungen bereichern – auf Kosten der großen Mehrheit der Menschheit, einschließlich der Armen und den Einwohnern von Entwicklungsländern. Dabei werden diese Anstrengungen kaum Einfluss auf die Temperatur der Erde haben. Das jüngste Experiment in Spanien mit grüner Energie vernichtete viele zuvor existierende Arbeitsplätze für jeden grünen Arbeitsplatz, der geschaffen worden ist, und brachte das Land an den Rand des Bankrotts.

Die beängstigenden Warnungen der Alarmisten hinsichtlich der Auswirkungen einer Verdoppelung des CO2-Gehaltes basieren auf Computermodellrechnungen mit der Hypothese, dass der direkte Erwärmungseffekt des CO2 durch einen riesigen „Feedback-Faktor“ multipliziert wird, und zwar hervorgerufen durch CO2-bedingte Veränderungen des Wasserdampfgehaltes und der Wolken, die möglicherweise viel mehr zur Erderwärmung beitragen als CO2. Aber es gibt inzwischen Beweise aufgrund von Beobachtungen, dass dieser Feedback-Faktor klein ist und sogar negativ sein könnte. Die Modellrechnungen stimmen nicht mit den Beobachtungen überein – selbst wenn es so scheint, als bildeten sie den Temperaturanstieg der letzten 150 Jahre ziemlich gut ab.

Tatsächlich wurden die Computerprogramme zur Berechnung von Modellen zur Klimaänderung „frisiert“, damit sie das gewünschte Ergebnis bringen. Die Werte verschiedener Parameter wie Wolken und der Konzentration von anthropogenen Aerosolen wurden justiert, um möglichst zu den Beobachtungen zu passen. Und – vielleicht teilweise deswegen – sie haben bei der Vorhersage des zukünftigen Klimas versagt, selbst in so kurzen Zeiträumen wie fünfzehn Jahren. Tatsächlich sind die wirklichen Werte der meisten Parameter und die Physik, mit der sie das Erdklima beeinflussen, nur vage bekannt, zu vage, um die für Computervorhersagen erforderliche Genauigkeit zu besitzen. Nach meiner Ansicht und der vieler anderer Wissenschaftler, die mit der Materie vertraut sind, besteht das Hauptproblem in der Simulation der Bewölkung, deren Änderungen möglicherweise einen viel größeren Einfluss auf die Temperatur der Erde haben als sich verändernde Anteile von CO2.

Neben der Verzerrung hin zu einem bestimmten Ergebnis, was stimmt nicht an der Wissenschaft? Wissenschaftlicher Fortschritt besteht aus der Wechselwirkung zwischen Theorie und Beobachtung.  Die Theorie erklärt die Beobachtungen und macht Aussagen darüber, was man in der Zukunft beobachten wird. Beobachtungen sichern unser Verstehen ab und verwerfen Theorien, die nicht funktionieren. Dies war die wissenschaftliche Methode für über dreihundert Jahre. In jüngster Zeit hat die Entwicklung der Computer einen anderen Zweig der Untersuchung ermöglicht: Computersimulationsmodelle. Wenn man diese sauber anwendet, können die Computermodelle den wissenschaftlichen Fortschritt vertiefen und beschleunigen. Aber sie sind nicht dazu da, Theorie und Beobachtung zu ersetzen oder als Autorität ihrer selbst zu dienen. Wir wissen, dass sie im Bereich der Wirtschaft scheitern. Alle ins Spiel gebrachten Kontrollen, die eine solche signifikante Auswirkung auf die zukünftige Weltwirtschaft haben, basieren auf Computermodellen, die so komplex und chaotisch sind, dass man viele Rechenläufe braucht, bis man eine „mittlere“ Antwort erhält.  Und doch haben die Modelle schon bei dem einfachen wissenschaftlichen Test der Vorhersage versagt. Wir haben ja nicht einmal eine Theorie, wie akkurat die Modelle überhaupt sein sollten.

Es gibt viele ehrliche, hart arbeitende Klimawissenschaftler, die versuchen, die Auswirkungen des CO2 auf das Klima zu verstehen, aber ihre Arbeit wird derzeit infolge des Hockeyschläger-Skandals und vieler anderer Übertreibungen über die Gefahren des zunehmenden CO2-Gehaltes schief angesehen. Was hat die Klimawissenschaft von einer normalen wissenschaftlichen Disziplin in eine so hoch umstrittene Kontroverse verwandelt?

Ein Hauptproblem war die Einwirkung von Politik, Ehrgeiz, Geldgier und das, was man ein menschliches Grundbedürfnis für einen rechtschaffenen Grund nennt, auf die Klimawissenschaft. Welchen besseren Anlass gibt es, um den Planeten zu retten? Besonders wenn man gleichzeitig eine üppige, sichere Finanzierung erhalten kann? Riesige Summen Geldes werden von Regierungen und reichen Institutionen für Klimainstitute und klimabezogene Forschungen zur Verfügung gestellt.

Die Finanzierung von Klimastudien liegt an zweiter Stelle hinter der Förderung der biologischen Wissenschaften. Große akademische Imperien, Preise, Berufungen in ehrwürdige Gesellschaften, Mitgliedschaften und andere Vergünstigungen gehen an jene Forscher, deren Ergebnisse helfen könnten, den „Planeten zu retten“. Jeden Tag lesen wir von einigen echten oder erfundenen Umwelt- oder ökologischen Effekten, die „nachweislich“ durch die globale Erwärmung verursacht werden. Die Summe dieser vermeintlichen Effekte geht mittlerweile in die Hunderte, und sie sollen allesamt das Ergebnis einer ein Jahrhundert langen Erwärmung von weniger als 1°C sein. Subventionen von Regierungen, Kreditbürgschaften und befangene Kunden wechseln zu grünen Firmen. Einkünfte aus Kohlenstoffsteuern fließen an Regierungen. Wie es der große russische Dichter Puschkin in seiner Novelle Dubrovsky ausdrückte: „Falls es irgendwo einen Futtertrog gibt, werden auch Schweine da sein“. Jeder Zweifel an apokalyptischen Klimaszenarien kann viele dieser Tröge entfernen.

Was ist mit jenen, die die wissenschaftliche Basis dieser Behauptungen anzweifeln, oder die einfach angewidert sind, was der wissenschaftlichen Methodik hier angetan wird, die sie gelernt haben? Veröffentlichungen von gegenteiligen Forschungsergebnissen in den Mainstream-Journalen sind selten. Der gelegentliche ketzerische Artikel ist das Ergebnis eines unvermeidlichen, langwierigen Kampfes mit jenen, die das Dogma stützen und die ihre Hände im Spiel beim Prozess der wissenschaftlichen Begutachtung haben.  Wie oben schon erwähnt, wissen wir aus den Klimagate-e-mails, dass das Team konspirativ verhindert hat, dass gegenteilige Studien an das Tageslicht gelangen und dass man sogar darüber gesprochen hatte, einen Redakteur loszuwerden, der im Verdacht stand, solch umstrittenes Material zuzulassen.

Die Motive der Skeptiker werden öffentlich angefochten; verunglimpfte Namen werden in den Medien und der Blogosphäre routinemäßig genannt; und jetzt beobachten wir auch Taktiken, wie sie auch Big Brother dem skeptischen Helden Winston Smith in Orwells 1984 angedeihen ließ. Im Jahre 2009 wurde an der University of West England eine Konferenz von „Ökopsychologen“ abgehalten, bei der es um die offensichtlichen psychologischen Probleme jener ging, die dem Dogma der globalen Erwärmung nicht folgen. Die Prämisse dieser Psychologen war, dass Wissenschafter und Mitglieder der allgemeinen Bevölkerung, die ihren objektiven Zweifeln an der propagierten globalen Erwärmung Ausdruck verliehen hatten, unter einer Art Geisteskrankheit litten. Wir wissen von den sowjetischen Experimenten, dass eine Gesellschaft sehr leicht davon überzeugt werden kann, dass Dissidenten mental abartig sind und entsprechend handeln.

Die Verwaltungen der meisten wissenschaftlichen Gesellschaften sind mit Begeisterung auf den Zug der globalen Erwärmung aufgesprungen. Dies ist keine Überraschung, da Regierungen ebenso wie viele Staaten und Stiftungen generös jene fördern, die die gewünschten Ergebnisse unter dem Motto der Rettung des Planeten liefern. Gewisse private Firmen stecken auch unter dieser Decke: jene nämlich, die davon profitieren, dass Finanzinstitute hoch in „grüne Technologien“ investieren, was in dem Moment, in dem die globale Erwärmung verbreitet als ein Nicht-Problem erkannt wird, hinfällig wäre. Es gibt bekannte Verbindungen und Volksbewegungen, die in die Regierungspolitik, in wissenschaftliche Gesellschaften und die private Industrie verwickelt sind, alle mit dem gemeinsamen Ziel, Programme und Investitionen zu beeinflussen, die unter der vermeintlichen Bedrohung durch die globale Erwärmung stehen.

Meine eigene Gesellschaft, die Amerikanische Physikalische Gesellschaft (APS) ist ein gutes Beispiel, aber sicher nicht das Schlimmste. Ein Statement des Vorstands der APS, veröffentlicht am 18. November 2007, lautet: „Der Beweis ist unwiderlegbar: die Globale Erwärmung findet statt. Falls keine abschwächenden Maßnahmen ergriffen werden, wird es zu signifikanten Störungen in den physikalischen und ökologischen Systemen der Erde, in sozialen Systemen, in der Sicherheit und der menschlichen Gesundheit kommen. Wir müssen ab sofort die Emissionen von Treibhausgasen reduzieren“. Dies ist ziemlich starker Tobak für Physiker, für die der Skeptizismus einst als Tugend galt, und nichts war unwiderlegbar.

Im Herbst 2009 wurde dem Management der APS eine Petition des Mitglieds Roger Cohen übergeben, die die Unterschriften hunderter angesehener APS-Mitglieder trug. Darin forderten die Unterzeichner, dass zumindest das Wort „unwiderlegbar“ aus dem Statement herausgestrichen werden sollte. Die Antwort des APS-Managements bestand darin, die Unterzeichner zu bedrohen und widerwillig ein Komitee ins Leben zu rufen, dass über diese Forderung beraten sollte. Es war genau das, wovor James Madison gewarnt hatte. Das Komitee umfasste Mitglieder, deren Karrieren stark vom Alarmismus der globalen Erwärmung abhingen, und das vorhersehbare Ergebnis war, dass kein einziges Wort geändert wurde. So schlimm diese Aktivitäten der APS waren, so waren sie doch immer noch besser als das der meisten anderen wissenschaftlichen Gesellschaften, die es abgelehnt hatten, extreme Aussagen zum Klima auch nur zu überdenken.

Die Lage ist für die allgemeine Öffentlichkeit sogar noch beklagenswerter, wird sie doch mit einem konstanten Strom von Propaganda gefüttert, und zwar durch Umweltspezialisten der Mainstream-Medien und großzügig unterstützten Alarmistenblogs. Nicht unähnlich den Funktionären des Orwell’schen Wahrheitsministeriums mit seinem Motto „Ignoranz ist Stärke“, treiben viele Mitglieder der Umweltmedien pflichtbewusst und unkritisch den Klimakreuzzug voran.

Allerdings bessert sich die Lage allmählich. Die Skeptiker werden immer zahlreicher und sind besser organisiert als vorher.  In einigen wenigen Fällen haben sich einige führende frühere Anhänger öffentlich und mutig gegen das Dogma ausgesprochen. Das IPCC selbst ist ernsthaft durch das internationale wissenschaftliche Establishment in die Kritik geraten wegen einer ganzen Reihe bizarrer Irrtümer und organisatorischer Fehlschläge. Unter dem Druck einer Gruppe von Dissidenten unter den Mitgliedern hat sich die Royal Society genötigt gesehen, ihre ursprünglich radikale Position zur globalen Erwärmung deutlich zu mäßigen. Und vielleicht am wichtigsten, der öffentliche Skeptizismus hat signifikant zugenommen. Er ging einher mit einem wesentlichen Rückgang der Unterstützung für den Versuch des Klimakreuzzuges, die Kontrolle über den „Verschmutzer“, CO2, zu erlangen.

Ich habe eingangs ein Zitat aus dem Vorwort der ersten Ausgabe von Mackays Extraordinary Popular Delusions and the Madness of Crowds gebracht, und es ist angebracht, jetzt ein Zitat aus dem Vorwort der zweiten Ausgabe folgen zu lassen: „Leute, das ist gut gesagt, denkt an Herden; man wird sehen, dass die Herden verrückt werden, wohingegen die Rückbesinnung nur langsam und bei jedem Einzelnen Stück für Stück vonstatten geht“.

In unseren Bemühungen, die erschaffene Welt zu konservieren, sollten wir unsere Anstrengungen jetzt nicht auf das CO2 konzentrieren. Statt dessen sollten Gegebenheiten wie die Schädigung von Landschaften und Wasserwegen durch Tagebau, unangemessene Beseitigung der Schäden, die Gefahren für die Minenarbeiter und die Freisetzung echter Verschmutzer und Gifte wie Quecksilber, andere Schwermetalle und organische Krebserreger in den Mittelpunkt rücken. Viele der potentiellen Schäden durch den Abbau von Kohle können verhindert werden, beispielsweise durch Vorschriften, dass die Landschaft wieder so oder gar noch besser hergestellt wird wie zu Beginn des Abbaus.

Das Leben besteht aus Entscheidungen, und Entscheidungen können ausgetauscht werden. Wir können wählen, entweder Technologien zu fördern, die unsere realen Probleme angehen, und in wissenschaftliche Forschung zu investieren, die uns effizienter mit bestehenden Problemen umgehen lassen kann. Oder wir können einem Kreuzzug verhaftet bleiben, der danach trachtet, den Energieverbrauch, ökonomisches Wachstum und die Wohltaten zu unterdrücken, die sich aus der Schaffung nationalen Wohlstands ergeben.

William Happer ist der Cyrus Fogg Brackett Professor of Physics an der Princeton University.

Link: http://www.firstthings.com/article/2011/05/the-truth-about-greenhouse-gases

Übersetzt von Chris Frey für EIKE




Wann wird die Wissenschaft endlich die globale Abkühlung Ernst nehmen?

Bild rechts: Die Wintertemperatur in den USA während der letzten Dekade. Es zeigt sich ein Abkühlungstrend von 4,13°F (? 2°C) pro Dekade. Hier klicken, um das Bild zu vergrößern.

Die kommende Abkühlung vorherzusagen ist ziemlich geradlinig. Es gab zahllose Erwärmungs- und Abkühlungsperioden in der Erdgeschichte, die vollständig mit natürlichen solaren, ozeanischen und atmosphärischen Zyklen im Zusammenhang stehen.

Die 60-jährige Atlantische Multidekadische Oszillation (AMO) tritt nun in ihre Kaltphase ein. Zwischen 1968 und 1972 wurde geschätzt, dass die AMO die Temperatur auf der Nordhemisphäre um 0,3°C zurückgehen lassen würde.

Die Nordatlantische Oszillation (NAO), ein atmosphärisches Phänomen, das die Temperaturen auf der Nordhemisphäre beeinflusst, hat gerade begonnen, in ihre 30 Jahre lange Abkühlungsphase einzutreten.

Der wichtigste Einfluss auf die globale Temperatur, nämlich die Sonne, scheint in eine ausgedehnte Periode geringer Aktivität von Sonnenflecken zu kommen. Während die genaue Wirkungsweise noch diskutiert wird, ist die Korrelation zwischen den solaren Fleckenzyklen und der globalen Temperatur bestens dokumentiert.

Der vorige solare Zyklus 23 war 12,6 Jahre lang, viel länger als das historische Mittel von 11 Jahren. Besonders langen solaren Zyklen folgen häufig kühlere Perioden. Zusammen mit dem solaren Zyklus 24, welches sein Maximum bereits nach nur 2,5 Jahren Aktivität erreicht haben könnte, scheint es so, als wiederholten sich die Verhältnisse wie zu Beginn des Dalton Minimums von 1790 bis 1830. In dieser Zeit waren in Europa eine Anzahl besonders langer und kalter Winter sowie nur kurze und armselige Wachstumsphasen aufgetreten.

Wir befinden uns inmitten eines Zusammentreffens von 3 wesentlichen solaren, ozeanischen und atmosphärischen Zyklen, die alle in die gleiche Richtung weisen, nämlich globale Abkühlung. Im vergangenen Jahr war in der Südhemisphäre der kälteste Winter seit 50 Jahren aufgetreten, und in Europa erlebte man zwei besonders kalte Winter hintereinander. Und der Abkühlungstrend hat gerade erst begonnen. Die Wahrscheinlichkeit des erneuten Auftretens eines „Jahres ohne Sommer“ 1816 oder „Der Große Frost von 1709“ nimmt mit jedem Tag zu.

Mit Milliarden Menschen mehr als jemals zuvor, die satt werden wollen, wird eine Massenhungersnot im Falle großräumiger Ernteausfälle zu einer sehr realen Möglichkeit. Alle moderne Technologie der Welt kann eine Stangenbohne nicht zum Wachsen bringen, wenn die Erde steif gefroren ist.

Obwohl eine Katastrophe der Welt ins Gesicht sieht, bleiben viel zu viele Klimawissenschaftler einer intoleranten, anti-menschlichen Politik verhaftet, um dagegen sinnvoll vorzugehen. In einer Zeit, in der sie die Warnsirenen betätigen sollten, um die Gesellschaft auf mögliche Nahrungs- und Energieengpässe vorzubereiten, bestehen sie höchst erstaunlich darauf, dass ein nicht signifikantes Molekül (CO2) stärker dafür verantwortlich sein soll, die Erde zu erwärmen, als die Sonne.

Fred Dardick ist der Besitzer und Operator einer Firma zur Herstellung medizinischer Ausrüstung mit Sitz in Chicago. Bevor er zum Geschäftsmann wurde, arbeitete er als biologischer Forscher an der Northwestern University und The University of Chicago. Er hat einen BS- und MS-Grad in Biologie und betreibt einen Blog unter www.conservativespotlight.com.

Link: http://icecap.us/index.php/go/joes-blog/when_will_science_get_serious_about_global_cooling/

Übersetzt von Chris Frey für EIKE