1

Alarmist sagt: Die Schlacht über den Klimawandel ist verloren; er empfiehlt neue Strategie für CO2 Reduktionspropaganda

"Klimatologen, hört auf, über die Klimatologie zu reden. Wir haben verloren. Es ist vorbei. Denkt nicht mehr daran," rief Foley am letzten Tag der dreitägigen Veranstaltung während einer Podiumsdiskussion einem überraschten Auditorium zu.

Er sagte weiter, dass er nichts so sehr schätze, wie den Versuch, Konservative zu überzeugen. "Ich gehe gern in Säle wie dieser hier und sage, ’Hört mit dem Klimawandel auf. Liebt Ihr Amerika?’ Und dann kommt ’Ja’. Dann sage ich, ’bringt es Euch nicht ein bisschen aus der Fassung, dass wir uns Geld von China borgen, es dann nach Saudi Arabien schicken, um die Energie-Industrie zu mästen … An vielen Knöpfen dreht Ihr. Da stimmen sie zu", sagte Foley.

Die Umweltschützer und die Klimaskeptiker sollten mit dem Kampf aufhören und gemeinsame Dinge anpacken, auch wenn sie von verschiedenen Standpunkten herkommen, meinte er und sagte weiter: "Die Skepsis wegen des Klimawandels hat uns in eine Falle stürzen lassen. Hört auf, Euch nur noch tiefer hineinzuwühlen. Kommt raus. Redet anders darüber. Packt die Sache anders an." 

Das Umweltforum wurde vom ASPEN-Institut und von NATIONAL GEOGRAPHICS organisiert. Mehr als 300 Teilnehmer und viele Vortragende hat es in seinem dritten Jahr angelockt. An den ersten beiden Tagen wurden trübe Beurteilungen verschiedener Umweltprobleme dargestellt, von der Versauerung der Meere bis zur Herausforderung, wie man die Menschen ernährt, wenn um 2050 die Weltbevölkerung von 7 Mrd. auf 9 Mrd. angeschwollen sein wird. 

Der Mittwoch war für die Lösungen reserviert. Foley war in einem Ausschuss, der sich damit beschäftigte, wie das Verhalten verändert werden kann, um für die Führung und Leitung der Erde in einer Zeit des "Anthropozäns" zu ermutigen, oder für die Zeit, wenn der Mensch die beherrschende Kraft der Evolution auf der Erde sein wird.

Der Schlüssel zur Hervorbringung dieses Wandels ist die Beendigung der Schlacht um die Frage, ob die Wissenschaft das Konzept vom Klimawandel unterstützt, sagte Foley. Einige wenige von den Teilnehmern im Auditorium bezweifelten die Weisheit seiner Strategie, sie bestanden darauf, dass die Menschen über die Einzelheiten der Wissenschaft vom Klimawandel belehrt werden müssten, bevor sie sich wirklich hinter die Bestrebungen zur Reduzierung der Kohlenstoffemissionen stellen würden.

Foley beharrte auf seinen Forderungen. Diskussionen über die Veränderung der globalen Durchschnittstemperatur begeisterten die Menschen, trügen aber wenig zum Verständnis des Problems bei, sagte er. "Sprecht über Dinge, die etwas bringen – Nahrung, Wasser, Lebensstil, Wohnorte, solche Sachen."
Und er legte nach: "Ich sage nicht:  Ignoriert das Problem. Dreht es stattdessen um, bingt es in neue Zusammenhänge."

Etwa 10 Prozent der Amerikaner werden mitmachen, wenn man den Klimawandel thematisiert, fügte er später hinzu, aber 70 Prozent werden mitmachen, wenn man über die Sicherheit der Energieversorgung spricht.

Die Einsätze bei dieser Debatte sind viel zu hoch, um darüber zu hadern. Wirksame Maßnahmen müssen ergriffen werden, um die Kohlenstoffemissionen binnen weniger als einem Jahrzehnt zu vermindern.

Ein weiteres Ausschussmitglied, Pfarrer Richard Cizik, Präsident der Neuen Evangelikalen Partnerschaft für das Gemeinwohl (New Evangelical Partnership for the Common Good) war einverstanden, dass der Krieg gegen den Klimawandel so geführt werden müsste, dass die Menschen einverstanden seien.

Der Mensch ändert sein Verhalten nur, wenn sein Leben hier unbequem wird – und wenn eine gangbare Lösung angeboten wird. "Man muss wirklich Sorgfalt walten lassen, denn wenn man etwas anbietet, was nicht funktioniert und kein Echo erzeugt, dann hat man ein Problem", sagte Cizik.

Scott Condon 29.7.10
Aspen correspondent Post Independent Glenwood Springs, CO Colorado

Anmerkung der Redaktion: Wieder einmal hat ein Klimaalarmist die Katze aus dem Sack gelassen: Es geht nicht um den Klimawandel, der ist völlig normal und wurde/wird nur als Vorwand missbraucht! Es geht um etwas ganz anderes: Es geht um die Kontrolle jedes einzelnen Menschen auf dieser Erde! Das Instrument dazu: Die Steuerung (Zuteilung) seines Energieverbrauches. Das ist das Motiv!
Man sehe auch hier: Zitat Löschke:

"Ein hochrangiger deutscher Politiker aus einer großen Volkspartei – dessen Namen ich hier nicht nennen mag – sagte jüngst bei einer ähnlich gelagerten Veranstaltung im Brustton ernster Überzeugung: „… und wenn es die Klimakatastrophe nicht gäbe, dann müsste man sie erfinden, um die Menschen dazu zu bringen, Dinge zu tun, die wir für richtig halten.“

Kein Kommentar!

*Update: Die amerikanische Wirtschaft, besonders die grünen Vorzeige-Kalifornier des Governators Schwarzenegger beginnen sich zu wehren. Die Zeit schreibt:

US-ENERGIEPOLITIK

Schwarzeneggers letzte Schlacht

Zwei Öl-Konzerne wollen Kaliforniens Klimaschutzgesetz kippen – das fortschrittlichste der USA. Sie gefährden das Prestige-Projekt von Gouverneur Schwarzenegger.

Unser Kommentar: Was nun Herr Schwarzenegger? Erst die achtgrößte Volkswirtschaften der Welt – den Staat Kalifornien- ruiniert, und jetzt soll auch noch Werkzeug zum Ruinieren weggenommen werden.

Die Übersetzung des obigen Artikels besorgte Helmut Jäger EIKE





120 Jahre heiße Sommer und Extremwetter? Eine Übersicht!

1903

4.-8.7. Dauerregen in Schlesien. Großflächige Überschwemmungen.

Hochwasser in Osteuropa, Warschau überflutet

11.7. Starke Regenfälle Norddeutschland. Viele Überschwemmungen.

An der Ems viele Überschwemmungen.

 

1904

extrem trocken und heiß. Hitzewelle stoppt die Fluss- schifffahrt. Tropische Hitze ganz Mitteleuropa. Berlin 16.7. 35,5°. Wasserstand Weichsel und Oder tiefster Stand seit 1811. Elbe in Dresden fast ausgetrocknet.

 

1905

Juli warm mit vielen Gewittern

 

1906

8.7. schwerer Wirbelsturm über Tunis, Hunderte Tote.

 

1907

Juli kälter als Juni

sehr kühl und regnerisch, vor allem im Osten, Berlin 230 mm

15.7. Wolkenbrüche und schwere Überschwemmungen in Schlesien,

viele Tote.

 

1908

29.7. verheerendes Unwetter im Zillertal, Tirol, 25 Tote

 

1909

kühl und nass, fast überall doppelt soviel Niederschlag wie normal.

12.7. Unwetter und lang anhaltende Regenfälle Elsass und Süd-Deutschland,

Überschwemmungen, schwere Schäden.

 

1910

23.6. verheerende Unwetter Norditalien. Mailand viele Zerstörungen,

66 Tote, viele Verletzte.

 

1911

Hitzewelle Mitteleuropa. Berlin am 23.7. 34,6°

Hitzewelle Osten USA, New York 40°, Tausende sterben an Hitzschlag.

 

1913

Juli teilweise kälter als (der auch kühle) Juni.

30.7. Hagelunwetter Südtirol. teilweise 30 cm Eisschicht, Weinernte

zerstört, viele Schäden.

 

1916

10. Juli schweres Unwetter bei Wien, erhebliche Schäden.

 

1917

Ende Juli Starkregen, Überschwemmungen Ostfrankreich, Belgien bis

Rheinland

 

1921

lang anhaltende Hitzewelle Europa. Probleme bei der

Wasserversorgung, Einschränkungen im Schiffsverkehr.

20.7. Karlsruhe 39°

 

1922

nach sonnigem Juni kurze Hitzewelle, 6.7. Frankfurt/M. 37°,

7.7. danach Stürme und Unwetter, Temperatursturz, Verwüstungen,

Bäume entwurzelt, Notstand in einigen Gebieten, Überschwemmungen,

Restsommer kühl und regnerisch, Ernteausfälle.

 

1923

10.7. sechsstündiges Gewitter London, 14 Häuser zerstört.

13.7. heftige Unwetter und Gewitter in Nordspanien, Über-

schwemmungskatastrophe Saragossa , viele Schäden.

 

1925

2.7. Andauernder heftiger Regen Südosteuropa, „folgenschwere“

Überschwemmungen Karparten.

 

1926

3.7. weiter Hochwasser, im Riesengebirge wolkenbruchartiger Regen,

viele Zerstörungen.

dann oft schwül und warm.

lange Hitzewelle im Osten der USA, Hunderte Tote.

18.7. Heuschreckenplage UdSSR, Heuschreckenwolke 6,5 km lang, 4 km breit.

24.7. heftige Gewitter in Norddeutschland, schwere Schäden.

28.7. Kälteeinbruch, Schneesturm (!) in den Schweizer Alpen.

 

1927

8.7. schwere Unwetter Erzgebirge, stundenlange Gewitter, 145 Tote,

viele Häuser völlig zerstört, Überschwemmungen, Zerstörungen.

 

1928

3.7. schwere Unwetter Südwestdeutschland, Gewitter, Stürme,

Hagel, Verwüstungen.

4.7. Unwetterfront zieht nach Osten, schwere Gewitter in Berlin,

Schlesien, Stürme, Verletzte, viele Schäden.

 

1930

Juli kälter als Juni, sehr nass.

12. Juli Schnee bis auf 1000 m., Jungfraujoch 30 cm Neuschnee,

München Höchsttemperatur 12°.

Hitzewelle Mittlerer Westen/USA, über 200 Tote, Missouri bis 48°.

 

1932

16.7. sintflutartige Regenfälle in Nord- und Mittelitalien, heftige

Verwüstungen, Verkehrswege und Ernten vernichtet, viele Orte

abgeschnitten

 

1934

Presse: „Wetterkatastrophen in allen Teilen der Welt“

„beispiellose“ Hitzewelle an der Ostküste der USA,

am 5.7. New York 55°C (!), viele Opfer, Kansas City an 27 Tagen

hintereinander über 40°, verdorrte Felder, ausgetrocknete Flüsse,

Heuschrecken- und Käferplage.

18.7. nach kurzer Hitze schwere Unwetter in Großbritannien, 3 Tote.

19.7. schwere Unwetter in Oberitalien, Hagelkörner bis 200 Gramm,

gesamte Weinernte vernichtet.

schwere Überschwemmungen in China, 200 Tote, Tausende obdachlos.

21.7. tagelanger ununterbrochener Regen in Polen,

Überschwemmungskatastrophe, 150 Tote 50 000 Obdachlose.

 

1935

8.7. starke Regenfälle im Osten der USA, Hochwasser, viele Schäden,

60 Tote.

25.7. schwere Überschwemmungen in China, 70% der Provinz Hupeh

überschwemmt, 200.000 Tote.

Hitzewelle im Mittleren Westen/USA setzt die Dürre fort. 150 Tote.

 

1937

erstmals seit 1932 weniger Trockenheit im Mittleren

Westen/USA, trotzdem noch Sandstürme in Texas und

New Mexico.

 

1939

25.7. eine heftige Gewitterfront bringt einen plötzlichen

Kälteeinbruch mit Temperaturstürzen um 20°, Zugspitze –7°.

 

1949

Hitzewelle in Mittel- und Südeuropa, am Mittelmeer teilweise über 40°,

Wasserknappheit überall, Ernteausfälle, 10.7. Fußball-Endspiel :„Glutspiel

von Stuttgart“.

 

1950

sehr sommerlich, 3.7. München 34,4°, heißester Tag seit 50

Jahren

 

1951

eine der schwersten Überschwemmungskatastrophen in

der Geschichte der USA im Raum Kansas, Missouri und

Kansas-River nach schweren Regenfällen sehr plötzlich über

die Ufer getreten, 400 000 Obdachlose, viele Tote.

 

1952

Hitzewelle in Europa, 200 Tote, BRD bis 39,6°, Florenz 40°

 

1954

sehr kühl und nass

9.7. sintflutartige Regenfälle in Südostdeutschland und Bayern,

Hochwasserkatastrophe, 30 Tote, 50 000 Obdachlose, betroffen ist die

Donau, alle Nebenflüsse, alle Flüsse in Sachsen, teilweise höchste

Wasserstände seit 1899.

 

1955

21.7. schwere Unwetter mit Wolkenbrüchen und Hagelschlag in

Österreich, Wassermassen, Überschwemmungen, Millionenschäden.

 

1956

sehr nass, viel Regen, viele Überschwemmungen.

Wieder wird in der Presse die Frage aufgeworfen, ob die Atomversuche

für das schlechte Wetter verantwortlich sind.

 

1957

Hitzewelle hält an bis zum 10.7., Wasserknappheit, 15 Tage durchgehend

über 30°, 7.7. bis 39°, 4.7. Zugspitze 14°, Wassernotstand in Nieder-

sachsen, Nordsee ist 22° warm.

1959

„Jahrhundertsommer“ im nördlichen Mitteleuropa, Dürre, Trockenheit.

Sintflut-Regenfälle in den Alpen, Erdrutsche, Überflutungen, Tausende

Obdachlose.

 

1962

kältester Sommer seit 111 Jahren, nur einmal über 25°,

 

1963

Hitzewelle und Trockenheit, oft über 30°, Rekorde.

 

1965

4.7. nach kurzer Hitzewelle schwere Unwetter in Oberitalien,

Hagelschlag und Wirbelstürme, schwere Schäden, Sizilien bis 42°.

18.7. schwere Gewitter in Nordhellen und Niedersachsen, 10 Tote,

über 150 Obdachlose.

25.7. –80,6° werden am Südpol gemessen

 

1967

9.7.heftige Unwetter, Gewitter und Stürme beenden die Hitzewelle,

Temperatursturz um 15°, Schneefälle in den Alpen.

 

1968

11.7. Ein Tornado verwüstet die Stadt Pforzheim und Umgebung

auf einer 20 km langen und 400 m breiten Front, innerhalb einer

Viertelstunde werden 1000 Wohnungen zerstört, Dächer ganzer

Häuserreihen werden abgedeckt, Bäume umgestürzt

und Autos zertrümmert, „wie nach einem Luftangriff“, 2 Tote,

400 Verletzte.

 

1969

7.7. Orkanartige Stürme über Westeuropa, besonders französische

Atlantikküste und England betroffen, 36 Tote, schwere Schäden

 

1975

5.7. schwere Unwetter in Bayern, Millionenschäden.

 

1976

„Europas große Dürre“, einer der Jahrhundertsommer, extreme

Trockenheit, ausgetrocknetes Land, verdorrte Äcker, niedrige

Pegelstände, Vieh muss notgeschlachtet werden, bis 38°

 

1977

4.7. schwere Unwetter in der Schweiz, sintflutartiger Regen, Straßen

unterspült, Erdrutsche, Hagel.

13.7. Hitzewelle im Osten der USA, Blitzschlag legt die gesamte

Stromversorgung New Yorks lahm.

31.7. erneute Unwetter in den Schweizer Alpen, Katastrophenalarm,

Gotthardstrecke tagelang durch umgestürzte Bäume unterbrochen.

Unwetter auch im Südwesen Frankreichs, manche Flüsse steigen innerhalb

weniger Minuten um 6 m an, viele Schäden, 10 Tote, manche Häuser

in Minuten bis zum Dachstuhl überschwemmt.

 

1978

Juli kühl und nass in Deutschland, Hitzewelle in Italien und Süd-

Frankreich , 19.7. schwere Unwetter mit Hagel und Wirbel-

stürmen in Italien und Jugoslawien, Millionenschäden, Hagel

liegt meterhoch auf den Straßen.

 

1980

Sommer kalt und nass

Juli seit 1874 nicht mehr so regenreich, „Katastrophensommer“,

Freibäder schließen.

10.7. Wintereinbruch in den Alpen, Pässe gesperrt.

 

1981

12.7. schwere Unwetter und Gewitterstürme in Süd-Deutschland,

Wolkenbrüche, Hagel, Millionenschäden, Bayern Katastrophenalarm,

Schäden in der Landwirtschaft.

 

1982

Hitzewelle Nord-Europa, 2.8. Oslo 35°

 

1983

Sommer heiß und trocken, einer der Jahrhundertsommer,

Deutschland bis 40,1°, Trinkwasserknappheit.

 

1984

12.7. schwerstes Hagelunwetter „seit Menschengedenken“

im Raum München, schwere Schäden,, tennisballgroße Hagelkörner,

abgedeckte Dächer, Felder und Gärten verwüstet, Temperatur-

sturz von über 30° auf 16°, 300 Verletzte.

Gewitter in ganz Westeuropa.

 

1985

6.7. schwere Unwetter im Rheinland, Millionenschäden

12.7. heftige Schneefälle in Südafrika

19.7. heftigste Monsunregenfälle in Indien seit 20 Jahren,

Überschwemmungen, viele Obdachlose, Tote.

Ende Juli Hitzewelle auf dem Balkan, Athen 41°

30.7. schweres Unwetter in Bayern und Österreich, Millionenschäden.

.

 

1987

1.7. schwere Unwetter über Süddeutschland, sintflutartiger Regen,

5 Tote, Millionenschäden.

 

1988

Dürre USA hält an, „Erinnerungen an die 30ger Jahre“.

Hitzewelle in Griechenland.

26.7. schwere Unwetter in ganz Deutschland, Millionenschäden.

 

1989

9.7. nach kurzer Hitzewelle heftige Gewitter, Hagel meterhoch

auf den Straßen.

Ende Juli erneut heftige Gewitter in Norddeutschland, Rendsburg

150 mm Regen in 24 Stunden.

 

1993

Juli kühl und nass.

Hitzewelle Ostküste der USA, Washington bis 40°, Regen im Mittleren

Westen, Mississippi- Hochwasser, 16 Tote, weite Gebiete überschwemmt.

 

 

1994

4.7. schweres Hagelunwetter im Raum Köln, hühnereigroße

Hagelkörner, schwere Schäden.

Hitzewelle in Deutschland, einer der Jahrhundertsommer,

teilweise wärmster Juli seit B.d.A.

Wetteramt widerspricht Klaus Töpfer, der für das Wetter die

Klimakatastrophe verantwortlich macht.

 

1996

Juli sehr kühl und nass.

7.7. schwere Gewitter mit Hagel und Sturm in Süd-Deutschland,

Millionenschäden.

Unwetter in Südeuropa, Stürme auf den Balearen, 7 Tote.

24.7. Hagel-Gewitter im Raum Köln, Schäden.

Hitzewelle in Ägypten, 22 Tote.

sehr kalter Winter in Südafrika.

 

1997

Juli erheblich zu nass.

verheerende Überschwemmungen nach starken Dauerregenfällen

im Einzugsbereich der Oder, „Jahrtausend“ – Oderflut, Deiche

brechen, weite Landstriche überflutet, Milliardenschäden.

 

1998

Juli sehr kühl.

Hitzewelle in Italien und Griechenland.

 

1999

Hitzewelle in Russland, 142 Tote.

6.7. Unwetter mit sintflutartigem Regen im Erzgebirge, bis 100 mm/Tag.

 

 Wolfram v. Juterzenka




Bundesministerium für Umwelt BMU indoktriniert Kinder mit haltlosen Behauptungen!

Ich gebe es zu. Ich habe als Vater versagt. Und da bin ich heilfroh, daß es das BMU (Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit) gibt. Das zeigt, was ich bisher nicht schaffte, meinen Kindern endlich, wie schön es in der Steinzeit war.

Keine Autos, keine Lampen, keine Heizung, keine Kernkraftwerke, keine Brückentechnologie, kein Ölverbrauch, keine Kohleförderung – all´ diese scheußlichen Dinge gab es nicht!

Und da will das BMU mit seinem Chef, dem Juristen Dr. Roettgen, wieder hin. Ich finde das klasse. Dann haben wir eine Lebenserwartung von 35 Jahren, sterben frühzeitig ökologisch, Operationen und Narkosen (igitt, mit Gas!) gibt es nicht, im Winter kuscheln wir uns aneinander (nicht so schlimm, daß die Zehen abfrieren, Hauptsache kuscheln!), keine Schule, kein Licht, kein Lesen. Und meine Kinder müssen kein schlechtes Gewissen haben, mal zu furzen wie die Kühe, die wir nicht mehr züchten und essen, damit das "Klima" geschützt bleibt. Herrlich, Dr. Röttgen, was Sie da vorhaben. Oha, da hab´ ich was übersehen. Sie sind ja schon über fünfunddreißig. Sie gibt´s dann ja gar nicht! Und auch nicht das BMU, das Bundesministerium für Unfug! Sag´ ich ja: Die Steinzeit muß toll sein!

Dr. Hans-Joachim Zielinski für EIKE

Die Broschüren des BMU zu den Themen Klimawandel und Erneuerbare finden Sie im Anhang als pdf Dateien. Die Kontaktadresse des BMU finden Sie hier: 

Die Postadressen finden Sie hier:

Related Files




„Ein hochrangiger deutscher Politiker aus einer großen Volkspartei….„… und wenn es die Klimakatastrophe nicht gäbe, dann müsste man sie erfinden, um die Menschen dazu zu bringen, Dinge zu tun, die wir für richtig halten.“

(Die Grundidee dieses Satzes soll von Voltaire stammen: Wenn es keinen Gott gäbe, so müsste man ihn erfinden“; allerdings soll Voltaire auch gesagt haben: „Ja weniger Aberglaube, desto weniger Fanatismus, desto weniger Unheil“. Ich hoffe nur, dass unser Politiker dies auch wusste)

Meine Frau und ich haben in dreißig Ehejahren eine sehr nützliche Übereinkunft getroffen: Wenn wir Gefahr laufen, wegen Sachen, die wir uns unbedacht sagen, aneinander zu geraden, dann muss der, der gerade was Blödes vom Stapel gelassen hat, den Satz noch dreimal laut sagen – in aller Regel erkennen wir dann, was gerade schief läuft, müssen meist drüber lachen. Und alles ist gut.

Ich bat diesen Politiker, das auch zu tun – aber er verstand nicht, was ich damit wollte.

Meine Damen und Herren, das ist genau der Punkt.

Diese Aussage unseres Politikers ist so absolut zynisch, so demagogisch und offenbart – selbst wenn man sie nur einmal hört – einen höchst alarmierenden Sinn hinter all dem Gedöns von Erderwärmung, CO2 und anderen Katastrophen: arrogante Machtpolitik.

Eine zweite Sache hat mich dann aber völlig aus dem Häuschen gebracht. Nicht nur, dass ich eine Reihe bezeichnender Zitate von Journalisten aller Couleur, aus Presse, Fernsehen, Internet usw. vorzeigen könnte, die von „einer CO2-freien Welt“ (wortwörtlich!) als erstrebenswertes Ziel aller Anstrengungen schwätzen, nein, dieser gefährliche Unsinn wird per politisch sanktioniertem Lehrplan in den staatlichen Schulen auch unseren Kindern übergeholfen.

Ich habe mir die einschlägigen Unterrichtsmaterialen des sächsischen Kultusministeriums für Lehrer besorgt. Mit diesen verbindlichen Vorgaben sollen den Schülern in einer poppig aufgemachten Art und Weise die Gefährlichkeit des Giftgases CO2-vorgeführt werden. Die Zukunft unserer Erde und auch die der unmittelbaren Heimat wird in den düstersten Farben gemalt (Dürren, Seuchen, Hungersnöte, Naturkatastrophen, Kriege usw.) und es wird nützliche Handreichung gegeben, wie und mit welchen Argumenten gegen feindliche „Klimaskeptiker / Klimaleugner“ vorzugehen sei.

Doch, meine Damen und Herren,

was wissen wir tatsächlich?

Was müssen wir tatsächlich tun?

Nun, zunächst sollten wir uns immer vor Augen führen, dass das „Teufelsgas“ CO2 einerseits ein Spurengas ist (also wie schon der Name sagt, nur in geringen Spuren vorkommt) und andererseits ein für uns äußerst wichtiges Gas darstellt: Die Existenz der gesamten Pflanzen- und Tierwelt – auch die des Menschen – hängt nämlich vom Vorhandensein dieses „Killergases“ ab. Es ist  (in den vorkommenden Spuren-Konzentrationen) also weder gefährlich noch giftig. Eine CO2-freie Atmosphäre würde uns töten. Eine „CO2-freie Zukunft“ müssen wir unbedingt verhindern!

Die Frage ist, wie groß muss und darf der Anteil dieses Gasen in der Atmosphäre sein und was ist „normal“?

Die beschämende Antwort auf diese Frage ist: Wir wissen es nicht.

Gehen wir dem weiter nach, so sehen wir, dass Messungen, die nicht in die eine oder anderer Richtung „zurechtgebogen“ sind, ganz unterschiedliche Konzentrationen in der Vergangenheit und heute belegen. Grundsätzlich muss natürlich beim Vergleich von Daten geklärt werden: wie man misst und wie vergleichbar die Messmethoden und wie groß ihre Fehlerbandbereiten sind.

Dennoch, aus seriösen Recherchen erkennt man leicht: in der Atmosphäre (also in „Freier Umgebung“ – hier drinnen werden wir sicher schon bei 4000 ppm sein…) scheinen Konzentrationen von 250 bis über 1400 ppm in der erdgeschichtlichen Vergangenheit, in historischer, vorindustrieller Zeit und auch heute keine ungewöhnlichen Zahlen zu sein. Selbst in den letzten 200 Jahren schwankten die gemessenen Werte zwischen 450 und 290 ppm.

Man misst heute im Observatorium auf dem Vulkan Mauna Loa rund 380 ppm (die berühmte, seit Mitte der 50-iger Jahre ansteigernde Kurve).

Die nächste und wie mir scheint, die grundlegendste Frage ist, beeinflusst diese im ppm (Part per Million) Bereich liegende CO2-Konzentration die Temperatur der Erdatmosphäre? Auch hier zeigen verschiedene direkte Messungen …

(ach übrigens, wer weiß, seit wann es überhaupt Thermometer und eine richtige Grad-Skala gibt?  –  seit Fahrenheit 1715) 

… und indirekte Temperaturermittlungen, dass es z.B. vor 3600 Jahren rund 1 grad wärmer war, als heute, dafür 200 Jahre später (vor 3400) 1,5 grad kälter. Was immerhin einen Temperatursturz von 2,5 grad in 200 Jahren bedeutete – und zu dieser Zeit gab´s nur ganz wenige Menschen und keine Autos und vor allem keine Klima-Rettungsaktion.

Um solche Temperatur-Schwankungen zu erklären, wird gewöhnlich mit dem sogenannten Treibhauseffekt argumentiert und wenn man die damit zusammenhängenden Veröffentlichungen auf der „Klimaschützer“-Seite durchforstet, scheint alles völlig klar zu sein.

Die tatsächliche Antwort auf diese Frage ist aber ebenso überraschend und beschämend, wenn man die ganze Literatur durchkämmt, wie die zur Normal-Konzentration von CO2: wir wissen es nicht.

Wir wissen nicht genau, wie CO2 als „Klimagas“ im komplexen System der Atmosphäre insgesamt wirkt. Und es existiert kein wissenschaftlich verifizierbarer und falsifizierbarer Zusammenhang zwischen CO2-Gehalt und Temperatur. Das, was wir aufstellen sind Korrelationsvermutungen – und die können auch z.B. so gedeutet werden, dass die CO2-Konzentration in der Atmosphäre der Temperatur folgt und nicht umgekehrt.

Mich als gelernter Experimentalphysiker verwundert dabei besonders, dass mir trotz intensiver Recherche und Anfragen an ein paar meiner Physiker-Kollegen bislang kein ernstzunehmendes Experiment zur Wirkung des CO2 als „Treibhausgas“ bekannt geworden ist.

Aber verdammt, viele Leute scheinen doch ganz genau zu wissen, dass das Klima über kurz oder lang kollabieren wird, wenn wir nichts dagegen tun: sprich das weitere „Einblasen“ von CO2 in die Atmosphäre, koste es, was es wolle, unterbinden. Wozu denn sonst die gewaltigen Ausgaben für Klimaforschung, die großen und teuren Klimakonferenzen, die heiß umkämpften politischen Vereinbarungen, die dringenden Appelle usw.

Woher kommt die Mär von den 2 grad, die wir dem Klima noch zubilligen und die sich z.B. auch unsere Diplomphysikerin Merkel als Grenzziel setzt?

Tja,

auch das beruht nicht auf gesichertem Wissen. Es ist allenfalls eine Annahme.

Allerdings wissen wir genau, wer sie verbreitet und wer sie als politisches Programm aufgenommen hat und wer nun seine Volkswirtschaft und seine Steuerzahler dafür bluten lässt und wer damit schon jetzt steinreich geworden ist. 

Alle, aber auch wirklich alle diese „Vorhersehungen“, oh, Verzeihung,  „Vorhersagen“ sind Ergebnisse von Computer-Modellen, basierend auf komplexen, chaotischen Systemen, basierend auf dem nicht genauen Wissen über Treibhauseffekte und auf immer noch nicht genau bekannten CO2- und anderen Gas-Kreisläufen (Wasserdampf) im Boden, im Ozean und in der Atmosphäre.

Allerdings ist völlig klar: Wetter (lokales, globales und damit auch Klima – im strengen statistischen Sinne) unterliegt einer ständigen Veränderung. Und diese Veränderung findet mal schnell und mal langsam statt. Das kann man ohne großartige Messungen und Computerprogramme in und an der Natur (Pflanzenwelt, Tierwelt, Landwirtschaft, Seefahrt, Handelstraßen usw.) sehen, erleben, und nachvollziehen. Eigentlich wäre es sogar äußerst merkwürdig, wenn das nicht geschähe. Das Problem ist nur: aus unerfindlichen Gründen sind die heute lebenden Menschen auf „Statik“ getrimmt und jede (natürliche) Veränderung wird deshalb als Bedrohung aufgefasst. Früher freuten sich die Leute, wenn es wärmer wurde – heute haben sie davor panische Angst.

Liebe Freunde,

Nichtwissen, kann durch Wissen ersetzt werden, indem man misst, forscht, nachdenkt und rechnet.

Das ist Sinn der exakten Naturwissenschaften.

Aber leider gibt es auch eine bittere Erkenntnis, die im Lauf der langen Geschichte menschlicher Kultur immer wieder gewonnen werden musste:

Nichtwissen wird durch Halbwissen, durch „Konsens“ von Laien und letztlich durch Glauben ersetzt, was dazu führt, dass nur noch das gemessen wird, was die Priester voraussagen. Die „treuen“ Forscher beforschen eifrig die Wahrheit der reinen Lehre ihrer Religion und das damit nicht konforme Denken wird erst ausgegrenzt, dann verpönt und schließlich unter Strafe gestellt und geahndet – Ungläubige werden identifiziert, zu Ketzern erklärt. Im Mittelalter wurde so was in Europa unter dem Jubel der Masse auf Scheiterhaufen verbrannt.

Ich habe den merkwürdigen Eindruck, dass wir ohne auf diese Lehre aus unserer Vergangenheit zu achten, heutzutage feste dabei sind, diesen alten Holzweg neu zu beschreiten. Und Alle machen mit. Oder zumindest fast Alle.

Ja es ist ganz lustig, da machen sogar die mit, die es eigentlich aus eigenem Verständnis nicht tun sollten.

Da stellen sich z.B. bedeutende Wirtschaftsunternehmen, deren aktenkundiger Geschäftszweck die profitable Produktion und der steigende Absatz von Energie ist, an die Spitze von Energie-Einsparungsaktionen.

Da ist ungefähr so, als ob Volkswagen anstelle einer Abwrackprämie eine „Auto-Vermeidungsprämie“ fordern würde.

OK, das war nicht fair. Also Spaß beiseite, kommen wir auf unseren Politiker vom Anfang zurück.

Ich fragte ihn weiter, was denn das Richtige sei, was „unseren Menschen“ beigebracht werden müsse, was sie aus Unkenntnis denn nicht verstünden?

Nun, er rückte mit der Forderung nach Umweltschutz raus. Und letztlich warf er das Menetekel der Erschöpfung aller fossilen Energieträger, Gas, Kohle, Erdöl in die Wagschale seiner Argumente, beklagte das mangelnde Bewusstsein der „Verbraucher“ was den Einsatz von Energie betrifft und die mangelnde Energieeffizienz der heutigen Technik.

Hm. Dagegen kann man ja nun wahrlich nichts sagen!

Umweltschutz ist immer gut, Energieeffizienz auch. 

Doch fangen wir nochmals von Vorne an.

Die Erde ist ein relativ offenes System und gleichzeitig auch ein relativ geschlossenes.

Offen, was die energetische Wechselwirkung mit dem Kosmos, insbesondere mit unserer Sonne betrifft, geschlossen, was den Kreislauf von mit Masse behafteten Stoffen betrifft.

Insofern werden wir unentwegt mit einer (im Vergleich zu unserem Verbrauch) riesiger Menge an Energie „bombardiert“, die auch praktisch gleichzeitig unseren Planeten fast wieder vollständig verlässt. Das, was zeitweilig als Rest hier bleibt, heizt einerseits den Planeten und dessen Atmosphäre auf das uns heute bekannt Maß als Gleichgewichtszustand auf. Andererseits speichern Gesteine, Wasser, Luft, Pflanzen und Tiere die ankommende Sonnenenergie in ganz verschiedenen Formen und Zeiträumen.

So weiß man, dass Kohle gespeicherte Sonnenenergie in Form verrotteter Pflanzen ist. Bei Erdöl und Gas weiß man es – und das ist auch wiederum ganz verblüffend – nicht so ganz genau. Ja natürlich, in der Schule lernt man, dass dies auch nur Produkte aus Pflanzen- und Tierresten sind. Aber auch hier werden durchaus ernste Zweifel angemeldet. Und mir ist bekann, dass Ölfirmen in Tiefen bohren, in denen die „biologische“ Entstehungstheorie große Mühe hat, die gefundenen Vorkommen zu begründen. 

Auch der heute meist verwendete Brennstoff für unsere Atomkraftwerke ist nichts anderes als ein Energiespeicher – allerdings stammt dessen Energiegehalt aus ganz frühen Anfängen des Sonnensystems, bzw. des uns bekannten Kosmos.

Egal. Dem vernünftigen Menschen leuchtet ein: Wenn der Tagebau leer ist, ist er leer und neue Kohle kommt da nicht wieder rein – jedenfalls nicht zu unseren Lebzeiten. Kurz die Endlichkeit fossiler Energieträger ist zumindest ein richtiger Denkansatz, wenngleich die Zeiträume bis zur Erschöpfung nicht kurz sein werden, wie immer mal wieder panisch gewarnt – aber das ist prinzipiell unwichtig.

Das Problem, vor dem wir hier stehen ist, dass die Stoffkreisläufe (der Kohlenstoff-Kreislauf), die zur Bildung von Kohlenstoff-Reserven in Form fossiler Träger führen, in riesigen Zeiträumen stattfinden, angetrieben durch die Sonnenenergie. Wir aber greifen mit unserer Energiegewinnung und den damit verbundenen Stoff- und Energiewandelungsprozessen nur in einem klitzekleinen Zeit-Ausschnitt massiv ein. Wir erzeugen damit diskontinuierlich Prozess-Produkte in Spitzenkonzentrationen, die uns in den kurzen Zeitspannen ihrer Freisetzung, gemessen am langen Zeitraum ihrer Entstehung eben Probleme bereiten. 

Kurz: Wenn wir davon ausgehen, dass die wirkliche Herausforderung nicht das sich völlig unabhängig von der Tätigkeit des Menschen ständig durch kosmische Kräfte verändernde Wetter (hier als statistische Größe Klima genannt) ist, sondern die umweltschonende Bereitstellung von Energie für die zivilisatorische und kulturelle Entwicklung der gesamten Menschheit auf der Erde, dann sind wir wieder völlig beieinander.

Wir können das Klima nicht schützen und das Wetter (Temperatur, Luftdruck, Luftfeuchte, Wolken, Niederschlag usw.) wahrscheinlich global auch nicht beeinflussen, ganz sicher aber die Umwelt. Und Beides sind völlig verschiedene Sachen.

Ein Freund sagte mir vor kurzem mit Blick auf diese unsägliche CO2-Hysterie: wir haben kein CO2-, sondern ein C-Problem: Wir verfeuern derzeit kostbare und vielleicht tatsächlich endliche, sehr billige und gut verfügbare C-Träger, die wir viel besser für Chemieindustrie und Pharmaherstellung verwenden könnten. Das ist – bei dieser Gelegenheit gesagt, auch wahr und ein bisschen beschämend, wenn uns außer Verbrennung nichts Besseres für diesen Schatz einfällt.

Also dreht sich alles um eine zukunftsfähige, die Umwelt nicht negativ beeinflussende, weltweite, unsere Kohlenstofflager schonende, ausreichend große Energieproduktion.

Energie, die wir dringend benötigen.

Energie, deren Verbrauch nicht deswegen steigen wird, weil die „armen Länder“ auch eben nur mal so viel konsumieren wollen wie wir, sondern weil sich das Kulturniveau aller Menschen anheben und auf hohem Niveau über die ganze Erde hinweg ausgleichen wird.

Es ist gerade die Energieproduktion, die wir nicht mehr „abstellen“ können, weil sie der Antrieb und die Grundlage für unsere zivilisatorische Entwicklung geworden ist. Energie sinnvoll einzusetzen ist die eine Seite, d.h. alle Entwicklungen, die energieeffizientere Technologien (Produktion, Verkehr, Logistik und Verbrauch) zum Ziel haben, sind richtig im ethischen Sinn und dies ist sicher auch eine große Chance für viele mittelständische Unternehmen.

Aber es geht auch um alternative Energieproduktion, um Energietransport und Speicherung, um den zukünftigen Energiehunger der Weltbevölkerung zu stillen. Und dieser „Hunger“ darf nicht als negative Forderung verstanden werden, sondern als Herausforderung an Wissenschaft und Technik.

Denn dieser „Energie-Hunger“ ist der messbare Ausdruck unserer kulturellen Fortentwicklung. So, wie der Hunger eines menschlichen Individuums nach energiereicher Nahrung Ausdruck des Energieverbrauchs seines Körpers und insbesondere seines Gehirns ist.

Kommen wir noch kurz auf die scheinbare Lösung des Energieproblems durch Kernfusion.

Wahrscheinlich werden wir in wenigen Jahren in der Lage sein, ein solches Kraftwerk zu bauen und in Betrieb zu nehmen. Es würde eine riesengroße Menge an Elektroenergie produzieren. Aber es löst zwei Probleme nicht: den verlustreichen Transport von Elektroenergie über große Entfernungen und die Aufheizung der Erde – nicht durch atmosphärische Spurengase – sondern durch tatsächliche Aufheizung des Mantels infolge einer Energieproduktion zusätzlich zur (gespeicherten oder ständig einfallenden) Sonnenenergie, mit der unsere Erde im Gleichgewicht steht, auch wenn wir sie in Energie-Umwandlungsprozesse einbeziehen und Arbeit verrichten lassen. Außerdem würden nur wenige Kraftwerke an zentralen Stellen nötig und finanziell möglich sein.

Wer garantiert dann bei der heutigen politischen Weltlage die Durchleitung und den sicheren Betrieb?

Also vergessen Sie die Kernfusion. Lassen Sie sich von der Sonne „erleuchten“.

Hier hat die Natur nur leider ein großes Problem für uns parat: die Energiedichte ist sehr klein – zu klein für die heutige Technologie der Sonnenenergiegewinnung. Und zu allem Verdruss gibt es sowohl Tag und Nacht und Wolken, Sturm und Windstille. Da Wind und fließendes Wasser, aber auch Pflanzen ja auch nichts Anderes als Energie-Träger der Sonnenenergie sind, ist bei allen diesen Sachen die Herausforderung gleich und mit heutigen technischen Mitteln ist nur die Wasserkraft sinnvoll im Sinne von Aufwand und Nutzen und kontinuierlicher Verfügbarkeit im Vergleich zu Kohle, Erdöl, Gas und Uran.

Anstatt also Milliarden und aber Milliarden zu verschwenden, um 100-Watt-Glühlampen zu verbieten und CO2-Abgase in Bergbaustollen zu verstecken, anstatt teure Silizium-Platten auf Scheunendächern zu entsorgen und Landschaften mit hässlichen Windmühlen zu verschandeln, deren Existenz allein von der gewaltigen Subventionierung durch den Steuerzahler abhängt, muss es eine Rückkehr zur wissenschaftlichen und ingenieurtechnischen sowie zur wirtschaftlichen und letztlich politischen Vernunft geben.

Es muss tatsächlich alles daran getan werden, die auf die Erde einfallende Sonnenenergie als praktisch unerschöpfliche und riesige Energiequelle „anzuzapfen“. Aber leider scheinen eben die heute eingesetzten Technologien dafür nur bedingt geeignet zu sein.

In diesem Zusammenhang muss auch Alles auf den Prüfstand, was mit dem heutigen Energie-System in Verbindung steht und was Ideen für die Zukunft liefern könnte. Zum Beispiel halte ich es für sehr angebracht darüber nachzudenken, ob es nicht besser wäre, statt der kontinuierlichen, zentralen Energieerzeugung eine verbrauchsabhängige, also variable, dezentrale Erzeugung „vor Ort“ zu bevorzugen.

Dies würde ganz andere Denkansätze und Technologien bei Erzeugung, Transport und Speicherung ermöglichen. Also werden wir auch die Frage stellen: ja, muss es denn Strom sein, den wir zentral erzeugen und über Drähte transportieren, ohne ihn wirklich sinnvoll speichern zu können, oder könnte man mit dem Energieträger Gas (Wasserstoff) nicht viel besser auskommen und umgehen?

Aber alle diese Fragen können nur beantwortet werden, wenn wir nicht mit Demagogie, nicht mit einem machtpolitisch motivierten Schwindel, nicht mit einer wissenschaftlichen Fälschung argumentieren. Und wir sollten uns auch volkswirtschaftlich nicht in die Tasche lügen.

Denn eines ist sicher: es wird herauskommen!

Es wird herauskommen – und der Verdacht des Betruges keimt bereits -, dass die natürlichen und permanenten Veränderungen des Klimas nicht wesentlich von unserem CO2-Eintrag abhängig sind und dass alle darauf bauenden Argumente und Folgerungen falsch sind.

Dies wird die Glaubwürdigkeit der Naturwissenschaft und der Politik dermaßen massiv untergraben, dass notwendige und richtige Ansätze zur Revolution der Energiesysteme nicht mehr ernst genommen werden. Und dann, meine Freunde, dann haben wir ein richtiges Problem!

Im Gegensatz zu meinem Politiker, der mir die Stichworte für diesen Vortrag geliefert hat, glaube ich nämlich fest daran, dass nur mit der Wahrheit und nur mit ihr und nur, wenn wir uns als vernünftige Wesen auch vernünftig über die großen Fragen streiten und einigen, nachhaltig die Existenz und Entwicklung unserer Zivilisation geschützt werden kann. 

Insofern freue ich mich auf die durch hocheffiziente Photosynthese-Werke gestützte, flexible Wasserstoff-Energiewirtschaft der Zukunft, die das Wort „Knappheit“ nicht mehr kennt.

Prof. Dr. Knut Löschke Leipzig

Der Vortrag erschien in leicht gekürzter Form zuerst bei der Partei der Vernunft




Arktische Sommereisschmelze – Ein Menetekel für eine bevorstehende anthropogene Klimaerwärmung?

Dennoch macht vielen unserer Mitmenschen das nachfolgende Bild Sorgen, oder es wird versucht, damit Sorgen auszulösen.

Die Abbildung 1 zeigt die arktische Seeeisentwicklung zum 15.07.2010 im Vergleich der Jahre 2002 – 2009. Es ist unschwer zu erkennen, dass in 2010 in den vergangenen Wochen, die dortige Eisschmelze noch größere Ausmaße eingenommen hat, als im Rekordschmelzjahr 2007 im (kurzen) Vergleichszeitraumes 2002 – 2010. Quelle: (http://arctic-roos.org/observations/satellite-data/sea-ice/ice-area-and-extent-in-arctic)

 

Die Verfechter des anthropogenen Klimawandels machen für diese Eisschmelze anthropogen ausgebrachte THG´s (Treibhausgase) verantwortlich. Allen voran, Kohlenstoffdioxid (CO2), insbesondere, weil der Faktor, der von den Klimarealisten als einzig entscheidender Faktor für das Klimasystem Erde angeführt wird, die Sonne, derzeit eine „Pause“ einlegt, und eine vergleichsweise geringe Aktivität zeigt, CO2 aber nach wie vor ansteigend ist. EIKE wird Ihnen aufzeigen, dass zum einen, das Klimageschehen etwas komplexer ist und auf deutlich mehr Faktoren beruht, als uns das IPCC und deren Verfechter weismachen wollen und zum anderen, die Sommereisschmelze, auch die (scheinbar) beschleunigte Sommereisschmelze in 2010, die obiges Bild zeigt, allein auf natürlichen Ursachen beruht und dass es mit einem (vermeintlichen, auf kurzen Zeitspannen) Eisrückgang in der arktischen Seeeisbedeckung bald vorbei sein wird.

 

Die Abbildung 2 zeigt die solare Aktivitätskurve anhand des TSI (Total Solar Irradiance) im Zeitraum von 1980 – Juli 2010, Quelle: (ftp://ftp.pmodwrc.ch/pub/data/irradiance/composite/DataPlots/comp06_ext_d41_62_1005.pdf). Derzeit ist die Sonne in einer sog. ruhigen Phase.

 

Die Abbildung oben zeigt, dass der aktuelle 24. Sonnenzyklus nicht recht beginnen will und bis jetzt sehr schwach ausgefallen ist, was als Erklärung für die in 2010 beobachtete verstärkte Eisschmelze in Abbildung 1 gegenüber den Vorjahren nicht herangezogen werden kann.

 

Nun ist bekannt, dass die Sonne bis zum Jahr 2003 ihr langjähriges Maximum im Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus hatte. 2003 war denn auch das Jahr, in dem in Mitteleuropa Rekordtemperaturen in einem „Jahrhundertsommer“ zu verzeichnen waren, der fälschlicherweise seinerzeit von großen Teilen der Medien dem anthropogenen Klimawandel zugeschrieben wurde (Abbildung 3).

 

Die Abbildung 3 zeigt die Temperaturanomalien im “Hitzesommer“ in Europa vom August 2003, Quelle: Hadley Center. Die Temperaturanomalien beziehen sich dabei im Vergleich auf das späte 19. Jahrhundert.

 

Die Abbildung 4 zeigt, wie sich die magnetische Aktivität der Sonne mit dem Hauptsonnenzyklus, bei dem es sich vorwiegend um einen magnetischen Zyklus handelt, im 20. Jahrhundert änderte. Obwohl der bekannte Sonnenzyklus, der im Mittel 11-jährige Schwabe-Zyklus in 2003 bereits abgefallen war, befand sich die magnetische Aktivität und damit die Aktivität der Sonne in ihrem Maximum. So waren beispielsweise im Oktober 2003 in Deutschland Polarlichter zu sehen, was den Sonnenforscher der Uni Göttingen, Dr. Volker Bothmer, zu der Aussage veranlasste, dies sei normalerweise nicht möglich, dann müsse auf der Sonne Sturm herrschen. Die ESA bezifferte die Schäden an Satelliten, die durch die hohe solare Aktivität entstanden, auf nahezu 400 Mio. €. Noch in 2005 titelte der Sonnenforscher der NASA, David Hathaway: “Das Solare Minimum sieht seltsamerweise aus wie ein solares Maximum.“ (http://www.astrolabium.net/archiv_science_nasa/science_nasa_september2005/16-9-2005.html). Mit dem solaren Minimum ist das solare Minimum im Schwabe-Zyklus gemeint.

 

 

Die Abbildung 4 zeigt die Änderung der magnetischen Stürme auf der Sonne von 1867 bis 2007 (blau, die grüne Linie zeigt den Trend von 1900 – 2005) und den 11-jährigen Schwabe-Zyklus. Es ist deutlich erkennbar, dass der Schwabe-Zyklus und der Gleißberg-Zyklus (Maximum während dem 19. Schwabe-Zyklus), der den Schwabe-Zyklus antreibt, zwar mit den relativen Maxima der magnetischen Stürme korreliert, nicht aber mit deren steigender Tendenz. Diese steht in Relation zum de Vries/Suess-Zyklus. Ergänzt nach Quelle: British Geological Survey (http://www.geomag.bgs.ac.uk/earthmag.html). In der kleinen Abbildung, in der die 3 letzten Schwabe-Zyklen dargestellt sind, ist gut zu sehen, wie mit dem Anstieg des de Vries/Suess-Zyklus die magn. Aktivität der Sonne stark zunimmt. Hierzu sind die hochenergetischen Protonen, die als Maß dienen, als rote Balken eingezeichnet (Quelle: NOAA Space Environment Center).

 

Wie passt dies nun zusammen, der TSI zeigt eine zurückgehende (2003), bzw. schwache solare Aktivität (2005) und die magnetische Aktivität, die exorbitante Energiemengen zur Erde schleudert, hat ihr Maximum. Die Antwort ist gänzlich einfach. Das Messgerät auf den Satelliten, die den TSI aufnehmen, hat lediglich ein energetisches Sichtfenster von 200 nm (UVB) – 2.000 nm (IR). Also die Bereiche, die bis zur Erdoberfläche gelangen. Weite Teile des solaren Energiespektrums, vor allen die Bereiche, die extrem variabel sind, werden gar nicht erfasst. Unser Wetter wird aber nicht auf der Erdoberfläche „gemacht“, sondern in der Tropos- und Stratosphäre, bzw. durch den Svensmark-Effekt (EIKE berichtete mehrfach darüber) und hier wirkt das gesamte solare Energiespektrum. Insofern handelt es sich beim TSI um eine Mogelpackung, da von „total“ keine Rede sein kann.

 

Der berühmte Meeres- und Klimaforscher Prof. Mörner (1999-2003 Präsident der INQUA-Kommission zur Meeresspiegelveränderung und Küstenentwicklung) hat untersucht, wie sich die arktische Seeeisbedeckung in den vergangenen 600 Jahren änderte (Abbildung 5).

 

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt die Abbildung 5, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde von mir um den de Vries/Suess-Sonnenzyklus ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus).

 

Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus (Abbildung 6). Bei Sonnenminima erlebten Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung 5 zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist.

 

Die Abbildung 6 zeigt die 30-jährig gleitende Temperaturkurve von 1701 – 2000. In der Temperaturkurve ist der 208- jährige de Vries/Suess – Zyklus abgebildet. Der de Vries/Suess – Zyklus hatte in 2003 sein Maximum, als die Temperaturen ihren Höchststand erreichten. Das letzte Temperaturmaximum war in den 90er-Jahren des 18. Jahrhunderts, genau im Maximum des de Vries/Suess – Zyklus. Anmerkung: Nach dem Maximum in der solaren Aktivität zu Beginn des Jahrtausends fallen die Temperaturen deutlich (kleines Bild).

 

Obwohl die Untersuchungen von Prof. Mörner zeigen, dass die arktische Seeeisbedeckung zyklisch ist und damit auf natürliche Ursachen zurückzuführen ist und mit dem Hauptsonnenzyklus korreliert, erklärt auch die magnetische Aktivität der Sonne (noch) nicht den diesjährigen Eisrückgang, bzw. den, der letzten Jahre, da die magnetische Aktivität der Sonne seit 2005 vergleichsweise schwach ist. Das Wetter/Klima ist eben nicht so einfach zu verstehen, wie z.B. ein Prof. Schellnhuber und einige Politiker uns Glauben machen wollen: CO2 hoch – Temperatur hoch (Eisbedeckung runter), CO2 runter – Temperatur runter (Eisbedeckung hoch), zumal die globalen Temperaturen seit 10 Jahren deutlich fallen und das CO2 weiter ansteigt. Es also keine Korrelation zwischen CO2 und der Temperatur gibt.

 

Unsere Erde, deren Oberfläche ist zu über 70% mit Wasser bedeckt. Wasser ist bekanntlich ein hervorragender Wärmespeicher und wird nicht umsonst im Heizungen zum Wärmetransport und Wärmespeicherung benutzt. So liegt es nahe, dass das Klimasystem, auf Grund der in den Ozeanen gespeicherten Energie, einen Nachlauf gegenüber der solaren Aktivität aufweist. Dies konnten verschiedene Forschergruppen beweisen, von denen ich Ihnen zwei Charts vorstellen möchte (Abbildung 7 und 8).

 

Die Abbildung 7 zeigt die zeitliche Reaktion der Temperatur zur Sonnenaktivität (Trägheit des Klimasystems), Quelle: SPPI – Science & Public Policy Institute nach Scafetta und West, Duke University. Die Temperatur fällt zeitversetzt mit der Sonnenaktivität, was vor allem auf die gespeicherte thermische Energie in den Ozeanen zurückzuführen ist.

  

Der geniale Sonnen- und Klimaforscher Prof. Solanki (“Solar activity over the last 1150 years: does it correlate with climate”) untersuchte den Zusammenhang der solaren Aktivität mit der der Temperatur über die letzten 1150 Jahre. Seine Untersuchungen zeigten, dass die Sonnenflecken in der Langzeitbetrachtung dem Klima im Mittel um 10 Jahre vorauslaufen (Abbildung 8), also das Klima den Sonnenflecken hinterher.

 

 

Es darf als gesichert angesehen werden, dass Herr Prof. Solanki mit seinen Untersuchungen der Realität sehr nahe kommt. Aber warum kommt es gerade in 2010 zu einem stärkeren Eisrückgang als in den letzten 10 Jahren, zumindest Stand 07.07.2010. Die Antwort liefert die Abbildung 9.

 

Die Abbildung 9 zeigt die zyklische AMO*) im Zeitraum von 1981 – Juli 2010 im Nordatlantik (0° – 70°N).

 

*)   AMO (Atlantic MultiDecadal Oscillation) ist eine zyklische Temperaturschwankung der Oberflächentemperaturen im Nordatlantik. Dabei wechseln sich in einem Rhythmus von ca. 35 Jahren Warm- und Kaltphasen, ohne Beeinflussung durch den Menschen ab. Die AMO steht in starker Korrelation mit den arktischen Temperaturen, wie die Abbildungen 10 und 11 zeigen.

 

Die Abbildung 10 zeigt die arktischen Temperaturschwankungen im Zeitraum von 1880 – 2000. Deutlich ist ein Schwingverhalten zu erkennen, welches mit der AMO (Abbildung 11) übereinstimmt.

 

Abbildung 11 zeigt die AMO von 1856 – 2007. Während der Phasen einer positiven AMO liegen die arktischen Temperaturen deutlich über dem Mittelwert (Abbildung 10).

 

Doch nicht nur mit den arktischen Temperaturen und der arktischen Seeeisbedeckung (wie noch gezeigt wird), sondern auch mit der Gletscherentwicklung in den Alpen steht die AMO in direktem Zusammenhang, wie die Abbildung 12 zeigt.

 

Die Abbildung 12 zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2005, Quelle: Slupetzky, 2005, Uni Salzburg. Es ist gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß folgt und das es in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen gab, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild).

 

Die Abbildung 12 zeigt, dass während einer positiven AMO-Phase, ein deutlicher Gletscherrückgang zu verzeichnen ist. Nun lässt sich auch die Abbildung 9 „lesen“. Der bis Juli 2010 deutliche Eisrückgang ist auf die starke AMO in 2010 zurückzuführen, die 2009, als die Eisschmelze im Sommer „schwächelte“, negativ war.

 

Da es sich bei der arktischen Seeeisbedeckung nicht um akkumulierte Schneefälle, sondern um gefrorenes Wasser handelt, kann es niemanden verwundern, dass die Eisschmelze in wärmerem Wasser (positive AMO = Warmphase) verstärkt auftritt und dies umso mehr, je positiver die AMO ist. 2010 ist die Spitze der AMO zwar etwa gleich hoch wie 2007, dennoch ist davon auszugehen, dass die diesjährige Eisschmelze nicht die Ausmaße von 2007 annehmen wird, da 2007 nach einer kumulierten Phase von mehreren Maxima der AMO liegt und 2010 nicht.

 

Dass vorrangig die zyklische AMO für die verstärkte Eisschmelze in der Arktis verantwortlich ist, möchte ich Ihnen weiter anhand der nachfolgenden Abbildungen zeigen.

 

 

Die Abbildung 13 zeigt die Temperaturabweichungen in der Arktis (rot) und der Antarktis (blau) im Zeitraum von 1979 – 2009 (Quelle: http://www.appinsys.com/GlobalWarming/GW_4CE_ PolarIceCaps.htm). Während die Temperaturschwankungen bis in die 1990-Jahre synchron verlaufen, beginnt sich ab 1994 das Temperaturverhalten in der Arktis von dm der Antarktis abzukoppeln. Die Arktis beginnt sich zu erwärmen. Wird diese Erkenntnis mit der AMO und den Abbildungen 10 und 11 verglichen, so wird ersichtlich, warum die Abbildung stattfand. Ab 1995 beginnt die positive Phase der zyklischen AMO. Mit dem Abkoppeln der Temperaturwerte und der positiven AMO beginnt denn auch synchron die beobachtete Eisschmelze in der Arktis, weil es dort wärmer wird.

 

 Die Abbildung 14 links zeigt die Abweichungen der arktischen Eisbedeckung (schwarz) und der antarktischen Eisbedeckung (grün). Mit einer zeitlichen Zerzögerung von ca. 2 Jahren zur positiven AMO, berinnt 1997 in der Arktis die verstärkte Eisschmelze und beide Datenreihen beginnen, sich voneinander abzukoppeln. Die verstärkte arktische Eisschmelze wird denn auch noch wenige Jahre andauern, bis die positive AMO wieder in ihre zyklische negative Phase (Kaltphase) eintritt.

 

Wie unmittelbar die arktische Eisentwicklung von den Oberflächentemperaturen (und damit von der zyklischen AMO) abhängt, geht aus den beiden nächsten Abbildungen hervor.

 

Die Abbildung 15 links zeigt die SST-Anomalien im arktischen Ozean, also die Abweichungen der dortigen Oberflächentemperaturen im Zeitraum von 1980 – 2009 und die Abbildung rechts die arktische Eisentwicklung (schwarz) und dazu invertiert, die SST-Anomalien. Es kann nicht verwundern, dass das arktische Eis, welches überwiegend aus schwimmendem Eis besteht, direkt von den SST-Anomalien abhängt.

 

Über diese Erkenntnisse hinaus, welche die arktische Eisschmelze prinzipiell erklären, gibt es nach Angaben von Prof. Dr. Heinrich Miller (stellv. Direktor des Alfred-Wegner-Instituts) zwischen der Arktis und der Antarktis auf längeren Zeitskalen eine Kippschaukel, d.h. zeigt die Antarktis Eiszunahme so liegt in der Arktis eine Eisschmelze und umgekehrt vor. Globale Meeresströme transportieren dabei gewaltige Wärmemengen von Pol zu Pol und treiben diese Klimaschaukel an. Ihre Erkenntnisse wurden im Rahmen des europäischen Bohrprojekts Epica (European Project for Ice Coring in Antarctica) gewonnen und im November 2006 veröffentlicht. Die Daten der Arktis und Antarktis konnten dabei über im Eis eingeschlossene Luftbläschen und den darin enthaltenen Spurengasen abgeglichen werden.

 

Zur starken AMO kommt weiter, dass in 2009 und Anfang 2010 ein starker El Niño vorlag, wie die Abbildung 16 zeigt.

 

Die Abbildung 16 zeigt die ENSO (El Niño 3.4-Sektor) und einen starken El Niño zwischen Oktober 2009 und März 2010.

 

Zu den El Niño-Auswirkungen auf die Gebiete Europas, Asiens und der Arktis hat Prof. Brönnimann (ETH Zürich) anhand von Untersuchungen nachgewiesen, dass es in den 40er Jahren des 20. Jahrhunderts über mehrere Jahre eine ungewöhnlich hohe Temperaturschwankung gab, die auf El Niño-Effekten beruhte. Aus alten meteorologischen Messdaten konnte er die atmosphärischen Verhältnisse auf der Nordhalbkugel zu Beginn der 1940er Jahre rekonstruieren. Die Temperaturanomalien sind in folgender Abbildung vom ihm aufgetragen. Die Ergebnisse sind in Abbildung 17 festgehalten.

 

Die Abbildung 17 zeigt die Temperaturabweichungen gegenüber dem Durchschnittswert der Jahre 1961 – 1990 für die untere Atmosphäre (unten) und der Stratosphäre (oben), gemittelt von Januar 1940 – Februar 1942. Die Abbildungen dokumentieren eine großräumige Klimaanomalie, die mit einer ungewöhnlich dicken Ozonschicht verbunden ist (Quelle: Spektrum der Wissenschaft 03/05, S. 20). Die Farbskala gibt die Temperaturdifferenzen im Vergleich zu einem Referenzwert an (Grafik: Prof. Brönnimann). In der Stratosphäre (oben) ist die Luft über der Arktis wärmer, der Polarwirbel schwächer und die Ozonschicht dicker als üblich. Auch das Klima auf der Erdoberfläche war außergewöhnlich: Extreme Kälte in Mittel- und Osteuropa, mildes Wetter in Alaska und Teilen des arktischen Gebietes (den Flächen, für die Daten vorliegen – vor Grönland) und frostige Kälte im Nordpazifik. Dies erinnert uns doch sehr an den vergangenen Winter (siehe auch Untersuchungen von Hansen, zu den Auswirkungen der AO, weiter unten im Text)! Vergleicht man weiter mit der Abbildung 10 und 11, so ist festzuhalten, dass seinerzeit auch die AMO eine deutliche positive Spitze aufweist und die arktischen Temperaturen hoch sind.

 

Bleibt denn noch eine Frage offen, warum die Eisschmelze gerade an den Orten in der Arktis stattfindet, an denen sie stattfindet.

 

Bisher wurde lediglich ein physikalisch/chemischer Faktor betrachtet, der für Schmelzvorgänge von Wasser verantwortlich ist, die Wärme. Wie jeder von uns aus eigener Erfahrung weiß, bestimmt aber nicht nur die Temperatur des Eises oder des Wassers den Schmelzpunkt, bzw. Gefrierpunkt, sondern auch dessen chemische Zusammensetzung. So ist jedem bekannt, dass im Winter die Straßen mit Salz gestreut werden, weil Salz den Gefrierpunkt herabsetzt. Meerwasser ist bekanntlich salzhaltig. Sein Salzgehalt ist nicht konstant, sondern er variiert (Abbildung 18).

 

Die Abbildung 18 zeigt den Salzgehalt der Meere. Das Mittelmeer hat z.B. einen Salzgehalt von 38 ppt (parts per thousend). Dies entspricht einem Salzgehalt von 3,8%. Der niedrigste Salzgehalt findet sich mit 32 ppt vor Alaska und der höchste im roten Meer mit 40 ppt. Das Tote Meer hat sogar einen Salzgehalt von 24%. Für den arktischen Ozean liegen in dieser Abbildung keine Daten vor.

 

Der Salzgehalt variiert aber nicht nur über die Meere, sondern auch über die Zeit. Zu den eingehend geschilderten zyklischen Schwankungen des Wärmeeintrages in den arktischen Ozean hat ein Forscherteam von NASA und Hochschulwissenschaftlern der Universität von Washington eine Dekadenschwingung ermittelt (http://www.nasa.gov/vision/earth/lookingatearth/ipy-20071113.html), die durch die atmosphärische Zirkulation AO (Arktische Oszillation)  ausgelöst wird und das arktische Klima massiv beeinflusst.

 

AO: Entgegen der AMO, die für Schwankungen in der Meeresoberflächentemperatur steht, ist die AO, wie übrigens auch die bekanntere NAO (Nord-Atlantik-Oszillation), ein normierter Druckunterschied zwischen zwei oder mehr ausgesuchten Orten, die weit auseinander liegen und daher eine großräumige Schwingung darstellen. So bewirkt z.B. eine positive AO, auf Grund der damit verbundenen Luftströmungen, ein Aufstauen von kalter Luft über der Arktis, was nach Prof. Hansen für den kalten Winter 2009/2010 verantwortlich ist (http://www.columbia.edu/~jeh1/mailings/2010/20100127_TemperatureFinal.pdf).

 

Die Forscher um Prof. Dr. James Morison (Polar Science Center – PSC) geben an, dass diese Schwingung und die damit verbundenen Klimaschwankungen nichts mit einer anthropogenen globalen Erwärmung zu tun haben. Sie stellen weiter fest, dass die arktischen Meeresströmungen, angetrieben durch Luftmassenzirkulationen, die Verteilung von Wärme und Salzgehalt verändern. Die AO steht dabei in direktem Zusammenhang mit der Meereisbedeckung. James Morison: "The winter of 2006-2007 was another high Arctic Oscillation year and summer sea ice extent reached a new minimum."

 

Das Forscherteam um James Morison fand heraus, dass sich (durch die geänderten Meeresströmungen) der Salzgehalt des arktischen Ozeans seit 2002 deutlich geändert hat (Abbildung 19).

 

Die Abbildung 19 links zeigt die Trendkonturen des Druckes der arktischen See im Zeitraum von 2002 – 2006, verglichen mit dem Referenzwert der 1990-Jahre. Der Druck steht im direkten Zusammenhang mit dem Salzgehalt, weil die Änderung des Wasserdrucks durch die im Wasser gelösten Stoffe – Salz – bestimmt wird. D.h. eine Erhöhung des Druckes ist gleichbedeutend mit einer äquivalenten Erhöhung des Salzgehaltes – je höher der Druck, desto höher der Salzgehalt. Die Messungen entstanden mit GRACE. GRACE ist ein Gemeinschaftsprojekt der NASA und des DLR (Deutsches Zentrum für Luft- und Raumfahrt). Die Abbildung 19 rechts zeigt die sich veränderte Eisbedeckung im Zeitraum von 1979 – 2005, wobei die Eisschmelze in den 2000-Jahren vergleichsweise hoch ausfiel, Quelle: NASA. Werden beide Abbildungen miteinander verglichen, wird sofort ersichtlich, dass die Regionen, die eine hohe Eisschmelze zu verzeichnen haben, überwiegend auch die Regionen sind, in denen sich der Salzgehalt des Meerwassers erhöht und damit der Schmelzpunkt des Eises herabgesetzt wurde, d.h. die Eisschmelze bereits bei tieferen Temperaturen eintritt, bzw. bei höheren Temperaturen verstärkt stattfindet, mit einer großen Eisschmelze in der Fläche.

 

Neben dem natürlichen Salzgehalt des arktischen Ozeans, gibt es noch einen weiteren Faktor, der den Schmelzpunkt von Wasser beeinflusst. Es ist die Schadstoffeinbringung in den arktischen Ozean, insbesondere durch die großen sibirischen Flüsse. Zu der Problematik der Schadstoffeinbringung wird im ACIA-Report 2008 (Impacts of a warming Arctic) auf S. 106 eingegangen. Da durch die Verteilung der Landmassen, im arktischen Meer nur ein vergleichsweise geringer Wasseraustausch mit dem Atlantik und dem Pazifik stattfindet, kommt es zu Schadstoffkumulationen. Darüber hinaus werden chemische Verbindungen in kaltem Wasser (da chemische Reaktionen im Allgemeinen bei Kälte langsamer ablaufen) deutlich langsamer abgebaut, was jeder am Beispiel von Tankerunfällen weiß.

 

Über die großen sibirischen Flüsse fließt jährlich die gewaltige Menge von ca. 4.000 km3 Wasser in den arktischen Ozean. Wie bereits in Abbildung 19 rechts gesehen, befindet sich die in der Fläche größte Eisveränderung vor den russischen Küstengebieten, die mit einem vergleichweise hohen Salzgehalt korrelieren. Gut ist dies in den beiden nächsten Abbildungen zu sehen.

 

Die Abbildung 20 links zeigt die arktische Eisausdehnung im September 1979, kurz nach der Kaltperiode der 1960 -1970 Jahre, als das Schreckgespenst der drohenden Eiszeit durch Politik und Medien ging und die Abbildung rechts die arktische Eisausdehnung im September 2005. Beide Abbildungen werden gerne von den Verfechtern des anthropogenen Klimawandel benutzt, um einen dramatischen Eisrückgang aufzuzeigen, aus dessen Grund, politische Entscheidungen zur Reduzierung von THG´s unabdingbar seien, was, wie geschildert, Unfug ist.

 

Die globale Erwärmung soll danach für den deutlichen Rückgang der Eismassen und Eisflächen in den letzten 30 Jahren verantwortlich sein. Schauen wir uns daher die beiden o.g. Abbildungen genauer an. In Abbildung 21 sind die Eisrückgangsflächen unterteilt und als Orientierung zu den Küstenbereichen (zum Vergleichen) markiert.

 

In der Abbildung 21 links ist zu sehen, dass bereits 1979, nach einer Kälteperiode! das Eis vor dem Mündungsgebiet der Lena zu schmelzen beginnt, die für ihre Verschmutzung bekannt ist. In der rechten Abbildung der Eisentwicklung in 2005 ist gegenüber der Lena eine deutliche Einbuchtung in die Eisfläche zu sehen.

 

Zur Rolle der Wasser- und Seeeismassen schreiben die Verfechter des anthropogenen Klimawandels, Prof. William Collins, Robert Coman, James Haywood, Martin R. Manning und Philip Mote in S.d.W 10/07, S. 72 – 81 (“Die Wissenschaft hinter dem Klimawandel“): “Im Meer zeigen sich deutliche Erwärmungstrends, die sich erwartungsgemäß mit der Tiefe abschwächen“ und weiter “Das Meer erwärmt sich wegen seiner großen thermischen Trägheit langsamer“.

 

Analysiert man das Meeresprofil, die Tiefen (Abbildung 22) und das damit verbundene Wasservolumen und setzt beides in Korrelation zur obigen Aussage, so ist festzustellen, dass die Eisrückgangsflächen A1, A3 und A4 alle im Flachwasserbereich liegen und somit die These stützen, dass diese durch Erwärmung verschwanden, da sich das Flachwasser entsprechend seiner geringeren Pufferkapazität (Volumen) erwärmt. Die Eisrückgangsfläche A2, die wie eine Zunge in die Eismasse ragt, liegt indes über einem Tiefseegraben von 4.000 m Wassertiefe. Aufgrund der thermischen Trägheit und der Wärmekapazität müsste sich eigentlich die Wärme im größeren Volumen verteilen, was zu einer Abschwächung des Eisrückgangs führen müsste. Das Gegenteil ist jedoch der Fall, was mit einer reinen Erwärmung nicht vereinbar ist.

 

Die Abbildung 22 zeigt das Tiefenprofil des arktischen Meeres. Genau unterhalb der am weitesten vorgeschobenen Auftaufläche liegt ein Tiefseegraben mit 4.000 m Tiefe, dessen großes Wasservolumen sich eigentlich dämpfend auf die Eisschmelze auswirken müsste, da sich die Wärmemenge in einem größeren Volumen verteilen kann.

 

Fazit:

Abschließend ist festzuhalten, dass die arktische Eisschmelze natürlichen Zyklen unterliegt, die durch die Sonne gesteuert sind, wobei auf Grund der thermischen Speicherung des Wassers, das Klimasystem der Erde der solaren Aktivität um mehrere Jahre nachläuft. Der derzeitige Eisrückgang ist nichts Außergewöhnliches und fügt sich in die natürliche Variabilität ein und ist auf die derzeit starke AMO und den vergangenen starken El Niño zurückzuführen. Mit der zyklischen Änderung der AMO in ihre negative Phase (Kaltphase) werden sowohl die arktischen Temperaturen fallen (wie wir es übrigens derzeit am Beispiel der PDO für Alaska sehen*)), als auch die arktische Eisbedeckung wieder deutlich zunehmen. Weiter wird die sommerliche Eisausdehnung durch den Schmelzpunkt des Wassers bestimmt, der in erster Linie von natürlichen Schwankungen des Meerwassersalzgehalts beeinflusst wird. CO2 oder sonstige THG´s haben bei alledem nicht den geringsten Einfluss.

 

*)  Pacific Decadal Oscillation (PDO)

Seit Beginn der negativen Phase der PDO in 2008, fallen in Alaska die Temperaturen deutlich (Abbildung 23).

 

Die Abbildung 23 zeigt den zeitlichen Verlauf der PDO von 1900 – September 2009, Quelle: (http://jisao.washington.edu/pdo/). Das kleine Bild zeigt die landesweiten Temperaturabweichungen in Alaska von 1918 – 2009 (Quelle: NOAA). PDO und Landtemperaturen in Alaska sind deckungsgleich. In Alaska fallen die Temperaturen mit der PDO. Seit 2005 um ca. 2°C.

  

Raimund Leistenschneider – EIKE

 

 




Klimamodelle und Messungen stimmen nicht überein? Kein Problem! Wo man einen “Hot Spot” bei null Grad finden kann

In Robust Tropospheric Warming Revealed by Iteratively Homogenized Radiosonde Data (März 2008) bringen Steven Sherwood et al. Windscherungs- und Temperaturdaten zusammen, um sich noch einmal mit den Radiosonden zu befassen. In The Scientific Guide to The Skeptics Handbook und anderen Veröffentlichungn wird die Grafik oben links benutzt, um zu darauf hinzuführen, dass der “Hot Spot” nicht ausbleibt oder auch, dass der “Fingerabdruck” gefunden wurde. Das ist eine oberschlaue Grafik, ganz schön „heiss“, oder?

 

Abb. 1. Sherwood 2008: Messungen (obere Grafiken) gegenüber Modellen (untere Grafiken).  (Maßstab beachten!)

Schauen Sie genau auf den Maßstab der Grafik. Beachten Sie die Farbe bei NULL – ja, richtig – das bedeutet, wenn es keine globale Erwärmung in der ganzen Atmosphäre gäbe, würde sich nichts ändern, nichts würde passieren, die Sherwood-Darstellung würde wie ein riesiger „Hot Spot“ aussehen.

 Keine Änderung bedeutet also “heiss”

Durch geringe Auflösung und eine sorgfältig ausgewählte Farbgebung beim Maßstab erwecken die oberen Grafiken den augenfälligen Eindruck, dass die Modelle gar nicht schlecht sind. Aber die Farbgebung oben ist nicht nur gegen die Intuition gerichtet, sie verhindert auch, dass jemand den Trend in der oberen Troposphäre mit dem an der Erdoberfläche vergleicht. Jedweder Erwärmungstrend ist „rot“. Die Trendinformation ist nicht mehr in der Grafik sichtbar. (Ich habe versucht, die Grafik neu einzufärben, aber wenn alle roten Stellen rot sind, wenn Sie wissen, was ich meine. 101 Schattierungen von rot könnten ja vielleicht den Schlangen mit Infrarot-Erfassungsvermögen helfen…).

Keiner der Autoren, Redakteure, Gutachter sah offenbar Probleme in einer Grafik mit aussagelosem Maßstab. So ist es halt bei den anonymen, unbezahlten Gutachtern.

Hier unten sind die früheren Grafiken, die sich das Papier nun offenbar erneut vornimmt. Man beachte, dass in den ursprünglichen CCSP-Dokumenten die Farbgebung dem Leser beim Verständnis des Geschehens half (auch wenn pink eine fragwürdige Wahl für ultra-kalt ist). Die Modelle haben einen Fingerabdruck vorgesagt von gut durchgemischten Treibhausgasen, wie in der Grafik A unten dargestellt. Die Abkühlung in der Stratosphäre (das blaue Bändchen oben) würde von abnehmenden Kohlendioxid- und Ozon-Pegeln verursacht (teilweise). Aber der rote Hot Spot käme von den Rückkoppelungen aus Feuchtigkeit und Wolken, auch mit Freisetzung von latenter Wärme – so jedenfalls in der Theorie. 

Tatsächlich haben die Radiosonden nichts dergleichen entdeckt. Woraus sich ergibt, dass die von den Modellen vorgesagte Rückkoppelungswirkung nicht beschreiben, was tatsächlich in der Wirklichkeit vorgeht.

 

 Abb. 3. Das Fehlen des Hot Spots ist in diesen CCSP-Grafiken gut sichtbar. 

Im großen und Ganzen übereinstimmend?

Kann man behaupten, dass die Radiosondenmessungen nach Sherwoods Änderungen mit den Modellen übereinstimmen? Das hängt davon ab, wie weit man den Begriff „Übereinstimmung“ fasst. Wenn ein Null-Trend schon als „im Großen und Ganzen übereinstimmend“ mit einem Erwärmungstrend von 0.25 begriffen wird (auch noch in rot dargestellt), wo ist da noch ein Unterschied?

Bei solcher Begrifflichkeit könnte man die Zahl 1 auch mit „2“ als im Großen und Ganzen übereinstimmend bezeichnen.

Um nicht mißverstanden zu werden, Sherwood hat nach dem fehlenden Hot Spot gesucht. In der Einleitung macht er klar, dass es nur darum ge

Die Frage, ob die Troposphärentemperaturen wie erwartet beim Klimawandel mitmachen, ist kontrovers, da einige Beobachtungssysteme Veränderungen gemeldet haben, die inkonsistent mit den Modellen sind (CCSP 2006; National Research Council 2000)…, dass Diskrepanzen zwischen erwarteten und gemessenen troposphärischen Erwärmungsraten in den Tropen nicht vollständig erklärt wurden. (CCSP 2006), …

Die Überschrift könnte schon nach einer beeindruckend richtigen Erklärung klingen, aber die windige Farbgebung und das Kleingedruckte sagen etwas anderes. In der Zusammenfassung legt sich niemand genau fest: 

“Die südlichen Abweichungen der nach Zonen zusammengefaßten Temperaturtrends seit 1979 sind signifkant näher an diejenigen von der Microwave Sounding Unit (MSU) gerückt, nachdem die Daten justiert worden sind. Justierte Daten aus den Breiten zwischen 5°S to 20°N zeigen weiterhin relativ schwache Erwärmung, aber der Fehler ist sehr groß und die Trends sind mit denen aus anderen Breiten inkonsistent.“

Beachte diesen Satz von Grafiken in seiner Abb. 3
(besonders die mittleren aus den Tropen, vor allem 1979-2005):

Sherwood 2008 Fig 3: Die obere Troposphäre über den Tropen (150 hPs – 300 hPa) soll sich zweimal so stark erwärmen wie an der Erdoberfläche. Der Erwärmungstrend von 1979-2005 müsste stärker sein über einen längeren Zeitraum.
(Gelbe Markierungen -von Jo Nova zugefügt- zeigen die Zone an, wo die Modelle den stärksten Erwärmungstrend vorhersagen.)

Zusammenfassend kommentiert Sherwood den Trend als in einem Unsicherheitsband  liegend (und das ist in der unteren Hälfte der Troposphäre). Aber ich kann  keine besondere zahlenmäßige Entsprechung in der wichtigen Zone zwischen  150 – 350 hPa erkennen (die ich oben markiert habe), und das war offenbar der  Grund, warum noch mehr Justierungen vorgenommen wurden.

Unsere Trendraten für 850-300 hPa in den Tropen betragen 0.15° – 0.07°C pro Dekade. Die liegen innerhalb des Unsicherheitsbandes zwischen ungefähr 0.17° – 0.22°, wie aufgrund der Trendraten an der Erdoberfläche von 0.12° – 0.14°C pro Dekade zu erwarten ist (CCSP 2006;  Santer et al. 2005). Die Übereinstimmung wäre besser, wenn man die Daten der tiefen tropischen Messstationen entfernen würde, die sich inkonsistent mit dem übrigen Stationsnetzwerk verhalten.

Nirgendwo aus dem Papier ergibt sich eine Rechtfertigung für die Behauptung, dass die justierten Daten von den Sonden jetzt “im Großen und Ganzen” mit den Modellen übereinstimmten. Seit 10 Jahren haben wir die Daten aus der 1979 – 1999er Erwärmungsperiode, eine Wissenschaftlergruppe nach der anderen hat die Daten auf jede nur mögliche Art und Weise analysiert, und die ganze wiederholte Analysiererei scheint in eine nichtzufällige modell-freundliche Richtung gegangen zu sein. 

Das IPCC ist sich jedoch zu 90 Prozent sicher, dass das Unglück seinen Lauf nimmt. Doch wenn man nach den Beweisen fragt, ob die Modelle die Rückkoppelungen richtig abbilden, dann verflüchtigt sich die aggressiv zur Schau gestellte Sicherheit in Vagheit über Nicht-Inkonsistenzen mit Vorbehalten hinsichtlich Datenjustierung und speziellen Datenbeständen aus speziellen Gebieten. Möglicherweise hat Sherwood die Trends verbessert, aber wenn er wirklich den heiligen Gral gefunden hätte, dann hätte er das auch gesagt.

Joanne Nova Original Artikel hier

Die Übersetzung besorgte dankenswerterweise Helmut Jäger EIKE




Treffen mit einem Grünen, der an „der Wissenschaft“ zweifelt!

In meinem Buch über die Vielfalt des Lebens, BEYOND CONSERVATION, habe ich in einem Kapitel erwähnt, dass die Theorie vom anthropogenen Klimawandel überhaupt nicht das ist, wofür sie hochgepeitscht wird. Ich schrieb, was wir heute als Veränderungen sehen, deute darauf hin, dass noch einige andere Prozesse am Werk seien. Dann nahm ich eine Auszeit, ging in die wissenschaftlichen Bibliotheken und las die ursprünglichen Erkenntnisse, auf die sich die heutigen Modelle stützen.

Was ich fand, schockierte mich. Erstens, es gibt keinen wirklichen Konsens in den Arbeitsgruppen der UNO, insbesondere nicht in der Ozeanografie und in der Atmosphärenphysik. Die Atmosphärenphysik über das Kohlendioxid z. B. wird als ganz geradlinig dargestellt: das ist ein Treibhausgas, deshalb erwärmt es den Planeten. Aber auch das ist nicht unwidersprochen. Es gibt einen großen wissenschaftlichen Dissens darüber, wie viel zusätzliche Erwärmung in der Atmosphäre vom Kohlendioxid kommt. Weithin akzeptiert ist sogar, dass Kohlendioxid allein kein Problem ist. Das heißt, man kann den Anteil des Kohlendioxids in der Atmosphäre verdoppeln und erzeugt damit einen halben Grad Erwärmung. Bei der gegenwärtigen Ausstoßmenge liegt das innerhalb der natürlichen Variabilität über einen Zeitraum von 50 Jahren von heute an gesehen.

Die Rolle des Wasserdampfes bei der globalen Erwärmung ist auch fraglich. Einmal wird er als Temperaturverstärker dargestellt, er kann sich aber tatsächlich auch in Wolken verwandeln und dann die Temperatur herunterregeln. Wie sich herausstellte, sagte Richard Lindzen zu Anfang der Diskussion genau das: auf die Verstärkungswirkung kann nicht gebaut werden, weil Wasserdampf zu Wolken werden kann. Das müsste als erstes untersucht werden, bevor grundlegende Annahmen darüber getroffen würden. Lindzen ist Professor für Meteorologie am MASSACHUSETTS INSTITUTE FOR TECHNOLOGY und wurde ins IPCC delegiert, weil er ein führender Experte auf dem Gebiet der Meteorologie ist. Lindzen wurde aber überstimmt. Obgleich er weiter eine Schlüsselrolle im IPCC-Verfahren einnimmt, wird er von der Presse und der Umweltbewegung diffamiert. Fazit: Es gibt es sogar Zweifel an der grundlegenden wissenschaftlichen Erkenntnis über die Atmosphäre.

Oder nehmen wir die Ozeanografie. Die meiste Wärme der Erde befindet sich nicht in der Atmosphäre; sie ist im Weltmeer gespeichert. Und was in den Ozeanen geschieht, ist entscheidend für die Dynamik des Wärmeaustauschs des Planeten. Wenn es also möglich wäre, den Planeten um Einiges infolge menschlicher Aktivität zu erwärmen, könnte sich dennoch ein Ausgleich einstellen, falls die Erde mehr Wärme herausließe, als sie normalerweise tun würde. Das heißt, man muss nur weniger Wolken über den Ozeanen erzeugen und dann wird Wärme in den Weltraum abgegeben. So wenig wie das CO2, so speichert auch die Atmosphäre selbst keine Wärme – sie verzögert nur deren Abgabe in den Weltraum.

Die wahre Dynamik des Planeten liegt in der Bewölkung. Doch in diesem Fachgebiet – Ozeanografie und Wolkenbedeckung – liegt unglaublich viel Ungewissheit. Als Erstes schaute ich hier die grundlegende wissenschaftliche Erkenntnis nach, mit überraschenden Ergebnissen. Während der globalen Erwärmungsperiode – ich begrenze sie auf die vergangenen etwa 50 Jahre – hat sich die Erde zwischen 1950 und 1980 überhaupt nicht erwärmt, obwohl die Kohlendioxid-Emissionen nach oben schossen infolge des industriellen Nachkriegsbooms; der globale Temperaturverlauf blieb schön flach.

Die eigentliche Erwärmung begann in den 1980ern und 1990ern und dauerte bis etwa 2005. (In den vergangenen 10 Jahren hat sie auf ihrem Niveau verharrt.) Diese Periode von 25 Jahren, von etwa 1980 bis 2005, fiel zusammen mit Veränderungen in der Bewölkung über dem Weltmeer und der Wolkenbedeckung. Das heißt, es gab weniger Wolken, und mehr Sonnenlicht kam bis zum Meer durch. Man kann das sehen in den Satelliten-Daten zu den eingefallenen Energie-Arten (kurzwellige Energie als einzige Energie, die Wasser erwärmen kann – die vom CO2 kommende Infrarot-Energie kann Wasser nicht erwärmen). Also, wenn man auf die realen Daten schaut, scheint die Erwärmung jener gesamten Zeitspanne vom zusätzlichen Sonnenlicht herzurühren, das die Ozeane erreichte.

Im Jahre 2007 habe ich in der Hoffnung auf Reaktionen darüber berichtet, und das vor der Veröffentlichung meines Buches: CHILL: ÜBERPRÜFUNG DER THEORIE VOM KLIMAWANDEL. Inzwischen sind sich Spitzenwissenschaftler der NASA einig, dass der Erwärmungszyklus der vergangenen 25 Jahre allein auf die kurzwellige Sonneneinstrahlung zurückzuführen ist, und die Ozeane diese Wärme ans Land abgegeben haben.

Also ist die entscheidende Frage: Ist die Wolkenabnahme durch Kohlendioxid verursacht? Oder ist sie Teil eines Kreislaufs? Wenn man diese Frage den NASA-Spitzenleuten stellt – denjenigen, welche die Satellitendaten interpretieren – antworten sie 50:50. Daher kann man behaupten, dass der Treibhauseffekt die Ozeane erwärmte, und die wärmeren Ozeane hätten die Bewölkung vermindert. Das aber ist nur eine Hypothese, keine gesicherte wissenschaftliche Tatsache. Will heißen: mit gleichem Glaubwürdigkeitsanspruch kann man behaupten, dass die verminderte Bewölkung die Ozeane erwärmte, was zur globalen Erwärmung führte – das bedeutet einen nur minimalen Kohlendioxid-Effekt.

Mit Hilfe einer einfachen Methode kann man zwischen den beiden Ansichten entscheiden: Man schaue sich die Klimageschichte an, um zu klären, ob es Erwärmung und Abkühlung gegeben hat, bevor das Kohlendioxid derart in den Vordergrund rückte. Und natürlich hat es Erwärmungs- und Abkühlungszyklen gegeben, die längste Zyklus dauerte etwa 1.000 Jahre und der kürzeste – El Nino – etwa 4 bis 8 Jahre.

Derzeit befinden wir uns auf dem Höhepunkt eines 1.000-jährigen Zyklus. Für die anderen Zyklen hat es auch Höhepunkte zwischen 1995 und 2005 gegeben. Ausgehend von der Tatsache, dass diese Zyklen von der Temperatur her gesehen auf ihren Höhepunkten waren, können wir sehen, was damals geschah. Vor tausend Jahren haben die Wikinger beispielsweise Feldfrüchte auf Grönland angebaut, was bedeutet, dass das Sommereis noch weniger war als heute. Die Arktis ist vor tausend Jahren abgeschmolzen, wie auch schon vor 2.000 Jahren. Erstaunlich ist, dass man das alles aus der Eisbohrkerngeschichte Grönlands ablesen kann. Und in jedem tausendjährigen Zyklus lagen die Spitzen niedriger. Also kühlt sich der Planet doch tatsächlich ab, von einem Höhepunkt vor 8.000 Jahren kommend.

Die einzige Erklärung für Erwärmungs- und Abkühlungszyklen von derartigem Ausmaß liegt in den Ozeanen. Und das kann nur geschehen unter Bezugnahme auf die Bewölkung. Die entscheidende Frage ist also, wie die Ozeane ihre Wolkenbedeckung verändern. Was schafft diese Zyklen? Es gibt eine große wissenschaftliche Kontroverse über die Frage, wie das Magnetfeld der Sonne die verschiedenen Energieformen beeinflusst, die auf der Erde ankommen, und wie diese umgekehrt die Wolkenbedeckung beeinflussen. Verschiedene Wissenschaftlergruppen arbeiten an dieser Frage, auch eine an der EUROPÄISCHEN ORGANISATION FÜR KERNFORSCHUNG (CERN). Daraus ergibt sich doch, dass dies eine noch ungeklärte Frage ist. Niemand kennt die Mechanismen.

Warum sagt die UNO also so etwas? Nun, wenn man den Wortlaut des sogenannten Konsens anschaut und was daraus geworden ist, dann sieht man, dass die UNO glaubt, dass der "Klimawandel nicht allein auf bekannte natürliche Ursachen zurückgeführt werden kann". Das ist schlau. Es bedeutet, dass man sich eine Hintertür offenhält für einen unbekannten Mechanismus, der die Erwärmung antreiben könnte. Wenn also überall bekannt ist, dass die Erwärmung einen natürlichen Antrieb hat, so ist dennoch der Mechanismus unverstanden. 

Warum hat die UNO diese gesamte Debatte innerhalb ihrer Arbeitsgruppen unterdrückt? Das Problem ist, dass das innerhalb der UNO mit der Auswertung dieser Debatte beauftragte Sekretariat vorab darauf festgelegt ist – finanziell -, sich auf Kohlendioxid als Klimawandel-Antrieb zu versteifen. Von da kann man nur sehr schwer zurückrudern.

Erst kürzlich hat sich die wissenschaftliche Welt in diesen Konsens eingekauft. Amerika, Russland und China hatten den UNO-Bericht im Jahre 2001 nicht akzeptiert. Aber 2004 hat Amerika ihn unterschrieben. Und das nur, weil eine gewisse Wissenschaftlergruppe in den USA eine Analyse hervorzog, die die vergangenen Erwärmungs- und Abkühlungszyklen ausradierte. Auch wenn sie inzwischen für unglaubwürdig gilt, hat der Bericht eine schreckliche Auswirkung gehabt. Wissenschaftliche Institute wurden auf die Idee vom anthropogenen Klimawandel umgepolt.

Trotzdem ist hinter der Fassade des Konsenses und der gesicherten Erkenntnis eine furchtbare Schlacht losgebrochen. Wissenschaftler mit abweichender Meinung werden von gewissen Journalisten und Umweltschützern als im Dienste der Öl-Industrie stehende "Leugner" und "Skeptiker" bezeichnet. Das stimmt einfach nicht. Es gibt Spitzen-Atmosphärenphysiker, Ozeanografen und Solarwissenschaftler, die nicht akzeptieren, dass die Sache mit dem Klimawandel bewiesen wäre. Niemand behauptet doch ernsthaft, das Kohlendioxid hätte überhaupt keine Wirkung. Aber die Glaubenskämpfer haben eine Vogelscheuche aufgebaut. "Jene Leute", so sagen sie, "meinen, dass das Kohlendioxid keine Wirkung hätte". Das aber kann nur ein närrischer Außenseiter meinen.

Die kritischen Wissenschaftler sagen einfach, dass die Wirkung des Kohlendioxids gering ist, höchstens 20 Prozent. Das bedeutet, dass selbst mit einer 50-prozentigen Reduktion der menschlich verursachten Treibhausgasemissionen bis 2050 die Antriebskraft auf den Klimawandel nur um 10 Prozent vermindert würde. Weil nämlich ein natürlicher Antrieb das Klima steuert. Wie ich in CHILL darlege, fällt die Temperatur bei allen betrachteten vergangenen Zyklen nach jeder Spitze ab. Und mit diesem Abfall entstehen ganz andere Probleme – Probleme, auf die wir bedauerlicherweise bislang völlig unvorbereitet sind.

Was mich aus der Fassung bringt ist, dass ich ein langjähriger Umweltschützer bin. Als Mitglied von Umweltschutzgruppen habe ich daran mitgewirkt, dass Nuklearabfälle nicht im Meer verklappt wurden, ich habe bei der Anpassung der Notfallplanung für Atomkraftwerke mitgeholfen, und ich habe auch an der Entwicklung einer Strategie zur Erhaltung der Artenvielfalt geholfen. Ich bin so grün, wie es nur geht. Aber jetzt bin ich mit Umweltschutzgruppen und großen NGOs konfrontiert, wie GREENPEACE, FRIENDS OF THE EARTH, WWF, ja sogar der ROYAL SOCIETY FOR THE PROTECTION OF BIRDS, die alle mit den Regierungen zusammenarbeiten. Sie sprechen von den sogenannten "Leugnern", die sich mit Big Oil verbunden hätten, aber sie selbst sind in die Hände der Big Governments gefallen. Sie haben sich mit Premierministern von zweifelhaftem Ruf zusammengetan; sie haben sich mit Chef-Politikberatern verbandelt, die noch nie irgend etwas in ihrem Leben auf die Reihe gekriegt haben; sie haben sich mit wissenschaftlichen Institutionen verbunden, die niemals auch nur in einem der Umweltthemen eine führende Rolle hatten.

Wenn man so etwas schreibt wie CHILL, eine vernünftige, kritische Würdigung der gesamten Situation, würde man doch wenigstens einen Dialog erwarten. Aber es gab nichts. Nicht eine einzige Einladung, um vor einer dieser Gruppen zu sprechen. Sogar die Universitäten hielten sich zurück. Zu einem Vortrag vor der LEEDS UNIVERSITY mit einer starken Klimatologengruppe bin ich eingeladen worden, auch zum ENERGY INSTITUTE. Die Gemeinde der Umweltschützer aber schwieg völlig. Ich würde gerne mit allen ihre Experten an einem Tisch über die Sache streiten.

Wir sehen die gefährliche Entwicklung einer sehr intoleranten politischen Ideologie. Es ist eine merkwürdige politische und wissenschaftliche Lage, in der große Summen Geldes in die Unterstützung einer Bürokratie von Klima-Buchhaltern und Prüfern fließen, und in der Forschungsdrittmittel umso leichter genehmigt werden, wenn der anthropogene Klimawandel oben auf dem Forschungsantrag steht. So etwas habe ich in meiner 40-jährigen Wissenschafts- und Umwelt-Laufbahn noch nie erlebt.

Mit Peter Taylor hat Tim Black gesprochen.
Peter Taylor ist der Autor von CHILL: EINE WÜRDIGUNG DER THEORIE VOM KLIMAWANDEL . (Chill, A Reassessment of Global Warming Theory: Does Climate Change Mean the World is Cooling, and If So What Should We Do About It? (Paperback)

Der Autor von CHILL erklärt, warum er skeptisch über den anthropogenen Klimawandel denkt – und warum Grüne so intolerant sind.

Übersetzt von Chris Frey EIKE




Viele glauben, der Mensch ist verantwortlich …

Viele möchten darüber diskutieren, ob der Mensch für den Anstieg des CO2-Pegels nach den 1850er Jahren verantwortlich ist. Die Leute scheinen wie verrückt wegen dieser Frage zu sein. Deshalb möchte ich sie meiner Methode behandeln, als ich in den 1960ern im Straßenbau Dynamitladungen hochjagte … Zündschnur anzünden und dann aber rennen so schnell es geht!

Zuerst einmal zu den Daten, soweit bekannt. Wir müssen mehrere Indizien-Linien betrachten, einige solide, andere nicht. Es gibt drei Gruppen: Daten über die Pegel in der Atmosphäre, Daten über die Emissionen und Daten über Isotopen.

Die solidesten Atmosphärendaten sind die CO2-Daten vom Mauna Loa, wie wir besprochen haben. Sie werden von den Eisbohrkerndaten bestätigt. So sehen sie für die vergangenen tausend Jahre aus. 

 Abb. 1. Die Mauna Loa-Daten (orange Kreise) und die CO2-Daten von 8 verschiedenen Eisbohrkernen. Die Fuji Eisbohrkerndaten werden auf zweierlei Weise analysiert (feucht und trocken). Die Siple Eisbohrkerndaten werden von zwei verschiedenen Gruppen analysiert (Friedli et al., Neftel et al.). Man sieht, warum Michael Mann so wild darauf war, den Temperatur-Hockeyschläger durchzusetzen … weil er sonst die Mittelalterliche Warmperiode hätte erklären müssen, ohne sich auf CO2 berufen zu können. Das Foto zeigt die Außenseite der WAIS Eisbohrhütte.  

Nun zum Vorgehen:

Ich werde die Daten zeigen und die Hauptpunkte diskutieren, so wie ich sie verstehe und sagen, was ich davon halte. Dann können Sie alles auseinandernehmen. Vorweg möchte ich meine Meinung sagen, dass die kürzlichen Anstiege der CO2-Pegel von menschlicher Tätigkeit herrühren. 

Erster Punkt: Die Form der historischen Datenreihe

Ich fange mit Abbildung 1 an. Wie man sieht, besteht eine ausgezeichnete Übereinstimmung bei den verschiedenen acht Eisbohrkernen, auch angesichts der verschiedenen Methoden und der verschiedenen Analysten bei zwei Eisbohrkernen. Es besteht auch eine ausgezeichnete Übereinstimmung zwischen den Eisbohrkernen und den Daten vom Mauna Loa. Vielleicht ist die Übereinstimmung Koinzidenz. Vielleicht ist sie eine Verschwörung. Vielleicht ist da auch ein einfacher Fehler. Ich aber meine, sie stellen eine gute Abschätzung der historischen CO2-Geschichte dar.

Wenn Sie also glauben wollen, dass das kein Ergebnis menschlicher Tätigkeit wäre, ist die Frage hilfreich, was es denn sonst gewesen sein könnte. Es ist nicht notwendig, eine alternative Hypothese zu formulieren, wenn Sie nicht an eine menschliche Verursachung glauben. Aber sie würde in ihrem Fall helfen. Mir persönlich erschließt sich keine andere offensichtliche Erklärung für den scharfen kürzlichen Anstieg.

Zweiter Punkt. Emission versus atmospärische Pegel und Sequestrierung

Es gibt einige Datenbestände mit den Anteilen von CO2-Emissionen aus menschlicher Tätigkeit. Erstens die CDIAC Emissions-Daten. Sie zeigen die jährlichen Emissionen (in Tonnen Kohlenstoff, nicht CO2), getrennt nach gasförmigen, flüssigen und festen Treibstoffen. Sie zeigen auch die Anteile aus der Zementherstellung und dem Abfackeln von Erdgas.

Der zweite Datenbestand ist weniger genau. Er besteht auf einer Schätzung der Emissionen aus Veränderungen der Landnutzung und Bodenbedeckung, bekannt als LU/LC [engl. abgek. für Land Use/Land Cover]. Der mir bekannte umfassendste Datenbestand ist der Houghton Dataset. Nachfolgend werden die Emissionen aus den beiden Datenbeständen gezeigt:

 

Abbildung 2. Anthropogene Emissionen aus der Verbrennung fossiler Treibstoffe und aus der Zementproduktion (blaue Linie), Landnutzung/Bodenbedeckung (LU/LC) Änderungen (weiße Linie), gesamt (rote Linie).

Obwohl das informativ ist und auch so aussieht wie die Veränderung im atmosphärischen CO2-Pegel, brauchen wir etwas, um die beiden Wertelinien zu vergleichen. Die Zauberzahl hierfür ist die Anzahl von Gigatonnen Gt (1 Gt = 1 Mio Tonnen, 1 * 10^9) Kohlenstoff, der nötig ist, um den atmosphärischen CO2-Pegel um 1 ppmv zu verändern. Das sind 2,13 Gt Kohlenstoff pro 1 ppmv.

Mit Hilfe dieser Beziehung können wir die Emissionen und das CO2 in der Atmosphäre in eine direkte Beziehung setzen. Abbildung 3 zeigt die kumulierten Emissionen seit 1850 zusammen mit den Veränderungen in der Atmosphäre (umgerechnet von ppmv in Gt C). Wenn wir das tun, sehen wir eine interessante Beziehung. Nicht alles emittierte CO2 bleibt in der Atmosphäre. Einiges davon wird sequestriert (aufgesogen) von den natürlichen Systemen der Erde.

 

Abbildung 3. Gesamtemissionen (fossil, Zement, LU/LC) und der in der Atmosphäre verbleibende und der sequestrierte Anteil.

Wir sehen, dass nicht der gesamte, in Form von CO2 emittierte Kohlenstoff in der Atmosphäre verbleibt. Ein Anteil wird irgendwie von den Weltmeeren, der Biosphäre und dem Land aufgesogen. Was ist darunter zu verstehen?

Hierzu müssen wir ein paar oft zusammengeworfene Maßzahlen berücksichtigen. Eine davon ist die Verweilzeit des CO2. Das ist die Zeitspanne, in welcher das durchschnittliche CO2-Molekül in der Atmosphäre verweilt. Sie kann auf mehrere Arten berechnet werden und sie beträgt etwa 6 – 8 Jahre.

Die andere Maßzahl, die oft mit der ersten verwechselt wird, ist die Halbwertzeit, auch „exponentielle Abnahme“ des CO2 genannt. Angenommen wir bringen in die im Gleichgewichtszustand befindliche Atmosphäre einen Stoß CO2 ein. Der Stoß wird langsam zerfallen, und nach gewisser Zeit wird das System wieder im Gleichgewicht sein. Das nennt man auch „exponentielle Abnahme“, weil das zusätzliche CO2 in jedem Jahr um einen gewissen Prozentsatz vermindert wird. Die Größe der exponentiellen Abnahme wird normalerweise als der Zeitraum gemessen, den es braucht, um den zusätzlich eingebrachten Stoß auf die Hälfte seines ursprünglichen Wertes zu vermindern (Halbwertzeit), oder auf 1/e (0,37) seines ursprünglichen Wertes. Die Dauer des Zerfalls (Halbwertzeit oder engl. „e-folding time“) ist viel schwieriger zu berechnen als die Verweilzeit. Der IPCC sagt, sie liegt zwischen 90 und 200 Jahren. Ich sage, sie ist viel geringer, so auch Jacobson.

Wie können wir nun feststellen, ob das mit der exponentiellen Abnahme des zusätzlichen CO2 tatsächlich stimmt? Eine Möglichkeit ist der Vergleich mit einer errechneten exponentiellen Abnahme. Hier ist das Ergebnis, wenn die exponentielle Abnahme über einen Zeitraum von 31 Jahren angesetzt wird.

 

Abbildung 4. Totale kumulierte Emissionen (fossil, Zement, LU/LC), in der Atmosphäre verbleibender kumulierter Betrag und sequestrierter kumulierter Betrag. Der kalkulierte sequestrierte Betrag (gelbe Linie) und der in der Luft verbleibende errechnete Betrag (schwarz) wird ebenfalls dargestellt.

Wie man sieht, trifft die Annahme von der exponentiellen Abnahme bei der beobachteten Datenreihe recht gut zu und sie unterstützt die Idee, dass überschüssiger atmosphärischer Kohlenstoff aus menschlicher Tätigkeit stammt. 

Punkt 3. Kohlenstoff-Isotope 12C und 13C

Vom Kohlenstoff gibt es ein Paar natürlicher Isotope, 12C und 13C. 12C ist leichter als 13C. Pflanzen bevorzugen das leichtere Isotop 12C. Im Ergebnis zeigt sich im Material, das von Pflanzen herstammt (fossile Treibstoffe eingeschlossen), ein geringerer Anteil von 13C als von 12C (kleineres Verhältnis 13C/12C).

Man behauptet (da habe ich nicht sehr weit recherchiert), dass seit 1850 der Anteil des 12C in der Atmosphäre ständig zunimmt. Dafür gibt es mehrere Indizien: 13C/12C-Verhältnis in Baumringen, 13C/12C-Verhältnis im Weltmeer, 13C/12C-Verhältnis in Schwämmen. Zusammengenommen deutet das darauf hin, dass die Ursache der Nach-1850-Zunahme die Verbrennung von fossilen Treibstoffen ist.

Aber da gibt es Probleme. Zum Beispiel beschrieben im NATURE-Artikel “Problems in interpreting tree-ring klein Delta 13C records”. Der Abstract sagt:

Das stabile Kohlenstoff-Verhältnis (13C/12C) bei Baumringen aus dem 20. Jh. ist auf Indizien hinsichtlich der Wirkung des isotopisch leichteren CO2 aus fossilen Treibstoffen überprüft worden (klein Delta 13C~-25‰ im Vergleich zum primären PDB-Standard) seit dem Beginn größerer fossiler Treibstoffverbrennung um die Mitte des 19. Jh. im Vergleich zum 13C/12C-Verhältnis im atmosphärischen CO2 (klein Delta  13C~-7‰), welches die Bäume bei der Photosynthese assimilieren.
Die beobachtete Abnahme beim 13C bis zum Jahre 1930 in verschiedenen Serien von Baumring-Messungen ist größer als aus dem Eintrag von fossilem Treibstoff-CO2 in die Atmosphäre zu erwarten ist. Daraus ergibt sich die Vermutung eines zusätzlichen Promille-Eintrags während des ausgehenden 19./ beginnenden 20. Jh. Stuiver vermutet, dass eine Abnahme des atmosphärischen klein Delta 13C von 0.7‰ von 1860 bis 1930 zusätzlich, und über das aus fossilen Treibstoffen stammende CO2 hinaus, tatsächlich einer Freisetzung von Netto-Biosphärischen CO2 (klein Delta 13C~-25‰) zugeschrieben werden kann, zusätzlich zum gesamten Zufluss an CO2 aus fossilen Treibstoffen von 1850 – 1970. Falls Erkenntnisse über die Rolle der Biosphäre als Quelle oder Senke für CO2 in der jüngsten Vergangenheit aus Baumring- 13C/12C abgeleitet werden können, sollte die Reaktion des gesamten dynamischen CO2-Kreislaufs der jüngsten Vergangenheit betrachtet werden hinsichtlich des Eintrags von CO2 aus fossilen Treibstoffen und auch hinsichtlich den Vorhersagen eines möglichen Klimawandels infolge des Treibhauseffekts der in der Atmosphäre verbleibenden CO2-Anteile. Ich stelle hier (Abb. 1a) den Trend im gesamten Holz  klein Delta 13C von 1883 bis 1968 in den Baumringen einer amerikanischen Ulme dar, die außerhalb des Waldes in Meereshöhe in Falmouth, Cape Cod, Massachusetts (41°34`N, 70°38`W) an der Nordost-Küste der USA wuchs. Die Untersuchung der 13C Trends im Lichte verschiedener möglicher Einwirkungen zeigt, wie schwierig es ist, Fluktuationen bei den 13C/12C – Verhältnissen auf eine einzige Ursache zurückführen zu wollen. Das ist ein Hinweis, dass der Vergleich von Vor-1850-Verhältnissen mit Temperaturmessungen bei der Auflösung von Störgrößen im 20. Jh. helfen könnte.

Die Argumentationskette mit den Isotopen scheint mir eine der schwächsten zu sein. Der gesamte Kohlenstoff-Eintrag in die Atmosphäre beträgt etwa 211 Gigatonnen, hinzu kommt der menschliche Beitrag. Das bedeutet, dass im Jahre 1978 der menschliche Beitrag zum Kohlenstoff-Zufluss etwa 2,7% und 4% im Jahre 2008 betrug. In diesem Zeitraum ist der durchschnittliche Wert des 13C/12C-Verhältnisses von den 11 NOAA Messstationen um –0,7 Promille gesunken. Daraus ergibt sich, dass das zusätzliche CO2 ein 13C/12C-Verhältnis von etwa –60 Promille gehabt haben müsste.

Jetzt hat die Atmosphäre also etwa –7 Promille 13C/12C. Daraus ergibt sich, dass das zusätzlich eingebrachte CO2 ein 13C/12C-Verhältnis von um die -60 Promille hätte haben müssen, um ein Absinken um 0,7 Promille zu verursachen. 

Aber die fossilen Treibstoffe im gegenwärtigen Mischungsverhältnis haben ein 13C/12C-Verhältnis von ca. –28 Promille, das ist etwa nur die Hälfte dessen, was nötig wäre, um die Veränderung hervorzurufen. Damit ist klar, dass die Verbrennung von fossilen Treibstoffen nicht die alleinige Ursache im atmosphärischen 13C/12C-Verhältnis sein kann. Anzumerken ist, dass der NATURE-Artikel zum gleichen Ergebnis kommt.

Darüber Hinaus ergibt sich aus einer Betrachtung der jährlichen Veränderungen, dass es weitere größere Effekte auf das globale 13C/12C-Verhältnis gibt. Von 1984 – 1986 nahm es um 0.03 Promille zu. Von ’86 bis ’89 nahm es um -0.2 Promille ab. Und von ’89 bis ’92 gab es überhaupt keine Veränderung. Warum?

Wie dem auch sei, die Anzeichen aus der Veränderung im atmosphärischen 13C/12C-Verhältnis (abnehmend) sind im Einklang mit der Theorie, dass zumindest ein Teil davon aus menschlich verursachter Verbrennung fossiler Treibstoffe herrührt.

SCHLUSS

Wie schon erwähnt, die überwiegenden Belege zeigen, dass der Mensch die Hauptursache der Zunahme von CO2 in der Atmosphäre ist. Unwahrscheinlich ist, dass die CO-Vermehrung eine Folge der Gesamtzunahme der Temperatur ist. Während des Übergangs von Eiszeiten zu Zwischeneiszeiten führte ein Änderung von 7°C zu einer Verdoppelung des CO2. Wir haben etwa ein Zehntel Veränderung im Vergleich dazu (0.7°C) seit 1850 erlebt, daraus wäre eine allein aus der Temperaturänderung herrührende CO2-Veränderung von nur etwa 20 ppmv zu erwarten.

Angesichts der oben diskutierten Punkte sage ich, dass der Mensch für die Veränderung im atmosphärischen CO2 verantwortlich ist. Aber offensichtlich sehen Viele das anders. Doch man möge sich bitte auch vor Augen halten, dass ich nicht denke, die CO2-Veränderung würde irgendeinen nennenswerten Unterschied auf die Temperatur ausüben. Die Gründe habe ich hier dargelegt.

Daher sollte nach einem Blick auf die hier vorgelegten Daten die Diskussion eröffnet werden:
[Folgende Regeln sollten beachtet werden]

REGELN FÜR DIE DISKUSSION UM DIE VERANTWORTLICHKEIT FÜR DEN CO2-ANSTIEG

1. Zahlen schlagen Behauptungen. Wer keine Zahlen anführt, hat nur geringe Überzeugungskraft.

2. Persönliche Angriffe führen zu nichts. Dazu gehören Behauptungen, dass einzelne Wissenschaftler von der Ölindustrie finanziert würden, oder dass sie Mitglieder bei Greenpeace wären, oder dass sie Geologen anstelle von Atmosphärenphysikern wären. Wichtig ist nur, ob sie Wahres oder Falsches sagen. Man möge sich auf die Behauptungen konzentrieren und deren Wahrheitsgehalt, nicht auf die Quellen der Behauptungen. Quellen bedeuten nichts.

3. Die Berufung auf Autoritäten ist auch sinnlos. Wen kümmert es, was ein 12-köpfiges Gremium einer Nationalen Akademie der Wissenschaften sagt? Naturwissenschaftliche Erkenntnis ist keine Mehrheitsveranstaltung, Gottseidank!

4. Quellen müssen genau benannt warden. Nutzlos ist eine Aussage wie: „Der Weltklimarat sagt“, „Kapitel 7 des IPCC AR4 sagt …“. Zitieren Sie bitte Kapitel und Satz, nennen Sie die Seite und den Absatz. Ich möchte mich nicht durch ein ganzes Papier wühlen müssen oder durch ein IPCC-Kapitel, um zu vermuten, welche Zeile Sie meinen.

5. ZITIEREN SIE, WOMIT SIE NICHT EINVERSTANDEN SIND!!! Darauf kann ich nicht oft genug hinweisen. Viel zu oft greifen Leute etwas an, was die angegriffene Person nicht gesagt hat. Bitte wörtlich zitieren, genau die Wörter, die Sie für falsch halten. Nur dann können wir alle sehen, ob Sie verstanden haben, was Sie sagen.

6. Keine persönlichen Angriffe !!! Sprechen Sie das bitte nach:
Keine persönlichen Angriffe!
Kein „nur ein Narr würde glauben …“, kein „Sind Sie noch bei Trost?“. Keine Spekulation über die Motive eines Anderen. Keine Anwürfe wie „Leugner“, „Alarmschläger“, „Ökonazi“ – nichts davon! Bitte fair spielen!

Auf ins Getümmel. Ich bin auf Empfang!

 Willis Eschenbach

Die Übersetzung besorgte Helmut Jäger EIKE

Auf der Originalseite kann die daraus folgende Diskussion mit 486 Beiträgen eingesehen werden.




Die VDI-Führung schlägt sich auf die Seite der Klimaalarmisten: EIKE-VDI Briefwechsel zum „VDI-Positionspapier „Klimaschutz und Energiepolitik“.

Sehr geehrter Herr Präsident,

 am 10. März 2010 überreichten Sie und VDI-Direktor Dr. Willi Fuchs der Bundeskanzlerin Angela Merkel das VDI-Positionspapier „Klimaschutz und Energiepolitik“. Mit diesem Papier will der VDI der Bundesregierung „grundlegende strategische Ziele als Orientierung für eine Energiepolitik in Deutschland für die nächsten Jahrzehnte“ geben (2. „Orientierung und Ziele“).

Das Europäische Institut für Klima und Energie e. v., dem namhafte Wissenschaftler und Praktiker u. a. aus den Bereichen der Energiewirtschaft und Klimawissenschaft, darunter auch VDI-Mitglieder, angehören, hat dieses VDI-Papier analysiert und erlaubt sich, Ihnen die Meinung der hier vertretenen Experten mitzuteilen.

Zusammenfassend sehen wir die im VDI-Positionspapier vertretenen Auffassungen leider nicht als geeignet an, der deutschen Energiepolitik positive Impulse für eine zukunftssichere Energieversorgung des Industriestandortes Deutschland und seiner Bevölkerung zu geben. Mit den im Positionspapier gegebenen Empfehlungen wird die Wirtschaftsentwicklung Deutschlands stark behindert, es werden Arbeitsplätze vernichtet und der Lebensstandard der Bürger erheblich beeinträchtigt.

Die innerhalb vieler Jahrzehnte erreichten Erfolge der deutschen Energiewirtschaft beruhten darauf, dass stets für ein ausgewogenes Verhältnis zwischen den drei Grundzielen „Wirtschaftlichkeit“, „Versorgungssicherheit“ und „Umweltverträglichkeit“ („Strategisches Zieldreieck“) gesorgt wurde. Diese grundlegende „Dreieinigkeit“ war nicht nur das Erfolgsrezept der deutschen Energiewirtschaft, sondern auch das anderer Industrieländer. In zunehmenden Maße wird die deutsche Energiepolitik stattdessen von Ängsten beherrscht, die ohne sachliche Berechtigung geschürt werden: Es wird Angst vor der friedlichen Nutzung der Kernenergie, vor einem baldigen Ende der Energieressourcen und vor der „Klimakatastrophe“ verbreitet, was zu erheblichen Eingriffen der Politik in Energietechnik und Energiewirtschaft führt. 

Leider ist auch das VDI-Papier von diesen Phobien geprägt, in erster Linie von der Furcht vor einem anthropogen verantworteten Klimawandel, aber auch vor der Kernenergienutzung. Im Anhang dieses Schreibens nehmen wir eine kritische Wertung des VDI-Papiers vor und machen auf einige Formulierungen und Aussagen im VDI-Papier aufmerksam, die unseres Erachtens wissenschaftlich nicht haltbar, wirtschaftlich schädlich oder insgesamt unrichtig sind. 

Nach Meinung des Europäischen Instituts für Klima und Energie e. V. EIKE hat der VDI mit diesem Dokument zwar in nahezu allen Fällen den energiepolitischen Vor-stellungen der Bundesregierung zugestimmt, sie sogar noch bekräftigt, der Energiewirtschaft und der gesamten Volkswirtschaft damit aber erheblichen Schaden zugefügt. Wir halten das nicht nur für sehr bedauerlich, sondern für falsch! Richtig und dringend notwendig wäre es stattdessen gewesen, die zum Teil extrem widersprüchlichen und unausgereiften energiepolitischen Vorstellungen der Bundesregierung zu analysieren und – vor allem im Hinblick auf das angekündigte Energiekonzept – einer kritischen Wertung zu unterziehen. 

Um weitere Schäden bei einer möglichen politischen Umsetzung der VDI-Leitlinien zu begegnen, empfehlen wir – trotz bereits erfolgter Übergabe an die Bundeskanzlerin – eine gründliche und offene Diskussion in den Gliederungen des VDI und darüber hinaus in weiteren Sachverständigen-Gremien, was bisher vollkommen unterlassen wurde. Wir selbst sind gern bereit, an einer solchen Debatte mitzuwirken.

Die Umstände zwingen u.E.n. zur verheerenden Politik des Klimaschutzes, jeden verantwortlich mitdenkenden Ingenieur und Wissenschaftler dazu, offene Worte zu gebrauchen. Deswegen bitten wir um Verständnis für diesen Brief und hoffen auf eine schnelle Antwort Ihrerseits. Die Veröffentlichung dieses Schreibens an Medien und Politik ist ca. 3 Wochen nach Absendedatum vorgesehen.

Mit freundlichen Grüßen

Dr. H. Thuss, Dipl. Ing Limburg, Dr. D. Ufer

Präsident EIKE Vizepäsident Energiewirtschaftler EIKE

zur Kenntnis mit der Bitte um hausinterne Weiterleitung

Herrn Dr.-Ing. Willi Fuchs Direktor und geschäftsführendes Mitglied des Präsidiums

Herrn Univ.-Prof. Dr.-Ing. Ernst Schmachtenberg Vorsitzender des Wissenschaftlichen Beirats und Mitglied des Präsidiums

Herrn Prof. Dr.-Ing. Hermann-Josef Wagner Vorsitzender der VDI-Gesellschaft Energie und Umwelt

Anlage: 

Kritische Wertung des VDI-Positionspapiers  „Klimaschutz und Energiepolitik“

Antwort von Präsident Prof. Dr. Braun vom 2.6.10.

VDI-Positionspapier "Klimaschutz und Energiepolitiku Ihr Schreiben vom 14.5.2010

Sehr geehrte Herren,

Thre Stellungnahme zu unserem o.a. Positionspapier haben wir erhalten und danken Ihnen für Ihre sehr ausführlichen Kommentare. Ihre Interpretation unserer Aussagen hat uns jedoch überrascht. Es entsteht der Eindruck, dass hier verschiedene Missverständnisse vorliegen.

Es gibt auch bei um; im VDI verschiedentlich Diskussionen über das Für und Wider der Klimabeeinflus­sung durch den Menschen. Zu beachten ist jedoch, dass dieser Diskurs von den Fachleuten geführt wer­den sollte. Gcgenwärtig sehen die meisten Klimatologen den Klimawandel als nachgewiesen an. In der Folge ist die Politik gefordert, Maßnahmen zu ergreifen. Ein Ziel unseres Papiers ist es, dazu eine realis­tische Vorgehensweise vorzuschlagen.

Unser Ansatz beruht auf unterschiedlichen Szenarien, die vom Forschungszentrum Jülich unter Variierung vieler Parameter zur Erreichung unterschiedlicher C02-Ziele gerechnet wurden. Die Ergebnisse dieser Szenarien wurden von unabhängigen Experten hinsichtlich Ihrer Realisierungschancen und Ein­trittswahrscheinlichkeiten bewertet. Die Ergebnisse dieses Prozesses sind die Grundlage unserer Stel­lungnahme, die in einem Konsensfindungsprozess unter Einbeziehung aller interessierten Kreise erarbei­tet wurde.

Die Beurteilung über richtige oder falsche Wege, die die Zeiträume in den Jahren 2030 bis 2050 betref­fen, maßen wir uns schon allein aus Gründen der Glaubwürdigkeit und Seriosität nicht an.

Mit freundlichen Grüßen 

Prof. Dr.-Ing. habil. Bruno O. Braun 

 

Unsere Antwort an Prof. Braun (zwangsläufig ausführlicher) vom 18.6.10

Betrifft:VDI-Positionspapier „Klimaschutz und Energiepolitik“ Ihr Schreiben vom 2. Juni 2010

Sehr geehrter Herr Präsident

Ihre Antwort auf unser Schreiben, in dem wir zum VDI-Positionspapier „Klimaschutz und Energiepolitik“ Stellung nahmen, hat uns erreicht. Es zeigt sich, dass tatsächlich deutlich unterschiedliche Erkenntnisse in der Debatte um Klimaschutz und Energiepolitik herangezogen werden. Angesichts der entscheidenden Bedeutung der deutschen Energiepolitik für Wirtschaft und Wohlfahrt unseres Landes ist es unumgänglich, das gesamte Spektrum der Klima- und Energieforschung zu sichten, um die Empfehlungen möglichst solide abzusichern. Einige Gedankengänge hierzu haben wir in unserer Stellungnahme angeführt. Es ist sehr bedauerlich, dass wir bei diesen wichtigen Fragen deutlich kontroverse Auffassungen über die künftige Entwicklung der deutschen Energiewirtschaft haben.

Die unterschiedlichen Ansätze über das Für und Wider der Klimabeeinflussung durch den Menschen kommen in verschiedensten Diskussionen bei Ihnen im VDI zur Sprache. Auch wir haben in VDI-Treffen über diese Fragen kontrovers diskutiert. Unter uns sind langjährige Mitglieder, einer der Unterzeichner dieses Schreibens ist Träger des „VDI-Abzeichens für 50 Jahre treue Mitgliedschaft“. Aber nur höchst selten dringt etwas von diesen Debatten an die Öffentlichkeit. Es wird auch berichtet, dass Ansätze für öffentliche Debatten beim VDI intern nicht weiter verfolgt, partiell sogar unterbunden wurden.

Sie verlangen, „dass dieser Diskurs von den Fachleuten geführt werden sollte“. Hierzu möchten wir erstens anmerken, dass unsere Stellungnahme zum VDI-Positionspapier von höchst qualifizierten Fachleuten erarbeitet worden ist. Es handelt sich dabei um Fachleute der Klimawissenschaft und der Energiewirtschaft. Zweitens gilt, dass in der Klima- und Energiediskussion – auch bei uns- Fachleute der verschiedensten Disziplinen substanziell beitragen: Meteorologen, Geologen, Biologen, Chemiker, Physiker, Mediziner, Glaziologen, Ökologen und Ökonomen und viele mehr. Auch ist Ihre Aussage, dass „gegenwärtig …die meisten Klimatologen den Klimawandel als nachgewiesen“(1) unscharf formuliert, da alle Klimaforscher -unabhängig ihrer Zuordnung- vom immerwährenden Klimawandel ausgehen. Bei vollständiger Sichtung des Materials, würde Ihnen jedoch aufgefallen sein, dass es nur ein geringer Teil der Klimaforscher ist, die von einer überwiegend anthropogenen Ursache des jetzigen Klimawandels ausgehen. Einen Beweis dafür konnten sie aber – trotz riesigen Aufwandes- nicht liefern (2). Die große Mehrheit verwirft diese These, kommt aber in den Medien selten zu Wort.

Schließlich wird die wissenschaftliche Klimadebatte leider von politisch motivierten Einflüssen dominiert, was dazu führt, dass der tatsächliche Stand der Wissenschaft heute oft nicht freimütig öffentlich geäußert wird. Klimatologie wird durchaus nicht allein durch den (bekanntlich in erheblichen Misskredit geratenen) IPCC oder das Potsdam-Institut für Klimafolgenforschung (PIK) repräsentiert, sondern vermehrt durch eine ständig wachsende Zahl von Forschern, die in den letzten Jahren tausende Studien veröffentlichten, die von IPCC-Linie abweichen. Als Beispiel seien die „Oregon Petition“, die von 31.000 Wissenschaftlern unterschrieben wurde, der Brief von 110 Wissenschaftlern an den damaligen UN-Generalsekretär (2007) oder ein Aufsatz von Prof. Gerhard Hosemann genannt, der unter der Überschrift „Klimaschutz – ein Gebot?“ kürzlich in der Zeitschrift „ew“ (Heft 24/2009) erschien. Schon 2007 stellte Prof. Kepplinger (Universität Mainz) fest, dass unter den mehr als 300 befragten deutschen Klimawissenschaftlern „sowohl die Grundlagen der Berechnungen als auch die nötigen Konsequenzen … umstritten“ sind (3)

Auch die von Ihnen erwähnten Szenarien vom Forschungszentrum Jülich, beantworten nicht die grundsätzliche Frage nach den Ursachen des Klimawandels, sondern sie gehen – in Übereinstimmung mit der Regierungspolitik – von vornherein vom anthropogenen Kohlendioxid als Ursache einer prognostizierten Erwärmung – fälschlich vereinfachend Klimawandel genannt- aus. Der Beweis, dass mehr oder weniger Kohlendioxid in der Atmosphäre das Klima verändert, ist aber weder theoretisch noch experimentell irgendwo auf der Welt gelungen. 

Wir befürchten überaus verhängnisvolle Folgen, wenn aus nicht bewiesenen Hypothesen volkswirtschaftliche Konsequenzen abgeleitet werden, die zu enormen gesellschaftlichen Belastungen führen. Wir sind darüber sehr betroffen, dass der VDI eine Politik unterstützt, die die deutsche Energiewirtschaft nachhaltig schwächt und damit den Niedergang des Wirtschaftsstandortes Deutschland riskiert. In jüngster Zeit haben sich, wie Sie wissen, bedeutende europäische und außereuropäische Länder von der Kohlendioxid-zentrierten Politik distanziert. Das Ende der Kopenhagen-Konferenz war nur einer von mehreren deutlichen Hinweisen auf das Scheitern der „Klimapolitik“! Soeben hat Kanada beschlossen den Kyotovertrag nicht länger anzuwenden und hat seine CO2 Einsparziele um 90 % gesenkt. Australien wird wohl demnächst folgen, während Indien angekündigt hat ganz aus dem IPCC auszutreten.

Auch Ihre Aussage, wonach das VDI-Positionspapier „in einem Konsensfindungsprozess unter Einbeziehung aller interessierten Kreise erarbeitet wurde“, trifft nicht zu, denn es gab innerhalb des VDI und auch nach außen hin dazu keine öffentliche Diskussion. Die Masse der interessierten VDI-Mitglieder, darunter auch EIKE-Mitglieder, wurden von diesem Papier überrascht.

In Ihrem abschließenden Satz führen Sie aus „Die Beurteilung über richtige oder falsche Wege, die die Zeiträume in den Jahren 2030 bis 2050 betreffen, maßen wir uns … nicht an“ aber genau eine solche Beurteilung nehmen Sie tatsächlich vor: Erstens, indem Sie sich allein auf die offizielle Klima-Linie stützen und die verbreitet vorliegende Alternativ-Linie nicht berücksichtigen. Und zweitens, indem Sie daraus in Ihrem Papier konkrete Vorschläge für die Deutsche Politik ableiten.

Wir verstehen, dass eine so große Organisation, wie der VDI sich nicht -einfach so- gegen eine breite öffentliche Meinung stellen kann und folglich in bestimmtem Maße politischen Strömungen folgen muß, jedoch sollte eine wissenschaftlich begründete oder wenigstens abwägende Position beibehalten und bei solch wichtigen Entscheidungen eine zweite Meinung eingeholt werden. Gleiches gilt auch für die eher negative Haltung des VDI zur Kernenergienutzung. Sie orientiert sich nicht an der realen internationalen Entwicklung, sondern unterstützt auch hier primär die Regierungspolitik. 

Die politische Orientierung des Papiers stützt leider die Regierungs-Beschlüsse, die nach dem Urteil zahlreicher Fachleute die Energie- und Volkswirtschaft Deutschlands immer tiefer in die Rezession führen. Es ist unser dringendes Anliegen, einen Beitrag zur Verhinderung dieser verhängnisvollen Entwicklungen zu leisten. Wir sind überzeugt, dass neuere Erkenntnisse der letzten Jahre und auch ein Wandel im Meinungsbild von mehreren Regierungen in den Abwägungsprozess in Deutschland einfließen sollten und uns eine Neubewertung heute noch kontroverser Fragen ermöglichen werden. 

Unabhängig davon werden wir uns als Europäisches Institut für Klima und Energie (EIKE) weiterhin darum bemühen, in allen uns zugänglichen Gremien – und dazu gehört auch der VDI – Aufklärung über die Hintergründe der sog. Klimapolitik zu betreiben und  alles tun, um die Wirtschaft vor verhängnisvollen Schlüssen aus dieser Politik zu bewahren. Die täglich geäußerte Zustimmung vieler kompetenter und besorgter VDI-Mitgliederund vieler Wissenschaftler ermutigt uns bei diesem Tun. Wir würden uns sehr freuen, wenn ein Gespräch darüber in den nächsten Wochen einmal zustande kommen würde und verbleiben in Erwartung auf Ihre Nachricht 

mit freundlichen Grüßen

Dr. H. Thuss, Dipl. Ing Limburg, Dr. D. Ufer

Präsident EIKE Vizepäsident Energiewirtschaftler EIKE

 (1) Nur zur begrifflichen Klärung: U.W.n. sehen alle naturwissenschaftlich gebildeten Menschen „den Klimawandel als nachgewiesen an“. Er ist im Gange, seitdem es Wasser, Land und Atmosphäre auf der Erde gibt – so auch heute.

(2)  Dazu IPCC Leitautor und Direktor des britischen Metoffice:  Prof. Mitchell (2007)“It is only possible to attribute 20th Century warming to human interference using numerical models of the climate system.

(3) Details dazu hier: http://www.welt.de/welt_print/article1210902/Die_Klimaforscher_sind_sich_laengst_nicht_sicher.html

Related Files




Ist die globale Erwärmung wirklich alarmierend?

Diese Liste ist unvollständig und stellt lediglich die Spitze des sprichwörtlichen Eisberges dar. Klarerweise wird zu viel Geld ausgegeben für die einseitige, auf Erwärmung fixierte Richtung der Klimaänderung, hochtrabend „Forschung“ genannt, zu wenig dagegen für die Erforschung der natürlichen Ursachen und für die Anpassung an Klimaänderungen. Trotz bester Absichten kann zu viel Geld korrumpieren oder die Wissenschaft zumindest verdrehen.

Wie man sagt, folge dem Geld! Man erinnere sich an Indiana Jones’ unsterbliche Worte: „Ruhm und Reichtum.“

Viel zu viele Menschen in der Regierung, in gemeinnützigen Vereinen und Aktivisten haben beschlossen, was das Beste für uns ist, welche Zukunft wir haben sollen hinsichtlich der Energieversorgung und der Wirtschaft, und wer dafür verantwortlich sein soll. Sie beabsichtigen, diese Politik durchzusetzen – und Angst machende Szenarien wegen der Klimaerwärmung sind der Schlüssel dazu. Für dieses Ziel wenden sie –zig Milliarden Dollar auf.

Ein gutes Beispiel dafür, wie Forschungsgelder die Wissenschaft politisieren, ist die Schlagzeile vom 4. Mai: „Auswirkungen von Kohlendioxid auf Pflanzen verstärkt die globale Erwärmung.“ Enthusiastisch werden hier die Ergebnisse einer Studie von Long Cao und Ken Caldeira von der Carnegie Institution dargestellt, erschienen in einer Fachzeitschrift. Sie sagen, dass das Kohlendioxid nicht nur mehr Wärme in der Atmosphäre absorbiert. Es sorgt außerdem dafür, dass die Pflanzen noch effizienter CO2 absorbieren können, so dass sich die Poren in den Blättern so weit öffnen müssen, so dass sie weniger Feuchtigkeit verdunsten.

Das sollten eigentlich gute Nachrichten sein, wenn Pflanzen unter trockenen Bedingungen viel besser überleben könnten, sogar in Wüstengebieten, wo das vorher nicht möglich war. Jeder Botaniker und jeder, der auf CO2science.org nachschaut, weiß das. Tatsächlich zeigen Hunderte von Experimenten, wie das Wachstum der Pflanzen, ihr effizienter Umgang mit Wasser und ihr Widerstand gegen Dürren durch einen höheren Grad atmosphärischen Kohlendioxids zunehmen. Daher sollte man mehr CO2 und besseres Pflanzenwachstum begrüßen – und nicht heranziehen, um die Klimakrise zu beschwören und politische Maßnahmen einzuführen wie etwa keine Kohle mehr zu verbrennen und unsere Fabriken, Berufe, Autos, Lebensumstände sowie unseren Lebensstandard zu kontrollieren. 

Aber die Carnegie-Leute verkehrten diese guten Nachrichten in schlechte, indem sie die ominöse Behauptung aufstellen, dass die verminderte Verdunstung zu einer weniger starken Abkühlung führt, was die globale Temperatur zusätzlich etwas steigen lässt.

Ebenso interessant ist, dass die Forscher ihre Ergebnisse nicht aufgrund aktueller Experimente gewonnen haben, sondern aufgrund einer weiteren Klimamodellrechnung, die die zukünftige angebliche Temperaturentwicklung simulieren soll. Als sie die zahlreichen Annahmen auf physiologische Effekte des CO2 abklopften, bekamen sie heraus, dass die globale Temperatur über dem Festland um weitere 0.4°C steigt, zusätzlich zum Anstieg, den der CO2-Eintrag direkt verursacht. Jedoch, nur sechs Monate zuvor haben die gleichen Wissenschaftler aus den gleichen Modellen ganz andere Schlussfolgerungen gezogen – und lediglich einen zusätzlichen Anstieg um 0.1°C heraus bekommen. Die Autoren sagen heute, dass diese früheren Angaben „unrealistisch“ waren.

Aber, welche Garantie gibt es, dass die neuen Angaben “realistisch” sind? Vielleicht sind sie es, aber, seien wir ehrlich, natürlich erregen die Angaben um 0.1°C viel weniger „Glück und Ruhm“, viel weniger Aufregung in den Schlagzeilen. Außerdem ist es unrealistisch anzunehmen, weitere Forschungsgelder zu erhalten, wenn man lediglich einen Anstieg um 0.1°C errechnet. 

Unabhängig von Ruhm und Ehre oder zusätzlichen Forschungsmitteln oder Veröffentlichungen in prestigeträchtigen Journalen ist da noch das persönliche Ansehen. Dr. Caldeira ist neben seiner Eigenschaft als angesehener Wissenschaftler auch Berater des Milliardärs Bill Gates in Bezug auf erneuerbare Energien. Dies vor dem Hintergrund, dass die Stiftung von Bill Gates während der letzten drei Jahre 4,5 Millionen Dollar für die geowissenschaftliche Forschung zur Verfügung gestellt hat.

Wie viele Klimawissenschaftler stehen auf Du mit Bill Gates? Das ist wirklich Ruhm! Also sind es 0,4°C.

Natürlich heißt das nicht, dass verstärktes Pflanzenwachstum niemals gefährlich sein kann. Aber braucht man wirklich fünf Forscher und sechs Institutionen, die Forschungsgelder vergeben (darunter der National Environment Trust, NSF, NASA und NOAA), nur um durch Computermodelle herauszufinden, dass „es zu einer Zunahme allergener Pollen kommen könnte, wenn die Erwärmung so weitergeht“?

All das lässt uns fragen: Warum ist es so schlimm, dass mehr CO2 die Pflanzen unempfindlicher gegen Dürre macht und hilft, Wüsten wieder zu begrünen? Sollen wir jetzt noch mehr Wälder abholzen, um noch mehr Abkühlung zu bekommen, als es seit 2005 ohnehin schon der Fall ist? Warum geht die „Korrektur von Irrtümern“ immer nur in die Richtung, dass die Erwärmung noch stärker ist als bisher angenommen? Und warum müssen die Steuerzahler Unsummen für diesen Unfug ausgeben?

Die Vereinigten Staaten allein geben etwa 7 Milliarden Dollar aus zur “Erforschung der Klimaänderung.” Das ist sehr viel Geld. Aber eine Mehrheit der Amerikaner sagt inzwischen, dass die Klimaänderung aus natürlichen Gründen erfolgt und nicht den anthropogenen CO2-Eintrag als Ursache hat. Für die Alarmisten bedeutet das, dass logischerweise mehr „Forschung“ und „Schulung“ bzgl. der „Klimakrise“ notwendig ist – aber nicht eine bessere Untersuchung fragwürdiger Forschungen oder der natürlichen Kräfte.

Während einer Sitzung des Energieministeriums (Department of Energy) hinter verschlossenen Türen im März 2009 drückte der Berater Matthew Rogers sein „Dilemma“ aus. Wie sollte er seinen neuen Auftrag erfüllen, mal so eben schnell 36,7 Milliarden Dollar auszugeben aus dem 2009 gegründeten American Recovery and Reinvestment Act (einfacher: Stimulationsgesetz) für erneuerbare Energie und Klimaänderung. Heute, wo nur noch 300 Millionen Dollar Steuergelder übrig sind, die ausgegeben werden können und die dann nicht mehr für die Zukunft unserer Kinder zur Verfügung stehen, sagt der arme Matt, dass „seine Popularität weiter im Sinken sei.“

Fast 2,4 Millionen Dollar aus diesem Stimulationsunsinn könnten für die neuesten Forschungen von Professor Michael Mann an der Penn State University zur Verfügung gestellt werden, dem Vater der Mann’schen globalen Erwärmung, der [als Fälschung] entlarvten Hockeyschlägerkurve und vieler infamer Klimagate-e-mails. In einem der neuen Projekte, in dem Mike der Hauptantreiber ist, kreierten über eine halbe Million US-Dollars nur „0,53“ Jobs in Pennsylvania. Wir müssen die Schlagzeile „Stimulans macht Millionär“ irgendwie verpasst haben.

Wir behaupten nicht, dass Caldeira korrupt oder ein Betrüger ist. Aber wir finden es merkwürdig, dass der allergrößte Teil dieses Geldes in Forschungen fließt, die immer mehr die „Krise der globalen Erwärmung“ (global warming crises) hervorheben. Außerdem kommen uns zahlreiche andere Phänomene komisch vor, als da wären:

*In einer Zeit, in der Exxon Mobile alle seine Zuwendungen auf seiner Website auflistet und wir die “transparenteste Regierung der Geschichte” haben, hüten Regierungsagenturen, liberale Stiftungen und Gruppen von Aktivisten eifersüchtig jede Information darüber, wer wieviel Geld von wem bekommt, um all diese krisenorientierte Forschung zu finanzieren. 

*Universitäten bekämpfen staatsanwaltliche Ermittlungen und bestehen darauf, dass alle Ermittlungen intern und hinter verschlossenen Türen durchgeführt werden müssen. Gleichzeitig sind sie glücklich, Aktionen von Greenpeace zu unterstützen und ihnen Zugang zu e-mails und Arbeitsweisen der Skeptiker der Klimakrise zu verschaffen.

Obwohl sie darauf bestehen, dass ihre Daten und Ergebnisse in höchstem Maße ehrlich und über alle Zweifel erhaben sind, lehnen es die Klimaalarmisten nach wie vor ab, ihre Daten, Computermethoden und Methoden öffentlich zugänglich zu machen. Sie lehnen es ab, ihre mit Steuergeldern finanzierten Forschungen mit Wissenschaftlern zu diskutieren, die „versuchen, etwas Falsches darin zu finden.“

Wenn wir es nicht besser wüssten, würden wir folgende operative Regeln annehmen: Suche niemals nach logischen oder alternativen Antworten! Schiebe alle Probleme oder Phänomene (wie z. B. zurückgehende Froschpopulationen) auf die globale Erwärmung, wo immer es geht! Tue alles, was möglich ist, egal was es kostet, um die Ziele zu erreichen, keine Kohle mehr zu verbrennen, die Kontrolle durch die Regierung zu verbessern und die Gesellschaft „zu verändern.“ Und erwähne in jeden Antrag auf zusätzliche Forschungsgelder die Begriffe „globale Erwärmung“ oder „Klimakrise.“

Es muss keine Korruption sein. Aber mit Sicherheit verbiegt es die Forschung, die Schlussfolgerungen und die politischen Forderungen.

Von  Paul Driessen, Willie Soon und David R. Legates 

Willie Soon ist ein unabhängiger Wissenschaftler am Harvard-Smithonian-Zentrum für Astrophysik. David Legates ist Klimatologe an der Universität von Delaware.

Der Text erschien bei ICECAP

Einen aktuellen Fragebogen von Paul Driessen an die  Senatoren Kerry & Lieberman zu ihrem geplanten  Gesetzentwurf zur Einführung einer Kohlendioxidsteuer finden Sie im Anhang. 

Die Übersetzung besorgte dankenswerterweise Chris Frey EIKE

Related Files




Warmzeiten sind gute Zeiten: Das römische Klimaoptimum – Eine Zusammenfassung

 Genauso sträuben sie sich dagegen zu akzeptieren, dass die Temperatur vor zweitausend Jahren während der römischen Warmperiode RWP ebenfalls höher lag als heute, weil die CO2-Konzentration damals noch geringer war. Folgerichtig sprechen die Alarmisten nicht einmal von der römischen Warmperiode. Und selbst wenn, sie lehnen es ab, die Möglichkeit auch nur zu erwägen, dass diese frühen Warmzeiten global auftraten. Mit Bezug auf die MWP – von der sie hin und wieder sprechen, wenn auch verächtlich – behaupten sie stattdessen, dass es sich dabei um ein rein lokales Phänomen handelt, das auf die Gebiete rings um den Nordatlantik beschränkt war. In dieser Zusammenfassung untersuchen wir diese Zusammenhänge bzgl. der römischen Warmperiode RWP auf der anderen Seite der Nordhemisphäre, in Asien.

Wir beginnen mit der Arbeit von Ma et al. (2003), die mit einem Stalagmiten aus der Jingdong-Höhle etwa 90 km nordöstlich von Peking arbeiteten. Sie wollten die Klimageschichte der vergangenen 3000 Jahre in 100-Jahres-Schritten auf der Basis von ?18O-Daten abschätzen, dem Verhältnis zwischen Magnesium und Strontium (Mg/Sr) und der Fest-flüssig-Verteilung von Magnesium. Sie fanden heraus, dass im Zeitraum von vor 200 bis 500 Jahren „die Temperatur etwa 1.2°C niedriger lag als heute, was sehr gut zur sog. kleinen Eiszeit in Mitteleuropa passt.“ Davor, in den Jahren 700 bis 1000 n. Chr. hat es eine gleich große Abweichung zum Wärmeren gegeben mit dem Höhepunkt um das Jahr 900, was, wie sie sagen, „gut mit der MWP in Europa korrespondiert“. Dieser Wärmeperiode ging die Kaltphase des sog. „Dunklen Zeitalters (dark ages)“ voraus, die wiederum der römischen Warmperiode folgte. Der Stalagmit zeigt, dass es vor dieser RWP viel kälter war.

Zu ähnlichen Ergebnissen kamen Xu et al. (2002) , die die Variationen von ?18O in der Zellulose von Pflanzen untersuchten. Hierzu verwendeten sie Bohrkerne von Torfablagerungen am nordöstlichen Rand des Quinghai-tibetischen Plateaus in China. Sie fanden drei Kaltphasen um die Jahre 500, 700 und 900 während der Kälteperiode des Dunklen Zeitalters, die dem Abklingen der RWP folgten. [Im vorigen Absatz war da von der MWP schon um das Jahr 900 die Rede. Dies ist kein Widerspruch, wenn man bedeckt, dass die Anpassung von Pflanzen an ein anderes Klima einige Zeit dauert. A. d. Übers.] Danach, für die Jahre 1100 bis 1300, berichten sie, dass „der ?18O-Anteil aus Hongyuan in der Torfcellulose zugenommen hatte, was mit der MWP korrespondiert. Abschließend weisen sie auf drei weitere Kaltphasen in den Jahren 1370 – 1400, 1550 – 1660 und 1780 – 1880 hin, die die kleine Eiszeit spiegeln, nach der die aktuelle Erwärmung einsetzte. [Sollte hier nicht nochmals auf die ca. 100jährige Verzögerung bei den Pflanzen explizit hingewiesen werden, weil die Herren NF und NB sofort schreien werden, dass die Kleine Eiszeit ca von 1650 – 1780 dauerte und nicht 100 Jahre später war?]

In einer wesentlich breiter angelegten Studie benutzten Yang et al. (2002) neun verschiedene Proxydatenreihen aus Torf, Sedimenten in Gewässern, Eisbohrkernen, Baumringen und anderen, um einen eindeutigen Temperaturverlauf in ganz China zu erhalten, der die vergangenen zweitausend Jahre umfasst. Diese aus vielen Einzeluntersuchungen gewonnene Reihe zeigt fünf verschiedene Klimaepochen: eine Warmzeit in den Jahren 1 bis 240 (das Ende der RWP), ein kaltes Intervall in den Jahren 240 bis 800 (die Kaltzeit des Dunklen Zeitalters), eine Wiederkehr zu einer Warnzeit von 800 bis 1100 (was die mittelalterliche Warmperiode umfasst), eine weitere Kaltzeit zwischen 1400 und 1820 (die Kleine Eiszeit) und – schließlich – die jüngste Warmphase (Current Warm Period CWP), deren Erwärmung in der ersten Hälfte des 19. Jahrhunderts begann. Von größter Signifikanz war jedoch die Tatsache, dass die Studie von Yang et al eindeutig zeigte, dass die höchste Temperatur der letzten zwei Jahrtausende im zweiten und dritten Jahrhundert beobachtet wurden, also während der späten römischen Warmphase.

Eine andere breit angelegte Studie in einem großen Gebiet von China wurde von Ge et al. (2003) veröffentlicht. Sie werteten 200 verschiedene Datensätze phänologischer und meteorologischer Art aus einer ganzen Anzahl historischer Chroniken aus, von denen viele durch Gong und Chen (1980), Man (1990), Sheng (1990) sowie Wen und Wen (1996) beschrieben wurden. Damit wollten sie eine 2000-jährige Geschichte des Temperaturverlaufs in den Winterhalbjahren (Oktober bis April) in einem Gebiet in China erstellen, das zwischen 27° und 40° nördlicher Breite sowie 107° und 120° östlicher Länge liegt. Daraus konnten sie folgern, dass „sich seit Christi Geburt das Klima mit einer Rate um etwa 0.17°C pro Jahrhundert abkühlte“. Gut dazu passt, dass dies die Zeit war, in der die RWP zu Ende ging und in die Kaltzeit des Dunklen Zeitalters überging. Sie weisen außerdem darauf hin, dass um das Jahr 490 die Temperatur etwa 1°C niedriger lag als gegenwärtig (d. h. bezogen auf das Mittel der Periode 1951 – 1980).

Sie fahren fort: “Danach folgte eine warme Periode von 570 bis 1310 mit einem Erwärmungstrend von etwa 0.04°C pro Jahrhundert.  Auf dem Höhepunkt dieser Erwärmung lag die Temperatur um 0.3 bis 0.6°C höher als gegenwärtig bezogen auf einen Zeitraum von 30 Jahren, jedoch über 0.9°C wärmer bezogen auf einen Zeitraum von 10 Jahren.“ Dieses Ergebnis spricht sehr für sich selbst: während der mittelalterlichen Warmphase war es in diesem großen Gebiet von China wärmer als jemals in modernen Zeiten in einem ähnlichen Zeitraum.

Ge et al. stellten weiterhin fest, dass „nach dem Jahr 1310 die Temperatur rasch mit einer Rate von 1.0°C pro Jahrhundert zurück ging; die mittlere Temperatur der vier Kaltzeiten lag um etwa 0.6 – 0.9°C niedriger als gegenwärtig; auf dem Tiefpunkt dieser Kaltphase bis 1.1°C niedriger.“ Hierbei handelte es sich natürlich um die Kleine Eiszeit, und es scheint so, als ob sich die Welt immer noch in der Phase der Erholung daraus befindet. In diesem Zusammenhang stellen die Autoren fest, dass „die Temperatur während des 20. Jahrhunderts rasch gestiegen ist, besonders im Zeitraum 1981 – 1999, und dass die mittlere Temperatur derzeit um 0.5°C über dem Wert der Periode 1951 – 1980 liegt.“ Nichtsdestotrotz betonen Ge et al., dass die Temperatur während der MWP noch höher lagen, und das für mehrere Perioden von 10 bzw. 30 Jahren.

In einer weiteren Regionalstudie verwendeten Bao et al. (2003) bereits ausgewertete Proxydaten (?18O aus Eisbohrkernen sowie aus Torfzellulose, Baumringdaten, Kohlenstoffisotopen aus Baumringen, dem gesamten organischen Kohlenstoffgehalt, Wassertemperaturen in Binnenseen, Gletscheränderungen, Methangehalt in Eisbohrkernen, magnetischen Parametern, Pollenablagerungen und Sedimenten), die sie aus zwanzig bereits veröffentlichten Studien gewannen. Daraus wollten sie einen 2000-jährigen Temperaturverlauf in den nordöstlichen, südlichen und westlichen Gebieten des Tibetischen Plateaus ableiten. Nun, was fanden sie heraus?

Die Temperaturverläufe in allen drei Gebieten des Tibetischen Plateaus unterschieden sich alle signifikant. Jedoch hatten sie alle eine wichtige Gemeinsamkeit: Es gab mehr als nur eine 50-Jahre-Periode, in der die Temperatur in allen drei Gebieten höher lag als in der jüngsten 50-Jahr-Periode. Im nordöstlichen Sektor des Tibetischen Plateaus traten diese Zeiträume maximaler Erwärmung während der Mittelalterlichen Warmperiode auf, während sie im östlichen Sektor zur Zeit der Römischen Warmperiode auftraten. Im südlichen Sektor lag die Temperatur in beiden  Warmphasen höher. Fazit: für alle drei Sektoren des Tibetischen Plateaus gilt, dass an den jüngsten relativ hohen Temperaturen nichts Ungewöhnliches ist.

Hinsichtlich des gesamten Plateaus ergibt sich so ziemlich das gleiche Bild: es gab nichts Außergewöhnliches in der jüngsten Vergangenheit. Für die gesamte Region ergibt sich jedoch, dass es in nur einer früheren 50-Jahr-Periode wärmer als zuletzt war, und zwar gegen Ende der römischen Warmperiode, also vor etwa 1850 Jahren.

Ein anderer wichtiger Beitrag zur Geschichte der römischen Warmperiode stammt von Bao et al. (2004). Sie sammelten und analysierten zahlreiche Proxydaten aus Eisbohrkernen, Baumringen, Fluss- und Seesedimenten, studierten aber auch historische Aufzeichnungen. Dies ermöglichte es ihnen, den Klimaverlauf während der Han-Dynastien (206 vor bis 220 nach Christus) im Vergleich zum Klima der letzten zwei Jahrtausende zu ermitteln. Sie schreiben, dass ihre Analysen „starke, eindeutige Beweise für eine relativ warme und feuchte Periode“ im gleichen Zeitintervall wie die römische Warmperiode zeigten. Tatsächlich stellten sie fest, dass die Temperaturen in diesem Zeitraum höher lagen als heute. Außerdem beschreiben sie, dass diese Warmperiode auch in Zentral- und Westchina aufgetreten war. Danach gab es eine „rapide Abkühlung“ (Zhu, 1973; Hameed and Gong, 1993; Yan et al., 1991, 1993; Shi and Zhang, 1996; Ge et al., 2002). Wir stellen zusätzlich fest, dass historische Chroniken von einer „abrupten Klimaänderung von warmen und feuchten Bedingungen zu kühlerem und trockenerem Klima um das Jahr 280 n. C.“ berichten (Zhang et al., 1994). Sie fügen die Feststellung hinzu, dass „drei verschiedene Methoden, den Temperaturverlauf der letzten 2000 Jahre zu ermitteln, eine offensichtliche Warmphase im Zeitraum 0 bis 240 n. C. ergaben (Yang et al., 2002), und dass eine Rekonstruktion der Sommertemperatur der letzten 2650 Jahre aus einem Stalagmiten der Shihua-Höhle nahe Peking (Tan et al., 2003) zeigte, dass die Temperatur in der Zeit der RWP über dem Mittelwert der gesamten Temperaturreihe lag.“

In einer Zusammenfassung ihrer Forschungsergebnisse erklären Bao et al., dass „die warmen und feuchten Bedingungen während der westlichen und östlichen Han-Dynastien [i. e. die RWP] offensichtlich Landwirtschaft im großen Stil sowie einen sozialen und gesellschaftlichen Boom ermöglichten. Hiervon zeugen noch die berühmten Ruinenstätten Loulan, Niya und Keriya“. Pflanzenrückstände von Walnussbäumen, Reis, Gerste, bestimmten Gräsern und Weizenkörnern, die in dem Gebiet gefunden wurden, deuten darauf hin, dass die Wasser- und Temperaturbedingungen zur Zeit der RWP in diesem Teil von Asien „geeignet für den Reisanbau und allgemein viel besser als heute waren.“

Feng and Hu (2005) ermittelten dekadenweise den Temperaturverlauf der letzten zwei Jahrtausende aus Eisbohrkernen und Baumringdaten an fünf verschiedenen Stellen auf dem Tibetischen Plateau. Dabei zeigte sich, dass an zwei Stellen die Temperatur im späten 20. Jahrhundert am höchsten lag verglichen mit den letzten 2000 Jahren. An den drei anderen Stellen (Baumringdaten aus Dulan und dem südlichen tibetischen Plateau, Eisbohrkern aus Guilya) war das jedoch nicht der Fall! Beispielsweise zeigen die Daten aus Guilya, dass es dort in den ersten beiden Jahrhunderten des Zeitraumes (zeitgleich mit der RWP) wärmer war als während der letzten zwei Jahrzehnte des 20. Jahrhunderts. Im südlichen tibetischen Plateau war es während eines ganzen weiteren Jahrhunderts zu Anfang dieser Reihe und während zweier Jahrhunderte zur Zeit der MWP signifikant wärmer als heute.

Wei et al. (2004) untersuchten an einer bestimmten Korallenart (Porites lutea) vor der Küste der Leizhou-Halbinsel im nördlichen Teil des Südchinesischen Meeres mit hoch auflösenden Messgeräten das Strontium/Kalzium-Verhältnis, während sie deren Alter mit Hilfe der Uran-Thorium- Methode ermittelten. Die Abhängigkeit des Mischungsverhältnisses zwischen Strontium und Kalium von der Temperatur wurde an einer lebenden Koralle der Gattung Porites lutea festgestellt, indem man dieses Verhältnis zur Wassertemperatur in Beziehung setzte, die an der nahe gelegenen meteorologischen Station Haikou im Zeitraum von 1989 bis 2000 gemessen wurde. Mit diesen Methoden konnte ermittelt werden, dass eine der Korallen aus der Zeit 489 – 500 stammte, also mitten in der Kaltphase des Dunklen Zeitalters, während die andere aus der Zeit 539 – 530 v. C. stammte, also aus der Zeit der RWP. Aus der ersteren schlossen Wei et al., dass die Wassertemperatur zur Zeit der DACP (Dark Ages Cold Period; Periode des Dunklen Zeitalters) etwa 2.0°C unter der der letzten Dekade des 20. Jahrhunderts lag. In der Zeit der RWP zeigte die zweite Koralle, dass die Wassertemperatur etwa gleich derjenigen in der Periode 1989 – 2000 war, wie sie an der Station Haikou gemessen worden war.

 [Der folgende Absatz beschreibt dieses Verfahren mit anderen Worten noch einmal. Daher wird er hier nur zusammengefasst wiedergegeben. A. d. Übers.]  In einer anderen Studie mit dem gleichen Verfahren kamen Yu et al. (2005) zu dem Ergebnis, dass das Verhältnis zwischen Strontium und Kalzium “ein ideales und verlässliches Thermometer” darstellt. Zusammen mit einer genauen Altersbestimmung ergibt sich, dass die Wassertemperatur während der RWP ähnlich derjenigen wie in den 1990er – 2000er Jahren war, der wärmsten Dekade des vergangenen Jahrhunderts. Und weiter: „Während der Eastern Zhou-Dynastie (770 – 256 v. C.) war es so warm, dass die Flüsse in der heutigen Provinz Shangdong (35-38°N) den ganzen Winter über in den Jahren 698, 590 und 545 v. C. nicht zugefroren waren.“

In verschiedenen anderen Studien in ganz Asien, die sich mit diesem Zeitrahmen befassen, konnte ebenfalls nachgewiesen werden, dass das Klima über die Jahrtausende variierte und dass es eine signifikante Römische Warmperiode gab. Diese Studien schließen ein diejenige von (1) Ji et al. (2005), in der ein Bohrkern aus Sedimenten aus dem Qinghai-See im Nordosten des tibetischen Plateaus spektroskopisch untersucht wurde, um eine hoch aufgelöste Analyse der asiatischen Monsunereignisse über einen Zeitraum von  18.000 Jahren zu gewinnen. (2) Beweise wurden auch gefunden von Matul et al. (2007) , die die historische Mikroflora sowie Sporen- und Pollenablagerungen aus verschiedenen Bohrkernen von Sedimenten an 21 Stellen auf dem Schelf der Laptev-See untersuchten, aus einem Gebiet, das vom Delta der Lena bis zum Seegebiet zwischen 130° und 134° östl. Länge sowie 71° bis 78° nördl. Breite reicht. Diese Bohrkerne hat eine russisch-französische Expedition mit dem Forschungsschiff Yakov Smimitsky im Jahre 1991 abgestochen.

(3) Bhattacharyya et al. (2007) rekonstruierten den Verlauf von Wärme und Feuchtigkeit während der letzten 1800 Jahre in der Region um den Paradise – See im nordöstlichen Himalaja aus Sedimenten mit Pollenablagerungen und der Anreicherung mit dem Kohlenstoffisotop ?13C. Sie konnten eine Periode „warmen und feuchten Klimas, ähnlich den gegenwärtigen Bedingungen“ um das Jahr 240 n. C. identifizieren, also am Ende der RWP. Eine weitere, sogar wärmere Periode fand sich um das Jahr 985, was sehr gut mit der MWP korreliert.

Die jüngste Studie von Yang et al. (2009) analysierte Proxydatenreihen hinsichtlich des Verlaufs von Temperatur und Niederschlag im ariden Zentralasien während der letzten 2000 Jahre. Sie konzentrierten sich auf das Verhältnis zwischen Temperatur und Niederschlag in verschiedenen Zeiträumen von Jahren bis Jahrhunderten. Hinsichtlich der Temperatur ergab sich, dass „die interessantesten Phänomene die Existenz der MWP und der Kleinen Eiszeit (Little Ice Age LIA) waren“, die sich beide in der Abbildung unten spiegeln. Auch die davor liegende RWP und die Kaltzeit des Dunklen Zeitalters DACP zeichnen sich ab, ebenso wie die kürzliche bis in das 20 Jahrhundert reichende Erwärmung, die wir die Gegenwärtige Warmperiode (Current Warm Period CWP) nennen wollen. Hinsichtlich des Niederschlags stellen die fünf Forscher fest, dass die MWP „mit ungewöhnlicher Trockenheit verbunden war, während die LIA mit extrem feuchten Bedingungen zusammen fiel.“ 

Darstellung verschiedener standardisierter Temperaturverläufe im ariden Zentralasien

Nach Yang et al. (2009)

Wieder einmal haben wir also ein ganzes Bündel an Beweisen für die natürliche, nicht durch CO2 verursachte Klimavariation im Zeitraum von Jahrtausenden, die Asien – und die übrige Welt gleichermaßen – in die römische Warmperiode, die Kaltzeit der dunklen Zeitalter, die mittelalterliche Warmperiode und die kleine Eiszeit hinein und dann wieder heraus geführt hat. Und diese große Anzahl realer Beobachtungen und Fakten liefert alle Gründe für die Annahme, dass die natürliche Klimavariation unseren Planeten 1) in die gegenwärtige Warmphase geführt hat und uns 2) sehr wahrscheinlich auch wieder daraus heraus führt, und zwar in einer nicht allzu fernen Zukunft. 

Der Artikel erschien auf der Homepage des CO2 Science Institutes der Idso´s

Alle Hervorhebungen im Original, außer den Anmerkungen des Übersetzers.

Ein Artikel zum Thema erschien im Spiegel am 23.5.2005, Sie finden ein Kopie davon im Anhang

Übersetzer: Chris Frey

Literatur
Bao, Y., Brauning, A. and Yafeng, S. 2003. Late Holocene temperature fluctuations on the Tibetan Plateau. Quaternary Science Reviews 22: 2335-2344. 

Bao, Y., Braeuning, A., Yafeng, S. and Fahu, C. 2004. Evidence for a late Holocene warm and humid climate period and environmental characteristics in the arid zones of northwest China during 2.2 ~ 1.8 kyr B.P. Journal of Geophysical Research 109: 10.1029/2003JD003787.

Bhattacharyya, A., Sharma, J., Shah, S.K. and Chaudhary, V. 2007. Climatic changes during the last 1800 yrs BP from Paradise Lake, Sela Pass, Arunachal Pradesh, Northeast Himalaya. Current Science 93: 983-987.

Chu, G., Sun, Q., Li, S., Zheng, M., Jia, X., Lu, C., Liu, J. and Liu, T. 2005. Long-chain alkenone distributions and temperature dependence in lacustrine surface sediments from China. Geochimica et Cosmochimica Acta 69: 4985-5003.

Feng, S. and Hu, Q. 2005. Regulation of Tibetan Plateau heating on variation of Indian summer monsoon in the last two millennia. Geophysical Research Letters 32: 10.1029/2004GL021246.

Ge, Q., Zheng, J., Fang, X., Man, Z., Zhang, X., Zhang, P. and Wang, W.-C. 2003. Winter half-year temperature reconstruction for the middle and lower reaches of the Yellow River and Yangtze River, China, during the past 2000 years. The Holocene 13: 933-940.

Ge, Q., Zheng, J.Y., Man, Z.M., Fang, X.Q. and Zhang, P.Y. 2002. Reconstruction and analysis on the series of winter-half-year temperature changes over the past 2000 years in eastern China. Earth Science Frontiers 9: 169-181.

Gong, G. and Chen, E. 1980. On the variation of the growing season and agriculture. Scientia Atmospherica Sinica 4: 24-29.

Hameed, S. and Gong, G.F. 1993. Temperature variation in China during historical times. In: Climate Change and Its Impact. (Y. Zhang et al., Eds.) China Meteorology, Beijing, China, pp. 57-69.

Ji, J., Shen, J., Balsam, W., Chen, J., Liu, L. and Liu, X. 2005. Asian monsoon oscillations in the northeastern Qinghai-Tibet Plateau since the late glacial as interpreted from visible reflectance of Qinghai Lake sediments. Earth and Planetary Science Letters 233: 61-70.

Liu, Z., Henderson, A.C.G. and Huang, Y. 2006. Alkenone-based reconstruction of late-Holocene surface temperature and salinity changes in Lake Qinghai, China. Geophysical Research Letters 33: 10.1029/2006GL026151.

Ma, Z., Li, H., Xia, M., Ku, T., Peng, Z., Chen, Y. and Zhang, Z. 2003. Paleotemperature changes over the past 3000 years in eastern Beijing, China: A reconstruction based on Mg/Sr records in a stalagmite. Chinese Science Bulletin 48: 395-400.

Man, Z. 1990. Study on the cold/warm stages of Tang Dynasty and the characteristics of each cold/warm stage. Historical Geography 8: 1-15.

Mann, M.E. and Jones, P.D. 2003. Global surface temperatures over the past two millennia. Geophysical Research Letters 30: 10.1029/2003GL017814.

Matul, A.G., Khusid, T.A., Mukhina, V.V., Chekhovskaya, M.P. and Safarova, S.A. 2007. Recent and late Holocene environments on the southeastern shelf of the Laptev Sea as inferred from microfossil data. Oceanology 47: 80-90.

Prahl, F.G., Muehlhausen, L.A. and Zahnle, D.L. 1988. Further evaluation of long-chain alkenones as indicators of paleoceanographic conditions. Geochimica et Cosmochimica Acta 52: 2303-2310.

Sheng, F. 1990. A preliminary exploration of the warmth and coldness in Henan Province in the historical period. Historical Geography 7: 160-170.

Shi, Y. and Zhang, P.Y. (Eds.) Climatic Variation in Historical Time in China. Shandong Science and Technology, Jinan, China.

Wei, G., Yu, K. and Zhao, J. 2004. Sea surface temperature variations recorded on coralline Sr/Ca ratios during Mid-Late Holocene in Leizhou Peninsula. Chinese Science Bulletin 49: 1876-1881.

Wen, H. and Wen, H. 1996. Winter-Half-Year Cold/Warm Change in Historical Period of China. Science Press, Beijing, China.

Xu, H., Hong, Y., Lin, Q., Hong, B., Jiang, H. and Zhu, Y. 2002. Temperature variations in the past 6000 years inferred from ?18O of peat cellulose from Hongyuan, China. Chinese Science Bulletin 47: 1578-1584.

Yan, Z.W., Ye, D.Z. and Wang, C. 1991. Climatic jumps in the flood/drought historical chronology of central China. Climate Dynamics 6: 153-160.

Yan, Z.W., Li, Z.Y. and Wang, C. 1993. Analysis on climatic jump in historical times on decade-century timescales. Sci. Atmos. Sin. 17: 663-672.

Yang, B., Braeuning, A., Johnson, K.R. and Yafeng, S. 2002. General characteristics of temperature variation in China during the last two millennia. Geophysical Research Letters 29: 10.1029/2001GL014485.

Yang, B., Wang, J., Brauning, A., Dong, Z. and Esper, J. 2009. Late Holocene climatic and environmental changes in arid central Asia. Quaternary International 194: 68-78.

Yu, K.-F., Zhao, J.-X, Wei, G.-J., Cheng, X.-R., Chen, T.-G., Felis, T., Wang, P.-X. and Liu, T-.S. 2005. ?18O, Sr/Ca and Mg/Ca records of Porites lutea corals from Leizhou Peninsula, northern South China Sea, and their applicability as paleoclimatic indicators. Palaeogeography, Palaeoclimatology, Palaeoecology 218: 57-73.

Zhang, P.Y., Wang, Z., Liu, X.L. and Zhang, S.H. 1994. Climatic evolution in China during the recent 2000 years. Sci. China Ser. B. 24: 998-1008.

Zhu, K.Z. 1973. A preliminary study on the climatic fluctuations during the last 5,000 years in China. Sci. Sin. 16: 226-256.

Zink, K.G., Leythaeuser, D., Melkonian, M. and Schwark, L. 2001. Temperature dependency of long-chain alkenone distributions in recent to fossil limnic sediments and in lake waters. Geochimica et Cosmochimica Acta 65: 253-265.

Last updated 12 May 2010 

Printer Friendly Version

Gefunden auf: http://www.co2science.org/subject/r/summaries/rwpasia.php

Related Files




Die 10 Billionen Dollar Gelddruckmaschine im Handel mit Emissionsrechten: Die Chicago Climate Exchange (CCX)

Bei ihrer Gründung im Jahre 2003 wurde die Chicago Climate Exchange (CCX) das erste Handelsunternehmen der Welt für CO2-Emissionen, eingerichtet, alle Transaktionen zu regulieren, die unter Arbeitsplänen zu Emissionsrechten entwickelt wurden, um Treibhausgas-Emissionen von US-Unternehmen einzuschränken und zu besteuern. 

Die frühesten Wurzeln der CCX können bis ins Jahr 2000 zurückverfolgt werden, als Dr. Richard Sandor – ein Ökonom und Universitätsprofessor an der Northwestern University und früherer Leiter der Chicago Mercantile Exchange – die Umsetzbarkeit zu untersuchen begann, ein Emissionsrechtesystem in den Vereinigten Staaten zu initiieren. Zu dieser Zeit besaß Sandor ein Unternehmen mit dem Namen Environmental Financial Products (EFP). Er kannte auch den Senator des Staates Illinois, Barack Obama, der zusätzlich zu seinen legislativen Verpflichtungen ein Führungsmitglied der Joyce Foundation aus Chicago war, die lange eine wichtige Unterstützerin radikaler Umweltgruppen und von Gerichtsprozessen war. Im Jahre 2001 half Obama, ein Darlehen der Joyce Foundation über 347.600 US-$ an Sandors EFP zu lenken. Die Präsidentin der Stiftung, Paula DiPerna, erklärte, dass dieses Darlehen bezweckt, „den Aufbau einer Pilotphase für einen Markt für CO2-Emissionshandel zu unterstützen, die Chicago Climate Exchange“.

Im August 2001 meldete Carlton Bartels, ein Teilhaber von Cantor Fitzgerald und der Geschäftsführer einer Firma namens CO2e.com, ein Patent auf die Software an, welche die CCX irgendwann einmal benutzen würde, um den Handel von CO2-Emissionsrechten in Wohngebieten genau zu überwachen. Aber bevor er sich das Patent sichern konnte, wurde Bartels bei den 9/11-Terroranschlägen auf das World Trade Center getötet. Seine Witwe machte anschließend einen Käufer für die Softwaretechnologie aus: Franklin Raines, Geschäftsführer bei Fannie Mae, dem Hypothekenbank-Giganten, dessen Praktiken, riskante Hypotheken von Banken anzukaufen -und sie dann zu bündeln und seinen Investoren als Hypothekenpfandbriefe zu verkaufen- den US-Immobilienmarkt letzten Endes in einen steilen Niedergang senden würde. Raines überwachte diese Praxis nicht nur sechs Jahre lang, sondern er manipulierte auch Gewinn- und Verlustrechnungen so, um sich selbst und anderen Fannie Mae-Führungskräften zu ermöglichen, gigantische Bonuszahlungen zu verdienen – fast 100 Mio. US-$ für Raines allein – sogar, als der Darlehnsgeber zusammenbrach. Raines sollte schließlich der Kanal sein, mit dem Bartels Software ihren Weg zur CCX findet.

Im November 2001 legte Paula DiPerna ihr Amt als Präsidentin der Joyce Foundation nieder und wechselte zur CCX, wo sie weiterarbeitete, um dort stellvertretende Vorsitzende zu werden und die unternehmensinterne Personalbeschaffung und Öffentlichkeitsarbeit leitete, und als Präsidentin einer Tochtergesellschaft tätig war, der CCX International.

Im Jahre 2002 wurde ein zweites Darlehen der Joyce Foundation über 760.100 US-$ dazu benutzt, den „Start“ der CCX mit seinen 14 Gründungsmitgliedern im Jahr 2003 zu finanzieren, die Prominentesten von ihnen waren so unternehmerische Giganten wie DuPont, die Ford Motor Company und Motorola.

Im November 2002 arbeiteten Franklin Raines und neun Geschäftspartner im Auftrag von Fannie Mae zusammen, um ein Patent auf die Softwaretechnologie anzumelden, die sie von Carlton Bartels Witwe gekauft hatten. Einer dieser Geschäftspartner war Scott Lesmes, der frühere Vizepräsident von Fannie Mae, der für das oben erwähnte System der gebündelten Hypotheken verantwortlich war. Ein anderer war Robert Sahadi, auch ein ehemaliger Vizepräsident der Fannie Mae, der jetzt GreenSpace Investment Finanzdienstleistungen von  seinem 450 m²-Haus in Maryland aus vertreibt.

Das U.S. Patent and Trademark Office erteilte das Patent am 07. November 2006, einen Tag, nachdem die Demokraten die Kontrolle im Kongress übernommen hatten. Die patentierte Technologie, die jetzt beim CCX eingesetzt wird, bündelt CO2 und andere Treibhausgase in einer ähnlichen Weise, wie Fannie Mae faule Hypotheken unter Raines und Lesmes gebündelt hat. Die Kurzfassung des Patents beschreibt, wie CO2 „und andere noch zu bestimmende Umweltschadstoffe in einem einzigen Emissionspool zusammengefasst“ und gehandelt werden.

Heute bezeichnet sich die CCX als „Nord-Amerikas einzigen Emissionsrechtehandel für alle sechs Treibhausgase“- nämlich CO2, Methan, Stickstoffoxid, Schwefelhexaflourid, Perfluorkohlenstoffe und teilfluorierte Kohlenwasserstoffe. Das Unternehmen hat annähernd 300 multinationale Mitglieder, die eine große Anzahl von Industrien repräsentieren, wie die Fahrzeugindustrie, verarbeitende Industrie, Chemie, Elektronik, Pharmazie, Stahl und Transportwesen. Unter den bekannteren Mitgliedern sind die Ford Motor Company, Dow Corning, DuPont, Kodak, Motorola, Sony, Bank of America, Honeywell International, Safeway, IBM und Intel Corporation.

CCX Mitglieder werden definiert als Funktionseinheiten, die „direkte Treibhausgas-Emissionen“ im Zuge ihrer normalen Geschäftstätigkeit produzieren. Die Mitglieder legen sich fest, eine „rechtsverbindliche Verpflichtung zur Emissionsreduktion“ einzugehen, und damit ihre gesamten Emissionen um mindestens 6 % innerhalb einer Periode von 6 Jahren abzusenken. Das CCX sagt, dass die Mitglieder im Gegenzug als „international unter  Umweltgesichtspunkten führende Unternehmen in ihren Industriezweigen anerkannt werden“.

Außerordentliche Mitglieder  setzen sich zusammen aus einer separaten Klassifizierung von CCX-Teilnehmern; sie sind „Bürounternehmen oder Institutionen“, die „vernachlässigbare direkte Emissionen, aber indirekte Emissionen durch den Verbrauch von Elektrizität und Geschäftsreisen generieren, neben anderen Aktivitäten“. Als außerordentliche Mitglieder der CCX legen sich diese Unternehmen rechtsverbindlich fest, sich 100 % ihrer jährlichen indirekten Emissionen“ über einen 6-Jahres-Zeitraum anrechnen zu lassen. Unter den namhafteren außerordentlichen Mitgliedern der CCX sind die Nathan Cummings Foundation, die Rainforest Alliance und das World Resources Institute.

Zu den weltweiten CCX-Filialen zählen jetzt die European Climate Exchange, die Montreal Climate Exchange und die Tianjin Climate Exchange (in China). Darüber hinaus ist die CCX selbst die Filiale eines in London ansässigen Unternehmens, der Climate Exchange PLC  geworden, dem auch die European Climate Exchange gehört und vom Gründer des CCX, Richard Sandor, geleitet wird.

Gemäß Sandors Einschätzung macht der Emissionsrechtehandel einen 10-Billionen-US-$-Markt pro Jahr aus. Generation Investment Management (GIM) – ein Unternehmen, das CO2-Emissionsreduktionszertifikate anbietet, dessen Vorsitzender und Gründungsmitglied Al Gore ist – bemerkte das enorme Profitpotential, erwarb einen 10-Prozent-Anteil an der CCX und wurde der fünftgrößte Mitinhaber der Gesellschaft. 2006 erwarb Goldman Sachs auch einen 10-Prozent-Anteil der CCX.

Ein besonders bemerkenswertes Vorstandsmitglied der CCX ist Maurice Strong,  ein früherer Generalsekretär der UN-Umweltkonferenz von 1992 und ein führender Architekt des Kyoto Protokolls von 1997, einer internationalen Vereinbarung, die für 37 Industriestaaten verbindliche Ziele für Reduktionen von Treibhausgasemissionen festsetzte. Strong hat eine Vorgeschichte von Verstößen wegen Insider-Handels aufzuweisen.

Im Jahre 2009 kaufte ein Konzern in Atlanta, die Intercontinental Exchange (ICE), einen 4,8 %-Anteil der CCX. Im April 2010 willigte die ICE ein, 604 Mio. US-$ für die Climate Exchange PLC zu zahlen, der in London ansässigen Betreiberin der CCX und der European Climate Exchange.

Chicago Climate Exchange (CCX)

190 South LaSalle Street, Suite 1100 Chicago, Illinois 60603

Phone: (312)554-3350 URL: http://www.chicagoclimatex.com

Übernommen von Discover the network org 

Eine kleine Werbung (Welcome to Trading Carbon’s Bonn climate talks supplement.)  für deutsche Trittbrettfahrer finden Sie hier

Die Übersetzung besorgte dankenswerterweise Thomas Ebbinghaus EIKE 




500 Jahre nach Kolumbus: Klimamodelle betrachten die Erde als Scheibe!

Dieser Annahme zufolge wird die Erde als Scheibe betrachtet, die Sonne scheint Tag und Nacht mit gleichbleibender Stärke, und die Temperatur der Erdoberfläche ist konstant.

Alle Mengen auf der Grafik werden als richtig genähert bis auf Watt/m2 angegeben, doch im Papier werden die Zahlen als mit sehr hoher Ungenauigkeit behaftet und als nicht messbar be­zeichnet. Stattdessen müssten sie immer "qualitativ abgeschätzt" werden. Mit diesem Vorge­hen wäre es möglich, die Ungenauigkeiten bis auf die nötige Ebene anzuheben, um eine "ausgeglichene" Energiebilanz darzustellen. Die gesamte ankommende Energiemenge wird der abgehenden Energiemenge gleich gesetzt. Auf diese Art und Weise könnte man jetzt die Wirkung der zusätzlichen Treibhausgase errechnen. Falls es keinen Ausgleich gäbe oder der Ausgleich variieren würde, wäre es unmöglich, die Wirkung der zusätzlichen Treibhausgase  zu errechnen.

Jetzt hat es im folgendem Papier einen Sinneswandel gegeben.

Trenberth, K E, J T Fassulo, and J T Kiehl. 2009 Earth’s Global Energy Budget. Bull Am. Met. Soc. 90 311-323.

Dieses Papier führt doch tatsächlich eine vollständige Neubewertung der Zahlen aus dem er­sten Papier durch. Die korrigierte Version mit dem Mittelwert zwischen März 2000 und Mai 2004 zeigt nachfolgende Grafik.

Die Erde wurde nun gründlich abgeflacht, so als ob sie von einer kosmischen Dampfwalze überrollt worden wäre. Die meisten Zahlen sind verändert. Diejenigen für die einfallende und für die ausgehende Strahlung sind jetzt offensichtlich bis auf eine Dezimalstelle genau. Bei den übrigen gibt es Schwierigkeiten. Das Papier steckt voller Diskussionen, wie man die "qualitati­ven Schätzwerte"  der mit ihnen möglicherweise verbundenen Unsicherheit verbessern könn­te. Aber derzeit wird es für unmöglich befunden, ihre Abschätzfähigkeit genügend auszuweiten. Also ist sie [die Erde] im Zeitraum von 2000 – 2004 bis zu 0,9 Watt/m2 pro Jahr  aus dem Gleichgewicht.

Unglücklicherweise gibt es keinen Zweifel, dass die Erdtemperatur während dieser Periode abgekühlt ist. Das Papier ist daher ein sicherer Beweis, dass die ursprünglichen Konzepte hin­ter den Modellen falsch sind.

Das sollte doch ins Auge springen: Die Erde dreht sich. Die Sonne scheint nicht nachts. Die Temperatur ist nicht konstant. Jeder Teil der Erde hat eine unterschiedliche Energie-Einstrah­lung und Abstrahlung.

Es gibt eine korrekte mathematische Behandlung. Sie würde die Aufteilung der Erdoberfläche in eine große Zahl von winzigen Inkrementen umfassen und der Energie-Input und Output müsste für jedes einzelne berechnet werden, wobei die Veränderungen bei allen daran betei­ligten Faktoren einzuschließen wären. Sodann müsste eine riesige Integration aller dieser Re­sultate durchgeführt werden, um eine vollständige Energie-Bilanz der Erde zu erstellen. Erst wenn dieses wiederholt über einen langen Zeitraum durchgeführt worden wäre, könnte der Einfluss einer Zunahme von Treibhausgasen zu erkennen sein.

Für eine derartige Übung gibt es derzeit und wahrscheinlich auch in Zukunft keine Daten.

Bis dann müssen wir uns mit den von den Meteorologen während der vergangenen beiden Jahrhunderte entwickelten Methoden begnügen, und hoffen, dass diese zukünftig erweitert werden können, um uns das Werkzeug für die Beurteilung der klimatischen Auswirkungen von zusätzlichen Treibhausgasen an die Hand zu geben.

Die derzeit befürwortete Treibhausgas-Theorie ist tot und deren Folgemaßnahmen müssen schleunigst beseitigt werden.

"Es ist gut, einen Fehler zu beseitigen, und manchmal ist das besser, als eine neue Wahrheit oder neue Tatsache in die Welt zu setzen."
Charles Darwin

Vincent Gray*, Wellington

* Dr. Vincent Gray ist Chemiker, sowie IPCC Expert Reviewer seit 1991 und einer der fleißigsten dazu. Dr. Gray ist Mitbegründer der New Zealand Climate Science Coalition und arbeitet seit dieser Zeit ausschließlich an Klimafragen.




Drei Anmerkungen zum zwei Grad Ziel, z.B. Es gibt keine „mittlere globale Temperatur“

Es gibt keine „mittlere globale Temperatur“

Die uns umgebende Luft wird nicht von oben, von der Sonnenstrahlung erwärmt, sondern von unten, vom Boden aus. Denn diesen erreicht das Sonnenlicht fast ungehindert, um in Teilen absorbiert und als infrarote Wärmestrahlung wieder emittiert zu werden. Was man „Erderwärmung“ nennt, ist also lokal, je nach Beschaffenheit der Oberfläche, völlig unterschiedlich. Die Kugelgestalt der Erde, als deren Folge die einfallende Energiedichte pro Fläche in hohen Breiten im Mittel deutlich geringer als in äquatorialen Regionen ist, trägt das ihrige dazu bei. Zwei beliebige Thermometer an verschiedenen Orten auf diesem Planeten bzw. die sie umgebenden Luftreservoirs stehen daher nicht im thermischen Gleichgewicht miteinander (denn sie sind einem ständig differierenden Wärmezustrom ausgesetzt). Die Angabe eines mittleren Temperaturwertes zwischen diesen beiden Reservoirs ist also physikalisch sinnlos, sie entspricht keinem in der Realität feststellbaren Aspekt. Man kann es aber auch einfacher erläutern, angepaßt an die Möglichkeiten der Laien in der Politik und in den Medien.

Man betrachte zwei Menschen. Der eine habe eine Masse von 70 kg, der andere eine von 90 kg. Offensichtlich wiegen beide zusammen 160 kg. Eine Waage, auf die sich beide gleichzeitig stellen, würde das jedenfalls anzeigen. Und dieser Waage ist es nun gleich, ob sich diese beiden, oder zwei andere Personen mit jeweils einem Gewicht von 80 kg auf ihr tummeln. Es ist also sinnvoll, in diesem Beispiel von einer mittleren Masse von 80 kg zu sprechen. Nun habe der eine mit einer Körpertemperatur von 34° eine Unterkühlung. Der andere wiederum habe Fieber mit 40°. Haben beide zusammen eine Temperatur von 74°? Und welches Meßgerät könnte diesen Wert wiedergeben, welchen Effekt hätte dieser Wert also in der Realität? Wäre es zweitens nützlich, den Durchschnitt zu bilden? Sind ein Mensch mit einer Unterkühlung und einer mit Fieber äquivalent zu zwei anderen Menschen, die jeweils eine Körpertemperatur von 37° aufweisen und keiner Behandlung bedürfen?

Zwei Orte auf diesem Planeten mit Temperaturen von 10° und 20° entsprechen eben in ihrer Addition nicht einem Ort, an dem es kuschelige 30° hat. Und man kann sie auch nicht mit zwei anderen Orten mit jeweils 15° gleichsetzen. Aber genau dieser Unfug geschieht, wenn Klimaforscher Kurven der globalen Mittelwerte absoluter Temperaturen oder Temperaturanomalien berechnen. Natürlich, das mathematische Schema zur Berechnung eines Mittelwertes existiert. Ob seine Anwendung aber auch ein sinnvolles Resultat liefert, entscheidet die Physik, und nicht die Mathematik.

Und die Physik spricht hier ein klares Urteil: Die Temperatur ist eine innere Zustandsvariable eines Systems und sie darf nicht räumlich über mehrere getrennte Systeme hinweg gemittelt werden, die miteinander nicht im thermischen Gleichgewicht stehen. Es existiert daher weder ein globaler Mittelwert der Temperatur in bodennahen Schichten, noch ein solcher der Temperaturanomalie. Daß man ihn berechnen kann, ändert nichts an seiner Irrelevanz.

Es gibt kein qualitätsgesichertes und valides Meßverfahren

Aber seien wir gnädig und nehmen an, „globale Mittelwerte“ könnten zumindest ein valider Index für reale Vorgänge sein. Sie könnten es sein, gäbe es denn ein qualitätsgesichertes und standardisiertes Verfahren für die zugrundeliegenden Meßwerte. Und genau dieses existiert nicht. Vielmehr verfügt man über ein ungleich über die Landoberfläche verteiltes Sammelsurium von Thermometern unterschiedlichster Bauart. Die noch dazu von irgendwelchen Personen irgendwann und irgendwie abgelesen werden, ganz nach persönlicher Befindlichkeit. Gut, auf dem Land sind diese „Ableser“ in der Regel Meteorologen, von denen man Gewissenhaftigkeit und Seriosität bei der Erledigung ihrer Arbeit erwarten kann. Aber gemeinhin wurden ein Ortswechsel der Station selbst (und sei es nur um wenige hundert Meter wegen eines Bauvorhabens), eine Änderung der Instrumentierung, eine Änderung der Bodenbeschaffenheit und der Umfeldbebauung nicht ausreichend (wenn überhaupt) dokumentiert. Und die Bestimmung von Temperaturen auf den Meeren, die immerhin 2/3 der Erdoberfläche ausmachen, oblag und obliegt immer noch in großen Teilen meteorologischen Laien auf allerlei Schiffen und Booten, die mehr oder weniger zufallsgesteuert herumfahren und dabei kaum die gesamte Fläche der Ozeane gleichmäßig in Raum und Zeit erfassen. Natürlich, heute kann man Bojen verwenden, Satelliten und gar eine Roboterflotte, die im Meer treibt. Aber entscheidend zur Interpretation der Messungen sind nicht aktuelle Wert der vergangenen Jahre. Sondern die lange Zeitreihe der vergangenen 100-150 Jahre. Denn nur diese gestattet die Ableitung statistisch signifikanter Trends. Und die Ungenauigkeiten, denen man sich in der Vergangenheit schuldig gemacht hat, sind rückwirkend nicht mehr korrigierbar.

Obwohl genau dies versucht wird. All die vielen schönen Kurven stellen ja nicht wirklich gemessene Werte dar. Sondern Temperaturen, von denen die Forscher glauben, daß sie mit einem perfekten Netzwerk perfekter Stationen bei ordnungsgemäßer Ablesung gemessen worden wären. Die realen Werte gehen dazu in ein Computermodell ein, mit dem die verschiedenen Korrekturen angebracht werden. Nun wissen wir spätestens seit den Arbeiten von Anthony Watts, wie gering die Qualität der Messungen tatsächlich ist. Und wir wissen spätestens seit Climategate, wie wenig Sorgfalt auf die Rechenmodelle verwendet wurde. Nicht nur die Vernichtung von Rohdaten, auch die schlechte Programmierung und Dokumentierung der Analysesoftware, von der heute keiner mehr weiß, was sie eigentlich genau treibt, sind bemerkenswert.

Wir leben in einer Zeit, in der in industriellen Maßstäben Qualitätssicherung auf einem hohen Standard etabliert wurde.  Es gibt ein strukturiertes Umfeld von Zertifizierung, Validierung und Normung, in der jedes Produkt eine Vielzahl exakt dokumentierter und von Prüfbehörden ständig überwachter Tests und Messungen über sich ergehen lassen muß. Und in dieser Zeit glauben Politiker weitreichende Entscheidungen auf der Basis von Werten treffen zu können, die keinen solchen Standards unterliegen? Die in keiner Weise qualitätsgesichert und von unabhängigen Dritten überprüfbar sind?

Es gibt keine wissenschaftliche Grundlage

Wie ist eigentlich dieses strategische Ziel der Klimapolitik unter diesen Voraussetzungen zustande gekommen? Spätestens seit den offenen Worten Herrn Schellnhubers im Spiegel weiß man es ganz genau. Die “zwei Grad” beruhen nicht auf wissenschaftlichen Arbeiten, die bei einer Überschreitung dieser Grenze Katastrophen vorhersagen. Faktisch ist heute unklar, was die globale Erwärmung mit sich bringt. Denn auch die extremsten Wetterereignisse sind letztendlich Vorgänge auf lokaler Ebene und diese entziehen sich bislang den Möglichkeiten der Klimamodellierer und der Rechenkraft ihrer Supercomputer. Wenn aber Mikroklimata auf regionalen und lokalen Skalen nicht simuliert werden können, dann gibt es keine Rechtfertigung, von erheblichen, durch menschliches Verhalten minimierbaren Risiken auszugehen.

Nein, Schellnhuber und seine Kollegen haben es sich ausgedacht. Weil die Politik eine griffige Formel haben wollte, eine einfach kommunizierbare Zahl. Und so haben sich die Wissenschaftler einer simplen Schätzung bedient. Zu Zeiten der menschlichen Zivilisation, so ihre auf ebenfalls nicht qualitätsgesicherten Erkenntnissen basierende Annahme, habe sich die „mittlere globale Temperatur“ nie um mehr als 2 Grad nach oben bewegt. Allein diese verdrehte Logik schon ist es, die der Faustformel von den 2 Grad den Boden unter den Füßen wegzieht. Denn erstens hat sich die Menschheit aus einer Eiszeit erhoben und somit schon Temperaturdifferenzen weit größeren Ausmaßes überstanden. Und zweitens räumt Schellnhuber indirekt ein, auch durch natürliche Variabilitäten des Klimas könnte die gedachte Grenze erreicht werden. Und wer will heute behaupten, vom Menschen nicht beeinflußbare Klimaschwankungen könnten es nicht auch noch wärmer gestalten?

Zusammenfassend hat die deutsche Klimapolitik auf internationaler Ebene versucht eine strategische Vorgabe zu etablieren, die

  • physikalisch aussagelos ist,
  • nicht qualitätsgesichert ist und damit nicht valide überprüft werden kann,
  • nicht auf wissenschaftlichen Erkenntnissen, sondern auf wilden Spekulationen beruht.

Und dieses „Zwei Grad Ziel“ ist ausgerechnet dem Land der Dichter und Denker entsprungen, mit einer Physikerin als Regierungschefin. Es wird wirklich Zeit, diese Peinlichkeit zu beenden.

Eine ausführlichere Darstellung dieser Thematik meinerseits finden Sie in Novo Argumente, Ausgabe 103, 11/12-2009. Der dortige Artikel (“Diagnose Klimafieber”) wurde noch vor Climategate geschrieben und durch dieses nachträglich mehr als bestätigt.

Autor: Peter Heller, Science Sceptical, zuerst erschienen ebendort

ÄHNLICHE BEITRÄGE (BETA):




Deutsche Klimafolgenforscher starten das letzte Gefecht: Ein neuer Rettungsversuch für ein globales Klimaabkommen – Die Klima-Kopfpauschale!

Wenn selbst die Kanzlerin der als Klimastreber bekannten Deutschen sich öffentlich davon verabschiedet (auch hier), dürfte das (stille) internationale Begraben dieser Zielsetzung wohl nur noch eine Formsache sein. Die nächste große Klimakonferenz Ende dieses Jahres wird daher wohl wieder einmal viel Tamtam bringen und ansonsten ohne konkretes Ergebnis zu Ende gehen. Man sieht sich im nächsten Jahr.

Paradigmenwechsel in der deutschen Klimapolitik
Der Wechsel der Marschrichtung in der deutschen Politik kommt einem Paradigmenwechsel gleich. Und man muss kein Prophet sein, um zu folgern, dass damit auch ein Verlust des Einflusses der Klimaforscher auf die Politik in unserem Land einhergehen wird. Am meisten dürfte davon das Potsdamer Institut für Klimafolgenforschung (PIK) betroffen sein, welches bislang mit Stefan Rahmstorf und Institutsdirektor Hans Joachim Schellnhuber noch 2 der 8 Mitglieder des einflussreichenWissenschaftlichen Beirats der Bundesregierung Globale Umweltveränderungen (WBGU) stellt und mit knapp 200 Beschäftigten ein hohes Interesse daran hat, dass die Klimafurcht und alles was dazu gehört weiter geschürt wird.

Ungeachtet dieser Entwicklung, oder vielleicht gerade deswegen, also um noch einmal eine entscheidende “Duftmarke” zu setzen, hat das PIK jetzt ein Grundsatzpapier herausgegeben, in dem ein völlig neuer Weg vorgestellt wird, der doch noch den erhofften Durchbruch in der Klimapolitik bringen soll. Unter dem Titel “Neue Strategie zur Realisierung des 2°max Klimaziels” präsentieren die Forscher einen Lösungsansatz, den sie “Peak and Trade” nennen und hinter dem sich eine Art Klima-Kopfpauschale verbirgt. Nach den Vorstellungen der Wissenschaftler soll jedem Erdenbürger zunächst ein Kontingent von rund 5 Tonnen CO2 zugesprochen werden. Wird dieses überschritten, muss in einen Topf (eine neu zu schaffende “Weltklimabank”) gezahlt werden, bei Unterschreitung gibt es Geld aus diesem Topf. Morgen, am 29.4.10 wird dieses Papier mit großem TamTam von PIK Chef-Schellnhuber und Bundesumweltumweltminister Röttgen in den Räumen der Bundespressekonferenz in Bonn der Öffentlickeit (s. u.) vorgestellt. Wir können sicher sein, dass es wieder große mediale Aufmerksamkeit erfährt.

 

Pro Kopf CO2-Ausstoß nach Ländern. Die Größe des Kreises spiegelt den CO2-Ausstoß wider. Quelle: Gapminder World

Die Amerikaner hätten demnach mit 16,9 Tonnen pro Jahr und Einwohner einen mehr als 3 mal zu hohen Ausstoß, wir Deutschen mit 9,8 Tonnen einen fast doppelt zu hohen. In Westeuropa stehen Schweden und die Schweiz (je 5,6 Tonnen pro Einwohner) und Frankreich (6,3 Tonnen) besonders gut da. Erstere, weil sie sehr viel Strom aus Wasserkraft erzeugen, und letztere wegen der Stromerzeugung aus Kernkraft.

Kopfpauschale als Lockangebot für Schwellen- und Entwicklungsländer
Woher kommt die magische Grenze von rund 5 Tonnen pro Einwohner? Die Autoren der Studie begründen diese mit einem vermutlich im Jahr 2015 erreichten globalen CO2-Ausstoß von 35 Milliarden Tonnen. Und diese Zahl, geteilt durch eine Weltbevölkerung im Jahr 2010 von geschätzten 6,9 Milliarden Menschen, ergibt 5,1 Tonnen pro Erdenbewohner. Vergleicht man die CO2-Emissionen pro Kopf der Länder der Welt (klick auf die Infografik), dann kann einem aber auch eine ganz andere Vermutung kommen.

Das Scheitern der letzten Weltklimakonferenz in Kopenhagen lag zu einem nicht unerheblichen Teil am Widerstand der aufstrebenden Entwicklungs- und Schwellenländer, allen voran Brasilien, China und Indien. Und diese Länder liegen (Brasilien und Indien deutlich) unterhalb der magischen 5,1 Tonnen-Grenze, würden also von der jetzt vorgeschlagenen Regelung profitieren.  Mit diesen Maßnahmen, so könnte man mutmaßen, sollen die abtrünnigen Schwellenländer finanziell für eine Zustimmung geködert werden. Politisch korrekt nennt man das heute wohl “ins Boot holen”.

Kopfpauschale schafft Anreiz zum Bevölkerungswachstum
Profitieren von einer solchen Regelung würden vor allem bevölkerungsreiche Schwellen- und Entwicklungsländer. Je mehr Einwohner und je geringer der Entwicklungsstand, umso mehr Geld ist zu holen. Für solche Länder würde diese Regelung vor allem den Anreiz erhöhen, einen möglichst großen Anteil ihrer Bevölkerung von der Entwicklung auszuschließen, denn dadurch würde deren pro Kopf CO2 Verbrauch nachhaltig auf niedrigem Niveau gehalten werden. Von den Einnahmen, die für diese Länder durch die CO2-Karenz ihrer Bevölkerung generiert würden, bekäme diese wohl eher nichts zu sehen. Wie die Erfahrungen aus den zahlreichen Entwicklungshilfe-Programmen gerade für die ärmsten Länder in Afrika zeigen, fließen solche Gelder entweder in den Militäretat oder landen direkt auf den Schweizer Nummernkonten der Regierungsmitglieder.

[Update]
Welt 27. 04. – Klimaforscher fordern CO2-Höchstmenge pro Kopf
FAZ 28. 04. – Asyl für Klimasünder

ÄHNLICHE BEITRÄGE (BETA):

Rudolf Kipp EIKE; zuerst erschienen in abgewandelter Form bei Science Sceptical

Update 1:

15:00 Uhr     – NEU –
BPK BONN Klimapolitik nach Kopenhagen: Auf drei Ebenen zum Erfolg Der WGBU übergibt im Vorfeld des Petersberger Klimadialogs ein Politikpapier an die Bundesregierung
– BONNER TERMIN! – Veranstaltungsort: BPA, Dienstsitz Bonn, Welckerstraße 11, 53113 Bonn

  • Dr. Norbert Röttgen, Bundesminister für Umwelt, Naturschutz und Reaktorsicherheit
  • Prof. Dr. Hans-Joachim Schellnhuber, Vorsitzender des Wissenschaftlichen Beirats der Bundesregierung Globale Veränderungen (WBGU), Direktor des Postdam-Instituts für Klimafolgenforschung (PIK)
  • Prof. Dr. Dirk Messner, Stellv. Vorsitzender des Wissenschaftlichen Beitrats der Bundesregierung Globale Umweltveränderungen (WBGU), Direktor des Deutschen Institut für Entwicklungspolitik (DIE)
  • Update 2: FDP Kauch solidarisiert sich sofort mit dieser neue Botschaft:
  • ++ KAUCH: FDP unterstützt globalen CO2-Markt (29.04.2010)

    BERLIN. Zu den Vorschlägen für eine neue Klimaschutzstrategie, die der Wissenschaftliche Beirat für Globale Umweltfragen (WBGU) der Bundesregierung vorgelegt hat, erklärt der umweltpolitische Sprecher der FDP-Bundestagsfraktion Michael KAUCH: 

    Die Experten des WBGU vertreten die Strategie eines globalen CO2-Marktes.
    Die FDP-Bundestagsfraktion unterstützt dieses Konzept seit vielen Jahren. Die Liberalen haben das Ziel eines globalen Kohlenstoffmarktes auch im Koalitionsvertrag verankert. Dennoch bleibt die Frage, ob China und die USA, die bisher ein Kyoto-Nachfolgeabkommen verweigern, sich durch diesen Vorschlag einbinden lassen.

    Begrüßenswert ist der Ansatz des WBGU, jedem Menschen gleiche Emissionsmengen zuzugestehen. Das würde die "basarähnlichen" Verhandlungen auf den Klimakonferenzen über Reduktionsverpflichtungen und Ausgleichszahlungen durch einen objektiven Maßstab ersetzen. 
    Vernünftig ist die Doppelstrategie der Bundesregierung, sowohl auf ein neues Klimaschutzabkommen als auch auf praktische Klimaschutz-Kooperation mit Partnerländern zu setzen.

Die Redaktion mein: Dem ist nichts hinzufügen!