1

Eine 4000-jährige Geschichte über Grönlands Oberflächentemperatur

Eine Gruppe von acht Polar- und Klimaforschern aus Japan, den USA, Frankreich und Dänemark hat sich zusammengetan und anhand eines neuen Verfahrens die Temperaturgeschichte Zentral-Grönlands der letzten 4000 Jahre rekonstruiert. Argon- und Stickstoff-Isotopenverhältnisse von eingeschlossenen Luftblasen im Eisbohrkern GISP2 aus Zentral-Grönland wurden dabei untersucht, um die Schneeoberflächentemperatur der letzten 4000 Jahre zu rekonstruieren.

Dabei kamen folgende Temperaturrekonstruktionen für letzten 170 Jahre, 1000 Jahre und 4000 Jahre heraus.

Die Rekonstruktion (untererer Teil der Abbildung) startet mit einer kälteren Periode in der Bronzezeit, gefolgt von einer wärmeren Periode, dem Klimaoptimum der Bronzezeit. Eine 1000jährige Abkühlung folgt während der Eisenzeit. Über die nächsten 1300 Jahre hinweg folgen weitere Warm- und Kaltzeiten, wie das Klimaoptimum der Eisen/ Römerzeit, dass Klimapessimum der “dunklen” Völkerwanderungszeit und das Klimaoptimum des Mittelalters (im 11. bis 12.Jahrhundert). Es schließt sich die kälteste Zeit der letzten 4000 Jahre an, die sogenannte “Kleine Eiszeit” (im 17. bis 18. Jahrhundert), welche dann in die aktuelle Klimaerwärmung übergeht. Der mittlere und obere Teil der Abbildung zeigen, dass es während des Klimaoptimums des Mittelalters (1140er Jahre) und in der Zeit zwischen 1930-1950 genauso warm war, wie im letzten Jahrzehnt. Weiter zurückliegend, in den ersten 3000 Jahren der Rekonstruktion, zeigen sich sogar deutlich wärmere Zeiten, als heute. Dort sind 72 Jahrzehnte zu finden die wärmer waren (um 1-1,5°C), als das heutige.  In diesen Zusammenhang eingeordnet ist die heutige Warmzeit also nichts Außergewöhnliches.

Autor Michael Krüger; zuerst erschienen auf Readers Edition

Ergänzung:

Wie u. a Spiegel Online meldet, zeigen neueste Satellitenbefunde, daß die Gletscherschmelze sich seit einigen Jahren verlangsamt hat. Offenbar ist auch dieser Vorgang Teil eines ganz normalen Zyklus:

Weltweite Gletscherschmelze verlangsamt sich

Das Schicksal der Gletscher entscheidet über den Anstieg der Meere und das Trinkwasser von Milliarden Menschen. Neue Messungen zeigen, dass die Eisfelder weniger tauen als vermutet – in Alpen und Himalaja sind sie seit 2003 nicht mehr geschrumpft.

Details dazu hier

Quellen

A 4000-Year History of Greenland Surface Temperature

High variability of Greenland surface temperature over the past 4000 years estimated from trapped air in an ice core




US Entertainer Ben Stein klagt auf Schadenersatz: Skeptische Ansicht zur globalen Erwärmung kostet ihn 300.000 Dollar entgangene Gage

Stein verklagte vor dem Los Angeles Superior Court [die Firma] Kyocera Mita America, Inc. sowie Seiter & Miller Advertising samt deren Direktoren.

Stein, ein wohlbekannter konservativer Kommentator, der als Ökonomieprofessor in [der Sendung] Ferris Beuller’s Day Off berühmt wurde, ist in populären Werbespots für Clear eye eye drops [Augentropfen] und Comcast [?] aufgetreten. Er behauptet, dass 2011 Kyocera sowie Seiter & Miller bei seinem Vertreter bei Innovative Artists vorstellig geworden sind, um ihn auch für Werbung für Computerdrucker zu gewinnen. Angeblich wurde ein Vertrag geschlossen, ihm 300 000 Dollar dafür sowie für einen Auftritt bei einer Veranstaltung der Firma zu zahlen. „Die einzigen noch diskutierten – aber nicht umstrittenen – Punkte sind die Art des Tees und anderer Snacks, die Ben Stein gerne am Set haben würde“, heißt es in der Beschwerde. „Es gab keine auffallenden Verhandlungspunkte“.

Aber Stein behauptet, dass sein Agent im Februar 2011 von der Seiter-Angestellten Grace Jao angerufen worden war, die ihm sagte, dass „Fragen darüber vom Beschuldigten Kyocera aufgeworfen worden sind, ob die Ansichten Ben Steins zur globalen Erwärmung hinreichend konventionell und politisch korrekt für Kyocera waren“, der Beschwerde zufolge.

Stein behauptet, er hätte die Werbeagentur informiert, und sagte Kyocera, dass er sich große Sorgen mache über die Umwelt, aber dass er nicht sicher sei, ob die globale Erwärmung wirklich vom Menschen verursacht sei. „Er bat seinen Agenten auch, den Angeklagten zu informieren, dass er als gläubiger Christ glaubt, dass Gott, und nicht der Mensch, das Wetter kontrolliert“, stellt die Beschwerde fest.

Einige Tage später zog Kyocera sein Angebot vermeintlich zurück und engagierte einen Ökonomieprofessor von der University of Maryland, in den Werbespots aufzutreten, und „in einer erstaunlich dreisten Kopie von Ben Steins Rolle kleideten sie ihn genau so, wie Stein oft in den Werbespots auftrat (Fliege, Brille, Sportjackett)“.

Also klagt Stein auf Vertragsbruch und neben anderen Ursachen der Vorgänge auf ungerechtfertigte Kündigung mit Verletzung öffentlicher Politik.

Wir haben bei Seiter & Miller um eine Stellungnahme nachgesucht.

Matthew Belloni

Email: Matthew.Belloni@thr.com

Twitter: @THRMattBelloni

Link: http://www.hollywoodreporter.com/thr-esq/ben-stein-global-warming-lawsuit-280816




Blackouts gerade noch vermieden: Stromhändler sollen die Schuldigen sein!

So berichtet das ehemalige Nachrichtenmagazin "der Spiegel" in seiner Onlineausgabe heute: 

Stromhändler zocken fast bis zum Blackout

Der deutsche Strommarkt stand in den vergangenen Tagen mehrfach vor dem Zusammenbruch. Laut Bundesnetzagentur waren dafür aber nicht die Kälte oder der Atomausstieg verantwortlich, sondern Energiehändler – die offenbar ihre Profite maximieren wollten. Die Aufsichtsbehörde ist alarmiert.

Der deutsche Strommarkt wurde bis vor wenigen Tagen durch gefährliche Handelsgeschäfte in die Nähe eines Zusammenbruchs gebracht. Die "Berliner Zeitung" zitiert aus einem Schreiben der Bundesnetzagentur, das die Aufsichtsbehörde am Montag an die verantwortlichen Händler verschickt hat, weil es zu gefährlichen Defiziten im Stromnetz kam. Ein Sprecher der Netzagentur bestätigte SPIEGEL ONLINE den Wortlaut des Briefs.

Darin heißt es, das deutsche Stromnetz habe seit dem 6. Februar zu unterschiedlichen Tageszeiten "erhebliche, über mehrere Stunden andauernde Unterdeckungen verzeichnet". Deshalb sei "im Störungsfall teilweise keine Regelleistung verfügbar gewesen"…..

Offensichtlich fand die Sprachregelung des Umweltministers für solche Fälle schnell willige Anwender.

Der als Energiewendenbefürworter bekannte Abteilungsleiter beim Bundesverband der Verbraucherschützer Holger Krawinkel befand gar: "Nicht der Atomausstieg gefährdet die Versorgungssicherheit, sondern die Gier der Marktteilnehmer."

Lesen Sie den ganzen hanebüchenen Beitrag hier




Fehler in der BEST-Studie zur Klimaerwärmung

Fehler in der BEST-Studie: Keine Berücksichtigung der Siedlungsdichte und der kalten Winter.

Im BEST-Papier Influence of Urban Heating on the Global Temperature Land Average Using Rural Sites Identified from MODIS Classifications stellen die roten Punkte Messstationen mit Erwärmungstrends dar, die blauen mit Abkühlungstrends. In diesem Artikel wird gezeigt, dass Dr. Richard Muller sich nicht eingehend mit dem Einfluss der Besiedelung und der kalten Winter beschäftigt hat und auch nicht die Wintertemperaturen weiter im Norden beachtet hat.

Abb. 1. Dies ist Abbildung 4 aus dem BEST-Papier

Abb. 2. Die Jahresmitteltemperatur in Nordamerika (Quelle hier)

Die meisten der von Dr. Richard Muller et al. überprüften Temperaturmessstationen liegen in den USA. Im eingangs zitierten Papier wurde Abkühlung bei 33% der Stationen entdeckt, dazu wurde eine Gauss-Verteilung (Abb. 3 unten) für Erwärmung und Abkühlung erstellt, die die Autoren mit Messfehlern erklärten.
Das klingt merkwürdig, weil die Stationen mit Abkühlung – wie auf der Karte oben gezeigt – keine zufällige Verteilung haben. Dies wäre aber zu erwarten, wenn die Gauss-Verteilung auf einen Zufallsfehler zurückginge. Viele Stationen sind im Südost-Quadranten der USA zu gelegen. Um die verstädterten Gebiete zeigt sich sehr deutlich eine Konzentration von roten Punkten. Dies ist vom Wärmeinsel-Effekt (UHI) verursacht. Woher kommt aber der blaue Abkühlungseffekt im Südosten?
Abb. 2 zeigt eine weitere Karte mit den Jahresmitteltemperaturen in Nordamerika von 1950 bis 2000.  Man beachte, dass das Gebiet mit Abkühlung in Abb. 1 auch das warme Gebiet in Abb. 2 ist. Für diese Abkühlung in Abb. 1 gab Dr. Muller keine Erklärung.


Abb. 3. Die Gauss’sche Trendverteilung aus dem oben zitierten BEST-Papier

Der Verfasser hat Daten von 71 Orten mit durchgängigen Langzeit-Aufzeichnungen (von 1930 bis 2000), verteilt über die USA und Kanada, heruntergeladen und sich dabei auf die Region mit Abkühlung und die Gebiete nördlich und westlich davon konzentriert. Jede Örtlichkeit wurde nach Möglichkeit anhand des Netzes von Anthony Watts’ SurfaceStations.org auf Metadaten überprüft, insbesondere auf die Entfernung der Thermometerstandorte vom nächstgelegenen beheizten Gebäude. Die Bevölkerungszahlen der umliegenden Gebiete wurden Wikipedia entnommen. Die Dezember-, Januar- und Februar-Temperaturen (Winter) wurden von GISS heruntergeladen und die Temperaturtrends von 1934 bis 2000 für jeden Ort berechnet, so auch die Winter-Mitteltemperaturen.
Abb. 4 stellt die Winter-Mitteltemperaturen und den Winter-Temperaturtrend für 71 Orte dar.

Abb. 4. Winter-Mitteltemperaturen und Winter-Temperaturtrend für 71 Orte versus Erwärmungs- oder Abkühlungstrend für die Periode von 1934 bis 2000. Die  Winter-Mitteltemperaturen sind für die Periode von 1930 bis 1980 berechnet

Orte mit kalten Wintern zeigen einen Erwärmungstrend. Extremes Beispiel ist Edmonton, Alberta, Kanada, mit 4,4°C Erwärmung und einer durchschnittlichen Winter-Temperatur von 11,9°C. Die Erwärmung ist natürlich vom Wärmeinsel-Effekt (UHI) verursacht. Edmonton ist im Zeitraum von 1931 bis 2001 von ungefähr 80.000 auf 666.000 Einwohner gewachsen. Die kalten Winter-Temperaturen überzeichnen den UHI-Effekt.

Abb. 5 stellt die Erwärmung versus derzeitige Einwohnerzahl dar.

Abb. 5. Zusammengefasste Darstellung des Winter-Temperaturtrends (1934 – 2000) versus Bevölkerung (blau) und Entfernung der Thermometer zum nächstgelegenen beheizten Gebäude, normalerweise ein Wohngebäude (rosa)

Schon vor Beginn der Studie war dem Verfasser klar, dass ein beheiztes Gebäude in der Nähe eines Thermometers die Ablesungen in Richtung WARM verfälschen würde. Das konnte auch anhand einer großen Stichprobe nachgewiesen werden. Abbildung 5 zeigt, dass das aber nicht generell stimmt. Eine große in der Umgegend lebende Bevölkerungszahl erzeugt einen Erwärmungseffekt. Im Winter noch verstärkt durch die Differenz zwischen den Innen- und Außentemperaturen, weil mehr Wärme nach draußen verloren geht. Für einzelne nahegelegene Gebäude ist das nicht erkennbar. Die Zahlen wurden gedreht und gewendet bis herauskam: bei einem 3 Meter entfernten Bauernhaus gibt es nur geringe Erwärmung, aber einige Tausend Häuser in der Umgegend erzeugen eine “Wärmeblase”, was schon einen Unterschied macht. Die aus Kaminen hinausgehende Wärme übersteigt bei weitem die durch Mauern hinausgehende Wärme.
Es gibt Ausnahmen, Abbildung 6 zeigt eine besonders bemerkenswerte.


Abb. 6. Die Wetterstation in Grand Forks, North Dakota. Sie liegt am Wettervorhersagebüro der NOAA/NWS Eastern North Dakota. Die Wetterstation (Cotton Region Shelter (CRS)) liegt etwa 3 Meter vor den Belüftungsschlitzen der Klimaanlage für das Büro. Aus SurfaceStations.org

Der Winter-Temperaturtrend am Grand Forks Wetterdienst-Büro beträgt 2,9°C Erwärmung; etwa 1,5°C über dem Betrag, der der Bevölkerung zuzurechnen wäre.

Ein anderes Ausnahmebeispiel ist der Ort der Station Albert Lea, Minnesota. (Abbildung 7). Die Winter-Erwärmung in Albert Lea liegt etwa 2,5°C über dem Betrag, den die Bevölkerung verursachen würde.

Diese und andere Ausnahmen, zusammen mit Städten mit großer wachsender Einwohnerzahl, stellen die roten Punkte in Abbildung 1 dar. Die blauen Punkte zeigen, was das Klima wirklich macht: Abkühlung. Die gemessene Abkühlung dehnt sich nicht in den kühleren Norden und Westen aus, weil der Wärmeinsel-Effekt (UHI) diese Gebiete stärker erwärmt als den Süden.
Der Wärmeinsel-Effekt wirkt sich in kühleren Wintern übertrieben stark aus.

Ist der Wärmeinsel-Effekt ein Problem in ländlichen Ortschaften mit Einwohnerzahlen unter 10.000?
Aus der Zusammenstellung wurden 50 Orte mit Bevölkerungszahlen unter 10.000 ausgewählt. Sie wurden dann in zwei Gruppen nach ihren Wintermitteltemperaturen angeordnet. Abbildung 8 zeigt die kühlere Gruppe, Abbildung 9 die wärmere.


Abb. 8. Plots der Wintertemperaturen und Temperaturtrends versus Bevölkerung von 25 Orten mit Wintertemperaturen von 0°C bis minus 10°C


Abb. 9. Plots der Wintertemperaturen und Temperaturtrends versus Bevölkerung von 25 Orten mit Wintertemperaturen von 0°C bis plus 10°C

Abbildungen 8 und 9 zeigen keine bevölkerungsabhängigen Veränderungen beim Temperaturtrend von 1934 bis 2000. Die durchschnittliche Wintererwärmung für beide Gruppen betrug für den Zeitraum von 1934 bis 2000 etwa 0,5°C. Aber es gibt eine signifikante bevölkerungsabhängige Differenz bei den Wintertemperaturen. Für Orte mit Bevölkerungszahlen über 1000 sind die Winter im Durchschnitt wärmer, sie werden nicht nur wärmer, sie sind immer wärmer. Warum? Es sind alles kleine Städte und Dörfer, die langsam, wenn überhaupt, gewachsen sind, während gleichzeitig Thermometer aufgestellt wurden. Das Bevölkerungswachstum hielt Schritt mit den Verbesserungen der Heizsysteme und der Isolierungen.
Die (Bevölkerungs)größe ist wichtig, wie auch die absolute Wintertemperatur. BEST (und GISS) sollten erkennen, dass sie die Grenze für „ländliche Bevölkerung“ auf 1000 vermindern müssen. Nur von Satelliten-Bildern aus auf die Lichterverteilung in der Umgebung zu achten, reicht nicht. Man muss schon die Metadaten der tatsächlichen Bevölkerung und der Örtlichkeiten erforschen. Bei Orten mit durchschnittlichen Wintertemperaturen unter Null muss besonders darauf geachtet werden, nahegelegene Wärmequellen auszuschließen. Es könnte ja so einfach sein, eine Temperaturmessstation auf dem Gelände des örtlichen Klärwerks aufzustellen, aber das ist keine gute Idee, wenn es um die Messungen der Temperaturen geht.

Was ist im vergangenen Jahrzehnt passiert? Für globale Darstellungen hat GISS eine Trenddarstellung für die jeweiligen Örtlichkeiten für den Zeitraum von 2001 bis Ende 2011 gemacht. Abbildung 10 zeigt das Resultat.


Abb. 10. Die GISS-Karte der jährlichen (Januar bis Dezember-) Temperaturtrends (Veränderung) von 2001 bis 2011. Die in der oberen rechten Ecke angegebenen –0.01 ist die Zahl für den globalen Trend,
0.01°C Abkühlung. (Quelle hier)

In Abbildung 10 stehen die roten Flächen für Erwärmungen von 2°C bis 4°C an etwa 10 Mess-Orten, die meisten an der sibirischen Arktisküste. Dort ist Erwärmung, weil der Wind das Eis von der sibirschen Küste wegtreibt. Man vergleiche Abbildung 10 mit Abbildung 1. Viele rote Punkte in der Abbildung 1 befinden sich im Abkühlungsgebiet der Abbildung 10 oben. Das ist das genaue Gegenteil von dem, was das BEST-Papier zeigt. Jene Orte mögen Erwärmung während der von BEST untersuchten Periode gehabt haben, jetzt aber haben sie Abkühlung.
Man beachte auch in Abbildung 10, dass sich die Kontinente in einer Abkühlung zu befinden scheinen, nur die Landstationen an der Arktisküste zeigen Erwärmung. Pazifik und Nordatlantik kühlen ab. Sie werden noch kälter werden, wenn die Kontinente weiter abkühlen. Wir befinden uns nun seit zehn Jahren am Anfang eines der regelmäßigen 60 bis 70 Jahre dauernden Erwärmungs- und Abkühlungszyklen, dazu noch am Ende eines 200 Jahre langen Zyklus seit dem Dalton Minimum (1790 to 1830). Wenn die Sonne wirklich am Anfang eines Großen Minimums steht, vergleichbar dem Dalton- oder dem Maunder-Minimum – dabei scheint das letztere wahrscheinlicher zu sein – dann wird es noch viel kälter, und das für eine Dauer von wenigstens 40 oder 50 Jahren.

Die USDA hat gerade eine Karte zur Winterhärte der Pflanzen veröffentlicht. Die Vegetationszone wurde um eine Zone nach Norden verschoben im Vergleich zur vorherigen Karte. Diese Verschiebung sollte noch einmal überdacht werden. Im vergangenen Winter hat die Kälte im südlichen Neu-Mexiko und West-Texas viele mexikanische Palmen und andere Tropenpflanzen vernichtet, die seit 100 Jahren die vergangenen Winter überstanden hatten. Thermometeranzeigen können lügen, Pflanzen nicht.

Zusammenfassung

Im BEST-Papier hat Dr. Muller die durch den Wärmeinsel-Effekt verursachten Veränderungen bei den nördlichen Stationen nicht beachtet. Dadurch hat er die Tatsache übersehen, dass in den kontinentalen USA tatsächlich eine Abkühlung stattfindet. Ich frage mich, wie kalt es noch werden muss, bis Berkeley Earth die Abkühlung bemerkt.

Zusatzbild des Übersetzers:

Kalter Winter 2012 – Vorbote einer globalen Abkühlung?

Ed Caryl

Original hier

Zur Fehlerlastigkeit von BEST-Studien siehe auch die Studie von Lüdecke, H.-J; R. Link; F.-K. Ewert auf EIKE.

Übersetzung: Helmut Jäger, EIKE




Studie der EU-Kommission – „Biokraftstoff schadet Klima“

Nicht nur die FAZ berichtet über den neusten Öko-Flop zur vermeintlichen Rettung des Weltklimas: 

Auszug aus dem FAZ Beitrag: 

Die Nutzung von Biokraftstoff, der aus Palmöl, Sojabohnen oder Raps hergestellt wird, belastet das Klima stärker als herkömmliche Treibstoffe aus Erdöl. Das geht einer noch internen Studie der Europäischen Kommission hervor, die die Behörde in den kommenden Wochen offiziell vorstellen will. In der Studie werden erstmals auch die indirekten Folgen der Herstellung von Biokraftstoffen für deren Ökobilanz berücksichtigt. Davon spricht man, wenn bisher unberührter Regenwald oder Feuchtgebiete landwirtschaftlich genutzt werden, weil auf den zuvor genutzten Flächen Pflanzen zur Biokraftstoffproduktion angebaut werden. Nur die Biokraftstoffe, die aus Zuckerrohr, Zuckerrüben oder Mais hergestellt werden, schneiden nach der Studie eindeutig besser ab als herkömmliche Kraftstoffe…

Lesen Sie den ganzen Beitrag hier 

Auch die Welt berichet darüber 

Der Biosprit führt Umweltpolitik ad absurdum

Eine Studie der EU stellt den ganzen Unsinn des Biosprits heraus. Er ist nicht nur umweltschädlich, sondern vermehrt auch den Ausstoß von Treibhausgasen…Im Jahr 2050 werden zwei Milliarden Menschen mehr als heute leben. Mehr Lebensraum, mehr Ackerfläche werden benötigt. Beides gilt als nahezu erschöpft. Deshalb sind neue Technologien gefordert, auch neues Saatgut. 

Vor diesem Hintergrund wird es von Tag zu Tag zynischer, in welcher absurden Bewegung wir Deutschen den Rest der Welt mitreißen wollen. Die neue „grüne Revolution“ wird ausgebremst, biotechnologische Ansätze werden zum Teufelszeug deklariert. Die Menschheit möge sich vom Ökolandbau ernähren…

Lesen Sie den ganzen Beitrag von Ulli Kulke hier




Vahrenholt bei PHOENIX – Prima Klima?

Weiger vom BUND vertritt hingegen die Auffassung, dass keine Zeit mehr bleibt, der vom Menschen gemachte Klimawandel voranschreitet und die erneuerbaren Energieträger schnellstmöglich ausgebaut werden müssen. Schauen Sie rein und erleben Sie pro & contra!

von Michael Krüger 

Zuerst erschienen bei Science Sceptical 

Und hier Reaktionen auf das (ungelesene) Buch z.B. von Prof. Mojib Lativ im ARD  Morgenmagazin. (Mit Dank übernommen von Mr.FreeSolarkritik2

Bei dem Klimaforscher Mojib Latif liegen augenscheinlich die Nerven blank, da er auf die Klimathesen von Vahrenholt keine wirklichen Antworten hat. Seltsam ist auch: Die gleichen Thesen wie Vahrenholt hatte Latif selbst bereits im Dezember 2009 verbreitet, und nun kritisiert Latif diese Thesen an Fritz Vahrenholt.

Die Zitate von Mojib Latif aus Dezember 2009 ab Minute 3:42 hier:
http://www.youtube.com/watch?v=xFpQu2WDbnA&t=3m42s

Und auch dieses Video mit Zitaten von Latif anschauen:
http://www.youtube.com/watch?v=wnFm6e6764o

Das Vahrenholt/Lüning Buch "Die kalte Sonne" macht mächtig Furore. Es reißt Mauern nieder und beseitigt gnadenlos und glaubhaft Denkverbote. Deswegen versucht die vereinte Alarmistenfront aller Couleur mit allen Mitteln, dieses Buch negativ zu bewerten, d.h. nieder zu machen. Bitte nehmen Sie sich die Zeit, schauen Sie sich die Probeseiten (hier http://www.kaltesonne.de/?page_id=54) – oder besser-  das Buch an und geben Sie Ihre kurze Bewertung bei Amazon (hier) ab . je mehr das tun, desto besser. Danke!

Michael Limburg EIKE

Weiterführende Links:

Siehe auch Banner rechts "Die kalte Sonne"

Vahrenholt/Lüning auf der Webseite der US-Klimaforscherin Judith Curry

Der BUND hat da eine tolle Idee…

Alpengletscher als Klimaarchiv – Was erzählen uns die Alpengletscher?

Vahrenholt-Bestseller "Die Kalte Sonne" – Das Imperium der Meinungsmacher schlägt zurück!

FTD Umfrage: 70 % Zustimmung für Vahrenholt/Lüning Thesen zum Klimawandel




Jetzt bestätigt: Klimaschutz ist Religion – Beichte nun möglich!

Die Beichten selber sind auch sehr schön:

Beispiel: „Ich habe heute jmd Fleisch essen sehen und nichts dagegen getan!“

Hoffentlich ist das Beispiel Ironie. Schwer zu sagen!




Über sprunghafte Anstiege von CO2 und globaler Temperatur!

Der CO2-Anstieg

Rechtzeitig vor Beginn der UN-Klimakonferenz in Durban (Südafrika) Ende November/ Anfang Dezember 2011 ging die alarmierende Meldung durch den Medienwald, die „Der Spiegel“ mit der Schlagzeile versah: „Rekord-CO2-Anstieg schockiert Klimaforscher“. Ähnlich markig lautete die Meldung in vielen Medien. Gemeint war das Jahr 2010. Dieser Alarmmeldung liegt eine Studie des Tyndall-Center der University of East Anglia zugrunde, die eine „vorläufige Schätzung“ der globalen CO2-Emissionen darstellt (heise online: Der CO2-Rekordanstieg in 2010/Telepolis).

Gemäß dieser Studie hat der CO2-Ausstoß vom klimapolitischen Bezugsjahr 1990 bis 2010 um 49% zugenommen. Dabei entfallen auf den Zeitraum 2000-2010 rund 31%. Im „Rekordjahr 2010“ habe die Zunahme der CO2-Emissionen den Rekordwert von rund 6% erreicht.

Was sagen diese Zahlenangaben nun aus? Zum einen belegen sie den hohen Verbrauch fossiler Energieträger. Zum anderen sagen sie viel über die mit ihrer Verbrennung verbundenen (vor allem regionalen) Umweltbelastungen aus. Die Daten sind also relevant für eine Energie- und Umweltpolitik. In Bezug auf den Klimawandel hingegen sind die dramatisierenden Beträge irrrelevant, da sie die CO2-Emission und nicht die CO2-Immision beschreiben. Jeder, der sich mit den atmosphärischen Strahlungsprozessen halbwegs auskennt, weiß, dass für die Frage eines CO2-Einflusses auf den Klimawandel nur der Anstieg des CO2-Gehalts der Luft, also die CO2-Immision, relevant ist.

 

Aus diesem Grund sollen den publizierten Zahlen die klimarelevanten CO2-Werte anhand der 1958 begonnenen Mauna Loa-CO2-Meßreihe gegenüber gestellt werden (Abb. 1).

Von 1990, dem UN-Referenzjahr, bis 2010 erhöhte sich der CO2-Gehalt der Luft um 10% (35 ppm) – und nicht um 49%!

Im Zeitraum 2000 bis 2010 stieg die CO2-Konzentration der Luft um 5,7% (20,2 ppm) – und nicht um 31%. Für 2010 berechnet sich ein CO2-Anstieg von 0,6% – und nicht von 6%! Das heißt: Der Unterschied macht eine Größenordnung aus. Mit den realen klimarelevanten Zahlen wäre es allerdings kaum möglich gewesen, in der Öffentlichkeit eine für Durban gewünschte Alarmstimmung zu erzeugen. Man fragt sich also unwillkürlich: cui bono? 

Fazit: Atmosphärische CO2-Immission darf nicht mit CO2-Emission verwechselt werden, da man in Bezug auf die Strahlungsprozesse sonst Äpfel mit Birnen vergleicht. Der Kohlenstoff-Kreislauf zwischen Atmosphäre, Ozean, Biosphäre, Lithosphäre, Kryosphäre ist viel zu komplex, um eine CO2-Klimarelevanz mit Emissionsdaten beschreiben zu können.

Betrachtet man die CO2-Jahresmittel für den gesamten Zeitraum der Mauna-Loa-Messungen in     Abb. 1, so ist die Zunahme des atmosphärischen CO2-Gehalts unverkennbar. Von rund 315 ppm zu Beginn der Messreihe ist die Konzentration  bis heute auf rund 390 ppm angestiegen. Infolge der hohen Skalenwerte in Abb. 1 scheint der CO2-Anstieg ohne nennenswerte Schwankungen verlaufen zu sein. Bei höherer Auflösung ändert sich jedoch das Bild, und es werden hochfrequente Schwankungen des CO2-Gehalts sichtbar.   

In Abb. 2 sind die Änderungen der CO2-Jahreswerte in Bezug zum jeweiligen Vorjahr wiedergegeben. Als mittlerer jährlicher Anstieg ergibt sich für 1961-2010 ein Wert von 1,5 ppm (1961 bis 70: 0,9 ppm, 1971 bis 80: 1,4 ppm, 1981 bis 90:1,5 ppm, 1991 bis 2000: 1,6 ppm 2001 bis 10: 2,0 ppm).  

Etliche Jahre weisen jedoch deutlich über dem Mittel liegende, sprunghafte CO2-Anstiege auf. Wie man erkennt, stellt der atmosphärische CO2-Anstieg von 2010 keinen neuen Rekord dar. Mit einem Anstieg zum Vorjahr von 0,6% (2,4 ppm)  liegt 2010 nicht nur hinter 1973, 1988, 2003, deren CO2-Anstieg zum Vorjahr 0,7% betrug. Den CO2-Rekordanstieg hält 1998 mit 0,8% (2,95 ppm).

Die globale Temperaturentwicklung seit 1958

In Anbetracht der kontroversen Klimadiskussion stellt sich die Frage: Welcher Zusammenhang besteht  zwischen der langfristigen CO2-Zunahme bzw. den kurzfristigen, sprunghaften CO2-Anstiegen und dem globalen Temperaturverhalten? Vor allem die letzten fünf Jahrzehnte werden von den CO2-Verfechtern als Beweis für den menschengemachten Klimawandel angeführt.

In Abb. 3 sind die globalen Jahresmitteltemperaturen sowie die Klimatrendkurve dargestellt. Vergleicht man den Verlauf der Klimatrendkurve mit der CO2-Entwicklung in Abb.1, so fallen gravierende Unterschiede auf. Der CO2-Gehalt der Luft kennt nur eine Richtung: aufwärts. Die globale Klimatrendkurve gleicht dagegen einem liegenden „S“.

Von den 1960er bis in die 1970er Jahren weist die Globaltemperatur – entgegen dem CO2-Verlauf –  eine Abnahme auf. Verursacht wurde diese durch die Abkühlung der Nordhalbkugel. In dieser Zeit hatte sich das nordpolare Eis bis nach Island ausgedehnt, war der Atlantik zwischen Island und Grönland noch im Frühjahr zugefroren. Die Klimawissenschaft diskutierte erstmals über eine kommende Kleine Eiszeit. In jüngster Zeit weist die Globaltemperatur erneut ein abweichendes Verhalten zum CO2-Anstieg auf. Allein in den 1980er und 1990er Jahren ist ein paralleler Verlauf von CO2 und Temperatur festzustellen, wobei jedoch ein dominierender anthropogener CO2-Einfluss auf die Erwärmung mehr als fraglich ist, wie die früheren Studien und die  nachfolgende Analyse belegen.

Wie Abb. 3 ferner zeigt, wird der langfristige Temperaturverlauf permanent von kurzperiodischen Klimafluktuationen überlagert, d.h. kurzperiodische Prozesse erzeugen einen ständigen Wechsel von Zu- und Abnahme der Globaltemperatur.  

Um dieses Verhalten mit den CO2-Fluktuationen (Abb. 2) vergleichen zu können, wurde auch für die Globaltemperatur die Änderung zum jeweiligen Vorjahr bestimmt (Abb. 4). In Bezug auf die „Klimaerwärmung“ bzw. ihrem Zusammenhang mit dem CO2-Effekt sind die Jahre mit einem übernormalen, sprunghaften Temperaturanstieg von Bedeutung. Diese sind: 1966, 1969, 1972/73, 1977, 1979/80/81, 1983, 1987/88, 1990,1995, 1997/98, 2002/03, 2005 und 2010.

Vergleicht man diese Jahre mit den Jahren mit einem sprunghaften CO2-Anstieg (Abb.2), so ist die hohe Übereinstimmung unverkennbar. Nur die Zeit um den Pinatubo-Ausbruch (1991) macht eine Ausnahme.

Damit folgt: Sprunghafte Temperaturanstiege fallen mit sprunghaften CO2-Anstiegen zusammen! Ist dieses Ergebnis der empirische Beweis für die Klimadominanz des anthropogenen CO2-/Treib-hauseffekts? Oder könnte die Kausalität nicht auch umgekehrt sein, d.h. was ist hier Henne und was ist Ei? Diese Frage ließe sich klären, wenn die kurzperiodischen Temperaturerhöhungen nachweislich auf eine andere Ursache als den CO2-Effekt zurückgeführt werden könnten.

 

El Niño – Globaltemperatur – CO2

Bei der Betrachtung der Jahre mit sprunghaften Anstiegen der Globaltemperatur fällt auf, dass diese offensichtlich mit El Niño-Ereignissen korrespondieren, also mit jenen Jahren, in denen sich der tropische Pazifik zwischen Südamerika und Australien/Indonesien nach einer kühleren La Niña-Phase wieder erwärmt. In Abb.5 sind die El-Niño- und La Niña-Ereignisse der letzten fünf Jahrzehnte wiedergegeben. Zugrunde liegen die ONI-Daten (Oceanic Niño-Index) des US-Wetterdienstes.

Als Maß für den thermischen Antrieb des tropischen Pazifiks auf die Atmosphäre wird definiert:

F*= Tm x Mon (Tm: mittlere Anomalie der Ozeanoberflächentemperatur, Mon: Dauer der El Nino-/La Niña-Phase in Monaten). In der Regel beginnt El Niño im Frühjahr, erreicht um die Weihnachtszeit seinen Höhepunkt (El Niño= Christkind/Christknabe) und endet im Folgejahr. Im Mittel dauern El Niño-Phasen rund 12 und La Niña-Phasen 18 Monate, doch sind größere Abweichungen möglich.   

El Niño Temp CO2

El Niño

Temp

CO2

1965/66

1966

1966

1969

1969

1969

1972/73

1972/73

1973

1976/77

1977

1977/78

1979/80

1979/80/81

1980

1982/83

1983

1983

1986/87

1987/88

1988

1991/92

Pinatubo

Pinatubo

1994

1995

1995

1997/98

1997/98

1998

2002

2002/03

2003

2004/05

2005

2005

2009/10

2010

2010

In der Tabelle sind die Jahre mit El Niño sowie mit sprunghaftem Temperatur- und CO2-Anstieg zusammengefasst. Der Zusammenhang zwischen den El Niño-Ereignissen und den kurzperiodischen Anstiegen von Globaltemperatur und atmosphärischem CO2-Gehalt ist unverkennbar. Damit lässt sich die Frage beantworten: Was ist Ursache, was ist Wirkung?

Wie die Daten belegen, steht am Anfang die Erwärmung im tropischen Pazifik infolge thermisch- dynamischer Ozeanprozesse zwischen Südamerika und Australien. Der Anstieg der Ozeantemperatur (SST: Sea Surface Temperature) führt über Monate zu einem erhöhten Transport fühlbarer und latenter Wärme in die Atmosphäre. Die Folge ist ein gleichzeitiger/zeitversetzter Anstieg der globalen Mitteltemperatur. Am Ende der Wirkungskette steht der CO2-Anstieg.

Wie die Physikalische Chemie lehrt, ist die Menge an CO2, die von Wasser gebunden/gelöst werden kann, von der Wassertemperatur abhängig. Kaltes Wasser kann mehr CO2 speichern als warmes.

Bei jedem mit El Niño verbundenen Temperaturanstieg setzt der Ozean gespeichertes CO2 wieder frei. Die Folge ist ein sprunghafter, übernormaler atmosphärischer CO2-Anstieg. 1991/92 wird dieses Muster durch die Auswirkungen des Pinatubo-Ausbruchs überdeckt und 1982 durch den Ausbruch des El Chichon abgeschwächt.

Fazit: Nicht als Folge des kurzperiodischen CO2-Anstiegs kommt es zu einer Erhöhung der Globaltemperatur, sondern der mit El Niño verbundene globale Temperaturanstieg führt zu den kurzperiodischen CO2-Sprüngen. Damit dürfte die Frage nach Ursache und Wirkung auch auf der Kurzzeitskala eindeutig geklärt sein. Auf der paläoklimatischen Skala hat sich die Behauptung, die CO2-Anstiege wären den Erwärmungen vorausgegangen, ebenfalls als falsch erwiesen. Die anthropogene CO2-Hypothese hat ein grundlegendes Erklärungsproblem. Bei Erwärmungen soll der CO2-Effekt dominant, der Einfluss der Natur aber schwach sein. Bei Abkühlungen müssen dagegen die natürlichen Klimaprozesse so stark sein, dass sie einen „dominanten CO2-Effekt“ zu dominieren vermögen: Ein Paradoxon.


 

Das Zusammenwirken von solarem und El Niño/La Niña Klimaantrieb

Der klimarelevante ozeanische Einfluss von El Niño/La Niña wird in Abb. 6 deutlich. Dort ist für die letzten fünf Jahrzehnte der resultierende thermische Antrieb (F*=Tm x Mon) aus Erwärmungen bei El Niño minus Abkühlungen bei La Niña wiedergegeben. Wie man erkennt, verläuft der resultierende dekadische Ozeanantrieb grundsätzlich synchron zum globalen Temperaturtrend (Abb. 3). Beide zeigen ein Minimum in den 1970er Jahren und einen Anstieg in den 1980er und 1990er Jahren. Korrelationsrechnungen in früheren BWK-Beiträgen belegen den Zusammenhang auch quantitativ.  

An diesem Punkt stellt sich die Frage: Woher stammt die Wärmeenergie des Ozeans? Die Antwort kann nur lauten: Der ozeanische Antrieb ist die Folge der direkten und indirekten solaren Effekte. Der Wärmeinhalt des Ozeans ist gespeicherte solare Energie. Dabei kommt den Tropen und Subtropen aufgrund ihrer hohen Einstrahlung eine besondere Rolle zu.

In Abb.7 ist die mittlere jährliche Sonnenfleckenzahl und damit die solare Aktivität für die letzten fünf Sonnenfleckenzyklen wiedergegeben. Nach dem Höhepunkt um 1960 kam es zu einem Einbruch der solaren Aktivität um 1970. Diesem folgte zunächst ein Anstieg in den 1980er und 1990er Jahren. Der Rückgang des ozeanischen Wärmeeffekts (Abb. 6) und der Globaltemperatur (Abb. 3) in den 1970er Jahren sowie der Anstieg in den 1980er und 1990er Jahren korrespondieren mit dem solaren Verhalten und belegen die enge Kopplung. Der ozeanische Klimaantrieb ist folglich die komplexe thermische und dynamische Umsetzung des integralen solaren Klimaeinflusses. 

Grundsätzlich kann man daher sagen: In Zeiten hoher Sonnenaktivität speichert der Ozean aufgrund seiner großen Wärmekapazität vor allem in den Tropen und Subtropen Wärmeenergie, und zwar bis in tiefere Schichten. Infolge seiner thermischen Trägheit gibt er diese dann zeitverzögert an die Atmosphäre ab. Auf diese Weise sorgt der Ozean dafür, dass sich die Globaltemperatur phasenverschoben zu den Änderungen der solaren Aktivität verhalten kann.

Fazit: Am Beginn einer Zunahme/Abnahme der solaren Aktivität kann deren Auswirkung auf die Globaltemperatur durch den Wärmespeicher Ozean erst phasenverzögert sichtbar werden, insbesondere wenn der thermisch-dynamische Effekt von El Niño/La Niña stark ausgeprägt ist.  

Schlussbetrachtungen

Der Phaseneffekt zwischen der Änderung der solaren Aktivität und dem Wärmespeicher El Niño vermag auch die Diskrepanz zwischen der Abnahme der Sonnenaktivität im 23. Sonnenfleckenzyklus (1996-2009) und dem jüngsten Verhalten der Globaltemperatur zu erklären. So ist, wie Abb. 6 zeigt, der resultierende ozeanische ENSO-Antrieb (El Niño Southern Oscillation) durch die El Niño-Ereignisse im letzten Jahrzehnt am höchsten, während entsprechend der 200-jährigen Schwingung (s. frühere BWK-Beiträge) die Sonne bereits auf dem Weg in eine ruhige, kältere Phase ist (Abb. 7).

Wie wenig das CO2 das aktuelle Klimaverhalten bestimmt, zeigen die beiden folgenden Abbildungen.

In Abb. 8 ist der mittlere jährliche CO2-Gehalt der Luft von 1995 bis 2011 wiedergegeben. Von Jahr zu Jahr hat sich der CO2-Gehalt um rund 2 ppm erhöht: Jedes Jahr also ein neuer CO2-Rekord!

Betrachtet man im Vergleich zum CO2-Anstieg den globalen Temperaturverlauf seit 1995, so zeigt sich ein ganz anderes Bild. In Abb.9 wird zum einen deutlich, wie die El Niño-Ereignisse von 1997/98, 2002/03, 2004/05 und 2009/10 die Globaltemperatur in die Höhe gezogen haben. Nicht weniger deutlich zeigt sich zum anderen, dass die globale Erwärmung ihren Höhepunkt überschritten  hat. So geht die Globaltemperatur, ungeachtet des CO2-Anstiegs, zunächst in eine Stagnation und danach in einen Abwärtstrend über. Würde dieser Kurvenverlauf die wirtschaftliche Entwicklung widerspiegeln, hätten Stagnation und nachfolgende Rezession in den Medien hohe Wellen ausgelöst. Beim Klimawandel wird stattdessen unreflektiert die Apokalypse planetarer Überhitzung mit weitreichenden Folgen für 7 Milliarden Menschen (Tendenz steigend) verbreitet. Auch die Tatsache, dass nach dem Tiefstand im Jahre 2007 das Arktiseis – unter normalen Schwankungen – wieder zunimmt, ist keine Schlagzeile wert. (http://arctic-roos.org/observations/satellite-data/)

 

Wenn selbst ein stringenter Verfechter der CO2-Modellhypothese zu Beginn des UN-Klimagipfels im Fernsehen erklärt, es könne auch Jahrzehnte ohne Erwärmung geben, dann spricht das Bände. Damit wird anerkannt, dass die natürlichen Klimaprozesse den CO2-Effekt selbst auf steigendem Niveau zu dominieren vermögen. Der Nachsatz, danach schreite die (menschengemachte) Erwärmung aber doppelt so stark voran, ist durch keine belastbaren Fakten belegt. (Pfeifen im Walde!)

Höchst fragwürdig ist ferner, eine CO2-bedingte Erwärmung mit einer Zunahme von Extremwetterlagen zu begründen. Zum einen ist die Klimageschichte reich an Unwetter-Ereignissen, und zwar in allen Klimaregionen und Klimaperioden. Zum anderen ist bisher weder eine Zunahme von Hurrikanen in den Tropen noch von Orkantiefs in den Außertropen nachzuweisen. Auch sind in den Tropen und Subtropen viele extreme Ereignisse (Dürren, Starkniederschläge) nachweislich mit El Niño/La Niña verbunden, also mit natürlichen Prozessen. Menschengemacht sind allerdings die Randbedingungen bei Naturkatastrophen, wie zu hohe Bevölkerungsdichte, Eingriffe in die Natur (Abholzen von tropischen Wäldern, Zerstörung der den Inseln vorgelagerten Korallenriffe, auch durch die Schifffahrt), eine unangepasste Besiedlung und Bebauung in sensiblen Naturräumen.  

In den mittleren und nördlichen Breiten bestimmt, wie jeder Meteorologie-Absolvent weiß, der Temperaturgegensatz zwischen Subtropen und Polarregion das Unwetterpotential. Eine globale Erwärmung würde nach den Klimamodellen die Polarregion doppelt so stark erwärmen wie die Subtropen, d.h. der meridionale Temperaturgegensatz würde abnehmen und damit auch die Entstehungsbedingung für Orkane. So entstehen im Sommer bei uns – im Gegensatz zum Winter – keine Orkantiefs, weil der sommerliche Temperaturunterschied zwischen Azoren und Polarregion zu gering ist.

Eine Zunahme der Orkantätigkeit, des Unwetterpotentials, ist dagegen zu erwarten, wenn es zu einer globalen Abkühlung kommt, da die Polarregion sich in diesem Fall stärker abkühlen würde als die Subtropen und damit der meridionale Temperaturgegensatz zunehmen würde.  

Fazit: Die natürlichen Klimaprozesse bestimmen, wie zu allen Zeiten, auch heute und in Zukunft primär den Klimawandel. Dem menschengemachten CO2-Einfluss kommt in unserem Klimasystem  nur eine untergeordnete Bedeutung zu.

Nach meiner Überzeugung ist es ein falscher Ansatz, eine Verringerung der CO2-Emissionen mit dem Klimawandel zu begründen. Dagegen macht es Sinn, die mit der Verbrennung fossiler Energieträger verbundenen Umweltbelastungen zu reduzieren und im Hinblick auf kommende Generationen mit den Ressourcen verantwortlich umzugehen. Ziel der Klimaforschung sollte sein, interdisziplinäre Anpassungsstrategien für eine globale Abkühlung zu entwickeln. Jede Abkühlung führt zu größeren Problemen als eine Erwärmung.  

Als credo folgt somit: Die Sonne, in Verbindung mit dem Wärmespeicher Ozean, wird unsere Klimazukunft bestimmen. Dabei spricht derzeit alles für eine globale Abkühlung in den kommenden Jahrzehnten, denn die Prognosen über die solare Aktivität lassen ein „Grand Solar Minimum“ erwarten: “Solar activity is presently going through a transition period (2000–2013). This will be followed by a remarkably low Schwabe cycle, which has started recently. In turn that cycle precedes a forthcoming Grand Minimum, most likely of the long type.” (S. Duhau and C. de Jager, Journal of Cosmology 2010, Vol.8). Das gegenwärtige Klimaverhalten ist in Übereinstimmung mit dem 200-jährigen De-Vries-Zyklus (BWK-Beitrag  SO 09/11)  und dem derzeit synchronen, im Mittel 80-90-jährigen Gleissberg-Zyklus der solaren Aktivität (Abb.10).

 

Anhaltend aufwärts kann es mit der Globaltemperatur erst wieder gehen, und zwar auch dann ohne wesentlichen CO2-Einfluss, wenn die zyklische solare Aktivität wieder zunimmt. Aus heutiger Sicht sollte das in der 2.Hälfte des 21.Jahrhunderts sein, nachdem das Grand Minimum durchschritten worden ist. Vergleichbar damit könnte das Klima-/Temperaturverhalten zur Zeit und nach dem Dalton-Minimum der solaren Aktivität im 19. Jahrhundert sein. Das Ausmaß der kommenden Abkühlung wie der nachfolgenden Erwärmung werden wiederum primär von der Sonne bestimmt.   

Altbundeskanzler Helmut Schmidt hat auf dem SPD-Parteitag Anfang Dezember 2011 gesagt:

„Alles Gerede und Geschreibe über eine angebliche Krise des Euro ist leichtfertiges Geschwätz von Medien, von Journalisten und von Politikern“.

Nach meiner Überzeugung kann man für „Krise des Euro“ auch „menschengemachte Klimakatastrophe“ einsetzen.

Horst Malberg, Univ.-Prof. (a.D.) für Meteorologie und Klimatologie

Literatur und Daten s. SO 09/11 vom 23.3.2011: „Analyse des solaren Effekts und des langfristigen Klimawandels seit 1680 sowie des gegenwärtigen kurzperiodischen Klimaverhaltens“. 

erschienen in Beiträge zur Berliner Wetterkarte c/o Institut für Meteorologie der Freien Universität Berlin, C.-H.-Becker-Weg 6-10, 12165 Berlin 09/12          http://www.Berliner-Wetterkarte.de       ISSN 0177-3984, mit freundlicher Genehmigugn des Autors




Energiewende verstehen? E = mc²!

Bild rechts: Prof. Albert Einstein bei seiner 11. Josiah Willard Gibbs-Lektion auf dem Treffen der American Association for the Advancement of Science im Auditorium des Carnegie Institue of Technology Little Theater in Pittsburgh am 28. Dezember 1934. Photo: AP

E = mc²

Während meiner Collegezeit besuchte ich einen Kursus, in dem es um die großen politischen Philosophen ging – Hobbes, Locke, Rousseau, Kant, John Stuart Mill und Karl Marx.

Nach meiner Erinnerung habe ich sie den historischen Zeiten zugeordnet, die sie beeinflusst hatten – Hobbes und die Monarchen des 18. Jahrhunderts, Locke und die amerikanische Revolution, Rousseau und die Romantik des 19. Jahrhunderts, Kant und die Nationalstaaten des 19. Jahrhunderts, Marx und der Kommunismus des 20. Jahrhunderts.

Dann sah ich eines Tages eine Zeitskala, auf der gezeigt wurde, wann sie alle gelebt haben und gestorben sind. Zu meinem Erstaunen hatte jeder einhundert Jahre vor der Zeit gelebt, die ich  ihnen zeitlich zugeordnet hatte. Es schien klar, was das bedeutet. „Es dauert etwa hundert Jahre, bevor ein neuer Gedanke die Bühne der Geschichte betritt“.

Vor fast genau einhundert Jahren hat Albert Einstein die Gleichung E = mc² in seiner “Speziellen Relativitätstheorie” eingeführt. Die Gleichung bot einen neuen Weg, die Ursprünge chemischer Energie zu beschreiben sowie eine neue Energiequelle, die bis dahin historisch völlig unbekannt war – Kernkraft. Die Kernkraft gab ihr furchtbares Debut in der Geschichte 40 Jahre später in Gestalt einer Atombombe. Aber 100 Jahre später haben die Amerikaner [und vor allem auch die Deutschen, A. d. Übers.] noch nicht richtig die weit größeren Implikationen von Einsteins Gleichung erfasst – eine neue Form von Energie, die fast unbegrenzte Energie mit einem verschwindend geringen Einfluss auf die Umwelt zur Verfügung stellen kann.

E = mc². Wer hat noch nichts davon gehört? Selbst Mariah Carey hat ihr letztes Album danach benannt. „E“ steht für Energie, „M“ für Masse und „C“ für die Lichtgeschwindigkeit – das ist einfach genug. Aber was bedeutet das wirklich? (Die Antwort lautet nicht „Relativität“).

Was E = mc² besagt ist nichts weiter als dass Materie und Energie austauschbar sind. Es gibt eine Verbindung zwischen den beiden. Energie kann sich in Materie verwandeln und Materie in Energie. Es sind zwei verschiedene Aspekte der gleichen Sache.

Dieses Prinzip der Gleichartigkeit von Energie und Materie war eine total unerwartete Abwendung von allem, was es bis dahin gegeben hatte. Im 18. Jahrhundert hat Antoine Lavoisier, der große französische Chemiker, die Erhaltung der Materie begründet. Durch sehr sorgfältige Experimente wie das Verbrennen eines Holzscheites fand er heraus, dass das Gewicht der entweichenden Gase und Aschen immer genau gleich dem Gewicht des Ausgangsmaterials war. Materie kann nicht erzeugt oder vernichtet werden, sondern nur seine Form ändern.

Im 19. Jahrhundert dann begründete eine ganze Reihe brillanter Wissenschaftler – Count Rumford, Sadi Carnot, Rudolf Clausius, Ludwig Boltzman – das gleiche Prinzip für Energie. Energie kann viele Formen annehmen – Wärme, Licht, Bewegung potentielle Energie – aber die Menge bleibt immer die gleiche. Energie kann auch nicht erzeugt oder vernichtet werden.

Als dann das 20. Jahrhundert herauf dämmerte, kam Albert Einstein mit einem dritten Prinzip, dass die anderen beiden in völlig unerwarteter Weise vereinigte. Einstein bewies das Erhaltungsgesetz zwischen Materie und Energie. Nichts dergleichen konnte man sich früher vorstellen. Das Bedeutendste an der Sache ist der Koeffizient – das Quadrat der Lichtgeschwindigkeit. Das ist eine sehr, sehr große Zahl mit einer Größenordnung von 1 Quadrillion.

Wir haben nicht wirklich einen Referenzpunkt, um uns einen Faktor von einer Quadrillion vorzustellen. Wir wissen, was eine Trillion ist – das öffentliche Haushaltsdefizit [der USA]. Aber eine Quadrillion ist immer noch jenseits unseres Horizontes. Jedoch bedeutet genau das, dass eine sehr, sehr große Energiemenge sich in eine sehr, sehr kleine Menge von Materie verwandeln kann, und dass eine sehr, sehr kleine Menge von Materie zu einer sehr, sehr großen Energiemenge werden kann.

Vielleicht gibt es einen Weg, die Wichtigkeit von Einsteins Gleichung mit einer anderen Gleichung zu vergleichen, und zwar der Formel für kinetische Energie:


Kinetische Energie ist die Energie sich bewegender Objekte. „E“ steht wieder für Energie, „m“ für Masse und „v“ für die Geschwindigkeit des sich bewegenden Objektes. Wenn man beispielsweise einen Tennisball durch einen Raum wirft, wird die Energie berechnet, indem man die Masse des Balles mit dem Quadrat seiner Geschwindigkeit multipliziert – vielleicht etwa 50 Meilen pro Stunde.

Die beiden Formeln sind im Wesentlichen gleich. Stellt man sie nebeneinander, ergeben sich zwei Dinge:

  1. Bei einer vorgegebenen Energiemenge sind Masse und Geschwindigkeit umgekehrt proportional. Je höher die Geschwindigkeit, umso weniger Masse ist erforderlich, und umgekehrt.
  2. Vergleicht man das mit den Geschwindigkeiten sich bewegender Objekte in der Natur – Wind und Wasser zum Beispiel – ist der Koeffizient in Einsteins Gleichung fünfzehn Größenordnungen größer – der gleiche Faktor wie von einer Quadrillion.

Wie merken wir das im täglichen Leben? Das meiste von dem, was wir „erneuerbare Energie“ nennen, sind tatsächlich die kinetischen Flüsse von Materie in der Natur. Wind und Wasser sind sich bewegende Dinge, die wir zur Energieerzeugung abernten. Daher werden sie mit der Formel für kinetische Energie gemessen.

Beginnen wir mit Strom aus Wasserkraft. Von einem hohen Damm herunterfallendes Wasser erreicht eine Geschwindigkeit von etwa 60 Meilen pro Stunde [ca. 95 km/h] oder 80 Fuß pro Sekunde [ca. 24 m/s]. Erhöht man den Damm um 80 oder mehr Fuß, kann die Geschwindigkeit dadurch nicht um mehr als 20 Meilen pro Stunde [ca. 32 km/h] erhöht werden. Der einzige Weg, den Energieoutput zu erhöhen besteht darin, die Masse zu erhöhen, d. h. mir müssen mehr Wasser verbrauchen.

Die größten Dämme – Hoover und Glen Canyon am Colorado – sind 800 Fuß hoch [ca. 240 m] und halten ein Reservoir mit einer Fläche von 250 Quadratmeilen [ca. 400 km²] zurück. Dies erzeugt 1000 Megawatt, Standard für eine stromerzeugende Station. (Lake Powell hinter dem Glen Canyon Damm versandete irgendwie und erzeugt nur 800 MW).

Umweltaktivisten begannen in den sechziger Jahren, gegen Wasserkraftwerke mobil zu machen, weil sie so riesige Landschaftsräume verbrauchen, weil sie landschaftlich schöne Täler und historische Canyons ertränken. Sie haben diese Mobilmachung bisher nicht beendet. Der Sierra-Klub, der gegen die Errichtung des Hetch-Hetchy-Damms in Yosemite 1921 kämpfte, versucht immer noch, diesen niederzureißen, obwohl er Trinkwasser und 400 Megawatt Strom für San Francisco zur Verfügung stellt. Als Ergebnis dieser Kampagne werden jedes Jahr mehr Dämme eingerissen als neu gebaut.

Wind weist eine viel geringere Energiedichte als Wasser auf, so dass der Landverbrauch sogar noch größer ist. Zeitweilige 50 Stockwerke hohe Windmühlen erzeugen 1½ MW pro Stück, so dass man 660 Windmühlen braucht, um 1000 MW zu erzeugen. Sie müssen eine halbe Meile [ca. 800 m] entfernt voneinander errichtet werden, so dass ein 1000 MW-Windpark 125 Quadratmeilen [ca. 200 km²] Land überdeckt. Unglücklicherweise erzeugen die besten Windmühlen Strom gerade mal in 30% der Zeit, so dass 1000 MW in Wirklichkeit einen Landverbrauch von 375 Quadratmeilen [ca. 600 km²] weit voneinander entfernter Standorte erfordert.

Gezeitenkraft, oft als eine weitere erneuerbare Energiequelle genannt, leidet unter den gleichen Problemen. Wasser hat eine größere Dichte als Wind, aber die Gezeitenströme bewegen sich nur mit einer Geschwindigkeit von etwa 5 mph [ca. 8 km/h]. An den bestgeeigneten Standorten der Welt würde man etwa 20 Meilen [ca. 32 km] Küstenlinie benötigen, um 1000 MW zu erzeugen.

Was ist mit der Solarenergie? Die Sonnenstrahlung ist ein Ergebnis einer Transformation von E = mc², da die Sonne Wasserstoff zu Helium verbrennt. Unglücklicherweise findet diese Reaktion 90 Millionen Meilen entfernt statt. Die Strahlung streut mit dem Quadrat der Entfernung, so dass die Sonnenenergie, wenn sie die Erde erreicht, um fast den gleichen Faktor abgeschächt ist, 10 bis 15. Folglich beträgt die auf einen Quadratmeter einfallende Sonnenstrahlung 400 Watt, ausreichend, um vier 100-WQatt-Glühbirnen zum Leuchten zu bringen. „Thermische Solar“ – große Anordnungen von Spiegeln, die eine Flüssigkeit erhitzen – können 30 Prozent davon in Strom umwandeln. Photovoltaikzellen sind mit einer Umwandlung von 25 Prozent etwas weniger effizient. Ergebnis: Die Strommenge, die wir von der Sonne bekommen, reicht aus, um eine 100-Watt-Glühbirne pro Kartentisch zu erleuchten.

Das ist keine insignifikante Strommenge. Falls wir jedes Hausdach im Lande mit Solarkollektoren zupflastern, könnten wir möglicherweise unsere Hausbeleuchtung plus einige grundlegende Haushaltsgeräte damit betreiben – tagsüber. Der große Vorteil der Sonne liegt darin, dass sie gerade dann ihr Maximum erreicht, wenn es gebraucht wird, während heißer Sommernachmittage wenn die Klimaanlagen den Stromverbrauch in die Höhe schnellen lassen. Das Zusammentreffen mit diesen Spitzen ist ein ständiges Problem für Energieversorger, und der Sonnenstrom kann eine signifikante Rolle bei der Erfüllung des Bedarfs spielen. Das Problem taucht auf, wen Solarenthusiasten zu behaupten versuchen, dass die Solarkraft grundlastfähigen Strom für eine Industriegesellschaft liefern kann. Es gibt keine Technologie, Energie in für kommerzielle Verwendung ausreichender Mengte zu speichern. Bis etwas entwickelt wird – was unwahrscheinlich erscheint – können Wind- und Solarkraft nur als zeitweilige unvorhersagbare Energiequellen dienen.

Es gibt nur so viel Energie, wie wir aus erneuerbaren Quellen anzapfen können. Sie ist begrenzt, entweder durch die erreichte Schnelligkeit oder durch die Distanz, die die Sonnenenergie bis zum Erreichen der Erdoberfläche überwinden muss. Gibt es also irgendwo in der Natur eine Stelle, an der wir einen Vorteil aus jenem „c2“-Koeffizienten ziehen und Masse in Energie verwandeln können? Es gibt eine, die wir durch die Geschichte benutzt haben. Sie nennt sich „Chemie“.

Chemische Energie wird gemeinhin durch „Ladungszahlen” beschrieben. Ein Natriumatom hat eine Wertigkeit von +1, was bedeutet, dass ihm ein Elektron in der äußeren Hülle fehlt. Gleichzeitig besitzt das Chloratom eine Wertigkeit von -1, was bedeutet, dass es ein Elektron zu viel hat. Zusammen bilden sie Natriumchlorid (Tafelsalz). Alle chemischen Reaktionen laufen entweder „endothermisch“ oder „exothermisch“ ab, was bedeutet, dass Energie bei diesem Prozess entweder abgegeben oder verbraucht wird. Der Bunsenbrenner in der Chemieklasse ist ein Weg, einer Reaktion Energie zuzuführen. Das andere, was passieren kann, geschieht gelegentlich in Chemielaboratorien, nämlich ein plötzliches Freisetzen von Energie, genannt „Explosion“.

Der große Fortschritt der Quantenphysik des 20. Jahrhunderts war es, die chemischen Reaktionen zu beschreiben mit E = mc².

Verbrennt man eine Gallone (ca. vier Liter) Benzin, wird nur ein Milliardstel der Masse des Benzins vollständig in Energie umgewandelt. Diese Umwandlung erfolgt in der Elektronenhülle. Die Menge ist so gering, dass es bisher noch niemandem gelungen ist, sie zu messen. Und doch reicht die Energieerzeugung aus, um ein 1000-Kilo-Fahrzeug 50 Kilometer fahren zu lassen – eine bemerkenswerte Leistung, wenn man darüber nachdenkt.

Elektronen machen nur etwa 0,01 Prozent der Masse eines Atoms aus. Die anderen 99,99 Prozent befinden sich im Atomkern. Und so erhob sich die Frage, ob es möglich wäre, die viel größere, im Atomkern gespeicherte Energiemenge auf die gleiche Weise abzugreifen, wie wir das mit den Elektronen durch Chemie getan haben?

Lange Zeit bezweifelten viele Wissenschaftler, dass das gelingen könnte. Einstein selbst war skeptisch, indem er sagte, dass die Spaltung eines Atoms so wäre wie „der Versuch, nachts Vögel zu jagen in einem Land, in dem es kaum Vögel gibt“. Aber andere Wissenschaftspioniere – Enrico Fermi, George Gamov, Lise Meitner und Leo Szilard – entdeckten, dass es gemacht werden kann. In den späten dreißiger Jahren ist klar geworden, dass Energie in bisher nicht gekannter Menge durch Spaltung des Uranatoms gewonnen werden könnte.

Unglücklicherweise ging der Einführung der Kernkraft der II. Weltkrieg voraus. Dies ist eine historische Tragödie. Die Atombombe steht zur Kernkraft im gleichen Verhältnis wie Schießpulver zu Feuer. Während das Schießpulver in der Geschichte eine bedeutende Rolle gespielt hat, war die Rolle des Feuers von viel größerer Bedeutung. Würden wir das Feuer aufgeben, nur weil es zur Entwicklung von Gewehren geführt hat? Und doch wirft die Atombombe weiterhin einen Schatten auf die gleichermaßen bedeutende Entdeckung der Kernkraft.

Es stellte sich heraus, dass der Energieausstoß aus einem sich teilenden Uranatom 2 Millionen mal größer ist als die Kohlenstoff-Wasserstoffbindung in Kohle, Öl oder Holz aufzubrechen. Verglichen mit allen von den Menschen benutzten Formen der Energiegewinnung ist die Kernkraft jenseits aller Grenzen. Wind besitzt nur ein Zehntel der Energiedichte von Holz, Holz die Hälfte der Energiedichte von Kohle und Kohle die Hälfte der Energiedichte von Oktan. Alle zusammen unterscheiden sie sich um einen Faktor von etwa 50. Die Kernkraft besitzt etwa 2 Millionen mal die Energiedichte von Benzin. Es ist schwierig, dies im Licht unserer bisherigen Erfahrungen auszuloten. Und doch hängt unsere Energiezukunft großenteils davon ab, die Bedeutung dieses Differentials zu erfassen.

Eine elementare Vergleichsquelle ist die Überlegung, was man braucht, um ein Kohlekraftwerk im Gegensatz zu einem Kernreaktor wieder aufzutanken. Ein 1000-MW-Kohlekraftwerk – unser Standard – wird durch einen 110 Waggons langen „Kohlezug“ gefüttert, der alle 30 Stunden an dem Kraftwerk ankommt – 300 mal im Jahr. Jeder individuelle Kohlewaggon wiegt 100 Tonnen und erzeugt 20 Minuten lang Energie. Wir bringen die Kapazität unseres Schienensystems durch dieses Herumfahren der Kohle in unserem Land an seine Grenzen. (In China ist es bereits komplett zusammengebrochen).

Ein Kernreaktor andererseits wird aufgetankt, wenn eine Flotte von sechs Sattelschleppern an dem Kraftwerk mit einer Ladung Brennstäbe einmal alle 18 Monate ankommt. Die Brennstäbe sind nur schwach radioaktiv und können mit Handschuhen angefasst werden. Sie werden fünf Jahre im Reaktor verbleiben. Nach diesen fünf Jahren werden sich etwa 6 Unzen (ca. 170 g) Materie vollständig in Energie verwandelt haben. Wegen der Stärke nach E = mc² reicht die Metamorphose von 6 Unzen Materie aus, die Stadt San Francisco fünf Jahre lang mit Strom zu versorgen.

Das ist es, was den Leuten so schwerfällt zu verstehen. Es liegt fast jenseits unserer Vorstellungskraft. Wie kann man eine ganze Großstadt fünf Jahre lang mit 6 Unzen Materie fast ohne jeden Umwelteinfluss mit Strom versorgen? Es scheint so unvorstellbar zu sein, dass wir Probleme erfinden, um alles wieder normal aussehen zu lassen. Ein Reaktor ist eine Bombe, die darauf wartet zu explodieren. Der Abfall lagert ewig, was werden wir je damit tun können? Es liegt etwas Unheimliches darin, Energie aus dem Atomkern zu erzeugen. Die Technologie liegt jenseits der menschlichen Beherrschbarkeit.*

Aber die Technologie liegt nicht jenseits der menschlichen Beherrschbarkeit. Es ist auch nichts Unheimliches an der Kernkraft. Es liegt nur jenseits von allem, was wir uns vor Beginn des 20. Jahrhunderts auch nur vorstellen konnten. Zu Beginn des 21. Jahrhunderts ist es Zeit, damit anzufangen, sich das vorzustellen.

William Tucker is the author, most recently, of Terrestrial Energy: How Nuclear Power Will Lead the Green Revolution and End America’s Energy Odyssey.

Link: http://www.energytribune.com/articles.cfm/2469/Understanding-E-=-mc2

Übersetzt von Chris Frey

*Bemerkung des Übersetzers: Der Artikel von Tucker stammt vom 21. Oktober 2009, ist also schon älter. Alles hierin Gesagte gilt  natürlich auch für die Energiequelle Thorium, von der damals offenbar noch nichts bekannt war und die nun auch das Risiko einer Verstrahlung gegen Null tendieren lässt.




FTD Umfrage: 70 % Zustimmung für Vahrenholt/Lüning Thesen zum Klimawandel

Und der Spartensender PHOENIX sendet morgen am 13.2.12 um 22:15 Uhr dazu eine Diskussion unter dem Titel „Wieder prima Klima? Der Streit um die Energiewende“

Teilnehmer sind Fritz Vahrenholt und Huber Weger vom BUND. Die Moderation besorgt der nette Christoph Minhoff.

Unterdessen wird im Bundes-Wirtschaftsministerium ein Krisenstab für einen möglichen Blackkout eingerichtet. Obwohl doch 50 % der weltweiten Solaranlgen in Deutschland installiert sind.

In Bayern tagt er bereits permanent, wie der Bayerntext (12.2.20012, 12.10) berichtet: „In Bayern jagt eine Energierunde die nächste. Grund: Die Russen liefern nicht genug Gas.“

Auch die Leser der FTD lassen sich also nicht für dumm verkaufen, obwohl es immer wieder von Propagandisten – wie jetzt wieder in „Die Zeit“ – versucht wird.

Unter dem Titel

Störenfritz des Klimafriedens“ 

versuchen dort die drei „anerkannten Fachjournalisten“

Frank Drieschner, Christiane Grefe und Christian Tenbrock (*) den ehemaligen Umweltsenator in einem längeren Artikel niederzumachen und der Verachtung preisgeben:

Die wirklich wichtige Frage aber ist die nach der politischen Wirkung: Bleibt Vahrenholt ein wissenschaftlicher Esoteriker mit Ausstrahlung auf Seite zwei der Bild-Zeitung – oder wird er womöglich zur Galionsfigur einer neuen ökoreaktionären Bewegung? In Deutschland sind die »Klimaskeptiker«, wie sie selbst sich nennen, bislang nahezu bedeutungslose Rabulisten am rechten Rand der etablierten Politik – dort, wo auch Islamhasser, deutsche Neocons und andere Verächter liberalen »Gutmenschentums« sich tummeln.

Und so geht es drei Seiten lang. Ein despektierlicher Begriff nach dem anderen, dazu der fleißig gestreute, maliziöse Verdacht, Vahrenholt sei nur Lobbyist der RWE. Auf keiner der drei Seiten steht aber auch nur ein einziges Gegenargument – nichts, nur Niedermache! Das ist aber durchaus verständlich, denn mehr steht diesen Leuten nicht zur Verfügung:

Und es wird daher auch nichts helfen, wenn der Solaroberlobbyist Eike Weber Direktor des Freiburger Forschungsinstituts für solare Energieysteme der Fraunhofergesellschaft in der Welt am Sonntag die Gefährlichkeit des unauffindbaren Treibhauseffekt erklären darf.

(*) Hier die VITA der selbsternannten Klimamoralwächter

ZEIT-CO2-Experte Nr. 1, Frank Drieschner (Foto 1), hat Philosophie und Geschichte und Modernes Leben studiert. Es bewegen ihn besonders Fragen der Medizinethik – Sterbehilfe, Patientenverfügungen, Pflegenotstand.
ZEIT-CO2-Experte Nr. 2, Christiane Grefe (Foto 2), studierte Politikwissenschaft, Kommunikationswissenschaft und Amerikanistik an der Deutschen Journalistenschule in München. Den Schwerpunkt ihrer Arbeit bilden ökologische und soziale Themen, wofür sie durch ihr “Studium” bestens ausgestattet ist. Eines ihrer bahnbrechenden Bücher „Allergien – Leiden an der Umwelt“, sollte in keiner Hausapotheke fehlen.
ZEIT-CO2-Experte Nr. 3, Christian Tenbrock (Foto 3), studierte Volkswirtschaft und Sozialwissenschaften. Er war beim WDR-Radio und vier Jahre bei den Olympischen Spielen in Seoul. Heute bricht er zu Erkundungen auf im Osten.

Die Qualifikationen sind überwältigend. Und alle drei sind schließlich einer Meinung!

Und genau an diesem Dogma des „wissenschaftlichen Konsenses“ sollte nicht gerüttelt werden. Das Volk muß einig sein und zusammenstehen im Kampf gegen das CO2 und die Klimaerhitzung. Abweichler, Dissidenten können nicht geduldet, sondern müssen mit allen demagogischen Mitteln bekämpft werden. Schon neulich hat Toralf Staud, ein weiterer ZEIT-Experte, zugeschlagen gegen den Klima-Sarrazin!

Es bleibt also spannend.

Michael Limburg EIKE,

mit Dank an PI, sowie die Leser Kurt Laburda und Dr. Zielinski für Hinweise bzw. Textteile.

Weitere Info´s hier




Allgemeine Klimatheorie: Erwiderung auf Kommentare

Anmerklung von A. Watts: …Dies ist eine umstrittene Ausgabe, und während es eine wunderbare Sache wäre, falls es stimmte, sehe ich persönlich nicht, wie es auf irgendeine Weise den Energieerhaltungssatz (<a href= "http://en.wikipedia.org/wiki/Conservation_of_energy"target="_blank">hier</a>) überwinden könnte. Diese Ansicht wird auch von Anderen geteilt, wie aus der Einführung des Artikels unten hervorgeht. … Anthony WattsGrößenordnung des natürlichen ‚Treibhauseffektes’

  1. Einführung

Unsere jüngste Studie zur allgemeinen Klimatheorie löste intensive Diskussionen bei  WUWT und Tallbloke’s Talkshop aus. Die Blogger, aber auch zwei Online-Artikel von Dr. Ira Glickstein und Dr. Roy Spencer stellten viele wichtige Fragen. Nachdem wir uns durch die meisten Antworten hindurchgearbeitet hatten, wurde uns klar, dass weiterführende Ausführungen erforderlich sind. Wir präsentieren unsere Antwort in zwei separaten Artikeln, die die Schwerpunkte der Blogger ebenso ansprechen wie Schlüsselaspekte unseres neuen Paradigmas.

Beachten Sie bitte, dass Sie zum Verständnis dieser neuen Theorie Ihre Sichtweise ändern müssen! Wie Albert Einstein einmal sagte, ein neues Paradigma kann nicht innerhalb eines existierenden Gedankenexperiments verstanden werden; also werden wir durch das System [episteme], in dem wir leben, eingeschränkt. In dieser Hinsicht erfordert unser Konzept neue Definitionen, die exakte Ebenbilder in der aktuellen Treibhaustheorie haben können oder nicht. Zum Beispiel ist es für uns entscheidend, den Term Atmospheric Thermal Effect (ATE) einzuführen und zu verwenden, weil: a) der Term Greenhouse effect GE unvermeidlich irreführend ist aufgrund der Tatsache, dass die freie Atmosphäre nicht wirklich wie ein geschlossenes Treibhaus funktioniert, wenn man der konvektiven Abkühlung keine Grenzen auferlegt, b) ATE genau den physikalischen Sinn des Phänomens beschreibt, nämlich des Temperaturtreibers [temperature boost] an der Oberfläche infolge der Gegenwart der Atmosphäre, c) die Argumentation in Termen wie ATE im Gegensatz zum GE hilft, die Diskussion über den Strahlungstransport hinaus zu führen und d) der Term Atmospheric Thermal Effect keine zugrunde liegenden physikalischen Mechanismen impliziert.

Wir beginnen mit der unbestreitbaren Tatsache, dass die Atmosphäre zusätzliche Wärme auf der Erdoberfläche erzeugt, verglichen mit einer atmosphärefreien Umgebung wie auf dem Mond. Dies wirft zwei grundlegende Fragen auf: (1) Welche Größenordnung hat diese Zusatzerwärmung, d.h. ATE? und (2) wie macht die Atmosphäre das, d. h. welcher physikalische Mechanismus liegt ATE zugrunde? In dieser Antwort geht es um die erste Frage, da sie die Krux bei den Schwierigkeiten [des Verständnisses] der meisten Leute zu sein scheint, und die daher gelöst werden muss, bevor wir uns mit der übrigen Theorie befassen (siehe zum Beispiel Lord Monckton’s WUWT post).

  1. Die Größenordnung des irdischen atmosphärischen Thermaleffektes

Um ATE ordnungsgemäß zu evaluieren, bleiben wir dabei, dass man die mittlere Temperatur der Erde mit der Temperatur eines sphärischen Körpers ohne Atmosphäre mit gleichem Abstand von der Sonne vergleichen muss. Man beachte, dass wir uns gegenwärtig nicht mit der Zusammensetzung oder der Durchlässigkeit von Infrarotstrahlung befassen. Stattdessen versuchen wir einfach, den gesamten Effekt unserer Atmosphäre auf die thermische Umgebung der Oberfläche zu quantifizieren; also den Vergleich mit einem gleichermaßen beleuchteten luftleeren Planeten. Wir werden uns im Folgenden auf einen solchen Planeten als einen äquivalenten planetarischen Graukörper (PGB) beziehen.

Da die Temperatur proportional (in linearer Weise) zur internen kinetischen Energie eines Systems ist, ist es theoretisch absolut gerechtfertigt, mittlere globale Temperaturen zu verwenden, um ATE zu quantifizieren. Es gibt zwei mögliche Indizes, die man hierfür nehmen könnte:

  1. Die absolute Differenz zwischen der Mitteltemperatur der Erde (Ts) und der eines äquivalenten PGB (Tgb), d.h. ATE = TsTgb; oder
  2. Das Verhältnis von Ts zu Tgb. Letzterer ist besonders attraktiv, weil er ATE normalisiert (standardisiert) mit Berücksichtigung der Solarstrahlung an der Obergrenze der Atmosphäre (TOA) und so den Vergleich ermöglicht von ATEs von Planeten, die mit verschiedenem Abstand um die Sonne laufen und verschieden große Mengen solarer Strahlung empfangen. Wir nennen dieses dimensionslose Temperaturverhältnis Near-surface Thermal Enhancement (ATEn) und kennzeichnen es durch NTE = Ts / Tgb. Theoretisch sollte NTE gleich oder größer als 1,0 sein (NTE ≥ 1.0). Man beachte bitte, dass ATEn eine Messung von ATE ist.

Es ist wichtig festzuhalten, dass unsere gegenwärtige GE-Theorie den ATE nicht durch Temperatur misst, sondern durch die Menge der absorbierten infraroten Strahlung. Obwohl Fachbücher oft erwähnen, dass die Erdoberfläche wegen des ‚Treibhauseffektes‘ unserer Atmosphäre um 18 K bis 33 K wärmer als der Mond ist, wird der tatsächliche Effekt der wissenschaftlichen Literatur zufolge durch die Menge der ausgestrahlten infraroten Strahlung gemessen, die durch die Atmosphäre absorbiert wird (siehe e.g. Stephens et al. 1993; Inamdar & Ramanathan 1997; Ramanathan & Inamdar 2006; Houghton 2009). Gewöhnlich wird sie als eine Differenz (seltener als ein Verhältnis) zwischen gesamten mittleren infraroten Strahlungsfluss an der Erdoberfläche und an der Obergrenze der Atmosphäre berechnet. Auf diese Weise definiert beläuft sich der mittlere GE Satellitenbeobachtungen zufolge auf 157 bis 161 W/m² (Ramanathan & Inamdar 2006; Lin et al. 2008; Trenberth et al. 2009). Mit anderen Worten, die aktuelle Theorie benutzt Einheiten des Strahlungsflusses anstatt Temperatureinheiten, um ATE zu quantifizieren. Diese Annäherung basiert auf der vorbedachten Absicht, dass der GE durch die Reduktion der Abkühlung durch die Rate der ins All abgestrahlten infraroten Strahlungsmenge funktioniert. Allerdings kann die Messung eines Phänomens mit einer vermuteten Grundlage anstatt durch manifeste Effekte eine Quelle erheblicher Konfusion und Irrtümer sein, wie unsere Studie zeigt. Folglich behaupten wir, dass die ordnungsgemäße Bestimmung des ATE von einer genauen Schätzung der mittleren Temperatur an der Oberfläche eines äquivalenten PGB (Tgb) abhängt.

  1. Abschätzung der Mitteltemperatur eines äquivalenten planetarischen Graukörpers

Es gibt zwei Möglichkeiten, Tgb zu bestimmen – eine theoretische, basierend auf den bekannten physikalischen Beziehungen zwischen Temperatur und Strahlung, und eine empirische durch Betrachtung von Messungen auf dem Mond als dem der Erde nächstgelegenen natürlichen Graukörper.

Dem Stefan-Boltzmann-Gesetz zufolge emittiert jedes physikalische Objekt mit einer Temperatur über dem absoluten Nullpunkt Strahlung, und zwar mit einer Intensität (I, W/m²), die proportional zur 4. Potenz der absoluten Temperatur des Objektes ist:

 

wobei ϵ die thermale Emissivität/Absorbtivität ist (0 ≤ ϵ ≤ 1 ) und σ = 5.6704×10-8 W/m². K-4  ist die Stefan-Boltzmann-Konstante. Bei einem theoretischen Schwarzkörper ist ϵ = 1,0, während bei realen festen Objekten wie Felsen normalerweise ϵ ≈ 0.95. Im Prinzip gestattet uns Gleichung 1 eine genaue Berechnung der Gleichgewichtstemperatur eines Objektes, wenn die Menge der durch das Objekt absorbierten Strahlung bekannt ist, d. h.

Die räumlich gemittelte Menge der vom System Erde-Atmosphäre absorbierten Solarstrahlung ( ̅̅̅, W/m²) kann aus der Gesamtsolarstrahlung TOA ( ̅̅̅, W/m²) und der planetarischen Albedo genau berechnet werden als

wobei der auf ein Flugzeug einfallende kurzwellige Fluss der TOA (W/m²) senkrecht zu den Sonnenstrahlen ist. Der Faktor ¼ dient dazu, den einfallenden solaren Strahlungsfluss von einer flachen Oberfläche auf eine Sphäre zu verteilen. Er ergibt sich aus der Tatsache, dass die Oberfläche einer Sphäre (4πR²) viermal größer ist als die Oberfläche einer Scheibe (πR²) mit gleichem Radius. Folglich erscheint es logisch, dass man die mittlere Temperatur der Erde ohne ATE aus dem Stefan-Boltzmann-Gesetz abschätzen kann, d. h.

Hierin ist (TeK) bekannt als die effektive Emissionstemperatur der Erde. Setzt man typische Werte ein für S0 =W/m² und αp = 0,3 und ϵ  = 1,0 ergibt Gleichung (3) 254,6 K. Dies ist die Basis für den weithin zitierten Wert von 255 K (-18°C) als mittlere Temperatur auf der Erdoberfläche ohne Treibhauseffekt, d. h. als ob die Atmosphäre fehlt oder ‚vollständig transparent‘ für IR-Strahlung ist. Dieser Temperaturwert wird auch benutzt,, um die sog. Effektive Emissionshöhe in der Troposphäre zu definieren (bei etwa 5 km Höhe), von wo man vermutet, dass der Hauptteil der emittierten langwelligen Strahlung ins Weltall ausgeht. Da die mittlere Temperatur der Erde 287,6 K (+14,4°C) beträgt, schätzt die gegenwärtige Theorie die Größenordnung von ATE bei 287,6 K – 254,6 K = 33 K. Wie jedoch in anderen Studien gezeigt wurde, leidet diese Annäherung unter einem ernsten logischen Fehler. Wenn man die Atmosphäre entfernt (oder auch nur den Wasserdampf darin), würde daraus eine viel niedrigere planetarische Albedo resultieren, da Wolken dafür verantwortlich sind, dass die meiste kurzwellige Strahlung reflektiert wird. Folglich muss man eine andere Albedo (αp) in Gleichung 3 einsetzen, die die aktuelle Oberflächenreflektion allein quantifiziert. Eine Analyse des globalen Energiehaushalts der Erde von Trenberth et al. (2009) mit Hilfe von Satellitenbeobachtungen legt einen Wert αp≈ 0,12 nahe. Glücklicherweise ist dieser Wert ziemlich ähnlich der Albedo des Mondes von 0,11 (siehe Tabelle 1 in unserer  Originalstudie), so dass es uns möglich ist, den ATE der Erde unter Verwendung unserer Satelliten als passende PGB-Proxy zu evaluieren. Setzt man 0,12 in Gleichung 3 ein, ergibt sich ein Wert von Te = 269,6 K, welches gleichbedeutend mit einem ATE von lediglich 18 K ist (d. h. 287,6 – 269,6 = 18 K).

Zusammenfassend: die gegenwärtige Treibhaustheorie verwendet eine einfache Form des SB-Gesetzes, um die Größenordnung des irdischen ATE zwischen 18 K und 33 K zu schätzen. Die Theorie nimmt weiter an, dass die mittlere Temperatur des Mondes 250 K bis 255 K beträgt, trotz der Tatsache, dass die korrekte lunare Albedo (0,11) eingesetzt in Gleichung 3 etwa 270 K ergibt, d. h. eine um 15 bis 20 K höhere Temperatur! Außerdem, die Anwendung von Gleichung 3, um die mittlere Temperatur einer Sphäre zu berechnen, führt zu einem fundamentalen mathematischen Problem durch Hölders Ungleichheit zwischen nichtlinearen Integralen (u. a. Kuptsov 2001). Was bedeutet das? Hölders Ungleichheit gilt für gewisse nichtlineare Funktionen und legt fest, dass in solchen Funktionen die Verwendung eines arithmetischen Mittels für die unabhängige (Input-)Variable nicht einen korrekten Mittelwert der abhängigen (Output-)Variablen führt. Wegen einer nichtlinearen Beziehung zwischen Temperatur und Strahlungsfluss beim SB-Gesetz (Gleichung 3) und der Variation der absorbierten Strahlung mit der geographischen Breite auf einer Sphäre kann man nicht die mittlere Temperatur eines einseitig beleuchteten Planeten mit der Menge der räumlich gemittelten  absorbierten Strahlung, definiert durch Gleichung 2, genau berechnen. Hölders Ungleichheit zufolge wird die aus Gleichung 3 berechnete Temperatur immer signifikant höher sein als die aktuelle mittlere Temperatur auf einem luftleeren Planeten. Wir können diesen Effekt mit einem einfachen Beispiel illustrieren.

Nehmen wir zwei Punkte auf der Oberfläche eines PGB, P1 and P2, die sich beide auf exakt der gleichen geographischen Breite befinden (sagen wir 45°N), aber auf entgegengesetzter geographischen Länge, so dass P1 voll beleuchtet und gleichzeitig P2 vollständig beschattet ist, und umgekehrt (siehe Abbildung 1). Wenn der PGB in der gleichen Entfernung um die Sonne kreist wie die Erde und die Solarstrahlung die Wärmequelle darauf ist, dann würde die Gleichgewichtstemperatur am beleuchteten Punkt [T1 = 349,6 K]* betragen (unter Annahme eines solaren Zenitwinkels von θ = 45°), während die Temperatur am beschatteten Punkt T2 = 0 wäre (da er keine Strahlung erhält wegen cosθ < 0). Die mittlere Temperatur zwischen den beiden Punkten beträgt dann Tm = (T1 + T2)/2 = 174,8 K. Wenn wir allerdings versuchen, eine Mitteltemperatur aus der mittleren, an den beiden Punkten absorbierten Strahlungsmenge W/m² zu berechnen, erhalten wir 234,2 K. Klarer Fall, Te ist viel größer als Tm (Te ≫ Tm), was ein Ergebnis von Hölders Ungleichheit ist.

*Der Ausdruck in den eckigen Klammern fehlt im Original. Er wurde aus der Abbildung übertragen und eingesetzt. Es ist wohl von einem Versehen der Autoren auszugehen. A. d. Übers.

 

Abbildung 1: Illustration des Effektes von Hölders Ungleichheit bei der Berechnung der mittleren Temperatur auf der Oberfläche eines luftleeren Planeten. Details im Text.

Aus dem obigen Beispiel kann man das Ergebnis mitnehmen, dass zur Berechnung einer aktuellen mittleren Temperatur auf einem luftleeren Planeten eine explizite Integration des SB-Gesetzes über die Planetenoberfläche erforderlich ist. Dies impliziert, dass man erst die 4. Wurzel aus dem absorbierten Strahlungsfluss an jedem Punkt der Oberfläche ziehen muss und erst dann das sich daraus ergebende Temperaturfeld mitteln kann – und nicht zu versuchen, eine Mitteltemperatur aus einem räumlich gemittelten Strahlungsfluss zu berechnen wie in Gleichung 3.

Also brauchen wir ein neues Modell, das in der Lage ist, Tgb robuster vorherzusagen als Gleichung 3. Um diese abzuleiten übernehmen wir die folgende Argumentation. Die Gleichgewichtstemperatur an jedem Punkt auf der Oberfläche eines luftleeren Planeten wird bestimmt durch die einfallende Sonnenstrahlung und kann (unter der Annahme einer uniformen Albedo und bei Ignoranz kleiner Wärmebeiträge durch Gezeitenkräfte und inneren radioaktiven Zerfall) approximiert werden als:

wobei [?]* der solare Zenitwinkel (Radiant) an dem Punkt ist, welches der Winkel zwischen den Sonnenstrahlen und der Achse senkrecht zur Oberfläche an diesem Punkt ist (siehe Abbildung 1). Bei Substituierung ergibt sich die mittlere Temperatur () des Planeten folglich aus dem sphärischen Integral von

Vergleicht man die Endform von Gleichung 5 mit Gleichung 3 zeigt sich, dass Tgb << Te ist in Übereinstimmung mit der Hölder’schen Ungleichheit. Um den obigen Ausdruck physikalisch realistischer zu machen, fügen wir So eine kleine Konstante hinzu, Cs =0.0001325 W/m², so dass sich, wenn So = 0,0 ist, aus Gleichung 5 Tgb = 2.72 K ergibt (die nicht mehr reduzierbare Temperatur des freien Weltraums, also

In einer aktuellen analytischen Studie hat Smith (2008) argumentiert, dass Gleichung 5 nur die mittlere Temperatur eines nicht rotierenden Planeten beschreibt und dass sich die mittlere Temperatur eines luftleeren Planeten der effektiven Emissionstemperatur nähert, falls die Rotation und die thermische Kapazität der Oberfläche explizit berücksichtigt werden. Es würde den Rahmen dieser Studie sprengen, den Trugschluss dieses Arguments mathematisch zu beweisen. Wir werden allerdings darauf hinweisen, dass eine Zunahme der mittleren Gleichgewichtstemperatur eines physikalischen Körpers immer die Zufuhr von Extra-Energie erfordert. Die Addition zusätzlicher axialer Rotation zu einem stationären Planeten mit einem Vakuum, bei dem es keine Reibung mit der äußeren Umgebung gibt, erzeugt nicht irgendeine Art zusätzlicher Wärme auf der Planetenoberfläche. Schnellere Rotation und/oder höhere thermische Trägheit des Bodens würde lediglich eine effizientere räumliche Verteilung der absorbierten Sonnenergie ermöglichen und würde damit die Gleichförmigkeit des resultierenden Temperaturfeldes über der gesamten Planetenoberfläche zunehmen lassen. Aber die mittlere Oberflächentemperatur könnte davon nicht beeinflusst werden. Folglich beschreibt Gleichung 6 korrekt (unter der Annahme gleichförmiger Albedo) die globale mittlere Temperatur von jedem luftleeren Planeten, ob er nun rotiert oder nicht.

Setzt man typische Werte für Erde und Mond in Gleichung 6 ein, d. h. So = 1362 W/m², αo = 0,11, and ϵ = 0,955, ergibt sich Tgb = 154,7 K. Diese Schätzung liegt um etwa 100 K unter der aus Gleichung 3 abgeleiteten konventionellen Schwarzkörpertemperatur und impliziert, dass der ATE der Erde (d. h. der GE) um ein Vielfaches größer ist als derzeit angenommen. Obwohl es mathematisch gerechtfertigt ist, erfordert ein  solches Ergebnis eine unabhängige empirische Verifikation wegen seiner tief greifenden Implikationen für die gegenwärtige GE-Theorie. Wie vorher schon gesagt, stellt der Mond einen idealen Proxy-PGB dar hinsichtlich seiner Position, seiner Albedo und der luftleeren Umgebung, mit der der thermische Effekt der irdischen Atmosphäre akkurat abgeschätzt werden kann. Also richten wir nun unser Augenmerk auf die jüngsten Temperaturbeobachtungen des Mondes.

  1. Das Lunar Radiometer Experiment von Diviner der NASA

Im Juni 2009 hat die NASA ihren Lunar Reconnaissance Orbiter (LRO) ins All geschossen, der (neben anderen Instrumenten) ein Radiometer mit der Bezeichnung Diviner an Bord hat. Die Aufgabe von Diviner ist es, die Temperatur der Mondoberfläche in bisher nicht erreichter Detaillierung zu kartographieren, und zwar durch Messungen in 7 IR-Kanälen, die eine Wellenlänge von 7,6 bis 400 μm umfassen. Diviner ist das erste zur Messung der gesamten Bandbreite der lunaren Oberflächentemperatur ausgelegte Instrument, von der wärmsten bis zur kältesten Stelle. Es schließt auch zwei solare Kanäle ein, die die Intensität der reflektierten Sonnenstrahlung messen, um auch eine Karte der lunaren kurzwelligen Albedo zu erstellen (weitere Details siehe die offizielle Website von Diviner, http://www.diviner.ucla.edu/).

Obwohl das Diviner-Experiment noch im Gange ist, wurde die Thermalkartierung der Mondoberfläche abgeschlossen, und die Daten sind online verfügbar. Aus zeitlichen Gründen hatten wir keine Gelegenheit, die Temperaturdaten von Diviner selbst für diese Studie zu analysieren. Stattdessen haben wir uns auf Informationen des Diviner Service Teams in wissenschaftlich begutachteten Veröffentlichungen und auf die Diviner website verlassen.

Die während der LRO-Übernahme gewonnenen Daten zeigen, dass der Mond eine der extremsten thermischen Umgebungen des Sonnensystems hat. Die Temperatur in niedrigen Breiten kann bis 117°C steigen, während sie in der langen Mondnacht bis -181°C zurückgehen kann; d. h. bis fast zum Siedepunkt flüssigen Sauerstoffs (Abbildung 2). Die per Fernerkundung gemessenen Temperaturwerte in der Äquatorregion korrelieren sehr gut mit den von der Apollo 15-Mission direkt gemessenen Temperaturdaten auf 26,1°N in den frühen siebziger Jahren (siehe Huang 2008). In den Polargebieten innerhalb dauerhaft beschatteter Gebiete in den großen Einschlagkratern hat Diviner sogar einige der kältesten jemals auf einem Himmelskörper registrierte Temperaturwerte gemessen, nämlich -238°C bis -248°C. Es ist wichtig zu beachten, dass Planetenwissenschaftler vor etwa 13 Jahren detaillierte Modelle der Oberflächentemperatur des Mondes und vom Merkur entwickelt haben (z. B. Vasavada et al. 1999). Diese Modelle wurden jetzt erfolgreich mit den Diviner-Messungen validiert (Paige et al. 2010b, Dr. M. Siegler an der UCLA, Personalkommunikation).

Was jedoch für unsere Diskussion am interessantesten ist, sind die mittleren Temperaturen in verschiedenen Breiten des Mondes, weil diese mit Temperaturen in ähnlichen Gebieten der Erde verglichen werden können, um die Größe von ATE zu evaluieren und unsere Berechnungen zu verifizieren. Abbildung 3 zeigt typische Tagesgänge der Temperatur auf der Mondoberfläche in vier geographischen Breiten (übernommen von Paige et al. 2010a).

Abbildung 2 Thermalkarten der Mondoberfläche, basierend auf den Infrarotmessungen von Diviner, die die Temperaturfelder des täglichen Maximums und des nächtlichen Minimums zeigen (Quelle: Diviner Web Site)

Abbildung 3: Typische Tagesgänge der Temperatur auf der Mondoberfläche in verschiedenen Breiten. Die lokale Zeit ist in Mondstunden dargestellt, die mit 1/24 eines Mondmonats korrespondieren. Auf einer Breite von 89° werden die Tagesgänge zur Sommer- bzw. Wintersonnenwende gezeigt (übernommen von Paige et al. 2010a). Gestrichelte Linien zeigen die Jahresmittel am Mondäquator und an den Polen.

Abbildung 4: Die Temperaturkarten der Südpole von Mond und Erde: (A) Temperaturfeld tagsüber zur Zeit der stärksten Bestrahlung auf dem Mond; (B) Temperaturfeld nachts auf dem Mond; (C) mittlere Sommertemperatur in der Antarktis; (D) mittlere Wintertemperatur in der Antarktis. Die in Fettdruck gezeigten Zahlen in den Teilkarten (C) und (D) sind Temperaturwerte in °K. Die Teilkarten (A) und (B) wurden aus den Diviner Lunar Radiometer Experiment (Paige et al. 2010b) erzeugt. Die Verhältnisse in der Antarktis  stammen von Wikipedia (http://en.wikipedia.org/wiki/Antarctic_climate). Der Vergleich der Temperaturen zwischen dem Südpol des Mondes und der Antarktis legen für diesen Teil des Globus‘ eine thermische Auswirkung (enhancement) der Erdatmosphäre (d. h. ein „Treibhauseffekt“) von etwa 107 K im Sommer und 178 K im Winter nahe.

Die Abbildungen 4A und 4B zeigen die Temperaturverteilung am Südpol des Mondes während der stärksten Illumination am Tage und in der Nacht (Paige et al. 2010b). Da der Mond nur eine Achsenneigung von 1,54° und geringe Rotation aufweist, sind die mittleren täglichen Temperaturen ähnlich den monatlichen Temperaturmitteln. Diese Daten, zusammen mit den Informationen auf der Diviner Science webpage zeigen, dass die Mitteltemperatur an der Mondoberfläche von -175°C an den Polen bis -67°C am Äquator reicht. Das passt ziemlich gut zu unserer theoretischen Abschätzung von 154,7 K für die mittlere globale Temperatur nach Gleichung 6. In den kommenden Monaten wollen wir versuchen, die tatsächliche Mitteltemperatur des Mondes aus den Diviner-Messungen zu berechnen. Inzwischen zeigen die von den Planetenwissenschaftlern der NASA veröffentlichten Daten, dass der von der gegenwärtigen GE_Theorie übernommene Wert von 250 K bis 255 K als die mittlere Temperatur des Mondes weit übertrieben ist, da so hohe Temperaturmittel nicht an irgendeiner Breite des Mondes auftreten! Selbst am Mondäquator ist es 44 K bis 49 K kälter als nach dieser Schätzung. Dieser Wert ist deswegen ungenau, weil er das Ergebnis einer nicht zulässigen Applikation des Stefan-Boltzmann-Gesetzes auf eine Sphäre ist, wenn man von der falschen Albedo ausgeht (siehe die Diskussion in Abschnitt 2.1 oben)!

Genauso sind auch die auf der Website NASA Planetary Fact Sheet gezeigten mittleren globalen Temperaturen des Merkur (440 K) und Mars (210 K) nicht korrekt, da sie mit der gleichen Gleichung 3 berechnet wurden, die zum Ergebnis von 255 K für den Mond führte. Wir legen den Lesern nahe, diese Behauptung durch Anwendung von Gleichung 3 auf die Daten der Solarstrahlung (So) und der Albedo (bond albedo) (αo) zu verifizieren, die auf der Tatsachenseite (fact sheet) jedes Planeten gelistet sind, wobei ϵ = 1 gesetzt wird. Dies ist der Grund, warum wir in unserer Originalstudie den Wert von 248,2 K für den Merkur verwendet haben, da dieser Wert mit der theoretisch korrekten Gleichung 6 errechnet worden ist. Für den Mars haben wir Mittelwerte von Temperatur und Druck an der Oberfläche übernommen, die aus von dem Radio Science Team an der Stanford University erfragten regionalen Daten berechnet worden sind, und die aus Fernerkundungsdaten der Mars Global Surveyor-Raumsonde stammen. Ist es nicht merkwürdig, dass der Autor der Planetary Fact Sheet-Site der NASA, Dr. David R. Williams Gleichung 3 gewählt hat, um die mittlere Oberflächentemperatur des Mars‘ zu berechnen und die große Zahl direkter Messungen von hoher Qualität von dem Roten Planeten ignoriert hat!?

Also, welche reale Größenordnung hat der atmosphärische thermale Effekt (ATE) der Erde?

 

Tabelle 1: Geschätzter atmosphärischer Thermaleffekt für den Äquator und die Pole, basierend auf beobachteten Temperaturen auf der Erde und auf dem Mond unter Verwendung der Mondoberfläche als Proxy für den theoretischen Graukörper der Erde. Die Daten stammen von der Diviner’s Science webpage, Paige et al. (2010b), Abbildung 4 und von Wikipedia:Oymyakon.

Abbildung 5: Die mittlere jährliche Temperatur der Erde nach Wikipedia (geographische Zonen: http://en.wikipedia.org/wiki/Geographical_zone).

Tabelle 1 zeigt beobachtete mittlere und rekordtiefe Temperaturen auf gleicher Breite von Erde und Mond. Der ATE ist berechnet als der Unterschied zwischen Erd- und Mondtemperaturen unter der Annahme, dass der Mond eine perfekte PGB-Proxy für die Erde ist. Abbildung 5 zeigt die globale Verteilung der mittleren Jahrestemperatur auf der Erde, um dem Leser zu helfen, einige der in Tabelle 1 gelisteten Werte visuell zu verifizieren. Die Ergebnisse dieses Vergleichs können wie folgt zusammengefasst werden:

Der atmosphärische thermale Effekt, derzeit als der natürliche Treibhauseffekt bekannt, variiert von 93 K am Äquator bis etwa 150 K an den Polen (letztere repräsentiert ein Mittel zwischen mittleren ATE-Werten am Nord- und Südpol, d. h. (158+143)/2 =150.5). Diese Spannbreite passt ziemlich gut zu unserer theoretischen Abschätzung von 133 K für den Gesamt-ATE der Erde, abgeleitet aus Gleichung 6, d. h. 287.6K – 154.7K = 132.9K.

Natürlich sind weitere Analysen der Diviner-Daten erforderlich, um eine präzisere Abschätzung der Mitteltemperatur an der Mondoberfläche abzuleiten und unsere Modellvorhersage zu verifizieren. Allerdings wird schon aus den veröffentlichten Messungen vom Mond deutlich, dass der weithin genannte Wert von 33 K für den mittleren ATE der Erde (GE) ausgesprochen in die Irre führt und falsch ist.

  1. Schlussfolgerung

Wir haben gezeigt, dass die Strahlungsintensität nach dem Stefan-Boltzmann-Gesetz fälschlich auf die Temperatur angewendet wurde (Gleichungen 1 und 3), um die mittleren Oberflächentemperaturen von Himmelskörpern einschließlich Mars, Merkur und Mond vorherzusagen. Infolge der Hölder’schen Ungleichheit zwischen nicht linearen Integralen liegt die mit Gleichung 3 ermittelte effektive Emissionstemperatur immer signifikant höher als die tatsächliche (arithmetische) Mitteltemperatur eines luftleeren Planeten. Dies macht die planetarische Emissionstemperatur Te aus Gleichung 3 physikalisch inkompatibel mit jeder gemessenen wirklichen Temperatur auf der Erdoberfläche oder in der Atmosphäre. Durch Verwendung einer geeigneten Integration des Stefan-Boltzmann-Gesetzes über eine Sphäre haben wir eine neue Formel abgeleitet (Gleichung 6), um die mittlere Temperatur eines planetarischen Graukörpers abzuschätzen (unter Mithilfe einiger Annahmen). Dann haben wir die nach dieser Formel berechnete Mitteltemperatur des Mondes verglichen mit aktuellen thermischen Beobachtungen durch das Diviner Radiometer Experiment der NASA. Die Ergebnisse zeigen, dass die Mitteltemperatur des Mondes wahrscheinlich sehr nahe dem Schätzwert nach unserer Gleichung 6 liegt. Gleichzeitig zeigen die Mondmessungen auch, dass die gegenwärtige Schätzung von 255 K für die lunare Oberflächentemperatur, die weit verbreitet in der Klimawissenschaft verwendet wird, unrealistisch hoch ist und außerdem demonstriert, wie ungeeignet Gleichung 3 für diesen Zweck ist. Das Hauptergebnis des Vergleichs Mond – Erde (unter der Annahme, dass der Mond eine perfekte Proxy für den Graukörper Erde ist) ist, dass der ATE der Erde, auch bekannt als der natürliche Treibhauseffekt, 3 bis 7 mal größer ist als gegenwärtig angenommen. Mit anderen Worten, die aktuelle GE-Theorie unterschätzt die tatsächliche Wärme durch die Atmosphäre um etwa 100 K! Ausgedrückt als relative thermische Größe (enhancement) wird der ATE zu NTE = 287.6/154.7 = 1.86.

Dieses Ergebnis wirft eine Frage auf: Wie kann eine so große thermische Wirkung (>80%) das Ergebnis einer Handvoll infrarot absorbierender Gase sein, die zusammen weniger als 0,5% der Gesamtatmosphäre ausmachen? Wir erinnern an unsere frühere Diskussion, dass Beobachtungen zufolge die Atmosphäre lediglich 157 bis 161 W/m² langwellige Strahlung von der Oberfläche absorbiert. Kann dieser geringe Fluss die Temperatur der unteren Atmosphäre um mehr als 100 K im Vergleich zu einer luftleeren Umgebung zunehmen lassen? Die offensichtliche Antwort lautet, dass der beobachtete Temperatursprung (temperature boost) nahe der Oberfläche nicht auf dieser atmosphärischen IR-Absorption beruhen kann! Folglich legen die Beweise nahe, dass die untere Troposphäre viel mehr kinetische Energie enthält, als der Strahlungsfluss allein bewirken kann. Die Thermodynamik der Atmosphäre wird durch die Gasgleichung festgelegt, die besagt, dass die kinetische Energie und die Temperatur eines Gasgemischs auch eine Funktion des Drucks ist (unter Anderem, versteht sich). Im Falle eines isobarischen Prozesses, bei dem der Druck konstant und unabhängig von der Temperatur ist, wie es auf der Erdoberfläche der Fall ist, ist es die physikalische Kraft des atmosphärischen Drucks allein, der in vollem Umfang die beobachtete thermische Wirkung (NTE) nahe der Oberfläche erklären kann. Aber dies ist Gegenstand unserer nächsten Studie… Bleiben Sie dran!

Ned Nikolov, Ph.D. und Karl Zeller, Ph.D.

  1. References

Inamdar, A.K. and V. Ramanathan (1997) On monitoring the atmospheric greenhouse effect from space. Tellus 49B, 216-230.

Houghton, J.T. (2009). Global Warming: The Complete Briefing (4th Edition). Cambridge University Press, 456 pp.

Huang, S. (2008). Surface temperatures at the nearside of the Moon as a record of the radiation budget of Earth’s climate system. Advances in Space Research 41:1853–1860 (http://www.geo.lsa.umich.edu/~shaopeng/Huang07ASR.pdf)

Kuptsov, L. P. (2001) Hölder inequality. In: Encyclopedia of Mathematics, Hazewinkel and Michiel, Springer, ISBN 978-1556080104.

Lin, B., P. W. Stackhouse Jr., P. Minnis, B. A. Wielicki, Y. Hu, W. Sun, Tai-Fang Fan, and L. M. Hinkelman (2008). Assessment of global annual atmospheric energy balance from satellite observations. J. Geoph. Res. Vol. 113, p. D16114.

Paige, D.A., Foote, M.C., Greenhagen, B.T., Schofield, J.T., Calcutt, S., Vasavada, A.R., Preston, D.J., Taylor, F.W., Allen, C.C., Snook, K.J., Jakosky, B.M., Murray, B.C., Soderblom, L.A., Jau, B., Loring, S., Bulharowski J., Bowles, N.E., Thomas, I.R., Sullivan, M.T., Avis, C., De Jong, E.M., Hartford, W., McCleese, D.J. (2010a). The Lunar Reconnaissance Orbiter Diviner Lunar Radiometer Experiment. Space Science Reviews, Vol 150, Num 1-4, p125-16 (http://www.diviner.ucla.edu/docs/fulltext.pdf)

Paige, D.A., Siegler, M.A., Zhang, J.A., Hayne, P.O., Foote, E.J., Bennett, K.A., Vasavada, A.R., Greenhagen, B.T, Schofield, J.T., McCleese, D.J., Foote, M.C., De Jong, E.M., Bills, B.G., Hartford, W., Murray, B.C., Allen, C.C., Snook, K.J., Soderblom, L.A., Calcutt, S., Taylor, F.W., Bowles, N.E., Bandfield, J.L., Elphic, R.C., Ghent, R.R., Glotch, T.D., Wyatt, M.B., Lucey, P.G. (2010b). Diviner Lunar Radiometer Observations of Cold Traps in the Moon’s South Polar Region. Science, Vol 330, p479-482. (http://www.diviner.ucla.edu/docs/paige_2010.pdf)

Ramanathan, V. and A. Inamdar (2006). The Radiative Forcing due to Clouds and Water Vapor. In: Frontiers of Climate Modeling, J. T. Kiehl and V. Ramanthan, Editors, (Cambridge University Press 2006), pp. 119-151.

Smith, A. 2008. Proof of the atmospheric greenhouse effect. Atmos. Oceanic Phys. arXiv:0802.4324v1 [physics.ao-ph] (http://arxiv.org/PS_cache/arxiv/pdf/0802/0802.4324v1.pdf ).

Stephens, G.L., A. Slingo, and M. Webb (1993) On measuring the greenhouse effect of Earth. NATO ASI Series, Vol. 19, 395-417.

Trenberth, K.E., J.T. Fasullo, and J. Kiehl (2009). Earth’s global energy budget. BAMS, March:311-323

Vasavada, A. R., D. A. Paige and S. E. Wood (1999). Near-surface temperatures on Mercury and the Moon and the stability of polar ice deposits. Icarus 141:179–193 (http://www.gps.caltech.edu/classes/ge151/references/vasavada_et_al_1999.pdf)

Link: http://wattsupwiththat.com/2012/01/22/unified-theory-of-climate-reply-to-comments/#more-55210

Übersetzt von Chris Frey für EIKE




Vahrenholt-Bestseller „Die Kalte Sonne“ – Das Imperium der Meinungsmacher schlägt zurück!

Zuvor können Sie hier bei der FTD Ihre Meinung zum Buch abgeben.

Medienecho :

Übernommen von der Website Die kalte Sonne

Heute am 8.2. erschien der abschließende Teil 3 der Bild-Klimaserie. Hierin geht es um die politischen und wirtschaftlichen Implikationen der Klimafrage.

Auch die WAZ und das Magazin Erneuerbare Energien berichteten über das Buch.

Die Financial Times Deutschland veröffentlichte einen Beitrag von Fritz Vahrenholt mit dem Titel “Fürchtet Euch nicht”, in dem er die Kernthesen unseres Buches zusammenfasst.

In einem Gegenartikel auf der gleichen Seite greift der Kommunikationsdirektor der Berliner European Climate Foundation, Carel Mohn, das Buch scharf an. Auffällig ist, dass Mohn nicht ein einziges wissenschaftliches Argument diskutiert. Vielmehr gibt er sich ganz der guten alten Schwarz-Weiß-Diskussion hin und übersieht dabei ganz, dass “Die kalte Sonne” hier schon viel weiter ist, nämlich die vielfältigen Grau-Schattierungen differenziert anspricht. Ungeschickt stilisiert er die Debatte auf Hobbyforscher Vahrenholt/Lüning gegen den Rest der Welt. Falsch ! Die Debatte wird seit Jahren weltweit geführt, unter Beteiligung von etablierten Fachwissenschaftlern auf beiden Seiten. Viele gute Argumente für eine stärkere Beteiligung natürlicher Klimafaktoren wie die Sonne oder Ozeanzyklen kommen gerade aus deutschen Instituten. Diese sind im Buch detailliert zitiert und in einen Kontext gesetzt. Der von Mohn angeführte, angebliche “Main Stream” gliedert sich in Wirklichkeit in viele kleine Seitenarme auf – so wie es in der Wissenschaft üblich ist. Die Hinterfragung der “etablierten Wissenschaftscommunity” als krude Verschwörungstheorie abzutun zeigt, wie weit sich die Klimawissenschaften bereits vom allgemeinen wissenschaftlichen Vorgehen entfernt haben. Kritische Diskussion und das Hinterfragen von Modellen sind integrale Bestandteile der wissenschaftlichen Grundprinzipien. Wer sich hinter hohen Mauern des Establishment verbarrikadiert, hat möglicherweise einen Grund dazu. Woher nur stammt diese Angst vor kritischer Fachdiskussion?

Die Süddeutsche Zeitung hat sich an solch einer Fachdiskussion versucht. Um es vorweg zu nehmen, mit erschreckendem Ergebnis. Dazu muss man berücksichtigen, dass der Autor Christoph Schrader in der Vergangenheit stets fest auf der Weltklimarats-Seite beheimatet war, kämpfte also gerade für die wissenschaftliche Schule, die wir in unserem Buch kritisieren. Da verwundert es nicht, dass Schrader in seinem Artikel “Eine kalte Spur – Wie stark Sonnenzyklen den Klimawandel beeinflussen” zu beweisen sucht, dass die Sonne klimatisch zu vernachlässigen sei. Auch er fällt in die Feulner-Falle, die wir in den Medienbesprechungen der Vortage bereits ausgiebig besprochen haben. Wenn man von vorneherein Modelle verwendet, in denen die solare Klimawirksamkeit minimiert wurde, dann muss man sich nicht wundern, dass auch kein Temperatureffekt herauskommt (siehe S. 320 in “Die kalte Sonne”). Die solar-geprägten Klimazyklen der vergangenen 10.000 Jahre können so natürlich nicht erklärt werden. Eine klassische Theorie-vs.-Praxis-Schere.

Erschreckend auch der irreführende Hinweis auf die Abnahme der Sonnen-”Helligkeit” seit den 1950er/60er Jahren. Besonders seltsam, dass sich Schrader hierbei auf Prof. Sami vom Max-Planck-Institut für Sonnensystemforschung bei Göttingen bezieht. Denn gerade Solanki war es, der 2004 in einer Nature-Publikation darauf hinwies, dass die Sonnenaktivität der vergangenen Jahrzehnte zur höchsten der gesamten letzten 10.000 Jahre zu zählen ist. Dafür hatte Solanki damals kräftig Kritik aus dem IPCC-Lager einstecken müssen. Seit diesem Vorfall sind die Veröffentlichungen der Max-Planck-Manns jedoch auffällig IPCC-konform geworden. Gerade konnte er dies mit einem neuen Artikel wieder zeigen. In einem Science-Artikel schrieb er kürzlich mit seiner Kollegin Natalie Krivova, dass die weitere Aktivitätsentwicklung der Sonne weitgehend unbekannt sei, womit sie sich gegen ein Dutzend anderer Solarphysiker-Kollegen aus aller Welt stellten, welche für die kommenden Jahrzehnte einstimmig eine ausgeprägte Sonnenflaute vorhersagen (siehe Seiten 299-308 in unserem Buch). Der IPCC wird sich über diese Publikation freuen, stellt er doch gerade den 5. IPCC-Bericht zusammen für den momentan fleissig Papers gesammelt werden.

Es wäre vielmehr Schraders Pflicht gewesen, die außerordentlich starken Sonnenzyklen 21 und 22 in den 1980er und 90er Jahren zu erwähnen. Diese brachten die Sonne nach einer Schwächephase im 1920. Zyklus in den 1970er Jahren wieder richtig in Fahrt. Die erwähnte Sonnenspitze des 19. Zyklus um 1960 herum war einfach viel zu kurz, so dass sich keine Gleichgewichtstemperatur ausbilden konnte (siehe Diskussion S. 116-117 im Buch). Zudem ist die herausstechende Sonnenspitze im Sonnenmagnetfeld gar nicht ausgebildet und die Werte der 1980er/90er Jahre sind sogar noch höher (siehe Abb. 56 auf S. 237). Dies ist insbesondere von Interesse, wenn man sich mögliche Solarverstärker über das Sonnenmagnetfeld, kosmische Strahlung und Wolken (Svensmark-Effekt) anschaut.

Dann Schraders nächster Ausrutscher. Während der ”Kleinen Eiszeit”, einer natürliche Kältephase vor wenigen hundert Jahren, wäre es angeblich nur um 0,5°C kälter als heute gewesen. Hier ist Schrader offensichtlich bei der mittlerweile überholten Hockey Stick Kurve hängengeblieben. Die Kurve ist mittlerweile vollumfänglich diskreditiert (siehe Buch S. 121ff) und wurde schon nicht mehr im 2007er Bericht des IPCC verwendet. Die aktuellste Kurve stammt von Ljungqvist (2010) die wir auf Seite 123 im direkten Vergleich mit anderen Kurven darstellen. So wird aus Schrader’s veralteten 0,5°C schnell mehr als das doppelte. Die Kleine Eiszeit vor allem durch Vulkanausbrüche zu erklären ist albern und ist leicht als CO2-Rettungsaktion zu enttarnen. Wenn wir uns die letzten 10.000 Jahre anschauen, gab es eine ganze Serie dieser Abkühlungsphasen, die in der Regel stets mit einem Abfall der Sonnenaktivität verbunden waren (siehe Buch S. 70). Folgt man Schraders Argumentation, müssten wir wohl die Vulkane auch für all diese anderen Kältephasen verantwortlich machen. Was für ein großer Zufall, dass sich jedesmal die Sonne abschwächte.

Und nochmal schickt Schrader Solanki ins Rennen. Solanki bemängelt das angebliche schlechte Timing zwischen Sonnenaktivität und Temperatur. Hierbei ignorieren beide ohne mit der Wimper zu zucken den Klimabeitrag der dekadischen Ozeanzyklen. So kann die Pazifische Dekaden-Oszillation (PDO) die Temperatur im Verlauf ihres 60-Jahreszyklus um wenige Zehntelgrade verändern (siehe Buch S. 110ff). PDO und Temperaturwellen verlaufen wie Zwillinge überraschend synchron. Eine simplistische Sonne-Temperaturkorrelation ist daher gar nicht zu erwarten.

Schraders weitere Ungenauigkeiten und Verdrehungen seien aus Zeitgründen nur kurz angeschnitten:

Aber sicher, für den 1000-Jahres-Sonnenzyklus gibt es natürlich sehr gute Belege (z.B. Ma 2007, Abreu et al. 2010). Die Datenlage ist alles andere als ungewiss. Fragen Sie vielleicht einmal den Schweizerischen Physiker Dr Friedhelm Steinhilber

Svensmarks Solarverstärker-Studien über die kosmische Strahlung sind keineswegs widerlegt worden (siehe Details im Buch Kapitel 6 sowie inbesondere Seite 260/261). Im Gegenteil, andere Forschergruppen konnten sogar wichtige Elemente bestätigen (z.B. Usoskin et al. 2004, Laken et al. 2010)

Beim CERN passiert Schrader dann eine ganz schlimme Fehleinschätzung. Ganz im Gegenteil zu Schraders Behauptung, hat die erste Phase des CLOUD-Experiments einen wichtigen Teileffekt des Svensmark-Mechanismus belegen können, nämlich die Entstehung von Aerosolen durch kosmische Strahlung allgemein (siehe Buch S. 249-251) . Was treibt Schrader dazu an, dieses Zwischenresultat bewußt kleinzureden und die ahnungslosen SZ-Leser in die Irre zu führen? Erst in einem zweiten Schritt wird derzeit überprüft, ob aus diesen kleinen Aerosolen größere werden können, die dann als Wolkenkondensationskeime dienen würden. Mit den Ergebnissen ist erst 2013/2014 zu rechnen.

Schraders Fazit zum Buch ”Das überzeugt Klimaforscher nicht” ist schwer zu verstehen. Unser Buch “Die kalte Sonne” bietet einer großen Zahl von Klimaforschern eine Plattform, die ihnen vom IPCC bislang aus unerfindlichen Gründen verweigert wird. Welche “Klimaforscher” meint Schrader denn nun wirklich? Vermutlich diejenigen Klimaforscher, die im IPCC das Sagen haben und die einseitigen Synthesen zu verantworten haben, aus denen sie unbequeme Klimaforscher- Kollegen bewußt heraushalten.

Da klingt die abschließende Aussage von Georg Feulner (Potsdam-Institut für Klimafolgenforschung) in Schraders SZ-Artikel schon fast wie ein Stoßgebet: “Selbst wenn da eine Lücke für ungeklärte Effekte wäre, ist sie sicher nicht groß genug, um das Gebäude der Klimaforschung einstürzen zu lassen”. Lieber Herr Feulner, es geht hier gar nicht um den Einsturz eines Gebäudes, sondern um eine gründliche Renovierung auf Basis einer tragfähigen und hinterfragbaren wissenschaftlichen Grundlage. Denn nur dann kann die Klimawissenschaft die wichtige Rolle in den politischen Entscheidungsprozessen spielen, die ihr auch unzweifelhaft zusteht.

Auch das Magazin Independence berichtete am 8. Februar über unser Buch. In dem Beitrag wird seltsamerweise behauptet, der Deutsche Wetterdienst DWD hätte die fehlende Erderwärmung des letzten Jahrzehnts widerlegt. “Im Zeitraum 1981 bis 2010 habe das Strahlungspotenzial um 2 Prozent zugelegt”. Wie bitte, welches Strahlunsgpotential eigentlich? Ging es nicht gerade noch um Temperaturen? Und plötzlich wird hier die Haupterwärmungsphase 1977-2000, die wir im Buch ausführlich besprechen, mit der erwärmungslosen Zeit seit 2000 munter vermischt. Es ist ganz klar: Wenn man den Zeitraum 1981-2010 betrachtet, ist es global natürlich wärmer geworden. Nichts anderes berichten wir in unserem Buch. Die Lust am politisch korrekten Widerspruch treibt seltsame Blüten…

Die FAZ brachte heute gleich mehrere Berichte zu unserem Buch. Im Artikel “Vahrenholt hält Warnungen vor Klimawandel für übertrieben” wird das Buch vorgestellt. Im Beitrag “Die sonderlichen Sonnenanbeter” versucht Hermann-Michael Hahn dann sogleich den klimatischen Einfluss der Sonne anhand von drei neueren Studien zu widerlegen, was jedoch misslingt:

  • Miller et al. (2012): Ein verzweifelter Versuch, die Kleine Eiszeit im 15.-19. Jh. (siehe Buch Seite 62ff) durch Vulkanausbrüche zu erklären. Dass auch die Sonne zu dieser Zeit ziemlich schwach, wäre purer Zufall. Aber was ist dann mit den anderen 10 natürlichen Kältephasen in den letzten 10.000 Jahren, als ebenso die Sonne schwach und die Temperaturen im Keller waren (Abb. 12, Seite 70)? Sicher auch alles Zufall! Nachdem die Hockey Stick Kurve vor ein paar Jahren einkassiert wurde und die Kleine Eiszeit plötzlich nicht mehr zu verstecken war, braucht der IPCC nun dringend diesen Vulkan-Joker, just in time für den 5. Klimazustandsbericht, der gerade geschrieben wird.
  • Das neue Paper von James Hansen wurde bereits von Willis Eschenbach heftig kritisiert, so dass es nicht als Beleg gegen die Sonne dienen kann. Das Hansen-Team nimmt dabei bewusst nur die geringe, vom IPCC postulierte Klimawirksamkeit der Sonne an und schließt von vorneherein solare Verstärkerprozesse aus, auf die es aber zahlreiche ernstzunehmende Hinweise gibt (siehe Kapitel 6). Man muss dazu wissen, dass sich Hansen in der Vergangenheit stets mit den alarmistischsten Klimawarnungen hervorgetan hat. Ihm reichten die vom IPCC prognostizierten 18-59 cm Meeresspiegelanstieg bis 2100 bei weitem nicht und so erhöhte er die Prognose schnell einmal auf persönliche 5 m (siehe Buch S. 201). Auch bei den Tornados machte er keine gute Figur (Buch S. 205).
  • Schließlich führt Hahn noch ein neues Paper von Jones et al. (im Druck) als angeblichen Anti-Sonnen-Beweis an. Wie auch Feulner & Rahmstorf (2010) ist die Temperaturaussage von Jones et al. aber wenig aussagekräftig, da lediglich die vom IPCC postulierte geringe solare Klimawirksamkeit in die Modelle eingebaut wird. Gerade dies bezweifeln wir aber (siehe Kapitel 3 und 5) und nehmen aufgrund der engen Sonne-Klima-Verknüpfung in den letzten 10.000 Jahren Solarverstärkerprozesse an, die bislang in den IPCC-Modellen fehlen (siehe Buch Kapitel 6). Das Jones et al. Paper als Beweis für die Unwirksamkeit der Sonne heranzuziehen ist wenig zielführend, da eine der einfließenden Grundannahmen genau das zu beweisende Ergebnis ist. Ein klassischer Zirkelschluß !

Der DNR meldete sich mit einer Pressemitteilung zu Wort, in der er das Buch kritisierte. Die vorgebrachten Argumente sind aber so schwach und unklar, dass wir sie hier nicht kommentieren wollen.

Das Buch inspiriert mittlerweile sogar zu Diskussionen zur Endlichkeit des Öls, wie heute morgen im Deutschlandradio Kultur geschehen.

In einem Interview im Tagesspiegel verteidigte der Vize-Präsident des Potsdam-Instituts für Klimafolgenforschung, Ottmar Edenhofer, den Weltklimarat und verneinte den übermäßigen Einfluss von Umweltaktivistengruppe. Dass es einen solchen Einfluss jedoch dennoch gibt und dies wohl ein reales Problem darstellt, konnte vor kurzem die kanadische Autorin Donna Laframboise eindrucksvoll in ihrem lesenswerten Buch“The delinquent Teenager who was mistaken for the world’s top climate expert” dokumentieren.

Aus Berlin meldete sich nun auch der klimaretter.info mit einem launigen Bericht zum Buch. Man muss dem Autor Toralf Staud zugestehen, dass er sich bei der Eiseskälte die Mühe gemacht hat, zur Pressekonferenz am Montag zu kommen. Und einen schönen Schreibstil hat er auch. Sehr positiv ist auch zu bewerten, dass er den Co-Autor Lüning gleich mehrfach mit dem Titel “junger Geologe” und “junger Kollege” ehrt. Das macht den Kampf gegen die grauen Haare in den 40ern auf jeden Fall erträglicher. Mehr Lob kann der “junge Redakteur” Staud aber nun wirklich hier nicht erwarten. Denn im fachlichen Bereich sieht es deutlich dünner aus, und auch sein Gedächtnis hat ihn hier und da etwas im Stich gelassen. Es fängt mit dem Titel “Natürlich haben wir etwas weggelassen” an. Hier hat nämlich Staud selber offensichtlich etwas weggelassen. Man erläuterte ihm im damaligen Gespräch, dass man die IPCC-Seite im Buch sehr wohl an vielen Seiten zitiert hätte (wie anders könnte man sie denn sonst kritisieren). Jedoch hatte man nicht das Ziel, das IPCC-Werk zu duplizieren, da man die Berichte unkompliziert und kostenlos aus dem Internet herunterladen kann.
Weiterhin erklärte man ihm geduldig, dass der IPCC überhaupt nicht offen für alle Sichtweisen ist (siehe Buch S. 155-161) und zum Beispiel Svensmark mit ein paar dürren Zeilen und einer (vor-) schnellen Abfuhr abgespeist wurde. Die wichtige Usoskin et al. (2004)-Bestätigung von Svensmarks Ergebnissen wurde schlichtweg im AR4 ignoriert. Auf Nachfrage konnte sich das nichtmal Usoskin selber richtig erklären. Die Darstellung von Staud entspricht daher keineswegs den Tatsachen.
Im Prinzip greift Staud das altbekannte Spielchen “Cherry Picking” auf, das sich beide Klimadebattenseiten gegenseitig ständig an den Kopf werfen. Dies ist ein Grundproblem. Die Darstellung eines möglichst in sich stimmigen Erklärungsmodells erfordert, dass man unzählige Einzelfakten in eine zusammenhängende Geschichte bringt. Da ist es dann für beide Debatten-Seiten und auch für die Leser lästig, wenn nach jedem einzelnen Satz ein “hingegen xyz hat gesagt” eingefügt wird. An geeigneter Stelle müssen selbstverständlich wichtige Publikationen erwähnt werden, mit einer Erläuterung, warum die Argumentation und Daten nicht nachvollzogen werden können. Und genau das haben wir getan. Im Buch “Die kalte Sonne” gehen wir auf die wichtigsten IPCC-Gegenpositionen gründlich ein. Die Feulners, Rahmstorfs, Schellnhubers und Hansens aus der IPCC-Welt sind reichlich zitiert. Man vermutet das es sich hier eher um ein Ablenkungsmanöver seitens Staud handelt. Wieso geht er nicht auf die beeindruckende Millenniumszyklik der letzten 10.000 Jahre mit der faszinierenden Sonne-Klima-Synchronität eingegangen? Warum hat er dies in seinem Bericht weggelassen, obwohl es in der Pressekonferenz lang und breit ausgerollt wurde? Und warum schreibt der Mann eigentlich seinen ganzen Artikel in “man-Form”? Vielleicht eine versteckte Huldigung an Hockey-Stick-Star Michael Mann? Und genau den versucht Staud dann auch in seinem Artikel zu verteidigen, indem er die Erwähnung einer Untersuchung des US-amerikanischen National Research Councils als angebliche Rehabilitation von Mann und seinem Hockey Schläger anmahnt. Da blättern wir doch mal im Geschichtsbuch zur Hockey Stick Kontroverse “The Hockey Stick Illusion: Climategate and the Corruption of Science” von Andrew Montford (übrigens sehr zu empfehlen!) und da stellt sich der angebliche Freispruch plötzlich ganz anders dar.
Von kleineren statistischen Fehlerchen kann zudem nicht die Rede sein. Im Jahr 2011 nahmen die Profi-Statistiker McShane & Wyner (2011)den Datensatz von Amateur-Statistiker Michael Mann und Kollegen nämlich genauer unter die Lupe und kamen zu einem gänzlich anderen Ergebnis: Die Mittelalterliche Wärmephase und die Kleine Eiszeit waren plötzlich wieder ganz deutlich ausgeprägt zu erkennen. Spätestens jetzt musste die von Mann et al. zuvor postulierte vor-industrielle Temperaturmonotonie als widerlegt angesehen werden (siehe Buch Seite 125-127). Sehr seltsam, genau das hatte man dem Herrn Staud doch damals nach der Pressekonferenz ausführlich in den Reporter-Block diktiert. Da hat er wohl was weggelassen. Weggelassen hatte er dann auch, dass der Original-Datensatz von Michael Mann zudem fehlerhaft ist, so dass zu den statistischen Problemen noch Datenprobleme kommen. Das hatte Mann dann wohl selber irgendwann einsehen müssen und veröffentlichte 2008 eine etwas verbesserte Temperaturkurve, in der die Mittelalterliche Wärmephase und die Kleine Eiszeit plötzlich wieder auftauchten (siehe Abb. 26 auf S. 123 in “Die kalte Sonne”). Apropos jung. Hatte man eigentlich schon erwähnt, dass Michael Mann seinen Hockeyschläger als ziemlich junger Klimatologe erschuf, frisch promoviert und schon kurz darauf IPCC-Leitautor? (siehe Buch S. 122). Auf den angekündigten Fakten-Check des Buches in den kommenden Tagen kann man gespannt sein. Momentan beschleicht einen noch das seltsame Gefühl, dass der klimaretter.info in Wahrheit vielmehr ein klimaratsretter.info ist.

Und es dauerte nicht lange (kann man das Buch so schnell lesen?), da hatte Toralf Staud auch schon den Faktencheck für Die Zeit fertig. Aus Zeitgründen wollen wir hier nur die entsprechenden Kapitel bzw. Seiten in unserem Buch angeben, wo man unsere Sichtweise detailliert nachlesen kann. Bei Rückfragen, können Sie uns gerne über das Kontaktformular ansprechen.

  • These: »Seit 1998 erwärmt sich die Erde nicht mehr, der Klimawandel hat gestoppt.«
    Unsere Entgegnung: Wir sagen nicht, der Klimawandel wäre gestoppt. Wir sagen nur, die Temperatur ist in den letzten 12 Jahren nicht mehr angestiegen (S. 15). Bis 2100 steigt die Temperatur in unserem schematischen Modell um bis zu 1°C an (S. 318)
  • These: »Die Hockeystick-Kurve war eine Fälschung.«
    Hierzu haben wir oben schon genug gesagt (S. 121-127)
  • These: »Die Sonne ist schuld an der Erderwärmung.«
    Kapitel 3 und 6
  • These: »Die kosmische Strahlung befeuert den Klimawandel.«
    Kapitel 6 und Gastbeitrag Prof. Svensmark (S. 209ff).
  • These: »Wegen sinkender Sonnenaktivität wird die Erderwärmung eine Pause einlegen.«
    Kapitel 7, S. 298ff
  • These: »Der IPCC manipuliert die Klimaforschung.«
    S. 154ff
  • These: »Da die Erderwärmung Pause macht, haben wir Zeit für die Energiewende.«
    Kapitel 9



Windenergie in der Grund-, Mittel- und Spitzenlast?

Die Stromerzeugungskosten in ct/kWh für die ersten 50 Prozent – leicht verständlich und realitätsnah:

Einleitung

In der Diskussion über die Energiewende gilt die Windenergie als die Hauptstütze für die Zukunft. Bisher fehlen jedoch belastbare Zahlen über die Kosten.

Dabei ist eine Überschlagsrechnung einfach durchzuführen. Bei dem beschriebenen Konzept  werden Gaskraftwerke mit ähnlich leistungsfähigen Windenergieanlagen (WEA) gekoppelt. Immer dann, wenn der Wind nicht genug leistet, springen Gaskraftwerke ein.

So ist ständig Strom in gefordertem Umfang verfügbar und das macht auch die Preiskalkulation einfach. Es ist gleichzeitig das einzig realistische und heutzutage mögliche Konzept zum Einsatz von Windenergie in maximalem Umfang. Alle Vorstellungen, die weit darüber hinausgehen, sind heute von den technischen Möglichkeiten her lediglich Visionen.

Ermittelt werden maximale (kein Wind) und minimale (100% Wind) Kosten, zwischen denen sich der reale Betrieb bewegt.

Die Ergebnisse sind überraschend: 

* wegen der Sicherheit in der Abschätzung,

* wegen  der Höhe der Kosten (Grundlast: 10-14 ct/kWh landbasiert, 15-19 ct/kWh Offshore, Mittellast: + 33%) und

* dem technisch-realistisch machbaren Anteil der Windenergie von 50% in Grund- und Mittellast.

Zum Vergleich: Die Stromerzeugungskosten für Kohle liegen bei 2,5-3,3 ct/kWh.

Der Einsatz von Speichertechniken wird ausgeschlossen, da sie in erforderlichem Umfang nicht annähernd verfügbar sind. Auch wird hier nicht dargestellt, wie hoch die Kosten eines Umsteuerns wären, wenn noch wirtschaftlich laufende Kraftwerke vorzeitig abgeschaltet werden. Zusätzlicher Netzausbau und Gasleitungen sind in der Kalkulation ebenfalls nicht enthalten.

Es ist davon auszugehen, dass andere Modelle (www.kombikraftwerk.de) mit höheren Anteilen alternativer Energien (Wind, Sonne, Biogas) und evtl. umfangreichen Speichern angesichts der praktischen Möglichkeiten im Großmaßstab zu keinen günstigeren, sondern deutlich teureren Ergebnissen kommen werden.

Es geht hier nur um Technik und Preise. Eine Bewertung unter sozialen, politischen, Klima-  und Umweltgesichtspunkten wird nicht vorgenommen.

Konzept

Es soll Grundlastbetrieb sicher gewährleistet sein.

Grundlast bezeichnet die Netzbelastung, die während eines Tages in einem Stromnetz nicht unterschritten wird. In Deutschland liegt sie bei um die 40 GW4 (2005) im Gegensatz zur Jahreshöchstlast mit 75 bis 80 GW.

Dazu werden Gaskraftwerke mit gleich leistungsfähigen WEAs gekoppelt. Dabei wird bei diesen eine durchschnittliche Auslastung im Jahresmittel von 20 % der Nennleistung angenommen, wie sie in der Realität von landbasierten WEAs in Deutschland auch vorkommen. D.h. beispielsweise, dass ein 300 MW Gaskraftwerk mit 1.500 WEAs mit je 1 MW Nennleistung gekoppelt wird, die zusammen ebenfalls im Durchschnitt 300 MW liefern.

Dabei entsteht unvermeidbar überschüssige Windenergie in Höhe von ca. 50%, für die es derzeit überwiegend keine wirtschaftlich vertretbare Verwendung gibt.

Um die Leistung von 40 GW zuverlässig bereitzustellen, wären ca. 130 Gaskraftwerke á 300 MW und 195.000 WEAs mit 1 MW Nennleistung notwendig. Derzeit gibt es ca. 22.000 WEAs in Deutschland mit einer installierten Durchschnittsleistung von 1,3 MW je Anlage. Je nach Anlagengröße und Standort ist daher ein weiterer umfangreicher Ausbau notwendig.

Wie sich Wind und Gas die Erzeugung der Grundlast aufteilen würden ist in der Grafik2a am Beispiel des Windgangs aller deutschen WEAs für März 2011 demonstriert. Für die unvermeidbare überschüssige Windenergie (grau) wird es vermutlich kaum Abnehmer5 geben, obwohl die  Kosten anfallen und auch in der Kalkulation hier einbezogen sind. Um es deutlich zu sagen: Windenergie, die angeboten, aber nicht abgenommen werden kann, muss bezahlt werden.

Kalkulation für Grundlast

Dass heutige EEG (Erneuerbare-Energien-Gesetz) bestimmt, dass aller durch WEAs erzeugte Strom auch abgenommen werden muss.

Bei der Verwendung in der Grundlast mit Kopplung von Gaskraftwerken ist das nicht möglich. Dann verfallen ungefähr 50%.

Aber der gesamte angebotene Strom durch WEAs muss bezahlt werden, weil sonst die Anlagenbetreiber nicht auf ihre Kosten kommen würden.

Wenn bspw. von den WEAs mehr als 300 MW Wind erzeugt werden, dann kann alles über 300 MW nicht verwendet werden und muss daher verfallen. Aber bezahlt werden muss es.

Preislich sieht das dann im  Durchschnitt so aus:

Es entfallen auf alle der ständig angebotenen 300 MW des gekoppelten Systems im Durchschnitt auch immer die entsprechenden Windkosten von 9 ct pro verbrauchter Kilowattstunde.

Erzeugerpreise1:

9 ct/KWh (Einspeisevergütung) bei WEAs

5 ct/KWh Erzeugerpreis bei Gaskraftwerken im Betrieb und 1 ct/kWh in Bereitschaft (angenommen)

Obere Preisgrenze:

Die Ausgangsfrage: Wo ist ungefähr die obere überhaupt mögliche Preisgrenze, wenn WEAs durch Gaskraftwerke gepuffert werden, um Grundlastbetrieb zu gewährleisten?

Die Antwort: Am teuersten ist es, wenn Gaskraftwerke zu 100% und WEAs zu 0% einspeisen, aber die WEAs mit ihrem Stromangebot bezahlt werden müssen, so, als ob sie 100% liefern würden. Dabei ist es egal wie lange dieser Zustand dauern würde. Die Stromleistung wird gleich zweimal erzeugt, aber nur einmal abgenommen. Einen höheren Preis kann es nicht geben.

Demnach beträgt der gesamte Erzeugerpreis:

5 ct/kWh (Gas, Erzeugerpreis) + 9 ct/kWh (Wind, Einspeisevergütung) = 14 ct/kWh obere Preisgrenze

Untere Preisgrenze:

WEAs liefern 100% Strom und das Gaskraftwerk ist nur in Bereitschaft.

9 ct/kWh + 1 ct/kWh  (Bereitstellungskosten) = 10 ct/kWh  untere Grenze

Zwischen 10 und 14 ct/kWh muss sich der real existierende Erzeugerpreis dieses Modells in der Realität einpendeln, wobei 12 ct/kWh das Mittel ist.

Bei Offshore Anlagen (14 ct/kWh) dürfte der Erzeugerpreis entsprechend höher (15-19 ct/kWh) und im Mittel 17 ct/kWh sein.

Windenergieanteil

Im Durchschnitt liefern die WEAs 20% ihrer Nennleistung. Alles, was im gegebenen Augenblick über 300 MW erzeugt (angeboten) wird, verfällt. Das ist wahrscheinlich realistisch, da es kaum Speichermöglichkeiten in großem Umfang (Pumpspeicherwerke, etc.) gibt und der Verkauf ins Ausland bei einer nur nationalen Energiewende nicht zuverlässig sein dürfte.

Daher teilen sich im Durchschnitt Gas und Wind die Stromerzeugung je zur Hälfte.  Man kann es auch so ausdrücken: Um 50% Gas zu sparen werden 2-3fach höhere Erzeugerkosten bezahlt.

 

Die rote Linie stellt die durchschnittlich erzeugte Leistung dar und beträgt im Jahresmittel ca. 20% der Spitzenleistung. 2)

Erhöhung des Windanteils auf weit über 50%

Eine Erhöhung des Windanteils ist nur über eine massive Entwicklung von Speichern möglich. Praktisch stehen diese nicht in nennenswertem Umfang zur Verfügung. Die meisten Ideen sind reine Visionen, kaum kalkulierbar und dürften realisiert preislich astronomische Höhen erreichen.

Kalkulation für Mittellast

Mittellast bezeichnet im Kraftwerksmanagement den Bereich der Tageslastkurve, in dem

* über die Grundlast hinaus zusätzlicher Strom verbraucht wird und

* die Charakteristik des Stromverbrauchs so ist, dass sie von Mittellastkraftwerken abgedeckt werden kann.

Für kurze Spitzen des Stromverbrauchs, sehr starke Lastanstiege oder unvorhergesehenen Strombedarf müssen dann Spitzenlastkraftwerke hinzugenommen werden.

Ein Einsatz von ungespeicherter Windenergie in der Mittellast kann wie vorstehend für die Grundlast berechnet werden. Dabei muss berücksichtigt werden, dass ca. 1/3 der gesamten Zeit keine Leistung abgerufen werden kann. Dadurch ist der Preis der Kilowattstunde gegenüber der Grundlast im Mittel um ca. 1/3 höher.

Daher  muss sich der real existierende Erzeugerpreis dieses Modells in der Mittellast zwischen 13 und 19 ct/kWh einpendeln wobei 17 ct/kWh das Mittel ist.

Bei Offshore Anlagen (14 ct/kWh) dürfte der Erzeugerpreis entsprechend höher (20-26 ct/kWh) und im Mittel 23 ct/kWh sein.

Es wären dann weitere ca. 34.000 WEAs mit je 1 MW Nennleistung notwendig.

-> Mittellast: http://de.wikipedia.org/wiki/Mittellast

Spitzenlast

Spitzenlast bezeichnet kurzzeitig auftretende hohe Leistungsnachfrage. Bedarfsspitzen zeichnen sich oft durch einen starken Anstieg der nachgefragten Leistung aus, so dass für die Stromversorgung schnell regelbare Spitzenlastkraftwerke eingesetzt werden müssen. Diese können innerhalb von Sekunden oder Minuten hohe Leistungen zur Verfügung stellen. Hierzu zählen unter anderem Pumpspeicher- und Druckluftspeicherkraftwerke, aber auch moderne Gasturbinenkraftwerke.

Vom Leistungsumfang her ist die Spitzenlast vergleichsweise gering.

Ein Einsatz von Windenergie in der Spitzenlast ist zuverlässig nur über Zwischenspeicherung möglich. Dazu können vorhandene Pumpspeicherwerke, etc. verwendet werden.

-> Spitzenlast: http://de.wikipedia.org/wiki/Spitzenlast

 

Die Grundlast betrug 40 GW im Jahre 2005. Mittellast ist nach dieser Grafik  für etwa  2/3 eines Tages notwendig. ->  http://de.wikipedia.org/wiki/Kraftwerksmanagement

Verbraucherpreise

Wie würden sich die vorstehend ermittelten Windenergiepreise auf die Verbraucherpreise auswirken?

Die Stromerzeugerpreise für die fossilen Energien (Kohle, Gas) betragen 2,5 bis 5 ct/kWh.

Die Windenergie liefert im Modell wie oben ausgeführt im Mittel für 12 ct (landbasiert) und 17 ct (offshore) die Kilowattstunde, also zu 8 ct oder 12 ct höherem Preis. Bei einem Drei-Personen-Haushalt mit 3.500 kWh jährlichem Verbrauch ergibt sich dadurch eine Erhöhung von 280 € bzw. 420 €  (plus MwSt).

Diese Mehrkosten könnten durch Senkung von Steuern und Abgaben kompensiert oder teilkompensiert werden. Staat und Kommunen müssten dann auf Einnahmen verzichten, die dann allerdings auch nicht mehr zu Ausgaben führen können. Auf volkswirtschaftlicher Ebene ergäbe sich dadurch direkt oder indirekt eine Absenkung von gewohnten Standards.

Für das Gewerbe und stromintensive Industrien können Strompreiserhöhungen existenzielle Bedeutungen haben und wären damit ein Politikum ersten Ranges.

Über die Zusammensetzung des Strompreises kann bei Wikipedia nachgelesen werden.

-> http://de.wikipedia.org/wiki/Strompreis

Fazit

Die Windenergie ist unter den Alternativen zu den fossilen Energien diejenige, deren technisches Potential am weitesten entwickelt und die preislich im Vergleich zur Sonne, der anderen Energie mit großem Potential, weit günstiger ist.

Nur eine Entwicklung der Speichertechnik wie Pumpspeicherwerke, Gasgewinnung (Wasserstoff, Methan, etc.) kann den Windanteil nennenswert über 50% anheben. Preislich dürften die Stromerzeugungskosten dadurch weiter stark ansteigen.

Bisher ist die öffentliche Diskussion mehr durch Vermutungen geprägt als durch fundiertes Zahlenmaterial. Vielleicht können die hier vorgelegten Betrachtungen bei der Fundierung und Versachlichung hilfreich sein.

Klaus Öllerer Publizist  – Dipl-Ing. Hannover, im Februar 2012

0170 92 60 771

www.oellerer.net

Anmerkung der Redaktion: Russland drosselt Gaslieferung

Bei weiterem Ausbau der Puffer-Gaskraftwerke würde die Abhängigkeit von Russland weiter steigen. Wenn die drosseln wie bereits jetzt geschehen, gehen die Lichter aus: Zitat aus der Welzheimer Zeitung vom 7.2.11

Am vergangenen Freitag habe sich die Lage aber weiter verschärft. In einem daraufhin an alle Großkunden verschickten Brief spricht die GVS-Netz von einer „kritischen Situation“ und fordert die Energieversorger „dringend“ auf Gas zu sparen. Unter anderem sollen – falls vertraglich möglich – Lieferungen heruntergefahren oder unterbrochen werden.

Nach Recherchen unserer Zeitung ist dies auch schon geschehen. So ist seit vergangenen Freitagabend Block vier des Karlsruher EnBW-Meilers RDK nicht mehr am Netz, wie eine EnBW-Sprecherin bestätigte. Die GVS-Netz selbst habe in den vergangenen Tagen die Gaslieferungen für „eine Handvoll Kunden“ reduziert, sagte der Sprecher.

Weitere Quellen

1. Stromerzeugungskosten
http://www.energie-verstehen.de/Energieportal/Navigation/Energieversorgung/stromerzeugung,did=249676.html

Die Einspeisevergütung für Land-WEAs als Kalkulationsgrundlage ist realistisch, da sie die Errichtung, den Betrieb, die Wartung und den Gewinn für die Eigentümer beinhaltet.

2. Windleistung in Deutschland

 Prof. Dr.-Ing H. Alt, Fachhochschule Aachen, Hilfsb 123-5 Windleistung Deutschland 3-2011

2a. wie vor, jedoch geändert

3. Foto Windenergie in Landschaft
(c) J. Musehold

4. GW=Gigawatt, MW=Megawatt, kW=Kilowatt, W=Watt

1 GW=1.000 MW=1.000.000 kW=1.000.000.000 W

5. Wind-Wärme-Kopplung
Es wäre denkbar, dass überschüssiger Windstrom niederpreisig zur Wärmeerzeugung (Fernwärme, etc.) verwendet wird.




Windräder töten Vögel und Fledermäuse! Update

Rotorspitzen über 400 km/h schnell

Tatsächlich fegen die Spitzen der Rotorblätter schon bei mäßigem Wind mit 170 km/h durch die Luft und laut Informationstafel am Schellenberg bei Neustadt a. d. Aisch liegt deren Spitzengeschwindigkeit bei 272,3 km/h. Neuere Anlagen erreichen über 400 km/h. Für Skeptiker zum Nachrechnen: Einfach die Rotorblattlänge in Metern mit 22,6 multiplizieren und durch die Zahl der Sekunden teilen, die das Windrad für eine Umdrehung braucht und man erhält die Geschwindigkeit der Rotorblattspitzen in km/h. Die meisten Rotorblätter sind zwischen 35 und 55 Meter lang, auf See sind Längen von 125 Metern geplant.
Aktualisiert am 26. Januar 2012Sog zieht Vögel und Fledermäuse an die Rotoren.
Kommt ein Vogel oder eine Fledermaus auch nur in die Nähe eines Rotorblattes, saugt sie ein Unterdruck unweigerlich gegen das Rotorblatt und es ist um sie geschehen. Dieser Unterdruck entsteht durch die Luftströmung an den Rotorblättern und schwankt, weil der Wind mal schneller oder mal langsamer weht und auch, weil sich das Rotorblatt wegen seines hohen Trägheitsmomentes nur verzögert schneller oder langsamer drehen kann. Mit dem Unterdruck schwankt auch der daraus resultierende Sog ständig. Verstärkt werden die Druckschwankungen durch den Turm-Effekt, weil immer dann, wenn ein Rotorblatt vor dem Turm vorbei saust, der Winddruck abfällt und deshalb das Rotorblatt vor und zurück springt. Das hört man als Wummern, weil der Mast periodisch von den nachlaufenden Luftströmungen des vor ihm vorbei sausenden Rotorblattes getroffen wird und sich seine Anströmrichtung und Anströmgeschwindigkeit kurzzeitig ändern. Hinzu kommt, dass der Wind mit der Höhe zunimmt, was man schon vom Kinderdrachen kennt. Das bedeutet aber, dass die Rotorblätter, wenn sie ganz oben stehen, mehr belastet werden, als wenn sie ganz unten stehen. Das führt zu weiteren Schwingungen und zwar umso mehr, je länger die Rotorblätter werden.

Druckschwankungen sind kilometerweit zu hören

Obwohl sich die Druckschwankungen mit Schallgeschwindigkeit ausbreiten und sich dabei mit dem Quadrat der Entfernung abschwächen, hört man das Wummern noch kilometerweit. Daran erkennt man die enorme Wucht der Druckschwankungen und ihre Gefährlichkeit für Vögel und Fledermäuse. Auch der Infraschall wird letztlich durch die Druckschwankungen ausgelöst. Wir Menschen können ihn wegen seiner tiefen Tonlage nicht hören, er scheint aber trotzdem gesundheitsschädlich zu sein. Hinzu kommt, dass Infraschall weiter reicht als der hörbare Schall. Elefanten unterhalten sich mit Infraschall über 2,5 Kilometer Entfernung.

Ausweichen für Vögel und Fledermäuse unmöglich

Werden Tiere von einem Rotorblatt direkt getroffen, dann ist es natürlich erst recht um sie geschehen und die Wahrscheinlichkeit dafür ist groß. Denn jedes einzelne Rotorblatt wiegt 3,5 t und mehr, also so viel wie ein rasender Kleinlaster und alle paar Sekunden kommt das Nächste mit einer Geschwindigkeit von 27 bis 76 Metern pro Sekunde herangerast und dann wieder eines und wieder und wieder. Das ist der sprichwörtliche Kampf gegen Windmühlenflügel, den jeder Vogel und jede Fledermaus verliert.

Tod auch ohne direkte Kollision

Doch selbst wenn die Opfer nicht vom Rotorblatt angesogen oder direkt getroffen werden, lösen die heftigen Druckschwankungen im Turbulenzbereich der Rotorblätter innere Verletzungen aus. Die Tiere sterben ohne Zeichen äußerer Verletzungen, was durchaus vergleichbar mit der Wirkung von Luftminen auf Menschen im 2. Weltkrieg ist. Diese Minen lösten ebenfalls heftige Druckschwankungen aus und zerrissen auch Menschen die Lungen, die sich im Bunker sicher glaubten. Diese als Barotraumen bezeichneten inneren Verletzungen betreffen nicht nur die Lungen. Bei Fledermäusen fand man sogar geplatzte Fettzellen (Current Biology 18, S. 695 – 696, 2008), was zeigt, wie äußerst aggressiv die Druckschwankungen sind.

Einfacher Versuch zu Sogwirkung 

Die Sogwirkung der Rotorblätter zeigt ein einfacher Versuch. Hält man zwei Blatt Papier in geringem parallelen Abstand vor den Mund und bläst hindurch, so weichen sie nicht etwa auseinander, wie man vermuten könnte, sondern der Sog zieht sie aufeinander zu. Ersetzt man eines der beiden Blätter durch Karton, zieht der Sog das leicht bewegliche Papier auf den starren Karton. Der Karton entspricht dem starren Rotorblatt und das bewegliche Papier dem Vogel oder der Fledermaus. Jedoch pustet kein harmloser Mensch, sondern ein Tornado mit Windgeschwindigkeiten bis über 400 km/h und zwar ständig, solange sich das Windrad dreht! Ein solcher Sog ist tödlich, da gibt es kein Entkommen. Schon viel geringere Geschwindigkeiten wie bei Schiffsschrauben oder sich eng begegnenden LKWs oder von vorbei fahrenden Zügen sind lebensgefährlich: Ein Hobbyfilmer wollte einen dramatischen Streifen drehen, stellte seine Kamera ganz dicht an die Bahngleise und filmte den herannahenden Zug. Er glaubte sich sicher, doch der Sog des Unterdruckes zog ihn an den Zug, er selbst überlebte, seine Kamera nicht….

Dr. Friedrich Buer

Lesen Sie den ganzen undefinedBericht als Dateianlage




Vahrenholt bringt politisch korrektes Klimawandel Mantra durcheinander!

Die Zeit schägt in die gleiche Kerbe. Nur Bild traut sich was und haut dem Volk die Klimalügen um die Ohren. Und das nicht nur als Eintagsfliege, sondern gleich als Serie. (Auszug)

Teil 1: Was der Weltklimarat der UNO verschweigt

Klimahorror-Warnungen prasseln auf uns hernieder: Hitzewellen, Wirbelstürme, biblische Fluten sollen den Planeten bald heimsuchen. Endzeitstimmung! Schon in der Schule bekommen Kinder eingetrichtert: Das alles haben wir uns selbst eingebrockt. Ab 2020 sollen wir Industrieländer daher jedes Jahr 100 Mrd. US-Dollar an die Entwicklungsländer zahlen zur Wiedergutmachung angeblicher Klimaschäden.

Fest steht: In den letzten 150 Jahren ist es auf unserem Globus um überschaubare 0,8°C wärmer geworden. Der allwissende Weltklimarat der Vereinten Nationen erklärt uns, dass die Erwärmung fast vollständig durch das böse CO2 entstanden sei. Und wenn unsere Abgase schon bisher fast ein Grad Erderwärmung verschuldet hätten, dann würden bis Ende des Jahrhunderts schnell ein paar weitere Grade dazukommen…..

Die Internetszene berichtet ebenfalls umfassend voran ACHGUT mit einem Beitrag von Michael Miersch (zuvor im Focus erschienen): Unter dem Titel:

„Ich habe es nicht mehr ausgehalten“

lässt er Fritz Vahrenholt ausführlich zu Wort kommen:

….Hunderttausende Christen treten alljährlich aus der Kirche aus. Das erregt kaum Aufsehen. Doch wenn ein Bischof vom Glauben abfällt, ist es ein Paukenschlag. Ganz ähnlich verhält es sich mit dem Glauben an die Klimakatastrophe. Nur noch 31 Prozent der Deutschen fürchten sich vor globaler Erwärmung. 2006 waren es noch genau doppelt so viele. Und jetzt verstärkt ein Schwergewicht die Reihen der Ungläubigen. Fritz Vahrenholt, einer der Väter der deutschen Umweltbewegung, vertraut den Vorhersagen des Weltklimarats (IPCC) nicht mehr. Und auch nicht den Szenarien des Potsdam Instituts, das Kanzlerin und Umweltminister berät und seit Jahren den Klimaalarm ausruft.

Den Konsens, dass die Welt im 20. Jahrhundert um 0,8 Grad wärmer wurde, teilt Vahrenholt nach wie vor. Nicht jedoch die Prognosen für einen weiteren massiven Temperaturanstieg. „Bis vor zwei Jahren“, sagt er, „glaubte ich dem Weltklimarat und vertrat seine Empfehlungen in meinen Vorträgen.“ Zweifel kamen ihm, als er als Gutachter den IPCC-Report über erneuerbare Energien überprüfen sollte. „Ich entdeckte zahlreiche Fehler und fragte mich, ob die anderen IPCC-Berichte wohl ähnlich unzulänglich sind.“

Gleichzeitig brachte ihn die Tatsache ins Grübeln, dass entgegen den Vorhersagen die globale Durchschnittstemperatur seit über einem Jahrzehnt nicht weiter angestiegen ist. Vahrenholt fragte sich, ob die vom Menschen erzeugten Treibhausgase tatsächlich die wichtigste Kraft im Klimageschehen darstellen. Nach Gesprächen mit Dutzenden Wissenschaftlern hält er den Einfluss der Sonne für unterschätzt. Und schließlich zieht Vahrenholt in Zweifel, dass eine Erwärmung grundsätzlich schlecht für Menschen und Natur sei.

Stutzig machte ihn zusätzlich die Ent-hüllung von E-Mails, die offenbarten, dass führende Klimawissenschaftler unerwünschte Forschungsergebnisse unter den Teppich kehren wollten. Sein Vertrauen war vollends erschüttert, als sich herausstellte, dass die sogenannte Hockeyschläger-Kurve manipuliert  war. Diese Grafik spielt eine Hauptrolle in Al Gores Film „Eine unbequeme Wahrheit“. Sie soll zeigen, dass die jüngste Erwärmung dramatischer verläuft als alle historischen Warmzeiten.

…Auch im persönlichen Gespräch macht der 62-Jährige keinen Hehl daraus. „Ich habe es nicht mehr ausgehalten“, sagt er, „ich musste dieses Buch schreiben.“ Seine Kritikpunkte sind nicht neu. Sie wurden bereits von vielen Wissenschaftlern vorgetragen. Doch in der Politik kommt es weniger darauf an, was gesagt wird, sondern viel-mehr, wer es sagt. Vahrenholt war jahrzehntelang der prominenteste Umweltschützer in der SPD neben Erhard Eppler, der das Vorwort zu seinem ersten großen Bestseller schrieb: „Seveso ist überall“. Ein Titel, der vielen noch heute im Gedächtnis haftet. Das Buch über „die tödlichen Risiken der Chemie“ erschien 1978. Es war eines der Werke, die der aufstrebenden grünen Bewegung Argumente lieferte. Vahrenholt avancierte dadurch zum bekanntesten Kritiker der Chemieindustrie. In den 90er-Jahren machte ihn die SPD zum Umweltsenator von Hamburg….

….Er tut jedoch das Gegenteil. „Die Förderung der Photovoltaik ist Irrsinn“, sagt er in München. „Sie ist die unwirtschaftlichste Form des Klimaschutzes.“ Windenergie hält er nach wie vor für vernünftig. Doch seine frühere Euphorie wurde gebremst, als er 2009 und 2010 erleben musste, dass der Wind in Mitteleuropa manchmal wochenlang Pause macht. Er fing an, sich mit den zyklischen Luftdruckschwankungen zu befassen, die starken Einfluss auf das Windgeschehen und auf das Klima ausüben….

… Es gibt jedoch Anzeichen, dass inzwischen selbst im Potsdam Institut der Zweifel nagt.

Abweichend von früheren Vorhersagen räumte Institutschef Hans Joachim Schellnhuber vor einigen Tagen auf einem Seminar internationaler Agrarexperten ein, es sei durchaus möglich, dass wärmeres Klima in Kombination mit einem weiteren Anstieg des CO2 in der Luft zu mehr Pflanzenwachstum und besseren Ernten führt. Wenige Tage später verwunderte sein Stellvertreter Ottmar Edenhofer Münchner Journalisten bei einer Pressekonferenz, die er gemeinsam mit Vahrenholt abhielt. Der Skeptiker sagte, es sei seit über einem Jahrzehnt nicht wärmer geworden und werde in Zukunft wohl eher kühler. Da wollte Edenhofer auch auf Nachfrage nicht widersprechen.

Na also, denkt man sich: geht doch!

Zur direkten Unterrichtung interessierter Leser und Bewältigung des großen Medienechos haben Vahrenholt und Lüning eine eigene Website eingerichet: Die kalte Sonne.

Update: Die Financial Times Deutschland lässt Vahrenholt zu Wort kommen. Fürchtet euch nicht vor dem Klimawandel

und ergänzend schreibt die FTD: RWE prophezeit Flaute für Offshore-Windanlagen

Michael Limburg EIKE