1

Kein Konsens über die Ursache der Erwärmung!

Es wird sogar weithin angenommen, die großen wissenschaftlichen Gesellschaften, wie die American Geophysical Union (AGU), hätten ihre Mitglieder befragt, bevor sie offizielle Erklärungen herausgaben, die im Wesentlichen die IPCC These stützen, dass der Temperaturanstieg der letzten 50 Jahre durch menschliche Aktivitäten verursacht wurde – insbesondere durch die Emission von Treibhausgasen. (zuletzt wurde diese Behauptung von Rahmstof PIK aufgestellt)  Dem ist aber nicht so: Dieser falsche Eindruck dürfte von irreführenden Umfrageergebnissen herzurühren, die die AGU veröffentlichte [P. Doran und M. Kendall-Zimmerman, Eos 90, 20 Januar 2009, S. 22-23

Diese Umfrage werden wir hier diskutieren, auch vor dem Hintergrund von Einseitigkeit und Störfaktoren.

Der Eos Autoren berichten über die Antwort von 3146 Geo-Wissenschaftlern auf zwei Fragen:

1. Hat sich das Klima erwärmt, abgekühlt oder ist es konstant geblieben – im Vergleich zur Zeit vor 1800?

Unabhängig davon, was man über die Ursachen des Klimawandels wirklich glaubt, kann die Antwort nur lauten: "Erwärmt." Denn vor 1800 herrschte die Kleine Eiszeit, die um 1800 endete. [Hieße die Frage anders: "im Vergleich zu 1998," dann müsste die Antwort "Abgekühlt“ heißen.]

2. Glauben Sie, dass menschliche Tätigkeit ein wichtiger Faktor für Klimaschwankungen ist?

Hier hängt die Antwort hängt davon ab, was unter "erheblich" verstanden wir – und ob "menschliche Aktivität" Faktoren wie Verstädterung, Landnutzung, Landwirtschaft, Bewässerung, Abholzung, etc. einschließt. Viele dürften mit "Ja" antworten – auch wenn sie nicht glauben, dass Treibhausgase ein wichtiger Faktor für Klimawandel ist.

Die Autoren berichten, dass sie einschlägige wissenschaftliche Fakultäten, Abteilungen und Mitarbeiter von staatlichen Einrichtungen befragt haben. Vermutlich haben sie Rentner oder in Personen der Privatwirtschaft nicht befragt. Die Autoren behaupten ferner, dass bekannte Dissidenten enthalten waren. Aber es ließ sich nicht herausfinden, wer teilgenommen hatte.

Die meisten der Befragungsteilnehmer bezeichneten sich selbst als Geochemiker, nur 5% bezeichneten sich als "Klimaforscher". (Aber wo sind die "atmosphärischen Wissenschaftler"?)

Vielfach zitiert wird das Ergebnis der Befragung zu Frage 2: 97,4% antworteten mit "Ja". Es basiert auf einer Stichprobe von nur 77 Antworten "aktiv publizierender Klimaforscher“. Abgesehen von der fehlenden Genauigkeit – was können wir aus dieser Angabe schließen? Das diese Personen wahrscheinlich massive Forschungsgelder, die fast ausschließlich dazu bestimmt sind, die AGW-These zu bestätigen.

[Von derselben Gruppe glaubte nur 96,2% (statt 100%), dass das Klima sich seit 1800 erwärmt hat. Es wäre interessant zu erfahren, wer diese Personen sind.]

Dagegen sagten weniger als die Hälfte der "wirtschaftlich ausgerichteten Geologen (103 Antworten)" Ja", und etwas mehr als ein Drittel der" Meteorologen "(36 Antworten) sagte:" Nein! "

Die Amerikanische Physikalische Gesellschaft (American Physical Society – APS) veröffentlichte im Jahr 2007 ein Positionspapier, das begeistert den AGW befürwortet, ohne Rücksicht auf die Ansichten ihrer Mitglieder. Vor kurzem haben rund 200 Mitglieder und APS-Fellows den APS-Rat aufgefordert, das Papier zu ändern oder zurückzuziehen, angesichts der wissenschaftlichen Erkenntnisse, die im Widerspruch zu AGW stehen. Vielleicht wird sich auch innerhalb der AGU eine ähnliche Initiative entwickeln.

Prof. Dr. Fred Singer, die Übersetzung besorgte CS EIKE




Wie viele Menschenleben kostet erneuerbare Energie?

Vor Kurzem hat der Spiegel, sehr zum Erstaunen der Fachleute, eine sehr korrekte Abhandlung zur Gefahr durch Kernenergie veröffentlicht.1 Lange vor der Nutzung der Kernenergie gab es schon Tote durch Radioaktivität. Marie Curie, die Pionierin der Atomforschung, starb mit 66 Jahren an Leukämie, die durch die hohe Strahlenbelastung ausgelöst worden war, deren Gefahr die Entdeckerin der Radioaktivität noch nicht kennen konnte. Sie hatte zuvor sowohl den Nobelpreis für Physik (1903) als auch für Chemie (1911) erhalten. Heute kennt man die Wirkung radioaktiver Strahlen und sorgt sehr effektiv dafür, dass niemand im Umgang mit den strahlenden Substanzen gesundheitsschädlichen Dosen ausgesetzt wird.

 Die furchtbare, zerstörerische Wirkung der Atomenergie wurde 1945 beim Abwurf amerikanischer Atombomben auf Hiroshima und Nagasaki deutlich, durch die mehr als 200.000 Menschen getötet wurden. Der Großteil fiel dabei der Explosion mit ihrer enormen Druck- und Hitzewelle zum Opfer. Die Radioaktivität spielte eine nachgeordnete Rolle.2 Der Spiegel nennt gut 700 Tote durch Strahlenfolgen. Bei der friedlichen Nutzung der Kernkraft wird das Szenario des größten Schadens als GAU (größter anzunehmender Unfall) bezeichnet. Einen GAU hat es bislang gegeben, im Jahr 1986 in Tschernobyl. Der Spiegel nennt ca. 60 Todesopfer bis heute – das ist korrekt aus der Sicht des Strahlenschutzfachmanns. In den Medien waren auch schon oft viel höhere Zahlen zu lesen. Das liegt vor allem daran, dass zusätzlich zu den tatsächlichen noch statistische Todesfälle einbezogen werden.3 Solche „berechneten Toten“ infolge von Strahlenbelastung werden nur in Verbindung mit der friedlichen Nutzung der Kernkraft angeführt. Wenn sich der Mensch auf andere Weise – etwa durch eine Flugreise – erhöhter Strahlung aussetzt, werden normalerweise keine solchen Hochrechnungen angestellt. Würde man es tun, könnten daraus die Forderung nach dem „Ausstieg aus dem Flugverkehr“ abgeleitet werden. Rund 40 Millionen Deutsche reisen mit dem Flugzeug in den Urlaub, geschäftliche Vielflieger kommen hinzu. Die einfache Zahlenrechnung ergäbe dafür jedes Jahr ca. 100 „berechnete Tote“.4

Es hat bei der Nutzung und der Erforschung der Atomkraft wie in jedem anderen Technikbereich Unfälle gegeben, durch technisches oder menschliches Versagen. Die Zahl der Opfer war jedoch bisher gering. In Kernkraftwerken westlicher Bauart hat es durch Strahlung tatsächlich noch keinen einzigen Toten gegeben. Nehmen wir diese tatsächliche Bilanz als Maßstab, so ist bei den erneuerbaren Energien im Vergleich zur Kernkraft noch erheblicher Nachholbedarf in Sachen Sicherheit zu erkennen. Es gibt eine Vielzahl von Untersuchungen, in denen die Gefahren der Stromerzeugung mittels Kernkraft mit denjenigen durch fossile Brennstoffe einschließlich der Wasserkraft verglichen werden.5 Dem sind einige Gesichtspunkte hinzuzufügen.

Wasserkraft

Seit den 50er-Jahren, als die Entwicklung der Kernkraft begann, gab es in Europa zwei große Unglücke mit Staudämmen, die viele Tote forderten: Am 2.12.1959 brach der Malpasset-Staudamm bei Frejus (Frankreich), 421 Menschen starben. Am 9.10.1963 brachte in Longarone (Italien) ein Erdrutsch den Stausee zum Überlaufen, die Flutwelle forderte etwa 2500 Tote. Am 11.8.1979 brach der Machhu-Staudamm in Indien, die Stadt Morvi wurde überflutet. Die Zahl der Todesopfer wird oft mit mehr als 1000 angegeben, eine zuverlässig erscheinende Quelle spricht sogar von 15.000 Opfern.6 Das Unglück am Machhu-Staudamm geschah fast zeitgleich zum Atomunfall in Harrisburg (28.3.1979). Dort gab es keine Opfer, noch nicht einmal Verletzte. Dennoch wird das Unglück von Harrisburg oft genannt, der Machhu-Staudamm blieb weitgehend unbekannt.

Die Münchner Rück schrieb im Jahre 1997: Seit 1950 ereigneten sich weltweit rund 100 größere Dammbrüche; die meisten dieser Dämme sind vor 1930 erbaut worden (und daher vermutlich Erdwälle). 1975 sollen bei einem Staudammbruch am Huai-Fluss in China 26.000 bzw. mehr als 230.000 Menschen ums Leben gekommen sein.7 Es gibt auch in Deutschland ein Ereignis, dass die Gefahren eines berstenden Staudammes deutlich werden ließ: die Bombardierung der Staumauer des Edersees durch britische Bomber im Mai 1943. Damals fanden über 1000 Menschen den Tod durch die Flutwelle. In Hannoversch Münden, ca. 80 km unterhalb der Staumauer, kann man sich heute die Hochwassermarke von der Flutwelle ca. drei Meter über dem Gehsteig anschauen (HW 17.5.1953). Es gibt also durchaus eine drohende „terroristische Gefahr“, die als nicht unerheblich einzuschätzen ist.

Risikostudien

Vielen Menschen sind dennoch Kernkraftwerke nicht geheuer. Ermittelt man nach dem gegenwärtigen Stand des Wissens – und dieses ist für die Kernkraft sehr umfassend – das tatsächliche Risiko, so stellt sich dieses als sehr gering heraus. Die für deutsche Kernkraftwerke durchgeführten Risikostudien haben für die Häufigkeit einer Kernschmelze Werte um 10 hoch minus 6 pro Jahr ergeben, d.h., in einer Million Jahren ist mit einem einzigen Schadensfall zu rechnen.8 Dabei ist zu beachten, dass bei einer Kernschmelze zwar ein technisches Gerät zerstört würde, aber wie in Harrisburg kein Mensch zu Schaden kommen müsste. Im Vergleich dazu fehlen bei Staudämmen in der Regel technische Maßnahmen zur Verhinderung von Schäden an Menschen. Betrachtet man die Situation der Bewohner des Zillertals in Österreich, die unterhalb von drei Staumauern leben, so kann man nur konstatieren, dass sie im Notfall ziemlich chancenlos wären. Der Bruch nur einer Mauer – durch ein Erdbeben oder einen Anschlag – würde das ganze Tal überschwemmen, es gäbe für Zehntausende Menschen kein Entrinnen aus der Flutwelle. Falsch wäre es dennoch, angesichts solcher Katastrophenszenarien den Ausstieg aus der Wasserkraft zu fordern. Wohl aber sollte man sich der Gefahren bewusst sein und eventuell Vorkehrungen zur Schadensbegrenzung treffen.

Biomasse

Vollends harmlos erscheint auf den ersten Blick die Nutzung von Biomasse. Tatsächlich ist jedoch der gefährlichste Beruf hierzulande derjenige des Forstarbeiters. Jeder zweite Forstarbeiter erleidet pro Jahr einen Arbeitsunfall. In den Jahren 1991 bis 1994 gab es jedes Jahr in Deutschland rund 50 Unfalltote bei 36.000 gewerblichen Mitarbeitern.9 Diese Zahlen werden heute nicht wesentlich anders sein, denn die Gefahren beim Umgang mit Kettensägen und durch fallende Bäume sind geblieben. Auch sind nur Unfälle im Staatsforst erfasst, diejenigen aus dem privaten Bereich wären noch zu addieren. Bezeichnend ist, dass die Verkehrsunfälle bei der Fahrt zum Arbeitsplatz, die bei Berufen mit Bürotätigkeiten die tödlichen Unfälle dominieren, im Forstbereich zu vernachlässigen sind. Es überwiegen die Gefahren beim Holzeinschlag. Will man diese Zahlen in Beziehung setzen zu denjenigen des Tschernobyl-Unfalls, so wäre eine Hochrechnung auf alle Länder der Welt und auf ca. 50 Jahre durchzuführen. Die Opferzahl ginge schnell in die Zehntausende. Die Betroffenen sind weitgehend anonym, ihre tragischen Einzelschicksale werden in der Regel im Lokalteil der Regionalpresse vermeldet. Es gibt keine medienwirksamen Katastrophen, und es gibt keine gesellschaftlichen Debatten um die Sicherheit der Forstwirtschaft. Die Toten aber sind real, und ihre Zahl ist groß.

Auch Biogasanlagen können zur Todesfalle werden. Bei dieser noch vergleichsweise neuen Technologie wird die Biomasse in großen Reaktoren zersetzt, wobei überwiegend Methan (Erdgas) entsteht. Das Gas ist entzündlich, es kann zu Explosionen kommen, und es können Menschen durch das Gas vergiftet werden. Das ist in den letzten Jahren mehrfach geschehen, bedauerlicherweise hat es etliche Tote gegeben. Gewiss muss man einer neuen Technik zugute halten, dass sie in der Anfangszeit noch fehlerbehaftet ist (das ist der Beginn der Technikern wohl bekannten Badewannenkurve). Aus Fehlern wird gelernt, Verbesserungen und nicht Abschalten und Ausstieg sollten auch im Falle des Biogases die Konsequenz sein.

INES-Skala

Gibt es überhaupt eine Möglichkeit, sich von der Gefahr der Stromerzeugung durch Kernkraft ein zuverlässiges Bild zu machen? Es gibt zumindest ernsthafte Versuche, mögliche Gefahren genau zu beschreiben und einzustufen. Hierzu dient die INES-Skala (International Nuclear Event Scale): INES 1 ist eine Störung, INES 2 ist ein Störfall, INES 3 ein ernster Störfall, INES 4 ein Unfall, INES 5 ein ernster Unfall, INES 6 ein schwerer Unfall, INES 7 ein katastrophaler Unfall.10 Bei den in deutschen Kernkraftwerken gemeldeten Ereignissen handelt es sich zumeist um Kleinigkeiten, die mit der internationalen INES-Skala überhaupt nicht erfasst werden. Diese werden mit INES 0 bezeichnet, also unterhalb der internationalen Skala, da sie ohne Bedeutung für die Sicherheit sind. In der Statistik der deutschen Kernkraftwerke für die letzten 15 Jahre gab es 2158 gemeldete Ereignisse. Davon gehörten 96,6 Prozent zu INES 0, des Weiteren 3,3 Prozent zu INES 1, und nur 3 Ereignisse waren Störfälle nach INES 2. Hier Beispiele der Ereignisse:

· Im Kernkraftwerk Würgassen, seit 1994 stillgelegt und im Abbau befindlich, gab es am 6.5.06 einen Kurzschluss im Schleppkabel eines Krans. Einstufung: INES 0.

· Am 29.10.02 schwamm nach einem Herbststurm so viel Laub auf dem Neckar, dass beim Kernkraftwerk Obrigheim der Rechen am Kühlwassereinlauf gesäubert werden musste, dazu wurde das Kraftwerk ca. 45 Minuten abgeschaltet. Meldung an die Behörde erfolgte. Einstufung: INES 0. Die dpa-Pressemeldung lautete dennoch: „Fünfte Panne in fünf Monaten“.

· In Krümmel wurden im Nebengebäude mit den Notstromdieseln unter 630 Dübeln vier Exemplare entdeckt, die zwar die Anforderungen erfüllten, aber nicht vom vorgesehenen Typ waren. Einstufung: INES 0.

· Häufige Ereignisse nach INES 0 gibt es z.B. an den Notstromdieseln, die bei den regelmäßigen Prüfungen Abweichungen zeigen, sodass einer von bis zu acht Dieseln nicht uneingeschränkt zur Verfügung steht.

In Deutschland werden inzwischen alle Ereignisse in den Kernkraftwerken veröffentlicht, z.B. in der Fachzeitschrift atw. Man denke nur daran, dass jedes Jahr viele Tausend neue PKW von den Herstellerfirmen wegen technischer Mängel zurückgerufen werden, zumeist, weil sonst Personenschäden mit entsprechenden finanziellen Forderungen zu erwarten wären.

Risikoumgang

Es gibt nichts auf der Welt ohne Risiko. Wir lieben das Leben, obwohl es zu 100 Prozent tödlich endet. Wir lieben die Technik, denn erst die Technik ermöglichte es, die vielen Menschen überhaupt zu ernähren und vielen von uns ein angenehmes und langes Leben zu ermöglichen. Wo es noch keine Technik gibt, wo die Menschen heute noch so leben wie in unseren Breiten im Mittelalter, herrschen Analphabetentum, Mangel, Hunger und Krankheit. Die Kernkraft ist eine sehr sichere Technik, die Beschäftigten in den Anlagen dort sind kaum von Unfällen bedroht. Bei den alternativen, erneuerbaren Energien ist dies noch nicht in gleichem Maße gegeben. Hier gibt es Arbeitsplätze mit den meisten und folgeträchtigsten Unfällen, und es gibt die Möglichkeit für Unfälle mit erheblichen Opferzahlen. Sowohl in der Risikodebatte als auch in der Praxis besteht also Nachholbedarf.

Anmerkungen

1 Matthias Schulz: „Legenden vom bösen Atom“ in: Der Spiegel, 47/07 S. 160–164, wissen.spiegel.de.

2 „Strahlung, von Röntgen bis Tschernobyl“, Broschüre des GSF-Forschungszentrums, 2006.

3 Siehe hierzu Lutz Niemann: „Wie gefährlich sind radioaktive Strahlen?“ in: Novo81, S. 22–24.

4 „Tschernobyl: Gefahr vorbei?“, Ministerium für Finanzen und Energie des Landes Schleswig-Holstein, Rechenbeispiele auf S. 12f.

5 Siehe hierzu atw 51/06, Nr. 4, S. 242ff. und atw 52/07, Nr. 10, S. 620ff.; weitere Informationen hierzu unter: energie-fakten.de.

6 Steven Schultz / Jay A. Leitch: Floods and Flooding. Encyclopedia of Water Science, Second Edition, 2008, S. 380–385, informaworld.com.

7 „Überschwemmung und Versicherung“, Münchner Rück 1997, S. 29.

8 „Deutsche Risikostudie Kernkraftwerke Phase B, GRS, Verlag TÜV Rheinland, 1989.

9 „Agrarbericht der Bundesregierung“ von 1996.

10 Siehe hierzu bfs.de.

Dr. Lutz Niemann für EIKE

Der vorliegende Text ist im Magazin Novo (Nr.97, www.novo-argumente.com ) erschienen, und wurde am 19.12.2008 in DIE WELT abgedruckt (http://www.welt.de/welt_print/article2901108/Wenn-die-Natur-zurueckschlaegt.html)




Indische Studie: IPCC übertreibt bei Gletscherschmelze im Himalaya

Bei der Präsentation der Studie am Montag sagte der indische Umweltminister Jairam Ramesh, dass durch diese Arbeit die gängige Meinung über das Abschmelzen der Gletscher in Frage gestellt würde. Ein direkter Zusammenhang zwischen der Gletscherschmelze im Himalaya und dem globalen Klimawandel könne, so Ramesh, nicht hergestellt werden. Auch wenn sich einige Gletscher im Himalaya nach wie vor auf dem Rückzug befänden, würde dies mit einer Geschwindigkeit erfolgen, die, historisch betrachtet, nicht besorgniserregend sei.

Aussagen der indischen Geologen stehen im Widerspruch zum IPCC

Mit dieser Auffassung steht der Minister im direkten Widerspruch zum Intergovernmental Panel on Climate Change (IPCC), dass in seinem Report 2007 noch vor einem totalen Verschwinden der meisten Himalaya-Gletscher bis 2035 gewarnt hatte. Und so führte Ramesh auch an dass er bereit sei, sich mit den Untergangsszenarien von Al Gore und dem IPCC anzulegen.

„Mich beunruhigt“, so Ramesh weiter „dass alle bisherigen Studien von westlichen Wissenschaftlern kommen. Es ist dringend an der Zeit, dass Indien selbst mehr in die Forschung investiert um zu verstehen, was im Ökosystem Himalaya vor sich geht.“

Wie zu erwarten war, hat sich der Minister mit diesen Äußerungen nicht nur Freunde gemacht. Besonders scharf wurde er von seinem Landsmann, dem Vorsitzenden des IPCC Rajendra Pachauri, angegriffen. Dieser bezeichnete die Verlautbarungen Rameshs als „extrem arrogant“ und stellte die wissenschaftliche Glaubwürdigkeit des gesamten Reports in Frage. Auch der Autor der Studie, der Geologe und ehemaliger stellvertretender Direktor der Geological Survey of India (GSI) Vijay Kumar Raina, musste sich Kritik von Pachauri gefallen lassen der dabei explizit erwähnte, dass es sich bei Raina schließlich um einen Geologen im Ruhestand handele.

Zu solch scharfen Worten kam es wohl weil auch Raina es wagte, offen den Ergebnissen des IPCC-Berichts von 2007 zu widersprechen: „Die Gletscher im Himalya schmelzen, aber es gibt da nichts dramatisches, nichts was andeutet dass sie innerhalb von Jahrzehnten verschwinden.“ Der Fehler der westlichen Wissenschaftler wäre, die Schmelzraten aus anderen Teilen der Welt einfach auf den Himalaya zu übertragen: „In den Vereinigten Staaten liegen die höchsten Gletscher in Alaska immer noch unterhalb den niedrigsten im Himalaya. Unsere 9500 Gletscher befinden sich in sehr großen Höhen. Es ist ein komplett anderes System … So lange es den Monsun gibt werden wir auch Gletscher haben. Viele Faktoren sind zu berücksichtigen wenn wir herausfinden wollen wie schnell die Gletscher schmelzen, Niederschläge, Verschmutzung, Relief und Gelände.“

In der Studie war unter anderem herausgefunden worden, dass der Gangotri-Gletscher, die Hauptquelle des Ganges, den stärksten Rückzug 1977 erlebte und heute praktisch zum Stillstand gekommen ist. In dem Bericht, der die Daten aus 150 Jahren untersucht wurden 25 Gletscher im Detail analysiert. Damit stellt diese Arbeit die erste umfassende Studie dieser Art überhaupt in der Region dar. Zusammenfassend kamen die Forscher zum dem Schluss, dass Gletscher sich weder beschleunigt zurückziehen, noch dass sie sich als Indikatoren für einen globalen Klimawandel eignen.

…Average annual retreat of the glaciers, under observation, which generally was around 5m till up to late 50s of the 20th century, increased many folds in some glaciers in the Central and the Eastern Himalayas during the decade of mid seventies to late eighties, touching a value of as high 25m-30m as in the case of the Gangotri glacier. The retreat, with the advent of the decade of the nineties, began to slow down and in some cases like the Siachen glacier, Machoi glacier, Darung Drung glacier, Gangotri glacier, Satopanth-Bhagirath Kharak glaciers and the Zemu glacier, it has practically come down to stand still during the period 2007-09…

…Annual snow precipitation, during the accumulation season, is the parameter primarily responsible for the glacier having either a positive or a negative balance…

…We know today, with a great degree of certainty that glaciers can be considered as nature’s secular barometers, which can help in deciphering the climatic changes that the earth has undergone since a particular glacier has come into existence. But to postulate that a glacier can warn of the climate changes likely to take place in future is a big question mark. A glacier as, already, stated does not necessarily respond to the immediate climatic changes, for if it be so then all glaciers within the same climatic zone should have been advancing or retreating at the same time…

Vorhersagen über das Verschwinden der Gletscher sind Propaganda

Unterstützung bekam Raina auch von anderen indischen Geologen. So sagte etwa Rameshwar Bali, Professor für Geologie an der Universität Lucknow: „Vorhersagen die das Verschwinden der Himalaya Gletscher sehen sind Unsinn. Das ist organisierte Propaganda von Klimawandel Aktivisten.“ Ein weiterer Geologe, Anjani Tangri vom Uttar Pradesh Remote Sensing Applications Centre hat Satellitendaten und Expeditionsmessungen kombiniert und dabei ebenfalls gefunden, dass der Rückgang des Gangotri sich signifikant verlangsamt hat: „Trotzdem redet jeder nur von der globalen Erwärmung.“

Rajinder Ganjoo, Geologe an der Universität Jammu, hat vor kurzem eine Studie im Journal Climatic Change veröffentlicht, in welcher er den Einfluss des Wetters auf Zu- und Abnahme von Schnee auf dem Naradu-Gletscher untersuchte: „Es scheint Übertreibungen des Ausmaßes des Gletscherschwunds zu geben.“ Bei Untersuchungen des Siachen-Gletschers fand er eine Rückzugsrate von nur 60 cm pro Jahr – und nicht 7,5 m die von anderen Quellen angegeben wurden.

aktueller Nachtrag:   — Pallava Bagla, Science Magazine, 13 November 2009

Several Western experts who have conducted studies in the region agree with Raina’s nuanced analysis—even if it clashes with IPCC’s take on the Himalayas. The „extremely provocative“ findings „are consistent with what I have learned independently,“ says Jeffrey S. Kargel, a glaciologist at the University of Arizona, Tucson. Many glaciers in the Karakoram Mountains, which straddle India and Pakistan, have „stabilized or undergone an aggressive advance,“ he says, citing new evidence gathered by a team led by Michael Bishop, a mountain geomorphologist at the University of Nebraska, Omaha. Kenneth Hewitt, a glaciologist at Wilfrid Laurier University in Waterloo, Canada, who just returned from an expedition to mountain K2, says he observed five glacier advances and a single retreat in the Karakoram. Such evidence „challenges the view that the upper Indus glaciers are ‘disappearing’ quickly and will be gone in 30 years,“ Hewitt says. „There is no evidence to support this view and, indeed, rates of retreat have been less in the past 30 years than the previous 60 years,“ he says.

Quellen:

[1] Himalayan Glaciers – A State-of-Art Review of Glacial Studies, Glacial Retreat and Climate Change

[2] The Telegraph India – Experts dispute glacier fear in Himalayas

[3] Hindustan Times – Government quells panic over Himalayan glacial melt

[4] Roger Pileke Jr. Blog – IPCC vs. Indian Environment Ministry

[5] Guardian – India ‚arrogant‘ to deny global warming link to melting glaciers

Rudolf Kipp EIKE




Offizielle Klimadaten zeigen: CO2-Einfluss auf das Klima nicht nachweisbar!

Fangen wir mit den Daten an. Die Abbildung unten zeigt die mittlere globale Temperaturanomalie in Grad Celsius vom britischen Hadley Center von 1850 bis 2008.

Abbildung 1: Die Entwicklung der mittleren Globaltemperatur nach dem Hadley Center In der Abbildung ist der lineare Erwärmungstrend dargestellt. Dieser fogt der Gleichung: 

Linearer Erwärmungstrend ( °C) =  0,44*(2008-1850) /100 – 0,52 

Betrachtet man die Grafik dann fällt einem auf, dass der lineare Erwärmungstrend der Globaltemperatur von der realen Temperaturentwicklung als „Oszillierendem Trend“ überlagert ist. Diese Oszillierende Temperaturanomalie bewegt sich oberhalb und unterhalb der linearen Anomalie und kann mit folgender Gleichung beschrieben werden:

Oszillierende Anomalie = Anomalie – Lineare Anomalie 

Jetzt muss die Frage beantwortet werden, ob nach dem signifikanten Anstieg der CO2 Emissionen auch die Daten für die Temperaturanomalie einen Anstieg im Verlauf des letzten Jahrhunderts zeigen. Zur Beantwortung wenden wir uns zunächst den folgenden drei Fragen zu:

1. Wie sieht die lineare Erwärmung des letzten Jahrhunderts von 0,44 °C in 100 Jahren verglichen mit der linearen Erwärmung von vor 2 Jahrhunderten aus? 

2. Ist die oszillierende Anomalie im letzten Jahrhundert, nach der Ausweitung des Gebrauchs fossiler Brennstoffe, ungewöhnlich? 

3. Was ist der aktuelle Trend der globalen Temperaturanomalie? 

1.) Wie sieht die lineare Erwärmung des letzten Jahrhunderts von 0,44 °C in 100 Jahren verglichen mit der linearen Erwärmung von vor 2 Jahrhunderten aus?

Direkte Temperaturmessungen vor 1850 sind nicht verfügbar. Daher werden Proxy-Daten herangezogen um die Erwärmung von 1810 bis 1910 wie in nachstehender Grafik aufzuzeichnen. 

Abbildung 2: Die Temperaturanomalie vor 1910 nach Moberg et al. 2005 

Der lineare Temperaturanstieg aus dieser Abbildung errechnet sich nach der Gleichung: 

Linearer Erwärmungstrend ( °C) =  0,47(1910-1810)/100 – 0,63

Der lineare Temperaturanstieg von 0,47 °C in 100 Jahren von vor zwei Jahrhunderten ist also von ähnlicher Größenordnung wie die 0,44 °C in den letzten 100 Jahren. Es gab keine signifikante Änderung des linearen Trends in den letzten zwei Jahrhunderten. Ein Signal für CO2 als Ursache für den Temperaturanstieg kann demnach darin nicht gefunden werden. 

2.) Ist die oszillierende Anomalie im letzten Jahrhundert, nach der Ausweitung der Nutzung fossiler Brennstoffe, ungewöhnlich? 

Die lineare Erwärmung im letzten Jahrhundert zeigte kein Signal eines CO2-Einflusses. Wie sieht es aber mit der oszillierenden Anomalie aus? Gab es hier eine Veränderung, die durch CO2 Emissionen hervorgerufen wurde? 

Um das zu untersuchen, entfernt man den linearen Erwärmungstrend aus der Auftragung der Temperaturanomalie durch die Funktion „Detrend“ (etwa in der Online-Software WoodForTrees.org). Ein Wert von DETREND=0,706 lässt diesen Trend verschwinden, was sich darin äußert, dass die Grafik im Uhrzeigersinn gedreht wird, so dass die lineare Steigung als flache Linie erscheint. 

Abbildung 3 Oszillierende Temperaturanomalie in °C nach Daten des Hadley Centers 

Diese Grafik zeigt die folgenden globalen Temperaturveränderungen: 

• Abkühlung von 0,71 °C von 1878 bis 1911 (33 Jahre) 

• Erwärmung von 0,53 °C von 1911 bis 1944 (33 Jahre)

• Abkühlung von 0,48 °C von 1944 bis 1976 (32 Jahre) 

• Erwärmung von 0m67 °C von 1976 bis 1998 (22 Jahre) 

Zusätzlich zu den oben angeführten Daten existieren auch in den Medien Berichte, welche die dargestellten Erwärmungs- und Abkühlphasen jeweils begleitet haben: 

Globale Abkühlung 1878 bis 1911 New York Times (24. 02. 1895): Prospects of another Glacial Period Globale Erwärmung 1911 bis 1944:

New York Times (15. 05. 1932): Melting Polar Ice Caps to Raise the Level of Seas and Flood the Continents

Globale Abkühlung 1944 bis 1976: Newsweek (28. 04. 1975): The Cooling World.

Globale Erwärmung 1976 bis 1998 (Um nur eine Publikation stellvertretend zu nennen): Der Spiegel (11. 08. 1986): Das Weltklima gerät aus den Fugen (Mit dem mittlerweile legendären Kölner Dom unter Wasser

Die hier angeführten globalen Abkühl- und Erwärmungs-Phasen werden auch in der wissenschaftlichen Literatur beschrieben, wie in folgendem Artikel von Dr. Nathan Mantua:

Several independent studies find evidence for just two full PDO [Pacific Decadal Oscillating] cycles in the past century: "cool" PDO regimes prevailed from 1890-1924 and again from 1947-1976, while "warm" PDO regimes dominated from 1925-1946 and from 1977 through (at least) the mid-1990’s (Mantua et al. 1997, Minobe 1997).  

Abbildung 3 zeigt die oszillierende Anomalie von 0,39 °C für 1998 (das Super-El-Nino Jahr). Das ist die gleiche Größenordnung wie die im Jahr 1878 ermittelten 0,38 °C. Das zeigt deutlich, dass das Temperaturmaximum 1998, trotz der weiterverbreiteten Nutzung fossiler Brennstoffe, keine Ungewöhnlichkeit darstellt. 

Um herauszufinden ob eine Verschiebung der globalen Durchschnittstemperaturen vorliegt, kann man einen Normalverteilungs-Plot für die oszillierende Temperaturanomalie aufzeichnen. Wenn in einem solchen Graphen die meisten Datenpunkte für die oszillierende Temperatur auf einer Geraden liegen, dann kann man von einer Normalverteilung sprechen. 

Abbildung 4: Normalverteiluns-Analyse für die oszillierende Temperaturanomalie 

Wie diese Abbildung zeigt, liegen die meisten Datenpunkte der oszillierenden Temperaturanomalie auf einer geraden Linie, und das mit einem äußerst guten Korrelationsfaktor von 0,9923. Nur zwei Datenpunkte, 1911 und 1909, sind Ausreißer die eine Verschiebung der Temperatur von der Normalverteilung zeigen. Allerdings liegt diese Verschiebung weit vor der Zeit, bevor die Nutzung fossiler Brennstoffe überhaupt richtig begann und eine ähnliche Abkühlung fand auch in den 70er Jahren statt. Diese Abweichung hat somit höchstwahrscheinlich nichts mit einem CO2-Einfluss zu tun.  

Bei der beobachteten Normalverteilung der oszillierenden Temperaturanomalie ist es möglich, die obere und untere Grenze der Normalverteilung zu errechnen. Die Umkehrfunktion der Steigung der Gerade in der Normalverteilung entspricht dabei der Standardabweichung s. Daraus ergibt sich aus Abbildung 4: s = 1/6,6 = 0,15 °C. Bei der oszillierenden Temperaturanomalie bewegen sich 99,73% aller Daten innerhalb von ± 3 s = ± 0,45 °C. Dieser obere und untere Grenzwert schließt sämtliche Werte für Temperaturanomalien von 1850 bis 2008 ein, wie Abbildung 3 eindeutig zeigt. 

Wie man der Temperaturentwicklung von 159 Jahren in  Abbildung 3 entnehmen kann, bewegt sich die Globaltemperatur zwischen -0,32 °C und +0,4 °C, was einer Differenz von 0,72 °C entspricht. Als Ergebnis daraus stellt eine Erhöhung der Temperatur von -0,32 °C auf +0,4 °C oder eine Abkühlung um den gleichen Betrag die natürliche Variabilität der globalen Durschnittstemperaturen dar. Zusätzlich zu diesen oszillierenden Temperaturen gibt es eine lineare globale Erwärmung von 

0,44 °C in 100 Jahren.

In Abbildung 4 befinden sich sämtliche Temperaturen auf der rechten Seite (diese bedeuten globale Erwärmung) auf einer geraden Linie. Demnach gibt es keine Veränderung in der globalen Erwärmung. Kein CO2-Signal ist auszumachen. 

3.) Was ist der aktuelle Trend der globalen Temperaturanomalie? 

Betrachten wir nun  auf der rechten Seite von Abbildung 3 (Oszillierende Temperaturanomalie in °C), die rote kurve der Temperaturanomalien und auch die der grüne horizontalen Linie, die eine oszillierende Temperaturanomalie von 0 °C markiert. Wird sich die rote Kurve in den kommenden Jahren weiter nach unten bewegen und unter diesen Wert fallen, oder wird sie eine 180-Grad Wende beschreiben und zu noch höheren Werten als dem bisherigen Maximum steigen? 

Bei der hier gezeigten Normalverteilung der oszillierenden Temperaturanomalien beträgt die Wahrscheinlichkeit für einen Wert über dem Maximalwert von 1998 weniger als 1%. Der weitaus wahrscheinlichere Fall ist das Beibehalten des historischen Musters und des gegenwärtigen Trends. Sollte sich der in Abbildung 3 gezeigte Trend einer 33 jährigen Abkühlung (nach 1878 und 1944) auch diesmal wiederholen, wäre eine Fortsetzung der Abkühlung für die nächsten 22 Jahre, also bis 2031, zu erwarten. Dabei würden die Temperaturen wieder auf Werte ähnlich denen in den 70er Jahren zurückgehen, also den Anstieg der letzten drei Jahrzehnte weitestgehend rückgängig machen. 

Das das Maximum der Oszillation gerade 1998, also am Ende des Jahrhunderts auftrat, kann man durchaus als unglücklichen Zufall bezeichnen. Hätte sich die Oszillation 1998 auf einem Minimum befunden wie im Jahr 1911 (mit -0,33 °C)  befunden, wäre kein signifikanter Anstieg der Temperatur über das Jahrhundert beobachtbar gewesen (0,44 °C – 0,33 °C = +0,11 °C). Je nachdem, ob wir uns am Ende eines Jahrhunderts in einer Maximum oder Minimum Phase der Oszillation befinden, können wir also +0,83 °C (0,44 °C + 0,39 °C) beobachten, oder kaum irgendeine Erwärmung. 

In der Wissenschaft geht es um die Daten, Wissenschaft ist nicht Konsens oder Autorität. 

Die lineare globale Erwärmung im letzten Jahrhundert war absolut vergleichbar mit der Erwärmung im vorletzten Jahrhundert. Die oszillierende Erwärmung von 0,67 °C zwischen 1976 und 1998 ist ebenso natürlich wie die Abkühlung von 1878 bis 1911, die einen ähnlichen Wert (0,71 °C) erreichte. Abbildung 4 zeigt keine außergewöhnliche Erhöhung der globalen Durchschnittstemperatur die man auf CO2 zurückführen könnte. Es gibt sie nicht. Eine CO2-induzierte globale Erwärmung kann durch die Daten nicht gezeigt werden. 

Girma Orssengo, MASc, Ph.D. für American Thinker – Die Bearbeitung und Übersetzung besorgte Rudolf Kipp EIKE

                




Wird es in Grönland wärmer oder kälter?

Die Botschaft ist eindeutig und wird von vielen Medien gerne immer wieder verkündet. Durch steigende Temperaturen schmilzt das Eis in Grönland immer schneller. Was dabei unerwähnt bleibt ist, dass das Abschmelzen Grönlands wohl Jahrtausende in Anspruch nehmen würde. Außerdem müssten die Temperaturen dafür dauerhaft auf ein ungewöhnlich hohes Niveau steigen und da auch bleiben. Wenden wir uns also dem ersten Teil der Aussage zu. Steigen die Temperaturen in Grönland tatsächlich? Und sind sie heute wirklich ungewöhnlich hoch?

Erwärmung oder Abkühlung?

Eine erste Suche in der Wissenschaftsdatenbank WolframAlpha [2] zeigt eine ganz andere Entwicklung (Danke an Bloggerin Huén Ten für diesen Hinweis). Danach ist die Temperatur an der Südwestküste Grönlands seit Mitte der 90er Jahre dramatisch gefallen. Kein Anstieg also.

Allerdings könnte man jetzt zu Recht einwenden, dass es sich hierbei um eine einzelne Quelle handelt und die Temperaturen an einem einzelnen Ort nicht repräsentativ für eine Insel dieser Größe sein können. Außerdem gehen die Messungen nur bis 1983 zurück. Aber zum Glück gibt es noch weitere Quellen, wo sich direkt gemessene Temperaturen für weitere Orte auf Grönland finden lassen. Eine solche ist das Goddard Institute for Space Studies der NASA (GISS) [3]. Sucht man dort nach längeren Temperaturreihen, so findet man die Messstationen Godthab Nuuk an der Westküste und Angmagssalik an der Ostküste der Insel. Beide Stationen zeigen Messdaten, die mehr als 100 Jahre zurück reichen. Und beide Stationen zeigen, dass die Temperaturen in Grönland starken Schwankungen unterworfen sind. Ebenfalls gemeinsam ist diesen Stationen, dass die wärmste Periode im Beobachtungszeitraum in den 30er und 40er Jahren lag.

Ein ungewöhnlicher Anstieg in jüngster Vergangenheit? Fehlanzeige. Stattdessen scheint es seit einigen Jahren eher kälter zu werden. Diese Abkühlung in jüngster Zeit beschränkt sich nach Satellitenmessungen nicht nur auf Grönland, sondern betrifft die gesamte Arktis [4].

Quelle: GISS

Zusammenfassend kann man also sagen, dass nach diesen Ergebnissen die heutigen Temperaturen in Grönland weder außergewöhnlich, noch besonders hoch sind.

Dieser Befund wird auch vom Klimawissenschaftler Bo Vinther von der Universität Kopenhagen bestätigt. Im Rahmen einer Studie untersuchte er die Temperaturentwicklung in Grönland anhand historischer Messungen und konnte so eine Klimageschichte aufzeichnen, die bis ins Jahr 1784 zurückreicht [5]. Der Forscher verglich Daten von insgesamt 13 Messstationen auf der Insel und folgerte aus seinen Untersuchungen:

“Das wärmste Jahr in dieser erweiterten Temperaturaufzeichnung Grönlands war 1941, während die wärmsten Jahrzehnte die 1930er und 1940er Jahre waren.”

“The warmest year in the extended Greenland temperature record is 1941, while the 1930s and 1940s are the warmest decades.”

Das Eis erzählt die Temperaturgeschichte Grönlands

Eine sogar noch weiter zurückreichende Klimageschichte Grönlands lässt sich aus den Eisbohrkernen rekonstruieren. Durch direkte Messung der Temperatur in den Bohrlöchern kann man Temperaturen aus der Vergangenheit wesentlich genauer bestimmen als das mit so genannten Proxy-Messungen der Fall ist, wo Temperaturen indirekt aus anderen Parametern abgeleitet werden. Eine solche direkte Temperaturbestimmung ist von der dänischen Forscherin Dorte Dahl-Jensen an Eisbohrkernen von zwei unterschiedlichen Stationen (GRIP und DYE-3) durchgeführt worden [6].

Das Ergebnis war eine Rekonstruktion der Temperaturgeschichte Grönlands die 50.000 Jahre zurückreicht. In der jüngeren Vergangenheit, dem Holozän, das vor etwa 10.000 Jahren begann, fand Dahl-Jensen zwei Perioden, in denen die Temperaturen deutlich höher waren als heute. Vor 1000 Jahren lagen diese etwa 1 °C über denen heutiger Tage und für den Zeitraum von vor 5000 bis 8000 Jahren wurden sogar um 2,5 °C höhere Temperaturen gefunden.

Grönland wird kälter, nicht wärmer

Wenn man all diese Befunde zusammen betrachtet, kann man Aussagen, nach denen Grönland sich in unserer Zeit außergewöhnlich erwärmt, getrost in die Kategorie der Sagen und Mythen einordnen. Seit dem Ende der letzten Eiszeit gab es mindestens drei Perioden, in denen die Temperaturen zum Teil deutlich höher lagen als heute. Während des Holozän-Optimums, während der Mittelalterlichen-Wärmeperiode und zuletzt in den 30er und 40er Jahren des letzten Jahrhunderts. Seitdem ist es also kälter geworden. Aussagen, die diese Befunde unterschlagen oder ihnen sogar widersprechen dienen in erster Linie wohl der Panikmache. Bedenken Sie dies bitte, wenn Ihnen das nächste mal jemand mit der Begründung einer außergewöhnlichen Erwärmung an den Geldbeutel oder an die Freiheitsrechte will.

[1] Maktoob.com

[2] Grönland Temperatur auf WolframAlpha (im pulldown-menue “all” wählen)

[3] Goddard Institute for Space Studies

[4] Klimanews: Die Arktis zeigt seit 2005 eine Tendenz zur Abkühlung

[5] Journal of Geophysical Research: Extending Greenland temperature records into the late eighteenth century

[6] Science: Past Temperatures Directly from the Greenland Ice Sheet

von Rudolf Kipp EIKE: Zuerst erschienen im Science Skeptical Blog




Die Umkehr?

Angesichts dieser Gemengelage erstaunt es daher, dass sich die renommierteste Tageszeitung Deutschlands, die FAZ, mit dem ganzseitigen Artikel „Ein Limit von zwei Grad Erwärmung ist praktisch Unsinn“, erschienen am 28.10, dem Trend entgegenstellt. In diesem Beitrag werden drei Direktoren von hochrangigen deutschen Forschungs-Instituten von den FAZ-Redakteuren Horst Rademacher und Joachim Müller-Jung zu ihrer Meinung und Einschätzung über die Klimaproblematik befragt. Es handelt sich um Frau Prof. Karin Lochte (Biologin), Direktorin des Alfred-Wegener- Instituts für Polar- und Meeresforschung (AWI) in Bremerhafen, Prof. Volker Mosbrugger (Paläontologe) , Direktor am Senckenberg-Forschungsinstitut und Museum in Frankfurt und Prof. Reinhard Hüttl (Forstwirtschaft/Bodenwissenschaft), Direktor am Deutschen Geoforschungszentrum (GFZ) in Potsdam. Diese drei Institutsleiter wollen ihre Aussagen im Interview auf der in Kürze stattfindenden Berliner Konferenz „Klima im System Erde“ zur Sprache bringen.

Im Interview, das hier als pdf-File beiliegt, wird der Unsinn der von der Politik geforderten Beschränkung einer weiteren globalen Erwärmung von maximal zwei Grad Celsius dokumentiert. Einhelliger Tenor der befragten drei Professoren ist, dass das Phänomen „Klima“ viel zu komplex ist, um seine Beeinflussung auf einen einzigen Parameter beschränken zu können. Wir wollen die Argumentation der Befragten aber nicht weiter im Detail verfolgen, sondern verweisen hierzu auf den Originaltext des Interviews. Dies auch deswegen, weil die hier ausgesprochenen Zusammenhänge und Fakten den Lesern der EIKE-News längstens bekannt sind. Der Artikel enthält aber auch Information „zwischen den Zeilen“, er enthält Auslassungen und Widersprüche. Diese wollen wir uns jetzt näher ansehen:

 Zunächst zu den Fehlern und Unterlassungen, die insbesondere Frau Prof. Lochte unterliefen.

Frau Lochte führt zur Belegung eines ungewöhnlich „schnellen und bedenklichen“ Anstiegs der CO2-Konzentration in der Erdatmosphäre aus:

„ … Aber kein (historischer, Anm. der Verfasser) Anstieg ist so schnell wie das, was wir zur Zeit sehen. Die Frage, die zu klären ist, lautet: Ist das Kohlendioxid zuerst angestiegen und dann die Temperatur, oder ist die Temperatur angestiegen und danach das Kohlendioxid? Was hat was ausgelöst?“

Diese Frage, sehr geehrte Frau Lochte, ist längst entschieden, z.B. auch in Ihrem eigenen Hause, wo man in Ihren AWI-Jahresberichten u.a. das liest: "Eine detaillierte Untersuchung der Phasenbeziehung zwischen Temperatur und CO2  zeigt, daß die Glazial/Interglazial-Änderungen der CO2-Konzentration primär von der Temperatur kontrolliert werden und CO2 nur sekundär zu einer Treibhaus-Rückkopplung führt." [1].

Zum gleichen Ergebnis kommen auch andere Untersuchungen:

Dabei ergab sich für die Warmzeiten der letzten 450.000 Jahre: "Zuerst wurde es wärmer, dann stieg die CO2-Konzentration! Die zeitliche Verzögerung beträgt zwischen 500 und 1500 Jahren" [2], [3]

Ferner teilen Wissenschaftler für den Zeitraum der vergangenen 250 Mill. Jahre mit: "Rekonstruktionen der Klima-Vergangenheit machen deutlich, daß CO2 nicht die treibende Kraft für die Temperatur-Entwicklung in der Vergangenheit war" [4]

Weitere Quellen in [5] und [6]. Der renommierte Klimaforscher Prof. Jan Veizer verglich die unzutreffende Reihenfolge „erst CO2, dann Temperatur“ auf seinem Vortrag anlässlich der Berliner Klimakonferenz am 16.Juni 2009 mit einem Schwanz (CO2), der mit dem Hund (Temperaturen) wedelt [7]. Ob zudem der derzeitige CO2-Anstieg besonders schnell verläuft, wie Frau Lochte ausführte, ist zumindest fraglich. Zehntausende direkte CO2 Konzentrationsmessungen des 20. und 19. Jahrhunderts zeigen nämlich, dass in Zeiten weit vor dem industriellen Anstieg schon CO2-Konzentrationen über den heutigen Werten vorkamen [8].

Frau Lochte führte weiter aus:

„Insgesamt aber wird das Negative überwiegen. Zum Beispiel in Bangladesh, in den Trockengebieten in Afrika und Mittelamerika, aber auch in Monsunregionen…“

Hier ist Frau Lochte offenbar nicht auf der Höhe der aktuellen Erkenntnisse, denn die Trends sind genau gegenteilig, wie durch einige Zitate leicht zu belegen ist:

 “…IPCC has predicted that impoverished Bangladesh, criss-crossed by a network of more than 200 rivers, will lose 17 percent of its land by 2050 because of rising sea levels due to global warming.” [9] und weiter a.a.O.: “New data shows that Bangladesh’s landmass is increasing, contradicting forecasts that the South Asian nation will be under the waves by the end of the century, experts say. Scientists from the Dhaka-based Center for Environment and Geographic Information Services (CEGIS) have studied 32 years of satellite images and say Bangladesh’s landmass has increased by 20 square kilometres … annually.”

Entgegen den in den Medien verbreiteten Nachrichten einer angeblichen Wüsten-Ausdehnung berichtet das Magazin National Geographik soeben [10]: “Wüstenausdehnung, Trockenheit und Verzweiflung, das ist es, was die Erderwärmung bereit hält für die meisten Teile von Afrika  –  zumindest ist es das, was wir hören. Die sichtbar werdenden Tatsachen zeichnen eine sehr viel differenziertes Bild  – eines, in welchem steigende Temperaturen eine Wohltat sein kann für Millionen von Afrikanern in den trockensten Gebieten des Kontinents … Wissenschaftler sehen jetzt Signale, dass die Sahara und die angrenzenden Regionen ergrünen aufgrund zunehmenden Regens.“

Diese wissenschaftlichen Ergebnisse sind bereits schon populären Medien geläufig, etwa dem ZDF-Magazin “Abenteuer Wissen“: "Die Erderwärmung schreitet voran, die Wüsten werden wachsen und die Menschen vor dieser lebensfeindlichen Umwelt fliehen. Doch dieses Szenario stimmt nicht überall: Die Sahara nämlich wird feuchter und damit grüner werden als sie heute ist. Beweise dafür liefert die Wüste selbst – mitten in Libyen" [16]. Daraus ergibt sich schon jetzt: "Das Re­sul­tat [11] … ist eine Aus­wei­tung der Grün­flä­che zu Las­ten der Wüs­te Sa­ha­ra. Diese schrumpfte in den letzten 20 Jahren um ca. 300.000 km2 , d.h. … ein Gebiet fast so groß wie Deutschland (357.000 km2)".

Und sogar der SPIEGEL weiß inzwischen Bescheid, wenn er schreibt [12]: „Noch weitreichender sind die positiven Veränderungen hinsichtlich eines Ergrünens im Süden der Sahara, im afrikanischen Armenhaus SAHEL : Ground Zero ergrünt: Dürren, Hunger, Wüstenbildung – die Sahelzone gilt als Inbegriff einer Katastrophenregion. Nun gibt es gute Nachrichten: Viele Millionen Bäume wachsen in kargem Sandboden heran…. Auch seriöse Organisationen behaupten immer wieder, dass sich die Sahara Jahr für Jahr weiter nach Süden frisst, aber das stimmt so nicht. Seit 20 Jahren kommen allein im Niger jedes Jahr etwa eine viertel Million Hektar Baumbestand dazu.“ Das sind etwa 5 Millionen Hektar in den 20 Jahren, und abgeschätzt für die gesamte SAHEL-Zone etwa 300.000 km2“.

Frau Lochte sagte weiterhin:

„Diese Defizite in der Modellierung dürfen aber nicht dazu führen, dass wir sagen, das ist ja alles Blödsinn, was ihr modelliert, also lassen wir es sein. Die Modelle sind im Moment das einzige Werkzeug, das es uns ermöglicht, Einblicke in die Zukunft zu bekommen.“

Langfristige Zukunftsprognosen mit Klimamodellen sind definitiv „Blödsinn“, warum dies nicht deutlich sagen? Die Tatsache, dass Modellierung zur Zeit die einzige Möglichkeit ist, in die Klimazukunft zu schauen, ändert an dieser Tatsache nichts. Auch eine Wahrsagerin mit Glaskugel bietet die einzige „Möglichkeit“, in die Zukunft zu schauen. Die Tatsache dieser Einzigartigkeit verringert um nichts den Blödsinn der Glaskugel. Richtig ist nur, dass Klimamodelle per se nicht(!) blödsinnig sind. Sie sind wertvolle Hilfsmittel zur Erforschung von Detailfragen und haben dort ihren wohlverdienten Platz. Als langfristige Prognoseinstrumente sind sie dagegen unbrauchbar. Da befindet sich Frau Lochte sogar in krassem Widerspruch zum IPCC, das eine Vorhersagbarkeit des Klimas grundsätzlich ausschließt:

"… we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible" [13], oder auf deutsch  "In der Klimamodellierung sollten wir beachten, daß wir es mit gekoppelten, nichtlinearen, chaotischen Systemen zu tun haben, und deswegen sind Langzeitprognosen von zukünftigen Klimazuständen nicht möglich".

 Gegen Ende des Interviews sagte schließlich Frau Lochte

„Es ist ein wichtiges Ziel, den Zwei-Grad-Korridor anzustreben“.

Vor diesem abschließenden Satz der AWI-Direktorin verweilt der Leser in Ratlosigkeit. Das gesamte Interview und alle drei Professoren belegten die Sinnlosigkeit eines solchen Ziels, und am Ende dann dieses Statement! Ganz offensichtlich hat Frau Lochte hier die politische Korrektheit beachtet, ernst kann sie diesen Satz unmöglich gemeint haben. Frau Lochte ist sicherlich eine exzellente Biologin, von „Klima“ versteht sie aber leider nur wenig und vor allem kennt sie die einschlägige Fachliteratur nicht. Unkenntnis von Frau Lochte zeigt auch ihr ambivalentes Verhalten, auf populären Vorträgen sich weitgehend auf den von Al Gore vertretenen Klima-Unsinn zu stützen und die Presseverlautbarungen ihres eigenen Instituts, die wahrheitsgemäß berichten, zu ignorieren. EIKE hatte in dieser Angelegenheit Frau Lochte bereits einmal sehr höflich und verbindlich angeschrieben und um Erläuterung dieser Diskrepanz gebeten. Auf dieses Schreiben erfolgte bedauerlicherweise noch keine Antwort. Vielleicht findet sie ja doch einmal Zeit für eine Antwort, wir würden uns freuen. Dass sich Frau Lochte in ihrem interessanten Lernprozess allmählich der Wahrheit nähert, beweisen indes viele ihrer Antworten im Interview.

Die beiden anderen Befragten Professoren haben dagegen durchgängig sachkundig, korrekt und interessant berichtet. Wir erlauben uns lediglich in drei Punkten korrigierende Anmerkungen:

Prof. Mosbrugger gab an, „keine schlüssige Erklärung“ in Beantwortung der Frage anbieten zu können, warum seitens der Politik Anpassungsstrategien zugunsten der Reduktion von Emissionen auffällig vernachlässigt werden. Die Antwort ist für jedermann offenkundig und daher wohl auch Prof. Mosbrugger bekannt. Er wagt sie aber – und dafür haben wir sehr viel Verständnis – nicht explizit auszusprechen. „Bedrohung durch anthropogenes CO2“ ist für Politik, Versicherungswirtschaft, Wind- und Photovoltaikindustrie und den Maschinenbau (man denke nur an das geplante CCS-Verfahren, das lukrative Aufträge erwarten lässt) ein äußerst erfolgreicher Propagandafaktor, wie ihn keine Phantasie hätte besser erfinden können. Jede neue Steuer lässt sich mit der „Rettung der Welt“ vor dem „globalen Erwärmungstod“ bestens begründen, jede Versicherungsprämie angesichts prognostizierter höherer Schäden anheben usw. In Wirklichkeit ist das Thema „Klimawandel“ der seriösen Wissenschaft längst aus der Hand geglitten. Politik, mächtige Interessenverbände und Advocacy-Institute, wie das PIK mit ihren prominenten Vertretern Prof. Schellnhuber und Prof. Rahmstorf beherrschen die Szene. Und fast alle deutschen Medien helfen kräftig bei der Klima-Katastrophen-Propaganda mit.

Der zweite von uns korrigierte Punkt betrifft die Aussage von Prof. Hüttl „Wärmephasen waren nicht immer katastrophal“. Diese Aussage ist zwar politisch (und logisch) korrekt, in dieser Form aber höchst missverständlich. In Wahrheit waren Wärmephasen für die Menschheit niemals „katastrophal“, sondern im Gegenteil stets vorteilhaft. Völkerwanderungen gingen stets in Richtung wärmeren Klimas, niemals umgekehrt.

Der dritte von uns anzumerkende Punkt betrifft die physikalische Begründung der politischen „Zwei Grad Forderung“. Da auch in der Erwärmungsphase am Ende des vorigen Jahrhunderts weite Teile der Südhalbkugel unserer Erde kühler und nicht wärmer wurden, muss gefragt werden „wo soll denn die „Zwei-Grad-Regel“ greifen“? Dort, wo es sich am stärksten erwärmt hat? Oder soll gar ein Temperaturmittelwert der Erde genommen werden, den man sinnvoll gar nicht bilden kann, denn in der Physik gibt es keine Temperaturmittelwerte. Leider waren weder die FAZ-Redakteure, noch die drei befragten Institutsleiter für diesen interessanten physikalischen Aspekt wissenschaftlich zuständig.

Es wäre natürlich wünschenswert gewesen, wenn das Interview kurz auch einmal auf das IPCC-Kapitel 2.7 im wissenschaftlichen Bericht von 2001 eingegangen wäre, das keine Zunahme von Extremwettern, Hurrikanen, Dürren usw. entdecken konnte (im Bericht von 2007 brauchte dieses Thema daher nicht mehr aufgegriffen zu werden). Weitere interessante Fragen wären die nach der seit ca. 10 Jahren ablaufende globale Abkühlung gewesen, die der renommierte Klimaforscher Prof. Mojib Latif an Hand seiner Klimamodelle noch mehrere Jahrzehnte andauern sieht [14]. Und endlich hätten auch einmal die seit den 90-er Jahren des vorigen Jahrhunderts ununterbrochen erfolgten Petitionen und Manifeste von tausenden Naturwissenschaftlern und Klimaforschern, die sich gegen den ideologisch propagierten Klimawahn und die einseitige Sichtweise der politischen IPCC-Berichte wandten [15], kurz zur Sprache kommen können. Aber es ist ja noch Zeit für die FAZ, die mit dem Interview einen guten Anfang gemacht hat.

Schlussendlich ist jedenfalls zu betonen: Allen Beteiligten am Interview, Befragten und Redakteuren muss wegen ihres Muts, sich gegen die Übermacht der öffentlichen Klima-Hysterie gestemmt zu haben, allerhöchster Respekt ausgesprochen werden. EIKE gratuliert hierzu der FAZ sowie den drei befragten Institutsleitern!   

Quellennachweise:

[1] AWI-Report, 2004/05, S.138ff

[2] http://www.wasserplanet.biokurs.de/otreibh2.htm

[3] Fischer et al. Science Vol 283, 1999 und Mudelsee, QSR 20 (2001) 583-589).

[4]  U.Berner u. H.Streif; Klimafakten, Nägele, Stuttgart (2001).

[5] http://www.brighton73.freeserve.co.uk/gw/paleo/400000yrfig.htm 

[6] http://joannenova.com.au/global-warming/ice-core-graph/

[7] http://www.eike-klima-energie.eu/news-anzeige/1-berliner-klimakonferenz-gegen-den-mainstream-erfolgreich-abgeschlossen/?tx_ttnews[pS]=1249026385

[8] http://www.eike-klima-energie.eu/publikationen/ernst-georg-beck-diplbiol/eg-beck-publikation/die-vergessene-geschichte-des-co2/?tx_ttnews[pS]=1248582210

[9] Bangladesh gaining land, not losing: scientists; by Shafiq Alam Wed Jul 30, 9:41 AM ET DHAKA (AFP);

[10] Sahara Desert Greening Due to Climate Change? http://news.nationalgeographic.com/news/2009/07/090731-green-sahara.html

[11] Argus, 06.02.2007, http://www.oekologismus.de/?p=452#more-452

[12] SPIEGEL, 17/2009, S.136

[13] IPCC, 3. Ass.Rep., 2001, Sect. 14.2.2.2,  S. 774

[14] http://www.eike-klima-energie.eu/news-anzeige/global-cooling-paradigmenwechsel-des-ipcc/

[15] aufgeführt in http://www.eike-klima-energie.eu/fileadmin/user_upload/Bilder_Dateien/WCMSAlt/Presse_Klimaflops_060309_931.pdf

[16]

http://www.zdf.de/ZDFde/inhalt/1/0,1872,1020545_idDispatch:5236912,00.html

Prof. Dr. Horst-Joachim Lüdecke

Dipl.-Physiker

(EIKE-Pressesprecher)

Klaus-Eckart Puls

Dipl.-Meteorologe

(stellv. EIKE-Pressesprecher)

Related Files




Umwelt – Klima – Energie!

Die Themen Umweltschutz, Klima und Energie beherrschen  die Schlagzeilen in der Presse.  Ich möchte mich als Ingenieur pragmatisch mit diesen Themen befassen. Der Inhalt reicht eigentlich für mindestens 3 große Vortragstagungen über mehrere Tage aus, bei der hunderte von Wissenschaftlern und Experten über ihre Erfahrungen berichten würden. Ich habe mir überlegt, wie ich dieses Problem lösen kann. Ich möchte es so versuchen. Ich berichte nur über Fakten die weder wissenschaftlich noch ingenieurtechnisch widerlegbar sind, möchte Sie dabei aber bitten, und ich will versuchen, hierfür die Grundlagen zu legen, sich Ihre eigenen Gedanken zu machen, um diese extrem komplizierten und komplexe Fragen sich selbst beantworten oder eine Meinung bilden zu können. Alle nachfolgenden Themen sind technisch und vor allem wirtschaftlich eng miteinander verbunden. Wer diese Fragen einseitig, also nur unter Berücksichtigung einzelner Themen, zu beurteilen versucht, macht zwangsläufig schwere Fehler, die zu vollständig falschen Beurteilungen führen.

Nun zum 1. Themenkreis, Umweltschutz,

der eine extreme Bedeutung in der Bevölkerung erlangt hat. Für Ingenieure war dieser Begriff nicht neu. Anlagen dieser Art waren und wurden seit Jahrzehnten gebaut:

–        Abgasreinigungsanlagen zur Reinhaltung der Luft

Zur Abscheidung von:

–        Staub, Feinstaub, Aerosolen durch Elektro-, Schlauch- oder Spezialfilter;

–        Schwefeloxide  In Nass- oder Trockenreinigungsanlagen;

–        Stickoxide durch Katalysatoren;

–        Dioxide durch Aktivkoks –Aktivkohlefilter;

Es war nur eine Frage des kostenmäßigen Aufwandes, denn alle Maßnahmen müssen ja letztlich von der Bevölkerung bezahlt werden.  Diese Maßnahmen-Investitionen führten zu einer Verschlechterung des Wirkungsgrades bei Kraftwerken um etwa 2 – 4%. Die Investitionskosten lagen bei mehreren hundert Millionen.

Die politische Bedeutung des Umweltschutzes kam mit den „Grünen“ auf. Sie ist im Prinzip auch richtig, nur sollte alles sachlich mit fachlichen Überlegungen und nicht populistisch behandelt werden.  Joschka Fischer postulierte vor etwa 30 Jahren, und damit machte er die „Grünen“ stark, dass in 10 Jahren kein Blatt mehr auf den Bäumen sei, wenn die Rauchgase der Kraftwerke nicht entschwefelt würden. Stichwort: Saurer Regen.  Damit hat er die Grundlage zur „Antienergiepolitik“, die bis heute dauert, gelegt. Die Rauchgase der Kraftwerke wurden also entschwefelt und dann auch entstickt, also die Stickoxide und dann auch die Dioxine abgeschieden.  Dies muss von den Stromkunden bezahlt werden. Ob die Entschwefelung gerechtfertigt war, sei dahingestellt. Auch heute ist der Waldboden sauer, das hat nun nichts mehr mit dem Schwefelgehalt aus den Rauchgasen von Kraftwerken zu tun, sondern mit einem seit Jahrtausenden ablaufenden Vorgang in der Natur. Abfallholz, Blätter usw. vermodern im Wald. Dabei wird Humus erzeugt, der den Waldboden düngt, das ist nun wirklich nichts Neues. Nur bei der Vermoderung entsteht auch CO2, dieses löst sich im Regenwasser und führt zum „sauren“ Waldboden. Sprudelwasser  hat in etwa den gleichen ph-Wert. Der Einfluss der zusätzlichen Schwefelsäure aus Abgasen kann nur geschätzt werden. Niemand hat das je errechnet, kann er auch nicht. Meiner Meinung nach liegt er weit unter 1%, es könnten aber auch nur promille sein, oder promille von promillen.

Dann ein Wort zur Müllentsorgung. Seit über 100 Jahre wird oder wurde der Müll überwiegend in Verbrennungsanlagen entsorgt, eine Technik, in der Deutschland weltweit führend war. Dann kamen die Abgase in Verruf. Wir entwickelten neuartige bessere Rauchgasreinigungstechniken. Letztlich eine „Gasmaske“ mittels Aktivkoks, also des gleichen Materials, das in Gasmasken enthalten ist. Ich hatte diese Idee Herrn Umweltminister Matthiesen vorgeschlagen, der dies sofort in Herten verwirklichen ließ. Ergebnis ist, dass das Rauchgas sauberer ist als die angesaugte Verbrennungsluft. Die Verbrennung ist heute immer noch die billigste und sauberste Müllentsorgung, aber der Widerstand der „Umweltschützer“ gegen diese Technik hat nicht nachgelassen. Das Ergebnis ersehen Sie in Ihren ständig steigenden Entsorgungskosten. Vor kurzem entsorgten, gegen hohe Gebühren, sogar Überseeische Länder ihren Abfall in deutschen Verbrennungsanlagen, die alle mit dieser Technik ausgerüstet sind. Dies zeigt den weltweit hohen Standard unserer Müllverbrennungsanlagen. Das Wort Müll oder Abfall wird jetzt  durch die Bezeichnung Biomüll oder Bioreststoffe durch Umweltschützer ersetzt , die Anlagentechnik ist die gleiche. Wir hoffen, dass jetzt endlich Vernunft einkehrt, zum finanziellen Vorteil der Bürger.

Nächstes Thema: Kraft-Wärmekopplung, also die kombinierte Erzeugung von Strom mit Nutzung der Abwärme. Diese Technik wurde nun wirklich nicht von den Umweltpolitikern erfunden. Sie wird seit über hundert Jahren allen  Hochschulen gelehrt. Grund für die Anwendung war aber bei den vielen hundert Anlagen, die in der Zeit gebaut wurden, als die Politiker diese  Technik noch nicht als politisierendes populistisches Argument erkannt hatten, stets die Frage der Wirtschaftlichkeit. Diese konnte in Modellrechnungen auf etwa  1% Genauigkeit berechnet werden. Die Abwärme kann aber nur dann genutzt werden, wenn Abnehmer, also Käufer, dafür vorhanden sind. Das ist aber, abgesehen von der Abwärmeverwertung in  wärmeverbrauchenden Industriebetrieben, nur zu Heizzwecken möglich. Im Sommer wird nicht geheizt, dann fehlen diese Abnehmer. Noch in den 50-etwa 80iger Jahren wurde jährlich in Deutschland etwa 100-150 Anlagen dieser Art gebaut.  Heute nur noch vereinzelt, trotz der Subventionierung. Es lohnt sich einfach aus wirtschaftlichen Gründen nicht.  Bei Müllverbrennungsanlagen, oder neu, den Bioabfall- und Bioreststoffverbrennungsanlagen macht diese Technik wirklich Sinn, denn die Erlöse aus Strom- und Abwärmeverkauf mindern die Entsorgungskosten, doch auch hier sind „Umweltexperten“ aus nicht mehr nachvollziehbaren Gründen dagegen.

Bei der Abwärmeverwertung geht ein Teil der Energie des Dampfes, die sonst zur Stromerzeugung genutzt wird, verloren. Abwärme auf Umweltniveau ist wertlos. Nur eine Nutzung/ Entspannung des erzeugten Dampfes bis auf den absoluten Nullpunkt, also  0 grad Kelvin oder  -273grad C ermöglicht einen 100%igen Wirkungsgrad bei der Stromerzeugung. Dieses thermodynamische Gesetz ist ein Naturgesetz, es kann von Ingenieuren nicht beeinflusst werden. Alle diese Fakten werden in der politischen Diskussion nicht erwähnt. Wenn solche Anlagen mit Steuergeldern  subventioniert werden, ist das nach meiner Ansicht Geldverschwendung.

 

Aber wir Ingenieure haben mit  Ideologen so unsere Probleme:

–        Wenn wir sagen, das Problem ist technisch lösbar, so wird es meist von den Umweltschützern in Frage gestellt. Ständig werden neue unrealistische, ja illusionistische Gegenthesen verbreitet. Selbst der Nachweis, dass es technisch geht, wird nicht akzeptiert.

–        Wenn wir aber sagen, das geht auf Grund von physikalischen und thermodynamischen Natur/Grundgesetzen nicht, dann wird das als Verweigerungshaltung interpretiert.

–        Das gleiche gilt für Forderungen nach Entwicklungen neuer Technologien, die seit vielen Jahrzehnten untersucht werden, leider ohne Erfolg, und bei denen sich auch keine erfolgversprechenden Lösungen abzeichnen.

–        Vor allem aber Fragen der Kosten und der Wirtschaftlichkeit werden völlig falsch beurteilt, ja meist gar nicht in Betracht gezogen. All dies hängt in der politischen Diskussion aber nun mit dem Thema Klimaschutz und Erderwärmung durch CO2 zusammen. Ich möchte ausdrücklich betonen, um alle etwaigen Missverständnisse zu vermeiden, dass Maßnahmen zur Einsparung von Energie richtig und erforderlich sind, wenn sie bezahlbar sind. Dies war eine meiner wesentlichen Aufgaben und Ziele während meiner ganzen beruflichen Tätigkeit.

Und damit wären wir beim 2.Thema.

Frage ist, kann CO2 einen nennenswerten Einfluss auf das Klima auf dem Planeten Erde haben? Diese Frage ist fast zu einer existenziellen Glaubensfrage mutiert. In den USA haben ca. 34.000 Wissenschaftler Herrn Obama aufgefordert, das Thema CO2 aufzugeben, da CO2 keinen nennenswerten Einfluss auf das Weltklima haben kann. Diese These widerspricht aber den politischen Bestrebungen der „Antienergie Lobby“.  Ich habe mir auch Gedanken darüber gemacht, und diese in einer Arbeit unter dem Thema „Klimafakten“ ausgearbeitet.

Wichtigste Grundlage bei meiner Ausarbeitung ist das unter der Regie von Herrn S. Gabriel in Niedersachsen von drei wissenschaftlichen Instituten erarbeitete und herausgegebene Werke  „Klimafakten“, -ISBN 3-510-95872-1-. Ich habe es dabei, sie können es gerne einsehen.  Für mich das beste Werk und vor allem auch fundierteste, ja sogar spannend zu lesende Werk mit dieser Thematik, das erschienen ist.

Hier steht in der Einleitung:

–        „Es ist schwierig oder gar unmöglich, zwischen natürlicher Klimaentwicklung und einer durch den Menschen beeinflussten Klimaschwankung zu unterscheiden. Es bleibt festzuhalten, dass sich zahlreiche äußere Einflussgrößen des Klimas bislang nicht mit hinreichender Genauigkeit fassen lassen. Auch die komplexen internen Prozessabläufe, die das Klima sowie dessen Zustände beeinflussen, sind nicht hinreichend entschlüsselt“.

In einem Bericht der amerikanischen National Academy of Sciences (NAS) steht:

–        „ Unsere Kenntnis der Mechanismen des Klimawechsels sind so bruchstückhaft wie unsere Daten. Nicht nur sind die grundlegenden wissenschaftlichen Fragen großenteils unbeantwortet, sondern in vielen Fällen wissen wir nicht einmal genug, um die entscheidenden Fragen zu stellen“.

Ähnliche Formulierungen und Vorbehalte finden sich auch im IPCC – Bericht, der Grundlage für alle Klimakonferenzen ist. Diese sind ehrlichen, überzeugenden Darlegungen, die in dem Werk „Klimafakten“ detailliert begründet werden, mit  eingehender Beschreibung der wesentlichen Einflussfaktoren auf das Klima.

Die wesentlichsten sind u.a.:

–        Temperatur der Luft; Temperatur der Atmosphäre;

–        Niederschläge; Verdunstung;  Luftfeuchtigkeit;

–        Wind; Bewölkung; Nebel;

–        Strahlungshaushalt; Sonneneinstrahlung; kosmische Strahlung;

–         Wasserzirkulation;

–        Wärmetransport in und durch die Meeresströmungen in den Ozeanen;

–        Wärmeaustausch zwischen Atmosphäre, Land und Ozeanen;

–        Präzessionskreis der Erdrotationsachse;

–        das Heiße innere der Erde und der Ozeane; Vulkantätigkeiten;

–        mineralogische Zusammensetzung der Erdkruste; Gasschichten und Gashüllen in der Atmosphäre;

–        die Oberfläche des Planeten Erde mit Eiskammern und Wüstengebieten;  Verwitterung;

–        Wärmeabstrahlung ins Weltall, und letztlich Einflüsse aus dem gesamten Weltall.

Diese wesentlichen in dem Werk einzeln beschriebenen Faktoren können noch beliebig erweitert werde, doch die NAS hat ja  gesagt, dass wir noch nicht einmal wissen, welche Faktoren das sein könnten. Dass  deutsche „Wissenschaftler“ verschiedener ÖKO-Institute, vor allem die Herren Prof. Schellnhuber und Rahmstorf dies alles wissen wollen, erscheint mir persönlich mehr als dubios. Auch die umfassendsten Modellrechnungen mit den größten Rechnern und Rechenprogrammen können diese Fragen nicht beantworten.  Die größten und modernsten Computer rechnen nur das aus, was mit den einzelnen Faktoren in die Programme eingegeben wird. Hier hat jeder ausreichende Variationsmöglichkeiten.

Hierzu noch ein Zitat aus „Klimafakten“:

–        „Die Klimamodelle, auf deren Vorausberechnung sich die ganzen „Global Warming“  Theorie stützen, sind grob falsch, unter anderem deshalb, weil der Einfluss der Wolken und vieler anderer, auch von der Sonne kommender Effekte völlig unzureichend berücksichtigt sind. Das stärkste Treibhausgas ist nicht CO2 sondern Wasserdampf. Rund 2/3 des gesamten sogenannten Treibhauseffektes der Erdatmosphäre wird vom Wasserdampf verursacht“.

Bei der Beurteilung des Klimas muss vor allem beachtet werden, dass keine regionalen Betrachtungen angestellt werden dürfen, sondern nur globale. Alle regionalen Beobachtungen führen bei einer Klimadiskussion zu grundlegend falschen Schlüssen.

Die USA-NASA-  messen seit 1979 mittels Satelliten die globale Temperaturverteilung auf dem gesamten Globus.

Danach wurde von 1979 bis 1986 eine niedrigere mittlere Temperatur bis -0,1 grad C gemessen. Danach stieg die Temperatur bis 2005 auf + 0,3 grad C an. Seitdem vermindert sie wieder und erreichte 2008 die gleiche mittlere Temperatur wie 1979. 2009 liegt sie bisher bei -0,1 gradC.

Prof. Menzel, Rektor der Fachhochschule Ruhr, früher Dortmund, stellte in einem Vortrag Anfang diese Jahres die These auf, dass für Klimaschwankungen vor allem die Sonnenstrahlung –Sonnenflecken- verantwortlich sein könnten. Er ermittelte auf Grund seiner Beobachtungen und Berechnungen, dass z.Zt. die mittlere globale Temperatur weiter sinkt, wir also vor einer „neuen kurzen Eiszeit“ stehen. Er sagt wörtlich, dass er sich als Wissenschaftler schäme, wenn Professoren  deutscher Klimainstitute, die nur Halbwahrheiten publizieren, als Wissenschaftler bezeichnet würden, dann wolle er keiner mehr sein.  Meine Frage:  ich möchte wissen, welcher und wie viele Politiker, die über diese Dinge oft rein populistisch reden, dieses Werk das, unter der ministeriellen Regie von Herrn Gabriel entstanden, gelesen haben?

Doch nun einige Worte zur Funktion des CO2 in der Atmosphäre.

CO2 ist ein Gas, das bei allen Verbrennungs- und Atmungsvorgängen entsteht.

Zusammengefasst:

–        CO2 ist ein Spurengas, das in der Atmosphäre mit einem Anteil von 380ppm oder 0,038 % enthalten ist;

–        Es entsteht bei allen Verbrennungsvorgängen, also von Holz, Kohle, Erdöl, Erdgas, kohlenstoffhaltigen Abfallstoffen usw.

–        Ferner durch Atmung von Menschen und Tieren und bei der Vermoderung von holzartigen Abfällen in der Natur, sowie bei Vulkanausbrüchen über der Erde und im Meeresboden.

–        Zwischen CO2 aus Verbrennungsprozessen und durch Atmung der Menschen besteht chemisch und damit auch hinsichtlich einer eventuellen Auswirkung auf das Klima kein Unterschied;

–        CO2 ist der beste Pflanzendünger, die Land- und vor allem Forstwirtschaft haben hierdurch bedeutende Vorteile;

–        Wissenschaftliche Untersuchung im Eis der Polargegenden habe zweifelsfrei gezeigt, dass eine Erhöhung des CO2-Gehaltes in der Atmosphäre stets Folge aber nie Ursache einer Erwärmungsphase war;

–        Es gibt keinen einzigen wissenschaftlichen Beweis, dass CO2 einen Einfluss auf das Klima hat;

Daraus folgt:

–        Ohne CO2 ist der Planet Erde unbewohnbar, Sauerstoff und Kohlendioxid sind die wichtigsten Gase in der Luft, die Menschen, Tiere und Pflanzen zum Atmen benötigen.

Hier eine kurze Modellrechnung, die jeder sofort ohne Rechenprogramm nachvollziehen kann:

–        Die Menschen atmen im Schnitt bei normaler Belastung etwa 320kg CO2/Jahr aus;

–        Der CO2-Ausstoss der Tiere wird in etwa in der gleichen Größenordnung angenommen;

–        Hochgerechnet auf 82 Millionen Einwohner der BRD sind dies ca. 30 Millionen toCo2/Jahr;

–        Der gesamte anthropogene CO2-Ausstoß der BRD beträgt ca. 870 Millionen toCo2/Jahr;

–        Der gesamte weltweite CO2-Ausstoss beträgt ca. 28,2 Milliarden to/Jahr;

–        Damit beträgt der Anteil der BRD weltweit 3,1%;

–        Es ist das Ziel der Bundesregierung, diesen Ausstoß in den nächsten 10 Jahren um 20%, also um ca. 200 Millionen to zu senken;

–        Die CO2- Produktion allein in China beträgt ca.3,5 Milliarden toCO2/Jahr, diese steigert sich in diesem Entwicklungsland um ca. 10%/Jahr, also um ca. 350 Millionen  to;

–        Damit produziert allein China pro Jahr etwa doppelt so viel CO2 zusätzlich, wie die BRD in 10 Jahren einsparen will;

–        Ähnliche Steigerungsraten haben  die anderen großen Entwicklungsländer Indien, Brasilien, alle asiatischen Staaten usw.;

Es ist leicht zu erkennen, dass die Zielsetzung der BRD völlig wirkungslos bleiben wird, wenn das CO2 überhaupt eine klimarelevante Bedeutung hätte, denn wir haben wissenschaftlich gesehen keine begründbare globale Erwärmung, sondern lediglich die seit Jahrtausenden vorkommenden periodischen Temperaturschwankungen. CO2 spielt dabei keine erkennbare Rolle. CO2 als „schmutziges Gas“ oder gar „Giftgas“ zu bezeichnen, wie öfter von Presse und Politikern zu hören, ist ein Zeichen von fehlender Bildung.

Alle CO2 – Theorien basieren nur auf Rechenmodellen, hierzu muss man folgendes wissen:

–        Die Zahl der unbestimmten Faktoren ist das Maß der Ungenauigkeit der Rechnung;- ein mathematischer Grundsatz;

–        Jedes Institut kann beim derzeitigen Erkenntnisstand der Klimaforschung die Faktoren in die Rechenprogramme so eingeben, dass das Ergebnis herauskommt, das man vorher habe will;

–        Die ganze „Klimaphilosophie“ beruht auf solchen Modellrechnungen;

Herr Dr. Dittrich, früher Entwicklungschef bei Thyssen, hat die Modellrechnungen des Potsdamer  ÖKO-Institutes mit dessen eigenen Programmen nachgerechnet und hat in mehreren Beiträgen,  nachgewiesen, dass in diese Berechnungen völlig falsche Werte eingesetzt worden sind.  Die Bundesregierung kennt diese Ausarbeitungen, Herr Gabriel, ist informiert, ein erbetener Besprechungstermin konnte bis heute nicht vereinbart werden.

Nun zum 3. Themenkreis, der Erzeugung elektrischer Energie.

Hierzu folgende Thesen als Grundlage zur Beurteilung:

–        Elektrische Energie, also Strom, wird in Kraftwerken durch Verbrennung von kohlenstoffhaltigen Brennstoffen verschiedener Art, vor allem durch Steinkohle, Braunkohle, Erdgas und  Erdöl.

–        Dabei entsteht durch die Verbrennung des Kohlenstoffs CO2, das ist verbrennungstechnisch nicht vermeidbar;

–        Aus den erzeugten Verbrennungsgasen, die Temperaturen von ca. 1.500 grad C haben, wird Dampf mit hohen Drücken und Temperaturen erzeugt. Dieser Dampf wird in Dampfturbinen, die Generatoren antreiben, zur Stromerzeugung genutzt;

–        Aller erzeugte Strom, auch der aus Windkraftanlagen,  wird praktisch in gleichartigen Generatoren erzeugt, nach identischem physikalischen Prozess;

–        Nach Einspeisung des Stroms in die Strom-Übertragungsnetze kann nicht mehr unterschieden werden, in welchen Anlage der Strom erzeugt worden ist;

–        Weiter wird Strom in geringerer Menge in Erdgas/Erdöl-Gasturbinen, Dieselmotoren, Wasserturbinen, Windturbinen, die alle Generatoren antreiben, und in Solaranlagen erzeugt.

Bei der Stromerzeugung müssen folgende Kernfragen beachtet werden, sie müssen die Grundlage jeder Energiepolitik sein:

–        Die Stromerzeugung ist der einzige Produktionsprozess in der Wirtschaft, bei dem die Nachfrage unmittelbar und in Sekunden die Höhe der Produktion bestimmt;

–        Die Speicherung von Strom zum Ausgleich von Belastungsschwankungen ist nur bedingt und mit hohen Kosten und Wirkungsgradverlusten möglich, also aus wirtschaftlichen Gründen nur in geringem Umfang machbar;

–        Die Entwicklung von Speichermöglichkeiten, vor allem von Batterien, ist seit Beginn der Stromerzeugung vor mehr als 140 Jahren Schwerpunkt aller weltweiten Forschungsarbeiten. Alle Anstrengungen sind de facto erfolglos geblieben. Es zeichnet sich auch leider kein technisch und wirtschaftlich erfolgversprechender Durchbruch an;

–        Alle Stromerzeugungsanlagen müssen daher regelbar sein, das heißt, sich den Schwankungen in den Übertragungsnetzen anpassen können;

–        Auf Grund des Gesetzes, dass die Stromversorgung für alle Abnehmer gesichert sein muss, muss die installierte Kraftwerksleistung in der Lage sein, die Stromversorgung auch bei den höchsten Belastungsspitzen sicherzustellen, die Kraftwerke müssen aber auch im Teillastbereich betreibbar sein;

–        Alle konventionellen Kraftwerke sind hierzu in der Lage;

–        Die Anlagen mit „Erneuerbaren Energien“ können dies nicht, sie erzeugen nur Strom, wenn der Wind weht und die Sonne scheint;

–        Der in diesen Anlagen erzeugte Strom muss von den großen Kraftwerksbetreibern aber auf Grund des EEG-Gesetzes immer abgenommen und gekauft werden. Dadurch müssen zwangsläufig bestehende und am Netz befindliche Kraftwerke im Teillastbereich unwirtschaftlichen  Strom produzieren. Die hierdurch entstehenden Kosten werden den Stromabnehmern durch  höhere  Preis verrechnet.

Die Kosten der Stromerzeugung bis zur Einspeisung in die Übertragungsnetze in den verschiedenen Anlagen sind in etwa folgende:

–        Wasserkraftwerke: ca. 4,3 cent/kwh;

–        Kernkraftwerke:       ca. 2,65 cent/kwh:

–        Braunkohlekraftwerke:  ca. 2,40 cent/kwh;

–        Steinkohlekraftwerke: ca. 3,35 cent/ kwh;

–        Erdölkraftwerke: ca. 4 – 5 cent/kwh;

–        Erdgaskraftwerke:  ca. 4,90 cent/kwh;

–        Windkraftwerke:  ca. 10 – 16 cent/kwh;

–        Solaranlagen:  ca. 40 – 60 cent/ kwk;

Als Ingenieur war ich 40 Jahre lang bemüht, meist die Wirkungsgarde von Stromerzeugungsanlagen um wenige 1/10 % zu verbessern. Dass Politiker heute einen Verteuerungsfaktor von 5 – 30, also um 500% bis zu 3.000% für „machbar“, also der Bevölkerung für zumutbar, halten, darüber soll sich jeder seine eignen Gedanken machen.

Die Erzeugungskosten des Stroms aus „Erneuerbaren Energien“, also aus Wind- und Sonnenanlagen, können so lange nicht wirtschaftlich werden, bis es wirtschaftliche Speichermöglichkeiten gibt, und diese sind seit hundert Jahren nicht in Sicht und werden in den nächsten Jahrzehnten auch nicht zur Verfügung stehen. Daher werden sie für diesen Zeitraum auch nicht wirtschaftlich werden können, alle anderen Aussagen sind illusionistisch.

Noch einmal die Kostenproblematik dieser Anlagen:

–        Auf Grund des EEG-Gesetzes, muss der in Anlagen mit Kraft-Wärmekopplung, in Wind- und Sonnenanlagen teuer erzeugte Strom von den Energieversorgern zu hohen Preisen abgenommen werden und bezahlt werden;

–        Die Kosten werden in die Strompreise für alle Verbraucher eingerechnet , der Strom wird also verteuert;

–        Nach Ansicht von Politikern sind dies keine Subventionen;

–        Zusätzlich werden die Investitionskosten von „Erneuerbaren Energie“ aus Steuermitteln mit Milliardenbeträgen hoch subventioniert;

Aus diesen Überlegungen heraus, und weil die weltweiten Reserven an den Edelenergien Öl und Gas irgendwann einmal enden oder sehr teuer werden, werden weltweit neue Kernkraftwerke geplant und gebaut. Diese These wird weltweit als richtig angesehen wird, nur nicht in Deutschland. Eine gesicherte Versorgung der Welt ohne Stromerzeugung aus Kernkraftwerken ist auf Dauer unmöglich, also eine Illusion. Vor allem die Staaten, die über die größten eigenen fossilen Energie-Rohstoffe verfügen, wollen Kernkraftwerke bauen. Nur nicht Deutschland, das rohstoffärmste Land der Welt. Dass elektrische Energie in Kraftwerken mit Verbrennung von kohlenstoffhaltigen Medien erzeugt wird, dürfte bekannt sein. Es sind feste und flüssige Brennstoffe. Die Energiepolitik der 50iger bis etwa 80iger Jahre ging von dem Grundsatz aus, in Großkraftwerken möglichst nur feste Brennstoffe, also Kohle/Braunkohle zu verbrennen. Die flüssigen und gasförmigen „Edelbrennstoffe“ Öl und Gas sollten überwiegend zur Nutzung in kleineren Anlagen, also Haushalten und Kraftfahrzeugen, sowie als Grundstoffe für chemische und verfahrenstechnische Prozesse dienen, da die  Vorkommen dieser Brennstoffe auf der Erde endlich sind und gestreckt werden sollen. Weiter wurde damals schon mit großen Preissteigerungen bei einer Verknappung gerechnet.

Bei einem Vortrag am 19.Juni 2009 in der Düsseldorfer Akademie der Wissenschaft des Landes NRW hat Herr Prof. Dr. Carl Friederich von Weizäcker in einem umfassenden Vortrag nachgewiesen, dass die Energieversorgung der Welt ohne Nutzung der Kernkraft auf Dauer unmöglich ist.

Für die BRD ergeben sich aus dieser Aussage folgende Probleme:

–        Wenn in Deutschland keine neuen Kernkraftwerke gebaut werden, dann tun es unsere Nachbarn an unseren Grenzen. Die dann zwangsläufig höheren Stromkosten gehen voll zu Lasten der Deutschen Verbraucher;

–        Wegen des hohen Anteils an Strom aus Kernkraftwerken liegen die Strompreise in Frankreich in allen Tarifgruppen bei etwa 50% der deutschen Tarife;

–        Z.Zt. sind weltweit etwa 400 Kernkraftwerke in der Planung. Für jedes dieser Kernkraftwerke werden ca. 3 Milliarden Euro investiert, das sind 1,2 Billiarden Euro;

–        Die deutschen Kraftwerksbauer hatten einen Anteil von etwa 20% am Weltmarkt, damit gehen der deutschen Wirtschaft rund 240 Milliarden Aufträge verloren, mit den entsprechenden Arbeitsplatzverlusten;

Die in Deutschland in Betrieb befindlichen Kernkraftwerke, auch die älteren Anlagen, sind unzweifelhaft mit die besten und sichersten weltweit. In allen Betriebsjahren ist nicht ein einziger Unfall mit Strahlungsfolgeschäden erfolgt, weder beim Bedienungspersonal und schon gar nicht in der Bevölkerung. Diese sicheren Anlagen sollen jetzt, da weltweit ca. 400 neue Kernkraftwerke in Planung sind, stillgelegt werden. Einen größeren volkswirtschaftlichen Unsinn kann man nicht erdenken.

Zur Beurteilung der nuklearen Probleme bei Störungen in Kernkraftwerken hat die Internationale Atomenergiebehörde Beurteilungskriterien festgelegt. Dies beinhalten 8 Störungsstufen die folgende Aspekte berücksichtigen: Radiologische Auswirkungen außerhalb der Anlage; Radiologische Auswirkungen innerhalb der Anlage; Beeinträchtigung von Sicherheitsvorkehrungen. Diese werden charakterisiert nach Unfällen, Störfällen und Störungen.

In den letzen 15 Jahren traten in allen deutschen Kernkraftwerken 2198 sogenannte meldepflichtige Ereignisse ein. Hiervon betrafen 3 die Stufe 3, 98% die Stufe 0. Selbst die Störungen im KKW Krümel wurde mit der Stufe 0 beurteilt.    Wenn Politiker und die Presse auf „Ereignisse in KKW“ hinweisen, dann sollten sie auch den Gefährdungsgrad nach dieser international gültigen Skala erwähnen.

In den 60iger Jahren wurde mit der Entwicklung der Hochtemperatur-Reaktortechnik  begonnen. Hieran war ich als Ingenieur in führender Position bei BBC/Krupp beteiligt.  Die Ausarbeitung eines Vortrages, den ich kürzlich im KKW Biblis der RWE gehalten habe, „Die Technik der Hochtemperaturreaktoren“  können Sie gerne einsehen, wer möchte, möge mir bitte seine e-mail Adresse geben, ich schicke ihn dann zu. Eine Graphitkugel, diese sieht genau so aus,  wie ein Brennelement, habe ich Ihnen mitgebracht. Ich kann den 20 seitigen Vortrag, er hat in Biblis eine Stunde gedauert, Ihnen hier nicht vortragen. Mir wurde der Vorwurf gemacht, dass ich die Technik so genau beschrieben hätte, dass er praktisch eine Bauanleitung für diese Reaktoren sein könnte.

Ich möchte daher nur kurz auf die Vorteile dieser Technik eingehen:  Die Idee stammt von Prof. Dr. Rudolf Schulten, als er junger Physiker und Ingenieur bei BBC war.

Grundlagen seiner Überlegungen waren:

–  Kugelförmige Brennelemente wegen der gute Handhabbarkeit im Reaktor;

– Umwälzung, also Beladung des Reaktors während des Betriebes;

– Graphit als Hauptwerkstoff für die Brennelemente und Reaktoreinbauten;

– Helium als Kühlmittel;

–  aus Uran 235 und Thorium 232 als Brennstoff mit der Möglichkeit,   neuen Brennstoff zu erbrüten;

– Hohe Temperaturen und Drücke bei der Dampferzeugung mit der Möglichkeit, hohe thermodynamische Wirkungsgrade zu erzielen und die Hochtemperaturwärme zur Anwendung in chemischen Prozessen mit dem Ziel, aus Bio-Massen flüssigen Brennstoff zu erzeugen.

– Die Möglichkeit, neuen nuklearen Brennstoff zu erbrüten. Dadurch ist die Versorgung von Kernkraftwerken mit nuklearem Brennstoff auf hunderte von Jahren gesichert.

– eine inhärente Sicherheit des Systems durch Vermeidung einer Kernschmelze- „GAU“- auch bei kompletten Ausfall der Reaktorkühlung – Ursache des Unfalls in Tschernobyl- zu vermeiden.

Dies wurde 1967 bei der Inbetriebnahme des AVR Reaktors in Jülich erprobt. Der 1. GAU fand also nicht in Tschernobyl, sondern in Jülich statt. Hier flog der Reaktor nicht in die Luft, sondern kühlte sich langsam von alleine ab. Dieser Vorgang wurde 1977 und dann auch in China wiederholt, mit dem gleichen Ergebnis. Nach dem genannten AVR, der 1966 mit einer  Leistung von 15 MW in Betrieb ging und praktisch störungsfrei bis 1989 lief, wurde ab 1970  der THTR in Schmehausen gebaut, hier mit einer Leistung von 300 MW. Dieser Reaktor wurde nach 16.000 Betriebsstunden 1989 aus politischen Gründen stillgelegt.

Nun wird diese HTR Entwicklung in China und SA mit unserem know how weitergeführt, mit dem zu vermutenden Ergebnis, dass wir später für unser know how, mit dem wir in den 60iger bis 80iger Jahren weltweit konkurrenzloser Spitzenreiter waren, Lizenzgebühren bezahlen müssen.

Bei der Ausarbeitung meines Vortrages habe ich mir die Frage gestellt, ob wir diese Spitzenstellung mit den bei uns vorhandenen Kenntnissen und Betriebserfahrungen nochmals erreichen können. Meine Schlussfolgerung nach Durcharbeitung vieler Unterlagen ist, wir können es in etwa 2 Jahren wieder sein. Während des Betriebes beider Kernkraftwerke ist keine einziger nennenswerter Unfall mit „Strahlenfolgen“ aufgetreten, weder beim Betriebspersonal noch in der Umgebung.

Die Betriebserfahrungen mit beiden Reaktoren zeigen:

–        HTR – Kraftwerke können im elektrischen Verbundnetz regelungstechnisch einwandfrei eingesetzt werden;

–        Die Anlagen sind sicherheitstechnisch problemlos zu betreiben;

–        Die Bestrahlungsdosis des Personals ist bei Betrieb und selbst bei Reparaturarbeiten am offenen Primärteil sehr gering;

–        Sicherheitstechnisch begründete Betriebseinschränkungen oder sicherheitstechnisch relevante Schäden hat es bei beiden Anlage nicht gegeben;

–        Die Gesamtanlage und alle Anlageteile konnten im großtechnischen Einsatz erprobt werden;

–        Die Sicherheitstechnik ist soweit entwickelt, dass selbst bei einer größten überhaupt denkbaren Störung keine Gefahr für das Bedienungspersonal oder die Bevölkerung gegeben ist. Selbst dann ist eine Evakuierung der Bevölkerung im engen Umkreis der Anlage nicht erforderlich.

Preiswerte Energie ist die Grundlage jedes wirtschaftlichen Fortschritts. Dass Strom aus Kernkraftwerken billiger ist, zeigt und Frankreich. Hier liegen die vergleichbaren Stromtarife für alle Abnehmer bei etwa 50% der Tarife in Deutschland.

Herr Werhahn hat diese Technik als „Grüne Atomkraftwerke“ bezeichnet. Eine treffende Formulierung, denn alle Argumente der Umweltschützer gegen Atomkraftwerke treffen hier nicht zu.

Ich sehe in dieser Technik die wohl einzige Chance, dass sich Deutschland  von Primärenergieimporten unabhängiger machen kann.

Zur Beurteilung der Frage der Gefährdung bzw. Strahlenbelastung der Bevölkerung durch Kernkraftwerke sollten auch folgende Kriterien berücksichtigt werden:

–        Seit Millionen von Jahren wird alles Leben auf der Erde durch die Sonne und aus der Erdkruste heraus radiologisch belastet;

–        die Frage, ob die Erde überhaupt bewohnbar ist ohne diese Strahlungen ist ungeklärt;

–        In Deutschland ist die Strahlung im Feldberggebiet im Schwarzwald mit 1.800 mrem oder 18 mSv am höchsten. Es ist kein Fall einer Strahlenschädigung bekannt.

–        Die mittlere Kollektivdosis während der Betriebszeit des von den Gegnern „geschmähten“ THTR-300 betrug 45 Personen mSv/Jahr, bei Reparaturen am offenen Kern lag sie zeitweise bei zulässigen 100 mSv;

–        Beim AVR lag die Strahlenbelastung zum Zeitpunkte der Stilllegung bei 0,39 mSv/Jahr für das Betriebspersonal, also weit niedriger, als  an „Land“;

–        Durch das Unglück in Tschernobyl (Stufe 7) wurde die Umgebung des THTR in Schmehausen mit nuklearen Niederschlägen in Höhe von 50.000 Becquerel (Bq) belastet;

–        Das Öko-Institut in Freiburg behauptet in einer Pressekampagne gegen den THTR, dass diese Belastung vom THTR durch eine unbeabsichtigte Freisetzung leicht radiologisch belasteten Heliumgases hervorgerufen wurde.  Diese Behauptung war falsch, der zusätzlich radiologische Niederschlag lag nur bei 0,1 Bq. Ein Beweis, welchen Wahrheitsgehalt die „Horrormeldungen“ solcher Institute haben.

–        Der HTR ist weltweit der einzige „katastrophenfreie Reaktor“.

Nun noch einige Bemerkungen zur Frage der Endlagerung, primär am Beispiel des THTR-300:

–        Die hochstrahlenden Brennelemente sind nach Stilllegung und Abzug aus dem Reaktorkern in Aahaus eingelagert worden;

–        Alle anderen strahlenden Anlageteile und Komponenten lagen innerhalb des Spannbetonbehälters, der auch die Funktion der Strahlenabschirmung hatte. Außerhalb dieses Behälters lagen keine noch strahlenden Anlageteile;

–        Der Sekundärteil wurde verkauft, da völlig unbelastet, und ist heute noch in Betrieb;

–        Das drucklose Containment, die Luftführungswand, wurde beibehalten;

–        Alle Durchdringungen durch Spannbetonbehälter und Containment wurde gasdicht verschweißt, mit verhältnismäßig geringem Kostenaufwand;

–        Der Raum zwischen Spannbetonbehälter und dem Containment ist radioaktiv völlig unbelastet und kann ohne Schutzbekleidung und sogar ohne Strahlendosis-Mess-Plakette betreten werden;

–        Ein sichererer Einschluss von hochstrahlende Teilen und damit sicherere Zwischen/Endlagerung ist nicht denkbar;

Daraus folgt, dass eine sichere Endlagerung strahlender Reaktorkomponenten nach Betriebsende oder von während des Betriebes ausgetauschten Komponenten technisch realisierbar ist, zu relativ geringen Kosten. Allerdings müssen ideologische, unrealistische Vorstellungen und Forderungen vermieden werden. Der Beweis, einer sicheren Lagerung liegt in Schmehausen seit nunmehr 20 Jahren vor. Niemanden stört diese Anlage, aber auch niemand will dies zur Kenntnis nehmen, denn dann würde ja zugegeben, dass das Problem der Endlagerung einwandfrei lösbar ist. Dann wäre aber auch die politische Diskussion beendet, und das wollen Politiker, die gegen die Kerntechnik sind, und auch die KKW-Gegner nicht zugeben.

Zum Schluss nochmals  einige Kernsätze  zu den sogenannten „Erneuerbaren Energien“, vor allem Sonne und Wind:

–        Die Verfügbarkeit dieser Anlagen liegt bei 1.000 bis 1.500 Stunden im Jahresdurchschnitt;

–        Die Jahresverfügbarkeit aller konventionellen Anlage einschließlich der KKW liegt bei max. 8.760 Stunden im Jahr, im Durchschnitt, wegen des erforderlichen Teillastbetriebes, bei etwa 65-70%;

–        Die Behauptung und Zielsetzung, dass „erneuerbare Energien“ in Zukunft zu 100% die Stromversorgung sicherstellen können, ist barer Unsinn. Die erforderlichen Speicherkapazitäten  sind gar nicht realisierbar, weder technisch und schon überhaupt nicht wirtschaftlich.

–        Wenn diese unrealistischen Vorstellungen von Politiker realisiert würden, würde der Strompreis bei geschätzten 5 – 10 Euro/Kwh liegen;

–        Ohne Kernkraftwerke sind die sozialen Sicherungssysteme der BRD auf Dauer nicht finanzierbar.

–        Diese Politik ist also die denkbar unsozialste Politik, die überhaupt denkbar ist.

Wenn die Finanzkrise mit ihren Auswirkungen auf die gesamtwirtschaftliche Entwicklung und die dabei entstehenden Steuerausfälle zu einer realistischen und gesamtwirtschaftlich vernünftig durchdachten Umwelt-, Energie- und Klimapolitik führen würde, wären ihre Nachwirkungen   zum Vorteil für die Wirtschaft, denn das, was weltweit, aber vor allem in Deutschland, denn hier sind wir weltweit einsame Spitze, durch eine solche Politik an Finanzmitteln eingespart werden könnte, würde alle Verluste, die  durch die Finanzkrise entstanden sind, vor allem die Steuerausfälle, in wenigen Jahren egalisieren.

Herr Hans Werner Sinn hat ein Buch herausgegeben, „Das grüne Paradoxon“. Es ist ein beachtenswertes Buch.

Wolfgang Clement hat den Begriff der „Deutschland AG“  im internationalen Wettbewerb geprägt und in einem Vortrag gefordert, den Weg zur „Deindustriealisierung in Deutschland endlich zu verlassen. Dieser Weg zur „Deindustriealisierung“ führt zwangsläufig zur „Destabilisierung“ der Deutschen Wirtschafts- und Sozialpolitik. Die Folgen dieser Politik sind leicht zu erahnen, ja heute bereits offen zu erkennen.

Altkanzler Helmut Schmidt hat dies erkannt. Er schreibt in der Einleitung seines Buches „Außer Dienst“:

„Salus publica supreme lex“.

Welche Politiker handeln noch danach?

Dr.-Ing. Urban Cleve Dortmund

Related Files




Klimapolitik: Schnee von gestern!

Vor einigen Jahren untersuchte der Sozialpsychologe Philip E. Tetlock die Prognosefähigkeit von Experten. Er bat 248 renommierte Fachleute, Voraussagen zu künftigen Ereignissen abzugeben. Nach Auswertung von insgesamt über 80.000 Zukunftsfragen kam er zu dem ernüchternden Ergebnis: Obwohl es sich allesamt um hochqualifizierte Fachleute handelte, die sich ihr Wissen teuer bezahlen ließen, schnitten ihre Vorhersagen schlechter ab als Zufallsprognosen. Doch noch schlimmer: Tetlock stellte eine bemerkenswerte Korrelation zwischen der Qualität der Experten und der Häufigkeit, mit der sie im Fernsehen auftreten fest, die auch als die „Goldene Regel der Sektherstellung“ bekannt ist: Die größten Flaschen sind meistens auch die lautesten. 
Dennoch verhalten wir uns so, als könnten wir den Lauf der Geschichte berechnen, regulieren und steuern. Wir prognostizieren Ölpreise, Sozialversicherungen und globale Temperaturen, die sich über 50 Jahre erstrecken, ohne zu erkennen, dass wir nicht mal voraussagen können, ob es übermorgen um 14:30 Uhr in Offenbach regnet. Die Summe unserer Fehler bei der Vorhersage von politischen, wirtschaftlichen und ökologischen Ereignissen ist so gigantisch, dass ich mich jedes Mal wieder wundere, wie ernst man Leute nimmt, die das trotzdem immer wieder tun. 
In Wahrheit sind Voraussagen nichts weiter als ein ritueller Regentanz. Das Hauptziel ist allerdings nicht, Regen zu machen, sondern, ein besserer Tänzer zu werden. Damit will ich nicht sagen, dass niemand, der sich mit der Zukunft befasst, wertvolle Informationen liefert. Im Gegenteil. Es gibt eine Menge Wirtschaftsforscher, die immerhin neun der letzten fünf Rezessionen präzise vorausgesagt haben. Auch viele Journalisten prognostizieren immer wieder aufs Neue die Kinoöffnungszeiten mit verblüffender Genauigkeit. Der Vater eines amerikanischen Freundes wusste sogar auf das Jahr, den Tag und die Stunde genau, wann er sterben würde. Der Richter hat es ihm gesagt. 
Doch die meisten Phänomene sind hochkomplex. Alles ist mit allem verbunden. Wenn ich mir am Hintern ein Haar ausreiße, tränt das Auge. Leider geben die wenigsten Fachleute zu, wenn sie an die Grenzen der Berechenbarkeit stoßen und sagen dann lieber Dinge wie: „Ja gut, sooo exakt kann man das natürlich nie vorausberechnen. Aber unser Unwissen ist über die Jahre wesentlich genauer geworden!“ 
Kein Wunder, denn mit dem Eingeständnis der eigenen Fehlbarkeit kann man sehr schlecht Macht ausüben. Kein Staatsmann, der sich hinstellt und sagt: „Och, eigentlich haben wir keine Ahnung…“ wird gewählt. Insgeheim sehnen wir uns alle nach klaren, einfachen Wahrheiten – auch wenn eventuell falsch sind. 
Das ist wahrscheinlich der Hauptgrund, weshalb nahezu alle Politiker die Klimaforschung so lieben. Man stabilisiert lieber die Globaltemperatur für das Jahr 2100, als für nächstes Jahr den Staatshaushalt. 
In der Klimapolitik geht es keineswegs ums Klima, sondern es geht um Macht, um Ideologie und es geht um die Beschränkung der menschlichen Freiheit. Genauso wie im Kommunismus und im Nationalsozialismus will man die freie und spontane Entwicklung der Menschheit durch eine zentralistische Art der Planung der ganzen Welt ersetzen. 
Die Klimaforschung ist ein beschämendes Beispiel dafür, wie sich unzählige Wissenschaftler für dieses politische Ziel instrumentalisieren lassen. Obwohl seit nunmehr zehn Jahren die Globaltemperatur kontinuierlich sinkt (ja, sie lesen richtig!!!) kommt kein großes Klimaforschungsinstitut auf die Idee, dass ihre Prognosemodelle vielleicht einen grundsätzlichen Denkfehler enthalten könnten. Die Natur wird sich schon wieder an die errechneten Daten angleichen. „Wir rechnen uns die Welt wiedewiedewie sie uns gefällt…“ 
Für seriöse Wissenschaftler ist das nicht weiter erstaunlich. Denn entgegen der allgemeinen Auffassung ist Klimaforschung keine Naturwissenschaft, sondern reine Zahlenjonglage. Klimamodelle basieren nämlich allesamt auf komplexen nicht-linearen Systemen. Auch ich habe mich in meinem Physik-Studium mit diesen mathematischen Konstrukten beschäftigen müssen. Das erste, was man dabei lernt ist, dass man Parameter und Wechselwirkungen problemlos so einstellen kann, dass jedes gewünschte Ergebnis heraus kommt. Eine winzige Änderung der Anfangsbedingungen, eine klitzekleine Einflussgröße über den Effekt der Wolkenbildung, und ich kann ihnen beweisen, was immer sie wollen. Ich kann eine weltweite Eiszeit herbeiführen oder eine katastrophale Erwärmung. Klimamodelle sind nichts anderes als die in Formeln gegossene Meinung ihrer Schöpfer. Der Nobelpreisträger Wolfgang Pauli sagte sinngemäß zu solcherlei Taschenspielertricks: „Diese Theorien sind wertlos. Sie sind sogar nicht mal nur schlecht.“ 
Allzu oft lassen wir uns durch Wissen blenden. Doch in Wirklichkeit wissen wir fast gar nichts: Dunkle Materie, das Geheimnis des Lebens, die Frage, was ihr 15jähriger Sohnemann macht, wenn sie nicht zuhause sind, oder warum Xavier Naidoo so viele Platten verkauft. Niemand hat nur die blasseste Ahnung davon, was Gravitation ist. Oder Bewusstsein. Oder wieso Frauen den Lidschatten nicht mit geschlossenem Mund auftragen können. 
In einem Zeitalter, in dem wir den Ursprung des Universums entdeckt haben und die Krümmung der Raumzeit beobachten, ist es ernüchternd, dass Wissenschaftler nicht einmal in der Lage sind, etwas so scheinbar Banales wie die Bildung von Eiskristallen zu erklären. 
Wenn also ein Schwätzer wie Al Gore Dinge in den Mund nimmt wie: „Die Wahrheit ist…“ dann sollte man schnell das Weite suchen und sich lieber gleich an Uri Geller wenden. 

Gastautor Vince Ebert. Mit freundlicher Genehmigung des Autors. Der Originalartikel erschien zuerst auf ACHGUT 




Solareinfluss 2: Zukunft braucht Herkunft: Langfristiger Klimawandel auf der globalen, lokalen und regionalen Klimaskala und seine primäre Ursache!

Das Klimasystem der Erde ist ein dynamisches, nichtlineares System, das permanent sowohl von langperiodischen als auch von kurzperiodischen und unsystematischen Einflussfaktoren angetrieben wird. Längerfristige Antriebe sind vor allem die Veränderungen des solaren Energieflusses, der „Solarkonstanten“. In welchem Ausmaß auch der anthropogene Treibhauseffekt eine Rolle beim längerfristigen Klimawandel spielt, soll in dieser Untersuchung nach dem Residuumprinzip überprüft werden.  

Zu den kurzperiodischen Klimafaktoren zählen die Veränderungen der Meeresoberflächentemperatur, wie sie u.a. im Pazifik als ENSO-Kalt- und Warmphasen und im Atlantik als meridionale Temperaturschaukel (H.Malberg, G.Bökens 1993) auftreten. Auch der vulkanische Einfluss wirkt sich kurzzeitig auf das Klima aus. So kommt es nach Vulkanausbrüchen durch den Feinstaub zu einer erhöhten atmosphärischen Trübung und damit infolge einer verstärkten Absorption von Solarstrahlung  zu einer Erwärmung in der oberen Stratosphäre bei gleichzeitiger Abkühlung in den bodennahen Schichten. 

Als Beispiel für klimarelevante Wechselwirkungen/Rückkopplungen seien die gekoppelten Änderungen von Temperatur und Schnee-/Eisbedeckung beschrieben. Eine Erhöhung der Temperatur führt zu einem Rückgang der Schnee-/Eisbedeckung. Die Erdalbedo verringert sich, und die Temperaturerhöhung wird verstärkt. Analoges gilt, wenn sich Abkühlungen bei zunehmender Schnee-/Eisbedeckung (erhöhte Albedo) verstärken. Hohe Klimaeffekte haben auch Änderungen der Wolkenbedeckung.

Eine Vielzahl von Prozessen ist somit zu jedem Zeitpunkt in unserem Klimasystem wirksam. Was wir als Klimaverhalten beobachten, ist das Gesamtresultat aller Antriebe, welche auf der kurz- und langfristigen Zeitskala ablaufen.  In Abb.1 sind die in Mitteleuropa seit der Endphase der  Kleinen Eiszeit beobachteten Temperaturänderungen eines Jahrzehnts zum Vorjahrzehnt wiedergegeben. Dabei sind positive wie negative Temperatursprünge von 0,4K bis 0,5K keine Seltenheit. Im Einzelfall werden sogar +/-0,9K erreicht. Die Konsequenz aus diesem Temperaturverhalten ist, dass es nicht möglich ist, langfristige Klimaänderungen auf der Basis von einzelnen dekadischen (oder etwa jährlichen) Temperaturänderungen zuverlässig zu beurteilen.

Aufgrund dieses Sachverhalts haben unsere klimatologischen Lehrer als Klimaperioden 30-jährige Mittelwerte eingeführt. Auf diese Weise wird erreicht, dass die kurzzeitig wirkenden Klimaeinflüsse herausgefiltert werden und allein die langfristige, nachhaltige Klimaänderung sichtbar wird.  

In Abb.2  sind anhand der 30-jährig gleitenden Mitteltemperaturen die langfristigen Klimaänderungen von Mitteleuropa seit der Kleinen Eiszeit wiedergegeben. Der permanente Klimawandel ist ein Faktum. Ferner wird in der Abbildung (relativ zum Mittelwert) deutlich, wann unternormale, also kalte, und wann übernormale, also warme Klimabedingungen geherrscht haben. Der Kleinen Eiszeit des 17. Jahrhunderts folgte eine Wärmeperiode im 18. Jahrhundert. An diese schloss sich die Kälteperiode des 19. Jahrhunderts an. Ihr folgte die Erwärmung im 20. Jahrhundert. Fazit: Der Klimawandel ist ein systemimmanenter Prozess. Alle unsere Vorfahren mussten sich auf veränderte Klimaverhältnisse einstellen. Auch die heutigen und nachfolgenden Generationen werden dieses tun müssen – egal welche CO2-Maßnahmen ergriffen werden.  

Ursachen der langfristigen Klimaänderungen   

Bei der Frage nach der primären Ursache des langfristigen Klimawandels ist die Klimawissenschaft auch unmittelbar vor dem UN-Klimagipfel in Kopenhagen (Dezember 2009) unverändert in zwei grundsätzliche Lager gespalten. Das eine Lager ist sich mit Politik und Medien in der  Annahme einig, dass der anthropogene Treibhauseffekt den langfristigen Klimawandel primär verursache, auch wenn es dafür keinen schlüssigen Beweis gibt. Vor allem empirische Klimatologen und Astrophysiker gehen dagegen davon aus, dass der solare Einfluss auf das Klima, wie zu allen Zeiten, der dominierende langfristige Klimaantrieb ist. Zur Klärung dieses Dissens sollen  nachfolgend unterschiedliche räumliche und zeitliche Klimaskalen analysiert werden. Dabei bleibt der methodische Ansatz gegenüber den früheren Untersuchungen grundsätzlich unverändert, jedoch werden entsprechend den Klimaperioden über 3 Dekaden Untersuchungsintervalle von 3 Sonnenfle-ckenzyklen definiert.

Die rotierende Sonne ist wie unser Klimasystem ein dynamisches, nichtlineares System. In ihr wirken nukleare, elektrische, magnetische, thermische Kräfte sowie die Gravitation. Die Folge der damit verbundenen Prozesse sind kurz- und langzeitliche Schwankungen des solaren Energieflusses. In Bezug auf die längerfristigen klimarelevanten Auswirkungen ist es daher auch beim solaren Antrieb sinnvoll, die kurzperiodischen/unsystematischen Aktivitätsschwankungen herauszufiltern. Dieses erfolgt, wie gesagt, durch die Mittelwertbildung der Sonnenfleckenzahlen über 3 Sonnenfleckenzyklen, im Mittel also über 33 Jahre. 

Die globale Klimaskala  

Von den untersuchten Klimaskalen umfasst die globale/hemisphärische Skala (mangels weltweiter Beobachtungsdaten) mit rund 150 Jahren den kürzesten Zeitraum der jüngeren Klimageschichte. In Abb.3 ist die globale Mitteltemperatur, in Abb.4 die mittlere Sonnenfleckenzahl jeweils über 3 Sonnenfleckenzyklen gleitend für die Zeit 1860-1999 dargestellt.

 

 Vergleicht man Abb.3 und Abb.4 miteinander, so fällt die längerfristige globale  Erwärmung unverkennbar mit einem Anstieg der Sonnenfleckenzahl, also mit einer langfristigen Zunahme der Sonnenaktivität, zusammen. Temperatur und Sonnenaktivität verlaufen grundsätzlich synchron. Analoges gilt für die Temperaturentwicklung auf der Nord- und Südhalbkugel.

Um den quantitativen Zusammenhang zwischen den langfristigen solaren Antriebsänderungen und den effektiven (direkten und indirekten) Auswirkungen auf die globale/ hemisphärische Temperatur zu bestimmen, wurde eine Korrelationsanalyse durchgeführt. Die Ergebnisse sind für die zeitlichen Intervalle 1860-1999, 1870-1999 und 1883-1999 in Abb.5 wiedergegeben.

Wie sich zeigt, ergibt sich für die von kurzperiodischen Einflüssen befreite langfristige Temperaturentwicklung ein globaler Korrelationskoeffizient von +0,90 mit dem solaren Antrieb. Mit +0,92 liegt der Korrelationskoeffizient für die Nordhalbkugel leicht höher als der Wert der Südhalbkugel von +0,87 –vermutlich ein Effekt der unterschiedlichen Land-Meer-Verteilung. Ferner zeigt der Blick auf Abb.5, dass die Korrelationskoeffizienten eine hohe zeitliche Stabilität aufweisen.  

    

Die lokale Klimaskala (Deutschland)

Während die globale Klimareihe den Klimawandel erst seit der Mitte des 19. Jahrhunderts erfasst, geben die Klimabeobachtungen von Hohenpeißenberg (60 km südwestlich von München gelegen) Aufschluss über die Klimaentwicklung in Deutschland seit 1780. Dabei zeichnen sich die Hohenpeißenbergdaten –im Gegensatz zu den globalen Daten- durch eine hohe Homogenität aus. Durch die über 3 Sonnenfleckenzyklen berechneten Mitteltemperaturen wurden die vielfältigen zirkulationsbedingten kurzfristigen kontinentalen und maritimen Einflüsse eliminiert, so dass im Ergebnis allein das langfristige Klimaverhalten von Deutschland erkennbar wird.  

In Abb.6 ist die Klimaentwicklung anhand der Temperaturbeobachtungen von Hohenpeißenberg für den  Zeitraum 1778-1999 dargestellt. (Die zwei Jahrestemperaturen 1778/1779 wurden zur Vervollständigung des entsprechenden Sonnenfleckenzyklus aus der Berliner Klimareihe reduziert). 

Wie Abb.6 zeigt, weist das Temperaturverhalten während der 220 Jahre einen U-förmigen Verlauf auf. Einer Wärmeperiode um 1800 folgte ein deutlicher Temperaturrückgang im 19. Jahrhundert. Ihm folgte  dann als Klimaerholung der Temperaturanstieg im 20. Jahrhundert. 

Die über 3 Sonnenfleckenzyklen gleitenden mittleren Sonnenfleckenzahlen sind in Abb.7 dargestellt. Wie sich zeigt, weist die solare Aktivität in den 220 Jahren einen grundsätzlich analogen Verlauf zum Temperaturverhalten von Deutschland auf.

Der verstärkten Sonnenaktivität am Ende des 18. Jahrhunderts mit einem Mittelwert von rund 45 Sonnenflecken folgten im 19. Jahrhundert zeitweise Werte zwischen 30 und 35 und zum Ende des 20. Jahrhunderts von über 70, was einer Zunahme der mittleren Sonnenfleckenzahl um 100% während der  jüngsten Erwärmung entspricht.  

 

Den engen Zusammenhang zwischen den langfristigen Änderungen der Sonnenaktivität seit 1778 und dem gleichzeitigen langfristigen Temperaturverhalten in Deutschland  zeigt die statistische Korrelationsanalyse. 

Der rapide Temperatursturz zu Beginn des 19. Jahrhunderts fällt mit einer ebenfalls kurzen, aber deutlichen Abnahme der Sonnenfleckenzahl zusammen (Dalton-Minimum  der solaren Aktivität). Entsprechend hoch ist die Korrelation für den Zeitraum 1787-1836. Auch wenn wegen der geringen Zeitspanne der Koeffizient statistisch nicht signifikant ist, so ist der Zusammenhang zwischen solarem Aktivitätseinbruch und Temperatursturz eindeutig.

Für die Temperaturentwicklung in Deutschland seit 1837 berechnen sich Korrelationskoeffizienten mit der Sonnenaktivität -je nach Zeitintervall- zwischen +0,81 und +0,89 (Abb.8). Damit dürfte es keinen Zweifel geben, dass sich der integrale (direkte und indirekte) solare  Einfluss auf den langfristigen Klimawandel selbst auf der lokalen Klimaskala von Deutschland eindeutig nachweisen läßt und dass zwischen der jüngsten Erwärmung und der Zunahme der Sonnenaktivität ein hoher kausaler Zusammenhang besteht. Je nach Zeitraum vermag der solare Antrieb 65-80% der Temperaturvarianz, d.h. des Temperaturverhaltens der letzten 220 Jahre zu erklären.  

Die regionale Klimaskala (Mitteleuropa)

Die Untersuchung der Klimaentwicklung von Mitteleuropa basiert auf den Klimareihen von Berlin-Dahlem (J.Pelz), Prag sowie den beiden Stationen Basel und Wien (F.Baur). Den drei Dekaden 1671-1700 liegen die auf Mitteleuropa reduzierten Beobachtungen der Zentralenglandreihe (G.Manley) zugrunde. Damit stehen für die langfristige Klimadiagnose geprüfte Beobachtungsdaten für die Zeit seit dem letzten Höhepunkt der Kleinen Eiszeit zur Verfügung. (Nicht einbezogen wurden die Klimabeobachtungen von Hohenpeißenberg, da sonst die lokalen und die regionalen Ergebnisse nicht unabhängig voneinander gewesen wären).

In Abb.9 ist anhand der über 3 Sonnenfleckenzyklen gemittelten Temperaturen die langfristige Klimaent-wicklung von Mitteleuropa wiedergegeben (vgl. Abb.2). Nach der Endphase der Kleinen Eiszeit im 17. Jahrhundert stieg die Temperatur bis zum Wärmeoptimum um 1800 an. Dieser Wärmeperiode folgte die Kälteperiode des 19. Jahrhunderts. Ihr schloss sich die Erwärmung des 20. Jahrhunderts an. Die beiden Kälteperioden waren dabei mit einer maximalen Ausdehnung der Alpengletscher verbunden. Mit Gebeten, mit Bittprozessionen und dem Versprechen, in Zukunft tugendhafter zu leben, hofften die Menschen damals, dass eine höhere Macht einen weiteren Vorstoß der Gletscher verhindern (Der Tagesspiegel, 7.8.2009) und damit der Kälte Einhalt gebieten möge.  

Fragt man nach dem dominierenden Klimaantrieb, nach der primären Ursache des wiederholten Wechsels der ausgedehnten Kälte- und Wärmeperioden  in den letzten 3 Jahrhunderten, so liefert der Vergleich des Klimawandels seit der Kleinen Eiszeit (Abb.9) mit der Veränderung der Sonnenfleckenzahl (Abb.10) eine  schlüssige Antwort. Das synchrone langfristige Verhalten von Temperatur und Sonnenaktivität über die gesamte Zeitspanne ist so eindeutig, dass jeder Zufall ausgeschlossen werden kann. 

Der ruhigen Sonne des Maunder-Minimums Ende des 17. Jahrhunderts folgte die Zunahme der Sonnenaktivität im 18.Jahrhundert. Dieser folgte das solare Dalton-Aktivitätsminimum im 19. Jahrhundert und der Anstieg der solaren Aktivität im 20.Jahrhundert auf die höchsten Werte der letzten Jahrhunderte.

Ferner kommt in beiden Zeitreihen deutlich ein periodisches, sinusartiges Schwankungsverhalten zum Ausdruck. Der Vergleich von Abb.9 und Abb.10 zeigt: Sonnenaktivität und Temperaturverlauf weisen beide eine rund 200-jährige Schwingung auf. In der Astrophysik wird diese 200-jährige Schwingung der Sonnenaktivität als De-Vries-Zyklus bezeichnet. 

Die hohe Verknüpfung von Klimaentwicklung und Sonnenaktivität seit der Kleinen Eiszeit kommt auch beim Vergleich von Abb.11 und Abb.12 zum Ausdruck. Dort sind die Abweichungen vom Mittelwert der Temperatur bzw. der Sonnenfleckenzahl für die 3 Sonnenfleckenzyklen umfassenden Klimaperioden dargestellt.

Die negativen Anomalien der Temperatur des 17. und des 19. Jahrhunderts  sind gekoppelt mit den negativen Anomalien der solaren Aktivität. Den positiven Temperaturabweichungen des 18. und des 20. Jahrhunderts entsprechen die zeitgleichen positiven Abweichungen der solaren Aktivität. 

Anders ausgedrückt: Perioden mit übernormaler Sonnenaktivität, entsprechen einer aktiven Sonne und sind mit Wärmeperioden verbunden. In Zeiten mit einer unternormalen Sonnenaktivität, einer ruhigen Sonne, kommt es zu Kälteperioden.

Grundsätzlich lässt sich somit über den Zusammenhang von Sonnenaktivität und Klimaverhalten festhalten: Zeiten mit langfristig zunehmender Sonnenaktivität fallen langfristig mit Erwärmungen zusammen. In Perioden mit einer langfristigen Abnahme der solaren Aktivität kommt es langfristig zur Abkühlung.     

Dieser qualitative Zusammenhang wird durch die Ergebnisse der Korrelationsanalyse in vollem Umfang bestätigt. Korreliert wurden wiederum die über 3 Sonnenfleckenzyklen gleitenden Mitteltemperaturen mit den entsprechenden mittleren Sonnenfleckenzahlen. Die Ergebnisse sind in Abb. 13 dargestellt. 

Wie zu erkennen ist, berechnen sich für den Zusammenhang zwischen dem langfristigen Verhalten der  solaren Aktivität und dem langfristigen Temperaturanstieg nach der Kleinen Eiszeit bis zum Ende des 18.Jahrhunderts Korrelationskoeffizienten von +0,90 bis +0,94. Analoges  gilt für die kurze, intensive Ab-kühlungsphase zu Beginn des 19. Jahrhunderts. Für die heute diskutierte Erwärmung von der Mitte des 19. Jahrhunderts bis zum Ende des 20.Jahrhunderts ergeben sich Korrelationskoeffizienten mit der Sonnenaktivität von +0,83 bis +0,87 und für die Periode vom Ende des 19. Jahrhunderts bis 1999 von +0,90 bis +0,92. Bedenkt man, dass ein Korrelationskoeffizient (per Definition) maximal den Wert 1,0 annehmen kann, so ist der dominierende solare Einfluss auf den langfristigen Klimawandel nicht länger weg zu diskutieren.

Zusammenfassende Schlussbetrachtungen  

In dieser klimadiagnostischen Untersuchung wurde der Klimawandel der letzten Jahrhunderte auf drei räumlichen Klimaskalen analysiert: auf der globalen, der lokalen und der regionalen Klimaskala. Damit verbunden sind drei zeitliche Klimaskalen. 

Die globale/ hemisphärische Untersuchung basiert auf den CRU-Klimareihen (Hadley-Center,UK) seit 1850. Der lokalen Klimaskala liegen die homogenen Klimabeobachtungen von Hohenpeißenberg seit 1780  zugrunde. Die regionale Klimaskala wird durch die „Klimareihe Mitteleuropa“ erfasst. Sie reicht bis 1671 zurück und damit bis zum letzten Höhepunkt der Kleinen Eiszeit.

Als erster Sachverhalt ist festzustellen: Die globale IPCC- Klimareihe ist mit rund 150 Jahren die kürzeste. Sie erfasst nur ein sehr begrenztes Zeitfenster und ihre Erwärmung ist ohne Bezug zur Klimavorgeschichte.    

Der zweite wichtige Tatbestand ist: Die globale Klimareihe beginnt, wie die Klimareihe Mitteleuropa beweist, zu einer Zeit mit den lebensfeindlichsten Klimaverhältnissen nach der Kleinen Eiszeit. In der Mitte des 19. Jahrhunderts waren die Klimabedingungen so ungünstig, dass als Folge der Kälteperiode in Mitteleuropa Missernten und Hungersnöte auftraten und Menschen verhungert sind. Wer diese lebensfeindliche Klimaepoche für Mensch und Natur zum Referenz-/Normalklima erklärt, indem er die aktuelle Erwärmung dramatisiert und als Klimakatastrophe darstellt, der stellt die Klimarealität auf den Kopf und schürt bewußt eine Klimahysterie. Man fragt sich unwillkürlich: cui bono? 

Wie die gegenwärtigen Klimabedingungen auf der langfristigen Klimaskala wirklich einzuordnen sind, wird durch die lokale Klimareihe von Hohenpeißenberg und die Klimareihe Mitteleuropa dokumentiert: 

In den letzten Jahrhunderten kam es zu einem wiederholten Wechsel von anhaltenden Kälte- und Wärmeperioden. Dem letzten Höhepunkt der Kleinen Eiszeit im 17. Jahrhundert folgte eine Erwärmung im 18. Jahrhundert. Ihr folgte nach einem rapiden Temperaturrückgang die Kälteperiode des 19. Jahrhunderts und dann die Wärmeperiode im 20. Jahrhundert. 

Der Einwand, Mitteleuropa sei für das globale Klimaverhalten nicht repräsentativ, ist auf der langfristigen Klimaskala unrichtig. Dass die Klimaentwicklung der letzten Jahrhunderte in Mitteleuropa den globalen Klimaverlauf auch vor 1850 grundsätzlich widerspiegelt, lässt sich aus  der extrem hohen Korrelation von +0,95 (1851-2000) bis +0,97 (1881-2000) ableiten, die sich für die 30-jährig gleitenden Klimaperioden zwischen globalem und mitteleuropäischem Klimaverhalten ergibt. Dieser Zusammenhang ist auf dem 99,9%-Niveau hochsignifikant.

Vor diesem Hintergrund stellt die globale Erwärmung nach 1850 lediglich den aufsteigenden Ast einer langperiodischen Klimaschwingung dar.

Die Antwort auf die Frage nach dem dominierenden Klimaantrieb auf der globalen, lokalen und regionalen Klimaskala folgt aus der Analyse des langfristigen Klimaverhaltens einerseits und den langfristigen Veränderungen der solaren Aktivität anderseits. 

Klimafluktuationen, also kurzperiodisch wirkende Antriebe (z.B. El Nino/La Nina, Vulkanausbrüche), sind auf der langfristigen Klimaskala grundsätzlich unerheblich. Diese stellen klimatische Oberschwingungen dar, die dem langfristigen Klimaverlauf nur überlagert sind. 

Der nachhaltige Prozess, dem sich Mensch und Natur anpassen müssen, ist die langfristige Klimaänderung. 

Entsprechend der klimatologischen Konvention, Klimafluktuationen durch die Bildung 30-jähriger Mittelwerte  zu eliminieren, wurde die Klimadiagnose über den Zusammenhang von solarem Antrieb und Klimaverhalten mittels Klimaperioden von 3 Sonnenfleckenzyklen (im Mittel 33 Jahre) durchgeführt. 

Auf diese Weise wird es möglich, das langfristige Klimaverhalten und die primäre Ursache deutlicher zu erkennen als dieses unter Einbezug der vielfältigen kurzfristigen Variabilität möglich ist. 

Auf der globalen Klimaskala berechnen sich für den Zusammenhang von solarer Aktivität und globaler/ hemisphärischer Temperatur im Zeitraum 1860-1999 stabile Korrelationskoeffizienten von +0,90. Das Ergebnis ist auf dem 99,9%-Niveau hochsignifikant.  

Auf der lokalen Klimaskala (Deutschland) folgen für den Zusammenhang zwischen Temperaturverlauf Hohenpeißenberg und solarer Aktivität im Zeitraum 1860-1999 statistisch hochsignifikante Korrelationskoeffi-zienten von +0,83 bis +0,89. Für die vorhergehende kurze, intensive Abkühlungsphase liegt die Korrelation mit der Sonnenaktivität über +0,90.  

Auf der regionalen Klimaskala von Mitteleuropa ist die enge Kopplung zwischen den langfristigen Änderungen der solaren Aktivität und dem Klimaverhalten seit der Kleinen Eiszeit, d.h. für über 300 Jahre nachweisbar. Für die Erwärmungsperiode unmittelbar nach der Kleinen Eiszeit berechnen sich Korrelationskoeffizienten von +0,90 bis +0,94. Ebenso hohe Werte ergeben sich für die kurze, rapide Abkühlung zur Zeit des Dalton-Minimums der solaren Aktivität. Die jüngste Erwärmung Mitteleuropas weist ab 1848 je nach Zeitintervall Korrelationskoeffizienten von +0,87 bis +0,92 mit den Änderungen der solaren Aktivität auf.  Auch diese Werte sind auf dem 99,9%-Niveau statistisch abgesichert.

Fazit: Der dominierende Einfluss der solaren Aktivität auf das langfristige Klimaverhalten ist auf der globalen und hemisphärischen sowie auf der lokalen und regionalen Klimaskala eindeutig nachzuweisen. Langfristige  Änderungen des solaren Energieflusses führen im Klimasystem zu direkten und indirekten Reaktionen. Direkt sind die breitenkreisabhängigen Temperaturänderungen gemäß dem jeweiligen Einfallswinkel der Sonnenstrahlung. Dabei kommt naturgemäß in den Tropen und den wolkenarmen Subtropen den Einstrahlungsänderungen das stärkste klimatische Gewicht zu, denn 50% der Erdoberfläche liegen in dieser strahlungsintensivsten Zone zwischen 30°N-30°S. Dort findet folglich auch im System Erde/Ozean-Atmosphäre die stärkste thermische Energieumsetzung statt. 

Über die damit verbundenen Veränderungen der Hadley-/Passat-Zirkulation kommt es zu komplexen Auswirkungen auf die gesamte planetarische Zirkulation, d.h. auf die atmosphärischen und ozeanischen Wärme-transporte. 

Indirekt sind jene Auswirkungen, die durch photochemische Prozesse (Ozonschicht) und durch Rückkopplungseffekte, z.B.  durch großräumige Veränderungen der Wolken- und Schnee-/Eisbedeckung hervorgerufen werden.  

Es liegt in der Natur statistisch-klimadiagnostischer Analysen, dass sie die physikalischen Einzelprozesse nicht aufzulösen vermögen. Die vorgestellten Ergebnisse stellen das Integral über alle durch die solaren Antriebsänderungen verursachten Auswirkungen auf das Temperaturverhalten dar. Der Zusammenhang zwischen Klima-/ Temperaturentwicklung in den letzten Jahrhunderten und den Änderungen des solaren Antriebs in dieser Zeit sind statistisch auf dem 99,9%-Niveau  abgesichert. 

Wie die früheren Untersuchungen gezeigt haben, ergeben sich unter Einbezug auch der kurzperiodischen natürlichen Klimaantriebe für den solaren Antriebsanteil Korrelationen von +0,75 bis +0,80. Das entspricht einer erklärten Varianz durch den solaren Effekt bis zu 65%. Betrachtet man allein die relevanten langfristigen Klimaänderungen, indem die kurzfristigen Klimaschwankungen herausgefiltert werden, so folgt: Für den Zusammenhang zwischen langzeitlichem solarem Aktivitätsverhalten und langfristiger Klimaentwicklung berechnen sich Korrelationskoeffizienten von +0,90. Der integrale solare Anteil erklärt somit rund 80%  der langzeitlichen Klima-/Temperaturänderungen. Die statistische Irrtumswahrscheinlichkeit liegt nur bei 0,01 Prozent.

Daraus folgt: Die in den bisherigen Klimamodellen dem solaren Effekt zugewiesene Statistenrolle widerspricht der Klimarealität. Dem solaren Einfluss kommt die dominierende Rolle beim langfristigen Klimawandel zu. Der anthropogene Treibhaus-/CO2-Einfluss auf die langfristige Klimaentwicklung wird  weit überschätzt. Sein Beitrag vermag nach den obigen Ergebnissen maximal 20% des langfristigen Temperaturverhaltens zu erklären. Abkühlungsphasen, ob kurz- oder langfristig, kann der anthropogene Treibhauseffekt dabei physikalisch überhaupt nicht erklären. Als jüngste Beispiele seien der Temperaturrückgang der letzten 10 Jahre und die Abkühlung in den 1960er/70er Jahren genannt. 

Es ist ein Rätsel, wie die Politik auf der Grundlage einer der Klimavergangenheit widersprechenden und wissenschaftlich nicht konsensfähigen Arbeitshypothese über den anthropogenen CO2-Einfluss „Klimabeschlüsse“ mit  weitreichenden Konsequenzen begründen kann. Alle Szenarienrechnungen, ob bei Banken, in der Wirtschaft oder in der Klimaforschung, sind im Konjunktiv und daher unter Vorbehalt zu verstehen. Sie basieren auf vielfältigen Annahmen und führen in eine  Vertrauenskrise, wenn sie als fundierte Prognosen missinterpretiert werden. Wenn die klimatische Zukunft der klimatischen Herkunft so offensichtlich widerspricht, ist über kurz oder lang mit einem Platzen der anthropogenen „Klimablase“ und mit mehr realistischen Klimamodellen zu rechnen.   

Statt einer auf tönernen Füßen stehenden Klimapolitik wäre es angebracht, alle Anstrengungen auf eine ehrgeizige globale Umweltpolitik zu konzentrieren. Saubere Luft, saubere Flüsse, Seen und Ozeane, ein unbelasteter Erdboden gehören zu den fundamentalen Rechten aller Menschen. So ist z.B. das Abschmelzen hochgelegener Gletscher eine Folge fehlenden Umweltschutzes in der Vergangenheit und nicht des Klimawandels. Eine Erwärmung von 1°C vermag physikalisch bei Gletschertemperaturen weit unter 0°C nichts zu bewirken. Ein mit Russ und Staub verunreinigter Gletscher verliert dagegen sein natürliches Reflexionsvermögen und absorbiert verstärkt Sonnenlicht und damit Wärmestrahlung. Die Folge: Der Gletscher „schwitzt in der Sonne“, er schmilzt. Die im Schatten liegenden Gletscherregionen schmelzen hingegen nicht.

Die Klimazukunft 

„Prognosen sind immer schwierig, vor allem wenn sie die Zukunft betreffen“, soll der berühmte Atomphysiker Nils Bohr einmal gesagt haben. Dies gilt auch für das Verhalten der Sonne. Die rund 200-jährige Schwingung der solaren Aktivität  ist jedoch ein astrophysikalisches Faktum. Neben dem beschriebenen Maunder- und Dalton-Minimum im 17. bzw. 19. Jahrhundert wird der rund 200-jährige De-Vries-Zyklus  auch durch das Spoerer- Minimum im 15. Jahrhundert belegt. Die damit verbundene rund 200-jährige Klimaschwankung ist ebenfalls ein Faktum. Alle drei solaren Aktivitätsminima waren mit Kälteperioden verbunden. Im 15. Jahrhundert war zeitweise die Ostsee vollständig zugefroren. Im 17. Jahrhundert lag der letzte Höhepunkt der Kleinen Eiszeit, der 200 Jahre später die Kälteperiode des 19. Jahrhunderts folgte. Die Phasen hoher Sonnenaktivität korrespondieren dagegen jeweils mit den Erwärmungen im 16., 18. und 20. Jahrhundert. 

Gemäß dieser rund 200-jährigen Schwingung befinden wir uns mit hoher Wahrscheinlichkeit derzeit am Ende einer Wärmeperiode und damit am Beginn einer Abkühlung als Folge eines zu erwartenden  solaren Aktivitätsrückgangs. Zu diesem Ergebnis kommen auch das SSRC (Space Science Research Center) in Orlando/USA und – nach einem Bericht der russischen Zeitung „Novosti“ (Juni 2008) – das russische Hauptobservatorium Pulkov bei Sankt Petersburg. 

Die von den bisherigen Klimamodellen aufgrund des CO2-Effekts für das 21. Jahrhundert vorhergesagte fortschreitende Erwärmung ist aufgrund der klimadiagnostischen Ergebnisse daher höchst unwahrscheinlich.  

P.S.1 Australische Wissenschaftler (R.M.Carter et al.) sind ebenfalls zu Ergebnissen über den hohen El Nino-Einfluss bei der globalen Erwärmung der letzten  Jahrzehnte gekommen (J.Geophys.Res., 2009), wie sie in den Beiträgen zur BWK SO 34/07 und SO 11/09 dargelegt worden sind.  

P.S.2 Es ist soeben erstmals gelungen, mit einem Klimamodell (NCAR/USA) nachzuweisen, dass schon geringe solare Aktivitätsänderungen klimatisch messbare Auswirkungen verursachen: Meehl, G.A.,J..M. Arblaster, K. Matthes, F. Sassi, and H. van Loon (2009), Amplifying the Pacific climate system response to a small 11 year solar cycle forcing, Science, 325, 1114-1118. 

P:S.3 Die Sonne ist weiterhin nahezu frei von Sonnenflecken, und die Eisbedeckung in der Arktis liegt in diesem Sommer über der der beiden Vorjahre. 

P.S.4 Kohlendioxid wird zu Unrecht als „Klimakiller“ und „Umweltverschmutzer“ verteufelt. Außer Wasser gibt es für das irdische Leben im allgemeinen und die Welternährung im speziellen kei-nen Stoff , der wichtiger ist als das Spurengas CO2 (0,038 Vol.%). Aus H2O und CO2 bauen Pflan-zen (Photosynthese) unter Produktion des lebenswichtigen Sauerstoffs O2 ihre  Zellsubstanz auf, d.h. die gesamte Nahrungsgrundlage für Mensch und Tier.., J.M. Arblaster, K. Matthes, F.   

Literatur

– Brohan, P., J.J. Kennedy, I. Haris, S.F.B. Tett and P.D. Jones: Uncertainty estimates in regional and global observed tem-perature changes: a new dataset from 1850. J. Geophysical Research   

111, D12106, doi:10.1029/2005JD006548 — pdf 

– BMBF   „Herausforderung Klimawandel“. 2004: http://www.bmbf.de/pub/klimawandel.pdf

– Claußnitzer, A. Das Maunder-Minimum. Eine Modellstudie mit dem „Freie Universität Berlin Climate      

  Middle Atmosphere Model“ (FUB-CMAM). Diplomarbeit. 2003

– Cubasch, U. Variabilität der Sonne und Klimaschwankungen. Max-Planck-Forschung. Das Wissen- 

  schaftsmgazin der Max-Planck-Gesellschaft (2001)

– Eddy, J.A. „The Maunder Minimum“. Science 192. 1976

– EIKE: www.eike-klima-energie.eu

– Hennig, R. Katalog bemerkenswerter Witterungsereignisse –von den alten Zeiten bis zum Jahre 1800. 

  Abh. Kgl. Preuß. Met.Inst.Bd.II/4 .1904

– Hoyt, D. V. und Schatten, K. H.: The role of the sun in climate change. New York-Oxford, Oxford Univer-

  sity Press. 1997

– Jones, P.D., New, M., Parker, D.E., Martin, S. and Rigor, I.G., 1999: Surface air temperature and its varia-     

   tions over the last 150 years. Reviews of Geophysics 37, 173-199. 

– Labitzke,K. and H. van Loon: The signal of the 11-years sunspot cycle in the upper troposphere-lower 

  Stratosphere. 1997

– Labitzke, K. On the solar cycle – QBO – relationship. J.A.A., special issue 67, 45-54. 2005

– Landscheidt, T. Solar oscillations, sunspot cycles, and climatic change. In: McCormac, B. M., Hsg.: 

  Weather and climate responses to solar variations. Boulder, Ass. Univ. Press (1983)  

– Malberg,H. und G. Bökens: Änderungen im im Druck-/Geopotential- und Temperaturgefäl le zwischen Subtropen und Sub-polarregion im atlantischen Bereich im Zeit

              raum 1960-90. Z.f.Meteor. N.F. (1993)

– Malberg, H.  Beiträge des Instituts für Meteorologie der Freien Universität Berlin/Berliner Wetterkarte: .

– Über den Klimawandel in Mitteleuropa seit 1850 und sein Zusammenhang mit der Sonnenaktivität. SO 17/02  

– Die globale Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 27/02 

– Die nord- und südhemisphärische Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 10/03 

– Der solare Einfluss auf das mitteleuropäische und globale Klima seit 1778 bzw. 1850. SO 01/07 (2007) – 

In Memoriam Prof. Richard Scherhag. 

– Über den dominierenden solaren Einfluss auf den Klimawandel seit 1701. SO 27/07 

– El Nino, Vulkane und die globale Erwärmung seit 1980. SO 34/07 

– El Niño und der CO2-Anstieg sowie die globale Erwärmung bei  C11/09O2-Verdopplung. SO 02/08 

– Die unruhige Sonne und der Klimawandel. SO 20/08

– Über die kritische Grenze zwischen unruhiger und ruhiger Sonne und ihre Bedeutung für den Klimawandel. SO  03/09

– La Nina – El Nino und der solare Einfluss – Der Klimawandel 1950-2008. SO 11/09

– Über das Stadtklima und den Klimawandel in Deutschland seit 1780. SO 18/09

– Malberg, H. Klimawandel und Klimadiskussion unter der Lupe. Z. f. Nachhaltigkeit 5. 2007

– Malberg, H. Klimawandel und Klimadebatte auf dem Prüfstand. Verh. Ges.Erdkunde zu Berlin. 2007

– Matthes, K., Y. Kuroda, K. Kodera, U. Langematz: Transfer of the solar signal from the stratosphere to the troposphere: Northern winter.  J. Geophys. Res., 111.2005

– Matthes, K., U. Langematz, L. L. Gray, K. Kodera   Improved 11- year solar signal in the Freie Universität 

– Berlin climate middle atmosphere model. J. Geophys. Res., 109. 2003  

– Negendank, J.W. Gehen wir einer neuen Kaltzeit entgegen? Klimaänderungen und Klimaschutz.TU-Cottbus.2007   

– Pelz, J. Die Berliner Jahresmitteltemperaturen von 1701 bis 1996, Beilage Berl. Wetterkarte, 06/1997 

– Scafetta; N. and B.J. West: Is Climate Sensitive to Solar Variability. Physics today. (2008)

– Scherhag, R. Die gegenwärtige Abkühlung der Arktis. Beilage Berliner Wetterkarte SO31/1970

– Svensmark, H. Cosmic rays and earth‘s climate. Space Science Rev. 93 (2000) 

– Svensmark, H. Cosmic Climatlogy – A new theory emerges. A&G, Vol. 48 (2007)

– Svensmark, H., Friis-Christensen, E. Reply to Lockwood and Fröhlich – The persistent role of the Sun in   Climate forcing. Danish Nat.Space Center. Scientific Report 3/07 (2007)

– Wehry, W.    Einige Anmerkungen zu meteorologischen Messungen und Datenreihen. Beiträge BWK SO 22/09

Daten: Den Temperaturdaten von Basel und Wien liegen die Klimareihen von F. Baur zugrunde, die im Rahmen der „Berliner Wetterkarte“ fortgeführt wurden. 

Die Temperaturdaten von Prag wurden der Internet-Veröffentlichung www.wetterzentrale .de/Klima/ entnommen, erweitert durch Werte, die von der Station Prag direkt zur Verfügung gestellt wurden.

Die Temperaturreihe von Berlin entspricht der von J.Pelz auf Berlin-Dahlem redzierten Werten ab 1701.

Die globalen Temperaturreihen basieren auf den Werten des Climatic Research Unit, UK. (www.cru.uea.ac.uk/cru/data)

Die Sonnenfleckenzahlen entstammen den Veröffentlichung von NOAA

(ftp:/ftp.ngdc.noaa.gov/STP/SOLAR_Data/Sunspot¬_Numbers/Monthly/)

Die Sonnefleckenzahlen vor 1749 wurden aus verschiedenen Quellen ermittelt.

Horst Malberg, Univ.-Prof. (a.D.) für Meteorologie und Klimatologie; EIKE Beiratsmitglied

 Datei hier: Langfristiger Klimawandel auf der globalen, lokalen und regionalen Klimaskala und seine primäre Ursache: Zukunft braucht Herkunft

Herausgegeben vom Verein BERLINER WETTERKARTE e.V. zur Förderung der meteorologischen Wissenschaft 60/09         http://www.Berliner-Wetterkarte.de  ISSN 0177-3984 

Related Files




Mehr CO2 macht die Erde grüner !

Die CO2-Konzentration wächst jährlich im Mittel um 1,8 ppm pro Jahr, entsprechend etwa + 0,5 %. Dies bedeutet in 20 Jahren rund + 10 %. In anderen Worten, die biologischer Produktion ist  entsprechend dem Faktor 0,6 mit dem Zuwachs an CO2 gewachsen. Der Zuwachs entspricht nicht dem Faktor weil außer CO2 noch andere Faktoren wie die Strahlung der Sonne, Niederschläge und andere Faktoren eine Rolle spielen.

Es wird erwartet, dass die CO2-Gehalt der Atmosphäre bei unverminderten Emissionen bis zum Jahr 2100 um ca. 50% auf ca. 560 ppm ansteigt. Aufgrund der erwähnten Fakten erwartet Solomon, dass die globale biologische Produktivität bis dann um 25 % zunimmt. Durch einfache Vergleichsrechnung läßt sich daraus ableiten, dass die Erde dann imstande sein wird, etwa 8,5 Milliarden Menschen zu ernähren. CO2 ist eine unabdingbare Lebensgrundlagen für die Pflanzen und damit für das gesamte Leben auf der Erde. Diese Tatsache (und Schulweisheit) scheint durch die Verunglimpfung von CO2 als „Schadstoff“ oder „Klimakiller“ weitgehend verdrängt worden zu sein.

In der Erdgeschichte sind wiederholt CO2-Konzentrationen von 4000 bis 6000 ppm aufgetreten (heute: 385 ppm). Pflanzen entfalten ihr optimales Wachstum bei ca. 1000 ppm, dem langfristigen Mittelwert der Erdgeschichte.

Lesen Sie dazu den detaillierten Artikel in "What’sUp"

Dr. D.E. Koelle EIKE

In June 2009, Anthony Watts reposted an article by Lawrence Solomon that pointed out that the Earth is greener than it has been in decades if not centuries. NASA’s animations of this Earth (the map of its bio-product), for example the low-resolution one.

In less than 20 years, the "gross primary production" (GPP) quantifying the daily output of the biosphere jumped more than 6%. About 25% of the landmass saw significant increases while only 7% showed significant declines. Note that the CO2 concentration grows by 1.8 ppm a year, which is about 0.5% a year. It adds up to approximately 10% per 20 years. In other words, the relative increase of the GPP is more than one half of the relative increase of the CO2 concentration. The plants also need solar radiation and other things that haven’t increased (or at least not that much) which is why the previous sentence says "one half" and not "the same as". Because the CO2 concentration in 2100 (around 560 ppm) may be expected to be 50% higher than today (around 385 ppm), it is therefore reasonable to expect that the GPP will be more than 25% higher than it is today. Even by a simple proportionality law, assuming no improvements in the quality, transportation, and efficiency for a whole century, the GPP in 2100 should be able to feed 1.25 * 6.8 = 8.5 billion people, besides other animals.?

Of course, in reality, there will be lots of other improvements, so I find it obvious that the Earth will be able to support atleast 20 billion people in 2100 if needed. On the other hand, I think that the population will be much smaller than 20 billion, and perhaps closer to those 8.5 billion mentioned previously.




Offener Brief an Kanzlerin mit über 300 Unterschriften bis heute nicht beantwortet!

Deswegen hat EIKE am 11.9.09 einen Erinnerungsbrief geschrieben, den wir hier im Wortlaut wiedergeben.

Sehr geehrte Frau Bundeskanzlerin,

Ende Juli d.J. übersandten wir Ihnen einen offenen Brief zum Klimawandel. Darin äußerten wir unsere schweren Bedenken zur gegenwärtigen Klimaschutzpolitik, weil sie für unsere Volkswirtschaft schädlich ist und auf falschen Informationen und Annahmen beruht. Die beobachteten globalen Temperaturänderungen – zum Klimawandel verkürzt- der letzten 120 Jahre sind, wie wir im Anhang nachgewiesen haben, natürliche Variationen und zeigen keinerlei irgendwie steuerbaren von Menschen gemachten Einfluss. Dieser wurde auch nirgendwo – auch nicht vom IPCC – nachgewiesen. Tausende von Wissenschaftlern weltweit teilen diese Einschätzung.

Trotz des überaus wichtigen Themas haben wir bis heute keine Antwort erhalten. Vielleicht ist dieser Brief Ihnen bisher nicht vorgelegt worden, vielleicht wurde er auch nur im täglichen Regierungsgeschäft samt Wahlkampf übersehen. Daß er absichtlich unbeantwortet blieb, wollen wir ausschließen.  Wir erlauben uns deshalb Ihnen eine Kopie dieses Briefes samt Anhang zu übermitteln. Den offenen Brief hatten zur Zeit seines Versandes über 130 kompetente Wissenschaftler und Bürger unterschrieben, inzwischen sind es über 300 (darunter nicht nicht wenige Mitglieder Ihrer Partei). Wir bitten daher nochmals,  diesen Brief zur Kenntnis zu nehmen und uns darzulegen, wie Sie mit dieser für unser Land so wichtigen Frage in Zukunft umgehen wollen. 

Wir verbleiben mit freundlichen Grüssen

 Dr. Holger Thuß Michael Limburg

EIKE  Präsident Vizepräsident

Europäisches Institut für Klima und Energie

http://www.eike-klima-energie.eu/

Anlagen: offener Brief vom 26.7.09, 

Unterschriftenliste mit > 290 Unterzeichnern, Kernaussagen

Für diejenigen die den Bürger ebenfalls unterstützen wollen, sie finden ihn rechts unter der Sonne oder hier:http://www.eike-klima-energie.eu/klima-anzeige/klimawandel-offener-brief-an-kanzlerin-merkel-temperaturmessungen-ab-1701-widerlegen-anthropogen-verursachte-temperaturschwankungen/




Frankfurter Rundschau und Greenpeace wissen es genau: Der gekaufte Protest der Öl-Multis; die Lobby begehrt auf

Das darf nicht sein, das weiß doch jeder, das die nur Böses im Schilde führen. Und mit ihnen all die hunderttausende von deren Beschäftigten, die weltweit täglich für diese üblen Burschen arbeiten, und fröhlich, scheinheilig aber wohl nichtsahnend, die armen Erdenbüger mit dem "Umweltgift CO2" versorgen. Aber, da hat die FR ein wachsames Auge drauf, denn nur Greenpeace, BUND, NABU und CO wollen wirklich allein unser Heil!

Zugespielt wurde uns dieser Text von einem Ex-Greenpeace Mitglied, das wegen der Klimaverdummung von Greenpeace verärgert austrat. Eine wachsame Greenpeacefrau*, die es bei der Stange halten wollte, versorgte ihn mit diesem überzeugenden Text.  Zuvor gab aber Greenpeace in einem anderen Schreiben zu:

 “…Wir sehen uns außer Stande jede Entwicklung in der Klimaforschung zu kommentieren, da wir meist nicht wissenschaftlich, sondern politisch arbeiten…”

Na, endlich! Diese Vermutung hatten wir schon länger

Lesen Sie selbst, was sich Klein Ostermann so ausmalt.

Der gekaufte Protest der Öl-Multis Die Lobby begehrt auf

Washington. Was die Gegner der Gesundheitsreform können, mag Jack Gerard gedacht haben, das können wir auch. Der Mann ist Präsident des American Petroleum Institute (API), einem Lobbyarm von Amerikas mächtiger Öl- und Gasindustrie. Vorige Woche schickte Gerard ein Rundschreiben an Verbandsmitglieder, zu denen Multis wie Shell, Exxon Mobile oder ConocoPhillips gehören.

Pech nur, dass die E-Mail Greeenpeace zugespielt wurde. Gerard hatte vergeblich gebeten, das Schreiben vertraulich zu behandeln: "Wir wollen nicht, dass Kritiker unseren Spielplan kennen."

Wie die Gegner der Gesundheitsreform will die Öl-Lobby lautstarke Proteste inszenieren – um Obama und seine Demokraten unter Druck zu setzen und so das neue Klimagesetz zu verhindern……..

Den ganzen Artikel finden Sie hier: 

http://www.fr-online.de/in_und_ausland/politik/aktuell/?em_cnt=1889471&em_loc=1231

Leserbriefe hier: leserbrief@fr-online.de 

* Greenpeace Aktivistin: Angela Schadt Information und Förderer-Service

Greenpeace e. V. 22745 Hamburg

 M.L.




Klimakatastrophenangst: Über Kopenhagen, Schellnhuber, Latif und andere. Oder , was haben „Wissenschaft“ und Angstmache miteinander zu tun?

Um einen solchen Flop zu verhindern wird  -besonders vom Potsdamer Schellnhuber- schwerstes Geschütz aufgefahren. Kein noch so abstruser Vergleich ist da gewaltig genug:  Meinte er doch kürzlich den Klimawandel mit der "gesicherten gemeinsamen Vernichtung" während des kalten Krieges vergleichen zu müssen, zu deren Verhinderung jedes, aber auch jedes Mittel  recht sei:  Originalton Schellnhuber: "In the agonizing times of the cold war, the logic of mutually assured destruction (MAD) fueled the arms race that brought humanity to the edge of annihilation. Striking parallels exist between the political situation then and the international climate change negotiations today. The United Nations Climate Conference (COP15)  in Copenhagen in December 2009 can only be successful if the logic of MAD is turned upside down, transforming it into mutually assured decarbonisation.  In a novel spirit of trust, each country needs to commit to the most ambitious targets and measures that are technologically and economically feasible,  on the firm assumption that all other countries will do the same."

Eifrig wird dabei die Vorgabe des Lehrmeisters und ehemaligen Chef des IPCC John Houghton befolgt, der seine Kollegen mit dem Satz aufklärte "Wenn wir keine Katastrophen ankündigen, wird uns keiner zuhören". Nun, da müssen eben Katastrophen her, da heißt es klotzen und nicht kleckern. Zusammen mit anderen Gesinnungsgenossen, traulich vereint – man kennt sich, man hilft sich- im "Wissenschaftlichen Beirat der Bundesregierung Globale Umweltveränderungen (WBGU)" legte man soeben ein "Sondergutachten" getarnt als "Budgetansatz"vor : den "Kassensturz für den Weltklimavertrag"

Danach sollte in Kopenhagen eine drastische Reduzierung der gesamten technischen CO2 Emissionen auf 750 Mrd. t für die ganze Welt beschlossen werden. Das wäre gleichbedeutend mit einer Reduktion auf Nahe Null für alle Industrieländer. Eine freiwillige (?) Selbstzerstörung!

Natürlich  müssen auch immer wieder dieselben schlimmen Katastrophen herhalten, um diese absurde in "wissenschaftlichen" Gewand vorgetragene Forderung zu unterstützen. Diesmal war wieder dem Grönlandeis die Rolle des Schurken zugedacht. Es würde – wenn man nicht jetzt sofort alles herunterführe-  sofort beginnen abzuschmelzen. Leider mußte der Mitkatastrophiker Rahmstorf bei Vorstellung des Gutachtens einräumen, …auch bei einer Begrenzung der Erderwärmung auf 2°C können ein Abschmelzen des Grönlandeises nicht völlig ausgeschlossen werden. Ein Anstieg des Meeresspiegels um rund sieben Meter wäre die Folge. Immerhin hätten sie die Katastrophe, die bei Nichtbefolgung dieses Ratschlages zur völligen Vernichtung der westlichen Industrienationen, eintritt, mit sagenhaften 67% Wahrscheinlichkeit errrechnet.

Da interessiert es keinen Menschen, dass der Meeresspiegel überhaupt nicht daran denkt anzusteigen, daß das Eis in Grönland an den Rändern taut, in der Mitte aber umso stärker wächst, auch die Arktis legt wieder zu.

Abbildung: Meerespiegelprognosen des IPCC* und anderer. Fazit: Die Sintflut kommt nicht! (Quelle NIPCC)

* Die abgebildete Grafik ist im vorderen Teil  irrtümlich fehlerhaft. Wie uns Leser HADUG mitteilte. Die Prognoseangabe ist für 1991 ist zu hoch. Die Prognoseangabe für 1995 müsste 13 -94 cm lauten.

Evtl. ist der Berichterstatter des NIPCC dieser Meldung von 1989 gefolgt:"A senior U.N. environmental official says entire nations could be wiped off the face of the Earth by rising sea levels if the global warming trend is not reversed by the year 2000. Coastal flooding and crop failures would create an exodus of "eco-refugees," threatening political chaos, said Noel Brown, director of the New York office of the United Nations U.N. Environment Program, or UNEP. He said governments have a 10-year window of opportunity to solve the problem. –The Miami Herald, 5 July 1989.

Den genauen Hintergrund für diesen Irrtum kennen wir jedoch nicht, und bitten den Fehler zu entschuldigen.

Der andere Katastrophenprofesseror aus Kiel – Mojif Latif- ist da viel schlauer. Der sucht sich jetzt schon Hintertürchen, da auch die Globaltemperatur seit 10 Jahren partout nicht den Modellprognosen folgen wollte und nicht steigen will. Derselbe Latif, der noch vor kurzem der Bildzeitung sagte: "Die Erwärmung entwickelt sich wie vorhergesagt. Die Modelle wurden auch an vergangenen Klimaänderungen getestet. Es gibt keinen Grund, den Modellen zu misstrauen" behauptet jetzt bei einem der vielen UN Klimakongresse in Genf, daß die Erde die nächsten 10 Jahre, vielleicht sogar 20 Jahre abkühlen würde. So genau wüßte er das nicht. Schuld daran seien die bisher nicht in die Modelle eingeflossenen Meeresströmungen. Letztere gibt es zwar schon immer, aber der Meeresklimaforscher Latif hat sie wohl erst jetzt entdeckt. Aber danach, würde die Klimakatastrophe bestimmt wieder kommen, ganz bestimmt.

Michael Limburg EIKE




„Autoritäten nicht blind vertrauen“ – Interview mit Vince Ebert

FreieWelt.net:  Sie nehmen im Rahmen Ihres Comedyprogramms die häufige Verzerrung wissenschaftlicher Erkenntnisse in der medialen Berichterstattung aufs Korn.  Wie kommt es zu diesen Verzerrungen?

Vince Ebert: Als vor einigen Wochen ein Trafobrand im Kernkraftwerk Krümmel zur Schnellabschaltung führte, habe ich in keinem einzigen „seriösen“ Medium erfahren, dass auf der achtstufigen internationalen Sicherheitsskala der Vorfall in die Kategorie „Null“ eingestuft wurde. Die öffentliche Diskussion über Reizthemen wie Atomkraft oder Gentechnologie wird von Menschen dominiert, die oft noch nicht mal wissen, was ein Gen ist, oder die Becquerel für einen französischen Landwein halten.

Obwohl man zum Beispiel die Photovoltaik mit jährlich einer Milliarde Euro subventioniert, macht sie nur 0,3 Prozent des Energiemixes aus. Rein von der Ökobilanz wäre es also effektiver, Langzeitarbeitslosen 100.000 Euro pro Jahr zu zahlen, damit sie ein, zwei Stündchen am Tag auf Ergometern für den deutschen Energiehaushalt strampeln Deswegen heißt Solarenergie ja auch so. Weil sie so lala funktioniert.

Aber statt sich ernsthaft mit zukunftsfähigen Technologien auseinanderzusetzen, träumen wir von Ackerbau und Viehzucht vor 100 Jahren, stellen Windmühlen auf und schicken unsere Kinder in Schulen in denen sie lernen, ihren eigenen Namen zu tanzen. Und dieses weltfremde Rumgeeiere nennen wir dann „Fortschritt“. 

FreieWelt.net:  Wie groß ist die Gefahr, dass die Wissenschaft von der Politik missbraucht wird?

Vince Ebert: Das Geschäft mit der angeblichen Klimakatastrophe ist ein sehr gutes Beispiel. Viele Politiker retten lieber das Klima in 50 Jahren, als sich heute mit so lästigen Themen wie Rentenpolitik oder der Gesundheitsreform zu beschäftigen. Der Staat pumpt seit Jahren Unsummen von Fördergeldern in Klimaforschungsinstitute – im Wesentlichen, um den Satz zu hören: Es wird alles immer schlimmer – wir müssen endlich etwas tun!

Vielen ist nicht bewusst, dass es in der Klimaforschung im Grunde gar nicht um Wissenschaft geht. Die computergestützten Klimamodelle, auf die sich alle Prognosen stützen, basieren nämlich alle auf sogenannten „nichtlinearen Systemen“. Ich habe in meinem Studium und später als Unternehmensberater diese nichtlinearen Systeme kennen gelernt und weiß, dass man mit ihnen jedes beliebige Ergebnis „errechnen“ kann, wenn man nur geschickt den ein oder anderen Anfangsparameter minimal variiert. Salopp gesagt sind Prognosen von Klimamodellen also nichts anderes als die in Formeln gegossene Meinung ihrer Schöpfer.

Das steht übrigens auch so im Weltklimabericht. In Kapitel 13 (ganz weit hinten also) findet sich der Satz: „Klimamodelle arbeiten mit gekoppelten nichtlinearen chaotischen Systemen. Dadurch ist eine langfristige Voraussage des Systems Klima nicht möglich.“ Egal ob Sie also eine Versicherung abschließen oder die Welt retten wollen – lesen Sie vorher auf jeden Fall das Kleingedruckte!…….

Nachdruck mit freundlicher Genehmigung des Autors.

Das ganze Interview finden Sie hier




Arktisches Eis II: Schwankungen der arktischen Eisbedeckung und wodurch sie ausgelöst werden.

Der Wissenschaftler Prof. Dr. Morison (Polar Science Center – PSC) und sein Team stellten fest, dass es einen unmittelbaren Zusammenhang der arktischen Seeeisbedeckung mit der Arktischen Oszillation (AO) gibt: „The winter of 2006-2007 was another high Arctic Oscillation year and summer sea ice extent reached a new minimum.“ Betrachten wir nun explizit die Winter-AO, um eine Prognose erstellen zu können, wie sich die Sommereisschmelze in 2009 entwickeln wird.

Abbildung 1

Die Abbildung (Quelle: NOAA) zeigt den Winter AO-Index für die Jahre 1950 – 2008 (letzter roter Balken). Es ist deutlich erkennbar, dass die AO sich in einer ausgeprägten Warmphase befindet.  Der 2007-Wert (vorletzter Balken) veranlasste Prof. Dr. Morison zu seiner o.a. Aussage. Da der 2008-Wert nicht signifikant anders aussieht, ist auch in 2009 von einem deutlichen Rückgang der arktischen Sommermeereisbedeckung auszugehen, zumal auch die AMO (Atlantic Multidecadal Oscillation) noch positiv ist, wodurch die Wassertempe-raturen vergleichsweise hoch bleiben. Die AMO ist ein Maß für die Wasseroberflächentemperatur im Atlantik. Da es sich bei der arktischen Seeeisbedeckung um schwimmendes Eis handelt, ist klar, dass vergleichsweise hohe Wassertemperaturen eine Sommereisschmelze begünstigen.

Wie sehr die AMO in Relation zur Eisbedeckung auf der Nordhalbkugel steht, geht überdeutlich aus der folgenden Abbildung hervor.

Abbildung 2

Die Abbildung (Quelle: Slupetzky, 2005, Uni Salzburg) zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2005. Es ist gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß folgt und, dass es in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen gab, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild).

Die AMO befindet sich derzeit in einer ausgeprägten zyklischen Warmphase, was zusammen mit der Warmphase der AO, die Sommereisschmelze in 2009 weiter begünstigen wird. Da die AMO keinerlei Korrelation mit dem CO2-Atmosphärenpegel aufweist, muss nach einem anderen Zusammenhang gesucht werden. Ihr zyklisches Verhalten deutet auf natürliche Ursachen hin. Hier bietet sich geradewegs die zyklische solare Aktivität an.

Abbildung 3

Die Abbildung links zeigt den NAO-Winterindex von 1865 – 2000 (Quelle: Deutscher Wetterdienst). Deutlich ist in der Wellenform ein 10-Jahres-Zyklus abgebildet, der zeitlich exakt mit dem Schwabezyklus der Sonne korreliert. Hohe Indexwerte sind mit einer intensiven nordatlantischen Westdrift und damit milderen Temperaturen verbunden. Rechts ist der NAO-Winterindex von 1982 – 1998 abgebildet (ergänzt nach Quelle: American Mete-orological Society Journal Online, Volume 13, Issue 5, März 2000). Die kleine Abbildung ist hineinkopiert und zeigt den Schwabezyklus der Sonne im selben Zeitraum. Er stimmt exakt mit dem NAO-Winterindex überein.

Ich möchte Ihnen noch weitere Abbildungen zeigen, die die Abhängigkeit der AMO von der Sonnenaktivität belegen. Die folgende Abbildung zeigt oben die NAO im Zeitraum von 1973 bis 2002. Darunter das elektrische Feld (E) des Sonnenwinds. Als dritten Graph den planetary magnetospheric Kp-Index und den dynamischen Druck (P) des Sonnenwindes, Quelle: Lund-University, Schweden (http://sunspot.lund.irf.se/nao1.html). Der Kp-Index ist eine Maßgröße für die geomagnetische Sonnenaktivität, die aus den Daten von 13 weltweiten Observatorien bestimmt wird. Der Kp-Index geht zurück auf Prof. Julius Bartels, der ihn 1949 entwickelte.

Abbildung 4

Es ist ein deutlicher Zusammenhang zwischen dem NAO-Verlauf und den verschiedenen Sonnenaktivitätsparametern festzustellen. Dies zeigt auch die folgende Abbildung. Sie stammt aus der Arbeit “Solar Wind Variations Related to Fluctuations of the North Atlantic Oscillation“ von Fredrik Boberg (Lund Observatorium, Schweden), Henrik Lundstedt (Swedish Institute of Space Physics).

Abbildung 5

Die Abbildung zeigt oben die Gruppe der Sonnenflecken (RG) für 33 Sonnenzyklen, vom Zyklus -12 bis Zyklus 20 und darunter die Stärke der positiven NAO, Quelle: (http://sunspot.lund.irf.se/NAO_article1.pdf). Es ist unschwer in beiden Diagrammen das gleiche Muster erkennbar.

Es ist somit ersichtlich, dass die AMO von der Sonne moderiert wird und mit ihr die arktische Seeeisentwicklung. Da die AMO durch die starke Sonnenaktivität bis 2003 in ihre positive Warmphase gebracht wurde, in der sie, da Wasser bekanntlich eine hohe Wärmekapazität hat und damit träge reagiert, noch ein paar Jahre bleiben wird.

Dass die arktische Sommereisschmelze kein bedrohliches Ereignis sein kann, geht übrigens aus dem sog. archimedischen Prinzip hervor. Schmilzt schwimmendes Eis, so ändert sich dadurch der Wasserpegel um keinen Millimeter, wie die folgende Abbildung zeigt.

 

Abbildung 6

Nach diesem kleinen Exkurs, zurück zu den Arbeiten von Prof. Morison über die arktische Eisschmelze. Das Forscherteam um James Morison fand heraus, dass sich (durch die geänderten Meeresströmungen) der Salzgehalt der arktischen See seit 2002 deutlich geändert hat (folgende Abbildung links).

Abbildung 7

Die Abbildung links zeigt die Trendkonturen des Druckes der arktischen See im Zeitraum von 2002 – 2006, verglichen mit dem Referenzwert der 1990-Jahre. Der Druck steht im direkten Zusammenhang mit dem Salzgehalt, weil die Änderung des Wasserdrucks durch die im Wasser gelösten Stoffe – Salz – bestimmt wird. D.h. eine Erhöhung des Druckes ist gleichbedeutend mit einer äquivalenten Erhöhung des Salzgehaltes – je höher der Druck, desto höher der Salzgehalt. Die Messungen entstanden mit GRACE. GRACE ist ein Gemeinschaftsprojekt der NASA und des DLR (Deutsches Zentrum für Luft- und Raumfahrt).

Zu diesem Chart habe ich Ihnen, die sich veränderte Eisbedeckung im Zeitraum von 1979 – 2005, wobei die Eisschmelze in den 2000-Jahre vergleichsweise hoch ausfiel, Quelle: NASA, zum Vergleich herangezogen. Werden beide Abbildungen miteinander verglichen, wird sofort ersichtlich, dass die Regionen, die eine hohe Eisschmelze zu verzeichnen haben, überwiegend auch die Regionen sind, in denen sich der Salzgehalt des Meerwassers erhöht und damit der Schmelzpunkt des Eises herabgesetzt wurde, d.h., dass die Eisschmelze bereits bei tieferen Temperaturen eintritt, bzw. bei höheren Temperaturen verstärkt stattfindet, mit einer großen Eisschmelze in der Fläche.

Wir alle kennen diesen Effekt in der Wintersaison, wenn der Gefrierpunkt von Schnee durch das Ausbringen von Salz auf die Straße herabgesetzt wird und dadurch der Schnee/das Eis auch bei Minustemperaturen bereits schmilzt. Noch etwas möchte ich Ihnen nicht vorenthalten.

Jeder Interessierte kennt wohl die beiden folgenden Abbildungen.

Abbildung 8

Die linke Abbildung zeigt die arktische Eisbedeckung im September 1979, unmittelbar nach der Kälteperiode der 1960- und 1970-Jahre, als alle Welt von der vermeintlich drohenden Eiszeit sprach (http://scottthong.files.wordpress.com/2007/03/newsweek1975globalcooling.JPG). Die rechte Abbildung dazu im Vergleich, die arktische Eisbedeckung im September 2005.

Wie bereits gezeigt, ist der Eisrückgang auf Veränderungen im Salzgehalt zurückzuführen und in der Fläche besonders in den Eismeerbereiche vor der russischen Küste zu sehen. Hier ist in der Tat ein deutlicher Rückgang in der Fläche zu sehen, was die beiden Aufnahmen zeigen. Ich habe daher die Aufnahmen näher betrachtet und als Orientierung zu den Küstenbereichen (zum Vergleichen) Flächen markiert.

Abbildung 9

Es ist erkennbar, dass bereits 1979 vor der Einmündung des sibirischen Flusses Lena, eine Ausbuchtung in der Eisbedeckung und damit eine verstärkte Eisschmelze zu beobachten ist. Diese hat sich bis zum Jahr 2005 noch weiter ausgeprägt (rechte Abbildung). Die Eisrückgangsflächen A1, A3, A4 liegen im Flachwasserbereich, was die These, eine Erwärmung hätte dies einzig verursacht, stützt. Wir alle wissen z.B., dass sich eine geringe Wassermenge schneller erhitzen lässt, als ein große. Die Eisrückgangsfläche A2, die wie eine Zunge in die Eisfläche ragt, liegt indes über einem Tiefseegraben von 4.000 m Wassertiefe (folgende Abbildung). Aufgrund der thermischen Trägheit und der physik. Wärmekapazität müsste sich eigentlich die Wärme verteilen, was zu einer Abschwächung des Eisrückgangs führen müsste. Das Gegenteil ist jedoch der Fall. Es kann demnach mit dem alleinigen Postulat, eine Erwärmung wäre für den Eisrückgang verantwortlich, etwas nicht stimmen.

Abbildung 10

Prof. Morison hat zweifelsfrei festgestellt, dass sich durch zyklisch veränderte Meeresströmungen der Salzgehalt im arktischen Meer verändert hat. Die Gebiete, die eine Zunahme der Salzkonzentration zeigen, korrelieren stark mit den Eisrückzugsgebieten. Es kommt offensichtlich noch eine weitere Komponente, der Schadstoffeintrag über die sibirischen Flüsse hinzu. Schadstoffe verteilen sich vorrangig in der Oberfläche und verstärken dort die Eisschmelze. Wir alle wissen aus Tankerhavarien, dass sich Schadstoffe auf Grund der geringeren chemischen Reaktion in kaltem Wasser dort länger halten und es zu einer Akkumulation kommt. So gelangen über die sibirischen Flüsse jedes Jahr über 4.000 km3 Wasser und mit diesem, gewaltige Schadstoffmengen ins Polarmeer. So senkt z.B. das natürliche Frostschutzmittel Ammoniak (Ammoniak ist eines der wichtigsten und häufigsten Produkte der chemischen Industrie. Es dient als Ausgangsstoff für Stickstoffdünger, aber auch zur Sprengstoffproduktion) den Gefrierpunkt von Wasser ganz erheblich.

Anhand der geschilderten Zusammenhänge möchte ich eine Prognose zur Entwicklung der arktischen Eisbedeckung für die nächsten Jahre abgeben.

Fazit für 2009: Sowohl der noch erhöhte Salzgehalt in den vorrangigen Schmelzregionen, die positive AMO und der hohe Winter-AO-Wert für 2008 werden auch in 2009 die Eisflächen im Sommer deutlich schmelzen lassen, wodurch auch (noch) 2009 eine deutliche Eisschmelze beobachtet wird.

Fazit bis 2015: Der geschilderte Dekadenzyklus und der Rückgang in der Sonnenaktivität werden die Meeresströmungen im Polarmeer wieder ändern, dadurch den Salzgehalt verringern, sowie die AO in die Kaltphase überführen. Da die AMO weiter in einer (abgeschwächten) Warmphase bleibt, wird die Eisschmelze zwar rückläufig ausfallen, aber die Eisbedeckung nicht die Ausmaße von 1979 erreichen.

Fazit ab 2015: Mit weiterer zurückgehender Sonnenaktivität (siehe S. 217 – S. 266) wird auch die AMO in ihre zyklische Kaltphase wechseln und die Eisbedeckung, vor allem im Sommer, weiter zunehmen. Die Werte von 1979 werden dabei deutlich überschritten werden, da mit dem fallenden 208-jährigen de Vries/Suess-Zyklus der Sonne (http://wetterjournal.wordpress.com/2009/07/14/der-einfluss-des-im-mittel-208-jahrigen-de-vriessuess-zyklus-auf-das-klima-der-erde/) und dem Minimum im Gleißberg-Zyklus, der den 11-jährigen Schwabe-Zyklus der Sonne moderiert, die Sonne vergleichsweise inaktiv bleibt und die Temperaturen weiter fallen lässt. Land- und Seetemperaturen werden dann, aufgrund der Wärmekapazität des Wassers, synchron zur Sonnenaktivität laufen. Derzeit ist noch von der Energie, die die Meere durch die aktive Sonne im ausgehenden 20.- und zu Beginn des 21. Jahrhunderts erhielten, in den Meeren gespeichert.

Zum arktischen Eisrückgang noch ein dramatischer Bericht der der Royal Society:

In den Regionen um den Polarkreis hat ein bemerkenswerter Klimawechsel stattgefunden. […] Mehr als 2.000 Quadratmeilen Eisfläche zwischen 74 und 80 Grad nördlicher Breite, die bislang die Grönlandsee bedeckten, sind in den letzten zwei Jahren vollkommen verschwunden […]

Die Kälte, die das Gebiet der Arktis über Jahrhunderte in einen undurchdringlichen Eispanzer verwandelt habe, sei offenbar in kürzester Zeit höheren Temperaturen gewichen. Auch in Zentraleuropa gibt es alarmierende Zeichen für eine rasche Klimaerwärmung:

“Alle Flüsse, die im Hochgebirge entspringen, haben aufgrund der abgetauten Schnee- und Gletscherwasser weite Regionen überschwemmt….”

Die britische Royal Society empfiehlt dringend die Entsendung von Schiffen, um den dramatischen Klimaumschwung im Nordmeer zu erforschen…

Obiger Bericht der Royal Society stammt vom 20. November 1817.

Einen Überblick über die arktische (und antarktische) Eisbedeckung liefert der folgende Link: (http://arctic.atmos.uiuc.edu/cryosphere/).

R. Leistenschneider

Den ganzen Bericht können Sie auch als pdf Datei herunterladen

Related Files