1

Phoenix Runde Teil III: „Kein prima Klima – Ist die Welt noch zu retten?“ Ein Fak­tencheck!

So wurde jedes Thema angesprochen und jede Menge Heilsversprechen abgegeben. Auf die Idee, dass die Armen durch eigene Anstrengung reich werden könnten, wie es uns nicht nur die BRIC Staaten oder die asiatischen Tiger seit Jahrzehnten vormachen, kam kaum einer in der Runde.  Mittel zum Zweck, um die Umverteilung zu erzwingen, ist die Angst vor dem Klimawandel, induziert durch CO2, einem Klimawandel, wie er nur in den Klimamodellen vorkommt. Daher schauen wir uns jetzt die Klimamodelle an.

Zuvor noch der Einfachheit halber der Einblick in die Sendung, die wir hier mit freundlicher Genehmigung von PHOENIX zeigen. Zur Erinnerung: Bei den Originalzitaten sind die Minuten in Klammern angegeben, in denen man diese Zitate (nicht immer wortgetreu) hören kann.

Sendung vom 9.12.10 „Ist die Welt noch zu retten“ (Mit freundlicher Erlaubnis von Phoenix)

7. Wie gut sind die Klimamodelle?

Ausschließlich auf Computer gestützte Klimamodelle werden eingesetzt, um damit Prognosen  über die zukünftige Klimaentwicklung zu errechnen. Wie gut sind nun die Ergebnisse dieser Prognosen? Halt sagt da Prof. Bott (13:16) „Niemand prognostiziert, man entwickelt Scenarien! Es wird nichts vorhergesagt!“. Nichts vorhergesagt, Projektionen? Was denn dann?

Unter den anderen Teilnehmern im Studio, so der allgemeine Eindruck, konnte niemand so recht den Unterschied zwischen den beiden Begriffen erkennen. Wenn das IPCC aber, bestätigt durch Prof. Bott, sagt, dass bei weiterem CO2 Ausstoß die Erde mächtig warm wird, dann soll das keine Prognose sein?  Schauen wir nach:

Was sind Prognosen, was sind Szenarien?

Prognose (aus dem griech. „das Vorwissen) ist definiert als eine Vorhersage, also eine Aussage über Ereignisse, Zustände oder Entwicklung in der Zukunft! So schreibt es das in dieser Hinsicht unverdächtige Wikipedia.

Über Szenario steht dort:

Szenario (Plural Szenarios) oder Szenarium (Plural Szenarien) steht übertragen im Allgemeinen für den ausgedachten oder ausgerechneten Entwurf einer Situation oder eines Ablaufes, spezieller für:

* den szenisch gegliederten Entwurf eines Erzählwerks, siehe Handlung (Erzählkunst)

* eine Stufe der Verfilmungsvorbereitung in der Filmkunst: Filmszenario

* die Planung eines möglichen Zustands in der Zukunft, siehe Szenariotechnik

*  die Bewertung einer Softwarearchitektur nach einem bestimmten Verfahren.

„Ausgedacht“ oder „ausgerechnet“ steht da. Doch leider passt keines der obigen Beispiele so richtig auf die IPCC-Szenarien, so wie sie uns präsentiert werden. Wenn es sich also wirklich um Szenarien statt Prognosen handelt, dann passt noch am Besten das erste Beispiel des ..szenisch gegliederten Entwurf eines Erzählwerks.. oder evtl. besser …die Planung eines möglichen Zustands in der Zukunft..“ Was hier stört ist das Wort „Planung“. Evtl. könnte man sagen: „Berechnung eines möglichen Zustands in der Zukunft“.

Nun, falls es das wirklich ist, dann kann man – ohne zuviel Phantasie einzusetzen – schnell eine schier unendliche Zahl von möglichen Zuständen in der Zukunft = Szenarien berechnen: Z.B, ob wir von einem Meteor getroffen werden, im Lotto gewinnen, vom Auto überfahren werden, eine glücklich oder unglückliche Ehe führen werden, etc. etc. (Einen klugen Beitrag zu dieser Frage hat der Physiker Peter Heller geschrieben, sie finden ihn hier, mit Dank an Leser Bombosch)

Oder auch, ob und wie sich die Mitteltemperatur der Erde durch CO2 Emissionen erhöht! Das setzt voraus, dass ich in mein Modell einbaue, dass z.B. das CO2 der große Treiber dieser Erhöhung ist und zusätzlich, dass eine geschlossene Theorie des Klimas zur Hand ist. Die erste Voraussetzung, in Gestalt der Wasserdampfrückkopplung, ist in alle Klimamodelle eingebaut, sie ist sozusagen der Motor, obwohl kein Nachweis für die hier wirkenden Rückkoppelungsmechanismen erbracht wurde (eine Reihe von Autoren haben auf Grund von Messungen das Gegenteil hergeleitet, z.B. Lindzen, Choi, Spenccer, Paltridge, Arking). Und eine in sich geschlossene Theorie des Klimas existiert ebenfalls nicht, dafür sind u.a. die Ungewissheiten und die sich daraus ergebenden Ungenauigkeiten noch immer viel zu groß.

Nicht ohne Grund schreibt daher das IPCC im 3. Bericht TAR:

“ In der Kli­ma­for­schung und -Mo­del­lie­rung soll­ten wir be­ach­ten, daß wir es mit ge­kop­pel­ten nicht­li­ne­a­ren cha­o­ti­schen Sys­te­men zu tun ha­ben und des­we­gen sind Lang­zeit­prog­no­sen von zu­künf­ti­gen Kli­ma­zustän­den nicht mög­lich“ (Third As­sess­ment Re­port, Sec­tion 14.2.2.2)”

Dabei wurde noch nicht mal der Mangel einer geschlossenen Theorie des Klimas erwähnt. Wie gut also sind die Klimamodelle? Hier herrschte große Uneinigkeit unter den Experten:

Bott (11:56) (Limburg hat sich) …lustig gemacht über Modelle: (sie) sind aus strikten und logischen Gleichungssystemen entwickelt, die absolut korrekt sind. 12:44; aus mathematischen Gesetzmäßigkeiten heraus. …sind (jedoch) hochgradig nichtlinear 13:03; deswegen nicht vorhersagbar. Ist aber nicht schlimm. 13:16 Niemand prognostiziert, man entwickelt Szenarien! Es wird nichts vorhergesagt!

Limburg: 11:56 ausführlicher Widerspruch bis 15:25

Bott übersieht, dass die mathematische-logische Korrektheit eines numerischen Modells überhaupt nichts darüber aussagt, ob es in der Realität zutrifft. Sie ist lediglich eine der Voraussetzungen, die unabdingbar erfüllt sein müssen, mehr nicht. Als stellvertretendes Gegenbeispiel seien die unzähligen – mathematisch-formal vollständig korrekten – volkswirtschaftlichen Modelle genannt, die es noch niemals fertig gebracht haben, die komplexen volkswirtschaftlichen Mechanismen befiriedigend zu beschreiben (die Pleite des LTCC-Hedgefond lässt grüßen). Beim Klima ist es nicht anders. Uns ist kein Modell bekannt, das ohne massive Manipulationen die Klimavergangenheit wiedergeben konnte. Selbst mit so „einfachen“ Phänomenen, wie dem El Nino oder der NAO sind Klimamodelle bereits hoffnungslos überfordert. Kein Modell hat es bis heute geschafft, diese Oszillationen genau zu beschreiben oder gar ihren Eintritt vorherzusagen. Und diese Fähigkeit ist sozusagen als die „leichtere Übung“ unter vielen anderen anzusehen. Mit den Wolken, den klimawirksamsten Gebilden überhaupt, sind Modelle hoffnungslos überfordert. Modelle sind für klimatologische Detailprobleme wertvolle Hilfsmittel, für Weitergehendes kann man sie aber nicht ernst nehmen.

Ein Vergleich der Realität mit den „Szenarien“ erlaubt eine einfache Überprüfung der Qualität dieser Modelle. Für Prognosen wie Szenarien sollte gelten, dass je kürzer die Zeit nach der „Vorhersage, desto sicherer die Aussage ist.

Aus dem IPCC AR4 (4. Abschätzungsbericht von 2007) stammt die folgende Grafik.

Abbildung 9 zeigt verschiedene Szenarien (Prognosen?) A“ bis „Constant“ aus dem AR4 von 2007. Der rote Kringel zeigt die letzten 10 Jahre.

Dazu der Klimamodellierer Mojib Latif vom Geomar in Kiel in der Bild-Zeitung vom 20.09.07 Seite 13:

„Die Erwärmung entwickelt sich wie vorhergesagt. Die Modelle wurden auch an vergangenen Klimaänderungen getestet. Es gibt keinen Grund, den Modellen zu misstrauen „

Gemäß unsreren o.g. Ausführungen ist dies eine Übertreibung (um das Wort „Lüge“ zu vermeiden). Modelle haben definitiv noch nie die Klimavergangenheit befriedigend wiedergeben können!

Abbildung 10. Hier wird der errechnete Verlauf (als Durchschnitt der beiden Satellitenmessungen UAH und RSH ) der globalen Mitteltemperatur seit 9 ½ Jahren ab der Jahrtausendwende gezeigt. Dieser Anstieg über grob 10 Jahre, auf das gesamte Jahrhundert hochgerechnet, beträgt 0,1 K pro Jahrhundert. Das IPCC veröffentlicht in seinen „Szenarien“ dagegen einen Jahrhundertanstieg zwischen 2,4 bis 5,3 K pro Jahrhunder [1]. Also das 24 bis 53 fache! Es muss also noch eine Menge passieren, um die IPCC-Prognosen Wirklichkeit werden zu lassen, wir sind gespannt. Damit wäre auch gleich die Frage mitentschieden, ob es nun immer wärmer wird, oder nicht. Einen netten Artikel dazu finden Sie auch hier!

In der Sendung sagte

Professor Bott dazu (25:10) es ist nicht richtig, dass sich die Erde nicht mehr erwärmt hat in den letzten…10-15 Jahren. Das ist einfach absolut falsch: Einwurf Limburg:-…sagt Phil Jones (25:13)…Bott ..wer das sagt, weiß ich nicht.. Limburg: der  IPCC Chef Hauptautor. Keinerlei Erwärmung seit 1995. (sagt Phil Jones) Modelle haben versagt: CO2 steigt an. (18:3) Bott (25:31) WMO sagt 2010 ist das 3. wärmste Jahr seit Aufzeichnung der Wetterdaten. Limburg: (Das sind).. zwei paar Schuhe!

Eine kurze Anmerkung zu der immer wieder verbreiteten Behauptung von den soundso vielen wärmsten Jahren über (beispielsweise) 100 Jahre in den soundsovielten letzten Jahren: in der Tat ergibt die einfache Kombinatorikberechnung eine extrem geringe Wahrscheinlichkeit für diese Häufung – ist also etwas Schreckliches passiert? Keineswegs: Man muss nur ein wenig weiter in der Zeit zurückgehen und sich z.B. die zuverlässige Hohenpeißenberg-Temperaturkurve ansehen. Hier findet man, wenn etwa die 100 Jahre von 1790 bis 1890 betrachtet werden, eine ebenso unwahrscheinliche Häufung von kalten Jahren am Ende dieses Zeitraums. Woran diese Häufungen liegen, kann mit Hilfe der Persistenz von Temperaturreihen erklärt werden (s. beispielsweise Vortrag von Prof. Lüdecke auf der 3. Berliner Klimakonferenz). Wir wollen aber diesen recht technischen und keineswegs einfachen Punkt hier nicht weiter vertiefen.

Der IPCC Leitautor und bekannte Modellierer Kevin Trenberth schrieb im Oktober 11, 2009: email 1255352257 an den Hockeystick Erfinder Michael Mann:

“The fact is that we cannot account for the lack of warming at the moment and it’s a travesty that we can’t.”

„Fakt ist, dass wir für die fehlende Erwärmung (s. Grafik Abb 10)  keine Erklärung haben und es ist ein Hohn das wir sie nicht haben“

Man beachte das Datum. Es war vor einem Jahr im Oktober. Wie gut sind also die Szenarien bzw. Prognosen ohne Vorhersage? Der Leser möge selbst entscheiden.

8. Schuld und Sühne

Die anderen Diskutanten waren sich trotzdem weitgehend einig, dass

(1) eine massive Klimabedrohung existiere,

(2) diese vom Menschen verursacht sei und

(3) dazu noch der Westen die Schuld an dem drohenden Desaster trüge wegen seines erfolgreichen kapitalistischen Wirtschaftsmodells.

Dazu sagten:

Frau Henneberger (15:55) Historische Klimaschuld, THG Ausstoss massiv senken, und Gelder bereitstellen. Herr Fischer: (24:16) Vorbild: Müssen beweisen das Wirtschaftswachstum und CO2 Ausstoß korrelieren; nicht miteinander zusammenhängen.

Herr Limburg: ( 21:10 Schuld und Sühne?), (21:25)   Es geht ums Geld; Edenhofer Zitat, Modelle zeigen Anstieg, in der Realität zeige sich kein Anstieg.

Wie der bisherige Faktencheck Teil I und Teil II erkennen ließ, lässt sich keiner der von den Diskutanten Henneberger, Fischer und Bott erhobenen Vorwürfe bestätigen. Eine „Schuld“ der westlichen Staaten an irgendeinem Klimawandel, festgemacht an der vermuteten Temperatursteigerung durch anthropogenes CO2, lässt sich nicht erkennen. Dann sollte der Richterspruch lauten: Wo keine Schuld, da keine Sühne. Doch darauf wollte sich bisher keiner einlassen, obwohl Otmar Edenhofer, ehemaliger Jesuit, jetzt Chefvolkswirt des PIK und stellvertretender Vorsitzender des IPCC in einem NZZ [2]( Neue Zürcher Zeitung) Interview ganz deutlich erklärte was von seiten der UNO und der sie unterstützenden Kreise eigentlich angestrebt wird:

„Zunächst mal haben wir Industrieländer die Atmosphäre der Weltgemeinschaft quasi enteignet. Aber man muss klar sagen: Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch, fast nichts mehr zu tun.“

Und direkt oder indirekt stimmten ihm alle Gäste zu. Klingt deutlich nach einer Art neuem kommunistischem Manifest. Früher wurde der Mensch ausgebeutet. Als das nicht mehr klappte, weil das Proletariat nach Mallorca flog, anstatt den Herren Marx und Engels endlich den Gefallen zu tun zu verelenden, musste ein neues Opfer her. Nun wird vom Menschen eben die Natur ausgebeutet (wobei wir hier sogar in vielen Teilen zustimmen, denn was die Menschheit mit dem Fischbestand der Weltmeere und dem Gebrauch dieser Meere als Müllkippe macht, kann man schon als „Ausbeutung“ bezeichnen. Leider scheren sich die Klima-Aktivisten keinen Deut um diese realen Ausbeutungsverbrechen, (wie leicht dies derzeit, ist zeigt der Milliarden Dollar Betrug in Dänemark) sie halten es lieber mit imaginären Klimaschädigungen). Am unverblümtesten stimmte die Aktivistin Henneberger zu, verhaltener die Herren Bott und Fischer.

Alle bejahten die Notwendigkeit der unmittelbaren starken Absenkung der weltweiten CO2 Emissionen mit einer starken Vorreiterrolle Deutschlands, wie sie im Energiekonzept der Bundesregierung festgeschrieben worden ist.

Prof.Bott: (36:15) Man redet von 80 % Reduktion um das 2 °C Ziel zu erreichen. An dem Ziel sollten wir wirklich festhalten…(36:29) Limburg : das bringt 2/1000 Grad weniger Erwärmung rechnerisch. Die 80 % Reduktion: Bott: Da ist sooo nicht meine Meinung! Limburg: Wir haben es gerechnet..“

Die Frage war also nicht mehr, ob das CO2 überhaupt etwas bewirkt, sondern, dass wir in jedem Falle absenken müssen, um 80 % oder sogar mehr, wie die Befürworter forderten.

Was bringt dann die deutsche Vorreiterrolle? Limburg behauptet, ca. 2/1000 °C  weniger Erwärmung: Stimmt das?

Wir haben bei EIKE diese Frage mehrfach untersucht. Und je nachdem, ob man den nackten THE ohne Wasserdampfverstärkung berechnet oder mit massiver Wasserdampfverstärkung, wie es das IPCC in allen seinen „Szenarien“ vornimmt, ergeben sich die folgenden Werte .

Tabelle

CO2 Absenkung bezogen auf 1990 in Deutschland

80 % 95 %
Mit IPCC Verstärkung 0,0072 °C 0,0086 °C
Ohne IPCC Verstärkung 0,0017 °C 0,0020 °C

Der vereinfachte Rechenweg dazu kann hier eingesehen werden : „Klassenarbeit für die undefinedObertertia“. Auch wenn man – wie Prof. Bott – von der nicht nachzuweisenden Wasserdampfverstärkung ausgeht, bleiben läppische acht tausendstel Grad oder knapp neun tausendstel Grad Celsius. Wahrlich ein großer Unterschied !

Viel Zeit wurde den Fragen zu den „Erneuerbaren“ gewidmet, sowie der wiederum künstlich erzeugten Angst vor dem Ende der fossilen Energien. Moderator Kähler (30:00) Stichwort regenerative Energien.

Zu den „Erneuerbaren“ haben wir schon viel bei EIKE veröffentlicht. Hier finden Sie die jüngsten Veröffentlichungen im Brief an Bundesumweltminister Röttgen, oder in der Stellungnahme von EIKE zum Energiekonzept hier und hier.

Nicht neu und immer wieder gern gebracht, ist die Annahme, dass die fossilen Energien nicht mehr lange zur Verfügung stehen. Die folgende Auswahl kennzeichnet die Stimmung:

(32:48) Henneberger-sehr viele Studien belegen 100 % Erneuerbare sind möglich. (33:07) Uran ist endliche Ressource (Limburg ..5000 Jahre); Kohle ist endliche Ressource; (Limburg 4000 jahre) Henneberger  (33:13) innerhalb der nächsten 100 Jahre.. Peakoil rückt immer näher.. (Limburg 150 Jahre)….Henneberger  33:26 …Was sie behaupten ist eine komplette Lüge 34:26 Wir in den Indsutrieländern haben die Verantortung für … wir haben den Klimawandel verursacht..

Es ist hier nicht der Platz, auf den von Frau Henneberger verzapften Unsinn im Detail einzugehen. Stellvertretend sei nur die Ressourcenfrage der Kernbrennstoffe genannt, die in den EIKE-News „Die Renaissance der Kernenergie I und II“ detailliert behandelt wude. Hier zeigt sich, dass sogar ohne auf Uran im Meerwasser zuzugreifen, mit den Kernkraftwerken der kommenden Generationen und mit der Transmutationstechnik Kernbrennstoff für mehrere 10.000 Jahre zur Verfügung steht.

Die Kernaussage aller Teilnehmer mit Ausnahme von Limburg lautete dagegen: Weil die fossilen und kerntechnischen Energieressourcen so begrenzt sind, müssen wir schon heute (gezwungen werden) auf diese zu verzichten und voll auf „Erneuerbare“ setzen. Also schon wieder wird eine unbewiesene Behauptung eingesetzt, um damit Angst und mit der Angst Willfährigkeit zu erzeugen. Eine uralte Taktik, wie sie seit Urzeiten angewendet wird, und wie sie leider immer noch funktioniert.

Sicherheitshalber nutzt man dazu gleich drei Ängste,

* einmal die Angst vor der Kernkraft, mit dem schönen Nebeneffekt des Abschaltens von intakten sicheren Kernkraftwerken, die billigen Strom erzeugen, wenn wir ihn brauchen und nicht dann, wenn es dem Wind oder der Sonne passt.

* die Angst vor dem Klimakiller CO2, die genutzt wird, um Kohlekraftwerke – von denen allein China derzeit etwa jede zweite Woche eines eröffnet – als schmutzig zu verteufeln und als Klimakiller dazu, die uns erfolgreich daran hindert, preiswerte und hocheffiziente Kohlekraftwerke zu bauen, welche die in riesigen Mengen vorhandene Kohle billig verstromen. Wer immer noch von „schmutzigen“ Kohlekraftwerken redet, dem sei eine Exkursion ins Kohlekraftwerk Lippendorf bei Leizig empfohlen, um sich kundig zu machen.

* Und dann die Angst vor der mit dem Begriff „Peakoil“ umschriebenen – sehr kurzfristigen – (behaupteten) Erschöpfung von Gas und Ölvorräten (der Club of Rome lässt grüßen), die uns erfolgreich dazu veranlasst, über den indirekten Zwang des unsozialen EEG das ebenso unbrauchbare wie maßlos überteuerte und völlig konkurrenzunfähige Produkt „Ökostrom“ zu kaufen.

Was hat es nun mit den Reichweiten der dieser Ressourcen auf sich.  Die folgende Grafik gibt darüber Auskunft.

Abbildung 11. Reichweite verschiedener Energieträger in Jahren.

Die Abbildung 11 spricht für sich selbst. Deutlich erkennbar die lange Reichweite aller dieser Energieträger, auch wenn hier eine statische Betrachtung angesetzt wurde. Hinzu kommt, dass mit der Suche nach weitere Lagerstätten noch gar nicht so richtig begonnen wurde, wie ständig neue riesige Funde onshore (shale gas) und offshore Öl  & Gas fast im 3 bis 4 Wochentakt beweisen.

Den Teilnehmern der Phönix-Diskussion sei eine wichtige Erkenntnis ins Stammbuch geschrieben, die den meisten Menschen völlig unbekannt zu sein scheint. Wie lange eine Ressource (Energie, wertvolle Metalle usw.) der Menschheit zur Verfügung steht, hängt nicht vom realen Vorkommen dieser Ressource, sondern vom technischen Wissen der Menschheit ab. Die Steinzeit endete nicht damit, dass es keine Steine mehr gab, sondern dass Metalle an ihre Stelle traten.

Bleibt uns Autoren daher nur noch der weihnachtliche Wunsch:

Fürchtet Euch nicht!

Michael Limburg

Prof. Dr. Horst-Joachim Lüdecke


[1] Quelle: SPPI Monthly CO2 Report July 2010 Volume 2 Issue 7

[2] NZZ «Klimapolitik verteilt das Weltvermögen neu»




Phoenix-Runde Teil II: „Kein prima Klima – Ist die Welt noch zu retten?“ Ein Faktencheck!

Zum besseren Vergleich der Argumente finden Sie hier nochmals das Video (mit freundlicher Genehmigung von PHOENIX)

Sendung vom 9.12.10 „Ist die Welt noch zu retten“ (Mit freundlicher Erlaubnis von Phoenix)

4. Der Glaube an statistisch gesicherte historische Wetteraufzeichnungen.

Moderator  Kähler sprach es aus: (Wir haben) …seit Ende des 19. Jh. statistisch gesicherte Wetteraufzeichnungen.(4:52). Bott ging sogar noch einen Schritt weiter und sprach von Proxydaten, die noch frühere Aussagen zur (Welt)-Temperatur zulassen würden.

Wie ist der Sachstand?

Basis jeder Naturwissenschaft ist die Messung, dann folgt die Klassifizierung, dann die Zuordnung, dann die Hypothese – die wird dann zur Theorie, wenn genügende Beweise vorliegen -, dann die Vorhersage, gemäß dieser Theorie. Wir sind in Phase 1, der Messung der Temperatur in der Luft. Seit über 300 Jahren wird in Europa die Lufttemperatur gemessen. Anfangs aus Neugier, kurze Zeit später schon aus dem wissenschaftlichen Erkenntnisdrang heraus, zu finden, wie sich denn das Wetter entwickelt, das alle Lebensumstände von Mensch und Tier von Anbeginn der Zeit an stark beeinflusst. Oder auch, um zu ermitteln, ob sich hinter den gemessenen Zeitreihen Gesetzmäßigkeiten verbergen, die es u.U. erlauben würden, Wettervorhersagen zu machen. Schönwiese [Schönwiese, 2000] datiert die Thermometererfindung auf 1611 und schreibt sie – bewusst vage – Galileo zu. Zur damaligen Erfassung schreibt er: Die ersten regelmäßigen Messungen [1] und Aufzeichnungen der Lufttemperatur erfolgten in Florenz und Pisa von 1653 bis 1670 durch die Academia del Cimiento. Deren Messungen waren für ihre Zeit schon sehr fortgeschritten…. Im 18. Jahrhundert und weitestgehend auch im 19. Jh. waren die Thermometer sehr ungenau, ihre Aufstellbedingungen unheitlich (wie auch heute) und die Messergebnisse mit hohen Unsicherheiten behaftet. Für meteorologische Zwecke bedingt brauchbar, für klimatologische Zwecke unbrauchbar. Mit der Einführung des Assmanschen Aspirationsthermometers 1892 war wenigstens ein hinreichend genaues Messinstrument geschaffen, das unter gleichen Umständen Vergleichbares lieferte. Es wurde daraufhin weltweit eingesetzt, allerdings erst an wenigen Stellen.

Abbildung 6 nach Peterson et. al [Peterson, 1997]: Die Zeitreihe zeigt die Zahl von Mess-Stationen, deren Daten nach verschiedenen Mittelwertalgorithmen zur Temperaturbestimmung in die GHCN Datenbank einbezogen wurden (schwarze Line) und, darin enthalten, solchen (gestrichelte Linie) Stationen mit Max/Min Ablesung.

Die Abbildung 6 zeigt die Anzahl der Stationen, die vom IPCC (hier aus  Peterson et. al  1997) in seine Durchschnittsberechnung der Welttemperatur einbezogen wurden. Allein schon aus der absoluten Zahl der Stationen ist  zu erkennen, dass eine weltweite Abdeckung nicht gegeben sein kann. Noch nicht einmal der Landmasse allein, die nur 29 % der Eroberfläche ausmacht. 40 % der Landmasse befinden sich auf der Nordhalbkugel, nur 20 % auf der Südhalbkugel. Diese ist also messtechnisch, von wenigen Orten abgesehen, ziemlich unbekannt.

Allein damit ist noch nichts über die Qualität der Messungen gesagt. Die war trotz des Assmann-Thermometers mäßig bis sehr mäßig. Am Besten charakterisiert diese Qualität  der Meteorologe und CRU Programmierer Ian (Harry) Harris. Sie sind in der Datei „HARRY_READ_Me.txt.“ der Cimategate Emails enthalten. Diese ist 274 Seiten lang. Die dazugehörige Datenbasis enthält über 11.000 Dateien aus den Jahren 2006 bis 2009 [2].

Harry ist der Spitzname, mit dem der Klimatologe Ian Harris seine Arbeit zeichnete. Ian Harris, ein Gläubiger der Erwärmungshypothese und Anhänger der Grünen, wurde in der CRU als Programmierer eingesetzt, der die vielen Datensätze aus den weltweiten Messstationen zur statistischen Auswertung und Zusammenfassung aufbereiten sollte. Da es sich um Millionen, zum guten Teil nur verstümmelt vorliegende Daten handelt, ist das nur per Computer und geduldigem Zusammentragen von allerlei Zusatzdaten möglich. Hierzu gehört dazu eine gehörige Portion Spürsinn und wie wir sehen werden, auch „Kreativität“:

„Aber was sind dies alles für monatliche Dateien? Ich weiß nichts, alles undokumentiert, wohin ich auch schau, da sind Dateien, keine Infos darüber, was sie sind, anders als ihre Namen. Und das ist sinnlos …“ (Seite 17)

– „Es ist Pfusch über Pfusch über Pfusch.“ (18)

– „Oh, Gott, wenn ich dieses Projekt erneut starten und tatsächlich über diesen  Fall mit der geerbten Müll-Programm-Suite streiten könnte.“ (37)

– „Bin ich der erste Mensch, der den Versuch macht, die CRU-Datenbanken in Ordnung zu bekommen?!“ (47)

– „Soweit ich sehen kann, macht dies die (Wetter-) Stations Zählung völlig sinnlos.“ (57

– „Cobar AIRPORT AWS (Daten aus einer australischen Wetterstation) können nicht im Jahr 1962 begonnen haben, sie sind erst seit 1993 in Betrieb!“ (71)

– „Was zur Hölle soll hier passieren? Oh yeah – es gibt kein „angenommenes ich kann es machen“. Also tat ich es: -)“ (98)

– „Du kannst dir nicht vorstellen, was mich dies kostete – tatsächlich dem Operator zu erlauben, auf falsche WMO (World Meteorological Organization)-Codes zu verweisen. Aber was soll man sonst  in solchen Situationen machen? Gerade im Umgang mit einer „Master“-Datenbank zweifelhafter Herkunft … “ (98)

– „Also, mit einem leicht zynischen Achselzucken habe ich noch die atomare Option – jedem möglichen WMO Treffer zuzuordnen, und den Rest einfach auf neue Stationen zu verteilen… mit anderen Worten, was man bei der CRU sonst auch tut. Dies erlaubt es, schlechten Datenbanken unerkannt zu bleiben und guten Datenbanken zu schlecht zu werden … “ (98-9)

– „Ach F — das. Es ist Sonntag Abend, ich habe das ganze Wochenende gearbeitet, und gerade als ich dachte, es fertig zu haben, treffe ich noch auf ein weiteres Problem, auf dem der hoffnungslos  Zustand unserer Datenbanken basiert.“ (241).

– „Das ganze Projekt ist so ein Durcheinander …“ (266)

Und auf Sachen wie diese wollen die Politiker unsere Wirtschaft die Luft sprengen und  unseren Lebensstandard abzusenken, um „das Klima“ zu reparieren?

Sind die verrückt?

Soweit die Kommentare des leicht überfordert wirkenden Harry. Selbstverständlich sind das noch keine Beweise dafür, dass die gemeldeten Temperaturdaten alle unbrauchbar waren. Das sind sie wahrscheinlich nicht. Auf jeden Fall sind diese Seufzer und Flüche aber ein klarer Hinweis darauf, dass die vermeintlich gesicherten, weltweit oft nur spärlich verfügbaren Temperaturdaten, mit sehr viel größeren Unsicherheiten (sprich Fehlermargen) behaftet sind, als es uns die nur scheingenaue  Temperaturkurve des IPCC (erstellt aus eben diesen Daten, wie oben beprochen) glauben machen will. Wer nähere Auskünfte dazu haben will, wende sich an den Autor dieser Zeilen.

5. Ist die Mehrzahl der Klimaforscher wirklich von der anthropogenen Erwärmung überzeugt?

Dieser Überzeugung waren alle Teilnehmer der Runde – mit Ausnahme des Autors:

Fischer: (Limburg vertritt) Splittermeinung (9:37) (sie ist) nicht repräsentativ, von div. Gremien überprüft 1000-ende Wissenschaftler seien überzeugt. Bott: (11:38) man spricht von 97%, die hinter dem IPCC Bericht stehen.

Dagegen Limburg: Widerspruch (10:22) In WGI sind nur ca. 40 bis 60 Autoren der harte Kern. Als Beleg wurde Prof. Mike Hulme zitiert: 1000 Wissenschafter votierten jüngst wieder dagegen (11:19)

Schauen wir uns die Fakten der Reihe nach an.

1. Mehrheit der Wissenschaftler dafür?

Behauptet wird: „Die überwältigende Mehrheit der Wissenschaftler seien dieser Ansicht, es herrsche gar Konsens“. Vorab darf nüchtern festgestellt werden, dass Konsens in der Politik – besonders in einer Demokratie – eine gute Sache sein kann, die politische Handlungen legitimiert. In der Wissenschaft mag Konsens ein nützlicher Nebeneffekt sein, kann aber keinesfalls als Ersatz für fehlende Beweise dienen. Ja, Konsens ist oft sogar äußerst gefährlich und verhindert wirksam die Erkenntnis der wahren Zusammenhänge. Das ist wohl auch der Hauptgrund warum – voran der Demagoge Al Gore und seine Apologeten -, aber auch fast alle Politiker das Wort Konsens in Sachen Klima so lieben. Oft wurde schon Konsens behauptet. Erinnern wir uns doch nur: Die Erde sei eine Scheibe, die Sonne bewege sich um die Erde, an die Phlogiston-Theorie (Flammen bestünden aus einem besonderen Stoff, dem Phlogiston), an die Äthertheorie, an die Zurückweisung der Kontinentalverschiebungstheorie, an die Zurückweisung der Relativitätstheorie, an die Zurückweisung der Theorie über Bakterien als Ursache von Magengeschwüren und, und, und..-

Die Liste der Konsensthesen, die sich als falsch erwiesen haben, ist schier endlos. Konsens ist kein Ersatz für wissenschaftliche überprüfbare Beweise: Von Albert Einstein ist folgender Ausspruch überliefert, als er mit der Behauptung konfrontiert wurde, dass 200 arische Wissenschaftler seine Relativitätstheorie widerlegt hätten. Seine kurze Antwort darauf: Wenn sie recht hätten, genügte einer!

Tatsache ist aber außerdem, dass sich nicht einmal die Mehrheit der Wissenschaftler (Klimaforscher im engen Sinne gibt es nicht) aus klimarelevanten Disziplinen der AGW-Katastrophenhypothese des IPCC anschließen. Mehr noch, sehr, sehr viel sind dagegen. Eike hat über das brisante Thema „Konsens“ bereits ausführlich berichtet. Konsens gibt es im hier besprochenen Zusammenhang nicht!

Dies bestätigt auch Prof. Mike Hulme, Meteorologe und Direktor des Gründungs Direktor des Tyndall Centers in England, zudem an der Universität von East Anglia beschäftigt, außerdem Leitautor des IPCC. Er hat dazu kürzlich folgendes gesagt (veröffentlicht in der National Post ) und zusätzlich in einem Aufsatz – zusammen mit seinem Studenten Martin Mahony – für die Fachzeitschrift „Progress in Physical Geography“ geschrieben:

„Das UN-Intergovernmental Panel on Climate Change führte die Presse und Öffentlichkeit mit der Behauptung in die Irre, dass Tausende von Wissenschaftlern seine Ansprüche auf die vom Menschen verursachte globale Erwärmung unterstützen. Die tatsächliche Zahl der Wissenschaftler, die diese Behauptung unterstützen, seien nur ein paar Dutzend Experten“

„Behauptungen, wie 2500 der weltweit führenden Wissenschaftler seien im Konsens darüber, dass menschliche Aktivitäten einen signifikanten Einfluss auf das Klima haben, sind unaufrichtig. Das macht das IPCC anfällig für Kritik von außen.“

Woher kommt die Zahl 97 % ?

Die Zahl geht wohl auf einen vor kurzem veröffentlichten Beitrag von Frau Cordula Meyer im ehemaligen Nachrichtenmagazin der Spiegel zurück (http://www.spiegel.de/spiegel/0,1518,721168,00.html9 , die darin wörtlich schrieb:

„Nach einer US-Studie gehen 97 Prozent aller Klimatologen weltweit davon aus, dass sich die Erde durch von Menschen produzierte Treibhausgase erwärmt.“

Sie hatte sie wahrscheinlich von Stefan Rahmstorf. Der hatte die Zahl 97 % im März 09 im Artikel (Klimaforscher-Konsens 97%) auf wissenlog.de in die Welt gesetzt.

Rekapitulieren wir doch einmal, wie Stefan Rahmstorf zu diesen 97 Prozent kommt: Er beruft sich dabei auf eine EOS-Umfrage – EOS Volume 90, Number 3, 20 January 2009 – nach der 10.257 Wissenschaftlern angeschrieben wurden. Sie sollten die Fragen beantworten:

1.     Verglichen mit dem Pegel vor 1800, glauben Sie dass die globale Mitteltemperatur eher gestiegen, gefallen oder relativ gleich geblieben ist?

2.     Glauben Sie, dass der menschliche Anteil eine signifikanten Anteil an der Änderung der globalen Mitteltemperatur hat?

Insgesamt beantworteten 3146 Personen diese allgemein gehaltenen Fragen, das sind 30,7 %.

96 % der Antwortenden stammten aus den USA und Kanada, der Rest verteilt sich auf 21 Nationen. Ungefähr 5 % der Antwortenden wurden von den Verfassernder Umfrage als Klimaforscher eingestuft.

90 % der Antwortenden  glauben, dass die Mitteltemperatur gestiegen ist, (wie wir auch) und 82 % bejahten die Frage 2.

Eine Gruppe von 79 Personen (oder 0.77%, der Befragten, bzw. 2,5 % der Antwortenden) stuften sich selbst als Spezialisten auf dem Gebiet des Klimawandels ein, weil sich 50 % oder mehr ihrer (peer- reviewed) Veröffentlichungen in irgendeiner Weise mit dem Thema Klimawandel befassten. Von diesen bejahten die Frage 2 76 Personen, das sind 97,4 %. 

Da also kommen die 97 % her!

Aber 7.111 angeschriebenen Forscher haben keine Antwort gegeben !!!

(Mit Dank an Leser: Ralph Bombosch).

Wie aus den Fragen überhaupt eine 97 % ige Zustimmung zum „überwiegend“ anthopogen verursachten Klimawandel gemacht werden kann bedarf schon einer gehörigen Dehnung der Aussage der Studie. Weltweit war die Zustimmung auch nicht, wenn 96 % der Antwortenden aus nur 2 Ländern stammten. Und erst recht stimmt die Aussage nicht von 97 % aller Klimaforscher weltweit, wenn tatsächlich nur 76 der 3146 Personen – das sind 2,4 % – aller Antwortenden- sich selbst als Spezialisten auf dem Gebiet des Klimawandels einstuften.

Ist aber die Mehrheit der Wissenschaftler dagegen?

Diese Frage ist sehr schwer zu beantworten, da keiner weiß, wie viele Wissenschaftler sich heute in der Querschnittsdisziplin Klimaforschung betätigen. Man kann aber die Zahl derer angeben, die sich früher oder heute gegen diese These ausgeprochen haben. Das haben wir in diesem Beitrag „SPIEGEL vs. EIKE: Häme und Verleumdungen anstatt „Schreiben was ist“ (hier) ausführlich getan.  Danach sind es zigtausende. Jüngst haben sich wieder tausend geäußert wie man hier nachlesen kann. More Than 1000 International Scientists Dissent Over Man-Made Global Warming Claims – Challenge UN IPCC & Gore.

6. Treibt CO2 die Temperatur oder ist es umgekehrt? Was taugen Klimamodelle? Teil I

Bei allen anderen Teilnehmern der Runde herrschte unbedingte Einigkeit darüber, dass eine vom Menschen verursachte Erhöhung der CO2-Konzentration in der Atmosphäre höchst klimaschädlich sei und deshalb dringend seine starke Reduzierung geboten sei. Hier manifestierte sich der immer wieder zu hörende Irrtum über die Wirkung des CO2. Nach der gängigen Treibhausthese ist CO2 vielleicht das (nach dem Wasserdampf) stärkste Treibhausgas, aber hierauf kommt es nicht an. Es kommt darauf an, welche globale Temperatursteigerung möglicherweise erfolgen würde – so die These stimmt-, wenn sich seine Konzentration in der Erdatmosphäre erhöht. Und diese potentielle Temperatursteigerung wäre praktisch verschwindend gering, denn die Infrarotabsorption von CO2 ist bereits gesättigt. Vergleicht man seine potentiell erwärmende Wirkung populär mit einer sehr gut isolierenden Pudelmütze, so wärmen zwei Pudelmützen übereinander auch nicht wesentlich besser als eine. Viele klimafachnahen Naturwissenschaftler – Gegner und Befürworter der AGW-Hypothese gleichermaßen – nennen grob 1 °C globale Erwärmung bei CO2-Verdoppelung (man bezeichnet diese Größe als „Klimasensitivität des CO2“). Sie wäre daher völlig unbedenklich und keiner Rede oder gar weiteren Auseinandersetzung wert, denn sie wäre vernachlässigbar. Man könnte dann mit Fug und Recht auch von einem „Nulleffekt“ sprechen. Die Menschheit müsste schon alle fossilen Reserven verbrennen, um CO2-Verdoppelung zu erreichen, wozu es nicht kommen wird. Die vom IPCC und seinen Anhängern beschworenen, viel größeren Erwärmungswerte basieren auf fiktiven Rückkoppelungen in noch fiktiveren Modellen, die inzwischen durch Messungen weitgehend widerlegt sind. EIKE hat über das Thema des potentiellen Treibhauseffekts und die mögliche Wirkung des CO2 bereits ausführlich berichtet.

Bevor wir uns also den Modellen zuwenden, welche einen vermuteten Katastrophalzusammenhang als Tatsache unterstellen und ihre Gleichungssysteme darauf aufbauen, wollen wir uns erst einmal die Vergangenheit anschauen, ob sich dort in den Beoabachtungsdaten eine Abhängigkeit zwischen CO2-Konzentrationen und Temperaturen erkennen lässt.

Tatsache ist, dass aus den Beobachtungen der jüngsten, der jüngeren und der ganz langen Zeit zwischen Temperatur und CO2 keinerlei Ursache-Wirkungsbeziehung festgestellt werden kann. Eine Ausnahme bilden die Temperaturproxies aus den Eisbohrkernen, dort aber läuft die CO2 Konzentration  der Temperatur im Schnitt 800 Jahre nach. Dahinter steht ein wohlbekannter Prozess, nämlich, dass kaltes Wasser mehr CO2  lösen kann als warmes Wasser und das Weltmeer etwa die Zeit von grob 800 Jahren benötigt, um sich vollständig umzuwälzen.

Abbildung 7: Verlauf von Proxydaten der Temperatur und der CO2 Konzentrationen aus Eisbohrkernmessungen für letzten 400.000 Jahre. Darin eingezeichnet die höher aufgelöste Graphik der letzen 8000 bis 22.000 Jahre. Deutlich ist die Nach-Eilung der CO2 Konzentration im Vergleich zu den Temperaturen zu erkennen.

Da mit den temperaturabhängigen Lösungseigenschaften des CO2 in Wasser die Proxy-Befunde bestens erklärt sind, müssen alle Versuche neuer Hypothesen als Verstoß gegen das Ockham-Prinzip angesehen werden. Es besagt, dass zur Erklärung eines physikalischen Phänomens, falls  schon vorhandene, bekannte Gesetzmäßigkeiten völlig ausreichen, keine neuen Hypothesen aufgestellt werden dürfen (Entia non sunt multiplicanda präter necessitatem).

Abbildung 7 zeigt einen solchen Fall für die letzten 400.000 Jahre. Proxydaten aus Eisbohrkernen lassen die sehr grobe Bestimmung der am Bohrloch früher herrschenden Temperatur- und CO2 Konzentrationen zu. Sie reichen heute bis ca. 800.000 Jahre zurück. Al Gore benutzte eine derartige Grafik in seinem mit Unwahrheiten und Propagandatricks vollgestopften Film „Eine unbequeme Wahrheit“.

Leider vergass der den Zuschauern und mit ihnen allen Medienschaffenden mitzuteilen, dass darin die Ursache-Wirkungskette genau anders herum  zu erkennen ist. Erst kommt die Temperatur, dann das CO2. Aber selbst diesen Zusammenhang zeigen die jüngsten Temperatur- und CO2 Verläufe nicht. Wie die folgende Abbildung beweist.

Abbildung 8: Hier wird die offizielle IPCC Temperaturkurve (blaue Linie) mit der ebenso offiziellen CO2-Konzentration (bis 1955 aus Eisbohrkernen, danach vom Mauna Loa direkt gemessen) überlagert. (dicke rote Kurve). Die dicken lila Balken, sollen die Richtung des Temperaturtrends verdeutlichen.

Man erkennt in Abb. 8, dass es zumindest seit 1850 keine ausreichende Korrelation zwischen beiden Größen gibt. Laut THE (Treibhauseffekt)-These, machmal auch als AGW-Hypothese (anthropogenic global warming hypothesis) bezeichnet, müsste es eine gute positive Korrelation beider Größen geben. Mehr CO2 ergibt höhere Temperatur. Oder wie Rahmstorf es beschrieb:

Wir Kli­ma­for­scher kön­nen nur nach dem Wenn-dann-Prin­zip sa­gen: Wenn so und so viel CO2 aus­ges­to­ßen wird, dann wird das Kli­ma sich so und so stark er­wär­men.“[3]

Vom Rahmstorfschen „Wenn-Dann“ keine Spur! Die Korrelation CO2-Temperatur ist miserabel. Inzwischen wissen wir, dass der Anstieg der Temperatur ab 1990 beendet war und bis zum heutigen Tage einem Plateau und leichten Abstieg Platz machte. Auch Phil Jones, der „Held“ der ClimateGate Affaire, Direktor der CRU (Climate research Unit), IPCC Leitautor und Haupttreiber der Idee von der anthopogenen induzierten globalen Erwärmung, sprach von keiner signifikanten Erwärmung mehr seit 1995 [4]. Zum selben Ergebnis kommen auch Prof. Richard Lindzen und mit einigen Abstrichen Prof. Mojib Latif vom Geomar, um nur zwei weitere prominente Forscher zu nennen.

Was also ist das für ein merkwürdiger Prozess, der stetig sein soll, aber ständig seine Befürworter narrt?

Angesichts dieser Sachlage wird umso deutlicher erkennbar, warum der Chef der britischen Wetterbehörde Met Office, Sir John Mitchell (dem deutschen DWD vergleichbar) 2007 feststellte:

It is only pos­sib­le to at­tri­bu­te 20th Cen­tu­ry war­ming to hu­man in­ter­fe­rence using nu­me­ri­cal mo­dels of the cli­ma­te sys­tem.[5]

So ist es! In der messtechnischen Realität ist dieser Prozess nicht zu beobachten.


Wird fortgesetzt.

Michael Limburg, Prof. Dr. Horst-Joachim Lüdecke


[1] Aus : http://www.freunde-alter-wetterinstrumente.de/21theein01.htm#in%20Deutschland

[2] Details entnommen aus ‚Botch after botch after botch‘ Leaked ‚climategate‘ documents show huge flaws in the backbone of climate change science By LORRIE GOLDSTEIN

[3] Zitat aus „Die Welt“ vom 3.2.2007

[4] Quelle hier http://news.bbc.co.uk/2/hi/science/nature/8511670.stm Bewertung hier: http://wattsupwiththat.com/2010/02/14/phil-jones-momentous-qa-with-bbc-reopens-the-science-is-settled-issues/

[5] John Mit chell, Ju lia Slin go, Da vid S. Lee, Ja son Lowe & Vicky Pope: ‘CLI MA TE CHANGE Re spon se to Car te r et al.’, World Eco no mics, 8 (1): 221228.




Phoenix-Runde: „Kein prima Klima – Ist die Welt noch zu retten?“ Ein Faktencheck! Teil I

Illustre Namen von Leuten – die sonst kein Mikrophon ohne Statement zum Thema Klima an sich vorbeigehen lassen – waren kontaktiert worden. Es hagelte reihenweise Absagen. So auch die vom bereits fest gebuchten Dr. Oliver Geden von der Stiftung Politik & Wissenschaft. Die Redakteure telefonierten sich die Finger wund, bis schließlich drei Freiwillige gefunden waren. Nun sollten Prof. Dr. Andreas Bott (Meteorologe, Uni Bonn), Severin Fischer (Klimaexperte am Institut für Europäische Politik), sowie  Stefan Krug, ein Aktivist von Greenpeace die Runde vervollständigen. Die Moderation der Sendung hatte Alexander Kähler von Phoenix.

Kurz vor der vorgesehenen Aufzeichnung platzte der Betreuer der Sendung mit der Hiobsbotschaft herein, jetzt hätte auch der Aktivist des Medienkonzerns Greenpeace abgesagt. Guter Rat war teuer, man hätte alle NGO´s abtelefoniert, WWF, Greenpeace, BUND, etc. – dann endlich, wenige Minuten vor Aufzeichnung, erwischte man die attac Aktivistin Kathrin – „ich bin die Kathrin- Henneberger“ -. nach eigener Bekundung freie Klimaschützerin und als Aktivistin und Frau schon zwei mal bei Frau Illner zu Gast. Die sagte spontan zu. Eine illustre Runde.

Die Sendung kann man sich hier anschauen. Wir danken Phoenix für die Genehmigung sie auf unserem Blog zu zeigen. In dieser Sendung wurden viele Behauptungen aufgestellt, die wichtigsten werden einem Faktencheck unterzogen.


Sendung vom 9.12.10 „Ist die Welt noch zu retten“ (Mit freundlicher Erlaubnis von Phoenix)

Lüge ist  viel­leicht nicht das rich­ti­ge Wort…..

Die Run­de sprang schnell von The­ma zu The­ma. Mit­un­ter wur­de auch schon mal der EIKE Ver­tre­ter als Lüg­ner be­zeich­net, und der Mo­de­ra­tor hielt mä­ßig – aber im­mer­hin – da­ge­gen, als er mein­te „Lüge ist  viel­leicht nicht das rich­ti­ge Wort, wenn man ge­gen­sätz­li­cher Mei­nung ist“. Doch zu­ge­ge­ben, bei so­viel kon­tro­ver­sen The­men und Be­haup­tun­gen ist es für nie­man­den leicht den Über­blick zu be­hal­ten, oder sich gar ein Ur­teil zu bil­den. Wir ha­ben uns des­halb zu ei­nem aus­führ­li­chen Fak­ten­check ent­schlos­sen. Zur leich­te­ren Über­prü­fung ha­ben wir die Mi­nu­ten (die Zah­len in Klam­mern) auf­ge­führt, in de­ren Nähe die Be­haup­tung (nicht im­mer wört­lich wie­der­ge­ge­ben) ge­äu­ßert wur­de.

1. Be­haup­tung: Käh­ler (0:53) „Das Eis an den Po­len schmilzt den­noch. „

Die­se Be­haup­tung ist schlicht falsch.

Beispiel Arktis: Das Eis in der Ark­tis schrumpft und wächst rythmisch, z.Zt. wächst es wie­der, im na­tür­li­chen Rythmus der Jah­reszeiten. Ge­gen­über ei­nem lang­jäh­ri­gen Tief­stand im Sommer 2007 – wie er ähn­lich zuvor auch schon in den 50er und 30 Jah­ren des vorigen Jh. vorhanden war –  hat die Eis­be­de­ckung in der Ark­tis um fast die dop­pel­te Flä­che der Bun­des­re­pub­lik zu­ge­nom­men. Im November 2010 erreichte die arktische Eisbedeckung sogar den höchsten Stand seit Ende der siebziger Jahre. Ein Umstand der weder vom Moderator noch von den Qualitätsmedien zur Kenntnis genommen noch über den berichtet wurde.

Die Ab­bil­dung 1 zeigt – über­ei­nan­der ge­legt – die jähr­li­chen sai­so­na­len Schwan­kun­gen der Eis­be­de­ckun­gen der Ark­tis aus der  AMSR Da­ten­bank. Man erkennt die Zunahme gegenüber 2007 um ca. 500.000 km2

Beispiel Antarktis: Schaut man sich die Ant­ark­tis an, ist dort sogar von irgendeiner Schmel­ze über­haupt kei­ne Rede. Bei ei­ner Durch­schnitts­tem­pe­ra­tur von -35°C auch schlecht mög­lich. Das Eis der Ant­ark­tis wächst, weil die Ant­ark­tis (in ih­rem Win­ter) noch nie so kalt war [1]. Die auf Stelzen erbaute neue Neumeyerstation musst deswegen schon mal angehoben werden.

(Meldung Faktum hier 19. Juli 2010/fa.)

– Zum ersten Mal seit dem Bestehen der deutschen Antarktisstation Neumayer fiel die Temperatur am 8. Juli 2010 unter die -50°C-Marke. Es ist die extremste Winterkälte in der Region seit mindestens 29 Jahren. Eine solche Kälte erlebten die elf Wissenschaftler vom „Alfred-Wegener-Institut für Polarforschung“ in Bremen auf ihrer Forschungsstation „Neumayer III“ in der Antarktis noch nie. Minus 50,2 Grad Celsius unter Null erschweren die Arbeiten auf der Forschungsstation. Solche Extremereignise sind eine Herausforderung an Mannschaft und Material. So lassen sich bei dieser Kälte Motoren kaum mehr betreiben. Bereits im Jahr 2008 erlebten die elf Forscher eine vergleichbare Extremkälte. Die Minus-50-Grad-Grenze wurde damals aber nicht erreicht, der tiefste Kältepunkt lag bei Minus 48,8 Grad Celsius. Der bisherige Kälterekord vom Juni 2008 wurde jetzt um 1.4°C unterschritten.“

Mit Dank an Leser T. Lutz

2. Waren die Änderungen der (Anomalien der) globalen  Mitteltemperatur ungewöhnlich, oder gar dramatisch?

O-Ton Bott : Die Zei­chen gro­ße Kli­ma­än­de­run­gen sind er­kenn­bar. Dies wird seit Jah­ren von Klima-Wissenschaftlern „pro­phe­zeit“ (1:43)  …. ihn „ängstigt“ ein dramatischer Anstieg … in den letzten 20 – 30 Jahren definitiv ein anthropogener Effekt. (5:40) … eine rasante Zunahmen (6:15)

Dagegen Limburg (6:40): der Mittelwert der globalen Welttemperatur (7:19) zeigt 3 Anstiege, (alle) gleich hoch und gleich (steil) in den vergangenen 150 Jahren.

Will man überhaupt auf die Aussagekraft eines globalen Mittelwertes mit Änderungen im zehntel Grad Bereich bauen – bei Extremwerten auf eben dieser Erde von -89 ° C in der Antarktis, bis zu + 70 °C in der iranischen Wüste, mit Durchschnittswerten von ca. 30 ° C in manchen Tropen- und Subtropengebieten -, dann sollte man sich zumindest den gesamten Verlauf ansehen.

 

Abbildung 2: offizielle IPCC Grafik AR4 des Verlaufs des Temperaturanomalie, bezogen auf 1961-1990 der globalen Mitteltemperatur. Man sieht deutlich gleich steile Anstiege von 1860 – 1880, von 1910-1940 und von 1975-1998. Letzterer ist überaus strittig, weil ihn. 1. Die Satelliten nicht zeigen, und 2. Weil die terrestrischen Stationen, die ihn zeigen, stark daraufhin selektiert (manipuliert!) wurden.

Die globale Mitteltemperatur ist in Abbildung 2 gezeigt. Die eingezeichneten Graden sprechen für sich.

Period Length Trend
(Degrees C per decade)
Significance
1860-1880 21 0.163 Yes
1910-1940 31 0.15 Yes
1975-1998 24 0.166 Yes
1975-2009 35 0.161 Yes

Die Tabelle (aus Watts up with that hier) zeigt die Werte nochmals als Trends errechnet.

Der Anstieg von 1975-1998 ist strittig, weil ihn. 1. Die Satelliten nicht zeigen, und 2. Weil die terrestrischen Stationen, die ihn zeigen, stark daraufhin selektiert (manipuliert!) (Eine ausführliche Untersuchung von A. Watts & J. Dá leo darüber – Surface Temperature Records: Policy Driven Deception?- finden Sie hier)  wurden. Diese Ansicht stützen auch die Arbeiten des Geologen undefinedProf. F.K. Ewert (EIKE), der über 800 weltweite Temperaturganglinien auf ihren absoluten Temperaturtrend hin untersucht hat, und dabei nur klärte: a) ist ein Trend vorhanden? Wenn ja? b) War er positiv oder negativ? Sein Ergebnis: Von 1990-2010 zeigten 50% aller Stationen weltweit keine Erwärmung oder Abkühlung, 28.8 % eine Erwärmung (ohne Stadterwärmungseffekt) und 16,4% eine Abkühlung. Die Arbeit betrachtete auch den gesamten Trend. Sein Ergebnis: Von 1880-2010 zeigten 74% aller Stationen weltweit keine Erwärmung oder Abkühlung, 5,1 % eine Erwärmung (ohne Stadterwärmungseffekt) und 3,8% eine Abkühlung [2].

Limburg weiter: (7:40) Den letzten Anstieg zeigen Satelliten nicht. Terrestrische Daten zeigen ihn, die Aus­wahl der Sta­ti­o­nen war sehr se­lek­tiv.

Abbildung 3 zeigt den Temperaturverlauf der UAH Satelliten in der mittleren Troposphäre zusammen mit dem Anstieg der CO2 Konzentration. Man sieht im Mittel einen geraden Verlauf bis 1998, dann 1198 sowie 2010 die El Niño Anstiege.

Die Abbildung 3 spricht für sich. Nach 1998 geht es sprunghaft auf leicht höherem Niveau ohne Trend* weiter Warum terrestrische Stationen trotzdem einen Anstieg zeigen, der nicht nur Prof. Bott so ängstigt, beantwortet die nächste Grafik. Sie zeigt die Zahl der weltweiten Stationen des Global Historical Network (GHCN) die – und das ist wichtig – von den ausführenden Instituten CRU, GISS und NOAA in die Auswahl genommen und dann zur Berechnung des statistischen Konstruktes Globaltemperatur herangezogen wurden (werden)

Abbildung  4: Anzahl und globaler Mittelwert (man beachte auch die Werte der linken Achse) der GHCN Stationen (von über 8000 Stationen, die Daten liefern), deren Daten in die Berechnung des globalen Mittelwertes der Temperatur einfließen. Deutlich zu sehen der starke Abfall der Zahl der Stationen ab 1990 (Zusammenbruch der Sowjetunion), bei zeitgleichem sprunghaften Anstieg der globalen Mitteltemperatur (Quelle, siehe Bild).

Wie in Abbildung 4 zu sehen, steigt die globale Mitteltemperatur ab 1990 sprunghaft an. Zeitgleich sinkt die Zahl der ausgewerteten Stationen ebenso sprunghaft. Die Ursache liegt einerseits in einer (aus wirtschaftlichen Gründen) erfolgte Aufgabe ländlicher (ruraler) Stationen, zum anderen in einer bevorzugten Auswahl von Stationen in wärmeren Gebieten und dort überwiegend in Städten und/oder Flughäfen. Diese Selektion wurde bis heute fortgesetzt, so dass heute nur noch ca. 1100 Stationen weltweit  beitragen. Davon stehen über 40 % auf Flughäfen unter dem Einfluss der Erwärmung durch die Turbinen startender Fluszeuge. Man hat also in erster Linie die Zunahme des weltweiten Flugverkehrs seit 1960 gemessen. Mit Klimaerwärmung hat das nichts zu tun.

3. Wenn es die NGO´s nicht gegeben hätte dann wäre es noch schrecklicher

O-Ton Henneberger: Wenn es die NGO´s nicht gegeben hätte, dann wäre es noch schrecklicher (4:07).

Kähler (43:35): Wann haben wir einen echten Klimaschutz? (43: 48)

Bott: Es werden viele große Schäden angerichtet, viele Menschenleben, die es kosten wird, weil zu wenig getan wird.

Fischer: (44:23) Das Risiko ist viel zu groß, wenn wir Herrn Limburg und seinen Kollegen trauen…

Hier wird in beredten Worten von überstandenen Katastrophen (wäre alles noch viel schrecklicher…)  bzw. der großen Gefahr zukünftiger Katastrophen das Wort geredet. Diese gilt es unter allen Umständen zu vermeiden, so der gemeinsame Nenner von Bott, Henneberger, Fischer.

Gemeint sind vermutlich Wetterextreme, wie Stürme, Überschwemmungen und/oder Sturmfluten, Dürren (auch mit Waldbränden), wie wir sie  immer wieder – auch in jüngster Zeit – erlebt haben. Keine Frage: Extreme Wetter sind für die Betroffenen immer schlimm. Und mit zunehmender Zahl der Menschen, sowie rasanter Zunahme ihres Wohlstandes, werden diese auch immer teurer, sowohl was die Zahl der Betroffenen angeht, als auch in der Höhe der Schäden. Die Frage muss aber lauten: Werden sie auf Grund des postulierten Klimawandels mehr und/oder  stärker, oder ist eher das Gegenteil der Fall? Niemand, schon gar nicht Prof. Bott, hat hierzu die Sachstandsberichte des IPCC konsultiert, die von jedermann aus dem Internet heruntergeladen werden können (www.ipcc.ch). Im Sachstandsbericht vom Jahre 2001 ist ein sehr umfangreiches Kapitel 2.7 genau der hier diskutierten Problematik gewidmet, Ergebnis: „Nichts!“. Es gibt die von Prof. Bott beschworenen Znahmen nicht, was im Übrigen die gesamte meteorologische Literatur bestätigt. Und bis heute hat sich daran nichts geändert, 7 Jahre sind ohnehin bezogen auf Klimazeiträume (30 Jahre mindestens) zu kurz für neue Aussagen über die des IPCC-Berichts von 2001 hinaus.

Auch der Meteorologe und Physiker K.E. Puls (EIKE Pressesprecher) forscht seit langem über das Thema: Gibt es eine anthropogen bedingte Zunahme von Extremwettern? Gibt es überhaupt eine Zunahme?

Die Antwort wurde u.a. auf dem III. Internationalen Klima- und Energiekongress in Berlin gegeben. Schade nur, dass keiner der andern Gäste von Phoenix dort anwesend war. Die Antwort ist unmissverständlich. Es gibt keine Zunahme, weder anthropogen, noch generell. In vielen Fällen ist sogar eine Abnahme zu verzeichnen. Dies ganz im Gegensatz zu immer wiederkehrenden Medienberichten. Abbildung 5 zeigt einen Auszug aus diesem Vortrag.

Abbildung 5 : Auszug aus dem Vortrag von K. E. Puls über den Verlauf von Stürmen in der deutschen Bucht, dem Winter NAO Index des Lufdruck Gradienten etc. Überall sind Abnahmen erkennbar. Wer den Vortrag liest, wird erkennen, dass dies für alle Teile der Welt, also auch für Tornados, Hurricanes und anderes gleichermaßen gilt. Den gesamten Vortrag von K.E. Puls mit dem treffenden Titel:

„Klimawandel  : Katastrophe ohne Wetter-Signale ?“

finden Sie hier: undefinedPuls

Auch Jochem Marotzke, Direktor MPI HH Max-Planck-Instituts[8] (Hamburg):, befand in DER SPIEGEL, 7.5.2007, „Abschied vom Weltuntergang“,  S.145  „In unserem Computermodell brauen sich weder mehr Stürme noch stärkere Stürme über uns zusammen„.

Wird fortgesetzt:

Michael Limburg EIKE

* Einige Leser werfen mir vor, nicht die „Lower Troposphere Grafik“ gezeigt zu haben. Darin ist der Sprung ab 1998  höher (0,2K statt ca. 0,04 K) Es kam mir jedoch darauf an, zu zeigen, dass kein Trend vor und nach 1998 zu verzeichnen ist. Durch den sehr starken El Niño 1998, sorgte die Trägheit der Ozeane für das höhere Niveau für die Zeit danach.


[1] Man sehe hier: http://www.focus.de/wissen/wissenschaft/natur/neumayer-station-kaelterekord-in-der-antarktis_aid_530799.html

[2] Sie finden diese Arbeit als .ppt Datei (ganz nach unten scrollen Hier: http://www.eike-klima-energie.eu/news-anzeige/klima-realismus-in-berlin-die-3-internationale-klima-und-energiekonferenz-erfolgreich-beendet/




Klima-Realismus in Berlin! Die 3. Internationale Klima- und Energiekonferenz erfolgreich beendet.

Prof. Vincent Courtillot, der Chef des Institut de Physique du Globe in Paris, erklärte in seinem einleitenden Übersichtsvortrag, warum der von UN-Bürokraten und dem „Weltklimarat“ IPCC angestrebte „Konsens“ auf einen Holzweg führt. Courtillot erinnerte an das Schicksal der vor dem Ersten Weltkrieg aufgestellten Kontinentaldrift-Theorie des deutschen Meteorologen Alfred Wegener. Hätte ein Gremium wie der IPCC darüber befunden, wäre die inzwischen unter der Bezeichnung „Plattentektonik“ allenthalben akzeptierte Theorie für die Erklärung von Erdbeben und Gebirgs-Auffaltungen bis in die 60er oder gar die 70er Jahre des vergangenen Jahrhunderts beinahe einstimmig verworfen worden. Ein einzelner unbeirrter Wissenschaftler kann also gegenüber einer erdrückenden Mehrheit konventionell denkender Kollegen recht behalten. Wissenschaftliche Kontroversen können deshalb nie als endgültig beigelegt erklärt werden.

Das gilt umso mehr für Disziplinen, die sich mit so einem komplexen Gegenstand wie der Entwicklung der klimatischen Bedingungen des Planeten Erde beschäftigen. Der israelische Astrophysiker Prof. Nir Shaviv wies darauf hin, dass die vom IPCC favorisierten Computermodelle die kühlende Wirkung der Wolken vernachlässigen. Stattdessen rechneten die „Klimaretter“ ausschließlich mit einer positiven Rückkopplung von CO2 und Wasserdampf in der Atmosphäre und gelangten dabei zu einer unrealistisch hohen „Klimasensivität“ von CO2. Wegen der kühlenden Wirkung der Wolken sei das Netto-Feedback aber wahrscheinlich Null. Die Veränderung der Wolkenbedeckung allein könne während der so genannten Madden-Julian-Oszillation Schwankungen der Sonneneinstrahlung von 8 Watt je Quadratmeter bewirken, während der von den IPCC-Autoren angenommene „Treibhauseffekt“ allenfalls Schwankungen in der Größenordnung von einem Watt je Quadratmeter Erdoberfläche erklären könne, schätzte Courtillot. Entscheidend für die Entwicklung des Wettergeschehens und der Temperatur sei aber nicht die Globalstrahlung, sondern die UV-Strahlung. Die Erwärmung habe sich in Westeuropa nicht, wie der ansteigende CO2-Gehalt der Luft, allmählich vollzogen. Vielmehr zeigten alle Mess-Stationen zwischen 1986 und 1989 einen sprunghaften Anstieg. In Nordamerika folgt die Temperaturentwicklung einem ganz anderen Muster.

Damit bestätigte er, was dem deutschen Physiker Dr. Horst Borchert (Mainz) nach jahrzehntelangen Messungen aufgefallen ist. Borchert sieht einen Zusammenhang mit dem starken Rückgang der Schwefeldioxid-Belastung der Luft infolge der Umsetzung der deutschen Großfeuerungsanlagen-Verordnung und mit dem starken Sonnenwind (gemessen als Protonen-Höhenstrahlung) während des überaus aktiven 22. Sonnenfleckenzyklus. Da der aktuelle 24. Solarzyklus besonders schwach ausfällt, erwartet Borchert, dass der verstorbene Amateur-Astronom Dr. Theodor Landscheidt mit seiner Prognose einer schmerzhaften Abkühlung der Erde in den kommenden Jahrzehnten recht behält.

Wir sollten aber sowohl auf eine Abkühlung als auch auf eine weitere Erwärmung der Erde vorbereitet sein und in Bezug auf CO2 den Mut haben, nichts zu tun, meint der australische Geophysiker Prof. Bob Carter. Es bleibe den Menschen nichts anderes übrig, als sich an Klimaveränderungen anzupassen. Manchmal erfolgten diese in der Geschichte (wie zum Beispiel im jüngeren Trias) auch ohne menschliches Zutun allerdings so abrupt, dass nur die Flucht als Ausweg bleibe.

Carters Kollege der Geologe Prof. Ian Plimer, ein international renommierter Fachmann für Vulkanismus, beschäftigte sich mit der vom IPCC und einschlägigen Massenmedien hochgespielten Gefahr einer Versauerung der Meere durch den Eintrag von CO2. Der mit Abstand bedeutendste Eintrag von Kohlensäure in den Ozean stamme nicht von den Menschen, sondern von unterseeischen Vulkanen, stellte Plimer klar. Mit den Basalt-Eruptionen gelange aber auch gleichzeitig viel Kalk in die Meere, der die Säure neutralisiert. CO2 aus diesen Vulkanen trage die gleiche Isotopenhandschrift wie CO2 aus der Verbrennung von Kohle, Öl und Gas. Es würden aber mindestens zehnfach höhere Mengen emittiert. Genaueres wüsste aber bisher niemand, da diese Vulkane unterseeisch und dort in großer Zahl (Millionen!) tätig wären. Es könnte auch viel mehr sein. Deshalb sei die Behauptung, der Anstieg der CO2-Konzentration in der Atmosphäre gehe in der Hauptsache auf die Industrialisierung zurück, mit großer Vorsicht zu genießen.

Ohnehin sei der Kreislauf des Kohlenstoffs vom globalen Wasserkreislauf abhängig. Und dieser werde von der Sonne angetrieben, betonte der in Ottawa und ehemals in Bochum lehrende Geologe Prof. Jan Veizer. Die Computermodelle des IPCC stellten die Welt schlicht auf den Kopf, da sie dem CO2 die Rolle des Hauptantriebs der Klimaentwicklung zuschreiben. Dem konnte der in Leipzig lehrende Geoinformatiker Prof. Werner Kirstein nur beipflichten. Die in den IPCC-Modellen angenommene Beschleunigung des Meeresspiegel-Anstiegs entbehre jeglicher Datengrundlage. Kirstein zitierte den Oberdeichrichter der Deichacht Krummhörn,  Giesbert Wiltfang, der kürzlich verlauten ließ, der Meeresspiegel steige zurzeit überhaupt nicht. Auch das prognostizierte weitere Abschmelzen des Arktis-Eises sei nicht eingetroffen, betonte Prof. Kirstein. Die Eisdecke hat sich in den letzten Jahren wieder ausgedehnt. Das auf 3.000 Mess-Bojen fußende neue ARGO-Netz weist übrigens aus, dass sich der Ozean in der gleichen Zeit leicht abgekühlt hat.

EIKE-Mitglied Prof. em. Horst-Joachim Lüdecke konnte an Hand des Skalengesetzes von Hurst demonstrieren, dass die Temperaturentwicklung seit dem 19. Jahrhundert nicht zufällig fluktuierte, sondern einem Trend folgt, der auf Schwankungen der Sonnenaktivität als Antrieb hinweist. Prof. em. Friedrich-Karl Ewert (Paderborn) konnte an Hand einer Analyse der Rohdaten über 800 ausgewählter Mess-Stationen überdies zeigen, dass es auf der Welt überhaupt keinen einheitlichen Temperaturtrend zur Erwärmung gibt. Im Gegenteil, wenn etwas einheitlich sei, dann, dass 74 % der Stationen keinen Trend, bzw. sogar einen negativen Trend zeigten. Er bestätigte damit die Aussagen von Courtillot und Borchert. Phil Jones und andere dem IPCC zuarbeitende Forscher konnten nur deshalb eine Temperaturzunahme ausmachen, weil sie die Daten von Mess-Stationen, die eine Abkühlung zeigten, nicht berücksichtigten. EIKE-Pressesprecher Diplom-Meteorologe Klaus-Eckart Puls wies darauf hin, dass auch die vom IPCC an die Wand gemalte Zunahme schwerer Stürme nicht eingetreten ist. Im Gegenteil: Der Windkraft-Index ist in den letzten 15 Jahren um 20 Prozent gesunken. Das erklärt so manche Pleite in der Windkraft-Branche.

Warum diese in Mainstream-Medien dennoch als „Job-Motor“ gerühmt wird, untersuchte der bekannte Fernseh-Journalist Günter Ederer. Er stellte dar, wie es einer gut organisierten und eng mit der Politik verflochtenen grünen Lobby gelungen ist, die egoistische Durchsetzung völlig unwirtschaftlicher Formen der Energieerzeugung als „nachhaltige Entwicklung“ zu verkaufen. Prof. Dieter Ameling, der ehemalige Präsident der Wirtschaftsvereinigung Stahl, berichtete, der vom Bundesumweltministerium eingesetzte Rat von Sachverständigen für Umweltfragen habe schon in seinem Gutachten von 2001 die Meinung vertreten, „energieintensive Altindustrien“ hätten in Deutschland keinen Platz mehr. Doch diese „Altindustrien“ wie Bergbau, Stahl, Papier, Chemie, und Keramik besorgten in Deutschland 20 Prozent der Bruttowertschöpfung. In der aktuellen Finanzkrise zeige es sich, wie gut die Deutschen daran getan haben, ihr Land als weltweit bedeutenden Industriestandort zu erhalten. Werde der Ausbau der unwirtschaftlichen „erneuerbaren“ Energien jedoch fortgesetzt, müssten energieintensive Industrien abwandern. Im kommenden Jahr werde die Stromeinspeisevergütung nach dem Erneuerbare Energien Gesetz (EEG) bereits 32 Prozent des Industriestrompreisers ausmachen. Er könne deshalb seinen ehemaligen Arbeitgeber Thyssen-Krupp gut verstehen, wenn er jetzt massiv in Brasilien investiert und deutsche Standorte mittelfristig zur Disposition stellt.

Edgar L. Gärtner, EIKE  

Lesen Sie hier einige Berichte und Kommentare zur Konferenz:

Science Sceptical Peter Heller,  TAZ, Heise Online, Klimaretter, ZDF Frontal 21, Diffamierend wie üblich ZDF Frontal 21 und WDR 2 (ganz nach unten scrollen) s. auch Anlage.

Die folgenden Vorträge können als .ppt  Datei hier aufgerufen werden:

undefinedAmeling, undefinedCarter , undefinedLimburg, undefinedPuls, undefinedEwert, undefinedLüdecke  undefinedCourtillot, undefinedHaas, undefinedHaas Manuskript, undefinedPeters,  undefinedKirstein undefinedEderer,  undefinedPlimer , undefinedVeizer undefinedBorchert weitere werden folgen




Über die Genese von Erdöl und Erdgas!

Auch einige Beiträge von EIKE besonders zum Thema Energierohstoffe (s. u. a. Schiefergas, Kohlenwasserstoffvorkommen auf dem Titan) veranlassten mich, von Zeit zu Zeit besonders in meiner Eigenschaft als tatsächlich hier zu Lande noch fachlich tätiger Geologe etwas intensiver nachzuschauen. Als nicht ausgesprochener Experte für Erdöl und Erdgas versuchte ich mich, wie man dies bequemlicher Weise so anstellt, über das Internet bezüglich o. g. Thematik zu informieren. Bei den Recherchen im deutschsprachigen Internet ergab sich eine weitgehende Befürwortung der biogenen Erdölgenese. Dies ging aus populärwissenschaftlichen Beiträgen, wissenschaftlichen Artikeln und aus ins Netz gestelltem geowissenschaftlichen Lehrmaterial hervor. Das abiogene Modell der Erdölentstehung wurde dort meist gar nicht oder höchstens nur am Rande erwähnt. Im englisch- und russischsprachigen Internet sah dies hinsichtlich der Vielfältigkeit und Fülle schon etwas anders aus, was auch irgendwie verständlich ist, da ja Deutschland keine ausgesprochene „Erdölnation“ ist.Neben vielen interessanten und auch fachlich sehr speziellen, wie auch gegensätzlichen Beiträgen stieß ich auf diese Weise auf einen Artikel von M. W. Rodkin – Autor von über 180 wissenschaftlichen Publikationen und Mitarbeiter des Geophysikalischen Zentrums der Russischen Akademie der Wissenschaften, welcher sich via Internet für einen großen Kreis von Interessenten allgemeinverständlich ausdrückt, dabei etwas Struktur sowie Licht in die Welt der existierenden Vorstellungen über die Entstehung von Kohlenwasserstoffvorkommen auf der Erde bringt. Im Beitrag wird kurz gezeigt, welch geteilter Auffassung die kompetente Fachwelt hinsichtlich der Erdölgenese nach wie vor wirklich ist. Auch der interessierte Laie wird merken, dass der so genannte „gesunde Menschenverstand“ (welcher oft mit oberflächlicher Logik verwechselt bzw. unbewusst gleichgesetzt wird) hier erheblich in die Irre führen kann. Rodkin hat mit seinem Aufsatz meine bisherige eigene fachliche Voreingenommenheit zur gegebenen Thematik vollständig aufgelöst! Dr. B. Hartmann

Hier Rodkins Artikel!

Theorien über die Herkunft des Erdöls:

These – Antithese – Synthese

von Dr. habil. M.W. Rodkin

(Dr. d. math.-phys. Wissensch. lt. aktueller russ. Nomenklatur akad. Grade; Mitarbeiter des Geophysikali­schen Zentrums der Russischen Akademie der Wissenschaften – Anm. d. Übers.)

nach http://wsyachina.narod.ru/earth_sciences/oil_genesis_1.html

(Beitrag aus dem Internet nach dem Artikel „Proiskhoshdenije njefti – stary spor“ // Nauka v Rossii. 2004. ? 5. S. 28-33. [russ.]; – „Der Ursprung des Erdöls – ein alter Streit“ // Wissenschaft in Russ­land. 2004 Nr. 5, S. 28-33)

Es ist bemerkenswert, dass unabhängig von der großen ökonomischen Bedeutung und dem gewaltigen Volumen der bisher geleisteten gründlichen Forschungsarbeit in der Frage der Herkunft des Erdöls hier noch mehr Unklarheit als für jeden beliebigen anderen weit verbreiteten Naturstoff herrscht. 

H. D. Hedberg (*1903 – †1988)

ehem. Präsident der Amerikanischen Geologischen Gesellschaft

Unversöhnliche Clans

Das Wesen des organischen Modells – der am meisten verbreiteten Vorstellung über die Erdölgenese – formulierte schon M.W. Lomonossow, welcher 1763 „über die Entstehung dieser braunen Materie… aus Pflanzenresten unter der Wirkung der Erdwärme“ schrieb. Die zweite Hälfte des 19. Jahrhunderts verlief bezüglich des Themas hauptsächlich unter dem Vorzeichen des abiogenen Modells von D. I. Mendelejew. Bei der Untersuchung von Erdöl aus Apscheron (Aserbaidschan) entwickelte der Wissenschaftler die Hypothese darüber, dass sich das Erdöl im Resultat chemischer Prozesse bildet, welche in den Tiefen unterhalb des Hauptkamms des Kaukasus ablaufen. Er mutmaßte, dass entlang der Hänge des Kaukasus weitere Erdöllagerstätten vorkommen müssten. Die Wahrheit ist, dass gerade dort, wo es Mendelejew voraussagte, keinerlei Lagerstätten gefunden wurden. Man fand sie im Bereich von Sedimentationsbecken darunter auch solche, die nichts mit den kaukasischen Gebirgskämmen gemein hatten.

Sehr deutlich dominierte im 20. Jahrhundert das organische Modell der Entstehung des Erdöls. Russische Erdölgeologen (N. B. Wassojewitsch, I. M. Gubkin, A. P. Archangelskij u. v. a.) zeigten, dass eine enge Verbindung zwischen Kohlenwasserstofflagerstätten und den Sedimentgesteinen besteht. Diese Erkenntnis ist auch Bestandteil der allgemeinen Konzeption von W. I. Wernadskij (Begründer der modernen Geochemie, Schöpfer des wiss. Begriffs „Biosphäre“ – Anm. d. Übers.) im Zusammenhang mit der Rolle der Lebewelt bei der Formierung geochemischer Zyklen. Wernadskijs Theorie über die Rolle der Biosphäre bei der Evolution der Erde wird praktisch von allen anerkannt. Es erwies sich, dass die Produkte der Biosphäre viel tiefer in das Erdinnere eindringen, als es selbst der Autor dieser Hypothese vermutete. Gegenwärtig wird unter den Fachwissenschaftlern das Tiefenmodell der Durchmischung des primären sedimentären Materials (zusammen mit den umstrukturierten biogenen Relikten) im Bereich des Erdmantels breit diskutiert. Die ozeanischen Platten, deren Bestandteil auch Sedimentgesteine sind, gelangen in den Bereich des Erdmantels (wo sich eine Platte unter die andere schiebt – die so genannten Subduktionszonen an den äußeren Aktivzonen der Kontinente). Diese Aktivzonen erscheinen an der Oberfläche als Vulkangürtel wie z. B. die von Kamtschatka, der Kurilen, der Vulkangürtel um den Pazifik. Eben gerade mit einem derartigen „Recycling“ der organischen Substanz wird auch die Entstehung eines Teils der Diamanten in Verbindung gebracht. Inzwischen weiß man, dass das bakterielle Leben in solchen Tiefen regelrecht kocht, wo es früher für unmöglich gehalten wurde. Es scheint so, als wenn im 20. Jahrhundert die Wissenschaft quasi unumstößliche Argumente für die Richtigkeit der organischen Theorie der Erdölentstehung gewonnen hätte. Aus Erdöl konnte eine große Anzahl von Biomarkern als molekulare Relikte von Materie biologischer Herkunft extrahiert werden. Außerdem zeigte sich, dass Erdöl über eine optische Aktivität verfügt, welche man als eine Eigenschaft ausschließlich organischer Substanz einstufte. Der Streit über die Erdölgenese verstummte jedoch nicht…..

Den ganzen Artikel finden Sie als pdf Datei im Anhang. (9 Seiten A4)

Die Übersetzung besorgte dankenswerterweise Dr. Bernd Hartmann, Dipl. Geologe 

Related Files




Umfrage unter Klimarealisten: Wer sind sie eigentlich? EIKE Internetportal ist unter deutschsprachigen Realisten am beliebtesten!

Zwischen dem 26.9. und dem 11.10.2010 wurde auf dem Blog “Die Klimazwiebel” eine Umfrage durchgeführt, die sich speziell an Klimaskeptiker richtete. Bewußt wurde keine Definition dieses Begriffes vorgegeben. Angesprochen waren all jene, die sich selbst – aus welchen Gründen auch immer – als Klimaskeptiker bezeichnen. Anlaß war die Diskussion von Vorurteilen über die Gruppe der Klimaskeptiker, wie sie von Alarmisten und auch den Massenmedien intensiv gepflegt werden.

Aus meiner Sicht standen dabei zwei Fragestellungen im Mittelpunkt:

  • Was denken eigentlich die Klimaskeptiker wirklich? Ist es möglich, dieser durchaus heterogen zusammengesetzten Gruppe eine gemeinsame Haltung zuzuweisen? Ist es also möglich, den Begriff “Klimaskeptiker” in einer Form zu definieren, die, wenn nicht alle, so doch zumindest die übergroße Mehrheit dieser Gruppe treffend charakterisiert?
  • Stimmen die bekannten Vorurteile? Ist es insbesondere richtig, daß man den Skeptikern nur den Treibhauseffekt richtig erklären müsse, und schon wäre ihr Skeptizismus hinfällig? Ist es richtig, daß die Klimaskeptiker erstens inkompetent sind, die Erkenntnisse der Klimaforschung zu verstehen und zu bewerten? Und daß sie zweitens durch die Bank von dem Wahn erfaßt sind, die Klimakatastrophe wäre eine Erfindung einer weltweiten Verschwörung und Klimaforscher entsprechend samt und sonders Lügner?

Bild 1: Die Webseiten, die zur Umfrage führten

Die Umfrage wurde von Klimazwiebel-Leser Rob Maris programmiert und ausgewertet. Hans von Storch und ich haben den Prozeß begleitet. Ich habe auch an der Formulierung einiger Fragen mitgewirkt. Vom Erfolg der Befragung waren wir ziemlich überrascht. Ich persönlich hätte schon eine kleine dreistellige Zahl an Teilnehmern als Erfolg betrachtet. Insbesondere , da wir auf die Umfrage nur auf wenigen Blogs (Klimazwiebel selbst, hier, EIKE und Ökowatch) hingewiesen haben. Vor allem gab es keine Verweise bei “Watts up with that” und auch nicht bei “Climateaudit” (Bild 1).

Es konnten insgesamt 673 Teilnehmer gezählt werden, von denen 489 den Fragebogen vollständig ausgefüllt hatten.  Nach einer ziemlich ausführlichen Validitätsprüfung hat sich Rob Maris entschlossen, 578 Teilnehmer (aus 28 Ländern, Bild 2) in die Auswertung einzubeziehen. Es wurden vor allem Teilnehmer aussortiert, die versuchten, die Befragung mehrfach zu durchlaufen. Und solche, die eine extrem kurze Bearbeitungszeit vorzuweisen und/oder nur ganz wenige Fragen beantwortet hatten.

Bild 2: Woher die Teilnehmer kamen…

Die Analyse und Aufbereitung der Daten hat mehr als zwei Wochen beansprucht und war für Rob Maris und mich mit sehr viel Zeitaufwand verbunden. Vor allem Rob Maris hat sich sehr engagiert und Hans von Storch war intensiv eingebunden. Den beiden Herren möchte ich also an dieser Stelle herzlich für das Projekt und die Möglichkeit der Mitwirkung danken.

Die Umfrage ist natürlich nicht repräsentativ. Die aus meiner Sicht große Zahl an Teilnehmern erlaubt es aber, Schlüsse zu ziehen. Vor allem, da dies nach meiner Kenntnis der erste Ansatz der Art war, Klimaskeptiker als Gruppe zu identifizieren und zu charakterisieren. Ob alle Teilnehmer wahrheitsgemäß geantwortet haben, kann man natürlich nicht erkennen. Die Antworten entsprechen aber meinen Vermutungen, die aus jahrelanger Beobachtung der Debatte im Internet entstanden sind. Das Gesamtbild, das sich ergibt, ist also nach meiner Auffassung durchaus plausibel. Und ich bin der Ansicht, daß auch eine Befragung im größeren Umfang mit einer entsprechend wissenschaftlichen Konzeption und Begleitung kaum ein anderes Ergebnis erbracht hätte. Dazu ist anzumerken, daß sich das Antwortverhalten über verschiedene Gruppen hinweg ziemlich stark ähnelt. Unabhängig davon, ob man beispielsweise nur diejenigen betrachtet, die aus Deutschland an der Umfrage teilgenommen haben, oder nur die Amerikaner, ob man nur die betrachtet, die sich selbst als Wissenschaftler betrachten, oder als Laien: die Antwortmuster sind mit geringen Differenzen im einstelligen Prozentbereich immer dieselben.

Die Darstellung der Ergebnisse und meine Bewertung teile ich auf zwei Blogbeiträge auf. Heute möchte ich zunächst einige allgemeine Charakteristika der Teilnehmer präsentieren. Die eigentlich spannenden inhaltlichen Fragen folgen dann im Laufe der kommenden Woche. Wer bis dahin zu ungeduldig ist, kann das  Gesamtergebnis auf der Klimazwiebel in englischer Sprache anschauen.

1. Klimaskeptiker informieren sich in der Regel schon seit vielen Jahren

Bild 3: Steigendes Interesse seit 2001…

Während die IPCC-Berichte der Jahre 1991 und 1995 von der allgemeinen Öffentlichkeit wenig zur Kenntnis genommen wurden, haben insbesondere die der Jahre 2001 und 2007 eine breite Diskussion ausgelöst. Dies kann man auch an der Frage ablesen, seit wann sich denn die Teilnehmer überhaupt für die Klimaproblematik interessieren (Bild 3). Climategate hingegen hat keinen größeren Effekt hinterlassen. Mehr als 50% der Teilnehmer befassen sich schon seit 5 oder mehr Jahren mit dem Thema.

  2. Der Skeptizismus nimmt zu

Bild 4: Skeptizismus ist kein Naturgesetz

Und man wird nicht als Skeptiker geboren (Bild 4). Ganz im Gegenteil: Mehr als 75% der Teilnehmer waren anfangs eher neutral oder gar alarmistisch eingestellt. Dies zeigt einmal mehr auf: Je länger man sich mit der Klimafrage auseinandersetzt, desto skeptischer wird man gegenüber dem Alarmismus. Oberflächlichkeit läßt sich daraus nun gerade nicht ableiten. Die vergangenen zwei Jahre waren geprägt durch die Debatten über den IPCC-Bericht 2007, das Scheitern der Klimaverhandlungen auf internationaler Ebene und Climategate. Dies alles hat den Skeptizismus weiter verfestigt (Bild 5).

Bild 5: Skeptizismus steigt…

3. Die Gründe für den Skeptizismus sind vielfältig

Bild 6: Vielfältige Motivationen

Zwar ist die ursprüngliche Motivation der Skeptiker überwiegend durch Zweifel an der Interpretation wissenschaftlicher Ergebnisse geprägt, aber die Fragestellung der richtigen Klimapolitik hatte für viele ebenfalls schon immer eine große Bedeutung. Die konkreten Anlässe für  sind vielfältiger Natur, wobei die Diskussionen im Internet und die Hockeystick-Debatte wie erwartet herausragen. Die von uns ein wenig auch als “Kontrollfrage” eingebaute Möglichkeit “Winter 2010? spielte keine Rolle. Was die Seriösität der Umfrageteilnehmer unterstreicht (Bild 6).

4. Skeptiker sind kompetent

Mehr als zwei Drittel der Teilnehmer verfügen über eine wissenschaftlich/technische Ausbildung. Dem Vorurteil der mangelnden Kompetenz in dem Verständnis und der Bewertung wissenschaftlicher Aussagen ist damit der Boden entzogen. Zumal man auch Laien, die sich über Jahre mit dem Thema befassen, nicht ohne weiteres die Kompetenz absprechen kann (Bild 7).

Bild 7: Skeptiker sind kompetent

5. Was und wen Skeptiker mögen…

In Frage 9 wurden eine Reihe von Personen vorgegeben, die von Skeptikern häufig und gerne zitiert werden. Es zeigt sich, daß Steven McIntyre und Richard Lindzen – und damit eher wissenschaftsorientierte Kritiker – das mit Abstand höchste Ansehen genießen. Es gab hier die Möglichkeit, weitere Namen frei hinzuzufügen. Es wurden 41 zusätzliche Personen genannt. Davon erhielten nur zwei, Henrik Svensmark und Jo Nova, fünf oder mehr Stimmen. Sechs Personen wurden je zweimal, 33 jeweils einmal eingetragen. In der vorgegebenen Personenliste wurden mit Judith Curry, den beiden Pielkes und Mike Hulme auch Protagonisten aufgeführt, die sich selbst wahrscheinlich niemals als Skeptiker bezeichnen würden (Bild 8).

Gleiches galt für Frage 10. Hier wurden gleich drei Blogs (, , ) aufgeführt, die man als alarmistisch charakterisieren kann und mit der  und  weitere zwei, die eher als gemäßigt oder neutral anzusehen sind. Die Bewertung der alarmistischen Blogs zeigt ziemlich eindeutig, daß die Umfrage tatsächlich von Skeptikern bearbeitet wurde (sollte auch ein kleiner Test sein, um Versuche, die Resultate zu verfälschen, besser erkennen zu können). Gelesen aber werden diese Blogs offensichtlich schon – auch und gerade durch die Skeptiker. Daß diese sich nur einseitig informieren würden, ist also ebenfalls nicht haltbar. Zumal gerade die beiden “neutralen” Blogs sehr positiv gesehen werden. Ansonsten zeigt das Ergebnis (Bild 9) einmal mehr die Ausnahmestellung, die sich Anthony Watts und Steven McIntyre in der Szene erarbeitet haben. Bei letzterem ist das Ergebnis besonders bemerkenswert, denn sein Blog ist doch sehr speziell auf ein Thema (statistische Verfahren in der Paläoklimatologie) ausgerichtet und nicht gerade allgemeinverständlich. Skeptiker sind also willens, sich in komplexe Themen einzuarbeiten.

Bild 9: Beliebte Webseiten (alle Teilnehmer)

Die Umfrage richtete sich an ein internationales Publikum und wurde dementsprechend auch in englischer Sprache verfaßt.  Naturgemäß haben es rein deutsche Blogs im Vergleich zu denen des englischen Sprachraums daher schwer. Betrachtet man die Resultate nur für die deutschen Teilnehmer, ergibt sich eine etwas andere Reihenfolge (Bild 10). Hier hat EIKE erwartungsgemäß die Nase vorn. Hinsichtlich der Zahl der regelmäßigen Besucher erringen wir in dieser Befragung immerhin auch eine Bronzemedaille. Das motiviert durchaus…

Bild 10: Beliebte Webseiten (nur deutsche Teilnehmer)

Soviel für den Moment. In der kommenden Woche werde ich die Haltung der Skeptiker zu konkreten inhaltlichen Fragen beleuchten und analysieren. Und das Ergebnis mag tatsächlich für einige überraschend sein…

Dr.Peter Heller von science sceptical; EIKE dankt für die Überlassung des Beitrags

ÄHNLICHE BEITRÄGE:




Schwarz-gelbes Energiekonzept bringt 0,007 °C Erwämungsminderung bis 2050; aber ist Roadmap in die Armut des Mittelalters!

Die nur auf Vi­si­o­nen ba­sie­ren­den Ziel­vor­stel­lun­gen des Ener­gie­kon­zep­tes sind wohl­klin­gend. Dort heißt es:

"Das Ener­gie­kon­zept soll Leit­li­ni­en für eine sau­be­re, zu­ver­läs­si­ge und be­zahl­ba­re Ener­gie­ver­sor­gung for­mu­lie­ren und den Weg in das Zeit­al­ter der er­neu­er­ba­ren Ener­gi­en be­schrei­ben. Es ist eine lang­fris­ti­ge Ge­samt­stra­te­gie, die auf Grund­la­ge der Kli­ma­schutz­zie­le im Rah­men des Ziel­tri­as Preis­wür­dig­keit – Ver­sor­gungs­si­cher­heit so­wie Kli­ma- und Um­welt­schutz die er­for­der­li­chen kon­kre­ten Maß­nah­men in al­len in al­len wich­ti­gen Hand­lungs­fel­dern (Strom, Wär­me, Käl­te, Kom­mu­ni­ka­ti­on und Ver­kehr) fest­legt und da­mit al­len Ak­teu­ren Pla­nungs­si­cher­heit für In­ves­ti­ti­o­nen gibt."

Doch schon bei ganz ober­fläch­li­cher Be­trach­tung er­gibt sich für jeden klar denkenden Menschen: Was hier be­schlos­sen wur­de, ist der si­chere Weg in tie­fe Ar­mut. Es ist eine Road­map di­rekt ins Pa­ra­dies der Öko­träu­mer, näm­lich ins Mit­tel­al­ter.

Es soll also die Ener­gie­zu­kunft des In­dust­rie­stand­or­tes Deutsch­land – so das Lip­pen­be­kennt­nis der Po­li­tik – für die nächs­ten 40 Jah­re si­chern. Um das fest zu ver­an­kern, ver­an­stal­te­te – Zu­fall oder nicht – be­reits einen Tag nach Ver­kün­dung im Ka­bi­nett, die CDU/CSU-Frak­ti­on ih­ren gro­ßen Kli­ma- und Ener­gie­kon­gress, auf dem Bun­des­um­welt­mi­nis­ter Rött­gen die­ses Ener­gie­kon­zept in ge­kürz­ter Form vor­stell­te. Es macht die in­zwi­schen gründ­lich wi­der­leg­te Kli­ma­schutz­prob­le­ma­tik zur Grund­la­ge.

Minister Rött­gen be­haup­te­te dazu vor fachkundigem Pub­li­kum und al­len Erns­tes, die zum Schut­ze des Kli­mas er­for­der­li­chen Maß­nah­men wür­den eine "Ener­gie­wen­de" zwin­gend er­for­der­lich ma­chen.

Zu die­sem Zweck for­dert er eine CO2-Re­duk­ti­on der deutschen Emissionen ge­gen­über 1990 (1036 Mio t techn. CO2) und bis 2050 um min­des­tens 80 %, – bes­ser, so Rött­gen – 90 bis 95 %. Das be­deu­tet – und das ist auch Rött­gen und sei­nen Kol­le­gen klar – eine Re­duk­ti­on auf nur noch 207 Mio. t oder we­ni­ger (bei –95 % sind es 51,8 Mio t).

Im De­tail heißt das,

  1. kein fos­sil be­feu­er­tes Kraft­werk (ca. 45 % An­teil) mehr,
  2. kaum noch Trans­port über die Stra­ße (ca. 18 %)
  3. so gut wie keine In­dust­rie­-Produktion (ca. 10 %)mehr,
  4. keine Hei­zung in Häu­sern oder Woh­nun­gen mehr

Seine Kollegin Frau Höhn von den Grünen sprach das kürzlich auch ziemlich offen aus. Es sei denn, so hofft der Mi­nis­ter und mit ihm wei­te Tei­le des Par­la­men­tes, dass mit dem gleich­zei­tig ge­för­der­ten mas­siv er­höh­ten Ein­satz "Er­neu­er­ba­rer Ener­gi­en" auf min­des­tens 80 % des Strom­ver­brau­ches, bei gleich­zei­ti­ger def­ti­ger Ab­sen­kung des ab­so­lu­ten Ver­brauchs (durch noch zu er­fin­den­de Ener­gie­ef­fi­zi­enz), der gröbs­te -selbst und bewusst her­bei­ge­führ­te- Man­gel ge­lin­dert wird. Das einzig Gute im Energiekonzept – die sehr moderate Verlängerung der Laufzeit der Kernkraftwerke- wird auch gleich wieder zu politischer Umverteilung missbraucht. Statt die Zusatzgewinne über deutliche Preissenkungen den Verbrauchern zugute kommen zu lassen, sollen sie fast vollständig „abgeschöpft“ und zur Förderung der „Erneuerbaren“ eingesetzt werde. Dafür  wird extra ein „Sondervermögen“ geschaffen, in das in 10 Jahren 30 Mrd € fließen sollen. Bezahlt von uns, vom Verbraucher.

Zur Verwirklichung der Vision von 80 % Erneuerbaren müs­sen jedoch di­ver­se Tech­no­lo­gi­en neu er­fun­den wer­den, von denen die meisten heu­te nicht mal im An­satz vor­han­den sind. An wenigen Bei­spielen sei das klar ge­macht. 1.Fehlende Groß-Speicher für elektrische Energie, 2. CCS-Abscheidung von CO2 aus Verbrennungsprozessen, 3. Hebung der Energieeffizienz zur Senkung des Absolutverbrauchs.

Zu 1: Fehlende Groß-Speicher für elektrische Energie, Bedarfssteuerung (vulgo: Planwirtschaft)

Um die stark schwan­ken­den Wind- und So­lar­stro­mein­spei­sun­gen (de­ren Vor­rang­ein­spei­sung dau­er­haft fest­ge­schrie­ben wird) über­haupt ver­wend­bar zu ma­chen, müs­sen ge­wal­ti­ge CO2-freie Spei­cher er­fun­den und ge­baut wer­den. Elektrochemische Bat­te­ri­en kom­men da­für nicht in Fra­ge, wie die Fach­leu­te in den an­schlie­ßen­den Vor­trä­gen ka­te­go­risch er­klär­ten. Eben­so­ we­nig wie Gas­kraf­twer­ke, die zwar we­ni­ger CO2 pro kWh aus­sto­ßen, aber eben im­mer noch mas­sen­haft CO2 er­zeu­gen. Bleiben Pumpspeicherwerke, also das Hochpumpen großer Wassermengen in hoch gelegene Auffangbecken. Bei Be­darf wer­den dann de­ren Ven­ti­le ge­öff­net und die Was­ser­men­gen trei­ben beim He­run­ter­flie­ßen wie­der Turbogeneratoren und er­zeu­gen Strom.

Die Vor­tei­le die­ser Tech­no­lo­gie lie­gen in ih­rer schnel­len Re­gel­bar­keit und dass sie seit Jahr­zehn­ten erprobt und be­kannt sind. Aber die Nach­tei­le sind ge­wal­tig. Denn die Kos­ten sind enorm. Für nur 1000 MW Leis­tung, wie beim Pump­spei­cher­werk Gold­ist­hal/Thü­rin­gen müs­sen 600 Mill € ver­an­schlagt wer­den. Ein sol­ches Kraft­werk lie­fert dann 1000 MW über 8 Stun­den. Das sind 8000 MWh. Dann ist es leer. Die Um­wand­lungs­ver­lus­te sind zu­dem groß, man rech­net mit 20 %. Die To­po­lo­gie, die man dazu braucht, also die erforderliche Landschaftsform, gibt es nur an we­ni­gen Stel­len im Mit­tel- und Hoch­ge­bir­ge. Der Land­schafts­ver­brauch ist ge­wal­tig. Und das ist auch dem Mi­nis­ter gut be­kannt:

So schreibt er in sei­nem Eckpunkte-Kon­zept:

Abb. 1 Auszug aus dem Eckpunktepapier des BMU zum Energiekonzept

und be­schreibt dann wei­ter die ge­wal­ti­gen An­for­de­run­gen an die Spei­cher, de­ren Lö­sun­gen nir­gends auf der­ Welt in Sicht sind:

Abb. 2 Zukünftige volatile Energieeinspeisungssimulation anch dem Eckpunktepapier des BMU zum Energiekonzept

Nun ha­ben wir ge­lernt, dass das größ­te deut­sche Pumpspei­cher­werk Gold­ist­hal ca. 8000 MWh oder 8 GWh lie­fern kann. Dann ist es leer. Um die ge­for­der­te Strom­men­ge aus Pump­spei­cher­wer­ken zu ge­ne­rie­ren be­nö­tig­te man – un­ter Nut­zung der obi­gen An­ga­ben (50-60 GW Leis­tung über 10 Tage ca. 12.000 GWh) nicht we­ni­ger als 1.500 Pump­spei­cher­wer­ke der Gold­ist­halklas­se. Men­gen­ef­fek­te ab­ge­rech­net, würde das allein etwa 800 – 900 Mrd. € kosten.

Wenn, ja wenn man denn nicht nur das Geld, sondern auch die Land­schaft da­für hät­te. Weil man die aber – für je­den er­sicht­lich – in Deutsch­land nicht hat, will man, so die heh­re Ab­sicht, Ver­hand­lun­gen mit Nor­we­gen(s. Auszug Interview WAMS mit Vahrenholt & Weber am Ende))  auf­neh­men, um es zu be­we­gen, die benötigte Land­schaft, ge­gen gu­tes Geld na­tür­lich, be­reit zu stel­len.

Abb. 3 Auszug aus dem Eckpunktepapier des BMU zum Energiekonzept

Nor­ma­le Phan­ta­sie reicht lei­der in kei­nem Fal­le aus, um da­raus eine verantwortbare po­li­ti­sche Vi­si­on oder gar Kon­zep­t zu ma­chen, dazu muss man wohl Po­li­ti­ker oder Kli­ma­apo­ka­lyp­ti­ker sein.

Bedarfsssteuerung

Da das aber auch nicht rei­chen wird, so schwant es den Po­lit­pla­nern, müs­sen Be­darfs­steu­e­run­gen her. Auf Deutsch, der Ver­brau­cher – also wir – wird ge­zwun­gen wer­den, sei­nen Ver­brauch – Ko­chen, Wa­schen , Be­leuch­ten – dem schwan­ken­den An­ge­bot an­zu­pas­sen. Nach­kriegs­er­fah­re­ne den­ken da so­fort an das böse Wort "Strom­sper­re". Man wur­de um 3 Uhr mor­gens ge­weckt, um für kur­ze Zeit bei Licht ir­gend­ei­ne sinn­vol­le Tä­tig­keit für ei­ni­ge Stun­den durch­füh­ren zu kön­nen, ehe ei­nen wie­der tie­fe Dun­kel­heit um­gab und man zu­rück ins Bett kroch. Eine direkte Einführung einer Öko-Planwirtschaft ist damit unvermeidlich.

2. CCS-Abscheidung von CO2 aus Verbrennungsprozessen

Weil also Pump­spei­cher­wer­ke – die ein­zig be­kann­te und er­prob­te Tech­no­lo­gie – ausscheiden, er­fin­den die Po­li­ti­ker mal eben so auf die Schnel­le neue Tech­no­lo­gi­en. Eine da­von heißt CCS. Das steht für Car­bon Ca­ptu­re and Sto­ra­ge. Man schei­det da­bei das bei bei der Koh­le- oder Gas­ver­bren­nung ent­ste­hen­de Koh­len­dio­xid ab, ver­flüs­sigt es und leitet es un­ter ho­hem Druck (ca. 100 bis 200 bar oder mehr an der Ein­fülls­tel­le) in un­ter­ir­di­sche Gas­la­ger­stät­ten. Die­ses Ver­fah­ren wird von den Kraft­werks­be­trei­bern als letz­te Ret­tung für ihre sonst vom Kli­ma­ver­bot be­droh­ten fos­sil be­feu­er­ten Kraft­wer­ke an­ge­se­hen. Sie for­schen also flei­ßig an die­ser Tech­no­lo­gie.

Der Vat­ten­fall-Vor­sit­zen­de für den Mi­ni­ng-Be­reich, Hart­muth Zeiß, be­zif­fer­te die an­fal­len­de CO2-Men­ge aus heu­ti­ger Sicht auf ca. 300 Mio t jähr­lich. Bei Umrechnung der Prozentangaben des BMU für die CO2-Emissionen im Jahre 2008 wären es nur für die Kraftwerke ca. 380 Mio t. Nimmt man noch das produzierende Gewerbe dazu (Bei der Produktion  jeder Tonne Stahl werden 2 t CO2 erzeugt) ergeben sich 465 Mio t CO2. Es sind also gewaltige Mengen, um die es da geht. Und das Jahr, für Jahr, für Jahr.

Die Kos­ten für die Ent­sor­gung bezifferte Zeiß auf etwa 35 €/MWh (= 3,5 Ct/kWh). Dies al­lein wür­de die Produktions­kos­ten des Stro­mes in etwa ver­dop­peln.

Ganz ab­ge­se­hen von der Ver­rin­ge­rung des Wir­kungs­gra­des der Kraft­wer­ke um ca. 10-15 Pro­zent­punk­te[1], was von ei­ner massiven Erhöhung der zu ver­feu­ern­den Brenns­toff­men­ge be­glei­tet ist, um die glei­che Strom­menge zu er­zeu­gen. (25 – 50 Prozentpunkte – Von ? = 45 % auf ? =  30 % à 150 % Kohleverbrauch, von ? = 45 %  auf ? = 35 % à   129 % Kohleverbrauch). Dies alles, so lässt es sich jedenfalls aus den Veröffentlichungen der DPG ableiten, erhöht die Stromerzeugungskosten um bis zu 250 %

Auch ab­ge­se­hen vom breit­flä­chi­gen er­bit­ter­ten Wi­der­stand der Men­schen ge­gen eine Ein­la­ge­rung, des als ge­fähr­lich eingeschätzten CO2-Ga­ses un­ter ih­ren Häu­sern. Wenn es denn ir­gend­wann und irgendwo wie­der nach oben kommen sollte. Denn CO2 ist 1,6 x schwe­rer als Luft. Es fließt wie Was­ser in die tiefs­ten Stel­len der Erdoberfläche und sammelt sich bei windschwachen Wetterlagen in Mulden und Tälern. Nie­mand sieht es, nie­mand riecht es, aber je­der at­met es u. U. ein. Und erstickt. Und zwar dann, wenn die Kon­zen­tra­ti­on ca. 5 Vol-% übers­teigt. Die­se Ge­fahr bes­teht so­lan­ge, wie das Gas un­ter­ir­disch ein­ge­schlos­sen ist, also u. U. tau­sen­de von Jah­ren. Damit entsteht ein neu­es – sehr, sehr viel grö­ße­res- End­la­ger­prob­lem. Dies­mal bun­des­weit und für alle Zeiten.

3. Hebung der Energieeffizienz zur Senkung des Absolutverbrauchs.

Die Hebung der Effizienz aller Prozesse ist ein vom Wettbewerb getriebenes Marktgesetz. Nur wer laufend seine Prozesse verbessert, sie optimiert, veränderten Bedingungen anpasst, etc. wird im Wettbewerb überleben. Das galt und gilt immer und nicht erst seit der Einführung des Energiekonzeptes. So sind sämtliche industriellen Prozesse einer ständigen Verbesserung unterworfen um Energie – und Materialeinsatz – also der Ressourcen – bis dicht an die naturgesetzlichen Grenzen zu führen. Doch auch da gilt, je weiter der Prozess schon optimiert ist, desto teurer wird die Verbesserung um jeden Prozentpunkt der Verbesserung. Ökonomen ist dieses Prinzip als das Pflückproblem der niedrig oder hoch hängenden Kirschen bestens bekannt. Die Effizienzsteigerung ist also immerwährend aber nicht beliebig fortführbar, aus naturgesetzlichen wie Kostengründen.

Abb. 4 Auszug aus dem Eckpunktepapier des BMU zum Energiekonzept

Doch das ist nicht die einzige Kritik, die sich das Energiekonzept gefallen lassen muß, so getan wird, als ob die Effizienzsteigerung beliebig weiter getrieben werden kann. Denn die Verbesserung der Energieeffizienz ist vor allem eine Folge des wissenschaftlich-technischen Fortschritts und des Wettbewerbs, die auch künftig wirken werden, deren Umsetzung in der Praxis aber mit immer höheren Kosten verbunden ist, denn „einfache“ Möglichkeiten des „Energiesparens“ wurden immer mehr bereits erschlossen. Jetzt geht es dagegen um die Entwicklung und Realisierung neuer unbekannter Technologien[2].

So sind die deutschen Stahlwerke noch die effizientesten der Welt, und trotzdem erzeugen sie (nur) 2 t CO2 pro Tonne Stahl. Besser geht einfach nicht. Nein, es ist ein anderes Phänomen, welches nicht berücksichtigt wurde. Je besser die Effizienz wird, desto größer wird die Anwendungspalette, desto billiger der Einsatz, desto mehr von jedem Produkt gibt es. So hatten die Kraftwerke vor 100 Jahren einen Wirkungsgrad von weniger als 10 %, heute von 50 %. Damals gab es nur wenige Kraftwerke, heute sind es Zigtausende weltweit. Das erste Automobil von Carl Benz 1885 hatte 0,8 PS und erreichte 18 km/h. Das Benzin musste alle paar Kilometer aus der Apotheke beschafft werden. Heute haben unsere Karossen einen Verbrauch von 6-8 l/100km, bei ca. 100 PS und einer max. Geschwindigkeit von 150 bis 180 km/h. Es gibt derzeit weltweit um die 500 Mio von ihnen und es werden immer mehr. Das gleiche gilt für fast alle anderen Bereiche, ob es um den Einsatz von Elektromotoren,  Stoffeinsatz für Flugzeuge oder deren Verbrauch und, und, und, geht. (Mehr dazu findet man im grandiosen Buch von Indur Goklany „The Improving State of The World“. Es tritt also das Gegenteil von dem ein, was sich die Planer von der Effizienzoffensive erhoffen. Es wird nicht weniger verbraucht, sondern mehr. Damit ist das „Energiekonzept“ als das entlarvt, was es ist: Eine Mogelpackung, die das ökologische Paradies verspricht, aber in Wirklichkeit das Tor zur Armutshölle weit aufstößt.

Doch da­mit das al­les, was „Energiekonzept“ steht, nicht zu Protest- oder und an­de­ren  Ver­wei­ge­rungs­hal­tun­gen oder gar Auf­stän­den führt, wur­de be­schlos­sen sog. „Kli­ma­schutz­ge­set­ze“ ein­zu­füh­ren. In die­sen sol­len alle Maßnah­men ge­bün­delt und ge­re­gelt wer­den, die zur Durch­set­zung die­ser und an­de­rer weit­rei­chen­der Plä­ne be­nö­tigt wer­den.

All dies und noch vie­les mehr wür­de dann zur Ab­sen­kung der CO2-Er­zeu­gung um die ge­wün­schten 80 bis 95 % füh­ren. Die Minderung des prognostizierten Temperaturantieges bis 2050 würde nach der IPCC-For­mel  maximal 0,007 °C betragen, nach der phy­si­ka­lisch sau­be­re­ren THE The­se nur noch 0,0017 °C *. Ein winziger, nicht messbarer ­Bei­trag und zugleich unwirksamer Beitrag den Deutsch­land da leis­ten würde. Zugleich würde eine gan­ze Volks­wirt­schaft im Her­zen Eu­ro­pas zerstört. 

 

Abb. 5 Auszug aus dem Eckpunktepapier des BMU zum Energiekonzept

Schon Le­nin hat­te er­kannt wie man den Ka­pi­ta­lis­mus be­siegt: Zur Durch­set­zung des So­zi­a­lis­mus in ka­pi­ta­lis­ti­schen Län­dern be­darf es nur, de­ren Ener­gie­ver­sor­gung zu zer­stö­ren. Und auch auf deut­sche Ge­schäf­te­ma­cher wuß­te Le­nin kann man sich  auch ver­las­sen."Und wenn schließ­lich auch der vor­letz­te Ka­pi­ta­list noch auf­ge­hängt wer­den soll, dann lie­fert und ver­kauft – kei­ne Sor­ge – der letz­te da­für noch den Strick! "

Michael Limburg  unter Mitarbeit von Dr. D. Ufer beide EIKE

Ergänzend zu PSW in Norwegen:

Interview Vahrenholt und Weber in „Die Welt“ vom 24.09.2010:

Weber: Ich hätte nichts dagegen, schon heute entsprechende Kapazitäten in Norwegen oder der Schweiz zu akquirieren.

Vahrenholt: Warum sollten die das machen? Zuerst einmal denken diese Länder naturgemäß an sich selber. Und auch dort ist es keineswegs selbstverständlich, für die deutsche Stromversorgung ein Tal zu fluten.

Weber: Ich bin sicher, wenn wir einen attraktiven Preis anbieten, dann wir man sich schon einig werden.

Vahrenholt: Ich habe früher als Hamburger Umweltsenator mit den Norwegern dazu Verhandlungen geführt, denn diese Idee ist ja nicht neu. Der Neubau von Pumpspeicherwerken zur Sicherung der Versorgung in Deutschland war für die Norweger undenkbar. Nur wenn mal Kapazitäten ungenutzt sein sollten, hätten wir diese nutzen können. Das reicht aber nicht. Doch bleiben wir ruhig im eigenen Lande. RWE baut gerade mit EnBW ein Pumpspeicherkraftwerk im Südschwarzwald. Ich sage Ihnen, da kommt Gegenwind von der gesamten Politik, auch von den Grünen, die ja den Bau eines solchen Speichers eigentlich begrüßen müssten. Wir haben vor zwei Jahren angefangen, und wenn alles gut geht, wird dieses Pumpspeicherkraftwerk 2017 einsatzbereit sein. Zehn Jahre – um nur ein einziges Pumpspeicherkraftwerk zu bauen. Da frage ich mich, woher Sie Ihren Optimismus nehmen und einfach so sagen, das wird schon gut gehen. Nein, es wird nicht gut gehen, wenn wir nicht höllisch aufpassen.

 * siehe Berechnungsbeispiele im pdf Anhang: Klassenarbeit für die Obertertia

Ergänzende Links: Dr. Hans-Peter Krause:http://www.freiewelt.net/blog-2371/deutschlands-zentralverwaltungsstaatliches-energiekonzept.html

Fabian Heinzel: http://www.freiewelt.net/blog-2370/das-co2-und-der-soziale-kahlschlag.html


[1] (siehe Deutsche Physikalische Gesellschaft: „Elektrizität: Schlüssel zu einem nachhaltigen und klimaverträglichen Energiesystem“ Juni 2010). Für die Erzeugung einer Kliowattstunde Elektroenergie müsste dann 25 bis 50 Prozent mehr Kohle verbrannt werden – wahrlich kein Beitrag zum rationellen Umgang mit fossilen Energieträgern! Hinzu kommt der ebenfalls nicht zu umgehende Anlagen-Mehraufwand (€/kW), bei dem – ebenfalls nach Angaben der DPG – mit Erhöhungen um 50 bis 130 Prozent zu rechnen ist. Aus beiden ergibt sich eine Erhöhung der Stromerzeugungskosten auf bis zu 250 Prozent!

[2] Im Energiekonzept wird eine Steigerung der „Energieproduktivität“  um durchschnittlich 2,1 % pro Jahr zwischen 2008 und 2050 angestrebt. Bisherige Entwicklung: 1990-2000: 2,18 %/a [darin Eliminierung der energieintensiven und wenig energieeffizienten Industrien Ostdeutschlands], 2000-2008: „nur“ 1,42 %/a. Daraus folgt: 2,1 %/a ist eine sehr ehrgeizige Zielstellung, sie ist wahrscheinlich nur erreichbar in Verbindung mit der erneuten Eliminierung energieintensiver Industrien! – Aus der genannten Zielstellung für die Steigerung der Energieproduktivität von 2,1 %/a zwischen 2008 und 2050 sowie der angestrebten Senkung des Primärenergieverbrauchs um 50 % im gleichen Zeitraum ergibt sich ein dem Energiekonzept zugrund liegendes Wachstumstempo des BIP von 0,4 %/a zwischen 2008 und 2050! Damit wird ein Miniwachstum postuliertZum Vergleich: BIP-Wachstum 1990-2000: 1,84 %/a, 2000-2008: 1,23 %/a! ), aber selbst das ist bei der bewussten exxtremen Drosselung aller energetischer Aktivitäten unter die Rubrik „Wunschdenken“ einzuordnen.

 

Related Files




Die Renaissance der Kernenergie in der Welt!

Die zunehmende Aktivität bei den Neubauten zeigt sich an der zunehmenden Anzahl der in Bau befindlichen Kernkraftwerke: Das waren

Ende 2007                        29 KKW’s in Bau.

Ende 2008                         43 KKW’s in Bau

Ende 2009                         56 KKW’s in Bau

Weiterhin waren Ende 2009 80 KKW’s in konkreter Planung, 130 in beabsichtigter Planung.

Die Ende 2009 in Bau befindlichen Kernkraftwerke befinden sich in Finnland (1), Frankreich (1), Russland (10), Ukraine (2), Slowakei (2), Bulgarien (2), Iran (1), Pakistan (1), Argentinien (1), USA (1), Indien (5), China (20), Japan (1), Taiwan (2), Südkorea (6).

Europa

Frankreich: In Flamanville ist ein KKW (EPR) in Bau, ein zweiter Neubau ist in Planung.

Finnland: In Olkiluoto ist ein KKW in Bau (EPR von AREVA), 2 weitere KKW’s in Planung.

Schweden: Hatte 1980 den Ausstieg bis 2010 beschlossen. Barsebäck 1 + 2 (in der Nähe von Malmö + Kopenhagen) wurden stillgelegt (1999, 2005) aus Rücksichtnahme auf die dänischen Nachbarn, aber ausgeglichen durch Leistungserhöhungen der anderen KKW’s. Das Neubauverbot wurde von schwedischen Parlament aufgehoben, bis zu 10 neue KKW’s erlaubt das neue Gesetz.

Italien: Hatte nach Tschernobyl nach einer Volksabstimmung seine drei Kernkraftwerke still gelegt, dann jahrelang den Ersatzstrom aus französischen KKW’s bezogen. Jetzt wurde durch Parlamentsbeschluss mit überwältigender Mehrheit der Wiedereinstieg beschlossen. Es sollen 4 neue KKW’s gebaut werden und Italien will sich an Kernkraftwerken im Ausland beteiligen.

Tschechien: Die rechtlichen Hindernisse für zwei weitere Kraftwerksblöcke Temelin 3 + 4 wurden beseitigt, die Ausschreibung ist bereits erfolgt. Temelin versorgt schon jahrelang das Ausstiegsland Österreich mit KKW-Strom, das sind ca. 500kWh pro Bürger im Jahr (ca. 10% des gesamten österreichischen Strom oder ca. 30% des in den Haushalten verbrauchten Stroms). Eine österreichische Klage vor dem Europäischen Gerichtshof gegen Temelin ist gescheitert.

Polen: Hat bisher kein KKW, Neubauten von 4 Kraftwerksblöcken sind geplant. Verschiedene Regionen Polens bewerben sich als Standort, ein Standort bei Danzig wurde festgelegt. Zusammenarbeit mit Frankreich ist vereinbart.

Schweiz: In der Vergangenheit wurde in mehreren Volksabstimmungen von den Bürgern der Ausstieg aus der Kernkraft abgelehnt. Die Gründe waren: Unabhängigkeit bewahren, volkswirtschaftlichen Schaden abwenden, Kernenergie ist CO2-frei. Seit eine Stromlücke droht, werden die Bürger durch vielfältige Information systematisch auf die Notwendigkeit von Neubauten vorbereitet. Die Neubauten werden an den bestehenden Standorten geplant, dort große Zustimmung unter der Bevölkerung. Alle bestehenden KKW’s haben unbefristete Betriebsbewilligung.

Belgien: Die Regierung hat einen früheren Beschluss von 2002, der die Laufzeit der 3 älteren KKW’s auf 40 Jahre beschränkte, aufgehoben und deren Laufzeit um weitere 10 Jahre (auf insges. 50 Jahre) verlängert. Damit wurde das in Belgien bestehende Gesetz, das auch den Ausstieg bis 2025 festlegte, in wesentlichen Teilen außer Kraft gesetzt.

Niederlande: Ein Ausstiegsbeschluss wurde zurück genommen, die Laufzeit des bestehenden KKW’s wurde um 30 Jahre verlängert. Das Verfahren zum Neubau eines zweiten Blockes in Borssele läuft.

Spanien: Laufzeitverlängerung um 10 Jahre von einem Block, Leistungserhöhungen bei bestehenden KKW’s. Damit wurde dem grundsätzlichen Bekenntnis Spaniens zu einem Ausstieg (das aber nicht per Gesetz fixiert ist) durch tatsächliches Handeln widersprochen.

Großbritannien: 10 potenzielle Standorte genehmigt, 4 große Blöcke an 2 Standorten in Planung

Russland: Am 16.6.2010 begannen die Russen mit den Bauarbeiten am zwei großen Kernkraftwerksblöcken in Kaliningrad (1200MW), dem früheren Königsberg. 2016 bzw. 2018 sollen sie fertig sein und Strom für den Export produzieren (nach Deutschland?). Laufzeitverlängerungen bei bestehende KKW’s um 15 Jahre bis 2025 genehmigt. 10 KKW’s in Bau.

Ungarn: 2 weitere Blöcke sind in Paks in Planung.

Slowakei: Im Rahmen des EU-Beitritts musste ein (oder 2?) KKW stillgelegt werden, es werden in früherer Zeit begonnene – aber unterbrochene – Neubauten fortgeführt.

Bulgarien: 2 KKW’s sind in Betrieb, 2 KKW’s sind in Bau.

Slowenien: ein zweiter Block ist in Krsko in Planung.

Rumänien: Planung für 2 neue Kernkraftwerksblöcke angelaufen.

Weißrußland: Bisher ohne KKW, plant 2 Neubauten, Vertrag mit Russland geschlossen.

Armenien: Der Ersatz des bestehenden KKW’s durch eine neue größere Anlage beschlossen.

Naher Osten

Emirate: Die Emirate haben 4 KKW’s in Korea bestellt für 20 Mrd. US$.

Jordanien: Plant den Bau von 4 KKW’s zur Stromerzeugung und Meerwasserentsalzung, dazu sind weitreichende Verträge mit Russland geschlossen worden.

Türkei: Hat bisher kein KKW, Neubauten von 4 Kraftwerksblöcken sind geplant, es wurden Verträge mit Russland geschlossen.

Amerika

USA: Für 59 der 104 KKW’s wurde die Betriebserlaubnis auf 60 Jahre erweitert. Bei den Behörden sind 18 Neubauanträge (COL = kombinierte Bau- und Betriebsbewilligungen) eingegangen für insgesamt 28 Kraftwerksblöcke (5 davon sind inzwischen vorläufig zurückgestellt). Mit dem Bau eines neuen Werkes für Reaktor-Schwerkomponenten wurde begonnen. Unter der Bevölkerung besteht seit Jahren eine überwiegende Zustimmung zur Kernkraft, die je nach Fragestellung 60 bis 80% beträgt.

Kanada: Laufzeitverlängerungen zwischen 10 und 30 Jahren genehmigt. Regierung beauftragt Energieversorger zu Neubauten.

Brasilien: Genehmigung zur Fertigstellung von ANGRA 3 ist erteilt.

Argentinien: Hat ein neues Kernenergiegesetz mit großer Mehrheit verabschiedet, welches Neubauten und Laufzeitverlängerungen um 30 Jahre erlaubt.

Fernost

Hier liegt das Schwergewicht bei den Kernkraftwerksneubauten, denn wirtschaftlicher Aufschwung ist untrennbar mit zunehmendem Stromverbrauch verknüpft (Ungekehrt erfolgt abnehmender Stromverbrauch nur bei Zusammenbruch der Wirtschaft, wie in den Jahren nach der deutschen Einheit durch den Niedergang der Wirtschaft in den neuen Bundesländern zu sehen war).

Insbesondere zu erwähnen sind China (die meisten Neubauten), Südkorea (steigt ein in den Export von KKW’s), Indien (betreibt 4 große Forschungszentren und entwickelt Brüter und Hochtemperaturreaktor). Auch steigen Staaten ein, die bisher keine KKW’s betreiben, zu nennen ist Vietnam.

Und wie geht es weiter?

Mit der Kernkraft geht es auf der ganzen Welt voran. Nur Deutschland steht abseits, der Ausstiegsbeschluss von Rot-Grün wurde von Schwarz-Gelb nicht aufgehoben, sondern seine Durchführung nur aufgeschoben. Unsere Nachbarn mit gesetzmäßig festgelegtem Ausstiegsbeschluss Italien, Schweden, Belgien, Niederlande waren realistischer, sie haben ihre früheren Entscheidungen als falsch erkannt und rückgängig gemacht.

Nur Österreich und Dänemark, die keine Kernkraftwerke betreiben, halten weiterhin an ihren politischen Entscheidungen gegen die Kernenergie fest.

Laufzeitverlängerungen, Neubauten und Neubauplanungen gibt es rund um Deutschland bei den näheren Nachbarn: Schweden, Niederlande, Belgien, Frankreich, Schweiz, Slowenien, Tschechien, Slowakei, Polen, Rußland. Alle diese Nachbarn machen ihre Planungen sicherlich auch in Hinblick auf das Verhalten Deutschlands, denn der Verkauf von Strom an ein reiches Land verspricht ein langfristiges gutes Geschäft (solange der Käufer noch zahlungskräftig ist).

In Deutschland werden die Lichter so schnell nicht ausgehen, dazu trägt auch der Bau der Ostseepipeline bei. Wenn beide Röhren fertig sind, wird die Kapazität nahezu ausreichend sein zum Ersatz sämtlicher deutscher Kernkraftwerke. Rußland baut Kernkraftwerke im eigenen Land, damit es Erdgas für den Export spart und so Devisen einnehmen kann. Erdgas gilt als saubere Energiequelle, die Kraftwerke sind schnell und billig zu bauen. Es gibt keinen (organisierten) Widerstand gegen Neubau von Erdgaskraftwerken. So wurden in den letzten 8 Jahren 11 Gaskraftwerke bei uns fertig gestellt, 1 Kohlekraftwerk und ein Kohle/Gas Kombikraftwerk. Mit seinem Gaslieferungen und dem in Bau befindlichen Kernkraftwerk in Königsberg dehnt Russland in aller Stille seine Macht nach Westen aus.

Der „revolutionäre Schritt Deutschlands hin zum Zeitalter der Erneuerbaren Energien“ (O-Ton Merkel) erzeugt angesichts der Entwicklung auf der Welt Unbehagen beim deutschen Bürger. Die fossilen Energiequellen reichen einige Jahrhunderte, die Quellen der Kernspaltungsenergie Uran und Thorium jedoch sehr viele Jahrtausende. Die Erneuerbaren Energien reichen nach menschlichem Ermessen zwar unendlich lange, ohne andere Quellen und heutigen Wohlstand angenommen allerdings nur für ca. 5% unserer Bürger. Was machen wir dann mit den anderen 95%? Wer soll die Subventionen verdienen?

Die Sonnenstaaten im nahen Osten haben verstanden, was zu tun ist: nicht Solarstrom, sondern Kernkraftstrom ist die Zukunft. Wann wird man das in Deutschlands Führungsetage begreifen?

Dr. Lutz Niemann, Stand Sept. 2010

Lesen Sie dazu auch die interessante Analyse vonr. Dr. Günther Keil & Dr. J. Wahl: "Der Siegeszug der Kernkraft" als pdf Dateianlage

Related Files




Erklärung des Europäischen Instituts für Klima und Energie (EIKE) zur beabsichtigten Verabschiedung des Energiekonzeptes der Bunderregierung !

Erklärung des Europäischen Instituts für Klima und Energie (EIKE) zur beabsichtigten Verabschiedung des Energiekonzeptes der Bundesregierung

26.09.201

I Grundsätze des Energiekonzepts

 „Die Sicherstellung einer zuverlässigen, wirtschaftlichen und umweltverträglichen Energieversorgung ist eine der größten Herausforderungen des 21. Jahrhunderts“ wird im Energiekonzept (EK) festgestellt (EK, S.3). Diese Aussage steht im eklatanten Widerspruch zu den im Energiekonzept enthaltenen Vorschlägen zur Entwicklung der Energieversorgung in Deutschland. Dieser Widerspruch wird in der Erklärung von EIKE behandelt.

Zunächst wird auf den Sinn eines solchen Energiekonzepts eingegangen. Er wird von der Bundesregierung damit begründet, dass es einen Klimawandel gibt, den wir Menschen mit einer falschen Energiegewinnung und als Folge davon durch zu hohe CO2-Emissionen verursachen. Dieses CO2 soll eine ‚Erderwärmung’ bewirken, die unsere Existenz gefährdet. Um diese Gefahr abzuwenden, müssen wir unsere Energiegewinnung hin zu weniger CO2-Emissionen abändern.

II Klimawandel als Motor – Glaube statt Fakten

Das Konzept eines anthropogen verursachten Klimawandels wurde von Maurice Strong, dem Generalsekretär des ‚Erdgipfels’ in Rio de Janeiro, zusammen mit einigen Gleichgesinnten initiiert. Strong fühlt(e) sich dem richtigen Gedanken des Umweltschutzes verpflichtet. Da er und seine Mitstreiter aber offensichtlich weder geologische noch klimatologische Grundkenntnisse besaßen, wählten sie als Instrument für die notwendigen Bemühungen um unsere Umwelt den Begriff ,Klimawandel’ aus, weil er durch vom Menschen emittiertes CO2 angeblich die Erderwärmung verursacht. Um dieses CO2 zu reduzieren und damit den ‚Planeten vor dem Ruin zu retten’, sollten – so die Aussage von Strong – die Industrieländer kollabieren.

Selbstverständlich können – und müssen – wir unsere Einflüsse auf die Umwelt minimieren und wir müssen mit unseren Energieressourcen sparsam umgehen – nicht zuletzt der Kosten wegen. Die sich seit der Entstehung der Erde ständig ändernden Klimate – von polar bis tropisch – können wir jedoch nicht steuern oder gar ändern. Ständiger Klimawandel ist Normalität, und konstante Klimate sind unmöglich, so etwas gab es noch nie in der Erdgeschichte. Es kam daher, wie es nach aller paläoklimatologischen Erfahrung kommen musste: die zugrunde gelegte globale Erwärmung blieb aus. An den vom sog. Weltklimarat (IPCC) trotzdem angeordneten Klimawandel wurde mit Hilfe der Medien und der Politik jedoch zunehmend geglaubt, und inzwischen hat dieser Glaube quasi-religiöse Formen angenommen.

Am 28. September will die Bundesregierung ihr Energiekonzept verabschieden. Es basiert tatsächlich – und immer noch – auf der Annahme, dass es global wärmer wird und dass wir Menschen diese Erwärmung mit unseren CO2-Emissionen verursachen.

Inzwischen ist lange klar, dass die Fakten den Glauben widerlegen: Mit dem Ausklingen der Kleinen Eiszeit ab 1700 haben sich die Temperaturen global – von weiteren Abkühlungs- und Erwärmungsperioden unterbrochen – insgesamt wieder erholt. Sieht man sich Langzeit-Thermometerdaten verlässlicher Wetterstationen wie Hohenpeissenberg, Prag, Wien, München und Paris an, dann sieht man einen Temperaturabfall im 19. Jahrhundert, der von einem etwa gleichgroßen Anstieg im 20. Jahrhundert abgelöst wurde, alles absolut gewöhnliche und natur-normale 100-Jahres-Ereignisse. Da es im 20. Jahrhundert weltweit inzwischen ausreichend viele Messstationen gab, wurde deutlich, dass der Anstieg in diesem Jahrhundert nur für die Nordhemisphäre, nicht aber für den Süden der Erde zutraf, der sich in großen Teilen sogar abgekühlt hat. Letzteres wäre im Falle einer CO2-induzierten globalen Erwärmung nicht möglich gewesen. Globalweit ist im 20. Jahrhundert im Gegensatz zur ,konventionellen Weisheit’ keine Erwärmung nachweisbar, wie es sogar der medienbekannte Klimaforscher Prof. Schellnhuber vom Potsdamer Institut für Klimafolgenforschung (PIK) fachlich unmissverständlich, aber in bemerkenswertem Gegensatz zu seinen medialen Klimaktastrophen-Verlautbarungen bestätigt [1].

Eine Rückerwärmung nach der Kleinen Eiszeit ist insgesamt alles, was vorgefallen ist. Darüber sollten wir uns freuen, denn die Lebensumstände waren bis ins 19. Jahrhundert hinein eher durch Hunger geprägt als durch Überfluss. Das alles beweisen die Fakten. Sie beweisen auch, dass CO2 die rezente Erwärmung nicht verursacht haben kann. Bis heute ist kein ,anthropogener Fußabdruck’ in Klimavorgängen auffindbar, weder in Extremwetterereignissen, wie Tornados, Starkniederschlägen, Dürren usw. noch in ungewöhnlichen Meeresspiegelanstiegen. Dies bestätigt nicht nur die gesamte meteorologische Fachliteratur sondern sogar das IPCC selber im umfangreichen Abschnitt 2.7 seines wissenschaftlichen Berichts von 2001, in dem  einer vermuteten Zunahme von Extremwetterereignissen nachgegangen wird.

Ein maßgebender Zusammenhang von zunehmenden anthropogenen CO2 und Globaltemperaturen sowie Auswirkungen auf Klimaparameter konnte bis heute auch physikalisch nicht nachgewiesen werden. CO2 ist nach dem Wasserdampf das zweitstärkste Treibhausgas, und nach heutigem Stand der Atmosphärenphysik erzeugt eine theoretische Verdoppelung der atmosphärischen CO2-Konzentration eine globale Temperaturzunahme von etwa 1 °C – man spricht von „Klimasensitivität des CO2. Dieser Wert ist unbedenklich, denn zur CO2-Verdoppelung müsste die Menschheit schon alle fossilen Brennstoffe verfeuern, deren sie habhaft werden kann, und davon ist nicht auszugehen. Die von ökoideologisch interessierten Kreisen kolportierten 2 °C (oder sogar noch mehr) sind dagegen Fiktion, diesen Wert gibt es in der Fachliteratur nicht. Im Gegenteil, selbst der vorgenannte Konsens von 1 °C ist ein noch zu hoher Wert, wie es die jüngeren Facharbeiten von international hoch-renommierten US-Klimaforschergruppen nachweisen [2], [3], [4]. Diese Facharbeiten sind bis heute unwiderlegt geblieben, was nicht verwundert, denn sie beruhen auf Messungen – im Gegensatz zu den Verlautbarungen der Klima-Warner, die sich nur auf fiktive Klima-Computer-Modelle berufen können.

In diesem Zusammenhang ist auf den deutlichen Unterschied zwischen den wissenschaftlichen Berichten des IPCC und seinen Berichten für Politiker zu erinnern. Die Inhalte der Berichte für Politiker werden zuvor mit den betroffenen Regierungen abgesprochen, so dass der Begriff ,seriös’ oder gar ,wissenschaftlich’ hier nicht am Platz ist.  Ferner sind zunehmende Manipulationen von Daten auch in dem wissenschaftlichen IPCC-Bericht vom Jahre 2007 zu nennen. Die politisch gezielten Prognosen des IPCC beruhen daher jetzt auf Daten, die zu einem erheblichen Teil manipuliert wurden. Wenige Wochen vor dem Klimagipfel in Kopenhagen wurde das bekannt. Die New York Times verlieh infolgedessen diesem Wissenschaftsskandal unverzüglich das Prädikat ,ClimateGate’.

In Deutschland wurde das 2 °C – Ziel von der Fachwelt als „unsinnig“ erklärt, u. a. von den Präsidenten des Geoforschungszentrums Potsdam, des Alfred-Wegener-Instituts in Bremerhaven und des  Senckenberg-Museums Frankfurt/Main als eines unserer größten und wichtigsten Naturkundemuseen. Trotz ClimateGate und trotz Unsinnigkeit ist das 2°C – Ziel unverändert die Grundlage des regierungsamtlichen Energiekonzeptes, das so beschlossen werden soll – mit unübersehbaren Kosten für die deutschen Verbraucher und die deutsche Wirtschaft.

Das Energiekonzept der Bundesregierung beruht daher auf Prognosen, für die es keine belastungsfähigen Beweise gibt und die man deshalb glauben muss. Die Prognosen haben sich schon jetzt weitgehend als falsch erwiesen, so dass ein solcher Glaube kein Vertrauen verdient. Dieser Zweifel wird durch die Erfahrung verstärkt, dass es immer schon Advokaten-Wissenschaftler gegeben hat, die ihrem Dienstherrn, seinem Projekt und dem eigenen Nutzen mehr gedient haben als der Wahrheit.

In diesem Zusammenhang muss schlussendlich nachdrücklich auf das von den Medien hartnäckig kolportierte Missverständnis aufmerksam gemacht werden, dass die politische IPCC-Meinung der mehrheitlichen Auffassung aller Klimaexperten weltweit entspräche. Das genaue Gegenteil ist der Fall! Unzählige Manifeste und Petitionen von Klimaforschern und fachnahen Naturwissenschaftlern (Heidelberg, Leipzig, Oregon (USA), Kanada, US-Senat usw.) sind zwar im Internet incl. den Namen der inzwischen zu Zehntausenden zählenden Unterzeichner (Fachwissenschaftler!) einsehbar, werden aber von Medien und Politik konsequent ausgeblendet. Meinungsmehrheit ist zwar niemals ein endgültiges Urteil über die Richtigkeit einer physikalischen Hypothese, aber die politischen Entscheidungsträger sollten zur Kenntnis nehmen, dass die am IPCC-Prozess beteiligten Wissenschaftler gegenüber ihren Fachkollegen als sog. ,Klimaskeptikern’ eine Minderheit darstellen, die nur mit UN- und medialer Unterstützung als angebliche Mehrheit ,verkauft’ werden kann. 

Wir haben den Artikel 17 des Deutschen Grundgesetzes (wer kennt ihn eigentlich?) ernst genommen und uns mit unseren Bedenken an die Regierenden gewandt. Die Fakten wurden dem Bundeskanzleramt und den relevanten Ministerien mehrfach mit der Bitte zugesandt, uns eine faire und objektive Diskussion mit den Befürwortern eines anthropogen Klimawandels zu ermöglichen, denn wann immer diese zusammen mit uns eingeladen wurden, haben sie eine Beteiligung vermieden. Weder das Bundeskanzleramt selbst noch die Ministerien haben die Möglichkeit zu einer Diskussion gegeben. Ein Offener Brief an die Bundeskanzlerin, in dem eine entsprechende Bitte vorgetragen wurde und den inzwischen über 400 qualifizierte Bürger unterschrieben haben, von denen 90 Personen mit relevanten  Berufen zum Wissenschaftsbereich gehören, wurde bis heute nicht beantwortet. Dafür können unzählige Menschen in mehreren Ländern den Brief in ihren Muttersprachen lesen. Die vom Bürger geforderte aktive Mitarbeit im Staat ist wohl doch nicht ernst gemeint, und über ein demokratisches und transparentes Regierungshandeln gibt es offensichtlich unterschiedliche Vorstellungen. Auf die Eingaben hin beschränkten sich die Antworten auf den stereotypen, lapidaren Hinweis, dass sich die amtliche Klimapolitik ausschließlich am 2 °C – Ziel orientiert. In den Veranstaltungen der Öffentlich-Rechtlichen Fernsehanstalten konnten die gegensätzlichen Ausfassungen ebenfalls nicht vorgebracht oder geklärt werden, denn von Beckmann über Illner bis Will wurden fast ausschließlich Befürworter der Hypothese von einer gefährlichen globalen Erwärmung eingeladen.

Wer Entscheidungen zu treffen hat, prüft Alternativen; schon bei kleinen Anschaffungen ist das üblich. Bei wesentlichen Entscheidungen über die zukünftige Klimapolitik und die Energieversorgung sollte es zwingend sein, die Grundlagen sorgfältig zu prüfen. Das ist nicht geschehen, sondern wurde von amtlicher Seite verweigert. Daher besteht nun die Gefahr, dass ein Energiekonzept verabschiedet wird, welches irrational auf Glauben basiert und jene Fakten unberücksichtigt lässt, die die Dogmen dieses Glaubens an einen vom Menschen verursachten Klimawandel widerlegen. Zu Beginn des 21. Jahrhunderts und mitten in einer von Wissenschaft und Technik geprägten realen Welt wird damit ein Regierungshandeln praktiziert, das methodisch noch dem Mittelalter angehört.

III Bedingungen der Stromgewinnung

Politiker von ‚Bündnis 90 Die Grünen’ haben schon das Goldene Zeitalter der unbegrenzten Energieversorgung vorausgesagt  (O-Ton Eveline Lemke, Landes­vorstandssprecherin der Grünen in Rheinland-Pfalz): „Mit den ‚Er­neuerbaren’ haben wir den Strom dann praktisch umsonst“.

Leider haben auch bei der Stromgewinnung die Götter vor den Erfolg den Schweiß gesetzt, und deshalb ist zunächst die Feststellung erforderlich, dass es nach dem Gesetz von der Erhaltung der Energie tatsächlich keine erneuerbare oder regenerative Energie gibt. Unser Hauptenergielieferant ist die Sonne, und wenn wir sie nutzen wollen, müssen wir ihre Energie umwandeln – egal, ob sie in der geologischen Vergangenheit auf der Erde als Gas, Öl oder Kohle gespeichert wurde, oder ob sie täglich frisch eintrifft. Die Umwandlung erfordert technische Prozesse, und dafür sind Installationen und folglich Investitionen erforderlich. Der Aufwand für die Installation je Kilowatt Leistung ist leider um ein Vielfaches größer, wenn ,frische’ Sonnenenergie (oder Windenergie) in Strom umgewandelt werden soll, als dies bei fossilen Energieträgern oder gar der Kernenergie der Fall ist. Bei der Erzeugung von elektrischem Strom als physikalisch-technischem Prozess gelten keine Glaubensinhalte sondern feststehende Bedingungen: Ergiebigkeit, Verfügbarkeit und Wirtschaftlichkeit. Wie man am günstigsten den Strom produziert, das Lebensblut der Wirtschaft und die Existenzbedingung für immer mehr Menschen, ist folglich keine Glaubenssache sondern eine technische Rechenaufgabe.

Die Ergiebigkeit der Erneuerbaren Energien wird durch deren Energiedichte bestimmt. Dies bedeutet für die Praxis, dass die – verglichen mit Gas, Kohle, Kernkraft – viel zu geringe Energiedichte von Wind und Sonneneinstrahlung den Aufwand  bei der Stromerzeugung mit Windrädern oder Photovoltaik wirtschaftlich unbrauchbar macht. So entspricht die Leistung eines Kernkraftwerks vielen 100 km Windrädern im deutschen Binnengebiet hintereinander. Aber selbst das gilt noch nicht einmal in Gänze, weil das Leistungsangebot von Windrädern unstetig  erfolgt und daher für den praktischen Bedarf von Industrie und Verbrauchern weitgehend wertlos ist. Die Verfügbarkeit der Erneuerbaren ist begrenzt: Wind oder Photovoltaik erzeugen bei Windstille und Dunkelheit keinen Strom, weshalb eine mindestens 100-fach größere Speicherkapazität benötigt wird als wir sie gegenwärtig für den Betrieb der konventionellen Kraftwerke brauchen und installiert haben.

Diese unabdingbaren Faktoren sind weltweit bestens bekannt, und deshalb plant und baut man – bzw. behält man – in den anderen Ländern Wasserkraft-, Kohle- und Kernkraftwerke. Die sehr viel teurere Stromerzeugung aus den Erneuerbaren Energien ist erst dann als weltweiter Standard denkbar, wenn alle fossilen Brennstoffe und Kernbrennstoffe verbraucht sein werden. Mit Uran- und Thorium-Vorräten für viele tausend Jahre ist davon allerdings nicht auszugehen, wobei hinzukommt, dass der Kernbrennstoff Uran sogar im Meerwasser enthalten ist und (z.Zt. noch mit etwa 5 – 10 fach höheren Kosten als aus Minen) herausfiltert werden kann.

IV Die Widersprüche des Energiekonzeptes

„Zuverlässig, wirtschaftlich und umweltverträglich“ soll die Energieversorgung sein. Dass sie physikalisch-technischen Bedingungen unterliegt, die die Stromgewinnung bestimmen, wird im Energiekonzept leider nicht erwähnt, ist aber der entscheidende Punkt.

Zuverlässigkeit

Die Zuverlässigkeit der Versorgung ist erheblich eingeschränkt, weil

  • Die durch den wachsenden Anteil an Wind- und Solarstrom benötigte Speicherkapazi­tät nicht vorhanden ist und (s. unter V) auch praktisch niemals verfügbar sein kann;

  • Der Bedarf von Importstrom völlig ungeklärt ist, denn es fehlt die Abstimmung

1)  mit den Herkunftsländern und

2)  mit anderen Ländern, die ebenfalls Strom importieren müssen;

  • Der Import von „nachhaltigen Bioenergieträgern“ (EK, S.11) ebenso ungeklärt ist, denn:

1)    es fehlt ebenfalls die Abstimmung mit den Herkunfts- und potentiellen Konkurrenz­ländern;

2)    es ist mindestens zweifelhaft, ob der transozeanische Transport von nachhaltigen Bio­energieträgern nicht mehr Energie erfordert als ihre Verstromung einbringt; schließlich und grundsätzlich sollte aber ….

3)    …. die Stromgewinnung aus nachhaltigen  Bioenergieträgern verboten werden, weil

a)  landwirtschaftliche Produkte und die dafür benötigten Ackerflächen für die Er­nährung der zunehmendem Weltbevölkerung dringend benötigt werden, und

b) forstwirtschaftliche Produkte in den Herkunftsländern die Waldrodung verstär­ken; bei der Formulierung des Energiekonzeptes wusste man offenbar nichts von Hungerrevolten beispielsweise in Chiapas/Mexiko, die Menschenmassen gegen die Entscheidung US-amerikanischer Farmer demonstrieren ließ, ihren Mais nicht mehr ihnen für die Herstellung von Tortillas zu verkaufen, sondern wegen des größeren Gewinns daraus Biosprit herstellen zu lassen.

Wirtschaftlichkeit

Die Wirtschaftlichkeit der Erneuerbaren ist deutlich kleiner, denn wegen der geringeren Ergiebigkeit und der zeitlich begrenzten Verfügbarkeit ist die Stromerzeugung aus Wind oder Photovoltaik unabänderlich teurer. Das ist bekannt, denn nach dem EEG werden diese Gewinnungsarten mit sehr vielen Milliarden von den Verbrauchern zwangsweise subventioniert. Die bisher noch ungelöste Problematik der Stromspeicherung wird den Strom aus erneuerbaren Energien zusätzlich mit sehr großen Kosten belasten – vorausgesetzt, es ließe sich überhaupt eine technische Lösung erdenken und in die Praxis umsetzen.  

Wir leben vom Verkauf unserer Produkte auf dem Weltmarkt, und das gelingt nur, solange sie nicht wesentlich teurer sind als die unserer Konkurrenten. Wenn der Strom bis 2050 bei uns tatsächlich nur noch aus den Erneuerbaren Energien produziert werden soll, werden wir für den Weltmarkt bedeutungslos. Was das für unsere Arbeitsplätze und für unseren Lebensstandard bedeutet, sollte jedem Entscheidungsträger klar sein. 

Umweltverträglichkeit

Das Landschaftsbild Deutschlands hat sich in den letzten Jahrzehnten durch die Einrichtung der Windparks drastisch verändert, der dadurch benötige Landschaftsverbrauch und die Landschaftsschädigungen waren enorm, und sie werden weiter steigen. Die zusätzlich erforderlichen elektrischen Leitungsnetze, die für die Nutzung der Erneuerbaren Energien erforderlich sind, werden das Landschaftsbild weiter beeinträchtigen und den Landschaftsverbrauch vergrößern.

Die Wahrscheinlichkeit von Tankerhavarien mit unabsehbaren ökologischen Schäden in der dichtbefahrenen Nord- und Ostsee nimmt durch den geplanten massenhaften Bau von Offshore-Windenergieanlagen zu. Die vermutlich sehr schädlichen Auswirkungen von Offshore-Windparks auf die Vogelwelt und auf Meerestiere, z. B. Schweinswale, sind noch völlig unbekannt.

Das Energiekonzept sieht vor, die Stromgewinnung aus Biomasse erheblich zu verstärken. Das impliziert noch größere Monokulturen bei uns, Importe von Biomasse aus Übersee mit der Folge von weiteren Waldrodungen. Weder bei uns noch in den Exportländern dürfte sich das als umweltverträglich herausstellen. Außerdem muss man fragen, in welchem Umfang es bei weiterem Bevölkerungswachstum und dementsprechenden Mehrbedarf an Nahrungsmittel vertretbar ist, Agrarflächen für die Herstellung von Energierohstoffen zu benutzen. Im Sinne eines angeblich ökologisch determinierten Energiekonzeptes kann es dies nicht sein.

Stromspeicherung – ein ungelöstes Problem

Das schon angedeutete, aber im Detail noch zu erläuternde Problem ist die zwingend erforderliche, aber großtechnisch noch völlig ungelöste Speicherfrage von elektrischer Energie. Dieses Problem entsteht unvermeidbar, weil auch bei Ausfall der Erneuerbaren infolge von Windflaute bzw. Bewölkung dennoch die Stromversorgung unseres Landes aufrechterhalten bleiben muss. Die Speicherfrage ist weder in Deutschland noch irgendwo in Europa gelöst. In Anbetracht der Dimension des Problems muss sie sogar als unlösbar bewertet werden.

Pumpspeicherwerke (PSW) sind die einzig bekannte Einrichtung, um die zwingend erforderliche Frequenz- und Spannungskonstanz zu gewährleisten. Pumpspeicherkraftwerke sind technisch sehr aufwendig, ihr Bau erfordert bestimmte topographischen Gegebenheiten, nämlich Gebirge, die einerseits viele hundert Meter tiefe Täler, andererseits aber auch ausgedehnte Hochflächen zum Bau der Oberbecken aufweisen müssen. Das größte deutsche Pumpspeicherwerk ist Goldisthal in Thüringen. Mit einem anfangs gefüllten Oberbecken kann es 8 Stunden lang 1000 Megawatt liefern, dann ist es leer. Seine Planungs- und Bauzeit betrug 30 Jahre, die reine Bauzeit 11 Jahre; die Kosten beliefen sich auf 0,6 Milliarden €.

Gegenwärtig verfügt Deutschland in allen seinen PSW über eine installierte Leistung von ca. 6400 Megawatt (MW). Große PSW haben eine installierte Leistung von ca. 1000 MW. Keiner kann heute genau sagen, welche Leistung zusätzlich installiert werden muss, um den Bedarf zu decken, wenn der Strom vollständig aus Erneuerbaren Energien kommt, denn das hängt davon ab, wieviel Tage Windflaute und Sonnenbedeckung man riskieren will, ohne dass die deutsche Stromversorgung kollabiert. Nimmt man vernünftigerweise 20 Tage an, werden 140 mal mehr Leistung an PSW erforderlich als heute vorhanden sind. In Konsequenz des Energiekonzepts der Bundesregierung sind daher rund 700 neue PSW der Größe von Goldisthal in Thüringen zu bauen, was dem Begriff des Wahnsinns gleichgesetzt werden kann. Der Bau neuer Speicherbecken ist in Deutschland gar nicht möglich, weil schon die topographischen Voraussetzungen dazu fehlen. Von den astronomisch hohen Kosten braucht man dann nicht zu sprechen. Es ist nicht zu erwarten, dass Österreich, die Schweiz oder Norwegen bereit sind, für deutsche Windenergieanlagen ihre Hochgebirgstäler als Pumpspeicher-Becken zur Verfügung zu stellen. Andere Möglichkeiten der Stromspeicherung im erforderlichen Maßstab gibt es nicht.

VI Kosten 

Alle für die künftige Energieversorgung vorgeschlagenen Technologien – erneuerbare Energien, CCS, Energiespeicher, Fernleitungen – erfordern ernorme Investitionen, die nur aufgebracht werden können, wenn entweder Neuverschuldungen des Staates für Fördermaßnahmen vorgenommen werden oder Abstriche bei sonstigen Ausgaben (Infrastruktur, Bildung, Wissenschaft, Kultur, Entwicklungshilfe etc.) gemacht werden. Zu starken Kostenerhöhungen wird auch die weitere Ausdehnung des Handels mit Kohlendioxid-Emissionsrechten führen, ohne dass dadurch weltweit die Summe der CO2-Emissionen verringert wird. 

Investitionskosten für Wind- und Solarenergie-Anlagen sind pro elektrische Leistungseinheit deutlich höher als für konventionelle Kraftwerke. Hinzu kommt die naturbedingt geringere Ausnutzung der installierten Leistungen, was insgesamt zu weiter ansteigenden  Erzeugungskosten gegenüber konventionellen und nuklearen Kraftwerken führt. Die folgenden Zahlen belegen es: moderne Braunkohlenkraftwerke oder Kernkraftwerke liefern Strom für ca. 3 Ct/kWh, Wind für ca. 8 – 15 Ct/kWh und Photovoltaik für ca. 40 Ct/kWh. Es ist unverständlich, dass die einzige unsubventioniert nutzbare Primärenergiequelle Deutschlands, die Braunkohle, im Energiekonzept der Bundesrepublik nicht erwähnt wird.

Die vorgeschlagene Abtrennung und anschließende unterirdische Deponierung von CO2 bewirkt infolge der dadurch bedingten massiven Reduzierung im Wirkungsgrad der Kraftwerke einen entsprechenden Mehrverbrauch an Kohle. Nach Angaben der Deutschen Physikalischen Gesellschaft ist mit um 50 bis 130 Prozent erhöhten Anlagekosten gegenüber herkömmlichen Kraftwerken zu rechnen [5]. Hinzu kommen bei der CCS-Technik die potentiellen Gefahren aus den CO2-Einlagerungen. Es ist hochriskant, in unseren dichtbesiedelten Gegenden unterirdische CO2-Speicher anzulegen, die für immer dicht bleiben müssen: anders als bei radioaktiven Stoffen nehmen die vom eingepressten CO2 ausgehenden Gefahren nicht mit der Zeit ab.

Das von den Verfechtern der Erneuerbaren immer wieder ins Feld geführte Argument von neuen Arbeitsplätzen in den einschlägigen Industrien von Windrädern und Photozellen geht fehl. Diese Arbeitsplätze gehen auf der anderen Seite vermehrt durch Kaufkraftverlust infolge immer weiter steigender Strompreise verloren. Die im Energiekonzept für erforderlich gehaltene Erhöhung der Energiepreise führt daher insgesamt zum Verlust von Arbeitsplätzen.   

VII Anteil Deutschlands

Die im Energiekonzept beabsichtigten Maßnahmen sind größtenteils nicht erforderlich, wenn man auf der Grundlage gesicherter Fakten entscheidet. Wenn man jedoch bei der gegenwärtigen Entscheidungsgrundlage bleibt, und Maßnahmen durchführen will, weil man an unsere Urheberschaft einer gefährlichen globalweiten Erwärmung glaubt, sollte man sich vorher darüber im klaren sein, wie groß die Wirkung unseres Anteiles überhaupt sein kann, den wir mit unseren Maßnahmen erreichen können – und die unvorstellbar große Kosten erfordern. Es wurde bereits vielfach nachgewiesen, dass er praktisch bedeutungslos ist. Wenn Deutschland seinen Verpflichtungen gemäß EU-Beschluss zur Verringerung von CO2-Emissionen nachkommt, wird sich dies gemäß einer noch nicht einmal in der unterstellten Höhe nachgewiesenen Wirkung des CO2 um 0,0007 °C auf die Globaltemperatur bis zum Jahre 2020 auswirken. Das von den meisten Ländern der Erde in sachgemäßer Beurteilung der Fakten nicht ernst genommene Kyoto-Protokoll würde – ebenfalls die vermutlich viel zu hohe Einschätzungen des IPCC vorausgesetzt  – der Welt bis zum Jahre 2100 etwa 0,1 °C globaler Erwärmung ersparen.

Dieser Zusammenhang ist so gut wie allen Fachleuten bekannt, die die Regierungen dieser Welt beraten, weshalb weiterhin Kohle- und Kernkraftwerke gebaut werden. Dagegen beschreitet Deutschland, wie schon mehrfach in seiner Geschichte, einen verhängnisvollen Sonderweg, den kein anderes Volk in dieser Konsequenz mitgehen will – und wird. In Erinnerung an die Folgen unserer Sonderwege und in Anbetracht der wirtschaftlichen Folgen dieses Konzeptes muss man fragen: Darf man dem deutschen Volk derartige Lasten aufbürden, die nur auf ideologischen Dogmen beruhen? Und wie verträgt sich ein solches Regierungshandeln mit dem vor dem Bundestag per Eid geleisteten Gelöbnis, dem Wohl des Deutschen Volkes zu dienen, seinen Nutzen zu mehren und Schaden abzuwenden?

Prof. Dr. Friedrich-Karl Ewert, Dipl.-Geologe, EIKE

Prof. Dr. Horst-Joachim Lüdecke, Dipl.-Physiker, EIKE (Pressesprecher)

Dr.rer.oec, Ing. Dietmar Ufer, EIKE

Quellennachweise

[1] J.F. Eichner, E. Koscielny-Bunde, A. Bunde, and H.-J. Schellnhuber, Power-law persistence and trends in the atmosphere: A detailed study of long temperature records, Phys. Rev. E 68, 046133 (2003)

[2]  Lindzen, R., Y.-S. Choi, On the determination of climate feedbacks from ERBE data, Geophys. Res. Lett., 36, L16705, doi: 10.1029GL039628 (200), s. s Lindzen_1.pdf

[3]  Lindzen, R., Y.-S. Choi, On the observational determination of climate sensitivity and its implications, submitted to Journ. of Geophys. Research, Feb. 12 (2010), s. Lindzen_2.pdf

[4]  Paltridge, G., Arking, A., and Pook, M., Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data, Theor. Appl. Climatol., 98:351-359, DOI 10.1007/s00704-009-0117 (2009), s. Platridge.pdf

[5] Deutsche Physikalische Gesellschaft: „Elektrizität: Schlüssel zu einem nachhaltigen und klimaverträglichen Energiesystem“ Juni 2010

 Weiterführende Links:

Falsche Prioritäten: Das Energiekonzept der Bundesregierung!

Das schwarz-gelbe Energiekonzept: Kernenergie als Brücke ins Nichts!

Nachtrag: Am Wochenende hat der BDEW eine neue Plattform freigeschaltet (Motto "Energie ist nicht schwarz-weiß"), auf der das Thema breit diskutiert werden soll. 

Bitte diskutieren Sie auch dort mit: www.energiedebatte.com  

 

Related Files




DWD widerspricht sich:Extremwetter nehmen zu! und: Extremwetter nehmen nicht zu! Ist der deutsche Wetterdienst (DWD) wetterwendisch wie das Wetter?

Doch Professor Adrian, ebenfalls Teilnehmer der Runde, und neuer Präsident des Deutschen Wetterdienstes (DWD), will die Kurve hin zur Klima-Katastrophe noch rasch kriegen und meint:

.“… Zudem sei die Durchschnittstemperatur in Deutschland von 1881 bis 2009 um 1,1 Grad Celsius angestiegen. Sie könne sich am Ende dieses Jahrhunderts nochmals um zwei bis vier Grad erhöhen.“… und dann weiter: "Wir werden es künftig mit ganz anderen Extremen zu tun haben, das ist die Bedrohung."

Was will uns Adrian damit sagen? Dass es in Deutschland etwas wärmer geworden ist? Damit wird er wohl Recht haben, denn bis 1850 war es über etwa drei Jahrhunderte lang (vgl. Abbildung 1 und Anhang aus Johann Peter Hebbels Wetterchronik um 1800) ziemlich kalt  –  mehr oder weniger. Etwa um 1850 ging nämlich die unangenehme(!) kleine Eiszeit zu Ende: Mit Hunger, Not und Elend. Ein europa- wie weltweit gut dokumentierter Prozess. (Siehe auch Städteauswahl im nebenstehenden Bild) Aber wie kommt Adrian auf seine Prognose von zwei bis vier Grad? Oder ganz anderen Extremen als Bedrohung? Aus den Daten? Aus deren Trend? Oder aus Modellen?

Adrian drückt sich ja sehr, sehr vorsichtig aus, sicherheitshalber immer schön im Konjunktiv : Es könnte… es könnte aber auch nicht … und die Spannbreite seiner Prognose ist riesig, Zitate hier :

(Die Temperatur) …. könnte am Ende dieses Jahrhunderts nochmals um 2 bis 4 °C höher liegen als heute. Die steigenden Temperaturen bringen voraussichtlich mehr und stärkere Hitzeperioden…. Bis zur Mitte des Jahrhunderts rechnen wir zum Beispiel mit einer Zunahme von etwa 15 bis 27 zusätzlichen Sommertagen pro Jahr 

Was zeigen die Beobachtungen?

Die untere Abbildung 1 zeigt die langjährige Berliner Temperaturentwicklung, dargestellt als „Dahlemer Reihe“. Sie zeigt alle Messwerte von 1701 bis 2008. Dieser Zeitraum umfasst zehn Klimaperioden denn eine Klimaperiode umfasst 30 Jahre. Die Dahlemer Reihe enthält also in 310 Jahren zehn Klimaperioden. Die Reihe des Herrn Adrian gerade mal drei. Was zeigt die langjährige Klimaentwicklung besser? Die mit drei Klimaperioden oder die mit zehn?

Schaut man sich die Reihe genauer an, so  erkennt man sofort den Tiefpunkt um 1855 und den darauf folgenden um 1892, also just zu der Zeit, von dem Adrian seine  "anthropogene" Erwärmung startet.

Abbildung 1: Anomalien der Dahlemer Reihe bezogen auf die WMO Klimareferenz von 1961-1990.

Man erkennt auch, dass derzeit in Berlin eine Temperatur herrscht, (symptomatisch für Deutschland; folgt man den Regeln des Goddard Institute for Space Sciences GSS, -mit der CRU,  das maßgebliche Klimainstitut des IPCC- ) wie am Ende des 18. Jahrhunderts. Ganz ohne CO2-Korrelation, wie Abbildung 2 zeigt.

Abbildung 2: CO2 Konzentration und Temperaturanomalie der Berlin Dahlem

Mal fiel die Temperatur, mal stieg sie. Wie immer. Über 300 Jahre!

Noch deutlicher: Der lineare Trend der Dahlemer Reihe zeigt über die 300 Jahre hinweg nur einen Anstieg von 0,08°C/Jahrhundert. Die absolute Temperatur stieg in diesen 300 Jahren von ca. 8,75°C auf  9°C. Das ist statistisch völlig irrelevant.

Nur wenn man – wie Adrian- vom deutlich sichtbaren Kältetief um 1892 ausgeht, beträgt der Anstieg auf das heutige Niveau etwa 1 °C. Haben wir nun damit einen Hinweis auf den Treibhauseffekt? Oder nur auf einen eigenen DWD-Treibhauseffekt? Vielleicht misst man beim DWD hauptsächlich den städtischen Wärmeinseleffekt mit?

Das alles weiß auch Herr Professor Adrian. Die Daten stammen aus seinem Haus. Daher stellt sich die dringende Frage nach seinen Motiven. Was  also ist das für ein Wissenschaftler der elementare Erkenntnisse und  Zusammenhänge einfach verschweigt? Ist er wirklich noch Wissenschaftler oder mehr Polit-Agitator? Wir können es nur vermuten, eines ist aber sicher, wissenschaftlich sind seine Prognosen nicht.

Hingegen kann man als gesichert festhalten:

 Abbildung 3: Temperaturentwicklung der letzten 2000 Jahre 

(1) Vor 1850 ist es auf der Nordhalbkugel über etwa drei Jahrhunderte während der “kleinen Eiszeit“ mehr oder weniger kälter gewesen, mit mehreren Minima, einem markanten Minimum aber eben um 1850 !

(2) Seit 1850 ist es trendmäßig – mit kurzen Kälteperioden zwischendurch- wärmer geworden, seit 1998 nicht mehr.

(3) Der Grund für die Erwärmung ist ungeklärt, die CO2-Hypothese reicht dafür nicht aus

(4) Die globale Erwärmung des 20. Jahrhunderts hat ihr "Zentrum" (abgesehen von der Arktis) ausgerechnet in Deutschland  (ca. + 1 ° im 20. Jh., ansonsten +0.6 – +0.7 ° "global"). Bisher ist keine schlüssige Antwort bekannt geworden auf die Frage, warum ausgerechnet in Deutschland  die Erwärmung mit +1 ° erheblich über fast allen anderen Regionen der Erde liegt ! Ohnehin: Eine globalen Temperaturtrend zu definieren , ist wissenschaftlich schon problematisch genug, wenn nicht sogar grundsätzlich falsch, vgl. d a z u  insbes. Puls.Lp.Nr. 21 – Abb. 2+3+4(!) "Viel Wind um Nichts" ).

(5)

(a) Der DWD sagte noch vor kurzem klipp und klar:: "Bei extremen Wetterereignissen sind in Deutschland hingegen bisher keine signifikanten Trends zu beobachten gewesen. Auch solche Ereignisse wie die Hochwassersituation 2002 gehören zum normalen Repertoire unseres Klimas."(Quelle: Mitteilungen der Deutschen Meteorologischen Gesellschaft, 3/2002, S. 2).

(b) Und der DWD bestätigte alles dieses nochmals in einer großen Presse-Konferenzen 2007: "Bislang (noch) keine Zunahme von Extremereignissen:  Bislang sind jedoch – mit Ausnahme der bereits erwähnten sommerlichen Starkniederschläge – keine systematischen Veränderungen oder Verschiebungen der Extremwerte nachweisbar".  ( DWD-Pressekonferenz 24.04.2007, Berlin, Vortrags-Manuskript Müller-Westermeier; sowie http://metportal.dwd.de/bvbw/generator/Sites/DWDWWW/Content/Presse/Pressekonferenzen/2007/PK__20070424/20070424b,templateId=raw,property=publicationFile. pdf/20070424b.pdf, S.5, Abs.3, mit umfangreichen Daten und Papieren)

(c) …und zum Hochwasser: Auch solche Ereignisse wie die Hochwassersituation 2002 gehören zum normalen Repertoire unseres Klimas." (Quelle: Mitteilungen der Deutschen Meteorologischen Gesellschaft, 3/2002, S. 2).

Zum Schluß noch ein Blick über den Atlantik ins Jahr 1910. Dort wüteten Waldbrände wie vor kurzem in Russland. Nur hatte Herr Flassbarth in Geschichte nicht aufgepasst.

Das eigentliche Problem liegt woanders :

Es ist die totale Ideologisierung und Politisierung des Klima-Themas  – gegen die Fakten und zum erheblichen Teil gegen die eigenen Erkenntnisse, unter Mitwirkung aller "Mächtigen"  wie Politiker, Medien, Institute  – wobei früher seriöse Institute wie DWD, UBA, AWI … neuerdings bei der Vermittlung von Klima-Hysterie kräftig mitmachen; möglicherweise geht es auch hier inzwischen um Forschungs-Gelder, öffentliche Reputation und politische Anbiederung … ?

Die Faktenlage hingegen ist klipp und klar: Die Wetterdienste dieser Erde finden (fast) nichts von dem, was vom DWD und anderen interessierten Kreisen ständig behauptet wird (vgl. insbes. "Viel Wind um Nichts"  Puls.LP. 21 und Puls.LP. 22 !).

Michael Limburg EIKE (unter Verwendung von Arbeiten von. H.J. Lüdecke und K.E. Puls)

* mit freundlicher Genehmigung entnommen aus einer noch unveröffentlichten Arbeit von H.J. Lüdecke

Related Files




Bei Medien und der „Münchner Rück“ nehmen Naturkatastrophen deutlich zu. In der Wirklichkeit ist das anders!

In dem Interview werden die alt-bekannten Katastrophen- und Angstmuster propagiert : gefährlicher Klimawandel, beschleunigter Temperaturanstieg auch im Meer, mehr und stärkere Stürme und Sturmfluten, mehr Überschwemmungen …und so fort ! Nur zwei Dinge – die Entscheidenden – werden den Lesern nicht mitgeteilt :

(1)            Selbst nach 150 Jahren Erderwärmung, deren Ursache keineswegs geklärt oder gar bewiesen ist, finden weder die Wetterdienste dieser Welt noch das stets dafür bemühte IPCC (Weltklimarat) Signale in dieser Hinsicht (vgl.w.u.) ;

(2)            Alle im Interview behaupteten Veränderungen sind keine statistisch signifikanten Beobachtungen, sondern Zukunfts-Projektionen. Jedoch – die  Klimamodelle rechnen noch nicht einmal Prognosen, die schon unsicher genug wären/sind, sondern die Klimamodelle rechnen sgn. Szenarien, die für wirtschaftliche und politische Schlußfolgerungen in gefährlicher Art unbrauchbar sind.

Zu den Interview-Äußerungen von Peter Höppe (PH) im Einzelnen:

(1) PH: Die Häufigkeit und die Intensität von wetterbedingten Naturkatastrophen nehmen weltweit gesehen drastisch zu.“

Anmerkung EIKE: Die Wetterdienste dieser Welt und selbst das IPCC sehen das ganz anders:

(a) IPCC[1] : "Das IPCC konnte auf globalem Niveau keinen Trend bei den Extremwetter-Ereignissen erkennen und zuordnen"

(b) Übereinstimmend damit ist auch die Aussage der Meteorologie-Professoren H.Kraus

und U.Ebel[2]: "Es gibt keine Beweise dafür, daß die extremen Wetterereignisse  –  global betrachtet  –  im 20. Jahrhundert zugenommen haben"

(c) Zum gleichen weltweiten Ergebnis kamen 5 Extremwetter-Kongresse[3] 2006-2010 in Hamburg und Bremerhaven! Dort wurden zwar im Rahmen der Vorträge allerlei Spekulationen zu Klima-Trends geäußert, aber keinerlei signifikante Daten und Beweise für einen nachgewiesenen Trend von Extrem-Ereignissen vorgelegt.

(d) Prof. Dr. Schönwiese auf einem dieser Kongresse[4]:

“Die Aussage, das Klima in Europa sei generell extremer geworden, läßt sich allerdings nicht halten“

(e) Das Nongovernmental IPCC[5] :

 “ Entgegen ständig anders lautenden Behauptungen der Medien sowie einiger Institute zeigen die Wetteraufzeichnungen des letzten Jahrhunderts: Es gibt weltweit keine Zunahme an Zahl und/oder Intensität bei Hurrikanen, Stürmen, Tornados, Unwettern aller Art; der seit Jahrtausenden (letzte Eiszeit) andauernde Meeresspiegel-Anstieg hat sich von Jahrhundert zu Jahrhundert verlangsamt, auf mittlerweile ca. 18 cm im 20. Jahrhundert  –  Tendenz weiter abschwächend!“

(2) PH: Sturmschäden ereignen sich zwei- bis dreimal häufiger.“

Anmerkung EIKE: Wenn es denn mehr Schäden bei Stürmen gibt, so hat das jedenfalls nichts mit zunehmenden Stürmen zu tun, denn einen solchen Trend gibt es weder in Deutschland noch weltweit:

(a)            DWD  (Seewetteramt)[6]:

„Es lässt sich für Mittel- und Westeuropa jedoch bisher keine langzeitliche Zunahme von Stürmen  –  an Stärke und/oder Häufigkeit  –  nachweisen“

(b)            BSH (Hamburg)[7]>: “Es gibt in Norddeutschland nicht mehr Sturmfluten als vor 50 Jahren. Ein generell steigender Trend bei der Häufigkeit und Intensität von Sturmfluten als Vorbote des globalen Klimawandels ist gegenwärtig nicht erkennbar. Schon jetzt sind Küstenschutz und Deiche so ausgelegt, dass sie auch höheren Sturmfluten Stand halten als den bisher eingetretenen"

(c)            Max-Planck-Instituts[8]>(Hamburg): "In unserem Computermodell brauen sich weder mehr Stürme noch stärkere Stürme über uns zusammen".

(d)            Das Nongovernmental IPCC[9] :

 “Es gibt weltweit keine Zunahme an Zahl und/oder Intensität bei Hurrikanen, Stürmen, Tornados, Unwettern aller Art…“

(e)            Landesregierung Niedersachsen[10] :

"Klimawandel nicht bemerkbar

Für einen steigenden Meeresspiegel an Niedersachsens Nordseeküste als Folge des Klimawandels sieht die Landesregierung keine Anzeichen.  Auch ein Trend zu höherer Sturmfluthäufigkeit sei nicht erkennbar, teilte Umweltminister Hans-Heinrich Sander (FDP) im Landtag mit. Danach liegt der Trend des Anstieges bei unverändert 25 cm je Jahrhundert. Ein schnellerer Anstieg sei nicht zu beobachten."

(3) PH: “Der Klimawandel ist auf jeden Fall ein Hauptverdächtiger. Das ist zwar nur ein Indizienbeweis, und den hundertprozentigen Beweis wird man auch nie führen können.“

Anmerkung EIKE: Zumindest vor Gericht  gilt der alte Grundsatz: “Ein Verdächtigter ist solange unschuldig, bis er überführt ist“ ! Dieser Grundsatz gilt nicht für die Münchner Rück ? Und das, obwohl zugestanden wird, daß ’…man den Beweis nie wird führen können’ ?? Auf welcher Basis werden denn da Policen kalkuliert ? Auf allerlei Vermutungen ?

(4) PH: Aber die Extreme, die wir jetzt überall erleben …  passen genau zu den Mustern, die wir nach den Klima-Modellen erwarten. Auch der Bericht des Weltklimarats kommt zu diesen Ergebnissen.“

Anmerkung EIKE: Der Weltklimarat kommt zu keinerlei solchen Ergebnissen, sondern rechnet SZENARIEN für eine virtuelle Zukunft von 100 Jahren ! Was sind die wert ? Einige Belege:

(a) Selbst das IPCC[11] weiß natürlich, daß Klima auf mathematisch-chaotischen Prozessen beruht, deren Differentialgleichungen bisher nur unvollständig bekannt und grundsätzlich nicht nach einfachen Ursache-Wirkungs-Ketten lösbar sind:

IPCC : "In climate research and modelling we should recognize, that we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible".

"In der Klimaforschung und -modellierung sollten wir beachten, daß wir es mit gekoppelten nichtlinearen chaotischen Systemen zu tun haben, und deswegen sind Langzeitprognosen von zukünftigen Klimazuständen nicht möglich"> 

(b)  Hans von Storch[12] (GKSS-Forschungs-Zentrum HH): "Wir Klimaforscher können nur mögliche Szenarien anbieten; es kann also auch ganz anders kommen"

(c)  MPI HH[13]

Noch weitergehend ist die Aussage der Direktors vom Hamburger Max-Planck-Institut Prof. Jochem Marotzke auf dem kürzlich in Bremerhaven abgehaltenen Wetter-Kongreß: “Unsere Arbeiten zeigen zum ersten Mal mit einem umfassenden gekoppelten Klimamodell, dass die Erde bei heutiger Sonneneinstrahlung und heutiger Konzentration von Kohlendioxid in der Atmosphäre sowohl den heutigen Klimazustand als auch den Eisballzustand annehmen kann“

(d)  Gerard Roe und Marcia Baker[14] (Univ. of Washington, Seattle) stellen in einer Studie zur Prognosegüte der Klimamodelle fest, daß man die Computermodelle so viel erweitern mag wie man will, nie wird man zu brauchbaren Ergebnissen kommen: „Kleine Unsicherheiten in vielen einzelnen physikalischen Parametern verstärken sich zu großen Unsicherheiten, und es gibt nichts, was wir dagegen tun können".

Anmerkung EIKE: Diese kleine Auswahl mag genügen, um die Belastbarkeit der Modell-gläubigen Aussagen  von Herrn Höppe zu beleuchten.

 (5) PH:  “In Folge der Erwärmung der Weltmeere um etwa ein halbes Grad in den letzten 30 Jahren vergrößert sich die Verdunstung. Die wärmere Luft kann mehr Wasserdampf aufnehmen und zu den Kontinenten transportieren, wo sie dann als Starkniederschläge abregnen.“

Anmerkung EIKE:  Die Meßdaten belegen das Gegenteil:

(a) Soeben ist eine Arbeit des NASA-Forschers K. TRENBERTH[15] erschienen, die ganz eindeutig die Behauptung von Herrn Höppe widerlegt: Eine Meeres-Erwärmung findet seit mehr als 10 Jahren nicht statt, in den letzten 5 Jahren eher eine Abkühlung.

(b) Eine Übersichts-Studie[16] zum Wasserdampf-Gehalt in der Atmosphäre anhand neuer Literatur kommt ebenfalls zum ganzen Gegenteil dessen, was Herr Höppe behauptet, nämlich:

“… dass der (gemessene) Wasserdampfgehalt der Luft abgenommen hatte während das CO2 zugenommen hatte…“. Dabei wurden u.a. Auswertungen von 35 Jahren Radiosonden-Messungen berücksichtigt.

 (6) PH: “Eine ähnliche Lage hatten wir auch beim Hochwasser im August 2002, der bislang teuersten Naturkatastrophe in Deutschland. Es gibt Hinweise, dass solche Wetterlagen bereits häufiger geworden sind.“

Anmerkung EIKE:  Dazu sagt der Deutsche Wetterdienst[17] ganz was anderes(!):

"Bei extremen Wetterereignissen sind in Deutschland hingegen bisher keine signifikanten Trends zu beobachten gewesen. Auch solche Ereignisse wie die Hochwassersituation 2002 gehören zum normalen Repertoire unseres Klimas."

(7) PH: … dass die Anzahl der jährlichen wetterbedingten Naturkatastrophen stark zunimmt und ebenso die Höhe der volkswirtschaftlichen wie der versicherten Schäden.“

 

Anmerkung EIKE:

(a)             Dabei hat Herr Höppe möglicherweise vergessen, daß sein Kollege T. Grimm auf dem Extremwetterkongreß in Hamburg[18] etwas ganz anderes verlauten ließ:

"… der Hauptgrund für die markant steigenden Schadensummen durch Naturkatastrophen (ist) in den sozio-ökonomischen Bedingungen (Wertekonzentration und Besiedlung exponierter Regionen, Bevölkerungszunahme, höhere Schadenanfälligkeit) zu suchen."

(b)            Mindestens genau so interessant ist es, daß Herr Höppe in einem zum LVZ-Interview parallelen Interview mit der FINANCIAL TIMES DEUTSCHLAND[19] den Klimawandel nur am Rande erwähnt, und statt dessen ganz andere Schwerpunkte für die Schadens-Statistiken setzt:

            “Daß das Ausmaß der Katastrophen immer drastischer wird, ist eindeutig zu erklären: Die Bevölkerung ist gewachsen, die Menschen leben zunehmend in Risikogebieten, zudem sind die betroffenen Sachwerte heute höher als früher“, sagte Höppe. Und weiter im Text FTD: “ … In den Entwicklungsländern ist die Bevölkerungszahl in den letzten Jahrzehnten explodiert. Die Menschen zieht es in die fruchtbaren Küstenregionen, wo sie als Bauern oder Fischer ihren Unterhalt verdienen können – aber auch alles verlieren, wenn die Flut kommt. In den entwickelten Ländern dreht es sich schlicht um höhere Sachvermögen, wie der Hurrikan KATRINA zeigte, der die US-Küste 2005 heimsuchte.“  …und weiter Höppe a.a.O.: “Die Schäden müssen nicht zwangsläufig zunehmen, wenn man Präventionsmaßnahmen ergreift“, sagte Höppe. “Vielleicht wird die Zukunft nicht so teuer wie 2010,“ … meint die FTD.

(c)            Der Schweizer Rückversicherer SWISS-RE kommt ebenfalls zu einem ganz anderen Ergebnis[20] als Herr Höppe im LVZ-Interview:

“Die Katastrophen-Schäden unterliegen starken Schwankungen, wobei der jährliche Aufwärts-Trend bei den weltweiten Versicherungs-Schäden in US-Dollar zehn Prozent beträgt. Gründe dafür sind nach Angaben von Swiss Re höhere Einkommen, steigender Wohlstand, die zunehmende Wert- und Wohlstands-Konzentration in gefährdeten Regionen sowie ein Trend zu einem stärkeren Versicherungs-Schutz. (Anm.: Und kein Wort zum Klima !)

(d)            Daß es manchen Rückversicherern nicht um das Klima, sondern möglicherweise mehr um ihre Policen geht, formuliert der GKSS-Professor Hans von STORCH[21] so:

“Ein recht bekanntes Bild zeigt … zunehmende Schadenskosten aufgrund extremer Wetterereignisse. Der größte Anteil steht mit Stürmen in Verbindung. Beim ersten Betrachten könnte man versucht sein, dieses als Beweis zu akzeptieren, daß es immer häufigere oder heftigere extreme Wetterlagen gäbe.  Aber dieses ist nicht der Fall … Ein unverändertes Sturmklima geht einher mit deutlich höheren Schäden als früher. Es  ist also zuallererst eine Darstellung des zunehmenden Wohlstandes … Derartige Diagrame stammen aus der Versicherungsindustrie, die natürlich keine Einwände gegen den Eindruck eines erhöhten Wetterrisikos haben kann, verbessert dies doch die Marksituation.“

(e)            Auch die Medien werden zunehmend mißtrauischer gegenüber Klima-Katastrophen-Aussagen, die aus der Versicherungs-Wirtschaft kommen, wie hier jüngst die FAZ[22]:

“Leichter war es in den vergangenen Tagen, wie Kleber im Nachrichtenjournal einen einschlägigen Klimawandelspezialisten, in dem Fall dummerweise einen aus der größten Rückversicherung, die logischerweise gern vor dem Klimawandel warnt, weil sie gerne Klimaschutzpolicen verkauft, zu befragen (Anm.: zu den Katastrophen im Sommer 2010) und sich die auf den ersten Blick plausibelste Antwort abzuholen: Die von Treibhausgasen beschleunigte Erwärmung der Luft …“

F A Z I T :

Das Versicherungs-Klima des Herrn Höppe unterscheidet sich diametral vom Klima+Wetter der Natur ! 

Dipl.-Meteorologe Klaus-Eckart Puls,  EIKE

Mehr dazu von Klaus Puls hier "Viel Wind um nichts" oder "Der Klimawandel; Katastrophe ohne Wettersignale" als pdf im Anhang


[1] Beising, R.: Klimawandel und Energiewirtschaft, VGB PowerTech Service GmbH, Essen, 2006, S.137

[2] Kraus H.; Ebel U.: Risiko Wetter, Springer Berlin, 2003, S.8

[3] (1) WETTERmagazin, 04/2006; (2) DMG-Mitt. 2/2007, S.2-3; (3)3.ExtremWetterKongreß, Das Programm, Vortr.-Zusammenfassungen, März 2008, HH; (4) 4.ExtremWetterKongreß, Programm u. Vortrags-Kurzf., B’hv 19.-21.02.2009, (5) B’hv 4.-6.3.2010

[4] Prof. Dr. Chr. Schönwiese, Klima-Trend-Atlas, Extremwetterkongreß HH 2008, nachzitiert SZ 27.03.2008, Wissen

[5] Nature, Not Human Activity, Rules the Climate (pdf), http://www.heartland.org/Article.cfm?artId=22835

[6] G. Rosenhagen, Zur Entwicklung der Sturmaktivität in Mittel- und Westeuropa, promet, H.1/2, 2008, S.60 

[7] PreMt BSH, 26.09.2007, http://www.bsh.de/de/Das%20BSH/Presse/Pressearchiv/Pressemitteilungen2007/28-2007.jsp

[8]Jochem Marotzke, Direktor MPI HH, in DER SPIEGEL, 7.5.2007, Abschied vom Weltuntergang,  S.145

[9] Nature, Not Human Activity, Rules the Climate (pdf), http://www.heartland.org/Article.cfm?artId=22835

[10] NZ, 04.02.2010, S.4

[11] (IPCC, 3. Ass.Rep., 2001, Sect. 14.2.2.2,  S. 774)

[12] DER SPIEGEL, 11/2007, S.56

[13] J. MAROTZKE, in: 4. ExtremWetterKongreß, Programm u. Vortrags-Kurzfassungen, 51, “Wenn die Erde zum Eisball wird“

[14] Science, Bd.318, S.629, 2007

[15] TRENBERTH, K.E. and FASULLO, J.T.:  Tracking Earth’s Energy, SCIENCE, Vol.328, 16.04.2010, S.316-317

[16] Prof. Dr. C.O. Weiß: “Die Klimasensitivität von CO2“, http://www.eike-klima-energie.eu/news-anzeige/die-klimasensitivitaet-von-co2/

[17] Mitteilungen der Deutschen Meteorologischen Gesellschaft, 3/2002, S. 2

[18] T.Grimm, Münchener Rückversicherung, ‚Starke Zunahme der Schäden durch Hurrikane‘; in: WETTERmagazin 04/2006, S.31.

[19] Eine Welt voller Katastrophen, FTD, 20.08.2010, S.13

[20] dpa in: ; NordseeZtg., 17.03.2010, S.8, “…Katastrophen in 2009“ ;

[21] Prof. Dr. Hans von Storch, Veränderliches Küstenklima, Mitt. OVR 61, 6 (2006), S.227-240

[22] FAZ, 12.08.10, S.27, Feuilleton, JOACHIM MÜLLER-JUNG : “Die Katastrophe hat sich festgefressen“

 

Related Files




Klimamodelle des Glaubens! Oder warum 2+2=5 sein könnte!

Mindestens seit dem 1995 erschienenen Zweiten Zustandsbericht hat das IPCC immer sicherer klingend festgestellt, dass anthropogenes Kohlendioxid (CO2) das Klima beeinflusst, und dass dies der Hauptgrund für den nachgewiesenen Erwärmungstrend seit 1900 ist. Der gegenwärtige Anteil des atmosphärischen CO2 beträgt 390 parts per million (ppm) oder 0,039% des Gasgemisches der Atmosphäre. Im Jahre 1900 waren es etwa 295 ppm. Falls sich der Trend des 20. Jahrhunderts unvermindert fortsetzt, wird sich der Anteil von CO2 in der Atmosphäre etwa verdoppelt haben bis 600 ppm. Dies ist die Basis für das gewöhnlich „CO2–Verdoppelung“ genannte Szenario.

Die CO2–Verdoppelung ist eine Wegmarke der Klimawissenschaftler für die Abschätzung des Treibhauseffektes. Die Erde empfängt etwa 342 Watt pro Quadratmeter (W/m2) einkommender Strahlung von der Sonne, und alle diese Strahlung wird letztendlich wieder in den Weltraum abgestrahlt. Allerdings absorbieren CO2 und andere Treibhausgase, am meisten Wasserdampf, einiges dieser ausgestrahlten Energie und wärmen so die Atmosphäre. Dies nennt man den Treibhauseffekt. Ohne diesen Effekt läge die mittlere Temperatur der Erde bei frostigen -19°C. Der Treibhauseffekt erwärmt die Erde bis etwa 14°C und macht sie so überhaupt erst bewohnbar9. 

Mit steigendem CO2 wird noch mehr der ausgestrahlten Energie absorbiert, was die Thermodynamik der Atmosphäre verändert. Alle zusätzlichen Treibhausgase einschließlich CO2, die seit 1900 in die Atmosphäre gelangt sind, kommen einer zusätzlichen Absorption von etwa 2,7 W/m2 in der Atmosphäre gleich10. Dies ist der besorgliche Treibhauseffekt.

Am 2. Februar 2007 veröffentlichte die Arbeitsgruppe 1 (WG1) des IPCC die „Zusammenfassung für Politiker (Summary for Policymakers SPM)  über den Zustand des Erdklimas“11. Er enthält eine umfassende Zusammenfassung der Wissenschaft, die die oben gemachte Vorhersage stützt. Der ganze „Vierte Sachstandsbericht“ (Fourth Assessment Report, 4AR) wurde 2007 nach und nach veröffentlicht.

Abbildung 1 zeigt eine Schwarz-weiß-Version des „Sonderberichtes für Emissionsszenarien“ (Special Report on Emission Scenarios SRES) in SPM-5 der WG1 des IPCC, der die Zukunft der globalen Mitteltemperatur projiziert. Diese Projektionen11 wurden mit Hilfe von generellen Zirkulationsmodellen (General Circulation Models GCMs) durchgeführt. GCMs, das sind Computerprogramme, die die physikalischen Auswirkungen des Klimas berechnen; Auswirkungen u. A. auf die Ozeane, die polaren Eiskappen und die dynamische Antwort der Atmosphäre zu verschiedenen Antriebskräften. Antriebe und Feedbacks sind diejenigen Elemente, die den Energiefluss im Klimasystem steuern. Sie schließen das Sonnenlicht, Meeresströme, Stürme und Wolken, die Albedo (die Reflektivität der Erde) sowie die Treibhausgase Wasserdampf, CO2, Methan, Nitrooxide und Fluorchlorkohlenstoffe ein.

In der Abbildung 1 nimmt das B1–Szenario einen CO2–Anstieg auf 600 ppm, A1B bis 850 ppm und A2 einen solchen auf pessimistische 1250 ppm an. Das „Jahr 2000 Szenario“ bildet den optimistischen Fall ab, den CO2–Gehalt stabil bei 390 ppm zu halten.

Die Bildunterschrift unter der Abbildung SPM-5 lautet (in Auszügen): „Durchgezogenen Linien zeigen die Erwärmung der Erdoberfläche im globalen Mittel (im Vergleich zum Zeitraum 1980 – 1999) für die Szenarien A2, A1B und B1, dargestellt als Fortsetzung der Simulationen des 20. Jahrhunderts. Die Schattierungen zeigen die Standartabweichung der individuellen Modelle“.

Gut und schön! Wir schauen uns die Projektionen an und sehen, dass die Fehlergrenzen nicht sehr unterschiedlich sind. Egal was passiert, es wird angenommen, dass die globale Temperatur im 21. Jahrhundert signifikant steigen wird. Eine kleine Woge der Verzweiflung taucht auf, dass es unter keinen Umständen gelingen wird, den CO2–Gehalt auf dem heutigen Stand zu halten. Das Jahr 2000 Szenario wird nur als Kontrast gezeigt. Die Wissenschaft ist hier in Ordnung, und wir können uns gefasst machen auf eine anthropogen verursachte Erwärmung im 21 Jahrhundert, mit all den daraus resultierenden Gefahren. Fühlen Sie sich schon schuldig?

Aber vielleicht ist ja das alles nicht so eindeutig! Im Jahre 2001 wurden in der Zeitschrift Climate Research13 offen die Unsicherheiten der Physik diskutiert, die in die GCMs einfließen. Dieses Papier war sehr kontrovers und verursachte eine [intensive] Debatte14. Aber über alle Kontroversen hinweg wurde nicht über die grundlegenden physikalischen Unsicherheiten gesprochen. Es stellte sich heraus, dass die Unsicherheiten der energetischen Reaktion des Klimasystems der Erde über 10 mal größer sind als der gesamte Effekt zunehmenden CO2–Gehaltes15. Wenn die Unsicherheit größer ist als die [angenommene] Auswirkung, wird die Auswirkung selbst irrelevant. Wenn aber die Auswirkung selbst strittig ist, über was hat das IPCC dann geredet? Und woher nimmt es die Gewissheit des großen Einflusses des CO2 auf die Atmosphäre?

Mit diesen Fragen im Hinterkopf schaue man noch einmal auf die Legende der Abbildung SPM-5. Dort heißt es „Die Schattierungen zeigen die Standardabweichung der individuellen Modelle“. Die Linien in der Abbildung repräsentieren die vom GCM projizierte jährliche Mitteltemperatur. Die Legende besagt, dass während 68% der Zeit (eine Standardabweichung) die Modellprojektionen in den schattierten Bereichen liegen werden. Sie sagt nicht, dass die schattierten Bereiche die physikalische Verlässlichkeit der Projektionen angeben. Die schattierten Bereiche zeigen nichts über die physikalische Ungewissheit der Temperaturprojektionen. Sie zeigen die numerische Instabilität der Modelle. Die Botschaft der Legende lautet, dass Klimamodelle nicht zweimal den gleichen Trend ergeben werden. Sie garantieren nur, dass dies in den schattierten 68% der Zeit der Fall ist16.

Dieser Punkt ist so wichtig, dass er mit einem einfachen Beispiel verdeutlicht werden soll. Nehmen wir an, ich hätte ein Computermodell allgemeiner Arithmetik, das behauptet,

2 + 2 = 5 ± 0,1.

Jedes Mal, wenn ich das Modell rechne, gibt es eine Chance von 68%, dass das Ergebnis innerhalb des Bereiches 0,1 Einheiten um die 5 liegen wird. Meine schattierte Region wäre 0,1 Einheiten breit. Wenn 40 verschiedene Forschergruppen 40 leicht unterschiedliche arithmetische Modelle hätten, die ähnliche Ergebnisse bringen würden, könnten wir uns alle zu einem Konsens gratulieren. Nehmen wir jetzt weiter an, wir könnten die Modelle soweit verbessern, dass das Ergebnis jetzt lauten würde: 2 + 2 = 5 ± 0,01. Dann könnten wir behaupten, wir hätten unsere Modelle so weit verbessert, dass sie jetzt 10 Mal genauer wären als zuvor. Aber natürlich wären sie alle genauso falsch wie vorher, weil die exakte Arithmetik nun einmal ergibt, das 2 + 2 = 4. Dieses Beispiel zeigt den kritischen Unterschied zwischen Präzision und Genauigkeit.

In der Abbildung 1 sind die schattierten Bereiche die rechnerischen Ungenauigkeiten der Computermodelle. Sie zeigen nicht die physikalische Genauigkeit der Projektionen. Sie sagen uns gar nichts über die physikalische Genauigkeit. Aber physikalische Genauigkeit – Verlässlichkeit – war immer das, wonach wir in den Vorhersage über künftige Ereignisse in der realen Welt gesucht haben. Es ist dieser Punkt – die physikalische Genauigkeit von globalen Zirkulationsmodellen GCM – mit dem sich dieser Artikel befassen wird.

Die erste Annäherung an physikalische Präzision in den GCMs ist es, zu ermitteln, was sie projizieren. Der am meisten propagierte Trend – den, den wir immer sehen – ist die globale mittlere Temperatur. 

Abbildung 2a zeigt die Trends der Temperatur von 10 GCMs, die in dem Projekt „Coupled Model Intercomparison Project“ (GMIP) [etwa: gekoppeltes Modellvergleichsprojekt] im „Lawrence Livermore National Laboratory“17 berechnet wurden. Sie zeigen, was passieren würde, wenn das atmosphärische CO2 stetig um 1% pro Jahr (etwa doppelt so viel wie gegenwärtig) innerhalb  der  nächsten  80  Jahre steigen würde. Die Klimamodelle schlossen andere „äußere Antriebe“ aus, wie z. B. Vulkanausbrüche, anthropogenes Aerosol sowie Änderungen der Solarstrahlung. Andererseits berücksichtigten sie interne Feedbacks wie beispielsweise den Wärmeaustausch zwischen Ozean und Atmosphäre, Änderungen des Schneefalls, Schmelzen der Eiskappen und so weiter. Diese GCMs sind entweder identisch oder sehr ähnlich den GCMs, die das IPCC für die Vorhersage der künftigen Temperatur des Erdklimas in Abbildung 1 (SPM-5) zeigt.

Zusammen mit den GCM–Projektionen zeigt Abbildung 2a den Trend eines sehr einfachen Modells, in dem alles, was passiert, nur in einer passiven Erwärmung durch Treibhausgase mit keinerlei Klimafeedbacks besteht. Trotz dieser ihm innewohnenden Einfachheit geht der Graph der passiven Erwärmung genau durch die Mitte der Trendlinien des GCM.

Dieses Resultat bedeutet, dass sich irgendwie die Quintillionen Watt an Feedback von den Ozeanen, der Atmosphäre, der Albedo und den Wolken in den generellen Zirkulationsmodellen zusammen zu null mitteln. Neben den geringen Spielräumen der Intensität simulieren alle GCMs wenig mehr als passive globale Erwärmung.

Alle Berechnungen, die die hier gezeigten Schlussfolgerungen stützen, werden in der unterstützenden Information (Supporting Information SI) präsentiert, die man auf der Site www.skeptic.com einsehen kann. Hier folgt das vereinfachte Treibhausmodell insgesamt:

Global Warming=0,36x(33°C)x[(Total Forcing ÷ (Base Forcing)]

Sehr kompliziert! “33°C” ist die Basis-Treibhaustemperatur der Erde, wie sie im Jahre 1900 definiert wurde19. „0,36“ ist der Teil der Treibhauserwärmung, von dem gesagt wird, dass es durch das CO2 plus „das erweiterte Wasserdampf-Feedback“ geliefert wird20. Die erweiterte Idee dahinter ist, wenn CO2 die Atmosphäre erwärmt, wird auch mehr Wasserdampf produziert. Dieser zusätzliche Wasserdampf beschleunigt die Erwärmung durch das CO221. All dies wird detailliert zur kritischen Durchsicht in Sektion 1 bei der SI ersichtlich.

Die vom IPCC anerkannten Gleichungen10 wurden zur Berechnung der Auswirkungen der Treibhausgase CO2, Methan und Stickstoffoxide [nitrous oxide] benutzt – die hauptsächlichen Treibhausgase derzeit. Das ist alles. Nichts, was komplizierter ist als Algebra, wurde hinzugezogen.

Die Mittellinie des GCM in Abbildung 2a (die schwarze Linie mit der weißen Mitte) ist das „Ensemble Mittel“ aller 10 GCM–Projektionen; das heißt ihre Summe geteilt durch 10. Ensembles werden typischerweise als genauer angesehen als jede einzelne individuelle GCM–Projektion22. Unter diesem Kriterium ist das Modell der passiven Erwärmung physikalisch akkurater als irgendeines der multimillionen teuren GCMs, weil es näher am Ensemblemittel liegt als jedes der 10 Klimamodelle (SI Sektion 2). Abbildung 2b zeigt einen ähnlichen Vergleich mit Projektionen von zwei hochauflösenden GCMs vom Geophysical Fluid Dynamics Laboratory der NOAA18, die Feedbacks von allen bekannten Klimaprozessen auf der Erde enthalten. Das einfache Modell zeigt die Temperaturprojektion näher [am Mittelwert] als viele der anderen komplexen GCMs zusammen.

Abbildung 2a zeigt, dass das physikalische Modell des Erdklimas in den GCMs im Falle einer Zunahme von CO2 simuliert, dass die Temperatur kaum etwas anderes macht außer einer passiven Reaktion in linearer Weise auf den Antrieb der Treibhausgase. Die gleiche Schlussfolgerung ergibt sich beim Betrachten von Kontrollläufen der GCMs, die die Temperaturentwicklung bei konstantem CO2–Gehalt simulieren. Eine davon zeigt Abbildung 1 – das „Jahr-2000-Szenario“. Die Kurve ist beinahe eben.

Besonders seit der Ära der Satelliten konnten spezielle Aspekte des Klimas, wie Bewölkung oder die Oberflächentemperatur um den ganzen Globus aufgezeichnet werden. Man kann GCM mit der Rückwärtsmethode testen, indem man sie das bekannte Klimageschehen der Vergangenheit simulieren lässt anstelle der erwarteten Entwicklung in der Zukunft. Physikalische Fehler in den GCMs bzgl. der simulierten Vergangenheit können dann mit der realen Vergangenheit verglichen werden.

Abbildung 3 zeigt die vom Satelliten beobachtete Bewölkung im Zeitraum Dezember – Januar – Februar, gemittelt über die Jahre 1983 bis 1990. Sie zeigt auch die globale mittlere Bewölkung über die ähnliche Periode von 1979 bis 198823 durch 10 begutachtete GCMs24. Die GCMs wurden benutzt, um zu versuchen, die beobachtete  Bewölkung  zu reproduzieren und wurden dann überarbeitet und erneut getestet. Diese Studie wurde 1999 veröffentlicht, aber die Genauigkeit zwischen den Rekonstruktionen der GCMs und den Beobachtungen hat sich während der letzten 9 Jahre kaum verbessert25.

Betrachtet man Abbildung 3, zeigen die GCMs ziemlich genau die Form eines W bei der Bewölkung der Erde, aber es zeigen sich signifikante Verluste durch alle Modelle in allen Breiten einschließlich der Tropen, wo die Wolken einen großen Einfluss auf das Klima haben26. Also, wie falsch sind die GCMs?

Eine Methode, den Fehler abzuschätzen, besteht darin, dass man über die Gesamtbewölkung, die von jedem Modell in der Rückschau simuliert wurde, integriert und dies mit der tatsächlich beobachteten Gesamtbewölkung vergleicht (SI Sektion 3). Den Fehler auf diese Weise zu ermitteln ist ein wenig vereinfachend, weil eine positive Abweichung in einer Breite durch eine negative Abweichung in einer anderen Breite kompensiert werden kann. Dieses Verfahren ergab eine mittlere Fehlerquote der Bewölkung von ±10,1%. Dieser Wert ist etwa halb so groß wie die offiziell festgelegte Fehlerquote bei den GCMs. Nennen wir diese ±10,1% den minimalen Fehler bzgl. der Bewölkung bei den GCMs.

Die mittlere Energiezufuhr der Wolken zum Erdklima lässt sich mit einem Wert von etwa -27,6 W/m2  27 beziffern.  Das  bedeutet, dass ein Fehler von ±10,1% eine Unsicherheit von ±2,8 W/m2 in den GCM–Projektionen hat. Diese Unsicherheit liegt bei etwa 100% des gegenwärtigen Treibhausantriebs durch alle anthropogen erzeugten Treibhausgase, die sich gegenwärtig in der Atmosphäre befinden10. Wenn man dies berücksichtigt, ergibt sich eine wahre, jedoch unvollständige Abschätzung der physikalischen Verlässlichkeit eines GCM–Temperaturtrends.

Was passiert also, wenn man diese ±2,8 W/m2 durch die SRES Temperaturtrends laufen lässt, die vom IPCC in Abbildung 1 angeboten werden? Bei der Berechnung einer Temperaturprojektion von Jahr zu Jahr wird jeder neue Temperaturwert plus dessen physikalischer Fehlergrenze in die Berechnung der Temperatur plus dessen Fehlergrenze eingegeben. Diese Art der Unsicherheit akkumuliert sich in jedem Jahr, weil jede vorhergesagte Temperatur die gesamte ±(physikalische Unsicherheit) enthält (SI Sektion 4).

Abbildung 4 zeigt die A2 SRES–Projektion, wie sie ausgesehen haben könnte, wenn das IPCC sich entschieden hätte, den Minimalfehler ±10,1% bzgl. der Wolken als ein Maß der Genauigkeit ihrer Temperaturprojektionen für das 21. Jahrhundert einzuführen. Dieses Resultat ist etwas ärgerlich. Die physikalische Ungewissheit akkumuliert rapide und ist in 100 Jahren so groß, dass sie bei einer Anpassung die steile SRES A2–Projektion in Abbildung 1 beinahe eingeebnet hätte. Die Ungewissheit von ±4,4°C im 4. Jahr übersteigt sogar schon die gesamte Temperaturzunahme von 3,7°C in 100 Jahren. In 50 Jahren liegt die simulierte Unsicherheit schon bei ±55°C. In 100 Jahren liegt dieser Wert bei ±111°C. Man erinnere sich, diese riesige Unsicherheit ergibt sich aus einem minimalen Fehler bei der Abschätzung der Bewölkung!

Hinsichtlich der aktuellen Entwicklung der Erdklimas besagt diese Unsicherheit nicht, dass die GCMs simulieren, in 100 Jahren sei es möglicherweise 100 K wärmer oder kälter als heute. Sie besagt, dass die Grenzen der Auflösung der GCMs – ihre Pixelgröße – gewaltig ist verglichen mit dem, was sie projizieren sollen. In jedem neuen Projektionsjahr einer Berechnung in der Größenordnung eines Jahrhunderts wird die Ungewissheit darüber, wie sehr die Wolken das Klima beeinflussen, größer und das Betrachten eines GCM zunehmend verwirrender.

Es ist, als ob man jedes Mal, wenn man sich umdreht, eine stärker und stärker streuende Linse vor unsere Augen hält. Erst verschwinden die Blumen, dann die Leute, dann die Autos die Häuser und schließlich sogar große Wolkenkratzer. Alles verwischt sich und lässt nur unbestimmte Farbkleckse zurück, und sogar großräumige Bewegungen können nicht mehr erkannt werden. Die Behauptung, dass die GCMs ein verlässliches Bild des zukünftigen Klimas liefern, ist etwa so stimmig wie wenn man beim Sichten eines undefinierbaren Farbkleckses darauf besteht, dass es sich um ein Haus mit einer Katze im Fenster handelt.

Die starke Schattierung in Abbildung 4 zeigt den Fehler, der sich aus den Unsicherheiten des Einflusses der Treibhausgase selbst (~1% für CO2, ~10% für Methan, ~5% für Nitrooxide)10, und wie sehr sich diese kleinen Unsicherheiten über einen Vorhersagezeitraum von 100 Jahren aufschaukeln. Nach einem Jahrhundert beträgt die Unsicherheit der vorhergesagten globalen Mitteltemperatur ±17 K, nur aus der Akkumulation des kleinsten Fehlers beim Antrieb allein.

Die Schwierigkeit ist sogar über kurze Zeiträume ernst. Das kleine Bild in der Abbildung 4 zeigt, dass nach nur 20 Jahren die Unsicherheit bzgl. der Wolken schon ±22 K beträgt und ±3 K bzgl. des Antriebs durch die Gase. Der Effekt der ±1%–Unsicherheit allein zeigt, dass zu 99% akkurate GCMs nicht erkennen können, ob wir in nicht einmal 20 Jahren eine neue Eiszeit oder aber eine tropische Warmzeit haben werden. Diese physikalischen Unsicherheiten sind nicht nur erheblich größer als vom IPCC in Abbildung 1 zugelassenen, sondern die tatsächlich zugelassenen Fehlergrenzen des IPCC sind nicht einmal physikalisch16.

Wenn man eine Akkumulation der Unsicherheiten bzgl. der Wolken und es Antriebs der Gase zusammen zulässt, ergibt sich nach dem A2–Szenario nach 5 Jahren eine um 0,34 K wärmere Erde mit einer Fehlergrenze von ±8,8 K. In 10 Jahren wird daraus 0,44 ± 15 K und in 20 Jahren 0,6 ± 27,7 K. Im Jahre 2100 läge diese Projektion bei 3,7 ± 130 K. Nur aus der Unsicherheit der Bewölkungsmenge ergibt sich, dass die Fehlergrenze sehr viel größer ist als die simulierte Temperaturzunahme. Was ist glaubwürdig an einer Vorhersage, deren Fehlergrenze 20 bis 40 mal größer ist als die Vorhersage selbst? Nach nur wenigen Jahren ist die Simulation der globalen Temperatur durch ein GCM nicht verlässlicher als bloßes raten. Dies bedeutet, dass die Wirkung der Treibhausgase auf die Erdatmosphäre nicht vorhersagbar und damit nicht bestimmbar ist. Und damit irrelevant.

Das rasante Anwachsen der Fehlergrenzen bedeutet, dass die GCMs nach 5 Jahren nicht mehr unterscheiden könne, ob wir eine Eiszeit oder eine Hitzehölle haben werden; geschweige denn nach 100 Jahren. So weit es die GCMs betrifft, kann die Erde im Jahre 2100 ein Winterwunderland sein oder ein tropisches Paradies. Niemand weiß das.Direkte Tests von Klimamodellen zeigen das Gleiche. Im Jahre 2002 hat Matthew Collins vom UK Hadley Centre das GCM HadCM3 benutzt, um ein künstliches Klima zu erschaffen, und hat dann berechnet, wie sich das gleiche Klima entwickelt, dass er selbst erschaffen hat. Es verhielt sich ärmlich, obwohl es sich um das perfekte Modell handelte. Das Problem lag darin, dass kleine Unsicherheiten bei den Eingaben – den Startbedingungen – rapide zunahmen und das GCM sehr schnell in die Belanglosigkeit trieb. Sogar mit dem perfekten Modell, berichtet Collins, „scheint es so, dass die jährliche globale Mitteltemperatur potentiell 1 Jahr im voraus  vorhergesagt  werden  kann, und eine Vorhersage für 5 oder 10 Jahre allenfalls marginal möglich ist.“ Also, mit einem perfekten Klimamodell und fast perfekten Anfangsbedingungen könnte man eines Tages potentiell oder marginal vorhersagen, aber man kann noch nicht 1 Jahr im Voraus Vorhersagen machen. Und mit diesen mangelhaften Modellen macht das IPCC Vorhersagen für 100 Jahre im Voraus!

In einem ähnlichen Test auf Zuverlässigkeit hat William Merryfield 2006 15 GCMs rechnen lassen, um künftige El-Niño Southern Oscillations (ENSO) in einem treibhausgewärmten Klima zu simulieren29. Er fand: „Bei einer Verdoppelung des CO2–Gehaltes zeigen 8 der 15 Modelle Änderungen mit einer signifikant (p<0,1) größeren Streuung als die Änderung der Amplitude selbst. Jedoch nimmt die Amplitude der ENSO in 5 dieser Modelle ab, während sie in 3 zunimmt. Fazit: Es gibt keinen Konsens über Art und Umfang der Änderung.“ Also, von 15 GCMs nahmen sieben keine signifikanten Änderungen an, 5 simulierten einen schwächeren, 3 einen stärkeren ENSO. Dieses Resultat ist gleichbedeutend mit ‚wir wissen es nicht’. Die 15 GCMs, die Merryfield benutzt hat, sind die gleichen, die dem Vierten Assessment Report des IPCC zugrunde lagen.

Wenn man all dies betrachtet, warum ist das IPCC so sicher, dass anthropogen erzeugtes CO2 für die jüngste globale Erwärmung verantwortlich ist? Wie kommt die US National Academy of Science (NAS) in einer kürzlich veröffentlichten Broschüre zu der Aussage, dass „…die Erwärmung der Erde in den letzten Dekaden primär von menschlichen Aktivitäten verursacht wurde, die den Anteil der Treibhausgase in der Atmosphäre haben zunehmen lassen“30? Diese Broschüre zeigt eine sehr aussagekräftige Abbildung 4 (SI Sektion 5), die die Inputs zu einer Projektion der globalen Temperatur aus einem GCM darlegt. Nur wenn die Auswirkungen der anthropogenen Treibhausgase in die normale Temperaturvariation mit einbezogen werden, sagt man uns, passt der Trend des GCM zu dem tatsächlich beobachteten Trend.

Aber ihre Abbildung 4 zeigt noch eine andere Charakteristik, die fast allgegenwärtig in Temperaturprojektionen von GCMs ist. Sie zeigen keinerlei physikalische Fehlergrenzen. Uns wird ein simulierter Temperaturtrend als perfekt genau präsentiert. Die Abbildung 4 der NAS wäre wesentlich glaubwürdiger, wenn die Akademie es zusammen mit der ±100 K Fehlergrenze gezeigt hätte. Dann würde offensichtlich werden, dass der Gleichlauf zwischen der beobachteten und der simulierten Trendlinie nichts als Zufall ist. Oder das GCM wurde künstlich so getrimmt, dass der Temperaturverlauf passt. Es würde auch offensichtlich werden, dass es vollkommen bedeutungslos ist zu behaupten, dass dieser erklärte Gleichlauf ohne die Zufuhr von CO2 nicht möglich ist, wenn tatsächlich ein erklärter Gleichlauf unmöglich ist. Punkt.

Unter Klimatologen ist gut bekannt, dass große Bereiche der Physik in den GCMs nicht gut verstanden werden31. Wo die Unsicherheit signifikant ist, haben die GCMs „Parameter“, die am besten darüber urteilen, wie sicher Klimaprozesse ablaufen. GCMs haben Dutzende von Parametern und eventuell Millionen Variable32, und alle davon haben einige Arten des Irrtums oder der Ungewissheit.

Eine saubere Darstellung ihrer physikalischen Zuverlässigkeit würde die Darstellung aller Unsicherheiten sämtlicher Parameter durch die GCMs einschließen und daraus resultierend eine Darstellung der gesamten Unsicherheit33. Ich habe vergeblich nach einer solchen Studie gesucht. Es scheint, dass niemand jemals die gesamte physikalische Unsicherheit eines GCM betrachtet hat. In der physikalischen Wissenschaft ist eine solche Überprüfung in der Praxis aber unabdingbar und routinemäßig erforderlich. Aber offensichtlich nicht in der Wissenschaft der GCMs. Ergo: Die gleichen Leute, die den Alarm über die künftige Erderwärmung hinaus posaunen, missachten ihre eigene ausgeprägte Unwissenheit.

Unter dem Strich ergibt sich also Folgendes: Wenn es um das zukünftige Klima geht, weiß niemand, wovon überhaupt die Rede ist. Niemand. Nicht das IPCC noch deren Wissenschaftler, nicht der US–Kongress, weder Sie noch ich und schon gar nicht Herr Al Gore. Das Erdklima erwärmt sich, und kein Mensch weiß, warum. Aber es gibt keine belastbare wissenschaftliche Basis, dass diese Erwärmung durch anthropogene Treibhausgase verursacht wird, weil die gegenwärtig zur Verfügung stehenden physikalischen Theorien gänzlich ungeeignet sind, überhaupt irgendeinen Grund zu finden.

Nichtsdestotrotz, jene, die extreme politische Maßnahmen ergreifen, um die
CO2–Emissionen zu reduzieren, beziehen sich ausschließlich auf die Ergebnisse der GCMs, die irgendwie zu realen Vorhersagen in der Öffentlichkeit werden. Aber selbst wenn diese Politiker die Unsicherheit der Modellergebnisse einräumen, werden sie immer noch das Vorsorgeprinzip bemühen und nach extremer Reduzierung rufen, „um auf der sicheren Seite“ zu sein. Dieses Prinzip besagt: „Wenn es Bedrohungen durch ernste oder irreversible Gefahren gibt, sollte das Fehlen genauer wissenschaftlicher Erkenntnisse nicht als Begründung dienen, kostenintensive Maßnahmen zu verschieben, um Umweltschäden zu verhindern“34. Dies bedeutet, selbst wenn wir nicht vollständig wissen, dass das CO2 das Erdklima gefährlich erwärmt, sollten wir doch dessen Emissionen kappen, für alle Fälle. Jedoch, wenn die gegenwärtige Fehlergrenze in den GCMs mindestens bei ±100 K pro Jahrhundert liegt, werden wir in totaler Unkenntnis über die Effekte des CO2 auf die Temperatur gelassen. Es ist nicht „… das Fehlen genauer wissenschaftlicher Erkenntnisse“, sondern es müsste heißen: „…es gibt überhaupt keine wissenschaftlichen Erkenntnisse“. Wir wissen buchstäblich gar nichts darüber, ob eine Verdoppelung des CO2–Gehaltes überhaupt irgendeinen signifikanten Effekt auf das Klima hat.

Solange unser Wissen über das künftige Klima gegen Null tendiert, kann es also sein, dass [in der Vorhersage] sowohl eine Reduzierung als auch eine Zunahme des CO2 das Klima verbessert, verschlechtert oder gar nicht verändert. Die Alternativen sind unangemessen, aber in unserem Stadium der Unwissenheit hat jede Wahl zwei von drei Chancen, den geringsten Schaden anzurichten35. Komplette Unwissenheit macht das Vorsorgeprinzip komplett unbrauchbar. Es gibt gute Gründe, den Verbrauch fossiler Energieträger zu reduzieren, aber die Klimaerwärmung ist dafür kein Grund.

Einige könnten nun beschließen, trotzdem daran zu glauben. „Wir können es nicht beweisen“, könnten sie sagen, „aber die Korrelation zwischen CO2 und der Temperatur ist real (sie nehmen beide zu)36 und so ist die Notwendigkeit da, auch wenn wir es nicht beweisen können“. Aber Korrelation bedeutet nicht Ursache37, und ein Grund kann nicht bei kompletter Unwissenheit herhalten. Die richtige Antwort auf den hartnäckigen Anspruch auf Gewissheit bei kompletter Unwissenheit ist gesunder Skeptizismus. Und ist es nicht viel besser für uns, Ressourcen für dringende aktuelle Dinge zu nutzen, anstatt diese Ressourcen für ungewisse Gefahren aufzuheben?

Also, was hat es denn nun mit schmelzenden Eiskappen, dem Anstieg des Meeresspiegels, dem Aussterben der Eisbären und anderen Wetterextremen auf sich? Was ist, wenn ungewöhnlich intensive Hurrikansaisons wirklich verbreitete Katastrophen auslösen? Es ist kritisch, den Finger auf Gründe und Rationalität zu legen, besonders wenn soziale Einladungen zum gesellschaftlichen Durchdrehen so allgegenwärtig sind. GCMs sind so schrecklich unzuverlässig, dass es keinen objektiven, belastbaren Grund gibt für die Annahme, dass der gegenwärtige Erwärmungstrend durch anthropogenes CO2 erfolgt, oder dass dieses CO2 das Klima überhaupt messbar erwärmt. Daher, selbst falls extreme Ereignisse wegen des sich erwärmenden Klimas vorkommen, gibt es keinen wissenschaftlichen Grund, die Ursache für diese Ereignisse im anthropogenen CO2 zu suchen.  Im chaotischen Erdklima könnte es gar keinen Grund für eine Erwärmung geben39. Viele hervorragende Wissenschaftler haben all das in grundlegenden Arbeiten immer wieder geschrieben, um die CO2–Panik zu dämpfen40, aber der Chor singt verführerisch, und einige rechtschaffene Gläubige scheinen sich an Widerlegungen zu weiden.

Patrick Frank,

Die Übersetzung erledigte dankenswerterweise Chris Frey EIKE

Im Original folgen noch Danksagungen

Literatur

1. McCarthy, J. 2005. “The Sustainability of Human Progress.” www.formal.stanford.edu/jmc/progress/ Last accessed on: 14 September 2007.
2. Anon. 2006. “Consequences of Global Warming” National Resources Defense Council. www.nrdc.org/globalWarming/fcons.asp Last accessed on: 14 September 2007.
3. Anon. 2007. “The Hard Facts of Global Warming.” The Sierra Club www.sierraclub.org/globalwarming/overview/overview4.asp Last accessed on: 14 September 2007.
4. Anon. 2007. “Learning About the Science of Climate Change.” Greenpeace. www.greenpeace.org/international/campaigns/climatechange/science Last accessed on: 14 September 2007.
5. Appenzeller, T. and D. R. Dimick. 2007. “Signs from Earth” National Geographic. http://magma.nationalgeographic.com/ngm/0409/feature1/ Last accessed on: 14 September 2007.
6. Cicerone, R., E. J. Barron, R. E. Dickenson, I. Y. Fung, J. E. Hansen, et al. 2006. “Climate Change Science: An Analysis of Some Key Questions” The National Academy of Sciences, Washington, D.C. See also the 2006 report downloadable here: http://dels.nas.edu/basc/. Last accessed on: 14 September 2007.
7. Pelosi, N. 2007. “We Will Work Together to Tackle Global Warming, One of Humanity’s Greatest Challenges.” www.speaker.gov/newsroom/speeches?id=0013 Last accessed on: 14 September 2007.
8. Shermer. M. 2006. “The Flipping Point.” Scientific American 294, 28.
9. Anon. Report FS-1999-06-025-GSFC: Earth’s Energy Balance, NASA: Goddard Space Flight Center Greenbelt, MD.
10. Myhre, G., E. J. Highwood, K. P. Shine and F. Stordal. 1998. “New Estimates of Radiative Forcing Due to Well Mixed Greenhouse Gases.” Geophysical Research Letters 25, 2715–2718.
11. Alley, R., T. Berntsen, N. L. Bindoff, Z. Chen, A. Chidthaisong, et al. “IPCC 2007: Summary for Policymakers.” In: Climate Change 2007: The Physical Science Basis. Cambridge University. http://ipcc-wg1.ucar.edu/wg1/wg1-report.html Last accessed on: 14 September, 2007. See under “WG1 Release”.
12. The IPCC is careful to use “projection” rather than “prediction” to describe what GCMs produce. I.e., the words “predict” or “prediction” do not appear in the SPM of the 4AR. However, “projection” appears 20 times, “scenario” appears 50 times, and the peculiarly apt “storyline” is used 7 times. “Prediction” seems to be the default message for most readers, however.
13. Soon, W., S. Baliunas, S. B. Idso, K. Y. Kondratyev, and E. S. Posmentier. 2001. “Modeling Climatic Effects of Anthropogenic Carbon Dioxide Emissions: Unknowns and Uncertainties” Climate Resear ch. 18, 259–275.
14. Risbey, J. 2002. “Comment on Soon et al. (2001)” Climate Research 22, 185–186; W. Soon, S. Baliunas, S. B. Idso, K. Y. Kondratyev and E. S. Posmentier (2002). Reply to Risbey (2002) Climate Research 22, 187–188; D. J. Karoly, J. f. B. Mitchell, M. Allen, G. Hegerl, J. Marengo, et al. (2003) Comment on Soon et al. (2001) Climate Research 24, 91–92; W. Soon, S. Baliunas, S. B. Idso, K. Y. Kondratyev and E. S. Posmentier (2003). Reply to Karoly et al. (2003) Climate Research. 24, 93–94.
15. One must go into Chapter 8 and especially Ch 8 Supplementary Material in the recently released IPCC 4AR to find GCM errors graphically displayed in W m-2. Figure S8.5, for example, shows that GCM errors in “mean shortwave radiation reflected to space” range across 25 W m-2. The errors in outgoing longwave radiation, Figure S8.7, are similarly large, and the ocean surface heat flux errors, Figure S8.14, minimally range across 10 W m-2. Such forthright displays do not appear in the SPM or in the Technical Summary; i.e., where public bodies are more likely to see them.
16. The Legend of “The Physical Science Basis, Global Climate Projections” WGI analogous Figure 10.4 more cautiously advises that, “uncertainty across scenarios should not be interpreted from this figure (see Section 10.5.4.6 for uncertainty estimates).” However, in 10.5.4.6, it is not reassuring to read that, “*Uncertainty in future temperatures+ results from an expert judgement of the multiple lines of evidence presented in Figure 10.29, and assumes that the models approximately capture the range of uncertainties in
the carbon cycle.” And in WGI Chapter 8 Section 8.1.2.2: “What does the accuracy of a climate model’s simulation of past or contemporary climate say about the accuracy of its projections of climate change? This question is just beginning to be addressed … [T]he development of robust metrics is still at an early stage, [so] the model evaluations presented in this chapter are based primarily on experience and physical reasoning, as has been the norm in the past. (italics added)” That is, there is no validly calculated physical uncertainty limit available for any projection of future global climate.
17. Covey, C., K. M. AchutaRao, U. Cubasch, P. Jones, S. J. Lambert, et al. 2003. “An overview of results from the Coupled Model Intercomparison Project” Global and Planetary Change, 37, 103–133; C. Covey, K. M. AchutaRao, S. J. Lambert and K. E. Taylor. “Intercomparison of Present and Future Climates Simulated by Coupled Ocean-Atmosphere GCMs” PCMDI Report No. 66 Lawrence Livermore National Laboratory 2001 http://www-pcmdi.llnl.gov/publications/pdf/report66/ Last accessed on: 14 September 2007.
18. Dixon, K. R., T. L. Delworth, T. R. Knutson, M. J. Spelman and R. J. Stouffer. 2003. “A Comparison of Climate Change Simulations Produced by Two GFDL Coupled Climate Models.” Global and Planetary Change, 37, 81–102.
19. Houghton, J. T., Y. Ding, D. J. Griggs, M. Noguer, P. J. van der Linden, et al. Climate Change 2001: The Scientific Basis. Chapter 1. The Climate System: An Overview. Section 1.2 Natural Climate Systems, Subsection 1.2.1 Natural Forcing of the Climate System: The Sun and the global energy balance. 2001 http://www.grida.no/climate/ipcc_tar/wg1/041.htm Last accessed on: 14 September 2007 “For the Earth to radiate 235 W m-2, it should radiate at an effective emission temperature of -19° C with typical wavelengths in the infrared part of the spectrum. This is 33° C lower than the average temperature of 14° C at the Earth’s surface.”
20. Inamdar, A. K. and V. Ramanathan. 1998. “Tropical and Global Scale Interactions Among Water Vapor, Atmospheric Greenhouse Effect, and Surface Temperature.” Journal of Geophysical Research 103, 32,177–32,194.
21. Manabe, S. and R. T. Wetherald. 1967. “Thermal Equilibrium of the Atmosphere with a given Distribution of Relative Humidity.” Journal of the Atmospheric Sciences 24, 241–259.
22. Lambert, S. J. and G. J. Boer. 2001. “CMIP1 Evaluation and Intercomparison of Coupled Climate Models.” Climate Dynamics 17, 83–106.
23. Rossow, W. B. and R. A. Schiffer. 1991. “ISCCP Cloud Data Products.” Bulletin of the American Meteorological Society 72, 2–20. Global average cloudiness does not change much from year-toyear. I.e., “Table 3 and Fig. 12 also illustrate how small the interannual variations of global mean values are. … All *the+ complex regional variability appears to nearly cancel in global averages and produces slightly different seasonal cycles in different years.”
24. Gates, W. L., J. S. Boyle, C. Covey, C. G. Dease, C. M. Doutriaux, et al. 1999. “An Overview of the Results of the Atmospheric Model Intercomparison Project.” (AMIP I) Bulletin of the American Meteorological Society 80, 29–55.
25. AchutaRao, K., C. Covey, C. Doutriaux, M. Fiorino, P. Gleckler, et al. 2005. “Report UCRL-TR-202550. An Appraisal of Coupled Climate Model Simulations Lawrence Livermore
National Laboratory.” See Figures 4.11 and 4.12. Especially compare Figure 4.11 with text Figure 3; M. H. Zhang, W. Y. Lin, S. A. Klein, J. T. Bacmeister, S. Bony, et al. 2005. “Comparing Clouds and Their Seasonal Variations in 10 Atmospheric General Circulation Models with Satellite Measurements.” Journal of Geophysical Research 110, D15S02 11–18.
26. Hartmann, D. L. 2002. “Tropical Surprises.” Science, 295, 811–812.
27. Hartmann, D. L., M. E. Ockert-Bell and M. L. Michelsen. 1992. “The Effect of Cloud Type on Earth’s Energy Balance: Global Analysis.” Journal of Climate 5, 1281–1304.
28. Collins, M. 2002. “Climate Predictability on Interannual to Decadal Time Scales: The Initial Value Problem.” Climate Dynamics 19, 671–692.
29. Merryfield, W. J. 2006. “Changes to ENSO under CO2 Doubling in a Multimodel Ensemble.” Journal of Climate 19, 4009–4027.
30. Staudt, A., N. Huddleston and S. Rudenstein. 2006. “Understanding and Responding to Climate Change.” The National Academy of Sciences. http://dels.nas.edu/basc/ Last accessed on: 14 September 2007. The “low-res pdf” is a convenient download.
31. Phillips, T. J., G. L. Potter, D. L. Williamson, R. T. Cederwall, J. S. Boyle, et al. 2004. “Evaluating Parameterizations in General Circulation Models.” Bulletin of the American Meteorological Society 85, 1903–1915.
32. Allen M. R. and D. A. Stainforth. 2002. “Towards Objective Probabilistic Climate Forecasting.” Nature 419, 228; L. A. Smith. 2002. “What Might We Learn from Climate Forecasts?” Proceedings of the National Academy of Science, 99, 2487–2492.
33. This is not the same as a sensitivity analysis in which the effects that variations in GCM parameters or inputs have on climate predictions are compared to observations. In contrast to this, propagating the errors through a GCM means the known or estimated errors and uncertainties in the parameters themselves are totaled up in a manner that quantitatively reflects their transmission through the mathematical structure of the physical theory expressed in the GCM. The total error would then represent the physical uncertainty in each and every prediction made by a GCM.
34. Kriebel, D. J. Tickner, P. Epstein, J. Lemons, R. Levins, et al. 2001. “The Precautionary Principle in Environmental Science.” Environmental Health Perspectives 109, 871–876.
35. Of course, reducing CO2 would likely stop the global greening that has been in progress since at least 1980. The Amazon rainforest alone accounted for 42% of the net global increase in vegetation: R. R. Nemani, C. D. Keeling, H. Hashimoto, W. M. Jolly, S. C. Piper, et al. 2003. “Climate-Driven Increases in Global Terrestrial Net Primary Production from 1982 to 1999.” Science 300, 1560–1563; S. Piao, P. Friedlingstein, C. P., L. Zhou and A. Chen. 2006. “Effect of Climate and CO2 Changes on the Greening of the Northern Hemisphere Over the Past Two Decades.” Geophysical Research Letters 33, L23402 23401–23406.
36. Rising CO2 correlates strongly (r2=0.71) with the greening of the Sahel since 1980, too. SI Section 6.
37. Aldrich, J. 1995. “Correlations Genuine and Spurious in Pearson and Yule.” Statistical Science 10, 364–376. In 1926 G. Udny Yule famously reported a 0.95 correlation between mortality rates and Church of England marriages.
38. On the other hand, the history of Earth includes atmospheric CO2 lagging both glaciations and deglaciations, and large rapid spontaneous jumps in global temperatures without any important changes in atmospheric CO2 and without tipping Earth off into runaway catastrophes. See references for the Dansgaard-Oeschger events, for example: Adams, J. M. Maslin and E. Thomas. 1999. “Sudden Climate Transitions During the Quaternary.” Progress in Physical Geography 23, 1–36; G. G. Bianchi and I. N. McCave. 1999. “Holocene Periodicity in North Atlantic Climate and Deep Ocean Flow South of Iceland.” Nature 397, 515–517; M. McCaffrey, D. Anderson, B. Bauer, M. Eakin, E. Gille, et al. 2003. “Variability During the Last Ice Age: Dansgaard-Oeschger Events.” NOAA Satellites and Information. http://www.ncdc.noaa.gov/paleo/abrupt/data_glacial2.html Last accessed on: 14 September 2007; L. C. Gerhard. 2004. “Climate change: Conflict of Observational Science, Theory, and Politics.” AAPC Bulletin 88, 1211–1220.
39. J. M. Mitchell Jr. 1976 “An overview of climatic variability and its causal mechanisms” Quaternary Research 6, 481–493. Shao, Y. 2002. C. Wunsch 2003 “The spectral description of climate change including the 100 ky energy” Climate Dynamics 20, 253–263. “Chaos of a Simple Coupled System Generated by Interaction and External Forcing.” Meteorology and Atmospheric Physics 81, 191–205; J. A. Rial 2004. “Abrupt Climate Change: Chaos and Order at Orbital and Millennial Scales.” Global and Planetary Change 41, 95–109.
40. Lindzen, R. S. 1997. “Can Increasing Carbon Dioxide Cause Climate Change?” Proceedings of the National Academy of Science, 94, 8335–8342; W. Soon, S. L. Baliunas, A. B. Robinson and Z. W. Robinson. 1999. “Environmental Effects of Increased Carbon Dioxide.” Climate Research 13, 149–164; C. R. de Freitas. 2002. “Are Observed Changes in the Concentration of Carbon Dioxide in the Atmosphere Really Dangerous?” Bulletin of Canadian Petroleum Geology 50, 297–327; C. Essex and R. McKitrick. 2003. “Taken by Storm: The Troubled Science, Policy, and Politics of Global Warming” Key Porter Books: Toronto; W. Kininmonth. 2003. “Climate Change: A Natural Hazard.” Energy & Environment 14, 215–232; M. Leroux. 2005. “Global Warming — Myth or Reality?: The Erring Ways of Climatology”. Springer: Berlin; R. S. Lindzen. 2006. “Is There a Basis for Global Warming Alarm?” In Global Warming: Looking Beyond Kyoto Ed. Yale University: New Haven, in press. The full text is available at: http://www.ycsg.yale.edu/climate/forms/LindzenYaleMtg.pdf Last accessed: 14 September 2007.
Quelle: http://www.skeptic.com/the_magazine/featured_articles/v14n01_climate_of_belief.html


Related Files




Energieamortisationszeit von Windkraft- und Solaranlagen!

Energieamortisationszeit von Windkraftanlagen

Zur energetischen Amortisation von Windkraftanlagen gibt es immer wieder Diskussionen mit Ergebnissen, die weit auseinander liegen. Es wird daher im folgenden eine Berechnung der Energieamortisationszeit an Hand eines 1,5 MW-Windrades als Beispiel gegeben. 

1)  Daten für die Materialien nach den Angaben für das Windrad von München-Fröttmaning, auf dem Schuttberg neben der Allianz Arena

2) abgezogen sind die Kosten für die Materialien, die ca. 10% der Gesamtkosten des Münchner Windrades von 2,25 Mill. € ausmachen.

3) „Spezifischer kumulierter Energieverbrauch“ des produzierenden Gewerbes, s. Statist. Bundesamt

4) s. Klaus Heinloth, „Die Energiefrage“

5) Einspeisevergütung 10ct/kWh für 20 Jahre: Wartung, Reparaturen, Auszahlungen an Kapitalgeber

Ein Windrad liefert in Deutschland im Durchschnitt 1500 Volllaststunden Strom, mit diesem Mittelwert liefert das als Beispiel gewählte 1,5MW-Windrad 2,25 Millionen kWh pro Jahr. Beim derzeitigen Strommix bei uns werden damit 6,75 Millionen kWh Primärenergie eingespart (Wirkungsgrad=1/3).

Natürlich ist die Energieamortisationszeit sehr wesentlich vom Standort abhängig. An der Küste mit viel Wind wird viel Strom erzeugt (man rechnet mit 2000 Volllaststunden), dort beträgt die Energieamortisationszeit 2,5 Jahre, im Binnenland mit 900 Volllaststunden sind es 5,5 Jahre.

Zum Bau und Betrieb eines Windrades sind die Ressourcen:

1. Materialien wie Stahl, Zement, Kunststoff, (Transporte weggelassen) und Gelderforderlich. Die Ressource „Geld“ – sie wird häufig „vergessen“ – ist eine äußerst kostbare und nur in begrenzter Menge verfügbare Ressource, ist sie doch universell zu vielerlei Zwecken einsetzbar. Um diese in großer Menge erforderliche Ressource „herzustellen“, muß sie im Wirtschaftsprozess zuvor erarbeitet werden, wozu aber wieder Energie erforderlich ist. „Geld ist vorgetane Arbeit und damit vorab aufgewandte Energie“ (s. Prof. Klaus Knizia, s. www.buerger-fuer-technik.de/), die Umrechnung erfolgt wie oben unter 4) angegeben. Aber auch für den Betrieb eines Windrades ist Geld erforderlich, es ist ein immer währender Zuschussbetrieb. Durch die von allen Stromverbrauchern erhobene und an der Betreiber ausgezahlte Einspeisevergütung wurden Windräder per Gesetz „wirtschaftlich gemacht“. Ohne Einspeisevergütung gäbe es nicht die 19 000 Windräder in Deutschland. Daher muß die Einspeisevergütung berücksichtigt werden.

Ergänzung von Prof. Appel:

1. Für eine Wertschöpfung von 1,- € benötigen wir 2 kWh Primärenergie. Für Dienstleistungen ist es weniger, für Industrieanlagen mehr. 

Für die Installation von 1 kW Leistung aus Wind- und Dampfkraftwerken müssen 1000,- bis 2000,€ investiert werden. 

Danach muss für 1 kW Windleistung einschl. des notwendigen Schattenkraftwerks ca. 3000,- € investiert werden. Für den Bau dieser Anlagen sind dann mindestens 6000 kWh erforderlich. Bei einer Stromerzeugung von 1700 kWh im Jahr eines 1 kW Windgenerators muss der Generator mindestens 3,5 Jahre laufen, bis er einen ‚Energieüberschuss erzielt. 

Geschätzter Primär-Energieaufwand zur Erzeugung von 1 kg. 

Stahl:   10 kWh            Preis:    0,6 € / kg
Aluminium:   50 kWh                 1,8   (diese Zahlen sind exakt)
Magnesium:  60 kWh                 3,5
Kupfer:   10 kWh                        3,5
Kunststoffe: 20 kWh                     2,-  bis 5,-


Energieamortisationszeit von Photovoltaikanlagen

Zur energetischen Amortisation von Photovoltaikanlagen gibt es Berechnungen mit Ergebnissen, die weit auseinander liegen. Im folgenden eine Überschlagsrechnung für eine Solarstromanlage mit 1kWpeak:

 

1)  6000 EURO ist der Preis von  1kWpeak , das habe ich aufgeteilt (willkürlich) je zur Hälfte für Produktion (Materialien, Herstellungsprozess) und zur Hälfte für die sonstigen Kosten (Löhne u.a.m.).

2) „Spezifischer kumulierter Energieverbrauch“ des produzierenden Gewerbes, s. Statist. Bundesamt

3) Die Energieintensität oder Energieeffizienz ist eine wichtige Kenngröße einer Volkswirtschaft oder auch nur eines Teiles einer Volkswirtschaft. Für unser Land ergibt sich nach den Daten des Jahres 1995 die Energieintensität = 2,4 kWh Primärenergieverbrauch (PEV) / 1 EURO BIP. Siehe bei Klaus Heinloth, „Die Energiefrage“ und www.buerger-fuer-technik.de „Wohlstand – Energie – Geld“ von Lutz Niemann

4) gesamte Einspeisevergütung für 20 Jahre Betrieb bei Stromerzeugung von 800kWh/Jahr und 50ct/kWh . Davon wird gezahlt: Wartung, Reparaturen, Auszahlungen an die Kapitalgeber.

Eine Photovoltaikanlagen liefert in Deutschland im Durchschnitt 800 Volllaststunden Strom, also 800 kWh. Beim derzeitigen Strommix bei uns werden damit 2 400 kWh Primärenergie eingespart (Wirkungsgrad=1/3).

 

Zum Bau und Betrieb einer Photovoltaikanlage sind die Ressourcen:

1.    Materialien, Herstellungsprozess  und Geld

erforderlich. Die Ressource „Geld“ – sie wird häufig „vergessen“ – ist eine äußerst kostbare und nur in begrenzter Menge verfügbare Ressource, ist sie doch universell zu vielerlei Zwecken einsetzbar. Um diese in großer Menge erforderliche Ressource „herzustellen“, muß sie im Wirtschaftsprozess zuvor erarbeitet werden, wozu aber wieder Energie erforderlich ist. „Geld ist vorgetane Arbeit und damit vorab aufgewandte Energie“ (s. Prof. Klaus Knizia, s. in www.buerger-fuer-technik.de der Aufsatz „Wohlstand – Energie – Geld“), die Umrechnung erfolgt wie oben unter 3) angegeben. Aber auch für den Betrieb einer Photovoltaikanlage ist Geld erforderlich, es ist ein immer währender Zuschussbetrieb. Durch die von allen Stromverbrauchern erhobene und an den Betreiber ausgezahlte Einspeisevergütung wurden Photovoltaikanlagen per Gesetz „wirtschaftlich gemacht“. Ohne Einspeisevergütung gäbe es keine Solarstromerzeugung in Deutschland. Daher muß die Einspeisevergütung berücksichtigt werden.

Die vielen Solarstromanlagen in Deutschland dienen nicht in erster Linie der Stromerzeugung, sondern sie wurden zum Zwecke des „Kohle machen“ installiert.

Wird die Ressource Geld in obiger Berechnung fortgelassen, so fällt der dickste Brocken in der Rechnung weg, und es folgt die geringere Energieamortisationszeit von 21 000 / 2 400 =  8,7 Jahre . Die dargelegte Betrachtung zeigt, Solarstromanlagen sind keine Energiequelle, sondern Anlagen zur Energievernichtung.

Anmerkung des Autors: Bei den Instituten, die derartige Berechnungen machen, ist es üblich, das zum Betrieb benötigte Geld (Einspeisevergütung) und die Löhne nicht zu berücksichtigen, dann ergibt sich eine kleine Energieamortisationszeit, wie man es auch will (man sagte mir gegenüber, Geld wird sowieso ausgegeben, dann ist es gleich, für was man es ausgibt, also braucht es nicht berücksichtigt werden (seltsame Logik, die ich nicht verstehe)). Das ist falsch, es wird der dickste Brocken unterschlagen.

Ganz wichtig ist die Umrechnung:  Für eine Wertschöpfung von 1,- € benötigen wir 2 kWh Primärenergie. Für Dienstleistungen ist es weniger, für Industrieanlagen mehr. s.o. Man findet diese Umrechnung auch bei Heinloth (Die Energiefrage), weit ausgeführt. Ohne Energie kann man kein Geld von Wert schaffen. Und wenn man diese Gedanken benutzt, kommt für Solarstromanlagen heraus, das diese Dinge keine Energiequelle, sondern eine Energiesenke sind.

Dr. Lutz Niemann; Bürger für Technik

* Die Studie des UBA 100 % Erneuerbare bis 2050 finden Sie im Anhang 

Weitere Info: http://www.energie-fakten.de/html/erntefaktor.html

Related Files




Vertrauen in Welt-Klima-Rat im freien Fall: Die Irrungen, Wirrungen und Manipulationen des IPCC! Ein Update!

Mit der Veröffentlichung der E-Mails und Daten aus der etablierten Klimaforschung wurde deren Brisanz für die Glaubwürdigkeit des Weltklimarates sowie seiner bisherigen Aussagen zur Erderwärmung nebst angeblicher Folgen international rasch klar: USA und UK setzten Untersuchungs-Kommissionen ein[1], in den internationalen Medien wurde ausführlich und kritisch berichtet. Ganz anders zunächst nicht in Deutschland, weshalb das P.T.-Magazin für Wirtschaft, Politik und Kultur[2] schrieb: “Der größte Wissenschaftsskandal aller Zeiten bringt das Lügengebäude der CO2-Ideologen endgültig zum Einsturz – und die deutschen Massenmedien ducken sich feige weg ! Während die selbsternannten Qualitätsmedien hierzulande also vom Verschweigen zum Verharmlosen übergingen, beherrschte die Titelseiten und Hauptnachrichtensendungen in Großbritannien und den USA längst nur noch ein Schlagwort: Climategate! Die Anlehnung an Watergate, den größten Skandal der amerikanischen Geschichte, zeigt, dass es sich hier wohl doch um etwas mehr als einen “gewöhnlichen“ Hackerangriff handeln mußte.“

Immerhin räumte dann nach einigen Tagen auch der SPIEGEL[3] ein:

“Cyberkrieg unter Klimaforschern: Zwei Wochen vor dem Klimagipfel in Kopenhagen bringen Hacker prominente Wissenschaftler in Erklärungsnot…“. Der SPEGEL berichtet dann weiter über Mail-Inhalte mit peinlicher Kollegen-Verleumdung, Andeutungen zu Daten-Manipulationen, Journalisten-Schelte und Ausgrenzung von anders denkenden Wissenschaftlern. Der SPIEGEL: “In einer Mail aus dem Jahr 1999 erklärt ein Forscher des Klimainstituts an der Universität von East Anglia, er habe den ’Trick’ eines US-Kollegen angewendet, um in einer Grafik den Rückgang der Temperaturen zu verbergen. Ein Klimatologe … beklagt sich …, es sei ein Hohn, dass man den gegenwärtigen Stillstand bei der Erwärmung nicht erklären könne.“ Genannt wird auch der US-Forscher Patrick Michaels, der seit Jahren die Position vertritt, dass der Klimawandel nicht so drastisch ausfallen werde, wie vom Mainstream der Klimatologen prognostiziert, mit der Aussage über die IPCC-Daten-Manipulation: “Das ist nicht nur eine rauchende Waffe, sondern ein wahrer Atompilz".

Der Kopenhagen-Gipfel scheitert

Drei Wochen nach dem ClimatGate palaverten einige Zehntausend Politiker, Wissenschaftler, Journalisten, Lobbyisten … in Kopenhagen 10 Tage lang, produzierten alleine bei An- und Abreisen Tausende Tonnen an CO2 sowie vor Ort große Mengen an Weltrettungs-Appellen und heißer Luft, und am 18. Dezember war alles zu Ende. Das beschrieb die Züricher Weltwoche[4] so: “Das Scheitern des Weltklimagipfels in Kopenhagen ist ein historischer Einschnitt, der das Ende der Klimahysterie einläutet…““Die größten Verlierer von Kopenhagen scheinen die Klimaforschung und die wissenschaftlichen Eliten zu sein, die, mit wenigen Ausnahmen, seit Jahr und Tag eine umfassenden Klimahysterie gefördert haben. Es besteht kein Zweifel mehr daran, daß die meisten Regierungen das Vertrauen in die Prognosen und Forderungen der Klima-Alarmisten verloren haben.“ Weiter wird dann a.a.O. ausgeführt, daß die Klimaforschung auch wegen ClimatGate, dem Stillstand der Erderwärmung und des ’tollen Treibens führender Wissenschaftler hinter den Kulissen’ in einer schweren Glaubwürdigkeits-Krise steckt.

Die FAZ[5] schrieb zu der übertriebenen deutschen Wichtigtuerei in Kopenhagen:“Die deutschen Konferenzteilnehmer mussten sich anhören, dass die Erderwärmung nach Krieg, Wirtschaftskrise und Atomtod die neueste Projektionsfläche der “German Angst“ sei …“

Der Gletscher-Schwindel

Nach Kopenhagen wurden nahezu im Wochen-Takt mehr als ein Dutzend Fehler, Schlampereien und Manipulationen in den Berichten des IPCC aufgedeckt. Es begann mit GletscherGate : "…Sehr wahrscheinlich sind die Gletscher des Himalaya schon bis 2035 verschwunden…“ ist beim IPCC[6] zu lesen.

Dazu DER SPIEGEL[7]: “Klimaforscher in Erklärungsnot: Das Uno-Wissenschaftlergremium IPCC hat das Verschwinden der Himalaja-Gletscher bis 2035 vorausgesagt – aber das beruht offenbar auf peinlichen Fehlern.“ In der Tat, denn die IPCC-Quelle war ein WWF-Interview mit einem indischen Gletscher-Forscher, publiziert 1999 in einem populärwissenschaftlichen Magazin. Sowohl die Quelle als auch die Aussagen haben sich mittlerweile als unbrauchbar erwiesen. Schlimmer noch: Die Zahl 2035 ist ein “Zahlendreher“ aus einer lediglich groben Abschätzung aus dem Jahre 1996(!) von dem russischen Forscher Wladimir Kotlyakov ;

d o r t  steht allerdings 2350 !

Diametral zu den IPCC-Aussagen erklärt das Indische Umweltministerium3: “Viele indische Himalaja-Gletscher sind in den letzten Jahren stabil, oder vergrößern sich, die Schrumpfrate vieler anderer hat sich verringert.“

Daß im IPCC auch ideologische Komponenten eine breite Basis haben, das deckt DIE ZEIT[8] auf. Danach sagte der für das IPCC-Asien-Kapitel zuständige Forscher MURAI LAL zur fehlerhaften 2035er-Prognose: “Es hatte mit den Ländern der Region und ihrer Wasserversorgung zu tun. Wir dachten, wenn wir das hervorheben können, wird das Politiker zu konkreten Maßnahmen ermuntern“. So etwa ist  unvereinbar mit dem Objektivitäts-Anspruch der Wissenschaft, wie auch die ZEIT anmerkt.

Nun versuchten anfangs deutsche Medien und einige medien-bekannte deutsche Klima-Professoren die Angelegenheit herunter zu spielen, nach dem Motto: Ein Zahlendreher kann ja jedem mal passieren. Jedoch gerieten sie rasch in die Defensive, denn jetzt wurden monatelang nahezu im Wochen-Takt ständig neu “Pleiten, Pech + Pannen“  des IPCC offenbart.

Zunächst eine weitere “Gletscher-Panne“ (31.01.2010)[9]: Der IPCC hatte in dem Bericht die schmelzenden Gletscher in den Alpen, den Anden und in Afrika auf den Klimawandel zurückgeführt. Der Sunday Telegraph berichtet, die darin gemachten Aussagen stützten sich vor allem auf einen Artikel, der in einem Alpin-Magazin erschienen war und sich seinerseits auf Beobachtungen bei Bergtouren bezog.“ An anderer Stelle wurde aus der Arbeit eines Geographiestudenten der Universität in Bern zitiert, der Bergführer in den Alpen interviewt hatte. Folglich: Sowohl die Quellen des IPCC als auch dessen Aussagen sind hier unbrauchbar.

Falsche Sturm-Prognosen

Immer wieder wird behauptet und von den Medien sensationell aufgemacht, daß mit der Erderwärmung des letzten Jahrhunderts Stürme zugenommen hätten und weiter zunehmen werden. Auch das ist, wie sich nun herausstellt, eine unbewiesene und sogar manipulierte IPCC-Behauptung, wie die Sunday Times[10] am 23.01.2010 berichtete: “IPCC/AR4 claimed that global warming is causing increases in property losses….“ …und der aktuelle Stand: “We find insufficient evidence to claim a statistical relationship between global temperature increase and catastrophic losses“.

Und dazu die FAZ[11]: “Der Weltklimarat soll wider besseres Wissen einen Zusammenhang zwischen der Erderwärmung und den (Anm.: angeblich!!) immer häufiger vorkommenden und verheerender wirkenden Wirbelstürmen und Überflutungen hergestellt haben.“ Es stellte sich heraus, daß das IPCC nur Erkenntnisse berücksichtigte, welche die These eines Zusammenhangs zwischen Erwärmung und Stürmen stützen. Mittlerweile  –  drei Jahre nach Veröffentlichung des jüngsten IPCC-Berichtes  – sagt der Chef des Hamburger Climate Service-Centers, Guy Brasseur[12] : “Die IPCC-Wissenschaftler sind sich einig: Es gibt nicht mehr Stürme als früher. Allenfalls ist ihre Intensität klimabedingt leicht gestiegen, doch das ist noch nicht bewiesen“ – welche eine Einsicht plötzlich, denn nun bringt offensichtlich auch das IPCC seine Meinung in Übereinstimung mit den Erkenntnissen der weltweiten Wetterdienste[13] !

AmazonasGate

Im IPCC-Bericht (2007, Ch.13, WGrII) steht[14] , daß die anthropogene Erderwärmung zum Verschwinden von 40% des Amazonien-Regenwaldes führt. Dazu ist zu lesen[15]:

“Am 25.1. wurde dann enthüllt, daß auch die Behauptung, durch den Klimawandel könnten 40% der Amazonas-Regenwälder verschwinden, nicht wissenschaftlich begründet war. Im 13. Kapitel der Arbeitsgruppe II des IPCC-Berichtes von 2007, das auch den erwähnten Himalaja-Schwindel thematisiert, behauptete der IPCC: Bis zu 40% der Amazonaswälder könnten bereits auf einen geringen Rückgang der Niederschläge [durch globale Erwärmung] dramatisch reagieren, und dann wäre es wahrscheinlicher, daß Wälder durch Ökosysteme… wie tropische Savannen ersetzt werden“. Dazu berichtete der britische Internetblog EUReferendum am 25.1., daß der einzige “Beleg“ für diese Behauptung über das Verschwinden der Amazonaswälder ein Bericht der Umweltorganisationen WWF und IUCN sei, verfaßt von einem freien Journalisten/Aktivisten sowie einem Koordinator verschiedener WWF-Projekte über Waldbrände in Australien und Afrika. Die beiden Autoren sind also keine Wissenschaftler. Aber mehr noch, laut EUReferendum wird in ihrem Bericht an keiner Stelle behauptet, daß 40% der Regenwälder des Amazonas verschwinden könnten, wie es beim IPCC heißt. Übrigens: In diesem WWF-Bericht geht es nicht um Klimaänderungen, die den Amazonas-Urwald schädigen, sondern um die Zerstörung dieses Lebensraumes durch Holzeinschlag und Brandrodung! Was für ein Schwindel in dem IPC-Bericht!

IPCC-Temperaturen manipuliert

Von den US-Wissenschaftlern D’Aleo und Watts liegt eine 111-seitige Studie[16] mit dem Titel "Aufzeichnungen der Oberflächen-Temperaturen : Politisch betrieben Täuschung?" vor.

Die Autoren schreiben in der Einführung, daß “ … jüngste Enthüllungen, die sich aus den ClimateGate-E-Mails der Klima-Forschungs-Abteilung der Universität von East Anglia ergeben, zeigen, wie sehr angesehene Daten-Zentren, wie NOAA und NASA, sich dazu verabredet haben, die weltweiten Temperaturaufzeichnungen zu manipulieren, um den Eindruck zu erwecken, dass die Temperaturen im 20. Jahrhundert schneller angestiegen seien, als sie es tatsächlich taten.“ Der hier zitierte Bericht stellt einige der alarmierenden

Entdeckungen zusammen, z.B.: "Temperaturmessungen der Vor-Satelliten-Zeit (1850-1980) wurden so weitgehend, systematisch und gleichgerichtet gefälscht, dass nicht glaubwürdig behauptet werden kann, es habe im 20. Jahrhundert eine deutliche globale Erwärmung gegeben." Die Manipulation wurde auf unterschiedliche Weise vorgenommen, beispielsweise bei der Berechnung der Durchschnittstemperatur einer Region durch das Weglassen der Daten von Stationen auf “kalten Standorten“ oder das unsachgemäße Einrichten von Stationen auf “warmen Standorten“. Beide Arten der Manipulation täuschen eine wärmere Temperatur vor. Von den ca. 6000 Stationen wurden ab den späten 1980er und in den frühen 1990er Jahren die Daten von ca. 4500 Stationen bei der Berechnung der Durchschnittstemperaturen nicht mehr berücksichtigt – sie wurden “ausgesondert“ (Abbildung 1). Aus der Studie geht allerdings im Detail nicht hervor, welche dieser Stationen still gelegt wurden, und welche weiter verfügbar waren, aber trotzdem nicht mehr berücksichtigt wurden.

 

Phil Jones: AGW möglicherweise ein Konstrukt !

Nach diesen erdrückenden Hinweisen, daß die von den US-Amerikanischen Instituten für das IPCC erstellten Temperatur-Meßreihen mit großer Wahrscheinlichkeit in Richtung Anthropogen Global Warming (AGW) manipuliert wurden, kann es kaum noch überraschen, daß dieses auch für die IPCC-Reihe der englischen Institute HADLEY und CRU/UEA gilt. Das gestand der zurückgetretene CRU-Chef Prof. Phil Jones zumindest im BBC-Interview am 13.02.10 dann auch ein[17]:>“… he said that for the past 15 years there has been no ‘statistically significant’ warming…” und weiter a.a.O. ”… Professor Jones also conceded the possibility that the world was warmer in medieval times than now – suggesting global warming may not be a man-made phenomenon….”

F a z i t : Die bisher vom IPCC verwendeten Temperatur-Reihen zum Beweis einer mensch-gemachten Erderwärmung sind manipuliert, diskreditiert und für eine AGW-Aussage unbrauchbar!

Bodenerosion + Mißernten in Afrika ?

Zu entsprechenden Behauptungen und Berichten des IPCC schreibt die Züricher Weltwoche[18]: “In der Zusammenfassung für politische Entscheidungsträgervon 2007 können die politischen Entscheidungsträger Folgendes lesen: Durch Klimaschwankungen und -änderungen werden für viele Länder und Regionen Afrikas schwerwiegende Beeinträchtigungen der landwirtschaftlichen Produktion – einschließlich des Zugangs zu Nahrungsmitteln – projiziert . . . In einigen Ländern könnten sich die Erträge aus der vom Regen abhängigen Landwirtschaft bis 2020 um bis zu 50 Prozent reduzieren“. Nun führt die Weltwoche im weiteren aus, wie erbärmlich und manipuliert die Quellen sind. Der marokkanische Beamte Ali Agoumi hat ein Exposè erstellt, aus einen Bericht der marokkanischen Regierung, in dem bis 2020 von einem erwarteten Rückgang der Getreideerträge um 50 Prozent in trockenen und 10 Prozent in normalen Jahren die Rede ist. Ein gleichzeitig von der algerischen Regierung veröffentlichter Bericht rechnet für 2020 jedoch nicht mit einem Rückgang, sondern mit einer Verdoppelung der landwirtschaftlichen Produktion, räumt jedoch ein, dass wegen der erwarteten Klimaerwärmung der Getreideertrag pro Hektar zwischen 5,5 und 6,8 Prozent weniger betragen könnte. Die Weltwoche deckt auf:

“Aus den drei Berichten pflückt Agoumi eine einzige besonders alarmierende Voraussage heraus – Rückgang der Getreideerträge um 50 Prozent in trockenen Jahren in Marokko. Die Leitautoren der IPCC-Zusammenfassung übernehmen diese Voraussage ungeprüft und machen aus einem Land (Marokko) einige Länder.“

 

Die Wüste lebt !

Genau so wenig, wie Nordafrika verdorrt, so wenig stimmen auch die IPCC- und Medien-Aussagen über eine angeblichen Wüsten-Ausdehnung (Desertifikation). Dazu berichtet das Magazin National Geographik[19] : “Wüstenausdehnung, Trockenheit und Verzweiflung, das ist es, was die Erderwärmung bereit hält für die meisten Teile von Afrika  –  zumindest ist es das, was wir hören. Die sichtbar werdenden Tatsachen zeichnen eine sehr viel differenziertes Bild  – eines, in welchem steigende Temperaturen eine Wohltat sein kann für Millionen von Afrikanern in den trockensten Gebieten des Kontinents … Wissenschaftler sehen jetzt Signale, daß die Sahara und die angrenzenden Regionen ergrünen aufgrund zunehmenden Regens.“

Zum gleichen Ergebnis kommt das ZDF-Magazin[20] “Abenteuer Wissen“ (Abbildung 3) : "… Die Sahara nämlich wird feuchter und damit grüner werden als sie heute ist. Beweise dafür liefert die Wüste selbst – mitten in Libyen". Daraus ergibt sich schon jetzt als Re­sul­tat[21] eine Aus­wei­tung der Grün­flä­che zu Las­ten der Wüs­te Sa­ha­ra. Diese schrumpfte in den letzten 20 Jahren um ca. 300.000 km2 , ein Gebiet fast so groß wie Deutschland (357.000 km2).

Noch weitreichender sind die positiven Veränderungen hinsichtlich eines Ergrünens im Süden der Sahara im afrikanischen Armenhaus SAHEL, wie der SPIEGEL berichtet[22]: “Ground Zero ergrünt: Dürren, Hunger, Wüstenbildung – die Sahelzone gilt als Inbegriff einer Katastrophenregion. Nun gibt es gute Nachrichten: Viele Millionen Bäume wachsen in kargem Sandboden heran…. Auch seriöse Organisationen behaupten immer wieder, dass sich die Sahara Jahr für Jahr weiter nach Süden frisst, aber das stimmt so nicht. Seit 20 Jahren kommen allein im Niger jedes Jahr etwa eine viertel Million Hektar Baumbestand dazu.“ Das sind etwa 5 Millionen Hektar in den 20 Jahren, und abgeschätzt für die gesamte SAHEL-Zone etwa 300.000 km2.

Falsche Meeres-Spiegel-Angaben bei IPCC

Das IPCC droht immer wieder mit spektakulären Anstiegen des Meeres-Spiegels, hat aber seine Prognosen für die nächsten 100 Jahre mehr und mehr an die Realität angepaßt[23]: Von im Mittel 180 cm im IPCC-Bericht 1990 auf im Mittel 38 cm im IPCC-Bericht 2007. Nun stellt sich heraus, daß selbst die bisher vom IPCC genannte Zahl des gemessenen globalen Anstieges des Meeresspiegels für das 20. Jahrhundert von 18 cm falsch ist, nämlich deutlich zu hoch: Eine Überprüfung[24] von 159 Pegeln ergibt nur rund 8 cm : “Abstract:? ?159 tide stations with long (avg. ~85 year) mean sea level (MSL) measurement records make up the GLOSS-LTT designated tide stations for monitoring sea level trends around the world. A spreadsheet containing the MSL trend data for those stations is available on the noaa.gov web site. I downloaded it and used the data to check the IPCC’s claim that sea levels rose 18 cm during the last century (a rate of 1.8 mm/year).? ?I averaged the tide station data several different ways and found that the IPCC’s claimed 1.8 mm/year rate of MSL rise exaggerates the actual, measured>rate of MSL rise by more than 50%.“ Die immer wieder behauptete Beschleunigung des Meeresspiegel-Anstieges aufgrund der etwa dreiviertel Grad Erderwärmung innerhalb der vergangenen 150 Jahren existiert offensichtlich nur in den Computern.

Holland unter Wasser ?

In dem Zusammenhang wurden nun beim IPCC auch völlig unsinnige Behauptungen und Fehler hinsichtlich einer Überflutung der Niederlande aufgedeckt[25]: “Im IPCC-Bericht heißt es: Die Niederlande sind das Beispiel dafür, daß das Land sowohl von der Steigung des Meeresspiegels als auch durch Überschwemmungen der Flüsse gefährdet ist, denn 55% des Landes liegen unter dem Meeresspiegel. Das ist aber völlig falsch…“.

Gegen diese unsinige IPCC-Behauptung wehren sich nun auch die Holländer[26] :

“The Netherlands has asked the UN ?climate change panel to explain an inaccurate claim in a landmark ?2007[27] report that more than half the country was below sea level, the ?Dutch government said Friday.?According to the Dutch authorities, only 26 percent of the ?country is below sea level …

Bangladesch contra IPCC

Seit Jahren hört man vom IPCC und seinen Instituten Horror-Prognosen zu überfluteten Küsten in aller Welt, insbesondere auch zu Bangladesch[28]:“…IPCC hat den Untergang von Bangladesch vorhergesagt, … den Verlust von 17% seiner Landmasse bis 2050 aufgrund des Meeresspiegel-Anstieges infolge der globalen Erwärmung““das Nobel-Preis-Träger-Gremium sagt, daß 20 Millionen Menschen in Bangladesch bis 2050 zu Umweltflüchtlingen werden, und daß das Land 30% seiner Nahrungsmittel-Produktion verlieren wird“, und weiter a.a.O.: “Der Direktor des NASA-Goddard-Instituts James Hansen zeichnet ein noch grauenhafteres Bild mit der Vorhersage, das ganze Land könnte bis zum Ende des Jahrhunderts unter Wasser stehen“. Die Reihe derartiger Zitate ließe sich hier beliebig fortsetzen  –  jedoch:  Die Realität sieht offensichtlich und glücklicherweise(!!) ganz anders aus, wie die hier zitierte und kürzlich in Dhaka vorgestellte Studie zeigt, mit der sich Bangladesch gegen das IPCC zur Wehr setzt (a.a.O.) :“Neue Daten zeigen, daß Bangladesch’s Landmasse zunimmt, im Gegensatz zu den Vorhersagen, daß diese südasiatische Nation bis Ende des Jahrhunderts unter den Wellen verschwindet, wie “Experten“ behaupten.“  Und weiter wird dort ausgeführt, daß Wissenschaftler des Instituts für Umwelt und Geographie Dhaka Satelliten-Daten der letzten 32 Jahre ausgewertet haben und sagen, daß Bangladesch’s Landmasse in dieser Zeit jährlich um 20 km2 zugenommen  hat, und daß seit 1973 rund 1000 km2 Land aus dem Meer entstanden sind. Dafür gibt es zwei Gründe:

(1) Die beiden großen Ströme Brahmaputra und Ganges transportieren ständig große Mengen Schwebestoffe stromabwärts, die sich im Delta ablagern,

(2) Die vom IPCC seit 15 Jahren prognostizierte Beschleunigung des Meeresspiegel-Anstiegs findet nicht statt, sondern der Anstieg verlangsamt sich weltweit (s.w.o.). Und so wird denn auch in Bangladesch umfassend “Entwarnung gegeben“ (a.a.O.):

"Seit mindestens 10 Jahren haben wir ’Experten’ sagen hören, Bangladesch wird unter Wasser sein, aber – völlig andersartig – zeigen unsere Daten nichts dergleichen“ … "einen natürlichen Landzuwachs hat es im Bereich des hiesigen Mündungsbeckens seit Hunderten von Jahren gegeben, und alle unsere Modelle zeigen, daß es für Jahrzehnte und Jahrhunderte so weiter geht“.

Man kann nur hoffen, daß der in Bangladesch Raum greifende Realitätssinn gegenüber dem vom IPCC geschürten Klima-Katastrophismus recht bald auch in Europa angelangt.

Arten-Sterben durch Klima: ein IPCC-Konstrukt

Und weiter gehen die IPCC-Flops, denn die Presse[29] berichtet :“Erneut irrt der vermeintlich unfehlbare Weltklimarat. Entgegen seinen Schreckensszenarien für die Tier- und Pflanzenwelt kommen immer mehr Wissenschaftler zu anderen Ergebnissen. Die Anpassungsfähigkeit der Natur scheint größer als vermutet. Klimapolitiker wollen davon aber nichts wissen“

“Im vierten und jüngsten Sachstandsbericht des IPCC aus dem Jahr 2007, der die Grundlage der Konferenz in Kopenhagen bildete, wird vorausgesagt, dass durch globale Erwärmung ein Fünftel der Tier- und Pflanzenarten weltweit verschwinden könnte“. Die Berliner Morgenpost berichtet nun weiter über eine Studie britischer Ökologen über drei Vogelarten, die nach der Roten Liste der Weltnaturschutzunion (IUCN, 2008) als wahrscheinlich in den vorangegangenen 10 Jahren ausgestorben geführt wurden:>’Die Indizien für klimatische Ursachen des Aussterbens wurden übertrieben’.

Und weiter a.a.O.: “Dass wärmere Temperaturen zu einem Rückgang der Artenvielfalt führten, sei keine plausible Prognose, findet auch der Ökologe Prof. Josef Reichholf von der Zoologischen Staatssammlung München. Artenverluste in beträchtlichem Umfang haben die Kaltzeiten gebracht – nicht die Warmzeiten“.

Und weiter berichtet die Berliner Morgenpost über einen CO2-Langzeitversuch des Bundesforschungsinstituts für Ländliche Räume in Braunschweig “Das Gegenteil eines Katastrophenszenarios für die Landwirtschaft ergibt sich … : Bei einem CO2-Gehalt, der den Voraussagen für das Jahr 2050 entspricht, wuchsen die Ackerpflanzen besser und benötigten deutlich weniger Wasser.“ 

CowGate: Fleischessen als Klima-Killer?

Der Begriff  "CowGate" wurde von "The Washington Times" am 23. März 2010 geprägt[30],

anlässlich der Veröffentlichung eines Forschungsberichts zur Frage der Treibhausgas-Emissionen durch die Tierhaltung, erstellt von Dr. Frank Mitlöhner von der University of California. Mitlöhner entlastete durch seine Studie die Tierhaltung, die durch den FAO-Bericht aus dem Jahre 2006 mit dem Titel[31] ‚Livestock’s Long Shadow‘ und durch den jahrelangen weltweiten Medienrummel um diesen Bericht als Urheber erheblicher Umweltverschmutzung und vor allen Dingen als Quelle von weltweit 18% der anthropogenen Treibhausgasemissionen sehr in Misskredit geraten war (Schlagwort Meat = Heat). So lautete eine FAO-Behauptung, daß die THG-Emissionen der Tierhaltung diejenigen des Transportsektors überstiegen.

Mitlöhner rechnete nun mit diesem FAO-Bericht ab: "Weniger Fleisch- und Milchproduktion würde nur den Hunger in armen Ländern fördern. Die Tierhaltung für die globale Erwärmung verantwortlich zu machen, ist wissenschaftlich nicht haltbar, und nur eine Ablenkung von wichtigeren Dingen". Die Treibhausgasemissionen aus der Tierhaltung in den USA, deren Fleisch- und Milchproduktion übrigens den Eigenbedarf übersteigt, machten nur 3%, diejenigen aus dem Transportsektor aber 26% aus. Der Begriff Cowgate wurde inzwischen von verschiedenen internationalen Zeitungen und Zeitschriften aufgegriffen.

Hockey-Stick: Uraltlast des IPCC

Daß beim Weltklimarat IPCC im Sinne eines zu vermittelnden “Anthropogen Global Warming“ (AGW) schon lange vor ClimateGate manipuliert wurde, dafür gab es schon früher Anhaltspunkte. Von Michael Mann wurde um das Jahr 2000 eine Temperatur-Kurve konstruiert, die offensichtlich verbergen sollte, daß es im Mittelalter über ca. zwei Jahrhunderte deutlich wärmer war als heute[32]> –  ohne anthropogenes CO2 !

 

Diesen ersten großen IPCC-Skandal beschreibt der Delfter Geologie-Professor Salomon Kronenberg[33] wie folgt: “Ein Teil der alarmierenden Vorstellung geht auf die Rechnung des IPCC, insbesondere auf den hohen Stellenwert, den die Hockeystick-Kurve im TAR von 2001 bekommen hat. Diese Kurve suggeriert, die globale Durchschnittstemperatur sei in den letzten Tausend Jahren nahezu konstant geblieben und erst mit Beginn des Industrie-Zeitalters angestiegen. Keine Mittelalterliche Warmzeit, keine kleine Eiszeit lässt sich aus dieser Kurve ablesen. Es liegt auf der Hand, daß man dann denkt: Wenn wir kein Kohlendioxid mehr ausstoßen, kehrt das Klima von alleine wieder zu seinem früheren Zustand zurück. Sechs Jahre lang war die Kurve der am meisten umstrittene Bestandteil des Berichtes, und sechs Jahre lang hat sich das IPCC daran festgeklammert. Tausende von Klimawissenschaftlern des IPCC konnten sich nicht irren.“ Kronenberg beschreibt nun n seinem Buch  den Fortgang der Geschichte: Im  vierten IPCC-Bericht (2007) ist die Kurve lautlos verschwunden. Nur noch einen “einen verschämten Hinweis“ findet man, daß einige neue Untersuchungen auf eine größere Variabilität des säkularen Temperaturganges der Nordhalbkugel hinweisen. Kronenberg weiter: “Das IPCC hat die Kleine Eiszeit entdeckt! Was Tausende von Nicht-IPCC-Wissenschaftlern schon wußten, das ist nun auch zu den Klimatologen durchgedrungen. … Inzwischen haben die kanadischen Outsider Stephen McIntyre und Ross McKitrick die Daten Manns kritisch durchgerechnet. Sie kommen zu einer ganz anderen Kurve, in der die mittelalterliche Warmzeit sogar wärmer ist als das 20. Jahrhundert. Sie weisen nach, daß Mann bewusst Werte, die dem Hockeystick-Modell widersprachen, aus seinem Datenbestand heraus gelassen und unerlaubte statistische Prozeduren angewandt hat, um das gewünschte Ergebnis zu erhalten.“ Übrigens: Der Hockey-Kurven-Erfinder Michael Mann ist von der Liste der IPCC-Autoren verschwunden!

Nobelpreis-Juror: Distanzierung vom IPCC

Es mehren sich die Zweifel an der Entscheidung, daß IPCC und AlGore den Friedensnobelpreis zuerkannt bekamen. Dazu berichtete die Süddeutsche Zeitung[34] :

Ein führender Juror für wissenschaftliche Nobelpreise hat sich vom Weltklimarat IPCC distanziert. Der Chef der Königlich-Schwedischen Wissenschaftsakademie, Gunnar Öquist, sagte am Dienstag in der Zeitung Svenska Dagbladet : Die Vereinten Nationen müssen jetzt die Arbeit des Klimarates unter die Lupe nehmen und Konsequenzen ziehen.“ Öquist erläuterte seine Entscheidung damit, daß zunehmend fehlerhafte Prognosen des IPCC über den Klimawandel bekannt geworden seien. Er übte auch Kritik an übereilten Schlußfolgerungen des IPCC, sowie an dessen Verwendung unwissenschaftlicher Quellen.

IPCC und UN : Die Reihen lichten sich

Schon wenige Tage nach dem Beginn des ClimateGate-Skandals war der Chef des IPCC-nahen Klima-Institus der Universität von Ost-England, Prof. Phil Jones, zurück getreten (s.w.o.). Am 18. Februar 2010 trat dann der Chef des UN-Klima-Büros, Yvo de Boer, zurück[35]:“Der oberste Klimaschützer der Vereinten Nationen ist nach dem gescheiterten Klimagipfel in Kopenhagen vor zwei Monaten tief frustriert. Gestern warf er das Handtuch. …. Kopenhagen war eine Katastrophe“.

Diese Einschätzung muß man nicht teilen. Bedenkt man, welche Belastungen aufgrund offensichtlich unzureichender Modelle und falscher Schlußfolgerungen des IPCC sich z.B. mit dem CO2-Ablaßhandel schon jetzt für Bürger und Volkswirtschaften ergeben, so kann sich Kopenhagen im Nachhinein als Glücksfall erweisen, weil zunächst weitere Abgaben und Steuern vermieden werden, weltweit!

Auch die Forderungen nach dem Rücktritt des IPCC-Chefs Rajendra Pachauri schwellen international an wie eine Flut, und selbst in Deutschland ist zu lesen[36]: “Der Ökonom (Anm.: Pachauri) ist zur Belastung geworden. Er steht im Verdacht, wissenschaftliche, politische und geschäftliche Interessen unzulässig zu vermischen. So hat Pachauris Institut Teri mit Sitz in Indien an der falschen Gletschervorhersage gut verdient und beträchtliche Forschungsgelder der EU kassiert“ …und weiter a.a.O.: “… Pachauri ist nicht der einzige, der Spekulation zur Wahrheit aufmotzt, um politischen Druck für die gute Sache zu erzeugen. Im Weltklimarat macht sich seit Jahren die unselige Tendenz breit, den mensch-gemachten Klimawandel zum Dogma zu erheben. Wer die beherrschende Lehre vom nahenden Weltuntergang hinterfragt, wird als Leugner abgestempelt. Offenheit für Querdenker sucht man vergeblich. Es ist an der Zeit für einen Neuanfang. Der Weltklimarat braucht dringend einen Klimawandel, wenn Forschung nicht zum Religionsersatz verkommen soll.“

Und selbst ehemalige Weggefährten setzen sich ab[37]: “Der Uno-Klimarat ist wegen falscher Prognosen heftig in die Kritik geraten. Damit gefährde er die Glaubwürdigkeit der gesamten Klimawissenschaft, warnen die Forscher Richard Tol, Roger Pielke und Hans von Storch. Sie verlangen eine Reform des Gremiums – und den Rücktritt seines Chefs Pachauri“.

Allerdings  – es wirkt jetzt schon etwas grotesk, daß ausgerechnet auch der Potsdamer Professor Schellnhuber, im jahrelangen engen Schulterschluß mit IPCC und Pachauri einer der weltweit exzessivsten Katastrophen-Verkünder, nun dessen Rücktritt fordert[38]:“… im Interesse des IPCC und seiner eigenen Person sollte er nun den Vorsitz abgeben“. Im Schachspiel nennt man das ein “Bauern-Opfer“, um den “König“ zu retten. Genau so seltsam ist es, daß dieser PIK-Professor nun plötzlich auch das Auswahl-Verfahren des IPCC kritisiert (a.a.O.): “Aber mit diesem Verfahren kommen nicht immer die besten Forscher zum Einsatz.“ Schließlich: Kaum jemand hat sich jahrelang mit weitreichenden Beeinflussungs-Versuchen so stark in die Politik eingemischt wie Herr Schellnhuber. Ausgerechnet der fordert nun (a.a.O.): “Die Politik muß sich aus der Klimaforschung raushalten“.   

Wer nun weiterhin Pachauri folgt, gerät in Bedrängnis. Das weiß auch die BILD-Zeitung[39]: “Zwar sind Hunderte von Wetterforschern und Meteorologen der Ansicht, daß Pachauris Theorie zweifelhaft sei. Aber ihre Erkenntnisse sind zerplittert und haben einstweilen keine Chance, sich gegen den mächtigen Weltklimarat durchzusetzen. Eines der Kabinette, das dem Inder Rajendra Pachauri in dessen Feldzug gegen CO2 ergeben folgt, ist die Bundesregierung der Kanzlerin Angela Merkel. Was sie sich davon verspricht, ist nicht erkennbar.“

Demgegenüber hat es in England, Australien und vor allem in den USA bezüglich der AGW-Hypothese innerhalb eines Jahres einen einschneidende Sinnes-Wandel gegeben[40]: “In der amerikanischen Klimadebatte haben die Skeptiker die Diskurshoheit erobert. … auch in Politik und Wirtschaft hat es seit etwa Herbst 2008 einen Paradigmenwechsel gegeben.“

Erster IPCC-Austritt : Indien !

Ausgerechnet das Land, das seit Jahren den IPCC-Vorsitzenden stellt, ist ausgetreten aus diesem Weltklimarat. Das beleuchtet auch, wie schlecht das Ansehen von Pachauri im eigenen Land ist[41]:

 “Über Jahre galten seine Wissenschaftler als das Klimagewissen der Weltgemeinschaft – doch nun steckt der Weltklimarat in einer schweren Krise. Die Glaubwürdigkeit des Gremiums ist so weit beschädigt, daß Indien die Konsequenzen zieht, und sich aus dem IPCC zurückzieht“. Dazu sagte der indische Umweltminister Ramesh dem Sender Times Now, daß man sich nicht auf den IPCC verlassen könne. Es gäbe eine klare Grenze zwischen Klima-Wissenschaft und Klima-Missionierung.

Im gleichen Zusammenhang mit dem IPCC  spricht der Leiter des Instituts für Küstenforschung am GKSS in Hamburg-Geesthach, Prof. Hans von Storch (a.a.O.) , von einem “Kartell der Alarmisten“.

Die Inder sind raus, sind die Chinesen die nächsten ?

Die ZEIT[42] berichtet, daß die deutsche Industrie nach dem gescheiterten Gipfel von Kopenhagen derzeit von der Regierung eine Pause beim Klimaschutz fordert. Außerdem wird a.a.O. berichtet, daß der Chefunterhändler der chinesischen Regierung bei der UNO Mitte Januar den menschlichen Beitrag zum Klimawandel plötzlich infrage stellte. Das zeigt erneut, wie schon auf dem Klima-Gipfel in Kopenhagen, daß es Länder wie Indien und China gibt, wo die wissenschaftlichen Regierungsberater eine ganz andere Meinung zum Klimawandel haben, als z.B. in Deutschland.  Und  Die ZEIT berichtet weiter a.a.O., daß in den USA sich wohl bald die Bundesumweltbehörde EPA vor Gericht fragen lassen muß, wie solide die wissenschaftliche Einschätzung sei, auf deren Basis sie CO2 zum “Luftschadstoff“ erklärt hat.

IPCC: Klimaschutz-Kosten klein gerechnet

“Jetzt übt ein renommierter Wirtschaftsforscher Kritik an dem Gremium – es soll die Kosten des Klimaschutzes absichtlich klein gerechnet haben“, schreibt der SPIEGEL[43].

Dort ist weiter zu lesen, daß der renommierte niederländische Wirtschaftsforscher Prof. Richard Tol den PIK-Forscher Ottmar Edenhofer in dieser Sache frontal angreift: “Während Edenhofer die Arbeit seiner Kollegen, etwa jene zu den Himalaja-Gletschern, als schlampig bezeichnet, müsse er sich genau diesen Vorwurf selber gefallen lassen … Sie alle bewerten viel zu optimistisch, wie teuer die Klimapolitik in der Zukunft sein wird“. Der Niederländer Tol erhebt schwere Vorwürfe gegen das IPCC, indem er von bewußter Verfälschung des Wissensstandes und der Verfolgung einer poltischen IPCC-Agenda spricht. Und weiter recherchierte der  SPIEGEL: “Unterstützung bekommt Tol von seinem Kieler Kollegen Till Requate, der ihm in den meisten Punkten Recht gibt. Den Ökonomie-Professor stört schon seit langem die einseitige Darstellung der Arbeitsgruppe drei des Weltklimarats, etwa dabei, wie die Kosten der Vermeidung von CO2-Emissionen unterschätzt würden.“ Offensichtlich soll Politikern und Bürgern vom IPCC suggeriert werden, daß die Kosten für den Klimaschutz gering und damit die Lasten für die Bürger erträglich seien.

Fazit:

Jeder einzelne IPCC-Flop für sich genommen mag vielleicht als Flüchtigkeits-Fehler vernachlässigbar und unwesentlich erscheinen, aber die Summe der Schlampereien, Irrtümer und Manipulationen sind ein Skandal und eine Schande für die Naturwissenschaften.

Bedenkt man die weitreichenden Schlußfolgerungen, die auf der Basis einer Fülle von IPCC-Fehleinschätzungen schon jetzt für Wirtschaft und Bürger getroffen wurden, so kann nur ein Rücktritt aller Verantwortlichen und ein völliger Neuanfang die Konsequenz sein.  So schreibt die angesehene Wirtschafts-Zeitschrift CAPITAL[44]:

“Barak Obama in den USA hat inzwischen ganz andere Sorgen. Der Traum von einem möglichst globalen Emissionshandel ist ausgeträumt. … Die wissenschaftlichen Berater sind beschädigt, auf den ClimateGate-Skandal folgte jüngst noch eine Serie von Enthüllungen peinlicher Fehler im Bericht des Weltklimarates. Im Zweifel für den Alarmismus, war dort offenbar die Faustregel. Es gibt Gründe genug, jetzt neu und illusionslos nachzudenken. Und in vielen Ländern geschieht dies auch. Nur die Europäer scheinen fest entschlossen, mit demselben alten Gaul in ihre nächste heroische Niederlage zu traben. Don Quijote rides again!

Klaus Puls.

Der Artikel erschien zuerst im Magazin Laufpass unter www.laufpass.com

Die pdf version dieses Artikels finden Sie im Anhang


[1] FAZ, 24.03.2010, Weitere Kommission in “Climatgate“-Affäre

[2] http://www.pt-magazin.de/newsartikel/datum/2010/01/11/climategate/

[3] http://www.spiegel.de/wissenschaft/natur/0,1518,662673,00.html ; 22.11.2009

[4] BENNY PEISER: Kopenhagen und der Niedergang der grünen Utopie, Weltwoche Zürich, 52/2009, S.12-13

[5] FAZ, 12.02.10, Eine Ungewisse Welt, Klimaimperative und Klimakonjunktive, Eine Schadensbesichtigung nach Kopenhagen

[6] IPCC, 2007, WGr.II, Kap.10.6.2, S.493

[7] http://www.spiegel.de/wissenschaft/natur/0,1518,672709,00.html , 19.01.2010

[8] DIE ZEIT, 28.01.2010, S.33, Sp.5

[9] http://de.news.yahoo.com/2/20100131/r_t_afp_pl_other/tpl-weltklimarat-stuetzte-sich-fuer-beri-ee974b3_1.html?printer=1

[10] Sunday Times, 23.01.10; 

[11] FASZ, 24.01.10, S.5

[12] DIE ZEIT, 04.03.2010, S.29

[13] Viel Wind um Nichts, LAUFPASS 21/2009, S.12-15

[14] http://blogs.telegraph.co.uk/news/jamesdelingpole/100023598/after-climategate-pachaurigate-and-glaciergate-amazongate/ , 25.01.2010

[15] http://news.eirna.com/302034/amazongate-und-gletscher-skandal-glaubwuerdigkeit-des-weltklimarats-schmilzt-dahin

[16] Joseph D’Aleo und Anthony Watts: Surface Temperature Records: Policy driven Deception? 111 Seiten in:

Science and Public Policy Institute (SPPI Original Paper), 26.Januar 2010

[17]  (1)>http://www.dailymail.co.uk/news/article-1250872/Climategate-U-turn-Astonishment-scientist-centre-global-warming-email-row-admits-data-organised.html#>

     (2) http://news.bbc.co.uk/2/hi/science/nature/8511670.stm

[18] WELT-WOCHE 10.02.2010, 6/2010; H.BORN: Klima – Mängel, Behauptungen, Schlampereien;

http://www.weltwoche.ch/ausgaben/2010-06/artikel-2010-06-klima-maengel-behauptungen-schlampereien.html

[19] Sahara Desert Greening Due to Climate Change?

http://news.nationalgeographic.com/news/2009/07/090731-green-sahara.html

[20] http://www.zdf.de/ZDFde/inhalt/1/0,1872,1020545_idDispatch:5236912,00.html

[21] Argus, 06.02.2007, http://www.oekologismus.de/?p=452#more-452

[22] SPIEGEL, 17/2009, S.136

[23] Anthropogener Mersspiegelanstieg – vom Konstrukt zur Panik? Nat.Rdsch. H.11/2008, S.566-574

[24] http://www.burtonsys.com/global_msl_trend_analysis.html ; Analysis of global linear mean sea level (MSL) trends,?including distance-weighted averaging

[25] HAZ, 08.02.10, “Weitere grobe Fehler entdeckt“

[26] AFP, Feb 5, 2010, THE HAGUE

[27] IPCC-Rep., 2007, Ch. 12.2.3

[28] Bangladesh gaining land, not losing: scientists; by Shafiq Alam Wed Jul 30, 9:41 AM ET DHAKA (AFP);

http://news.yahoo.com/s/afp/20080730/sc_afp/bangladeshenvironmentunclimatewarming_080730134111;_ylt=Ai1fEIqHFVyfguECUfbGjKvPOrgF

 

[29] Berliner Morgenpost, 09.03.2010: SCHRECKENS-SZENARIEN: Der Klimawandel ist Tieren und Pflanzen schnuppe, http://www.morgenpost.de/web-wissen/article1271000/Der-Klimawandel-ist-Tieren-und-Pflanzen-schnuppe.html

[30] http://www.washingtontimes.com:80/news/2010/mar/23/meat-dairy-diet-not-tied-to-global-warming/

[31] http://www.fao.org/docrep/010/a0701e/a0701e00.HTM 

[32] American Thinker, Dec 11, 2009: http://www.americanthinker.com/2009/12/understanding_climategates_hid.html#

[33] Prof. Dr. J. KRONENBERG (TU Delft), Der lange Zyklus, Primus-Verlag, Darmstadt, 2008, S.229-230

 

[34] SZ, 17.02.2010, S.8, Kritik am Weltklimarat

[35] HAZ, 19.02.2010, S.4

[36] HAZ, 06.02.10, “Krise der Klimaforschung“

[37] http://www.spiegel.de/wissenschaft/natur/0,1518,673765,00.html#ref=top , 25.01.2010

[38] Südd.Zeitg. 13./14.02.2010, WISSEN

[39] BILD, 6.3.10, Claus Jacobi, mein Tagebuch

[40] FAZ, 13.03.2010, M. Rüb: Immer weniger Amerikaner glauben an die vom Menschen gemachte Erderwärmung

[41] HAZ, 06.02.10, “Der Weltklimarat in der Krise“

[42] DIE ZEIT, 28.01.2010, S.33, Sp.1

[43] http://www.spiegel.de/wissenschaft/natur/0,1518,686205,00.html, 30.03.2010

[44] CAPITAL, 03/2010, S.55

Related Files




Oxburgh Kommission: Warum Lord Oxburgh das Angebot, die Untersuchungen zum Verhalten der CRU zu leiten, nicht ausschlagen konnte

 

Zunächst etwas zum Hintergrund:

  1. Die von der CRU publizierten wissenschaftlichen Erkenntnisse sind eine wesentliche Grundlage für Entscheidungen der EU und der britischen Regierung, die Anlagen zur Erzeugung „grüner Energien” mit großen Beträgen zu subventionieren.
  2. Die Subventionen der „Erneuerbaren Energien” haben allein im Jahr 2008 insgesamt 50 Milliarden US-Dollar betragen (externer Link Quelle).
  3. Das Organisierte Verbrechen hat bereits damit begonnen, sich einen Teil der Subventionen zu sichern, deren Verwendung offenbar nicht gut genug gegen Missbrauch geschützt ist (Beispiel aus Spanien).
  4. Die Veröffentlichung der Klimagate-E-Mails hat beträchtlichen Schaden bei den Aktienkursen von Firmen verursacht, die sich mit „Erneuerbaren Energien” beschäftigen, besonders nach dem Scheitern von Kopenhagen, einem kalten Winter und den aufgedeckten Betrügereien mit Emissionszertifikaten.
  5. Die University of East Anglia hat eine eigene Kommission zur Untersuchung der Praktiken ihres Forschungsinstituts [CRU] eingesetzt und Lord Oxburgh gebeten, diese Kommission zu leiten.
  6. Lord Oxburgh ist gleichzeitig Vorstandvorsitzender von Falck Renewables, einem Hersteller von Windfarmen und zugleich britische Tochterfirma der  Falck Group, einem Hersteller mit Sitz in Mailand.
  7. Eine Schwesterfirma von Oxburghs Falck Renewables, Actelios, ist börsennotiert und hat nach ClimateGate usw. bedeutende Kursverluste erlitten.
  8. Lord Oxburghs Firma, deren Konzernmutter und mehr als eine Schwesterfirma übten  im Umfeld desErwerbs von Eigentum und bei der Errichtung von grünen Energiesystemen Aktivitäten des Organisierten Verbrechens aus.
  9. Die grüne Energie-Industrie, Oxburghs Firma, Investoren aus dem Organisierten Verbrechen, Falck Renewables, deren Konzernmutter und Schwesterfirmen konnten nur von einer Untersuchung profitieren, deren Befunde die „wissenschaftlichen Ergebnisse” der CRU nicht in Frage stellen würde.
  10. Der Oxburgh-Bericht war oberflächlich und umfaßte gerade einmal 5 Seiten. Die Kommission befragte niemanden von ausserhalb der Universität. Sie untersuchte 11 Papiere, die nicht Gegenstand der ClimateGate-Kontroverse waren. Diese Papiere waren entweder von der Universität oder von der Royal Society ausgewählt worden, deren Mitglied der CRU-Direktor Phil Jones ist.

Kann man glauben, dass der „Mob” die Untersuchung geleitet hat? Sicher nicht. Kann man glauben, dass Lord Oxburgh zusätzliche Gründe hatte, die Ergebnisse seiner Untersuchung zugunsten des Status Quo zu bewerten? Das ist gut möglich. Kann man meinen, dass Unterwelt-Verbindungen zu den Fördermitteln für Erneuerbare Energien fast jeder Entscheidung über diese Energien abträglich ist? Definitiv Ja. Kann man glauben, dass die Universität von East Anglia die falsche Person mit dem Vorsitz der Untersuchung beauftragt hat? Ganz bestimmt Ja.

Als man Lord Oxburgh den Vorsitz der Untersuchungskommission anbot, welche die wissenschaftlichen Praktiken der CRU, wo die Klimagate-Emails herkamen, beleuchten sollte, fragten sich viele, ob er überhaupt objektiv sein konnte. Und zwar hauptsächlich deswegen, weil er einer Firma vorstand, die Windparks im UK und in Europa baute. Vielleicht gab es auch noch andere Gründe, seine Objektivität in Frage zu stellen. Nach dem Klimagate-Skandal, dem Scheitern des Kopenhagener Klimagipfels und einem sehr kalten Winter in Europa und den USA, hat die Schwesterfirma von Falck Renewables, die öffentlich notierte Actelios, die Hälfte ihres Wertes verloren. Für Lord Oxburgh stand möglicherweise viel auf dem Spiel und er könnte das von seinem Gremium gefällte Urteil gut gebraucht haben..

Aber da könnte noch viel mehr sein. Genau wie im späten 19. Jahrhundert, als es viele Betrügereien und kriminelle Machenschaften bei der Entwicklung der Ölindustrie gegeben hatte, kommt es jetzt in großem Rahmen zu organisierter Kriminalität bei der Entwicklung der Erneuerbaren Energien. Entweder kann man den von der Mafia neu gefundenen Sinn für die Ökologie loben oder das laxe Herumwerfen mit Subventionen seitens der Regierung zur Kenntnis nehmen.

Lord Oxburgh ist der Vorsitzende von Falck Renewables, einem Hersteller von Windparks, dessen Mutterfirma die in Schwierigkeiten geratene Falck-Gruppe in Mailand, Italien ist. Die Projekte von Falck Renewables scheinen einem Muster zu folgen:

Ihr Projekt in La Muela, Spanien, war verstrickt in die Festnahme von 18 Personen, die im Verdacht der organisierten Kriminalität standen (was associated with the arrest of 18 people on organised crime issues ).

Mächtige Windturbinen rührten in der Luft über La Muela während der vergangenen Woche, aber der  echte Aufruhr entstand durch die Verhaftung des Bürgermeisters der kleinen aragonesischen Stadt sowie 18 anderer Personen wegen desVerdachts eines neuen spanischen Phänomens: Öko-Korruption.“

Ebenso beim Falck – Windpark in Buddosò – Alà di Sardi: „vier Personen verhaftet (Four people arrested,), Beschlagnahmen in sieben Windparks und 12 Firmen, das ist das Ergebnis der Operation ‚Vom Winde Verweht’ (gone with the wind), für die der Gerichtshof von Avellino Haftbefehle ausgeschrieben hat: für Oreste Vigorito, 62, Rechtsanwalt in Neapel, Präsident und Direktor vom Fußballclub IVPC Benevento Calcio; Vito Nicastro, 52, aus Alcamo, Ferdinand Renzulli, 42, aus Avellino und Vincent Dongorra, 46, aus Enna. Gegen weitere 11 Personen wurde in verschiedenen Fällen der Verantwortlichkeit wegen organisierten Betrugs ermittelt, mit dem man sich Zuwendungen der öffentlichen Hand zum Bau von Windparks erschleichen wollte. Neun der unter Verdacht stehenden Firmen befinden sich in Avellino, die restlichen in Sizilien.“

In Bezug auf Falcks Windpark in Minervino Murge habe wir am Freitag berichtet, dass der Anti-Mafia-Staatsanwalt in Trapani die Operation „Eolus“ gestartet hat. Dabei wurden 8 Haftbefehle erlassen gegen Personen mit Beziehungen zu lokalen „Familien“, Verwaltungsbeamten, städtischen Funktionsträgern und Unternehmern: wegen Begünstigung der mafiosen Vereinigung „La Cosa Nostra“, im Besonderen weil sie der mafiosen Familie von Mazara del Vallo die Befugnis übertragen hatten, wirtschaftlichen Aktivitäten zu steuern, Genehmigungen zu erteilen, Verträge und öffentliche Dienstleistungen bei der Herstellung von elektrischer Windenergie zu kontrollieren, wie auch wegen politisch-mafiosen Stimmenmissbrauchs.

Die Identifikation von Personen und Firmen bei der sizilianischen gerichtlichen Untersuchung enthüllte verstörende Verbindungen zur Herstellung von Windparks in Apulien: zu den Gemeinden Minervino Murge, Spinazzola und Poggiorsini, auf deren Gebiet einige Firmen Interesse bekundet haben und bereits in einigen Fällen mit Installationen ohne die erforderlichen Konzessione begonnen haben.

In Bezug auf den Windpark “Petralia Sottana” nahe Palermo: was haben Puglia, Sizilien, Mazara del Vallo-minervino Murge (Puglia, Sicily, Mazara del Vallo-Minervino Murge ) gemeinsam? Nichts außer dem Interesse an Windenergie. Firmen, die sich dafür interessieren, Windturbinen in Apulien zu errichten, sind mit ähnlichen Windparks in Sizilien verbunden, den gleichen, die in die Untersuchungen unter der Bezeichnung „Aeolus“ des hoch motivierten Mafia-Anklägers in Trapani verwickelt sind.

Die Subventionen Italiens und der EU für die Errichtung von Windparks und der welthöchsten garantierten Einspeisevergütung in Höhe von €ct 180 ($ct 240, p 160*) pro Kwh für den so gewonnenen Strom haben Süditalien in einen sehr attraktiven Markt verwandelt, der durch die organisierte Kriminalität ausgebeutet wird.

In der „Financial Times“ hieß es dazu 2009: „Multinationale Konzerne fangen an, etwas zu entdecken, das italienischen Investoren bereits bestens bekannt ist: dass nämlich unter dem freigiebigen  europäischen System der Förderungen – unterstützt durch Verschmutzungszertifikate (green credits), die industrielle Luftverschmutzer kaufen müssen – ein Netz von Korruption und dunkler Geschäfte existiert.

Rossana Interlandi, die kürzlich ernannte Vorsitzende des sizilianischen Umweltamtes, erklärt, dass die Projektentwickler – sie nennt diese ‚Spekulanten’ – ebenfalls durch ein Gesetz geködert wurden, die den italienischen Netzbetreiber verpflichtet, Zuwendungen an Windparkbetreiber selbst dann zu zahlen, wenn diese gar keinen Strom produzieren.

Die Anzahl italienischer Städte mit einem Windpark in der Nähe hat sich innerhalb eines Jahres dank der Zuwendungen der EU verdoppelt. Es wäre sehr erstaunlich, wenn die Mafia dabei nicht die Finger im Spiel hätte.

Die Lage in Italien verschlechterte sich mittlerweile bis zu einem Punkt, dass man auf Solarinstallationen von Anwohnern setzt, nur um den Einfluss der Mafia so gering wie möglich zu halten.

Windenergie ist inzwischen zu einer großen Industrie geworden, die weiter rasant wächst. Eine Menge dunkler Gestalten wird davon magisch angezogen, größtenteils wegen der öffentlichen Zuwendung sowohl für die Errichtung als auch die Vergütung des erzeugten grünen Stromes.

Der Mutterkonzern von Oxburgh’s Falck Renewables ist die Falck-Gruppe in Mailand. Wie in so vielen italienischen Geschäftsbereichen gibt es auch hier ein kompliziertes Wirrwarr von Querverbindungen und Überkreuz- Beteiligungen, dass es fast unmöglich ist, dieses System zu entschlüsseln. Immerhin war Falck’s Schwesterkonzern Actelios Gegen­stand einer Anti-Mafia-Untersuchung, wie in der letzten Woche berichtet.

Niemand von Falck Renewables oder der Muttergesellschaft wurde bisher verhaftet, obwohl Achille Colombo, der frühere Chef, von seinem Posten zurückgetreten ist und Berichte über neue, inzwischen abgesagte fragwürdige Geschäfte mit dem Betreiber einer sizilianischen Müllverbrennungsfirma bekannt wurden. Dieser Handel, der abgesagt wurde und immer noch untersucht wird, hatte einen Wert von etwa € 4 Milliarden. Die Falck-Gruppe ist eine in Mailand ansässige Firma, die Windparks in Kalabrien und Sizilien errichtet hat und gegen die wegen Verstrickungen mit der Mafia ermittelt wird. Einige dieser Windparks, einschließlich einer in der Nähe von Corleone, wurden schon vor einiger Zeit fertig gestellt, aber bis heute noch nicht an das Netz angeschlossen. Trotzdem flossen die EU-Subventionen sehr großzügig.

Falck’s Schwesterfirma Platani Energia Ambiente war ebenfalls Gegenstand von Anti-Mafia-Ermittlungen, und zwar in Bezug auf einen umstrittenen Grundstückshandel von 2002 bis 2007. Dies führte dazu, dass der Chefunterhändler, Gioacchino Genchi, gefeuert wurde.

Das Letzte, was diese Leute brauchten, waren Meldungen, dass die Windenergie für das Überleben des Planeten gar nicht von Belang wäre. Ebenso unwillkommen wären Meldungen, dass die Botschaft von der gegenwärtigen Erwärmung der Erde beispiellos in den letzten 1000 Jahren, wie von der CRU in die Welt hinein posaunt, möglicherweise gar nicht stimmte. Die Rezession hat die Börsennotierungen grüner Technologie schwer heruntergezogen. Das Scheitern des Kopenhagener Klimagipfels, der Kollaps des Handels mit CO2-Zertifikaten sowie zahlreiche Skandale waren auch nicht gerade hilfreich.

Eine Schnelluntersuchung durch ein Komitee, welchem eines der Ziele diente, und die sich auf internationale Interviews und ausgewählte Papiere (wie es scheint) konzentrierte, und die bezeichnenderweise keines der Papiere der Skeptiker begutachtete, ließ die CRU als duftende, aber etwas desorganisierte, dennoch engagierte’ Rose erscheinen.

Die Reaktion sowohl in den Hauptmedien sowie von den Regierungen auf den Oxburgh – Berichtes zeigen, dass deren Ergebnisse mehr als willkommen waren – sie könnten sogar notwendig gewesen sein, um die massive Umstellung hin zu grüner Energie weiter zu beflügeln.

Ich wiederhole hier, dass ich keine Beweise habe, dass Oxburgh oder seine Firma irgendwie mit der Mafia zusammen hängt. Aber nicht einmal seriöse Firmen können in Italien weit entfernt von der Mafia operieren, und sie können davon überrascht werden, plötzlich auch Gegenstand von Ermittlungen zu sein. Ich habe keinen der in diesem Bericht genannten Hauptakteure interviewt, was eigentlich an erster Stelle eines nachforschenden Reporters stehen sollte, der ich jedoch nicht bin. Ich kommentiere lediglich italienische Meldungen und Meinungen, habe ich doch sieben Jahre lang dort gelebt und verstehe zufälligerweise Italienisch.

Aber der Druck auf Lord Oxburghs Firma war enorm angesichts genereller finanzieller Bedingungen und der Verwicklung in rechtliche Schwierigkeiten in Italien, und so war es unvermeidlich, dass jemand die Frage stellte, ob er wirklich unparteiisch sein könnte.

Noch wichtiger ist, dass die Flut öffentlicher Gelder, neue Transaktionen und neue Partnerschaften mit Projekten in fernen Ländern es schwierig, wenn nicht unmöglich macht, mit der gebotenen Sorgfalt und vorzugehen. Das ist wie im Wilden Westen bei der Erzeugung erneuerbarer Energie und dem Handel mit CO2-Zertifikaten. Es gibt seit Jahren Skandale – und es wird weitere geben. Was hat man sich dabei gedacht, jemanden (selbst einen so angesehenen Mann wie Oxburgh) über Dinge urteilen zu lassen, die seine eigene Firma betrafen – sogar deren Überleben? Ich wiederhole, ich stelle nicht Lord Oxburghs Integrität in Frage, aber kann sich überhaupt irgendjemand aus dem Bereich der erneuerbaren Energien von derartigen Assoziationen frei machen? Allein im Jahre 2009 gab es in Spanien 19 Festnahmen im Zusammenhang mit Korruption beim Bau eines Windparks, es gab einen Skandal in Ungarn, wo CO2-Zertifikate mehrfach gehandelt wurden. In Maine erwarb ein Regulator Eigentumsrechte für   eine Firma , die er zubeaufsichtigen hatte und die er weiter führte, ein Washingtoner Biologe wird angeklagt, weil er Subventionen für einen Windpark in seinen eigenen non-profit Forschungsbereich umgeleitet hat, in Kanada wird ermittelt gegen ungesetzliche Lobbyarbeit grüner Lobbyisten – die Liste ließe sich endlos weiter fortsetzen.

Und jetzt kommt eine Firma daher, die in so viele Skandale und fragwürdige Machenschaften verstrickt ist, und ein Urteil wird gefällt, das den Erneuerbaren eine dringend benötigte Atempause im Allgemeinen verschafft und der eigenen eingschließlich der Schwesterfirmen  die Möglichkeit zum Durchstarten.

Es war wirklich ein höchst zweckmäßiges Ergebnis, diese Entlastung der CRU.

Ein Gastbeitrag von Thomas Fuller, San Francisco Environmental Examiner

Ins Netz gestellt von Anthony Watts am 25.4.2010

Weitere infos über Oxburghs Aktivitäten finden Sie hier:

 Lord Oxburgh  (ehemaligem Vorsitzendem des Shell UK der Rothschilds und hier)

Dankenswerterweise von C. Frey und H. Jäger für EIKE übersetzt

Weitere Details hier!

Related Files