1

Strandinterviews: Dr. Klaus Puls

Strandgespräch

Strandgespräch im März 11 auf Sylt über den Meeresspiegel mit Dipl, Meteorologen Klaus Puls EIKE. Das Gespräch führt Wolfgang Müller EIKE




Meldung des PIK: „Meeresspiegel steigt so schnell wie seit 2000 Jahren nicht“ entpuppt sich als Ente! Daten zeigen keine Änderung!

….Die Klima-Katastrophen-Auguren verkünden heute in den Medien zum x-ten Mal die Überflutung der Kontinente, n i c h t  auf der Basis von Messungen  (die zeigen das Gegenteil! s.w.u.), sondern auf der Basis von Sediment-Analysen;
h i n z u  kommt: es handelt sich um eine ausgewählte kleine Küstenregion, von der die Autoren auf alle weltweiten Meere schließen!
    in der Original-Presse-Miteilung heißt es nämlich dazu :
"… Das zeigt eine Untersuchung von Ablagerungen an der US-Atlantikküste – …"

Update: Nicht nur der chronisch klimakatastropengläubige WDR fällt auf diese Ente herein. Aber der besonders:

Sehen Sie hier ganz aktuell die Verbreitung dieser Ente durch den WDR II. Mit Dank an Solarkritik.de

Das ganze Gegenteil zeigen weltweit die MESSUNGEN(!!) von Pegeln und Satelliten:

(1) GLEICHZEITIG  zur o.a. Verlautbarung erscheint soeben im US-Coastel Journal der hier beigefügte Artikel, in dem auf der Basis von Pegel-Messungen klipp+klar das Gegenteil bewiesen wird:

"Der weltweite Temperaturanstieg hat keine Beschleunigung des globalen Meeresspiegelanstieges verursacht, sondern wahrscheinlich sogar eine Entschleunigung in den vergangenen 80 Jahren."

hier die gesamte undefinedPublikation :

(2) EUMETSAT hat kürzlich die aktuellen GLOBALEN Daten/Messungen zum Meeres-Spiegel veröffentlicht -ERGEBNIS: Von einem beschleunigten Meeresspiegelanstieg keine Spur !

(3) Zum gleichen Ergebnis kommt das GFZ Potsdam :

Die GFZ-Daten beweisen darüber hinaus, daß es überhaupt keinen globalen einheitlichen Meerestrend gibt, sondern stets auch riesige Areale mit fallendem Meeresspiegel !

(4) Anhand der langjährigen zuverlässigen Pegel von Norderney + Cuxhaven kommen in Niedersachsen  die Landesregierung und der Niedersächsische Landesverband NLWKN auch für die Nordseeküste  zu der klaren Aussage, daß es keine Beschleunigung des Meeresspiegelanstiegs gibt :

(5) Arbeiten des Institutes für historische Küstenforschung Wilhelmshaven
kommen ebenfalls zu ganz anderen Ergebnissen:

Danach : Der Meeresspiegel ist in den vergangenen Jahren nie so langsam gestiegen, wie im 20. Jahrhundert ! …von einer Beschleunigung keine Spur.

(6) Ein Autorenteam der NASA  hat kürzlich eine Arbeit publiziert, aus der u.a. zwei Dinge klar hervor gehen:
(a) Es existiert kein beschleunigter Meeresspiegelanstieg,
(b) die Meerestemperatur zeigt einen abnehmenden(!) Trend,
     folglich existiert auch kein thermisch beschleunigter Meeresspiegelanstieg :

(7) Auch das IPCC hat offensichtlich die gleichen Erkenntnisse, denn von Bericht zu Bericht wurde die Prognoserate des Meeresspiegels für 2100 zurück genommen  –  auf mittlerweile unter 40 cm :

Berücksichtigt man, daß dem Autorenteam weltweit als Alarmisten bekannte Autoren wir Michael Mann (Hockey-Stick-Erfinder), Stefan Rahmstorf (PIK) et al.
angehören, so sind erheblich Zweifel an der Aussagekraft dieses neuen Weltuntergangs-Papiers angebracht.

Eine jüngst erschienene kritische Auseinandersetzung mit dem neuerlichen Meeres-Spiegel-Alarmismus findet sich auch hier:

Klaus-Eckart Puls EIKE

Weiterführender Link z.B hier: Mann´s neues Meeresspiegel Hockeystick Papier

oder hier eine lesenswerte Besprechung des Aufsatzes von Michael Krüger auf Science Skeptical




Die Chaos-Theorie selbst zieht der Klimamodellierung den Boden unter den Füßen weg.

Was ist Chaos? Ich benutze diesen Ausdruck hier in seiner mathematischen Bedeutung. So, wie in den vergangenen Jahren die Naturwissenschaftler weitere Aggregatzustände der Materie entdeckten (neben fest, flüssig, gasförmig, nun auch plasma),  so wurden von der Wissenschaft neue Zustände entdeckt, die Systeme annehmen können.

Systeme von Kräften, Gleichungen, Photonen oder des Finanzhandels können effektiv in zwei Zuständen existieren:

Einer davon ist mathematisch zugänglich, die zukünftigen Zustandsformen können leicht vorhergesagt werden; im anderen aber passiert scheinbar Zufälliges.
Diesen zweiten Zustand nennen wir “Chaos”. Es kann gelegentlich in vielen Systemen eintreten.
Wenn Sie z. B. das Pech haben, einen Herzanfall zu erleiden, geht der normalerweise vorhersehbare Herzschlag in einen chaotischen Zustand über, wo der Muskel scheinbar zufällig schlägt. Nur ein Schock kann ihn in den Normalzustand zurücksetzen. Wenn Sie jemals ein Motorrad auf einer eisigen Fahrbahn scharf abgebremst haben, mussten Sie ein unkontrollierbares Schlagen des Lenkrads befürchten, eine chaotische Bewegung, die meist zu einem Sturz führte. Es gibt Umstände, wo sich die Meereswogen chaotisch bewegen und unerklärlich hohe Wellen erzeugen.
Die Chaos-Theorie ist das Studium des Chaos und weiterer analytischer Methoden und Messungen und von Erkenntnissen, die während der vergangenen 30 Jahre gesammelt worden sind.
Im Allgemeinen ist Chaos ein ungewöhnliches Ereignis. Wenn die Ingenieure die Werkzeuge dafür haben, werden sie versuchen, es aus ihrem Entwurf „heraus zu entwerfen“, d. h. den Eintritt von Chaos unmöglich zu machen.
Es gibt aber Systeme, wo das Chaos nicht selten, sondern die Regel ist. So eines ist das Wetter. Es gibt weitere, die Finanzmärkte zum Beispiel, und – das ist überraschend – die Natur. Die Erforschung der Raubtierpopulationen und ihrer Beutetierpopulationen zeigt z. B. das sich diese zeitweilig chaotisch verhalten. Der Autor hat an Arbeiten teilgenommen, die demonstrierten, dass sogar einzellige Organismen Populationschaos mit hoher Dichte zeigen können.
Was heißt es also, wenn wir sagen, dass sich ein System anscheinend zufällig verhalten kann? Wenn ein System mit dem zufälligen Verhalten anfängt, wird dann das Gesetz von Ursache und Wirkung ungültig?
Vor etwas mehr als hundert Jahren waren die Wissenschaftler zuversichtlich, dass jedes Ding in der Welt der Analyse zugänglich wäre, dass alles vorhersagbar wäre, vorausgesetzt man hätte die Werkzeuge und die Zeit dazu. Diese gemütliche Sicherheit ist zuerst von Heisenbergs Unschärfeprinzip zerstört worden, dann durch Kurt Gödels Arbeiten, schließlich durch Edward Lorenz, der als Erster das Chaos entdeckte. Wo? natürlich bei Wetter-Simulationen.
Chaotische Systeme sind nicht gänzlich unvorhersagbar, wie wirklich Zufälliges. Sie zeigen abnehmende Vorhersagbarkeit mit zunehmender Dauer, und diese Abnahme wird durch immer größer werdende Rechenleistung verursacht, wenn der nächste Satz von Vorhersagen errechnet werden soll. Die Anforderungen an Rechnerleistung zur Vorhersage von chaotischen Systemen wächst exponentiell. Daher wird mit den verfügbaren begrenzten Möglichkeiten die Genauigkeit der Vorhersagen rapide abfallen, je weiter man in die Zukunft prognostizieren will. Das Chaos tötet die Ursache-Wirkungs-Beziehung nicht, es verwundet sie nur.

Jetzt kommt ein schönes Beispiel.

Jedermann hat ein Tabellenkalkulationsprogramm. Das nachfolgende Beispiel kann jeder selbst ganz einfach ausprobieren.
Die einfachste vom Menschen aufgestellte Gleichung zur Erzeugung von Chaos ist die „Logistische Karte“ (logistic map).
In einfachster Form: Xn+1 = 4Xn(1-Xn)
Das bedeutet: der nächste Schritt in Folge gleicht 4 mal dem vorhergehenden Schritt mal (1 – vorhergehender Schritt). Wir öffnen nun ein Blatt in unserer Tabellenkalkulation und bilden zwei Spalten mit Werten:


Jede Spalte A und B wird erzeugt, indem wir in Zelle A2 eingeben [=A1*4* (1-A1)], und wir kopieren das nach unten in so viele Zellen, wie wir möchten. Das gleiche tun wir für Spalte B2, wir schreiben [=B1*4* (1-B1)]. Für A1 und B1 geben wir die Eingangszustände ein. A1 erhält 0.3 und B1 eine ganz gering verschiedene Zahl: 0.30000001.
Der Graph zeigt die beiden Kopien der Serien. Anfänglich sind sie synchron, dann beginnen sie bei etwa Schritt 22, auseinander zulaufen, von Schritt 28 an verhalten sie sich völlig unterschiedlich.

Dieser Effekt stellt sich bei einer großen Spannweite von Eingangszuständen her. Es macht Spaß, sein Tabellenkalkulationsprogramm laufen zu lassen und zu experimentieren. Je größer der Unterschied zwischen den Eingangszuständen ist, desto rascher laufen die Folgen auseinander.
Der Unterschied zwischen den Eingangszuständen ist winzig, aber die Serien laufen allein deswegen auseinander. Das illustriert etwas ganz Wichtiges über das Chaos. Es ist die hohe Empfindlichkeit für Unterschiede in den Eingangszuständen.
In umgekehrter Betrachtung nehmen wir nun an, dass wir nur die Serien hätten; wir machen es uns leicht mit der Annahme, wir wüssten die Form der Gleichung, aber nicht die Eingangszustände. Wenn wir nun Vorhersagen von unserem Modell her treffen wollen, wird jede noch so geringe Ungenauigkeit in unserer Schätzung der Eingangszustände sich auf das Vorhersage-Ergebnis auswirken und das in dramatisch unterschiedlichen Ergebnissen. Der Unterschied wächst exponentiell. Eine Möglichkeit zur Messung gibt uns der sogenannte Lyapunov-Exponent. Er misst in Bits pro Zeitschritt, wie rasch die Werte auseinanderlaufen – als Durchschnitt über eine große Zahl von Samples. Ein positiver Lyapunov-Exponent gilt als Beweis für Chaos. Er nennt uns auch die Grenze für die Qualität der Vorhersage beim Versuch der Modellierung eines chaotischen Systems.
Diese grundlegenden Charakteristiken gelten für alle chaotischen Systeme.
Und nun kommt etwas zum Nachdenken. Die Werte unseres einfachen Chaos-Generators im Kalkulationsblatt bewegen sich zwischen 0 and 1. Wenn wir 0.5 subtrahieren, sodass wir positive and negative Werte haben, und dann summieren, erhalten wir diesen Graphen. Der ist jetzt auf tausend Punkte ausgedehnt.


Wenn ich nun ohne Beachtung der Skalen erzählt hätte, das wäre der Kurs im vergangenen Jahr für eine bestimmten Aktie, oder der jährliche Meerestemperaturverlauf gewesen, hätten Sie mir vermutlich geglaubt. Was ich damit sagen will: Das Chaos selbst kann ein System völlig antreiben und Zustände erzeugen, die so aussehen, als ob das System von einem äußeren Antrieb gesteuert wäre. Wenn sich ein System so verhält, wie in diesem Beispiel, kann es wegen einer äußeren Kraft sein, oder ganz einfach nur wegen des Chaos.

Wie steht es also mit dem Wetter?

Edward Lorenz (1917 – 2008) ist der Vater der Chaosforschung. Er war auch Wetterforscher. Er schuf eine frühe Wetter-Simulation, indem er drei verkoppelte Gleichungen benutzte und er war erstaunt, dass die Simulationswerte mit dem Fortschritt der Simulation über der Zeit unvorhersehbar wurden.
Dann suchte er nach Beweisen, ob sich das tatsächliche Wetter in der gleichen unvorhersehbaren Weise verhielt. Er fand sie, bevor er noch mehr über die Natur des Chaos entdeckte.

Kein Klimatologe bezweifelt seine Erkenntnis vom chaotischen Charakter des Wetters.

Edward Lorenz schätzte, dass das globale Wetter einen Lyapunov-Exponenten gleich einem Bit von Information alle 4 Tage zeigt. Das ist ein Durchschnitt über die Zeit und über die globale Oberfläche.  Zuweilen und an gewissen Stellen ist das Wetter chaotischer, das kann jedermann in England bezeugen. Das bedeutet aber auch, dass, falls man das Wetter mit einer Genauigkeit von 1 Grad C für morgen vorhersagen kann, die beste Vorhersage für das Wetter für den 5. Folgetag bei +/- 2 Grad liegen wird, für den 9. Tag bei +/-4 Grad und den 13. Tag bei +/- 8 Grad. Auf jeden Fall wird die Vorhersage für den 9-10. Tag nutzlos sein. Wenn Sie aber das Wetter für Morgen mit einer Treffsicherheit von +/- 0.1 Grad vorhersagen könnten, dann würde die Zunahme des Fehlers verlangsamt. Weil sie aber exponentiell steigt, wird auch diese Vorhersage bereits nach wenigen weiteren Tagen nutzlos sein.
Interessanterweise fällt die Treffsicherheit der Wettervorhersagen von Institutionen, wie z. B. dem englischen Wetterdienst, genau in dieser Weise ab.  Das beweist einen positiven Lyapunov-Exponenten und damit, dass das Wetter chaotisch ist, wenn es noch eines Beweises bedurft hätte.

Soviel zur Wettervorhersage. Wie steht es mit der Langzeit-Modellierung?

Zuerst zur wissenschaftlichen Methode. Das Grundprinzip ist, dass die Wissenschaft sich so entwickelt, dass jemand eine Hypothese formuliert, diese Hypothese durch ein Experiment erprobt und sie modifiziert, sie beweist oder verwirft, indem er die Ergebnisse des Experiments auswertet.Ein Modell, ob nun eine Gleichung oder ein Computer-Modell, ist nur eine große Hypothese. Wenn man die mit der Hypothesenbildung betroffene Sache nicht durch ein Experiment modifizieren kann, dann muss man Vorhersagen mit dem Modell machen und am System selbst beobachten, ob die Vorhersagen damit zu bestätigen oder zu verwerfen sind.##Ein klassisches Beispiel ist die Herausbildung unseres Wissens über das Sonnensystem. Bei den ersten Modellen standen wir im Mittelpunkt, dann die Sonne, dann kam die Entdeckung der elliptischen Umläufe und viele Beobachtungen, um die exakte Natur dieser Umläufe zu erkennen. Klar, dass wir niemals hoffen konnten, die Bewegungen der Planeten zu beeinflussen, Experimente waren unmöglich. Aber unsere Modelle erwiesen sich als richtig, weil Schlüsselereignisse zu Schlüsselzeiten stattfanden: Sonnenfinsternisse, Venusdurchgänge usw. Als die Modelle sehr verfeinert waren konnten Abweichungen zwischen Modell und Wirklichkeit benutzt werden, um neue Eigenschaften vorherzusagen. Auf diese Art konnten die äußeren Planeten Neptun und Pluto entdeckt werden. Wenn man heute auf die Sekunde genau wissen will, wo die Planeten in zehn Jahren stehen, gibt es im Netz Software, die exakt Auskunft gibt.Die Klimatologen würden nur allzu gerne nach dieser Arbeitsweise verfahren. Ein Problem ist aber, dass sie aufgrund des chaotischen Charakters des Wetters nicht die geringste Hoffnung hegen können, jemals Modellvorhersagen mit der Wirklichkeit in Einklang bringen zu können. Sie können das Modell auch nicht mit kurzfristigen Ereignissen zur Deckung bringen, sagen wir für 6 Monate, weil das Wetter in 6 Monaten völlig unvorhersagbar ist, es sei denn in sehr allgemeinen Worten.Das bedeutet Schlimmes für die ModellierbarkeitNun möchte ich noch etwas in dieses Durcheinander einwerfen. Das stammt aus meiner anderen Spezialisierung, der Welt des Computer-Modellierens von selbst-lernenden Systemen.Das ist das Gebiet der „Künstlichen Intelligenz“, wo Wissenschaftler meist versuchen, Computer- Programme zu erstellen, die sich intelligent verhalten und lernfähig sind. Wie in jedem Forschungsfeld ruft das Konzept Mengen von allgemeiner Theorie hervor, und eine davon hat mit der Natur der Stück-um-Stück zunehmenden Erfahrung (Inkrementelle Erfahrung) zu tun.Inkrementelle Erfahrung findet statt, wenn ein lernender Prozess versucht, etwas Einfaches zu modellieren, indem er vom Einfachen ausgeht und Komplexität zufügt, dabei die Güte des Modells beim Fortgang testet.Beispiele sind Neuronale Netzwerke, wo die Stärke der Verbindungen zwischen simulierten Hirnzellen mit dem Prozess des Lernens angepasst wird. Oder genetische Programme, wo Bits von Computerprogrammen modifiziert werden und bearbeitet werden, um das Modell immer mehr anzupassen.Am Beispiel der Theorien über das Sonnensystem können Sie sehen, dass die wissenschaftliche Methode selbst eine Form des inkrementellen Lernens ist.Es gibt einen universellen Graphen über das Inkrementelle Lernen. Er zeigt die Leistung eines beliebigen inkrementellen Lern-Algorithmus bei zwei Datensätzen, ganz gleich bei welchem.Voraussetzung ist, dass die beiden Datensätze aus der gleichen Quelle stammen müssen, aber sie sind zufällig in zwei Datensätze aufgespaltet, in den Trainingsdatensatz für die Trainierung des Modells und in einen Testdatensatz, der immer wieder für das Überprüfen gebraucht wird. Normalerweise ist der Trainingsdatensatz größer als der Testdatensatz, aber wenn es viele Daten gibt, macht das nichts aus. Mit der Zunahme des Wissens im Trainingsmodell benutzt das lernende System die Trainingsdaten, um sich selbst anzupassen, nicht die Testdaten, die zum Testen des Systems benutzt und sofort wieder vergessen werden.

Wie zu sehen ist, wird die Leistung mit dem Trainingsdatensatz immer besser, je mehr Komplexität dem Modell zugefügt wird, auch die Leistung des Testdatensatzes wird besser, beginnt aber dann, schlechter zu werden.
Um es deutlich zu sagen: der Testsatz ist das Einzige, was zählt. Wenn wir das Modell für Vorhersagen benutzen wollen, werden wir es mit neuen Daten füttern, wie mit unserem Testdatensatz. Die  Leistung des Trainingsmodells ist irrelevant.
Über dieses Beispiel wird diskutiert, seit Wilhelm von Ockham den Satz geschrieben hat: “Entia non sunt multiplicanda praeter necessitatem“, besser bekannt als „Ockhams Rasiermesser“ und am besten so übersetzt: “Die Entitäten dürfen nicht ohne Not vermehrt werden”. Mit Entitäten meinte er unnötige Verzierungen und Schnörkel einer Theorie. Die logische Folge daraus ist, dass die am einfachsten die Fakten erklärende Theorie wahrscheinlich stimmt. Es gibt Beweise für die Allgemeingültigkeit dieses Satzes aus dem Gebiet der Bayesianischen Statistik und der Informationstheorie.
Das heißt also, dass unsere kühnen Wettermodellierer von beiden Seiten her in Schwierigkeiten stecken: wenn die Modelle für die Wettererklärung nicht ausreichend komplex sind, sind ihre Modelle nutzlos, wenn sie allzu komplex sind, auch.

Wer möchte da noch Wettermodellierer sein?

Unter der Voraussetzung, dass sie ihre Modelle nicht anhand der Wirklichkeit kalibrieren können, wie entwickeln und prüfen die Wettermodellierer ihre Modelle?Wie wir wissen, verhalten sich auch Wettermodelle chaotisch. Sie zeigen die gleiche Empfindlichkeit auf die Eingangsbedingungen. Das Mittel der Wahl für die Evaluierung (von Lorenz entwickelt) ist, Tausende von Läufen durchzuführen mit jeweils geringfügig anderen Eingangsbedingungen. Die Datensätze heißen „Ensembles”.Jedes Beispiel beschreibt einem möglichen Wetter-Pfad, und durch die Zusammenstellung des Satzes wird eine Verteilung möglicher Zielentwicklungen erzeugt. Für Wettervorhersagen zeigen sie mit dem Spitzenwert ihre Vorhersage an. Interessanterweise gibt es bei dieser Art von Modell-Auswertung wahrscheinlich mehr als nur eine Antwort, also mehr als einen Spitzenwert, aber über die anderen, auch möglichen Entwicklungen, wird nicht gesprochen. In der Statistik heißt dieses Verfahren „Monte Carlo Methode“.Beim Klimawandel wird das Modell so modifiziert, dass mehr CO2 simuliert wird, mehr Sonneneinstrahlung oder andere Parameter von Interesse. Und dann wird ein neues Ensemble gerechnet. Die Ergebnisse stellen eine Serie von Verteilungen über der Zeit dar, keine Einzelwerte, obwohl die von den Modellierern gegebenen Informationen die alternativen Lösungen nicht angeben, nur den Spitzenwert.Die Modelle werden nach der Beobachtung der Erde geschrieben. Landmassen, Luftströmungen, Baumbedeckung, Eisdecken, usw. werden modelliert. Sie sind eine große intellektuelle Errungenschaft, stecken aber noch immer voller Annahmen. Und wie man erwarten kann, sind die Modellierer stets bemüht, das Modell zu verfeinern und neue Lieblingsfunktionen zu implementieren. In der Praxis gibt es aber nur ein wirkliches Modell, weil alle Veränderungen rasch in alle eingebaut werden.Schlüsselfragen der Debatte sind die Interaktionen zwischen den Funktionen. So beruht die Hypothese vom Durchgehen der Temperaturen nach oben infolge von erhöhtem CO2 darauf, dass die Permafrostböden in Sibirien durch erhöhte Temperaturen auftauen würden und dadurch noch mehr CO2 freigesetzt würde. Der daraus resultierende Feedback würde uns alle braten. Das ist eine Annahme. Die Permafrostböden mögen auftauen oder auch nicht, die Auftaugeschwindigkeit und die CO2-Freisetzung sind keine harten wissenschaftlichen Fakten, sondern Schätzungen. So gibt es Tausende von ähnlichen „besten Abschätzungen“ in den Modellen.Wie wir bei den inkrementell lernenden Systemen gesehen haben, ist allzu viel Komplexität genau so fatal, wie zu wenig. Niemand weiß, wo sich die derzeitigen Modelle auf der Graphik oben befinden, weil die Modelle nicht direkt getestet werden.Jedoch macht die chaotische Natur des Wetters alle diese Argumente über die Parameter zunichte. Wir wissen natürlich, dass Chaos nicht die ganze Wahrheit ist. Es ist in den ferner vom Äquator gelegenen Regionen im Sommer im Durchschnitt wärmer als im Winter geworden. Monsune und Eisregen kommen regelmäßig jedes Jahr vor und daher ist die Sichtweise verführerisch, dass das Chaos wie das Rauschen in anderen Systemen aussieht.

Das von den Klimawandel-Anhängern benutzte Argument geht so: Chaos können wir wie Rauschen behandeln, daher kann das Chaos „herausgemittelt“ werden.

Um ein wenig auszuholen: Diese Idee des “Ausmittelns” von Fehlern/Rauschen hat eine lange Geschichte. Nehmen wir das Beispiel von der Höhenmessung des Mount Everest vor der Erfindung von GPS und Radar-Satelliten. Die Methode der Höhenermittlung war, auf Meereshöhe mit einem Theodoliten zu beginnen und die lokalen Landmarken auszumessen, indem man deren Abstand und Winkel über dem Horizont maß, um die Höhe zu schätzen. Dann wurde von den vermessenen Punkten aus das Gleiche mit weiteren Landmarken gemacht. So bewegte man sich langsam im Binnenland vor. Zum Zeitpunkt der Ankunft der Landvermesser am Fuße des Himalaja beruhten ihre Messungen auf Tausenden vorhergehenden Messungen. Alle mit Messfehlern. Im Endeffekt lag die Schätzung der Vermesser von der Höhe des Everest nur um einige zig Meter daneben.Das kam, weil die Messfehler selbst eine Tendenz zum Ausmitteln hatten. Wenn ein systemischer Fehler drin gewesen wäre, etwa von der Art, dass jeder Theodolit um 5 Grad zu hoch gemessen hätte, dann wären die Fehler enorm groß geworden. Der Punkt dabei ist, dass die Fehler dann keinen Bezug zum vermessenen Objekt gehabt hätten. Es gibt viele Beispiele dafür in der Elektronik, in der Radio-Astronomie und auf anderen Gebieten.Sie verstehen nun, dass die Klimamodellierer hoffen, dass das auch für das Chaos gilt. Sie behaupten ja tatsächlich, dass es so wäre. Bedenken Sie aber, dass die Theodolitenfehler nichts mit der tatsächlichen Höhe des Everest zu tun haben, wie auch das Rauschen in Radioteleskopverstärkern nichts mit den Signalen von weit entfernten Sternen zu tun hat. Das Chaos dagegen ist Bestandteil des Wetters. Daher gibt es keinerlei Grund, warum sich das „ausmitteln“ würde. Es ist nicht Bestandteil der Messung, es ist Bestandteil des gemessenen Systems selbst.Kann Chaos überhaupt „ausgemittelt“ werden? Falls ja, dann müssten wir bei Langzeitmessungen des Wetters kein Chaos erkennen. Als eine italienische Forschergruppe um meine Chaos-Analyse-Software bat, um eine Zeitreihe von 500 Jahren gemittelter süditalienischer Wintertemperaturen auszuwerten, ergab sich die Gelegenheit zur Überprüfung. Das folgende Bild ist die Ausgabe der Zeitreihe mittels meines Chaos-Analyse-Programms „ChaosKit“.

Ergebnis: Ein Haufen Chaos. Der Lyapunov-Exponent wurde mit 2.28 Bits pro Jahr gemessen.
Auf gut Deutsch: Die Treffsicherheit der Temperaturvorhersage vermindert sich um den Faktor 4 für jedes weitere Jahr, für welches eine Vorhersage gemacht werden soll, oder anders herum: die Fehler vervierfachen sich.

Was heißt das? Chaos mittelt sich nicht aus. Das Wetter bleibt auch über Hunderte von Jahren chaotisch.

Wenn wir einen laufenden Durchschnitt über die Daten bilden würden, wie es die Wettermodellierer tun, um die unerwünschten Spitzen zu verbergen, können wir eine leichten Buckel rechts sehen, und viele Buckel links. Wäre es gerechtfertigt, dass der Buckel rechts ein Beweis für den Klimawandel ist? Wirklich nicht! Man könnte nicht entscheiden, ob der Buckel rechts das Ergebnis des Chaos und der angezeigten Verschiebungen wäre, oder ob da ein grundlegender Wandel wäre, wie zunehmendes CO2.

Fassen wir zusammen: die Klimaforscher haben Modelle konstruiert auf der Grundlage ihres Verständnisses des Klimas, derzeitigen Theorien und einer Reihe von Annahmen. Sie können ihre Modelle wegen der chaotischen Natur des Wetters nicht über kurze Zeiträume testen, das geben sie zu.
Sie hofften aber, dass sie kalibrieren könnten, ihre Modelle bestätigen oder reparieren, indem sie Langzeitdaten auswerteten. Aber wir wissen jetzt, dass auch dort das Chaos herrscht. Sie wissen nicht, und sie werden niemals wissen, ob ihre Modelle zu einfach, zu komplex oder richtig sind, weil – selbst wenn sie perfekt wären – angesichts der chaotischen Natur des Wetters keine Hoffnung besteht, die Modelle an die wirkliche Welt anpassen zu können. Die kleinsten Fehler bei den Anfangsbedingungen würden völlig unterschiedliche Ergebnisse hervorbringen.
Alles, was sie ehrlich sagen können, ist: “Wir haben Modelle geschaffen, wir haben unser Bestes getan, um mit der wirklichen Welt im Einklang zu sein, aber wir können keinen Beweis für die Richtigkeit liefern. Wir nehmen zur Kenntnis, dass kleine Fehler in unseren Modellen dramatisch andere Vorhersagen liefern können, und wir wissen nicht, ob wir Fehler in unseren Modellen haben. Die aus unseren Modellen herrührenden veröffentlichten Abhängigkeiten scheinen haltbar zu sein.“


Meiner Ansicht nach dürfen regierungsamtliche Entscheider nicht auf der Grundlage dieser Modelle handeln. Es ist wahrscheinlich, dass die Modelle so viel Ähnlichkeit mit der wirklichen Welt haben wie Computerspiele.
Zu guter Letzt, es gibt eine andere Denkrichtung in der Wettervorhersage. Dort herrscht die Meinung, dass das Langzeitwetter großenteils von Veränderungen der Sonnenstrahlung bestimmt wird. Nichts in diesem Beitrag bestätigt oder verwirft diese Hypothese, weil Langzeit-Aufzeichnungen der Sonnenflecken enthüllen, dass die Sonnenaktivität ebenfalls chaotisch ist.
Dr. Andy Edmonds

Übesetzt von Helmut Jäger EIKE

Anmerkung von Antony Watts: Nur damit wir uns gleich verstehen: Chaos beim Wetter ist NICHT dasselbe wie der oben beschrieben Klimazusammenbruch – Anthony

Den Originalbeitrag finden Sie hier

Kurzbiografie
Dr. Andrew Edmonds ist Wissenschaftler und schreibt Computer Software. Er hat viele frühe Computer Software Pakete auf dem Gebiet der „Künstlichen Intelligenz“ entworfen und er war möglicherweise der Autor des ersten kommerziellen „Data Mining“ Systems. Er war Vorstandssprecher einer amerikanischen Aktiengesellschaft und bei mehreren erfolgreichen Firmen-Neugründungen tätig. Seine Doktorarbeit behandelte die Vorhersagen von Zeitreihen in chaotischen Reihen. Daraus entstand sein Produkt ChaosKit, des einzigen abgeschlossenen kommerziellen Produkts für die Analyse von Chaos in Zeitreihen. Er hat Papiere über Neuronale Netze veröffentlicht und über genetisches Programmieren von „fuzzy logic“ Systemen, „künstlicher Intelligenz“ für den Handel mit Finanzprodukten. Er war beitragender Autor von Papieren auf den Gebieten der Biotechnologie, des Marketings und des Klimas.
Seine Webseite: http://scientio.blogspot.com/2011/06/chaos-theoretic-argument-that.html




„Weltklimarat“ IPCC lässt sich vom Medienkonzern Greenpeace als Sprechpuppe missbrauchen! Energiebericht von Greenpeace verfasst!

Klimalüge: Erneuter Schwindel beim IPCC

Wissenschaftliche Politikberatung soll politischen Entscheidungsträgern das Werkzeug für rationale Entscheidungen in die Hand geben. Dies gilt offiziell auch für das Intergovernmental Panel on Climate Change (IPCC). Inoffiziell fungiert dieses Gremium jedoch als Durchlauferhitzer des Umweltlobbyismus von Umweltschutz-NGOs, wie Steven McIntyres (Climate Audit) Quellenanalyse der jüngsten Szenarien zum weltweiten Ausbau der Nutzung erneuerbarer Energieträger belegt.

Seiner Recherche nach sind Greenpeace-Szenarien die Grundlage des vom IPCC jüngst veröffentlichten Materials, wobei der verantwortliche IPCC-Autor auch gleichzeitig bei der Erstellung der Szenarien für Greenpeace federführend war. Steve McIntyre kommentiert dieses PR-Desaster: 1)

The public and policy-makers are starving for independent and authoritative analysis of precisely how much weight can be placed on renewables in the energy future. It expects more from IPCC WG3 than a karaoke version of Greenpeace scenario. (1)

Aber beim IPCC hat man es mit der Wahrheit noch nie sonderlich genau genommen. Bereits 2009 wurde enthüllt, dass die Erzeugnisse dieses IPCC ein kompletter Schwindel sind, der auf der Manipulation von Computermodellrechnungen basiert, die eine Erwärmung wegen des exzessiven Ausstoßes von CO2 simuliert haben. Dabei gab es nie irgendeine Bedrohung durch CO2. Es handelt sich dabei um ein für die Vegetation auf der Erde unabdingbar notwendiges Gas. Es repräsentiert nur einen sehr kleinen, ja winzigen Anteil der Erdatmosphäre.

Damals hatte Dr. Phil Jones, führender Klimaforscher und führendes Mitglied des UN-Welklimarates (IPCC) zerknirscht die Echtheit der veröffentlichten Daten bestätigt, wollte aber keinen Kommentar zu den unglaublichen Abgründen an Betrügereien und Geldbeschaffungen abgeben. (2)

Die gehackten Dateien und E-Mails unter IPCC-Klimawissenschaftlern gaben unter anderem darüber Aufschluss, wie Datensätze mit Tricks und Fälschungen erzeugt werden konnten, um damit anschaulich eine globale Erwärmung der Neuzeit vorzutäuschen.

Sie zeigen auch auf, wie „Abweichler“ gezielt öffentlich persönlich angegriffen und in ihrer wissenschaftlichen Reputation herabgewürdigt wurden. Dazu gehörte auch die Rückweisung ihrer abweichenden wissenschaftlichen Arbeiten im sogenannten „Peer-Review“-Verfahren, die offenbar schon vorher abgesprochen und vereinbart wurde.

(1) http://climateaudit.org/2011/06/14/ipcc-wg3-and-the-greenpeace-karaoke/
(2) http://community.zeit.de/user/schneefan/beitrag/2009/11/21/cruklimawissenschaftler-gehackt-ipccschwindel-weltweit-entlarvt

Autor Roger Baettig | June 16, 2011 Copyright International Business Times Originalartikel Hier

Mit dank an Spürnase Wolfgang Nabers

Wie zur Bestätigung hier ein Link zu einem Artikel bei Joanne Nova : .

Auszug:

The IPCC issued a press release (May 9th) though as usual, with no details or sources at the time. They got the media headlines, then quietly “backed” it up a month later with a 1000 page report they figure no one will read. Certainly, they must be a little surprised that within two days of quietly releasing the tome, it is spreading like fire across the blogosphere, and some of it’s deepest secrets are already out of the bag.

Let’s be clear about this, Greenpeace is a $200-million-euro-per-year machine (see theGreenpeace annual report for 2009). Their charity status was recently revoked in New Zealand. They are a big political animal, like the IPCC. But both are claiming to use science to support them. And both, it seems, cite each other as if they were scientific. Greenpeace openly, but the IPCC hides the reverse-citations in invisible ink, between the lines.




Die Klimakatastrophe – ein spektroskopisches Artefakt!

Ganz offensichtlich wird die Wirkung des anthropogenen Treibhauseffekts weit überschätzt, denn insbesondere der CO2-Treibhauseffekt war im wesentlichem schon zu Zeiten Goethes ausgereizt. Dies zeigen eigene quantitative Untersuchungen der IR-Absorption von Kohlendioxid mittels eines FT-IR-Spektrometers. Außerdem gibt es Äußerungen hierzu in der anerkannten Literatur, die offiziell allerdings heruntergespielt werden (23). Wegen des weitgehenden Sättigungseffekts ist der anthropogene Anteil der Treibhausgase für die gegenwärtige Klimaänderung von untergeordneter Bedeutung. Vielmehr geht die Varianz der Erdoberflächentemperatur mit der Wolkenbedeckung einher, die wiederum von der Fluktuation des solaren Magnetfelds abhängt. Mit anderen Worten: ähnlich wie ein offenes Kaminfeuers durch einen Paravent mehr oder weniger abgeschirmt wird, so steuert die Wolkendichte die Erdoberflächentemperatur weit stärker als der Treibhauseffekt. Der Einfluss der Wolkenbedeckung lässt sich aber mit den Klimamodellen des IPCC nur äußerst unzulänglich abbilden. Auch sind Klimamodelle möglicherweise auch deshalb ein spektroskopisches Artefakt, weil sie mit gewillkürten Flusskorrekturen arbeiten müssen, deren Beträge den des anthropogenen Treibhauseffekts um ein Vielfaches übersteigen.

Einleitung

Oftmals wird fälschlicherweise angenommen, der Treibhauseffekt sei mit der Absorption von Infrarotstrahlung (IR-Strahlung) durch atmosphärische Spurengase (CO2, CH4, Wasserdampf u. a.) identisch. Dadurch würde sich die Luft erwärmen, die dann ihre Wärmeenergie auf die Erdoberfläche übertrage. Es verhält sich genau umgekehrt:  Die Erdoberfläche wird fast ausschließlich durch Bestrahlung erwärmt und die Atmosphäre nimmt ihre Wärmeenergie durch direkten Kontakt mit dem Erdboden auf.

Die Bestrahlung der Erdoberfläche setzt sich aber aus zwei Teilen zusammen:

1.      Die direkte Solareinstrahlung (abhängig von der Wolkenbedeckung)

2.      Der atmosphärische Treibhauseffekt (im wesentlichem ausgereizt)

Die Existenz einer atmosphärischen Gegenstrahlung, die den Treibhauseffekt charakterisiert, lässt sich zwar leicht nachweisen, aber bereits die Größenordnung des natürlichen Treibhauseffekts kann nur berechnet werden und die ihm zugeschriebene Auswirkung auf das Klima entzieht sich vollkommen der Falsifikation (18). Zum Verständnis des CO2-Treibhauseffekts ist es dennoch nützlich, sich zunächst einmal die „ganz normale“ Infrarot-Absorption atmosphärischer Spurengases zu betrachten (1).

Nimmt man einmal an, die auf der IR-Absorption beruhende Extinktion (E) würde innerhalb der Troposphäre (bis ca. 10 km Höhe) bei heutiger CO2-Konzentration in der Größenordnung von E = 2 im Maximum des Absorptionspeaks liegen, d.h. die Transmission T = I/I0 = 10-E wäre auf 0,01 reduziert, dann wäre es für jeden, der mit den Grundlagen der quantitativen IR-Spektroskopie vertraut ist, offensichtlich, dass eine Verdopplung des CO2 zu einer merklichenTemperaturerhöhung führen müsste. Tatsächlich liegt aber die Extinktion um viele Zehnerpotenzen höher. Deshalb ist nach einer einfachen Abschätzung von Jack Barrett (2) der maximal mögliche Treibhauseffekt schon nach einem Weg von 100 m über dem Erdboden erreicht. Tatsächlich liegt eine weitestgehende Sättigung aber keine Komplettsättigung vor. Die gibt es nicht aus quantenmechanischen Gründen.

In der Literatur werden vielfach Emissionsspektren (3) oder gelegentlich auch Absorptionsspektren (4) des CO2 gezeigt. Was einen Chemiker aber besonders interessiert, ist eine Abschätzung der Sättigung des Effekts mit Hilfe  molarer Extinktionskoeffizienten der einzelnen Absorptionsbanden. CO2 ist zwar das mit am intensivsten untersuchte Molekül, weshalb man auch genügend quantitative Angaben aus der Literatur beziehen kann und natürlich gibt es die HITRAN-Spektren (5). Dennoch existieren offensichtlich unterschiedliche Vorstellungen. Auch unterliegt die prophezeite Klimaerwärmung großen Schwankungen, wobei in der Vergangenheit Angaben von 1,2 °C bis 11,5 °C bei CO2-Verdopplung genannt wurden. Dies war Anlass zu eigenen überschlagsmäßigen Messungen (6).

Zunächst muss aber geklärt werden, welche der Absorptions-/Emissionsbande des CO2 von Bedeutung ist. Hierüber geben Satellitenspektren Auskunft (3).

Bild 1: Satellitenspektren, oben über der Sahara, unten über der Antarktis

Die gestrichelten Linien im Bild 1 ist die ideale Planck-Strahlungskurve der Erdoberfläche berechnet bei unterschiedlichen Temperaturen in K. Die „gezackte Linien“ repräsentieren neben der ungehinderten Emission der Erdoberfläche (ca. 800 – 1000 cm-1 und ca. 1050 – 1300 cm-1) die Emissionsgraphen der atmosphärischen Treibhausgase. Die roten Pfeile im Bild 1 kennzeichnen die n2-Bande um 15 mm (667 cm-1). Deshalb ist nur diese relativ schwache von Bedeutung und nicht die wesentlich stärkere n3-Bande um 4,2 mm (2349 cm-1). Außerdem erkennt man, die Atmosphäre emittiert tatsächlich IR-Strahlung („Treibhauseffekt“) Dies sieht man ganz deutlich im Satellitenspektrum über der Arktis (unterer Teil im Bild 1). Die Bodentemperatur beträgt dort nämlich ca. 200 K (-73 °C), während die Atmosphäre in etwa 10 km Höhe eine höhere Temperatur von ca. 210 K (-63 °C) aufweist. Dies ist aber ein erster Hinweis darauf, dass der den IPCC-Computermodellen zugrunde liegende Strahlungstransport eine Fiktion ist. Es handelt sich vielmehr um einenEnergietransport. Dabei gelangt wärmere Luft zur Arktis und gibt ihre Energie oberhalb einer Höhe von 10 km als „ungestörte Emission“ ins Weltall ab.

1. Die Meßmethode

Zunächst soll die eigene Messung der Absorption des Kohlendioxids beschrieben werden. Eine 10 cm-Küvette mit IR-durchlässigem Fenster wurde mit synthetischer CO2-freier und wasserfreier Luft gefüllt. Danach wurde soviel CO2 mit einer Mikroliterspritze zugegeben, dass 357 ppm CO2 zugegen waren (Konzentration von 1993). Weiter wurden 2,6 % Wasserdampf zugegeben. Als IR-Strahlungsquelle diente ein Globar, ein elektrisch auf 1000-1200 ºC geheizter Siliziumkarbid-Stab mit nachgeschaltetem variablen Interferenzfilter. Nach der Aufnahme dieses Spektrums wurde mit CO2 aufgestockt, so dass 714 ppm enthalten waren. Die Messung erfolgte mit einem FT-IR-Spektrometer „Bruker IFS 48“. Als Auswertungssoftware diente das Programm OPUS. Ein Nullwert wurde ebenfalls aufgenommen und entsprechend subtrahiert.

1.1 Messung und Auswertung

Bild 2 zeigt das unbearbeitete Spektrum der 15 µm-Bande für 357 ppm CO2 und 2.6% H2O.

  

Bild 2: Unbearbeitetes Spektrum der 15 µm-Bande (n2-Bande)

Deutlich sind der R- (DJ = + 1) und der P- (DJ = – 1) sowie der Q-Zweig (DJ = +/- 0) der n2-Bande zu erkennen. Der Extinktionskoeffizient im Maximum ergab sich zu:

e = 20,2 m2 mol-1 (n2 bei 667 cm-1)

Um die Absorption zu berechnen, wurde der durchschnittliche CO2-Gehalt der Atmosphäre mit c = 1,03.10-3 mol/m3angenommen (aus der Gesamtstoffmenge und dem Volumen der Homosphäre). Setzt man die oben gemessenen molaren Extinktionen nebst der Konzentration und der Schichtdicke der Troposphäre (h = 10 km = 104 m) in das Lambert-Beer’sche-Gesetz ein, so erhält man

E(n2) = 20,2 m2 mol-1 × 1,03.10-3 mol/m3 × 104 m = 208

Dies bedeutet, dass die Transmissionen in der Mitte der Absorptionsbande bei den um 1997 gegebenen 357 ppm CO2 beiT(n2) = 10-208 liegt (Bild 3).

 

Bild 3: Spektrales Auswertungsschema

Dies ist ein extrem geringer Transmissionswert, der eine Steigerung des Treibhauseffektes bei Verdopplung des klimawirksamen Spurengases in diesem Bereich vollkommen ausschließt. Ähnliche Ergebnisse hat Jack Barrett anhand spektroskopischer und kinetischer Überlegungen (2) gefunden und damit prompt in ein Wespennest gestochen, weshalb 1995 von ihm eine äußerst heftige Diskussion angefacht wurde (7 – 10).

Setzt man den molaren Extinktionskoeffizient e für die n2-Bande sowie die Volumenkonzentration in mol/m3 (357 ppm CO2) in das Lambert-Beersche-Gesetz ein und nimmt eine Schichtdicke von 10 m an, resultiert eine Extinktion von

E = 20,2 m2 mol-1 × 0,0159 mol/m3× 10 m = 3,21

Dies entspricht einer Transmission von T = 10-3.21 = 0,6 Promille. Mit anderen Worten: Bereits nach 10 m sind 1 – T = 99,94% der IR-Strahlung absorbiert.

Bei der Absorption an den Peakflanken ist die Extinktion naturgemäß kleiner. Deshalb schreibt das IPCC1990 „The effect of added carbon dioxide molecules is, however, significant at the edges of the 15 µm band, and in particular around 13,7 and 16 µm (13)“. Natürlich existieren diese Ränder, denn die Rotationsquantenzahl J geht von J = + 1 bis J = + ¥ und vonJ = – 1 bis J = – ¥. Bedauerlicherweise werden aber die ungesättigten Bereiche an den Rändern immer schwächer. Die Besetzung der Rotationsniveaus gehorcht nämlich einer Boltzmann-Verteilung, weshalb immer weniger der vorliegenden CO2-Moleküle zu einem gegebenen Zeitpunkt in diesem Bereich absorbieren.

Um die Absorption an den Peakflanken abzuschätzen, wurde als Arbeitshypothese angenommen, die Extinktion soll sich bei Verdopplung des CO2-Gehalts um die Größenordnung E = 3 (= 10-3) erhöhen. Hierzu wurde das Gesamtintegral der Banden bis zu den auslaufenden Enden des R- und P-Zweiges bei E = 0 ermittelt (s. Bild. 3). Anschließend wurden die digital abgespeicherten Spektren ab einer Extinktion, die dem Wert  E = 3 (auf den Gesamtweg innerhalb der Troposphäre bezogen) entsprachen bis zu den auslaufenden Enden (E = 0) des R- und P-Zweiges integriert. Damit waren die „edges„ annähernd erfasst. Diese „edges„ begannen beim P-Zweig bei 14,00 µm und beim R-Zweig bei 15,80 µm und liefen jeweils bis zur Grundlinie E = 0. IPCC lässt die Banden an den Rändern bei 13,7 und 16 µm beginnen (13). Für die n2-Bande ergab sich folgendes:

15 µm-Bande 357 ppm 714 ppm
Gesamtintegral 624,04 cm -1 von 703,84 cm -1 0,5171/cm 1,4678/cm
Summe der Flanken-Integrale 1,11.10-4/cm 9,79.10-4/cm

Tabelle: 15 µm-Bande (Gesamtintegral und Flankenintegrale E = 0 bis E = 3)

Der relative Zuwachs des Treibhauseffekts bezogen auf das Gesamtintegral ist entscheidend. Er entspricht der Differenz der Flankenintegrale bei 714 ppm und 357 ppm im Verhältnis zum Gesamtintegral bei 357 ppm.

(9,79.10-4/cm – 1.11.10-4/cm) / 0,5171/cm = 0,17 %

Weil man mit der Planck-Strahlungsgleichung arbeiten muss, sind Extinktionen weniger geeignet, den Treibhauseffekt zu quantifizieren, dennoch zeigen sie sehr gut die Relationen, um die es beim anthropogenen Treibhauseffekt geht (Bild 3). Auch sind die oben angegebenen Messwerte relativ ungenau; sie werden aber durch die Aussage des Nobelpreisträges Paul Crutzen gestützt. Dieser schrieb1993 in einem Lehrbuch (20): „Es gibt bereits so viel CO2 in der Atmosphäre, dass in vielen Spektralbereichen die Aufnahme durch CO2 fast vollständig ist, und zusätzliches CO2 spielt keine große Rolle mehr.“ Man kann es auch so ausdrücken: Ein Treibhaus heizt sich bestenfalls geringfügig (Spureneffekt!) stärker auf, wenn man das normale Fensterglas gegen ein zehn Zentimeter dickes Panzerglas austauscht!

2. Vergleich mit den offiziellen Daten des IPCC

Das zur Messung verwendete und in der Chemie übliche FT-IR-Spektrometer besitzt nur einen Spiegelweg von 5 cm. Dies ergibt eine Auflösung der IR-Banden von 0,2 cm-1. Da die „ungesättigten“ Spektralbereiche ungewöhnlich schwache IR-Banden betrifft, benötigt man Spektrometer, die eine Auflösung von 0,0004 cm-1 erbringen (5). Hierzu muss man ein FT-IR-Spektrometer bauen, das theoretisch über einen Spiegelweg von 25.000 cm (25 m!) verfügt. Nur dann lassen sich dieäußerst schwachen IR-Banden messen, auf die sich die Klimamodellierer des IPCC stützen. Es sind Banden, mit einer „Absorptionsstärke“ von nur 0,05 % der 15 mm CO2-Hauptbande! Da Spiegelwege von 25 m technisch schwierig realisierbar sind, misst man reines CO2 unter höheren Druck und mit käuflichen Geräten, die über Spiegelwege bis zu 10 m verfügen. Die derart gewonnenen Extinktionskoeffizienten sind in der HITRAN-Datenbank abgelegt, welche zur Berechnung des Strahlungsantriebs („radiative forcing“) bei weiterer Steigerung der Treibhausgase (CO2, CH4 usw.) dient. Nimmt man die offiziellen Zahlen (IPCC), dann beträgt der „natürliche“ Treibhauseffekt“ 324 W/m2 (21). Bei Verdopplung des CO2 (100 % Steigerung!) wird nach Übereinkunft („best guess“ aus Computermodellrechnungen) angenommen, dass sich der Strahlungsantrieb um 3,7 W/m2 erhöht (22, 23). Im Bild 4 sind die Verhältnisse dargestellt.

Bild 4: Prozentuale Erhöhung des Treibhauseffekts bei Verdopplung des atmosphärischen CO2-Gehalts gemäß der offiziellen Angaben des IPCC

Auch das Bild 4 belegt eindeutig die oben beschriebene weitestgehende Sättigung denn die Steigerung des Treibhauseffekts bei CO2-Verdopplung beträgt nur geringfügige 1,2 %. Dies ist in der Klimaforschung bekannt. Deshalb wird versucht, den „Sättigungscharakter mit dem Argument zu entkräften, das Klima sei ein so empfindliches System, dass es bereits von kleinsten Änderungen des Strahlungsantriebs aus dem Gleichgewicht gebracht werden kann. So wird behauptet, die Abkühlung zwischen 1930 und 1970 sei durch die Staubbelastung der Industriegesellschaft verursacht. Dies ist falsch. Die Abkühlung war durch das geänderte Magnetfeld der Sonne verursacht, wie aus dem Bild 11 (rot eingekreist) hervorgeht.

3. Erdoberflächentemperatur, Treibhauseffekt und CO2-Konzentration

Zur Berechnung der irdischen Oberflächentemperatur ohne Treibhausgasatmosphäre  benutzt man eine einfache Gleichung, die auf dem Stefan-Boltzmann- Gesetz beruht.

(Gleichung 1)

A ist dabei die Albedo – das durchschnittliche „Rückstrahlvermögen“ der Erde. Sie wird mit A= 0,3 angenommen. Tatsächlich existierten in der Vergangenheit auch andere Angaben. Die Solarkonstante, die in Wirklichkeit gar nicht so konstant ist, hat den Wert Fs = 1368 W/m2. Weiterhin enthält die Gleichung die Stefan-Boltzmann-Konstante s = 5,67 .10-8 W.m-2.K-4.

Rechnet man mit diesen Angaben, so resultiert für die Oberflächentemperatur der Erde:

Dieses Ergebnis ist fragwürdig, weil die Erde kein wasserloser Gesteinshaufen im Weltall ist. Sehr wahrscheinlich liegt die irdische Mitteltemperatur ohne Treibhausgase um einiges höher! Aber bleibt man zunächst einmal dabei, dann beträgt die spezifische Ausstrahlung der Erdoberfläche bei dieser Temperatur (Formelzeichen nach DIN 5031, Teil 1):

M1 = (1-0,7) . 0,25 . 1368 W/m2 = 239 W/m2

Für die Klimanormalperiode bezeichnet, hat man sich vor Jahren unter Konsensbildung auf eine Mitteltemperatur von  + 15 °C (T = 288 K) geeinigt. Benutzt man jetzt das „unveränderte“ Stefan-Boltzmann-Gesetz

M2 = s . T4      (Gleichung 2)

und berechnet damit die spezifische Ausstrahlung der Eroberfläche erneut, resultiert:

M2 = s . T4 =  5,67 . 10-8 W.m-2.K-4 . (288 K)4 = 390,0 W.m-2

Folglich erhöht der „natürliche“ Treibhauseffekt, mit einer hypothetische Erwärmung von DT = 288 K – 225 K = 33 K(33 °C), die spezifische Ausstrahlung der Erdoberfläche um

DM = M2  – M1 = 390,0 W/m2 – 239,0 W/m2 = 151 W/m2

Wie bereits oben erläutert, wird bei Verdopplung des CO2 (100 %ige Steigerung) ein zusätzlicher Strahlungsantrieb von 3,7 W.m-2 angenommen (die Größenordnung entzieht sich der Falsifikation und beruht auf Konsens – „best guess“!). Dadurch steigt die spezifische Ausstrahlung der Eroberfläche von 390,0 W.m-2 auf 393,7 W.m-2. Setzt man diesen Wert in die Stefan-Boltzmann-Gleichung (Gleichung 2) ein, resultiert als Erdoberflächentemperatur:

Demnach erhöht sich die Temperatur bei CO2-Verdopplung (100 % mehr CO2!) von 288,0 K auf 288,7 K. Das entspricht gerade einmal DT = 288,7 K – 288,0 K = 0,7 K (0,7 °C) und nicht mehr. Die Klimamodellierung hätte keinerlei politische Beachtung gefunden, wenn man nicht die Hypothese der Wasserdampfverstärkung in die Diskussion eingebracht hätte. Dies lässt sich jedoch glücklicherweise falsifizieren, wie im nächsten Absatz dargelegt wird.

4. Die Wasserdampfverstärkung

Da eine Erwärmung von lediglich 0,7 °C bei 100 % mehr CO2 zu wenig erscheint, hat man sich vor Jahren darauf geeinigt, dass diese geringfügige Temperaturerhöhung gemäß der altbekannten Clausius-Clapeyronschen-Gleichungdeutlich mehr Wasser aus den Ozeanen verdunsten lasse. Da Wasserdampf selbst ein Treibhausgas sei, fällt dadurch die von CO2 verursachte Temperaturerhöhung  wesentlich höher aus. Originalton IPCC (24): „Der Wasserdampf-Feedback’ ist nach wie vor der durchweg wichtigste Rückkopplungseffekt, der die von den allgemeinen Zirkulationsmodellen als Reaktion auf eine CO2-Verdopplung vorhergesagte globale Erwärmung verursacht.“ Wenn dies richtig ist, muss besonders in einer kälteren Periode, während der die direkte Solarstrahlung nicht so viel Wasser verdunsten lässt, der Wasserdampfgehalt über den Ozeanen mit dem atmosphärischen CO2-Gehalt ansteigen. Dies ist eindeutig nicht der Fall, wie das Bild 5 belegt (31). Deshalb können sich die Klimamodellierer auf keinen Fall auf den durchaus einleuchtenden, hypothetischen Wasserdampfverstärkungsmechanismus berufen, der eine viel zu große Temperatursteigerung prophezeit.

Bild 5: Prozentuale Abweichung des Wasserdampfgehalts über dem Atlantik (33)

Um Missverständnissen vorzubeugen: Mit der  Prozentangabe im Bild 5 ist natürlich nicht die relative Luftfeuchte gemeint, die niemals höher als 100 % sein kann, sondern vielmehr die Abweichung des Wasserdampfgehalts nach oben und nach unten um den Messwert von 1950. So liegt der absolute Wasserdampfgehalt 1956 um 25 % höher als 1950. 1968 liegt der Wasserdampfgehalt um ca. 45 % niedriger, obwohl der CO2-Gehalt weiter angestiegen ist!

5. Die Strahlungstransportgleichung

Bei der Berechnung des Treibhauseffekts wird ein „Schicht- oder Kaskadenmodell“ zugrunde gelegt nach dem innerhalb der Atmosphäre eine ständige Absorption (I) und Emission (L) stattfindet. Diesem fiktiven Strahlungstransport liegt dieSchwarzschildgleichung zugrunde (11). Bei einem infinitesimalen Weg dz, dem Absorptionskoeffizienten sa und der Teilchenzahl n gilt hierfür im lokalen thermodynamischen Strahlungsgleichgewicht (LTE):

(Gleichung 3) 

Die Größe ist hierbei die Strahldichte (vgl. DIN 5031, Teil 1), welche die Emission gemäß der temperaturabhängigenPlanck-Strahlungsgleichung angibt.

Dass innerhalb der Atmosphäre ein Strahlungstransport stattfindet, meint man belegen zu können, indem man die gemessenen Satellitenspektren mit den berechneten vergleicht. Das Ergebnis ist verblüffend, wie das Bild 6 belegt.

Bild 6: Links das gemessene Emissionsspektrum der Erde (Satellitenspektrum); rechts das  mit Hilfe der Strahlungstransportgleichung berechnete Emissionsspektrum

Das lokale thermodynamische Strahlungsgleichgewicht (LTE) begründet man mit dem Kirchhoff’schen Gesetz der Wärmestrahlung. Danach ist das Emissionsvermögen eines Körpers genau so groß wie sein Absorptionsvermögen. Das Ganze hat nur einen Haken. Es existiert kein „Strahlungsenergieerhaltungssatz“, wie er beim lokalen thermodynamischen Strahlungsgleichgewicht stillschweigend vorausgesetzt wird. Tatsächlich gibt man bei der „nachvollziehenden“ Berechnung der Satellitenspektren das gemessene atmosphärische Temperaturprofil in die Plank-Strahlungsgleichung ein, wie aus dem Bild 7 hervorgeht.

  

Bild 7: Strahlungstransport, Planck-Gleichung und gemessener Temperaturgradient

Zur Erinnerung: Beim Treibhauseffekt geht es auch um den Temperaturgradienten ( „Temperaturprofil“), den die Atmosphäre im Kontakt mit dem Erdboden unter adiabatischer Expansion annimmt. Lässt man sich dies durch den Kopf gehen, dann wird das Ergebnis – der Temperaturgradient – in die Rechnung eingesetzt (vgl. Bild 7), um dann daraus das temperaturabhängige Emissionsspektrum der Atmosphäre und des Erdkörpers zu erhalten (vgl. auch Bild 1). Deshalb ist die Übereinstimmung der im Bild 6 gezeigten Spektren kein Beweis für das dem Strahlungstransport zugrunde liegende hypothetische „lokale thermodynamische Strahlungsgleichgewicht“ innerhalb der Atmosphäre. Es ist vielmehr ein Beweis, dass man im Kreis herumrechnet und sich dann über den mathematisch „bewiesenen“ Treibhauseffekt freut.

Experimentelle Untersuchungen und die allgemein akzeptierte Theorie belegen eindeutig, dass die Molekülfluoreszenz anders funktioniert wie die Atomfluoreszenz, bei der die absorbierte Strahlung zu 100 % wieder emittiert wird (25, 26). Das LTE setzt aber eine „100%ige Molekülfluoreszenz“ voraus, die nicht existiert – auch nicht im IR-Bereich. Während angeregte Atome nur unter Emission von Strahlung in den Grundzustand zurückkehren können, erfolgt die Relaxation bei Molekülen wegen der Rotations- und Schwingungsfreiheitsgrade meist strahlungslos gemäß den Prinzipien des Jablonski-Diagramms (27).  Deshalb reichte es eigentlich vollkommen aus, wenn man den „theoretischen“ Treibhauseffekt ohne jegliche Absorption nur mit der – temperaturabhängigen – Planck-Gleichung beschreibt, die man mit den jeweiligen Bandenstärken „klimawirksamer“ Spurengase und der „Anzahl IR-aktiver Moleküle in einem Luftvolumen“ multipliziert. Dann erhält man die thermische Emission der Atmosphäre unter Berücksichtigung des Raumwinkels.

Fazit: Dass eine atmosphärische Wärmestrahlung gemäß dem Planck-Gesetz gegeben ist, ist eine Selbstverständlichkeit. Solange aber ein atmosphärisches Temperaturprofil (oben kälter – unten wärmer) existiert und die Konvektion erheblich zum Energietransport beiträgt, solange ist die Hypothese in dem offenen System Atmosphäre existiere ein lokales thermodynamischen Gleichgewichts (LTE) falsch. Denn es gibt nämlich keinen „Strahlungsenergieerhaltungssatz“. Vielmehr übertragen „Treibhausgasmoleküle“ nach der Absorption von IR-Strahlung ihre Energie auf die nicht IR-aktiven Hauptbestandteile des Atmosphäre. Deshalb wird dem Strahlungsgeschehen bei der Klimamodellierung ein viel zu starkes Gewicht beigemessen.

6. Was Klimamodelle nicht können

Klimamodelle sind Computeralgorithmen (sprich: „Rechenvorschriften“, welche die meinungsabhängigen Vorgaben der Programmierung widerspiegeln) und nicht die Realität. Weil die Komplexität des Klimageschehens gegenwärtig und auch in absehbarer Zukunft mit keinem Computer realitätsorientiert erfassbar sein dürfte, handelt es sich mehr um politische Instrumentarien, denn um exakte Naturwissenschaft.

6. 1 Die Flusskorrekturen

Der Hypothese nach soll der „natürliche“ Treibeffekt den Globus um 33 °C aufheizen. Irrigerweise wird dabei angenommen, die Erde, die zu 70 % mit Wasser bedeckt ist, würde sich ähnlich verhalten wie der vollkommen wasserloseMond. Nimmt man an, nur die ersten 10 m Wassertiefe der Ozeane würden die mittlere Erdtemperatur thermostatisch regeln, ergibt die Rechnung, dass die Ozeane im Temperaturbereich von  –18 °C bis +15 °C eine Energiemenge von 1,57.1018 MJ speichern. Hierzu die Gegenrechnung: In 24 Stunden werden durch den irdischen Treibhauseffekt 1,43.1016MJ umgeschlagen (22). Der gesamte natürliche Treibhauseffekt macht somit nur 0,9 % der Energie aus, die in den Ozeanen bei einer Wassertiefe bis zu 10 m gespeichert ist. Die Folge sind erhebliche Schwierigkeiten bei der Kopplung atmosphärischer Zirkulationsmodelle („General Circulation Atmospheric Models“) mit ozeanischen Zirkulationsmodellen („General Circulation Oceanic Models“). Diese Probleme lassen sich nur mit Hilfe so genannter „Flusskorrekturen“ überwinden, deren Beträge, wie das Bild 8 belegt, um ein Vielfaches größer sind als der anthropogene Treibhauseffekt. Die rechte Säule in Bild 8 stellt den Strahlungsantrieb des CO2 bei Verdopplung dar. Danach ist allein schon die 100 W/m2-Flusskorrektur zur Kopplung Ozeanoberfläche-Atmosphäre rund 27-mal (!) größer als der anthropogene Treibhauseffekt bei CO2-Verdopplung (3,7 W/m2).

Bild 8: Anthropogener Treibhauseffekt (rechte kleine Säule) im Verhältnis zu den bei der Klimamodellierung angewandten Flusskorrekturen

Es soll nicht unerwähnt bleiben, dass von einschlägigen Instituten in neuerer Zeit verlautbart wird, man benötige keine Flusskorrekturen mehr. Tatsächlich kommen Klimamodelle nach wie vor nicht ohne sie aus.

6. 2 Die Wolkendichte

Bei der Abschätzung des Strahlungsantriebs der Wolken kommen Klimamodelle zu äußerst unterschiedlichen Ergebnissen. So findet das „Bureau of Meteorology Research Center“ (BMRC) von Australien, dass die Wolken eine Abkühlung von ca. 1 W/m2 erbringen, während das Labaratoire de Météologie Dynamic (LMD) aus Frankreich meint, Wolken würden eine Erwärmung von ca. 1,7 W/m2 bewirken (Bild 9). Das ist beachtenswert!

Bild 9: Strahlungsantrieb der Wolken mit unterschiedlichen Klimamodellen gerechnet

6. 3 Die Vergangenheit

Beispielsweise können bis heute Klimamodelle nicht die im Bild 10 gezeigte Abkühlung zwischen 1930 und 1975 ohne Zuhilfenahme von Kunstgriffen (atmosphärischer Staubeintrag durch die Industriegesellschaft!) nachvollziehen.

  

Bild 10: CO2-Gehalt und Temperaturverlauf (vgl. a. Bild 11)

7. Die Alternative

Da treibhausgasfixierte Computer-Klimamodelle nicht nur im Zeitraum zwischen 1930 bis 1970 versagen sondern auch die kleine Eiszeit (14. bis 18. Jh.) und das mittelalterliche Klimaoptimum (11. – 13. Jh.)  nicht nachbilden können, muss es einen anderen entscheidenden Mechanismus geben. Sehr viel spricht dafür, dass dies die Wolkendichte ist, die von der kosmischen Strahlung beeinflusst wird. Diese besteht überwiegend aus Protonen, die als Echo des Urknalls in unser Sonnensystem eindringen. Gelangen diese positiv geladenen Kernbausteine in die Atmosphäre, so führen sie über einen noch nicht restlos geklärten Mechanismus zur Kondensation von Wasserdampf  –  Wolken entstehen. Erhöht sich dasMagnetfeld der Sonne bei höherer Solaraktivität, dann werden die Protonen stärker abgeschirmt. In der Folge entstehenweniger Wolken und die erwärmende Sonnenstrahlung kann den Globus stärker aufheizen. Deshalb folgt der globale Temperaturverlauf der Schwankung des solaren Magnetfelds (Bild 11).

Bild 11: Solares Magnetfeld und Globaltemperatur (abgewandelt nach 28)

Wie Messungen zeigen, war im übrigen die Solaraktivität seit dem Jahr 850 noch nie so hoch wie nach 1940 (29). Auch im Wärmehaushalt der Weltmeere macht sich die wolkenbedeckungsabhängige Schwankung der solaren Einstrahlung stärker bemerkbar.  Somit dürfte der anthropogene Treibhauseffekt eine kleine, aufgesetzte Größe auf einer natürlichen Klimaschwankung sein.

Abgesehen davon erscheint die unter Punkt 3 vorgerechnete Temperatur von – 18 °C, welche die Erde ohne Treibhausgase angeblich hätte, viel zu niedrig angesetzt sein. Sie entspricht aber der offiziellen Doktrin, die – und das muss betont werden – eine Hypothese ist. Weil, wie bereits hervorgehoben, die Erde kein wasserloser Gesteinshaufen im Weltall ist, sondern zu 70 % mit Wasser bedeckt ist, muss die direkte Absorption im nahen Infrarotgebiet (NIR) und die sehr verzögerte Strahlungsemission von Ozeanwasser stärker berücksichtigt werden.

<hug/img height=“303″ width=“444″ v:shapes=“_x0000_s1057″ src=“Hug/image034.gif“>
</hug/img>

Bild 12: Wolkenbedeckung (Wolkendichte) und globale Temperatur

Aus dem Bild 12 geht hervor, dass sich die globale Wolkenbedeckung zwischen 1986 und 2000 von 69 % auf 65 % reduzierte (linke Ordinate, „fallend“ aufgetragen). Parallel hierzu stieg die globale Mitteltemperatur (rechte Ordinate, „steigend“ aufgetragen).

Während die Temperaturschwankungen in der Sahara im Tagesverlauf ohne weiteres bis zu 50 °C betragen können, verhalten sich Meere wesentlich träger. Der Gesamtwärmeumsatz (Wärmeenergie nicht Wärmeleistung!) eines Meeres ist die Summe vieler Größen:

Qges = (QS – QA) – QK – QV – QT + QC + QE + QF + QR

QS = im Meer absorbierte Sonnen- und Himmelsstrahlung (= „Treibhauseffekt“)

QA = effektive Ausstrahlung

QK  = „fühlbarer“ Wärmeübergang Luft-Wasser

QV  = latenter Wärmeübergang Luft-Wasser (Verdunstung, Kondensation)

QT  = Wärmetransport durch Strömung

QC  = chemisch-biologische Prozesse

QE  = Wärmezufuhr aus dem Erdinnern

QF  = Reibungswärme

QR  = radioaktiver Zerfall

Da die Speicherfähigkeit des Wassers erheblich über der von Gesteinen liegt, ist es ausgeschlossen, dass sich die Erde bei einer Trägheit des Systems Wasser-Luft nachts schlagartig um 50 °C herunterkühlen. Denn insbesondere die Abstrahlungsleistung dQA/dt unterscheidet sich wegen der wesentlich höheren Wärmespeicherungsfähigkeit von Meerwasser deutlich von jener der Sahara. Gemäß der Stefan-Boltzmann-Gleichung (Gleichung 2) hängt nämlich die spezifische Ausstrahlung der Erdoberfläche mit der Temperatur unmittelbar zusammen. Je höher die letztere ist, desto größer ist auch die Abstrahlung.

Aus der obigen Aufzählung geht aber hervor, dass der Energiegehalt des Meerwassers auch auf der Wärmezufuhr aus dem Erdinnern, auf chemisch-biologischen Prozessen, auf radioaktiven Zerfall und auf Reibungswärme beruht. Die Größe QF (Reibungswärme) in der obigen Aufzählung hängt von der Windgeschwindigkeit ab.  Wie H. Volz auf einer Tagung der Bayerischen Akademie der Wissenschaften berichtete, differiert die  spezifischen Ausstrahlung bei den Windstärken 0 und 7 in einer Größenordnung von  DM = 11,1 W/m2 (30). Die Ein- und Ausstrahlungsbilanz geht aber von einer ruhenden See aus. Addiert man diese Größe zur spezifischen Ausstrahlung bei 15 °C, so erhält man:

= 239,0 W/m2 + 11,1 W/m2 = 250,1 W/m2

Eingesetzt in die Gleichung 2 resultiert für die Temperatur T  = 257,7 K (- 15,3 °C). Diese Temperatur liegt um 2,7 °C höher, als die besagten – 18 °C. Die Treibhausgase erhöhen dann die Mitteltemperatur nicht um 33 °C sondern „nur“ um 30,3 °C, insofern die These richtig ist, die „normale“ Mitteltemperatur der Erde beträgt + 15 °C. Wie hoch war diese eigentlich während des mittelalterlichen Klimaoptimums (11. – 13. Jh. ) und während der „kleinen Eiszeit“ (14. bis 18. Jh)?

Ein weiteres kommt hinzu. Etwa 50 % der Sonneneinstrahlung, die den Erdboden erreicht, ist Wärmestrahlung (nahes und mittleres IR). Diese wird vom Meerwasser absorbiert. Die strahlungsfixierte Treibhausgastheorie saldiert nur die Einstrahlung und Ausstrahlung im Tagesverlauf als könnten sich die Weltmeere auf der Nachtsseite schlagartig auf – 18 °C abkühlen. Die Trägheit der Ozeane ist aber mit einer Relaxationszeit bis zu 200 Jahren sehr hoch. Folglich dürfte die mittlere globale Gleichgewichtstemperatur der Ozeane ohne atmosphärische Treibhausgase eher um + 4 °C (Wasser höchster Dichte am Grunde eines zugefrorenen Gewässers) denn bei – 18 °C liegen. Als ich vor einiger Zeit einmal mit einem ehemaligen Leiter eines Klimarechenzentrums korrespondierte und ihn fragte, wie hoch die irdische Mitteltemperatur ohne Ozeane anzusetzen sei aber mit dem gegenwärtigen atmosphärischen Treibhausgasgehalt, erhielt ich zur Antwort, dies sei eine interessante Frage, die man aber bislang nicht durchgerechnet habe.

Zusammenfassung

·        Der anthropogene Treibhauseffekt ist im wesentlichem ausgereizt, wie die Messung der Transmission von IR-Strahlung belegt. Eine globale Klimakatastrophe ist daher selbst bei einer CO2-Verdoppelung nicht zu erwarten.

·        Die Steigerung des Treibhauseffekt um 1,2 % bei 100 % mehr CO2 ist eine Bagatelle, die man nur mit Hilfe des Wasserdampfverstärkungsmechanismus vergrößern kann.

·        Zweifellos enthält die Atmosphäre gemäß der Clausius-Clapeyronschen-Gleichung mehr Wasserdampf, wenn es wärmer wird. Jedoch lässt sich der hypothetische Wasserdampfverstärkungsmechanismus, ohne den Klimamodelle nicht zu einem merklichen Temperaturanstieg kommen, in der Realität nicht nachzuweisen. Weil sich somit der atmosphärische Wasserdampfgehalt nicht an der Konzentration der Treibhausgase orientiert, erhöht sich die globale Mitteltemperatur bei 100 % mehr CO2 in der Atmosphäre bestenfalls um 0,7 K (0,7 °C).

·        Computerklimamodelle kommen u. a. deshalb zu falschen Ergebnissen, weil der hypothetische Wasserdampfverstärkungsmechanismus vollkommen überwertet wird.

·        Der atmosphärische Temperaturgradient beruht auf einem Energietransport und nicht auf einem Strahlungstransportmechanismus mit dem fiktiven LTE. Deshalb wird der atmosphärischen Rückstrahlung – dem Treibhauseffekt – eine zu große Bedeutung zugemessen.

·        Klimamodelle müssen mit – gewillkürten – Flusskorrekturen arbeiten, deren Größenordnung den des anthropogenen Treibhauseffekts um ein Vielfaches übertreffen. Im anderen Fall „hat (man) als Modellierer … die Wahl, entweder ohne Flusskorrektur mit einem unrealistischen Klimazustand zu operieren, oder die Flusskorrektur mit ihren Schwächen zu akzeptieren, dafür aber ein realistisches Klima zu erhalten.“(32)

·        Die Abbildung des Klimas in der Vergangenheit mit Computeralgorithmen gelingt nicht ohne massive Korrekturgrößen.

·        Die globale Mitteltemperatur ohne Treibhauseffekt dürfte um einiges höher als bei 255 K (-18 °C) liegen.

·        Das Klima wird hängt stärker von der Variation der Wolkenbedeckung ab als vom Gehalt atmosphärischer Treibhausgase.

·        Das IPCC ist eine politische Organisation, die sich eines Wissenschaftlergremiums bedient, um volkspädagogische Lernziele durchzusetzen.

Abschließend möchte ich die Leser darauf aufmerksam machen, dass dem gegenwärtigen CO2-Gehalt je nach Literaturstelle ein unterschiedlicher Temperatureffekt zugeordnet wird. In dem von von J.T. Houghton herausgegebenen Buch „The Global Climate“ geben Kondratjew und Moskalenko 7,2 K an (14). Die Autoren zitieren sich dabei selbst (15). Besorgt man sich das in Kyrillisch geschriebene Buch und schaut auf der angegebenen Seite nach, so landet man im Sachwortverzeichnisses. Auch die weitere Suche in dem Buch bringt kein Ergebnis. Andererseits scheint man sich doch recht sicher zu sein, denn die Angaben der Autoren werden gerne zitiert (16). Allerdings gibt es Widersprüche, denn K.P. Shine gibt einen anderen Wert an, nämlich 12 K (17) und R. Lindzen (18) geht davon aus, dass dem CO2 nur etwa 5% des natürlichen Treibhauseffekts zuzuordnen sind. Das wären 1,65 K und damit weniger als ein Viertel des bei IPCC benutzten Werts von 7,2 K.

Literatur

[1] R. Revelle, Scientific American, 247, No.2, Aug. 1982, 33-41
[2] J. Barrett, Spectrochim. Acta Part A, 51, 415 (1995)
[3] R.A. Hanel et al. Journal of Geophysical Research, 77, 2629-2641 (1972)
[4] H. Flohn, Nachr. Chem.Tech.Lab, 32, 305-309 (1984)
[5] L.S.Rothman et al., Appl.Opt. 26, 4058 (1987)
[6] H. Hug, Chemische Rundschau, 20. Febr., p. 9 (1998)
[7] P. S. Braterman, Spectrochim. Acta Part A, 52, 1565 (1996)
[8] K. Shine, Spectrochim. Acta Part A, 51, 1393 (1995)
[9] J. Houghton, Spectrochim. Acta Part A, 51, 1391 (1995)
[10] R. S. Courtney, Spectrochim. Acta Part A, 53, 1601 (1997)
[11] R. P. Wayne, Chemistry of Atmospheres, Oxford University Press,
2nd. Edition, 44-49 (1991),
[12] Murry L. Salby, Fundamentals of Atmospheric Physics, Academic Press, 198-257 (1996)
[13] Climate Change 1990. The IPCC Scientific Assessment, p. 49
[14] K.Ya. Kondratyev, N.I. Moskalenko in J.T.Houghton, The Global Climate, Cambridge
Universitiy Press, 225-233 (1984)
[15] K.Ya. Kondratyev,N.I. Moskalenko, Thermal Emission of Planets, Gidrometeoizdat,
263 pp (1977) (Russisch)
[16] C.D. Schönwiese, Klimaänderungen, Springer-Verlag Berlin Heidelberg, p. 135 (1995)
[17] K. P. Shine, A. Sinha, Nature 354, 382 (1991)
[18] R. S. Lindzen, Proc. Nat. Acad. of Sciences, 94, 8335 (1997)

[19] R. Raschke, R. Hollman, Strahlungsübertragung in der Atmosphäre, Modellierung und Messung, Preprint zum CO2-Kolloquium der DECHEMA in Frankfurt/Main am 11.10.2001

[20] T. E. Graedel, Paul J. Crutzen, Chemie der Atmosphäre, Spektrum Akademischer Verlag, Heidelberg, Berlin, Oxford 1993, S. 414

[21] IPCC, Climate Change 2001, Chap.  1.2.1 Natural Forcing of the Climate System

[22] J. T. Kiehl, K. E. Trendberth, Bull. Amer. Meteor. Soc.78 (1997) 197

[23] IPCC, Climate Change 1994, Radiative Forcing of Climate Change and Evaluation of the IPCC IS92 Emission Scenarios, Cambridge University Press, S. 174

[24] IPCC, Climate Change 2001, Working Group I: The Scientific Basis. Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panal on Climate Change, Chap. 7.2.1.1

[25] H. Hug, Energy & Environment, 11, 631, (2000)

[26] N. D. Coggeshall and E. L. Saier, J. Chem. Phys., 15, 65, (1947), Fig. 1

[27] Matthias Otto, Analytische Chemie, Wiley-VCH Verlag, Weinheim (2000), S. 280 ff

[28] S. Solanki, M Schüssler, M Fligge, Nature408 (2000) 445

[29] I. G. Usoskin, S. K. Solanki, M. Schüssler, K. Mursula, K. Alanako, Phys. Rev. Let., 91 (2003) 211101-1

[30] Rundgespräche der Kommission für Ökologie, Klimawandel im 20. und 21. Jahrhundert: „Welche Rolle spielen Kohlendioxid, Wasser und Treibhausgase wirklich?“ Bayerische Akademie der Wissenschaften, Verlag Dr. Friedrich Pfeil, Müchen, April 2005, S. 93

[31] Wasserdampfgraphik nach H. Flohn, BdW 12/1978, S. 132

[32] U. Cubasch, Phys. Bl. 51 (1995) 269

[33] H. Hug, Die Angsttrompeter, Signum Verlag, München, 2006, S. 227

Heinz Hug, Wiesbaden Juni 2007

Den Aufsatz können Sie auch als pdf Datei aus dem Anhang herunterladen

Related Files




Energiewende, Teil 2: Stromausfälle hautnah! Was Deutschlands Bürger bisher nicht kannten, haben sie nunmehr zu fürchten

Es wird Erweckungserlebnisse geben

Stromausfälle kennen die Menschen in Deutschland bisher nur aus Nachrichten von anderen Ländern, aus einer fernen Welt, als etwas Exotisches. Das wird sich ändern. Stromausfälle stehen auch hierzulande bevor – als Eigenerlebnis zuhause (beim Kühl- und Tiefkühlschrank, beim Kochen am Elektroherd, beim Staubsaugen, Geschirrspülen, Wäschewaschen, Heizen, Surfen im Internet, Fernsehen) und außerhalb der Wohnung am Arbeitsplatz, im Bahnverkehr, in der Wasserversorgung, in der Verkehrsregelung, in den Kühlhäusern, bei den Geldautomaten. Ohne Strom geht heute fast nichts mehr. Solche Eigenerlebnisse werden Erweckungserlebnisse sein: „So haben wir das Umsteigen auf ‚die Erneuerbaren’ aber nicht gewollt.“

Unausweichliche Folge des Umstiegs auf Strom von Sonne und Wind

Denn nun werden die Menschen die Folgen der vorgeblichen und gemeingefährlichen Klimaschutzpolitik hautnah ganz persönlich erleben. Sind doch die Stromausfälle die unausweichliche Folge jener Politik,

• die den Strombedarf einer hochentwickelten Industrienation mehr und mehr (und eines Tages nur) mit Windkraft und Sonnenschein auf Fotovoltaik-Dächer decken zu können glaubt, 
• die angstschürend und wider besseren Wissens ihre Stromerzeugung aus Kernkraft aufgibt, 
• die wegen des CO2-Ausstoßes letztlich auch die Kohle- und Gaskraftwerke durch „die Erneuerbaren“ ersetzen will, 
• die dieses technisch-anthropogene CO2 unbewiesen als „Treibhausgas“ verteufelt und 
• die das diktatorische Vermeiden dieses CO2 den Menschen als Klimaschutz vorgaukelt.
Stete Stromversorgung durch Sonne und Wind ist illusorisch

Warum unausweichliche Folge? Weil der Wind unstetig weht, weil die Generatoren bei Windstärken unter 3 m/s überhaupt keinen Strom erzeugen und bei zu starkem Wind sofort abgestellt werden müssen, erreichen Windkraftanlagen im Jahresdurchschnitt allenfalls 20 Prozent ihrer Nennleistung, auf See nur bis zu 30 Prozent. In Deutschland treiben inzwischen (nach dem Stand vom 31. Dezember 2010) 21 607 Anlagen mit einer Nennleistung von über 27 214 MW ihr kostspieliges Unwesen. Für deren fehlende Leistung von durchschnittlich 80 Prozent müssen herkömmliche Kraftwerke stets bereitstehen, um die Fehlmengen sofort zu liefern („Schattenkraftwerke“) – betrieben mit Kohle, Gas, Kernenergie oder Wasser. Diese müssen häufig außerhalb ihres günstigen Wirkungsgradbereiches gefahren werden, weil der Windstromanteil schwankt, aber die Stabilität des Stromnetzes erhalten bleiben muss. Und auf die Sonne ist in unseren Breiten ebenfalls kein Verlass. Tagsüber scheint sie mal und mal nicht, im Winter ohnehin schwächer, und nächtlichen Sonnenschein werden die Menschen ebenso wenig hinbekommen, wie sie das „Klima schützen“ können. Ohne diese „Schattenkraftwerke“ ist eine stetige und verlässliche Stromversorgung durch Wind und Sonne mit den benötigten Mengen wie bisher zu jeder Tages- und Nachtzeit illusorisch.

Die stabile Netzspannung ist in Gefahr

Ohnehin wird es mit laufend mehr Wind- und Photovoltaik-Strom schon derzeit trotz der jetzt noch verfügbaren herkömmlichen Kraftwerke immer schwieriger, Angebot und Nachfrage miteinander in Einklang zu bringen, denn Strom auf Halde zu produzieren, also großtechnisch zu speichern, geht bisher nicht. Damit wird es auch immer schwerer, die Spannung im Netz stabil zu halten. Je mehr Wind- und Photovoltaik-Strom, desto instabiler die Netzspannung. Früher war die Verteilung des Stroms vergleichsweise einfach. Produziert wurde er fast nur von den Versorgern und überwiegend in Großkraftwerken. Das war stromtechnisch vergleichsweise einfach zu steuern. Aber mit dem Ausbau des „erneuerbaren“ Wind- und Photovoltaikstroms schwankt die Produktion abhängig von Wetter und Tageszeit. Zudem wird der Strom dezentral produziert und ist so nur schwer zu kalkulieren. Selbst Privathaushalte speisen Elektrizität, die sie von Solardächern gewonnen haben, ins Netz ein. Die Versorgung ist daher nur schwer zu steuern, die Stromspannung nur schwer für die nötigen 50 kHz zu stabilisieren. Stromausfälle sind damit gleichsam programmiert als seien sie festes, noch aber verheimlichtes Programm. Extreme grüne Weltverbesserer machen daraus schon jetzt keinen Hehl.

Immer mehr Wind- und Sonnenstrom erhöhen das Risiko von Netzausfällen

Wenn nun Deutschland aus der „Kernkraft aussteigt“, also einsam und allein seine Kernkraftwerke abschaltet, dann ist die Gefahr von Stromausfällen schon jetzt akut, vor allem im Winter. Eben darum haben jüngst die vier großen Stromnetzbetreiber in Deutschland vor „großflächigen Versorgungsausfällen“ als Folge des Ausstiegs gewarnt, ebenso die Internationale Energieagentur. Die Stromnetze seien "fernab von jedem operativen Normalbetrieb". Schon jetzt müssten Kraftwerksrevisionen sowie dringende Arbeiten zur Instandhaltung und zum Ausbau der Netze verschoben werden, weil die Netze sonst noch unstabiler würden. Trotz all dieser Maßnahmen steige aber das Risiko für Netzstörungen, da die Reserven und Eingriffsmöglichkeiten der Netzbetreiber nahezu aufgezehrt seien. Eine zusätzliche Herausforderung werden die (ebenfalls subventionierten) Elektroautos, denn unregelmäßig werden sie Strom aus den Zapfsäulen ziehen. Bis 2020 will die Bundesregierung eine Million E-Autos auf die Straße bringen.

Wind- und Sonnenstrom verlangen nach einem ganz neuen Leitungsnetz

Energiefachleute haben schon viel früher gewarnt, auf sie gehört wurde nicht. Die Gefahr, dass durch immer mehr Wind- und Solarstrom das Stromnetz überfordert ist und zusammenbricht, haben allmählich auch die Profiteure dieser unverantwortlichen Energiepolitik erkannt, unter ihnen die Politiker und der Fiskus. Die deutschen Stromerzeuger und Hunderte Kommunalversorger, müssen im nächsten Jahrzehnt ihre Netze gegen die künstlich herbeigeführte Instabilität sichern. Der wetterwendische und dezentral erzeugte Wind- und Fotovoltaik-Strom treibt das Land also auch in einen riesigen Umbau des Stromnetzes, was den Strom zusätzlich verteuert. Deutschland soll mit einem zusätzlichen und technisch neuen Stromleitungsnetz („smart grids“) überzogen werden, tausende Kilometer lang. Dafür sind Milliardeninvestitionen nötig, um zur einstigen Netzstabilität zurückzufinden. Aber Planung, Durchsetzung gegen Bürger-Widerstand und Bau dauern viele, viele Jahre – von der zusätzlichen Landschaftszerstörung ganz abgesehen. Bis dahin werden sich Bürger und Unternehmen in Deutschland auf Stromausfälle einstellen müssen.

Auf dem Weg in die Verarmung

Wer ein hochindustrialisiertes und in allem stromabhängiges Land in eine solche Gefahr bringt, führt es in die Desindustrialisierung. Wie schon politisch hat Deutschland dann auch wirtschaftlich nicht mehr viel zu melden. Deutschland begibt sich in schleichende Verarmung und zieht seine Bewohner dabei mit. Auf andere Weise hat die politische Führung Deutschlands diesen Weg ebenfalls schon beschritten – so durch seine Politik der staatlichen Überschuldung, durch seine Selbstentmachtung innerhalb der Europäischen Union, durch seine sklavische Euro-Politik in der EU-Währungsunion, sein Mitwirken am Ausschalten der „Maastricht-Stabilitätskriterien“ und das Retten unsolider Euro-Staaten als Hauptzahler mit dem Steuergeld seiner Bürger.

„Möglich ist alles, vorausgesetzt, es ist genügend unvernünftig“

Wahrscheinlich ist vielen, auch in der politischen Klasse, gar nicht klar, dass die privaten Haushalte 50 bis 60 Elektrogeräte nutzen und dafür eine stets verfügbare Stromversorgung brauchen. Darüber hinaus werden die Stromausfälle begleitet von einer gewaltigen Stromverteuerung. Von 2000 bis 2011 hat sich der Strompreis bereits verdoppelt – auf 23 Cent je Kilowattstunde. Bis 2020 wird er sich abermals verdoppeln – auf über 50 Cent. Spätesten dann müsste der bei den Menschen geschürte CO2-Wahn und Klimaschutz-Irrglaube auf den Boden der Tatsachen zurückfinden. Und spätestens jetzt muss es auch der politischen Führung in Deutschland dämmern, was sie mit ihrer tiefgrünen Energiepolitik anrichtet. Vom dänischen Physiker Niels Bohr stammt die spöttische Bemerkung "Alles ist möglich, vorausgesetzt, dass es genügend unvernünftig ist." Deutschland hält sich dran.

Deutschland gefährdet nicht nur sich, sondern auch andere

Doch gefährdet Deutschland mit seinem Sonderweg nicht nur sich allein, sondern auch seine Nachbarländer. Eben darum hat die Internationale Energieagentur ebenfalls gewarnt: Mit dem deutschen Alleingang würden Nachhaltigkeit und Versorgungssicherheit in ganz Europa geopfert; es gehe angesichts des Energie-Binnenmarktes der EU nicht um ein deutsches, es gehe um ein europäisches Problem. Vom Stromnetz sind Menschen und Wirtschaft inzwischen abhängiger als vom Schienennetz.

Es fehlt noch an fresslustigen Ziegen

Aber die „Grünen“ wird das alles nicht erschüttern, auch die grün angestrichenen anderen Parteien wie SPD, CDU, CSU, FDP und Linke nicht. Wer sich grün anmalt, den fressen die Ziegen, heißt ein geflügeltes Wort. Täten die Ziegen das, dann wären die Fünf weg. Sind sie aber nicht; es fehlt noch an fresslustigen Ziegen.

Störrisch und verstockt, mutwillig und rücksichtslos

Das Bundesumweltministerium ließ verlauten, man nehme die Bedenken der Netzbetreiber sehr ernst. Aber zugleich fügte es hinzu, nunmehr bedenkenlos, die Lage sei beherrschbar. Nein, das ist sie nicht, denn wer für die Versorgung eines hochindustrialisierten Landes mit Strom immer stärker und am Ende ganz auf die sehr unsteten Naturkräfte wie Wind und Sonne setzt, wer diese Erzeugungsform beratungsresistent mit Bracchialgewalt durchpaukt und alle Kernkraftwerke zum Teufel jagen will, der gefährdet damit die bisher sichere und ständige Verfügbarkeit von Strom in Deutschland aufs Höchste. Ablassen von diesem Abenteuer wollen die politischen Hasardeure aber trotzdem nicht – störrisch und verstockt, mutwillig und rücksichtslos. Die Zumutungen für Land und Bürger, die Auswirkungen auf Wirtschaft und Beschäftigung interessieren sie nicht. Noch nicht. Denn wie oft und wie lange werden sich die Menschen Stromausfälle bieten lassen?

Dr. Klaus-Peter Krause 01. Juni 2011

Der Originalartikel erschien in eigentümlich frei hier




„Und ewig sterben die Wälder“ jetzt bei Youtube!

"Und ewig sterben die Wälder" Ein Film von Michael Miersch und Tobias Streck




Stockholm: „Genie-Gipfel“ der Nachhaltigkeit

Nachdem die aufwändigen „Klima-Gipfel“ von Kopenhagen und Cancún mit äußerst mageren Ergebnissen endeten, versucht die UN nun in Zusammenarbeit mit großen privaten Stiftungen zu verhindern, dass auch der „Rio+20-Gipfel“ im kommenden Jahr zu einem Flop wird. In Stockholm trat diese Woche eine Jury von an die 20 Nobelpreisträgern zusammen, um einem hochrangigen Expertengremium der UN ihr Urteil über den Zustand der Welt zu übermitteln.

 

Quelle: Büso „Der Weg zur Bevölkerungsreduktion“ Kommentar zum WBGU Berichtes zu großen Transformation

Zu den Honoratioren, die in Stockholm über die Menschheit richten und über Chancen einer „Wende zur Nachhaltigkeit“ berieten, zählen der deutsche Physik-Nobelpreisträger Peter Grünberg, der indisch-britische Wirtschaftsnobelpreisträger Amartya Sen, der Schweizer Medizin-Nobelpreisträger Werner Arber, der niederländisch-deutsche Chemie-Nobelpreisträger Paul Crutzen und die südafrikanische Literaturnobelpreisträgerin Nadine Gordimer. Aufgabe der Jury sei es gewesen, „Kipp-Prozesse hin zu nachhaltiger Entwicklung“ zu ermitteln, heißt es in einer Mitteilung des Potsdam Instituts für Klimafolgenforschung (PIK), das zu den Organisatoren des 3. Nobelpreisträger-Symposiums über globale Nachhaltigkeit gehört. Neben dem PIK waren die Königlich Schwedische Akademie der Wissenschaften, das Stockholm Resilience Center, das Stockholm Environment Institute und das Beijer Institute of Ecological Economics  maßgeblich an der Ausrichtung des Symposiums beteiligt. Gesponsert wurde die Veranstaltung unter anderen von der Volkswagen-Stiftung und der Essener Stiftung Mercator.
Ausdrücklich wies PIK-Direktor Hans Joachim Schellnhuber darauf hin, dass es sich bei den in Stockholm versammelten Nobelpreisträgern nicht um Experten für globale Probleme der Menschheit, sondern um „einige der klügsten Köpfe der Welt“ handelt, die „wissen, dass es ums Ganze geht.“ Wie aus dem vorab veröffentlichten „Executive Summary“ hervorgeht, ging das Stockholmer Symposium von der von Paul Crutzen formulierten Leitidee aus, dass die Menschheit dabei ist, eine neue Epoche der Erdgeschichte, das „Anthropozän“ einzuleiten. Nicht blinde Naturprozesse, sondern menschliche Einwirkungen prägten nun die Entwicklung der Erde. Deshalb dürften die Menschen nicht in der Rolle von Jägern und Sammlern verharren, sondern müssten zu Hütern der Erde werden. Notwendig sei eine globale Steuerung der Entwicklung durch ein „Erdsystem-Management“ (Hans Joachim Schellnhuber). Als wichtigste Stellschraube dafür gilt der Eintrag von Kohlenstoffdioxid in die Atmosphäre. Den Indizienbeweis für die Schlüsselrolle von CO2 können die in Stockholm versammelten Genies freilich nicht erbringen.
So bleibt es höchst zweifelhaft, ob die Menschen auf globaler Ebene tatsächlich jemals die ihnen von einigen überheblichen Weltverbesserern zugeschriebene Rolle werden spielen können. Denn dann müssten sie nicht nur mithilfe einer „Tektonik-Politik“ die Bewegungen der Erdkruste kontrollieren können, um schwere Erdbeben und Tsunamis verhindern zu können. Sie müssten auch die Zyklen der Sonne und die Bewegungen der Erdachse gezielt beeinflussen können. Es liegt auf der Hand, dass die Menschen trotz aller technischen Fortschritte dazu niemals imstande sein werden. Die klügsten Köpfe der Menschheit können weder definieren, was Nachhaltigkeit bedeutet, noch wie lange diese vorhalten soll. Was vom Stockholmer „Geniegipfel“ (O-Ton PIK) bleibt, sind die naiven Träumereien einiger Würdenträger, die nicht merken, dass sie lediglich die Rolle nützlicher Idioten der internationalen Finanzindustrie spielen. Deren Strategie zielt darauf ab, mithilfe des CO2-Zertifikatehandels die globale Kontrolle sämtlicher Kapital- und Stoffströme zu erlangen.

Edgar Gärtner EIKE

Anmerkung der Redaktion:

Zur Erinnerung:

Otmar Edenhofer, ehemaliger Jesuit, jetzt Chefvolkswirt des PIK und stellvertretender Vorsitzender des IPCC in einem NZZ [1](http://www.nzz.ch/nachrichten/hintergrund/wissenschaft/klimapolitik_verteilt_das_weltvermoegen_neu_1.8373227.html Neue Zürcher Zeitung) Interview ganz deutlich erklärte was von seiten der UNO und der sie unterstützenden Kreise eigentlich angestrebt wird:

„Zunächst mal haben wir Industrieländer die Atmosphäre der Weltgemeinschaft quasi enteignet. Aber man muss klar sagen: Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch, fast nichts mehr zu tun.“


[1] NZZ «Klimapolitik verteilt das Weltvermögen neu»

Related Files




Das Atomzeitalter ist noch lange nicht zu Ende!

Weshalb Gates die hastige Abkehr der schwarz-gelben Bundesregierung von der Atomenergie mitleidig belächelte, erfuhren die Leser des Wall Street Journal schon Ende Februar. Gates leitet nämlich neben der größten privaten Stiftung der Welt unter anderem auch die kleine Start-up-Firma TerraPower LLC. Das einstweilen nur 30 Mann starke Unternehmen arbeitet daran, Kernreaktoren kleiner, billiger und sicherer zu machen. Gates träumt von einem inhärent sicheren Mini-Kernreaktor, der samt eingeschweißtem Brennstoff in der Erde verbuddelt oder auf Schiffen montiert werden könnte, wo er wartungsfrei 50 bis 100 Jahre lang arbeiten könnte. Die Ingenieure von TerraPower arbeiten bereits am Modell eines so genannten Wanderwellen-Reaktors, in Deutschland bekannt als „Brüter“ – allerdings bislang nur am Bildschirm.

Die Idee für einen solchen Reaktor stammt vom Atom-Pionier Edward Teller. Der Wanderwellen-Reaktor würde für die „Zündung“ nur eine kleine Menge spaltbares Uran 235 benötigen. Die bei der Spaltung von Uran 235 freiwerdenden Neutronen würden von einem Mantel aus abgereichertem Uran 238 aufgefangen, das dabei langsam in Plutonium 239 umgewandelt würde. Dieser Mantel aus abgereichertem Uran, das heißt Abfall aus herkömmlichen Kernkraftwerken, würde etwa 90 Prozent der gesamten Brennstoffmenge ausmachen. Das darin entstehende Plutonium würde durch die Aufnahme weiterer Neutronen über lange Zeit Energie freisetzen. Diese Energie würde durch flüssiges Natrium von Reaktorkern abtransportiert und könnte dann über einen Wärmetauscher auf Turbinen geleitet werden.

Bill Gates weist selbst darauf hin, dass ein solcher Reaktor zurzeit auch in den USA nicht genehmigungsfähig wäre. Es wird wohl noch etliche Jahre dauern, bis die Entwicklungsarbeit so weit gediehen ist, dass sich die Frage der Genehmigung überhaupt stellt. Er sieht aber große Chancen, für sein Projekt die Unterstützung der US-Regierung zu bekommen. Denn Präsident Barack Obama hat in seinem Ansatz für den Bundeshaushalt für 2012 nicht weniger als 853 Millionen Dollar für die Kernforschung einschließlich der Entwicklung von Kleinreaktoren in Aussicht gestellt.

Bill Gates und seine Firma stehen mit Der Idee, sichere Mini-Atomkraftwerke zu entwickeln, keineswegs allein. Schon vor knapp zwei Jahren stellte Prof. Craig F. Smith, der Inhaber des Lawrence Livermore National Laboratory  Lehrstuhls in Monterey/Kalifornien den Small Secure Transportable Autonomous Reactor (SSTAR) vor, bei dem flüssiges Blei als Kühlmittel dienen soll. Blei hat gegenüber Natrium den Vorteil, dass es nicht brennt und obendrein eventuell aus dem Reaktor entweichende Radioaktivität schluckt. Ein Wärmetauscher überträgt die Energie vom flüssigen Blei auf Kohlenstoffdioxid (CO2), das eine Gasturbine antreibt. Eine Kernschmelze ist bei diesem Reaktortyp ausgeschlossen. Smith weist darauf hin, dass schon 15 Länder bei der Internationalen Atomenergie-Behörde IAEA in Wien insgesamt 50 ähnliche Reaktorkonzepte angemeldet haben. Von den in den USA tätigen Nuklear-Firmen verfolgt der japanische Mischkonzern Toshiba, der im Jahre 2006 den bis dahin führenden großen US-Reaktorbauer Westinghouse übernommen hat, das SSTAR-Konzept. Schon relativ weit soll die Entwicklung eines transportablen Klein-Reaktors von 10 Megawatt Leistung gediehen sein. Toshiba arbeitet dabei eng mit der russischen Staatsholding Rosatom zusammen. Die US-Firma Hyperion Power arbeitet in Santa Fe an einem Kleinreaktor mit 25 Megawatt Leistung. Dabei handelt es sich um eine verbesserte Version der russischen Alpha-U-Boot-Klasse, die flüssiges Blei und Wismut für die Kühlung benutzt. Auch der etablierte Großreaktorbauer Babcock & Wilcox hat kleinere Reaktormodelle als neue Geschäftschance entdeckt.

Die Russen haben sich auf den Bau schwimmender „Brüter“ mittlerer Kapazität spezialisiert. Am 30. Juni 2010 fand in der baltischen Werft in St. Petersburg der Stapellauf des ersten schwimmfähigen Kernkraftwerks Akademik Lomonossow statt. Die Barke mit zwei modularen Kompakt-Reaktoren soll ab 2012 die schlecht zugängliche Siedlung Viljuchinsk auf der Halbinsel Kamtschatka von der See aus mit Strom versorgen. Rosatom möchte offenbar den Bau modularer schwimmfähiger Kernreaktoren zu einem originellen Geschäftsmodell ausbauen. Die Staatsholding sieht große Exportchancen für schwimmende Kernkraftwerke in Asien, Lateinamerika und Nordafrika, denn die Metropolen der Schwellenländer befinden sich meistens an der Küste. Neben der Stromversorgung könnten schwimmende Kernkraftwerke auch gut als Energiequelle für die Meerwasser-Entsalzung dienen.

Craig F. Smith sieht im Bau modularer Mini-Kernkraftwerke erst den richtigen Beginn des Atomzeitalters. Denn im Unterschied zu Großreaktoren können diese wie Henry Fords berühmtes Model T preisgünstig in Groß-Serie hergestellt und überall hin transportiert werden, sobald sich bestimmte Typen in der Praxis bewährt haben. Die Kleinreaktoren könnten so gebaut werden, dass sie mit passiver Kühlung auskommen und ihr kompakter Kern für die Nutzer unzugänglich bleibt. Den Kern könnte man in eine Kassette einschweißen, die nur en bloc ausgetauscht werden kann. Während bis heute nur 30 der 200 Länder der Erde über Kernreaktoren verfügen, werde die Atomenergie in Form von Kleinreaktoren für alle zugänglich und erschwinglich werden, meint Smith.

Wenn heute trotz der Katastrophe von Fukushima von einer möglichen „nuklearen Renaissance“ die Rede ist, gilt das wohl in erster Linie für Mini-KKW. Bei Groß-KKW auf der Basis verbesserter Druckwasser-Reaktoren (EPR) zeigen sich demgegenüber immer deutlicher Kosten-Hürden. Schon im Jahre 2008 wurden die Stromerzeugungskosten des französischen EPR bei Flammanville/Nordfrankreich auf mindestens 46 Euro je Megawattstunde geschätzt. Die Baukosten des EPR in Olkiluoto/Finnland gehen an die fünf Milliarden Euro. Weitere EPR-Projekte, etwa in Polen, haben sich denn auch hauptsächlich wegen ungelöster Finanzierungsfragen verzögert. Die Anbieter mobiler und preiswerter Mini-KKW werden sich also wohl nicht über mangelndes Kundeninteresse zu beklagen haben. In Deutschland müssen aber wohl erst die Lichter ausgegangen sein, bevor Bill Gates’ Idee hier auf fruchtbaren Boden fällt.

Edgar L. Gärtner EIKE

 Weiterführende Links: NZZ  Tiefe Wasserstände: «KKW müssen Leistung runterfahren»

dapd vom 11.5.11:  Merkel nimmt steigende Energiepreise in Kauf




Grüne Maßnahmen laden zu großangelegter Korruption ein

Die Organisationen warnt, dass die vom Klimawandel am meisten bedrohten 20 Nationen – wohin Millionen von Zuwendungen und Hilfen fließen sollen – zu den korruptesten der Welt gehören – stärkere Überwachung wäre nötig, um den zielgerichteten Einsatz der Gelder zu sichern. Keines der Länder, eingeschlossen Bangladesch, Simbabwe, Ägypten und Vietnam erreicht mehr als 3,6 auf dem internationalen Korruptionsindex von Transparency International. Null bedeutet völlig korrupt und zehn "sehr sauber".
Laut TI würde jegliches Absaugen grüner Zuwendungen die Anstrengungen zur Reduzierung der Auswirkungen des Klimawandels unterminieren: von Entwicklungsprojekten wie Windfarmen, Sonnenkraftwerken, Deichbauten, Bewässerungssystemen und Behausungen, die Naturkatastrophen standhalten könnten.
"Aus der Korruption kommt nichts Gutes, auch nicht für unserer Erde Zukunft," sagte Huguette Labelle, Vorsitzende von TI. "Das Versagen, Klimaschutzmaßnahmen richtig zu verwalten, führt nicht nur gegenwärtig zu fehlgeleiteten Geldern und betrügerischen Projekten, sondern geht auch zu Lasten der zukünftigen Generationen." Der Bericht "Global Corruption Report: Climate Change" schätzt die gesamten Aufwendungen zur Bekämpfung des Klimawandels bis 2020 auf fast $700 Milliarden (£420bn). Und er stellt fest: "Überall, wo große Summen Geldes durch neue und unerprobte Finanzmärkte und Mechanismen fließen, besteht ein Korruptionsrisiko".
Das hauptsächliche Finanzwerkzeug zur Bekämpfung des Klimawandels, der Kohlenstoffzertifikathandel ist bereits von Betrug durchzogen, sagt der Bericht. Im Januar war der Zertifikatehandel der Europäischen Union geschlossen worden, nachdem er von Cyber-Hackern angegriffen worden war. Mehr als drei Millionen Zertifikate waren von Regierungskonten und privaten Firmenkonten gestohlen worden.
Auch wiederholter Steuerbetrug fand statt. Die Vorstellung von der Bedarfsdeckung des europäischen Strombedarfs durch konzentrierte Sonnen-Kraftwerke, die 1 Prozent der Sahara überdecken sollen, ist bereits unterhöhlt von bürokratischen Problemen und der Korruption in Nordafrika, die zu einer Erhöhung der Risiken und Kosten der Investitionen führen. Nachforschungen spanischer Offizieller zufolge wurde entdeckt, das jedes zehnte seiner Sonnenkraftwerke fälschlicherweise als ’im Betrieb befindlich’ registriert war, obwohl es keine Einspeisung ins Netz lieferte.
TI warnt: Der Drang zu Lösungen mit niedrigem CO2-Ausstoß hat sich bereits zu einem Fluch für einige Kommunen entwickelt. Kommunale Behörden, die Land für die Erzeugung von Energiepflanzen verkaufen wollen, müssen lokale Besitzrechte berücksichtigen. Die Hälfte der bekannten Reserven des für Elektrofahrzeuge nötigen Lithiums liegen angeblich in Boliviens Uyuni Salzsee, aber Firmen, die die Vorräte ausbeuten, haben es unterlassen, sich mit der lokalen Bevölkerung zu verständigen, sie haben die Öko-Systeme geschädigt, die Wasserreserven bedroht und den Tourismus im Keim erstickt.
Laut dem Bericht ist illegaler Holzeinschlag, dessen Wert auf mehr als $10 Milliarden jährlich geschätzt wird, von korrupten Zoll- und anderen Behördenvertretern begünstigt worden. Einige Länder haben bereits CO2-Zertifikate für erlogene Aufforstungsprojekte beansprucht. In Kenia wird die Entwaldung durch die Korruption bei den unterbezahlten Waldhütern verschärft. TI schätzt, dass Kenia 1963 zu etwa 10 % von Wald bedeckt gewesen ist, 2006 nur noch von weniger als 2 %.
Alle Länder sind betroffen: England wurde kritisiert, weil man vor den sogenannten "green-washing" Marketing-Strategien der Firmen versagte, die fälschlicherweise die Umweltfreundlichkeit ihrer Produkte behaupteten.
Auch Amerikas Versagen zur Eindämmung der Kohle- und Braunkohlenlobby wird deutlich benannt – Mehr als 2 000 eingetragene Öl-, Gas-, Kohle- und Elektrizitätserzeuger-Lobbyisten haben 2009 mehr als $400 Mio. zur Verfügung gehabt im Vergleich mit $22 Mio. der Grünen Lobby.

Von David Connett and Chris Stevenson – Mai 2011

Der Originalartikel erschien am 1.5.11 im Independent hier

Die Übersetzung besorgte Helmut Jäger EIKE

Aktuelles Update aus Deutschland:  

Grüne als Lobbyisten Erst Bio, dann Bimbes

unter dieser Überschrift macht SPON Autor Gerd Langguth am 16.5.11 einen Bericht über die Lobbytätigkeit grüner Abgeordneten auf:

Auszug: 

Die Grünen geben sich gerne kritisch gegenüber Lobbyisten. Wenn aber Politiker der Ökopartei neue Karrierewege gehen, suchen sie sich häufig gutdotierte Posten bei Interessenvertretern. Vom Abgeordneten und BUND-Mitglied zum Freund der Chemieindustrie? Für Grüne kein Problem….

…..Die Industrie hat früh erkannt, wie wichtig gutvernetzte grüne Politiker sind, um für sie Lobbyismus zu betreiben. Dabei setzt die Industrie darauf, dass sich grüne Funktionsträger mit viel "Bimbes" (Ausdruck von Helmut Kohl für Geld) auch dann gewinnen lassen, wenn sie einst für diametral entgegengesetzte Zielsetzungen standen. Nur so ist zu erklären, dass Jens Katzek auf einmal – von heute auf morgen – für genveränderte Pflanzen lobbyierte.

Auch Grüne sind nicht mehr unbedingt immun gegen den schnöden Mammon.

Den ganzen Artikel finden Sie hier




Riskoforscher Renn: Eher fällt ein Meteorit auf Deutschland!

Herr Professor Renn, was sind die größten Lebensrisiken hierzulande?

Bei den Todesursachen stehen die Herz-Kreislauf-Erkrankungen an erster Stelle, gefolgt von Krebs. Was ernste, lang anhaltende Krankheiten angeht, kommen nach den Herz-Kreislauf- Erkrankungen psychische Depressionen an zweiter Stelle.

Und die restlichen Todesfälle?

Da steht der Suizid ganz vorne, wenn man die ganz Alten und die ganz Jungen weglässt. Tödliche Unfälle passieren meist im Haushalt oder in der Freizeit, gefolgt vom Straßenverkehr. Ganz zum Schluss kommen die Arbeitsunfälle.

Haben somit jene Recht, die sagen, die Debatte um die Atomkraft sei hierzulande hysterisch, die Ängste stünden in keinem Verhältnis zum tatsächlichen Risiko?

Nicht ganz. Die Angst vor der Atomkraft hat ja durchaus ihre Gründe. Ich sage gern: Die Atomkraft ist zwar ein Sündenbock, auf dem vieles abgeladen wird, aber kein Unschuldslamm.

Aber bislang sind relativ wenige Menschen durch einen Akw-Unfall umgekommen?

Wenn wir nur die Todesfälle betrachten, ist die Bilanz der Atomenergie in der Tat wesentlich besser als die der Alternativen. Denken Sie nur an die Wasserkraft, da gab es schon verheerende Brüche von Staudämmen mit tausenden von Toten. Oder nehmen Sie die Unglücke beim Kohleabbau. Weltweit sterben dabei knapp 8000 Menschen pro Jahr, allein in China sind es rund 5000.

Dennoch scheint Kohle kurzfristig die einzige Alternative zur Kernkraft zu sein. Neue Kohlekraftwerke sind schon in Bau, die Aktien der Kohleunternehmen sind nach dem Reaktorunglück von Japan stark gestiegen.

Wenn ich mich persönlich entscheiden müsste zwischen Kernenergie und Kohle, dann würde ich mich eher für die Kernenergie entscheiden – allein der Risiken wegen. Beim Verbrennen von Kohle werden ja nicht nur Schadstoffe in die Luft geblasen, sondern auch oft radioaktive Stoffe freigesetzt – und zwar in nicht unerheblichen Mengen. Wenn ich die Belastung für das Klima durch den CO-2-Ausstoß hinzunehme, addiert sich das zu einem flächendeckenden, schwer veränderbarem Risiko, das von der Größenordnung her durchaus mit der Kernkraft vergleichbar ist. Und dieser Vergleich geht nach meiner Einschätzung eher zugunsten der Kernkraft aus – auch nach Japan

Lesen Sie hier das ganze Interview hier in den Stuttgarter Nachrichten

Sehen Sie hierzu auch den Essay von Prof. Kepplinger : 

Phantomangst Atomangst

hier

Auszug aus die Welt vom 11.4.11 

Angst vor direkten Gefahren ist überlebenswichtig. Doch wenn die gefühlte Angst vor einer Katastrophe größer ist als die Wahrscheinlichkeit, jemals Opfer zu werden, wird es irrational

Seit der Inbetriebnahme des ersten deutschen Kernkraftwerks 1961 sind hierzulande über 600 000 Menschen den Unfalltod gestorben – allerdings nicht durch Reaktor-, sondern durch Verkehrsunfälle. Tote durch Unfälle in deutschen Kernkraftwerken hat es nicht gegeben. Bis zur Stilllegung des letzten deutschen Kernkraftwerks in vermutlich 15 Jahren kann man auch hierzulande kernkraftbedingte Todesfälle nicht völlig ausschließen. Allerdings ist ihre Wahrscheinlichkeit sehr gering. Im gleichen Zeitraum werden bei Verkehrsunfällen circa 60 000 Menschen sterben. Trotzdem hat keine Partei die Forderung nach der sofortigen Stilllegung des Auto- und Motorradverkehrs im Programm. Den üblichen Vorstellungen von Rationalität entspricht das nicht. Aber man kann es mit einer Reihe von Ursachen rational erklären….



3.(IV) Klima- & Energiekonferenz Berlin 2010 Videovorträge Teil 4

"Klimaschutz" & Energiekonzept – Passt das zusammen?

Dipl. Ing. Michael Limburg

Vizepräsident Europäisches Institut für Klima und Energie (EIKE) Hier finden Sie die undefinedppt Datei 

Auswirkung des deutschen Energiekonzepts auf die Grundstoff- Stahlindustrie

Prof. Dr. Dieter Ameling

Präsident Wirtschaftsvereinigung Stahl a. D. und Vorsitzender Stahlinstitut VDEh a. D. Hier finden Sie die undefinedppt Datei 

Wie zeitgemäß ist Kernenergie? Endlagerung & Fusion 

Prof. Dr. Alois Haas

Ruhr Universität Bochum; hier die undefined.ppt Datei des Vortrags

Speicherung volatiler Elektroenergie im Großmaßstab

Prof. Dr. Helmut Alt Fach Hochschule Aachen 




3.(III) Klima- & Energiekonferenz Berlin 2010 Videovorträge Teil 3

Die Erneuerbare Energielobby und die politisch-wirtschaftlichen Konsequenzen

Günter Ederer

Wirtschaftsjournalist und Filmproduzent

Klimawandel zwischen Modellen, Statistik und Ersatzreligion

Prof. Dr. Werner Kirstein

Institut für Geographie, Universität Leipzig

Was bedeute Climategate für die Wissenschaft?

Dr. Terence Kealey

University of Buckingham

Fiktion und Realität im Klimaschutz

Dr. Lutz Peters

Berater und Autor von Klima 2055

"Klimaschutz" als Instrument französischer Politk!

Dr. Emmanuel Martin Ökonom und Herausgeber von UnMondeLibre.org; hier sein undefinedppt Vortrag




Grüne für Kernkraft! „Warum ich wegen Fukushima keine Bedenken mehr habe und die Kernkraft liebe“

Japans Unglück würde schwerer wiegen, wenn es weniger gefährliche Alternativen gäbe. Kernkraft ist Teil des Energiemixes.

Von George Monbiot, guardian.co.uk, 21.03.2011

Sie werden sich nicht wundern, wenn Sie hören, dass die Vorfälle in Japan meine Meinung zur Kernkraft verändert haben. Als Ergebnis des Fukushima-Unglücks kann ich nicht länger neutral in Sachen Kernkraft sein. Ich unterstütze jetzt diese Technologie.

Ein altes Schrottkraftwerk mit ungenügender Sicherheitsausrüstung ist von einem Monster-Erdbeben und einem Riesen-Tsunami getroffen worden. Die Stromversorgung fiel aus, damit auch das Kühlsystem. Die Reaktoren sind explodiert und geschmolzen. Das Unglück hat wie so häufig seinen Ursprung in schlechtem technischen Entwurf und Sparwut. Aber bislang hat noch niemand eine tödliche Strahlung abbekommen, so weit uns bekannt ist.

Viele Grüne haben die Gefahr von radioaktiver Verseuchung wild übertrieben. Um das besser beurteilen zu können, möge man die Grafik bei xkcd.com anschauen. (Siehe nebenstehendes Bild)

Sie zeigt, dass die durchschnittliche Gesamtdosis beim Three Mile Island – Unfall für Bewohner innerhalb der 10-Meilen-Zone um das Kraftwerk nur 1/625stel der jährlich erlaubten Menge für amerikanische strahlungsexponierte Arbeiter war. Das ist die Hälfte der niedrigsten Ein-Jahres-Dosis, die ein erhöhtes Krebsrisiko bewirkt. Das wiederum ist 1/80stel einer unausweichlich tödlichen Dosis. Ich will hier gar nicht beschwichtigen. Ich möchte die Dinge nur in den richtigen Zusammenhang stellen. 

Wenn andere Energie-Erzeugungsarten keine Schäden verursachten, würden die Auswirkungen schwerwiegender sein. Aber Energie ist wie ein Arzneimittel: wenn es keine Nebenwirkungen hat, besteht das Risiko, dass es nicht hilft.

Wie die meisten Grünen, befürworte ich einen großräumigen Ausbau der Erneuerbaren. Ich kann mich aber auch mit den Beschwerden der Gegner der Erneuerbaren anfreunden. Es sind ja nicht nur die Windparks an Land, welche den Menschen Sorgen bereiten, auch die neuen Übertragungsnetze (Masten und Leitungen). In dem Maße, wie der Anteil der erneuerbaren Elektrizität ansteigt, werden mehr Stauseen benötigt, um die Lichter brennen zu lassen. Das bedeutet Stauseen im Gebirge: darüber freut sich niemand.

Auswirkungen und Kosten der Erneuerbaren steigen mit ihrem Anteil an der Stromversorgung, weil der Bedarf für Speicher und Ausfall-Reserve ansteigt. So kann es schon sein (Eine vergleichende Studie steht noch aus), dass bis zu einer gewissen Netzauslastung – 50% bis 70% vielleicht? – die Erneuerbaren eine geringere Kohlenstoff-Belastung haben als Kernenergie. Aber jenseits dieser Auslastung belastet die Kernenergie geringer als die Erneuerbaren.

Wie viele haben ich nach erneuerbarer Energie und deren Ausbau verlangt als Ersatz für die aus fossilen Kraftwerken kommende Elektrizität und für den Ersatz des Öls für den Transport der Energieträger und für den Ersatz des Gases als Brennstoff. Sollen wir nun auch verlangen, die existierende Kernkraft-Kapazität zu ersetzen? Je mehr Anteil wir den Erneuerbaren geben, desto größer wird die Auswirkung auf die Landschaft sein und desto härter die Aufgabe, die Öffentlichkeit davon zu überzeugen.

Der Ausbau des Netzes zum Anschluss der Menschen und der Industrie an reiche, entfernte Quellen von Umwelt-Energie wird ja auch von den meisten Grünen zurückgewiesen, die sich über meinen Blog-Beitrag vergangene Woche beschwert hatten, in dem ich argumentierte, dass die Kernenergie sicherer als Kohle bleibt. Sie wollen, wie sie sagten, etwas ganz anderes: Wir sollen unseren Energieverbrauch senken und unsere Energie lokal erzeugen. Einige verlangen sogar den Abbau des Netzes. Diese bukolische Vision klingt herzallerliebst, bis man das Kleingedruckte zur Kenntnis nimmt.

In hohen Breiten wie bei uns ist die kleinräumige Energie-Erzeugung ein totaler Reinfall. Wenn man Solarenergie im Vereinigten Königreich erzeugen will, muss man besonders viel knappe Rohstoffe verschwenden. Solarenergie ist hoffnungslos ineffizient und kaum an den Bedarf angepasst. Windenergie in bevölkerungsdichten Gegenden ist weitgehend nutzlos. Einmal, weil wir unsere Siedlungen in windgeschützten Gegenden gebaut haben, zum Anderen, weil die von den Gebäuden erzeugten Verwirbelungen mit den Luftströmungen interferieren und den Mechanismus kaputt machen. Kleinteilige Wasserkraft mag ja für ein Bauernhaus in Wales in Ordnung gehen, aber in Birmingham nutzt sie nichts.

Und wie sollen wir unsere Textilfabriken, Ziegeleien, Hochöfen, elektrifizierte Eisenbahnen betreiben – ganz zu schweigen von den industriellen Fertigungsabläufen? Solarpaneele auf den Dächern? In dem Augenblick, wo man den Bedarf der gesamten Wirtschaft betrachtet, hört der Spaß mit der lokalen Energie-Erzeugung auf. Ein nationales (noch besser internationales) Netz ist die wesentliche Voraussetzung für eine größtenteils erneuerbare Energieversorgung.

Einige Grüne gehen noch weiter: warum soll man überhaupt erneuerbare Energien verschwenden, in dem man sie in Elektrizität wandelt? Warum nutzt man sie nicht ganz direkt? Um diese Frage zu beantworten, muss man sich England vor der industriellen Revolution anschauen.

Das Dämmebauen und Aufstauen englischer Flüsse für Wassermühlen war kleinräumige erneuerbare Energieerzeugung, pittoresk und zerstörerisch. Durch die Absperrung der Flüsse und Verschlammung der Laichgründe wurden die riesigen Züge der Wanderfische beendet, die einst eines unserer großen Naturwunder waren und einen großen Teil von Britannien mit Nahrung versorgten – ausgerottet der Stör, so auch Neunaugen und Alsen, Seeforellen und der Lachs.

Das Treideln und Ziehen war eng mit der Ausrottung verbunden. Je mehr Land für die Zugtiere, für die Industrie und das Transportwesen reserviert wurde, desto weniger war für die Ernährung der Menschen verfügbar. Es war das Äquivalent im 17. Jh. zur heutigen Energiepflanzen-Krise. Das Gleiche galt für Brennstoffe zur Heizung. Wie E.A. Wrigley in seinem Buch "Energy and the English Industrial Revolution" feststellt, haben im Jahre 1800 die 11 Mio. Tonnen in England geförderter Kohle so viel Energie erzeugt, wie 11 Mio. Acre Wald (1/3 des Landes) (entspricht 44.500 qkm) erzeugt hätten.

Bevor Kohle weithin verfügbar wurde, hat man Holz nicht nur für das Heizen der Wohnungen benutzt sondern auch für industrielle Prozesse: Wenn die Hälfte von England mit Wald bedeckt gewesen wäre, hätten wir, – wie Wrigley zeigt, pro Jahr 1,25 Mio. Tonnen Eisenbrammen pro Jahr erzeugen können (ein Bruchteil dessen, was wir derzeit verbrauchen). Schon mit einer geringeren Bevölkerung als heute waren Industrie-Güter in der auf Grund und Boden beruhenden Wirtschaft ein Privileg der Elite. Tiefgestaffelte, grüne dezentralisierte Energie-Erzeugung, die auf den Produkten des Landes beruht, ist weit vernichtender für die Menschheit als eine Kernschmelze.

Die Energiequelle, auf welche die meisten Wirtschaftsräume zurückfallen würden, wenn sie die Kernenergie abschalten ist nicht Holz, Wasser, Wind oder Sonne, sondern es sind fossile Energieträger. In jeder Hinsicht (Klimawandel, Bergbau, lokale Umweltverschmutzung, Industrie-Unfälle und Tote, ja sogar Ausstoß von Radioaktivität) ist Kohle 100 mal schlimmer als die Kernkraft. Wegen der Ausdehnung der Schiefergaserzeugung holen die Auswirkungen von Erdgas rasch auf.

Ja, ich verfluche immer noch die Lügner der Betreiber der Kernkraft-Industrie. Ja, ich möchte gerne den gesamten Sektor abgeschaltet sehen, wenn es denn harmlose Alternativen gäbe. Aber es gibt keine ideale Lösung. Jegliche Energie-Erzeugung hat ein Preisschild. Auch der Verzicht darauf. Kernenergie ist gerade einem der härtesten denkbaren Tests ausgesetzt gewesen und die Auswirkungen auf die Menschen und die Erde ist gering. Die Krise von Fukushima hat mich zum Befürworter der Kernenergie gemacht! 

Von George Monbiot, guardian.co.uk, 21.03.2011

Das Orginal finden Sie hier

Die Übersetzung besorgte Helmut Jäger EIKE

Einen aktuellen und sachlichen Überblick über die derzeitige Situation in Japan finden Sie hier (mit Dank an Leser U. Klasen und andere)

Exklusiv bei achgut: Interview mit der amerikanischen Grünen G. Cravens

Gwyneth Cravens ist eine amerikanische Journalistin und Schriftstellerin, die fünf Romane veröffentlicht hat. 2007 erschien ihr Sachbuch „Power to Change the World: The Truth about Nuclear Energy“, mit dem sie in Amerika eine große Debatte auslöste. Die Schriftstellerin beschreibt in ihrem Buch, warum sie sich von einer Gegnerin zu einer Befürworterin der Atomenergie gewandelt hat.

Hannes Stein: Sind Sie für Umweltschutz?
Gwyneth Cravens: Ja, schon mein ganzes Leben. Ich bin in New Mexico aufgewachsen und gehörte schon als Kind der Umweltschutzbewegung an. Besonders lag mir dabei der Schutz der Wälder am Herzen.

Stein: Wenn Sie in Deutschland lebten, würden Sie dann die „Grünen“ wählen?
Cravens: Mir gefällt vieles, was die „Grünen“ tun. Hier in Amerika, wo ich mich besser auskenne, denke ich, dass Maßnahmen wie der „Clean Air Act“ – ein Bundesgesetz gegen die Luftverschmutzung – große Siege gewesen sind. All dies sind Errungenschaften der grünen Bewegung.

Stein: Sie sind also keine Konservative? Sie gehören nicht der republikanischen Partei an?
Cravens: Im Gegenteil. Meine Eltern waren Sozialisten – und ich bin das mehr oder weniger geblieben. Ich bin dafür, dass wir hier in Amerika eine allgemeine Krankenversicherung nach dem Vorbild von Frankreich und Deutschland einführen. Milliardäre sollen gefälligst Steuern zahlen – all das.

Stein: Doch obwohl Sie links sind, haben Sie ein Buch geschrieben, in dem Sie für Atomenergie plädieren: „Power to Save the World“. Warum?
Cravens: Als ich anfing, mein Buch zu schreiben, war ich gegen Atomenergie. Aber ich habe schon an der Schule gelernt, wie man wissenschaftlich forscht. Und als ich mit Wissenschaftlern sprach und sie mir ihre Beweise vorlegten, wurde mir klar, dass sie Recht hatten – und dass die Ideen, die mir von „Greenpeace“ und ähnlichen Organisationen vermittelt worden waren, einfach nicht stimmten.

Stein: Sind Sie eine bezahlte Propagandistin der Atomindustrie?
Cravens: Nein. Ich übe Kritik an der Atomindustrie. Sie hat mich nie bezahlt, ich bin Schriftstellerin und Journalistin und verdiene mein Geld mit dem Schreiben von Büchern und Zeitungsartikeln.

Stein: Die Ereignisse in Japan haben Sie nicht dazu veranlasst, Ihr Plädoyer für die Atomenergie noch einmal gründlich zu überdenken?
Cravens: Nein.

Stein: Ist das, was sich in Japan abspielt, ein GAU wie in Tschernobyl?
Cravens: Als der Reaktor in Tschernobyl brannte, hatte er praktisch keine Schutzhülle. 50 Tonnen oder mehr an radioaktivem Material wurde in die Atomsphäre geblasen und kam dann mit dem Regen wieder herunter. An dem Tag herrschte seltsames Wetter, der Wind wechselte drei oder vier Mal seine Richtung und verbreitete das Zeug über eine weite Fläche. Das ist das Schlimmste, was man sich überhaupt vorstellen kann – zumal Tschernobyl zwei Zwecken gleichzeitig diente: Dort wurde nicht nur Elektrizität, dort wurde auch Plutonium für Bomben produziert.  Nach dem Unglück wurde kein Kaliumiodid an die Bevölkerung verteilt, weil die Regierung ihr nicht verraten wollte, dass etwas mit dem Kraftwerk nicht in Ordnung war. Sie hat am Anfang auch gar nichts gegen den Unfall unternommen, sondern die Sache immer weiter hinausgezögert.

Stein: Die Regierung hat den Leuten in der Umgebung des Reaktors damals, wenn ich mich richtig erinnere, nicht einmal geraten, sie sollten keine Milch trinken.
Cravens: Richtig, sie hat den Leuten gar nichts gesagt. Und was ist das Resultat dieses „größten anzunehmenden Unfalls“ in Tschernobyl? Insgesamt etwa 60 Tote. Zwei kamen bei der Explosion um, 49 starben, während sie versuchten, das Feuer zu löschen. Man glaubt, dass aufgrund der Katastrophe in Tschernobyl viele tausend Kinder Schilddrüsenkrebs bekamen. Schilddrüsenkrebs ist sehr gut heilbar, wenn man ihn rechtzeitig behandelt, aber die Ukraine war – jedenfalls damals – kein Ort mit einem sehr guten Gesundheitssystem. Darum starben – ich müsste jetzt nachschauen – acht oder neun Kinder. In Polen kam es überhaupt zu keinen Fällen von Schilddrüsenkrebs, dort nahmen die Leute einfach Kaliumjodid.

Stein: Was ist in Japan anders?
Cravens: Die Katastrophe dort begann am Freitag, dem 11. März, richtig? Sie dauert jetzt also schon beinahe eine Woche. Bis jetzt ist niemand gestorben. Ein Arbeiter in einem Reaktor ist krank geworden. Er ging irgendwohin, wo er nicht hätte hingehen sollen – wahrscheinlich aus sehr heldenhaften Gründen – und bekam eine zu hohe Strahlendosis ab. Unterdessen sind tausende Japaner ertrunken oder verschüttet worden. Tausende mehr haben ihr Dach über dem Kopf verloren. Sie frieren in Notunterkünften. Sie haben kein Wasser. Eine Ölraffinerie ist in die Luft geflogen. Ist dabei eigentlich jemand ums Leben gekommen? Ich weiß es nicht, davon hören wir nichts. Alle konzentrieren sich auf die Atomkraftwerke, weil dort – Möglichkeitsform – etwas passieren KÖNNTE.

Stein: Finden Sie die Vorsichtsmaßnahmen übertrieben?
Cravens: Nein. Die Japaner haben die Lehren aus Tschernobyl gezogen. Sie haben beschlossen, dass sie als Vorsichtsmaßnahme so schnell wie möglich die Menschen aus der Umgebung der Reaktoren evakuieren müssen. Viele Häuser rund um den Reaktor waren allerdings ohnehin schon zerstört. Und sie haben Kaliumjodid verteilt. Genau das hat aber die allgemeine Hysterie angeheizt. Ich bin gerade in Kalifornien – hier kaufen die Leute jetzt Jodtabletten! Dabei wird das radioaktive Jod längst zerfallen sein, ehe es über den Pazifik zu uns gelangen kann. Heute früh rief bei mir ein grüner Radiosender an, um mich zu interviewen, und alle waren in Panik. Ich sagte ihnen weiter, was mir ein Biologe erzählt hatte, der sich in Sachen Radioaktivität auskennt. Wenn man Kaliumjodid nimmt, ohne es wirklich zu benötigen, dann ist das schlecht für die Schilddrüse. Und nebenbei: Diese Tabletten sind schwach radioaktiv! Noch etwas: Die Japaner essen viel Fisch, nicht wahr? Also nehmen sie auf natürlichem Weg ohnehin viel Jod zu sich. Also werden ihre Schilddrüsen wahrscheinlich ohnehin nur wenig radioaktives Jod absorbieren. Rund um Tschernobyl herrschte dagegen Jodmangel, weil das dort eine sumpfige Gegend ist. Die sowjetischen Behörden hatten den Leuten eine Zeitlang Kaliumjodid verabreicht, dann aber damit aufgehört – wahrscheinlich, weil es zu teuer war.

Stein: In Japan ist kein Reaktor in die Luft geflogen, aber es wurde doch Radioaktivität freigesetzt?
Cravens: Es wurde Dampf abgelassen. Wenn sich in einem dieser Reaktoren der Druck aufbaut, muss man ein Ventil aufmachen. Dass dieser Dampf Cäsium und radioaktives Jod enthält, ist ein Zeichen dafür, dass der Reaktor in keinem guten Zustand ist, dass die Brennelemente verkommen. Der Dampf ist also verseucht. Darum warten die Leute ab, bis der Wind in Richtung Pazifik bläst.

Stein: Ist es nicht ziemlich ungesund, wenn all das Caesium und Strontium in die Fische hineinregnet?
Cravens: Die Konzentration müsste sehr hoch sein, damit sie irgendeinen Effekt hätte. Ist sie aber nicht. Die Radioaktivität geht offenbar manchmal hoch, aber nicht für sehr lange – für Minuten oder eine Stunde.

Stein: In zumindest einem der Reaktoren scheint die Schutzhülle aber geborsten zu sein – und es offenbar ist es schon zu einer Kernschmelze gekommen.
Cravens: Ich versuche gerade herauszufinden, was genau der Status ist. In Harrisburg 1979 kam es zu einer teilweisen Kernschmelze. Dabei passierte Folgendes: Ein Teil des Reaktorkerns schmolz auf den Boden des dicken Stahlgehäuses herunter – er verwandelte sich in eine Art Pfannkuchen auf dem Boden des Druckkessels. Ein anderer Teil sprühte wegen der Dampfentwicklung über die Innenseite, wie wenn man etwas verchromt. Die Brennstoffmasse drang dabei nur ungefähr 1,6 Zentimeter tief in das Reaktorgehäuse ein. Das Stahlgehäuse rund um den Reaktorkern ist 12 bis 15 Zentimeter dick – in Japan sind es, glaube ich, 15 Zentimeter. Da kommt man nicht so einfach durch. Mir scheint also, wenn davon gesprochen wird, das Reaktorgehäuse sei gebrochen, ist vom Gebäude die Rede. Leider habe ich kein klares Bild.

Stein: Von einem der Reaktoren musste sich die Löschmannschaft zurückziehen, weil die Radioaktivität zu hoch geworden war.
Cravens: Ich habe gehört, dass die Mannschaft sich zurückzog, weil ihre Haut Reaktionen zeigte. Wenn Sie mit Radioaktivität in Berührung kommen, sieht das aus wie Sonnenbrand. Es ist keine Dosis, die Menschen nicht vertragen könnten, aber man zog die eine Gruppe zurück, damit die nächste Gruppe drankommen konnte. Die Gruppe mit dem Sonnenbrand musste dann einen Tag aussetzen. Der Körper muss mit der Dosis, die er abgekriegt hat, sozusagen erst einmal verdauen, damit die Strahlung sich nicht akkumuliert. Die höchste Dosis, der sich ein Arbeiter in einem amerikanischen Atomkraftwerk aussetzen darf, sind 5000 Millirem pro Jahr. Es sieht im Moment so aus – gewiss bin ich mir meiner Sache natürlich nicht –, als würden die japanischen Löschmannschaften diese Dosis zwar manchmal überschreiten, im Großen und Ganzen aber darunter bleiben. In den nächsten Wochen werden wir mehr wissen.

Stein: Würden Sie eine Prognose wagen? Wie viele Menschen werden wegen der Reaktorunfälle in Japan ihr Leben verlieren?
Cravens: Im Moment würde ich sagen: niemand.

Stein: Niemand?
Cravens: In Harrisburg kam es zu einer Kernschmelze, und kein Mensch starb. Der geschmolzene Urankern wird sich nicht aus dem stählernen Reaktorgehäuse herauswinden, den Betonmantel durchdringen, der extra für ihn gegossen wurde, ein Taxi herbeiwinken und in die Innenstadt fahren.

Stein: Beim Googeln habe ich herausgefunden: Just zur Zeit des Reaktorunfalls von Harrisburg kam der Film „Das China-Syndrom“ ins Kino, mit Jane Fonda als Reporterin, in dem als Möglichkeit dargestellt wird, dass es zu einer Kernschmelze kommt und der Reaktorkern sich durch ein Loch immer tiefer in die Erde frisst…
Cravens: Es war unglaublich! Der Unfall passierte zwei Wochen später, und der Drehbuchautor sagte wirklich großartige Sachen: Der Reaktorkern wird schmelzen, er wird das Gehäuse zerstören, er wird in den Felsen unter dem Kraftwerk vordringen, tödlicher radioaktiver Dampf wird Pennsylvania verseuchen und Tausende werden sterben.

Stein: Hat sich je ein Wissenschaftler dazu geäußert?
Cravens: Es gibt kein „China-Syndrom“. In Harrisburg passierte eine ganz und gar langweilige Kernschmelze. Das Zeug blieb einfach in dem langweiligen Stahlgehäuse liegen. Es gab nicht mehr Todesfälle, keinen Anstieg der Krebsrate in der Umgebung, gar nichts! Studie nach Studie kam zu demselben Ergebnis. In Japan macht mir etwas anderes Sorgen: Die Arbeiter hatten dort vor dem Erdbeben einen Reaktor abgeschaltet. Die alten Brennstäbe hatten sie in einer Halle gelagert. Irgendwie sank der Wasserspiegel – vielleicht hatten sie das Zeug vergessen. Sei es aus Kummer über ihre Familien, sei es, dass manche Leute wegen der Naturkatastrophe nicht zur Arbeit kamen und ihre Mannschaft kleiner war als gewöhnlich. Wie auch immer: Diese alten Brennstäbe sind in die Luft geflogen, und alte Brennstäbe enthalten viel mehr Radioaktivität als neue. Und durch das Feuer sind giftige Stoffe in der Umgebung verteilt worden. Hier das Verrückte: Alte Brennstäbe werden in Japan oben auf dem Gebäude aufbewahrt. Das ist kein gutes Design. Hier in Amerika bewahrt man solche Brennstäbe im Keller auf. 

Stein: Das Grundproblem ist aber das Wasser.
Cravens: Die Ingenieure haben Schwierigkeiten, die Reaktorkerne zu kühlen, weil die Notgeneratoren von der Tsunamiwelle überflutet wurden und ihren Geist aufgaben. Also mussten die Ingenieure sich nach einer neuen Energiequelle umsehen.

Stein: Könnte man Ihrer Meinung nach Atomkraftwerke mit einem größeren Grad an Sicherheit bauen?
Cravens: Aber ja doch. Hier in Amerika habe ich ein Atomkraftwerk besucht, in dem es Tanks voller Wasser für den Notfall gibt, die von Hand, ganz ohne Elektrizität, in den Reaktor geleitet werden – einfach, indem man einen Hahn aufdreht.

Stein: Die Deutschen sind in ihrer überwältigenden Mehrheit der Meinung, dass Atomkraft zu gefährlich sei, dass wir sie nicht beherrschen können. Irren sie sich?
Cravens: Sogar wenn man die ungefähr 60 Opfer einbezieht, die der Unfall in Tschernobyl gekostet hat, ist die Todesrate in der Atomindustrie immer noch die niedrigste pro Kilowattstunde Energie, die mit dieser Methode produziert wird. Wissen Sie, wie viele Amerikaner im vergangenen Jahr aufgrund von Explosionen gestorben sind, die mit Gaswerken zu tun hatten?

Stein: Keine Ahnung.
Cravens: 14. Brechende Staudämme haben im 20. Jahrhundert zehntausende Menschen getötet – vor allem in China. Insgesamt starben bei der Erzeugung von Energie aus fossilen Brennstoffen in Amerika bis vor kurzem 25.000 Menschen pro Jahr – heute ist die Todesrate etwas niedriger, weil wir bessere Filter einbauen. Aber es sind immer noch viel zu viele.

Stein: Warum brauchen wir Ihrer Meinung nach überhaupt Atomkraft?
Cravens: Die Verbrennung von fossiler Energie tötet jedes Jahr ungefähr drei Millionen Menschen auf der Welt. Sie ist nicht gut für uns. Wenn Sie in der Nähe von einem Kohlekraftwerk leben, kriegen Sie das 140fache an Radioaktivität von dem ab, als wenn Sie direkt neben einem Atomkraftwerk leben. Wenn Sie Ihren Herd mit Erdgas betreiben, kriegen Sie sogar das 900fache ab. Außerdem wird bei der Verbrennung von Erdgas Schwefeldioxid in die Luft geblasen. Das führt zu Herzproblemen und Lungenkrebs. Hinzu kommt die Klimakatastrophe – seit dem Beginn der industriellen Revolution wurde mehr und mehr CO2 in die Atmosphäre eingespeist, dadurch wärmt sich der Globus immer weiter auf. Eine andere Katastrophe, die sich vor unser aller Augen vorbereitet, ist, dass die Ozeane durch das Kohlendioxid immer saurer werden. Daran sterben Korallen und Plankton.

Stein: Ist die ökologische Alternative zu Kohle und Erdgas nicht die Wind- und Sonnenenergie?
Cravens: Ich bin absolut für Wind- und Sonnenenergie. Aber sie reichen nicht aus, wie Sie wohl wissen: Deutschland baut gerade mehr Kohlekraftwerke – die dann den Strom liefern, wenn die Sonne nicht scheint und Flaute herrscht. Atomkraft ist die einzig realistische Alternative zu den fossilen Brennstoffen.

Stein: Glauben Sie nicht, dass die Reaktorunfälle in Japan auf der ganzen Erde das Ende des Atomzeitalters bedeuten? Präsident Obama hat sich zwar gerade eben klar und deutlich für die Atomkraft ausgesprochen. Aber es wird in Zukunft auch hier schwieriger werden, Kernkraftwerke zu bauen. Und was ist mit China, mit Indien?
Cravens: Ein paar Kongressabgeordnete werden durchsetzen, dass die Sicherheitsauflagen strenger werden. Aber Amerika wird nicht aus der Atomkraft aussteigen. China auch nicht – die Chinesen haben gerade verkündet, dass sie ihre Sicherheitsstandards erhöhen. Sie wollen Atomkraftwerke bauen, die sie exportieren können. Ein angenehmer Nebeneffekt dieser Reaktorunfälle ist übrigens, dass jetzt mehr Journalisten als früher gezwungen werden, sich ernsthaft mit Atomenergie zu beschäftigen. Heute durften wir in der „New York Times“ einen Artikel lesen, der sehr nüchtern und aufklärend war.

Stein: Wie groß ist jener Flügel der amerikanischen Grünen, den Sie und Stewart Brand repräsentieren, also der Flügel, der nicht technikfeindlich, sondern technikfreundlich ist und dabei die Nuklearenergie ausdrücklich mitmeint?

Cravens: Ich habe gerade eben mit Stewart telefoniert – er sagte mir, dass viele Leute in der Ökobewegung so denken wie wir. Auch einflussreiche Leute. Sie trauen sich aber nicht, das offen zu sagen, weil sie fürchten, dass dann die Spendengelder ausbleiben 

Das original erschien am 17.3.11 bei ACHGUT hier




3.(II) Klima- & Energiekonferenz Berlin 2010 Videovorträge Teil 2

Persistenz in Temperaturreihen zeigt den Einfluss der Sonne auf unser Klima

Prof. em. Dr. Horst-Joachim Lüdecke Hochschule für Technik und Wirtschaft des Saarlandes; Hier sein Vortrag als undefinedppt Datei

Weltweite Langzeit-Thermometer Daten zeigen mehrheitlich keine Erwärmung!

Prof. em. Dr. Friedrich-Karl Ewert, Universität Paderborn; Hier sein Vortrag als undefinedppt Datei

Neue Erkenntnisse über den solaren Einfluss auf das Klima und deren Bedeutung für das Verständnis der Klimawandels

Prof. Dr. Nir Shaviv Racah Institute of Physics – The Hebrew University of Jerusalem; 

Der „Fußabdruck“ der Sonne in der jüngeren Klimageschichte

Prof. Dr. Vincent Courtillot;  Directeur, IPGP Université Paris Diderot; Hier sein Vortrag als undefinedppt Datei

Die Korrelation von Schwankungen der Sonnenaktivität und Klimaveränderungen

Dipl. Phys. Dr. Horst Borchert ehem. am Geographischen Institut der Johannes-Gutenberg Universität Mainz; Hier sein Vortrag als undefinedppt Datei

Wird fortgesetzt mit Teil III und IV