1

Ruß, Staub und die Gletscher-Schmelze: Freispruch für CO2?

Neuerdings wird außerdem klar [3]: "Rußpartikel … verstärken auch deutlich die Klimaerwärmung. In der Arktis sind die Rußpartikel für fast die Hälfte der bedrohlichen Eisschmelze verantwortlich".

Das ist keine neue Erkenntnis, denn sowohl die Arktis- als auch die Gletscher-Schmelze ist ohne Ruß nicht zu erklären, wie Glaziologen [4] schon lange wissen: "Unsere Erklärung lautet: Die Luftverschmutzung war früher geringer … der Ruß ist für die Hälfte der Gletscher-Schmelze verantwortlich."

Physikalisch ist das so zu erklären: Schnee und Eis, folglich auch Gletscher haben ein hohes Reflektions-Vermögen für Sonnen-Strahlung. Werden die Oberflächen verschmutzt, z.B. durch Staub und Ruß, so verringert sich der Anteil der reflektierten Strahlung. Es wird dann mehr Strahlung absorbiert und in Wärme umgewandelt.

Gegenbeispiel: dort, wo die Luftverschmutzung geringer ist, dort wachsen auch heutzutage die Gletscher sogar weiter an [5], trotz Erderwärmung: "… auf Neuseeland wachsen die Gletscher sogar kräftig an… Die Entwicklung der Gletscher auf  Neuseeland zeigt eindrucksvoll, daß es kein "globales" Verhalten der Gletscher gibt…"!

Schon aus meteorologischen Gründen ist es völlig unsinnig, eine Klima-Erwärmung von 0,7°C als einzigen Grund für die Arktis-  und Gletscher-Schmelze verantwortlich zu machen: Durch eine solche Erwärmung steigt die mittlere Frostgrenze ("Null-Grad-Grenze") in der Atmosphäre um lediglich 100 Meter an. Für ein Schmelzen höher liegende Gletscher- und Pol-Regionen muß es also andere Gründe geben  – z.B. die Luftverschmutzung sowie natürliche Veränderungen der Sonnen-Einstrahlung.

Zum Abschmelzen der Alpen-Gletscher sagen die Glaziologen aus Österreich [6]: "Zu Beginn des Millenniums (9.-12. Jh.) waren die Alpengletscher ähnlich klein, evtl. noch kleiner als heute."

Die gleiche Meinung vertritt z.B. auch Prof. Jörg Negendank vom GFZ Potsdam  [7]: "In der Römerzeit muss zumindest im Alpenraum ein wärmeres Klima als heute geherrscht haben, da der große Aletsch-Gletscher weiter zurückgezogen war" . 

Folglich: Nachhaltiger menschlicher Einträge in die Atmosphäre wie z.B. von CO2 und Ruß bedarf es gar nicht, um solche Veränderungen herbei zu führen. Die Natur führt es auch alleine vor, früher wie heute. 

CO2 ist für die Klima-Erwärmung eine Marginalie, was neuere Berechnungen  [8]  mehr und mehr zeigen: "Die sog. Klima-Sensivität des CO2, also die Erhöhung der mittleren Globaltemperatur infolge Verdoppelung der CO2-Konzentration, beträgt grob 1°C. Da diese Verdoppelung ungefähr dem Verbrennen aller der Menschheit noch zugänglichen fossilen Brennstoffe gleichgesetzt werden kann, ist der Wert von 1°C unbedenklich und bietet keinen Anlaß zu Katastrophen-Warnungen." Die spektakulären Werte des Klimarates (IPCC) von 3…5 °C und mehr werden in den Computer-Szenarien durch so genannte "positive Rückkoppelungs-Effekte" erzielt. Diese sind hoch umstritten und durch nichts bewiesen. 

Unter Berücksichtigung all dieser Fakten sollten wir uns in unseren Maßnahmen folglich mehr auf den Umweltschutz konzentrieren, als Milliarden teuere Methoden für die Vermeidung oder gar die gefährliche Verpressung  von CO2 (CCS) zu entwickeln. Dazu sagt der frühere Direktor des Meteorologischen Instituts FU Berlin  [9]: "Es wird höchste Zeit, den Umweltschutz anstelle eines fragwürdigen, wissenschaftlich nicht konsensfähigen Klimaschutzes weltweit in den Mittelpunkt des Handelns zu stellen. Saubere Luft, sauberes Wasser, ein intaktes Ökosystem kommen den Menschen heute und zukünftig zugute. Wie ideologisch vermessen muss man sein, um der Natur ein "2-Grad-Ziel“ vorzugeben."

In dem Zusammenhang ist es interessant, daß die Arktis-Schmelze seit 2007 nicht mehr zugenommen hat, sondern daß es stattdessen in den  Jahren 2008-2010 zur Zeit des spätsommerlichen Minimums wieder mehr Eis gegeben hat (vgl. Abbildung). Da wirkt es schon sehr alarmistisch, wenn in den Jahren davor einige "Experten" stets von einem unumkehrbaren "Kipp-Punkt" der Arktis-Schmelze fabulierten. Neuerdings gibt es Hinweise, daß derartige Spekulationen über allerlei "mensch-gemachte Klima-Kipp-Punkte" dahin kommen, wo sie hingehören: In den Papierkorb der Wissenschaft. Denn –  das Max-Planck-Institut in Hamburg  [10] hat eine Studie zur Arktis publiziert: "Der starke Rückgang des Meereises in der Arktis ließ in den letzten Jahren die Sorge aufkommen, dass die Eisbedeckung sich einem sogenannten Kipp-Punkt nähern könnte…… Aktuelle Forschungsergebnisse …. deuten jetzt jedoch darauf hin, dass es keinen solchen Kipp-Punkt für den Verlust des Sommereises in der Arktis gibt. Stattdessen reagiert die Eisbedeckung relativ direkt auf die jeweiligen klimatischen Bedingungen…."

Dieses alles wird die Katastrophen-Auguren nicht hindern, beim nächsten sommerlichen Eis-Minimum erneut die Apokalypse zu verkünden.

Veröffentlichung hier:

Mit freundlicher Genehmigung der SUT Verlags GmbH, 53757 St. Augustin

Klaus-Eckart Puls; Dipl.-Meteorologe, (EIKE) 

Quellen:

[1] SCHIFFAHRT+HAFEN…, Nr. 8 (2008), S.13

[2] H. Malberg, Langfristiger Klimawandel, Beitr. Berliner Wetterkarte, SO 29/09, 15.09.2009

[3]   DVZ Brief-Express, 14. Juni 2011, Hamburg

[4]   DER SPIEGEL, 52/2009, S.125

[5]   S.Winkler, Univ. Würzburg, 02.05.2007,  http://idw-online.de/pages/de/news206835

[6]   Österreichisches Klima im letzten Millennium, http://www.pisch.at/ernst/wissen/Dorfbuch/node164.html

[7]  Die Geschichte des Klimas aus geobiowissenschaftlichen Archiven", in: Klima im Wandel,

        UWV/BTU Cottbus, Eigenverlag, 2001, S.32-38

[8] H.-J. Lüdecke, CO2 und Klimaschutz, BOUVIER (2010), S.101 ff

[9]  H. Malberg, Über scheinbare und tatsächliche Klima-Erwärmung seit 1850, Beitr. Berliner Wetterkarte,

       SO 26/10, 28.09.2010

[10]  MPI f. Meteorologie HH, Presse-Mitteilung, 4. Februar 2011, "Hoffnung für das Arktische Meereis";

         


Related Files




Realer Aerosole-Einfluss und dessen Berechnung durch Klimamodelle differiert um „einen Faktor drei bis sechs”

Bild rechts: Indirekter kurzwelliger Strahlungsantrieb, der die wahren modellierten Werte von PD = present day (heutiger Wert) und PI = preindustriel (vorindustrieller Wert) von Nc = cloud droplets number (Wolkentröpchenanzahl) -oben-, von den PI Nc basierend auf der Regression zwischen Nc und AOD AOD (= aerosol optical depth = opt. Dichte der Aeorosole) -Mitte- und von PI Nc basierend auf der Regression zwischen Nc und AI (= aerosol index =AOD x Angström Koeffizient)(unten). Die Satellitenabschätzungen des Strahlungsantriebs schließen lediglich die Region zwischen 60°N und 60°S ein. Wenn der wirkliche Modellantrieb auf diese Region beschränkt wird, beträgt der gesamte Antrieb -1,56 W/m².

[mit Dank an Leser Fischer für Erläuterungen der Abkürzungen]

Von der University of Michigan [ist das] etwas, von dem ich glaube, dass es Dr. Roy Spencer interessieren wird, ist dies doch ein weiterer Fall, bei dem Modelle und Satellitenbeobachtungen signifikant differieren. Siehe die Abbildung S1 am Ende dieses Beitrags. – Anthony

Aerosole beeinflussen das Klima mehr als von Satellitenabschätzungen vorhergesagt

ANN ARBOR, Michigan. Aerosolpartikel, einschließlich Ruß und Schwefeldioxid aus der Verbrennung fossiler Energieträger maskieren maßgebend den Effekt von Treibhausgasen und stehen im Zentrum der größten Unsicherheit in der Vorhersage von Klimaänderungen. Neue Forschungen an der University of Michigan zeigen, dass satellitengestützte Projektionen der Auswirkung von Aerosolen auf das Klima der Erde den realen Effekt signifikant unterschätzen.

Die Ergebnisse werden in der Woche vom 1. August in der frühen Ausgabe von Proceedings of the National Academy of Sciences online gestellt.

Aerosole stellen den Anfangszustand von „Wolkentröpfchen” dar – in die Luft eingebetteten Wasserpartikeln, die sich dann zu Niederschlägen verdichten. Zunehmende Aerosole verursachen zunehmende Wolkentropfenbildung, was zu helleren Wolken führt, die mehr Licht reflektieren und in einen größeren Abkühlungseffekt auf dem Planeten resultieren.

Hinsichtlich des Ausmaßes dieses Abkühlungseffektes gibt es von Wissenschaftlern verschiedene Szenarien, die die globale mittlere Temperatur während des nächsten Jahrhunderts sich unter 2 bis über 3°C verändern lassen. Das mag sich nicht nach einer großen Bandbreite anhören, aber es erweitert den 2-Grad-Kipp-Punkt, jenseits dessen die Wissenschaftler sagen, dass der Planet mehr katastrophale Auswirkungen der Klimaänderung zu befürchten hat.

Die Satellitendaten, die diese proklamierten Ergebnisse allmählich entwerten, wurden zur Argumentation benutzt, dass all diese Modelle überschätzen, wie warm es auf dem Planeten werden wird.

 „Die Satelliten-Abschätzungen sind viel zu gering”, sagt Joyce Penner, die angesehene Ralph J. Cicerone – Professorin der atmosphärischen Wissenschaft. „Es gibt Dinge in den globalen Modellen, die zu den Satellitendaten passen sollten, dies aber nicht tun. Daher würde ich nicht sagen, dass die Modelle notwendigerweise korrekt sind. Aber wir haben erklärt, warum die Abschätzungen des Satelliten und die Modelle so unterschiedlich sind“.

Penner und ihre Kollegen fanden Fehler in den Techniken, welche Satellitenabschätzung verwenden, um mit ihnen den Unterschied zwischen der Konzentration von Wolkentröpfchen heute und vor der Industriellen Revolution aufzufinden.

„Wir erkannten, dass die Nutzung von Satellitendaten, um herauszufinden, wie viel Strahlung heute reflektiert wird im Vergleich zu der Menge, die in der verschmutzungsfreien vorindustriellen Atmosphäre reflektiert worden ist, sehr ungenau ist“, sagte Penner. „Mit der Beziehung zwischen der optischen Dichte der Aerosole – im Wesentlichen ein Maß für die Dicke der Aerosole – und der Anzahl der Tröpfchen aus Satellitenbeobachtungen kann man eine falsche Antwort um den Faktor drei bis sechs erhalten“.

Diese Ergebnisse sind ein Schritt vorwärts zur Erzeugung besserer Modelle, und Penner sagte, dass dies die nächste Phase der Forschung sein wird.

Sollte die große Unsicherheit für diesen Strahlungsantrieb bestehen bleiben, werden wir niemals eine kleinere Fehlerbandbreite der projizierten Klimaänderungen unterhalb der gegenwärtigen Größenordnung erzielen“, sagte sie. „Unsere Ergebnisse haben gezeigt, dass wir klüger sein müssen. Wir können uns ganz einfach nicht auf die Satellitendaten verlassen, wenn es um die Auswirkungen von Aerosolen geht. Ich denke, dass wir eine Strategie entwickeln müssen, die Modelle zusammen mit den Satellitendaten auszuwerten, um die besten Antworten zu bekommen“.

###

Die Studie trägt den Titel “Satellite-methods underestimate indirect climate forcing by aerosols.” [etwa: „Satellitenmethoden unterschätzen den indirekten Klimaantrieb durch Aerosole”]. Die Forschung wird von der NASA finanziert.

PNAS Frühausgabe: http://www.pnas.org/content/early/recent

Joyce Penner: http://aoss.engin.umich.edu/people/penner

[Im Original folgt hiernach ein längerer Abschnitt über die University of Michigan. Da dies nicht zum Thema des Artikels gehört, wird er nicht mit übersetzt. Link hierzu: http://www.engin.umich.edu/]

Der ganze Text der Studie einschließlich des SI kann hier gelesen werden: http://www.pnas.org/content/early/2011/07/25/1018526108.full.pdf?with-ds=yes

[ACHTUNG! Das Selbstanklicken dieses Links durch den Übersetzer führte jedes Mal zum Absturz seines Computers!]

Diese Abbildung von SI ist ziemlich interessant:

Abb. S1: Der indirekte Einfluss von Aerosolen, gemittelt von 60°S bis 60°N (GLB), Nordhemisphäre (NH), Südhemisphäre (SH), Landgebiete (LAD, Ozeane (OCN) und den Regionen, die in Tabelle S1 unter Verwendung vorindustrieller Werte von Nc definiert sind, basierend auf der Regression von heutigen Werten der optischen Dichte von Aerosolen (AOD) sowie auf den echten modellierten vorindustriellen Werten. SPO, Southern Pacific Ocean; SAO, Southern Atlantic Ocean; SIO, Southern Indian Ocean; TPO, Tropical Pacific Ocean; TAO, Tropical Atlantic Ocean; TIO, Tropical Indian Ocean; NPO, North Pacific Ocean; NAO, North Atlantic Ocean; SAM, South America; AFR, Africa; OCE, Oceania; NAM, North America; EUR, Europe; ASI, Asia.

Link: aerosol-sat-observations-and-climate-models-differ-by-a-factor-of-three-to-six

Übersetzt und mit einer Einführung versehen von Chris Frey für EIKE. Der Übersetzer bedankt sich bei Prof. Lüdecke für die wissenschaftliche Überarbeitung der Übersetzung.




Haus-Wärmedämmung unter den neuen Energiespargesetzen

Prof. Lüdecke: Sehr geehrter Herr Fischer, wie aus Ihrer Webseite hervorgeht, sind Sie ein gefragter Fachmann auf dem Sektor der Gebäudesanierung, Wärmedämmung und weiteren, angesichts der jüngsten Pläne der Bundesregierung aktuellen Tätigkeitsfelder (K. Fischer, Tel. 09574-3011). Wir alle, als Mieter oder als Hauseigentümer, werden davon betroffen sein. Können Sie bitte unseren Lesern kurz schildern, was sie hier erwartet und „wie heiß“ die Suppe gegessen werden muss?

Konrad Fischer: Seit den frühen 1980er Jahren beobachte ich aus beruflichen Gründen die Bau- und Energie-Gesetzgebungs- und Novellierungstätigkeit bis hin zu den amtlichen Begründungen. Dabei ist mir – wie wohl jedem aufmerksamen Beobachter – schnell aufgefallen, dass die Energiegesetze nach dem Stil der Salamitaktik immer weiter verschärft werden.

Prof. Lüdecke: Um welche Gesetze geht es dabei im Einzelnen?

Konrad Fischer: Bei den uns interessierenden aktuellen Gesetzgebungsverfahren handelt es sich um

Gesetz zur Stärkung der klimagerechten Entwicklung in den Städten und Gemeinden

Gesetz zur steuerlichen Förderung von energetischen Sanierungsmaßnahmen an Wohngebäuden

Energiedienstleistungsgesetz

Erneuerbare Energien Wärmegesetz

und die schon seit 2010 für 2012 vorbereitete Novelle der

– Energieeinsparverordnung mit Einbindung der neuen EU-Gebäuderichtlinie, Niedrigstenergiestandard für Neubauten

sowie weiter verschärfte Energieausweisregelungen. All diese Gesetze und Regelungen gießen meiner Meinung nach nur alten Wein in neue Schläuche und verfolgen dieselben Partikularinteressen wie seit jeher. Die sich um den Atomausstieg rankenden Vorstellungen unserer Regierung zur künftigen Energieversorgung unseres Landes – bis 2050 soll die Ökoenergie 100 Prozent übernehmen – beruhen auf einem grenzenlosen Optimismus und sind völlig unrealistisch. Orchestriert wird das von sogenannten Expertenstudien aus interessierten Kreisen, die von der Energiewenderei massiv profitieren. Widerlegende Gegendarstellungen haben dagegen keine Chance, ein typisches Merkmal der gesamten Klimaschutzwissenschaft und -gesetzgebung.

Prof. Lüdecke: Darf ich Ihren bisherigen Ausführungen entnehmen, dass sie diesen Bemühungen der deutschen Bundesregierung kritisch gegenüber stehen?

Konrad Fischer: Absolut korrekt! Der sich als „Klimaschutz“ gebende Politikstil der verbrannten Erde wird als entscheidender deutscher Beitrag zur Menschheitsrettung vor einer polaren Eiskernschmelze und sonstigen global wirksamen Wind- und Wetterereignissen verkauft. Zumindest Ihre EIKE-Leser wissen, was davon zu halten ist. Im Ergebnis zeigt sich die Klimaschutzpolitik bisher lediglich als Wirtschaftsförderung zugunsten der Kreditwirtschaft und der nachgeordneten Profitmacher mit den bewährten Folterinstrumenten und Stimulantien: Gesetzlich gestützter Investitionszwang mit sich verschärfendem Enteignungscharakter und Mißbrauch von Steuermitteln nach dem Gießkannenprinzip.

Prof. Lüdecke: Wird die Regierung die angekündigten Gesetze denn überhaupt durchsetzen können?

Konrad Fischer: Der sogenannte Atomausstieg ist scheinbar schon fast geschafft. Insider warten jetzt auf die leicht vorhersehbaren Folgen – massiv spürbare Energiepreisverteuerung, Energieimport im großen Stil, möglicherweise gekoppelt mit Stromausfällen im ganzen Land. Das scheinen die Regierung und ihre Einflüsterer aber nicht zu befürchten, oder es ist ihnen total egal. Nach den bisherigen Erfahrungen wird auch die folgende Verschärfung der „Energiewende „im großen und ganzen“ gelingen. Wenn nicht ganz genau nach Plan, dann eben wieder mal scheibchenweise. Die Pläne der Ministerialen und der Wunschkataloge ihrer Einflüsterer sind weitestgehend bekannt.

Prof. Lüdecke: Um was geht es da im Detail?

Konrad Fischer: Der Sanierungszwang für Altbauten ohne Beachtung der Wirtschaftlichkeit, sowie weitere Verschärfung der ohnehin schon gegebenen Ökovorschriften in sogenannten „städtischen Klimaschutzgebieten“ sind seit langem als Vorreiter der grenzenlosen Einflussnahmen von Profiteuren in der Pipeline und fertig ausformuliert. Auch der gesetzliche Zwangsanschluß an die Netze der Ökoenergie gehört dazu. Dies alles und noch mehr sollte mit der Novelle des Baugesetzbuches eingeführt werden. Nach einigem Medienspektakel hat man diesen weiteren merkelgestützten Anschlag auf das Eigentum – die DDR Wohnungszwangswirtschaft läßt grüßen! – Ende Juni erst mal etwas entschärft. Es bleiben diverse baurechtliche Begünstigungen der bizarren Alternativenergien aus Sonne und Wind, die in Wahrheit nichts taugen und nur den Strompreis erhöhen. Ob das in der ökologischen Reform des Baugesetzbuchs auf Anhieb durchgeht, wird der Herbst zeigen. Der Bundesrat hat die 100-Prozent-Abschreibung in Zehnjahresfrist für die energetische Sanierung eines Altbaus auf einen Energieverbrauch von nur noch 85 Prozent des Neubauniveaus erst einmal gestoppt. Die Länder befürchten dadurch krasse Verluste beim ihnen zustehenden Steueraufkommen. Doch der Vermittlungsauschuß wird sich bestimmt sehr bemühen, eine Entschädigungsregelung zu finden. Vielleicht durch eine weitere Mehrwertsteuererhöhung? Die sich um ihre gesetzlich garantierten Gewinne sorgenden Klimaschutzbegünstigten und sonstige Auftragslamentierer haben schon ihr bekanntes Greinen begonnen, das die Qualitätsmedien nun nach besten Kräften verstärken werden. Motto: Bundesrat verhindert sofortige Weltrettung durch deutsche Regierungskunst.

Prof. Lüdecke: Wie beurteilen Sie den Sachgehalt des vorgesehenen Sanierungszwangs? Sind damit wesentliche Einsparungen an den Energieträgern Gas, Kohle und evtl. Elektrizität erzielbar?

Konrad Fischer: Jetzt wird es lustig. Das extreme Einsparen der in Gebäuden verbrauchten Energie ist ein wesentlicher Baustein der Energiewende. Ohne diesen Minderverbrauch geht nämlich die angekündigte Komplettumstellung auf „Öko“ überhaupt nicht auf. Der Witz dabei ist, dass all die bisherigen Energiesparanstrengungen aber so gut wie nichts gebracht haben, da die gesetzlich erzwungenen und steuersubventionierten Maßnahmen überhaupt nicht geeignet sind, sinnvoll und wirtschaftlich Energie einzusparen. Probieren Sie mal, an unverfälschte Abrechnungsdaten heranzukommen, die belegen, dass Häuser allein durch nachträgliche Wärmedämmung Energie gespart haben. Es gibt sie nicht, wie erst unlängst der Verbraucherschutzverband Hausgeld-Vergleich/Hausverwalter-Check durch schriftliche Befragung der zuständigen Behörden und Institutionen herausgefunden hat. An vergleichende Verbrauchsdaten von gedämmten und ungedämmten Wohnblöcken gleicher Bauarten ist bisher nur mein Kollege und Gerichtssachverständige Prof. Jens Fehrenberg herangekommen. Ein stellvertretendes Ergebnis: Ein gedämmter Wohnblock in Hannover verbraucht nicht weniger, sondern am Ende mehr als die bauartgleichen ungedämmten Nachbarn. Das wissen sowohl die Regierung als auch die Dämmprofiteure. Deswegen gehen sie immer nur von berechneten „Bedarfszahlen“ und nicht erwiesenen „Verbrauchszahlen“ aus. Auch für die vorhin genannten „85-Prozent Energieverbrauch“ gilt das in gleicher Weise. Ein „Sachverständiger“ muß die Fiktion bestätigen – für ein Entgelt. So funktioniert der ganze Ökoladen: Prächtig auf dem Papier – in Wahrheit ein grausamer Flop.

Prof. Lüdecke: Wieso soll denn die Wärmedämmung nicht funktionieren?

Konrad Fischer: Die gedämmte Wand verhält sich eben nicht so, wie im getürkten Rechenmodell.

Prof. Lüdecke: Können Sie das etwas näher erläutern?

Konrad Fischer: Zum einen werden Dämmfassaden schnell naß. Da Dämmstoff keine Wärme speichern kann, kühlen sie nach Sonnenuntergang extrem ab und unterschreiten stundenlang den Taupunkt. Dabei kondensiert die Luftfeuchte auf und vor allem auch im Dämmstoff, er säuft ab. Die Thermografie-Aufnahme mit der Wärmebildkamera erfolgt – ein raffinierter Trick! – immer tief in der Nacht oder früh am Morgen und beweist dann die extrem abgekühlte Dämmfassade. Dann strahlt der Massivbau immer noch die tagsüber aufgenommene Solarenergie ab – im Bild rotgelb, während die aufnässende Dämmfassade unter dem Taupunkt blauschwarz dahinfrostet. Das lobt der Thermograf dann als „gut gedämmt“! Am Tag aufgenommene Wärmebilder zeigen dagegen „kalte“ Massivfassaden und glühende Dämmoberflächen, da deren dünne Putzschwarten durch Solarstrahlung extrem viel heißer als die Massivfassaden werden. Vom dünnen Autoblechdach in der Sommerhitze und seiner nächtlichen Befrostung kennt jeder diesen Effekt. (Anm. der Redaktion: Thermografie in Theorie und Praxis, http://members.aon.at/osterrg2/ebs.pdf)

Aber lassen Sie mich noch weiter ausholen. Es ist doch logisch, dass bei Sonneneinstrahlung die Verschattung bzw. Wärmedämmung der Hauswand weniger mitheizende Solarenergie in die Wand lässt. Nachts erhöht dagegen die nächtliche Extremabkühlung und vor allem die Nässung der Dämmfassade das Temperaturgefälle der Wand – und damit auch den Energieverbrauch. Wie mir vorliegende Vergleichsmessungen der Bundesanstalt für Landwirtschaft belegen, entsprechen die sich tatsächlich einstellenden Temperaturen an massiven und gedämmten Wänden im jahreszeitlichen Tag-und-Nacht-Rhythmus keinesfalls den stationär angesetzten Rechenmodellen.

Prof. Lüdecke: Noch einmal zum besseren Verständnis für unsere Leser. Darf ich Ihre Ausführungen so verstehen?: Nachts wird durch das Nasswerden des Dämmstoffs und durch starke Abkühlung beim Unterschreiten des Taupunkts die Dämmwirkung der Außendämmung ins Gegenteil verkehrt, denn seine Wärmeleitfähigkeit nähert sich der (guten Wärmeleitfähigkeit) des Wassers an. Der jetzt sehr kalte Dämmstoff verliert also seine Wärmeisolationseigenschaft und wird zum Wärmeleiter. Als Folge davon verliert die  Massivwand des Hauses Wärme – also gerade dies, was man durch die Dämmung verhindern möchte. Und tagsüber, bei Sonneneinstrahlung, verhindert umgekehrt die Dämmung die erwünschte Erwärmung der Wand. Erwünscht deshalb, weil wir nicht in tropischem Klima leben, in dem jede Aufheizung der Wände verhindert werden soll.

Konrad Fischer: So ist es!

Prof. Lüdecke: Nun haben wir bislang ja nur von Dämmung der Hausaußenwand gesprochen. Wie verhält es sich aber mit Dämmung im Inneren, beispielsweise der Ausdämmung eines Dachstuhls, der bisher oft nur eine dünne Alufolie unter den Ziegeln aufwies?

Konrad Fischer: Bei der Dachdämmung müssen wir vor allem den sommerlichen Hitzeschutz betrachten. Es zählen die sogenannte Temperaturamplitudendämpfung und die Phasenverschiebung: Die einseitige Temperaturerhöhung außen – die Ziegeloberflächen kommen bei starker Sonneneinstrahlung locker auf 70 bis 80 Grad °C – soll stark abgemildert (Temperaturamplitudendämpfung) und möglichst erst in den kühlen Nachtstunden im Raum ankommen  (Phasenverschiebung). Diesen Dämpfungs- und Verzögerungseffekt schaffen auf Grund ihrer geringen Dichte nicht die üblichen Dämmstoffe, sondern nur Massivbaustoffe wie Holz und Ziegel. Deren Speicherfähigkeit schützt auch im Winter am

besten vor der Raumauskühlung. Und obendrein schaffen es die Massivbaustoffe, dank ihrer Kapillarität, auch dem unausweichlichen Feuchteangriff durch sommerliches und winterliches Kondensat verlässlich standzuhalten. Fasrige und porige Dämmstoffe dagegen nässen oft auf, da die Dichtheit der sogenannten Dampfsperrfolie in der Leichtbaukonstruktion „Dach“ zwangsläufig nur von kurzer Dauerhaftigkeit ist.

Bei den anderen Formen der Innendämmung an Zimmerwänden sind die Feuchteeffekte inzwischen recht gut erforscht: Die Schimmelpilzgefahr ist geradezu extrem. Bei Fachwerkwänden ist dadurch die Trocknung gestört, Vermorschung droht. Und was die Kosten und den Nutzen betrifft: Ein krasses Mißverhältnis. Ich rate deswegen: Finger weg.

Prof. Lüdecke: Zurück zur Außendämmung. Kann man hier nicht sogar von vorsätzlichem Betrug sprechen?

Konrad Fischer: Wahrscheinlich könnte man das so bezeichnen.

Prof. Lüdecke: Wie reagiert denn das Material und die Struktur der Dämmfassaden a la longue auf die von Ihnen geschilderte Extrembewitterung?

Konrad Fischer: Da es sich um klapperige Leichtbautechnik handelt, ganz ihrem Naturell entsprechend. Sie müssen ständig repariert werden oder gehen schnell kaputt. Die Materialbelastung durch die dämmstofftypische Ausdehnung und Schrumpfung bei Temperaturwechsel – etwa das 15- bis 20-fache des Ziegelsteins – führt zum Auf- und Abreißen der Dämmhaut. Ihr feuchtebedingtes Absaufen fördert Verschmutzen und das mikrobiologische Wachstum von Schimmelpilzen und Algen. Jeder kennt inzwischen die versauten Dämmfassaden, oft muß man nur aus dem Fenster schauen. Die Dämmindustrie vergiftet deswegen die Dämmoberflächen mit Fungiziden und Algiziden. Leider werden die Pestizide schnell ausgeregnet und verseuchen dann das Grundwasser und die Kläranlagen. Die Ewald Dörken AG hat deswegen jüngst die im Dämmsystem eingebettete Fassadenheizung erfunden, mittels elektrischer Heizmatten oder warmwasserbeheizter Heizschlangen. Schilda läßt grüßen.

Ganz unbekannt ist hierzulande auch, was an den Holzrahmenhäusern Amerikas passierte: Dort haben die systematisch aufnässenden Wärmedämmverbundsysteme deutscher Bauart an über 90 Prozent der sachverständig untersuchten Fälle zu entsetzlichen Hausschwammkatastrophen und Bewohnerkrankheiten geführt. Sie sind deswegen seit 1996 sukzessive verboten worden, zuletzt 2007 in Oregon. In Deutschland nehmen wir dagegen jeden Pfusch in Kauf, fördern ihn mit Steuermitteln und erzwingen ihn mit Energiespar-Gesetzen. Über neun Euro pro Fassadenquadratmeter und Jahr kostet die Instandhaltung einer Dämmfassade mehr, als eine verputzte Massivfassade, so das Institut für Bauforschung in Hannover. Und die durch Sommer- und Winterkondensat aufgenässten Zwischensparrendämmungen sind Legion.

Prof. Lüdecke: Aber bei den Wärmeschutzfenstern mit extremer Abdichtung gegen Aussenluft sollte das Energiesparen doch wenigstens funktionieren?

Konrad Fischer: Dass man mit dichteren Fenstern den Heizenergieverbrauch etwas vermindern kann, ist zwar richtig – aber keinesfalls mit akzeptabler Amortisation der Investitionskosten und nur auf Kosten der Raumlüftung. Das Ergebnis heißt dann Geldverlust – was angesichts des Hausbesitzerreichtums vielleicht zu verschmerzen wäre, aber leider nicht der Schimmelpilzbefall in der überfeuchten Wohnung. Die propagierte Stoßlüftung bekommt nämlich die anfallende Raumluftfeuchte nicht in den Griff – bei vier Personen an die 10 bis 15 Liter täglich! Dies schafft nur die stetige Lüftung – durch schnell verkeimende Lüftungsanlagen im Dauerbetrieb oder eben mit der ausreichenden Luftwechselrate alter Fenster ohne Lippendichtung. Doch davon will die Fensterindustrie rein gar nichts wissen. Sie verkauft inzwischen Lüftungsschlitzbeschläge, rahmenintegrierte Lüftungsklapperatismen und perforierte Dichtungslippen – alles für teuer Geld und passivhauszertifiziert und die Lichtsäcke des Schildaer Rathaus an technischer Raffinesse weit hinter sich lassend.

Prof. Lüdecke: Wie sieht es dann mit den neuen Heiztechniken durch Wärmeentnahme aus dem Erdboden aus?

Konrad Fischer: Diese sind im Nachrüstfall meistens unwirtschaftlich, technisch anfällig und bleiben in ihrer tatsächlichen Effizienz weit hinter den Rechenannahmen zurück. In der Stadt Staufen hat sich das Extremrisiko der Tiefenbohrungen für den Wärmetauscher durch eine Unzahl fortschreitende Gebäuderisse gezeigt. Die Wärmeentnahme aus dem Boden kühlt diesen außerdem ab und mündet in immer geringeren Wärmeerträgen, denen mit immer aufwendigeren Verlegesystemen begegnet wird. Der gelieferte Energieüberfluß bleibt oft weit hinter den Erwartungen zurück und erfordert dann massive elektrische Zuheizung. Und die kühlen Abgastemperaturen moderner Heizkesseltechnik haben schnellere Korrosion im Kesselraum und aufwendige Kaminsanierung als betriebswirtschaftlichen Pferdefuß. All das erhöht den baulichen und finanziellen Aufwand und spart im Effekt doch keine Energie!

Prof. Lüdecke: Wie kann man denn dann richtig Heizenergie sparen?

Konrad Fischer: So richtig sparen kann man nach meiner Erfahrung nur, wenn man sinnlose Energiespar-Aufwendungen unterläßt, da liegt das größte Sparpotential. Und vielleicht die Wärmeverteilung einer alten Heizung mit eingeputzten Rohrleitungen gegen offen auf dem Putz liegende Rohre eintauscht und die Nachtabsenkung mit ihren exponentiellen Energieverlusten beim abendlichen Auskühlen und morgendlichen Aufheizen abstellt. Niemand putzt ja seine Neonleuchten ein, bis die Wand nur noch müde schimmert, und beim Autofahren weiß jeder, was Stop and Go im Stadtverkehr – das Analogon zur Nachtabsenkung der Heizung – sinnlos Sprit frißt. Bei der Wohnungsbeheizung verbaggern die Deutschen die Wärme jedoch am liebsten in Wand und Boden und lassen gerne die Reifen quietschen. Ganz davon abgesehen, dass sie extrem teure und störungsanfällige Holzheizmethoden in ihre Keller einbauen und sich daran freuen, mit aufquellenden Holzpellets, toxisch belastetem Altholz und schimmelversportem Holzschnitzelchen Giftgaswolken aus ihren Hauskaminen zu pusten oder mit wasserbasierter Wärmetauscherei ganze Städte in Rißruinen und ihre Gartenböden in Permafrostgebiete zu verwandeln.

Prof. Lüdecke: Was ist mit Brennwertheizungen? Sind die sinnvoll? Ich bin da persönlich ein wenig skeptisch, weil diese neuen Systeme wesentlich teurer sowie anfälliger sind und daher auch höhere Wartungskosten verursachen. Gibt es hier seriöse Vergleiche?

Konrad Fischer: Da möchte ich keine langatmigen Technikdiskussionen entfalten, ich zitiere eine Zuschrift eines Beratungskunden: „Entgegen der Zusicherung des Heizungsbauers, mit einem neuen Gasbrennwertkessel 25-30% Energie einsparen zu können, habe ich in der Heizperiode 2007/2008 gegenüber der Vorperiode 9% mehr Gas verbraucht – was unter Berücksichtigung des um 15% höheren Klimafaktors der Vorperiode für meine Postleitzahl lt. DWD einem 6% höheren Wirkungsgrad entspricht.“ Ich finde, das sagt alles. In zwei Worten: Finger weg!

Prof. Lüdecke: Wie kann sich der Hausbesitzer gegen die offensichtlich sinnlosen Zumutungen der Energiesparvorschriften schützen?

Konrad Fischer: Bisher ist das Wirtschaftlichkeitsgebot des Energieeinspargesetzes entscheidend. Deswegen gibt es in den darauf fußenden Verordnungen – die Heizkostenverordnung und die Energieeinsparverordnung – Befreiungsregelungen. Sie greifen immer, wenn die Investition unwirtschaftlich ist. Jeder Planer ist aus haftungsrechtlichen Gründen verpflichtet, seinen Bauherren darüber aufzuklären, denn er schuldet ja die Wirtschaftlichkeit der Planung als vertragliche Nebenpflicht. Wer das als Planer und Energieberater vernachlässigt, setzt sich dann eben einem schwer einzuschätzenden Haftungsrisiko aus. Entsprechende Prozesse sind am laufen und auch früher schon zuungunsten der untreuen Planer entschieden worden.

Prof. Lüdecke: Und wie ist der Begriff „Unwirtschaftlich“ hier zu verstehen, um welche Amortisationszeit handelt es sich denn dabei?

Konrad Fischer: Zunächst die amtliche Vorschrift zur Frage der Unwirtschaftlichkeit einer Energiespar-Investition im Verhältnis zur Ersparnis. Im Paragrafen 11 der Heizkostenverordnung hat der Gesetzgeber selbst den angemessenen Amortisationszeitraum festgesetzt: „Unverhältnismäßig hohe Kosten liegen vor, wenn diese nicht durch die Einsparungen, die in der Regel innerhalb von zehn Jahren erzielt werden können, erwirtschaftet werden können.“ An diese Frist hat sich bisher auch die einschlägige Rechtsprechung gehalten und deswegen ist sie auch für die Bearbeitung unserer Befreiungsanträge von der Energieeinsparverordnung im Altbau maßgeblich, wobei wir im Neubau und bei der Befreiung vom Erneuerbare-Energien-Wärmegesetz die zu erwartende Lebensdauer der betroffenen Bauteile heranziehen. Und damit – bisher jedenfalls – immer eine Befreiung erwirken konnten.

Doch viele Hausbesitzer sind der Klimaschutz-Halluzination schon erlegen und machen jeden Blödsinn eifrig mit, egal wie unwirtschaftlich das auch sein mag.

Für die vernünftigen gilt: Skeptisch bleiben, nachrechnen und sich befreien lassen. So lange das noch geht.

Prof. Lüdecke: Ich danke Ihnen für dieses Gespräch.

Nachtrag: Konrad Fischer ist mit seiner Expertise nicht alleine. Immer öfter berichten regionale und überregionale Zeitungen über die Fragwürdigkeit, Häuser nachträglich mit den heute von der einschlägigen Industrie und den ausführenden Handwerksbetrieben angebotenen Maßnahmen zu dämmen. EIKE hatte schon einmal darüber berichtet.Am 22. Juli 2011 schrieb Rolf Kornemann in der FAZ (Preisschulder für die Energiewende, Immobilienbrief) einen kritischen Beitrag, ferner die WELT Online am 21.Juli 2011 den Artikel „Schimmel-Dämmplatten können krank machen“. Für weiter Interessierte ein Video-Beitrag von Fischer hier.




Satelliten- Klima-Experte Dr. Roy Spencer zu den Diskrepanzen zwischen Messungen und Modellen!

Ihre Widerlegungen grenzen ans Bizarre, und so muss ich mich fragen, ob auch nur einer von ihnen unser Papier überhaupt gelesen hat. Ich warte ungeduldig auf ihre veröffentlichten Studien, die irgendwelche Fehler in unserer Analyse zeigen.

Offensichtlich ist alles, was sie wissen müssen, dass unsere Studie die UN-Klimamodelle schlecht aussehen lässt. Und das können sie mit Sicherheit nicht leiden!

Wirklich eigenartig dabei ist, dass diese Wissenschaftler wissentlich oder unwissentlich den Ersten Hauptsatz der Thermodynamik leugnen: den Energieerhaltungssatz. Wir zeigen, dass er tatsächlich für mittlere globale Änderungen der Temperatur gültig ist: eine strahlungsbedingte Akkumulation von Energie führt zu einem Temperaturmaximum… später! Genau so wie bei einen Wasserkessel: stellt man ihn auf den Herd, dauert es eine Weile, bis das Wasser warm ist.

Aber während es höchstens 10 Minuten dauert, ein paar Zentimeter Wasser zu erwärmen, dauert es viele Monate im realen Klimasystem, bis sich die oberen 20 bis 50 Meter Ozeanwasser erwärmt haben.

Wir zeigten eindeutige Beweise für diese Zeiträume der Akkumulation von Strahlungsenergie aufgrund von Satellitenbeobachtungen, bevor die Temperatur steigt… und den Energieverlust danach. Energieerhaltung kann von keinem vernünftigen, gesunden Wissenschaftler geleugnet werden.

Wir haben weiter gezeigt (seufz… wieder einmal… wie schon 2010), dass man keine Diagnose des Feedback angeben kann, wenn dieser Strahlungsantrieb der Temperaturänderung stattfindet, zumindest nicht in einem Zeitraum bei Null, wie es Dessler und ein paar andere getan zu haben behaupteten.

Falls man es versucht, wird man ein “falsches Positiv” bekommen, selbst wenn das Feedback stark negativ sein sollte.

Die Demonstration hiervon ist einfach und überzeugend. Sie wird verstanden von Dick Lindzen am MIT, Isaac Held in Princeton (welcher bei weitem kein „Skeptiker“ ist), und vielen anderen, die sich tatsächlich Zeit genommen haben, es zu verstehen. Man muss nicht einmal glauben, dass „Wolken eine Klimaänderung auslösen können“ (wie ich zum Beispiel), weil es die Zeitverzögerung ist – und das ist eindeutig – die zu dem Problem der Feedback-Abschätzung führt.

Haben wir „bewiesen”, dass die IPCC-Klimamodelle mit ihren Vorhersagen einer substantiellen Erwärmung in der Zukunft falsch liegen?

Nein, aber das schmutzige kleine Geheimnis ist, dass es nach wie vor keine Möglichkeit gibt, sie auf ihre Erwärmungsprognosen zu testen. Und solange die Modellierer darauf bestehen, die kurzfristige Klimavariabilität heranzuziehen, um die langzeitliche Erwärmung in ihren Modellen „abzusichern“, solange werde ich die gleiche kurzfristige Variabilität nutzen, um zu zeigen, wie sehr die Modellierer sich mit ihrem Glauben an ein positives Feedback selbst zum Narren machen. Und ohne ein allgemeines positives Feedback wird die menschengemachte globale Erwärmung für alle Ziele in der Praxis kein Thema mehr sein (z. B. kann ein negatives Wolkenfeedback jedes positive Feedback im Klimasystem überkompensieren).

Wenn ich ein „Leugner” der Theorie von einer gefährlichen anthropogenen Klimaänderung bin, dann sei es. Aber als Wissenschaftler leugne ich lieber eine Theorie als dass ich den Ersten Hauptsatz der Thermodynamik leugne. 

Link: http://wattsupwiththat.com/2011/08/01/rise-of-the-1st-law-deniers/

Übersetzt von Chris Frey für EIKE

Anmerkung: EIKE bereitet eine allgemeinverständliche Beschreibung der Spencer-Hypothese zum Einfluss des Wolkenfeedback vor (Autoren: Prof. Lüdecke, Dr. Link und weitere).




Vereinfachtes Atmosphärenmodell beweist eine Klimasensitivität des CO2 von 1,1 °C auf der Basis beobachteter Strahlungsflüsse

Eine rein qualitative Beschreibung des Treibhauseffekts wurde von den Autoren bereits in EIKE publiziert. Ferner wurden von uns die Veröffentlichungen von Gerlich/Tscheuschner sowie von Kramm/Dlugi, die beide den erwärmenden Einfluss des anthropogenen CO2 in Frage stellen, einer Fachkritik unterzogen. In den Erwiderungen dieser Autoren auf unsere Kritik konnten wir keine Fehler unserer physikalischen Argumentation feststellen, jeder Leser sollte bei Bedarf selber nachprüfen.

Die Erwiderungen enthielten aber auch den zutreffenden Hinweis, wir hätten nicht selber zum Thema in Peer-Review-Fachzeitschriften publiziert. Dies ist zwar kein Sachargument gegen eine physikalisch einwandfrei belegte Kritik, war uns aber dennoch Ansporn. Unser Bemühen in der nun vorliegenden eigenen Publikation folgte im wesentlichen den Pfaden von Schneider/Mass und von Liou. Der maßgebende Unterschied zu deren Veröffentlichungen bestand indes darin, jedwede substantiellen Vernachlässigungen zu vermeiden. Um keine Missverständnissen aufkommen zu lassen, weisen wir in diesem Zusammenhang darauf hin, dass weder Gerlich/Tscheuschner noch Kramm/Dlugi eigene vollständige Modelle vorstellen, wie wir es in unserer Arbeit tun. Insbesondere Kramm/Dlugi gingen den Weg, über eigene „Berichtigungen“ des  Modells von (vorwiegend) Schneider/Mass zu belegen, dass mit ihren „Berichtigungen“ kein substantieller Nachweis für den Treibhauseffekt des CO2 mehr vorliege. Die „Berichtigungen“ enthielten gravierende Vernachlässigungen, so dass damit die, unserer Auffassung nach zwangsläufig falschen, Schlussfolgerung von Kramm/Dlugi bestens erklärt sind.

Unsere Publikation liegt als pdf bei. Als ein Ergebnis ermittelten wir die Klimasensitivität des CO2, also die mittlere globale Erwärmung bei hypothetischer Verdoppelung der CO2-Konzentration, zu 1,1 °C bei vorgegebener Änderung des Strahlungsgleichgewichtes (Radiative Forcing) ohne Rückkoppelungen. Unser Modell bestätigt, dass der Einfluss des anthropogenen CO2 sich als eine prinzipiell messbare Größe den weiteren Einflüssen von langfristigen globalen Temperaturänderungen zugesellt. Dieser Einfluss ist aber unbedenklich (im Gegenteil, CO2-Zunahme und eine leichte globale Erwärmung sind für die Menschheit günstig und wünschenswert) und erweist sich daher zu alarmistischen Prognosen zukünftiger Klimaentwicklungen als völlig ungeeignet. Unser Aufsatz belegt, dass die gelegentlich zu vernehmenden Auffassungen, anthropogenes CO2 übe überhaupt keinen erwärmenden, oder umgekehrt sogar einen abkühlenden Einfluss auf mittlere Globaltemperaturen aus, keine physikalische Basis aufweisen.

Wir bitten nun an dieser Stelle alle eventuellen Kommentare-Schreiber um Nachsicht, wenn wir aus Zeitgründen nur auf Kommentare antworten, die physikalisch einwandfrei begründet sind, sich ausschließlich und im Detail auf unseren Aufsatz beziehen und keine Anmerkungen darstellen, die auf offensichtlichen Missverständnissen beruhen. Das Journal IJMPC (International Journal of modern Physics C), in dem unser Aufsatz erschien, ist wie die meisten ordentlichen Fachzeitschriften absolut offen, was die Diskussion gegensätzlicher Ansichten zu einem in ihm veröffentlichten Aufsatz angeht. Jeder, der meint, gute physikalische Kritikpunkte gegen unsere Veröffentlichung anführen zu können und bereit ist, sich dem Peer-Review-Prozess von IJMPC zu unterziehen, ist daher im gegebenen Falle herzlich eingeladen, ein „debate paper“ bei IJMPC einzureichen.

Dr. Rainer Link

Prof. Dr. Horst-Joachim Lüdecke

(EIKE-Pressesprecher)

Related Files




Das Geheimnis der Wolken

Update: Aufgrund des hohen Interesses am Thema verlinken wir den Film von Youtube hier

Die ARTE-Sendung ist eine Mischung aus hochwertiger wissenschaftlicher Dokumentation – in dieser Qualität in Deutschland zumindest bei Klimathemen absolut unbekannt – und dem persönlichen Leidensweg eines Klimawissenschaftlers, hier Henrik Svensmark. Svensmark war bei der Durchsetzung und Anerkennung seiner Theorie der Wirkungskette von Sonnenmagnetfeld, kosmischer Strahlung, Aerosol- und Wolkenbildung und schlussendlich den sich daraus ergebenden Klimaänderungen nicht nur wissenschaftlichen sondern auch ad hominem Anfeindungen ausgesetzt. In der ARTE-Sendung kommt zudem die Arbeit von Jan Veizer (ehemals Univ. Bochum, heute Univ. Ottawa, Kanada) zs. mit Nir J. Shaviv (Univ. Jerusalem, Israel) mit dem Titel "Celestial driver of Phanerozoic climate", GSA today 13, No. 7 (2003) der Geological Society USA zu Wort.

Ähnlich wie Svensmark wurden auch Veizer und Shaviv nach Veröffentlichung ihres Fachbeitrags in einer zumindest nach dem 2. Weltkrieg in Deutschland unbekannten Schärfe und unter Einsatz fragwürdiger Mittel angegriffen. Veizer verließ im Jahre 2004 schließlich Bochum, um an der kanadischen Universität als distinguished professor weiterzuarbeiten. Er ist heute emeritiert. EIKE wird über diese Affaire, die damals ein weites Medienecho auslöste und ihre Verursacher in einem zukünftigen Beitrag noch im Detail berichten.

Zurück zur ARTE-Sendung "Das Geheimnis der Wolken": Wissenschaftlich untadelig, mit Ausnahme der ärgerlichen Verwendung einer Grafik, bei der das Zeitfenster wissenschaftlich unzulässig selektiert wurde (zumindest dies fiel dem Autor beim zuschauen auf). Der unvorbelastete Zuschauer bemerkt es zwar überhaupt nicht, ein solches Vorgehen ist aber schade, denn so sicher, wie es Journalisten gewöhnlich gerne haben, ist keine wissenschaftliche Theorie. Im gegebenen Zusammenhang weisen wir schlussendlich auf folgenden aktuellen Veröffentlichungen zum Thema Sonne, Wolken und Klima hin:

W. Weber, Strong Signature of the Active Sun in 100 Years of Terrestrial Insolation Data, Annalen der Physik, 23. September 2009 – EIKE hatte über diesen Beitrag bereits berichtet

R. Spencer and W.D. Braswell, On the Misdiagnosis of Surface Temperature Feedbacks from Variations in Earth’s Radiant Energy Balance, Remote Sens. 3, p. 1603, DOI:10.3390/rs3081603 (2011) – EIKE wird über diesen Beitrag noch im Detail berichten

H.-J. Lüdecke, Long-term instrumental and reconstructed temperature records contradict anthropogenic global warming, Energy & Environment, erscheint im aktuellen August-Heft 2011 – EIKE wird über diese Arbeit berichten

Prof. Dr. Horst-Joachim Lüdecke

(EIKE-Pressesprecher)




Was uns die Grünen sagen: „Wissenschaft ist immer politisch“

Den Anfang der Podiumsdiskussion (Vorbericht bei EIKE hier) machte Bärbel Höhn mit der Aussage, dass „Wissenschaft immer politisch ist“ (Da offenbart sie schon ihre Ablehnung einer Wissenschaft, die ergebnisoffen, unbeeinflusst, objektiv und neutral zu sein hat). Weiter: bis 2050 soll der CO2-Austoß um 90% sinken. Heute hätten wir kein „CO2-Gleichgewicht“. Der Begriff „CO2-Gleichgewicht“ wurde nicht näher erläutert. Ziel müsse die Transformation der Gesellschaft sein. (So: nun habe ich das mal selbst gehört, welches also die noch fast unbekannten Fernziele sind, CO2 soll offensichtlich der Hebel – besser die Brechstange – dazu sein). Klimaskeptiker – hier KS genannt – gebe es besonders in den USA, wo sie gezielte Desinformationskampagnen betrieben. Damit alle das verstünden, sollte man es stark vereinfachen, um in der Öffentlichkeit anzukommen. Dann, nach ca. 15 min. verließ Frau Höhn den Saal. Anwesend waren ca. 100 Personen.

Stephan Rahmsdorf hielt sozusagen die Hauptrede. Zunächst widersprach er energisch der Behauptung von Fritz Vahrenholt in der WELT, dass die Temperaturen fast gleich bleiben würden. Begründung: keine. Er meinte, seit 1850 würden die Erdtemperaturen steigen, ebenso der Meeresspiegel. Seit 1970 ca. 6 cm. Dass die Sonne das Klima präge, sei eine Fiktion. Der RTL-Film “Der Klimaschwindel“ sei von KS gemacht. EIKE wurde als kleine Lobby-Gruppe bezeichnet und auf meine Frage, wer denn dahinterstehe, antwortet er, Geldgeber oder Firmen könne er nicht nennen. EIKE arbeite mit argumentativen Tricks. Man wolle Laien für dumm verkaufen. Herr Lüdecke erinnere ihn mit der „deutschen Physik“ an das Dritte Reich (zu „deutscher Physik“ hier).

Update der Redaktion 19.7.11 : Widerruf von Dr. Kanno

Soeben erreicht uns die Nachricht, dass Professor Rahmstorf den Berichterstatter Dr. Kanno unter Fristsetzung bis heute 19.7.11 15:00 Uhr bei Androhung einer Strafanzeige und Strafantrag wegen übler Nachrede  aufgefordert hat den Satz  „Herr Lüdecke erinnere ihn mit der „deutschen Physik“ an das Dritte Reich“  zu widerrufen.

Dr. Kanno bat uns in einer Mail unseren Lesern mitzuteilen, dass er diesen Satz widerruft. Er tut dies allein aus rechtlichen Gründen,  obwohl er meint ihn vernommen zu haben und dies auch Prof. Rahmstorf in seiner Antwort-Mail mitteilte. Er sei derzeit während seines Urlaubs nicht in der Lage die rechtlichen Möglichkeiten zu prüfen, um seine Rechte fristgemäß wahrzunehmen.

Zusätzlich bat er uns der Forderung von Professsor Rahmstorf nachzukommen den vollen Widerruf – wie ihn Prof. Rahmstorf wünscht- zu veröffentlichen. Wir kommen dem hiermit nach.

„Meine Behauptung, Herr Rahmstorf habe Herrn Lüdecke mit der     „deutschen Physik“ und dem Dritten Reich verglichen, war falsch.

Vielmehr hat Herr Rahmstorf ein Zitat von Herrn Lüdecke vorgelesen, wo Lüdecke ihn in einem Schreiben an das ZDF vom Dezember 2010 mit    der  „deutschen Physik“ und dem Dritten Reich vergleicht. Ich bedaure die Unannehmlichkeiten, die Herrn Prof. Rahmstorf durch meine falsche Aussage entstanden sind.“

Ende des Updates

Rahmsdorf weiter: das Meer würde versauern mit einen PH-Wert von 30% in den sauren Bereich. Ein Zuhörer bemerkte, dass er einem Chemiker über die Übersäuerung des Meers durch CO2 berichtet habe. Dieser habe sich daraufhin vor lachen gebogen mit der Bemerkung: “Was sind denn das da für Wissenschaftler?“ Ein weiterer Zuhörer meinte, im Vortrag sei vieles weggelassen worden, so z.B. dass in der Antarktis die Eismassen zunähmen. Ein andere: der Strahlungsantrieb der Sonne sei nicht erwähnt worden, ebenfalls nicht die massive Abholzung des Regenwaldes sowie die Auswirkungen der Vulkane. Rahmstorfs Vortrag wurde, wohl auch nicht zuletzt wegen der vielen kritischen Anmerkungen aus dem Publikum, nur mit müdem Beifall quittiert.

Dieter Plehwe von „Lobby-Control“ hielt ebenfalls einen recht matten Vortrag, wobei die USA immer wieder kritisiert wurden, Russland, China, Indien blieben außen vor. (Also: auch der Antiamerikanismus war dabei, woraus man dann seine politischen Rückschlüsse ziehen kann). Dann kam EIKE noch mal dran: man könne keine klaren Schlüsse ziehen, denn „die legen ihre Finanzen nicht offen“. Die Stockholm-Institute seien mit „dubiosen Geldern“ finanziert. Der tschechische Präsident Vaclav Klaus wurde wegen seiner „klimaskeptischen“ Meinung kritisiert. Übrigens: die eigenen Leute wurden mit Doktor und Professor betitelt, die der Skeptiker-Kontrahenten nicht. Ein Zuhörer meinte ganz offen, dass es die Aufgabe von IPCC sei, die CO2-Theoerie zu propagieren, nicht die Rolle des CO2 zu erforschen.

Tim Nuthull sagte dann, dass viele die Grünen als Kommunisten sähen, die auf die Leute einhämmerten. Man würde sie mit Wassermelonen vergleichen, nämlich außen grün und innen rot. Darauf allgemeine Heiterkeit und Beifall! Daraus war ersichtlich, dass die KS ziemlich zahlreich anwesend waren, jedenfalls mehr als es die Veranstalter wohl eingeplant hatten. Nuthull forderte, den KS mehr Raum zu Diskussionen zu geben! Meine Frage: warum denn nicht schon früher? Diese Bemerkung überging der Veranstalter Ott mit Schweigen.  Auch wurde der EU-Kommissar Oettinger zitiert mit dem Satz: “Industrie heißt auch CO2, sonst Deindustriealisierung!“. Darauf Tim Nuthull: “Oettinger ist sicher ein Opfer von Einflüsterungen geworden“.

Jemand fragte, ob sich Rahmsdorf schon mal überlegt hätte, wann seine Arbeit entbehrlich sei. „Wenn sie bemerken, dass CO2 nicht schuld ist oder Ihre vorgeschlagenen Maßnamen zwecklos sind, hören Sie dann auf mit der Forschung?“. Plehwe: man kann das Thema politisch oder wissenschaftlich sehen. Jedenfalls soll weiterhin die Rolle des CO2 geklärt werden „soweit wie möglich“. (Also: wenn nicht möglich, dann bleibt man bei dem jetzigen pseudowissenschaftlichen Hokuspokus, so wie einst unter Stalin „Wissenschaft“ betrieben wurde). Jemand fordert eine einfache, verständliche CO2-Temperatur-Kurve zwecks besserer Anschauung und fragt, warum diese nicht längst existiert und publiziert ist.

Jemand anderes meinte, dass die grüne Lobby doch gar keine Angst zu haben brauche, denn sie sei stark, gut finanziert und habe einen großen Teil der Medien auf ihrer Seite (Wer weiß denn schon, dass Österreich Öko-Strom exportiert und im Gegenzug Atomstrom aus Tschechien importiert? Jedenfalls nicht durch die Medien). Die KS seien schwach und würden von den Medien wenig wahrgenommen. „Warum denn dann diese künstliche Dramatik“? fragte der Zuhörer. (Recht hat er. Und ich füge hinzu: Wir müssen raus aus unserem Schneckenhaus. Wir müssen uns in der Öffentlichkeit deutlicher artikulieren, sonst werden wir nicht wahrgenommen, verächtlich gemacht und überrollt.)

Und dann wieder gegen EIKE: Plehwe wörtlich:“ EIKE ist Lobbyverein egal wer dahintersteckt“. Dienstag, 16 Uhr 44, Plehwe zum Schluss: „Der Emmissionshandel soll eine internationale Verteilungsgerechtigkeit schaffen zu Gunsten der Entwicklungsländer“ (UNO-gesteuert). Auf meine Frage, wer denn den teuren Ökostrom bezahlen soll, etwa der Hartz IV-Bezieher, antwortet mir Ott: “Nein, nicht der, sondern Sie und ich“ (Na, das „Ich“ können wir wohl weglassen bei diesen Politheuchlern…Also auch Umverteilung „innen“ zwangsweise, was ja dem Grundgesetz widerspricht mit dem Schutz des Eigentums). Mein rechter Nachbar Dipl.-Ing. Klaus G. Krämer würdigte diese Aussage in dem Sinne, dass das Gesagte schon ein Fall für den Staatschutz sei! (Also, liebe Freunde, so plump, drastisch, aber auch entwaffnend ehrlich habe ich das noch nie gehört. Tun wir was! Das Falscheste wäre nichts zu tun. Diese Leute sind gefährlich, denn sie kommen auf leisen Sohlen, von der breiten Öffentlichkeit, auch von ihren Wählern, fast unbemerkt)

Dr. Michael Kanno, Berlin

Dem Kanno-Bericht spricht für sich. Besonders erschreckend ist die Aussage von Bärbel Höhn „Wissenschaft ist immer politisch“. Dies trifft vielleicht für Diktaturen oder die Zeit vor der Aufklärung zu, in einer freiheitlichen Demokratie verbieten sich solche Ansichten. Wer eine Partei wählt, deren Führungspersonal derartig undemokratischen Vorhaben anhängt, darf sich über die Folgen nicht wundern. Politiker, die für ihre Zwecke die Wissenschaft beeinflussen wollen, verlassen demokratisches Terrain. Und Wissenschaftler, die sich von politischen oder ideologischen Vorgaben leiten lassen, sind Experten-Knechte, keine Wissenschaftler.

Bei all diesem traurigen grünen Unsinn, der Humor bleibt uns noch. Wie sagte der bekannte Kabarettist Dieter Nuhr so schön: „Ich lasse mich ja gerne von der Politik veräppeln, aber bitte mit mehr Niveau!“. Seinen Wunsch verstehen wir nun besser.

Prof. Dr. Horst-Joachim Lüdecke, EIKE-Pressesprecher

Michael Limburg, EIKE-Vizepräsident




Schöne neue Energiewelt oder Tollhaus?

Siehe auch Update (unten)vom 3.7.11

Deutsche Kernkraftwerke müssen infolgedessen so schnell als möglich abgestellt werden. Unser elektrischer Strom kommt dann eben aus französischen oder tschechischen KKW-Anlagen, oft nur wenige Kilometer fern der  deutschen Landesgrenze. Die deutsche Stromversorgung wird im Gegenzug – nunmehr wirtschaftlich vorteilhafter, versteht sich – auf „Erneuerbare“ umgestellt. So haben es uns der Energietechnik sachkundige Experten aus Kirche, Politologie, Soziologie, Jurisprudenz, aber auch der Allgemeinheit dienende Windrad- und Photovoltaik-Hersteller unabweisbar vorgerechnet. Die technische Intelligenz Deutschlands hält angesichts solcher Fachleute die Klappe, denn protestieren war auch bei allen deutschen Wahnvorstellungen der Vergangenheit noch nie erfolgreich. Schäden müssen schließlich erst einmal eintreten, oder nicht? "Et hätt noch emmer joot jejange", und vielleicht springt für das Unternehmen des eigenen Brötchengebers  sogar noch ein Geschäftchen mit dem deutschen Energie-Unfug heraus – also Augen zu und durch!

In den weltweiten Theateraufführungen des Klimaschutz-Märchens „Viel Lärm um nichts“, geschrieben von einem offensichtlich wiederauferstandenen William Shakespeare, ist der letzte Vorhang gefallen. Die maßgebenden CO2-Erzeugernationen nehmen das CO2-Thema, und dies völlig sachgerecht, einfach nicht mehr ernst und haben das Stück abgesetzt. Nur die EU und selbstverständlich wir, wie stets mit tödlicher Sicherheit als letztes Land dieser Erde, propagieren dagegen Spielzeitverlängerung und fordern dafür vom wehrlosen deutschen Zuschauer auch noch höchste Eintrittspreise.

Aprospros Shakespeare: Als größter Theaterautor aller Zeiten entnahm er seine Figuren bekanntlich nordeuropäischen Königshäusern und der Antike. Heute hätte er es leichter, denn demokratisch legitimierte europäische Regierungsvertreter und insbesondere EU- und UN-Dunkelmänner liefern weitaus bessere Vorlagen. Man freut sich daher schon auf seine neuen Stücke, wie auf „Was ihr wohl wollt“, über einen selbstlosen, von schönen Nymphen umschwärmten italienischen Bonvivant-Duce, den finstere Juristenschurken dann doch zur Strecke bringen, oder auf „Angie der Sturm“, ein blutiges Drama mit unzähligen Opfern auf dem Weg dieser sympathischen Figur zur politischen Machtergreifung und zur Energiewende oder ganz aktuell auf „Wie es euch wohlgefällt“, eine spritzig-freche Komödie über liebenswerte, lebenslustige griechische Euro-Vernichter.

Was ist dagegen schon das unzulängliche Schreibgestammel eines EIKE- Pressesprechers, veröffentlicht in der überregionalen Zeitung „Junge Freiheit“, sowie in etwas ausführlicherer Version als Vorlage an alle Bundestagsabgeordneten der CDU/CSU und FDP versandt (als pdf’s beiliegend, um vielfache Weitergabe wird gebeten). Die Vorlage für unsere CDU/CSU-Volksvertreter blieb bei der Energiewende-Diskussion der Fraktion am 20.Juni 2011 selbstredend ohne Resonanz. Schließlich gibt es in klugstrategischer Gleichschaltung eine Fraktionslinie und -meinung, so dass eine Belästigung mit Fakten nur als grob ungehörig bezeichnet werden kann. Wir von EIKE entschuldigen uns.    

Prof. Dr. Horst-Joachim Lüdecke (EIKE-Pressesprecher)

Dipl.-Ing. Michael Limburg (EIKE-Vizepräsident)

Update vom 3.7.11 : Kalles hat unter der Rubrik Röttgen redet im Blog Zettelsraum die Rede des Bundesumweltministers kommentarlos aufgezeichnet. 

Röttgen redet

Bundestagsreden zu hören ist selten ein intellektuelles oder gar sinnliches Vergnügen. Wenn aber ein subtiler Komiker wie Norbert Röttgen ans Pult tritt, dann lohnt sich sogar das Nachlesen.

Erkenntnisse und Weisheiten

1

Wir haben monatelang – beileibe nicht nur in den letzten drei Monaten – über Cent-Beträge, über halbe Prozentpunkte und über Jahreszahlen diskutiert. Diese Debatte hat das Land geprägt…

2

Es ist doch positiv, dass jetzt alle, auch die Energiewirtschaft, sagen: Wir stellen uns an die Spitze dieser Bewegung…

3

Bekennen Sie sich dazu, dass Sie mitmachen! Es ist richtig, dass Sie mitmachen, weil es zu dem Konsens dazugehört.

4

Wir werden den Umstieg schaffen. Denn der Konsens, den wir herbeiführen, ist weit mehr als ein Ausstiegskonsens: Es ist ein Umstiegskonsens.

Röttgen läßt tief blicken

1

Es ist das Handwerk, das sich darauf freut, unser Land erneuerbar, innovativ und effizient zu machen.

(Lachen bei Abgeordneten der SPD)

Es ist die Elektroindustrie. Es ist die IT-Branche, die sich darauf freut und vorbereitet hat, mit intelligenten Netzen und intelligenten Leitungen ein ganz neues Industriefeld zu entwickeln.

2

Es sind die Bürgerinnen und Bürger, die dieses Projekt der Energiewende wollen, die mitmachen wollen und werden.

Sie sind dabei. Sie wissen, dass dieser Prozess nicht umsonst ist. Natürlich ist das ein Investitionsvorhaben. Natürlich kostet das auch etwas. (…) Wir brauchen die Leute gar nicht zu belehren und so tun, als würden sie sich immer nur die Rosinen herauspicken. Ich bin davon überzeugt, dass die Menschen in diesem Lande bei diesem Projekt der Energiewende und der neuen Energiepolitik voll dabei sind.

3

Um das klar zu sagen: Wir als Koalition wollen alle Beiträge leisten, dass wir Industrieland bleiben. Wir wollen wirtschaftlich erfolgreich sein. Wir wollen sogar an der Spitze stehen.

Kraftvolle Beteuerungen

1

Wir werden eine heimischere Energieerzeugung bekommen. Wir werden die Abhängigkeiten vom Import, politische und geopolitische Abhängigkeiten, aber auch die Volatilität des Preises, also wirtschaftliche Abhängigkeiten, reduzieren.

2

Das heißt, es geht darum, dass 6,5 Gigawatt Leistung nicht mehr ans Netz gehen. Das sind 6,5 von 93 Gigawatt gesicherter Leistung bei 82 Gigawatt Spitzenlast, die auf uns zukommen. Das ist absolut verkraftbar.

Das ist alles anspruchsvoll, aber das werden wir sicher, weil wir alle diese Themen im Blick haben, realisieren und schaffen können.

3

Die Energieversorgung wird sehr viel stärker vom Verbraucher her gesteuert, weil wir nicht mehr nur Leitungen haben, in die Elektronen hineingeschossen werden – dabei ist der Verbraucher ein passiver Abnehmer –, sondern weil der Verbraucher in Zukunft mit intelligenten Zählern und intelligenten Leitungen selber bestimmen kann, wann er welchen Strom zu welchem Preis beziehen will. Die Autonomie des Verbrauchers wird erheblich gestärkt werden.

Guter Mann! Mehr davon bitte.

Related Files




Jetzt bekannt: Sechs schwere Sicherheitsmängel in Fukushima! Und Fakten zur Kernkraftwerken der IV Generation

Politiker erklären jetzt, dass ihnen die Fukushima-Katastrophe die Größe des Restrisikos deutscher Kernkraftwerke klar gemacht hätte. Welch ein Unsinn. Das ist nur dasjenige Risiko, das bei einem richtig ausgelegten, bestens konstruierten und auch später sicherheitstechnisch nachgerüsteten Kraftwerk am Ende übrig bleibt. Bei den japanischen Reaktoren war das bei Weitem nicht der Fall.

Es gab dort 6 schwere Fehler

Fehler 1

Der Reaktor war auf ein stärkstes Erdbeben von 8,4 ausgelegt – wie es aber schon 1933 auftrat. Es gab keine Sicherheitsreserve darüber – und so übertraf das Beben vom 11.März  die Belastungsgrenze des Reaktors um 25%.

Fehler Nr. 2

war die krasse Mißachtung der Höhe eines Tsunamis, denn im Mittel alle 30 Jahre gab es Tsunamis mit Wellenhöhen über 10 m, oft weit darüber.  Der Betonwall am Meer hatte 5,7 m – dazu kamen 4,3 m vom höher gelegenen Kraftwerk. Die reale Tsunamiwelle hatte aber 14 m. Damit verbunden war

Fehler Nr. 3:

Die Diesel für die Notkühlung befanden sich im Untergeschoß und dieser Raum war auch nicht gegen Hochwasser abgedichtet. Die Diesel soffen ab, die Kühlung fiel aus.

Fehler Nr. 4

war die Unterlassung einer Nachrüstung der zu schwachen Druckentlastungs-Leitungen in der US-Konstruktion. Diese können im Falle einer Kernaufheizung durch den Druck von Dampf und Wasserstoff Lecks bekommen, wodurch alles in das Reaktorgebäude gelangen kann. In den USA wurde das erkannt und die Leitungen verstärkt – in Japan nicht.

Fehler Nr.5:

Weil diese Druckentlastung keine Filter enthielt, konnten radioaktive Aerosole und Partikel entweichen und nach außen gelangen. Deutsche Reaktoren haben diese Filter, die 99,9% zurück halten.

Fehler Nr. 6:

Der im Reaktorgebäude angesammelte Wasserstoff – siehe Nr.5 – konnte explodieren, weil die japanischen Reaktoren im Gegensatz zu unseren nicht über Rekombinatoren verfügen, die Wasserstoff zu Wasser umwandeln. So kam es zu den Explosionen und zur Verbreitung radioaktiver Substanzen. Deshalb lag das tatsächliche Risiko der Fukushima-Reaktoren um das Zig-Tausendfache über dem theoretischen Restrisiko.

Die in Japan unbegreiflicherweise unterlassenen Maßnahmen sind in deutschen KKW lange verwirklicht. Keinen dieser Fehler und Unterlassungen hätte unsere Reaktorsicherheits-Kommission RSK durchgehen lassen – die übrigens von 2002 bis 2006 von Michael Sailer, Mitglied der Geschäftsführung des Öko-Instituts Darmstadt,  geleitet wurde, der heute noch RSK-Mitglied ist.

Dr.-Ing. Günter Keil, Sankt Augustin 18.5.2011

Update: aus 

Grüne surfen auf dem Tsunami an die Macht

…..Niemand hat sich gefragt, warum das Kraftwerk Fukushima nach dem Erdbeben genauso aussah wie vor dem Erdbeben, abgesehen von der geborstenen Betonhülle des Reaktorbaus, welche erst nachträglich durch eine Wasserstoffexplosion aufbrach. Eigentlich hätten die Gebäude doch in Mitleidenschaft gezogen werden müssen bei Horizontalbeschleunigungen von bis zu 550 cm/s2, die auf dem Kernkraftwerksgelände in Ost-West-Richtung gemessen wurden. Die Erdbebensicherheit der Konstruktion hatte seine Aufgabe erfüllt. Alle Sicherheitseinrichtungen taten planmäßig ihren Dienst. Auch die Zerstörung der örtlichen Stromversorgung konnte dem Kraftwerk nichts anhaben, dann aber passierte es. Etwa eine Stunde nach dem verheerenden Beben erreichte ein an dieser Stelle ca. 14 m hoher Tsunami die Küste. Mühelos überwand er die 5,7 m hohe Steinbarriere im Meer, die zweifellos zu niedrig ausgelegt war und spülte ins Kraftwerk hinein bis in die Höhe der Notstromdiesel, die daraufhin ihren Dienst versagten. Im Folgenden konnte die Kühlung nur noch für eine kurze Zeit aufrechterhalten werden, der Rest ist bekannt…

Weiterführender Link zu den Ursachen der Fukushima Havarie hier

Fragen zu KKW der IV Generation: Erläuterungen von Konstantin Foskolos; Deputy Head Nuclear Energy and Safety Research Department Paul Scherrer Institut*

http://www.psi.ch/

Sehr geehrter Herr XXXXXXX Stefan Hirschberg leitete Ihre Anfrage an mich weiter. Hier ein Paar kurze Antworten zu Ihren Fragen: 

F. Wenn ich es richtig verstanden habe, wird bei der heutigen Reaktorgeneration (III) das Energiepotential von Uran nur zu einem verschwindend geringen Teil genutzt. Zahlen zwischen 1 und 3% werden genannt. Stimmt das, und wenn ja, woran liegt das? Was geschieht mit den restlichen ca. 97%? Sind die allesamt "nuklearer" Abfall?

A. Ja, das stimmt. Dies liegt daran, dass in Leichtwasserreaktoren (LWR, welche die Mehrheit der heute in Betrieb stehenden Anlagen ausmachen) die Kernspaltung durch den Aufprall von langsamen („thermischen“) Neutronen auf die spaltbaren Kerne verursacht wird. Das Uran in der Natur besteht aus zwei Isotopen, U-235 (0.7%) und U-238 (99.3%), wovon nur das erste mit thermischen Neutronen gespalten werden kann. Über die Anreicherung wird der Anteil von U-235 auf bis zu 5% erhöht, und dies gelangt in den Reaktor. Allerdings wird der Brennstoff herausgenommen, bevor das U-235 völlig gespalten wird; der „abgebrannte“ Brennstoff enthält noch 1-2% U-235. Der Rest besteht hauptsächlich aus „Ballast“, d.h. U-238. Allerdings wird ein kleiner Teil des U-238 über den Einfang von Neutronen zu Plutonium verwandelt, welches wiederum mit thermischen Neutronen spaltbar ist. 

F. Was geschieht bei der "Wiederaufbereitung"? Wird daraus wieder verwendbares Reaktormaterial gewonnen?

A. Bei der Wiederaufarbeitung wird der abgebrannte Brennstoff in Salpetersäure aufgelöst und seine verschiedenen Bestandteile mittels chemischer Bindestoffe separiert. So gewinnt man separat Uran (wie gesagt noch 1-2% angereichert), Plutonium, und ein Gemisch aus Spaltprodukten und den sog. „höheren Actiniden“ (Americium, Curium)“. Dieses Gemisch bildet den eigentlichen Abfall, der nach der Abtrennung mit Sand vermischt, geschmolzen und verglast wird. Die daraus entstehenden (hochradioaktiven) Glaszylinder werden in Stahlbehältern eingepackt und mit Castor-Behältern von der Wiederaufbereitungsanlage zur Zwischen- und Endlagerung geführt. Wiederaufarbeitungsanlagen gibt es in Frankreich (La Hague), Grossbritannien (Sellafield), Japan (Rokkasho) und Russlad (Mayak). Findet keine Wiederaufarbeitung statt, so transportieren die Castor-Behälter ganze Brennelemente vom jeweiligen Reaktor zum Zwischenlager und später zum Endlager. 

F. Wenn ja, was geschieht damit? Nach Deutschland kommen doch nur die Castor Behälter zur "Endlagerung" zurück.

A. Das abgetrennte Uran und Plutonium sind wertvolle Rohstoffe, die wieder in den Reaktor eingesetzt werden können. Allerdings waren bis vor kurzem die Uranpreise auf dem Spotmarkt so tief, dass es sich nicht lohnte, rezykliertes Material einzusetzen. Die sich abzeichnende Wiedergeburt der Kernenergie mit weltweit erhöhtem Bedarf an spaltbaren Materialien und die steigenden Uranpreise werden vermutlich zu einem nachhaltigeren Umgang mit dieser Ressource und zur Nutzung auch von rezykliertem Material führen. Allerdings besteht mancherorts entweder eine politische Verhinderung für Wiederaufarbeitung (D: Verbot, CH: Moratorium), andere Länder haben bewusst davon abgesehen (USA), in der Hoffnung damit das Proliferationsrisiko zu reduzieren. Tatsache ist, dass es heute keine technischen Massnahmen gibt, welche einen Missbrauch des abgetrennten Plutoniums deterministisch ausschliessen können – man nutzt internationale Kontrollen und prozedurale Massnahmen. Tatsache ist auch, dass solcher „Missbrauch“ bisher nur von Staaten, aber nie von sonstigen Gruppierungen ausgeübt wurde. 

F. Wie hoch wäre die "Ausbeute" bei der VI. Generation von Kernreaktoren?

A. Reaktoren der Generation IV arbeiten mehrheitlich mit schnellen Neutronen, welche alle spaltbaren Isotope spalten können. Damit kann theoretisch der gesamte energetische Inhalt des Urans genutzt, und auch das Plutonium und die höheren Actiniden gespalten werden. Nach mehrfacher Wiederaufarbeitung und Rezyklierung blieben somit theoretisch nur Spaltprodukte übrig, die endgelagert werden müssten; allerdings haben diese viel kürzere Halbwertszeiten und zerfallen somit viel schneller zu nicht-radioaktiven Isotopen. Damit lassen sich die erforderlichen Endlagerzeiten massiv verkürzen, von heute einigen 100000 Jahren auf einige 100 Jahre. Gegenüber LWR steigt die Nutzung von Uran bei schnellen Reaktoren um mindestens einen Faktor 50 – was auch die Frage der Ressourcenverfügbarkeit wesentlich entschärft. 

F. Worin liegt das "Neue" von "Transmutation" im Vergleich zur Wiederaufbereitung?

A. Transmutation ist die Verwandlung von einem Isotop in ein anderes. Allgemein wird damit die Umwandlung durch Spaltung von höheren Actiniden mit sehr langen Halbwertszeiten in wesentlich kurzlebigere Spaltprodukte gemeint; solche Spaltungen finden in Reaktoren mit schnellen Neutronen statt, also Reaktoren der Generation IV. Wiederaufarbeitung ist ein der Transmutation vorgelagerter Prozess, um die zu rezyklierenden und zu transmutierenden Isotope von den Spaltprodukten zu separieren. Parallel zur Entwicklung neuer Reaktoren der Generation IV werden fortgeschrittene Wiederaufarbeitungsmethoden entwickelt, welche kompakter und effizienter sind und weniger Abfall produzieren; es wäre möglich, solche kleine Wiederaufarbeitungsanlagen mit dem Reaktor auf dem gleichen Standort zu kombinieren und somit die lästigen Castor-Transporte massiv zu reduzieren.

Ich hoffe damit Ihre Fragen im Wesentlichen beantwortet zu haben. Sie finden eingehendere Information zu Reaktoren der Generation IV unter http://gif.inel.gov/roadmap/ und zur Kerntechnik allgemein im ausgezeichneten Lexikon zur Kernenergie des Forschungszentrums Karlsruhe: http://iwrwww1.fzk.de/kernenergielexikon/ .

Freundliche Grüsse,
 
Konstantin Foskolos
Deputy Head
Nuclear Energy and Safety Research Department
Paul Scherrer Institut http://www.psi.ch/

Das Paul Scherer Institut ist eine international anerkannte private Forschungseinrichtung in der Schweiz. Es arbeitet eng mit dem Gen IV Forum GIF zusammen:

The Generation IV International Forum (GIF) is a cooperative international endeavor organized to carry out the research and development (R&D) needed to establish the feasibility and performance capabilities of the next generation nuclear energy systems.

Zum Transmutationsverfahren der Vermeidung und weitgehenden Unschädlichkeitsmachung des Kernbrennstoff-Abfalls s. auch die EIKE-News von Pressesprecher Prof. Dr. Horst-Joachim Lüdecke hier




Offener Brief an Herrn Dr. Wolfgang Thüne zu „Statistiken vernebeln zunehmend die Realität“

Lieber Herr Thüne,

wir kennen uns persönlich und schätzen uns gegenseitig. Dennoch und unbeschadet auch unserer zukünftigen gegenseitigen Hochachtung und Wertschätzung: eine zentrale Aussage Ihres Beitrags kann nicht unwidersprochen bleiben, dazu gleich mehr. Ihr Beitrag enthält fast nur zutreffende Punkte, schon die Überschrift gehört dazu. Allerdings liegen diese Punkte mehr auf der gesellschaftlich-politischen Ebene. Auch Ihre Beschreibung von "Klima" sowie weitere die Meteorologie betreffenden Aspekte sind schön und richtig wiedergegeben und haben mir gut gefallen. Sie argumentieren aber leider und unnötigerweise

Der Treibhauseffekt ist eine simple Behauptung, die noch nie wirklich nachgewiesen werden konnte. Bevor sich ein Effekt, die Abhängigkeit der Temperatur vom Kohlenstoffdioxidgehalt der Luft, im globalen Maßstab zeigt, müsste er tatsächlich gemessen und gezeigt werden können.

Dieses Argument verfehlt den Punkt. Ein hoher Prozentsatz von Phänomenen und Effekten der Physik, die zudem Basis technischer Anwendungen sind, können nicht direkt gemessen werden. Nur ein stellvertretendes Beispiel – Druck und Temperatur im Sonneninneren. Der Bethe-Weizsäcker-Zyklus, der die Arbeitsweise des Fusionsofens „Sonne“ beschreibt, ist eine kernphysikalische Theorie, von der immer nur Details hier auf der Erde und im Labor gemessen werden können. Diese Theorie trifft zu. Das Verhalten und die bisherige Lebensdauer unserer Sonne, aber auch die Häufigkeitsverteilung der Elemente ist ohne sie völlig unerklärbar. Die Militärphysiker hätten ferner ohne Theorie der kernphysikalische Mechanismen, von denen ebenfalls nur ein kleiner Teil der direkten Messung zugänglich ist, keine Wasserstoffbombe bauen können (insofern wären diese Grundlagen vielleicht besser nicht bekannt worden). Die Liste solcher Beispiele ist beliebig fortsetzbar.

     Es fällt auf, dass insbesondere oft Ingenieure das Argument  vertreten, eine nicht mögliche Messung falsifiziere automatisch einen physikalischen Effekt. Dies liegt vermutlich daran, dass die gedankliche Schlussfolgerung „Es gibt keine direkte Messmöglichkeit für eine Hypothese oder Theorie, also ist sie Unsinn“ zwar im Ingenieurbereich in aller Regel seine Berechtigung hat, nicht aber in der Physik.

     Sie liegen natürlich absolut richtig mit Ihrer impliziten Aussage (s. Bild am Anfang Ihres Beitrags), dass „Treibhauseffekt“ eine falsche Bezeichnung ist, denn die Erwärmung des Gärtnertreibhauses erfolgt durch Konvektionsverhinderung und so gut wie nicht durch Strahlungsvorgänge. Bei der Erde verhält es sich anders. Die Erde hat kein Dach weder aus Glas noch aus Gas, und jede sommerliche Quellwolke steigt viele Kilometer ungebremst in die Höhe, einschließlich aller enthaltenen Gase. Im Fall der Erde gibt es keine Konvektionsverhinderung, hier sind allein die Strahlungsflüsse für die Erdtemperaturen maßgebend. Daraus darf aber nicht der Schluss folgen, es gäbe keinen Treibhauseffekt und es gäbe auch keine Gegenstrahlung. Da Sie so viel Wert auf Messungen legen, müssten Sie eigentlich die Messungen der Gegenstrahlung akzeptieren, die heute nun wirklich keine technischen Schwierigkeiten bereiten und inzwischen zum Standard gehören (hier). Lesern, die es vielleicht noch nicht wissen, sei zur Information weiterer Einzelheiten mein zusammen mit Dr. Link verfasster EIKE-Beitrag „Der Treibhauseffekt – wie funktioniert er?“ (hier) empfohlen, der die entsprechende Treibhaustheorie vollständig und allgemeinverständlich beschreibt, weitere Informationen findet der Leser unter den Menüpunkten „Publikationen“ und „Lüdecke“.

Ihrer Forderung wiederum

„Den heutigen, ganz auf Computermodelle fixierten Klimaforschern sei empfohlen, sich nicht mehr allein auf Ideen, Theorien und Modelle zu orientieren, sondern an dem Realen, Existenten und Gemessenen, der Empirie.“ 

schließe ich mich wieder voll und ganz an, denn nur mit einer fiktiven Wasserdampfrückkoppelung, die, eingebaut in die IPCC-Modelle, einen nicht messbaren Hot-Spot in der höheren Erdatmosphäre postuliert, ist Klima-Alarmismus überhaupt möglich. Mit dem Treibhauseffekt des anthropogenen CO2 als einem absolut vernachlässigbaren Effekt nicht. Wie im EIKE-PIK-Workshop (hier) Prof. Weber (em. Universität Dortmund) gezeigt hat, kann es auf Grund  des Lösungsgleichgewichts Erdatmosphäre-Ozeane und eines exponentiellen Sättigungseffekts niemals mehr als etwa 500-600 ppm CO2 in unserer Atmosphäre geben. Damit und des fehlenden Hot-Spots wegen sind alle IPCC-Modelle falsch. Ich bedaure, lieber Herr Thüne, dass ein so wertvoller und schöner Beitrag wie der Ihre sich durch die unbegründbare Abrede des elementaren Treibhauseffekts zwangsweise entwertet und nicht auf die tatsächlichen Schwächen der IPCC-Hypothese eingeht.

   Schlussendlich möchte ich betonen, dass Mehrheiten in der Wissenschaft zwar kein unbedingtes Qualitätsmerkmal sind, aber es dennoch jedem Vertreter eines nicht vorhandenen Treibhauseffekts zu denken geben sollte, dass sogar so gut wie alle wissenschaftlichen IPCC-Gegner – und zu denen gehören wir ja nun beide gemeinsam, Sie wie ich, lieber Herr Thüne – den Treibhauseffekt nicht in Frage stellen und damit das Ihrer Auffassung nach beste Argument gegen den IPCC-Klima-Alarmismus leichtfertig aus der Hand geben. Sie tun es natürlich nicht. Allein in unserem EIKE-Fachbeirat werden Sie wohl nur schwer einen Experten finden, der mit Ihnen übereinstimmt. Es gibt ferner lediglich eine Handvoll peer-reviewed Veröffentlichungen Ihrer Meinungsrichtung, ich nenne stellvertretend die von Gerlich/Tscheuschner, Kramm und Chilingar. Diese Veröffentlichungen wurden hinreichend fachlich widerlegt und werden nun von der Fachwelt ignoriert oder nicht ernst genommen.

Mit allerbesten Grüßen an Sie

Ihr

Horst-Joachim Lüdecke

EIKE-Pressesprecher




Protokoll: PIK – EIKE wissenschaftliches Kolloqium vom 20.4.11

Bisher lief die wechselseitige Information ausschließlich über Veröffentlichungen in den Medien, bzw. des Internets und Veranstaltungen (Vorträge, Symposien…).  Die Diskussion wurde dort z.T. mit großer Schärfe geführt. Dieses persönliche Treffen sollte daher dem unmittelbaren Informationsaustausch dienen, um ggf. Missverständnisse oder kontroverse Auffassungen im direkten Gespräch zu klären.

Eröffnung

Um 13:40  eröffnete Herr Schellnhuber die Konferenz mit einem kurzen Statement. Er hieß die Gäste willkommen und stellte kurz die Umstände dar, die zur Einladung führten[1]. Er erläuterte dann, warum das PIK, als Gastgeber, keine Medienbeteiligung wünschte, obwohl dies von EIKE vorgeschlagen war. Er gab seinem Erstaunen Ausdruck, dass EIKE im Anschluss an dieses Kolloquium eine Pressekonferenz abzuhalten beabsichtigte. Dann eröffnete er das Kolloquium.

Herr Limburg (Vizepräsident EIKE) bedankte sich im Namen der Gäste für die Einladung, die man als Chance begreifen wolle, mehr miteinander über wissenschaftliche Erkenntnisse und Sachverhalte zu reden.

Stand der Klimaforschung“

Dann begann Herr Feulner mit seinem Vortrag: „Stand der Klimaforschung“ (s. undefinedFeulner). Ein Abriss der wichtigsten Trendentwicklungen aus der Sicht des PIK. Die Diskussion im Anschluss war lebhaft. Herr Vahrenholt stellte den vorgetragenen  Einfluss der solaren Aktivität – Herr Feulner stufte ihn mit 0,1 K als äußerst gering ein – in Frage. Er verwies auf neueste Untersuchungen von Shapiro (Shapiro et al 2011), wonach die TSI-Steigerung von der Kleinen Eiszeit bis heute möglicherweise 6 mal höher war als im AR4 angenommen. Verwiesen wurde auch auf ein in Januar 2010 erschienenen Paper von Solomon, wonach die Abkühlung der letzten 10 Jahre mit dem um 10 % verminderten Wasserdampf in der Stratosphäre in Zusammenhang gebracht wird.

Es wurde auch darauf hingewiesen, dass GISS bei der Erstellung der "Global-Temperatur" auch arktische Temperaturen aufzeigt, obwohl dort als auch in der Antarktis dafür nicht annähernd ausreichende Messstationen existieren.

Herr Link stellte fest, dass die Temperaturoszillationen der Ozeane wie AMO, PDO, El Nino etc. nicht in die Modellrechnungen eingehen, da die Modelle diese auch nicht vorhersagen können. Dieser Feststellung widersprach Herr Rahmstorf. Herr Feulner erläuterte seine Feststellung, dass keine Trendabsenkung der jüngsten globalen Mitteltemperatur zu erkennen sei, weil eine kurzzeitige Betrachtung unter 30 Jahre dies nicht zuließen. Auch würden die Klimamodelle dies nicht so fein auflösen können. EIKE widersprach dieser Feststellung mit dem Hinweis auf die veröffentlichten Daten von z.B. Hadley-Center und UEA, die seit 1998 keinen Temperatur-Anstieg mehr ausweisen.  Obwohl  es richtig sei, so EIKE, dass ein Klimareferenzwert mindestens 30 Jahre umfassen sollte, müsse man feststellen, dass die bisher eingesetzten Modelle die letzten 10 – 15 Jahre nicht angemessen abbilden können.

"Sonne und Klima “

Um 14:20 begann Herr Weber mit seinem Vortrag : Sonne und Klima “ (s. undefinedKurzfassung). In einem kurzen ersten Teil wies er auf die zu erwartende Sättigung der CO2 Aufnahme in der Atmosphäre hin. Heute verbleiben etwa 50 % des anthropogen emittierten CO2 in der Atmosphäre, zu Beginn der industriellen Zeit ging wegen des damaligen CO2 Gleichgewichts  zwischen Ozean und Atmosphäre alles anthropogen emittierte CO2 zunächst in die Atmosphäre. Dann führte Weber die resultierende Differentialgleichung  ein, die im einfachst möglichen Modell bei konstanter CO2 Emission zu einer exponentiellen Sättigung der atmosphärischen CO2 Aufnahme führt. Bei ca. 4 ppm jährlicher CO2 Emission, wie sie heute vorliegt, liegt der Sättigungwert bei ca. 500 ppm CO2. Weber wies ferner darauf hin, dass es gute wissenschaftliche Praxis sei, in der öffentlichen Darstellung zunächst das einfachste Modell vorzustellen und dann die Verfeinerungen und Korrekturen zu diskutieren. In der Diskussion wurden dann entsprechende Korrekturen und Grenzen des Modells vorgebracht.

Im Hauptteil des Vortrags befasste sich Weber mit der indirekten Beeinflussung des Klimas durch die aktive Sonne, bewirkt durch eine bis zu 20% betragende Reduktion der kosmischen Strahlung infolge der solaren Magnetfelder, was wiederum über die daraus folgende Reduktion in der Erzeugung von troposphärischen Aerosolen zu einer starken Erhöhung der terrestrischen solaren Einstrahlung führe. Diese Trends, die Weber in früheren Solardaten gefunden hatte, waren von Herrn Feulner (PIK) in einem Papier bezweifelt worden. Daher ging der Vortrag im wesentlichen um die Qualität der beiderseitigen Analysen. Leider stand Weber nur eine Zwischenfassung des Papiers von Herrn Feulner zur Verfügung, die darüber hinaus missverständlich formuliert war. Wegen eines solchen missverständlichen Arguments vermutete Herr Weber einen technischen Fehler bei Herrn  Feulner. In der Diskussion forderte Her Schellnhuber die Herren Feulner und Weber auf, diese Streitpunkte zunächst in internen Diskussionen zu klären. Dies geschah auch während des Workshops. Herr Feulner bedauerte, dass er bislang nicht die direkte Disskussion gesucht habe und entschuldigte sich dafür. Er wies dann auf die Endfassung seines Papiers hin, wo er hauptsächlich vulkanische Emissionen für die Vorspiegelung eines solar-aktiven Trends verantwortlich machte. Damit war der Vorwurf eines technischen Fehlers vom Tisch. Es wurde vereinbart, die Endfassung des Papiers von Herrn Feulner im Detail zu diskutieren, unter Beteiligung von Herrn A. Hempelmann, der mit Weber eine Kooperation auf diesem Gebiet begonnen hat.

Klimasensitivität des CO2“

Im Anschluß begann Herr Link seinen Vortrag über die Klimasensitivität des CO2“. (s. undefinedKurzfassung). Er nahm kurz zu seinem beruflichen Werdegang als Experimentalphysiker Stellung. Dann stellte er seine Ausführungen unter den bekannten Kernsatz der Naturwissenschaft:.“ Jede Theorie wird in den Naturwissenschaften nur dann anerkannt, wenn sie durch die Beobachtung bestätigt wird. Eine einzige Beobachtung, die der Theorie widerspricht reicht aus, diese zu widerlegen. Die von den Modellen postulierte Wasserdampfverstärkung (WDV), die der essentielle Teil der alarmistischen Vorhersage zur Temperaturerhöhung durch die Klimamodelle ist, konnte durch keine Beobachtung bestätigt werden, im Gegenteil mehrfach widerlegt werden.“ Ein Hot Spot in der mittleren bis oberen Troposphäre der tropischen Regionen sei in Hunderten von Ballonmessungen nicht gefunden worden. Damit entfiele aber die Möglichkeit, dass das Klimasystem durch CO2 mit anschließender WDV außer Kontrolle geriete. Das beträfe auch das sog. 2 ° Ziel. Die verbleibende Temperaturerhöhung durch CO2 Verdopplung berechnete Link mit max. 1,6 K ; wahrscheinlich sei sie aber deutlich geringer. (zitiert u.a Lindzen, Paltridge und Harde). Damit bestünde kein Grund für irgendeinen Klimaalarm. An der wiederum sehr kontroversen Diskussion beteiligten sich umfassend außer Herrrn Link, die Herrn Schellnhuber, Rahmstorf, Puls, Dittrich und Frau Huber. Der Hinweis von Herrn Rahmstorf, dass man allein mit den Milankowitsch-Zyklen das Auf- und Ab der Eiszeiten nicht erklären kann, sondern dafür auch noch das CO2 über die Wasserdampfrückkopplung verantwortlich machen muss, wurde von ihm nicht kausal begründet. Der Anstieg der Temperatur nach den einzelnen Eiszeiten ist aber nicht eine Folge des höheren CO2- Gehalts, sondern der beobachtete CO2-Anstieg ist eine Folge der Entgasung aus den wärmer gewordenen Ozeanen. Die vorgebrachten Argumente von Herrn Link konnten seitens der PIK-Teilnehmer nicht überzeugend widerlegt werden.

 „Extremwetter und Meeresspiegel“

Nach der Kaffeepause begann Herr Puls seinen Vortrag zu „Extremwetter und Meeresspiegel“ (s. undefinedVortrag in Langfassung). Herr Puls wies eingangs darauf hin, daß die Öffentlichkeit in den vergangenen 10 Jahren mit unzähligen und teilweise absurden Alarm-Meldungen zu Wetter und Klima überflutet wurde, überwiegend hochstilisiert zu Signalen einer schon begonnenen Klima-Katastrophe. Weiterhin: In der Öffentlichkeit (Medien und Politiker!) werden die von den Klima-Institutionen veröffentlichten  Ergebnisse der Klima-Modelle meist als Prognosen dargestellt, ohne dass darauf hingewiesen wird, dass es sich lediglich um Szenarien handelt, die mit noch größeren Unsicherheiten verbunden sind, als es Prognosen ohnehin schon sind. Puls schlug dazu vor  –  analog zu einer von Meteorologen soeben verabschiedeten "Hamburger Erklärung" zu Wetter-Langfrist-Prognosen –  eine gemeinsam von PIK + EIKE zu erarbeitende "Potsdamer Erklärung" zu verabschieden mit dem Ziel, gemeinsame Richtigstellungen zu falschen und/oder übertriebenen Klima-Verlautbarungen in den Medien anzustreben. Dazu gab es keine Antwort des PIK, auch nicht im Schluß-Fazit (Schellnhuber).

Puls führte in folgendem anhand von Graphiken, Statistiken und Zitaten diverser Institute aus, dass auch nach 150 Jahren Erderwärmung die Wetterdienste weltweit keine Jahrhundert-Trends finden bei Mittelbreiten-Zyklonen, Tropischen Wirbelstürmen, Tornados, Hochwasser und anderen Wetter-Ereignissen. Gleichermaßen zeigte P. anhand einer Reihe von Pegelmessungen und Satelliten-Daten auf, dass die von einigen Klima-Instituten und vom IPCC erwartete Beschleunigung des Meeres-Spiegel-Anstieges bisher nicht zu finden ist. Herr Rahmstorf wies darauf hin, dass es auch andere Datensätze gäbe. Puls  und Rahmstorf verständigten sich darauf, ihre Daten auszutauschen. Bezüglich der von K.-E. Behre (B., NIHK Wilhelmshaven) über Jahrtausende dokumentierten Trends an der Deutschen Nordseeküste wies Puls  in einer Debatte mit Herrn Kropp darauf hin, dass Behre keine Temperatur-Betrachtungen durchgeführt hat, und dass Behre innerhalb der letzten 400  Jahre eine Abschwächung des Meeresspiegel-Anstieges festgestellt hat, insbesondere für das 20. Jahrhundert.

Globale Langzeit­Temperaturreihen“

Um 17:00 begann Herr Lüdecke seinen Vortrag „Globale Langzeit­Temperaturreihen“ (s. undefinedKurzfassung).  Schon im Vorfeld wurden die verschiedenen Auffassungen zu der Mann´schen Rekonstruktion der Temperatur der letzten 1000 Jahre deutlich. Herr Lüdecke und andere bezeichneten sie als eindeutige Fälschung, worauf Herr Rahmstorf Beweise für diese Behauptung verlangte. Er wurde auf die umfassenden Arbeiten von McIntyre und McKitrick dazu verwiesen. Sehr gut zusammengefasst im Buch „ The Hockeystick Illusion“ von A. Montford.

Die Kernaussage der Untersuchung von Lüdecke und Ewert – belegt durch intensive statistische Untersuchung der Autokorrelation (Persistenz) von vielen tausend Temperaturzeitreihen lautet: „An der Erwärmung des 20. Jahrhunderts ist nichts Ungewöhnliches aufzufinden.“ Nach einem Absenken der Temperatur in den Jahren davor gab es jetzt eine im wesentlichen natürlich verursachte Erwärmung, wenn man von menschgemachten Einflüssen wie dem UHI absieht. Der ist allerdings gut erkennbar. Ähnliche und oft sogar noch stärkere Fluktuationen  sind in der Vergangenheit der letzten 2000 Jahre nachgewiesen. Alle hatten natürliche Ursachen. Die Herrn Schellnhuber und Kropp beteiligten sich lebhaft an der folgenden Diskussion. Herr Schellnhuber zeichnete als Mitautor eines von Herrn Lüdecke zitierten Papers, das das Fehlen der Erwärmung bestätigte, Herr Kropp war Projektleiter des mit der Uni Gießen durchgeführten Projektes zu dieser Studie. Herr Schellnhuber bemerkte, dieses Ergebnis sei trotzdem kein „Smoking Gun“ (gegen eine CO2 induzierte Erwärmung?), während Herr Rahmstorf einwarf, diese Statistik sei „blind“ gegen die Physik. Dem wurde von Lüdecke und Link widersprochen. Herr Kropp warf noch ein, die verwendete Methode sei immer noch in der Entwicklung.

Fazit

Offensichtlich stimmten die Gesprächsteilnehmer in der Wahrnehmung der Fakten weitgehend überein – die vom PIK unwidersprochene Abwesenheit von Extremwetterzunahmen steht hierfür stellvertretend. Die Methode bei der Bewertung dieser Fakten scheint aber verschieden. Während die Vertreter von EIKE die unbedingte Priorität der physikalischen Messungen betonen, muss sich Klimafolgenforschung ihrer Zukunftsbezogenheit wegen notwendigerweise auf Modellprojektionen stützen. Diese können und werden sich aber von den gezählten und gemessenen Fakten mit hoher Wahrscheinlichkeit entfernen. Es wäre wünschenswert, wenn dieser Gegensatz der weitgehend uninformierten Öffentlichkeit besser bekannt wäre. Zur wahrheitsgemäßen Information von Laien sind daher populäre Vorträge von Fachwissenschaftlern, in denen entgegen allen Mess-Fakten von bereits erfolgten katastrophalen Extremwetterzunahmen berichtet wird, die überdies noch einem anthropogen verursachten Klimawandel zugeordnet werden, nicht hilfreich.     

Abschluss: Dank und Gegeneinladung:

Herr Limburg bedankte sich im Namen der Gäste für die offene Diskussion, die EIKE gerne -da die Debatte über die heute von EIKE vorgetragenen Erkenntnisse überraschend fruchtbar war – fortsetzen wolle. Zu diesem Zweck lud er die Kollegen des PIK zu einem ordentlichen Folgetreffen im Spätsommer des Jahres ein. Hierzu gab es keinen Widerspruch.

Mit etwas Verspätung wurde das Kolloquium gegen 17:50 von Herrn Schellnhuber mit einer kurzen Ansprache beendet. Er dankte allen Teilnehmern für die geleistete Arbeit und die fast immer sachliche Art der Auseinandersetzung. Er vermerkte zudem, dass er für das im Anschluss geplante Pressegespräch von EIKE von einer fairen Behandlung des PIK ausginge. Darauf hin lud Herr Limburg Herrn Schellnhuber ein, dabei zu sein. Herr Schellnhuber lehnte ab, er sei privat verhindert, benannte aber  Mitarbeiter statt seiner.

Michael Limburg EIKE

Teilnehmer PIK: Dr. Georg Feulner, Eva Gaigg, Prof. Dr. Friedrich Gerstengarbe, Dr. Veronika Huber, Dr. Brigitte Knopf, Claudia Köhler, Prof. Dr. Jürgen Kropp, Prof. Dr. Anders Levermann, Dr. Jörg Pietsch, Prof. Dr. Stefan Rahmstorf, Prof. Dr. Hans Joachim Schellnhuber, Dr. Thomas Schneider von Deimling, Mareike Schodder, Jonas Viering>Tanja Fröhlich, Prof. Dr. Uwe Ulbrich

Teilnehmer EIKE: Dr. Siegfried Dittrich Prof. Dr. Karl-Friedrich Ewert, Michael Limburg, Prof. Dr. Horst-Joachim Lüdecke, Klaus-Eckart Puls; EIKE Gäste Dr. Alexander Hempelmann, Dr. Rainer Link, Prof. Dr. Fritz Vahrenholt, Prof. Dr. Werner Weber

Eine Englische Version der Vorträge finden Sie als pdf Datei im Anhang


[1] kontroverses Frage- und Antwortspiel während des Zukunftskongresses der CDU/CSU Bundestagsfraktion mit der Vorstellung des Energiekonzeptes und eines Vortrages von Herrn Schellnhuber). 

* Mit Dank an Pierre Gosselin von No Trick Zone für die gelungene Übersetzung

zusätzlich Medienberichte z.B hier

FAZ

MAZ

Richtigstellung EIKE zum FAZ Bericht vom 4.5.11

Bericht einer vergleichbaren Konferenz in Groß Britannien hier 

Skeptics Meet Warmists At Cambridge

Related Files




Die Klima-Klempner: Geo-Engineering

In der letzten Ausgabe des LAUFPASS[1] wurden erste gesellschaftliche und politische Aspekte von Geo-Engineering aufgezeigt. Ergänzend werden in Folgendem nun die naturwissenschaftlichen Gesichtspunkte der einzelnen Geo-Projekte dargestellt und bewertet.

Definition WIKIPEDIA[2]: “Der Begriff  Geo-Engineering bezeichnet technische Eingriffe in geochemische oder biogeochemische Kreisläufe, etwa um die Klimaerwärmung oder die Versauerung der Meere zu bremsen.“

Mittlerweile gibt es eine umfangreiche Literatur zu dem Thema, mit einem genau so umfangreichen Katalog vorgeschlagener Maßnahmen, von denen die wesentlichen hier vorgestellt und bewertet werden sollen.

Der Heiz-Strahler Sonne …

… erwärmt unsere Erde. Der weit überwiegende Teil der Sonnen-Strahlung erreicht auf direktem und indirektem Wege (Streuung) die Erdoberfläche. Diese erwärmt sich, und gibt fühlbare Wärme (Wärmeleitung) an die bodennahen Schichten der Troposphäre ab. Die Abkühlung erfolgt auf dem gleichen Wege  – durch Wärme-Leitung und auch Abstrahlung.

Nun hat die Natur einige Möglichkeiten auf Lager, die an der Erdoberfläche ankommende Strahlungs-Energie zu verändern: Variationen der Sonnen-Aktivität, Staubeintrag in die Atmosphäre durch Vulkane und Sandstürme, in selteneren Fällen Staub- und Wassereintrag durch Meteor-Einschläge, langzeitige Veränderungen der globalen Bewölkung, ….

Was die Natur vormacht, das glaubt nun auch der Mensch mit Geo-Engineering zu beherrschen, um aktiv in die Gestaltung unseres Klimas einzugreifen. Das Motto dazu lautet neuerdings :  “Wir müssen durch Geo-Egineering unser Klima retten, um der anthropogenen CO2-Erderwärmung gegen zu steuern!“

Schwefel+Staub in die Atmosphäre

Aus der älteren und jüngeren Klima-Geschichte[3] ist bekannt, daß von Vulkanen in die Stratosphäre geblasene Aerosole und Gase dort zu Veränderungen des Strahlungs- und Energiehaushaltes führen. Eine wesentliche Rolle spielt dabei auch Schwefeldioxid, das durch Oxidation in Aerosole, nämlich Sulfate[4] umgewandelt wird. Ein Teil der eingestrahlten Sonnenenergie wird durch diese stratosphärischen Aerosole reflektiert, ein anderer Teil wird absorbiert. Letzteres führt zu einer Erwärmung der Stratosphäre, beides zusammen zu einer Abkühlung der bodennahen Luftschichten (Troposphäre) aufgrund dort erfolgender Strahlungs-Minderung.

Wahrscheinlich war es der Chemiker Paul Crutzen[5], der als erster einen ausführlichen Ansatz für entsprechende menschliche Eingriffe publizierte: Schwefel-Dioxid oder Sulfate in die hohe Atmosphäre einbringen. Dort sollen sich –  analog zum Vulkanismus  – zusammen mit Wassermolekülen viele feine Tröpfchen und letztlich ein dünne globale Wolke bilden, die Sonnen-Strahlung abfängt (Reflektion und Absorption).

Daraus entwickelte die US-Firma Intellectual Ventures[6] neuerdings die Idee, mit Hilfe eines 25 km langen, ballon-getragenen Schlauches Schwefel nach oben zu pumpen, oder Schornsteine von schwefel-emittierenden Fabriken unmittelbar mit Schläuchen in die Stratosphäre zu verlängern.

Noch weiter gehende Ideen entwickelte der Meteorologe Alan Robock[7] von der amerikanischen Rutgers University: „Wir haben noch keine solche Technologie, aber die Leute denken über eine Flugzeug-Flotte nach, die regelmäßig in die untere Stratosphäre fliegt, um dort das Gas auszusprühen. Eine andere Idee wären Ballons, die mit Helium und Schwefeldioxid gefüllt sind und die man dann oben einfach platzen lässt. Möglich wäre vielleicht auch Artillerie: also Geschosse, die Projektile in die Stratosphäre jagen. Oder man baut einen Turm am Äquator, 20 Kilometer hoch, von dem aus man das Gas hinaussprüht.“??

Doch selbst Robock bleibt kritisch (a.a.O.) : “

Wenn man eine Stratosphären-Wolke geschaffen hat, weiß man noch lange nicht, wie sich diese Maßnahme wirklich auswirkt…“ und weiter “… Diese Maßnahme ist also sehr gefährlich, denn man kann sie nur prüfen, wenn man sie schon zur Anwendung gebracht hat.“??

Das allerdings sehen auch andere Wissenschaftler[8] so: „Der Plan ist beängstigend, weil er unerwartete Folgen haben kann.“

Schirme + Spiegel im All …

…  sind eine andere Variante, in der oberen Atmosphäre Strahlung abzufangen.

So will der Astronom Roger Angel von der University of Arizona im Weltall einen Sonnenschirm aufspannen, genauer gesagt eigentlich 16 Billionen Sonnenschirm’chen. Sein Plan sieht vor, daß an genau dem Punkt zwischen Sonne und Erde, an dem sich die Anziehungskraft der beiden Himmelskörper gegenseitig aufhebt (dem so genannten Lagrange-Punkt), eine Armada von hauchdünnen Siliziumscheiben schwebt (Abbildung1). Die 60 Zentimeter breiten Plättchen sollen in Päckchen zu je einer Million mit zwei Kilometer langen Spezialkanonen ins All geschossen werden. Um die beabsichtigte Schattenwirkung zu erzielen, müssten 20 solcher Kanonen im Abstand von fünf Minuten zehn Jahre lang solche Platten-Container ins All feuern. Auch der verstorbene Physiker Edward Teller, der „Vater der Wasserstoffbombe“, hatte schon die Idee[9], Millionen kleiner Aluminiumballons in der Stratosphäre schweben zu lassen, um Sonnenstrahlung zu reflektieren und abzuschirmen.

Kritiker sind entsetzt[10]: “Mit etwas so entscheidendem und wenig erforschten wie der Sonnenstrahlung herumzuspielen, könnte dramatische und unvorhergesehene Konsequenzen für das Klima auf der Erde haben, warnen sie“.

 

Abbildung 1:  Spiegel im Weltraum

http://www.capital.de/politik/:Interaktive-Infografik–Geoengineering-Weltklima-selbstgemacht/100027692.html

Reflektorbälle im Meer

Was oben gehen soll, das kann man vielleicht auch unten machen:

Andere Forscher[11] schlugen analog zu den stratosphärischen Experimenten schon Mitte der 1960-er Jahre vor, die tropischen Ozeane mit High-Tech-Müll zu pflastern: Milliarden von reflektierenden Objekten, Tischtennisbällen vergleichbar, sollten die Energie der Sonnenstrahlen von der Wasseroberfläche ins All zurückschicken.

Vielerlei Problemen treten dabei auf, denn auch Kunststoffe altern und veralgen[12]: “Schwimmende Plastikteile werden von den unterschiedlichsten Meeresorganismen besiedelt, die auf diese Weise über weite Strecken in neue Habitate einwandern und unter Umständen als Neozoen bzw. Neophyten erheblichen Schaden anrichten können.“ Von besonderem Interesse bei der hier erörterten Geo-Egineering-Variante ist ein physikalischer Effekt: Die sich derart verändernden Plastik-Oberflächen werden physikalisch schwarz, reflektieren weniger und absorbieren mehr Strahlung. Dann tritt nach einiger Zeit das Gegenteil von dem ein, was beabsichtig ist: Erderwärmung statt Abkühlung!

Versprühen von Meerwasser in die Atmosphäre

Eine große Flotte von Glasfaserbooten[13] soll auf den Ozeanen mit Hilfe von wind-getriebenen Turbinen kontinuierlich Meereswasser in die Atmosphäre sprühen (Abbildung 2). Ziel dabei: Es werden für die Beschleunigung und Verstärkung von Wolkenbildung Milliarden von Kondensations-Kernen (Salz) sowie Wasser und damit potentiell auch Wasserdampf in die Troposphäre geblasen. Wolken in der unteren Atmosphäre wirken abkühlend auf die unteren Luftschichten , im Wesentlichen aufgrund der Reflektion von Sonnenstrahlung an der Wolken-Oberfläche. Auch so soll einer weiteren Erderwärmung entgegen gewirkt werden.

Unbekannt und damit auch unkalkulierbar sind dabei die Auswirkungen auf das Wetter. Die Methode erinnert an die jahrzehnte-langen Versuche der Wetter-Beeinflussung, insbesondere der “Regenmacher“. Alle diese Versuche wurden allerdings wegen weitgehender Erfolglosigkeit weltweit eingestellt. Einer der letzten Versuche dieser Art wurde von den Chinesen anläßlich der Olympischen Spiele 2008 durchgeführt  – ohne erkennbare Wirkung.

Wenn nun jedoch in einem solchen wie oben geplanten “Groß-Versuch“ über riesige Flächen der Ozeane derart in den atmosphärischen Wasserhaushalt eingegriffen wird, so erscheinen unkalkulierbare Folgen für das Wetter möglich.

 

Abbildung 2 : Meerwasser-Versprühung

http://www.capital.de/politik/:Interaktive-Infografik–Geoengineering-Weltklima-selbstgemacht/100027692.html

Ozean-Oberfläche aufwirbeln

Konzept und Ziel eines solchen globalen Experimentes werden im Wissenschaftsteil der BZ[14] anhand einer Publikation im Fachmagazin Nature so beschrieben:

“Der Chemiker James Lovelock von der University of Oxford und der Astrophysiker Christopher Rapley, Direktor des Londoner Science Museum, wollen das Klima retten, indem sie die Ozeane dazu anregen, mehr CO2 aufzunehmen. Ihr Konzept erläutern sie im Fachmagazin Nature. Lovelock und Rapley planen, zehn Meter dicke Röhren im Ozean zu installieren, die von Schwimmkörpern an der Oberfläche gehalten werden und hundert bis zweihundert Meter senkrecht in die Tiefe reichen. Am oberen Ende jeder Röhre pumpt ein Klappventil, das von der Wellenenergie des Meeres angetrieben wird, das Wasser heraus. Auf diese Weise soll nährstoffreiches Wasser aus der Tiefe an die Oberfläche gepumpt werden. Tiefere Wasserschichten enthalten nämlich Phosphate, Nitrate und Silikate – alles Substanzen, die an der Oberfläche fehlen. Das nach oben gepumpte Wasser löst dort wie ein Dünger eine Algenblüte aus, hoffen die Forscher. Algen verbrauchen beim Wachsen das Kohlendioxid der Luft. Wenn sie absterben, sinkt auch der von ihnen aufgenommene Kohlenstoff mit in die Tiefe. Auf diese Weise könnten der Atmosphäre schon bald große Mengen CO2 entzogen werden, schreiben Lovelock und Rapley.“

Aber es gibt auch Kritik (a.a.O.): “Andere Wissenschaftler bezweifeln allerdings, dass die Methode tatsächlich funktionieren würde. Zu ihnen gehört der Meeresbiologe Ulf Riebesell vom Kieler Leibniz-Institut für Meeresforschung IFM-Geomar. Zwar räumt er ein, dass die tieferen Wasserschichten jene Nährstoffe enthielten, die an der Oberfläche zu einer Algenblüte führen könnten. Aber in dem Wasser, das nach oben gepumpt wird, befindet sich auch gelöstes Kohlendioxid, erläutert er. Gelangt das Wasser an die Oberfläche, dann entweicht das Klimagas in die Luft. Nach Ansicht Riebesells würde die Methode von Lovelock und Rapley allerdings den natürlichen Kohlenstoff-Kreislauf nicht durchbrechen, sondern ihn nur beschleunigen: Die absterbenden Algen bringen den Kohlenstoff in die Tiefe, dort werden die Organismen zersetzt, das entstehende CO2 löst sich, wird nach oben gepumpt und so weiter. ’Das ist ein Nullsummenspiel’, sagt der Biologe.“

Gedanklich ein ähnlicher Ansatz ist die

Meeres-Düngung zwecks Algen-Wachstum

An der Grenzfläche zwischen Atmosphäre und Ozeanen (“Meeres-Oberfläche“) wird u.a. ständig CO2 ausgetauscht  – in beiden Richtungen. Schiffe streuen nun Mineralien in die oberen Schichten der Meere, zum Beispiel Eisen-Sulfat. Diese regen das Algenwachstum an, was zu einem Entzug von CO2 aus dem Wasser und letztlich auch aus der Atmosphäre führt.

Nach bio-chemische Umsetzungen nehmen die Algen das CO2 als Sediment mit auf den Meeresgrund, und sollen auf diesem Wege CO2 dem natürlichen Kreislauf entziehen, um den Treibhaus-Effekt zu vermindern.

Ein solches Experiment namens “LOHAFEX“ wurde vom Alfred-Wegener-Institut (AWI) durchgeführt. Dazu berichtet das AWI[15] : “Das LOHAFEX-Team … war von Januar bis März 2009 auf dem Forschungsschiff POLARSTERN unterwegs und verwendete zehn Tonnen gelöstes Eisensulfat, um eine Fläche von 300 km2 im Zentrum eines Ozeanwirbels zu düngen. Binnen zwei Wochen entstand eine Phytoplanktonblüte im eisenreichen Wasser, die danach  –  trotz einer weiteren Düngung  – nicht mehr zunahm.“ … und weiter a.a.O.: “Die Biomassen von anderen großen Phytoplanktonarten, die in Küstengewässern häufig Blüten erzeugen,  wurden durch den Wegfraß der großen Zooplanktonbestände, vor allem der Ruderfußkrebse, in Schach gehalten. … Daher kann angenommen werden, daß die Eisendüngung unter den angegebenen Bedingungen nicht zur erhöhten Einlagerung von Kohlenstoff im Ozean führt.“

Die Nordseezeitung[16] brachte es auf den Punkt: “Als Waffe im Kampf gegen den Klimawandel dürfte der Eisendünger damit wohl ausgedient haben.“

Ohnehin hatte es im Vorfeld des LOHAFEX-Experimente erhebliche Proteste von Umwelt-Organisationen gegeben, die dazu führten, daß das Bundes-Umwelt-Ministerium[17] in einer Presse-Mitteilung noch während des laufenden Experimentes die Genehmigung durch das BMBF massiv kritisierte: International ist der Ansatz der Meeresdüngung höchst umstritten, da die Wirksamkeit der Methode fraglich ist. So weisen sowohl der Interstaatliche Rat zum Klimawandel (IPCC) als auch der Wissenschaftliche Beirat für Globale Umweltveränderungen (WBGU), das gemeinsame wissenschaftliche Beratungsgremium des BMBF und des BMU, in ihren Gutachten wiederholt darauf hin, dass die Risiken der Meeresdüngung im Hinblick auf die mittelbaren Folgen für die Meeresökosysteme schwer abzuschätzen sind und lehnen diese daher ab. Entgegen den Angaben des BMBF, dass das Projekt reine Grundlagenforschung darstelle, wurde der Projektleiter des AWI in einem „Spiegel“-Interview damit zitiert, dass die Einwände gegen die Eisendüngung “weggefegt“ würden, wenn die Ohnmacht gegenüber dem Klimawandel sichtbar würde.

Damit setzt sich der verantwortliche Projektleiter des AWI für dieses Experiment in einen klaren Widerspruch zum Bundesforschungsministerium. Das Plädoyer des AWI-Projektleiters zur Meeresdüngung hat maßgeblich zu der kritischen internationalen Reaktion beigetragen. Auch in indischen Medien wird das Projekt teilweise als Einstieg in einen lukrativen Milliardenmarkt gesehen. Für das BMU ist es ein fataler Ansatz, den Klimawandel durch ein Herumdoktern an unseren Meeresökosystemen aufhalten zu wollen. Dieses unwissenschaftliche Denken hat unmittelbar in die Klimakrise geführt und taugt nicht zu ihrer Lösung. Einig sind sich BMU und BMBF, daß Eisendüngung kein Instrument der Klimapolitik werden darf. Hier gilt es nun, diese Grundhaltung auch dem AWI zu vermitteln und nicht in Indien oder anderswo auf der Welt die Vision eines Zukunftsmarktes „Meeresdüngung“ aufkommen zu lassen“… das war’s dann wohl mit ’Kohlenstoff gab ich für Eisen’.

Kalkung der Meere

Neuerdings gibt es eine neue Variante der Klimahysterie: Die “Versauerung der Meere“.

Der Säuregrad von Wasser wird mit dem pH-Wert definiert, wobei es sich um den negativen Exponenten der Wasserstoff-Ionen-Konzentration handelt: pH 6,9 und weniger ist “sauer“, 7 ist neutral und ab 7,1 basisch. Nun heißt es neuerdings in der wissenschaftlichen Literatur[18] und auch in allen Medien : “Die Ozeane werden immer sauerer …. So ist der pH-Wert im Oberflächen(!)-Ozean seit Beginn der industriellen Revolution um 0,1 Einheiten gefallen …“ –  und zwar angeblich von 8.2 auf 8.1 (Abb.2 a.a.O.).

Dazu muß man wissen:

(1)  Von einem ganzzahligen pH-Wert zum nächsten ändert sich die H-Ionen-Konzentration um eine Zehnerpotenz, eine Zehntel Einheit ist also keine dramatische Änderung,

(2)  Ob pH 8,2 oder 8,1  –  von “sauer“ kann unter chemischen Aspekten überhaupt keine Rede sein, denn wir liegen in jedem Falle um mehr als eine Zehnerpotenz oberhalb von “neutral“ (pH7) im basischen Bereich,

(3)  Es ist meist ausdrücklich von den Ozean-Oberflächen die Rede, was sich in Tiefen von mehreren Kilometern ändert, das ist nahezu unbekannt,

(4)  Die Ozeane überdecken rund 350 Mill. km2 der Erde, und sind im Mittel ca. 4 km tief. So war es früher wie heute sowohl an der Oberfläche als auch in der Tiefe nur stichprobenartig möglich, diesen pH-Wert zu messen. Da mutet es schon mehr als fragwürdig an, wenn nun neuerdings pauschal über eine “Ozean-Versauerung“ spekuliert wird.

(5)  Der pH-Wert der Meere differierte schon immer je nach Breitengrad ganz erheblich, und zwar zwischen 7,8 und 8,2[19]. In den Nordmeeren ist der pH-Wert am höchsten, dort wird CO2 absorbiert: hohe Löslichkeit im kalten Wasser. Am Äquator ist er am niedrigsten, dort wird CO2 emittiert: geringere Löslichkeit im warmen Wasser. Die Meeresströme tragen ebenfalls zur Ungleichverteilung bei.

Zusammenfassend darf man den Physik-Professor Horst-Joachim Lüdecke[20] zitieren: “Die Werte <7 kennzeichnen den saueren und die Werte >7 den basischen Bereich. Meerwasser ist mit seinem Wert von 7.9-8,25 basisch, von ’Versauerung’ zu reden ist daher blanker Unsinn.“

Trotzalledem:  Eine neue Variante von Klima-Ängsten wird geschürt.

D a z u  “muß“ angeblich sofort gehandelt werden. Und das will man auch unverzüglich, indem man die Ozeane kalkt:

Kalk (Kalzium-Oxid) soll in die Ozeane eingebracht werden, wo daraus in Verbindung mit Wasser Kalziumhydroxid (Löschkalk) entsteht. Dieser wiederum verbindet sich mit dem im Wasser gelösten Kohlendioxid und bildet Karbonatsalze, die letztendlich als Sediment zum Meeresgrund absinken. Wie sich das alles auf die angeblich bedrohte Fauna und Flora in den Meeren auswirkt, das ist allenfalls hypothetisch bedacht. Möglicherweise fängt mit der Kalkung die Bedrohung erst an.

Dazu schreibt der FOCUS[21] : “So zeigten Berechnungen einiger US-Forscher, welche Anstrengungen die Kalkung der Ozeane erfordern würde, die der Londoner Tim Kruger vorschlägt. Dafür würden 1000 bis 1500 Kubikkilometer Kalkstein benötigt, was ungefähr dem Volumen des Mars-Mondes Deimos entspricht oder auf der Erde den Dolomiten. Um diese Menge abzubauen, müßten 333 000 mittelgroße Kalksteinbrüche ein Jahr lang arbeiten. Blieben 50 Jahre Zeit, um die Aufgabe zu vollenden, brauche es immer noch 6700 Steinbrüche. Dies sei nicht im Entferntesten möglich, schlußfolgern sie, zumal viel Kalkstein auch für andere Zwecke gebraucht werde.“

 

CO2 unter die Erde : CCS

Die meisten Geo-Klima-Experimente sind noch Theorie, aber eines wird bereit erprobt: CO2 abscheiden, komprimieren, verflüssigen und in die Erde zu verpressen. Dieses Verfahren wird als “Carbon Capture and Storage  – CCS“ bezeichnet. Dazu werden geeignete geologische Schichten (“Formationen“) unter der Erde gesucht  –  für  sogenannte “CO2-Endlager“. Der Übergang zwischen gasförmigem und flüssigem CO2 (“kritischer Punkt“)[22] liegt bei rund 30°C + 74bar. Um auf der sicheren Seite zu ein, soll bei einem Druck von bis zu 250 bar verpreßt werden. Das birgt Risiken:

Durch den hohen Druck kann es über dem CO2-Lager zu Verwerfungen, Rissen, Sickerungen, Ausgasungen … kommen. Bei Ausgasungen  gibt es erhebliche Gefahren. Zunächst: Bei Konzentrationen unter 0,1% (1000 ppm) und folglich auch dem derzeitigen atmosphärischen Wert von knapp 400 ppm (0,04%) gibt es keinerlei gesundheitlich Gefahren. Das traf auch in den vergangenen 800.000 Jahren zu, als die CO2-Konzentration zwischen 180 und 280 ppm schwankte, wobei im Auf+Ab der Eis- und Warmzeiten CO2 der Temperatur folgte[23], und nicht – wie oft behauptet  –  umgekehrt.

Die ausgeatmete Luft enthält übrigens 4000 ppm (0,4%) CO2[24], folglich die 10-fache CO2-Konzentration der eingeatmeten Luft! Gesundheitliche Probleme entstehen erst bei dem etwa 100- bis 1000-fachen der eingeatmeten atmosphärischen CO2-Konzentration:

“ Eine Anreicherung in der Luft von 5 % führt zur Bewußtlosigkeit, ein Anteil von 8 % innerhalb kurzer Zeit zum Tode.“[25] Es gibt andererseits Hinweise[26], daß bei langzeitiger Einwirkung bereits unter 10.000 ppm (unter 1%) Probleme für Lebewesen eintreten können.

An anderer Stelle in der Fachliteratur[27] heißt es dagegen: Kohlendioxid ist ein nicht brennbares und nicht explosives Gas, das schwerer als Luft ist (Anm.: ca. 1,5-mal), in höheren Konzentrationen die menschliche Gesundheit gefährdet und erst bei Luft-Gehalten von 20% und mehr zum Tode führt“. Letztlich geht es darum: Alle diese Konzentrationen können erreicht werden, wenn CO2 aus Endlagern unkontrolliert an die Erdoberfläche austritt und sich bei wind-schwachen Wetterlagen in Tälern und Mulden sammelt:“… dann allerdings besteht für ganze Bevölkerungen die Gefahr durch Erstickungstod, vor dem Flucht dann nicht möglich ist.“[28] Ein solches Ereignis trat m August 1986 am Nyos-See in Kamerun auf: Etwa 1700 Menschen und viele Tiere kamen zu Tode[29].

Die Gefahr der Fehleinschätzung selbst bei gutachterlich zunächst als unbedenklich eingestuften CO2-Lagerstätten ist jedoch mittelfristig noch viel größer[30]: “Zu den Gefahren einer Technologie addieren sich Risiken durch fehlerhaftes Vorgehen, menschliches Versagen oder gewinnorientierte Risiko-Abschätzung. Man sollte aus dem ’Fall Asse’ schlußfolgern, daß Vorhersagen über potentielle Gefahren sich nach Jahrzehnten oft als falsch erweisen können.“

 

Abb. 3

Demo in Südtondern (Schleswig-Holstein)

http://www.shz.de/nachrichten/top-thema/article//ccs-entwarnung-in-schleswig-holstein-1.html

Daher gibt es zunehmend Widerstand gegen derartige Endlager[31]: “Im vergangenen Jahr hat er (Anm.: Reinhard Hassa/VATTENFALL) zunehmend Gegenwind gespürt. Nachdem RWE angekündigt hatte, Speicher in Schleswig-Holstein errichten zu wollen, formierte sich zunächst der Bürgerprotest, dann entzog die CSU im Bundestag dem fertigen Gesetzentwurf ihre Zustimmung … Ministerpräsident Harry Carstensen (CDU) warnte davor, das kostenlose CO2-Klo der Republik zu werden.“

Auch an anderen geplanten CCS-Standorten scheiterte die Planung von CO2-Endlagern am gemeinsamen Widerstand von Bevölkerung und Kommunalpolitikern, so in Brandenburg (FAZ a.a.O.) und im Cuxland[32].

Auch die bisherigen Erfahrungen in anderen Ländern[33] mit CCS lassen nichts Gutes ahnen: “Erfahrungen vermittelt das Sleipner-Ölfeld in der Nordsee. Seit 1996 werden jährlich eine Million Tonnen CO2 hineingepumpt. Seither breitet sich die Gaslache unterirdisch aus und wandert mit einem Meter pro Tag seitwärts … Der Druck im Boden hat sich über die Injektionsstelle hinaus deutlich erhöht. Dadurch können … haarfeine Risse im Erddeckel entstehen. Es gibt keinen unterirdischen Speicher, der zu hundert Prozent dicht ist. Man muß sich mit möglichen Leckagen auseinander setzen.“

Projekt schwarze Erde

Zunächst ein Zitat aus dem FOCUS-Magazin[34]: “Die Kritik am Machbarkeitswahn hindert die Forscher nicht, immer wieder neue Ideen zur Planetengestaltung zu entwickeln. Der neueste Vorschlag lautet ’Terra preta’ (portugiesisch = „schwarze Erde“) …“. Im weiteren berichtet der FOCUS darüber, daß die Briten Craig Sams und Dan Morrell weltweit auf 2,5% der Ackerflächen schnell wachsende Hölzer anbauen wollen, um diese dann zu verschwelen und die Holzkohle in den Boden einzubringen. Dadurch soll ein erheblicher Teil des bei der Fotosynthese gebundenen CO2 im Boden gebunden werden. Dieses Verfahren wollen die beiden genannten Initiatoren sowohl in der Grafschaft Sussex als auch im südamerikanischen Belize erproben. Für diese Idee hatte auch bereits der NASA-Forscher Jim Hansen bei Präsident Obama geworben.

Der FOCUS (a.a.O.) zieht folgendes Resumè: “Daß Plantagenhölzer wie Eukalyptus einen enormen Wasserverbrauch haben, die lokalen Ökosysteme verändern, heimische Arten verdrängen und die Plantagen biologisch verarmen, ficht die Erdingenieure nicht an – vom Erhalt der Primärwalder ganz zu schweigen. Wiederum wird der Irrsinn solcher Ideen deutlich.“

Physikalisch gibt es für das Projekt noch weitere kontra-produktive Effekte:

(1) Wälder wirken wegen erhöhter Strahlungs-Absorption “erwärmend“,

(2) Beim Verbrennen der Wälder wird (neben CO2) Wärme erzeugt,

(3) Eine “Schwarze Erde“ vermindert die Strahlungs-Reflektion der Erde (Albedo), mit der Folge: “Global Warming“ !

Luft-CO2 in Zement binden

Diese Idee entwickelte der Chemiker Brent Contstantz[35] von der kalifornischen Stanford University. Dabei soll CO2 aus Kraftwerks-Abgasen durch Meerwasser geleitet werden, wo nach chemischen Umsetzungen Karbonate entstehen. Nach Abschätzungen von Brent Constantz wird pro Tonne Karbonat eine halbe Tonne CO2 gebunden. Dann wird der Karbonat-Schlamm getrocknet und zu Zement verarbeitet. Bis 2010 soll die erste Anlage dieser Art in Betrieb gehen. Schon die derzeitige konventionellen Zement-Produktion erfordert bekanntermaßen einen aberwitzigen Energieverbrauch. So darf man gespannt in, wie die Energie-Bilanz und damit die wahre CO2-Bilanz bei dem neuen Verfahren ausfällt.

Kontroverse Debatte

Die Erde ist kein Labor, sondern unser unersetzbarer Lebensraum. GEO-Experimente können zuvor nicht im Labor ausprobiert werden, sondern stets wird unmittelbar der “Ernstfall“ geprobt  – bei negativem Ausgang gibt es kein “ZURÜCK“ !!

So sieht das z.B. auch Prof. Gerhard Schulze[36]: “Im Klimadiskurs betrachten einige Diskurs-Teilnehmer die Erde als reparaturbedürftige Maschine, die sie durch Geo-Engineering wieder in Ordnung bringen wollen: von allen guten Geistern verlassene Klimaklempner, die Vulkanausbrüche simulieren und Partikel in die Atmosphäre schleudern würden, um die Temperatur zu senken.“

Oder der Physik-Professor Knut Löschke[37]: “Anstatt … Milliarden und Abermilliarden zu verschwenden, um CO2-Abgase in Bergbaustollen zu vergraben … braucht es etwas anderes: Eine Rückkehr zur wissenschaftlichen und … politischen Vernunft. … Denn eines ist sicher: Es wird herauskommen, daß die natürlichen und permanenten Veränderungen des Klimas nicht wesentlich von unserem CO2-Eintrag abhängig sind, und daß alle darauf bauenden Argumente und Folgerungen falsch sind.“

Und die Süddeutsche Zeitung[38]: “ … befindet sich Geoengineering auf dem besten Weg, um Spielball einzelner Staaten oder finanzkräftiger Organisationen zu werden.“

Das alles hindert Prof. Schellnhuber[39] (PIK),  einen der Haupt-Alarmisten der Klima-Debatte nicht, den STAR-WARE zu propagieren:“…darüber debattieren, ob man nicht eine Art Star-Ware gegen den Klimawandel führen muß , also massives Geo-Engineering betreiben … Einbringen von Schwefelladungen in die Stratosphäre, massive Eisendüngung der Ozeane und vieles mehr … am Krieg gegen den Klimawandel wird bereits gearbeitet.“

F a z i t  :

Hier genügt es, eine zusammenfassende Wertung des FOCUS[40] anzuführen :

“Weiter drohen politische Verwerfungen … Wer soll die Hände am Thermostaten der Erde haben? Es ist unwahrscheinlich, daß sich die Welt auf ein optimales Klima einigen kann. Was geschieht, wenn es Russland ein wenig wärmer haben will, Indien aber ein paar Grad kühler? Ganz zu schweigen von den zusätzlichen Treibhausgas-Emissionen durch die massenhaften Flugzeugstarts, die auch an den Erdölreserven der Welt zehren. Andere Forscher lassen an solchen Projektideen kein gutes Haar. Die Pläne, das Erdklima nach eigenem Gutdünken zu gestalten, seien größenwahnsinnig und vermutlich gar nicht durchführbar. Zudem wisse niemand, wie sich solche Eingriffe auf die Ökosysteme des Planeten auswirken.“

Dipl. Meteorologe Klaus E. Puls EIKE.


[1] Hack the Planet; LAUFPASS Nr.25 (2010), S.6-7

[2] Wikipedia: Geo-Engineering

[3] Bengtsson, L.: promet, H.4 (2004), S.191

[4] P. Bissolli, Natw.Rdsch., H.9 (1997), S.343

[5] CRUTZEN, P.: Albedo Enhancement by Stratospheric Sulfur Injections, Zschr. Climatic Change, 2006

[6] Wikipedia

[7] http://www.dradio.de/dlf/sendungen/forschak/1115602/

[8] http://www.spiegel.de/spiegel/0,1518,425979,00.html

[9] http://www.geo.de/GEO/technik/60186.html

[10] http://sciencev1.orf.at/science/news/109319

[11] http://www.geo.de/GEO/technik/60186.html

[12] Plastikmüll in den Weltmeeren, Natw.Rdsch. H.8 (2010), S.425, Abb.2

[13] Steven Levitt, Stephen Dubner: Superfreakonomics. Harper Collins, New York 2009

[14] http://www.berlinonline.de/berliner-zeitung/archiv/.bin/dump.fcgi/2007/0927/wissenschaft/0020/index.html

[15] Das Eisendügungsexperiment LOHAFEX, AWI-Report 2008/2009, S. 46-50

[16]  NZ, 23.03.09, S.20, Polarstern kehrt aus Antarktis zurück

[17] http://www.bmu.bund.de/pressearchiv/16_legislaturperiode/pm/42974.php

[18] Naturw.Rdsch., H.11 (2008), S. 597-580

[19] CD Römpp Chemie Lexikon, Version 1.0, Stuttgart/New York, Georg Thieme Verlag, 1995

[20] Prof.Dr.H.-J.Lüdecke: CO2 und Klimaschutz, Bouvier (2010), S.126

[21] FOCUS, 30.01.09, Kann Technik den Planeten retten?

http://www.focus.de/wissen/wissenschaft/odenwalds_universum/frage-von-angela-schultes-kann-technik-den-planeten-retten_aid_365431.html

[22] (http://de.wikipedia.org/wiki/Kritischer_Punkt_Thermodynamik)

[23]  http://www.geocraft.com/WVFossils/stomata.html

[24] A. Nitsch: Klimawandel, CO2-Ausstoß und die öffentliche Meinung, Neue Landwirtsch., 5/2009, S.56

[25] http://www.kugelerde.de/jgs_db.php?action=show&eintrags_id=13169&katid=70

[26] Dr. Albrecht Nitsch, Bremervörde, pers.Mitt., 2010

[27] Natw.Rdsch., H.8 (2010), S.417

[28] Prof. Dr. C.O. Weiß:>Rückkopplung im Klimasystem der Erde; http://www.eike-klima-energie.eu/news-anzeige/rueckkopplung-im-klimasystem-der-erde/

 

[29] http://www.kugelerde.de/jgs_db.php?action=show&eintrags_id=13169&katid=70

[30] Im Untergrund herrscht keine Sicherheit, Umwelt-Magazin WATERKANT, Sandstedt, H.1 (2009), S. 8-10

[31] FAZ, 01.04.2010, S.12, “Alles unter die Erde“

[32] SoJourn. 24.01.2010, S.15: CO2-Lager abgewendet, EON darf im Cuxland nicht suchen

[33] S. Haszeldine, Univ. Edinburgh, sowie GFZ Potsdam in Handelsblatt: Unterirdische Klimaretter, 18.02.2010, S.20,

[34] FOCUS, 30.01.09, Kann Technik den Planeten retten?

http://www.focus.de/wissen/wissenschaft/odenwalds_universum/frage-von-angela-schultes-kann-technik-den-planeten-retten_aid_365431.html

[35] FOCUS, 30.01.09, Kann Technik den Planeten retten?

http://www.focus.de/wissen/wissenschaft/odenwalds_universum/frage-von-angela-schultes-kann-technik-den-planeten-retten_aid_365431.html

[36] G. Schulze, Schriftenreihe VONTOBEL-Stiftung, Nr. 1920, Krisen, Zürich, 2010, S.41

[37] Gefährliches Nichtwissen, FTD, 02.07.2010

[38]  SZ, 5./6.06.2010, Wer verstellt den globalen Thermostaten?

[39] “Manchmal könnte ich schreien“ ; DIE ZEIT, Nr.14, 26.03.09, Dossier S.17

[40] FOCUS, 30.01.09, Kann Technik den Planeten retten?

http://www.focus.de/wissen/wissenschaft/odenwalds_universum/frage-von-angela-schultes-kann-technik-den-planeten-retten_aid_365431.html

 

Related Files




3.(II) Klima- & Energiekonferenz Berlin 2010 Videovorträge Teil 2

Persistenz in Temperaturreihen zeigt den Einfluss der Sonne auf unser Klima

Prof. em. Dr. Horst-Joachim Lüdecke Hochschule für Technik und Wirtschaft des Saarlandes; Hier sein Vortrag als undefinedppt Datei

Weltweite Langzeit-Thermometer Daten zeigen mehrheitlich keine Erwärmung!

Prof. em. Dr. Friedrich-Karl Ewert, Universität Paderborn; Hier sein Vortrag als undefinedppt Datei

Neue Erkenntnisse über den solaren Einfluss auf das Klima und deren Bedeutung für das Verständnis der Klimawandels

Prof. Dr. Nir Shaviv Racah Institute of Physics – The Hebrew University of Jerusalem; 

Der „Fußabdruck“ der Sonne in der jüngeren Klimageschichte

Prof. Dr. Vincent Courtillot;  Directeur, IPGP Université Paris Diderot; Hier sein Vortrag als undefinedppt Datei

Die Korrelation von Schwankungen der Sonnenaktivität und Klimaveränderungen

Dipl. Phys. Dr. Horst Borchert ehem. am Geographischen Institut der Johannes-Gutenberg Universität Mainz; Hier sein Vortrag als undefinedppt Datei

Wird fortgesetzt mit Teil III und IV




Die Klima-Klempner:Geo-Engineering

In der letzten Ausgabe des LAUFPASS[1] („Abdruck hier mit freundlicher Genehmigung der LAUFPASS-Redaktion; Die Original-Arbeit ist erschienen im CUXLAND- Kultur-Magazin LAUFPASS, Bremerhaven, Heft 26 (2010), S. 6-9, hier der Link: wurden erste gesellschaftliche und politische Aspekte von Geo-Engineering aufgezeigt. Ergänzend werden in Folgendem nun die naturwissenschaftlichen Gesichtspunkte der einzelnen Geo-Projekte dargestellt und bewertet.

Definition WIKIPEDIA[2]: “Der Begriff  Geo-Engineering bezeichnet technische Eingriffe in geochemische oder biogeochemische Kreisläufe, etwa um die Klimaerwärmung oder die Versauerung der Meere zu bremsen.“

Mittlerweile gibt es eine umfangreiche Literatur zu dem Thema, mit einem genau so umfangreichen Katalog vorgeschlagener Maßnahmen, von denen die wesentlichen hier vorgestellt und bewertet werden sollen.

Der Heiz-Strahler Sonne …

… erwärmt unsere Erde. Der weit überwiegende Teil der Sonnen-Strahlung erreicht auf direktem und indirektem Wege (Streuung) die Erdoberfläche. Diese erwärmt sich, und gibt fühlbare Wärme (Wärmeleitung) an die bodennahen Schichten der Troposphäre ab. Die Abkühlung erfolgt auf dem gleichen Wege  – durch Wärme-Leitung und auch Abstrahlung.

Nun hat die Natur einige Möglichkeiten auf Lager, die an der Erdoberfläche ankommende Strahlungs-Energie zu verändern: Variationen der Sonnen-Aktivität, Staubeintrag in die Atmosphäre durch Vulkane und Sandstürme, in selteneren Fällen Staub- und Wassereintrag durch Meteor-Einschläge, langzeitige Veränderungen der globalen Bewölkung, ….

Was die Natur vormacht, das glaubt nun auch der Mensch mit Geo-Engineering zu beherrschen, um aktiv in die Gestaltung unseres Klimas einzugreifen. Das Motto dazu lautet neuerdings :  “Wir müssen durch Geo-Egineering unser Klima retten, um der anthropogenen CO2-Erderwärmung gegen zu steuern!“

Schwefel+Staub in die Atmosphäre

Aus der älteren und jüngeren Klima-Geschichte[3] ist bekannt, daß von Vulkanen in die Stratosphäre geblasene Aerosole und Gase dort zu Veränderungen des Strahlungs- und Energiehaushaltes führen. Eine wesentliche Rolle spielt dabei auch Schwefeldioxid, das durch Oxidation in Aerosole, nämlich Sulfate[4] umgewandelt wird. Ein Teil der eingestrahlten Sonnenenergie wird durch diese stratosphärischen Aerosole reflektiert, ein anderer Teil wird absorbiert. Letzteres führt zu einer Erwärmung der Stratosphäre, beides zusammen zu einer Abkühlung der bodennahen Luftschichten (Troposphäre) aufgrund dort erfolgender Strahlungs-Minderung.

Wahrscheinlich war es der Chemiker Paul Crutzen[5], der als erster einen ausführlichen Ansatz für entsprechende menschliche Eingriffe publizierte: Schwefel-Dioxid oder Sulfate in die hohe Atmosphäre einbringen. Dort sollen sich –  analog zum Vulkanismus  – zusammen mit Wassermolekülen viele feine Tröpfchen und letztlich ein dünne globale Wolke bilden, die Sonnen-Strahlung abfängt (Reflektion und Absorption).

Daraus entwickelte die US-Firma Intellectual Ventures[6] neuerdings die Idee, mit Hilfe eines 25 km langen, ballon-getragenen Schlauches Schwefel nach oben zu pumpen, oder Schornsteine von schwefel-emittierenden Fabriken unmittelbar mit Schläuchen in die Stratosphäre zu verlängern.

Noch weiter gehende Ideen entwickelte der Meteorologe Alan Robock[7] von der amerikanischen Rutgers University:

„Wir haben noch keine solche Technologie, aber die Leute denken über eine Flugzeug-Flotte nach, die regelmäßig in die untere Stratosphäre fliegt, um dort das Gas auszusprühen. Eine andere Idee wären Ballons, die mit Helium und Schwefeldioxid gefüllt sind und die man dann oben einfach platzen lässt. Möglich wäre vielleicht auch Artillerie: also Geschosse, die Projektile in die Stratosphäre jagen. Oder man baut einen Turm am Äquator, 20 Kilometer hoch, von dem aus man das Gas hinaussprüht.“??

Doch selbst Robock bleibt kritisch (a.a.O.) : “

Wenn man eine Stratosphären-Wolke geschaffen hat, weiß man noch lange nicht, wie sich diese Maßnahme wirklich auswirkt…“ und weiter “… Diese Maßnahme ist also sehr gefährlich, denn man kann sie nur prüfen, wenn man sie schon zur Anwendung gebracht hat.“??

Das allerdings sehen auch andere Wissenschaftler[8] so: „Der Plan ist beängstigend, weil er unerwartete Folgen haben kann.“

Schirme + Spiegel im All …

…  sind eine andere Variante, in der oberen Atmosphäre Strahlung abzufangen.

So will der Astronom Roger Angel von der University of Arizona im Weltall einen Sonnenschirm aufspannen, genauer gesagt eigentlich 16 Billionen Sonnenschirm’chen. Sein Plan sieht vor, daß an genau dem Punkt zwischen Sonne und Erde, an dem sich die Anziehungskraft der beiden Himmelskörper gegenseitig aufhebt (dem so genannten Lagrange-Punkt), eine Armada von hauchdünnen Siliziumscheiben schwebt (Abbildung1). Die 60 Zentimeter breiten Plättchen sollen in Päckchen zu je einer Million mit zwei Kilometer langen Spezialkanonen ins All geschossen werden. Um die beabsichtigte Schattenwirkung zu erzielen, müssten 20 solcher Kanonen im Abstand von fünf Minuten zehn Jahre lang solche Platten-Container ins All feuern. Auch der verstorbene Physiker Edward Teller, der „Vater der Wasserstoffbombe“, hatte schon die Idee[9], Millionen kleiner Aluminiumballons in der Stratosphäre schweben zu lassen, um Sonnenstrahlung zu reflektieren und abzuschirmen.

Kritiker sind entsetzt[10]: “Mit etwas so entscheidendem und wenig erforschten wie der Sonnenstrahlung herumzuspielen, könnte dramatische und unvorhergesehene Konsequenzen für das Klima auf der Erde haben, warnen sie“.

 

Abbildung 1:  Spiegel im Weltraum

http://www.capital.de/politik/:Interaktive-Infografik–Geoengineering-Weltklima-selbstgemacht/100027692.html

Reflektorbälle im Meer

Was oben gehen soll, das kann man vielleicht auch unten machen:

Andere Forscher[11] schlugen analog zu den stratosphärischen Experimenten schon Mitte der 1960-er Jahre vor, die tropischen Ozeane mit High-Tech-Müll zu pflastern: Milliarden von reflektierenden Objekten, Tischtennisbällen vergleichbar, sollten die Energie der Sonnenstrahlen von der Wasseroberfläche ins All zurückschicken.

Vielerlei Problemen treten dabei auf, denn auch Kunststoffe altern und veralgen[12]: “Schwimmende Plastikteile werden von den unterschiedlichsten Meeresorganismen besiedelt, die auf diese Weise über weite Strecken in neue Habitate einwandern und unter Umständen als Neozoen bzw. Neophyten erheblichen Schaden anrichten können.“ Von besonderem Interesse bei der hier erörterten Geo-Egineering-Variante ist ein physikalischer Effekt: Die sich derart verändernden Plastik-Oberflächen werden physikalisch schwarz, reflektieren weniger und absorbieren mehr Strahlung. Dann tritt nach einiger Zeit das Gegenteil von dem ein, was beabsichtig ist: Erderwärmung statt Abkühlung!

Versprühen von Meerwasser in die Atmosphäre

Eine große Flotte von Glasfaserbooten[13] soll auf den Ozeanen mit Hilfe von wind-getriebenen Turbinen kontinuierlich Meereswasser in die Atmosphäre sprühen (Abbildung 2). Ziel dabei: Es werden für die Beschleunigung und Verstärkung von Wolkenbildung Milliarden von Kondensations-Kernen (Salz) sowie Wasser und damit potentiell auch Wasserdampf in die Troposphäre geblasen. Wolken in der unteren Atmosphäre wirken abkühlend auf die unteren Luftschichten , im Wesentlichen aufgrund der Reflektion von Sonnenstrahlung an der Wolken-Oberfläche. Auch so soll einer weiteren Erderwärmung entgegen gewirkt werden.

Unbekannt und damit auch unkalkulierbar sind dabei die Auswirkungen auf das Wetter. Die Methode erinnert an die jahrzehnte-langen Versuche der Wetter-Beeinflussung, insbesondere der “Regenmacher“. Alle diese Versuche wurden allerdings wegen weitgehender Erfolglosigkeit weltweit eingestellt. Einer der letzten Versuche dieser Art wurde von den Chinesen anläßlich der Olympischen Spiele 2008 durchgeführt  – ohne erkennbare Wirkung.

Wenn nun jedoch in einem solchen wie oben geplanten “Groß-Versuch“ über riesige Flächen der Ozeane derart in den atmosphärischen Wasserhaushalt eingegriffen wird, so erscheinen unkalkulierbare Folgen für das Wetter möglich.

 

Abbildung 2 : Meerwasser-Versprühung

http://www.capital.de/politik/:Interaktive-Infografik–Geoengineering-Weltklima-selbstgemacht/100027692.html

Ozean-Oberfläche aufwirbeln

Konzept und Ziel eines solchen globalen Experimentes werden im Wissenschaftsteil der BZ[14] anhand einer Publikation im Fachmagazin Nature so beschrieben:

“Der Chemiker James Lovelock von der University of Oxford und der Astrophysiker Christopher Rapley, Direktor des Londoner Science Museum, wollen das Klima retten, indem sie die Ozeane dazu anregen, mehr CO2 aufzunehmen. Ihr Konzept erläutern sie im Fachmagazin Nature. Lovelock und Rapley planen, zehn Meter dicke Röhren im Ozean zu installieren, die von Schwimmkörpern an der Oberfläche gehalten werden und hundert bis zweihundert Meter senkrecht in die Tiefe reichen. Am oberen Ende jeder Röhre pumpt ein Klappventil, das von der Wellenenergie des Meeres angetrieben wird, das Wasser heraus. Auf diese Weise soll nährstoffreiches Wasser aus der Tiefe an die Oberfläche gepumpt werden. Tiefere Wasserschichten enthalten nämlich Phosphate, Nitrate und Silikate – alles Substanzen, die an der Oberfläche fehlen. Das nach oben gepumpte Wasser löst dort wie ein Dünger eine Algenblüte aus, hoffen die Forscher. Algen verbrauchen beim Wachsen das Kohlendioxid der Luft. Wenn sie absterben, sinkt auch der von ihnen aufgenommene Kohlenstoff mit in die Tiefe. Auf diese Weise könnten der Atmosphäre schon bald große Mengen CO2 entzogen werden, schreiben Lovelock und Rapley.“

Aber es gibt auch Kritik (a.a.O.):

“Andere Wissenschaftler bezweifeln allerdings, dass die Methode tatsächlich funktionieren würde. Zu ihnen gehört der Meeresbiologe Ulf Riebesell vom Kieler Leibniz-Institut für Meeresforschung IFM-Geomar. Zwar räumt er ein, dass die tieferen Wasserschichten jene Nährstoffe enthielten, die an der Oberfläche zu einer Algenblüte führen könnten. Aber in dem Wasser, das nach oben gepumpt wird, befindet sich auch gelöstes Kohlendioxid, erläutert er. Gelangt das Wasser an die Oberfläche, dann entweicht das Klimagas in die Luft. Nach Ansicht Riebesells würde die Methode von Lovelock und Rapley allerdings den natürlichen Kohlenstoff-Kreislauf nicht durchbrechen, sondern ihn nur beschleunigen: Die absterbenden Algen bringen den Kohlenstoff in die Tiefe, dort werden die Organismen zersetzt, das entstehende CO2 löst sich, wird nach oben gepumpt und so weiter. ’Das ist ein Nullsummenspiel’, sagt der Biologe.“

Gedanklich ein ähnlicher Ansatz ist die

Meeres-Düngung zwecks Algen-Wachstum

An der Grenzfläche zwischen Atmosphäre und Ozeanen (“Meeres-Oberfläche“) wird u.a. ständig CO2 ausgetauscht  – in beiden Richtungen. Schiffe streuen nun Mineralien in die oberen Schichten der Meere, zum Beispiel Eisen-Sulfat. Diese regen das Algenwachstum an, was zu einem Entzug von CO2 aus dem Wasser und letztlich auch aus der Atmosphäre führt.

Nach bio-chemische Umsetzungen nehmen die Algen das CO2 als Sediment mit auf den Meeresgrund, und sollen auf diesem Wege CO2 dem natürlichen Kreislauf entziehen, um den Treibhaus-Effekt zu vermindern.

Ein solches Experiment namens “LOHAFEX“ wurde vom Alfred-Wegener-Institut (AWI) durchgeführt. Dazu berichtet das AWI[15] :

“Das LOHAFEX-Team … war von Januar bis März 2009 auf dem Forschungsschiff POLARSTERN unterwegs und verwendete zehn Tonnen gelöstes Eisensulfat, um eine Fläche von 300 km2 im Zentrum eines Ozeanwirbels zu düngen. Binnen zwei Wochen entstand eine Phytoplanktonblüte im eisenreichen Wasser, die danach  –  trotz einer weiteren Düngung  – nicht mehr zunahm.“ … und weiter a.a.O.: “Die Biomassen von anderen großen Phytoplanktonarten, die in Küstengewässern häufig Blüten erzeugen,  wurden durch den Wegfraß der großen Zooplanktonbestände, vor allem der Ruderfußkrebse, in Schach gehalten. … Daher kann angenommen werden, daß die Eisendüngung unter den angegebenen Bedingungen nicht zur erhöhten Einlagerung von Kohlenstoff im Ozean führt.“

Die Nordseezeitung[16] brachte es auf den Punkt: “Als Waffe im Kampf gegen den Klimawandel dürfte der Eisendünger damit wohl ausgedient haben.“

Ohnehin hatte es im Vorfeld des LOHAFEX-Experimente erhebliche Proteste von Umwelt-Organisationen gegeben, die dazu führten, daß das Bundes-Umwelt-Ministerium[17] in einer Presse-Mitteilung noch während des laufenden Experimentes die Genehmigung durch das BMBF massiv kritisierte:

International ist der Ansatz der Meeresdüngung höchst umstritten, da die Wirksamkeit der Methode fraglich ist. So weisen sowohl der Interstaatliche Rat zum Klimawandel (IPCC) als auch der Wissenschaftliche Beirat für Globale Umweltveränderungen (WBGU), das gemeinsame wissenschaftliche Beratungsgremium des BMBF und des BMU, in ihren Gutachten wiederholt darauf hin, dass die Risiken der Meeresdüngung im Hinblick auf die mittelbaren Folgen für die Meeresökosysteme schwer abzuschätzen sind und lehnen diese daher ab. Entgegen den Angaben des BMBF, dass das Projekt reine Grundlagenforschung darstelle, wurde der Projektleiter des AWI in einem „Spiegel“-Interview damit zitiert, dass die Einwände gegen die Eisendüngung “weggefegt“ würden, wenn die Ohnmacht gegenüber dem Klimawandel sichtbar würde.

Damit setzt sich der verantwortliche Projektleiter des AWI für dieses Experiment in einen klaren Widerspruch zum Bundesforschungsministerium. Das Plädoyer des AWI-Projektleiters zur Meeresdüngung hat maßgeblich zu der kritischen internationalen Reaktion beigetragen. Auch in indischen Medien wird das Projekt teilweise als Einstieg in einen lukrativen Milliardenmarkt gesehen. Für das BMU ist es ein fataler Ansatz, den Klimawandel durch ein Herumdoktern an unseren Meeresökosystemen aufhalten zu wollen. Dieses unwissenschaftliche Denken hat unmittelbar in die Klimakrise geführt und taugt nicht zu ihrer Lösung. Einig sind sich BMU und BMBF, daß Eisendüngung kein Instrument der Klimapolitik werden darf. Hier gilt es nun, diese Grundhaltung auch dem AWI zu vermitteln und nicht in Indien oder anderswo auf der Welt die Vision eines Zukunftsmarktes „Meeresdüngung“ aufkommen zu lassen“… das war’s dann wohl mit ’Kohlenstoff gab ich für Eisen’.

Kalkung der Meere

Neuerdings gibt es eine neue Variante der Klimahysterie: Die “Versauerung der Meere“.

Der Säuregrad von Wasser wird mit dem pH-Wert definiert, wobei es sich um den negativen Exponenten der Wasserstoff-Ionen-Konzentration handelt: pH 6,9 und weniger ist “sauer“, 7 ist neutral und ab 7,1 basisch. Nun heißt es neuerdings in der wissenschaftlichen Literatur[18] und auch in allen Medien : “Die Ozeane werden immer sauerer …. So ist der pH-Wert im Oberflächen(!)-Ozean seit Beginn der industriellen Revolution um 0,1 Einheiten gefallen …“ –  und zwar angeblich von 8.2 auf 8.1 (Abb.2 a.a.O.).

Dazu muß man wissen:

(1)  Von einem ganzzahligen pH-Wert zum nächsten ändert sich die H-Ionen-Konzentration um eine Zehnerpotenz, eine Zehntel Einheit ist also keine dramatische Änderung,

(2)  Ob pH 8,2 oder 8,1  –  von “sauer“ kann unter chemischen Aspekten überhaupt keine Rede sein, denn wir liegen in jedem Falle um mehr als eine Zehnerpotenz oberhalb von “neutral“ (pH7) im basischen Bereich,

(3)  Es ist meist ausdrücklich von den Ozean-Oberflächen die Rede, was sich in Tiefen von mehreren Kilometern ändert, das ist nahezu unbekannt,

(4)  Die Ozeane überdecken rund 350 Mill. km2 der Erde, und sind im Mittel ca. 4 km tief. So war es früher wie heute sowohl an der Oberfläche als auch in der Tiefe nur stichprobenartig möglich, diesen pH-Wert zu messen. Da mutet es schon mehr als fragwürdig an, wenn nun neuerdings pauschal über eine “Ozean-Versauerung“ spekuliert wird.

(5)  Der pH-Wert der Meere differierte schon immer je nach Breitengrad ganz erheblich, und zwar zwischen 7,8 und 8,2[19]. In den Nordmeeren ist der pH-Wert am höchsten, dort wird CO2 absorbiert: hohe Löslichkeit im kalten Wasser. Am Äquator ist er am niedrigsten, dort wird CO2 emittiert: geringere Löslichkeit im warmen Wasser. Die Meeresströme tragen ebenfalls zur Ungleichverteilung bei.

Zusammenfassend darf man den Physik-Professor Horst-Joachim Lüdecke[20] zitieren:

“Die Werte <7 kennzeichnen den saueren und die Werte >7 den basischen Bereich. Meerwasser ist mit seinem Wert von 7.9-8,25 basisch, von ’Versauerung’ zu reden ist daher blanker Unsinn.“

Trotzalledem:  Eine neue Variante von Klima-Ängsten wird geschürt.

D a z u  “muß“ angeblich sofort gehandelt werden. Und das will man auch unverzüglich, indem man die Ozeane kalkt:

Kalk (Kalzium-Oxid) soll in die Ozeane eingebracht werden, wo daraus in Verbindung mit Wasser Kalziumhydroxid (Löschkalk) entsteht. Dieser wiederum verbindet sich mit dem im Wasser gelösten Kohlendioxid und bildet Karbonatsalze, die letztendlich als Sediment zum Meeresgrund absinken. Wie sich das alles auf die angeblich bedrohte Fauna und Flora in den Meeren auswirkt, das ist allenfalls hypothetisch bedacht. Möglicherweise fängt mit der Kalkung die Bedrohung erst an.

Dazu schreibt der FOCUS[21] :

“So zeigten Berechnungen einiger US-Forscher, welche Anstrengungen die Kalkung der Ozeane erfordern würde, die der Londoner Tim Kruger vorschlägt. Dafür würden 1000 bis 1500 Kubikkilometer Kalkstein benötigt, was ungefähr dem Volumen des Mars-Mondes Deimos entspricht oder auf der Erde den Dolomiten. Um diese Menge abzubauen, müßten 333 000 mittelgroße Kalksteinbrüche ein Jahr lang arbeiten. Blieben 50 Jahre Zeit, um die Aufgabe zu vollenden, brauche es immer noch 6700 Steinbrüche. Dies sei nicht im Entferntesten möglich, schlußfolgern sie, zumal viel Kalkstein auch für andere Zwecke gebraucht werde.“

 

CO2 unter die Erde : CCS

Die meisten Geo-Klima-Experimente sind noch Theorie, aber eines wird bereit erprobt: CO2 abscheiden, komprimieren, verflüssigen und in die Erde zu verpressen. Dieses Verfahren wird als “Carbon Capture and Storage  – CCS“ bezeichnet. Dazu werden geeignete geologische Schichten (“Formationen“) unter der Erde gesucht  –  für  sogenannte “CO2-Endlager“. Der Übergang zwischen gasförmigem und flüssigem CO2 (“kritischer Punkt“)[22] liegt bei rund 30°C + 74bar. Um auf der sicheren Seite zu ein, soll bei einem Druck von bis zu 250 bar verpreßt werden. Das birgt Risiken:

Durch den hohen Druck kann es über dem CO2-Lager zu Verwerfungen, Rissen, Sickerungen, Ausgasungen … kommen. Bei Ausgasungen  gibt es erhebliche Gefahren. Zunächst: Bei Konzentrationen unter 0,1% (1000 ppm) und folglich auch dem derzeitigen atmosphärischen Wert von knapp 400 ppm (0,04%) gibt es keinerlei gesundheitlich Gefahren. Das traf auch in den vergangenen 800.000 Jahren zu, als die CO2-Konzentration zwischen 180 und 280 ppm schwankte, wobei im Auf+Ab der Eis- und Warmzeiten CO2 der Temperatur folgte[23], und nicht – wie oft behauptet  –  umgekehrt.

Die ausgeatmete Luft enthält übrigens 4000 ppm (0,4%) CO2[24], folglich die 10-fache CO2-Konzentration der eingeatmeten Luft! Gesundheitliche Probleme entstehen erst bei dem etwa 100- bis 1000-fachen der eingeatmeten atmosphärischen CO2-Konzentration:

“ Eine Anreicherung in der Luft von 5 % führt zur Bewußtlosigkeit, ein Anteil von 8 % innerhalb kurzer Zeit zum Tode.“[25] Es gibt andererseits Hinweise[26], daß bei langzeitiger Einwirkung bereits unter 10.000 ppm (unter 1%) Probleme für Lebewesen eintreten können.

An anderer Stelle in der Fachliteratur[27] heißt es dagegen: Kohlendioxid ist ein nicht brennbares und nicht explosives Gas, das schwerer als Luft ist (Anm.: ca. 1,5-mal), in höheren Konzentrationen die menschliche Gesundheit gefährdet und erst bei Luft-Gehalten von 20% und mehr zum Tode führt“. Letztlich geht es darum: Alle diese Konzentrationen können erreicht werden, wenn CO2 aus Endlagern unkontrolliert an die Erdoberfläche austritt und sich bei wind-schwachen Wetterlagen in Tälern und Mulden sammelt:“… dann allerdings besteht für ganze Bevölkerungen die Gefahr durch Erstickungstod, vor dem Flucht dann nicht möglich ist.“[28] Ein solches Ereignis trat m August 1986 am Nyos-See in Kamerun auf: Etwa 1700 Menschen und viele Tiere kamen zu Tode[29].

Die Gefahr der Fehleinschätzung selbst bei gutachterlich zunächst als unbedenklich eingestuften CO2-Lagerstätten ist jedoch mittelfristig noch viel größer[30]: “Zu den Gefahren einer Technologie addieren sich Risiken durch fehlerhaftes Vorgehen, menschliches Versagen oder gewinnorientierte Risiko-Abschätzung. Man sollte aus dem ’Fall Asse’ schlußfolgern, daß Vorhersagen über potentielle Gefahren sich nach Jahrzehnten oft als falsch erweisen können.“

 

Abb. 3

Demo in Südtondern (Schleswig-Holstein)

http://www.shz.de/nachrichten/top-thema/article//ccs-entwarnung-in-schleswig-holstein-1.html

Daher gibt es zunehmend Widerstand gegen derartige Endlager[31]: “Im vergangenen Jahr hat er (Anm.: Reinhard Hassa/VATTENFALL) zunehmend Gegenwind gespürt. Nachdem RWE angekündigt hatte, Speicher in Schleswig-Holstein errichten zu wollen, formierte sich zunächst der Bürgerprotest, dann entzog die CSU im Bundestag dem fertigen Gesetzentwurf ihre Zustimmung … Ministerpräsident Harry Carstensen (CDU) warnte davor, das kostenlose CO2-Klo der Republik zu werden.“

Auch an anderen geplanten CCS-Standorten scheiterte die Planung von CO2-Endlagern am gemeinsamen Widerstand von Bevölkerung und Kommunalpolitikern, so in Brandenburg (FAZ a.a.O.) und im Cuxland[32].

Auch die bisherigen Erfahrungen in anderen Ländern[33] mit CCS lassen nichts Gutes ahnen:

“Erfahrungen vermittelt das Sleipner-Ölfeld in der Nordsee. Seit 1996 werden jährlich eine Million Tonnen CO2 hineingepumpt. Seither breitet sich die Gaslache unterirdisch aus und wandert mit einem Meter pro Tag seitwärts … Der Druck im Boden hat sich über die Injektionsstelle hinaus deutlich erhöht. Dadurch können … haarfeine Risse im Erddeckel entstehen. Es gibt keinen unterirdischen Speicher, der zu hundert Prozent dicht ist. Man muß sich mit möglichen Leckagen auseinander setzen.“

Projekt schwarze Erde

Zunächst ein Zitat aus dem FOCUS-Magazin[34]: “Die Kritik am Machbarkeitswahn hindert die Forscher nicht, immer wieder neue Ideen zur Planetengestaltung zu entwickeln. Der neueste Vorschlag lautet ’Terra preta’ (portugiesisch = „schwarze Erde“) …“. Im weiteren berichtet der FOCUS darüber, daß die Briten Craig Sams und Dan Morrell weltweit auf 2,5% der Ackerflächen schnell wachsende Hölzer anbauen wollen, um diese dann zu verschwelen und die Holzkohle in den Boden einzubringen. Dadurch soll ein erheblicher Teil des bei der Fotosynthese gebundenen CO2 im Boden gebunden werden. Dieses Verfahren wollen die beiden genannten Initiatoren sowohl in der Grafschaft Sussex als auch im südamerikanischen Belize erproben. Für diese Idee hatte auch bereits der NASA-Forscher Jim Hansen bei Präsident Obama geworben.

Der FOCUS (a.a.O.) zieht folgendes Resumè: “Daß Plantagenhölzer wie Eukalyptus einen enormen Wasserverbrauch haben, die lokalen Ökosysteme verändern, heimische Arten verdrängen und die Plantagen biologisch verarmen, ficht die Erdingenieure nicht an – vom Erhalt der Primärwalder ganz zu schweigen. Wiederum wird der Irrsinn solcher Ideen deutlich.“

Physikalisch gibt es für das Projekt noch weitere kontra-produktive Effekte:

(1) Wälder wirken wegen erhöhter Strahlungs-Absorption “erwärmend“,

(2) Beim Verbrennen der Wälder wird (neben CO2) Wärme erzeugt,

(3) Eine “Schwarze Erde“ vermindert die Strahlungs-Reflektion der Erde (Albedo), mit der Folge: “Global Warming“ !

Luft-CO2 in Zement binden

Diese Idee entwickelte der Chemiker Brent Contstantz[35] von der kalifornischen Stanford University. Dabei soll CO2 aus Kraftwerks-Abgasen durch Meerwasser geleitet werden, wo nach chemischen Umsetzungen Karbonate entstehen. Nach Abschätzungen von Brent Constantz wird pro Tonne Karbonat eine halbe Tonne CO2 gebunden. Dann wird der Karbonat-Schlamm getrocknet und zu Zement verarbeitet. Bis 2010 soll die erste Anlage dieser Art in Betrieb gehen. Schon die derzeitige konventionellen Zement-Produktion erfordert bekanntermaßen einen aberwitzigen Energieverbrauch. So darf man gespannt in, wie die Energie-Bilanz und damit die wahre CO2-Bilanz bei dem neuen Verfahren ausfällt.

Kontroverse Debatte

Die Erde ist kein Labor, sondern unser unersetzbarer Lebensraum. GEO-Experimente können zuvor nicht im Labor ausprobiert werden, sondern stets wird unmittelbar der “Ernstfall“ geprobt  – bei negativem Ausgang gibt es kein “ZURÜCK“ !!

So sieht das z.B. auch Prof. Gerhard Schulze[36]:

“Im Klimadiskurs betrachten einige Diskurs-Teilnehmer die Erde als reparaturbedürftige Maschine, die sie durch Geo-Engineering wieder in Ordnung bringen wollen: von allen guten Geistern verlassene Klimaklempner, die Vulkanausbrüche simulieren und Partikel in die Atmosphäre schleudern würden, um die Temperatur zu senken.“

Oder der Physik-Professor Knut Löschke[37]:

“Anstatt … Milliarden und Abermilliarden zu verschwenden, um CO2-Abgase in Bergbaustollen zu vergraben … braucht es etwas anderes: Eine Rückkehr zur wissenschaftlichen und … politischen Vernunft. … Denn eines ist sicher: Es wird herauskommen, daß die natürlichen und permanenten Veränderungen des Klimas nicht wesentlich von unserem CO2-Eintrag abhängig sind, und daß alle darauf bauenden Argumente und Folgerungen falsch sind.“

Und die Süddeutsche Zeitung[38]: “ … befindet sich Geoengineering auf dem besten Weg, um Spielball einzelner Staaten oder finanzkräftiger Organisationen zu werden.“

Das alles hindert Prof. Schellnhuber[39] (PIK),  einen der Haupt-Alarmisten der Klima-Debatte nicht, den STAR-WARE zu propagieren:

“…darüber debattieren, ob man nicht eine Art Star-Ware gegen den Klimawandel führen muß , also massives Geo-Engineering betreiben … Einbringen von Schwefelladungen in die Stratosphäre, massive Eisendüngung der Ozeane und vieles mehr … am Krieg gegen den Klimawandel wird bereits gearbeitet.“

F a z i t  :

Hier genügt es, eine zusammenfassende Wertung des FOCUS[40] anzuführen :

“Weiter drohen politische Verwerfungen … Wer soll die Hände am Thermostaten der Erde haben? Es ist unwahrscheinlich, daß sich die Welt auf ein optimales Klima einigen kann. Was geschieht, wenn es Russland ein wenig wärmer haben will, Indien aber ein paar Grad kühler? Ganz zu schweigen von den zusätzlichen Treibhausgas-Emissionen durch die massenhaften Flugzeugstarts, die auch an den Erdölreserven der Welt zehren. Andere Forscher lassen an solchen Projektideen kein gutes Haar. Die Pläne, das Erdklima nach eigenem Gutdünken zu gestalten, seien größenwahnsinnig und vermutlich gar nicht durchführbar. Zudem wisse niemand, wie sich solche Eingriffe auf die Ökosysteme des Planeten auswirken.“


[1] Hack the Planet; LAUFPASS Nr.25 (2010), S.6-7

[2] Wikipedia: Geo-Engineering

[3] Bengtsson, L.: promet, H.4 (2004), S.191

[4] P. Bissolli, Natw.Rdsch., H.9 (1997), S.343

[5] CRUTZEN, P.: Albedo Enhancement by Stratospheric Sulfur Injections, Zschr. Climatic Change, 2006

[6] Wikipedia

[7] http://www.dradio.de/dlf/sendungen/forschak/1115602/

[8] http://www.spiegel.de/spiegel/0,1518,425979,00.html

[9] http://www.geo.de/GEO/technik/60186.html

[10] http://sciencev1.orf.at/science/news/109319

[11] http://www.geo.de/GEO/technik/60186.html

[12] Plastikmüll in den Weltmeeren, Natw.Rdsch. H.8 (2010), S.425, Abb.2

[13] Steven Levitt, Stephen Dubner: Superfreakonomics. Harper Collins, New York 2009

[14] http://www.berlinonline.de/berliner-zeitung/archiv/.bin/dump.fcgi/2007/0927/wissenschaft/0020/index.html

[15] Das Eisendügungsexperiment LOHAFEX, AWI-Report 2008/2009, S. 46-50

[16]  NZ, 23.03.09, S.20, Polarstern kehrt aus Antarktis zurück

[17] http://www.bmu.bund.de/pressearchiv/16_legislaturperiode/pm/42974.php

[18] Naturw.Rdsch., H.11 (2008), S. 597-580

[19] CD Römpp Chemie Lexikon, Version 1.0, Stuttgart/New York, Georg Thieme Verlag, 1995

[20] Prof.Dr.H.-J.Lüdecke: CO2 und Klimaschutz, Bouvier (2010), S.126

[21] FOCUS, 30.01.09, Kann Technik den Planeten retten?

http://www.focus.de/wissen/wissenschaft/odenwalds_universum/frage-von-angela-schultes-kann-technik-den-planeten-retten_aid_365431.html

[22] (http://de.wikipedia.org/wiki/Kritischer_Punkt_Thermodynamik)

[23]  http://www.geocraft.com/WVFossils/stomata.html

[24] A. Nitsch: Klimawandel, CO2-Ausstoß und die öffentliche Meinung, Neue Landwirtsch., 5/2009, S.56

[25] http://www.kugelerde.de/jgs_db.php?action=show&eintrags_id=13169&katid=70

[26] Dr. Albrecht Nitsch, Bremervörde, pers.Mitt., 2010

[27] Natw.Rdsch., H.8 (2010), S.417

[28] Prof. Dr. C.O. Weiß:>Rückkopplung im Klimasystem der Erde; http://www.eike-klima-energie.eu/news-anzeige/rueckkopplung-im-klimasystem-der-erde/

[29] http://www.kugelerde.de/jgs_db.php?action=show&eintrags_id=13169&katid=70

[30] Im Untergrund herrscht keine Sicherheit, Umwelt-Magazin WATERKANT, Sandstedt, H.1 (2009), S. 8-10

[31] FAZ, 01.04.2010, S.12, “Alles unter die Erde“

[32] SoJourn. 24.01.2010, S.15: CO2-Lager abgewendet, EON darf im Cuxland nicht suchen

[33] S. Haszeldine, Univ. Edinburgh, sowie GFZ Potsdam in Handelsblatt: Unterirdische Klimaretter, 18.02.2010, S.20,

[34] FOCUS, 30.01.09, Kann Technik den Planeten retten?

http://www.focus.de/wissen/wissenschaft/odenwalds_universum/frage-von-angela-schultes-kann-technik-den-planeten-retten_aid_365431.html

[35] FOCUS, 30.01.09, Kann Technik den Planeten retten?

http://www.focus.de/wissen/wissenschaft/odenwalds_universum/frage-von-angela-schultes-kann-technik-den-planeten-retten_aid_365431.html

[36] G. Schulze, Schriftenreihe VONTOBEL-Stiftung, Nr. 1920, Krisen, Zürich, 2010, S.41

[37] Gefährliches Nichtwissen, FTD, 02.07.2010

[38]  SZ, 5./6.06.2010, Wer verstellt den globalen Thermostaten?

[39] “Manchmal könnte ich schreien“ ; DIE ZEIT, Nr.14, 26.03.09, Dossier S.17

[40] FOCUS, 30.01.09, Kann Technik den Planeten retten?

http://www.focus.de/wissen/wissenschaft/odenwalds_universum/frage-von-angela-schultes-kann-technik-den-planeten-retten_aid_365431.html

Dipl. Meteorologe K.E. Puls EIKE Pressesprecher

Der Artikel aus der Zeitschrift Laufpass kann als pdf-Anhang heruntergeladen werden.

Related Files




Phoenix Runde Teil III: „Kein prima Klima – Ist die Welt noch zu retten?“ Ein Fak­tencheck!

So wurde jedes Thema angesprochen und jede Menge Heilsversprechen abgegeben. Auf die Idee, dass die Armen durch eigene Anstrengung reich werden könnten, wie es uns nicht nur die BRIC Staaten oder die asiatischen Tiger seit Jahrzehnten vormachen, kam kaum einer in der Runde.  Mittel zum Zweck, um die Umverteilung zu erzwingen, ist die Angst vor dem Klimawandel, induziert durch CO2, einem Klimawandel, wie er nur in den Klimamodellen vorkommt. Daher schauen wir uns jetzt die Klimamodelle an.

Zuvor noch der Einfachheit halber der Einblick in die Sendung, die wir hier mit freundlicher Genehmigung von PHOENIX zeigen. Zur Erinnerung: Bei den Originalzitaten sind die Minuten in Klammern angegeben, in denen man diese Zitate (nicht immer wortgetreu) hören kann.

Sendung vom 9.12.10 „Ist die Welt noch zu retten“ (Mit freundlicher Erlaubnis von Phoenix)

7. Wie gut sind die Klimamodelle?

Ausschließlich auf Computer gestützte Klimamodelle werden eingesetzt, um damit Prognosen  über die zukünftige Klimaentwicklung zu errechnen. Wie gut sind nun die Ergebnisse dieser Prognosen? Halt sagt da Prof. Bott (13:16) „Niemand prognostiziert, man entwickelt Scenarien! Es wird nichts vorhergesagt!“. Nichts vorhergesagt, Projektionen? Was denn dann?

Unter den anderen Teilnehmern im Studio, so der allgemeine Eindruck, konnte niemand so recht den Unterschied zwischen den beiden Begriffen erkennen. Wenn das IPCC aber, bestätigt durch Prof. Bott, sagt, dass bei weiterem CO2 Ausstoß die Erde mächtig warm wird, dann soll das keine Prognose sein?  Schauen wir nach:

Was sind Prognosen, was sind Szenarien?

Prognose (aus dem griech. „das Vorwissen) ist definiert als eine Vorhersage, also eine Aussage über Ereignisse, Zustände oder Entwicklung in der Zukunft! So schreibt es das in dieser Hinsicht unverdächtige Wikipedia.

Über Szenario steht dort:

Szenario (Plural Szenarios) oder Szenarium (Plural Szenarien) steht übertragen im Allgemeinen für den ausgedachten oder ausgerechneten Entwurf einer Situation oder eines Ablaufes, spezieller für:

* den szenisch gegliederten Entwurf eines Erzählwerks, siehe Handlung (Erzählkunst)

* eine Stufe der Verfilmungsvorbereitung in der Filmkunst: Filmszenario

* die Planung eines möglichen Zustands in der Zukunft, siehe Szenariotechnik

*  die Bewertung einer Softwarearchitektur nach einem bestimmten Verfahren.

„Ausgedacht“ oder „ausgerechnet“ steht da. Doch leider passt keines der obigen Beispiele so richtig auf die IPCC-Szenarien, so wie sie uns präsentiert werden. Wenn es sich also wirklich um Szenarien statt Prognosen handelt, dann passt noch am Besten das erste Beispiel des ..szenisch gegliederten Entwurf eines Erzählwerks.. oder evtl. besser …die Planung eines möglichen Zustands in der Zukunft..“ Was hier stört ist das Wort „Planung“. Evtl. könnte man sagen: „Berechnung eines möglichen Zustands in der Zukunft“.

Nun, falls es das wirklich ist, dann kann man – ohne zuviel Phantasie einzusetzen – schnell eine schier unendliche Zahl von möglichen Zuständen in der Zukunft = Szenarien berechnen: Z.B, ob wir von einem Meteor getroffen werden, im Lotto gewinnen, vom Auto überfahren werden, eine glücklich oder unglückliche Ehe führen werden, etc. etc. (Einen klugen Beitrag zu dieser Frage hat der Physiker Peter Heller geschrieben, sie finden ihn hier, mit Dank an Leser Bombosch)

Oder auch, ob und wie sich die Mitteltemperatur der Erde durch CO2 Emissionen erhöht! Das setzt voraus, dass ich in mein Modell einbaue, dass z.B. das CO2 der große Treiber dieser Erhöhung ist und zusätzlich, dass eine geschlossene Theorie des Klimas zur Hand ist. Die erste Voraussetzung, in Gestalt der Wasserdampfrückkopplung, ist in alle Klimamodelle eingebaut, sie ist sozusagen der Motor, obwohl kein Nachweis für die hier wirkenden Rückkoppelungsmechanismen erbracht wurde (eine Reihe von Autoren haben auf Grund von Messungen das Gegenteil hergeleitet, z.B. Lindzen, Choi, Spenccer, Paltridge, Arking). Und eine in sich geschlossene Theorie des Klimas existiert ebenfalls nicht, dafür sind u.a. die Ungewissheiten und die sich daraus ergebenden Ungenauigkeiten noch immer viel zu groß.

Nicht ohne Grund schreibt daher das IPCC im 3. Bericht TAR:

“ In der Kli­ma­for­schung und -Mo­del­lie­rung soll­ten wir be­ach­ten, daß wir es mit ge­kop­pel­ten nicht­li­ne­a­ren cha­o­ti­schen Sys­te­men zu tun ha­ben und des­we­gen sind Lang­zeit­prog­no­sen von zu­künf­ti­gen Kli­ma­zustän­den nicht mög­lich“ (Third As­sess­ment Re­port, Sec­tion 14.2.2.2)”

Dabei wurde noch nicht mal der Mangel einer geschlossenen Theorie des Klimas erwähnt. Wie gut also sind die Klimamodelle? Hier herrschte große Uneinigkeit unter den Experten:

Bott (11:56) (Limburg hat sich) …lustig gemacht über Modelle: (sie) sind aus strikten und logischen Gleichungssystemen entwickelt, die absolut korrekt sind. 12:44; aus mathematischen Gesetzmäßigkeiten heraus. …sind (jedoch) hochgradig nichtlinear 13:03; deswegen nicht vorhersagbar. Ist aber nicht schlimm. 13:16 Niemand prognostiziert, man entwickelt Szenarien! Es wird nichts vorhergesagt!

Limburg: 11:56 ausführlicher Widerspruch bis 15:25

Bott übersieht, dass die mathematische-logische Korrektheit eines numerischen Modells überhaupt nichts darüber aussagt, ob es in der Realität zutrifft. Sie ist lediglich eine der Voraussetzungen, die unabdingbar erfüllt sein müssen, mehr nicht. Als stellvertretendes Gegenbeispiel seien die unzähligen – mathematisch-formal vollständig korrekten – volkswirtschaftlichen Modelle genannt, die es noch niemals fertig gebracht haben, die komplexen volkswirtschaftlichen Mechanismen befiriedigend zu beschreiben (die Pleite des LTCC-Hedgefond lässt grüßen). Beim Klima ist es nicht anders. Uns ist kein Modell bekannt, das ohne massive Manipulationen die Klimavergangenheit wiedergeben konnte. Selbst mit so „einfachen“ Phänomenen, wie dem El Nino oder der NAO sind Klimamodelle bereits hoffnungslos überfordert. Kein Modell hat es bis heute geschafft, diese Oszillationen genau zu beschreiben oder gar ihren Eintritt vorherzusagen. Und diese Fähigkeit ist sozusagen als die „leichtere Übung“ unter vielen anderen anzusehen. Mit den Wolken, den klimawirksamsten Gebilden überhaupt, sind Modelle hoffnungslos überfordert. Modelle sind für klimatologische Detailprobleme wertvolle Hilfsmittel, für Weitergehendes kann man sie aber nicht ernst nehmen.

Ein Vergleich der Realität mit den „Szenarien“ erlaubt eine einfache Überprüfung der Qualität dieser Modelle. Für Prognosen wie Szenarien sollte gelten, dass je kürzer die Zeit nach der „Vorhersage, desto sicherer die Aussage ist.

Aus dem IPCC AR4 (4. Abschätzungsbericht von 2007) stammt die folgende Grafik.

Abbildung 9 zeigt verschiedene Szenarien (Prognosen?) A“ bis „Constant“ aus dem AR4 von 2007. Der rote Kringel zeigt die letzten 10 Jahre.

Dazu der Klimamodellierer Mojib Latif vom Geomar in Kiel in der Bild-Zeitung vom 20.09.07 Seite 13:

„Die Erwärmung entwickelt sich wie vorhergesagt. Die Modelle wurden auch an vergangenen Klimaänderungen getestet. Es gibt keinen Grund, den Modellen zu misstrauen „

Gemäß unsreren o.g. Ausführungen ist dies eine Übertreibung (um das Wort „Lüge“ zu vermeiden). Modelle haben definitiv noch nie die Klimavergangenheit befriedigend wiedergeben können!

Abbildung 10. Hier wird der errechnete Verlauf (als Durchschnitt der beiden Satellitenmessungen UAH und RSH ) der globalen Mitteltemperatur seit 9 ½ Jahren ab der Jahrtausendwende gezeigt. Dieser Anstieg über grob 10 Jahre, auf das gesamte Jahrhundert hochgerechnet, beträgt 0,1 K pro Jahrhundert. Das IPCC veröffentlicht in seinen „Szenarien“ dagegen einen Jahrhundertanstieg zwischen 2,4 bis 5,3 K pro Jahrhunder [1]. Also das 24 bis 53 fache! Es muss also noch eine Menge passieren, um die IPCC-Prognosen Wirklichkeit werden zu lassen, wir sind gespannt. Damit wäre auch gleich die Frage mitentschieden, ob es nun immer wärmer wird, oder nicht. Einen netten Artikel dazu finden Sie auch hier!

In der Sendung sagte

Professor Bott dazu (25:10) es ist nicht richtig, dass sich die Erde nicht mehr erwärmt hat in den letzten…10-15 Jahren. Das ist einfach absolut falsch: Einwurf Limburg:-…sagt Phil Jones (25:13)…Bott ..wer das sagt, weiß ich nicht.. Limburg: der  IPCC Chef Hauptautor. Keinerlei Erwärmung seit 1995. (sagt Phil Jones) Modelle haben versagt: CO2 steigt an. (18:3) Bott (25:31) WMO sagt 2010 ist das 3. wärmste Jahr seit Aufzeichnung der Wetterdaten. Limburg: (Das sind).. zwei paar Schuhe!

Eine kurze Anmerkung zu der immer wieder verbreiteten Behauptung von den soundso vielen wärmsten Jahren über (beispielsweise) 100 Jahre in den soundsovielten letzten Jahren: in der Tat ergibt die einfache Kombinatorikberechnung eine extrem geringe Wahrscheinlichkeit für diese Häufung – ist also etwas Schreckliches passiert? Keineswegs: Man muss nur ein wenig weiter in der Zeit zurückgehen und sich z.B. die zuverlässige Hohenpeißenberg-Temperaturkurve ansehen. Hier findet man, wenn etwa die 100 Jahre von 1790 bis 1890 betrachtet werden, eine ebenso unwahrscheinliche Häufung von kalten Jahren am Ende dieses Zeitraums. Woran diese Häufungen liegen, kann mit Hilfe der Persistenz von Temperaturreihen erklärt werden (s. beispielsweise Vortrag von Prof. Lüdecke auf der 3. Berliner Klimakonferenz). Wir wollen aber diesen recht technischen und keineswegs einfachen Punkt hier nicht weiter vertiefen.

Der IPCC Leitautor und bekannte Modellierer Kevin Trenberth schrieb im Oktober 11, 2009: email 1255352257 an den Hockeystick Erfinder Michael Mann:

“The fact is that we cannot account for the lack of warming at the moment and it’s a travesty that we can’t.”

„Fakt ist, dass wir für die fehlende Erwärmung (s. Grafik Abb 10)  keine Erklärung haben und es ist ein Hohn das wir sie nicht haben“

Man beachte das Datum. Es war vor einem Jahr im Oktober. Wie gut sind also die Szenarien bzw. Prognosen ohne Vorhersage? Der Leser möge selbst entscheiden.

8. Schuld und Sühne

Die anderen Diskutanten waren sich trotzdem weitgehend einig, dass

(1) eine massive Klimabedrohung existiere,

(2) diese vom Menschen verursacht sei und

(3) dazu noch der Westen die Schuld an dem drohenden Desaster trüge wegen seines erfolgreichen kapitalistischen Wirtschaftsmodells.

Dazu sagten:

Frau Henneberger (15:55) Historische Klimaschuld, THG Ausstoss massiv senken, und Gelder bereitstellen. Herr Fischer: (24:16) Vorbild: Müssen beweisen das Wirtschaftswachstum und CO2 Ausstoß korrelieren; nicht miteinander zusammenhängen.

Herr Limburg: ( 21:10 Schuld und Sühne?), (21:25)   Es geht ums Geld; Edenhofer Zitat, Modelle zeigen Anstieg, in der Realität zeige sich kein Anstieg.

Wie der bisherige Faktencheck Teil I und Teil II erkennen ließ, lässt sich keiner der von den Diskutanten Henneberger, Fischer und Bott erhobenen Vorwürfe bestätigen. Eine „Schuld“ der westlichen Staaten an irgendeinem Klimawandel, festgemacht an der vermuteten Temperatursteigerung durch anthropogenes CO2, lässt sich nicht erkennen. Dann sollte der Richterspruch lauten: Wo keine Schuld, da keine Sühne. Doch darauf wollte sich bisher keiner einlassen, obwohl Otmar Edenhofer, ehemaliger Jesuit, jetzt Chefvolkswirt des PIK und stellvertretender Vorsitzender des IPCC in einem NZZ [2]( Neue Zürcher Zeitung) Interview ganz deutlich erklärte was von seiten der UNO und der sie unterstützenden Kreise eigentlich angestrebt wird:

„Zunächst mal haben wir Industrieländer die Atmosphäre der Weltgemeinschaft quasi enteignet. Aber man muss klar sagen: Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch, fast nichts mehr zu tun.“

Und direkt oder indirekt stimmten ihm alle Gäste zu. Klingt deutlich nach einer Art neuem kommunistischem Manifest. Früher wurde der Mensch ausgebeutet. Als das nicht mehr klappte, weil das Proletariat nach Mallorca flog, anstatt den Herren Marx und Engels endlich den Gefallen zu tun zu verelenden, musste ein neues Opfer her. Nun wird vom Menschen eben die Natur ausgebeutet (wobei wir hier sogar in vielen Teilen zustimmen, denn was die Menschheit mit dem Fischbestand der Weltmeere und dem Gebrauch dieser Meere als Müllkippe macht, kann man schon als „Ausbeutung“ bezeichnen. Leider scheren sich die Klima-Aktivisten keinen Deut um diese realen Ausbeutungsverbrechen, (wie leicht dies derzeit, ist zeigt der Milliarden Dollar Betrug in Dänemark) sie halten es lieber mit imaginären Klimaschädigungen). Am unverblümtesten stimmte die Aktivistin Henneberger zu, verhaltener die Herren Bott und Fischer.

Alle bejahten die Notwendigkeit der unmittelbaren starken Absenkung der weltweiten CO2 Emissionen mit einer starken Vorreiterrolle Deutschlands, wie sie im Energiekonzept der Bundesregierung festgeschrieben worden ist.

Prof.Bott: (36:15) Man redet von 80 % Reduktion um das 2 °C Ziel zu erreichen. An dem Ziel sollten wir wirklich festhalten…(36:29) Limburg : das bringt 2/1000 Grad weniger Erwärmung rechnerisch. Die 80 % Reduktion: Bott: Da ist sooo nicht meine Meinung! Limburg: Wir haben es gerechnet..“

Die Frage war also nicht mehr, ob das CO2 überhaupt etwas bewirkt, sondern, dass wir in jedem Falle absenken müssen, um 80 % oder sogar mehr, wie die Befürworter forderten.

Was bringt dann die deutsche Vorreiterrolle? Limburg behauptet, ca. 2/1000 °C  weniger Erwärmung: Stimmt das?

Wir haben bei EIKE diese Frage mehrfach untersucht. Und je nachdem, ob man den nackten THE ohne Wasserdampfverstärkung berechnet oder mit massiver Wasserdampfverstärkung, wie es das IPCC in allen seinen „Szenarien“ vornimmt, ergeben sich die folgenden Werte .

Tabelle

CO2 Absenkung bezogen auf 1990 in Deutschland

80 % 95 %
Mit IPCC Verstärkung 0,0072 °C 0,0086 °C
Ohne IPCC Verstärkung 0,0017 °C 0,0020 °C

Der vereinfachte Rechenweg dazu kann hier eingesehen werden : „Klassenarbeit für die undefinedObertertia“. Auch wenn man – wie Prof. Bott – von der nicht nachzuweisenden Wasserdampfverstärkung ausgeht, bleiben läppische acht tausendstel Grad oder knapp neun tausendstel Grad Celsius. Wahrlich ein großer Unterschied !

Viel Zeit wurde den Fragen zu den „Erneuerbaren“ gewidmet, sowie der wiederum künstlich erzeugten Angst vor dem Ende der fossilen Energien. Moderator Kähler (30:00) Stichwort regenerative Energien.

Zu den „Erneuerbaren“ haben wir schon viel bei EIKE veröffentlicht. Hier finden Sie die jüngsten Veröffentlichungen im Brief an Bundesumweltminister Röttgen, oder in der Stellungnahme von EIKE zum Energiekonzept hier und hier.

Nicht neu und immer wieder gern gebracht, ist die Annahme, dass die fossilen Energien nicht mehr lange zur Verfügung stehen. Die folgende Auswahl kennzeichnet die Stimmung:

(32:48) Henneberger-sehr viele Studien belegen 100 % Erneuerbare sind möglich. (33:07) Uran ist endliche Ressource (Limburg ..5000 Jahre); Kohle ist endliche Ressource; (Limburg 4000 jahre) Henneberger  (33:13) innerhalb der nächsten 100 Jahre.. Peakoil rückt immer näher.. (Limburg 150 Jahre)….Henneberger  33:26 …Was sie behaupten ist eine komplette Lüge 34:26 Wir in den Indsutrieländern haben die Verantortung für … wir haben den Klimawandel verursacht..

Es ist hier nicht der Platz, auf den von Frau Henneberger verzapften Unsinn im Detail einzugehen. Stellvertretend sei nur die Ressourcenfrage der Kernbrennstoffe genannt, die in den EIKE-News „Die Renaissance der Kernenergie I und II“ detailliert behandelt wude. Hier zeigt sich, dass sogar ohne auf Uran im Meerwasser zuzugreifen, mit den Kernkraftwerken der kommenden Generationen und mit der Transmutationstechnik Kernbrennstoff für mehrere 10.000 Jahre zur Verfügung steht.

Die Kernaussage aller Teilnehmer mit Ausnahme von Limburg lautete dagegen: Weil die fossilen und kerntechnischen Energieressourcen so begrenzt sind, müssen wir schon heute (gezwungen werden) auf diese zu verzichten und voll auf „Erneuerbare“ setzen. Also schon wieder wird eine unbewiesene Behauptung eingesetzt, um damit Angst und mit der Angst Willfährigkeit zu erzeugen. Eine uralte Taktik, wie sie seit Urzeiten angewendet wird, und wie sie leider immer noch funktioniert.

Sicherheitshalber nutzt man dazu gleich drei Ängste,

* einmal die Angst vor der Kernkraft, mit dem schönen Nebeneffekt des Abschaltens von intakten sicheren Kernkraftwerken, die billigen Strom erzeugen, wenn wir ihn brauchen und nicht dann, wenn es dem Wind oder der Sonne passt.

* die Angst vor dem Klimakiller CO2, die genutzt wird, um Kohlekraftwerke – von denen allein China derzeit etwa jede zweite Woche eines eröffnet – als schmutzig zu verteufeln und als Klimakiller dazu, die uns erfolgreich daran hindert, preiswerte und hocheffiziente Kohlekraftwerke zu bauen, welche die in riesigen Mengen vorhandene Kohle billig verstromen. Wer immer noch von „schmutzigen“ Kohlekraftwerken redet, dem sei eine Exkursion ins Kohlekraftwerk Lippendorf bei Leizig empfohlen, um sich kundig zu machen.

* Und dann die Angst vor der mit dem Begriff „Peakoil“ umschriebenen – sehr kurzfristigen – (behaupteten) Erschöpfung von Gas und Ölvorräten (der Club of Rome lässt grüßen), die uns erfolgreich dazu veranlasst, über den indirekten Zwang des unsozialen EEG das ebenso unbrauchbare wie maßlos überteuerte und völlig konkurrenzunfähige Produkt „Ökostrom“ zu kaufen.

Was hat es nun mit den Reichweiten der dieser Ressourcen auf sich.  Die folgende Grafik gibt darüber Auskunft.

Abbildung 11. Reichweite verschiedener Energieträger in Jahren.

Die Abbildung 11 spricht für sich selbst. Deutlich erkennbar die lange Reichweite aller dieser Energieträger, auch wenn hier eine statische Betrachtung angesetzt wurde. Hinzu kommt, dass mit der Suche nach weitere Lagerstätten noch gar nicht so richtig begonnen wurde, wie ständig neue riesige Funde onshore (shale gas) und offshore Öl  & Gas fast im 3 bis 4 Wochentakt beweisen.

Den Teilnehmern der Phönix-Diskussion sei eine wichtige Erkenntnis ins Stammbuch geschrieben, die den meisten Menschen völlig unbekannt zu sein scheint. Wie lange eine Ressource (Energie, wertvolle Metalle usw.) der Menschheit zur Verfügung steht, hängt nicht vom realen Vorkommen dieser Ressource, sondern vom technischen Wissen der Menschheit ab. Die Steinzeit endete nicht damit, dass es keine Steine mehr gab, sondern dass Metalle an ihre Stelle traten.

Bleibt uns Autoren daher nur noch der weihnachtliche Wunsch:

Fürchtet Euch nicht!

Michael Limburg

Prof. Dr. Horst-Joachim Lüdecke


[1] Quelle: SPPI Monthly CO2 Report July 2010 Volume 2 Issue 7

[2] NZZ «Klimapolitik verteilt das Weltvermögen neu»