1

BBC sendet die Ansichten eines Physikers mit Kenntnissen in Nuklearmedizin: Wir sollten vor Strahlung nicht mehr davonlaufen

Was war denn in THREE MILE ISLAND? Da sind keine Todesfälle bekannt.

Und Tschernobyl? Laut neuestem UN-Bericht vom 28. Februar ist die Anzahl der bekannten Todesfälle von 28 Nothelfern bestätigt worden, dazu 15 tödliche Fälle von Schilddrüsenkrebs bei Kindern – die hätten durch Einnahme von Jod-Tabletten vermieden werden können (was man jetzt in Japan tut). Jedenfalls sind die Zahlen minimal im Vergleich zu den 3.800 Toten in BHOPAL im Jahre 1984, Folge eines Austritts von Chemikalien aus einer Pestizid-Fabrik von UNION CARBIDE.

BECUEREL und SIEVERT

    *  BECQUEREL (Bq) nach dem französischen Physiker Henri Becquerel benannt, ist ein Maß für die Radioaktivität.

    * Eine Menge von radioaktivem Material hat die Aktivität von 1Bq, wenn ein Atom pro Sekunde zerfällt – and 1kBq, wenn 1.000 Atome pro Sekunde zerfallen.

    * SIEVERT (Sv) ist ein Maß für die von einer Person aufgenommene Strahlung, benannt nach dem schwedischen Arzt Rolf Sievert

    * Ein milli-SIEVERT (mSv) ist das Tausendstel von 1 SIEVERT

    * Q&A: Health effects of radiation

    * Energy solution or evil curse?

Was ist nun mit der Radioaktivität, die in FUKUSHIMA austrat? Wie steht es damit im Vergleich zu TSCHERNOBYL? Dazu schauen wir uns die gemessenen Strahlungsleistungen an. Die höchste Leistungsrate betreffend alle japanischen Präfekturen ist am 22. 3. um 19.00 Uhr mit 12 kBq pro Quadratmeter (aus Cäsium-137, dem radioaktiven Isotope von Cäsium).

Eine Karte von TSCHERNOBYL aus dem UN-Bericht zeigt je nach Rate schraffierte Regionen von bis zu 3,700 kBq pro qm bis zu Gebieten mit weniger als 37 kBq pro qm, die überhaupt nicht mehr hervorgehoben sind. Daraus ergibt sich, dass der radioaktive Fallout in FUKUSHIMA weniger als 1% im Vergleich mit TSCHERNOBYL beträgt.

Das andere wichtige radioaktive Isotop im Fallout ist Jod, das kann bei Kindern Schilddrüsenkrebs verursachen.

Jod entsteht nur, wenn der Reaktor in Betrieb ist und es zerfällt, wenn der Reaktor abgeschaltet ist (Halbwertzeit 8 Tage). Die alten in FUKUSHIMA gespeicherten Brennstäbe enthalten kein Jod, sind aber noch radioaktiv.

In TSCHERNOBYL dagegen ist der ganze Bestand von Jod und Cäsium bei der ersten Explosion freigesetzt worden. Daher müsste der Jod-Auswurf in FUKUSHIMA viel geringer als 1 %  von TSCHERNOBYL sein – dessen Wirkung noch zusätzlich vermindert wird durch die Jod-Tabletten.

Überreaktion

Unglücklicherweise reagieren Behörden mit übervorsichtigen Maßnahmen – und dadurch eskaliert die öffentliche Besorgnis.

Anlässlich des 16. Jahrestags von TSCHERNOBYL haben die schwedischen Strahlenschutzbehörden in der Stockholmer Tageszeitung DAGENS NYHETER die Überreaktion zugegeben, die durch eine zu niedrige Sicherheitsschwelle entstand. Dadurch wurden 78 % allen Rentierfleischs unnötigerweise mit hohen Kosten vom Verzehr ausgeschlossen.

In Tokio wurde vergangene Woche Wasser in Flaschen an die Mütter von Babys ausgegeben.

Unglücklicherweise scheinen die Japaner den gleichen Fehler zu machen. Am 23. März empfahlen sie, dass Kinder in Tokio kein Leitungswasser trinken sollten. Dort war am Vortag eine Aktivität von 200 Bq pro Liter gemessen worden. Das muss man im richtigen Licht sehen. Die natürliche Radioaktivität in jedem menschlichen Körper beträgt 50 Bq/L – 200 Bq/L richtet wirklich kaum Schaden an.

Während der Zeit des Kalten Krieges hat man die Leute glauben gemacht, dass die Nuklearstrahlung eine außergewöhnliche Gefahr darstelle, die nur von den Schlauköpfen in geheimen militärischen Organisationen verstanden würde.

Um den Eigenschaden der nuklearen Propaganda an der Heimatfront zu begrenzen, wurden noch strengere Regelungen in Kraft gesetzt, um jeglichen Kontakt mit Strahlung so niedrig wie überhaupt zu halten. Dieses Prinzip ist [im englischsprachigen] Raum als ALARA bekannt – As Low As Reasonably Achievable. [sinngemäß: so niedrig wie vernünftigerweise möglich]

Dieser Beschwichtigungsversuch ist heute die Grundlage internationaler Strahlenschutzverordnungen. Ein obere Grenze von 1 mSv pro Jahr zusätzlich zur natürlichen Strahlungsmenge wird empfohlen.

Dieser sehr niedrige Wert ist überhaupt keine Gefahrenschwelle, es ist nur ein kleiner Zusatzbetrag zu der Strahlungsmenge die auf die Durchschnittsbevölkerung wirkt – ein Engländer ist durchschnittlich 2,7 mSv im Jahr ausgesetzt [Anm. d. Ü: ähnlich in Deutschland]. In meinem Buch “Radiation and Reason” lege ich dar, dass nach derzeitiger wissenschaftlicher Erkenntnis eine noch zu verantwortende Gefahrenschwelle bei 100 mSv pro Monat liegen könnte, mit einer lebenszeitbezogenen Grenze von 5.000 mSv, nicht 1 mSv pro Jahr.

Neue Sichtweise

Die Menschen fürchten sich vor Strahlung, weil man sie nicht fühlt. Die Natur hat aber eine Lösung – seit einigen Jahren weiß man, dass sich lebende Zellen ersetzen und auf viele Weisen selbst reparieren, um sich von einer empfangenen Strahlungsdosis zu erholen.

Diese schlauen Mechanismen setzen nach einigen Stunden ein und sind erfolgreich, außer wenn sie überbeansprucht werden – wie in TSCHERNOBYL, wo diejenigen Nothelfer binnen Wochen starben, die Dosen von mehr als 4.000 mSv in wenigen Stunden ausgesetzt waren.

Frage: "Wäre es mir recht, wenn radioaktiver Abfall 100 Meter tief unter meinem eigenen Haus vergraben würde?”

Patienten erhalten in der Bestrahlungsbehandlung Dosen von über 20.000 mSv in gesundes Gewebe in der Umgebung von Tumoren. Dieses Gewebe überlebt nur, weil die Behandlung über mehrere Tage verteilt wird und in dieser Zeit die gesunden Zellen sich erneuern oder reparieren können.

So können sich viele Patienten einer zusätzlichen Lebenszeit erfreuen, sogar wenn viele lebenswichtige Organe Dosen vergleichbar der 20.000-fachen Jahresdosis der oben angeführten international empfohlenen jährlichen Jahresdosis empfangen haben – damit ist dieser Grenzwert unsinnig.

Wir brauchen einen Umbruch in unseren Ansichten zur Strahlung, es muss bei der Bildung und der Öffentlichkeitsarbeit anfangen.

Dann sollten neuen Sicherheitsstandards entworfen werden, die nicht darauf beruhen, wie Strahlung in unserem Leben verhütet werden kann, sondern wie viel wir davon schadlos aufnahmen können – im Bewusstsein der anderen Gefahren um uns herum, wie z. B. Klimawandel und Stromausfälle. Vielleicht brauchen wir auch eine neue Abkürzung als Leitlinie für die Strahlensicherheit – wie wäre es mit "So viel wie relativ sicher aufgenommen werden kann" (As High As Relatively Safe – AHARS)?

Moderne Reaktoren sind besser entworfen als die Reaktoren in FUKUSHIMA – die kommenden werden noch besser werden, aber wir sollten nicht mehr abwarten. Radioaktiver Abfall ist schmutzig, aber die Menge ist gering, besonders wenn wiederaufbereitet wird. Jedenfalls ist es kein unlösbares Problem, wie viele glauben.

Man könnte nun fragen, ob ich einverstanden wäre, wenn radiaktiver Abfall 100 Meter tief unter meinem Haus vergraben würde? Meine Antwort ist: "Ja, warum denn nicht?" Allgemeiner gesagt, wir sollten mit der Flucht vor Strahlung aufhören!"

Autor Wade Allison

Allison ist Physikprofessor an der University of Oxford, Autor von „Radiation and Reason“ (2009) und „Fundamental Physics for Probing and Imaging“ (2006).

Die Übersetzung besorgte Helmut Jäger EIKE




Ansicht eines Kernkraftgegners: Warum wir aus der heutigen und unausgereiften Kernenergie aussteigen sollten .. und warum Klima- und Kernenergieskeptiker vieles gemeinsam haben

Einführung

Zusätzlich zum Erdbeben und dem Tsunami  in Japan hat die Havarie des Kernkraftwerkes Fukushima die Bevölkerung dort hart getroffen. Evakuierung aus der 30 und mehr Kilometerzone, unverkäufliche landwirtschaftliche Produkte, Belieferungsschwierigkeiten der lokalen Supermärkte aus Angst vor Strahlung, Exportschwierigkeiten, etc.. Die weltweite Aufmerksamkeit ist vom eigentlichen Erdbeben abgelenkt. Am KKW haben die Zuständigen nicht viel im Griff und machen einen unbeholfenen  und unvorbereiteten Eindruck. Währenddessen ist es nicht absehbar, ob das Schlimmste überstanden ist oder erst noch bevorsteht.
Wäre dort ein fossiles Kraftwerk mit der reichlich vorhandenen Kohle gebaut worden, ginge es den Menschen dort heute deutlich besser.
Die heutige Kenenergie ist kein Ausdruck technologischen Fortschritts, da sie unausgereift ist. Die Glaubwürdigkeit der Kernindustrie bezüglich Sicherheit ist mittlerweile dramatisch geschrumpft.
Immer deutlicher wird, was Klima- und Kernenergieskeptiker gemeinsam haben: Sie stehen unausgereiften und u.a. vom Staat in den Markt gedrückten Konzepten und Technologien gegenüber, die großen Schaden anrichten.

1. Heutige KKWs haben kaum lösbare Sicherheitsprobleme

Die Terrorgefahr ist hochaktuell. Die Attentäter vom 11. September 2001 hätten sich auch ein KKW als Ziel aussuchen können, was im Erfolgsfalle zu einer dauerhaften großräumigen radioaktiven Verseuchung geführt hätte. Ein kräftiger Beschuss durch Raketen o.ä. würde jederzeit das gleiche bewirken.

Außergewöhnliche Naturereignisse wie Erdbeben, Fluten und Erdrutsche würden viele KKWs überfordern und zu ähnlichen oder schlimmeren Ergebnissen führen wie in Fukushima. Warum sollte man den stets abwiegelnden und beschönigenden Erklärungen der Betreiber noch Glauben schenken?

In anderen Technologiebereichen wie der Automobilindustrie ist es üblich, Sicherheit praktisch und glaubwürdig zu demonstrieren. Warum entfällt das bei den KKWs? Der Umgang mit Sicherheit bei der Kernenergie stellt einen Rückschritt dar, da auf den doch möglichen Nachweis verzichtet wird. Berechnungen und Modellierungen gelten als ausreichend. Das erinnert an die analoge Praxis beim Klimaalarmismus.
Das Restrisiko wird in Wirklichkeit nach der Wirtschaftlichkeit definiert.
Solange die Sicherheit der Kernenergie nicht praktisch und der Öffentlichkeit gegenüber nachvollziehbar demonstriert wird, kann eine ausreichende Sicherheit als nichtexistent gelten. Warum sollten nicht Kohlekraftwerke als Referenz für ein akzeptables Sicherheitsrisiko für die Kernenergie gelten?  Das wäre auch in Übereinstimmung mit dem Fortschrittsbegriff.

Wir Deutschen haben seit Jahrzehnten eine kritische und aktive Öffentlichkeit gegenüber der Kernenergie, während die Japaner eher unkritisch gewesen sind.
Ein derart anfälliges KKW wie in Fukushima wäre höchstwahrscheinlich in Deutschland wegen der kritischen Öffentlichkeit nicht gebaut worden.

2. KKWs sind die wichtigste Voraussetzung zur Verbreitung von Atomwaffen

Die Verbreitung von Atomwaffen gehört zu den größten weltweiten Problemen. Iran, Nordkorea, Pakistan und früher der Irak, u.a. binden dabei die internationale Aufmerksamkeit und Ressourcen. Die vorhandenen oder erstrebten Atomwaffen dieser Länder verhindern langfristig Problemlösungen und sichern menschenverachtende Diktaturen. Was passiert, wenn in Pakistan die Islamisten den atomaren Bereich übernehmen? Das ist inzwischen realistisch geworden.

Ohne die Kernenergie hätten wir diese Probleme mit der Weiterverbreitung von Atomwaffen und ihren Folgen nicht.

3. Sichere KKWs wären zu teuer und schaffen sich daher selber ab

Allein die umfassende Sicherung gegen Terroranschläge dürfte so hohe Kosten verursachen, dass keine KKWs mehr gebaut werden würden. Das derzeit diskutierte Ministeriumspapier4 zur Sicherheitsüberprüfung dürfte bei konsequenter Umsetzung das Aus vieler KKW bedeuten.

4. KKWs werden nicht benötigt, da es ausreichend saubere fossile Energie für einen langfristigen Übergang gibt

Alle gegenwärtigen und zukünftigen Probleme durch die heutige Kernenergie sind vermeidbar, wenn beispielsweise auf die reichlich vorhandene Kohle gesetzt wird. Dabei können problemlos Übergangszeiten von mindestens 100 Jahre überbrückt werden bis es etwas Besseres gibt. Heutige Kohlekraftwerke sind im Gegensatz zu früher sauber, was einen echten Fortschritt darstellt.

Kohle ist auch die vergleichsweise günstigste Energie. Die Erzeugungskosten (1) für Strom aus Kraftwerken, die 2010 fertig wurden, betragen pro kWh: Braunkohle 2,5 ct, Steinkohle 3,3 ct und Kernenergie 3,5 ct. Die Alternativenergien liegen astronomisch darüber.

Bei den unterschiedlichen Energiearten gibt es normalerweise unterschiedliche Anzahl von Opfern durch verschiedene Einflüsse. Dabei werden jetzt Statistiken (2) in die Diskussion gebracht, bei denen die Kohle mit relativ viel angegebenen Opfern (161 Tote pro TWh) oben und die Kernenergie (0,04 Tote pro TWh) ganz unten rangiert. Klimaskeptiker haben jedoch leidvolle Erfahrungen gemacht, wie Statistiken so aufbereitet werden können, dass sie einen gewollten Eindruck hinterlassen. In diesem Fall sind die Angaben für Kohle grob irreführend, denn es sind dort Tote durch Abgase gemeint. Da alle Kohlekraftwerke in Deutschland über eine Rauchgaswäsche verfügen, sind solche Angaben irrelevant.

5. Heutige KKWs sind Folge eines  Versagens der Fachwelt – ähnlich wie beim Klima und anderen Themen

Die Kernenergie ist nicht im freien Markt eingeführt worden wie Autos oder Computer. Sie war das Ergebnis einer Anstrengung gesellschaftlicher Gruppen und des Staates. Die Energiewirtschaft war ursprünglich skeptisch. Politischer Druck hat die Kernenergie durchgesetzt und das erinnert an den Klimaschutz.

Arnolf Baring in der FAZ (3):

… Die Anfänge der deutschen Kernenergie-Debatte

Blickt man zurück auf die Anfänge der Kernenergie-Debatte, stellt man fest, dass in den fünfziger und sechziger Jahren unter Politikern aller Parteien und Publizisten aller Richtungen Euphorie herrschte, ein wahrer Atomenthusiasmus. Diese Euphorie war Ausdruck einer allgemeinen Aufbruchsstimmung im Deutschland der Nachkriegszeit, zumindest in der Bundesrepublik. Wirtschaftswachstum und technologische Innovation waren damals Inbegriffe des gesellschaftlichen Fortschrittsdenkens. Dem entsprach die rückhaltlose Bejahung neuer Technologien, die eine gute, eine bessere Zukunft verhießen. Ausgelöst wurde die Atombegeisterung durch die berühmte "Atoms for Peace"- Rede des amerikanischen Präsidenten Eisenhower vor den Vereinten Nationen 1953. Diese Ausführungen weckten in der Weltöffentlichkeit die Hoffnung, nach dem nuklearen Schrecken von Hiroshima und Nagasaki werde die Kernenergie nunmehr für friedliche Zwecke eingesetzt. Skepsis gegenüber der Kernenergie wurde in diesen frühen Jahren ausgerechnet von jenen geäußert, bei denen man es am wenigsten erwarten würde: von der Energiewirtschaft. Zu einer Zeit, in der die fossilen Energieträger im Übermaß zur Verfügung standen, beugten sich die Erzeugergesellschaften nur zögerlich dem politischen Druck, in die teure und komplexe neue Energietechnik zu investieren. Interessanterweise wurden die Risiken der Kernenergie gerade in Betreiberkreisen zu jener Zeit noch recht offenherzig diskutiert – etwa die gesundheitsschädlichen Wirkungen der radioaktiven Strahlungen oder das Problem der Entsorgung radioaktiver Abfälle. Bis in die sechziger Jahre hinein fanden solche kritischen Stimmen jedoch keinen bedeutsamen öffentlichen Widerhall. …

Aus der Fachwelt gab es bis Ende der 70er kaum Kritik an der Sicherheit der Kernenergie. Sie war bereit das große Restrisiko zu verteidigen oder durch Schweigen zu tolerieren. Darin liegt das Versagen der Fachwelt.
So schrieb die Kernindustrie damals in der Broschüre „66 Fragen, 66 Antworten“:  „Ernsthafte Wissenschaftler haben sich nicht auf die Seite der Gegner gestellt“. Zehn Jahre später war das schon anders. Die Klimaskeptiker machen inzwischen eine analoge ähnliche Erfahrung.

6. Klima- und Kernkraftskeptiker sind natürliche Verbündete

Beides sind soziale Bewegungen und haben den gleichen Gegner: den Klimaalarmismus. Klimaskeptiker sehen darin nicht nur ein falsches wissenschaftliches Konzept für die Zukunft. Wenn es nur um Wissenschaft ginge, dann wäre die Auseinandersetzung eine rein akademische, wie es sie in der Wissenschaftsgeschichte immer wieder gibt. Klimaskeptiker sehen darin jedoch vielmehr eine Fehlorientierung der Gesellschaft, die dabei ist großen Schaden zu nehmen: in Wirtschaft, Politik/Demokratie und Wissenschaft. Der Klimaalarmismus zeigt fundamentalistische Tendenzen. Kernkraftskeptiker sehen die Sicherheit großräumig gefährdet und sind mit den Argumenten des Klimaalarmismus konfrontiert, der dabei ist weltweit KKWs wieder durchzusetzen. Das Hauptargument dabei ist die Reduktion menschengemachter Treibhausgase wie CO2 zur Vermeidung einer vorausgesagten Klimakatastrophe.

Bisher gibt es zwischen diesen beiden Bewegungen eine große Distanz. Viele Klimaskeptiker meinen, dass die Kernkraftgegner fortschrittsfeindlich sind und viele von ihnen gesellschaftlich radikale Ziele verfolgen. Die meisten Kernkraftskeptiker selbst jedoch würden dieses vehement bestreiten.
Die allermeisten Kernkraftgegner meinen, dass sie ihre Ziele auf Abschaltung der KKWs mit dem Klimaschutz und den Erneuerbaren Energien erreichen müssen. Sie haben noch nicht erkannt, dass sie die falschen Partner haben.

Zwischen diesen beiden Bewegungen gibt es bisher so gut wie keine Kontakte. In einer Zusammenarbeit würden jedoch riesige Chancen für beide Seiten liegen.

7. Wie wird die Kernenergie verteidigt?

Klimaschutz ist inzwischen das zentrale Argument zum Bau von KKWs weltweit geworden. Die früheren Argumente wie „Die Lichter gehen aus!“ und für saubere Luft gegen schmutzige fossile Energien sind längst überholt oder waren nie zutreffend.

Desweiteren wird mit Ressourcenschutz und nur geringen Gefahren argumentiert. Fukushima sei bald vorbei und dann wenig dramatisch ausgegangen. Gerade wir in Deutschland seien hysterisch und voller Zukunfts- und Fortschrittsängste. Die Medien wären voller Unwahrheiten in wesentlichen Punkten. Das mag zur subjektiv empfundenen Entspannung beitragen, begründet aber nicht die Notwendigkeit von Kernenergie.

Über Kernenergie wird von ihren Verteidigern in der Regel nicht ganzheitlich diskutiert. Das Restrisiko durch überraschend große Naturereignisse (Erdbeben, Fluten)  wird als gering eingeschätzt. Fukushima ist jedoch  ein Beispiel, dass die Betreiber nicht mit einem Ereignis dieser Größenordnung gerechnet hatten. Ebenfalls werden der Terrorismus und Kriegsereignisse wenig einbezogen. Auch die Verbreitung von Atomwaffen an Schurkenstaaten spielt bei den Betrachtungen der Verteidiger kaum eine Rolle.

Zur ganzheitlichen Betrachtung gehören auch die Bewertung  von Alternativen und die Frage, ob die heutige Kernenergie angesichts des Restrisikos überhaupt gebraucht wird. Auch hier gibt es meiner Beobachtung nach eine Vermeidungshaltung in der Diskussion.
Die fossilen Energien erleben gerade einen Aufschwung. Neue Fördermöglichkeiten bei Schiefergas könnten einen Trend auslösen und auch die Kernenergie preislich stark unter Druck setzen. Vor allem, wenn Nachrüstungen angeordnet werden. Es gibt eine Abschätzung, wonach die USA über die meisten Energiereserven weltweit verfügen und sogar zum Nettoexporteur werden könnten. Es ist derzeit viel in Bewegung bei den fossilen Energien.

8. Für die Kernenergie – zum Schaden der Klimaskepsis und des Fortschritts

Inzwischen sind weltweit einige bekannte Ökoaktivisten von ihrer Kritik an der Kernenergie abgerückt und sehen nun die Klimazukunft bei der Kernenergie besser aufgehoben, als dagegen zu sein.

Viele Klimaskeptiker, die die Kernenergie befürworten, sehen sich jetzt bestätigt. Wenn sogar bekannte Ökoaktivisten die Kernenergie befürworten, dann muss es ein starkes Argument für sie sein. Wird jedoch nicht eher umgekehrt ein Schuh daraus?
Liegt es nicht nahe, dass es Leute sind, die aus Sicht der Klimaskepsis schon einmal grob daneben liegen und nur wegen dem Kimaalarmismus nun für die Kernenergie sind? Folgt nicht eher aus dem einen Irrtum der nächste? Erleben wir bald gemeinsame Resolutionen und Demos von kernenergiebefürwortenden Klimaskeptikern und Klimaalarmisten? Sind diese vielleicht sogar auch natürliche Verbündete?

Jedenfalls spielte und spielt die unausgereifte Kernenergie den Wachstums- und Fortschrittskritikern seit 40 Jahren in die Hände. Und viele Freunde des Wachstums und des Fortschritts spielen den unfreiwilligen nützlichen Idioten für die Kernenergie und deren Gegner gleichzeitig. Es ist nicht fortschrittlich für die Verbreitung einer unausgereiften Technologie zu sein. Im Gegenteil.

9. Multiples Versagen der Fachwelt

In den letzten Jahrzehnten hat es ein mehrfaches Versagen der verschiedenen Fachwelten gegeben. Dies sind die Themen: Malaria/DDT-Verbot (5), Kernenergie, Waldsterben (6), Klima, alternative Energien.

Selbst da, wo das Irren fast der kompletten Fachwelten für jeden heute offensichtlich ist, gab es kaum Aufarbeitungen. Das betrifft Malaria und das DDT-Verbot (100.000.000 Tote seit dem Verbot) sowie das Waldsterben.
Während die UNO ohne großes Aufsehen DDT bei der Malariabekämpfung mit großem Erfolg seit 2006 wieder einsetzt, blieb die Diskussion über diesen größten „Kollateralschaden“ aller Zeiten weitgehend aus. Das Waldsterben hatte nie stattgefunden und aus eingeweihten Kreisen ist manchmal zu hören, dass dieses Thema peinlich sei und man es nicht diskutieren möchte.
Kernenergie, Klima und alternative Energien befinden sich im noch nicht abgeschlossenen Erkenntnisprozess der Gesellschaften. Ein Versagen der Fachwelten ist daher noch nicht für jeden sichtbar.
Eine Diskussion über dieses multiple Versagen der Fachwelten soll hiermit angeregt werden.

10. Wie kann es weitergehen?

Es haben sich inzwischen viele ungelöste Probleme bei Energie und Klima angehäuft. Gegensätzliches steht gegenüber.: Klimaschutz oder nicht, alternative Energien/KKWs/Kohle/Gas/Öl. Das Thema Klima spielt hierbei eine Schlüsselrolle.

Vielleicht ist es jetzt an der Zeit die Sprachlosigkeit, Informationsblockaden und die teilweise Diskursunfähigkeit der Lager zu überwinden.

Debatte bitte!

28.03.2011

Klaus Öllerer KlimaNotizen.de, EIKE-Gründungsmitglied

1) Stromerzeugungskosten
http://www.energie-verstehen.de/Energieportal/Navigation/Energieversorgung/stromerzeugung,did=249676.html

2) Tote nach Energiearten
Bei Kohle werden Abgastote gezählt. In Deutschland haben jedoch alle Kohlekraftwerke eine Rauchgaswäsche.
http://nextbigfuture.com/2011/03/deaths-per-twh-by-energy-source.html

3) Die Anfänge der deutschen Kernenergie-Debatte
http://www.faz.net/…

4) Internes Papier – Regierung erwägt strengere Vorschriften für AKW
http://www.spiegel.de/wissenschaft/technik/0,1518,751741,00.html

5) Malaria und DDT-Verbot
Das Verbot von DDT tötet Menschen
http://www.novo-magazin.de/50/novo5052.htm
DDT-Einsatz reduziert Malaria-Todesfälle in Südafrika um 73 Prozent
http://www.achgut.com/…

6) Waldsterben, welches nie existierte
Und ewig sterben die Wälder
http://hallolinden-db.de/cgi-bin/baseportal.pl?htx=/hallolinden-db.de/Klima/Klima&localparams=1&db=Klima&cmd=list&range=0,5000&Datum>-10000&cmd=all&Id=38

Related Files




Die Klima-Klempner: Geo-Engineering

In der letzten Ausgabe des LAUFPASS[1] wurden erste gesellschaftliche und politische Aspekte von Geo-Engineering aufgezeigt. Ergänzend werden in Folgendem nun die naturwissenschaftlichen Gesichtspunkte der einzelnen Geo-Projekte dargestellt und bewertet.

Definition WIKIPEDIA[2]: “Der Begriff  Geo-Engineering bezeichnet technische Eingriffe in geochemische oder biogeochemische Kreisläufe, etwa um die Klimaerwärmung oder die Versauerung der Meere zu bremsen.“

Mittlerweile gibt es eine umfangreiche Literatur zu dem Thema, mit einem genau so umfangreichen Katalog vorgeschlagener Maßnahmen, von denen die wesentlichen hier vorgestellt und bewertet werden sollen.

Der Heiz-Strahler Sonne …

… erwärmt unsere Erde. Der weit überwiegende Teil der Sonnen-Strahlung erreicht auf direktem und indirektem Wege (Streuung) die Erdoberfläche. Diese erwärmt sich, und gibt fühlbare Wärme (Wärmeleitung) an die bodennahen Schichten der Troposphäre ab. Die Abkühlung erfolgt auf dem gleichen Wege  – durch Wärme-Leitung und auch Abstrahlung.

Nun hat die Natur einige Möglichkeiten auf Lager, die an der Erdoberfläche ankommende Strahlungs-Energie zu verändern: Variationen der Sonnen-Aktivität, Staubeintrag in die Atmosphäre durch Vulkane und Sandstürme, in selteneren Fällen Staub- und Wassereintrag durch Meteor-Einschläge, langzeitige Veränderungen der globalen Bewölkung, ….

Was die Natur vormacht, das glaubt nun auch der Mensch mit Geo-Engineering zu beherrschen, um aktiv in die Gestaltung unseres Klimas einzugreifen. Das Motto dazu lautet neuerdings :  “Wir müssen durch Geo-Egineering unser Klima retten, um der anthropogenen CO2-Erderwärmung gegen zu steuern!“

Schwefel+Staub in die Atmosphäre

Aus der älteren und jüngeren Klima-Geschichte[3] ist bekannt, daß von Vulkanen in die Stratosphäre geblasene Aerosole und Gase dort zu Veränderungen des Strahlungs- und Energiehaushaltes führen. Eine wesentliche Rolle spielt dabei auch Schwefeldioxid, das durch Oxidation in Aerosole, nämlich Sulfate[4] umgewandelt wird. Ein Teil der eingestrahlten Sonnenenergie wird durch diese stratosphärischen Aerosole reflektiert, ein anderer Teil wird absorbiert. Letzteres führt zu einer Erwärmung der Stratosphäre, beides zusammen zu einer Abkühlung der bodennahen Luftschichten (Troposphäre) aufgrund dort erfolgender Strahlungs-Minderung.

Wahrscheinlich war es der Chemiker Paul Crutzen[5], der als erster einen ausführlichen Ansatz für entsprechende menschliche Eingriffe publizierte: Schwefel-Dioxid oder Sulfate in die hohe Atmosphäre einbringen. Dort sollen sich –  analog zum Vulkanismus  – zusammen mit Wassermolekülen viele feine Tröpfchen und letztlich ein dünne globale Wolke bilden, die Sonnen-Strahlung abfängt (Reflektion und Absorption).

Daraus entwickelte die US-Firma Intellectual Ventures[6] neuerdings die Idee, mit Hilfe eines 25 km langen, ballon-getragenen Schlauches Schwefel nach oben zu pumpen, oder Schornsteine von schwefel-emittierenden Fabriken unmittelbar mit Schläuchen in die Stratosphäre zu verlängern.

Noch weiter gehende Ideen entwickelte der Meteorologe Alan Robock[7] von der amerikanischen Rutgers University: „Wir haben noch keine solche Technologie, aber die Leute denken über eine Flugzeug-Flotte nach, die regelmäßig in die untere Stratosphäre fliegt, um dort das Gas auszusprühen. Eine andere Idee wären Ballons, die mit Helium und Schwefeldioxid gefüllt sind und die man dann oben einfach platzen lässt. Möglich wäre vielleicht auch Artillerie: also Geschosse, die Projektile in die Stratosphäre jagen. Oder man baut einen Turm am Äquator, 20 Kilometer hoch, von dem aus man das Gas hinaussprüht.“??

Doch selbst Robock bleibt kritisch (a.a.O.) : “

Wenn man eine Stratosphären-Wolke geschaffen hat, weiß man noch lange nicht, wie sich diese Maßnahme wirklich auswirkt…“ und weiter “… Diese Maßnahme ist also sehr gefährlich, denn man kann sie nur prüfen, wenn man sie schon zur Anwendung gebracht hat.“??

Das allerdings sehen auch andere Wissenschaftler[8] so: „Der Plan ist beängstigend, weil er unerwartete Folgen haben kann.“

Schirme + Spiegel im All …

…  sind eine andere Variante, in der oberen Atmosphäre Strahlung abzufangen.

So will der Astronom Roger Angel von der University of Arizona im Weltall einen Sonnenschirm aufspannen, genauer gesagt eigentlich 16 Billionen Sonnenschirm’chen. Sein Plan sieht vor, daß an genau dem Punkt zwischen Sonne und Erde, an dem sich die Anziehungskraft der beiden Himmelskörper gegenseitig aufhebt (dem so genannten Lagrange-Punkt), eine Armada von hauchdünnen Siliziumscheiben schwebt (Abbildung1). Die 60 Zentimeter breiten Plättchen sollen in Päckchen zu je einer Million mit zwei Kilometer langen Spezialkanonen ins All geschossen werden. Um die beabsichtigte Schattenwirkung zu erzielen, müssten 20 solcher Kanonen im Abstand von fünf Minuten zehn Jahre lang solche Platten-Container ins All feuern. Auch der verstorbene Physiker Edward Teller, der „Vater der Wasserstoffbombe“, hatte schon die Idee[9], Millionen kleiner Aluminiumballons in der Stratosphäre schweben zu lassen, um Sonnenstrahlung zu reflektieren und abzuschirmen.

Kritiker sind entsetzt[10]: “Mit etwas so entscheidendem und wenig erforschten wie der Sonnenstrahlung herumzuspielen, könnte dramatische und unvorhergesehene Konsequenzen für das Klima auf der Erde haben, warnen sie“.

 

Abbildung 1:  Spiegel im Weltraum

http://www.capital.de/politik/:Interaktive-Infografik–Geoengineering-Weltklima-selbstgemacht/100027692.html

Reflektorbälle im Meer

Was oben gehen soll, das kann man vielleicht auch unten machen:

Andere Forscher[11] schlugen analog zu den stratosphärischen Experimenten schon Mitte der 1960-er Jahre vor, die tropischen Ozeane mit High-Tech-Müll zu pflastern: Milliarden von reflektierenden Objekten, Tischtennisbällen vergleichbar, sollten die Energie der Sonnenstrahlen von der Wasseroberfläche ins All zurückschicken.

Vielerlei Problemen treten dabei auf, denn auch Kunststoffe altern und veralgen[12]: “Schwimmende Plastikteile werden von den unterschiedlichsten Meeresorganismen besiedelt, die auf diese Weise über weite Strecken in neue Habitate einwandern und unter Umständen als Neozoen bzw. Neophyten erheblichen Schaden anrichten können.“ Von besonderem Interesse bei der hier erörterten Geo-Egineering-Variante ist ein physikalischer Effekt: Die sich derart verändernden Plastik-Oberflächen werden physikalisch schwarz, reflektieren weniger und absorbieren mehr Strahlung. Dann tritt nach einiger Zeit das Gegenteil von dem ein, was beabsichtig ist: Erderwärmung statt Abkühlung!

Versprühen von Meerwasser in die Atmosphäre

Eine große Flotte von Glasfaserbooten[13] soll auf den Ozeanen mit Hilfe von wind-getriebenen Turbinen kontinuierlich Meereswasser in die Atmosphäre sprühen (Abbildung 2). Ziel dabei: Es werden für die Beschleunigung und Verstärkung von Wolkenbildung Milliarden von Kondensations-Kernen (Salz) sowie Wasser und damit potentiell auch Wasserdampf in die Troposphäre geblasen. Wolken in der unteren Atmosphäre wirken abkühlend auf die unteren Luftschichten , im Wesentlichen aufgrund der Reflektion von Sonnenstrahlung an der Wolken-Oberfläche. Auch so soll einer weiteren Erderwärmung entgegen gewirkt werden.

Unbekannt und damit auch unkalkulierbar sind dabei die Auswirkungen auf das Wetter. Die Methode erinnert an die jahrzehnte-langen Versuche der Wetter-Beeinflussung, insbesondere der “Regenmacher“. Alle diese Versuche wurden allerdings wegen weitgehender Erfolglosigkeit weltweit eingestellt. Einer der letzten Versuche dieser Art wurde von den Chinesen anläßlich der Olympischen Spiele 2008 durchgeführt  – ohne erkennbare Wirkung.

Wenn nun jedoch in einem solchen wie oben geplanten “Groß-Versuch“ über riesige Flächen der Ozeane derart in den atmosphärischen Wasserhaushalt eingegriffen wird, so erscheinen unkalkulierbare Folgen für das Wetter möglich.

 

Abbildung 2 : Meerwasser-Versprühung

http://www.capital.de/politik/:Interaktive-Infografik–Geoengineering-Weltklima-selbstgemacht/100027692.html

Ozean-Oberfläche aufwirbeln

Konzept und Ziel eines solchen globalen Experimentes werden im Wissenschaftsteil der BZ[14] anhand einer Publikation im Fachmagazin Nature so beschrieben:

“Der Chemiker James Lovelock von der University of Oxford und der Astrophysiker Christopher Rapley, Direktor des Londoner Science Museum, wollen das Klima retten, indem sie die Ozeane dazu anregen, mehr CO2 aufzunehmen. Ihr Konzept erläutern sie im Fachmagazin Nature. Lovelock und Rapley planen, zehn Meter dicke Röhren im Ozean zu installieren, die von Schwimmkörpern an der Oberfläche gehalten werden und hundert bis zweihundert Meter senkrecht in die Tiefe reichen. Am oberen Ende jeder Röhre pumpt ein Klappventil, das von der Wellenenergie des Meeres angetrieben wird, das Wasser heraus. Auf diese Weise soll nährstoffreiches Wasser aus der Tiefe an die Oberfläche gepumpt werden. Tiefere Wasserschichten enthalten nämlich Phosphate, Nitrate und Silikate – alles Substanzen, die an der Oberfläche fehlen. Das nach oben gepumpte Wasser löst dort wie ein Dünger eine Algenblüte aus, hoffen die Forscher. Algen verbrauchen beim Wachsen das Kohlendioxid der Luft. Wenn sie absterben, sinkt auch der von ihnen aufgenommene Kohlenstoff mit in die Tiefe. Auf diese Weise könnten der Atmosphäre schon bald große Mengen CO2 entzogen werden, schreiben Lovelock und Rapley.“

Aber es gibt auch Kritik (a.a.O.): “Andere Wissenschaftler bezweifeln allerdings, dass die Methode tatsächlich funktionieren würde. Zu ihnen gehört der Meeresbiologe Ulf Riebesell vom Kieler Leibniz-Institut für Meeresforschung IFM-Geomar. Zwar räumt er ein, dass die tieferen Wasserschichten jene Nährstoffe enthielten, die an der Oberfläche zu einer Algenblüte führen könnten. Aber in dem Wasser, das nach oben gepumpt wird, befindet sich auch gelöstes Kohlendioxid, erläutert er. Gelangt das Wasser an die Oberfläche, dann entweicht das Klimagas in die Luft. Nach Ansicht Riebesells würde die Methode von Lovelock und Rapley allerdings den natürlichen Kohlenstoff-Kreislauf nicht durchbrechen, sondern ihn nur beschleunigen: Die absterbenden Algen bringen den Kohlenstoff in die Tiefe, dort werden die Organismen zersetzt, das entstehende CO2 löst sich, wird nach oben gepumpt und so weiter. ’Das ist ein Nullsummenspiel’, sagt der Biologe.“

Gedanklich ein ähnlicher Ansatz ist die

Meeres-Düngung zwecks Algen-Wachstum

An der Grenzfläche zwischen Atmosphäre und Ozeanen (“Meeres-Oberfläche“) wird u.a. ständig CO2 ausgetauscht  – in beiden Richtungen. Schiffe streuen nun Mineralien in die oberen Schichten der Meere, zum Beispiel Eisen-Sulfat. Diese regen das Algenwachstum an, was zu einem Entzug von CO2 aus dem Wasser und letztlich auch aus der Atmosphäre führt.

Nach bio-chemische Umsetzungen nehmen die Algen das CO2 als Sediment mit auf den Meeresgrund, und sollen auf diesem Wege CO2 dem natürlichen Kreislauf entziehen, um den Treibhaus-Effekt zu vermindern.

Ein solches Experiment namens “LOHAFEX“ wurde vom Alfred-Wegener-Institut (AWI) durchgeführt. Dazu berichtet das AWI[15] : “Das LOHAFEX-Team … war von Januar bis März 2009 auf dem Forschungsschiff POLARSTERN unterwegs und verwendete zehn Tonnen gelöstes Eisensulfat, um eine Fläche von 300 km2 im Zentrum eines Ozeanwirbels zu düngen. Binnen zwei Wochen entstand eine Phytoplanktonblüte im eisenreichen Wasser, die danach  –  trotz einer weiteren Düngung  – nicht mehr zunahm.“ … und weiter a.a.O.: “Die Biomassen von anderen großen Phytoplanktonarten, die in Küstengewässern häufig Blüten erzeugen,  wurden durch den Wegfraß der großen Zooplanktonbestände, vor allem der Ruderfußkrebse, in Schach gehalten. … Daher kann angenommen werden, daß die Eisendüngung unter den angegebenen Bedingungen nicht zur erhöhten Einlagerung von Kohlenstoff im Ozean führt.“

Die Nordseezeitung[16] brachte es auf den Punkt: “Als Waffe im Kampf gegen den Klimawandel dürfte der Eisendünger damit wohl ausgedient haben.“

Ohnehin hatte es im Vorfeld des LOHAFEX-Experimente erhebliche Proteste von Umwelt-Organisationen gegeben, die dazu führten, daß das Bundes-Umwelt-Ministerium[17] in einer Presse-Mitteilung noch während des laufenden Experimentes die Genehmigung durch das BMBF massiv kritisierte: International ist der Ansatz der Meeresdüngung höchst umstritten, da die Wirksamkeit der Methode fraglich ist. So weisen sowohl der Interstaatliche Rat zum Klimawandel (IPCC) als auch der Wissenschaftliche Beirat für Globale Umweltveränderungen (WBGU), das gemeinsame wissenschaftliche Beratungsgremium des BMBF und des BMU, in ihren Gutachten wiederholt darauf hin, dass die Risiken der Meeresdüngung im Hinblick auf die mittelbaren Folgen für die Meeresökosysteme schwer abzuschätzen sind und lehnen diese daher ab. Entgegen den Angaben des BMBF, dass das Projekt reine Grundlagenforschung darstelle, wurde der Projektleiter des AWI in einem „Spiegel“-Interview damit zitiert, dass die Einwände gegen die Eisendüngung “weggefegt“ würden, wenn die Ohnmacht gegenüber dem Klimawandel sichtbar würde.

Damit setzt sich der verantwortliche Projektleiter des AWI für dieses Experiment in einen klaren Widerspruch zum Bundesforschungsministerium. Das Plädoyer des AWI-Projektleiters zur Meeresdüngung hat maßgeblich zu der kritischen internationalen Reaktion beigetragen. Auch in indischen Medien wird das Projekt teilweise als Einstieg in einen lukrativen Milliardenmarkt gesehen. Für das BMU ist es ein fataler Ansatz, den Klimawandel durch ein Herumdoktern an unseren Meeresökosystemen aufhalten zu wollen. Dieses unwissenschaftliche Denken hat unmittelbar in die Klimakrise geführt und taugt nicht zu ihrer Lösung. Einig sind sich BMU und BMBF, daß Eisendüngung kein Instrument der Klimapolitik werden darf. Hier gilt es nun, diese Grundhaltung auch dem AWI zu vermitteln und nicht in Indien oder anderswo auf der Welt die Vision eines Zukunftsmarktes „Meeresdüngung“ aufkommen zu lassen“… das war’s dann wohl mit ’Kohlenstoff gab ich für Eisen’.

Kalkung der Meere

Neuerdings gibt es eine neue Variante der Klimahysterie: Die “Versauerung der Meere“.

Der Säuregrad von Wasser wird mit dem pH-Wert definiert, wobei es sich um den negativen Exponenten der Wasserstoff-Ionen-Konzentration handelt: pH 6,9 und weniger ist “sauer“, 7 ist neutral und ab 7,1 basisch. Nun heißt es neuerdings in der wissenschaftlichen Literatur[18] und auch in allen Medien : “Die Ozeane werden immer sauerer …. So ist der pH-Wert im Oberflächen(!)-Ozean seit Beginn der industriellen Revolution um 0,1 Einheiten gefallen …“ –  und zwar angeblich von 8.2 auf 8.1 (Abb.2 a.a.O.).

Dazu muß man wissen:

(1)  Von einem ganzzahligen pH-Wert zum nächsten ändert sich die H-Ionen-Konzentration um eine Zehnerpotenz, eine Zehntel Einheit ist also keine dramatische Änderung,

(2)  Ob pH 8,2 oder 8,1  –  von “sauer“ kann unter chemischen Aspekten überhaupt keine Rede sein, denn wir liegen in jedem Falle um mehr als eine Zehnerpotenz oberhalb von “neutral“ (pH7) im basischen Bereich,

(3)  Es ist meist ausdrücklich von den Ozean-Oberflächen die Rede, was sich in Tiefen von mehreren Kilometern ändert, das ist nahezu unbekannt,

(4)  Die Ozeane überdecken rund 350 Mill. km2 der Erde, und sind im Mittel ca. 4 km tief. So war es früher wie heute sowohl an der Oberfläche als auch in der Tiefe nur stichprobenartig möglich, diesen pH-Wert zu messen. Da mutet es schon mehr als fragwürdig an, wenn nun neuerdings pauschal über eine “Ozean-Versauerung“ spekuliert wird.

(5)  Der pH-Wert der Meere differierte schon immer je nach Breitengrad ganz erheblich, und zwar zwischen 7,8 und 8,2[19]. In den Nordmeeren ist der pH-Wert am höchsten, dort wird CO2 absorbiert: hohe Löslichkeit im kalten Wasser. Am Äquator ist er am niedrigsten, dort wird CO2 emittiert: geringere Löslichkeit im warmen Wasser. Die Meeresströme tragen ebenfalls zur Ungleichverteilung bei.

Zusammenfassend darf man den Physik-Professor Horst-Joachim Lüdecke[20] zitieren: “Die Werte <7 kennzeichnen den saueren und die Werte >7 den basischen Bereich. Meerwasser ist mit seinem Wert von 7.9-8,25 basisch, von ’Versauerung’ zu reden ist daher blanker Unsinn.“

Trotzalledem:  Eine neue Variante von Klima-Ängsten wird geschürt.

D a z u  “muß“ angeblich sofort gehandelt werden. Und das will man auch unverzüglich, indem man die Ozeane kalkt:

Kalk (Kalzium-Oxid) soll in die Ozeane eingebracht werden, wo daraus in Verbindung mit Wasser Kalziumhydroxid (Löschkalk) entsteht. Dieser wiederum verbindet sich mit dem im Wasser gelösten Kohlendioxid und bildet Karbonatsalze, die letztendlich als Sediment zum Meeresgrund absinken. Wie sich das alles auf die angeblich bedrohte Fauna und Flora in den Meeren auswirkt, das ist allenfalls hypothetisch bedacht. Möglicherweise fängt mit der Kalkung die Bedrohung erst an.

Dazu schreibt der FOCUS[21] : “So zeigten Berechnungen einiger US-Forscher, welche Anstrengungen die Kalkung der Ozeane erfordern würde, die der Londoner Tim Kruger vorschlägt. Dafür würden 1000 bis 1500 Kubikkilometer Kalkstein benötigt, was ungefähr dem Volumen des Mars-Mondes Deimos entspricht oder auf der Erde den Dolomiten. Um diese Menge abzubauen, müßten 333 000 mittelgroße Kalksteinbrüche ein Jahr lang arbeiten. Blieben 50 Jahre Zeit, um die Aufgabe zu vollenden, brauche es immer noch 6700 Steinbrüche. Dies sei nicht im Entferntesten möglich, schlußfolgern sie, zumal viel Kalkstein auch für andere Zwecke gebraucht werde.“

 

CO2 unter die Erde : CCS

Die meisten Geo-Klima-Experimente sind noch Theorie, aber eines wird bereit erprobt: CO2 abscheiden, komprimieren, verflüssigen und in die Erde zu verpressen. Dieses Verfahren wird als “Carbon Capture and Storage  – CCS“ bezeichnet. Dazu werden geeignete geologische Schichten (“Formationen“) unter der Erde gesucht  –  für  sogenannte “CO2-Endlager“. Der Übergang zwischen gasförmigem und flüssigem CO2 (“kritischer Punkt“)[22] liegt bei rund 30°C + 74bar. Um auf der sicheren Seite zu ein, soll bei einem Druck von bis zu 250 bar verpreßt werden. Das birgt Risiken:

Durch den hohen Druck kann es über dem CO2-Lager zu Verwerfungen, Rissen, Sickerungen, Ausgasungen … kommen. Bei Ausgasungen  gibt es erhebliche Gefahren. Zunächst: Bei Konzentrationen unter 0,1% (1000 ppm) und folglich auch dem derzeitigen atmosphärischen Wert von knapp 400 ppm (0,04%) gibt es keinerlei gesundheitlich Gefahren. Das traf auch in den vergangenen 800.000 Jahren zu, als die CO2-Konzentration zwischen 180 und 280 ppm schwankte, wobei im Auf+Ab der Eis- und Warmzeiten CO2 der Temperatur folgte[23], und nicht – wie oft behauptet  –  umgekehrt.

Die ausgeatmete Luft enthält übrigens 4000 ppm (0,4%) CO2[24], folglich die 10-fache CO2-Konzentration der eingeatmeten Luft! Gesundheitliche Probleme entstehen erst bei dem etwa 100- bis 1000-fachen der eingeatmeten atmosphärischen CO2-Konzentration:

“ Eine Anreicherung in der Luft von 5 % führt zur Bewußtlosigkeit, ein Anteil von 8 % innerhalb kurzer Zeit zum Tode.“[25] Es gibt andererseits Hinweise[26], daß bei langzeitiger Einwirkung bereits unter 10.000 ppm (unter 1%) Probleme für Lebewesen eintreten können.

An anderer Stelle in der Fachliteratur[27] heißt es dagegen: Kohlendioxid ist ein nicht brennbares und nicht explosives Gas, das schwerer als Luft ist (Anm.: ca. 1,5-mal), in höheren Konzentrationen die menschliche Gesundheit gefährdet und erst bei Luft-Gehalten von 20% und mehr zum Tode führt“. Letztlich geht es darum: Alle diese Konzentrationen können erreicht werden, wenn CO2 aus Endlagern unkontrolliert an die Erdoberfläche austritt und sich bei wind-schwachen Wetterlagen in Tälern und Mulden sammelt:“… dann allerdings besteht für ganze Bevölkerungen die Gefahr durch Erstickungstod, vor dem Flucht dann nicht möglich ist.“[28] Ein solches Ereignis trat m August 1986 am Nyos-See in Kamerun auf: Etwa 1700 Menschen und viele Tiere kamen zu Tode[29].

Die Gefahr der Fehleinschätzung selbst bei gutachterlich zunächst als unbedenklich eingestuften CO2-Lagerstätten ist jedoch mittelfristig noch viel größer[30]: “Zu den Gefahren einer Technologie addieren sich Risiken durch fehlerhaftes Vorgehen, menschliches Versagen oder gewinnorientierte Risiko-Abschätzung. Man sollte aus dem ’Fall Asse’ schlußfolgern, daß Vorhersagen über potentielle Gefahren sich nach Jahrzehnten oft als falsch erweisen können.“

 

Abb. 3

Demo in Südtondern (Schleswig-Holstein)

http://www.shz.de/nachrichten/top-thema/article//ccs-entwarnung-in-schleswig-holstein-1.html

Daher gibt es zunehmend Widerstand gegen derartige Endlager[31]: “Im vergangenen Jahr hat er (Anm.: Reinhard Hassa/VATTENFALL) zunehmend Gegenwind gespürt. Nachdem RWE angekündigt hatte, Speicher in Schleswig-Holstein errichten zu wollen, formierte sich zunächst der Bürgerprotest, dann entzog die CSU im Bundestag dem fertigen Gesetzentwurf ihre Zustimmung … Ministerpräsident Harry Carstensen (CDU) warnte davor, das kostenlose CO2-Klo der Republik zu werden.“

Auch an anderen geplanten CCS-Standorten scheiterte die Planung von CO2-Endlagern am gemeinsamen Widerstand von Bevölkerung und Kommunalpolitikern, so in Brandenburg (FAZ a.a.O.) und im Cuxland[32].

Auch die bisherigen Erfahrungen in anderen Ländern[33] mit CCS lassen nichts Gutes ahnen: “Erfahrungen vermittelt das Sleipner-Ölfeld in der Nordsee. Seit 1996 werden jährlich eine Million Tonnen CO2 hineingepumpt. Seither breitet sich die Gaslache unterirdisch aus und wandert mit einem Meter pro Tag seitwärts … Der Druck im Boden hat sich über die Injektionsstelle hinaus deutlich erhöht. Dadurch können … haarfeine Risse im Erddeckel entstehen. Es gibt keinen unterirdischen Speicher, der zu hundert Prozent dicht ist. Man muß sich mit möglichen Leckagen auseinander setzen.“

Projekt schwarze Erde

Zunächst ein Zitat aus dem FOCUS-Magazin[34]: “Die Kritik am Machbarkeitswahn hindert die Forscher nicht, immer wieder neue Ideen zur Planetengestaltung zu entwickeln. Der neueste Vorschlag lautet ’Terra preta’ (portugiesisch = „schwarze Erde“) …“. Im weiteren berichtet der FOCUS darüber, daß die Briten Craig Sams und Dan Morrell weltweit auf 2,5% der Ackerflächen schnell wachsende Hölzer anbauen wollen, um diese dann zu verschwelen und die Holzkohle in den Boden einzubringen. Dadurch soll ein erheblicher Teil des bei der Fotosynthese gebundenen CO2 im Boden gebunden werden. Dieses Verfahren wollen die beiden genannten Initiatoren sowohl in der Grafschaft Sussex als auch im südamerikanischen Belize erproben. Für diese Idee hatte auch bereits der NASA-Forscher Jim Hansen bei Präsident Obama geworben.

Der FOCUS (a.a.O.) zieht folgendes Resumè: “Daß Plantagenhölzer wie Eukalyptus einen enormen Wasserverbrauch haben, die lokalen Ökosysteme verändern, heimische Arten verdrängen und die Plantagen biologisch verarmen, ficht die Erdingenieure nicht an – vom Erhalt der Primärwalder ganz zu schweigen. Wiederum wird der Irrsinn solcher Ideen deutlich.“

Physikalisch gibt es für das Projekt noch weitere kontra-produktive Effekte:

(1) Wälder wirken wegen erhöhter Strahlungs-Absorption “erwärmend“,

(2) Beim Verbrennen der Wälder wird (neben CO2) Wärme erzeugt,

(3) Eine “Schwarze Erde“ vermindert die Strahlungs-Reflektion der Erde (Albedo), mit der Folge: “Global Warming“ !

Luft-CO2 in Zement binden

Diese Idee entwickelte der Chemiker Brent Contstantz[35] von der kalifornischen Stanford University. Dabei soll CO2 aus Kraftwerks-Abgasen durch Meerwasser geleitet werden, wo nach chemischen Umsetzungen Karbonate entstehen. Nach Abschätzungen von Brent Constantz wird pro Tonne Karbonat eine halbe Tonne CO2 gebunden. Dann wird der Karbonat-Schlamm getrocknet und zu Zement verarbeitet. Bis 2010 soll die erste Anlage dieser Art in Betrieb gehen. Schon die derzeitige konventionellen Zement-Produktion erfordert bekanntermaßen einen aberwitzigen Energieverbrauch. So darf man gespannt in, wie die Energie-Bilanz und damit die wahre CO2-Bilanz bei dem neuen Verfahren ausfällt.

Kontroverse Debatte

Die Erde ist kein Labor, sondern unser unersetzbarer Lebensraum. GEO-Experimente können zuvor nicht im Labor ausprobiert werden, sondern stets wird unmittelbar der “Ernstfall“ geprobt  – bei negativem Ausgang gibt es kein “ZURÜCK“ !!

So sieht das z.B. auch Prof. Gerhard Schulze[36]: “Im Klimadiskurs betrachten einige Diskurs-Teilnehmer die Erde als reparaturbedürftige Maschine, die sie durch Geo-Engineering wieder in Ordnung bringen wollen: von allen guten Geistern verlassene Klimaklempner, die Vulkanausbrüche simulieren und Partikel in die Atmosphäre schleudern würden, um die Temperatur zu senken.“

Oder der Physik-Professor Knut Löschke[37]: “Anstatt … Milliarden und Abermilliarden zu verschwenden, um CO2-Abgase in Bergbaustollen zu vergraben … braucht es etwas anderes: Eine Rückkehr zur wissenschaftlichen und … politischen Vernunft. … Denn eines ist sicher: Es wird herauskommen, daß die natürlichen und permanenten Veränderungen des Klimas nicht wesentlich von unserem CO2-Eintrag abhängig sind, und daß alle darauf bauenden Argumente und Folgerungen falsch sind.“

Und die Süddeutsche Zeitung[38]: “ … befindet sich Geoengineering auf dem besten Weg, um Spielball einzelner Staaten oder finanzkräftiger Organisationen zu werden.“

Das alles hindert Prof. Schellnhuber[39] (PIK),  einen der Haupt-Alarmisten der Klima-Debatte nicht, den STAR-WARE zu propagieren:“…darüber debattieren, ob man nicht eine Art Star-Ware gegen den Klimawandel führen muß , also massives Geo-Engineering betreiben … Einbringen von Schwefelladungen in die Stratosphäre, massive Eisendüngung der Ozeane und vieles mehr … am Krieg gegen den Klimawandel wird bereits gearbeitet.“

F a z i t  :

Hier genügt es, eine zusammenfassende Wertung des FOCUS[40] anzuführen :

“Weiter drohen politische Verwerfungen … Wer soll die Hände am Thermostaten der Erde haben? Es ist unwahrscheinlich, daß sich die Welt auf ein optimales Klima einigen kann. Was geschieht, wenn es Russland ein wenig wärmer haben will, Indien aber ein paar Grad kühler? Ganz zu schweigen von den zusätzlichen Treibhausgas-Emissionen durch die massenhaften Flugzeugstarts, die auch an den Erdölreserven der Welt zehren. Andere Forscher lassen an solchen Projektideen kein gutes Haar. Die Pläne, das Erdklima nach eigenem Gutdünken zu gestalten, seien größenwahnsinnig und vermutlich gar nicht durchführbar. Zudem wisse niemand, wie sich solche Eingriffe auf die Ökosysteme des Planeten auswirken.“

Dipl. Meteorologe Klaus E. Puls EIKE.


[1] Hack the Planet; LAUFPASS Nr.25 (2010), S.6-7

[2] Wikipedia: Geo-Engineering

[3] Bengtsson, L.: promet, H.4 (2004), S.191

[4] P. Bissolli, Natw.Rdsch., H.9 (1997), S.343

[5] CRUTZEN, P.: Albedo Enhancement by Stratospheric Sulfur Injections, Zschr. Climatic Change, 2006

[6] Wikipedia

[7] http://www.dradio.de/dlf/sendungen/forschak/1115602/

[8] http://www.spiegel.de/spiegel/0,1518,425979,00.html

[9] http://www.geo.de/GEO/technik/60186.html

[10] http://sciencev1.orf.at/science/news/109319

[11] http://www.geo.de/GEO/technik/60186.html

[12] Plastikmüll in den Weltmeeren, Natw.Rdsch. H.8 (2010), S.425, Abb.2

[13] Steven Levitt, Stephen Dubner: Superfreakonomics. Harper Collins, New York 2009

[14] http://www.berlinonline.de/berliner-zeitung/archiv/.bin/dump.fcgi/2007/0927/wissenschaft/0020/index.html

[15] Das Eisendügungsexperiment LOHAFEX, AWI-Report 2008/2009, S. 46-50

[16]  NZ, 23.03.09, S.20, Polarstern kehrt aus Antarktis zurück

[17] http://www.bmu.bund.de/pressearchiv/16_legislaturperiode/pm/42974.php

[18] Naturw.Rdsch., H.11 (2008), S. 597-580

[19] CD Römpp Chemie Lexikon, Version 1.0, Stuttgart/New York, Georg Thieme Verlag, 1995

[20] Prof.Dr.H.-J.Lüdecke: CO2 und Klimaschutz, Bouvier (2010), S.126

[21] FOCUS, 30.01.09, Kann Technik den Planeten retten?

http://www.focus.de/wissen/wissenschaft/odenwalds_universum/frage-von-angela-schultes-kann-technik-den-planeten-retten_aid_365431.html

[22] (http://de.wikipedia.org/wiki/Kritischer_Punkt_Thermodynamik)

[23]  http://www.geocraft.com/WVFossils/stomata.html

[24] A. Nitsch: Klimawandel, CO2-Ausstoß und die öffentliche Meinung, Neue Landwirtsch., 5/2009, S.56

[25] http://www.kugelerde.de/jgs_db.php?action=show&eintrags_id=13169&katid=70

[26] Dr. Albrecht Nitsch, Bremervörde, pers.Mitt., 2010

[27] Natw.Rdsch., H.8 (2010), S.417

[28] Prof. Dr. C.O. Weiß:>Rückkopplung im Klimasystem der Erde; http://www.eike-klima-energie.eu/news-anzeige/rueckkopplung-im-klimasystem-der-erde/

 

[29] http://www.kugelerde.de/jgs_db.php?action=show&eintrags_id=13169&katid=70

[30] Im Untergrund herrscht keine Sicherheit, Umwelt-Magazin WATERKANT, Sandstedt, H.1 (2009), S. 8-10

[31] FAZ, 01.04.2010, S.12, “Alles unter die Erde“

[32] SoJourn. 24.01.2010, S.15: CO2-Lager abgewendet, EON darf im Cuxland nicht suchen

[33] S. Haszeldine, Univ. Edinburgh, sowie GFZ Potsdam in Handelsblatt: Unterirdische Klimaretter, 18.02.2010, S.20,

[34] FOCUS, 30.01.09, Kann Technik den Planeten retten?

http://www.focus.de/wissen/wissenschaft/odenwalds_universum/frage-von-angela-schultes-kann-technik-den-planeten-retten_aid_365431.html

[35] FOCUS, 30.01.09, Kann Technik den Planeten retten?

http://www.focus.de/wissen/wissenschaft/odenwalds_universum/frage-von-angela-schultes-kann-technik-den-planeten-retten_aid_365431.html

[36] G. Schulze, Schriftenreihe VONTOBEL-Stiftung, Nr. 1920, Krisen, Zürich, 2010, S.41

[37] Gefährliches Nichtwissen, FTD, 02.07.2010

[38]  SZ, 5./6.06.2010, Wer verstellt den globalen Thermostaten?

[39] “Manchmal könnte ich schreien“ ; DIE ZEIT, Nr.14, 26.03.09, Dossier S.17

[40] FOCUS, 30.01.09, Kann Technik den Planeten retten?

http://www.focus.de/wissen/wissenschaft/odenwalds_universum/frage-von-angela-schultes-kann-technik-den-planeten-retten_aid_365431.html

 

Related Files




Hat die NASA den Grund für die fehlenden Sonnenflecken entdeckt?

Forscher knacken das Mysterium der fehlenden Sonnenflecken

2. März 2011: In den Jahren 2008 und 2009 verschwanden alle Sonnenflecken für zwei Jahre nahezu vollständig. Die solare Aktivität fiel auf so tiefe Werte, wie sie in hundert Jahren nicht mehr vorgekommen waren; die Hochatmosphäre der Erde kühlte sich ab und kollabierte (collapsed [?]); das Magnetfeld der Sonne schwächte sich ab, so dass die kosmische Strahlung in rekordverdächtiger Menge in unser Sonnensystem eindringen konnte. Es war ein großes Ereignis, und Solarphysiker fragten sich ganz offen, wo all die Sonnenflecken abgeblieben waren.

Jetzt wissen sie es. Die Antwort wird in der Ausgabe von Nature am 3. März veröffentlicht.


Mit diesem künstlichen Blick in das Innere der Sonne erscheint das innere solare Förderband [the Great Conveyor Belt. Dies ist ein physikalisches Phänomen, das im Folgenden lieber unter diesem Namen im Original weitergeführt wird. Auch in der deutschen Fachliteratur taucht dieser Begriff nur als englischer Begriff auf. A. d. Übers.] als Bindeglied zwischen der stellaren Oberfläche und dem Inneren der Sonne.  Nach: Andrés Muñoz-Jaramillo von der Harvard CfA.

 „Plasmaströme tief im Inneren der Sonnen standen in Wechselwirkung mit der Bildung von Sonnenflecken und dem ausgedehnten solaren Minimum“, sagt der leitende Autor Dibyendu Nandi vom Indian Institute of Science, Bildung und Forschung in Kolkata. „Unsere Schlussfolgerungen basieren auf einem neuen Computermodell vom Inneren der Sonne.“

Schon vor Jahren haben die Sonnenphysiker erkannt, welche Bedeutung der “Great Conveyor Belt” der Sonne hat. Ein umfangreiches System von Plasmaströmen, die man ‚meridionale Flüsse’ nennt (ähnlich den Meeresströmungen auf der Erde), verläuft über die Sonnenoberfläche, taucht in den Polarregionen nach innen ab und am Sonnenäquator wieder auf. Diese Kreisläufe spielen im 11-jährigen solaren Zyklus eine Schlüsselrolle. Wenn die Sonnenflecken verschwinden, nehmen die Ströme an der Oberfläche das restliche Magnetfeld auf und transportieren es in das Innere der Sonne; 300 000 km unter der Sonnenoberfläche verstärkt der solare Dynamo das sich abschwächende magnetische Feld wieder. Neu entstandene Sonnenflecken steigen nach oben wie ein Korken im Wasser – voila! Ein neuer solarer Zyklus hat begonnen.

Zum ersten Mal glaubt das Team um Nandi, ein Computermodell entwickelt zu haben, dass die Physik aller drei Aspekte dieses Prozesses richtig beschreibt – den solaren Dynamo, den Conveyor Belt und die bojenartige Entwicklung von Magnetfeldern der Sonnenflecken.

OK. Das ist hier viel Glaube, aber eignet sich das für eine Prognose?

 „Nach unserem Modell begann das Problem mit den Sonnenflecken schon Ende der neunziger Jahre während des Beginns des Solarzyklus’ 23“, sagt Mitautor Andrés Muñoz-Jaramillo vom Harvard-Smithsonian Center for Astrophysics. „Zu dieser Zeit nahm der Conveyor Belt Fahrt auf."

Sonnenfleckenzyklen während des vorigen Jahrhunderts. Die blaue Kurve zeigt die zyklische Variation der Anzahl der Sonnenflecken. Die roten Balken zeigen die Summe der Tage, an denen keine Sonnenflecken beobachtet worden waren. Das Minimum des solaren Zyklus 23 war das längste im Zeitalter der Raumforschung mit der höchsten Zahl sonnenfleckenloser Tage. Nach: Dibvendu Nandi et al.

Der rasch strömende Belt hat die Sonnenflecken rasch in den inneren solaren Dynamo gedrückt, wo sich deren Magnetfelder wieder verstärkten. Auf den ersten Blick scheint dieser Vorgang die Bildung von Sonnenflecken zu verstärken, aber nein. Als die Reste der alten Sonnenflecken in den Dynamo flossen, durchliefen sie den Strömungsgürtel der Verstärkung zu schnell, um erneut zu voller Stärke zu gelangen. Die Entstehung von Sonnenflecken war verkümmert..

Später, im ersten Jahrzehnt dieses Jahrhunderts, verlangsamte sich der Conveyor Belt dem Modell zufolge wieder, so dass die magnetischen Felder länger durch die Zone der Verstärkung liefen, aber der Schaden war bereits angerichtet. Es gab kaum neue Sonnenflecken. Dann kam eines zum anderen: die geringe Strömungsgeschwindigkeit des Conveyor Belts sorgte dafür, dass die erneuerten Sonnenflecken viel größere Schwierigkeiten hatten, zur Sonnenoberfläche aufzusteigen, was der Grund für die Verzögerung des Zyklus’ 24 war.

 „Die Bühne für das tiefste solare Minimum innerhalb eines Jahrhunderts war bereitet“, sagt Mitautor Petrus Martens von der Montana State University, Fachbereich Physik.

OK. Viel Glauben. Stellt das eine Grundlage für Vorhersagen dar?

Kollegen und Unterstützer des Teams nennen das neue Modell einen wichtigen Fortschritt.

Solare Minima zu verstehen und vorherzusagen ist etwas, zu dem wir zuvor noch nie in der Lage waren – und es stellt sich als sehr wichtig heraus”, sagt Lika Guhathakurta von der Heliophysics Division der NASA in Washington, DC.

OK. Die Kollegen denken, dass es wunderbar ist. Aber…

Nandi merkt an, dass das neue Computermodell nicht nur das Fehlen von Sonnenflecken, sondern auch das schwache Magnetfeld der Sonne der Jahre 2008 und 2009 erklären kann. „Dies bestätigt, dass wir auf dem richtigen Weg sind.“

Das freut mich für euch. Aber zur Zukunft…

Der nächste Schritt: Das Solar Dynamics Observatory (SDO) der NASA kann die Bewegungen des solaren Conveyor Belts messen – nicht nur an der Oberfläche, sondern auch tief im Inneren. Diese Technik nennt man Helioseismologie; es funktioniert ähnlich wie eine Ultraschalluntersuchung bei einer schwangeren Frau. Mit der Eingabe der qualitativ hochwertigen Daten in das Computermodell könnten die Forscher in der Lage sein vorherzusagen, wie sich zukünftige solare Minima verhalten. Das SDO hat gerade erst damit angefangen, so dass es bis zu Vorhersagen noch etwas dauert.

Tatsächlich gibt es noch viel zu tun, aber, wie Guhathakurta sagt: „Am Ende können wir das Mysterium der fleckenfreien Sonne aufbrechen.“

Ich mache mir Sorgen um diese Art von Wissenschaft (oder zumindest von dieser Art wissenschaftlicher Veröffentlichungen). Sie behaupten, dass sie die Vergangenheit erklären können, aber sie haben keine Ahnung, ob ihr Modell für irgendwelche Prognosen taugt.

Vor dem jüngsten solaren Minimum gab es viele verschiedene Modelle, die alle die Vergangenheit erklärten, aber in keiner Weise das solare Minimum vorhersehen konnten. Hat man diese wertvolle Erfahrung bei der NASA schon wieder vergessen? Ich bin sicher, dass David Hathaway ihnen alles darüber sagen könnte.

Ich war schon im Begriff, diesen Beitrag mit dem Titel “NASA leidet unter verfrühtem Jubel“ zu versehen, aber dann habe ich es mir anders überlegt. Das Team könnte ja recht haben, aber klar gesagt: es gibt keine Möglichkeit, dies herauszufinden, bevor sie nicht eine vernünftige Vorhersage machen können.

All dies hebt das Ganze auf eine Ebene, in der man aus dem Kaffeesatz lesen kann. Aber es erscheint in Nature, also ist es wie ein Home Run [ein Begriff aus dem amerikanischen Baseball] in der Weltliga der Wissenschaft. Das ist ganz klar das Wichtigste.

Übersetzt von Chris Frey für EIKE

Alle Hervorhebungen (kursiv, fett) im Original!

Link zum Absatz im Subheader: they believe they have solved the mystery of the missing sunspots




Globale Erwärmung auf dem Prüfstand: 10 kleine Tatsachen


Kontrolliere die Sprache, und man kontrolliert das Ergebnis jeder Debatte.


Ein Autor der viel beachteten Zeitung American Thinker, der die Hoffnung aufgegeben hat, von diesen Leuten jemals etwas Vernünftiges zu hören, und von denen Einige das verheerende Erdbeben in Japan schon auf die globale Erwärmung geschoben haben, hat sie als „idiotische Fanatiker der globalen Erwärmung“ abgestempelt.

Wie auch immer dem sei, die meisten der unten stehenden Statements wurden selbstredend als Slogans verkauft, und alle gehen konform mit einer abstoßenden und unehrlichen Praxis politischer Wendungen – mit welcher die Bürger Australiens natürlich seit vielen Jahren eingedeckt wurden. Die Statements hängen auch stark von korrumpierenden Formulierungen ab mit der Absicht, Propaganda zu betreiben, einer Technik, die internationale grüne Lobbyisten trefflich beherrschen und auch unermüdlich praktizieren.

Die zehn Statements unten komprimieren die Hauptargumente, die als Rechtfertigung  für die von der Regierung erhobenen Steuern auf Kohlendioxid veröffentlicht wurden. Jedes einzelne für sich ist ohne Wert. Dass sie auch jämmerlich intellektuell daher kommen, wird aus meinen kurzen Kommentaren hinter jeder Feststellung ersichtlich.

Es ist ein Fluch für die australische Gesellschaft, dass eine amtierende Regierung sowie die große Mehrheit von Reportern und Kommentatoren in den Medien fortwährend diese wissenschaftlichen und sozialen Dummheiten propagiert.

Zehn falsche Slogans über die globale Erwärmung, und zehn kleine Tatsachen

1.     Wir müssen der Verschmutzung (sic) durch Kohlenstoff (sic) durch die Einführung einer Kohlenstoffsteuer (sic) begegnen.

Bei dieser Feststellung geht es nicht um Kohlenstoff oder eine Steuer darauf, sondern um Emissionen von Kohlendioxid und eine Steuer darauf, um die Gewinne der Treibstoff- und Energiequellen abzuschöpfen, die die australische Wirtschaft am Leben halten.

Kohlendioxid ist ein natürliches und für das Leben unabdingbares Spurengas in der Erdatmosphäre, eine Wohltat für die Umwelt, ohne die unser planetarisches Ökosystem nicht überleben könnte. Ein zunehmender Anteil an Kohlendioxid sorgt für schnelleres und besseres Wachstum vieler Pflanzen und hilft so, den Planeten grüner zu machen.

Die Bezeichnung von Kohlendioxid als ein Verschmutzer stellt einen Missbrauch der Sprache, der Logik und der Wissenschaft dar.


2.    Wir müssen uns viel mehr mit dem Klimanotstand (climate emergency) vertraut machen.

Es gibt keinen „Klimanotstand“; der Ausdruck ist eine vorsätzliche Lüge. Die globale Mitteltemperatur am Ende des 20. Jahrhunderts nahm innerhalb der Grenzen der natürlichen Klimavariation ab und war keinesfalls ungewöhnlich hoch oder niedrig, jedenfalls verglichen mit geologischen Zeiträumen.

Die Temperatur der Erde kühlt sich monentan leicht ab.


3.    Ein Preis auf Kohlenstoff (sic) wird die großen Verschmutzer (sic) hart treffen.

Ein Preis auf Kohlendioxid wird alle Energieverbraucher mit einer bewussten finanziellen Abgabe belegen, vor allem aber die energieintensiven Firmen. Diese imaginären „großen Verschmutzer“ sind einer der Grundpfeiler der australischen Wirtschaft. Alle Kosten für sie werden direkt an die Verbraucher weiter gegeben.

Es sind die Verbraucher aller Produkte, die zur Kasse gebeten werden, nicht die Industrien oder ihre Aktionäre.


4.    Die Steuer auf Kohlenstoff (sic) ist richtig; es liegt im Interesse unserer Nation

Der größte Wettbewerbsvorteil der australischen Wirtschaft ist billige Energie von Kohlekraftwerken.

Eine unnötige Steuer auf diese Energiequelle ist ökonomischer Vandalismus, der Arbeitsplätze vernichtet und den Lebensstandard für alle Australier verringert.


5.    Die Steuer auf Kohlenstoff (sic) wird zu niedrigeren CO2-Emissionen führen

Ökonomen wissen sehr gut, dass ein Preisanstieg auf einige unabdingbar notwendige Dinge kaum zu einem geringeren Verbrauch führt. Dies gilt sowohl für Energie (Strom) als auch Benzin, zwei Güter, die besonders von einer Steuer auf CO2-Emissionen betroffen wären.

In Norwegen gibt es eine effektive Steuer auf Kohlendioxid seit den frühen neunziger Jahren, und das Ergebnis war eine ZUNAHME der Emissionen um 15%.

Auf jedem vernünftigen Niveau ($ 20 bis 50/t) wird eine Steuer auf Kohlendioxid nicht zu einem Rückgang der Emissionen führen.


6.    Wir müssen mit der übrigen Welt Schritt halten, die schon jetzt Steuern auf CO2-Emissionen erhebt.

Das tut sie nicht. Alle Hoffnungen auf eine globale Übereinkunft zur Reduktion von Emissionen sind nach dem Scheitern der Klimatagungen in Kopenhagen und Cancun zerstoben. Die größten Emittenten der Welt (die USA und China) haben eindeutig klar gemacht, dass sie keine Steuern auf Kohlendioxid oder einen Zertifikatehandel einführen wollen.

Die Klimabörse in Chicago ist gescheitert, Chaos und enorme Korruption sind kürzlich in Europa aufgedeckt worden, und einige Bundesstaaten der USA ziehen sich aus Initiativen gegen Kohlendioxid zurück.

Das Spiel „folgt dem Führer“ ist keine gute Idee, wenn der Führer (die EU) eine erstarrte Wirtschaft aufweist, die charakterisiert ist durch einen Mangel an Arbeitsplätzen und die Flucht von Industrien nach Übersee.


7.    Australien sollte Führungsstärke zeigen, indem es ein Beispiel gibt, dem andere Länder folgen werden.

Eine stärkere Selbsttäuschung ist nicht vorstellbar.

Australien würde mit der Einführung einer Steuer auf Kohlendioxid, bevor die Großemittenten das tun, die Wettbewerbsfähigkeit der gesamten Wirtschaft aufgeben, mit wirtschaftlichen Nachteilen ohne jeden Fortschritt.


8.    Wir müssen reagieren, und je eher wir etwas gegen den Klimawandel tun, umso weniger schmerzhaft wird es sein.

Es geht um die globale Erwärmung und nicht um den alles umfassenden, absichtlich doppeldeutigen Begriff Klimaänderung.

Der Versuch, eine hypothetische „gefährliche“ Erwärmung durch Einführung einer Steuer auf Kohlendioxid zu verhindern, ist ineffektiv und schmerzhaft ohne jedes Ergebnis [Wortspiel: …is all pain for no gain].


9.    Die Kosten für Aktivitäten gegen die Verschmutzung (sic) durch Kohlenstoff (sic) sind geringer als die Kosten dafür, gar nichts zu tun.

Dieses Statement ist eine arglistige Täuschung. Eine Steuer auf Kohlendioxid wird für Arbeiter und Verbraucher sehr teuer werden, jedoch keine messbare Abkühlung (oder andere Änderungen) des zukünftigen Klimas bringen.

In Australien würden die Kosten für eine vierköpfige Familie durch die Einführung einer Steuer auf Kohlendioxid um mehr als $ 2500 pro Jahr* steigen – während die Eliminierung sämtlicher Emissionen von Australien eine Auswirkung von 0,01°C weniger Erwärmung bis zum Jahre 2100 haben würde.


10. Es ist keine Option, gegen den Klimawandel nichts zu tun.

In der Tat.

Allerdings ist es auch so, dass noch niemand zeigen konnte, dass eine „gefährliche“ globale Erwärmung irgendwelche Probleme bereiten würde. Statt dessen steht Australien einer ganzen Reihe von Problemen durch den natürlichen Klimawandel gegenüber sowie gefährlichen natürlichen Klimaereignissen. Eine nationale Klimapolitik muss sich dieser Bedrohung natürlich stellen.

Eine geeignete, kosteneffektive Politik, um mit Buschbränden in Victoria, Überschwemmungen in Queensland, Dürren und Wirbelstürmen in Nordaustralien umzugehen ist die gleiche wie mit langzeitlichen Erwärmungs- und Abkühlungstrends.

Man muss sich auf solche Ereignisse und Trends sorgfältig vorbereiten, wirksam damit umgehen und sich anpassen, egal ob sie natürlich oder anthropogen verursacht sind, und zwar wo und wann sie sich ereignen. Milliarden von Dollar auszugeben für teure und ineffektive Steuern auf Kohlendioxid dient nur dazu, unseren Wohlstand und unsere Möglichkeiten zu verringern, mit diesen nur zu natürlichen Ereignissen fertig zu werden.

Die Vorbereitung auf sowie die Anpassung an alle Bedrohungen durch das Klima sind der Schlüssel für eine vernünftige nationale Klimapolitik.


Professor Bob Carter ist Geologe, Umweltwissenschaftler und emeritiertes Mitglied am Institute of Public Affairs. Außerdem Mitglied des Fachbeirates von EIKE



Anmerkungen:

*Legt man eine Steuer von $ 25 pro Tonne CO2 zugrunde, ergeben sich bei einer Gesamtemission in Australien von 550 Millionen Tonnen Gesamtkosten in Höhe von $ 13,8 Milliarden. Verteilt man diese Summe auf 22 Millionen Menschen, ergeben sich $ 627 pro Person und Jahr.

Dieser Essay erschien im Original Quadrant online.

Mehr Informationen:

Australian Climate Science Coalition
The Carbon Sense Coalition
Institute of Public Affairs>
Non-governmental International Panel on Climate Change>
joannenova.com.au

Link: http://wattsupwiththat.com/2011/03/13/global-warming-10-little-facts/

Übersetzt von Chris Frey für EIKE

Anmerkung des Übersetzers: Alle Hervorhebungen in diesem Artikel im Original!

Die Angaben hier gelten zwar für Australien, können aber ohne Weiteres auch für Verhältnisse z. B. in Deutschland stehen.




3.(III) Klima- & Energiekonferenz Berlin 2010 Videovorträge Teil 3

Die Erneuerbare Energielobby und die politisch-wirtschaftlichen Konsequenzen

Günter Ederer

Wirtschaftsjournalist und Filmproduzent

Klimawandel zwischen Modellen, Statistik und Ersatzreligion

Prof. Dr. Werner Kirstein

Institut für Geographie, Universität Leipzig

Was bedeute Climategate für die Wissenschaft?

Dr. Terence Kealey

University of Buckingham

Fiktion und Realität im Klimaschutz

Dr. Lutz Peters

Berater und Autor von Klima 2055

"Klimaschutz" als Instrument französischer Politk!

Dr. Emmanuel Martin Ökonom und Herausgeber von UnMondeLibre.org; hier sein undefinedppt Vortrag




Es wird ein kühles Jahr erwartet

Dieser Beitrag von John McLean, Professor Chris de Freitas und Professor Bob Carter zeigte, dass der Southern Oscillation Index (SOI), ein Maß für die Bedingungen der El Nino Southern Oscillation (ENSO), ein sehr guter Indikator ist, der etwa sieben Monate im Voraus Schlussfolgerungen auf die globale Temperatur zulässt, außer wenn Vulkanausbrüche kurzfristige Abkühlung zur Folge haben.

Der leitende Autor McLean weist auf einen Temperaturrückgang hin, der im Oktober des vergangenen Jahres begann, sieben Monate nach dem abrupten Übergang zu
La Nina–Bedingungen, und der sich den Daten des vorigen Monats zufolge immer noch fortsetzt.

„Die verspätete Reaktion ist aus zwei Gründen von Bedeutung”, sagt McLean. „Erstens war die hohe Jahresmitteltemperatur 2010 wegen eines El Nino aufgetreten, der im März zu Ende ging, dessen Auswirkungen auf die Temperatur jedoch bis weit in die zweite Hälfte des Jahres zu bemerken waren. Zweitens bedeutet es, dass die Bedingungen der ENSO genutzt werden können, um mit ausreichender Genauigkeit die globale Mitteltemperatur sieben Monate im Voraus abzuschätzen“.

Viele frühere wissenschaftliche Beiträge haben sich mit der verzögerten Reaktion befasst, einschließlich von zweien, die sich kritisch mit dem Beitrag von McLean auseinandersetzen. Obwohl die anderen Beiträge andere Datenquellen verwendet haben, waren sie hinsichtlich der Verzögerung zu den gleichen Ergebnissen gekommen.

Die Kernfrage lautet, wie viel Einfluss die ENSO auf die globale Mitteltemperatur hat. Nach McLean ist diese Frage schwierig zu beantworten, weil beides durch kurzzeitige Ereignisse wie Wind, Wolken und tropische Stürme modifiziert werden kann, aber die offensichtliche enge Beziehung, wie sie in den Daten der letzten 50 Jahre zum Ausdruck kommt, zeigt, dass der Einfluss signifikant ist.

„Aus den historischen Daten ergeben sich auch ernste Zweifel an der Hypothese, dass Kohlendioxid zu einer gefährlichen globalen Erwärmung führt”, schreibt McLean. „Seit 1958 hat der CO2-Gehalt in der Atmosphäre um 30% zugenommen. Falls dies wirklich einen hauptsächlichen Einfluss auf die Temperatur haben sollte, müsste sich ein klarer Beweis zeigen, dass die Temperatur kontinuierlich über die Werte gestiegen sein müsste, die der SOI vorgibt, aber dies wird nicht beobachtet.“

Das Büro der Meteorologie teilt mit, dass die ENSO – Modelle derzeit darauf hindeuten, dass sich La Nina noch bis weit in den kommenden Herbst hinein auswirken dürfte und sich erst danach zögernd abschwächen wird, bis etwa im Juni [2012] neutrale Bedingungen vorherrschen. Berücksichtigt man die siebenmonatige Verzögerung, ist es sehr wahrscheinlich, dass das Jahr 2011 das kühlste Jahr seit 1956 oder noch früher werden wird“, schreibt McLean.

Er sagt auch, dass aus den Aufzeichnungen hervorgeht, dass die Ozeane während eines La Nina – Ereignisses mehr Kohlendioxid aufnehmen als während eines El Nino. Dies bedeutet, dass die Zunahme des atmosphärischen CO2-Gehaltes im Jahr 2011 geringer ausfallen dürfte als in den vorigen Jahren.

ENDE

Die Natur überführt die Klimaabteilung der UN, wieder einmal

McLean, Carter und de Freitas veröffentlichten ihre grundlegende Arbeit 2009. Sie ist der wissenschaftliche Beweis, dass die globale Temperatur der Atmosphäre mit der Southern Oscillation (El Nino, La Nina) steigt und fällt.

Influence of the Southern Oscillation on tropospheric temperature JOURNAL OF GEOPHYSICAL RESEARCH, VOL. 114, D14104, doi:10.1029/2008JD011637, 2009

Die Klimaabteilung der UN macht sich inzwischen Sorgen. In den skandalösen Enthüllungen in den e-mails von Klimagate zeigte sich, wie sehr man konspirativ bemüht war, die Arbeit mit allen Mitteln außen vor zu halten. Wissenschaftliche Prinzipien bzgl. der Veröffentlichung von Arbeiten wurden gebrochen, um dieses Ziel zu erreichen.

Die Natur jedoch hat bewiesen, dass McLean et al Recht hatten!

Der amerikanische Meteorologe Joe D’Aleo verifiziert den Einfluss von El Nino und La Nina auf die globale ´Temperatur:

US Temperatures and Climate Factors since 1895 von Joseph D’Aleo, CCM, AMS Mitglied

Warum basiert die Klimapolitik der Regierung [von Australien] und der Grünen auf Fehlinterpretationen der UN und Betrug?

Malcolm Roberts

Brisbane

Link: http://climaterealists.com/index.php?id=7349

Und hier: http://mclean.ch/climate/ENSO_paper.htm 

Übersetzt von Chris Frey für EIKE




Kernforschungszentrum Jülich 1967 – Kernforscher leiten GAU ein. Keiner hat´s bemerkt!

„Technik und künftige Einsatzmöglichkeiten nuklearer Hochtemperaturreaktoren.“

In der Zeitschrift „Fusion“ Heft 1; 2010 ist der hochinteressanten Beitrag aus dem Jahre 1990 von Prof. Dr. Rudolf Schulten „Alte und neue Wege der Kerntechnik“ nochmals abgedruckt worden, und es reizt mich, heute, nach mehr als 20 Jahren einen Vortrag zu halten, in dem ich, ich nehme bewusst das Ergebnis vorneweg, nachweisen kann, dass die Hochtemperaturreaktortechnik heute noch immer aktuell ist, und mit an Sicherheit grenzender Wahrscheinlichkeit bald den Nachweis erbringen wird, dass die Gedanken und Überlegungen, die Prof. Dr. Schulten als junger Ingenieur in den 50iger Jahren hatte, richtig und zukunftweisend sind und sein werden.

Als junger Ingenieur hat mich damals die Aufgabe gereizt, an dem von Prof. Schulten erdachte Reaktorkonzept mit dem AVR-Reaktor in Jülich in leitender Funktion als Hauptabteilungsleiter für die gesamte Technik mitarbeiten zu können, und so den Bau des Reaktors, alle Prüfungen und die Inbetriebnahme bis zur Übergabe an den Kunden verantwortlich zu leiten. Diesen Reiz habe ich bis heute nicht verloren, und daher freut es mich, diesen Vortrag  halten zu können.

Hier zunächst noch einmal die Grundüberlegungen aus Sicht der seinerzeitigen Energiepolitik.

Die Energiepolitik nach dem Kriege,  also zur Zeit des Wiederaufbaus der Deutschen Wirtschaft basierte auf:

1.)  Möglichst preiswerter, also billiger Stromversorgung für Industrie und Haushalten. Teure, überhöhte Strompreise sind unsozial, sie behindern das Wachstum der Volkswirtschaft insgesamt.

2.)  Versorgungssicherheit.

3.)   Energiepolitisch optimaler Einsatz der vorhandenen Brennstoffe und deren Ressourcen bei der Strom-und Energieerzeugung, sowie in Haushalten und Verkehr.

Hierzu standen zur Verfügung:

–       Die festen Brennstoffe, also Stein- und Braunkohle;

–       Die flüssigen Brennstoffe Erdöl und Erdgas.

Alle diese Primärenergien waren und sind geeignet zur Erzeugung elektrischer Energie in Kraftwerken. Für Haushalte und Verkehr  sind auch heute noch  nur die flüssigen Brennstoffe technisch vernünftig und wirtschaftlich einsetzbar.

Daher galt es als Ziel, zur Stromerzeugung primär Stein- und Braunkohlen einzusetzen, die „Edelenergien“ Öl und Gas sollten nur in besonderen Fällen, also falls wirtschaftlich von großem Nutzen, auch in Großkraftwerken eingesetzt werden.

Zur damaligen Zeit war es Stand der „Erkenntnisse“, dass alle diese Brennstoffe nur für einen begrenzten Zeitraum zur Verfügung stehen würden, man rechnete damals bis zur Jahrtausendwende. Dies hat sich als zu pessimistisch herausgestellt. Heute weiß noch niemand, wie lange, vor allem bei dem stetig steigenden Energieverbrauch und der ständig steigenden Weltbevölkerung, diese Energiereserven tatsächlich ausreichen werden. Fakt ist aber weiterhin, dass sie begrenzt sind und dadurch stetig teurer werden. Dies bedarf sicher keiner weiteren Diskussion. Wir in Deutschland sind eines der Öl- und Erdgas ärmsten Länder. Nur die Kohle ist noch vorhanden.

Um  dieser zu erwartenden weltweiten Energieklemme frühzeitig gegenzusteuern und im Endeffekt zu vermeiden, wurden schon ab den 50iger Jahre weltweit Kernkraftwerke entwickelt und gebaut.

Diese Problematik existiert auch heute noch, nur dass neben den Kernkraftwerken die sogenannten „erneuerbaren Energien“, also Windkraft und Solartechnik als Alternativen angesehen werden. Doch dazu später noch einigen Worte.

In dieser Zeit hatte Prof. Dr. Schulten bereits die Idee, Hochtemperaturreaktoren zu bauen, wobei er neben dem U235, das in der Natur relativ begrenzt vorkommt, vor allem auch Thorium als nuklearen Brennstoff zu erbrüten und dann als U233 zu verbrennen.

Seine Überlegungen zur technischen Lösung basierten auf folgenden  verfahrenstechnischen Grundlagen:

–       Kugelförmige Brennelemente wegen ihrer überlegenen Strömungs-und Wärmeübertragungseigenschaften. Sie können während des laufenden Betriebes des Reaktors umgewälzt, ausgewechselt, ihr Abbrand gemessen und abgezogen und gelagert werden;

–       Graphit als Hauptwerkstoff für Brennelemente und die Reaktoreinbauten, das dieser Werkstoff als Moderator der Neutronenstrahlung dient und für besonders hohe Betriebstemperaturen geeignet ist;

–       Helium als Kühlmittel wegen seiner besonders hohen Wärmeübergangszahlen;

–       Ein integriertes, in sich geschlossenes Primärkreis Reaktorkonzept zur Erzielung höchster Sicherheit;

–       Uran 235 und Thorium 232 als Brennstoffe, mit dem Ziel, mit dem Uran 233 neuen Brennstoff zu erbrüten;

–       Hohe Betriebstemperaturen zur Stromerzeugung mit höchsten thermodynamischen Wirkungsgraden zur optimalen Ausnutzung des nuklearen Brennstoffs;

–       Möglichkeit,  mittels Kernbrennstoffen wegen der möglichen hohen Gastemperaturen in verfahrenstechnischen und  chemischen Prozessen durch Vergasung von Kohlen, Braunkohlen, Torf und weiteren Biomassen flüssige Brennstoffe für Haushalte und Verkehr zu produzieren;

–       Der inhärenten Sicherheit des Reaktors, da ein „GAU“ auch bei komplettem Ausfall der Kühlung nicht eintreten kann.

Es waren geradezu visionäre Überlegungen, die zum Erfolg dieser Technik führen, denn alle vorgenannten Überlegungen sind auch heute noch, also nach 60 Jahren, uneingeschränkt gültig. Prof. Schulten war auf seinem Gebiet ein Vordenker, der eigentlich nur mit Wernher von Braun vergleichbar ist. Die in Deutschland durch geführte Entwicklung ist ein großer Erfolg, auch wenn „Umweltschützer“ das nicht anerkennen wollen und Politiker das noch nicht erkannt haben. Ende der 90iger Jahre bei Stilllegung des AVR und des THTR auf politischen Druck, hatte Deutschland in dieser Technik eine weltweit führende Position, ja fast eine Monopol.

An die Ingenieurtechnik stellte die Umsetzung dieser Ideen extreme Anforderungen.  Eines der größten Probleme stellte das He-Gas dar.

He ist ein sehr dünnes und trockenes Gas, das zuvor in diesem Umfang noch nie eingesetzt war.  Alle Komponenten des Reaktors mussten ohne jegliches Vorbild und ohne vorliegende Erfahrungen neu konstruiert  werden. Sie wurden in Versuchsanlagen unter normalen Bedingungen erprobt. Die meisten versagten dann beim Einbau in den Reaktor bei Betrieb unter He-Bedingungen. Dies führt zwangsläufig zu ständigen Terminverzögerungen und Kostenerhöhungen. Als Führungskraft war der Druck enorm. Man hielt mir von oberster Stelle einmal vor:“Sie bauen alles 2x“, meine Antwort war nur kurz, „ja, das ist richtig, aber nichts dreimal“. Erproben und Prüfen bis zur endgültigen Sicherheit, dass alle Probleme erkannt und gelöst seien, ist die entscheidende technische Grundlage für  erfolgreiche Entwicklungen. So habe ich auch einmal unwirsch gesagt, was soll ich denn machen, Kosten vermeiden, Termine einhalten oder eine Anlage bauen, die läuft, beides geht nicht. Ich war noch jung genug, um mich durchsetzen zu können.  Es würde hier zu weit führen, alle technischen Probleme zu erläutern und die Lösungen aufzuzeigen. Dennoch kam uns Ingenieuren eine Entwicklung, man kann fast sagen, die  alles entscheidende, zu Gute. Die fortlaufende Entwicklung der Brennelemente mit den sogenannten „Coated Particles“.

Ohne diese Entwicklung in großartiger internationaler Zusammenarbeit wäre der Erfolg des AVR erheblich schwieriger geworden. Die neuen gepressten Graphitkugeln mit eingelagerten Uran wurden, und das soll besonders erwähnt werden, entwickelt in Zusammenarbeit von

–       Dem AVR in D;

–       Dem parallel laufenden Dragon Projekt in GB;

–       Der Gulf General Atomic in den USA;

–       Der KFA Jülich;

–       Der KFA Grenobel in F;

–       Dem österreichischen Kernforschungszentrum Seibersdorf;

–       Dem Reaktorzentrum Petten in NL;

–       Der UKAEA in GB;

–       Union Carbide Corp. In den USA:

–       Der Nukem zusammen mit der Hobeg;

Diese großartige, wohl einmalige internationale Zusammenarbeit wurde maßgeblich mitfinanziert durch das Bundesforschungsministerium, das einen entscheidenden Beitrag leistete.

Der Erfolg dieser Entwicklung lässt sich am besten darstellen, wenn man die ursprüngliche Auslegung des Kühlkreislaufes, also des Heliums im AVR Reaktor betrachtet. Die Radioaktivität wurde anfänglich mit 10^7 Curie ermittelt.  Die dann tatsächlich später gemessene  Radioaktivität betrug nur noch 360 Curie.

Der AVR erreichte die erste Kritikalität am 28.8.1966. Nach erfolgreicher Durchführung aller Testläufe mit den verschiedenen Komponenten und der erfolgreichen Durchführung aller nuklear-physikalischen Messungen zur Überprüfung der Berechnungen konnte der Reaktor den Betrieb aufnehmen. Am 18.12.1966 wurde die Dampfturbogruppe erstmals aufs Netz geschaltet, mit einer Leistung von 6 MW.

Danach war die Anlage bis zum 31.12.1988 in Betrieb. Die Abschaltung erfolgte allein aus politischen Gründen. Es bestanden weder technische  und schon gar nicht sicherheitstechnischen Bedenken. Auch eine sicherheitstechnische Nachrüstung war nicht erforderliche, da  in den 22 Betriebsjahren keine nicht lösbaren Probleme aufgetreten sind  und/oder nennenswerte technische Verbesserungen nicht erforderlich  waren. Alles war von Anfang an bestens durchdacht.

Ein Ereignis ist aber von herausragender Bedeutung. Wir erprobten den „GAU“, den größten anzunehmenden Unfall, der dann zu erwarten ist, wenn die Brennelemente nicht mehr gekühlt werden und alle Sicherheitsvorrichtungen versagen. Wir erprobten also die von Schulten erdachte inhärente Sicherheit des Reaktorkonzeptes, das den Eintritt eines „GAU“ ausschließt. Dieses spannende Experiment fand unter Ausschluss der Öffentlichkeit statt und wurde kaum beachtet.  Der Reaktor wurde auf volle Betriebsleistung von 15 MWel und der vorgegebenen Betriebstemperatur von 850 °C hochgefahren, dann wurden alle Sicherheitseinrichtungen blockiert, die Kühlgasgebläse abgeschaltet. Wie vorberechnet wurde der Reaktor in einigen Tagen von selbst kalt, durch Abfuhr der Restwärme des Cores nach außen.

Dies war der erste GAU in einem Kernkraftwerk weltweit, niemand hat davon etwas gemerkt, keine Strahlung drang nach außen und das Betriebspersonal konnte unbehelligt in der Warte den Ablauf dieses Experimentes beobachten. Dieser Versuch wurde 1979 wiederholt, diesmal aber mit detaillierten Aufzeichnungen und Messungen des gesamten Ablaufs.

„Tschernobyl“ war später, es war also nicht der erste „GAU“. Die schrecklichen Nachwirkungen    dieser Katastrophe einer völlig anderen Reaktorkonstruktion belasten bis heute die Diskussion zur Sicherheit von Kernkraftwerken.

Der HTR ist bis heute das einzige Reaktorkonzept, bei dem ein solcher Unfall aus nuklear-physikalischen Gründen ausgeschlossen ist. Dass man dies in der Politik und der öffentlichen Meinung praktisch totschweigt, ist jedem Fachmann unverständlich.

Wenn wir von Störungen sprechen, so soll hier eine gravierende Störung erwähnt werden. Der Dampferzeuger galt als kritisches Element, da bei einer Undichtigkeit Wasser in das Helium eindringen konnte, was eine totale Abschaltung des Betriebes erfordert hätte. Mehrere hunderttausend Schweißnähte wurde bei der Erstellung überprüft, alle verfügbaren Prüfverfahren wurden eingesetzt, sogar neu entwickelt, alle Prüfungen und Druckproben verliefen ohne Beanstandung. Selbstverständlich wurden in vielen Berechnungen, Studien und Untersuchungen die Auswirkungen eines solchen Wassereinbruchs in das System berechnet. Alle zeigten, daß eine nuklear bedenkliche Störung nicht eintreten kann. Tatsächlich ist diese Störung dann auch eingetreten.  Ein sicherheitstechnisches Problem bestand nicht. Nach der 7-stufigen Internationalen-Bewertungsskala für Störungen und Störfälle in kerntechnischen Anlagen ist sie in die Kategorie 1“Störung“ einzuordnen. Betrieblich gesehen negativ war die lange Stillstandszeit von mehreren Monaten zur Behebung des Schadens.

Alle anderen Komponenten arbeiteten praktisch einwandfrei. Verschleißteile und kleinere Mängel konnten zum Teil während des laufenden Betriebes durch Einsatz unserer speziell für solche Fälle entwickelten Ausbautechnik behoben werden, ohne dass eine unzulässig hohe Bestrahlung des Personals eintreten konnte,

Der Betrieb des AVR war eine wohl für eine Erstausführung einmalige Erfolgsgeschichte. Es ist kein einziger „Strahlenunfall“ vorgekommen. In 22 Betriebsjahren ist kein Mitarbeiter einer zu hohen Strahlendosis ausgesetzt gewesen. Die Abgabe von radioaktiven Stoffen an die Atmosphäre war gering, in keinem einzigen Fall ist es zu einer Überschreitung der zulässigen Dosen gekommen. Alle, natürlich nicht 100% vermeidbaren Betriebs- „Störungen“, mit Ausnahme der des Dampferzeugers können nach der Bewertungsskale mit „0“ – keine oder sehr geringe sicherheitstechnische Bedeutung- bewertet werden.

Die Zeitausnutzung, also die Zeit in der der Reaktor in 22 Jahren in Betrieb war, lag bei   66,4%. Da es sich um einen Versuchsreaktor handelte, vor allem auch zur Erprobung verschiedener Brennelemente im Rahmen des vorerwähnten Entwicklungsprogramms, ist hierin die Abschaltzeit für diese Arbeiten enthalten. Die höchste Betriebsverfügbarkeit wurde 1976 erreicht, mit einem Wert von 92%. Es wird zwar keine internationale Statistik geführt, aber dies war für eine völlig neu entwickelte Technik sicher ein Weltrekord.

Schon 1966 wurde das Grundkonzept für den Nachfolgereaktor erarbeitet. Die Leistung wurde mit 300 MWel festgelegt. Sicher war es ein enormer Leistungssprung von einem Versuchsreaktor mit einer Leistung von 15 MWel –ohne vorliegende Betriebserfahrungen- gleich  einen Demonstrationsreaktor mit dieser Größe zu bauen. Aber nach Abwägen aller Pro- und Contra- Argumente war diese Entscheidung sehr mutig aber auch heute noch richtig.

Gegenüber der AVR-Technik mussten  wesentliche konstruktive Änderungen durchgeführt werden:

–       Anstelle des Stahldruckbehälters wurde ein Spannbetondruckbehälter vorgesehen. Eine weltweit völlige Neukonstruktion;

–       Auf ein druckfestes Containment konnte wegen der geringen Aktivität des Heliums verzichtet werde. Es wurde nur eine drucklose Stahlummantelung vorgesehen.

–       Das Helium-Kühlgas musste den Reaktor von oben nach unten durchströmen, weil wegen der höheren Leistung die BE sich sonst in der oberen Schicht abgehoben hätten;

–       Bei der BE-Abzugsvorrichtung wurde eine neue Konstruktion eingebaut;

Nachdem dieses Konzept in der Planung bereits weit fortgeschritten war, stellten unsere Reaktorphysiker fest, dass der  Durchmessers des Kugelbettes so groß war, dass es nicht mehr möglich war, die Abschalt-und Regelstäbe im äußeren Graphitreflektor mechanisch praktisch beanspruchungslos zu führen. Dadurch konnte der Reaktor nicht mehr vollständig abgefahren werden. In einer großen Runde mit allen beteiligten Vorständen wurde diese extrem schwierige Situation besprochen. Nachdem sicher war, dass ein Schaden mit Gefährdung des Betriebspersonals und vor allem der Umgebung nicht eintreten konnte, wurde entschieden, die Abschaltstäbe direkt in das Kugelbett einzufahren. Dies führte zu einer sehr schwierigen Konstruktion dieser Stäbe und der Gefahr der Zerstörung der Brennelemente. Es wurde erkannt, dass ein Reaktor dieser Größe gebaut werden musste, um feststellen zu können, ob diese Konstruktion technisch überhaupt realisierbar war. Eine Alternative wäre ein Ringcore gewesen, doch hier erschien, ohne Kenntnis des langjährigen Betriebsverhaltens der Graphiteinbauten im AVR, das konstruktive Risiko noch größer zu sein. Nach Stilllegung des AVR, also 23 Jahre später, hat sich dies als Irrtum erwiesen, denn die Graphiteinbauten waren nach 22 Betriebsjahren praktisch wie neu. Kein einziger Block hatte sich auch nur um 1mm verschoben  Die Entscheidung fiel –leider-  zu Gunsten der Abschaltstäbe mit Einfahren in das Kugelbett aus.  Die Betriebserfahrungen mit dem Demonstrationsreaktor sollten abgewartet werden, um später eine endgültige Entscheidung treffen zu können.

Leider sind dann die befürchteten Schwierigkeiten bei der Inbetriebnahme tatsächlich eingetreten. Die hierdurch bedingten Schwierigkeiten beim Betrieb des Reaktors wurden beherrscht. Der Reaktor war immerhin drei Jahre in Betrieb. Ein Vergleich der Bruchraten zwischen AVR und THTR veranschaulicht die Problematik. Die Bruchrate pro umgewälzten BE lag beim AVR bei 0,0092 %, beim THTR bei 0,6%. Diese war natürlich viel zu hoch. Alleinige Ursachen waren die Abschaltstäbe und die neue Abzugsvorrichtung.

Alle anderen Komponenten arbeiteten einwandfrei. Der THTR war 3 Jahre mit 16.000 h in Betrieb. Diese Betriebszeit war ausreichen,  um alle Erkenntnisse und Erfahrungen zum Bau weiterer Reaktoren zu erhalten. Besonders wichtig war das Ergebnis, dass die Dampferzeugung mit höchsten thermodynamischen Wirkungsgraden einschließlich der Zwischenüberhitzung problemlos funktionierte.  Die  Betriebsergebnisse beim An- und Abfahren der Anlage und im Regelbetrieb waren voll vergleichbar mit denen konventioneller Kraftwerke. Es trat auch, wie beim AVR,  keine einzige sicherheitstechnisch relevante  Störung auf. Das Betriebspersonal wurde trotz der eingetretenen Probleme nicht unzulässig hoch belastet.

Zusammengefasst  nachfolgend  die wesentlichen Ergebnisse und Erfahrungen mit dem THTR-300:

–       HTR-Kraftwerken können im elektrischen Verbundnetz nach Vorgabe der Lastverteilung eingesetzt werden, das Regelverhalten, auch zur Frequenzhaltung, ist einwandfrei;

–       Beim Stillstand, bei Reparaturen selbst am offenen Primärteil wurde das Personal nie unzulässig hoch strahlenbelastet;

–       Durch den eingetretenen Kugelbruch stieg die Aktivität des Primärgase Helium nicht an, die coated particles sind so klein und hart, dass sie nicht zerbrechen können.

–       Alle neu konstruierten Komponenten und die gesamte Anlage, mit Ausnahme der vorbeschriebenen Probleme mit zu hohem Kugelbruch, arbeiteten einwandfrei;

–       Es wurde der zweifelsfreie Nachweis erbracht, dass die Sicherheitstechnik  so weit entwickelt ist, dass keine Gefahr für das Bedienungspersonal und die Bevölkerung besteht. Im schlimmsten überhaupt denkbaren Störfall ist, wegen der sehr geringen radioaktiven Belastung des Heliums  eine Evakuierung der Bevölkerung nicht erforderlich.

 

Trotz der kurzen Betriebszeit hat der Demonstrationsreaktor alle Erkenntnisse und Erfahrungen erbracht, um neue HTR-Kraftwerke sicher bauen zu können.

In der Öffentlichkeit ist es kaum bekannt, dass der stillgelegte Reaktor den Nachweis erbringt, dass der Spannbetonbehälter das sicherste Endlager für strahlende Komponenten ist. Sicherer geht es ingenieurtechnisch nicht. Außerhalb des Spannbetonbehälters ist keine Strahlung mehr messbar. Ein schönes Restaurant auf dem Dach gebaut, mit herrlichem Blick in das Münsterland, wäre sicher eine prima Endlösung.

Das Ergebnis aus den zusammengefassten Betriebserfahrungen mit dem AVR und dem THTR zeigt, dass es ohne weitere Entwicklungen möglich ist, diese Technik großtechnisch anzuwenden.

Das Ergebnis meiner eigenen konstruktiven Überlegungen möchte ich nachfolgend  kurz erläutern.

Bei einem zukünftigen Hochtemperaturreaktor ist die Maximierung der  Sicherheit das mit Abstand wichtigste aller Kriterien. Weiter soll von Anfang an die Frage der Endlagerung nach Stilllegung einer solchen Anlage mit geplant werden. Ich möchte diese Technologie als integriertes Konzept als eine in sich geschlossene Nukleare Hochtemperaturtechnologie /NHTT/  bezeichnen und verstanden wissen. 

Die  folgenden konstruktiven Grundlagen  sind  Kernstück dieser Technik:

–       Erdbebensicherheit nach Stärke 6, also für unsere Regionen die höchstdenkbare Erdbebensicherheit.

Diese ist zu erreichen durch ein großflächiges, starkes Betonfundamentes. Hierbei entsteht eine große Grundfläche, die den Aufbau eines stabilen, nach außen gasdicht abgeschlossenen Betonunterbaus ermöglicht.  In den Räumen unterhalb des eigentlichen Reaktors sollen alle Tätigkeiten ausgeführt werden, die mit einer Strahlenbelastung verbunden sein könnten. So bspw. Ausführung von Reparaturen an Komponenten, deren Dekontamination und eventueller Endlagerung in abgeschlossenen Räumen. Ferner das Endlager für abgebrannte Brennelemente. Ziel soll es sein, dass kein Bauelement, das einer Bestrahlung ausgesetzt war, das Betriebsgelände verlassen muss.  Daher sind keine „Castor-Transporte“ zu anderen nuklearen Lagern erforderlich. Dass dies problemlos möglich ist, zeigen die Erfahrungen mit dem THTR-300.

 

–       Ein Kernschmelzen, also ein „GAU“, ist nuklear-physikalisch ausgeschlossen;

–       Die kugelförmigen Brennelemente haben sich als die besten Brennelemente erwiesen. Die Spaltprodukte werden bereits im Kern der „Coated Particles“ mit einem Durchmesser von nur 0,5mm  durch hochgasdichte Hüllen aus PyC und SiC weitgehend zurückgehalten. Diese Hüllen stellen die erste Barriere zur Verhinderung des Austritts von Spaltprodukten in das He-Kühlgas dar. Dadurch wird dieses nur gering belastet. Die kugelförmigen BE haben weiter gegenüber allen anderen Konstruktionen den Vorteil, dass sie sehr kompakt und leicht handhabbar sind. Daher ist der erforderliche Raum zu einer Zwischen- oder Endlagerung auch bei vielen Betriebsjahren sehr gering und kann problemlos im „Betonunterbau“ untergebracht werden.

–       Der Spannbetonbehälter hat sich als berstsicher  erwiesen, er ist damit die wichtige 2. Sicherheitsbarriere gegen Austritt von Radioaktivität.

–       Ein druckloses Containment um die gesamte Anlage stellt die 3. Barriere dar. Das Volumen ist so groß, dass das gesamte He-Primärgas im Kühlkreislauf dort aufgefangen werden könnte, ohne dass etwas nach außen dringen kann.

–       Anstelle eines zentralen Brennelementabzugs mit einem zentralen Kugelhaufencore wird ein Ringcore mit mehreren Abzugsvorrichtungen gebaut. Es ermöglicht bei gleichem Grundkonzept den Bau von Anlagen bis zu den höchsten Leistungen bei optimalem Durchlauf der BE. Die Abschalt- und Regelstäbe werden praktisch beanspruchungslos in die Graphitreflektoren eingebaut.

–       Ein doppelter He/He-Kreislauf verhindert die Übertragung von Spaltprodukten, auch von Graphitstaub, nach außen.  Der Primärteil des Reaktors ist so  auch sicher gegen „Fremdmedieneinbruch“ von außen.

–       Dieses Konzept ermöglicht  eine einfache Kontrolle über den Verbleib des nuklearen Materials.

–       Die 5-6m dicken Wände aus vorgespanntem Beton des Druckbehälters sind sicher gegen jede Art von terroristischer Bedrohung und auch gegen Flugzeugabstürze. Sie halten selbst gezielten Raketenangriffen stand.

Diese sicherheitstechnischen Vorteile können in diesem Umfang von keinem derzeit bekannten Kernkraftwerk erreicht werden und  werden auch nicht zu erreichen sein.

Nun  noch eine zusammenfassende, kurze Beurteilung der Wirtschaftlichkeit der NHT-Technologie:

–       Die kugelförmigen Brennelemente sind die nuklear sichersten, betrieblich am einfachsten zu handhabende und wegen ihres geringen Volumens am sichersten end-zu-lagernden Brennelemente. Sie ermöglichen zudem einen  BE-Wechsel bei laufendem Betrieb, also ohne Abschaltung der Anlage. Dies ist aus wirtschaftlich-betrieblicher Sicht ein enormer Vorteil.

–       Die hohen Primärgastemperaturen ermöglichen höchste thermodynamische Wirkungsgrade, daher beste Ausnutzung des nuklearen Brennstoffs.

–       Die Hochtemperaturwärme kann neben zur Stromerzeugung in den verschiedensten verfahrenstechnischen Prozessen, bspw. zur Erzeugung flüssiger oder gasförmiger Brennstoffen genutzt werden.

–       Der Einsatz von Thorium 232 ermöglicht das „Erbrüten“ des spaltbaren Urans 233 als neuem Brennstoff. Daher reichen die vorhanden Uranreserven aus U235 in Verbindung mit Thorium 232 auf unabsehbare Zeiten aus.

Zum Abschluss aber noch ein Wort zur Frage des CO2 in der Atmosphäre. Ohne CO2 ist der Planet Erde unbewohnbar. Wer  behauptet, CO2  sei ein „Schadgas“ oder „Schmutzgas“ und strebt gar ein „0-CO2 Ziel“ für den Planeten Erde an, zeigt ein unfassbares Maß an minimalsten, elementarsten Schulkenntnissen, er hat einen hohen Mangel an Allgemeinbildung.  Ein wissenschaftlich exakter Nachweis dass CO2 einen Einfluss auf das Klima unseres Planeten Erde hat, existiert nicht, im Gegenteil, das Klima unseres Planeten Erde ändert sich auch ohne den Menschen seit Jahrtausenden. Die Natur, nicht der Mensch, oder auch das Weltall mit Sonne, Mond  und Sternen bestimmen unser Klima. Prof. Dr. S. Fred Singer hat dies umfassend in seinem Buch. „Die Natur, nicht menschliche Aktivität, bestimmt das Klima“ dargestellt. Mit Ausnahme der BRD und einiger EU Staaten handeln alle Staaten weltweit danach, vor allem auch die USA und China. Der für Kraftwerke vorgesehene CO2-Emissioinshandel ist daher völliger Unsinn. Auch die KKW – Betreiber sollten die CO2-Freiheit ihrer Stromerzeugung nicht mehr als Vorteil herausstellen, sondern allein die wirtschaftliche Überlegenheit  dieser Technik. In allen Kernkraftwerken   wird der Strom um den  Faktor 6-30 niedriger erzeugt, als dies in den Anlagen mit „erneuerbaren Energien“ auch auf Dauer möglich ist.  Die Kosten der elektrischen Energie  haben einen entscheidenden Anteil auf die Kostenbelastung der Bevölkerung, hohe Stromkosten sind in höchstem Maße unsozial. Vor allem aber  die energieintensive Industrie, in der heute noch Millionen von sicheren Arbeitsplätzen vorhanden, sind wird gegenüber der ausländischen Konkurrenz entscheidende Nachteile haben. Ihre Schwächung, wenn nicht gar Vernichtung in Deutschland, durch die hohen Kosten der „erneuerbaren Energien“ führt mit Sicherheit zu einer entscheidenden Schwächung unserer Wirtschaft in allen Bereichen und damit zur Unfinanzierbarkeit unserer sozialen Einrichtungen. Nur ein „Energiemix“ aus möglichst billigen Produktionsanlagen ist ein volkswirtschaftlich vernünftiger Energiemix. Dies war, wie eingangs erläutert,  in den Nachkriegsjahren richtig und ist es auch heute noch. Herr Dr. Großmann hat dies in einer Leserzuschrift in der FAZ vom 19.Juli 2010 wie folgt beschrieben: „Es geht um knallharte Industriepolitik“. Wer dies nicht erkennt und danach handelt,  versündigt sich an der Deutschen Wirtschaft.

Wie absurd die Bestrebungen von Regierung und Opposition sind, eine weltweite „Führerschaft“ bei „erneuerbaren Energien“ zur CO2-Vermeidung und damit zum „Klimaschutz“ anzustreben, soll folgende simple Rechnung, die als Leserzuschrift von mir am 14.Januar 2010 in der FAZ erschienen ist, und mir enorme Zustimmung gebracht hat, zeigen. Wenn in der BRD überhaupt kein anthropogenes CO2 mehr erzeugt wird, wenn also Deutschland auf der Welt nicht mehr existieren würde, hat dies einen Einfluss von 0,00004712% auf die Gesamtproduktion von CO2  unseres Planeten. Wer dennoch dieses Ziel verfolgt, muss einem geradezu unglaublichen Größenwahn erlegen sein.

Vortrag von Dr.-Ing. Urban Cleve

Update zur aktuellen Lage in Fukushima finden Sie hier:

Kurzberichte zu Fukushima Daiichi (11): Die Temperaturen sinken jetzt schnell. "Kein zweites Tschernobyl" (Stand: Donnerstag, 17.00 Uhr)

Die wichtigsten Meldungen des heutigen Tages (in Japan ist es jetzt bereits ein Uhr nachts) betreffen die Temperaturen.

Die Temperaturen sind in mehrfacher Hinsicht kritisch: Zum einen müssen die Reaktoren und die Abklingbecken gekühlt werden, damit aus dem Schmelzen oder Anschmelzen einzelner Brennstäbe keine umfassende Kernschmelze hervorgehen kann. Das ist der langfristige, der sozusagen strategische Aspekt. Kurzfristig – gewissermaßen auf der taktischen Ebene – geht es darum, die Temperaturen zu senken, um damit auch die ionisierende Strahlung, die vor allem von den Brennstäben in den Abklingbecken ausgeht, weiter zu reduzieren….

Lesen Sie bei Zettels Raum weiter

Nachsatz Vortrag Dr. Cleve:

Wer die ausführlichen Begründungen und eine Vertiefung meines vorliegenden Vortrages lesen möchte, kann dies im Internet tun:

1.)  www.buerger-fuer-technik.de; Kerntechnik 2009 und 2010;

2.)  www.eike-klima-energie.eu/news-anzeige/umwelt-klima-energie

3.)  Bei  www.eike-klima-energie.eu  und www.buerger-fuer-technik.de

 findet man weitere umfassende Beiträge zum Thema CO2 von tausenden von Wissenschaftlern aus aller Welt, die leider von deutschen Politikern noch nicht verstanden oder gelesen werden. Es lohnt sich, diese Webseiten einmal aufzurufen.

4.)  Prof. Dr. S. Fred Singer.“ Die Natur, nicht menschliche Aktivität, bestimmt unser Klima”.




Windturbinen – die Realität in Kalifornien – + Video

Aber bei der Durchfahrt wurde ich mit der Realität konfrontiert, die ganz anders aussah als im obigen Photo. Ich fahre oft über diese Straße und wünschte mir immer, eine Videokamera dabei zu haben, um zu dokumentieren, wie viele Windräder nicht funktionieren, weil dies in Photos nicht gut zum Ausdruck kommt. Ohne bestimmte Zusatzfilter sehen sie alle aus, als ob sie still stehen.

Aber diesmal war es anders. Ich hatte diesmal eine Videokamera dabei. Außerdem war der Tag dieser Fahrt, Dienstag, der 15. März 2011 fast perfekt für Windturbinen. Es zog eine Front auf, mit starken Winden auf ihrer Vorderseite.

Hier sind die Winddaten des Automaten am Flughafen von Tehachapi während der Zeit meiner Fahrt:

Diese Winddaten wurden 1000 Fuß (ca. 330 m) tiefer aufgezeichnet als die Windräder auf der Kuppe des Hügelzuges, wo der Wind noch stärker gewesen sein dürfte.

Und hier folgt, was ich bei den Windturbinen auf der Hügelkuppe sah; es gab schon einige, die an diesem windigen Tag still standen. Das Video wurde um 11 Uhr vormittags aufgenommen:

Es standen viele weitere still stehende Turbinen dort, aber ich fand keinen günstigen Ort auf dem Highway, um sie zu filmen. Dieses Video habe ich vom Parkplatz neben der Überwachungsstation für die Agrokultur aufgenommen.

Ich schätze mal nach Video und Augenschein, dass etwa eine von vier Windturbinen nicht funktionierte.

Das Problem ist die Wartung. Der Ort bietet zwar perfekte Windbedingungen, ist aber schwierig zu erreichen für Arbeitsausrüstungen. Selbst auf flachem Terrain wie in Texas (siehe unten), wo ich diese Turbinen fotografierte, ist die Wartung des Getriebekastens sowie des Generators oben auf dem Mast nicht einfach.

 

Nun stelle man sich die Schwierigkeiten für die Wartung auf einem Hügelzug vor.

Auf der Website von wind-work.org “tour” section beklagt man sich über die Bedingungen der Windparks von Zond (Enron):

Wichtige Anmerkungen zur Wartung von Windparks

Im ganzen Tehachapi-Mojave Bereich erkennt man Turbinen ohne Bugspitze, Turbinen ohne Gondeln (weggeblasen und nicht ersetzt), Öl aus Blatteinstellwinkelregelung Dichtungen, Öl aus Getriebe, Straße schneiden tief ein im steilen Gelände, Erosionsrinnen, stillgelegte Turbinen Und „Trümmer Haufen“ von Rest(Müll)Teilen. Ein „Trümmer Haufen“ im Zond Park von aufgegebenen Fiberglas Blättern ist auf der Ostseite der Tehachapi-Willow Springs Road sichtbar. nahe dem Oak Creek Pass. (Das Kern County erlaubt lokale Entsorgung von Fiberglas nicht.) Während der Tour durch Windpark-Standorte sieht man weggewehten Müll und anderen Abfall (Plastiktüten, Softdrink-Becher, Flaschen, elektrische Anschlüsse, Schrott Teile aus Metall, und so weiter).  Diese spiegeln die Aufmerksamkeit des Managements zu Wartungs- und allgemeinen Sauberkeitsfragen wider. An besseren Standorten, sehen Sie davon nichts.

Selbst die kleineren vier Turbinen auf der Talsohle westlich vom Flughafen Tehachapi, die die aus Bakersfield kommenden Besucher grüßen, haben ein Problem, obwohl sie auf flachem Grund stehen und leicht zugänglich sind:

[

In Palm Springs in Kalifornien, einem anderen windigen Standort, hat man

ähnliche Probleme:

==========================================================

Florida’s Floridas kaputte Windmühlen: Ein kalifornisches Problem!

 

 

Die Genehmigung zum Betrieb von Windturbinen schließt nicht ein, dass sie dort nur herum stehen und nicht funktionieren. Falls Windmühlen in einer Stadt stehen, müssen sie auch laufen. Eine Stadt, in der Windmühlen willkommen waren, seit sie in den frühen achtziger Jahren eingeführt worden waren, muss feststellen, dass viele dieser Windmühlen nicht mehr gehen und möchte sie repariert haben. Die Frage ist aber, wer ist für die Reparatur zuständig? Der Firma Florida Power and Light (FPL), dem Eigentümer der still stehenden Windmühlen, wurde genehmigt, lokale Windmühlen zu installieren und zu betreiben unter einer conditional use permit (CUP), in der festgelegt ist, dass eine Windmühle, die sechs Monate lang nicht läuft, als ein öffentliches Ärgernis angesehen wird und abgebaut werden muss.

==========================================================

Hier folgt ein Video, das die inneren Arbeiten einer Windkraftanlage im US-Bundesstaat Washington [im Nordwesten der USA] zeigt:

Und das Problem mangelnder Wartung ist nicht nur auf Kalifornien beschränkt. Im Jahre 2001 besuchte ich den Kamaoa Windpark bei Southpoint auf der Hauptinsel von Hawaii. Der Wind weht dort so stark, dass die Bäume horizontal wachsen wie auf diesem Photo gezeigt:

 

So sehr ich über diesen Anblick überrascht war, war ich es auch angesichts stehender Windturbinen dort. Es war meine erste Erfahrung mit einem Windpark.

Aus diesem Beitrag in American Thinker “Wind energy’s ghosts” [etwa: „Geister der Windenergie“]:

=========================================================

 

Kamaoa Wind Farm, Hawaii. (image)

==========================================================

 

Bild: Waymarking.com

Wie in Kalifornien gibt es das Problem fehlender Wartung auch in Hawaii.

Aber war das bei Windmühlen nicht schon immer so?

 

 

Es scheint so, je mehr sich die Dinge ändern, umso mehr bleiben sie gleich:

 

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

Update: Der Gesetzgeber des US-Bundesstaates Idaho erwägt ein Moratorium bei der Windenergie

18.März 2011

— Die Errichtung von Windturbinen könnte im US-Bundesstaat Idaho gestoppt werden.

Der Gesetzgeber bereitet einen Gesetzentwurf vor, der die Errichtung neuer Windparks für zwei Jahre verhindert.

Während des vergangenen Jahres wurden Dutzende neuer Windturbinen aufgestellt, und zwar bei Idaho Falls, aber viele der angrenzenden Gemeinden und ihre Vertreter wollen eine zeitweilige Unterbrechung neuer Konstruktionen.

Als die Gesetzgebung im Energieplan von 2007 eingeführt wurde, war nicht erwartet worden, dass so viele Energiegesellschaften Windparks in Idaho einrichten wollten.

Der Autor des Gesetzentwurfs Erik Simpson sage, dass er und sein Kollege von der Demokratischen Partei darin übereinstimmen, die langfristigen Auswirkungen zu betrachten.

„Kommunale Regierungen brauchen eine Direktive, für was sie zuständig sein sollen, wenn sie sich überlegen, welche Auswirkungen bzgl. des Windes zu erwarten sind, und das müssen wir herausfinden“, sagt das Mitglied Tom Loertcher.

Der Gesetzentwurf sieht ein zweijähriges Moratorium bei der Errichtung neuer Windparks vor, um diesen Tatbestand zu untersuchen.

Es könnte momentan ein Problem im östlichen Idaho sein, aber es ist wahrscheinlich, dass andere Gemeinden ebenfalls betroffen sein werden, außer wir nehmen diese Pause von zwei Jahren und studieren den Fall intensiver“, sagte Simpson.

Die Windkraft ist nicht der billigste Weg, Energie zu erzeugen, und die Gesetzgeber wollen sicherstellen, dass ihre Untergebenen nicht die höchsten Preise zahlen müssen.

Noch einmal Simpson: „Die Nutzungsrate dieser unzuverlässigen und nur zeitweise zur Verfügung stehenden Energiequelle ist zu gering, um dafür noch mehr zu bezahlen!”

Viele machen sich auch Sorgen um die Umwelt.

 „Eine ganze Reihe dieser Projekte werden in Gebieten mit unberührter Wildnis errichtet“, sagte Simpson.

Dem stimmt aber nicht jeder zu. Einige lokale Einwohner wie der Landwirt Tory Talbot in Bonneville County möchte noch mehr Windturbinen sehen.

„Das Moratorium wird dazu führen, dass Geschäftsleute, die nach Idaho kommen wollen, davon Abstand nehmen. Südost- und das südliche Idaho haben ein großes Windpotential“, sagte Talbot.

Das State Affairs Committee plant, die Debatte am Montag fortzusetzen, wenn Stellungnahmen von Gemeinderäten und Energiefirmen vorliegen.

Dann werden sie darüber abstimmen, ob man den Gesetzentwurf dem Haus [= dem Kongress] vorlegen soll.

Sollte das Gesetz passieren, würde dies nicht Projekte betreffen, die bereits genehmigt oder im Bau sind.

==========================================================

Das Wartungsproblem gibt es auch in Deutschland:

Von: jcwinnie.biz

Das Getriebe von Windturbinen hat seit den frühen neunziger Jahren versagt. Kaum eine Turbine war nicht davon betroffen. Das Problem erreichte epidemische Ausmaße mit einem massiven Serienausfall von Getriebekästen der Firma NEG Micon. Zu der Zeit waren Windturbinen von NEG Micon die am meisten verkauften Windturbinen weltweit. Die Katastrophe führte zum Bankrott der Firma; sie wurde von der Firma Vestas übernommen, dem größten Hersteller von Windturbinen weltweit. Aber auch diese Firma ist von Ausfällen von Getriebekästen und Rotoren betroffen.

Wie schon gesagt, musste eine große Zahl von Getriebekästen ersetzt werden. Der Spiegel berichtet, dass die Deutsche Versicherungsgesellschaft nicht sehr glücklich darüber ist…

„Zusätzlich zu Generatoren und Getriebe zeigen auch Rotorblätter oft Defekte”, behauptet ein Bericht über technische Unvollkommenheiten von Windturbinen. Die Versicherungen beklagen sich über Probleme, die von ungeeigneter Lagerung  bis zu gefährlichen Rissen reichen… Die fragilen Turbinen einiger Hersteller drohen, einen Industriezweig zu beschädigen, der jahrelang als ein gewaltiger Erfolg angesehen worden ist.“

Auf Spiegel Online machen sich Simone Kaiser und Michael Sorgen über bereits installierte Windturbinen:

„Nach den jüngsten Boomjahren der Industrie machen sich Experten und Firmen zur Energieerzeugung aus Windkraft Sorgen. Die Bauwerke könnten nicht so zuverlässig und langlebig sein, wie die Hersteller behaupten. Tatsächlich scheinen die Schwierigkeiten erheblich zuzunehmen, betrachtet man die Tausende Unglücke, Zusammenbrüche und Unfälle der letzten Jahre. Getriebekästen, die sich im Gehäuse oben auf den Mastspitzen verstecken, sind sehr kurzlebig und fallen oft aus, bevor fünf Jahre um sind. In einigen Fällen bilden sich nach einem begrenzten Betrieb Risse in Rotoren oder selbst im Fundament. Kurzschlüsse oder überhitzte Propeller haben bekanntermaßen zu Bränden geführt. All dies geschah trotz der Zusicherungen der Hersteller, dass die Turbinen mindestens 20 Jahre laufen würden.“

Anthony Watts; Den Originalartikel finden Sie hier 

Übersetzt von Chris Frey für EIKE




Umfrage von ‚Scientific American’: 81% glauben, dass der IPCC korrupt ist und Lobbyinteressen vertritt

*[Henry Waxman ist seit 2009 Vorsitzender des Ausschusses für Energie und Handel des Repräsentantenhauses; er ist gemeinsam mit Ed Markey Autor des auch Waxman-Markey bill genannten Entwurfs für ein Clean Energy and Security Act, mit dem die Emissionen der USA an Treibhausgasen reguliert werden sollen. Quelle: Wikipedia. A. d. Übers.]

Im vorigen Jahr wurde der Beitrag von Anthony und mir für das SPPI im EPW des Senats* vorgestellt und hat [deren Vorsitzende] Boxer völlig überrascht. Nachdem sie sich hinter verschlossene Türen zurückgezogen hatte, trat sie wieder heraus und verkündete, dass unser Beitrag mit den Umfrageergebnissen von Big Oil in Gestalt von Exxon Mobile gesponsert worden war und daher ignoriert werden könne. Das SPPI erwiderte in einem Brief, dass man NIEMALS auch nur einen Penny von Exxon erhalten habe, aber Boxer et al. waren schon weiter. Lass niemals Fakten eine gute Story versauen oder eine politisch gewählte Richtung gefährden!

*[EPW = Committee for Environment and Public Works des US-Senats. Vorsitzende: Barbara Boxer. A. d. Übers.]

Hockey Schtick

‚Scientific’ American könnte es noch bereuen, diese jüngste Umfrage mit ihren Augen öffnenden Ergebnissen ihren „wissenschaftlich gebildeten“ Lesern vorenthalten zu haben. Es gab 5190 Antworten, davon gab es einen Konsens von 81,3%, die glauben, dass das IPCC „eine korrupte Organisation ist, Lobbyinteressen vertritt und eine politische Agenda“ hat“. 75% glauben, dass Klimaänderungen durch solare Vorgänge und natürliche Prozesse gesteuert werden. Diesen stehen lediglich 21% gegenüber, die die anthropogenen Treibhausgase für ursächlich halten. 65% glauben, dass wir hinsichtlich der Klimaänderung gar nichts tun sollten, weil „es nicht in unserer Macht steht, den Klimawandel zu stoppen“. Die gleiche Prozentzahl ergibt sich für jene, die sagen, dass das IPCC sich aus der Politik heraushalten sollte. Auf die Frage „wie viel Geld würden Sie ausgeben wollen, um den Risiken einer katastrophalen Klimaänderung zu begegnen?“, antworteten 76,7%: gar nichts!

Die Umfrageergebnisse sind hier versteckt.

Klima der Änderung?

[In der nun folgenden Einzelbewertung steht im Original jedes Mal der Hinweis, dass 5188 Personen die Fragen beantwortet haben und jeweils 2 Personen eine Antwort offen gelassen haben. Das werden wohl nicht immer die gleichen zwei gewesen sein. Auf die Wiederholung dieses Umstands am Ende einer jeden Auswertung wird hier verzichtet. A. d. Übers.]

1. Sollten Klimawissenschaftler wissenschaftliche Unsicherheiten in der Öffentlichkeit diskutieren?

·        Nein, das würde der Lobby der fossilen Brennstoffe in die Hände spielen.

         3,0% oder 157

·        Ja, das würde helfen, die Bürger zu engagieren. 90,1% oder 4673

·        Vielleicht – aber nur auf seriösen Plätzen wie der Sendung NewsHour von

         PBS oder der New York Times. 6,9% oder 358.

2. Judith Curry ist:

·        Eine Friedensstifterin. 69,1% oder 3585.

·        Eine Betrogene. 7,6% oder 392.

·        Beides. 4,3% oder 224.

·        Ich habe noch nie von ihr gehört. 19,0% oder 987.

3. Was sind die Ursachen für Klimaänderungen?

·        Anthropogene Treibhausgase. 30,9% oder 1602

·        Solare Variationen 33,1% oder 1718

·        Natürliche Prozesse 75,8% oder 3934

·        Es gibt keine Klimaänderung. 6,2% oder 320

4. Das IPCC ist:

·        Eine effective Gruppe von Regierungsvertretern, Wissenschaftlern und

         anderen Experten. 18,0% oder 932.

·        Eine korrupte Organisation, gesteuert durch Interessenverbände und mit

         einer politischen Agenda. 81,3% oder 4220.

·        Es hat etwas mit Internetprotokollen zu tun. 0,7% oder 36

5. Was sollten wir hinsichtlich der Klimaänderung tun?

·        Gar nichts, wir können sie sowieso nicht aufhalten. 65,4% oder 3394.

·        Mehr technologie benutzen (Geo-engeneering, Abscheidung und Lagerung

         von CO2). 16,7% oder 865.

·        Weniger Technologie nutzen (Autos, intensive Agrikultur). 5,8% oder 303.

·        Hinwendung zu kohlenstofffreien Energiequellen so viel wie möglich und

         Anpassung an die jetzt schon stattfindenden Änderungen. 29,5% oder 

        1528.

6. Was ist „Klimasensitivität”?

·        Das Ausmaß, in dem die globale Temperatur auf die Konzentrationen von

         Treibhausgasen reagiert. 32,6% oder 1692

·        Eine unbekannte Variable, die die Klimawissenschaftler immer noch nicht

         verstehen. 52,2% oder 2708

·        Die Phrase, an der das Schicksal der menschlichen Zivilisation hängt. 0,6%

         oder 30

·        Alles oben Genannte. 14,6% oder 758

7. Welche politischen Optionen unterstützen Sie?

·        Eine Steuer auf Kohlenstoff. 15,1% oder 781.

·        Zertifikatehandel 8,5% oder 441.

·        Verstärkte Subventionen in die Entwicklung von Technologien zur

         Energieerzeugung. 38,8% oder 2015

·        Aufteilung der Profite aus dem Kohlenstoffhandel und den Steuerzahlern

        als Rabatt zurück gegeben. 6,6% oder 343

·        Die Wissenschaft sollte sich aus dem politischen Prozess heraushalten.

         65,1% oder 3375.

8. Wie viel würden Sie zahlen wollen, um den Risiken einer katastrophalen Klimaänderung zu begegnen?

·        Eine Erhöhung der Strompreise um 50%. 3,8% oder 195.

·        Eine Verdoppelung der Benzinpreise. 5,5% oder 286.

·        Gar nichts 76,7% oder 3981

·        Was auch immer nötig ist. 14,0% oder 726.

Beachte auch die Kommentare.

Am 16.3. 11 auf ICECAP hier erschienen: 

Übersetzt von Chris Frey für EIKE




Kurzberichte zu Fukushima Daiichi (9): Die aktuelle Falschmeldung bei „Spiegel-Online“; diesmal Extraklasse (Stand: 23.3, 13.30 Uhr und 24.3.)

Update: n-tv am 24.3. morgens: Liveticker 5.52 Uhr+++ Strahlenwerte um Fukushima leicht gestiegen +++

+++ 5.52 Strahlenwerte um Fukushima leicht gestiegen +++In der Umgebung des havarierten Atomkraftwerks Fukushima wurde eine leicht erhöhte Strahlung festgestellt. In der 75 Kilometer nordwestlich gelegenen Stadt Fukushima wurde ein Wert von 5,43 Mikrosievert pro Stunde gemessen, wie der Fernsehsender NHK berichtete. In Minamisoma, rund 30 Kilometer nördlich des Kraftwerks, waren es 1,42 Mikrosievert und in Iwaki, 50 Kilometer südlich, wurden 1,68 Mikrosievert registriert.

Kommentar: 

Der jährliche Grenzwert für Piloten und Stewardessen beträgt 20 000 Mikrosievert, das sind pro Stunde etwa 2,28 Mikrosievert*. http://www.helmholtz-muenchen.de/fileadmin/EPCARD-Portal/PDF/FLUGS_EPCARD.pdf  In der "verseuchten Zone" herrschte (siehe nebenstehendes Diagramm mit den aktuellen Daten aus dem KKW Fukushima) also kurzzeitig gut das Doppelte.

Die Exposition des fliegenden Personals während eines Hin- und Rückfluges Frankfurt Main- San Franzisco (gem. o.a. Studie) liegt bei 100 µS bis 200 µS. Das sind zwischen 5 – 10 µS/h. Dh. bei nur 50 Flügen dieser Strecke im Jahr, bekommt das fliegende Personal eine Strahlenexposition von 50 x 100 = 5000 µS bis 50 x 200 = 10.000 µS. Beim fliegenden Personal ist bisher nichts von einer erhöhten Krebsneigung bekannt.  http://www.spiegel.de/reise/aktuell/a-228101.html

Welche Mengen Strahlung sind eigentlich in welchem Zusammenhang unterwegs: http://xkcd.com/radiation/

Ein Deutscher in Japan meint: http://www.welt.de/vermischtes/weltgeschehen/article12930698/Deutsche-in-Japan-fuehlen-sich-verhoehnt.html

Interessant:

"The granite in Grand Central Station and the uranium-laced stone used to build the U.S. Capitol Building supposedly give off enough radiation that if they were nuclear power plants they wouldn’t pass licensing."

Quelle: http://blogs.forbes.com/christopherhelman/2011/03/16/what-are-millisieverts-and-should-tokyo-be-scared-of-them/

Mit Dank an Leser OK. 24.3.10:55 Uhr: * Dank Leser Knauer korrigiert.

Fortsetzung Text…

Als ich las, daß das AKW komplett evakuiert worden sei, ist mir doch einen Augenblick der Schreck in die Glieder gefahren.

Man muß sich ja erst immer wieder klarmachen, daß man es mit einem Medium zu tun hat, dem journalistische Sorgfalt ungefähr so schnurz ist wie einem Schimpansen die Frage, wie man die Existenz von Antimaterie nachweisen kann. Auch ich falle oft wieder für einen Augenblick auf die Unwahrheiten bei "Spiegel-Online" herein.

Ich dokumentiere jetzt vollständig die aktuelle Meldung des japanischen Senders NHK zu diesem Thema. Sie ist datiert mit 19.13 Uhr japanischer Zeit, also 11.13 Uhr MEZ:

TEPCO: Black smoke rises from No.3 reactor

The Tokyo Electric Power Company, or TEPCO, says black smoke was seen rising from the No.3 reactor building at the quake-damaged Fukushima Daiichi nuclear plant at around 4:20 PM on Wednesday. TEPCO told reporters that it received a report 1 hour later that the smoke had gradually cleared.

The company said that the level of radiation near the main gate of the plant, 1 kilometer west of the No.3 reactor, was 265.1-microsieverts-per-hour at 5 PM. They added there had been no major change in the levels after the smoke was observed. On Monday afternoon, gray smoke was seen rising from the same reactor building. TEPCO said that the plumes turned white before disappearing.

The power company evacuated workers from the control room of the No. 3 reactor, as well as firefighters from Tokyo and Yokohama preparing for a water-spraying operation. The firefighters had to abandon their planned water spraying operation for the day.

TEPCO: Vom Reaktor 3 steigt schwarzer Rauch auf

Das Tokioter Stromunternehmen (TEPCO) meldet, daß am Mittwoch gegen 16.20 [8.20 MEZ; Zettel] über dem vom Erdbeben beschädigten KKW Fukushima Daiichi schwarzer Rauch zu sehen war, der vom Reaktorgebäude 3 aufstieg. TEPCO erklärte gegenüber Journalisten, daß es eine Stunde später den Bericht erhielt, daß sich der Rauch langsam wieder aufgelöst hatte.

Das Unternehmen teilte mit, daß die Höhe der Strahlung in der Nähe des Haupteingangs des Werks, einen Kilometer westlich des Reaktors 3, um 17.00 Uhr [9.00 MEZ; Zettel] 265,1 Microsievert/Stunde betrug. Wie es weiter heißt, hatte es keine wesentliche Änderung gegeben, nachdem der Rauch aufgetreten war. Am Montag Nachmittag war grauer Rauch gesichtet worden, der von demselben Gebäude aufstieg. TEPCO teilte mit, daß die Rauchfahnen weiß wurden, bevor sie verschwanden.

Das Stromunternehmen zog die Arbeiter aus dem Kontrollraum des Reaktors 3 ab; ebenso die Feuerwehrleute aus Tokio und Yokohama, die sich auf eine Operation zur Einbringung von Wasser vorbereiteten. Die Feuerwehrleute mußten die für heute geplante Aktion zur Einbringung von Wasser einstellen.

Die Rauchfahne war also nach bereits einer Stunde wieder verschwunden.

Nicht das KKW wurde "komplett evakuiert", sondern Arbeiter wurden aus dem Kontrollraum eines der sechs Blöcke abgezogen, und Feuerwehrleute stellten eine an diesem Reaktor geplante Operation ein.

Es gab keine "erhöhte Radioaktivität"; sondern die Werte am Hauptmeßpunkt lagen bei rund einem Viertel Millisievert pro Stunde. Das ist in der Größenordnung, die dort seit Tagen gemessen wird; es ist sogar ein eher niedriger Wert. Sehen sie sich dazu diese Grafik bei der Gesellschaft für Reaktorsicherheit (GRS) an, die fortlaufend aktualisiert wird.


Schlamperei? Sensationsmache? Agitprop? Vielleicht alles das, zusammengerührt. Es ist die Vertazung der Medien, die man bei "Spiegel-Online" besonders krass beobachten kann. Meinungsmache, nicht Berichterstattung. Verkommener Journalismus.



Nachtrag um 18.00 Uhr: In Zettels kleinem Zimmer hat Meister Petz jetzt darauf aufmerksam gemacht, daß der Artikel zwar nicht mehr die Schlagzeile liefert, aber im Angebot von "Spiegel-Online" auch jetzt noch zu lesen ist. Unverdrossen mit der Falschmeldung von der "kompletten Evakuierung des AKW".

Autor: © Zettel 

den Originalartikel finden Sie hier





Grüne für Kernkraft! „Warum ich wegen Fukushima keine Bedenken mehr habe und die Kernkraft liebe“

Japans Unglück würde schwerer wiegen, wenn es weniger gefährliche Alternativen gäbe. Kernkraft ist Teil des Energiemixes.

Von George Monbiot, guardian.co.uk, 21.03.2011

Sie werden sich nicht wundern, wenn Sie hören, dass die Vorfälle in Japan meine Meinung zur Kernkraft verändert haben. Als Ergebnis des Fukushima-Unglücks kann ich nicht länger neutral in Sachen Kernkraft sein. Ich unterstütze jetzt diese Technologie.

Ein altes Schrottkraftwerk mit ungenügender Sicherheitsausrüstung ist von einem Monster-Erdbeben und einem Riesen-Tsunami getroffen worden. Die Stromversorgung fiel aus, damit auch das Kühlsystem. Die Reaktoren sind explodiert und geschmolzen. Das Unglück hat wie so häufig seinen Ursprung in schlechtem technischen Entwurf und Sparwut. Aber bislang hat noch niemand eine tödliche Strahlung abbekommen, so weit uns bekannt ist.

Viele Grüne haben die Gefahr von radioaktiver Verseuchung wild übertrieben. Um das besser beurteilen zu können, möge man die Grafik bei xkcd.com anschauen. (Siehe nebenstehendes Bild)

Sie zeigt, dass die durchschnittliche Gesamtdosis beim Three Mile Island – Unfall für Bewohner innerhalb der 10-Meilen-Zone um das Kraftwerk nur 1/625stel der jährlich erlaubten Menge für amerikanische strahlungsexponierte Arbeiter war. Das ist die Hälfte der niedrigsten Ein-Jahres-Dosis, die ein erhöhtes Krebsrisiko bewirkt. Das wiederum ist 1/80stel einer unausweichlich tödlichen Dosis. Ich will hier gar nicht beschwichtigen. Ich möchte die Dinge nur in den richtigen Zusammenhang stellen. 

Wenn andere Energie-Erzeugungsarten keine Schäden verursachten, würden die Auswirkungen schwerwiegender sein. Aber Energie ist wie ein Arzneimittel: wenn es keine Nebenwirkungen hat, besteht das Risiko, dass es nicht hilft.

Wie die meisten Grünen, befürworte ich einen großräumigen Ausbau der Erneuerbaren. Ich kann mich aber auch mit den Beschwerden der Gegner der Erneuerbaren anfreunden. Es sind ja nicht nur die Windparks an Land, welche den Menschen Sorgen bereiten, auch die neuen Übertragungsnetze (Masten und Leitungen). In dem Maße, wie der Anteil der erneuerbaren Elektrizität ansteigt, werden mehr Stauseen benötigt, um die Lichter brennen zu lassen. Das bedeutet Stauseen im Gebirge: darüber freut sich niemand.

Auswirkungen und Kosten der Erneuerbaren steigen mit ihrem Anteil an der Stromversorgung, weil der Bedarf für Speicher und Ausfall-Reserve ansteigt. So kann es schon sein (Eine vergleichende Studie steht noch aus), dass bis zu einer gewissen Netzauslastung – 50% bis 70% vielleicht? – die Erneuerbaren eine geringere Kohlenstoff-Belastung haben als Kernenergie. Aber jenseits dieser Auslastung belastet die Kernenergie geringer als die Erneuerbaren.

Wie viele haben ich nach erneuerbarer Energie und deren Ausbau verlangt als Ersatz für die aus fossilen Kraftwerken kommende Elektrizität und für den Ersatz des Öls für den Transport der Energieträger und für den Ersatz des Gases als Brennstoff. Sollen wir nun auch verlangen, die existierende Kernkraft-Kapazität zu ersetzen? Je mehr Anteil wir den Erneuerbaren geben, desto größer wird die Auswirkung auf die Landschaft sein und desto härter die Aufgabe, die Öffentlichkeit davon zu überzeugen.

Der Ausbau des Netzes zum Anschluss der Menschen und der Industrie an reiche, entfernte Quellen von Umwelt-Energie wird ja auch von den meisten Grünen zurückgewiesen, die sich über meinen Blog-Beitrag vergangene Woche beschwert hatten, in dem ich argumentierte, dass die Kernenergie sicherer als Kohle bleibt. Sie wollen, wie sie sagten, etwas ganz anderes: Wir sollen unseren Energieverbrauch senken und unsere Energie lokal erzeugen. Einige verlangen sogar den Abbau des Netzes. Diese bukolische Vision klingt herzallerliebst, bis man das Kleingedruckte zur Kenntnis nimmt.

In hohen Breiten wie bei uns ist die kleinräumige Energie-Erzeugung ein totaler Reinfall. Wenn man Solarenergie im Vereinigten Königreich erzeugen will, muss man besonders viel knappe Rohstoffe verschwenden. Solarenergie ist hoffnungslos ineffizient und kaum an den Bedarf angepasst. Windenergie in bevölkerungsdichten Gegenden ist weitgehend nutzlos. Einmal, weil wir unsere Siedlungen in windgeschützten Gegenden gebaut haben, zum Anderen, weil die von den Gebäuden erzeugten Verwirbelungen mit den Luftströmungen interferieren und den Mechanismus kaputt machen. Kleinteilige Wasserkraft mag ja für ein Bauernhaus in Wales in Ordnung gehen, aber in Birmingham nutzt sie nichts.

Und wie sollen wir unsere Textilfabriken, Ziegeleien, Hochöfen, elektrifizierte Eisenbahnen betreiben – ganz zu schweigen von den industriellen Fertigungsabläufen? Solarpaneele auf den Dächern? In dem Augenblick, wo man den Bedarf der gesamten Wirtschaft betrachtet, hört der Spaß mit der lokalen Energie-Erzeugung auf. Ein nationales (noch besser internationales) Netz ist die wesentliche Voraussetzung für eine größtenteils erneuerbare Energieversorgung.

Einige Grüne gehen noch weiter: warum soll man überhaupt erneuerbare Energien verschwenden, in dem man sie in Elektrizität wandelt? Warum nutzt man sie nicht ganz direkt? Um diese Frage zu beantworten, muss man sich England vor der industriellen Revolution anschauen.

Das Dämmebauen und Aufstauen englischer Flüsse für Wassermühlen war kleinräumige erneuerbare Energieerzeugung, pittoresk und zerstörerisch. Durch die Absperrung der Flüsse und Verschlammung der Laichgründe wurden die riesigen Züge der Wanderfische beendet, die einst eines unserer großen Naturwunder waren und einen großen Teil von Britannien mit Nahrung versorgten – ausgerottet der Stör, so auch Neunaugen und Alsen, Seeforellen und der Lachs.

Das Treideln und Ziehen war eng mit der Ausrottung verbunden. Je mehr Land für die Zugtiere, für die Industrie und das Transportwesen reserviert wurde, desto weniger war für die Ernährung der Menschen verfügbar. Es war das Äquivalent im 17. Jh. zur heutigen Energiepflanzen-Krise. Das Gleiche galt für Brennstoffe zur Heizung. Wie E.A. Wrigley in seinem Buch "Energy and the English Industrial Revolution" feststellt, haben im Jahre 1800 die 11 Mio. Tonnen in England geförderter Kohle so viel Energie erzeugt, wie 11 Mio. Acre Wald (1/3 des Landes) (entspricht 44.500 qkm) erzeugt hätten.

Bevor Kohle weithin verfügbar wurde, hat man Holz nicht nur für das Heizen der Wohnungen benutzt sondern auch für industrielle Prozesse: Wenn die Hälfte von England mit Wald bedeckt gewesen wäre, hätten wir, – wie Wrigley zeigt, pro Jahr 1,25 Mio. Tonnen Eisenbrammen pro Jahr erzeugen können (ein Bruchteil dessen, was wir derzeit verbrauchen). Schon mit einer geringeren Bevölkerung als heute waren Industrie-Güter in der auf Grund und Boden beruhenden Wirtschaft ein Privileg der Elite. Tiefgestaffelte, grüne dezentralisierte Energie-Erzeugung, die auf den Produkten des Landes beruht, ist weit vernichtender für die Menschheit als eine Kernschmelze.

Die Energiequelle, auf welche die meisten Wirtschaftsräume zurückfallen würden, wenn sie die Kernenergie abschalten ist nicht Holz, Wasser, Wind oder Sonne, sondern es sind fossile Energieträger. In jeder Hinsicht (Klimawandel, Bergbau, lokale Umweltverschmutzung, Industrie-Unfälle und Tote, ja sogar Ausstoß von Radioaktivität) ist Kohle 100 mal schlimmer als die Kernkraft. Wegen der Ausdehnung der Schiefergaserzeugung holen die Auswirkungen von Erdgas rasch auf.

Ja, ich verfluche immer noch die Lügner der Betreiber der Kernkraft-Industrie. Ja, ich möchte gerne den gesamten Sektor abgeschaltet sehen, wenn es denn harmlose Alternativen gäbe. Aber es gibt keine ideale Lösung. Jegliche Energie-Erzeugung hat ein Preisschild. Auch der Verzicht darauf. Kernenergie ist gerade einem der härtesten denkbaren Tests ausgesetzt gewesen und die Auswirkungen auf die Menschen und die Erde ist gering. Die Krise von Fukushima hat mich zum Befürworter der Kernenergie gemacht! 

Von George Monbiot, guardian.co.uk, 21.03.2011

Das Orginal finden Sie hier

Die Übersetzung besorgte Helmut Jäger EIKE

Einen aktuellen und sachlichen Überblick über die derzeitige Situation in Japan finden Sie hier (mit Dank an Leser U. Klasen und andere)

Exklusiv bei achgut: Interview mit der amerikanischen Grünen G. Cravens

Gwyneth Cravens ist eine amerikanische Journalistin und Schriftstellerin, die fünf Romane veröffentlicht hat. 2007 erschien ihr Sachbuch „Power to Change the World: The Truth about Nuclear Energy“, mit dem sie in Amerika eine große Debatte auslöste. Die Schriftstellerin beschreibt in ihrem Buch, warum sie sich von einer Gegnerin zu einer Befürworterin der Atomenergie gewandelt hat.

Hannes Stein: Sind Sie für Umweltschutz?
Gwyneth Cravens: Ja, schon mein ganzes Leben. Ich bin in New Mexico aufgewachsen und gehörte schon als Kind der Umweltschutzbewegung an. Besonders lag mir dabei der Schutz der Wälder am Herzen.

Stein: Wenn Sie in Deutschland lebten, würden Sie dann die „Grünen“ wählen?
Cravens: Mir gefällt vieles, was die „Grünen“ tun. Hier in Amerika, wo ich mich besser auskenne, denke ich, dass Maßnahmen wie der „Clean Air Act“ – ein Bundesgesetz gegen die Luftverschmutzung – große Siege gewesen sind. All dies sind Errungenschaften der grünen Bewegung.

Stein: Sie sind also keine Konservative? Sie gehören nicht der republikanischen Partei an?
Cravens: Im Gegenteil. Meine Eltern waren Sozialisten – und ich bin das mehr oder weniger geblieben. Ich bin dafür, dass wir hier in Amerika eine allgemeine Krankenversicherung nach dem Vorbild von Frankreich und Deutschland einführen. Milliardäre sollen gefälligst Steuern zahlen – all das.

Stein: Doch obwohl Sie links sind, haben Sie ein Buch geschrieben, in dem Sie für Atomenergie plädieren: „Power to Save the World“. Warum?
Cravens: Als ich anfing, mein Buch zu schreiben, war ich gegen Atomenergie. Aber ich habe schon an der Schule gelernt, wie man wissenschaftlich forscht. Und als ich mit Wissenschaftlern sprach und sie mir ihre Beweise vorlegten, wurde mir klar, dass sie Recht hatten – und dass die Ideen, die mir von „Greenpeace“ und ähnlichen Organisationen vermittelt worden waren, einfach nicht stimmten.

Stein: Sind Sie eine bezahlte Propagandistin der Atomindustrie?
Cravens: Nein. Ich übe Kritik an der Atomindustrie. Sie hat mich nie bezahlt, ich bin Schriftstellerin und Journalistin und verdiene mein Geld mit dem Schreiben von Büchern und Zeitungsartikeln.

Stein: Die Ereignisse in Japan haben Sie nicht dazu veranlasst, Ihr Plädoyer für die Atomenergie noch einmal gründlich zu überdenken?
Cravens: Nein.

Stein: Ist das, was sich in Japan abspielt, ein GAU wie in Tschernobyl?
Cravens: Als der Reaktor in Tschernobyl brannte, hatte er praktisch keine Schutzhülle. 50 Tonnen oder mehr an radioaktivem Material wurde in die Atomsphäre geblasen und kam dann mit dem Regen wieder herunter. An dem Tag herrschte seltsames Wetter, der Wind wechselte drei oder vier Mal seine Richtung und verbreitete das Zeug über eine weite Fläche. Das ist das Schlimmste, was man sich überhaupt vorstellen kann – zumal Tschernobyl zwei Zwecken gleichzeitig diente: Dort wurde nicht nur Elektrizität, dort wurde auch Plutonium für Bomben produziert.  Nach dem Unglück wurde kein Kaliumiodid an die Bevölkerung verteilt, weil die Regierung ihr nicht verraten wollte, dass etwas mit dem Kraftwerk nicht in Ordnung war. Sie hat am Anfang auch gar nichts gegen den Unfall unternommen, sondern die Sache immer weiter hinausgezögert.

Stein: Die Regierung hat den Leuten in der Umgebung des Reaktors damals, wenn ich mich richtig erinnere, nicht einmal geraten, sie sollten keine Milch trinken.
Cravens: Richtig, sie hat den Leuten gar nichts gesagt. Und was ist das Resultat dieses „größten anzunehmenden Unfalls“ in Tschernobyl? Insgesamt etwa 60 Tote. Zwei kamen bei der Explosion um, 49 starben, während sie versuchten, das Feuer zu löschen. Man glaubt, dass aufgrund der Katastrophe in Tschernobyl viele tausend Kinder Schilddrüsenkrebs bekamen. Schilddrüsenkrebs ist sehr gut heilbar, wenn man ihn rechtzeitig behandelt, aber die Ukraine war – jedenfalls damals – kein Ort mit einem sehr guten Gesundheitssystem. Darum starben – ich müsste jetzt nachschauen – acht oder neun Kinder. In Polen kam es überhaupt zu keinen Fällen von Schilddrüsenkrebs, dort nahmen die Leute einfach Kaliumjodid.

Stein: Was ist in Japan anders?
Cravens: Die Katastrophe dort begann am Freitag, dem 11. März, richtig? Sie dauert jetzt also schon beinahe eine Woche. Bis jetzt ist niemand gestorben. Ein Arbeiter in einem Reaktor ist krank geworden. Er ging irgendwohin, wo er nicht hätte hingehen sollen – wahrscheinlich aus sehr heldenhaften Gründen – und bekam eine zu hohe Strahlendosis ab. Unterdessen sind tausende Japaner ertrunken oder verschüttet worden. Tausende mehr haben ihr Dach über dem Kopf verloren. Sie frieren in Notunterkünften. Sie haben kein Wasser. Eine Ölraffinerie ist in die Luft geflogen. Ist dabei eigentlich jemand ums Leben gekommen? Ich weiß es nicht, davon hören wir nichts. Alle konzentrieren sich auf die Atomkraftwerke, weil dort – Möglichkeitsform – etwas passieren KÖNNTE.

Stein: Finden Sie die Vorsichtsmaßnahmen übertrieben?
Cravens: Nein. Die Japaner haben die Lehren aus Tschernobyl gezogen. Sie haben beschlossen, dass sie als Vorsichtsmaßnahme so schnell wie möglich die Menschen aus der Umgebung der Reaktoren evakuieren müssen. Viele Häuser rund um den Reaktor waren allerdings ohnehin schon zerstört. Und sie haben Kaliumjodid verteilt. Genau das hat aber die allgemeine Hysterie angeheizt. Ich bin gerade in Kalifornien – hier kaufen die Leute jetzt Jodtabletten! Dabei wird das radioaktive Jod längst zerfallen sein, ehe es über den Pazifik zu uns gelangen kann. Heute früh rief bei mir ein grüner Radiosender an, um mich zu interviewen, und alle waren in Panik. Ich sagte ihnen weiter, was mir ein Biologe erzählt hatte, der sich in Sachen Radioaktivität auskennt. Wenn man Kaliumjodid nimmt, ohne es wirklich zu benötigen, dann ist das schlecht für die Schilddrüse. Und nebenbei: Diese Tabletten sind schwach radioaktiv! Noch etwas: Die Japaner essen viel Fisch, nicht wahr? Also nehmen sie auf natürlichem Weg ohnehin viel Jod zu sich. Also werden ihre Schilddrüsen wahrscheinlich ohnehin nur wenig radioaktives Jod absorbieren. Rund um Tschernobyl herrschte dagegen Jodmangel, weil das dort eine sumpfige Gegend ist. Die sowjetischen Behörden hatten den Leuten eine Zeitlang Kaliumjodid verabreicht, dann aber damit aufgehört – wahrscheinlich, weil es zu teuer war.

Stein: In Japan ist kein Reaktor in die Luft geflogen, aber es wurde doch Radioaktivität freigesetzt?
Cravens: Es wurde Dampf abgelassen. Wenn sich in einem dieser Reaktoren der Druck aufbaut, muss man ein Ventil aufmachen. Dass dieser Dampf Cäsium und radioaktives Jod enthält, ist ein Zeichen dafür, dass der Reaktor in keinem guten Zustand ist, dass die Brennelemente verkommen. Der Dampf ist also verseucht. Darum warten die Leute ab, bis der Wind in Richtung Pazifik bläst.

Stein: Ist es nicht ziemlich ungesund, wenn all das Caesium und Strontium in die Fische hineinregnet?
Cravens: Die Konzentration müsste sehr hoch sein, damit sie irgendeinen Effekt hätte. Ist sie aber nicht. Die Radioaktivität geht offenbar manchmal hoch, aber nicht für sehr lange – für Minuten oder eine Stunde.

Stein: In zumindest einem der Reaktoren scheint die Schutzhülle aber geborsten zu sein – und es offenbar ist es schon zu einer Kernschmelze gekommen.
Cravens: Ich versuche gerade herauszufinden, was genau der Status ist. In Harrisburg 1979 kam es zu einer teilweisen Kernschmelze. Dabei passierte Folgendes: Ein Teil des Reaktorkerns schmolz auf den Boden des dicken Stahlgehäuses herunter – er verwandelte sich in eine Art Pfannkuchen auf dem Boden des Druckkessels. Ein anderer Teil sprühte wegen der Dampfentwicklung über die Innenseite, wie wenn man etwas verchromt. Die Brennstoffmasse drang dabei nur ungefähr 1,6 Zentimeter tief in das Reaktorgehäuse ein. Das Stahlgehäuse rund um den Reaktorkern ist 12 bis 15 Zentimeter dick – in Japan sind es, glaube ich, 15 Zentimeter. Da kommt man nicht so einfach durch. Mir scheint also, wenn davon gesprochen wird, das Reaktorgehäuse sei gebrochen, ist vom Gebäude die Rede. Leider habe ich kein klares Bild.

Stein: Von einem der Reaktoren musste sich die Löschmannschaft zurückziehen, weil die Radioaktivität zu hoch geworden war.
Cravens: Ich habe gehört, dass die Mannschaft sich zurückzog, weil ihre Haut Reaktionen zeigte. Wenn Sie mit Radioaktivität in Berührung kommen, sieht das aus wie Sonnenbrand. Es ist keine Dosis, die Menschen nicht vertragen könnten, aber man zog die eine Gruppe zurück, damit die nächste Gruppe drankommen konnte. Die Gruppe mit dem Sonnenbrand musste dann einen Tag aussetzen. Der Körper muss mit der Dosis, die er abgekriegt hat, sozusagen erst einmal verdauen, damit die Strahlung sich nicht akkumuliert. Die höchste Dosis, der sich ein Arbeiter in einem amerikanischen Atomkraftwerk aussetzen darf, sind 5000 Millirem pro Jahr. Es sieht im Moment so aus – gewiss bin ich mir meiner Sache natürlich nicht –, als würden die japanischen Löschmannschaften diese Dosis zwar manchmal überschreiten, im Großen und Ganzen aber darunter bleiben. In den nächsten Wochen werden wir mehr wissen.

Stein: Würden Sie eine Prognose wagen? Wie viele Menschen werden wegen der Reaktorunfälle in Japan ihr Leben verlieren?
Cravens: Im Moment würde ich sagen: niemand.

Stein: Niemand?
Cravens: In Harrisburg kam es zu einer Kernschmelze, und kein Mensch starb. Der geschmolzene Urankern wird sich nicht aus dem stählernen Reaktorgehäuse herauswinden, den Betonmantel durchdringen, der extra für ihn gegossen wurde, ein Taxi herbeiwinken und in die Innenstadt fahren.

Stein: Beim Googeln habe ich herausgefunden: Just zur Zeit des Reaktorunfalls von Harrisburg kam der Film „Das China-Syndrom“ ins Kino, mit Jane Fonda als Reporterin, in dem als Möglichkeit dargestellt wird, dass es zu einer Kernschmelze kommt und der Reaktorkern sich durch ein Loch immer tiefer in die Erde frisst…
Cravens: Es war unglaublich! Der Unfall passierte zwei Wochen später, und der Drehbuchautor sagte wirklich großartige Sachen: Der Reaktorkern wird schmelzen, er wird das Gehäuse zerstören, er wird in den Felsen unter dem Kraftwerk vordringen, tödlicher radioaktiver Dampf wird Pennsylvania verseuchen und Tausende werden sterben.

Stein: Hat sich je ein Wissenschaftler dazu geäußert?
Cravens: Es gibt kein „China-Syndrom“. In Harrisburg passierte eine ganz und gar langweilige Kernschmelze. Das Zeug blieb einfach in dem langweiligen Stahlgehäuse liegen. Es gab nicht mehr Todesfälle, keinen Anstieg der Krebsrate in der Umgebung, gar nichts! Studie nach Studie kam zu demselben Ergebnis. In Japan macht mir etwas anderes Sorgen: Die Arbeiter hatten dort vor dem Erdbeben einen Reaktor abgeschaltet. Die alten Brennstäbe hatten sie in einer Halle gelagert. Irgendwie sank der Wasserspiegel – vielleicht hatten sie das Zeug vergessen. Sei es aus Kummer über ihre Familien, sei es, dass manche Leute wegen der Naturkatastrophe nicht zur Arbeit kamen und ihre Mannschaft kleiner war als gewöhnlich. Wie auch immer: Diese alten Brennstäbe sind in die Luft geflogen, und alte Brennstäbe enthalten viel mehr Radioaktivität als neue. Und durch das Feuer sind giftige Stoffe in der Umgebung verteilt worden. Hier das Verrückte: Alte Brennstäbe werden in Japan oben auf dem Gebäude aufbewahrt. Das ist kein gutes Design. Hier in Amerika bewahrt man solche Brennstäbe im Keller auf. 

Stein: Das Grundproblem ist aber das Wasser.
Cravens: Die Ingenieure haben Schwierigkeiten, die Reaktorkerne zu kühlen, weil die Notgeneratoren von der Tsunamiwelle überflutet wurden und ihren Geist aufgaben. Also mussten die Ingenieure sich nach einer neuen Energiequelle umsehen.

Stein: Könnte man Ihrer Meinung nach Atomkraftwerke mit einem größeren Grad an Sicherheit bauen?
Cravens: Aber ja doch. Hier in Amerika habe ich ein Atomkraftwerk besucht, in dem es Tanks voller Wasser für den Notfall gibt, die von Hand, ganz ohne Elektrizität, in den Reaktor geleitet werden – einfach, indem man einen Hahn aufdreht.

Stein: Die Deutschen sind in ihrer überwältigenden Mehrheit der Meinung, dass Atomkraft zu gefährlich sei, dass wir sie nicht beherrschen können. Irren sie sich?
Cravens: Sogar wenn man die ungefähr 60 Opfer einbezieht, die der Unfall in Tschernobyl gekostet hat, ist die Todesrate in der Atomindustrie immer noch die niedrigste pro Kilowattstunde Energie, die mit dieser Methode produziert wird. Wissen Sie, wie viele Amerikaner im vergangenen Jahr aufgrund von Explosionen gestorben sind, die mit Gaswerken zu tun hatten?

Stein: Keine Ahnung.
Cravens: 14. Brechende Staudämme haben im 20. Jahrhundert zehntausende Menschen getötet – vor allem in China. Insgesamt starben bei der Erzeugung von Energie aus fossilen Brennstoffen in Amerika bis vor kurzem 25.000 Menschen pro Jahr – heute ist die Todesrate etwas niedriger, weil wir bessere Filter einbauen. Aber es sind immer noch viel zu viele.

Stein: Warum brauchen wir Ihrer Meinung nach überhaupt Atomkraft?
Cravens: Die Verbrennung von fossiler Energie tötet jedes Jahr ungefähr drei Millionen Menschen auf der Welt. Sie ist nicht gut für uns. Wenn Sie in der Nähe von einem Kohlekraftwerk leben, kriegen Sie das 140fache an Radioaktivität von dem ab, als wenn Sie direkt neben einem Atomkraftwerk leben. Wenn Sie Ihren Herd mit Erdgas betreiben, kriegen Sie sogar das 900fache ab. Außerdem wird bei der Verbrennung von Erdgas Schwefeldioxid in die Luft geblasen. Das führt zu Herzproblemen und Lungenkrebs. Hinzu kommt die Klimakatastrophe – seit dem Beginn der industriellen Revolution wurde mehr und mehr CO2 in die Atmosphäre eingespeist, dadurch wärmt sich der Globus immer weiter auf. Eine andere Katastrophe, die sich vor unser aller Augen vorbereitet, ist, dass die Ozeane durch das Kohlendioxid immer saurer werden. Daran sterben Korallen und Plankton.

Stein: Ist die ökologische Alternative zu Kohle und Erdgas nicht die Wind- und Sonnenenergie?
Cravens: Ich bin absolut für Wind- und Sonnenenergie. Aber sie reichen nicht aus, wie Sie wohl wissen: Deutschland baut gerade mehr Kohlekraftwerke – die dann den Strom liefern, wenn die Sonne nicht scheint und Flaute herrscht. Atomkraft ist die einzig realistische Alternative zu den fossilen Brennstoffen.

Stein: Glauben Sie nicht, dass die Reaktorunfälle in Japan auf der ganzen Erde das Ende des Atomzeitalters bedeuten? Präsident Obama hat sich zwar gerade eben klar und deutlich für die Atomkraft ausgesprochen. Aber es wird in Zukunft auch hier schwieriger werden, Kernkraftwerke zu bauen. Und was ist mit China, mit Indien?
Cravens: Ein paar Kongressabgeordnete werden durchsetzen, dass die Sicherheitsauflagen strenger werden. Aber Amerika wird nicht aus der Atomkraft aussteigen. China auch nicht – die Chinesen haben gerade verkündet, dass sie ihre Sicherheitsstandards erhöhen. Sie wollen Atomkraftwerke bauen, die sie exportieren können. Ein angenehmer Nebeneffekt dieser Reaktorunfälle ist übrigens, dass jetzt mehr Journalisten als früher gezwungen werden, sich ernsthaft mit Atomenergie zu beschäftigen. Heute durften wir in der „New York Times“ einen Artikel lesen, der sehr nüchtern und aufklärend war.

Stein: Wie groß ist jener Flügel der amerikanischen Grünen, den Sie und Stewart Brand repräsentieren, also der Flügel, der nicht technikfeindlich, sondern technikfreundlich ist und dabei die Nuklearenergie ausdrücklich mitmeint?

Cravens: Ich habe gerade eben mit Stewart telefoniert – er sagte mir, dass viele Leute in der Ökobewegung so denken wie wir. Auch einflussreiche Leute. Sie trauen sich aber nicht, das offen zu sagen, weil sie fürchten, dass dann die Spendengelder ausbleiben 

Das original erschien am 17.3.11 bei ACHGUT hier




3.(II) Klima- & Energiekonferenz Berlin 2010 Videovorträge Teil 2

Persistenz in Temperaturreihen zeigt den Einfluss der Sonne auf unser Klima

Prof. em. Dr. Horst-Joachim Lüdecke Hochschule für Technik und Wirtschaft des Saarlandes; Hier sein Vortrag als undefinedppt Datei

Weltweite Langzeit-Thermometer Daten zeigen mehrheitlich keine Erwärmung!

Prof. em. Dr. Friedrich-Karl Ewert, Universität Paderborn; Hier sein Vortrag als undefinedppt Datei

Neue Erkenntnisse über den solaren Einfluss auf das Klima und deren Bedeutung für das Verständnis der Klimawandels

Prof. Dr. Nir Shaviv Racah Institute of Physics – The Hebrew University of Jerusalem; 

Der „Fußabdruck“ der Sonne in der jüngeren Klimageschichte

Prof. Dr. Vincent Courtillot;  Directeur, IPGP Université Paris Diderot; Hier sein Vortrag als undefinedppt Datei

Die Korrelation von Schwankungen der Sonnenaktivität und Klimaveränderungen

Dipl. Phys. Dr. Horst Borchert ehem. am Geographischen Institut der Johannes-Gutenberg Universität Mainz; Hier sein Vortrag als undefinedppt Datei

Wird fortgesetzt mit Teil III und IV




Willkommen in der Dritten Welt

Mein jüngster Artikel erklärt die Lage, unterstreicht die ökonomischen und beschäftigungspolitischen Vorteile durch die hydraulische Erzeugung von Öl und Gas und fordert außerdem die Politik der Obama-Administration heraus, die dieses ebenso wie die meisten anderen Methoden zur Energieerzeugung blockiert – außer wenn konstante Subventionen durch Steuergelder notwendig sind. Der Druck auf unsere wirtschaftliche Erholung ist enorm.

Man entwickle die amerikanische Energieerzeugung, oder man sage ‚auf Wiedersehen’ zu Arbeitsplätzen, Einkünften und modernem Lebensstandard!

Als Großbritannien vom kältesten Dezember seit einem Jahrhundert betroffen war, wurden Familien gezwungen zu entscheiden, ob sie lieber eine warme Wohnung haben wollen oder ihren Kindern nahrhafte Mahlzeiten zu verabreichen – dank der Klimapolitik, die zu extensivem Verlass auf Windenergie und zu gewollt himmelwärts steigenden Energiepreisen geführt hat.

Kaum zwei Monate später informierte der britische Energiekonzern National Grid die Nation, dass die Tage mit zuverlässiger Energieversorgung gezählt seien. Familien, Schulen, Büros, Krankenhäuser und Fabriken müssen sich einfach „daran gewöhnen“, Energie nur noch dann zu verbrauchen, „wenn sie zur Verfügung steht“, und nicht, wenn sie Energie wünschen oder brauchen. Ein neues „smart grid“ wird eingeführt, um die schwindenden Energievorräte zuzuteilen, entweder auf der Basis eines regelmäßigen Planes oder mit Hilfe bürokratischer Bestimmungen, welche Verbraucher die noch verfügbare Energie am dringendsten brauchen – hauptsächlich von Windturbinen, die bisher einen erbärmlichen Anteil von gerade mal 0,04% der in Großbritannien während der kältesten Tage im vergangenen Dezember verbrauchten Energie beigetragen hatte [siehe auch auf EIKE hier! A. d. Übers.]

Inzwischen hat der Kommissar für Energie der EU warnend darauf hingewiesen, dass die Energiepreise in Deutschland schon jetzt „am obersten Rand“ dessen liegen, was die Gesellschaft verkraften und die Wirtschaft tolerieren kann. Steuern, Abgaben und Regulationen, die im Namen der Reduktion von CO2-Emissionen eingeführt worden waren, zwingen manche Firmen, in andere Länder auszuweichen und so einen „graduellen Prozess der Deindustrialisierung“ Deutschlands einzuleiten.

Der ehemalige Bundeskanzler Helmut Schmidt forderte eine genaue und unabhängige Untersuchung des IPCC, seiner Praktiken und seiner anrüchigen Wissenschaft. Das IPCC hat keine Integrität oder Glaubwürdigkeit mehr, sagte er, und einige ihrer Forscher „haben sich selbst als Betrüger entlarvt“. [Hervorhebung im Original!]

Zu all dem sagte die autokratische Europäische Kommission im Wesentlichen nur: „Hilft nichts“. [Im Original: …„drop dead“. Ich habe nicht gefunden, wie man diesen Ausdruck sinnvoll übersetzen kann! A. d. Übers.] Die Kommission bestimmte, dass jährlich 375 Milliarden Dollar ausgegeben werden müssen, um die CO2-Emissionen bis 2030 um 40% und bis 2050 um 80% unter das Niveau von 1990 zu drücken.

Willkommen in der Dritten Welt, liebe Europäer, in der wertvoller Strom nur zeitweise und zu unerwarteten Zeiten zur Verfügung steht, abhängig von bürokratischen Launen und wie viel Energie Windturbinen und andere „umweltfreundliche“ Generatoren gerade zur Verfügung stellen können.

Stehen die USA als Nächstes auf der Liste? Die USA raffen imaginäre Subventionen aus ihrer „stimulierenden“ Ausgabenorgie in Höhe von $ 814 Milliarden zusammen. Sie verloren $ 223 Milliarden an roter Tinte allein im Februar – und zwar auf dem Weg zu einem angenommenen Defizit im Jahre 2011 von $ 1,5 Billionen (trillion), jedenfalls dem Bericht des Congressional Budget Office zufolge.

Über 13,7 Millionen Amerikaner bleiben arbeitslos; weitere 8,3 Millionen sind unfreiwillig nur in Teilzeit beschäftigt; die Arbeitslosenquote [black unemployment] beträgt 15,3 %; die Benzinpreise sind über $ 4 pro Gallone [ca. 4 Liter] gestiegen, und die immer noch fragile US-Wirtschaft wird voraussichtlich in noch rauere Gewässer geraten.

Amerika ist abhängig von jederzeit verfügbarer, zuverlässiger und preiswerter Energie – 85% davon aus Kohlenwasserstoffen. Kohle generiert die Hälfte der gesamten Elektrizität in den USA, und 90% davon im Zentrum der Industrie – verglichen mit 1% aus Wind- und Solarenergie. Neue Funde von Naturgas [Schiefergas? Erdgas? A. d. Übers.] versprechen einen Richtungswechsel [a sea change] in der Energieversorgung der USA und bei der Stromerzeugung. Allerdings beruht der Transport und die petrochemische Industrie weiterhin auf Öl – und im Jahre 2010 importierten die USA 61% des wertvollen flüssigen Treibstoffes für $337 Milliarden.

Dankenswerterweise nehmen die Obama-Administration, Umweltaktivisten und Politiker (die meistens der Demokratischen Partei angehören) diese Lage sehr ernst und tun etwas… jedenfalls in ihrem Paralleluniversum.

Die Demokraten wollen bis zu $ 5 Milliarden aus dem Budget in Höhe von 3,8 Billionen (0,15%) streichen, während die Republikaner darauf bestehen, dass $ 57 Milliarden (1,5%) gekürzt werden sollten. Um das Defizit durch steigende Einnahmen zu verringern, kreist diese Diskussion um Steuererhöhungen von irgendwelchen „reichen“ Leuten dort draußen. An der Energiefront haben sich die Dinge wirklich von der Realität abgekoppelt.

Die Förderung der in Amerika immer noch vorhandenen Vorräte an Flüssiggas und unser innovatives und freies Wirtschaftssystem würde Hunderte Milliarden Dollar an Mieten, Gebühren und Steuern für föderale, staatliche und lokale Regierungen freisetzen. Sie würde Millionen Arbeitslosen wieder zu Arbeit verhelfen… würde den Strom roter Tinte zum Versiegen bringen… würde viele Milliarden für Rohöl und Investments in Amerika belassen… und würde einen enormen neuen Wohlstand bringen, anstatt den schwindenden alten Wohlstand immer neu zu verteilen.

Wir müssen sicher bohren, Treibstoff in Fahrzeugen und Kraftwerken effizienter nutzen und mehr aus jedem unterirdischen Reservoir herausholen. Und das könnten wir auch, wenn die Regierung es nur zulassen würde.

Man denke nur an die unglaubliche Revolution, die geniale amerikanische Kapitalisten der Welt vermacht haben: hydraulische Verfahren, um bislang unerreichbare Öl- und Gasvorräte zu erschließen. Diese Technologie hat die Begriffe „Erschöpfung“ und „Nachhaltigkeit“ völlig neu definiert. Sie hat jetzt schon die Gasvorräte der USA verdoppelt und Nordamerika mehr als ein Jahrhundert lang abbauwürdige Gasvorräte verschafft, jedenfalls bei der gegenwärtigen Rate des Verbrauchs.

Sie führt auch zur Erschließung von Ölvorräten in den riesigen Schiefergebirgen in Montana, Nord-Dakota und Saskatchewan. Die Ölerzeugung ist dort schon jetzt von 3000 Barrel an einem Tag vor fünf Jahren auf über 225 000 Barrel heute gestiegen. Die US Energy Information Administration schätzt, dass bis zu einem Tag im Jahre 2035 bis zu 350 000 Barrel gefördert werden könnten; Industriekreise sagen, sie könnten bis 2020 über eine Million Barrel kommen. Die damit verbundene Schaffung von Arbeitsplätzen auf den Ölfeldern schoss bereits von 5000 auf über 18 000 im gleichen Zeitraum von fünf Jahren nach oben und könnte bis zu 100 000 Jobs schaffen. Legt man einen Preis von $ 100 pro Barrel zugrunde, würde das bedeuten, dass sich ein Ertrag von 1,6 Milliarden Dollar jährlich nur von dem Schieferöl ergeben dürfte.

Die bahnbrechenden Neuerungen amerikanischer Technologie verändern schon jetzt die Energie-, wirtschafts- und politische Landschaft in Europa, und sie werden dies bald auch rund um die Welt tun. Es ist eine technologisch mögliche und ökonomisch bezahlbare Lösung, die reiche Ausbeute an Arbeitsplätzen und Erträgen bringt – im Gegensatz zu flüchtigen Scheinlösungen, die unentwegt Subventionen erfordern und mögliche große Probleme schaffen. Bohrungen auf See und in der Arktis können das auch [Original: ANWR drilling. Wer wissen will, was das ist, der schaue hier. A. d. Übers.]

Unglücklicherweise gibt es im Weißen Haus, in der Environmental Protection Agency [EPA, die us-amerikanische Umweltbehörde], dem Innenministerium sowie im Kongress, in Gerichten und Staatsagenturen viel zu viele Leute, die darauf aus sind, diese Flüssiggas-Revolution zu begrenzen und zu behindern. Sie wollen die Gewinner und Verlierer dieses Geschäftes auswählen, sie wollen Amerika zwingen, zu teurer, subventionierter, unzuverlässiger und landhungriger Wind-, Solar- und Ethanolenergie überzugehen – und sie wollen den Menschen sagen, wann und wie viel Energie sie haben dürfen.

Die Direktorin der EPA Lisa Jackson gebraucht grundlose Behauptungen über mögliche Verunreinigungen des Grundwassers, um Aktionen zur Gewinnung von Schiefergas zu verzögern. Weil der Kongress den Zertifikatehandel in Amerika abgelehnt hatte, hat sie das Gesetz zu sauberer Luft [Clean Air Act] umgeschrieben und das als Pflanzendünger wirkende Kohlendioxid als „Verschmutzer“ gebrandmarkt. Damit soll der CO2-Ausstoß von Kraftwerken, Raffinerien und anderer Industrien begrenzt werden. Das wird zu weiteren Kostensteigerungen für Familien und Industrie führen; es wird mehr Firmen zu Entlassungen zwingen, wenn sie nicht ganz pleite gehen – selbst wenn China und Indien jede Woche neue Kohlekraftwerke bauen und das Pflanzenwachstum anregen durch eine global immer weitere Zunahme des CO2-Gehaltes der Luft.

Der Sekretär des Inneren [entspricht in Deutschland dem Innenminister] Ken Salazar hat die Bohrungen im Golf von Mexiko unterbunden, so dass zehntausende ihren Arbeitsplatz verloren; er ignorierte Gerichtsurteile, dieses Moratorium sofort zu beenden und veröffentlichte Dekrete, nach denen in weiteren Millionen Quadratkilometern (acres) an Land und auf See nicht mehr gebohrt werden darf. Er hat die Exploration in der Arktis blockiert, weil der dortige Ölreichtum uns nicht energieautark machen würde (als ob selbst der massive Ausbau von Wind- und Solarenergie sowie Ethanol das tun würden).

Präsident Obama möchte, dass die Preise für Öl, Gas, Kohle und Elektrizität „in den Himmel schießen”, um die „grüne” Energie attraktiver erscheinen zu lassen. Energieminister [Energy Secretary] Steven Chu möchte, dass „der Preis für Benzin auf das Niveau von Europa steigt“ – über $ 8 pro Gallone [ca. 4 Liter]! Am schwersten wiegt jedoch, dass all diese Anti-Kohlenstoff-Politiker einen sich selbst erhaltenden Politik-Umwelt-Industrie-Öffentlichkeits-Sektor haben wollen, basierend auf Subventionen der Regierung für bevorzugte Industrien und Firmen; mit einer erwarteten Gegenleistung in Form von Beiträgen zu der Kampagne, diese an der Macht zu halten.

Dieser augenscheinliche, unerträgliche Irrsinn muss ein Ende haben. Es ist an der Zeit, dem Kongress (und der Europäischen Kommission) zu sagen, dass wir reale Energie für reale Arbeitsplätze brauchen, reale Gewinne und eine wiederbelebte Wirtschaft. Und das brauchen wir jetzt!

Paul Driessen ist führender Berater für das Committee For A Constructive Tomorrow (CFACT) und den Congress of Racial Equality sowie Autor von: Eco-Imperialism: Green power – Black death.

Übersetzt von Chris Frey für EIKE




Wieviel Abkühlung würden Sie kaufen?

Es gibt zwei Zahlen, die interessant sind – wie viel wird es kosten, die CO2-Emissionen zu reduzieren, und um wie viel wird diese Reduzierung die Temperatur senken?

Zunächst zu den Kosten… Tatsache ist, dass niemand die Kosten kennt. Das ist sehr schwer abzuschätzen. Ich verwendete die Darstellungen der EPA. Dort heißt es, dass die neuen Regeln etwa 78 Milliarden US-Dollar pro Jahr kosten würden. Wenn man bedenkt, dass das lediglich etwa ein Zehntel des jüngsten „Anreizes“ [?] ist, scheint das nicht allzu viel zu sein. Andere Analysten haben viel höhere Kosten angesetzt, aber ich möchte bei der niedrigen Abschätzung der EPA bleiben.

Und um wie viel wird dadurch die Temperatur reduziert?

Und wieder: Niemand weiß das… Also verwende ich die EPA-Darstellungen aus der gleichen Quelle. Dort heißt es:

 „Gemäß der neuen Analyse wird geschätzt, dass die CO2-Konzentrationen im Mittel um etwa 2,9 ppm (vorher 3,0 ppm) gesenkt werden. Die globale Mitteltemperatur wird dadurch schätzungsweise bis zum Jahre 2100 um 0,006°C bis 0,0015°C reduziert.“

Mann, ist das aufregend! Nehmen wir ihre mittlere Schätzung, 0,00375°C Abkühlung (etwa vier tausendstel Grad) bis zum Jahr 2100.

OK, rechnen wir mal nach:

Gesamtkosten = 78 Milliarden Dollar pro Jahr multipliziert mit 90 = 7 Billionen Dollar, oder etwa die Hälfte des Bruttosozialproduktes in einem Jahr in den USA.

Gesamtabkühlung = 0,00375°C während der nächsten 90 Jahre.

Damit können wir jetzt die endgültige Rechnung durchführen…

7 Billionen US-Dollar geteilt durch 0,00375°C ergibt… warten Sie…

1.900 Billionen US-Dollar für jedes lumpige Grad Abkühlung!

Ich habe gehört, dass der Betrieb von Air Condition teuer ist, aber das schlägt dem Fass den Boden aus. Fast zwei Billiarden Dollar laufende Kosten für jedes Grad Abkühlung…

Die gewöhnliche Erklärung ist, dass dies daran liegt, dass diese Rechnung nur für die USA gilt. Wenn die restliche Welt mitziehen würde, wäre alles in Ordnung.

Allerdings werden sich die Kosten pro Grad nicht ändern, egal wie viele Länder teilnehmen. Es sind immer noch fast zwei Billiarden Dollar ($1.900.000.000.000. 000) pro Grad. Also ist diese Erklärung Unsinn. Zwar könnten die USA diese Summe vielleicht stemmen, aber sicher nicht Länder wie China und Indien. Dies sind Schätzungen der EPA, die Kosten könnten sehr gut höher sein. Schätzungen der Regierung über die Kosten der eigenen Projekte liegen grundsätzlich erheblich unter den später tatsächlich entstandenen Kosten.

Wie auch immer, meine Frage lautet (vorausgesetzt, die Schätzung der EPA, dass die Abkühlung 2 Billiarden Dollar pro Grad kosten würde, ist richtig): Wie viel Abkühlung würden Sie vorschlagen, dass wir sie zu diesem Preis kaufen?

Grüße an alle,

W.

PS – Wie groß ist eine Billion? Nahezu unvorstellbar groß. Wir glauben, dass eine Million Dollar sehr viel Geld sind, was ja auch stimmt. Nehmen wir an, meine Familie hätte im Jahre 0 mit einem Geschäft angefangen, vor ein paar tausend Jahren. Nehmen wir weiter an, wir haben das Geschäft wie eine Regierung geführt, und wir haben eine Million Dollar verloren.

Um es einer Regierung noch ähnlicher zu machen, nehmen wir an, der Verlust belaufe sich auf einer Million Dollar pro Tag.

Nehmen wir an, ich habe eine Million Dollar pro Tag verloren, jeden Tag der letzten 2011 Jahre. Generation nach Generation der Familie, sagen wir drei Generationen pro Jahrhundert, was insgesamt etwa 60 Generationen ausmacht. Und jede einzelne dieser Generationen hätte ihr ganzes Leben lang eine Million Dollar pro Tag verloren.

Falls das wirklich der Fall war, eine Million Dollar pro Tag zu verlieren, jeden einzelnen Tag seit biblischen Zeiten, ohne einen einzigen freien Tag dazwischen, hätten wir immer noch nicht eine Billion Dollar verloren. Wir hätten noch nicht einmal drei Viertel einer Billion verloren.

Link: http://wattsupwiththat.com/2011/03/13/how-much-would-you-buy/#more-35859

Übersetzt von Chris Frey für EIKE