1

Top-Ökonom Hans-Werner Sinn: „Energiewende (führt) ins Nichts“ Teil 2

Wegen seiner falschen  Einschätzung der Klimafrage, versteift er sich auf die Kernkraft, als einzige Energiequelle, welche die CO2-freie Elektroenergie bereitzustellen gestattet. „Um sich nicht am Klima zu versündigen“ wie er in seiner Zusammenfassung hervorhebt!  Dass Kernkraft „CO2-frei“ produziert  ist richtig, doch stimmt es genauso, dass die mit CO2-Ausstoß verbundene Elektroenergie keinerlei Einfluss auf das Wettergeschehen und damit auf das Klima hat.

Sehen Sie hier den Vortrag von Prof.  Sinn und die fundierte Kritik an seinen Fehlbewertungen, die aber an der richtigen Schlußfolgerung, bezüglich der absurden EEG-Gesetzgebung nichts ändern.

Die Klimakatastrophe – oder können Korrelationen lügen?

Sinn behauptet am Beginn seines Vortrages dass es „zweifelsfrei“ bewiesen wäre, dass das anthropogene CO2 das Weltklima beeinflussen würde, in diesem Fall die globale Mitteltemperatur gefährlich nach oben verschöbe. Als Beweis für diesen „zweifelsfreie“ Feststellung, zeigt er den sehr synchronen Verlauf  über lange Zeiträume von Temperaturwerten und CO2 Konzentration, wie man sie  aus der Untersuchung von  Eisbohrkernen gewinnen kann. Für den einfachen Zuhörer, zumal, wenn von einem bekannten Professor – wenn auch aus dem  fachfremden Gebiet der Ökonomie- vorgetragen, erhalten diese Aussagen das Gewicht von Tatsachen. Allerdings kann man mit gleicher „Zweifelsfreiheit“ behaupten, dass „nachweislich“ die Störche die Babys brächten. Denn deren Populationskurven, sowohl die der Störche über der Zeit, wie auch der Geburten über derselben Zeit, zumindest in unserem Lande, zeigen einen ähnlich synchronen (eng korrelierten) Verlauf. Sie nehmen beide ab. Danach wäre in Anwendung der  H.W. Sinn´schen Beweisführung der zweifelsfreie Beweis erbracht dass die Störche die Babys bringen. Wir wissen alle, dass dem nicht so ist. Und Prof. Sinn weiß das sicher auch, ebenso wie er mit Sicherheit weiß, dass eine vorhandene Korrelation zwischen zwei Prozessgrößen im besten Fall ein Hinweis auf eine bestehende Ursache-Wirkungsbeziehung sein kann, aber den Nachweis dieser  in keinem Fall ersetzt. Warum er diese wichtige unumstrittene Tatsache nicht nur völlig ausgelassen hat, sondern durch das Adjektiv „zweifelsfrei“ sogar noch verstärkend ins Gegenteil verkehrt hat, bleibt unerklärlich. Einem Ökonomieprofessor der sich tagtäglich mit Ökometrie und deren mathematischen Methoden herumschlägt, hätte solch ein dicker Fehler einfach nicht passieren dürfen. Auch deswegen nicht, weil Prof. Sinn viele Male – auch von EIKE (siehe Anhang)- auf diese Situation hingewiesen wurde.

Abb. 1 Temperatur und CO2 Konzentrationsverlauf der letzten 450.000 Jahre im Bohrloch der Antarktis : Zunächst steigt die Temperatur, ca. 500 bis 800 Jahre später CO2 !

Aber es kommt noch schlimmer. Eben die von H.W. Sinn angeführten Eisbohrkern-Proxies zeigen bei höherer Auflösung immer wieder, dass die CO2-Konzentrationsänderung der Temperaturänderung nacheilt. Im Schnitt um ca. 800 Jahre. Und im Gegensatz zur nur postulierten Treibhauswirkung des CO2, gibt es dafür auch einen wohlbekannten physikalischen Prozess. Nämlich die altbekannte und völlig unbestrittene Tatsache, dass warmes Wasser weniger CO2 lösen kann, als kaltes Wasser. Dieser „Sprudeleffekt“ kann jeden Tag aufs Neue von jedem Interessierten ohne großen Aufwand überprüft werden, z.B. im Mineralwasser. Dass Sinn ihn nicht kennt, oder nicht für nötig erachtet ihn zu erwähnen, verwundert.

Wie lange bleibt CO2 in der Atmosphäre ?

Im letzten Teil seines Vortrages behauptet Sinn, dass sich das anthropogene CO2 in der Atmosphäre anreichere, und dort erst nach ca. 300 Jahren wieder in den Kreislauf zurückkehre. Nun, das sind die Behauptungen, die auch das IPCC verbreitet, um die Anreicherungstheorie und damit den Einfluss der Minimengen, die das fossil erzeugte CO2 ausmachen, in die richtige Größenordnung zu bringen. Doch auch diese Behauptung ist seit langem widerlegt. Andere Wissenschaftler, die sich ohne „der Mensch ist schuld am Klimawandel“-Brille mit der Frage nach der Verweilzeit des CO2 in der Atmosphäre beschäftigen, kommen zu ganz anderen, wesentlich kürzen Zeiten. Peter Dietze berechnete, gut begründet, nur knapp 40-50 Jahre. Fred Goldberg[1],[2] vom schwedischen Polarinstitut, Tom Segalstad[3] von der Uni-Oslo und auch Robert H. Essenhigh[4] von der Ohio State University, sowie der viel zu früh verstorbene Ernst Georg Beck, ermitteln nur rd. 5 bis 7 jedenfalls deutlich kleiner < 10 Jahre.

Bedeutung bekommt diese Aussage zur Dauer der Verweilzeit, weil sie das Argument von H-W. Sinn ad Absurdum führt, dass sich das anthropogen erzeugte CO2 in der Atmosphäre dauerhaft anreichere. Er benutzt es aber, um den Zuhörern klar zu machen, dass der Einsatz von fossilen Energieträgern zur „Versündigung am Klima“ führe. Welch absurder aber trotzdem weithin akzeptierter Gedanke!

Obwohl dies nur ein Nebenaspekt in der Klimadebatte ist, zeigt er doch deutlich, dass zumindest in der Klimafrage Prof. Sinn nicht auf der wissenschaftlichen Höhe der Zeit ist. Seine Aussagen sind in diesem Zusammenhang einfach falsch.

Ähnlich sieht es aus, wenn man seine Betrachtungen zur notwendigen Verfügbarkeit von elektrischer Energie anschaut. Prof. Sinn geht von mindestens 99 % aus, und unterstellt auch, dass Windenergie eine Grundlast von ca. 1/7 der im Jahre 2011 installierten effektiven Leistung von rund 7 GW zu liefern im Stande sei. Beides ist nicht haltbar, weil viel zu optimistisch, wie der Elektrotechnik Professor Helmut Alt ihm in seinem Brief, den Sie im Anhang finden, nachweist.

Trotzdem ist Prof. Sinn Dank zusagen für seinen mutigen Vortrag mit der, bezüglich der „Energiewende in Nichts“, richtigen Konsequenz, die längst hätte Allgemeingut an deutschen Universitäten und Hochschulen hätte sein müssen.


[1] Goldberg: Studies of the temperature anomalies during the last 25 years show a close relationship with the varying increase rates of CO2 in the atmosphere. This close relationship strongly indicates that ocean temperatures and the solubility of CO2 in seawater controls the amount of CO2 being absorbed or released by the oceans. Engelbeen in einer mail an Goldberg: True, be it that the rate of increase/decrease is about 10 ppmv/°C for long-term trends and about 4 ppmv/°C for short term changes (like the Pinatubo or El Niño)

[2] Goldberg: During 1991-1992, a global cooling due to the volcanic eruption of Pinatubo was recorded. The same periodshowed the smallest increase of CO2 concentration in the atmosphere during the last 27 years. During 1991 and 1992 the total CO2 increase was 1,46 ppmv which corresponds to 3 Gton C. During the same period the human emission of CO2 was approx 12,5 Gton C. Where did the other 9,5 Gton C plus the emissions from Pinatubo go? They have gone into the oceans due to the cooling of the water surface corresponding to the natural forces securing an equilibrium between CO2 in the atmosphere and in the oceans. (Chapter 1.) dt, Bate, R. (Ed.): “Global Warming: The Continuing Debate“, European Science and Environment Forum (ESEF), Cambridge, England (ISBN 0-9527734-2-2), pages 184-219, 1998.

[3] Segalstad, Tom: Carbon cycle modelling and the residence time of natural and anthropogenic atmospheric CO2: on the construction of the „Greenhouse Effect Global Warming“ dogma. http://folk.uio.no/tomvs/esef/ESEF3VO2.htmund hier im Interview: http://www.financialpost.com/story.html?id=433b593b-6637-4a42-970b-bdef8947fa4e. „The IPCC needs a lesson in geology to avoid making fundamental mistakes,“ he says. „Most leading geologists, throughout the world, know that the IPCC’s view of Earth processes are implausible if not impossible.“ und „Until recently, the world of science was near-unanimous that CO2 couldn’t stay in the atmosphere for more than about five to 10 years because of the oceans‘ near-limitless ability to absorb CO2.“

[4] Potential Dependence of Global Warming on the Residence Time (RT) in the Atmosphere of Anthropogenically Sourced Carbon Dioxide Robert H. Essenhigh*

Related Files




SMR Teil 3 — Innovative Reaktoren

Zwar ist die Wärmeerzeugung immer noch mit großem Abstand die überragende Energieanwendung, aber nur ein geringer Bedarf entfällt davon auf Hochtemperatur-Wärme (chemische Prozesse). Die “Endlichkeit” von Kohle, Öl, Erdgas und Uran hat sich längst als Wunschtraum unbelehrbarer Anhänger der Planwirtschaft erwiesen. Längst ist man daher in diesen Kreisen auf eine indirekte Verknappung (Klimaschutz – wir dürfen gar nicht so viel fossile Brennstoffe nutzen, wie wir zur Verfügung haben) umgestiegen. Es lohnt sich nicht, sich damit weiter auseinander zu setzen. Für diese Betrachtungen reicht folgender Zusammenhang vollständig aus:

Energieverbrauch und Wohlstand sind die zwei Seiten ein und derselben Medaille. Wer das Recht aller Menschen auf ein Mindestmaß an Wohlstand anerkennt, muß von einem weiter steigenden Energiebedarf ausgehen. Oder andersherum ausgedrückt: Wer eine Senkung des Energieverbrauches fordert – wie es scheinbar immer populärer wird – will die Armut für den größten Teil der Menschheit weiter festschreiben.

Mit fortschreitender Entwicklung steigt der Verbrauch elektrischer Energie überproportional an. Der für eine zuverlässige und kostengünstige Stromversorgung einzusetzende Primärenergieaufwand, steigt damit weiter an. Ersetzt man die hierfür notwendigen Mengen an Kohle und Erdgas durch Kernenergie, bekommt man mehr als genug dieser Energieträger frei, um damit Industrie und Transportsektor zu versorgen. Die USA führen diesen Weg mit der Erschließung unkonventioneller Öl- und Gasvorkommen – bei gleichzeitigem Ausbau der Kernkraftwerke – eindrucksvoll vor.

Hat man diesen Zusammenhang verstanden, wird auch die Entwicklung der “kleinen” Reaktoren in den nächsten Jahrzehnten vorhersagbar. Das Streben nach “hohen Temperaturen” hat durch die Entwicklung des Erdgasmarktes (außerhalb Deutschlands!) an Bedeutung eingebüßt. Erdgas – egal aus welchen Vorkommen – ist der sauberste und kostengünstigste Brennstoff zur Erzeugung hoher Temperaturen und zur Gewinnung von Wasserstoff. Zur Stromerzeugung eigentlich viel zu schade!

Das Argument des geringeren Uranverbrauches durch Reaktoren mit höherer Temperatur ist ebenfalls nicht stichhaltig: Die Uranvorräte sind nach menschlichen Maßstäben unerschöpflich und der Minderverbrauch durch höhere Wirkungsgrade wiegt den wirtschaftlichen Mehraufwand bei weitem nicht auf. Ein Anhaltspunkt hierfür, bietet die Entwicklung bei Kohlekraftwerken: Sie liegt heute noch in Regionen mit“billiger” Kohle eher in der Größenordnung von Leichtwasserreaktoren (ungefähr 33 %) als bei deutschen und japanischen Steinkohlekraftwerken (fast 46 %). Bis Uran so teuer wird, daß sich eine Wirkungsgradsteigerung um 40 % wirtschaftlich lohnt, dürften eher Jahrhunderte, als Jahrzehnte vergehen. Damit dürften alle Hochtemperaturreaktoren eher Nischenprodukte bleiben, was aber gerade dem Gedanken einer Serienproduktion widerspricht. Gleiches gilt auch für sog. “Schnelle Brüter”.

Gleichwohl sind einige gasgekühlte Reaktoren und Reaktoren mit schnellen Neutronen in der Entwicklung. Diese Prototypen sollen im Folgenden etwas näher vorgestellt werden

NPMC-Reaktor

National Project Management Corporation (NPMC) hat zusammen mit dem Staat New York , der City of Oswego und der Empire State Development einen Antrag auf Förderung für einen heliumgekühlten Kugelhaufen-Reaktor mit 165 MWel eingereicht. Dem Konsortium hat sich National Grid UK, die New York State Energy Research Development und die Pebble Bed Modular Reactor (PBMR) of South Africa angeschlossen.

Eingereicht wurde ein Gas Turbine Modular High-Temperature Reactor (GT-MHR). Die Entwicklung beruht auf dem in Deutschland entwickelten THTR-Reaktor. Sie wurde in Südafrika fortgesetzt. Anders als in Deutschland und China, wollte man aber nicht einen konventionellen Dampfkreislauf sekundärseitig verwenden, sondern wollte zur Stromerzeugung eine Gasturbine einsetzen. Die Entwicklung eines solchen geschlossenen Gasturbinen-Kreisprozesses mit Helium als Arbeitsmittel überstieg aber bei weitem die wirtschaftlichen Möglichkeiten Südafrikas, was letztendlich zur Aufgabe führte.

Eine Gasturbine hat so hohe Austrittstemperaturen, daß problemlos eine trockene Kühlung mit Außenluft möglich wird. Die Schwierigkeit in den Verbrauchsschwerpunkten in Südafrika ist die Bereitstellung von ausreichend Kühlwasser. Unter dem Wassermangel leiden dort alle konventionellen Kraftwerksprojekte (hauptsächlich Kohle). In New York gibt es zwar genug Wasser, aber die (angebliche) Umweltbelastung durch Kühlwasser ist der Hauptansatz gegen die vorhandenen und geplanten Kernkraftwerke. Nichts desto trotz, könnten SMR mit geschlossenen Gasturbinen ein Modell für die dezentrale Versorgung in zahlreichen ariden Gebieten auf der Welt sein.

China verfolgt ebenfalls konsequent den Kugelhaufen-Hochtemperatur-Reaktoren weiter. Allerdings sind alle in Bau und Planung befindlichen Kraftwerke mit konventionellen Dampfkreisläufen ausgerüstet

Energy Multiplier Module (EM2)

Auch General Atomics (GA) hat ein Gas-Turbine Modular Helium Reactor (GT-MHR) Konzept mit 265 MWel eingereicht. Man geht aber nicht von einem Kugelhaufen (siehe oben), sondern von hexagonalen Prismen als Brennelementen aus. Basis ist ein eigenes Modell aus den 1980er Jahren. Das Modul soll bei einer thermischen Leistung von 500 MWth komplett und fertig mit Brennstoff beladen, auf einem LKW zur Baustelle transportiert werden. Die Austrittstemperatur des Heliums soll (extrem hohe) 850 °C betragen. Damit wäre der Einsatz als Wärmequelle in der Verfahrenstechnik, bis hin zur thermischen Wasserstoffproduktion, denkbar. Ein Turbosatz mit hoher Drehzahl wird auf einem zweiten LKW angeliefert. Die Gasturbine und der angeschlossenen Generator laufen mit mehreren 10.000 Umdrehungen pro Minute. Die Umwandlung der elektrischen Energie in “netzfähigen Strom” erfolgt über elektronische Umformer. Bei der eingereichten Variante handelt es sich um ein reines Kraftwerk zur Stromerzeugung. Im Begleittext wird betont, daß dieser Reaktor lediglich die Abmessungen eines “Schulbusses” hätte. Hinzu käme ein etwa gleich großes Modul für den Turbosatz. Insofern wäre die Leistungsdichte (umbauter Raum) konkurrenzlos gering. Wegen der hohen Austrittstemperatur hätte dieses Kraftwerk einen elektrischen Wirkungsgrad von 53 %. Das Kraftwerk käme mit Luftkühlung aus und wäre damit äußerst flexibel einsetzbar. Durch den hohen Wirkungsgrad und seine neutronenphysikalischen Eigenschaften, wäre selbst ohne Wiederaufbereitung der “Atommüll” um 80% geringer, als bei üblichen Reaktoren.

Noch innovativer als der Turbosatz, ist das Brennstoffkonzept: Der Reaktor wird in der Fabrik mit Brennstoff beladen und komplett nach 30 Jahren Laufzeit wieder in die Fabrik zurückgeliefert. Das ganze ähnelt also eher einer Batterie, als einem klassischen Kraftwerk. Dieses Konzept würde die gesamte Stromversorgung revolutionieren. Ein “Energieversorger” mietet sich quasi für 30 Jahre eine “Stromerzeugungseinheit” und gibt diese nach Gebrauch komplett wieder zurück. Durch die speziellen Sicherheits- und Betriebsanforderungen löst sich auch das Problem der Personalkosten: Verkleinert man einfach heutige Reaktorkonzepte, steigt der spezifische Personalaufwand stark an. Das ist leider die Umkehrung der Betriebskostendegression mit zunehmender Kraftwerksgröße. Die Kombination aus geringen Investitionskosten, kaum Betriebskosten, kaum Netzkosten, keine “Atommüllprobleme”…, könnte einen ähnlichen Quantensprung, wie die Einführung des PC in der Datenverarbeitung auslösen. Davon dürften sicherlich nicht alle begeistert sein!

Die Brennelemente besitzen eine Umhüllung aus einem Siliziumcarbid-Faser-Verbundwerkstoff. Das Material verträgt Temperaturen von weit über 2000 °C und reagiert wegen seiner keramischen Eigenschaften praktisch nicht mit Luft und Wasser. Der Brennstoff ist inhärent sicher und selbstregelnd: Steigt die Temperatur zu stark an, bricht die Kettenreaktion in sich zusammen (Dopplereffekt). Auch die Nachzerfallswärme kann dem Brennstoff praktisch nichts anhaben, da er sich gefahrlos so weit aufheizen kann, daß schon die Wärmeabgabe durch Strahlung (Kühlmittelverluststörfall) dauerhaft ausreicht. Dieses Verhalten ist unzählige male experimentell bestätigt worden.

Jeder Reaktor wird erstmalig mit etwa 20 to abgebranntem Brennstoff aus Leichtwasserreaktoren oder abgereichertem Uran beladen. Hinzu kommt als “Starter” rund 22 to auf 12% angereichertes Uran. Nach 30 Jahren Betriebszeit werden in einem speziellen Aufbereitungsprozess die entstandenen etwa 4 to Spaltprodukte entfernt und durch 4 to abgebrannten Brennstoff aus Leichtwasserreaktoren ergänzt.

General Atomic ist eines der führenden Unternehmen (nicht nur) der Kerntechnik. Am bekanntesten dürften die weltweit gelieferten 66 TRIGA-Reaktoren (Training, Research, Isotopes, General Atomic) sein. Zusätzlich gehören zu dem Bewerbungskonsortium noch zwei der weltweit führenden Anlagenbauer: CB&I und Mitsubishi Heavy Industries und die Mutter der schnellen Reaktoren und der Wiederaufbereitung: Das Idaho National Laboratory (INL). Es fehlt also nicht an Kapital und Sachverstand. Größte Hürde dürfte das NRC mit seinem “unendlichen” Genehmigungsverfahren sein. Aber auch auf dem Sektor des Bürokratismus bewegt sich in den USA etwas: Nicht nur, wegen der Drohkulisse, die China am Horizont aufbaut.

PRISM

Ein weiterer “schneller” Reaktor, aber mit Flüssigmetallkühlung, ist der von General Electric und Hitachi Nuclear Energy (GEH) propagierte Power Reactor Innovative Small Module (PRISM). Es handelt sich ebenfalls um einen vollständig vorgefertigten und transportierbaren Reaktor, mit einer thermischen Leistung von 840 MWth und 311 MWel . Es ist geplant, je zwei solcher Einheiten auf einen konventionellen Turbosatz (typisches Kohlekraftwerk) mit 622 MWel zusammenzuschalten.

Das PRISM-Konzept bricht ziemlich radikal mit der heutigen Nutzung der Kernenergie und ihrem Brennstoffkreislauf. Es senkt konsequent den Einsatz von Natururan und entlässt als Abfall wesentlich geringere Mengen mit deutlich kürzerem Gefährdungszeitraum. Um dieses Ziel zu erreichen, ist nicht nur der Übergang auf “schnelle” Neutronen nötig, sondern auch auf einen völlig neuen Brennstoffkreislauf. Durch die Verwendung von Neutronen mit hoher Energie (hoher Geschwindigkeit) kann man praktisch alle Aktinoide spalten – allerdings um den Preis einer geringeren Wahrscheinlichkeit. Man braucht deshalb eine wesentlich höhere Konzentration von U235 bzw. Pu239 um überhaupt eine Kettenreaktion in Gang setzen zu können. Außerdem muß man auf Wasser als Kühlmittel verzichten. Ein in diesem Sinne ideales Kühlmittel, ist das Metall Natrium. Geht man auf ein flüssiges Metall als Kühlmittel über, macht es Sinn, auch den Brennstoff in metallischer Form zu verwenden. Eine Legierung aus Uran, Zirconium und – gegebenenfalls allen möglichen – Transuranen, hat sich als besonders geeignet erwiesen. Wenn man aber schon einen Brennstoff in metallischer Form vorliegen hat – und keinerlei Ambitionen hegt, Kernwaffen zu bauen – bieten sich die erprobten Verfahren der Elektrometallurgie (Aluminium-, Kupferproduktion etc.) an. Vereinfacht gesagt, löst man den zerstückelten “abgebrannten” Brennstoff in geschmolzenem Lithiumchlorid auf und legt eine Spannung von 1,34V an. Nun wandert das Uran und alle sonstigen Aktinoide zur Kathode und scheiden sich dort ab. Die Spaltprodukte bleiben im Lithiumchlorid zurück. Die Kathode wird eingeschmolzen und daraus neue Pellets hergestellt. Diese werden in Stahlrohre (H9) gesteckt, mit flüssigem Natrium zur besseren Wärmeleitung ausgegossen und mit einem Gaspolster aus Helium versehen, zu einem neuen Brennstab verschweißt. Im Prinzip ist diese Technik so simpel und automatisierter, daß sie in ein (größeres) Kraftwerk integriert werden könnte. Die übrig geblieben Spaltprodukte – etwa 1 kg für jedes 1 MWel produziert über ein ganzes Jahr – kann man “irgendwo” lagern, da sie nach wenigen hundert Jahren auf die Intensität des ursprünglichen Uranerzes abgeklungen sind – also die Gefahr, wieder voll und ganz, natürlich ist.

Sicherheitstechnisch betrachtet, hat sich dieser Reaktortyp als äußerst gutmütig erwiesen. Selbst, wenn man alle Regelstäbe voll gezogen hatte, regelte er sich selbst herunter, da durch den starken Temperaturanstieg die nukleare Kettenreaktion unverzüglich zusammenbricht. Für die Leistungsregelung gibt es Regelstäbe aus Borkarbid (B4C). Zusätzliche Regelstäbe hängen an Magneten. Fällt der Strom aus oder geht der Magnetismus infolge zu hoher Temperaturen verloren, fallen sie in den Reaktor und stellen ihn dauerhaft ab.

Allerdings hat Natrium einen entscheidenden Nachteil: Es reagiert sowohl mit Luft als auch mit Wasser sehr heftig. Deshalb sind der Reaktorkern, die zwei Wärmeübertrager und die vier elektromagnetischen Pumpen (ohne rotierende Teile) alle zusammen in einem mit Natrium gefüllten Topf eingebettet. Dieses Gefäß ist zusammen mit dem Sicherheitsbehälter am Deckel fest verschweißt. Sowohl das Reaktorgefäß, wie auch der Sicherheitsbehälter haben keine Durchbrüche. Die etwa 20 cm Zwischenraum und der Arbeitsraum über dem Deckel sind mit Argon – unter leichtem Überdruck zur Kontrolle auf etwaige Leckagen – befüllt. Da Natrium durch Neutronenbeschuß strahlend wird (Halbwertszeit etwa 1 Minute), wird die Wärme durch die Wärmeübertrager im Reaktorgefäß an einen zweiten Kreislauf mit Natrium übertragen. Dieses Natrium ist nicht radioaktiv und wird ständig überwacht. Das Natrium gelangt durch Rohr in Rohr Leitungen zum überirdischen Dampferzeuger. Der Dampferzeuger ist ein hoher, zylindrischer Behälter, der vollständig mit Natrium gefüllt ist. In diesem Behälter verlaufen schraubenförmige Rohrleitungen, in denen das Wasser zum Antrieb der Turbine verdampft wird. Im Normalbetrieb sorgen zwei elektromagnetische Pumpen für die Umwälzung des Natriums. Zur Abführung der Nachzerfallswärme nach Abschaltung des Reaktors, würde der sich einstellende Naturumlauf ausreichen. Wegen der vorliegenden Temperaturspreizungen (Kerneintritt: 360 °C, Kernaustritt: 499 °C, Dampferzeuger Eintritt: 477 °C, Austritt 326 °C) besteht ein ausreichend großes Sicherheitsgefälle.

Der Reaktor benötigt keinerlei elektrische Energie nach einer Schnellabschaltung. Ein Unglück wie in Fukushima ist daher ausgeschlossen. Die Nachzerfallswärme kann auf drei Wegen abgeführt werden:

1.     Über einen Bypass der Turbine, über den normalen Dampfkreislauf des Kraftwerks.

2.     Zwischen dem Dampferzeuger und seiner Isolierung befindet sich ein Luftspalt. Ist der Weg 1 nicht möglich (z. B. Bruch einer Dampfleitung), kann über den Naturzug die Wärme an die Umgebung abgegeben werden.

3.     Zwischen Sicherheitsbehälter und Betongrube befindet sich ebenfalls ein Luftspalt. Dieser ist mit Abluftkaminen oberhalb der Erde verbunden. Die durch die Nachzerfallswärme des Reaktors aufgeheizte Luft kann in diesen aufsteigen und wird durch nachströmende kühle Umgebungsluft ersetzt (Reactor Vessel Auxiliary Cooling System RVACS).

Anders, als bei Leichtwasserreaktoren, werden die abgebrannten Brennelemente nicht in einem separaten Brennelementelagerbecken gelagert, sondern verbleiben mindestens für einen weiteren Zyklus (Ladezyklus 12 bis 24 Monate, je nach Betriebsweise) im Reaktorbehälter. Dazu entfernt die automatische Lademaschine das gewünschte Brennelement, ersetzt es durch ein neues und stellt das alte zur Zwischenlagerung in das “obere Stockwerk” des Reaktorbehälters. Erst, wenn die Brennelemente zur Wiederaufbereitung sollen, werden sie von der Lademaschine aus dem Reaktor gezogen, gereinigt und übergeben. Sie sind dann bereits soweit abgekühlt, daß sie problemlos “an die Luft können”, da die Brennstäbe aus Stahlrohren gefertigt sind.

Neu, ist die ganze Technik überhaupt nicht. Allein der Experimental Breeder Reactor EBR-II hat 30 Jahre erfolgreich gelaufen. Wenn sich jetzt mancher fragt, warum solche Reaktoren nicht längst gebaut werden, ist die Antwort einfach: Wir haben einfach noch nicht genug von dem, was “Atomkraftgegner” als “Atommüll” bezeichnen! Eine Serienproduktion macht wirtschaftlich nur Sinn, wenn die Stückzahl ausreichend groß ist. Dieser Reaktor braucht zur Inbetriebnahme 11% bis 17% spaltbares Plutonium und kann 18% bis 23% Transurane vertragen. Um 100 Reaktoren erstmalig zu befüllen, benötigt man daher geschätzt 56.000 bis 70.000 Tonnen Schwermetall in der Form abgebrannter Brennelemente aus Leichtwasserreaktoren. Es ist jetzt der richtige Zeitpunkt, mit Planung und Bau eines Prototypen zu beginnen. Diesen kann man gut mit “Bomben-Plutonium” aus der Abrüstung oder bereits vorhandenem Plutonium aus Wiederaufbereitungsanlagen bauen. Die Zeit läuft nicht weg: Natururan ist noch billig und je länger die abgebrannten Brennelemente lagern, um so einfacher lassen sie sich aufbereiten. Geht man von kostenlos erhältlichem “Atommüll” aus – manche meinen ja sogar, man benötige ein Milliarden teueres Endlager für abgebrannte Brennelemente – liegen die kompletten Brennstoffkosten (einschließlich geologischem Lager für die Spaltprodukte) für diesen Reaktortyp weit unter 1/2 Cent pro kWh elektrischer Energie. Spätestens jetzt sollte jedem klar sein, warum man die abgebrannten Brennelemente so sorgfältig in so aufwendigen Behältern verpackt “zwischenlagert”. Sehen so Mülltonnen aus? Die Lagerhalle von Gorleben beispielsweise, ist eher ein Goldschatz.

ALFRED

Das einzige europäische Projekt ist der Advanced Lead Fast Reactor European Demonstrator (ALFRED). Er wird zur Zeit von dem Konsortium aus ENEA und Ansaldo Nuclear aus Italien und der rumänischen ICN verfolgt. Es wird auch Fostering Alfred Construction FALCON genannt. Die über 1 Milliarde Euro Kosten, sollen wesentlich von der EU, aus verschiedenen Töpfen aufgebracht werden. Der Standort soll in Mioveni in der Nähe von Pitesti in Rumänien sein. Baubeginn ist für 2017 und eine Fertigstellung bis 2025 gedacht. Er soll eine Leistung von 125 MWel bei 300 MWth haben. Es ist wohl eine reine Demonstrationsanlage. An eine Serienfertigung ist eher nicht gedacht.

Die Verwendung von Blei als Kühlmittel, ist ein Abfallprodukt der europäischen Entwicklung eines, durch einen Beschleuniger angetriebenen, unterkritischen Reaktors. Zum Betrieb eines “schnellen” Reaktors ist Blei ein eher exotisches Kühlmittel. Alle anderen Nationen verwenden ein Eutektikum aus Blei-Bismut als Kühlmittel. Die längste – und negativste Erfahrung – mit Blei und Blei-Bismut hat Rußland. Dort wurden sie zum Antrieb von Atom-U-Booten der sog. Alpha-Klasse in den 1950er Jahren entwickelt. Wegen ständiger Schäden – bis hin zum Totalverlust – verwendet auch die russische Marine inzwischen Leichtwasserreaktoren.

Als Vorteil von Blei bzw. Blei-Bismut werden immer wieder gerne, folgende Vorteile plakativ in den Vordergrund gestellt:

·       Blei reagiert nicht mit Wasser (gemeint ist, im Gegensatz zu Natrium) und es könnten daher die Dampferzeuger angeblich gefahrlos im Reaktorgefäß integriert werden.

·       Sehr hohe Siedetemperatur (1745 °C) bei sehr geringem Dampfdruck. Daraus wird ein günstiger Blasenkoeffizient der Reaktivität abgeleitet, der einen angeblichen Sicherheitsvorteil ergibt.

·       Blei wäre ein besonders schlechter Moderator und besässe besonders kleine Absorptionsquerschnitte.

Ansonsten fallen einem leider nur Nachteile ein:

·       Blei wird überhaupt erst bei 327 °C flüssig. Darum haben die Russen von Anfang an, mit einem Eutektikum aus Blei und Bismut (Schmelzpunkt 124 °C) gearbeitet. Wartungs- und Inspektionsarbeiten bei so hohen Temperaturen sind Neuland. Der Reaktor muß ständig beheizt werden. Es gibt den neuen Störfall “(lokale) Unterkühlung” mit entsprechenden Konsequenzen für das Genehmigungsverfahren.

·       Flüssiges Blei ist korrosiv. Die Russen haben dieses Problem nie so richtig in den Griff bekommen. Die Wege über den Sauerstoffgehalt und Beschichtungen waren nicht zielführend – ein überhöhter Verschleiß (Lebensdauer) ist die Folge. Darüber hinaus, ist flüssiges Blei auch noch abtragend. Die Strömungsgeschwindigkeit muß deshalb klein gehalten werden.

·       Durch die grosse Masse des Bleis im Reaktor, sind besondere Schutzmaßnahmen gegen Erdbeben notwendig.

·       Durch die hohe Dichte des Bleis werden die Regelstäbe von unten eingeschwommen (völlig neues Prinzip, Genehmigungsverfahren) oder von oben pneumatisch eingeschossen (nicht passiv).

·       Als Brennstoff sind Uranoxid oder Urannitrid vorgesehen. Wegen der, gegenüber metallischen Brennstoffen schlechten Wärmeleitung, besteht (wieder) die Gefahr der (lokalen) Kernschmelze. Der Effekt einer inhärenten Sicherheit scheint nur schwer nachweisbar. Eine Kühlung über unterkühltes Blasensieden (wie auch in jedem Druckwasserreaktor) scheidet durch den hohen Siedepunkt (der ja immer als Vorteil bezeichnet wird) aus.

·       Bisher gibt es bei ALFRED kein echtes Notkühlsystem. Die Nachzerfallswärme müßte immer über die innenliegenden Dampferzeuger abgeführt werden. Der Nachweis, auch nach einer physikalischen Dampfexplosion oder eines abschnittsweisen Verstopfens durch Einfrieren, dürfte sich schwierig gestalten.

Bis ein mit flüssigem Blei gekühlter Reaktor in einem westlichen Land genehmigungsfähig ist, dürften noch Jahrzehnte Forschungs- und Entwicklungsarbeit nötig sein. Insofern dürften sie außerhalb der Konkurrenz mit anderen SMR-Entwürfen stehen. Manchmal fragt man sich wirklich, warum sich manche Kerntechniker immer selbst im Wege stehen müssen. Man könnte fast sagen: Gott schütze uns vor diesen Forschern, mit den “Atomkraftgegnern” werden wir schon selber fertig.

Vorläufiges Ende

Hier ist das vorläufige Ende des Drei-Teilers erreicht. Es wurden die im derzeitigen Rennen um Förderung für SMR vorne liegenden Typen vorgestellt. Was noch fehlt, wären z. B. der Super-Safe, Small and Simple, 4S von Toshiba; die Encapsulated Nuclear Heat Source ENHS; der Flibe Energy Salzbadreaktor; der International Reactor Innovative & Secure IRIS Druckwasserreaktor; der Purdue Novel Modular Reactor PNMR Siedewasserreaktor; der Travelling Wave Reactor TWR; der ANTARES von Areva, der Advanced Reactor Concept ARC–100 und wer weiß noch, welche sonst alle….




Warum die Energiewende gescheitert ist! Von Anfang an!

Die Energiewende

Im November 2010 wurde unter großem medialen Getöse von der schwarz-gelben Regierung Merkel die „Energiewende“ als nationales Ziel bis 2050 ausgerufen. Alle Parteien im Deutschen Bundestag stimmten, bis auf wenige (7!) Abweichler in der Koalition  und die Fraktion der Linkspartei (obwohl übereinstimmend mit dem Ziel, wollte sie es noch radikaler angehen) begeistert dafür. Die veröffentlichte Meinung in gut wie allen Medien hatten schon Monate zuvor für die Akzeptanz dieser „Energiewende“ auf allen Kanälen und ohne Unterlass getrommelt.

Sie fußte auf dem „Energiekonzept“, das wenige Monate zuvor unter der Regie des damaligen Umweltministers Norbert Röttgen, die vielen Einzel-Elemente der gesetzgeberischen  Aktivitäten zum „Klimaschutz“ zusammenfasste, unter Einfügung neuer Elemente ergänzte und deutlich erweiterte. Nicht nur der „Klimaschutz“ wurde nunmehr als Begründung für die Notwendigkeit der „Energiewende“ angeführt, sondern auch die verkündete baldige Endlichkeit der fossilen Ressourcen.

Die Tsunami-Katastrophe in Japan vom März 2011, die mehr als 18.000 Todesopfer und unzählige Verletzte forderte und zusätzlich dann zur Havarie des Kernkraftwerkes in Fukushima führte, wurde zum Anlass genommen, den „Atomausstieg“ zu beschließen und spontan 8 Kernkraftwerke dauerhaft abzuschalten, und die restlichen 17 bis zum Jahre 2022 stillzulegen. Und dies, obwohl bei der Havarie in Fukushima kein einziger Mensch durch Strahlung ums Leben gekommen war, wohl aber rd. 1000 Menschen durch den Stress der panikartig durchgeführten Evakuierung weiter Landstriche.

Mit diesen einfach gestrickten Begründungen, die weiten Teilen der Wählerschaft auch unmittelbar einleuchteten, wurde die größte gesellschaftliche Transformation in Gang gesetzt, die ein Industrieland jemals außerhalb von Kriegen zu bewältigen hatte. Und mit vergleichbaren Kosten und identischen Folgen. Denn am Ende wird zwangsläufig ein völlig verarmtes, weil deindustrialisiertes,  Deutschland stehen, dass nur noch bitterste Not und Zerstörung kennt, obwohl die Befürworter der „Energiewende“ das genaue Gegenteil versprechen. Nur, auch dem fähigsten Ideologen, Politiker, Wirtschaftsboss, Gewerkschaftler, Kirchenoberen, Erfinder oder sonst wem, wird es nicht gelingen geltende Naturgesetze außer Kraft zu setzen, und wenn man sie umgehen will, sorgen ebenso starke ökonomische Gesetze dafür, dass die Kosten für eventuelle Ersatzmöglichkeiten explodieren.

Doch genau das – nämlich das Umgehen geltender Naturgesetze- ist  mit der Energiewende beabsichtigt! Um zu verstehen, warum das so ist, müssen wir uns ein wenig mit den physikalischen Eigenschaften von Energie im Allgemeinen und von elektrischer Energie im Besonderen beschäftigen. Denn das „Erneuerbare Energien Gesetz“, das die Erzeugung elektrischer Energie (vulgo: Strom) aus alternativen Energiequellen regelt bzw. erzwingen soll, ist das Kernstück der Energiewende.

Was ist Energie?

Energie, ist im wesentlichen die universale Fähigkeit im physikalischen Sinne Arbeit zu leisten. Sie ist weder erzeugbar noch vernichtbar. Das fundamentale Naturgesetz dazu heißt Energieerhaltungssatz. Sie kann aber von einer Form in eine andere umgewandelt werden. Doch jede Umwandlung ist zwangsläufig (Naturgesetz) mit Verlusten verbunden, die als Wärme, als der niedrigsten Stufe der Energie, entsteht. Deshalb ist der Begriff „Erneuerbare Energien Gesetz“ bereits eine bewusste Irreführung der Wähler, denn Energie kann selbstverständlich auch nicht „erneuert“ werden, auch dann nicht, wenn nachwachsende Rohstoffe zu ihrer Gewinnung eingesetzt werden. Energie kann eben nur unter unvermeidlichen Verlusten gewandelt werden!  Das gilt selbstverständlich auch für die Stromgewinnung aus fossilen oder Kernbrennstoffen.

Sonderfall elektrische Energie

Elektrische Energie, wird allgemein als die höchst veredelte Form von Energie angesehen. Wärme dagegen, als die niedrigste. Letztendlich wird daher unvermeidlich – ein weiteres Naturgesetz von der stetig zunehmenden Entropie- die gesamte Energie unseres Universums in Wärme gewandelt sein. Aber bis dahin ist noch viel, sehr sehr viel Zeit. Und in dieser Zeit können wir das Gut „elektrische Energie“, also Strom, aus diversen Quellen durch Umwandlung erzeugen.  Und der hat gegenüber den anderen Energieformen viele starke Vorteile. Aber auch einige Nachteile. Die Vorteile sind schnell aufgezählt: Schnellste und verlustarme Übertragungsmöglichkeit über weite Strecken, punktgenauer Einsatz auch in großen Mengen, zu jedem beliebigen Zeitpunkt, gut einsetzbar in Antriebe, Speicher und Heizungen in Investitions- und Konsumgütern, bei Beachtung gewisser Regeln sicher und sauber verfüg- und handhabbar, und sehr billig in der Erzeugung (Wandlung von thermischer Energie in elektrische Energie).

Die Nachteile reduzieren sich in diesem Zusammenhang auf eines, es lautet: Strom ist nicht – von Minimengen abgesehen- direkt speicherbar.  Und, als Folge daraus: Strom muss immer dann auf Bruchteile von Sekunden verfügbar sein, wann immer er gebraucht wird. Manche Stromanbieterfirmen u.a. von Greenpeace, propagieren den Begriff des „Stromsees“, der durch das Netz geschaffen würde, aber das ist nichts weiter als irreführender Unsinn. Ins Verteilnetz muss zu jeder Zeit sekundengenau so viel Strom eingespeist werden, wie irgendwo entnommen wird. Einen Stromsee gibt es nicht.

Eine weitere Folge daraus ist, dass Speicher nur gewandelte elektrische Energie speichern können. Entweder in Form von Bewegungsenergie (Pumpspeicherwerke, Schwungradspeicher, Druckluftspeicher), chemischer Energie (Batterien, Akkus) oder thermischer Energie (durch Elektrolyse erzeugter Wasserstoff, der mit CO2 zu Methan umgewandelt wird).

Strom aus „Erneuerbaren“

Allein dieser naturgesetzlich bedingte Nachteil reicht aus, um die Erzeugung von Strom aus Windkraft und Sonneneinstrahlung  gegenüber den bisherigen Methoden als völlig unzureichend auszusondern. Sie sind einfach qualitativ schlechter und als Folge daraus viel teurer. Denn keine dieser Quellen kann diesen schweren Nachteil von sich aus ausgleichen. Deswegen ist es korrekter diese Quellen nicht als „Erneuerbare“ zu bezeichnen, sondern als „Neue Instabile Energien“ (NIE). Nicht umsonst haben unsere Vorfahren vor über hundert Jahren die Nutzung der Windenergie mit Freuden verlassen und sich auf Energie aus fossilen Quellen gestürzt. Der Aufstieg der Nationen zu beispiellosem Wohlstand war die Folge. Denn sie vermeidet von Anfang an die oben genannten Nachteile, weil die notwendige Speicherung bereits von Mutter Natur in den fossilen oder Kernbrennstoffen vorgenommen wurde. Und damit kommen wir zu einer besonderen Eigenschaft, die die NIE´s insbesondere benachteiligen. Es ist deren Energiedichte!

Die Energiedichte natürlicher Speicher

Aufbereitetes Uran enthält pro kg ca. 350.000 kWh[1], Gas ca. 12 kWh/kg, Diesel/Öl ca. 11 kWh/kg, Steinkohle ca. 8 kWh/kg. Im Vergleich dazu sollte man die Energiedichte von chemischen Batterien/Akkumulatoren kennen. Sie liegt bei Bleiakkus, wie wir sie im Auto haben, bei  0,033 kWh/kg, bzw. bei den sehr teuren Lithium Akkus bei 0,166 kWh/kg. Also 333 bis 66 x schlechter. Die letzten beiden Zahlenwerte zeigen auch auf, warum die „Elektromobilität“ unter normalen kaufmännischen aber auch Umwelt-Gesichtspunkten, an echten Märkten keine Chance hätte.

Nun kann man schlecht den Energieinhalt von bewegter Luft (Wind) oder Sonnenstrahlen in kWh/kg ausdrücken, nur Schildbürger könnten das. Aber man kann den Flächenbedarf vergleichen, den Anlagen zur Erzeugung gleicher Energiemenge auf konventionelle Art bzw. alternative Art beanspruchen.

Sicher ist Ihnen lieber Leser/Leserin auch schon aufgefallen, das Wind- und Solarkraftwerke immer in Rudeln, beschönigend „Parks“ genannt, auftreten. Der Grund dafür ist die mangelhafte aber naturgegebene sehr geringe Energiedichte. Deswegen müssen Riesenflächen mit diesen Anlagen vollgestellt werden, die bei der Windenergie auch noch als riesige Türme in den Himmel ragen, um die Energie der Energieträger Wind und Sonne in brauchbaren Mengen „abzuernten“. Wie aberwitzig das ist, zeigt ein Vergleich mit einem konventionellen oder Kernkraftwerk, mit einer Leistung (das ist die „Kraft“ um Arbeit zu „leisten“)  von 1 GW. 1 Gigawatt sind 1.000 Megawatt, und das sind 1.000.000 Kilowatt. Die Einheit, die wir bereits kennen gelernt haben. Da die Energiedichte konventioneller Energieträger sehr hoch ist, kann man die Kraftwerke sehr kompakt bauen. Ein derartiges Kraftwerk mit 1 GW Leistung bedeckt incl. Gleisanschluss und Brennstofflager ca. 1,5 bis max. 2 km2. Da es ganzjährig und rund um die Uhr betrieben werden kann, liefert es bei Bedarf eine Energiemenge von ca. 7.900 GWh.

Windkraftanlagen

Um – auch nur rechnerisch- dieselbe Menge an Energie mit NIE, z.B mit der neuesten 2,3 MW[2] Anlage von Siemens, aus Wind zu erzeugen, bräuchte man einen „Windpark“ auf dem Lande mit ca. 2.300 Windkraftanlagen dieses Typs. Weil man die nicht dicht an dicht bauen kann, denn der Wind weicht aus, braucht man dafür einen Korridor mit der Länge von 920 km, und einer Breite von ca. 0,25 km. Also insgesamt 230 km2 . Das ist rd. das 130 fache des Flächenbedarfes eine konventionellen Kraftwerkes.

Solaranlagen

Bei den Solaranlagen ist das Ergebnis ähnlich schockierend. Als Beispiel soll hier der Solarpark bei Finowfurt/Brandenburg dienen, bis vor kurzem der größte „Solarpark“ Europas. Der hat eine Nennleistung von 84 MW. Dank der geringen Sonneneinstrahlung in Brandenburg und der Tatsache, dass die Sonne des Nachts und vor allem in den dunklen Herbst und Wintermonaten  nirgendwo so richtig scheint, kann dieser „Solarpark“, solange er neu ist, rd. 59 GWh ins Netz -sofern die Leitungen gebaut wurden- einspeisen. Dann aber mit Vorrang gem. EEG. Seine Fläche wird von den Betreibern mit 1,82 km2 angegeben. Um wiederum nur rechnerisch dieselbe Energiemenge wie das konventionelle Vergleichskraftwerk, wie oben benannt, zu erzeugen, benötigte man  rd. 134 „Parks“ dieser Art, die eine Fläche von 244 km2 bedecken müssten.

Biomasse

Den Vogel schießt übrigens die Biomasse ab. Zur Erzeugung von z.B. Mais für entsprechend viel Biogas-Kraftwerken w.o. benötigte man mindestens (ohne Lager, Wege und Fläche für die eigentlichen Kraftwerke) eine Fläche von ca. 1.600 km2. Da ist rund 2 x die Fläche der freien und Hansestadt Hamburg.

Einschub über Leistung und Arbeit (Energie):

An dieser Stelle scheint es angebracht auf den Unterschied zwischen Energie (hier z.B. in Gigawattstunden (GWh) angegeben) und Leistung (hier in z.B. Gigawatt angegeben) einzugehen, der in den Medien und der Politik fast immer durcheinander gebracht, oft auch gleich gesetzt wird. In Deutschland sind inzwischen Ende 2013 ca. 32 GW an Windenergieanlagen installiert. Oft lesen wir, das sei so viel wie die von 32 Kernkraftwerken.

Auch lesen wir fast immer, diese oder jener Park aus „Erneuerbaren“ Quellen könne so und so viele Haushalte mit Strom versorgen. Glauben  Sie kein Wort davon. Tatsache ist dass kein Wind- oder Solarpark jemals ein konventionelles Kraftwerk egal ob Kern- Gas oder Kohle betrieben, ersetzen kann, denn wie zuvor schon erwähnt, liefern diese Quellen nicht dann wenn Strom gebraucht wird, sondern nur an den wenigen Stunden im Jahr, wenn die Sonne scheint, oder der Wind weht. Und dazu noch nur vom Willen Götter bestimmt. Man verwechselt also, bewusst oder unbewusst, die Nennleistung, welche die jeweilige Anlage unter Laborbedingungen gemessen, bereitstellen kann, mit der Energie, die ein Kraftwerk gleicher Nenn-Leistung ganzjährig und auf Abruf jederzeit liefert. Ein ganz erheblicher Unterschied! Mit gleicher „Wahrheit“ könnte man behaupten, ein einziger Blitz würde die Leistung sämtlicher deutscher Kraftwerke übertreffen. Man vergisst dabei nur, dass niemand etwas davon hat, weil der Blitz zufällig auftritt und seine Leistung nur wenige Mikro- bis Millisekunden abgeben kann.

Mangelnde Speicher

Diese Zufälligkeit der Energieerzeugung ist ein weiterer nicht behebbarer naturgesetzlicher Mangel der NIE. Es gibt einfach keine Speicher, um die so aufwendig (Die Investition dafür ist jeweils 6  x teurer bei Offshore Wind bis 17 x teurer bei Solar, als konventionell) erzeugte Energie zu speichern und bei Bedarf zur richtigen Zeit am richtigen Ort in der richtigen Menge wieder einzuspeisen. Weder heute noch in Zukunft. Die einzigen Großmengen-Speicher für elektrische Energie sind Pumpspeicherwerke (PSW). Sie werden seit ca. hundert Jahren gebaut, und haben nur einen Wirkungsgradverlust von 20 bis 25 %.  Alle anderen Speicherverfahren sind darin wesentlich schlechter und großtechnisch nicht verfügbar. Das Prinzip der PSW ist einfach. Aus einem Untersee wird bei Nacht, wenn der Strom billig ist, viel Wasser in einen manchmal hundert oder mehr Meter höher gelegenen Obersee gepumpt. Zur Mittagszeit, oder bei anderen Lastspitzen, werden die Schleusen des Obersees dann geöffnet, das Wasser rauscht nach unten und treibt Turbinen zur Stromerzeugung an.

Das größte deutsche Pumpspeicherwerk und eines der größten in Europa, ist Goldisthal im schönen Thüringen. Es hat eine Leistung von 1 GW  und kann diese Leistung 8  Stunden lang abgeben. Das sind 1 GW x 8 Stunden also 8 GWh. Dann ist es leer und muss wieder gefüllt werden. Das geht nur langsam, und auch nur dann, wenn genügend billiger Strom zur Verfügung steht. Deutschland hat jährlich einen Stromverbrauch von rd. 600 TeraWatt-Stunden. Das sind 600.000 GWh. Pro Stunde sind das im Mittel 68,5 GWh. Goldisthal könnte also den Energiebedarf Deutschlands rechnerisch gerade mal für gut 8,5 Minuten decken. In ganz Deutschland stehen PSW  mit insgesamt 7 GW. Sie könnten -aber auch nur theoretisch[3]– für rd. 35 Minuten Deutschlands Energiebedarf decken. Mehr können aus Gründen der Topologie, des Umweltschutzes aber vor allem der riesigen Kosten wegen nicht gebaut werden. Allein Goldisthal benötigte eine Bauzeit von 11 Jahren und kostete 600 Mio €.

Aus diesen Gründen kann der zwingend erforderliche Lastausgleich nur über konventionelle Kraftwerke erfolgen. Man spricht dann von Pufferkraftwerken. Das geht und wird auch so gemacht. Allein diesen -oft übelst beschimpften- Kraftwerken, die „schmutzigen“ Strom erzeugen, und ihren fähigen Betreibern, ist es zu verdanken, dass bisher in Deutschland die Lichter nicht ausgingen. Das Problem aber, was diese nun sehr intermittierende und zeitlich  immer geringere Einspeisung aus konventionellen Kraftwerken erzeugt, ist zunächst mal ein ökonomisches.  Wegen der geringen abgegebenen Energiemenge und des geringen Börsenpreises, welcher der zuvor hoch subventionierte Überproduktion an NIE Strom zu verdanken ist (Strom lässt sich nicht speichern, zusammen sind jetzt bereits rd 70 GW NIE Kapazität installiert), rechnen sich die konventionellen Kraftwerke häufig nicht mehr. Zudem werden sie durch den ständigen Lastwechsel völlig auf Verschleiß gefahren. Die Kosten steigen rasant. Die Konsequenz ist, dass immer mehr dieser Kraftwerke stillgelegt werden.  Ein Umstand, der den Befürworten der NIE überhaupt nicht passt.

Auch deshalb, aber insbesondere durch die ungebremste Vorrang-Einspeisung (so will es das EEG) von zappelndem Solar und Windstrom mehren sich die Störungen, die einen geordnete Stromversorgung bei stabiler Spannung (230 V) und Frequenz (50 Hertz) immer schwieriger machen. Bald werden sie so weit zunehmen, dass Experten der Netzbetreiber, die für diese stabile Stromversorgung sorgen müssen, in Kürze von flächendeckenden und langandauernden Ausfällen (Blackouts) ausgehen. Denn aus Gründen der Betriebssicherheit sind alle Anlagen mit automatischen Überlastabschaltungen ausgerüstet, die in Sekundenbruchteilen gefährdete Anlagen bei gefährlichen Störungen vom Netz nehmen. Lag die Zahl der Störungen vor einigen Jahren noch bei 3 bis 4 pro Jahr, so sind es heute ca. 1.000. Und ein deutschlandweiter nur einstündiger Blackout[4] würde heute mit ca. 600 Mio € an Schaden zu Buche schlagen.

Fazit

Wir können also mit Fug und Recht feststellen, dass die Energiewende von Anfang an gescheitert ist, weil sie scheitern musste. Kein Naturgesetz lässt sich von einem noch so schlauen Politiker brechen oder beugen. Gute Ingenieure können die eine oder andere natürliche Begrenzung umgehen. Doch das kostet! Und wie. Zahlten wir doch bis jetzt schon Ende 2013 seit Bestehen des EEG ca. 120 Mrd € in die Taschen der NIE Erzeuger, ihrer Finanziers und Projektierer ein. Gleichzeitig ist dieser Geldsegen für die kommenden 20 Jahre garantiert . Kein Wunder dass die EEG Gewinnler dieses mit Klauen und Zähnen verteidigen. Denn allein diese Garantie kostet uns Verbraucher in den nächsten Jahren nochmals 330 Mrd €. Und so geht es ungebremst weiter, denn auch im neuen Koalitionsvertrag steht, dass man die „Erneuerbaren“ bis 2035 auf 55 % bis 60 % Anteil hochfahren will.

Wofür zahlen wir das? Für ein Produkt, welches aus Preis und Qualitätsgründen in echten Märkten nicht die Spur einer Chance hätte. Denn es ist in jeder Hinsicht miserabel.

Klima und Ressourcen

Lassen Sie mich zum Schluss liebe Leserin und lieber Leser noch auf die beiden Hauptargumente eingehen, die zur Begründung der Energiewende herhalten müssen. Um es vorweg zu sagen: Sie sind beide falsch.

Klimaschutz

Im neuen Koalitionsvertrag steht unter Punkt 1.4 wirklich, dass die Energiewende Umwelt und Klima schützt, ferner Importe – also fossile Resourcen- mindert. Kein Wort davon ist wahr. Selbst wenn man mit geschlossenen Augen durch diese Welt geht, wie es viele Entscheidungsträger und Mitbürger offensichtlich tun, und ohne Mitdenken oder Reflexion den öffentlichen Verlautbarungen des zum Weltklimarates hochgejubelten staatlichen IPCC (Intergovernmental Panel on Climate Change) über den Einfluss des (insbesondere anthropogen erzeugten) CO2 auf die Weltmitteltemperatur Glauben schenkt, dann muss man zwangsläufig konstatieren, dass sämtliche deutsche Absenkungsbemühungen durch den EU Emissionshandel völlig konterkariert werden. Selbst wenn NIE Anlagen CO2 vermeiden würden, was sie – wenn man ihren gesamten Lebenszyklus betrachtet- nicht tun, dann wird diese Absenkung durch eine automatische Erhöhung des CO2 Ausstoßes der am Emissionshandel beteiligten EU-Länder mehr als ausgeglichen. Das ist so gewollt und geschieht auch so.

Darüber hinaus blasen andere große Länder wie Indien, China oder Brasilien in einer Woche das zusätzlich an CO2 aus, was wir dummen Deutschen in einem Jahr einsparen wollen. Doch nicht nur das. Auf keiner der vielen tausenden von Seiten aller fünf bisherigen IPCC Berichte findet sich auch nur der Hauch eines Hinweises auf Beobachtungen oder andere Belege, die beweisen, dass CO2 die Temperatur steuert, in diesem Falle gefährlich anhebt. Stattdessen ist es bestätigt, dass die Mitteltemperatur der Erdatmosphäre seit nunmehr 17 Jahren nicht mehr angestiegen ist, obwohl es die CO2 Konzentration stetig, auf jetzt knapp 0,04 %, tat. Die Klimamodelle haben schmählich versagt. Sie sind durch die Wirklichkeit eindeutig widerlegt.

Ressourcenknappheit

Auch die vermutete oder erhoffte Ressourcenknappheit gehört ins Reich der Fabel, wie sie besonders der grün-rote Club of Rome zu erzählen beliebt. Derzeit krempeln neuartige Prospektions-, Bohr- und Gewinnungsverfahren, also technologischer Fortschritt (Stichwort „Fracking“),  die energetische und damit politische Weltkarte komplett um. Die USA sind bereits jetzt weltgrößter Erdgasproduzent der Welt und werden in Kürze auch zum weltgrößten Exporteur aufsteigen. Deren Gaspreis liegt um 75 bis 80 % unter dem unseren. Dasselbe passiert am Ölmarkt, von der Kernenergie nicht zu reden. Beinah im 2 Monatsrythmus werden riesige Erdgas und Erdölfelder entdeckt, welche die Reichweite  dieser Ressourcen um viele hundert bis tausend Jahre in die Zukunft verschieben.

Schlussbemerkung

Ich bin sicher, ich konnte Ihnen verdeutlichen, dass die Energiewende keine der verkündeten Ziele erreichen kann, aber sehr unerwünschte, zwangsläufige Nebenwirkungen hat, die wir bereits heute in großem Umfang spüren. Der Trend wird sich beschleunigen und nicht nur die Energie sehr, sehr teuer machen, sondern auch die Zahl der wertschöpfenden Arbeitsplätze in diesem Lande dramatisch reduzieren. D.h. die Zange kneift von zwei Seiten, wesentlich höhere Kosten für jeden von, bei gleichzeitigem Verlust oder Drohung des Verlustes von Millionen von Arbeitsplätzen.

In der Verwaltungsgesetzgebung gibt es ein Gesetz, was bestimmt, dass Verwaltungsakte, deren Ziele eindeutig nicht erreichbar sind, nichtig sind. Die Energiewende ist so ein Verwaltungsakt. Sie muss ersatzlos um 180 ° gewendet werden, alle Durchführungs-Gesetze sind ersatz-und entschädigungslos zu streichen. Lassen Sie uns gemeinsam dafür kämpfen

Michael Limburg; Dezember 2013

Der Beitrag erschien Ende Dezember im Extrablatt der „Vertraulichen Mitteilungen“ des Verlages für Arbeit und Wirtschaft Büsingen.

Sie können ihn auch als pdf im Anhang herunterladen


[1] Anmerkung: Energie wird heute in Joule oder Watt-Sekunden (Ws) bzw. vielfachem davon gemessen. Hier kWh d.h. Tausend (kilo) Watt in einer Stunde. Nach der Definition von Energie als Arbeit = Leistung x Zeit. Das bedeutet auch, dass 1 Kraftwerk bei einer Leistung von 1 Kilowatt über 1 Stunde 1 kWh abgibt, bzw ein Herd bei einer Leistung von 1 kW eine Stunde lange 1 kWh „verbraucht“ bzw. wieder in Wärme umwandelt.

[2] Gem. Daten von Siemens hier http://www.siemens.com/sustainability/de/umweltportfolio/produkte-loesungen/erneuerbare-energien/wind-onshore.htm

[3] Kein Kraftwerk kann mehr Leistung abgeben, als die wofür es ausgelegt wurde. Im Falle der PSW sind das max. 7 GW. Zudem kann diese Leistung nur über die per Auslegung festgelegte Zeit abgegeben werden. Wegen der Rohrquerschnitte und der Auslegung der Turbinen kann man min. 5 bis 6 h lang diese Energiemenge abrufen. D.h. dass die deutschen PSW nur d. 1/10 der notwendigen deutschen Leistung decken können, dies dann für rd. 5-6 h.

[4] Quelle Die Welt http://www.welt.de/wirtschaft/article121265359/Jede-Stunde-Blackout-kostet-600-Millionen-Euro.html

Related Files




Die Rechnung des begabten Herrn Gabriel – Harte Zahlen zur neuen Energiepolitik

Die Energiewende wird noch einmal beschleunigt [SPI1, SPI2]. Bis zum Jahr 2025 sollen 40-45 % Strom aus sogenannten „erneuerbaren“ Energien erzeugt werden, mit eindeutigem Schwerpunkt auf der Windenergie (Bild 1), insbesondere an den küstennahen Standorten in Norddeutschland. Die Kapazität der Offshore-Windenergie soll von derzeit wenigen 100 MW auf 6500 MW vervielfacht werden. Dies dürfte vor allem zu Lasten der konventionellen Kraftwerke gehen, denen man – soweit sie fossil befeuert werden – zusätzlich auch noch die CO2-Zertifikate verteuern will [CO2].

Bild 1. Bei ihren aktuellen Energiewende-Planungen setzt die neue Bundesregierung vor allem auf die Windenergie

Als Antwort auf den überbordenden Preisanstieg bei den EE-Energien will man lediglich die Förderung in einigen Bereichen nach unten anpassen oder sogar deckeln. Falls dies so umgesetzt wird, könnte sich der Anteil der Windenergie an der deutschen Stromerzeugung, der im Jahre 2012 noch bei 7,3 % lag, bis zum Jahr 2025 mehr als verdreifachen und auf über 22 % anwachsen. Für Solarenergie kann von einem Anwachsen von 4,6 auf bis zu 7 % ausgegangen werden, während das Wachstum bei Wasser, Biomasse und Müll gedrosselt werden dürfte. Für Deutschlands Energieversorgung bedeutet diese Entwicklung eine Katastrophe. Grund ist, dass im Netz im Prinzip kaum Strom gespeichert werden kann. Produktion und Verbrauch müssen deshalb stets im Gleichgewicht gehalten werden. Erzeuger wie Wind und Sonne, die nicht stabil einspeisen, stören dieses Gleichgewicht. Zur Stabilisierung müssen die Netzbetreiber dabei vor allem auf die konventionellen Kraftwerke zurückgreifen. Und genau die dürften zu den Leidtragenden der Koalitionsvereinbarungen gehören.

Sachverstand?

Kaum ein Urteil dürfte die derzeitige deutsche Energiepolitik treffender und zugleich vernichtender charakterisieren als das folgende Zitat aus dem kürzlichen Jahresgutachten 2013/ 2014 des Sachverständigenrats zur Begutachtung der gesamtwirtschaftlichen Entwicklung mit dem Titel „Gegen eine rückwärtsgewandte Wirtschaftspolitik“ [WIGU], wo es heißt: „Vor etwas mehr als zwei Jahren wurde von der Regierungskoalition aus CDU/CSU und FDP die beschleunigte Energiewende ausgerufen. Dieses Großprojekt wird derzeit ohne ein schlüssiges Gesamtkonzept verfolgt.“

Künftige Stromerzeugung

Da die neue Koalition ihre Planzahlen zur Situation der Stromproduktion im Jahre 2025 zum Teil in Prozentzahlen vorgelegt hat, ist die erste und wichtigste Frage, wie hoch denn die absolute Stromproduktion zu diesem Zeitpunkt ausfallen dürfte. Zu dieser wichtigen Frage gehen die Meinungen natürlich weit auseinander. Anhänger der „erneuerbaren“ Energien glauben, dass man durch Maßnahmen zur Steigerung der Energieeffizienz noch erhebliche Einsparungen erzielen kann. Es ist tatsächlich nicht auszuschließen, dass es zu einem Rückgang bei Produktion und Verbrauch elektrischer Energie in Deutschland kommen wird. Allerdings würden diese Einsparungen voraussichtlich durch die Abwanderung wichtiger Industrien zustande kommen, was man keinesfalls wünschen sollte. Da die Krisenjahre seit 2008 den vorher recht gleichförmigen Anstieg der Stromproduktion unterbrochen haben, verharrt diese seit fünf Jahren auf etwa gleichem Niveau und lag im Jahre 2012 bei rund 629 Terawattstunden (TWh) [AGEB]. Mangels geeigneter Grundlagen für eine anderslautende Prognose nehmen wir für diese Betrachtungen einmal an, dass dieser Wert konstant gehalten werden kann.

 

Bild 2. Jede bessere Hundehütte zählt: Die Solarkapazität soll bis auf 52000 MW ausgebaut werden.

Ein durchaus wesentlicher zusätzlicher Faktor sind jedoch die aktuellen Planungen im Bereich der Elektromobilität, obwohl die gleichen Leute, welche dieses Thema ständig vorantreiben, sich kaum Gedanken darüber zu machen scheinen, wo denn der zusätzliche Strom herkommen soll. Nach den derzeit noch geltenden Planzahlen der alten Bundesregierung sollen 2025 rund 4,3 Mio. Elektro-PKW auf deutschen Straßen unterwegs sein [EAWI]. Für diese wären als Antriebsenergie jährlich rund 13 TWh an der Steckdose bereitzustellen. Inklusive der Leitungs- und Übertragungsverluste von rund 35 % wären demnach jährlich rund 20 TWh zusätzlich bereitzustellen. Als Gesamtbedarf der Stromerzeugung im Jahre 2025 kann demnach von etwa 650 TWh ausgegangen werden. Hiervon sollen 40-45 % aus erneuerbaren Quellen stammen. Für die weiteren Berechnungen wählen wir einen konservativen Ansatz und gehen von einem EE-Anteil von lediglich 40 % aus.

Anteile der einzelnen EE-Quellen

Als nächstes ist die voraussichtliche Aufteilung dieser 40 % bzw. 260 TWh auf die einzelnen EE-Quellen aufzuschlüsseln. Dies erfordert einige Berechnungen, weil sich die präsentierten Zahlen zum Teil auf Strommengen, zum Teil auf Erzeugungskapazitäten beziehen. Als feste Größen wurden der Ausbau der Solarkapazitäten auf 52000 MW sowie der Offshore-Kapazitäten auf 6500 MW vorgegeben.

Bild 3. Durchschnittliche Nutzungsgrade der in Deutschland installierten Fotovoltaikanlagen in den Jahren 2006 – 2012 (Daten: BMU [AEEE])

Die übrigen EE-Quellen – Wasser, Brot (pardon, gemeint ist natürlich Biomasse) sowie Müll – dürften auf dem aktuellen Niveau mehr oder weniger gedeckelt werden. Mit Blick auf diese Angaben müssen zunächst Kapazitäten in tatsächlich zu erwartende Strommengen umgerechnet werden. Hierfür werden die Nutzungsgrade benötigt. Bei Fotovoltaik lässt sich nach Zahlen des BMU [AEEE] für die letzten Jahre ein mittlerer Nutzungsgrad von 8,3 % (Bild 3) errechnen, bei Wind sind es 17,4 %, Bild 4.

Bild 4. Durchschnittliche Nutzungsgrade der in Deutschland installierten Windenergieanlagen in den Jahren 2006 – 2012 (Daten: BMU [AEEE])

Da für die Offshore-Anlagen in der Nordsee noch keine verlässlichen Langzeiterfahrungen vorliegen, macht es Sinn, hierfür Ergebnisse aus Großbritannien heranzuziehen, da dort in ähnlicher geographischer Lage schon seit Jahren große Windparks in Betrieb sind. Hier liegt der Nutzungsgrad bei 30 % [OFFS]. 

Demnach wären im Jahre 2025 folgende EE-Produktionsmengen zu erwarten:

Kosten des Zubaus

Per 3. Dez. 2013 waren in Deutschland 32460 MW Windkapazität sowie 34850 MW Solarkapazität installiert [EEX], ausserdem etwa 500-700 MW Offshore-Kapazität. Um die obigen Werte für die Jahres-Stromproduktion zu erreichen, wäre demnach folgender Zubau erforderlich:

 

In obiger Rechnung wird auch der Ersatzbedarf für diejenigen Kapazitäten berücksichtigt, die aufgrund des Erreichens der Altersgrenze ausgemustert werden müssen, d.h für alle Anlagen, die 2005 bereits in Betrieb waren. Bei Solaranlagen sind dies lediglich 2100 MW, bei Windenergieanlagen jedoch immerhin zusätzlich 18400 MW.

Als nächstes sind jetzt die entsprechenden Kosten pro installierter Kapazität zu ermitteln. Bei professionell errichteten Solaranlagen kann man aktuell von etwa 1,5 bis 1,8 Mio. € pro MWp ausgehen [SOKO, SOK2]. Bei landgestützten Windenergieanlagen liegen die Kosten bei etwa 1,45 Mio. €/ MW [WIKO]. Wesentlich teurer wird es dann im Offshore-Bereich. Nimmt man den Nordseewindpark Bard 1 als Maßstab, so liegen diese bei etwa 7,25 Mio. €/ MW [BARD]. Mit diesen Werten stellen sich die Kosten für die Steigerung des Anteils erneuerbarer Energie auf 40 % bis zum Jahre 2025 zunächst wie folgt dar:

Allein für die reinen Anlageninvestitionen kommen mit den EE-Plänen der neuen Regierung somit auf den deutschen Verbraucher zusätzliche Kosten von ca. 180,- Mrd. € zu.

plus einiger „Kleinigkeiten“

Mit der reinen Errichtung von EE-Anlagen ist es jedoch nicht getan, es kommen noch diverse kleinere und größere Positionen hinzu, damit der so erzeugte Strom auch tatsächlich beim Verbraucher ankommen kann. Insbesondere um die Netzanbindung der Offshore-Windenergie hat es ja bereits in den vergangenen Jahren erhebliches Gezerre gegeben. Insgesamt handelt es sich um folgende Positionen:

Mrd. €

Netzausbau an Land (Transportebene, 4000 km) [NAKO]                                                        26,- bis 80,-

Anbindung Offshore (5800 MW) [TENN]                                                                                          6,-

Netzausbau Verteilnetze [NAKO]                                                                                        24,- bis 30,-

Smart Meter [SMSP]                                                                                                                   10,4

Zusätzliche Kosten Regelenergie (pro Jahr mehr als 1 Mrd. €)                                                              11,-

Summe (konservativ gerechnet)                                                                                                      77,4

Summa summarum dürften die Beschlüsse der jetzt besiegelten Koalition demnach bis zu 300 Mrd. € kosten. Diese Zahl stellt jedoch immer noch nicht die ganze Wahrheit dar, denn es handelt sich dabei vor allem um Investitionsaufwendungen. Hinzu kommen noch die Kosten für Betrieb und Instandhaltung, die aller Voraussicht nochmals in gleicher Größenordnung liegen dürften. Angesichts der Tatsache, dass die sogenannte „Energiewende“ den Verbraucher bereits bis jetzt mit schätzungsweise 500 Mrd. belastet hat, dürfte die Billion bereits im Jahre 2025 erreicht oder sogar überschritten werden.

 

Bild 5. Konventionelle Kraftwerke wie hier das Kohlekraftwerk Altbach Deizisau sollen die Kohlen der Energiewende aus dem Feuer holen und trotzdem verlieren (Foto: kohlekraftwerke.de)

Besonderes „Schmankerl“ sind in diesem Zusammenhang die Planungen rund um die zwangsweise Umrüstung der Zählertechnik in Haushalten auf die sogenannten „Smart Meter“. Einem kürzlichen Bericht bei „Spiegel Online“ zufolge [SMSP] soll zunächst jeder Haushalt acht Euro im Jahr bezahlen, auch wenn er noch mit einem alten Stromzähler ausgestattet ist. Für Neubauten und bei Modernisierungen hingegen wird der obligatorische Einbau eines Smart Meter bis zu 72 Euro im Jahr kosten. Dabei hat der Verbraucher von diesen Geräten keinerlei substanzielle Vorteile zu erwarten, statt dessen erhebliche Nachteile – von der Fernüberwachung seines Verbrauchsverhaltens bis zur ferngesteuerten Abschaltung des Stroms nach Gusto des Versorgungsunternehmens. Profitieren dürften davon lediglich die Zählerhersteller.

Was bekommt der Bürger eigentlich zurück?

Fragt man jetzt ketzerisch, welche Vorteile denn dem deutschen Verbraucher aus diesem fast beispiellosen Kapitaleinsatz erwachsen sollen, so sind diese….quasi nichtexistent. Denn das erklärte Ziel, den Einsatz fossiler Rohstoffe und damit den CO2-Ausstoss zu reduzieren, wird man trotz dieser gigantischen Ausgaben nicht einmal annähernd erreichen können. Dazu genügt ein Blick auf Bild 6, das die Aufteilung der Stromerzeugung am 11. Dezember 2013 dokumentiert. An diesem Tag erreichte die kumulierte Stromerzeugung aus 32460 MW Windkapazität sowie 34850 MW Solarkapazität über etliche Stunden nicht einmal 1000 MW. Der prozentuale Anteil von Sonne und Wind am der Netzlast lag für einen Großteil des Tages bei lediglich 1,5 bis 3,5 % und erreichte nur in der Mittagszeit kurzfristig 7,7 %. Um die Stromversorgung dennoch sicherzustellen, musste fast der gesamte Park an Kohle-, Gas- und Kernkraftwerken zum Einsatz gebracht werden. Trotz enormer nomineller Kapazitäten an „erneuerbaren“ Energien können in Deutschland faktisch keine konventionellen Kraftwerke stillgelegt werden, weil ohne sie die Versorgung zusammenbrechen würde.

Bild 6. Am 11.Dezember 2013 lag die gemeinsame Leistung aus 67300 MW Wind- und Solarkapazität für einen Großteil des Tages unterhalb von 2000 MW. Nur konventionelle Technologien wie Kohle- und Kernkraftwerke retteten Deutschland vor dem Blackout (Daten: [EEX])

Auch für 2025 nur trübe Aussichten

Erinnern wir uns: Ziel der ganzen superteuren Aktion soll die Rettung des Klimas durch Reduzierung des Ausstoßes an CO2 sein. Diesem Ziel sollen wir mit der erheblichen Steigerung der Zahl an Wind- und Solaranlagen bis zum Jahre 2025 näherkommen. Doch wieviele konventionelle Kraftwerke wird man denn durch den forcierten Zubau von Wind- und Solaranlagen bis zum Jahr 2025 definitiv abschalten und vom Netz nehmen können? Um dieser Frage nachzugehen, wurde die Wetterlage bzw. die damit verknüpfte Stromerzeugung des 11. Dezember 2013 zugrunde gelegt und mit den für 2025 geplanten Kapazitäten neu berechnet, Bild 7. Im betreffenden Jahr lägen die Windkapazitäten bei insgesamt 93160 MW (86660 MW Onshore und 6500 MW Offshore) und die Solarkapazität bei 52000 MW, zusammen also 145160 MW. Das entspricht rund 180 % der maximalen Netzlast.

Doch trotz dieses enormen „Overkills“ an „EE“-Kapazität kämen Sonne und Wind bei einer vergleichbaren Wetterlage wie der des 11. Dezembers 2013 auch zusammen über einen Großteil des Tages auf nur 2700 bis 4200 MW bzw. 4 bis 9 % der Netzlast. Zur Aufrechterhaltung der Versorgungssicherheit wären konventionelle Kraftwerke also weiterhin faktisch unverzichtbar. Eine Stilllegung nennenswerter Kapazitäten wäre nach wie vor nicht möglich.

Mit Blick auf das vorgebliche Ziel der Energiewende, die Verringerung des CO2-Ausstosses, lässt der Blick auf Bild 7 zudem erkennen, dass diesbezüglich überhaupt kein Fortschritt zu erwarten sein dürfte. Grund ist die Stilllegung der Kernkraftwerke, die 2012 immerhin noch rund 16 % zur deutschen Stromerzeugung beigetragen hatten. Dieser Anteil muss durch Kohlekraftwerke aufgefangen werden, die entsprechend zusätzliches CO2 ausstoßen. Hinzu kommt, dass aufgrund der Unzuverlässigkeit der Stromerzeugung aus Sonne und Wind ein entsprechend höherer Anteil konventioneller Kraftwerke als Bereitschaftsreserve „unter Dampf“ gehalten werden muss, um jederzeit einzuspringen. Dieser sogenannte „hot standby“ erfordert jedoch die ständige Zufuhr erheblicher Mengen Brennstoff, so dass sich die CO2-Bilanz der betreffenden Kraftwerke merklich verschlechtert. Per Saldo ist deshalb damit zu rechnen, dass wir 2025 für die Stromerzeugung sogar mehr CO2 in die Luft pusten werden als heute.

Bild 7. Hypothetischer Strommix im Dezember 2025 analog der Wetterlage, wie sie am 11.12. 2013 herrschte

Fred F. Mueller

Quellen

[AGEB] http://www.ag-energiebilanzen.de/

[AEEE] Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit, Arbeitsgruppe Erneuerbare Energien – Statistik, BMU – EI 1, Stand Juni 2013

[BARD] http://www.nwzonline.de/wirtschaft/neuer-wirbel-um-windpark-von-bard_a_1,0,542153364.html

[CO2] http://www.spiegel.de/wissenschaft/natur/emissionshandel-eu-staaten-wollen-co2-ausstoss-teurer-machen-a-932575.html

[EAWI] http://de.wikipedia.org/wiki/Elektroauto

[EEX] http://www.transparency.eex.com/en/

[NAKO] http://www.manager-magazin.de/politik/artikel/0,2828,758208,00.html

[OFFS] http://www.bwea.com/ukwed/ abgerufen am 31.10.2012

[SOKO] http://www.solarrechner.de/

[SOK2] http://www.interplan-solar.eu/de/Investment/turnkey.html

[SMSP] http://www.spiegel.de/wirtschaft/service/smart-meter-regierung-plant-zwangsumlage-fuer-stromkunden-a-936560.html

[TENN] http://www.manager-magazin.de/unternehmen/energie/0,2828,851292,00.html

[WIGU] Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung. Gegen eine rückwärtsgewandte Wirtschaftspolitik Jahresgutachten 2013/14

[WIKO] Verkaufsprospekt zum Erwerb von Kommanditanteilen an der Bürgerwindpark Albersdorf GmbH & Co. KG




Überraschende Erkenntnis in der Energiewende: „Flaute und Wolken stoppen Ökostrom-Produktion“

 

„Flaute und Wolken stoppen Ökostrom-Produktion“. 

Wetzel – vielleicht langsam zum Gegner der Energiewende mutiert- weil zunehmend kritisch ob ihrer miserablen Ergebnisse, fällt auf, dass unter diesen Umständen keines der Versprechen der Energiewende Befürworter einzuhalten sind. So schreibt er:

Zitat

Ökostrom meldet sich ab

Wind und Sonne tragen zuweilen über weite Zeiträume fast nichts zur Stromversorgung bei. Als der Orkan „Xaver“ abgezogen war, setze eine Flaute mit Hochnebel ein. In der Erzeugungskurve der zweiten Dezemberwoche wird der Windkraft-Anteil zu einer hauchdünnen Linie. Auch die Solaranlagen produzieren nur für zwei oder drei Stunden am Mittag minimale Mengen. Konventionelle Kraftwerke, in der Grafik die große graue Basis, mussten die ganze Woche über die Last der Stromversorgung fast allein tragen. In Zeiten typischer winterlicher Hochdrucklagen kann eine solche Situation auch mal zwei Wochen anhalten. .. 

Um dann im Gegenzug die Jubelmeldungen der NIE Lobbyisten vom Frühjahr zu zitieren:

…Im Frühjahr erfreute eine Serie von Jubelmeldungen die Herzen der Energiewende-Fans. „Wind- und Solarstromproduktion so hoch wie nie“, verkündete stolz das „Internationale Wirtschaftsforum Erneuerbare Energien“ (IWR) am 19. April. Ökostrom mit 35 Gigawatt im Netz, „dieser Wert entspricht der Leistung von 26 Atomkraftwerken“…Wer wollte angesichts solch kraftstrotzender Zahlen nicht von der Allmacht erneuerbarer Energien träumen? Orkantief „Xaver“ sorgte ja noch Anfang Dezember für eine Windstrom-Menge, die dem Output von 26 mittleren Atomkraftwerken entsprach, meldete frohgemut erneut das Münsteraner IWR.

Die Jubelnachrichten der Ökostrom-Statistiker haben allerdings bedenkliche Folgen. Viele Bürger sehen inzwischen das Grünstrom-Zeitalter schon zum Greifen nah, die Energiewende fast am Ziel. Wer braucht da noch Kohlekraftwerke?

Nach einer aktuellen, repräsentativen Umfrage des Meinungsforschungsinstitut TNS Emnid im Auftrag der TU Bergakademie Freiberg glaubt ein Drittel der Deutschen, man könne in der Stromproduktion „ohne Probleme sofort oder bis 2020 auf Kohle verzichten“. Sie schätzen den Anteil von Stein- und Braunkohlestrom in Deutschland im Durchschnitt auch auf lediglich 25 Prozent. In Wahrheit liegt er mit 44 Prozent knapp doppelt so hoch.

Damit erinnert er an eine ganz grundlegende Problematik, die die EEG Gewinnler und in ihrer Gefolge die handelnden Politiker aller Parteien schamlos ausnutzen. Es ist die völlige Unfähigkeit weiter Kreise der Bevölkerung, die komplizierten Zusammenhänge der Stromproduktion und Verteilung auch nur im Ansatz zu verstehen. Dazu es fehlt nicht nur am Willen, sondern, bei sehr vielen, auch an der dafür nötigen Bildung. Die MINT Fächer wurden schon immer gern abgewählt. Sie gehören „nicht zur Bildung“, wie ein vermessener Dietrich Schwanitz uns einmal glaubhaft berichtete.

Und Wetzel fällt noch mehr auf:

Unter der Überschrift:

Es gibt nicht genug Stromspeicher

Schreibt er:

Stromspeicher, die Solar- und Windstrom für solche Flautezeiten aufbewahren könnten, stehen noch nicht einmal ansatzweise zur Verfügung. Selbst wenn es der Bundesregierung gelänge, wie geplant bis 2020 eine Million Elektroautos auf die Straßen und ans Stromnetz zu bringen: Ihre Batterien könnten Deutschland gerade einmal etwa sieben Minuten lang mit Strom versorgen.

Eine winterliche Flaute dauert aber oft mal 14 Tage und länger. Die einzigen bislang wirtschaftlichen Stromspeicher sind die Stauseen in den Bergen. Doch alle Pumpspeicher Deutschlands wären nach fünf bis sieben Stunden leer gelaufen, dann müssten auch sie die Stromproduktion einstellen. Andere Speichertechniken wie „Power-to-heat“ oder „Power-to-gas“ stecken allesamt noch in den Kinderschuhen.

Darin ist einiges richtig, jedoch nicht die Behauptung, dass alle deutschen Stromspeicher Deutschland fünf bis sieben Stunden versorgen könnten, bevor sie leer wären. Dem ist nicht so, auch wenn das den Kohl auch nicht mehr fett macht. Denn es sind leider nur ca. 35 Minuten! Mehr als 40 GWh liefern sie nicht. Bei einer Stromproduktion von ca. 600 TWh im Jahr , könne sie das Land also nur rd. 35 Minuten an einem durchschnittliche Tag versorgen. Um dann viele Tage lang wieder aufgefüllt werden zu müssen. Mit Strom, der aus den verteufelten Kohle- oder Kernkarftwerken kommen muss.

Und wenn dann noch viele Forschungsmilliarden in die Erforschung der „Power-to-heat“ oder „Power-to-gas“ Speichertechnologien geflossen sind, dann wird man nicht umhin können festzustellen, dass diese den Strompreis locker in die Gegend von 1 bis 2 €/kWh katapultieren werden, weil deren Wirkungsgradverluste naturgesetzlich bedingt und nicht änderbar sind.

Aber wenn das soweit sein wird, dann ist sicher schon wieder eine neue Regierung im Amt und die bisher Verantwortlichen der alten Regierung wohl versorgt nach Brüssel oder in lukrative Positionen der staatsnahen Wirtschaft verschoben. Und mit Ehrungen überhäuft.

Wer erinnert sich dabei da nicht an den alten Witz in der untergegangenen DDR von den vier großen Feinden des Sozialismus?

Sie heißen Frühling, Sommer, Herbst und Winter, mit den ebenso überraschend auftretenden kleinen Feinden, die da heissen Tag und Nacht

Bleibt uns zum Schluss dieser Bestandsaufnahme der schönen neuen Energiewendewelt noch auf einen Bericht in den Deutschen Wirtschaftsnachrichten hinzuweisen, die über Vorbereitungen auf den großen Blackout in Europa berichtet:

Unter der Überschrift

Blackout im Winter: Vorbereitung auf europaweiten Stromausfall

lesen wir

Eine Initiative aus Österreich diskutiert über die Folgen eines europaweiten Stromausfalls. Fazit: Schon kleinere Störungen können weitreichende Dominoeffekte auslösen. Vertreter aus Wirtschaft und Verwaltung planen für den Ernstfall. Beispiele aus der Vergangenheit zeigen, dass die Sorge vor einem Blackout durchaus begründet ist. 

Die zivilgesellschaftliche Initiative „Plötzlich Blackout“ lud kürzlich mehr als 200 Vertreter aus Österreichs Wirtschaft und Verwaltung zu einem nationalen Workshop ein. Dies berichtet Die Presse. Thema der Veranstaltung war die Möglichkeit eines überregionalen Stromausfalls. Dazu wurde eine fiktive Notsituation durch einen Stromausfall in Wien simuliert. Die Teilnehmer erörtern das mögliche Vorgehen aller Beteiligten und die Folgen für die Wirtschaft und die Bürger.

Neben den staatlichen Behörden, Privatunternehmen und Energieversorgern waren auch Bürger-Initiativen, gemeinnützige Organisationen und Rettungskräfte auf dem Workshop vertreten. Eine Zusammenarbeit aller gesellschaftsrelevanten Bereiche sei notwendig, um in Notsituationen schnellst möglich zu handeln, so die Organisatoren von “Plötzlich Blackout”.

Sie sind davon überzeugt, dass ein überregionaler Stromausfall sehr wahrscheinlich ist. Dabei beziehen sie sich dabei auf die Tatsache, dass Stromnetze schon lange nicht mehr national begrenzt sind. Alle europäischen Erzeuger, Betreiber, Händler und Verbraucher teilen sich im Grunde eine Strom-Infrastruktur. Daraus folgt, dass sich ein lokaler Störfall schnell zu einemeuropaweiten Problem ausweiten kann…

Häufig sind auch Überkapazitäten der Grund für eine Überlastung des Netzes. So könnten hohe Kapazitäten aus Windenergie zusammen mit milden Temperaturen zu Weihnachten die Versorgung in Deutschland gefährden. Dies berichtet die FAZund bezieht sich dabei auf ein Dokument des Netzbetreibers Entso-E.

„Aufgrund der Erfahrungen der vergangenen Jahre könnte der Zeitraum um Weihnachten mit einem großen Stromüberschuss im deutschen Netz kritisch werden“, so die Autoren des Entso-E-Berichts.




Bitte liefern Sie 100 % Ökostrom aus Kernkraft!

Strom nur aus Wasserkraft zu bekommen, das geht

Mein Stromlieferant zum Beispiel bietet auch Strom nur aus Wasserkraft an. Er liefert ihn unter der Bezeichnung „NaturPLUS“, berechnet für ihn aber etwas mehr, allerdings nur 1 Euro monatlich. Das dürfte erschwinglich sein. Mein Stromlieferant sind die Stadtwerke. „NaturPLUS ist Ökostrom aus 100 % Wasserkraft.“ Versprechen sie. Glaube ich ihnen.

„Ökostrom“ ist solcher, bei dessen Erzeugen kein CO2 entsteht

Als „Ökostrom“ gilt, wenn bei seiner Erzeugung kein Kohlendioxid (CO2) emittiert wird, das dem Erdklima abträglich sein soll, weil er dieses erwärme. Nun gut, tun wir mal so, als träfe das zu. Folglich soll immer mehr Strom mit Wind- und Sonnenkraft sowie „Biogas“ erzeugt werden, weil zumindest beim Erzeugen CO2 hier nicht anfällt.

Je mehr Wind- und Solarkraft um so teurer der Strom

Allerdings sind die Kosten für diese Stromproduktion zu hoch und daher unwirtschaftlich. Um diesen Schaden zu beheben, zwingt die politische Führung die Stromnetzbetreiber per Gesetz, diesen Strom mit Vorrang abzunehmen, und uns Stromverbraucher, mehr für ihn zu bezahlen, damit dessen Erzeuger auf ihre Kosten kommen und an ihm verdienen. Das Gesetz heißt „Erneuerbare-Energien-Gesetz“ (EEG) und soll zu einer Stromproduktion ohne CO2 hinführen. Aber je mehr Windkraft-, Fotovoltaik- und Biogasanlagen gebaut werden und Strom erzeugen, umso mehr wird der Strompreis heraufgesetzt werden (müssen), umso mehr werden jene freundlichen Briefe unserer Stromlieferanten eintreffen.

Doch es gibt noch einen anderen „Ökostrom“

Aber gibt es nicht noch eine andere Möglichkeit, Strom zu produzieren, bei der das „Klimakiller-Gas“ CO2 ebenfalls nicht entsteht? Richtig, es gibt eine. Es ist die Stromerzeugung aus Kernkraft. Daher ist auch Kernkraftstrom „Ökostrom“. Dazu kommt der Vorteil, dass seine Erzeugungskosten (neben denen aus Braunkohle) am niedrigsten sind.

Schreiben Sie einfach mal einen Brief

Nun, nach diesem Vorlauf, zurück zum Stichwort Gegenwehr. Wenn Stadtwerke Strom verkaufen und liefern können, der nur mit Wasserkraft erzeugt wird, dann müssen sie das doch wohl auch mit reinem Kernkraftstrom können. Schreiben Sie also Ihrem Stromlieferanten einen Brief mit vielleicht diesem Wortlaut:

… beantrage ich hiermit, mich nur mit Strom aus Kernkraft zu beliefern

„Sehr geehrte Damen und Herren, da Sie offenkundig sehr für eine CO2-freie, klimafreundliche Stromgewinnung eintreten, wohl weil Sie meinen, anthropogenes CO2 sei klimaschädlich, sich also für den sogenannten Ökostrom einsetzen, beantrage ich hiermit, mich künftig nur noch mit dem CO2-freien Ökostrom aus Kernkraft zu beliefern und mir nur noch dessen Erzeugungskosten in Rechnung stellen; sie liegen, wie Sie wissen, etliche Cent/kWh unter dem Standard-Mixpreis. Die Versorgung mit diesem Strom ist am preiswertesten, vor allem aber stets zuverlässig, auch langfristig. Sollten Sie für diesen Strom später einmal Bezugsschwierigkeiten haben, weil die deutschen Kernkraftwerke doch abgeschaltet werden sollen, kann diesen Strom die CEZ-Gruppe aus Tschechien liefern und die EDF-Gruppe aus Frankreich. Schwierigkeiten, 100 Prozent Kernkraftstrom zu liefern, werden Sie bestimmt genauso wenig haben, wie andere Stromlieferanten imstande sind, 100 Prozent Strom aus Wasserkraft anzubieten und zu liefern. Mit freundlichen Grüßen …“

Was Sie als Antwort erwartet

Dann erhalten Sie vielleicht, wie ich, eine Antwort ähnlich wie diese: „Wir freuen uns, dass Ihnen so wie uns daran liegt, CO2-Emissionen zu reduzieren. Ihrer Bitte um Lieferung von CO2-freiem Ökostrom aus 100 % Kernkraft können wir leider nicht nachkommen. Unser Produktpotfolio entstammt aus einem Gesamtstrommix, für dessen Beschaffung und Struktur uns ökologische wie auch ökonomische Gesichtspunkte sowie die Interessenlage sämtlicher Kunden als Grundlage dienen. Bitte haben Sie Verständnis, dass wir für einzelne Privatkunden weder gesondert Strom beschaffen noch gesonderte Produkte entwickeln können.“

Aber aufgeben müssen Sie dann noch nicht

Nach so einer Antwort bestehen zwei Möglichkeiten: Entweder Sie geben auf oder Sie lassen sich diese Begründung nicht gefallen. Im zweiten Fall können Sie dann so zurückschreiben:

Was mit Wasserkraftstrom geht, muss doch auch mit Kernkraftstrom gehen

„Leider halte ich meinen Wunsch nach Kernkraftstrom noch nicht für abschließend beantwortet. Denn ich verstehe noch nicht, warum Sie Strom nur aus Wasserkraft liefern können, ihn jedenfalls anbieten und bewerben, Strom nur aus Kernkraft aber nicht. Noch sind deutsche Kernkraftwerke am Netz, und wenn sie eines Tages wirklich abgeschaltet sein sollten, dann gibt es diesen Strom von benachbarten EU-Mitgliedstaaten, die es aus guten Gründen für zweckmäßiger halten, aus dieser Form der Stromerzeugung nicht auszusteigen. Ihre Begründung, sie könnten meinem Verlangen nach Kernkraftstrom deswegen nicht nachkommen, weil Ihr „Produktfolio aus einem Gesamtstrommix entstammt“, verstehe ich nicht, denn mit dieser Begründung würden Sie dann doch auch keinen Wasserkraftstrom liefern können. Ebendas aber gelingt Ihnen offenkundig, denn Sie werben damit. Und warum können sie für einzelne Privatkunden Wasserkraftstrom „gesondert“ als Produkt entwickeln und beschaffen, nicht jedoch Strom aus Kernkraft? Und wenn für Ihre gesamte Strombeschaffung ‚ökologische wie auch ökonomische Gesichtspunkte sowie die Interessenlage sämtlicher Kunden als Grundlage dienen’, dann möchte ich doch gerne wissen: Worin bestehen diese ökologischen Gesichtspunkte genau? Was für ökonomische Gesichtspunkte meinen Sie konkret? Preise? Woher wissen Sie, was die Interessenlage Ihrer ‚sämtlichen’ Kunden ist? Und wie definieren Sie deren Interessenlage? Kurzum, Ihre Begründung ist nicht schlüssig, und ich bitte um nachvollziehbare Aufklärung.“

Das Handtuch geworfen

Ja, was sollen die armen Stadtwerke diesem Quälgeist da noch antworten? Wem die Puste ausgeht, der wirft das Handtuch. Also haben sie wortwörtlich wiederholt, was sie schon zuvor geschrieben hatten: „In unserem letzten Schreiben haben wir Ihnen bereits mitgeteilt, dass unser Produktpotfolio aus einem Gesamtstrommix entstammt, für dessen Beschaffung und Struktur uns ökologische wie auch ökonomische Gesichtspunkte sowie die Interessenlage sämtlicher Kunden als Grundlage dienen. Bitte haben Sie Verständnis, dass wir für einzelne Privatkunden weder gesondert Strom beschaffen noch gesonderte Produkte entwickeln können. Aus unserer Sicht ist Ihr Anliegen hiermit abschließend beantwortet.“

Der Versuch bei einem anderen Stromlieferanten

Einen anderen Stromlieferanten, der ebenfalls reinen Wasserkraftstrom im Programm hat, hatte ich ebenfalls mit dem Wunsch nach Kernkraftstrom traktiert. Das Begehren fand dann mit dessen intelligenteren Antwort diesen Abschluss:

Ergebnis: „Atomstrom“ liefern geht aus vielen Gründen nicht

„Leider können wir Ihnen kein solches Produkt anbieten. Im Gegensatz zu regenerativer Energie aus Wasserkraft – überwiegend aus Skandinavien und Österreich – wird reine Kernenergie nicht speziell an der Strombörse gehandelt. Bei den – neben den regenerativen Energien – gehandelten Strommengen handelt es sich immer um so genannten ‚Graustrom’, der dem bundesdeutschem Strommix entspricht. Insofern gibt es für solch einen Tarif auch keine Kalkulationsgrundlage, da es keinen Einzelpreis für die Kilowattstunde Kernenergie gibt. Auch aus technischer Sicht wäre eine Belieferung rein durch Kernkraft nicht machbar. Kernkraftwerke werden zur Deckung der Grundlast eingesetzt. Spitzenlaststrom wird – nach Bedarf – aus anderen Energieformen ergänzt, so dass es auch in diesem Fall zu einem Energiemix kommt. Darüber hinaus gibt es unserer Sicht für solch einen Tarif derzeit keinen Bedarf. Die Ereignisse in Fukushima und der daraus resultierende Atomausstieg bis zum Jahr 2020 lassen Atomstrom aus heutiger Sicht als Auslaufmodell erscheinen. Dies zeigt auch die Reaktion unserer Kunden, die verstärkt Stromprodukte aus regenerativer Energie nachfragen.“

Ein tolles Ergebnis der Energiewende: Versorgungslücke

Wie gesagt, intelligenter, aber ebenso kein Abweichen von dem, was hierzuland’ politisch korrekt zu sein hat. Nix da mit Kernkraftstrom. Wie lange wollen wir uns das EEG mit der Stromverteuerung noch gefallen, uns diese für Deutschland ruinöse Energiepolitik noch bieten lassen? In der FAZ vom 14. Mai war zu lesen, dass sich die Stromversorgungslage in Süddeutschland verschlechtert statt wie prognostiziert verbessert hat. Die Bundesnetzagentur sieht vor allem hier einen bedrohlichen Versorgungsengpass. Die Versorgungslücke entspreche etwa der Leistung von zwei Kernkraftwerken. Ein tolles Ergebnis der Energiewende. Eine irre Energiepolitik.

Dr. Klaus Peter Krause, zuerst erschienen auf seinem Blog hier




Horch & Guck sind zurück Stasi 2.0 –Smartmeter werden Pflicht

Elektrizität ist nicht gleich Elektrizität

Es gibt kein Windrad, das bei Flaute elektrische Energie produziert und es gibt keinen Sonnenkollektor, der bei Dunkelheit Strom fließen läßt. So einfach ist das und so unumstößlich, wie zwei und zwei vier ist. Jedes Kind im Vorschulalter kann das nachvollziehen. Warum versuchen uns also täglich Politiker und Medien für dumm zu verkaufen? Es geht nicht um Umweltschutz oder Energieversorgung, sondern um Gesellschaftsveränderung. Kein Politiker und kein Kombinatsleiter glaubt an eine Stromversorgung ausschließlich durch „Erneuerbare Energien“. Schon allein dieses Neusprechwort läßt jeden halbwegs gebildete Menschen erschauern. So, als hätte es die Thermodynamik nie gegeben.

Was wir alle kennen, den „Strom aus der Steckdose“ ist ein völlig anderes Produkt, als das, was nach Lust und Laune der Natur aus Windrädern und Sonnenkollektoren kommt. Man könnte sogar sagen, es ist das genaue Gegenteil: Lassen wir es uns daher nicht länger gefallen, daß man uns Äpfel für Birnen verkaufen will. „Erneuerbare Energien“ haben so viel mit dem derzeitigen „Strom aus der Steckdose“ gemeinsam, wie Malzkaffee mit Bohnenkaffee. Es ist bloß ein neuer Ersatzstoff aus der Trickkiste sozialistischer Mangelwirtschaft.

Langsam dämmert es auch mancher Politikerin: Leistung ist nicht gleich Energie, da steckt irgendwo auch noch die Zeit drin! Man kann so viel Megawatt Photovoltaik auf die Dächer pflanzen und Windmühlen in die Landschaft pflanzen wie man will, aber es gelingt trotzdem nicht, auf konventionelle Kraftwerke zu verzichten. Eigentlich ist auch das, ganz einfach zu verstehen: Will man eine bestimmte Energiemenge erzeugen — z. B. den Jahresstromverbrauch von Deutschland — muß man diesen durch die installierte Leistung — z. B. alle installierten Windräder und Sonnenkollektoren — teilen. Man erhält die Zeitdauer, in der die Anlagen — ihrem Typenschild gemäß — laufen müssen. Da es aber zumindest nachts dunkel ist und auch der Wind nicht ständig mit voller Kraft weht, braucht man hierfür gigantische Leistungen. Wenn aber der Wind dummerweise weht und die Sonne strahlt, produzieren diese Anlagen notgedrungen mehr Strom, als das Netz verkraften kann: Man müßte die Anlagen teilweise abstellen. Wenn man sie aber abstellt, produzieren sie übers Jahr gerechnet, noch weniger Energie oder anders ausgedrückt, ihre Vollbenutzungsstunden werden noch geringer.  Ein Rennen, wie das berühmt berüchtigte, zwischen Hase und Igel. Sagen wir es noch einmal ganz einfach und für jeden verständlich: Eine Vollversorgung durch „Erneuerbare“ ist physikalisch unmöglich!

Eigentlich wäre alles ganz einfach. Lasst uns zugeben, daß die „Energiewende“ eine Schnapsidee war und lasst uns ganz schnell aufhören mit dem Geld verbrennen. Aber leider haben wir ja keine Irrtumskultur in Deutschland. Wir gründen lieber einen Volkssturm oder faseln von einer Mauer, die noch hundert Jahre stehen würde, wenn sie bereits einstürzt. Hauptsache: Die Partei hat immer recht, die Partei kann sich nicht irren! Bis zum endgültigen Zusammenbruch, lassen wir uns gerne durch das Gesäusel von Wunderwaffen einlullen. Um die Wunderwaffe Speicher ist es zur Zeit etwas still geworden. Es lassen sich kaum noch Zeugen finden. Zu gering, sind die Fortschritte, die man vorzeigen könnte. Das Dilemma zwischen dem Abkassieren von Forschungsgeldern und dem nötigen schnellen Erfolg ist zu groß geworden. Auch für geübte Schlangenölverkäufer ist der Spagat zwischen dem „wir brauchen noch einige Jahre und natürlich viele Milliarden Subventionen“ und „Energiespeicherung ist überhaupt kein Problem“ zu groß geworden.

Das „smarte“ Netz

Für Hausfrauen, vom Schlage von Frau Professor Claudia Kemfert (Leiterin der Abteilung Energie, Verkehr und Umwelt am Deutschen Institut für Wirtschaftsforschung) ist die Sache ganz einfach: Wenn man zu viel Strom hat, muß man mehr verbrauchen und wenn das Angebot der Natur zu klein ist, eben weniger. So einfach geht Energiewende, jedenfalls für deutsche „Wirtschaftswissenschaftlerinnen“. Ihr Rat von Frau zu Frau: Warum die Wäsche nicht nachts waschen, wenn der Wind nachts weht? Damit läßt sich trefflich in jeder „Talkrunde“ brillieren, in der noch keiner in einer Sozialbau-Wohnung gelebt hat oder jemals eine Waschmaschine, die schon Stunden vor sich her „gemüffelt“ hat, selbst entleerte. Mit der Waschmaschine und dem Trockner (sofern überhaupt vorhanden!) sind die variablen „Großverbraucher“ im Haushalt schon erschöpft. Der üblicherweise größte Einzelverbraucher Kühlschrank/Gefrierer sollte wohl besser nicht abgestellt werden. Man kann aber keinesfalls das Licht ausschalten, nur weil gerade die Sonne nicht scheint. Ist im Haushalt die Stromrationierung schon absurd, ist sie in Industrie und Gewerbe reiner Selbstmord. Wer das nicht glauben mag, sollte einmal Unternehmer über revolvierende Stromabschaltungen in den sog. Entwicklungsländern befragen.

Damit kein Mißverständnis entsteht: Es ist nichts gegen gestaffelte Tarife einzuwenden. Allerdings ist die Flexibilität selbst im Haushalt so gering, daß Aufwand und Kosteneinsparung in keinem Verhältnis zueinander stehen. Sie sind seit Jahren Realität (Optimierung der Spitzenleistung, Nachtspeicher etc.) und wirtschaftlich ausgereizt. Für all die Methoden haben konventionelle Zähler und Rundsteueranlagen vollkommen ausgereicht. Bei der Rundsteuertechnik werden durch das Stromnetz Nachrichten gesendet, die jeder empfangen und nutzen kann. Solche Nachrichten können beim Kunden den Stromtarif wechseln oder auch Geräte an- und abschalten. Entscheidend unter den Gesichtspunkten des Datenschutzes ist, daß das System wie beim Rundfunk die Nachrichten an alle versendet, jeder aber frei entscheiden kann, ob er sie auch nutzt. Es gibt auch keinen Rückkanal. Insofern ist eine Überwachung der Kunden nur „zweckdienlich“ möglich. Beispielsweise kann man bei einer Nachtspeicherheizung mit Rundsteuerung zwar feststellen, ob der Kunde in der Heizperiode viel oder wenig verbraucht hat (Zählerstand) aber nicht, ob er gern länger schläft oder in der Weihnachtswoche Besuch hatte und deshalb das Gästezimmer stärker als sonst üblich geheizt hat.

Kein „Smart Meter“ wird je in der Lage sein, den Verlauf der Sonne zu steuern oder das Wetter zu beeinflussen. Auch ein „Smart Meter“ ist nichts anderes, als die moderne Version der Lebensmittelkarte. Es kann nur den Mangel nach politisch/gesellschaftlichen Kriterien in engen Grenzen verwalten. Wir benötigen nachts elektrisches Licht, weil es nachts dunkel ist. Wenn die Sonnenkollektoren gerade dann keinen Strom produzieren, sollte das weiterhin das Problem der Energieversorger bleiben. Wenn die Windräder mehr Strom produzieren, als das Netz aufnehmen kann, müssen sie gedrosselt werden. Es gibt jedenfalls keinen Grund, das Mittagessen in die Nacht zu verlegen, nur damit der Profit des Windparkbetreibers, wie in den Prospekten versprochen, ausfällt. Ein bischen unternehmerisches Risiko sollte schon bleiben.

Das vermeintliche Milliardengeschäft

„Smart Meter“ sind die Kopfgeburt von den gleichen Kombinatsleitern, die auch so peinliche Werbekampagnen wie „Vorweggehen“ starten. Wobei, eigentlich „Vorweggehen“? Bei der Kapitalvernichtung, beim Abbau von Arbeitsplätzen und der Transformation Deutschlands in ein Agrarland.

Natürlich, ist es weit aus kuscheliger, wenn man Milliardenumsätze mit zwangsverordneten „Smart Metern“ machen könnte, als in international umkämpften Märkten (Computertechnik, Mobiltelefone, Kraftwerksbau etc.) immer wieder gezeigt zu bekommen, daß man längst nicht mehr erfolgreich in der ersten Liga mitspielen kann. Schließlich sind deutsche Konzerne immer gut gefahren, wenn sie an den Lippen der jeweiligen Politiker geklebt haben. Die eigenen Pensionsansprüche konnten noch immer über die (absehbaren) Zusammenbrüche der unterschiedlichen „Reiche“ hinweg gerettet werden.

Die totale Überwachung

Das eigentlich empörende an dem „Smart Meter“ Konzept ist jedoch, daß der Schnüffelstaat nun endgültig in unsere Wohnungen dauerhaft einziehen will. Das „Smart Meter“ ist weit aus weniger ein Stromzähler, als vielmehr der „Vollautomatische Stasi-Chef Mielke“. Es handelt sich um eine Messeinrichtung mit Mikroprozessor und Speichereinheit nebst Rückkanal. Mit dem Stromzähler im Keller (bei großen Mietshäusern im zentralen Zählerraum) hat das so viel zu tun, wie ein Küchenmesser mit einem Maschinengewehr. Im Sinne von Datenschutz und Überwachung sollte sich der technische Laie dieses System eher wie einen Computer mit stets eingeschaltetem Mikrofon in jedem Raum vorstellen, der alle Aktivitäten aufzeichnet und per Internet zu der Überwachungszentrale zur (beliebigen und unkontrollierbaren) Auswertung schickt. Mag ja sein, daß der freundliche Computer einen nur darauf aufmerksam machen will, daß man wieder vergessen hat, das Licht auszuschalten. Kann aber auch sein, daß die Polizei die Daten zur Überprüfung eines Alibis nutzt. Selbstverständlich nur bei schwersten Straftaten! Vielleicht nutzt aber auch irgendein Geheimdienst das System zur Überwachung von geheimen Treffen irgendwelcher Terroristen. Man wird es selbstverständlich nie erfahren. Die schöne neue Welt der Öko-Sozialisten, ist halt viel mehr, als nur „Vogel-Häcksler“ und Dächer im Einheitsblau.

Wer glaubt, das alles sei übertrieben, der hat nicht die geringste Ahnung, was bereits heute Stand der Technik in der Netzleittechnik ist. Wie ausgefuchst bereits heute die statistischen Methoden und Datenmodelle sind. Und nicht vergessen: Ausweichen ist nicht! Auf das Internet oder (stets als Bewegungsmelder eingeschaltete) Mobiltelefon kann man verzichten, aber wer kann und will schon auf eine Wohnung verzichten?

Zuerst veröffentlicht bei NukeKlaus hier 




Buchbesprechung: Sven Plöger, Frank Böttcher: KLIMAFAKTEN,

Das Buch ist gut lesbar geschrieben, wendet sich an „Lehrer und Schüler“, um sie „ideologiefrei“ zu informieren. Nein, ideologiefrei ist es nicht, kann es nicht und will es auch nicht sein. Dies liegt schlicht und einfach an der Definition von „Klima“. „Klima“ ist ein Abstraktum, ihm fehlt die Realität.  Jede Bildung eines Klimawertes setzt langjährige Wetterbeobachtungen voraus. Mittleres Wetter gibt es nicht. Dies sagt Plöger selbst: „Klima kann man nicht fühlen!“ Eine Mitteltemperatur kann man weder lokal noch regional geschweige denn global fühlen, messen, spüren. Die mittlere globale Luftdruckverteilung erzeugt keinen fühlbaren Wind, schon gar keinen Orkan. Was soll eine Schüler an Erkenntnisgewinn ziehen aus dem Satz,  „dass das Wetter in einer Region etwas ganz anderes ist als das globale Klima“? Da werden Äpfel mit Pflaumen verglichen!

Je mehr man sich als Kollege in das Buch vertieft, umso deutlicher offenbart sich sein Zweck: es dient der politischen Klimapflege. Klimapolitik ist Gesellschaftspolitik und ist ein „Generationenprojekt“, eine „politische Mammutaufgabe“. Das ganze Buch besteht aus Suggestivfragen, auf die plausibel erscheinende Suggestivantworten gegeben werden. Dies schädigt zwar den fachlichen Ruf, aber dafür genießen die Autoren die Sonne des Zeitgeistes und gelten als Musterschüler politischer Korrektheit. Hauptthema ist die „Energiewende“, denn „die Chinesen wollen wieder besser atmen können.“ Hört sich gut an, ist aber falsch, denn Menschen atmen Sauerstoff ein und Kohlendioxid als Produkt der Nahrungsverbrennung im Körper aus. Mehr Menschen brauchen mehr Pflanzen, denn die produzieren Sauerstoff und atmen CO2 als Nahrungsbaustoff ein. Wer CO2 als „Klimakiller“ den Kampf ansagt, es pauschal als „Umweltgift“ verteufelt, vernichtet in seinem Klimaschutzwahn die Lebensgrundlage der grünen Pflanzen, setzt die Axt an die „Schöpfung“.

Das Buch ist alles andere als „ideologiefrei“ und das ist sein Grundübel. Es ist höchst ideologisch und gehört nicht in die Hände von Schülern. Eine Probe? Wenn die globale Temperatur nun nicht weiter ansteigt, dann weil die überschüssige Wärme den Ozeanen zugeführt wird an Orte, die die Wärme über Absinkprozesse in große Tiefen befördern. Die Ozeane puffern auf diese Weise den Klimawandel. Das ist ideologisch und nicht logisch, denn wie soll leichtes warmes Oberflächenwasser in kaltes dichtes Tiefenwasser abtauchen, dort in Wartestellung verharren, um eines Tages wieder aufzusteigen und die „Klimakatastrophe“ zu vollenden. Können Sie sich meine Enttäuschung fühlen, wenn ein synoptischer Meteorologe sich der Klimawahrsagerei und Spökenkiekerei hingibt?

Klimafakten erschienen in Frankfurt/M. 2013, 12,99 €, ISBN 978-3-86489-048-2

Oppenheim,Dr. Wolfgang Thüne




Fukushima Block IV – Die Geschichte

Damit ist bereits die erste und wichtigste Erkenntnis gewonnen: Ein Standort muß gegen die – auch hier – bekannten Naturkatastrophen gesichert sein. Ein Verdrängen kann zur Katastrophe führen. Die Statistik ist gnadenlos: Ein Jahrtausendereignis kann schon morgen eintreten. Andererseits ist es wenig hilfreich, einen Tsunami auch in Bayern als potentielle Gefahr zu sehen.

Die zweite wichtige Erkenntnis ergibt sich aus der Anordnung der Blöcke im Kraftwerk Daichi. Dort sind die Blöcke 1 bis 4 praktisch “Wand an Wand” mit vielen gemeinsamen Gängen und Leitungen gebaut. Die Blöcke 5 und 6 stehen einige hundert Meter weiter entfernt. Auch hier ist die Erkenntnis geradezu trivial: Wenn man Reaktorblöcke unmittelbar nebeneinander baut und sogar miteinander verbindet, besteht die Gefahr, daß sich Ereignisse (Feuer, explosive Gase etc.) wie bei Dominosteinen weiter ausbreiten. Ja, die Problematik geht sogar über das eigentlichen Ereignis hinaus. Die Intervention durch Menschen wird auf lange Zeit durch großräumige Kontamination verhindert. Deutlicher, als im Falle des Reaktors 4, kann man das gar nicht aufzeigen: Der Reaktor 4 war zum Zeitpunkt des Ereignisses gar nicht in Betrieb und vollständig entladen. Es wäre also gar nichts passiert, weder durch die starken Erdstöße noch durch die Flutwelle! Erst das in den anderen Reaktoren entstandene Knallgas wurde ihm zum Verhängnis. Es hat sich über das gemeinsame Lüftungssystem ausgebreitet. Die Explosion brachte das obere Geschoß des Reaktorgebäudes zum Einsturz.

Die Sonderrolle der Blöcke 5 und 6

Die Blöcke 5 und 6 befinden sich einige hundert Meter nördlich von den Blöcken 1 bis 4 auf dem gleichen Gelände. Der Block 5 entspricht den Blöcken 2 bis 4 (Siede​wasser​reaktor BWR/4 (Mark I) mit 760 MWe) und ging zwei Jahre später als Block 3 (ebenfalls von Toshiba) in Betrieb. Bei Block 6 handelt es sich um eine modernere Version (BWR/5 (Mark II) mit 1069 MWe) ebenfalls von Toshiba errichtet und 1979 in Betrieb gegangen.

Im Zusammenhang mit dem Tsunami ist festzustellen, daß diese beiden Reaktoren praktisch nicht beschädigt wurden. Sie befanden sich zum Zeitpunkt des Unglücks gar nicht in Betrieb, sondern waren planmäßig für Wartungsarbeiten abgeschaltet. Beide Reaktoren waren frisch nachgeladen und bereits wieder vollständig verschlossen und zur Wiederinbetriebnahme bereit. Im Block 5 fand während des Unglücks gerade eine Druckprobe statt. Bei Wartungsarbeiten am Aufzug des Schornsteins kam ein Arbeiter durch das Erdbeben zu Tode. Der einzige Tote infolge des schweren Erdbebens und des Tsunami im Kraftwerk; obwohl sich während des Unglücks über 500 Arbeiter auf der Schicht befanden.Fukushima Block IV 20.11.13 15:01

Die Flutwelle richtete nicht so schweren Schaden, wie bei den benachbarten vier Reaktoren an. Hauptgrund dürfte gewesen sein, daß das Gelände rund drei Meter höher gelegen ist. Da die Reaktoren während der Naturkatastrophe abgeschaltet waren, war der Eigenstrombedarf kleiner: Es mußte nur die sehr viel geringe Nachzerfallswärme abgeführt werden. Ein Reaktor nach einem Brennelementewechsel, setzt aber nur wenig Wärme frei, da die sehr kurzlebigen (und damit sehr viel Zerfallswärme produzierenden) Elemente bereits während der Zwischenlagerung im Abklingbecken zerfallen sind. Entsprechend gering ist auch die benötigte elektrische Leistung für die Kühlmittelpumpen. Ein entscheidender Unterschied zu der Situation in den Reaktoren 1 bis 3.

Technisch gesehen, könnten die Blöcke 5 und 6 wieder den Betrieb aufnehmen. Derzeit erscheint das aber politisch nicht gewünscht. Eine endgültige Stilllegung erscheint wahrscheinlicher. Es gibt bereits den Vorschlag, diese Reaktoren als “Übungsgelände” für den komplizierteren Abriss der Ruinen 1 bis 4 zu nutzen.

Der Wert gemeinsamer Baugruppen

Fukushima Daiichi hatte eine elektrische Nettoleistung von 4546 MW. Entsprechend stark und vielfältig waren die Verbindungen mit dem Netz. Trotzdem wurden praktisch alle Leitungen und Schaltanlagen großräumig zerstört: Das Kraftwerk war auf seine Eigenversorgung angewiesen. Da wegen der schweren Erdstöße eine vollautomatische Schnellabschaltung ausgelöst wurde, war auch keine Eigenstromerzeugung mehr möglich. Als einzige Quelle blieben die Notstromdiesel. Die Blöcke 2, 4 und 6 verfügten jeweils über luftgekühlte Notstromdiesel. Allerdings wurden durch die Flutwelle alle Schaltanlagen der Blöcke 1 bis 4 zerstört, sodaß nur noch der Diesel von Block 6 einsatzbereit war. Ihm ist es zu verdanken, daß die Blöcke 5 und 6 planmäßig in einen sicheren Zustand überführt werden konnten. Wären die Diesel und ihre Schaltanlagen gegen Hochwasser gesichert gewesen (hochgestellt oder wasserdichte Gebäude), wäre praktisch nichts passiert!

Da bei diesen älteren Reaktoren, keine passiven Notkühlsysteme vorhanden sind, führt ein (längerer) Ausfall der Stromversorgung zwangsläufig zu einer teilweisen Schmelze von Brennelementen und damit zum Totalschaden. Genau diese passiven Kühleinrichtungen, die kein Eingreifen in den ersten 72 Stunden erforderlich machen, sind der entscheidende Sicherheitsgewinn der sogenannten Generation III+. Auch bei dem Tsunami hätte diese Zeitspanne ausgereicht, um Notstromaggregate von weit entfernt “einzufliegen”.

Als Konsequenz der Naturkatastrophe von Fukushima, richtet man nun überall überregionale Zentren mit zusätzlicher Sicherheitstechnik (Pumpen, Notstromaggregate, Werkzeuge etc.) ein. Sie übernehmen die (zusätzliche) Rolle von Feuerwehr-Wachen. Auch bei schweren lokalen Zerstörungen infolge Naturkatastrophen etc. kann dadurch sehr schnell eine Unterstützung mit Material und Fachpersonal erfolgen.

Als besonders gefährlich hat sich die Bauweise “Wand an Wand” erwiesen. In Deutschland waren solche Entwürfe von Anfang an ausgeschlossen. In Japan – und insbesondere im Ostblock – hat man die Sache offensichtlich etwas anders gesehen. Der Gewinn durch geringere Investitionskosten wurde durch die angebliche, gegenseitige Nutzungsmöglichkeit von Sicherheitseinrichtungen meist noch verklärt. Imposant oder gruselig – je nach Standpunkt des Betrachters – sind die gigantischen Turbinenhallen sowjetischerFukushima Kraftwerke. Nach Tschernobyl und Fukushima sind solche Konstruktionen international Geschichte. Ganz nebenbei, ist dies ein Beispiel dafür, daß man die technische Lebensdauer von Kernkraftwerken nicht beliebig ausdehnen sollte. Es gibt durchaus Kraftwerke, die so grundsätzliche Schwachstellen haben, daß man sie besser außer Betrieb nimmt und durch neue (sicherheitstechnisch überlegene) Konstruktionen ersetzt.

Besonders fatal ist es, wenn gemeinsame Lüftungssysteme und Kanäle vorhanden sind. Der Block 4 war zum Zeitpunkt des Unglücks abgeschaltet und vollständig entladen. Ein Unglück wäre praktisch ausgeschlossen gewesen, wenn nicht Wasserstoffgas von außen über das Lüftungssystem in das Gebäude hätte eindringen können. Ein eher klassisches Unglücks-Szenario einer Raffinerie oder einer chemischen Anlage. Block 4 würde heute noch genauso unversehrt dastehen, wie die Blöcke 5 und 6, wenn er nicht über das Lüftungssystem mit seinem “verunglückten Nachbarn” verbunden gewesen wäre! Damit wären wir beim zweiten grundsätzlichen Konstruktionsfehler dieses Reaktors. Das Gebäude war vertikal zweigeteilt. Im unteren Teil befand sich der Reaktor mit seinem Sicherheitsbehälter. Dieser Teil war durch dicke Betonwände geschützt. Diese Betonwände dienten primär der Abschirmung von Strahlung. Der obere Teil hingegen, war eine einfache Stahlträger-Konstruktion, die gegen Wind und Wetter mit Blech verkleidet war. Diese “Stahlbau-Halle” ist durch die (chemische) Wasserstoffexplosion eingestürzt und hat auch alle Krananlagen mit sich gerissen. Ein solches Unglück ist bei Kraftwerken, die gegen Flugzeugabstürze gesichert sind (also bei allen deutschen Reaktoren!) ausgeschlossen, da der erforderliche “Betonpanzer” natürlich auch gegen inneren Explosionen wirkt. Um es noch mal deutlich zu sagen: Alle modernen Reaktoren (auch heutige russische Anlagen) befinden sich in einem Betonbunker mit meterdicken Stahlbetonwänden, um sie gegen Einwirkungen von Außen (“EVA”, Flugzeugabsturz, Terrorismus etc.) zu schützen. Eine solche Konstruktion kann (praktisch) nicht zum Einsturz gebracht werden.

Abbruch von Block 4

Die Beseitigung von Block 4 ist die einfachste Aufgabe der Aufräumarbeiten. Alle Brennelemente haben sich zum Zeitpunkt des Unglücks außerhalb des Reaktors im Brennelementebecken befunden. Räumt man das Brennelementebecken aus, befindet man sich kurz vor dem sog. “gesicherten Einschluß”. Darunter versteht man die Entfernung aller Flüssigkeiten und möglichst aller brennbaren Materialien. Anschließend “mauert” man die restlichen (strahlenden) Teile ein und läßt die Strahlung erst einmal abklingen. Ein in den USA und Großbritannien vielfach erprobtes und in großem Maßstab angewendetes Verfahren. Das schöne am radioaktiven Zerfall ist ja, daß er immer nur abnimmt. Ganz im Gegenteil z. B. zu Quecksilber oder Asbest, die nie von allein weniger werden. Man muß nur lange genug warten (einige Jahrzehnte), bis die Radioaktivität so weit abgeklungen ist, daß man den restlichen Abriss ohne große Schutzmaßnahmen vornehmen kann. Allerdings wäre es bei der derzeitigen “Gemütslage” in Japan auch nicht überraschend, wenn man den Abriss unter großem Kostenaufwand “in einem Rutsch” durchführen würde.

Ein Lagerbecken für Brennelemente ist nichts weiter, als ein großes Schwimmbecken. In Großbritannien gibt es immer noch solche Becken – seit den frühen fünfziger Jahren – als “Freibäder”. Bisher ist nichts passiert. Allerdings ist das starke Algenwachstum und der Staubeintrag ein ständiges Problem: Die Becken verschlammen mit der Zeit immer mehr und die Wartung wird immer aufwendiger. Man ist deshalb vonFukushima dieser Methode abgekommen. Insofern ist die “Leichtbauhalle” oberhalb der Reaktoren von Fukushima eher dem damaligen Zeitgeist entsprechend gewesen.

Das Geheimnis solcher Lagerbecken ist ihre Tiefe. Das Wasser dient weniger der Kühlung, als der Abschirmung gegen Strahlung. Man braucht oberhalb der abgestellten Brennelemente noch einen

Arbeitsraum und darüber muß noch so viel Wasser vorhanden sein, daß die erforderliche Abschirmung gewährleistet ist. Andererseits ist diese Wassertiefe die ideale “Schutzschicht” für die am Boden stehenden Brennelemente. Sie hat den Schwung der rein gekrachten Teile (komplette Kranbahn mit Stahlträgern) so weit abgebremst, daß sie letztendlich “sanft” auf die Brennelemente herabgesunken sind. Die Brennelemente eines Siedewasserreaktors sind auch nicht gerade zerbrechlich, sodaß es wenig Schäden gegeben hat. Diese sind seit Monaten durch Unterwasserkameras genau dokumentiert.

Das Lagerbecken ist eine sehr stabile Konstruktion. Es besteht aus 140 bis 185 cm dicken massiven (ohne Durchbrüche für Rohrleitungen etc.) Stahlbetonwänden und ist komplett mit 6 cm Edelstahl ausgekleidet. Trotzdem hat man es nach der Explosion unterhalb durch eine zusätzliche Stahlkonstruktion verstärkt. Man wollte sicher sein, daß die Statik auch nach dem zusätzlichen Gewicht der Trümmer ausreichend ist. Inzwischen haben Neuberechnungen und umfangreiche Simulationen ergeben, daß es auch ohne Verstärkung schwersten Erdbeben standgehalten hätte. Eine ständige Vermessung zeigt, daß es sich auch durch alle Nachbeben und Taifune nicht bewegt hat.

Der schwierigste und gefährlichste Teil der Arbeit ist bereits erledigt: Das Abräumen des Trümmerhaufens auf dem Reaktor. Um das komplette Reaktorgebäude herum, hat man – weitestgehend ferngesteuert – eine gewaltige Stahlkonstruktion aufgebaut. Diese mußte so stabil sein, daß sie gleichzeitig als Kranbahn für einen Deckenkran und eine komplette Lademaschine dient und eine Schutzhülle für die “Baustelle” darstellt. Die gesamte Konstruktion steht auf eigenen Fundamenten neben dem ursprünglichen Reaktorgebäude und kragt freitragend über dieses hinweg, um zusätzliche Lasten für die Ruine zu vermeiden. Alles sicher, auch gegen schwerste Erdbeben und Wirbelstürme versteht sich. Eigentlich erstaunlich, daß ausgerechnet aus dem Land der Juristen, Sozialwirte und Lehrer, in dem man nicht einmal mehr einen Flughafen bauen kann, immer so getan wird, als sei Japan mit dem Ereignis von Fukushima total überfordert. Wieviel Jahre und Arbeitskreise es in Deutschland wohl gedauert hätte, bis man sich überhaupt auf eine Vorgehensweise geeinigt hätte?

Wahrscheinlich würden die Arbeiten immer noch ruhen, weil wir nicht genug Bischöfe für die unzähligen Ethikkommissionen etc. bereitstellen könnten. Völlig zu Recht, hat man mit gewissem Stolz bereits Journalisten an das Lagerbecken gelassen. So viel auch zum Thema Transparenz. Wer je versucht hat, an ein Brennelementebecken eines deutschen Kernkraftwerkes zu treten, weiß wovon ich rede. Strahlenphobie hat viele Ursachen, auch hausgemachte!

Parallel zu den Arbeiten, hat man bereits Transportbehälter angefertigt. Sie ähneln unseren Castoren. Diese werden mit dem Kran aufs Dach gehoben und in das Brennelementebecken zum Umpacken abgesenkt. Nach der Beladung werden sie zur genauen Untersuchung in das vorhandene Zentrallager auf dem Gelände gebracht. Alle Arbeiten finden bei Unterdruck statt, um etwaige Austritte von radioaktiven Gasen und

Aerosolen zu verhindern. Dafür hat man in der Ruine eine gigantische “Lüftungs- und Filteranlage” errichtet. Das Entladen ist nun fast schon eine Routinearbeit, wie in jedem anderen Kernkraftwerk unzählige maleFukushima ausgeführt.

Sind die Brennelemente wirklich keine Gefahr?

Kurz nach dem Unglück, haben sich “Deutsche Qualitätsmedien”, angefeuert von “Atomexperten”, gegenseitig versucht zu überbieten. Es wurden die wildesten Geschichten von schmelzenden Lagerbecken und einem größeren Schaden als durch die Atombombe von Hiroshima zusammengefaselt. Angst verkauft sich halt gut und war schon immer ein probates Mittel einschlägiger politischer Kreise. Kurz vor der Räumung des Lagerbeckens 4 drehen noch einmal alle Propagandaabteilungen voll auf: Es werden gekonnt Halbwahrheiten miteinander gemischt, bis man die “gefährlichste Situation in der Geschichte der Menschheit” konstruiert hat. Erstaunlich ist immer wieder, für wie dämlich die ihr Publikum halten. Ein Brennelementelagerbecken enthält notgedrungen sehr viel Wasser, da die Wasserschicht über den Elementen als Abschirmung der Strahlung dient. Eine Kettenreaktion in einem solchen Becken ist schon aus geometrischen Gründen ausgeschlossen. Es muß daher nur die Nachzerfallswärme abgeführt werden. Diese nimmt aber innerhalb der ersten Stunden nach dem Abschalten sehr stark ab. Sie ist so gering, daß ein Sieden des Wassers in solch einem Becken ausgeschlossen ist. Das Wasser wird lediglich erwärmt (deutlich unter 100 °C) und kann nur verdunsten, aber nicht “leer kochen”, wie ein Kochtopf auf der Herdplatte. Der vorhandene Kühlwasserkreislauf dient nur dazu, daß im Reaktorgebäude keine unnötig hohe Luftfeuchtigkeit entsteht.

Jedenfalls war das viel belächelte Besprühen aus Betonpumpen eher ein Gürtel zum Hosenträger. Es hätte auch gewirkt, wenn das Lagerbecken (Erdbeben, Explosion, reingestürzte Trümmer) undicht geworden wäre. Insofern eine richtige Maßnahme.

Es ist also keine Überraschung, daß die ersten geborgenen Brennelemente “wie neu” aussehen. Wenn einige der 1533 (1331 benutzte, 202 neue) vorhandnen Elemente undicht oder beschädigt sind, ist auch das kein Beinbruch. Man wird sie zusätzlich in Kassetten verpacken. Auch das ist zig mal geschehen. Anschließend beginnt das große Umpacken auf dem Gelände. Jeder Reaktor hat sein eigenes Abklingbecken. Zusätzlich befindet sich auf dem Kraftwerksgelände ein zentrales Lagerbecken in einem eigenen Gebäude. Dies dient auch bisher schon zur Zwischenlagerung bis zur Wiederaufbereitung. Um dort Platz zu schaffen, baut man nun ein Trockenlager. In diesem werden die “abgekühltesten” Brennelemente zukünftig gelagert. Wir kennen das in Deutschland aus dem Zwischenlager Gorleben.

Irgendwelche schwerwiegenden Unfälle während der Räumung sind äußerst unwahrscheinlich. Es handelt sich nicht um einen Haufen Mikado-Stäbchen, wie immer wieder von “Atomexperten” behauptet. Ein Brennelement besteht zwar aus vielen, fingerdicken Stäben, die aber durch Abstandshalter miteinander verbunden sind. Bei einem Siedewasserreaktor ist das Element auch noch von einem stabilen “Blechkasten” umgeben, um unerwünschte Querströmungen im Reaktor zu verhindern. Da die Fragestellung neuartig war, hat man in Japan inzwischen mit “unbenutzten” Brennelementen Versuche durchgeführt: Man hat aus einer Höhe von 5 m (!) 100 kg (!) schwere Stahlgewichte auf die Brennelemente fallen lassen. Dies hat zwar zu schweren Verformungen geführt, aber die Brennstäbe haben sich trotzdem nicht einmal geöffnet. Außerdem liegen die Brennelemente nicht einfach im Becken herum. Es gilt die “Bierkastenmethode”: Die Brennelemente werden vorsichtig von oben in stabile Lagergestelle (jeweils 10 Elemente in 3 Reihen) gestellt.  Oben guckt nur noch der Henkel des Brennelementes heraus. Der Spalt zwischen Brennelement und Kasten beträgt weniger als 15 mm. Umfallen kann da gar nichts. Ferner sind die Brennelemente durch die Gestelle vor herabfallenden Dingen geschützt. Es gibt nur zwei potentielle Gefahren: Die “Henkel” sind zu stark beschädigt oder kleinste Trümmerstücke sind in die Spalte zwischen Brennelement und Lagergestell gefallen.

Vor jedem Zug werden deshalb die “Henkel” mit einer extra entwickelten Meßtechnik vermessen. Erscheinen sie nicht mehr sicher genug, müssen andere “Greiftechniken” angewendet werden. Das Rausziehen geschieht nur sehr langsam (etwa 10 Minuten pro Element) um ein Klemmen oder Verkanten zu verhindern. Werden die Zugkräfte zu groß, wird sofort angehalten.

Das Kapitel der Reaktoren 4, 5 und 6 wird in wenigen Jahren abgeschlossen sein. Schon jetzt geht von diesen “Atomruinen” kaum noch eine Gefahr aus. Anders verhält es sich mit den Reaktoren 1 bis 3. Wie man aus dem Störfall in Harrisburg weiß, wird noch einige Zeit und viel Arbeit vergehen, bis auch diese drei Ruinen beseitigt sind. Es kann durchaus noch vier Jahrzehnte dauern, wenn die Japaner ihre extrem hohen Anforderungen aufrecht erhalten wollen. Dann allerdings, dürfte aus dem Kraftwerksgelände ein Erholungspark geworden sein. Sehr zum Bedauern aller “Atomkraftgegner”.




Protestierende Greenpeace-Jünger(In) äußert sich zum Klimawandel

Aufgenommen wurde es anlässlich der EIKE Klimakonferenz im Dezember 2009 in Berlin. Es ist zwar schon vier Jahre alt, aber in seiner Deutlichkeit nach wie vor hoch aktuell.

Video mit deutscher Synchronisierung vom Gespräch zwischen Lord Christopher Monckton, ehemals wiss. Berater von Lady Margret Thatcher, und der norwegischen Greenpeace Aktivistin Kerstin Blodig vom Dezember 2009 in Berlin. Frau Blodig bezeichnet sich selbst als führende Interpretin der skandinavisch – keltischen Musik.

Lord Christopher Monckton vom Science and Public Policy Institute, Großbritannien, interviewt Kerstin Blodig von Greenpeace.
Greenpeace nahm in der Vergangenheit großzügige Spenden vom Rockefeller-Brothers Fund an:http://www.undueinfluence.com/greenpeace.htm 

Mit Dank an Leser Hansen.




Warum ist es so schwer den Meeresspiegel zu messen?

Video zur Bestimmung des Meeresspiegels

Das Video ist in Englisch. Die Untertitel können vom Betrachter auch in Deutsch ausgegeben werden. Dazu auf die Menuezeile gehen (kommt hoch, wenn der Mauszeiger in die Nähe der unteren Begrenzung kommt. und dort die Untertitel Funktion aufrufen. Dort – in Englisch- auf "übersetzen drücken und "Deutsch" auswählen. Die verfügbaren Sprachen sind alphabetisch angeordnet.




Wie EEG und Energiewende Arbeitsplätze vernichten – Aber dieser Zusammenhang wird unterdrückt, weil es (klima)politisch nicht opportun ist

Outokumpu und das Edelstahlwerk in Bochum

Sie erinnern sich vielleicht, gelesen zu haben, dass der finnische Konzern Outokumpu sein Nirosta-Stahlwerk in Bochum Ende 2014 und damit zwei Jahre früher als geplant schließen will. Dann verlieren 3500 Menschen ihren Arbeitsplatz. Zwar hatte die IG Metall in einem Tarifvertrag mit dem Konzern vereinbart, dass der Bestand des Werkes mindestens bis 2016 gesichert sein sollte, aber darüber setzt dieser sich wohl hinweg. Zur  Begründung verwies er auf Überkapazitäten und den Preisdruck. Aber man las nichts davon, dass die Schließungsabsicht mit den zu hohen deutschen Stromkosten zusammenhängt. Doch es versteht sich, dass das Werk Bochum mit diesen Kosten, wenn auf dem (internationalen) Markt für Edelstahl Überkapazitäten und Preisdruck bestehen, nicht konkurrenzfähig sein und dem Druck widerstehen kann. Allerdings ist es (klima)politisch nicht opportun, auf den Zusammenhang von zu hohen Stromkosten und Betriebsschließungen hinzuweisen.

Die Vorgeschichte zur Schließung in Bochum

Wie geschickt bei dieser Verschleierung vorgegangen werden kann, lässt sich an der Vorgeschichte studieren. Gehört hatte das Edelstahlwerk Bochum zuvor ThyssenKrupp. Erst vor gut einem Jahr hatte ThyssenKrupp das Werk mit rund 15 000 Beschäftigten an den finnischen Konzern verkauft. Über die Hintergründe berichtete damals die Stromverbraucher-Schutzvereinigung NAEB*) in ihrem Newsletter 12/02 vom 17. Februar 2012 wie folgt:

Die Fusion von Thyssen und Krupp und der Gang nach Brasilien

„Früher gab es mal Thyssen für Edelstahl und Krupp für einfachen Stahl. Dann fusionierte man zu ThyssenKrupp und begann, als die Probleme für die Stahlproduktion zunahmen, eine Produktion für einfachen Stahl in Brasilien aufzubauen. Heute wird rund ein Drittel dieses Stahls in Brasilien produziert. Gibt ein Konzern nun einfach ein Geschäft auf, wenn es in Deutschland nicht mehr geht? Das von den Politikern verursachte Mannesmann-Desaster ist den Thyssen-Krupp-Managern noch klar vor Augen. Man muss also ins Ausland.

Wie kommt man geräuschlos ins Ausland?

Aber wie kommt man mit Edelstahl geräuschlos ins Ausland, zum Beispiel nach Finnland, einem Land mit preisgünstiger Energie, dem festen Willen zur Kernkraft, nah an der Rohstoffquelle und dem Standort eines Edelstahlproduzenten, der aber nur zwei Fünftel  der Produktionsmenge von ThyssenKrupp hat. Nun, man verkauft diesem Edelstahl-Zwerg sein Geschäft in Deutschland mit der Maßgabe, unrentable deutsche Standorte (wegen der Energiepreise) zu schließen. Diese Drecksarbeit macht nun Outukumpu. Damit die Politiker nicht zu sehr in Sorge über ein vollständiges Abwandern von ThyssenKrupp ins Ausland geraten, streut man gleichzeitig schlimme (durchaus korrekte) Verlustmeldungen über das Brasilien-Geschäft, so dass die Politiker argumentieren können, es gelte den Konzern zu retten.

Der Handel ThyssenKrupp mit Outokumpu

Wie konnte nun dieser Edelstahlzwerg Outukumpu überhaupt diesen Brocken schaffen. Nun, Thyssen-Edelstahl erhielt hauptsächlich nicht Geld, sondern an Outukumpu einen 30-Prozent-Aktien-Anteil. Das sollte reichen, um nach Abschluss der Drecksarbeit auf die Mehrheit bis zur Beherrschung aufzustocken. Wenn dann in der nächsten Stahlkrise die Kapazitäten der deutschen Rohstahlproduktion drastisch heruntergefahren werden, können die Politiker achselzuckend dieses zur Kenntnis nehmen und die Medien werden nicht einmal über einen Manager herfallen können wie man damals bei dem Mannesmann-Desaster über Herrn Cromme hergefallen ist.

Nicht ThyssenKrupp kritisieren

Wir sollten nicht an ThyssenKrupp Kritik üben, sondern die Entscheidung als einzige Möglichkeit des Unternehmens akzeptieren, mit der Kurzsichtigkeit der Politiker und der Meinung der überwältigenden Mehrheit von 99 Prozent  deutscher Sonnenanbeter umzugehen. Was können wir als Betroffene tun: Unsere Kinder in Ausland schicken, Anteile nicht in Deutschland produzierender Firmen erwerben, nach Mallorca in die Rente gehen,…. vielleicht uns aber auch zusammentun und nicht mehr nur Leserbriefe schreiben und Klartext reden: Ein Verbrechen bleibt ein Verbrechen, Dummheit ist Dummheit, Schizophrenie ist Schizophrenie.“

Handel mit der Politik um einen geräuschlosen Rückzug aus Deutschland

Soweit damals der NAEB-Newsletter-Text. Die Überschrift hatte gelautet: „ThyssenKrupp schleicht sich auf leisen Sohlen von dannen.“ Jetzt also führt Outukumpu die „Drecksarbeit“ aus, die Werksschließung mit der Massenentlassung, und im Sonder-Newsletter 13/09 vom 6. Oktober 2013 schrieb der NAEB-Vorsitzende Heinrich Duepmann: „So schnell treten meine Prognosen ein. Insgesamt produziert Outukumpu in Deutschland Edelstahl heute noch an den Standorten Dillenburg, Krefeld, Benrath, Wilnsdorf, Unna, Schalksmühle mit geschätzt zwischen 8000 bis 10 000 Mitarbeitern. Die Zentrale für Öffentlichkeitsarbeit in Duisburg wird geleitet von einer des Deutschen nicht mächtigen finnischen Managerin, woraus man klar erkennen kann, wo es lang geht. Im Zusammenhang mit der Schließung Bochum hat das Management von Bochum betont, dass der Strompreis nicht die Ursache für die beabsichtigte Schließung ist. ….  Ich schließe daraus: Industrie-Unternehmen verständigen sich mit der Politik auf einen geräuschlosen Rückzug aus Deutschland, wenn sie die Energiewende nicht kritisieren. Und ich frage Sie, wo sollen Ihre Kinder denn noch einen produktiven Arbeitsplatz finden, an dem volkswirtschaftlicher Wohlstand generiert wird.“

Einige zusätzliche Beispiele für Arbeitsplatzverluste

Und nochmals aus NAEB-Newslettern zitiert: Wohl meldet die Agentur für Arbeit (früher schlicht und zutreffender: Arbeitsamt genannt) neue Beschäftigungsrekorde in Deutschland. Sie könnten sogar höher sein, denn regelmäßig geht unter, was EEG und Energiewende an Arbeitsplätzen mutwillig vernichten. Einige zusätzliche Beispiele: ThyssenKrupp gibt den Bereich Umformtechnik ab (25 000 Beschäftigte), das war 2011. Eon entlässt im Bereich Verwaltung 11.000 Beschäftigte. Eon gibt das Verteilnetz ab (Beschäftigte?). RWE baut 7 000  Arbeitsplätze ab, das GM-Opel Werk Bochum schätzungsweise 5 000.

Das Beispiel ZF wird Schule machen

„Die Entscheidung von ZF, seine Kunststoff- und Ledersparte an Chinesen abzugeben, bedeutet mittelfristig den Totalverlust der 2 700 Arbeitsplätze in Deutschland. In nicht ferner Zukunft werden dann in den in Deutschland produzierten Autos die Kunststoffe und Leder-Komponenten von einem chinesischen Lieferanten kommen. Das Beispiel wird Schule machen, und die nächsten 200 000 Arbeitsplätze im Auto-Zulieferbereich werden in den nächsten zehn Jahren verschwinden. Was sollen die Leute dann machen. Nun, 10 Prozent werden Fall-Manager bei den Arbeitsämtern, 10 Prozent werden Umschulungslehrer für Job-Suchende. Und diese 20 Prozent nehmen sich dann der restlichen 80 Prozent an. So erhält man wenigsten 40 000 Arbeitsplätze. Die sind zwar keine produktiven im Sinne der Betriebswirtschaft, aber das interessiert weder den Politiker noch den betroffenen Arbeitslosengeld-Bezieher.“ (Newsletter 13/08)

Weitere Beispiele

Andere Unternehmen, die zumindest auch an den hohen deutschen Energiekostens scheitern, sind weitere Edelstahlwerke von Outokumpu (Stillegung), die Gießerei Heger-Ferrit  in Sembach bei Kaiserslautern (Insolvenz), ein Stahlguss Betrieb mit 60 Beschäftigten (FAZ vom 5. September 2013), das Unternehmen Hydro Aluminium in Neuss (Verlagerung), Alu Norf in Neuss (Teilstillegung), S+C  bei Gummersbach (Insolvenz), GuD Kraftwerk in Irsching (Abschaltung), Textil Veredelungsfirma Drechsel in Selb (klagt gegen das EEG), Kalkwerk Flandersbach (Stillegung) und das BASF-Ammoniak-Werk (Verlagerung).   Eine Initiative von zehn großen Energieversorgern macht sich außer um die Stabilität der Stromnetze Sorgen auch um das Abwandern von Industrie wegen zu hoher Stromkosten. Es sind Eon (Deutschland), RWE (Deutschland), Vattenfall (Schweden), Enel (Italien), Eni (Italien), Iberdrola (Spanien), Gas Natural Fenosa (Spanien), GdF Suez (Frankreich), CZ  (Tschechien) und Gasterra (Niederlande).

Hydro Aluminium in Neuß

Im NAEB-Newsletter 13/10 vom 3. November 2013 war zu lesen: „Auch in der Aluminium-Branche sind die Stromkosten entscheidend für die Wettbewerbsfähigkeit. Der norwegische Produzent Hydro Aluminium findet es falsch, wenn in den Debatten bei uns häufig Industrieproduktion und Klimaschutz als unvereinbar angesehen werden, denn ohne Aluminium in Stromleitungen, Solar Modulen (die fertigen Module enthalten einen sehr hohen Anteil an Aluminium ) oder Autos ist die sogenannte Energiewende nicht zu schaffen. Hydro Aluminium produziert  bei Neuß das Aluminium in einer lückenlosen Wertschöpfungskette von der Schmelz-Elektrolyse (sehr stromaufwendig) bis zum Halbzeug.

Hydros Aluminiumhütte in Quatar dreimal größer als die in Neuß

In nächster Nachbarschaft steht das größte Walzwerk der Welt, einige Kilometer weiter eine große Aluminium-Veredelungsanlage, bei der unter anderem Alufolien und Lithographie-Platten hergestellt werden.  Für deren Premiumqualität ist die Schmelzelektrolyse unverzichtbar. Vor einigen Jahren wurde wegen der hohen Stromkosten die Aluminiumproduktion auf 20 Prozent  der ursprünglichen Produktion gedrosselt  und entsprechend mehr Vormaterial für die Walzwerke importiert.  In der Zwischenzeit hat die EU-Kommission der Aluminium-Industrie eine Erstattung der im Strompreis enthaltenen Kosten für CO2-Emissionen zugestanden.  Damit soll die Produktion wieder auf jährlich 150 000 Tonnen verdreifacht werden. In Quatar hat Hydro jetzt eine Aluminiumhütte für den Betrieb mit dem billigen dort vorhandenen Erdgas gebaut, die dreimal größer als die Neußer Hütte ist.  Wenn in dem Neußer Walzwerk einmal Modernisierungsinvestitionen anstehen, werden diese wahrscheinlich auch bzw. eher in Quatar gemacht werden.  Schon heute ist die Befreiung von der EEG-Umlage (und der Stromsteuer)  für die Aluminium-Industrie  existenziell.“

RWE plant 12 900 Entlassungen

Der Stromerzeuger RWE baut weiterhin viele Arbeitsplätze ab. Bis Ende 2016 will er seine Belegschaft von 73 600 auf 60 700 verringern. Das bedeutet, dass in dieser Zeit 12 900 Mitarbeiter entlassen oder in die Frührente geschickt werden. Vor fünf Jahren war für sie alle der Arbeitsplatz bei diesem starken Arbeitgeber noch bombensicher. Die Ursache für diesen spektakulären Niedergang ist eindeutig die „Energiewende“. Angesichts dessen erscheint es geradezu als paradox, dass  RWE diese ruinöse Wende auch noch mitmacht, längst selbst in das Windkraftgeschäft eingestiegen ist, sich auf seiner Web-Seite mit seinen Investitionen in dieses Geschäft brüstet und mit öffentlichen Anzeigen die „Energiewende“ sogar bewirbt. Seine von der Entlassung bedrohte Belegschaft müsste sich geradezu verhöhnt vorkommen und sich entsprechend artikulieren. Davon vernommen hat man allerdings bisher nichts, jedenfalls nicht öffentlich.

Die De-Industrialisierung Deutschlands schreitet voran

Der Exodus von Unternehmen und Branchen vollzieht sich von der Öffentlichkeit ziemlich unbemerkt. Die De-Industrialisierung in Deutschland schreitet voran. Es scheint, als sei das gewollt. Schon der Morgenthau-Plan nach dem Zweiten Weltkrieg wollte aus Deutschland wieder einen Nur-Agrarstaat machen. Wir wissen, aus übergeordneten politischen Vorhaben mit Deutschland wurde anders verfahren. Wird Morgenthaus Plan jetzt auf schleichende Weise verwirklicht? Geschieht es mit Absicht? Und mit welcher?

*) Zur Information: Ich bin Mitglied im NAEB-Beirat.      NAEB-Web-Seite: http://www.naeb.info/

Dieser Beitrag ist zuvor auf meiner Blog-Seite www.kpkrause.de erschienen. Hier sind auch meine sämtlichen Beiträge seit dem 18. März 2008 verfügbar




COP 19 in Warschau: Der Gipfel der Zyniker, Heuchler und Träumer

Die ersten Meldungen im Radio und den öffentlich – rechtlichen TV-Sendern waren schon ein unverzeihbarer Skandal. Sie lauteten: In den Philippinen habe ein Tropensturm von ungewöhnlicher Stärke gewütet. Es seien mindestens drei Tote zu beklagen. „Drei Tote?“ Wer hat das denn in die Welt gesetzt? Und wie konnte eine solche Meldung alle Kontrollen einer Nachrichtenredaktion passieren, ohne dass es jemanden auffällt, dass Haiyan sich schon seit einigen Tagen als der stärkste Taifun seit Jahrzehnten auf den Inselstaat zubewegt?
Da ging mal wieder Schnelligkeit vor Nachdenken, Ahnungslosigkeit vor Wissen, Routine vor Sorgfalt. Heute-journal Moderator Klaus Kleber hat sich dann, als das wahre Desaster deutlich wurde, so halbwegs für die „Drei-Tote-Meldung“ entschuldigt. Aber damit wurde nicht erklärt, wie so etwas passieren kann.

Video (leider nur in Englisch) vom Vortrag des US-Astronauten von Apollo 7 Walt Cunningham (81) vor rund 300 Teilnehmern auf dem CFACT EIKE Kongress am 21.11.13 im Auditorium Maximum der Kardinal Stefan Wyschinski Universität in Warschau: Colonel Walt Cunningham war Pilot auf der Mondfähre Apollo VII , dem ersten bemannten Apollo-Flug in den Weltraum. Oberst Cunningham erklärt, warum Amerikas Raumfahrtpioniere schockiert und von der heutigen Politisierung der Wissenschaft bestürzt sind, um damit der globale Erwärmungs-Agenda zu dienen. Sie fordern die Abschaffung der Verfälschungen und Vorurteile aus der wissenschaftlichen Untersuchung und eine Rückkehr zu der strikten Anwendung von rein wissenschaftlichen Methoden.

Doch das war erst der harmlose Anfang einer Desinformationswelle. Ein Taifun in den Philippinen löst mittlerweile sofort eine Sondersendung bei der ARD aus, auch wenn die Redaktion noch nicht mehr weiß, als die wenigen Informationen, die ihr ein paar Agenturen gemeldet haben. Und wenn man schon nicht mehr zeigen kann, als die spärlichen Bilder, die gerade in den Nachrichten gesendet wurden, hilft ein Interview über die Ursachen des Taifuns. Und Moderatorin Hanni Hüsch wird unversehens zur Spezialisten für die Klimaerwärmung. In Hamburg bietet sich dann natürlich der immer verfügbare und unvermeidliche Mojib Latif an, beschäftigt im vom Staat finanzierten Hamburger Max Planck Institut für Meteorologie. Pflichtgemäß verkündet er: „Solche starken Taifune sind das Ergebnis der Klimaerwärmung.“ Das wird natürlich wissenschaftlich etwas verbrämter formuliert. Aber das Stichwort für die Träumer und Heuchler war gegeben: Haiyan ist das Ergebnis der unverantwortlichen Industriestaaten des Westens.

Das ist ebenso präzise und journalistisch unredlich wie die „Drei-Tote-Meldung.“  Hauptsache eine Sondersendung. Hauptsache schnell! Zwei Fragen hätte Frau Hüsch vorher klären sollen:
1.) Seit 15 Jahren haben wir eine leichte Temperaturabkühlung. Warum taucht dann gerade jetzt ein Monstertaifun auf? Latif begründete das mit einer Erwärmung des Pazifiks – an einigen Stellen. Aber die gibt es immer wieder, das ist nichts Neues.
2.) Selbst das Potsdamer Institut für Klimafolgeforschung, sozusagen das Zentralkomitee für die Erklärung der Klimakatastrophen hat mehrfach durch seinen Institutsleiter und Kanzlerinberater Prof. Hans Joachim Schellnhuber ausgesagt: Die natürliche Temperatur unserer Erde liegt bei 15 Grad. Und auch darüber besteht Einigkeit: Zurzeit beträgt die Welttemperatur 14,5 Grad. Wie also kann eine Klimaerwärmung, die nicht eingetreten ist, Taifune auslösen? Hanni Hüsch hat nicht gefragt. Sie hat aber noch viele Sondersendungen über die Katastrophe moderiert, die wenig erklärten, eher zur Kategorie „Elendsvoyeurismus“ gehörten.

Mojib Latif hat schon viel gesagt, wenn er die Klimazukunft beschreibt. Im Jahre 2000 versprach er uns, dass wir nie wieder im Winter Schnee schaufeln müssen. Als es dann in den letzten Jahren ganz anders kam, korrigierte er sich: Er habe von den Jahren 2050 bis 2100 gesprochen. Dann werden wir ihn nicht mehr befragen können.

Er und seine Erwärmungsfreunde haben auch für Südeuropa Dürren vorausgesagt. Das war 2000 als in Mallorca die Stauseen einmal leer waren. Seit 12 Jahren aber sind alle Seen in Südeuropa randvoll und gerade jetzt schwimmen in Sardinien die Autos durch die Straßen.
Von der Voraussage der angeblichen Zunahme der Hurrikans und Taifunen mal abgesehen, weil die in den letzten Jahren abgenommen haben, heißt es jetzt: Die wenigen Stürme würden aber heftiger. Das gibt keine Statistik her – bleibt eine Behauptung. Trotz Haiyan.
Was allerdings in den Tagen danach in und um die Warschauer Weltklimakonferenz aus dem Elend, das Haiyan angerichtet hat, gemacht wurde, ist an Zynismus nicht zu überbieten. Während die Konferenz wieder einmal zeigte, dass es kein verbindliches Klimaabkommen mehr geben wird, weil die Interessen der einzelnen Staaten zu unterschiedlich sind und sich nicht unter einer neuen gigantischen UN-Behörde mit supranationalen Vollmachten ausgleichen lassen. Sozusagen als Ersatzhandlung wurde in Warschau die moralische Keule geschwungen. Wer nicht an die Hochrechnungen und politischen Konstrukte des „Weltklimarates“ glaubt, wurde mehr oder weniger als mitverantwortlicher Mörder an den Opfern des Taifuns abgestempelt. Dass dies die sich selbst in den Stand der Heiligkeit versetzten so genannten Umweltverbände tun, ist fast selbstverständlich. Deren Zynismus können wir ja in Deutschland hautnah erleben, wenn sich zum Beispiel der B.U.N.D. und Nabu gegen entsprechende Zahlungen für das Aufstellen von Windrädern in geschlossenen Waldgebieten kaufen lassen.  Aber in Warschau hat auch der deutsche Christdemokrat und Umweltminister Peter Altmaier diese wilde These wiederholt. Auch er versucht damit aus der Zerstörung und dem vieltausendfachen Tod einfacher Menschen politisches Kapital zu schlagen. Dieser Zynismus ekelt mich an.
Dass auch UN-Generalsekretär Ban Ki Moon ins selbe Horn bläst, ist schon eher verzeihlich. In Syrien muss er tatenlos zuschauen, wie ein Diktator sein Volk abschlachtet. Da gehen die Opferzahlen in die Hunderttausende. Als oberster UN-Repräsentant präsidiert er über eine Organisation, in der alle Staaten die Menschenrechtskonvention unterschrieben haben, aber sich mindestens die Hälfte nicht daran hält. Er muss Verbrechern und Mördern mit diplomatischem Geschick begegnen, damit die vielleicht ein bisschen weniger morden und stehlen. Also, da kommt es auf eine weitere Verdrehung der Realität nicht so an. Sein dringender Appell, doch bitte sehr, bis zur nächsten Konferenz 2015 in Paris ein Abkommen gegen die Erderwärmung unterschriftsreif vorzubereiten, wird nichts nutzen – und das ist gut so. Wir brauchen keine neue UN-Behörde, die anderen schon funktionieren kaum.

Was aber sehr viel Menschenleben retten könnte, wäre der Aufbau einer internationalen Katastrophen-Eingreiftruppe, die mehr Geld und mehr Befugnisse hat, als die bisherige UN-Hilfsorganisation. Auch in den Philippinen hat es sich wieder einmal gezeigt, dass vor allem Hilfe in den ersten Stunden oder Tagen viele Menschen retten könnte. Aber genau da hapert es. Meistens fehlt eine benutzbare Infrastruktur, fehlt es an Organisationserfahrung, an schwerem Gerät und Helikoptern. Wie wäre es, wenn die Staatengemeinschaft die 100 Milliarden Dollar, die für einen undurchsichtigen Klimafolgefonds für Entwicklungsstaaten vorgesehen sind, stattdessen für eine Katastrophenhilfe nutzen würde? Sie müsste jedem Staat zur Verfügung stehen, der vorher unterschreibt, dass er an diese Organisation auch Hoheitsrechte abtritt und nicht durch Zollgebühren auf Hilfslieferungen am Elend seiner Bürger noch verdienen will. Sie stünde dann bei allen Desastern zur Verfügung – ob Erdbeben oder Stürmen.

In den Philippinen haben die Amerikaner wieder einmal gezeigt, wie so etwas aussehen kann. Sie sind eingeflogen und haben erst einmal den Flughafen wieder benutzbar gemacht, damit die anderen Helfer überhaupt in Tacloban landen konnten. Eine Flotte unter Führung des Flugzeugträgers „Washington“ hat sich sofort auf den Weg gemacht mit tausenden Soldaten, Tonnen von Hilfsgütern, Fluggerät und Feldkliniken. Das entspricht in etwa der Aufgabenteilung in der Welt: Die Umweltretter von Greenpeace und WWF zum Beispiel sind für die moralische Entrüstung zuständig, die Amerikaner für die praktische massive Hilfe. Es ist schon am Rande der Peinlichkeit, wenn dann in den Sendungen darauf hingewiesen wurde, dass die Amerikaner damit natürlich auch ihre Dominanz im Pazifik unterstreichen wollten und dass sie in den Philippinen besondere Interessen pflegen. Ja, sie sind die Macht im Pazifik, aber kein Staat hilft so schnell und konsequent wie die USA. Die Nörgler haben übersehen, dass es die Amerikaner waren, die auch in Myanmar bei der großen Flutkatastrophe 2008, bei der zirka 180 000 Menschen ertrunken sind, mehr geholfen haben, als alle anderen Nationen zusammen, obwohl es sich um eine eher feindlich gesonnene Militärdiktatur handelte.
In den vielen Sondersendungen kamen leider nicht die Ursachen zur Sprache, die in diesem Fall mitverantwortlich sind, dass die Zahl der Todesopfer so hoch ausfiel. Ich kenne Tacloban noch aus den 80er Jahren. Damals hatte diese Ansammlung von Hütten und einfachen Holzhäusern nur knapp 100 000 Einwohner. Jetzt 30 Jahre später waren es 200 000. Die Philippinen haben eine der höchsten Geburtenraten der Welt, nicht zuletzt wegen des starken Einflusses der katholischen Kirche. Der jetzige Präsident Benigno Aquino III. war der Erste, der den Mut hatte, kostenlos Kondome zu verteilen, was ihm den Zorn der Kirche einbrachte.

Die explodierende Bevölkerungszahl hat nämlich zur Folge, dass Regionen in den Philippinen besiedelt werden, die dafür eigentlich absolut ungeeignet sind. Bei einer meiner Filmproduktionen entdeckte ich im Süden der Hauptinsel Luzon einen traumhaften Strand. Weißer Korallensand und Palmen soweit das Auge reichte, glasklares Meer. Aber weit und breit keine Siedlung, kein Touristenhotel, nichts. Mein Begleiter klärte mich auf: „Hier sind wir in der „Einflugschneise“ der Taifune. In deren Saison wird hier alles weggeblasen und weggespült.“ Die Mitte der Philippinen war deswegen immer dünner besiedelt als der Norden und der Süden. Aber irgendwo müssen die Menschen ja hin. Und so wuchsen auch die Siedlungen und Städte in der betroffenen Visayas – Region. Mit Klimawandel hat das überhaupt nichts zu tun.
Dass trotzdem bei uns der Eindruck entsteht, dass immer mehr furchtbare Katastrophen die Welt heimsuchen, liegt auch an dem journalistischen Wahrnehmungsgrad. Als ich einmal während meiner Korrespondentenzeit in Asien in Manila war und sich ein starker Taifun ankündigte, fragte ich bei der „heute-Redaktion“ an, ob ich darüber berichten solle. Es gab mehrere hundert Tote und Manila stand unter Wasser. Aber damals war ein Taifun in den Philippinen noch kein Thema. War weit weg. Heute würde das wohl eine Sondersendung werden, um die drohende Klimakatastrophe in Erinnerung zu bringen.

Erstaunlich zurückhaltend zeigten sich auch die Katastrophenreporter, wenn sie über die Sicherheitslage in den betroffenen Gebieten berichteten. Von bewaffneten Banden war da die Rede, von Kriminellen, die aus einem Gefängnis ausgebrochen seien. Nur einmal, bei einem Beitrag über ein Dorf, das eine Selbstschutztruppe aufgebaut hat, fiel das Wort „NPA“. Aber das wurde nicht übersetzt. Warum? Die NPA, die es immer noch in den ganzen Philippinen gibt, auch auf der direkt betroffenen Insel Samar, ist eine kommunistische Guerillaarmee, die die Menschen mit Schutzgeldzahlungen erpresst und jegliche wirtschaftliche Entwicklung verhindert. Die NPA (New Peoples Army) gilt als Steuereintreiber für die kommunistische Partei. Ihr Gründer lebt in den Niederlanden. Dass diese Verbrecher jetzt auch noch die obdachlose Bevölkerung bedrohen, ist offensichtlich im deutschen Fernsehen keine Nachricht.

Fazit: Je weiter entfernt sich eine Katastrophe abspielt, je besser lässt sie sich für innenpolitische Zwecke missbrauchen – und kein Elend ist furchtbar genug, um es nicht noch politisch auszunutzen.

Anmerkung:
Der Autor dieses Artikels war 6 Jahre als ZDF Fernost – Korrespondent auch für die Philippinen zuständig und hat dort fast 100 Nachrichten- und Dokumentationsfilme produziert. Von der Präsidentin Corazon Aquino, der Mutter des heutigen Präsidenten erhielt er die philippinische Auszeichnung „Rooster of Heroes“ für seine Berichterstattung über die Revolution 1986.

zuerst erschienen auf ACHGUT




Unbequeme Wahrheiten über den Kanzlerinnen-Berater Schellnhuber! Teil 12 (Epilog 2) : Mediale Tsunamis ?

Und der Meteorologe Karsten Brandt macht auch innerhalb nur eines Jahres einen merkwürdigen “Sinneswandel” durch. Aber einen ganz “dicken Hund” hat sich der Doku-Sender “PHOENIX” erlaubt, der eine Anmoderation zum Thema “Klimawandel” für die 2. Ausstrahlung – 9 Tage später – nachträglich verändert hatte, obwohl die erste Anmoderation wissenschaftlich korrekt gewesen war. In die 2. Anmoderation wurden stattdessen nun suggestive Falschbehauptungen durch Verwendung irreführender Begriffe eingebaut. Dadurch wird nun womöglich beweisbar, wie eine TV-Berichterstattung rund um den Klimawandel mit “politischen Motiven” und suggestiv-falschen wissenschaftlichen Aussagen vorsätzlich und bewusst manipuliert wird. Wiedermal wurde der Tsunami 2004, der bekanntlich durch ein Erdbeben ausgelöst worden ist, nun bei PHOENIX plötzlich auch zum Wetterphänomen. Aber machen Sie sich dazu selbst ein Bild in dem folgenden Video. Auch Dunja Hayali vom “ZDF-Morgenmagazin” ist mit dieser “Tsunami-Nummer” auch wieder mit dabei:

Das obigen Video analysiert ebenfalls die mediale Berichterstattung über die Hurrikans/Taifune im Vorjahr 2012 und im VorVorjahr 2011 und fördert auch zu diesen angeblichen Extremwettern sehr Erstaunliches zu Tage.  Aber der “Schocker zum Abschluss” der “unbequemen Wahrheiten” wird wohl für viele Zuschauer der 15-minütige Zusammenschnitt der DokuFiktion “Crash 2030” aus dem Jahr 1994 sein, an der u.a. auch Hans J. Schellnhuber und Hartmut Grassl als “Wissenschaftliche Beratung” agierten. Wer sich diese Doku-Fiktion in voller Länge (45 Minuten) anschauen will, kann sich das HIER antun. Aber der ARD-ModeratorReinhold Beckmann hat sich im Vergleich zur 2009er-”Trash”-Klimasendung mit “Klimapapst” Hans J. Schellnhuber in diesen Tagen doch wahrlich zum Positiven weiterentwickelt. Vorsichtiger Respekt, Herr Beckmann, auch DAS muss und wird im Video von Epilog 2 erwähnt werden.

Mit diesem “Epilog 2″ endet nun definitiv das Videoprojekt über die “10 unbequemen Wahrheiten über Hans J. Schellnhuber“, was uns seit gut einem halben Jahr in Atem gehalten hat. Wir hoffen es hat Ihnen viel an Aufklärung über die Berichterstattung über den Klimawandel gebracht. Wir wurden bisher nicht von der “Gegenseite” darüber informiert, dass wir seit dem 02.09.2013 – seitdem die “unbequemen Wahrheiten” veröffentlicht wurden – irgendetwas nicht korrekt berichtet hätten. Wir haben wohl nichts Falsches erzählt. Insofern können wir uns wohl ein wenig auf die Schulter klopfen.

Die Macher und Unterstützer des “Klimamanifests-von-Heiligenroth” sind nach wie vor an Feedback und Kritik über dieses Filmprojekt interessiert. Der 6-minütige Videotrailer mit einer integrierten Playlist mit allen 15 Einzel-Filmen (Trailer, 12 Kapitel, Trailer von Kapitel 8 und AddOn-Film zu Kapitel 2 & 3 ) ist weiterhinseit dem 27.08.2013 online.




Die Pleite von Warschau: Erlebt Greenpeace gerade sein Warschaugrad?

Bei langdauernden kriegerischen Auseinandersetzungen gibt es zeitweise lange Perioden, in den sich die Gegner in verlustreichen Kämpfen gegenseitig zermürben, ohne dass e seiner Seite gelingt, dem Gegner jenen entscheidenden Schlag zu versetzen, der die Balance des Krieges zugunsten der eigenen Seite neigt. Und dann kommt es oft ganz überraschend zu einem Schlüssel-Ereignis, von dem man oft erst hinterher feststellt, dass es sich dabei um den entscheidenden Wendepunkt handelt, ab dem eine der Seiten nicht mehr die Kraft findet, ihren Gegner wirklich zu gefährden. Ab diesem Moment hat die unterlegen Seite ihre Initiative verloren, muss sich im Wesentlichen auf Defensivmaßnahmen beschränken und kann nur darauf hoffen, dass der Gegner eher bereit ist, einen für ihn vorteilhaften Friedensdeal zu akzeptieren als die enormen Kosten und Risiken einer Fortsetzung des Krieges einzugehen. Einer der bekanntesten Wendepunkte des zweiten Weltkriegs war die Schlacht um Stalingrad, der Punkt, an dem der Vormarsch der bisher anscheinend unaufhaltsamen deutschen Kriegsmaschine gestoppt werden konnte. Die weitere Entwicklung ist bekannt: Der langsame, aber unaufhaltsame Zusammenbruch der deutschen Ostfront bis zur Eroberung Berlins und dem Ende des dritten Reichs.

Nach einer langen und erbitterten Schlacht um die öffentliche Meinung…

Durchaus vergleichbare Wendepunkte der Auseinandersetzung findet man auch bei großen kontrovers geführten Debatten auf geistig-politischem Gebiet. Und mit Blick auf die jahrzehntelangen Bemühungen von Greenpeace, WWF und ihrer zahllosen NGO-Spießgesellen um die Kontrolle der öffentlichen Meinung bezüglich der angeblichen Globalen Erwärmung durch vom Menschen verursachte CO2-Emissionen scheint ein solcher Wendepunkt gerade erreicht worden zu sein. Die UN-Veranstaltung in Warschau, auf der eigentlich weitergehende Maßnahmen zur Verringerung dieser Emissionen hätten beschlossen werden müssen, erlebte eine Reihe klarer Absagen wichtiger Industrienationen, die an dieser Scharade nicht mehr teilnehmen wollen. Andere gaben zwar fleißig Lippenbekenntnisse zur edlen Aufgabe der Rettung des Planeten und des Klimas ab, hielten sich jedoch bei konkreten Zusicherungen auffällig zurück.

Vielleicht werden Historiker, welche die realen Dimensionen des Schlags, den die CO2-Alarmisten in Warschau erhalten haben, in einem leicht fasslichen Schlagwort fassen wollen, hierfür Begriff Warschaugrad prägen. Nach dem quasi vollständigen Scheitern des eigentlichen Hauptziels der Veranstaltung, der Weiterführung von Massnahmen zur Reduzierung des CO2-Ausstoßes, richtete sich die Aufmerksamkeit fast ausschließlich auf finanzielle Aspekte. Dabei ging es letztlich darum, wie hoch die Kompensationszahlungen reicher Nationen sein sollten, welche die ärmeren Länder als Ausgleich für angeblich vom CO2-Ausstoß der Reichen verursachten Schäden durch Klimakatastrophen einfordern konnten. Dabei wurden selbst Ereignisse wie Tornados und Hurrikane, welche eindeutig nicht dem CO2 in die Schuhe geschoben werden können, als Argument aufgeführt. Möglicherweise wird die Liste bei kommenden Veranstaltungen noch um Asteroideneinschläge, Vulkanausbrüche, Erdbeben und Tsunamis erweitert werden…

Fakt ist: Die Veranstaltung degenerierte zu einem reinen Gezänk ums Geld und wurde vor einem vollständigen Scheitern nur durch einen Formelkompromiss sowie einen Trick der EU-Vertreter bewahrt, welche den ärmsten Ländern schnell noch 100 Mio. € zuschoben, woraufhin diese umfielen. Wie üblich durfte Deutschland dabei den Zahlmeister spielen, indem es dazu rund 1/3 der Gesamtsumme beisteuerte.

..scheint die CO2-Lüge an Strahlkraft zu verlieren

Die klare Botschaft von diesem kläglichen Ausgang und dem entsprechenden Echo in den Medien dürfte die sein, dass die von Greenpeace und ihren zahlreichen Verbündeten in staatlichen Institutionen, wissenschaftlichen Einrichtungen und den Medien vertretene Lüge über den angeblich nachteiligen Einfluss des CO2 auf das Klima offensichtlich an Strahlkraft verliert. Die Gier allzu zahlreicher Profiteure hat inzwischen zu einem derartigen Ausmaß an Kosten und einem wachsenden Rattenschwanz an technischen Problemen in Schlüsselindustrien geführt, dass es zu einem Schwenk der öffentlichen Meinung zumindest in einigen aufgeklärteren Ländern wie Australien gekommen ist. Natürlich wurde, ganz wie auch im oben angeführten historischen Beispiel, der letzte Schuss noch nicht abgefeuert bzw. das letzte Wort noch nicht gewechselt, aber von jetzt an dürften sich die Vertreter der Theologie von der menschengemachten globalen Erwärmung (Anthropogenic Global Warming, AGW) auf dem absteigenden Ast befinden.

Während einige führende Politiker wie Fr. Merkel immer noch eisern an dem einmal eingeschlagenen Kurs in der Energiepolitik festhalten, wird es insgesamt doch immer deutlicher, dass eine wachsende Zahl wichtiger Länder wie Kanada, Australien und Japan bereits dabei sind, den Ausstieg aus dem Klima- und CO2-Unsinn zu vollziehen. Und mit diesen ersten Rissen im bisher dichten ideologischen Bollwerk, das die Zweifel der Skeptiker – oft auch als Klimaleugner verunglimpft – zurückhalten sollte, dürfte die weitere Entwicklung ähnlich beschleunigt verlaufen wie bei einem Dammbruch. Möglicherweise kommt es zu einer regelrechten Stampede hochqualifizierter Schwätzer und akademischer Scharlatane, die aus den bisher sicher geglaubten Pöstchen im Staatsapparat und in NGO’s herausgespült werden und sich gezwungen sehen, hektisch nach neuen Betätigungsfeldern zu suchen.

Greenpeace sucht bereits nach neuen Geschäftsmodellen

Ein ziemlich deutliches Signal, dass die Führungskader bei Greenpeace und anderen NGO’s diese Gefahr bereits erkannt haben, zeigt sich in den offenkundigen Bemühungen um die Aktivierung neuer Geschäftsfelder. Entsprechende Versuchsballons werden zur Zeit von prominenten Vertretern der Organisation wie Monika Griefahn z.B. in Fernsehinterviews lanciert. Angesichts einer Situation, in der die Öffentlichkeit die Lust daran zu verlieren scheint, immer mehr Geld in dem „schwarzen Loch“ der CO2-Bekämpfung zu versenken, werden offensichtlich neue Themen gesucht, mit denen man vorgeben kann, den Planeten vor der Menschheit zu retten, wobei die Aufrechterhaltung des bisherigen Zuflusses an Spendengeldern eine zentrale Rolle spielt. Zu den Aufgabenstellungen, die sich hierfür eignen dürften, gehört das Thema Plastikmüll in den Ozeanen. Hierzu wurden auch schon unterschiedliche Varianten entwickelt, beispielsweise Mikro-Plastikpartikel, die über die Nahrungskette wieder in die menschliche Nahrung gelangen, oder die Vergiftung von Fischlebern durch Plastik-Inhaltsstoffe. Andere Themen, die in letzter Zeit eher auf Sparflamme gehalten wurden, aber jederzeit wieder reaktiviert werden können sind beispielsweise Feinstäube, Pharmazierückstände in Flüssen oder auch die Geräuschpegel, welche mit gewerblichen Aktivitäten sowie dem Transport von Menschen und Gütern unvermeidlicherweise auftreten, Stichwort z.B. Frankfurter Flughafen. Man darf gespannt sein, mit welchen Argumenten die Herrschaften uns wieder die Bettelschale vorhalten werden, wenn die CO2-Masche irgendwann gar nicht mehr zieht.

Chinas Cleverness

Wenn man sich in Erinnerung ruft, wie sich die Schuldzuweisungen bezüglich der CO2-Emissionen bei solchen UN-Konferenzen in den letzten zwei Jahrzehnten entwickelt haben, so muss man seinen Hut vor der Cleverness ziehen, mit der China es geschafft hat, sich aus der Schusslinie zu bringen. Und das trotz der Tatsache, dass das Land im Rahmen seiner bemerkenswerten wirtschaftlichen Expansion inzwischen zum weltweit grössten CO2-Emittenten aufgestiegen ist. Dennoch hatte es in diesem Jahr geschafft, derartigen Vorwürfen nahezu völlig zu entgehen. Erreicht wurde dies durch die Schaffung einer Allianz aus ärmeren und in Entwicklung befindlichen Ländern, die sich durch aggressive Forderungen nach Kompensationszahlungen in mehrstelliger Milliardenhöhe von westlichen Industrieländern hervortat, während sie in ihrer Mitte CO2-Gorillas wie China und auch Indien abschirmten. Nach Ansicht einiger Beobachter gelang es selbst den Diplomaten der USA lange Zeit nicht, in diese Einheitsfront einen Keil zu treiben. Erst die Europäer schafften es in letzter Sekunde, mithilfe einer Zusage von 100 Mio. € die ärmsten Länder aus dieser Gruppierung auf ihre Seite zu ziehen. Dennoch blieb China das mediale Spießrutenlaufen, dem sich andere Teilnehmer ausgesetzt sahen, weitgehend erspart. Man darf gespannt sein, welche Lehren die Meister des Lächelns und der leisen Töne aus dieser Erfahrung ziehen und bei der nächsten Konferenz einsetzen werden.

Wohin geht das das kluge Geld?

Eine weitere interessante Entwicklung, die man parallel zum Verlauf des Warschauer Gipfels beobachten konnte, war eine Änderung im Investitionsverhalten der Börsen als mögliche Reaktion auf das Debakel der AGW-Vertreter. Man mag zu Börsianern stehen wie man will, aber sie sind Meister im Aufspüren künftiger Trends. Zwar kann es noch Jahre dauern, bis sich die Klimarettungsambitionen heute führender Politiker wie der EU-Kommissarin Conny Hedegaard oder des Präsidenten Obama abgenutzt haben. Diese Leute haben sich unter Missachtung der Gesetze der Physik, der Märkte und des gesunden Menschenverstandes viel zu tief in diese Sackgasse verrannt, als dass sie jetzt noch ohne Gesichtsverlust zurück könnten. Doch das kluge Geld scheint schon jetzt die Botschaft verstanden zu haben: Aktien von Uranminen, die seit den Ereignissen von Fukushima ständige Kursverluste erlitten haben, weisen plötzlich teils erhebliche Kurssteigerungen auf. Dies mag sehr wohl ein Signal dafür sein, dass die bisherige Talfahrt gestoppt wurde und eine Bodenbildung stattgefunden hat. Zusammen mit Nachrichten wie der, dass in Spanien – einst ambitionierter Vorkämpfer für „erneuerbare“ Energien – Betreiber von Fotovoltaikanlagen für den Eigenbedarf künftig eine spezielle Gebühr bezahlen sollen, solange sie zur Absicherung ihrer Gesamtversorgung ihren Anschluss an das Stromnetz aufrechterhalten, könnte dies vielleicht dazu führen, dass Bankfinanziers nach und nach „Erneuerbare“ Projekte als riskant einstufen. Auf der anderen Seite ist nicht auszuschliessen, dass Investitionen in Aktien von Uran- und Kohleminen sowie von Herstellern und Betreibern konventioneller Kraftwerkstechnologie nach einer langen Durststrecke jetzt langsam wieder an Attraktivität gewinnen.

Fred F. Mueller

Update der Redaktion:

Die Deutschen Wirtschaftsnachrichten berichten auch über Warschau..Auszug:

Nichts als Streit: Weltklima-Konferenz in Warschau gescheitert

Aus Protest haben Nichtregierungsorganisationen aus aller Welt, darunter der BUND, Greenpeace und WWF, die Veranstaltung in Polen verlassen. BUND-Vorsitzender Hubert Weiger erklärt in einer Aussendung:

„Die verantwortungslose Untätigkeit der Regierungen angesichts der schon heute dramatischen Ausmaße des Klimawandels hat uns keine andere Wahl gelassen. Mit unserem Boykott wollen wir auf den in dieser Form noch nie dagewesenen Einfluss der Wirtschaftsverbände auf den Klimaschutzprozess aufmerksam machen. Die fossile Industrie hat die Klimakonferenz in Warschau okkupiert und macht es damit unmöglich, im Klimaschutz voranzukommen“.

Um wieder Vertrauen in die internationale Klimadiplomatie aufzubauen, müsse derLobbyismus der Wirtschaft drastisch eingeschränkt werden, so Weiger.

Zeitgleich zu den streitenden Klima-Rettern fand in Warschau eine Veranstaltung des privaten „Europäischen Instituts für Klima und Energie“ (EIKE) mit Vortragenden aus Deutschland, Polen und den USA statt.

Die Klima-Skeptiker hatten es diesmal deutlich leichter: Sie übergossen die Klima-Retter mit Spott und Häme – und das Chaos auf der aus Steuergeldern finanzierten Veranstaltung scheint ihnen recht zu geben. Die Themen des Vorträgelauteten „Die Katastrophe der UN Klima- und Energiepolitik“ oder „Der UN-Klimarat: Eine Schande für die Wissenschaft“.