1

„Der Welt geht das Öl nicht aus“

Und dann passierte das Unerwartete.

Unkonventionelle Ressourcen erlebten ihre Blühte in den USA. Mit steigender Rohölproduktion hörte die U.S. auf, überschüssige Ölmengen der Welt zu benötigen.

Anstatt die Rohölproduktion zu reduzieren, um den Markt auszugleichen, hat Saudi-Arabien die Produktion erhöht, um seinen Marktanteil zu schützen.

Und ta-da! – Wir haben eine globale Flut von Rohöl und Flüssigkeiten, zusammen mit einem wirklich großen Preiskollaps. Heute werden Sie eher hören, dass die Leute über einen möglichen weltweiten Höhepunkt der Ölnachfrage sprechen, anstatt über einen Höhepunkt der Ölproduktion.

Aber die Hauptargumente für Peak Oil haben sich kaum verändert.

Roosevelt 1908

U.S. Präsident Theodore Roosevelt, 13. Mai 1908:

Vergessen wir für den Augenblick moralische Ziele, so ist es sicher zu sagen, dass der Wohlstand unseres Volkes direkt von der Energie und Intelligenz abhängt, mit der unsere natürlichen Ressourcen verwendet werden. Ebenso ist klar, dass diese Ressourcen die Grundlage nationaler Macht und unveräußerlicher Besitz sind. Letztendlich ist es jedoch offensichtlich, dass diese Ressourcen in Richtung einer schnellen Erschöpfung laufen.

 

Der Jüngste Tag ist abgewandt

Das Konzept des Peak Oil entwickelte sich aus einer Theorie des amerikanischen Geowissenschaftlers M. King Hubbert. Basierend auf den Schätzungen der Gesamtreserve – und dem Muster und der Geschichte der Ölfeld Entdeckungen in den Vereinigten Staaten, kreierte Hubbert eine zusammengesetzte Mega-Rückgangs-Kurve, die der U.S.-Rohölproduktion voraussagte, sie würde in der Zeit von 1965-70 ihre Spitze erreichen.

Und die U.S. Ölproduktion erreichte einen Höhepunkt, ein wenig später als es die ursprüngliche Hubbert-Kurve vorhergesagt hatte. Aber mit der Entdeckung von North Slope Oil in Alaska, begann sie die Produktion wieder zu erhöhen. Die inländische Peak Oil Schätzung wurde als die Unteren 48 [Bundesstaaten] Vorhersage neu gekennzeichnet.

Nun scheint es, dass der Ansatz von Hubbert, ein Profil für die konventionelle Ölförderung in einem definierten geografischen Gebiet prognostiziert, wenn die technologische Entwicklung und der Ölpreis innerhalb begrenzter Limits bleiben.

„Wenn die Leute fragen, „wie viel Öl gibt es noch „, lautet die Antwort: „Zu welchem Preis?“, bemerkt Sternbach. „Dinge wie Ölsand [tar sands] können riesige Mengen Öl zum richtigen Preis freigeben.“

Durchbrüche in der Technik, vor allem bei horizontalen Bohrungen und hydraulischen Frakturen – nennen wir sie „hydrozontale Entwicklung“ – kombiniert mit den heutigen verbesserten Explorations- und Produktionswerkzeugen, haben den Rückgang der US-Ölproduktion umgekehrt.

In ihrer Juni Energievorhersage prognostiziert die US-Energiebehörde, dass die US-Rohölproduktion im Jahr 2018 ein Allzeithoch von mehr als 10 Millionen Barrel pro Tag (b/d – barrel per day) erreichen wird, zusammen mit 4,19 Millionen b/d Erdgasflüssigkeiten und 1,02 Millionen b/d Ethanol.

Anstatt Peak Oil, hat die Welt den Blick auf eine neue Energie-Zukunft bekommen.

Innovation ist „Erhöhung des Wertes der Ressourcen und es ist die Verringerung der Kosten um sie zu fördern. Wenn diese beiden Dinge sich vereinen, kommen Sie zu einem optimalen wirtschaftlichen Antrieb“, sagte Sternbach. „Das ist ein Paradigmenwechsel, der Aufschwung von erhöhtem Wert schafft.“

AAPG Explorer

 

Siehe Aufmacherbild: Die originale Hubbert Kurve mit moderner Graphik dargestellt (AAPG Explorer)

Hubberts Original 1956er Studie finden Sie hier.

Hubbert bringt Wachstum und Verfall der Ölförderung in eine Formel (Hubbert Math).

„Peak Oil“ ist eine Grundfunktion der Ressourcenextraktion. Die maximale Produktion erfolgt in der Regel, wenn etwa die Hälfte der nutzbaren Ressource extrahiert wurde. Das Eugene Island 330 Ölfeld im Golf von Mexiko ist ein gutes Beispiel:

Grafik 2. Eugene Island 330 Ölfeld, Förderrate vs kumulative Produktion (Quelle: The Oil Drum) … (Bevor jemand zu schwätzen anfängt, The Oil Drum wäre eine Peak Oil Propaganda Website, die EI 330 Grafik ist korrekt. Ich kann es aus Produktionsdaten reproduzieren, für jeden, der eine Lizenz für die OLL-Datenbank von Lexco besitzt.)

EI 330’s erster Peak tritt bei etwa der Hälfte der Extraktion der ersten 250 Millionen Barrel Öl auf. Alte Ölfelder, besonders große alte Ölfelder, werden oft mehrere sekundäre Produktionsspitzen aufweisen. Im Fall von Eugene Island 330 waren die sekundären Gipfel eine Kombination von guten Wiederholungen, Nebenbohrungen und begrenzter [Wieder-] Aufladung von einigen der Reservoirs (Nein, dies ist kein Beweis für abiotisches Öl).

Die Hubbert-Gleichung ist eine gültige Methode zur Vorhersage der Spitzenrate der Ressourcenextraktion. Denn, die Tatsache, dass „der Welt das Öl nicht ausgeht“, lässt die Gleichung oder das Konzept von „Peak Oil“ nicht ungültig werden.

 

08. SEP., 2016

Robert Rapier, Mitwirkender

Was Hubbert über Öl wirklich falsch gemacht hat

[…]

Hubberts Ruhm in Spitzenöl-Kreisen kommt in erster Linie aus der Behauptung, dass er genau den 1970 U.S. Peak vorhergesagt hat. Wegen dieser Vorhersage ist Hubbert bei den Peak Oil Anhängern weithin als Visionär angesehen. Er ist ein Orakel und ein Prophet genannt worden. Ein kürzlich veröffentlichter Artikel – What Hubbert And Pickens Got Right About Oil, And What’s Next  [Wo Hubbert und Pickens über Öl richtig lagen und Was kommt nun] – erzählt die unheimliche Genauigkeit seiner Vorhersage.

Die Wahrheit ist jedoch viel nuancierter. Hubbert lag bei eine Menge von Dingen ungeheuerlich falsch, und seine oft verkündete 1970 Vorhersage enthält eine große Einschränkung, die den meisten Menschen nicht bewusst ist. Hier ist, was seine 1956 Studie tatsächlich angab:

Hubbert schätzte, dass die endgültige potenzielle Reserve der unteren 48 U.S. Staaten und Offshore-Gebiete bei 150 Milliarden Barrel Öl läge. Basierend auf dieser Reserve-Schätzung, und den 6,6 Millionen Barrel pro Tag (bpd) Extraktionsrate im Jahr 1955 und die Tatsache, dass 52,5 Milliarden Barrel Öl kumulativ bereits produziert worden waren, schätzte Hubbert, dass die Ölproduktion in den USA ihre maximale Produktion im Jahr 1965erreichen würde. Das war seine Grundvorhersage. Er schrieb: „Die Kurve muss in etwa 1965 gipfeln und muss dann mit einer Rate abnehmen, die mit ihrer früheren Wachstumsrate vergleichbar ist.“ Hubbert veranschaulichte diesen 1965-Gipfel in seinem Paper:

Quelle: Nuclear Energy and the Fossil Fuels by M. King Hubbert

Wie in der Abbildung gezeigt, projizierte Hubbert im Jahre 1965 eine US-Ölproduktionsspitze mit einer jährlichen Produktionsrate von etwa 2,8 Milliarden Barrel oder 7,7 Millionen Barrel pro Tag (bpd). Beachten Sie jedoch, dass es eine weitere Kurve gibt, die oberhalb und weiterführend über die Spitze von 1965 hinausgeht. Dies war Hubberts „Kontingenzfall“. Er berechnete, dass, wenn die US-Ölreserve 200 Milliarden Barrel wäre, der Höhepunkt im Jahr 1970 stattfinden würde, eine Verzögerung von fünf Jahren gegenüber seinem Basisfall. Allerdings zeigte er Skepsis gegenüber einer so hohen Reserve und bemerkte, dass dies „einen Betrag in Höhe von acht Ost-Texas-Ölfeldern“ implizieren würde – weit mehr als die Schätzung von 150 Milliarden Barrel. Dennoch, falls die US-Reserve so hoch wie 200 Milliarden Barrel wäre, schätzte Hubbert eine Spitze der U.S. Ölproduktion in 1970 von 3 Milliarden Barrel oder 8,2 Millionen bpd. Die Ölproduktion in den USA erreichte im Jahr 1970 tatsächlich eine Spitze, wenn auch bei 9,6 Millionen bpd.

Während Hubberts Vorhersage in der Größenordnung korrekt war, scheint denjenigen, die ihn zitieren, nicht bewusst zu sein, dass seine „perfekte“ 1970-Vorhersage auf einem sekundären Fall beruhte, über den er Skepsis ausdrückte und die angenommene Fördermenge um etwa 15% zu niedrig war. Hubbert’s base case — a prediction made in 1956 of a 1965 peak — was off by 5 years and was 20% too low [Hubbert’s Basismodelle – eine Vorhersage im Jahr 1956 über einen 1965er Peak gemacht – lag um 5 Jahre daneben und war 20% zu niedrig – der letzte Satz ist mit Twitter verlinkt, funktioniert jedoch nur mit Anmeldung.]. Oder anders ausgedrückt, seine Kernaussage zu dieser Zeit war, dass die Ölproduktion der U.S. noch 9 Jahre lang ansteigen würde, aber sie erreichte ihr Maximum nach 14 Jahren und bei 15% höherer Produktion als projiziert.

Mein Punkt hier ist, seine Vorhersagen der Ölproduktion basiertem auf dem, was er eigentlich geschrieben hat. Mehr noch, als jemand, der häufig Vorhersagen macht, würde ich sagen, dass seine Vorhersagen über die Ölproduktion von U.S. ziemlich gut waren. Sie waren nicht prophetisch oder fast genauso genau wie viele Peak-Oil-Anhänger annehmen. Aber sie lagen in der Größenordnung.

Doch wenn wir uns anschauen, was er über die weltweite Ölproduktion und die Erdgasproduktion zu sagen hatte, dann waren seine Vorhersagen weit daneben. Er kam zu einer Schätzung der endgültigen konventionellen Ölproduktion der Welt durch Vergleich einer Reihe von Schätzungen. Er setzte eine Schätzung von 1,25 Billionen Barrel für die ultimative potentielle konventionelle Ölproduktion ein. Wir wissen jetzt, dass diese Schätzung viel zu niedrig war. Aber auf dieser Schätzung projizierte Hubbert, dass die globale Spitze in der Rohölproduktion um das Jahr 2000 mit 34 Millionen bpd auftreten würde [der letzte Satz ist mit Twitter verlinkt, funktioniert jedoch nur mit Anmeldung.] In Wirklichkeit war die Rohölproduktion im Jahr 2000 mehr als doppelt so hoch bei etwa 75 Millionen bpd. Während die konventionelle Rohölproduktion sich im Jahr 2005 abflachte, gibt es nach mehr als einem Jahrzehnt später keine Anhaltspunkte dafür, dass die Ölausbeute damit begonnen hat, weniger zu werden. (Die globale Produktion hat sich weiter erhöht, vor allem wegen des Anstiegs der Schieferölproduktion). Das hatte Hubbert nicht voraus gesehen.

Hubbert-Verteidiger werden argumentieren, dass er nur das Datum des konventionellen Rohölpeaks um 5 Jahre verpasst hat. Aber seine Methodik legt einen Höhepunkt und Niedergang fest. Das ist nicht das, was tatsächlich eingetreten ist. Solange die konventionelle Rohölproduktion nicht ernsthaft abnimmt, wissen wir wirklich nicht, wie weit daneben seine Vorhersage vom Peak 2000 sein wird.

[…]

 

Forbes [Link zur Homepage – in deren Suchfeld (rechts oben) Hubbert eingeben]

Hubbert unterschätzte schlicht das Gesamtvolumen des abbaubaren Öls (vergangene Produktion + bestätigte Reserven + zukünftige Entdeckungen).

.

Figure 3. Hubbert Curve, US. mit 2014er Produktion, Reserven and geschätzten unendeckten Reserven

Wenn wir davon ausgehen, dass die bestätigten U.S. Ölreserven und die [damals] noch nicht entdeckten, abbaubaren Ressourcen abgenommen hätten, wäre der Hubbert „Peak“ für die USA im Jahr 2004 aufgetreten. Denken Sie daran, dass die Hubbert-Kurve nicht als exakt an die Daten angepasst verstanden werden sollte. „Hubbert math“ passt zu den Daten der Kurve. Der „Hubbert-Peak“ wäre zwischen den beiden tatsächlichen Spitzen aufgetreten. Ein alternativer Ansatz wäre, die Produktion in zwei Phasen zu betrachten, mit zwei getrennten logistischen Funktionen. In jedem Fall, wenn die bestätigten Reserven und die geschätzten unentdeckten, abbaubaren Ressourcen nicht mehr angestiegen wären, wären wir derzeit in der Nähe von Peak Oil.

Die Welt erwartet die „schnelle Erschöpfung“ der Rohöllieferungen seit mindestens 100 Jahren.

Wird es für die nächsten 100 so weiter gehen, immer kurz vor dem versiegen der Ölquellen?

Da die bestätigten Reserven im Laufe der Zeit voraussichtlich weiter wachsen und die gesamten, noch nicht entdeckten Ressource wahrscheinlich abnehmen, wird Peak Oil für die absehbare Zukunft voraussichtlich erhalten bleiben. Die Antwort ist ein qualifiziertes „Ja“ – Menschen, die das Konzept des Peak Oil nicht erfassen, werden die „schnelle Erschöpfung“ des Rohöls für viele weitere Jahre erleben.

 * * *

Im Interesse der vollständigen Offenlegung: Ich bin seit 1981 in der U.S. Ölindustrie als Geophysiker / Geologe beschäftigt, mit einem sechsjährigen Exil im Management. Ich habe immer für „kleines Öl“ gearbeitet (im Gegensatz zu BIG OIL). Ich bin Mitglied der American Association of Petroleum Geologen (AAPG), Society of Exploration Geophysicists (SEG) und Houston Geological Society (HGS). Ungeachtet meiner Vorliebe für lächerliche Greenschisten, ist grün eigentlich meine Lieblingsfarbe … Öl wird grün auf Landkarten und Bohrloch-Protokolle dargestellt. Peak Oil ist echt, aber nicht wirklich relevant, abiotisches Öl ist möglich (trotz aller fehlenden Beweise dafür [dieses wird von anderen Forschern anders gesehen, der Übersetzer]) und ist auch irrelevant. Weder die Realität von Peak Oil noch der Mangel an Beweisen für abiotisches Öl ist Teil einer Verschwörung, um den Ölpreis hoch zu halten. Wenn es so wäre, wäre es eine ziemlich schlechte Verschwörung, weil die Ölpreise in der meisten Zeit meiner Karriere niedrig waren. Und nein, ExxonMobil versteckt nicht die geheime Formel für das Umwandeln von (setzen Sie an diese Stelle ein, was Sie meinen) in Öl … Aber sie wussten alles über Gorebal Warming laaange bevor Al Gore es erfand … Sie wussten, dass es falsch war.

Wie üblich ist jeder Sarkasmus rein vorsätzlich … Außer dem bisschen über Gorebal Warming.

David Middleton

Erschienen auf WUWT vom 10.07.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/07/10/the-world-keeps-not-running-out-of-oil/

 

Ergänzung durch den Übersetzer:

Am Anfang dieses Beitrages wurde das damalige Original Dokument von Mr. Hubbert .pdf verlinkt.

Der Titel der Ausarbeitung lautet: Kernenergie und fossile Brennstoffe

Ich habe es im Groben überflogen und auf Seite 52 / 53 das hier gefunden:

Unter der Überschrift: Zukunftsperspektive, wagt Herr Hubbert einen Ausblick um 5.000 Jahre in die Zukunft. Fossile Brennstoffe werden erschöpft sein, nur ein Wimpernschlag in der Geschichte. Aber es besteht Hoffnung, das die Menschheit das Energieproblem gelöst haben wird (und sich nicht selbst ausgelöscht) und auch die Geburtenkontrolle im Griff haben wird. Dann wird es die Kernkraft als Energiequelle der Zukunft erschlossen haben. Dass er den Anstieg der Kernkraft ab etwa dem Jahr 1980 sieht – zu mindestens für die Welt – (und nicht für Deutschland,) zeigt den damaligen noch unverkrampften Blick auf die Innovationsfähigkeit der Ingenieure und Wissenschaftler.

Quelle wie oben beschrieben.




Schweizer Volksabstimmung zur Energiestrategie: Ein teurer Pyrrhussieg

Die Schweiz hat am vergangen Sonntag in einer Volksabstimmung über ihre künftige Energiepolitik entschieden. Nach jahrelanger Intensivberieselung der Bevölkerung mit Angstparolen – Angst vor „dem Atom“, Angst vor der „Klimakatastrophe“ – hat es eine Koalition aus Politik, profitorientierten Verbänden, „Umwelt“-verbänden sowie den ihnen hörigen Medien geschafft, das Volk zu einem sehr eindeutigen „Ja“ zu überreden. Doch Grund zum Jubeln haben weder das Volk noch die Verantwortlichen, denn letztere sind jetzt in der Pflicht, Dinge zu liefern, über deren Machbarkeit und Kosten sie sich eigentlich ebensowenig im Klaren sind wie die Bürger. Die Konsequenzen werden sich in den nächsten Jahren herausstellen und für die verantwortlichen Parteien schon bald als Fluch erweisen.

Windenergie in Schweizer Wäldern…

Was beschlossen wurde, ist nämlich nur Stückwerk ohne klare Ziele. Man hat sich in der für „grüne“ Politik typischen Art zur Vernichtung bestehender Lösungen entschieden, ohne eine zuverlässige, verfügbare und bezahlbare Technologie in der Hand zu haben, mit der man das Vorhandene ersetzen kann. Ab sofort gleicht die Schweiz bezüglich ihrer Energiepolitik einer Swissair-Maschine, die abgehoben hat, ohne zu wissen, ob es am Ziel überhaupt einen Flughafen geben wird. So hat man den Bau neuer Kernkraftwerke verboten, ohne klare Ziele zu haben, wie man die bestehenden KKW nach ihrem technischen Aus ersetzen könnte. Immerhin haben diese bisher knapp 40 % des Schweizer Stroms geliefert, während fast 60 % auf die Wasserkraft entfielen. Allerdings sind die Wasserkraftpotenziale der Schweiz damit auch schon weitgehend ausgereizt. Wesentliche Steigerungen liessen sich nur durch Raubbau an der Natur erzielen. Da die Wasserkraft zudem im Winter wegen des Einfrierens der Zuflüsse im Gebirge Kapazitätseinbussen hinnehmen muss, zeichnen sich vor allem für die Wintermonate Engpässe ab. Wie man diese überbrücken soll, ohne die CO2-Bilanz durch fossil befeuerte Kraftwerk zu verschlechtern, ist unklar.

Aus für die Kernkraft

Der Volksentscheid bedeutet das definitive Aus für die Schweizer Kernkraft. Der Bau neuer KKW wird verboten. Zwar sollen die aktuell noch fünf vorhandenen KKW zeitlich unbegrenzt weiterlaufen dürfen, solange ihr Betrieb als sicher eingestuft wird, doch ist bereits jetzt eines davon zur Stilllegung im Jahr 2019 vorgesehen. Da ihr Strom zudem nach dem Willen des Nationalrats zugunsten von Strom aus Wasserkraft von der Grundversorgung ausgeschlossen werden soll, könnte der Kernkraft schon verfrüht das wirtschaftliche Aus drohen. Wie man die Leistung dieser zuverlässig verfügbaren Stromproduzenten mit unzuverlässigem Strom aus Wind und Sonne ersetzen will, ist nicht geklärt.

Die als Alternative angepriesen Solar- und Windkraftwerke werden die landschaftliche Attraktivität der Schweiz unweigerlich zerstören. Es darf bezweifelt werden, ob sich dies positiv auf den bereits seit Jahren schwächelnden Tourismus auswirken wird. Der zur Förderung „erneuerbarer Energien“ erhobene Zuschlag auf jede Kilowattstunde wird zudem von 1,5 auf 2,3 Rappen pro kWh erhöht, was etwa 11-12 % entspricht.

Kosten?

Bezüglich der Kosten wurden die Argumente der Gegner der Energiestrategie (Kosten von CHF 200,- Mrd.) mit Hohn und Spott übergossen. Die Befürworter sprachen stattdessen von CHF 40,- pro Familie und Jahr. So etwas kennt man beispielsweise aus Deutschland, wo der Grüne Minister Trittin behauptete, das dortige EEG werde die Bevölkerung nicht mehr kosten als eine Kugel Eis im Monat. Heute zahlt der deutsche Michel bekanntlich dafür im Jahr 27 Mrd. €, und die Tendenz geht immer weiter nach oben.

Verschwiegen wird von den Befürwortern, dass der Verband Schweizer Elektrizitätsunternehmen bereits vor rund 6 Jahren die Kosten für eine Schweizer „Energiewende“ mit bis zu CHF 150 Mrd. bezifferte. Die heute von den Gegnern genannten CHF 200 Mrd. sind demnach realistisch. Allerdings ist es der Politik gelungen, den Verband mit Versprechungen und politischem Druck zu spalten, so dass er sich inzwischen zum Befürworter gewandelt hat. An der Korrektheit der damals von seinen Fachleuten ermittelten Zahlen ändert dies jedoch nichts. Rechnet man die 200 Mrd. auf 8,5 Mio. Einwohner um, so wird jeder Schweizer Bürger mit CHF 23.000,- zur Kasse gebeten, was pro Jahr CHF 713,- ergibt. Für eine vierköpfige Familie summiert sich dies auf total CHF 94.000,- bzw. auf jährlich CHF 2.852,- gut das 71fache der „amtlichen“ CHF 40,-.

Energieeinsparung?

Eine weitere Sollbruchstelle der Energiestrategie 2050 sind die Erwartungen bezüglich Minderung des Stromverbrauchs. Nur mit dieser angenommenen Verringerung lässt sich die Abschaffung der Kernkraft überhaupt rechtfertigen. Als Richtwerte gelten derzeit ein gegenüber dem Jahr 2000 um 16 % verringerter Energiebedarf bis zum Jahr 2020, bis 2035 sollen 43 % erreicht werden. Beim Strom liegen diese Zahlen bei -3 % resp. -13 %. Wie dies mit dem gegenläufigen Trend in anderen Industrienationen sowie mit der erwarteten Erhöhung des Anteils an stromfressender Elektromobilität im Verkehr zur Deckung zu bringen sein wird, dürfte sich noch als spannend erweisen. Vermutlich werden – ähnlich wie auch im grossen Vorbild Deutschland – die energieintensivsten Industrien in andere Länder abwandern. Man mag bezweifeln, dass sich dies positiv auf den Arbeitsmarkt auswirken wird.

Naturschutz ade

Ein gerade in der Schweiz sensibler Punkt der Energiestrategie 2050 ist die Aufweichung des Naturschutzes zugunsten der „erneuerbaren Energien“. Deren Gewinnung ist künftig ein nationales Interesse, was die Errichtung in Naturschutzgebieten erleichtern wird. Zudem werden Klagemöglichkeiten dagegen deutlich eingeschränkt. Es wird spannend sein zu sehen, mit welchen Spagatübungen die angeblichen „Naturschützer“ und zugleich Befürworter der Energiestrategie 2050 wie WWF oder Greenpeace zu diesem Punkt demnächst aufwarten werden.

 

Nach der Wahl ist vor der Wahl

Auch wenn diese Wahlrunde für die Gegner der Energiestrategie 2050 mit einer krachenden Niederlage ausgegangen ist, sollte man den Mut nicht sinken lassen. Das war angesichts der seit Jahren betriebenen Desinformationskampagne – z.B. durch die COOP-Zeitung an alle Haushalte, in der Schülern erklärt wurde, CO2 sei „giftig“ – kaum zu vermeiden. Doch jetzt müssen die Befürworter dieser Politik beginnen zu liefern, sie haben keine Ausreden mehr. Und 2020 ist nicht mehr gar so weit entfernt. Jetzt ist es an der Zeit, alles zu dokumentieren, was dem Volk so erzählt wurde, jeden Namen und jeden Spruch aufzuzeichnen und diese Leute und Organisationen in den nächsten Jahren damit ständig zu konfrontieren, wenn es mal wieder darum geht, dem Bürger wegen angeblich „unvorhersehbarer“ Kostensteigerungen in den Geldsäckel zu greifen. Es ist zu hoffen, dass sich dies in einigen Jahren nicht mehr besonders positiv auf politische Karrieren auswirken wird. Dafür gibt es ein historisches Vorbild: Schon in der Antike musste der Feldherr Pyrrhus die Erfahrung machen, dass manche Siege so teuer kommen, dass sie den Auftakt für künftige Niederlagen bilden.

Fred F. Mueller

 




Die Leukämie-Lüge

Leukämie ist ein bösartiger, erstmals im Jahr 1845 von Rudolf Virchow beschriebener Blutkrebs, benannt nach griechisch »leukos« = weiß und »haima« = Blut; der Name steht für die unkontrollierte Vermehrung von weißen Blutkörperchen (Leukozyten) und ihrer funktionsuntüchtigen Vorstufen, die durch ihr Wuchern die gesunden Zellen derart an der Arbeit hindern, dass man daran stirbt. Die Krankheit beginnt mit der Entartung einer einzigen Zelle, deren Erbgut sich schlagartig verändert. Alle Abkömmlinge dieser Zelle entarten dann ebenfalls und verbreiten sich zunächst im Knochenmark, wo sie die Blutbildung stören, können aber von dort auch die Leber, die Milz und weitere Organe befallen. Die reduzierte Blutzufuhr macht den Patienten zudem anfällig für Infektionen, es kommt zu Fieber, geschwollenen Lymphknoten, Milz- und Lebervergrößerungen und Knochenschmerzen. Unbehandelt führen akute Leukämien in wenigen Monaten zum Tod.

Heute versucht man, der Krankheit mit Chemotherapie und Knochenmarkverpflanzungen beizukommen, die Erfolgsquote liegt bei knapp 50 Prozent. Eines der prominentesten Opfer der letzten Zeit war Raissa Gorbatschowa, die Frau des letzten sowjetischen Staatspräsidenten, sie hat die Erkrankung nicht überlebt und ist nach mehreren erfolglosen Therapieversuchen im September 1999 in der Universitätsklinik Münster an Leukämie gestorben. Ein anderer prominenter Patient, der Tenor José Carreras, hat dagegen bis heute Glück gehabt. Dennoch ist natürlich jeder vermeidbare Fall von Leukämie ein Fall zu viel. Und zugleich ein Appell an die Wissenschaft, nach den Ursachen zu suchen. Wer oder was setzt den Initialunfall in Gang? Wie kommt es zu der ursprünglichen Zellveränderung, mit der das Unheil seinen Anfang nimmt? Und damit sind wir auch schon mitten im Problem. Denn über die unmittelbaren Ursachen der Leukämie, über die Auslöser der ersten Zellentartung, weiß man bisher nicht allzu viel.

Als mögliche Genmanipulatoren werden Viren, eine genetische Vorbelastung, bestimmte Chemikalien wie etwa Benzol oder extreme Dosen von ionisierender Strahlung diskutiert. So tritt etwa Leukämie bei den Überlebenden der Atombombenattacken von Hiroshima und Nagasaki häufiger auf als im Durchschnitt der japanischen Bevölkerung. Auch bei den Überlebenden von Tschernobyl ist die Leukämierate erhöht. Und vielleicht werden auch die Feuerwehrmänner von Fukushima in einigen Jahren vermehrt an Leukämie erkranken.

Damit steht für einen großen Teil der Medien und der Öffentlichkeit der Schuldige – die Kernkraft – auch schon fest. Und wird gegen alle Regeln der Vernunft fast schon fanatisch gegen alle Gegenargumente abgeschirmt. Ein Castor-Behälter etwa kann von einer Brücke fallen, vom Blitz getroffen oder von einer Kanone beschossen werden – nicht die geringste Radioaktivität entweicht. Und dann tritt eine ansonsten vor allem als Genitalexpertin und Verfasserin der Feuchtgebiete bekannte Mediengröße vor die Kameras und spekuliert, wie viele Polizisten, die den Castor begleiten, demnächst wegen der Bestrahlung wohl an Leukämie versterben werden.

Dass Frau Roche das glaubt, ist nicht weiter schlimm – nicht jeder muss etwas von Physik verstehen. Aber dass dergleichen Unfug auch noch im Fernsehen gesendet wird, sollte doch bedenklich stimmen. Denn ganz offensichtlich glauben auch viele Journalisten selbst daran. Und dass sie daran glauben, ist das Ergebnis einer systematischen Desinformationskampange, die von politisch interessierten Kreisen seit Jahrzehnten betrieben und von wissenschaftlich unbedarften Medien unbesehen nachgebetet und aufgeblasen wird.

Denn wenn es eine von nun wirklich allen Fachleuten als unbestritten angesehene Erkenntnis der weltweiten Leukämieforschung gibt, dann die, dass die im Normalbetrieb von kerntechnischen Anlagen emittierte Strahlung weit, weit unterhalb jedweder Gefahrengrenze liegt; sie wird von der Belastung durch Röntgenstrahlen oder natürliches Radon um ein Vielfaches übertroffen.

Aber seit wann helfen Kontra-Argumente gegen Glaubenssätze? Und wenn man keine Pro-Argumente hat, dann fabriziert man welche. Das fing mit den bekannten Häufungen von Leukämie bei Kindern um das Kraftwerk Krümmel an der Unterelbe an. Kinder sind anfälliger gegen Strahlenschäden als Erwachsene, wenn also kerntechnische Anlagen tatsächlich Leukämie erzeugen, müssten als erste Kinder darunter leiden. Und tatsächlich sind von 1990 bis 2009 in der Elbmarsch nahe Krümmel 19 Kinder an Leukämie erkrankt, dreimal mehr als unter »normalen« Umständen zu erwarten waren (denn auch abseits aller Kernkraftwerke erkranken Kinder an Leukämie). Für sich allein gesehen ist das kaum durch Zufall zu erklären; die Wahrscheinlichkeit, dass um ein gegebenes Kernkraftwerk eine derartige Häufung allein durch Zufall auftritt, ist so klein, dass man im Umkehrschluss behaupten darf: Der Zufall kann es nicht gewesen sein.

Aber die Wahrscheinlichkeit, dass um ein gegebenes Kernkraftwerk eine derartige Häufung allein durch Zufall auftritt, ist doch für die Beurteilung der Leukämiegefahr völlig irrelevant! Die Wahrscheinlichkeit, dass ein gegebener Lottospieler sechs Richtige erzielt, ist so gut wie null. Aber die Wahrscheinlichkeit, dass irgendein Lottospieler sechs Richtige erzielt, ist so gut wie eins.

Was wir also brauchen, ist die Wahrscheinlichkeit, dass um irgendein Kernkraftwerk in irgendeinem Zeitraum dreimal mehr Leukämiefälle auftreten als anderswo. Derzeit gibt es Hunderte von Kernkraftwerken auf der Welt, zahlreiche neue werden gerade gebaut, auch das Desaster in Japan hält die meisten Auftraggeber nicht von dieser preiswerten Energieerzeugung ab. Und die Wahrscheinlichkeit, dass um irgendeinen dieser Standorte dreimal mehr Leukämiefälle auftreten als anderswo, ist ähnlich der, dass irgendein Lottospieler sechs Richtige erzielt, das heißt fast 100 Prozent.

Das Krümmel-Cluster beweist also gar nichts. Es ist eines von insgesamt 240, die im Rahmen der sogenannten EUROCLUS-Studie bei der Erhebung von 13351 Fällen kindlicher Leukämie in insgesamt 17 Ländern gefunden worden sind. Nur bei vier der 240 identifizierten Cluster liegt ein Kernkraftwerk in der Nähe.
Aus den gleichen Gründen ist auch die Häufung von Leukämie um das geplante Endlager Asse in Niedersachsen ein Nichtindiz. Dort sind zwischen 2002 und 2009 zwölf Männer und sechs Frauen an Leukämie erkrankt; »normal« wären insgesamt sieben oder acht. Aber hat man eigentlich einmal gezählt, um wie viele Atomanlagen auf der Welt in den letzten Jahren kein einziger Fall von Leukämie gemeldet worden ist?

Mit der gleichen Logik, nämlich aus einer großen Zahl von Kandidaten die zur jeweiligen These passenden herauszuziehen, könnten wir auch »beweisen«, dass die Kernkraft Schweißfüße oder Haarausfall erzeugt – mit einer Wahrscheinlichkeit nahe eins gibt es irgendwo auf der Welt ein Kernkraftwerk, in dessen Nähe Kahlköpfe oder Schweißfüße besonders häufig sind. Wer sucht, der findet.
In den USA zum Beispiel findet man »signifikant« mehr Leukämie in der Nähe von katholischen Kirchen. Oder wie wäre es mit Fußballstadien oder Parteibüros der Grünen? Der vorläufig letzte Versuch einer politisch motivierten Konstruktion von Schuldindizien ist eine von der Partei Bündnis 90/Grüne in Auftrag gegebene Studie des Bremer Epidemiologen Eberhard Greiser aus dem Jahr 2009. Darin wird zum x-ten Mal unter Missachtung fast aller Regeln der mathematischen Statistik »nachgewiesen«, dass in der Nähe von Kernkraftwerken in der Tat »signifikant« mehr Leukämiefälle bei Kindern auftreten als anderswo. Bzw. man behauptet, dieses nachzuweisen.

Die wichtigsten Indizien dafür sind Tabellen wie die folgende; sie stellt für Kinder unter fünf Jahren und für insgesamt 69 Kraftwerke die in der Nähe aufgetretenen Leukämiefälle den erwarteten Fällen gegenüber, wenn dort die Leukämiehäufigkeit die gleiche wäre wie im Rest des jeweiligen Landes. Und siehe da: In der Nähe von Kernkraftwerken gibt es 158 Fälle mehr. Die Daten für Kanada beziehen sich auf den Zeitraum 1964 bis 1980. Für Frankreich liegen Daten von 1990 bis 2001 und für England von 1969 bis 1993 vor. Hier enthält die obige Tabelle nur Fälle von myeloischer Leukämie, das sind weniger als ein Fünftel aller Fälle an kindlicher akuter Leukämie.

Die Erkrankungsdaten aus den USA beziehen sich auf unterschiedlich lange Zeiträume, je nachdem, welches der verschiedenen Krebsregister zur Verfügung stand; alle enden aber im Jahre 2006. Insgesamt kommen so 69 Standorte zusammen, von denen man weiß, wie viele Kinder in deren Nähe in diesen Zeiträumen an Leukämie erkrankt sind und wie viele Erkrankungen bei Abwesenheit irgendwelcher Besonderheiten zu erwarten gewesen wären. Denn Leukämien treten auch in Landschaftsschutzgebieten, Alpentälern oder in der Gobi-Wüste auf, fern jeder Industrie, sodass nur die zusätzlichen Fälle zur Debatte stehen.

Diese Datensammlung verdient durchaus Respekt, ist aber leider unvollständig. Wo zum Beispiel bleiben die übrigen potenziellen Strahlenemittenten? Derzeit gibt es mehr als 1000 Nuklearanlagen auf der Welt; weniger als 80 davon gehen in die Greiser-Analyse ein (in die obige Tabelle sogar nur 69). Was ist mit den anderen? Selbst wenn man sich wie Greiser nur auf Kernkraftwerke beschränkt, also Wiederaufbereitungsanlagen, Atombombenfabriken oder Urananreicherungsanlagen usw. weglässt, bleiben immer noch über 150 Kraftwerkstandorte übrig, wo man über Leukämie und Kernkraft nicht viel weiß. Und das vermutlich deshalb, weil nichts Auffälliges geschehen ist. In Deutschland etwa liegen die Erkrankungsraten für Kinder bis 14 Jahre in der Nähe der Kraftwerke Brokdorf, Brunsbüttel, Grohnde, Gundremmingen, Stade, Phillipsburg, Lingen und Würgassen unter dem Landesdurchschnitt, hier erkranken nicht mehr Kinder als anderswo an Leukämie, sondern weniger. Um Brokdorf etwa hätte man sechs Fälle erwartet, es gab aber nur vier. In Brunsbüttel hätte man sieben Fälle erwartet, es gab aber nur drei. In Grohnde hätte man acht Fälle erwartet, es gab aber nur sieben. In Stade wären 19 Fälle zu erwarten gewesen, es gab aber nur 15. In Phillipsburg waren 35 Fälle zu erwarten, es gab aber nur 31. Und in Lingen/Unterweser waren 22 Fälle zu erwarten, es gab aber nur 19.

Alle diese Leukämieerkrankungen waren für die Kinder und für deren Eltern eine große Katastrophe. Aber was hatten sie mit den Kraftwerken zu tun? Hätten die Raten dagegen merklich über den Erwartungen gelegen (was durch Zufall sehr leicht vorkommt), wäre eine Panikmeldung in der ARD schon programmiert. Deswegen ist es auch kaum vorstellbar, dass eine Leukämiehäufung in der Nähe von Kernkraftwerken in Spanien, Schweden, der Schweiz oder Japan nicht sofort in den Medien ausgeschlachtet worden wäre.
All diese Länder kommen in der Greiser-Studie aber überhaupt nicht vor. Und wenn, wie etwa in den 90er-Jahren in Schweden, tatsächlich einmal eine Studie mit dem Befund »nichts aufzufinden« den Weg in die Öffentlichkeit findet, wird sie von den Medien ignoriert.

Aber bis zu einer Publikation in einem Fachjournal bringen es viele befundlose Studien zumeist nicht. Für wissenschaftliche Fachzeitschriften sind vor allem Ergebnisse außerhalb des Erwarteten interessant; für die Bestätigung von Dingen, die man ohnehin schon weiß, hat man dort, wie auch in vielen anderen Publikationsorganen, wenig Platz (»Im Westen nichts Neues«). In der wissenschaftlichen Fachliteratur ist diese Vorzugsbehandlung sogenannter signifikanter Studienergebnisse als »Publikationsverzerrung« bekannt (»publication bias«). In vielen Wissenschaften – der Medizin, der Biologie, der Soziologie, den Wirtschaftswissenschaften – gelten Bestätigungen etablierter Hypothesen als langweilig, nur selten lassen sich die Herausgeber renommierter Fachzeitschriften dazu überreden, darüber zu berichten.

Wenn man hingegen herausfindet, dass an allen Freitagen, die auf den 13. eines Monats fallen, die Börsen weltweit eher in den Keller gehen, ist eine Veröffentlichung fast schon garantiert. Ich selbst habe das mit meinem Mitarbeiter Ralf Runde (heute Professor für Statistik an der Universität Siegen) einmal ausprobiert. Und zwar haben wir die täglichen Durchschnittsrenditen deutscher Aktien daraufhin untersucht, ob es hier gewisse Muster gibt. Und siehe da, an allen Wochentagen, die geteilt durch sieben den Rest eins ergaben (das heißt am 1., 8., 15., 22., 29. eines Monats), war der mittlere Anstieg der Aktienkurse »signifikant« höher als normal. Für sich allein genommen ist das durchaus interessant. Dergleichen Kalendermuster im Kapitalmarkt beschäftigen die Experten seit Jahrzehnten. Bekannt sind hier etwa der Montags-, der Monats- oder der Jahresanfangseffekt. Letzterer besagt zum Beispiel, dass um die Jahreswende die Aktienkurse weit stärker steigen als normal, und dieser Effekt hat sich in der Tat über Jahrzehnte als sehr robust herausgestellt (in den letzten Jahren eher nicht, da wollte ich das selbst mal ausnutzen, bin aber immer wieder auf die Nase gefallen).

Habe ich also zusammen mit Ralf Runde eine sensationelle Neuigkeit entdeckt? Sind wir etwa einem weiteren Geheimnis des alten Pythagoras auf die Spur gekommen, der glaubte, dass in den natürlichen Zahlen alle Geheimnisse dieser Welt verschlüsselt seien?
Natürlich nicht. Denn Muster findet man in jedem Kaffeesatz, und unser Effekt verschwand für Daten außerhalb der Stichprobe sofort. »Signifikant« war er nur deshalb, weil wir natürlich noch viele weitere Effekte ausprobiert hatten: Den Geteilt-durch-sieben-Rest-zwei-Effekt, den Rest-drei-Effekt, den Rest-vier-Effekt, den Rest-fünf-Effekt, den Rest-sechs-Effekt, den Geteilt-durch-sechs-Rest-eins-Effekt, den Rest-zwei-Effekt, den Rest-drei-Effekt, den Rest-vier-Effekt, den Rest-fünf-Effekt und so weiter – bis zum geht nicht mehr. Und wenn man eines während des Studiums der Statistik lernt, dann dieses: Auch wenn überhaupt nichts Besonderes vorgefallen ist, wenn man lange genug sucht, findet man in jedem beliebigen Datensatz immer etwas »Signifikantes« vor. Und so auch hier.

Selbst wenn Greiser unter den bekannten Studien nicht mit böser Absicht auswählte (aber selbst das ist zu bezweifeln), sorgt allein schon die Mechanik des internationalen Wissenschaftsbetriebs dafür, dass Auffälligkeiten aller Art bevorzugt gemeldet werden und man die Abwesenheit solcher Meldungen als indirektes Indiz dafür werten darf, dass eben nichts vorgefallen ist. In Kanada etwa sind seit der Uraltstudie zum Zeitraum 1964 bis 1986, auf die Greiser sich bezieht, keine weiteren Häufungen bekannt geworden. Der größte Fehler der Greiser-Studie wie auch vieler anderer zum Thema Leukämie und Kernkraft ist aber die teilweise oder gar völlige Missachtung weiterer Faktoren, die bekanntermaßen mit Kinderleukämie in enger Verbindung stehen.

Einer zum Beispiel ist die Rasse. In den USA hat sich bei weißen Kindern eine mehr als doppelt so hohe Leukämieanfälligkeit als bei farbigen Kindern herausgestellt; am stärksten verbreitet ist die Leukämie bei Latinos, am wenigsten bei Indianern. Weitere unstreitig etablierte Risikofaktoren sind das Geschlecht (amerikanische Jungen erkranken um 30 Prozent häufiger als Mädchen) oder auch der soziale Status der Eltern – je höher, desto riskanter für die Kinder. Als Ursache wird vermutet, dass Kinder aus begüterten Verhältnissen isolierter aufwachsen und damit in frühen Jahren weniger Kontakte mit Altersgenossen und damit weniger Möglichkeiten zur Entwicklung von Antikörpern haben. In Schottland etwa beträgt die Differenz der Leukämieraten zwischen den reichsten und den ärmsten Gegenden unabhängig von Atomkraftwerken an die 50 Prozent.

Auch abnormale Bevölkerungsbewegungen scheinen die Kinderleukämie zu fördern. Nach einer englisch-chinesischen Studie etwa hat die Kinderleukämie in Hongkong nach dem jüngsten Zuzug von Millionen Neubürgern spürbar zugenommen. Und in den USA gehen die lokalen Leukämieraten sofort in die Höhe, wenn irgendwo ein neuer Luftwaffenstützpunkt eingerichtet wird. So wäre also auch bei Kraftwerken, in deren Nähe tatsächlich erhöhte Leukämieraten festgestellt worden sind, zunächst einmal zu überprüfen, ob dort auch andere Faktoren aus dem Rahmen fallen.

Besonders auffällig ist dies bei dem Atomkraftwerk San Onofre im San Diego County in Südkalifornien, mit dem die ganze Grünen-Studie steht oder fällt – hier ist der Überhang der beobachteten über die erwarteten Fälle von allen betrachteten Kraftwerken mit deutlichem Abstand am größten: Käme Leukämie bei Kindern in der Umgebung – gemeint ist damit das San Diego County – genauso häufig vor wie im Rest der USA, wären dort laut Greiser von 2001 bis 2006 insgesamt 177 Fälle zu erwarten gewesen. Tatsächlich gab es aber 281. Das sind über hundert mehr, als zu erwarten waren, da lohnt es sich, genauer hinzusehen. Und was sieht man dann?

Dass fast alle bekannten Risikofaktoren für Kinderleukämie im San Diego County höher, zum Teil sogar dramatisch höher sind als normal. In der dem Kraftwerk am nächsten gelegenen Stadt San Clemente zum Beispiel beträgt der Anteil der weniger leukämieanfälligen Afroamerikaner an der Gesamtbevölkerung weniger als 1 Prozent. Dagegen leben dort und im Rest des San Diego Countys überdurchschnittlich viele weiße oder mexikanischstämmige und damit überproportional leukämieanfällige Menschen. Außerdem ist San Diego die viertreichste Stadt der USA und die größte Marinebasis auf der ganzen Welt mit einer überdurchschnittlich hohen Zahl von Menschen, die dort jährlich hin- oder wegziehen.

Und wem das alles noch nicht reicht: Das Kraftwerk liegt mehr als 200 Kilometer von den Menschen entfernt, die es angeblich mit Strahlen verseuchen soll.

————————————————-

Zufügung von Helmut Kuntz: Er Autor hat sich vor Längerem die Mühe gemacht, die Studie (im Artikel angesprochene Studie) zu den Fallzahlen um KKW in Deutschland (dazu gibt es auch eine Information in der Schweiz), sowie zu Medizinproblemen, wie die große EU-Brustkrebsstudie zu analysieren.
Die Ergebnisse waren wie oben beschrieben:
Geht es nach der „unwiderlegbaren“ Statistik, dann nimmt die Leukämierate in Deutschland seit der Einführung der Ökostromversorgung und Abschaltbeginn der Kernkraftwerke zu.
Hinweis: Der Artikel erschien zuerst auf der Homepage des Deutschen Arbeitgeber Verbandes [1]. EIKE dankt dem Piper Verlag für die Erlaubnis, diesen Artikel als Auszug ebenfalls veröffentlichen zu dürfen

Nachtrag bzw. Zufügung

Zum gleichen Thema kam auf Novo Argumente bereits ein Artikel, der als Anlass hatte, was bei „Klimawandel-Problemen“ ebenfalls oft zu beobachten ist: Politiker oder eng damit Verbundene erklären den Inhalt einfach als alarmistisch, obwohl nichts davon in der Studie steht.
Novo Argumente: Leukämie durch Kernkraftwerke?
Im Dezember 2007 hat der Präsident des Bundesamts für Strahlenschutz, Wolfram König, in einer Pressekonferenz die Ergebnisse einer von ihm beauftragten Studie vorgestellt. Danach sei „das Risiko für Kinder, an Leukämie zu erkranken“, umso größer, „je näher sie am Reaktor wohnen“.
Doch besagte Untersuchung bietet keinerlei Grundlage für derlei Interpretationen. Das bestätigte auch die Autorin der Studie, Prof. Dr. Maria Blettner, Leiterin des Instituts für medizinische Biometrie der Universität Mainz. Sie zeigte sich wenig erfreut darüber, dass König sie über die Presseveranstaltung nicht informiert hatte. Außerdem ließ König zahlreiche frühere Untersuchungen unberücksichtigt …
Den interessanten Rest einfach im Originalartikel weiterlesen.

Und dann noch bei Achgut.com hineinsehen und lesen:
Achgut: „Vorzeitige Todesfälle“: Evergreen der Öko-Angstmacher
Uns plagt eine Geißel, deren Herkunft und Wirkung weitgehend unbekannt sind. Gemeint ist der sogenannte „vorzeitige Todesfall“, eine gedankliche Konstruktion, auf deren Basis umfangreiche regulatorische Eingriffe der Politik möglich werden, die nicht nur die Wertschöpfungsmöglichkeiten der Wirtschaft begrenzen, sondern auch tief in die private, individuelle Lebensgestaltung eingreifen. Wer sich fragt, warum selbst ursprünglich freie und liberale Demokratien in vielen Aspekten zunehmend diktatorisch agieren, wird beim „vorzeitigen Todesfall“ fündig.

Perfide an diesem Konzept ist sein vordergründig fürsorglicher Charakter. Wer will schon vor der Zeit sterben? Wer möchte nicht so lange wie möglich bei bester Gesundheit leben? Für wen ist nicht der Tod eines Freundes, eines Angehörigen oder Partners ein tragisches Ereignis, auf das man gut verzichten kann? Der Staat, so die mit dem „vorzeitigen Todesfall“ verknüpfte Botschaft, setzt sich mit aller Macht dafür ein, unser Wohlergehen und das unserer Lieben zu erhalten. Damit niemand vor der Zeit dahinscheidet. Und dagegen kann man schwer opponieren. Obwohl es nicht die ganze Wahrheit ist …

Ab 75 stirbt man nicht mehr vorzeitig
Von Amts wegen aber gibt es eine klare Grenze. Und die liegt bei 75 Jahren. Wer dieses Alter erreicht, so sehen es die diversen Gesundheitsbehörden, der hat es geschafft. Der stirbt nicht vorzeitig. Alle anderen sind aus dieser Perspektive Opfer ihrer Lebensweise oder ihrer Umwelt. Das möchte der Staat nicht hinnehmen. Warum nicht, ist aus guten Gründen nirgends beschrieben. Denn der „vorzeitige Todesfall“ hat mit Fürsorge in Wahrheit nichts zu tun. Er ist lediglich ein Instrument zur Durchsetzung ideologischer Interessen …

Feinstaub – ein konstruierter Killer?
Im Jahr 2012 seien nahezu drei Millionen Menschen weltweit durch die Aufnahme von Feinstaubteilchen mit einer Größe von bis zu 2,5 Mikrometer vorzeitig gestorben, meldet die Weltgesundheitsorganisation WHO in einer vielbeachteten Studie. Genau gesagt waren es 2.975.400, davon 26.160 in Deutschland. Woher wissen die das?
Sie wissen es nicht. Die Sicherheit in dieser Frage ist nur vorgetäuscht. Schließlich hat man nicht alle der 2.975.400 Leichen wieder ausgegraben und die genauen Zusammenhänge ihres Sterbens im Detail analysiert. Das wäre ohnehin aussichtslos, da viele der physiologischen Zusammenhänge in Verbindung mit den betrachteten Atemwegserkrankungen, mit Lungenkrebs oder dem Herzinfarkt nach wie vor unklar sind. Da stellen sich Fragen nach Vorerkrankungen, nach dem allgemeinen Lebenswandel und nach sonstigen Belastungen. Die behandelnden Ärzte könnten die Details über den Einzelfall wissen, die Angehörigen auch. Wichtige Informationen, die auf dem Weg vom individuellen Ereignis zu einer aggregierten gesamtstaatlichen Statistik schlicht verlorengehen. In Deutschland beispielsweise wird nicht einmal erhoben, ob ein an Lungenkrebs Verstorbener tatsächlich Raucher war, oder nicht …
Die Behauptung der WHO basiert vielmehr auf einem Rechenmodell, dessen Grundlage Kohortenstudien aus der Epidemiologie darstellen.

Auch hierzu gilt, am Besten den gesamten Artikel auf Achgut lesen.

Wer es bis hierher geschafft hat, lesen dann noch was die Politikberaterin für Klima und Energie auf ihrem (Des-)Informationsblog eben wieder dem wissenshungrigen Volk verkündete und hat ein ganz aktuelles Lehrbeispiel für das vorher erklärte:
KLIMARETTER.INFO, 16. Mai 2017: 107.000 Todesfälle durch Dieselabgase

Quellen

[1] Deutscher Arbeitgeber Verband: Prof. Walter Krämer Die Leukämie-Lüge

[2] Novo Argumente, 01.03.2008: Leukämie durch Kernkraftwerke? Kommentar von Ludwig Lindner




Atomkraft: Und plötzlich bist Du Menschenverächter

Aus entrüsteten Zuschriften muss ich schließen, dass (vermeintliche) Tschernobyl-Leugner hierzulande Gefahr laufen, auf dieselbe Stufe wie Holocaust-Leugner gestellt zu werden: ich sei menschenverachtend, „relativierend“ und zynisch, so warf man mir vor. Meist sind solche Zuschriften mit Verweisen auf Einzelschicksale im Familien- und Bekanntenkreis versehen, die von den Verfassern auf den Reaktorunfall zurückgeführt werden.

Wie immer in solchen Fällen kann man angesichts solcher unhintergehbarer Leidensgeschichten als Wissenschaftler oder auch Politiker, welcher jenseits des Individualschicksals Bewertungen abgeben und Entscheidungen zu fällen hat, nur verlieren. Denn wer möchte sich dem Vorwurf aussetzen, er oder sie sei hartherzig einem Menschenschicksal gegenüber?

Ich vermute: genau in diesem typischen Diskussionsverlauf liegt die Ursache, warum sich hierzulande niemand mehr zutraut, eine sachlich-kritische Diskussion über die Energiepolitik unter Einbeziehung der nuklearen Option noch durchzustehen: man will sich nicht als nuklearer Volksverräter und Menschenfeind hinstellen lassen.

Machbarkeit und Akzeptanz müssen zusammenkommen

Meine Kritiker, die mit dem wohlfeilen Vorwurf der Gefühlskälte kommen, verwechseln zweierlei Sachverhalte. Man kann einerseits feststellen, dass jedes Opfer einer Industriekatastrophe eines zuviel ist, und man kann einen individuellen Zugang zum Schicksal einzelner Opfer wählen. Das ist legitim, wurde vielfach in vorbildlicher Weise unternommen, und an einigen solcher Unternehmungen war und bin ich als Historikerin Tschernobyls auch beteiligt.

Das enthebt aber andere Menschen, welche allgemeinverbindliche Entscheidungen für viele fällen müssen – das heißt politische Verantwortung tragen – nicht der Konfrontation mit den Tatsachen. Entscheider und ihre wissenschaftlichen Berater müssen durch einen Abwägungsprozess hindurch, in unserem Falle (idealiter) mit dem Ziel, herauszufinden, welche Art Energieversorgung in einem Industrieland funktioniert und auch gesellschaftlich und moralisch vertretbar ist. Machbarkeit und Akzeptanz müssen zusammenkommen.

Und bei dieser Abwägung steht die Kernenergie trotz aller Mythenbildungen immer noch besser da als all das, mit dem sie von den Atomgegnern so eifrig und optimistisch substituiert wird. Diese müssten sich konsequenterweise fragen lassen, was die Atomindustrie und ihre Opfer so heraushebt, was sie so besonders inakzeptabel macht vor anderen Opfergruppen.

Grund des Akzeptanzproblems, so meine These, ist nicht die real existierende Kerntechnik und auch nicht die nachweisbare Opferbilanz der zivilen Kernenergienutzung, die ich gar nicht leugne, obwohl mir das implizit unterstellt wird. Es ist vielmehr der rund um diese Energieform produzierte Diskurs, demzufolge die Kerntechnik als Menschheitsverderber ganz oben in der Hierarchie des Entsetzlichen und Verwerflichen steht.

Die Tendenz zur (Selbst-)Viktimisierung

Hinzu kommt die allgemeine Tendenz zur (Selbst-)Viktimisierung in unseren politischen Diskussionen. Wer nicht Opfer (der Atomkraft oder sonstiger finsterer Kräfte) ist oder für die Opfer zu sprechen vorgeben kann, dessen Argument büßt an Legitimationskraft ein. Wer sich anmaßt, dieses Argument auseinander zu nehmen und nach tatsächlichen Opfer-Verhältnissen zu fragen, ist ein „Relativierer“. Aber das ist nur einer der Wege, Diskussionen im Keim zu ersticken. Neulich hörte ich eine interessante Aussage von der Grünen-Politikerin Gudrun Zentis, die eine Förderung der Kernforschung (es ging um die Möglichkeit, das Volumen hochaktiven nuklearen Abfalls durch Transmutation zu reduzieren) mit der Begründung ablehnte, dies würde ja die Akzeptanz der Kernenergienutzung erhöhen.

Es gibt also in unserem Land Gruppen, die gar nicht an der Schnittstelle von Machbarkeit und Akzeptanz für das Gemeinwohl streiten und arbeiten wollen, um die bestmögliche Entscheidung zu erzielen, sondern die lieber alles dafür tun, eine Option erst gar nicht in die Nähe der Akzeptanz kommen zu lassen.

Das halte ich für fahrlässig. Denn wir leben in einer nicht perfekten Welt. Das bedeutet, dass wir häufig mehrere nicht perfekte Lösungswege eines Problems gegeneinander abwägen müssen. Das ist die Aufgabe von Wissenschaftlern und Politikern, die sich dann Vorwürfe gefallen lassen müssen, sie seien zynisch und respektlos den Opfern gegenüber. Alle moralisch Unanfechtbaren sollten sich freilich überlegen, auf wen sie ihren ersten Stein schleudern.

Sie sollten also ihre eigene Opferfixiertheit bis zum Ende durchhalten und beispielsweise ausrechnen, wie viele Opfer von Atemwegs- und Gefäßerkrankungen ein Kernkraftwerk zu verhindern half, indem es mehrere Kohlekraftwerke ersetzte. Und sodann abwägen, ob sie diese Schicksale akzeptabler finden als die hypothetischen Opfer eines nuklearen Unfalls in unserem Land, die sie auf jeder Demonstration beschwören.

Das Dilemma der Unfallchirurgie

Denn wir sehen, dass bei uns die Kernenergie keinesfalls durch bessere Lösungen ersetzt wird, sondern durch schlechtere – nämlich durch mehr fossile Energieträger. Wind, Sonne und guter Wille allein reichen nicht aus, um ein Industrieland zu versorgen; von den nichtexistenten Speicherlösungen über den irrwitzigen Landschaftsverbrauch bis hin zum akuten Rohstoff- und Sondermüllproblem bei den „Erneuerbaren“ stellen sich für mich so viele Fragen, dass ich den Ausstiegsbeschluss aus der Kernenergie für überhastet und unverantwortlich halte.

In diesem Konflikt zwischen Gesinnungs- und Verantwortungsethik haben die Gesinnungsmenschen vorerst die Oberhand. Verantwortungsethikern schlägt ein kalter Wind entgegen. Ihnen wird vorgeworfen, Opfer zu „zählen“ und, noch schlimmer, zu „relativieren“, womit eigentlich „kleinrechnen“ unterstellt wird. Obwohl, wie ein befreundeter Arzt mir schrieb, solche kognitiven Operationen in einer Entscheidungssituation, beispielsweise in der Unfallchirurgie, das höchste Gebot sind: Zählen und Vergleichen, die berüchtigte Triage, hilft dann Leben zu retten, wo es zu retten ist. Aus Sicht der Angehörigen eines unrettbar Verletzten blanker Zynismus und unerträgliche Vorstellung.

Entscheider in Wissenschaft und Politik müssen jedoch den Mut aufbringen, auch gegen schlechte Bilder, auch im Angesicht des Zynismus-Vorwurfs, auch unter einem Schwall von schmähenden Zuschriften ihren Weg zu gehen. Dafür sind sie zu Entscheidern gewählt worden. Dazu gehört im Falle sehr weitreichender Entscheidungen wie der Energiepolitik der Mut, Optionen und Entwicklungspfade abzuwägen, die Gelassenheit, in einer emotional aufgeheizten Atmosphäre Zeit zum Einholen von Expertise einzufordern, und die Zähigkeit, auf die Ergebnisse zu warten. Nichts davon hat man in unserer Energiepolitik nach Fukushima getan.

Man hat mehr zerstört als man aufbauen konnte

Man hat eine hastig berufene und parteiisch besetzte Ethik-Kommission vorgeschoben, wo man eigentlich eine Enquête-Kommission mit wissenschaftlichem Stab gebraucht hätte. In einem solchen Gremium hätte man den Kernverfahrenstechnikern und Fachleuten für Übertragungsnetze die gleiche Stimme einräumen müssen wie den Techniksoziologen und -ethikern. Man hätte mögliche Weiterentwicklungen der Kerntechnik ebenso ernsthaft diskutieren müssen wie die Entwicklungsaussichten von Speichertechnologien und Offshore-Windkraft.

Das hätte Zeit gekostet, die man angesichts grüner Siegeszüge in Baden-Württemberg nicht zu haben vermeinte. Daher hat man Diskussionen abgeschnitten, bevor sie beginnen konnten. Man hat Ergebnisse vorgegeben, statt ergebnisoffen zu beraten. Man hat um der billigen „Befriedung“ der deutschen Atomdebatte willen einen funktionierenden Industriezweig geopfert und ihn durch einen Weg ins Ungewisse ersetzt. Man hat als Kollateralschaden in Kauf genommen, dass deutsche Expertise auf dem Gebiet der Reaktorsicherheit international an Einfluss verliert, da unsere Experten keine kerntechnische Führungsnation mehr vertreten, sondern ein innovationsmüdes Abwicklungsland. Man hat mehr zerstört als man aufbauen konnte. Denn man wollte nicht herzlos sein – und hat den Verstand abgeschaltet.

Dr. Anna Veronika Wendland forscht zur Geschichte und Gegenwart nuklearer Sicherheitskulturen in Ost- und Westeuropa. Für ihre Habilitationsschrift hat sie in mehreren Kernkraftwerken in der Ukraine, Litauen und Deutschland, zuletzt in den KKW Grafenrheinfeld und Grohnde, Forschungsaufenthalte durchgeführt. Dr. Wendland arbeitet in der Direktion des Herder-Instituts für historische Ostmitteleuropaforschung in Marburg. Sie leitet Arbeitsgruppen im Bereich Technik-, Umwelt- und Sicherheitsgeschichte.

 

Der Beitrag erschien zuerst auf der Seite ACHGUT




Update – Gemeinsame Erklärung der G7 durch Präsident Trump versenkt

Gastbeitrag von Eric Worrall auf WUWT

Trumps Klimaforderung verärgert U.S. Alliierte

Unterlagen aus dem Weißen Haus zeigen, dass die US-Regierung andere G-7-Länder drängte, dass Kernkraft und fossile Brennstoffe bei der zukünftigen Energieversorgung stärker berücksichtigt werden. Sie weigerten sich.

ANDREW RESTUCCIA

Präsident Donald Trumps abrupte Wende der US-amerikanischen Klimapolitik sorgt für Spannung mit einigen der engsten Verbündeten Amerikas, die den Forderungen der Regierung widerstehen, dass sie die Rolle der Kernenergie und fossiler Brennstoffe in der weltweiten Energieversorgung unterstützen.

Der Streit brach auf der diesjährigen Sitzung der G-7-Energieminister aus, bei der die Trump-Regierungsangestellten für die geplante gemeinsame Erklärung zur Energiepolitik eine stärkere Betonung auf pro-kohle, pro-nukleare vorschlugen. Der Kampf kochte bereits seit Wochen hinter den Kulissen, als das Weiße Haus, die Energieabteilung und das Außenministerium mit Verhandlungsführern aus anderen G-7-Ländern über diese Aussage kollidierten, nach einem internen Dokument von POLITICO und Interviews mit Diplomaten.

Die Fehde wurde durch Trump verursacht, der oft sein „America First“ -Ansatz für die Außenpolitik anspricht, beabsichtigt, die Vereinigten Staaten aus den Klimavereinbarungen von Paris im Jahr 2015 austreten zu lassen. Wie bekannt, hat Obama dem ohne Zustimmung des Kongresses zugestimmt. Einige Trump-Berater haben vorgeschlagen, dass er im Deal bleiben sollte – aber im Gegenzug, sollte er Konzessionen verlangen, um den fossilen Brennstoffsektor zu unterstützen.

Die von den Europäern geführten G-7 Minister und Regierungsangestellte, weigerten sich, der stärkeren Betonung fossiler Brennstoffe zuzustimmen, ohne dass sie Zusicherungen aus den Vereinigten Staaten bekommen, dass diese im Pariser Klimawandel-Vertrag bleiben würden.

Die Betonung der USA für Kohle „wurde als ein Thema für uns alle angesehen“, sagte ein G-7-Verhandlungsführer und stellte fest, dass Kanada, Europa und Japan ihren Frust über die Position der Trump-Regierung ausdrückten. Die Weigerung der Vereinigten Staaten, das Pariser Abkommen in der gemeinsamen Erklärung zu erörtern oder zu erwähnen, war die „größte“ rote Linie der EU während des Treffens, fügte der Verhandlungsführer hinzu.

Nach seinem Kommentar gefragt, sagte ein Beamter des Weißen Hauses, dass Trump „den Wert des US-Energiesektors als strategisches Instrument in der US-Außenpolitik betont hat.“ Der Beamte fügte hinzu: „Alle US-Energieressourcen und Technologien, einschließlich Kohle und Nuklear, sollten eine wichtige Rolle bei der Erreichung des universellen Zugangs zu erschwinglicher und zuverlässiger Energie spielen.“

Lesen Sie mehr: http://www.politico.com/story/2017/04/trump-fossil-fuels-g7-tension-237129

 

Viele Menschen beschreiben die Politik von Präsident Trump fälschlicherweise als Angriff auf erneuerbare Energien. Das Ziel von Präsident Trump ist es, die Energiekosten zu senken und die US-Energiesicherheit zu gewährleisten. Wenn erneuerbare Energien mit Kohle und Gas preislich konkurrieren können, wie die Befürworter häufig behaupten, bleiben sie eine willkommene Komponente des US-Energiemixes.

Gefunden auf WUWT vom 11.04.2017

Übersetzt durch Andreas Demmig

G7 Joint Climate Statement “Scuttled” Because President Trump




Übersicht über Deutschland-Energie im Vergleich zu anderen Ländern

Im Jahre 2016 sind die Emissionen in Deutschland im zweiten Jahr nacheinander gestiegen als Folge der Stilllegung eines der Kernkraftwerke des Landes und Ersatz des ausfallenden Stromes durch Kohle und Erdgas. Dies geht aus einer aktuellen Analyse von Environmental Progress hervor.

Die Emissionen in Deutschland wären gesunken, hätte das Land nicht ein Kernkraftwerk stillgelegt und den ausfallenden Strom mit Strom aus Kohle und Erdgas ersetzt.

Nicht nur, dass zusätzlich installierte Solar- und Windkapazitäten nicht den Ausfall des Kernkraftstromes ausgleichen konnten, sondern auch, dass die zeitliche Prozentzahl im Jahre 2016 der Stromerzeugung durch Wind und Solar dramatisch abgenommen hat.

Deutschland fügte zwischen 2015 und 2016 atemberaubende weitere 10% an Windkapazität und 2,5% Solarkapazität hinzu, erzeugte jedoch weniger als 1% mehr Strom durch Wind und 1% weniger Strom durch Solar.

Grund hierfür: Im Jahre 2016 gab es in Deutschland deutlich weniger Wind und Sonnenschein als im Jahre 2015.

Darum ist das Jahr 2016 als solches eine eindringliche Demonstration der Grenzen von Energiequellen, die vom Wetter abhängig sind. Deren Output variiert nicht nur von Stunde zu Stunde, sondern auch von Jahr zu Jahr.

Anti-Kernkraft-Propagandisten haben sich lange darauf versteift, dass das Problem dieser dramatischen Periodizität durch mehr Überlandleitungen und Speicher gelöst werden kann. Aber da gibt es ein anderes Problem: weder weitere Überlandleitungen noch mehr Speicherkapazität hätten das Jahr 2016 in Deutschland sonniger und windiger gemacht.

Das Analyse-Verfahren

Die Analyse erfolgt auf der Grundlage von zwei Datensätzen und Analysen durch drei Quellen in Deutschland, von denen zwei Denkfabriken sind, die Deutschlands Transition weg von Kernkraft und hin zu fossilen Treibstoffen und Erneuerbaren vorantreiben. Die Daten sind vorläufig und können sich noch ändern, aber es gibt bedeutende Abgleiche zwischen den unterschiedlichen Schätzungen. Das Fraunhofer-Institut für Solare Energiesysteme, 6. Januar 2017, leitet seine Zahlen ab aus Daten des Statistischen Bundesamtes bis Oktober 2016, und Agora Energiewende 2017 aus Daten der AG Energiebilanzen, Dezember 2016. Die beiden Schätzungen sind weitgehend gleich bei allen Schätzungen bzgl. der Erzeugung mit Ausnahme geringer Differenzen bei Wind und Solar sowie sehr großer Differenzen bei der Erzeugung durch Erdgas.

Um die Emissionen Deutschlands durch die Stromerzeugung im Jahre 2016 zu berechnen, die man ohne Stilllegung von Kernkraftwerken hätte vermeiden können, schätzten wir die Stromerzeugung aller historisch in Deutschland betriebener Reaktoren größer als 600 MW.

Diese Stromerzeugung wurde dann ersatzweise in den gegenwärtigen Strom-Mix in Deutschland eingeführt unter der Hypothese der Ablösung von Braun- und Steinkohle sowie Erdgas zur Stromerzeugung im Verhältnis zum Anteil jener Quellen im Jahre 2016 an der Gesamt-Stromerzeugung.

Die Emissionen für das Jahr sind inoffizielle Gesamtzahlen berechnet mittels der jüngsten Zahlen der Gesamt-Erzeugung vom Fraunhofer-Institut sowie den Emissionsfaktoren von RTE France zur Berechnung der Kohlenstoff-Intensität von Strom. Der Gebrauch dieser Emissionsfaktoren ist eine Approximation. Allerdings liegen unsere Ergebnisse der Kohlenstoff-Emissionen durch die Stromerzeugung grob auf einer Linie mit den offiziellen Werten Jahr für Jahr des gesamten Energiesektors. Unsere Berechnung zeigt, dass die mittlere Kilowattstunde Strom im Jahre 2016 aus fossilen Treibstoffen 930 g CO2 emittierte.

Wir haben die geschätzte Erzeugung bei einem Kapazitätsfaktor von 90% bei den folgenden Reaktoren mit einbezogen:

Biblis A and B:            2.41 GWe
Brunsbüttel:                0.77 GWe
Grafenrheinfeld:        1.28 GWe
Isar 1:                           0.88 GWe
Krümmel:                     1.35 GWe
Mülheim-Kärlich:      1.22 GWe
Neckarwestheim 1:   0.79 GWe
Philippsburg:               0.89 GWe
Stade:                            0.64 GWe
Unterweser:                1.35 GWe
Würgassen:                 0.64 Gwe

Obwohl die fünf kleinen sowjetischen Druckwasser-Reaktoren des Kernkraftwerkes Greifswald mit insgesamt 2 GWe nicht mit einbezogen worden waren, ist dieses Modell eines Reaktors nach wie vor in verschiedenen Varianten in Europa und Russland in Betrieb.

Deutsche Emissionen steigen seit dem Jahr 2009:

Schließung von Kernkraftwerken machte Emissions-Reduktionen durch weniger Kohleenergie zunichte:

Deutschland erzeugte im Jahre 2016 fast 1% weniger Energie durch Solar…

…obwohl 2,5% mehr Solarpaneele installiert worden waren.

Deutschland installierte 11% mehr Windturbinen…

…aber Windenergie stieg lediglich um 0,8%.

Warum? Weil es im Jahr 2016 nicht so sonnig oder windig war wie im Jahre 2015!

Welche Implikationen ergeben sich daraus?

Prozent des Stromes in Deutschland im Jahre 2016 von Kohle, Kernkraft, Erdgas, Wind und Solar:

Falls Deutschland bis zum Jahr 2030 50% mehr Solarkapazität hinzufügen würde…

…würde Solarenergie in wolkigen Jahren wie 2016 immer noch lediglich 9% des Stromes erzeugen

Quellen und Verfahren

Zwei Schätzungen von Energie und Emissionen in Deutschland für das Jahr 2016 von:

Fraunhofer-Institut für solare Energiesysteme, 6. Januar 2017, extrapoliert aus Daten des Statistischen Bundesamtes bis Oktober 2016

Schätzungen der AG Energiebilanzen Dezember 2016, die auch von Agora Energiewende verwendet worden sind, 2017

Zwei Analysen liegen grob auf einer Linie mit geringen Differenzen bzgl. Wind und Solar sowie großen Differenzen bei der Erzeugung mit Erdgas.

Zahlen von Agora Energiewende bzgl. installierter Kapazität und Emissionen wurden herangezogen.

Drastisch unterschiedliche Schätzungen bei Erdgas, geringe Unterschiede bei der Abschätzung von Wind und Solar:

Low-Carbon-Anteil der Stromversorgung:

Frankreich erzeugt doppelt so viel Strom aus sauberen Energiequellen:

Strom in Deutschland ist doppelt so teuer wie Strom in Frankreich:

Strompreise stiegen von 2006 bis 2016 um 47%:

Schließung von Kernkraftwerken erhält den Anteil fossilen Stromes aufrecht:

Emissionen der Stromerzeugung in Deutschland waren ohne den Strom aus stillgelegten Kernkraftwerken um 43% höher:

Link: http://www.environmentalprogress.org/big-news/2017/1/13/breaking-german-emissions-increase-in-2016-for-second-year-in-a-row-due-to-nuclear-closure

Übersetzt und aufbereitet von Chris Frey EIKE




Der Fukushima-Report (2): Unter Kontrolle

Wie sieht es heute auf dem Gelände des havarierten AKW aus und welche Fortschritte wurden gemacht? Zur Zeit des Erdbebens waren die Blöcke 1,2 und 3 in Betrieb. Die Blöcke 4,5 und 6 waren zur Revision abgeschaltet. Man muss wissen, dass die Blöcke 5 und 6 ohne Schaden davonkamen, weil sie um ca. 10 Meter erhöht gebaut wurden. Die Blöcke 1 bis 4 hingegen verloren bei dem Tsunami alle ihre Stromquellen und bei den Blöcken 1 bis 3 kam es zu teilweisen Kernschmelzen sowie zu Wasserstoffexplosionen in den Serviceflurbereichen der Turbinengebäude, wovon auch der Block 4 beeinträchtig wurde, dessen Reaktor bei der Katastrophe keinen Brennstoff enthielt.

Reaktorblock 1

Nach dem Unglück baute TEPCO ein neues Außengebäude über den Block, um die Radioaktivität sicher einzuschließen. Da nunmehr der Austritt von Radioaktivität nicht mehr zu befürchten ist, wurde dieses Gebäude teilweise eröffnet, um den Abtransport des nuklearen Brennstoffes aus den Abklingbecken durchzuführen. Am havarierten Reaktor selbst laufen Aufräumungs- und Aufklärungsarbeiten mittels eigens dazu konstruierten Robotern. Der beschädigte Reaktor ist unter Kontrolle und wird unter 30 °C gekühlt.

Reaktorblock 2

Der Block 2 wurde durch die Wasserstoffexplosionen weniger beschädigt und das Gebäude blieb weitgehend intakt. Die Aufräumungsarbeiten sind fortgeschritten und der Strahlenpegel innerhalb des Gebäudes konnte erheblich gesenkt werden. Der beschädigte Reaktor ist unter Kontrolle und wird unter 30 °C gekühlt.

Reaktorblock 3

Im Block drei wurden die ins Becken gestürzte Umlademaschine entfernt und die Aufräumarbeiten begonnen. Eine Umhausung des schwer beschädigten Turbinen-Gebäudes wurde so installiert, dass im Jahre 2017 der Brennstoff aus den Lagerbecken mit einer neuen Lademaschine in Castoren verpackt und abtransportiert werden kann. Der beschädigte Reaktor ist unter Kontrolle und wird unter 30 °C gekühlt.

Reaktorblock 4

Der Block 4 wurde innerhalb eines neuen Gebäudes komplett aufgeräumt und es wurde eine neue Brennstoff-Lademaschine installiert. Mittels dieser Anlage wurde der gesamte Brennstoff aus dem Block 4 in „castorartige“ Transportbehälter verpackt und abtransportiert. Seit September 2014 ist der Block 4 „brennstoff-frei“, das heißt, alle radioaktiven Brennelemente des Reaktors und der Lagerbecken sind entfernt worden. Vom Block 4 geht keine Gefahr mehr aus.

Die Blöcke 5 und 6

Die unbeschädigten Blöcke 5 und 6 werden nicht wieder in Betrieb gehen. Sie werden derzeit als Erprobungsmittel für dutzende neue Roboter und verschiedenste neue Rückbautechnologien genutzt. Japan arbeitet in Fukushima wegweisend mit vielen in- und ausländischen Unternehmen an der Weiterentwicklung mobiler Robotertechnologie.

Das Werksgelände

Das Werksgelände wurde komplett aufgeräumt und außerhalb der Reaktorblöcke durch Abtragen einer Oberflächenschicht dekontaminiert. Weite Bereiche wurden mittels Beton oberflächenversiegelt, so dass auf dem Kraftwerksgelände von den 6000 dort arbeitenden Mitarbeitern keine spezielle Schutzkleidung außer einem einfachen Papiermundschutz getragen werden muss. Die gesamte Seeseite des Geländes bekam eine 800 Meter lange, tief in das Felsenbett eingebrachte wasserdichte Stahl-Wand, um das Ablaufen eventuell kontaminierten Wassers ins Meer zu verhindern.

Derzeit geht gerade eine gigantische Vereisungsanlage in Betrieb. Rund um das Gelände der Reaktorblöcke wurden abertausende Rohrleitungen tief in den Boden gebohrt, durch die nun eine Kühlflüssigkeit strömt. Ziel ist es, bis Mitte nächsten Jahres einen gefrorenen wasserdichten Ring tief um das Reaktorgelände zu erzeugen, der das Grundwasser am Eintritt und eventuelle Flüssigkeiten am Austritt hindert. Dazu musste natürlich auch eine fabrikartige Anlage installiert werden, welche die Kühlflüssigkeit herunter kühlt. Die Technologie erscheint uns exotisch, ist aber in Japan auch anderweitig durchaus üblich. Große Teile des Eisschutzwalls sind bereits dicht gefroren.

Auf dem Kraftwerksgelände wurden große Lagerhallen erbaut, um die verpackten niedrigaktiven Abfälle temporär sicher einzulagern.

Wasserbehandlung

Die Wasserbehandlung gehörte seit Anfang der Katastrophe zu den größten Problemen in Fukushima. Der Tsunami, der die Anlage geflutet hatte, ließ Unmengen von kontaminiertem Wasser in den Gebäuden zurück. Für die Kühlung der beschädigten Reaktoren wurden ebenfalls große Mengen Wasser benötigt. Da das Werk an einem Berghang steht, drang durch Risse in den Gebäuden viel Grundwasser von unten ein und vermischte sich mit dem kontaminierten Wasser in der Anlage. All dieses Wasser ließ man nicht einfach abfließen, sondern pumpte es in Tausende eilig errichtete provisorische Tanks ab. Ein gigantisches Tanklager voll mit niedrigaktivem Wasser entstand und wurde ständig grösser. TEPCO baute eiligst mehrere große Wasseraufbereitungsfabriken auf dem Kraftwerksgelände und seit 2015 wird die Wassermenge durch Aufbereitung und Reinigung geringer. Die provisorischen Kunststofftanks wurden durch zuverlässige normal geschweißte Tanklager ersetzt und somit die Gefahr von Leckagen gebannt. Die Behandlung hochradioaktiven Wassers war im Mai 2015 abgeschlossen.

Die 6.000 Mitarbeiter

Seit diesem Jahr fahren die Mitarbeiter wieder in Bussen in ihrer normalen Arbeitskleidung direkt ins Werk. Für die Arbeiter wurden neue Sozialgebäude erbaut, in denen sie sich umziehen, ausruhen und ihre Malzeiten einnehmen können, die übrigens weitgehend aus lokalen Produkten erzeugt werden. (Dazu mehr im Teil 3 dieser Artikelserie). Selbst einen Supermarkt gibt es in diesem Gebäude. Auch ein neues Bürogebäude wurde errichtet, um die mehr als 1000 Ingenieure und Techniker unterzubringen, die an den Rückbauarbeiten beteiligt sind. Ein neues medizinisches Versorgungsgebäude mit der nötigen ärztlichen Infrastruktur wurde errichtet, um im Falle von Unfälle den Mitarbeitern 24 Stunden am Tag direkt vor Ort helfen zu können.

Um eventuellen Illusionen vorzubeugen: TEPCO Führungs-Mitarbeiter und Arbeiter kasteien sich seit der Fukushima-Katastrophe, als Ausdruck ihrer Betroffenheit. Die Arbeitszeiten wurden verlängert und die Gehälter gesenkt. TEPCO spart so um 600 Millionen US-Dollar pro Jahr ein. Als ich in der Tokioer TEPCO Zentrale in Shinjuku zu Besuch war, standen die Klimaanlagen auf 28°C, um Energie zu sparen.

Die Aufräum- und Rückbauarbeiten werden 30 oder sogar 40 Jahre in Anspruch nehmen. Die Kosten werden mit ca. 40 Milliarden Euro veranschlagt. Unklar ist, ob diese Summe reichen wird. Es ist genauso unklar, ob die von Kanzleramtsminister Altmaier veranschlagte Summe von 1.000 Milliarden Euro für die Energiewende reichen wird.

Leider sind Informationen über die Fortschritte in Fukushima in deutschen Medien selten oder sie werden mit Katastrophen-Unterton vorgetragen. Man könnte fast meinen, deutsche Journalisten wollten trotz des längst beschlossenen Atomausstiegs immer noch Ängste vor der Kernenergie schüren. TEPCO hat, was Transparenz gegenüber der Öffentlichkeit betrifft, viel aus Fukushima gelernt. Wer sich für mehr Details, eindrucksvolle Bilder und informative Videofilme (in Englisch) interessiert, dem sei die TEPCO Webseite empfohlen.

Bereits erschienen:

Der Fukushima-Report (1): Die Fakten, die Mythen

Die nächsten Folgen:

Der Fukushima-Report (3): Wieder Leben in „Todeszonen“

Der Fukushima-Report (4): Geisterfahrer der Energiepolitik




Fukushima Block IV – Die Geschichte

Damit ist bereits die erste und wichtigste Erkenntnis gewonnen: Ein Standort muß gegen die – auch hier – bekannten Naturkatastrophen gesichert sein. Ein Verdrängen kann zur Katastrophe führen. Die Statistik ist gnadenlos: Ein Jahrtausendereignis kann schon morgen eintreten. Andererseits ist es wenig hilfreich, einen Tsunami auch in Bayern als potentielle Gefahr zu sehen.

Die zweite wichtige Erkenntnis ergibt sich aus der Anordnung der Blöcke im Kraftwerk Daichi. Dort sind die Blöcke 1 bis 4 praktisch “Wand an Wand” mit vielen gemeinsamen Gängen und Leitungen gebaut. Die Blöcke 5 und 6 stehen einige hundert Meter weiter entfernt. Auch hier ist die Erkenntnis geradezu trivial: Wenn man Reaktorblöcke unmittelbar nebeneinander baut und sogar miteinander verbindet, besteht die Gefahr, daß sich Ereignisse (Feuer, explosive Gase etc.) wie bei Dominosteinen weiter ausbreiten. Ja, die Problematik geht sogar über das eigentlichen Ereignis hinaus. Die Intervention durch Menschen wird auf lange Zeit durch großräumige Kontamination verhindert. Deutlicher, als im Falle des Reaktors 4, kann man das gar nicht aufzeigen: Der Reaktor 4 war zum Zeitpunkt des Ereignisses gar nicht in Betrieb und vollständig entladen. Es wäre also gar nichts passiert, weder durch die starken Erdstöße noch durch die Flutwelle! Erst das in den anderen Reaktoren entstandene Knallgas wurde ihm zum Verhängnis. Es hat sich über das gemeinsame Lüftungssystem ausgebreitet. Die Explosion brachte das obere Geschoß des Reaktorgebäudes zum Einsturz.

Die Sonderrolle der Blöcke 5 und 6

Die Blöcke 5 und 6 befinden sich einige hundert Meter nördlich von den Blöcken 1 bis 4 auf dem gleichen Gelände. Der Block 5 entspricht den Blöcken 2 bis 4 (Siede​wasser​reaktor BWR/4 (Mark I) mit 760 MWe) und ging zwei Jahre später als Block 3 (ebenfalls von Toshiba) in Betrieb. Bei Block 6 handelt es sich um eine modernere Version (BWR/5 (Mark II) mit 1069 MWe) ebenfalls von Toshiba errichtet und 1979 in Betrieb gegangen.

Im Zusammenhang mit dem Tsunami ist festzustellen, daß diese beiden Reaktoren praktisch nicht beschädigt wurden. Sie befanden sich zum Zeitpunkt des Unglücks gar nicht in Betrieb, sondern waren planmäßig für Wartungsarbeiten abgeschaltet. Beide Reaktoren waren frisch nachgeladen und bereits wieder vollständig verschlossen und zur Wiederinbetriebnahme bereit. Im Block 5 fand während des Unglücks gerade eine Druckprobe statt. Bei Wartungsarbeiten am Aufzug des Schornsteins kam ein Arbeiter durch das Erdbeben zu Tode. Der einzige Tote infolge des schweren Erdbebens und des Tsunami im Kraftwerk; obwohl sich während des Unglücks über 500 Arbeiter auf der Schicht befanden.Fukushima Block IV 20.11.13 15:01

Die Flutwelle richtete nicht so schweren Schaden, wie bei den benachbarten vier Reaktoren an. Hauptgrund dürfte gewesen sein, daß das Gelände rund drei Meter höher gelegen ist. Da die Reaktoren während der Naturkatastrophe abgeschaltet waren, war der Eigenstrombedarf kleiner: Es mußte nur die sehr viel geringe Nachzerfallswärme abgeführt werden. Ein Reaktor nach einem Brennelementewechsel, setzt aber nur wenig Wärme frei, da die sehr kurzlebigen (und damit sehr viel Zerfallswärme produzierenden) Elemente bereits während der Zwischenlagerung im Abklingbecken zerfallen sind. Entsprechend gering ist auch die benötigte elektrische Leistung für die Kühlmittelpumpen. Ein entscheidender Unterschied zu der Situation in den Reaktoren 1 bis 3.

Technisch gesehen, könnten die Blöcke 5 und 6 wieder den Betrieb aufnehmen. Derzeit erscheint das aber politisch nicht gewünscht. Eine endgültige Stilllegung erscheint wahrscheinlicher. Es gibt bereits den Vorschlag, diese Reaktoren als “Übungsgelände” für den komplizierteren Abriss der Ruinen 1 bis 4 zu nutzen.

Der Wert gemeinsamer Baugruppen

Fukushima Daiichi hatte eine elektrische Nettoleistung von 4546 MW. Entsprechend stark und vielfältig waren die Verbindungen mit dem Netz. Trotzdem wurden praktisch alle Leitungen und Schaltanlagen großräumig zerstört: Das Kraftwerk war auf seine Eigenversorgung angewiesen. Da wegen der schweren Erdstöße eine vollautomatische Schnellabschaltung ausgelöst wurde, war auch keine Eigenstromerzeugung mehr möglich. Als einzige Quelle blieben die Notstromdiesel. Die Blöcke 2, 4 und 6 verfügten jeweils über luftgekühlte Notstromdiesel. Allerdings wurden durch die Flutwelle alle Schaltanlagen der Blöcke 1 bis 4 zerstört, sodaß nur noch der Diesel von Block 6 einsatzbereit war. Ihm ist es zu verdanken, daß die Blöcke 5 und 6 planmäßig in einen sicheren Zustand überführt werden konnten. Wären die Diesel und ihre Schaltanlagen gegen Hochwasser gesichert gewesen (hochgestellt oder wasserdichte Gebäude), wäre praktisch nichts passiert!

Da bei diesen älteren Reaktoren, keine passiven Notkühlsysteme vorhanden sind, führt ein (längerer) Ausfall der Stromversorgung zwangsläufig zu einer teilweisen Schmelze von Brennelementen und damit zum Totalschaden. Genau diese passiven Kühleinrichtungen, die kein Eingreifen in den ersten 72 Stunden erforderlich machen, sind der entscheidende Sicherheitsgewinn der sogenannten Generation III+. Auch bei dem Tsunami hätte diese Zeitspanne ausgereicht, um Notstromaggregate von weit entfernt “einzufliegen”.

Als Konsequenz der Naturkatastrophe von Fukushima, richtet man nun überall überregionale Zentren mit zusätzlicher Sicherheitstechnik (Pumpen, Notstromaggregate, Werkzeuge etc.) ein. Sie übernehmen die (zusätzliche) Rolle von Feuerwehr-Wachen. Auch bei schweren lokalen Zerstörungen infolge Naturkatastrophen etc. kann dadurch sehr schnell eine Unterstützung mit Material und Fachpersonal erfolgen.

Als besonders gefährlich hat sich die Bauweise “Wand an Wand” erwiesen. In Deutschland waren solche Entwürfe von Anfang an ausgeschlossen. In Japan – und insbesondere im Ostblock – hat man die Sache offensichtlich etwas anders gesehen. Der Gewinn durch geringere Investitionskosten wurde durch die angebliche, gegenseitige Nutzungsmöglichkeit von Sicherheitseinrichtungen meist noch verklärt. Imposant oder gruselig – je nach Standpunkt des Betrachters – sind die gigantischen Turbinenhallen sowjetischerFukushima Kraftwerke. Nach Tschernobyl und Fukushima sind solche Konstruktionen international Geschichte. Ganz nebenbei, ist dies ein Beispiel dafür, daß man die technische Lebensdauer von Kernkraftwerken nicht beliebig ausdehnen sollte. Es gibt durchaus Kraftwerke, die so grundsätzliche Schwachstellen haben, daß man sie besser außer Betrieb nimmt und durch neue (sicherheitstechnisch überlegene) Konstruktionen ersetzt.

Besonders fatal ist es, wenn gemeinsame Lüftungssysteme und Kanäle vorhanden sind. Der Block 4 war zum Zeitpunkt des Unglücks abgeschaltet und vollständig entladen. Ein Unglück wäre praktisch ausgeschlossen gewesen, wenn nicht Wasserstoffgas von außen über das Lüftungssystem in das Gebäude hätte eindringen können. Ein eher klassisches Unglücks-Szenario einer Raffinerie oder einer chemischen Anlage. Block 4 würde heute noch genauso unversehrt dastehen, wie die Blöcke 5 und 6, wenn er nicht über das Lüftungssystem mit seinem “verunglückten Nachbarn” verbunden gewesen wäre! Damit wären wir beim zweiten grundsätzlichen Konstruktionsfehler dieses Reaktors. Das Gebäude war vertikal zweigeteilt. Im unteren Teil befand sich der Reaktor mit seinem Sicherheitsbehälter. Dieser Teil war durch dicke Betonwände geschützt. Diese Betonwände dienten primär der Abschirmung von Strahlung. Der obere Teil hingegen, war eine einfache Stahlträger-Konstruktion, die gegen Wind und Wetter mit Blech verkleidet war. Diese “Stahlbau-Halle” ist durch die (chemische) Wasserstoffexplosion eingestürzt und hat auch alle Krananlagen mit sich gerissen. Ein solches Unglück ist bei Kraftwerken, die gegen Flugzeugabstürze gesichert sind (also bei allen deutschen Reaktoren!) ausgeschlossen, da der erforderliche “Betonpanzer” natürlich auch gegen inneren Explosionen wirkt. Um es noch mal deutlich zu sagen: Alle modernen Reaktoren (auch heutige russische Anlagen) befinden sich in einem Betonbunker mit meterdicken Stahlbetonwänden, um sie gegen Einwirkungen von Außen (“EVA”, Flugzeugabsturz, Terrorismus etc.) zu schützen. Eine solche Konstruktion kann (praktisch) nicht zum Einsturz gebracht werden.

Abbruch von Block 4

Die Beseitigung von Block 4 ist die einfachste Aufgabe der Aufräumarbeiten. Alle Brennelemente haben sich zum Zeitpunkt des Unglücks außerhalb des Reaktors im Brennelementebecken befunden. Räumt man das Brennelementebecken aus, befindet man sich kurz vor dem sog. “gesicherten Einschluß”. Darunter versteht man die Entfernung aller Flüssigkeiten und möglichst aller brennbaren Materialien. Anschließend “mauert” man die restlichen (strahlenden) Teile ein und läßt die Strahlung erst einmal abklingen. Ein in den USA und Großbritannien vielfach erprobtes und in großem Maßstab angewendetes Verfahren. Das schöne am radioaktiven Zerfall ist ja, daß er immer nur abnimmt. Ganz im Gegenteil z. B. zu Quecksilber oder Asbest, die nie von allein weniger werden. Man muß nur lange genug warten (einige Jahrzehnte), bis die Radioaktivität so weit abgeklungen ist, daß man den restlichen Abriss ohne große Schutzmaßnahmen vornehmen kann. Allerdings wäre es bei der derzeitigen “Gemütslage” in Japan auch nicht überraschend, wenn man den Abriss unter großem Kostenaufwand “in einem Rutsch” durchführen würde.

Ein Lagerbecken für Brennelemente ist nichts weiter, als ein großes Schwimmbecken. In Großbritannien gibt es immer noch solche Becken – seit den frühen fünfziger Jahren – als “Freibäder”. Bisher ist nichts passiert. Allerdings ist das starke Algenwachstum und der Staubeintrag ein ständiges Problem: Die Becken verschlammen mit der Zeit immer mehr und die Wartung wird immer aufwendiger. Man ist deshalb vonFukushima dieser Methode abgekommen. Insofern ist die “Leichtbauhalle” oberhalb der Reaktoren von Fukushima eher dem damaligen Zeitgeist entsprechend gewesen.

Das Geheimnis solcher Lagerbecken ist ihre Tiefe. Das Wasser dient weniger der Kühlung, als der Abschirmung gegen Strahlung. Man braucht oberhalb der abgestellten Brennelemente noch einen

Arbeitsraum und darüber muß noch so viel Wasser vorhanden sein, daß die erforderliche Abschirmung gewährleistet ist. Andererseits ist diese Wassertiefe die ideale “Schutzschicht” für die am Boden stehenden Brennelemente. Sie hat den Schwung der rein gekrachten Teile (komplette Kranbahn mit Stahlträgern) so weit abgebremst, daß sie letztendlich “sanft” auf die Brennelemente herabgesunken sind. Die Brennelemente eines Siedewasserreaktors sind auch nicht gerade zerbrechlich, sodaß es wenig Schäden gegeben hat. Diese sind seit Monaten durch Unterwasserkameras genau dokumentiert.

Das Lagerbecken ist eine sehr stabile Konstruktion. Es besteht aus 140 bis 185 cm dicken massiven (ohne Durchbrüche für Rohrleitungen etc.) Stahlbetonwänden und ist komplett mit 6 cm Edelstahl ausgekleidet. Trotzdem hat man es nach der Explosion unterhalb durch eine zusätzliche Stahlkonstruktion verstärkt. Man wollte sicher sein, daß die Statik auch nach dem zusätzlichen Gewicht der Trümmer ausreichend ist. Inzwischen haben Neuberechnungen und umfangreiche Simulationen ergeben, daß es auch ohne Verstärkung schwersten Erdbeben standgehalten hätte. Eine ständige Vermessung zeigt, daß es sich auch durch alle Nachbeben und Taifune nicht bewegt hat.

Der schwierigste und gefährlichste Teil der Arbeit ist bereits erledigt: Das Abräumen des Trümmerhaufens auf dem Reaktor. Um das komplette Reaktorgebäude herum, hat man – weitestgehend ferngesteuert – eine gewaltige Stahlkonstruktion aufgebaut. Diese mußte so stabil sein, daß sie gleichzeitig als Kranbahn für einen Deckenkran und eine komplette Lademaschine dient und eine Schutzhülle für die “Baustelle” darstellt. Die gesamte Konstruktion steht auf eigenen Fundamenten neben dem ursprünglichen Reaktorgebäude und kragt freitragend über dieses hinweg, um zusätzliche Lasten für die Ruine zu vermeiden. Alles sicher, auch gegen schwerste Erdbeben und Wirbelstürme versteht sich. Eigentlich erstaunlich, daß ausgerechnet aus dem Land der Juristen, Sozialwirte und Lehrer, in dem man nicht einmal mehr einen Flughafen bauen kann, immer so getan wird, als sei Japan mit dem Ereignis von Fukushima total überfordert. Wieviel Jahre und Arbeitskreise es in Deutschland wohl gedauert hätte, bis man sich überhaupt auf eine Vorgehensweise geeinigt hätte?

Wahrscheinlich würden die Arbeiten immer noch ruhen, weil wir nicht genug Bischöfe für die unzähligen Ethikkommissionen etc. bereitstellen könnten. Völlig zu Recht, hat man mit gewissem Stolz bereits Journalisten an das Lagerbecken gelassen. So viel auch zum Thema Transparenz. Wer je versucht hat, an ein Brennelementebecken eines deutschen Kernkraftwerkes zu treten, weiß wovon ich rede. Strahlenphobie hat viele Ursachen, auch hausgemachte!

Parallel zu den Arbeiten, hat man bereits Transportbehälter angefertigt. Sie ähneln unseren Castoren. Diese werden mit dem Kran aufs Dach gehoben und in das Brennelementebecken zum Umpacken abgesenkt. Nach der Beladung werden sie zur genauen Untersuchung in das vorhandene Zentrallager auf dem Gelände gebracht. Alle Arbeiten finden bei Unterdruck statt, um etwaige Austritte von radioaktiven Gasen und

Aerosolen zu verhindern. Dafür hat man in der Ruine eine gigantische “Lüftungs- und Filteranlage” errichtet. Das Entladen ist nun fast schon eine Routinearbeit, wie in jedem anderen Kernkraftwerk unzählige maleFukushima ausgeführt.

Sind die Brennelemente wirklich keine Gefahr?

Kurz nach dem Unglück, haben sich “Deutsche Qualitätsmedien”, angefeuert von “Atomexperten”, gegenseitig versucht zu überbieten. Es wurden die wildesten Geschichten von schmelzenden Lagerbecken und einem größeren Schaden als durch die Atombombe von Hiroshima zusammengefaselt. Angst verkauft sich halt gut und war schon immer ein probates Mittel einschlägiger politischer Kreise. Kurz vor der Räumung des Lagerbeckens 4 drehen noch einmal alle Propagandaabteilungen voll auf: Es werden gekonnt Halbwahrheiten miteinander gemischt, bis man die “gefährlichste Situation in der Geschichte der Menschheit” konstruiert hat. Erstaunlich ist immer wieder, für wie dämlich die ihr Publikum halten. Ein Brennelementelagerbecken enthält notgedrungen sehr viel Wasser, da die Wasserschicht über den Elementen als Abschirmung der Strahlung dient. Eine Kettenreaktion in einem solchen Becken ist schon aus geometrischen Gründen ausgeschlossen. Es muß daher nur die Nachzerfallswärme abgeführt werden. Diese nimmt aber innerhalb der ersten Stunden nach dem Abschalten sehr stark ab. Sie ist so gering, daß ein Sieden des Wassers in solch einem Becken ausgeschlossen ist. Das Wasser wird lediglich erwärmt (deutlich unter 100 °C) und kann nur verdunsten, aber nicht “leer kochen”, wie ein Kochtopf auf der Herdplatte. Der vorhandene Kühlwasserkreislauf dient nur dazu, daß im Reaktorgebäude keine unnötig hohe Luftfeuchtigkeit entsteht.

Jedenfalls war das viel belächelte Besprühen aus Betonpumpen eher ein Gürtel zum Hosenträger. Es hätte auch gewirkt, wenn das Lagerbecken (Erdbeben, Explosion, reingestürzte Trümmer) undicht geworden wäre. Insofern eine richtige Maßnahme.

Es ist also keine Überraschung, daß die ersten geborgenen Brennelemente “wie neu” aussehen. Wenn einige der 1533 (1331 benutzte, 202 neue) vorhandnen Elemente undicht oder beschädigt sind, ist auch das kein Beinbruch. Man wird sie zusätzlich in Kassetten verpacken. Auch das ist zig mal geschehen. Anschließend beginnt das große Umpacken auf dem Gelände. Jeder Reaktor hat sein eigenes Abklingbecken. Zusätzlich befindet sich auf dem Kraftwerksgelände ein zentrales Lagerbecken in einem eigenen Gebäude. Dies dient auch bisher schon zur Zwischenlagerung bis zur Wiederaufbereitung. Um dort Platz zu schaffen, baut man nun ein Trockenlager. In diesem werden die “abgekühltesten” Brennelemente zukünftig gelagert. Wir kennen das in Deutschland aus dem Zwischenlager Gorleben.

Irgendwelche schwerwiegenden Unfälle während der Räumung sind äußerst unwahrscheinlich. Es handelt sich nicht um einen Haufen Mikado-Stäbchen, wie immer wieder von “Atomexperten” behauptet. Ein Brennelement besteht zwar aus vielen, fingerdicken Stäben, die aber durch Abstandshalter miteinander verbunden sind. Bei einem Siedewasserreaktor ist das Element auch noch von einem stabilen “Blechkasten” umgeben, um unerwünschte Querströmungen im Reaktor zu verhindern. Da die Fragestellung neuartig war, hat man in Japan inzwischen mit “unbenutzten” Brennelementen Versuche durchgeführt: Man hat aus einer Höhe von 5 m (!) 100 kg (!) schwere Stahlgewichte auf die Brennelemente fallen lassen. Dies hat zwar zu schweren Verformungen geführt, aber die Brennstäbe haben sich trotzdem nicht einmal geöffnet. Außerdem liegen die Brennelemente nicht einfach im Becken herum. Es gilt die “Bierkastenmethode”: Die Brennelemente werden vorsichtig von oben in stabile Lagergestelle (jeweils 10 Elemente in 3 Reihen) gestellt.  Oben guckt nur noch der Henkel des Brennelementes heraus. Der Spalt zwischen Brennelement und Kasten beträgt weniger als 15 mm. Umfallen kann da gar nichts. Ferner sind die Brennelemente durch die Gestelle vor herabfallenden Dingen geschützt. Es gibt nur zwei potentielle Gefahren: Die “Henkel” sind zu stark beschädigt oder kleinste Trümmerstücke sind in die Spalte zwischen Brennelement und Lagergestell gefallen.

Vor jedem Zug werden deshalb die “Henkel” mit einer extra entwickelten Meßtechnik vermessen. Erscheinen sie nicht mehr sicher genug, müssen andere “Greiftechniken” angewendet werden. Das Rausziehen geschieht nur sehr langsam (etwa 10 Minuten pro Element) um ein Klemmen oder Verkanten zu verhindern. Werden die Zugkräfte zu groß, wird sofort angehalten.

Das Kapitel der Reaktoren 4, 5 und 6 wird in wenigen Jahren abgeschlossen sein. Schon jetzt geht von diesen “Atomruinen” kaum noch eine Gefahr aus. Anders verhält es sich mit den Reaktoren 1 bis 3. Wie man aus dem Störfall in Harrisburg weiß, wird noch einige Zeit und viel Arbeit vergehen, bis auch diese drei Ruinen beseitigt sind. Es kann durchaus noch vier Jahrzehnte dauern, wenn die Japaner ihre extrem hohen Anforderungen aufrecht erhalten wollen. Dann allerdings, dürfte aus dem Kraftwerksgelände ein Erholungspark geworden sein. Sehr zum Bedauern aller “Atomkraftgegner”.




Die wahren Gläubigen oder Zahlenterror gegen Kernkraftwerke!

Im Herbst 2009 produzierte die deutsche politische Partei "Bündnis 90/Grüne "  in den deutschen Medien kurzzeitig Aufsehen mit der Behauptung der endgültige Beweis sei erbracht, dass Kernkraftwerke Leukämie bei Kindern hervorrufen. "AKW erhöhen das Leukämierisiko (Kernkraftwerke erhöhen das Risiko von Leukämie)" war die Überschrift einer Pressemitteilung. Während nicht einmal die Meta-Analyse von Greiser (2009), die die Grundlage dieser Pressemitteilung gebildet hat, einen solchen Anspruch erhob (da Greiser sich des Unterschiedes zwischen Korrelation und Kausalität wohl bewusst war) hat die Pressemitteilung stark zur Überzeugung vieler Deutscher beigetragen, die Atomkraft ist schlecht für euch.

Die vorliegende Arbeit zeigt, dass vermutlich nicht einmal eine Korrelation, wie von Greiser behauptet (2009), existiert. Wir verwenden seine Studie um verschiedene beispielhafte Fehler aufzuzeigen, die oft gemacht werden, wenn statistische Analysen gemacht werden , die durch starke a priori Überzeugungen, die so typisch für die Leukämie vs Kernkraft Debatte ist, existieren. Die erste und wichtigste Fehlerquelle ist eine Untertreibung der wahren Größe des Tests von Signifikanz, die von den bekannten Publikations Vorurteilen herrührt. Wir geben dann einen kurzen Überblick über die Literatur und zeigen, dass es Grund genug gibt zu glauben, dass dieses Vorurteil auch in der Leukämie Debatte vorherrscht. 

In technischen Begriffen: die wahre Bedeutung des Signifikanz-Niveaus solcher Tests ist sehr viel größer als die nominelle, über die in den jeweiligen Zeitungen berichtet wird. 

Andere Fehler sind die Missachtung von wichtigen Kovariablen und die starken Abhängigkeit von Ausreißern, die, wenn man sie nicht entfernt, die beobachteten Muster umkehren können. Dann gibt es noch das bekannte Phänomen namens HARking ("Hypothetiseren, nachdem die Ergebnisse sind bekannt"), wo Tests der Signifikanz erst gemacht werden, nachdem einige anomale Daten beobachtet wurden. Dies scheint insbesondere für die Leukämie Debatte zu gelten, wo viele Studien erst dann durchgeführt wurden, nachdem die Medien die Aufmerksamkeit auf eine ungewöhnliche Häufung und Mortalität in der Nähe von kerntechnischen Anlagen verschiedener Typen gelenkt hatten. Zusammengenommen scheinen diese Mängel die "Beweise" zu entkräften, dass die Kernenergie mit Leukämie im Kindesalter korreliert, geschweige denn, das sie für sie verantwortlich sei. Obwohl es noch wahr sein könnte, dass ein solcher Zusammenhang besteht, kann es sicherlich nicht aus den Beweisen, die bisher verfügbar sind, abgeleitet werden. Selbst wenn man nicht die bekannte Taubes (1995) These  unterschreibt -, dass epidemiologische Hinweise jeglicher Art nur ernst genommen werden sollten, wenn es mindestens eine Verdopplung des Risikos beobachtet, muss man viel mehr und in  insbesondere viel überzeugendere Daten vorbringen bevor man  diese Art Alarm loslässt, wie er so beliebt ist bei den Gläubigen in der Wissenschaft und den Medien sind gleichermaßen. 

Mit freundlicher Genehmigung 

von Walter Krämer Fakultät Statistik, TU Dortmund, D-44221 Dortmund, Germany, walterk@statistik.uni-dortmund.de und Gerhard Arminger2 Schumpeter School of Business and Economics Bergische Universität Wuppertal, D- 42119 Wuppertal, Germany arminger@statistik.uni-wuppertal.de

Die ganze Arbeit finden Sie als pdf im Anhang

Related Files




Der Siegeszug der Kernkraft – Nur in Deutschland gilt sie als Brückentechnologie –

Die weltweite nukleare Renaissance erfolgt auf drei Wegen:

@  Die überwiegend staatlich geleitete und finanzierte Fortführung des Nuklearanlagen-Baus in Ländern mit existierender Industrie, wie Frankreich, Finnland, Südkorea, China, Indien und Russland;

@ Erneuerte Unterstützung der Kerntechnik in Ländern mit existierender Industrie, die aber keine Neubauten in den letzten Jahrzehnten sahen, wie insbesondere das Vereinigte Königreich und die USA;

@ Eine Reihe potentieller Newcomer im Nuklearmarkt, wobei die substantiellste Gruppe aus diversen aufsteigenden Wirtschaftsnationen Asiens und des Mittleren Ostens besteht.

@ Vier Länder hatten sich für die Beendigung der Nuklearenergie entschieden: Belgien, Deutschland, Italien und Schweden. Italien und Schweden haben ihre Meinung geändert. In Belgien gab es inzwischen eine Laufzeitverlängerung für zwei KKW. Doch in Osteuropa und Asien wurde der Aufbau neuer nuklearer Kapazitäten zu keinem Zeitpunkt gestoppt, im Gegenteil.

Vorbemerkung

Das "Internationale Forum IV. Generation (GIF)"

* Im Jahre 2001 unterzeichneten 13 Nationen das Gründungsdokument (die Charta):  Argentinien, Brasilien, Kanada, Frankreich, Japan, Republik Korea, Republik Südafrika, Großbritannien, USA. Anschließend traten weitere Nationen dem GIF bei: Schweiz 2002; EURATOM 2003; VR China und Russland 2006.

* Obwohl Deutschland Mitglied der Europäischen Atomgemeinschaft EURATOM ist, beteiligt es sich faktisch nicht an GIF-Reaktorentwicklungen. Deutsche Kernforschungsinstitute erhalten keine staatlichen Mittel dafür; nur für Sicherheitsforschung, die aber ohne die unverzichtbare Beteiligung an neuen Reaktorentwicklungen auch bei aller Bemühung und Fachkompetenz kaum nennenswerte Beiträge liefern kann.

* Das Ziel des GIF: Identifizierung und Auswahl von 6 nuklearen Energiesystemen zu deren weiterer Entwicklung. Die auszuwählenden 6 Systeme bieten eine Vielzahl von Reaktor-, Energieumwandlungs- und Brennstoffkreislauf-Technologien. Ihre Designs weisen thermische und schnelle Neutronenspektren auf, geschlossene und offene Brennstoffkreisläufe und eine größere Spannweite von Reaktorgrößen – von sehr klein bis sehr groß. Abhängig von ihrem einzelnen technischen Reifegrad erwartet man, dass die Systeme der IV. Generation im Zeitraum zwischen 2015 und 2030 und danach zur Anwendung kommen.

* Die von der GIF ausgewählten Systeme sind:

    1. Gasgekühlter Schneller Reaktor (GFR) mit schnellem Neutronenspektrum,  

        einem mit Helium gekühlten Reaktor und geschlossenem Brennstoffkreislauf; 

        Temperatur 850 Grad Celsius;

    2. Hochtemperaturreaktor (VHTR)

        Graphit-moderierter, Helium-gekühlter Reaktor mit Einweg-Uran-

        Brennstoffkreislauf ; Temperatur 900 – 1000 Grad C; Näheres siehe China

        (u.a. Wasserstoffherstellung) und Südafrika.

    3. Superkritischer wassergekühlter Reaktor (SCWR)

       wassergekühlter Hochtemperatur- und Hochdruck-Reaktor, der oberhalb des

       thermodynamischen kritischen Punktes von Wasser arbeitet, –

       Neutronenspektrum, thermisch bis schnell; Temperatur 510 – 625 Grad C;

   4. Natriumgekühlter Schneller Reaktor (SFR): schnelles Neutronenspektrum,

       Kühlung mit flüssigem Natrium, geschlossener Brennstoffkreislauf für das

       effiziente Management von Aktiniden (Transurane) und für die Umwandlung

       von Natururan in Spaltmaterial; Temperatur 550 Grad C; Näheres siehe unter

       Russland

   5. Bleigekühlter Schneller Reaktor (LFR)  mit schnellem Neutronenspektrum und

       einer Kühlung mit einer flüssigen eutektischen Blei-Wismut-Mischung für die

       effiziente Umwandlung von Natururan und für das Aktiniden-Management;

       Temperatur 480 – 800 Grad C;

   6. Salzschmelze-Reaktor (MSR), erzeugt die Kernspaltungs-Energie in einer

       umlaufenden geschmolzenen Fluoridsalz-Brennstoff-Mischung mit einem

       epithermalen Neutronenspektrum und einem Brennstoffkreislauf mit

       vollständigem Aktiniden-Recycling; Temperatur: 700 – 800 Grad C.

Bewertung des GIF: "Diese Systeme bieten signifikante Fortschritte in Nachhaltigkeit, Sicherheit und Zuverlässigkeit, Wirtschaftlichkeit, Schutz gegen Weiterverbreitung und in physikalischem Schutz." 

Dr. Günter Keil mit Ergänzungen von Jürgen Wahl

Den gesamten umfangreichen Artikel von Dr. Gunter Keil – mit einer ausführlichen Länderübersicht und ihrer  –Bilanz der weltweiten Kernkraft-Aktivitäten- können Sie als pdf Datei im Anhang herunterladen.

Related Files




Verpaßte Entwicklung im Kernkraftwerksbau: Der Thorium Reaktor!

Das Ergebnis war ein Vortrag, den ich am  vor der FG Nutzen der Kerntechnik gehalten habe. Er ist eine objektiv nüchterne Bestandsaufnahme der positiven und negativen Erfahrungen beim Betrieb beider Anlagen. Danach wurde ich nochmals gebeten, einen Vortrag auszuarbeiten, mit dem Ziel, die vorerwähnten Erfahrungen als Grundlage für eine HTR-NHTTechnik zu nutzen, wie diese nach heutigem Stand der Erfahrungen gebaut werden kann. Diesen Vortrag habe ich unter dem Titel :"Nukleare Hochtemperaturtechnik zur Erzeugung von flüssigen Brennstoffen, Wasserstoff und elektrischer Energie"  am 27.3.2010 gehalten. Beide Vorträge sind im Internet unter : www.buerger-fuer-technik.de nachzulesen. Eine "Power-point" Kurzfassung steht im Internet unter: www.buerger-fuer-technik.de/Vortrag_FG_Nutzen_27.3.2010.pdf .

Die Vorteile dieser neuen weiterentwickelten Konstruktion, die weltweit mit diesem Konzept erstmals vorgestellt wird, habe ich "Schlagwortartig" im Anhang zusammengefaßt. Mit diesem Konzept werden alle gegen die HTR-NHT-Technologie von den verschiedensten ÖKO-Instituten und sonstigen "Bedenkenträgern" gegen diese Technik beschriebenen Argumente ausgeräumt. Ich hoffe, diese sind zu einer sachlichen Diskussion bereit. Es wäre schade für die deutsche Volkswirtschaft, wenn diese Technik nicht mit breiter Zustimmung gebaut werden könnte, da sie absolut radiologisch-nuklear bei etwas Sorgfalt bedenkenlos betrieben werden kann.

Dr.-Ing. Urban Cleve
in jungen Jahren "Hauptabteilungsleiter Technik der BBC/Krupp Reaktorbau GmbH"
danach Vorstand und Geschäftsführer in großen Unternehmen des Umwelt- und Energietechnischen Anlagenbaus.

Auszug:

Die Vorteile der nuklearen Hochtemperaturtechnologie.

 

1.Sicherheit.

·      Spaltprodukte werden im Kern des nur 0,5 mm großen Durchmessers der „Coated Particles“ durch hoch-gasdichte Hüllen aus aus PyC und SiC weitgehend zurückgehalten. 1. Barriere gegen den Austritt von Radioaktivität.

·      Daher nur geringe Belastung des Primärgaskreislaufs mit      Spaltprodukten.

·      Spannbetonbehälter ist „berstsicher“, daher 2. Barriere.

·      Containment mit großem Volumen als 3. Barriere.

·      Doppelter He/He-Kreislauf verhindert Übertragung von Spaltprodukten in Sekundärkreisläufe.

·      Kernschmelze nuklearphysikalisch ausgeschlossen. Kein „GAU“ möglich.

·      Sicher gegen Terrorangriffe und Flugzeugabsturz.

·      Schnell-BE-Abzug in sicheren Notfallbunker.

·      Sicher gegen Fremdmedieneinbruch.

·      Hohe Temperaturen wegen Grafiteinbauten möglich.

·      Sichere und einfache Kontrolle über den Verbleib des radioaktiven Materials.

·      Höchste Erdbebensicherheit.

·      Keine Kontamination im Sekundärbereich.

 

Nuklear physikalisch kein „GAU“ möglich, daher versicherbar.

2. Wirtschaftlichkeit. 

·      Hohe Primärgastemperaturen ermöglichen hohe thermodynamische Wirkungsgrade. Daher beste Ausnutzung des nuklearen Brennstoffs.

·      Einsatz von Thorium 232 ermöglicht das Erbrüten des spaltbaren Urans 233 als neuem Brennstoff. Daher reichen die vorhandenen Uranreserven auf unabsehbare Zeiten aus.

·      Hochtemperaturwärme kann  in verschiedenen Verfahrenstechniken wirtschaftlich eingesetzt werden.

·      Kontinuierliche Beschickung der Brennelemente ermöglicht lange Betriebszeiten ohne Unterbrechung.

·      Das kugelförmige Brennelement ist das nuklear sicherste, betrieblich am einfachsten zu handhabende und am leichtesten und sichersten end-zu-lagernde Brennelement.

·      Das völlig neu konzipierte „Ringcore“ ermöglicht bei gleichem Grundkonzept den Bau von Anlagen bis zu  höchsten Leistungen bei optimalem Durchlauf der BE.

·      Alle wesentlichen Komponenten sind mehrfach vorhanden, daher keine Betriebsunterbrechung bei Reparaturen.

·      Das geringe Volumen strahlender Komponenten ermöglicht deren Lagerung im Anlagenbereich.

·      Keine nuklearen Transporte außerhalb der Anlage.

·      Der Spannbetonbehälter des THTR-300 hat sich als bestmögliches, sicherstes Endlager erwiesen.

„Diese sicherheitstechnischen, betrieblichen und wirtschaftlichen Vorteile hat kein anderes Reaktorkonzept.  Daher kann diese Technik allen anderen Konzepten  überlegen sein.“

3. Schutzrechte.

Das NHTT-Anlagenkonzept mit den  Konstruktions-Merkmalen  in Kombination von:

·      Spannbetonbehälter ;

·      Kugelförmigen Brennelementen;

·      Ringcores,  ggfs. kombiniert mit einem Zentralcore, und/oder auch mehreren peripher angeordneten Ringcores, jeweils  mit mehreren Abzügen für die Brennelemente;

·      Abstand der peripheren Brennelementabzüge   1,5m -3,5m;

·      Ringförmig zwischen Spannbetonbehälter/Liner und den Grafiteinbauten der Cores eingebauten He/He-Wärmetauschern;

·      Betonkonstruktion als Fundament unterhalb des Spannbetonbehälters, ausgelegt auch zur dauerhaften Endlagerung alle in Betrieb gewesenen strahlenden Anlagekomponenten;

 

So wie im Vortrag: „Nukleare Hochtemperaturtechnik zur Erzeugung flüssiger Brennstoffe, von Wasserstoff und elektrischer Energie“ im Detail beschrieben, ist urheberrechtlich geschützt.

Detailbeschreibung: www.buerger-für-technik.de; atw-12/2009;

http://wikipedia.org/wiki/AVR(J%C%BClich)

 

 

 

Related Files




Greenpeace Energy: Keine Energiewende, aber Geschäfte mit der Atomindustrie!

Im Oktober 2009 feierte die einst von Greenpeace-Mitarbeitern ins Leben gerufene Genossenschaft ihren zehnten Geburtstag. In der aktuellen Ausgabe von NovoArgumente (104, 1–2 2010) bewertet Novo-Chefredakteur Thomas Deichmann, was aus dem Engagement geworden ist. In einer umfangreichen Studie vergleicht der Greenpeace-Experte die hehren Ansprüche mit der Wirklichkeit und zieht ernüchternde Bilanz.
Versprochen wurde und wird die „Energiewende“, ihre Realisierung fällt jedoch schwer. Für Kunden des Ökostromanbieters wird mitunter Strom aus uralten österreichischen Wasserkraftwerken bezogen. Am einstigen Renommier- und Großprojekt Weserkraftwerk bei Bremen hat sich Planet Energy, der Kraftwerksbauer von Greenpeace Energy, verhoben. Beim Neubau eigener Ökokraftwerke werden Geschäfte mit Siemens und Areva gemacht, während der Regenbogenkriegerverein Kampagnen gegen die beiden Kernkraftwerksbauer organisiert. Greenpeace Energy liefere laut Deichmann ein Beispiel dafür, wie man sich mit einfältiger Öko-Autarkie-Ideologie das eigene Leben erschwert: „Im Kleinen zeigt sich daran, woran auch im Großen die anvisierte Energiewende nur scheitern kann.“…

Lesen und debattieren Sie bei NOVO mit 

Diskutieren Sie online über den Artikel "Greenpeace Energy: Katerstimmung zum zehnten Geburtstag"von Thomas Deichmann oder hier im Kölner Stadtanzeiger

Mehr zum Thema finden Sie im Novo-Dossier „Grüne NGOs".

Greenpeace dementiert hier.




Wie viele Menschenleben kostet erneuerbare Energie?

Vor Kurzem hat der Spiegel, sehr zum Erstaunen der Fachleute, eine sehr korrekte Abhandlung zur Gefahr durch Kernenergie veröffentlicht.1 Lange vor der Nutzung der Kernenergie gab es schon Tote durch Radioaktivität. Marie Curie, die Pionierin der Atomforschung, starb mit 66 Jahren an Leukämie, die durch die hohe Strahlenbelastung ausgelöst worden war, deren Gefahr die Entdeckerin der Radioaktivität noch nicht kennen konnte. Sie hatte zuvor sowohl den Nobelpreis für Physik (1903) als auch für Chemie (1911) erhalten. Heute kennt man die Wirkung radioaktiver Strahlen und sorgt sehr effektiv dafür, dass niemand im Umgang mit den strahlenden Substanzen gesundheitsschädlichen Dosen ausgesetzt wird.

 Die furchtbare, zerstörerische Wirkung der Atomenergie wurde 1945 beim Abwurf amerikanischer Atombomben auf Hiroshima und Nagasaki deutlich, durch die mehr als 200.000 Menschen getötet wurden. Der Großteil fiel dabei der Explosion mit ihrer enormen Druck- und Hitzewelle zum Opfer. Die Radioaktivität spielte eine nachgeordnete Rolle.2 Der Spiegel nennt gut 700 Tote durch Strahlenfolgen. Bei der friedlichen Nutzung der Kernkraft wird das Szenario des größten Schadens als GAU (größter anzunehmender Unfall) bezeichnet. Einen GAU hat es bislang gegeben, im Jahr 1986 in Tschernobyl. Der Spiegel nennt ca. 60 Todesopfer bis heute – das ist korrekt aus der Sicht des Strahlenschutzfachmanns. In den Medien waren auch schon oft viel höhere Zahlen zu lesen. Das liegt vor allem daran, dass zusätzlich zu den tatsächlichen noch statistische Todesfälle einbezogen werden.3 Solche „berechneten Toten“ infolge von Strahlenbelastung werden nur in Verbindung mit der friedlichen Nutzung der Kernkraft angeführt. Wenn sich der Mensch auf andere Weise – etwa durch eine Flugreise – erhöhter Strahlung aussetzt, werden normalerweise keine solchen Hochrechnungen angestellt. Würde man es tun, könnten daraus die Forderung nach dem „Ausstieg aus dem Flugverkehr“ abgeleitet werden. Rund 40 Millionen Deutsche reisen mit dem Flugzeug in den Urlaub, geschäftliche Vielflieger kommen hinzu. Die einfache Zahlenrechnung ergäbe dafür jedes Jahr ca. 100 „berechnete Tote“.4

Es hat bei der Nutzung und der Erforschung der Atomkraft wie in jedem anderen Technikbereich Unfälle gegeben, durch technisches oder menschliches Versagen. Die Zahl der Opfer war jedoch bisher gering. In Kernkraftwerken westlicher Bauart hat es durch Strahlung tatsächlich noch keinen einzigen Toten gegeben. Nehmen wir diese tatsächliche Bilanz als Maßstab, so ist bei den erneuerbaren Energien im Vergleich zur Kernkraft noch erheblicher Nachholbedarf in Sachen Sicherheit zu erkennen. Es gibt eine Vielzahl von Untersuchungen, in denen die Gefahren der Stromerzeugung mittels Kernkraft mit denjenigen durch fossile Brennstoffe einschließlich der Wasserkraft verglichen werden.5 Dem sind einige Gesichtspunkte hinzuzufügen.

Wasserkraft

Seit den 50er-Jahren, als die Entwicklung der Kernkraft begann, gab es in Europa zwei große Unglücke mit Staudämmen, die viele Tote forderten: Am 2.12.1959 brach der Malpasset-Staudamm bei Frejus (Frankreich), 421 Menschen starben. Am 9.10.1963 brachte in Longarone (Italien) ein Erdrutsch den Stausee zum Überlaufen, die Flutwelle forderte etwa 2500 Tote. Am 11.8.1979 brach der Machhu-Staudamm in Indien, die Stadt Morvi wurde überflutet. Die Zahl der Todesopfer wird oft mit mehr als 1000 angegeben, eine zuverlässig erscheinende Quelle spricht sogar von 15.000 Opfern.6 Das Unglück am Machhu-Staudamm geschah fast zeitgleich zum Atomunfall in Harrisburg (28.3.1979). Dort gab es keine Opfer, noch nicht einmal Verletzte. Dennoch wird das Unglück von Harrisburg oft genannt, der Machhu-Staudamm blieb weitgehend unbekannt.

Die Münchner Rück schrieb im Jahre 1997: Seit 1950 ereigneten sich weltweit rund 100 größere Dammbrüche; die meisten dieser Dämme sind vor 1930 erbaut worden (und daher vermutlich Erdwälle). 1975 sollen bei einem Staudammbruch am Huai-Fluss in China 26.000 bzw. mehr als 230.000 Menschen ums Leben gekommen sein.7 Es gibt auch in Deutschland ein Ereignis, dass die Gefahren eines berstenden Staudammes deutlich werden ließ: die Bombardierung der Staumauer des Edersees durch britische Bomber im Mai 1943. Damals fanden über 1000 Menschen den Tod durch die Flutwelle. In Hannoversch Münden, ca. 80 km unterhalb der Staumauer, kann man sich heute die Hochwassermarke von der Flutwelle ca. drei Meter über dem Gehsteig anschauen (HW 17.5.1953). Es gibt also durchaus eine drohende „terroristische Gefahr“, die als nicht unerheblich einzuschätzen ist.

Risikostudien

Vielen Menschen sind dennoch Kernkraftwerke nicht geheuer. Ermittelt man nach dem gegenwärtigen Stand des Wissens – und dieses ist für die Kernkraft sehr umfassend – das tatsächliche Risiko, so stellt sich dieses als sehr gering heraus. Die für deutsche Kernkraftwerke durchgeführten Risikostudien haben für die Häufigkeit einer Kernschmelze Werte um 10 hoch minus 6 pro Jahr ergeben, d.h., in einer Million Jahren ist mit einem einzigen Schadensfall zu rechnen.8 Dabei ist zu beachten, dass bei einer Kernschmelze zwar ein technisches Gerät zerstört würde, aber wie in Harrisburg kein Mensch zu Schaden kommen müsste. Im Vergleich dazu fehlen bei Staudämmen in der Regel technische Maßnahmen zur Verhinderung von Schäden an Menschen. Betrachtet man die Situation der Bewohner des Zillertals in Österreich, die unterhalb von drei Staumauern leben, so kann man nur konstatieren, dass sie im Notfall ziemlich chancenlos wären. Der Bruch nur einer Mauer – durch ein Erdbeben oder einen Anschlag – würde das ganze Tal überschwemmen, es gäbe für Zehntausende Menschen kein Entrinnen aus der Flutwelle. Falsch wäre es dennoch, angesichts solcher Katastrophenszenarien den Ausstieg aus der Wasserkraft zu fordern. Wohl aber sollte man sich der Gefahren bewusst sein und eventuell Vorkehrungen zur Schadensbegrenzung treffen.

Biomasse

Vollends harmlos erscheint auf den ersten Blick die Nutzung von Biomasse. Tatsächlich ist jedoch der gefährlichste Beruf hierzulande derjenige des Forstarbeiters. Jeder zweite Forstarbeiter erleidet pro Jahr einen Arbeitsunfall. In den Jahren 1991 bis 1994 gab es jedes Jahr in Deutschland rund 50 Unfalltote bei 36.000 gewerblichen Mitarbeitern.9 Diese Zahlen werden heute nicht wesentlich anders sein, denn die Gefahren beim Umgang mit Kettensägen und durch fallende Bäume sind geblieben. Auch sind nur Unfälle im Staatsforst erfasst, diejenigen aus dem privaten Bereich wären noch zu addieren. Bezeichnend ist, dass die Verkehrsunfälle bei der Fahrt zum Arbeitsplatz, die bei Berufen mit Bürotätigkeiten die tödlichen Unfälle dominieren, im Forstbereich zu vernachlässigen sind. Es überwiegen die Gefahren beim Holzeinschlag. Will man diese Zahlen in Beziehung setzen zu denjenigen des Tschernobyl-Unfalls, so wäre eine Hochrechnung auf alle Länder der Welt und auf ca. 50 Jahre durchzuführen. Die Opferzahl ginge schnell in die Zehntausende. Die Betroffenen sind weitgehend anonym, ihre tragischen Einzelschicksale werden in der Regel im Lokalteil der Regionalpresse vermeldet. Es gibt keine medienwirksamen Katastrophen, und es gibt keine gesellschaftlichen Debatten um die Sicherheit der Forstwirtschaft. Die Toten aber sind real, und ihre Zahl ist groß.

Auch Biogasanlagen können zur Todesfalle werden. Bei dieser noch vergleichsweise neuen Technologie wird die Biomasse in großen Reaktoren zersetzt, wobei überwiegend Methan (Erdgas) entsteht. Das Gas ist entzündlich, es kann zu Explosionen kommen, und es können Menschen durch das Gas vergiftet werden. Das ist in den letzten Jahren mehrfach geschehen, bedauerlicherweise hat es etliche Tote gegeben. Gewiss muss man einer neuen Technik zugute halten, dass sie in der Anfangszeit noch fehlerbehaftet ist (das ist der Beginn der Technikern wohl bekannten Badewannenkurve). Aus Fehlern wird gelernt, Verbesserungen und nicht Abschalten und Ausstieg sollten auch im Falle des Biogases die Konsequenz sein.

INES-Skala

Gibt es überhaupt eine Möglichkeit, sich von der Gefahr der Stromerzeugung durch Kernkraft ein zuverlässiges Bild zu machen? Es gibt zumindest ernsthafte Versuche, mögliche Gefahren genau zu beschreiben und einzustufen. Hierzu dient die INES-Skala (International Nuclear Event Scale): INES 1 ist eine Störung, INES 2 ist ein Störfall, INES 3 ein ernster Störfall, INES 4 ein Unfall, INES 5 ein ernster Unfall, INES 6 ein schwerer Unfall, INES 7 ein katastrophaler Unfall.10 Bei den in deutschen Kernkraftwerken gemeldeten Ereignissen handelt es sich zumeist um Kleinigkeiten, die mit der internationalen INES-Skala überhaupt nicht erfasst werden. Diese werden mit INES 0 bezeichnet, also unterhalb der internationalen Skala, da sie ohne Bedeutung für die Sicherheit sind. In der Statistik der deutschen Kernkraftwerke für die letzten 15 Jahre gab es 2158 gemeldete Ereignisse. Davon gehörten 96,6 Prozent zu INES 0, des Weiteren 3,3 Prozent zu INES 1, und nur 3 Ereignisse waren Störfälle nach INES 2. Hier Beispiele der Ereignisse:

· Im Kernkraftwerk Würgassen, seit 1994 stillgelegt und im Abbau befindlich, gab es am 6.5.06 einen Kurzschluss im Schleppkabel eines Krans. Einstufung: INES 0.

· Am 29.10.02 schwamm nach einem Herbststurm so viel Laub auf dem Neckar, dass beim Kernkraftwerk Obrigheim der Rechen am Kühlwassereinlauf gesäubert werden musste, dazu wurde das Kraftwerk ca. 45 Minuten abgeschaltet. Meldung an die Behörde erfolgte. Einstufung: INES 0. Die dpa-Pressemeldung lautete dennoch: „Fünfte Panne in fünf Monaten“.

· In Krümmel wurden im Nebengebäude mit den Notstromdieseln unter 630 Dübeln vier Exemplare entdeckt, die zwar die Anforderungen erfüllten, aber nicht vom vorgesehenen Typ waren. Einstufung: INES 0.

· Häufige Ereignisse nach INES 0 gibt es z.B. an den Notstromdieseln, die bei den regelmäßigen Prüfungen Abweichungen zeigen, sodass einer von bis zu acht Dieseln nicht uneingeschränkt zur Verfügung steht.

In Deutschland werden inzwischen alle Ereignisse in den Kernkraftwerken veröffentlicht, z.B. in der Fachzeitschrift atw. Man denke nur daran, dass jedes Jahr viele Tausend neue PKW von den Herstellerfirmen wegen technischer Mängel zurückgerufen werden, zumeist, weil sonst Personenschäden mit entsprechenden finanziellen Forderungen zu erwarten wären.

Risikoumgang

Es gibt nichts auf der Welt ohne Risiko. Wir lieben das Leben, obwohl es zu 100 Prozent tödlich endet. Wir lieben die Technik, denn erst die Technik ermöglichte es, die vielen Menschen überhaupt zu ernähren und vielen von uns ein angenehmes und langes Leben zu ermöglichen. Wo es noch keine Technik gibt, wo die Menschen heute noch so leben wie in unseren Breiten im Mittelalter, herrschen Analphabetentum, Mangel, Hunger und Krankheit. Die Kernkraft ist eine sehr sichere Technik, die Beschäftigten in den Anlagen dort sind kaum von Unfällen bedroht. Bei den alternativen, erneuerbaren Energien ist dies noch nicht in gleichem Maße gegeben. Hier gibt es Arbeitsplätze mit den meisten und folgeträchtigsten Unfällen, und es gibt die Möglichkeit für Unfälle mit erheblichen Opferzahlen. Sowohl in der Risikodebatte als auch in der Praxis besteht also Nachholbedarf.

Anmerkungen

1 Matthias Schulz: „Legenden vom bösen Atom“ in: Der Spiegel, 47/07 S. 160–164, wissen.spiegel.de.

2 „Strahlung, von Röntgen bis Tschernobyl“, Broschüre des GSF-Forschungszentrums, 2006.

3 Siehe hierzu Lutz Niemann: „Wie gefährlich sind radioaktive Strahlen?“ in: Novo81, S. 22–24.

4 „Tschernobyl: Gefahr vorbei?“, Ministerium für Finanzen und Energie des Landes Schleswig-Holstein, Rechenbeispiele auf S. 12f.

5 Siehe hierzu atw 51/06, Nr. 4, S. 242ff. und atw 52/07, Nr. 10, S. 620ff.; weitere Informationen hierzu unter: energie-fakten.de.

6 Steven Schultz / Jay A. Leitch: Floods and Flooding. Encyclopedia of Water Science, Second Edition, 2008, S. 380–385, informaworld.com.

7 „Überschwemmung und Versicherung“, Münchner Rück 1997, S. 29.

8 „Deutsche Risikostudie Kernkraftwerke Phase B, GRS, Verlag TÜV Rheinland, 1989.

9 „Agrarbericht der Bundesregierung“ von 1996.

10 Siehe hierzu bfs.de.

Dr. Lutz Niemann für EIKE

Der vorliegende Text ist im Magazin Novo (Nr.97, www.novo-argumente.com ) erschienen, und wurde am 19.12.2008 in DIE WELT abgedruckt (http://www.welt.de/welt_print/article2901108/Wenn-die-Natur-zurueckschlaegt.html)




Umwelt – Klima – Energie!

Die Themen Umweltschutz, Klima und Energie beherrschen  die Schlagzeilen in der Presse.  Ich möchte mich als Ingenieur pragmatisch mit diesen Themen befassen. Der Inhalt reicht eigentlich für mindestens 3 große Vortragstagungen über mehrere Tage aus, bei der hunderte von Wissenschaftlern und Experten über ihre Erfahrungen berichten würden. Ich habe mir überlegt, wie ich dieses Problem lösen kann. Ich möchte es so versuchen. Ich berichte nur über Fakten die weder wissenschaftlich noch ingenieurtechnisch widerlegbar sind, möchte Sie dabei aber bitten, und ich will versuchen, hierfür die Grundlagen zu legen, sich Ihre eigenen Gedanken zu machen, um diese extrem komplizierten und komplexe Fragen sich selbst beantworten oder eine Meinung bilden zu können. Alle nachfolgenden Themen sind technisch und vor allem wirtschaftlich eng miteinander verbunden. Wer diese Fragen einseitig, also nur unter Berücksichtigung einzelner Themen, zu beurteilen versucht, macht zwangsläufig schwere Fehler, die zu vollständig falschen Beurteilungen führen.

Nun zum 1. Themenkreis, Umweltschutz,

der eine extreme Bedeutung in der Bevölkerung erlangt hat. Für Ingenieure war dieser Begriff nicht neu. Anlagen dieser Art waren und wurden seit Jahrzehnten gebaut:

–        Abgasreinigungsanlagen zur Reinhaltung der Luft

Zur Abscheidung von:

–        Staub, Feinstaub, Aerosolen durch Elektro-, Schlauch- oder Spezialfilter;

–        Schwefeloxide  In Nass- oder Trockenreinigungsanlagen;

–        Stickoxide durch Katalysatoren;

–        Dioxide durch Aktivkoks –Aktivkohlefilter;

Es war nur eine Frage des kostenmäßigen Aufwandes, denn alle Maßnahmen müssen ja letztlich von der Bevölkerung bezahlt werden.  Diese Maßnahmen-Investitionen führten zu einer Verschlechterung des Wirkungsgrades bei Kraftwerken um etwa 2 – 4%. Die Investitionskosten lagen bei mehreren hundert Millionen.

Die politische Bedeutung des Umweltschutzes kam mit den „Grünen“ auf. Sie ist im Prinzip auch richtig, nur sollte alles sachlich mit fachlichen Überlegungen und nicht populistisch behandelt werden.  Joschka Fischer postulierte vor etwa 30 Jahren, und damit machte er die „Grünen“ stark, dass in 10 Jahren kein Blatt mehr auf den Bäumen sei, wenn die Rauchgase der Kraftwerke nicht entschwefelt würden. Stichwort: Saurer Regen.  Damit hat er die Grundlage zur „Antienergiepolitik“, die bis heute dauert, gelegt. Die Rauchgase der Kraftwerke wurden also entschwefelt und dann auch entstickt, also die Stickoxide und dann auch die Dioxine abgeschieden.  Dies muss von den Stromkunden bezahlt werden. Ob die Entschwefelung gerechtfertigt war, sei dahingestellt. Auch heute ist der Waldboden sauer, das hat nun nichts mehr mit dem Schwefelgehalt aus den Rauchgasen von Kraftwerken zu tun, sondern mit einem seit Jahrtausenden ablaufenden Vorgang in der Natur. Abfallholz, Blätter usw. vermodern im Wald. Dabei wird Humus erzeugt, der den Waldboden düngt, das ist nun wirklich nichts Neues. Nur bei der Vermoderung entsteht auch CO2, dieses löst sich im Regenwasser und führt zum „sauren“ Waldboden. Sprudelwasser  hat in etwa den gleichen ph-Wert. Der Einfluss der zusätzlichen Schwefelsäure aus Abgasen kann nur geschätzt werden. Niemand hat das je errechnet, kann er auch nicht. Meiner Meinung nach liegt er weit unter 1%, es könnten aber auch nur promille sein, oder promille von promillen.

Dann ein Wort zur Müllentsorgung. Seit über 100 Jahre wird oder wurde der Müll überwiegend in Verbrennungsanlagen entsorgt, eine Technik, in der Deutschland weltweit führend war. Dann kamen die Abgase in Verruf. Wir entwickelten neuartige bessere Rauchgasreinigungstechniken. Letztlich eine „Gasmaske“ mittels Aktivkoks, also des gleichen Materials, das in Gasmasken enthalten ist. Ich hatte diese Idee Herrn Umweltminister Matthiesen vorgeschlagen, der dies sofort in Herten verwirklichen ließ. Ergebnis ist, dass das Rauchgas sauberer ist als die angesaugte Verbrennungsluft. Die Verbrennung ist heute immer noch die billigste und sauberste Müllentsorgung, aber der Widerstand der „Umweltschützer“ gegen diese Technik hat nicht nachgelassen. Das Ergebnis ersehen Sie in Ihren ständig steigenden Entsorgungskosten. Vor kurzem entsorgten, gegen hohe Gebühren, sogar Überseeische Länder ihren Abfall in deutschen Verbrennungsanlagen, die alle mit dieser Technik ausgerüstet sind. Dies zeigt den weltweit hohen Standard unserer Müllverbrennungsanlagen. Das Wort Müll oder Abfall wird jetzt  durch die Bezeichnung Biomüll oder Bioreststoffe durch Umweltschützer ersetzt , die Anlagentechnik ist die gleiche. Wir hoffen, dass jetzt endlich Vernunft einkehrt, zum finanziellen Vorteil der Bürger.

Nächstes Thema: Kraft-Wärmekopplung, also die kombinierte Erzeugung von Strom mit Nutzung der Abwärme. Diese Technik wurde nun wirklich nicht von den Umweltpolitikern erfunden. Sie wird seit über hundert Jahren allen  Hochschulen gelehrt. Grund für die Anwendung war aber bei den vielen hundert Anlagen, die in der Zeit gebaut wurden, als die Politiker diese  Technik noch nicht als politisierendes populistisches Argument erkannt hatten, stets die Frage der Wirtschaftlichkeit. Diese konnte in Modellrechnungen auf etwa  1% Genauigkeit berechnet werden. Die Abwärme kann aber nur dann genutzt werden, wenn Abnehmer, also Käufer, dafür vorhanden sind. Das ist aber, abgesehen von der Abwärmeverwertung in  wärmeverbrauchenden Industriebetrieben, nur zu Heizzwecken möglich. Im Sommer wird nicht geheizt, dann fehlen diese Abnehmer. Noch in den 50-etwa 80iger Jahren wurde jährlich in Deutschland etwa 100-150 Anlagen dieser Art gebaut.  Heute nur noch vereinzelt, trotz der Subventionierung. Es lohnt sich einfach aus wirtschaftlichen Gründen nicht.  Bei Müllverbrennungsanlagen, oder neu, den Bioabfall- und Bioreststoffverbrennungsanlagen macht diese Technik wirklich Sinn, denn die Erlöse aus Strom- und Abwärmeverkauf mindern die Entsorgungskosten, doch auch hier sind „Umweltexperten“ aus nicht mehr nachvollziehbaren Gründen dagegen.

Bei der Abwärmeverwertung geht ein Teil der Energie des Dampfes, die sonst zur Stromerzeugung genutzt wird, verloren. Abwärme auf Umweltniveau ist wertlos. Nur eine Nutzung/ Entspannung des erzeugten Dampfes bis auf den absoluten Nullpunkt, also  0 grad Kelvin oder  -273grad C ermöglicht einen 100%igen Wirkungsgrad bei der Stromerzeugung. Dieses thermodynamische Gesetz ist ein Naturgesetz, es kann von Ingenieuren nicht beeinflusst werden. Alle diese Fakten werden in der politischen Diskussion nicht erwähnt. Wenn solche Anlagen mit Steuergeldern  subventioniert werden, ist das nach meiner Ansicht Geldverschwendung.

 

Aber wir Ingenieure haben mit  Ideologen so unsere Probleme:

–        Wenn wir sagen, das Problem ist technisch lösbar, so wird es meist von den Umweltschützern in Frage gestellt. Ständig werden neue unrealistische, ja illusionistische Gegenthesen verbreitet. Selbst der Nachweis, dass es technisch geht, wird nicht akzeptiert.

–        Wenn wir aber sagen, das geht auf Grund von physikalischen und thermodynamischen Natur/Grundgesetzen nicht, dann wird das als Verweigerungshaltung interpretiert.

–        Das gleiche gilt für Forderungen nach Entwicklungen neuer Technologien, die seit vielen Jahrzehnten untersucht werden, leider ohne Erfolg, und bei denen sich auch keine erfolgversprechenden Lösungen abzeichnen.

–        Vor allem aber Fragen der Kosten und der Wirtschaftlichkeit werden völlig falsch beurteilt, ja meist gar nicht in Betracht gezogen. All dies hängt in der politischen Diskussion aber nun mit dem Thema Klimaschutz und Erderwärmung durch CO2 zusammen. Ich möchte ausdrücklich betonen, um alle etwaigen Missverständnisse zu vermeiden, dass Maßnahmen zur Einsparung von Energie richtig und erforderlich sind, wenn sie bezahlbar sind. Dies war eine meiner wesentlichen Aufgaben und Ziele während meiner ganzen beruflichen Tätigkeit.

Und damit wären wir beim 2.Thema.

Frage ist, kann CO2 einen nennenswerten Einfluss auf das Klima auf dem Planeten Erde haben? Diese Frage ist fast zu einer existenziellen Glaubensfrage mutiert. In den USA haben ca. 34.000 Wissenschaftler Herrn Obama aufgefordert, das Thema CO2 aufzugeben, da CO2 keinen nennenswerten Einfluss auf das Weltklima haben kann. Diese These widerspricht aber den politischen Bestrebungen der „Antienergie Lobby“.  Ich habe mir auch Gedanken darüber gemacht, und diese in einer Arbeit unter dem Thema „Klimafakten“ ausgearbeitet.

Wichtigste Grundlage bei meiner Ausarbeitung ist das unter der Regie von Herrn S. Gabriel in Niedersachsen von drei wissenschaftlichen Instituten erarbeitete und herausgegebene Werke  „Klimafakten“, -ISBN 3-510-95872-1-. Ich habe es dabei, sie können es gerne einsehen.  Für mich das beste Werk und vor allem auch fundierteste, ja sogar spannend zu lesende Werk mit dieser Thematik, das erschienen ist.

Hier steht in der Einleitung:

–        „Es ist schwierig oder gar unmöglich, zwischen natürlicher Klimaentwicklung und einer durch den Menschen beeinflussten Klimaschwankung zu unterscheiden. Es bleibt festzuhalten, dass sich zahlreiche äußere Einflussgrößen des Klimas bislang nicht mit hinreichender Genauigkeit fassen lassen. Auch die komplexen internen Prozessabläufe, die das Klima sowie dessen Zustände beeinflussen, sind nicht hinreichend entschlüsselt“.

In einem Bericht der amerikanischen National Academy of Sciences (NAS) steht:

–        „ Unsere Kenntnis der Mechanismen des Klimawechsels sind so bruchstückhaft wie unsere Daten. Nicht nur sind die grundlegenden wissenschaftlichen Fragen großenteils unbeantwortet, sondern in vielen Fällen wissen wir nicht einmal genug, um die entscheidenden Fragen zu stellen“.

Ähnliche Formulierungen und Vorbehalte finden sich auch im IPCC – Bericht, der Grundlage für alle Klimakonferenzen ist. Diese sind ehrlichen, überzeugenden Darlegungen, die in dem Werk „Klimafakten“ detailliert begründet werden, mit  eingehender Beschreibung der wesentlichen Einflussfaktoren auf das Klima.

Die wesentlichsten sind u.a.:

–        Temperatur der Luft; Temperatur der Atmosphäre;

–        Niederschläge; Verdunstung;  Luftfeuchtigkeit;

–        Wind; Bewölkung; Nebel;

–        Strahlungshaushalt; Sonneneinstrahlung; kosmische Strahlung;

–         Wasserzirkulation;

–        Wärmetransport in und durch die Meeresströmungen in den Ozeanen;

–        Wärmeaustausch zwischen Atmosphäre, Land und Ozeanen;

–        Präzessionskreis der Erdrotationsachse;

–        das Heiße innere der Erde und der Ozeane; Vulkantätigkeiten;

–        mineralogische Zusammensetzung der Erdkruste; Gasschichten und Gashüllen in der Atmosphäre;

–        die Oberfläche des Planeten Erde mit Eiskammern und Wüstengebieten;  Verwitterung;

–        Wärmeabstrahlung ins Weltall, und letztlich Einflüsse aus dem gesamten Weltall.

Diese wesentlichen in dem Werk einzeln beschriebenen Faktoren können noch beliebig erweitert werde, doch die NAS hat ja  gesagt, dass wir noch nicht einmal wissen, welche Faktoren das sein könnten. Dass  deutsche „Wissenschaftler“ verschiedener ÖKO-Institute, vor allem die Herren Prof. Schellnhuber und Rahmstorf dies alles wissen wollen, erscheint mir persönlich mehr als dubios. Auch die umfassendsten Modellrechnungen mit den größten Rechnern und Rechenprogrammen können diese Fragen nicht beantworten.  Die größten und modernsten Computer rechnen nur das aus, was mit den einzelnen Faktoren in die Programme eingegeben wird. Hier hat jeder ausreichende Variationsmöglichkeiten.

Hierzu noch ein Zitat aus „Klimafakten“:

–        „Die Klimamodelle, auf deren Vorausberechnung sich die ganzen „Global Warming“  Theorie stützen, sind grob falsch, unter anderem deshalb, weil der Einfluss der Wolken und vieler anderer, auch von der Sonne kommender Effekte völlig unzureichend berücksichtigt sind. Das stärkste Treibhausgas ist nicht CO2 sondern Wasserdampf. Rund 2/3 des gesamten sogenannten Treibhauseffektes der Erdatmosphäre wird vom Wasserdampf verursacht“.

Bei der Beurteilung des Klimas muss vor allem beachtet werden, dass keine regionalen Betrachtungen angestellt werden dürfen, sondern nur globale. Alle regionalen Beobachtungen führen bei einer Klimadiskussion zu grundlegend falschen Schlüssen.

Die USA-NASA-  messen seit 1979 mittels Satelliten die globale Temperaturverteilung auf dem gesamten Globus.

Danach wurde von 1979 bis 1986 eine niedrigere mittlere Temperatur bis -0,1 grad C gemessen. Danach stieg die Temperatur bis 2005 auf + 0,3 grad C an. Seitdem vermindert sie wieder und erreichte 2008 die gleiche mittlere Temperatur wie 1979. 2009 liegt sie bisher bei -0,1 gradC.

Prof. Menzel, Rektor der Fachhochschule Ruhr, früher Dortmund, stellte in einem Vortrag Anfang diese Jahres die These auf, dass für Klimaschwankungen vor allem die Sonnenstrahlung –Sonnenflecken- verantwortlich sein könnten. Er ermittelte auf Grund seiner Beobachtungen und Berechnungen, dass z.Zt. die mittlere globale Temperatur weiter sinkt, wir also vor einer „neuen kurzen Eiszeit“ stehen. Er sagt wörtlich, dass er sich als Wissenschaftler schäme, wenn Professoren  deutscher Klimainstitute, die nur Halbwahrheiten publizieren, als Wissenschaftler bezeichnet würden, dann wolle er keiner mehr sein.  Meine Frage:  ich möchte wissen, welcher und wie viele Politiker, die über diese Dinge oft rein populistisch reden, dieses Werk das, unter der ministeriellen Regie von Herrn Gabriel entstanden, gelesen haben?

Doch nun einige Worte zur Funktion des CO2 in der Atmosphäre.

CO2 ist ein Gas, das bei allen Verbrennungs- und Atmungsvorgängen entsteht.

Zusammengefasst:

–        CO2 ist ein Spurengas, das in der Atmosphäre mit einem Anteil von 380ppm oder 0,038 % enthalten ist;

–        Es entsteht bei allen Verbrennungsvorgängen, also von Holz, Kohle, Erdöl, Erdgas, kohlenstoffhaltigen Abfallstoffen usw.

–        Ferner durch Atmung von Menschen und Tieren und bei der Vermoderung von holzartigen Abfällen in der Natur, sowie bei Vulkanausbrüchen über der Erde und im Meeresboden.

–        Zwischen CO2 aus Verbrennungsprozessen und durch Atmung der Menschen besteht chemisch und damit auch hinsichtlich einer eventuellen Auswirkung auf das Klima kein Unterschied;

–        CO2 ist der beste Pflanzendünger, die Land- und vor allem Forstwirtschaft haben hierdurch bedeutende Vorteile;

–        Wissenschaftliche Untersuchung im Eis der Polargegenden habe zweifelsfrei gezeigt, dass eine Erhöhung des CO2-Gehaltes in der Atmosphäre stets Folge aber nie Ursache einer Erwärmungsphase war;

–        Es gibt keinen einzigen wissenschaftlichen Beweis, dass CO2 einen Einfluss auf das Klima hat;

Daraus folgt:

–        Ohne CO2 ist der Planet Erde unbewohnbar, Sauerstoff und Kohlendioxid sind die wichtigsten Gase in der Luft, die Menschen, Tiere und Pflanzen zum Atmen benötigen.

Hier eine kurze Modellrechnung, die jeder sofort ohne Rechenprogramm nachvollziehen kann:

–        Die Menschen atmen im Schnitt bei normaler Belastung etwa 320kg CO2/Jahr aus;

–        Der CO2-Ausstoss der Tiere wird in etwa in der gleichen Größenordnung angenommen;

–        Hochgerechnet auf 82 Millionen Einwohner der BRD sind dies ca. 30 Millionen toCo2/Jahr;

–        Der gesamte anthropogene CO2-Ausstoß der BRD beträgt ca. 870 Millionen toCo2/Jahr;

–        Der gesamte weltweite CO2-Ausstoss beträgt ca. 28,2 Milliarden to/Jahr;

–        Damit beträgt der Anteil der BRD weltweit 3,1%;

–        Es ist das Ziel der Bundesregierung, diesen Ausstoß in den nächsten 10 Jahren um 20%, also um ca. 200 Millionen to zu senken;

–        Die CO2- Produktion allein in China beträgt ca.3,5 Milliarden toCO2/Jahr, diese steigert sich in diesem Entwicklungsland um ca. 10%/Jahr, also um ca. 350 Millionen  to;

–        Damit produziert allein China pro Jahr etwa doppelt so viel CO2 zusätzlich, wie die BRD in 10 Jahren einsparen will;

–        Ähnliche Steigerungsraten haben  die anderen großen Entwicklungsländer Indien, Brasilien, alle asiatischen Staaten usw.;

Es ist leicht zu erkennen, dass die Zielsetzung der BRD völlig wirkungslos bleiben wird, wenn das CO2 überhaupt eine klimarelevante Bedeutung hätte, denn wir haben wissenschaftlich gesehen keine begründbare globale Erwärmung, sondern lediglich die seit Jahrtausenden vorkommenden periodischen Temperaturschwankungen. CO2 spielt dabei keine erkennbare Rolle. CO2 als „schmutziges Gas“ oder gar „Giftgas“ zu bezeichnen, wie öfter von Presse und Politikern zu hören, ist ein Zeichen von fehlender Bildung.

Alle CO2 – Theorien basieren nur auf Rechenmodellen, hierzu muss man folgendes wissen:

–        Die Zahl der unbestimmten Faktoren ist das Maß der Ungenauigkeit der Rechnung;- ein mathematischer Grundsatz;

–        Jedes Institut kann beim derzeitigen Erkenntnisstand der Klimaforschung die Faktoren in die Rechenprogramme so eingeben, dass das Ergebnis herauskommt, das man vorher habe will;

–        Die ganze „Klimaphilosophie“ beruht auf solchen Modellrechnungen;

Herr Dr. Dittrich, früher Entwicklungschef bei Thyssen, hat die Modellrechnungen des Potsdamer  ÖKO-Institutes mit dessen eigenen Programmen nachgerechnet und hat in mehreren Beiträgen,  nachgewiesen, dass in diese Berechnungen völlig falsche Werte eingesetzt worden sind.  Die Bundesregierung kennt diese Ausarbeitungen, Herr Gabriel, ist informiert, ein erbetener Besprechungstermin konnte bis heute nicht vereinbart werden.

Nun zum 3. Themenkreis, der Erzeugung elektrischer Energie.

Hierzu folgende Thesen als Grundlage zur Beurteilung:

–        Elektrische Energie, also Strom, wird in Kraftwerken durch Verbrennung von kohlenstoffhaltigen Brennstoffen verschiedener Art, vor allem durch Steinkohle, Braunkohle, Erdgas und  Erdöl.

–        Dabei entsteht durch die Verbrennung des Kohlenstoffs CO2, das ist verbrennungstechnisch nicht vermeidbar;

–        Aus den erzeugten Verbrennungsgasen, die Temperaturen von ca. 1.500 grad C haben, wird Dampf mit hohen Drücken und Temperaturen erzeugt. Dieser Dampf wird in Dampfturbinen, die Generatoren antreiben, zur Stromerzeugung genutzt;

–        Aller erzeugte Strom, auch der aus Windkraftanlagen,  wird praktisch in gleichartigen Generatoren erzeugt, nach identischem physikalischen Prozess;

–        Nach Einspeisung des Stroms in die Strom-Übertragungsnetze kann nicht mehr unterschieden werden, in welchen Anlage der Strom erzeugt worden ist;

–        Weiter wird Strom in geringerer Menge in Erdgas/Erdöl-Gasturbinen, Dieselmotoren, Wasserturbinen, Windturbinen, die alle Generatoren antreiben, und in Solaranlagen erzeugt.

Bei der Stromerzeugung müssen folgende Kernfragen beachtet werden, sie müssen die Grundlage jeder Energiepolitik sein:

–        Die Stromerzeugung ist der einzige Produktionsprozess in der Wirtschaft, bei dem die Nachfrage unmittelbar und in Sekunden die Höhe der Produktion bestimmt;

–        Die Speicherung von Strom zum Ausgleich von Belastungsschwankungen ist nur bedingt und mit hohen Kosten und Wirkungsgradverlusten möglich, also aus wirtschaftlichen Gründen nur in geringem Umfang machbar;

–        Die Entwicklung von Speichermöglichkeiten, vor allem von Batterien, ist seit Beginn der Stromerzeugung vor mehr als 140 Jahren Schwerpunkt aller weltweiten Forschungsarbeiten. Alle Anstrengungen sind de facto erfolglos geblieben. Es zeichnet sich auch leider kein technisch und wirtschaftlich erfolgversprechender Durchbruch an;

–        Alle Stromerzeugungsanlagen müssen daher regelbar sein, das heißt, sich den Schwankungen in den Übertragungsnetzen anpassen können;

–        Auf Grund des Gesetzes, dass die Stromversorgung für alle Abnehmer gesichert sein muss, muss die installierte Kraftwerksleistung in der Lage sein, die Stromversorgung auch bei den höchsten Belastungsspitzen sicherzustellen, die Kraftwerke müssen aber auch im Teillastbereich betreibbar sein;

–        Alle konventionellen Kraftwerke sind hierzu in der Lage;

–        Die Anlagen mit „Erneuerbaren Energien“ können dies nicht, sie erzeugen nur Strom, wenn der Wind weht und die Sonne scheint;

–        Der in diesen Anlagen erzeugte Strom muss von den großen Kraftwerksbetreibern aber auf Grund des EEG-Gesetzes immer abgenommen und gekauft werden. Dadurch müssen zwangsläufig bestehende und am Netz befindliche Kraftwerke im Teillastbereich unwirtschaftlichen  Strom produzieren. Die hierdurch entstehenden Kosten werden den Stromabnehmern durch  höhere  Preis verrechnet.

Die Kosten der Stromerzeugung bis zur Einspeisung in die Übertragungsnetze in den verschiedenen Anlagen sind in etwa folgende:

–        Wasserkraftwerke: ca. 4,3 cent/kwh;

–        Kernkraftwerke:       ca. 2,65 cent/kwh:

–        Braunkohlekraftwerke:  ca. 2,40 cent/kwh;

–        Steinkohlekraftwerke: ca. 3,35 cent/ kwh;

–        Erdölkraftwerke: ca. 4 – 5 cent/kwh;

–        Erdgaskraftwerke:  ca. 4,90 cent/kwh;

–        Windkraftwerke:  ca. 10 – 16 cent/kwh;

–        Solaranlagen:  ca. 40 – 60 cent/ kwk;

Als Ingenieur war ich 40 Jahre lang bemüht, meist die Wirkungsgarde von Stromerzeugungsanlagen um wenige 1/10 % zu verbessern. Dass Politiker heute einen Verteuerungsfaktor von 5 – 30, also um 500% bis zu 3.000% für „machbar“, also der Bevölkerung für zumutbar, halten, darüber soll sich jeder seine eignen Gedanken machen.

Die Erzeugungskosten des Stroms aus „Erneuerbaren Energien“, also aus Wind- und Sonnenanlagen, können so lange nicht wirtschaftlich werden, bis es wirtschaftliche Speichermöglichkeiten gibt, und diese sind seit hundert Jahren nicht in Sicht und werden in den nächsten Jahrzehnten auch nicht zur Verfügung stehen. Daher werden sie für diesen Zeitraum auch nicht wirtschaftlich werden können, alle anderen Aussagen sind illusionistisch.

Noch einmal die Kostenproblematik dieser Anlagen:

–        Auf Grund des EEG-Gesetzes, muss der in Anlagen mit Kraft-Wärmekopplung, in Wind- und Sonnenanlagen teuer erzeugte Strom von den Energieversorgern zu hohen Preisen abgenommen werden und bezahlt werden;

–        Die Kosten werden in die Strompreise für alle Verbraucher eingerechnet , der Strom wird also verteuert;

–        Nach Ansicht von Politikern sind dies keine Subventionen;

–        Zusätzlich werden die Investitionskosten von „Erneuerbaren Energie“ aus Steuermitteln mit Milliardenbeträgen hoch subventioniert;

Aus diesen Überlegungen heraus, und weil die weltweiten Reserven an den Edelenergien Öl und Gas irgendwann einmal enden oder sehr teuer werden, werden weltweit neue Kernkraftwerke geplant und gebaut. Diese These wird weltweit als richtig angesehen wird, nur nicht in Deutschland. Eine gesicherte Versorgung der Welt ohne Stromerzeugung aus Kernkraftwerken ist auf Dauer unmöglich, also eine Illusion. Vor allem die Staaten, die über die größten eigenen fossilen Energie-Rohstoffe verfügen, wollen Kernkraftwerke bauen. Nur nicht Deutschland, das rohstoffärmste Land der Welt. Dass elektrische Energie in Kraftwerken mit Verbrennung von kohlenstoffhaltigen Medien erzeugt wird, dürfte bekannt sein. Es sind feste und flüssige Brennstoffe. Die Energiepolitik der 50iger bis etwa 80iger Jahre ging von dem Grundsatz aus, in Großkraftwerken möglichst nur feste Brennstoffe, also Kohle/Braunkohle zu verbrennen. Die flüssigen und gasförmigen „Edelbrennstoffe“ Öl und Gas sollten überwiegend zur Nutzung in kleineren Anlagen, also Haushalten und Kraftfahrzeugen, sowie als Grundstoffe für chemische und verfahrenstechnische Prozesse dienen, da die  Vorkommen dieser Brennstoffe auf der Erde endlich sind und gestreckt werden sollen. Weiter wurde damals schon mit großen Preissteigerungen bei einer Verknappung gerechnet.

Bei einem Vortrag am 19.Juni 2009 in der Düsseldorfer Akademie der Wissenschaft des Landes NRW hat Herr Prof. Dr. Carl Friederich von Weizäcker in einem umfassenden Vortrag nachgewiesen, dass die Energieversorgung der Welt ohne Nutzung der Kernkraft auf Dauer unmöglich ist.

Für die BRD ergeben sich aus dieser Aussage folgende Probleme:

–        Wenn in Deutschland keine neuen Kernkraftwerke gebaut werden, dann tun es unsere Nachbarn an unseren Grenzen. Die dann zwangsläufig höheren Stromkosten gehen voll zu Lasten der Deutschen Verbraucher;

–        Wegen des hohen Anteils an Strom aus Kernkraftwerken liegen die Strompreise in Frankreich in allen Tarifgruppen bei etwa 50% der deutschen Tarife;

–        Z.Zt. sind weltweit etwa 400 Kernkraftwerke in der Planung. Für jedes dieser Kernkraftwerke werden ca. 3 Milliarden Euro investiert, das sind 1,2 Billiarden Euro;

–        Die deutschen Kraftwerksbauer hatten einen Anteil von etwa 20% am Weltmarkt, damit gehen der deutschen Wirtschaft rund 240 Milliarden Aufträge verloren, mit den entsprechenden Arbeitsplatzverlusten;

Die in Deutschland in Betrieb befindlichen Kernkraftwerke, auch die älteren Anlagen, sind unzweifelhaft mit die besten und sichersten weltweit. In allen Betriebsjahren ist nicht ein einziger Unfall mit Strahlungsfolgeschäden erfolgt, weder beim Bedienungspersonal und schon gar nicht in der Bevölkerung. Diese sicheren Anlagen sollen jetzt, da weltweit ca. 400 neue Kernkraftwerke in Planung sind, stillgelegt werden. Einen größeren volkswirtschaftlichen Unsinn kann man nicht erdenken.

Zur Beurteilung der nuklearen Probleme bei Störungen in Kernkraftwerken hat die Internationale Atomenergiebehörde Beurteilungskriterien festgelegt. Dies beinhalten 8 Störungsstufen die folgende Aspekte berücksichtigen: Radiologische Auswirkungen außerhalb der Anlage; Radiologische Auswirkungen innerhalb der Anlage; Beeinträchtigung von Sicherheitsvorkehrungen. Diese werden charakterisiert nach Unfällen, Störfällen und Störungen.

In den letzen 15 Jahren traten in allen deutschen Kernkraftwerken 2198 sogenannte meldepflichtige Ereignisse ein. Hiervon betrafen 3 die Stufe 3, 98% die Stufe 0. Selbst die Störungen im KKW Krümel wurde mit der Stufe 0 beurteilt.    Wenn Politiker und die Presse auf „Ereignisse in KKW“ hinweisen, dann sollten sie auch den Gefährdungsgrad nach dieser international gültigen Skala erwähnen.

In den 60iger Jahren wurde mit der Entwicklung der Hochtemperatur-Reaktortechnik  begonnen. Hieran war ich als Ingenieur in führender Position bei BBC/Krupp beteiligt.  Die Ausarbeitung eines Vortrages, den ich kürzlich im KKW Biblis der RWE gehalten habe, „Die Technik der Hochtemperaturreaktoren“  können Sie gerne einsehen, wer möchte, möge mir bitte seine e-mail Adresse geben, ich schicke ihn dann zu. Eine Graphitkugel, diese sieht genau so aus,  wie ein Brennelement, habe ich Ihnen mitgebracht. Ich kann den 20 seitigen Vortrag, er hat in Biblis eine Stunde gedauert, Ihnen hier nicht vortragen. Mir wurde der Vorwurf gemacht, dass ich die Technik so genau beschrieben hätte, dass er praktisch eine Bauanleitung für diese Reaktoren sein könnte.

Ich möchte daher nur kurz auf die Vorteile dieser Technik eingehen:  Die Idee stammt von Prof. Dr. Rudolf Schulten, als er junger Physiker und Ingenieur bei BBC war.

Grundlagen seiner Überlegungen waren:

–  Kugelförmige Brennelemente wegen der gute Handhabbarkeit im Reaktor;

– Umwälzung, also Beladung des Reaktors während des Betriebes;

– Graphit als Hauptwerkstoff für die Brennelemente und Reaktoreinbauten;

– Helium als Kühlmittel;

–  aus Uran 235 und Thorium 232 als Brennstoff mit der Möglichkeit,   neuen Brennstoff zu erbrüten;

– Hohe Temperaturen und Drücke bei der Dampferzeugung mit der Möglichkeit, hohe thermodynamische Wirkungsgrade zu erzielen und die Hochtemperaturwärme zur Anwendung in chemischen Prozessen mit dem Ziel, aus Bio-Massen flüssigen Brennstoff zu erzeugen.

– Die Möglichkeit, neuen nuklearen Brennstoff zu erbrüten. Dadurch ist die Versorgung von Kernkraftwerken mit nuklearem Brennstoff auf hunderte von Jahren gesichert.

– eine inhärente Sicherheit des Systems durch Vermeidung einer Kernschmelze- „GAU“- auch bei kompletten Ausfall der Reaktorkühlung – Ursache des Unfalls in Tschernobyl- zu vermeiden.

Dies wurde 1967 bei der Inbetriebnahme des AVR Reaktors in Jülich erprobt. Der 1. GAU fand also nicht in Tschernobyl, sondern in Jülich statt. Hier flog der Reaktor nicht in die Luft, sondern kühlte sich langsam von alleine ab. Dieser Vorgang wurde 1977 und dann auch in China wiederholt, mit dem gleichen Ergebnis. Nach dem genannten AVR, der 1966 mit einer  Leistung von 15 MW in Betrieb ging und praktisch störungsfrei bis 1989 lief, wurde ab 1970  der THTR in Schmehausen gebaut, hier mit einer Leistung von 300 MW. Dieser Reaktor wurde nach 16.000 Betriebsstunden 1989 aus politischen Gründen stillgelegt.

Nun wird diese HTR Entwicklung in China und SA mit unserem know how weitergeführt, mit dem zu vermutenden Ergebnis, dass wir später für unser know how, mit dem wir in den 60iger bis 80iger Jahren weltweit konkurrenzloser Spitzenreiter waren, Lizenzgebühren bezahlen müssen.

Bei der Ausarbeitung meines Vortrages habe ich mir die Frage gestellt, ob wir diese Spitzenstellung mit den bei uns vorhandenen Kenntnissen und Betriebserfahrungen nochmals erreichen können. Meine Schlussfolgerung nach Durcharbeitung vieler Unterlagen ist, wir können es in etwa 2 Jahren wieder sein. Während des Betriebes beider Kernkraftwerke ist keine einziger nennenswerter Unfall mit „Strahlenfolgen“ aufgetreten, weder beim Betriebspersonal noch in der Umgebung.

Die Betriebserfahrungen mit beiden Reaktoren zeigen:

–        HTR – Kraftwerke können im elektrischen Verbundnetz regelungstechnisch einwandfrei eingesetzt werden;

–        Die Anlagen sind sicherheitstechnisch problemlos zu betreiben;

–        Die Bestrahlungsdosis des Personals ist bei Betrieb und selbst bei Reparaturarbeiten am offenen Primärteil sehr gering;

–        Sicherheitstechnisch begründete Betriebseinschränkungen oder sicherheitstechnisch relevante Schäden hat es bei beiden Anlage nicht gegeben;

–        Die Gesamtanlage und alle Anlageteile konnten im großtechnischen Einsatz erprobt werden;

–        Die Sicherheitstechnik ist soweit entwickelt, dass selbst bei einer größten überhaupt denkbaren Störung keine Gefahr für das Bedienungspersonal oder die Bevölkerung gegeben ist. Selbst dann ist eine Evakuierung der Bevölkerung im engen Umkreis der Anlage nicht erforderlich.

Preiswerte Energie ist die Grundlage jedes wirtschaftlichen Fortschritts. Dass Strom aus Kernkraftwerken billiger ist, zeigt und Frankreich. Hier liegen die vergleichbaren Stromtarife für alle Abnehmer bei etwa 50% der Tarife in Deutschland.

Herr Werhahn hat diese Technik als „Grüne Atomkraftwerke“ bezeichnet. Eine treffende Formulierung, denn alle Argumente der Umweltschützer gegen Atomkraftwerke treffen hier nicht zu.

Ich sehe in dieser Technik die wohl einzige Chance, dass sich Deutschland  von Primärenergieimporten unabhängiger machen kann.

Zur Beurteilung der Frage der Gefährdung bzw. Strahlenbelastung der Bevölkerung durch Kernkraftwerke sollten auch folgende Kriterien berücksichtigt werden:

–        Seit Millionen von Jahren wird alles Leben auf der Erde durch die Sonne und aus der Erdkruste heraus radiologisch belastet;

–        die Frage, ob die Erde überhaupt bewohnbar ist ohne diese Strahlungen ist ungeklärt;

–        In Deutschland ist die Strahlung im Feldberggebiet im Schwarzwald mit 1.800 mrem oder 18 mSv am höchsten. Es ist kein Fall einer Strahlenschädigung bekannt.

–        Die mittlere Kollektivdosis während der Betriebszeit des von den Gegnern „geschmähten“ THTR-300 betrug 45 Personen mSv/Jahr, bei Reparaturen am offenen Kern lag sie zeitweise bei zulässigen 100 mSv;

–        Beim AVR lag die Strahlenbelastung zum Zeitpunkte der Stilllegung bei 0,39 mSv/Jahr für das Betriebspersonal, also weit niedriger, als  an „Land“;

–        Durch das Unglück in Tschernobyl (Stufe 7) wurde die Umgebung des THTR in Schmehausen mit nuklearen Niederschlägen in Höhe von 50.000 Becquerel (Bq) belastet;

–        Das Öko-Institut in Freiburg behauptet in einer Pressekampagne gegen den THTR, dass diese Belastung vom THTR durch eine unbeabsichtigte Freisetzung leicht radiologisch belasteten Heliumgases hervorgerufen wurde.  Diese Behauptung war falsch, der zusätzlich radiologische Niederschlag lag nur bei 0,1 Bq. Ein Beweis, welchen Wahrheitsgehalt die „Horrormeldungen“ solcher Institute haben.

–        Der HTR ist weltweit der einzige „katastrophenfreie Reaktor“.

Nun noch einige Bemerkungen zur Frage der Endlagerung, primär am Beispiel des THTR-300:

–        Die hochstrahlenden Brennelemente sind nach Stilllegung und Abzug aus dem Reaktorkern in Aahaus eingelagert worden;

–        Alle anderen strahlenden Anlageteile und Komponenten lagen innerhalb des Spannbetonbehälters, der auch die Funktion der Strahlenabschirmung hatte. Außerhalb dieses Behälters lagen keine noch strahlenden Anlageteile;

–        Der Sekundärteil wurde verkauft, da völlig unbelastet, und ist heute noch in Betrieb;

–        Das drucklose Containment, die Luftführungswand, wurde beibehalten;

–        Alle Durchdringungen durch Spannbetonbehälter und Containment wurde gasdicht verschweißt, mit verhältnismäßig geringem Kostenaufwand;

–        Der Raum zwischen Spannbetonbehälter und dem Containment ist radioaktiv völlig unbelastet und kann ohne Schutzbekleidung und sogar ohne Strahlendosis-Mess-Plakette betreten werden;

–        Ein sichererer Einschluss von hochstrahlende Teilen und damit sicherere Zwischen/Endlagerung ist nicht denkbar;

Daraus folgt, dass eine sichere Endlagerung strahlender Reaktorkomponenten nach Betriebsende oder von während des Betriebes ausgetauschten Komponenten technisch realisierbar ist, zu relativ geringen Kosten. Allerdings müssen ideologische, unrealistische Vorstellungen und Forderungen vermieden werden. Der Beweis, einer sicheren Lagerung liegt in Schmehausen seit nunmehr 20 Jahren vor. Niemanden stört diese Anlage, aber auch niemand will dies zur Kenntnis nehmen, denn dann würde ja zugegeben, dass das Problem der Endlagerung einwandfrei lösbar ist. Dann wäre aber auch die politische Diskussion beendet, und das wollen Politiker, die gegen die Kerntechnik sind, und auch die KKW-Gegner nicht zugeben.

Zum Schluss nochmals  einige Kernsätze  zu den sogenannten „Erneuerbaren Energien“, vor allem Sonne und Wind:

–        Die Verfügbarkeit dieser Anlagen liegt bei 1.000 bis 1.500 Stunden im Jahresdurchschnitt;

–        Die Jahresverfügbarkeit aller konventionellen Anlage einschließlich der KKW liegt bei max. 8.760 Stunden im Jahr, im Durchschnitt, wegen des erforderlichen Teillastbetriebes, bei etwa 65-70%;

–        Die Behauptung und Zielsetzung, dass „erneuerbare Energien“ in Zukunft zu 100% die Stromversorgung sicherstellen können, ist barer Unsinn. Die erforderlichen Speicherkapazitäten  sind gar nicht realisierbar, weder technisch und schon überhaupt nicht wirtschaftlich.

–        Wenn diese unrealistischen Vorstellungen von Politiker realisiert würden, würde der Strompreis bei geschätzten 5 – 10 Euro/Kwh liegen;

–        Ohne Kernkraftwerke sind die sozialen Sicherungssysteme der BRD auf Dauer nicht finanzierbar.

–        Diese Politik ist also die denkbar unsozialste Politik, die überhaupt denkbar ist.

Wenn die Finanzkrise mit ihren Auswirkungen auf die gesamtwirtschaftliche Entwicklung und die dabei entstehenden Steuerausfälle zu einer realistischen und gesamtwirtschaftlich vernünftig durchdachten Umwelt-, Energie- und Klimapolitik führen würde, wären ihre Nachwirkungen   zum Vorteil für die Wirtschaft, denn das, was weltweit, aber vor allem in Deutschland, denn hier sind wir weltweit einsame Spitze, durch eine solche Politik an Finanzmitteln eingespart werden könnte, würde alle Verluste, die  durch die Finanzkrise entstanden sind, vor allem die Steuerausfälle, in wenigen Jahren egalisieren.

Herr Hans Werner Sinn hat ein Buch herausgegeben, „Das grüne Paradoxon“. Es ist ein beachtenswertes Buch.

Wolfgang Clement hat den Begriff der „Deutschland AG“  im internationalen Wettbewerb geprägt und in einem Vortrag gefordert, den Weg zur „Deindustriealisierung in Deutschland endlich zu verlassen. Dieser Weg zur „Deindustriealisierung“ führt zwangsläufig zur „Destabilisierung“ der Deutschen Wirtschafts- und Sozialpolitik. Die Folgen dieser Politik sind leicht zu erahnen, ja heute bereits offen zu erkennen.

Altkanzler Helmut Schmidt hat dies erkannt. Er schreibt in der Einleitung seines Buches „Außer Dienst“:

„Salus publica supreme lex“.

Welche Politiker handeln noch danach?

Dr.-Ing. Urban Cleve Dortmund

Related Files




Kernkraftindustrie macht Kotau vor den Linken!

Es ist wie ein Dejavue Erlebnis. Die (restliche) deutsche Kernkraftwirtschaft versucht mit ihren ideologisch geführten Todfeinden eine Appeasementpolitik zu fahren. Haben wir denn aus der Geschichte nichts gelernt. "Mit einer Warnung vor akuten Engpässen in der Stromversorgung schaltet sich die deutsche Atomindustrie in den Bundestagswahlkampf ein. Daniel Wetzel von der Welt schreibt: "Wenn es beim Atomausstieg bliebe, würden schon in der nächsten Legislaturperiode sieben der 17 deutschen Atomkraftwerke abgeschaltet", warnt der Präsident des Deutschen Atomforums, Walter Hohlefelder: " Das sind fast zehn Prozent der Stromproduktion und fast 20 Prozent der Grundlast."

"Ich habe den Eindruck, dass sich in Politik, Medien und Öffentlichkeit viele nicht hinreichend darüber im Klaren sind, was das bedeutet", so Hohlefelder weiter: "Damit würde die Versorgungssicherheit massiv gefährdet, die Klimaschutzziele nicht erreicht und der Wirtschaftsstandort Deutschland ganz erheblich geschwächt." Deshalb will der Präsident des Deutschen Atomforums Hohlfelder der Branche der erneuerbaren Energien  eine "Allianz" vorschlagen. Laut Redemanuskript, das der WELT vorliegt, erklärt sich der oberste Atomkraftlobbyist bereit, unmittelbar nach der Bundestagswahl über einen "politischen Preis" für die Laufzeitverlängerung der deutschen Reaktoren zu verhandeln: "Ab dem 27. September 18 Uhr sind wir bereit, unsere Vorschläge auf den Tisch zu legen." so Hohlefelder. Jedoch hatten Verbände der erneuerbaren Energien  jüngst vor einer Laufzeitverlängerung gewarnt, weil dies den weiteren Ausbau alternativer Energien behindern würde.

Warum nun das deutsche Atomforum glaubt mit einer Unterwerfung vor ihren Todfeinden -die sich einen Teufel um das Wohlergehen dieses Landes scheren-  diese von ihrem schändlichen Tun abzubringen, ist nicht nachzuvollziehen. Im Gegenteil, sie werden diese unnötige Unterwerfung als Beginn ihres vollständigen Sieges ansehen, der mit der Deindustrialiserung Deutschlands endet. Schließlich gab schon der Koordinator des Nachhaltigkeitsgipfels 1992 in Rio (und Vorläufer von Kyoto) der kanadische Multimillionär und enge Freund Mao Tse Dongs die Parole aus: „Besteht nicht die einzige Hoffnung für diesen Planeten in dem Zusammenbruch der industriellen Zivilisation? Liegt es nicht in unserer Verantwortung, dafür zu sorgen, dass dieser Zusammenbruch eintritt?“

Übrigens ein Blick in die Geschichte lehrt: kaum daß Chamberlain zuhause freudig seine Appeasementpolitik  als großen Sieg verkaufte, begann der Vertragspartner Hitler den 2. Weltkrieg und überzog den Schützling Chamberlains – die Polen – mit Krieg.

Es liegt uns ferne den gutgläubigen Förderern der links-grünen Idee jegliche konservative Energieerzeugung zugunsten der Erneuerbaren abzuwürgen, die Gedanken und Ziele des Despoten im 3. Reich zu unterstellen. Das wollen sie sicher nicht. Es läuft aber im Endergebnis auf eine schnelle Deindustrialisierung Deutschlands und damit auf die Vernichtung vieler, vieler Existenzen hinaus.

Michael Limburg EIKE