1

Super-GAU

Update: Anmerkungen zum "Atom-Expertentum" von Rolf Sträter (ganz nach unten scrollen)

 …Sind wir wirklich nicht mehr in der Lage, den Blick auf das Wesentliche zu richten? Sind wir nicht mehr in der Lage, in Ruhe zu überlegen und dann rationale Entscheidungen zu treffen? Der gestrige Tag hat eine offensichtliche Antwort beschert: Nein! 

Das Tempo, mit dem die deutsche Bundesregierung die Atom-Kehrtwende vollzogen hat, verdeutlicht, dass wir eine Gesellschaft der Getriebenen geworden sind. Getrieben von der Meinung der vielen. Getrieben von den Medien. Getrieben von Umfragewerten und anstehenden Wahlen. 

Angela Merkel hat sich gestern dort eingereiht. Wenn sich die Sicherheitslage bei den deutschen Atomkraftwerken innerhalb von 72 Stunden tatsächlich derart verändert haben sollte, wie es die Bundeskanzlerin und ihre Regierung gestern glauben machen wollten, dann gäbe es nur eine Schlussfolgerung: abschalten – und zwar sofort. Merkel hat sich zur Getriebenen machen lassen. Vor allem von der Personalie Stefan Mappus, der um seine Wiederwahl als Ministerpräsident in Baden-Württemberg fürchtet. 

Erreicht hat Merkel damit eins: Die Verunsicherung in der deutschen Bevölkerung ist noch größer geworden. Sind die deutschen Atomkraftwerke nun sicher oder nicht? Eine klare Antwort auf diese Frage gab es von der Kanzlerin gestern Abend nicht. Laut ARD-Deutschlandtrend glaubt inzwischen der Großteil der Deutschen, dass bei uns ein ähnliches Atom-Drama möglich sei wie in Japan. Ohne Erdbeben. Ohne Tsunami. 

Die meisten Deutschen haben in den vergangenen Tagen den Blick für das Wesentliche verloren. Den Blick auf die tapferen Menschen in Japan, die im Angesicht der atomaren Gefahr damit beginnen, ihre Existenzen wieder aufzubauen. 

Den Blick für die Trauernden, die Suchenden und die Gestorbenen. Statt über Atomkraftwerke in Deutschland zu zetern, sollten wir beten – dafür, dass den Japanern der Super-GAU erspart bleibt. 

Daniel Freimuth

Dieser Artikel erschien am 18.3.2011 im Hanauer Anzeiger. Wir halten ihn für sehr bemerkenswert, so dass wir ihn in voller Länge bringen. Mit Dank an Leser Dr. Stehlik EIKE.

Sie können ihn auch als pdf herunterladen.

Lesen Sie dazu auch den Beitrag von Ralf Sträter am 13.3.11 im Blog Ökowatch

 

In Japan hat die Erde gebebt, anschließend verwüstete eine riesige Welle die Pazifikküste des Landes. Viele Menschen starben, noch mehr Menschen verloren ihre Wohnungen. Mir tun die Menschen leid, die jetzt mit dem Wiederaufbau ihrer Existenz beschäftigt sind, die frieren und Hunger haben wegen der zusammengebrochenen Infrastruktur ihrer hochentwickelten Heimat. Jedoch gibt es – für die deutschen Medien – scheinbar Wichtigeres. Denn durch die Naturkatastrophe wurden zwei Kernkraftwerksblöcke beschädigt, japanische Fachleute sind aktuell dabei, Schlimmes zu verhindern. Augenscheinlich haben die deutschen Medien nichts besseres zu tun, als "Atom-Experten" zu befragen.

Was ist ein "Atom-Experte"? "Atom-Experten" arbeiten z.B. am Darmstädter "Öko-Institut", wahlweise auch bei Greenpeace, nicht unbedingt erforderlich scheint zu sein, sich mit Kraftwerken und deren Physik auseinandergesetzt zu haben. Als ich gestern den Fernseher anschaltete, strahlte mir auf N24 Atom-Experte Michael Sailer entgegen, Chemieingenieur vom Darmstädter Öko-Institut und Atom-Experte aus Leidenschaft. Im Interview ergab sich – aus dem Gedächtnis wiedergegeben – folgendes:

Journalist: Im Kraftwerkskontrollraum wurde eine um das eintausendfache erhöhte Strahlenbelastung festgestellt, ist es noch verantwortlich, da Leute zu lassen?

Experte: Es ist wohl der Zwang, um Schlimmeres zu verhindern, eintausendfach ist schon viel, aber nicht tödlich.

Ein wahrer "Atom-Experte" weiß selbstverständlich, daß eintausendfach viel ist, mehr zumindest als einhundertfach. Die Zahl in irgendwelche Relationen zu setzen, um dem Publikum, das eben nicht "Atom-Experte" ist, eine Einordnung zu ermöglichen, wurde versäumt, vermutlich weil man sich als "Atom-Experte" in dem ganzen Einheitenbrei nicht so auskennt und da viel wichtiger ist, daß eintausenfach ’schon ne Menge aber nicht tödlich‘ ist. Ich versuche das jetzt mal mit den Zahlen und versuche ohne "Atom-Experte" zu sein, die Zahlen in eine Relation zu bringen.

Im Normalbetrieb wird man im Kraftwerkskontrollraum etwa einer Strahlenbelastung von 0,23µSv/h ausgesetzt – außerhalb des Kontrollraums, wenn man in der kernkraftwerksfreien Landschaft spazieren geht, auch. Eintausendfach heißt für mich, daß die Strahlung im Kraftwerkskontrollraum 0,23mSv&h oder auf eine 8 Stunden Schicht bezogen 1,83 mSv beträgt. Dies alles sagt erstmal nicht so viel. Welcher Strahlenbelastung ist jemand ausgesetzt, bei dem ein Bänderriß vermutet wird und bei dem daher eine Computertomographie durchgeführt wird? Es sind etwa 20mSv. Die Kraftwerksmitarbeiter würden sich, wenn sie sich 88 Stunden oder 11 Schichten der ‚gefährlichen aber nicht tödlichen‘ Strahlendosis im Leitstand aussetzen, die gleiche Dosis abbekommen die eine ’nützliche heilsbringende‘ Computertomographie so hergibt.

Erstaunlicherweise sagt kein "Atom-Experte" Dinge, die irgendwas Konkretes hergeben können. Mich würde interessieren, wann der Spuk vorüber ist. Die Kraftwerke haben ja aktuell das nicht unerhebliche Problem, die Nachzerfallswärme abzuführen. Die Kraftwerke sind abgeschaltet, eine Kettenreaktion findet nicht mehr statt. Obwohl die "Atom-Experten" von ARD und ZDF durch Hervorkramen der alten Tschernobyl-Dokumentationen etwas anderes sugerieren wollen, ist im übrigen das ganze Szenario ein anderes, denn in Tschernobyl trat beim Abschalten ein schrecklicher Konstruktionsfehler zu Tage, der für kurze Zeit eine unkontrollierte Kettenreaktion zur Folge hatte. Mit der Nachzerfallswärme ist es etwas anderes. Sie ist erstmal viel weniger, aber noch besser, man kann sie, wenn man einige Daten des Kraftwerks kennt, recht einfach durch die von Way und Wigner aufgestellte Näherungsformel abschätzen. Auch die Wärmeleitfähigkeit des Containments kennt man, selbstverständlich ebenso den Schmelzpunkt der Brennstäbe und – wichtiger noch – den des Containments. "Atom-Experten" selbstverständlich rechnen nicht. In keiner Publikation konnte man etwas dazu lesen, wann es denn vorüber ist.

Statt dessen sieht man sinnlose Vergleiche und ebenso einen russischen Atom-Experten von Greenpeace Russland, der inhaltsschwanger berichtet "Ich fühle mich stark an Tschernobyl erinnert" und es hierdurch schafft, mit nur einem Satz dem Faß den Boden auszuschlagen. Ich nicht, ich bin häufig in der Ukraine und habe dort Freunde, allerdings in einer anderen Region, die Ukraine ist groß. Mir wurde von meinen Freunden glaubhaft versichert, daß es nicht direkt Sondersendungen gab. Die Sowjetunion begann drei Tage nach dem Unfall zu evakuieren – da ließ sich der Mist nicht mehr unter den Teppich fegen – in Japan begann man noch, ehe es überhaupt zur Freisetzung von strahlendem Material kam. Das fällt einem Greenpeace-"Atom-Experten" natürlich genausowenig auf wie die komplett unterschiedlichen Unfallhergänge und die gravierenden konstruktiven Unterschiede der Reaktoren.

Abschließend muß ich nochmals hervorheben, wie sehr ich die japanische Bevölkerung für das Unglück durch die Naturkatastrophe bedauere. "Atom-Experten" machen das nicht, die wittern das politische Geschäft ihres Lebens.

Übernommen von Ökowatch mit Dank an Rolf Sträter

Lesen Sie auch hier den klaren Artikel von Vera Lengsfeld auf ACHGUT

Hier wird beschrieben wie die Tagessschau vom 17.3.11 ihre Zuschauer in die Irre führt.

Related Files




„Nature“ präsentiert Wahnvorstellungen von Modellierern zur vermeintlichen Überflutungsgefahr in England

… in neun von zehn Fällen deutet unser Modell darauf hin, dass der im 20. Jh. vom Menschen verursachte  Treibhausgasausstoß das Risiko von Überschwemmungen in England und Wales im Herbst 2000 um mehr als 20% erhöht hat und in zwei von drei Fällen sogar um mehr als 90%

Zu Beginn meiner Analyse mußte ich erst einmal das Gesetz von der Güte wissenschaftlicher Autorenschaft zu Rate ziehen (Qualitative Law of Scientific Authorship). Es ist ein allgemeingültiges Gesetz und lautet:

Q ca = 1 / N^2

wobei Q die Güte der wissenschaftlichen Veröffentlichung ist, und N^2 das Quadrat der Anzahl der aufgelisteten Autoren. Noch wichtiger ist aber, dass wir uns erst einmal folgender Frage zuwenden: Wie viele historische englische Überschwemmungen haben die Autoren ausgewertet, um zu ihrem Urteil über das Überschwemmungsrisiko in England zu kommen?

Seltsamerweise haben sie überhaupt keine historischen Daten von Überschwemmungen ausgewertet. Kein Scherz, auch keine trickreiche Behauptung! Folgendermaßen sind sie vorgegangen:

Sie haben ein einzelnes Computer-Klima-Modell mit jahreszeitlicher Auflösung (HadAM3-N144) benutzt, um 2 268 Einzeljahre mit synthetischen Herbstwetter-Daten zu erzeugen. Die beobachteten Klimavariablen vom April 2000 (Temperatur, Luftdruck, usw.) wurden als Eingangswerte für das HadAM3-N144 Modell benutzt. Damit wurde das Modell gestartet und man ließ es mehrere tausend Male sich wiederholen. Die Auhoren von Pall2011 nennen diese vom Computer erzeugten 2 268 Einzeljahre die „Daten“ des “A2000 Klimas”. Ich werde es  das „A2000 synthetische Klima“ nennen, damit keine Verwechslung mit der Wirklichkeit stattfindet.

Das „A2000 synthetische Klima“ ist ein ganzes Universum von mehreren tausend Einzeljahres-Rechenergebnissen aus einem einzigen Computermodell (mit einem festen Satz von internen Parameter-Einstellungen). Vermutlich sind die benutzten Parameter im Modell gut abgebildet … Das heißt noch lange nicht,  dass deren wirkliche Variation im Modell gut abgebildet wäre. Aber ich schweife ab. 

Die 2.268 fache Modellsimulationen für ein Jahr des A 2000 Herbstwetter-Datensatzes wurden dann in ein zweites, viel einfacheres Modell eingegeben, in ein “Niederschlags-Ablauf Modell” (P-R). Dieses P-R Modell schätzt die Flußpegel in SW-England und Wales ab. Es geht von den Niederschlägen in den Gitternetzkästchen aus.

Anschließend wurde das P-R Modell mit Hilfe der Ergebnisse aus einem dritten Klima-Modell kalibriert,  dem ERA-40 Computermodell, das historische Daten reanalysiert. Wie die anderen Modelle wirft das ERA-40 die Variablen bezogen auf ein globales Gitternetz aus. Die Autoren haben multiple lineare Regression eingesetzt, um das P-R Modell zu kalibrieren, dergestalt, dass zwischen den angezeigten Flußpegelständen der 11 untersuchten englischen Niederschlagsmessungen mit den ERA-40 computerausgewerteten Gitternetzdaten die beste Übereinstimmung erzielt wurde.
Wie gut die Übereinstimmung mit der Wirklichkeit zusammenpaßt? Keine Ahnung, darüber haben sie nichts gesagt …

Also unter dem Strich kommen irgendwelche Daten heraus. Aber diese Daten wurden überhaupt nicht analysiert. Stattdessen wurden sie benutzt, um die Parameter des P-R Modells einzustellen.

Fassen wir ein Zwischenergebnis zusammen:

•  Wirkliche Daten vom April 2000 und wirklichen Muster von Bodentemperaturen, Luftdruck und anderen Variablen sind in ständiger Wiederholung als Eingabedaten für 2 268 einjährige Wetterberechungen benutzt worden. Die Ergebnisse werden das „A2000 synthetische Klima“ genannt. Dieses 2 268fache einzeljährige Wetter wurde benutzt als Eingabe für ein zweites Modell zur Errechnung des Abflusses des Niederschlags über die Flüsse. Dieses P-R Modell wurde dann auf die beste Übereinstimmung mit den Reanalyse-Ergebnissen der auf das Gitternetz bezogenen Niederschläge getrimmt. Mit Hilfe der A2000 Wetterdaten erzeugt das P-R Modell  2 268 Jahre mit synthetischen Flußpegelständen und Hochwasserdaten.

So! Das war die erste Halbzeit.

In der zweiten Halbzeit haben die Autoren die Ergebnisse von vier globalen Zirkulationsmodellen (GCM) benutzt. Daraus haben sie errechnet, wie eine synthetische Welt ausgesehen hätte, wenn es keine anthropogenen Klimaänderungs-Antriebe gegeben hätte. Oder in den Worten von Pall2011: jedes der vier Modelle erzeugte “eine hypothetische Lage, welche die “Erwärmung der Erdoberfläche” abbildete, wie sie vielleicht ohne anthropogene Treibhausgasemissionen eingetreten wäre (A2000N).”
Und so beschreiben sie die Veränderungen zwischen A2000 and A2000N:

In der A2000N-Lage wird versucht, einen hypothetischen Herbst 2000 im [HadAM3-N144] Modell abzubilden, indem die A2000-Lage wie folgt verändert wird: Treibhausgasemissionen sind auf die Mengen des Jahres 1900 zurückgesetzt; SSTs [Temperaturen über der Meeresoberfläche] werden verändert, indem der den Treibhausgasemissionen zurechenbare Erwärmungsanteil herausgerechnet wird, wobei die Ungewißheit in Rechnung gestellt ist; das Meereis ist gleichermaßen verändert, indem eine einfache empirische Meersoberflächen-Lufttemperatur-zu-Meereis-Beziehung hergestellt wird, die aus beobachteten Lufttemperaturen an der Meeresoberfläche und dem Meereis bestimmt wird.

Eine interessante Auswahl von Veränderungen, das sollte man sich auf der Zunge zergehen lassen …
Treibhausgasemissionen für das Jahr 1900, kühleres Meer, mehr Meereis, aber keine Änderung bei den Temperaturen über dem Land … Sieht so aus, als ob es auf ein wärmeres Großbritannien in einem kälteren Ozean hinausliefe. Und es sieht so aus, dass dadurch bestimmt die Niederschläge beeinflußt würden. Aber lassen wir uns nicht von den logischen Ungereimtheiten ablenken …

Dann haben sie das Original-Klimamodell (HadAM3-N144) mit den Startbedingungen aus den vier GCM-Modellen benutzt und mit den gleichen Anfangsstörungen aus A2000 einige weitere Tausende von Ein-Jahres-Simulationen erzeugt. Mit anderen Worten: gleiches Modell, gleiche Startdaten, unterschiedliche Startbedingungen aus Ergebnissen der vier GCMs. (Gerade fällt mir auf, dass die synthetischen Wetterdaten am 1. April beginnen!). Das Ergebnis heißt A2000N synthetisches Klima, obwohl sie das „synthetisch“ weglassen. Ich vermute mal, das „N“ steht für “no warming”.

Diese mehrere Tausende von Jahren an modelliertem Wetter, das synthetische A2000N-Klima, sieht dann wie das synthetische A2000-Klima aus. Die Daten sind in das zweite Modell eingegeben worden, in das P-R Modell, das mit Hilfe des ERA-40 Reanalyse-Modells abgestimmt worden war. Daraus ergab sich dann eine weitere Folge von Flußpegel- und Überschwemmungsvorhersagen.

Zwischenergebnis:

•  Zwei Datensätze von Computer-erzeugten, vollständig und ausschließlich simulierten englischen Flußpegel- und Überschwemmungsdaten wurden errechnet. Keiner der Datensätze ist auf tatsächliche Messdaten bezogen, auch nicht auf Bluts-, angeheiratete oder auf sonstige verwandtschaftliche Nähe. Doch um fair zu sein: bei einem der Modelle sind die Eingangswerte mit Hilfe eines Vergleichs zwischen echten Meßdaten und den Ausgabedaten eines dritten Modells gesetzt worden. Einer der beiden Datensätze wird von den Autoren als  “hypothetisch” beschrieben, der andere als “realistisch”.

Zum Schluss vergleichen die Autoren die beiden Datensätze. Heraus kommt das Urteil, dass der Mensch die Ursache ist:

Der genaue Umfang des anthropogenen Beitrags bleibt ungewiss, aber in neun von zehn Fällen deuten die Ergebnisse unseres Modells darauf hin, dass die anthropogenen Treibhausgasemissionen im 20. Jh. die Risiken von Überschwemmungen in England, wie sie sich im Herbst 2000 ereigneten, um mehr als 20% und in zwei von drei Fällen um mehr als 90% erhöht haben.

Zwischenergebnis:

• Die Autoren haben schlüssig gezeigt, dass in einem Computer-Modell für Südwest-England und Wales im synthetischen Klima A die synthetischen Überschwemmungen eine statistisch höhere Gefährdung darstellen als im synthetischen Klima B.

Ich bin mir nicht sicher, was ich dazu sagen soll, weil die Autoren auch nicht viel dazu sagen. 

Ja, sie zeigen, dass ihre Ergebnisse in sich ziemlich konsistent sind und sie stimmen auch mehr oder minder darin überein, dass sie nicht außerhalb der Grenzen ihrer Bedingungen liegen, und dass die Autoren die Ungewissheit durch Monte-Carlo Eingaben abgeschätzt haben, und dass sie mit den Ergebnissen zufrieden sind … Aber in Anbetracht der Ungewissheiten, die sie NICHT einbezogen haben –  nun, daraus können Sie Ihre eigenen Schlüsse ziehen hinsichtlich der Frage, ob die Autoren ihre Untersuchung unter Beachtung wissenschaftlicher Grundsätze durchgeführt haben.
Nur ein paar Fragen, die diese Analyse aufwirft:

FRAGEN, AUF DIE ICH ÜBERHAUPT KEINE ANTWORT WEISS

1.  Wie wurden die vier GCMs ausgewählt? Wieviel Ungewißheit wurde dadurch eingebracht? Was würden vier andere GCMs ergeben?

2.  Wie hoch ist die Gesamt-Ungewißheit, wenn das gemittelte Ergebnis eines Computer-Modells als Eingabe in ein zweites Computer-Modell genommen würde, wenn weiter dessen Ergebnis als Eingabe für ein drittes Computer-Modell genommen würde, das gegen ein unabhängiges Klima-Reanalyse-Computer-Modell kalibriert würde?

3.  Bei den über 2000 Einjahres-Simulationen wissen wir, dass sie den HadAM3-N144 Modellraum für eine vorgegebene Einstellung der Modell-Parameter benutzt haben. Aber umfassen die unterschiedlichen Modelle den tatsächlichen Wirklichkeitsraum vollständig? Und wenn ja, stimmt die Verteilung der Ergebnisse mit der Verteilung der tatsächlichen Klimavariationen überein?  Hier handelt es sich um eine unausgesprochene Annahme, die für die Aussage „in neun von zehn Computerläufen“ verifiziert werden muss, um stehen bleiben zu können. Vielleicht sind neun von zehn Computerläufen unrealistischer Mist, vielleicht auch reines Gold … Ich setze aber auf ersteres, es gibt ja keine Möglichkeit für die Entscheidung, was wahr und was falsch ist.

4.  Ziehen wir die Warnungen über die Datenquellen (siehe unten) in Betracht, “dass es selten mit Sicherheit ausreicht, die Flußpegelmeßdaten so zu nehmen, wie sie sind”.  Welcher Qualitätskontrolle wurden die Flußpegelmeßdaten unterworfen, um die Genauigkeit beim Setzen der P-R-Modelldaten sicher zu stellen? Im Allgemeinen haben die Überschwemmungen zugenommen, weil immer mehr Land wasserundurchlässig gemacht worden ist (Straßen, Parkplätze, Überbauung), und weil der ursprüngliche Bodenbewuchs beseitigt worden ist. Deshalb wird die Abflussmenge von vorgegebenen Niederschlägen erhöht, und das bringt einen Trend zu erhöhtem Abfluss in die Ergebnisse ein. Ich weiß nicht, ob das in der Analyse berücksichtigt wurde, trotz der Tatsache, dass die Flußpegelstandsmessungen zum Kalibrieren des P-R-Modells benutzt wurden.

5.  Da das P-R-Modell mit Hilfe der ERA-40-Reanalyse-Ergebnisse kalibriert wurde, wie gut gibt es die tatsächlichen jährlichen Flußmengen wieder, und wie viel Ungewißheit steckt in den errechneten Ergebnissen?

6. Ausgehend vom Starttag 1. April für jedes Jahr: wie gut prognostiziert das im Papier skizzierte Verfahren  – Beginn des HadAM3-N144 jeweils am 1. April zur Vorhersage der Niederschläge im Herbst – die ungefähr 80 Jahre Niederschläge, für die es tatsächliche Messdatenaufzeichnungen gibt?

7. Ausgehend vom Starttag 1. April für jedes Jahr, wie gut prognostiziert das im Papier skizzierte Verfahren  -Beginn des HadAM3-N144 jeweils am 1. April zur Vorhersage der Pegelstände und Überschwemmungen  – die Pegelstände und Flussmengen, für die es tatsächliche Messdatenaufzeichnungen gibt?

8. Nehmen wir an, in einem Glücksspiel sollen die Ergebnisse von vier unterschiedlichen Computer-Modellen mit der Wirklichkeit verglichen werden. Drei müssen falsch sein, wenn eine Vorhersage richtig ist, weil vier verschiedene Prognosen möglich sind. Alle vier können aber auch falsch sein. Der Erfolg einer Wette soll proportional zur Korrelation des Modells mit der Wirklichkeit sein.
Wie hoch ist die Erfolgserwartung mathematisch bei einer 1$-Wette auf eines der Modelle in diesem Spiel … und wie hoch ist die Ungewissheit für diese Erfolgserwartung? Wenn vier Modelle vorgegeben sind, wird dann eine Wette auf den Durchschnitt der Modelle meine Gewinnchancen verbessern? Und was unterscheidet diese Frage von den Schwierigkeiten und Unbekannten, die in der Abschätzung nur dieses einen Teils der gesamten Ungewissheit der Studie liegen, wenn man nur die Informationen besitzt, die in der Studie benannt worden sind?

9. Sechs unterschiedliche Klimamodelle wurden einbezogen, jedes davon hat unterschiedliche Größen der Gitternetzkästchen und Koordinaten. Es gibt unterschiedliche Methoden zur Durchschnittsbildung von einem Gitterkästchen-Schema mit einer bestimmten Größe zu einem anderen mit anderer Größe. Welche Methode wurde benutzt und wie hoch ist die Ungewissheit, die bei diesem Schritt eingeführt wurde?

10.  Die Studie beschreibt die Benutzung eines bestimmten Modells, um zwei Datensätze von jeweils 2000+ Einzeljahren mit synthetischem Wetter zu erzeugen … wie unterschiedlich wären die Datensätze, wenn ein anderes Klimamodell benutzt würde? 

11.  In der Annahme, dass die GCMs andere Niederschlagsmuster erzeugen als das ERA-40 Reanalyse-Modell, und in der Annahme, dass das P-R-Modell auf die Ergebnisse des ERA-40-Modells kalibriert ist, wieviel Ungewißheit wird dadurch erzeugt, dass die gleichen ERA-40 Kalibrierungseinstellungen mit den GCM-Ergebnissen benutzt werden? 

12. Haben die Autoren wirklich die A2000N Simulationen mit der Abkühlung des Ozeans gestartet und nicht des Landes, wie sie anscheinend sagen?

Wie man sieht, gibt es eine Menge von wichtigen Fragen, die derzeit unbeantwortet sind.

Nach erneutem Lesen meines Beitrags möchte ich noch klarstellen: Ich spotte nicht über die Studie, weil sie etwa falsch wäre. Ich spotte, weil die Studie so weit von der Wissenschaftlichkeit entfernt ist, dass keine Hoffnung besteht, je zu erkennen ob sie falsch oder wahr ist.  Die Autoren haben uns nicht die geringste notwendige Menge von Informationen gegeben, um auch nur im Ansatz eine Beurteilung der Tragfähigkeit der Hypothese zu ermöglichen.

KOMMEN WIR MAL AUF DIE LANGWEILIGEN ALTEN DATEN ZURÜCK …

Wie man weiß, liebe ich Fakten. Ich pflichte Robert Heinlein bei:

Was sind die Fakten? Immer wieder muss nach den Fakten gefragt werden. Wunschdenken muss beiseite geschoben und göttliche Eingebung ignoriert werden. Was die „Sterne sagen“ gilt nicht, Meinungen sind zu vermeiden, Rücksichtnahme auf das, was der Nachbar denkt, ebenso. Man kümmere sich nicht um das “Urteil der Geschichte”. Was sind die Fakten und bis auf welche Dezimalstelle sind sie genau? Man segelt immer in eine ungewisse Zukunft. Nur Fakten haben Bestand. Holt die Fakten!

Das hat er 1973 geschrieben, was er ausließ, war “Hüte Dich vor Computermodell-Ergebnissen.”  Also haben ich die Pegelstandsmessungen angesehen, wie sie in Pall2011 angegeben werden. Ich bin bis zum Teil gegangen, wo es heißt: (Hervorhebung von Willis Eschenbach):

Appraisal of Long Hydrometric Series [Beurteilung von Langzeit- Wasserstandsaufzeichungen]

… Die Genauigkeit der Daten und Konsistenz kann ein Hauptproblem bei vielen frühen Wasserstandsaufzeichnungen sein. Im Verlauf des 20. Jh. wurden die Instrumentierungen und die Aufzeichnungseinrichtungen verbessert, aber diese Verbesserungen selbst können Inhomogeneitäten in die Zeitreihen bringen – die noch verstärkt werden können durch Veränderungen (manchmal nicht dokumentiert) des Standorts der Meßstation oder der angewandten Methoden der Datenverarbeitung. Zusätzlich wurde die Einwirkung des Menschen auf das Fließverhalten der Flüsse und die Muster der Grundwasserspeisung immer ausgedehnter, besonders in den vergangenen 50 Jahren. Der sich daraus für das Fließverhalten der Flüsse und die Grundwasserspiegel ergebende Zustand kann zusätzlich noch durch die weniger sichtbaren Auswirkungen der Veränderungen der Bodennutzung beeinträchtigt werden; obgleich diese in einer Anzahl von wichtigen experimentellen Wassereinzugsbereichen im Allgemeinen quantifiziert worden sind, entziehen sie sich einer leichten Quantifizierung.

Wie in den meisten Langzeitaufzeichnungen von natürlichen Phänomenen lauern in der in der Studie benutzten Datenaufzeichnung auch Fallen für den Unaufmerksamen. Und in der Tat sagen die Autoren am Schluss des Abschnitts: 

Man muss daher richtigerweise sehen, dass die Erkennung und Interpretation von Trends besonders stark auf der Verfügbarkeit von Referenz- und räumlicher Information beruht, um die Auswirkungen der Klimaveränderung von der Einwirkung eine Reihe von anderen Faktoren zu unterscheiden;>

Genau das haben sich die Autoren von Pall2011 zu Herzen genommen. Sie haben nämlich den Daten überhaupt keine Gelegenheit gegeben, auch nur ein einziges Wort zu sagen …
Um eine noch ernsthaftere Anmerkung zu machen: Weil mit diesen Daten die “Klimavariabilität” des P-R-Modells kalibriert wurde, haben deswegen die Pall2011-Leute den Rat des Verwalters der Daten befolgt? Auch davon sehe ich überhaupt nichts.

Ich konnte nur feststellen, dass die Flußpegeldaten überhaupt keine Hilfe für mich sein konnten. Ich war nur verwirrt wegen der impliziten Behauptung in der Studie, dass extreme Niederschläge in England zunähmen.  Ich glaube, die Autoren wollen sagen, dass der Klimawandel mehr Überschwemmungen mit sich bringt, und das kann nur passieren, wenn es mehr Starkregen in England gibt. 

Glücklicherweise haben wir da eine andere interessante Datenreihe. Dummerweise wieder vom Hadley Centre, es ist die Hadley UK Precipitation Datenreihe von Alexander und Jones; ja ja, es ist Phil Jones (HadUKP). Und glücklicherweise zeigt die herangezogene Studie überhaupt nichts Außergewöhnliches. Unglücklicherweise, aber irgendwie unvermeidlich, benutzt sie ein komplexes System der Durchschnittsbildung. Glücklicherweise unterscheiden sich die durchschnittlichen Ergebnisse nicht sehr von einem einfachen Durchschnitt, soweit unser Interesse hier betroffen ist. Unglücklicherweise gibt es keine Kontrolldaten, so dass man nicht exakt feststellen kann, was aus einem bestimmten Extremwetterereignis in einem bestimmten Gebiet zu einer bestimmten Zeit gemacht worden ist.

Jedenfalls ist das das Beste, was wir haben. Die gesamten täglichen Niederschlagsmengen sind für Bereiche in England aufgelistet, und einer dieser Bereiche ist South West England and Wales. Damit werden die Probleme der Durchschnittsbildung für größere Gebiete vermieden. Die Abbildung 2 zeigt das Herbstmaximum eines eintägigen Niederschlags in Südwest-England und Wales. Das war die Gegend und der Zeitraum, die in der Pall2011 Studie im Hinblick auf die Herbst-2000-Überschwemmungen untersucht wurde:

http://wattsupwiththat.files.wordpress.com/2011/02/max-1-day-autumn-rain-sw-england-wales.jpg

Abbildung 2. Herbstmaximum eines 1-tägigen Niederschlags, SW England und Wales, Sept-Okt-Nov. Der geringe Trend ist statistisch kaum von Null zu unterscheiden.

Der in dieser Aufzeichnung gezeigte Starkregen ist typisch für Aufzeichnungen von Extrema. In der Natur haben die Extrema selten eine Gauss’sche Normalverteilung. Stattdessen enthalten die Aufzeichnungen einige sehr große Werte, auch dann, wenn man nur nach Extrema Ausschau hält. Die Art des Starkregens, der zu den Überschwemmungen von 2000 führte, kann in Abbildung 3 betrachtet werden. Diese Abbildung halte ich für eine warnendes Beispiel, weil bei einer Verschiebung des Beginns der Darstellung um ein Jahr später, der eintägige Niederschlag bei weitem der größte im Bericht wäre. 

Für die 70 aufgezeichneten Jahre gibt es keine Anzeichen für zunehmende Überschwemmungsrisiken als Folge von Klimafaktoren. In Pall2011 wurde klar gezeigt, dass in zwei von drei Jahren im synthetischen Klima B das Risiko einer synthetischen Herbstüberschwemmung in einem synthetischen Südwest-England und Wales um 90% zunimmt, gemessen am synthetischen Überschwemmungsrisiko im synthetischen Klima A.

Entsprechend den Messdaten gibt es kein Anzeichen für Zunahmen von Starkregen im Herbst in Südwest-England und Wales. Es ist also sehr unwahrscheinlich, dass wir über das uns bekannte  Südwest-England und Wales sprechen  … Damit erhält die String-Theorie von multiplen parallelen Universen eine neue Bedeutung, vermute ich mal.

IMPLIKATIONEN DER VERÖFFENTLICHUNG DIESER STUDIE

Es ist verstörend, dass NATURE diese Studie veröffentlich hat. Es gibt nur diesen einen Weg, über den diese Studie eine sehr geringe Chance für wissenschaftliche Anerkennung hätte haben können. Wenn nämlich die Autoren die exakten Datensätze und den Code veröffentlicht hätten, mit dem sie die Ergebnisse erzeugten. Eine reine Beschreibung der Verfahren ist ausgesprochen inadäquat für jegliche Analyse der Gültigkeit von Ergebnissen.

Um auch nur eine kleine Hoffnung auf Gültigkeit zu hegen, ist als absolutes Minimum die elektronische Veröffentlichung der A2000 und A2000N Klimadaten in zugänglicher Form nötig, zusammen mit den Resultaten einfacher Tests der einbezogenen Modelle (d. h. Computer-Vorhersagen von Herbstüberschwemmungen zusammen mit tatsächlichen Flußpegelständen). Darüberhinaus müssen die benutzten ex-ante Kriterien für die Auswahl der vier GCMs und des Leitmodells erklärt werden. Auch die Antworten auf meine oben erhobenen Fragen. Nur dann kann man die Studie annäherungsweise für wissenschaftlich halten. Und selbst dann, wenn man sich die derzeit nicht zugänglichen A2000 und A2000N synthetischen Klimata anschaut, könnte es sein, dass diese keine Ähnlichkeit mit irgenwelcher Wirklichkeit haben, hypothetisch oder sonstwie …

Im Endergebnis sehe ich die Verantwortung bei der Fachzeitschrift NATURE. Weil derzeit das Beste, was wir über die Studie sagen können ist: a) wir haben keine Möglichkeit festzustellen, ob sie stimmt. Und b) sie ist nicht falsifizierbar … Wenn das auch gut im “Journal of Irreproducible Results“ aussieht, bedeutet es nichts Gutes für eine Zeitschrift wie NATURE, die sich mit fachbegutachteter Wissenschaft befaßt. 

Willis 

PS – Bitte verstehen Sie das nicht als Schimpfen auf Computermodelle. Ich habe Computer seit 1963 programmiert, länger als manche Leser hier leben. Ich kann in R, C, VBA, Pascal schreiben, und ich kann in einem halben Dutzend anderer Computer-Sprachen lesen und (langsam) schreiben. Ich benutze Computer-Modelle, habe einige gelegentlich geschrieben und verstehe die Stärken, Schwächen und Grenzen vieler Computer-Modelle von Echtwelt-Systemen. Mir ist wohlbewußt, dass “alle Modelle falsch, einige aber nützlich sind”. Deshalb benutze ich sie, vertiefe mich in sie und schreibe gelegentlich welche.

Mein Argument ist, dass man ohne wirkliche Überprüfung der Ergebnisse aus Modellrechnungen gegen die Wirklichkeit mit den genauesten vorstellbaren Tests nur ein komplexes Spielzeug von unbekannter Aussagekraft hat. Und sogar nach ausgedehnten Tests können Modelle sich irren gegenüber der realen Welt. Deshalb läßt Boeing immer noch Testflüge mit neuen Flugzeugen durchführen, obgleich die teuersten Computer-Modelle eingesetzt werden, und trotz der Tatsache, dass die Modellierung von Luftströmungen um ein Flugzeug um Größenordnungen einfacher ist als die Modellierung des globalen Klimas.

Andere und ich haben an anderer Stelle gezeigt, (Lesen Sie hier, Sehen Sie diesen Kommentar hier, und die Grafik hier), dass die vom NASA-Glanz-und-Gloria-Klimamodell (dem GISS-E GCM) errechnete jährliche globale Durchschnittstemperatur mit 98%iger Genauigkeit mit folgender einfacher, einzeiliger Gleichung, die nur eine Variable benutzt, errechnet werden kann: 

T(n) = [lambda * Forcings(n-1)/tau + T(n-1) ] exp(-1/tau) 

wobei T(n) die Temperatur zum Zeitpunkt n ist, und lambda und tau die Konstanten der Klima-Sensitivität und der Verzögerung sind …

Angesichts der Komplexität des Klimas ist es sehr wahrscheinlich, dass das GISS-E Modell falsch und noch nicht einmal nützlich ist. Und wenn man vier von derartigen GCMs auf das Problem der englischen Überschwemmungen ansetzt, macht es die Genauigkeit der Ergebnisse bestimmt nicht besser …

Das Problem sind nicht die Computer-Modelle. Das Problem ist die Fachzeitschrift NATURE, die versucht, die Endergebnisse aus einer langen Computer-Modell-Perlenkette, bestehend aus gezielt ausgesuchten, unausgetesteten, nicht verifizierten, nicht untersuchten Computer-Modellen, als gültige, falsifizierbare, fachbegutachtete Wissenschaft zu verkaufen. Man mag mich ja verrückt nennen: Aber wenn die Ergebnisse von vier Computer-Modellen, die in ein fünftes Computer-Modell eingespeist werden, dessen Ergebnisse wiederum in ein sechstes Computer-Modell gehen, das gegen ein siebtes Computer-Modell kalibriert wird, dann als Resultate gegen eine Reihe von anderen Resultaten aus einem fünften Computer-Modell verglichen werden, aber nach Anwendung anderer Parameter, um zu beweisen, dass das Überschwemmungsrisiko sich wegen zunehmender Treibhausgase geändert hat, … nun, wenn man so etwas macht, dann muss man schon mehr tun, als mir nur zuzuwinken, um mich zu überzeugen, dass das Überschwemmungsrisiko nicht nur eine mögliche Abbildung der Realität ist, sondern auch eine genügend genaue Abbildung der Realität, um zukunftsgerichtetes Handeln zu leiten.

* Der Beitrag findet sich hier 

Ergänzende Information finden Sie hier, darin sind die Leitgedanken des Papiers enthalten.

Willis Eschenbach , den Originalbeitrag finden Sie hier

Die Übersetzung besorgte Helmut Jäger EIKE

**Die Ergänzungsinformation dazu finden Sie hier, sie enthält den größten Teil des Konzeptes dieses Papiers




Schiefergas in Europa: so viel wie in Nordamerika!

Das Institut CERA (IHS Cambridge Energy Research Associates®) aber ist ständig sowohl traditionell bei den Mainstream-Medien, wie auch als Wegbereiter des Schiefergases tätig.  Das rührt wohl von der Unternehmenskultur von Daniel Yergins Firma her, die neugierig, offen und zukunftsorientiert ist, anstelle des engstirnig ängstlichen herkömmlichen Von-oben-nach-unten-Denkens in Energiefragen.
Wenn also CERA – immer realistisch beim Thema Schiefergas, aber wie alle anderen auch nicht in der Lage, Zahlen zu nennen –  sich mit Schiefergas zu beschäftigt, dann wird man aufmerken.

Die Menge an unkonventionellen europäischen Gas-Reserven gleicht der in Nordamerika, wie in der neuen großen Studie des CERA (IHS Cambridge Energy Research Associates®) "Breaking with Convention Prospects for European Unconventional Gas" steht. Die Reserven an europäischen unkonventionellen Gasvorräten werden auf 173 Trillionen Kubikmeter geschätzt.
Die Studie ist die erste einer Reihe von wichtigen Analysen zu den Aussichten unkonventioneller Gasförderung in Europa und der Welt. Beruhend auf der systemischen Analyse von Hauptlagerstätten unkonventioneller Gasvorkommen in Europa (Schiefergas und Methan in Kohlenflözen) und unter Benutzung der umfangreichen IHS-Datenbanken, untersucht die Studie, in welchem Umfang das zugängliche unkonventionelle Gas gefördert werden könnte, und welche Bedeutung das für den europäischen Gasmarkt haben könnte.
"Die technologische Revolution in Bezug auf unkonventionelles Gas ist die in diesem Jahrhundert bei weitem wichtigste Energie-Innovation," sagte Daniel Yergin, IHS CERA Institutsleiter und Autor des mit dem Pulitzer-Preis ausgezeichneten Buches "The Prize". “Das gewaltige Potenzial hat bereits Nordamerikas Energielandschaft verändert und es könnte nun die globale Gasindustrie verändern.”

Kann ich Daniel Yergin zustimmen? Ich würde "könnte" mit "unausweichlich" im vorhergehenden Zitat ersetzen. Die beigefügten CERA-Zahlen für Europa haben sogar einen (rationalen) Optimisten wie mich überrascht. CERA hat Zugriff auf teure geschützte Datenbestände.

Hier noch weitere Zahlen:

Unkonventionelles Gas in Europa wird wahrscheinlich einen bedeutenden Beitrag zur Versorgung in den kommenden 10 bis 15 Jahren leisten, sagt der Bericht. IHS CERA schätzt Fördermengen von mindestens 60 Mrd. Kubikmetern bis etwa 200 Mrd. Kubikmetern im Jahr 2025.

Die 60 Mrd. Kubikmeter sind weniger als die Hälfte der gegenwärtigen Förderung von Schiefergas in Nordamerika.
Betrachten wir die Mindestmenge von 60 Mrd. Kubikmetern im Vergleich zu den gesamten Flüssig- und Erdgasimporten Europas von 69,02 Mrd. Kubikmetern im Jahre 2009. Das bedeutet große Probleme für den europäischen Flüssig- und Erdgasimporte, wenn der Markt so schrumpft wie in Nordamerika. Ein kleiner Trost für die europäische Gasindustrie ist, dass, anders als in den Vereinigten Staaten und in Kanada, niemand von europäischen Exporten ausgeht. Andererseits repräsentieren 200 Mrd. Kubikmeter den gesamten Bedarf von England, Frankreich und Deutschland zusammen, oder des größten Teils von Kontinentaleuropa ohne die drei.

Damit verändert sich alles.

Die Auswirkung dieser Stabilisierung der heimischen Versorgung könnte bedeutend sein, wenn auch nicht so revolutionär wie in den USA, meint der Bericht. Eine Stabilisierung der heimischen Versorgung würde die gegenwärtigen Bedenken wegen der Versorgungssicherheit ausräumen und zu höherem Vertrauen trotz der zunehmenden Abhängigkeit von Gas führen, auch in Bezug auf die Importe. Die europäische Politik wäre dann mit einer wichtigen strategischen Entscheidung konfrontiert: zwischen einer sicheren heimischen und relativ sauberen unkonventionellen Gasversorgung oder teueren Null-Emmissions-Alternativen zu wählen.

Eine schwacher Trost für die KWler liegt darin, dass diese Zahlen nicht vor weiteren 10 bis 15 Jahren Wirklichkeit werden. Versorger, Energieberater und deren Helfershelfer wie z. B. die englische Gasmarkt- und Elektrizitäts-Regulierungsbehörde Ofgem  können ruhig bleiben und sicher sein, dass die hohen Preise noch so lange da sein werden, bis sie in den Ruhestand gehen. Vielleicht finden sie auch andere Wege zum Abzocken der Bürger.Oder sollten sie doch nicht so ruhig schlafen? Die Schiefergasmengen brauchen wir ja heute noch gar nicht, um die Preise zu beeinflussen. Wer spart denn schon für sein Alter, wenn er eine reiche, liebenswerte 90jährige Erb-Oma hat?Wir brauchen noch viele bestätigte Zahlen von den heutigen Produzenten. Anders gesagt, wir müssen wissen, dass das Geld auf der Bank liegt, auch wenn es erst in 10 Jahren fällig ist. Keine Sorge, die Zahlen kommen noch, wie ich seit zwei Jahren sagte, CERA liefert sie jetzt.Wenn wir mehr wissen, heißt es Abschied nehmen von so verrückten Dingen, wie CO2-Abscheidung-und-Speicherung, Offshore Windanlagen, Kernenergie, Ölleitungen wie NABUCCO. Dieser ganze 200 Mrd. £ teure Mist, um angeblich die Lichter an zu lassen, ist für den Mülleimer der Geschichte. Wir können ruhig in Energieeffizienz investieren und Technologie einsetzen, um verlässliche Informationen über den Energieverbrauch zu gewinnen, damit wir sparsamer werden. Wir können Forschungs- und Entwicklungs-Investitionen finanzieren für Technologien wie Energie-Speicherung, Sonnenenergie und kleine Kernkraftwerke, die wirklich Aussicht bieten, den Kohlenstoffverbrauch rasch und zu bezahlbaren Preisen zu vermindern, anstelle des Einsatzes unserer heutigen feinen Technologie, die sehr teuer ist, nicht nachhaltig oder beides. Was aber soll mit dem Großteil der 200 Mrd. £ geschehen?  Den können wir klugerweise in die Ausbildung, in unser Transportwesen oder in die Gesundheit stecken. Das würde wirklich für die meisten von uns ein Fest werden!

Nick Grealy; den Originalartikel finden Sie hier

Die Übersetzung besorgte Helmut Jäger EIKE




Der deutsche Angst-Tsunami!

Zwischeninfo vom 16.3.11 vorab:

Die deutschen Sender fliegen ihre Mitarbeiter aus:

Kein Journalist der deutschen Sender ARD, ZDF und RTL sowie der Nachrichtenmagazine „Spiegel“ und „Stern“ hält sich derzeit in der Umgebung der Atomkraftwerke in Fukushima auf… Das ZDF hat begonnen, erste Mitarbeiter auszufliegen.

Die Deutschen haben übrigens das im Oberrheingraben liegende Kernkraftwerk Mülheim-Kärlich wegen dieser – für Deutsche – riesigen Erdbebengefahr stillgelegt.

Fortsetzung Text

….Übrigens haben die japanischen Kernkraftwerke das Beben der Stärke 9 unbeschädigt überstanden. Ihr Verhängnis war die Unterbrechung der von außen kommenden Stromversorgung und die gleichzeitige Beschädigung der Notstromdiesel durch den Tsunami. Daß beides in Deutschland vollkommen unmöglich ist – und nicht etwa nur extrem unwahrscheinlich – sollte man eigentlich akzeptieren, allerdings dann nicht, wenn man politisch an der Erzeugung der größten anzunehmenden Panik (GAP) interessiert ist.

Betoniert Deutschland !

Ersatzweise malt man nun einen terroristischen Flugzeug-Absturz als Gefahr an die Wand. Man kann natürlich alle Kernkraftwerke unter meterdicke Betonkuppeln setzen – dann aber auch bitte gleich den Reichstag, das Kanzleramt, das Verteidigungsministerium, die Raffinerien, das Schloß Neuschwanstein  und den Kölner Dom. Denn wer weiß schon, auf welche Ideen Terroristen kommen ?

Vielleicht ist es aber denjenigen, die einen solchen Fall herbeibeschwören, schon einmal aufgefallen, daß es schon ziemlich lange keine spektakulären Flugzeugentführungen mehr gab. Das hatte Gründe: Nach den Anschlägen auf das World Trade Center und das Pentagon hat man weltweit die Kontrollen an den Flughäfen erheblich verstärkt und verstärkt sie weiter. Die Möglichkeit für Terroristen, überhaupt mit Waffen an Bord zu kommen, geht gegen Null. Aber wenn die Betonierungsfraktion diese Tatsache zur Kenntnis nehmen würde, dann wäre ja auch dieses vorletzte Argument weg. 

Panzerbrechende Waffen gegen Reaktoren ?

Bleibt nur noch ein terroristischer Angriff auf einen Reaktor. Und zu diesem Thema  gab es einen geradezu unglaublichen Vorfall:

Im Herbst letzten Jahres konnte man mit ziemlichen Erstaunen zur Kenntnis nehmen, daß professionelle Kernkraftgegner selbst vor Aktionen am Rande oder auch schon mittendrin in der Kriminalität nicht mehr zurück schrecken. In der Presse erschienen – auf der Grundlage einer ap-Meldung – am 16.9.2010 Artikel mit Überschriften wie

"Gefahr auf dem Stativ. Greenpeace: Atomkraftwerke durch tragbare Waffensysteme bedroht."

Die unkommentierte Nachricht, die man ungläubig lesen konnte, besagte , daß Greenpeace eine Studie zu einer speziellen Waffe, der russischen Panzerabwehrlenkwaffe AT-14 Kornet-E erarbeiten ließ. Damit seien bis zu einem Meter Stahl und bis zu drei Meter Stahlbeton zu durchschlagen. Die Betonhülle sei bei älteren deutschen Atomkraftwerken jedoch nur 60 Zentimeter bis einen Meter dick. "Einen "Kernschmelzeunfall" könnten Terroristen verursachen, wenn von mehreren solcher Systeme mehrere Geschosse auf einen Reaktor abgefeuert würden," wurde von Greenpeace erläutert. Und Greenpeace-Atomexperte Heinz Smital ergänzte: "Es ist vollkommen außer Zweifel, daß jeder Reaktor in Deutschland sich mit Zielwaffen zerstören läßt." Die Organisation Greenpeace hat also nach eigenen Angaben eine Untersuchung in Auftrag gegeben, deren Ziel es war, erfolgreiche Angriffs- und Zerstörungsmethoden gegen deutsche Kernkraftwerke zu finden und zu entwickeln und die Ergebnisse zu veröffentlichen. Die von Greenpeace als Anwender dieser Zerstörungsmethoden explizit genannten potenziellen Täter sind Terroristen. Damit hat Greenpeace  jedermann wissenschaftlich ausgearbeitete Angriffsmöglichkeiten gegen Kernkraftwerke offeriert, die  zuvor vermutlich gar nicht bekannt waren bzw. bislang als unpraktikabel eingeschätzt worden sind.

Schließlich galten die aus Stahl und Beton konstruierten Reaktordruckbehälter bisher  als außerordentlich massive und sichere Einschlußgehäuse für die große Mengen  an hochradioaktivem Material enthaltenden Reaktorkerne.

Greenpeace  hat nun mit beträchtlichem Aufwand die Rezeptur für einen erfolgreichen Terrorangriff gegen Reaktordruckbehälter ausarbeiten lassen und das Ergebnis veröffentlicht.

Greenpeace hat dabei auch nicht versäumt, darauf hinzuweisen, daß es terroristischen Vereinigungen durchaus möglich sein sollte, sich die präzise genannten panzerbrechenden Waffen zu beschaffen.

Der juristisch nicht bewanderte, aber logisch denkende Normalbürger, der sich vorsichtigerweise selbst mit Sympathie-ähnlichen Äußerungen zu Al Khaida sehr zurückhält, würde mit dieser Attentatsanleitung wohl folgende Straftaten als erfüllt ansehen:

  1. Unterstützung beliebiger terroristischer Organisationen durch die Ausarbeitung von Terrorangriffs-Vorschlägen – sowohl für die Wahl der geeigneten Waffen als auch für die Auswahl der besonders geeigneten Angriffsziele, nämlich die älteren Reaktoren mit dünnerer Betonumhüllung .

  2. Inaussichtstellung von Terroranschlägen gegen deutsche Betreiber und Mitarbeiter der hier betriebenen Kernreaktoren, insbesondere der älteren Reaktoren, deren erhöhte Verwundbarkeit durch die von Greenpeace bzw. deren Auftragnehmer  gezielt bezüglich ihrer maximalen Wirkung ausgesuchten und vorgeschlagenen Waffen ausdrücklich betont wird.

Aber alles natürlich rein theoretisch und nicht böse gemeint.

Greenpeace hat sich offenbar deshalb zu diesem  Schritt entschlossen, weil man es dort für möglich hielt, daß diese Anschlagsmethode tatsächlich angewendet werden könnte. Damit wäre in dieser seltsamen Denkweise der "Beweis" erbracht, daß Reaktoren doch nicht sicher sind. Man wartete  bisher vergeblich auf den Entrüstungssturm; auch von der Bundesregierung war kein Wort zu hören. Anscheinend ist so etwas inzwischen in Ordnung und eine legitime Aufgabe einer Umweltschutzorganisation.

Übrigens sind Spenden für diese Organisation steuerlich absetzbar – natürlich im Gegensatz zu Spenden für Al Khaida, obwohl man dort vielleicht nach dieser Aufklärung  Spenden für die Beschaffung der AT-14 Kornet-E gut gebrauchen könnte.

Zur juristischen Klarheit:

Greenpeace wird nicht vorgeworfen, eine bestimmte, konkret benannte terroristische Vereinigung offen zu unterstützen. Auch nicht, irgendwelche terroristische  Vereinigungen offen zu Angriffen auf deutsche Kernkraftwerke aufgefordert oder animiert zu haben. Selbstverständlich waren die Greenpeace-Verantwortlichen bei aller gezeigten Verantwortungslosigkeit – die man zynisch als Sorge um die Sicherheit von Kernkraftwerken tarnte – nicht so dumm, die möglichen Anwender der von Greenpeace ausgearbeiteten Angriffs- und Zerstörungsmethoden konkret zu benennen.

Was jedoch Greenpeace vorzuwerfen ist – und was unbestreitbare Tatsache ist – das ist die mit Greenpeace-Geld finanzierte, explizit auf die Aufgabe

 "Wie können deutsche Kernreaktoren durch terroristische Angriffe wirksam, d.h. erfolgreich, angegriffen und zerstört werden, wobei die konkreten Angriffsziele die Reaktordruckbehälter sein sollten, um eine möglichst große Katastrophe durch radioaktive Verseuchung großer Gebiete sicherzustellen ?"

ausgerichtete Expertise, die diese Umweltschutz-Organisation stolz präsentierte.

Würde man einen Verrückten, der raffinierte Brandstiftungspläne veröffentlicht und  die Umsetzung dieser Pläne durch andere Verrückte nicht ausschließt,  unbehelligt lassen, wenn er vorträgt, daß er nur für bessere Sicherheitsvorkehrungen gegen Feuer werben wollte ? Wenn es gegen die Kernkraft geht, ist das erlaubt.

Wie sicher sind deutsche Kernkraftwerke ?

Was die Kernkraftgegner so deprimiert und sie zu fragwürdigen Argumenten und Handlungen veranlaßt,  ist die makellose Sicherheitsbilanz der deutschen Reaktoren.

Es gab niemals ernste Unfälle, keine Toten, keine Verletzten – was die ehemalige Kieler Sozialministerin Trauernicht bei dem aufgebauschten, aber vollkommen harmlosen Trafobrand außerhalb des KKW Krümmel dazu veranlaßte, einen Kraftwerksschlosser, der sich an der Hand verletzt hatte, zu einem Atomopfer zu ernennen. Transformatorenbrände und -explosionen gibt es übrigens recht zahlreich in Deutschland, insbesondere seit ein umweltschädliches, aber sicheres Trafoöl durch ein umweltfreundliches, leider feuergefährliches ersetzt werden mußte.

Auch das Argument mit dem Alter der Anlagen ist nicht stichhaltig, weil die Betreiber inzwischen eine lange Liste an Modernisierungsmaßnahmen – vornehmlich der Steuerung und Kontrolle gewidmet – realisiert haben, die einer Verjüngungskur  gleichkommen und sie im Vergleich zu Kernkraftwerken im Ausland recht modern aussehen lassen.

Wie man aber gerade gesehen hat, traut sich die Bundesregierung angesichts der Medienkampagne und der Angriffe der Opposition nicht mehr, dieses Argument zu verwenden; vielmehr bringt sie nun die vollkommen sinnlose Stillegung einzelner Kernkraftwerke als Beschwichtigungsopfer auf dem Altar der Angst dar.

Die Kanzlerin reagiert

Die Bundeskanzlerin hat  am 14.3 in einem Fernsehinterview auch ein dreimonatiges Moratorium zur kürzlich beschlossenen Laufzeitverlängerung und umfangreiche Beratungen zur Sicherheit der deutschen Kernreaktoren und die Auswertung der japanischen Erfahrungen angekündigt. Wenn es tatsächlich Sicherheitsdefizite gäbe, müßte man sich allerdings fragen, weshalb sie erst jetzt diskutiert werden. Es ist wieder nur ein Medienopfer. Die Auswertung der japanischen Erfahrungen wird voraussichtlich Folgendes erbringen:

– Die entlang einer der gefährlichsten tektonischen Zone der Welt am Meer stehenden Kernkraftwerke müssen nachgerüstet werden. Man wird die Notstrom-Diesel auf 20 Meter hohe Plattformen setzen, damit sie von Tsunamiwellen nicht erfaßt werden können. Für Deutschland wären diese Erfahrungen wohl kaum zu nutzen.

– Man wird die Batteriespeicher vergrößern. Und man wird eventuell die Kühltechnik des modernsten russischen Reaktors bei den geplanten Neubauten verwenden, die darin besteht, daß über dem Reaktor ein großer Wassertank gebaut wird, der ohne jegliche Pumpen "von Hand" in Betrieb genommen und mit seinem Vorrat per Schwerkraft den Reaktor fluten kann. Ob man das für deutsche Reaktoren anwenden soll, ist eine andere Frage.

– Auf Kernkraft zu verzichten, würde für Japan und Deutschland bedeuten, daß die Grundlast-Stromversorgung wieder von Kohlekraftwerken übernommen werden muß. Darauf wird sich Japan wohl kaum einlassen. Und in Deutschland hat man gerade einen nicht offiziellen, aber sehr realen Stop für Kohlekraftwerke in Kraft gesetzt – wiederum aus Angst; dieses Mal vor der angeblichen Klimakatastrophe, an die auch Frau Merkel glaubt. Damit bliebe Deutschland nur noch der Import von Strom – und zwar Kernkraftstrom. Dies wiederum will Frau Merkel nicht. Was sie dann eigentlich will, ist unklar. Zeit gewinnen, vermutlich.

Der Strom ist uns sicher. Es ist Atomstrom.

Der Atomstrom-Lieferant steht aber schon bereit:

"Frankreich, das weder Erdöl noch Erdgas besitze, soll mehr Strom exportieren und seinen EPR-Reaktor (Europäischer Druckwasser-Reaktor der Generation III-plus ; Fa. Areva) weltweit verkaufen. Ein EPR produziere rund 12 Mrd. kWh pro Jahr. Würden diese zu heutigen Preisen exportiert, könnte das Land Exporterlöse von rund 600 Mio. Euro erzielen. Darauf könne Frankreich nicht verzichten",

betonte der französische Staatspräsident Sarkozy anläßlich seines Besuchs der EPR-Baustelle in Flamanville in der Normandie am 6.2.2009. So begründete er in seiner Rede insbesondere die Entscheidung, einen zweiten EPR zu bauen (Penly 3) und er denke bereits über einen dritten EPR nach. Das Land brauche diese Investitionen. Zudem sei es nötig, das nukleare Know-how auf dem höchsten Niveau zu erhalten und zu erweitern. Höflicherweise vermied es Sarkozy, die potenziellen Hauptabnehmer für seinen Strom, seine östlichen Nachbarn,  beim Namen zu nennen.

Und damit es keine Zweifel für den künftigen Kurs seiner Regierung gibt, erklärte er nach der Erdbebenkatastrophe in Japan am 14.3.2011 zusammen mit Russlands Regierung, daß man selbstverständlich weiterhin voll auf die Kernkraft und ihre Weiterentwicklung setzt.

Die übrigen Länder, die Kernkraftwerke bauen können, weil sie ebenfalls niemals ihre Entwicklungsarbeiten daran eingestellt haben – Korea, Indien, Kanada und die USA – werden ohne solche Ankündigungen gleichfalls weitermachen. Und selbst Japan vermutlich auch. Eine sehr ausführliche Darstellung aller internationalen Aktivitäten in der Kerntechnik, insbesondere Bauvorhaben und Pläne für Neubauten sowie politische Schwerpunktsetzungen und Kooperationsabkommen, finden sie unter der Überschrift "Der Siegeszug der Kerntechnik" bei www.arge-energie-und-umwelt.de

Das Gute an Herrn Sarkozys Fürsorge ist: Wir müssen nicht im Dunkeln sitzen, wenn Kohle- und Kernkraftstrom Exorzismus-ähnlich in Deutschland ausgetrieben wurden. Wir bekommen Strom, Atomstrom. Allerdings wird es teuer, aber das ist von den Grünen ja so gewollt, denn speziell über immer höhere Strompreise kann die verhaßte Industrie aus Deutschland vertrieben werden.

Hohe Strompreise vertreiben die Industrie

Dieser Prozess ist bereits im Gange. Der EU-Energiekommissar Günther Oettinger hat im Februar 2011 auf einem Treffen der CDU-Wirtschaftsvereinigung erklärt, daß sich die Strompreise in Deutschland bereits an der oberen Grenze dessen bewegen, was noch sozial akzeptabel und wirtschaftlich tolerierbar ist. Wegen dieser hohen Strompreise sei jetzt in Deutschland ein "gradueller Prozeß der De-Industrialisierung" in vollem Gange. Das Thema Elektrizitätspreise sollte sich seiner Meinung nach an der Spitze der politischen Tagesordnung in Deutschland befinden. Unternehmen, die ins Ausland abwandern, täten das heute nicht mehr wegen hoher Gehälter, sondern wegen hoher Strompreise. Die Bundesregierung trage die Verantwortung für einen signifikanten Teil  dieses Prozesses. "Über 40 Prozent des Strompreises in Deutschland wird von der Regierung bestimmt. Ich kenne keinen anderen Markt, wo das so ist," kritisierte Oettinger.

Steuern und Abgaben für den Haushaltsstrom verdoppelten sich seit 1998. Sie stehen derzeit bei 41 Prozent. Die Abgaben für erneuerbare Energien erhöhten sich in einem Jahr um 70 Prozent und würden sich weiter erhöhen. Im vergangenen Jahr beliefen sich nach Angaben der Energiewirtschaft alle Steuern und Gebühren für Stromverbraucher auf nahezu 17 Milliarden Euros, so der deutsche EU-Kommissar.

Professor Dieter Ameling, der ehemalige Präsident der Wirtschaftsvereinigung Stahl und Vorsitzender des Stahlinstituts, schrieb 9. März 2011 in der FAZ, "daß Deutschland und Europa durch die einseitige Klimadebatte und die unwirtschaftliche Förderung der erneuerbaren Energien ein Einbruch der globalen Wettbewerbsfähigkeit droht".

In ihrem Fernsehinterview vom 14.3. deutete auch die Kanzlerin ihre Sorge um die deutsche Industrie bei einem Ausstieg aus der Kernenergie und der dann unweigerlich folgenden Steigerung des Strompreises an. Sie erwähnte dabei jedoch nicht das vor Kurzem von ihrer Regierung verabschiedete Energiekonzept, in dem völlig illusionäre, zu extremen Preissteigerungen führende sowie die Versorgungssicherheit gefährdende Anteile der erneuerbaren Energien bei der Stromerzeugung als politisches Ziel stehen. Und sie erklärte zwei Tage darauf, daß ihre Regierung nun zusätzlich zur Infragestellung der Kernkraft den Anteil der Erneuerbaren nochmals steigern wolle. Sie weiß also genau Bescheid, handelt jedoch entgegen ihrer Überzeugung. Eine Erklärung dafür gibt es bislang nicht.

Damit ist die De-Industrialisierung Deutschlands nunmehr nicht nur das Programm der Grünen und der SPD, sondern endgültig auch das Programm der schwarz-gelben Regierung geworden. Nicht aus Überzeugung, sondern aus Schwäche. Politischer Selbstmord aus Angst vor den Medien.

Für die von Energiepreisen abhängige Industrie ist das jetzt das endgültige Signal zur Flucht – es sei denn, die IGBCE-Gewerkschaft gewinnt ihr Spiel – s.u.

Das jüngste Beispiel für diese Flucht ist die geplante Herstellung des Zukunfts-Werkstoffs Kohlefaser, der in produktionstechnischem Maßstab als Leichtbau-Karosseriematerial eingesetzt werden soll. In Elektroautos sowie auch bei konventionellen PKW. Die beiden wichtigsten Unternehmen, die das vorhaben, sind Daimler-Benz und BMW. Sie haben bereits beschlossen, diese leider sehr energieintensive Produktion von vornherein nicht in Deutschland, sondern in den USA und in Asien aufzubauen – wegen der dort niedrigeren Energiepreise. 

Deutschland hat eine Technologie verloren

Die Kerntechnik ist in Deutschland doppelt tot: Sie starb einen politischen Tod, aber auch einen technologischen. Daß hier noch gut funktionierende Kernkraftwerke mit internationalen Dauer-Spitzenplätzen in Bezug auf Zuverlässigkeit und Verfügbarkeit  laufen, verdeckt die wirkliche Situation. Seit die rot-grüne Regierung einen sehr wirksamen Forschungs- und Entwicklungsstop für die Reaktorentwicklung verhängte und die Projekte Hochtemperaturreaktor, Schneller Brutreaktor und Brennstoff-Wiederaufbereitung unabhängig von ihren beeindruckenden technologischen Erfolgen politisch beendet wurden, ist eine zu lange Periode der Stagnation eingetreten, die letztlich dazu führte, daß die deutsche Nukleartechnik hoffnungslos abgehängt worden ist. Genau das war auch damals die politische Absicht.

Ein für ein Industrieland eminent wichtiger Teil des Hochtechnologie-Weltmarktes wurde gezielt aufgegeben – und dieser Verlust ist von Dauer, wie wir heute wissen. Eine Analyse aller weltweiten Aktivitäten auf dem Felde der Kerntechnik – siehe die oben genannte Webseite – zeigt in beeindruckender Weise, wie sich sowohl die klassischen Industrienationen Frankreich, USA, Russland und Japan aber insbesondere auch die Newcomer China, Indien, Südkorea und Kanada durch niemals unterbrochene Entwicklungsarbeiten einen nunmehr für Deutschland uneinholbaren technologischen Vorsprung erarbeitet haben.

Wenn heute ein Wunder geschehen würde und die Bundesregierung mit großer Unterstützung durch die Bevölkerung ein Kernkraft-Neubauprogramm startete – die Energieversorger müßten Angebote aus dem Ausland einholen. Sie würden keinen deutschen Hersteller finden, der ein den heutigen Ansprüchen genügendes Kernkraftwerk der dritten Generation aus überwiegend deutschen Komponenten anbieten könnte. Das ist der technologische Tod.

Die faktische Aussichtslosigkeit, in der absehbaren Zukunft ein derartiges Programm in diesem Lande starten zu können, ist der politische Tod.

Deshalb ist auch die auf Deutschland bezogene Kernenergie-Nutzung ein Auslaufmodell, denn es wird keinen Ersatz von einmal stillgelegten Reaktoren durch Neubauten geben, wie es zum Beispiel England in großem Maßstab plant. Wie lange die vorhandenen KKW auch noch laufen mögen – nichts Gleiches folgt ihnen danach.

Was bleibt, sind einzelne Hersteller spezieller Komponenten mit Kunden im Ausland, Kerntechnik-Institute an Hochschulen, die sich für Projekte mit ausländischen Instituten zusammentun müßten, die alternden deutschen KKW sicherheitstechnisch begleiten und sich um Entsorgungsfragen kümmern.

Aus diesen Gründen wäre selbst eine besonders lange Laufzeitgenehmigung nur eine Verlängerung des Niedergangs, niemals aber eine Chance für einen späteren Wiedereinstieg in den internationalen Nukleartechnikmarkt. Damit reduziert sich die Frage der Laufzeiten nicht auf Sicherheitsaspekte, wie die derzeitige hysterische Diskussion scheinbar nahelegt, sondern allein auf wirtschaftliche Aspekte: Sie sollten so bestimmt werden, daß ein Ersatz dieser Energieerzeugung zeitnah und kostengünstig realisiert werden kann.

Nachdem nun die einstmals führende deutsche Kernkrafttechnologie erfolgreich politisch ruiniert worden ist und  man diese schmerzliche Betrachtung nüchtern hinter sich gebracht hat, stellt sich eigentlich nur eine wichtige Frage:

Welche anderen, exportierbaren und wichtigen Energietechniken beherrscht Deutschland heute ?

Die Antwort "Windkraft und Photovoltaik", die automatisch von den Grünen gegeben wird, ist falsch. Beides sind randständige Nischentechniken, die wegen ihrer  inhärenten Unzuverlässigkeit niemals eine wichtige Rolle in einem Stromnetz spielen können und es bei Strafe ständiger Netzzusammenbrüche auch niemals dürfen. In diesem Punkte ist die unverantwortliche Subventionspolitik dieser Techniken durch die Bundesregierung desaströs und eine Vernichtung von Volksvermögen. Im Übrigen ist die Windkraft technologisch betrachtet eine schlichte, von nahezu jeder Nation leicht imitierbare Technik – was auch zunehmend erfolgt.

Die Photovoltaik wiederum hat Deutschland als Herstellerland längst an China verloren.

Die Antwort auf die oben gestellte Frage lautet vielmehr: Modernste Braunkohle- und Steinkohlekraftwerke sowie Gasturbinenkraftwerke. Gerade die neuen Kohlekraftwerke haben durch systematische Erhöhung der Dampftemperaturen Wirkungsgrade um 45% erreicht und verbrauchen somit wesentlich weniger Brennstoff für jede Kilowattstunde als ihre Vorgänger. Noch effizienter sind die Gasturbinen-Dampfkraftwerke (GuD).  Auf diesen Gebieten hat Deutschland eine Spitzenposition und genau dies sind auch die Energietechniken, die neben der verlorenen Kernkraft für alle Nationen – insbesondere auch für jene, die sich die Kernkraft aus vielen Gründen nicht leisten können – hochinteressant sind.

Und damit kommen wir geradewegs zu Herrn Vassiliadis.

Herr Vassiliadis und eine neue alte Brückentechnologie

Es gibt mittlerweile in Deutschland keine politische Partei mehr, die sich  ernsthaft für  die Erhaltung der Wettbewerbsfähigkeit und der Arbeitsplätze in der Industrie einsetzt. Die Frage war, wie lange sich die Gewerkschaften das noch mit ansehen.

Als erste meldete sich die von der wirtschaftsgefährdenden deutschen Energiepolitik am härtesten getroffene Industriegewerkschaft Bergbau, Chemie und Energie IGBCE. Am 28.7.2010 warnte der IGBCE-Vorsitzende Michael Vassiliadis davor, durch eine Erhöhung der Ökosteuer die energieintensiven Industrien in Deutschland weiter zu schwächen. "Was da im Bundesfinanzministerium geplant wird, ist ein Anschlag auf die Wettbewerbsfähigkeit und die Arbeitsplätze dieser Branchen,

darunter die chemische Industrie, die Papierproduktion, die Glasherstellung und die Aluminiumerzeugung." Und er ergänzte: "Wir arbeiten ständig daran, Energie sparsam einzusetzen und drängen auf Ressourceneffizienz."

Es gehe der Regierung nicht um Umweltschutz, sondern nur um das Stopfen von Finanzlöchern. "Strom und Energie, die nicht eingespart werden können, müssen bezahlbar bleiben. Sonst wandern energieintensive Betriebe mit ihren Arbeitsplätzen ins Ausland ab."

In einer gemeinsamen Erklärung vom 30.7.2010 mit den Verbänden der energieintensiven Industrien, d.h. der Bundesvereinigung Glas BV Glas, dem Verband Deutscher Papierfabriken VDP, dem Verband der Chemischen Industrie VCI, der Wirtschaftsvereinigung Metalle WV Metalle, der Wirtschaftsvereinigung Stahl WV Stahl sowie dem Bundesverband der Deutschen Industrie BDI forderte dann die Gewerkschaft die Regierung auf, ihre neuen Pläne zur Vervielfachung der Ökosteuer über die Erhöhung der Energie- und Stromsteuersätze für das produzierende Gewerbe sowie zur Einführung weiterer die Energie betreffender Belastungen aufzugeben.

Der Regierung wurden darin einige Fakten ins Stammbuch geschrieben: Als erstes "stellten diese Pläne einen Bruch der geltenden Klimaschutzvereinbarung zwischen Regierung und der Wirtschaft dar, die vom BDI unterzeichnet wurde, denn die darin zugesagten Treibhausgas-Emissionsminderungen sind erreicht worden." Die nun geplante neue Kostenbelastung "würde der deutschen Industrie und besonders der energieintensiven Industrie einen empfindlichen Wettbewerbsnachteil gegenüber ihren weltweiten Wettbewerbern zufügen. Schon jetzt gehörten die Energiekosten in Deutschland zu den höchsten in Europa und der Welt."

Die Unterzeichner wiesen darauf hin, "daß die geschlossenen Wertschöpfungsketten, die auf den energieintensiven Grundstoffindustrien aufbauen und eine große Stärke des Industrielandes Deutschland sind", mitsamt ihren Arbeitsplätzen erhalten werden müssen. Dann die deutlichsten Sätze: "De-Industrialisierung, wie sie in vielen westlichen Ländern seit einiger Zeit schleichend erfolgt, kann für Deutschland keine Option sein. Es muß gelten, den Industriestandort Deutschland zu stärken. Die Vorschläge zu einer weiteren nationalen Verteuerung der Energie für die Industrie bewirken das Gegenteil."

Diese schallende Ohrfeige für die Regierung wurde von den Medien ignoriert.

Auch nach der Erdbebenkatastrophe in Japan und den anschließenden hektisch-hilflosen Manövern der Bundesregierung redete der Gewerkschaftsführer am 15.3.2011 Klartext – und das hörte sich so an:

Vassiliadis bewertete das Moratorium zur Laufzeitverlängerung als "bestenfalls ersten Schritt in die richtige Richtung".  Die Regierung müsse nun unverzüglich zu Gesprächen einladen, um in Deutschland einen neuen Energiekonsens mit einem schrittweisen Ausstieg aus der Kernenergie zu ermöglichen. Die IGBCE würdigte die erklärte Bereitschaft der Bundesregierung, die Kernenergie vorbehaltlos zu überprüfen. Das Moratorium reiche allerdings nicht aus.

"Die Laufzeitverlängerung für Atomkraftwerke in unserem Land war und ist falsch." Je schneller die Regierung die notwendigen Konsequenzen aus dieser Einsicht ziehe, um so schneller könnten die Entscheidungen für ein Umsteuern in der Energiepolitik getroffen werden. "Wir dürfen nicht noch einmal wertvolle Zeit verlieren, um zu einer sicheren Versorgung jenseits der Kernenergie zu kommen."

Ein Atomausstieg erfordert nach den Worten von Vassiliadis eine "gleichzeitige Investitions-Offensive in eine moderne, also leistungsfähige und umweltschonende Energie-Infrastruktur."  Um "eine tragfähige Brücke in das Zeitalter regenerativer Energien" zu schaffen, müßten Netz-Kapazitäten und das Kraftwerksportfolio ausgebaut werden. "Ein Atomausstieg erfordert zügige Antworten, wie wir weiterhin Versorgungssicherheit und Netzstabilität garantieren können."

Und nun kommt´s: "Für die IGBCE ist es unabdingbar, die Neubewertung der Kernenergie mit einer Neubewertung von Stein- und Braunkohlekraftwerken zu verbinden." Das beinhalte auch eine "Neubewertung von Technologien zur Speicherung und Verwertung von CO2." Denn die "Brücke in die Energiezukunft" brauche eine "Klimaschonende Verstromung von Kohle als stabilisierenden Pfeiler."

Diese Stellungnahme ist in mehrfacher Hinsicht bemerkenswert:

1. Die IGBCE gibt die Kernenergie auf. Und damit auch ihre Arbeitsplätze. Nicht ganz unproblematisch. Aber das soll ja schrittweise gehen. 

2. Sie betont mehrfach und unmißverständlich die Notwendigkeit der  Versorgungssicherheit und Netzstabilität. Eine versteckte, aber deutlich klare Absage an den weiteren Ausbau der Windkraft und des Solarstroms, die beiden Forderungen nicht gerecht werden können; ihnen im Gegenteil entgegenstehen.

3. Die Forderung nach einem Ausbau der Energie-Infrastruktur ist nicht neu und hier eine Pflichtübung. Daß der Netzausbau für den besseren Windstromtransport sehr lange dauert – nicht zuletzt wegen der verrückterweise von den Grünen unterstützten Bürgerinitiativen – weiß auch Herr Vassiliadis.

4. Der IGBCE-Chef schafft einen energiepolitischen Geniestreich: Er erfindet eine neue Brückentechnologie – nämlich die Kohle. Das ist dann die Brückentechnologie zum Ersatz der nun wohl leider auslaufenden Brückentechnologie Kernkraft (O-Ton Merkel). Diese angebliche Brückentechnologie Kohle ist aber tatsächlich mit weitem Abstand das       Rückgrat der Stromerzeugung weltweit und wird es noch sehr lange bleiben.

5. Die kurze Pflichtverbeugung vor dem Mantra "Zeitalter regenerativer Energien" wird sofort von der Forderung nach einer "Neubewertung von Stein- und Braunkohle" konterkariert.

6. Die Forderung nach einer "Klimaschonenden Verstromung von Kohle als stabilisierender Pfeiler" (im Klartext: Als Grundlast, wie es die Kernenergie noch  ist) sagt überdeutlich, was gewollt ist. Das Wort "Klimaschonend" ist dabei ein politisch korrektes Adjektiv.

7. Etwas rätselhaft und eher ebenfalls nur politisch korrekt ist die Forderung nach einer Neubewertung von Technologien zur Speicherung und Verwertung von CO2.

Herr Vassiliadis weiß natürlich genau, daß allein die Abtrennung von CO2 in einem Kohlekraftwerk etwa 20 Jahre von ihrem breiten Einsatz entfernt ist und daß unvermeidlicher Wirkungsgradverlust sowie Kostensteigerung massive Probleme bringen. Er kennt ebenfalls die enormen Widerstände gegen die unterirdische CO2-Speicherung in Deutschland. In den Niederlanden hat die Regierung aus dem gleichen Grund kürzlich auf derartige Pläne verzichtet.

Ein Schlupfloch für die Koalition

Für Merkel, Seehofer und Westerwelle bieten diese Forderungen gleichermaßen Chancen und neue Probleme.  Mit der Kernkraft dürfte es nun mittelfristig zu Ende gehen. Eine Kapitulation ist fällig. Immerhin wird eine Übergangsfrist eingeräumt. Dafür müssen die Koalitionäre die Kohle-Pille schlucken, was ihnen aber nicht schwer fallen dürfte: Neue und zahlreiche Kohlekraftwerke und dazu sicher auch der Weiterbetrieb der verbliebenen Steinkohle-Zechen; letzteres eine Niederlage der FDP. 

Der Vorschlag wäre auch von der SPD kaum abzulehnen, denn ihr langjähriger Kampf für die Kumpel im Steinkohlebergbau würde belohnt werden. Und die Unterstützung durch eine der mächtigsten Industriegewerkschaften wäre ihr sicher. Die Grünen würden durch einen solchen unverhofften CDU-SPD-Kompromiß  ins Abseits geraten, aber wen würde das noch interessieren ?

 Daß ein massiver Zubau von Kohlekraftwerken in der Realität  vollkommen ohne CO2-Abtrennung ablaufen wird,  ist bereits durch den rudimentären Stand dieser Technik entschieden. Die Grünen werden heulen und Frau Merkel muß ihre Rolle als letzte verbliebene Retterin des Planeten vor der Klimakatastrophe aufgeben, denn unser "CO2-Ausstoß" wird gewaltig steigen. Was soll´s, schließlich geht allein in China jede Woche ein neues Kohlekraftwerk ans Netz. Dann können auch wir uns 15 neue Kraftwerke leisten und dafür vielleicht sogar ein paar Altanlagen abschalten. Dafür bekommt Frau Merkel  Ruhe an der Atomfront und ausreichend Grundlaststrom. Der Netzausbau eilt nicht mehr; die warnenden IGBCE-Worte zur Netzstabilität genügen.

Also vorwärts in die Vergangenheit der Vor-Kernkraftzeit. Immer noch besser als Sarkozys  teuren Atomstrom kaufen zu müssen.

Vassiliadis´ Vorschläge sind im Grunde die Rettung von Schwarz-Gelb aus ihrem Dilemma. Und eine Entlastung der Bürger sowie der Industrie wird vermutlich zusätzlich durch die gewaltigen, jetzt erschließbaren Erdgasvorkommen in Deutschland und Europa erfolgen, da die Preise deutlich sinken werden.

Dann wäre es auch an der Zeit, die Versäumnisse unserer Regierungen bei der Einführung von Erdgas als Fahrzeugantrieb aufzuholen – und dem unsinnigen E-10-Biosprit den verdienten Garaus zu machen.

Ein Sieg der Medien über die Regierung

Die Naturkatastrophe in Japan und ihre irrationalen Konsequenzen in Deutschland werfen ein grelles Licht auf den Verfall der Rationalität und die rein angstgesteuerte Verhaltensweise in der politischen Kaste. Man kann von einem großen Sieg des von den Grünen perfektionierten Prinzips der systematischen Angstverbreitung in der Bevölkerung sprechen. Das entscheidende Mittel für den Erfolg dieses Prinzips sind die Medien, die jetzt mit ihrer Berichterstattung drastisch allen vor Augen führten, daß ihre wichtigsten Schaltstellen von Grünen und Roten besetzt sind. Auf allen Fernsehkanälen, insbesondere bei ARD und ZDF, gab es in den ersten vier Tagen ausschließlich "Experten" von Greenpeace und den Ökoinstituten Wuppertal und Darmstadt zu sehen, die ihre Chance weidlich nutzten. Dazu kamen Mediziner, die über die Wirkung einer "Verstrahlung" berichteten.

Die Angstfabrik lieferte in kürzester Zeit das gewünschte Ergebnis: Eine hilflose Regierung, die plötzlich angeblich offene Sicherheitsfragen bei den bisher doch absolut sicheren Kernkraftwerken zu klären versprach, die ihre gerade erkämpfte Laufzeitverlängerung in Frage stellte,  die eine weitere, noch stärkere Förderung der Erneuerbaren zusagte (die Photovoltaik-Produzenten in China, die den Löwenanteil der den Verbrauchern abgepressten Subventionen einstreichen, werden entzückt sein), die unter Hohn und Spott alles auf den Opferstein zu legen bereit ist, was Grüne und SPD fordern. Und die dabei endgültig ihr Gesicht verliert, wie man in Japan sagen würde.

Aber vielleicht greift die Koalition nach dem ihr von Michael Vassiliadis hingehaltenen Strohhalm.

Eigentlich kaum zu glauben, was ein Erdbeben und ein Tsunami in Japan im auf der anderen Seite der Weltkugel liegenden Deutschland so alles anrichten können.

 tlw. überarbeitet am 24.3.11 

Dr. Ing. Günther Keil für EIKE; Sankt Augustin

Günter Keil war als wissenschaftlicher Mitarbeiter an der TU München / Fraunhofer Gesellschaft sowie im Bereich Projektförderung beim Bundesforschungsministerium tätig. Heute lebt er als freier Autor in Sankt Augustin.




Ideologie und Realität!

Die Realität sieht anders aus. Keine technische Anlage, auch kein Kernkraftwerk kann mit 100% Sicherheit betrieben werden. Sicherheit lässt sich nur nach der Wahrscheinlichkeit eines Unfalls definieren. Sehr unsicher ist z.B. der Straßenverkehr. Jeder 250. Deutsche stirbt bei einem Verkehrsunfall. Fliegen ist dagegen sehr viel sicherer. Nur jeder 1.000.000. Fluggast stirbt bei einem Flugzeugunfall. Die Gefährdung durch Kernkraftwerke ist noch weit geringer. In Japan ist nach bisherigen Kenntnissen noch kein Mensch an den defekten Reaktoren einer tödlichen Strahlendosis ausgesetzt gewesen.

Besonders in Deutschland werden von verantwortungslosen Politikern oder Weltverbesserern Emotionen gegen Kernkraftwerke geschürt, die keine reale Grundlage haben. Sie werden von den Medien begierig aufgegriffen und als Wahrheiten verbreitet, wie es die derzeitigen Berichte über Japan zeigen.

Dazu gehören auch die Aussagen von Dr. Pohlmeier von der Organisation „Ärzte gegen Atomkrieg“. Er behauptet, nach dem Reaktorunfall in Tschernobyl hätte es 50.000 Krebserkrankungen an Schilddrüsen gegeben und 100.000 Menschen wären an den Folgen der Strahlenbelastung um Tschernobyl gestorben (s. WZ vom 15. 3. 2011). Eine internationale Expertenkommission von ca. hundert unabhängigen Wissenschaftlern hat die Auswirkungen des Unfalls untersucht und dokumentiert. Die Übersetzung des Ergebnisses von www.energiefakten.de lautet wie folgt:

  • Es gab 31 Soforttote.
  • Weitere rd. 20 Menschen dürften später an Strahleneinwirkungen gestorben sein*.
  • Insgesamt müssen etwa 4.000 der 600.000 mit höheren Strahlendosen beaufschlagten Personen (sog. Liquidatoren und spät umgesiedelte Bewohner einer 30-km-Schutzzone um den Reaktorstandort) mit einer Verkürzung ihrer Lebensdauer rechnen.
  • Bei mehreren tausend Kindern, bes. in der Region Gomel, trat infolge des Einatmens von radioaktivem Jod Schilddrüsenkrebs auf; mehr als 99 % davon konnten jedoch geheilt werden.
  • Eine messbare („signifikante“) Zunahme der Erkrankungen an Krebs und Leukämie sowie von Fehlgeburten und Missbildungen Neugeborener über das normale Maß hinaus wurde nicht festgestellt.
  • Insbesondere viele aus der Schutzzone umgesiedelte Menschen sind psychisch stark belastet.

Wir sollten alle schnell zur Realität zurück kehren und Japan helfen, statt hier einen ideologischen Streit zu entfachen.

* ergänzend dazu ein Artikel in der FAZ vom 11.3.11 siehe pdf Anlage

Prof. Dr. Ing. Appel; Autor des Sachbuches "Energie Schlüssel zum Wohlstand"

Lesen Sie dazu auch das sachlich kühle Interview in der SHZ vom 15.3.11 :  

"Tschernobyl wiederholt sich nicht" …Der in Schleswig aufgewachsene Peter Thiemann hat am Kühlsystem für Fukushima I mitgearbeitet – und dessen Sicherheit getestet. Im Interview spricht er über die Situation in Japan.

F: Herr Thiemann, Sie waren am Bau der Anlagen für die Fukushima-Kraftwerke direkt beteiligt. Was wissen Sie über die derzeitige Situation und woher haben Sie ihre Informationen?

A: Während des Erdbebens waren nur die Reaktoren 1 bis 3 in Betrieb, die Reaktoren 4 bis 6 waren wegen Wartungsarbeiten stillgelegt. Obwohl die drei angeschalteten Reaktoren beim Erdbeben direkt herunter gefahren wurden, wird durch den weitgehenden Zerfall der Kernelemente auch weiter Wärme produziert – und keines der intakt gebliebenen Notfall-Kühlsysteme funktioniert, weil es derzeit keine Möglichkeit gibt, sie mit Strom zu versorgen. Die unteren Stockwerke der Reaktorblöcke wurden durch den Tsunami geflutet. Dadurch wurden die Not-Generatoren für die Kühlung zerstört, gleichzeitig ist es wegen des Wassers im Moment unmöglich, mobile Generatoren anzuschließen. Ich bin in Kontakt mit meinen ehemaligen Kollegen bei General Electric und der Nuclear Regulatory Commission, der US-Atomsicherheitsbehörde.

Related Files




Träum weiter Deutschland! Politisch korrekt gegen die Wand!

Nach Lektüre dieses Buches dürften die meisten Leser nur eines denken: Möge das alles doch, bitte, nicht wahr sein! Doch es steht zu fürchten, dass auch diese Arbeit Günter Ederers – wie stets, wenn er zu Stift oder Kamera greift – die Wirklichkeit verlässlich abbildet. Die hier akribisch und unbestechlich vorgelegte Faktensammlung zur Lage der Nation zeigt: Die große Mehrheit der Bürger unseres Landes lebt ganz augenscheinlich in einem eigenwilligen Zustand der schwersten politischen und gesellschaftlichen Realitätsverweigerung. Die bange Hoffnung der lichten Momente, alles werde so schlimm schon nicht sein oder sich jedenfalls irgendwie schmerzlos wieder fügen, diese Hoffnung muss an den harten Wirklichkeiten brechen. Die verbreitete Illusion von einer –  natürlich politisch korrekten – Herstellung allgemeinen Weltenglücks wird an diesen, von Ederer erbarmungslos zusammengetragenen deutschen Realitäten zerschellen.

Von welchen Realitäten also erfährt der Leser hier, diesseits der öffentlich-rechtlichen und linientreu-opportunistischen Hofberichterstattung? Mit bulliger Wucht holt Ederer aus zu einem historischen, systematischen und empirischen Säbelhieb auf die deutsche Gegenwartsbefindlichkeit. Und der vorgetragene Schlag auf diese Gesellschaft, die schon so lange auf den angemahnten „Ruck“ wartet, ist ebenso notwendig, wie er derzeit – leider meist noch alternativlos – seinesgleichen sucht.  Wie also kam es zu dieser Flucht aus der Realität in den Traum?

Die erste wesentliche Wurzel dieser deutschen Realitätsverweigerung verortet Ederer bereits in der Kanzlerschaft Ottos von Bismarck. Dieser hatte bekanntlich angesichts der wachsenden staatlichen Legitimationskrise des 19. Jahrhunderts beschlossen, die durch physische Gewalt absehbar nicht mehr beherrschbaren Massen politisch stattdessen dadurch – so wörtlich – „zu bestechen, den Staat als soziale Einrichtung anzuschauen, die ihretwegen besteht und für ihr Wohl sorgen möchte“. Mit diesem agitatorischen Handstreich des eisernen Kanzlers war der Grundstein dafür gelegt, dass den Deutschen seither – faszinierender Weise ungeachtet der jeweils wechselnden Staatsform – immer wieder erfolgreich vorgespiegelt werden konnte, politische Macht werde, ganz selbstlos, stets nur zu ihrem je eigenen Wohl ausgeübt. Seit jener Zeit glaubt der Deutsche aber nicht nur allzu gerne, politische Macht diene seinem sozialen Wohl. Seit jener Zeit erwartet er darüber hinaus von seinen politischen Führern geradezu, genau diese Staatslegitimation immer wieder hergesagt zu hören. Ein solches ideologisches Geben und Nehmen konnte naturgemäß über anderthalb Jahrhunderte nicht ohne Konsequenzen bleiben.

Aus der preußischen Staatsdoktrin, dass der Befehlende für das Wohl seines Untergebenen verantwortlich sei, konnte sich in der Folge demnach ganz nahtlos die Vorstellung entwickeln, jene staatliche Fremdverantwortung müsse umso besser gelingen, je mächtiger der Befehlende sei. Die unter dieser Annahme konsequent zunehmende Übertragung von immer mehr Eigenverantwortung an den Staat musste dann, spiegelbildlich, zum Einfalltor für auch immer größere politische Machtansprüche werden. In die somit vorbereitete bürgerliche Bequemlichkeitserwartung an den Staat fügte sich das ideologische Angebot Ernst Forsthoffs aus dem Jahre 1938 nur zu trefflich, am besten doch gleich die ganze menschliche „Daseinsvorsorge“ einem allzuständigen Staat zu überantworten.

So nahm das Drama seinen weiteren Lauf. Goebbels Propaganda wusste die sozialen „Errungenschaften“ des nationalsozialistischen Staates für diese Erwartungshaltung trefflich zu verkaufen: Die Einführung des Kindergeldes, die Steuerfreiheit von Nacht- und Wochenendarbeit, die Abschaffung der Studiengebühren und die progressiven Steuern für höhere Einkommen; alles fügte sich in jenen Plan, den Hitlers Finanzstaatssekretär Fritz Reinhard auf den Begriff von der „unbedingten sozialen Gerechtigkeit“ für alle brachte.

Pikant an dieser historischen Herleitung des „sozialen Staates“ ist nicht nur, wenn Ederer die ideologischen Identitäten der nationalsozialistischen Vorgehensweise mit denen der sich „antifaschistisch“ nennenden DDR beschreibt; denn gerade die wollte bekanntlich ebenso mit „Volkseigentum in Volkeshand“ alle elementaren menschlichen Grundbedürfnisse staatlicherseits befriedigt wissen. Pikant sind umso mehr die Parallelen zwischen jenen (bezeichnenderweise auch in Staatsbankrotten geendeten) historischen deutschen Politikstrategien und denen des heute aktuell agierenden bundesrepublikanischen Staatswesens.

Denn nicht nur Hitlers Reichsfinanzminister Johann Ludwig Graf Schwerin von Krosigk war de facto ebenso pleite wie Honeckers Finanzexperten Ernst Höner, Alexander Schalck-Golodkowski oder Gerhard Schürer. Auch die Finanzmanager der Bundesrepublik Deutschland lebten und leben bekanntermaßen konsequent über die Verhältnisse der eigenen Bevölkerung: Kopfschüttelnd bemerkt Ederer, dass ausgerechnet politisch in Amt und Würden gehievte Experten wie die Vorstandsprecherin Ingrid Matthäus-Maier der Kreditanstalt für Wiederaufbau oder Peer Steinbrücks Staatssekretär Jörg Asmussen mit ihren Entscheidungen anlässlich der letzten sogenannten Finanzkrise konsequent Unsummen von Steuergeldern ihrer Bürger im Nichts versenkten – ohne jede persönliche nachteilige Konsequenz. Die seit Bismarck eingeübte bürgerliche Faktenverdrängung wiegt auch den Gegenwartsdeutschen im irrigen Gefühl, in sozialen Fragen durch Politikerhand bestens versorgt und abgesichert zu sein. Wie schlecht dieser Schlaf tatsächlich ist, zeigt Ederers Blick auf die personelle Besetzung des Verwaltungsrates der staatlichen Kreditanstalt für Wiederaufbau; wohl kaum sonst ein Banker hat in der letzten Krise mehr finanzielle Fehlentscheidungen getroffen, als die dort als Bankenmanagement versammelte ‚creme de la creme‘ der deutschen Politeliten.

Trotz alledem ist der Traum von der staatlichen Lösung aller Probleme in Deutschland noch immer nicht ausgeträumt. Im Gegenteil. Die politische Propaganda bedient unverdrossen und erwartungsgerecht den Glauben der Massen an ein „Marktversagen“. Und die Bevölkerung lässt sich von den zentralstaatlichen Glücksverheißungen nur allzu gerne in immer neuen Diskussionsrunden betören. Von einer solchen Diskussion mit Peer Steinbrück in Passau berichtet Ederer gleich an mehreren Stellen. Und es macht mehr als nachdenklich, seinen Bericht über die dortige Rhetorik des gewesenen Bundesfinanzministers lesen zu müssen. Denn wenn schon ein welterfahrener Journalist den Unverfrorenheiten dieses Gegenübers fassungslos gegenübersitzt; welcher Wille zur Macht und welche schier grenzenlose Illusionistenbereitschaft mögen hinter diesem Vorgehen des Staatsvolkswirtes noch lauern?

Den perfiden Mechanismus, durch die notorisch politische Verfolgung der „guten Zwecke“ geradewegs in die Staatspleite zu zielen, skizziert Ederer ebenso knapp wie zutreffend. Nur wenn und weil ein Staat sich ständig für politisch motivierte Subventions- und Förderungsprogramme immer weiter überschuldet, können auf der anderen Seite nämlich erst jene gigantischen Guthaben entstehen, deren Existenz dann von denselben – Scheins wieder nur gutmeinenden – Politikern populistisch als Supergewinn der marktexzessiv geldgebenden Großbanken verteufelt wird: „Damit schließt sich der unheilvolle Kreis. Weil die Bevölkerung erst mit falschen Lösungen und irreführenden Parolen berieselt wird, ergeben Umfragen, dass der Staat als Retter angesehen wird. Weil der Staat als Retter gesehen wird, verlangen Politiker mehr Einfluss des Staates auf die Wirtschaft. Erhält der Staat mehr Einfluss, verschlechtern sich die wirtschaftlichen Daten, verschärfen sich die sozialen Konflikte.“

Je komplizierter die Verhältnisse durch den somit allüberall (hier besteuernd und dort subventionierend) intervenierenden Staat gestaltet werden, desto hilfloser und überforderter steht der einzelne Bürger der Lage gegenüber. Statt aber endlich Abhilfe zu fordern, fällt er wieder und wieder reflexhaft zurück in den bequemen und blind-unkritischen Glauben, der Staat werde ja zuletzt schon alles für ihn richten. Und die politisch korrekten Meinungsmacher wissen, diesen Glauben durch notorisches Propagieren der beharrlich eingeübten Staatsziele zu stützen: Nach dem sich langsam verbrauchenden Bismarck’schen Staatszweck vom immer mehr „Sozialen“ stehen nun zunehmend die Umwelt und ihr Schutz in allen denkbaren Erscheinungsformen zur Legitimation von allfälligem Staatshandeln bereit. Während hier der kanzlerinberatende Klimaprotagonist Joachim Schnellnhuber erklärt, alle Völker der Welt seien unfähig, das Erdklima zu schützen (nur er könne es?), verkauft Frank H. Asbeck äußerst lukrativ mit Steuerzahlers Unterstützung Solartechnik und erfreuen die Grünpolitiker ihr ohnehin schon gut verdienendes Klientel mit weiteren klimafreundlichen Staatssubventionen aus einem Gesetz, das Energie für erneuerbar halten will.

Egal, wie sich der gläubig träumende Bürger dreht und wendet: Bezahlt wird alles stets mit seinem Geld. Die Chancen, das eigene Leben selbst zu gestalten und die überschaubare Welt vor der eigenen Tür besser und lebenswerter zu gestalten, schwinden unter diesen Verhältnissen immer mehr. Dass in dieser Welt, die von Berlin aus das Weltklima, nicht aber die Familie schützen will, dann auch immer weniger eigene Kinder geboren werden, verschärft auch nach Ansicht Günter Ederers die soziale Lage Deutschlands erheblich. Nachdem die Bundeskanzlerin kürzlich schon Thilo Sarrazins kleine Wahrheiten über Integrationspolitik „nicht hilfreich“ fand, bleibt abzuwarten, was sie über jene vielfachen Wahrheiten Günter Ederers verlauten lässt, sobald sie auch sein Buch nicht gelesen haben wird.

Mit diesen tragischen Verstrickungen und Verwicklungen aus Realität und Illusion sind die kritischen Beobachtungen Günter Ederers indes noch lange nicht an ihrem Endpunkt angelangt. Staatsbanken und Staatsunternehmen schicken sich auch in der Bundesrepublik nach wie vor an, die „Daseinsvorsorge“ der gutgläubigen Bürger zu gewährleisten. Doch in dem Treiben, das Milliarden um Milliarden Steuergelder (also: im Schweiße ihres Angesichtes produziertes Bürgereinkommen) verschiebt, haben alle Beteiligten längst rettungslos den Überblick verloren. Während auf der einen, beschenkten Seite schon der Beruf des „Förderrichtlinienberaters“ entstanden ist, um dort das Einheimsen von Subventionen zu optimieren, werden auf der anderen, einsammelnden Seite von einer – ebenso überforderten – Steuerverwaltung beim Mitteleintreiben unbedachtsam Existenzen vernichtet. Rechtsschutz? Vorläufig Fehlanzeige, pardon; die zuständige Richterin weilt wiederholt im Mutterschaftsurlaub! Die detaillierte Schilderung der Einzelfälle macht hilflos und zornig; sie zeigt jedoch auch das bittere Paradox für den staatsgläubigen Bürger: „Wir begeben uns freiwillig in die Hände von Vater Staat, sind dann aber zu Tode erschrocken, wenn wir feststellen, dass dieser Vater sich als Amtmann zu erkennen gibt“.

Die Dramen des verbeamteten Staates sind zuletzt nicht nur seine faktische Unbezahlbarkeit und die längst eingetretene, aber träumend verleugnete Überschuldung. Es ist die Tatsache, dass interessierte und einflussreiche Eliten sich den staatlichen Machtapparat vielerorts zunutze machen, um ihre eigenen ideologischen und/oder wirtschaftlichen Partikularinteressen rücksichtslos gegen die ahnungslose Mehrheit durchzusetzen, was ihnen (Ludwig Erhard hatte es gewusst) in einer wahrhaften Marktwirtschaft nie gelingen könnte. Den einzigen Ausweg aus diesen Dilemmata – und mithin die einzige Chance zu einem Erwachen aus dem kollektiven Staatsbeglückungstraum – sieht Ederer in einer Wiederentdeckung einer ernsthaften individuellen Freiheit und Verantwortung.

Einen unerwarteten Hoffnungsschimmer mag man darin erblicken, dass inzwischen immer mehr Bürger den Großplanungen der Behörden nicht mehr blind Glauben schenken mögen. Denn auch wenn beispielsweise der spät inszenierte Protest gegen „Stuttgart 21“ personell von eher merkwürdigen Protagonisten angeführt wurde, so zeigt er doch jedenfalls dies: „Auf der einen Seite wird der Staat als Garant für das Allgemeinwohl gesehen und gestärkt, auf der anderen laufen die Bürger Sturm gegen die Entscheidungen, die ihnen die Bürokratie im Auftrag des Staates oktroyiert.“

Damit das gegenwärtige Staatskonstrukt Deutschlands nicht wieder (wie seine Vorgänger) krachend gegen die Wand fährt, bedarf es nach Auffassung Ederers einer Art gesellschaftlicher Vollbremsung mit anschließendem Bekenntnis zu weniger Staat, zu mehr Wettbewerb, zu mehr Eigenverantwortung, zu weniger Gleichheit und zu mehr Freiheit. Denn unseren gegenwärtigen Staat kennzeichnen nach Ederers überzeugender historisch-empirischer Analyse vier tragische konstruktive Fehler: (1.) Eine Überheblichkeit und angemaßte Autorität der Eliten wie zu Kaisers Zeiten; (2.) eine wirtschaftspolitische Unsicherheit im Umgang mit wirtschaftlichen Schieflagen wie in der Weimarer Republik; (3.) eine Umverteilungsbereitschaft des Staates wie zu Zeiten des nationalen Sozialismus und (4.) die utopische Denkweise von Gleichmacherei wie in der DDR.

Wer die weitere politische und gesellschaftliche Entwicklung Deutschlands kritisch verfolgen und begleiten will, der kommt an Günter Ederers kenntnisreicher und profunder Analyse unseres Landes schlechterdings nicht vorbei. Sein Buch ist insofern alternativlos hilfreich.

Carlos Gebauer am 14. März 2011 die Originalrezension erschien auf eigentümlich frei

Wie sehr den Klimalarmisten dieses Buch bitter aufstösst zeigt dieser Beitrag auf der Klimaretter Website




Anmerkungen zum Fachgespräch der Grünen: „Das Interesse am Zweifel!…“

Update 15.3.11
Eine Veranstaltung, in der man gegenteilige Auffassungen diskutieren kann, ist eine gute Sa­che. Michael Limburg, Vizepräsident von EIKE, folgt der Einladung und meldet sich als Kli­maskeptiker an – mit dem Angebot, sich vom Podium aus mit einem Beitrag an der Diskus­sion zu beteiligen. Aber so hatte man sich das bei Bündnis 90/Die Grünen nicht gedacht und teilt mit, als Hörer möge er teilnehmen, weitere Podiumsredner seien nicht vorgesehen. Fak­ten-basierte Meinungen sind folglich unerwünscht. Um dem Publikum und vor allem den Be­suchern von EIKE im Internet das Verständnis der unterschiedlichen Positi­onen zu erleichtern bzw. diese zu begründen, wird im folgenden eine Zustandsbeschreibung angeboten. Betreff: Arbeitsgruppe Energie und Klima.

Der technische und medizinische Fortschritt der letzten Jahrhunderte basiert auf den Erkennt­nissen der Natur- und Ingenieurwissenschaften, und ihre Arbeitsergebnisse beeinflussen ent­scheidend die weitere Entwicklung – nicht mehr wie anfänglich für nur eine Milliarde Men­schen, sondern jetzt für ca. sieben und bald schon für neun. Die Parlamentarier sind mit dem Dilemma konfrontiert, für ihre Entscheidungen eine Welt verstehen zu müssen, die den aller­meisten von ihnen fremd ist, denn nur wenige sind dafür ausgebildet und verfügen gar über praktische Erfahrungen in relevanten Tätigkeitsfeldern. Das ist in allen Fraktionen so, am meisten aber wohl bei Bündnis90/die Grünen, denn nur sehr wenige ihrer Abgeordneten haben natur- oder ingenieurwissenschaftliche Lern- oder Praxiserfahrungen, während Juristen, Poli­tologen, Pädagogen, So­ziologen, Betrieb- und Volkswirte etc. dominieren. Das bliebe uner­heblich, würden sie nicht trotz ihrer natur- und ingenieurwissenschaftlichen Inkompetenz au­ßerordentlich weitreichende Forderungen für die technologische Umgestaltung unserer Ge­sellschaft stellen. Man strebt grundlegende Änderungen an, obwohl man wegen weitgehender Unkenntnis und Unerfahrenheit mit der Praxis weder die Realisierbarkeit noch das Ergebnis beurteilen kann. Wäre es nicht so wichtig und bitter ernst, man könnte schallend lachen!

Lenin verordnete 1917 seiner Revolution in Russland das Gebot: „Alle Macht den Räten“. Das furchtbare Ergebnis ist bekannt: wer auf Erden den Himmel errichten will, landet in der Hölle. In Russland war das so, und wir sollten daraus lernen. Das ist wegen der sehr weitge­henden Änderungswünsche von Bündnis 90/Die Grünen einerseits und ihrem Mangel an Beurteilungskompetenz andererseits dringend erforderlich. In Analogie zu Lenins Gebot, den schlimmen Auswirkungen des Bolschewismus und in Anbetracht der Radikalität von Bündnis 90/Die Grünen wird hier die Frage gestellt:

Alle Macht den Laien ??

Veranlassung

Bündnis 90/Die Grünen veranstalten im Bundestag ein Fachgespräch über die Klimaskepti­ker und deren Zweifel am Klimawandel und laden dazu ein. Es sollen die Strategien erläutert und erkannt werden „wer dahintersteht“. In der Einladung wird beklagt, dass ihre „…anfangs auf Internet-Foren beschränkte Tätigkeit …..den Bundestag erreicht“  hat, wo „Politiker von CDU/CSU und FDP…den unseriösen und unwissenschaftlichen Thesen …ein Forum geben“.

Für das Fachgespräch sind im ersten Teil Vorträge von Bärbel Höhn MdB, der Stellvertreten­den Fraktionsvorsitzenden, Dr. Dieter Plehwe, im Nebenberuf Vorstand bei LobbyControl und vom Steuerzahler besoldet im Wissenschaftszentrum Berlin (WZB) angestellt, der Medienmanager Tim Nuthall  von CAN Europe einer internationalen Lobbygruppe zur Bekämpfung des Klimawandels , und Prof. Dr. Stefan Rahmsdorf, „Potsdam Institut für Klimafolgenfor­schung“ (PIK) vorgesehen. Die anschließende Podiumsdiskussion mit den vorgenannten Refe­renten wird  von Dr. Hermann Ott MdB, beurlaubt vom linken Wuppertal Institut für Klima, Umwelt, Energie moderiert.

Mit Ausnahme von Stefan Rahmsdorf, der als Physiker Klimaforschung betreibt, haben die anderen Referenten fachfremde Berufe: Frau Höhn ist Mathematikerin, Herr Plehwe (vermut­lich) Sozial­wissenschaftler und Herr Ott Jurist. Dieses Fachgespräch von Bündnis 90/Die Grünen wurde vermutlich von Frau Höhn und Herrn Ott initiiert und konzipiert.

Zweck des Fachgesprächs

In dem Fachgespräch sollen „die Hintergründe der derzeitigen Aktivitäten der Klimaskepti­ker“ beleuchtet werden.  Das kann nicht gelingen, wenn nur Klimawandel-Propagierer vor­tragen und die Podiumsdiskussion bestreiten. Wenn man sich nur gegenseitig die eigenen Überzeugungen vorträgt und erörtert und unter sich bleibt, kann man nichts Neues erfahren. Bestenfalls versichert man sich gegenseitig, auf dem rechten Wege zu sein. Vermutlich soll aber die Veranstaltung auch vor allem nach innen wirken und verhindern, dass eigene Leute in der Auseinandersetzung mit Gegenargumenten auf ketzerische Gedanken kommen.

Diskussion am Runden Tisch ?

Wollte man die gegensätzlichen Auffassungen der Klimarealisten wirklich kennen lernen, um sich damit in der Sache auseinander zu setzen, wäre ein Runder Tisch eigentlich das geeignete Forum. Allerdings würde es in diesem Falle nicht helfen: Wann immer man Ver­tretern von Bündnis90/Die Grünen, u.a. Herrn Özdemir, Herrn Dr. Ott und Herrn Ströbele, Tempe­ratur­kurven geschickt hat, die den Temperaturverlauf in bis zu 3 ½ Jahrhunderten an­zeigen, erken­nen sie diese nicht an und bewei­sen damit, dass sie die auf Messungen beruhen­den Fakten nicht akzeptieren. Dabei demonstrieren diese Darstellungen unbezweifelbar, dass außer unbe­deutenden Temperaturschwankungen kein wirklicher Klima­wandel stattgefunden hat. Die Absurdität dieser Faktenresistenz lässt sich mit einem Ver­gleich verdeutlichen: auf dem Bo­den liegende Scherben einer herabgefallenen Vase wür­den sie nicht als Beweis für die Exis­tenz der Schwerkraft ansehen.

Die Möglichkeit, dass Vertreter von Bündnis90/Die Grünen mangels Fachwissen  unfähig sind, Temperaturganglinien zu interpretieren, ist zwar unwahrscheinlich, in Anbetracht der Berufe – Herr Ott und Herr Ströbele sind Juristen – jedoch nicht einfach auszuschließen. Noch erstaunlicher ist, dass selbst Herr Rahmstorf nicht nur die Aussage solch’ überzeugen­der Basisfakten, wie sie Temperaturkurven darstellen, leugnet, sondern auch bewusste Falschdarstellungen der Globalen Mitteltemperatur durch IPCC oder GISS in Form überhöh­ter Maßstäbe nicht zur Kenntnis nimmt.

Bündnis 90/Die Grünen  kritisieren, dass Klimarealisten zweifeln und dass ihre Thesen un­wissenschaftlich seien. Dass sie zweifeln, ist richtig, denn dazu sind sie bis zum eindeutigen Beweis des Gegenteils verpflichtet. Dass ihre Thesen unwissenschaftlich sein sollen, ist eine Verleumdung und dient der Indoktrination. Es ist erforderlich, sich mit den Anklagen zur Sa­che und den Argumenten zum Gesamtkomplex auseinander zu setzen. Das soll zunächst im fol­genden mit einer Analyse und Kommentierung des Einladungstextes geschehen und an­schlie­ßend mit einer Diskussion der wesentlichen Aspekte.

Wissenschaft lebt vom Zweifel 

Bündnis 90/Die Grünen kritisieren, dass man bezweifelt, ob wir Menschen tatsächlich die Verursacher des Klimawandels sind, und dass die Klimarealisten deshalb zu klären versu­chen, was wirklich statt ge­funden hat. Von der in der Wissenschaft üblichen Verpflichtung zur Prü­fung von noch unbewiesenen Hypothesen scheint man bei Bündnis 90/Die Grünen noch nichts ge­hört zu haben. Das ist erstaunlich, denn:

  • * Weiß denn bei Bündnis 90/Die Grünen keiner, dass das Modell vom anthropogen ver­ursachten Klimawandel noch nie bewiesen wurde und lediglich auf Szenarien be­ruht?
  • * Weiß denn bei Bündnis 90/Die Grünen keiner, dass Zweifel die Grundlage jeder Wis­senschaft sind? Kennt keiner Galileo, der bezweifelte, dass die Erde den Mittel­punkt des Weltalls bildet und die Sonne uns umkreist?
  • * Erkennt denn bei Bündnis 90/Die Grünen keiner, dass diese Unsicherheit  jeden der Wahrheit verpflichteten Wissenschaftler zum Zweifeln verpflichtet und antreiben muss, nach der Wahrheit zu suchen?
  • * Weiß denn bei Bündnis 90/Die Grünen keiner, das beispielsweise Klaus Töpfer, nicht eben als Klimarealist bekannt, in seinen Vorträgen unter Berufung auf Karl Pop­per die Notwendigkeit der Falsifizierung von Glaubenssätzen betont?

 

Obwohl die Initiatoren des Fachgespräches offensichtlich die grundlegende Bedeutung der Zweifel für die Wissenschaft nicht kennen und in den relevanten Disziplinen keine Fachkom­petenz für sich in Anspruch nehmen können, haben sie keine Hemmungen, Forschungsergeb­nisse als unwissenschaftlich zu verfemen. Dabei ist längst bewiesen, dass die Voraussagen der Klimainstitute nicht zutreffen. ……lesen Sie den gesamten Text in der pdf Anlage

 Prof. Dr. F-K. Ewert EIKE

Hier die Kontaktdaten:

Update 15.3.11 von der Website der Grünen

Wichtiger Hinweis

Aufgrund der tragischen Ereignisse in Japan wird das Fachgespräch nicht wie geplant am 18.3.2011 stattfinden, sondern auf einen späteren Termin verschoben. Den neuen Termin werden wir rechtzeitig bekanntgeben.

Das Interesse am Zweifel – Die Strategien der sog. Klimaskeptiker und wer dahintersteht

Veranstaltungsdetails
Veranstaltungsart    Fachgespräch
Datum, Uhrzeit    18.03.2011, 13:30 – 17:00
Ort    Deutscher Bundestag, Jakob-Kaiser-Haus, Raum 1.302
Anschrift    Dorotheenstraße 100
10117 Berlin
VeranstalterInnen    Bündnis 90/Die Grünen Bundestagsfraktion
Kontakt    AK 2 Koordinationsbüro
Platz der Republik 1, 11011 Berlin
T. 030/227 59406, F. 030/227 56208
E-Mail    ak2@gruene-bundestag.de

Related Files




Nuklearunfall Fukushima – einfach und genau erklärt!

 

Info IV Update vom 26.3.11

New Scientist Blog zur Hintergrudnstory dieses Artikels von Joseph Oehmen:

„How Josef Oehmen’s advice on Fukushima went viral“ (hier)

 

Info III vom 16.3.11 

Update zum Fukushima-Störfall von Klaus Humpich hier

und hier ein Kommentar auf dem Blog der Webseite der TAZ taz.de  „Hirnschmelze“ von Detlef Guertler

Info II vom 15.3.10 

Wegen des Aufsehens den dieser Artikel im Internet erregt hat, wurde er vom offiziellen MIT NSE Nuclear Information Hub übernommen und in modifizierter Form erneut ins offizielle MIT Netz gestellt. Sie finden ihn hier

Info I vom 15.3.10

Der Artikel wurde am 12.3.11 in Netz gestellt. Inzwischen ist viel Schlimmes in Japans Kernkraftwerken passiert. Damit stimmen einige Äußerungen bzw. Hoffnungen in dem Beitrag, nicht mit der Realität überein. Wir arbeiten an einem Update!

 

Text

Neben den verlässlichen Quellen wie IAEA und WNN gibt es eine unglaubliche Menge von Desinformation und Übertreibungen im Internet und den Medien über die Situation im Kernkraftwerk Fukushima. Im BNC Diskussionsforum „- BNC post Discussion Thread – Japanese nuclear reactors and the 11 March 2011 earthquake – werden viele technische Einzelheiten berichtet, auch regelmäßige Aktualisierungen. Aber wie steht es mit einer Zusammenfassung für Laien? Wie bekommen die meisten Menschen eine Vorstellung davon, was wann passierte und welche Konsequenzen daraus folgen?

Im Folgenden gebe ich eine Zusammenfassung der Lage wieder, die Dr. Josef Oehmen am 12.3.11 geschrieben hat, ein Wissenschaftler am MIT, Boston. Er ist ein promovierter Wissenschaftler, dessen Vater ausgiebig Erfahrung in der deutschen Kernkraft-Industrie gesammelt hat. Dieser Beitrag ist zuerst von Jason Morgan heute Nachmittag gesendet worden, und er hat mir freundlicherweise erlaubt, den Beitrag hier wiederzugeben. Ich halte es für sehr wichtig, dass diese Information weithin verstanden wird.Ich schrieb meinen Text am 12. März, um Sie zu beruhigen wegen der Probleme in Japan in Bezug auf die Sicherheit von Kernkraftwerken. Vorneweg: die Lage ist ernst, aber unter Kontrolle. Und der folgende Text ist lang! Aber Sie werden nach der Lektüre mehr über Kernkraftwerke wissen, als alle Journalisten auf der Welt zusammengenommen.

Es hat keine signifikante Abgabe von Radioaktivität stattgefunden und es wird auch keine geben!

Mit „signifikant“ meine ich eine Strahlungsmenge, die man –  sagen wir mal – auf einem Langstreckenflug aufnimmt, oder wenn man ein Glas Bier trinkt, das aus einer Gegend mit hoher natürlicher Hintergrundstrahlung kommt.

Ich lese jede Nachricht über den Vorfall seit dem Erdbeben. Es hat keine einzige (!) Meldung gegeben, die genau und fehlerfrei gewesen wäre (Teil des Problems ist auch die japanische Schwäche der Informationspolitik). Mit „fehlerfrei“ beziehe ich mich nicht auf tendenziösen Atomkraft-Nein-Danke-Journalismus – wie er heutzutage ganz normal ist. Ich meine offensichtliche Irrtümer über die Physik und die Naturgesetze, wie auch grobe Fehlinterpretationen von Fakten, weil ein offensichtlicher Mangel besteht an grundlegendem Verständnis, wie Kernreaktoren gebaut und betrieben werden. Auf CNN habe ich einen 3-seitigen Bericht gelesen mit je einem Fehler pro Absatz.

Zuerst ein paar grundlegende Dinge, bevor wir ins Eingemachte gehen.

 

Bauart des Fukushima Kernkraftwerks

Das KKW Fukushima hat sogenannte Siedewasser-Reaktoren, engl. kurz BWR (= Boiling Water Reactor). Siedewasser-Reaktoren ähneln einem Dampfkochtopf. Der Kernbrennstoff heizt das Wasser, das Wasser kocht und erzeugt Dampf, der Dampf treibt dann Turbinen, die Elektrizität erzeugen. Dann wird der Dampf heruntergekühlt und rück-kondensiert in Wasser. Das Wasser wird im Kreislauf wieder zurückgeschickt und erneut vom Kernbrennstoff erhitzt. Der Dampfkochtopf wird mit etwa  250 °C betrieben.

Kernbrennstoff ist Uran-Oxid. Uran-Oxid ist ein keramischer Stoff mit dem sehr hohem Schmelzpunkt von etwa 3000 °C. Der Treibstoff wird als Pellets hergestellt (man stelle sich kleine Röhrchen etwa so groß wie Legosteine vor). Diese Stückchen werden in ein langes Rohr aus  Zirkonium-Legierung gesteckt und dicht versiegelt. Letzteres hat einen Schmelzpunkt von 2200 °C. Das Ergebnis heißt Brennstab. Die Brennstäbe werden in größeren Bündeln zusammengefasst und eine Anzahl von Bündeln werden in den Reaktor gesteckt. Alle Bündel zusammen heißen „Kern“. (engl.: “the core”)

Die Zirkoniumhülle ist der erste Schutzwall (engl.: „Containment“). Hier wird der radioaktive Brennstoff von der Außenwelt abgeschottet.

Dann wird der Kern in den Druckbehälter (engl.: „pressure vessel“) gesteckt. Das ist der Dampfkochtopf, wie oben erwähnt. Der Druckbehälter ist der zweite Schutzwall. Er besteht aus einem massiven Stück Topf, der so gebaut worden ist, dass er den Kerntemperaturen von mehreren hundert Grad °C standhält. Das ist für Situationen vorgesehen, wo [bei einem Ausfall] die Kühlung zu einem gewissen Zeitpunkt wiederhergestellt werden kann.

Die gesamte „Hardware“ des Kernreaktors – der Druckbehälter und alle Rohre, Pumpen, Kühlmittel(Wasser)-Speicher werden dann hinter dem dritten Schutzwall eingeschlossen. Der dritte Schutzwall ist hermetisch (luftdicht) abgeschlossen, in einem sehr dicken Behältnis von härtestem Stahl. Der dritte Schutzwall wurde für einen einzigen Fall entworfen, gebaut und getestet: Auf unbestimmte Zeit einen komplett geschmolzenen Kern zu umschließen. Zu diesem Zweck ist ein großes und dickes Stahlbetonbecken unter den Druckbehälter (zweiter Schutzwall) geschoben und mit Graphit gefüllt. Alles befindet sich innerhalb des dritten Schutzwalles. Das ist der sogenannte „Kernkäfig“ (engl.: „core catcher“). Wenn der Kern schmilzt und der Druckbehälter birst (und gegebenenfalls schmilzt) wird hier der geschmolzene Brennstoff und alles andere Material aufgefangen. Der Kernkäfig ist so gebaut, dass sich der Kernbrennstoff verteilt und abkühlen kann.

Korrektur CoreCatcher: Diese japanischen AKW haben keine Core Catcher, sind aber aus Gründen des Erdbebenschutzes auf massive Gesteinsschichten gebaut. Mit Dank an Leser DH und andere

Dieser dritte Schutzwall wird anschließend vom Reaktor-Gebäude umgeben. Das Reaktor-Gebäude ist eine äußere Hülle, die nur dazu gedacht ist, Schutz gegen das Wetter zu bieten, sonst nichts. (Dieser Teil ist durch die Explosion zerstört worden, mehr dazu später).

Grundlagen der nuklearen Reaktionen

Uranbrennstoff erzeugt Hitze durch Atomspaltung. Große Uran-Atome werden in kleiner Atome gespalten. Dadurch entsteht Hitze plus Neutronen (ein Atomteilchen). Wenn ein Neutron ein anderes Uranatom trifft, zerteilt sich dieses und erzeugt noch mehr Neutronen und so weiter. Das nennt man eine nukleare Kettenreaktion.

Wenn man also eine Menge von Brennstäben aneinander packte, gäbe es rasch eine Überhitzung und nach etwa 45 Minuten ein Schmelzen der Brennstäbe. Es muss hier gesagt werden, dass Kernbrennstoff in einem Kernreaktor niemals eine Atomexplosion wie in einer Atombombe verursachen kann. Ein Atombombe zu bauen, ist wirklich sehr schwierig (fragen Sie mal im Iran nach). In Tschernobyl wurde die Explosion verursacht durch exzessiven Druckaufbau, eine Knallgasexplosion und den nachfolgenden Bruch aller Schutzwälle. Dadurch wurde geschmolzenes Kernmaterial in die Umwelt geschleudert (es war eine „schmutzige Bombe“). Warum das in Japan überhaupt nicht passieren kann, lesen Sie später.

Die Reaktor-Ingenieure benutzen zur Steuerung der Kettenreaktion sogenannte „Steuerstäbe“ (engl.: „moderator rods“). Die Steuerstäbe fangen die Neutronen ein und unterbrechen die Kettenreaktion sofort. Ein Kernreaktor ist so gebaut, dass im Normalbetrieb alle Steuerstäbe herausgefahren sind. Das Kühlwasser nimmt die Hitze auf (und wandelt sie in Dampf und Elektrizität um), im gleichen Maße, wie der Kern die Hitze erzeugt. Es gibt eine große Sicherheitsmarge bei der Standardbetriebstemperatur von 250 °C

Das Problem ist, dass nach der Einführung der Steuerstäbe und dem Abstoppen der Kettenreaktion der Kern noch weiter Hitze erzeugt. Im Uran ist die Kettenreaktion „gestoppt“. Aber eine Menge von radioaktiven Zwischenelementen war vom Uran bei der Spaltung erzeugt worden, besonders Cäsium und Jod-Isotope. Das heißt radioaktive Isotope dieser Elemente, die sich weiter in kleinere, nicht-radioaktive Atome spalten und dabei Hitze erzeugen. Sie werden nicht mehr weiter vom Uran erzeugt (nachdem der Uranzerfall durch Einfahren der Bremsstäbe gestoppt ist) und werden immer weniger. Der Kern kühlt sich im Verlauf mehrerer Tage ab, bis diese radioaktiven Zwischenelemente zerfallen sind.

Diese Restwärme verursacht derzeit die Kopfschmerzen.

Also besteht die erste „Art“ von radioaktivem Material aus dem Uran in den Brennstäben und den Zerfalls-Zwischen-Produkten, in die sich das Uran spaltet. Alles geschieht innerhalb der Brennstäbe (Cäsium und Jod).

Nun wird noch eine zweite Art von radioaktivem Material erzeugt, außerhalb der Brennstäbe. Der allergrößte Unterschied vorweg: Diese radioaktiven Materialien haben eine sehr kurze Halbwertzeit, d. h. sie zerfallen sehr rasch in nicht-radioaktives Material. Mit „rasch“ meine ich binnen Sekunden! Wenn also solche Radioaktivität in die Außenwelt gelangt, JA, Radioaktivität ist ausgetreten, und NEIN, die ist überhaupt nicht gefährlich. Warum? Weil sie sich schon in nicht-radioaktive Elemente zerteilt haben, während sie „RADIOAKTIVE KERNTEILCHEN“ buchstabiert haben. Diese radioaktiven Elemente sind N-16, das radioaktive Isotop (oder die Version) von Stickstoff (in der Luft). Die anderen sind Edelgase wie Xenon. Woher sind die gekommen? Wenn Uran zerfällt, erzeugt es ein Neutron (siehe oben). Die meisten dieser Neutronen werden auf andere Uranatome treffen und die Kettenreaktion aufrecht erhalten. Einige aber verlassen den Brennstab und treffen auf Wassermoleküle die im Wasser gelöste Luft. Dann kann ein nicht-radioaktives Element das Neutron einfangen und selber radioaktiv werden. Wie oben schon beschrieben, wird es rasch (binnen Sekunden) das Neutron wieder loswerden und zu seiner schönen Ursprungsform zurückkehren.

Diese zweite Art von Strahlung ist sehr wichtig, wenn wir später über die in die Umwelt abgegebene Radioaktivität sprechen.

Was ist in Fukushima passiert

Ich möchte die Hauptpunkte zusammenfassen. Das Erdbeben in Japan war 7 Mal stärker als das schlimmste Erdbeben, für welches das Kernkraftwerk ausgelegt war. (Die Richter-Skala ist logarithmisch, der Unterschied zwischen 8,2 – dafür war die Anlage ausgelegt – und den tatsächlichen 8,9 beträgt 7 mal, nicht 0,7). Ein Lob für die japanischen Ingenieure. Alles hielt stand.

Als die Erde mit einer Stärke von 8,9 (jetzt auf 9,0 hochgestuft) bebte, schalteten sich alle Kernreaktoren automatisch ab. Binnen Sekunden nach Beginn des Bebens fuhren die Bremsstäbe in den Kern und die Kettenreaktion des Urans stoppte. Jetzt musste das Kühlsystem die Restwärme abführen. Die Restwärme beträgt etwa 3% der Wärmelast im Normalbetrieb.

Das Erdbeben hatte die externe Stromzufuhr des Kernreaktors zerstört. Das ist einer der ernsthaftesten Störfälle in einem Kernkraftwerk und dementsprechend widmet man sich dem „Blackout“ der Anlage mit äußerster Sorgfalt beim Entwurf des Notstromversorgung. Der Strom wird zum Betreiben der Pumpen für die Kühlung benötigt. Nach Abschalten des Kraftwerks liefert es ja keinen Strom mehr für den Eigenbedarf.

Das ging für etwa eine Stunde gut. Eine Reihe von Notstromdieseln schaltete sich auf und erzeugte die nötige Elektrizität. Dann kam der Tsunami, viel größer als man vorhergesehen hatte, als die Anlage gebaut worden war (siehe oben: Faktor 7). Der Tsunami fegte die Diesel-Notstromaggregate weg.

Beim Entwurf eines Kernkraftwerks folgen die Ingenieure einer Philosophie namens „Tiefen-Verteidigung“. Das bedeutet zuvörderst, dass man alles so baut, dass es der größten anzunehmenden Katastrophe standhalten kann. Sodann, dass die Anlage so entworfen wird, dass man mit jedem Unfall (wenn er denn trotzdem passiert) nacheinander fertig werden kann. Ein Tsunami, der die gesamte Notstromversorgung wegfegt, ist so ein Fall. Die letzte Verteidigungslinie besteht darin, alles innerhalb des Reaktors hinter den dritten Schutzwall zu packen, mit allem drin, was auch immer gefährlich werden könnte: Bremsstäbe ein- oder ausgefahren, Kern geschmolzen oder nicht.

Nach Ausfall der Diesel-Generatoren haben die Reaktor-Bediener die Notbatterien angeschaltet. Die Batterien sind als Rückfallmöglichkeit für die Notstromerzeugung vorgesehen gewesen, um den Kern für 8 Stunden zu kühlen. Das hat funktioniert.

Innerhalb der 8 Stunden musste eine weitere Stromversorgung gefunden und angeschlossen werden. Das Stromnetz war wegen des Erdbebens ausgefallen. Die Diesel-Notstrom-Aggregate vom Tsunami zerstört. Also wurden mobile Diesel-Notstrom-Aggregate herangeschafft.

Und von da an ging es mächtig schief. Die externen Notstromgeneratoren konnten nicht an das Anlagen-Stromnetz angeschlossen werden (Die Steckverbindungen passten nicht). Daher konnte nach dem Leeren der Batterien die Restwärme nicht mehr abgeführt werden.

Jetzt führten die Bediener ein Notfall-Verfahren durch, das für den „Verlust der Kühlung“ vorgesehen ist. Es ist ein Schritt in der „Tiefenverteidigung“. Eigentlich hätte der Strom für die Kühlung nicht völlig ausfallen dürfen, aber es geschah dennoch, daher zogen sich die Bediener auf die nächste Verteidigungslinie zurück. So schrecklich das auch für uns klingen mag, es ist Bestandteil des alltäglichen Sicherheitstrainings der Bediener, alles durchzuspielen bis zur Kernschmelze.

Zu diesem Zeitpunkt hat man eine Kernschmelze befürchtet. Weil der Kern (nach Stunden oder Tagen) schmelzen wird, wenn die Kühlung nicht wiederhergestellt werden kann und dann käme die letzte Verteidigungslinie, der Kernkäfig, zugleich dritter Schutzwall, ins Spiel.

Doch noch wollte man zu diesem Zeitpunkt die Kern-Erhitzung steuern und sicherstellen, dass der erste Schutzwall (Die Zirkonium-Röhren mit dem Kernbrennstoff) und der zweite Schutzwall (der Druckbehälter) intakt und so lange wie möglich im Betrieb bleiben sollten, um den Ingenieuren die Zeit zum Reparieren des Kühlsystems zu verschaffen.

Weil das Kühlen des Kerns eine komplizierte Sache ist, hat der Reaktor verschiedene Kühlsysteme, jedes in mehrfacher Auslegung (das Reaktorwasser-Reinigungs-System, das Abführsystem für die Zerfallswärme, die Kühlung der Kern-Ummantelung, das Ersatz-Flüssigkeitskühlsystem, das Notkühlsystem für den Kern). Welches davon wann versagte oder auch nicht, ist derzeit nicht klar.

Jetzt stellen Sie sich unseren Dampfkochtopf auf dem Herd vor, niedrige Hitze, aber immer noch eingeschaltet. Die Bediener nutzen jede ihnen noch verbliebene Kühlkapazität, um so viel wie möglich Hitze abzuführen, aber der Druck steigt an. Jetzt gewinnt die Sicherstellung des ersten Schutzwalles oberste Priorität (die Temperatur der Brennstäbe unter 2200°C halten), als auch des zweiten Schutzwalles, des Druckbehälters.  Um den Druckbehälter zu erhalten (zweiter Schutzwall), musste der Druck zeitweilig reduziert werden. Weil die Fähigkeit dazu in einem Notfall so wichtig ist, hat der Reaktor 11 Druck-Reduzier-Ventile. Der Bediener muss nun anfangen, immer wieder Dampfdruck abzulassen. Die Temperatur zu diesem Zeitpunkt betrug etwa 550°C.

Das ist der Punkt, an dem die Meldungen von einem „Strahlungsleck“ zu kursieren begannen.

Ich glaube, oben erklärt zu haben, warum das Dampfablassen theoretisch das gleiche ist, wie Strahlung in die Umwelt abzulassen, auch warum das so ist, und warum es nicht gefährlich ist. Der radioaktive Stickstoff wie auch die Edelgase stellen keine Gefahr für die menschliche Gesundheit dar.

Irgendwann bei diesem Druckablassen ereignete sich die Explosion. Die Explosion fand außerhalb des dritten Schutzwalles (der „letzten Verteidigungslinie“) im Reaktorgebäude statt. Man erinnere sich: das Reaktorgebäude hat keine Funktion zur Zurückhaltung von Radioaktivität. Noch ist nicht klar, was passierte, aber hier ist ein wahrscheinlicher Ablauf: Die Bediener hatten sich für das Ablassen von Dampf aus dem Druckbehälter entschieden, aber nicht direkt in die Umwelt, sondern in den Raum zwischen dem dritten Schutzwall und dem Reaktorgebäude (um dem Dampf mehr Zeit zur Entspannung zu geben). Das Problem dabei ist, dass bei der hohen Temperatur, die der Kern inzwischen erreicht hatte, die Wassermoleküle sich in Wasserstoff und Sauerstoff zerlegen konnten  – in hochexplosives Knallgas. Und das ist ja dann auch explodiert, außerhalb des dritten Schutzwalles und zerstörerisch für das Reaktorgebäude. Diese Art von Explosion fand in Tschernobyl statt, aber innerhalb des Druckbehälters, der schlecht konstruiert war und unsachgemäß von den Bedienern gesteuert wurde. Das ist in Fukushima niemals eine Gefahr gewesen. Das Knallgasproblem ist ein großes, wenn man ein Kraftwerk konstruiert (es sei denn, man ist Sowjet-Russe). Deshalb wird der Reaktor so entworfen, dass das nicht innerhalb der Schutzummantelung passieren kann. Es passierte außerhalb und unabsichtlich, aber es passierte. Es geschah und stellte keine Gefahr für den Schutzwall dar.

Der Druck war unter Kontrolle, als der Dampf abgelassen wurde. Wenn man nun den Dampfkochtopf weiter erhitzt, fällt der Wasserspiegel immer weiter. Über dem Kern stehen mehrere Meter Wasser, damit er erst nach Ablauf von einiger Zeit (Stunden, Tage) freigelegt wird. Wenn die Brennstäbe oben frei sind, werden die freien Bereiche die kritische Temperatur von  2200 °C nach etwa 45 Minute erreichen. Dann wird der erste Schutzwall versagen, der Zirkoniummantel.

Und das fing nun an. Die Kühlung war nicht wiederhergestellt, als in sehr begrenztem Umfang Schäden an der Brennstoff-Umhüllung eintraten. Das Brennstoff-Material war immer noch intakt, aber die umgebende Zirkonium-Hülle fing an zu schmelzen. Jetzt vermischten sich einige Zwischenprodukte des Uranzerfalls – radioaktives Cäsium und Jod – mit dem Dampf. Das große Problem, Uran, war immer noch unter Kontrolle, weil die Uranbrennstäbe bis zu 3000 °C aushalten.

Es scheint, dass dies das Startsignal für einen großen „Plan B“ war. Die geringen Mengen von gemessenem Cäsium sagten den Bedienern, dass der erste Schutzwall an einem der Brennstäbe irgendwo nachgab. „Plan A“ war gewesen, wenigsten eins der normalen Kühlsysteme wiederherzustellen, um den Kern zu kühlen. Warum das schief ging, wissen wir nicht. Eine mögliche Erklärung ist, dass der Tsunami auch das Frischwasser verschmutzte oder wegspülte, das für das normale Kühlsystem gebraucht wird.

Das im Kühlsystem benutzte Wasser ist sehr rein und demineralisiert (wie destilliertes) Wasser. Der Grund für die Benutzung von reinem Wasser ist die oben erwähnte Aktivierung durch Neutronen vom Uran: Reines Wasser wird kaum aktiviert, es bleibt praktisch frei von Radioaktivität. Das hat überhaupt keine Auswirkungen auf den Kern – dem ist es egal, wovon er gekühlt wird. Für die Bediener und die Mechaniker ist es aber schwieriger, mit aktiviertem (d. h. leicht radioaktivem Wasser) umgehen zu müssen.

Plan A hatte also versagt – Kühlsystem kaputt oder zusätzliches reines Wasser nicht mehr verfügbar – also ging es mit Plan B weiter. So scheint es abgelaufen sein:

Um eine Kernschmelze zu verhindern, holten die Bediener Meerwasser für die Kühlung des Kerns. Ich bin mir nicht sicher, ob sie den Druckbehälter (den zweiten Schutzwall) geflutet haben oder den dritten Schutzwall, indem sie die Brennstäbe unter Wasser setzten. Das spielt hier aber keine Rolle.

Wichtig ist, dass der Kernbrennstoff jetzt abgekühlt wurde. Weil die Kettenreaktion schon seit längerer Zeit aufgehört hatte, wurde nun nur noch wenig Restwärme erzeugt. Die große Menge von Kühlwasser reichte für die Aufnahme der Hitze aus. Weil das sehr viel Wasser war, erzeugte der Kern überhaupt nicht mehr genügend Druck. Dem Seewasser wurde Borsäure zugesetzt. Borsäure ist ein flüssiger „Bremser“ wie der Steuerstab. Wenn es noch irgendwelchen Atomzerfall gibt, fängt das Bor die Neutronen ein und beschleunigt die Abkühlung des Kerns.

Die Anlage stand kurz vor einer Kernschmelze. Was schlimmstenfalls passiert wäre: Wenn kein Meerwasser zur Verfügung gestanden hätte, hätten die Bediener immer wieder Wasserdampf ablassen müssen, um den Druckaufbau zu verhindern. Der dritte Schutzwall wäre dann komplett abgedichtet worden, um bei der Kernschmelze die Freisetzung von radioaktivem Material zu verhindern. Nach der Kernschmelze hätte man eine Zeitlang abwarten müssen, bis das radioaktive Material innerhalb der Ummantelung zerfallen gewesen wäre. Das Kühlsystem wäre wiederhergestellt worden und der geschmolzene Kern auf eine handhabbare Temperatur heruntergekühlt worden. Die Ummantelung hätte innen gesäubert werden müssen. Dann hätte die schwierige Aufgabe des Trennens des geschmolzenen Kerns von der Ummantelung in Angriff genommen werden müssen. Dabei wären die Bruchstücke des nun wieder festen Brennstoffes zur Wiederaufarbeitung transportiert werden müssen. In Abhängigkeit vom Ausmaß der Schäden wäre der Block der Anlage entweder repariert oder abgewrackt worden.

Was heißt das nun alles?

* Die Anlage ist jetzt in sicherem Zustand und das wird so bleiben.

* Japan hatte einen INES Level 4 Unfall: Das ist ein Nuklearunfall mit lokalen Folgen. Schlimm für den Betreiber, dem das KKW gehört aber für niemanden sonst.

* Etwas Radioaktivität wurde freigesetzt, als das Druckgefäß gelüftet wurde. Alle radioaktiven Isotope aus dem aktivierten Dampf sind weg (zerfallen). Ganz wenig Cäsium wurde freigesetzt, auch Jod. Falls Sie zum Zeitpunkt der Druckablassung auf dem Kamin der Anlage gesessen hätten, müssten Sie jetzt mit dem Rauchen aufhören, um ihre vorherige Lebenserwartung zurückzubekommen. Die Cäsium und Jod-Isope sind auf das Meer geblasen worden und dort verschwunden.

* Am ersten Schutzwall hat es begrenzten Schaden gegeben. Daher sind geringe Mengen von Cäsium und Jod auch hier ins Kühlwasser ausgetreten, aber kein Uran oder anderes schmutziges Zeug. (Uran-Oxid ist nicht wasserlöslich). Es gibt Vorrichtungen, um das Kühlwasser zu behandeln. Radioaktives Cäsium und Jod werden entfernt und als radioaktiver Müll zur Endlagerung gebracht.

* Das zur Kühlung benutzte Meerwasser wird geringfügig aktiviert sein. Weil die Bremsstäbe vollständig heruntergekommen sind, wird es keine Uran-Kettenreaktion geben. Deshalb wird es auch keine durch Uranzerfall hervorgerufene weitere Aktivierung geben. Die radioaktiven Zwischenprodukte (Cäsium und Jod) sind bereits jetzt schon zum großen Teil verschwunden, weil der Uranzerfall schon längere Zeit gestoppt ist. Das führt zu einer weiteren Verminderung der Aktivierung. Unter dem Strich wird eine geringe Aktivierung des Meerwassers verbleiben, sie wird von den Reinigungseinrichtungen entfernt werden.

* Das Meerwasser wird im Laufe der Zeit von “normalem” Kühlwasser ersetzt werden

* Der Reaktorkern wird herausgeholt und in eine Aufarbeitungseinrichtung verbracht werden, wie bei einem normalen Brennstoffwechsel.

* Die Brennstäbe und die gesamte Anlage werden auf mögliche Schäden überprüft werden. Das wird etwa 4-5 Jahre dauern.

* Die Sicherheitssysteme aller japanischen Anlagen werden verbessert werden, so dass sie einem 9,0 starken Erdbeben und Tsunami (oder noch mehr) standhalten .

* Ich glaube, das größte Problem wird ein ausgedehnter Strommangel sein. Etwa die Hälfte von Japans Kernkraftwerken wird wahrscheinlich inspiziert werden müssen, damit wird die Energieerzeugungskapazität des Landes um 15% gesenkt. Wahrscheinlich werden im Betrieb befindliche Gaskraftwerke einspringen müssen, die normalerweise nur zur Ergänzung der Spitzenlast und zuweilen auch der Grundlast eingesetzt werden. Dadurch werden in Japan die Stromrechnungen teurer, es kann auch zu Stromknappheit während der Spitzenlastzeiten kommen.

Wenn Sie informiert bleiben wollen, dann nutzen Sie nicht die gewöhnlichen Medien, sondern die folgenden Webseiten:

http://www.world-nuclear-news.org/RS_Battle_to_stabilise_earthquake_reactors_1203111.html

Discussion Thread – Japanese nuclear reactors and the 11 March 2011 earthquake

http://ansnuclearcafe.org/2011/03/11/media-updates-on-nuclear-power-stations-in-japan/

Barry Brook & Dr. Josef Oehmen

Den Originalartikel finden Sie hier

Die Übersetzung besorgte Helmut Jäger EIKE

Lesen Sie auch diesen bedenkenswerten Aufsatz in Achgut

Update 15.3.11: Hier finden Sie sachliche Informationen zur Situation in Japan




Der Vizepräsident des WWF & der neue Bericht des IPCC

Zu dem Bild rechts: Liste der Autoren des 15. Kapitels im 5. Zustandsbericht des IPCC (Assessment Report 5)

Der WWF-Biographie von Moss zufolge war er Mitglied des IPCC seit 1993. In einer Pressemitteilung hieß es, er sei der Vizepräsident des IPCC seit 2007. Weiter heißt es darin:

Moss wurde Mitglied beim WWF und kam aus einer Stiftung der Vereinten Nationen, in der er leitender Direktor für die Bereiche Klimawandel und Energie war. Seit 1993 hat er vielfach im IPCC gewirkt und ist ein zentraler Teil des Teams, dem 2007 der Friedensnobelpreis verliehen wurde… (Hervorhebung durch die Autorin).

Ah ja, die Stiftung der Vereinten Nationen. Dabei handelt es sich um den Wohltätigkeitsverband, geleitet von Medienmogul Ted Turner, der kürzlich erklärt hatte, dass die brutale und zwingend vorgeschriebene Ein-Kind-Politik in China von anderen Ländern übernommen werden sollte, um das Bevölkerungswachstum zu begrenzen. Der Website dieses Verbandes zufolge „dient“ er dazu, die Vorgaben der UN zu unterstützen.

Bei all dem erheben sich einige rätselhafte Fragen:

1.       Wie kann Moss als leidenschaftsloser und neutraler Wissenschaftler gelten, wenn er Zahlungen von einem Wohlfahrtsverband erhalten hat, der helfen soll, die Ziele der UN zu erreichen, sowie von einer Gruppe von Aktivisten, die mit alarmierenden Meldungen an die Öffentlichkeit Gelder akquirieren?

2.       Obwohl einige der Arbeiten von Moss in der Klimabibel des Jahres 2007 zitiert werden, scheint er kein Mitglied irgendeines Autorenteams eines der 44 Kapitel dieses Berichtes gewesen zu sein. Warum aber nannte man ihn dann eine Schlüsselfigur in dem Team, dem 2007 der Friedensnobelpreis verliehen wurde? (Hervorhebung im Original)

3.       Warum hat ein Vizepräsident (VP) des WWF an einem IPCC-Workshop in Berlin im vergangenen November teilgenommen? Warum wurde Moss’ Verbindung zum WWF in diesem Zusammenhang nicht erwähnt? Warum hieß es in der Dokumentation dieses Workshops statt dessen, er steht in Verbindung mit dem Joint Global Research Institute?

4.       Jetzt folgt die Millionen-Dollar-Frage: Was macht ein VP des WWF als Gutachter der Arbeitsgruppe 2, Kapitel 15 der jüngsten Ausgabe der Klimabibel – jenes Kapitels, das geschrieben wurde, von dem wir sprechen? (Siehe Seite 13 von diesem 27-seitigen PDF–Dokument).

5.       Als das IPCC im vergangenen Juni die Liste der teilnehmenden Autoren bekannt gab – warum hat man nicht erwähnt, dass der WWF Moss’ Arbeitgeber ist? Warum hat das IPCC statt dessen verlauten lassen, dass er in Verbindung mit dem Pacific Northwest National Laboratory steht?

ZUSATZ: Ich finde Moss’ Aussage (12-seitiges PDF) vor einem Komitee des US-Senats im November 2007 störend. Er vermittelt darin den Eindruck, dass die führenden Wissenschaftler ihre Positionen in der Regierung, ihre akademischen Positionen, die Aktivitäten des IPCC, Arbeit für die Vereinten Nationen und die Arbeit mit Gruppen von Aktivisten als in einem Zusammenhang stehend auffassen und alle Begriffe als weitgehend äquivalent ansehen.

Mir scheint es so, dass es aktivistische Wissenschaftler keineswegs selten gibt. Es sieht so aus, dass Aktivismus die neue Normalität geworden ist.

Link: http://nofrakkingconsensus.wordpress.com/2011/03/04/the-wwf-vice-president-the-new-ipcc-report/

Übersetzt von Chris Frey

Bemerkung des Übersetzers: Die Schummeleien und Ungereimtheiten des IPCC gehen also munter und fröhlich weiter.




3. Klima- & Energiekonferenz Berlin 2010 Videovorträge Teil I

Begrüßung – Warum Klima noch immer ein Thema ist 

Dr. Holger Thuss

Präsident Europäisches Institut für Klima und Energie

Bedrohungen durch Klimawandel – Anpassung ist die Lösung

Prof. Dr. Bob Carter Hier undefinedppt Datei

Marine Geophysical Laboratory: James Cook University, Queensland und University of Adelaide South Australia

Mensch vs. Natur – Wer emittiert mehr CO2

Prof. Dr. Ian Plimer

Institute of Geology and Geophysics at the University of Adelaide; hier die undefinedppt Datei

The role of water in the fate of carbon: implications for the climate system

Die Rolle des Wassers und das Schicksal des Kohlenstoffs: Klima, Wasser, Kohlendioxid und die Sonne

Prof. Dr. Jan Veizer  

Department of Earth Sciences, University of Ottawa hier undefineddie ppt Datei

Die Normalität des veränderlichen Wetters

Dipl. Meteorologe Klaus-Eckart Puls 

Pressesprecher EIKE, hier die undefinedppt datei

Die Botschaft von Cancun

Cfact´s Craig Rucker, Lord Christopher Monckton; Dr. Spencer vom The Science & Environmental Policy Project (SEPP)





Der Lohn des grünen Marsches durch die Institutionen!

Weil das so ist, kann man nur schwer glauben, dass es bei dem ganzen Durcheinander um das Klima geht, besonders wenn man in den Resten der Zulassung (admission) der grünen Bande herumwühlt (Original: …particularly when you toss in the rest of the admission by Gang Green when they slip off-message). Aber dennoch, wenn man Peter (Sie) ausraubt, um Paul (die Firma) zu bezahlen, dürfen Sie auf Pauls enthusiastische Unterstützung dafür zählen.

Noch besser für die Medien, mit Herrn Connaughton können sie das grüne Jubelgeschrei als von einem „ehemaligen Mitarbeiter von [Präsident] Bush“ stammend anführen.

Das Ergebnis sieht dann so aus: Heute sehen wir den Artikel bei Climate Wire: „WISSENSCHAFT: Früherer Mitarbeiter von Bush verteidigt den IPCC“, mit der gag-verdächtigen Unterschlagzeile „Connaughton nennt die Ergebnisse des IPPC (sic) ‚fabelhaft’“.

Der Artikel bezieht sich auf den Klimarat der UN, oder IPCC, der unter den Enthüllungen gelitten hat, dass er vermutlich manipuliert sowie unbewiesene Behauptungen grüner Gruppen in Presseerklärungen, ins Unreine gesprochene Thesen von Studenten und telefonische Interviews mit Alarmisten als begutachtete Wissenschaft bezeichnet, obwohl letztere inzwischen ihre eigenen Überlegungen bestreiten.

Aber dann kommt dies:

Connaughton kritisierte außerdem Angriffe auf die Wissenschaftler von East Anglia, in deren e-mails ihre Gegnerschaft zu Forschungen zum Ausdruck kam, die den Zusammenhang zwischen menschlichen Emissionen und der globalen Erwärmung in Frage stellen (ClimateWire, 17. November 2010).

„Die Angriffe der Linken auf die Bush-Administration wegen Manipulation der Wissenschaft waren genauso übertrieben wie die Angriffe der Rechten auf East Anglia, weil es nichts mit der Wissenschaft zu tun hatte“, sagte er.

Außer, dass das doch so war. Die Wissenschaftler bei East Anglia riefen nach einer Löschung der Aufzeichnungen; erklärten, dass sie „den Rückgang der Temperaturen verstecken“ (hide the decline) um eine Erwärmung zu propagieren, die es gar nicht gab; nahmen künstliche Anpassungen der Computerprogramme vor, und so weiter. So wie ich es verstehe, werden wir in dieser Woche einige weitere ziemlich verstörende Beweise sehen, die belegen, wie absurd diese jetzt schon dummen Anstrengungen der Rationalisierung und der Leugnung sind. Für diesmal möchte ich einfach dagegen sticheln, dass das Dokument an Capitol Hill als von einem föderalen General stammend gesandt wird, der bestätigt, was schon jetzt jedem klar ist, der die Selbstentlastung von „Klimagate“ kennt: der Skandal wurde weiß gewaschen.

Aufzeichnungen wurden tatsächlich gelöscht, und zwar durch eine führende Persönlichkeit auf Verlangen einer anderen. Letzterer war, um es milde auszudrücken, für diese Tatsachen empfänglich, während ersterer das irgendwie getan hat, ohne dazu befragt zu werden. Einige Dinge ließ man offenbar besser ungesagt, jedenfalls in den Augen derjenigen, die diese Angelegenheit untersucht hatten.

Außer dass schließlich doch jemand die Kurve gekriegt hat, um nach dem Offensichtlichen zu fragen. Und die spezielle Antwort bringt die Untersuchenden und die Untersuchten in die gleiche Ecke. Nicht nur, dass Klimagate nie untersucht wurde, sondern auch, dass offensichtlich ein neuer Name auf der Liste der Mittäter auftauchte.

Aber sogar vor diesem Bombeneinschlag zeigte der Artikel in ClimateWire, dass es keine untere Grenze gibt, bei der die neuen Steuereinsammler für den grünen Wohlfahrtsstaat unwillig sind, sich zu erniedrigen.

Chris Horner ist führendes Mitglied am Competitive Enterprise Institute.

Titel im Original: The Wages of Green Spin

Link: http://dailycaller.com/2011/03/07/the-wages-of-green-spin/#ixzz1Fzo8Ic00

Übersetzt von Chris Frey für EIKE. Alle Hervorhebungen im Original!




Alternative Energien werden in Großbritannien die Lichter ausgehen lassen, gibt der Chef des Energiekonzerns National Grid zu

Die Verbraucher müssen sich damit abfinden, für ausgedehntere Perioden ohne Strom auszukommen, warnt Steve Holliday, Chef von National Grid, dem größten Stromversorger im Vereinten Königreich.

Bereits am 2. März wurde die Nachricht im Daily Telegraph verbreitet.

Britischen Familien wurde jetzt die schockierende Wahrheit über den Preis der grünen Energie erzählt. Sie müssen sich darauf vorbereiten, längere Zeit ohne Strom auszukommen,  warnt UK´s Top Elektrizitäts Chef.

Steve Holliday, National Grid-Chef, sandte diese deutliche Warnung über die Folgen des britischen "Going Green" an die Hörer des Radio 4’s TodayProgramm.

Das schockierende Geständnis gelangte sofort an den "Daily Telegraph (2. März 2011), der in dem Artikel unter der Schlagzeile "Die Ära des konstanten Stroms zu Hause ist zu Ende, sagt der Versorger Chef" darüber berichtete. 

National Grid ist eines der lukrativsten privatisierten ehemaligen staatlichen Monopolunternehmen weltweit. Die britische Nation ist bereits jetzt gezwungen, jährlich 18 Milliarden Pfund für überflüssige und unpopuläre „grüne” Steuern und Subventionen auszugeben.

Den Briten wird gesagt  Windkraftanlagen! Ob Sie es mögen oder nicht

Das große Unternehmen ist geradezu versessen darauf, eine schlecht durchdachte Agenda zu befolgen, die Energiepolitik "umweltfreundlicher" durch die Konzentration auf Windenergie zu machen. Wenn er direkt befragt wird, wie das Unternehmen vermeiden wolle, dass britische Lichter ausgehen, wenn der Wind nicht weht, antwortete Mr. Holliday kaltschnäuzig "Familien müssen sich daran gewöhnen, nur  dannStrom zu verbrauchen wenn er verfügbar ist, statt wie bisher, dass er ständig fließt."

Holliday’s Plan wird die Briten wieder in die schlechten und traurigen alten Zeiten der 1970er Jahre führen, als die Streiks der Bergarbeiter die Stromerzeuger zwang, die Versorgung einzuschränken und  den Arbeitern der Nation  die "drei-Tage-Woche" aufzwang. Worauf unentsorgter Müll und nicht bestattete Leichen sich hoch türmten und Bürger  einen trostlosen Winter in tiefstem Elend ertragen mussten.

 John Sullivan

 Lesen Sie den ganzen Artikel hier und diverse andere dazu hier 




Energiekonzept & Klimaschutz? Wie die Deindustrialisierung Deutschlands beschlossen wurde!

Zudem erkennt er auch die höchst unmoralische Komponente dieser versuchten Zwangsumstellung zur angeblichen Rettung des Klimas, indem wertvolles Ackerland für stark subventionierte Treibstoff pflanzen umgewidmet und damit dem Anbau von Lebensmitteln entzogen wird. Dies trifft insbeondere die Ärmsten der Armen in vielen Entwicklungsländern, wie auch hierzulande. Wir berichteten mehrfach u.a. hier und hier und hier. 

Aber das ist nur der Anfang! Vom Gesetzgeber sind längst Gesetze beschlossen, oder in Vorbereitung, die noch konsequenter die Umstellung auf eine kohlenstoff arme Wirtschaft erzwingen wollen. Der Fahrplan dazu ist das jüngst beschlossene "Energiekonzept" der Bundesregierung. Wohin dieses führen wird, zeigen zwei vielbeachtete Vorträge auf der Anfang Dezember 2010 in Berlin anlässlich der 3. Internationalen Klima- und Energiekonferenz. Sehen Sie dazu den Vortrag von EIKE Vizepräsident Michael Limburg.

Den Vortrag von M. Limburg Energiekonzept & Klimaschutz? Passt das zusammen? können Sie auch als .undefinedppt Datei abrufen. 

Sehen Sie hier den Vortrag von Prof. Dieter Ameling zur direkten Auswirkung auf die Stahlindustie dieses Landes:

Den Vortrag "Das Energiekonzept der Bundesregierung führt zur Deindustrialisierung Deutschlands" können Sie ebenfalls  als undefined.ppt Datei abrufen.

Hier finden Sie weitere Infos zum Energiekonzept hier und hier und hier




Forscher als Betrüger: Helmut Schmidt fordert IPCC Untersuchung! Die „Zeit“ zensiert Altkanzler!

Update:  DIE ZEIT zensiert Helmut Schmidt

"Helmut Schmidt hat seine Rede zum Festakt der ehemaligen Kaiser-Wilhelm-Gesellschaft auch in seinem Hausblatt (Die Zeit) veröffentlicht. Wenn man aber die hier interessierenden Passage nachliest, nämlich wo er auf die englischen Quellen des IPCCzu sprechen kommt, dann fehlt plötzlich jeder Hinweis auf Wissenschaftsbetrug. Auch seine klare Einsicht, daß die Klimapolitik der Staaten keine wissenschaftliche, sondern nur eine politische Grundlage hat, ist ohne Einfügung von Auslassungszeichen einfach verschwunden"

Näheres auf ACHGUT hier 

Verantwortung der Forschung im 21. Jahrhundert Die Rede von Helmut Schmidt zum Festakt am 11. Januar 2011 in Berlin: Globale Erwärmung:

[…] Zusätzlich zu all den vorgenannten, von Menschen verursachten Problemen, werden wir gleichzeitig beunruhigt von dem Phänomen der globalen Erwärmung und der ihr unterstellten Konsequenzen. Wir wissen, daß es natürlicherweise immer Eiszeiten und Warmzeiten gegeben hat; wir wissen jedoch nicht, wie groß gegenwärtig und künftig der von Menschen verursachte Beitrag zur heutigen globalen Erwärmung ist. Die von vielen Regierungen international betriebene sogenannte Klimapolitik steckt noch in ihren Anfängen. Die von einer internationalen Wissenschaftlergruppe (Intergovernmental Panel on Climate Change, IPCC) bisher gelieferten Unterlagen stoßen auf Skepsis, zumal einige der beteiligten Forscher sich als Betrüger erwiesen haben. Jedenfalls sind die von einigen Regierungen öffentlich genannten Zielsetzungen bisher weniger wissenschaftlich als vielmehr lediglich politisch begründet. Es scheint mir an der Zeit, daß eine unserer wissenschaftlichen Spitzenorganisationen die Arbeit des IPCC kritisch und realistisch unter die Lupe nimmt und sodann die sich ergebenden Schlußfolgerungen der öffentlichen Meinung unseres Landes in verständlicher Weise erklärt.

Die ganze Rede ist hier zu lesen. 

Dr. Benny Peiser

Der Beitrag erschien zuerst auf ACHGUT

Weiterführender link hier




Selbsternannte „Pioniere des Wandels“ planen den Umsturz- Die Große Transformation in der Ev. Akademie Tutzing

Wenn man rätselt, wieso eine evangelische Akademie, die von den Kirchensteuern vieler Menschen mit den unterschiedlichsten politischen Überzeugungen lebt, derart einseitige Agitation betreibt, so muss man nach dem Geist fragen, der hinter dieser Tagung steckt. Es ist der Geist der totalitären Arroganz, der Geist einer Gruppe, die meint, dass sie über die Wahrheit verfügt und deshalb das Recht hat, die Gesellschaft insgesamt zu lenken. In ähnlicher totalitärer Arroganz hat ja bekanntlich Lenin die Kommunistische Partei als die Avantgarde der Arbeiterklasse verstanden. Die Folgen sind allgemein bekannt.

Man erkennt den Geist totalitärer Arroganz schnell, wenn man einen Blick auf das offizielle Tagungskonzept wirft. Hier der ganze Text im Wortlaut:

Tagungskonzept

Große Transformation zu einer klimaverträglichen Gesellschaft: Die Herausforderung für die Umsetzung meistern

Die Transformation zur klimaverträglichen Gesellschaft ist dringend notwendig, denn ein ungebremster Klimawandel würde gefährliche, irreversible und kaum beherrschbare Risiken mit sich bringen. Um den globalen Temperaturanstieg auf 2°C gegenüber dem vorindustriellen Niveau zu begrenzen, muss das auf fossiler Energienutzung basierende Wirtschaftssystem bis Mitte des Jahrhunderts weitgehend auf eine low-carbon economy umgestellt sein.

 Das könnte auf den ersten Blick den Eindruck erwecken, dass dies noch in weiter Zukunft liegen würde. Tatsächlich müssen jedoch dafür die Weichen in den nächsten Jahren gestellt werden, soll die Herausforderung gemeistert werden. Das zeigt das aktuelle Gutachten des WBGU, das im März 2011 erscheinen wird.

 Auf der Tagung wird diskutiert, wie die Umsetzung dieser „großen Transformation“ (Karl Polanyi) durch Politik, Wirtschaft und Gesellschaft gelingen kann und wie man für die Pioniere des Wandels Freiräume schaffen und erweitern kann.

Herzliche Einladung nach Tutzing zu einem spannenden Dialog zum Zukunftsthema des 21. Jahrhunderts.

Dr. Friedemann Greiner, Direktor Evangelische Akademie Tutzing

Prof. Dr. Hans Joachim Schellnhuber, Vorsitzender Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen (WBGU), Potsdam

Quelle: web.ev-akademie-tutzing.de

 

Schon am Titel der Tagung, am Schlagwort von der "großen Transformation" ist ablesbar, in welchem Geist die Tagung geplant und durchgeführt werden soll.

"Große Transformation" ist ursprünglich ein Begriff, mit dem der ungarisch-österreichische Wirtschaftswissenschaftler Karl Polanyi im letzten Jahrhundert die Industrialisierung in Europa gekennzeichnet hat. Das war eine treffende Bezeichnung. Im 19. und 20. Jahrhundert hat die Industrialisierung die Gesellschaften Europas fundamental verändert, also transformiert. Nun greifen die Klimaalarmisten, die die Tutzinger Tagung veranstalten, diesen Begriff Polanyis auf. Sie wollen damit die Veränderung kennzeichnen, die nach ihrer Überzeugung für die Gesellschaft heute und morgen notwendig ist, damit die Gesellschaft "klimaverträglich" wird. Mit dieser Begriffswahl machen sie deutlich, dass sie eine ähnlich grundlegende und alle gesellschaftlichen Bereiche erfassende Umgestaltung anstreben, wie es die Industrialisierung gewesen ist.

Zwischen den Promotoren der "großen Transformation" heute und Karl Polanyi damals besteht nun allerdings ein wesentlicher, ja entscheidender Unterschied: Polanyi hat als Wirtschafts- und Gesellschaftshistoriker eine Entwicklung beschrieben, die sich in der Vergangenheit vollzogen hatte, heutige Verkünder der "großen Transformation" jedoch beschreiben eine gesellschaftliche Revolution, die sie in der Zukunft herbeiführen wollen. Und genau dieser Wechsel der Blickrichtung, der Wechsel vom Blick Polanyis in die Vergangenheit hin zum Blick der Tutzing-Alarmisten in die Zukunft, offenbart den Geist totalitärer Arroganz, in dem die Tagung in Tutzing durchgeführt werden soll. Die Vergangenheit kann der Mensch erforschen, der sichere Blick in die Zukunft dagegen ist ihm prinzipiell verschlossen.

Die Industrialisierung Europas ist keineswegs von einer kleinen elitären Gruppe von selbsternannten "Pionieren des Wandels", die die Zukunft vorhersagen konnten, geplant und organisiert worden, sondern sie ist ein vielfältiger und breit angelegter geschichtlicher Prozess gewesen. Tausende, wenn nicht Hunderttausende von einzelnen, Erfinder, Forscher, Tüftler, Bankiers, Unternehmenslenker, Handelstreibende, Pädagogen und Arbeiter, haben in aller Freiheit und über mehrere Generationen mit Hilfe ihrer Intelligenz, Initiative und Arbeitskraft gehandelt und gemeinsam die Transformation zur Industriegesellschaft bewirkt. Niemand hat die Gesamtheit ihrer Leistungen geplant oder planen können. Es ist kein Zufall, dass die Industrialisierung einherging mit der Demokratisierung der Gesellschaft. Nur Freiheit, Demokratie und Eigentum haben die Rahmenbedingungen für sie bereitstellen können. Im Grunde war die Industrialisierung ein freier und chaotischer Prozess mit vielen Irrwegen, aber am Ende auch mit unübersehbar vielen und großartigen Erfolgen zum Wohl der gesamten Menschheit.

Ganz anders verhält es sich aber mit dem Projekt der "großen Transformation" heute. Unter diesem Stichwort versammeln sich ein paar Wissenschaftler, die überzeugt sind, es besser zu wissen als die große Mehrheit der Menschen. Sie bilden sich ein, auf der Basis der von ihnen betriebenen Wissenschaft die Zukunft der Gesellschaft planen zu können und zu sollen. Zwar berufen sie sich nicht mehr wie weiland Lenin auf die "objektive" Wissenschaft des Historischen und Dialektischen Materialismus, sondern auf eine andere "objektive" Wissenschaft. Mit derselben Selbstsicherheit wie Lenin behaupten sie aber, dass ihre Wissenschaft endgültig geklärt sei. Damit übersteigen sie alle Grenzen dessen, was Menschen wissen können.

Dabei kann sich jedermann davon, dass die Wissenschaft keineswegs geklärt ist, leicht selbst überzeugen: Seit über 10 Jahren steigt die globale Durchschnittstemperatur nicht an, obwohl die Konzentration von CO2 in der Atmosphäre weiter zunimmt. Die Vereisung der Arktis nimmt keineswegs immer weiter ab. Die Eisbärenpopulation hat sich mittlerweile so weit erholt, dass einige Staaten wieder in begrenztem Umfang Abschüsse erlauben. Und von angesehenen theoretischen Physikern wird mit guten Gründen bezweifelt, dass es überhaupt einen CO2-Treibhauseffekt gibt.

Aber das alles spielt für die selbsternannten "Pioniere des Wandels" keine Rolle. Sie denken offensichtlich im Rahmen einer totalitären Denkstruktur, die gegen Kritik und Argumente immunisiert. Erfahrungsgemäß ist eine solche Denkstruktur insbesondere für schwache Persönlichkeiten verlockend. Sie verleiht nämlich dem eigenen Ego ein schmeichelndes Gefühl der Überlegenheit gegenüber allen anderen Menschen. Solches Denken redet dem Menschen ein, dass er zur Avantgarde der Gesellschaft gehört, und dies ist natürlich gerade für solche Menschen, die nur über ein geringes Selbstbewusstsein verfügen, besonders attraktiv. Sie reden sich ein, die Wahrheit zu kennen, und stellen sich selbst auf das Siegerpodest. So überwinden sie ihre Minderwertigkeitsgefühle.

Solche Menschen "wissen", in welche Richtung sich die Gesellschaft bewegen wird und muss. Und sie haben natürlich auch das Recht, ja sogar die Pflicht, als Fackelträger der Menschheit voranzuschreiten und ihr den Weg auszuleuchten. Deshalb brauchen sie keinen fairen und herrschaftsfreien wissenschaftlichen Diskurs der Vernunft. Sie können einfach den anderen Menschen diktieren. Die Wissenschaftler von EIKE würden in Tutzing folgerichtig aus der Sicht der Veranstalter nur stören.

Dass diese Interpretation des Konzepts einer "großen Transformation" den Kern der Sache trifft, sieht man im Schlussabsatz des Tagungskonzepts: In Tutzing soll nämlich auch darüber diskutiert werden, wie man für die Pioniere des Wandels Freiräume schaffen und erweitern kann. "Pioniere des Wandels" dies Wort meint nichts anderes als die "Fackelträger der Nation", die z.B. in der "Burg Vogelsang" in der Eifel, einem ehemaligen Schulungszentrum der NSDAP auf einer "heroischen" Skulptur apostrophiert sind. "Pioniere des Wandels", das meint ebenfalls nichts anderes als Führungskräfte der kommunistischen Partei im Sinne Lenins. als einer Avantgarde der Arbeiterklasse.

Und für diese "Pioniere des Wandels" fordert man in Tutzing "Freiräume". Das kann doch nur bedeuten, dass man für sie fordert, dass sie dem normalen Prozess der demokratischen Willensbildung enthoben sind. Für sie sollen andere Gesetze gelten als für die Mehrheit. Freiräume, die man schaffen will und die man erweitern kann, sind Räume, in denen die Wissenden, eben die, die auf Grund ihrer Wissenschaft objektiv über die Zukunft urteilen zu können meinen, autonom schalten und walten, diktieren und bestimmen können. Letztlich wird in Tutzing laut Tagungskonzept nach dem Weg zu einer neuen Autokratie, einer anderen politischen Ordnung gesucht, einer Ordnung, die nicht in das enge Korsett des Grundgesetzes gezwängt ist, sondern frei darüber schwebt.

Der Untertitel dieses Kommentars lautet: Selbsternannte "Pioniere des Wandels" planen den Umsturz. Das Tagungskonzept macht deutlich, dass es sich dabei um einen Angriff auf die Demokratie handelt. Es geht in der Klimafrage längst nicht mehr die objektive wissenschaftliche Erforschung des irdischen Wettergeschehens und der dieses Geschehen treibenden Kräfte, es geht um die Installierung einer über dem Gesetz stehenden selbsternannten "wissenschaftlichen" Elite, die von oben her den Weg der Menschheit steuert.

Das Motto von EIKE bestätigt sich wieder einmal: "Nicht das Klima ist bedroht, sondern unsere Freiheit." Die Gefahr, die von den KLimaalarmisten unserer Zeit ausgeht, besteht nicht nur darin, dass sie den Menschen immer neue Kosten aufbürden und durch die ständig steigenden Strom- und sonstigen Energiepreise den Zusammenbruch weiter Teile der Industrie herbeiführen und die Menschen in die Armut stürzen werden, die Gefahr, die von ihnen ausgeht, ist noch viel fundamentaler: Die Klimaalarmisten, die selbsternannten Pioniere des Wandels, sind eine fundamentale Gefahr für unsere demokratische Ordnung. Sie bedrohen die Freiheit der Menschen und schicken sich an, von neuem das Netz des totalitären Staates über die Gesellschaft zu werfen, ein Netz, das sie dann, wenn es einmal ausgebreitet ist, allmählich immer weiter zuziehen werden, bis es kein Entkommen mehr gibt.

Reiner Vogels Pfarrer i.R. für EIKE

Nachtrag:

"Die Referenten propagierten stattdessen Konzepte eines "Ökosozialismus" oder gar "Ökokommunismus"! So steht es zu lesen in einem Bericht über  eine  Wirtschaftsgeografie-Tagung in Salzburg vom März 2010:

Der Emissionshandel werde die Klimakatastrophe nicht abwenden können, sagten Wissenschaftler bei einer Wirtschaftsgeografie-Tagung in Salzburg – ein "radikaler Bruch" mit der freien Marktwirtschaft sei nötig

Gefunden von Leser Hannes Farnleithner Näheres hier