1

ENDLAGERUNG ? NEIN, DANKE!

Eine wichtige Rolle bei der Diskussion um Für und Wider Kernenergie spielt die Beantwortung der Frage, wie der nach einer Stilllegung von Kernenergieanlagen oder aber auch nach einem Kernschmelzunfall anfallende radioaktive Atommüll sicher entsorgt werden kann. In Deutschland (und u. a. auch Österreich) wird dabei die Bevölkerung durch Horrormeldungen in Angst und Schrecken versetzt, dass dies nur durch den Bau von Atommüll-Endlagern, die auf hunderte, ja bis auf eine Million von Jahren ausgelegt sein müssen, gewährleistet werden kann. Dies alles im Zusammenhang mit der Andeutung, dass dabei eventuell weite Landstriche über Jahrzehnte hinweg mit ’hochradioaktiven Spaltprodukten verstrahlt’ werden könnten (Ohne Ross und Reiter zu nennen, was man eigentlich unter ’hochradioaktiv’ zu verstehen hat). Es soll hier bewiesen werden, dass basierend auf rein logischen Überlegungen aber auch aus Erfahrungen im Umgang mit den drei einzigen Kernschmelzunfällen in der über 60-jährigen erfolgreichen Geschichte der friedlichen Anwendung der Atomenergie, solche Scenarios strahlenphysikalisch überhaupt nicht denkbar sind. Und daher eher im Reich der Fabeln angesiedelt werden müssen. Folgerungen aus diesen Überlegungen deuten darauf hin, dass Vorsorge eher über Jahre (wenn überhaupt) zu planen ist. Und dass für kostspielige Endlager über Jahrzehnte und mehr somit überhaupt keine Notwendigkeit besteht.

Als Folge einer Kernspaltung entsteht ein ganzes Bündel von Spaltprodukten (Isotopen), von denen ein Grossteil äußerst instabil ist und erst im Rahmen des Nachzerfalls ihren endgültigen stabilen Zustand erreicht. Einige davon benötigen dazu entsprechend ihrer Halbwertzeit bis zu Millionen von Jahren. Viele Politiker, Journalisten, kirchliche Würdenträger und damit auch ein Grossteil der Bevölkerung glauben nun fälschlicherweise, dass auch das letzte und das vorletzte Glied solch einer radioaktiven Zerfallskette für den menschlichen Organismus noch immer gefährlich werden könnte. Also auch noch nach Millionen von Jahren. So dass es nur folgerichtig sei, daher auch jedes einzelne davon für Jahrmillionen end zu lagern. Koste es, was es wolle. Bei der Gefahrenabwägung übersehen sie aber dabei, dass bei solchen Überlegungen auch entsprechende Erkenntnisse über die Einwirkung radioaktiver Substanzen auf einen lebenden Organismus miteinbezogen werden müssen. Erst dann kann nämlich, und dies schon allein durch rein ’logische’ Überlegungen, deutlich gemacht werden, dass im Gegensatz zu der obigen These solch eine strahlende Substanz schon lange vorher einen Schwellenwert erreichen hat, unter dem dann die weitere Strahlung für einen lebenden Organismus keine Rolle mehr spielen kann. Je nach Beantwortung dieser grundlegenden Fragen haben sich somit bei dem Bemühen um Lösung der Probleme der Atommüllentsorgung zwei Lager mit verschiedenen Strategien entwickelt.

Aus rein strahlenphysikalischen Gesetzmäßigkeiten ergibt sich zunähst, dass die nach einer Kernspaltung entstandenen noch äußerst instabilen Isotope während der Dauer ihrer Halbwertszeit (HWZ) auf die Hälfte, nach 10 bzw. 20 Zyklen auf nur noch rd. ein Tausendstel bzw. ein Millionstel ihrer Ausgangsmasse zerfallen sind. Dabei tragen 99 Prozent davon kaum zur Gefahrenbilanz bei, da die entsprechenden Teilchen bereits innerhalb einer Minute ihren stabilen Zustand erreicht haben (Also noch innerhalb des Reaktorkerns zerfallen sind). Für den Anteil an mittelfristigen Strahlern, die mit einer HWZ von Tagen und Monaten zerfallen (wie z. B. Jod-131 mit einer HWZ von 8,3 Tagen), bedeutet dies, dass diese Kategorie während eines halben oder ganzen Jahres praktisch schon nicht mehr vorhanden ist. Somit stellen sie beispielsweise nach einer (üblicherweise mehrjähriger) Lagerung im Abklingbecken eines Reaktors keine Gefahr mehr dar. Als Problemfall verbleibt somit nur die Entsorgung von Langzeitstrahlern, mit ihrem charakteristischen Vertreter Cäsium-137 (HWZ 30.17 Jahre). Aber auch (neben dem im Kühlmittel erzeugten Tritium) die erbrüteten Transurane (wie z. B. Plutonium, Americium usw.) sowie dem (zu einem Großteil) noch nicht aufgebrauchte schwach radioaktiv und langfristig strahlende Urananteil. Da letztere Isotope innerhalb eines abgebrannten Brennelements (im Vergleich zu den anderen Langzeitstrahlern) in viel größeren Mengen vorhanden sind, ist es angebracht, diese eventuel gesondert zu behandeln. Z. B., indem sie in einer Wiederaufbereitungsanlage von der übrigen Masse des Atommülls abgetrennt und entweder in Glaskokillen verschweißt oder als Mischoxid-Brenntoff in neueren Reaktortypen (z. B. der Generation IV) einer weiteren Verwendung zugeführt werden.

Wie bereits erwähnt, wird aber oft nicht berücksichtigt, dass bei all diesen Überlegungen (vor allem in Hinblick auf Langzeitstrahlern) auch noch eine strahlenbiologische Komponente miteinbezogen werden muss. Denn jede Strahlung (genauso wie etwa Sonnen- oder Röntgenstrahlen aber auch Hitze, Frost, Alkohol, verseuchte Nahrung oder ein Messerstich) kann organische Zellen zerstören (und manchmal u. a. auch das Erbgut beeinträchtigen). Die Natur hat aber andererseits Reparaturmechanismen bereitgestellt, die es ermöglichen, dass diese Zellen innerhalb eines gewissen Zeitrahmens immer wieder regeneriert werden. Das funktioniert allerdings nur solang, bis dieser Regenerationsprozess nicht überfordert wird. Es ist daher nur logisch, dass es somit einen ’Schwellenwert’ geben muss, ab dem die geringer werdende Strahlung für den Organismus nicht mehr gefährlich werden kann. Und somit im Meer der ’natürlichen Umgebungsstrahlung’ versinkt, an die sich der Körper schon lange gewöhnt hat. Was notwendig war, da ja der gesamte Planet Erde strahlenverseucht ist. Entweder durch Strahlung, die aus dem Weltall, dem Erdinneren oder aber auch aus der näheren Umgebung kommt (Ein Mensch strahlt in seinem Körper mit einer natürlichen Radioaktivität von rd. 9000 Becquerel). Bei der Beurteilung der Gefährdung durch Strahlung ist daher unstrittig, dass zwischen ’Strahlung’ und einer (für einen Organismus) ’gefährlichen Strahlung’ unterschieden werden muss. So dass, im Gegenteil zur in Deutschland vorherrschenden Meinung, für das letzte oder vorletzte zerfallende Teilchen kein ’Seidenpapier’ bereitgehalten werden muss. Was für die Allgemeinheit auch wesentlich billiger kommt.

Ja, es stellt sich sogar heraus, dass mit niedriger Dosis strahlende Subtanzen z. T. sogar gesundheitsfördernd wirken (Ein Prozess der als ’Hormesis bezeichnet wird, d. h. Erhöhung der Widerstands- und Wachstumsfähigkeit lebendiger Organismen). Schon im frühen 16. Jh. wurde dies (u. a. auch von Paracelsus) erkannt: ’Die Dosis bestimmt, ob etwas ein Gift ist’. Was natürlich auch allgemein gilt (und damit auch für radioaktive Strahlung). Zahlreiche Studien und Erfahrungswerte unterstützen diese These. So wurde mit Verwunderung festgestellt, dass die Sterblichkeitsrate der Überlebenden des Atombombenabwurfs von Nagasaki wesentlich geringer ausfiel als die bei einer jüngeren Kontrollgruppe. Oder auch die Tatsache, dass Strahlentherapien mit niedrigen Dosen zur Behandlung spezieller Erkrankungen zunehmend an Bedeutung gewinnen (Siehe Radon-Kuren in Bad Gastein).

Somit eröffnet sich in Kombination mit den obigen Erkenntnissen nun für den Begriff ’Halbwertszeit’ noch ein zweiter wichtiger Aspekt. Der in der Öffentlichkeit weniger bekannt aber wegen seiner Auswirkungen doch sehr bedeutsam ist. Man kann nämlich daraus auf die Geschwindigkeit schließen, mit der ein radioaktives Isotop zerfällt. Nimmt man dann noch zusätzlich an, dass dabei pro Zerfall in etwa ein einzelner ionisierender Strahl freigesetzt wird, so kann damit einer groben Schätzung die Obergrenze für eine maximal mögliche Anzahl von Strahlen pro Sekunde und Masse erstellt werden, also einer maximal möglichen Dosisleistung. Das heißt, dass Langzeitstrahler (wie beispielsweise Cäsium-137) zwar ihre Masse sehr langsam abbauen, dabei aber auch nur noch mit einer weitaus und wesentlich geringeren (konstanten und begrenzten) Dosisleistung strahlen können. Die ist z. B. im Vergleich zu Jod-131 entsprechend ihrer reziproken Halbwertszeiten in etwa um den (beachtlichen) Faktor 1327 kleiner ist (Solch eine auf Grund der langsamen Zerfallszeit geringe Anfangsdosisleistung ist übrigens auch der Grund, warum man sich unbesorgt auf einen Holzstuhl setzen kann, der aus Kohlenstoffatomen mit HWZ von über Millionen von Jahren besteht). Ausgehend von der niedrigen Dosisleitung hängt somit die Gesamtdosis einer strahlenden Quelle von der Menge dieser Substanz ab. Durch gezielte ’Portionierung’ der zu lagernden Menge an Atommüll kann somit gesteuert werden, ob solch eine Substanz unter- oder oberhalb des entsprechenden Schwellenwertes strahlt. Bei dieser Situation ist es daher sogar von Vorteil, wenn aus einer radioaktiv strahlenden Quelle flüchtige und daher wegen ihrer geringen Menge nun ungefährliche Gase in die Luft entweichen oder verdünnte Flüssigkeiten in die Erde versickern. Das entsprechende Motto zur Lagerung muss somit (entgegen der landläufigen Lehrmeinungen) lauten, jede Verdünnung der Menge an strahlender Substanz ist zu begrüßen. Ebenso wie ein (geringfügiges oder weitflächiges) Versickern von radioaktiv verseuchtem Wasser oder dem Entweichen von Gasen in die Atmosphäre. Grob (und etwas flapsig) gesagt: Am besten wäre es, man lässt den Sarkophag in Tschernobyl einige Jahre abkühlen (um die mittelfristigen Strahler loszuwerden) und wirft dann in den verbliebenen Müll einen Sprengsatz. Dere sorgt dann (ähnlich wie bei Atombombentests) dafür, dass nun nur mehr eine stark verdünnte (und daher auch schwachradioaktive) Menge an Langzeitstrahlern über die Landschaft verteilt wird, und daher stark an Gefährlichkeit verliert. Natürlich kann man solch eine Verdünnung auch kontrolliert durchführen.

Zusätzlich wird damit aber auch verständlich, warum die Strahlengefahr auch davon abhängt, in welchen Zeitintervallen man einer Strahlenquelle ausgesetzt ist (Getreu dem Motto: ’Es ist ein Unterschied, ob man eine Flasche Schnaps innerhalb von 10 Minuten oder 10 Monaten trinkt’). Also wie effektiv die Regeneration der Zellen in diesen Zwischenintervallen wirksam werden kann.

Eine weitere Gefahrenminderung solcher Strahlenquellen ergibt sich übrigens auch aus der Tatsache, dass Radioaktivität gut messbar ist und somit eventuell vorhandene und noch immer strahlende Spots schnell lokalisierbar und daher auch leicht umgangen bzw. eliminiert werden können.

Wichtig für den Umgang der Menschen mit Strahlung ist auch die Tatsache, dass es (im Nachzerfallsbereich) einen wesentlichen Unterschied zwischen Gift und einem Langzeitstrahler gibt. Während Gift sofort wirkt, geben Letztere ihr Gefahrenpotential erst im Laufe der Zeit ab (Logischerweise den halben Anteil während der Dauer einer HWZ). Daher sollte auch das Verhalten der Menschen gegenüber Gefahren durch Strahlung vollkommen unterschiedlich sein. Leider ist das viel zu oft nicht der Fall. Vor einer radioaktiven Wolke (falls es so etwas überhaupt geben sollte) muss man nicht (wie vor einer Giftwolke) panikartig fliehen (Ein Sujet, das manchmal als ein Scenario für Katastrophenfilme genommen wird). Solch ein tragisches behördliches Fehlverhalten konnte nach dem Unglück von Fukushima festgestellt werden. Bei der Organisation der Evakuierung wurde ein viel zu überstürzter (aber von einem unzureichenden Strahlenschutzgesetz geforderter) Abtransport von Schwerstkranken aber auch Frischoperierten aus den umliegenden Krankenhäusern angeordnet. Mit der Folge dass es deshalb bei diesem Unglück, wie UNSCEAR bestätigt, paradoxerweise keine ’Strahlen-’, dafür aber (lt. Spiegel) rd. 500 ’Strahlenschutz’-Tote zu verzeichnen gab. Umgekehrt durften nach der Reaktorkatastrophe von Tschernobyl die Bewohner vom benachbarten Pripyat mit ihren Kindern noch bis zu 36 Stunden nach der Wasserstoffexplosion im Reaktorduckbehälter und der rd. 3 km hoch brennende Graphitsäule im stark verstrahlten Park spazieren gehen, bevor begonnen wurde, die Bevölkerung zu evakuieren. Ohne dass nennenswerte Opfer von den Behörden (und daher auch von UNSCEAR) gemeldet wurden. Bei solchen Zwischenfällen reicht es, darauf zu achten, dass strahlende Substanzen nicht all zu lange im oder am Körper verweilen (Z. B. Jod in der Schilddrüse oder Strontium in den Knochen). Man hat oft tagelang Zeit, um einen verstrahlten Bereich zu verlassen. Auch das Essen von z. B. mit Cäsium verseuchtem Wildfleisch oder Pilzen kann somit kaum als gesundheitlich bedenklich angesehen werden. Denn Cäsium ist nur in geringer Menge in solch einer Nahrung vorhanden und diese verbleibt nur mit vergleichsweise kurzer Aufenthaltsdauer im Körper. Beim Rückbau von Reaktoranlagen spielen daher auch angeblich ’stark verstrahlte Bauteile’ (wie z. B. Rohrleitungen mit geringfügigen Resten von radioaktiven Substanzen) keine wesentliche Rolle mehr.

In Deutschland ist es schon seit Jahrzehnten Praxis geworden, eine endgültige Entscheidung über den Standort (und damit den Bau) eines atomaren Endlagers aus rein parteipolitischen Überlegungen auf die lange Bank zu schieben. U. a. auch durch Verkünden von entsprechenden ’Moratorien’ (sprich ’angeblicher jahrzehntelanger Nachdenkphasen’). Und dies trotz mehrerer Erfolg versprechender Lösungsansätze. Wie z. B. das schon drei Jahrzehnte lang verfolgte und daher auch weit fortgeschrittene Projekt ’Salzstock Gorleben’, das mittlerweile schon an die 2 Mrd. EUR an öffentlichen Mitteln verschlungen hat. Wie auch üblich, wurden nach solchen Moratorien alle weiteren Neuansätze von dubiosen (weil nicht fachgerecht besetzten) Kommissionen verworfen, so dass man immer wieder von vorne anfangen musste. Natürlich konnte man sich diesen Luxus der Verschleppung von Entscheidungen nur leisten, da selbst bei fanatischen Kernenergiegegnern Zweifel aufkamen, ob Endlager in diesen Ausmaßen überhaupt nötig sein werden. Angesichts von Tatsachen, die zu erkennen lassen, dass die nach einer Kernspaltung produzierte Menge an hoch radioaktiver Strahlung schon nach wenigen Jahre unter die Grenze der natürlichen Umgebungsstrahlung fallen wird? Und dann aus Sicht des Strahlenschutzes nicht mehr sicherheitstechnisch relevant ist. Das heißt, dass solch ein Lager für hochradioaktiven Atommüll bei geeignetem Vorgehen im Laufe der Jahre zu eine gewöhnliche Mülldeponie übergeht. Wobei aber meistens sowieso nicht geklärt ist, was man unter den in der Öffentlichkeit meist (ungewollt, oft aber auch bewusst) genannten ’hochradioaktiven’ Substanzen, die langfristig entsorgt werden müssen, eigentlich zu verstehen hat.

All diese z. T. noch ungelösten Fragen tragen dazu bei, dass auch weltweit bis jetzt noch kein einziges Endlager errichtet wurde. Auch wenn dazu mittlerweile schon manche konkrete Pläne vorliegen. Wie z. B. in Frankreich, wo Senat und Parlament vor kurzem ihre Absicht bekundet haben, ihre Endlager in Lothringen zu errichten. Grünes Licht soll dazu allerdings erst 2025 gegeben und Abfälle dort nicht vor 2030 gelagert werden. Wobei grüne Abgeordnete, die ja Horrorzahlen lieben, von angeblich rd. 80.000 qm hochradioaktiven (!!) Müll sprechen. Befürworter, wie z. B. AREVA, bezeichnen diese Zahlen als vollkommen unrealistisch. Es kommt dafür nur noch strahlender Restmüll in Frage, der in Frankreich seit dem Zweiten Weltkrieg produziert wurde bzw. in den nächsten 50 Jahren zu erwarten ist. Deren Menge passe bequem in ein olympisches Schwimmbecken.

Trotz all dieser Bedenken wurde im März 2017 vom deutschen Bundestag ein Gesetz zur Suche von geeigneten Atommüllendlagerstätten (mit Einschlusszeiten von bis zu 1 Million von Jahren) beschlossenen (S. z. B. SZ vom 24. 03. 2017). Demnach ist geplant, zunächst einen Standort für die sichere Einlagerung von Atommüll, in der Größenordnung von zig Tausend Tonnen, zu finden. Erst nach einem positiven Ergebnis der Suche sollte dann mit der Realisierung solch eines Baus begonnen werden. Wobei man sich bei der Behauptung, dass auch das letzte und das vorletzte Glied einer radioaktiven Zerfallskette nach einer Kernspaltung für den menschlichen Organismus noch immer gefährlich werden könnten, vor allem auf eine von Hermann Müller schon in den 40-er Jahren des vorigen Jahrhunderts erstellten LNT (’linear-no-threshold’) – Hypothese stützte. Die auf Versuche mit Fruchtfliegen basierte, die einer relativ hohen Bestrahlung von 2,750 mSv und mehr ausgesetzt worden waren. Wofür er im Jahre 1946 dann auch mit einem Nobelpreis geehrt wurde. Die Aussagen für den unteren Strahlungsbereich (nämlich bis auf 100 mSv) extrapolierte er, unzulässigerweise, allerdings erst später. Wie aus obigen rein logischen Überlegungen hergeleitet wurde, folgt aber nun aus der Existenz des Regenerationsprinzips zwingend, dass der Begriff ’no threshold’ in der LNT-Theorie somit prinzipiell (!!) nicht mehr stimmen kann. Und damit für den niederen Strahlenbereich nicht mehr relevant sein kann. Treffender wäre es, sie auf LWT (’linear with threshold’) umzubenennen. Was aber auch bedeutet, dass damit jede theoretische Grundlage für Planungen von Endlagern mit sicheren Einschlusszeiten von über Millionen von Jahren zweifelhaft macht.

Obwohl diese Aussage für niedere Dosisraten mittlerweile auch anderweitig zigfach widerlegt wurde, bleiben die Befürworter dieser These noch immer bei der Forderung nach Endlagern für Millionen von Jahren (Und das nur, falls diese letzten Spaltprodukte überhaupt noch an die Oberfläche gelangen sollten). Und dies auch auf die Gefahr hin, Riesenkosten dafür aufwenden zu müssen. Kosten, die für eine Volkswirtschaft fast nicht tragbar, ja praktisch sogar unbezahlbar wären. Wohlweislich wird aber in dem jetzt beschlossenen Gesetz zur Endlagersuche die Entscheidung für solch einen Ort erst auf das Jahr 2031 gelegt. Also auf den Sankt Nimmerleinstag.

In einem ähnlich gelagerten Fall wurde mittlerweile, um jeden Austritt radioaktiver Teilchen aus dem mittlerweile maroden Sarkophag von Block 4 von Tschernobyl zu verhindern, im Rahmen international Bestrebungen entschieden und auch bereits begonnen, ein neues bewegliches Dach über diesen Sarkophag zu errichten. Genannt ’New Safe Containment (NSC)’. Damit in den nächsten hundert Jahren, wie zitiert, ’kein einziges Partikel’ aus der schmelzenden Kernmasse entweichen kann. Vorläufige geschätzte und sicherlich nicht endgültige Kosten: EUR 2,15 Mrd. (Dreimal mehr als ursprünglich geplant). An denen sich angeblich 40 Nationen beteiligen wollen. Nach 2017 soll die doppelwandige Hightech-Hülle NSC dann für 98 Jahre der (sowieso immer klammen und von Krieg und Wirtschaftskrise geplagten) Ukraine übergeben werden. Auch hier die Frage. Wozu eigentlich? Der verbliebene Rest an Atommüll besteht dann doch nur noch aus schwachradioaktiven und daher strahlungsarmen Nukliden. Besser gesagt aus ’stinknormalem Bauschutt’.

Dabei sollte es doch allen Beteiligten, der Ministerin und den Parlamentariern, klar sein, dass Planungen über technische Vorhaben, die noch nach 100 Jahren funktionieren sollen, einfach lächerlich sind. Was ist aus den Langzeitplänen unsere Vorfahren von vor 100 Jahren geblieben? Noch blamabler wird es dann, wenn man sich fragt, was die künftige Generationen in 1000 Jahren von unserer Fürsorge halten sollen? Und besonders 999 mal später dann von der Tatsache, dass sie selbst von uns vor dem letzten radioaktiven Teilchen, sofern es überhaupt freikommt, beschützt wurden. Und dafür sogar, selbstlos, den Ruin unserer Wirtschaft in Kauf genommen haben.

Man kann somit bei Beachtung von all diesen strahlenphysikalischen und –biologischen Erkenntnissen folgende Schlussfolgerung ziehen:

  • Endlagerung von radioaktivem Atommüll über zig Jahre und mehr war bisher nicht nötig und wird es auch weiterhin nicht sein. Das ergibt sich beispielsweise auch aus der Tatsache, dass es bisher in keinem Land zum Bau eines Endlagers kam. Aber auch aus der Auswertung der Erfahrungen mit den drei bisher einzigen Kernschmelzunfällen in der 60-jährigen Geschichte der friedlichen Nutzung der Atomenergie.
  • Es reicht, wenn der angefallene Atommüll zunächst über mehrere Jahre in Lagerbecken einer Reaktoranlage zur Abkühlung gebracht und danach für weitere Jahre in Zwischenlagern entsorgt wird. Bis dahin hat sich dann die Atommüllhalde in eine gewöhnliche und für die Bevölkerung ungefährliche Deponie verwandelt.
  • Dabei wäre zu empfehlen, die verbleibenden schwach radioaktiven Uran- und Plutoniumanteile bei dieser Philosophie vorher in Wiederaufbereitungsanlagen von dem übrigen Atommüllrest zu trennen. Und diese dann entweder durch Verarbeitung als Mischoxid – Brennelemente oder durch Einglasung von der Bevölkerung fernzuhalten. Ein Prozess, der im Vergleich zur bisherigen Endlagerphilosophie kaum viel Lagervolumen erfordert.
  • Der strahlende Anteil von sich bereits im Abklingbecken befindlichen abgebrannten Brennelementen oder einer Kernschmelze kann sich, je nach Masse, bereits unterhalb des natürlichen Schwellenwertes befinden. Als Motto müsste bei der Entsorgung (entgegen der landläufigen Lehrmeinungen) lauten, jede Verdünnung der Menge an strahlender Substanz ist zu begrüßen. Ebenso wie ein Versickern von radioaktiv verseuchtem Wasser oder dem Entweichen von Gasen in die Atmosphäre.
  • Die Kostenvorteile bei dieser Vorgehensweise liegen klar auf der Hand. Sie werden im Bereich von einigen Billionen EUR liegen. Wobei (wegen der vorherrschenden politischen Schwierigkeiten) eine Wiederaufbereitung nicht einmal im eigenen Lande stattfinden müsste.
  • Das gegenwärtige Vorgehen der Regierung in Sachen Kernenergie hat mit einer seriösen Energiewirtschaft nichts zu tun. Schon bei der Bedeutung dieser Fragen müsste es sich für Regierungen doch lohnen, in der breiten Öffentlichkeit die verschiedenen Standpunkte auf das Genaueste zu diskutieren. Es sollte dabei Hauptaufgabe einer dem Volkswohl verpflichteten Regierung sein, sicherzustellen, dass Entscheidungen über so wichtige und vor allem kostenträchtige Projekte von echten (und nicht eingebildeten, da selbsternannten) Spezialisten mit fundierten wissenschaftlichen Analysen getroffen werden. Kernenergie darf nicht Spielwiese von nur ideologisch gesteuerten Gartenbauingenieuren, Kunst- und Soziologiestudenten und ähnlichen Ideologen sein. Die jetzige Situation kommt den Staat und vor allem auch der Demokratie viel zu teuer zu stehen.

Schon diese relativ einfach zu verstehenden logischen Schlussfolgerungen sollten aufzeigen, dass es sehr wichtig sein kann, sich genau zu überlegen, nach welchen Kriterien bei der Frage der Endlagerung von Atommüll vorgegangen werden sollte. Dazu braucht es keine 10- bis 15-jährige Moratorien. Sondern die Beantwortung der Frage, welche radioaktiven Teilchen daher nach all diesen hier vorgestellten Erwägungen im Endlagerkonzept überhaupt noch berücksichtig werden sollten? Um so herauszufinden, welche dieser Zerfallsprodukte auf Jahre oder auch Jahrmillionen von der Menschheit abzuschirmen wären? Und auch zu begründen, woher die oft genannten Horrorzahlen von zig Tausend Tonnen von Atommüll kommen sollen, die dabei angeblich verarbeitet werden müssen?

Eine nachfolgende seriöse Berichterstattung in der Presse ist zur umfassenden Aufklärung der Bevölkerung über diese Problematik unabdinbar. Man sollte meinen, dass an solch leicht verständlichen Überlegungen alle Parteien Interesse haben sollten, um so nicht zum Spielball emotionaler und daher nicht mehr kontrollierbarer Strömungen zu werden. Ist aber nicht der Fall. Hier spielen Parteiinteressen (wie z. B. Ideologie, Wahlchancen, finanzielle Vorteile) oft eine viel wichtigere Rolle. Zum Schaden des Staates.

Abschließend kann festgestellt werden, dass es keinen Grund gibt, den anfallenden Atommüll über zig Jahre aufwendig zu entsorgen. Die Verwendung von Abklingbecken und Zwischenlagern genügt für die ersten Jahre, um die Bevölkerung ausreichend zu schützen.

 

 




Wieviel CO2 stoßen Vulkane aus?

Weshalb wählte man gerade den Mauna Loa? Vulkane sind wohlbekannte CO2-Quellen, da wäre ein neutralerer, nichtvulkanischer Ort sicher angebracht gewesen. Trotzdem sind die Bedenken einer vulkanischen Beeinflussung der Messwerte wohl unberechtigt, denn der Mauna-Loa-CO2-Verlauf wurde zwischenzeitlich an vielen anderen Stellen der Erde bestätigt.

Der Anstieg des CO2 in den vergangenen 150 Jahren ist Folge der Nutzung fossiler Brennstoffe im Zuge der Industrialisierung. Es stellt sich die Frage, inwieweit natürliche Prozesse zu diesem CO2-Anstieg möglicherweise beigetragen haben. Wenn man sich den CO2-Kreislauf anschaut, scheinen Vulkane eher wenig CO2 in die Atmosphäre zu pumpen. Laut dem 5. IPCC-Bericht (Arbeitsgruppe 1, Kapitel 6, Abbildung 6.1, Seite 471, pdf hier) stoßen Vulkane jährlich lediglich 100 Millionen Tonnen Kohlenstoff aus, während bei der Verbrennung fossiler Energieträger und bei der Zementherstellung 7,8 Milliarden Tonnen Kohlenstoff pro Jahr produziert werden.

Trotzdem wollen wir uns im Folgenden mit den Vulkanen und ihrem CO2-Ausstoß einmal näher beschäftigen. Wie genau sind die vulkanischen CO2-Quellen eigentlich bekannt? Ist der CO2-Ausstoß kontinuierlich oder unterliegt er Schwankungen? Das Lamont-Doherty Earth Observatory der Columbia University überraschte am 5. Februar 2015 mit einer Pressemitteilung, in der charakteristische Zyklen beim vulkanischen CO2-Ausstoß beschrieben werden, die unter Umständen auch das Klima beeinflussen können:

Vulkanaktivität auf dem Meeresgrund kann das Klima verändern: neue Daten zeigen erstaunlich regelmäßige Abläufe von Wochen bis zu Äonen

Von den riesigen Ketten von Vulkanen am Grund der Ozeane vermuten Wissenschaftler, dass sie die sanften Riesen des Planeten sind. Sie stoßen Lava mit geringen, stetigen Raten aus entlang der mittelozeanischen Rücken. Aber eine neue Studie zeigt, dass sie in erstaunlich regelmäßigen Zyklen ihre Aktivität steigern. Die Zyklen reichen von zwei Wochen bis zu 100.000 Jahren – und sie brechen fast ausschließlich während der ersten sechs Monate eines jeden Jahres aus. Die Pulsierung – offensichtlich gekoppelt an kurz- bis langfristige Änderungen des Erdorbits und des Meeresspiegels – könnten helfen, Klimaschwingungen auszulösen. Wissenschaftler haben schon darüber spekuliert, dass vulkanische Zyklen auf dem Festland großen Mengen Kohlendioxid emittieren, welche das Klima beeinflussen können, aber bislang gab es keine Beweise hinsichtlich untermeerischer Vulkane. Die Ergebnisse zeigen, dass die Modelle der natürlichen Klimadynamik der Erde und erweitert der vom Menschen verursachte Klimawandel [so es diesen wirklich gibt, Anm. d. Übers.] adjustiert werden müssen. Die Studie erschien im Journal Geophysical Research Letters.

Die Menschen haben untermeerische Vulkane bislang ignoriert in dem Glauben, dass deren Einfluss gering ist – aber das liegt nur daran, weil man geglaubt hat, sie befinden sich in einem stetigen Zustand [steady state], was aber nicht der Fall ist“, sagte die Autorin der Studie Maya Tolstoy am Lamont-Doherty Earth Observatory der Columbia University. „Sie reagieren sowohl auf sehr große Kräfte als auch auf sehr kleine, und das bedeutet, dass wir sie viel genauer unter die Lupe nehmen müssen“. Eine damit in Beziehung stehende Studie eines anderen Teams im Journal Science stützt Tolstoys Fall, zeigt sie doch ähnliche langzeitliche Abläufe untermeerischen Vulkanismus‘ in einem Antarktischen Gebiet, welches Tolstoy nicht untersucht hatte.

Vulkanisch aktive mittelozeanische Rücken durchziehen kreuz und quer den Meeresboden wie die Nähte auf einem Baseball und erstrecken sich über etwa 37.000 Meilen [ca. 60.000 km]. Sie sind die Nähte, an denen gigantische tektonische Platten auseinander driften. Die ausströmende Lava formt neue Gebiete von Meeresboden, welcher etwa 80% der Planetenkruste ausmacht. Konventionell dachte man, dass sie mit ziemlich konstanter Rate ausbrechen – aber Tolstoy kommt zu dem Ergebnis, dass die Rücken sich derzeit in der Schwachphase befinden. Aber selbst dann produzieren sie vielleicht acht mal so viel Lava wie Vulkane auf dem Festland. Infolge der chemischen Zusammensetzung ihres Magmas glaubt man, dass das von ihnen emittierte CO2 gegenwärtig genauso hoch oder vielleicht etwas geringer ist als bei Festlandsvulkanen – etwa 88 Millionen metrische Tonnen pro Jahr. Aber wenn und wo die untermeerischen Ketten ihre Aktivität steigern, könnte deren CO2-Ausstoß nach oben schnellen, sagte Tolstoy.

Einige Wissenschaftler glauben, dass die Vulkanaktivität an die Milankovitch-Zyklen gekoppelt sein könnte – sich wiederholende Änderungen des Erdorbits sowie Neigung und Richtung der Erdachse – welche plötzliche Schwingungen von warmen zu kalten Perioden und umgekehrt auslösen. Der größte davon ist ein 100.000-Jahre-Zyklus, in welchem der Orbit des Planeten um die Sonne von einem mehr oder weniger jährlichen Umlauf zu einer Ellipse wechselt, welche die Erde mal näher, mal weiter von der Sonne entfernt rücken lässt. Jüngste Eiszeiten scheinen sich während der meisten Zeit des Zyklus‘ zu bilden, aber dann erfolgt eine plötzliche Erwärmung nahe dem Spitzenwert der Exzentrizität. Die Gründe sind unklar.

Vulkane: Forscher haben gezeigt, dass die Bildung von Eiskappen auf dem Festland Druck auf darunter liegende Vulkane ausübt und Eruptionen unterdrückt werden. Aber wenn es aus irgendwelchen Gründen zu einer Erwärmung kommt und das Eis zu schmelzen beginnt, lässt der Druck nach, und Eruptionen werden leichter möglich. Sie gasen CO2 aus, welches noch mehr Erwärmung erzeugt [So? Anm. d. Übers.], wodurch noch mehr Eis schmilzt. Dies führt zu einem sich selbst erhaltenden Prozess, der die Erde plötzlich in eine Warmperiode bringt. Einer Studie der Harvard University aus dem Jahr 2009 zufolge haben die Vulkane während des jüngsten Abschmelzens eine um das sechs- bis achtfache über dem Hintergrundniveau liegende Aktivität, etwa von vor 12.000 bis 7000 Jahren. Die logische Konsequenz davon wäre, dass untermeerische Vulkane das Gegenteil machen: wenn die Erde sich abkühlt, kann der Meeresspiegel um 100 m sinken [?], wegen des vielen, im Eis gebundenen Wassers. Dies verringert den Druck auf die Unterwasservulkane, und sie brechen verstärkt aus. An einem gewissen Punkt könnte der dadurch erfolgende untermeerische CO2-Ausstoß die Erwärmung beginnen lassen, welche das Eis auf den Vulkanen des Festlandes schmelzen lässt.

Dieser Punkt war bisher völlig unklar, teils weil sich untermeerische Eruptionen fast unmöglich beobachten lassen. Allerdings waren Tolstoy und andere Forscher jüngst in der Lage, 10 untermeerische Eruptionsstätten zu überwachen mittels empfindlicher neuer seismischer Instrumente. Sie haben auch neue, hoch auflösende Karten gezeichnet, welche die Umrisse vergangener Lavaflüsse zeigen. Tolstoy analysierte etwa 25 Jahre seismischer Daten von Rücken im Pazifik, dem Atlantik und den Arktischen Ozeanen. Dazu kommen noch Karten, welche Aktivitäten in der Vergangenheit im Südpazifik zeigen.

Die langzeitlichen Eruptionsdaten decken über 700.000 Jahre ab und zeigten, dass während der kältesten Zeiten bei dem dann erniedrigten Meeresspiegel der untermeerische Vulkanismus stark zunimmt und sichtbare Hügelketten formt. Bei einer Erwärmung, wenn der Meeresspiegel auf ein Niveau ähnlich dem Heutigen steigt, verlangsamt sich der Lavafluss, was Hügelketten geringerer Höhe erzeugt. Tolstoy ordnet dem nicht nur den variierenden Meeresspiegel zu, sondern es zeigt sich auch eine enge Relation zu Änderungen des Erdorbits. Wenn der Orbit elliptischer ist, wird die Erde durch die Gravitationskräfte der Sonne mit sich rasch ändernder Rate bei ihrer täglichen Eigenrotation gestaucht und gedehnt – ein Prozess, der ihrer Ansicht nach das untermeerische Magma dazu bringt, aufwärts zu strömen und so die Brüche zwischen den tektonischen Platten erweitert, wodurch sie dann ausströmen kann. Ist der Orbit halbwegs kreisförmig wie jetzt, ist der Stauch-Dehn-Effekt minimal mit der Folge von weniger Eruptionen.

Der Gedanke, dass von außen einwirkende Gravitationskräfte den Vulkanismus beeinflussen, spiegelt sich in den kurzzeitlichen Daten, sagt Tolstoy. Weiter sagt sie, dass die seismischen Daten zeigen, dass heutzutage untermeerische Vulkane hauptsächlich in einem zweiwöchigen Rhythmus aktiver werden. Dies ist der Zeitraum, in dem die Kombination von solaren und lunaren Gravitationskräften die Gezeiten ihren niedrigsten Punkt erreichen lassen und somit der Druck auf die untermeerischen Vulkane nachlässt. Als Eruptionen interpretierte seismische Daten folgten alle zwei Wochen dem Niedrigwasser an acht von neun untersuchten Stellen. Außerdem fand Tolstoy heraus, dass alle Eruptionen aus jüngerer Zeit von Januar bis Juni stattfanden. Im Januar ist die Erde der Sonne am nächsten, im Juli am weitesten von ihr entfernt – eine Periode ähnlich dem Stauchungs-Dehnungs-Effekt, den Tolstoy in längerzeitlichen Zyklen entdeckt. „Schaut man auf die Eruptionen der heutigen Zeit, reagieren die Vulkane sogar auf viel geringere Effekte als diejenigen, welche das Klima steuern könnten“, sagte sie.

Daniel Fornari, ein leitender Wissenschaftler an der Woods Hole Oceanographic Institution und nicht involviert in die Studie, nannte diese einen „sehr wichtigen Beitrag“. Er sagte, es sei unklar, ob die zeitweiligen seismischen Messungen Signale tatsächlicher Lavaflüsse sind oder lediglich Brüche oder Beben des Meeresbodens. Aber die Studie „könnte eindeutig wichtige Implikationen bieten, um unsere Abschätzung von Klimaschwankungen besser quantifizieren und charakterisieren zu können, und zwar über Zyklen von Jahrzehnten bis zu hunderttausenden von Jahren“. Edward Baker, ein leitender Meeresforscher bei der NOAA sagte: „Das interessanteste Ergebnis dieser Studie ist, dass sie weitere Beweise dafür erbringt, dass die feste Erde sowie Luft und Wasser alle als ein einzelnes System agieren“. Die National Science Foundation der USA hat maßgeblich zur Finanzierung dieser Studie beigetragen.

Da die Tiefseevulkane noch immer schlecht kartiert und verstanden sind, könnte sich der vulkanische CO2-Beitrag in den Kohlenstoffzyklus-Modellen noch ändern. Mike Burton vom Italian National Institute of Geophysics and Volcanology geht davon aus, dass Vulkane pro Jahr um die 600 Millionen Tonnen CO2 ausstoßen. Das sind etwa anderthalb mal soviel, wie vom IPCC im letzten Bericht behauptet (eine Tonne Kohlenstoff entspricht 3,67 Tonnen CO2).

Die quantitative Erforschung des vulkanischen CO2-Beitrags ist noch ziemlich am Anfang. Die University of New Mexico berichtete am 18. Januar 2016 über ermutigende Fortschritte in den kontinentalen Riftzonen, die sie in Ostafrika erstmals CO2-budgetierten:

Wissenschaftler entdecken große Kohlenstoff-Emissionen bei der Kontinentalverschiebung

Die erste Studie dieser Art quantifiziert starke CO2-Emissionen. Wissenschaftler an der University of New Mexiko (UNM) führten Forschungen durch, um effektiv Kohlenstoff-Emissionen aus Spaltensystemen im ostafrikanischen Rift-Valley zu untersuchen. Diese Forschung war Teil der Bemühungen, Kohlenstoff-Emissionen aus dem Inneren der Erde zu verstehen und wie diese die Erdatmosphäre beeinflussen. CO2 kann auch aus Spalten weit entfernt von vulkanischen Aktivitätszentren entweichen. Derartige tektonische Ausgasungen sind kaum erforscht und bis heute kaum einmal gemessen worden. Die von der National Science Foundation (NSF) geförderte Forschung wird geleitet von UNM-Professor Tobias Fischer und ist Teil fortgesetzter Bemühungen, globale Emissionen von CO2 aus dem Erdinneren besser zu quantifizieren. Unter der Leitung von UNM-Ph.D-Student Hyunwoo Lee, dem Leitautor der Studie, maßen die Wissenschaftler diffuse CO2-Flüsse aus dem Magadi-Natron-Becken im ostafrikanischen Rift-Valley (EAR) zwischen Kenia und Tansania. Die Studie trägt den Titel [übersetzt] Massive und ausgedehnte starke Kohlenstoff-Emissionen in Verbindung mit der Kontinentalverschiebung. Sie wurde in dem Magazin Nature Geoscience veröffentlicht.

„CO2 ist die Hauptursache des Treibhauseffektes“ [Aha! Anm. d. Übers.], sagte Lee. „Natürliche Kohlenstoff-Emissionen stammen aus Vulkanen und entweichen aus dem Magma. Zumeist hatte man gedacht, dass die Hauptquellen magmatischer Emissionen aus aktiven vulkanischen Ereignissen stammen. Unsere Forschung versucht zum ersten Mal, magmatische CO2-Ausgasungen aus nichtvulkanischen Gebieten und der Kontinentalverschiebung zu quantifizieren“. Das EAR ist die aktivste Kontinentalspalte der Welt und umfasst deutliche westliche und östliche Sektoren. Viele aktive Vulkane emittieren große Mengen CO2, darunter auch der Nyiragongo im Kongo und dem Oldoinvo Lengai in Tansania. Außerdem sind erhebliche Mengen CO2 in diesem Gebiet in großen Seen frei von Sauerstoff gespeichert.

Hyunwoo Lee: „Große Kontinentalspalten und ein Aufbrechen von Super-Kontinenten können gewaltige langzeitliche CO2-Emissionen hervorrufen und zu längeren Treibhaus-Bedingungen wie während der Kreidezeit führen“.

„Um diese diffusen CO2-Flüsse zu messen, verwendeten wir ein EGM-4 CO2-Messgerät mit einer zylindrischen Akkumulationskammer“, sagte Lee. „Die Gasproben werden dann aus der Kammer in ein zuvor evakuierte Glasviolen geleitet, um die Chemie der Gasproben zu bestimmen und Analysen der Kohlenstoff-Isotope durchzuführen“. Zusätzliche, an Spalten im Magadi-Natron-Becken gezogene Gasproben zeigten einen erhöhten CO2-Fluss und ergaben weitere Beweise, dass Spalten durchlässig sind für aus der Tiefe stammendes CO2. Dieses spezielle Untersuchungsgebiet repräsentierte etwa 10% der Fläche des gesamten Natron-Magadi-Beckens.

Die Daten aller Proben wurden dann mit Gas-Daten verglichen aus dem aktiven Vulkan Oldoinvo Lengai. Darin zeigten sich Zusammensetzungen von Kohlenstoff-Isotopen, die einen starken magmatischen Beitrag zum beobachteten CO2 nahelegten. James Muirhead, ein Doktorand an der University of Idaho, konzentrierte sich auf die Relation zwischen der Spaltenstruktur und dem daraus entweichenden Gas, einschließlich der Ursachen, welche den CO2-Fluss aus der Tiefe steuern und welche Mengen Gas aus den Spalten entweichen. Mit der Kombination der CO2-Flussdaten und der Spaltenstrukturen mittels Kohlenstoffisotopen-Analysen erzeugte die Forschung interessante Daten, welche es den Wissenschaftlern ermöglichten, die massiven und längeren Kohlenstoff-Emissionen aus Spalten zu quantifizieren.

Wir kamen zu dem Ergebnis, dass etwa 4 Megatonnen CO2 pro Jahr aus dem Erdboden im Magadi-Natron-Becken entweichen“, sagte Lee. „Die Seismik in Tiefen zwischen 15 und 30 Kilometer, die während unseres Projektes entdeckt worden war impliziert, dass sich ausdehnende Spalten in diesem Gebiet die Erdkruste durchdringen können“. Folglich ist die ultimative CO2-Quelle die untere Erdkruste oder der Erdmantel. Dies ist konsistent mit den im Gas gemessenen Kohlenstoffisotopen. Die Ergebnisse zeigen, dass CO2 aus Magmakörpern im oberen Erdmantel oder der unteren Kruste entlang dieser tiefen Spalten entweicht. Die Extrapolation dieser Messungen auf den gesamten östlichen Zweig des Rift-Systems impliziert einen gewaltigen CO2-Fluss von 71 Megatonnen pro Jahr, was vergleichbar ist mit Emissionen aus dem gesamten System der mittelozeanischen Rücken von 53 bis 97 Megatonnen pro Jahr.

„Oft wird argumentiert, dass große Vulkanausbrüche augenblicklich bedeutende Mengen CO2 und anderer Gase in die Atmosphäre blasen, wo sie mehrere Jahre lang das globale Klima beeinflussen [So? Wirken die Aschewolken nicht viel effektiver? Anm. d. Übers.]“, sagte Fischer, „im menschlichen Zeitmaßstab ist das Auseinanderdriften von Kontinentalplatten extrem gering, ein paar mm pro Jahr, aber in geologischen Zeiträumen kann das Driften als ein katastrophales Aufbrechen von Kontinenten betrachtet werden. Verbreitete Kontinentalverschiebungen und das Aufbrechen eines Super-Kontinents kann massive und langzeitliche CO2-Emissionen erzeugen und zu längeren Treibhausgas-Bedingungen wie während der Kreidezeit beitragen [wenn denn das CO2 ursächlich war für diese Bedingungen! Anm. d. Übers.]“. Verschiebungen in großem Maßstab könnten eine bislang nicht erkannte Rolle beim Aufheizen der Atmosphäre und möglicherweise der Beendigung globaler Eiszeiten spielen.

Es ist jedoch wichtig festzuhalten, dass selbst unter Einbeziehung der neu quantifizierten CO2-Emissionen aus dem EAR im globalen CO2-Budget die natürlichen Emissionen marginalisiert werden durch Emissionen aus der Verbrennung fossiler Treibstoffe, welche im Jahre 2013 36 Gigatonnen CO2 ausmachten“, sagte Fischer.

„Dieser Vergleich zeigt, dass die Menschheit gegenwärtig das Äquivalent von 500 Afrikanischen Rift-Valleys an CO2 in die Atmosphäre pro Jahr freisetzt“, sagte Cindy Ebinger, eine Professorin der Erd- und Umweltwissenschaften an der University of Rochester. Sie koordinierte die Aktivitäten vor Ort nahe der Grenze zwischen Tansania und Kenia und analysierte die Verteilung von Erdbeben innerhalb der Spaltenzone.

[Die Professorin muss es ja wissen. Man erschauert vor Ehrfurcht! Anm. d. Übers.]

Lee sprach von der Planung der Wissenschaftler, den diffusen CO2-Fluss zu messen und Gasproben aus anderen Gebieten im EAR zu entnehmen. Damit will man besser belegen, wie viel Kohlenstoff aus der Spalte entweicht und wie viel CO2 aus natürlichen Systemen stammt.

Weil einigen geologischen Gegebenheiten, zum Beispiel Spaltenzonen, niemals Aufmerksamkeit zuteil geworden ist, werden globale CO2-Flüsse aus natürlichen Quellen offensichtlich unterschätzt“, sagte er. „Obwohl immer noch viele Studien betrieben werden, um bessere Möglichkeiten der Quantifizierung von CO2-Flüssen aus aktiven Vulkanen zu finden, erwarten wir, dass unsere Studie zu mehr Forschungen hinsichtlich CO2-Ausgasungen in nicht vulkanischen Gebieten führt“.

Um CO2 aus dem Erdboden bzw. aus dem Seeboden ausgasen zu sehen, muss man nicht weit reisen, es reicht ein Ausflug an den Laacher See in der Vulkaneifel (vorspulen, bei Minute 1:05 geht es zu den CO2-Blubberblasen):

Schließlich noch eine Pressemitteilung der Woods Hole Oceanographic Institution (WHOI) aus dem Juli 2015, in der CO2-Messungen in der Ägäis beschrieben werden:

Kohlendioxid-Becken in der Ägäis entdeckt

An der Stelle der zweitstärksten vulkanischen Eruption in der Geschichte der Menschheit, nämlich in den Gewässern um die griechische Insel Santorin, wurden gerade in einer Tiefe von 250 Metern opaleszierende Becken entdeckt. Die miteinander verbundene Reihe mäandrierender, irisierender Becken enthält hohe CO2-Konzentrationen und kann Antworten geben auf Fragen der Kohlenstoff-Speicherung in der Tiefsee, aber auch für die Überwachung des Vulkans bzgl. zukünftiger Eruptionen. „Der Vulkanausbruch auf Santorin im Jahre 1600 vor Christus löschte die minoische Zivilisation entlang der Küsten der Ägäis aus.“, sagte Rich Camilli von der WHOI, Leitautor einer heute veröffentlichten Studie. „Jetzt können die bislang unentdeckten Becken im Vulkankrater unserer Zivilisation dabei helfen, wichtige Fragen zu beantworten, wie sich CO2 im Ozean verhält“.

Die Becken haben eine Ausdehnung von 1 bis 5 Metern im Durchmesser, und Wissenschaftler glauben, dass sie vergänglich sind; dass sie erscheinen und verschwinden wie eine Regenpfütze in der Wüste. Camilli und seine Kollegen von der University of Girona, der National and Kapodistrian  University of Athens, dem Institut de Physique du Globe de Paris und dem Hellenic Centre for Marine Research, welche in der Region im Juli 2012 arbeiteten, verwendeten eine Reihe spezieller Unterwasser-Roboter, um die Becken zu lokalisieren und zu charakterisieren. Sie nannten sie die Kallisti Limnes, das bedeutet übersetzt aus dem Griechischen „wunderschönste Seen“. Eine voran gegangene vulkanische Krise im Jahre 2011 hatte die Forscher veranlasst, ihre Untersuchung an einer Stelle mit bekannter hydrothermischer Aktivität innerhalb der Santorin-Caldera zu beginnen. Bei einer Vorerkundung einer großen Spalte im Meeresgrund identifizierte das Spezial-Unterwasserfahrzeut Girona 500 unterseeische Wasserschichten mit ungewöhnlichen chemischen Eigenschaften.

Dieser Untersuchung folgend entwickelten die Forscher dann das von Menschen gesteuerte Unterwasserfahrzeug Thetis. Die Crew verwendete chemische Sensoren an Bord, um die chemische Signatur der Wassersäule entlang der Wand der Caldera aufzuspüren. Sie entdeckten dabei die Becken innerhalb lokaler Einbuchtungen in der Wand der Caldera. Und schließlich schickten die Forscher ein kleineres Fernerkundungsfahrzeug aus, um die hydrothermischen Flüsse der Becken zu untersuchen. „Wir haben solche Blasen im Ozean schon zuvor gesehen, aber das waren immer Salzwasserblasen, wo das aus geologischen Formationen unter dem Meeresboden herausgelöste Salz die zusätzliche Dichte hervorruft und die Blase von dem umgebenden Meerwasser trennt“, sagte Camilli. „In diesem Falle rührt aber die höhere Dichte nicht vom Salz her – wir glauben, dass es das CO2 selbst ist, welches das Wasser dichter macht und dazu führt, sich in Blasen zu konzentrieren“.

Woher kommt dieses CO2? Der Vulkankomplex von Santorin ist der aktivste Teil des Hellenischen vulkanischen Bogens. Die Region ist gekennzeichnet durch Erdbeben, ausgelöst durch die Subduktion der Afrikanischen tektonischen Platte unter die Eurasische Platte. Während der Subduktion kann CO2 freigesetzt werden durch magmatisches Ausgasen oder aus Sedimenten wie Kalkstein, welche sich verändern, wenn sie enormem Druck und extremen Temperaturen ausgesetzt sind. Die Forscher bestimmten in den Blasen einen sehr geringen Ph-Wert, was sie ziemlich sauer macht, weshalb in ihnen Kalk bildende Organismen fehlen. Aber, so glauben die Wissenschaftler, Organismen auf Silizium-Grundlage könnten die Quelle der Opalisierung in den Blasen sein. Bis zur Entdeckung dieser mit CO2 angereicherten Becken war vermutet worden, dass wenn CO2 in den Ozean freigesetzt wird, dieses sich im umgebenden Wasser löst. „Aber was wir hier haben, ist etwas Anderes – CO2-dichtes Wasser sinkt ab und formt die Becken“.

Die Entdeckung weist Implikationen auf für die Bildung von CO2 in anderen Gebieten mit begrenzter Zirkulation einschließlich des nahe gelegenen Nachbar-Unterwasservulkans Kolumbo. „Unsere Ergebnisse zeigen, dass sich CO2 in den tiefsten Regionen des Kraters ansammeln kann. Das wäre interessant“, sagte Camilli und fügte hinzu, dass dies Implikationen für Kohlenstoff-Abscheidung und -speicherung habe. Speicherung unter dem Meeresboden gewinnt immer mehr Akzeptanz als ein Mittel, das Wärme einfangende CO2 in der Atmosphäre zu reduzieren und den Versauerungs-Effekt von CO2 im Ozean zu verringern. Aber bevor etwas dergleichen in Angriff genommen wird, muss die Gesellschaft die Risiken einer Freisetzung kennen.

Vom Team installierte Temperatursensoren zeigten, dass die Kallisti Limnes um etwa 5°C wärmer waren als das Wasser der Umgebung. Mitautor Javier Escartin zufolge „ist diese Wärme wahrscheinlich die Folge hydrothermischer Zirkulation von Flüssigkeiten innerhalb der Kruste und oberhalb einer tiefer gelegenen Wärmequelle wie etwa einer Magmakammer“. Diese Temperaturen können sehr nützlich sein bei der Untersuchung der Evolution des Systems. Escartin fügte hinzu: „Temperaturaufzeichnungen hydrothermischer Flüsse können Variationen der Wärmequellen in der Tiefe anzeigen wie etwa den Lavazufluss in die Magmakammer. Die Flüssigkeiten in den Blasen reagieren auch auf Druckänderungen wie den Gezeiten, und dies gibt uns Aufschluss über die Durchlässigkeit der Struktur unter dem Meeresboden“. Temperaturänderungen in der Blase oder Änderungen des chemischen Signals können folglich andere Überwachungs-Verfahren vervollständigen und ans nützliche Indikatoren zunehmenden oder abnehmenden Vulkanismus‘ dienen. …

Link: http://www.kaltesonne.de/wieviel-co2-stosen-vulkane-aus/

Bemerkung: Dieser Beitrag erschien zuerst auf dem Blog „Die Kalte Sonne“. Übersetzung der englischen Passagen: Chris Frey EIKE

Bemerkungen des Übersetzers: Die Emissionen von Kohlenstoff zu studieren, ist gut und schön. Aber allen hier vorgestellten Studien ist gemeinsam, dass sie die Verbindung von CO2 und Klima betonen. Da diese wohl kaum gegeben ist, sind die Studien eigentlich überflüssig und das dafür ausgegebene Geld verschwendet. Allerdings, das geht daraus auch hervor, könnte man diese Ergebnisse natürlich in die Vorhersage möglicher vulkanischer Aktivitäten einfließen lassen.

Nach allem, was ich persönlich weiß, betrachte ich CO2-Emissionen als sehr positiv – je stärker, desto besser. Wenn man also das implizite Vorzeichen in diesen Studien austauscht und den Bezug zu Klima weglässt, bekommen sie vielleicht einen Sinn.




Warum spekulieren?

Es gibt zwei Anlässe im Leben eines Menschen, bei denen er nicht spekulieren sollte: Wenn er es sich nicht leisten kann, und wenn er es sich leisten kann“ – Mark Twain

Mein Thema heute ist die Vorherrschaft von Spekulation in den Medien. Was bedeutet das? Warum ist das so allgegenwärtig? Sollten wir etwas dagegen tun? Falls ja, was – und warum? Sollten wir uns überhaupt darum kümmern? Ist Spekulation überhaupt validierbar? Und so weiter.

Ich möchte diesem Spekulationstrend beitreten und darüber spekulieren, warum es so viel Spekulation gibt. Im Zuge, diesem Trend zu folgen, möchte ich meine Standpunkte ohne jedwede faktische Stützung darlegen, einfach indem ich eine Reihe von schlichten Behauptungen aufstelle.

Bevor wir anfangen, möchte ich eine Definition klären. Mit Medien meine ich Filme, Fernsehen, Internet, Bücher, Zeitungen und Zeitschriften. Um dem allgemeinen Trend der Spekulation zu folgen, wollen wir nicht zu viele Kleinstunterscheidungen treffen.

Anfangen können wir damit, uns zu fragen, bis zu welchem Grad sich die Medien der reinen Spekulation verschrieben haben. Jemand könnte hierzu eine Studie durchführen und Fakten präsentieren, aber bislang hat das niemand getan. Ich würde es mit Sicherheit nicht tun. Es gibt keinen Grund, sich damit zu behelligen. Die Erfordernis, eine Faktenbasis für eine Behauptung zu demonstrieren, ist schon vor langer Zeit entfallen. Sie wurde ausgesondert mit dem universellen Lob für das Buch Backlash von Susan Faludis, welches im Jahre 1991 den National Book Critics Circle Award für Allgemeine Sachbücher verliehen bekam, und welches hunderte Seiten quasi-statistischer Behauptungen auf der Grundlage einer Prämisse enthält, welche niemals belegt wurde und die fast mit Sicherheit falsch war.

Aber das ist ein alter Hut, und ich erwähne es hier nur, um Standards zu setzen.

Heute weiß natürlich jedermann, dass „Hardball“, „Rivera Live“ und ähnliche Shows nichts weiter sind als ein stetiger Strom von Vermutungen über die Zukunft. Die Talkshows am Sonntag Morgen sind reine Spekulation. Jeder weiß, dass es sonntags keine Nachrichten gibt.

Aber Fernsehen ist Unterhaltung. Betrachten wir die so genannten seriösen Medien. Zum Beispiel die New York Times [ein Ober-Alarmisten-Blatt! Anm. d. Übers.] vom 6. März, also von dem Tag, als Dick Farson mir gesagt hat, dass ich diese Gedanken von mir gebe. In der Kolumne an erster Stelle jenes Tages geht es um die Zölle von Bush auf importierten Stahl. Jetzt lesen wir: Die Maßnahme von Mr. Bush „wird wahrscheinlich den Preis von Stahl scharf in die Höhe treiben, vielleicht um bis zu zehn Prozent…“. Amerikanische Verbraucher „werden ultimativ höhere Preise zahlen müssen“. Amerikas Verbündete „würden fast mit Sicherheit die Entscheidung anfechten“. Ihr legales Anliegen „könnte Jahre dauern, um in Genf einen Prozess anzustrengen“ um Dieses und Jenes.

Man beachte auch die vage und versteckte Spekulation. Die Anfechtung seitens der Alliierten würde „die Bühne bereiten für einen großen Handelskrieg mit vielen der gleichen Länder, die Bush zusammenhalten möchte in der zerbrechlichen Koalition gegen den Terror“. Mit anderen Worten, in der Story wird spekuliert, dass Zölle den Kampf gegen den Terrorismus beeinträchtigen können.

Inzwischen bin ich unter dem Faludi-Standard zu dem festen Standpunkt gekommen, dass Medien hoffnungslos von Spekulation durchsetzt sind, und wir können darangehen, die Auswirkungen dieses Umstandes zu betrachten.

Nun könnte man diese Story über Zölle lesen und sich fragen „na und?“. Es ist keine schlechte Geschichte. Ist es nicht vernünftig, über Auswirkungen gegenwärtiger Ereignisse auf diese Weise zu reden? Ich antworte, absolut nicht! Derartige Spekulationen sind komplette Zeitverschwendung.Sie sind sinnlos. Es ist Mist auf der Frontseite der Times.

Der Grund dafür, dass es sinnlos ist, ist natürlich der Umstand, dass niemand weiß, was die Zukunft bereit hält.

Stimmen wir alle darin überein, dass niemand weiß, was die Zukunft bereit hält? Oder muss ich Ihnen das erst beweisen? Ich stelle diese Frage, weil es einige sehr gut untersuchte Auswirkungen der medialen Berichterstattung gibt, was passiert, wenn man das Fernsehgerät verkehrt herum aufstellt: die Kinder werden sagen, dass das Popcorn aus der Tüte herausfällt. Dieses Ergebnis wäre erheiternd, falls es auf Kinder beschränkt bleibt. Aber die Studien zeigen, dass niemand davon ausgenommen ist. Alle Menschen unterliegen diesem medialen Effekt, einschließlich all jener unter uns, die glauben, dass wir ich-bewusst und hip und gut unterrichtet sind.

Medien bringen eine Glaubwürdigkeit mit, die total unverdient ist. Wir alle haben schon das erlebt, was ich den Murray Gell-Mann Amnesie-Effekt nenne. (Ich beziehe mich auf diesen Namen, weil ich über dieses Thema einmal mit Murray Gell-Mann diskutiert habe, und mit der Einführung eines berühmten Namens impliziere ich größere Bedeutung für mich selbst und den Effekt, welche er anderenfalls nicht hätte).

Kurz beschrieben lautet der Gell-Mann-Amnäsie-Effekt so: Man schlägt die Zeitung auf und stößt auf einen Artikel über etwas, über das man gut Bescheid weiß. In Murrays Fall war das Physik. In meinem Fall war es Show-Business. Man liest den Artikel und stellt fest, dass der Journalist absolut keine Ahnung hat, weder hinsichtlich der Fakten noch der Thematik. Oftmals ist der Artikel so falsch, dass er tatsächlich die Story von hinten aufzäumt – indem Ursache und Wirkung vertauscht werden. Ich nenne dies die „wet streets cause rain“-Storys [was man etwa übersetzen könnte mit „weil die Straßen nass sind, regnet es“]. Zeitungen sind voll davon.

In jedem Falle liest man mit Verbitterung oder auch amüsiert die multiplen Fehler in einer Story und blättert dann um zur Seite mit den nationalen oder internationalen Angelegenheiten. Diese liest man dann so, als ob sie irgendwie genauer sind über Palästina als der Unsinn, den man eben gelesen hat. Man blättert um und vergisst, was man weiß.

Das ist der Gell-Mann-Amnäsie-Effekt. Ich möchte betonen, dass er in anderen Arenen des Lebens nicht aktiv ist. Im normalen Leben ist es so: falls jemand einen permanent anlügt, wird man bald alles, was jener sagt, verwerfen. Vor Gericht gibt es eine gesetzliche Doktrin von falsus in uno, falsus in omnibus, was bedeutet Unwahrheit in einem Teil – Unwahrheit in Allem. Aber wenn es um Medien geht, glauben wir gegen alle Beweise, dass es uns unsere Zeit wahrscheinlich wert ist, andere Teile der Zeitung zu lesen. Und das, wenn das fast mit Sicherheit nicht der Fall ist. Die einzig mögliche Erklärung für unser Verhalten ist Amnäsie.

[Und ich dachte, nur die Deutschen wären so zeitungsgläubig, wie sie nun mal sind! Anm. d. Übers.]

Ein Problem mit der Spekulation besteht also darin, dass man den Gell-Mann-Effekt unberechtigter Glaubwürdigkeit huckepack mit sich herumträgt, was die Spekulation als brauchbarer aussehen lässt als sie ist.

Ein weiteres Thema ist die schiere Masse von Spekulation. Die schiere Masse impliziert einen Wert, der fadenscheinig ist. Ich nenne dies den There-Must-Be-A-Pony-Effekt, abgeleitet aus dem alten Witz, dass ein Kind am Weihnachtsmorgen die Treppe herabkommt, den Raum voller Pferdemist vorfindet und vor Freude in die Hände klatscht. Seine erstaunten Eltern fragen: Warum bist du so glücklich? Es antwortet, bei so viel Pferdemist muss ein Pony da gewesen sein.

Weil wir in jeder Hinsicht mit Spekulation konfrontiert werden, in gedruckter Form, in Videos, im Internet, bei der Konversation können wir möglicherweise zu dem Schluss kommen, dass sie von Wert sein muss. Das ist sie aber nicht. Und zwar weil – egal wie viele Menschen spekulieren, egal wie bekannt deren Gesichter, wie gut ihr Makeup ist und wie gut sie daherkommen; egal wie lange sie vor uns persönlich oder in Kolumnen in Erscheinung treten – es wahr bleibt, dass keines dieser Individuen weiß, was die Zukunft bringt.

Einige Menschen glauben insgeheim, dass die Zukunft bekannt gemacht werden kann. Sie stellen sich zwei Gruppen vor, die über die Zukunft Bescheid wissen und auf die man deswegen hören sollte. Die erste Gruppe sind die Experten [pundits]. Da sie sich die ganze Zeit über die Zukunft auslassen, müssen sie doch wissen, wovon sie reden. Ist das so? „Brill’s Content“ [hier steht, was damit gemeint ist; Anm. d. Übers.] geht üblicherweise den Vermutungen der Experten nach, und während der eine oder andere auch mal einen Treffer erzielt, sind diese Vermutungen über die Zeit nicht besser als Zufall. Dies würde man auch erwarten. Weil niemand die Zukunft kennt.

Ich möchte im Vorübergehen noch erwähnen, dass Expertentum mit den Jahren eine subtile Veränderung durchlaufen hat. In den alten Zeiten haben Kommentatoren wie Eric Sevareid die meiste Zeit damit zugebracht, Ereignisse in einen Zusammenhang zu stellen und einen Standpunkt zu beschrieben über das, was bereits geschehen ist. Darüber sprechen, was sie dachten, war wichtig oder irrelevant hinsichtlich der Ereignisse, die bereits stattgefunden hatten. Dies ist natürlich eine legitime Funktion der Expertise in jedem Bereich menschlichen Wissens.

Aber mit den Jahren hat sich das vertrauen in Expertentum von der Diskussion über Geschehenes weg verschoben hin zu Diskussionen über das, was geschehen könnte. Und hier haben die Experten keinerlei Vorteil aus ihrer Expertise. Schlimmer noch, sie könnten versuchen, wie die Sonntagspolitiker die eine oder andere Agenda durchzupauken mittels der Prophezeiung von deren unmittelbar bevorstehenden Kommen oder Niedergang. Das ist politischer Aktionismus, keine Prophezeiung*.

[*Unübersetzbares Wortspiel: ,This is politicking, not predicting‚].

Die zweite Gruppe, von denen manche Menschen die Vorstellung haben, dass sie über die Zukunft Bescheid wissen, sind Spezialisten unterschiedlicher Art. Die wissen das aber auch nicht. Als Grenzfall möchte ich daran erinnern, dass es einen neuen Bereich gibt, der Spezialisten gebiert – ich weigere mich, es eine Disziplin oder einen Studienbereich zu nennen – Futurismus genannt. Das Narrativ hier lautet, dass einen Weg gibt, Trends zu studieren und zu wissen, was die Zukunft bringt. Das wäre tatsächlich wertvoll, falls es möglich wäre. Aber es ist nicht möglich. Futuristen wissen nicht mehr über die Zukunft als Sie und ich. Man lese deren Zeitschriften von vor ein paar Jahren, und man wird eine endlose Kette der Irrtümer finden.

Expertise ist kein Schutzschild gegen grandiose Fehleinschätzungen. Darum war es Thomas Watson, der Chef von IBM, der prophezeite, dass die Welt höchstens 4 oder 5 Computer brauchen würde. Das ist so falsch wie etwas nur sein kann – prophezeit von einem Mann, der in jeder Hinsicht informiert war darüber, wovon er sprach.

Nicht nur, dass er einen Trend falsch bewertete oder eine Technologie, sondern auch, dass er die Myriaden Verwendungszwecke nicht verstand, für die man eine Maschine allgemein rüsten kann. Genauso lag auch Paul Ehrlich, ein brillanter Akademiker, der sein gesamtes Leben ökologischen Themen widmete, mit fast allen seinen großen Prophezeiungen falsch.

Er lag falsch hinsichtlich schwindender Ressourcen, hinsichtlich der Bevölkerungsexplosion, und er lag falsch mit seiner Prophezeiung, dass bis zum Jahr 2000 50% aller Spezies ausgestorben sein würden. Er widmete sein Leben intensiv empfundenen Bereichen – und lag doch spektakulär falsch.

Nun gut, könnte man sagen, wir akzeptieren, dass man die Zukunft nicht kennen kann in der Art und Weise, wie ich es hier beschreibe. Aber was ist mit dringlicheren Dingen wie etwa die Auswirkungen unerledigter Gesetzgebung? Sicher ist es wichtig, darüber zu reden, was passieren kann, falls bestimmte Gesetze eingeführt werden. Nun – nein, ist es nicht. Niemand weiß, was passieren wird, wenn das Gesetz eingeführt wird. Hierfür möchte ich zwei Beispiele nennen, eines von den Linken und eines von den Rechten.

Das erste Beispiel ist die Clinton’sche Wohlstandsreform, welche hart kritisiert wurde seitens seines eigenen linken Flügels, weil er Anleihen in einer Agenda der Republikaner machte [Clinton war natürlich von den Demokraten. Anm. d. Übers.]. Den Prophezeiungen der Linken zufolge sollten sich daraus menschliches Leiden, bittere Kälte, Kindesmissbrauch, und schreckliche Folgen ergeben. Und was geschah? Nichts dergleichen! Kindesmissbrauch nahm ab. Tatsächlich war die Reform, wie es bei Reformen der Regierung manchmal ist, ein Erfolg; aber Mother Jones [eine Zeitschrift; mehr hier bei Wikipedia] prophezeit immer noch düsterste Effekte, die unmittelbar bevorstehen.

Dieses Scheitern bei der Prophezeiung von Auswirkungen eines Programms spiegelte sich in hysterischem Geschrei von den Rechten bei den Republikanern über steigenden Mindestlohn. Chaos und düstere Zeiten würden sicher folgen, wenn Firmen ihre Türen schließen und das Land in eine überflüssige Rezession gestürzt würde. Aber was waren die wirkliche Auswirkungen? Im Grunde gar keine. Wer diskutiert jetzt noch darüber? Niemand! Was wird geschehen, falls es einen neuen Versuch geben würde, den Mindestlohn anzuheben? Die gleichen düsteren Prophezeiungen noch einmal. Haben wir irgendetwas gelernt? Nein!

Aber mein Punkt ist – bei bevorstehender Gesetzgebung ebenso wie mit allem Anderen – niemand kennt die Zukunft.

Gleiches ist auch wahr hinsichtlich der Auswirkungen von Wahlen und Verabredungen. Welche Auswirkungen hat die Wahl eines bestimmten Präsidenten oder eines Obersten Gerichtshofes? Niemand weiß es. Einige von Ihnen sind alt genug, sich an die berühmte Kolumne von Art Buchwald während der Tage der Johnson-Regierung zu erinnern. Buchwald schrieb einen Beitrag mit dem Titel „Thank God we don’t have Barry Goldwater“ [seinerzeit der Gegenkandidat zu Johnson. Anm. d. Übers.]. Darin erinnerte er daran, wie jedermann befürchtete, dass Goldwater uns in einen großen Krieg ziehen würde. Also wählten wir Johnson, der nichts Eiligeres zu tun hatte als 200.000 Soldaten nach Vietnam zu schicken. Das ist es, was passiert, wenn man einen sich friedlich gerierenden Kandidaten wählt [a dove-ish candidate]. Man bekommt einen Krieg. Oder man wählt den intellektuell brillanten Jimmy Carter, und wird Zeuge, wie er persönlich damit endet zu bestimmen, wer auf den Tennisplätzen des Weißen Hauses spielen darf. Oder man wählt Richard Nixon, der den Stecker aus der Vietnam-Sache herausziehen kann und der dann den Kampf noch Jahre fortsetzt. Und dann China öffnet*.

[*Damit ist hier natürlich nicht China gemeint, sondern das ,China Syndrome‘. Mancher wird mit dem Begriff noch etwas anfangen können. Wer nicht – hier bei Wikipedia steht mehr. Anm. d. Übers.]

Genauso ist die Historie von Entscheidungen des Obersten Gerichtshofes eine endlose Folge von Fehlern hinsichtlich Prophezeiungen von Rechtsprechung, wenn man erst einmal vor Gericht landet. Nicht alle sind überraschend, aber sehr viele schon.

Können wir also hinsichtlich unmittelbar bevorstehender Ereignisse überhaupt irgendetwas vorhersagen? Nein! Dazu reicht es schon sich anzuschauen, was vor dem Fall der Mauer in Berlin gesagt worden ist. Schon dabei sieht man, dass niemand auch nur ein paar Stunden im Voraus etwas prophezeien kann. Menschen sagten alle Arten von Dummheiten bzgl. des Kommunistischen Weltreiches – nur Stunden vor dessen Zusammenbruch. Ich kann hier keine Beispiele zitieren, weil ich dazu erst Faktensuche betreiben müsste, was ich versprochen habe, nicht zu tun. Aber glauben Sie mir, man findet idiotische Statements noch von 24 Stunden zuvor.

Niemand kennt die Zukunft!

Nun ist das keine neue Information.Es war Mark Twain, der gesagt hat: „Ich habe einen Haufen Schwierigkeiten in meinem Leben vorhergesehen, und die meisten davon sind niemals passiert“.

Und Vieles von dem, was die Politiker sagen, ist nicht so sehr eine Prophezeiung, sondern ein Versuch, es wahr werden zu lassen. Es ist Argumentation maskiert als Analyse. Aber es überredet nicht wirklich irgendjemanden. Weil die meisten Menschen es durchschauen.

Falls Spekulation also nutzlos ist, warum gibt es dann so viel davon? Liegt es daran, dass die Menschen sie haben wollen? Das glaube ich nicht. Ich selbst spekuliere, dass sich die Medien der Spekulation zugewandt haben aus den Medien eigenen Gründen. Schauen wir also mal auf die Vorteile der Spekulation von einem Standpunkt der Medien aus:

1. Sie ist unglaublich billig. Schwatzen ist billig. Und Spekulations-Shows sind das Billigste, was man im Fernsehen bieten kann. Sie sind fast genauso billig wie das Senden eines Testbildes. Spekulation erfordert keine Forschung, keinen großen Stab an Mitarbeitern. Minimalen Aufwand. Lediglich den Moderator, Buchung der Teilnehmer – an denen es keinen Mangel gibt – und fertig! Einfach Show! Keine Reporter in verschiedenen Städten auf der ganzen Welt, keine Film-Crew am Drehort. Keine Ultimaten, kein Filmmaterial, welches bearbeitet werden müsste, keine Editoren … nichts! Einfach nur Gerede. Billig.

2. Man kann nicht verlieren. Obwohl die Spekulation nur zufällig auch mal stimmt, was bedeutet, dass man in jedem Falle zu 50% falsch liegt, erinnert sich niemand daran, weshalb sich auch niemand darum schert. Man ist niemals haftbar. Die Zuhörerschaft erinnert sich nicht an gestern, geschweige denn an die vorige Woche oder den vorigen Monat. Medien existieren nur im ewigen Jetzt, in dieser Minute, in dieser Krise, bei diesem Fernsehansager, in dieser Kolumne, bei dieser Spekulation.

Einer der klarsten Beweise hierfür ist die Kontroverse um die Currents of Death [= elektromagnetische Strahlung unter Strom-Überlandleitungen. Anm. d. Übers.]. Sie hatte ihren Ursprung im Journal The New Yorker, welches seit fünfzig Jahren eine sprudelnde Quelle falscher wissenschaftlicher Spekulation ist. Aber mein Punkt ist Folgender: Viele der Menschen, die vor zehn Jahren wild darauf waren, in ihren Häusern gefährliche elektromagnetische Strahlung zu messen, geben jetzt Tausende Dollar aus für den Kauf von Magneten, die sie um ihre Arme und Fersen wickeln wegen der vermeintlich die Gesundheit fördernden Effekte von Magnetfeldern. Diese Menschen erinnern sich nicht daran, dass es sich dabei um genau die gleichen magnetischen Felder handelt, die sie früher zu vermeiden trachteten. Und weil sie sich nicht erinnern, kann das Journal genau wie der Medien-Spekulant nicht verlieren.

Diesen Gedanken, dass man dabei nicht verlieren kann, möchte ich noch etwas weiter ausführen. Das ist nicht auf die Medien beschränkt. In den meisten Bereichen des intellektuellen Lebens hat man die Werte der Spekulation entdeckt und wild für sich vereinnahmt. In der Akademia wird Spekulation normalerweise als Theorie gewürdigt. Es ist faszinierend: sogar obwohl die intellektuelle Haltung der postmodernen deconstructionist era gegen die Theorie ist, besonders gegen allumfassende Theorien, ist das was jeder Akademiker zum Ausdruck bringen möchte, eine Theorie.

Dies ist teilweise übergeschnappte Wissenschaft, aber es ist auch ein Flucht-Türchen. Eine genaue Lektüre der Texte von Jane Austen kann man gut als falsch empfinden, und ein kenntnisreicherer Antagonist kann auch zeigen, dass sie falsch sind. Aber die Theorie der radikalen Feminisierung und autoritären Revolte in den Arbeiten von Jane Austen sind auch unberührbar. Unsere Standpunkte hinsichtlich der Ursprünge der Ersten Weltkrieges können durch andere Institutionen wesentlich genauer erklärt werden als von uns. Aber ein Beitrag eines New Historicist, in welchem durchaus unsere eigene Phantasie enthalten sein kann, welche das sein könnten, würden so sein wie als ob man während des ersten Krieges Soldat war … nun, das ist nicht debattierbar.

Ein hervorragender Bereich für spekulative akademische Arbeiten ist das Unbekannte. Dieser Tage sind religiöse Gegenstände in Ungnade, aber es gibt immer noch viele gute Themenbereiche. Die Natur des Gewissens, die Arbeit des Gehirns, der Ursprung von Aggression, der Ursprung der Sprache, der Ursprung des Lebens auf der Erde, SETI und Leben auf anderen Welten … all das ist großartiges Zeug. Wunderbares Zeug. Man kann endlos darüber debattieren. Aber dem kann nicht widersprochen werden, weil niemand die Antwort auf irgendeines dieser Themen kennt – was wahrscheinlich auch niemals der Fall sein wird.

Aber das ist nicht die einzige Strategie, die man heranziehen kann. Weil die medien-indoktrinierte Öffentlichkeit Behauptungen aus der Vergangenheit ignoriert und vergisst, kommen heutzutage selbst Autoren ungeschoren davon, wenn sie harte Daten präsentieren, die sich dann erwiesenermaßen als falsch herausstellen.

[Woher ,wusste‘ Crichton im Jahre 2002, als er dies schrieb, von den jetzt offenbar gewordenen Manipulationen der NOAA? Anm. d. Übers.]

Eine der am konsistentesten falsch liegenden Denker der letzten Jahre, Carol Gilligan von Harvard, einst ,Wissenschaftlerin des Jahres‘ des MS-Magazins, musste vieles von dem, was sie je geschrieben hatte, zurückziehen oder modifizieren. Und doch hat ihr Ruf als profunde Denkerin und bedeutende Untersucherin keinerlei Schaden genommen. Man muss nicht recht haben, nicht mehr. Niemand erinnert sich.

[Gibt’s da nicht auch einen Mojib Latif von gleichem Kaliber? Anm. d. Übers.]

Dann gibt es da die spekulativen Arbeiten von Anthropologen wie Helen Fisher, die behaupten, uns etwas über die Ursprünge der Liebe oder der Untreue mittels Verweisen auf andere Gesellschaften, auf das Verhalten von Tieren und fossilen Aufzeichnungen zu vermitteln. Wie kann sie falsch liegen? Es ist unüberprüfbar, unbeweisbar, einfach so Stories.

Und damit nicht jemand sich vorstellt, dass Dinge in der Hard Science anders sind, denke man an die String-Theorie, seit fast zwanzig Jahren die dominante physikalische Theorie. Mehr als eine Generation von Physikern hat an der String-Theorie gearbeitet. Aber – falls ich sie richtig verstehe, was vielleicht nicht der Fall ist – die String-Theorie kann nicht getestet oder bewiesen oder widerlegt werden. Obwohl einige Physiker bei dem Argument, dass eine unüberprüfbare Theorie nichtsdestotrotz wissenschaftlich ist, die Augen verdrehen, wer leistet wirklich Widerstand? Man erkenne: Eine unüberprüfbare Theorie ist ideal! Die Karriere ist gesichert!

Kurz gesagt, so lange man spekuliert, kann man nicht verlieren. Diese Erkenntnis ist weit verbreitet. Und sie ist perfekt für das Informations-Zeitalter, welches ein Füllhorn von Wissen verspricht, aber nur ein Füllhorn voll Quacksalberprodukten liefert.

Und nirgendwo steht geschrieben, dass die Medien akkurat oder nützlich sein müssen. Das waren sie nicht während der allermeisten Zeit der Historie. Also spekulieren sie jetzt … na und? Was ist daran falsch?

1. Die Tendenz zum Exzess. Die Tatsache, dass es sich nur um Gerede handelt, macht Dramatik und Spektakel unwahrscheinlich – es sei denn, das Gerede wird hitzig und exzessiv. Also wird es exzessiv. Nicht in jeder Show tritt der Kampf um Stoff nach Art eines Kreuzverhörs zutage, aber es ist eine Tendenz in allen Shows.

2. Die „Verkritisierung“ von allem und jedem ist möglich. Die meiste Spekulation ist nicht fesselnd, weil die meisten Ereignisse nicht fesselnd sind – Mensch, ich frage mich was mit der Deutschen Mark passieren wird! Werden sie ihre Arbeits-Probleme unter Kontrolle bekommen? Dies dient dem wohlbekannten Bedarf der Medien nach einer Krise. Krise bei der Deutschen Mark! Oh je! Passt auf! Krisen einigen das Land, ziehen Zuschauer in großer Zahl an und liefern etwas, über das sich treffend spekulieren lässt. Ohne Krise wird das Gerede bald zu einer Debatte darüber degenerieren, ob die Schiedsrichter eines Footballspiels das letzte Footballspiel hätten noch einmal begutachten sollen. Es gibt also eine Tendenz zu Dringlichkeit und Bedeutung zu hypen und ein Geh-Hin-Gefühl zu vermitteln, wenn das nicht wirklich angemessen ist. Man betrachte die ellenlange Schriftrolle unten im Bildschirm bei der Beerdigung der Königin-Mutter. Wie auch immer die Story um die Königin-Mutter geartet ist, es ist keine Krise. Ich habe sogar ein paar Tage lang die Berichterstattung über meine eigene Scheidung auf CNN verfolgt. Es ist irgendwie schmeichelhaft, obwohl die Darstellung falsch war. Aber meine Scheidung ist mit Sicherheit keine ultimative Brandnachricht.

3. Oberflächlichkeit als Norm. Es muss schnell gehen. Man muss sofort zu den Höhepunkten kommen. Spekulation ist der Oberflächlichkeit förderlich. Das ist es, oder?

4. Endlose Präsentation von Unsicherheit und Konflikten kann Lösungen von Dingen in die Quere kommen. Es gibt einige Beweise, dass die Verteilungskämpfe im Fernsehen nicht nur nicht die Meinungen der meisten Menschen repräsentieren – die nicht so polarisiert sind – sondern dass sie dazu tendieren, die Lösungen aktueller Streitfälle in der realen Welt schwieriger zu machen. Zu allermindest verschleiern diese Verteilungskämpfe die Erkenntnis, dass Streitfälle jeden Tag gelöst werden. Kompromisse bei relativ zentralen Positionen sind viel einfacher als bei extremen oder feindlichen Positionen, die miteinander im Konflikt stehen: Greenpeace gegen die Holzindustrie.

5. Die unendliche Kette von Spekulationen pflastert den Weg zum Streit über Brustimplantate, Hysterie über das Jahr-2000-Problem oder globale Erwärmung, Artikel im The New Yorker über Todesströmungen [currents of death] und eine Vielzahl anderer Resultate, deren Eintreffen keine guten Dinge wären. Es kommt irgendwann zu der Vorstellung – was für die Medien sehr bequem ist – dass am Ende nichts sicher ist. Wenn das tatsächlich nicht wahr ist.

Ich möchte auf eine vorzeigbare schlimme Auswirkung der Hypothese hinweisen, dass nichts wirklich erfahrbar ist. Das Whole Word Reading [ein neues System zum Erlernen von Wörtern in der Grundschule, Anm. d. Übers.] wurde eingeführt durch die Bildungsschulen im ganzen Land, meines Wissens ohne irgendein Test der Effizienz der neuen Methode. Sie war auf einmal da. Generationen von Lehrern wurden mit diesen Methoden indoktriniert. Als Folge davon weisen die USA eine der höchsten Analphabetenrate in der industrialisierten Welt auf. Die Hypothese, dass man nichts mit Sicherheit weiß, hat schreckliche Konsequenzen.

GK Chesterton sagte (in einem anderen Zusammenhang): „Falls man an nichts glaubt, glaubt man an alles“. Genau das erleben wir heute. Die Menschen glauben alles.

Aber einfach ausgedrückt als allgemeine emotionale Haltung des Lebens glaube ich oft, dass Menschen nervös und überspannt sind in diesem medialen Klima von Was ist, wenn… vielleicht…, könnte sein, dass… obwohl es einfach keinen Grund gibt, nervös zu sein. Genau wie ein bärtiger Kuttenträger auf einem Bürgersteig, der unentwegt das kurz bevorstehende Ende der Welt verkündet, machen die Medien genau das, was sich gut anfühlt, und berichten nicht über harte Fakten. Wir müssen anfangen, die Medien als den bärtigen Ultra auf dem Bürgersteig zu sehen, der falsche Befürchtungen hinaus brüllt. Es ist nicht vernünftig, darauf zu hören.

Wir müssen anfangen, uns daran zu erinnern, dass jeder, der seinerzeit sagte, das Jahr-2000-Problem sei kein wirkliches Problem, entweder niedergebrüllt oder von der Öffentlichkeit fern gehalten worden ist. Gleiches gilt für Bereiche wie das Aussterben von Spezies und globale Erwärmung. Man hört niemals jemanden, der sagt, das ist keine Krise. Das möchte ich nicht weiter vertiefen, weil es uns zur Heranziehung von Fakten bringen könnte, aber ich möchte zwei Berichte erwähnen, von denen ich spekuliere, dass Sie von diesen noch nie gehört haben. Der erste Bericht findet sich im Magazin Science vom 18. Januar 2001 (Oha! Eine Tatsache!), dass im Gegensatz zu früheren Studien die Antarktische Eismasse zu- und nicht abnimmt, und dass diese Zunahme bedeutet, dass wir endlich ein Ende des Schrumpfens der Eismasse sehen, welche bereits seit Tausenden von Jahren im Gange ist, seit Beginn des Holozäns. Ich weiß nicht, was überraschender ist – das Statement, dass das Eis zunimmt, oder das Statement, dass die Schrumpfung Tausende Jahre der globalen Erwärmung vorausgegangen ist.

Die zweite Studie ist ein Bericht der National Academy of Sciences über die ökonomischen Auswirkungen des jüngsten El Nino-Ereignisses von 1997 [zur Erinnerung, dieser Beitrag stammt aus dem Jahr 2002, Anm. d. Übers.]. Jene Erwärmung erbrachte einen Gesamt-Profit von 15 Milliarden Dollar für die Wirtschaft. Darin enthalten sind die Verluste von 1,5 Milliarden in Kalifornien durch Regen, welche jedoch ausgeglichen wurden durch billigere Treibstoffrechnungen infolge eines milderen Winters und einer längeren Wachstumssaison. Gesamtergebnis 15 Milliarden an gestiegener Produktivität.

Das Andere, was ich erwähnen möchte ist, dass während der letzten 100 Jahre, während die mittlere Temperatur um lediglich 0,3°C gestiegen ist, das Magnetfeld der Erde um 10% abgenommen hat. Dies hat viel stärkere Auswirkungen als globale Erwärmung und ist potentiell für das Leben auf diesem Planeten weitaus ernster.

Unser Magnetfeld ist das, was die Atmosphäre bereit hält. Sie schirmt uns ab vor tödlicher Strahlung aus dem Weltall. Eine Abnahme des Erdmagnetfeldes um 10% ist extrem besorglich. Aber wer ist besorgt? Niemand! Wer ruft nach Gegenmaßnahmen? Niemand! Warum nicht? Weil man nichts dagegen tun kann. Wie das in Relation zur globalen Erwärmung zu setzen ist, möchte ich Ihrer eigenen Spekulation überlassen.

Persönlich denke ich, dass wir uns von den Medien abwenden sollten, und die Daten zeigen, dass wir das bereits tun, zumindest was die Fernsehnachrichten betrifft. Ich finde, dass wann immer es mir fehlt, den Medien ausgesetzt zu sein, ich viel glücklicher bin, und mein Leben fühlt sich besser an.

Abschließend möchte ich daran erinnern: Während es so Manches gibt, das wir nicht sicher wissen können, gibt es viele Dinge, die herausgefunden werden können und tatsächlich auch herausgefunden werden. Jedoch nicht durch Spekulation. Sondern durch sorgfältige Untersuchung und rigorose statistische Analyse. Da wir in diesem vorübergehenden Ozean von Spekulation schwimmen, vergessen wir, dass man Dinge mit Sicherheit wissen kann, und dass wir nicht in einer angstvollen Welt unendlicher, nicht gestützter Meinungen leben. Aber der Graben, der harte Fakten von Spekulation trennt, ist inzwischen so unbekannt, dass die meisten Menschen ihn nicht fassen können. Vielleicht kann ich ihn mit folgender Geschichte verdeutlichen:

Auf einem Flug nach Europa platzierte man mich neben einem Mann, der sehr unglücklich ist. Es stellt sich heraus, dass er ein Arzt ist, den man für eine zweijährige Doppelblind-Studie für die FDA [= die amerikanische Gesundheitsbehörde, Anm. d. Übers.] engagiert hatte bzgl. der Wirksamkeit von Medikamenten, und es könnte zum Fenster hinaus geworfen sein. Nun bedeutet eine Doppelblind-Studie, dass es vier separate Forscherteams gibt, die untereinander keinen Kontakt haben – vorzugsweise arbeiten sie an unterschiedlichen Universitäten in verschiedenen Teilen des Landes. Das erste Team definiert die Studie und legt die Behandlungsweisen fest, die wirklichen Arzneien und die Kontrollen. Das zweite Team erklärt die Einnahme den Patienten. Das dritte Team sammelt die Daten und schätzt unabhängig die Wirkung der Arznei auf jeden Patienten. Das vierte Team sammelt die Daten und führt eine statistische Analyse durch. Die Kosten dieser Art von Studien betragen, wie man sich vorstellen kann, Millionen Dollar. Und die Teams dürfen sich niemals treffen.

Mein Nachbar ist unglücklich, weil Monate nach Ende der Studie er in einem Wartesaal am Flughafen Frankfurt ins Gespräch mit einem anderen Mann dort gekommen war, und sie entdecken – zu ihrem Schrecken – dass sie beide in der Studie involviert waren. Mein Nachbar war in dem Team, welches die Arzneien verabreichte. Der andere Mann war in dem Team mit den Statistiken. Es gibt keinen Grund, warum einer den anderen zu diesem späten Zeitpunkt beeinflussen sollte, aber nichtsdestotrotz verlangt das Protokoll, dass sich die Teammitglieder niemals treffen. Und so wartet mein Nachbar jetzt darauf, von der FDA zu hören, ob diese die Studie insgesamt einstampfen wollte wegen dieses zufälligen Zusammentreffens in Frankfurt.

Das sind jene Strapazen, durch die man hindurch muss, falls man sicher sein will, dass seine Information korrekt ist. Aber wenn ich den Menschen diese Story erzähle, starren sie mich nur verständnislos an. Sie finden das absurd. Sie glauben nicht, dass es notwendig ist, all das zu tun. Sie glauben, es ist Overkill. Sie leben in der Welt von MSNBC und der New York Times. Und sie haben vergessen, was reale, zuverlässige Informationen sind sowie die Mühen, diese zu erhalten. Das ist so viel schwerer als einfach nur zu spekulieren.

Herzlichen Dank!

International Leadership Forum, La Jolla (26 April 2002)

Quelle: http://larvatus.com/michael-crichton-why-speculate/

Übersetzt von Chris Frey EIKE




Das nationale Begleit­gremium zum “Standort­auswahl­gesetz” stellt sich vor“

Am Samstag dem 11.2.17 fand im “Tagungswerk Jerusalemkirche in Berlin” eine Veranstaltung zum “Standortauswahlgesetz” statt.

Was verbirgt sich dahinter?

Wer bisher noch nicht von dieser Institution gehört hat, sollte vielleicht mal deren Internetauftritt besuchen. Mal ehrlich, wer hat überhaupt von dieser Tagung gewußt oder gar eine Einladung erhalten? Dafür war Funk, Fernsehen und Presse reichlich vertreten. Ist ja bald wieder Wahlkampf. Erstaunlich oder eher erschreckend ist auch hier wieder, das neue deutsche Blockparteiensystem. Alle Parteien vereint – unter Führung der Grünen – im Kampf gegen das “Teufelszeug” und den zahlenden Bürger. Ein Lehrstück über gelenkte Demokratie. Man bestimmt ein Gremium aus gleichgesinnten Laien und nennt das “Bürgerbeteiligung”. Sachverstand ist ausdrücklich nicht gewünscht, er stört nur die Politik bei ihrer “großen Transformation”.

Was soll das Standortauswahlgesetz bewirken?

Zumindest eine Partei sieht ihre Wurzeln und ihre Kernkompetenz im “Kampf gegen das Atom”. Zieht man dieses Thema ab, verbleibt nur noch ein bischen (austauschbarer) Sozialismus. Die Transsexualität und die vegetarische Zwangsernährung hat sich bereits in den letzten Wahlkämpfen nicht als der Wahlkampfschlager erwiesen. Also zurück zum Geschäft mit der Angst. Nur ist auch das nicht mehr so einfach zu betreiben wie früher. Durch den “Atomausstieg” und die “Energiewende” ist “Atomkraft-Nein-Danke” auch für wohlwollende Linke nicht mehr so der Aufreger. Also schnell vor der Bundestagswahl noch ein paar Kohlen für die eigene Klientel aufgelegt, indem man ein “Standortauswahlgesetz” im Schweinsgalopp durch die Parlamente treibt. Da alle etablierten Parteien auf den potentiellen Koalitionspartner zum eigenen Machterhalt oder Machterwerb angewiesen scheinen, mit voller Unterstützung der anderen Parteien. Es gibt im Bundestag offensichtlich keine Opposition – und was weit folgenschwerer ist – keinen Sachverstand mehr.

Nachdem wir bereits Milliarden in die Erkundung der Standorte Gorleben und Schacht Konrad investiert haben, soll jetzt noch einmal alles von Neuem gestartet werden. Wohl gemerkt, nicht weil sich diese Standorte als gänzlich ungeeignet erwiesen haben, sondern um die gesamte Republik wieder mit “einem Kampf gegen das Atom” zu überziehen. Wir gönnen uns ja sonst nichts. In diesem Punkt schweigen sogar die Politiker, die sonst ständig von “Kinderarmut”, drohender “Altersarmut” etc. reden.

Was ist das eigentliche Problem?

Wir verfügen an zahlreichen Standorten über unterschiedlichste Stoffe, die ionisierende Strahlung aussenden. Sie stammen aus unterschiedlichsten Quellen: Energieerzeugung, Forschung, Medizin, Produktion und Bergbau (Öl, Gas, Kohle usw.). Damit muß verantwortungsvoll umgegangen werden. Das ist die eigentliche politische Frage, die in den Parlamenten diskutiert und beschlossen werden muß:

  • Was ist Wertstoff und was ist Abfall?
  • Was wird als gefährlich angesehen? Dies betrifft nicht nur die Radioaktivität, sondern auch den chemischen Zustand.
  • Wie hoch sollen die Grenzwerte sein?
  • Sollen die Stoffe “vernichtet” werden und damit dauerhaft aus der Welt geschafft werden oder sollen sie “sicher gelagert” werden?
  • Was ist eine als sicher angesehene Lagerung: Technische Barrieren oder geologische Barrieren oder eine Mischform?
  • Erst wenn über diese Fragen Einigung erzielt worden ist, kann sachlich fundiert über Standorte entschieden werden. Dieser Prozeß muß in einer Demokratie über die Parlamente geschehen. Die Politiker – da grundsätzlich Laien – haben vorher den Sachverstand der Wissenschaft zu konsultieren. Die Entscheidung jedoch, kann ihnen keiner abnehmen.

Ganz nebenbei, die “Endlagerfindung” ist mitnichten die endgültige Lösung. Auch bei einem kompletten Ausstieg aus der Kernenergie und Forschung wird weiterhin mit radioaktiven Stoffen in Medizin und Fertigung umgegangen werden. Radioaktiver Abfall wird weiterhin entstehen.

Die moralische Überhöhung

“Atommüll” sei Teufelszeug, für das die heutige Generation die Verantwortung tragen müßte, da sie auch den Nutzen davon gehabt hätte. Abgesehen davon, daß dies eine eigenartige Auffassung von der Entwicklung der Menschheit ist, ist diese Aussage auch in höchstem Maße zynisch. Diese Denkweise gipfelt in der Forderung eines generellen Exportverbotes für radioaktive Stoffe. Man will die abgebrannten Brennelemente unwiederbringlich verbuddeln. Deutschland will aus der Kernenergie aussteigen, gut, das ist sein Recht. Aber woher nimmt dieses grün-alternative Milieu eigentlich das Recht, dem Rest der Welt seine Sichtweise aufzuzwingen? Für den überwiegenden Teil der Menschheit sind Brennelemente kein Müll, sondern Rohstoff für die Energiegewinnung. Das Recycling ist erprobte Praxis. Wo bleibt da eigentlich die “Nachhaltigkeit”, die sonst immer, wie eine Monstranz vor sich her getragen wird. Allein China baut alle drei Monate einen neuen Kernreaktor. Der Uranbedarf wird entsprechend steigen. Die Urangewinnung erfordert viele menschliche und materielle Ressourcen, aber wir maßen uns an, Wertstoffe durch vergraben dem Weltmarkt zu entziehen. Am Deutschen Wesen, wird die Welt genesen.

Wie in sich unlogisch die Argumentation ist, zeigt sich daran, daß ein grüner Umweltminister sogar fordert, man müsse für die Endlagerung auch ausdrücklich das tail-end (abgereicherter Teilstrom bei der Urananreicherung) aus deutschen Urananreicherungsanlagen einbeziehen. Was bitte, strahlt denn mehr: Uran–235 oder Uran–238? Das abgereicherte Uran strahlt daher weniger als Natururan. Bisher ist es ein frei handelbares Wirtschaftsgut. Wenn wir die Grenzwerte so tief nach unten schrauben, sollten wir schleunigst Zwischenlager für Kohlenasche (aus der wird gerne Zement und Pflastersteine gemacht), Rückstände aus der heimischen Öl- und Gasförderung usw. anlegen. Außerdem müßten wir schleunigst alle Panzer, panzerbrechende Munition und Ausgleichsgewichte in diversen Flugzeugen mit Aufklebern zur Warnung vor Radioaktivität versehen und das Personal mit Dosimetern ausrüsten. Schöne Grüße aus Absurdistan.

Der Müll geht aus

Der bisherige Gesetzentwurf lautet im Untertitel …ein Endlager für Wärme entwickelnde radioaktive Abfälle…. Wahrscheinlich der kleinste gemeinsame Nenner zwischen den Parteien. Durchaus sinnvoll, denn es gibt ja bereits den Standort Konrad für mittelaktiven Abfall. Wenn man nun aber alle Kernkraftwerke abgeschaltet hat, kommt kein neuer (hochaktiver) Müll mehr hinzu. Der bereits zwischengelagerte Abfall aus der Wiederaufbereitung ist schon recht alt. Bis ein Endlager betriebsbereit ist und die erste Einlagerung möglich wird, werden mindestens noch weitere 50 Jahre vergehen. Je länger der Abfall lagert, um so mehr radioaktive Stoffe sind zerfallen. Es bleiben nur die langlebigen über, die aber gerade wegen ihrer Langlebigkeit wenig Wärmeleistung produzieren. Deshalb ist es z.B. kein Problem, eine Oberflächentemperatur von 90°C (z. B. französische Vorschrift für deren Endlager) bei den Gebinden einzuhalten. Der deutsche Gesetzentwurf schweigt sich bisher dazu aus, was durchaus sinnvoll ist, da ja noch keine konkreten geologischen Verhältnisse vorliegen sollen (Entscheidungsfreiheit).

Damit die “Atommüll-Story” weiter am Laufen gehalten werden kann, muß man virtuellen Müll erschaffen. Man redet gewaltige Mengen aus der Asse herbei, die angeblich wieder vollständig ausgebaggert werden muß. Hinzu kommen die Mengen an leicht radioaktiven Abfällen aus den Kernkraftwerken und dem Abbruch der kerntechnischen Anlagen. Es wird dabei tunlichst verschwiegen, daß das Volumen von radioaktivem Müll vollkommen beliebig ist. Man kann durch Nachbehandlung (Dekontaminierung, Verbrennung etc.) und Sortierung das Volumen beliebig verringern. Alles nur eine Frage der Kosten. Die jetzt aufgeworfene Forderung der grünen Problemerschaffungs-Partei, auch dieser Müll müßte in dem geologischen Tiefenlager eingelagert werden, setzt dem Ganzen die Krone auf. Müll, der weltweit auf normalen oberirdischen Sondermülldeponien gelagert wird. Dies nur um den Popanz eines nicht vorhandenen Endlagers aufrecht erhalten zu können. Dieses muß natürlich möglichst groß sein, um den Widerstand in der Region anfachen zu können und gleichzeitig möglichst teuer, um das Märchen von der viel zu teuren Kernenergie erfüllen zu können. Als Nebenprodukt kann man noch ein Endlager erschaffen, das sicherheitstechnisch deutlich hinter internationalen Standards zurückbleibt. Nach dem Murks der Energiewende, noch ein Murks mit radioaktiven Stoffen.

Das erschaffene Endlagerproblem

Das größte Bubenstück der Grünen, war jedoch das Verbot einer Wiederaufbereitung, das jetzt noch einmal durch das Exportverbot für Kernbrennstoffe verschärft werden soll. Man muß es immer wieder betonen, der verglaste Abfall aus der Wiederaufbereitung in Frankreich und England ist nach maximal 100 000 Jahren auf das Niveau von Natururan abgeklungen. Man kann ihn bereits nach wenigen hundert Jahren in die Hand nehmen, wenn man keine Strahlenphobie hat. Genau das, war der sicherheitstechnische Sinn der Wiederaufbereitung: Verkleinere drastisch das Volumen und entschärfe den Abfall durch die Entfernung des Plutoniums.

Durch die jetzt geplante Endlagerung der unbehandelten Brennstäbe hat man wegen des hohen Plutoniumgehaltes einen wesentlich problematischeren Abfall erschaffen. Man kann nicht einfach die Castoren verbuddeln, sondern die Brennelemente müssen aufwendig neu verpackt werden. Verfahren hierfür, die auch nur ansatzweise die gleiche Sicherheit bieten, wie der verglaste Abfall, gibt es nicht. Wer soll die eigentlich entwickeln und wo wird später die Anlage hierfür errichtet?

Zusammenfassung

Es ist der klassische Politikablauf: Erschaffe ein Problem, das du anschließend vorgibst zu lösen. Halte Fachleute fern und laß nach dem Prinzip des Berliner Willi Brand Flughafens Laien vor sich hin wurschteln. Je länger die Sache dauert, je höher sind die Pfründe für alle Günstlinge. Tarne die Angelegenheit über eine “Bürgerbeteiligung”. Gleichzeitig schaffst du dadurch Arbeitsplätze für nicht vom Arbeitsmarkt nachgefragte Akademikergruppen. Diese sind dir deshalb treu ergeben und werden dir den Rücken frei halten. Je besser du die Verantwortungslosigkeit organisiert, je besser ist die Chance wiedergewählt zu werden.

Es wird eine endlose Geschichte inszeniert. Jetzt, wo man sich die Rücklagen für die Entsorgung einverleibt hat, hat man alle Zeit der Welt, das Geld für andere Dinge auszugeben. Politiker als Vermögensverwalter ist genauso, wie gierige Hunde zur Bewachung von Steaks. Ist das Geld weg, wird man die Gesetze ändern. Schacht Konrad und Gorleben laufen ja nicht weg.

Der Beitrag erschien zuerst bei NUKEKLAUS hier




Der WBGU und die Bewältigung der globalen Klimakrise

Zu Beginn der deutschen Präsidentschaft über die Gruppe der zwanzig wichtigsten Industrie- und Schwellenländer (G20) publizierte der 1992 in Verbindung mit dem „Erdgipfel“ von Rio de Janeiro/Brasilien gegründete Wissenschaftliche Beirat Globale Umweltveränderungen (WBGU) ein Sondergutachten: „Entwicklung und Gerechtigkeit durch Transformation: Die vier großen I“. Dessen Vorsitzender Hans Joachim Schellnhuber umriss den Inhalt in den Fränkischen Nachrichten vom 13. Januar 2017 kurz wie folgt:

„Wir müssen bis 2050 die Welt weitgehend dekarbonisieren. Der Ausstieg aus der Kohleverstromung muss bis 2030 erfolgen, und der Verbrennungsmotor muss endlich auf den Müllhaufen der Geschichte landen. Wir müssen uns auch weitgehend vom Zement als Baustoff verabschieden. Es ist eine Transformation, die nur mit der Industriellen Revolution zu vergleichen ist.“

Zu unserer Rolle meinte er: „Deutschland ist immer noch Antreiber.“

Beanspruchte Deutschland 1992 in Rio nur die Rolle des „Vorreiters“, so ist nun zu fragen, woher die Anmaßung „Antreiber“ herrührt. Ist es ideologische Besessenheit, ist es Größenwahn oder muss wieder einmal die Welt am „deutschen Wesen“ genesen, aufgrund eines grenzenlosen Idealismus gepaart mit Realitätsblindheit? Darüber schweigt der WBUG. Er spielt die Rolle des Erfüllungsgehilfen, der dem „historischen Doppelerfolg für die Nachhaltigkeits- und Klimapolitik“ von 2015 zum Durchbruch verhelfen will. Er bezieht sich auf die bei der „UN in New York vereinbarte Agenda 2030“ und auf das „UN Übereinkommen von Paris zum Klimaschutz“. Mit seiner Forderung nach „vollständiger Dekarbonisierung der Weltwirtschaft bis spätestens 2070“ strebt er eine globale „Große Transformation“ an, um für alle Zeiten für Gerechtigkeit und Frieden durch „Inklusion innerhalb der Gesellschaften“ zu sorgen. Mit der Inklusion will er den „Aufstieg eines autoritären, völkischen Nationalismus“ ausbremsen. Gleichzeitig fördert er das „Leitbild eines gestaltenden Staates“, der das Steuerruder in die Hand nimmt und die „Große Transformation“ vorantreibt.

In diesem Sinne, so heißt es im WBGU-Gutachten, sollten sich die G20-Regierungen als „Pioniere des Wandels“ verstehen, schnell „Dekarbonisierungsstrategien“ entwickeln und sich „an den dekadischen Schritten des Klimaschutzfahrplans orientieren, in dem bis 2050 die weltweiten Emissionen auf Null gesenkt werden“. Hierzu müsse eine „inklusive Kommunikation“ geführt werden: „Zur Entwicklung einer grundlegenden „transfomative literacy“ gilt es einerseits, die kollektiven und individuellen Fähigkeiten zum produktiven und kreativen Umgang mit Herausforderungen zu fördern, und dadurch zugleich Unsicherheiten und Ängste abzubauen, die mit der Konfrontation mit komplexen und ungewohnten Aufgaben einhergehen. Wichtig ist dabei, Risikoinformationen immer mit kollektiven und individuellen Handlungsoptionen zu verknüpfen.“

Ist nun alles klar? Haben Sie das verstanden? Wissen Sie nun, wo die Ursachen und Folgen des Klimawandels liegen? Ich weiß nur, dass die Ursachen des Klimawandels im Wetterwandel liegen. Dessen Ursachen sind unverändert ein „Buch mit sieben Siegeln“ und die Folgen sind erst recht unbekannt, weil uns ein Blick in die Wetterzukunft des Jahres 2050 verschlossen ist. Daran ändert auch eine „umgestaltete Lesefähigkeit“ oder neudeutsch „transformative literacy“ nichts.

 

Zum Auftrag und globalen Sendungsbewusstsein des WBGU 

Der Wissenschaftliche Beirat Globale Umweltveränderungen wurde im Jahre 1992 von der Bundesregierung in Verbindung mit der Konferenz der Vereinten Nationen über Umwelt und Entwicklung, dem „Erdgipfel“ in Rio de Janeiro, unter der Regentschaft von Bundeskanzler Helmut Kohl ins Leben gerufen. Zuständiger Umweltminister war Klaus Töpfer. Der WBGU sollte im Sinne eines „Frühwarnsystems“ auf neue Problemfelder hinweisen und durch Presse- und Öffentlichkeitsarbeit das Bewusstsein für Probleme des globalen Wandels fördern. Er bediente sich dabei geschickt der literarischen Form der Erzählung, des Narrativs, einer populären Geschichte. Damit umging man geschickt unbequemen Fragen nach irgendwelchen ideologischen Hintergründen.

Der WBGU gab von Beginn an vor, sich nur und ausschließlich der „Weltrettung“ wie der Heilung der „Klimakrise“ aus „Zukunftsverantwortung“ im Sinne der „Nachhaltigkeit“ zu widmen, natürlich aus rein ethischen, moralischen wie altruistischen Beweggründen. Im Grunde genommen ist der Auftrag der Bundesregierung, ein deutscher Beirat möge der „Welt“ als Staatengemeinschaft politische Verhaltensregeln vorgeben, eine Anmaßung, eine Art „Selbstermächtigung“. In keinem anderen Volk der Erde hat es etwas Analoges gegeben wie 1986 die „Warnung vor der globalen Klimakatastrophe“ von der Deutschen Physikalischen Gesellschaft e. V. Die Warnung, bildhaft untermalt mit der „Sintflut“ und „Hölle“, hat eine derart kollektive Angstpsychose erzeugt, die in Verbindung mit dem „Waldsterben“ wie dem „Ozonloch“ zu dem Synonym von der typischen „German Angst“ als ostentativ vorgetragenen „Leiden an der Welt“, geführt hat.

Der WBGU, hat zahlreiche Gutachten präsentiert, die der „Klimapolitik“ Orientierung geben und als Stütze dienen sollen. Das Klima eignet sich bestens als Erzählstoff für alle möglichen Klimamärchen. Es einet sich auch sehr gut, um gezielt transformatorische Verhaltenstipps zu geben, um die Gesellschaftsveränderung in die politisch korrekten Bahnen zu leiten. Der WBGU erfüllt seinen Auftrag wunschgemäß und ist fleißig. Bisher hat er speziell zum „Klimaschutz“ folgende Gutachten publiziert:

1997: „Ziele für den Klimaschutz“

2002: „Entgelte für die Nutzung globaler Gemeinschaftsgüter“

2007: „Welt im Wandel – Sicherheitsrisiko Klimawandel“

2011: „Welt im Wandel – Gesellschaftsvertrag für die Große Transformation“

2013: Als Anleitung erschien hierzu ein Märchenbuch in Form eines Comicheftes „Noch

             schnell die Welt retten“ unter Mitwirkung des Paläontologen Reinhold Leinfelder

             (FU Berlin) mit der Aufforderung „Wir brauchen eine Revolution“!

2014: „Klimaschutz als Weltbürgerbewegung“

Die Wege des WBGU sind klar strukturiert und vorgezeichnet. Seine Sprache ist bewusst diffus, um die revolutionäre Absicht zu verbergen und den Bürger nicht frühzeitig aus dem Schlaf zu wecken. Anhand von Reizworten wie „Suffizienzrevolution“ wird von Zeit zu Zeit die Reaktion getestet und, bei massiven Protesten, verbal abgerüstet auf „Öko-Suffizienz“. Die Frage nach dem rechten Maß ist nicht anrüchig und ein Leben, das dem übermäßigen Verbrauch von Gütern durchaus verständlich wie die Forderungen nach Askese, Entschleunigung und Konsumverzicht. Suffizienzrevolution lässt sich elegant durch Effizienzrevolution umschreiben. Wer möchte nicht die „ökologischen Grenzen“ respektieren und Energie wie Stoffe effizienter nutzen?

 

WBGU fordert Weltrettung durch „einzigartigen Kraftakt der Weltgemeinschaft“

Um Akzeptanz für seine Vorschläge zu erzielen, werden „gefährliche Spannungen“ aufgezeigt wie Bürgerkriege und Kriege, Massenflucht und Terrorismus, wachsende Ungleichheit sowie die Gefahr des „Aufstiegs eines autoritären, völkischen Nationalismus“. Die Staaten der G20 werden in die „Führungsrolle“ gedrängt, zumal sie „für 82% der CO2-Emissionen aus fossilen Energieträgern verantwortlich“ sind. Sie sollen die „rapide Dekarbonisierung“ vorantreiben, den Energieverbrauch effektiv begrenzen und bis 2030 die Zulassung von Fahrzeugen mit Verbrennungsmotoren stoppen. Ihre Mittel seien „die vier großen I“: Innovationen, Infrastrukturen, Investitionen, Inklusion. Die Inklusion ist im Singular, weil ein Einwegakt, aus dem es kein Zurück gibt. Ist das Globalziel Inklusion als einer „Gesellschaftstransformation zur Nachhaltigkeit“ erreicht, dann hat die Welt den „gestaltenden Staat“, der als „Weltregierung“ Ungleichheiten bekämpft, seine „soziale Kohäsion“ stärkt und zu einem „Friedensprojekt“ wird. Die „Inklusion auf globaler Ebene“ wird alle „Ressourcen- und Verteilungskonflikte“ entschärfen und somit „Bürgerkriegen sowie Massenflucht“ entgegenwirken.

Diese Idealvision der einen Welt mit dem einen Menschen in der einen Gesellschaft und dem einen Klima „globaler Klimagerechtigkeit“ wird eine friedliche Welt sein, in der nicht nur alle Menschen gleich sind, sondern auch in einem „ökologischen Gleichgewicht“ mit der Natur leben. Doch dieses „Gleichgewicht“ ist eine utopische Illusion! Man muss nur an das „Alles Fließt“ von Heraklit denken. Marxismus und Ökologismus werden unausgesprochen in der Vorstellungswelt des WBGU zu einer quasireligiösen Ideologie, dem globalen „Ökosozialismus“ als geistigem „Überbau“ für alle individuellen wie kollektiven „Ichs“ dieser Erde, verschmolzen.

Alle bisherigen „Krisendynamiken“ sind den sehr „zögerlichen Umweltregulierungen“ geschuldet. Das „herkömmliche Modell der Weltwirtschaft“ greift nicht mehr, so dass die Devise lautet: „Transformation, nicht Reparatur“. Der Rahmen muss im „Dienste des Gemeinwohls“ neu gesteckt werden. Der Auftrag lautet: „Transformation zu einer nachhaltigen Weltgesellschaft und Weltherrschaft“! Dass dieses operative Konzept zum „Multilateralismus“ , diese „ehrgeizige Vision“, dieser „historisch einzigartiger Kraftakt einer solidarischen, evidenzbasierten Modernisierung“ ausgerechnet aus Deutschland kommt, ist erstaunlich und bedenklich zugleich. Wir stehen vor einer einzigartigen „hochdimensionalen Herausforderung“: „Doch nach Auffassung des WBGU ist die Bewältigung der Klimakrise die conditio sine qua non für die Weltgesellschaft im 21. Jahrhundert“. Die Weichen entsprechend zu stellen, dafür „bietet die deutsche G20-Präsidentschaft im Jahr 2017 eine exzellente Gelegenheit, die notwendige Nachhaltigkeitstransformation nicht isoliert von, sondern in Verbindung mit den anderen „Großbaustellen der Weltpolitik“ anzugehen.“

Dafür ist das „Leitbild des gestaltenden Staates“ Voraussetzung, um den Übergang zur Nachhaltigkeit als „globales Modernisierungsprojekt“ voranzubringen. Als Vorbild wird auf die „US-amerikanische Politik des New Deal“ verwiesen. WBGU: „In der heutigen Globalisierungskrise ist ein neuer „Deal“, ein (globaler) Gesellschaftsvertrag zur Nachhaltigkeit und Inklusion erforderlich, der die Grenzen der Nationalstaaten übersteigt und die Überwindung des gegenwärtigen Stagnationszustands der Weltwirtschaft mit dem Projekt der Wiederherstellung des Friedens zwischen Zivilisation und Natur verbindet.“

Nach Auffassung des WBGU steht der „Großen Transformation zur Nachhaltigkeit“ (2011) eine „autoritäre, neonationalistische Gegentransformation gegenüber, die die Zukunftsfähigkeit unserer Gesellschaften, Rechtsstaatlichkeit und Demokratie bedroht“. Im Klartext stehen sich hier zwei Gesellschaftsmodelle gegenüber.

  1. Das traditionelle Modell der in den Vereinten Nationen zusammengefassten 196 souveränen Staaten, die das Paris Abkommen unterzeichnet haben.
  2. Das Modell eines globalen Einheitsstaates, in dem alle Staaten unter Aufgabe ihrer demokratischen Legitimationsprinzipien ihr Selbstbestimmungsrecht aufgehen.

Die „hochrelevante Frage der Begrenzung gesellschaftlicher Disparitäten“, die Frage der globalen Inklusion der Nationalstaaten und damit die Frage nach der Struktur und Legitimation einer wie auch immer aussehenden „Weltregierung“ bleiben offen. Der WBGU belässt es bei der Andeutung, dass er „zwei neuartige Politikelemente ins Spiel bringen“ möchte, nämlich die Idee vom „dekadischen Klimaschutzfahrplan“ und dem „transformativen Staatsfonds“. Mit beiden Maßnahmen soll sich die „Weltregierung“ die notwendigen finanziellen Mittel beschaffen, um das „Leitbild des gestaltenden Staates“ zu verwirklichen.

Wer diesen „Weltstaat“ regiert, wird nicht gesagt. Die Herrschaft wird wohl auf allein auf erfundenen „Sachzwängen“ aufbauen. Der WBGU ist weiter der Meinung, dass sich das „Nachkriegsmodell der globalisierten Wertschöpfung“ festgefahren habe und dass sich mit der nachhaltigen Umgestaltung dieses Modells „eine doppelte Dividende erzielen“ ließe. „Zugespitzt formuliert spricht vieles dafür, dass „nicht die Weltwirtschaft transformiert werden muss, um das Klima zu retten, sondern dass die für die Bewahrung der natürlichen Lebensgrundlagen erforderlichen Innovationen die Weltwirtschaft retten werden!“ Doch was könnte das Wetter verändern, um das Klima zu retten? Der WBGU gibt ganz unumwunden zu: „die umrissene Dekarbonisierung ist nichts weniger als eine industrielle Revolution im Erdmaßstab“!

Das ist die einzige Stelle in dem ganzen Sondergutachten, wo nicht verniedlichend von „Transformation“ gesprochen wird, sondern im Klartext gesagt wird, dass es sich um eine „Revolution im Erdmaßstab“ handelt. Die „Dekarbonisierung“ ist nicht nur eine Abkehr von der Nutzung fossiler Rohstoffe, sie ist eine Deindustrialisierung. Sie ist auch kein Rückschritt hinter die „neolithische Revolution“, sie ist eine Rückabwicklung des dritten Tages der Schöpfung. An diesem Tag wurden nämlich die „grünen Pflanzen“ geschaffen, die „Primärproduzenten“ als Basis für alles höhere Leben auf Erden. Ohne „grüne Pflanzen“ gäbe es keine Nahrung für die Tiere und den Menschen. Ohne die Photosynthese gäbe es auch keinen Sauerstoff, um die Nahrung zu verbrennen und aus ihr Energie und Nährstoffe für alles Leben freizusetzen.

WBGU will die Klimakrise überwinden durch Vernichtung allen Lebens auf Erden 

In dem mit 143 Literaturstellen verzierten Sondergutachten taucht nur einmal das Wort „Revolution“ auf. Es taucht auch nur einmal das Wort „Wetter“ auf, in dem Kapitel „Erwärmung begrenzen und Klimaextreme vermeiden“. Es beginnt: „Seit der 15. Vertragsstaatenkonferenz 2009 in Kopenhagen ist die Begrenzung der globalen Erwärmung auf 2°C gegenüber der Zeit vor der Industriellen Revolution in den internationalen Verhandlungen präsent.“ Präsent scheint es nicht der politischen „Weltelite“ zu sein, dass es „vor“ der Zeit der Industriellen Revolution nicht nur das Klimapessimum der „Kleinen Eiszeit“, sondern auch zwei Klimaoptima zur „Römerzeit“ und im „Hochmittelalter“ gab, deren Zustandekommen bisher kein „Weltklimarat“ hat erklären können. Beide warmen Epochen sind weder den Autofahrern noch den Kraftwerkebetreibern anzulasten. Warum bestehen also die Staatenlenker starrsinnig darauf, dass die momentane im historischen Rhythmus der vergangenen Jahrtausende liegende Erwärmung plötzlich „menschengemacht“ sein soll? Schwingt da nicht eine Art Größen- und Machbarkeitswahn mit?

Es wird aber noch bizarrer, „postfaktischer“! Der WBGU argumentiert weiter: „Die Klimafolgenforschung zeigt, dass bei einem Überschreiten dieser planetarischen Leitplanke gefährliche anthropogene Einflüsse auf das Wetter und Klima (z. B. vermehrte Extremwetterereignisse, Dürren, Überschwemmungen, Verschwinden von Gebirgsgletschern, irreversibles Schmelzen des grönländischen Eisschildes, starker Meeresspiegelanstieg) wahrscheinlicher werden;…“ Könnte das Wetter nicht einfach nur „normaler“ werden? Fakt ist, die „Klimafolgenforschung“ kann gar nichts zeigen und noch weniger beweisen, weil man nur die Folgen von faktischen Wetterereignissen feststellen und bewerten kann. Der Blick in die „Klimazukunft“ wird hermetisch verstellt durch das Wetter. Und die „Wetterzukunft“ ist uns völlig unbekannt, wie alljährlich die nur wenige Monate betreffenden Prognoseversuche des Winter- und Sommerwetters zeigen.

Was gäbe der Mensch für die Fähigkeit, das Wetter längerfristig vorhersagen und seinen Verlauf nach seinem Geschmack manipulieren zu können. Versuche der Beeinflussung des Wetters hat es zahlreiche gegeben. Der indirekt größte Versuch war der 2. Weltkrieg von 1939 bis 1945. Er war gekennzeichnet durch einen gigantischen Ausstoß an „Treibhausgasen“. War die Abkühlungsphase von 1940 bis 1975, die zu Befürchtungen führte, es könnte eine „neue Eiszeit“ kommen, eine Folge? Jedenfalls gab der „National Security Council“ der USA am 2. Mai 1972 ein vertrauliches Memorandum zum Thema „International Aspects of Weather Modification“ mit der Unterschrift von Henry A. Kissinger an die US-Regierung heraus, dessen Vertraulichkeit am 6. September 2002 ob der Aussichtslosigkeit des Vorhabens aufgehoben wurde. Darin heißt es: „The United States shall continue research oaring on climate modification, but no climate modification operation (civilian or military) shall be conducted until its total impact can be predicted with great assurance and without the specific approval of the President“.

Sodann ist in dem Memorandum vermerkt: „The President has decided not to propose at this time legislation for the licensing and regulation of weather modification activities.“ Sehr wahrscheinlich war man sich schon damals der Aussichtslosigkeit der Versuche bewusst, lenkend und steuernd in das Wettergeschehen eingreifen zu können. Und was das Klima betrifft, so ist es einzig abhängig vom Wetter, wie allein die 1935 in Warschau von den Wetterdiensten verabschiedete Klimadefinition offenbart. Der Klimaschutz ist von Beginn an Unfug! Das Klima ist ein Konstrukt, das statistisch vom Wetter abgeleitet ist. Das Klima ist kein Naturvorgang wie das Wetter und hat damit kein Eigenleben. Beschlüsse über „Klimafolgen“ zu treffen, sind hohle Phrasen, die dem Dreschen von leerem Stroh gleichen. Unter diesem Aspekt sei die Frage „in den Raum gestellt“, was die Staatsmänner dieser Erde in Paris sich dabei gedacht haben, eine „Begrenzung der globalen Erwärmung“ festzusetzen?                                                                                    Glaubt der WBGU wirklich ernsthaft, dass sich durch die „Dekarbonisierung“ etwas an der Temperaturverteilung auf der Erde ändert?

In der Photosynthesegleichung sind die drei Elemente zu finden, auf denen die „grünen Pflanzen“ und alles „höhere Leben“ auf Erden aufbauen. Es sind dies die Elemente Wasserstoff H, Sauerstoff O und Kohlenstoff C. Eliminiert man eines dieser Elemente, dann bricht die Existenzgrundlage für Pflanze, Tier und Mensch weg! Das weiß auch der WBGU, denn er schreibt, dass „seit Beginn der Industrialisierung“ eine „verstärkte Photosynthese und damit vermehrtes Wachstum von Pflanzen zu verzeichnen“ ist. Kurz darauf folgt der unsinnige Satz: „Die terrestrische CO2-Senke unterliegt starken zwischenjährlichen Schwankungen und verschwindet in einzelnen Jahren ganz.“ Wachsen „in einzelnen Jahren“ etwa keine Maiglöckchen und Bäume, keine Reben und Rüben, kein Getreide, kein Mais und Reis? Apropos „zwischenjährlich“, es sollte wohl jahreszeitlich heißen!

An dieser Stelle möchte ich die rhetorische Frage stellen, ob die verantwortliche Umweltministerin Dr. Barbara Hendricks und die für die Richtlinien der Gesamtpolitik verantwortliche Bundekanzlerin Dr. Angela Merkel überhaupt das Sondergutachten gelesen und durchgearbeitet, und nicht nur oberflächlich überflogen und die ihnen vorgelegte Presseerklärung „unterzeichnet“ haben. Stimmt dies, dann ist es keineswegs verwunderlich, wenn im denkenden Bürgertum mehr und mehr das Vertrauen in „die Politik“ schwindet.

 

Globale soziale Inklusion zwecks Gesellschaftstransformation zur Nachhaltigkeit

Die Sprache des Sondergutachtens verschleiert mehr als sie offenlegt, doch um dieses zu erkennen, dazu bedarf es eines sorgsamen Studiums. Unter Termin- und Zeitdruck stehende Politiker begnügen sich daher mit kurzen Zusammenfassungen und sind dann erschrocken, wenn sie erfahren, was sie alles beschlossen und unterschrieben haben. In der Regel ist es dann zu spät, um die Weichen anders zu stellen. Eine Forderung des WBGU ist die nach einer Stärkung des „gestaltenden Staates“. Dieser habe die Aufgabe, „soziale Innovation zu fördern und eine inklusive Entwicklung unter den Bedingungen der Globalisierung sicherzustellen“. Dies geht aber nur, wenn alle Staaten ihre Grenzen und ihre Souveränität aufgeben, mithin als „nationalstaatliche Demokratien“ abdanken zugunsten eines „Welteinheitsstaates“.

Dieser soll aus zwei Einnahmequellen schöpfen. Erstens soll CO2 intensiver besteuert werden, indem pro Dekade die CO2-Abgabe verdoppelt wird. Von 30 US-$ pro t CO2 soll bis 2060 die Abgabe auf 240 US-$ steigen, um den „Klimaschutzfahrplan“ einzuhalten. Dann soll ein „Zukunftsfonds“ für „neue staatliche Handlungsspielräume“ aufgebaut werden. Die Idee baut auf folgender „Logik“ auf: Da die individuellen Vermögen wesentlich „in Verbindung zur Nutzung fossiler Energie“ stehen, wird den G20-Staaten die Einführung einer „Generationenkomponente auf individuelle Vermögen in Form einer progressiven Erbschaftssteuer auf Nachlassvermögen (Nachlasssteuer) angeraten. Der WBGU „plädiert dafür, dass 10-20% des nationalen Erbschafts- und Schenkungsvolumens für die Finanzierung des Zukunftsfonds zur Verfügung stehen.“

Zudem soll die Reichweite von Innovationen ausgeweitet werden hin zu „disruptiv-transformativen soziotechnischen Innovationen“. „Umfassende Systemtransformation“ ist das Ziel. Natürlich darf die „Ernährungsgerechtigkeit und die Nachhaltigkeit globaler Ernährungsmuster“ nicht fehlen. Und angesichts des „globalen Urbanisierungsschubs muss über die Art und Weise, wie Städte gebaut werden, völlig neu nachgedacht werden“. Das bedeutet: „Im Bausektor sollten „Materialien wie Beton und Stahl durch klimafreundliche Substanzen wie Holz, Ton und Stein ersetzt werden.“ Haben sich Beton und Stahl durch eine „Wetterfeindlichkeit“ negativ ausgezeichnet oder nicht genügend Schutz vor den Wetterunbilden geboten? Die geforderten Mittel für eine „internationale Klimakooperation“ sollten lieber in eine „Wetterkooperation“ investiert werden, um die Analyse, die Diagnose und Prognose des Wetters international zu verbessern.

 

Professor Dr. Hans Joachim Schellnhuber CBE, der Chef von WBGU und PIK

Verantwortlich als Vorsitzender des WBGU ist Prof. Dr. Dr. h.c. Hans Joachim Schellnhuber CBE, zugleich Direktor des Potsdam-Instituts für Klimafolgenforschung; Professor für Theoretische Physik an der Universität Potsdam; External Professor am Santa Fe Institute. Schellnhuber war ab 1989 Professor für Theoretische Physik am Institut für Chemie und Biologie des Meeres an der Universität Oldenburg. Am 1. Januar 1992 übernahm er als Gründungsdirektor die Leitung des PIK. 1993 wurde er regulärer Direktor und erhielt den Lehrstuhl an der Universität Potsdam. Schellnhuber schreibt selbst in seinem Buch „Selbstverbrennung“, wie er zu dieser „Ehre“ kam. „Ich selbst wurde ab 1990 eher zufällig in dieses intellektuelle Abenteuer (die Klimawirkungs-Forschung) hineingezogen, wobei ein welthistorisches Ereignis die Hauptrolle spielte: der Fall der Berliner Mauer am 9. November 1989.“ Der damalige Ministerialdirigent Werner Menden im Bundesumweltministerium Werner Menden habe ihn auf seine „Mission Impossible“ vorbereitet.

Warum er als Physiker, der zumindest theoretisch mit den physikalischen Vorgängen in der Atmosphäre vertraut sein muss, diesen „unmöglichen Auftrag“, ohne Ahnung von den komplizierten Strömungsvorgängen bei der Allgemeinen Zirkulation über die „Klimafolgewirkungen“ zu forschen, annahm, ist mir unerklärlich. Offensichtlich war das mehr ein gesellschaftspolitischer Auftrag, wie der Bezug zum „Fall der Berliner Mauer“ andeutet, zusammen mit einem Aktionsprogramm „Ökologischer Aufbau Ost“. All dies fand statt unter der „Oberaufsicht“ von Bundesumweltminister Prof. Dr. Klaus Töpfer. Es ging unter dem Gesamtaspekt „Ökologisches Gleichgewicht“ um eine Neujustierung der Weltpolitik nach Wegfall des „Kommunismus“. Da keine Weltmacht sich offen zum „Lenker der Welt“ aufschwingen wollte und jedwede Ideologie politisch verpönt war, verfiel man auf den Begriff „Narrativ“. Der Begriff kommt aus den Sozialwissenschaften. Ein Narrativ ist nichts als eine sinngebende Erzählung, mit der Emotion transportiert, Orientierung gegeben und Zuversicht vermittelt werden soll.

Nach dem damaligen Stand der Nachhaltigkeits- und Transformationsforschung lassen Narrative sich am besten in Krisenzeiten durchsetzen, auch wenn sie wie die Klimakrise nur eingebildet sind. Eine Transformation ist eine „gewaltfreie“ gesellschaftliche Umformung und Verwandlung, die auf lange Sicht eine ähnliche Wirkung erzielen kann wie ein gewaltsamer Umsturz, eine Revolution. Es wird behauptet, dass Transformation das Resultat rational handelnder Akteure ist. Doch exakt das Gegenteil ist bei der „Klimapolitik“, ob auf nationaler oder internationaler Ebene, der Fall. „Klimaschutz“ ist der Gipfel der Irrationalität. Kein amerikanischer, australischer, brasilianischer, chinesischer, indischer, japanischer, südafrikanischer oder anderer der G20-Präsidenten ist so vermessen zu behaupten, er könne das Wetter seines Landes schützen, extreme Wetterereignisse verhindern. Alle diesbezüglichen Klimaschutzversprechungen sind Schall und Rauch, sind Spökenkiekerei, sind primitive Modell-Wahrsagerei.

Der WBGU glaubt selbst nicht an seine Versprechungen, denn warum sonst würde zum Schutz vor dem Wetter Anpassungsmaßnahmen wie „Überschwemmungsschutz“ und „Wirbelsturmschutzräume“ empfehlen. Die ersten Schutzräume vor dem Wetter, die der Mensch aufsuchte, waren Höhlen. Frankreich ist ein Eldorado für Höhlen und Grotten, aber auch in Baden-Württemberg kann man „Höhlen der letzten Eiszeitkunst“ besichtigen und die „Venusfigur“ mit einem Alter von etwa 40000 Jahren zu bewundern.

Was der WBGU unter des Kaiser’s neuem Kleid „Klimaschutz“ wirklich verbirgt, das sagt er nicht konkret. Es könnte sein, dass David Rockefeller 1999 in Newsweek einen Hinweis gegeben haben könnte: „Irgendetwas muss die Regierungen ersetzen, und mir scheint, dass die private Macht die geeignete Identität dafür ist.“ Wenn Weltherrschaft das Ziel ist, dann sind die nationalstaatlich verfassten Demokratien Hindernisse auf diesem Weg privater Mächte, die weggeräumt werden müssen. Der WBGU-Warnruf vor dem Aufstieg „eines autoritären, völkischen Nationalismus“ ist ein Ablenkungsmanöver. In allen Demokratien der Erde sollten die Alarmglocken läuten. Es geht um ihre Existenz. Es geht um die freiheitliche demokratische Grundordnung der Vereinten Nationen. Soll das Motto „Geld regiert die Welt!“ die Zukunft sein?

 

Bürgervertrauen in die Politik setzt voraus, dass sie mit offenen Karten spielt 

Das WBGU-Sondergutachten ist ein Musterbeispiel, wie man politisch brisante Ziele verklausuliert und unkenntlich macht, bis sie die parlamentarischen Hürden genommen haben. Wenn sie erst „Volksmeinung“ und in „Gesetze“ geschmiedet sind, dann setzen die Sachzwänge ein, dann gibt es kein Zurück. Dieser Weg hat sich bewährt, denn nur die allerwenigsten Volksvertreter lesen vorher, was ihnen zu beschließen empfohlen wird.

Kein Wunder, dass im Bürgertum das Vertrauen in die Politik rapide abnimmt, weil sie nicht den Mut hat, den Bürgern „klaren Wein“ einzuschenken und die Wahrheit zu sagen, die sie von den Bürgern fordert. Wann sehen die Politiker der Welt ein, dass der „Klimaschutz“ per se ein postfaktisches und daher unmögliches Unterfangen ist. Faktum ist das Wetter. Ist es vorbei, und „Klima“ umschreibt die Wettervergangenheit, ist ein Schutz illusorisch. Wenn ein Blitz eingeschlagen hat, ist diese Tatsache unmöglich mehr rückgängig zu machen!

Oppenheim, den 25. Januar 2017                       Dipl.-Meteorologe Dr. phil. Wolfgang Thüne

 

 

 

 

 

 

 

 

 

 

 




Der Fukushima-­Report (4): Das Panik-Orchester

Angela Merkel, die kritische Meinungen inzwischen schon mal als „postfaktisch“ bezeichnet, hat 2011 die damals frisch beschlossene Laufzeitverlängerung der deutschen Atomkraftwerke einkassiert und eine „Energiewende“ in Deutschland eingeleitet. Die von linksgrüner Angstpropaganda nach dem Unglück in Japan verunsicherte deutsche Öffentlichkeit – darunter vor allem die Medien – unterstützte die Kehrtwende der Kanzlerin, obwohl es Merkel dabei erkennbar nicht um die Sache ging. Die CDU-Vorsitzende handelte vor allem aus der Angst heraus, ihre Partei werde bei den Landtagswahlen in Baden-Württemberg und Rheinland-Pfalz Stimmen verlieren. Das plötzliche Abrücken von ihrer früheren Energiepolitik zahlte sich für die Union nicht aus: In Stuttgart gewann eine grün-rote Koalition und auch in Mainz schafften es die Christdemokraten nicht in die Regierung.

Ob der Kanzlerin damals klar gwesen war, dass Deutschland in der Mitte Europas in ein riesiges europäisches Energieverbundnetzwerk eingebunden war, ist zu bezweifeln. Denn sonst hätte die große Europäerin sich ja wenigstens mit ihren Nachbarn über diesen Schritt abgestimmt, da diese direkt von der Entscheidung betroffen sind und jetzt Schutzmaßnahmen technischer Art (Phasenschieber) in ihre Netze an den Grenzen zu Deutschland installieren, um sich vor den Folgen der deutscen „Energiewende“ zu schützen.

Bei uns kommt der Strom aus der Steckdose

Wie naiv – und das ist mit dem Mäntelchen der Nächstenliebe ausgedrückt – die deutsche Energiepolitik ist, möchte ich an einem Beispiel aus der jüngsten Geschichte der „Energiewende“ zeigen. Die Bundesregierung hat beschlossen, dass bis zum Jahre 2020 eine Million Elektroautos auf Deutschlands Straßen fahren sollen, um – wie es heißt – den Verkehr umweltfreundlicher zu machen. Dafür will der Staat sogar eine Kaufprämie zahlen, natürlich aus Steuergeld – woher auch sonst? Da wollen die ach so fortschrittlichen Vorstände der Automobilkonzerne natürlich nicht zurück stehen – oder besser: mitkassieren – und lassen fleißig Elektroauto-Systeme entwickeln, die die miserable Reichweite für den mobilen Bürger attraktiv machen sollen, etwa Schnelladestationen von sage und schreibe 350kW Leistung, die in kurzer Zeit die riesigen Autobatterien laden sollen.

Ich kann mir so ein Ladekabel eigentlich nur gekühlt vorstellen, da fließen bei 650 Volt Betriebsspannung eines E-Mobils immer noch über 500 Ampere durchs Kabel. Zum Vergleich: Die meisten Haushaltsstromkreise sind mit 10 Ampere abgesichert. Unter großem medialen Getöse wurde diese Idee gefeiert und der Bund stellt schon mal 300 Millionen Euro Steuergeld für Tausende solcher Stationen bereit. Steckdose statt Zapfsäule: Bekanntlich kommt der Strom in Helldeutschland aus der Buchse.

Kommt ein Milchmädchen daher – eines, das noch vor der deutschen Matheschwäche die Hauptschule abgeschlossen hat – und fängt an, zu rechnen. Nehmen wir an, es ist 20:00 Uhr. Von der Million Autos werden jetzt, na sagen wir 10 Prozent, also 100.000 zum Aufladen mit dem Stromnetz verbunden. Jede Dose hat 350 kW, macht 100.000 mal 350 kW macht 35 Millionen Kilowatt oder 35.000 Megawatt. Das sind 23 Großkraftwerke von der Güte Brokdorfs oder Emslands mit je 1.500 MW Leistung.

Aber bis 2022 werden die restliche Handvoll AKWs abgeschaltet sein, die es noch gibt, und bis 2050 soll auch der Ausstieg aus der Kohle-Verstromung vollendet sein. Tja, liebe Politiker, dann fangt schon mal an, Ideologie-Verbrennungs-Kraftwerke zu bauen, denn in Deutschland gibt es insgesamt 60 Millionen Kraftfahrzeuge, deren Verbrennungsmotoren die Regierung bis 2035 verbieten will. Und die wollen alle irgendwie geladen werden.

Per Ordre di Ethik-Kommission

Wievielt Autos von den 60 Millionen abends an die Steckdose gehen und welche Kraftwerksleistung dafür benötigt wird, können sich andere Milchmädchen ausrechnen. Hier ist nur anzumerken, dass der Planungs-und Bauzeitraum für ein Kraftwerk ca. 10 bis 15 Jahre beträgt. Aber niemand, wirklich niemand würde in Deutschland heute auch nur einen Cent in einen neuen Kraftwerksbau stecken. Wir legen gerade brandneue Kraftwerke wie Irsching still, das modernste Gaskraftwerk der Welt. Im Subventions-Gestrüpp der Energiewende sind sämtliche Kraftwerke nämlich einfach nicht mehr rentabel zu betreiben. Gegen Erzeuger, die 80 Prozent ihres Einkommens aus Subventionen generieren, kommt keine Industrieanlage an. Und welcher Investor baut ein Kraftwerk in einem Land, wo die Regierung es mal eben so „per Ausstiegsbeschluss“ und Ordre di Ethikkommission aus irgendeinem zurzeit gerade ideologisch missliebigem Energieträger gegen eine kleine Entschädigung enteignen kann?

Kommt ein umweltbegeisterter Politiker daher und säuselt: „Bis dahin haben wir ja die intelligenten Netze, die eine Überlastung der Netze sicher verhindern“. Ach hätten wir doch intelligente Politiker, die selber merken, dass dies nur bedeutet, dass das Netz nicht zulässt, dass mehr Autos geladen werden, als die Kraftwerke gerade bespeisen können. Dann würden sie nämlich selber merken, dass nicht mehr alle Bürger Auto fahren können, da ihre Batterien leer bleiben. Autofahren ist dann wie Segeln – wenn der Wind weht, geht’s voran. Interessant wird dann die Frage: Wessen Auto wird heute geladen? Und wessen morgen? Willkommen in der schönen neuen Fußgänger-Welt mit den Mehrkosten einer Eiskugel (Minute 6:45) pro Monat. Noch was, liebe Politiker: Stromautobahnen produzieren keinen Strom. Genauso, wie Autobahnen keine Autos herstellen.

Fachleute können meine stark vereinfachte und fehlerbehaftete Darstellung durchaus als Milchmädchenrechnung abtun – sie will ja auch nur die Dimensionen zeigen, mit denen wir es zu tun haben. Ist es nicht eher ein bisschen arg „postfaktisch“, den Elektroenergieverbrauch in gigantischem Umfang für Mobilität der Straßen hochfahren zu wollen, bei gleichzeitigem Herunterfahren der Elektroenergieproduktion durch Ausstieg aus diversen Grundlastenergieträgern? Ausstieg aus allem, ist das nicht irgendwie irre?

Windmühlen, Brenngläser, Furzgas

Doch zurück zu Fukushima und der Atomenergie. Zu Beginn hieß es noch: Wir sind mit der Energiewende die Vorreiter und die Welt wird uns folgen. Inzwischen sind wir die Geisterfahrer der Energiewende. Für Politiker: Geisterfahrer ist immer der, dem alle anderen entgegenkommen. Kernenergie-Ausstiegsland ist Deutschland. Belgien, die Schweiz, Taiwan und Spanien wollen – vielleicht – später mal aussteigen.

Umgekehrt steigen die Vereinigten Arabischen Emirate und Weißrussland neu in die Kernenergie ein. In den beiden Ländern werden derzeit insgesamt sechs Kernkraftwerke gebaut. In den USA sind vier Kernkraftwerke im Bau. Großbritannien hat beschlossen, seinen Kernkraftwerkspark mit mindestens drei Anlagen moderner Bauart zu ersetzen. China, Indien und Russland verfolgen umfangreiche Ausbaupläne. Auch in Argentinien, Finnland, Frankreich, Pakistan, Polen, Rumänien, der Slowakei, Südafrika, Südkorea, der Türkei oder Ungarn wird die Kernenergienutzung vorangetrieben.

Derzeit befinden sich weltweit 60 Atomkraftwerke im Bau. Seit Anfang 2015 haben 17 Kernkraftwerke den kommerziellen Betrieb aufgenommen und 11 neue Bauprojekte wurden gestartet. International wird die Atomtechnologie weiterentwickelt. In China sind zwei sogenannte Hochtemperatur-Kugelhaufen-Reaktoren im Bau. Diese ursprünglich aus Deutschland stammende Bauart hat wegen ihrer Sicherheitseigenschaften – eine Kernschmelze ist dort aus physikalischen Gründen nicht möglich – ein vielversprechendes Zukunftspotenzial, genau wie der neuartige Thorium-Flüssigsalzreaktor, der kaum radioaktiven Abfall hinterlässt.

Den 60 AKW-Neubauten weltweit steht eine Handvoll deutscher AKW zur Abschaltung gegenüber. Wenn die Deutschen keine Atomkraftwerke wollen – die Italiener und Österreicher denken ja genauso – dann ist das in Ordnung. Aber die Deutschen wollen auch keine Kohle- oder Gaskraftwerke und an diesem Punkt wird es eben irrational. Deutschland auf dem Weg zurück zur Technologie des Mittelalters: Windmühlen, Brenngläser und Furzgas. Oder wenn man sich ehrlich machen würde: auf dem Weg in die Energiemangelwirtschaft.

Politik auf dem Prinzip Hoffnung

Und noch eine schlechte Nachricht für umweltbesoffene Politiker: Außer Pumpspeicherkraftwerken existiert keine industriereife Speichertechnologie für Strom. Notabene – ich rede hier nicht von Handyakkus oder Einfamilienhäusern, sondern vom Industriestandort Deutschland. Pumpspeicher gibt es in Deutschland noch nicht einmal mit 10 Prozent der Kapazität, die benötigt würde, um den Kernenergieausstieg mit erneuerbarer Energie zu kompensieren. Und die existierenden Pumpspeicherwerke sind nicht einmal mehr rentabel – auch sie müssen subventioniert werden. Für hunderte neuen Pumpspeicherwerke, die für die Energiewende gebraucht würden, gibt es in Deutschland gar keine Standorte, geschweige denn Investoren oder Akzeptanz.

Nicht umsonst hatte die Regierung die glorreiche Idee, norwegische Fjorde als Pumpspeicherwerke zu nutzen. Nur haben sie vergessen, die Norweger dazu zu befragen, und es ist sehr still um die Idee geworden. Auch die Sahara wurde leider den Deutschen nicht für die Energiewende zur Verfügung gestellt. Deshalb bleibt die Energiewende eine Rolle rückwärts in die Braunkohle. Die deutsche Regierung betreibt Energiepolitik basierend auf dem Prinzip Hoffnung, dass demnächst großtechnisch nutzbare Energiespeicher erfunden werden. Jede Woche wird eine neue Idee in den Medien gehypt, eine spinnerter als die andere. Die Projekte haben alle eines gemeinsam: Nach kurzer Zeit verschwinden sie aus den Nachrichten und werden durch neue Wunderwaffen für den Endsieg der Energiewende ersetzt. In Wahrheit steigt mit jedem neuen Windrad und mit jedem neuen Sonnenpaneel das Risiko eines Blackouts in Deutschland, dessen Folgen ich mir gar nicht vorstellen mag.

Der Frühmensch brauchte tausend Jahre, um das erste Feuer zu beherrschen. Die Kernenergie ist das zweite Feuer und erst im 50. Jahr ihrer Entwicklung. Wenn sie sicher, ökonomisch und kohlendioxidfrei Strom für die Menschen produzieren kann, dann steht sie erst am Anfang ihrer Entwicklung. Wenn sie das nicht kann, dann wird sie verdientermaßen untergehen. Wir werden sehen.

„Halbe Wahrheit ist ganze Lüge“

Ich schließe diese Artikelserie mit einem persönlichen Erlebnis ab, das ein bezeichnendes Licht auf die Haltung der deutschen Medien zur Atomenergie wirft. Vor drei Jahren wurde ich von einem seriösen Wissenschaftsredakteur zum Thema „Energie, Wohlstand und Freiheit“ befragt. Der Redakteur arbeitete für ein Magazin, dass sich damit brüstete, größten Wert auf Fakten zu legen. Als der Artikel in Druck ging, stoppte der damalige Chefredakteur den Andruck mit der Bemerkung: „Das ist ja kernenergiefreundlich. Das bringen wir nicht.“ Verärgert ließ der düpierte Journalist den Artikel in der Schweizer „Weltwoche“ veröffentlichen.

Wenn ein deutsches Magazin, das sich gern seiner Faktentreue rühmt, einen Bericht unterschlägt, weil ihm dessen Richtung nicht paßt, dann sind viele Fakten dieser Fukushima-Artikelserie vielleicht auch für Sie neu gewesen. Wie sagte der kluge Rabbiner? „Eine halbe Wahrheit ist eine ganze Lüge.“ Und „fake news“ sollen in Deutschland möglichst unterbunden werden. Was angeblich falsche Nachrichten sind, entscheidet dann womöglich ein Wahrheitsministerium (s. dazu auch hier und hier).

 




Klimawandel: „Dann wird es Hamburg nicht mehr geben“

Am 17. 12. 2016 um 15:28 Uhr gab der SPIEGEL unter obiger Überschrift die Warnung heraus „Hamburg in Gefahr“! Anders als im August 1986, als der Kölner Dom „unter Wasser“ gesetzt wurde ob des Schmelzens des arktischen Eises, wird nun als Quelle die Antarktis bemüht, deren „Mitteltemperatur“ unter -30 °C liegt. Quelle ist der PIK-Professor Anders Levermann. Mit jedem Grad „Erderwärmung“ steige der Meeresspiegel um zwei Meter: „Wenn das Zwei-Grad-Ziel nicht eingehalten wird, dann wird es irgendwann die Norddeutsche Tiefebene nicht mehr geben. Hamburg auch nicht.“ Und einen Zufluchtsort hätten die Hamburger auch nicht mehr, denn „Südspanien könnte zur Wüste werden“. Soll mit dieser Warnung etwa eine Warnung an die wachsende Schar von „Klimaflüchtlingen“ ausgesprochen werden, nicht mehr auf das sinkende Schiff „Deutschland“ aufzuspringen?

Dies ist wohl nicht beabsichtigt, denn die Kritik richtet sich an den PIK-Geldgeber, die Bundesregierung, deren „Klimaschutzplan 2050“ beim Zeitpunkt des Kohleausstiegs „völlig unpräzise“ bleibe. Nun, dass muss sie, um ihre eigene Existenz nicht auf’s Spiel zu setzen. In der FAZ vom 30. 11. 2016 schreib zwar Dr. Hans-Wilhelm Schiffer „Wind und Sonne mit stärkster Wachstumsdynamik“, aber daran glaubt wohl selbst nicht der Autor. Es deutet nichts darauf hin, dass die Sonne sich aufbläht und kurz vor dem Platzen steht. Und auch der Wind zeigt keine Tendenz zu „wachsen“, das heißt an Geschwindigkeit zuzulegen, um nicht nur 2000, sondern 4 oder 6 oder gar 8760 Stunden im Jahr so stark zu wehen, dass der Windstrom kontinuierlich dem Bedarf angepasst ins Netz fließen kann.

 

Donald Trump – „Einfach unkonventionell“ 

In der FAZ vom 9. 12. 2016 stellte Klaus-Dieter Frankenberger fest, dass auch auf dem Weg ins Weiße Haus Donald Trump den Außenseiter abgibt. Die globale und in den Medien tonangebende und die Manipulationshebel in der Hand habende links-intellektuelle Elite kann es immer noch nicht fassen und verkraften, dass Trump in den USA die Wahlen gewonnen hat. Wie blind muss man sein, noch Wochen nach dem Ereignis noch folgenden Satz zu formulieren:

„Die Nominierung eines erklärten Klimawandelleugners zum Direktor der Umweltschutzbehörde wiederum halten viele für einen bösen Witz.“

Ich kenne keinen halbwegs vernünftigen Mensch auf der Erde, der den Wandel des Wetters und damit den Wandel des „Klimas“ je geleugnet oder infrage gestellt hätte. Das Wort „Klimawandelleugner“ ist ein Kampfwort der Klimaschutzillusionisten, um diejenigen zu diskriminieren, die völlig zu recht und aus guten Gründen die „Treibhaushypothese“ ablehnen. Es wird höchste Zeit, dass die amerikanische Umweltbehörde EPA einen neuen Chef bekommt, der das CO2 vom Vorwurf, ein „Schadstoff“ zu sein, frei spricht. Und das „ohne wenn und aber“ oder „mangels Beweisen“. CO2 ist für alle grünen Pflanzen ein unverzichtbares Grundnahrungsmittel. Das pflanzliche, tierische und menschliche Leben hängt an der winzigen Zahl von 400 CO2 Molekülen pro 1 Million (1 000 000) Luftmolekülen.

Selbst die grüne Umweltschutz-Kampforganisation „GREENPEACE“ scheint einen Gesinnungswandel zu vollziehen. Von ihr erhielt ich unerwartet die übliche Weihnachtspost. Ich war völlig überrascht, auf dem grün-grauen Umschlag zu lesen „Querdenker gesucht!“ Doch das sollte sich als ein übler Werbescherz entpuppen, denn der Geschäftsführer Roland Hipp brüstete sich damit, dass Greenpeace am Ende der Pariser Klimakonferenz auf alle dem „Arc de Triomphe“ sternförmig zulaufenden Straßen mit gelber Öko-Farbe eine riesige Sonne gezaubert habe, um den Teilnehmern klar zu machen, dass „Erneuerbaren Energien die Zukunft gehört“.

Dabei ist 1. der Plural falsch und 2. das Adjektiv „erneuerbar“. Im Grunde gibt es nur eine einzige Energiequelle für die Erde, das „Licht“ oder die „Sonne“! Der Wind ist eine indirekte Energie, der sekundär entsteht durch die unterschiedliche Erwärmung der Erdkugel und die dadurch ausgelösten Druckunterschiede. Die Sonne genügt für die Energieversorgung der Erde: Sie hat genügend Potential! Doch der Mensch hat sich von einer anderen Energiequelle anhängig gemacht, dem elektrischen Strom. Was die Sonne nicht kann, ist, den gigantischen Strombedarf der Menschheit zu decken. Da muss man auf die deponierte Sonnenenergie, auf die fossilen Energien wie Kohle und Erdöl.

Und diese Energien würde es heute nicht geben, hätte die Atmosphäre nicht im „Karbonzeitalter“ das Vielfache an CO2 enthalten. Als die ersten „grünen Pflanzen“ in den Meeren entstanden und dann die Kontinente besiedelten, das „grüne Kleid“ der Erde schufen, da war die Luft ganz frei von Sauerstoff. Heute enthält unsere Atemluft 21 Prozent Sauerstoff. Da grüne Pflanzen die einzigen Sauerstoffproduzenten sind, muss die Luft zu Beginn des Photo-Synthese-Prozesses mindestens 21 % Kohlenstoffdioxid enthalten haben.

 

„O Tannenbau, o Tannenbaum, wie grün sind deine Blätter“

 

Dieses Lied ist eines der bekanntesten Lieder zur Weihnachtszeit. Können unsere Enkel, unsere Urenkel oder Ururenkel dieses Lied noch singen, wenn der CO2-Vernichtungswahn so anhält oder gar noch verstärkt und Klimaschutzwahn weitergeht?

 

In eine Presseerklärung des Bundesumweltministeriums vom 03. 11. 2016 jubelte die Ministerin Barbara Hendricks zum Inkrafttreten des Pariser Klimaschutzabkommens: „Das ist eine Zeitenwende für Klimaschützer. Der weltweite Klimaschutz bekommt ein Grundgesetz. … Und noch nie standen die Zeichen besser für den Schutz unseres Weltklimas.“ Im einfachen Hauruck-Umlaufverfahren ohne Beteiligung des Bundestages als Judikative beschloss am 14. 11. 2016 den Klimaschutzplan 2050: „Kabinett beschließt Wegweiser in ein klimaneutrales Deutschland“.

 

Da das Wetter in Deutschland absolut „wetterneutral“ war, ist, immer sein wird und weder einer Partei noch einer Parteienkoalition hörig ist, ist auch das von Wetter abgeleitete statistische „Abfallprodukt“ Klima natürlich „klimaneutral“. Das hat mit dem CO2-Gehalt nichts zu tun! Die Politik braucht nichts zu tun, aber uns Bürger kommt dieses Nichtstun sehr teuer zu stehen! Er wird unter hohlen Versprechungen brutal abgezockt, doch er ist im „Treibhaus“ gefangen und damit wehrunfähig.

 

Die überwiegende Mehrheit der Bürger steckt in der Medien-Falle, die Voltaire (1694-1778) wie folgt umschrieben hat: „Je öfter eine Dummheit wiederholt wird, desto mehr bekommt sie den Anschein von Klugheit!“ Es wäre die Plicht und läge auch in der Macht der Medien, der Angst vor der „Klimakatastrophe“ wie dem Wahn vom „Klimaschutz“ ein Ende zu bereiten.

 

Doch dazu müssten sie erst das werden, was sie immer vorgeben zu sein, frei! Sie sind nicht frei, weil sie glauben, an der politischen Führung partizipieren zu müssen. Aber das geht nur, wenn man seine „Gewissensfreiheit“ über Bord wirft und „Gesinnungstäter“ wird. Noch üben gelegentlich kleinere Blätter Kritik an der Klimapolitik, doch die Leitmedien und die öffentlich-rechtlichen Funk- und Fernsehanstalten verbreiten unkritisch alles, was politisch inszeniert und erwünscht ist.

 

Möge in den Medien 2017 die Einsicht wachsen, dass Kritikfähigkeit eine „freie Presse“ auszeichnet und nicht die vorauseilende politische Hörigkeit. Wenn Sie Weihnachten am 25. Dezember feiern, denken Sie daran, dass das Datum auf das römische Fest „Sol invictus“ (unbesiegbare Sonne) gelegt wurde. In einem ägyptischen Kalender wurde zum 25. Dezember vermerkt: „Geburtstag der Sonne; das Licht nimmt zu.“ Und mit dem „Lauf der Sonne“ ändert sich der Neigungswinkel der Sonnenstrahlen, ändern sich Wetter und -na ja- auch das „Klima“.

 

Immanuel Kant zu der Frage „Was ist Aufklärung?“

 

„Aufklärung ist der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Selbstverschuldet ist diese Unmündigkeit, wenn die Ursache derselben nicht am Mangel des Verstandes, sondern der Entschließung und des Muthes liegt, sich seiner ohne Leitung eines andern zu bedienen. Sapere aude! Habe Muth, dich deines eigenen Verstandes zu bedienen! Ist also der Wahlspruch der Aufklärung.

 

Faulheit und Feigheit sind die Ursachen, warum ein so großer Theil der Menschen, nachdem sie die Natur längst von fremder Leitung frei gesprochen, dennoch gerne Zeitlebens unmündig bleiben; und warum es Anderen so leicht wird, sich zu deren Vormündern aufzuwerfen. Es ist so bequem, unmündig zu sein. Habe ich ein Buch, das für mich Verstand hat, einen Seelsorger, der für mich Gewissen hat, einen Arzt, der für mich die Diät beurtheilt, u. s. w., so brauche ich mich ja nicht selbst zu bemühen.“

 

Ein Kämpfer für die Aufklärung war auch Voltaire. Von ihm stammt die ernüchternde Feststellung: „ Die Menschen sind in allen Jahrhunderten die gleichen geblieben“. Daraus folgt für ihn, dass auch ihr Denken und Handeln im Laufe der zeit, trotz sich ständig ändernder Lebensumstände kaum grundlegende Veränderungen unterworfen war. Und noch heute gilt wie je Voltaires Wort: „Die Idee der Gerechtigkeit ist so anerkannt, dass die größten Verbrechen, die die Menschengeschlechter heimsuchen, alle unter dem falschen Vorwande der Gerechtigkeit begangen wurden. Das größte, gewiss das verderblichste dieser Verbrechen ist der Krieg, aber nie hat es der angreifende Teil unterlassen, seinen Angriff durch einen Schein des Rechts zu beschönigen.“

 

Nach Aussage des ehemaligen US-Vizepräsidenten Al Gore befindet sich die Menschheit im „Klimakrieg“. Am 13. Dezember 2016 hat Prof. Dr. Hans Joachim Schellnhuber, der Vorsitzende des Wissenschaftlichen Beirats Globale Umweltveränderungen (WBGU), der Bundesumweltministerin Dr. Barbara Hendricks ein Sondergutachten „Entwicklung und Gerechtigkeit durch Transformation“ überreicht. Auch hier taucht verräterisch das Wort „Gerechtigkeit“ auf. Was hat „Klima“ mit Gerechtigkeit zu tun? Erst mit den Worten von Voltaire gewinnt die Forderung nach „globaler Klimagerechtigkeit“, die erstmals 2007 Angela Merkel als Bundeskanzlerin erhob, eine gefährliche Wendung.

 

Droht der „Klimakrieg“ um „globale Klimagerechtigkeit“ der bisher schlimmste aller Kriege zu werden, obgleich er lautlos ohne Waffen geführt wird? Voltaire wollte seine Zeitgenossen aufrütteln, wollte ihr Gewissen wachrufen. Er kämpfte gegen die stoische Gleichgültigkeit, mit der sie den Problemen ihrer Zeit gegenüberstanden. Das Problem ist nicht das „Klima“, denn dieses ist nur eine vom Wetter abgeleitete fiktive Größe. Der inszenierte Scheinkampf gegen das „Klima“ ist ein kräftezehrender aber aussichtsloser Kampf, sprichwörtlich eine Sisyphusarbeit! In dem fürchterlichen Wust an Weltbeglückungsideologien sind dringend große Geister wie Voltaire und Kant vonnöten. In diesem Sinne alles Gute für 2017.

 

Oppenheim, den 21. 12. 2016

Dipl.-Met. Dr. phil. Wolfgang Thüne




Die Chemikalien-Angstmaschine

Wie ich in einem früheren Beitrag schon geschrieben habe, hat der staatliche Toxikologe von North Carolina Ken Rudo öffentlich der EPA in den USA und anderen „Gift“-Experten widersprochen, die gesagt hatten, dass der Gehalt von Chrom-6 sicher ist, welcher in einigen Gewässern in North Carolina entdeckt worden ist. Die Kontamination stammt aus Ablagerungen von Kohlenasche und anderen Quellen.

Wenig überraschend ist Erin Brockovich Dr. Rudo zur Seite gesprungen. Sie wurde reich und berühmt mit ihrer Angstmacherei vor „giftigem Chrom“, war vor Kurzem Mitautorin eines Briefes der radikalen Arbeitsgruppe, die die Cr-6-Alarmtrommel gerührt hat und wird am Wahlabend am Catawba College in North Carolina die Sache noch weiter hoch kochen.

Das Thema spielt auch in der Gouverneurs-Kampagne von North Carolina eine prominente Rolle. Der Kandidat der Demokraten Roy Cooper sagte, dass Brunnenwasser unsicher ist, und verurteilt das Duke Energy Energieunternehmen wegen dieser Ablagerungen sowie den jetzigen Gouverneur Pat McCrory (der einst für Duke arbeitete) dafür, eine Anordnung „nicht trinken“ widerrufen zu haben.

Nicht außen vor lassen sollte man die Behauptungen der U.S. Commission on Civil Rights (USCCR), denen zufolge Chrom-6 aus Ascheablagerungen entweicht, die Trinkwasserversorgung gefährdet und ärmere Familien „unverhältnismäßig stark betrifft“. Gemeinden in der Nähe von „Abfallhalden“ und „industriellen“ Einrichtungen weisen „extrem hohe“ Raten von Krebs-, Herz und anderen Krankheiten auf, heißt es in einem Bericht der Kommission, in dem jene Einrichtungen mit Kohlenasche-Deponien in einen Topf geworfen werden.

Die verunreinigen Substanzen geraten in Grund- und Trinkwasser und sogar in „der Erholung dienende Gewässer“, die „stark frequentiert werden durch Fischfang, Boot fahren und baden“, heißt es in dem Kommissionsbericht. Das Problem „erstreckt sich meilenweit“ um Gemeinden in der Nähe von Kohlenasche-Lagerstätten, welche „in unverhältnismäßig großer Zahl in Gemeinden mit geringem Einkommen oder solchen, die von Minderheiten bewohnt sind, liegen“. Dies macht die Angelegenheit zu einem Thema der Bürgerrechte, das die Regierung aufgreifen muss.

Das USCCR möchte, dass die EPA und das North Carolina Department of Environmental Quality (NCDEQ) die Implikationen bzgl. der Bürgerrechte untersuchen, dass Kohlenasche als „gefährlicher Müll“ klassifiziert wird, dass Versorgungsunternehmen gezwungen werden, Deponien anderswohin auszulagern und dass die Menschen für Gesundheits-Aufwendungen und Landentwertung entschädigt werden.

Ein überzeugender und gut dokumentierter Widerspruch von Kommissionsmitglied Gail Heriot (pages 113-142 of the report) zerschlägt die Behauptungen des USCCR. Ihre Analyse verdient breite Aufmerksamkeit, sowohl hinsichtlich umweltlicher als bürgerrechtlicher Belange. Außerdem legt sie offen, wie manche Menschen diese Behauptungen absichtlich dazu nutzen, rassistische Animositäten zu erzeugen.

Niemand in der Kommission, schreibt sie, hat irgendwelches Hintergrundwissen bzgl. Mülldeponien, Toxikologie, Epidemiologie oder Medizin. Folglich waren sie gar nicht befugt, irgendwelche Verkündigungen hinsichtlich der Giftigkeit von Kohlenasche abzugeben. Es gibt „starke“ Beweise, dass Kohlenasche-Lagerstätten „nicht unangemessen nahe rassischen Minderheiten“ angelegt worden sind. Wirft man Kohlenasche mit anderen, tatsächlich giftige Chemikalien enthaltenen Dingen zusammen und macht dann allein Kohlenasche für Vorfälle verantwortlich, ist das unredlich und ungültig.

Miss Heriot stört auch, dass der Chef des USCCR Martin Castro gesagt hatte, Gemeinden in North Carolina seien „Opfer von Umweltrassismus“ geworden. Diese Art „aufwieglerischer Vorwürfe“sind unangebracht, sagte sie, „und fachen die Flammen rassistischer Ressentiments an“, und zwar nur auf der Grundlage unzureichender oder falscher Informationen.

Interessanterweise ergaben Tests im Jahre 2014 durchweg einen Gehalt von Cr-6 in der Wasserversorgung von 0,07 part per Billion. Angesichts dieses Gehaltes war es völlig unnötig, „Nicht-Trinken“-Gebote auszusprechen, berichtete Greensboro News & Record. Allerdings konnte bei Tests im Mai 2016 diese Chemikalie nicht einmal in Spuren entdeckt werden, hieß es in dem Bericht.

Der 0,07-ppb-Standard ist äquivalent zu 6 Sekunden in 3300 Jahren. Der Sicherheitsstandard der EPA und des NCDEQ für Cr-6 in Trinkwasser liegt bei 100 ppb, und ein Wissenschaftspaper aus dem Jahr 2012 im Journal of Applied Toxicology kam zu dem Ergebnis, dass Trinkwasser mit 220 ppb keinerlei Gesundheits- oder Krebsrisiko darstellt. Dieses sichere, ungiftige Niveau von 220 ppb liegt 3000 mal höher als der Gehalt von 0,07 ppb, der zu der Warnung geführt hatte.

Es gibt keinen Beweis, dass das im US-Trinkwasser gefundene Cr-6 irgendeines der auf dem Waschzettel des USCCR stehenden Gesundheitsprobleme verursacht hatte. Was das EWG betrifft – wenn es sagt, dass der kaum erkennbare Gehalt von 0,02 ppb in Wasser gefährlich oder Krebs erregend ist, das 218 Millionen Amerikaner jeden Tag trinken, ist das unredlich und aufwieglerisch. Außerdem ist Kohlenasche zumeist inert, wobei die meisten metallischen Komponenten in winzigen Mengen vorliegen und/oder fest in kristallinen Sandpartikelchen eingeschlossen sind. Kaum etwas entweicht. Und Chrom-6 kommt natürlich in Gestein und Böden in den gesamten USA vor. Es ist nicht nur ein Nebenprodukt von Kohle verbrennenden oder industriellen Prozessen.

Das Konstruieren schwerer Gesundheitsbedenken durch so geringe Cr-6-Gehalte wie 0,02 oder 0,07 ppb in Trinkwasser ist grundlos; die Behauptung, dass dessen Gehalt in Gewässern in Erholungsgebieten Auswirkungen auf die Gesundheit habe, ist absurd. Tatsächlich brandmarkt der EPA-Direktor von Ohio die EWG-Behauptungen als „Angstmache“, um Geld einzuheimsen.

All dies zeigt, dass die Behauptungen von USCCR und EWG nichts als Teil einer Kampagne sind, Kohlekraftwerke zu eliminieren nebst des zuverlässigen und bezahlbaren Stromes, den sie erzeugen. Die Behauptungen können auch als Plattform dienen für weitere abgekartete Gerichtsverfahren zwischen der EPA und Umweltgruppen – wobei all jene, die am meisten betroffen sind, keine Gelegenheit zur Aussage haben und kein Mitspracherecht hinsichtlich des Ergebnisses.

Versorgungsunternehmen zu zwingen, Milliarden auszugeben, um große Aschedeponien zu verlagern in „wasserdichten Müllhalden“ (im Hinterhof von irgendjemand anderem) bringt keine Gesundheits- oder Umweltvorteile. Aber es wird Unternehmen in den Bankrott treiben, es wird die Strompreise explodieren lassen, in unserer Wirtschaft nachhallen und zu wirklichen zivilrechtlichen Problemen führen. Miss Heriot: „Die Energiekosten in die Höhe zu treiben, hat seine eigenen unvereinbaren Auswirkungen“ auf Familien von Minderheiten.

Schwarze und hispanische Familien geben einen um 10% bis 50% größeren Anteil ihres Einkommens für Heizen, Air Conditioning, Licht und andere Stromkosten aus als weiße Familien. Das sagt der Präsident des National Black Chamber of Commerce Harry Alford. Sie sind auch anfälliger für noch niedrigere Lebensstandards und verlieren sogar ihre Arbeit, wenn Arbeitgeber auf die höheren Strompreise mit mehr Entlassungen reagieren.

Falls sich die Raten verglichen mit den derzeitigen Kosten in von Kohle abhängigen Staaten wie North Carolina und Virginia (9 cent pro kwh) verdoppeln auf das Niveau der Anti-Kohle-Staaten New York (16 cent) oder Connecticut (17 cent), müssen arme Familien jedes Jahr 500 bis 1000 Dollar zusätzlich für Strom ausgeben. Krankenhäuser, Schulen, Fabriken und Geschäfte werden Tausende, Zehntausende oder Millionen zusätzlich ausgeben müssen. Woher soll das ganze Geld kommen?

Werden Unternehmen Dutzende oder Hunderte Arbeiter entlassen oder ihre Türen gleich ganz schließen? Falls sie die Kosten an die Verbraucher durchreichen – wo sollen die Familien das zusätzliche Geld hernehmen? Falls Krankenhäuser ihren Service zurück schrauben oder die Kosten erhöhen – wie wird sich das auf die Kosten für die Patienten auswirken? Werden das EWG und das USCCR finanzielle Hilfen anbieten? Wohl kaum.

Notwendigerweise sind Krankenhäuser energieintensiv. Ein normales US-Krankenhaus verbraucht 31 kwh Strom pro Quadratfuß pro Jahr. Für große Komplexe wie das 665.000 Quadratfuß [ca. 60000 m²] große Inova Fairfax Women’s and Children’s Hospital in Northern Virginia bedeutet dies 1,855 Millionen Dollar pro Jahr bei 9 cent pro kwh, aber 3,505 Millionen bei 17 cent pro kwh. Die Zusatzkosten betragen also 1,6 Millionen Dollar.

… [Es folgen weitere Beispiele für Zusatzkosten von 1 bis fast 3 Millionen Dollar. Anm. d. Übers.]

Diese Kostensteigerungen würden zu Verlusten von Arbeitsplätzen und reduzierter Pflege von Patienten führen. Jetzt versuche man sich die Auswirkungen vorzustellen auf Schulen, Fabriken, Kirchen, Lebensmittelläden, Einkaufszentren und tausende anderer große Stromverbraucher – um gegen Gesundheitsprobleme vorzugehen, die ausschließlich in den Gehirnen einiger weniger Aktivisten existieren.

Der Krieg gegen Kohle, Petroleum, Kern- und Wasserkraft ist ein öko-imperialistischer Krieg gegen zuverlässigen und bezahlbaren Strom – und gegen arme Familien und Minderheiten. Eine Politik, die die Strompreise in die Höhe treibt, Menschen ihre Arbeitsplätze verlieren lässt, Unternehmen bankrott gehen lässt und Familien in Grüne-Energie-Armut treibt.

Und trotzdem werden diese wirklich fundamentalen „Bürgerrechte“ und „Umwelt-Gerechtigkeit“ kaum einmal angesprochen durch USCCR, EWG, EPA und NAACP; von der Demokratischen Partei oder irgendwelchen selbst ernannten „Bürgerrechtsführern“. Zu viele von ihnen agieren auch gegen Extraschulen für Kinder von Minderheiten, die in öffentlichen Schulen unterdrückt werden, und gegen Maßnahmen zur Schaffung von Arbeitsplätzen in Minderheiten-Gemeinden. Wird der gesunde Menschenverstand jemals wieder vorherrschen?

Link: http://www.cfact.org/2016/10/22/the-chemicals-anxiety-machine/

Übersetzt von Chris Frey EIKE




Windkult-Propagandisten fahren fort, auf Schulkinder einzuwirken – Teil 2

Jener Beitrag erntete viel Zustimmung in Kommentaren auf Facebook, Twitter und in der Kommentarfunktion des Beitrages selbst. Allerdings hat eine Autorin, die offensichtlich verantwortlich ist zumindest für einen Teil der Propaganda, die wir ans Tageslicht gebracht haben – sie nennt sich selbst ,Tante‘ Emily – folgenden Kommentar gepostet:

Ich habe gesehen, dass Sie einen Link zu meinem Blog und zu ,Timmy The Turbine‘ genannt haben – ich bin die Autorin, die beauftragt worden ist, Timmys Geschichte in einem Schul-Workshop zu schreiben. Ursprünglich ist sie geschrieben worden vom Direktor eines Windturbinen-Unternehmens, und ich war glücklich, an diesem Projekt mitarbeiten zu können, weil es unverzerrt war und die Probleme mit Turbinen beschrieben hat oder einen Aufstellort für sie zu finden.

In der Story geht Timmy zu drei Stellen und kann nicht bleiben – eine liegt zu nahe beim Haus eines Anwohners, eine Nonnengans wollte ihn nicht dulden, weil er auf der Flugroute der Gänse stand, und ein Eichhörnchen wollte ihn nicht dulden, weil er einen Nationalpark verschandeln würde. Sein letztendlicher Ort ist auf See, weg von Häusern und weg von fliegenden Gänsen und dem Nationalpark. Die Kinder haben ein Hausaufgaben-Blatt bekommen mit den vier Stellen, und sie zeichneten Timmy in seinem Zuhause – also geht es in dem Workshop darum, die richtige Stelle zu finden.

Ich hatte Anteil am Anstoßen dieses Vorgangs, und der größte Teil der Rückmeldungen von Lehrern (die es übrigens sehr begrüßten!) hatte den Tenor, dass wir mehr zu grüner Energie und deren Vorteilen bringen sollten, weil dies in Öko-Schulen schon gemacht wird, usw. Wir haben sorgfältig Verzerrungen vermieden, damit jeder an den Vorteilen grüner Energie teilhaben kann.

Ich bin echt überrascht von diesem Blog und würde eine genauere Präsentation der Fakten begrüßen, falls Sie meinen Blog oder den Timmy-Workshop verlinken. Dieser Beitrag bietet alle Informationen zur Entstehung der Story und hält auch ein Aufgabenblatt für die SchülerInnen bereit, welches sie nach Hause nehmen können. Damit sollen sie sehen, an welchen drei Orten eine Turbine nicht stehen kann, und wo sie stehen sollte:

https://auntyemily.wordpress.com/2014/05/22/timmy-the-turbine-on-tour/.

Das Blatt für zuhause stellt sicher, dass es Gespräche gibt, wenn das Kind nach Hause kommt. „Timmy kann dort nicht bleiben, weil die Gans Honker sich den Kopf an den Rotorblättern stoßen würde“, und sie lernen auch, wie man aus Wind Strom macht. Seit ich mit diesem Projekt angefangen habe, gab es im Edinburgh International Science Festival Workshops bei der Royal Highland Show. Ich hoffe, dass dies nützliche Informationen sind.

Danke, Emily

,Tante‘ Emily (sie ist in Wirklichkeit keine Verwandte) erklärt, dass sie „glücklich, an diesem Projekt mitarbeiten zu können, weil es unverzerrt war und die Probleme mit Turbinen beschrieben hat oder einen Aufstellort für sie zu finden“, was dem geübten Auge zu vermitteln tendiert, dass Emily das Spiel aus der Hand gibt. Emily will eine „genauere Präsentation der Fakten“. Nun, Emily, hier sind diese Fakten, völlig kostenlos für dich.

Im Jahre 2016 muss jedes denkende Wesen, das immer noch über Aufstellorte von Windturbinen an der „richtigen Stelle“ redet, die Energie-Debakel, die sich an Orten wie Südaustralien, UK, Deutschland und Spanien ereigneten, vollständig verschlafen haben.

Nicht, dass ich Träumer wie Emily irgendwie retten will, aber zum Vorteil Anderer werden wir unser Anliegen deutlich machen.

Wie Schwester Maria sang: „Let’s start at the very beginning, a very good place to start”. [Etwa: Am Anfang zu beginnen ist gut].

Windenergie ist keine bedeutsame Quelle zur Energieerzeugung und wird es auch niemals sein – aus all den zahlreichen Gründen, die auf dieser Website Tag für Tag offen gelegt werden.

Man stelle sich ein Land vor, deren Energieversorgung ausschließlich auf Erzeugung durch Windkraft basiert; ein Ort, an dem die Geschäftsbereiche versuchen würden, den Launen des Windes hinterher zu rennen; wo Häuser ausgiebig mit Kerzen bestückt sind und deren Bewohner mit Kerosin-Kühlschränken oder Eiskisten allein gelassen werden – und wo die gleichen Bewohner von Holz, Reisig oder Dung abhängig sind zum Kochen und Heizen. Hört sich spaßig an, nicht wahr?

——————————————

Was ein wenig zuverlässige Energie tun könnte…

——————————————

Sobald jenes Land die Gelegenheit dazu hat (infolge der Verfügbarkeit einer entsprechenden Technologie und/oder als ein Prozess wirtschaftlicher Entwicklung), würde es ein System auf der Grundlage aller verfügbaren Energie-Erzeugungsquellen installieren, welches „Strom auf Nachfrage“ liefert (z. b. Kohle, Gas, Wasser, Geothermie).

Das Volk jenes Landes wäre dann in der Lage, sich an Beleuchtung rund um die Uhr zu erfreuen, Fabriken könnten nach der Uhr arbeiten und nicht nach dem Wetter, Wohnungen würden geheizt oder gekühlt je nach Bedarf der Bewohner, das Leben würde sicherer und komfortabler werden (niemand muss mehr erfrieren oder sich von Wärme verabschieden, nur weil der Wind zu wehen aufgehört hat). Ökonomische Entwicklung und Wohlstand würden so sicher folgen wie die Nacht auf den Tag folgt.

Betrachtet man das Ganze im Zusammenhang mit den Bedürfnissen einer funktionierenden Gesellschaft, kann Windenergie als der patente Blödsinn angesehen werden, was sie eindeutig ist. Falls ein Land kein konventionelles Energiesystem hat (so wie wir), würde es sich eines einrichten – klarer Fall!

Haben die Menschen diese Tatsache erst einmal kapiert, fällt der gesamte Rest des ,Falles‘ Windindustrie in sich zusammen.

Das Gerede über „Windparks an der richtigen Stelle“ klingt einfach nur dumm – also abseits von Wohnungen, getrennt von Vogelnestern oder Routen von Zugvögeln usw., usw.

Alle diese anderen Überlegungen – obschon legitim – verziehen sich einfach an die Peripherie und verwässern die Stärke des Hauptargumentes.

Bekommen die Menschen auch nur eine Ahnung von der Sinnlosigkeit von Wind als Energiequelle, fällt der Rest weg.

Welcher vernünftige Entscheidungsträger würde sich hinter eine Politik stellen, die etwas bevorzugt, was keinerlei ökonomische Vorteile mit sich bringt?

Daraus folgt: da die zentrale Behauptung, dass Windenergie die CO2-Emissionen im Stromsektor reduziert, komplett falsch ist, sieht die Rechtfertigung für die hunderte von Milliarden Dollar an Subventionen für die Windenergie wie reiner Wahnsinn aus, im besten Falle – oder im schlimmsten Falle wie Schiebung und Bestechung (lies ,Vetternwirtschaft‘).

Was die Windindustrie am meisten hasst sind Fakten.

STT [dieser Blog] listet diese Fakten auf täglicher Basis. Die oben umrissenen Fakten – und diejenigen, welche wir schon viele Male zuvor beschrieben haben – sind genau das: unbestreitbare Tatsachen.

Windenergie ist Betrug, schlicht und ergreifend.

Menschen wie Tante Emily sind Teil des Problems, nicht Teil der Lösung. Was Emily und ihresgleichen tun ist einfach, dass sie junge und leichtgläubige Menschen einer Gehirnwäsche unterziehen und deren Gehirne mit reiner Phantasie füllen.

Aus irgendwelchen unerfindlichen Gründen sagt sie in ihrem Märchen über Timmy ihren jungen Lesern nirgendwo, woher der Strom kommen soll, wenn der Wind zu wehen aufhört (Tipp für dich, Emily: es wird eine Kohle- oder Gaskraftwerk sein – oder, falls du Glück hast, ein Kernkraftwerk).

Auch hat ihre geistlose Ode an Timmy nichts zu den Bergen giftigen Abfalls zu sagen, die in China angehäuft werden, wo seltene Erden aus der Erde gebuddelt werden, die man für die Magnete in den Generatoren braucht.

Tante Emily schwadroniert über „eine genauere Darstellung der Fakten“, aber, komischerweise, findet sich kein Bisschen davon in ihrem ,mit Fakten angefüllten‘ Handbuch für Lehrer über die mehreren hundert Fälle, wenn Timmys Cousins routinemäßig ihre 10-Tonnen-Rotorblätter nach den vier Winden strecken oder ohne Vorwarnung in giftigen, schrecklichen Feuerbällen explodieren.

Und komischerweise findet sich im Märchen über Timmys Possen von ,Tante‘ Emily kein einziges Wort über die Millionen Vögel und Fledermäuse, welche zerschmettert und erschlagen werden, egal wo man diese Dinger aufstellt.

Der Fairness halber muss man jedoch sagen, dass sie zumindest die seltene Möglichkeit einräumt, dass eine eigensinnige Gans namens ,Honker‘ eine ,Kopfnuss‘ bekommt (in Emilys keimfreier Version des Abschlachtens von Flugtieren in der realen Welt wäre Honkers Begegnung mit der Windindustrie zweifellos mit einer Schmerztablette heilbar).

Propaganda ist und bleibt Propaganda, ganz egal, von wem sie kommt: grinsende Medien, geübte PR-Strategen oder krankhaft süße, künstliche ,Tanten‘, die die Jungen und Unschuldigen verwirren – es ist immer das Gleiche und zielt darauf ab, einer Industrie eine politische Lizenz zu verschaffen, die existiert und ausschließlich existiert auf der Grundlage massiver (und notwendigerweise endlosen) Subventionen der Steuerzahler und/oder der Stromrechnungen bezahlenden Kunden.

Aber es ist nicht Tante Emilys Schuld; sie ist lediglich ein Symptom eines Bildungssystems, in dem es nur noch darum geht, wie wir uns fühlen, und nicht mehr darum, was wir über die reale Welt wissen sollten (z. B. wie Energie erzeugt und übertragen wird); und auch nicht darum, was wir tun sollten, um Anderen ein besseres Leben zu ermöglichen (d. h. sie zuverlässig verfügbar zu machen zu einem Preis, den jedermann bezahlen kann).

Tante Emily und ihre Kumpane besetzen einen Bereich frei von Fakten und Konsequenzen, glückselig, ohne sich von solchen Fakten stören zu lassen; und sie operieren ohne die geringste Ahnung, wie Strom erzeugt und in ihre Wohnungen geliefert wird, 24 Stunden an 356 Tagen, bei Regen, Hagel oder Sonnenschein.

Die Schulen in der westlichen Welt haben schon vor langer Zeit den Begriff ,Tough Stuff‘ wie für Physik, Mathematik und Ökonomie aufgegeben – und Platz gemacht für gefühlsduseligen Unsinn über Selbsterkenntnis (in Australien geht es bei der jüngsten cleveren Idee darum, dass neunjährige Schulgören [goers] ihr bevorzugtes Geschlecht ,wählen‘ – es gibt offenbar eine ,Auswahl‘-Liste, auf der viel mehr steht als die üblichen zwei).

An kindlicher Phantasie ist nichts Unrechtes. Aber in einem gewissen Stadium sollten wir alle erwachsen werden.

Es ist höchste Zeit, dass auch Tante Emily erwachsen wird.

Link: https://stopthesethings.com/2016/09/24/wind-power-cult-propagandists-continue-preying-on-school-kids/

Übersetzt von Chris Frey EIKE




„Klimaforschung“ – eine Spielvariante der Zukunftsforschung – Was ist „Zukunftsforschung“, was kann sie leisten?

„Klimaforschung“ – eine Spielvariante der Zukunftsforschung

Was ist „Zukunftsforschung“, was kann sie leisten?

Schon zu Anfang stellte der Mensch fest, dass er in die Rhythmen der Natur eingebunden ist, sich ihnen anpassen muss! Die Stern- und Kalenderforschung standen am Anfang aller Forschung wie deren Zusammenhang mit dem jährlichen Wetterablauf und dessen Einfluss auf das Pflanzenwachstum. Die „Bauernregeln“ bis hin zum „Hundertjährigen Kalender“ seien ein Hinweis.

Wenngleich seit jeher „das Morgen“ den Menschen ob seiner Neugier interessierte, so waren seine Möglichkeiten, in die Zukunft zu schauen, eher begrenzt und beschränkten sich auf Horoskope und Wahrsagerei. Die „Zukunftsforschung“ ist neuesten Datums, konnte sich aber nicht etablieren, weil der „Zufall“ nicht berechenbar ist. Wikipedia definiert sie als die „systematische und kritische wissenschaftliche Untersuchung von Fragen möglicher zukünftiger Entwicklungen“, beschränkt auf den „technischen, wirtschaftlichen wie sozialen Bereich“. Der natürliche Bereich ist ausgeschlossen und dazu gehört zweifelsohne das Wetter. Es ist ein „Sorgenkind“, weil es sich jedweder exakten räumlichen wie zeitlichen Vorhersage entzieht und daher zu den „chaotischen Naturvorgängen“ zählt.

Die „Zukunftsforschung“ entstand im Jahr 1943 in den USA. Ihr Begründer war Ossip K. Flechtheim (1909-1998), der an Horkheimers Institut für Sozialforschung der Columbia University in New York arbeitete. Er konstruierte die „Futurologie“ als „Synthese aus Ideologie und Utopie“ und machte klar, dass kein Anspruch auf „Wissenschaftlichkeit“ erhoben wird. Dieses ehrliche Bekenntnis wurde jedoch bald Opfer politischer Hybris, die seit je „Allmachtsansprüche“ hegt und pflegt. Zum Hauptzweck wurde die Erarbeitung gesellschaftlicher wie politisch-spekulativer Trends und Zielprojektionen, um über beliebig konstruierte „Zukunftsentwürfe“ soziale Ängste wie Stimmungen erzeugen und manipulativ politisch instrumentalisieren zu können. Die Politik fand nur zu leicht willfährige Helfer in den Wissenschaften.

Von der Zukunftsforschung illegal in die „Klimaforschung“

Mit der „Futurologie“ befassten sich in Deutschland vornehmlich zwei Physiker. Wilhelm Fucks (1902-1990) beschäftigte sich unter anderem mit der zukünftigen Entwicklung der globalen Machtverhältnisse und schrieb 1965 sein berühmtes Buch „Formeln zur Macht“. Er leitete das „Institut für mathematisch-empirische Sozialforschung“ in Aachen. Karl Steinbuch (1917-2005) gilt als „Haupttheoretiker der informierten bzw. falsch programmierten Gesellschaft“. Seine Bücher waren 1966 „Die informierte Gesellschaft“, 1968 „Falsch programmiert“, 1973 „Kurskorrektur“. Von Steinbuch stammt der Satz: „Das menschliche Gehirn ist nicht geschaffen, rationale Prozesse zu veranstalten, sondern das Überleben des Organismus zu bewirken.“ Und was ist leichter, als eine heile Welt im „Klimagleichgewicht“ zu versprechen?

Die Beschäftigung mit der Zukunft erfordert eine strenge Unterscheidung zwischen tatsächlichem Wissen und Glaube, Abschätzung und Vermutung, Extrapolation und Spekulation. Schon Platon und Kant bemühten sich diesbezüglich um Differenzierung. Von Platon stammen das Liniengleichnis, das Sonnengleichnis und das Höhlengleichnis. Die Höhle versinnbildlicht die Welt. Sir Francis Bacon (1561-1626) verglich klug die Schattenbilder mit menschlichen Vorurteilen, mit irrigen Vorstellungen. Jeder Mensch habe seine eigene Höhle, die das Licht der Natur bricht und verdirbt. Das erinnert schon an die heutige „Neuropsychoanalyse“, die das „narrative Selbst“ erforscht und der Frage nachgeht, wie unbewusste neuropsychische Prozesse unser Denken, Fühlen und Handeln steuern. Man sucht nach „verborgenen Determinanten“, nach den unbewussten Prozessen, die außerhalb der willentlichen Kontrolle der Betroffenen ablaufen und unser Verhalten lenken. Wenn wir aufgrund der Hirnstruktur auch nicht selbst die unbewussten Vorgänge in uns kontrollieren können, so könnten wir mutig unseren Handlungsspielraum erweitern, indem wir uns von selbst auferlegten Denkverboten befreien. Und davon gibt es in der modernen Medienlandschaft eine Unmenge.

Jedes Verstehen setzt eine Konstruktion unseres Geistes dar und führt uns an unsere kognitive Leistungsfähigkeit bei dem Bemühen, Bedeutung und Sinn bei den ständigen Veränderungen durch äußere Einflüsse zu erfassen. Leichtfertig überlassen wir der Politik die „Konstruktion“ der Welt. Irgendwo ist jeder in Strukturen eingebunden nach dem Motto „Ich bin vernetzt, darum bin ich!“ So ein „Netz“ ist wie ein Spinnengewebe, dem nur mit ganz gewaltigen Anstrengungen zu entrinnen ist. Gelingt der Befreiungsakt, ist man sofort der Kälte sozialer Einsamkeit ausgesetzt als Strafe für nicht konformes Verhalten. „Querdenker“ droht der mediale Pranger. Der uns ständig beobachtende, uns verfolgende und über uns thronende „Zeitgeist“ ist sehr wachsam und unerbittlich. Er signalisiert uns, wenn wir im „Abseits“ stehen und pfeift uns öffentlich zurück.

Wie man eine Zukunft konstruiert und diese aus einer fiktiven Vorstellung in die reale Welt projiziert, erleben wir auf internationaler Ebene in der „Klimaforschung“, in der „Klimapolitik“ mit dem aussichtslosen Bemühen, das Klima zu schützen und damit den Klimawandel zu stoppen. Klimaexperten haben ein „mathematisches Objekt“ geschaffen, dessen Existenz erst durch seine Konstruktion begründet wird.  Die „Globaltemperatur“ ist solch ein „Objekt“. Sie ist eine abgeleitete abstrakte Größe, ein Konstrukt ohne Existenz. Das Wetter ist ein realer Naturvorgang. Dagegen ist „Klima“ nicht existent und wird nur durch seine Konstruktion begründet. „Klima“ wurde vom Menschen definiert und diese Definition kann jederzeit mehrheitlich verändert werden. „Klima“ ist Menschenwerk, so gesehen „menschengemacht“. Dies lernte man in der Schule im Fach Geographie bei der Besprechung der „Klimakarten“ in den Schulatlanten. Das „Azorenhoch“ im Juli wie das „Islandtief“ sind menschengemachte statistische Scheingebilde, die keinerlei Bewegung zeigen. Sie sind ortsfest im Gegensatz zu den ständig ziehenden und vergänglichen Hoch- und Tiefdruckgebieten. Die Klimakarten sind „Dauerkarten“ im Vergleich zu den sich täglich verändernden Wetterkarten.

Neben der realen Wetterwelt mit ihren Überraschungen und Fehlprognosen ist eine „Klimawelt“ konstruiert werden, deren Existenz mit Hilfe von Computermodellen und Simulationen nur vorgetäuscht wird, die aber dennoch auf der politisch-sozialen Ebene eine starke „Wirkmacht“ auf uns ausübt, so dass viele Menschen fest daran glauben, den „Klimawandel“ spüren, sogar sehen können und sich ängstigen. Ich gehöre nicht zu den begnadeten Wesen, die den Unterschied zwischen den „Globaltemperaturen“ von 14,85°C im Jahr 2015 und der von 14,84°C im Jahr 2014 am eigenen Leib spüren.

Das „Globalklima“ ist ein abstraktes Konstrukt aus Sonnen- und Höhlengleichnis

Mit seinem „Liniengleichnis“ zeigte Platon auf, wie wir über „Abbilder“, die sinnlich wahrnehmbaren Dinge und „mathematische Konstrukte“ zu unseren Ideen gelangen. Mit dem „Sonnengleichnis“ versuchte Platon, das Gute gleichnishaft zu veranschaulichen. So wie die Sonne im Bereich des Sichtbaren als Quelle allen Lebens die alles beherrschende Macht ist, so herrscht in der geistigen Welt das „Gute“ als Quelle von Wahrheit und Wissen. Im „Höhlengleichnis“ versinnbildlicht Platon die Welt als Höhle. Schattenbilder beherrschen unsere Vorstellungen, obgleich wir längst im Weltall Raumstationen und Satelliten positioniert haben, von denen wir die Erdkugel von außerhalb der „Höhle“ direkt im Lichtkegel der Sonne sehen können.

Exemplarisch für die blinde Rückständigkeit der weltbesten Klimaexperten, die in den als Schiedsgericht fungierenden Weltklimarat IPCC der UNO entsendet wurden, sei gezeigt, wie diese die Erde sehen. Wie von Platon beschrieben, sehen sie in der finsteren Höhle die Erde auf der Projektionsfläche als dunklen kreisrunden Schatten als Scheibe mit der Fläche πr2. Sie fehlinterpretieren diese Beobachtung und sagen, dass die Erde als „Querschnittsfläche“ von der Sonne beschienen werde. Niemand erhebt Widerspruch. Dann fällt den Experten ein, dass die Erde eine Kugel ist, deren Oberfläche der 4-fachen der Kreisfläche entspricht. Nun machen sie folgende simple mathematische Berechnung. Sie nehmen die „Solarkonstante“ von S = 1368 Watt/m2 und teilen diese durch 4. Damit verteilen die Experten die auf die Erdscheibe eingestrahlte Sonnenenergie rechnerisch gleichmäßig über die Erde und erhalten eine Bestrahlung der Erdkugel von S = 342 Watt/m2. So verschwindet die frei im Weltall ihre Bahnen ziehende Erde in der kalt gerechneten „hohlen“ Sonne, die wie eine Hülle um die Erde gewickelt ist. Wer hier nicht massiv Widerspruch erhebt und den Experten glaubt, ist ihnen ausgeliefert!

Die Erde ist ein Himmelskörper, der täglich um seine eigene Achse rotiert und sich jährlich um die Sonne dreht. Im Wechsel der Tageszeiten wie der Jahreszeiten wird die Erdoberfläche unterschiedlich bestrahlt und erwärmt. Alles Leben auf der Erde richtet sich danach. Wer die Erde in eine Hohlraumsonne steckt, nimmt die Wirklichkeit nicht wahr, lebt in einer irrealen „Umwelt“. Dem Zwang ihrer Logik folgend nehmen die Klimaexperten die Stefan-Boltzmann-Gleichung S = σ T4, um die Temperatur der Erde in Kelvin (°Celsius + 273) zu berechnen. T bestimmt S und umgekehrt. Diese Gleichung wurde für einen „idealen schwarzen Körper“ entwickelt. Der „schwarze Körper“, der zugleich optimaler Empfänger wie Sender von elektromagnetischer Strahlung ist, wurde 1860 von Gustav Kirchhoff (1824-1887) als „idealisierte thermische Strahlungsquelle“ definiert. Die Idealisierung besteht darin, dass solch ein „Körper“ alle auf ihn treffenden elektromagnetischen Strahlen aller Wellenlängen vollständig absorbiert, sich optimal erwärmt. Seine eigene Wärmestrahlung emittiert er auch vollständig, wobei sie nach Intensität und spektraler Verteilung nur von seiner absoluten Temperatur abhängt. Solch ein Körper erwärmt sich schneller als alle anderen Körper, kühlt sich aber auch schneller als die anderen ab.

Da es solch einen „idealen schwarzen Körper“ in der Natur nicht gibt, ebenso wie sein Gegenteil, einen „idealen weißen Körper“, konstruierte Josef Stefan (1835-1893) eine „Kiste“, die dem Konzept des „Schwarzkörperstrahlers“ am nächsten kommt. Er baute einen geschlossenen „Hohlraum“, dessen Wände beheizt und mit Reglern auf konstante Temperaturen eingestellt werden konnten. Sodann bohrte er ein kleines Loch in eine Wand des Hohlraums und maß die austretende Strahlung. Es zeigte sich, dass die Wellenlänge der Strahlung mit der Beheizung oder Abkühlung der Wände kürzer oder länger war. Stefan entwickelte daraus eine einfache „Gesetzmäßigkeit“, die von Ludwig Boltzmann (1844-1906) theoretisch bestätigt wurde. So erhielt die Gleichung zwei „Väter“, die Stefan-Boltzmann-Gleichung. Diese Gleichung beschreibt nur den Einfluss der Strahlung auf die Temperatur eines Körpers, sonst nichts! Sie besagt, dass mit Variation der Strahlung die absolute Temperatur des Körpers mit der 4. Potenz steigt oder fällt. Das erklärt, warum die rot glühende Herdplatte bei Abschalten des Stromes so schnell schwarz wird. Ebenso schnell, wegen die Temperatur mit der 4. Potenz in die Gleichung eingeht, kühlt die rot glühende Lava eines Vulkans ab, verfestigt sich und wird schwarz. Daher sinkt zum Abend die Temperatur erst rasch und mit der Abkühlung in der Nacht immer langsamer.

Indem die Klimaexperten die Stefan-Boltzmann-Gleichung S = σ T4 zur Berechnung einer theoretischen „Strahlungsgleichgewichtstemperatur“ zwischen Sonne und Erde nehmen, zeigen sie, dass sie nicht nur selbst in der „Höhle“ Platons stecken, sondern auch die Erde in einen „Hohlraum“ einsperren, deren Temperatur man einfach regeln kann. Doch dazu bedarf es keinerlei „Treibhausgase“, keines „Treibhauseffektes“. Der Mensch wird zum „Regler“ der Natur, denn die Temperatur reagiert auf die Strahlung und bestimmt die Strahlung. Bei der Berechnung der Körpertemperatur kommt keine Atmosphäre vor. Die Berechnung gilt nur für den Fall, dass alle Strahlung auch absorbiert wird. Das geht nur im „Hohlraum“! Trotzdem bauen die Experten in die Gleichung eine „Albedo“ von 0,3 ein und reduzieren die „Solarkonstante“ um 30 Prozent.. Sie ziehen also von den 342 Watt/m2 30 Prozent ab und erhalten einen Wert S = 240 Watt/m2. Diesen Wert geben sie in die Stefan-Boltzmann-Gleichung ein und erhalten für T einen Wert von 255 Kelvin oder -18° Celsius. Wer sich auf dieses Rechenspielchen einlässt, ist dem Zwang der „Logik“ der Klimaexperten verfallen.

Diesen Wert von -18° Celsius deklarieren die Klimaexperten zu der „Normaltemperatur“ der Erde. Diese Temperatur sei die „Strahlungsgleichgewichtstemperatur“ einer Erde ohne „Treibhausgase“. Bei optimaler Einstrahlung der Sonne hätte die Erde nur eine Temperatur von -18°C, sie wäre eine „Eiskugel“, auf der ein Leben nicht möglich wäre. Nun wird der „natürliche Treibhauseffekt“, den es in der Natur nicht gibt und nicht geben kann, erfunden. Der theoretischen Phantasietemperatur von -18°C stellen sie eine nicht minder theoretische „Globaltemperatur“ von +15°C entgegen und erklären die Differenz von 33°C zum „natürlichen Treibhauseffekt“. Er ist der Hauptfeiler der „Klimapolitik“ und mit ihm steht und fällt das ganze Kunstgebilde. Aber die „Lüge“ wird gut kaschiert mit der Behauptung, dass es „ihm“ zu verdanken sei, dass die Erde ein „grüner Planet“ ist und eine lebenstaugliche Temperatur von +15°C hat. Dies sei dem Kohlenstoffdioxid CO2 zu verdanken. Nein! Das CO2 hat nichts mit den variierenden Lufttemperaturen zu tun. Seine lebenswichtige Bedeutung steckt in der Fotosynthesegleichung. Ohne CO2 und auch ohne H2O und ohne Sonnenstrahlung (hv) gäbe es keine grünen Pflanzen, gäbe es keine Nahrung und keinen Sauerstoff für die Tiere wie uns Menschen. 

Bei einer gleichmäßigen Oberflächentemperatur von -18°C strahlt die Erde gemäß der Stefan-Boltzmann-Gleichung 240 W/m2 ab, bei +15°C sind es 390 W/m2. Wo kommen diese 150 W/m2 her? Die Erde muss nämlich mit 390 W/m2 bestrahlt werden, um eine Temperatur von 15°C zu haben. Da eine Selbsterwärmung eines Körpers nicht erklärt werden kann, erfinden die Experten eine „Gegenstrahlung“. Wer diese jedoch nachts bei klarem Himmel messen will, hat Pech. Ausgerechnet bei klarem Himmel, wenn die „Treibhausgase“ ungehindert die Erde erwärmen könnten, wird es kalt und kälter, bis am Morgen wieder die Sonne aufgeht und den Erdboden erwärmt. Auch hier wird die Natur auf den Kopf gestellt. Jeder Körper, ob warm oder kalt, strahlt ab einer Temperatur größer O Kelvin oder -273°C  Wärme ab, immer. Die Intensität steigt mit der 4. Potenz der absoluten Temperatur. Kein Körper kann sich mit der ihm eigenen inneren Energie erwärmen, selbst dann nicht, wenn die von ihm abgestrahlte Energie von den „Treibhausgasen“ zu 100 Prozent an ihn zurückgestrahlt würde. Für die Erde bedeutet dies: Sie muss von außen erwärmt werden, von der Sonne. Alles Leben beginnt mit dem „Es werde Licht!“ Das Leben auf der Erde verdankt seine Existenz der Strahlkraft der Sonne, keineswegs den „Treibhausgasen“. Sie bestimmt die Temperaturen und deswegen folgen auch die Zugvögel, die Schwalben und Störche, der Sonne. Während jetzt das „Leben“ auf der Nordhemisphäre zum Winter hin langsam „erstarrt“, blüht es zum Sommer auf der Südhemisphäre auf. Woher wissen die Störche, wann es bei uns Frühling wird und sie wieder zurückkommen können?

Die Behauptung der Existenz eines „natürlichen Treibhauseffektes“ von 33°C ist eine Schutzbehauptung. Schlimmer, sie ist ein Phantasieprodukt, der größte physikalische Schwindel der Neuzeit. Der „Treibhauseffekt“ ist ein Schwindel, der aus einer intellektuellen Notlage geboren wurde, in die man sich selbst als „Höhlenbewohner“ hinein manövriert hatte und aus dem Schattenwurf der Erde irrigerweise schloss, diese sei eine „Scheibe“. Wie eine Kugel bestrahlt wird, das kann jeder an einem Fußball mit Hilfe einer Taschenlampe  überprüfen oder anhand eines Satellitenfotos von der Erde aus dem Weltraum. Alle Satellitenfotos zeigen zwar auf eine Fläche projiziert einen Kreis, aber dieser überdeckt flächenmäßig 180 Grad des Erdumfangs ab, also die doppelte Kreisfläche, die Halbkugel 2πr2. Bei der 24-stündigen Rotation der Erde um sich selbst wird immer eine Erdhälfte von der Sonne beschienen. Am Äquator sind das 12 Stunden Tag und 12 Stunden Nacht. Die Erde ist nicht wie eine Tomate oder ein Apfel in der Mitte aufgeschnitten und hält ihre Querschnittsfläche der Sonne entgegen. Auf dieser primitiven Annahme beruht das ganze Konstrukt der Erde als „Treibhaus“.

Wenn man auf diesem Expertenniveau verharrt und nur mal die Korrektur macht, dass die Erde nicht als „Querschnittsfläche“ sondern als „Halbkugel“ bestrahlt wird, man also die „Solarkonstante“ durch 2 und nicht durch 4 teilt, dann erhält man 684 Watt/m2 und nach Abzug der Albedo von 0,3 einen Wert von 480 Watt/m2 statt 240 W/m2. Der Treibhauseffekt kehrt sich in einen Kühleffekt um und damit nähern wir uns dem, was Isaac Newton (1643-1727) bereits um 1666 experimentell gefunden hatte. Alle Körper kühlen sich ab. Die Geschwindigkeit hängt dabei von der Differenz zwischen der Körper- und seiner Umgebungstemperatur ab. Das „Newton’sche Abkühlungsgesetz“ wollen die Klimaexperten nicht kennen oder ignorieren es in der Hoffnung, dass es nicht auffällt. Newton formulierte sein Gesetz, lange bevor 1791 Pierre Prévost (1751-1839) zeigte, dass alle Körper Wärme ausstrahlen, egal ob warm oder kalt.

Mögen die Klimaexperten „Newton’s Abkühlungsgesetz“ unterschlagen, es leistet gute Dienste in der Gerichtsmedizin bei der Rückberechnung des Mordzeitpunktes anhand der Abkühlungsgeschwindigkeit von Leichen. Man benötigt die Umgebungstemperatur und zu zwei Zeiten die Leichentemperatur, um anhand des Abkühlungsgesetzes die Zeit zu berechnen, die vom Mord bis zur ersten Temperaturmessung verstrichen ist. Schauen Sie bei „Google“ nach unter „Alibi zur Mordzeit“!

Das Potsdam-Institut für Klimafolgenforschung und die Landwirtschaft!

Durch seine Pressemitteilungen gibt das PIK regelmäßig Einblicke in sein Innenleben wie seine Gedankenwelt. Am 24. August 2016 hieß es: „Landwirtschaft im Klimawandel: Freier Handel könnte ökonomische Verluste ausgleichen“. Die PM beginnt: „Rund um den Globus stellt der Klimawandel ein Risiko für die landwirtschaftliche Produktivität dar und könnte Nahrungsmittelpreise hochtreiben“. Dies zeige eine neue Studie, die nichts anderes sagt, was die Menschheit aus Erfahrung seit Urzeiten weiß. Doch dann wird es amüsant: „Die Landwirtschaft ist sehr anfällig für Klimaveränderungen – schon ein kleiner Anstieg der globalen Mitteltemperatur kann Konsequenzen haben für regionale Ernten“. Wie ist man bloß auf diese erleuchtende Eingebung gekommen? „Die Wissenschaftler kombinierten für ihre Studie 19 verschiedene Klimaprojektionen mit Simulationen zu landwirtschaftlichen Erträgen“.

Das hört sich äußerst beeindruckend an und strapaziert die kognitive Leistungsfähigkeit der meisten Menschen. Sie reagieren wie Tiere im Scheinwerferlicht und lassen sich durch eine vermutete Intelligenz blenden. Dabei ist es nichts als numerische Routine, das Spielen und Variieren von Computermodellen, die alles simulieren, nur nicht die Realität und das zukünftige Klima. Laut der von der Weltorganisation für Meteorologie international festgelegten Definition von Klima lassen sich Klimawerte nur lokal berechnen. Zugrunde gelegt werden die Wetterdaten von 30 Jahren. 30 Jahre muss man das Wetter ertragen, bevor man die Wettervergangenheit zu „Klima“ verarbeitet. Überall auf der Welt gibt es Wetter, extrem unterschiedliches Wetter, aber weder ein einheitliches „Globalwetter“ noch ein „Gobalklima“, von dem man ohnehin nur die „Globaltemperatur“ kennt.

Wie kommt das PIK zur Annahme, ein „kleiner Anstieg der globalen Mitteltemperatur“ hätte gravierende Konsequenzen „für regionale Ernten“. Lebt man dort nur noch in Modellwelten und sieht die Wirklichkeit nicht mehr? Jeder Gemüsebauer oder Landwirt könnte den PIK-Experten erklären, dass der Ertrag und die Qualität einer Ernte vom Wetter abhängen, wobei die Pflanzen die unterschiedlichsten Ansprüche an das ihnen optimale Wetter stellen. Etliche Faktoren wirken auf die Kulturpflanzen, nicht nur die Temperatur. Was nützen die angenehmsten Temperaturen, wenn es an Regen mangelt, es zu viel Regen gibt oder Hagel einen Weinberg entlaubt?

Den saisonalen landwirtschaftlichen Nutzpflanzen ist die globale Mitteltemperatur wie das „Globalklima“ völlig wurscht. Haben die PIK-Klimaexperten noch nie in einen Klimaatlas geschaut und festgestellt, dass es auf der Erde eine große Vielfalt sehr unterschiedlicher Klimata gibt. Selbst in einer Weinbauregion wie Rheinhessen ist nicht überall der Anbau von Wein klug und ratsam. Da empfiehlt sich ein genaues Studium der Topographie, der Inklination und Exposition einer Lage. Eine optimale Bestrahlung ist wichtig für hohe Oechsle-Grade. Das Wachstum von Pflanzen wird vom Wetter in der Zeit zwischen Saat und Ernte, der Vegetationsperiode, bestimmt. Diese beginnt für die Pflanzen der mittleren Breiten etwa März/April und endet etwa September/Oktober. Was interessieren die Rüben die Temperaturen im Winter? Wer die Wachstumsperiode verlängern und die Pflanzen vor Spätfrösten schützen will, betreibt Unterglasgartenbau, nutzt Gewächshäuser oder breitet im Frühjahr Folien über die Gemüsefelder aus. Salat, Kohl, Spargel, Sommergerste, Winterweizen, Kartoffeln, Zuckerrüben, alle Pflanzen haben spezielle Ansprüche, was den Wetterablauf während des Sommerhalbjahres betrifft. Es ist absoluter Unsinn, „klimabezogene Schäden“ durch eine Rechengröße wie die „Globaltemperatur“ herbei zu fantasieren. Nirgendwo auf dem weiten Erdenrund berechnen Pflanzen die „Globaltemperatur“, um ihr Wachstum danach auszurichten.

Das Potsdam-Institut für Klimafolgenforschung und die „Biodiversität“

Am 29. August 2016 überraschte das Potsdam-Institut mit der sensationellen Meldung „Amazonaswald: Biodiversität kann Klimarisiken mindern“. Es heißt: „Wald mit einer großen Vielfalt kann besser auf Klimastress reagieren. Erstmals konnten Forscher dies jetzt für das Amazonas-Gebiet in umfassenden Computer-Simulationen, die den Artenreichtum von Bäumen dort mit einberechnen, zeigen. Biodiversität kann demnach ein wirksames Mittel sein, Klimarisiken abzumildern, und sollte nicht im Naturschutzkontext betrachtet werden.“

Ich zitiere weiter: „Die Vielfalt der Eigenschaften all der verschiedenen Pflanzen in den Wäldern des Amazonas könnte diesem helfen, sich auf ein gewisses Maß von Klimaveränderung einzustellen – manche der vorherrschenden Bäume würden absterben und andere Arten würden ihren Platz einnehmen, die mit den zukünftigen klimatischen Bedingungen besser zurecht kommen.“ Und dann die „Erkenntnis“: „Biodiversität erweist sich hier als ein Muss, nicht als hübsches Beiwerk. Sie kann funktional sein für das langfristige Überleben der großen Biomasse-Reservoirs unserer Erde, zu denen auch die Wälder der Amazonas-Region gehören.“ Seit 1992 gibt es das PIK! Jetzt nach 25 Jahren entdeckt man plötzlich die „Biodiversität“ und legt ungewollt die Lunte an das „Globalklima“. Es ist dieser Befehl „think global“, der den Blick nicht nur auf die Wettervielfalt sondern auch auf die Schönheit und Vielfalt der Natur versperrt.

Es heißt dann weiter: „Nie zuvor ist dieses Kräftespiel so genau und umfassend in eine biogeochemische Simulation von Vegetation und Klimawandel eingebaut worden, dies ist ein wichtiger Schritt vorwärts für die noch bessere Modellierung des Erdsystems.“ „Wir haben hieran mehrere Jahre gearbeitet. Bekannt war, dass Biodiversität bedeutsam ist für die Produktivität eines Ökosystems und für das Speichern von Biomasse. Aber bislang konnte dies im großen Maßstab nicht quantitativ gezeigt werden. Wir freuen uns, dass wir hier auf der Grundlage früherer Forschung eine Lücke schließen können.“ Zum Schluss der Satz: „Trotz der ermutigenden Ergebnisse zum funktionalen Wert der Biodiversität bleibt der Regenwald des Amazonas leider einer der Brennpunkte unseres Planeten, der nach einer raschen Verringerung des CO2-Ausstoßes verlangt.“

Exakt dies verlangt der „Regenwald“ nicht, denn er weiß, dass für ihn das CO2 zum Leben und Wachstum unverzichtbar ist. Er braucht vor allem H2O, dann CO2 und eine ganzjährige Vegetationsperiode. Mögen sich die PIK-Wissenschaftler freuen ob ihrer Simulationskünste. Was sie der Welt an „Weisheiten“ propagieren, ist für die Natur eine Selbstverständlichkeit. Die Biodiversität hat die Natur praktiziert und perfektioniert, lange bevor der neunmalkluge Mensch sich Gedanken darüber machte, wie die Natur funktioniert und sich den unterschiedlichsten Wetterbedingungen auf der Erde optimal anpasst. Im Grunde ist es eine Frechheit, was das PIK mit dieser Studie propagiert. Die Natur braucht das PIK nicht, um zu wissen, wie sie sich optimal an die variierenden erdgeschichtlichen Randbedingungen anpasst. Die Vegetation Skandinaviens während der Eem-Warmzeit vor etwa 120 000 Jahren musste der Weichsel-Eiszeit gewichen, um   nach deren Ende vor etwa 12 000 Jahren sofort wieder zurückzukehren und auf dem Wege der natürlichen Sukzession eine Artenvielfalt ohnegleichen zu schaffen. Die Natur bedarf uns Menschen nicht dazu.

Die Biodiversität mit den unterschiedlichsten Ökosystemen ist eine Leistung der Natur und hängt ab von der Strahlung, den Niederschlägen und den Temperaturen, die wesentlich das Wetter bestimmen. Wer jedoch von der „einen Welt“ mit der „einen Temperatur“ und dem „einen Globalklima“ träumt, sieht diese Vielfalt und Schönheit nicht. Doch soweit ist man im PIK nicht. Wer behauptet, dass „Biodiversität Klimarisiken mindern kann“, sieht die Wahrheit nicht. Die „Biodiversität“, die Mannigfaltigkeit von Flora und Fauna ist eine aktive Anpassungsreaktion der Natur auf die Wettervielfalt, auf die wechselnden Wetterregime. Die „Biodiversität“ mindert die Wetterrisiken nicht und damit auch nicht die „Klimarisiken“!

Wann wird die so gerühmte „Qualitätsforschung“ des Potsdam-Instituts von neutraler Stelle einer Evaluation unterzogen? Der Ruf der „Wissenschaft“ insgesamt steht auf dem Spiel. Wie will das PIK die Zukunft vorhersagen, wenn es nicht einmal die Vergangenheit in ihren Abläufen begriffen hat und halbwegs logisch erklären kann?




Der unaufhaltsame, gestufte Fall der „Deutschen Energiewende“ – ein ganzheitliches Desaster

Aber Strom aus Wind und Sonne schwankt zwischen praktisch Null und ihrer jeweiligen Nennleistung – das gilt genau so für den ständig als grundlastfähig bezeichneten Offshore-Strom.

Die daraus resultierende Frage, woher der Strom nachts bei Windstille kommen soll, bleibt unbeantwortet – Speicherverfahren in Deutschland sind weder praktikabel noch bezahlbar.

Aber spätestens in 2018 wird massiv Strom über Wind und Sonne erzeugt werden, der oberhalb des höchsten Strombedarfes liegen wird, in 2050 ist es bereits die Hälfte, d.h.dieser Strom muß zwingend gespeichert werden oder die Anlagen müssen still gesetzt werden (das gilt auch für den Stromtransfer von Nord nach Süd).

Eine geistige Auseinandersetzung mit diesen Fakten findet in Deutschland nicht statt, vielmehr folgt man kritiklos einem ökoideologischen Mainstream.

Das erinnert an das religiöse Mittelalter, als Hexen für den Klimawandel verantwortlich gemacht und verbrannt wurden. So rennen wir wie die Lemminge in einen mittelalterlichen Agrarstaat.

Die in den letzten Jahren vermehrt aufgekommene ökologische Ausrichtung der Parteien im Gefolge mit den Medien- oder umgekehrt- haben basierend auf den Angst-einflößenden Aussagen von sog. Wissenschaftlern zum quasi tödlichen Klimawandel durch die angebliche Wirkung des CO2 diverse „Energiewenden“ in Deutschland ausgelöst.

Ziel ist die möglichst weitgehende Vermeidung des Weltunterganges durch die Verminderung des CO2-Ausstoßes.

Dabei interessiert nicht die Aussage, dass CO2 aus thermodynamischen Gründen das Klima nicht beeinflussen kann sowie das erwartungsgemäße völlige Versagen all dieser von diversen Wissenschaftlern erstellten Klimamodelle bezüglich der Temperaturvorhersage (Bild 1) (1) oder die Aussage, dass die jährliche Zunahme des weltweiten CO2- Ausstoßes bei etwa 0,50 Mrd. t/a liegt, die Minderung des Ausstoßes in Deutschland durch die „Energiewende“ bei lediglich etwa 0,01 Mrd. t/a – so sie denn gelänge.

Bild 1 (rechts oben) zeigt die mit Satelliten gemessenen weltweiten Temperaturen UAH und RSS, die seit etwa 19 Jahren nicht mehr ansteigen trotz steigender CO2-Gehalte, und die hoffnungslosen Ergebnisse der letzten 44 Modellrechnungen mit ihren ausgewiesenen Temperaturanstiegen, die sich von den restlichen etwa 50 Modellrechnungen -die im Bild nicht dargestellt sind – in ihren peinlichen Aussagen in Nichts unterscheiden.

Das Geschäft mit der Angst fällt in Deutschland schon immer auf fruchtbaren Boden und die Ergebnisse der philosophischen Betrachtungen zu den Ursachen der „German Angst“ sind vielfältig.

So ist Deutschland am konsequentesten –basierend auf einer gezielt geschürten Strahlenangst ohne jede Versachlichung- aus der Atomkraft ausgestiegen. So gab es in den 80er Jahren nur in Deutschland eine apokalyptische Angst vor dem „Waldsterben“, das nie eintrat.

So überrascht es auch nicht, dass es in Deutschland in den letzten Jahren ohne Verifikation der Fakten an diversen „Energiewenden“ nicht gefehlt hat, zumal die Energiewirtschaft mit 42% CO2-Äquivalenten gemessen an der Landwirtschaft mit 7,5%, den Gebäuden mit 12%, dem Verkehr mit 17% und Industrie&Gewerbe/Handel/Dienstleistungen mit 20% den größten Verursacher der sog.„Treibhausgasemissionen" darstellt (Angaben 2013).(2)

Hier nun eine kurze Betrachtung der letzten „Energiewendevariationen“ und einen Ausblick auf den zur Zeit in der Diskussion befindlichen „Klimaschutzplan 2050“ mit den wesentlichen Zielen:

a) „Energiewende 2010/2011“

 

2020

2050

Anteil erneuerbarer Energien 

35%

Mind. 80%

Stromverbrauch

-20%

– 50%

CO2-Minderung 

 

80-95%

b) „Energiewende 2014“

 

2025

2035

2050

Anteil erneuerbarer Energien 

40-50%

55-60%

Mind. 80%

Stromverbrauch

keine Angaben

Stromerzeugungskapazitäten

 

Solar (GW)

Wind Land (GW)

Wind See (GW)

Sonstige“ (GW)

Summe (GW)

Stand 2013

 35

33

10

78

Zuwachs bis 2030

40

40

21,5

1,5

103

Stand 2030

75

94,5

11,7

181

Zuwachs 2030/2050

50

50

?

2,0

102

Stand 2050

125

144,5

13,5

283

(keine Angaben zu Wind See in 2030-2050)

c) „Eckpunkte für die geplante Novelle des EEG“ (Beschluß am 08.06.2016) (3)

 

Solar

Wind Land

Wind See

Sonstige“

Zuwachs bis 2019 (GW/a)   

2,5

2,8

1,1

0,15 (nur Biomasse)

Zuwachs nach 2019 (GW/a)

2,5

2,9

1,1

0,20 (nur Biomasse)

(Wind See 15 GW bis 2030)     

(keine Begrenzung mehr für Solar mit 52 GW)

d) „Klimaschutzplan 2050“

Dekarbonisierung“ (Verzicht auf die Verbrennung von Kohle, Öl, Gas):

 bis 2050

Abbau der CO2-Emissionen gegenüber 1990: 

100% bis 2050

Die nun im „Klimaschutzplan 2050“ angesprochene Forderung bzw. die von Frau Merkel auf dem G7-Gipfel in Elmau in 2015 bereits eingebrachte „Dekarbonisierung“ – eine bereits 2007 von Herrn Schellnhuber, dem Gründer und Chef des Potsdam Institut für Klimaforschungsfolgen (PIK) geforderte Maßnahme – soll nun bis 2050 in allen Bereichen vollendet werden.

Diese Forderung ist eigentlich für die Energieerzeugung obsolet, wird sie doch in den zahlreichen „Energiewenden“ immer wieder zumindest bis 95% gefordert – von diversen Parteien und Nichtregierungsorganisationen schon längst bis 100%.

Es stellt sich jedoch bei all diesen nicht enden wollenden Aktivitäten zu den„Energiewenden“ stets die Frage nach ihrer Funkionalität, insbesondere nach dem Umgang mit den durch das volatile Verhalten der Stromerzeuger Wind und Solar anfallenden Stromüberschußmengen.

1.„Energiewende 2014“ und die Gründe für das gestufte Scheitern

Es soll daher einmal am Beispiel der „Energiewende 2014“ die Nichtfunktionalität dieser Energiewenden beleuchtet werden.

Die fogenden Auswertungen fußen auf den Angaben der „Energiewende 2014“ sowie folgenden Annahmen:

·       gleichbleibende Stromerzeugung bis 2050 von 600 TWh/a (ohne Berücksichtigung Elektroautos)

·       angesetzter Anteil der erneuerbaren Energien an der Stromerzeugung: 80%

·      Basisjahr für die Wind- und Solardaten ist zunächst das Jahr 2013 mit Nutzungsgraden für Wind von 19, von Solar von 9% (4)

Bild 2

In  Bild 2 sind zunächst gemäß dem Plan der „Energiewende 2014“ der Kapazitätsanteil der „Sonstigen“ (Wasser, Biomasse etc.) über die Laufzeit der Energiewende bis 2015 aufgetragen, dann additiv die Summe Wind+Solar+„Sonstige“ sowie schließlich additiv die Stromerzeugungskapazitäten von Wind+Solar+„Sonstige“+konventionelle Stromerzeuger.

Nun haben statistische Auswertungen der Stromerzeugung von Wind, Sonne und Wind+Sonne bezogen auf die jeweilige Nennleistung der Jahre 2011-2013 gezeigt, dass zwar bei der ausschließlichen Betrachtung der Windleistung diese zwischen praktisch Null und 85% und bei der Solarleistung zwischen 0 und 80% an die Nennleistung heranreichen, bei der summarischen Betrachtung aber nur zu 60%. (Bild 3) (5)

Bild 3

Da diese Auswertungen auf gemittelten Stundenwerten basieren, ist davon auszugehen, dass bei allen drei Größen in der Spitze auch Werte von jeweils 100% kurzzeitig erreicht werden.

Als Beleg für den Rückgang der Stromerzeugung von Wind+Sonne gegen Null sei auch als Beispiel auf die Einspeiseleistung  von Wind+Solar, die installierte Wind-+Solarleistung sowie den Stromverbrauch im Mai 2016 in Bild 4 verwiesen. (6) Bei installierten Leistungen von Wind+Solar von etwa 87 000 MW schwanken die Leistungen von Wind+Solar zwischen 619 MW (0,79% bezogen auf die Nennleistung) und 44 202 MW (entsprechend 50,99%) bei einem Mittelwert von 14 423 MW (entsprechend 16,64%).

Aus Bild 4 wird weiter deutlich, dass die Schwankungen in der Stromerzeugungskapazität über Wind und Sonne kurzzeitig mit bis über 30 000 MW beträchtlich sein können bei z.Z. etwa 30 % Stromerzeugung über alternative Energien, was der Leistung von drei Kraftwerken entspricht, die dann kurzfristig abgeregelt oder hochgefahren werden müssen.

Es stellt sich schon hier die Frage nach der Lösung dieses Problems bei einem Anteil an erneuerbaren Energien von 100% in 2050, wenn keine konventionellen Kraftwerke mehr vorhanden sind (vgl.auch später).

Bild 4

Zum Funktionieren der Energiewende gehört auch, dass die über Wind+Solar in Bild 2 eingezeichnete mittlere Nutzung von Wind, Sonne und "Sonstigen" nur erreicht werden kann, wenn die über dem Mittelwert anfallende Stromkapazität gespeichert wird und in Zeiten nicht ausreichender Leistungen unterhalb der mittleren Stromerzeugungskapazität wieder eingepeist werden kann (im Sinne von Bild 5; im Bild wird die unterhalb des Mittelwertes fehlene Leistung durch Gas ausgeglichen).(7)

Nun wird es wirtschaftlich wenig Sinn machen, die letzten vernachlässigbaren Stromerzeugungsspitzen von Wind+Solar aufzufangen und zu speichern, sondern nur bis zu der in der statistischen Auswertung dargelegten 60%-Stromleistung aus Wind+Solar(Bild 3).(5)


Bild 5

So ist in Bild 2 die Stromerzeugungskapazität von 60% Wind+Solar und additiv dazu der Anteil der „Sonstigen“ eingetragen, praktisch als eine weitere zu diskutierende Größe für den nutzbringenden Kapazitätsanteil über die erneuerbaren Energien.

Außerdem enthält Bild 2 die Schwankungsbreite des Strombedarfes zwischen 32 und 76 GW basierend ebenfalls auf der statistischen Auswertung der Jahre 2011-2013 (Stundenwerte).(5) Die Netzkapazität liegt zur Zeit bei etwa 80 GW.

Unter den gegebenen Annahmen errechnet sich z.B. für das Jahr 2050 bei einem angesetzten Stromanteil über die erneuerbaren Energien von 80% eine zu installierende Erzeugungskapazität von 350 GW, für die konventionellen von nur 15 GW. (4)

Das bedeutet, dass die Stromerzeugungskapazität über Wind und Solar bei den gegebenen Nutzungsgraden in den kommenden Jahren bei wenig Strom aus Offshore-Anlagen um 7,3 GW/a angehoben werden muß (bei Vernachlässigung des geringen Anstieges der „Sonstigen“), was man bei den „Eckpunkten für die geplante Novelle des EEG“ (08.06.2016) nicht erkennen kann.

Aber die Leistungsangaben in GW machen noch keine Aussagen zu der eigentlichen Stromerzeugung.

Aus Bild 3 wird deutlich, dass die Stromerzeugung oberhalb von 60% der Nennleistung von Wind+Solar durch den schlechten Nutzungsgrad von Wind und Sonne gegen Null geht und daher eine hohe Leistungskapazität bereit gestellt werden muß. (Bild 2).

Die 60%-Linie von Wind+Solar+“Sonstige“ schneidet die obere Strombedarfslinie bereits im Jahre 2018, d.h. es fällt ab diesem Jahr durch den vermehrten Anteil an alternativen Energien Strom an, der völlig am Bedarf vorbei geht und der zum Gelingen der „Energiewende 2014“ zwingend gespeichert werden muß oder die Wind- und Solaranlagen müssen still gesetzt werden (Bild 2).

Stufe 1 des Scheiterns der „Energiewende 2014“ (bis 2018)

In der Zeit vor 2018, in der die 60%-Linie der alternativen Energien unterhalb der oberen Strombedarfslinie liegt, kann zumindest noch theoretisch der insgesamt erzeugte Strom über die alternativen Energien dem Strombedarf teilweise zugeordnet werden.

Das schließt jedoch vor 2018 nicht aus, dass z.B. an den Wochenenden, wenn die untere Strombedarfslinie niedrig liegt (vgl.Bild 4), dennoch z.B.bei starkem Wind und viel Sonne die untere Strombedarfslinie massiv überschritten wird, was zu erheblichem Überschußstromanfall führen kann (vgl.später).

Das heißt, man bewegt sich vor dem Jahre 2018 in einem sich überlagernden stochastischen Bereich von Stromerzeugung über die alternativen Energien und dem stochastischen Bereich der Stromnachfrage, so dass eine mathematische Berechnung der Stromüberschußmengen nur schwer möglich ist.

Aber in der Zeit vor 2018 ist die volatile Stromerzeugung über Wind und Sonne noch eingebettet in die Flexibilität einer noch hohen Stromerzeugung über konventionelle Kraftwerke (wobei praktisch ausschließlich Kohlekrafterke für eine hohe Flexibilität sorgen können), so dass der durch die alternativen Stromerzeuger anfallende Überschußstrom noch einigermaßen abgefedert werden kann, nicht zuletzt auch über die Stromabgabe an Nachbarländer über eine Zuzahlung („negative Strompreise“).

So war im Jahre 2013 der physikalische Stromaustausch mit unseren Nachbarländern mit 72,1 Mrd. kWh/a bereits beträchtlich. Der höchste Stromexport fand mit den Niederlanden (24,5), Österreich (14,4) und der Schweiz (11,7 Mrd. kWh/a) statt, der höchste Import mit den Ländern Frankreich (11,8) und Tschechien (9,4 Mrd. kWh/a) über Atomstrom.(8)

Dies führte durch die "negativen Strompreise" in den Niederlanden zu deutlich abfallenden Strompreisen, außerdem sind Arbeitsplätze in einigen Ländern durch das notwendige Zurückfahren ausgerechnet von Pumpspeicherwerken durch den billigen deutschen subventionierten Stromimport gefährdet (Österreich, Schweiz).

In der Stufe 1 nähert sich bis 2018 die 60%-Linie aus Wind+Sonne+“Sonstige“ immer mehr dem oberen Strombedarf, so dass insbesondere an den Wochenenden von ständig steigenden Stromüberschußmengen auszugehen ist.

So zeigt Bild 6 an einem Beispiel im Mai 2016, wie der Börsenwert des Stroms stark "negativ" wird- insbesondere an Wochenenden- , wenn das Überangebot an Überschußstrom nicht abgefedert werden kann.(8) So fällt am ersten Wochenende im Mai 2016 der Börsenwert auf minus 130 €/MWh bzw. 13 ct/kWh an der Börse EEX Leipzig ab bei Mittelwerten von nur noch 22,36 €/MWh.

Bild 6 

 

 

Schließlich war im Monat Mai, 2016, der Strom aus Wind und Sonne durch den niedrigen Börsenwert nur 202 Mio. € wert, d. h. es mußten über EEG 1 742 Mio. € an die Erzeuger des alternativen Stroms gezahlt werden, was von den Stromverbrauchern übernommen werden muß.

Damit sind die konventionellen Kraftwerke nicht mehr konkurrenzfähig.

Die Anzahl der Stunden mit „negativen Strompreisen“ hat erwartungsgemäß seit 2010 ständig zugenommen, was zu erheblichen Zusatzkosten geführt hat  (Bild 7). (10) So lagen z.B. die „negativen Strompreise“ an der Börse bereits 2012 teilweise bei minus 58,80 €/MWh bzw. minus 5,80 ct/kWh, die von den Stromverbrauchern übernommen werden müssen, da die Stromerzeugung über alternative Stromerzeuger stets Vorrang hat.

 Bild 7

Durch den zunehmendem Anteil an erneuerbaren Energien hat sich durch das zunehmende kostenfreie Angebot des bereits über das EEG bezahlten Wind- und Solarstroms der Börsenpreis für Strom in den letzten 6-7 Jahren mehr als halbiert.

Außerdem führt die Zunahme der alternativen Energien über die damit verknüpfte volatile Stromerzeugung und der Rückgang der konventionellen Kraftwerke zu einer Zunahme der Netzeingriffe (Bild 8; vergleiche auch „Stufe 3“). (11)

Bild 8

Die Folgen dieser überbordenden, am Stromverbrauch vorbei produzierten Überschussmengen führen bereits jetzt in den europäischen Nachbarländern zu fortschreitenden Schwierigkeiten mit ihren Stromnetzen.

An den Grenzen zu Polen und Tschechien werden schon Phasenschieber gebaut, die ungeplante Stromflüsse abblocken sollen.

Dänemark, Norwegen und Schweden haben sich jüngst bei der EU-Kommission über Deutschland beklagt. Das überfüllte und unzureichend ausgebaute  deutsche Stromnetz verhindere den Durchfluß ihres günstigen (Öko-)Stroms Richtung Süden.(12)

Stufe 2 des Scheiterns der „Energiewende 2014“ (2018-2050)

Ab dem Jahre 2018 wird nun Strom erzeugt, der völlig am Verbrauch vorbei geht.

Der gewaltig zunehmende Abstand der 60%-Linie für Wind+Sonne+“Sonstige“ zur oberen Strombedarfslinie nach 2018 steigt über 38 GW in 2025 und 81 GW in 2035 auf 139 GW in 2050 an (Bild 2).

Mit Hilfe von Bild 3 lassen sich nun die sich daraus ergebenden Strommengen abgreifen (4):

Der tägliche Strombedarf liegt bei 600 TWh/a oder 600 000 GWh/a bei 1644 GWh/Tag, d.h. in 2050 entspricht die Überschußmenge mit 726 GWh/Tag fast der Hälfte der täglichen Stromerzeugung.

Entweder können diese Strommengen gespeichert werden oder die Wind- und Solaranlagen müssen still gesetzt werden, was naturgemäß mit erheblichen Kosten verbunden ist.(13)

Das größte deutsche Pumpspeicherwerk Goldisthal hat eine Leistung von 8,4 GWh/Tag, was –wollte man die Speicherung über Pumpspeicher lösen – folgende Anzahl erforderlich machen würde: (4)

Eine solche Lösung scheidet jedoch aus leicht nachzuvollziehenden Gründen aus.

Geht man davon aus, dass andere Speicherverfahren für Strom wie „Power to Gas“, Batterien, etc. hoffnungslos am Wirkungsgrad und den Kosten scheitern (z.B. Wirkungsgrad der Erzeugungskette "Power to Gas" über H2- Erzeugung, Methanherstellung, Stromherstellung über Methan liegt bei rd. 25%), muß das Vorhaben „Energiewende“ so schnell wie möglich gestoppt werden bis praktikable und bezahlbare Lösungen erarbeitet wurden.

Hinzu kommt, dass durch die „Energiewende 2014“ – so sie denn gelänge – der CO2-Gehalt der Atmosphäre  nur um 0,000 008% vermindert werden könnte- bei Ausgangsgehalten von 0,039%. (13)

Schließlich muß noch auf die notwendige Erweiterung der Netzkapazität in der Stufe 2 hingewiesen werden – z.B. in 2050 auf 220 GW – mit all den damit verknüpften Kosten, die bereits jetzt die Abgaben über EEG übersteigen(Bild 2).

Stufe 3 des Scheiterns der „Energiewende 2014“ (2040-2050)

Parallel zur Stufe 2 gesellt sich spätestens ab 2040 ein weiteres Problem: die Stromversorgungssicherheit.

In Bild 8 war bereits im Bereich der noch erträglichen Stufe 1 auf die Zunahme der Eingriffe zur Stabilisierung der Stromversorgung hingewiesen worden.

Wenn der elektrische Strom nicht gespeichert werden kann, muß in einem Stromversorgungsnetz der an irgendeiner Stelle entnommene Strom unmittelbar in gleicher Menge wieder eingespeist werden, d.h. es ist muß stets ein Gleichgewicht zwischen Stromentnahme und Stromerzeugung aufrecht erhalten werden.

Die Vergangenheit hat gezeigt, dass bei Stromausfall den Netzbetreibern oft nur Sekunden zur Vermeidung eines flächendeckenden Stromausfalles verbleiben, eine Zeit, in der selbst primär regelfähige Kraftwerke ihre Leistungsabgabe nur um Bruchteile des erforderlichen Betrages heraufsetzen können.

Die einzige sofort verfügbare Leistungsreserve, auf die ein Netzbetreiber in den ersten entscheidenden Sekunden zurückgreifen kann, ist die in den rotierenden Massen der Turbinen  und Generatoren konventioneller Kraftwerke (Kohle-, Kern-, Gas- und Wasserkraftwerke) gepeicherte kinetische Energie.

Daher sollte bei einem immer höheren Aufkommen an volatilen Stromerzeugern eine kritische Grenze für konventionelle Kraftwerke von rd. 28 GW nicht unterschritten werden, um eine erforderliche Mindestreserve an Primärleistung vorzuhalten, die ab 2040 ständig unterschritten würde.(14)

Diese kritische Grenze wird jedoch bereits heute teilweise bei dem derzeitigen Anteil von Strom aus Wind und Solar teilweise unterschritten (Bild 4), was sich in einer zunehmenden Zahl an Eingriffen äußert.

Solaranlagen besitzen überhaupt keine rotierenden Massen, die rotierenden Massen der Windkraftanlagen sind gemessen an den konventionellen Stromerzeugern verschwindend gering.

Bei einem Blackout können selbst Gaskraftwerke wenig ausrichten, da es auch bei diesen mehrere Minuten dauert, bis der Generator nennenswerte Leistungen abgeben kann (etwa 5 Minuten bis zur vollen Leistung). (15)

Auch die Aussagen der Stufe 3 belegen, dass eine Erzeugung des Stroms von mind. 80% über alternative Energien nicht möglich ist, geschweige denn von 100% nach der Vorstellung diverser Parteien und Nichtregierungsorganisationen bzw. der Vorstellung einer „Dekarbonisierung“.

Eine zur „Energiewende 2014“ analoge kritische Betrachtung der am 08.06.2016 beschlossenen „Eckpunkte für die geplante Novelle  des EEG“ kann hier wegen der bisher unvollständigen Angaben nicht vorgenommen werden.

2. Geplanter „Klimaschutzplan 2050“ mit vollständiger „Dekarbonisierung“ und das Problem des Stromtransfers nach Süden

Das Bundesministerium für Umwelt plant nach jetzigem Kenntnisstand im Herbst den „Klimaschutzplan 2050“ in die Gesetzgebung einzubringen. Ziel ist u.a. nicht nur der vollständige Wechsel von fossilen zu erneuerbaren Energieträgern bis 2050 in der Stromerzeugung (Energiesektor) mit z.Z. 42% CO2-Äquivalenten – wo die „Dekarbonisierung“ praktisch schon vollzogen ist – sondern auch in den Bereichen

·       Landwirtschaft mit 7,5% CO2-Äquivalenten

·       Gebäuden mit 12% CO2-Äquivalenten

·       Verkehr mit 17% CO2-Äquivalenten

·       Industrie&Gewerbe/Handel/Dienstleistungen mit 20% CO2-Äquivalenten.                                                                                            

Hierbei ist zu bedenken, dass z. Z. der Primärenergiebedarf Deutschlands durch erneuerbare Energien gerade einmal mit weniger als 10% gedeckt ist. Alleine für die Energiewende im Energiesektor mit 42% CO2-Äquivalenten ist bei einem Anteil von 80% erneuerbarer Energien ein Flächenbedarf von etwa 25% der Gesamtfläche Deutschlands erforderlich. (4,13) Wird nun der Anteil der erneuerbaren Energien im Rahmen der Energiewende von 80 auf 100% aufgestockt und zudem in den Bereichen Landwirtschaft, Gebäude, Verkehr sowie Industrie&Gewerbe/Handel/Dienstleistungen mit insgesamt 58% CO2-Äquivalenten die "Dekarbonisierung" durchgezogen, müßte weit mehr als die Hälfte der Fläche Deutschlands mit erneuerbaren Energien zugepflastert werden. Zudem stellt sich auch hier die schlichte Frage, wo nachts bei Windstille der Strom herkommen soll – bei fehlenden Stromspeichern.

Wie bereits erwähnt stellt sich für den Energiesektor die Frage nach der „Dekarbonisierung“ aufgrund des bisher Dargelegten in 2050 wegen des ganzheitlichen Scheiterns der Energiewende ohnehin nicht mehr, außerdem können bei dem Ansatz der Stromerzeugung über alternative Energien von 80% ohnehin nur noch 15 GW von 365 GW über konventionelle Kraftwerke dargestellt werden.

Im Folgenden soll dennoch der Umrechnung der 15 GW in alternative Energien nachgegangen werden.

Eine zu installierende Leistung von 15 GW über konventionelle Kraftwerke entsprechen bei einer Nutzungszeit von 90% 13,5 GW, die über die alternative Energien aus Wind und Sonne erzeugt werden müßten.

In 2013 lag der mittlere Nutzungsgrad von Wind und Sonne bei 13,4% (19% über Wind, 9% über Sonne) bei fast gleichen Anteilen von Wind-und Solarstrom. (4)

Für 13.5 GW müßten dann     13,5/0,134 = 101 GW   über die alternativen Energien Wind und Sonne erstellt werden, was in Summe einer Gesamtinstallation von

                                         350 +101 GW = 451 GW

über die alternativen Energien entspräche.

Bei einer Installation von rd.14 GW über „Sonstige“ verbleiben dann in 2050  437 GW für Wind und Sonne.

Diese gewaltige zu installierende Leistung könnte nur vermindert werden durch die Installtion eines hohen Anteiles an Wind Offshore-Anlagen, deren Nutzungsgrade zur Zeit bei etwa 30% gesehen werden.

Würde in 2050 das Verhältnis von Wind offshore zu Wind onshore zu Solar im günstigsten Falle gleich liegen, ergäben sich folgende mittlere Nutzungsgrade

                     146x 9  +  146x 19   +  146x 30 /437    =    19,3%,

was dann einer verminderten Leistungskapazität für Wind und Sonne von 303 GW entspräche.

Welche Leistungskapazität auch immer entstünde, der Strom müßte zu großen Teilen über „Stromautobahnen“ nach Süden gebracht werden.

Das Problem des Stromtransfers nach Süden

Eigentlich sollten die „Stromautobahnen“ nach dem Auslaufen der Kernkraftwerke  in 2022 fertig gestellt sein. Aber die Fertigstellung verzögert sich über einen vermehrten Ausbau über Erdkabel, die eine Fertigstellung erst nach 2025 erlauben.

Würde theoretisch in einem Gedankenexperiment unterstellt, dass lediglich nur die angesetzten rd. 100 GW über Offshore-Wind nach Süden zu transferieren wären, so müßte dieser Nord-Süd-Link für eine solche Kapazität ausgelegt sein.

Es zeigt sich aber, dass sich Strom aus Wind offshore- obwohl stets behauptet-  nicht als Grundlast einstufen läßt (z.B. Mai 2016; Bild 9). (16)

Bild 9

Offshore-Strom folgt in seinen Schwankungen dem Onshore-Strom, d.h. Windflauten an Land decken sich mit Windflauten auf See.

In gleicher Weise kann bei Windstrom generell nicht davon ausgegangen werden, dass irgendwo in Europa stets ausreichend Wind weht, um Windflauten an anderer Stelle auszugleichen (Bild 10).(10) Im Bild sind die Windstromkapazitäten von praktisch allen Deutschland nahe liegenden Ländern neben denen von Deutschland eingetragen. Eindeutig überlappen sich Stark- und Schwachwindzeiträume in allen Ländern.

Folglich würden bei einem mittleren Nutzungsgrad von Wind offshore von 30% dann im Mittel 30 GW für den Süden angeboten werden, wobei die Schwankungsbreite zwischen praktisch Null und 100 GW läge.(Z.Z. sind 5 HGÜ-Verbindungen mit einer Übertragungskapazität von je 2 GW vorgesehen (Internet)).

Bild 10

Um eine mittlere Leistung von 30 GW anbieten zu können, müßten dann im Sinne von Bild 5 die oberhalb des mittleren Leistungsangebotes von 30 GW anfallende Stromkapazität  gespeichert werden und in Zeiten nicht ausreichender Leistungen unterhalb der mittleren Stromerzeugungskapazität wieder eingespeist werden.

Wie soll nun ein für die mannigfaltige und auf Strom mit hoher Qualität angewiesene Industrie im Süden Deutschlands ein entsprechender Strom geliefert werden- ohne Stromspeicher- von den immensen Netzkosten abgesehen?

4.Fazit

Das für eine Industrienation beschämende und stümperhafte Vorhaben „Energiewende“ wird kläglich scheitern – das Ausland lacht.

Etwa 90% der Deutschen glauben an einen durch den menschlichen CO2-Ausstoß verursachten tödlichen Klimawandel, obwohl es dafür keinen einzigen Beweis gibt.

Seit dem es die Erde gibt, gibt es Klimawandel – im Mittelalter wurden sogar teilweise zu Weihnachten Erdbeeren geerntet.

Wie konnten sich die Deutschen so verrennen?

Das „Intergovernmentel Panel on Climate Change“ (IPCC), der Klimarat der Vereinten Nationen (gegründet 1988), hatte durch gefälschte Temperaturmessungen und über wissenschaftlich fragwürdige Modelle zum Einfluß von CO2 auf die Klimaerwärmung die Welt aufhorchen lassen.

Gleichzeitig nahm El Gore u.a. diese Aussage als Vorlage für eine beispiellose Kampagne gegen das CO2 in weltweiten Vorträgen und sparte nicht mit atemberaubenden Aussagen zum Anstieg des Meeresspiegels, was ihm auch noch den Nobelpreis einbrachte und ihn schließlich auch noch zu einem reichen Mann machte.

Die deutschen, grün ausgerichteten Politikjournalisten (26,9% stehen den Grünen nahe, 15,5% der SPD, 9% der CDU, 7,4% der FDP, 4,2% den Linken; 37% politisch neutral) nahmen diese Vorlage gerne auf und setzten in Bildern z.B. den Kölner Dom unter Wasser, sprachen von unerträglichen Temperaturanstiegen, vom Abschmelzen der Pole, vom Schwund der Eisbärpopulationen,etc..Die Kirchen riefen zum Kampf gegen das Höllenfeuer auf Erden durch zunehmende CO2-Gehalte auf, ganz zu schweigen von deutschen Wissenschaftlern, die davor warnten, dass sich die Ozeane in „Sprudelwasser verwandeln“ oder den Tropen der „Ökozid“ droht, etc., etc..

Aber auch bestimmte Parteien und die weitgehend von Spenden abhängigen Nichtregierungsorganisationen folgten ohne Verifikation von Fakten diesem Trend. Sogar ein „Ethikrat“, bestehend aus Bischhöfen, Soziologen, Politikern etc.wurde für technische Fragestellungen mißbraucht (Ausstieg Kernenergie).

Der Start einer emotionalen Irrationalität hatte hinsichtlich Klimawandel und Energiewende begonnen, Fakten wurden mit einer absoluten Moralisierung zugedeckt.

Damit war in der deutschen Öffentlichkeit die Basis für eine einzigartige Ausbreitung von Angst gelegt, von der der Soziologe N.Luhmann sagte:“Angst widersteht jeder Kritik der reinen Vernunft. Wer Angst hat, ist moralisch im Recht“.

Der Philosoph N.Bolz ging noch weiter:“Wenn christliche Religionen die Menschen nicht mehr ansprechen, suchen sie Ersatzreligionen. Und die mächtigste der gegenwärtigen Ersatzreligionen ist die grüne Bewegung, das Umweltbewußtsein“.

Damit ist der Weg verschlossen zu dem, was Horaz schon vor 2000 Jahren sagte:“Sapere aude“ (wage zu verstehen, deinen Verstand zu gebrauchen).

Im religiösen Mittelalter wurde dieser Verantwortung nicht nachgekommen. Hexen wurden für klimatische Veränderungen verantwortlich gemacht und verbrannt.

Erst Immanuel Kant übersetzte dann in der Aufklärung das „Sapere aude“ mit „Habe den Mut, dich deines Verstandes zu bedienen“.

Bei der geistigen Schaffung dieser Energiewende wird die Anwendung des eigenen Verstandes wieder außer Kraft gesetzt – wir sind wieder im Mittelalter angekommem. Wir bewegen uns auf dem geistigen Niveau von Aussagen wie:“Die Sonne schickt keine Rechnung“ oder „Der Strom aus den konventionellen Kraftwerken verstopft das Netz. Die Forderung muß deshalb lauten, Kohlekraftwerke aus dem Markt zu nehmen“ (Umweltminister NRW). (17)

Nun rennen wir wie die Lemminge von einem bestens funktionierenden Industriestaat zurück in einen mittelalterlichen Agrarstaat.

Dr.-Ing. Erhard Beppler

Quellen

1. Spencer, R: www.drroyspencer.com       

2. www.klimaschutzplan2050.de

3. FAZ, 09.06.2016

4. Beppler,E.: „Energiewende 2014- ein Debakel“BoD 2015; ISBN 978-3-7386-9418-5

5. Schuster, R.: Mitteilung vom 02.05.2014 – siehe auch (4)

6. Schuster, R.: Mitteilung von Juni 2016

7. Öllerer, K.: Windenergie in der Grund-, Mitte- und Spitzenlast: www.oellerer.net; siehe auch (4)

8. Bundesverband der Energie- und Wasserwirtschaft (BDEW)

9. Schuster, R.: Mitteilung Juni 2016

10. Schuster, R.: Mitteilung Januar 2016

11.Mueller, F.F.: „Netzstörungen: Der unheilbare Erbdefekt der Energiewende“, EIKE, 27.01.2016

12. FAZ, 04.05.2016

13. Beppler, E.: Energiewende- Zweite industrielle Revolution oder Fiasko“, BoD, 2013; ISBN 978-3-7322-0034-4

14. Mueller,F.F.: EIKE,29.01.2014

15. Mueller, F.F.: EIKE, 03.05.2015

16. Schuster, R.: Mitteilung 14.06.2016

17. FAZ, 16.06.2016




Teil 2: Was geschah vor 10.000 Jahren?

Bild rechts  Von Maximilian Dörrbecker (Chumwa) – Eigenes Werk. using The Physical Map of the World from ShadedRelief.com this map Athanasius Kircher’s imagination of Atlantis, CC BY-SA 2.5, https://commons.wikimedia.org/w/index.php?curid=29157370

…Im Zusammenhang mit dem Ende der Eiszeit ist immer wieder in der Wissenschaft von einem so genannten Polsprung die Rede. Die Erklärungen dafür sind sehr vielschichtig, und die ernsthafte Wissenschaft will von alldem eigentlich nichts wissen. Anhänger dieser Theorie (Niels-Axel Mörner, Brown und Hapgood; auch Einstein gehörte dazu) werden ignoriert, weil eine ernsthafte Debatte zwangsläufig die aktualistischen Glaubenssätze der Wissenschaftsgemeinde ins Wanken gebracht hätte; deshalb wird sie ausgesessen. Ich kann fachlich zu einem Polsprung nichts sagen, möchte aber anhand von drei Indizien darauf hinweisen, dass es möglicherweise doch eine Erdkrustenverschiebung gegeben hat. Erstens hat man gefunden, dass die Mammute in üppigem Grün gelebt haben bevor sie von der Kälte überrascht worden sind. Das deutet darauf hin, dass ihr damaliger Lebensraum weiter südlich lag. Zweitens finde ich in meiner Tageszeitung DNN vom 15. März 2013, dass die Braunbären auf den ABC Inseln vor Alaska eigentlich Eisbären sind. Die zeige eine Erbgutanalyse. Die Forscher vermuten, dass eine "Klimaerwärmung vor 10.000 Jahren" dafür der Grund ist. Es lässt sich aber auch so erklären, dass durch den Einschlag des Asteroiden die Eisbären ein Stück nach Süden ins Warme geschoben worden sind. Durch die Insellage war Ihnen der Weg nach Norden versperrt und sie waren gezwungen, sich anzupassen.

Das hilft uns auch bei der Beantwortung der Frage, die so vielen Leuten heute so große Sorgen bereitet: Was passiert mit den armen Eisbären, wenn es wärmer wird? Sie werden wieder (das sollte uns beruhigen) zu Braunbären werden.
Zum Dritten starben vor 10.000 Jahren die Riesenfaultiere in Südamerika aus. Sie haben wahrscheinlich die Erdverschiebung in den eisigen Süden nicht überstanden. Die gängige wissenschaftliche Erklärung für dieses Aussterben lautet heute, dass der Mensch für das Verschwinden der Tiere verantwortlich ist. Die Kreisbogenlinie von Sibirien (Mammute), über Alaska (Bären) nach Südamerika (Riesenfaultier) liegt in der gleichen Richtung wie die Einflugschneise des  besagten Asteroiden. Es sieht so aus, als hätte die Wucht des Einschlags die Erdkruste verschoben; fast unvorstellbar. Kann das jemand ausrechnen oder wissenschaftlich widerlegen?

Was ich bisher über das Titelthema geschrieben habe, habe ich in 25 Jahren aufmerksamen Lesens und Hörens gesammelt und durch Vergleiche geordnet. Deshalb möchte ich noch einen eigenen Beitrag anzufügen.
Vor zehn Jahren hat mich ein Freund zu einer Weltreise auf einem Containerschiff überredet (etwas für Leute mit viel Zeit und wenig Geld). Die Reise führte uns von Hamburg über den Atlantik und durch den Panamakanal bis nach Süd-Amerika an die Ostküste Kolumbiens. Die Route ging südlich an den Azoren vorbei zur Mona-Passage zwischen Puerto Rico und der Dominikanischen Republik (der Kapitän hat uns nach dem Ablegen in Rotterdam gefragt, ob wir die Azoren nördlich oder südlich passieren möchten!). Die Schiffsautomatik sorgte nach der Passage der Azoren für einen direkten "geraden" Weg Richtung Karibik. Beim Studium der Schiffskarten (wir hatten jederzeit freien Zugang zur Kommandobrücke) stellte ich fest, dass unser Weg genau zwischen den zwei Löchern (54,2 W, 21,5 N und 60 W, 24 N) hindurchführen würde, die Otto Muck als Einschlagslöcher genannt hatte. Da wurde schnell die Frage geboren, ob es an diesen Stellen Abweichungen des irdischen Magnetfeldes geben könnte. An Bord war es üblich, dass alle halbe Stunde über Satellitenmessungen die Position, die Richtung und die Geschwindigkeit des Schiffes bestimmt und aufgeschrieben wurden. Der messtechnisch überholte Magnetkompass wurde routinemäßig nur alle 4 Stunden abgelesen. Als ich dem Kapitän mein Anliegen erklärt hatte, war er sofort bereit, auch den Magnetkompass halbstündlich ablesen zu lassen, so dass die Messpunkte nur ca. 10 km auseinander lagen. Die Messungen wurden spannend als sich bei Annäherung an das linke, erste Loch (7067 m tief) die Nadelstellung veränderte und genau auf der Nord-Süd-Linie der größten Tiefe ihr Maximum von 3 Grad Abweichung (Ablesegenauigkeit +/- 1/4 Grad) erreichte und dann wieder abfiel. Bei Annäherung an das nächste rechte Loch passierte das gleiche, allerdings war die Nadelabweichung mit 2,5° etwas geringer. Sie erfolgte aber in die gleiche Richtung. Ich hatte eigentlich wegen der Links/Rechtslage der Löcher einen Links/Rechtsausschlag der Magnetnadel erwartet. Die etwas geringere Lochtiefe, die etwas geringere Nadelabweichung und die nördlichere Position des zweiten Loches deuten darauf hin, dass die Masse dieses Teiles etwas geringer ist als die des südlicheren, ersten Objektes. Es wird mir wohl niemand übelnehmen, dass ich daran glaube, dass dort zwei von der Wissenschaft vernachlässigte Himmelsboten in der Erdkruste stecken. Ich nehme an, dass es in der Fachwelt sicherlich bekannt ist, dass an dieser Stelle Störungen des Magnetfeldes vorhanden sind. Wahrscheinlich gibt es auch jemanden, der die Masse der beiden metallischen Himmelskörper bestimmen kann (bitte melden). So werden auch Mutmaßungen verständlich, die im Zusammenhang mit Ereignissen im Bermudadreieck genannt werden, wenn es um starke Magnetkräfte geht.

Der Hauptgrund für die Ignoranz der ehemaligen Existenz einer Insel im Atlantik ist meines Erachtens vorwiegend darauf zurückzuführen, dass man keine Spuren gefunden hat. Von Heisenberg (Einstein?) stammt der bemerkenswerte Satz: man findet nur, was man sucht.
Und da man nicht gesucht hat, hat man folgerichtig nichts gefunden. Ich glaube, dass sich ein renommierter Wissenschaftler heutzutage nicht mehr mit einer Insel-Theorie in die Öffentlichkeit trauen kann, ohne seinem Ruf und seiner Existenz zu schaden.

Aber ist wirklich nichts zu finden? Ich möchte in vier Fällen dieser Frage nachgehen.
1. Gehen wir in der Erdgeschichte 120 Millionen Jahre zurück und fügen wir die heutige Westküste von Afrika und Europa an die Ostküste Süd- und Nord-Amerikas an, so stellen wir eine erstaunliche Übereinstimmung der Küstenlinien fest. Das hat Alfred Wegener schon 1915 erkannt, aber bis zu seinem Tode 1931 wurde er von der Wissenschaftsgilde bekämpft und es hat noch 50 Jahre gedauert bis die Plattentheorie anerkannt worden ist. Es fällt aber auch auf, dass im Bereich des Golf von Mexiko und der Westkaribik ein Stück Land fehlt. Wo ist es geblieben? Könnte es nicht sein, dass dieses Land beim Auseinanderdriften der Kontinente im Bereich der Bruchlinie mitgeschwommen ist und vor 10.000 Jahren sich an der Stelle der heutigen Azoren befand?

2. In dem englischen Buch "Wie die Erde entstand" gibt es eine Darstellung sämtlicher Trennlinien der Kontinentalplatten der Erde als gestrichelte Linie. Es fällt auf, dass es diese Linien nur unter Wasser gibt, weil sie dort besser konserviert wurden. Oberhalb des Wasserspiegels sind wegen der Erosion nur Spuren geblieben, wie z.B. in Island. Bild 3 zeigt einen Ausschnitt dieser Linien im Atlantik. Es ist sicherlich kein Druckfehler, dass im Azorenbereich ein Stück Linie fehlt (und nur hier). Warum? Sollte dieses Gebiet noch kürzlich über Wasser gelegen haben? Es sieht so aus. Mit einem gezielten Blick auf die Bruchlinie im Atlantik bei Google Earth kann sich jeder Leser zusätzlich selbst davon überzeugen, dass es an dieser Stelle keinen Riss gibt. In einer Reisewerbung für die Azoren las ich neulich: eines gibt es auf den Azoren nicht, nämlich Strände. Der Durchschnittsleser denkt sich nichts dabei. Mit meiner Sensibilisierung frage ich sofort: Wann sollen die sich auch gebildet haben, wenn die heutige Küstenlinie vor 10.000 Jahren noch 3 km höher lag?

Bild 3

3. Vor einigen Jahren hat eine Gruppe von 50 Wissenschaftlern um Prof. Kucera (Tübingen) in den Weltmeeren danach geforscht, welche Wassertemperaturen vor 20.000 Jahren an der Oberfläche geherrscht haben. Eine immense wissenschaftliche Leistung. Das Ergebnis zeigt Bild 4 für den Nordatlantik. Soweit ich weiß, hat es auf die Aussage dieser Darstellung keine Diskussion gegeben. Mich hat sofort der 10 Grad kältere Fleck zwischen den Azoren und Westeuropa fasziniert. Kann man sich vorstellen, dass es heute in der Golfstromströmung einen so scharfen Temperatursprung von 10 Grad geben könnte? Nicht vorstellbar, aber woher kommt er? Alles deutet auf ein großes Hindernis hin, das dem warmen Golfstrom das freie Strömen gen Osten verwehrte. Es wäre schön, eine Stellungnahme zum kalten Fleck von den Bildschöpfern zu erfahren.

Bild 4

4. Einen für mich besonders wertvollen Beitrag liefern Wissenschaftler des Helmholtz-Zentrums für Ozeanforschung in Kiel (Geomar). Unter dem Begriff "Heinrich-Ereignisse" (Kopplung niederer und höherer Breiten) ist bei Wikipedia das Bild 5 zu finden. Das kleine Bild enthält die Sensation. Bekanntlich sind die 100.000 Jahre lang abbrechenden Eisberge von Norden in Richtung Süden auf den Atlantik gedriftet und haben dort beim Schmelzen ihre Steinelast verloren. Man kann zwangsläufig nur dort Steine finden, wo die Eisberge auch hingekommen sind. Die eigenartige Einbuchtung an der Südflanke des Schotterfläche sollte doch zu Frage anregen, warum liegen dort keine Steine. Offensichtlich hat sich das noch niemand gefragt. Die Antwort scheint besonders hier leicht zu sein. Es muss dort eine Insel gegeben haben. Was sagt Geomar dazu? Ich habe in der langjährigen Beschäftigung mit dem Thema erfahren, dass sich immer mehr Puzzleteile widerspruchslos in ein Mosaik eingefügt haben, dass es schon fast unheimlich wurde.

Bild5

Ich wollte mit dieser Arbeit zeigen, dass die Annahme einer ehemaligen Insel im Atlantik in der Wissenschaft die Beantwortung vieler offenen Fragen erleichtert bzw. erst ermöglicht. Wie wäre es, mit den Computerprogrammen anzufangen? Wahrscheinlich ein Traum. Als Außenseiter habe ich erfahren, aus Fachkreisen sind keine Impulse zu erwarten, bei den zu erwartenden Verwerfungen menschlich verständlich. Aber irgendwie und irgendwann sprießt die Wahrheit doch ans Licht. Bei den Erdwissenschaftlern dauert es etwas länger. Manchmal eröffnet erst die Rente neue Möglichkeiten (s. Klima). Meine sporadischen Suchergebnisse können nur ein Bruchteil von dem sein, was noch zu finden ist. Unter dem Motto "man findet nur, was man sucht", wird weiteres Suchen sich lohnen.

Zum Schluss möchte ich noch etwas zum 8-k Event loswerden.
Über den plötzlichen, kurzfristigen Temperatursturz vor 8.200 Jahren gibt es die Vermutung, dass das Auslaufen großer Süßwassermengen (Agassiz-See) dafür verantwortlich ist. Wacklig wird diese Aussage aber, wenn Harald Lesch diesen See in einer Eiszeitsendung schon vor 12.500 Jahren auslaufen lässt, um die damalige Kältephase zu erklären. Gleichzeitig ist bei Google ein Bild zu finden, auf dem dieser See vor 7.900 Jahren noch vorhanden ist. Damals soll auch das Schwarze Meer vollgelaufen sein. Der Meeresspiegel lag noch 15 m tiefer als heute.

Ich stelle hier die Frage zur Diskussion, ob es zwischen 8-k und dem Volllaufen des Schwarzen Meeres einen Zusammenhang geben könnte. Ich habe mal kurz gerechnet. Das Schwarze Meer enthält heute circa 500.000 km^3 Wasser. Hineingeflossen sind damals in die Nachbarsenke etwa 300.000 km^3, weil die nicht leer war. Das hat vielleicht nicht länger als ein Jahr gedauert; die Uni Bern hat gewaltige Strömungsspuren festgestellt. Diese Wassermenge entspricht einem Meeresspiegelunterschied von 0,85 m. Wie aus Bild 2, Kurve 1 zu entnehmen ist, betrug damals der Meeresanstieg 1,75 m pro Jahrhundert. Das bedeutet letztendlich, dass das Füllen des Schwarzen Meeres den Meeresanstieg um ein halbes Jahrhundert verzögert haben könnte und dass in der Anstiegskurve in Bild 2 eine Störung, wahrscheinlich ein Sprung durchaus vorstellbar sein könnte. Tatsächlich zeigt die Kurve an der Stelle X eine solche Stelle, allerdings einige hundert Jahre versetzt. Etwas viel Spekulation, aber eine schöne Geschichte. Was sagen Sie dazu, Herr Prof. Behre? Wäre diese Thematik nicht ein spannendes Doktorobjekt für Mitarbeiter an Strömungskanälen?

PS in eigener Sache


Ich bin vor 25 Jahren ganz zufällig an dieses Thema (Insel im Atlantik) geraten. Beim sporadischen, zunehmend gezielterem Sammeln von einzelnen Puzzleteilen merkte ich bald, dass diese bessere und logischere Antworten lieferten als die klassischen Einzelwissenschaften. Als Außenseiter habe ich sozusagen den Spezialisten von oben beim emsigen Forschen auf dem Grund ihres Fachtellers zugesehen, dabei bemerkend, dass ein Blick über den Tellerrand, wie ich es mir leisten konnte, kaum vorkommt. Ich glaube inzwischen, dass nur ein Außenseiter diesen Artikel schreiben kann, weil Spezialisten mehrfach befangen sind. Meine Kontaktversuche waren fast immer erfolglos. Wenn überhaupt eine Antwort, dann so: ich bin X- Spezialist, wenden sie sich an einen Y- Kollegen. Heute weiß ich warum. Nur einmal versprach das GEO- Forschungszentrum Potsdam, zuständige Professoren anzusprechen (es gab in einer Ausstellung einen von mir genutzten Briefkasten "Ask a prof"). Nach drei Monaten die Ernüchterung: keiner der Angesprochenen war zu einer Aussage bereit. Heute verstehe ich auch das, kann es aber nicht akzeptieren.

Wer mir vorwirft, dass nicht alles genau, korrekt oder manches überspitzt ist, der hat wahrscheinlich recht. Wer mir vorwirft, dass ich sehr mangelhaft zitiere, dem werde ich nicht widersprechen, denn vor 25 Jahren habe ich nicht ahnen können, dass richtiges Zitieren heutzutage wichtiger ist als der Inhalt. Eine Veröffentlichung war nicht vorgesehen; in einem renommierten Fachblatt ohnehin nicht möglich. Inzwischen hat sich so viel Ungelöstes und Widersprüchliches angesammelt, auch was unsere Klimazukunft betrifft, dass ich mal darüber schreiben wollte.

Dr.-Ing. Gerhard Kühn

 




Atomkonzerne wollen Ausstiegskosten drücken

Welchen Müll?

Um gleich mal mit einer provokativen Frage anzufangen. Abgebrannte Brennelemente z. B. sind Abfälle – weil nicht mehr vom Kraftwerk verwendbar – aber deshalb noch lange kein Müll. Kein Mensch kommt heute auf die Idee, eine alte Autobatterie oder eine alte Zeitung als Müll zu verunglimpfen. Bei der “gelben Tonne” spricht man deshalb heute selbstverständlich von einer “Wertstofftonne”. Von Anfang an, war es vorgesehen, die “abgebrannten” Brennelemente zu recyceln. Aus dem Abfall – aus der Sicht eines Kraftwerks – wurde erst durch grüne Politiker “Atommüll” gemacht, nachdem man die Wiederaufbereitung in Deutschland verboten hat. Genau der heutige (große) Vorsitzende der “Kommission Lagerung hoch radioaktiver Abfallstoffe” war maßgeblich an dieser Schandtat beteiligt.

Die Unterscheidung von “Abfall” und “Müll” ist alles andere als Haarspalterei. Abfall ist immer ein höchst subjektiver Zustand, der erst zum Müll wird, wenn keine Nachfrage mehr vorhanden ist. Wesentlicher Unterschied ist die Menge vorher und nach der Aufbereitung. Ein typisches Beispiel wohin die Entwicklung geht: Als mit dem “Endlager Konrad” begonnen wurde, war ein wesentliches Sicherheitskriterium der Absturz eines mehrere hundert Tonnen schweren Dampferzeugers in die Grube. Seit Jahren ist aber die komplette Versendung der Dampferzeuger z. B. nach Schweden Realität. Dort werden sie industriell (maßgeblich durch Roboter) zerlegt und “dekontaminiert”. Zurück kommt ein Würfel, etwa so groß wie ein Kühlschrank, in dem alle Radioaktivität eingeschmolzen ist. Alle anderen Materialien werden an lokale Schrotthändler verkauft und damit dem normalen Materialkreislauf wieder zugeführt. Dies ist bereits heute billiger, als die komplette Einlagerung.

Radioaktiver Zerfall geht immer nur in eine Richtung

Das ist die andere (schöne) Seite der Medaille. Je länger man wartet, um so geringer wird die ausgesendete Strahlung. Dies ist z. B. bei Umweltgiften wie Asbest oder Quecksilber nicht der Fall. Insofern müßte eigentlich von dem “Endlager Herfa-Neurode” eine unendliche Sicherheit gefordert werden – aber “Chemiemüll” ist wohl politisch korrekt.

Der radioaktive Zerfall verläuft meist in Ketten (d. h. mehrere Zwischenglieder), endet aber immer mit einem stabilen Endglied (welches nicht mehr radioaktiv ist). Diese Zerfallsketten laufen unbeeinflußbar ab. Am Anfang nimmt die Strahlung sehr stark ab (Elemente mit kleiner Halbwertszeit), später sehr langsam (immer mehr Kerne sind bereits zerfallen, es sind nur noch Elemente mit großer Halbwertszeit vorhanden). Wichtig für das Verständnis eines “Endlagers” ist die Tatsache, daß der “Atommüll” in menschlichen Zeiträumen eine Intensität erreicht, die der natürlich vorkommender Erzlagerstätten entspricht. Anders ausgedrückt: Solange man den “Atommüll” nicht isst, kann man ihn problemlos in die Hand nehmen. Sollte er tatsächlich wieder in den biologischen Kreislauf gelangen (z. B. durch Grundwasser) ist die entscheidende Frage, wieviel Zeit vergangen ist (d. h. wieviele und welche radioaktiven Elemente überhaupt noch vorhanden sind) und welche Konzentration vorliegt.

Die Crux mit der Radioaktivität ist, daß man einerseits noch geringste Mengen nachweisen kann, andererseits diese längst nicht mehr schädlich sind. Typisches Beispiel ist die Banane oder verschiedene Mineralwässer. Für die “Beherrschbarkeit” und dem Umgang mit abgebrannten Brennelementen könnte man sagen: Je länger abgelagert, je harmloser und technisch einfacher handhabbar. Jeder Laie kann das nachvollziehen. Nach der Entnahme aus dem Reaktor kann man die “frischen Brennelemente” nur fernbedient handhaben und muß diese zur Kühlung und Abschirmung in metertiefen Wasserbecken lagern. Nach einigen Jahren werden sie in Spezialbehälter umgepackt. Neben solchen “Castoren” kann man gefahrlos herlaufen oder eine Lagerhalle betreten.

Warum nicht einfach verkaufen?

Abgelagerte Brennelemente sind der ideale Input für Wiederaufbereitungsanlagen. Je geringer die Strahlung ist, desto weniger belasten sie die Anlage und das notwendige Personal. In diesem Sinne, sind z.B. Indien und China ideale Kunden. Beide Länder haben sich zum Bau von Wiederaufbereitungsanlagen entschlossen, da sie arm an eigenen Uranvorkommen sind. Je zügiger sie mit dem Bau beginnen, desto geringer ist die Menge, die sich aus den eigenen Kernkraftwerken ansammelt. Bis solche Anlagen richtig laufen, sind Jahrzehnte Vorlauf (Planung, Bau, Probebetrieb) notwendig. Gerade in den ersten Betriebsjahren sind abgelagerte Brennelemente die ideale Beschickung. In diesem Sinne wären Brennelemente aus Deutschland ein interessantes Handelsgut.

Wäre nicht die zur Zeit vorherrschende ideologische Verblendung bestimmend, könnten wir international – gerade bei einem Totalausstieg – zu vernünftigen und wirtschaftlich optimalen Lösungen gelangen. Schließlich haben wir ja auch bisher schon die “Dienstleistung Wiederaufbereitung” in England und Frankreich eingekauft. Warum zukünftig nicht auch in Rußland, China oder sonst wo? Entsprechendes gilt für die Konditionierung von Abfällen. Es wurden ganze LKW-Ladungen von brennbaren Abfällen in die USA verschifft und anschließend die “radioaktive Asche” nach Deutschland zurückgeführt. Bei den geringen Mengen, die bis zum “Totalausstieg” angefallen sein werden, kann man gleich über die Mit-Einlagerung in deren “Endlager” verhandeln. Ganz so, wie wir ja auch das “Endlager Herfa-Neurode” international vermarkten. Falls das nicht politisch gewollt ist, bliebe auf diesem Weg nicht viel mehr als ein zentraler Bunker über, indem der gesamte Restmüll sicher eingelagert werden kann.

Die Finanzierung

Die Kerntechnik ist die erste Sparte überhaupt, die von Anfang an die gesamten Kosten berücksichtigt hat. Dies ist – nach wie vor – ein Alleinstellungsmerkmal. Kein Windmüller muß für seine als Plastikmüll endenden Flügel, kein Sonnensammler für seine giftmüllhaltigen Sonnenzellen Rücklagen bilden. Auch die sog. Ewigkeitskosten der Bergwerke wurden nicht in den Kohlepreis eingerechnet. Heute findet man beispielsweise “Giftmülldeponien”, die Bohrschlämme aus der Gas- und Ölförderung enthalten.

Man kann die Folgekosten grundsätzlich erst tragen, wenn sie tatsächlich anfallen oder bereits zu Anfang versuchen sie einzurechnen. Für beide Vorgehensweisen lassen sich stichhaltige Argumente anführen. Das einzige, was zu völlig falschen Ergebnissen führt, ist die gleichzeitige Anwendung beider gegensätzlichen Prinzipien. Genau das, wurde aber von der “Anti-Atomkraft-Bewegung” als Kampfmittel entdeckt.

Wenn man schon bei der Nutzung adäquate Rücklagen bildet, bleibt immer noch die Frage wie: Als Umlagesystem (analog zu unserem Rentensystem) mit dem Staat als Garanten, der Vermögensbildung beim Unternehmen oder der Anlage in einem Fonds. In Deutschland hat man sich zur Bildung von Rücklagen im jeweiligen Unternehmen entschlossen. Dies wurde ursprünglich sehr gründlich und kontrovers diskutiert und abgewogen. Allen Möglichkeiten ist die Schwierigkeit der Abschätzung der zukünftigen Kosten und die Sicherheit der Anlage gemeinsam: Staaten können verschwinden, Unternehmen pleite gehen und Anlagen durch Finanzkrisen etc. dahinschmelzen.

Die vermeintliche Anlagesicherheit

In Deutschland mußten die Energieversorgungsunternehmen mit Kernkraftwerken Rücklagen für den Abriß und die Abfallentsorgung bereitstellen. Ein revolutionärer Gedanke, ein Alleinstellungsmerkmal und die “praktizierte Nachhaltigkeit”.

Ein (vorgeschriebener) Anteil an den Unternehmenserlösen wurde für die Entsorgung zurückgestellt. In der Praxis bedeutete das, man hat mit diesen Mitteln neue Kraftwerke, Stromleitungen etc. finanziert. Dies führte zu zusätzlichen Erträgen, da man keine Zinsen für Kredite an die Banken zahlen mußte. Es mußte nur der Barwert, der in der Zukunft anfallenden Kosten, zurückgestellt werden. Die Vorteile kamen indirekt allen zu gute, da jeder elektrische Energie verbraucht. Insofern bestand volkswirtschaftlich kein Unterschied zu einem Umlagesystem. Bei einem Fonds hätte man zusätzliche Kosten für die externe Vermögensverwaltung in Rechnung stellen müssen.

Jetzt zur (vermeintlichen) Sicherheit der Anlage. Das Geld wurde in Vermögenswerte umgewandelt. Nichts anderes kann auch ein Fonds bieten. Er kann jedoch nicht auf dingliche Werte (Kraftwerke, Umspannwerke etc.) zurückgreifen, sondern nur auf Finanzprodukte (Aktien, Anleihen etc.). Ironischerweise sind gerade Anleger mit ähnlich langfristigem Anlagehorizont und ähnlichem Sicherheitsbedürfnis brennend an Sachanlagen aus der Energiewirtschaft mit regelmäßigen Einnahmen interessiert. Versicherungswirtschaft und Pensionsfonds investieren in Pipelines, Stromtrassen usw. Sie erscheinen heute durchaus sicherer und ertragreicher als Staatsanleihen und Aktien. Strom wird halt immer gebraucht. Insofern werden auch die Anlagen zur Erzeugung und Verteilung gebraucht – es sind echte Vermögenswerte.

Von dem Gedanken des Verursacherprinzips ausgehend, ist die Anlage in den Unternehmen ebenfalls logischer: Das Unternehmen haftet mit seiner Substanz. Wenn man einen Fonds zwischen schaltet, kann man die Haftung kaum noch durchleiten. Ist das Geld an der Börse verspekuliert, kann das Unternehmen nicht dafür verantwortlich gemacht werden. Die Anlagen der Energieversorger waren im Zeitalter des Energiemixes auch breit gestreut. Wo bitte, soll der “Entsorgungsfonds” denn seine Milliarden anlegen? In Windparks, E-Autos oder doch lieber in griechischen Staatsanleihen? Wer verwaltet den Fonds und wer bekommt die Verwaltungskosten? Der Fonds soll doch bestimmt ethisch und politisch korrekt sein und “klimaneutral”, nicht wahr?

Woher soll das Geld kommen?

Die Rücklagen der Energieversorgungsunternehmen sind Vermögen als Sachanlagen im eigenen Unternehmen. Dieses Vermögen ist eine Immobilie. Darin unterscheidet sie sich nicht grundsätzlich von einem Gebäude: Der Bau hat mal eine bestimmte Summe gekostet, mit der es in die Bücher eingegangen ist. Vermindert um die gesetzlichen Abschreibungen, erhöht um Modernisierungen etc. Soweit ist es Vermögen. Wenn aber nun diese Werte plötzlich ausgeschüttet werden sollen, ergibt sich schlagartig das Problem der Umwandlung in einen Preis: Es muß ein Käufer – nach den Gesetzen von Angebot und Nachfrage – gefunden werden. Wer bitte, soll aber so blöd sein, in Deutschland ein Kraftwerk zu kaufen? In einem Land, indem gerade die Kernkraftwerke entschädigungslos enteignet worden sind und nun auch die Kohlekraftwerke abgeschafft werden sollen? Jeder seriöse Investor, wird eher nach Afrika oder Asien gehen. Übrig bleiben, werden nur Spekulanten, die bereit sind Wetten darauf abzuschließen, wie lange der Wahnsinn in Deutschland noch anhält. Da politische Veränderungen erfahrungsgemäß sehr langsam ablaufen, kann der finanzielle Einsatz nur gering ausfallen. Selbst die DDR konnte sich rund vier Jahrzehnte über Wasser halten. Für technische Entwicklungen ein unendlich langer Zeitraum. Lange Rede, kurzer Sinn: Es werden gewaltige Preisabschläge auf die Buchwerte nötig sein, um 23 Milliarden kurzfristig flüssig zu machen.

Mal angenommen, es gelingt tatsächlich. Mit welchen Produktionsmitteln sollen dann die übrig gebliebenen Skelette noch Ergebnisse erzielen? Das Ganze gleicht doch einem Bauern, der Trecker und Saatgut verkauft. Die von dem Sozialisten Trittin dem Volk vorgegaukelte Sicherheit, ist in Wirklichkeit nichts weiter als die Schlachtung der Kuh, die er melken will. Oder frei nach Maggie Thatcher: Den Sozialisten geht irgendwann immer das Geld der anderen aus. Dieser Fonds wird – nach dem er das Geld für alle möglichen linken Projekte verbrannt hat – möglichst unauffällig dahinsiechen, ohne eine einzige Tonne “Atommüll” beseitigt zu haben.

Spätestens wenn die Blase “Windparks” geplatzt ist, wird nur noch ein Heer von Arbeitslosen, von den ehemals stolzen Energieversorgern übrig bleiben. Wer nicht jetzt beginnt, sich zu wehren, sollte sich schon mal mit den “Schlecker-Frauen und Karstadt-Verkäufern” über das Leben danach unterhalten. Die Ex-Minister Trittin, Müller und der grüne Gewerkschaftsfunktionär Bsirske werden sicherlich ihre Pensionen genießen und auch weiter unter Palmen über den “Raubtierkapitalismus” schwadronieren. Noch nie war Enteignung so schön, wie heute.

Dieser Beitrag erschien zuerst bei Nukeklaus hier




Der Umweltschutz hat mit Vögeln nichts am Hut

Unerträglich für den Menschenverstand wird ein solcher Konflikt erst, wenn eins der Ziele nicht mehr benannt wird, wenn es einfach weghaluziniert wird. Es handelt sich um das bisher immer vehement verkündete Ziel des Vogelschutzes und zwar in der Abwägung mit dem Ziel der Energiegewinnung aus Wind. Das Thüringer Landesverwaltungsamt hat den Bürgermeistern der Planungsregion Mittelthüringen gerade einen Umweltbericht zum Teilplan „Windenergie“ zwecks Behördenbeteiligung zugestellt. In der Anlage ein 31seitiger Umweltbericht.

So ein Bericht ist dazu da, um die Umweltauswirkungen eines Eingriffs zu beschreiben und zu bewerten, und zwar in Bezug auf den beabsichtigten Eingriff: den Bau und Betrieb von Windkraftanlagen.

Der Gigantismus des Windkraftanlagenbaus in Zahlen: In den 1990er Jahren übertraf der Rotordurchmesser der Windkraftanlagen selten 50 Meter. 2014 betrug  der durchschnittliche Rotordurchmesser schon 99 m und die durchschnittliche Nabenhöhe 116 m. Die größten Rotoren von WKA haben inzwischen bis 170 m Durchmesser, was fast dem Aufstandsmaß der Cheops-Pyramide entspricht.

Eine der heutigen Serienanlagen ist die E-126 mit einer Nabenhöhe von 135 m auf einem Stahlbetonturm mit 2.800 t Gewicht. Der Durchmesser des Turms beträgt am Schaft 16,5 m, die Gesamthöhe fast 200 m. Nabe und Flügel wiegen noch einmal 320 Tonnen und das Fundament 3.500 Tonnen.

Trotz dieser Ausmaße ist eine Windkraftanlage ein fast punktförmiger Eingriff in die Umwelt, im Gegensatz zu flächenhaften Eingriffen bei Baugebieten und linienhaften bei Verkehrswegen. Denn die Aufstandsfläche, die Zuwegungen und die Aufstandsflächen für die Wartungsgeräte sind in der Regel deutlich unter einen Hektar groß.

Trotzdem thematisiert der Umweltbericht das Schutzgut Grundwasser auf einer Viertelseite, das Schutzgut Boden auf einer halben Seite, Kultur- und Sachgüter (Stadtsilhouetten und Denkmäler) auf einer Seite, den Menschen aber nur auf einer Drittelseite. Und auf dieser Drittelseite wird der Infraschall mit keinem Wort erwähnt.

Bisher wurden die Beeeinträchtigungen des Menschen durch Windkraftanlagen von Medien, Politik und Wissenschaft rundweg geleugnet. Jetzt liegt jedoch eine Machbarkeitsstudie des Umweltbundesamtes auf dem Tisch, die erstmals einräumt, daß es Probleme geben könnte.

In der Studie heißt es unter anderem: „Das charakteristische pulsierende Geräusch von Windenergieanlagen, das lange Zeit mit dem Passieren eines Rotorblatts am Turm erklärt wurde, wird derzeit mit dem Durchschneiden verschiedener Schichten im Windprofil erklärt. Dabei entstehende Turbulenzen könnten nach Kameier et al. (2013) einen impulshaltigen Charakter verursachen. Bei solchen Turbulenzen können sich Wirbel ablösen, die auch über größere Entfernungen sehr formstabil zu einer stark gerichteten Abstrahlung führen können.“

An anderer Stelle heißt es: „Ein großer Abstand zwischen Emissions- und Immissionsort (zwischen WKA und Haus) verstärkt den Einfluss der Meteorologie. Dies kann bei instabilen Wetterlagen schlagartig andere Ausbreitungsverhältnisse und damit stark schwankende Pegel zur Folge haben. Die von vielen Betroffenen gemachte Beobachtung, dass nachts die Geräusche von Windenergieanlagen lauter wären, wurde früher mit einer erhöhten Empfindlichkeit / Aufmerksamkeit der Betroffenen hinsichtlich der Geräusche erklärt. Durch Van den Berg (2006) konnte aber nachgewiesen werden, dass nachts systematisch andere Ausbreitungsbedingungen vorliegen, die auch dafür verantwortlich sind. Nicht selten ist festzustellen, dass Pegel mit zunehmendem Abstand nicht kontinuierlich abnehmen, sondern auch zunehmen können. Dieser Effekt ist durch das Windprofil bedingt.“

Windkraftanlagen verursachen tieffrequenten Schall. In der Studie heißt es dazu: „Die physikalischen Gegebenheiten, die die nahezu ungehinderte Ausbreitung von tieffrequentem Schall und Infraschall zugrundeliegen sind dieselben, die einen wirksamen Lärmschutz gegenüber diesen Schallarten sehr erschweren. Sollen effektive bauliche Schallschutzmaßnahmen getroffen werden, so ist der Aufwand bezüglich eingesetzter Massen oder Volumina umgekehrt proportional zu den Frequenzen. Bei tieffrequentem Schall oder sogar bei Infraschall bedeutet dies in der Regel einen kaum realisierbaren Aufwand“ Gegen Windkraftanlagen gibt es keinen bezahlbaren Immisionsschutz. Schallschutzfenster sind gegen Infraschall nahezu wirkungslos.

Diese Studie des Bundesumweltamtes ist beim Thüringer Landesverwaltungsamt offensichtlich noch nicht angekommen.

Auf anderthalb Seiten wird im Umweltbericht des Landesverwaltungsamtes die biologische Vielfalt, Fauna und Flora abgehandelt. Auf einer Seite erst mal die Pflanzenwelt, die durch die Anlagen wirklich nur geringfügig betroffen ist. Es ist als wenn der Leser besoffengeschrieben werden soll. Und dann kommt doch noch die Tierwelt. Da werden der Rothirsch und die Wildkatze sowie deren Wanderungsbewegungen erwähnt. Ein Konflikt zwischen Windrad und Wildkatze wäre zum Beispiel möglich, wenn nachts eine blinde oder verwirrte Wildkatze vor den Schaft einer Anlage läuft.

Kein Wort von der Vogelwelt! Keine Zeile von Vögelzügen der Wandervögel nach Afrika und zurück. Kein Wort vom Rotmilan und anderen Greifvögeln, die in Thüringen beheimatet sind. Wenn Windkraftanlagen für irgend etwas Gefahren darstellen, dann für Vögel, für Menschen durch Infraschall und für die Brieftasche der Stromverbraucher.

Letzteres gehört in die Vorhabenbeschreibung, aber nicht in den Umweltbericht. Ach ja, eine Vorhabenbeschreibung mit Anlagenparametern fehlt in der Unterlage des Landesverwaltungsamtes auch.

Der Umweltbericht endet mit der Zusammenfassung: Dort findet man die Behauptung, ein 5-km Mindestabstand würde ausreichend breite Korridore für den Vogelzug gewährleisten. Zwischen Sömmerda und Bad Sulza soll ein fast durchgehendes Band von Windrädern entstehen, das tatsächlich zweimal (!) unterbrochen ist. Woher wissen die Vögel das? Gibt es Vereinbarungen des Landesverwaltungsamts mit dem Zentralkomitee der Störche über die Flugrouten? Es gibt einen Zielkonflikt zwischen Windkraft und Vogelschutz. Das wird in der Unterlage nicht eingeräumt, sondern weghaluziniert.

Der Entwurf zum Teilplan „Windenergie“ ist eine einzige Katastrophe. Der Gutachter hat das Blaue vom Himmel runtergeschrieben, um der Landesregierung (in der die Grünen das Umweltministerium besetzen) zum Munde zu reden. Windkraftanlagen sollen um jeden Preis gegen den Willen der Bevölkerung durchgedrückt werden. Das ganze versendete Machwerk ist eine einzige Beleidigung des Verstandes. Und gesetzeskonform ist so ein Gepfusche auch nicht.

Übernommen von Prabels Blog hier 




Keine Vertuschung in Fessenheim – Vorwürfe erweisen sich als haltlos

Folgt man den Medienberichten in der Süddeutschen Zeitung (SZ)  und beim Westdeutschen Rundfunk (WDR), so gewinnt der Leser den Eindruck, die Wahrheit sei erst jetzt durch Recherchen von WDR und SZ ans Licht gekommen. Die Journalisten Marlene Weiß (SZ) und Jürgen Döschner (WDR) berufen sich auf einen Brief, den die ASN zwei Wochen nach dem Vorfall an den Leiter des Kernkraftwerks Fessenheim schrieb und der bislang unbekannte Details enthielte. Hier sei ein »Atom-Unfall offenbar vertuscht«worden, behauptet Döschner und betitelt seinen Artikel entsprechend.

Nichts wurde vertuscht

Indes: Es wurde nichts vertuscht. Die Vorwürfe entbehren jeder Grundlage. Denn mag das Wort »Brief« Assoziationen an ein Schreiben auf Papier und ein den Journalisten heimlich zugespieltes geheimes Dokument hervorrufen, so ist die Wirklichkeit weit banaler. Der Brief der ASN vom 24. April 2014 ist nämlich für jedermann von der Website der ASN abrufbar. Und dort steht er nicht erst seit Bekanntwerden des angeblichen Vertuschungsversuchs. Nein, er wurde unmittelbar nach Verfassen im April 2014 auf der ASN-Website veröffentlicht. Das bestätigte die baden-württembergische Landesregierung gegenüber dem Südwestdeutschen Rundfunk (SWR), wie dieser in seiner Soundcloud mitteilte.

Wörter sind wichtig

Also nichts dran an den Vorwürfen. Dennoch: Der Schaden ist angerichtet, die Kompetenz der Kernkraftwerksbetreiber und die Glaubwürdigkeit der Atomaufsichtbehörden – also der »Atommafia« – ein weiteres Mal untergraben.

Gerade Jürgen Döschner verfolgt offenkundig einen stramm kernkraftfeindlichen Kurs. Das läßt sich leicht an seinen Beiträgen auf Twitter-Timeline ablesen, und das zeigt auch sein Beitrag zu Fessenheim, besonders im Vergleich zu dem seiner SZ-Kollegin Marlene Weiß.

Der Vorwurf der Vertuschung stammt von Döschner, nicht von Weiß. Und er verankert dieses Wort dann auch direkt im Titel seines Beitrags, damit es auch ja jeder mitbekommt, auch der, der den übrigen Text gar nicht liest. Weiß hingegen äußert sich erheblich behutsamer. Der Ablauf mache nachdenklich, wenn man die Details betrachte, schreibt sie – eine Formulierung, die man auch als Kernkraftbefürworter unterschreiben kann.

»Atomunfall« schreibt Döschner, wiederum gleich in der Überschrift. »Atom«, da fürchtet der Leser freigesetzte Radioaktivität und Strahlung; »Unfall«, das suggeriert ihm, daß mindestens ein Gesundheits- oder Umweltschaden entstanden ist. Auch im Text verwendet Döschner das Wort »Unfall« zweimal. – Weiß hingegen spricht in »Panne im Atomkraftwerk Fessenheim war gravierender als gedacht« korrekt von einer »Panne«, denn genau das war passiert: Bei Wartungsarbeiten war Wasser in Schaltschränke im nichtnuklearen Teil des Kraftwerks eingedrungen und hatte die Elektronik außer Betrieb gesetzt. Menschen waren nicht zu Schaden gekommen, und Radioaktivität war auch nicht ausgetreten.

Was geschah in Fessenheim?

Die Einzelheiten gehen aus dem Brief der ASN vom 24. April 2014 hervor und erlauben es, den Zwischenfall nachvollziehen.

Die erwähnten Schaltschränke gehören zum Kanal A des Reaktorschutzsystems im Kernkraftwerksblock Fessenheim 1. Das Reaktorschutzsystem soll, wie der Name schon sagt, den Reaktor vor Schäden schützen. Zu diesem Zweck kann das Schutzsystem bei bestimmten Ereignissen automatisch eine sogenannte Reaktorschnellabschaltung (RESA) auslösen. Nun muß man aber wissen, daß in Kernkraftwerken sämtliche Sicherheitssysteme redundant ausgelegt sind. Das heißt: Von allen für die Sicherheit relevanten Komponenten gibt es immer zwei oder noch mehr. Jede Komponente kann allein die notwendige Funktion sicherstellen. Das gilt auch für das Reaktorschutzsystem in Fessenheim. Neben dem ausgefallenen Kanal A gibt es dort den Kanal B. Der ist in einem anderen Gebäudeteil untergebracht und kann ganz allein bei Bedarf für eine Reaktorschnellabschaltung sorgen. (Nebenbei: Atomkraftgegner sprechen hier nie von einer Schnell-, sondern immer von einer Notabschaltung. Der Grund dafür ist offensichtlich.)

INES Skala siehe Bild oben rechts

Weit weg vom Rand des Super-GAUs: Französische Aufsichtsbehörde ASN bewertet Zwischenfall im Kernkraftwerk Fessenheim mit INES 1. Grafik INES-Skala: IAEA

Nach Ausfall von Kanal A war zwar die Möglichkeit der Schnellabschaltung noch gegeben, allerdings fehlte die Redundanz, denn alles hing nun von der Funktionstüchtigkeit von Kanal B ab. Für die ASN war dies der Grund dafür, den Vorfall mit INES 1 zu bewerten. INES (International Nuclear and Radiological Event Scale)ist eine internationale, siebenstufige Skala zur Bewertung von Störfällen in Kernkraftwerken, wobei 1 die niedrigste Stufe ist und 7 die höchste (Tschernobyl, Fukushima). Daneben gibt es noch INES 0 für Abweichungen vom Normbetrieb, die ohne Bedeutung für die Sicherheit sind. Die Stufen 1 bis 3 sind „incidents“, also Störungen (INES 1) oder Störfälle (INES 2 und 3). Erst ab Stufe 4 hätte Döschner mit Recht von »Unfall« („accident“) sprechen können.

Den Kernreaktor herunterfahren – aber wie?

Gemäß Betriebshandbuch entschloß sich die Betriebsmannschaft von Fessenheim 1 dazu, den Reaktor abzufahren. Dazu hatte sie zwei Möglichkeiten:

♦  Handauslösung einer Reaktorschnellabschaltung: Die elektromagnetischen Aufhängungen aller Steuerstäbe (48 Stück, inklusive fünf Trimmstäbe zur Leistungsverteilung) klinken aus, wenn der Strom für die Elektromagneten abgeschaltet wird. Alle Steuerstäbe fallen durch ihr Eigengewicht in den Kern und bringen die Kernspaltung in Sekundenschnelle zum Erliegen.

   Normales Herunterfahren: Von den drei Steuerstabgruppen werden einzelne Bänke nacheinander eingefahren, und zwar zunächst die »graue Bank« (zwölf Steuerstäbe), die die Reaktorleistung bis auf 50 Prozent drosselt, danach die »lange schwarze Bank« (16 Steuerstäbe), die die Reaktorleistung bis auf die Nachwärmeleistung reduziert. Parallel werden die Kompensationsstäbe (acht Steuerstäbe), sowie die verbleibenden Abschaltstäbe (17 Steuerstäbe) eingefahren. Sie sollen den unterkritischen Zustand des Reaktors gewährleisten. Die maximale Leistungsänderung der beiden Fessenheimer Blöcke ist auf fünf Prozent pro Minute beschränkt, so daß der normale Abfahrvorgang eine gewisse Zeit in Anspruch nimmt.

Das Team entschied sich für die zweite Variante, weil sie erheblich schonender für das Material ist und vermutlich auch, weil keine Eile geboten war, die eine Schnellabschaltung geboten hätte. Allerdings trat nun ein Problem auf: die Steuerstäbe waren nicht manövrierfähig. Was das genau bedeutete und was die Gründe dafür waren, geht aus dem vorliegenden Material nicht hervor.

Leistungsregelung und Reaktorschutz sind unabhängig

Und hier zeigt sich ein wesentliches Verständnisproblem von Döschner und Weiß. »Selbst die Notabschaltung funktionierte nicht reibungslos«, schreibt Weiß. Offenbar nehmen die Journalisten an, wenn sich die Steuerstäbe nicht bewegen ließen, dann könne ein Reaktor nicht mehr abgeschaltet werden und drohe, außer Kontrolle zu geraten. Das ist aber nicht der Fall, denn bei einem Kernreaktor sind Leistungsregelung und Schnellabschaltung zwei völlig voneinander unabhängige Systeme. Das heißt, selbst dann, wenn die Leistungsregelung, sprich: die exakte Positionierung der Steuerstäbe, versagt, kann man den Reaktor in einem Notfall, der diesen Namen verdient, immer noch per Schnellabschaltung stoppen. Das passiert entweder automatisch (Kanal B) oder man schaltet die Elektromagneten, die die Steuerstäbe halten, manuell stromlos – siehe oben.

Leistungsregelung durch Borierung

Der Betriebsmannschaft stand aber noch ein weiteres Mittel zur Leistungsdrosselung zur Verfügung: das Einspeisen von Borsäure in den Reaktor. Bor ist ein starkes »Neutronengift«, das heißt, es fängt die für die Kettenreaktion nötigen und im Reaktorkern umherfliegenden Neutronen weg, so daß sich die Kettenreaktion nicht mehr aufrechterhalten kann. Der Spektrum.de-Artikel »Rettete Bor das Kernkraftwerk?«erwähnt, man habe Bor nicht als Borsäure eingespeist, sondern man habe eine Notborierung mittels Borcarbid (B4C) in Form eines Granulats durchgeführt. Woher Autor Daniel Lingenhöhl diese Behauptung nimmt, ist unklar.

Der ASN-Brief spricht auch nicht von einer »Notborierung«, sondern schlicht und ergreifend von »Borierung«, und das ist kein wirklich außergewöhnliches Mittel zur Leistungsreduzierung. Im Gegenteil, Bor wird in Druckwasserreaktoren wie dem in Fessenheim auch im Normalbetrieb zur Leistungsregelung eingesetzt, weil dies eine ausgeglichenere Leistungsverteilung über die gesamte Höhe des Kerns ermöglicht sowie eine möglichst hohe Steuerstabstellung für eine maximale Abschaltreserve erlaubt. Fahren im Zuge der automatischen Leistungsregelung die Stäbe tiefer ein, wird Bor zudosiert, um sie wieder auf eine höhere Position zu bewegen. Die benötigte negative Reaktivität wird dann durch das Bor gewährleistet.

Florian Kraft, der Schreiber des ASN-Briefes, hat an der Borierung auch nichts weiter auszusetzen. Er beklagt lediglich, die Maßnahme sei wohl ein wenig zu erfolgreich gewesen, denn die Kühlmitteltemperatur sei unter den zulässigen Grenzwert abgesunken, weil der Reaktor nach wie vor am Netz gewesen sei, was dem System Energie entzogen haben. Kraft fordert den Kraftwerksleiter dazu auf, detailliert darzulegen, wie das Kraftwerk bei einer Reaktorabschaltung die Netzabkopplung handhabe.

Schnellabschaltung war jederzeit möglich

Die Regionalchefin der ASN Straßburg, Sophie Letournel, bestätigte laut Heise online das Vorgehen der Fessenheimer Reaktormannschaft am 5. März 2016 gegenüber der Regionalzeitung »Dernières Nouvelles d’Alsace«. Das Verfahren sei zwar atypisch, aber keine Notfall-Prozedur. »Der Betreiber ist zu jedem Zeitpunkt im Rahmen der normalen Verfahren geblieben, um die Situation zu managen, die im Übrigen kontrollierbar geblieben ist«, so Letournel. Sie betonte zudem, eine Schnellabschaltung sei immer noch möglich gewesen.

Überhaupt steht für die ASN nicht die Frage nach dem Abfahren des Reaktors im Mittelpunkt, sondern wie es überhaupt zur Verstopfung von Wasserabläufen und zum Überlauf von Wasser kommen konnte beziehungsweise durch welche Maßnahmen man das künftig verhindern kann.

Lügt die Tagesschau?

Insgesamt also viel Lärm um fast nichts. Dennoch bleibt in der Öffentlichkeit der Eindruck, Kernenergie sei eine unsichere Sache und Fessenheim könne »uns um die Ohren fliegen«. Letzteres ist im SZ-Artikel zu lesen. Natürlich stellt nicht Weiß diese Behauptung auf, sondern läßt dafür den Antiatomaktivisten André Hatz zu Wort kommen.

Und der WDR beziehungsweise die Tagesschau"Lügen sie" Schauen wir mal: »Atom-Unfall offenbar vertuscht«, titelte Döschner seinen Beitrag.

Wie wir nun wissen, wurde nichts vertuscht. Döschner hat also entweder bewußt gelogen, also wider besseres Wissen die Unwahrheit gesagt, oder er hat schlampig recherchiert und sich schlichtweg geirrt. Beides wirft kein gutes Licht auf seine journalistische Fähigkeiten. Nun, immerhin hat er sich mit dem Wort »offenbar« eine Hintertür offengehalten, oder sagen wir lieber: eine Katzenklappe.

Erst kürzlich hatte sich Döschner ähnlich »kompetent« in Sachen Reaktortechnik hervorgetan, als er sich über die Vorwärmung des Notkühlwassers für Tihange 2 und Doel 3 mokierte und die Reaktoren als zu marode für kühles Kühlwasser bezeichnete. Daß diese Vorwärmung ein übliches Verfahren sein könnte, war ihm nicht in den Sinn gekommen. Und natürlich hat er auch nicht bei Experten nachgefragt. Mehr dazu im Nuklearia-Beitrag »Belgische Rissreaktoren: Wie sicher sind Tihange 2 und Doel 3 ?« von Anna Veronika Wendland. 

Nein, Herrn Döschner ist für seine antinukleare Agenda selbst die Unwahrheit noch gut genug. Da sind ihm auch unlautere Mittel recht. Natürlich kann man ihm so wie hier solche Fehler nachweisen. Nur: Solche Nachweise erreichen nur vergleichsweise wenige Menschen, während bei der überwältigenden Mehrzahl von Döschners Lesern und Zuschauern nur »Atomunfall« und »Vertuschung« hängenbleiben. Sie fürchten sich vor Tihange, Doel und Fessenheim, fürchten sich vor Super-GAU und Atomtod. Nach vier Jahrzehnten Konfrontation vermögen Atomkraftgegner in insgesamt harmlos verlaufenden Vorfällen nur noch den »Atomunfall« zu sehen.

Eine sachlich-kritische Analyse sollte hingegen eher der französischen Atomaufsicht folgen, die nichts vertuschte, sondern im Schreiben an das KKW Fessenheim auf die tatsächlich sicherheitsrelevanten Dinge verwies, hier: die Sicherstellung von Wartungsprozeduren auch im nichtnuklearen Bereich. Ein ordnungsgemäßer Ablauf hätte den Wassereinbruch von vornherein verhindert.

Grund genug, weiterhin Überzeugungsarbeit zu leisten, vor allem bei denjenigen, die noch offen sind für Fakten.

Programmbeschwerde einlegen?

Was eine Programmbeschwerde ist, kann man in der Wikipedia nachlesen:

https://de.wikipedia.org/wiki/Programmbeschwerde. Dort heißt es unter anderem: »Die Beschwerde kann erfolgreich eingelegt werden, wenn Programmgrundsätze verletzt werden.«

Zu solchen Programmgrundsätzen zählen unter anderem die journalistischen Sorgfaltsgebote. Die hat Döschner eklatant verletzt. Im Pressekodex https://de.wikipedia.org/wiki/Pressekodex heißt es: »Recherche ist unverzichtbares Instrument journalistischer Sorgfalt. Zur Veröffentlichung bestimmte Informationen in Wort, Bild und Grafik sind der nach den Umständen gebotenen Sorgfalt auf ihren Wahrheitsgehalt zu prüfen und wahrheitsgetreu wiederzugeben. Ihr Sinn darf durch Bearbeitung, Überschrift oder Bildbeschriftung weder entstellt noch verfälscht werden. Unbestätigte Meldungen, Gerüchte und Vermutungen sind als solche erkennbar zu machen.«

Hier geht es direkt zu einer Seite des WDR, wo man eine förmliche Programmbeschwerde einreichen kann bzw. Kontaktdaten findet:

http://www1.wdr.de/unternehmen/der-wdr/rundfunkrat-eingaben100.html

Der Beitrag erschien zuerst in Nuklearia hier