1

Gorleben: Die Fakten

Das sicherste Endlager gibt es nicht! Die nachhaltigste Entsorgung ra­dioaktiver Abfälle ist und bleibt die in geologi­schen Formatio­nen. Fast jede Gesteinsart, aber vor allem Salz, Tone sowie Granite sind für ein End­lager geeignet. Wesentlich da­bei ist die Qualität der Barrieren des Systems, die die eingelagerten   Schadstoffe langfristig von der Biosphäre zurückhalten. Man un­ter­scheidet geologi­sche, geotechni­sche und rein technische Bar­rieren. Beim Salz kön­nen alle drei Barrie­rensysteme genutzt wer­den, beim Ton und Granit nur die beiden letzte­ren, da nur Salz Wasser undurchlässig ist. Das wichtigste ist die Quali­tät der Barrie­ren.

In Deutschland besteht jahrzehntelange Erfahrung im Untertageberg­bau von Salz und dem sicheren Verschließen von ausgesalzten Lagerstätten. Es besteht aber auch Erfahrung in der untertägigen Endlagerung hochtoxischer Abfälle wie zum Bei­spiel im Endlager Herfa-Neurode, das von „Joschka“ Fischer als hessischer Umweltminister ohne Probleme geneh­migt worden ist. In dieses Endlager dürfen seit Jahren alle Ar­ten von toxischen Stoffen aus Eu­ropa – einschließlich der toxischen Abfälle, die in der Solarindustrie (wie z.B. Cadmium) anfallen -zu unabhängig von deren Toxizität, eingela­gert werden, solange sie nicht feucht, radioaktiv sind und keine Gase bil­den. Der Grad der Toxizität spielt keine Rolle. Diese Toxizität bleibt ewig, da sie nicht wie radioaktive Abfälle mit der Zeit verschwindet.

Das Wichtigste für ein Endlager für radioakti­ve Stoffe ist, es muss ein neues Berg­werk errichtet werden, da­mit alle techni­schen und lang­zeitrelevanten Maßnahmen wie Geologie, Bergbautechnick, Einlagerungstechnik, Mehrbarrierensystem, Wasserzuflüs­se, Gasbildung, Kritikalität, Safeguards, Restrisiko etc. insgesamt für den Standort bewertet, geplant und kon­trolliert erstellt werden können. Dabei gehört zu den wichtigsten Maßnahmen: nur mini­male Hohlräu­me schaffen, Schächte, un­tertägige Stre­cken, und Einlage­rungskammern nur nach Be­darf auf­fahren und die­se noch wäh­rend des Einlagerungs­betriebs sukzes­siv und nach Ende der Einlagerung alle rest­lichen Hohlräume ein­schließlich der Schächte mit geo­technischen und tech­nischen Bar­rie­ren zu versiegeln. Für das Endlager­projekt Gorle­ben sind alle diese Fra­gen de­tailliert un­tersucht worden, mit dem Ergebnis, dass bisher keine grund­sätzlichen technischen Fragen mehr offen sind, die einer Eig­nungshöffigkeit widerspre­chen. Dies müsste allerdings noch in einem Genehmigungs­verfahren streng über­prüft werden – zu dem es wohl wegen des enormen politi­schen Widerstands nicht kommen dürf­te.

Zur Erinnerung: Der über 2000 m in die Tiefe reichende Salzstock von Gorleben ist seitlich und nach oben durch Wasser undurchlässi­ge Gesteinsschichten geschützt. Nur am Scheitel des Salzstocks, ca. 250 m unter der Oberfläche, wurde diese schützende Schicht als Folge der Eiszeit an einer Stelle und die darüber liegenden tertiären Sedimente entlang einer Rinne z. T. ero­diert . Die Rinne selbst ist heute mit Wasser durchlässigen Sanden und Tonen gefüllt. Da in der Rinne das Wasser mit dem Salz in direkter Berührung steht, handelt es sich hier um eine gesättigte Salzlauge, die gegenüber Salz praktisch re­aktionsunfähig ist, also kein Salz mehr lösen kann. Die Einlagerungsstrecken des geplanten Betriebes liegen ca. 600 m – also 600 m Salzbarriere – unter dem Scheitel des Salz­stockes bzw. 850 m unter der Oberfläche.

Zum Vergleich sei hier auf den Salzbergbau im Gebiet von Heilbronn hingewiesen, wo seit 1895 bis heute Salz gefördert wird. Das horizontal liegende Salzlager (kein Salzstock) ist ca. 20 m mächtig und liegt in einer Teufe von 150 m bis 180 m unter der Oberfläche. Es wird von einer ca. 50 m mächtigen wasserdichten Schicht überlagert – also nur eine 50 m dicke Barriere! Darüber liegen stark wasserführende Schichten des Mittleren Muschelkalks (Rogowski 2003). Zu Beginn des / der Bergwerke gab es beträchtliche Probleme mit der Wasserzufuhr, die späteren geringen Zuflüsse waren und sind heute beherrschbar. Das gesamte Grubengebäude besteht heute aus ca. 700 (siebenhundert) km offenen Strecken und Abbaukammern, die durch Sicherheitspfeiler von­einander getrennt sind. Ein Teil des ausgesalzten Grubengebäudes liegt unter den Städten Heilbronn, Neckarsulm, Ko­chendorf, also direkt unter dem Neckar. Das Bergwerk wird seit über mehr als hundert Jahre betrieben, hatte bisher keinen nen­nenswerten Unfall, hat den Bombenhagel, der im zweiten Weltkrieg über Neckarsulm und Heilbronn nieder ging, überstanden, und es besteht kein Grund an der Betriebssicherheit des Bergwerkes zu zweifeln. Das Endlager von Herfa-Neurode in Hessen, in dem alle ewig bestehenden und nicht zerfallende, toxischen bis höchst toxischen Stoffe endgelagert werden, ist seit Jahren ohne Störfälle in Betrieb.

Vergleicht man das Barrierensystem bei dem geplanten Endlager Gorleben mit über 500 Metern Salzbarriere mit der einzigen, der geologischen Barriere von 50 Metern des sich im Betrieb be­fin­denden Bergwerks Heilbronn, dann ist of­fensichtlich, dass Gorleben ein bei weitem ausge­prägteres Barrierensystem ha­ben wird, als das Salzbergwerk di­rekt un­ter ei­nem Fluss, dem Neckar – und unter dem Audi-Werk in Neckarsulm! Verkürzt bedeutet das für die Betriebssicherheit bei Gorleben, dass diese wegen der mächtigen Salzbarriere und der einzigen Verbindung zur Oberfläche durch zwei Schächte zu den zwei Einlagerungshorizonten recht hoch ist. Bei dem Salzberg­werk Heilbronn ist die Betriebssicherheit durch den einhundert jährigen Betrieb nachge­wiesen. Bei der Bewertung der Langzeitsicherheit schneidet Gorleben aber auch viel besser ab, da nach dem Ende der Einlagerung alle Hohlräume wie Einlagerungskammern, Einlagerungsstrecken und zwei Schächte durch geotechnische und technische Barrie­ren versiegelt sind, bei Heilbronn dagegen über 700 km offene Hohlräume für alle Ewigkeit offen bleiben werden. Fazit: wer vor Gorleben Angst hat, sollte vor Heilbronn noch mehr Angst haben!  
  
Laut Presseberichten votierten im April 2012 fast alle politischen Parteien gegen die Fertigstellung der vorläufigen Sicherheitsanalyse bzw. für den endgültige Abbruch dieser Analyse, was das Ende von Gorleben bedeuten würde! Statt dessen ist geplant, einen neuen Katalog für Endlagerkriterien zu erstellen – obwohl diese schon seit vielen Jahren weltweit bekannt sind. Dabei wird eine neue Anforderung lauten: die Standortsicherheit für das Endlager muss für eine Mil­lion Jahre nachgewie­sen werden. An­schließend sollen nach diesen sogenannten „neuen“ Kriterien mehrere Endlagerstandorte in Deutschland so un­tersucht werden, dass nach Jahrzehnten und wohl mehreren Milliarden Euro – die Energiewende lässt grüßen – die Ergebnisse verglichen werden können, um dann am „besten“ Standort das Endlager zu errichten. Ob dabei die Ergebnisse von Gorleben mit berücksichtigt werden, ist noch offen aber eher unwahrscheinlich. 
  
Interessant wird es nun, wenn die neuen Kriterien, die ja auch den Bergbau bzw. das Deutsche Bergrecht tangieren werden, auch für die sich in Betrieb befindenden Salzbergwerke in Deutschland gelten müssen. Das Salzbergwerk Heilbronn zum Beispiel müsste sofort geschlossen werden, andere Bergwerke möglicherweise auch, da für diese kein Nachweis für die Standsicherheit für 1 Millionen Jahre besteht. Die politisch gewünschten Anforderungen für die Betriebssicherheit, aber insbesondere für die Langzeitsicherheit und für das Restrisko dürften im deutschen Salzbergbau für Kopfschütteln sorgen. Denn die Toxizität von radioaktiven Abfällen ist nach einer Million Jahren fast völlig verschwunden, die offenen Hohlräume wie z.B. im Fall von Heilbronn bleiben dagegen ewig offen, was auch für weitere Produktionssalzberge gilt.  Bei diesen ist ein Nachweis für einen derartigen langzeitsicheren Verschluss nicht möglich, das Restrisiko bleibt ewig.

Nach diesen Fakten stellt sich nun die Frage, ob den Politikern aller Parteien überhaupt bewusst ist, dass vor anderthalb Millionen Jahren das Mittelmeer trocken war, dass vor einer Million Jahren unser Vorfahre, ein homo erectus, gerade dabei war, aufrecht zu gehen und eine halbe Million Jahren später der homo sapiens anfing zu denken und wir Menschen möglicherweise in einer Million Jahren kleine Flügel oder Flossen ha­ben werden…? Weiterhin stellt sich die noch wichtigere Frage, warum grüne und grün gefärbte Politiker, trotz der bekannten technischen Fakten und insbesondere im Vergleich zu anderen Salzbergwerken, Gorleben mit allen Mitteln verzögern beziehungsweise sofort aufgeben wollen, ja müssen. Die Antwort ist recht einfach: für die Grünen wäre es ein Katastrophe – der SuperGau, um in ihrer Sprache zu sprechen –, denn wenn sich der nahe Abschluss der verbleibenden Arbeiten die Eignung Gorlebens zur Endlagerung radioaktiver Abfällen tatsächlich bestätigen sollte, würde das gesamte von ihnen aufgebaute Lügengebäude Gorleben zusammenbrechen und die wichtigste politische Grundlage der Partei erschüttern. Für Greenpeace wäre es ebenfalls eine Katastrophe, denn dann wäre die Mär des Flugzeugs ohne Landebahn weltweit ad Absurdum geführt und die Spendengelder würden bröckeln. Deshalb die Riesen Angst vor der Wahrheit! 

Warum sich andere Parteien dieser Gorleben Angst der Grünen angeschlossen haben, müssen sie selbst beantworten.

Dr.  Helmut Fuchs ist Geologe und Experte für Uranlagerstätten

zuerst erschienen auf ACHGUT 




Es ist an der Zeit für die Person, die die CRU-Mails zugänglich gemacht hat, einen Schritt weiterzugehen

Die Fehlschläge des IPCC sind keine Überraschung und unvermeidlich, weil in den ersten 6000 E-Mails eher eine politische als eine wissenschaftliche Agenda deutlich geworden ist. Beweise aus durchgesickerten Informationen vom AR 5, dem nächsten IPCC-Bericht, deuten darauf hin, dass sich nichts daran geändert hat. Genauso wichtig, die bei der CRU und im IPCC involvierten Personen glauben, dass sie sich mit der Veröffentlichung des Berichtes der Polizei in Norfolk aus der Verantwortung gestohlen haben. Es war genau die fabrizierte Antwort, die sie sich gewünscht hatten; und sie ist auf ihre Weise ebenfalls irreführend.

Am 18. Juli 2012 hat die Polizei in Norfolk ihre Ermittlungen abgeschlossen, und zwar wegen „der realistischen Einschätzung, den Täter oder die Täter ausfindig zu machen und sie innerhalb der vom Gesetz vorgegebenen Verjährungsfristen anzuklagen“. Sie folgerten auch, dass der Angriff „von außen via Internet“ erfolgt war, was keine Überraschung ist und nicht ausschließt, dass ein Whistleblower am Werk war.

Sie haben außerdem die Behauptung des Whistleblowers umgelenkt [deflected], indem sie sagen, dass es „keine Beweise gibt, die nahe legen, dass irgendjemand, der an der University of East Anglia arbeitet oder mit ihr assoziiert ist, in das Verbrechen involviert war“. Es ist sehr unwahrscheinlich, dass ein Whistleblower innerhalb der Universität in dieser Weise aktiv geworden ist, enthält doch dies das Risiko einer einfachen Enttarnung. Die meisten Mitarbeiter der CRU haben Zugang von außen, so dass sie ihre Arbeit von zu Hause aus fortsetzen können oder wenn sie im Zuge der zahlreichen IPCC-Klimakonferenzen in der Weltgeschichte umher reisen.

Der kanadische Netzwerk-Ingenieur Lance Levsen zeigte nach einer detaillierten Analyse überzeugend, dass die Quelle irgendjemand innerhalb der Universität gewesen sein muss. Er folgerte: Ein Hacker, der alle diese Informationen gesammelt hätte, müsste über außerordentliche Fähigkeiten verfügen … einen Server der Regierung zu knacken und an die E-Mails kommen sowie das Knacken zahlreicher Workstations, Desktops und Server, um die Dokumente zu erhalten“. Zugang zu den Dateien ist eine wesentliche Hürde, aber wenn man diese einmal überwunden hat, gibt es eine noch größere Herausforderung. Welche Files soll man auswählen? Wer auch immer die Files veröffentlicht hat, wusste genau, welche davon wichtig waren. Dies erfordert grundlegende Kenntnisse der Klimawissenschaft ebenso wie der Politik und der Machenschaften der involvierten Personen.

In einem Kommentar auf der Website von Anthony Watts wird das Problem umrissen. „Es wäre eine Menge Arbeit für einen Hacker, sich durch Jahrzehnte von E-Mails und Files zu wühlen“. Der Kommentator schlug ein anderes Szenario vor, bei dem nur ein einziger File gehackt wurde. Ein solcher File müsste existieren wegen „eines weiter gehenden Prozesses, diese Informationen für eine Antwort im Rahmen von FOI intern zu vereinigen, der konsistent mit dem ist, was wir in dem File finden“. Das Problem dieses Arguments besteht darin, dass die E-Mails im November 2009 aufgetaucht waren, als sowohl die CRU als auch die University of East Anglia alle FOI-Anfragen zurückgewiesen hatten. Im Januar 2005 stellt Phil Jones fest, „dass er IPR (intellektuelle Eigentums-Rechte) vorschieben würde, um die Daten vor Anforderungen seitens FOI zu schützen“. In einer E-Mail vom 20. August 2008 sagt Prof. Jones: „Die Linie im Rahmen des FOI, der wir alle folgen, ist diese. Das IPCC steht außerhalb des FOI eines jeden Landes – jedenfalls wurde den Skeptikern dies erzählt. Obwohl wir (MOHC, CRU/UEA) möglicherweise relevante Informationen haben, ist das IPCC nicht Teil unseres Aufgabenbereiches (Leitbild, Ziele usw.). Darum haben wir keine Verpflichtung, diese Informationen weiterzugeben“. Es ist unwahrscheinlich, dass sich irgendjemand viel Mühe gemacht hat, Files für Antworten im Rahmen des FOI vorzubereiten. Selbst wenn jemand das getan hätte – Files für eine FOI-Anforderung unterscheiden sich von jenen, die Korruption bloßstellen und immer noch eine Auswahl erfordern.

Levsen kam zu einer soliden und logischen Schlussfolgerung: „Die einfachste Erklärung oder Strategie tendiert dazu, die Beste zu sein“. „Die einfachste Erklärung in diesem Fall lautet, dass irgendjemand an der UEA das gefunden und freigesetzt hat; und die Veröffentlichung von FOIA2009.zip geht nicht auf einen Hacker zurück, sondern auf ein Leck bei der UEA durch eine Person mit Skrupeln“.

Wie haben die CRU-Leute und Andere, die in den E-Mails bloßgestellt worden waren, jede Verantwortlichkeit umgangen? Ein Teil geht wahrscheinlich auf die Art von Gruppendenken zurück, die von Irving Janis definiert worden ist: „von Gruppendenken betroffene Gruppen ignorieren Alternativen und tendieren dazu, irrationale Maßnahmen auszuführen, die andere Gruppen entmenschlichen. Eine Gruppe ist vor allem dann anfällig für Gruppendenken, wenn deren Mitglieder einen ähnlichen Hintergrund haben, wenn die Gruppe von den Meinungen Außenstehender abgeschirmt ist und wenn es keine klaren Regeln für die Entscheidungsfindung gibt“. In seinem Bericht für eine Kombination mehrerer Kongress-Ausschüsse zum „Hockeyschläger“ identifiziert Professor Wegman die Isolation. „Es ist wichtig, die Isolation der paläoklimatischen Gemeinschaft zu konstatieren“. Phil Jones sagte, das Geplänkel sei typisch, was ein verstörender und erhellender Kommentar für sich ist.

Jedes Mal, wenn die offizielle IPCC-Klimawissenschaft oder deren Unterstützer vor einem ernsten Problem standen, haben sie professionelle Berater engagiert. Warum brauchen ‚offizielle’ Klimawissenschaftler Berater? Antwort: Weil sie Politik ausüben, nicht Wissenschaft. Klimagate wurde wie sein Namensgeber Watergate durch Verschleierung bloßgestellt, in diesem Falle durch infames, atypisches Verhalten, das in den E-Mails zum Ausdruck gekommen war.

Nach dem Leck im November 2009 engagierte die University of East Anglia Neil Wallis von Outside Organization, sich mit dem Fallout zu befassen. Universitätssprecher Trevor Davies sagte, es sei ein „Problem des Reputations-Managements“, von dem er behauptete, dass sie es falsch behandeln. Offensichtlich haben sie sich nie überlegt, einfach die Wahrheit zu sagen. Die durchgesickerten E-Mails lösten eine Schockwelle aus, die das Eingreifen eines politischen Top-Beraters erforderte. Wallis, früher Redakteur bei News of the World, wurde später verhaftet in Verbindung mit den Telefon-Abhörskandalen, die zum Rücktritt des London Metropolitan Police Commissioner und seines Stellvertreters geführt hatten, ebenso wie zu dem Rücktritt von Andy Coulson, dem Pressesekretär von Premierminister Cameron.

CRU-Direktor Phil Jones rief sofort die Polizei, die den Vorfall potentiell als einen kriminellen Akt einstufte. Dies wirft die Frage auf, was er zu verbergen hatte. Wenn es nichts Signifikantes in den Files gab, würde der Informationsverlust gleichgültig sein. Das Science and Technology Committee des British House of Commons verfestigte die Denkweise kriminell, indem es die E-Mails in ihrer Weißwasch-Untersuchung von Phil Jones’ Verhalten als „gestohlen“ bezeichnete. Sie haben nicht einmal Wissenschaftler angehört, die qualifiziert waren, das Problem wissenschaftlich anzugehen. Trotzdem kamen sie zu der Schlussfolgerung, dass die Wissenschaft solide war.

Die verwendete Wortwahl ist offensichtlich bedeutsam und erfolgte möglicherweise auf Anraten. Das Hinzuziehen der Polizei fror die weitere Preisgabe von Informationen ein und führte zu dem Gedanken, dass es sich um ein Verbrechen handelte. Die Bezeichnung des Vorgangs als Diebstahl oder Hacken verstärkte dies noch und enthielt die Implikation rechtlicher Schritte in der Zukunft. Dem Vernehmen nach sind gehacktes Material oder gestohlene Informationen vor Gericht nicht zulässig, anders als von einem Whistleblower stammende Informationen.

Eine Sondereinheit der Polizei kam zu dem gewünschten Ergebnis, die Untersuchung hinter das Statut der Begrenzung zu zerren [original: …the investigation drag out past the Statute of limitations an then concluded…] und folgerte dann, dass es keinen Beweis für ein inneres Leck gebe. Es ist unabdingbar, sich daran zu erinnern, dass die Implikationen über die CRU hinaus gingen, weil deren Mitglieder die prinzipiellen Abschnitte der IPCC-Berichte dominiert und kontrolliert haben. Die Person, die diese Informationen freigesetzt hatte, wusste dies offenbar, weil der Zeitpunkt so gewählt war, dass COP 15 in Kopenhagen im Dezember 2009 aus der Bahn geworfen werden sollte.

Die ersten 1000 E-Mails enthielten auch einige, die ausgewählt worden waren, um ein unakzeptables Verhalten selbst ohne klimatologisches Wissen zu belegen. Andere zeigen, wie die AGW-Wissenschaft herauf beschworen worden ist. Die Offenlegung der CRU-Mitarbeiter war notwendig, weil sie wichtige Teile der IPCC-Berichte dominiert und kontrolliert hatten. Die Lecks erreichten ihr Ziel, das politische Programm von COP 15 aus der Bahn zu werfen. Die COP stand unter Druck, weil ihr Ausgangspunkt und ihre Hypothese die Stichhaltigkeit der IPCC-Wissenschaft war.

COP 15, geplant für Dezember 2009 in Kopenhagen bot die ideale Gelegenheit, die korrumpierte Wissenschaft öffentlich zu machen. „Bei den meisten in Kopenhagen beabsichtigten Diskussionen sollte es darum gehen, das Kyoto-Protokoll, das 40 industrialisierte Nationen verpflichtete, Treibhausgas-Emissionen zu reduzieren, aufzugeben oder nicht. Im Zentrum der Diskussion stand der Wunsch der Entwicklungsländer, das Kyoto-Protokoll aus dem Jahr 1997 zu verlängern und ein separates neues Abkommen auszuarbeiten. Aber die meisten entwickelten Länder wollten Kyoto in ein einziges neues Abkommen gießen, das alle Nationen verpflichtet, die globale Erwärmung zu bekämpfen“. Es war ein kritisches Treffen, weil ein Scheitern möglicherweise das Ende von Kyoto bedeutet hätte sowie jeden Versuch, es zu ersetzen oder zu modifizieren. Das Leck war effektiv, weil Kyoto am 31. Dezember 2012 sang- und klanglos ausgelaufen war, trotz weiterer Versuche, es auf COP 16 in Durban zu reanimieren.

Wer im Inneren hatte „Skrupel” über das, was da vor sich ging? Einige Hinweise gibt die Art und Weise, mit der diese Person versucht hat, die Informationen bekannt zu machen, ohne sich selbst zu outen. Der Informant wollte das Material vor der Konferenz in Kopenhagen veröffentlicht haben. Er tat dies via eines russischen IP, der keine Spuren hinterließ.

George Monbiot vom Guardian verkaufte aktiv das vom IPCC erstellte Material, was seine Reaktion aufschlussreicher machte. Geschockt von den E-Mails sagte er: „Warum bestand die Antwort der CRU hierzu aus einem solchen Total-Crash?“ George, die Antwort lautet: weil sie Sie, die Politiker und die Öffentlichkeit betrügen wollten. Inzwischen haben Sie Wissenschaftler angegriffen, die wussten, was vor sich geht und es gewagt haben, es auszusprechen. Ich kann bezeugen, dass man Ihnen das gesagt hat.

Die Berater begegneten den Enthüllungen, indem sie zwei Untersuchungs-Ausschüsse ins Leben riefen, die die Wissenschaft außen vor ließen und ihre Untersuchungen auf bestimmte Aufgabenbereiche beschränkten. Ich weiß, wie das gemacht wurde, weil ich es abgelehnt habe, mich an solchen politischen Schwindeleien zu beteiligen. Der Trick besteht darin, so zu tun, als ob man die Politik heraushalten würde, indem man für Untersuchungen und Berichte Werkzeuge von Regierungs-Komitees einführt. Diese Komitees werden durch ihre Vorsitzenden identifiziert, Muir Russell und Lord Oxburgh. Sofort erhoben sich Konflikte und Fragen über die Integrität und die Unabhängigkeit der Komitees, welche anzusprechen die Parteien versuchten. Die E-Mails und ihr Inhalt weckten bereits Verdacht.

Sowohl die University of East Anglia (UEA) als auch Muir Russell sagten, dass die Oxburgh-Untersuchung die Wissenschaft examinieren würde. Auf einer Pressekonferenz am 11. Februar 2011 sagte Muir Russell: „Unser Job ist es, die wissenschaftliche Präzision, die Ehrlichkeit, die Offenheit und die Gültigkeit des Prozedere der CRU sowie andere Dinge in unserem Aufgabenbereich zu untersuchen. Es ist nicht unsere Aufgabe, die wissenschaftlichen Schlussfolgerungen der CRU zu hinterfragen. Das würde einen ganz anderen Kenntnisstand und andere Ressourcen erforderlich machen“. Die Untersuchung von Lord Oxburgh war von Anfang an zum Scheitern verurteilt. „Ein Mitglied des House of Lords, der sich der Untersuchung der Aufrichtigkeit der Klimawissenschaft verschrieben hat, hatte enge Verbindungen zu Unternehmen, die Millionen Pfund Umsatz mit Low-Carbon-Technologie machten“.

Die Vertuschung war leicht zu entdecken. Clive Crook, leitender Herausgeber von The Atlantic, schrieb eine scharfe Anklage über die Weißwaschung. „Ich hatte gehofft, allerdings mit wenig Vertrauen, dass die verschiedenen Untersuchungen zu Klimagate ernsthafter Natur waren. Dies wäre ein erster Schritt gewesen, das Vertrauen in den wissenschaftlichen Konsens wiederherzustellen. Aber nein, die Berichte machten alles noch viel schlimmer. Bestenfalls sind sie oberflächliche Entschuldigungen; schlimmstenfalls offensichtlich inkompetent und sogar absichtlich falsch. Das Establishment der Klimawissenschaft, davon ein Teil zu sein sich diese Untersuchungen entschlossen haben, scheint komplett unfähig, den Schaden zu verstehen, geschweige denn zu reparieren, den es seiner eigenen Sache zugefügt hat“.

Noch schlimmer, man kam zu der Schlussfolgerung, dass sich alles innerhalb normaler Vorgänge des Austauschs und der Aktivitäten zwischen einer Gruppe von Wissenschaftlern abgespielt hatte. Es ist unfasslich, dass irgendeine vernunftbegabte Person, die diese E-Mails gelesen hat, vor allem die zweiten 5000, zu einer solchen Schlussfolgerung kommen kann. Inzwischen wissen wir immer noch nicht, wer das Material bekannt gemacht hat.

Es ist hilfreich, die Details zu untersuchten und sich die involvierten Personen anzuschauen. Der Abschlussbericht der Polizei kam zu dem Ergebnis, dass es kein Whistleblower war, aber das zieht die Beweise in Zweifel. Allerdings war es eine wertvolle Schlussfolgerung hinsichtlich der Verschleierung. Phil Jones, ehemaliger Direktor der CRU, kannte den potentiellen Schaden und die rechtlichen Implikationen der File-Inhalte. Weil er weiter behaupten wollte, dass die Files gestohlen worden wären und ein Verbrechen vorliege, hat Phil Jones zugegeben, dass die Files zur CRU gehörten. Was wäre geschehen, wenn er bestritten hätte, dass die Files zur CRU gehörten?

Interner Kandidat

Es gibt viele interne Kandidaten, aber ich glaube am meisten, dass es Keith Briffa war. Die Person war offensichtlich desillusioniert durch die Konflikte innerhalb der CRU, aber auch durch die Implikationen falscher Daten als Basis für Weltpolitik. E-Mails illustrieren Briffas Konflikte innerhalb der Gruppe. Am 5. Oktober 2009 schrieb Wigley an Jones: „Es ist schmerzlich, dieses Stück American Stinker zu lesen. Aber Keith scheint sich selbst ins Chaos geritten zu haben. Wie ich in E-Mails schon erwähnt habe, ist Yamal unwichtig… Ich vermute, sie haben sich durch Studien gewühlt, um festzustellen, ob Yamal erwähnt worden ist, eine ziemlich narrensichere Methode, wenn Sie mich fragen. Vielleicht können diese Dinge klar und präzise erklärt werden – aber ich bin nicht sicher, ob Keith dazu in der Lage ist, weil er dem Vorgang zu nahe steht und möglicherweise angewidert davon ist. Ich denke, dass Keith sehr, sehr vorsichtig mit diesem Vorgang umgehen sollte. Ich erkläre mich bereit, alles zu checken, was er zusammenstellt“. Es scheint, als ob sich Wigley der Gefahr bewusst ist, dass Briffa etwas Vorschnelles tut wie die Bekanntgabe von Dokumenten. Jones leitete die E-Mail an Briffa weiter, die ihn nur noch mehr irritiert hat.

Briffas Abneigung gegen Mann hat eine lange Vorgeschichte. Am 22. September 1999, also fast zehn Jahre vor dem Leck, hat Briffa Mann mit einer langen E-Mail konfrontiert, in der sich auch der Kommentar befand: „Ich glaube, dass die jüngste Erwärmung wahrscheinlich zu der vor 1000 Jahren passt“. Verräterische Worte für Manns Hockeyschläger-Studie, die behauptet hatte, dass es keine mittelalterliche Warmperiode gegeben habe. Mann scheint zurück gewichen zu sein. Er schrieb: „Ich bin heute früh in dieses Hornissennest geraten. Keith und Phil haben beide einige sehr gute Punkte angesprochen“. In Wirklichkeit macht er Briffa wieder einmal nieder. „Daher glaube ich, dass wir in einer Position sind, frei heraus gesagt, etwas mehr zu sagen/zu lösen als Keith über Temperaturgeschichte des vergangenen Jahrtausends. Und alle Dinge, die ich beim Namen genannt habe, müssen in den Kapiteln angesprochen werden“. In einem zynischen Kommentar von Mann heißt es: „Und ich möchte mit Sicherheit nicht eine Leit-Autorenschaft nutzen, um meine eigene Arbeit zu befürworten“. Es ist ein interessanter Kommentar im Licht seiner Rolle im IPCC-Wissenschaftsbericht aus dem Jahr 2001 und der Summary for Policy Makers. Er ist auch eine Sorge, die im Wegman-Bericht identifiziert worden ist, und zwar in Empfehlung 1 [recommendation1]: „Vor allem, wenn große Summen öffentlicher Gelder und Menschenleben auf dem Spiel stehen, sollten akademische Arbeiten einen intensiveren Grad von Sorgfalt und Begutachtung aufweisen. Dies heißt ganz speziell, dass die Autoren von Dokumenten mit Bezug zur Politik wie der IPCC-Bericht 2001 nicht die gleichen Personen sein sollten, die die akademischen Studien erstellt haben“.

Am 17. Juni 2002 schrieb Briffa an Dr. Edward Cook über einen Brief, der auch Esper und Michael Mann involvierte: „Ich habe diesen Brief gerade gelesen – und ich glaube, er ist Schrott. Ich habe es so satt, wie Mann verkündet, dass seine Rekonstruktion die Tropen repräsentiert, nur weil er einige tropische Reihen enthält (kaum repräsentativ für die Temperatur). Genauso gut kann er diese Daten mit irgendeiner anderen „Zielreihe“ bearbeiten, wie dem zunehmenden Trend eingebildeten Geschwätzes, das er während der letzten Jahre von sich gegeben hat, und … (besser, ich sage nichts weiter)“. Cook erwiderte: „Wir kennen beide die wahrscheinlichen Schummeleien in Mikes Rekonstruktion, vor allem, wenn es sich auf den tropischen Kram bezieht…. Es ist mir schleierhaft, wie ein so kluger Kerl wie Mann so unwillig ist, seine eigene Arbeit etwas objektiver evaluieren zu lassen“.

Wigley hat nicht geholfen. Hier folgt der erste Teil der herunter spielenden E-Mail von Wigley an Briffa vom 10. Januar 2006: „Danke hierfür. Allerdings denke ich nicht, dass Ihre Antwort sehr gut ist. Außerdem gibt es Grammatik- und Schreibfehler, und (erschreckend!) Sie haben McKitrick falsch geschrieben. Das ist eine sichere Methode, sie zu vergraulen“. Es scheint typisch zu sein für Wigleys herablassende Art, mit eigensinnigen CRU-Mitgliedern zu sprechen, vor allem mit jenen, die die Eliminierung der Mittelalterlichen Warmphase unterminiert haben.

Der Konflikt setzte sich fort, als Briffa seinen Bedenken Ausdruck verlieh. Mann machte einige Angebote, aber am 29. April 2007 antwortete Briffa: „Ich habe mich selbst dabei ertappt, den ganzen Prozess in Frage zu stellen und oft frustriert zu sein wegen der formelhaften Weise, mit der die Dinge angegangen werden müssen – was oft Zeitverschwendung ist und in Sackgassen endet. Ich danke Ihnen wirklich, dass Sie sich die Zeit genommen haben, diese freundlichen Worte zu sagen. Ich habe mich nach Kräften bemüht, die Erfordernisse der Wissenschaft und des IPCC auszubalancieren, die nicht immer die gleichen waren. Ich befürchtete, dass Sie denken könnten, ich hätte den Eindruck vermittelt, Sie nicht ausreichend genug unterstützt zu haben während des Versuchs, über diese Dinge und die Unsicherheiten zu berichten“. Was für ein vernichtender Kommentar über das, was die CRU und das IPCC tun!

Briffa könnte mit dem Informationsoffizier an der Universität zusammen gearbeitet haben, der wegen der FOI-Anfragen unter Druck stand. Im März 2009 haben wir erfahren, dass Briffa krank war und dass er und seine Frau Treffen mit Personen an der CRU abgesagt haben. Hat ihm das Zeit gegeben, darüber nachzudenken, was vor sich ging? Vielleicht, aber seine Behandlung durch Mann und dem sinkenden Schiff war wahrscheinlich ein Anstoß. Wie auch immer, jedwede Lektüre der E-Mails zeigt, dass sie alles andere waren als eine normale Korrespondenz unter Wissenschaftlern. Es wurde zu mehr als einem wissenschaftlichen Dissens.

Wegen Jones’ Aktivitäten hat die Polizei von Norfolk, eine regionale Kraft, die Regierung hinzu gezogen in Gestalt der National Domestic Extremism Unit, was mit Sicherheit eine andere Maßnahme hinsichtlich des Ernstes in den Files war. Dies führte dazu, dass die University of East Anglia alle Files in Zusammenhang mit Skeptikern und deren Anfragen im Rahmen des FOI übergab. Offensichtlich haben die Polizei und nachfolgende Untersuchungen die CRU-Behauptungen akzeptiert, dass die Anfragen nach Informationen politisch getrieben waren und Härten verursachte, die sie von ihrer Arbeit abhielt. Als die Polizei die Skeptiker befragte, fragten sie nach politischen Verbindungen. Warum?

Der Gedanke der Politik als einziges Motiv kam auf, weil die CRU und das IPCC die globale Erwärmung zu einer rein politischen Angelegenheit gemacht hatten. Abgesehen davon, warum haben Motive etwas zu tun mit den Anfragen nach wissenschaftlichen Daten und Methoden, vor allem, wenn diese durch Steuern finanziert und benutzt werden, um potentiell verheerende politische Maßnahmen in Kraft zu setzen?

Link: http://wattsupwiththat.com/2013/02/27/its-time-for-the-person-who-leaked-the-cru-emails-to-step-forward/

Übersetzt von Chris Frey EIKE




Konsens einst und jetzt

Zum Bild rechts: Galileo Galilei wurde dafür verurteilt, dass er den damaligen Konsens der Kirche bestritten hat, dem zufolge sich die Sonne um die Erde dreht. Die Wissenschaft hat Galilei Recht gegeben und der Kirche Unrecht! Den IPCC-Konsens zur anthropogenen globalen Erwärmung wird unweigerlich das gleiche Schicksal ereilen.

● Das Klima änderte sich als Folge natürlicher Prozesse, die auch heutzutage noch präsent sind, einschließlich Variationen der Sonnenaktivität und des Flusses galaktischer kosmischer Strahlen (GCR) sowie Oszillationen der großen Meeresströme

● Änderungen der Sonnenaktivitäten und der Temperatur korrelieren sehr eng.

● Die Temperaturänderungen und die steigenden CO2-Konzentrationen der letzten 33 Jahre widersprechen dem IPCC-Konzept der globalen Erwärmung

● Die Temperatur treibt atmosphärische CO2-Konzentrationen, nicht umgekehrt

● Während der Industrie-Ära korrelieren die globale Erwärmung, die atmosphärischen CO2-Konzentrationen, die anthropogenen Emissionen und die Temperatur nicht miteinander

● Eine frühe globale Erwärmung fiel zufällig mit einer leichten Zunahme der CO2-Emissionen zusammen, während eine globale Abkühlung von 1942 bis 1975 durch eine dramatische Zunahme von CO2-Emissionen von 4,0 Gigatonnen pro Jahr 1942 bis 20,0 Gigatonnen pro Jahr 1975 zusammenfiel

● Während der negativen PDO von 1942 bis 1977 kühlte sich die Welt ab, die CO2-Emissionen nahmen um das Fünffache zu, während sich die atmosphärische CO2-Konzentration erheblich beschleunigte

● Während der positiven PDO von 1977 bis 2000 stiegen die Temperaturen, die CO2-Emissionen und die atmosphärischen CO2-Konzentrationen rapide

● Wasserdampf und Wolken verursachen 90 bis 95% des Gesamt-Treibhauseffektes, CO2 4,2 bis 8,4% sowie Methan, Ozon, N2O, CH4, CFCs usw. etwa 1,3%.

● Die Auswirkung auf die Temperatur der ersten 20 ppm CO2 ist weit größer als die der nächsten 400 ppm.

● Die gesamte Zunahme des industriellen atmosphärischen CO2 führte zu einer Temperaturzunahme von ± 0,10°C.

● Die GCMs nehmen an, dass eine Verdoppelung des atmosphärischen CO2-Gehaltes von einem vorindustriellen Niveau bei 280 ppm durch eine Blockierung der Infrarot-Ausstrahlung zu einer Erwärmung von 1,1°C führt, die durch eine damit in Verbindung stehende IR-Blockierung durch Wasserdampf verstärkt wird, was zu einer positiven Rückkopplung in Höhe von 2,1°C führt und sich zu einer Gesamterwärmung von 3,2°C akkumuliert.

● Beobachtungen zeigen jedoch, dass die kombinierte Wasserdampf- und Albedo-Rückkopplung mit -0,8°C ganz klar negativ ist, was den postulierten Gesamt-Erwärmungseffekt durch CO2 auf 0,3°C reduziert

● Seit 1750 haben die atmosphärischen CO2-Konzentrationen um etwa 35,5% zugenommen. Davon wird ein Drittel anthropogenen Emissionen und zwei Drittel natürlichen Quellen zugeschrieben.

● Auf δ13C und der Massenbilanz basierende Berechnungen zeigen, dass etwa 30% des gegenwärtigen atmosphärischen CO2 isotopisch mit einem Anteil von mehr als zwei Dritteln aus natürlichen marinen und biogenischen Prozessen und weniger als ein Drittel aus anthropogenen Emissionen stammen

● Variationen der Sonnenaktivität dominieren die Klimaänderung. Variationen von Treibhausgas-Konzentrationen und deren Zusammensetzung (Wasserdampf, CO2) spielen eine sekundäre Rolle

● Die GCMs vernachlässigen die PDO

● Die Moderne Warmzeit ist keine Anomalie, sondern eine in einer ganzen Reihe, die die astronomisch kontrollierten solaren Oszillationen reflektiert

● 40% der Erwärmung von etwa 0,5°C zwischen 1715 und 1970 erfolgten durch den direkten solaren Antrieb, der Rest durch indirekte solare Antriebe, in denen der Fluss kosmischer Strahlen eine wichtige Rolle spielt

● Die Sonne zusammen mit ihren Planeten, kombiniert mit dem kosmischen Strahlungsfluss steuern das Klima der Erde, nicht wie vom IPCC behauptet das CO2.

● Dem Solaren Großen Maximum genereller Erwärmung des 20. Jahrhunderts, das im Jahre 1924 begonnen hat und 2008 zu Ende ging, folgt eine Episode geringerer Sonnenaktivität und merklichen Abkühlung

Link: http://www.dagelijksestandaard.nl/2013/03/peter-ziegler-over-de-factoren-die-ons-klimaat-bepalen

Übersetzung der einzelnen Punkte durch Chris Frey EIKE

Der Link zu Zieglers Power-Point-Präsentation ist hier: http://www.friendsofscience.org/assets/documents/ClimateChange_Ziegler-2013.pdf




EIKE ist umgezogen




Asse: die Fakten

Historie

Anfang des 20. Jahrhunderts, das von Armut geprägt war, wurde in dem Salzbergwerk Asse unter grober Vernachlässigung von Sicherheit bis ganz nahe an die Grenze des Salzstocks Salz abgebaut. Als Folge des natürlichen Gebirgsdrucks über längere Zeit ist heute die Grube und insbesondere der Schacht in einem zunehmend labiler werdenden Zustand.

Zum Zeitpunkt der Einlagerung von radioaktiven Abfällen wurde die Asse unter Bergrecht betrieben. Denn der damalige Kenntnisstand über den Umgang mit diesen Stoffen, die notwendige Konditionierung, die Dokumentation und die Endlagerung ist nicht mit dem heutigen Wissensstand vergleichbar. National wie auch international gab es in den 1960er und 1970er Jahren keine allgemein gültige Klassifizierung für radioaktive Abfälle. Bei der damaligen Einteilung der Abfälle in schwach- und mittelradioaktive Abfälle war daher in erster Linie nicht das radioaktive Inventar im Behälter, sondern die Strahlung an der Oberfläche der Behälter, die Ortsdosisleistung, relevant.  Diese war für die Mitarbeiter der Asse maßgeblich, da diese die Behälter während des Einlagerungsvorgangs handhaben mussten. Ziel war damals aber auch, die erprobte Stapelung der Fässer zur weiteren Minimierung der Strahlenbelastung (Prinzip des Strahlenschutzes) der Mitarbeiter mittels der Einlagerungstechnik „Verstürzen“ zu optimieren. Zusätzlich wird eine effektivere Einbindung der Fässer in das darüber eingeblasene Salz erreicht, was bei einer Stapelung der Fässer weniger der Fall ist: Also „chaotisch aufgehäufte Fässer“ sind keine Schlamperei, sondern bewusstes Handeln im Sinne des Strahlenschutzes! (Katastrophe?)

Eingelagert wurden insgesamt 125.787 Fässer. Die Abfälle stammen aus den Forschungszentren Karlsruhe und Jülich (ca. 50% bzw. ca. 10%), und aus deutschen Kernkraftwerken (ca. 20%). Die verbleibenden ca. 20% sind Abfallgebinde von Landessammelstellen und aus der kerntechnischen Industrie. Die meisten Abfälle wurden in 200- oder 400-Liter-Fässern als Einweg-Abschirmbehälter oder als VBA-Gebinde („Verlorene Betonabschirmung“) eingelagert. Typische Abfälle sind beispielsweise Ionenaustauscherharze, Schlämme, Laborabfälle, auch geringste Reste von Tierversuchen aus der medizinischen Forschung (welche Katastrophe?), aktivierte Metalle, Filter oder Textilien aber auch in geringen Mengen langlebige Schwermetalle wie Uran und Plutonium (welche Katastrophe?). Insgesamt wurden 47.000 Kubikmeter eingelagert. Das Aktivitätsinventar betrug ursprünglich (bis 1978) 7,8 mal 10hoch15 Bq, bis 1987 hat es auf 6,8 mal 10hoch15 Bq und bis Anfang 2013 auf 2,32 mal 10hoch15 Bq abgenommen. Der Wert wird sich bis 2020 weiter erheblich verringern, wie das Beispiel Caesium zeigt: Wegen dessen relativ kurzen Halbwertzeit (30,1 Jahre) liegt dessen Aktivität heute schon unter der Hälfte des ursprünglichen Wertes.

Von 1908 bis 1925 belief sich die Förderung von Kalisalz (Carnallitit) auf insgesamt 2 mal 10hoch6 Tonnen. Die darin mit geförderten etwa 20 Tonnen reines K40 hatten eine Aktivität von etwa 5 mal 10hoch12 Bq. Dabei ist damals das Bergwerk von dieser Aktivität „entlastet“ worden.

Radioaktivität

(Zuerst eine Erläuterung zu der Schreibweise der Zahlenangaben: 1000 ist auch 1 mal 10hoch3;  1 Million: 1 mal 10hoch6; 1 Milliarde: 1 mal 10hoch9; 1 Billion: 1 mal 10hoch12 usw.)

Kaum eine andere schädliche Wirkung ist so gut erforscht wie die Wirkung von ionisierenden – umgangssprachlich – radioaktiven Strahlen. Dabei ist wichtig zu wissen, dass sich die natürliche Radioaktivität (z.B. von K40) von der Radioaktivität von künstlich erzeugten Nukliden wie z.B. Caesium im Prinzip nicht unterscheidet.  Diese Strahlung in Form von Teilchen (Alpha-Strahlen) oder winzigen Energieportionen (Beta- und Gamma-Strahlen) spalten oder zerstören ein oder mehrere Moleküle eines Stoffes. Ein „Becquerel“ (Bq) bedeutet, dass sich pro Sekunde ein radioaktives Atom in ein anderes umwandelt und dabei Strahlung aussendet. Bei der biologischen Wirkung dieser unterschiedlichen Strahlungen gibt es allerdings gewaltige Unterschiede. Betas und Gamas sind locker ionisierend, also im bestrahlten Bereich relativ gleichmäßig verteilt. Die Reparaturmechanismen des Körpers werden leichter damit fertig. Ganz anders bei den Alphas: Sie ionisieren dicht auf ihrer Bahn, d.h. wo sie entlang geflogen sind, geht viel kaputt, die Reparaturmechanismen des menschlichen Körpers werden deshalb damit viel schwerer fertig. Hier wird das Verständnis für die Bedeutung der Strahlendosis wichtig. Wie setzt sich nun die Aktivität (gemessen in „Becquerel“) in die Strahlenbelastung, d.h. in die biologisch wirksame Dosis um?  Sie wird gemessen in „Sievert“ (Sv) und dient zur Bewertung verschieden gewichteter Strahlendosen und zur Analyse des Strahlenrisikos. Betrachtet man z.B. die hauptsächliche Eigenbestrahlung des Menschen nur durch K40 und Radium, macht das im Jahr 0,3 Millisievert (0,3 mSv). Unsere gesamte natürliche Strahlungsbelastung liegt bei ca. 2,4 mSv pro Jahr.

Wie steht es nun mit der Abschätzung der natürlichen Radioaktivität in der Umgebung von der Asse? Betrachtet man dort ein Gesteinssvolumen von 1 Kilometer mal 1 Kilometer und zur Teufe (Tiefe) von 500 Metern, so ergibt sich ein Gesteinsblock von 5 mal 10hoch8 Kubikmeter. Der Block hat bei einer angenommenen Dichte von 2,8 Tonnen pro Kubikmeter eine Masse von 1,4 mal 10hoch9 Tonnen . Darin sind, wenn man den mittleren Gehalt der Erdkruste zu Grunde legt: 400 Tonnen Uran mit der Aktivität (mit Folgeprodukten) 4,3 mal 10hoch9 Bq, 13500 Tonnen mit der Aktivität (mit Folgeprodukten) 5,5 mal 10hoch14 Bq sowie 2200 Tonnen K40 mit einer Aktivität von etwa 5,72 mal 10hoch14 Bq. Die Aktivität des gesamten Blocks bzw. des „Deckels“ über dem Endlager Asse beträgt somit 1,55 mal 10hoch15 Bq also ungefähr so viel Abfall-Aktivität wie heute in der Asse eingelagert liegt. Noch einige Vergleichswerte: Das Radioaktivitätspotential eines Menschen beträgt 8 mal 10hoch3 Bq, ca. 80% davon verursacht durch das Isotop K40 (0,0117 % des Kaliums in den Knochen besteht aus K40). Oder im Meerwasser: dort sind pro Kubikmeter durchschnittlich 2,9 Milligramm Uran gelöst. Dessen Aktivität beträgt somit alleine vom Uran verursachte 73 Bq pro Kubikmeter. Viel mehr kommt vom gelösten Kalium: 403 Gramm pro Kubikmeter.  Davon stammen 47 Milligramm von K40   mit der Aktivität 1,2 mal 10hoch4 Bq pro Kubikmeter . Das ist mehr als vom Knochengerüst eines Menschen (ca. 8 mal 10hoch3 Bq) und viel mehr als vom Uran! Ein weiteres Beispiel: Ohne Berücksichtigung der natürliche Aktivität der Baustoffe eines Gebäudes (Beton, Stein etc.)  beläuft sich die Aktivität von 1000 Öko-Aktivisten in einer Festhalle auf 8 mal 10hoch6 Bq – hauptsächlich als Folge der Strahlung von K40. Eine hoch-aktive Kokille aus der Wiederaufarbeitung hat mehr als 4 mal 10hoch15 Bq. Das ist mehr als die Radioaktivität der gesamten Abfälle in der Asse! (Katastrophe?). In der Lagerhalle von Gorleben (BLG), die nur ein festes Dach hat, stehen ca. 100 Castoren mit je 21 Kokillen. Das bedeutet auf einer Fläche von 2000 Quadratmetern stehen 2100 Kokillen also 2100 mal „eine gesamte Asse-Endlager-Aktivität“!

Derzeitige Situation

Im August 1988 entdeckte man während einer routinemäßigen Befahrung einen Wasserzutritt im Grubengebäude, eine Folge des ins besonders im oberen Bereich festzustellenden hohen Durchbauungsgrades des Gewinnungsbergwerks. Hier wurde bis auf wenige Meter an die Grenze zum randlichen Deckgebirge Salz abgebaut. Die dadurch entstanden Konvergenzen (Bewegungen) öffneten Wegsamkeiten für Wasser. Der Zufluss in einer Teufe von etwa 500 bis 575 Metern belief sich auf ca.12 Kubikmeter pro Tag. Zwischen 1995 und 2004 wurde deshalb von der GSF (Gesellschaft für Strahlenforschung) als erster Schritt zur Stabilisierung des Grubengebäudes und für einen anschließend zügigen Verschluss etwa 2,2 Millionen Kubikmeter Salzgruß (Material von alten Salzhalden) in die noch offenen Hohlräume des Bergwerks eingebracht und in die offenen Kammern eingeblasen. Ein Großteil der radioaktiven Abfälle ist dank der Einlagerungstechnik „Verkippen“ heute schon eng mit Salz verbunden und deshalb heute und auch später viel weniger mit Wässern und Salzlaugen direkt in Kontakt.

Was passiert nun mit dem radioaktiven Abfall in dem verbleibenden offenen bzw. mit einer Na-K-Mg-Lauge gefüllten Hohlraum des Salzstocks, der selbst natürlich radioaktiv ist? Dabei ist die Löslichkeit der unterschiedlichen radioaktiven Stoffe in „einer“ Salzlauge, bei der es sich zunehmend um eine „gesättigte“ Lauge handelt, zu betrachten. Gesättigte Laugen können aber nur dann weitere Stoffe aufnehmen und mit diesen transportiert werden, wenn diese weiteren Stoffe eine größere Löslichkeit haben als die gelösten Salze in der Lauge (unterschiedliche Löslichkeitsgrenzen). Weil z.B. Plutonium- und Uran-Verbindungen als Oxide vorliegen, sind sie grundsätzlich schwer löslich (Katastrophe?). Diese können weder von dem in nur sehr geringen Mengen vorhandenen Wasser noch von den fast ausschließlich vorhandenen Laugen aufgenommen werden. Beim Caesium (ein kurzlebiges Isotop mit einer Halbwertzeit von 30,1 Jahren) ist die Situation dagegen etwas anders. Solche Isotope sind in Wasser leichter löslich und können theoretisch die in den Abfällen eingebundenen löslichen Nuklide leichter aufnehmen. Diese immer weniger werdenden gelösten Mengen hängen jedoch hauptsächlich von der Bindung der Nuklide an das Material in den Abfällen und dem eventuell noch vorhandenen „Frisch“-Wasser von übertage (Oberflächenwasser) ab. Praktisch gesehen bleibt diese theoretische Löslichkeit trotzdem gering. Neue Studien (2012), in denen modellhaft die Strahlenexposition beim Transport aller Radionukliden durch das Deckgebirge an die Oberfläche berechnet wurde, bestätigen das unter Fachleuten erwartete Ergebnis: Die maximal freiwerdende Dosis der Asse liegt unter dem für Normalbürgern genehmigten Grenzwert (1,00 mSv pro Jahr) aber auch unter dem viel strengeren Grenzwert für in kerntechnischen Anlagen arbeitende Menschen (0,3 mSv pro Jahr), einer Dosis also, der man wegen der natürliche Umweltaktivität ohnehin in Deutschland ausgesetzt ist. (Katastrophe?) Das BfS möchte angeblich den für die Asse geltenden Grenzwert auf 0,1 mSv pro Jahr absenken, was dann auch noch eingehalten werden kann. Mit dem Kalisalzbergbau wäre es dann allerdings wegen der Strahlendosis, die vom K40 ausgeht, wohl in Deutschland vorbei.

In jedem nach der Betriebszeit verschlossenen Bergwerk (Kohle, Metall, Salz) gibt es Hohlräume, die mit Wässern bzw. Laugen gefüllt sind. Und in jedem Bergwerk gibt es Setzungen und Brüche, die z.T. bis zur Oberfläche reichen. Ausgesalzte Salzbergwerke werden meist absichtlich geflutet. Auch dabei können sich in dem umgebenden Gebirge Risse bilden. Normales Grundwasser hat an der Oberfläche oberhalb von aktiven oder wieder verschlossen Salzbergwerken eine Dichte von eins. Mit zunehmender Teufe bis zum Kontakt mit Salz steigt die Dichte des Grundwassers auf 1,20 Gramm pro Kubikzentimeter bis 1,35 Gramm pro Kubikzentimeter, wird also bedeutend schwerer. Diese Laugen, ob sie radioaktives Material enthalten oder nicht, können sich deshalb aus physikalischen Gründen – da sie schwerer sind – nicht mit dem normalen Grundwasser mit 1,00 Gramm pro Kubikzentimeter vermischen! Auch eventuelle geringe Gasbildungen bei lösungs- bedingten Reaktionen zwischen den Abfällen und Laugen sind nicht problematisch, denn da wo sich Wasser oder Laugen bewegen, entweichen Gase. Besteht keine Wegsamkeit für Gase, so bleiben sie wie in natürlichen Salzlagerstätten eingeschlossen (Katastrophe?). Seit Jahren gibt es bei Reckrod in der Nähe von Fulda mehrere künstlich ausgelaugte Salzkavernen, die zur Lagerung von unter hohem Druck stehendem Erdgas genutzt werden. Bisher ist keine Kaverne explodiert.

Verschluss

Hier stellt sich nun die Frage, warum seit Jahren in Deutschland ein schnelles und sicheres Verschließen der Asse im Gegensatz zum Verschluss von ausgesalzten Salzlagerstätten zur Katastrophe hochstilisiert wird? In anderen Ländern wurden und werden die meisten niedrig- und mittelaktiven Abfälle oberflächennah – meist weniger als zwanzig Meter tief – vergraben! Wie in meinen bisherigen Erläuterungen in aller Kürze aufgezeigt, ist die Strahlengefährdung der Bevölkerung durch das zusätzliche Einbringen von schwachaktiven und geringen Mengen mittelaktiven Abfällen in einen Salzstock im Vergleich zur natürlichen Umwelt-Strahlung relativ gering. Und deshalb ist die Gefahr einer Verseuchung des Grundwassers nach physikalischen, geochemischen und technischen Erkenntnissen auch gering, nicht zuletzt auch wegen des schnellen Abklingens der Gesamtaktivität als Folge der geringen Halbwertzeiten von Plutonium 241 (Pu 241: 14,4 Jahre), Strontium (Sr 90: 28,5 Jahre) sowie Cäsium (Cs 137: 30,1 Jahre). Sogar das Bundesamt für Strahlenschutz (BfS) bestätigt, dass in der näheren und weiteren Umgebung der Asse keine Anzeichen für eine über der Norm liegende Radioaktivität festgestellt wird. Deshalb ist ein umgehendes Verschließen der Grube geboten und zwar nicht wegen eines hypothetischen Auslaufens von radioaktiven Wässern in der Zukunft (Langzeitsicherheit?), sondern wegen eines zunehmenden Stabilitätsverlustes des gesamten Grubengebäudes. Ein weiteres Abwarten wird technisch immer herausfordernder sowie teurer und verhindert zunehmend einen sachgerechten und sicheren Verschluss. Wer übernimmt dafür die Verantwortung und Haftung? Sicherlich nicht die zahlreichen Vertreter der grünen Bewegungen Deutschlands!

All das bisher von mir Erläuterte ist den zahlreichen Unterlagen, Daten und Zahlen, die im Internet jedermann zugänglich sind, zu entnehmen. Sie stehen somit auch allen seriös recherchierenden Journalist(in)en, die nicht auf einem Auge grün sind, allen Politiker(in)en, sogenannten Umweltschützer(in)en und interessierten Bürger(in)en in der Umgebung der Asse (z.B. „Asse Begleitgruppe“) zur Verfügung. Es waren und sind wirklich keine Geheimnisse.

Bewertung

Der Versuch einer neutralen Bewertung: Auf der Asse ist der Salzstock mit dem eingelagerten Abfall mit mindestens 500 Metern Gestein und Salz überdeckt, und dieses überlagernde Gestein enthält fast so viel natürliche Aktivität, wie in den Abfällen heute an „künstlicher“ Aktivität noch drin ist. Langfristig bleibt die natürliche Umwelt-Aktivität wie sie ist, die künstliche geht dagegen auf wenige Prozent der derzeitigen Aktivität zurück. In der Tiefe bringt nicht der eingelagerte Abfall langfristig die meiste Aktivität, sondern – unabhängig von der Einlagerung – das in dem Salzstock unverändert vorhandene Kalium! Im Sinne des Strahlenschutzes, d.h. zur Minimierung der Strahlendosis für die dort unten arbeitenden Bergleute, wäre deshalb ein zügiges Verschließen des Bergwerkes mit der in Deutschland langjährig bestehenden Erfahrung im Verschließen von Salzgewinnungsbergwerken angezeigt.

Bei einer langjährigen und aufwendigen Rückholaktion der Abfälle:

• wäre für längere Zeit vorgenannter Personenkreis unnötig einer höheren Strahlungsdosis ausgesetzt,  auch wenn diese unter dem Grenzwert liegen wird

• wäre nichts gewonnen, weil konservative Modellrechnungen wie erwartet andeuten, dass bei einem Auspressen des gesamten Radioaktivitätsinventars an die Oberfläche die dortige Aktivität unter dem genehmigten Grenzwert liegen dürften

• wird sich wegen des deutlich längeren Offenhaltens der Grube das Risiko eines Tagesbruchs jährlich beträchtlich erhöhen und wohl bald außer Kontrolle geraten

• dürften sich die Verschlusskosten (F.A.Z: vom 01.03.2013) auf vier bis sechs Milliarden, – den Stuttgart 21 / Berliner Flughafen Faktor eingerechnet – acht Milliarden Euro belaufen!

Zur Rückholaktion der Abfälle kommentiert der Präsidenten des Fachverbands für Strahlenschutz, Joachim Breckow.: „Aus Sicht des Strahlenschutzes ist die Rückholaktion der radioaktiven Abfälle aus der Asse sehr wahrscheinlich nicht die beste Lösung. Dies würde meines Erachtens zu mehr Dosis für die Beschäftigten und die Bevölkerung führen, als wenn das Atommülllager verfüllt würde. Die Rückholung wäre mehr Schaden als Nutzen!“

Verantwortung

Bis 1999 wurde das Bundesamt für Strahlenschutz (BfS) von einem Arzt mit langer Erfahrung im Strahlenschutz geführt.  Als Nachfolger wurde von dem damaligen Umweltminister Trittin ein Diplom-Ingenieur für Stadtentwicklung mit grünem Parteibuch zum Präsidenten benannt, was zu einigem Kopfschütteln bei europäischen Organisationen führen musste. Ab 2009 liegt nun die Gesamtverantwortung „Asse“ beim BfS. Diesen Wechsel hat dessen heutiger Präsident erreicht. Ihm gelang es mit großem politisch/taktischem Geschick, die Projektverantwortung von der weltweit anerkannten und politisch neutralen Institution GFS, dem heutigen HelmholtzZentrum, abzunehmen, um die Projektbearbeitung mit der Genehmigung in seinem Amt zu vereinen. Der offizielle Grund für diesen Wechsel ist, das Projekt Asse von diesem Zeitpunkt an unter Atomrecht weiterführen zu wollen, und zwar nur deshalb, um die „radiologische“ Langzeitsicherheit des Verschlusses der Schachtanlage zu thematisieren – wobei es von der Gefährdung her kein wirkliches „radiologisches“ Langzeitproblem gibt. Ein zweiter Grund dürfte gewesen sein, die gesamte Öffentlichkeitsarbeit des BfS zu zentralisieren und wohl auch besser zu kontrollieren, wobei sich seit kurzem einige wenige Stimmen aus dem BfS für ein möglichst schnellen Vollverschluss der Asse aussprechen. Im Zusammenhang mit dem politisch gewollten atomrechtlichen Planfeststellungsverfahren ist nun die Öffentlichkeit an der Prüfung des Verschliessungsantrages zu beteiligen, und somit ist weiterhin ein weites Feld für die ideologisch gesteuerte Propaganda sichergestellt. Das gerade von PolitikerInnen aller Couleurs initiierte „Lex Asse“ wird unter anderem damit begründet, das so genannte „Vertrauen“ in der Bevölkerung“ (F.A.Z: vom 01.03.2013) aufzubauen! Warum ist das bis heute nicht gelungen? Siehe Katastrophenliste!

Ideologie

Als Fachmann fragt man sich, ob in unserem derzeitigen Umfeld eine vollständige und sachliche Information überhaupt gewünscht wird. Denn der Sonderweg Deutschlands, was Radioaktivität angeht, ist weltweit einzigartig. Liegt es möglicherweise daran, dass viele Politiker und Parteien sowie die bekannten, nicht demokratisch legitimierten Umweltmultis durch Desinformation, durch selektive Informationen und Halbwahrheiten ganz bewusst Angst erzeugen, um politische Macht und Geld zu erschleichen? Schon immer war Angst das beste Mittel, Menschen zu beherrschen: Man muss die Angst nur schüren, bis sie lähmt! Wirkt hier „Die German Angst“? Das Angst-Ass „Asse“ hat gestochen – die Energiewende hat gewonnen, eine Billion Euro sind verloren (FAZ: vom 20.02.2013), obwohl als Folge überhöhter Strahlung, die in Fukushima freigesetzt wurde, bis heute noch kein Toter zu beklagen ist. Seit Fukushima starben dagegen alleine in Deutschland mehr als 30 000 Menschen an Infektionen, die sie sich in Krankenhäusern holten. Und in einem Jahr sind es weitere 15 000!

Resumé

Aus Sicherheitsgründen wäre die Grube sofort zu sanieren und zu verschließen. Dies wird allerdings nicht der Fall sein, denn dadurch wäre in unserer heutigen Überflussgesellschaft das Angst-Pfand Asse für die grüne, die ökologistische Bewegungen in Deutschland verschwunden – und das darf nicht sein.  So wird die Asse, wie Gorleben zeigt, weiter ein Spielball der Politik bleiben – egal welchen Schaden es anrichtet und was es kostet. Eine typisch deutsche Tragödie.

Dr. Helmut Fuchs ist Geologe und Experte für Uranlagerstätten.

Zuerst erschienen auf ACHGUT Fuchs Asse die Fakten




Behauptung von Marcott et al.: ‚Noch nie da gewesene’ Erwärmung im Vergleich zum GISP-Eisbohrkern

Der allererste Satz bei Marcott et al. (der in den Medien starke Beachtung findet) im Abstract lautet:

Rekonstruktionen der Temperatur der letzten 1500 Jahre zeigen, dass die gegenwärtige Erwärmung in dieser Zeit ohne Beispiel ist.

Okay, schauen wir uns diese Behauptung einmal an. Hier zunächst die Graphik aus dieser Publikation:

Diesen Daten zufolge klingt das vernünftig, oder? Aber wir wollen einmal eine weithin bekannte Rekonstruktion aus dem GISP2-Eisbohrkern aus Grönland untersuchen. Hier folgt ein Ausschnitt aus der Rekonstruktion von Dr. Richard Alley:

Und hier folgt eine einfache Skalierung der Graphik von Marcott et al., um eine angenäherte Anpassung an Temperatur und Zeitscale zu erreichen:

Man beachte, dass es sich hier lediglich um einen einfachen Vergleich handelt mit einer groben Anpassung der Daten an Zeit- und Temperaturscales – es soll absichtlich nichts Anderes sein.

Die gesamte Graphik zum GISP2 sieht so aus:

In meinem Overlay oben beträgt die volle Zeitskala bei Marcott et al. auf der X-Achse 2000 Jahre und seine gesamte Temperaturskala auf der Y-Achse zwei Grad Celsius. Der skalierte Overlay zum GISP2-Plot von Alley ist eine hinreichend gute Anpassung an die Skalierungen beim GISP2. Die Mittellinien passen nicht zueinander, aber das können sie in dieser Art der Darstellung auch nicht.

Der hier zugrunde liegende Gedanke ist einfach, die Größenordnungen der Daten im gleichen Zeitscale zu vergleichen.

Klar wird, dass die GISP2-Daten während der letzten 1500 Jahre eine größere Magnitude aufwiesen, und in größeren Zeiträumen marginalisiert die GISP2-Temperaturrekonstruktion diejenige von Marcott et al. Dr. Don Easterbrook gibt einen guten Überblick der Synoptik der Größenordnung der GISP2-Temperaturrekonstruktion  auf WUWT hier.

Dieser einfache visuelle Vergleich zeigt, dass ihre Behauptung „beispiellos“ während der letzten 1500 Jahre nicht aufrecht erhalten werden kann, wenn man sie mit anderen Rekonstruktionen vergleicht. Wie man in den oberen Kreisen so sagt, weitere Forschungen sind erforderlich.

Marcott et al. spielt auf die wärmeren Temperaturen der Vergangenheit an, wenn er in diesem Absatz schreibt:

Unsere Ergebnisse zeigen, dass die globale Mitteltemperatur der Dekade 2000 bis 2009 (34) noch nicht höher lag als die wärmsten Temperaturen des frühen Holozäns (5000 bis 10000 Jahre v. Chr.). Diese Temperaturen sind jedoch wärmer als 82% der Verteilung im Holozän, wie sie im Standard-5 X 5-Stack [?] repräsentiert werden, oder 72%, nachdem man plausible Korrekturen der inhärenten Glättung der hohen Frequenzen in dem Stack angebracht hat. Im Gegenteil, die dekadische globale Mitteltemperatur Anfang des 20. Jahrhunderts (1900 bis 1909) war kälter als >95% der Holozän-Verteilung, sowohl unter dem Standard-Szenario 5 X 5 als auch in den hochfrequenz-korrigierten Szenarien.

[Müssen sich Wissenschaftler derart kompliziert ausdrücken? Hoffentlich ist die Übersetzung stimmig, denn inhaltlich habe ich den Absatz nicht verstanden. A. d. Übers.]

Man sollte diesem Beitrag nicht zu viel Gewicht beimessen, denn leider habe ich wenig Zeit,  diese Materie zu vertiefen.

Anthony Watts

Link: http://wattsupwiththat.com/2013/03/08/marcott-et-al-claim-of-unprecedented-warming-compared-to-gisp-ice-core-data/

Übersetzt von Chris Frey EIKE




In eigner Sache: Wartungsarbeiten am 14.3.13!




EEG – das Abschaffungsgesetz

Obwohl er mit der Aussage komplette Ahnungslosigkeit beweist, bezeichnete er in einem Interview mit der „Zeit“ „die Einführung des Erneuerbare-Energien-Gesetzes, das uns mittlerweile über 100 Millionen Tonnen (1·108t) CO2 erspart“ als seinen größten politischen Erfolg. Um auf Trittins 3% CO2-Gehalt zu kommen, müsste man mehr als 230 Petatonnen (2.3·1014t) CO2 emittieren.

Aber auch in der momentanen 0.039% CO2-Atmosphäre beträgt Trittins bombastische Einsparung weniger als 0.1 Promille. So beschränkt kann ja nicht einmal Trittin sein um diesen nicht messbaren Wert als seinen größten politischen Erfolg zu bezeichnen. Das CO2 kann es also nicht sein, da dessen Emission weiter steigen wird und zwar unabhängig von dem marginalen deutschen Beitrag. Dies belegt auch die jüngste Exxon-Studie. 

Die folgende Graphik zeigt den Verbrauch an Energieträgern im Jahre 2010 und den prognostizierten im Jahr 2040.

Rebecca Harms von den Grünen interpretiert dies allerdings ganz anders. In Bezug auf das Fracking sieht sie darin „den verzweifelten Versuch einiger wenigen Unternehmen das fossile Zeitalter zu verlängern“. [2]

Die fossilen Energieträger bleiben die Arbeitspferde. Weltweit. Nun ja vielleicht nicht ganz, in einem kleinen Dorf, Deutschland genant, was früher einmal eine blühende Großstadt war, soll dies anders sein. Der Zaubertrank dazu heißt EEG.  

Schauen wir uns zum Verständnis das EEG etwas genauer an. Die novellierte Fassung des EEG vom 1.1.12 der Schwarz-Gelben-Regierung beginnt mit den Worten:

„Zweck dieses Gesetzes ist es, insbesondere im Interesse des Klima- und Umweltschutzes eine nachhaltige Entwicklung der Energieversorgung zu ermöglichen, die volkswirtschaftlichen Kosten der Energieversorgung auch durch die Einbeziehung langfristiger externer Effekte zu verringern, fossile Energieressourcen zu schonen und die Weiterentwicklung von Technologien zur Erzeugung von Strom aus Erneuerbaren Energien zu fördern.“

Der Umweltminister Altmaier schiebt noch eine Begründung nach, die Energiewende sei wichtig, weil es immer weniger Öl und Gas zu fördern gebe und Öl und Gas deshalb irgendwann praktisch unbezahlbar würden. In Berlin nimmt man entweder die Realität nicht mehr wahr oder sie stört einfach. In den USA fallen dramatisch die Energiepreise, weil immer mehr Öl und Gas gefunden wird. Die Internationale Energieagentur geht davon aus, dass die USA Russland und Saudi-Arabien bis 2020 als größte Ölproduzenten einholen könnten.

Dreizehn Monate danach könnte man eigentlich den Deckel über das Gesetz schließen, denn kein einziger Zweck wurde erfüllt. Das Klima kann man nicht schützen und das Dorf Deutschland kann dies schon gar nicht, (s. o.). Die Umwelt wurde durch Windkraftanlagen verspargelt, die ganz nebenbei die Vögel häckseln. Naturschutz auf grüne Art? Wertvolles Ackerland wurde durch flächendeckende Photovoltaikfelder entfremdet und unfruchtbar. Die Energiekosten explodieren in Deutschland wegen des EEG und der fossile Brennstoffverbrauch steigt weltweit unabhängig von Deutschlands Irrweg. Photovoltaik und Windenergie wachsen noch, aber nur, weil sie durch planwirtschaftlichen Dirigismus am Leben erhalten werden, was letztendlich in die Insolvenz führen muss. Und dies geschieht in einer rasanten und beängstigenden Art und Weise, wie die nächste Graphik belegt. In ihr wird der Anstieg des prozentualen Anteils der „erneuerbaren“ Energie seit 1991 mit dem Anstieg der Ausgaben im Rahmen des EEG seit 2000 in Millionen Euro verglichen. Man erkennt deutlich, dass die Zunahme von „erneuerbarer“ Energie durch eine überproportionale Steigerung der Ausgaben buchstäblich erzwungen wird. Doch dies reicht offensichtlich noch nicht, denn schon fast drohend in Anbetracht der Zahlen geht es im EEG weiter:

Um den Zweck zu erreichen, verfolgt dieses Gesetz das Ziel, den Anteil erneuerbarer Energien an der Stromversorgung mindestens zu erhöhen auf 35 Prozent spätestens bis zum Jahr 2020, 50% (2030), 65% (2040) und 80% (2050).

Die blaue Fitkurve für die realen Ausgaben prognostiziert für 2020 (35%) einen irrsinnig großen Betrag für das EEG von 51 Milliarden Euro! Von den Lobbyisten (grüne Kurve) werden erwartungsgemäß etwas kleinere aber immer noch erschreckend hohe Werte prognostiziert.

So schlimm wird es aber nicht kommen, denn die Kosten werden sukzessive reduziert. Kleines Beispiel aus dem EEG gefällig:

Die Vergütungen und Boni verringern sich jährlich zum 1. Januar für Strom aus Windenergie a) aus Offshore-Anlagen ab dem Jahr 2018: um 7,0 Prozent und b) aus sonstigen Anlagen ab dem Jahr 2013: um 1,5 Prozent.

Dies beruhigt doch den deutschen Michel. Dies gilt vor allem dann, wenn er nicht weiß, welche Kosten noch zusätzlich anfallen. 

1. Vergütung abschaltbarer Lasten

(1) Anbieter von Abschaltleistung aus abschaltbaren Lasten erhalten Vergütungen für die Bereitstellung der Abschaltleistung für den vereinbarten Zeitraum (Leistungspreis) sowie für jeden Abruf der Abschaltleistung (Arbeitspreis).

(2) Der monatliche Leistungspreis im Sinne von Absatz 1 beträgt 1667 Euro pro Megawatt Abschaltleistung für die Bereitstellung der Abschaltleistung.

(3) Der Arbeitspreis muss mindestens 100 und darf höchstens 500 Euro pro Megawattstunde betragen.

Also ein Unternehmen, was 1GWh im Monat verbraucht, bekommt alleine für die Bereitschaft im Fall des Black-outs den Strom abzuschalten, der dann eh nicht da ist, 1.667 Millionen € pro Monat. Für eine GWh zahlt die stromintensive Industrie ungefähr 50 000€ (50€ pro MWh). Für die Bereitschaft bekommt sie also das 33fache ausgezahlt und für den Fall der Fälle kommen noch einmal 100-500 Tausend € drauf. Das meiste Geld gibt es also, wenn die Produktion still steht im Deutschlanddorf Absurdistan.

Es versteht sich natürlich von selbst, dass die Umlage auf die restlichen Verbraucher umgelegt wird.

2. Offshore-Haftungsumlage für 2013

Netzbetreiber sind berechtigt, die Kosten für geleistete Entschädigungszahlungen, die sie an Windkraftbetreiber zahlen müssen, weil diese Windmühlen gebaut haben ohne sicher zu sein, dass diese auch einen Anschluss haben, gegenüber Letztverbrauchern geltend zu machen (2013: 0.25ct/kWh). Dies sind für einen normalen Haushalt mit 4000kWh pro Jahr zusätzliche 100€.

Die Produktionskosten von Wind-, Solar und Biogasanlagen sind weit höher als die von Kohle- oder Atomkraftwerken. Damit sich die Ökostromkraftwerke trotzdem rechnen, nehmen ihnen die Netzbetreiber den Strom zum Fixpreis ab und verkaufen ihn dann selbst an der Strombörse. Die Differenz zwischen Fixpreis und Börsenpreis wird über das EEG-Konto ausgeglichen. Daraus folgt, je niedriger der Strompreis an der Börse ist, desto größer ist die Differenz, die ausgeglichen werden muss.

Im Klartext heißt dies umso mehr Ökostrom produziert wird umso teurer wird er im Deutschlanddorf Absurdistan.

Was für ein Irrsinn und, man glaubt es kaum, das ist noch steigerbar. Weihnachten 2012 gab es viel Windstrom aber wenig Abnehmer. Deshalb wurden knapp 700 Millionen kWh verschenkt. Aus Dank für die Abnahme erhielten die Beschenkten zusätzlich fast 75 Millionen €. Den gleichen Betrag erhielten natürlich die Windanlagenbetreiber. Den deutschen Michel kostete die Weihnachtsgabe somit 150 Millionen €. Gegenwert gleich Null.

Die Prognose für das EEG-Bankkonto, die Differenz zwischen dem Erlös für den Verkauf  des Ökostroms und den Auszahlungen an EEG-Betreiber für 2013 ist in der folgenden Graphik abgebildet. Die Ordinate ist in Millionen € und die Werte sind in der Regel negativ.

3. Wird die Einspeisung von Strom aus Anlagen zur Erzeugung von Strom aus erneuerbaren Energien, Grubengas oder Kraft-Wärme-Kopplung wegen eines Netzengpasses reduziert, sind die von der Maßnahme betroffenen Betreiberinnen und Betreiber für 95 Prozent der entgangenen Einnahmen.

Wieder die alte Story. Strom der nicht abgenommen werden kann, weil ihn Niemand braucht, wird trotzdem bezahlt von den „Dummen“, die sich entweder keine Anlage leisten können oder die nicht am Irrsinn partizipieren wollen.

Doch auch diesen Irrsinn kann man noch steigern.

Übersteigen die entgangenen Einnahmen in einem Jahr 1 Prozent der Einnahmen dieses Jahres, sind die von der Regelung betroffenen Betreiberinnen und Betreiber ab diesem Zeitpunkt zu 100 Prozent zu entschädigen.

Welch bürokratisches Monster ist nötig um dies bei hunderttausenden von Anlagen zu kontrollieren und was kostet dies den Michel? Aber der weiß ja nicht, dass dies nur die Spitze des Eisberges ist. Es gibt nämlich noch die Berechnung der zusätzlich bereitgestellten installierten Leistung einschließlich des Korrekturfaktors, der Flexibilitätsprämie, des Gasaufbereitungs-Bonus und der Kapazitätskomponente für jede Bioanlage. Berechnung der Marktprämie, des energieträgerspezifischen Referenzmarktwerts bei Strom aus Wasserkraft, Deponiegas, Klärgas, Grubengas, Biomasse und Geothermie. Etc., etc.

Doch Hilfe naht, der Umweltminister will 300 Milliarden € bei der Energiewende einsparen, da diese sonst eine Billion kosten könnte[3]. Doch dagegen haben die Grünen und die SPD im Bundesrat etwas. Trittin konstatierte prompt, dass der Umweltminister mit seiner Kostenprognose „die Energiewende denunzieren“ wolle.

Eine Billion bedeuten einerseits für einen Viermann-Michelhaushalt 50 000€ zusätzliche Kosten. Auch wenn dies über 25 Jahre verteilt wird, sind dies trotzdem 2000€ pro Jahr. Aber anderseits kann sich der Parteifreund von Jürgen Trittin, Frank Asbeck, der Chef von Solarworld, dann ein drittes Schloss auf Kosten des kleinen Mannes kaufen. 

Dies verspricht doch wieder ein erfolgreiches Jahr für die Lobbyisten und ein weiterer Schritt für die Abschaffung von Deutschland in Trittins Sinn zu werden.

Dr. Bernd Hüttner für EIKE


[1] http://www.eike-klima-energie.eu/news-anzeige/ist-das-westliche-klima-establishment-korrupt-die-oeffentlichkeit-kennt-vielleicht-die-wissenschaft-nicht-aber-sie-erkennt-einen-schwindel/

[2] Welt 16.02.13 p5

[3] http://www.faz.net/aktuell/wirtschaft/wirtschaftspolitik/energiepolitik/umweltminister-altmaier-energiewende-koennte-bis-zu-einer-billion-euro-kosten-12086525.html




Die Klimaschutz-Gegner auf dem Vormarsch

Die Politik der „Energiewende“ stützt sich auf Angstmacherei. Geschürt wurde und wird zum einen die Angst der Deutschen vor Strom aus Kernkraft und zum anderen die Angst vor einem Aufheizen des Erdklimas durch das „Treibhausgas“ Kohlendioxid (CO2): Um das Klima zu „schützen“, seien die CO2-Emissionen drastisch zu verringern. Aber die Zweifel daran und die Gegenargumente gewinnen mit ihrer Plausibilität immer mehr an Kraft und Zustrom. Der Widerstand gegen die absurde deutsche Energiepolitik wächst. Daran, das wahrzunehmen, kommen deren Akteure nicht mehr vorbei. Den „Klimaschützern“ und den überaus zahlreichen Klimaschutz-Profiteuren drohen, die Felle, die sie finanziell so sehr wärmen, wegzuschwimmen. Sie können nicht mehr darüber hinweggehen, dass sie an Glaubhaftigkeit verlieren und die von ihnen geschürte Angst vor dem Klima-Aufheizer CO2 dahinschwindet. Durch den zusehends stärkeren Gegenwind bekommen sie es selbst mit der Angst zu tun und versuchen, ihr Alarmgebäude argumentativ umzubauen.

Die pointiert formulierte Position von Frau Merkel

Der Umbau besteht darin, den „Klimaschutz“ in den Hintergrund abzuschieben und die Energiewende möglichst nur noch damit zu begründen, die fossilen Rohstoffe Kohle, Erdöl und Erdgas seien irgendwann erschöpft, dürften nicht unwiederbringlich verbrannt, müssten geschont werden und daher sei die Wende zum „Ökostrom“ unabdingbar. Wahrscheinlich kommt das bei den Menschen wohl noch besser an als bisher die CO2-Verminderung, um das Klima zu retten, wirkt es doch anschaulicher und allgemeinverständlicher.  Ein Beispiel für den Umbau ist ein Beitrag mit dem Titel „Klimaskeptiker in Deutschland und ihr Kampf  gegen die Energiewende“.1) Dort liest man, die Energiewende lasse sich „auch so deuten, dass sie unabhängig von klimapolitischen Überlegungen erforderlich wird“ (Seite 9). Auch Bundeskanzlerin Merkel hat sich schon in dieses Rettungsboot geschwungen, was der Beitrag so darstellt: Pointiert formuliert habe Frau Merkel die Position im Mai vorigen Jahres beim Symposium des Wissenschaftlichen Beirats Globale Umweltveränderungen (WBGU). Und dies hat sie dort gesagt:

„Ich gehöre zu denen, die glauben …“

„Ich nenne immer Klimawandel und Ressourceneffizienz oder Endlichkeit der Ressourcen in einem Zusammenhang, weil ich keine Lust habe, mich immer mit den Zweiflern auseinanderzusetzen, ob der Klimawandel nun wirklich so schwerwiegend sein wird und so stark stattfinden wird. Allein die Tatsache, dass wir in Richtung neun Milliarden Menschen auf der Welt zugehen, zeigt uns, dass auch diejenigen, die an den Klimawandel nicht glauben, umdenken müssen. Damit hier kein Zweifel aufkommt: Ich gehöre zu denen, die glauben, dass etwas mit dem Klima passiert. Aber damit wir nicht über das Ob so lange Zeit verlieren, sage ich einfach: Wer nicht daran glauben mag, wer immer wieder die Zweifel sät, wer die Unsicherheiten in den Vordergrund stellt, sollte sich einfach daran erinnern, dass wir in Richtung neun Milliarden Menschen auf der Welt zusteuern, und er soll sich die Geschwindigkeit des Verbrauchs fossiler Ressourcen anschauen. Dann kommt er zu dem gleichen Ergebnis, dass nämlich derjenige gut daran ist, der sich unabhängig davon macht, Energie auf die herkömmliche Art und Weise zu erzeugen. Deshalb sind eine andere Energieversorgung, also durch erneuerbare Energien, und ein effizienterer Umgang mit der Energie und mit den Ressourcen die beiden Schlüsselfaktoren.“2)

Was „passiert“ denn nun mit dem Klima, Frau Merkel?

Das zeigt: Den Argumenten gegen die Klimaschutzpolitik entzieht sich Frau Merkel. Sie weicht auch der Feststellung aus, CO2 heize das Klima auf. Sie sagt nicht, auf der Erde sei es seit so und soviel Jahren wärmer geworden. Sie sagt nur, sie glaube, dass etwas mit dem Klima passiere. Das ist völlig unverfänglich, belanglos und sogar die Wahrheit, denn mit dem Klima passiert auf der Erde, wie Wissenschaftler nachweisen, seit Jahrmillionen immer etwas. Wenn etwas mit dem Klima „passiert“, dann kann das bedeuten, dass sich die Temperaturen ändern, dass es wärmer wird oder kälter. Aber Frau Merkel legt sich da nicht fest. Sollen doch die Bürger, was sie mit dem „Passieren“ genau meint, glauben, was sie wollen.

Mal wieder am deutschen Wesen genesen müssen?

Ihre Widersacher, die sich mit guten Gründen gegen den CO2–Wahn wenden und darlegen, dass der Mensch mit seinem CO2 das Erdklima schützen gar nicht kann und die Klimaschutzpolitik ein Riesenbetrug ist, lässt sie auflaufen und hält ihnen nur noch entgegen, die Vorräte an fossilen Energierohstoffen seien begrenzt, deshalb sei es besser, in der Stromversorgung die gegenwärtige Abhängigkeit von diesen Fossilien aufzugeben. Stattdessen solle die Menschheit Energie sparen und Strom aus Wind, Sonne und Pflanzenmasse („Biogas“) erzeugen, also am deutschen Wesen genesen.  Das allerdings kann sich die Menschheit nicht leisten, und die Deutschen werden es auch nicht können, nur eines werden sie hinkriegen: sich und ihre Wirtschaft ruinieren.

Die blödsinnige Bezeichnung Klimaskeptiker und Klimaleugner

Die CO2-Alarmisten und Klimaschützer nennen ihre Gegner, also jene, die sich gegen den CO2-Wahn und gegen die Klimaschutzpolitik wenden, meist „Klimaskeptiker“ oder gar „Klimaleugner. Auch das Wort „Klimakrieger“ gibt es schon.3) Das ist ziemlicher Blödsinn. Weder sind sie gegenüber dem Klima skeptisch noch leugnen sie das Klima oder bekriegen es. Sie leugnen auch keinen Klimawandel.4) Würde man das tun, wäre das dem Klima und seinem  Wandel herzlich gleichgültig, sie wären weiterhin vorhanden. Was die Gegner aber tatsächlich leugnen oder anzweifeln, ist, dass anthropogenes CO2 in der Atmosphäre die Erde aufheizt und dass der Mensch eine Erwärmung der Erde, einen Klimawandel, verhindern kann, schon gar nicht dadurch, dass er seine CO2-Emissionen zurückfährt und begrenzt.

Klimaskeptiker? Kein Wunder, typisch Mann

Weil es Klimaskeptiker also nicht gibt, ist schon der Titel des Beitrags „Klimaskeptiker in Deutschland und ihr Kampf gegen …“ angreifbar und für den Beitrag nicht seriös. Mit den Begriffen „Klimaskeptiker“ und „Klimaleugner“ zu Felde ziehen ist wie auf ein Trugbild einschlagen. Dazu passt Brunnengräbers Feststellung: „Klimaskeptizismus in Deutschland scheint ein weitgehend männliches Phänomen zu sein“5)  – als wenn „männlich“ etwas ziemlich Übles sei. Es klingt nach „kein Wunder, typisch Mann“. Inzwischen findet sich als Bezeichnung für die Skeptiker und Leugner auch schon „Klimarealist“. Aber als solchen werden sich doch sicher auch die Klimaschützer empfinden. Die werden sich dann als die wahren Realisten sehen und die anderen als die falschen Realisten. Ziemlich verrückt. Später allerdings erklärt Brunnengräber, warum er den Begriff „Klimaskeptiker“ verwendet. Unsinnig ist dies er trotzdem.

Ein „Arbeitspapier“ gegen die Anti-Klimaschutz-Akteure

Geschrieben hat ihn der promovierte Diplom-Polititologe Achim Brunnengräber (Jahrgang 1963). Er ist Privatdozent und Projektleiter am Forschungszentrum für Umweltpolitik (FFU) an der Freien Universität Berlin.  Vom Wintersemester 2009/10 bis zum Sommersemester 2012 hat er die Professur für Internationale Politik an der Technischen Universität Dresden vertreten.  Auf seiner Homepage ist vermerkt „derzeit keine Lehre“.6) Brunnengräber hat seine „Studie“ für das Institut für Politikwissenschaft der Universität Wien (IPW) verfasst. Das Institut stellt sie vor als „Teilergebnis eines vom österreichischen Klima- und Energiefonds finanzierten Forschungsprojektes“.  In dem Vorhaben werde ein wissenschaftlich fundierter Beitrag zum besseren Verständnis klimaskeptischer Akteure und Netzwerke, ihrer Argumente und ihrer Wirkungsweise geleistet. Veröffentlicht ist die Studie unter der Bezeichnung „IPW Working Paper No. 1/2013“.

Wie die Positionen der Klimaschutz-Gegner hoffähig werden

Die Begründung für die Studie beschreiben die Professoren Ulrich Brand (Wien) und Markus Wissen (Berlin) in ihrem Vorwort so: „Es mehren sich die Anzeichen dafür, dass Klimaskeptiker in Deutschland an politischem Terrain und Aufmerksamkeit gewinnen.“ Sie würden den von Menschen verursachten Klimawandel oder die daraus gezogenen Schlussfolgerungen in Frage stellen. Es werde von bezahlten Lobbyisten, Stiftungen und think tanks, die der Öl-, Gas- oder Kohleindustrie nahestünden, die Botschaft übermittelt, dass die wissenschaftliche wie politische Beschäftigung mit dem Klimawandel vor allem Angstmacherei, Katastrophismus oder eine große Lüge sei, oder der Klimawandel und seine Folgen würden verharmlost und Gegenstrategien nicht für nötig erachtet. Damit einhergehe die Infragestellung der Energiewende. Die Positionen der Klimaskeptiker würden dadurch hoffähig und fänden Unterstützung, auch prominente. Dann die Frage: „Könnte auch in Deutschland eine ähnlich starke und vor allem ideologisch geprägte Debatte entstehen, wie sie schon lange in den USA geführt wird?“ Dieser Frage gehe die Studie nach. Die Ergebnisse seien überraschend.

Sich verschärfende Verteilungskämpfe

Brunnengräber selbst schreibt: „In der Öffentlichkeit sorgt die Energiewende für große Unsicherheiten hinsichtlich der Maßnahmen, der Folgen und der Kosten. Eine hitzige Debatte ist entstanden. Klimaskeptiker, die den vom Menschen gemachten Klimawandel leugnen, seine Auswirkungen stark relativieren oder die Klimapolitik grundsätzlich in Frage stellen, scheinen in dieser aufgeheizten Stimmung an Terrain zu gewinnen. Deren Stimmen werden in Deutschland in den letzten Jahren immer lauter und erfahren in der Politik, den Medien sowie der breiten Öffentlichkeit eine zunehmende Aufmerksamkeit.“ Die Verteilungskämpfe zwischen den Akteuren der Öl-, Kohle- und Gas-Branche auf der einen und der Branche der erneuerbaren Energien auf der anderen Seite würden sich verschärfen. In seiner Studie behandelt Brunnengräber zunächst die Bedeutung dieses Phänomens. Danach schreibt er von „diskursiven Konstruktionen“ (ziemlich nebulös) und „machtvollen Interessen“ (ziemlich verschwiemelt).  Er erklärt, was „Klimaskeptiker“ und „Klimaleugner“ sind, führt mit vielen Unterscheidungen auch noch die Begriffe Klimawandelskeptiker, Klimawissenschaftsskeptiker, Klimainstrumentenskeptiker und Klimapolitikskeptiker in die Debatte ein und will für sie alle die „Klimaskeptiker“ als Oberbegriff verwendet sehen. Er stellt Positionen und Argumentationsmuster der Klimaskeptiker dar, ihre Strategien und Mittel, ihre politischen Motive und Interessen.

AkteurInnen ja, aber KlimaskeptikerInnen nein

Auf alles einzugehen, würde den Rahmen hier sprengen. Der Interessierte mag die Studie zur Gänze selbst lesen und sich dann sein eigenes Urteil bilden. Brunnengräber selbst zweifelt nicht daran, dass das Verbrennen fossiler Energien die Ursache für den Klimawandel ist. Das gibt er unmissverständlich zu verstehen.7) Feministisch-politisch superkorrekt ist er ohnehin. So verwendet er für das Wort Akteure stets die unsinnige Bezeichnung „AkteurInnen“, und Wissenschaftler sind natürlich „WissenschaftlerInnen“. Für „KlimaskeptikerInnen“ mochte er sich dagegen nicht zu erwärmen. Wir wissen: ein typisch männliches Phänomen, dieser Skeptizismus.

Was das Verdienst der Studie ist

Aber bei allem, was in der Studie zur Kritik herausfordert, hat sie den einen Verdienst, dass sie umfänglich und im Wesentlichen korrekt über den Widerstand gegen die Klimaschutzpolitik berichtet. Er wird ernst genommen. Zudem stellt sie heraus, dass dessen zentraler Angriffspunkt inzwischen weniger darin besteht, die Klimaerwärmung durch CO2 zu bestreiten, sondern die Kritik vor allem darauf konzentrieren, welche Folgen die Klimaschutzpolitik für die Menschen und die Wirtschaft hat (Kosten, Überregulierung). Auch legt die Studie offen (Beispiel Merkel), dass die Klimaretter ihre Argumentation ebenfalls verschieben, nämlich vom Klimaschutz hin zur Ressourcen-Schonung, um dem Widerstand leichter begegnen zu können. Da er selbst zur Klimaschutz-Gilde gehört, ist er davon natürlich nicht begeistert, aber insofern realistisch. Und so dient denn seine Studie letztlich für sich und seinesgleichen als ideologische Munitionssammlung, um mit dem Widerstand vielleicht doch fertigzuwerden.

Die Gegner der Klimaschutzpolitik haben Erfolg

Alles in allem zeigt die Studie auf, dass die Klimaschutz-Gegner gut vorangekommen sind, zusehends Erfolg haben und weiter auf dem Vormarsch sind. Deutschland vollziehe nach, was in den vereinigten Staaten schon viel weiter vorangekommen sei. Dort habe sich der Zuspruch für den Klimaschutz dramatisch verändert. Alle Anzeichen sprächen dafür, dass die Klimaskeptiker in Deutschland an politischem Terrain gewönnen. Der „klimaskeptische Diskurs“ sei mittlerweile institutionell gut eingebettet. Darüber hinaus würden europäische wie internationale Beziehungen gepflegt.  Die Stärke und der Erfolg der Klimaskeptiker gingen  von ihrem Netzwerk aus, das Akteure aus der Wissenschaft, den Medien, der Privatwirtschaft und der Politik verbinde.  Es komme zu einer Plausibilisierung und Unterstützung der Klimaskeptiker und ihrer Meinungen durch Rückkopplungseffekte, durch gegenseitiges Zitieren und eine ausgewählte gegenseitige Einladungspolitik – wie es die Gegenseite ebenfalls und schon viel länger macht.

Die Seriosität der Klimaschutz-Gegner steigt

Die Präsenz von klimaskeptischen Positionen in den Medien, so liest man in der Ergebniszusammenfassung weiter, habe seit der Klimakonferenz in Kopenhagen 2009 zugenommen. Ihre starke Präsenz in den deutschen Medien verschaffe den Klimaskeptikern und ihren Positionen nicht zuletzt Legitimität und Anerkennung. Die zusammengetragenen Materialien wiesen eindeutig daraufhin, dass Klimaskeptiker mit neuem Selbstvertrauen Medien- und Internetpräsenz zeigten. Klimaskeptiker verfügten mittlerweile über die verschiedensten Mobilisierungmittel: eigene Institutionen, den Zugang zu politischen Entscheidungsträgern wie zu den Medien, internationale Kontakte, eigene Webseiten wie eigene Blogs und gewisse finanzielle Spielräume. Durch prominente Mitstreiter und deren Medienaufritte steige die Seriosität der Klimaskeptiker. Deren Positionen stießen auf größere öffentliche Resonanz bzw. würden gesellschaftlich anschlussfähiger.

Die Studie endet mit dem Satz: „Indem die Themen Klima und Energie immer stärker ihre Zusammenhänge offenbaren, es sich immer deutlicher zeigt, wer die GewinnerInnen und wer die VerliererInnen einer nachhaltigen Energiewende sind und sich die deutsche und europäische Gangart in diesen Politikbereichen erhöht, dürfte auch der Klimaskeptizismus in Deutschland nicht an politischer Dynamik und Relevanz verlieren.“

Dr. K.P. Krause zuerst erschienen auf seinem Blog hier

1) http://politikwissenschaft.univie.ac.at/fileadmin/user_upload/inst_politikwiss/IPW_Working_Papers/IPW-WP-1_2013-Achim-Brunnengraeber.pdf

2)  In ihrer Rede dort am 9. Mai 2012 in Berlin. http://www.bundesregierung.de/Content/DE/Rede/2012/05/2012-05-09-rede-wbgu-symposium.html 

3) So die Wochenzeitung Die Zeit vom 22. November 2012

4) Brunnengräber weiß das, denn auf Seite 16 bringt er dazu ein langes Zitat, verwendet “Klimaskeptiker” aber trotzdem.

5) IPW Working Paper No. 1/2013, Seite 7, Fußnote 1

6) Mehr zu Achim Brunnengräber findet sich hier: http://de.wikipedia.org/wiki/Achim_Brunnengr%C3%A4ber

7) Zum Beispiel auf Seite 13: „Dies ist insbesondere dann von Belang, wenn das soft issue „Klimawandel“ durch die Verzahnung mit der Frage nach der Vermeidung der Verbrennung fossiler Energien, die ursächlich für den Klimawandel sind, zu einem hard issue transformiert wird.“




Fukushima Propaganda á la Tagesschau

Die mp4 Datei dieser Tagesschau können sie im Anhang finden und herunterladen.

Noch dreister und noch falscher ist dann die „Originaltagesschau“ vom heutigen Tage

Video nicht mehr verfügbar

Hier der Ausschnitt aus der Tagesschau von heute 7:00 Uhr. Mit Dank an PI hier

Konstruktive Kritik nehmen der erste Chefredakteur der ARD, Dr. Kai Gniffke, und sein Tagesschausprecher Thorsten Schröder sicherlich gerne an: » Telefon: 040-4156-0 / redaktion@tagesschau.de » info@thorsten-schroeder.de

Update heute

Mail von 20:06 von Tagesschau-Sprecher Thorsten Schröder an einen der sich über diese dreiste Verdrehung der Wahrheit beschwerte:

Sehr geehrter XXXXXXX,

vielen Dank für Ihre Mail.

Ich habe die Meldung zwar nicht geschrieben (denn bei der Tagesschau herrscht Arbeitsteilung: der Redakteur schreibt, der Sprecher liest), aber ich kann Sie beruhigen: die Meldung ist korrekt. Wenn Sie die Meldung noch einmal in Ruhe durchlesen, werden Sie es sicher selbst bemerken.

Anfangs sage ich, dass Japan der Opfer der Erdbeben und Tsunami-Katastrophe gedenkt! Kein Wort von Opfern der Reaktorkatastrophe! Anschließend erzähle ich, was sich damals ereignete, also erst Beben, dann Riesenwelle und dann Reaktorkatastrophe. Dann kommt die Zahl der Opfer, nämlich 16.000 Menschen sind dabei (bei diesen Ereignissen, ich sage nicht „bei der Reaktorkatastrophe“!) ums Leben gekommen. Fällt Ihnen etwas auf? Genau: der Satz am Anfang, da ging es um die Opfer der Erdbeben- und Tsunamikatastrophe. Die 16.000 beziehen sich somit natürlich nicht allein auf die Reaktorkatastrophe. Das ist klar, wenn man den Anfang der Meldung nicht schon wieder vergessen hat.

Und, um mal logisch zu argumentieren: wenn sich die 16.000 nur auf die Reaktorkatastrophe beziehen würden, wie Sie es unterstellen,  wo sind dann die Opfer der Erdbeben- und Tsunamikatastrophe geblieben, von der im ersten und somit wichtigsten Satz der Meldung die Rede ist??? Dann würde das heißen, dass es Null Opfer gegeben hat infolge der Erdbeben- und Tsunamikatastrophe. Die Japaner gedenken also der nicht vorhandenen Opfer der Erdbeben- und Tsunamikatastrophe? Wäre merkwürdig, oder?

Es gibt somit keinen Grund von einer dreisten Falschmeldung oder Ähnlichem zu reden.

mit freundlichen Grüßen, Thorsten Schröder

Update 12.3.13

Und Jürgen Trittin haut auch in diesselbe Kerbe und setzt munter einen drauf: „19.000 Menschen starben durch Tsunami und Reaktorkatastrope etcc. etc.

Der grüne Fraktionschef Jürgen Trittin zum Jahrestag der Erdbeben und Tsunamiopfer. Sein möglicher Wahlspruch: „Wahrheit ist was für ganz Doofe“.  Mit Dank an Spürnase M. Estermeier

Related Files




Fracking in den USA – ‘Gasland’ und die Fakten

Doch was hat es damit auf sich? Einige Fakten:

♦  Methan im Wasser ist normal! Methan ist ein typisches Endprodukt des anaeroben Stoffwechsels und in tieferen Erdschichten, dort, wo auch das Grundwasser ist, gibt es keinen Sauerstoff und anaerobe Bakterien haben beste Lebensbedingungen. Auch In Deutschland gibt es Wasserwerke, die ihr Trinkwasser entgasen müssen, damit es nicht brennt. (Methan in der Trinkwasseraufbereitung)
Hausbrunnen in der US-Provinz haben aber keinen Entgaser…

  Es hat sich längst herausgestellt, dass das Phänomen der brennenden Wasserhähne schon auftrat, bevor in der Gegend gefrackt wurde. Bereits 1976 veröffentlichte die Wasserbehörde von Colorado eine Meldung, die von ‘Troublesome amounts of … methane”, sprach, lange, bevor zum ersten mal gefrackt wurde.

  Die Behörden konnten mit Isotopen- und Spurengasanalysen nachweisen, dass das Methan aus dem Wasserhahnnicht mit dem Methan aus den Frack-Bohrungen übereinstimmt, sondern vielmehr aus oberflächennahen Kohleflözen stammt, die der Brunnenschacht durchbohrt. Kohle aber ist immer mit ‘Grubengas’ (Methan) vergesellschaftet. Im Bergbau ist das Methan deshalb gefürchtet, denn es verursacht, wenn man nicht aufpasst, die gefährlichen ‘Schlagwetter’-Explosionen.
Die ‘State of Colorado Oil and Gas Conservation Comission’ COGCC hat dazu diesen vernichtenden Kommentar zu ‘Gasland’ veröffentlicht  *

  …und es gibt ein sehr plausibles Motiv, warum die Bewohner behaupten, das Gas stünde im Zusammenhang mit dem Fracking. Die USA sind das Land der Schadensersatzklagen, wo ein Becher heisser Kaffee, über das Bein geschüttet, einen Kunden zum Millionär machen kann, weil auf dem Becher keine Warnung stand, dass Kaffee möglicherweise heiß sein könnte. Diese Leute haben schlicht und einfach versucht, die Bohrgesellschaft mit einer Lüge zu erpressen!

Schon Jahrzehnte vor dem ersten Frack bekannt: Brennende Wasserhähne. Wieso haben Grüne etwas dagegen, wenn man mit dem Wasser auch heizen kann?

Eine der besten Quellen zu Lüge und Wahrheit ist der Report’Debunking GasLand‘ der IPAA (Independent Petroleum Association of America). Gewiss ist das ein Industrieverband, aber Wahrheit bleibt Wahrheit, egal, wer sie sagt. Dass es die Wahrheit ist, sieht man an nihts deutlicher als an den Angriffen gegen den Report, denn die beschränken sich ausschliesslich auf Vorwürfe des ‘Lobbying’ also auf die ad hominem-Attacke; in heutiger Zeit ist das ein echtes Qualitätsmerkmal, ein klares Eingeständnis,dass der Report in der Sache richtig ist.

In Gasland behauptet der Macher Josh Fox:

(6:05) “Ich wusste nicht, dass das Energiegesetz von 2005, vob Dick Cheney durch den Kongress gepusht, die Öl- und Gasindustrie von den Gesetzen Clean Water Act, tClean Air Act, Safe Drinking Water Act, dem Superfund law und noch ungefähr einem Dutzend anderer demokratischer Umweltschutzgesetze befreit.”

Tatsächlich ist die Öl- und Gasindustrie von keinem dieser Gesetze befreit. Das Gesetz wurde auch nicht vom Republikaner Cheney ‘gepusht’, sondern sogar von 75 oppositionellen Demokraten unterstützt.

(32:34) “Die energy task force und 100 Millionen $ Lobby-Gelder waren entscheidend für die Einführung des ‘Halliburton-Schlupflochs’ im Energiegesetz, das Öl- und Gasgesellschaften erlaubt gefährliche Substanzen unkontrolliert direkt in oder unmittelbar neben Trinkwasserquellen zu pressen.”

Selbstverständlich ist das ein glatte Lüge. Zwischen der Einpresstelle und dem Trinkwasser liegen tausende Meter solider Fels.

(1:00:56) “Weil Fracking-Chemikalien ‘Betriebsgeheimnisse’ sind, wissen wir nur dank Untersuchungen eines Umweltschützers, was denn da drin ist”

Natürlich sind den Behörden und öffentlichen Stellen alle Chemikalien und Rezepturen genau bekannt und können auf vielen öffentlichen Webseiten von jedermann eingesehen werden:

Solche Datenblätter gibt es für JEDE Frack-Bohrung, sie können bei http://www.fracfocusdata.org/fracfocusfind/ abgefragt werden.

Die bisher in Deutschland verwendeten Fracking-Fluide sind übrigens nicht einmal als ‘Gefahrgut’ oder ‘Umweltgefährdend’ eingestuft. Würde ein Tanklastzug mit dem Zeug an Bord einen Unfall haben, würde die Feuerwehr das Zeug einfach in den Straßengraben spülen, so harmlos ist das: Frack-Technologie bei RWE.

Ja, und so geht das weiter, Lüge auf Lüge,

  Von Gasbohrungen, die angeblich geschützten Antilopen den Zugweg versperren (Es gab und gibt die Art dort gar nicht),

  Von Trinkwasser-Untersuchungen der EPA, die angeblich durch (gekaufte) Politiker verhindert wurde (Die EPA hat das Wasser untersucht und fand keinerlei Hinweise auf eine Verunreinigung durch Fracking),

  Einem Fischsterben, das angeblich durch Fracking-Abwässer verursacht wurde (Ursache war einen Algenblüte, die durch Abwässer einer KOHLENGRUBE ausgelöst wurde)

…und so weiter, und so weiter. Praktisch JEDE Behauptung in diesem Film ist erlogen und zuverlässig widerlegt.

So beschreibt ‘Gasland’ die Gefahr, dass durch das Fracking Gefahrstoffe im Fluid ins Grundwasser gelangen könnten.

…und so verhalten sich Rißtiefe und Abstand zum Grundwasser tatsächlich, gemessen in Barnett Feld, dem ältesten Fracking-Gebiet: Über tausend Meter solider Fels trennen selbst die tiefsten Brunnen von den Fracking-Spalten. ( http://fracfocus.org/hydraulic-fracturing-how-it-works/hydraulic-fracturing-process ) FracFocus ( http://fracfocus.org/ ) ist übrigens für Englischkundige sehr lesenswert.

Fracking und die EPA

Entgegen dem gründeutschen Hochmut, der ‘Vorreiter’ in Umweltschutzbelangen zu sein, sind wir nur Nachzügler und Plagiatoren.

Die US Environmental Protection Agency (EPA) ist die Mutter der Umweltschutzbehörden. Schon in den 1950er Jahren gab es erste Besorgnisse wegen zunehmender Umweltschäden und 1970 (16 Jahre vor dem deutschen Umweltministerium und 10 Jahre vor Gründung der Partei ‘Die Grünen’) wurde die EPA als Bundesbehörde gegründet und seit 1982 hat sie ein eigenes Ermittlungsbüro, das Office of Criminal Enforcement, Forensics and Training (OCEFT). Seit 1988 haben deren Beamte volle Polizeibefugnisse; davon wagt unser Umweltminister nicht einmal zu träumen.

Insgesamt beschäftigt die EPA 17.000 Mitarbeiter (Das deutsche Bundesumweltministerium nur 814) und hat aktuell ein Budget von 8,7 Milliarden US$ jährlich. Meilensteine, wie die Katalysatorpflicht für KFZ (1975, in Deutschland erst 1984) oder das erste umfassende Umweltschutzgesetz der Welt, der National Environmental Policy Act (1969, in Deutschland erst 1983) kamen aus den USA.

Das Hauptquartier der EPA in Washington DC.

Es ist bemerkenswert, wie diese mächtige Behörde in Deutschland heruntergespielt wird: Im englischen Wiki hat die Druckversion einen Umfang von16 Seiten, in der deutschen nur 4, wobei der erste Untertitel ‘Kritik’ lautet. Die umfangreichen Verdienste werden dagegen mit keinem Wort erwähnt.

Wie kann man glauben, dass so eine mächtige Behörde tatenlos zusehen würde, wie Fracking angeblich das Grundwasser verseuchen würde?

Weil die EPA etwa Angst vor den ‘Konzernen’ hätte? Die EPA hat Big Tobacco nicht nur mit Mut, sondern sogar mit Haß angegriffen und praktisch ruiniert. Sie hatte keine Angst vor General Motors und vor Exxon.

Und sie hat einen sehr klaren Standpunkt zum Fracking:

Erdgas ist eine Schlüsselkomponente für unsere nationale ‘Saubere Energie’-Zukunft. Die USA haben enorme Erdgasreserven die durch Fortschritte beim Horizontalbohren und hydraulischen Fracken marktwirtschaftlich aus Shalegas-Vorkommen gefördert werden können. Der verantwortliche Ausbau der amerikanischen Shalegas-Ressourcen ist von großer Nützlichkeit auf den Gebieten der Wirtschaft, der Versorgungssicherheit und des Umweltschutzes.

Das ist die richtige Einstellung! Wer sagt denn, dass ‘Konzerne’ und Umweltschutz unverträglich sein müssen, wie es in Deutschland schon fester Bestandteil des Öko-Katechismus ist?

Derzeit arbeitet die EPA an einer groß angelegten Studie über den Einfluss des Frackens auf das Trinkwasser. Selbstverständlich gibt es dazu auch umfassende Vorschriften, die im ‘Underground Injection Control Program’ (Kontrollprogramm für die unterirdische Injektion/Verpressung) niedergelegt sind. Es kann überhaupt keine rede davon sein,dass da unkontrolliert gefrackt wird, womöglich gar mit irgendwelchen ‘geheimen’ Zusätzen, wie mancher hier in Deutschland behauptet! Die EPA-Agenten (Mit Polizeibefugnissen ausgestattet!) sind über alles informiert und vor Ort.

Die grösste Besorgnis der EPA ist offensichtlich der Zusatz von Dieseltreibstoff zu den Frack-Fluiden. Aber wer eine Gasquelle anbohrt,hat sowieso eine Menge höhermolekulare Kohlenwasserstoffe als Zugabe,die vom Gasstrom mit nach oben gerissen werden, ein paar Liter Diesel spielen da kaum eine Rolle. Wenn sich die EPA also ausgerechnet darum besonders kümmert, hat sie offensichtlich keine grösseren Sorgen und das ist sehr beruhigend.

Fazit:

Die EPA Ist zuversichtlich, dass Fracking keine Gefahren heraufbeschwört, die über das übliche Maß bei solchen technischen Prozessen hinaus gehen. Bisher gibt es keinerlei Erkenntnisse darüber, dass Grund- oder Trinkwasser großflächige gefährliche oder langfristige Schäden genommen hätten. Allen Verdachtsfällen wird jedoch akribisch nachgegangen. Eine Stellungnahme der EPA-Direktorin Lisa Jackson vor einem parlamentarischen Untersuchungsausschuß 2011:

“I am not aware of any proven case where the fracking process itself affected water.”

“Mir ist kein einziger bewiesener Fall bekannt, bei dem der Fracking-Prozess die Wasserqualität beeinflusst hätte”

 Wie viel Gas steckt im Boden?

Die EIA (US Energy Information Administration) hat in einem Report vom Juli 2011 abgeschätzt, wie viel Shalegas und Shaleöl derzeit förderwürdig ist (Das heisst, die zum jetzigen Zeitpunkr bekannten, mit den jetzigen technischen Mitteln erreichbaren und zu derzeitigen Marktpreisen abbauwürdigen Vorhaben): Review of Emerging Resources: U.S. Shale Gas and Shale Oil Plays. Daraus einige Kernpunkte:

Die Shalegas-Produktion im grossen Maßstan setzte erst ein, als die Mitchell Energy and Development Corporation zwischen den 1980er und 1990er Jahren experimentell damit begann die tiefe Shalegaserschliessung im Barnett-Feld in Texas kommerziell zu realisieren. Nachdem der Erfolg der Mitchell Energy and Development Corporation offensichtlich wurde, nahmen weitere Gesellschaften aggressiv am Markt teil, so dass im Jahr 2005 allein das Barnett-Feld jährlich 0,5 Billionen Kubikfuß Erdgas pro Jahr hergab. [ Das sind 15 Milliarden m3. Deutschland fördert pro Jahr 20 Milliarden m3 und verbraucht 100 Milliarden m3] Als die Produzenten die Zuversicht gewonnen hatten, dass sie im Barnett-Feld profitabel arbeiten konnten, was durch Ergebnisse beim Fayetteville-Feld in Arkansas bestätigt wurde, erschlossen sie weitere Felder, einschliesslich Haynesville, Marcellus, Woodfort, Eagle Ford, und anderen.

Obwohl die U.S. Energy Information Administration’s (EIA) in ihrem Nationalen Energiemodell in den Mitt-1990ern begann, die Shalegasresourcen zu berücksichtigen. wurde Shalegas erst in den letzten 5 Jahren als ‘game changer’ für den US Gasmarkt wahrgenommen. Die Ausweitung der Förderung hat die ‘trockene’ Shalegas-Produktion* in den Vereinigten Staaten von 1 Billion Kubikfuß in 2006 auf 4,8 Billionen Kubikfuß oder 23% der gesamten US-Erdgasproduktion in 2010 gesteigert. [Das sind 144 Milliarden m3 oder etwa das 1,5-fache des gesamten deutschen Gasverbrauchs.].

In dem Bericht ist eine umfangreiche Tabelle der derzeitigen Reserven enthalten. Sie werden auf 750 Billionen Kubikfuß geschätzt. Das sind 22,5 Billionen m3 oder genug, um den gesamten Gasverbrauch der USA für 30 Jahre oder den Deutschlands für 225 Jahre zu decken.

Das sind aber, wohlgemerkt, die jetzt vorhandenen Reserven. Selbstverständlich ist das nicht die förderbare Gesamtmenge, die liegt nämlich sehr viel höher – Keine Gesellschaft exploriert noch neue Felder, wenn ohnehin genug Gas für die nächsten Jahrzehnte bekannt ist, das kennen wir ja auch vom Öl.

Vor diesem Hintergrund muss auch die Aussage gesehen werden, dass unter deutschem Boden Reserven für vermutlich 15 Jahre des deutschen Gesamt-Gasverbrauchs liegen. Das ist immer nur die Spitze des Eisbergs.

Das Potential Gas Comittee, das mit Fachleuten (keinen ‘Experten’) aus der Petroleumindustrie besetzt ist, widmet sich besonders dieser Frage. Das Komitee schätzt derzeit die Gesamtressourcen auf 1.898 Billionen Kubikfuß, das wäre genug, um die USA 80 Jahre lang vollständig zu versorgen.

Aber auch das ist, wohlgemerkt, eine unvollständige Schätzung, basierend auf heutigen Kenntnissen und dem heutigen Stand der Technik.

Doch meiner Ansicht nach wird das Methaneis aus dem Meer längst der nächste ‘game changer’ sein, bevor das Ende des Shalegas auch nur abzusehen ist.

Und zum Schluß:

…ein Beispiel, wie absurd und auf welchem Niveau selbsternannte Umweltschützer und ‘Experten’ gegen Fracking ‘argumentieren’. Einige Forenbeiträge aus Deutschland:

…Dabei ist es vollkommen gleichgültig ob und wieviel Uran 234, 236 und 238, Cobald, Cäsium, Arsen und tausend andere Giftstoffe der Quarzsand enthält,…

Wenn Quarzsand so ungefährlich wäre, wieso gibt es bei den Herstellern folgende Hinweise zu finden

Das starke und/oder längere Einatmen von alveolengängigem Quarzfeinstaub kann zu Staublunge führen; auch als Silikose bekannt. Das Lungenkrebsrisiko ist bei Silikose-Erkrankten erhöht. Die Staubexposition muß gemessen und überwacht werden.

Die benötigte Menge an Quarzsand ist gewaltig und beim umladen gelangt eine erhebliche Menge in die Umwelt und damit in die Luft, die wir und unsere Kinder atmen. Und wer es nicht wusste, feiner Quarzsand ist hochgradig Krebseregend wenn er eingeatmet wird! Hochgradig!

…Ja, deshalb stellen wir ja Buddelkisten voller Quarzsand auf die Kinderspielplätze.

———————————————-

* Eine Übersetzung der wichtigsten Absätze:

Biogenes Methan entsteht bei der Zersetzung von organischem Material durch Fäulnis, wie es allgemein in Sümpfen beobachtet wird, oder durch chemische Reduktion von Kohlendioxid. Dieses Methan findet man in einigen flachen wasserführenden geologischen Schichten, die manchmal durch Trinkwasserbrunnen erschlossen werden.

Thermogenes Methan entsteht bei der thermischen Zersetzung von organischem Material. Man findet es in Gesteinen tief in der Erde und es tritt auf, wenn nach Öl oder Gas gebohrt oder gefrackt wird.

Durch die Untersuchung von hunderten Gasproben aus Colorado während vieler Jahre kann die COGCC zwischen biogenem und thermogenem Methan aufgrund von Isotopen- und chemischen Analysen unterscheiden.

Wie wir zeigen werden, wird im Film ‘Gasland’ in mehreren Fällen fälschlicherweise behauptet, dass Trinkwasserverunreinigungen durch die Öl-und Gas-Bohrungen entstanden sein sollen, während unsere Untersuchungen ergaben, dass dass die fraglichen Brunnen biogenes Methan enthalten, das nicht von solchen Bohrungen stammen kann….

Die zusammenfassende Stellungnahme des COGCC:

Als Antwort auf Befürchtungen bezüglich des Auftretens von Methan in Trinkwasserbrunnen im im Laramie/Fox Hills Aquifer, wurden von uns 28 Brunnen auf einer Fläche von etwa 170 Quadratmeilen untersucht. Es zeigte sich, dass diese Brunnen entweder kein Methan enthalten oder dass das Methan biogenen Ursprungs ist. Keiner der Brunnen (Mit Ausnahme des Ellsworth-Brunnens, der eine Mischung aus biogenem und thermogenem Methan enthielt) enthielt thermogenes Methan.

** ‘Trockenes’ Erdgas ist reines Methan. ‘Nasses’ Erdgas enthält zusätzlich höhermolekulare Anteile wie Ethan und Propan. Das Marcellus Feld, derzeit das mit Abstand grösste, ist sehr ‘nass’, es enthält bis zu 16% Ethan. Ethan ist der Ausgangsstoff für den Kunststoff Polyethylen (PE). Das führte in den USA wegen des besonders billigen Gases bereits zu einem ‘rauschartigen’ Boom der Kunststoffproduktion.

Ein bemerkenswertes Dokument, das ich nur wegen seiner Länge nicht nutzte, verdient dennoch Erwähnung:

STATE REGULATORS ON HYDRAULIC FRACTURING 

Stellungnahmen staatlicher Behörden zum hydraulischen Fracken

Alaska Oil and Gas Conservation Commission:
“There have been no verified cases of harm to ground water in the State of Alaska as a result of hydraulic fracturing”

Es gibt keine nachgewiesenen Fälle der Schädigung von Grundwasser im Staat Alaska durch Fracking.

Colorado Oil and Gas Conservation Commission:
“There has been no verified instance of harm to groundwater caused by hydraulic fracturing”

Es gibt keinen bewiesenen Fall einer Grundwasserschädigung durch Fracking.

Indiana Dept. of Natural Resources:
“There have been no instances where the Division of Oil and Gas has verified that harm to groundwater has ever been found to be the result of hydraulic fracturing”

Die Abteilung Öl und Gas konnte in keinem Fall nachweisen, dass es jemals zu einer Schädigung des Grundwassers durch Fracking kam.

Louisiana Dept. of Natural Resources:
We are unaware of any instance of harm to groundwater in the State of Louisiana caused by the practice of hydraulic fracturing

Uns ist kein einziger Fall bekannt, bei dem im Staat Louisiana eine Schädigung des Grundwassers durch Fracking verursacht wurde.

Michigan Dept. of Environmental Quality:
“There is no indication that hydraulic fracturing has ever caused damage to ground water”

Es gibt keinen Hinweis darauf, dass Fracking jemals Schaden am Grundwasser verursacht hätte

Oklahoma Corporation Commission:
“We have no documentation of such an instance”

Uns ist kein solcher Fall bekannt

Railroad Commission of Texas: [Die ‚Eisenbahn-Komission‘ ist in Texas aus historischen Gründen für die Überwachung von Öl- und Gasbohrungen zuständig]
“Though hydraulic fracturing has been used for over 60 years in Texas, our Railroad Commission records do not reflect a single documented surface or groundwater contamination case associated with hydraulic fracturing”

Obwohl Fracking in Texas seit über 60 Jahren angewendet wird, ist uns keine einzige dokumentierte Oberflächen- oder Grundwasserkontamination bekannt, die mit Fracking in Verbindung steht.

South Dakota Dept. of Environment and Natural Resource:
“In the 41 years that I have supervised oil and gas exploration, production and development in South Dakota, no documented case of water well or aquifer damage by the fracking of oil or gas wells, has been brought to my attention. Nor am I aware of any such cases before my time”

In den 41 Jahren in denen ich die Öl- und Gasexploration, -Produktion und -Entwicklung in South Dakota überwachte, wurde mir kein dokumentierter Fall einer Trinkwasserbrunnen- oder Aquiferschädigung durch das Fracken in Öl- oder Gasbohrungen bekannt und es ist mir auch kein einziger Fall bekannt, der vor meiner Amtszeit läge

Wyoming Oil and Gas Conservation Commission:
“No documented cases of groundwater contamination from fracture stimulations”

…kein dokumentierter Fall einer Grundwasserkontamination durch Fracking

Gleichartige Stellungnahmen von Behörden füllen noch mehrere Seiten dieses Dokuments, alle Quellen sind belegt.

Autor Tritium, zuerst erschienen bei Science Sceptical 

Ergänzende Informationen:

In den USA erscheint im April 2013 der neue Film vom „Gasland“ Produzenten Josh Fox unter dem Titel: „Gasland II“

„Fracknation“ der neue Film der Gruppe um den Filmemacher Phelim McAleer ist fertig und kann hier erworben werden. Konsequent werden darin die Lügen und Verdrehungen des Films Gasland entlarvt und Zeugen direkt vor Ort befragt. Auch Josh Fox sollte mehrfach befragt werden, wich aber konsequent jeder Antwort aus. Sehen Sie hier den Trailer:

Trailer zum Film „Fracknation“ von Phelim MacAlleer




Der Hype zur globalen Abkühlung der siebziger Jahre – sehr ähnlich dem heutigen Hype zur globalen Erwärmung

Den Ausschnitt aus dem Artikel rechts kann man folgendermaßen übersetzen:

Die Aussichten sind buchstäblich eisig. Das oberste Ziel der Klimakontrolle – 20 Grad kälter nicht nur innen, sondern auch draußen.

Und wenn wir uns bis jetzt nicht an die physikalische Bedrohung durch Verschmutzung angepasst oder uns daran gewöhnt haben – hier kommt auch eine Warnung, dass es sehr gut auch zu schlimmen politischen Konsequenzen kommen kann.

Dr. Arnold Reitze, ein Experte für juristische Aspekte an der Case Western Reserve University in Cleveland weist darauf hin, dass sich Verschmutzung oder die Bemühungen, diese zu kontrollieren, fatal auf unser Konzept einer freien Gesellschaft auswirken können.

Als wahrscheinlich unvermeidbare Einschränkungen für das Individuum und die große Masse schlägt Reitze vor:

● Verbannung von Verbrennungsmotoren für Fahrzeuge sowie Verbannung oder strikte Kontrolle über alle Formen von Verbrennung.

● Rigide Kontrollen zum Marketing neuer Produkte, die ein minimales Verschmutzungspotential nachweisen müssen.

● Kontrolle aller Forschungs- und Entwicklungsarbeiten, die sofort gestoppt werden müssen, wenn sich nur das geringste Anzeichen zusätzlicher Verschmutzung zeigt.

● Möglicherweise sogar Bevölkerungskontrolle, die den Familien die Anzahl der Kinder vorschreibt und die mit Bestrafung rechnen müssen, wenn sie dieses Limit überschreiten.

Fazit von Reitze: „Wir könnten gezwungen sein, die Demokratie durch Gesetze zu opfern, die uns vor weiterer Verschmutzung schützen werden.“

Während der siebziger Jahre haben die Medien einen ungeheuren Alarmismus bzgl. einer globalen Abkühlung gepflegt mit schrecklichen Drohungen vor den Auswirkungen einer neuen Eiszeit. Extremwetterereignisse wurden als Zeichen der kommenden Apokalypse gedeutet, und die vom Menschen verursachte Verschmutzung wurde als Grund angegeben.

Umweltextremisten riefen nach einer ganzen Anzahl von Maßnahmen, die von der Verbannung von Verbrennungsmotoren bis hin zu Bevölkerungskontrollen nach Art des Kommunismus’ reichten. Der Medienhype fand sich in Zeitungen, Zeitschriften, Büchern und im Fernsehen:

 

Artikel in den Medien*:
1970 – Colder Winters Held Dawn of New Ice Age – Scientists See Ice Age In the Future (The Washington Post, January 11, 1970)
1970 – Is Mankind Manufacturing a New Ice Age for Itself? (L.A. Times, January 15, 1970)
1970 – New Ice Age May Descend On Man (Sumter Daily Item, January 26, 1970)
1970 – Pollution Prospect A Chilling One (Owosso Argus-Press, January 26, 1970)
1970 – Pollution’s 2-way ‘Freeze’ On Society (Middlesboro Daily News, January 28, 1970)
1970 – Cold Facts About Pollution (The Southeast Missourian, January 29, 1970)
1970 – Pollution Could Cause Ice Age, Agency Reports (St. Petersburg Times, March 4, 1970)
1970 – Pollution Called Ice Age Threat (St. Petersburg Times, June 26, 1970)
1970 – Dirt Will .Bring New Ice Age (The Sydney Morning Herald, October 19, 1970)
1971 – Ice Age Refugee Dies Underground (The Montreal Gazette, Febuary 17, 1971)
1971 – U.S. Scientist Sees New Ice Age Coming (The Washington Post, July 9, 1971)
1971 – Ice Age Around the Corner (Chicago Tribune, July 10, 1971)
1971 – New Ice Age Coming – It’s Already Getting Colder (L.A. Times, October 24, 1971)
1971 – Another Ice Age? Pollution Blocking Sunlight (The Day, November 1, 1971)
1971 – Air Pollution Could Bring An Ice Age (Harlan Daily Enterprise, November 4, 1971)
1972 – Air pollution may cause ice age (Free-Lance Star, February 3, 1972)
1972 – Scientist Says New ice Age Coming (The Ledger, February 13, 1972)
1972 – Scientist predicts new ice age (Free-Lance Star, September 11, 1972)
1972 – British expert on Climate Change says Says New Ice Age Creeping Over Northern Hemisphere (Lewiston Evening Journal, September 11, 1972)
1972 – Climate Seen Cooling For Return Of Ice Age (Portsmouth Times, ‎September 11, 1972‎)
1972 – New Ice Age Slipping Over North (Press-Courier, September 11, 1972)
1972 – Ice Age Begins A New Assault In North (The Age, September 12, 1972)
1972 – Weather To Get Colder (Montreal Gazette, ‎September 12, 1972‎)
1972 – British climate expert predicts new Ice Age (The Christian Science Monitor, September 23, 1972)
1972 – Scientist Sees Chilling Signs of New Ice Age (L.A. Times, September 24, 1972)
1972 – Science: Another Ice Age? (Time Magazine, November 13, 1972)
1973 – The Ice Age Cometh (The Saturday Review, March 24, 1973)
1973 – Weather-watchers think another ice age may be on the way (The Christian Science Monitor, December 11, 1973)
1974 – New evidence indicates ice age here (Eugene Register-Guard, May 29, 1974)
1974 – Another Ice Age? (Time Magazine, June 24, 1974):

1974 – 2 Scientists Think ‘Little’ Ice Age Near (The Hartford Courant, August 11, 1974)
1974 – Ice Age, worse food crisis seen (The Chicago Tribune, October 30, 1974)
1974 – Believes Pollution Could Bring On Ice Age (Ludington Daily News, December 4, 1974)
1974 – Pollution Could Spur Ice Age, Nasa Says (Beaver Country Times, ‎December 4, 1974‎)
1974 – Air Pollution May Trigger Ice Age, Scientists Feel (The Telegraph, ‎December 5, 1974‎)
1974 – More Air Pollution Could Trigger Ice Age Disaster (Daily Sentinel – ‎December 5, 1974‎)
1974 – Scientists Fear Smog Could Cause Ice Age (Milwaukee Journal, December 5, 1974)
1975 – Climate Changes Called Ominous (The New York Times, January 19, 1975)
1975 – Climate Change: Chilling Possibilities (Science News, March 1, 1975)
1975 – B-r-r-r-r: New Ice Age on way soon? (The Chicago Tribune, March 2, 1975)
1975 – Cooling Trends Arouse Fear That New Ice Age Coming (Eugene Register-Guard, ‎March 2, 1975‎)
1975 – Is Another Ice Age Due? Arctic Ice Expands In Last Decade (Youngstown Vindicator – ‎March 2, 1975‎)
1975 – Is Earth Headed For Another Ice Age? (Reading Eagle, March 2, 1975)
1975 – New Ice Age Dawning? Significant Shift In Climate Seen (Times Daily, ‎March 2, 1975‎)
1975 – There’s Troublesome Weather Ahead (Tri City Herald, ‎March 2, 1975‎)
1975 – Is Earth Doomed To Live Through Another Ice Age? (The Robesonian, ‎March 3, 1975‎)
1975 – The Ice Age cometh: the system that controls our climate (The Chicago Tribune, April 13, 1975)
1975 – The Cooling World (Newsweek, April 28, 1975)
1975 – Scientists Ask Why World Climate Is Changing; Major Cooling May Be Ahead (PDF) (The New York Times, May 21, 1975)
1975 – In the Grip of a New Ice Age? (International Wildlife, July-August, 1975)
1975 – Oil Spill Could Cause New Ice Age (Milwaukee Journal, December 11, 1975)
1976 – The Cooling: Has the Next Ice Age Already Begun? [Book] (Lowell Ponte, 1976)
1977 – Blizzard – What Happens if it Doesn’t Stop? [Book] (George Stone, 1977)
1977 – The Weather Conspiracy: The Coming of the New Ice Age [Book] (The Impact Team, 1977)
1976 – Worrisome CIA Report; Even U.S. Farms May be Hit by Cooling Trend (U.S. News & World Report, May 31, 1976)
1977 – The Big Freeze (Time Magazine, January 31, 1977)
1977 – We Will Freeze in the Dark (Capital Cities Communications Documentary, Host: Nancy Dickerson, April 12, 1977)
1978 – The New Ice Age [Book] (Henry Gilfond, 1978)
1978 – Little Ice Age: Severe winters and cool summers ahead (Calgary Herald, January 10, 1978)
1978 – Winters Will Get Colder, ‘we’re Entering Little Ice Age’ (Ellensburg Daily Record, January 10, 1978)
1978 – Geologist Says Winters Getting Colder (Middlesboro Daily News, January 16, 1978)
1978 – It’s Going To Get Colder (Boca Raton News, ‎January 17, 1978‎)
1978 – Believe new ice age is coming (The Bryan Times, March 31, 1978)
1978 – The Coming Ice Age (In Search Of TV Show, Season 2, Episode 23, Host: Leonard Nimoy, May 1978)
1978 – An Ice Age Is Coming Weather Expert Fears (Milwaukee Sentinel, November 17, 1978)
1979 – A Choice of Catastrophes – The Disasters That Threaten Our World [Book] (Isaac Asimov, 1979)
1979 – Get Ready to Freeze (Spokane Daily Chronicle, October 12, 1979)
1979 – New ice age almost upon us? (The Christian Science Monitor, November 14, 1979)

* Eine Reihe dieser Nachrichten sind doppelt aufgeführt, weil sie in verschiedenen Zeitungen mit leicht unterschiedlichen Schlagzeilen auftauchten. Dies ist beabsichtigt um zu zeigen, dass diese Art Storys nicht isoliert in bestimmten regionalen Zeitungen erschienen waren.

Und vom National Center for Atmospheric Research:

Übersetzung:

Eine neue Welt-Klima-Norm?

Klimaänderung und deren Auswirkungen auf die Welternährung

Walter Orr Roberts, Aspen Institute for Humanistic Studies und National Center for Atmospheric Research, Boulder, Colorado

Im Februar 1972 haben die Erde umkreisende Satelliten die Existenz eines erheblich vergrößerten, mit Schnee und Eis bedeckten Gebietes um den Nordpol enthüllt, verglichen mit allen früheren Jahren der Beobachtung aus dem All. Einige Wissenschaftler glauben, dass dies das Vorzeichen der dramatischen Klima-Anomalien des Jahres 1972 sind, die zu weit reichender Not für die Völker der Welt geführt haben. Mehr noch, es gibt zunehmende Beweise, dass das schlechte Klima des Jahres 1972 ein Vorläufer einer langen Reihe von Jahren mit schlechten Ernten sein könnte, die vor den meisten Gesellschaften der Welt liegen. Die ausgedehnte Nahrungsmittel-Knappheit tritt ausgerechnet zur gleichen Zeit wie neue Höchststände der Bevölkerungszahlen ein. Tatsächlich könnte ein weniger vorteilhaftes Klima zur neuen globalen Norm werden. Die Erde könnte in eine neue „kleine Eiszeit“ eingetreten sein. Vielleicht wird diese zukünftige Periode nicht so extrem ausfallen wie diejenige um das Jahr 1700, aber es scheint zumindest wahrscheinlich, dass sich eine kältere Periode einstellen wird, verglichen mit dem hemisphärischen Klima-Regime von 1880 bis 1920.

Heißes, trockenes Wetter vernichtete im Juli und August 1972 Ernten in der Region Moskau. Vorangegangen war ungewöhnlich kaltes Wetter und ernste Beeinträchtigungen für den Anbau von Winterweizen in der Ukraine. Die Sowjetunion musste in der Folge über 25 Millionen Tonnen Getreide von außerhalb kaufen. Im gleichen Jahr setzte der indische Monsunregen ein bis zwei Wochen zu spät ein und hat sich früher als sonst auch wieder zurück gezogen. Das verringerte die Getreideproduktion in Indien. Die Dürre in der Sahel-Zone verschlimmerte sich. Unzureichende Regenfälle schädigten den Getreideanbau in Argentinien und Australien. Der Fang von Anchovis vor der peruanischen Küste, einer wesentlichen Proteinquelle für Latein-Amerika, ist drastisch eingebrochen, allerdings ist nicht sicher, ob das eine Folge der Klimaänderung war. Ungewöhnlich nasses Wetter, ganz klar eine Klima-Anomalie, im Herbst 1972 bis zum Frühling 1973 reduzierte die Erträge von Mais und Sojabohnen in den USA.

Als Reflektion von all dem sind die Weltpreise für Nahrungsmittel in die Höhe geschossen, während die Welt-Getreidevorräte schwinden. Bis Anfang 1974 haben sich die preise für Mais und Weizen verdoppelt oder verdreifacht, verglichen mit nur zwei Jahren zuvor. Viele Länder der Welt erleben jetzt Wellen einer ernsten Inflation; die meisten Ökonomen betrachten die Kostenspirale bei den Nahrungsmitteln als einen wesentlich dazu beitragenden Faktor.

Es gibt starke Anzeichen, dass diese jüngsten Klimakatastrophen nicht nur Randerscheinungen des gewöhnlichen Wetters waren, sondern Signale für das Aufkommen einer neuen Norm für das Weltklima. Wenn das so ist, wird es zur Norm, dass das Klima der globalen Landwirtschaft abträglich ist, mit allen Folgen für die Welt-Nahrungsmittelvorräte.

Allerdings stimmen dem nicht alle Klimaexperten zu. Infolge dieser unterschiedlichen Bewertungen besteht eine eindeutige und pressierende Notwendigkeit, die Grundlagen- und angewandte Forschung zur Klimaänderung zu verstärken. In dieser Hinsicht ist es höchst ermutigend, dass das Global Atmospheric Research Program auf einem Treffen in Schweden… [Der Ausschnitt bricht hier ab. Hervorhebung durch Watts. A. d. Übers.]

Quelle: http://www.iaea.org/Publications/Magazines/Bulletin/Bull165/16505796265.pdf

Während eine schweigende Mehrheit der wissenschaftlichen Gemeinschaft skeptischer gewesen sein könnte, befindet sich ironischerweise unter den ausgesprochensten Unterstützern des AGW-Alarmismus nach Al Gore einer, der damals vehement die globale Abkühlung propagiert hatte, nämlich Dr. Steven Schneider:

 

„Wer sich an die Vergangenheit nicht erinnern kann, ist dazu verdammt, sie zu wiederholen“ – Life of Reason, George Santayana

Update vom 12.3.13

Mojib Latif sagt 1997 im ZDF voraus: „Wir gehen davon aus, dass es die nächsten 20 Jahre immer kälter wird“

 

Mojib Latif 1997 – Neue Eiszeit 

mit Dank an Spürnase „LaMaisonDieu“, Trotzdem nur mit Klarnamen posten

Weitere Artikel hierzu:

Link: http://wattsupwiththat.com/2013/03/01/global-cooling-compilation/

Übersetzt von Chris Frey EIKE




Das IPCC lädt die Aktivisten zum Mitmachen ein

Das IPCC besteht aus drei Arbeitsgruppen. Die Arbeitsgruppe 3 wird von Ottmar Edenhofer geleitet, ein Wirtschaftsaktivist am Potsdamer Institut für Klimafolgenforschung.

Vor drei Tagen hat dieses Institut auf seiner Website einen Beitrag gepostet, in dem „Experten-Begutachter“ gesucht werden, um dem Entwurf des Berichtes der Arbeitsgruppe 3 Feedback zu verleihen. Der erste Absatz dieser Ankündigung schließt Folgendes ein (siehe oben rechts):

Die Wissenschaftler, die diesen Prozess organisieren, bitten um freiwillige Experten aus allen Bereichen, von Wissenschaftlern über Geschäftsleute bis zu Vertretern von Nichtregierungsorganisationen [NGOs] (Hervorhebung hinzugefügt)*

[*Keine Rückübersetzung, sondern Zitat aus dem deutschen Original. A. d. Übers.]

Da haben wir es wieder. Der World Wildlife Fund ist eine NGO. Greenpeace ist eine NGO. Die für diese Organisationen arbeitenden Personen sind keine wissenschaftlichen Experten. Sie sind Befürworter, Aktivisten und Parteigänger. Sie haben eine Agenda. Sie werden dafür bezahlt, diese Agenda zu fördern.

Der Öffentlichkeit wird wiederholt versichert, dass das IPCC eine objektive und strikt wissenschaftliche Institution ist, die aus den Spitzenwissenschaftlern der Welt besteht. Der Öffentlichkeit wird erzählt, dass sie den IPCC-Berichten trauen könne, weil Tausende „wissenschaftlicher Experten-Begutachter“ am IPCC-Prozess teilnehmen.

Offizielle IPCC-Graphik, bezogen auf dessen Klimabericht des Jahres 2007

Aber da sind einerseits die Fiktion des IPCC und andererseits die Fakten. Das IPCC hat eine sehr lange, sehr schäbige Geschichte hinter sich, in der Personen rekrutiert worden sind, die Verbindungen zu aktivistischen Organisationen haben. Zum Beispiel:

Im Januar habe ich die Inhalte von drei nach außen gedrungenen internen IPCC-USB-Sticks veröffentlicht [auf Deutsch bei EIKE hier]. Die Dokumente auf diesen Sticks beziehen sich auf die Arbeitsgruppe 2. Als ich die Kommentare untersucht habe, die von „Experten-Begutachtern“ des Entwurfs der Arbeitsgruppe 2 eingereicht worden sind, fand ich Aktivisten, die als Experten ausgegeben worden waren.

Anstatt ihre Kommentare auf rein wissenschaftliche Dinge zu beschränken, haben diese Experten den Begutachtungsprozess missbraucht und verzerrt. Für sie war es nichts weiter als eine Gelegenheit zu Lobbyarbeit hinter den Kulissen. Wie ich damals schrieb:

Viele ihrer Vorschläge sind nichts weiter als blanke Versuche, aktivistisches Quellenmaterial – und aktivistische Perspektiven – in einem wissenschaftlichen Dokument unterzubringen.

Nur acht Wochen später hat das IPCC die Tore weit aufgestoßen, den roten Teppich ausgerollt und wieder die Aktivisten eingeladen.

The Potsdam Institute’s announcement is backed up here.

Link: http://donnalaframboise.mensnewsdaily.com/2013/03/ipcc-invites-in-the-activists/

Übersetzt von Chris Frey EIKE




Fukushima-Jubiläum: Die Welt zieht mit Kernenergie am „Vorreiter” Deutschland vorbei. Ein Bericht über die „Fast Reactor”-Konferenz der IAEA in Paris, 4.-7. März 2013

Zweifellos ist dies ein weiterer Erfolg grün-roter Ideologen auf ihrem Weg zur Umgestaltung unserer Republik in eine Ökodiktatur. Selbst seriösere Medienberichte, als Beispiel sei die ARTE TV-Sendung „Chronik eines Desasters“ vom 7.3.2013 (22-15 h) genannt, wagen es hierzulande nicht mehr, die Öffentlichkeit korrekt über die Kernkraft und das Fukushima-Unglück zu informieren – von bemerkenswerten Einzelfällen abgesehen, wie in der Zeitschrift "Die Junge Freiheit" (hier und hier). So war in der ARTE-Sendung über die folgenden maßgebenden Fakten so gut wie nichts zu vernehmen, was nach Meinung besser informierter Zuschauer als Unterschlagung empfunden wurde.

1) Es gab in Fukushima keinen einzigen „Strahlentoten“.

2) Die Ursache der Katastrophe von Fukushima war der Tsunami, nicht eine angebliche Unsicherheit der Kernkraftnutzung.

3) Es wurden haarsträubende Fehler bei der Auslegung des Kernkraftwerke in Fukushima gemacht, die bei deutschen Kernkraftwerken unmöglich sind.

4) Es gab massive (nach unseren Gesetzen vermutlich sogar strafrechtlich relevante) Schlampereien der Betreiberfirma TEPCO sowie der japanischen Behörden.

5) Die unzureichenden Sicherheitssysteme der Anlagen in Fukushima sind mit dem weltweit einzigartigen Sicherheitsstandard deutscher Kernkraftwerke überhaupt nicht vergleichbar.

Ausführliche Beschreibungen, was in Fukushima wirklich vorfiel, finden sich zum Beispiel hier und hier. Trotz der wohl schon als kriminell anzusehenden Unterlassungen der japanischen Betreiberfirma TEPCO – stellvertretend seien unzureichende Schutzmauern gegen Tsunamis und fehlende Wasserstoffrekombinatoren zur Vermeidung von Knallgasexplosionen genannt – blieben die Folgen dieses Unfalls relativ gering. Die radioaktive Belastung der Anrainer hat sich als ungefährlich herausgestellt (s. auch hier). Japan, aber auch die Ukraine denken in sachgemäßer Beurteilung nicht daran, die Kernenergie aufzugeben. Zeitgenossen, die noch einigermaßen klar bei Verstand sind, geben schließlich nach einem Flugzeug- oder einem Eisenbahnunglück auch nicht die Fliegerei oder das Bahnfahren auf.

Im Zuge der grünen Volkstäuschung über Fukushima im Speziellen und über die Nutzung der Kernenergie im Allgemeinen war es den deutschen Medien folgerichtig kein Wort der Erwähnung wert, dass der Rest der Welt an der Markteinführung der neuen Generation-IV-Reaktoren arbeitet. Rund 650 Vertreter aus Wissenschaft, Wirtschaft und Technik trafen sich vom 4. bis 7. März in Paris zur 13. „Fast Reactors and Related Fuel Cycles”-Konferenz in Paris (FR13).

http://relaunch.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/12/fr13_poster.jpeg

Bild 1: Poster auf der "Fast Reactors and Related Fuel Cycles”-Konferenz in Paris

Diese findet alle 4 Jahre unter der Federführung der Internationalen Atomenergie-Organisation IAEA statt. Knapp 30 Länder waren diesmal vertreten, wobei Frankreich mit 40% die mit Abstand größte Teilnehmerzahl stellte, gefolgt von Russland (14%), dem angeblichen Aussteigerland Japan (9%) und den USA (8%). Deutschland war mit lediglich 24 Teilnehmern vertreten, davon die Hälfte an deutschen Institutionen arbeitenden Ausländern. In diesem Zusammenhang darf an folgende Fakten erinnert werden: Aktuell werden 437 Kernreaktoren in 30 Ländern betrieben. Die Länder mit den meisten Reaktoren sind: USA 103, Frankreich 58, Japan 50, Russland 33, Korea 23, Indien 20, Kanada 19, China 18, England 16, Schweden 10, Deutschland 9, Spanien 8, Belgien 7, Tschechien 6, Schweiz 5, Ungarn 4, Slowakei 4 und Finnland 4. Im Neubau befinden sich insgesamt 64 Anlagen (Quelle: International Atomic Energy Agency).

Allerdings beruhen die heute üblichen Kernreaktoren im Wesentlichen immer noch auf den völlig veralteten Konzepten der ehemals militärisch genutzten Reaktoren, bei denen bekanntlich die Herstellung von Kernwaffenmaterial im Vordergrund stand. Diese wurden nach und nach in Anlagen zu rein ziviler Nutzung umgewandelt, was etwa mit dem Umbau eines Panzers in ein Familienauto vergleichbar ist. In diesen alten Kernreaktorsystemen, die immer noch die Basis fast aller weltweit zivil genutzten Reaktoren bilden, werden die die Kernspaltung induzierenden Neutronen bis auf thermische Energien abgebremst („moderiert“). Man spricht daher von thermischen Reaktoren. Die modernen Konzepte der „schnellen Reaktoren”, oder besser „Schnellspaltreaktoren (Fast Reactors)”, moderieren dagegen nicht, sondern sie arbeiten mit schnellen Neutronen. Ihr Nachteil ist das aufwendigere Kühlsystem, denn zur Abfuhr der Nutzwärme eignen sich eigentlich nur Flüssigmetalle. Der weit überwiegende Vorteil dieser neuen Systeme gegenüber den thermischen Reaktoren ist dagegen das günstigere Verhältnis von Neutroneneinfang zu Spaltung. Dieses sorgt dafür, dass kein Überschuss an Plutonium verbleiben muss und bereits vorhandenes Plutonium abgebaut werden kann. Plutonium macht zusammen mit den sogenannten minoren Aktiniden 99,99% der Langzeittoxizität des nuklearen Abfalls aus. „Schnelle Reaktoren” stellen daher die ultimative Lösung des sogenannten „nuklearen Abfallproblems” dar. Nebenbei: da die Lösung des nuklearen Abfallproblems der politischen grünen Bewegung einen entscheidenden Stützpfeiler entzieht, ist sie bei diesen Leuten höchst unerwünscht. Das Jahrzehnte lange Hinauszögern (Moratorium) und Verhindern bei der Suche nach einem Endlager, das immer wieder erfolgreich am Leben erhalten werden konnte, darf als Beleg für diese Einschätzung gelten.

Das Konzept von Schnellspaltreaktoren ist nicht einmal neu, Demonstrationsanlagen wurden bereits in den 50er Jahren gebaut. Ihr Hauptproblem entstand freilich darin, dass man sich – bedingt durch die historische Entwicklung – bis heute auf flüssiges Natrium als Kühlmittel festgelegt hatte. Natrium ist ein notorischer „Neutronendieb”, leicht entflammbar, daher gefährlich und hat überdies ungünstige nukleare Reaktivitätseigenschaften. Flüssiges Blei ist ungleich besser geeignet, es vermeidet alle Nachteile von Natrium. Der einzige Grund für die Verwendung von Natrium bestand in der damals noch beabsichtigten Anwendung natriumgekühlter Reaktoren als Antrieb für Militärflugzeuge. Obwohl diese Anwendung nicht mehr diskutiert wird, hat sich das Konzept der Kühlung mit Natrium bis heute erhalten. Es ist natürlich nachvollziehbar, dass es für die großen Kernreaktorunternehmen aus Kosten-, Genehmigungs- und Planungsgründen problematisch ist, in ihren Entwicklungslinien sehr schnell zu große Änderungen zu realisieren (oft sind Abteilungen oder ganze Unternehmen mit einer bestimmten Linie „verheiratet“ und fürchten um ihre Stellung, wenn etwas Neues zum Zuge kommt). Gründe dieser Art, aber auch jahrelang sich hinziehende Genehmigungsverfahren bei der Einführung neuer Konzepte erklären den hohen Zeitverzug bei Innovationen von Kernkraftwerkstypen.

Die Pariser Konferenz FR13 war dementsprechend auch noch ganz auf natriumgekühlte Systeme ausgerichtet. Man darf sich die Konferenz aber keineswegs als rein akademische Veranstaltung vorstellen. Die Industrie reagiert auf die erhöhten Sicherheitsanforderungen mit neuen, interessanten Konzepten und arbeitet Hand in Hand mit der IAEA und den nationalen Aufsichtsbehörden. Neben zahlreichen Vorträgen zu Sicherheitskonzepten, internationalen Generation-IV Roadmaps und ausgeklügelten Wiederaufarbeitungsmethoden abseits des üblichen PUREX-Verfahrens, wie z.B. neue praktisch rückstands- und emissionsfreie Flüssigsalz-Verfahren, warben Firmen aus verschiedenen Ländern an Ständen mit konkreten neuen Verfahren und Systemen. So bietet beispielsweise die amerikanisch-japanische GE Hitachi mit dem S-PRISM-Reaktor ein bereits schlüsselfertiges Kraftwerk an, das sich in der Lizensierungsphase und unmittelbar vor der Markteinführung befindet. Sogar ein beeindruckendes Modell des Kraftwerks konnte auf einer Fläche von 1/2 m2 begutachtet werden – mit Knöpfen zum Herumspielen.

http://relaunch.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/12/fr13_prism.jpeg

Bild 2: Modell des S-PRISM-Reaktors

Ähnlich imposant war Modell der französischen natriumgekühlten 600-MWe-Demonstrationsanlage ASTRID, die gerade von Areva und der „cea” geplant wird.

http://relaunch.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/12/fr13_astrid.jpeg

Bild 3: Modell des ASTRID-Reaktors

ASTRID war denn auch das Hauptthema der Veranstaltung, denn man will der Öffentlichkeit anschaulich vermitteln, dass derartige System sicher und wirtschaftlich sind und dass sie funktionieren. Mit schnellen Reaktoren wird eine doppelte Strategie verfolgt: zum einen für die "Treibhausphoben" die CO2-freie Energiebereitstellung, was allerdings für die Kernenergie ganz allgemein gilt und für die "Radiophoben" die Entschärfung und Nutzung des sogenannten „nuklearen Abfalls”. Bedingt durch hindernde politischen Einflüsse ziehen sich Projekte zu Schnellspaltreaktoren aber leider entsetzlich lange hin. ASTRIDs Vorgänger Superphenix wurde bereits 1998 stillgelegt. Auch das russische Gegenstück, die BN-Serie, läuft bereits über Jahrzehnte. Wissen droht verloren zu gehen, deshalb ist es erklärtes Ziel der IAEA, die erworbenen Kenntnisse über Schnellspaltreaktoren in die nächste Generation hinein zu retten.

Das „Young Generation Event” war somit ein Highlight der Veranstaltung. Im Vorfeld gab es bereits einen 5-Minuten-Videowettbewerb auf Youtube, dessen Gewinner unter Erstattung von Reisekosten und Unterbringung eingeladen wurden. Während der Konferenz haben junge interessierte Kerntechniker, Ingenieure und Wissenschaftler in Arbeitsgruppen zu Themen wie Wirtschaftlichkeit und Sicherheit insgesamt 7 Vorträge erarbeitet, die im Plenarsaal, dem „Amphiteatre” des Palais de Congress, wo die FR13 stattfand, in einer Podiumsdiskussion vorgetragen wurden. Die zentrale Botschaft an die „Alten” war: Hört mehr auf die Öffentlichkeit, nehmt Leute mit Bedenken ernst, klärt auf! So steigt die Akzeptanz der Kernenergie, insbesondere der Generation IV. Eine zweite Botschaft an die „Alten” war, auf die Wirtschaftlichkeit zu achten.  Die Ausbeute heutiger Kernreaktoren, mit einem Erntefaktor (EROI) gerade vier mal so hoch wie der von fossilen Kraftwerken, ist mikrig, verglichen mit dem 100 Millionenfach  höheren Energiegehalt von Kernbrennstoff gegenüber Kohle. Eine dritte Botschaft war schließlich, eine stärkere Zusammenarbeit mit der Wissenschaft zu erreichen.

Eines der Videos kam übrigens aus Deutschland, nicht aber von den großen Forschungsinstituten (die waren ohnehin kaum vertreten), sondern von dem kleinen unabhängigen „Institut für Festkörper-Kernphysik” (IFK) in Berlin. Man mag es kaum glauben, aber im Land der ultimativen Ökospinner und Kernkraftverweigerer wird tatsächlich ein neues nukleares Reaktorkonzept entwickelt, der „Dual Fluid Reactor” (DFR). Er lässt die Probleme der heutigen Leichtwasserreaktoren, aber auch die der Generation-IV-Konzepte weit hinter sich. Und er ist dabei auch noch extrem kosteneffizient – glaubt man den Entwicklern. Zwei Doktoranden aus Berlin, Mitglieder des IFK, stellten den DFR in einem Video vor und wurden prompt nach Paris eingeladen. Hier konnte das Konzept auf einem Poster propagiert und erläutert werden. Es gibt eben neben dem ideologisch verblendeten deutschen Mainstream auch noch echte Entwicklungen, folgerichtig ohne einen Cent staatlicher oder industrieller Unterstützung. Wenn man vom „Energiewende”-Rausch irgendwann einmal mit einem schlimmen Kater wieder aufwachen wird, wird man sich solcher Konzepte sicher wieder entsinnen – falls es für Deutschland bis dahin nicht zu spät ist.

Prof. Dr. Kondo, Chairman der japanischen Atomenergiekommission, betonte übrigens in der Eröffnungssitzung, dass die japanische Regierung keineswegs eine Aufgabe der Kernenergie plant, sondern lediglich einen Energiefahrplan erarbeitet, in dem der zukünftige, anzustrebende Energiemix festgelegt wird. „Fukushima” war auf der FR13 ansonsten so gut wie kein Thema. Allen Anwesenden war es schließlich bewusst, dass hier eher ein Kommunikations- als ein medizinisch-physikalisches Problem vorliegt, siehe Statement der „Young Generation” oben. Dass der deutschen Presse das makabere Spiel gelungen ist, die Erdbebenopfer zu Strahlenopfern umzumünzen, ist allerdings ein Musterbeispiel dafür, wie man Kommunikationskanäle missbrauchen kann.

Auf der FR13-Konferenz wollte niemand, der nicht gerade aus Deutschland kam, die hiesigen Verhältnisse wirklich glauben, so weit ist es mit Deutschland wieder gekommen. In vergangenen Zeiten waren es abstruse Theorien über Wert oder Minderwert von biologischen Rassen mit den bekannt katastrophalen Folgen. Heute ist der Unsinn leider nicht geringer geworden. Das anthropogene CO2, der Klimaschutz, der „Nutzen“ von Windturbinen und Biomais für die deutsche Energieversorgung und für die Rettung der Welt vor dem Wärmetod sowie schließlich die unabdingbar aufzugebende Kernkraft vernebeln wieder einmal die deutschen Gehirne und bringen die restliche Welt zum Lachen oder zum Fürchten. Unaufgeregtes, kühles Handeln auf technisch-rationaler Basis, gesundes Selbstbewusstsein, Furchtlosigkeit und positives Denken an Stelle von irrationalen Ideologien und angstgesteuerten Wunschvisionen waren noch nie deutsche Stärken. 

von Prof. Dr. Horst-Joachim Lüdecke und Michael Limburg.

Der Beitrag wurde mit fachlicher Beratung des  Instituts für Festkörper-Kernphysik erstellt.

Weiterführender link:

Deutschland verpasst den neuen Atomkraft-Boom

Zwei Jahre nach Fukushima ist die Kernenergie im Aufschwung. Mehrere Staaten steigen in die Atomkraft ein, während Deutschland laufende AKW stilllegte. Dabei wurde die Sicherheitstechnik verbessert. Von Daniel Wetzel




Was ist mit den Deutschen los? Interview mit dem Physiker und Physikphilosophen Prof. Wade Allison

„Die Kultur der Angst“

Am 11. März 2011 havarierte der Reaktor von Fukushima, Deutschland stand unter Schock und leitete die Energiewende ein. – „Was ist mit den Deutschen los?“ fragt sich der Brite Wade Allison, denn eine Atomkatastrophe, so der Physiker, habe es in Japan gar nicht gegeben.

Herr Professor Allison, Fukushima war keine Katastrophe?

Allison: Richtig. Es war keine nukleare Katastrophe. Keiner starb oder wird in den nächsten fünfzig Jahren an der Strahlung dieses Unfalls sterben. Es gab nicht einmal Andrang in den Krankenhäusern.

Was war Fukushima dann?

Allison: Fukushima war ein Unfall, es war teuer, schwierig, gefährlich für die Arbeiter, die das Problem lösen mußten. Für die Bevölkerung war es ein soziales Desaster wegen des psychologischen Stress und des Vertrauensverlusts, den der Vorfall verursacht hat. Aber das war auf die Angst zurückzuführen, nicht auf die Strahlung. Man kann Fukushima mal mit den havarierten Ölbohrinseln Piper Alpha oder Deepwater Horizon vergleichen: In Fukushima gab es keine Opfer.  Dagegen starben 1988 auf Piper Alpha 167 Menschen, und Deepwater Horizon – elf Tote – löste 2010 die schwerste Ölpest aller Zeiten aus. Dennoch hat niemand diese Unfälle als epchochemachend stilisiert: Keiner kam auf die Idee, das Ende des Öl-Zeitalters zu erklären.

Ihr Fazit?

Allison: Energiesparen und erneuerbare Energien sind vernünftig, aber der Atomausstieg ist irrational und sogar gefährlich – eine Überreaktion.

Sie meinen also, die deutsche Energiewende beruht auf einem Irrtum?

Allison: Ich bin Wissenschaftler. Meine Meinung ist nicht wichtig, wichtig ist die Wissenschaft. Die deutsche Politik fußt hier nicht auf wissenschaftlicher Beurteilung, sondern auf einer Art Hysterie.

„‘Atom’ ist heute so etwas wie ein Fluchwort im Mittelalter“

Inwiefern?

Allison: Man muß nur Worte wie „nuklear“, „Atom“ oder „Strahlung“ aussprechen, um viel zugespitztere öffentliche Reaktionen zu bekommen, als wenn man etwa „chemisch“ sagt. „Chemisch“ ist sicher nicht sympathisch, aber niemand bricht deswegen in Entsetzen aus. Die Begriffe der Atomenergie dagegen sind so etwas wie mittelalterliche Fluchwörter.

Begriffe, bei denen man sich bekreuzigte.

Allison: Genau, Fluchwörter der Neuzeit: Sie lösen bei modernen Menschen mittelalterliche Reaktionen aus.

Fakt ist, Strahlung ist gefährlich, insofern bekreuzigen sich die Leute doch zu Recht.

Allison: Nein, ich stimme nicht zu. Alle Technologien sind ab einem bestimmten Niveau gefährlich. Aber nur ein irrational aufgeregter Mensch „bekreuzigt“ sich etwa, wenn er ins Auto steigt, obwohl die Gefahr, durch einen Autounfall ums Leben zu kommen, weit größer ist als durch einen Atomunfall. Daß Atomtechnik viel tiefere Ängste auslöst als andere Technologien liegt nicht am realen Gefahrenpotential, sondern an kulturellen Faktoren – Faktoren, die vor allem in Deutschland stark sind, was offensichtliche historische Gründe hat.

Kann man denn Unfälle auf der Autobahn oder auf Ölplattformen mit solchen in Atomkraftwerken vergleichen?

Allison: Warum denn nicht?

Weil Unfälle in Atomanlagen doch ein ganz anderes Potential haben.

Allison: Indem Sie das sagen, offenbaren Sie den Kern des Problems: Warum betrachten Sie nukleare Risiken als so besonders, daß sie anders als andere Risiken behandelt werden sollten?

Hätte man Fukushima nicht zufällig wieder in den Griff bekommen, hätten schließlich Tausende sterben können!

Allison: Nein, niemals. Der Unfall von Fukushima hätte sich niemals wie der in Tschernobyl 1986 entwickeln können. Und, wie die internationalen Berichte bestätigen, gibt es keinen Hinweis, daß in Tschernobyl mehr als fünfzig Menschen an Strahlung starben. Im Gegensatz zu Bhopal, wo es Tausende waren.

Bhopal 1984 in Zentralindien.

Allison: Genau, der Unfall in einer indischen Chemiefabrik des US-Chemieriesen Union Carbide, heute Dow Chemical. Damals starben Zigtausende Menschen, viele weitere Tausende wurden verletzt oder erlitten bleibende Schäden, etwa Erblindung. Aber es war ein Chemieunfall. Und keiner rief anschließend das Ende des Chemiezeitalters aus.

Allerdings, so richtig beruhigt das auch nicht.

Allison: Dann nehmen wir Hiroshima und Nagasaki. Tun wir mal so, als seien das „Unfälle“ gewesen. Das wären zwei wirklich schwere Unfälle, bei denen in der Tat viele Menschen starben – allerdings nur wenige starben an Strahlung. Die meisten Opfer kamen durch die mechanischen Effekte der Bombe um: Hitze- und Druckwelle.

Auch das sind Folgen der Atomkraft.

Allison: Stimmt, aber auch die Sonne scheint durch Nukelarenergie, und nuklearer Zerfall erhitzt das Innere der Erde. Alle Erdbeben, Tsunamis und Vulkane sind die Folge nuklearer Energie. Auch die Hitze und Zerstörung in Hiroshima – aber die gleiche Hitze und Zerstörung hat auch in Dresden, Hamburg oder Tokio zahlreiche Menschen getötet, ohne daß dort atomare Waffen, sondern konventionelle Bomben zum Einsatz kamen.

In Hiroshima sterben heute noch Menschen an Strahlung, in Dresden nicht.

Allison: Die Zahl derer, die in Hiroshima jedes Jahr an den Folgen der Strahlung stirbt, ist sehr klein. Die offizielle Zählung beziffert die, die dort in Kontakt mit der Strahlung gekommen sind und 1950 noch lebten, auf 86.611 Personen. Die medizinischen Aufzeichnungen  dieser Überlebenden wurden über fünfzig Jahre verfolgt. In dieser Zeit starben 10.127 an Krebs. Wenn man aber die Krebsrate in Hiroshima mit der Krebsrate ähnlicher Bevölkerungsteile, die nicht in Kontakt mit Strahlung waren, vergleicht, dann ist erstere um fünfhundert Personen höher. Das sind zehn Personen pro Jahr und damit weit weniger als die Zahl der Verkehrstoten. Das ist ganz sicher nicht erstrebenswert, aber auch nicht gerade erschreckend.

„Zuviel Strahlung kann töten, zu viele Schokoriegel auch“

Fukushima hätte allerdings große Teile Japans verseuchen können.

Allison: Sicher nicht, diese Gefahr bestand nie. Die Arbeiter und Techniker dort haben sich selbst der Gefahr ausgesetzt und viel Mut bewiesen. Dennoch: Was passiert, wenn uns Strahlung trifft? Sie dringt in unsere Körperchemie ein, genaugenommen in unsere DNS. Andererseits: So eine Beschädigung passiert ständig. Chemische Substanzen, Abgase, Zigarettenrauch, ja die natürliche Strahlung, sogar der Luftsauerstoff – sie alle brechen in unsere DNS ein.

Sie vergleichen die radioaktive Strahlung eines Atomunfalls mit natürlicher Strahlung oder den Abgasen in der Stadtluft?

Allison: Ja, warum denn nicht? Wissen Sie, was passiert, wenn Sie im Sommer einen schönen Tag in der Sonne genießen? Das gleiche, wie wenn Sie sich atomarer Strahlung aussetzen: Die Strahlen zerstören eine ganze Anzahl Ihrer Körperzellen, und wenn Sie sich dem wiederholt aussetzen, dann kann das Ergebnis tödlicher Hautkrebs sein. Trotzdem: Bei atomarer Strahlung fliehen Sie, bei Sonnenstrahlen buchen Sie extra einen teuren Urlaub, um möglichst viel davon abzubekommen. Das ist nicht rational. Ich sage daher, normalisieren wir unser Verhältnis zur Strahlung.

Nämlich?

Allison: Strahlung ist kein Teufelszeug, sie ist nicht schlimmer als andere Umwelteinflüsse auch. Natürlich sollen Sie sie auch nicht unterschätzen, denn ein zuviel an Strahlung kann tödlich sein. Aber das ist bei allem so: Auch ein zuviel an Schokoriegeln kann Sie töten – oder wenn Sie zu sehr aufs Gaspedal treten. An einem Sommertag schreien Sie nicht: „Oh Gott, laßt uns im Keller Schutz suchen!“ sondern Sie verwenden Sonnenmilch, bedecken sich, gehen nicht so lang in die Sonne und möglichst nicht zur Mittagszeit. Sie reagieren normal, indem Sie sich vernünftig verhalten. Und so sollten wir es beim Thema Strahlung auch tun.

Woher kommt unsere besondere Angst vor der Strahlung?

Allison: Es ist ein kulturelles Erbe des Kalten Krieges. Damals fürchteten wir einen Atomkrieg, der die ganze Welt vernichten würde. Ja, die Angst vor der Atombombentechnologie wurde sogar gezielt geschürt, um das Arsenal des Gegners noch bedrohlicher erscheinen zu lassen. Unterschwellig wurde so Strahlung also militärisch konnotiert. Der Kalte Krieg ist vorbei, aber diese Konnotation – unsere Angst vor Strahlung als einer quasi-militärischen Bedrohung unserer Zivilisation – ist geblieben. Die Angst vor der Atomkraft ist sozusagen das „Friendly Fire“ des Kalten Krieges. Vor allem in Deutschland, das sich bei diesem Thema ganz und gar nicht deutsch zeigt.

Was meinen Sie?

Allison: Deutschland hat den Ruf, ein sehr technologisches Land zu sein: nüchtern, effizient, rational – aber beim Thema Atomkraft ist davon plötzlich nichts mehr zu spüren, nur Angst und Ignoranz gegenüber der Wissenschaft. Das überrascht und enttäuscht viele Ihrer Freunde in anderen Ländern.

Wie erklären Sie sich das?

Allison: Zum einen damit, daß Deutschland Frontstaat im Kalten Krieg war. Hier trafen die beiden Blöcke direkt aufeinander, hier wäre wohl das Hauptschlachtfeld des Dritten Weltkriegs gewesen. Kein Wunder, daß die Angst vor dem Atom hier besonders tief sitzt. Das ist verhängnisvoll, denn eigentlich ist die Überwindung der Angst ein Merkmal für eine entwickelte Gesellschaft.

Wieso das?

Allison: Die Angstreaktion ist eine natürliche Reaktion des Tieres: Man läuft vor der Gefahr davon. Die Erfolgsgeschichte des Menschen beruht aber darauf, daß er diese Strategie aufgegeben hat. Statt dessen versuchte er, die Gefahr zu ergründen und sie zu beherrschen, um die Potentiale hinter der Gefahr für sich zu nutzen. Unaufgeklärte Gesellschaften haben sich schließlich damit begnügt, ihre Ängste zu ritualisieren, während moderne aufgeklärte Gesellschaften diese Rituale abgebaut und dafür Technologie und Wissenschaft aufgebaut haben – sprich, sie haben Angst reduziert. Die Rückkehr zu einer Kultur der Angst, etwa in Sachen Atomkraft, unterminiert also die Basis des menschlichen Fortschritts.

Vielleicht ist die Rückkehr der „Kultur der Angst“ eben logische Folge einer Gesellschaft, der die Technologie in Kriegen und Katastrophen über den Kopf gewachsen ist.

Allison: Nein, der Grund ist ein anderer. Den Menschen wird die Technologie nicht mehr erklärt. Statt dessen werden Ängste geschürt. Läßt man das geschehen, dann entwickelt die Gesellschaft natürlich eine Kultur der Angst. Aufgeklärte Bildung kommt nicht von allein.

So gesehen wäre der deutsche Atomausstieg ein Fanal gesellschaftlichen Rückschritts.

Allison: Ja, obwohl da die Politik stark hereinspielt. Aber daß es auch anders geht, zeigt, daß es in Großbritannien Grüne gibt, die für die Atomkraft sind. Denn die Umwelt zu bewahren ist eine Sache – man muß darüber nicht gleich in Unvernunft verfallen.

In Japan wächst die Anti-Atom-Bewegung, auch weil Tausende durch Fukushima ihre Heimat verloren haben.

Allison: Ich meine, sowohl in Tschernobyl wie in Fukushima hätten die Leute nach ein paar Wochen zurückkehren sollen. Im Sperrkreis um Tschernobyl wächst und gedeiht die Tierwelt. Gut, die Tiere sind radioaktiv, aber ihr Körper kommt damit zurecht.

„Darüber spricht keiner: Tod durch Evakuierung“

Der Preis wäre wohl eine erhöhte Krebsrate und mehr Mißbildungen bei Neugeborenen. Wer könnte das verantworten?

Allison: Das stimmt nicht. Jeden Tag nutzt die Medizin starke Strahlendosen, um Krebs zu heilen. Mit hundert Jahren Erfahrung sind sie dabei oft erfolgreich. Experimente mit Mäusen, auch schwangeren und neugeborenen Mäusen, ergaben, daß geringe oder moderate Strahlendosen die Rate an Krebs oder Deformationen nicht erhöht. Andererseits waren viele der Menschen, die durch Fukushima heimatlos geworden sind, verzweifelt. Sie mußten Heimat und Besitz aufgeben, und obendrein wird ihnen ständig diese „unsichtbare Gefahr“ der Strahlung eingeredet. Das erzeugt natürlich Niedergeschlagenheit und viel Streß, die Leute werden depressiv, fangen an zu trinken, verzweifeln, bringen sich um – da wird eine ganze Gesellschaft desintegriert. Das alles können Sie nachlesen in Uno-Berichten über den Fall Tschernobyl. Dort starben weit mehr Menschen an Evakuierungsstreß als an der Strahlung. Auf diese Weise hat man übrigens auch Fukushima noch nachträglich zur Katastrophe gemacht: Die japanische Regierung geht – ganz ohne Strahlung – inzwischen von 573 Fukushima-Folgetoten aus. Darüber aber spricht keiner.

Das Interview führte Moritz Schwarz;

zuerst erschienen in der Printausgabe von JUNGE FREIHEIT Nr. 11/13 | 8. März 2013 mit Dank für die Genehmigung

Prof. Dr. Wade Allison studierte in Oxford und Cambridge und unterrichtete seit 1976 Teilchen- und Experimentalphysik an der Physikalischen Fakultät der Universität Oxford. 2006 veröffentlichte er das Buch „Fundamental Physics for Probing and Imaging“ zu den physikalischen Grundlagen der medizinischen Radiologie. 2008 emeritierte Wade Allison, Jahrgang 1941 und Mitglied am Keble College – er unterrichtet jedoch auch weiterhin. 2009 erschien auf englisch sein Buch „Radiation and Reason. The Impact of Science on a Culture of Fear“ („Strahlung und Vernunft. Die Wirkung der Wissenschaft auf eine Kultur der Angst“), in dem er die gesellschaftliche und kulturelle Wahrnehmung von Strahlung und Atomenergie und unseren Umgang damit reflektiert. Zum gleichen Thema betreibt er auch eine englischsprachige Netzseite, auf der er Informationen und Artikel zum Thema als kostenlosen Download anbietet. www.radiationandreason.com