1

Kernenergie: 100 Gründe und 100 gute Antworten. Fortsetzung #37 bis #41

Wenn man Zahlen schon frei erfindet, dachte sich Hohmeyer, so kann man sie auch gleich noch gründlich verfälschen. In Deutschland ist die Bevölkerungsdichte 10 mal so hoch wie im Umkreis von Tschernobyl. Da konnte Hohmeyer der Versuchung nicht widerstehen, den Tschernobyl-Reaktor in Hamburg explodieren zu lassen. Nun gibt es zwar in Deutschland überhaupt keine Reaktoren vom Typ RBMK, und ein derartiges Verhalten ist bei hiesigen Reaktoren physikalisch ausgeschlossen, aber egal, Hohmeyer ist schließlich kein Physiker oder Ingenieur, er kann dies also gar nicht wissen. Reaktor ist für unseren Volkswirten gleich Reaktor, ob RBMK, Druckwasserreaktor oder Kaffeemaschine, das ist alles gleich. Und es ist ja für einen guten Zweck, denn jetzt kann man schon 10 Millionen Opfer anbieten, und das macht schon was her.

Aber da geht doch noch was, richtig, der Reaktorkern! In Tschernobyl wurden nur einige Prozent des Reaktorkerns in die Luft geblasen. Gemäß der Devise „gar nicht erst kleckern, sondern gleich klotzen” kann man ja einfach mal behaupten, dass auch der gesamte Reaktorkern die Bevölkerung beglücken kann. Durch diesen phantastischen Trick kann man nun aus den 10 Millionen nochmals 100 Millionen Opfer machen.

Doch da kommt die fiese Statistik und macht Hohmeyer doch wieder einen Strich durch die Rechnung. Denn laut GRS-Studie ist die Wahrscheinlichkeit für ein Kraftwerk vom Typ „Biblis B”, durch einen Unfall und anschließendes „Däumchendrehen” Radioaktivität freizusetzen, 0,00003% pro Jahr. Damit käme man dann selbst für den oberen Wert für die Krebswahrscheinlichkeit „nur” auf 27 Opfer pro Jahr, schon wieder viel zu wenig. Also erfand Hohmeyer einen weiteren Trick. In fester Überzeugung, dass die GRS-Studie ohnehin keiner liest, erklärte er den „Schadensfall” kurzerhand zum „Super-GAU”. Die Wahrscheinlichkeit für einen Schadensfall ist nämlich einen Faktor 100 höher, womit wir schon bei 2.700 Opfern pro Reaktorjahr wären. Damit war Hohmeyer nun zufrieden, natürlich nicht ohne zu betonen, dass es noch viel schlimmer kommen könnte und die psychisch bedingten Schäden noch gar nicht erfasst sind.

Mit dieser Opferzahl kann man nun eine Menge anstellen. Man kann mit exorbitanten „versteckten” Kosten argumentieren, die Opferzahlen in Produktionsausfälle umrechnen und astronomische Versicherungssummen vorrechnen. Und dies alles nur, weil sich der Journalist Gerhard Bott, der als studierter Gesellschafts-, Rechts- und Staatswissenschaftler sicher für die Abschätzung radiologisch-medizinischer Risiken hoch qualifiziert ist, im Jahre 1987 durch eine Fernsehsendung profilieren musste.

Wir schließen nun unseren Rundgang durch die phantastische Welt der umgekehrten Wahrscheinlichkeiten (Kategorie „Unfall- & Katastrophenrisiko”) mit einem letzten Blick auf Hohmeyers unschlagbare Doktorarbeit, einmal in Form von 5 Millionen Krebserkrankungen (#37), zum anderen in Form exorbitanter Schadenssummen (#41), aber auch indirekt in Form von Betroffenheitsorgien (#38). Der Mythos „Jodtabletten” darf in diesem Reigen auch nicht fehlen (#40), aber es gibt wiederum einen klaren Sieger, Grund/Antwort #39. Hier hat die ehemalige Umweltorganisation Greenpeace mit einer völlig neuen Dimension der Strahlenausbreitung und -wirkung (man beachte das Diagramm auf der verlinkten Seite, da kann man nur noch schlucken. Begutachtete Publikationen schenkt sich Greenpeace angesichts dieses Horrors und hat eindeutig den Vogel abgeschossen.

Es existiert offensichtlich doch ein Parallel-Universum, in welchem eine parallele „Wissenschaft” stattfindet, die nach ganz eigenen Gesetzen funktioniert. In diesem leben neben Hohmeyer, Hickel, Bott, Körblein, dem IPPNW, Greenpeace und vielen anderen auch die Verantwortlichen der „100 guten Gründe”, Michael und Ursula Sladek, deren Elektrizitätswerke Schönau (EWS) wir alle mitfinanzieren, ob wir wollen oder nicht. Ein Parallel-Universum ist eben nicht ganz billig.

Hundert gute Antworten #37 – #41, die bisherigen Antworten finden Sie in den EIKE-News (Energie) vom 29.3.2013, 3.4.2013, 7.4.2013, 10.4.2013, 16.4.2013, 19.4.2013, 26.4.2013, 3.5.2013, 9.5.2013.

#37: Krebs für Millionen

Behauptung: Bei einem Super-GAU in Deutschland müssen Millionen von Menschen mit schweren Gesundheitsschäden rechnen.

Die EWS behaupten

Eine Studie im Auftrag des Bundeswirtschaftsministeriums hat – unter Berücksichtigung der Erfahrungen von Tschernobyl – die zu erwartenden Gesundheitsschäden nach einem schweren Atomunfall in Deutschland abgeschätzt. Für den Fall eines Super-GAUs etwa im Atomkraftwerk Biblis rechnet sie mit 4,8 Millionen zusätzlichen Krebserkrankungen. Hinzu kommen alle anderen direkten und indirekten Gesundheitsschäden durch Strahlung, Evakuierung und Verlust der Heimat.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die hier zitierte Zahl von „4,8 Millionen zusätzlichen Krebserkrankungen” stammt ursprünglich nicht von der besagten Studie, sondern aus der 1989 angerfertigten Doktorarbeit des bekannten Antiatom-Lobbyisten und Volkswirten Olav Hohmeyer, bzw. dessen Doktorvater Rudolf Hickel. Sie wird seitdem immer wieder zitiert. Aber wo haben Hohmeyer und Hickel sie her? Welche epidemiologischen Studien wurden angefertigt, welche Krebsregister durchforstet, wie viele Leute befragt, wie die jeweilige Strahlendosis ermittelt?

Schlägt man Hohmeyers Doktorarbeit auf, findet man von all dem nichts – die Zahl wurde lediglich aus der 1987 ausgestrahlten Fernsehsendung des NDR „Tschernobyl – ein Jahr danach” kopiert. Dies ist keine wissenschaftliche Quelle, vor allem wenn man bedenkt, dass ein Jahr danach derartige statistische Untersuchungen unmöglich in begutachteter Form vorliegen können.

Es gibt eine gewaltige Zahl wissenschaftlicher Untersuchungen, die sich dieser Thematik gewidmet haben. Die UN-Kommission zur Untersuchung gesundheitlicher Wirkung radioaktiver Strahlung, UNSCEAR, fasst in Kooperation mit der WHO all diese Ergebnisse in umfangreichen Berichten zusammen. Fazit des letzten Berichts von 2008: 6.000 zusätzliche Erkrankungen an Schilddrüsenkrebs, von denen „wahrscheinlich ein großer Teil der Radioaktivität geschuldet ist”. Abgesehen davon, dass die Ursache dieser zusätzlichen Erkrankungen nicht restlos geklärt ist, sind dies aber auf jeden Fall keine „Millionen”. Bisher, 25 Jahre danach, sind übrigens nur 15-20 an ihrer Erkrankung gestorben.

Da in Deutschland kein Tschernobyl-Reaktor steht, ist diese Überlegung ohnehin rein hypothetisch. Dass Biblis-B ein paar Prozent seines Reaktorinventars freisetzt kann statistisch seltener als einmal in 100 Millionen Jahren erwartet werden, so eine 1997 angefertigte OECD-Studie.

Quellen von KRITIKALITÄT


#38: Heimatverlust

Behauptung: Bei einem Super-GAU wird ein Gebiet von Zigtausend Quadratkilometern dauerhaft unbewohnbar.

Die EWS behaupten

Millionen von Menschen werden nach einem Super-GAU in einem deutschen Atomkraftwerk nicht mehr in ihre Häuser, Wohnungen, Betriebe zurückkehren können. Wo sollen sie leben, arbeiten, unterkommen? Wer kümmert sich um ihre Gesundheit? Wer kommt für ihren Schaden auf? Die Stromkonzerne sicher nicht – die sind dann längst pleite.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die stets wiederkehrende Behauptung der „Millionen Menschen” stützt sich ausschließlich auf die 1987 angefertigte Dissertation des Volkswirten Olav Hohmeyer, der seine absurd hohen Opferzahlen den Behauptungen einer NDR-Fernsehsendung über den Tschernobyl-Unfall entnommen und auf die deutsche Bevölkerungsdichte hochskaliert hat. Schon die Ausgangszahlen sind grob falsch, die Übertragung auf deutsche Verhältnisse erst recht, denn in Deutschland steht kein Reaktor vom Typ Tschernobyl.

Das schlimmste denkbare Szenario hat sich in Fukushima abgespielt, ausgelöst durch einen Tsunami historischen Ausmaßes. Die Evakuierung der 30-Kilometer-Zone war in Anbetracht der Kontaminierung, die etwa der natürlichen Radioaktivität in Teilen Finnlands und dem Schwarzwald entspricht, überflüssig. Die Freisetzung der Radioaktivität fand kontrolliert zur Entlastung des Containments statt. Die Sperrzonen werden zu 80% bis 2014 wieder dauerhaft bewohnt werden dürfen, der Rest einige Jahre später.

Alle deutschen Reaktoren sind mit sogenannten Wallmann-Ventilen ausgestattet, die im Falle einer Druckentlastung, sollte sie denn jemals notwendig werden, die Radioaktivität zurückhielten. Somit wäre die „Belastung” der Umgebung nochmals Größenordnungen geringer als in Fukushima und eine Evakuierung selbst nach den übertrieben strengen Strahlenschutzregeln überflüssig.

Wer sich so viel Sorgen um die Mitmenschen macht, sollte sich zunächst mal die Sicherheit von Staudämmen und Talsperren ansehen. Hier sind die Opfer real, die „Millionen Super-GAU-Opfer” hingegen rein hypothetisch.

Quellen von KRITIKALITÄT


#39: Evakuierung

Behauptung: Die Evakuierung einer ganzen Region binnen weniger Stunden ist nicht möglich.

Die EWS behaupten

Die Katastrophenschutzpläne für Atomkraftwerke gehen davon aus, dass die radioaktive Wolke nach Beginn des Unfalls noch mehrere Tage im Reaktor zurückgehalten werden kann – Zeit, um die Bevölkerung zu evakuieren.

Was aber, wenn ein Flugzeug, ein Erdbeben oder eine Explosion das Atomkraftwerk zerstört? Oder wenn, wie etwa in Krümmel möglich, der Sicherheitsbehälter binnen Minuten durchschmilzt? Dann bleiben, je nach Wetterlage, gerade einmal ein paar Stunden, um ganze Regionen zu räumen.

Neue Ausbreitungsrechnungen zeigen, dass die Strahlenbelastung selbst in 25 Kilometer Entfernung und bei Aufenthalt im Haus binnen weniger Stunden so hoch ist, dass sie in der Hälfte der Fälle zum Tod führt. Die radioaktive Wolke macht dort sicher nicht halt. Für alle weiter entfernten Gebiete aber gibt es gar keine Evakuierungspläne.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die Organisation Greenpeace, von der diese völlig neuartigen Strahlenschutzerkenntnisse und „neuen Ausbreitungsrechnungen” angeblich stammen, bleibt die zugehörigen Studien selbst leider schuldig. Es handelt sich demnach offensichtlich um einen makaberen PR-Gag, der nichts über Kernkraftwerke, aber viel über Greenpeace aussagt.

Das angebliche Durchschmelzen des Sicherheitsbehälters kann nur stattfinden, wenn der Reaktorkern selbst bereits geschmolzen ist und den Reaktordruckbehälter durchdrungen hat. Dazu müssen sämtliche anderen aktiven wie passiven Sicherheitsbarrieren bereits versagt haben, und das dauert mehrere Tage, wie Fukushima gezeigt hat. Und selbst dann befindet sich unter dem Sicherheitsbehälter jede Menge Beton, mit dem sich die Kernschmelze vermischt und langsam erstarrt. Frei werden schlimmstenfalls einige flüchtige Radionuklide, und auch nur, wenn das Reaktorgebäude beschädigt ist. An diesen Abläufen können weder Flugzeuge, Erdbeben und Explosionen etwas ändern.

Quellen von KRITIKALITÄT


#40: Jod-Mangel

Behauptung: Jod-Tabletten nützen nichts, wenn man das Haus verlassen muss, um sie zu erhalten.

Die EWS behaupten

Jodtabletten sollen im Falle eines Atomunfalls die Strahlenbelastung durch radioaktives Jod vermindern. Doch nur im engsten Umkreis um Atomkraftwerke wurden die Tabletten bereits vorsorglich an die Haushalte verteilt. In allen anderen Gebieten sind sie im Rathaus gelagert oder müssen erst noch eingeflogen werden. Abholen wird schwierig: denn der Katastrophenschutzplan rät, das Haus nicht zu verlassen.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Jodtabletten schützen nicht vor Strahlung, sie verhindern nur die Aufnahme radioaktiven Jods. Dieses muss, sollte es einen Reaktor verlassen, erst mal durch die Nahrungskette, d.h. aufs Gras über Kühe in die Milch, was einige Tage dauert. Warum sollte man aber im Zeitalter des internationalen Waren- und Nahrungshandels und strengster Lebensmittelkontrollen ausgerechnet die kontaminierte Milch aus der Umgebung eines havarierten Kernkraftwerks trinken?

Der Mythos „Jodtabletten” stammt aus der Zeit des kalten Krieges, als man mit einem nuklearen Fallout kontinentalen Ausmaßes gerechnet hat. Die Einnahme stabilen Jods sollte es dann ermöglichen, auch kontaminierte Nahrung zu verzehren, sollte nichts anderes mehr zu beschaffen sein.

Die zentrale Lagerung stabiler Jod-Tabletten ist sehr sinnvoll, da eine Einnahme zu Nebenwirkungen führen kann, die die Auswirkungen radioaktiven Jods bei weitem übersteigen. Die Gefährlichkeit des radioaktiven Jods hingegen konnte nie nachgewiesen werden, selbst bei hochbestrahlten Patienten (Radiojodtherapie).

Quellen von KRITIKALITÄT


#41: Wirtschafts-Kollaps

Behauptung: Ein Super-GAU führt zum volkswirtschaftlichen Zusammenbruch.

Die EWS behaupten

Ein Super-GAU in einem Land wie Deutschland würde einen Schaden von 2,5 bis 5,5 Billionen Euro verursachen. Das hat die Prognos AG bereits vor 20 Jahren in einer Studie für das Bundeswirtschaftsministerium errechnet. Inflationsbereinigt wäre die Summe heute sicher noch höher anzusetzen.

Zum Vergleich: Die Konjunkturpakete der 20 größten Wirtschaftsnationen der Welt zur Abfederung der aktuellen Wirtschaftskrise haben alle zusammen ein Volumen von insgesamt 3,5 Billionen Euro.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die bis zu 5,5 Billionen Euro basieren auf der Behauptung, Tschernobyl hätte 240 000 Strahlenkrebsopfer gefordert, von denen die Hälfte daran stirbt. In die Welt gesetzt wurde diese Zahl 1987 duch den Fernsehjournalisten Gerhard Bott. Von dort wanderte sie über die Doktorarbeit des Volkswirten Olav Hohmeyer in die „Studie” der Prognos AG. Der letzte UNSCEAR/WHO-Report 2008 zu Tschernobyl stellt hingegen klar: Es wurde ein Anstieg von 6.000 Schilddrüsenkrebserkrankungen beobachtet, von denen knapp 20 bisher daran gestorben sind. Wieviele davon durch Radioaktivität verursacht wurden bleibt unklar. Die Übertreibung ist also mindestens ein Faktor 40 bis 6.000.

Auch wird hier suggeriert, die Freisetzung des radioaktiven Inventars würde bei einem Reaktor wie Biblis-B mit gleicher Wahrscheinlichkeit auftreten wie beim Tschernobyl-Reaktor. Eine 1997 durchgeführte OECD-Studie berechnet jedoch, dass mit einem derartigen Ereignis schlimmenfalls alle 100 Millionen Jahre zu rechnen ist. Ereignisabläufe wie in Tschernobyl sind bei Reaktoren westlicher Bauart in ihrer Auswirkung eher mit Three Mile Island bei Harrisburg 1979 zu vergleichen, bei dem keine Verletzten auftraten.

Quellen von KRITIKALITÄT





Petition der Partei der Vernunft (PDV): Die Entscheidung über den Bau von Windkraftanlagen ist der Bürgerhand zu übergeben.

Die von der PDV-Petition angesprochenen Geschädigten sind, leider immer noch mehrheitlich, unwissende Anrainer, die den Windstrom prinzipiell sogar begrüßen. Er soll nur nicht vor der eigenen Haustüre geerntet werden, denn dann sinkt der Verkehrswert des Hauses und die Bewohner werden durch Schattenwurf und Infraschall geschädigt. „Bloß nicht vor meiner Haustüre“ ist das altbekannte St. Florians Prinzip „Oh heiliger St. Florian, verschon mein Haus, zünd’ andre an!“.

Bürgerinitiativen gegen Windräder könnten eine ganz andere Schlagkraft erhalten, wenn die Betroffenen aufwachten und sich über den gnadenlosen technisch-wirtschaftlichen Schwachsinn von Windernten in Deutschland auf der EIKE-Webseite kundig machen würden.

Die Betroffenen können sich (hier) über die PDV-Petition informieren und durch ihre Unterschrift zu ihrem Gelingen beitragen. EIKE befürwortet und unterstützt die Windenergie-Petition der PDV. In ihr heißt es: „Zweck dieser Petition ist es, die Eigenverantwortung der Bürger vor Ort zu stärken. Vieles in Deutschland geschieht, weil sich der Staat und unfähige, ideologisch verblendete Politiker in das Leben der Menschen auf unzulässige Weise einmischen. Eigenverantwortung und Moral werden Schritt für Schritt abgebaut. Menschen, die nicht einmal für sich selbst Verantwortung übernehmen wollen, werden auch keine Verantwortung mehr für unser Land und für unsere Umwelt übernehmen.“

Für diejenigen der betroffenen Anrainer, die etwas mehr nachdenken möchten, empfehlen wir das Studium der EIKE-Webseite „Energie“. Hier vergeht kaum eine Woche, in der nicht ein Beitrag über den Windradunsinn erscheint. Wer es besonders kurz haben möchte, dem sei der nachfolgende, leicht ergänzte Kommentar eines EIKE-Bloggers empfohlen, der die Fakten in unnachahmlicher Prägnanz auf den Punkt bringt:

Alle grünen Energien basieren im Kern auf folgendem Geschäftsmodell;  zufällig produzierter Strom (zufällig, weil die Sonne nicht immer scheint und der Wind nicht immer ausreichend stark weht) wird super teuer der Allgemeinheit aufs Auge gedrückt, egal ob sie dafür gerade Verwendung hat oder nicht. Im Gegenzug wird von der Allgemeinheit auch noch erwartet, dass sie zusätzlich eine komplette konventionelle Stromversorgungsinfrastruktur mit Backupkraftwerken (Kohle, Kernkraft, Gas) finanziert, für den häufig vorkommenden Fall, dass gerade kein Wind weht oder keine Sonne scheint oder irgend eines der vielen Öko-Wolkenkuckucksheime nicht funktioniert. Schließlich muss die Stromversorgung zu allen Zeitpunkten gewährleistet sein, sonst bricht unser Infrastruktur und Industrieproduktion zusammen. Den meisten Menschen ist nicht klar, dass Wind- und Sonnenstrom zu 100 % von den fossilen Kraftwerken und der Kernkraft abhängen. Und den meisten Menschen ist ebenfalls nicht klar, dass sie dadurch den ohnehin schon teuren Öko-Strom zweimal bezahlen.

EIKE Redaktion




„Energie und Klima: Chancen, Risiken, Mythen“, expert Verlag (2013)

Als Optimist halte ich die Gestaltung der deutschen Energiezukunft mit den Zielen konsequenten Umweltschutzes, Ressourcenschonung, Wirtschaftlichkeit und Bewahrung der deutschen Spitzenstellung im globalen Wettbewerb für möglich. Allerdings ist dabei technisch-wirtschaftliche Vernunft unabdingbar. Jeder Versuch, ökoideologische oder gesellschaftsverändernde Vorhaben mit „Klimaschutz“ und „grünen“ Stromerzeugungsmethoden zu verwirklichen, ist mit dem hier genannten Zielbündel nicht zu vereinbaren.

Inzwischen gibt es zahlreiche Sachbücher, die sich kritisch mit der deutschen „Energiewende“ (dem kein Land der Welt folgt) und dem „Klimaschutz“ auseinandersetzen. Die Veranlassung eine weitere Monographie hinzuzufügen, ergab sich aus Diskussionen im Anschluss an Vorträge von mir. Dabei wurde das Fehlen eines Buchs bedauert, das die Themen Energie und Klima zusammengehörig, sachlich korrekt und auf dem heutigen wissenschaftlichen Stand behandeln. Meldungen und Verlautbarungen seitens der deutschen Medien, der Politik und NGO’s (wie z.B. Greenpeace) werden von nachdenkenden Bürgern zunehmend kritisch beurteilt. Man wünscht dringend eine von Ökolobbyismus und Ökoideologie freie Sachinformation.

Im Energieteil des Buchs werden die Kriterien beschrieben, die eine umweltgerechte, kostengünstige und ressourcenschonende Versorgung mit elektrischem Strom ermöglichen, ein Zustand, dem Deutschland vor der Energiewende bereits einmal nahe kam. Leicht nachvollziehbare Abschätzungsrechnungen bieten die Möglichkeit, Medienaussagen auf ihren Wahrheitsgehalt zu überprüfen. Sie sind als Anleitung und Anregung zu weiteren, eigenen Rechnungen und Internet-Recherchen gedacht. Die in Deutschland auf einem medialen Tiefpunkt angekommene Kernenergie bildet ein eigenes Schwerpunktthema. Nirgendwo auf der Welt werden über die Kernenergie so viele Unwahrheiten verbreitet wie hierzulande. Daher ist eine nüchtern korrekte Schilderung der Fakten, Chancen und Risiken der Kernenergie, deren weltweiter Siegeszug nicht aufzuhalten ist, längst überfällig. 

Der Klimateil des Buchs werden Sie in eine spannende Geschichte der Klimaentwicklung entführt, die viele Millionen Jahre vor unserer Zeit beginnt, schwerpunktartig das 20. Jahrhundert sowie die jüngste Zeit behandelt und schließlich sogar einen Blick auf die Klimazukunft erlaubt. Hier fließen nicht zuletzt auch Ergebnisse eigener, begutachteter Klima-Fachveröffentlichungen ein (hier, hier, hier, hier). Über die wichtige Frage nach der sehr kleinen Erwärmungswirkung des anthropogenen (menschgemachten) CO2 gibt es freilich keine absolute Gewissheit, dies wird wohl auch zukünftig so bleiben.

Kann dennoch Entwarnung vor dem angeblich so klimagefährlichen Naturgas CO2 gegeben werden, oder müssen wir umgekehrt alle unsere Bemühungen konsequenter CO2-Vermeidung widmen? Was sagt der heutige wissenschaftliche Stand dazu aus? CO2 als Grundbestandteil der Photosynthese ist immerhin für unser aller Ernährung und Existenz unabdingbar. Der durch zunehmendes atmosphärisches CO2 verursachte Düngungseffekt hilft der wachsenden Erdbevölkerung bei der Nahrungserzeugung.

Ist das oft zu hörenden „Totschlagargument“ schlüssig, unsere Nachkommen müssten vor einer drohenden „Klima-Gefahr“, koste es, was es wolle, geschützt werden? Es gibt unzählige reale Zukunftsgefahren, angefangen von der fortschreitenden Zerstörung des Fischbestands der Weltmeere, über die Trinkwasserknappheit in Dürregebieten, den Rückgang der Tropenwälder bis hin zu drohenden Pandemien oder Zusammenstößen der Erde mit größeren Asteroiden. Ist es angesichts dieser Gefahrenfülle sachgemäß, unsere begrenzten Mittel fast ausschließlich der CO2-Vermeidung zu widmen, um eine weltweite Vorbildfunktion beanspruchen zu können? Diese Frage kann nur durch nüchterne Abwägung der Fakten, Risiken und Kosten sachgemäß beantwortet werden.

Im unten angefügten pdf findet sich, verfasst von Arnold Vaatz, MDB, das Geleitwort zum Buch, ferner die Inhaltsangabe des Buchs und seine Einleitung.

Prof. Dr. Horst-Joachim Lüdecke

Related Files




FDP widersetzt sich einer Neuberufung Schellnhubers als Direktor des „Wissenschaftlichen Beirats für globale Umweltveränderungen“ (WBGU) der Bundesrepublik

Die entsprechenden EIKE-Beiträge über Schellnhuber sind stellvertretend hier, hier und hier zu finden (weitere Artikel in der EIKE Suchfunktion nach Eingabe von Schellnhuber). Der WBGU fordert in seiner Publikation „Welt im Wandel, Zusammenfassung für Entscheidungsträger“ allen Ernstes eine „große Transformation“. Diese besagt im Klartext nichts anderes als die Abschaffung der demokratischen Institutionen um eine Ökodiktatur zu ermöglichen. Es ist eine Wiederkehr des Totalitarismus, diesmal nicht unter kommunistischen sondern unter ökologischen Vorzeichen. Die Methoden, aber auch die späteren schrecklichen Folgen solcher ideologischen Phantastereien sind die gleichen.

Videoausschnitt des ZDF; der das  „2-Grad-Ziel“ und der Verwirrung um die „globale Kohlenstoffbudget“ sehr anschaulich offenlegt !! (Mit Dank an Rainer Hoffmann Solarkritiker im Exil)

Man staunt, wie im deutschen Parlament auf der einen Seite angemessen über ein Verbot der NPD diskutiert wird, aber der WBGU mit seinen offen verkündeten undemokratischen Zielen als Beirat der Bundesregierung unbehelligt bleibt. Der WBGU kopiert Eins zu Eins das ideologische Programm der “Grünen“, das als Hauptziel die Abschaffung eines ganzen Industriezweiges definiert (Kernenergie). Der WBGU stellt sich zudem gegen den Teil der deutschen Industrie, die uns bislang vorwiegend mit Strom versorgte (Kohleindustrie). Er macht sich damit zum Handlanger der Windrad-, Photovoltaikbranche und ihrer wirtschaftlichen Profiteure, die sich insbesondere auf Kosten der wirtschaftlich schwach gestellten Verbraucher bereichern.

Ein weiteres Verwirr-Beispiel des Wirkens von Prof. Schellnhuber und anderer „Klimawissenschaftler“ über die wahre Größe der mittleren Globaltemperatur.(Mit Dank an Rainer Hoffmann, Solarkritiker im Exil)

Diese WBGU-Aktivitäten entsprechen nicht der Verpflichtung unserer öffentlichen Institutionen zu Neutralität, Objektivität, Sachbezogenheit und Befolgung geltenden Rechts. So lesen wir es beispielsweise im Originaltext des WBGU auf S. 3 (hier): Der Ausstieg aus der Kernenergie darf aus Sicht des Beirats aber nicht durch den Einstieg oder die Verstärkung von Energieerzeugung aus Braun- oder Steinkohle kompensiert werden.

Wenn die WBGU-Experten überhaupt einen Schimmer von solider, nachhaltiger Energiewirtschaft haben, dürfte es ihnen eigentlich nicht entgangen sein, dass mit fluktuierendem Wind- und Sonnenstrom keine moderne Industrienation zu betreiben ist. Es gibt daher nur zwei Möglichkeiten: Entweder liegt beim WBGU extreme technische Unkenntnis vor, oder die WGBU-Mitglieder und insbesondere ihr Direktor handeln in vorsätzlicher Weise verantwortungslos. Das Rückrat einer Industrienation, nämlich seine Energieversorgung, gehört nicht in die Hände von technischen Dummköpfen und sie ist schon gar kein Tummelplatz für ideologische Traumtänzereien.

Das skandalöse WBGU-Dokument, das in unverhüllter Ideologie – Sachbegründungen sucht man vergebens – die Abschaffung eines ganzen Industriezweiges fordert, wurde im Jahre 2011 unter der CDU/FDP-Regierungskoalition veröffentlicht und stieß nach unserer Kenntnislage insbesondere auch bei der freiheitlich-liberalen FDP weder auf Empörung noch auf Widerspruch. Hier darf von einem seit Bestehen der Bundesrepublik beispiellosen Niedergang demokratischer Kultur und Rechtsempfindens gesprochen werden.

Was von einem großen Teil der deutschen Medien in diesem Zusammenhang zu halten ist, geht aus einem einschlägigen Artikel der Süddeutschen Zeitung hervor (hier). Dieses Blatt, ein Sprachrohr der SPD und zu deren Medienimperium gehörig, führt im deutschen Blätterwald die CO2-Katastrophenriege an.

Der Schuss vor den Bug des „Klimaretters“ Schellnhuber und seiner Kollegen war bitter nötig! Seine „Große Transformation“ und die Phantastereien von einer kohlenstofffreien Welt führen unweigerlich in den wirtschaftlichen Abgrund und die Vernichtung der deutschen Wirtschaft (andere Länder interessiert der Unfug nicht). Ist das so beabsichtigt? Nicht einmal die gemäß SZ „große Koryphäe“ Schellnhuber, oder das IPCC, oder gar irgend ein anerkannter Klimaexperte ist bis heute in der Lage nachzuweisen, dass das lebensnotwendige Spurengas CO2 in Form anthropogener Emissionen irgendeinen nachweisbaren Einfluss auf die Klimaentwicklung hat.

Leider hat außer der FDP Sachsens bisher noch keine andere deutsche politische Kraft den Mut aufgebracht, dieses simple Faktum, das jedem Fachmann geläufig ist, laut auszusprechen. Anscheinend braucht man in Deutschland zu viel Mut dazu. Die gesamte Welt mit Ausnahme der EU, der Schweiz und Australien sieht hier völlig klar. Man hat erkannt, dass es sich beim sogenannten Klimaschutz um eine ideologielastige Aktion von einflussreichen Aktivisten handelt, die jeder Sachgrundlage entbehrt. Das Klima überall af der Welt und zu allen Zeiten hat sich stets geändert, solch ein Phänomen kann man nicht schützen – man müsste dazu beim „Schutz des Wetters“ beginnen. Dementsprechend ist die Welt längst zur Tagesordnung übergegangen und nimmt den CO2-Unsinn nicht mehr ernst. Allenfalls ist man (z.B. China) noch an Geschäften interessiert, die sich mit Hilfe des deutschen Klimawahns machen lassen.

Michael Limburg, Friedrich-Karl Ewert, Klaus-Eckart Puls, Horst-Joachim Lüdecke, Dietmar Ufer

Update 7.5.13:

Inzwischen ist Rösler eingeknickt und hat der erneuten Berufung Schellnhubers zugestimmt. Doch von nun an sei er mit dem Atrribut „umstritten“ gezeichnet findet Peter Heller von Science Sceptical und sieht darin ein politisches Meisterstück Röslers. Lesen Sie selbst: Hier!




Kernenergie: 100 Gründe und 100 gute Antworten. Fortsetzung #28 bis #31

Nun müssen Fernsehsendungen nicht zwangsläufig falsche Zahlen verbreiten, aber in einer Doktorarbeit darf man schon etwas mehr Gründlichkeit erwarten, zumal Hohmeyers gesamte weitere Rechnung zur "Bösartigkeit" der Kernenergie auf dieser Zahl aufbaut. Hier lediglich eine Fernsehsendung zu zitieren hätte seinem Betreuer Rudolf Hickel eigentlich auffallen müssen, aber es lag wohl nicht in seinem Interesse, hier ehrlich zu sein. Auch können 1 Jahr nach dem Vorfall kaum zuverlässige Schätzungen vorgelegen haben. Hinzu kommt, dass diese hypothetische Dosis ja nicht wie bei Hiroshima und Nagasaki in Sekundenbruchteilen, sondern über lange Zeiträume verabreicht worden wäre (s.a. hier).

Jedenfalls wurde diese Zahl nun zur Grundlage für Risikoabschätzungen, Versicherungssummen und "versteckten" Strompreisen. Durch die von der Universität Bremen abgesegnete Doktorarbeit wurde diese freie Erfindung des Fernsehjournalisten Gerhard Bott zur Wissenschaft, und Hohmeyers Arbeit wurde oft zitiert. Die Zahl wanderte in Studien und Bücher, wobei ihr wissenschaftlicher "Wert" dadurch weiter gesteigert wurde, und immer konnte man sich auf die Universität Bremen berufen, statt auf einen Fernsehjournalisten. Der Höhepunkt war offensichtlich eine Studie der Prognos AG im Auftrag des Bundeswirtschaftsministeriums von 1992, die auf der Doktorarbeit aufbaute. Seitdem gilt es in Antiatomkreisen als gesichertes Wissen.

In den "100 guten Gründen" wird diese Studie allein 6 mal zitiert, in weiteren Gründen verwendete Behauptungen leiten sich daraus ab. In den deutschen Bibliotheken wird sie allerdings nicht geführt. Die Datenbanken der Prognos AG reichen bis 1992 zurück, sie müsste also wenigstens dort auffindbar sein, ist sie aber nicht. Offensichtlich war es der Prognos AG zu peinlich, diesen Unsinn weiter verbreiten. Im WWW kursiert eine Kopie, die Echtheit kann allerdings nicht überprüft werden. Glaubt man dem Inhalt, stammen die Zahlen von Hohmeyer, und damit ausschließlich aus der erwähnten Fernsehsendung. Einmal mehr bleibt nur, den Sladeks zu gratulieren, die Methode des wissenschaftlichen "Reinwaschens" verbreitet und damit gefördert zu haben. Lügen zahlt sich eben aus, aber man muss es auch gut machen.

Natürlich sind weitere Übertreibungen davon unbenommen. Aufbauend auf der unauffindbaren Studie der Prognos AG ergibt sich gleich eine Vielzahl an Möglichkeiten, die in den folgenden Gründen ausgeschöpft wird. Da wären die übliche Verwechslung eines Schadensfalls mit einem "Super-GAU", was es erlaubt, die Wahrscheinlichkeiten mal eben mit 100 zu multiplizieren (#29) und aufbauend auf den nochmals weiter hochgerechneten Hohmeyerzahlen exorbitante Versicherungssummen (#28), noch gewürzt mit der dreisten Lüge, die Haftung sei grundsätzlich gedeckelt. Aber es gibt auch wieder einen Favoriten, nämlich Grund #30, in welchem den deutschen Kernkraftwerken unterstellt wird, Wasserstoffexplosionen seien im internationalen Vergleich "besonders wahrscheinlich". Sehr originell. Und natürlich genügt ein Unwetter (#31), und wir müssen schon wieder betroffen zusehen, wie Ursula und Michael Sladeks Teil eines Weltuntergangs werden. Es will einfach nicht aufhören.

Nun zu den Antworten #28 bis #31, die bisherigen Antworten finden Sie in den EIKE-News (Energie) vom 29.3.2013, 3.4.2013, 7.4.2013, 10.4.2013, 16.4.2013, 19.4.2013 und 26.4.2013.

#28: Versicherungsschutz

Behauptung: 50 Autos sind zusammen besser versichert als ein Atomkraftwerk.

Die EWS behaupten

Ein Super-GAU in einem Atomkraftwerk in Deutschland verursacht Gesundheits-, Sach- und Vermögensschäden in Höhe von 2.500 bis 5.500 Milliarden Euro. Das hat die Prognos AG 1992 in einem Gutachten für das FDP-geführte Bundeswirtschaftsministerium errechnet.

Die Haftpflichtversicherung aller Atomkraftwerksbetreiber zusammen deckt ganze 2,5 Milliarden Euro ab – also 0,1 Prozent des zu erwartenden Schadens. 50 Autos auf dem Parkplatz eines Atomkraftwerks sind zusammengenommen besser versichert als das Atomkraftwerk selbst!

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die Behauptung ist falsch, denn die Haftung ist grundsätzlich unbeschränkt und erstreckt sich sogar auf das Ausland (§31 und §25 AtG). Eine vergleichbare Haftung ist für Autos undenkbar. Nur in Fällen höherer Gewalt, Unruhen, Kriegen u.ä. ist die Haftung auf 2,5 Mrd. Euro beschränkt (§25 Absatz 3). Und dies auch nicht für „alle Atomkraftwerksbetreiber zusammen” sondern für jede Anlage einzeln.

Es ist weiterhin falsch, dass die Prognos AG selbst ein „Gutachten” erstellt hat. Dort werden lediglich Behauptungen aus der 1988 angefertigten Doktorarbeit des Volkswirten Olav Hohmeyer kopiert. Das „Gutachten” ist im Zentralregister der deutschen Bibliotheken nicht verzeichnet und im Archiv der Prognos AG nicht auffindbar. Hohmeyers Doktorarbeit hingegen schon, aber dort muss man mit Schrecken feststellen, dass dieser seine Basisdaten aus einer 1987 ausgestrahlten Fernsehsendung des NDR bezogen hat. Daten aus Fernsehsendungen sind in Ingenieurs- und Naturwissenschaften alles andere als wissenschaftlicher Standard.

Quellen von KRITIKALITÄT


#29: Super-GAU

Behauptung: Der Super-GAU kann jeden Tag passieren.

Die EWS behaupten

Die ›Deutsche Risikostudie Kernkraftwerke Phase B‹ von 1989 beziffert das Risiko eines Super-GAUs aufgrund technischen Versagens in einem westdeutschen Atomkraftwerk mit 0,003 Prozent pro Jahr. Das klingt wenig. Aber allein in der EU gibt es (Stand Ende 2007) 146 Atomkraftwerke. Bei einer Betriebszeit von 40 Jahren käme es hier demnach mit einer Wahrscheinlichkeit von über 16 Prozent zu einem Super-GAU. Viele mögliche Störfallszenarien und gefährliche Altersmängel in den Reaktoren sind dabei gar nicht berücksichtigt – genauso wenig wie alle Unfälle, die, wie Harrisburg und Tschernobyl, unter anderem durch menschliches Versagen passieren.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die angeführte Studie schätzt das Eintreten sogenannter Schadensfälle ab, der Begriff „Super-GAU” ist eine Erfindung der Antiatombewegung. Ein Schadensfall muss noch lange nicht zu einer Kernschmelze führen, eine Kernschmelze noch lange nicht zur Freisetzung größerer Mengen Radioaktivität, und freigesetzte Radioaktivität noch lange nicht zu gesundheitlichen Folgen. Die absolute Wahrscheinlichkeit, soviel Radioaktivität wie in Fukushima oder mehr freizusetzen, ist nach der ›Deutschen Risikostudie Kernkraftwerke Phase B‹ nochmal etwa um einen Faktor 100 geringer.

Der Vergleich der Unfälle Tschernobyl und Harrisburg wäre etwa so, als vergleiche man für die Insassensicherheit den Aufprallschutz eines Trabants mit einem Panzer. In Harrisburg kam es zur Kernschmelze, die Störungen wurden erst Stunden später bemerkt, der Aufwand der Gegenmaßnahmen hielt sich in Grenzen. Trotzdem kam kein Mensch zu Schaden, bereits nach 2 Wochen zog dort wieder der Alltag ein. In Fukushima schmolzen gleich 3 Kerne infolge eines sehr schweren Naturereignisses, das 20 000 Tote forderte, wobei bereits damals bekannt war, dass die Notstromdiesel gegen Hochwasser schlecht gesichert und keine Filter vorhanden waren. Es werden auch hier keine Strahlenopfer zu beklagen sein.

Dies zeigt, dass bereits die wassermoderierten Reaktoren extrem verzeihend auf Planungs- und Bedienfehler reagieren, die passiven Barrieren wirkten, wie vorgesehen. Die deutschen Reaktoren sind passiv mindestens so gut ausgerüstet wie Harrisburg. Es sind zukünftige Reaktoren baubar, bei denen eine Kernschmelze bzw. das Austreten nennenswerter Mengen von Radioaktivität bei intakten Strukturen nicht möglich ist.

Quellen von KRITIKALITÄT


#30: Sicherheitsranking

Behauptung: Deutsche Atomkraftwerke sind sogar im internationalen Vergleich unsicher.

Die EWS behaupten

Deutsche Atomkraftwerke gehören »zu den sichersten der Welt«? Von wegen! Bei einem internationalen Sicherheitsvergleich der OECD im Jahr 1997 schnitt das bundesdeutsche Referenz-Atomkraftwerk (Biblis B) hinsichtlich der Kernschmelz-Festigkeit am schlechtesten ab. Wasserstoffexplosionen seien besonders wahrscheinlich, der Sicherheitsbehälter aus Stahl besonders instabil, urteilten die Gutachter: In Biblis sei »die Gefahr extrem hoch, dass es bei einer Kernschmelze zu massiven Freisetzungen von Radioaktivität kommt«.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Es empfiehlt sich, die OECD-Studie auch zu lesen. Dort steht nämlich, dass es beim Kernkraftwerk Biblis B statistisch seltener als alle 100 Millionen Jahre zur Freisetzung von Radioaktivität kommt. Es ist damit das mit Abstand sicherste unter allen untersuchten 19 Kernkraftwerken. Aus Angst vor Radioaktivität wurde es nun endgültig abgeschaltet. Sehr konsequent.

Auch dass Wasserstoffexplosionen in Biblis B besonders wahrscheinlich sind wurde der OECD-Studie falsch entnommen. Dort wird vielmehr darauf hingewiesen, dass Biblis B als eines unter wenigen Kernkraftwerken passive Wasserstoff-Rekombinatoren und Frühzünder einsetzt. Das schließt gefährliche Wasserstoffexplosionen praktisch aus. Somit ist auch der Sicherheitsbehälter nicht „instabil”, sondern lediglich für etwas geringere Drücke ausgelegt – denn große Wasserstoffexplosionen können nun nicht mehr auftreten. Außerdem befindet sich im Betrieb überhaupt kein Sauerstoff im Sicherheitsbehälter, der für Wasserstoffexplosionen nötig wäre.

Das Zitat, in Biblis B sei »die Gefahr extrem hoch, dass es bei einer Kernschmelze zu massiven Freisetzungen von Radioaktivität kommt« stammt auch nicht von den OECD-Gutachtern, sondern von selbsternannten „Fachleuten” des IPPNW. Denen kann man, wie gesagt, nur empfehlen: Erst lesen, dann darüber schreiben.

Quellen von KRITIKALITÄT


#31: Unwetter

Behauptung: Schon ein Gewitter kann das Aus bedeuten.

Die EWS behaupten

Ein Stromausfall im Atomkraftwerk, der sogenannte Notstromfall, gehört zu den gefährlichsten Situationen in einem Reaktor. Ohne intakte Notstromversorgung fällt dann die Kühlung aus, es droht die Kernschmelze. Als Auslöser genügt oft schon ein simples Unwetter. Achtmal zwischen 1977 und 2004 führten Blitz oder Sturm in einem westdeutschen Atomkraftwerk zum Ausfall wichtiger Instrumente, zum gefürchteten Notstromfall oder gar, wie am 13. Januar 1977 im Atomkraftwerk Gundremmingen A, zum Totalschaden. Gefahren drohen auch durch Überschwemmungen: Im französischen Atomkraftwerk Blayais an der Atlantikküste fallen deswegen regelmäßig Teile der Kühlsysteme aus.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Auslöser des Unglücks in Gundremmingen A 1977 war kein Unwetter am Reaktor, sondern ein Ausfall der externen Hochspannungsleitungen, wodurch der Strom nicht mehr abtransportiert werden konnte und eine Drosselung der Leistung notwendig wurde. Hier kam es zu Fehlschaltungen, die in einer kontrollierten Flutung des Reaktorgebäudes mit Primärkühlwasser endeten. Zu der Schadensbeseitigung, die überschaubar gewesen wäre (das Wasser wurde abgepumpt, Dekontamination wäre denkbar gewesen), kamen durch Behördenauflagen noch weitere 180 Millionen DM an Kosten dazu. Da zwei weitere Reaktorblöcke bereits im Bau waren, hat man Block A stillgelegt.

Diesen 35 Jahre zurückliegenden Vorfall am ersten deutschen Leistungsreaktor als repräsentativ darzustellen ist so, als zöge man wegen Haarrissen an einer De Havilland Comet die Sicherheit moderner Linienmaschinen in Zweifel. In allen Fällen zeigt sich die Wirkung redundanter Sicherheitssysteme. So in Blaylais, wo trotz hochwassergefluteten Kühlsystems und gewittergeschädigter Hochspannungsleitungen die Schnellabschaltung samt Notkühlung funktionierten – wie bei der Auslegung geplant.

Wer jeden Instrumentenausfall als „kurz vor dem Super-GAU” darstellt weiss es offenbar besser als internationale Fachgremien, Einrichtungen zur Reaktorsicherheitsforschung mit jahrzehntelanger Erfahrung und weltweit vernetzte Atomaufsichtsbehörden. Die ordnen fast allen derartigen Vorfällen nämlich nur geringe oder keine Relevanz zu.

Quellen von KRITIKALITÄT





Der Dual Fluid Reaktor – ein neues Konzept für einen Kernreaktor

Das IFK ist ein unabhängiges Forschungsinstitut, das momentan weder private noch öffentliche Unterstützung erhält. Die Mitglieder des IFK engagieren sich aus Leidenschaft unentgeltlich für das DFR-Projekt. Der Dual Fluid Reaktor (und hier) wird vom IFK nicht als Forschungsprojekt verstanden, denn er lässt sich mit heute verfügbaren Techniken bauen. Im Gegensatz zu allen anderen neuen Reaktorkonzepten insbesondere der Generation IV liegt für den DFR auch eine wirtschaftliche Abschätzung vor. Es ergeben sich Overnight-Herstellungskosten von weniger als 0,6 cent/kWh für Strom sowie 20-40 cent pro Liter benzinäquivalenten Kraftstoffs. Der Umstellungsaufwand heutiger Fahrzeuge wäre mit dem auf Autogas vergleichbar.

Der folgende Beitrag ist eine Beschreibung des Konzepts durch das IFK. Weitere Informationen finden Sie auf der DFR-Einstiegsseite dual-fluid-reaktor.de (seit heute mit weiteren Details aktualisiert) sowie auf der DFR-Seite des IFK (mit mehr englischsprachigen Fachinformationen). Hilfreich sind auch Diskussionen in Foren, z.B. im englischsprachigen energyfromthorium.com, auf dem deutschsprachigen Blog Skeptical Science, sowie in der ebenfalls deutschsprachigen Patentschrift.

Beschreibung des Dual Fluid Reaktors

Institut für Festkörper-Kernphysik, Berlin

Schon in den 1960er Jahren lief am Oak Ridge National Laboratory das „Molten Salt Reactor (MSR) Experiment”, MSRE. Es wurde erfolgreich abgeschlossen, musste aber der Entwicklung von metallgekühlten Reaktoren weichen. Letztere wurden zwar dann in den USA auch nicht umgesetzt, aber die Entwicklung von Flüssigsalzreaktoren kam dadurch zum Erliegen. In letzter Zeit ist das MSRE-Konzept wiederentdeckt worden, wie z.B. im WAMSR von Transatomic Power, und im MSR-Konzept der Generation IV, allerdings sind hier bis auf den Übergang zu Schnellspaltreaktoren keine grundsätzlich neuen Entwicklungen zu verzeichnen. Dies gilt auch für das beschleunigergetriebene System GEM*STAR der amerikanischen ADNA Corporation.

Beim MSRE wurde das Hauptaugenmerk auf einen flüssigen homogenen Reaktorkern gelegt, ohne dass die dadurch entstehenden Nachteile Beachtung fanden. Das Flüssigsalz sollte gleichzeitig die Wärme abführen. Dies sah zunächst nach einer Vereinfachung aus, führte aber zur weitgehenden Aufhebung der Vorteile von Flüssigsalzen, welche nun extrem schnell zirkulieren mussten, um die Nutzwärme abführen zu können. Und damit nicht genug, der eigentliche Brennstoff musste extrem verdünnt werden, um nicht zu viel Wärme zu produzieren. Durch die schnelle Zirkulation konnte das Flüssigsalz nicht bei laufendem Reaktor aufgearbeitet werden. Außerdem war durch die Verdünnung die Aufarbeitung sehr aufwendig und die Leistungsdichte stark beschränkt, was den Konstruktionsaufwand erheblich vergrößerte und die energetische und damit wirtschaftliche Effizienz stark reduzierte. Dies hat sich in den neueren MSR-Konzepten grundsätzlich nicht verbessert.

Im Konzept des Dual Fluid Reaktors, DFR, wird dieses Manko nun korrigiert, indem die beiden Funktionen Brennstoff und Wärmeabfuhr getrennt werden. Auch wenn dies zunächst ein Verkomplizieren darstellt, ergeben sich daraus erhebliche Vereinfachungen an anderen Stellen sowie Synergien, die zu einer enormen Effizienzsteigerung führen. Durch den Wegfall der Doppelfunktion des Salzes konnten wir uns bei der Entwicklung des DFR-Konzepts ganz auf die Ausnutzung der Vorteile einer Online-Aufbereitung eines unverdünnten Brennstoffflüssigkeit einerseits sowie einer effektiven Wärmeabfuhr andererseits konzentrieren. Für letzteres eignen sich besonders Flüssigmetalle.

Die Verwendung von salzförmigen Spaltmaterialien als Brennstoff ist übrigens nicht zentraler Bestandteil des DFR-Patents, entscheidend ist vielmehr, dass im Reaktorkern allgemein zwei Flüssigkeiten laufen, wovon eine den Brennstoff bereitstellt und die andere die Nutzwärme abführt (Kühlmittel). Insofern ist der DFR nicht automatisch ein Flüssigsalzreaktor, im Gegenteil, eine Brennstoffzufuhr in Form von Flüssigmetallen würde die Effizienz nochmals erheblich steigern und an die Grenze des Potentials der Kernspaltung führen.

Bei der Spaltung eines Atomkerns wird 100 Millionen mal so viel Energie freigesetzt wie bei der Verbrennung eines Kohlenstoffatoms. In Anbetracht dieses Verhältnisses ist es erschreckend, dass heutige Nukleartechnik nur 3-4 mal so effektiv Strom erzeugt wie Kohle- und Gaskraftwerke. Natürlich ist für die Nutzung eines Energieträgers mit derartig hoher Dichte auch ein höherer Aufwand erforderlich, auch ist der Förderaufwand von Uran und Thorium größer als der von Kohle, Gas und Öl. Die eigentliche Ursache dieses extremen Missverhältnisses liegt jedoch im militärischen Ursprung der Kerntechnik, der zu mehreren Fehlentwicklungen geführt hat, allem voran die Verwendung fester Brennelemente. Für das Militär steht eben die Wirtschaftlichkeit nicht im Vordergrund, sondern die Effektivität im Kriegseinsatz.

Als erster Entwicklungsschritt des DFR, insbesondere in Hinsicht auf die Online-Aufbereitung, ist die Verwendung von Flüssigsalzen jedoch zunächst die bevorzugte Variante. Dadurch vereinfacht sich der Entwicklungsafwand, und ein kommerzielles Kraftwerk kann früher realisiert werden.

Zur Wärmeabfuhr eignet sich Blei besonders gut. Es wird kaum durch den hohen Neutronenfluss aktiviert und kann ohne Zwischenkreislauf direkt in den konventionellen Teil geleitet werden, wo sich der Wärmetauscher befindet. Die Arbeitstemperatur beträgt 1000 °C, was eine effektive Stromproduktion ermöglicht. Bei diesen Temperaturen öffnet sich auch die gesamte Kette der Prozesschemie, da nun die wettbewerbsfähige Produktion von Wasserstoff möglich wird. Damit können auch sehr kostengünstig synthetische Kraftstoffe als Benzinersatz hergestellt werden.

Die Aufbereitung findet im Containment des Reaktors im automatischen Betrieb statt. Bevorzugt sind hier Methoden der fraktionierten Destillation und Rektifikation, wie sie in der Großindustrie täglich zum Einsatz kommen. Für das Flüssigsalz des DFRs genügt allerdings eine Kleinanlage, die „Pyrochemical Processing Unit”, PPU, die direkt in den Kreislauf des Flüssigsalzes mit dem Reaktorkern verbunden ist. Dort erfolgt die Auftrennung nach Siedepunkten, was sehr hoher Temperaturen (bis zu 2000 °C) bedarf, wobei die Restzerfallswärme der hochradioaktiven Spaltprodukte hierbei sogar unterstützend wirkt.

Materialien, die den Bedingungen im Reaktorkern (Blei, Salz, 1000 °C, Neutronenfluss) standhalten können, sind seit Jahrzehnten bekannt. Dazu gehören insbesondere Legierungen aus der erweiterten Gruppe der Refraktärmetalle. Diese überaus widerstandsfähigen Legierungen konnten in der Vergangenheit nicht hinreichend verarbeitet werden, mittlerweile ist die Fertigungstechnik jedoch so weit vorangeschritten, dass derartige Legierungen in allen Bereichen der Industrie immer mehr Anwendungen finden. Als weitere Option kommen neue Keramiken als Beschichtungen oder in Form neuartiger faserverstärkter Komposit-Werkstücke hinzu. Mikrokristalline Schäden durch den hohen Neutronenfluss sowie thermischer Stress werden bei der hohen Temperatur automatisch ausgeheilt (Ausglüheffekt). In der PPU gibt es sogar noch weniger Einschränkungen, da Neutronenversprödung und Wärmeleitung hier keine Rolle mehr spielen.

Gute Neutronenökonomie und ihre Folgen

Im DFR behalten die Neutronen wegen der vielen massereichen Atomkerne (Aktinide und Blei) ihre hohe Energie. Blei selbst absorbiert ohnehin wenig Neutronen, und die Neutronenverluste in den Strukturmaterialien sind bei diesen Energien sehr gering. Auf der anderen Seite werden durch die schnellen Neutronen aber besonders viele davon nachgebildet, nämlich durchschnittlich 3 oder mehr pro Spaltvorgang. Bei fast allen Reaktoren ist das weniger, bei Leichtwasserreaktoren deutlich weniger. Diese Neutronen werden nun unterschiedlich "verbraucht".

Eines der 3 Neutronen wird gebraucht, um die nukleare Kettenreaktion aufrecht zu erhalten, ein weiteres, um den eigenen Spaltstoff nachzubrüten. Da die Verluste gering sind (weniger als 0,5 Neutronen durch unerwünschte Einfänge), bleiben noch mindestens 0,5 Neutronen pro Spaltung für andere Anwendungen übrig, mehr als bei allen anderen Reaktoren. Mit diesem hohen Überschuss kann man nun in erheblich kürzeren Zeiträumen als bei anderen "schnellen Brütern" z.B. Plutonium (hier nicht waffenfähig) erbrüten und damit zügig die nächste Generation von Reaktoren installieren. Auch der Thorium-Uran-Prozess mit seiner kernphysikalisch bedingt niedrigeren Neutronenausbeute ist aufgrund der sehr guten Neutronenökonomie des DFR im Vergleich zu anderen Schnellspaltreaktoren besonders gut handhabbar. Alternativ können auch sehr effektiv problematische langlebige Spaltprodukte z.B. aus heutigen Reaktoren transmutiert und damit abgebaut werden. Sehr effizient ist aber auch die Bildung erwünschter Radioisotope, etwa für die Medizin. Die PPU erfüllt hier eine wichtige Aufgabe, die ständige chemische Trennung von Stoffen untereinander und vom Brennstoff, was auch die Minimierung von "Neutronenfängern", sogenannten Neutronengiften und damit auch die Neutronenverluste reduziert.

Letzteres ist übrigens auch für die Leistungsregelung des DFR sehr günstig. Durch den permanent immer sehr "sauberen" Reaktorkern muss man keine überschüssigen Spaltstoffe einbringen, die über ein kompliziertes Regelsystem (Steuerstäbe) während ihres Abbrandes ausgeglichen werden müssten, wie etwa in heute gängigen Leichtwasserreaktoren. Dies begünstigt auch einen sogenannten "unterkritischen" Betrieb, bei dem fehlende Neutronen durch ein Beschleunigersystem nachgeliefert werden ("Accelerator Driven Subcritical System", ADS). Je näher man sich stabil der Kritikalität nähern kann, desto kleiner darf der Beschleuniger sein. Beim DFR könnte der Beschleuniger nun auf eine Länge von wenigen Metern reduziert werden, im Vergleich z.B. mit dem belgischen ADS-Projekt "MYRRHA", welches einen mehrere 100 Meter langen Beschleuniger benötigt.

Zudem reagiert ein flüssiger Reaktorkern auf eine Temperaturerhöhung sehr schnell mit Ausdehnungen, genauso auch das Blei, was diesen außen umgibt. Die Abstände der Atomkerne werden bei Temperaturerhöhung größer, wodurch gleich zwei Wahrscheinlichkeiten sinken, zum einen dass ein Neutron im Flüssigsalz eine Spaltung induziert, zum anderen dass es am Blei reflektiert wird. Somit fällt die Leistung mit einer Temperaturzunahme sehr schnell ab. Dieser negative "Temperaturkoeffizient" ist durch das Dual-Fluid-Prinzip so stark ausgeprägt, dass bereits innerhalb eines Temperaturanstiegs von wenigen 10 Kelvin die Leistung eingestellt werden kann. Die Spaltrate folgt somit zügig der Leistungsentnahme, welche wiederum durch die Geschwindigkeit der Bleizirkulation eingestellt werden kann. Da dieser Mechanismus ohne technisches Eingreifen aufgrund physikalischer Gesetze immer funktioniert, kann der Reaktor auch nicht durch einen unkontrollierten Leistungsanstieg "durchgehen" – er ist in diesem Punkt inhärent sicher.

Fazit

Der DFR ist in der Lage, die Effizienz der Kernenergie um mindestens eine Größenordnung zu steigern und damit die fossilen Kraftwerke um zwei Größenordnungen zu übertreffen. Dies schafft die notwendige Voraussetzung für die Steigerung des Wohlstandsniveaus um den gleichen Faktor. Nur wenn die Kernenergie der Gesellschaft einen offensichtlichen Vorteil bietet, kann sie sich durchsetzen. Dass sie das bisher nicht oder zu wenig bietet, ist der eigentliche Grund des schleppenden Ausbaus seit den 70er Jahren.

Abbildungen

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Erntefaktor-DFR.png
Bild 1: Erntefaktor verschiedener Energietechniken (siehe Publikation hier) im Vergleich mit dem Dual Fluid Reaktor

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/DFR-Kern.png
Bild 2: DFR-Reaktorkern

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/DFR-Kraftwerk.png
Bild 3: Kraftwerk um den Dual Fluid Reaktor




IPCC-Berichts-Chef Thomas Stocker zeigt im Weltwoche-Interview unerklärliche Gedächtnislücken: Die Gesprächsanalyse von Vahrenholt und Lüning

Die Wochenzeitung Weltwoche brachte in ihrer am 11. April 2013 erschienenen Ausgabe ein äußerst lesenswertes Interview mit Thomas Stocker, dem Vorsitzenden des wissenschaftlichen Grundlagenkapitels im kommenden IPCC-Bericht. Dabei sprach der Weltwoche-Gesprächsleiter Markus Schär eine Reihe von unbequemen Themen an, wie etwa den seit 17 Jahren anhaltenden Erwärmungsstopp, fehlgeschlagene IPCC-Prognosen oder natürliche klimatische Zyklen. Schär scheute sich nicht, beim Berner Professor konsequent nachzuhaken, wenn die eigentliche Frage unbeantwortet blieb oder wichtige Aspekte unerwähnt blieben. Im Folgenden wollen wir – mit freundlicher Genehmigung der Weltwoche – längere Auszüge aus dem Interview wiedergeben, einige Details ergänzen und Zusammenhänge diskutieren, die der Berner Professor im Eifer des Gefechts vergaß zu erwähnen. Im eingerückten Interviewtext sind die Fragen der Weltwoche in Fettschrift und die Antworten von Stocker in Normalschrift gehalten.

WELTWOCHE: Wie erklären Sie den Leuten die kälteren Winter der letzten Jahre?

STOCKER: Es gibt in der Schweiz keine lange Serie von kalten Wintern, jeder war anders. Grundsätzlich sage ich den Leuten: «Sie dürfen nicht auf die Temperaturen in einem Winter und von einer Station schauen, sondern müssen die vielen Jahre von sehr präzisen Beobachtungen betrachten, wenn Sie den langfristigen Trend erkennen wollen.» Und spezifisch zu diesem Winter gibt es ja Erklärungsansätze in der Wissenschaft. 

Jeder Winter war anders? Schauen wir eben mal nach Deutschland hinüber. Irgendwie haben die letzten 5 Winter hier doch etwas gemeinsam. Diplom-Meteorologe Dominik Jung von wetter.net berichtete im Februar 2013: „Mit dem aktuellen Winter sind nun fünf Winter in Folge kälter als das langjährige Mittel ausgefallen!“ (siehe unseren Blogartikel „Diplom-Meteorologe Dominik Jung: Der fünfte zu kalte Winter in Deutschland in Folge – Rekord!“). Stocker ist dies sichtlich unangenehm, daher lässt er diesen Umstand einfach aus und hofft, dass es keiner merkt.

Einige Kollegen führen die hartnäckigen Bisenlagen [in der Schweiz kalte winterliche Winde aus Nordosteuropa] gerade auf das Abschmelzen des Eises in der Arktis zurück. 

Ja, es gibt Hinweise aus einzelnen Studien – ich würde noch nicht von robustem Wissen sprechen –, dass die geringere Eisbedeckung der Arktis die Statistik beeinflusst, wie häufig dort Hochdruckgebiete auftreten. Diese wirken sich ja stark auf das Witterungsgeschehen in unseren Breitengraden aus, wie wir täglich erleben.

Die deutschen Kollegen, die diese Hypothese entwickelt haben, verkünden sie in den Medien als Wahrheit.

Ich verfolge nicht, was diese Kollegen sagen, und es ist nicht an mir, das zu kommentieren. Klar ist einfach: Wir müssen das Kommunizieren des grossen Problems der Klimaerwärmung rational angehen, also faktenorientiert informieren – dies gilt für alle Beteiligten. Das ist heute eine grosse Herausforderung, da alles in die 140 Zeichen eines Tweets passen soll. Bei einem so komplexen Thema geht das nicht: Wir müssen einerseits die Fakten kommunizieren, anderseits aber gerade auch die Unsicherheiten.

Die Erkenntnis der Kollegen liess sich locker vertwittern: «Die kalten Winter kommen von der Klimaerwärmung.»

Das ist die Aussage von ein, zwei Publikationen, aber noch kein wissenschaftlicher Konsens; einen Konsens zu bilden, ist ein harter Job. Wir können beim IPCC nicht jede einzelne Studie von allen Instituten weltweit aufnehmen. Es ist möglich, dass es im kommenden Bericht eine Aussage dazu gibt, wie die Eisbedeckung der Arktis die Statistik von Hochdruckgebieten beeinflusst. Aber vorläufig sind wir da noch am Arbeiten.

Ein herber Schlag für die Kollegen vom Potsdam-Institut für Klimafolgenforschung (PIK), die sich die Arktiseis-Theorie schnell ausgedacht hatten, nachdem die ersten Winter kälter als erlaubt ausfielen. Im Brustton der Überzeugung wurde der fragwürdige Repair-Patch dann in den Medien als Lösung des Winter-Paradoxons präsentiert. Nun ist es also amtlich: der IPCC Berichts-Chef sieht in der Potsdamer Idee kein robustes Wissen und keinen wissenschaftlichen Konsens.

Schön wäre an dieser Stelle gewesen, wenn Stocker auf eine andere Studie hingewiesen hätte, nämlich die von Mike Lockwood und Kollegen aus dem Jahre 2010. Diese hatten nämlich einen recht überzeugenden Mechanismus gefunden, bei dem kalte europäische Winter während solarer Schwächephasen entstehen können. Und was für ein Zufall, der aktuelle Sonnenzyklus ist der schwächste seit einhundert Jahren (siehe unseren Blogbeitrag „Wer ist Schuld am Kältewinter? MPI-Studie weist eher auf die schwache Sonne anstatt des arktischen Meereises hin. Die Sonne im März 2013“). Alles nur Theorie? Aus Stockers eigenem Institut, dem Oeschger-Zentrum für Klimaforschung in Bern kam im Januar 2013 eine Studie unter Leitung von Ulf Büntgen, die bestätigte, dass sich osteuropäische Kältephasen während der letzten 1000 Jahre in der Regel während solar inaktiver Zeiten ereigneten (siehe unseren Blogbeitrag „Osteuropäische Kälteperioden während solarer Schwächephasen“). Es ist schwer vorstellbar, dass sich Stocker plötzlich nicht einmal an die neuesten Forschungsergebnisse aus dem eigenen Hause erinnern kann, vermutlich eher nicht erinnern will. Passt halt nicht in Stockers Erzählstrang.

Wir Laien hätten einfach lieber Experten, die voraussagen, was kommt, als Experten, die hinterher erklären, warum es nicht so gekommen ist.

Das ist richtig. Deshalb schauen wir beim IPCC auch regelmässig zurück: Was haben wir im ersten Bericht von 1990 gesagt, was im zweiten von 1995, im dritten von 2001 und im vierten von 2007? Wir können nachvollziehbar zeigen, dass die Projektionen der mittleren globalen Temperatur bereits 1990 extrem gut lagen. Wir hatten also schon damals die wichtigen Blöcke des Wissens beisammen, um – selbstverständlich innerhalb der Unsicherheiten – die Temperaturentwicklung zuverlässig abzuschätzen. Aber wir behaupteten früher nie und behaupten jetzt nicht, wir könnten die Temperatur in zehn Jahren prophezeien. Eine solche kurzfristige Voraussage ist nicht möglich und wird nie möglich sein. Es gibt den Trend, aber er wird überlagert von kurzfristigen Schwankungen. Das haben wir immer so kommuniziert.

An dieser Stelle wird es für Stocker dann richtig brenzlig. Stocker behauptet forsch, die IPCC-Projektionen würden samt und sonders „extrem gut liegen“. Dies ist offensichtlich unwahr – und Stocker weiß es. Der real gemessene Temperaturverlauf ist gerade dabei, vollständig aus dem vom IPCC übersteigert vorhergesagten Temperaturband herauszulaufen, und Stocker ignoriert diesen Fakt stillschweigend und findet die fehlgegangenen Projektionen trotzdem „extrem gut“. Es ist gar nicht anders möglich, als diese Einlassung als bewusste Irreführung der fachfremden Leserschaft zu deuten. Die Weltwoche hat jedoch ihre Hausaufgaben gemacht und fällt zum Glück nicht darauf hinein. Einige Momente später wird die Zeitung Stocker darauf ansprechen. Zunächst jedoch muss der Redakteur einer anderen Pflicht nachkommen, nämlich die eigentliche Frage wiederholen, welcher Stocker versuchte plump auszuweichen.

Wir würden die Theorie der kalten Winter eher glauben, wenn sie nicht von denselben Leuten käme, die noch vor zehn Jahren sagten, unsere Kinder würden keinen Schnee mehr erleben.

Genau darum halten wir uns beim IPCC mit solchen Aussagen zurück.

Stocker opfert an dieser Stelle seinen klimaalarmistischen Mitstreiter Mojib Latif und distanziert sich vorsichtshalber von dessen Fehlprognose und medialer Panne, um selbst nicht in den Strudel mit hineingezogen zu werden. Ein weiser Schachzug. Nachdem dies geklärt ist, wird Stocker auf seine Flunkerei hinsichtlich der IPCC-Projektionen angesprochen.

Sie betonen, Sie hätten die Temperaturentwicklung richtig voraussagt. Aber genau das ist doch umstritten. Im Entwurf Ihres Berichtes, der im Herbst 2012 in die Begutachtung ging, zeigten Sie selber in einer Grafik, dass die Temperaturen der letzten Jahre tiefer liegen als alle Projektionen des IPCC. 

Wir sind gegenwärtig am unteren Rand, wenn Sie die letzten zehn Jahre anschauen, aber innerhalb der kommunizierten Unsicherheiten.

Zähneknirschend muss Stocker einräumen, dass die Projektionen doch nicht so „extrem gut“ liegen, wie er es zuvor behauptet hatte. Aber einen Versuch war es wert. Den meisten anderen Zeitungen wäre der Fehler gar nicht aufgefallen und Stocker wäre mit seiner Version durchgekommen. Jetzt will es die Weltwoche wissen und bohrt weiter nach:

Der allerunsichersten Unsicherheiten.  

Genau deswegen geben wir Unsicherheiten an. Aber wir müssen auch schauen: Gab es früher schon Perioden, in denen die globale Temperatur zehn oder fünfzehn Jahre stagnierte? Tatsächlich finden Sie mehrere solche Fenster in den letzten hundert Jahren. Das ist also nichts Aussergewöhnliches. 

Natürlich gab es bereits Kältephasen in der Vergangenheit. Und es fällt auf, dass die Kälte stets mit den kalten Phasen pazifischer und atlantischer Ozeanzyklen zusammenfiel, die im 60-Jahresrhythmus operieren. Den Zusammenhang will der IPCC jedoch nicht wahrhaben und behauptet munter, die Kälte würde keinem System folgend auftauchen und dann wieder verschwinden. Nur so konnte der IPCC so grandios an der Temperaturentwicklung der letzten anderthalb Jahrzehnte scheitern. Der Ozeanzyklus der sogenannten Pazifischen Dekadischen Oszillation (PDO) begann um 2000 von ihrem Scheitelpunkt abzusacken. Da war bereits klar, dass von der PDO in den kommenden Jahrzehnten nur noch Abkühlung zu erwarten war. Hätte der IPCC dieses empirische Vorhersagewerkzeug akzeptiert, würde er jetzt ein Problem weniger haben. Es gibt jedoch einen guten Grund, warum der IPCC den offensichtlichen PDO-Einfluss auf die globalen Temperaturen nicht zulassen wollte: Während der Haupterwärmungsphase 1977-2000 kletterte die PDO stetig nach oben und verharrte dann auf einem wärmenden Plateau. Offensichtlich drückte dies die Temperaturen einige Zehntelgrade nach oben, eine Erwärmung die der IPCC jedoch bereits dem CO2 zugemessen hatte. Und da man das CO2 in seiner Wirkung nicht reduzieren wollte, musste die PDO kurzerhand dran glauben, was sich in der Folge böse rächte.

Die Weltwoche spricht Stocker dann auf einen Umstand an, der manchem IPCCler wohl bereits schlaflose Nächte bereitet hat:

Der IPCC-Vorsitzende Rajendra Pachauri räumte kürzlich ein, bei der Klimaerwärmung gebe es inzwischen siebzehn Jahre Stillstand. 

Ich kann nicht vorschreiben, was irgendwelche Kollegen sagen.

Wie bitte? Kennt Stocker die real gemessenen Temperaturkurven nicht? Der Erwärmungsstillstand ist Fakt. Nach längerem Herumgeeiere musste schließlich sogar Pachauri die Pause einräumen. Ist Stocker ernsthaft der Meinung, Pachauri hat hier einen Fehler gemacht? Die Weltwoche gibt zu bedenken:

Er ist immerhin Ihr Chef. 

Meine Funktion ist es, mit dem internationalen Autorenteam den Stand des Wissens zusammenzufassen; daran arbeiten wir im Moment. Aus den Studien zu genau dieser Frage geht hervor: a) ist eine solche Stagnation nicht ungewöhnlich, b) werden wir solche Phasen auch in Zukunft sehen, und c) das ist wohl der wichtigste Punkt, gibt es Inzwischen über hundert Simulationen der Klimaentwicklung mit den neusten Modellen. Die Frage stellt sich also: Sehen wir Simulationen, die im Zeitraum zwischen 1998 und 2012 keine starke Erwärmung zeigen? Und solche Simulationen werden wir finden, nicht viele, aber eine oder zwei. Wir leben einfach in einer Realisierung des Klimasystems mit seinem Chaos der natürlichen Variabilität – in der einzigen beobachteten von vielen physikalisch möglichen.

Hier breitet Stocker die ganze IPCC-Herrlichkeit aus. Wortreich versucht er Gründe für den Erwärmungsstop zu finden und kann trauriger Weise kein einziges überzeugendes Argument nennen. Wie nicht anders zu erwarten, zaubert Stocker das mittlerweile deutlich überalterte Chaos-Modell aus dem Hut. Er hofft, dass einige wenige von den hunderten von Simulationen einen Erwärmungsstop in den letzten anderthalb Jahrzehnten zeigen könnten. Dies wäre dann der Beweis, dass die Modelle „extrem gut liegen“. Ist Stocker wirklich so naiv zu glauben, dass ihm irgendwer noch diese Art der Beweisführung abnimmt? Das ist so, als wenn man alle 49 Lottozahlen tippt und sich dann freut, dass bei der Ziehung dann alle stimmen. Fragwürdige Taschenspielertricks im Zeitalter der vermeintlich allwissenden Supercomputer.

Sie würden also nie sagen, dass wir siebzehn Jahre Stillstand der Klimaerwärmung beobachten? 

Nein, schon die Assoziation von «siebzehn Jahre» und «Klimaerwärmung» ist falsch. Wenn wir von der Klimaerwärmung reden, meinen wir den langfristigen Trend, den wir in der zweiten Hälfte des 20. Jahrhunderts sehen.

Das ist schon ein wenig mysteriös. In einer 2011 erschienenen Arbeit hatte nämlich Stockers ehemaliger IPCC-Kollege Ben Santer zusammen mit 16 Co-Autoren festgestellt, dass 17 Jahre durchaus ausreichen, um Klimatrends zu erkennen. Nun sind 17 Jahre seit Beginn des Erwärmungsstopps rum und plötzlich müssen es noch ganz viel mehr Jahre sein, bevor es zählen kann. Was nicht passt, wird passend gemacht. Nachhaltige Wissenschaft sieht anders aus.

Bei den Temperaturen sehen wir ihn gerade nicht.

Doch, wir erkennen die Signale in allen Komponenten des Klimasystems: an den Eisschilden, die an Masse verlieren; in den Ozeanen, die sich bis in 4000 Meter Tiefe messbar erwärmen; in der Atmosphäre, die sich in den tieferen Schichten erwärmt und oberhalb von 15 Kilometern abkühlt, also den Fingerabdruck des CO2 zeigt. Die Last der Evidenz von 130 Jahren Beobachtungen und Prozessverständnis wiegt so schwer, dass es mehr braucht als ein paar Jahre Stagnation, um ein solches in sich schlüssiges Gebäude zu zerstören. 

Erneut verstrickt sich Stocker in wissenschaftlich fragwürdige Argumentationen. Ist ihm wirklich nicht bekannt, dass die Antarktis insgesamt an Eismasse dank der Ostantarktis in den letzten Jahren zugenommen hat? (siehe unseren Blogbeitrag „Neue ICEsat-Satellitendaten sind da: Antarktischer Eisschild hat an Masse zugelegt“)? Auch wenn der grönländische Eispanzer derzeit abschmilzt (was er übrigens auch während der Mittelalterlichen Wärmeperiode vor 1000 Jahren getan hat), darf Stocker als IPCC-Führungskraft hier nicht einfach pauschalisieren und Rosinenpickerei betreiben, nur um seine persönliche Klimaalarm-Überzeugung zu stärken. Noch schlimmer ist der Hinweis auf den CO2-Fingerabdruck in der Stratosphäre. Neue Arbeiten haben dieses Konzept mittlerweile vollständig diskreditiert (siehe unsere Blogbeiträge „Keine guten Nachrichten für Mojib Latif: Neue Studie im Journal of Geophysical Research hinterfragt den stratosphärischen CO2-Fingeradruck“ und „CO2-Fingerabdruck löst sich in Luft auf: Neue Studie belegt Ozonwirkung auf Temperatur in der mittleren Atmosphäre“). Es ist ein Armutszeugnis, dass Stocker noch immer diesen „Beweis“ anführt der gar keiner ist. Erneut scheint er auf die Fachfremdheit der Leserschaft zu hoffen. Das angeblich so „schlüssige Gedankengebäude“ ist bei Tageslicht nichts weiter als eine wackelige Ruine, die jeden Moment einstürzen könnte.

Was würde es denn brauchen, dass Sie einen Stillstand der Klimaerwärmung einräumen? 

Sie wollen einfach eine Jahreszahl.

Nein, nur eine Grössenordnung: Reden wir von zehn oder von fünfzig Jahren?

Galileo sagte einst: «Und sie [die Erde] dreht sich doch.» Wir können sagen: «Und sie erwärmt sich doch.» Alle Indikatoren, die ich Ihnen genannt habe, deuten zusammen auf eine schlüssige Erklärung: Das CO2 ist verantwortlich für die Erwärmung. Ein Thema, das wir im neuen Bericht auch ansprechen, ist aber die Klimasensitivität. 

Also die Frage, wie stark die Temperatur steigt, wenn sich der CO2-Anteil in der Atmosphäre (vorindustriell rund 280, heute gegen 400 Teilchen pro Million) verdoppelt.

Im letzten Bericht von 2007 kamen wir auf einen Wert von 2 bis 4,5 Grad. Die Frage stellt sich jetzt: Geben die letzten fünfzehn Jahre einen Hinweis darauf, dass die Klimasensitivität eher im unteren Bereich liegt? Diese Diskussion läuft in der Wissenschaft, auch mit skeptischen Kollegen – da kann ich Sie beruhigen.

In der Tat gibt es hier eine Diskussion, in der sich die Anzeichen mehren, dass die sogenannte Klimasensitivität signifikant überschätzt wurde. Dazu muss man allerdings wissen, dass die Klimamodelle für den gerade entstehenden Bericht alle bereits gerechnet sind und hier keine Möglichkeit zur Änderung mehr besteht, ohne wieder ganz von vorne anzufangen und dabei das Gesicht zu verlieren. Der IPCC wird daher von seinem Mittelwert von 3 Grad pro CO2-Verdopplung kaum abrücken können. Dadurch wird Stockers Weltklimarat immer mehr manövrierunfähig und realitätsferner.

Die Weltwoche spricht dann eine Vermutung aus, die wohl die meisten schon einmal zumindest insgeheim gedacht hatten.

Schieben Sie Ihre Voraussagen nicht einfach so weit hinaus, damit wir alle nicht mehr erleben, ob sie tatsächlich eintreffen?

Wenn man es näher überlegt, ist dies in der Tat eine totsichere Strategie, um auch in mittlerer Zukunft keine positiven Simulationsresultate vorweisen zu müssen. Jeder Politiker, der einmal in Bedrängnis geriet und dessen Volk Resultate einforderte, kennt den Trick aus dem ‚Handbuch für wendige Machthaber‘. Stocker gibt vor, er würde sich über die Frage freuen und erzählt dann von Zukunftsprojekten, deren Qualität ebenfalls noch nicht bewertbar ist – und auch noch lange unbewertbar bleiben wird.

Merci für diese Frage, das ist eine super Steilvorlage. Ich kann Sie auf das Inhaltsverzeichnis unseres Berichts verweisen. Wir sagten 2009, wir hätten gerne ein Kapitel, das in die nähere Zukunft schaut, also Wettervorhersage und Klimaprojektionen zusammenbringt. Es heisst: Near-term climate change and predictability. «Voraussagbarkeit» ist das entscheidende Wort. Dieser Zweig der Klimaforschung ist noch relativ jung. Wir können nicht sagen, wie warm oder wie nass zum Beispiel das Jahr 2025 sein wird. Im Zeithorizont bis zirka 2035 müssen wir die verschiedensten Faktoren abschätzen: Was beeinflusst die Unsicherheiten, und wie gross sind sie? 

Dann müssen wir bis 2035 warten, um zu überprüfen, ob Sie recht bekommen?

Nein. Wie gesagt, beurteilen wir beim IPCC seit 1990 Klimaprojektionen, und diese sind bis heute messbar eingetreten. Wenn Sie mich fragen: Falls es mir vergönnt ist, das Jahr 2035 geistig fit zu erleben, werde ich zurückblicken auf eine kurze Phase der Temperaturstagnation, zu der eine Kombination von verschiedenen Effekten führte – falls nicht bis dann ein grosser Vulkan ausbricht.

Aber Herr Professor Stocker, das hatten wir doch alles schon. Die IPCC Temperaturprognosen seit 1990 sind „nicht messbar eingetreten“ sondern eher dürftig bis untauglich. Braucht der IPCC wirklich diesen dünnen Strohhalm, um nicht unterzugehen? Ein leichter Windstoß, und der IPCC-Kahn würde in den Tiefen des Ozeans versinken. Sieht so moderne Wissenschaft aus? Um etwas konkreter zu werden: Der Ozeanzyklen-Spezialist Mojib Latif warnte uns kürzlich aufgrund der kühlenden Phase der atlantischen und pazifischen Zyklen, dass auch im kommenden Jahrzehnt nicht unbedingt mit einer Erwärmung zu rechnen sei. Dies ist durchaus plausibel und entspricht dem empirischen Befund der letzten Jahrhunderte. Es ist daher vermutlich nur noch eine Frage von wenigen Jahren, dass die realen Temperaturen endgültig aus dem „unteren Rand“ des simulierten Temperaturbandes in vom IPCC für bislang unmöglich gehaltene Bereiche abdriftet. Dann bricht auch dieser letzte Strohhalm weg. Unangenehmerweise wird der heute 54-jährige Stocker dieses Ereignis wohl noch deutlich vor seiner Pensionierung erleben müssen. Ob er dann vielleicht irgendwann die Courage haben wird, über Fehler in den IPCC-Simulationen offen zu diskutieren? Aber warum bis dahin überhaupt warten? Bereits heute wäre es höchste Zeit, der Realität ins Auge zu schauen und die Abneigung gegenüber den natürlichen Klimafaktoren allmählich abzulegen.

Der Konsens des IPCC beruht darauf, dass das menschgemachte CO2 als Treibhausgas zur Klimaerwärmung führt. Aber dieser Zusammenhang lässt sich nur für die letzten 150 Jahre beobachten.

Schauen Sie das Plakat zu unseren Messungen am Eis aus der Antarktis über die letzten 800 000 Jahre an: Wenn das keine Korrelation zwischen Temperatur und CO2 ist! Der CO2-Gehalt, den wir im Eis messen können, war in Warmzeiten hoch und in Eiszeiten niedrig.

Bereits Al Gore tappte mit seinem Film in diese Falle. Hier werden offensichtlich Ursache und Wirkung vertauscht. Wird es wärmer, weil der CO2-Gehalt anstieg? Oder war es vielmehr andersherum und aus dem erwärmten Meerwasser sprudelte verstärkt CO2, da kaltes Wasser mehr Gase aufnehmen können als warmes? Die Weltwoche hat aufgepasst:

Doch die CO2-Werte stiegen nach den Temperaturen an, das CO2 kann also nicht die Erwärmung verursacht haben.

Über das Nachhinken der CO2-Werte haben wir mehrmals berichtet. Allerdings muss ich aufgrund neuerer Studien wohl langsam umdenken – doch nicht in die Richtung, die Sie gerne hätten: Die Studien zeigen, dass CO2-Werte und Temperaturen gleichzeitig stiegen. Getrieben wird die Abfolge von Warm- und Eiszeiten über 100 000 Jahre aber von den Zyklen, die der Geophysiker Milankovic 1920 beschrieb: Es kommt auf die Stellung und Schiefe der Erdachse und auf die Umlaufbahn um die Sonne an.

Das Nachhinken des CO2 gegenüber der Temperatur war dem IPCC lange ein Dorn im Auge. Deshalb machten sich IPCC-nahe Forscher daran, neue Studien zu produzieren, die diese zeitliche Abfolge mit fragwürdigen Methoden versuchten aufzuweichen (siehe unseren Blogbeitrag „Statistik-Trick befördert CO2 vom Beifahrer zum Chauffeur: Fragwürdiger neuer Shakun-Artikel in Nature“). Unter Zuhilfenahme dieser Maßanfertigungen kann Stocker nun den alten Al Gore Trick der ahnungslosen Leserschaft wieder als angeblichen Beweis präsentieren. Eine traurige Geschichte.

Viel wichtiger als die langperiodischen Milankovic-Erdbahn-Zyklen sind jedoch für unser heutiges Klimageschehen die Aktivitätsschwankungen des Sonnenkraftwerks. Die Weltwoche spricht Stocker darauf an:

Eben. Können wir mit dem Einfluss der Sonne die Klimazyklen nicht viel besser erklären?

Das gilt für die vorindustrielle Zeit, als der CO2-Anteil mehr als 30 Prozent geringer war als heute: Wir brauchen die Sonne immer als Teil der Erklärung – da haben wir keine Differenz. Aber die letzten fünfzig bis siebzig Jahre, vor allem auch die räumliche Ausprägung der Erwärmung, können wir ohne menschgemachte Faktoren nicht mehr schlüssig erklären. Warum stieg die Temperatur im 20. Jahrhundert um 0,8 Grad? Das ist ohne CO2 nicht zu begründen.

Genau, warum stieg eigentlich die Temperatur im 20. Jahrhundert um 0,8 Grad an? Brauchen wir wirklich das CO2 dazu? Und wenn ja, wie viel? Hat es in der Vergangenheit noch niemals derartige Erwärmungsschübe gegeben? Stocker schweigt hierzu eisern. Denn die wissenschaftlichen Fakten sind an dieser Stelle für ihn unangenehm und eindeutig. In den letzten 10.000 Jahren hat es derartige Erwärmungsphasen mehrfach in ähnlicher Höhe im Millenniumstakt gegeben. Und noch eine Überraschung: Der Hauptantrieb hierfür waren Sonnenaktivitätsschwankungen, wie zahlreiche Studien eindrucksvoll belegen konnten. Als hätte es bereits jemand geahnt, kommt hier bereits das nächste Puzzleteil: Laut einer Reihe von neueren Untersuchungen, die in namhaften Fachzeitschriften erschienen, zählte die zweite Hälfte des 20. Jahrhunderts zu den solar aktivsten der gesamten letzten 10.000 Jahre. Was für ein überaus großer Zufall. Leider entschied sich der IPCC, diesem Umstand keine gesteigerte Bedeutung zuzumessen. Neben dem PDO-Lapsus ein weiterer schwerer Defekt im IPCC-Gebäude.

Die Weltwoche weist Stocker auf die natürliche Zyklik hin, in deren Grundmuster sich die Erwärmung des 20. Jahrhunderts gut einpasst. Die Kleine Eiszeit war durch eine ausgeprägte Sonnenflaute geprägt.

Es gibt eine banale Erklärung: Bis ins 19. Jahrhundert herrschte eine kleine Eiszeit, um 1860 erreichten die Gletscher einen Höchststand. Da ist es doch ganz normal, dass es wieder etwas wärmer wurde.

Das gilt tatsächlich für die Gletscher ein Stück weit. Aber es erklärt nicht, wie schnell sie in den letzten dreissig, vierzig Jahren abschmolzen und wie stark die Erwärmung seit Beginn des 20. Jahrhunderts war. 

Die Sonne war in den letzten 50 Jahren so stark wie kaum zuvor und dies soll so rein gar nichts mehr mit der Temperatur- und Gletscherentwicklung zu tun haben? Und früher soll die Sonne und natürliche Zyklik dann doch eine Rolle gespielt haben, wobei unser Mutterstern dann ganz plötzlich in den letzten Jahrzehnten seine gesamte Klimakraft eingebüßt haben soll? Mit Verlaub, Herr Stocker, das macht nun wirklich keinen Sinn.

In der Römerzeit, als Hannibal mit Elefanten über die Alpen zog, gab es noch weniger Gletscher.

Ja, aber wir müssen uns fragen: Was war denn anders vor 2200 Jahren? Da kommt schon die Sonne ins Spiel: Aufgrund der Neigung der Erdachse gab es damals im Sommer mehr Sonneneinstrahlung, etwa 10 Watt pro Quadratmeter. Es ist offensichtlich, dass es da wärmer war.

Vor 2200 Jahren herrschte die Römische Wärmeperiode, eine der wiederholt aufgetretenen Wärmephasen im Millenniumstakt, die sich zu sonnenaktiven Zeiten ereigneten. Anstatt hierauf einzugehen, driftet Stocker lieber wieder zu seinen langperiodischen Milankovic-Zyklen ab, die im heutigen Klimageschehen keine Rolle spielen, und deren Wirkung er daher gerne zugeben kann. Ein durchsichtiges Ablenkungsmanöver. Wenn Stocker hier schon wieder Milankovic zitiert, hätte er doch gerne über das mittelholozäne Klimaoptimum 7000-5000 Jahre vor heute sprechen können, als es bereits 1 Grad wärmer als heute war. Ursache war damals in der Tat eine spezielle Milankovic-Erdbahngeometrie. Aber da diese lange, warme Phase der Vergangenheit nicht in das klimaalarmistische Konzept passt, geht Stocker nicht darauf ein.

Wird es Ihnen nicht mulmig, wenn die Astrophysiker sagen, dass die Sonne derzeit so schwächelt wie in der Kleinen Eiszeit des 17. Jahrhunderts?

Nein, denn die Voraussage der Sonnenaktivität ist heute noch nicht möglich, da fehlen leider genaue Daten und Modelle. Aber wir können auch nicht ausschliessen, dass eine solche Phase bereits begonnen hat. Sie wird jedoch wieder einmal enden – in der Zwischenzeit steigt der CO2-Gehalt aber weiter, das würde nachher zu einer umso stärkeren Erwärmung führen.

Oh lala. Nicht gut, Professor Stocker. Mittlerweile kann man schon fast von einem Konsens unter den Astrophysikern sprechen, dass die Sonne in den kommenden Jahrzehnten ihre Aktivität auf kleiner Flamme köcheln lassen wird. Zuletzt erschien hierzu sogar ein schweizerisches Paper von Steinhilber und Beer (siehe letzter Absatz in unserem Blogartikel „Wer ist Schuld am Kältewinter? MPI-Studie weist eher auf die schwache Sonne anstatt des arktischen Meereises hin. Die Sonne im März 2013“). Es gibt mittlerweile kaum noch eine Arbeit, die diesem Konzept widerspricht. Es nutzt daher nichts, sich an dieser Stelle dumm zu stellen und wie bei den Erwärmungspausen zu sagen, man wisse gar nichts und alles wäre nur Chaos. Dafür sind die Rekonstruktionen der Sonnenaktivität der vergangenen Jahrtausende dann doch zu regelmäßig, als dass man das Muster komplett ignorieren könnte. Noch schlimmer dann jedoch Stockers Verwechslung mit der Milankovic-Zyklik. Es geht hier um PRIMÄRE Sonnenaktivitätsschankungen mit Zyklen-Perioden von 11 bis 2000 Jahre, also Veränderungen in der Intensität des Wasserstoffreaktors auf der Sonne. Stockers Hinweis auf CO2-Veränderungen im Takte der Milankovic-Zyklik, also mit Perioden von 20.000 Jahren aufwärts geht vollständig am Thema vorbei. Kennt sich Stocker mit dem Thema wirklich nicht aus und kann die beiden Mechanismen nicht auseinanderhalten? Oder ist dies ein weiterer Versuch, die Diskussion ins Leere laufen zu lassen?

Der Schlussteil des Interviews spricht für sich und bedarf kaum eines Kommentars.

Kommen wir zum Grundsätzlichen. Der Soziologe Gerhard Schulze sagt: «Wissenschaft ist eine Veranstaltung der organisierten Skepsis.»

Das habe ich so noch nie gehört. 

In der Klimaforschung ist «Skepsis» ein Schimpfwort.

Der Begriff «Klimaskeptiker» wird oft verwendet, das ist so. Aber die Skepsis ist die treibende Kraft der Wissenschaft. Auch wir fragen: Ist das wirklich so? Haben wir das tatsächlich verstanden? Da unterscheidet sich die Klimaforschung überhaupt nicht von den anderen Wissenschaften.

Ihr Kollege Hans von Storch sagt aber in seinem aktuellen Buch «Die Klimafalle», die Klimaforscher hätten nicht genug über die Falsifikation nachgedacht, also das Widerlegen von Hypothesen, das allein eine Wissenschaft weiterbringt.

Das ist seine Sichtweise. Als wir damit begannen, die Klimaentwicklung der letzten fünfzig Jahre zu erforschen, arbeiteten wir doch gerade falsifizierend, indem wir alle möglichen Erklärungen testeten. Wir hätten auch zum Ergebnis kommen können: Die Erwärmung kommt zu 90 Prozent von der Sonne und zu 10 Prozent vom CO2. Aber alle Berechnungen zeigten das Gegenteil. 

War Ihr Ergebnis nicht schon in den Auftrag eingebaut, den das IPCC 1989 bekam?

Nein, der Auftrag lautete, offen und umfassend über den Stand des Wissens zur anthropogenen Klimaveränderung zu berichten. 

Eben: Dass die Klimaveränderung menschgemacht ist, stand von Anfang an fest. 

Überhaupt nicht. Millionen von Messdaten und das physikalische Verständnis bilden das Fundament dieser Aussage. 

Hans von Storch sagt auch: «Die Debatte darüber, dass wir uns irren könnten, ist tabuisiert. » Fragen Sie sich das nie?

Die Debatte über die Periode der geringen Erwärmung kam ja vor etwa drei Jahren auf. Im IPCC wird sie nicht tabuisiert, sondern eine Gruppe sichtet und beurteilt die publizierten wissenschaftlichen Studien – also nicht irgendwelche Blogposts oder Traktate – zu dieser Frage: Wie oft gab es in der Vergangenheit ähnliche Phasen der Stagnation? Wie wahrscheinlich sind sie in der Zukunft? Und welche Erklärungen gibt es dafür? Daraus machen wir im Bericht eine Box von drei, vier Seiten, also eine Gesamtschau zu diesem wichtigen Thema.

Was sind die Hauptaussagen Ihres Berichts?

Das kann ich heute der Weltwoche ebenso wenig sagen wie der New York Times.

Anders gefragt: Welche Reaktionen erwarten Sie in der Politik?

Das ist schwierig vorauszusagen. Die Klimaproblematik, das ist meine persönliche Einschätzung, steht derzeit sicher nicht zuoberst auf der Agenda, aber sie ist eng verknüpft mit der Energie und der Ressourcenpolitik. Wir können nur hoffen, dass die Klimapolitik wieder explizit zurück auf die Agenda kommt: Viele Entscheide, die wir jetzt fällen, etwa über die Energiesysteme, wirken auf Jahrzehnte hinaus – der Bericht soll deshalb einen Beitrag leisten, damit wir sie in Kenntnis aller Tatsachen treffen. 

Schon unzählige Male in den letzten Jahrzehnten sagten Klimaforscher, wenn bis zu einem bestimmten Datum nichts geschehe, sei es zu spät. Diese Daten sind alle verfallen, ohne dass etwas geschah.

Mit solchen Aussagen muss man extrem vorsichtig sein. Aber es gibt beim Klimawandel in der Tat Entwicklungen, die ab einem bestimmten Zeitpunkt nicht mehr umkehrbar sind. Ich schrieb deshalb letztes Jahr einen Artikel über «The Closing Door of Climate Targets»: Es fehlt die Erkenntnis, dass gewisse Klimaziele, zum Beispiel die Erwärmung unter 2 Grad zu halten, bald nicht mehr zu erreichen sind. Wir rasen in einem Auto auf die Wand zu und geben noch Gas, obwohl wir wissen, dass der Bremsweg kaum mehr reicht.

Das heisst: Die Menschheit begeht kollektiven Suizid.

Nein, aber die Anpassung an den Klimawandel und seine Auswirkungen wird sehr viel Geld kosten, also Ressourcen fordern, die wir sinnvoller hätten einsetzen können. Und sie wird zu Konflikten um diese Ressourcen führen.

Sie machen trotzdem keinen depressiven Eindruck.

Nein, wenn ich depressiv wäre, würde das meine Fähigkeit beeinträchtigen, die Erkenntnisse der Wissenschaft zu verbreiten. Sollte ich in die innere Emigration gehen und nicht mehr über das Problem reden? Das mache ich nicht: Das Problem ist da, es ist eines der grössten der Menschheit, und wir haben die Wahl, wie gross es sein wird. Darüber will ich informieren. 

Es dauerte ganz bis zum Schluss, bis sich Stocker als Aktivist outet: „Das Problem ist da, es ist eines der grössten der Menschheit“, sagt er. Es sollte bedenklich stimmen, wenn sich ein IPCC-Oberschiedsrichter, der eigentlich unvoreingenommen die Fachliteratur sichten und zusammenfassen sollte, persönlich eindeutig für die klimaalarmistische Seite entschieden hat. Wie stehen in solch einem Fall die Chancen, dass der IPCC angesichts der starken Hinweise auf die maßgebliche Beteiligung von natürlichen Klimafaktoren an der Klimaerwärmung seine überzogenen Temperaturprojektionen revidiert und seine Modelle modifiziert? Wie würde Stocker plötzlich dastehen, wenn es zwar einen gemäßigten anthropogenen Klimawandel gibt, dieser aber weit weniger dramatisch ausfällt als von ihm in der Vergangenheit und auch heute noch so vehement verkündet? Eine der wichtigsten Aufgaben für den IPCC in den kommenden Jahren wird es sein, persönliche Interessenskonflikte wie diesen zu verhindern und für einen ausgewogeneren, skeptischeren Umgang mit Forschungsresultaten zu sorgen. Bis dahin werden die IPCC-Berichte leider auch weiterhin keinen vernünftigen Beitrag zu einem besseren Verständnis der komplexen klimatischen Zusammenhänge liefern können.

Ein abschließender EIKE-Kommentar

Die Antworten von Stocker und die zugehörigen Kommentare von Vahrenholt/Lüning sprechen für sich. Wir gratulieren dem Redakteur der Weltwoche, Markus Schär, für seine geschickte Interviewführung und seine – gemessen an den üblichen Kenntnissen von Fachredakteuren – gute Expertise zur komplexen Klima-Materie.

Unsere Meinung zu Stocker deckt sich mit der von Vahrenholt/Lüning. Stocker ist ein AGW-Aktivist, der Objektivität in seinen wissenschaftlichen Verlautbarungen leider vermissen lässt. Stellvertretend hierzu seine Aussage

"Es fehlt die Erkenntnis, dass gewisse Klimaziele, zum Beispiel die Erwärmung unter 2 Grad zu halten, bald nicht mehr zu erreichen sind. Wir rasen in einem Auto auf die Wand zu und geben noch Gas, obwohl wir wissen, dass der Bremsweg kaum mehr reicht".

Diese Aussage muss angesichts des aktuellen Stands der Fachliteratur als absurd bezeichnet werden. Bis heute gibt es nämlich keine einzige begutachtete Veröffentlichung, die einen anthropogenen Einfluss auf die mittlere Globaltemperatur belegen kann. Von einem 2 °C Ziel ist in der Fachliteratur nichts aufzufinden. Die Klimasensitivität des CO2, gewonnen aus Labormessungen, liegt zwischen 0,4 und 1,1 °C (Harde und IPCC). Diese Werte sind völlig unbedeutend. Verdoppelung der CO2 Konzentration (darauf bezieht sich die Definition der Klimasensitivität des CO2) ist ohnehin nur mit dem Verfeuern aller fossiler Brennstoffressourcen erreichbar.

Stocker und dem IPCC ist es selbstverständlich "unbekannt", dass Ballon- und Satellitenmessungen Gegenkoppelungen an Stelle der fiktiven Klimamodellrückkopelungen auffinden (s. die zahlreichen References hier). Erst Klimamodell-Phantasieprodukte lassen politische Aussagen wie von einem 2 °C Ziel überhaupt zu. Man kann das fachlich unbelegbare 2 °C Ziel oder gar das Stocker’sche "gegen die Wand fahren" getrost dem Papierkorb überantworten. Die Interviewaussagen von Stocker sind erhellend, denn sie lassen desaströse Zustände und eine einzigartige politisch-ideologische Korrumpierung in großen Teilen der heutigen Klimaforschung zu Tage treten.

Der nachfolgende Leserbrief ist von Prof. Friedrich-Karl Ewert an die Weltwoche geschickt worden, ob er veröffentlicht wurde, ist uns nicht bekannt:

Leserbrief zum Interview mit Prof. Stocker, „Und die Erde erwärmt sich doch“:

 „Und die Erde erwärmt sich doch“ meint Thomas Stocker und scheint das eher zu fürchten, obwohl das Leben auf der Erde in Warmzeiten immer besser gediehen ist als in kühlen. Diese haben vor mindestens 15 Jahren wieder mal begonnen, und keiner weiß, ob und wie lange sie dauern. Denn die offiziellen Klimaprognosen beginnen ja immer erst nach dem eigenen Pensionsalter.

Wer zum Wettergeschehen sagt “Seine natürlichen Variationen konnten wir in den letzten 130 Jahren mit einem globalen Messnetz beobachten; wir können also die normalen Schwankungen abschätzen“ mag seine Schulphysik kennen, von der Erde hat er nicht nur keine Ahnung, sondern er weiß auch nicht, dass er das nicht weiß. Universalgelehrte gibt es schon lange nicht mehr, Teilwissen ist also die Regel. So weit, so gut, weil nicht mehr zu ändern. Aber was soll man von Klimaforschern halten, die nicht wissen, dass unsere Klimageschichte schon 4,5 Mrd Jahre dauert, und dass die Erde in 130 Jahren noch nicht mal einen Bruchteil jener Möglichkeiten erfahren hat, mit denen das Wetter die jeweils Lebenden verwöhnt oder malträtiert hat – und die auch immer wieder eintreten können? Dass es schon lange vor unserer Zeit Erwärmungen von bis zu 5° in 10 Jahren gab?  Dass der Globus trotz vielfach größerer atmosphärischer CO2-Gehalte bis zum 35sten Breitengrad vergletschert war? Dass das Mittelalter warm und die Barockzeit kalt waren? Weitere Beispiele wären jetzt peinlich, denn ein paar Buchstaben des Kleinen Alphabets wird ja wohl auch der klimaforschende Physiker kennen, dem das Fach Geschichte unsympathisch war – was immerhin den Vorteil hat, auf dem Weg zum prominenten Klimaforscher keine Skrupel überwinden zu müssen. Wie auch immer: 130 Jahre sind für die Erdgeschichte weniger als ein Wimpernschlag – es sind der 34 Millionen, 615 Tausend und 284ste Teil der Erdgeschichte.

Globales Messnetz? Aus zwei Gründen falsch! 1) Um Entwicklungen zu beurteilen, braucht man Vergleiche. Die sind bestenfalls in 30 Jahren möglich, denn ungefähr solange funktioniert die Sattelitenbeobachtung schon, und die nächsten 30 Jahre brauchen wir noch, wollen wir der Klimadefinition der WMO gerecht werden. 2) Und vorher? Ozeane, Seen, Gebirge, Wüsten, Sümpfe, Urwälder und die Polargebiete blieben unbeobachtet, so dass die dortigen Entwicklungen nicht bekannt sein können. Wenn es viel ist, kennen wir die Entwicklung vielleicht von 15% der Erdoberfläche

Und nun die Eisbohrkerne. Ihre Lufteinschlüsse sollen die Luftzusammensetzung der Atmosphäre anzeigen. Was wäre vor ihrer ja nicht billigen Entnahme zu klären? Wenn der Schnee frisch gefallen ist, hat er ein sehr großes luftgefülltes Porenvolumen. Die Luft wurde bei der Zusammenpressung des Schnees über Firn zum Eis größtenteils ausgepresst. Alle seine Komponenten im gleichen Maße?  Außerdem: Die beim Schneefall eingeschlossene Luft repräsentierte ein nivales Klima. Darf man annehmen, ihre Zusammensetzung über den warmen oder kalten Ozeanen, den warmen oder kalten Trockengebieten und den feuchtwarmen Tropen war die gleiche wie über den Kaltgebieten?

In seinem Vortrag beim Treffen der Nobelpreisträger 2012 in Lindau hat Ivar Giaever die Klimaforschung als Pseudowissenschaft charakterisiert – und den Klimawandel als Pseudoreligion. Thomas Stocker beweist mit seinem Interview, dass es nun auch den Gläubigen Thomas gibt.

Friedrich-Karl Ewert, Michael Limburg, Horst-Joachim Lüdecke, Klaus-Eckart Puls, Carl Otto Weiss




Kernenergie: 100 Gründe und 100 gute Antworten. Fortsetzung #25 bis #27

..Kernkraftwerke müssen 200 mal so stark wie Krankenhäuser gegen Erdbeben abgesichert sein, aber nur bei Kernkraftwerken gibt es in der Sladek-Welt Verletzte (#25). Außerdem sind Kernkraftwerke wahre Flugzeug-Magneten (#26). Der doppelt gepanzerte und von Betriebsgebäuden eingerahmte Europäische Druckwasserreaktor EPR wird von Flugzeugen natürlich locker durchschlagen (#27), und alles, was möglich ist, tritt in der Katastrophenwelt der Sladeks auch prompt ein. Dabei wird permanent der Reaktorkern mit der Außenhülle, und der Schadensfall mit einer internationalen Katastrophe verwechselt. Nur der kleinste Riss in der Außenhülle, und die Welt ist verloren. Wir trauern schon jetzt um die Sladeks.

Hundert gute Antworten #25 – #27, die bisherigen Antworten finden Sie in den EIKE-News (Energie) vom 29.3.2013, 3.4.2013, 7.4.2013, 10.4.2013, 16.4.2013, 19.4.2013.

#25: Erdbebengefahr

Behauptung: Atomkraftwerke sind nicht ausreichend gegen Erdbeben geschützt.

Die EWS behaupten

Fessenheim bei Freiburg, Philippsburg bei Karlsruhe und Biblis bei Darmstadt – alle drei Atomkraftwerke stehen im Oberrheingraben, der seismisch aktivsten Zone Deutschlands. Trotzdem sind sie wie alle Reaktoren in Deutschland;nur leicht gegen Erdbeben gesichert.

Das Atomkraftwerk Fessenheim etwa würde ein Beben, wie es 1356 die Stadt Basel zerstörte, nur überstehen, wenn das Epizentrum mindestens 30 Kilometer entfernt wäre. Ob sich die Kräfte im Untergrund daran wohl halten?

Das Atomkraftwerk Biblis ist nur gegen Erdbeschleunigungen von 1,5 m/s2 ausgelegt. Seismologen erwarten zwischen Mannheim und Darmstadt allerdings deutlich stärkere Stöße. Und im kalkigen Untergrund des AKW Neckarwestheim wäscht das Grundwasser Jahr für Jahr bis zu 1.000 Kubikmeter neue Hohlräume aus.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Auch ein Vielfaches der 1,5 m/s2 ist technisch kein Problem, wie japanische Reaktoren zeigen. Da derartige seismische Beschleunigungen an einem in Deutschland stehenden Kernkraftwerk statistisch aber nur alle 100.000 Jahre zu erwarten sind, ist eine höhere Auslegung nicht sinnvoll. Diesbezüglich hat sich sogar die EU-Kommission in ihrem letzten Stresstest geirrt, die offenkundig sämtliche Berichte deutscher Behörden und Betreiber zur Erdbebensicherheit nicht richtig gelesen hatte. Die seismischen Messinstrumente und Standsicherheiten gegen das oben genannte Bemessungserdbeben sind natürlich vorhanden sowie vorgeschrieben. Zum Vergleich, Notfalleinrichtungen wie Krankenhäuser sind auf seismische Aktivitäten ausgelegt, wie sie alle 500 Jahre auftreten. In diesen Einrichtungen sind dann Opfer garantiert, nicht aber bei Kernkraftwerken.

Außerdem gibt es eine große Sicherheitsmarge, so dass deutsche KKWs vermutlich auch die doppelte Erschütterung schadlos überstehen. Und auch hier gilt natürlich: Ein Schadensfall bedeutet noch lange keine Kernschmelze, und eine Kernschmelze noch lange keine nennenswerten Kontaminationen bei der Bevölkerung.

Quellen von KRITIKALITÄT


#26: Flugzeugabsturz

Behauptung: Atomkraftwerke sind nicht gegen Flugzeugabstürze geschützt.

Die EWS behaupten

Kein Atomkraftwerk in Deutschland würde den Absturz eines vollgetankten Passagierflugzeuges überstehen. Das hat die Gesellschaft für Reaktorsicherheit in einem – ursprünglich geheimen – Gutachten für das Bundesumweltministerium erläutert.

Sieben Reaktoren haben sogar nur so dünne Betonwände, dass bereits der Absturz eines Militärjets oder ein Angriff mit panzerbrechenden Waffen eine Katastrophe auslösen kann.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Statistisch gesehen muss ein deutsches Kernkraftwerk alle 1,6 Millionen Jahre mit einem Treffer durch ein Verkehsflugzeug rechnen. Selbst für die sieben älteren Reaktortypen, die nicht explizit gegen Flugzeugabstürze gesichert sind, führt dies nur mit einer Wahrscheinlichkeit von 15% zum Durchschlagen der äußeren Hüllen. Die neueren Reaktoren haben deutlich dickere Außenwände, der EPR, den Deutschland maßgeblich mitentwickelt hat, aber nun nicht mehr haben will, sogar eine Doppelwand.

Und selbst wenn das Flugzeug ein Loch reisst und es innen zu Bränden und Kühlmittelverlust käme – eine Kernschmelze zu bewerkstelligen ist extrem schwierig, da die Sicherheitsvorrichtungen überall verteilt sind. Die mehrere Meter dicke innere Barriere (biologischer Schild und Reaktordruckbehälter) schirmt den schmelzenden Kern ab, über einen separaten Kamin kann gefiltert entlastet werden – die Folgen für die Bevölkerung wären dieselben wie 1979 in Harrisburg, nämlich außer einer kurzen (unnötigen) Evakuierung, keine. Panzerbrechende Geschosse scheitern zwangsläufig an den viel zu dicken inneren Barrieren.

Flugzeuganschläge auf Kernkraftwerke haben nicht mal versuchsweise stattgefunden. So makaber es klingt – Terroristen können offensichtlich rechnen.

Quellen von KRITIKALITÄT


#27: Einstürzende Neubauten

Behauptung: Selbst neue Reaktortypen sind nicht sicher.

Die EWS behaupten

Auch bei dem angeblich so hochmodernen Europäischen Druckwasserreaktor (EPR), an dem der französische Atomkonzern AREVA derzeit in Finnland und Frankreich baut, sind schwere Unfälle bis hin zur Kernschmelze möglich. Große Mengen radioaktiver Stoffe könnten in die Umgebung gelangen. Die Leittechnik, die den Reaktor steuern und im Notfall sicher herunter fahren soll, halten die finnische, die britische und die französische Atomaufsicht gar für so riskant, dass sie dagegen mit einer gemeinsamen Erklärung protestierten.

Noch nicht einmal gegen einen simplen Flugzeugabsturz ist der angeblich supersichere neue Reaktor geschützt. Anstatt dessen Bau zu stoppen, stempelte die französische Regierung die brisante Expertise lieber zur militärischen Verschlusssache.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Es handelt sich mitnichten um eine Protestnote. Die drei Aufsichtsbehörden haben lediglich ihren Job getan und Verbesserungen vorgeschlagen, die von AREVA sofort umgesetzt wurden. In der gleichen Note werden die gute Zusammenarbeit und die hohen Sicherheitsstandards gelobt.

Allgemeinplätze wie „schwere Unfälle sind möglich” sind bedeutungslos, wenn keine Wahrscheinlichkeiten dafür angegeben werden. Die sind nämlich extrem gering, wie umfangreiche Studien zeigen. Die Wahrscheinlichkeit eines Schadensfalls, der noch lange nicht zu einer Kernschmelze führt, ist beim EPR 1:1.000.000 pro Jahr. Sogar ein komplett geschmolzener Reaktorkern, wie es ihn in der ganzen Geschichte noch nie gegeben hat, kann hier noch kontrolliert gespeichert und gekühlt werden.

Gerade gegen Attacken von außen wie Flugzeugabstürze ist der EPR durch die gesamte Bauweise (meterdicke doppelwandige Stahlbetonsicherung) und die kompakte Anordnung der umliegenden Gebäude extrem gut gesichert, das kann sogar ein Laie erkennen. Nur noch die allergrößten Jumbojets könnten bei einem gezielten Anflug mit hoher Geschwindigkeit rein hypothetisch die Kuppel beschädigen, kaum aber das Innenleben, und schon gar nicht den Reaktorkern. Dass der EPR „nicht einmal gegen einen simplen Flugzeugabsturz” geschützt sei, ist eine freie Erfindung. Oder eine freche Lüge.

Quellen von KRITIKALITÄT





Der Mythos vom wissenschaftlichen Konsens: Faktencheck von Schellnhubers „Drei bequeme Unwahrheiten“

Artikel von Schellnhuber aus den Salzburger Nachrichten

Die Angriffe der „Klimaskeptiker“erfordern fächerübergreifende Solidarität. Sie wollen am System der Wissenschaft rütteln und sind von einem Geist der Antiaufklärung getragen.

Die Hassmails sind das Geringste. Als Betrüger und Lügner werden Klimawissenschafter tagtäglich beschimpft; jedenfalls die unter ihnen, die in den Medien sichtbar sind. Schon gravierender sind manche Drohungen: Bei einem Vortrag in Australien reckte mir jemand eine Henkersschlinge entgegen, und Forscherkollegen an der Universität Canberra wurden vor Kurzem in sogenannte sichere Büros umgesiedelt.

Vollends bizarr aber ist, wie in der öffentlichen Debatte über die Erderwärmung sogenannten Klimaskeptikern Raum gegeben wird. Dabei werden etwa Ansichten von Kohle-Lobbyisten oder von eifrig-eifernden Pensionisten, die in ihrem Berufsleben möglicherweise tüchtige Ingenieure waren, gern mit den nach den Regeln des Wissenschaftssystems gewonnenen Erkenntnissen auf eine Stufe gestellt.

Um drei bequeme Unwahrheiten geht es dabei.

Die erste: „Es gibt keine vomMenschen verursachte globale Erwärmung.“

Dabei ist gerade in diesem Fall das SystemWissenschaft so einig wie sonst selten. Von 13.950 zwischen 1991 und 2012 veröffentlichten Studien, deren Erkenntnisse im bewährten Verfahren der peer review – der Begutachtung durch andere und durchaus konkurrierende Forscher – erhärtet wurden, sehen nur 24 keinen anthropogenen (also vom Menschen verursachten) Treibhauseffekt.

Damit stehen 99,87 Prozent 0,17 Prozent gegenüber; eindeutiger kann freie Forschung nicht sein. Die zweite bequeme Unwahrheit: „Es mag den Klimawandel geben, aber er ist unschädlich, wenn nicht gar nutzbringend.“Die Wissenschaft jedoch zeigt klar auf, wie drastisch die negativen Auswirkungen ausfallen dürften – auch wenn ihr genaues Ausmaß, der Zeitpunkt ihres Eintretens, die regionale Verteilung weiter Gegenstand intensiver Forschung sind.

Die Zunahme von Wetterextremen, der Anstieg des Meeresspiegels, Veränderungen des etwa für arme Reisbauern in Indien lebenswichtigen Monsuns et cetera sind gut belegte Projektionen. Die Weltbank hat erst kürzlich einen Bericht des Potsdam-Instituts für Klimafolgenforschung zu einer vier Grad Celsius wärmeren Welt auf die globale politische Tagesordnung gesetzt.

Es ist ein Gebot der Vorsorge, jetzt zu handeln, trotz fortbestehender Unsicherheiten. Die dritte bequeme Unwahrheit: „Es gibt gefährlichen Klimawandel, aber der Kampf dagegen ist längst verloren.“

Aus der Sicht des Physikers ist es jedoch sehr wohl weiter möglich, durch die scharfe Minderung der Emission von Treibhausgasen umzusteuern. Nichts im Erdsystem steht dem dagegen. Auch die Ökonomen rechnen vor, dass es die Welt nur wenige Prozentpunkte Wirtschaftswachstum kosten würde, den fossil-nuklearen Entwicklungspfad zu verlassen – während die Kosten des Klimawandels erschreckend hoch ausfallen könnten.

Nun sagen Skeptiker, dass der notwendige politische Wandel unrealistisch sei.

Das allerdings hat mit Wissenschaft nichts zu tun. Und wer auf die wahrscheinlichen Folgen der ungebremsten Erwärmung blickt, kann solch bequeme Resignation nur zynisch finden.

Verblüffenderweise löst all dies keinen Aufschrei aus. Nicht in der Öffentlichkeit, wo so manche in Politik und Medien es „unterhaltsam“ finden, wenn die Erkenntnisse der Wissenschaft diffamiert werden.

Auch nicht bei den Forschern anderer Fächer, obwohl von den Klimaskeptikern das System derWissenschaft als solches angegriffen wird.

Der US-Wissenschafter Benjamin Barber hat die Attacken auf die Klimaforschung als anti aufklärerisch bezeichnet. Sie seien vom gleichen Geist getragen wie der Kampf von bibeltreuen Anhängern der Schöpfungslehre gegen die von Darwin entwickelte Wissenschaft von der Entstehung der Arten. Deshalb ist der Konflikt um die Klimaforschung einer, der alle Geistesarbeiter angeht.

Es wäre somit ein Präzedenzfall für fächerübergreifende Solidarität. Hans Joachim Schellnhuber ist Direktor des Potsdam-Instituts für Klimafolgenforschung (PIK) und Professor für Theoretische Physik an der Universität Potsdam. Schellnhuber ist Vorsitzender des Wissenschaftliche Beirats der deutschen Bundesregierung Globale Umweltveränderung und langjähriges Mitglied desWeltklimarates (IPCC).

So weit Schellnhuber in den Salzburger Nachrichten vom 2. April 2013. Treffen seine Vorwürfe an die sogenannten Klimaskeptiker zu? Wir machen den Faktencheck.

Vor unserem Faktencheck einige klärende Anmerkungen

Zunächst ist ein Kommentar erforderlich zur Beschwerde Schellnhubers über Hassmails und ein Ereignis anlässlich einer seiner Vorträge in Australien, wo ihm eine Henkersschlinge entgegengehalten wurde. Wir schließen uns der Beschwerde Schellnhubers an. Solche Vorgänge sind nicht hinnehmbar. Die Klimadiskussion darf die Sachebene und angemessene Umgangsformen dem Meinungsgegner gegenüber niemals verlassen. Der Stil von Internet-Veröffentlichungen, wie man sie jüngst hier, hier oder hier auffinden kann, ist nicht tolerabel, selbst wenn man ihren sachlichen Inhalten teilweise zustimmt.

Allerdings können wir auch Schellnhuber Vorwürfe nicht ersparen. Klimaskeptiker als „Kohle-Lobbyisten“ oder „eifrig-eifernde Pensionisten“ zu diffamieren, entspricht nicht den geforderten Umgangsformen. Auch offensichtliche Propagandalügen sind inakzeptabel, so wie: „Vollends bizarr aber ist, wie in der öffentlichen Debatte über die Erderwärmung sogenannten Klimaskeptikern Raum gegeben wird“. In welcher TV-Sendung, welchem Rundfunkprogramm oder welchen überregionalen Zeitungen wird „Klimaskeptikern Raum gegeben„, wo werden sie eingeladen, um ihre Argumente vorzubringen? Eine bewusste Unwahrheit Schellnhubers oder ein Fall von kognitiver Dissonanz?

Schellnhuber als Klimaberater der Kanzlerin Angela Merkel kann sich über zu wenig Raum zur Verbreitung seiner Auffassung in den Medien nicht beschweren. Wäre er ein echter Wissenschaftler müsste er freilich jede Gegenmeinung und jede Diskussion begrüßen, denn für die wissenschaftliche Wahrheitsfindung sind kontroverse Diskussionen das Salz in der Suppe, genauer, sie sind für eine ordentliche wissenschaftliche Kultur unabdingbar. Seine Beschwerde, Skeptikern werde zu viel Raum gegeben, ist nicht nur sachlich falsch, sie bezeugt zudem unübersehbar einen Hang zum wissenschaftlichen Dogmatismus.

„Fächerübergreifende Solidarität“, wie von Schellnhuber gewünscht, wäre das Ende jeder freien Wissenschaft, denn sie entspräche den wohlbekannten Unterdrückungsmethoden in Diktaturen. Tatsächlich ist „fächerübergreifende Solidarität“ die Forderung nach Befolgung eines von selbsternannten Wissenschaftshütern aufgestellten wissenschaftlichen Dogmas. Sie kann nur dazu dienen, „Abweichler“ unter den Kollegen auszugrenzen und in Reihe zurück zu zwingen. „Fächerübergreifende Solidarität“ ist undemokratisch, freiheitsfeindlich, meinungsgleichschaltend und völlig unwissenschaftlich. Man kann solchen Forderungen nur mit allen gebotenen Mitteln entgegentreten. Die Solidaritätsforderungen Schellnhubers sind die Samen der späteren Gewächse von wohlbekannten Welterlösungslehren (Kommunismus), deren Wege bekanntlich Millionen Menschenopfer pflasterten.

Schellnhubers Forderung „trotz der bestehenden Unsicherheiten“ zu handeln, ist verantwortungslos. Sie verhindert wirksamen Naturschutz und ist nur unter einem ideologisch motivierten Drang zur Gesellschaftsveränderung zu verstehen, die nicht zu den Aufgaben eines Wissenschaftlers gehört. Es gibt nämlich unzählige Schädigungen, die die Menschheit verantwortet. So sind wir, um einige stellvertretende Beispiele zu nennen, auf dem besten Wege, den Fischbestand der Weltmeere zu vernichten, die Trinkwasserressourcen in Dürreländern aufzubrauchen, die Tropenwälder zu zerstören und die Artenvielfalt maßgebend zu reduzieren. Welche Remedur soll aber angesichts unserer begrenzten Mittel Vorrang haben? Immerhin gibt es beim Schutz der Weltmeere oder der Tropenwälder NICHT die von Schellnhuber eingestandenen „BESTEHENDEN UNSICHERHEITEN“. Hier ist jeder ausgegebene Euro (Dollar) auf seine Wirkung hin überprüfbar. Vom Schutz der Weltmeere und den weiteren hier genannten Naturschutzmaßnahmen hört man hierzulande freilich nichts mehr. Selbst Greenpeace scheint sich vom Naturschutz (Tiere) inzwischen verabschiedet und auf die lukrativeren Themen „Klimaschutz“, die Bekämpfung von Gentechnik und der Kernenergienutzung verlegt zu haben.

Bei der CO2–Vermeidung kann von Wirksamkeitsüberprüfung nicht die Rede sein. Viele Klimawissenschaftler (siehe „Mythos Konsens“ weiter unten) bezeugen, dass die extrem teuren CO2-Vermeidungsmaßnahmen völlig unwirksam sind. Der Autor schließt sich dieser Einschätzung an. Wir würden daher gerne von Schellnhuber hören, wie er seine apokalyptischen Warnungen und Handlungsdirektiven angesichts der von ihm genannten Unsicherheiten WISSENSCHAFTLICH begründen kann. Von seinem politischen 2 °C Ziel ist jedenfalls in der begutachteten Klima-Fachliteratur nichts aufzufinden.

Ein weiter Beleg, der an der Ehrlichkeit der Motive von Schellnhuber Zweifel aufkommen lässt, ist seine Forderung, „den fossil-nuklearen Entwicklungspfad zu verlassen“. Die Forderung, den fossilen Pfad zu verlassen, können wir zumindest nachvollziehen, denn sie fügt sich in seine AGW-Hypothese ein. Aber den nuklearen Pfad verlassen? Kernenergie ist bekanntlich CO2-frei. Was hat Schellnhuber gegen die nukleare Energienutzung von bekanntlich höchster Wirtschaftlichkeit? Die Welt um uns herum handelt ersichtlich anders, denn der Siegeszug der Kernkraft ist unaufhaltbar. Schellnhubers nukleare Antipathie ist unlogisch und irrational, hier spielen offenbar andere Ziele mit. Der Glaubwürdigkeit seiner wissenschaftlichen Aussagen hilft dies kaum weiter.

Nun aber endlich zu Schellnhubers drei bequemen Unwahrheiten, die seiner Meinung nach die Kernaussagen der Klimaskeptiker bilden!

Unser Faktencheck

Erste „bequeme Unwahrheit“ nach Schellnhuber

„Es gibt keine vom Menschen verursachte globale Erwärmung“. Schellnhuber nennt hierbei 13.950 begutachtete Studien zwischen 1991 und 2012, die seiner Meinung nach das Gegenteil erhärten würden und nur 24 Studien, die keinen vom Menschen verursachte Treibhauseffekt sehen.

Richtig ist….

Gutachter (Peer Reviewer) sind ausgesuchte Experten, die, zumindest im Prinzip, die Kriterien „Neutralität“ und „beste Fachkenntnisse“ erfüllen. Daher müssten selbst 24 BEGUTACHTETE Studien schon zu berechtigter Skepsis an der AGW-Hypothese Anlass geben. Es gibt aber tatsächlich bis heute KEINE EINZIGE begutachtete Publikation, die die Frage nach dem Einfluss des anthropogenen CO2 auf Erdtemperaturen auch nur annähernd beweiskräftig angehen konnte. Dazu ist der Erwärmungseffekt des anthropogenen CO2 zu klein, er geht im Rauschen der natürlichen Temperaturvariationen unter und kann nicht direkt gemessen werden. Wie Schellnhuber auf seine Zahlen (13.950 gegen 24) kommt, bleibt daher sein Geheimnis. Die folgenden Quellen hier und hier, die jede Publikation beim Namen nennen, sagen etwas komplett anderes aus. Schellnhubers 24 ist absurd, allein schon der Autor kann auf Anhieb und ohne nachzusehen bereits mehr als 24 skeptische, begutachtete Klima-Fachveröffentlichungen nennen. Unter diesen skeptischen Publikationen befinden sich sogar zwei aus der Feder SCHELLNHUBERS selber. Eine analysierte die Temperaturentwicklung des 20. Jahrhunderts, die andere übte fachliche Kritik an Klimamodellen.

Schellnhuber hat tatsächlich selber wissenschaftlich gearbeitet, bevor er sich der politischen Agitation mit Hilfe der AGW-Hypothese zuwandte, dies könnte angesichts seiner politischen Aktivitäten leicht in Vergessenheit geraten. In seiner Veröffentlichunghttp://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Bild1.jpg

Bild 1: Veröffentlichung mit Schellnhuber als Koautor.

ist in der Zusammenfassung zu lesen

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Bild2.jpg

Bild 2: Die Aussage Schellnhubers et al. in der Zusammenfassung der in Bild 1 gezeigten Publikation ins Deutsche übertragen lautet „In der weit überwiegenden Zahl von Stationen haben wir keine Anzeichen für eine globale Erwärmung der Atmosphäre erkennen können„.

Wir können uns nicht erklären, wie solch eine unzweideutig entwarnende Aussage (es ist noch nicht einmal vom anthropogenen CO2 die Rede) nur wenige Jahre später zu dem von Schellnhuber beschworenen Weltuntergangsszenario einer globalen Erwärmung führen konnte. Immerhin ist es global seit über 15 Jahren kühler geworden, so dass man sich zudem fragt, wie Schellnhuber auf seine „ungebremste“ globale Erwärmung kommt. Hat er diesen Winter nicht irgendwann einmal aus dem Fenster gesehen?

Zweite „bequeme Unwahrheit“ nach Schellnhuber

„Es mag den Klimawandel geben, aber er ist unschädlich, wenn nicht gar nutzbringend“. Die Wissenschaft jedoch zeigt klar auf, wie drastisch die negativen Auswirkungen ausfallen dürften – auch wenn ihr genaues Ausmaß, der Zeitpunkt ihres Eintretens, die regionale Verteilung weiter Gegenstand intensiver Forschung sind. Die Zunahme von Wetterextremen, der Anstieg des Meeresspiegels, Veränderungen des etwa für arme Reisbauern in Indien lebenswichtigen Monsuns et cetera sind gut belegte Projektionen.

Richtig ist….

Kein vernünftiger Mensch bezweifelt den natürlichen Klimawandel. Das Klima in allen Klimazonen der Erde (polar bis tropisch) hat sich seit Bestehen der Erde stets gewandelt, oft heftiger und schneller als im 20. Jahrhundert, und es wird dies auch zukünftig weiter tun. Konstantes Klima ist unmöglich. Nach seinem ersten Satz werden Schellnhubers Ausführungen dann vollends irreführend. Über die Extremwetterentwicklung der letzten Jahrzehnte bis zum heutigen Tage gibt schließlich das hier wohl unverdächtige IPCC erschöpfende Auskunft. Zum ersten Mal in seinem Bericht vom Jahre 2001, the scientific bais, Chapter 02, Kap. 2.7 S. 155 (hier), danach im Extremwetterbericht von 2012 (hier). Die gesamte meteorologische Fachliteratur bezeugt Gleiches: Es ist bis heute keine Zunahme von Extremwetterereignissen in Klimazeiträumen feststellbar. Schellnhuber spricht formal korrekt zwar nur von „gut belegte Projektionen“, seine Aussage ist aber so konstruiert, dass sie eine Extremwetterzunahme als aktuell gegeben suggeriert. Zufall oder Absicht? Die Begründung für „gut belegt“ bleibt er uns natürlich schuldig. Die Projektionen von Klimamodellen haben sich bekanntlich nicht besser als Kaffeesatzleserei erwiesen (s. unter anderem hier). Zur Frage der restlichen Themen, angefangen von Meeresspiegeln bis hin zu Gletschern bezeugt die Fachliteratur, dass sich bis heute und nirgendwo auf der Erde über das historisch bekannte Maß hinausgehende Veränderungen haben nachweisen lassen. Im Gegenteil, viele Veränderungen der Klimavergangenheit waren ungleich stärker.

Die dritte „bequeme Unwahrheit“ nach Schellnhuber

„Es gibt gefährlichen Klimawandel, aber der Kampf dagegen ist längst verloren.“

Richtig ist….

WER sagt so etwas? Zunächst bestreitet sicher niemand, dass es gefährlichen Klimawandel gibt. Die Historie der Menschheit belegt unzählige Klimakatastrophen – logischerweise ohne die „Mithilfe“ des anthropogenen CO2. Es waren übrigens stets Abkühlungs-, niemals Erwärmungskatastrophen! Falsch ist dann die den Klimaskeptikern in den Mund geschobene Behauptung, der Kampf gegen solch eine zukünftige Katastrophe sei verloren. Deiche gegen Sturmfluten, solidere Häuser in tropischen Regionen gegen die gefährlichen Taifune und vieles weitere mehr sind wichtige Hilfen in einem Kampf, der keineswegs verloren ist. Die Technik gibt uns immer bessere Mittel in die Hände. Von keinem Zeitgenossen oder gar Klimaskeptiker, der einigermaßen klar im Kopf ist, wird man Schellnhubers dritte „bequeme Unwahrheit“ vernehmen.

Zu den weiteren Behauptungen Schellnhubers

Uns ist kein seriöser Klimaskeptiker bekannt, der – so Schellnhuber – „das System der Wissenschaft angreift“. Das genaue Gegenteil ist der Fall. Klimaskeptiker fordern eine objektive, freie Wissenschaft, so wie es die Aufklärung propagierte. Angegriffen werden lediglich und völlig zu recht wissenschaftliche Vertreter eines Zweiges der Klimaforschung, die mit fragwürdigen Methoden ihre Ergebnisse für politische Zwecke instrumentalisieren und damit in WIRKLICHKEIT die von Schellnhuber zitierte „ANTIAUFKLÄRUNG“ betreiben. Zur Aufklärung und „Antiaufklärung“ Schellnhubers ist eine Anmerkung erforderlich: In der empfehlenswerten Biographie über Voltaire von Jean Orieux ist eine Kernaussage des Vaters der Aufklärung zu lesen. Voltaire schrieb seinem erbittertsten Gegner in einem offenen Brief: Sire, Eure Auffassung bekämpfe ich, würde aber mein Leben dafür hingeben, dass Ihr sie öffentlich äußern dürft“. Ob Schellnhuber und seine Kollegen vom PIK Rahmstorf, Edenhofer, Gerstengarbe etc. diesen Brief Voltaires verstehen können?

Echte Wissenschaft ist grundsätzlich immer WERTFREI, stellt sich stets in Frage und ist prinzipiell gegen jede, auch die eigenen Resultate SKEPTISCH. Ohne Skepsis gibt es gar keine Wissenschaft. Wissenschaft darf sich niemals außerwissenschaftlichen Zwecken zur Verfügung stellen und mögen diese noch so ehrbar daherkommen. Ohne eine Verbindung mit der AGW-Hypothese herstellen zu wollen, darf an die Biologen und Mediziner des dritten Reichs erinnert werden, die auf der Basis ungesicherter wissenschaftlicher Erkenntnisse eine Rassenlehre zum Dogma erklärten und mit Hilfe der Politik zum Kanon machten. Die in die Millionen gehenden Opfer dieses Irrtums sind bekannt.

Trotz Schellnhubers unzureichender Diskussionsbasis gibt es aber doch Hoffnung auf mehr Substabtielles. Wir ergreifen nun nämlich die Gelegenheit, detaillierter auf seinen Mythos vom wissenschaftlichen Konsens einzugehen. Schellnhuber versteigt sich zu der Behauptung „Dabei ist gerade in diesem Fall das System Wissenschaft so einig wie sonst selten“. Trifft dies zu? Prüfen wir seine Behauptung nach!

Der Mythos vom wissenschaftlichen Konsens

Es ist eine Sache, eine andere Meinung zu haben. Es ist aber etwas völlig anderes, vorzutäuschen, andere als die eigene Meinung würden gar nicht existieren, oder zu behaupten, solche Meinungen verdienten keine Aufmerksamkeit (Zitat Donna Laframboise).

Der Begriff “Konsens der Wissenschaft“ ist mit Vorbehalt zu verwenden. Zunächst sagt er nichts darüber aus, ob eine wissenschaftliche Hypothese oder Theorie zutrifft. Dies haben immer wieder Forscher belegt, die sich – meist unter Anfeindungen – mit anderer Auffassung über Jahrzehnte gegen eine übermächtige Phalanx von Fachkollegen durchsetzten. Oft folgten auf solche wissenschaftlichen Siege die verdienten Nobelpreise. Dennoch würde ein Konsens von vielleicht mehr als 95% aller Forscher eines Fachgebiets eine hohe Wahrscheinlichkeit beinhalten, dass diese Mehrheitsauffassung sachlich zutrifft.
Da es hier nur um die Frage eines maßgebenden Einflusses des menschgemachten CO2 auf Globaltemperaturen geht, können wir die “Konsenfrage“, wie folgt, eingrenzen. Ausgangspunkt ist der heutige Stand der Klimaforschung, dokumentiert in unzähligen Fachpublikationen, die zumindest in folgendem Punkt absolut keinen Zweifel lassen: Die Frage nach einem messbaren anthropogenen Einfluss auf Klimawerte muss bis heute mit einem “noch nicht aufgefunden“ beantwortet werden. Daher verbleiben jetzt nur noch die im hier interessierenden Zusammenhang entscheidenden zwei Fragen:

– Wie viele Klimaforscher teilen den Klima-Alarmismus des IPCC?
– Wie viele Klimaforscher (nennen wir sie “Klimaskeptiker“) widersprechen?

Aber zuerst, welche Naturwissenschaftler sind eigentlich Klimaforscher? Eine Definition könnte sein: Solche, die Klimaforschung betreiben und in begutachteten Fachzeitschriften publizieren. Falls man hiermit einverstanden sein kann, gehört auch der Autor – obwohl nicht von der Pike auf in der Klimaforschung tätig – zur Gruppe der Klimaforscher (hier, hier, hier, hier); Pardon, gemäß Kollegen Schellnhuber ist er allerdings zur Gruppe der „eifrig-eifernden Pensionisten“ zu zählen, denn er befindet sich schließlich im Ruhestand.

Klimaforscher kommen aus vielen Disziplinen, vorwiegend der Physik, denn
Klimawissenschaft, wie die eng verwandte Meteorologie, verwendet das
Handwerkszeug der Physik. Unter den Klimaforschern finden sich
neben den Physikern Meteorologen, Chemiker, Biologen, Mathematiker und Ingenieure. Schauen wir jetzt gemäß unserer Definition zunächst nach, wie viele Klimapublikationen, die dem IPCC widersprechen, in internationalen begutachteten Fachjournalen aufzufinden sind! Sie sind bereits unter der ersten bequemen Unwahrheit von uns in der Richtigstellung genannt worden. Momentan werden über 1100 Publikationen explizit aufgeführt, und es kommen laufend neue hinzu. Infolgedessen sind die Verlautbarungen von Medien, Politik und schlussendlich von Schellnhuber über einen wissenschaftlichen Konsens und die angeblich fehlenden Gegenstimmen falsch.
Die Klimaskeptiker übertreffen die Klima-Alarmisten in Anzahl und wissenschaftlichem Ansehen um Längen. Zu den Skeptikern gehören die beiden Physik-Nobelpreisträger Ivar Glaever und Robert Laughlin, einen Physiker aus dem IPCC-Lager als Nobelpreisträger gibt es dagegen nicht. Ferner sind die weltberühmten Physiker Freeman Dyson, Edward Teller, Frederick Seitz, Robert Jastrow und William Nierenberg Klimaskeptiker, eine ähnliche Reputation ist von den dem IPCC nahe stehenden Forschern unbekannt. Die beiden Links (hier und hier) auf die ausführlichen Zusammenstellungen sind auf unserer Replik zu der ersten „bequemen Unwahrheit“ bereits genannt worden.

Auf Anhieb können 9000 promovierte Naturwissenschaftler und Hunderte fachnahe Professoren der klimaskeptischen Seite benannt werden. Es handelt sich hierbei allein um das Oregon Petitition Project (hier und hier). Betrachten wir nun die Gegenseite! Das IPCC benennt gerade einmal 62 Personen, die das kritische Kapitel 9 des IPCC-Berichts von 2007 “Understanding and Attributing Climate Change“ begutachteten, darunter viele, die nichts anders taten, als ihren eigenen Beitrag zu bestätigen.

Die Unterzeichner der vielen, nachfolgend aufgeführten Petitionen und Manifeste gegen die IPCC-Politik sind freilich nicht immer Klimawissenschaftler. Ist es hier gerechtfertigt, auch andere Naturwissenschaftler als kompetente Skeptiker zuzulassen? Die Antwort muss “Ja“ lauten. Die meisten Klima-Fachpublikationen decken nämlich physikalische Bereiche ab, die auch von physikalischen Nebenfächlern, wie beispielsweise Chemikern oder Ingenieuren, nach entsprechender Einarbeitung verstanden und nachvollzogen werden können. Das physikalische Abstraktionsniveau ist hier in der Regel nicht von einer nur für Spezialisten zugänglichen Höhe, wie etwa in der Quantenfeld-, allgemeinen Relativitäts- oder Stringtheorie. Dies heisst natürlich nicht, dass nicht auch in der Klimaforschung schwer zugängliche Spezialgebiete existieren.

Die historische Entwicklung der klimaskeptischen Verlautbarungen klärt über die wahren Verhältnisse auf. Es beginnt 1992 in Rio de Janeiro mit der ersten großen UN-Umweltkonferenz. Hier haben die Vertreter von 170 Regierungen und weiteren Nichtregierungsinstitutionen (NGO) vor einer gefährlichen globalen Erwärmung durch die steigende Emission von CO2 in der Atmosphäre infolge Nutzung der fossilen Brennstoffe gewarnt. Drastische Maßnahmen, Energiesteuern und Umweltabgaben wurden gefordert.

1) Als erste Antwort auf die Forderungen von Rio de Janeiro haben 425 Wissenschaftler, darunter 62 Nobelpreisträger den „Heidelberg Appeal“ unterschrieben. Sie fordern, die wissenschaftliche Ehrlichkeit nicht dem politischen Opportunismus und einer irrationalen Ideologie zu opfern. Inzwischen sind diesem Appell mehr als 4000 Wissenschaftler, darunter inzwischen insgesamt 72 Nobelpreisträger aus 106 Ländern beigetreten (hier).

2) Das Global Warming Petition Project, auch als Oregon Petition
bekannt, wurde bereits oben erwähnt. Es führt über 30.000 akademische Unterzeichner auf, davon rund 9000 promovierte Personen, meist Naturwissenschaftler. Der Internet-Link wurde oben bereits angegeben.

3) Das „Leipziger Manifest“ ging aus einem internationalen Symposium über die Treibhauskontroverse in Leipzig im November 1995 und 1997 hervor. Es wurde 2005 überarbeitet. Die Unterzeichner, 80 Wissenschaftler aus dem Bereich der Forschung zum Zustand der Atmosphäre und des Klimas sowie 25 Meteorologen, bekunden: “Auf der Basis aller vorhandenen Messungen können wir eine politisch inspirierte Weltsicht nicht akzeptieren, die Klimakatastrophen vorhersagt und überstürzte Aktionen verlangt… In einer Welt, in der die Armut die größte soziale Verschmutzung darstellt, sollte jegliche Einschränkung an Energie, die das ökonomische Wachstum verhindert (in diesen Ländern), mit äußerstem Bedacht vorgenommen werden.“ (hier).

4) Im Dezember 2008 und ergänzt im März 2009 wendeten sich über 700
Wissenschaftler mit dem sogenannten „U.S. Senate Minority Report“ (auch als Inhofe Report bezeichnet) an den Senat der USA. Die Unterzeichner wehrten sich gegen den vorgeblichen Konsens, dass der Mensch für die Erwärmung hauptsächlich verantwortlich gemacht werden kann. Der Report stellt fest, dass die 700 Wissenschaftler die Zahl der an der “Zusammenfassung für Politiker“ des IPCC beteiligten Wissenschaftler (52) um das mehr als 13-fache übersteigt. Sie führten insbesondere Messungen an, die die alarmistischen, von Modellen unterstützten Prophezeiungen widerlegen (hier).

5) In einem offenen Brief vom Juli 2007 an die Physikerin und Kanzlerin Angela Merkel forderten 410 Wissenschaftler und engagierte kompetente Bürger, “die Kanzlerin möge ihre Position zum Klimakomplex gründlich überdenken und ein vom Potsdamer Institut für Klimafolgenforschung unabhängiges ideologiefreies Gremium einberufen.“ (hier). Dieser Brief wurde bemerkenswerterweise nicht einmal einer Eingangsbestätigung des Bundeskanzleramts für würdig erachtet, obwohl in §17 des deutschen Grundgesetzes Bürgern ausdrücklich das Recht eingeräumt wird, sich bei drängenden Problemen oder Fragen an die zuständigen Stellen und an die Volksvertretung zu wenden (hier).

6) Gegen die Aussage des US-Präsidenten Barrack Obama “Wenige Herausforderungen denen sich Amerika und die Welt gegenübersieht, sind wichtiger als den Klimawandel zu bekämpfen. Die Wissenschaft ist jenseits aller Diskussion und die Fakten sind klar“ wendeten sich mehr als 150 fachnahe Wissenschaftler mit dem Protest: “With all due respect Mr. President, that is not true“ (hier).

7) In einem offenen Brief an den kanadischen Ministerpräsidenten, am 11.4.2008 in der National Post veröffentlicht, wendeten sich 60 Klimawissenschaftler gegen die Unterzeichnung eines neuen Kyoto Vertrages. Sie heben hervor, dass “es keine beobachtbaren Nachweise gibt, die die Computermodelle verifizieren. Deshalb gibt es keinen Grund, den Vorhersagen der Computermodelle zu vertrauen…. Wir schlagen vor, eine ausgewogene, umfassende, öfentliche Sitzung abzuhalten, um die wissenschaftliche Basis zu Plänen der Regierung in Bezug auf den Klimawandel zu schaffen“ (hier).

8) Im Jahre 2007 veröffentlichten die Klimawissenschaftler Hans von Storch und Dennis Bray (GKSS Forschungszentrum Geesthacht) eine anonyme Umfrage unter ca. 1250 Klimawissenschaftlern, von denen 40% antworteten (hier), was für derartige Umfragen als eine sehr hohe Antwortrate bezeichnet werden darf. Die Frage “Ist der gegenwärtige Stand der Wissenschaft weit genug entwickelt, um eine vernünftige Einschätzung des Treibhausgaseffektes zu erlauben?“ beantworteten nur 69% mit Zustimmung. Die Frage “Können Klimamodelle die Klimabedingungen der Zukunft voraussagen?“ beantworteten 64% ablehnend! Da die Vorhersagen der Klimakatastrophe alleine auf Klimamodellen beruhen und damit ebenfalls ein theoretisches Konstrukt sind, darf dieses Ergebnis für die Vertreter eines Klimakatastrophen-Konsens zutreffend als Schlag ins Gesicht bezeichnet werden. Denn umgekehrt ausgedrückt: Es besteht ein Konsens von 64%, dass die Vorhersage eines die Menschheit gefährdenden Klimawandels durch eine von Menschen gemachte
Temperaturerhöhung infolge der anthropogenen CO2 Emissionen auf der Basis von Klimamodellen wissenschaftlich unzulässig ist.

9) Im September 2008 veröffentlichten Hans M. Kepplinger und Senja Post von der Universität Mainz in deren Forschungsmagazin eine Online-Umfrage unter den 239 identifizierten deutschen Klimawissenschaftlern. 133 (44%) von ihnen nahmen an der Befragung teil. Kepplinger: “Die Mehrheit der Wissenschaftler war der Ansicht, dass die Voraussetzungen für eine Berechenbarkeit des Klimas gegenwärtig noch nicht gegeben ist. Dies betrifft die Menge und Qualität der empirischen Daten, die Qualität der Modelle und Theorien sowie die Kapazität der verfügbaren Analysetechniken. Nur eine Minderheit von 20% glaubt, dass die empirischen und theoretischen Voraussetzungen für die Berechnung des Klimas heute schon gegeben seien“ (hier und hier).

10) Am 30.Nov.2012 veröffentlichte die kanadische Financial Post einen offenen Brief von 125 Wissenschaftlern an den UN Generalsekretär H.E. Ban Ki-Moon. Die FP führt dabei alle Namen, Fachgebiete und Forschungsschwerpunkte der Unterzeichner detailliert auf (hier). Es handelt sich in der weit überwiegenden Anzahl um Klimawissenschaftler. Der Originaltext des offenen Briefs lautet:

On November 9 this year you told the General Assembly: “Extreme weather due to climate change is the new normal – Our challenge remains, clear and urgent: to reduce greenhouse gas emissions, to strengthen adaptation to – even larger climate shocks – and to reach a legally binding climate agreement by 2015 – This
should be one of the main lessons of Hurricane Sandy.“ On November 13 you said at Yale: “The science is clear; we should waste no more time on that debate.“ The following day, in Al Gore’s “Dirty Weather“ Webcast, you spoke of “more severe storms, harsher droughts, greater floods“, concluding: “Two weeks ago, Hurricane Sandy struck the eastern seaboard of the United States. A nation saw the reality of climate change. The recovery will cost tens of billions of dollars. The cost of inaction will be even higher. We must reduce our dependence on carbon emissions.“ We the undersigned, qualified in climate-related matters, wish to state that current scientific knowledge does not substantiate your assertions.

Danach folgt eine ausführlichere sachliche Widerlegung der Behauptungen von Ki-Moon. Auf die Wiedergabe dieses Teils des offenen Briefs wird hier verzichtet.

Alle hier aufgeführten Manifeste, Petitionen und Umfragen wurden von den deutschen Medien bis heute nicht zur Kenntnis genommen, geschweige denn veröffentlicht. Und dies angesichts von Kosten der CO2-Vermeidung, die in Hunderte Milliarden Euro gehen.

Eine Diktatur beginnt nicht mit dem Einsperren der Meinungsgegner, sondern mit der Unterdrückung ihrer Meinung.

Related Files




NAEB Nachrichten vom 12. April 2013 in den EIKE-News

Die Themen

1. Bahn AG negiert Altmaiers Ökostrom-Kosten-Lamento

2. BP Vorreiter bei Windpower-Exodus.

3. Petitionen und Polls, Grundkurs in Demokratie

4. Hessen als Beispiel für die Länder-Windkraft-Anlagen-Intention.

5. Schimpf- und Schande-Mails von den Energiewendern an NAEB.

6. Bölkow-Stiftung/Energywatch (Fell) propagieren Ende von Öl und Gas.

7. Warum kommt die Energywatch-Group jetzt mit ihrer Studie.

8. Energiewender werden Shalegas-Boom nicht aufhalten können!

9. Das Bild passt, Offshore-Pläne Französischer Politiker.

10. April-Ente! Antarktis-Eiszuwachs endlich geklärt, Ursache CO2-Klimawandel.

11. Poltical Startups keine Bundestags-Wahl-Alternative.DPG weiterhin stramm auf Energiewende-Indoktrinationskurs.

12. In welchem "Reiche" sind wir momentan?

13. Eberharts Vers: Windräder irritieren Segelflieger

Der vollständige Nachrichtentext (hier).




„Energie und Klima: Chancen, Risiken, Mythen“, expert Verlag (2013)

Als Optimist halte ich die Gestaltung der deutschen Energiezukunft mit den Zielen konsequenten Umweltschutzes, Ressourcenschonung, Wirtschaftlichkeit und Bewahrung der deutschen Spitzenstellung im globalen Wettbewerb für möglich. Allerdings ist dabei technisch-wirtschaftliche Vernunft unabdingbar. Jeder Versuch, ökoideologische oder gesellschaftsverändernde Vorhaben mit „Klimaschutz“ und „grünen“ Stromerzeugungsmethoden zu verwirklichen, ist mit dem hier genannten Zielbündel nicht zu vereinbaren.

Inzwischen gibt es zahlreiche Sachbücher, die sich kritisch mit der deutschen „Energiewende“ (dem kein Land der Welt folgt) und dem „Klimaschutz“ auseinandersetzen. Die Veranlassung eine weitere Monographie hinzuzufügen, ergab sich aus Diskussionen im Anschluss an Vorträge von mir. Dabei wurde das Fehlen eines Buchs bedauert, das die Themen Energie und Klima zusammengehörig, sachlich korrekt und auf dem heutigen wissenschaftlichen Stand behandeln. Meldungen und Verlautbarungen seitens der deutschen Medien, der Politik und NGO’s (wie z.B. Greenpeace) werden von nachdenkenden Bürgern zunehmend kritisch beurteilt. Man wünscht dringend eine von Ökolobbyismus und Ökoideologie freie Sachinformation.

Im Energieteil des Buchs werden die Kriterien beschrieben, die eine umweltgerechte, kostengünstige und ressourcenschonende Versorgung mit elektrischem Strom ermöglichen, ein Zustand, dem Deutschland vor der Energiewende bereits einmal nahe kam. Leicht nachvollziehbare Abschätzungsrechnungen bieten die Möglichkeit, Medienaussagen auf ihren Wahrheitsgehalt zu überprüfen. Sie sind als Anleitung und Anregung zu weiteren, eigenen Rechnungen und Internet-Recherchen gedacht. Die in Deutschland auf einem medialen Tiefpunkt angekommene Kernenergie bildet ein eigenes Schwerpunktthema. Nirgendwo auf der Welt werden über die Kernenergie so viele Unwahrheiten verbreitet wie hierzulande. Daher ist eine nüchtern korrekte Schilderung der Fakten, Chancen und Risiken der Kernenergie, deren weltweiter Siegeszug nicht aufzuhalten ist, längst überfällig. 

Der Klimateil des Buchs werden Sie in eine spannende Geschichte der Klimaentwicklung entführt, die viele Millionen Jahre vor unserer Zeit beginnt, schwerpunktartig das 20. Jahrhundert sowie die jüngste Zeit behandelt und schließlich sogar einen Blick auf die Klimazukunft erlaubt. Hier fließen nicht zuletzt auch Ergebnisse eigener, begutachteter Klima-Fachveröffentlichungen ein (hier, hier, hier, hier). Über die wichtige Frage nach der sehr kleinen Erwärmungswirkung des anthropogenen (menschgemachten) CO2 gibt es freilich keine absolute Gewissheit, dies wird wohl auch zukünftig so bleiben.

Kann dennoch Entwarnung vor dem angeblich so klimagefährlichen Naturgas CO2 gegeben werden, oder müssen wir umgekehrt alle unsere Bemühungen konsequenter CO2-Vermeidung widmen? Was sagt der heutige wissenschaftliche Stand dazu aus? CO2 als Grundbestandteil der Photosynthese ist immerhin für unser aller Ernährung und Existenz unabdingbar. Der durch zunehmendes atmosphärisches CO2 verursachte Düngungseffekt hilft der wachsenden Erdbevölkerung bei der Nahrungserzeugung.

Ist das oft zu hörenden „Totschlagargument“ schlüssig, unsere Nachkommen müssten vor einer drohenden „Klima-Gefahr“, koste es, was es wolle, geschützt werden? Es gibt unzählige reale Zukunftsgefahren, angefangen von der fortschreitenden Zerstörung des Fischbestands der Weltmeere, über die Trinkwasserknappheit in Dürregebieten, den Rückgang der Tropenwälder bis hin zu drohenden Pandemien oder Zusammenstößen der Erde mit größeren Asteroiden. Ist es angesichts dieser Gefahrenfülle sachgemäß, unsere begrenzten Mittel fast ausschließlich der CO2-Vermeidung zu widmen, um eine weltweite Vorbildfunktion beanspruchen zu können? Diese Frage kann nur durch nüchterne Abwägung der Fakten, Risiken und Kosten sachgemäß beantwortet werden.

Im unten angefügten pdf findet sich, verfasst von Arnold Vaatz, MDB, das Geleitwort zum Buch, ferner die Inhaltsangabe des Buchs und seine Einleitung.

Prof. Dr. Horst-Joachim Lüdecke

Related Files




Das Geschäftsmodell von EIKE – eine überfällige Enthüllung

Zunächst der Beitrag von Schwarz aus den „klimarettern“. Lesen Sie das Original „Klimakiller FDP im Lobbyfilz“ von Michael Schwarz, wundern und ergötzen Sie sich und staunen Sie über die neuen Geschäftsmodelle in Deutschland, insbesondere über das von EIKE und der FDP!

Klimakiller FDP im Lobbyfilz

Von Michael Schwarz, Biologe, Experte für globale Umweltveränderungen und Blogger bei klimaretter.info

Klimaschutz nervt – zumindest die Anhänger freier Märkte. Denn inzwischen wird immer klarer, dass das bisherige neoliberale Wirtschaftsmodell direkt in die Klimakatastrophe führt. Klimaschutz braucht Marktregeln. Das kapiert eigentlich jeder, wenn er es denn kapieren will. Es gibt aber auch durchaus ein Interesse, das Gegenteil zu glauben oder, noch konsequenter, gleich den ganzen Klimawandel als Unsinn, Schwindel oder kommunistische Verschwörung zu verteufeln. Vertreter dieser Weltsicht nennt man Klimaleugner oder Klimaskeptiker.

Die „Zeit“ publizierte am 28. November 2012 einen viel beachteten Artikel über professionelle Klimaleugner. Titel: „Die Klimakrieger“. Guardian-Kolumnist George Monbiot spricht in dem Zusammenhang von der „denial industry“, der Leugner-Industrie. Eine brandneue Studie australischer Wissenschaftler, publiziert in „Psychological Science“, konnte nun belegen, dass das Phänomen Klimaleugnung – neben anderen Verschwörungstheorien – signifikant häufiger bei Vertretern neoliberaler Überzeugungen auftritt. Bei klassischer FDP-Klientel also.

Ideologische Borniertheit gegen atmosphärische Gesetzmäßigkeiten, einzig, weil diese im „feindlichen“ Lager bei Grünen, Greenpeace und Co. verortet werden? Freilich! Gerade in Wahlkampfzeiten braucht es schließlich Abgrenzung, Profil, Sündenböcke. Destruktive Klimapolitik ist daher ein schlagkräftiges Thema im Kampf um öko-gestresste Wähler und Parteispenden von leidgeprüften deutschen Großkonzernen.

Zu Klimakriegern hält Brüderle nicht immer Distanz

Frontalpolitik gegen die wissenschaftlichen Fakten traut sich die FDP-Spitze dennoch bisher nicht. Zu erdrückend ist die Beweislage, um sich ganz offiziell auf die Seite der Klimaleugner zu schlagen. Der Fraktionschef der Liberalen Rainer Brüderle argumentiert daher lieber aus ökonomischer Sicht. Klimaschutz soll doch bitte der Markt selbst regeln, auf jeden Fall darf es nichts kosten. Vor EU-Kollegen riet er zu einer „sinnvollen Pause in der Klimapolitik“ und zum „Vorrang wirtschaftlicher Konsolidierung“.

Die Distanz zu waschechten Klimakriegern hält Brüderle dennoch nicht immer ein, wie bei einer gemeinsamen Buchvorstellung mit Günter Ederer in Hamburg. Ederer ist Journalist, Autor und Lobbyist und machte einst Schlagzeilen, indem er den „grünen“ US-Vizepräsidenten Al Gore mit Adolf Hitler verglich. Bei anderer Gelegenheit moderierte Ederer eine Podiumsrunde, bei der Fred Singer, ein Superstar der Klimaleugnerszene, Öl- und Tabaklobbyist, seine Überzeugungen zu Treibhauseffekt und Ökosteuern zum Besten geben durfte. Ort der Veranstaltung: Der deutsche Bundestag! Eingefädelt hatte die Veranstaltung Paul Friedhoff, Abgeordneter der FDP.

Die Klimaleugner aus der zweiten Reihe

Normalerweise organisiert die FDP ihre ideologisch-propagandistische Schlacht ums Klima aus der zweiten Reihe, zum Beispiel mit Hilfe von Holger Krahmer, Mitglied der liberalen Fraktion im EU-Parlament. Krahmer ist ausgerechnet umweltpolitischer Sprecher der Fraktion und gleichzeitig ein besonders aktiver Klimakrieger. Seine Homepage wimmelt nur so von Thesen und Vorschlägen, die ohne Abstriche aus den Federn der Fossilindustrie stammen könnten. So feiert er auf seiner Webseite die Aufweichung der Emissionsgrenzwerte für Pkw als „vernünftige Entscheidung“, wettert gegen das Verbot von Glühlampen und warnt vor einer Verschärfung des Emissionshandels. Und vieles mehr. Ein Sammelsurium gängiger Klimaleugner-Argumente. Schizophrenie à la FDP.

Argumentationshilfe holt sich der gelernte Bankkaufmann Krahmer bei einschlägig bekannten Klimaleugnern wie Benny Peiser vom berüchtigten US-Lobbykartell „Heartland Institute“. Krahmer und Peiser gaben erst kürzlich eine Broschüre heraus. Titel: „Unbequeme Wahrheiten über die Klimapolitik und ihre wissenschaftlichen Grundlagen“. Eine handliche Gebrauchsanweisung für den Klimakrieg.

Die FDP mit Krahmer als Strippenzieher organisierte außerdem diverse Veranstaltungen mit eindeutiger Zielstellung, unter anderem am 3. Juli 2012 im EU-Parlament. Unter dem Titel „Klimaschutz: die politische Überforderung“ referierten dort Fritz Vahrenholt und Sebastian Lüning über ihr umstrittenes Buch „Die kalte Sonne“

Man bleibt gern unter sich

Im Juni 2012 richtete Krahmer zusammen mit der FDP Sachsen eine „alternative“ Klimakonferenz in Dresden aus. Bei der Veranstaltung unter dem düsteren Titel „Sind wir noch zu retten? Zwischen Klimakatastrophe und Ökohysterie“ sollte geklärt werden, „ob es denn überhaupt einen Klimawandel, eine globale Erderwärmung gibt, und falls ja, ob diese dann auch tatsächlich durch uns Menschen verursacht wird“. Um gar nicht erst mit dem wissenschaftlichen Konsens in Berührung zu kommen, lud man denn auch keinen einzigen Klimawissenschaftler als Redner ein, dafür eine Handvoll der üblichen Verdächtigen aus der organisierten Leugnerszene wie den bereits erwähnten Benny Peiser oder den Zoologen Josef Reichholf, der bei CFACT unter Vertrag ist . CFACT steht für „Committee for a Constructive Tomorrow“. Dieser rechtskonservative US-Thinktank fällt durch besonders aggressive Anti-Klima-Rhetorik auf und erfreut sich großzügiger Finanzierung durch ExxonMobil und Co.

Ebenfalls bei CFACT unter Vertrag ist Steffen Hentrich, hauptamtlich verantwortlich für Umwelt- und Energiepolitik bei der FDP-nahen „Friedrich Naumann Stiftung für die Freiheit“. Hentrich ist außerdem Mitarbeiter beim Berliner Institut für Unternehmerische Freiheit (IUF) und Autor zahlreicher neoliberaler und klimaskeptischer Blogs wie „Ökowatch“ und „Freie Welt“. Sein 2011 publiziertes Buch „Realitätscheck für den Klimaschutz – Globale Klimapolitik zwischen Anspruch und Wirklichkeit: Vorschläge für neue liberale Ansätze“ ist Klimabelletristik vom Feinsten. Mitherausgeber des Buches: Holger Krahmer, unser Klimakrieger von den EU-Liberalen. Die Kreise schließen sich … doch der Filz wird noch dicker.

Seit fünf Jahren, zuletzt im November 2012 in München, findet regelmäßig eine „Klimakonferenz“ der ganz besonderen Art statt. In gemütlichen Ambiente eines schicken Hotels trifft sich die Elite der deutschen und internationalen Klimaleugnerszene. Die Redner – ein Panoptikum einschlägig bekannter Lobbyisten, Laienprediger und korrupter Wissenschaftler – rekrutieren sich größtenteils aus den Reihen der Veranstalter selbst. Man bleibt gerne unter sich.

Die Organisatoren sind die üblichen Lobbybuden wie Heartland Institute und CFACT, das unternehmensnahe Berlin Manhattan Institute (BMI) sowie das Europäische Institut für Klima und Energie (EIKE), ein Jenaer Briefkasten-Verein und bekannteste Adresse der deutschen „denial industry“. Die FDP-„Stiftung für die Freiheit“ war zumindest bis 2011 Sponsor der Veranstaltung.

EIKE-Chef Holger Thuß, Mitglied der CDU Jena, ist gleichzeitig Europachef von CFACT und Verleger klimaskeptischer Bücher mit martialischen Titeln wie „Öko-Nihilismus 2012 – Selbstmord in Grün“ von Edgar Gärtner oder „Öko-Imperialismus – Grüne Politik mit tödlichen Folgen“ von Paul K. Driessen. Beide Autoren sind ebenfalls auf der Gehaltsliste von CFACT. Holger Thuß´ Aktivitäten sind inzwischen selbst seiner eigenen Partei nicht mehr geheuer. Die Jenaer CDU-Gruppe jedenfalls distanzierte sich öffentlich von ihm.

Umso mehr dürfte sich Thuß über den Besuch von Thüringer FDP-Prominenz am Stand seines Verlages Thuß und van Riesen (TvR) auf der Leipziger Buchmesse 2010 gefreut haben. Medienwirksam hielt FDP-Mann Patrick Kurth ein Buch des Verlages in die Kamera. Titel: „Klimahysterie – was ist dran“, Autor: Michael Limburg, „Berater“ bei CFACT, Vize von EIKE.

Am folgenden Tag brachte die FDP eine Pressemitteilung heraus: „Der TvR Medienverlag veröffentlicht im politischen Bereich mit zum Teil gesellschaftskritischen Titeln. Kurth konnte sich dabei von dem tollen Einsatz und den interessanten Themen des Verlags überzeugen“. Alles klar?

Am Ende bleiben drei Erkenntnisse:

1. Klimaleugnung ist keine zufällige Verwirrung, sondern ein lukratives Geschäftsmodell.

2. Gerade für FDP-Hinterbänkler bietet ein entsprechendes „gesellschaftliches“ Engagement Zukunftschancen in der Lobbyindustrie und federt zudem gegen die Risiken volatiler Wählergunst und politischer Umschwünge ab.

3. Es ist unmöglich, dass der ganze Lobbyfilz aus FDP-Stiftung, CFACT, EIKE, Heartland Institute und einzelnen FDP-Funktionären ohne den Segen der Parteiführung existiert.

Insofern bleibt die FDP ihrem Image treu – als randständige Lobbypartei der Konzerne und Bosse. Ein Klimakiller eben.

So weit Schwarz. Was können wir von EIKE überhaupt noch zu dieser erschöpfenden Enthüllung sagen?

Zunächst unser Dank an Herrn Schwarz, der sogar mit einem Masterabschluss versehen ist. Mehr konnten wir auch im Internet nicht finden, aber Schwarz wird ohnehin über seine fleissige Bloggerei bei klimaretter.de hinaus berühmt werden. Solch ein journalistisches Talent muss und wird seinen Weg machen. Wir empfehlen als nächsthöhere journalistische Bewährung schon einmal die ZEIT, dort wird er sich zwanglos ins Team einpassen (s. die Klimakrieger). Die Süddeutsche Zeitung ist aber auch nicht übel. Wir wünschen Herrn Schwarz auf jeden Fall allen Erfolg und beglückwünschen ihn schon einmal im Voraus.

Bei aller Begeisterung stimmt uns Mitglieder von EIKE der Beitrag von Schwarz dennoch ein wenig traurig. Wohin nun nach dieser Enthüllung mit den vielen Millionen Euro aus unserem Geschäftsmodell? Als gemeinnütziger Verein dürfen wir diesen Geldsegen schließlich nicht einfach unter uns aufteilen, da wäre Schäuble vor! Wohin mit den unzähligen Spenden der Kohle-, Erdöl- und Kernkraftlobby? Ein EIKE-Mitglied hatte schließlich die rettende Idee: wir lehnen inzwischen Spenden unter 100.000 Euro von Gebern aus dem Reich des Bösen (Kohle, Erdöl, Uran, Gas) wegen Geringfügigkeit ab. Aber es nützt alles nichts, wie lange kann dieser Damm noch notdürftig halten? Wir wissen nicht mehr, wohin mit dem Geld. Vielleicht weiß Schwarz eine Lösung.

Glücklicherweise lässt uns wenigstens die FDP gewähren, die, von Schwarz völlig zutreffend analysiert, ein ebenso verwerflicher Verein wie EIKE ist. Dank der tiefgreifenden Recherche von Schwarz ist es nun endlich auch ans Licht gekommen, dass alle unsere Mitglieder bei CFACT auf der Gehaltsliste stehen. Es kann nicht mehr geleugnet werden, wir geben es freimütig, stolz, aber auch etwas verschämt zu. Aber das ist noch nicht alles. Unser Vorsitzender, Holger Thuß, ist gar Europachef von CFACT. Hat er uns nicht erzählt, dieser Schelm. Wir werden ihm eine Glückwunschkerze anzünden. Von der FDP wollen wir besser erst gar nicht reden, CFACT und FDP, das ist ja fast schon ein Begriff.

Für Leser, die sich in der Klima- und Energieunterwelt noch nicht auskennen, zur Info und Aufklärung: CFACT steht für „Committee for a Constructive Terror (Verzeihung, ein Schreibfehler, natürlich Tomorrow). Nur ganz ein wenig sind wir allerdings doch überrascht, dass gemäß der Enthüllung von Schwarz sogar der bekannte Zoologe Prof. Dr. Reichholf bei CFACT unter Vertrag ist. Von den FDPlern ist uns das natürlich längst geläufig, schließlich weiß das jedes Kind. Und außerdem: von denen kann man ja ohnehin nichts anderes erwarten. Die sind ja sogar neoliberal. Überhaupt „liberal“, pfui Teufel, liberal, das ist ja wohl das Allerletzte. Antiliberal, Ökodiktatur, das ist heute angesagt! Herr Schwarz wird es schon richten, wir sollten uns gemütlich daran gewöhnen – mit Öko-Blockwarten wie dem begnadeten Biologen Schwarz.

CFACT hat natürlich überall die Finger drin, ein ganz übler neoliberaler Sumpf! Ob auch unsere Kanzlerin, Frau Angela Merkel oder gar Herr Jürgen Trittin unter Vertrag bei CFACT sind ….?  – immerhin arbeitet bereits Joschka Fischer, wenn man Gerüchten Glauben schenken darf, inzwischen für die US Großfinanz – ……. Aber nein, das geht zu weit, lassen wir das besser, es würden sich nur Abgründe auftun. Hier darf nur ein Experte wie Schwarz recherchieren, wo kämen wir sonst hin!

Ein ganz kleiner Wermutstropfen bleibt in unsererem Freudenbecher über das Erscheinen der reinen Wahrheit aber dennoch übrig. Und dabei haben wir uns immer so viel Mühe gegeben, die lieben Schellnhubers, Rahmstorfs, Edenhofers, Graßls usw.usw. zu uns zu einem öffentlichen Plausch über Klima einzuladen. Niemand kam, dabei beißen wir doch nicht, oder? Wenn also Schwarz schreibt, wir wollten unter uns bleiben, dann – wir bitten den großen Schwarz vielmals um Verzeihung – müssen wir hier ausnahmsweise höflich berichtigen. Alle Genannten waren und sind unverändert und ganz herzlich zur Diskussion eingeladen, öffentlich natürlich. Hier bei EIKE war das schon immer zu lesen, Einladungen wurden zu Hauf verschickt und hier stehts jetzt nochmals. Das wäre doch die beste Gelegenheit für die verehrten Experten, den Zuhörern oder Zuschauern einmal zu zeigen, dass wir in EIKE als Lobbyverein keinen blassen Schimmer von der Klimawissenschaft haben. Na ja, vielleicht war die Anmerkung von Herrn Schwarz nur Zerstreutheit.

Wir müssen uns übrigens auch nach mehrmaligem Lesen des Beitrags von Schwarz immer noch erholen, so stringent, so überzeugend, so gut recherchiert ist dieser klimaretter.de-Artikel. Das kann man nicht lernen, das muss man im Blut haben – Respekt!

Die EIKE-Redaktion

Nachtrag nach Lesen der Blogbeiträge (15.4.13): Ist schwer vorstellbar, aber einige Leser scheinen unseren Artikel wörtlich zu nehmen. Mal was von Ironie gehört, Leute? Ökoagitatoren mit einem solchen IQ wie diesen Schwarz kann man unmöglich ernst nehmen. Entspannt Euch und genießt lieber seinen Erguss, wir jedenfalls haben uns königlich amüsiert.




Kernenergie: 100 Gründe und 100 Antworten, Fortsetzung #8 bis #11

Nun die Fortsetzung Gründe und Antworten #8 bis #11. Die bisher behandelten Gründe und Antworten #1 bis #7 können Sie  hier und hier nachlesen. Der Originalartikel findet sich wie immer unter KRITIKALITÄT, insbesondere die MOTIVATION sollte gelesen werden.

#8: Uran-Lücke

Behauptung: Die Uran-Minen können den Verbrauch der Atomkraftwerke schon seit 20 Jahren nicht mehr decken.

Die EWS behaupten

Seit 1985 verbrauchen die Atomkraftwerke jedes Jahr deutlich mehr Uran, als die Uranminen aus dem Boden holen. So förderten alle Uranminen weltweit zusammen im Jahr 2006 noch nicht einmal zwei Drittel der benötigten Uranmenge. Den fehlenden Brennstoff bezogen die Atomkraftwerksbetreiber bisher aus zivilen und militärischen Lagerbeständen. Diese gehen jedoch zur Neige.

Um auch nur die Versorgung der derzeitigen Atomkraftwerke mit Brennstoff sicherzustellen, müsste die Uranfördermenge in den nächsten Jahren um mehr als 50 Prozent steigen. Dafür müssten unzählige neue Uranminen in Betrieb gehen – mit allen schädlichen Folgen für Mensch und Umwelt.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die Uranförderung hat sich in den vergangenen Jahrzehnten kontinuierlich dem Bedarf angepasst, wie die Statistik der „World Nuclear Association” klar belegt. Warum sollte dies in der Zukunft anders sein? Wegen der Brennstofflieferung aus zivilen und militärischen Lagerbeständen in den 90er Jahren wurde der Bergbaubetrieb reduziert, weil die Preise etwa bei zu niedrigen 20 bis 30$/kg lagen. Seit 2003 steigt der Uranpreis und damit der Versorgungsanteil der Minen von damals 65% auf heute 85%. Weitere Vorräte sind längst erkundet und können nach Bedarf abgerufen werden. Von einem Engpass, wie hier suggeriert werden soll, ist nichts zu spüren. Es gilt eben auch hier das Prinzip von Angebot und Nachfrage.

Eine Steigerung der Uranförderung um 50% ist überhaupt kein Problem und, verglichen mit sonstiger Rohstoffförderung, sogar belanglos. Vorbildliche Minen wie im kanadischen Saskatchewan zeigen, dass ohne spürbare Kosten für den Strompreis ein exzellenter Arbeitsschutz bei gleichzeitiger Einhaltung höchster Umweltstandards möglich ist. Neue Methoden wie „In-situ leaching” verbessern dies weiter.

Allein die Erschließung von Meerwasservorräten vergrößert die Uranvorräte um einen Faktor 1.000 zu gerade mal doppelten Preisen. Von einer Uran-Lücke kann also überhaupt keine Rede sein.

Quellen von KRITIKALITÄT


#9: Begrenzte Vorräte

Behauptung: Die Uranvorräte gehen schon in wenigen Jahrzehnten zur Neige.

Die EWS behaupten

Weltweit sind die reichhaltigen und gut zugänglichen Uran-Lagerstätten bald erschöpft. Immer mehr Gestein muss bewegt werden, um die gleiche Menge Uran zu gewinnen. Damit steigen die Kosten, die Umweltschäden nehmen zu.

Würde man dennoch alle bekannten Uranvorräte abbauen, könnte man die derzeit rund 440 Atomkraftwerke damit gerade einmal 45 bis 80 Jahre versorgen. Mit noch mehr Atomkraftwerken wäre das Uran schon binnen kürzester Zeit verbraucht.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Bei heutiger Leichtwassertechnik reichen die extrem leicht zugänglichen Reserven aus den uranhaltigsten Gegenden der Welt noch für ca. 100 Jahre. Davon jedenfalls gehen IAEA und OECD aus.

Die Bearbeitung in Wiederaufarbeitungsanlagen allein verdoppelt mindestens die Nutzungsdauer. Zieht man nun die Uranreserven hinzu, die mit etwas niedrigerer Konzentration im Boden liegen, erhöht sich zwar der Förderaufwand, die Vorräte reichen aber nun schon Tausende von Jahren. Auf den Uranpreis wirkte sich das moderat, und auf den Strompreis kaum aus. Auch stimmt es nicht, dass „immer mehr Gestein bewegt werden muss”, denn moderne Techniken erlauben es, Rohstoffe noch im Boden zu extrahieren („In-situ leaching”). Die USA praktizieren dies bereits bei 90% ihrer Uranförderung.

Dies ist aber noch ausbaubar. Schnellspaltreaktoren vom Typ „Schneller Brüter” (er lief bereits in Deutschland als Testreaktor, der Prototyp fiel aber der Politik zum Opfer), können nun diesen Brennstoff 100 mal, Weiterentwicklungen sogar 200 mal so effizient nutzen. Selbst bei 5-fachem Stromverbrauch sind wir damit allein mit heutiger Schnellspalttechnik schon bei fast 20.000 Jahren. Eine Umstellung auf Meerwasser-Extraktion, auch heute bereits möglich, bringt uns in den Bereich von 500.000 Jahren. Tatsächlich wird der Strombedarf natürlich zunehmen, aber Knappheit wird es garantiert nicht geben.

Nimmt man Thorium hinzu, multipliziert sich die Reichweite um einen weiteren Faktor 1.000 und die Vorräte reichen vermutlich länger, als die Erde bewohnbar ist. Die Menschen, oder wie auch immer ihre Nachfahren heissen, werden dann immer noch nuklearen Strom im Überfluss haben, das Märchen von der Uran- oder Throrium-Knappheit wird ihnen aber sicher weiterhin erzählt.

Quellen von KRITIKALITÄT


#10: Urantransporte

Behauptung: Ein Unfall mit Uranhexafluorid kann katastrophale Auswirkungen haben.

Die EWS behaupten

Urananreicherungsanlagen wie die im westfälischen Gronau verarbeiten Uran in Form von Uranhexafluorid (UF6). Eisenbahn-, Lkw- und Schiffstransporte mit dieser sehr giftigen und radioaktiven Substanz sind wöchentlich quer durch Europa unterwegs, auch mitten durch Großstädte und Ballungsräume.

Bei einem Unfall oder Brand können die Behälter platzen, der strahlende Inhalt die Umgebung kontaminieren. Das Uranhexafluorid reagiert dann mit der Luftfeuchtigkeit zu hochgiftiger und extrem ätzender Flusssäure: eine tödliche Gefahr für Mensch und Umwelt im Umkreis von mehreren Kilometern.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

500 Millionen Tonnen giftige und ätzende Chemikalien werden jedes Jahr durch Deutschland transportiert, aber nur 600 Tonnen Uranhexaflourid (UF6) – das sind im Vergleich dazu 0,0001%. Wer dem eine Bedeutung zumisst, sollte seine Risikowahrnehmung überdenken. Und wer der Radiotoxizität im Vergleich zur chemischen Toxizität von UF6 eine Bedeutung zumisst, sollte dies ebenfalls tun. Beispielsweise wird Flusssäure, die eine ähnliche chemische Giftigkeit besitzt, auch als Ätzchemikalie in der Halbleiter- und Photovoltaikindustrie eingesetzt. Andere ätzende Stoffe wie Brom, Ozon oder Schwefeldioxid sind ähnlich chemisch toxisch.

Dass die Mengen so winzig sind liegt an der extrem hohen Energiedichte. 600 Tonnen – das entspricht einem Volumen der Kantenlänge 5 Meter. Damit können alle deutschen Kernreaktoren für ein Jahr Strom produzieren.

Die chemische Toxizität von Uranhexaflourid ist mit anderen ätzenden und hochgiftigen Chemikalien vergleichbar und kann mit etwa demselben Aufwand gesichert werden. Bei den geringen Mengen ist es auch wirtschaftlich irrelevant, dies stark abzusichern. Die Radioaktivität des Urans, die – verglichen mit der chemischen Giftigkeit von Uranhexafluorid – völlig vernachlässigbar ist, wäre hier sogar von großem Vorteil. Selbst kleinste Mengen können so mit einfachen Mitteln aufgespürt werden, sollte die Gegend tatsächlich (chemisch) mit UF6 kontaminiert worden sein. Bei nicht-radioaktiven Stoffen ist dies nicht möglich.

Quellen von KRITIKALITÄT


#11: Plutoniumfracht

Behauptung: Zur Produktion von Brennstäben rollen jedes Jahr viele Tonnen reines, waffenfähiges Plutonium über europäische Straßen.

Die EWS behaupten

Viele Atomkraftwerke setzen sogenannte MOX-Brennelemente ein, eine Mischung aus Uranoxid und Plutoniumoxid. Letzteres stammt meist aus der Wiederaufarbeitung abgebrannter Brennelemente. Schon etwa sieben Kilogramm Plutonium genügen zum Bau einer Atombombe, eingeatmet reichen einige Mikrogramm aus, um sicher Krebs zu erzeugen.

Die MOX-Brennelementefabriken in Frankreich und Belgien werden jährlich mit mehreren Tonnen reinen Plutoniumoxids beliefert – per Lkw über die Autobahn.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Diese Aussage ist falsch. Das transportierte Plutonium ist nicht waffenfähig, denn es befindet sich in Brennelementen, die vorher jahrelang im Reaktorkern waren. Dadurch ist es isotopenverunreinigt und für die Herstellung nuklearer Waffen nicht mehr zu gebrauchen.

Die wenigen Tonnen Plutonium vergleiche man mit den Hunderten Millionen Tonnen hochgifitger und ätzender Chemikalien, die jedes Jahr allein über Deutschlands Straßen und Schienen rollen. Das Plutonium wird auch nicht in leicht-flüchtiger Form offen in gewöhnlichen Behältern transportiert, sondern befindet sich keramisch gebunden und dicht umschlossen in Brennstäben, die wiederum hermetisch in Castoren, den wohl sichersten Behältern der Welt, eingekapselt sind. Die Transporte selbst finden streng bewacht in Schwerlast-LKW oder Eisenbahnzügen statt. Mit einem derartigen Aufwand werden oft viel giftigere und flüchtigere Chemikalien nicht transportiert.

Es ist undenkbar, wie hier selbst Mikrogramm-Mengen nach außen gelangen könnten. Selbst wenn der Castor beschädigt würde, wozu man schon Kampfpanzer bräuchte, und zusätzlich die Brennstäbe undicht wären, und alles in Brand geriete, selbst dann verbliebe die Plutonium-Keramik immer noch in fester Form.

Quellen von KRITIKALITÄT





Heute schon gelacht? Klimaprognosen werden zur Lachnummer.

von Dipl.-Ing. Pierre Gosselin, notrickszone.com

Update 6.4.13 Klimaforschers Mojib Latif Überzeugung Bild Zeitung vom 19.09.2007

Bild These 6: Die Klimamodelle der Forscher stimmen nicht.

Antwort Latif: Falsch. Die Erwärmung entwickelt sich genau wie vorhergesagt. Die Modelle wurden auch an vergangenen Klimaänderungen getestet. Es gibt keinen Grund, den Modellen zu misstrauen. Weitere Details dazu hier

1. „Aufgrund der globalen Erwärmung würden die kommenden Winter in der hiesigen Region milder ausfallen.“
Stefan Rahmstorf, Universität Potsdam
, 8. Feb 2006

***

2. „Mehr Hitzewellen, kein Schnee im Winter“ … „Klimamodelle … mehr als 20-mal genauer als die globalen Modelle des Uno-Klimarats IPCC. In keinem anderem Land der Welt liegt bis dato eine präzisere Kalkulation der Klimafolgen vor. Sie soll die Grundlage für politische Planungen bilden. ….weniger kältebedingte Krankheiten … Am stärksten werden die Temperaturen im Winter steigen … aus dem Osten gelangt weniger Kaltluft nach Mitteleuropa. …In den Alpen werde es im Winter bereits zwischen 2021 und 2050 rund zwei Grad wärmer sein.“
Max-Planck-Institut für Meteorologie, 2. Sept 2008.

****

3. „Im Winter weht der Wind mehr aus Westen und bringt Stürme nach Deutschland. Insbesondere in West- und Süddeutschland häufen sich dann die Überschwemmungen. Weite Landstriche stehen ab 2050 doppelt so häufig unter Wasser wie heute.“
FOCUS und Mojib Latif, Leibniz-Institut für Meereswissenschaften der Universität Kiel
, 27. Mai 2006.

****

4. „Within a few years winter snowfall will become a very rare and exciting event. … Children just aren’t going to know what snow is.“
David Viner, Climatic Research Unit, University of East Anglia, 20. März 2000

****

5. „Im Sommer rechnen die Wissenschaftler unter bestimmten Bedingungen sogar mit dem vollständigen Abschmelzen des Meereises in der Arktis. Für Europa erwarten sie eine Zunahme von trockeneren und wärmeren Sommern. Die Winter werden dagegen wärmer und feuchter.“
Erich Roeckner, Max-Planck-Institut, 29. Sept 2005.

****

6. „Ausbleiben von Eis, Schnee und Frost, d.h. mildere Winter“ … „Ungewöhnlich milde Winter ohne Schnee und Eis werden mittlerweile von vielen als Hinweise auf den Klimawandel gedeutet.“
Schleswig Holstein NABU/, 10. Feb 2007

****

7. Das mehr als ‘außergewöhnlich‘ warme Januarwetter sei ein ‘weiteres Extremereignis‘, das einen ‘Vorgeschmack‘ auf künftige Winter gebe.
Michael Müller, Staatssekretär im Bundesumweltministerium, Die Zeit, 15. Jan 2007

****

8. „Strenge Winter werden wahrscheinlich seltener und die Niederschläge im Winter flächendeckend stärker. Sie fallen durch die milderen Temperaturen jedoch öfter als Regen, denn als Schnee.“
Online-Atlas der Helmholtz-Gemeinschaft, 2010

****

9. „Meist hatten wir eher milde Winter, in die nur einzelne kältere Monate eingestreut waren, etwa der Januar 2009. In diesem Winter gibt es einen Ausreißer nach unten, das ändert aber nichts am Gesamtbild. Generell wird es wärmer werden, auch im Winter.“
Gerhard Müller-Westermeier, Deutsche Wetterdienst, 26. Jan 2010

****

10. „Winter mit starkem Frost und viel Schnee wie noch vor 20 Jahren wird es in unseren Breiten nicht mehr geben.“
Mojib Latif, Max-Planck-Institut für Meteorologie, Hamburg, 1. April, 2000

****

11. „Winter Ade“
Spiegel, 1. April 2000

****

12. „Im Norden des Kontinents wird es wahrscheinlich zu einigen Vorteilen in Gestalt verringerter Kälteperioden und größerer Erträge kommen. Die weiter steigenden Temperaturen werden diese Vorteile jedoch aufwiegen. In einigen Regionen könnten bis zum Jahr 2080 bis zu 60 Prozent der Arten aussterben.“

3Sat, 26. Juni 2003

****

13. „Although the magnitude of the trends shows a large variation among different models, Miller et al. (2006) find that none of the 14 models exhibits a trend towards a lower NAM index and higher arctic SLP.“
IPCC 2007 4AR, Georg Hoffmann

****

14. “Basierend auf dem Temperaturanstieg wird regionalweniger Schnee erwartet. Fallt momentan etwa ein Drittel des Niederschlags in den Alpen als Schnee, konnte der Schneeanteil der Niederschlage am Ende des Jahrhunderts nur noch ein Sechstel ausmachen.“

Germanwatch, Page 7, Feb 2007

****

15. „Angenommen wurde dabei eine Verdoppelung des Kohlendioxidgehaltes in der Atmosphäre, wie sie für das Jahr 2030 prognostiziert wird. Als Folge könnten die Sommer heisser und trockener, die Winter wärmer und feuchter werden. Eine solche Erwärmung ist in hohen Lagen proportional stärker – und trifft damit die für die Gletscher entscheidenden Firnregionen besonders stark.“

und

„Die ‘schneesicheren‘ Skigebiete verlagern sich bis zum Jahr 2050 von 1200 Meter auf 1500 Meter Höhe, da innerhalb der Klimaprognosen mit wärmeren Wintern gerechnet wird.“
Scinexx Wissenschaft Magazin, 26. März 2002

****

16. „Schnee von gestern … Da in den Alpen die Temperaturen stark steigen, wird es zwar vielerorts mehr Niederschläge geben. Da es aber mehr regnet als schneit, kommt dies dem Tourismus nicht zugute. Für viele Skilifte werde dies das Aus bedeuten.“
Daniela Jacob, Max-Planck-Institut für Meteorologie, Hamburg, 8. Aug 2006.

****

17. „Ab 2030 beginnt das Frühjahr schon Ende Januar.“
Die Welt, 30 Sept 2010,

****

18. „Das neue Deutschland zeichnet sich durch trocken-heiße Sommer und warm-feuchte Winter aus.“
Wilhelm Gerstengarbe und Peter Werner, Potsdam-Institut für Klimafolgenforschung (PIK), 2. März 2007

****

19. „Winter Ade … In der nördlichen Hemisphäre sind die Abweichungen gemäß den NOAA-Berechnungen viel größer, teilweise bis zu plus fünf Grad. Das habe Folgen, sagt DWD-Meteorologe Müller-Westermeier: Wenn auf großen Flächen die Schneefallgrenze steige, heize sich der unbedeckte Boden durch die Sonneneinstrahlung umso mehr auf. So verstärke sich die Erwärmung selbst. Ein Prozess, der wenig kontrollierbar ist – und deshalb vielleicht nicht zu Unrecht alte Kinderängste heraufbeschwört: Erst verschwindet der Schnee. Und dann der Winter.“
Die Zeit, 16. März 200

****

20. „Harte und lange Winter bleiben in Deutschland eine Seltenheit: Bis ins Jahr 2085 werden weite Gebiete der Alpen und Mittelgebirge fast schneefrei sein. Da die Lufttemperaturen im Winter stärker ansteigen als im Sommer, kommt es zwar zu mehr Niederschlägen. ‘Doch ein Großteil davon fällt als Regen‘, sagt Daniela Jacob vom Hamburger Max-Planck-Institut für Meteorologie.“
FOCUS, 24. Mai 2006

****

21. „Folgen und Wirkungen regional Landwirtschaft: Heißere Sommer, mildere + kürzere Winter (Palmen!). Landwirtschaft: Mehr CO2 in der Luft, Höhere Temperaturen, v.a. im Winter.“
Dr. Michael Schirmer, Universität Bremen, 2. Feb 2007

****

22. „Winter: feucht + mild“

Bayerische Landesanstalt für Landwirtschaft, 23. Aug 2007

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Baeyern.jpg

****

23. „Die Klimamodellprognosen deuten derzeit darauf hin, dass wahrscheinlich folgende Klimaveränderungen eintreten werden: Zunahme der Minima der Lufttemperatur im Winter.“
LWK Niedersachsen Stand: 6. Juli 2009

****

24. „Sowohl die Prognosen zur globalen Entwicklung des Klimas als auch dir Prognosen zur klimatischen Entwicklung im Fichtelgebirge weisen eindeutig auf eine Erwärmung der Durchschnittstemperaturen hin, wobei diese in den Wintermonaten stark ausfallen wird.“
Willi Seifert, Universität Bayreuth, Diplomarbeit, S. 203, 7. Juli 2004

****

25. „Bereits bis 2025 werden sich so die Voraussetzungen für Wintersport im Fichtelgebirge deutlich negativ entwickeln, was sowohl für die „natürlichen“ Schneeverhältnisse als auch für das sog. Beschneiungspotenzial zutrifft. Ein wirtschaftlich tragbarer Skibetrieb nach ca. 2025 erscheint hier unter diesen Umständen äußerst unwahrscheinlich (Seifert, 2004)“
Andreas Matzarakis, Universität Freiburg Meteorologisches Institut, 26. Juli 2006

****

26. „Skifahren unter Palmen? … Ich würde deshalb im Berchtesgadener Land keinem raten, in einen Skilift zu investieren. Denn die Wahrscheinlichkeit, damit etwas zu verdienen, wird mit der globalen Erwärmung immer geringer.“
Hartmut Graßl, Emeritus-Direktor am Max-Planck-Institut für Meteorologie, Hamburg, Seite 3, 4. März 2006

****

27. „Eine Klimaerwärmung führt zu einem Anstieg der Höhengrenze der Schneesicherheit. Die Zahl der schneesicheren Skigebiete wird sich in Zukunft verringern. […] Eine Klimaänderung führt nicht nur zu erhöhten Temperaturen, sondern auch zu Änderungen bei den Niederschlagsverhältnissen im Sommer und im Winter. […] Im Winterhalbjahr ist mit höheren Niederschlägen zu rechnen, die aber in Zukunft vermehrt als Regen und weniger in Form von Schnee fallen werden.“
Hans Elsasser, Direktor des Geographischen Institutes der Universität, Zürich, 4. März 2006

****

28. „Alle Klimasimulationen – global und regional – wurden am Deutschen Klimarechenzentrum (DKRZ) durchgeführt. […] In den Wintermonaten (DJF) beträgt der Temperaturanstieg etwa 1,5° bis 2° und erstreckt sich von Skandinavien bis zum Mittelmeer. Nur in Regionen unter direktem Einfluss des Atlantiks (Großbritannien, Portugal, Teile von Spanien) fällt im Winter der Temperaturanstieg geringer aus (Abb. 1).“
Max-Planck-Institut für Meteorologie, Pressemitteilung, Stand: Dezember 2007/Januar 2013

****

29. „Bis zum Jahr 2050 … steigen die Temperaturen um 1,5 °C bis 2,5 °C (Sommer) und 3 °C (Winter). … regnet es im Sommer um bis zu 40% weniger und im Winter um bis zu 30% mehr.
Bundesanstalt für Straßenwesen, 1. Sept 2010

****

30. „Jetzt stehen wir an der Schwelle dazu, verlässliche Aussagen über die Zukunft zu treffen“.
Daniela Jacob, Max-Planck-Institut für Meteorologie, Hamburg, Seite 44, 10/2001

****

31. „Die Szenarien der Klimaforscher sind sich in einem einig: Wir werden künftig in Deutschland mit immer trockeneren Sommern und noch deutlich mehr Regen im Winter leben müssen.“
Gerhard Müller-Westermeier, Deutsche Wetterdienst, 20. Mai 2010

****

32. „Mildere Winter, trockenere Sommer: Klimastudie zeigt Anpassungsbedarf in Sachsen-Anhalt auf.“
Potsdam Institute für Klimaforschung, Pressemitteilung, 10. Jan 2010.

****

33. „Aus den Simulationen gehen klare Klimatrends hervor. Danach wird es vor allem in den Wintermonaten in ganz Deutschland wärmer. Regional steigen, je nach CO2-Ausstoß, die Temperaturen um bis zu vier Grad, in den Alpen sogar bis fünf Grad.“
Max-Planck-Institut für Meteorologie, Hamburg, 7. Dez 2009.

****

34. „Während die Zunahmen im Frühjahr vergleichsweise moderat ausfallen, unterliegen die (Spät)sommer- und Wintermonate einem besonders starken Erwärmungstrend.“
Landesamt für Umwelt, Landwirtschaft und Geologie, Sachsen, S. 133, Schriftenreihe Heft 25/2009.

Danke an Herrn Gosselin für diese akribische Zusammenstellung. Uns fällt hierzu nur Werner Heisenberg (deutscher Physiker und Nobelpreisträger) ein, der sagte:

„Prognosen sind schwierig, besonders, wenn sie die Zukunft betreffen“.

EIKE Redaktion




Kernenergie: 100 Gründe und 100 gute Antworten, Fortsetzung #4 bis #7

Nun die Fortsetzung Gründe und Antworten #4 bis #7. Die bisher behandelten Gründe und Antworten #1 bis #3 können Sie  hier nachlesen. Der Originalartikel findet sich wie immer unter KRITIKALITÄT, insbesondere die MOTIVATION sollte gelesen werden.

#4: Radioaktive Schlammseen

Behauptung: Giftschlämme des Uranbergbaus gefährden Mensch und Umwelt.

Die EWS behaupten

Bei einem Urangehalt von 0,2 Prozent bleiben von jeder Tonne Uranerz 998 Kilo giftiger Schlamm zurück, der in Senken und künstlichen Seen landet. Diese sogenannten Tailings enthalten noch 85 Prozent der Radioaktivität des Erzes und viele Gifte wie zum Beispiel Arsen.

Radioaktive Stoffe aus den Tailings verseuchen Luft und Grundwasser über Jahrtausende, ein Dammbruch oder Erdrutsch hat katastrophale Folgen.

Aus dem Schlammlagerbecken der Atlas Mine in Moab (Utah/USA) sickern seit Jahrzehnten giftige und radioaktive Substanzen ins Grundwasser und von dort in den nahe gelegenen Colorado River, der 18 Millionen Menschen mit Trinkwasser versorgt. In Kasachstan gefährdet der radioaktive Staub eines austrocknenden Tailings die 150.000-Einwohner-Stadt Aktau. Und die zahllosen Uranschlammdeponien in engen kirgisischen Bergtälern bergen nach Ansicht der Vereinten Nationen das »Potenzial für eine internationale Katastrophe«.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Neodym für Windkraft-Generatoren, Silber für Solarzellen – Tailings sind bei jeder Art Rohstoffförderung ein Problem, für das es andererseits aber auch umweltfreundliche Lösungen gibt. Rückstände die auch aus dem Wasser wirksam abzutrennen sind, gehören nach dem Ausschöpfen der Mine auch dorthin wieder zurück, wie es bei den meisten heutigen Minen auch bereits praktiziert wird. Auch eine Rekultivierung der Minen und Schlammseen würde den Strompreis nur um ein paar Prozent erhöhen.

Misst man den Förderaufwand für Uran an dessen extrem hoher Energiedichte, so kann man gerade der Uranförderung eine sehr gute Umweltbilanz bescheinigen. Bei der gleichen produzierten Energiemenge ist beispielsweise das Tailing allein für das für Solarzellen benötigte Silber, selbst bei 50% Recycling, 3 mal so hoch wie für Uran. Solarzellenhersteller versprechen eine Verbesserung um einen Faktor 10 für die Zukunft, für die Urannutzung kann man hingegen schon heute in Schnellspaltreaktoren einen Faktor 100-200 Verbesserung erreichen.

Nicht nur die Mengen, auch die Radiotoxizität der Uran-Schlammseen ist sehr gering. Die TU Bergakademie Freiberg hat das Kadji-Sai-Tailing in Kirgistan vermessen und kam zu dem Ergebnis, dass die Aktivität an der Oberfläche vernachlässigbar und in der Tiefe nicht viel größer als die von Kohleasche ist. Die Tailings in Kirgistan zeichnen sich außerdem durch eine höchst ineffiziente Abtrennung des Urans aus, 75% verblieben in den Tailings, entsprechend höher ist die Radioaktivität. Normale Urantailings, wie z.B. das am Colorado-River, haben nur einen Bruchteil dieser Aktivität. Die zuständige US-Landesbehörde hat im dortigen Flusswasser übrigens nie eine erhöhte Radioktivität nachweisen können. Sollte dieser ganze Schlamm auf einmal in einen nahgelegenen Fluss gelangen, wird er noch weiter verdünnt und die Menschen haben nichts zu befürchten. Man kann dies eine „Schweinerei” nennen, eine „internationale Katastrophe” sieht aber wirklich anders aus.

Trocknen solche Tailings wie in Kasachstan aus, so entsteht uranhaltiger Staub. Eine Gruppe der UN hat das Aktau-Tailing genau vermessen und kam zu dem Ergebnis, dass die Belastung direkt über dem Uran nicht höher ist als die natürliche in einigen bewohnten Gegenden der Erde, am Südrand sinkt sie auf das natürliche Niveau des Südschwarzwalds. Aktau liegt nochmal 10 km davon weg. Nicht schön, aber auch hier sollte man die Kirche im Dorf lassen. Selbst Arbeiter, die im Vergleich dazu ein Arbeitsleben lang ein Vielfaches der Schwarzwald-Aktivität an Uranstaub einatmeten, zeigten keinerlei gesundheitliche Auffälligkeiten.

Während die Radioaktivität der Uran-Schlammseen sehr gering und „Verseuchungsszenarien” rein hypothetisch sind, ist die Umweltverschmutzung durch Biomasse harte Realität, hier schlagen Behälter regelmäßig Leck. Im Sommer 2010 verwandelte sich der Kallinger Bach im Landkreis Erding kilometerlang in totes Gewässer – kein Einzelfall, sondern traurige monatliche Routine. NABU fordert bereits einen Gülle-Katastrophenschutz.

Unsere Quellen


#5: Krebs aus der Mine

Behauptung: Uranbergbau verursacht Krebs.

Die EWS behaupten

Radioaktive und giftige Stoffe aus Urangruben und ihren Abfallhalden machen Arbeiter und Anwohner krank, die Krebsrate steigt.

Rund 10.000 ehemalige Arbeiter der Wismut-Urangruben in Ostdeutschland sind strahlenbedingt an Lungenkrebs erkrankt. Die Einwohner der kirgisischen Uranbergbaustadt Mailuu-Suu bekommen doppelt so häufig Krebs wie ihre Landsleute. Bei den zwischen 1955 und 1990 in der Uranmine in Grants (New Mexico/USA) Beschäftigten belegte eine Studie ebenfalls erhöhte Krebs- und Todesraten. Massive Gesundheitsprobleme wegen des Uranbergbaus sind auch bei den Navajos in New Mexico, in Portugal, in Niger und in vielen anderen Uranbergbaugebieten nachgewiesen.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

    Richtig ist …

    Arbeit in Minen findet bei Staub, Feuchtigkeit, Hitze und starker körperlicher Anstrengung statt, oft begleitet von erheblichem Zigarettenkonsum. Erhöhte Krankheits- und Krebsraten sind epidiomologisch für Arbeiter nachgewiesen worden, die nur unzureichend vor diesen Gefahren geschützt wurden – das ist unbestritten.

    „Die Strahlung” stand immer in Verdacht, für diese Gesundheitsrisiken mitverantwortlich zu sein, jedoch konnte dies nie eindeutig belegt werden, wie eine von UNSCEAR erstellte Übersicht zeigt, weder für die Wismut-Urangruben, noch für die Einwohner von Mailuu-Suu, noch für die Navajos in New Mexico, noch in Portugal, noch in Niger noch in irgendwelchen anderen Uranbergbaugebieten.

    Angesichts der vielen parallelen und viel gefährlicheren Belastungen in Minen ist das auch nicht überraschend. Eine Untersuchung des Robert Koch Instituts zeigte die gleichen chromosomischen Aberrationen bei Uran- wie bei Kohleminenarbeitern – die Strahlung muss es also nicht sein. Auch zeigen die Arbeiter in den Mahlwerken der Grants-Mine laut einer amerikanischen Studie keine gesundheitlichen Auffälligkeiten, obwohl sie durch Inhalation von Uranstaub die fünfzehnfache natürliche Jahresdosis in ihren Lungen durchschnittlich angesammelt haben. Auch Radon und andere radiologische Belastungen gibt es hier, deutlich über der fünffachen Jahresdosis.

    Gerade die Wismut-Urangruben zeigen jedoch, was man durch Arbeitsschutz erreichen kann. Hier wurden durch bessere Belüftung die Belastungen verglichen mit den ersten 20 Betriebsjahren auf ein Zehntel reduziert. In den Uranminen von Saskatchewan, Kanada, wurde die Belastung sogar so weit reduziert, dass ein Gesundheitsrisiko auch theoretisch nicht mehr zu erwarten ist – entsprechende Studien wurden abgesagt.

    „Krebs aus der Mine” – das ist ein ernstzunehmendes Problem. Es ist aber keine Besonderheit von Uranminen, hat wenig oder gar nichts mit Radioaktivität zu tun, und es lässt sich durch einfache Arbeitsschutzmaßnahmen beheben.

    Unsere Quellen


    #6: Tote Erde

    Behauptung: Der Uranabbau hinterlässt tote Erde.

    Die EWS behaupten

    Die allermeisten Uranerze enthalten nur 0,1 bis 1 Prozent Uran, manche sogar nur 0,01 Prozent. Für eine Tonne Natururan sind also zwischen 100 und 10.000 Tonnen Erz nötig. Sie müssen gefördert, verarbeitet und anschließend als giftiger Schlamm Hunderttausende von Jahren sicher gelagert werden.

    Hinzu kommen Millionen Tonnen von Gestein, das zu wenig Uran enthält. Dieser Abraum, ein Vielfaches des geförderten Uranerzes, ist meist ebenfalls radioaktiv. US-Präsident Nixon erklärte ehemalige Uranabbaugebiete wegen der großräumigen und andauernden Verseuchung 1972 zu nationalen Opferlandschaften, den ›National Sacrifice Areas‹.

    „Weiterführende Informationen” der EWS und „Quellen” der EWS

    Richtig ist …

    Kein Rohstoff liegt fertig getrennt in der Erde – die Natur hat hier leider nicht „aufgeräumt”. Deshalb fallen diese Tailings, meist in Form von Schlammseeen, bei allen Arten der Förderung, nicht nur von Uran, an. Bei sehr kleinen Konzentrationen werden oft verschiedene Rohstoffe zusammen extrahiert, wie zum Beispiel Kupfer, Uran, Silber und Gold im „Olympic Dam” in Australien.

    In Zeiten des frühen Bergbaus wurden stillgelegte Minen nicht saniert und Chemikalien oft nicht sauber zurückgewonnen, entsprechend toxisch sind die Schlammseen. Für moderne Minen gilt dies aber längst nicht mehr. Zum einen bestehen die Schlammseen fast nur aus dem geförderten Naturerz, zum anderen liegen finanzielle Rückstellungen für eine spätere Sanierung vor – zumindest in Staaten mit entsprechenden Umweltregulierungen (die meisten OECD-Staaten), aber auch in anderen Staaten, wenn die Minen nach modernen Arbeitsschutzstandards betrieben werden. Die Fördermethode des In-situ-leaching (ISL) löst die Uranverbindungen chemisch direkt im Vorkommen, sodass oberirdische Rückstände nochmals deutlich reduziert werden. Bereits 45% des weltweit und 90% des in den USA geförderten Urans werden so gewonnen.

    Der Abraum hingegen ist “immer“ radioaktiv, so wie praktisch der gesamte Planet Erde mitsamt allen darauf lebenden Wesen radioaktiv ist. Er wird nicht verändert und in der Regel später wieder aufgetragen. Dieser Vorwurf ist schlicht unsinnig.

    Unsere Quellen


      #7: Teurer Dreck

      Behauptung: Die Sanierung von Uranabbaugebieten verschlingt Milliarden – sofern sie überhaupt möglich ist.

      Die EWS behaupten

      Uranbergbau hinterlässt riesige Altlasten: ganze Seen voller giftiger radioaktiver Schlämme, ganze Berge strahlenden Schutts. Über Jahrtausende bedrohen sie Grund- und Trinkwasservorkommen, vergiften die Luft, gefährden die Gesundheit. Die Bergbaukonzerne verdienen gutes Geld mit dem Uranabbau. Die Folgekosten für Schutz und Sanierungsmaßnahmen muss zum größten Teil die Allgemeinheit tragen.

      Die Umlagerung einer einzigen Schlammdeponie einer einzigen Uranmine in den USA verschlingt über eine Milliarde Dollar Steuergelder. Und die Sanierung der Hinterlassenschaften des DDR-Uranbergbaus kostet den Bund 6,5 Milliarden Euro – obwohl sie, um Kosten zu sparen, nach den niedrigen Strahlenschutzstandards der DDR durchgeführt wird. Viele Länder, in denen Uran abgebaut wird, können sich solche Sanierungsausgaben gar nicht leisten.

      „Weiterführende Informationen” der EWS und „Quellen” der EWS

        Richtig ist …

        Bei den „Bergen strahlenden Schutts” handelt es sich um das normale Erdreich, welches abgetragen wurde, der sogenannte Abraum. Dieses beinhaltet nun einmal die natürliche Radioaktivität, so wie im Wesentlichen die gesamte Erde radioaktiv ist. Es handelt sich hier nicht um ein spezielles Problem des Uranbergbaus, auch wenn das Erdreich in der Nähe von Uranvorkommen vielleicht eine etwas höhere natürliche Radioaktivität hat.

        Schlammseen entstehen immer als Folge jeden Bergbaus, nicht nur des Uranbergbaus. In Staaten wie Kanada, Australien und den USA, die zusammen fast ein Drittel der heutigen Uranförderung ausmachen, gelten strenge Umweltrichtlinien, die auch die spätere Sanierung der Minen und der Tailings betreffen. Aber schon die Rückgewinnung der Chemikalien während des Betriebs sorgt dafür, dass die Toxizität der Tailings fast vernachlässigbar ist. Die Radiotoxizität spielt hier eine völlig untergeordnete Rolle – sie ist direkt auf den Schlammseen so groß wie in der Uranmine selbst. Die Folgekosten für die Sanierung müssen mitnichten von der Allgemeinheit, sondern von den Minenbetreibern in Form von Rückstellungen getragen werden. Die Fördermethode des In-situ-leaching (ISL) löst die Uranverbindungen chemisch direkt im Vorkommen, sodass oberirdische Rückstände und damit die Sanierungsaufwendungen deutlich reduziert werden. Bereits 45% des weltweit und 90% des in den USA geförderten Urans werden so gewonnen.

        Die Umlagerung des Schlammbeckens der Atlas Mine, einer der ältesten Uran-Minen, in Moab (Utah/USA), ist eine äußerst ungewöhnliche und einmalige Maßnahme. Dennoch sind die Kosten gemessen an der geförderten Uranmenge, die einer Elektrizitätsmenge von 23.000 Terawattstunden entspricht (damit kann man ganz Deutschland für 40 Jahre versorgen), mit 0,003 cent/kWh völlig unbedeutend.

        Die Sanierung der Wismutmine aus den Hinterlassenschaften des DDR-Uranbergbaus ist da mit 0,04 cent/kWh schon „richtig teuer”. Die „Kostenersparnis” durch DDR-Standards dürfte davon weniger als ein Prozent ausmachen.

        Unsere Quellen