1

UBA beschimpft Klimaskeptiker- Ein Deja Vu!

Video (hochgeladen von Mr. Selbstdenker) mit dem ebenso heftigen, wie leider wahren Titel:

Der Klimaschwindel – Wie die Oekomafia uns abzockt

Video nicht mehr verfügbar

Video zum politischen Umgang mit dem Klimaschwindel. Wichtig sind die -nicht nur in Kopenhagen, sondern auch bei den folgenden Konferenzen in Cancun und Doha- beschlossenen politischen Absprachen und Verträgen.

Passend dazu die Schlagzeile im gestrigen „heute.de“. Auszüge daraus:

„Wir müssen über globale Umverteilung reden“

Was sind die Folgen des Klimawandels? Forscher wollen ihre Erkenntnisse bündeln, um die erwartbaren Schäden beziffern zu können. Nur möglichst konkrete Szenarien können die Politik zum Handeln bewegen, sagt Hermann Lotze-Campen, Organisator einer internationalen Klimafolgen-Konferenz in Potsdam, im heute-de-Interview.. 

heute.de: In Potsdam treffen sich Forscher aus aller Welt, um einen einheitlichen Blick auf die Folgen des Klimawandels zu bekommen. Wie realistisch ist dieses Unterfangen eigentlich? Schon die Prognosen fürs Klima selbst sind so breit gefächert – wie können dann über die Folgen konkrete Aussagen möglich sein?

Hermann Lotze-Campen: Diese breiten Korridore, zum Beispiel zu Temperaturänderungen und Niederschlagsänderungen, ergeben sich ja aus verschiedenen Zukunftsszenarien. Klimawirkungsforscher nehmen genau diese Szenarien her und spielen sie durch. Dann können sie Aussagen treffen wie: In Klimaszenario X erwarten wir für Region Y folgende Auswirkungen auf die Erträge der Landwirtschaft. Die Korridore der Klimaszenarien werden also abgedeckt… heute.de: Auch wenn man das bisher nicht beziffern kann: Klimaforscher zeichnen längst ein dramatisches Bild von den Auswirkungen des Klimawandels – und trotzdem schafft die Welt es nicht, ihre Treibhausgasemissionen zu begrenzen. Verlieren Sie da nicht die Hoffnung?

Lotze-Campen: Nein. Es ist eben ein dickes Brett, das man bohren muss. Die Kosten der Vermeidung werden ja heute bereits spürbar, siehe Energiewende, die Kosten der Nicht-Vermeidung liegen dagegen in ferner Zukunft. Da ist es wohl menschlich, erst mal nichts zu tun. Der Ausweg liegt meines Erachtens darin, die künftigen Kosten möglichst konkret zu benennen.  Hinzu kommt die globale Asymmetrie: Hauptverantwortlich für den Klimawandel sind die wohlhabenden Länder, am stärksten von den Folgen betroffen sein werden andere. Man muss also über globale Umverteilung reden. Auch dafür liefern Kostenabwägungen Anreize – bezogen auf Deutschland etwa, wenn man untersucht, was es für unsere exportorientierte Wirtschaft bedeutet, wenn es anderen Ländern aufgrund des Klimawandels schlechter geht….

Mit Dank an Spürnase CCS

Michael Limburg




VDI-Berlin Brandenburg: Energiewende-Energiewunder?

Der VDI zeigt die 3 Vorträge und die Podiumsdiskussion auf seiner Website (hier) hatte es jedoch nicht vermocht, die Vortragenden und die dazugehörigen Folien aufzuzeichnen. Deswegen haben wir den EIKE Vortrag mit diesen Folien angereichert, um damit das Verständnis des Zuschauers überhaupt erst zu ermöglichen. Es wurde weder etwas weggeschnitten, noch hinzugesetzt.

Video des Vortrags von M. Limburg EIKE incl. der zugehörigen Folien

Video des Vortrages vom 21.2.13 von Michael Limburg, Vizepräsident EIKE. Der VDI Berlin-Brandenburg legt ausdrücklichen Wert auf die Feststellung dass die Vorträge die Meinungen der Vortragenden widergeben und nicht die Meinung des VDI.

Video über die Podiumsdiskussion.

Video nicht mehr verfügbar

Video der anschließenden Podiumsdiskussion. Hoch interessant, auch wenn sie etwas länger dauert. Besonders die Reaktion des Publikums.

Die Redaktion

Update vom 1-6-13 

Wie der VDI bzw. seine Leitung über die Energiewende denkt lesen Sie hier in  den VDI Nachrichten: Energiewende: "Die Entscheidung ist ehrgeizig, verfolgt aber einen richtigen Weg"




Offener Brief Fritz Vahrenholt an UBA Präsidenten:Warum haben Sie meine Biografie gefälscht?

Update 25.5.13 16.20

Inzwischen sind auch die Namen der Autoren im Impressum nachlesbar- Es handelt sich um: Dr. Harry Lehmann (Philosoph), Dr. Klaus Müschen (Elektrotechnik und Soziologie), Dr. Steffi Richter (Kinderbuchautorin) , Dr. Claudia Mäde.(Mit Danke am Leser Hovestadt)

Sehr geehrter Herr Präsident,

zu einem Zeitpunkt, an dem nun endlich auch 17 IPCC-nahe Klimaforscher (Otto et.al., Nature Geoscience, 19. Mai 2013) die Öffentlichkeit mit der aufsehenerregenden Mitteilung überraschen, dass die Klimasentivität der Klimagase, namentlich des CO2, um mehr als 50 Prozent zu hoch angesetzt ist, und sich demzufolge alle bisherigen Prognosen der anthropogen verursachten Klimaerwärmung als korrekturbedürftig erweisen, erscheint eine 123 Seiten starke Veröffentlichung des Umweltbundesamtes „Und sie erwärmt sich doch“, in der einerseits der Konsens über die IPCC Prognosen beschworen wird und andererseits die Kritik an Art und Ausmaß der Temperaturentwicklung in diesem Jahrhundert mit falschen Behauptungen, Weglassungen von Informationen und Diffamierungen der Kritiker in unerträglicher Weise behandelt wird.

Dies ist für eine Bundesbehörde, die zum Geschäftsbereich des Umweltbundesministers gehört, völlig inakzeptabel.

Es gilt das Recht auf freie Meinungsäußerung

Bevor ich auf die inhaltlichen schweren Mängel zu sprechen komme, möchte ich Sie fragen, was Sie bewogen hat, Journalisten ihr Recht auf freie Meinungsäußerung und Wissenschaftlern ihr Recht auf kritische Überprüfung von wissenschaftlichen Sachverhalten abzusprechen. Soviel ich erkennen kann, ist unter den in der Broschüre benannten „Klimawandelskeptikern“ kein einziger, der einem Erwärmungstrend der Erde durch Treibhausgase widerspricht. Es geht im wissenschaftlichen Diskurs in der Fachwelt um Attribution, Geschwindigkeit und Ausmaß der Klimaveränderungen und daraus resultierend um die notwendigen Maßnahmen zur Verhinderung beziehungsweise Anpassung.

Ich bin persönlich betroffen. Im Abschnitt „Klimawandelskeptiker in Deutschland“, in dem Sie in gelber Farbe die Namen von Journalisten, Vereinen und die Wissenschaftler Vahrenholt und Lüning hervorheben, brandmarken und an den Pranger stellen, wird die Methode deutlich: Kritiker werden als Handlanger der Industrie dargestellt.

Biografie gefälscht

Zu meinem Lebenslauf schreiben Sie, dass ich Vorstand der Deutschen Shell war und seit 2001 Manager des Energieversorgungsunternehmen RWE sei. Letzteres ist falsch. Ich habe 2001 das Windkraftunternehmen Repower gegründet, habe es zur Weltspitze in der Branche geführt und war bis 2008 Vorstandsvorsitzender des Unternehmens. Warum haben Sie meine Biografie gefälscht? Passte dies besser in das Feindbild, das Sie aufzubauen trachten?

Ich bin erst 2008 zum Geschäftsführer der von mir mitgegründeten RWE Innogy ernannt worden, einer Gesellschaft für Erneuerbare Energien, die Jahr für Jahr der größte deutsche Investor in diesem Sektor war. Sie haben auch verschwiegen, dass es bei Shell meine Aufgabe war, die Erneuerbaren Energien für den Konzern zu entwickeln. Der Bau der ersten Solarfabrik in Deutschland fiel in meine Vorstandszeit. Da passt auch ins Bild, dass Sie verschweigen, dass ich von 1976 bis 1981 Fachgebietsleiter „Chemische Industrie“ beim Umweltbundesamt war, dem Amt, das mich jetzt verhöhnt.

Hätte Ihr Vorgänger im Amt, Dr. Heinrich von Lersner, Kritik am politischen Mainstream, nämlich die allfällige Verharmlosung der Chemierisiken, die ich in „Seveso ist überall“ thematisierte, mit der gleichen Rigidität zu unterbinden versucht, wäre die Chemiedebatte wahrscheinlich ein wenig anders verlaufen.

Dass Sie mein Ausscheiden als Geschäftsführer der RWE Innogy und meine augenblickliche Funktion als Alleinvorstand der Deutschen Wildtier Stiftung nicht erwähnen, zeigt, dass Sie nur ein Ziel hatten: einen Kritiker zu diffamieren.

Meinem Co-Autor Dr. Sebastian Lüning geht es nicht besser. Als habilitierter Geologe und Paläontologe war er jahrelang peer reviewer für geowissenschaftliche Fachzeitschriften und arbeitet schon seit geraumer Zeit nicht mehr für RWE DEA. Was ist das für ein Verständnis von wissenschaftlicher Debatte, wenn Sie uns unterstellen, wir könnten uns als „fachfremde Einzelpersonen“ nicht „tiefgründig in die verschiedenen Klimamodelle einarbeiten“?

Weglassungen, Halbwahrheiten und Einäugigkeit

Da würde ich doch gerne wissen, welche fachkundigen Wissenschaftler diesen Bericht geschrieben haben, in dem zwölfmal Herr Stefan Rahmstorf als Quelle angegeben wird. Können Sie der Öffentlichkeit gegenüber ausschließen, dass Herr Rahmstorf oder einer seiner Kollegen diesem Bericht zugearbeitet haben? Es liegt ja nahe, denn addiert man die Projekte, die das Potsdam Institut für Klimafolgenforschung (Schellnhuber/Rahmstorf) vom UBA als Auftrag erhalten hat, ergeben sich ca. acht Mio Euro. Hinzu kommen diverse Produkte, die von Mitarbeitern des PIK mit betreut werden.

Wer so persönliche Daten verfälscht, wie es in diesem Bericht erfolgt, dem sind auch in der Sache Weglassungen, Halbwahrheiten und Einäugigkeit zuzutrauen. Dazu möchte ich im folgenden einige Hinweise geben.

Auf Seite acht erläutert der Bericht, dass die WMO 30 Jahre als Zeitspanne für Untersuchungen des Klimas angibt. Im nächsten Absatz wird daraus geschlussfolgert, dass daher auch eine Reihe von kühlen Jahren in einem Jahrzehnt nicht bedeutet, dass sich das Klima abkühlt. Das sei erst der Fall, „wenn sich die Abkühlung über mehrere Jahrzehnte hinweg fortsetzt“.

Das ist falsch. Es ist in der Klimaforschung bislang unbestritten, dass die Signifikanz einer Erwärmung oder Nichterwärmung auf etwa 17 Jahre bemessen ist (Santer et al., Journal of Geophysical Research,2011). Seit nunmehr 15 Jahren weigert sich aber die globale Mitteltemperatur, weiter anzusteigen, Jahr für Jahr werden enorme Mengen an CO2 ausgestoßen, zwischen 2000 und 2010 etwa 100 Milliarden Tonnen, ein Viertel aller Emissionen seit 1750. Das müsste doch zum Nachdenken Anlass geben. Es muss doch eine Kraft geben, die dem Klimagas CO2 in seiner unbestrittenen Erwärmungsfähigkeit von 1,1 Grad Celsius pro Verdopplung der CO2-Konzentration entgegenwirkt.

Aber auf die Idee, dies in Erwägung zu ziehen, kommen Sie nicht. Auf Seite 54 schreiben Sie: „Aus der Temperaturentwicklung seit 1998 zieht manch einer die Schlussfolgerung, dass die globale Erwärmung seit dieser Zeit zum Stillstand gekommen ist. Das ist jedoch aus folgenden Gründen nicht richtig: … Die Hadcrut Reihe in Abbildung 2 zeigt eine fortschreitende globale Erwärmung seit mehr als 30 Jahren. Das ist ein langfristiger Erwärmungstrend. Eine langfristige Stagnation der globalen Erwärmung hingegen ist nicht erkennbar“.

Erderwärmung vollzieht sich in Zyklen

Das sehen sogar Herr Pachauri, Vorsitzender des IPCC, oder J. Hansen (vormals NASA) anders und anerkennen die fehlende Temperatursteigerung. Es gibt nur sehr wenige Wissenschaftler, die diesen Stopp der Erwärmung nicht zur Kenntnis nehmen, wie Stefan Rahmstorf. Dieser Minderheitsmeinung schließt sich offenbar das UBA an.

Dem UBA ist offensichtlich entgangen, dass sich die Erwärmung des letzten Jahrhunderts in Zyklen vollzog. Der Erwärmung der Jahre 1910 bis 1940 folgte eine Abkühlung bis 1977. Von 1977 bis 1998 folgte eine Erwärmungsphase mit einem ähnlichen Gradienten wie zwischen 1910 und 1940. Wir haben sowohl im Buch „Die Kalte Sonne“ als auch auf unserem Blog darauf hingewiesen, dass die ozeanischen dekadischen Oszillationen von den Klimamodellen nicht erfasst werden.

Die Temperaturen der Nordhalbkugel folgen dem Wärmeinhalt des Nordatlantiks (ocean heat content OHC) und dieser zeigt das Auf und Ab des OHC im Gleichklang zur atlantischen multidekadischen Oszillation (AMO), die einen etwa 60-jährigen Zyklus aufweist. Eine vergleichbare Oszillation ist mit der pazifischen Oszillation (PDO) festzustellen.

Solche Zyklen aus den Ozeanen wurden in den IPCC-Berichten nicht berücksichtigt. Diese liegen jedoch auf der Hand und führen in der Superposition mit dem nahezu linearen Trend aus der Treibhauswirkung des CO2 dazu, dass der wärmende Einfluss von CO2 und anderen anthropogenen Treibhausgasen wohl nur ca. 50 Prozent von dem beträgt, was ihnen bisher vom Mainstream der Klimaforschung zugesprochen wurde, der sich vorrangig auf die Erwärmungsraten 1977 bis 2000 stützte und sie ausschließlich auf die CO2-Wirkung zurückführte.

In dieser Zeit wirkten die Ozeanzyklen jedoch verstärkend. Die Einflüsse aus der thermohalinen Zirkulation auf das Klima sind so ein Schlüssel zum tieferen Verständnis dessen, was uns in den nächsten Jahren erwartet. (Siehe Latif et al.)

Forschungsergebnisse verzerrt wiedergegeben

Umso befremdlicher ist es, dass Ihr Bericht auf Seite 110 den Inhalt unseres Buches falsch und verzerrt wiedergibt: „Die beiden Autoren … machen natürliche Ursachen wie die schwankende Sonnenstrahlung für die globale Erwärmung in den letzten Jahren verantwortlich“. Das Lesen des Klappentextes des Buches hätte gereicht, um zu erfahren, dass „Ozeanzyklen und die Sonne, die kürzlich in eine längerfristig strahlungsarme Phase eingetreten ist, einen größeren Beitrag zum Klimageschehen leisten als bisher angenommen.“

Dass ozeanische dekadische Oszillationen einen großen Teil der Erwärmung von 1977 bis 2000 erzeugt haben, ist durch unser Buch erstmals einer breiteren Öffentlichkeit bekannt geworden. Eine Aufgabe, die dem staatlichen Umweltbundesamt laut Errichtungsgesetz gut zu Gesicht gestanden hätte.

Mittlerweile gibt es zahlreiche wissenschaftliche Forschungsergebnisse, die dies belegen. Nicht zuletzt der unterschätzte Einfluß der dekadischen Oszillationen hat dazu geführt, dass zahlreiche Autoren in einer Fülle von wissenschaftlichen Artikeln (peer-reviewed) in Fachzeitschriften von nur einer halb so großen Klimasensitivität des CO2 ausgehen. Warum wird das durch das UBA verschwiegen?

Das Umweltbundesamt beruft sich stattdessen (S. 28) auf eine Studie aus dem Jahre 2000 (!) (Grieser et al.): „Etwa zwei Drittel der globalen Erwärmung seit dieser Zeit (gemeint ist seit Mitte des 20. Jahrhunderts) sind auf den menschlichen Einfluss zurückzuführen“. Die Studie, vom UBA beauftragt, gibt das anthropogene Treibhaussignal mit 59,9 Prozent an. Allerdings führt die Studie weiter aus, dass bei den europäischen Temperaturen das Treibhaussignal nur mit 7,6 Prozent wenig signifikant ist.

Alles nur menschgemacht?

Für Europa wird danach ein gleich hoher Einfluss von Klimagasemissionen und Nordatlantischer Oszillation ermittelt. Dieses Ergebnis findet sich aber nicht im aktuellen UBA-Pamphlet. Würde doch nur verwirren, dass die Forscher schon 2000 den Einfluß atlantischer Oszillationen hervorheben! Stattdessen wird immer wieder die Veröffentlichung von Schellnhuber und Rahmstorf (Der Klimawandel, C.H. Beck, 2007) zitiert. Dort kommen (Seite 40) für die Erwärmung lediglich die Treibhausgase in Frage: „Der Erwärmungsschub seit den 70er Jahren ist nicht mit natürlichen Ursachen zu erklären“.

Auf Seite 45 heißt es dort, dass Modelle „einen Beitrag anthropogener Ursachen (Treibhausgase und Aerosole) zur Erwärmung im 20. Jahrhundert von 0,5 Grad Celsius ergeben. Da die Erwärmung im 20. Jahrhundert (Seite 50, ebenda) 0,6 Grad Celsius betrug, sind dies immerhin schon 80 Prozent, die dem anthropogenen Einfluss zugeschrieben werden. Doch das Umweltbundesamt geht weiter. Auf Seite 38 zeigt das Amt die Ergebnisse von Klimamodellen aus dem IPCC-Bericht 2007. Danach ist der natürliche Einfluss Null (Abb. 1), wenn nicht sogar negativ, und allein anthropogene Einflüsse erzeugen die Erwärmung.

Dies führt uns zur entscheidenden Frage der Klimasensitivität. Es ist zweifelsfrei, dass Klimagase, namentlich CO2, einen Erwärmungsbeitrag leisten. Doch viel bedeutsamer ist die Frage: wieviel ? Wie Sie wissen, wird als Klimasensitivität des CO2 die Erwärmung bei Verdoppelung der CO2-Konzentration gegenüber dem vorindustriellen Niveau von 280 ppm verstanden.

Da verweist uns die UBA-Veröffentlichung allein auf Schellnhuber/Rahmstorf (Der Klimawandel, Seite 42): „Die als gesichert geltende Spanne“ der Klimasensitivität reicht (d. Verf.) „von 2 bis 4,5 Grad Celsius… Daher kann man einen Wert nahe an 3 Grad Celsius als den wahrscheinlichsten Wert ansehen“.

Klimasensitivität ist geringer als gedacht

Mittlerweile verdichten sich die wissenschaftlichen Erkenntnisse darüber, dass die Klimasensitivität des CO2 weit tiefer anzusiedeln ist.In Fachzeitschriften (Peer Reviewed) wurden kürzlich folgende Sensitivitäten veröffentlicht: Nic Lewis 1,1 bis 2,2 (Journal of Climate 2013), Troy Masters 1,5 bis 2,9 (Climate Dynamics 2013), Michael Ring 1,5 bis 2 (Atmospheric and climate science 2012). Auch die Ergebnisse der Norwegischen Forschungsgemeinschaft ( Norwegian Research Council), die den Einfluss des CO2 glatt halbiert, ist für das Umweltbundesamt nicht erwähnenswert.

Ich will nicht unerwähnt lassen, das wir im Buch „Die Kalte Sonne“ eine Klimasensitivität des CO2 von 1 bis 1,5 Grad Celsius zugrundegelegt haben. Ja, wir haben mit einer anthropogen erzeugten Erwärmung umzugehen, die aber bei weitem die katastrophalen Prognosen des IPCC und ihrer Vertreter von 2 bis 6 Grad Celsius nicht erreichen werden. Die Quintessenz unseres Buches ist: Die natürlichen Einflüsse geben uns Zeit, unsere Energiebasis auf nachhaltige Grundlagen zu stellen. Und soweit ich sehe, ist unsere zentrale Aussage nicht mehr von den jüngsten Forschungsergebnissen entfernt. Gleichwohl wird unser wissenschaftlich belegter Standpunkt mit dem Bann und der Acht des Umweltbundesamtes versehen.

Nun aber, sehr geehrter Herr Präsident, nach der eingangs erwähnten Veröffentlichung von 17 Klimaforschern, die die Klimasensitivität des CO2 auf etwa 2 Grad Celsius reduzieren, die Übergangssensitivität sogar auf 1,3 Grad Celsius senken, sollte das Umweltbundesamt seine Veröffentlichung in den Reißwolf geben.

Das Umweltbundesamt hat nach Errichtungsgesetz die Aufgabe, den Bundesminister für Umwelt, Naturschutz und Reaktorsicherheit in allen Angelegenheiten des Immissions- und Bodenschutzes, der Abfall- und Wasserwirtschaft, der gesundheitlichen Belange des Umweltschutzes, insbesondere bei der Erarbeitung von Rechts- und Verwaltungsvorschriften, bei der Erforschung und Entwicklung von Grundlagen für geeignete Maßnahmen sowie bei der Prüfung und Untersuchung von Verfahren und Einrichtungen wissenschaftlich zu unterstützen.

Es ist weiterhin beauftragt mit der Aufklärung der Öffentlichkeit in Umweltfragen, Bereitstellung zentraler Dienste und Hilfen für die Ressortforschung und für die Koordinierung der Umweltforschung des Bundes.

Den Boden des gesetzlichen Auftrags verlassen

Das Umweltbundesamt hat mit der Veröffentlichung “ Und sie erwärmt sich doch“ den Boden des gesetzlichen Auftrags verlassen. Ich möchte von Ihnen wissen, wie Sie diese beispiellose Verzerrung wissenschaftlicher Daten heilen wollen. Ich denke, dass die Abgeordneten des Deutschen Bundestages wissen sollten, für welche Publikationen Steuergelder des Bundes aufgewandt werden.

Ich erlaube mir daher, eine Kopie dieses Schreibens sowohl an die Vorsitzende des Haushaltsausschusses als auch an den Bundesminister für Umwelt zu versenden.

Mit freundlichen Grüßen

Prof. Dr. Fritz Vahrenholt Senator a.D.

Zu den Vorgängen schreiben Maxeiner & Miersch in Die Welt:

Wer sich in die Klimadebatte einliest, wird schnell bemerken, dass es sowohl unter den Etablierten als auch unter den Kritikern angesehene Forscher gibt. Skeptische Professoren wie Freeman Dyson, Chris Landsea, Richard S. Lindzen, Nir Shaviv, Murry Salby, Henrik Svensmark oder Jan Veizer gehören zur Elite ihrer Zunft. Svensmarks Hypothese vom Einfluss der kosmischen Strahlung auf das Klimageschehen wird derzeit am Cern überprüft und wurde bereits in Teilen bestätigt.

Zu den „Fachfremden“ gehört etwa der Schwede Nils-Axel Mörner, der die IPCC-Prognosen zum Meeresspiegelanstieg widerlegte. Oder der Ökologe Josef H. Reichholf, der darlegte, dass erdgeschichtliche Warmzeiten stets gut für die Artenvielfalt waren.

Wer nach der Fachkompetenz führender IPCC-Vertreter fragt, erlebt Überraschungen. Rajendra Kumar Pachauri, der Vorsitzende, ist Eisenbahningenieur. Leitautoren der IPCC-Klimaberichte waren zuvor Aktivisten bei Greenpeace. Al Gore, Guru aller Klimawarner, ist Politikwissenschaftler; Jochen Flasbarth, Präsident des Umweltbundesamtes, Volkswirt.

Und wie ist es um die fachliche Expertise der vier Autoren bestellt, die im Impressum der Broschüre aufgeführt sind? Eine Philosophin, ein Berufsschullehrer und ein Physiker, der vor seiner Zeit beim UBA Karriere bei Greenpeace und der Lobbyorganisation Eurosolar machte. Ob die vierte Autorin Klimawissenschaftlerin ist, konnten wir leider nicht ermitteln, aber immerhin hat sie ein Buch dazu geschrieben: „Pia, Alex und das Klimaprojekt – eine abenteuerliche Entdeckungsreise“.




Energiewende wirkt: Wirtschaft warnt vor Abwanderung von Unternehmen in USA. Behauptung 2012: Energiewende wird zum “Exportschlager”:

…sagte der Präsident des Bundesverbandes der Deutschen Industrie (BDI), Ulrich Grillo, dem “Handelsblatt” vom Mittwoch. “Das bedeutet für uns, dass einige Unternehmen verstärkt dort investieren werden.”

Energiewende könnte zum “Exportschlager” werden
BDI, 5. Juni 2012: Der Präsident des Bundesverbands der deutschen Industrie (BDI), Hans-Peter Keitel, drängt auf ein höheres Tempo bei der Umsetzung der Energiewende. Es werde “höchste Zeit”, dass die “theoretische Betrachtung” konkreten Maßnahmen weiche, sagte er am Montag in Berlin. Wenn die Energiewende gelinge, könne sie jedoch zu einem “echten Exportschlager” werden, so Keitel.

Passend dazu

Grüne im Abseits: “Frontalangriff auf bisherige Energiepolitik”

In Sachen Energiepolitik gibt sich die grüne Europaabgeordnete Rebecca Harms kämpferisch. Man dürfe nicht hinter die einmal erreichten klimapolitischen Ziele zurückgehen. “Ich mache mich bereit für eine große Auseinandersetzung in der Europäischen Union und in den Mitgliedsstaaten zwischen Grünen, vernünftigen Energie- und Klimapolitikern und diesen Fossilen, die versuchen, das Rad in der Energiepolitik zurückzudrehen.” Mit dem Begriff “Fossil” meinte Rebecca Harms vor allem EU Industriekommissar Antonio Tajani. Der italienische Kommissar hatte sich bei einer Konferenz in Perugia am Dienstag erneut gegen eine Verschärfung der Klimaziele ausgesprochen. “Dies würde für die europäischen Unternehmen höhere Kosten bedeuten. Letztlich könnten sie Europa den Rücken kehren”, warnte Tajani.

Übernommen von ACHGUT hier und hier




Verhält sich das Umweltbundesamt (UBA) wie die Reichskulturkammer?

Eine Behörde erklärt die Klimadebatte für beendet

Das Umweltbundesamt beansprucht die Deutungshoheit beim Klimawandel für sich und stellt Journalisten in der Debatte an den Pranger. Ein solches Vorgehen erinnert an Reichskulturkammer und DDR-Regime. Von Henryk M. Broder

Man soll mit Vergleichen vorsichtig umgehen, vor allem, wenn das Dritte Reich als Kulisse herangezogen wird. Eine Hühnerfarm ist kein „KZ“, wie Peta-Aktivisten es sehen, die Auslandseinsätze der Bundeswehr sind keine Eroberungskriege, wie die Friedensbewegung gerne behauptet. Aber manchmal gibt es doch verblüffende Ähnlichkeiten oder Parallelen, die von einer erstaunlichen Kontinuität des Denkens und Handelns zeugen.

Es gab im Dritten Reich eine Reichsfilmkammer, die das deutsche Filmwesen kontrollierte. Nur Mitglieder der Reichsfilmkammer durften in Filmproduktionen beschäftigt werden. Alle anderen hatten Berufsverbot. Dieselbe Regelung galt für die Reichstheaterkammer, Reichspressekammer, Reichsschriftumskammer, Reichsrundfunkkammer, Reichsmusikkammer und die Reichskammer der bildenden Künste. Alle diese Kammern wirkten unter dem Dach der Reichskulturkammer (RKK), die vom Reichsminister für Volksaufklärung und Propaganda, Joseph Goebbels, ins Leben gerufen wurde….

…Tatsächlich ist die Klima-Frage umstritten

Und diese Kammer beziehungsweise dieses Amt hat vor Kurzem eine Broschüre herausgegeben („Und sie erwärmt sich doch – Was steckt hinter der Debatte um den Klimawandel?“), in der diejenigen „Klimaskeptiker“ angegangen werden, deren Ansichten „nicht mit dem Kenntnisstand der Klimawissenschaft übereinstimmen“.

Und was der letzte Kenntnisstand der Klimawissenschaft ist, das bestimmt die Bundesklimakammer alias das Umweltbundesamt. Ebenso, wer die „Klimaskeptiker“ sind, die an den Pranger gestellt werden: „die Journalisten und Publizisten Dirk Maxeiner und Michael Miersch“ und „der Filmemacher und Publizist Günter Ederer“…

….Wem die Analogie zur Reichskulturkammer zu weit geht, der wird trotzdem zugeben müssen, dass es so etwas schon mal gab: Im real existierenden Sozialismus, wo man nur „konstruktive Kritik“ an der Partei und der Regierung üben durfte und „destruktive Kritik“ zum Ausschluss der „negativen Elemente“ aus der Akademie der Wissenschaften, dem Schriftstellerverband und anderen gesellschaftlichen Organisationen führte.

Die Frage lautet also nicht: „Gibt es einen Klimawandel?“, sondern: „Sind wir auf dem Weg in eine zweite DDR, in der die Regierung auch für den Wetterbericht von heute und das Klima von übermorgen zuständig ist?“

Lesen Sie den ganzen Text hier.

Anmerkungen der Redaktion:

Zum fachlichen Inhalt der unsäglichen UBA Broschüre nehmen wir in Kürze gesondert Stellung.




Kernenergie: 100 Gründe und 100 gute Antworten. Fortsetzung #32 bis #36

Das einzige bedeutsame Ereignis dieses Jahrhunderts in Deutschland war der rein hypothetische „Vorfall” Philippsburg im Jahre 2001, welcher unter dem damaligen Umweltminister und erklärten Kernkraftgegner Jürgen Trittin als „Störfall” (INES-2) eingestuft wurde (#34). Aber auch zu allgemeinen Aussagen lassen sich unsere EEG-Profiteure von den Elektrizitätswerken Schänau (EWS) gerne mal hinreissen, wie das „Risiko Mensch“ (#33). Nach all diesen „Argumenten” wundert es auch nicht mehr, dass die Sladeks in Deutschland lieber Tschernobyl-Reaktoren als irgendwelche anderen hätten. Die Begründung wollen wir hier nicht vorweg nehmen, setzen Sie sich gut hin und lesen Sie selbst in #36.

Hundert gute Antworten #32 – #36, die bisherigen Antworten finden Sie in den EIKE-News (Energie) vom 29.3.2013, 3.4.2013, 7.4.2013, 10.4.2013, 16.4.2013, 19.4.2013, 26.4.2013, 3.5.2013.

#32: Profitsucht

Behauptung: Im Zweifel gilt auch im Atomkraftwerk: Profit geht vor Sicherheit – selbst nach Explosionen.

Die EWS behaupten

»Leichenblass« kommt eine Gruppe Inspektoren Anfang 2002 aus dem Atomkraftwerk Brunsbüttel. Direkt neben dem Reaktordruckbehälter haben sie eine Rohrleitung begutachtet – beziehungsweise das, was davon noch übrig ist: 25 Trümmerteile. Am 14. Dezember 2001 hatte eine Wasserstoffexplosion das zehn Zentimeter dicke Rohr (Wandstärke: fünf bis acht Millimeter) auf drei Metern Länge in Stücke gerissen.

Der damalige Betreiber HEW (heute: Vattenfall) meldete eine »spontane Dichtungsleckage«, sperrte die Leitung ab – und ließ den Reaktor weiterlaufen. Es war schließlich Winter, die Strompreise an der Börse auf einem Rekordhoch. Erst als das Kieler Sozialministerium massiv Druck machte, fuhr HEW den Reaktor Mitte Februar herunter, um eine Inspektion zu ermöglichen. Das Atomkraftwerk musste anschließend 13 Monate vom Netz bleiben.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Der Vorfall im Kernkraftwerk Brunsbüttel zeigt, dass die Kontrollstrukturen funktionieren. Die Leitung ließ sich während des Betriebs absperren, so dass der Reaktor sogar weiterlaufen konnte. In den zuständigen Ministerien wurden die Messdaten parallel analysiert, so dass auf eine sofortige Inspektion gedrängt wurde. Aber auch ohne diese Kontrolle wäre das geplatzte Rohr spätestens ein paar Monate später bei der Inspektion entdeckt worden.

Obwohl das geplatzte Rohr keine direkte sicherheitstechnische Bedeutung hatte, somit der Reaktor bis zur routinemäßigen Inspektion hätte weiterlaufen können, möchte man aus derartigen Vorfällen natürlich lernen. Das Meldesystem trägt somit dazu bei, dass die Sicherheit ständig verbessert werden kann, was man von vielen anderen Industrieanlagen kaum sagen kann.

Quellen von KRITIKALITÄT


#33: Risiko Mensch

Behauptung: Menschen machen Fehler – im Atomkraftwerk ist das fatal.

Die EWS behaupten

Ventil falsch bedient, Warnsignal übersehen, Schalter vergessen, Kommandos missverstanden, falsch reagiert – es gibt Dutzende von Fällen, bei denen nicht die Technik, sondern der Mensch für hochgefährliche Situationen im Atomkraftwerk verantwortlich ist. Das Risiko Mensch ist nicht kalkulierbar.

Ausgerechnet der Mensch, die Betriebsmannschaft, soll aber im Falle eines Störfalls wichtige, von der normalen Betriebsweise abweichende Notfallmaßnahmen durchführen, um eine Kernschmelze noch zu verhindern. Atomkraft verlangt fehlerfreie Menschen. Die gibt es aber nicht – schon gar nicht in extremen Stress-Situationen wie bei einem Störfall im Atomkraftwerk.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Keine Energietechnik reagiert so verzeihend auf menschliche Fehler wie die Kernenergie. Das beste Beispiel ist das Kernkraftwerk Three Mile Island bei Harrisburg, wo 1979 ein Kühlmittelverluststörfall stundenlang unentdeckt blieb und zur Kernschmelze führte. Trotz eklatanter Fehlbedienungen, Missinterpretation von Anzeigen und vorangegangener Schlampereien bei der Wartung war der Fall sehr gut beherrschbar: Binnen weniger Stunden liefen die Kühlpumpen wieder, Radioaktivität wurde praktisch vollständig zurückgehalten und nach einem Monat war der Reaktor im „Cold Shutdown”. Totalverlust für den Betreiber, gesundheitliche Beeinträchtigungen der umliegenden Bevölkerung gab es jedoch nicht.

Solche Vorkommnisse in einer Chemiefabrik können weit schlimmere Folgen nach sich ziehen. Auch ein größerer Konstruktionsfehler in einem Stadion kann hohe Opferzahlen nach sich ziehen. Fehler sind gerade bei Kernkraftwerken fest einkalkuliert, insbesondere durch die passiven Barrieren, deren Wirksamkeit physikalisch bedingt immer garantiert ist. Neuere Reaktorkonzepte sehen sogar vor, dass der Reaktor stets passiv in einen sicheren Zustand fährt – ohne menschliches Zutun.

Quellen von KRITIKALITÄT


#34: Borsäure

Behauptung: Mehrere Betreiber von Atomkraftwerken haben jahrelang systematisch die Betriebsvorschriften missachtet.

Die EWS behaupten

17 Jahre lang startete das Atomkraftwerk Philippsburg ohne ausreichende Bor-Konzentration in den Notflutbehältern. Deren Inhalt soll bei einem Störfall den Reaktorkern fluten. Fehlt das Bor im Notflutwasser, hat das Fluten des Kerns einen Effekt wie Benzin ins Feuer gießen.

Die Betreiber störte das nicht. Sie setzten sich vielmehr mit voller Absicht über die Vorschriften im Betriebshandbuch hinweg. Ermittlungen ergaben, dass auch in anderen Atomkraftwerken jahrelang das Notkühlsystem wegen zu wenig Bor nicht voll funktionsfähig war.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die Bor-Konzentration war zu jedem Zeitpunkt ausreichend, sie war nur 20% niedriger als vorgeschrieben. Dies geschah auch nicht 17 Jahre lang, sondern einmalig durch eine fehlerhafte Anzeige. Außerdem stand ein weiterer Notflutbehälter mit vorschriftsmäßiger Borkonzentration zur Verfügung.

Kippte man bei gleichzeitigem Versagen aller sonstigen Sicherheitsbarrieren (Regelstäbe, Kühlkreisläufe, usw.) tatsächlich unterboriertes Wasser in den „trockenen” Reaktor, wäre die Folge schlimmstenfalls eine kurzzeitige Leistungsabgabe. Auch im Reaktor selbst kann die Borkonzentration aber noch geregelt werden. Sollte dies auch nicht funktionieren, verdampfte das Wasser, und die Situation wäre wieder wie vorher. „Benzin ins Feuer gießen” ist hier also ein klein wenig übertrieben.

Quellen von KRITIKALITÄT


#35: Kabelsalat

Behauptung: Fehler in der Elektrik sind in Atomkraftwerken gang und gäbe – mit gravierenden Folgen.

Die EWS behaupten

Im Sommer 2006 steht Europa kurz vor der Katastrophe. Wegen konzeptioneller Fehler in der Verkabelung springen im schwedischen Atomkraftwerk Forsmark nach einem Kurzschluss und Stromausfall die Notstromaggregate nicht an. Nur Minuten bleiben bis zum Beginn einer Kernschmelze. Kein Einzelfall: Im Atomkraftwerk Brunsbüttel stand wegen Fehlern in der Elektrik seit der Inbetriebnahme des Reaktors im Jahr 1976 keine ausreichende Notstromversorgung der Not- und Nachkühlsysteme zur Verfügung. Und das Atomkraftwerk Biblis musste gleich reihenweise falsche, lockere und schlampig ausgeführte Verkabelungen melden.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Alle vier Notstromaggregate am schwedischen Kernkraftwerk Forsmark sind planmäßig angesprungen, nur konnten zwei von ihnen durch einen Auslegungsfehler nicht mit dem internen Netz verbunden werden – ein Fehler, der nach 20 Minuten behoben war. Selbst bei einem Totalversagen aller Notstromaggregate (sie waren, wie gesagt, alle angesprungen) wäre man durch zahlreiche weitere Sicherheitsbarrieren von einer Kernschmelze immer noch weit entfernt gewesen. Und selbst eine Kernschelze hätte schlimmstenfalls Auswirkungen wie bei Harrisburg 1979 gehabt, keine „Europäische Katastrophe”.

Im Kieler Sozialministerium hat man sich daraufhin Sorgen gemacht und den Betreiber aufgefordert, für das Schleswig-Holsteinische Kernkraftwerk Brunsbüttel zu belegen, dass eine ausreichende Notstromversorgung jederzeit gewährleistet ist, was dieser auch umgehend tat. Dem Kieler Sozialministerium war dies jedoch egal, Nachbesserungen sollten trotzdem stattfinden. 1½ Jahre später heißt es dann von gleicher Stelle: „Der in Teilen der Presse verbreitete Eindruck, die Notstromversorgung des Kernkraftwerks Brunsbüttel entspreche nicht dem Regelwerk, ist zu korrigieren”. Sicherheit kann eben auch politisch missbraucht werden.

„…reihenweise falsche, lockere und schlampig ausgeführte Verkabelungen” in Biblis B sind grobe Übertreibung. Der einzige erwähnenswerte Vorfall war die falsche Verkabelung einer Feuerlöschpumpe im Jahre 2002, ein Ereignis ohne oder mit geringer sicherheitstechnischer Bedeutung. Sie wurde bei einer Routineüberprüfung bemerkt und umgehend beseitigt, außerdem stand eine zweite Pumpe betriebsbereit zur Verfügung.

Quellen von KRITIKALITÄT


#36: Schlimmer als Tschernobyl

Behauptung: Ein Super-GAU in einem hiesigen Atomkraftwerk hätte noch schlimmere Folgen als Tschernobyl.

Die EWS behaupten

Die Atomkraftwerke in Deutschland haben kein Grafit im Reaktorkern, das Feuer fangen könnte wie in Tschernobyl. Daher würde die radioaktive Wolke nach einer Explosion nicht in so hohe Luftschichten getragen. Dafür stiege die radioaktive Belastung im Umkreis von einigen Hundert Kilometern massiv an. Deutschland ist siebenmal dichter besiedelt als die Region um Tschernobyl, das Rhein-Main-Gebiet etwa 30-mal so dicht. Es würden also deutlich mehr Menschen mit noch höheren Strahlendosen belastet.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Der Vergleich ist etwa so, als würde man bei einem Gaskocher lobend hervorheben, dass sich die Gasflasche im Falle eines Brandes günstig fortkatapultieren kann, was man von Elektrokochern nicht sagen kann.

Wassermoderierte Reaktoren können tatsächlich nicht brennen, auch können sie nicht nuklear „durchgehen“, was sich beides günstig auf den Unfallablauf auswirkt. Das Schreckensszenario einer „radioaktiven Wolke“, wie oben beschrieben, kann es daher auch nicht geben. Die rein hypothetischen Schadensszenarien wassermoderierter Reaktoren beziehen sich auf mögliche intern oder extern verursachte Leckagen, die austretenden Mengen an Radioaktivität sind entsprechend winzig.

Daraus folgt ebenso, dass Tschernobyl nicht auf Deutschland übertragen werden kann, denn in Deutschland steht kein Reaktor vom Typ Tschernobyl.

Quellen von KRITIKALITÄT





Wenn Blinde nicht sehen wollen… Ausgereifte Nuklear-Endlagerung – direkt beim Nachbarn

Während im deutschen Sprachraum Vertreter der Öko-Milliardäre und ihre Lobbyisten mit erstaunlicher Unverfrorenheit behaupten, es gebe nirgendwo auf der Welt ausgereifte Endlagerkonzepte, ist man nur einige Kilometer weiter nördlich bereits tatkräftig dabei, die letzten Schritte für die Realisierung eines seit Jahrzehnten sorgfältig ausgetesteten und wissenschaftlich abgesicherten Endlagerkonzepts für hoch radioaktive Abfälle zu gehen. In enger Kooperation haben Schwedens Svensk Kärnbränslehantering AB (SKB) und Finnlands Posiva Oy inzwischen ihr Konzept soweit ausentwickelt, dass bereits konkrete Zeitvorstellungen für die Realisierung ins Auge gefasst werden. In Finnland könnte man bereits in neun Jahren erste Abfälle einlagern, und in Schweden ist das Projekt inzwischen in der Genehmigungsphase.

Bild 2. Der 4 Meter lange Brennstab für einen Kernreaktor besteht aus einem Bündel dünner Rohre, in denen sich tausende kleiner Urantabletten befinden

Konsens statt Konfrontation

Weder den Schweden noch den Finnen kann man vorwerfen, ihre Regierungen würden ihre Verantwortung gegenüber Bevölkerung und Umwelt auf die leichte Schulter nehmen. Der hoch entwickelte Industriestaat Schweden mit seinen rund 9 Millionen Einwohnern betreibt zehn Kernreaktoren, deren Anteil an der Stromerzeugung bei 35-40 % liegt. Von diesem Nuklearpotenzial profitiert auch der Nachbarstaat Norwegen, der gerne auf diese sicheren Reserven zurückgreift, wenn den dortigen Wasserkraftwerken im Winter die Zuflüsse einfrieren. In Schweden haben Staat, Industrie und Parteien im Konsens ein umfangreiches, langfristig angelegtes Forschungsprogramm für die Entwicklung eines verantwortbaren Endlagerkonzepts für die ausgebrannten Kernbrennelemente aufgelegt. Die Verantwortung hierfür obliegt der Firma SKB, einer gemeinsamen Tochtergesellschaft der schwedischen Erzeuger von Kernenergie. Finanziert werden die Aktivitäten durch eine Abgabe in Höhe von 0,01 SEK (=1 Öre) auf jede nuklear erzeugte Kilowattstunde. Bemerkenswert ist die große Offenheit der Schweden und Finnen, die sehr darauf achten, dass die Bevölkerung zu allen mit der Lagerung von radioaktivem Material verknüpften Informationen Zugang hat und Bedenken bezüglich möglicher Probleme sehr sorgfältig nachgegangen wird. „Lohn“ dieser Mühe ist der bereits erwähnte außergewöhnlich hohe Grad an gesellschaftlichem Konsens.

 

Bild 3. Blick in einen der Tunnel, die viele hundert Meter tief in den harten Granit getrieben wurden

Eine Aufgabe…

Ausgelegt ist das Endlager primär für ausgebrannte Kernbrennstäbe. Dies sind schlanke, rechteckige Rohrbündel von ca. 4 Metern Länge, die viele Tausend einzelne Urantabletten enthalten. Nach Ende des aktiven Einsatzes sind diese Elemente „heiβ“, weil in ihnen zahlreiche Zerfallsreaktionen der im Kernkraftwerk gebildeten Spaltprodukte ablaufen. Sie wandern daher zunächst für mehrere Jahrzehnte in Abklingbecken, bis die kurzlebigeren Isotope zerfallen sind und Radioaktivität sowie Temperatur auf ein vertretbares Maβ gesunken sind. Erst dann ist ein Verkapseln und Endlagern möglich. In Schweden erfolgt die Aufbewahrung in zwei riesigen Kavernen, die rund 40 Meter tief ins Grundgestein getrieben wurden. In tiefen Wasserbecken lagern hier mehr als 10.000 ausgebrannte Brennelemente.

 

Bild 4. Eines der beiden riesigen Abklingbecken, in denen abgebrannte Brennelemente gelagert werden

für die „Ewigkeit“

Während in Deutschland und der Schweiz Berufs-Panikmacher dem Volk einreden, bei der Endlagerung gehe es um Jahrmillionen, hat man in Skandinavien lieber Wissenschaftler gefragt und rechnet daher mit 100.000 Jahren. Auch das ist noch eine ungeheure Zeitspanne, denn der sichere Einschluss soll selbst dann gewährleistet sein, wenn eine neue Eiszeit die Lagerstätte unter einem Eispanzer von 3 km Dicke begraben würde.

Um die tatsächliche Größenordnung der Aufgabe zu verstehen, muss man sich vergegenwärtigen, dass es bisher keine vom Menschen errichteten Bauwerke oder Technologien gibt, die mehr als ein paar tausend Jahre überdauert haben. Zudem zeigt die Erfahrung, dass moderne Konstruktionen in aller Regel sogar noch viel kurzlebiger ausgelegt sind als antike Bauwerke wie z.B. die Pyramiden.

Bild 5. Das in Schweden entwickelte Endlagerkonzept für nukleare Abfälle (Grafik: SKB)

Kupfer, Granit und Bentonit

Deshalb dachte man gar nicht erst über Bauwerke nach, sondern konzentrierte sich vor allem darauf, natürliche Materialien und Strukturen zu finden, die ihre Fähigkeit zum sicheren langzeitigen Einschluss von Substanzen auch unter rauesten Umgebungsbedingungen schon unter Beweis gestellt hatten. Die letztlich gewählte Lösung beruht auf der Kombination von drei Materialien, von denen jedes für sich schon für die Erfüllung der Aufgabenstellung geeignet wäre. Entworfen wurde ein dreifacher Einschluss: Tief in massives Granitgestein getriebene Bohrungen umschließen und schützen dicht verschweißte Kupferzylinder, die ihrerseits von einer dicken Packung wasserdichten Bentonits – einem speziellen Lehm – umgeben sind. Das für die Anlage des Endlagers ins Auge gefasste Grundgestein, eine Granitformation mit der Bezeichnung „Äspödiorit”, liegt seit 1,8 Mrd. Jahren unverändert an Ort und Stelle und gehört damit zu den ältesten geologischen Formationen auf unserem Kontinent. Solches Grundgestein hat, wie Wissenschaftler aus Funden in Afrika ermittelten, die Überreste „natürlicher“ Kernreaktoren, die dort vor rund 2 Mrd. Jahren existierten, mit großer Effizienz eingeschlossen. Selbst Plutonium wurde ausgefiltert und an Mineralkörner in Gesteinsritzen gebunden. Der Bentonitlehm, der die Kupferbehälter in ihren Gesteinsnischen umhüllen und u.a. vor Beschädigung durch Gesteinstrümmer schützen soll, ist wasserdicht und hat darüber hinaus hervorragende Absorptionseigenschaften. Im Äspö-Hartgesteinslabor in Oskarshamn wird ein Stück Holz ausgestellt, das nach zwei Millionen Jahre Einschluss in Bentonit noch perfekt erhalten ist. Was das Kupfer angeht, so handelt es sich um ein sogenanntes halbedles Metall. Die Korrosionsbeständigkeit der metallischen Hülle der Behälter ist unter den vorgesehenen Umgebungsbedingungen so gut, dass die Dichtheit der Behälter für weit mehr als die vorgesehene Zeitdauer gewährleistet sein dürfte.

Bild 6. Die abgebrannten Elemente werden in dickwandigen Kupferzylindern versiegelt und in einer isolierenden Bentonitpackung in groβer Tiefe in Granitkavernen eingelagert (Grafik: SKB)

Behälter: Aufbau und Verschluss

Der Kupferbehälter dient im Prinzip als gasdichte, korrosionsbeständige Kapsel, die das Entweichen von Inhaltsstoffen in die umliegenden Schichten verhindert. Die Wanddicke liegt bei 50 mm. Den Innenraum füllt ein massiver Kern aus duktilem Gusseisen mit einer Anzahl wabenartiger Aussparungen für die Aufnahme der einzelnen Brennstäbe. Dieser Kern soll zum einen die einzelnen Brennstäbe sicher in ihren Positionen fixieren. Darüber hinaus verhindert seine hohe Festigkeit ein Zerdrücken des Behälters selbst bei extremem Gesteinsdruck. Vor dem Einsatz wird jeder einzelne Behälter einer gründlichen Qualitätskontrolle unterzogen. Beladen werden sie in einer speziell hierfür vorgesehenen Anlage direkt am Zwischenlager. Nach der Beladung wird ein 50 mm dicker Deckel aufgesetzt und dicht verschweißt. Diese Arbeiten werden – unter Beachtung aller für den Umgang mit radioaktivem Material geltenden Vorschriften – mannlos von hoch automatisierten, ferngesteuerten Anlagen durchgeführt. Anschließend werden die fertigen Behälter zum Endlager in 500-700 Metern Tiefe verbracht und in vorbereitete Aussparungen eingesetzt. Der Zwischenraum zwischen Behälter und Wand wird mit Bentonit aufgefüllt. Wenn alle Nischen eines Tunnels belegt sind, wird er mit einer Mischung aus Gesteinstrümmern und Bentonit verfüllt und durch einen massiven Betonpfropfen versiegelt.

 

Bild 7. Im Inneren des Kupferzylinders befindet sich ein stabiler Gusskörper, in dessen Aussparungen dann die Brennelemente geschoben werden

Fred F. Mueller

zuerst erschienen bei Science Sceptical hier

Anmerkung der Redaktion:

Wie vorsätzlich dumm diese neue „ergebnisoffene“ Suche nach einem weiteren Endlager ist hat Ulli Kulke in „Die Welt“ in diesem Leit-Artikel aufgezeigt.

Nach uns die Dummheit?

Die Suche nach dem Endlager für den Atommüll geht von absurden Vorstellungen über die Dauer der Strahlung aus. In einigen Jahrzehnten könnte der Abfall in harmlose Materie umgewandelt werden. Die Methode ist erforscht. (Der ganze Artikel hier) Von Ulli Kulke




Neuer Hockeyschläger Fehlalarm: Jungforscher Marcott führte Medien hinters Licht

Hauptperson unserer Geschichte ist der Jungwissenschaftler Shaun Marcott. Fast auf den Tag genau vor zwei Jahren, im April 2011, reichte Marcott bei der Geologischen Fakultät der Oregon State University eine Doktorarbeit ein, in der er sich mit den Gletschern und der klimatischen Entwicklung der Erde während der späten Eiszeit sowie der letzten 10.000 Jahre beschäftigte. Der Arbeit voran stellt Marcott ein Zitat von Richard P. Feynman:

„Wissenschaft ist der Glaube an die Ignoranz der Experten“

Ach, hätte sich der junge Marcott doch dieses Motto vollständig zu Eigen gemacht, dann wäre ihm sicher einiges erspart geblieben. Aber davon ahnte er damals vielleicht noch nichts. Letztendlich waren es nämlich genau diese ignoranten Experten, die den Doktoranden zu Fall brachten.

Das Papier

Zwei Jahre später. Als Produkt der Dissertation erschien am 8. März 2013 in der Zeitschrift Science von Marcott eine Arbeit mit einer globalen Temperaturrekonstruktion der letzten 11.300 Jahre, also für die Zeit seit Ende der letzten Eiszeit. Der Publikationszeitpunkt war günstig, denn so konnte die Studie noch gerade so in den momentan entstehenden 5. Klimazustandsbericht des Weltklimarats IPCC eingearbeitet werden. Entsprechend viel Mühe machten sich die US-amerikanischen National Science Foundation und die Universität, die beide am Tag vor Veröffentlichung des Papiers kräftig Werbung betrieben und aufsehenerregende Pressemitteilungen herausgaben. So titelte die Science Foundation sensationsheischend:

Die Erde ist heute wärmer als während 70-80% der letzten 11.300 Jahre.

Auch die Universität Oregon wollte ihren Anteil an den Presselorbeeren und spielt daher in ihrem Titel auf die angeblich besondere Bedeutung der Erwärmung der letzten Jahrzehnte an:

Rekonstruktion der Temperaturgeschichte unterstreicht Bedeutung der kürzlichen Erwärmung

Noch am Erscheinungsdatum des Artikels war die Nachricht über den Atlantik geschwappt, wo die deutsche Presse die bedrohliche Nachricht ihren Lesern lustvoll und ungeprüft kredenzte. So berichtete der Berliner Tagesspiegel:

In den vergangenen Jahrzehnten sind die Temperaturen im globalen Durchschnitt gestiegen. Das zeigen zahlreiche Studien. Wie die Entwicklung über einen längeren Zeitraum aussieht, ist schon schwieriger festzustellen, da brauchbare Daten über das Weltklima nur für die letzten 1500 Jahre vorlagen. Shaun Marcott von der Oregon State University und Kollegen haben diese Spanne nun beträchtlich erweitert auf 11 300 Jahre. Ihre Daten zeigen, dass es derzeit wärmer ist als in drei Vierteln der gesamten Beobachtungszeit. Und dass es sehr wahrscheinlich ist, dass die Erde bald einen neuen Temperaturrekord erleben wird.

Auch die klimaaktivistische Webplattform klimaretter.de freute sich sehr über die neue Studie und schrieb:

Die globalen Temperaturen steigen derzeit schneller als jemals zuvor seit dem Ende der letzten Eiszeit. Das ist das Ergebnis einer Studie, bei der ein Team von Wissenschaftlern um den Geologen Shaun Marcott von der Oregon State University in Corvallis die Temperaturen der vergangenen 11.300 Jahre rekonstruiert hat. “Wir wussten bereits, dass die Erde heute wärmer ist als während der vergangenen 2.000 Jahre”, sagt Marcott. “Jetzt wissen wir, dass sie heute wärmer ist als während – fast – der gesamten letzten 11.300 Jahre”. Steigt die Erwärmung im bisherigen Tempo, dann, so Jeremy Shakun von der Havard University, einer der Co-Autoren der Studie, “sind wir auf dem Weg zu einem Planeten, der ganz anders ist als das, was wir bis jetzt gewohnt sind”.

Shaun Marcott selbst macht es in einem Beitrag im National Journal ganz deutlich:

„Wir fanden, dass die Temperaturen in den letzten hundert Jahren im gleichen Maße angestiegen sind, wie sie im Laufe der letzten 6000 Jahre gefallen sind. In anderen Worten: Die Änderungsrate [der Erwärmung] ist sehr viel größer als irgendwann im gesamten Holozän“ [welches die letzten 11.500 Jahre nach Ende der Eiszeit abdeckt].

Shaun Marcott war über Nacht berühmt geworden, wie sein großes Vorbild Michael Mann. Die Presse riss sich um den Jungforscher. Die ganze Welt interessierte sich plötzlich für seine Meinung, wollte zitierfähige Sätze aus dem Mund des Shooting Stars hören, welche sogleich digital um die ganze Welt gefunkt wurden. Vertreter des IPCC beglückwünschten den jungen Mann zu seiner ausgezeichneten Arbeit. Der Weg zu einer goldenen Karriere stand offen. Wie bereits bei Michael Mann geschehen, konnte Marcott nun auf schnelle Beförderung, zügige Professur und verantwortungsvolle IPCC-Posten hoffen. Nach 15 enttäuschenden Jahren des Erwärmungsstopps gab es nun endlich wieder Hoffnung auf neue Temperaturrekorde. Endlich schien hier die neue Arbeit zu sein, die den Schlüssel zum ganz großen Neustart der Klimakatastrophe darstellte. Hier war er, der Beweis, dass alleinig der Mensch an der Klimaerwärmung Schuld war.

Man kann sich vorstellen, dass der Vater des ursprünglichen Hockey Sticks ganz aus dem Häuschen war. Michael Mann twitterte vergnügt, dieses Paper wäre der langersehnte ‚Dolch im Herzen‘ der Klimaleugner. Und Marcott hielt sich ganz eng an sein großes Vorbild, lobt diesen für seine Pionierarbeit und seine Ausdauer im Kampf gegen die Feinde der Wissenschaft. Im Wetterzentrale Forum jubilierte ein K.a.r.S.t.e.N, dies wäre doch eine geradezu bahnbrechende Arbeit, ein absoluter Meilenstein.

Wiederauferstehung einer Kurve: Kann man ihr wirklich vertrauen?

Klingt alles ziemlich gut. Trotzdem wollen wir uns die eigentlich unnötige Mühe machen und schauen kurz auf die in den Pressemitteilungen und Zeitungsartikeln gelobte neue Temperaturkurve:

Abbildung 1: Globale Temperaturrekonstruktion für die letzten 11.300 Jahre. Aus Marcott et al. (2013).

In der Tat ragt in der Heutezeit eine raketenhaft nach oben schießende Temperaturspitze aus der Kurve heraus. Allerdings erreicht sie gerade so etwa das Temperaturniveau, das bereits 4000 Jahre lang zu Beginn der Nacheiszeit geherrscht hat. Wäre dies nicht auch eine Schlagzeile wert gewesen? Zum Beispiel: „Neue Studie zeigt: Es war bereits tausende von Jahren mindestens so war wie heute.“

Dankenswerterweise haben die Autoren der Studie auch einen vergrößerten Ausschnitt ihrer Temperaturrekonstruktion für die letzten 2000 Jahre dazu gegeben:

Abbildung 2: Globale Temperaturrekonstruktion für die letzten 2,000 Jahre. Aus Marcott et al. (2013).

Fällt Ihnen etwas auf? Genau, das sieht doch fast genauso wie die berühmt berüchtigte Hockey Stick Kurve von Michael Mann aus. Weil jene so wunderschön ist, wollen wir sie hier nochmal zeigen:

Abbildung 3: Temperaturrekonstruktion der nördlichen Hemisphäre für die letzten 2,000 Jahre nach Michael Mann und Kollegen. Aus dem 3. IPCC-Bericht (Fig. 2.20).

Da war er also wieder, der gute alte Hockey Stick. Auferstanden von den Toten. Aber wie konnte dies sein? Neuere Untersuchungen hatten doch zwischenzeitlich eindeutig nachgewiesen, dass es vor 1000 Jahren eine Mittelalterliche Wärmeperiode gegeben haben muss, die in etwa das heutige Temperaturniveau hatte. Zu nennen sind hier beispielsweise die Arbeiten des Schweden Fredrik Ljungqvist (Abbildung 4). Selbst der ursprüngliche Hockey Stick Erfinder Michel Mann musste seine Kurve in den letzten Jahren signifikant verändern und die Mittelalterliche Wärmeperiode wieder integrieren.

Abbildung 4: Temperaturrekonstruktion der außertropischen nördlichen Hemisphäre für die letzten 3,000 Jahre. Nach Ljungqvist 2010.

Auf Basis dieser allbekannten Vorgeschichte hätten sich die wissenschaftlichen Gutachter von Science sowie die internationale Fachpresse eigentlich besondere Mühe geben müssen, die Studie des Jungforschers Marcott auf Herz und Nieren zu prüfen. Ganz so viele Jahre Erfahrung hat er ja noch nicht vorzuweisen, da kann ein bisschen gesundes Misstrauen wohl nicht schaden. Dabei stehen zwei Fragen im Vordergrund:

1) Wo ist die Mittelalterliche Wärmeperiode plötzlich geblieben?

2) Durch welche Daten ist die raketenhafte Erwärmung der letzten Jahrzehnte belegt, die laut der Marcott-Studie zuletzt vor 6000 Jahren erreicht worden sei?

Nur wenige Pressevertreter hatten die Problematik bereits früh erkannt. Dazu gehörte auch Axel Bojanowski von Spiegel Online, der sich bezüglich der Studie von Experten aus Deutschland (Jan Esper, Universität Mainz) und der Schweiz (Ulf Büntgen, Eidgenössische Forschungsanstalt für Wald, Schnee und Landschaft) beraten ließ. Und diese Exerten mahnten zur Vorsicht. Bojanowski schrieb:

Gleichwohl falle auf, dass es den Daten zufolge in den vergangenen 11.300 Jahren nie einen so starken Wärmesprung gegeben habe wie im vergangenen Jahrhundert, seit der Mensch das Klima erwärme, sagt Studienautor Marcott. Ob es jedoch tatsächlich der einzige derartige Temperatursprung gewesen sei, ist Büntgen und Esper zufolge unklar: Die zeitliche Genauigkeit der Kurve liege bei durchschnittlich 120 Jahren, gibt Büntgen zu bedenken. Nur in den vergangenen Jahrzehnten gibt es auf den Tag genaue Aufzeichnungen. “Da kann die jüngste Erwärmung im Vergleich dann dramatischer erscheinen”, sagt Esper. Die meisten Daten stammen vom Meeresgrund. Doch Klimadaten aus dem Ozean zeigen üblicherweise geringere Ausschläge nach warm und kalt als Daten vom Land, erläutert der Forscher. Die Temperatur könnte in Wirklichkeit also mehr Sprünge gemacht haben. Mögliche Auswirkungen solcher Klimaschocks auf historische Ereignisse sollen künftige Studien klären.

Kollegen-Check: Mit wem arbeitet Marcott eigentlich?

Bevor wir uns gleich der Analyse von Marcotts Klimakurve widmen, wollen wir kurz überprüfen, um wen es sich eigentlich bei den drei Co-Autoren des jungen Geologen handelt. Zunächst wäre da Alan Mix. Mix ist Professor an der Oregon State University. Er betreibt das hiesige Isotopenlabor, dessen Messungen für derlei Studien unverzichtbar sind. Interessanter sind jedoch die anderen beiden Mitautoren. Peter U. Clark ist ebenfalls Professor an der Fakultät und fungierte als Doktorvater von Marcott. Aber was noch viel wichtiger ist: Clark ist ‚Koordinierender Leitautor“ für Kapitel 13 (Meeresspiegel) des gerade entstehenden IPCC-Klimaberichts. Dies könnte vielleicht den klimaalarmistischen Ton der Arbeit erklären. Eine böse Vorahnung beschleicht uns: Werden hier möglicherweise noch letzte aufrüttelnde Mosaiksteinchen für den 5. Klimazustandsbericht fabriziert, sozusagen als Auftragsarbeiten für IPCC-Kollegen?

Dieser Verdacht erhärtet sich, wenn wir uns den letzten Co-Autor näher anschauen, Jeremy Shakun. Auch Shakun war bis vor kurzem noch Clarks Doktorand. Bereits vor einem Jahr fiel Shakun mit einem fragwürdigen Paper auf, in dem eines der größten Probleme des IPCC „gelöst“ wurde, nämlich das zeitliche Hinterherhinken des CO2-Verlaufs gegenüber der Temperatur in den letzten 600.000 Jahren. Wie kann das CO2 in einem solchen Fall Wärmetreiber sein? Jeremy Shakun stellte damals neue Altersdatierungen vor, und schwupps sah plötzlich alles viel besser aus (siehe unseren Blogbeitrag „Statistik-Trick befördert CO2 vom Beifahrer zum Chauffeur: Fragwürdiger neuer Shakun-Artikel in Nature“). Co-Autoren der umstrittenen Studie? Peter U. Clark und Shaun Marcott ! Man wird das Gefühl nicht los, dass hier ein Doktorvater seine Schützlinge für fragwürdige IPCC-Zwecke verheizt. Ohne zuviel vorweg nehmen zu wollen: Alterdatierungen spielen auch in unserer aktuellen Geschichte wieder eine wichtige Rolle.

Die Analyse

Schreiten wir nun zur Analyse des wissenschaftlichen Gehalts des Marcott-Artikels. Wir stützen uns dabei auf die wertvolle Arbeit etlicher fleißiger Faktenchecker wie etwa Steve McIntyre, Rud Istvan und Don Easterbrook, die in ihrer Freizeit die Arbeit verrichten, die eigentlich von den bezahlten Vollzeit-Forschern hätte selbst erbracht werden sollen. Die Links zu diesen Analysen sind jeweils in den Text eingearbeitet.

Kümmern wir uns zunächst um den großen, zentralen Temperaturberg in der Kurve, der etliche Jahrtausende des Untersuchungszeitraums dominiert hat. Hier scheint prinzipiell alles in Ordnung zu sein. Es handelt sich nämlich um das wohlbekannte ‚mittelholozäne Klimaoptimum‘ während dessen es auf der Erde um mindestens ein Grad wärmer war als heute. Grund hierfür war die Bahnkonstellation der Sonne um die Erde, so dass während der Nordsommer durch geometrische Effekte mehr Sonneneinstrahlung auf die landreiche Nordhalbkugel geriet (siehe S. 128 in „Die kalte Sonne“).

Kommen wir zur nächsten Frage: Warum sieht der Kurvenverlauf eigentlich so glatt aus? Aus geologischen Untersuchungen wissen wir doch eigentlich, dass der Temperaturverlauf viel hochfrequenter war und sich enorme Änderungen im Jahrhundert bis Jahrtausend-Maßstab ereigneten. Das Rätsel lässt sich zum Glück relativ leicht auflösen. Marcott und Co-Autoren selbst wiesen in der Einleitung ihres Papers hin, dass die verwendeten Datensätze eine mittlere zeitliche Auflösung von nur 120 Jahren haben, einige sogar nur von 500 Jahren. Das heißt, dass das Geschehen von bis zu 500 Jahren auf einen einzigen Punkt verschmilzt. Die Mittelalterliche Wärmephase wurde mit dieser Methode einfach weggeglättet. Zur Analyse der genauen Temperaturgeschichte sind Marcotts Kurven daher überhaupt nicht geeignet. Vielmehr geht es in der Arbeit um den groben, langfristigen Klimaverlauf, der durch das mittelholozäne Klimaoptimum und die darauf folgende Abkühlung im Prinzip auch gut abgebildet ist.

Die wirklich brennende Frage ist jedoch eher methodischer Natur: Wie kann in einer Arbeit, die nur eine zeitliche Auflösung von Jahrhunderten besitzt, eigentlich plötzlich eine Temperaturspitze in der Heutezeit nach oben schießen, die nur wenige Jahrzehnte umfasst? Ein Ding der Unmöglichkeit. Warum sind die Gutachter von Science nicht auf diesen Widerspruch gestoßen? Waren die Gutachter möglicherweise gar nicht daran interessiert, etwaige Schwächen aufzudecken? Zwischenzeitlich kursieren Gerüchte, dass einer der Gutachter Michael Mann gewesen sein soll, was einiges erklären würde. Und noch etwas fällt auf: In Marcotts Doktorarbeit ist das entsprechende Manuskript auf Seite 41 noch als Einreichung bei der Zeitschrift Nature gekennzeichnet. Hatten die Gutachter von Nature den Braten frühzeitig gerochen und das Manuskript kurzerhand abgelehnt?

Bohren wir noch etwas genauer nach und versuchen zu verstehen, wie die moderne Temperaturspitze in Marcotts Kurve zustande kam. Dazu schauen wir zunächst in Marcotts Doktorarbeit nach. Dort ist bekanntlich viel mehr Platz um Dinge zu erklären als in einem vierseitigen Science-Artikel. Aber was für eine Überraschung ! In Marcotts Doktorarbeit taucht die moderne Wärmespitze gar nicht auf ! Falls Sie es nicht glauben, laden Sie sich doch einfach mal das pdf der Arbeit herunter und schauen auf Seite 48 nach. Dort findet sich nämlich die folgende Kurve (Abbildung 4). Das Resultat: Keine moderne Wärmespitze !

Abbildung 5: Globale Temperaturentwicklung der letzten 2000 Jahre laut Marcotts Doktorarbeit 2011. Es fehlt die ominöse moderne Wärmespitze, das Herzstück des späteren Science Artikels.

Shaun Marcott selbst scheint sich also der Problematik durchaus bewusst gewesen zu sein, dass man in einem zeitlich schlecht aufgelösten und stark geglätteten Datensatz nicht plötzlich nach Belieben kurzfristige Zacken einbauen kann. Nun wissen wir alle, dass man in Doktorarbeiten auf keinen Fall Schummeln darf, um schlimme Spätfolgen zu vermeiden, wie einige deutsche Politiker am eigenen Leibe erfahren mussten. In wissenschaftlichen Papers hingegen kann man schreiben was man will. Wenn es von den Gutachtern durchgelassen wird, gilt es als akzeptiert. War die Temperaturspitze im Science-Artikel daher möglicherweise nur eine Art böses Spiel, mal sehen, ob die Gutachter es finden, und wenn nicht, dann umso besser? Wer könnte hinter diesen Bestrebungen stecken? Doktorvater Peter U. Clark, der sich als koordinierender IPCC-Leitautor in unwissenschaftlicher Weise dem klimaalarmistischen Gedankengut verschrieben haben könnte?

Es kommt noch besser. Die Grundlage für Marcotts Temperaturkurve bildeten 73 einzelne Temperaturkurven, die von anderen Forschern in verschiedenen Teilen der Erde erstellt und größtenteils bereits publiziert worden waren. Marcotts Arbeit bestand lediglich darin, die Daten statistisch zu bearbeiten und eine Gesamtkurve daraus zu formen. Und von den 73 verwendeten Temperaturkurven decken lediglich 9 die Zeit ab 1950 ab. In diesen 9 Kurven muss also irgendwie die moderne Wärmespitze der letzten Jahrzehnte stecken, die die Autoren in ihrem Science Paper und den Pressemitteilungen stolz präsentieren und hervorheben.

The Inconvenient Skeptic hat die Originaldaten dieser 9 Kurven einmal aufgetragen:

Abbildung 6: Darstellung der 9 Temperaturkurven, die in Marcotts Studie die Zeit nach 1950 abdecken und aus denen durch geeignete statistische Verfahren eine enorme Wärmespitze generiert wurde. Quelle: The Inconvenient Skeptic.

Sehen Sie es auch? Keine einzige der 9 Kurven besitzt eine ausgeprägte Wärmespitze in den letzten Jahrzehnten. Die Spitze im Science Paper ist ein übles, statistisches Artefakt. Was für eine Riesenpleite. Das Science Magazin sollte sich schleunigst neue Gutachter suchen.

Offensichtlich hat die Marcott-Truppe aber auch an den Originaldaten herumgedoktort, um die Wärmespitze herbeizuzaubern. Spürnasen wieSteve McIntyre fanden schließlich, was passiert war. Marcott nahm sich die „künstlerische Freiheit“ die Altersdatierungen unliebsamer Datenpunkte zu modifizieren, um die gewünschte Hockey Stick-Geometrie zu erhalten. Schauen Sie sich das mal an:

Abbildung 7: Originaltemperaturdaten (rot) und was daraus nach phantasievoller Modifikation durch Marcott et al. wurde. Quelle: Climate Audit.

Das Eingeständnis

Drei Wochen nach dem Erscheinen des Papers, musste die Marcott-Truppe schließlich ihre Flunkerei hinsichtlich der modernen Wärmespitze einräumen. In aller Stille, am Ostersonntag, dem 31. März 2013 erschien auf der klimaalarmistischen Webplattform realclimate.org eine langatmige Erklärung der Autoren, in der sorgfältig in den Buchstabensalat versteckt das überfällige Eingeständnis zu finden war: Ja, die Temperaturen des 20. Jahrhunderts in der publizierten Kurve sind statistisch nicht robust, und die Temperaturspitze daher auch nicht. Lesen Sie die Einlassung im englischen Original:

Question: What do paleotemperature reconstructions show about the temperature of the last 100 years?

Answer: Our global paleotemperature reconstruction includes a so-called “uptick” in temperatures during the 20th-century. However, in the paper we make the point that this particular feature is of shorter duration than the inherent smoothing in our statistical averaging procedure, and that it is based on only a few available paleo-reconstructions of the type we used. Thus, the 20th century portion of our paleotemperature stack is not statistically robust, cannot be considered representative of global temperature changes, and therefore is not the basis of any of our conclusions.

Im Prinzip stand dies sogar bereits auf der ersten Seite im Science Artikel, nur etwas verklausulierter (Fettsetzung ergänzt):

Without filling data gaps, our Standard5×5 reconstruction (Fig. 1A) exhibits 0.6°C greater warming over the past ~60 yrB.P. (1890 to 1950 CE) than our equivalent infilled 5° × 5° area-weighted mean stack (Fig. 1, C and D). However, considering the temporal resolution of our data set and the small number of records that cover this interval (Fig. 1G), this difference is probably not robust.

Da wundert es umso mehr, dass Marcott zum Zeitpunkt des Erscheinens des Artikels in den zahlreichen Medieninterviews stets die angeblich einzigartige Erwärmungsrate der letzten Jahrzehnte hervorhob, obwohl diese Erwärmungsrate nach eigenen Angaben im Paper sowie dem späteren Eingeständnis in keiner Weise belastbar war. Was ging bloß im Kopf des jungen Mannes vor? Wurde ihm zu diesem Vorgehen geraten oder war es seine eigene Idee, die Welt so zu täuschen?

Ein Skandal und keine Folgen?

Der Skandal ist aufgeflogen und trotzdem scheint es keinen der ehemaligen Berichterstatter der Studie zu interessieren. Tagesspiegel,Stuttgarter Zeitung und Klimaretter haben noch immer ihren Originalartikel im Netz, ohne Hinweis oder Addendum auf den sinnentstellenden Fehler. Die klimaalarmistische Gemeinde verstummte plötzlich und ging auf Tauchstation. Klimarealisten wie Ross McKittrick mussten die Lücke füllen und die Öffentlichkeit über die veränderte Sachlage in der Presse informieren.

In einer sorgfältigen Analyse diskutiert Roger Pielke Jr., Professor für Umweltstudien an der University of Colorado at Boulder, ob das Verhalten der vier Autoren der Temperaturstudie möglicherweise sogar den Tatbestand des wissenschaftlichen Fehlverhaltens erfüllt. Pielke kann dabei zeigen, dass die Gruppe um Shaun Marcott die Ergebnisse ihrer Studie in den beiden Pressemitteilungen fehlerhaft dargestellt haben, die dann von einer Vielzahl von Medien im guten Glauben übernommen wurden. Pielke fordert in seinem Artikel die Zeitschrift Science auf, die fehlerhaften Abbildungen im Fachartikel gegen korrekte Versionen auszutauschen und den Text entsprechend zu korrigieren. Weiterhin fordert Pielke die National Science Foundation auf, Korrekturen an ihrer irreführenden Pressemitteilung vorzunehmen. Bislang hat keine der beiden Parteien auf diese berechtigten Forderungen reagiert.

Angesichts der schweren wissenschaftlichen Verfehlungen wäre es vermutlich das Beste, wenn die Autoren das Paper zurückziehen würden. Einen solchen Schritt ist Mitte 2012 bereits eine australische Forschergruppe gegangen, die ebenfalls einen vergeblichen Wiederbelebungsversuch des Hockey Sticks gestartet hatten (siehe unseren Blogbeitrag „Kontroverse um neuen australischen „Hockey Stick“: Autoren ziehen Paper zurück“). Es lohnt sich also durchaus, in den kommenden Wochen öfter einmal auf der Webseite von Retraction Watchvorbeizuschauen. Schließlich wäre dem IPCC und der Oregon State University angeraten, die Aktivitäten des koordinierenden IPCC-Leitautors Peter U. Clark näher unter die Lupe zu nehmen. Die Verkettung seltsamer Vorkommnisse in seiner Forschungsgruppe sollte Anlass genug sein, die dort angewandten Methoden sowie die eigentlich notwendige wissenschaftliche Unparteilichkeit zu prüfen.

Dr. Sebastian Lüning

übernommen von „Die kalte Sonne“

Related Files




Kernenergie: 100 Gründe und 100 gute Antworten. Fortsetzung #20 bis #24

Vergessen Sie Logik, Statistik und Wahrscheinlichkeitstheorie. In „Unfall- & Katastrophenrisiko”, der ersten großen Kategorie in Sladeks „100 guten Gründen”, werden diese ausgetretenenen Pfade verlassen, ganz im Sinne eines QUERDENKER®s (hier).Egal ob von der GRS oder der OECD, Gutachten sind für die selbsternannten „Stromrebellen” und ihren Elektrizitätswerken Schönau nichts wert, es sei denn, man schafft es, Worte wie „Schadensfall” als Super-GAU umzudeuten (#20), oder ausgetüftelte Sicherheitsmechanismen als „reines Glück” zu interpretieren (#22). Originell ist auch die Aussage (#21), je länger ein KKW laufe, desto mehr meldepflichte Ereignisse gebe es (richtig, und je älter ein Mensch ist, desto mehr hat er gegessen). In der Welt der Sladeks müssen neue Erstatzteile zwangsläufig schlechter als alte sein (#23), alte Kernkraftwerke hingegen schlechter als neue (#24). Auch wir gratulieren den Sladeks und mit ihnen auch dem QUERDENKER®-Förderer BMW zu ihrem Mut, so viele Regeln der Vernunft auf einmal gebrochen zu haben.

Hundert gute Antworten #20 – #24

#20: Sicherheitsmängel

Behauptung: Keines der 17 Atomkraftwerke in Deutschland bekäme heute noch eine Genehmigung.

Die EWS behaupten

Ob fehlende Schutzhülle, marode Elektrik oder spröder Stahl: Kein einziges Atomkraftwerk in Deutschland ist sicherheitstechnisch auf dem Stand von Wissenschaft und Technik, den das Bundesverfassungsgericht eigentlich fordert. Da helfen auch millionenteure Nachrüstungen nichts.

Als Neubau bekäme wegen der eklatanten Sicherheitsmängel heute keines der 17 Atomkraftwerke in Deutschland nochmals eine Genehmigung.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Ob raffinierte redundante Sicherheitssyteme, gestaffeltes Containment, multiple Notkühlsysteme, regelmäßige Sicherheitschecks, unplanmäßige Stresstests, strenge Grenzwertüberwachungen, IAEO-Kontrolle, umfangreiche Risikostudien und vieles mehr: Kein einziges Kernkraftwerk in Deutschland, das nicht auf dem Stand von Wissenschaft und Technik wäre.

Die Auflagen des Bundesverfassungsgerichts sind bei der Kernenergie auch bei den ältesten deutschen Kernkraftwerken mehr als erfüllt, das haben umfangreiche Studien und Kontrollen immer wieder gezeigt. Selbst nach den Sicherheitsstandards von 1989, als die letzte GRS-Studie zum Risiko von Kernkraftwerken durchgeführt wurde, ist statistisch höchstens ein „Schadensfall” in 33.000 Reaktorjahren zu erwarten. Ein Schadensfall bedeutet noch lange keine Kernschmelze, und eine Kernschmelze noch lange keine Freisetzung von Radioaktivität. Das Risiko für Leib und Leben ist selbst unter konservativen Annahmen mit Abstand geringer als bei jeder anderen Energieerzeugung, sogar Wind und Sonne, das besagen die wissenschaftlichen Fakten.

Beim neuen EPR konnte man die Sicherheit sogar noch mehr verbessern, so dass nur noch alle durchschnittlich 1 Million Reaktorjahre ein Schadensfall eintritt. Aber den wollte Deutschland nicht. Nun wird er in Frankreich, Finnland und China gebaut.

Quellen von KRITIKALITÄT


#21: Altersrisiko

Behauptung: Je länger ein Atomkraftwerk in Betrieb ist, desto unsicherer wird es.

Die EWS behaupten

Technik und Elektronik halten nicht ewig. Schon gar nicht in einem Atomkraftwerk. Rohre werden spröde, Steuerungen fallen aus, Ventile und Pumpen versagen. Risse wachsen, Metalle korrodieren. Im Atomkraftwerk Davis Besse (Ohio/USA) fraß sich ein Loch unbemerkt durch den 16 Zentimeter dicken Stahl des Reaktordruckbehälters. Nur noch eine dünne Schicht Edelstahl an der Innenseite verhinderte das Leck.

Je länger ein Atomkraftwerk läuft und je älter es ist, desto riskanter ist sein Betrieb. Das kann man auch aus der Statistik der meldepflichtigen Ereignisse ablesen: Alte Reaktoren wie Biblis und Brunsbüttel tauchen dort deutlich häufiger auf als jüngere.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Meldepflichtige Ereignisse sind nicht immer Störungen und erst recht nicht immer Störfälle, die es in Deutschland seit 10 Jahren nicht mehr gegeben hat. In der Statistik des Bundesamtes für Strahlenschutz weisen ältere KKWs 2009 und 2010 keine signifikant höhere Rate an meldepflichtigen Ereignissen auf als neuere. Dass sie insgesamt mehr Vorfälle gemeldet haben ist nicht verwunderlich, denn es gibt sie ja länger.

Nicht ohne Grund hat man ein Klassifikationssystem für meldepflichtige Ereignisse eingeführt. Dies dient der stetigen Verbesserung der Sicherheit, was man von anderen Einrichtungen wie Chemiefabriken, in denen auch Materialien für Solarzellen und Windkraftanlagen hergestellt werden, nicht sagen kann. Diesen enormen Sicherheitsvorteil als Beleg für schlechte Technik anzuführen ist ungefähr so logisch, wie jemanden, der vorsorglich häufiger zum Arzt geht, als kranker zu bezeichnen.

Zu suggerieren, kleinere Schäden wie Risse und Lecks, auch im nuklearen Bereich, würden zu katastrophalen Konsequenzen für die Umgebung führen, ist unverantwortlich. Der Vorfall in Davis-Besse zeigte auch, dass zwar eine der fünf Sicherheitsbarrieren versagen kann, aber auch, dass dies noch lange keine Gefahr für die Bevölkerung darstellt. Die redundante Mehrfachabsicherung sowie die passiv wirkenden Sicherheitsbarrieren verhindern effektiv, dass nennenswerte Strahlenbelastungen nach außen treten. Der Aufwand der Nachrüstung und Wartung bestimmt letztendlich die Häufigkeit von derartigen Ausfällen, wie bei allen technischen Industrieanlagen. Der Betreiber musste umfangreiche Auflagen erfüllen und hohe Strafen zahlen.

Bei der „dünnen Schicht” handelt es sich übrigens um die korrosionsfeste Innenwand – es ist also keineswegs glücklicher Zufall sondern gezielte Auslegung, dass diese nicht durchfressen wurde.

Quellen von KRITIKALITÄT


#22: Meldepflichtige Ereignisse

Behauptung: Alle drei Tage kommt es zu einem ›sicherheitsrelevanten Ereignis‹ in einem deutschen Atomkraftwerk.

Die EWS behaupten

Die Störfallmeldestelle des Bundesamts für Strahlenschutz verzeichnet Jahr für Jahr zwischen 100 und 200 Störfälle und für die kerntechnische Sicherheit bedeutsame Ereignisse in deutschen Atomkraftwerken – seit 1965 insgesamt etwa 6.000. Jedes Jahr haben einige dieser meldepflichtigen Ereignisse das Potenzial, einen schweren Unfall auszulösen. Dass es bisher in Deutschland nicht zum Super-GAU kam, war mehrmals nur Zufall und Glück.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die hier gewählte Formulierung soll suggerieren, dass es jedes Jahr 100 bis 200 Störfälle gibt. Dies ist jedoch falsch. Insgesamt gab es in Deutschland nur 3 Störfälle, wobei die letzten 2 (Philippsburg) 11 Jahre zurück liegen und sich nachträglich als unkritisch, wohl aber nicht vorschriftsmäßig, herausgestellt haben. Der Rest sind „Störungen” und „Vorfälle”, die zwar meldepflichtig, aber sicherheitstechnisch von geringer Relevanz sind. Auf diese Statistik sollte man stolz sein, aber auch froh, dass man durch ein derartiges Meldesystem ständig Verbesserungen vornehmen kann. Dies zeigt sich auch in der stetigen Abnahme der gemeldeten Vorfälle seit 20 Jahren.

In diesem Zusammenhang einen „Super-GAU” zu erwähnen ist ungefähr so, als würde man es als Zufall und Glück bezeichnen, dass ein Auto mit klemmendem Heckscheibenwischer nicht gleich lichterloh explodiert ist. Die mehrfach installierten, vielseitigen aktiven sowie die ausfallsicheren passiven Sicherheitssysteme und -barrieren bewirken eine nur sehr geringe Ausfallrate, klar belegt durch die Berichte des Bundesamtes für Strahlenschutz.

Quellen von KRITIKALITÄT


#23: Ersatzteilmangel

Behauptung: Bei Reparaturarbeiten an Atomkraftwerken entstehen leicht neue Fehler.

Die EWS behaupten

Die noch in Betrieb befindlichen Atomkraftwerke in Deutschland sind zwischen 1974 und 1989 ans Netz gegangen. Viele Bauteile gibt es heute gar nicht mehr. Für Reparaturen muss also Ersatz gebastelt werden. Ein riskantes Unterfangen, denn wenn sich die Ersatzteile nicht unter allen Umständen genau so verhalten wie das Originalbauteil, kann das gravierende Folgen haben.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Nachbauten arbeiten wesentlich besser als die original konzipierten Bauteile, gut zu sehen z.B. bei Oldtimer-Automobilen. Logisch, denn bei Nachbauten fließt ja nicht nur das Wissen der Originalkonstruktion, sondern auch die langjährige Benutzungserfahrung mit ein. Fachmännisch gefertigt und vor dem Einbau mindestens genauso geprüft wie das Original ist mit einer deutlichen Verbesserung zu rechnen. Warum sollte dies ausgerechnet bei sicherheitsrelevanten Teilen in Kernkraftwerken anders sein?

Jahrzehntelange Material- und Sicherheitsforschung als „Basteleien” abzutun ist ein Zeichen tiefer Ignoranz und Ahnungslosigkeit. Hier informiere man sich erst mal über die technische Realität, statt die persönliche schlechte Erfahrung mit Nachbauten von Druckerpatronen auf Kernkreaktoren zu übertragen.

Quellen von KRITIKALITÄT


#24: Steinzeittechnik

Behauptung: 30 Jahre alte Technik ist nur eins: reif für den Schrott!

Die EWS behaupten

Der Baubeginn der noch in Betrieb befindlichen deutschen Atomkraftwerke lag zwischen 1970 und 1982.

Kein vernünftiger Mensch würde je behaupten, ein Auto wie der VW-411 von 1970 sei heute noch »sicherheitstechnisch auf dem aktuellen Stand« – selbst wenn er in der Zwischenzeit die Stoßdämpfer erneuert, die Bremsen gewechselt und Anschnallgurte nachgerüstet hätte. Und jeder, der ankündigte, seinen Commodore-C64-Heimcomputer (Bj. 1982-93) auf heutige Standards nachrüsten zu wollen, würde lauthals ausgelacht.

Nur bei Atomkraftwerken ist all das nach Ansicht ihrer Betreiber kein Problem …

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Das Alter einer Anlage hat nicht unbedingt etwas mit der Sicherheit zu tun. Kein vernünftiger Mensch forderte je, man solle endlich die Pyramiden von Gizeh abreissen, weil sie »veraltet« sind. Solange die Gebäudestruktur intakt ist, ist das Gebäude sicher. Das Innenleben hingegen kann man beliebig austauschen. Auch einen VW-411 könnte man sicherheitstechnisch auf den aktuellen Stand bringen, nur wäre das vermutlich teurer als ein Neukauf. Und jemand, der in sein altes C64-Gehäuse einen moderen Computer einbaut, würde für dieses »Kunstwerk« großen Applaus ernten.

Die Sicherheitsanforderungen werden zuerst formuliert, dann entscheidet man, mit welchem Aufwand die Anlage diese Forderungen noch erfüllen kann. Bei Kernkraftwerken sind hier die passiv wirkenden Barrieren (Beton-/Stahlhüllen, Filter und Brennelementehüllen) besonders wichtig, welche aber meist nicht modernisiert werden müssen. Die sehr strengen KTA-Regeln beschreiben detailliert alle Anforderungen an Bauteile und Verfahren.

Die erst 50 Jahre junge „steinzeitliche” Kerntechnik nutzt bisher nur ein Bruchteil ihres Potentials – und ist damit bereits 20 mal so effizient wie z.B. die „moderne” Windenergie. Letztere wurde tatsächlich schon vor der Bronzezeit genutzt, und ihr technisches Potential ist heute längst ausgereizt.

Quellen von KRITIKALITÄT





EU Klimapolitik steht kurz vor dem Kollaps! Grüne Politik erleidet schwere Niederlage

Der Stern schreibt:….Das Europaparlament hat die geplante Reform des Handels mit Verschmutzungsrechten abgelehnt. Eine knappe Mehrheit des Parlaments sprach sich am Dienstag dagegen aus, die Emissionszertifikate angesichts rapide sinkender Preise zu verknappen und damit wieder teurer zu machen. Die Vorlage soll nun in die zuständigen Ausschüsse zurückverwiesen werden.Die Abgeordneten stimmten damit gegen den Gesetzentwurf der EU-Kommission. Dieser sah vor, Verschmutzungsrechte zeitweise vom Markt zu nehmen. Der federführende Umweltausschuss hatte im Februar knapp dafür gestimmt. (Weiterlesen hier)

Im britischen Telegraph ist zu lesen:

Die Klimapolitik der Europäischen Union steht am Rande des Zusammenbruchs nachdem heute die Abgeordneten Europas Flaggschiff, den CO2-Emissionshandels durch Abstimmung gegen eine Maßnahme, um den Preis von CO2-Zertifikaten zu unterstützen, torpediert haben. Der Preis der CO2-Zertifikate stürzte bis zu 45 Prozent auf ein Rekordtief 2,63 € pro Tonne ab, nachdem das Europäische Parlament einen Vorschlag zur Änderung der EU Emissionshandel Gesetze zu ändern, ablehnte, um den Verkauf von 900 Mio CO2-Zertifikaten auf den weltweit größten CO2-Zertifikate Märkten zu verzögern .

Die Grünen haben mit Zorn auf diese Abstimmung reagiert und beschuldigten Abgeordneten die Arbeitsplätze vor den Bedürfnissen der Umwelt zu stellen…

Die Maßnahme der Europäischen Kommission als „Rückstaus“ (backloading) bekannt, plante die EU CO2-Zertifikaten durch die Beschränkung des Angebots künstlich zu verteuern, nachdem sie aufgrund des wirtschaftlichen Abschwungs und Kontraktion im verarbeitenden Gewerbe in ganz Europa auf ein Rekordtief im Januar gesunken waren.

Die Ablehnung der Maßnahme wird voraussichtlich einen weiteren Preisverfall von CO2 Emissionsrechten auslösen, evtl. bis auf 1 € und könnte das Ende eines EU-Systems bedeuten, welches auf die Förderung von Investitionen in „saubere“ Technologien abzielte, indem hohe Preise für CO2-Emissionen aus den Schornsteinen der  Industrie zu bezahlen wären, die gedacht waren, Kohle befeuerte Kraftwerke dadurch aus dem Markt zu drängen.

Die Abgeordneten waren tief über den Vorschlag gespalten. Sie stimmten mit 334 Stimmen dagegen und mit 315 Stimmen dafür, in einer Debatte, bei der es um die Unterstützung des Wirtschaftswachstums während einer Rezession gegen Verteidiger der Klimaschutzpolitik, die die verarbeitende Industrie für die Herstellung von CO2 bestrafen wollte, ging.

„In der derzeitigen wirtschaftlichen Situation, die Entscheidung für den Rückstau wäre ein falsches Signal für Haushalte und Industrie gleichermaßen. Die Last steigender Kosten würden jetzt nicht benötigt“, sagte Eija-Riitta Korhola, eine Mitte-Rechts finnische Abgeordnete…“Es ist empörend, dass das Parlament mehr Wert auf umweltbelastenden Industrie zu legen scheint als auf eine grüne Zukunft Europas“, sagte Julia Michalak von Climate Action Network Europe.

Hier der Diskussionsbeitrag des britischen Abgeordneten Godfrey Bloom UKIP zum Thema CO2 und Klimawandel (mit Dank an Spürnase Urbahn).

‚Man-made global-warming hypothesis‘ is dead in the water – Godfrey Bloom ME

Leider funktioniert die automatische deutsche Untertitelung nicht.

Weitere Pressemeldungen (mit Dank übernommen von WUWT)

EU_carbon_prop

Story here: http://www.environmentalleader.com/2013/04/16/eu-carbon-prices-plunge-to-record-lows/

Related articles(bloomberg.com)

Carbon in Worst Quarter Since 2011 Set for Rescue Vote

(businessweek.com)

Why Europe’s Carbon Market is Crashing

(ntv meldet soeben;  Dank an Leser D. Köhler)


Handel mit CO2-Zertifikaten- Hedegaard hofft auf zweite Chance

Auszug:

Hedegaard hat einen prominenten Mitstreiter. Auch Bundesumweltminister Peter Altmaier (CDU) setzt weiter auf eine Reform des europäischen Handels mit CO2-Verschmutzungsrechten. „Es ist nicht tot, aber es ist in einer Krise“, sagte Altmaier im Deutschlandfunk zum Handelssystem.




Kernenergie: 100 Gründe und 100 gute Antworten, Fortsetzung #16 bis #19

Nun die Fortsetzung Gründe und Antworten #16 bis #19. Die bisher behandelten Gründe und Antworten #1 bis #15 können Sie  hier, hier, hier, hier nachlesen. Der Originalartikel findet sich wie immer unter KRITIKALITÄT, insbesondere die MOTIVATION sollte gelesen werden.

Hundert gute Antworten #16 – #19

#16: Tritium

Behauptung: Radioaktive Abfallstoffe aus Atomkraftwerken bauen sich sogar in die DNA ein.

Die EWS behaupten

Atomanlagen geben große Mengen radioaktiven Wasserstoffs (Tritium) an Luft und Wasser ab. Menschen, Tiere und Pflanzen nehmen es über Atemluft und Nahrung auf. Der Körper baut Tritium und tritiiertes Wasser wie normalen Wasserstoff und normales Wasser in alle Organe ein, sogar direkt in die Gene. Dort kann ihre Strahlung Krankheiten und Erbschäden auslösen.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die Umweltbehörden des Landes Baden-Württemberg geben für ihre Kernkraftwerksblöcke Emissionen in das Wasser (in die Luft ist es viel weniger) von 10.000, maximal 20.000 Gigabequerel an – das ist 0,005% der von der Natur selbst ständig erzeugten Tritiummenge. Selbst alle Kernkraftwerke auf der Erde zusammen können nicht näherungsweise die natürliche Tritiumproduktion erreichen.

Tritium ist also fast ausschließlich natürlichen Ursprungs. Aber selbst von einem „Schluck” Tritium werden nur 3% tatsächlich auch von den Zellen aufgenommen, und nach 6 Wochen ist die Hälfte davon schon wieder ausgeschieden. Radioaktiver Kohlenstoff, ebenfalls natürlichen Ursprungs, befindet sich sogar in 150-facher Menge wie Tritium im Körper, in allen Organen und auch in den Genen. Und der strahlt auch noch mit zehnfacher Energie.

Schließlich noch ein interessanter Vergleich: Die in Deutschland zugelassene Höchstgrenze von Tritium-Leuchten, die man als Schlüsselanhänger verwendet, ist 1 Gigabecquerel, im Ausland sogar bis zu 80 Gigabecquerel. Das Kernkraftwerk Krümmel emittiert knapp 30 Gigabecquerel pro Jahr in die Luft.

Quellen von KRITIKALITÄT


#17: Heiße Flüsse

Behauptung: Das warme Abwasser aus Atomkraftwerken raubt den Fischen den Sauerstoff.

Die EWS behaupten

Atomkraftwerke sind Energieverschwender – mit ihrem bis zu 33 Grad warmen Abwasser heizen sie vor allem die Flüsse auf. Das raubt den Fischen gleich doppelt den Atem.

Erstens führt warmes Flusswasser weniger Sauerstoff mit sich als kühles. Und zweitens sterben in warmem Wasser mehr Pflanzen und Kleintiere ab, deren Biomasse beim Verrotten weiteren Sauerstoff verbraucht. Der fehlt dann den Fischen.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

In der Bundesrepublik Deutschland leitet nur noch das Kernkraftwerk Brokdorf warmes Kühlwasser ein – und zwar an der Nordsee-Mündung der Elbe.

Einige der mittlerweile stillgelegten deutschen Kernkraftwerke hatten einen relevanten Rückfluss ins Wasser, da es dort keine Kühltürme gab. Man muss sich eben entscheiden zwischen einem optisch wenig ansprechenden dampfenden Nasskühlturm oder einer minimalen Erhöhung der Flusstemperatur. 33 Grad warmes Abwasser heißt aber nicht, dass der gesamte Fluss diese Temperatur erreicht. Bei großen Flüssen steigt die Temperatur nur wenige Kilometer in der Nähe der Kraftwerke, in der sogenannten Kühlfahne, um weniger als ein Grad – keine Gefahr für den Fischlaich.

Es handelt sich hierbei übrigens nicht um „Energieverschwendung”, sondern um den technischen Wirkungsgrad. Genau so könnte man argumentieren, dass Wind- und Solarkraftwerke nur maximal 0,00000005% der von der Sonne abgestrahlten Energie nutzen können, während der Rest im All verschwindet bzw. die Erde aufwärmt. Thermische Kraftwerke können ihren Wirkungsgrad übrigens mit hohen Temperaturen erheblich steigern und damit die Abwärme reduzieren. Außerdem kann die Kühlung mit entsprechendem technischen Aufwand durch Trockenkühltürme auf die Luft verlagert werden, wie es z.B. beim deutschen Hochtemperaturreaktor umgesetzt wurde. Der wurde aber als politisch-emotionale Reaktion auf Tschernobyl im September 1989 abgeschaltet.

Warmes Abwasser aus Kernkraftwerken ist also in Deutschland nicht mehr relevant und andernorts technisch ohne große Kosten handhabbar. Zudem ist dies keine spezielle Eigenschaft von Kernkraftwerken, sondern jedes thermischen Großkraftwerks.

Quellen von KRITIKALITÄT


#18: Strahlende Jobs

Behauptung: Tausende atomarer Hilfsarbeiter erledigen die Drecksarbeit in den Atomkraftwerken – oft ohne ausreichenden Strahlenschutz.

Die EWS behaupten

Sie arbeiten bei Servicefirmen und müssen immer dann ran, wenn es »heiß« wird: Tausende von Hilfsarbeitern verdienen ihr Geld mit Putz-, Dekontaminations- und Reparaturarbeiten in den verstrahltesten Bereichen der Atomkraftwerke. Einer Statistik des Bundesumweltministeriums von 1999 zufolge bekommen diese Springer viermal so hohe Strahlendosen ab wie die Festangestellten des Atomkraftwerks. In Frankreich sagt man: ›Strahlenfutter‹.

Die Arbeiter berichten von aufplatzenden und staubenden Atommüllsäcken, von Kaffeepausen neben strahlenden Tonnen und von Einsätzen ohne Vollschutz mitten im Reaktorkessel. Manche legen vorher ihre Dosimeter ab. Denn wenn sie ihre Maximaldosis erreicht haben, dürfen sie nicht mehr in den Kontrollbereich. Und keiner will schließlich seinen Job verlieren.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Laut angeführter Quelle hat der an Krebs erkrankte Reinigungsarbeiter, der dies seiner Arbeit anlastet, 5.000 Euro netto verdient – diesen Job möchte man wirklich nicht verlieren. Eine erhöhte Krebshäufigkeit ist in dieser Berufsgruppe übrigens nie nachgewiesen worden.

Ansonsten handelt es sich hier nicht um unausgebildete „Hilfsarbeiter”, sondern um sehr kompetente und gut ausgebildete Leiharbeiter. Diese erhalten mit durchschnittlich 1,2 Millisievert (mSv) pro Jahr zwar mehr Strahlung als das Stammpersonal mit etwa 0,8 mSv/Jahr bei Wartungsarbeiten, aber immer noch weniger als Radiologen mit 1,3 mSv/Jahr und vor allem weniger als Flugpersonal mit durchschnittlich 2,3 mSv/Jahr. Ob man Piloten als „Strahlenfutter“ bezeichnen würde?

Alle Werte liegen im Schwankungsbereich des in Deutschland vorherrschenden, natürlichen Untergrundes von 2 bis 10 mSv/Jahr und sind ungefährlich. Zum Vergleich: Ein Ganzkörper-CT-Scan liefert etwa 20 mSv in 15 Minuten, was bislang keine negativen Auswirkungen auf die Gesundheit zeigte. Der Strahlenschutz für die Leiharbeiter in kerntechnischen Anlagen ist somit mehr als ausreichend, die Vorwürfe sind völlig haltlos.

Der Strahlenschutz lässt sich nur effektiv umgehen, wenn alle Arbeiter im gleichen Bereich gleichzeitig ihre Personendosimeter ablegen, sonst dürften die Unregelmäßigkeiten schnell auffallen. Überdies gibt es noch feste Ortsdosimeter und strenge Kontrollen des radioaktiven Materials, alles systematisch von der IAEO und EURATOM überwacht.

Quellen von KRITIKALITÄT


#19: Selbstschutz

Behauptung: Die Chefs der Atomstrom-Konzerne halten privat viel Abstand zu ihren Atomkraftwerken.

Die EWS behaupten

Beruflich streiten die Vorstandsvorsitzenden von EnBW, E.ON, RWE und Vattenfall vehement für Atomkraft. Privat halten die Konzernchefs lieber Abstand: Hans-Peter Villis, Jürgen Großmann und Tuomo Hatakka haben ihren Wohnsitz weitab von ihren Atomkraftwerken gewählt.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Hier handelt es sich offenkundig um Scheinkausalität, denn der suggerierte Zusammenhang ist in keiner Weise belegt. Idealerweise wählt man seinen Wohnort in der Nähe seines Arbeitsplatzes – bei den „Chefs” wären das also die Konzernzentralen in den Großstädten, nicht jedoch bei den Kraftwerken. Der Flächenbedarf eines Kernkraftwerks ist 1.000 mal kleiner als der eines Solar- oder Windparks gleicher Leistung – Fläche, die der Natur genommen und unnutzbar wird. Man muss sich also schon sehr anstrengen, neben einem Kernkraftwerk zu wohnen, während das bei Wind und Sonne kein Problem ist.

Schade, denn Kernkraftwerke können durch die gewonnene Fläche eine Menge bieten. Die französische Nuklearanlage Tricastin beispielsweise, wo ein Kernkraftwerk unter anderem Gewächshäuser auf 42 Hektar Fläche in dem kleinen Ort Pierrelatte versorgt. Der tropische Freizeitpark mit Krokodilen ist ein beliebtes Ausflugsziel für Familien. Stünde dies in Deutschland, würden die deutschen Vorstandsvorsitzenden der Energiekonzerne dort sicher gerne wohnen.

Die US-Amerikaner scheinen von Kernkraftwerken übrigens geradezu angezogen zu werden. Die Bevölkerung hat zwischen 2000 und 2010 um weniger als 10% zugenommen, im unmittelbarer Umgebung von KKWs hingegen um 17%. Die Grundstückspreise sind dort teilweise stark gestiegen.

Quellen von KRITIKALITÄT





Matt Ridley: Dank CO2 Zuwachs und Erwärmung wird die Erde grüner!

Sehen und hören Sie den faszinierenden Bericht von Matt Ridley zur Ergrünung der Erde dank CO2 Zuwachs:

Deutsche Untertitel von Helmut Jäger EIKE




Prof. Schellnhuber vom PIK wird Ehrendoktor der TU Berlin. Ein Kommentar!

Insbesondere die Eis-Albedo-Rückkopplung ist in Mode, weil man damit Sintflut-Ängste auslösen kann. Doch noch niemand hat die Frage beantwortet, wer das Klimasystem angetippt und im Quartär die sechs großen Kaltzeiten ausgelöst hat. Noch interessanter ist die Frage, wer sie beendet hat, denn nach der positiven Eis-Albedo-Rückkopplung-Hypothese müssten sich diese verstärken und dürften niemals enden! Und warum sollten Monsun-Systeme abrupt enden? Monsun heißt Jahreszeit und mit ihnen wechseln sich der asiatische Sommer- mit dem Winter-Monsun ab. Analog verhält es sich bei der Land-Seewind- und der Berg-Talwind-Zirkulation. Ihr Wechsel hängt von der Tageszeit und der Sonneneinstrahlung ab.

Dass nun Professor Dr. Hans Joachim Schellnhuber als Erfinder der „Kippelemente“ gefeiert und mit einem Ehrendoktorhut ausgestattet wird, ist erstaunlich. Aber noch erstaunlicher ist, dass er diesen von der Technischen Universität Berlin erhält, ob seiner „hervorragenden wissenschaftlichen Verdienste auf dem Gebiet der Klimafolgenforschung und Politikberatung“. Hat die TU Berlin bei aller Sucht nach politischer Aufmerksamkeit daran gedacht, wie sehr sie ihrem hervorragenden Ruf in der Fachwelt schadet?

Überträgt man die Kippelement-Hypothese von dem abstrakten Klimasystem auf das reale Wetter, so drängen sich Fragen auf wie: Wer kippt ständig das Wetter um und sorgt für seine sprichwörtliche Wechselhaftigkeit? Kann man auf einen Luftdruck-Knopf drücken und Luftdruckgebilde umkippen? Wenn ein Hoch umkippt, wird es dann zu einem Tief? Und wo ist der Schalter, um eine Nord- in eine Südströmung umkippen zu lassen? Das Potsdam-Institut für Klimafolgenforschung sollte weiter spielen, aber nicht auf Kosten der Steuerzahler. Seine sofortige Schließung wäre ein kleiner, aber wirkungsvoller Beitrag, um die Schuldenkrise nicht weiter kippen zu lassen in eine irreversible Schuldenkatastrophe.

Zur Verleihung der Ehrendoktorwürde an Hans Joachim Schellnhuber, Leiter des Potsdam-Institut für Klimafolgenforschung (PIK), erklärt der Dipl.-Meteorologe Dr. Wolfgang Thüne von der „Oppenheimer Werkstatt für Wetterkunde“:

Die Technische Universität (TU) Berlin beschädigt ihren exzellenten Ruf durch die Verleihung der Ehrendoktorwürde an Prof. Schellnhuber. „Die Klimaforschung von Schellnhuber & Co. ist reiner Voodoo-Zauber, um Ängste in der Bevölkerung zu schüren und in grossem Stil an das Geld vom Steuerzahler zu kommen“, erklärte Thüne.

Das Potsdam-Institut für Klimafolgenforschung (PIK) verschwendet sinnlos Geld auf Kosten der Steuerzahler.  „Klimaschutz“ sei wissenschaftlicher Schwindel, weil sich das Wetter nicht schützen lasse. Thüne fordert die sofortige Schließung des PIK. „Das wäre  ein kleiner, aber wirkungsvoller Beitrag, um die Staatsverschuldung nicht weiter ausufern zu lassen.“.

Dr. Wolfgang Thüne

Dr. Wolfgang Thüne, Dipl.-Meteorologe, Jahrgang 1943, langjähriger Wetterexperte des ZDF, weist seit Jahren auf Fälschungen und Betrügereien rund um den Weltklimarat der UNO (IPCC) hin. Er ist Autor zahlreicher Bücher. Zuletzt erschienen:

Propheten im Kampf um den Klimathron

ISBN 978-3-00-035070-2




Klimawandel trifft nur Deutschland! DWD meldet: Beschleunigter Klimawandel am warmen April ablesbar. Australien meldet: Kältester April seit langem.

Auf den ersten Blick nichts neues. Klimaalarmisten stellen zwischen jedem bißchen Wärme und der angeblichen globalen Erwärmung reflexhaft eine Verbindung her – das kennen wir schon. CO<sub>2</sub> ist an allem schuld. Auch die Globalisierung eines vermeintlich warmen Jahres in Deutschland zu einem Beleg für eine weltweite Erwärmung ist nicht neu – aber lächerlich. Auch Spiegel online hat noch am 16.12.2008 ähnlichen Quatsch verbreitet.
Auf DWD-Seite folgt auf die Verkündung der angeblich beschleunigten Erwärmung (2008 war global das dritte Jahr in Folge mit einer geringeren Durchschnittstemperatur als im Vorjahr, der März 2009 war laut GISS (!) der kälteste März seit 2000 – wenn das beschleunigte Erwärmung ist, möchte ich mal wissen, wie Abkühlung aussehen soll) die Mitteilung, der DWD untersuche momentan „die Auswirkungen des künftigen Klimawandels” auf das Stadtklima in Frankfurt und Berlin. In den Städten ist es stets wärmer als über unbebauten Flächen. Und in den Städten stehen seit 120 Jahren die Wetterstationen. Seitdem sind die Städte gewachsen und wärmer geworden – woher also mag die vermeintliche Erwärmung mitten in der globalen Abkühlung kommen? Spielen urbane Hitzeinseln unseren „Wetterexperten” einen Streich? Auf der Grundlage des Szenarios A1B sei von einer Zunahme der Tage mit Temperaturen von über 25°C in Frankfurt von 46 auf 58 bis 72 Tage jährlich im Jahr 2050 zu rechnen. Es ist erschütternd, mit welcher Sturheit an irgendwelchen Szenarien und Computermodellen festgehalten wird, die in der Vergangenheit fast immer versagt haben. Kein IPCC-Anhänger unter den Forschern hatte die Abkühlung seit 2005 auf der Rechnung, kein Computermodell hat die Abkühlung der letzten Jahre vorhergesagt. Das CO<sub>2</sub> nimmt weiter zu, die Temperaturen fallen, Computermodelle versagen, das Wetter in zwei Wochen ist nicht vorhersagbar. Aber der DWD weiß, wieviel warme Tage es in 40 Jahren geben wird. Werden diese Herrschaften für die Irreführung der Öffentlichkeit etwa bezahlt?
externer Link mehr (externer Link zum DWD) (281)
Mit Dank an Klimaskeptiker für diese „Wahrheiten“ der deutschen „meteorologischen Referenz“