1

Das große Glück von UK hinsichtlich Schiefervorräten

Obwohl durch die Presse weitgehend ignoriert, möchte ich hier einige Enthüllungen und Hypothesen daraus hinsichtlich des Potentials von Schiefergas öffentlich machen, das wichtige internationale Implikationen haben kann. Bleiben Sie dran! Alles, was sie über Energie in UK zu wissen glaubten, ist veraltet. Lesen Sie alles, aber hier folgen ein paar Kernpunkte. Für Vielbeschäftigte habe ich einige Schlüsselpunkte unterstrichen.

Aus unserer Erkundung und Auswertung der Bowland Shale-Formation in Lancastershire wird deutlich, dass UK über einen sehr großen Vorrat an Erdgas vor Ort verfügt. Unsere vorläufige Schätzung im Bowland-Lizenzgebiet allein beläuft sich auf 200 TCF [trillion cubic feet. Auf eine Konversion dieser Riesenzahlen wird hier verzichtet! A. d. Übers.] Wir werden diese Schätzung nach weiteren 3D-Analysen der seismischen Erkundung überarbeiten, die in diesem Gebiet bereits abgeschlossen ist, ebenso wie wir die Daten der benachbarten Bohrung an der Stelle Anna’s Road Side nahe Blackpool analysieren werden.

1. Wie lauten die Schätzungen hinsichtlich der Menge von Schiefergas in UK, Europa und der übrigen Welt, und welche Anteile sind förderbar?

1.1 Cuadrilla glaubt, dass die Aussichten für Schiefergas in UK und Teile des europäischen Festlandes sehr vielversprechend sind, jedenfalls nach Auswertung einer Anzahl geologischer Formationen, die der Größenordnung von Lagerstätten in den USA und Kanada nicht unähnlich sind, wo große Mengen Erdgas entdeckt worden sind.

1.2 Während die ökonomischen Vorteile von Schiefergas auf der Basis vorläufiger Schätzungen und Forschungen noch nicht in vollem Umfang bestimmt worden sind, glauben wir, dass mindestens 200 TCF ursprüngliches Gas vor Ort (OGIP) im Bowland-Becken liegen. Wir werden diese Schätzung nach weiteren 3D-Analysen der seismischen Erkundung überarbeiten, die in diesem Gebiet bereits abgeschlossen ist, ebenso wie wir die Daten der benachbarten Bohrung an der Stelle Anna’s Road Side nahe Blackpool analysieren werden.

1.3 Die abbauwürdige Reserve ist eine Funktion von Schiefergeologie und genauso, wenn nicht noch mehr, eine Funktion der Anzahl horizontaler Bohrungen, die gebohrt und abgeteuft werden können. Allerdings hängt dies wiederum ab von ökonomischen und sozialen Hindernissen einer solchen Entwicklung. Unsere Erkundung hat ergeben, dass die Schieferschicht im Bowland-Becken in Lancastershire wesentlich dicker ist als jede vergleichbare Lagerstätte in den USA. Dies bietet die Möglichkeit, die Entwicklung mit einem viel geringeren Oberflächen-„Fußabdruck“ durchzuführen als in den USA.

1.4 Cuadrilla versteht, dass die Schieferwirtschaft und technologische Fortschritte die Kosten mit der Zeit immer weiter zurückgehen lassen werden, und Schätzungen von einem Rückgang um 15 bis 20% erweisen sich als recht konservativ. Wie auch immer, ein Rückgang um nur 15% würde eine Reserve von etwa 45 TCF vom Bowland-Feld allein erschließen. Dies ist etwa fünf mal mehr als die verbuchten Gasreserven in UK von 8,7 TCF (nachgewiesene Reserven) und fast doppelt so viel wie die 25 TCF im besten Falle (nachgewiesen + möglich + vielleicht). Quelle: DECC – UK Gas Reserves and Estimated Ultimate Recovery 2012.

2.1.3 Die Erfahrungen der Schiefergas-Industrie in Nordamerika zeigen, dass verbessertes Wissen, ein Produkt fortgesetzter technologischer Entwicklung und Erfahrungen bei der Durchführung zu einer immer besseren Ausbeute führen. Einige ausgereifte Schiefer-Unternehmungen haben Abbauraten von geschätzt 40%.

Wie ich kürzlich angemerkt habe, sind die Angaben wahrscheinlich konservativ, aber schon dabei sind sie so hoch, so immens im globalen Maßstab, dass zu glauben, es seien nur 200 TCF, wäre ein enttäuschender Versuchsballon, den wir ohne Weiteres ignorieren können, es wäre albern. Es wäre wie die Zurückweisung des ersten Preises im Lotto, weil die Euromillionen größer sind. …

Den immer wiederkehrende Einwand, den ich immer wieder höre, lautet „UK ist zu sehr bevölkert“. Es würde für niemanden zu bevölkert aussehen, der wie ich alle drei Bohrstellen von Cuadrilla in Augenschein genommen hat. Die erste Stelle befand sich in Preese Hall auf einem Bauernhof, von keiner Straße aus sichtbar. Die Stelle Singleton wird nur von total desinteressierten Kühen und Wildvögeln gesehen. Die Stelle Banks liegt in der Mitte eines Ackers mit Kohl, viele hundert Meter abseits der Straße. Ich habe zwei Häuser in Sichtweite gezählt.

Aber es ist die unglaubliche Mächtigkeit von Bowland Schiefer, die die gesamte Diskussion verändert.

2.3.2 Im Falle der Entwicklung von Schiefergas onshore bedeuten neue Bohrungen nicht, dass die Landschaft mit immer mehr Bohrtürmen zugepflastert wird. [Komisch! Gegen das Zupflastern mit Windrädern scheint man nichts zu haben! A. d. Übers.] Horizontale Bohrungen können von einem Bohrloch ausgehen wie die Zinken einer Gabel sowie radial in viele verschiedene Richtungen. Weil wir inzwischen erkannt haben, dass das Bowland-Feld wie oben schon erwähnt ungewöhnlich mächtig ist, kann diese Art von Bohrungen in verschiedenen Tiefen erfolgen, den sog. „vertically stacked“ horizontal wells. Von einem Loch können mit heutiger Technologie etwa 36 solcher horizontalen Bohrungen erfolgen. Mit der fortschreitenden Weiterentwicklung der Technik dürften es in Zukunft immer mehr werden. Jede horizontale Bohrung ist äquivalent zu einer minimalinvasiven Chirurgie [keyhole surgery]. Der „Bohrer“ besteht aus einer von außen gesteuerten Turbine, deren Position zwei Kilometer tief und drei Kilometer entfernt sein kann, dessen Position jedoch immer genau bekannt ist. Der horizontale Durchmesser des Bohrlochs ist vergleichsweise klein, etwa 8 Inches [ca. 20 cm]. Alle Frakturen befinden sich typischerweise tausende Fuß unter Grundwasser führenden Schichten. Über der Schieferformation von Bowland in Lancastershire liegt der Manchester Marl [?], eine dicke wasserundurchlässige Felsschicht, die den ‚regionalen Dichtering’ [regional seal] bildet, eine Barriere zwischen den im Schiefergestein darunter gefangenen Kohlenwasserstoffen und den Grundwasserschichten mehrere tausend Fuß darüber. Folglich kann sehr viel von einem einzigen Bohrloch aus getan werden – daher unsere Ansicht, dass es in UK viel Gelegenheit gibt, das Ganze ohne große Verdichtungen durchzuführen.

Ich habe früher schon erwähnt, dass Cuadrilla unglaublich unglücklich darin war, dass sie den einzigen nachgewiesenen Link weit und breit zwischen Fracking und Erdbeben haben. Das hat die Erzeugung in UK um 18 Monate zurück geworfen, aber vielleicht sollte das so sein. Cuadrillas Glück – und das von UK, wenn wir die Chance ergreifen – ist, dass Bowland eines der, wenn nicht das mächtigste Schieferfeld der Welt ist. Sie sagten „ungewöhnlich mächtig“ und meinten 3000 Fuß [ca. 900 m] mächtig. Um einen Eindruck davon zu vermitteln, zeigt die Graphik oben rechts einen Vergleich zwischen der Mächtigkeit des Bowland-Feldes und Feldern in den USA.

Zurück zu den Cuadrilla-Beweisen:

2.3.3 Schiefergasoperationen müssen sich kommerziell rechnen, um praktikabel zu sein. Daher ist es notwendig, Entwicklungskosten, Marktpreise für Gas und andere Flüssigkeiten sowie weitere finanziellen Impulse und Belastungen zu betrachten. Wichtig, die Industrie braucht die Effizienz einer kleinen Zahl von Pads [?], genauso viele, wie die Bürger verlangen.

Gestatten Sie mir die Bemerkung, dass ich als Anglo-Amerikaner, der sich nach reiflicher Überlegung dazu entschlossen hat, in UK zu leben, dass meine britischen oder zumindest englischen Landsleute nicht für Optimismus bekannt sind. Aber hinsichtlich Bowland haben wir großes geologisches Glück, und wir können es zu jedermanns Nutzen gebrauchen.

Ein Baustein dieses Glücks, auf das ich mich berufe, ist, dass die Mächtigkeit des Bowland-Schiefers auf natürliche Weise die Auswirkung von Bohrungen begrenzt. Das bedeutet, dass man systemverändernde Mengen von Erdgas potentiell aus nur einer Handvoll Bohrlöchern fördern kann. Dies beseitigt eine der großen Ängste der Öffentlichkeit. Sicher wird es die Entwicklung von Schiefergas vor der Haustür von irgendjemandem geben. Aber es werden nur Wenige sein, vor deren Haustür das passiert. Ein Hauptgrund für den Schiefer-Pessimismus in Europa war, dass „Europa zu stark bevölkert“ sei. Aber zumindest in Bowland ist dieses Hindernis nicht länger anwendbar.

Nick Grealy

Link: http://tinyurl.com/9bqlkou

Übersetzt von Chris Frey EIKE




Auslösen des Eiskappen-Alarms und Ignorieren des Elefanten

PBS steht seit Langem auf der Seite des Klimaalarmismus’, dem Glauben, das anthropogene Treibhausgase das Erdklima zerstören. Die Programme und die Website von PBS enthalten Storys über schmelzende Eiskappen, stärkere Hurrikane, Überschwemmungen, Dürren, Waldbrände und selbst eine geringe Kirschenernte in Michigan. All das soll wegen der anthropogenen Emissionen von Kohlendioxid so sein, einem Spurengas in unserer Atmosphäre.

Einem objektiven Beobachter, der sich die Wissenschaft anschaut, ist die Theorie der vom Menschen verursachten globalen Erwärmung unglaublich. Nur vier von jeweils 10000 Luftmolekülen sind Kohlendioxid, und das, was der Mensch davon während der gesamten Menschheitsgeschichte eingetragen hat, ist nur ein Bruchteil von einem Molekül davon. Und doch behaupten PBS und Andere, dass die CO2-Emissionen die Ursache unserer kommenden Klimazerstörung sind.

Während des Interviews erwähnte Suarez, dass das arktische Eis schneller verschwinde als die Klimamodelle vorhergesagt hätten. Dr. Meier bestätigte das und stellte fest, „…dass wir erleben, wie die Dinge so viel schneller ablaufen als nach den Modellen zu erwarten war. Die Modelle hatten angenommen, dass wir einen Sommer ohne – mit nur sehr wenig Eis zum Ende dieses Jahrhunderts sehen werden“. Für einen uninformierten Zuschauer klingt das alles sehr alarmierend.

Aber PBS und Dr. Meier haben den im Raum stehenden Elefanten ignoriert. Der Elefant ist die Eiskappe in der Antarktis. Während die Satelliten zeigen, dass das arktische Eis während der letzten 30 Jahre abgenommen hat, zeigen die gleichen Satellitendaten, dass sich die Eiskappe in der Antarktis seit 30 Jahren ausdehnt. [Siehe dazu das Bild oben rechts vom NSIDC]

Es ist interessant, dass die Klimawissenschaftler durch das zurück gehende arktische Eis so alarmiert sind. Die arktische Eiskappe macht nur etwa 1 bis 2 Prozent der Eismassen auf der Erde aus, während sich im Elefanten, der antarktischen Eiskappe, rund 90 Prozent des Eises auf der Erde konzentrieren. Die Klimamodelle haben den Rückgang des arktischen Eises unterschätzt, aber sie sind völlig durcheinander hinsichtlich der Eisausdehnung in der Antarktis. Die Daten von Dr. Meiers eigenem NSIDC [siehe Bild oben rechts] zeigen, dass die Ausdehnung des Meereises um die Antarktis im Jahr 2012 größer ist als das Mittel der Jahre 1979 bis 2000. Ich frage mich, warum er die gute Nachricht hinsichtlich des Eises in der Antarktis nicht erwähnt hat.

Die Amundsen-Scott-Station ist die derzeitige amerikanische wissenschaftliche Forschungsstation am Südpol. Seit mehr als 50 Jahren waren die USA dort präsent. Sie ist die dritte Station der USA. Die ersten beiden Stationen wurden unter der immer weiter wachsenden Schneedecke begraben. Jedes Jahr kommt es am Südpol zu einer Gesamterhöhung der Schneedecke von etwa 8 Inches [ca. 20 cm]. Die jetzige Station ist modular und steht auf Stelzen. Sie kann jedes Jahr bis über die sich akkumulierende Schneedecke angehoben werden, um die Lebensdauer zu verlängern. Im Gegensatz zu den alarmistischen Befürchtungen dehnen sich 90 Prozent der irdischen Eiskappen aus!

Steve Goreham

Steve Goreham ist geschäftsführender Direktor der Climate Science Coalition of America und Autor des neuen Buches „The Mad, Mad, Mad World of Climatism: Mankind and Climate Change Mania”.

Link: http://www.phillyburbs.com/news/local/courier_times_news/opinion/oped/sounding-the-ice-cap-alarm-while-ignoring-the-elephant/article_684f4bf8-2319-5072-b360-f64beae40064.html#user-comment-area

Übersetzt von Chris Frey EIKE




Video: Faktencheck 2012 – Temperatur- Meeresspiegel- Extremwetter-CO2 Einfluss! Teil II

Klaus Eckard Puls: Faktencheck 2012 – Globale Temperatur, Meeresspiegel, Extremwetter, Gletscher und Polareis:

Vortrag von Klaus Eckard Puls: Faktencheck 2012

PD Dr. E. Schulze: Zahlen vs. Gefühl: CO2; Klima und der Mensch! Wer und was spielt eine Rolle?

PD Dr. E. Schulze: Zahlen vs. Gefühl.

Vortrag Dr. G. Stehik: Wasser und CO2 verstehen – Physikchemische Eigenschaften der  Erdoberflächenkomponenten.

Dr. G. Stehik: Wasser und CO2 verstehen




Schwierigkeiten eines Anti-Fracking-Spielfilms in Hollywood

Bild rechts: Universal Picture

Es war das übliche Hollywood-Drehbuch. Wir kennen es alle: Damon spielt einen Mann, der für eine „böse“ Ölgesellschaft arbeitet. Er kommt in eine Kleinstadt im ländlichen Amerika und verkauft den Anwohnern eine gefährliche Fracht.

Er wird Bournes Eskapaden übertrumpfen müssen: Damon, diesmal in “The Bourne Ultimatum”, drückt sich vor den Fracking-Tatsachen.

Dann bekommt er zwei Probleme – sein kaltes Geschäftsherz wird durch eine attraktive Frau unter den Einwohnern geschmolzen, und Krasinski kommt als ein Umweltaktivist ins Spiel, der enthüllt, dass die Ölgesellschaft plant, auszubeuten, zu verschmutzen und wieder zu verschwinden.

Die erschrockenen Stadtbewohner fühlen sich betrogen. Damon steht im Zwiespalt – soll er weiter für die Gesellschaft und seine Karriere arbeiten, oder soll er seinem Herzen folgen und zurückfahren in seinem weißen SUV, seine Mitarbeit in der Gesellschaft aufkündigen und die Lage retten?

Die Filmemacher waren über dieses Drehbuch so erfreut, dass sie angekündigt haben, dieses Drehbuch als einen potentiellen Oskar-Gewinner zu vermarkten.

Aber dann begannen die Schwierigkeiten.

Ich habe die Neuigkeit aufgedeckt, dass es bei „Promised Land“ um Fracking geht, und jetzt kann ich enthüllen, dass in dem Drehbuch wegen der Beweise aus der wirklichen Welt, dass die Anti-Fracking-Aktivisten die wirklichen Bösewichte sind, einige sehr hastige Umschreibungen vorgenommen wurden.

In einer Gerichtsverhandlung nach der anderen wurde bewiesen, dass Anti-Fracking-Aktivisten des Betrugs und der Fehlinterpretation schuldig waren.

Da gab es die Ortschaft Dimock in Pennsylvania – die wahrscheinliche Inspiration für den Film „Promised Land“, der ebenfalls in Pennsylvania spielt. Von Dimock war in zahllosen Reportagen die Rede, wobei sogar Hollywood-Berühmtheiten 11 Familien mit Wasser versorgten, die behauptet hatten, dass Fracking ihr Wasser vergiftet und ihr Leben zerstört hätte.

Aber noch während der Produktion von “Promised Land” brach die Geschichte von Dimock zusammen. Der Staat untersuchte, und seine Wissenschaftler fanden nichts, was beanstandet werden müsste. Dann bestanden die 11 Familien darauf, dass Wissenschaftler der EPA den Fall untersuchten. Das haben sie auch getan – und sehr zum Missfallen der Umweltbewegung fanden sie heraus, dass das Wasser nicht vergiftet war.

Dann waren da die Wolf Eagle Environmental Engineers in Texas, eine Gruppe, die ein beängstigendes Video über brennende Wasserhähne produziert und behauptet hatte, dass eine Gasgesellschaft das Wasser vergiftet hätte. Aber ein Richter hat herausgefunden, dass das Video ein glatter Betrug war – Wolf Eagle hatte einfach die Gasleitung an einen Schlauch angeschlossen und das Wasser dann angezündet.

Andere Fälle von „Verschmutzung” kollabierten in Wyoming und Colorado. Selbst Josh Fox, der mit seiner Oskar-nominierten Dokumentation „Gasland“ als Erster Sorgen über brennbares Wasser erzeugt hat, hat zugeben müssen, Beweise dafür zurückgehalten zu haben, dass das Fracking dafür nicht die Ursache war.

Diese Betrügereien und Fehlinterpretationen führten zu massiven Problemen für das Drehbuch von Damon/Krasinski zum Thema „was uns als Nation definiert“.

Schließlich fanden sie dem Film nahe stehenden Kreisen zufolge eine Lösung – sie sagen einfach, dass die Anti-Fracking-Betrüger in Wirklichkeit Geheimagenten der Industrie der fossilen Treibstoffe sind, um die Umweltbewegung zu diskreditieren.

In dem überarbeiteten Drehbuch stellt Damon Krasinski als Betrüger dar – nur um feststellen zu müssen, dass die von Krasinski verkörperte Figur tief undercover für die Ölindustrie arbeitet, um die Gegner des Fracking zu beschmutzen.

Hollywood macht sich Sorgen über die abnehmende Zahl von Kinobesuchern; es macht das Internet und die Rezession dafür verantwortlich. Aber das wirkliche Problem könnte viel näher liegen.

Damon und Krasinski sagten, dass sie einen Film produzieren, der „uns als Nation definiert“. Dann aber bugsierten sie Ideologie in das Drehbuch – und als die Ereignisse in der realen Welt zum Problem wurden, bugsierten sie noch mehr Ideologie hinein.

Die einfache Wahrheit bzgl. Fracking ist, dass sehr viel der Opposition dagegen von überführten Lügnern, Scharlatanen und Betrügern getrieben wird – einige getrieben durch Zelotismus, andere durch die Gier, einen großen Gerichtsprozess zu gewinnen.

Ein Krieg ist in einigen Gebieten von Amerika im Gange zwischen verarmten Anwohnern und urbanen Eliten. Diese Eliten greifen zu Betrug, Übertreibung und zur Macht von Prominenten, um ländliche Gemeinden daran zu hindern, durch Bohrungen nach Gas zu erblühen.

Das klingt nach einem großartigen Korsett für einen Film. Unglücklicherweise für Amerika wird aber Hollywood irgendwann demnächst keinen solchen Film produzieren.

Phelim McAleer is a journalist and the director of “FrackNation,” a documentary about fracking.

Link: http://www.nypost.com/p/news/opinion/opedcolumnists/for_his_next_escape_x46uFSONrAaCey67ZzZV0I

Übersetzt von Chris Frey EIKE




Geht der Elektroauto-Revolution die Puste aus?

Update 29.9.12  Neuer Öko-Boom: schon 4541 Elektroautos!

Wie man mit einem Verkauf in einer Größenordnung von 39 995 Dollar Geld verlieren kann

Warum sind bessere Verkaufszahlen für den Volt ein zweifelhafter Segen? Es stellt sich heraus, dass diese Verkäufe teuer sind: Reuters berichtete vor Kurzem, dass GM mit jedem verkauften Volt einen Verlust macht – trotz des kleinen Grundpreises von 39 995 Dollar für das kleine Hybridfahrzeug mit Stecker.

Während  GM mit der Mathematik von Reuters nicht übereinstimmt, ist dennoch klar, dass das innovative Auto keine Gelddruckmaschine für General Motors ist. Mit nur einigen Tausend Verkäufen im besten Monat wird es viele Jahre dauern, bis das Auto die Entwicklungskosten wieder eingebracht hat, die auf etwa 1 Milliarde geschätzt werden.

Nun ist das nicht unbedingt etwas Schlechtes, zumindest aus Sicht von GM. Wie andere Autobauer auch schaut GM voraus auf die nächste Dekade, wenn die treibstoff-wirtschaftlichen Regeln viel strikter sein werden. Aus der Perspektive von GM repräsentiert der Volt eine frühe Investition in die Art von Technolgie, die GM – und andere Autobauer rund um die Welt – brauchen wird, diese Technologie zu perfektionieren, bevor die Regeln in Kraft treten.

An diesem Argument ist etwas dran. Aber das hält die Kritiker von GM nicht davon ab, sich darüber zu beklagen, dass sich die [Entwicklung der] Technologie der Elektroautos zu einer teuren Zeitverschwendung entwickelt.

Werden Elektroautos jemals die Kurve kriegen?

Ein Editorial in der Washington Post nahm sich diese Woche den Volt zur Brust, und zwar als Teil einer größeren Argumentationskette gegen die Subventionen der US-Regierung für die Technologie von Elektroautos. Das Department of Energy sagte 2011, dass bis zum Jahr 2015 1 Million Elektroautos in den USA unterwegs sein könnten, aber wie die Post selbst sagt, erscheint das im Moment reichlich unwahrscheinlich.

Die Folgerung des Department of Energy basierte auf einer Studie, in der einige Hypothesen aufgestellt worden sind, die heute ziemlich dumm daherkommen. Es erwartete, dass Nissan 25 000 Autos des Typs Leaf in diesem Jahr verkaufen würde. Aber bis einschließlich August 2012 waren es weniger als 5000. Es hat auch vorhergesagt, dass GM 120 000 Volts in diesem Jahr verkaufen wird. Die Realität: weniger als 14 000 Volts wurden 2012 bis einschließlich August in den USA verkauft.

Beide diese Autos, ebenso wie ein großer Teil des sich immer noch entwickelnden Geschäftsfeldes der Elektroautos in den USA hängen fast vollständig von der Hilfe der Regierung ab. Der massive Notverkauf von GM ist kein Geheimnis, aber einige der anderen Hilfsprogramme des Department of Energy sind weniger bekannt: Neben anderen Zuwendungen und Anleihen erhielt Nissan 1,5 Milliarden Dollar an billigen Krediten, um die Produktionsstätte des Leaf in Tennessee zu renovieren, und Tesla erhielt Kredite in Höhe von 465 Millionen Dollar, um das Modell S zur Produktion zu verhelfen.

Und was hat der Steuerzahler von all dem? Nicht sehr viel.

‚Erfolg’ für Elektroautos ist relativ

Bislang steht Tesla für eine große Erfolgsstory im Elektroauto-Spiel – aber dieser Erfolg ist relativ. Bei Tesla stehen mehr als 10 000 Order für das Modell S in den Büchern, ein luxuriöser Sedan mit der größten Reichweite bei den Elektroautos.

Für einen Autobauer im Silicon Valley ist das eine riesige Zahl. Aber es ist nur ein Tropfen auf den heißen Stein hinsichtlich des gesamten Automarktes: Tesla kann 20 000 Autos im nächsten Jahr verkaufen – und das wäre immer noch ein großer Erfolg – aber das ist weniger als die Hälfte der Anzahl von Pickups der F-Serie, die Ford in jedem einzelnen Monat verkauft.

Das ist weit entfernt von der von der Regierung angenommenen Million pro Jahr, und es ist weit entfernt davon, auch nur geringste positive Auswirkungen auf die Umwelt zu haben.

Ein düsterer Trend

Und das ist das wirkliche Problem mit Elektroautos: bisher sind es nicht sehr viele Verbraucher, die sich zum Kauf anstellen. Ökobewusste Fahrer bevorzugen immer noch Hybridautos wie den populären Prius von Toyota (TM), der an jeder Tankstelle aufgetankt werden kann – und das wird sich wahrscheinlich so schnell auch nicht ändern.

Das bedeutet, dass Elektroautos untergehen könnten – egal wie viele davon das Department of Energy verkauft sehen will.

John Rosevear, The Motley Fool

Link: http://www.dailyfinance.com/2012/09/17/is-the-electric-car-revolution-running-out-of-juice/

In diesem Zusammenhang gibt es noch eine interessante Mitteilung von Toyota (A. d. Übers.):

Toyota lässt das ‚E-Auto für jedermann’ sterben

Wer hat das elektrische Auto sterben lassen? In diesem Falle war es Toyota. Die Firma hat heute bekannt gegeben, dass es sein für den Massenmarkt vorgesehenes Mini-E-Auto, den eQ, nicht ausliefern wird.

Der Grund: Es gibt keine Nachfrage dafür, jedenfalls so lange nicht, wie die Batterie-Technologie nicht ausreicht, um mit einer Ladung genauso weit zu kommen wie mit einem Tank voller Benzin.

„Die gegenwärtigen Kapazitäten elektrischer Fahrzeuge entsprechen nicht den Bedürfnissen der Gesellschaft”, sagte Reuters zufolge der Vizevorsitzende von Toyota, Takeshi Uchiyamada. „Ob es die Strecke ist, für die eine Ladung reicht, oder die Kosten, oder wie lange das Wiederaufladen dauert“.

Toyota wird sich stattdessen auf Hybridautos konzentrieren, welche nützlicherweise auf Kurzstrecken mit Batteriestrom fahren können, aber auch die Möglichkeit zur Benzinverbrennung haben, um ihre Reichweite auszudehnen. Sie gestatten es den Fahrern, von Strom zu profitieren, ohne dem Zwang der Reichweite zu erliegen.

Der Erdgasboom in den USA hat die Treibstoffpreise abstürzen lassen, was wiederum die Stromkosten gesenkt hat. Billigere Elektrizität wird den Strom-Hybriden gegenüber anderen Typen sowie über Benzin- und Dieselfahrzeuge Vorteile verschaffen.

Der japanische Autobauer sagte heute, dass er 21 Hybrid-Gas-Elektromodelle bis 2015 in der Produktion habe, davon 14 völlig neue Modelle. Die übrigen werden umgebaute Prius-Modelle sein. Er sagte, man werde für alle Fahrzeugklassen Hybridversionen anbieten.

Der eQ war für 20120 angekündigt, das Ergebnis seiner Anstrengungen war das Design der Mini-Autos vom Typ EV I aus dem Jahr 2008 und EV II 2009. Toyota sagte, dass das E-Auto 2012 in den USA in den Verkauf gehen würde. Das wird es auch, aber in Stückzahlen, die zu klein sind, um einen wirklichen Massenmarkt zu erzeugen.

Tony Smith

Link: http://www.reghardware.com/2012/09/24/toyota_kills_eq_city_ev_mass_launch/

Beide Artikel übersetzt von Chris Frey EIKE

Update: Neuer Öko-Boom: schon 4541 Elektroautos!

"Doch statt des Siegeszugs kamen dann im August diese Nachrichten: Wegen geringer Nachfrage stoppt der französische PSA-Konzern die Produktion seiner beiden Elektro-Modelle Citroen C-Zero und Peugeot iOn. Aus demselben Grund stehen seit Ende des Monats auch die Bänder des Ampera-Schwestermodells Chevrolet Volt still. Solch einen Stillstand kann sich die Elektromobilität aber nicht erlauben, zumindest wenn es nach den Plänen der Bundesregierung geht. Diese hätte gern bis zum Jahr 2020 eine Million Elektrofahrzeuge auf deutschen Straßen."

mit Dank an Wolfgang Röhl ACHGUT




Gletscherrückzug und Vorstoß in Montana

Neue Studie über alpine Gletscher in den USA

Eine neue Studie, veröffentlicht in Quaternary Science Reviews stellt fest, dass alpine Gletscher im Glacier National Park, Montana, während der 1930er und 1940er Jahre bis zu sechsmal rascher zurückgingen als während der vergangenen 40 Jahre.

 

Foto: Wikimedia (http://commons.wikimedia.org/wiki/File:Grinnell_overlook.jpg)
Lizenz: http://creativecommons.org/licenses/by-sa/2.5/deed.de

Der Grinnell Gletscher im Glacier National Park (USA) in der Mitte des Hintergrunds. Der See vor dem Gletscher ist durch einen starken Rückzug des Gletschers in den vergangenen Jahrzehnten entstanden. Ein kleinerer Gletscher namens Salamander befindet sich unten rechts auf dem Bild. Einst waren beide Gletscher ein einziger. (Photo credit: Wikipedia)

Die “Multi-Proxy-Studie von Sediment-Kernen aus Seen unter modernen Gletschern trägt zur ersten detaillierten Neoglazial-Chronologie für den Glacier National Park (GNP) bei”, und sie zeigt “die höchsten rekonstruierten Rückzugsraten [für] 1930″ von etwa 125 Metern pro Jahr im Vergleich zu nahezu Null um die 1975er und etwa 20 Meter/Jahr am Ende der Aufzeichnung für das Jahr 2005. Die Autoren schreiben: “Die Ergebnisse zeigen an, dass im Holozän die alpinen Gletscher im Glacier National Park zwischen dem Beginn des Neoglazials vor 6.500 Jahren und heute mehrfach vorstießen und sich zurückzogen.” Und weiter: „Der Rückzug seit dem Maximum der Kleinen Eiszeit war der dramatischste während der letzten 1000 Jahre.”

Abstract:

A lacustrine-based Neoglacial record for Glacier National Park, Montana, USA

15 October 2012
Jeffrey S. Munroe | Thomas A. Crocker | Alena M. Giesche | Lukas E. Rahlson | Logan T. Duran | Matthew F. Bigl | Benjamin J.C. Laabs

Eine Multi-Proxy Studie von Sediment-Kernen aus Seen unter heutigen Gletschern trägt zur ersten detaillierte Neoglazial-Chronologie bei für den Glacier National Park (GNP), Montana. Die Analyse konzentriert sich auf Sediment-Eigenschaften, die sensitiv auf die Ausdehnung und die Aktivität von Eis im oberen Gletscher sind, darunter: Wasser, organisches Material, Kohlenstoff, biogenischer Siliziumgehalt, Lagerdichte, Massen-Akkumulations-Rate, Phosphor-Auftrennung, magnetische Suszeptibilität, L*a*b* Farbwerte, Verteilung der Korngrößen. Die Ergebnisse deuten darauf hin, dass alpine Gletscher im Glacier National Park mehrfach während des Holozäns nach dem Beginn des Neoglazials vor etwa 6.500 Jahren vorstießen und sich zurückzogen.

Die beiden ältesten Phasen der Gletscherausdehnung verliefen synchron mit dem gut dokumentierten Garibaldi (vor 5.600–6.900 Jahren) und dem Tiedemann-Peyto (vor 1.900–3.700 Jahren) in West-Kanada. Jüngere Phasen korrespondieren mit dem ersten Millennium-Vorstoß in West-Kanada, wie auch mit Gletscher-Vorstößen in der Sierra Nevada. Der Höhepunkt der Vorstöße in der Kleinen Eiszeit war der jüngste und ausgedehnteste in einer Reihe von Vorstoß-/Rückzugszyklen im letzten Jahrtausend. Der Rückzug seit dem Maximum der Kleinen Eiszeit war die dramatischste Episode des Eisrückgangs während der letzten 1.000 Jahre.

Übersetzung: Helmut Jäger, EIKE

Original auf WUWT




Hochgespieltes Fukushima: Haben Journalisten die Energiewende herbeigeschrieben?

Hans Mathias Kepplinger und Richard Lemke spürten der Medienberichterstattung zur Reaktorkatastrophe in Fukushima nach, und zwar vergleichend in Deutschland und der Schweiz, wo nach dem GAU die bekannte energiepolitische Kehrtwende stattfand, sowie in Frankreich und Grossbritannien, wo es bisher keinen Politikwechsel gab…. Noch verblüffender sind die Differenzen bei der Bewertung des Ereignisses. Die britischen und die französischen Medien beschäftigten sich weit intensiver mit dem Reaktorunfall in Japan selbst, während die deutschen und die Schweizer Redaktionen das Unglück vor allem zum Anlass nahmen, die Situation im eigenen Land auszuleuchten: «Die Medien in Deutschland und der Schweiz haben im Unterschied zu den Medien in Frankreich und England sehr häufig Forderungen nach einem Ausstieg aus der Kernenergie veröffentlicht.» 90 Prozent der analysierten Artikel hätten den möglichen Ausstieg und ein Moratorium für die Kernenergie diskutiert. «Fukushima wurde somit zum Menetekel, das Konsequenzen verlangt», resümiert Kepplinger.

Lesen Sie den ganzen Beitrag von Stephan Russ-Mohl in der NZZ




Die Wirklichkeit bzgl. des Eises in Arktis und Antarktis

Update 28.9.12:

“Noch nie” besaß das antarktische Meereis eine so große Ausdehnung am 267. Tag des Jahres wie 2012

Für diese so genannten Wissenschaftler wurde die Welt im Jahre 1979 erschaffen, als die Überwachung durch Satelliten begonnen hat. Das berühmte Bild des U-Bootes (rechts), das im August 1959 auftauchen konnte, zeigt, dass dies zuvor auch schon der Fall war.

Steve Goddard hat auf seinem Blog Real Science viele Berichte aus den Main-Stream-Medien in der ersten Hälfte des vorigen Jahrhunderts gesammelt: http://stevengoddard.wordpress.com/polar-meltdown/ und http://stevengoddard.wordpress.com/ice-free-arctic-forecasts/.  

Das letzte arktische Minimum im Jahr 2007 fiel zusammen mit einer Rekordausdehnung in der Südhemisphäre, was aber niemals eingeräumt worden ist. Hier folgt die heutige Anomaliekarte der Eisausdehnung in der Südhemisphäre:

Man beachte auch einige Studien, denen zufolge sich auf der Antarktischen Halbinsel seit 1850 signifikant zusätzliches Eis akkumuliert hat. Der Studie von  Grace et al. (2012) zufolge, veröffentlicht in den Geophysical Research Letters GRL, gab es auf der Antarktischen Halbinsel eine „signifikante Akkumulation“ bis zu „45 Meter zusätzlicher Eisdicke während der letzten 155 Jahre“. Dieses Ergebnis steht im Gegensatz zu den Behauptungen in der höchst fälschlichen Studie von Eric Steig bei RealClimate, der zufolge sich die Antarktische Halbinsel rapide erwärmen soll. Das Ergebnis ist besonders überraschend, da die „signifikante Akkumulation“ seit dem Ende der Kleinen Eiszeit um 1850 stattgefunden hat.

Eiszunahme auf der Antarktischen Halbinsel seit 1850 und dessen Auswirkungen auf die glaziale isostatische Anpassung (GIA)

Schlüsselpunkte:

·        Das Modell simuliert ein mit GIA zusammenhängendes Absinken bis zu 7 mm/Jahr, was Auswirkungen auf GPS haben wird

·        Aus dem GRACE-Sateliten abgeleitete Raten der Änderung der Eismenge werden zu tief gezeigt, wenn man dieses Signal ignoriert.

Arktisches Eis

Am 21. Oktober 2011 schlug eine Geschichte von Associated Press mit dem Titel „Eisschmelze durch Temperaturanstieg in der Arktis [”Sea Ice Melting as Arctic Temperatures Rise“] ein. In diesem Sommer waren zahlreiche Geschichten in Zeitungen und Zeitschriften zu den Aufzeichnungen dieses Jahres erschienen. Teilweise bezogen sie sich auf den Sturm in der Arktis, welcher das Eis aufbrach.

Unvermeidlich ging es in diesen Geschichten auch um die Bedrohung der Eisbären und in einigen sogar um die Bedrohung der Pinguine. Sie sind in der folgenden Abbildung dargestellt, obwohl es am Nordpol gar keine Pinguine gibt und am Südpol keine Eisbären (wofür die Pinguine dankbar sind, weil sie sonst gar nicht existieren würden).

Nun haben die Temperaturen in der Arktis währen der letzten Jahre tatsächlich zugenommen, und das Eis ist zurückgegangen. Ein Minimum wurde im Jahr 2007, ein weiteres stärkeres in diesem Jahr 2012 verzeichnet. Aber dies ist wahrscheinlich weder überraschend, noch ist es noch nie dagewesen. Die arktischen Temperaturen und die Eisausdehnung um den Nordpol variieren mit einem gut vorhersagbaren Zyklus von 60 bis 70 Jahren im Zusammenhang mit ozeanischen Zyklen, vermutlich getrieben durch solare Zyklen. Im Jahr 2007 haben NASA-Wissenschaftler berichtet, dass ihr Team nach jahrelangen Forschungen Daten gesammelt hat, die zeigen, dass Jahrzehnte lange Änderungen der arktischen Meeresströmungen, die durch den Namen Arktische Oszillation bekannt sind, zum größten Teil für die seit vielen Jahren beobachteten wesentlichen arktischen Klimaverschiebungen verantwortlich waren. Diese periodischen Umkehrungen der Meeresströme transportieren wärmeres und kälteres Wasser an andere Stellen, was große Auswirkungen auf das Klima hat. Die arktische Oszillation lag im vergangenen Winter auf einem rekord-tiefen Niveau, was die Rekordkälte und den Schnee in Mittleren Breiten erklärt. Eine stark negative AO transportiert die kälteste Luft weit nach Süden, während die Temperaturen in den Polargebieten unter dem blockierenden hohen Luftdruck höher als normal sind. Siehe den Beitrag hier.

Wir stimmen zu. Und tatsächlich spielen beide Ozeane eine Rolle. In der (seit Beginn der Satellitenbeobachtung im Jahre 1979) Rekord-Eisschmelze im Sommer 2007 haben NSIDC-Wissenschaftler die Bedeutung beider Ozeane hinsichtlich des arktischen Eises bemerkt.

„Ein prominenter Forscher, Igor Polyakov an der University of Fairbanks, weist darauf hin, dass Schwaden ungewöhnlich warmen Wassers aus dem Atlantik in den Arktischen Ozean geflossen sind, die sich viele Jahre später im Ozean nördlich von Sibirien wiedergefunden haben. Diese Schwaden warmen Wassers helfen, den oberen arktischen Ozean zu erwärmen und tragen so zur Eisschmelze im Sommer bei und helfen auch dabei, das winterliche Anwachsen des Eises zu reduzieren.“

Ein anderer Wissenschaftler, Koji Shimada an der japanischen Agentur für Marine-Earth Science And Technology, berichtet von Beweisen von Änderungen von Meeresströmen auf der pazifischen Seite des arktischen Ozeans. Durch eine komplizierte Wechselwirkung mit dem abnehmenden Meereis fließt warmes Wasser im Sommer durch die Bering-Straße an der Küsten von Alaska entlang in den Arktischen Ozean, wo es weitere Eisverluste zeitigt.

„Viele Antworten fehlen noch, aber diese Änderungen der Ozean-Zirkulation können wichtige Schlüsselfunktionen sein, um den beobachteten Eisverlust in der Arktis zu verstehen“.

Die Warmphase im Pazifik begünstigt mehr El Ninos und wärmeres Wasser weit im Norden des Pazifiks einschließlich der Bering-Straße. Die PDO ging 1978 in die Warmphase, die arktischen Temperaturen begannen zu steigen und das Eis zu schmelzen.

Man beachte, wie Temperaturen in Alaska stufenweise verlaufen, gekoppelt an die PDO (Keen)

Der Atlantik weist ebenfalls einen Zyklus von 60 bis 70 Jahren auf. Die Atlantische multidekadische Oszillation trat 1995 in ihre Warmphase ein.

Frances et al. (GRL 2007) zeigten, wie die Erwärmung in der Arktis und das schmelzende Eis mit warmem Wasser in der Barents-See zusammenhängt (+3°C), welches langsam in die sibirische Arktis floss und das Eis schmolz. Sie bemerkte auch die positive Rückkopplung einer veränderten „Albedo“ wegen des offenen Wassers, was die Erwärmung weiter verstärkt.

Das International Arctic Research Center an der University of Alaska in Fairbanks zeigte die zyklische Natur arktischer Temperaturen im Zusammenhang mit dem Eindringen atlantischer Wassermassen – kalt und warm.

Die Korrelation wurde von Juraj Vanovcan bestätigt.

Man beachte, wie schnell das arktische Eis im Jahr 1995 auf die Erwärmung der atlantischen Wassertemperatur reagiert (Quelle: Cryosphere today). Dies markierte ein zweites Standbein. Wir haben große Schwingungen gesehen seit dem großen Minimum 2007, das einem Maximum der atlantischen Wärme in den Jahren 2004 und 2005 und dann wieder 2012 folgte, der neuen Spitze in der AMO.

Die folgende Graphik von Chylek (2009) zeigt die enge Korrelation der AMO und der arktischen Temperaturen.

Die Autoren ziehen folgendes Fazit: „Unsere Analyse zeigt, dass das Verhältnis der Arktis zu globalen Temperaturänderungen in einem multidekadischen Zeitscale variiert. Die allgemein verbreitete Vermutung eines Faktors 2 bis 3 für die arktische Amplifikation [?] war nur für die gegenwärtige Warmperiode 1970 bis 2008 gültig. Die Arktis hat sich während der Erwärmung von 1910 bis 1940 im Vergleich zu 1970 bis 2008 deutlich schneller erwärmt. Während der Abkühlung von 1940 bis 1970 war die arktische Amplifikation extrem hoch, zwischen 9 und 13. Die multidekadische Variabilität der thermohalinen Zirkulation im Atlantik wird als wesentlicher Grund für die Variationen der arktischen Temperatur angesehen“.

Obwohl die PDO und die AMO auf verschiedene Weise gemessen werden, spiegeln sie beide eine Dreipoligkeit [a tripole {?}] der Ozeantemperaturen. Beide sind warm im Norden sowie in den Tropen und relativ kühl zwischen der positiven Phase im kalten Norden und den Tropen und warm in der negativen Phase.

Normalisiert man die beiden Datensätze und addiert sie danach, erhält man Aussagen zum Potential einer Gesamterwärmung oder –abkühlung sowohl global als auch in der Arktis. Man beachte, wie sehr die Summe zum Verlauf der arktischen Temperaturen passt. Obwohl es damals noch keine Messungen der Eisausdehnung gegeben hat, gibt es viele Berichte und anekdotische Beweise, dass sich das arktische Eis von den zwanziger bis zu den vierziger Jahren des vorigen Jahrhunderts massiv zurückgezogen hat, wie Goddard oben zeigt.

Am Rande der Arktis verhält es sich in Grönland in gleicher Weise – mit Erwärmung und Abkühlung gekoppelt an die AMO.

Dr. Willie Soon hat gezeigt, wie gut die arktischen Temperaturen zur solaren Gesamteinstrahlung (TSI) passen (Hoyt/Schatten/Willson). Die Korrelation mit CO2 ist dagegen nicht auffindbar.

Wir sehen, wie die jährliche TSI und der jährliche Verlauf von AMO und PDO zum Verlauf der arktischen Temperaturen passen.

In meinem letzten Beitrag zu diesem Thema vor einem Jahr habe ich gesagt: „Obwohl die gegenwärtige Spitze der Temperaturen im Atlantik und mehr Blockierungen in hohen Breiten eine weitere Spitze des Abschmelzens während der nächsten Jahre bringen können, wenn warmes Wasser aus der AMO den Weg in die Arktis findet, kann man längerfristig erwarten, das die arktischen Temperaturen wieder zurück gehen und sich das Eis erholt, wenn es im Pazifik kalt bleibt und sich der Atlantik abkühlt und außerdem die Sonne in ihrem 213-jahres-Eddy-Minimum [?] verbleibt“.

Das schließt kurzfristig nicht einige sehr kalte und schneereiche Winter aus. Im Jahr 2008 berichtete der Glaziologe Bruce Molnia von einem bitterkalten Sommer in Alaska, der einem La Nina gefolgt war, wobei extreme Kälte und starke Schneefälle dazu führten, dass sich die Gletscher des Gebietes ausgedehnt haben, und zwar zum ersten Mal seit Beginn von Aufzeichnungen. Die Sommertemperaturen, etwa 3 K unter normal, gestatteten es, dass Rekordschneemengen des voran gegangenen Winters viel länger erhalten geblieben waren, was zum ersten Mal seit mindestens 250 Jahren zu  einer Zunahme der Gletschermasse geführt hatte“.

Man erinnere sich, dass es in Alaska 2011/2012 einen brutal kalten Winter mit neuen Allzeitrekorden der Schneemenge und unglaublicher Kälte im Januar gegeben hat.

Das Eis in der Bering-See erreichte einen neuen Rekord seit Beginn der Satellitenära.

Siehe das PDF hier. Der jüngste Beitrag von Verity Jones zu den arktischen Daten ist hier. Mehr zu Gletschern und Eiskappen gibt es hier. Außerdem gibt es einen Beitrag von Arnd Bernaerts zu Verity Jones’ Beitrag ‚Digging in the Clay’ hier mit viel mehr Informationen zur Arktis.

Unter dem Strich: Falls die Erwärmung und die Eisabnahme durch das CO2 getrieben werden würde, müssten sich die Eiskappen an Nord- und Südpol gleichermaßen zurückziehen. Ozeanzyklen können dagegen die beobachteten Veränderungen sehr gut erklären. In 5 oder 10 Jahren, wenn sich der Atlantik wieder abkühlt, müssen sie sich eine andere Geschichte konsistent mit der globalen Erwärmung ausdenken – vielleicht eine rapide zunehmende Eis- und Schneebedeckung sowie rapide Abkühlung.

Joe D’Aleo

Aktualisierung: Jeff Masters von Weather Underground sagt, dass sich die Gewässer um die Antarktis schneller erwärmen als in jedem anderen Gebiet der Erde. Dazu schaue man auf die folgende NOAA-SSTA-Karte. Träum weiter, Jeff! Er ist jetzt dort, wo er hingehört – The Weather Channel.

Link: http://icecap.us/images/uploads/Arctic_and_Antarctic.pdf

Übersetzt von Chris Frey EIKE

Lesen Sie auch den ergänzenden Beitrag in "die kalte Sonne":  

“Noch nie” besaß das antarktische Meereis eine so große Ausdehnung am 267. Tag des Jahres wie 2012

Bemerkung des Übersetzers: Viele hier erwähnte Links sind im Original nicht als Link hinterlegt. Auf meine Anfrage hat mir Autor Joe D’Aleo dankenswerterweise die Links jedoch zugänglich gemacht, so dass sie hier alle anklickbar sind.

Es ist immer wieder erstaunlich, wie aufgeschlossen diese Wissenschaftler sind, wenn man freundlich anfragt. Ich empfehle allen, die hier ständig meckern, doch mal die Autoren selbst zu fragen! Ich bezweifle jedoch, dass Forentrolle dazu den Mut haben.

C. F.




Video – Klimapolitik: der späte Sieg der zentralen Planwirtschaft! Teil I

1. Günter Ederer: Klimapolitik: der späte Sieg der zentralen Planwirtschaft!

Fernsehjournalist und Buchautor (Träum weiter, Deutschland!: Politisch korrekt gegen die Wand) Günter Ederer zur Klimapolitik & Planwirtschaft. 

1. Edgar Gärtner : Aufgewärmter undefinedMalhusianismus: Von der Bevölkerungsbombe zur Kohlenstoff-Rationierung:

Der Wissenschaftsjournalist Edgar Gärtner (EIKE) am 15.6.12 in Berlin; Gärtner ist Autor des ausgezeichneten Buches Öko-Nihilismus  Selbstmord in Grün hier bzw. direkt beim Verlag TvR Medien zu bestellen.




Atomare Endlagerplanung: Ein endloser Akt politischen Unwillens

UNGLAUBLICH:  35 Jahre nach Auswahl und Erforschung zweier Endlagerstandorte – Gorleben und Konrad – legte die Bundesregierung den Entwurf eines Standortauswahlgesetzes vor, unter anderem mit der Absicht, weitere Standorte erkunden zu lassen.

Dagegen heißt es im Koalitionsvertrag von CDU, CSU und FDP vom 26.10.2009 unter Nukleare Entsorgung:

„Eine verantwortungsvolle Nutzung der Kernenergie bedingt auch die sichere Endlagerung radioaktiver Abfälle. Wir werden deshalb das Moratorium zur Erkundung des Salzstockes Gorleben unverzüglich aufheben, um ergebnisoffen die Erkundungsarbeiten fortzusetzen. Wir wollen, dass eine International Peer Review Group begleitend prüft, ob Gorleben den neuesten internationalen Standards genügt. Der gesamte Prozess wird öffentlich und transparent gestaltet.“

Doch die nachstehende Bestandsaufnahme belegt den Widerspruch zwischen politischen Absichten und politischem Handeln. An ihrem Ende stehen nur Fragezeichen und mit ihnen der Verdacht gewollter Verzögerungen.

Was ist mit Endlagerung gemeint?

Endlagerung bedeutet in unserem Land den sicheren und dauerhaften Einschluss von radioaktiven Abfällen und gefährlichem Sondermüll im tiefen Gestein. Diese Art der Endlagerung wird in Deutschland als die beste Entsorgungsoption angesehen, um alle Arten radioaktiver Abfälle und gefährlichen Sondermüll extrem langfristig von der Biosphäre fernzuhalten. Nicht alle Staaten wählten den gleichen Entsorgungsweg. Frankreich und Großbritannien zum Beispiel endlagern schwach- und mittelradioaktiven Abfall kontrollierbar oberirdisch.

Wer ist zuständig für die Endlagerung und wie wird sie finanziert?

Die Verantwortung für die Endlagerung radioaktiver Abfälle liegt beim Bund. Mit dem 4. Gesetz zur Änderung des Atomgesetzes vom 30. August 1976 wurde dem Bund die Verpflichtung zugewiesen, Anlagen zur Sicherstellung und zur Endlagerung radioaktiver Abfälle einzurichten. Im Bund liegt die Zuständigkeit für Planung, Errichtung und Betrieb von Endlagern beim Bundesamt für Strahlenschutz (BfS) in Salzgitter. Das BfS kann sich zur Bewältigung der Aufgaben Dritter bedienen. Seither sind 36 Jahre vergangen, ohne dass der Bund seine Verpflichtung erfüllt hat. Von dem wiederholt geäußerten politischen Bekenntnis, dass jene Generation die Endlagerung zu bewerkstelligen hat, die auch den Nutzen der Kernenergie hatte, sind wir allerdings meilenweit entfernt.

Sämtliche Kosten für Planung, Errichtung und Betrieb haben nach dem Verursacherprinzip die Unternehmen zu tragen, bei denen radioaktive Abfälle anfallen. Für die radioaktiven Abfälle besteht Ablieferungspflicht. Die Kosten werden vom BfS jährlich auf der Basis der so genannten Endlagervorausleistungsverordnung erhoben. Für den Standort Gorleben belaufen sich die Kosten bislang auf rund 1,5 Milliarden Euro. Für das Endlager Konrad sind bis zum Beginn des Umbaues zu einem Endlager im Jahr 2007 Kosten in Höhe von fast 1 Mrd. Euro angefallen. Diese Kosten sind nicht mit Gorleben vergleichbar, weil ein bestehendes Bergwerk auf seine Eignung zur Endlagerung untersucht wurde.

Warum wurden Eisenerzgestein und Steinsalz für die Endlagerung in Deutschland ausgewählt?

International besteht Einvernehmen, dass die Endlagerung von hochradioaktiven Abfällen in tiefen geologischen Formationen die beste Option darstellt.  Die Auswahl des Gesteins ist wesentlich von der geologischen Situation des jeweiligen Landes abhängig. Weltweit werden Untersuchungen an Steinsalz, Granit, Basalt, Tuffstein, Kalkstein und Ton vorgenommen.

In der Drucksache 16/1963 des Deutschen Bundestages heißt es: „Die Auswahl des Standortes Schacht Konrad (Anm.: in Salzgitter/Niedersachsen) erfolgte aufgrund seiner speziellen, für sehr günstig bewerteten geologischen Gesamtsituation. Als sich Mitte der70er Jahre abzeichnete, dass die Gewinnung von Eisenerz eingestellt werden würde, wurde vom Betriebsrat der Schachtanlage und anderen vorgeschlagen, die auf Grund der speziellen geologischen Gegebenheiten des Standortes außergewöhnlich trockene Grube auf ihre Eignung für ein Endlager für radioaktive Abfälle zu untersuchen. Voruntersuchungen im Jahre 1975 ergaben keine Aspekte, welche die Eignung der Schachtanlage Konrad für die Endlagerung nicht wesentlich wärmeentwickelnder radioaktiver Abfälle ausschlossen (eignungshöffig). Wesentliche Merkmale waren dabei die Lage des vorgesehenen Wirtsgesteins (Eisenerzhorizont) in ca. 800 Meter bis 1300 Meter unter der Geländeoberfläche und die gute Abdichtung gegen oberflächennahe Grundwasserleiter durch ein mehrere hundert Meter mächtiges Deckgebirge aus tonigem Gestein mit sehr geringer Wasserdurchlässigkeit, ohne potenziell grundwasserführende Klüfte und Störungen. Die Auswahl des Standortes wurde durch einen Erlass des Planfeststellungsbeschlusses im Jahre 2002 und durch das Gerichtsurteil des OVG Lüneburg vom 8. März 2006 bestätigt.“ Die Schachtanlage wird zurzeit zu einem Endlager für schwach- und mittelradioaktive Abfälle umgebaut. Ursprünglich geplanter Betriebsbeginn war 2013. Inzwischen wird von einem Betriebsbeginn in 2019 ausgegangen. Das Einlagerungsvolumen wurde im Planbeschluss auf 303.000 Kubikmeter begrenzt. Dieses Volumen entspricht dem zu erwartenden Abfallaufkommen einschließlich der Abfälle aus der Stilllegung sämtlicher kerntechnischer Anlagen und Einrichtungen.

Bereits 1963 empfahl die Bundesanstalt für Bodenforschung (heute: Bundesanstalt für Geowissenschaften und Rohstoffe, BGR) die Endlagerung in Steinsalzformationen und begründete  dies mit den hervorragenden Stoffeigenschaften von Steinsalz[1]. Steinsalz besitzt insbesondere für hochradioaktive wärmeentwickelnde Abfälle gute Isolationseigenschaften. Unter natürlichen Lagerungsbedingungen ist die Durchlässigkeit gegenüber Gasen und Flüssigkeiten äußerst gering. Die heute im Salzstock vorgefundenen Salzlösungseinschlüsse sind genauso alt wie die den Salzstock aufbauenden Salzgesteine selbst –also älter als 200 Millionen Jahre. Dies ist ein Indiz dafür, dass das Steinsalz als praktisch undurchlässig angesehen werden kann.[2]

Steinsalz verhält sich bei den in der Endlagertiefe vorhandenen Drücken plastisch, das bedeutet, dass die eingelagerten Abfälle im Laufe der Zeit von Salz fest umschlossen sind, ebenso auch Spalten und Risse sich wieder schließen. Fernerhin besitzt Steinsalz eine hohe spezifische Wärmeleitfähigkeit, wodurch die Ableitung der Wärme von hochradioaktiven wärmeentwickelnden Abfällen im Vergleich zu anderen Gesteinen (z.B. Ton oder Granit) begünstigt wird.

Von erheblichem Vorteil ist die hohe Standfestigkeit des Steinsalzes, die die Herstellung großer Hohlräume ohne speziellen bergmännischen Ausbau ermöglicht. Steinsalz-Lagerstätten weisen eine extrem hohe Beständigkeit über Millionen von Jahren auf, obwohl die Überflutung der norddeutschen Tiefebene und Eiszeiten über sie hinweg zogen. Die meisten Vorkommen in Deutschland sind wie der Gorlebener Salzstock über 240 Millionen Jahre alt. Zusammen mit einer über hundertjährigen Erfahrung im Salzbergbau sind dies die wesentlichen Gründe für die Empfehlung der BGR, hochradioaktive Abfälle in Steinsalz endzulagern.

Wann und wie kam es zu dem Standort Gorleben als Endlager?

Immer wieder taucht in der Debatte um den Salzstock Gorleben die Behauptung auf, dass der Standort Gorleben ausschließlich aus politischen Motiven ausgewählt worden sei und dass fachliche Gründe dabei keine Rolle gespielt hätten. Dies trifft nicht zu! Die Geschichte der Auswahl des Salzstocks Gorleben macht deutlich, mit welchem hohen wissenschaftlichen und methodischen Aufwand vorgegangen wurde[3]. Der Auswahlprozess wird am ausführlichsten in einer Expertise des Niedersächsischen Ministeriums für Umwelt und Klimaschutz[4] beschrieben.

Die Standortsuche für ein Endlager in Steinsalz muss im Zusammenhang mit der Suche eines Standortes für das ursprünglich geplante Nukleare Entsorgungszentrum (NEZ) gesehen werden, die im Jahre 1973 begann. Die radioaktiven Abfälle sollten möglichst am Ort ihrer Entstehung endgelagert werden können. Eine erste Bestandaufnahme des Kenntnistandes über Salzstrukturen in Deutschland enthielt eine neun Jahre zuvor von der Bundesanstalt für Bodenforschung vorgelegte Studie. Die vertiefte Suche begann mit der Beauftragung der Kernbrennstoff-Wiederaufarbeitungs-Gesellschaft (KEWA) durch das Bundesministerium für Forschung und Technologie, Standorte für ein NEZ auszuweisen. Dabei lag der Schwerpunkt der Standortsuche auf atomrechtlichen Standortanforderungen für den Betrieb kerntechnischer Anlagen, das Endlager selbst stellte dabei eine zusätzliche Anforderung dar[5]. Dabei wurden zunächst auch Standorte in Betracht gezogen, die zwar aus atomrechtlicher Sicht günstige Beschaffenheit aber kein Steinsalz als Endlagergestein aufwiesen.

Der Bund brachte 26 Gebiete als potenzielle Standorte in ein Auswahlverfahren ein. Das Land Niedersachsen begann sein Auswahlverfahren in einem ersten Selektionsschritt mit 140 Salzstöcken.

Aus diesen Standorten in ganz (West)Deutschland wurden in einem mehrstufigen Auswahlprozess bei zunehmender Verfeinerung der Auswahlkriterien zunächst 23 Standorte ausgewählt, von denen im nächsten Schritt 13 und zum Schluss 4 Standorte im Bereich der Salzstöcke Wahn, Lichtenhorst, Gorleben und Höfer in die engere Wahl kamen. Im BMWI – Bericht[6] heißt es. „Für die entscheidende Sitzung des Landeskabinetts am 22. Februar 1977 wurden in einer Kabinettvorlage der Auswahlprozess und die Vor- und Nachteile der vier übrig gebliebenen Standorte ausführlich dargelegt. Dabei wurde der Standort Höfer als eher nachteilig angesehen, da dort bereits ein Salzbergwerk existierte. Am Standort Wahn bestanden Bedenken wegen eines Übungsgeländes der Bundeswehr, das diese nicht aufgeben wollte. Der Salzstock Lichtenhorst hatte den Nachteil, dass er im Grundwasservorranggebiet von Hannover lag. Der Vorteil von Gorleben bestand in der Ausdehnung des Salzstockes (ca. 40 Quadratkilometer), in seiner Tiefenlage von 300 bis 3500 Meter sowie in seiner Unverritztheit (Anm.: Unberührtheit des Salzstockes).“ Zwar wurde auf Wunsch der Region eine Unterstützung der Wirtschaftsförderung in einem besonders wirtschaftsschwachen Teil des (ehemaligen) Zonenrandgebietes bei der Entscheidung berücksichtigt, es ist aber weit verfehlt und nicht haltbar, zu behaupten, die Auswahl sei vor allem unter politischen und nicht unter technisch-wissenschaftlich fundierten Gesichtspunkten durchgeführt worden. (Die Planung des NEZ am Standort Gorleben wurde aus politischen Gründen 1979 eingestellt, Jahre später am Standort Wackersdorf erneut aufgegriffen und 1989 endgültig aufgegeben.)

Hat Deutschland Erfahrungen mit der Endlagerung?

Eindeutig JA mit internationaler Anerkennung und Wertschätzung. Deutschland verfügt über langjährige Erfahrungen auf dem Gebiet der Endlagerforschung und über praktische Erfahrungen mit der Einlagerung von Abfällen in Bergwerken.

Als Forschungsstätte für die Endlagerung radioaktiver Stoffe erwies sich das stillgelegte Salzbergwerk Asse als geeignet. Im Auftrag des Bundes erwarb die Gesellschaft für Strahlen- und Umweltforschung am 12. März 1965 das Salzbergwerk. In der Zeit von 1967 bis 1978 wurden ca.124.500 Gebinde mit schwachradioaktiven Abfällen eingelagert.[7] In dieser Zeit wurden verschiedene Techniken für die Einlagerung von schwach- und mittelradioaktiven Abfällen angewandt und erprobt. Die bei diesen Arbeiten ermittelten Ergebnisse wurden von der Physikalisch-Technischen Bundesanstalt in die Gorleben-spezifischen Endlagerplanungen eingebracht. In der Zeit von 1979 bis 1995 wurden Einlagerungsmethoden und sicherheitstechnische Fragen für wärmeentwickelnde hochradioaktive Abfälle entwickelt und erprobt. Ferner wurden Techniken zur Verfüllung und zum Verschluss von Bohrlöchern, Kammern, Strecken und Schächten in einem Endlager entwickelt und erprobt[8].

Weiterhin beteiligt sich Deutschland an Forschungsarbeiten in Untertagelaboren im Ausland. Diese sind für Ton/Tonstein Mont Terri in der Schweiz, Mol in Belgien, Tournemire und Meuse-Haute Marne (Bure) in Frankreich. Für das Wirtsgestein Granit werden die Labore Grimsel in der Schweiz und Äspö in Schweden genutzt.

Mit dem Wiedervereinigungsvertrag ging die Dauerbetriebsgenehmigung für das Endlager Morsleben (ERAM) aus DDR-Zeit als befristete Errichtungs- und Betriebsgenehmigung auf das Bundesamt für Strahlenschutz (BfS) über. Klagebedingt wurde die Einlagerung radioaktiver Abfälle ab 1998 ausgesetzt. 1999 gab das BfS bekannt, die Einlagerung nicht wieder aufzunehmen.  Seither betreibt das BfS das Planfeststellungsverfahren für die Stilllegung des Endlagers.

In Herfa-Neurode in Hessen  betreibt das Unternehmen Kali & Salz seit 1972 die weltweit erste Untertage – Deponie für Sondermüll. Nach Angaben in Wikipedia lagern in der Deponie etwa 2,7 Millionen Tonnen Giftmüll, davon 220.000 Tonnen quecksilberhaltige Abfälle, 127.000 Tonnen Cyanid-Abfall, 690.000 Tonnen Abfall und 83.000 Tonnen arsenhaltiger Abfälle. Eine zweite Untertage – Deponie wird seit 1995 ebenfalls von Kali & Salz in Zielitz bei Magdeburg betrieben. Besonders bemerkenswert hieran ist, dass die Endlagerung von giftigem Sondermüll in einem ehemaligen Salzbergwerk zu keinen bedeutenden Protesten in der Öffentlichkeit geführt hat. Im Unterschied zu radioaktivem Abfall zerfällt der Sondermüll nicht und behält für immer und ewig seine Toxizität.

Welche Sicherheitsanforderungen an die Endlagerung gibt es?

Es besteht die politische wie ethische Verpflichtung, die bei der Nutzung der Kernenergie entstandenen radioaktiven Abfälle möglichst zeitnah und schadlos dauerhaft aus der Biosphäre zu entfernen. Radioaktive Abfälle dürfen weder die damit umgehenden Menschen, noch die allgemeine Bevölkerung und die Umwelt schädigen, noch dürfen sie künftigen Generationen zum Schaden gereichen oder ihnen unzulässige Lasten auferlegen. Künftige Generationen sollen dabei gegenüber den heutigen Nutznießern nicht schlechter gestellt sein. Eine derartige Denkweise ist nicht selbstverständlich und in der Kultur- und Technikgeschichte ziemlich neu. Belege dafür,  dass heutzutage nicht danach gehandelt wird, sind beispielsweise die Abgabe von klimaschädlichen Stoffen in die Atmosphäre oder auch der Verbrauch von in Jahrmillionen entstandenen Kohle-, Mineralöl- und Gasvorräten innerhalb weniger Generationen. Was scheinbar als selbstverständlich hingenommen wird.

Gleichartiges Bemühen vieler Nationen um einheitliche Sicherheitsstandards führte zur Verabschiedung der Entsorgungskonvention durch die Internationale Atomenergieagentur (IAEA) in Wien. Deutschland ist seit 1998 Vertragsstaat. In der EU ist fernerhin die Richtlinie 2011/70/ EURATOM des Rates vom 19.7.2011 heranzuziehen.

Die Sicherheitsanforderungen an die Endlagerung radioaktiver Abfälle sind erstmals im Jahr 1983 vom Bundesumweltministerium im Bundesanzeiger unter dem Titel „Sicherheitskriterien für die Endlagerung radioaktiver Abfälle in einem Bergwerk“ veröffentlicht worden. Diese wurden im Jahr 2010 dem aktuellen Stand von Wissenschaft und Technik angepasst. Sie dienen als Bewertungsmaßstab für die Prüfung der Genehmigungsvoraussetzungen eines Endlagers im Rahmen eines Standortauswahl- und Planfeststellungsverfahrens[9].

Wesentliche Elemente der Anforderungen[10] sind unter anderem:

  • Es muss ein Mehrbarrierensystem realisiert werden können, das den im kerntechnischen Bereich üblichen Prinzipien der Redundanz (doppelte Sicherheitssysteme) und Diversität (unabhängige Wirkungsmechanismen) folgt.
  • Für eine Million Jahre muss gezeigt werden, dass allenfalls sehr geringe Schadstoffmengen aus dem Endlager freigesetzt werden können. Hierzu muss in einer Langzeitsicherheitsanalyse die Dichtheit  des einschlusswirksamen Gebirgsbereiches nachgewiesen werden.
  • Die Sicherheit des Endlagers muss von der Planung bis zum Verschluss des Endlagers einem  kontinuierlichen Optimierungsprozess mit periodischen Sicherheitsüberprüfungen unterworfen werden.

Was geschah nach der Auswahl des Endlagerstandortes Gorleben?

In den Jahren 1979 bis 1983 wurden am Rand des Salzstockes Erkundungsbohrungen niedergebracht und somit übertägig erkundet[11]. Ab 1986 wurden auf der Basis des Bergrechts zwei Erkundungsschächte niedergebracht und Infrastrukturbereiche eingerichtet. Die untertägige Erkundung des Salzstockes begann 1998 durch Umfahrung des Einlagerungsbereiches im Nordosten des Salzstockes. Die Beschränkung auf dieses Gebiet war erforderlich, weil der Bund nur für diesen Teil des Salzstockes die so genannten Salzrechte besitzt. Über die Salzrechte im südwestlichen Teil des Salzstockes verfügt Graf Bernstorff. Diese Salzrechte geben dem Besitzer das Recht, das Salz zu fördern. Ohne Abtretung seiner Salzrechte ist auch eine anderweitige Nutzung des Salzstockes untersagt. Am Ende 1998 waren in 840 Meter Tiefe des Salzstockes etwa 7 Kilometer Strecken mit einer Höhe von 8 Metern und 16 Meter Breite aufgefahren worden. Parallel zu den bergmännischen Auffahrungen wurden insgesamt 11 km Erkundungsbohrungen bzw. geotechnische Bohrungen zur Untersuchung des stofflich-strukturellen Inventars des Salzstocks ausgeführt. Für Planung, Errichtung und Betrieb von Endlagern bedient sich der Bund der „Deutschen Gesellschaft zum Bau und Betrieb von Endlagern (DBE).

Der spätere Vorwurf, es hätte keine Öffentlichkeitsbeteiligung gegeben, ist nicht haltbar. Unmittelbar nach der Benennung des Standortes Gorleben durch die niedersächsische Landesregierung erfolgte eine umfassende Information der zuständigen kommunalen Gremien und der Öffentlichkeit über das Vorhaben. Von Anfang an bestand am Standort Gorleben die Zustimmung der Kommunen zur Aufnahme der Erkundungsarbeiten. 1979 fand eine öffentliche Anhörung (Rede/Gegenrede) der niedersächsischen Landesregierung zum NEZ aber auch zur Standortentscheidung statt, die auch Gegner des Vorhabens einbezog.

Zur Unterstützung der kommunalen Gremien wurde die Gorleben-Kommission  Ende 1977 eingerichtet. Sie  hat bis zu ihrer Auflösung im Jahre 1991 in über 70 Tagungen sowie in einer Reihe von öffentlichen Vorträgen und Diskussionen die relevanten geowissenschaftlichen, ökologischen, technischen und rechtlichen Fragen im Zusammenhang mit der Erkundung des Salzstockes Gorleben behandelt. Darüber hinaus hat sie sich mit finanziellen Fragen wie Strukturhilfen für die Region, Ausgleich für Nachteile der Landwirtschaft und ausgewählten Fragen im Rahmen der Projektabwicklung befasst. In der Gorleben-Kommission waren alle relevanten politischen Parteien, Behörden und das Landvolk vertreten. Außerdem wurden ab 1978 Vertreter der örtlichen Bürgerinitiative sowie ab 1980 Vertreter der Elbe-Jeetzel-Zeitung (EJZ) zu den Sitzungen hinzugezogen.

Das Bundesamt für Strahlenforschung richtete zeitgleich ein Informationsbüro in Gartow (Nachbarort  von Gorleben) ein. Die Befahrung des Erkundungsbergwerkes wurde für Interessierte von Beginn an gefördert.

10 Jahre lang ruhte die Erkundung des Salzstockes Gorleben

Der Regierungswechsel zum Ende 1998 brachte eine für die künftige Kernenergie- und Entsorgungspolitik drastische Zäsur: Allen Kernkraftwerken wurde nur noch eine begrenzte Stromerzeugung zugestanden, nach Erreichen der für jedes Kernkraftwerk vorgegeben maximalen Strommenge muss das Kernkraftwerk stillgelegt werden, der Transport abgebrannter Brennelemente zu den Wiederaufarbeitungsanlagen in Frankreich und Großbritannien wurde rechtlich untersagt, stattdessen mussten Zwischenlager am Standort der Kernkraftwerke errichtet werden und die Erkundung des Salzstockes Gorleben wurde ab Oktober 2000 für mindestens 3 längstens jedoch 10 Jahre unterbrochen (Moratorium). Nur drei bis vier Jahre weiterer Erkundung hätte es bedurft, um eine abschließende Eignungsaussage über den Salzstock als Endlager machen zu können.

Als Grund für das Moratorium wird die Klärung konzeptioneller und sicherheitstechnischer Fragen angeführt. In der Vereinbarung[12] mit den Energieversorgungsunternehmen erklärt die Bundesregierung unter anderem:

„Die analytisch bestimmten Hebungsraten des Salzstockes lassen erwarten, dass im Hinblick auf mögliche Hebungen auch in sehr langen Zeithorizonten (größenordnungsmäßig 1 Mio. Jahre) nicht mit hierdurch verursachten Gefährdungen zu rechnen ist. Es wurden keine nennenswerten Lösungs-, Gas- und Kondensateinschlüsse im Älteren Steinsalz gefunden. Die bisherigen Erkenntnisse über ein dichtes Gebirge und damit die Barrierenfunktion des Salzes wurden positiv bestätigt. Somit stehen die bisher gewonnenen geologischen Befunde einer Eignungshöffigkeit des Salzstockes Gorleben zwar nicht entgegen.“

Eine durchaus sachgerechte und vor allem positive Bewertung der Erkundung auf der Basis bislang vorliegender Ergebnisse. Dann heißt es jedoch weiter in der zitierten Vereinbarung:

„ Allerdings sieht die Bundesregierung im Zusammenhang mit der laufenden internationalen Diskussion die Notwendigkeit, die Eignungskriterien für ein Endlager fortzuentwickeln und die Konzeption für die Endlagerung radioaktiver Abfälle zu überarbeiten. Der Stand von Wissenschaft und Technik und die allgemeine Risikobewertung haben sich in den letzten Jahren erheblich weiter entwickelt; dies hat Konsequenzen hinsichtlich der weiteren Erkundung des Salzstockes in Gorleben.“

Die  diesem Zitat nachfolgend genannten Fragestellungen sind als Begründung für diese Auffassung völlig ungeeignet. Es handelt sich nämlich bei diesen Fragestellungen um konzeptionelle und vor allem um sicherheitstechnische Sachpunkte, die im Rahmen eines Planfeststellungsverfahrens zu klären sind und geklärt werden müssen, nicht aber in der Erkundungsphase, die im Bergrecht betrieben wird. Somit kann das Moratorium nur als unverantwortliche politische Verzögerungstaktik interpretiert werden.

Damit nicht genug: Diese aufgeworfenen Fragen hätten ja eines Tages geklärt werden können und dann müsste der Salzstock weiter erkundet werden. Also gab die Bundesregierung die politische Devise aus, der Standort Gorleben sei vorrangig unter politischen Aspekten ausgewählt worden und die angewandten Auswahlkriterien würden aktuellen internationalen Kriterien nicht mehr genügen. Und das zu einem Zeitpunkt, wo die Eignungshöffigkeit des Salzstockes von der gleichen Bundesregierung bestätigt worden ist und das Projekt in der Standortgemeinde über die Parteigrenzen hinweg nach wie vor hohe Akzeptanz hat. Die Zustimmung wurde unter anderem im Juli 2000 mit einer Resolution an den BMU zur Aufhebung des Moratoriums und während der Regierungsbildung im Oktober 2005 mit Schreiben an die verantwortlichen Spitzenpolitiker dokumentiert.

Von der rot-grünen Bundesregierung wurde die Forderung erhoben, ein Standortauswahlverfahren unter Einbeziehung alternativer Standorte durchzuführen, um den „bestmöglichen“ Endlagerstandort zu finden. Eine stringente Auswahl eines „bestmöglichen“ Standortes ist – logischerweise – somit die Forderung nach etwas Unmöglichem und folglich nicht realisierbar.

Mit der Maßgabe, ein nachvollziehbares Verfahren für die Suche und die Auswahl von Standorten zur Endlagerung aller Arten radioaktiver Abfälle in Deutschland zu entwickeln, richtete der Bundesumweltminister im Februar 1999 den „Arbeitskreis Auswahlverfahren Endlagerstandorte“ ein. Die Empfehlungen des Arbeitskreises wurden 2002 veröffentlicht[13]. Im Ergebnis wurden keine wirklich neuen Erkenntnisse gewonnen, die nicht bereits auch bei der Standortauswahl Gorleben in Betracht gezogen worden sind. Die entwickelten Auswahlkriterien und das vorgeschlagene Auswahlverfahren sind objektiv lediglich darauf ausgerichtet, möglichst eignungshöffige Standorte für die weitere Erkundung vorauszuwählen. Da aber geologische Systeme nicht normierbar sind, kann eine belastbare Bewertung der Endlagergeeignetheit letztlich erst nach abgeschlossener untertägiger Erkundung und auf der Basis eines angepassten Endlagerkonzeptes durch standortbezogene Sicherheitsanalysen erfolgen[14].

Eine internationale Überprüfung oder Evaluierung des AkEnd – Berichtes – wie vom BMU angekündigt – fand bislang nicht statt.

Mit Beginn des Moratoriums wurde das Informationsbüro in Gartow geschlossen. Eine Befahrung des ruhenden Salzbergwerkes war für Besucher sehr stark eingeschränkt worden. Öffentlichkeitsarbeit, wenn sie dann betrieben wurde, richtete sich ausnahmslos gegen die Eignung des Standortes Gorleben.

Das in den Jahren 1998 bis 2006 vom Bundesumweltminister geforderte und betriebene Ein-Endlager – Konzept hatte im Grunde genommen nur das eine Ziel, das Endlager Konrad politisch und faktisch „zu beerdigen“. Denn schwach-, mittel- und hochradioaktive Abfälle sollten nach diesem Konzept in einem Endlager untergebracht werden, in Konrad aber war die Endlagerung hochradioaktiver Abfälle von vornherein ausgeschlossen worden. Nur  sehr unwillig setzte sich beim BMU die Erkenntnis durch, dass auch aus Sicherheitsgründen eine getrennte Endlagerung der hochradioaktiven Abfälle vorzuziehen ist.

Im Oktober 2010 wurde die Erkundung wieder aufgenommen. „Ziel ist es, vor dem Hintergrund der bisherigen Erkenntnisse eine nachvollziehbare Prognose abzugeben, ob und gegebenenfalls unter welchen Umständen ein sicheres Endlager am Standort Gorleben möglich ist.“[15] Dazu soll ein  umfängliches dreidimensionales geologisches Lagerstättenmodell erstellt werden. Das wegen der neuen Standortsuche bis 2012 befristete Erkundungsprogramm umfasst (lediglich) den Abschluss der in 2000 unterbrochenen Arbeiten im Erkundungsbereich 1 sowie die Aufnahme von Arbeiten im angrenzenden Erkundungsbereich 3. Unabhängige internationale Experten sollen anschließend die Ergebnisse der vorläufigen Sicherheitsanalyse bewerten. Dieses durchaus sachgerechte Vorgehen verwirrt in Anbetracht des unten skizzierten Standortauswahlgesetzes.

Ist ein Standortvergleich zwischen verschiedenen Wirtsgesteinen zielführend?

Die im vorangehenden Abschnitt pauschal angesprochenen Fragen, die das Moratorium begründen sollen, wurden näher definiert, spezifiziert und nach Ausschreibung und Auftragsvergabe zwischen 2002 bis 2005 bearbeitet. Dabei sollten alle in Deutschland möglichen Wirtsgesteine vergleichend in die Beantwortung einbezogen werden. Im Synthesebericht des BfS[16] heißt es:

„Als wesentliches Ergebnis der Untersuchungen ist festzuhalten, dass die Möglichkeiten und Grenzen eines generischen Vergleichs von Wirtsgesteinen aufgezeigt und eine Beantwortung der 12 Fragestellungen erreicht wurde. Danach gibt es kein Wirtsgestein, das grundsätzlich immer eine größte Endlagersicherheit gewährleistet. Für alle in Deutschland relevanten Wirtsgesteine können angepasste Endlagerkonzepte entwickelt werden. Ein Vergleich verschiedener Optionen ist nur im Vergleich konkreter Standorte und Endlagerkonzepte möglich.“

Die Suche des „bestmöglichen“ Endlagers durch vergleichende Standortuntersuchungen ist faktisch unmöglich, da durch die Variabilität geologischer Formationen sowie die beabsichtigte Einbeziehung unterschiedlicher Wirtsgesteine (Salz, Ton, Granit) grundsätzlich unterschiedliche Endlagerkonzepte (technisch und geotechnisch) erforderlich sind. Die Bewertung der Endlagersicherheit kann daher nur für einen konkreten Standort auf der Grundlage des Gesamtkonzeptes erfolgen. Der beste Standort könnte somit allenfalls gefunden werden, wenn alle in Betracht kommenden Standorte untertägig untersucht und umfassend analysiert werden. Ein Vergleich der Ergebnisse ist dennoch wegen der Komplexität der Systeme nicht objektivierbar, ein eindeutiges Ranking ist daher nicht möglich[17].

Eine vergleichende Standortuntersuchung würde bei realistischer Bewertung des Zeitbedarfes der einzelnen Verfahrensschritte frühestens ab 2050 zu einem Endlager führen. Die Lösung der Endlagerfrage wäre damit auf die nachfolgenden Generationen verschoben und daher schon aus ethischer Sicht nicht zu vertreten.

Beachtenswert: Eine untertägige Erkundung mehrerer Standorte mit dem Ziel den „besten“ Standort zu finden, ist auch international weder Stand von Wissenschaft und Technik noch wird in anderen Ländern ein derartiges Vorgehen angestrebt. International werden Vergleiche im Rahmen von Standortauswahlverfahren allenfalls auf der Basis der Ergebnisse von übertägigen Erkundungen beziehungsweise Bohrungen wie in Finnland und Schweden im Sinne einer Standortvorauswahl durchgeführt.

Welche Regionen in Deutschland für die Endlagerung radioaktiver Abfälle überhaupt nur geeignet sind, belegt ein Bericht der Bundesanstalt für Geowissenschaften und Rohstoffe aus dem Jahr 2006[18].

Bei der Erforschung von Salzstöcken als potenzielle Endlagerformation für radioaktive Abfälle ist die BGR nach eigenem Bekenntnis international führend. Geowissenschaftler untersuchten Salz und Ton. Kristalline Gesteine (Granit) werden aufgrund der ungünstigeren geologischen Verhältnisse im Vergleich zu den Salzstöcken und den Tonformationen in Deutschland als Wirtsgesteine für die Endlagerung radioaktiver Abfälle nicht favorisiert. Danach liegt die Mehrzahl der in Frage kommenden Standorte in Niedersachsen. Die Studie belegt zudem, dass Salzgestein als Wirtsgestein gegenüber Ton Vorteile aufweist.

Das Resümee aus diesen Untersuchungen kann nur lauten: Das politisch-taktische Bestreben der Regierungen seit 1998, den bestmöglichen Endlagerstandort durch vergleichende Standortuntersuchungen zu finden, ist gescheitert, hat keine sachliche Grundlage mehr und ist einer zügigen und ergebnisorientierten Lösung der Endlagerfrage abträglich.

In vergleichbarer Weise äußerte sich das Niedersächsische Umweltministerium[19]:

„Nach Auffassung Niedersachsens würde die vom Bundesumweltministerium in Betracht gezogene Nutzung alternativer Wirtsgesteine als Salz in Deutschland die Bereitstellung eines Endlagers um Jahrzehnte verzögern und wäre daher im Sinne der Verantwortung unserer Generation nicht zielführend. Kristallingesteine wie z.B. Granit weisen wasserführende Spalten und Klüfte auf und besitzen daher nur eine unzureichende Dichtfunktion. Über Tongestein liegen in Bezug auf die Endlagerung wärmeentwickelnder Abfälle bislang nur unzureichende Kenntnisse vor. Außerdem ist Tongestein in der Regel nicht standfest. Sowohl für Kristallin-, als auch für Tongestein müsste die für Salz bestehende, weit entwickelte Endlagertechnologie grundlegend überarbeitet werden. Zudem müssten neue Behälter- und Handhabungskonzepte entwickelt und erprobt werden, über die in Deutschland so gut wie keine Erfahrungen vorliegen.“

Nach 35 Jahren ein Standortauswahlgesetz?

Es ist unbegreiflich, dass sage und schreibe 35 Jahre nach der Standortentscheidung für Gorleben die Bundesregierung ein Gesetz plant, das den gesamten mehrstufigen Standortauswahlprozess der 60er und 70er Jahre, die gut 20-jährigen über- und untertägigen Erkundungen des Salzstockes Gorleben und seine dokumentierte Eignungshöffigkeit zu ignorieren scheint und sie mit einem vom Gesetz ausgelösten Prozess wieder bei Null anfangen will. Das ist keinem Bürger zu vermitteln – vielleicht nur denen, die schon immer gegen den Standort Gorleben demonstrierten. Sie haben anscheinend erreicht, was sie wollten, denn § 20 des Standortauswahlgesetzes ist zu entnehmen:

„Die laufende bergmännische Erkundung des Salzstockes Gorleben wird mit In-Kraft-Treten des Gesetzes, spätestens bis 31.12.2012 beendet. Das Erkundungsbergwerk wird bis zur Standortentscheidung nach dem Standortauswahlgesetz unter Gewährleistung aller rechtlichen Erfordernisse und der notwendigen Erhaltungsarbeiten offen gehalten…..Die vorläufige Sicherheitsuntersuchung des Standortes wird ohne eine Eignungsprognose für den Standort Gorleben eingestellt.“

In der Zielsetzung des Gesetzentwurfes[20] heißt es:

„Für die Einrichtung eines Endlagers für insbesondere wärmeentwickelnde radioaktive Abfälle sollen ein Standortauswahlverfahren mit umfassender Erkundung und Untersuchung kodifiziert und die Standortentscheidung durch den Gesetzgeber zur Voraussetzung für die Durchführung des anschließenden Zulassungsverfahrens gemacht werden. Es wird ein vergleichendes Standortauswahlverfahren neu eingerichtet, das im Hinblick auf die Sicherheit auf die Ermittlung des bestmöglichen Standortes in Deutschland gerichtet ist. Die Erkundung erfolgt nach den gesetzlich vorgegebenen Kriterien.“

Woran mangelte es denn bisher? Zukünftig soll „wissenschaftsbasiert und transparent“ gearbeitet werden. Im Umkehrschluss würde das heißen, dass 35 Jahre lang dilettantisch gearbeitet wurde. Und dafür mussten die Abfallverursacher 1,5 Milliarden Euro zahlen? Merken die Politiker eigentlich nicht, dass sie sich selbst und ihre eigenen Behörden blamieren? Es werden aber auch weiterhin die gleichen Sachbearbeiter sein, die das Gesetz anzuwenden haben, auch wenn die bisherige Behördenstruktur laut Gesetzentwurf durch eine neue ersetzt werden soll. Politische Glaubwürdigkeit sieht anders aus.

Es klingt geradezu zynisch und unglaubwürdig, wenn es an anderer Stelle des Arbeitspapiers heißt:

„Damit kommen Bund und Länder, auch im Hinblick auf künftige Generationen, ihrer Verantwortung für den langfristigen Schutz von Mensch und Umwelt vor den Risiken von radioaktiven Abfällen nach.“

Der Gesetzgeber meint, mit diesem Gesetz die „gesellschaftlichen Konflikte, die im Zusammenhang mit der Entsorgung entstanden sind, zu entschärfen.“ Die bisherigen Erfahrungen sprechen dagegen.

Ganz im Gegenteil: Kritische Bürger von alternativen Standorten werden durch die politische Abwendung von Gorleben und dem Erfolg der dortigen Gegner geradezu ermuntert, sich gegen eine Endlagerung in ihrem Umfeld zur Wehr zu setzen. „Gorleben ist überall“ lautete das Motto der Demonstranten. Das Gesetz wird an ihrer Überzeugung nichts ändern.

Bewertung

Ein Standortauswahlverfahren und damit ein Standortvergleich sind nach den gesetzlichen Bestimmungen in Deutschland nicht vorgesehen und nicht erforderlich. Das bestätigte eindeutig und ausdrücklich das OVG Lüneburg in seinem Urteil zum „Konrad-Verfahren“ vom 08.03.2006. Für ein Endlager gilt wie bei kerntechnischen Anlagen der Grundsatz der bestmöglichen Gefahrenabwehr und Risikovorsorge. Die Prüfung der dazu notwendigen Voraussetzungen und Maßnahmen sind Gegenstand des Planfeststellungsverfahrens.

Das Land Niedersachsen, dem die Planfeststellung obliegt, hat nach der Normstruktur der atomrechtlichen Planfeststellung nach Atomgesetz zu prüfen und zu entscheiden, ob die Zulassungsvoraussetzungen erfüllt sind, insbesondere ob die erforderliche Vorsorge gegen Schäden nach dem Stand von Wissenschaft und Technik erbracht ist. Mit dieser Verweisung auf den Stand von Wissenschaft und Technik ist eine ständige Anpassung der Genehmigungsvoraussetzung an den technisch-wissenschaftlichen Fortschritt und damit nach Auffassung des Bundesverfassungsgerichtes die bestmögliche Verwirklichung eines dynamischen Grundrechtschutzes verbunden.

Nach einer vom Vorhabensträger getroffenen Standortauswahl ist die Entscheidung über den Standort nur dann zu überprüfen, wenn Erkenntnisse vorliegen, dass die Schutzziele des Atomgesetzes an diesem Standort nicht oder nicht sicher eingehalten werden können – was erst in einem Planfeststellungsverfahren geprüft wird –  oder wenn sich ein anderer Standort als besser geeignet aufdrängt. Dass sich ein anderer Standort aufdrängt, ist praktisch auszuschließen, da aufgrund der bisherigen Untersuchungstiefe und den vorliegenden Erkenntnissen über den Salzstock Gorleben nur bei einem vergleichbaren Erkundungsgrad eine Bewertung im Sinne des Aufdrängens möglich ist. Ohne vergleichbare Erkundungstiefe und erst recht ohne untertägige Erkundungsergebnisse  ist ein Standortvergleich nur spekulativ möglich[21].

Wäre es andererseits überhaupt möglich, von mehreren vollständig erkundeten Standorten anhand standortspezifischer Sicherheitsanalysen und auf der Grundlage der jeweiligen Endlagerkonzeption, den sichersten zu ermitteln? Da die vielfältigen geomechanischen, hydrogeologischen und geochemischen Wechselwirkungen und Prozesse im Endlager sowie den sich daraus ergebenden unterschiedlichen Entwicklungsmöglichkeiten über Betrachtungszeiträume bis zu einer Million Jahre nicht exakt vorhergesagt werden können, werden sehr konservative Annahmen, in der Regel auch konservative Szenarien  in den Berechnungen zu Grunde gelegt. Diese geben dann zwar die Gewähr, dass die zu erwartenden Auswirkungen im Falle eines geeigneten Standortes unterhalb der sehr stringenten Sicherheitsanforderungen liegen, können jedoch keinen unmittelbaren Maßstab für die Endlagersicherheit liefern, der für einen Standortvergleich herangezogen werden kann. Zusätzlich wird die Vergleichbarkeit dadurch praktisch unmöglich gemacht, dass auch die Auswahl abdeckender Szenarien standortspezifisch erfolgen muss und damit für jeden Standort andere Konservativitäten zu Grunde gelegt werden. Am Ende läge nur eine scheinbare Rangfolge der Endlagerstandorte vor,  die  durch den Vergleich kaum vernünftig quantifizierbarer Restrisiken zustande käme, die wiederum auf sehr unwahrscheinlichen Extremszenarien basieren.[22]

Die aktuell mit dem Standortsauswahlgesetz angestrebte Neuerkundung von weiteren potenziellen Standorten würde eine Verzögerung der Endlagerung von hochaktiven Abfällen um mindestens 35-40 Jahre bedeuten. Dieses kann keine ernsthafte und verantwortbare Alternative zur abschließenden Erkundung von Gorleben darstellen, auch in Anbetracht von zusätzlichen Kosten in Höhe von mehreren Milliarden Euro. Zudem sind die befristeten Genehmigungen der Zwischenlager radioaktiver Abfälle in Betracht zu ziehen, was den Ländern als Problem auf die Füße fallen wird, wenn kein Endlager rechtzeitig zur Verfügung steht.

Wie aber passen auf der einen Seite die oben genannte Erstellung einer seit Oktober 2010 laufenden vorläufigen Sicherheitsanalyse Gorleben mit einer Aussage über die Eignung des Salzstockes als Endlager und das Standortauswahlgesetz zusammen, wodurch parallel weitere Standorte untersucht werden sollen?

Wozu die Erkundung weiterer Standorte, wenn die vorläufige Sicherheitsanalyse die bisherige Eignungshöffigkeit  des Gorleben Salzstockes erneut bestätigen sollte und wie ist die Erkundung in Anbetracht des erwähnten OVG Lüneburg – Urteils zu Konrad sachlich-fachlich zu rechtfertigen?

Was wird hier gespielt, wenn es auf der Internetseite des BMWi vom Juli 2012 unter eben dieser Sicherheitsanalyse heißt:

„Ziel ist es, nach Feststellung der Eignung des Salzstocks Gorleben ein Planfeststellungsverfahren einzuleiten und das Endlager für insbesondere hochradioaktive Abfälle in Deutschland zu errichten und um das Jahr 2030 in Betrieb zu nehmen.“[23]

Das ist konform mit dem Koalitionsvertrag, nicht aber weist der Vertrag ein Standortauswahlgesetz aus. Solange keine konkreten Schritte – zum Beispiel mit einem Planfeststellungsverfahren – unwiderruflich eingeleitet werden, solange können Politiker nachfolgender Legislaturperioden immer wieder neue Maßstäbe der Standortsuche setzen, auch das Gesetz wird sie erfahrungsgemäß daran nicht hindern.

Wer soll für die zusätzlichen Kosten des Standortvergleichs in Milliardenhöhe – insbesondere bei einer für Gorleben positiven vorläufigen Sicherheitsanalyse – aufkommen? Die Abfallverursacher müssen nach einer diesbezüglichen Verordnung für den „notwendigen Aufwand“ aufkommen. Wie lässt sich bei geeignetem Salzstock Gorleben ein Standortvergleich als „notwendiger Aufwand“ begründen? Stellt sich nicht vielmehr die Frage nach der Verhältnismäßigkeit?

Soll mit dem Standortauswahlgesetz mit dem Blick auf Wahlen nicht bewusst die Endlagerplanung verzögert und hintergründig Klientelpolitik betrieben werde?

Wie soll aufgrund der über Jahrzehnte verzögerten Endlagererrichtung  die entsprechend langfristige Zwischenlagerung abgebrannter Brennelenente und hochradioaktiver Abfälle überzeugend begründet werden, wo doch deren Endlagerung in tiefen geologischen Formationen politisch als die sicherste Entsorgung propagiert wurde?

Seit April 2010 geht der Erste Untersuchungsausschuss (Gorleben) des Deutschen Bundestages „der Frage nach, ob es bei der Entscheidung der Bundesregierung, sich bei der Suche nach einem Endlager für Atommüll auf den Standort Gorleben zu beschränken, zu politischen Einflussnahmen oder Manipulationen gekommen ist.“ Die im Internet veröffentlichten Sitzungsprotokolle des Ausschusses über die Sachverständigenanhörungen lassen nach nunmehr 60 Sitzungen den Schluss zu, dass die Auswahl des Standortes Gorleben und die Salzstockerkundung mit  fundiertem wissenschaftlichen Sachverstand betrieben und ohne eine politische Einflussnahme vorgenommen worden sind, fachlich und politisch folglich nicht zu beanstanden sind.

Bei gleichzeitig positivem Ausgang der vorläufigen Sicherheitsanalyse zum Salzstock Gorleben gibt es kein überzeugendes, vertretbares Argument mehr für weitere Standorterkundungen und für ein Standortauswahlgesetz. Für den Salzstock Gorleben heißt das, seine Erkundung zu Ende führen und danach unverzüglich ein Planfeststellungsverfahren einleiten.

September 2012

Dr- Klaus Tägder


[1] BMWi, Endlagerung hochradioaktiver Abfälle in Deutschland – Das Endlagerprojekt Gorleben -, Oktober 2008

[2]  – dito –

[3]  – dito –

[4]  Gorleben als Entsorgungs- und Endlagerstandort. Der niedersächsische Auswahl- und Entscheidungsprozess. Mai 2010. Diese Darstellung wurde erst nach Zugänglichkeit einschlägiger Akten möglich.

[5] (wie Fußnote 1)

[6] (wie Fußnote 1)

[7] Verbleib oder Rückholung der Gebinde wird gegenwärtig intensiv erörtert.

[8] Bundestagsdrucksache 16/2963

[9] www.bmu.de/atomenergie_ver_entsorgung/endlagerung/sicherheitsanforderungen

[10] – dito –

[11] www.endlagerung.de, Von 1979 bis 1983 wurden insgesamt 477 km seismische Profile zur Bestimmung des Schichtaufbaus und der Tektonik aufgenommen sowie 322 Pegelbohrungen (ca. 80 m tief), 44 Salzspiegelbohrungen (260 m tief), 4 Tiefbohrungen (ca. 2000 m tief) und zwei Schachtbohrungen (knapp 1000 m tief) abgeteuft.

[12] Vereinbarung zwischen der Bundesregierung und den Energieversorgungsunternehmen vom 14. Juni 2000

[13] AkEnd, Auswahlverfahren für Endlagerstandorte. Empfehlungen des AkEnd – Arbeitskreises Auswahlverfahren Endlagerstandorte, Dezember 2002

[14] GNS, Endlagerung von radioaktiven Abfällen. Standortauswahl/Standortvergleich. Auswertung und Zusammenstellung von Daten, Fakten und Berichten, 2006

[15] BMU, http://gorlebendialog.de/sicherheitsanalyse/doc

[16] BfS Konzeptionelle und sicherheitstechnische Fragen der Endlagerung radioaktiver Abfälle. Wirtgesteine im Vergleich. Synthesebericht. Salzgitter, 4.11.2005

[17] (wie Fußnote 14)

[18] BGR, Endlagerung radioaktiver Abfälle in Deutschland. Untersuchung und Bewertung von Regionen mit potenziell geeigneten Wirtgesteinsformationen, August 2006

19 Niedersächsisches Umweltministerium, Fortentwicklung/Aktualisierung der niedersächsischen Position zur Endlagerung radioaktiver Abfälle, 22.12.2004

[20] Entwurf eines Artikelgesetzes zur Suche und Auswahl eines Standortes für ein Endlager für Wärme entwickelnde radioaktive Abfälle und zur Änderung anderer Gesetze, Arbeitsfassung Stand 13.06.2012

[21] (wie Fußnote 14)

[22] wie Fußnote 14: Diese Aussage bezieht sich zwar auf das AkEnd – Verfahren, wäre aber auf die im Gesetzentwurf angestrebten Maßnahmen übertragbar.

[23] www.bmwi.de/DE/Themen/Energie/Energietraeger/uran-kernenergie

Über den Autor:

Dr. Klaus Tägder – Diplomphysiker –

Berufliche Tätigkeiten u.a als:

       wissenschaftlicher Angestellter am Institut für Nuklearmedizin der Med. Hochschule Hannover zuständig für den Betrieb des Forschungsreaktors und diverse nuklearmedizinische Entwicklungen/Untersuchungen (6 Jahre)

       Sachverständiger beim TÜV Hannover, Bereich Kerntechnik, überwiegend als Projektleiter für das vormals geplante Nukleare Entsorgungszentrum Gorleben und für das Castor – Zwischenlager (7 Jahre)

       Geschäftsführer des Wirtschaftsverbandes Kernbrennstoff – Kreislauf e.V., Bonn und Berlin (26 Jahre) 

Wissensgebiete:

       Strahlenphysik (Strahlenschutz, -wirkung, -messungen, -abschirmungen)

       Kerbrennstoffe (Verarbeitung, Anreicherung, Wiederaufarbeitung, Kernmaterialkontrolle)

       Anlagensicherheit, Objektschutz

       Radioaktive Abfälle (Behandlung, Transporte, Lagerung, Endlagerung)

       Atomrecht, Strahlenschutzrecht




Die Fracking hassen!

Was immer Sie tun, erwähnen Sie niemals den Namen irgendeiner Chemikalie, weil dies sofort zu Forderungen nach einem Bann führen kann. Wenn ich den Leuten sage, dass ich Selenium zu mir nehme, ebenso wie Magnesium, Kalium und Zink, Retinoide [?], Thiamine [Vitamin B1], Niacin [Vitamin B3], Riboflavin, Ascorbinsäure sowie noch andere [egocalciferol and tocopherols], erwarte ich, dass der durchschnittliche Umweltaktivist mit einem Schwächeanfall zu Boden geht. [Ganz zu schweigen von Dihydrogenoxid! A. d. Übers.]

Dies sind die gleichen Leute, die sich keinerlei Gedanken machen um die Hunderttausende Vögel, die von Windturbinen zerschreddert werden, oder die Tausende Quadratmeter [acres; 1 acre = ca. 4000 m²] Solarfarmen, die den natürlichen Lebensraum zahlreicher Spezies zerstören. Sie schützen nicht einmal unsere Wälder gegen katastrophale Brände, indem sie das Entfernen kranker Bäume und das Auslichten von Unterholz ablehnen.

Was die Umweltaktivisten gemeinsam haben, ist ein Gefühl der Überlegenheit über alle Menschen, von denen sie sehen, wie sie irgendwohin fahren oder fliegen, Plastiktüten benutzen oder die Luft auf Parkplatz-Picknicks verschmutzen. Sie fürchten, dass das Kohlendioxid die Erde zerstören wird, obwohl doch alles Leben auf der Erde von diesem Gas abhängt (0,038% der Atmosphäre); für das Pflanzenwachstum und für den Sauerstoff für alle lebenden Tiere und die Menschen.

Alle diese Ängste der Umweltaktivisten werden geschürt durch Umweltorganisationen, die mit diesen Narren Millionenumsätze machen. Die Environmental Protection Agency ist nur dazu da, jede nützliche Chemikalie zu verbieten, die die Leute in Wirklichkeit vor schlimmen Krankheiten schützt, und jede Form von Energie zu verbieten, das die technologischen Fortschritte antreibt, von denen frühere Generationen nur in den frühen Science-Fiction-Romanen lesen konnten. Dick Tracy besaß eine zwei-Wege-Armbanduhr. Als ich geboren wurde, gab es noch nicht einmal Fernseher, geschweige denn Computer.

Der jüngste Schlachtort bzgl. der Umwelt ist das Fracking. Die EPA arbeitet schwer daran, jeden zu überzeugen, dass diese seit langem etablierte Technologie „wahrscheinlich das Grundwasser beeinträchtigen“ wird. Aber das Fracking findet weit unterhalb der Grundwasser führenden Schichten statt und ist von diesem durch Fels- und Sedimentschichten getrennt.

Fracking ist ein Slang-Wort für hydraulisches Brechen. Mit diesem Verfahren werden Risse in Felsen und Felsformationen erzeugt, indem man Flüssigkeit in die Risse drückt, um sie noch weiter zu öffnen. Durch die größeren Risse und Spalten entweicht mehr Öl und Gas in das Bohrloch, von wo es extrahiert werden kann.

In einem Editorial des Wall Street Journal hieß es im Dezember 2011: „Mehr als ein Drittel aller Gasbohrungen verwendet heute Fracking, und dieser Prozentsatz steigt“. Selbst die EPA sagt von einer Studie: „Beimengungen im Trinkwasser liegen deutlich unter (d. h. in Übereinstimmung mit) etablierten Gesundheits- und Sicherheits-Standards.“

„Das meiste Fracking findet in einer Tiefe von 10 000 Fuß [ca. 3000 m] oder mehr statt, weit unterhalb von Trinkwasserschichten, die normalerweise weniger als 500 Fuß [ca. 150 m] tief liegen“, heißt es weiter in dem Editorial.

Noch mehr auf den Punkt gebracht: „Erdgas trägt einen kleineren Kohlenstoff-Fußabdruck als Kohle oder Öl, und die Grünen haben es einst als eine Alternative zu Kohle und Kernkraft gepriesen. Aber nachdem die Schiefergas-Revolution weiter voran geschritten war, machen sich die Grünen Sorgen, dass das viele Erdgas Wind- und Solarenergie preislich sogar noch weiter aus dem Markt drängen wird.“

Also setzt die EPA natürlich noch stringentere Regulationen in Kraft, um dieses Vorankommen zu verlangsamen, ebenso wie das weitere Bohren nach Öl in einem Ausmaß, dass Amerika in ein oder zwei Jahrzehnten das Potential hat, energieunabhängig werden.

Die Grünen starten jetzt ein Wettrennen und greifen die Gesetzgeber in individuellen Gemeinden und in vielen Staaten an, um das Fracking zu verbieten. In New York State [der nordöstlichste US-Bundesstaat, A. d. Übers.] hat die berühmte PR-Agentur für Umweltängste, Fenton Communications, einen Haufen Berühmtheiten zusammen getrommelt, Yoko Ono, Sean Lennon, Lady Gaga und Schauspieler Mark Ruffalo, um die ‚Künstler gegen Fracking’ und Warnungen zu unterstützen, die jeder vernünftige Mensch ignorieren würde. In North Carolina hat der Gesetzgeber ein Veto von Gouverneur Bev Perdue (Demokraten) überstimmt, der die Gaserzeugung durch Fracking legalisieren wollte.

Fracking sowie der Zugang zu anderen Energiequellen wird nicht nur zu niedrigeren Energiekosten für Verbraucher, sondern auch zur Schaffung Hunderttausender Arbeitsplätze führen, die die Nation so dringend braucht, um aus dieser schrecklichen wirtschaftlichen Lage herauszukommen.

Stadt für Stadt, Staat für Staat werden die Grünen diesen neuen Krieg gegen Energie führen, mit dem gleichen Enthusiasmus und der gleichen Dummheit, mit der sie den größten Schwindel der modernen Zeit auf den Weg gebracht haben, die globalen Erwärmung. Geht ihnen aus dem Weg! Stecht sie aus! Sie wollen, dass Sie im Dunkeln frieren.

© Alan Caruba, 2012

Link: http://www.anxietycenter.com/ vom 20.9.2012

Übersetzt von Chris Frey EIKE




Der HERALD macht vor, was man in der Klimadebatte vermeiden sollte

Wenn Rudman so vernünftig ist, wie ich glaube, oder auch nur das geringste Interesse am Klimawandel hat, wird er diese Analyse von Tom Harris sorgfältig lesen. – Richard Treadgold

Ein Kolumnist gibt ein schlechtes Beispiel in Gestalt eines Angriffs auf die Climate Science Coalition

– von Tom Harris, leitender Direktor der International Climate Science Coalition

Die Kolumne von 12. September von Brian Rudman im New Zealand Herald mit dem Titel „One small word, one giant setback for denial” steht beispielhaft dafür, wie sehr die Klimadebatte in eine Art düstere Unterwelt abgerutscht ist, wo logisch falsche Schlussfolgerungen, persönliche Angriffe und frisierte „Fakten“ eine vernünftige Diskussion nur allzu oft ersetzen. Man muss den Herausgebern des HERALD gratulieren, dass sie meinen Brief an den Herausgeber veröffentlicht haben, in dem ich einige von Rudmans offensichtlichen Fehlern richtig gestellt habe. Aber sein Artikel ist es wert, als Beispiel analysiert zu werden, was andere Journalisten vermeiden sollten, wenn es zu einer zivilisierten Diskussion über dieses so wichtige Thema kommen soll.

Rudmans wiederholte Erwähnung von „Klimawandel-Leugnern” ist eine besonders widerliche und unsinnige Phrase, die häufig von jenen bemüht wird, die die Diskussion über die Gründe des Klimawandels abwürgen wollen.

Leugnende Leugner

Kein vernünftiger Wissenschaftler leugnet, dass sich das Klima ändert. Als früherer Vorsitzender der International Climate Science Coalition (ICSC) hat der Professor der Geowissenschaften Dr. Tim Patterson von der Carleton University in Ottawa dem Committee on Environment and Sustainable Development im kanadischen House of Commons mitgeteilt: „Auf der Grundlage paläoklimatischer Daten haben ich und andere festgestellt, dass das Klima ganz offensichtlich variabel ist und immer gewesen ist. Tatsächlich ist die einzige Konstante beim Klima der Wechsel; es ändert sich ununterbrochen. Wir haben mit Sicherheit keine Chance, dieses natürliche Phänomen zu stoppen“.

Patterson ebenso wie der derzeitige leitende wissenschaftliche Berater der ICSC, Professor Bob Carter von der James Cook University sowie deren wissenschaftliche Kollegen leugnen, dass sie den Klimawandel leugnen – sie sind leugnende Leugner. Das Etikett „Leugner“ ist einfach ein Versuch, diejenigen, die die politische Willfährigkeit zur Klimaänderung in Frage stellen, in die gleiche Ecke wie Holocaust-Leugner zu drängen. Es ist eine ziemlich ungehörige falsche logische Schlussfolgerung ad hominem – gegen die Person anstatt gegen den Gedanken.

Wenn überhaupt irgendjemand Leugner genannt werden kann, dann sind es die Aktivisten, die der absurden Ansicht sind, dass unser Klima bis zur Industrialisierung stabil gewesen ist, nach welchem Zeitpunkt es begonnen hat, sich rapide zu ändern. Sie scheinen nicht zu wissen, dass es Perioden vor nicht einmal 10 000 Jahren gab, als die Temperatur fast 100 mal schneller gestiegen und gefallen ist als im 20. Jahrhundert. Klimaänderungen, mitunter sehr dramatisch. Das ist es, was das Klima auf Planeten mit signifikanten Atmosphären macht.

Skeptiker veröffentlichen DOCH

Rudman und viele Andere liegen auch falsch mit ihrer Ansicht, dass jene, die die politisch korrekte Ansicht zur Klimaänderung nicht teilen, ihre Ansichten nicht in angesehenen wissenschaftlichen Zeitschriften veröffentlichen. Außer der Liste von Patterson und Carter muss man lediglich die Website des Nongovernmental International Panel on Climate Change anklicken, um Tausende wissenschaftlich begutachtete Studien, Listen und Zusammenfassungen zu sehen, die direkt oder indirekt den von Rudman und Al Gore propagierten Ansichten widersprechen.

Rudman irrt sich auch mit seiner Behauptung, dass das Heartland Institute „Reklametafeln in ganz Chicago aufgestellt hat mit riesigen Porträtfotos von notorischen Kriminellen, dem Unabomber und dem Mörder Charles Manson“. In Wirklichkeit hat Heartland eine einzige Tafel errichtet mit dem Bild des Unabombers darauf und hat es sofort wieder entfernt, als Leute dagegen protestiert haben. Im Gegensatz zur Ansicht von Rudman und vielen Anderen, die uns als „Spinner“ bezeichnen, wird man Heartland eines Tages als eines der wenigen Gruppen betrachten, die den Mut hatten, gegen alarmistische Tyrannen aufzustehen und den Klimarealismus voranzubringen, und zwar weil man hier verstanden hat, dass sich das Klima immer ändert und wir uns auf solche Änderungen vorbereiten müssen; die Menschheit kann dieses Phänomen nicht stoppen.

Schließlich kann ich Rudman versichern, dass seine Spekulationen, der Ruf von Terry Dunleavy und Carter als Leiter in der ICSC durch den legalen NIWA-Rückschlag würde Schaden nehmen, vollständig aus der Luft gegriffen sind. Beide haben gezeigt, dass sie vorbildliche Leiter unserer Koalition sind, und wir haben das Privileg, mit so guten Sprechern arbeiten zu dürfen.

Wir haben keine Kontrolle über das Klima

Wirkliche Klimaforscher verstehen, dass die Klimawissenschaft noch in den Kinderschuhen steckt. Wir können das Klima in 50 Jahren nicht vorhersagen, jedenfalls nicht besser als das Wetter über mehr als zwei Wochen hinaus. Das System ist zu komplex und unser Verständnis der grundlegenden Wissenschaft zu primitiv.

Der Versuch, die Gründe und Konsequenzen vom Klimawandel zu entwirren, ist die komplizierteste Wissenschaft, der man sich je gestellt hat. Professor Chris Essex (wissenschaftlicher Berater der ICSC an der University of Western Ontario, Kanada) und Ross McKitrick (University of Guelph, Kanada) schreiben in ihrem preisgekrönten Buch Taken by Storm: „Das Klima ist eines der am meisten herausfordernden offenen Probleme in der modernen Wissenschaft. Einige sehr belesene Wissenschaftler glauben, dass das Klimaproblem niemals gelöst werden kann“.

Das könnte ein unbequemer Gedanke für Rudman und Andere sein, die da glauben, dass wir die Wissenschaft schon gut genug verstehen, um zu wissen, wie man das Klima kontrolliert. Aber Wissenschaft ist oft so. Während sie unser bestes Werkzeug bei dem Versuch ist, die natürliche Welt zu verstehen, ist sie kein Zaubermittel – sie kann uns nur geben, was möglich ist.

Rudmans Artikel hat aber doch einen gewissen Nutzen – er ist ein gutes Beispiel dafür, wie man nicht über die Klimaänderung schreiben sollte.


Tom Harris is Executive Director of the International Climate Science Coalition.

Link: http://www.climateconversation.wordshine.co.nz/2012/09/herald-shows-what-to-avoid-in-climate-debate/

Übersetzt von Chris Frey EIKE




NOAAs bizarre Welt globaler Temperatur-Anpassungen – ihre politische Agenda macht sich über empirische Wissenschaft lustig

Die beiden Graphiken rechts sind Plots der historischen globalen Temperaturaufzeichnung der NOAA für die Monate Oktober 1899 und Mai 2011. NOAA hat seit dem 1. Januar 2012 27 verschiedene Temperaturwerte für jeden Monat veröffentlicht.

Von den 1529 Monaten im gesamten Temperatur-Datensatz der NOAA traten in diesen beiden Monaten während des Jahres 2012 die größten Änderungen auf.

Und es sind nicht nur diese beiden Monate, bei denen rückwirkende Temperaturanpassungen vorgenommen worden waren – jeder einzelne Monat im gesamten Datensatz wurde während des Jahres 2012 mindestens 27 mal angepasst. Noch einmal, das gilt nur für 2012. Das gleiche Niveau revisionistischer Fummeleien gab es auch in den Jahren 2011, 2010 und 2009.

Ein weiteres, offiziell sanktioniertes Attribut ist, dass in den meisten Monaten vor 1950 abkühlende „Anpassungen“ ähnlich der blauen Kurve vorgenommen worden waren, während es in den Monaten nach 1950 „Anpassungen“ zum Wärmeren gab, ähnlich der roten Kurve. Diese Attribute kombiniert beweisen, dass die ‚Obama-Erwärmung’ ein Phänomen ist, das allein die Wissenschaftler bei NOAA/NCDC entdeckt (erzeugt?) haben.

Wie ungewöhnlich ist die Häufigkeit dieser Anpassungen? Um des Vergleichs willen, der Datensatz der globalen Temperatur von Had CRUT wurde 2012 nicht ein einziges Mal überarbeitet, und die monatlichen Temperaturwerte gehen darin bis 1850 zurück (obwohl HadCRUT in naher Zukunft zu einer neuen Version 4 des Datensatzes wechseln will). In den beiden wesentlichen Satelliten-Datensätzen (UAH und RSS) gab es 2012 keine Anpassungen an der gesamten monatlichen Temperaturaufzeichnung; und schließlich hatte der Datensatz von NASA/GISS 2012 nur einmal eine Revision des gesamten Datensatzes durchlaufen, außerdem scheinen die GISS-Leute jüngere monatliche Aufzeichnungen mit einiger Regelmäßigkeit „anzupassen“.

Halten wir also fest, NOAA ist die einzige bedeutende Klimaforschungs-Agentur, die sich durch irgendeine Agenda bemüßigt fühlt, Temperaturen nicht nur auf monatlicher Basis „anzupassen“, sondern dies viele Male innerhalb jedes und jeden Monats in ihrem gesamten, bis Januar 1880 zurück reichenden Datensatz zu tun. Und die Bestätigung, dass eine Art Agenda all diese Anpassungen treibt, ist der Umstand, dass die Endergebnisse von NOAA immer eine Verstärkung des ‚Obama-Erwärmungs-Phänomens’ zeigen.

Da wir gerade vom Januar 1880 sprechen, die NOAA hat 2012 auch 27 verschiedene Temperaturwerte für diesen Monat gemeldet. Dieses eine Beispiel der bizarren Fabrikation globaler Temperaturen ist eine Verhöhnung der Klimawissenschaft und der historischen Beweise. Dies allein ist schon für jeden geistig gesunden Mensch Grund genug, um zu schlussfolgern, dass die „globale Erwärmung“, von der die NOAA-Wissenschaftler sprechen, im Wesentlichen ein Haufen Mist ist.

Ein letzter Gedanke. Es gibt jene, die versuchen, das abstruse Niveau der Anpassungen an historische Messungen zu rechtfertigen als eine „Qualitätskontrolle“, die rigoros von den NOAA-Forschern durchgeführt wird. Wie auch immer, die beiden Graphiken oben rechts (rot und blau) sind der tatsächliche Beweis, dass die NOAA-Wissenschaftler in einer Art ‚bizarrer QC-Welt’ leben, d. h. auf einer Ebene sechs Sigma-Verrücktheit (in schlechter Manier).

Fazit: Die eklatanten und politisch getriebenen Temperatur-Anpassungen durch NOAA/NCDC auf monatlicher Basis bieten sogar weitere Munition, warum sich die Welt hin zu einer besseren und genaueren Methodik bewegen muss hinsichtlich Temperaturmessungen und deren Bekanntmachung. Ironischerweise ist es die NOAA selbst, die bereits ein großes Experiment durchgeführt hat, wobei sie unter Beweis gestellt hat, dass ihr monatlicher bizarrer Kampf mit empirischen Beweisen wahrhaftig unnötig und überflüssig ist.

Previous fabricating-fake temperature postings. Additional fabricating-fake, modern, regional, historical  temperature charts.

Link: http://www.c3headlines.com/2012/09/bizarre-noaa-adjustments-global-temperatures-political-agenda-bizarro-mocks-empirical-science.html

Übersetzt von Chris Frey EIKE




Bundespresseamt antwortet zu dringenden Fragen zur Energiewende

Auf Grund der Beschränkungen unseres Webeditors Typo 3 auf einspaltige Darstellung veröffentlichen wir den folgenden Text als Bildfolge. Wir bitten um Verständnis:

Related Files




Deutschlands Chaos bei der Windenergie sollte für UK eine Warnung sein

Foto rechts: Die deutsche Kanzlerin Angela Merkel hat sich vehement für ‚erneuerbare‘ Energie ausgesprochen

Am Freitag, dem 14. September kurz vor 10 Uhr vormittags haben die Windturbinen in UK alle Rekorde gebrochen, indem sie kurzzeitig etwas über vier Gigawatt (GW) Strom in das nationale Netz eingespeist haben. Drei Stunden später erreichten die 23 000 Windturbinen in Deutschland sowie Millionen Solarpaneele einen ähnlichen Rekord mit einem bis dahin einmaligen Wert von 31 GW. Aber die Reaktionen auf diese Ereignisse in den beiden Ländern hätten unterschiedlicher nicht sein können.

In UK triumphierte die Windindustrie. Maria McCaffrey, leitende Direktorin von RenewableUK, frohlockte: „Dieser Rekord zeigt, dass Windenergie eine zuverlässige, sichere Energiequelle für die immer weiter wachsende Zahl von Britischen Wohnungen und Industrien ist“ und dass „diese großzügige freie Ressource helfen wird, Stromrechnungen zu senken“. Aber in Deutschland wurde die Nachricht mit Bestürzung aufgenommen, und zwar aus Gründen, die hier in UK ernsthaft Aufmerksamkeit erregen sollten.

Deutschland liegt auf dem Weg, dem zu folgen unsere Politiker von uns verlangen, weit vor uns – und die dabei auftretenden Probleme sind dort groß in den Nachrichten. Tatsächlich wird Deutschland auf schlimme Weise durch genau die gleiche Täuschung über erneuerbare Energie heimgesucht, der unsere Politiker auch aufgesessen sind. Wie alle Enthusiasten für „kostenlose, saubere, erneuerbare Energie“ übersehen sie die fatalen Implikationen der Tatsache, dass Windgeschwindigkeit und Sonnenlicht konstant variieren. Sie werden gefangen durch den Trick der Windindustrie, die Brauchbarkeit von Windfarmen erheblich zu übertreiben, indem sie von deren „Kapazität“ reden, was die Tatsache verschleiert, dass ihr tatsächlicher Output zwischen 100 und 0 Prozent hin und her schwankt. In UK liegt das Mittel um 25 Prozent, in Deutschland niedriger, um 17 Prozent.

Je mehr ein Land von solchen Energiequellen abhängt, umso mehr erheben sich zwei massive technische Probleme – wie Deutschland gerade entdeckt. Das eine ist, dass es unglaublich schwierig wird, eine konstante Menge Energie in das Netz einzuspeisen, wenn dieser wild fluktuierende erneuerbare Output durch Input von konventionellen Kraftwerken ausgeglichen werden muss. Das andere ist, dass diese Backup-Kraftwerke konstant bereit gehalten werden müssen, weshalb sie die meiste Zeit sehr ineffizient und teuer laufen (und dabei so viel mehr „Kohlenstoff“ freisetzen als normal, dass jede vermeintliche CO2-Einsparung durch Wind obsolet wird).

Beide Probleme haben sich in Deutschland ganz groß eingenistet, weil es aggressiver auf dem Weg der Erneuerbaren vorangeschritten ist als jedes andere Land in der Welt. Hunderte Milliarden Euro wurden an Subventionen in Wind- und Sonnenenergie gepumpt, was zu den fast höchsten Stromrechnungen in Europa geführt hat – auf dem Papier repräsentiert Deutschland in fast jeder Weise den fanatischsten Öko, den man sich denken kann. Im vorigen Jahr erreichten Deutschlands Windturbinen bereits eine Kapazität von 29 GW, äquivalent zu einem Viertel des mittleren deutschen Strombedarfs. Aber weil diese Windturbinen sogar noch ineffizienter als unsere sind, erreichte der tatsächliche Output im Mittel nur 5 GW, und der meiste übrige Strom musste aus ausgereiften Kraftwerken kommen, die zu jeder Zeit eine Versorgung bis 29 GW zur Verfügung stellen und dann abgeschaltet werden müssen, wenn der Wind wieder auffrischt.

Inzwischen hat sich das Problem für das deutsche Netz sogar noch verschlimmert. Dank einer von der Regierung Merkel freigesetzten Flut von Subventionen ist die erneuerbare Kapazität sogar noch weiter gestiegen (bei Solarenergie zum Beispiel um 43 Prozent). Das macht die Stabilisierung des Netzes so schwierig, dass permanent das Risiko von Stromausfällen besteht. (Als vor Kurzem der Strom für eine Hamburger Aluminiumfabrik ausfiel, und zwar nur für den Bruchteil einer Sekunde, wurde die Fabrik herunter gefahren, was zu schweren Schäden geführt hat). Energieintensive Industrien müssen ihre eigenen Generatoren installieren oder trachten danach, alle zusammen Deutschland zu verlassen.

Tatsächlich erhebt sich jetzt eine mächtige Schlacht in Deutschland zwischen grünen Phantasten und praktischen Realisten. Weil die erneuerbare Energie kraft Gesetz mit Vorrang ins Netz eingespeist werden muss, sind die Betreiber konventioneller Kraftwerke so sauer, dass sie mit der Schließung drohen, weil sie diese Kraftwerke nicht mehr profitabel betreiben können. Die Antwort der Regierung bestand erstaunlicherweise darin, ein neues Gesetz auf den Weg zu bringen, dass sie die Kraftwerke mit Verlust weiter betreiben müssen.

Inzwischen haben Firmen wie RWE und E.on damit begonnen, 16 neue Kohle- und 15 neue Gaskraftwerke bis zum Jahr 2020 zu bauen, mit einem kombinierten Output äquivalent zu etwa 38 Prozent des deutschen Strombedarfs. Von keinem davon wird „carbon capture and storage“ (CCS) verlangt, was einfach ein Wunschtraum ist. Dies führt jeden Vorwand, dass Deutschland die EU-Ziele hinsichtlich der Reduktion von CO2 erreichen wird, ad absurdum (und Frau Merkels genauso utopisches Ziel, 35 Prozent Energie aus Erneuerbaren zu gewinnen).

Kurz gesagt, Deutschlands Weg der Erneuerbaren stellt sich als eine Katastrophe heraus. Dies sollte uns besondere Sorgen bereiten, weil sich unsere Regierung mit ihrem Plan der Errichtung von 30 000 Windturbinen und dem Erreichen des EU-Ziels von 32 Prozent unseres Stroms aus Erneuerbaren bis 2020 auf dem gleichen, in die Katastrophe führenden Weg befindet. Aber unseren „großen sechs“ Stromerzeugern, einschließlich RWE und E.on, wird gesagt, dass sie unsere Kohlekraftwerke keinen Ersatz bauen können (viele von ihnen werden demnächst den EU-Regeln folgend geschlossen). Diese Kohlekraftwerke versorgten uns vorige Woche mit etwa 40 Prozent unseres Stroms, dürfen aber nur weiterbetrieben werden, wenn sie mit dem Phantasiegebilde CCS ausgestattet werden. Eine ähnliche Drohung schwebt über Plänen, neue Gaskraftwerke des Typs zu bauen, die unabdingbar sind, 100 Prozent Backup für diese nutzlosen Windmühlen zur Verfügung zu stellen.

Alles hinsichtlich dieser jetzt in Deutschland tobenden Schlacht geht uns genauso hier in UK etwas an – außer dass wir nur Phantasten wie Ed Davey haben, zuständig für unsere Energiepolitik. Sollten die Realisten nicht ganz schnell eine Gegenkampagne starten, stecken wir tief in Schwierigkeiten.

Nur Warmisten können dies mit der Note 1 belegen

Während Michael Gove tapfer unserem nicht funktionierenden Examenssystem auf die Sprünge helfen will, könnte er einen Blick auf einige aktuelle Prüfungsunterlagen werfen, wie die, die im Juni den Studenten durch unsere führende Examensagentur AQA vorgelegt worden sind. Die Kandidaten wurden aufgefordert, 11 Seiten „Quellenmaterial“ zum Thema Klimaänderung zu diskutieren. Die Quellen reichten von Berichten des IPCC bis zum Guardian, die alle schamlos den Alarmismus der globalen Erwärmung propagieren. Ein Dokument vom Met. Office sagte feierlich vorher, dass „selbst wenn die Temperaturen nur um 2°C steigen würden, 30 bis 40 Prozent aller Spezies auszusterben drohen“. Eine Graphik der US-EPA zeigte, dass die Temperatur während der vergangenen 100 Jahre bereits um 1,4°C gestiegen ist – genau zweimal das allgemein akzeptierte Bild.

Der einzige Hinweis, dass irgendjemand solche Dinge in Frage stellt, war ein Artikel von Louise Gray im Daily Telegraph, die den niemals ermüdenden Aktivisten des Warmismus Bob Ward vom Grantham Insitute zitierte, der alle Skeptiker als „eine übrig gebliebene Gruppe von Dinosauriern“ bezeichnete, die „den Punkt der Wissenschaft nicht verstanden hätten“.

Falls es immer noch das Ziel der Ausbildung sein sollte, den Menschen beizubringen, Beweise zu untersuchen und rationell zu denken, würde jeder helle Kandidat einen Durchbruch erzielen, indem er zeigt, dass all dieses „Quellenmaterial“ nichts weiter als geistlose, einseitige Propaganda war. Aber heute fürchtet man, dass sie so heftig niedergemacht werden, wenn sie nicht mit den gewünschten Antworten kommen, dass sie unter der kleinen Handvoll Kandidaten wären, denen man einstimmig ein „durchgefallen“ verpasst hätte.

Christopher Booker

Link: http://www.telegraph.co.uk/comment/9559656/Germanys-wind-power-chaos-should-be-a-warning-to-the-UK.html

Übersetzt von Chris Frey EIKE