1

Neues zu Fracking in UK

<xml> </xml>

David Cameron: „Wir verpassen einen wichtigen Zug in Richtung billigen Schiefergases”

Kim Pilling

UK würde „einen riesigen Fehler machen”, wenn nicht sofort ernsthaft das Fracking in Betracht gezogen wird sowie die Aussicht auf billigere Gaspreise, hat der Premierminister gewarnt.

David Cameron zufolge „verpasst unser Land einen wichtigen Zug“. Er hatte die Anzahl von Schiefergas-Bohrungen in der Europäischen Union mit der in den USA verglichen. Aber er machte auch geltend, dass Sicherheitserfordernisse erfüllt sein müssen und das „ganz eindeutig“ Umweltprüfungen stattfinden müssten, bevor man Unternehmen genehmigt, mit dem Fracking zu beginnen.

Die Wirtschaft braucht eine Neuausrichtung, und ein Schlüsselfaktor hierfür ist die Notwendigkeit bezahlbarer Energie, fügte er hinzu. „Ich glaube, wir machen als Nation einen gewaltigen Fehler, wenn wir jetzt nicht intensiv darüber nachdenken, wie man das Fracking voranbringen kann mit der Folge niedrigerer Preise hier in UK“, sagte er bei einer Fragestunde [a Q&A-Session] in Crown Paints in Darwen, Lancashire.

„Wenn man sieht, was in Amerika durch die Einführung von Schiefergas und Fracking passiert, erkennt man, dass die Energiekosten dort für die Industrie und die Gaspreise etwa halb so hoch sind wie bei uns. Wir sehen Unternehmen, die schon nach Mexiko oder anderswohin abgewandert waren, in die USA zurückkehren.

Nichts passiert in diesem Land, es sei denn, es ist sicher für die Umwelt. Keine Frage, dass die Gefahr von Erdbeben und Feuer aus den Löchern oder so besteht. Es wird sehr eindeutige Umweltverfahren geben mit der Ausgabe von Zertifikaten, die man vorweisen muss, bevor man mit dem Fracking beginnt“.

Er sagte, dass Gemeinden in den USA schon jetzt die finanziellen Vorteile der Bohrung nach Schiefergas fühlen und dass Gemeinden in UK ähnliche Vorteile einfahren würden.

In der EU gibt es drei Viertel der Schiefergasmenge wie in den USA, so dass wir derzeit einen wichtigen Zug verpassen“, fügte er hinzu. „Ich möchte sicherstellen, dass wir in UK diesen Zug eben nicht verpassen!“

PA

Link: http://www.independent.co.uk/news/uk/politics/were-missing-out-big-time-on-cheaper-shale-gas-says-david-cameron-8752953.html

Ein Fracking-Fehlschlag

The Independent – Editorial

Regierung und Industrie haben die erste unabdingbare Aufgabe übersehen: nämlich die Öffentlichkeit zu überzeugen

Die Fronten des Krieges sind gezogen. 30 oder mehr Zelte sind in einem kleinen Dorf in West-Sussex aus dem Boden geschossen, als sich Demonstranten zusammen gefunden hatten, um gegen das Fracking zu protestieren. Cuadrilla, ein Unternehmen, das danach trachtet zu erkunden, ob es Schiefergas in den Gebiet gibt, macht aber trotzdem mit seinen Erkundungsbohrungen weiter. Aber die Protestierer – eine Mischung aus lokalen Anwohnern und hartgesottenen Aktivisten aus dem ganzen Land – ziehen sich auch nicht zurück. Es ist traurig sagen zu müssen, dass Balcombe lediglich der erste Schauplatz derartiger Proteste sein wird. Noch trauriger ist es zu sagen, dass das nicht hätte sein müssen.

Über Fracking ist schon lange kontrovers diskutiert worden. Flüssigkeiten werden unter hohem Druck in den Untergrund gepresst. Das bricht die Felsen auf und setzt das darin enthaltene Gas frei. Kritiker warnen vor Erdbeben, Verschmutzung des Grundwassers und Luftverschmutzung. Es gibt sogar aus den USA Märchen über Feuer, das aus Wasserhähnen kommt.

Die Technik weist sicher noch Kinderkrankheiten auf. Es war auch nicht hilfreich, dass die frühe Erkundung nahe Blackpool mit zwei seismischen Erschütterungen in Zusammenhang gebracht worden war. Aber die Beweise potentiell riesiger Gasmengen unter unseren Füßen können nicht ignoriert werden. Energie ist eines unserer drängendsten Probleme. Strompreise schrauben sich immer weiter in die Höhe, nähern sich doch die Lagerstätten in der Nordsee der Erschöpfung. Außerdem drückt die Klimapolitik immer stärker. Wir sind auch zunehmend der Unsicherheit von Aufkäufen im Ausland ausgesetzt. Eine neue heimische Quelle sauberen Gases würde diese Lage verändern, und zwar durchweg zum Besseren.

Lässt man rhetorische Ergüsse einmal außen vor, lag der Kanzler nicht sehr daneben, als er Schiefergas als „die Zukunft“ beschrieb. Es war richtig, dass er das Steuersystem zur Förderung der Erkundung optimiert hat. Der Vorschlag möglicher Zuckerhappen für lokale Anwohner, vielleicht in Gestalt niedrigerer Energiepreise, ist auch keine schlechte Sache. Angesichts der wohlbekannten – wenn auch auf Fehlinformationen beruhenden – Sorgen hinsichtlich Fracking (und die lange Tradition in UK nicht zu vergessen, gegen alles Neue zu opponieren), werden solche Leckerbissen jedoch niemals ausreichen. Und doch hat weder die Regierung noch die Industrie viel getan, um die Öffentlichkeit auf ihre Seite zu ziehen.

Es gibt Risiken hinsichtlich Fracking. Aber die Technologie ist ausgereift, und sorgfältige Regulierungen können eine Menge dazu beitragen, die Gefahren bei ersten Erfahrungen in den USA zu vermeiden. Das hätte man sorgfältig und eindeutig erklären sollen. Obwohl Lord Howell – zu Recht – ausgelacht worden ist für seinen Vorschlag, die Erkundung in den „desolaten“ Norden zu verlagern, enthält sein krasser Vorschlag doch einen Funken Sinnvolles. Es wäre vernünftig gewesen, ein erstes Schiefergas-Bohrloch in einer abgelegenen Gegend zu etablieren oder dort, wo es Unterstützung vor Ort gibt. Eine solche Einrichtung könnte dann als Beispiel angeführt werden, eine zögerliche, skeptische oder wirklich ängstliche Öffentlichkeit anderswo zu überzeugen.

Stattdessen gibt es Kriegsfronten in Balcombe. Fracking wird zu einer hoch politischen Angelegenheit, und die Besorgten, die Anhänger des St.-Florian-Prinzips und die Betonköpfe von Aktivisten werden zu einer unheiligen Allianz. Schiefergas hat das Potential, ein großer Segen für UK zu werden. Er wäre eine Tragödie, wenn man diese Gelegenheit nicht nutzen würde.

Link: http://www.independent.co.uk/voices/editorials/a-fracking-failure-8752145.html

Alles übersetzt und mit einer Einführung versehen von Chris Frey

AKTUALISIERUNG vom 14. August 2013: Fracking nach Schiefergas erfährt in UK starke Unterstützung

Michael Bird, City A.M.

Eine neue Umfrage zur Haltung der Öffentlichkeit gegenüber dem Fracking hat gezeigt, dass mehr Menschen Fracking unterstützen als ablehnen.

Die Umfrage, durchgeführt von ICM für den Guardian, zeigte, dass fast die Hälfte, 44%, sagte, dass Fracking in UK betrieben werden sollte. Die Ergebnisse zeigen, dass eine Mehrheit der Befragten in jeder Altersgruppe das Fracking befürworten.

Im Gegensatz dazu glauben nur 30%, dass man in UK überhaupt kein Fracking betreiben sollte.

Auf die Frage, ob sie dem Fracking nahe ihrer Wohnorte zustimmen, sagten 41% immer noch ja, beinahe genauso viel wie die 40%, die das abgelehnt haben.

Trotz des jüngsten Vorschlags von Lord Howell von den Tories, dass man Fracking in den „abgelegenen“ Gebieten im Nordwesten von England durchführen sollte, ist die Zustimmung zur Extraktion von Gas im Norden am höchsten, sind doch dort 45% der Menschen dafür und nur 28% dagegen.

Über das Wochenende hat Premierminister David Cameron seine Unterstützung für diese Technik bekannt gemacht, von der die Unterstützer hoffen, dass sie zu einem Rückgang der Energiepreise führt.

City A.M. 14 August 2013

Siehe auch: Brits give thumbs-up to shale gas slurping in university-run poll  – The more you scare us, the more we ignore you

Link: http://www.thegwpf.org/fracking-shale-gas-attracts-strong-support-uk/

Übersetzt von Chris Frey EIKE




IPCC ertappt: der neue AR 5 enthält einen alten, bekannten und nicht korrigierten Fehler

Unter der Voraussetzung einer CO2-Verdoppelung erwarten sie, dass sich der tropische Waldgürtel ostwärts bewegen soll nach Minnesota, Wisconsin, Iowa und Illinois und sich sogar noch weiter östlich bis Ohio, Michigan und Pennsylvania erstrecken soll.

Schaue ich auf meinen eigenen Teil der Welt, sehe ich, dass das IPCC Papua-Neu-Guinea, Indonesien und die Philippinen gegenwärtig als mit Savannen, Trockenwäldern und Forsten bedeckt listet. Aber mit einer globalen CO2-Verdoppelung werden sich die Prärien Südostasiens nordwärts nach Malaysia, Vietnam, Laos, Myanmar und selbst Südchina ausweiten.

In Indien sind der folgenden Karte zufolge 70% seines Gebietes mit Tropenwäldern bedeckt. Aus irgendwelchen Gründen bewegt sich der Tropenwaldgürtel des IPCC von Nordaustralien (die meisten Australier glauben, dass es sich dabei um Gummibaum-Landschaften handelt) um etwa 1000 km nach Süden, so dass Touristenorte wie Cairns und Townsville plötzlich von Gummibaum-Vegetation à la Kongo umgeben und damit geeignet sind für den Import von Bonobos und vielleicht Okapis.

Betrachtet man Südamerika, dann wird der Amazonas-Regenwald schon jetzt auf mysteriöse Weise vom IPCC in Savannen verwandelt, die sich bei einer CO2-Verdoppelung über die gesamte obere Hälfte von Südamerika ausbreiten sollen. http://www.quadrant.org.au/blogs/thomas/2013/08/spot-the-error-the-ipcc-can-t – _edn2

[2]

Es ist eine merkwürdige alte IPCC-Welt. Ein Fehler vielleicht? Mitnichten! All diese Angaben finden sich bereits im hoch wichtigen Synthese-Bericht aus dem Jahr 1995, wo sich das IPCC zum ersten Mal für eine „wahrnehmbare“, vom Menschen verursachte globale Erwärmung entschieden hatte.

Das IPCC listet Tropenwälder auch in Nord- und Süd-Dakota sowie Teilen des Mississippi-Tales.

Auf die Waldverrücktheit des IPCC wurden die IPCC-Experten zumindest während der letzten sechs Jahre immer wieder hingewiesen. Der erste Vorsitzende des IPCC war Bert Bolin (von 1988 bis 1997). Im Jahre 2007 schrieb er in einer Fußnote seines Buches A History of the Science and Politics of Climate Change: The Role of the IPCC  (S. 253):

„Als Kuriosität ist es vielleicht interessant, dass in Abbildung 2 der ‚Zusammenfassung für Politiker’ der Arbeitsgruppe 11 (1995) ein wesentlicher Fehler steckt, nämlich eine Verwechslung der Öko-Systeme ‚Savanne’, ‚Trockenwälder’, ‚Forsten’ und Tropenwälder’. Aber ich habe bisher nicht gesehen, dass dieser Fehler irgendwo in den IPCC-Veröffentlichungen korrigiert worden wäre“.

Ich bin Anfang des vorigen Jahres über diese Fußnote gestolpert, als ich einen Beitrag über die Ursprünge des IPCC für meinen Blog Quadrant geschrieben habe. Ich schaute in die Karten des IPCC, und siehe da, auch fünf Jahre nach Bolins Aufforderung zur Korrektur waren sie nicht verändert worden.

Also schrieb ich im Februar 2012 an Renate Christ, die IPCC-Sekretärin in der Schweiz, wobei ich sorgfältig dem Reglement für eine Beschwerde folgte, die in einem IPCC-Prozedere zur Fehlerkorrektur im Jahre 2011 umrissen worden war.

Ein Fehler in einem ‚Synthese-Bericht’ muss spezielle Alarmglocken beim IPCC zum Klingen bringen. Die Verantwortung verbleibt dem Protokoll zufolge beim IPCC-Vorsitzenden (Dr. Pachauri) höchstpersönlich. Sowohl er als auch die Vize-Vorsitzenden der relevanten Arbeitsgruppe zur Zeit der Zustandsbeschreibung „müssen angemessen über die Entwicklung und die Teilnahme auf dem Laufenden gehalten werden“.

Die Details des Protokolls sind sogar noch strikter: Alle Vorsitzenden der Arbeitsgruppen und das Exekutiv-Komitee müssen involviert werden. Diese wiederum könnten genötigt sein, ihre Vorgänger dazu zu befragen.

Ich war hoch erfreut, innerhalb von 48 Stunden später via E-Mail eine Antwort von Jonathan Lynn erhalten zu haben, dem Vertreter der abwesenden Dr. Christ.

„Vielen Dank, dass Sie uns daran erinnern, dass wir uns damit befassen müssen.

Auf den ersten Blick sieht es ziemlich geradlinig aus, aber es ist ein wenig schwierig für unsere internen Prozesse, weil ein alter Bericht involviert ist, deren Arbeitsgruppen schon lange aufgelöst worden sind.

Dennoch habe ich Ihren Einwand an unser Exekutiv-Komitee weitergeleitet (in dem auch Dr. Pachauri sitzt), und ich versichere Ihnen, dass daran gearbeitet wird.

Freundliche Grüße, Jonathan Lynn“

Wunderbar! Außer dass ich mir eineinhalb Jahre später, am 18. August 2013, die Karten erneut angeschaut habe, und erneut hatte sich nichts geändert, trotz selbst Dr. Pachauris und seines Exekutiv-Komitees besonderer Aufmerksamkeit bzgl. dieser Angelegenheit. Vielleicht wird es nicht als prioritär angesehen, einen Fehler zu korrigieren, den der Ex-Vorsitzende des IPCC Bert Bolin als einen „wesentlichen“ Fehler beschrieben hat?

Ich fürchte, dass dies ein weiterer Fall dessen ist, was die kanadische Journalistin Donna Laframboise in ihrem Buch Delinquent Teenager über das IPCC beschrieben hat: Das IPCC sagt etwas und macht das Gegenteil. http://www.quadrant.org.au/blogs/thomas/2013/08/spot-the-error-the-ipcc-can-t – _edn3[3] Nur mal als Beispiel: Das IPCC verlangt von seinen Autoren, dass alle nicht begutachteten Referenzen für den Bericht 2007 als solche gekennzeichnet werden müssen. Als der Bericht dann erschienen war, hat Laframboise nachgezählt. Von den 5587 nicht begutachteten Referenzen waren gerade mal insgesamt sechs oder 0,1% davon als solche gekennzeichnet.

Das Fehlerprotokoll des Jahres 2011 erwuchs aus der aggressiv falschen Reaktion von Dr. Pachauri auf den IPCC-Fauxpas der schmelzenden Himalaya-Gletscher im Jahr 2007. Diese Gletscher sollten der Vorhersage zufolge bis zum Jahr 2035 abgeschmolzen sein und eine halbe Milliarde durstiger Asiaten hinterlassen.

Pachauri (der von sich sagt, dass er zwei PhD habe, obwohl es in Wirklichkeit nur einer ist) hat im Jahre 2009 ursprünglich den Beschwerdeführer hinsichtlich der Himalaya-Gletscher diffamiert [4]. Diese Person war Vijay Raina, ein bedeutender indischer Glaziologe. Pachauri hat Raina vorgeworfen, ‚Voodoo-Wissenschaft’ und ‚Zauberei’ auszuüben und weitere unhaltbare Vorwürfe. Er fügte hinzu, dass es dem Glaziologen nicht zukomme, eine solche Frage so einer bedeutsamen Institution wie dem IPCC vorzulegen [5].

Pachauri hat offensichtlich die kurze entsprechende Passage gar nicht gelesen, obwohl die schlechte Arithmetik und zweifelhafte Herkunft (Gerüchte, die von der Aktivistengruppe Worldwide Fund for Natur recycelt worden waren) für sich selbst sprachen. Tatsächlich mussten auf der einen Seite mit den Himalaya-Gletschern im Bericht 2007, die aus 497 Wörtern bestand, neun unterschiedliche Fehler korrigiert werden [6].

Pachauris Gehässigkeit war zu viel für die ehrenwerte wissenschaftliche Gemeinschaft, und innerhalb weniger Monate wurde er dazu gezwungen, dem Inter Academy Council IAC, einer internationalen Spitzen-Wissenschaftsagentur, hinsichtlich prozessualer Reformen im IPCC Rede und Antwort zu stehen, um weitere Fehler und damit den Verlust an Glaubwürdigkeit zu vermeiden.

Der IAC berichtete im August 2010, dass als Folge des Himalaya-Unsinns und Klimagate 1 „das öffentliche Vertrauen in die Klimawissenschaft abgenommen hat“ [7]. Aber, fügte er hastig hinzu, weder der Himalaya-Fauxpas noch Klimagate 1 unterminierten die wesentlichen Ergebnisse über die globale Erwärmung, verursacht vom Menschen. (Seine Quelle für diese Schlussfolgerung war niemand anders als der Integritäts-Spezialist Peter Gleick, der später, Anfang 2012, zugegeben hat, auf betrügerische Weise an interne Dokumente einer konservativen US-Denkfabrik gekommen zu sein, nämlich dem Heartland Institute) [8].

Zur Korrektur von Fehlern sagte der IAC: „Die Herausforderung bzgl. Kommunikation hat neue Dringlichkeit erhalten in der Folge jüngster Kritiken an den langsamen und unangemessenen Antworten des IPCC auf berichtete Fehler im 4. Zustandsbericht 2007. Diese Kritik unterstreicht die Notwendigkeit von Beziehungen zu Medien, um es dem IPCC zu ermöglichen, rasch und in angemessener Weise auf Kritik und Sorgen zu antworten, die in einem solchen umstrittenen Bereich zwangsläufig auftauchen“ [9].

Als Folge dieser Kritik des IAC hat die maßgebliche IPCC-Abteilung auf ihrer Sitzung im Mai 2011 in Abu Dhabi ein detailliertes und großartiges 12-seitiges Protokoll und Flussdiagramme zur Fehlerkorrektur herausgegeben [10]. Darin findet sich u. A.:

„Wenn der Fehler in einem Synthese-Bericht auftaucht, liegt die Verantwortung beim augenblicklichen IPCC-Vorsitzenden.

Zu Beginn des Prozesses wird der Beschwerdeführer vom IPCC-Sekretariat über die nächsten Schritte informiert … Der Beschwerdeführer wird nochmals über die Ergebnisse dieses Prozesses informiert.

Errata werden auf den Websites des IPCC, der Arbeitsgruppen oder der Task Force nach dem Ende des Prozesses aufgelistet. Eine kurze Erklärung über den Fehler kann ebenfalls gepostet werden“.

Nun, als gutgläubige IPCC-Fehler-Spürnase wurde ich vor 18 Monaten wirklich über die ‚nächsten Schritte’ informiert. Aber der Prozess, die grünen und braunen Kästen auszutauschen ist bislang nicht durchgeführt worden.

Vielleicht haben die IPCC-Experten einen hinterhältigen Sinn für Humor, und ihre Berichte sind ein raffinierter praktischer Witz. In diesem Falle hätte ich Tomaten vor den Augen; ich bin so verdammt vertrauensselig.

###


References:

[1] http://www.trust.org/item/20130816133815-ao2wt/?source=hptop

[2] http://www.ipcc.ch/pdf/climate-changes-1995/ipcc-2nd-assessment/2nd-assessment-en.pdf p31, maps

[3] http://www.amazon.com/Delinquent-Teenager-Mistaken-Climate-ebook/dp/B005UEVB8Q

[4] http://www.quadrant.org.au/magazine/issue/2012/3/the-fictive-world-of-rajendra-pachauri

[5]  http://www.youtube.com/watch?v=bnYmQjFoNCs

[6] ibid

[7] http://www.interacademycouncil.net/File.aspx?id=27672 p2

[8] http://science.time.com/2012/02/20/climate-expert-peter-gleick-admits-deception-in-obtaining-heartland-institute-papers/

[9] http://www.interacademycouncil.net/24026/26050/27665.aspx p2

[10] https://www.ipcc.ch/pdf/ipcc-principles/ipcc_error_protocol.pdf

=================================================================== Aktualisierung: Das IPCC antwortet

Ich schreibe in Bezug auf Ihren Beitrag vom 19. August, der von Tony Thomas übermittelten Story, in der Sie ansprechen, dass das IPCC laut Hinweis von Tony Thomas noch nicht einen Fehler korrigiert hat.

Das ist falsch, und ich möchte gerne die Fakten für Ihre Leser nennen:

Als wir den Brief von Tony Thomas am 8. Februar 2012 erhalten haben, wurde erkannt, dass es einen typographischen Fehler in der Summary for Policymakers der Arbeitsgruppe II im zweiten Zustandsbericht 1995 gibt. Eine Korrektur mit Datum vom 9. März 2012 wurde ausgegeben und kann hier gefunden werden:

http://www.ipcc.ch/ipccreports/sar/sar_syr_errata.pdf (…)

Wir haben Tony Thomas am 20. September 2012 geschrieben und ihn hierüber informiert. Eine Kopie dieser E-Mail folgt hier:

Jonathan Lynn, Head of Communications, IPCC

Sehr geehrter Herr Tony Thomas,

mit Bezug auf Ihre E-Mail vom 9. Februar 2012 informieren wir Sie, dass wir den gemäß der IPCC-Richtlinien zum Umgang mit möglichen Fehlern in den IPCC-Zustandsberichten, Synthese-Berichten, Sonderberichten oder methodischen Berichten den Prozess in Gang gesetzt haben. Wir möchten Ihnen mitteilen, dass die Arbeitsgruppe II des IPCC die Analyse der in Ihrer E-Mail vom 8. Februar 2012 angesprochenen Punkte abgeschlossen hat. Am 8. März 2012 hat das Büro der Arbeitsgruppe II festgelegt, dass man tätig werden müsse und dass der Fehler als ein typographischer Fehler betrachtet werden müsse wie in Abschnitt 2, Schritt 4A in den Richtlinien bestimmt. Vielen Dank, dass Sie uns darauf aufmerksam gemacht haben.

Mit freundlichen Grüßen, IPCC-Sekretariat

2. Aktualisierung:

Ich habe mit folgender E-Mail darauf geantwortet. Dafür erhielt ich ein Standard-Dankeschön, aber keine Antwort auf meine Frage. – Anthony

Sehr geehrter Mr. Lynn,

ich habe ihre Korrektur am Ende des Beitrags angefügt, vielen Dank dafür. Es scheint wie ein möglicher Fall der nicht perfekten Natur des Internets, was ab und zu dazu führt, dass Sendungen verloren gehen oder im Spam-Filter landen.

In dieser Hinsicht: Haben wir die Entschuldigung von Dr. Pachauri an die Klimaskeptiker in der ganzen Welt für seine „Voodoo-Wissenschaft“ hinsichtlich der Behauptung des Abschmelzens der Himalaya-Gletscher bis zum Jahr 2035 verpasst? Siehe hier: http://wattsupwiththat.com/2012/02/09/ipccs-pachauris-voodo-science-claim-comes-full-circle/

Vielen Dank für Ihr Interesse.

Anthony Watts, WUWT

3. Aktualisierung: Antwort von Tony Thomas:

Wie es manchmal so geht, habe ich meine E-Mail-Adresse von einem australischen Provider am 18. September 2012 zu gmail gewechselt. Jonathan Lynn vom IPCC hat mir am 20. September 2012 geantwortet, zweifellos an meine ehemalige E-Mail-Adresse. Ich habe keinen Beleg für ihren Empfang. In der Rückschau war mein Beitrag ein wenig zu harsch in Bezug auf das IPCC. Mein Check bestand aus der Untersuchung der IPCC-Karten aus dem Jahr 1995 und dem Synthese-Bericht, um zu sehen, ob es Beweise für eine Korrektur gebe. Es gab keine.

Der ehemalige IPCC-Vorsitzende Bert Bolin beschrieb die Karten als einen ‚wesentlichen Fehler’ und nicht als einen typographischen Fehler. Darum habe ich angenommen, dass es irgendeine Änderung oder Aufmerksamkeit geben würde.

Ich bin auch verwirrt, dass trotz der Klagen des IAC über die Verzögerungen bei Antworten des IPCC auf Fehlerhinweise dieser IPCC-Prozess immer noch sehr langsam zu sein scheint. Ich habe mich darüber am 9. Februar 2012 beklagt. Die Arbeitsgruppe II des IPCC wurde am 8. März 2012 aktiv. Und doch dauerte es bis zum 20. September, also ein halbes Jahr, bis ich darüber in einer E-Mail informiert worden bin.

Also ist das Ganze ein schlimmer gewordenes kleines Durcheinander. [So the story is really one of compounding small snafus.]

1. Die Beschriftung der Karte wird 1995 umgekehrt.

2. Bert Bolin beklagt sich im Jahre 2007 über einen nicht korrigierten „wesentlichen Fehler“.

3. Ich habe mich auch über diesen Fehler beschwert, und zwar Anfang 2012.

4. Irgendeine Panne in den Büros des IPCC führt zu einer Verzögerung von sechs Monaten, bis man mir antwortet. Die Antwort verschwindet dann im E-Mail-Äther.

5. Die Karten wurden nicht geändert.

6. Ich habe dem IPCC im August 2013 eine harte Mail geschickt.

7. Verletzte Gefühle allerorten.

Link: http://wattsupwiththat.com/2013/08/19/ipcc-caught-with-an-old-uncorrected-error-in-new-ar5-report/

Übersetzt von Chris Frey EIKE




Kohlendioxid: „Das Gas des Lebens”

In Volumeneinheiten wird die CO2-Konzentration typischerweise mit 400 ppm angegeben. Das sind gerade mal 0,04% der Atmosphäre – oder im Vergleich 40 Cent von 1000 Dollar. Selbst Argon ist in der Atmosphäre in 23-facher Menge vorhanden: 9300 ppm.

Mehr noch, diese 400 ppm im Jahr 2013 sind 120 ppm mehr als die 280 ppm im Jahr 1800, und diese Zunahme während zweihundert Jahren ist äquivalent zu läppischen 12 Cent aus 1000 Dollar.

Man entferne das Kohlendioxid, und irdische Pflanzen würden sterben, ebenso wie alles Phytoplankton in Seen und Meeren, Gräser, Seetang und andere Wasserpflanzen. Danach würde alles menschliche und tierische Leben verschwinden. Selbst eine zu starke Reduktion des CO2-Niveaus – zurück auf vorindustrielle Werte zum Beispiel – hätte schreckliche Konsequenzen.

Während der letzten beiden Jahrhunderte begann sich unser Planet endlich von der Kleinen Eiszeit zu erholen, die die Erde gekühlt und die Wikinger aus Grönland vertrieben hat. Die sich erwärmenden Ozeane haben allmählich Einiges des in ihren Wassern gespeicherten Kohlendioxids freigesetzt. Fabriken der industriellen Revolution und die zunehmende Weltbevölkerung haben mehr Holz und fossile Treibstoffe verbrannt, mehr Brot gebacken und mehr Bier gebraut, was weitere Anteile CO2 in die Atmosphäre entließ. Wesentlich mehr dieses Wunder-Moleküls entwich aus Vulkanen und untermeerischen Quellen, Waldbränden, der Verwendung von Biotreibstoffen, abnehmendem Pflanzenbewuchs und Ausatmung von lebenden atmenden Menschen und Tieren.

Was für ein Unterschied, den diese zusätzlichen 120 ppm bei Pflanzen und den von ihnen abhängigen Tieren und Menschen bewirkt haben! Je mehr Kohlendioxid es in der Atmosphäre gibt, umso mehr wird von Pflanzen aller Art absorbiert – und umso schneller und besser gedeihen sie, selbst unter widrigen Bedingungen wie begrenzten Wasservorräten, extrem hohen Temperaturen oder Schäden durch Insekten, Unkräuter und anderen Widrigkeiten. Wenn Bäume, Gräser, Algen und Getreide schneller wachsen und gesünder und widerstandsfähiger werden, erfreuen sich Menschen und Tiere an besseren Nahrungsmitteln auf einem Planeten, der immer grüner wird.

Bemühungen, sieben Milliarden Menschen zu ernähren und die Verbesserung der Versorgung mit Nahrungsmitteln für über eine Milliarde unterernährte Menschen verschärfen ständig die Spannungen zwischen dem für die Ernährung erforderlichen Landflächen – und der Notwendigkeit, Landflächen in ihrem natürlichen Zustand zu belassen, um Pflanzen und Wildtiere zu stützen. Wie gut es uns gelingt, in diesem Spannungsfeld die Getreideerzeugung auf mehr oder weniger gleich großen Flächen zu erhöhen, kann den Unterschied ausmachen zwischen global ausreichend Nahrung oder ungezügelten Hungersnöten während der kommenden Jahrzehnte – und zwischen Überleben und Aussterben vieler pflanzlicher und tierischer Spezies.

Moderne landwirtschaftliche Methoden haben die Ernteerträge pro Hektar zwischen 1930 und heute stetig und dramatisch verbessert. Das ist vor allem wichtig, wenn wir damit fortfahren, Millionen Hektar Ackerland sowie Millionen Hektar Regenwald und anderer Habitate abzuzweigen, um Biotreibstoffe zu erzeugen, die die fossilen Treibstoffe ersetzen sollen, die wir wieder im Überfluss haben. Kohlendioxid wird bei diesen Bemühungen eine tragende Rolle spielen.

In Treibhäusern künstlich mit CO2 angereicherte Luft verbessert das Pflanzenwachstum dramatisch, vor allem dann, wenn auch die Temperaturen erhöht werden; der steigende atmosphärische CO2-Gehalt hat ähnliche und erstaunlich positive Auswirkungen auf das Pflanzenwachstum und das Überleben der Pflanzen in der Natur. Den Ergebnissen indischer Forscher zufolge haben Linsen und andere in Treibhäusern gezogene Gemüsesorten in einer mit 700 ppm CO2 angereicherten Luft ihre Gesamtbiomasse um 91% erhöht, ihre essbaren Teile um 150% und ihren Nährwert um 67%, alles im Vergleich mit ähnlichen Getreidesorten in Luft mit 370 ppm CO2.

Chinesische Wissenschaftler haben errechnet, dass Reis bei geringer Zufuhr von Stickstoffdünger seine Ernteerträge um 28% erhöht hat. US-Forscher haben entdeckt, dass die Safterzeugung in Stängeln von Zuckerrohr, der in sonnendurchfluteten Gewächshäusern bei einem CO2-Gehalt der Luft von 700 ppm und einer um 6°C höheren Temperatur im Vergleich zu den Verhältnissen draußen gewachsen ist, um 124% höher lag als bei Zuckerrohr, der im Freien bei einem CO2-Gehalt von 360 ppm gewachsen ist. Nicht der Ernährung dienende Pflanzenarten wie Baumwolle gedeihen ebenfalls viel besser, wenn der CO2-Gehalt erhöht ist.

Forschungen in Naturwäldern und beim Wachstum von Getreide in jüngerer Zeit während des steigenden CO2-Niveaus zwischen 1900 und 2010 ergaben ebenfalls signifikante Verbesserungen unter „realen“ Bedingungen.

Eine Analyse von Kiefern in Katalonien, Spanien, hat gezeigt, dass der Durchmesser des Stammes zwischen 1900 und dem Jahr 2000 als Folge des steigenden CO2-Gehaltes um 84% zugenommen hat. Das Wachstum junger Bäume in Wisconsin hat um 60% zugenommen, und die Breite von Baumringen um fast 53%. Gleichzeitig sind die Kohlendioxid-Konzentrationen Berechnungen von Forschern zufolge von 316 ppm im Jahre 1958 auf 376 ppm im Jahr 2003 gestiegen.

Wissenschaftler der University of Minnesota verglichen das Wachstum von Bäumen und anderer Pflanzen während der ersten Hälfte des 20. Jahrhunderts (in der auch die schlimmen Dust Bowl-Jahre aufgetreten waren) mit einem CO2- Anstieg um 10 ppm mit der Periode von 1950 bis 2000, als der CO2-Gehalt um 57 ppm zugenommen hat. Ergebnis: Das Kohlendioxid hat die Empfindlichkeit der Pflanzen gegen schwere Dürren verringert und ihre Überlebensrate um fast 50% verbessert. Schweizer Forscher fanden heraus, dass „sich das alpine Pflanzenleben stark vermehrt, die Biodiversität steigt und Bergwelt produktiver und einladender denn je“ zu sein scheint – wegen des steigenden Kohlendioxid-Niveaus.

Andere Forscher haben historische (reale-Welt-)Daten des Landverbrauchs, die atmosphärische CO2-Konzentration, Stickstoff-Ablagerungen, Düngung, Ozonmenge, Regenmenge und Klima herangezogen, um ein Computermodell zu entwickeln, das die Reaktionen des Pflanzenwachstums simulieren kann, und zwar für Habitate im Süden der USA von 1895 bis 2007. Sie errechneten, dass „die Gesamtproduktivität“ sich im Mittel um 27% verbessert hat während dieses Zeitraumes von 112 Jahren, wobei das meiste des gestiegenen Wachstums nach 1950 stattfand, als das CO2-Niveau am stärksten gestiegen ist, nämlich von 310 ppm 1950 auf 395 ppm 2007.

Wie geschieht all dies? Pflanzen nutzen die Sonnenenergie, um Kohlendioxid aus der Luft sowie Wasser und Mineralien aus der Erde in Kohlehydrate und andere Moleküle umzuwandeln, die die pflanzliche Biomasse bilden. Mehr CO2 bedeutet mehr und größere Blumen, größere Samenerträge und erfolgreichere Keimungen sowie verbesserte Widerstandsfähigkeit gegen Dürren, Krankheiten, Viren, Infektionen, Luftverschmutzung oder Salz- und Stickstoffanlagerungen in der Erde. Ein höherer CO2-Gehalt verbessert auch die Effizienz der Pflanzen hinsichtlich des Wasserverbrauchs – was eine schnellere und stärkere Kohlenstoff-Aufnahmefähigkeit des Pflanzengewebes sicherstellt und weniger Wasserverlust durch Transpiration.

Mehr CO2 in der Luft führt auch dazu, dass die Pflanzen die Größe ihrer Stomata reduzieren, kleine Löcher in den Blättern, mit denen die Pflanzen das Kohlendioxid einatmen. Ist der CO2-Gehalt niedrig, vergrößern sich diese Öffnungen, um ausreichend dieses „Gas des Lebens“ aufnehmen zu können. Aber vergrößerte Stomata bewirken auch das Entweichen von mehr Wassermolekülen, und der Wasserverlust sorgt für zunehmenden Stress der Pflanzen, was dann ihr Wachstum und ihr Überleben bedroht.

Wenn der Kohlendioxidgehalt der Luft steigt – auf 400, 600 oder 800 ppm – verkleinern sich die Stomata. Die Pflanzen verlieren dann weniger Wasser durch Transpiration, während sie ausreichend CO2-Moleküle aufnehmen. Das ermöglicht es ihnen, Trockenzeiten viel besser zu überstehen.

(In den Ausgaben der Berichte des NIPCC der Jahre 2009 und 2011 mit dem Titel Climate Change Reconsidered, vor allem in diesem Abschnitt, sowie in Dr. Craig Idsos Blog www.CO2science.org werden hunderte ähnlicher Studien über die Auswirkungen durch die Anreicherung von CO2 auf Getreide, Wälder, Prärien, alpine Gebiete und Wüsten zusammengefasst. Mit der Datenbasis bzgl. Pflanzenwachstums in diesem Blog kann jeder selber forschen).

Eines der schlimmsten Dinge, die unserem Planeten und seinen Bewohnern sowie den Tieren und Pflanzen widerfahren können, wäre der Rückgang des CO2-Gehaltes auf ein Niveau, wie es vor der industriellen Revolution geherrscht hat. Ein abnehmender CO2-Gehalt wäre vor allem problematisch, wenn sich die Erde abkühlt als Folge des Eintretens der Sonne in eine erneute „ruhige Phase“, wie es während der Kleinen Eiszeit der Fall war. Falls sich die Erde erneut abkühlt, würden sich die jahreszeitlichen Wachstumszeiten verkürzen, und bebaubares Ackerland in nördlichen Breiten würde abnehmen. Dann würden wir jedes nur mögliche Molekül Kohlendioxid brauchen – um die landwirtschaftliche Produktion hoch genug zu halten, um Hungersnöte zu verhindern – und Habitate davor zu bewahren, untergepflügt zu werden als Ersatz für das verloren gegangene Ackerland.

Allerdings werden selbst unter den gegenwärtigen Bedingungen der Modernen Warmzeit Ernten, andere Pflanzen, Tiere und Menschen von mehr Kohlendioxid profitieren. Das „Gas des Lebens“ ist ein Wunderdünger für Pflanzen, der ihnen hilft, zu wachsen und zu gedeihen – wodurch der Planet grüner wird, das Wildtierleben in Habitaten ernährt, die Nahrungsmittelversorgung der Menschen verbessert wird und selbst zu einer geringen Erwärmung der Erde führt.

Das sind erstaunliche Fähigkeiten eines farb-, geruch- und geschmacklosen Gases, das gerade mal 0,04 Prozent unserer Atmosphäre ausmacht! Wir sollten das Kohlendioxid preisen – und es nicht verunglimpfen, verbannen oder vergraben.

________

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow. His full report on the magic and mystery of carbon dioxide can be found at www.CFACT.org. 8/14/13

http://icecap.us/images/uploads/Driessen_-_Carbon_dioxide_The_gas_of_life.pdf

Übersetzt von Chris Frey EIKE




Gorleben: Das Endlagersuchgesetz – ein deutsches Drama

Es ist ein Drama: Die Diskussion darüber, ob Gorleben ein geeigneter Standort für die Endlagerung hoch radioaktiver, Wärme entwickelnder Abfälle ist, wird leider nicht nur auf den Erkenntnissen von anerkannten fachlichen Institutionen geführt, sondern sie wird von politischen Zielsetzungen dominiert, die die Faktenlage zunehmend, ja sogar teilweise völlig außer Acht lässt. Die folgende Darstellung soll die kontroverse, ja eher sogar verwirrende Situation transparent machen und eine Hilfestellung für eine eigene Meinungsbildung geben.

Das Für und Wider bezüglich des Standorts Gorleben

Bestätigt wurde Gorleben als geeigneter Standort durch folgende Ausschüsse:

Internationale Expertengruppe Gorleben (IEG, 2001): Diese ist die bisher einzige international besetzte „Peer-Review Group“, die die Gorleben-Situation beurteilt hat. Es handelt sich um ausgewiesene Fachleute, die in ihren Ländern in verantwortlichen Positionen Endlager planen bzw. in Betrieb gebracht haben. [1]

Diese Expertengruppe nimmt auf 126 Seiten Stellung zu der Tatsache, dass trotz der bis 2000 vorliegenden fachlich positiven – jedoch noch nicht abschließenden –  Ergebnisse, die Untersuchungsarbeiten in Gorleben aus politischen Gründen (Moratorium) unterbrochen wurden. Ihre im Einzelnen begründete Aussage kommt zu dem Schluss, dass ein Moratorium aus wissenschaftlich-technischer Sicht unbegründet ist. [2]

Der Bericht wird vom Bundesamt für Strahlenschutz (BfS) wohl bewusst nicht erwähnt, da es sich nach Ansicht des Amtes um keinen offiziellen Bericht handelt. Wo bleibt die von der Öffentlichkeit immer geforderte und von den Verfahrensbetreibern BMU/BfS beschworene neue Kultur der Transparenz?

Nach der Verkündung des Moratoriums (2000) durch die Rot-Grüne Regierung wurden keine weiteren Untersuchungsarbeiten am Standort Gorleben durchgeführt.

Vom BfS wurde dagegen ein „Arbeitskreis Auswahlverfahren Endlagerstandorte: AKEnd“ gegründet, dessen Ergebnisse mit der nationalen und internationalen Fachwelt und mit der interessierten Öffentlichkeit erörtert werden soll.

Der von diesem Arbeitskreis Ende 2002 vorgelegte Bericht besteht aus einem längeren fachlichen und der verbleibende aus einem gesellschaftspolitischen Teil (u.a. wie man die Öffentlichkeit einbeziehen muss). [3] Bei dem fachlichen Teil handelt es sich um sehr ausführliche und für die Öffentlichkeit informative Beschreibungen der notwendigen Geologie-bedingten Auswahlkriterien für die verschiedensten Gesteinsarten, die für eine Endlagerung radioaktiver Abfälle in Frage kommen könnten. Der Bericht zeigt aber auch die große Komplexität eines solchen Vorgehens und macht somit sehr deutlich, dass ein Abschluss der Erkundungsarbeiten in Gorleben und ein dann zu erwartender positiver Sicherheitsnachweis im Vergleich zu einem viel teureren Neuanfang bedeutend schneller und um Milliarden Euro billiger wäre.

Die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR, 2005): Im Jahr 2005 wurde die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) vom Bundesamt für Strahlenschutz (BfS) aufgefordert, den AKEnd-Bericht in einem Synthese-Bericht: „Konzeptionelle und sicherheitstechnische Fragen der Endlagerung radioaktiver Abfälle, Wirtsgesteine im Vergleich“ aus geowissenschaftlicher Sicht zu bewerten. [4]

Zusammenfassendes Ergebnis: „Die in den Einzelgutachten aufgezeigten Ergebnisse sprechen nicht gegen die positive Bewertung der geologischen Befunde am Standort Gorleben und damit auch nicht gegen eine Weiterführung der Erkundung. Nach Klärung der konzeptionellen und sicherheitsrelevanten Fragen sollte nun eine vollständige standortspezifische Sicherheitsanalyse für Gorleben erarbeitet werden.“

Das Bundesamt für Strahlenschutz (BfS, 2005): Die vom BfS veröffentlichten Gutachten [5]bestätigen die Eignung von Steinsalz als Endlager-Wirtsgestein. Die von der rot-grünen Bundesregierung in diesem Zusammenhang erhobenen Zweifelsfragen von 2001 zum Salzstock Gorleben sind damit abgearbeitet. Dem entsprechend ist der Salzstock Gorleben aus methodisch-konzeptioneller und sicherheitstechnischer Perspektive als mögliches Endlager für radioaktive Abfälle geeignet.

Die Reaktor-Sicherheitskommission (RSK, 2006): Der Synthese-Bericht der Strahlenschutzkommission zum AKEnd-Bericht kommt zu dem Ergebnis: „Aus Sicht der RSK kann bestätigt werden, dass eine Weiterführung eines generischen Vergleichs von Wirtsgesteinen keine für eine Standortentscheidung nutzbaren Ergebnisse erbringt …  Eine belastbare sicherheitsbezogene Bewertung eines Standorts ist nur nach einer abgeschlossenen Standorterkundung auf der Grundlage einer standort- und konzeptspezifischen Sicherheitsanalyse möglich. Zu der Erforderlichkeit eines Standort-Auswahlverfahrens nimmt die RSK keine Stellung.“

Die Gesellschaft für Anlagen- und Reaktorsicherheit (GRS, 2012) [6]: In einer gemeinsamen Erklärung von Bundesminister Röttgen und dem Präsidenten des BfS König wurde im November 2010 erklärt: „Das Moratorium würde zum 1. Oktober 2010 wieder aufgehoben. Mit der Wiederaufnahme der Erkundungsarbeiten solle endlich Klarheit geschaffen werden … eine ergebnisoffene Erkundung muss die Eignung oder Nichteignung des Salzstocks Gorleben umfassend begründen. Sollte sich der Salzstock als ungeeignet erweisen, müssen wir neue Wege finden …“. Bei der GRS wurde deshalb eine umfassende „Vorläufige Sicherheitsanalyse für Gorleben (SVG)“ in Auftrag gegeben, die alle bisherigen Untersuchungen analysieren und zusammenfassen soll.

Der Gesamtbericht wurde vom Bundesumweltministerium gestoppt, offenbar weil man die Wahrheit scheut – die potentiell uneingeschränkte Eignungshöffigkeit von Gorleben.“

Die meisten von vierzehn Einzelberichten liegen seit Sommer 2012 vor. Sie sind insgesamt positiv und sollten in einem Gesamtbericht zusammengefasst werden. Dieser wurde seitens des Bundesumweltministeriums (BMU) gestoppt, offenbar weil die Wahrheit – die potentiell uneingeschränkte Eignungshöffigkeit von Gorleben – gescheut wird, also heute politisch offenbar nicht mehr opportun erscheint.

Ob überhaupt und wann die Ergebnisse in einem zusammenfassenden Bericht veröffentlicht werden, ist trotz der gebetsmühlenartig immer wieder versprochenen vollsten Transparenz jedoch offen.

Außerdem gibt es folgende ausdrücklich positive Verlautbarungen:

·       in der Moratoriumsvereinbarung (2001) zwischen der Bundesregierung und den Energieversorgungsunternehmen

·       zwischen der Bundesregierung und dem BfS (2010)

·       des Bundesrates

·       des Rechnungshofs und

·       von zahlreichen anerkannten Sachverständigen

Bezweifelt wird Gorleben als geeigneter Standort durch folgende Organisationen:

·       seit Jahrzehnten in fast allen Berichten von Non-Governmental-Organizations (NGOs) wie Greenpeace, BUND, Gruppe Ökologie etc.

·       Gruppe Ökologie (1998) im Jahresbericht 1998 der Heinrich-Böll-Stiftung

·       in der Koalitionsvereinbarung zwischen der SPD und B’90/Die Grünen von 1998

·       in einer „Bewertung des Endlager-Standortes Gorleben …“ (Kleemann, 2011)

Die hauptsächlichen Kritikpunkte der Gegner sind das Auswahlverfahren des Standortes Gorleben und die Zweifel an der Barrierefunktion des Deckgebirges („Gorleben Rinne“, neue Eiszeit). Das Auswahlverfahren spielt heutzutage keine Rolle mehr, da für Gorleben die Eignungshöffigkeit bestätigt ist. Bezüglich der Barrierefunktion des Deckgebirges wird sich in der abschließenden Sicherheitsanalyse zeigen, ob der Nachweis der langzeitsicheren Eignung trotz der vorgetragenen Bedenken gegeben ist.

Abgesehen von dem inzwischen positiv beantworten Katalog der Zweifelsfragen des BfS aus dem Jahr 2000, dem Kleemann Bericht von 2011 und den zahlreichen Kommentaren und Berichten der NGOs gibt es bis heute weder vom BMU/BfS noch von sonstigen nationalen oder internationalen ausgewiesenen Fachleuten Veröffentlichungen, in denen die Daten exakt benannt werden, die der Eignungshöffigkeit Gorlebens widersprechen sollen.
Ob Gorleben als endgültiger Standort geeignet ist, ist noch nicht vollständig untersucht, aber bis heute spricht kein fachlich begründetes Argument dagegen und die abschließenden Untersuchungen sind zweifelsfrei durchführbar.

Tongestein als Beispiel für eine geologische Alternative

Bei dem Vorschlag, auch Tongestein als geologisches Medium für ein Endlager für hochradioaktive, wärme entwickelnde Abfälle zu nutzen, muss man sich vor Beginn der Suche mit den für diese Gesteinsart spezifischen geologischen, bergbautechnischen, kerntechnischen, langzeitrelevanten sowie gesellschaftspolitischen aber auch den zahlreichen eingrenzende Kriterien vertraut machen. [7]

Bei Tongesteinen sollte für das Gebirge eine Maximaltemperatur von 50 Grad nicht überschritten werden, da sie eine deutlich schlechtere Wärmeleitfähigkeiten als Salz aufweisen; die Tonformation muss zwischen 300 und maximal 1000 Metern von der Oberfläche gemessen liegen; die Mächtigkeit (Dicke) der Formation muss mindestens 100 Meter betragen. Wegen der Barriere nach unten und dem Raum für das Endlagerbergwerk stehen dann nur noch die restlichen 70 Meter oder auch etwas mehr für die geologische, die wichtigste Barriere zur Verfügung, die für eine Million Jahre die hochradioaktiven, wärme entwickelnden Abfälle von der Biosphäre abhalten muss (bei Gorleben 600 Meter Salzbarriere)  – und das in einer geologisch ungestörten, unzerklüfteten und mineralogisch homogenen Zone über eine Fläche von mindestens 10 Quadratkilometern! (Gorleben: 97 Bohrungen im Bereich über dem Salzdom ohne diesen zu beschädigen und nur 5 Tiefbohrungen in den Salzstock selbst zum Schutz der Salzbarriere von 600 Metern, zwei davon für die Planung der Schächte).

Werden die gesellschaftlich bedingten Forderungen (AKEnd-Bericht) erfüllt, wird es schwierig und sehr teuer werden, einen ausreichend großen Bereich im Opalinuston einzugrenzen.“

Ein Beispiel wäre der mitteljurasische Opalinuston in Süddeutschland, der in seiner Erstreckung bekannt ist. In einem Streifen von ca. 40 Kilometern zieht er von Bamberg über Ulm nach Konstanz. Unter Berücksichtigung der genannten eingrenzenden Kriterien sowie der ortsspezifischen geologisch bedingten Ausschlusskriterien ergeben sich weitere Einschränkungen: Zum Teil liegt der Opalinuston in einer seismisch sehr aktiven Region des Hohenzollern-Grabens oder in einem Gebiet mit bedeutenden Karstgrundwasserleitern. Unter diesen Voraussetzungen verkleinert sich der möglicherweise für die Endlagerung geeignete Bereich des Opalinustons, der hauptsächlich im Alb-Donau Landkreis liegt, auf weniger als ein Viertel des Gesamtgebietes. Weitere mögliche Einschränkungen wären: konkurrierende Nutzung des Gebietes durch Erdöl-/Erdgasförderung, Speicherung von Gas, geothermische Nutzung, Grundwasserschutz, Naturschutz, Existenz von Städten und Gemeinden.

Um diesen Nachweis zu erbringen ist ein aufwändiges Geophysik- und Bohrprogramm mit zahlreichen Tiefbohrungen durchzuführen. Sollte dies gelingen, ist dieser Bereich weiter mit einer größeren Anzahl von Tiefbohrungen auf seine tatsächliche Eignung zu prüfen. Dabei muss die mindestens geforderte 70 Meter mächtige Tonsteinlage, die die einzige geologische Barriere darstellt, stark durchlöchert werden. Bei Gorleben war die „Durchlöcherung“ der Barriere nicht notwendig, da der Salzstock ein „Gesteinsblock“ und keine „Gesteinslage“ wie der Opalinuston ist.

Hinzu kommt: Weltweit gibt es kein großes, kommerziell genutztes untertägiges Tonsteinbergwerk. Deshalb gibt es auch weltweit kaum Erfahrung bezüglich der bergbauspezifischen und gebirgsmechanischen Eigenschaften des Wirtsgesteins Ton (Gorleben: jahrzehntelange Erfahrung im Steinsalzbergbau). Nicht nur deshalb muss ein Untersuchungsbergwerk aufgefahren werden.

Werden die gesellschaftlich bedingten Forderungen wie beschrieben (AKEnd-Bericht) erfüllt, wird es schwierig und sehr teuer werden, einen ausreichend großen homogenen und ungestörten Bereich (10 Quadratkilometer) im Opalinuston einzugrenzen. Denn dort ist eine belastbare, sicherheitsbezogene Bewertung dieses Standorts – nach einer abgeschlossenen Standorterkundung auf der Grundlage einer standort- und konzeptspezifischen Sicherheitsanalyse – auf seine Eignung für ein Endlager nachzuweisen, in dem die Langzeitsicherheit für eine Million Jahre garantiert werden muss. Und das Ergebnis muss besser sein als das bei Gorleben, denn der Bundesumweltminister Peter Altmaier fordert: „… es geht darum, den besten Standort zu finden, nicht ein aus politischen Gründen favorisiertes Endlager …“. [8]

Statements der deutschen Ethikkommission für eine sichere Energieversorgung

„Die von Bundeskanzlerin Angela Merkel (CDU) eingesetzte Ethikkommission zur Energiewende unternahm eine Bestandsaufnahme aller Probleme und Ideen beim Atomausstieg. Die Kommission ist der festen Überzeugung, dass der Ausstieg aus der Nutzung der Kernenergie innerhalb eines Jahrzehnts“ möglich ist. An anderer Stelle heißt es: „Dieses Ziel setzt ein konsequentes, zielorientiertes und politisches Monitoring voraus“, denn der „Ausstieg ist nötig und wird empfohlen, um Risiken, die von der Kernkraft in Deutschland ausgehen, in Zukunft auszuschließen. Er ist möglich, weil es risikoärmere Alternativen gibt“. Als alternativen werden genannt: „Stromerzeugung aus Wind, Sonne, Wasser, Geothermie, Biomasse“. Es wird behauptet, der „schnellstmögliche Ausstieg aus der Kernenergie“ sei „ethisch gut begründet“. Es heißt „Bürgerdialoge und -foren“ seien das „geeignete Instrument, um Entscheidungen zur Energiewende auf allen Ebenen voran zu treiben“. Die „Endlagerung von ‚Atommüll‘ muss bei höchsten Sicherheitsanforderungen rückholbar erfolgen, denn für zukünftige Generationen muss die Option sichergestellt bleiben, Gefahren des ‚Atommülls‘ zu vermindern, wenn entsprechende Technologien verfügbar sein werden.“ Die „Vielfalt und Komplexität der Vorschläge zum Verfahren, den Maßnahmen und den Institutionen der Energiewende machen deutlich, dass es sich in der Tat um ein Gemeinschaftswerk handelt“.

Einschätzung der Risiken nach Energiequellen

Nachdem im Dezember 2012 die UN-Organisation zur Erforschung der biologischen Folgen radioaktiver Strahlung, UNSCEAR, nach Fukushima keine zusätzlichen Krebsrisiken festgestellt hatte, gibt nun auch die Weltgesundheitskommission WHO Entwarnung. Das Krankheitsrisiko habe sich in Japan und weltweit nicht erhöht.

Die Statistik wertete offizielle Zahlen und Schätzungen aus. Der Vergleich zeigt die Todesrate nach Energiequellen an und zwar bezogen auf je eine Billion erzeugter Kilowattstunden (kWh): Kernkraft 90, Wind 150, Solar auf Hausdächern 440, Wasserkraft 1400, Erdgas 4000, Biotreibstoffe/Biomasse 24.000, Öl 36.000, Kohle 100.000. Diese Zahlen machen deutlich, warum andere Länder, einschließlich Japan, auch in Zukunft nicht auf Kernkraft verzichten werden (Finnland, Schweden, Belgien, Großbritannien, Frankreich, Schweiz, Spanien, USA, Brasilien, Südafrika, Südkorea, Taiwan, Japan, Russland, Indien etc.). Die Menschen in diesen Ländern haben eine andere Vorstellung von Ethik als die Deutschen. Dort spricht man schon von „German Ethik“!

Politisches Handeln – der parteiübergreifende Dolchstoß gegen Gorleben

Das mit Unterstützung des früheren Bundeskanzlers Helmut Schmidt (SPD) langfristig angelegte und bis 2000 erfolgreiche deutsche Konzept für die Endlagerung radioaktiver Abfälle, um das uns die Welt beneidet, wurde 1998 nach der Regierungsübernahme von SPD und B’90/Die Grünen, der Ernennung des grünen Politikers Trittin zum Minister des Bundesministeriums für Umwelt, Naturschutz und Reaktorsicherheit und der Ernennung seines Parteigenossen König zum Präsidenten des BfS beendet. Das erste strategische Ziel der damals neuen Regierungskoalition war erreicht. Aus machtpolitischen Gründen konnten nun mit Unterstützung der Medien die weiteren Endlagerarbeiten taktisch geschickt von innen her – aus den Behörden heraus –  subtil gestört, verzögert, unterbrochen und möglichst verhindert werden. Denn man befürchtete zu Recht, weitere Arbeiten würden den positiven wissenschaftlich-technischen Sachstand in Gorleben bestätigen oder gar verbessern. Und man wusste auch, dass die Geologie nicht lügt und sich auch nicht durch ideologische Phrasen manipulieren lässt.

Am 28. Juni 2013 wurde das „Endlagersuchgesetz“ verabschiedet, das jedoch Endlagersuch- und Endlageruntersuchungsgesetz heißen müsste, denn nach Aussage von Bundesumweltminister Peter Altmaier „geht es darum, den besten Standort zu finden“ und „nicht ein aus politischen Gründen favorisiertes Endlager“, wobei „der Kompromiss beinhaltet, dass der bisherige Standort Gorleben nicht ausgeschlossen wird“. [9] Das heißt in aller Konsequenz: Zumindest zwei der neuen Standorte sind mittels Bohrungen, mit Schachtabteufen und mit untertägigem Streckenauffahren so genau zu untersuchen und zu bewerten, wie es bei Gorleben der Fall ist. Nur auf der gleichen Basis von Erkenntnissen, die wir von Gorleben haben, kann dann der „relativ“ beste Standort (einen besten Standort gibt es nicht!) auf sachlicher und nicht auf politischer Basis ausgewählt werden. Das bedeutet aber auch, dass zwei der drei Untersuchungsbergwerke wieder nachhaltig zu verfüllen sind, also in den vorherigen Naturzustand zurückgebracht werden müssen.

Das strategische Ziel der Regierungskoalition war erreicht. Aus machtpolitischen Gründen konnten die weiteren Endlagerarbeiten taktisch geschickt von innen her subtil gestört, verzögert, unterbrochen und möglichst verhindert werden.“

Ein weiteres Ergebnis ist: Eine neue Endlagerkommission wird umgehend ernannt, die sich zusammensetzen soll aus sechzehn nicht stimmberechtigten Politikern, sowie aus acht stimmberechtigten Wissenschaftlern und je zwei Vertretern aus NGOs, Wirtschaft, Gewerkschaften und Kirchen. Ein unabhängiger nicht stimmberechtigter Vorsitzender wird die Kommission leiten. Geplant ist auch ein neues Bundesamt für kerntechnische Entsorgung, BkE, mit ungefähr 250 unproduktiven Angestellten. Diese rein politisch motivierte Kraftanstrengung soll bis Ende 2015 festlegen, was in den vergangenen zwanzig Jahren schon ein dutzendmal studiert und aufgeschrieben worden ist.

Nichts dagegen wird zu einem realistischen Zeitplan gesagt. Die Angabe, das Auswahlverfahren – damit ist wohl der Nachweis von einem oder zwei planmäßig festgestellten, langzeitsicheren Endlagerprojekten gemeint, die mindestens dem heutigen Kenntnisstand von Gorleben entsprechen müssen – soll bis ins Jahr 2031 abgeschlossen sein, kann nur als totale Fehleinschätzung bezeichnet werden. Betrachtet man den zu erwartenden Zeitaufwand für die Untersuchungen, die Einbindung der Öffentlichkeit und die begleitenden rechtlichen Verfahren, dürfte es, wie es auf dem Endlagersymposium vom September 2012 hieß, mehr als vierzig Jahre dauern – und zwar vor allem, wenn das „beste“ Endlager gefunden werden soll.

Die Politiker haben keinerlei Vorstellungen von den im Zusammenhang mit dem Nachweis alternativer Endlager wirklich zu erwartenden Gesamtkosten.“

Kein Wunder, dass die Politiker keinerlei Vorstellungen von den bei diesem Nachweis wirklich zu erwartenden Gesamtkosten haben. Man geht unrealistischerweise davon aus, zur Realisierung dieses rein politisch motivierten „Konsensprojektes“ seien zwei Milliarden Euro erforderlich. Demgegenüber beziffert die FAZ vom 01. März 2013 bereits die Verschlusskosten für die Asse mit vier bis sechs Milliarden Euro. Hier stimmen die Relationen nicht. Daher stellt sich zwingend die Frage, welche Schätzung richtig ist!

Auch fehlt jeder Hinweis auf die immensen zusätzlich zu erwartenden Kosten für das Offenhalten von Gorleben und die Verfüllung von zwei Untersuchungsbergwerken. Geschwiegen wird auch über den vorprogrammierten gewaltigen Anstieg der Kosten für die genehmigungsrechtlich problematische längere Zwischenlagerung der hoch aktiven Abfälle an den abgeschalteten KKW-Standorten – insbesondere wenn das Endlagergestein künftig nicht mehr Salz sondern Granit oder Tongestein sein soll. Letztendlich wird nichts zu der Art der Finanzierung und zu den möglichen Schadensersatzklagen gesagt – denn die Politiker wissen, es gibt ja sehr viele willige Steuerzahler, die sie gewählt haben.

Eine weitere Frage ist, ob es ethisch vertretbar ist, unsere Kinder und Kindeskinder mit diesen Kosten zu belasten, die aus einer rein ideologisch motivierten und politisch favorisierten Fehlentscheidung entstanden sind.

Einschätzung des zukünftigen politischen Handelns

Zur Begriffsbestimmung: In einem Endlager müssen die Abfälle für eine Million Jahre nachweisbar sicher verschlossen, also versiegelt werden. In einem Zwischenlager sollen die Abfälle nur für einen begrenzten Zeitraum wie etwa einigen hundert Jahren rückholbar gelagert werden. Aus technischen, genehmigungsrechtlichen und finanziellen Gründen handelt es sich um zwei vollkommen verschiedene Bauwerke! Auch wenn aus Unkenntnis oder politischem Kalkül eine Rückholbarkeit gefordert wird, es bleibt dabei: Zwischenlager gleich Endlager ist ein Widerspruch in sich!

Beschäftigt man sich näher mit dem vom BMU/BfS initiierten AKEnd-Bericht, dann sollte man erwarten, dass in ihm alle Themen, die die Standortsuche beeinflussen, auch abgehandelt werden. Das ist jedoch nicht der Fall. Es ist ein stark ideologisch geprägter Bericht, denn die Gesamtkomplexität der Endlagerung kommt nur teilweise zum Ausdruck. Er befasst sich hauptsächlich nur mit zwei Themenbereichen.

Sehr ausführlich werden die geologischen Grundlagen für die Standortsuche eines Endlagers in verschiedenen Gesteinsformationen beschrieben. Dieser Teil besteht zur Hälfte aus Einschüben über geforderte und sehr genau erklärte Verfahrensschritte während der Erkundung unter Berücksichtigung der Beteiligung der Öffentlichkeit.

Mit dem natürlichen Endlager Oklo liefert die Natur auch für Ideologen den Beweis, dass ein langfristiges nachhaltiges Einschließen von ‚radioaktivem Abfall‘ in der Natur möglich und auch nachgewiesen ist.“

Leider fehlt, wohl aus ideologischen Gründen, der Hinweis auf das „natürliche Endlager Oklo“ im afrikanischen Gabun. Denn vor ca. zwei Milliarden Jahren gab es dort an der Grenze von Tongesteinen zu Sandsteinen in hoch konzentrierten Uranerzgängen mehrere „Kern-Reaktoren“, die über mehrere hunderttausend Jahre funktionierten. Dabei wurde eine Wärme von rund 100 Milliarden Kilowattstunden frei (bei einem modernen KKW entspricht das einer Betriebszeit von vier Jahren). Ungefähr vier Tonnen Plutonium und rund zehn Tonnen Spaltprodukte sind entstanden. Die bei Oklo gebildeten Spaltprodukte und deren Migration in den Sandsteinen wurden genauestens untersucht und die Ergebnisse hätten im AKEnd-Bericht genannt werden müssen. Denn hier liefert die Natur auch für Ideologen den Beweis, dass ein langfristiges nachhaltiges Einschließen von „radioaktivem Abfall“ in der Natur möglich und auch nachgewiesen ist. Wenn die geologisch-geochemischen Voraussetzungen stimmen ist das realistisch – und zwar für Millionen oder gar Milliarden Jahre.

Abgesehen von einigen wenigen Hinweisen fehlt in dem AKEnd-Bericht, der für die Meinungsbildung der Öffentlichkeit also auch für Politiker und Journalisten konzipiert ist, außerdem eine Zusammenfassung der wichtigsten Erkenntnisse zu den Explorations- bzw. Untersuchungsmethoden wie geophysischen Analysen, Bohrungen etc. (Barrierenschutz!), die für eine spezifische Standortsuche besonders wichtig sind. Das gleiche gilt für den gesamten technischen Bereich wie für den Bau, den sicheren Betrieb und den langzeitsicheren Verschluss. Ein Beispiel wäre der Nachweis des Verhaltens von technischen Barrieren für eine Million Jahre. In dem BGR-Bericht, „Tongesteinsformationen“ von 2007 wurde das zum Teil nachgeholt.

Im Gegensatz dazu ist im besagten AKEnd-Bericht das letzte Kapitel zur Beteiligung der Öffentlichkeit über dreißig Seiten lang. Hier werden nochmals die geforderten gesellschaftlichen Randbedingungen präzisiert, die bei der Suche nach einem neuen Standort eingehalten werden müssen. Dieser Ansatz findet seinen Ausdruck dann auch in der Besetzung der neuen Endlagerkommission, die im Juni 2013 beschlossen wurde. Beispielhaft werden in dem Bericht genannt: Umfassende Information zwecks Kontrolle des Verfahrens, der Berücksichtigung regionaler Interessen und der Beteiligung bei der Entscheidungsfindung durch Plattformen, Kompetenzzentren, Runde Tische und Bürgerforen. Die Bevölkerung ist durch den Verfahrensbetreiber (BMU/BfS) umfassend zu informieren und letzterer hat Veranstaltungen für Diskussionen durchzuführen etc. Entsprechend hieß es im Bericht der Ethikkommission bereits, Bürgerdialoge und -foren seien geeignete Instrumente, um Entscheidungen zur Energiewende auf allen Ebenen voran zu treiben.

Die Verfahrensbetreiber müssten sich verpflichten, Desinformation öffentlich richtig zu stellen, um die von ihnen beschworene Transparenz gegenüber der Öffentlichkeit zu gewährleisten.“

All diese im letzten Teil des AKEnd-Berichtes geforderten Maßnahmen, die allerdings zum sicheren Betrieb und vor allem zur Beweisführung für die Langzeitsicherheit des Endlagers absolut nichts beitragen, wären trotzdem aus gesellschaftlichen Gründen zu unterstützen. Voraussetzung dafür ist jedoch, eine ideologiefreie Information durch die Verfahrensbetreiber (BMU/BfS), keine gezielten Desinformationen oder Halbwahrheiten, keine unvollständigen Sachverhalte oder bewusste Falschmeldungen oder gar das Zurückhalten von Informationen. Die Verfahrensbetreiber müssten sich verpflichten, Desinformation öffentlich richtig zu stellen, um die von ihnen beschworene Transparenz gegenüber der Öffentlichkeit zu gewährleisten. Bei der Einbindung der Öffentlichkeit in die recht komplexe Thematik der Endlagerung müsste – möglichst auf internationaler Ebene – eine neutrale Berichterstattung der Medien und Presse eingefordert werden. Auch die Desinformationen von spendenhungrigen Ökomultis müssten zurückgewiesen werden. Das entspricht jedoch nicht der Realität, und daher werden diese Vorschläge in Wirklichkeit alles andere als zielführend sein.

Fasst man die Bewertung des AKEnd-Berichtes zusammen, so kommt man zu dem Ergebnis: Es ist ein ideologisch geprägtes Papier unter dem Deckmantel eines guten geologischen Berichtes. Die Beweisführung ist dazu recht einfach: Der Bericht wurde 2002 veröffentlicht. In den vergangen zehn Jahren hätten die Verfahrensbetreiber (BMU/BfS) nun beweisen können – wie in dem Bericht gefordert –, dass sie es mit der Transparenz ernst meinen und die Öffentlichkeit künftig mit einer sachlichen, ehrlichen und nicht ideologisch gefärbten Berichterstattung über die Endlagerung informieren wollen. Für Gorleben war in der Vergangenheit trotzdem das Gegenteil der Fall, wie in der Einleitung des vorliegenden Artikels bezüglich der Eignung Gorlebens gezeigt wurde.

Weder in der Presse noch in den Medien wurde in den vergangenen zehn Jahren dieser Sachverhalt deutlich angesprochen. Die öffentliche Wahrnehmung von Gorleben ist deshalb seit zehn Jahren von Falschmeldungen geprägt.

In Zukunft wird leider das gleiche gelten. Gleichgültig ob eine neue Behörde geschaffen wird, gleichgültig wer in den verschiedensten Kommissionen sitzen wird, gleichgültig was ausgewiesene Wissenschaftler, Ingenieure, Kaufleute und Juristen sagen werden.

Machtpolitiker, spendenhungrige NGOs, beamtete Soziologen und viele mehr werden weiter knallhart ihre Eigeninteressen verfolgen. Von diesen wird keine Lösung des Endlagerproblems kommen, weil nicht gewünscht!“

Machtpolitiker, spendenhungrige NGOs, beamtete Soziologen und viele mehr werden weiter knallhart ihre Eigeninteressen verfolgen. Von diesen wird keine Lösung des Endlagerproblems kommen, weil nicht gewünscht! Das Gegenteil ist der Fall! Es wird eine massive Verhinderungspolitik betrieben! Das Thema „Atom“ und die in Deutschland aufgeputschte kollektive Angst davor dürfen nicht verschwinden – obwohl der UNSCEAR-Bericht eine solche Angst gar nicht rechtfertigt! Kernkraft 90 Tote bezogen auf je eine Billion erzeugter Kilowattstunden (kWh), wenig CO2; Kohle 100 000 Tote bezogen auf je eine Billion erzeugter Kilowattstunden (kWh), viel CO2. Es ist die Taktik der Verschleppung, das lange währende Faustpfand der rotgrünen Ökobewegung für ihre Zukunft:

·       Deshalb wird nicht die günstigste und ethisch beste Lösung für eine abschließende Untersuchung Gorlebens gewählt.

·       Es wird auch nicht die zweitbilligste, ethisch schwerer vertretbare Lösung gewählt, der zufolge Gorleben zu schließen wäre und in vierzig Jahren die Endlagersuche wieder von vorne zu beginnen oder die Abfälle im Ausland zu vergraben oder durch Transmutation aufzuarbeiten wären.

·       Nein! Gemäß der „German Ethik“ wird die teuerste und unethischste Variante gewählt: Die endlose technische Suche nach einem neuen Standort, begleitet wie bisher von politisch geschickt gesteuerten Verhinderungsaktionen. Und das so lange, bis vielleicht wie in Brasilien wegen Zahlungen in Milliardenhöhe an korrupte Baufirmen auch in Deutschland eine neue Generation auf die Barrikaden geht, weil Milliarden für Solar-, Wind- und Subventionsgewinnler sowie für eine neue Standortsuche in den Sand gesetzt werden.

Fortschrittsangst und Ökowende

Wie ist es zu verstehen, dass nur in Deutschland, nicht dagegen in Finnland, Belgien, Schweden, Großbritannien, Frankreich, Schweiz, Spanien, USA, Brasilien, Südafrika, Südkorea, Taiwan, Japan,  Russland, Indien etc., aus guten und gesellschaftlich nützlichen Ideen wie Naturschutz, Umweltschutz, Ökologie eine erfolgreiche politische Bewegung entstehen konnte, die mit nicht demokratisch legitimierten und mit reichlich Spenden gefütterten NGOs kooperiert. Wie ist es möglich, dass diese Kooperation gezielt mittels subtiler Desinformation, Verkündung von Halbwahrheiten, Verschweigen von Tatsachen sowie mit pseudowissenschaftlichen Argumenten unter Beschwörung der von ihnen definierten Nachhaltigkeit mit politischer Raffinesse solchen großen Einfluss und derartige Macht erschleichen konnten? Und das alles im Namen der Ökologie, im Namen des Naturschutzes. Warum?

Geht Deutschland im Unterschied zum Rest der Welt einmal mehr einen Sonderweg? Im Bericht der Ethikkommission von 2010 heißt es, „der Ausstieg ist nötig und wird empfohlen, um Risiken, die von der Kernkraft in Deutschland ausgehen, in Zukunft auszuschließen. Er ist möglich, weil es risikoärmere Alternativen gibt“ und als Alternativen werden genannt: „Stromerzeugung aus Wind, Sonne, Wasser, Geothermie, Biomasse“.

Die Vorstellungen von Fortschritt und Industrie sollen heute Angst erzeugen, indem sie mit negativen Assoziationen verknüpft werden – nach dem Motto: Die modernen Technologien verschmutzen die Luft, verstrahlen die Menschen, verpesten das Essen, lassen die Meeresspiegel ansteigen und die Wälder sterben.

Der politische Nährboden für eine Öko-Wende ist vorbereitet und im Schatten geduldig mit dem Samen der „German Angst“ gedüngt. Im Herbst wird dann erfolgreich die Ernte eingefahren: die grüne Bewegung hat ihr Ziel erreicht: die Macht – egal in welcher Konstellation!

Dr. Helmut Fuchs ist Geologe und Fachmann für Uranlagerstätten.

Übernommen von NOVO Argumente hier

Anmerkungen

1 Dazu zählen P-E. Ahlström, Swedish Nuclear Fuel and Waste Management, SKB; D.C. Alexandre, French Agency for Waste Management, ANDRA; C. Heath, US Department of Energy, DOE; K.Kühn, Institut für Tieflagerung, GSF; C. McCombie, NAGRA, Schweiz; W.D. Weart, WIPP, USA.
2 International Expert Group Gorleben: Repository Project Gorleben – Evaluation of the Present Situation, online 31.07.2013.
3Arbeitskreis Auswahlverfahren Endlagerstandorte: Auswahlverfahren für Endlagerstandorte – Empfehlungen des AKEnd, online 31.07.2013.
4bgr.bund.de/DE/Themen/Endlagerung/Aktuelles/2006_02_20_aktuelles_stellungnsynthese_ausf.html
5Pressemitteilung des BfS, online 31.07.2013.
6Die Ergebnisse wurden allerdings vom BMU noch nicht veröffentlicht.
7BfS, AKEnd-Bericht, 2002; BGR, Tongesteinsformationen, 2007
8FAZ vom 29. Juni 2013
9FAZ vom 29. Juni 2013




Fukushima lässt Wasser! Neue Schreckensmeldungen in deutschen Medien

Fukushima im August 2013

Was geschah

Das Erdbeben mit seinem Tsunami hat nicht nur das oberirdische Kraftwerksgelände verwüstet, sondern auch unterhalb erhebliche "Veränderungen" bewirkt. Die gesamte Küstenlinie, auf der das Kraftwerk steht, ist heute etwa einen Meter tiefer gelegen! Für uns Mitteleuropäer, ist so etwas kaum vorstellbar. Logisch ist allerdings, daß nach einem so gewaltigen Schlag, auch unterhalb der Erde nichts mehr so ist, wie es vorher war. Rohre sind geborsten (auch Kernkraftwerke haben Toiletten und Trinkwasseranschlüsse), Kellerwände rissig geworden und Grundwasserleiter verändert. Es mag sich simpel anhören, aber auch der Grundwasserspiegel liegt nun entsprechend höher, da ja der Meeresspiegel gleich geblieben ist. Alles zusammen, führt zu einem beständigen Eindringen von Grundwasser in die "unterirdischen" Bereiche des Kraftwerks. Bei einer solchen Gemeinschaftsanlage (vier Reaktoren in einer Reihe nebeneinander) kamen noch etliche — teilweise begehbare — Verbindungstunnel hinzu. Nebenbei gesagt, wäre eine solche Konstruktion in (der Bundesrepublik) Deutschland nie genehmigungsfähig gewesen. Trotzdem hat eine ehemalige Pionierleiterin — erfolgreich nach dem Beifall einschlägiger Kreise heischend — aus diesem Unglück den Schluß gezogen, Kernkraftwerke in Deutschland sofort abzuschalten. Vielleicht war es für sie ja wirklich ein verspäteter Beitrittsschock, daß ein solches "Reaktorunglück in einem Hochtechnologieland, wie Japan" möglich war. Vor der Einfalt jedenfalls, konnte der "Anti-Faschistische-Schutzwall" offensichtlich auch nicht bewahren.

Der aktuelle Vorfall

Wieder einmal ist eine Leckage bei den Abwassertanks aufgetreten. Diese Zwischenlagerung radioaktiven Wassers entwickelt sich zu einem Dauerbrenner. Bei dem betroffenen Tanklager handelt es sich um 26 genietete Tanks mit jeweils 1000 m3 Inhalt. Sie sehen schon so aus, als wenn sie mindestens aus der Vorkriegszeit stammen. Das Tanklager befindet sich auf einem Hügel, etwa 500 m vom Kraftwerk entfernt. Weil die Nähte bereits mehrfach undicht wurden, hat man um jeden Tank ein Auffangbecken aus Beton gebaut. Die Becken hätten auch problemlos das auslaufende Wasser vollständig zurückhalten können, wenn nicht die Überläufe (gegen starke Regenfälle; Taifungebiet) geöffnet gewesen wären! So ist ein Teil ausgelaufen und im Boden versickert. An dieser Stelle ist nun ein Bodenaustausch notwendig. Alles in allem, ein eher peinlicher Vorfall. Für deutsche "Qualitätsmedien" ein gefundenes Fressen. Aus dem meldepflichtigen Vorfall nach Kategorie 1, wird flugs eine "nukleare Katastrophe". Ob das einfach nur mangelnde Sachkenntnis oder schiere Boshaftigkeit ist, mag der Leser selbst entscheiden.

Der Weg des Wassers

Nach Schätzungen von TEPCO fließen jeden Tag etwa 1000 m3 Wasser aus den umliegenden Hügeln durch das Kraftwerksgelände. Davon fließen etwa 300 m3 unkontaminiert ins Meer. Weitere 300 m3 fließen unterhalb des Geländes und mischen sich mit dem Grundwasser, welches durch Ebbe und Flut mit dem Hafen ausgetauscht wird. Diese Menge ist entsprechend radioaktiv belastet. Die restlichen etwa 400 m3 dringen durch diverse Risse in die Kanäle, Keller etc. ein und müssen ständig abgepumpt und gelagert werden.

Mit der radioaktiven Belastung ist das so eine Sache: Im Hafen wird praktisch nur Tritium festgestellt. Dies ist auch keinesfalls verwunderlich. Bodenschichten wirken wie  Filter, die radioaktive Partikel zurückhalten. Jeder Boden ist ein — mehr oder weniger guter — Ionentauscher, in dem die meisten radioaktiven Stoffe gebunden bleiben und allenfalls nur sehr langsam wieder abgegeben werden. Lediglich Tritium (ein Wasserstoffisotop) bildet "strahlendes" Wasser und fließt ungehindert mit ins Meer. Die Mengen sind jedoch so gering, daß sie schon außerhalb des Hafens unter der Nachweisgrenze liegen.

Die im Boden gebundene Radioaktivität dürfte wohl kaum in die Biosphäre gelangen. Bei dem Grundwasser im Gelände handelt es sich um Meer- bzw. Brackwasser. Die Nahrungskette über Pflanzen und Tiere dürfte kaum wirksam werden. Sind die Stoffe nicht oder nur schwer löslich, verbleiben sie im Boden. Sind sie leicht löslich, werden sie im offenen Meer sehr schnell verdünnt und stellen somit auch kaum ein Strahlenrisiko dar. Die ohnehin im Meer vorhandenen radioaktiven Stoffe (Uran, Kalium etc.) überwiegen.

Die Gegenmaßnahmen

Es sind zwei Quellen zu verstopfen: Den Zufluß von Grundwasser auf das Gelände und die Leckagen aus den Reaktoren. Als weitere Maßnahme bietet sich die Abdichtung gegen das Meer an. 

Die Eindämmung des Zuflusses von Grundwasser ist schon recht weit fortgeschritten. Man führt oberhalb des Geländes eine permanente Grundwasserabsenkung mit Brunnen durch und hat Bypässe geschaffen, die das Regenwasser an dem Gelände vorbei führen. Durch diese Maßnahmen hat sich der Zufluß von Grundwasser in die Gebäude beträchtlich verringert. Hafenseitig ist eine Abdichtung der wasserführenden Schichten in Arbeit und ebenfalls eine Grundwasserabsenkung mit 30 Pumpen im Bau. Durch die Kombination aus Verstopfung der porösen Schichten mittels Wasserglas und Grundwasserabsenkung soll der Wasseraustausch mit dem Hafen unterbrochen werden. Zur Zeit wird der tägliche Austausch auf 35 m3/Tag geschätzt. Ferner wird untersucht, ob es sich lohnt, den Boden unterhalb des kompletten Kraftwerks bis in eine Tiefe von 40 m einzufrieren. Dieser Eisblock würde eine sichere Abdichtung herstellen, die für die gesamte Zeit bis zu einem sicheren Einschluß (geschätzt 10 Jahre) aufrecht erhalten werden könnte. Dieses Verfahren wird z. B. im Tunnelbau seit Jahrzehnten genutzt.

Der Eispanzer würde gleichzeitig das Auslaufen von radioaktivem Wasser aus den Gebäuden und das Eindringen von Grundwasser verhindern. Viel schwieriger ist die Bekämpfung der Quelle: Letztendlich muß sie durch die Entfernung des Brennstoffes aus den Reaktorruinen beseitigt werden. Bis dahin, müssen die Leckagen im Sicherheitsbehälter gefunden und abgedichtet werden. 

Inzwischen weiß man, daß der größte Teil der Lecks unterhalb des Wasserstandes im Sicherheitsbehälter liegt. Das erschwert die Sache erheblich: Das Wasser ist trübe und an diesem Ort herrscht eine sehr hohe Strahlung. Die Arbeiten können deshalb nicht durch Menschen  ausgeführt werden. Außerdem müssen die Abdichtungen in strömendem Wasser durchgeführt werden, da bis auf weiteres, die Kühlung der Brennelemente gewährleistet bleiben muß. Wenn es gelingt, den Ringraum der Kondensationskammer und den unteren Teil des Reaktordruckbehälters abzudichten, kann kein radioaktives Wasser mehr in das Gebäude auslaufen und man erhält wieder einen einfach kühlbaren "geschlossenen Kreislauf". Bisher existieren aber bestenfalls Ansätze einer Lösung.

Das radioaktive Wasser

Inzwischen lagern bereits große Mengen kontaminierten Wassers auf dem Gelände. Bis zum Jahr 2015 rechnet man mit 700.000 m3 . Die Bandbreite geht dabei von stark belastet, bis kaum noch belastet.  So hat man eine Pfütze gefunden, die mit 100 mSv pro Stunde gestrahlt hat. Zur Zeit wird von Toshiba eine MRRS (Multi Radionuclide Removal System) Anlage errichtet. Sie wird das Wasser voll entsalzen und soll die radioaktiven Stoffe bis unter die Nachweisgrenze entfernen. Eine eher fragwürdige Angelegenheit. Trinkwasserqualität täte es auch. Von handelsüblichen Mineralwässern gar nicht zu reden. Aber die Japaner scheinen in eine Art von Büsserritual verfallen zu sein. Dies zeigt sich schon bei der Dekontaminierung der derzeitigen Sperrbezirke. Eine Rückkehr ist nur erlaubt, wenn die Dosisleistung kleiner als 20 mSv/Jahr ist. In vielen Gegenden Japans ist die natürliche Strahlenbelastung höher. Vielleicht sollte man aber einfach nicht vergessen, daß so niedrige Grenzwerte, zu Milliardenumsätzen bei einschlägig tätigen Firmen führen.

Der Beitrag erschien zuerst auf der Website von NUKE-Kaus hier




Mittelalterliche Warmzeit in der Arktis – Zusammenfassung

Nach der Kleinen Eiszeit, berichten sie, ist die Temperatur erneut gestiegen, dass sie jedoch „während der letzten Jahrzehnte abgenommen hat“. Dies zeigt, dass die MWP in diesem Teil der Arktis signifikant wärmer war als vor der letzten Jahrtausendwende.

Auch Wagner and Melles (2001) arbeiteten über Grönland, wo sie einen 3,5 Meter langen Sediment-Bohrkern aus einem See (Raffels So) auf einer Insel (Raffels O) nahe Liverpool Land an der Ostküste Grönlands extrahiert hatten. Darin analysierten sie eine Anzahl von Eigenschaften in Bezug auf das Vorhandensein von Meeresvögeln. So erhielten sie eine 10000 Jahre lange Aufzeichnung, die ihnen viel über die Klimahistorie der Region verriet. Schlüsselpunkt der Studie waren biogeochemische Daten, welche den Worten der beiden Forscher zufolge „Variationen des Brutverhaltens von Seevogel-Kolonien im Einzugsgebiet belegen, die die Nährstoffversorgung und den Zufluss von Kadmium in den See“ spiegeln.

Diese Daten enthüllten scharfe Zunahmen der Werte der Parameter zwischen etwa 1100 und 700 Jahren vor heute. Das deutet auf die sommerliche Präsenz einer signifikanten Anzahl von Seevögeln während jener „MWP“ hin, wie Wagner und Melles es beschrieben haben. Vorangegangen war die Kaltzeit des Dunklen Zeitalters [the Dark Ages Cold Period] mit der Gegenwart nur weniger oder gar keiner Vögel. Und nach jener „MWP“ zeigten ihre Daten erneut „eine nachfolgende Kleine Eiszeit“, vor der sie sagten, dass es „die kälteste Periode seit dem frühen Holozän in Ostgrönland“ war.

Die Daten von Raffels So zeigten ebenfalls Anzeichen einer Wiederansiedlung von Seevögeln während des vorigen Jahrhunderts, gekennzeichnet durch eine Zunahme organischer Stoffe in den See-Sedimenten und bestätigt durch Vogelzählungen. Allerdings waren die Werte der jüngsten Messungen der Seevogel-Zahlen nicht so groß wie während der frühen MWP. Das zeigt, dass während langer Zeiträume in jener Periode von vor 1100 bis 700 Jahren höhere Temperaturen vorherrschend waren als während der letzten 100 Jahre.

Eine dritte Grönland-Studie wurde von Kaplan et al. (2002) durchgeführt, die eine klimatische Historie des Holozäns ableiteten durch eine Analyse physikalisch-chemischer Eigenschaften in den Sedimenten aus einem kleinen See im Südteil von Grönland. Diese Arbeit enthüllte, dass der Zeitraum von vor 6000 bis 3000 Jahren durch Wärme und Stabilität gekennzeichnet war, dass sich jedoch das Klima danach abgekühlt hatte bis zum Höhepunkt während der Kleinen Eiszeit. Vor 1300 bis 900 Jahren jedoch gab es eine teilweise Verbesserung während der MWP, die mit einem geschätzten Temperaturanstieg um 1,5°C verbunden war.

In einer nicht aus Grönland stammenden Studie haben Jiang et al. (2002) Ansammlungen von Diatomeen analysiert, und zwar aus einem hoch aufgelösten Kern, der aus dem Grund des Nordisland-Schelfs stammte. Dies führte sie zu ihrer Rekonstruktion der 4600-jährigen Geschichte der sommerlichen Wassertemperatur an dieser Stelle. Zum Startzeitpunkt vor 4400 Jahren lag der Wert etwa bei 8,1°C. Danach hat sich das Klima 1700 Jahre lang abgekühlt und noch konsistenter während der letzten 2700 Jahre dieser Aufzeichnung. Die dramatischste Abweichung dieser langzeitlichen Abkühlung konzentrierte sich um die Zeit vor 850 Jahren während der MWP, als die Temperatur um mehr als 1°C über die Linie gestiegen ist, die den langzeitlichen Abwärtstrend markiert. Das führte zu einer fast vollständigen Erholung von den kälteren Temperaturen der Dark-Ages-Kaltzeit. Danach haben die Temperaturen ihren Abwärtstrend fortgesetzt bis in die Kleine Eiszeit. Am Ende des Zeitraumes betrug die Temperatur noch 6,3°C. Folglich zeigen ihre Daten eindeutig, dass es in diesem Teil der Arktis während der MWP signifikant wärmer war als heute.

Und weiter! Moore et al. (2001) analysierten Sedimentkerne aus dem Donard See auf der Baffin-Insel in Kanada. Sie gewannen eine 1240 Jahre lange Aufzeichnung mittlerer Sommertemperaturen für diese arktische Region. Während der gesamten Periode von 750 bis 1990 lag die Mitteltemperatur bei etwa 2,9°C. Allerdings war es zu ungewöhnlich warmen Dekaden mit Sommertemperaturen bis zu 4°C um die Jahre 1000 bis 1100 gekommen, während der Donard-See zu Beginn des 13. Jahrhunderts „eine der längsten Klima-Übergangsphasen seit über einem Jahrtausend erlebt hatte“, als „die Sommertemperaturen rapide um 2°C zwischen den Jahren 1195 und 1220 angestiegen waren, was schließlich in die wärmste Dekade jemals mündete mit Temperaturwerten nahe 4,5°C.

Dieser rapiden Erwärmung des 13. Jahrhunderts folgte eine Periode ausgedehnter Wärme, die bis zu einem abrupten Abkühlungs-Ereignis um das Jahr 1375 anhielt. Diese Abkühlung machte die nachfolgende Dekade zu einer der kältesten jemals. Dieses Ereignis signalisierte das Einsetzen der Kleinen Eiszeit, die etwa 400 Jahr lang gedauert hat, bis um das Jahr 1800 ein gradueller Erwärmungstrend einsetzte. Diesem folge ein dramatisches Abkühlungs-Ereignis um das Jahr 1900, wobei die Temperaturen fast auf das Niveau während der Kleinen Eiszeit sanken. Diese Kaltzeit dauerte bis etwa zum Jahr 1950. Danach haben sich die Temperaturen etwa zwei Jahrzehnte lang erwärmt, danach jedoch wieder nach unten tendiert bis zum Ende der Aufzeichnungen im Jahr 1990. Folglich war es auch in diesem Teil der Arktis während der MWP wärmer als heute.

Im folgenden Jahr haben Grudd et al. (2002) Baumring-Weiten aus 880 lebenden, toten und subfossilen nordschwedischen Kiefern in eine ununterbrochene und präzise datierte Chronologie konvertiert, die die Periode von 5407 vor bis 1997 nach Christus abdeckt. Die starke Verbindung zwischen diesen Daten und der mittleren Sommertemperaturen (Juni bis August) der letzten 129 Jahre dieser Zeitspanne ermöglichte es ihnen, eine 7400 Jahre lange Historie dieser Aufzeichnung der mittleren Sommertemperatur im nördlichen Schwedisch-Lappland zu erstellen. Der zuverlässigste Abschnitt dieser Aufzeichnung basierend auf der Anzahl der gesammelten Bäume umfasst die letzten beiden Jahrtausende. Grudd et al. sagen davon: „Es zeigen sich Klimavariationen im Zeitscale von Jahrhunderten, die aus anderen Proxy- und historischen Quellen bekannt sind, einschließlich einer ‚römischen’ Warmzeit in den ersten Jahrhunderten nach der Zeitenwende und der allgemein kalten ‚Dunklen Zeitalter’ während der Jahre von 500 bis etwa 900“. Und weiter: „Die Warmzeit um das Jahr 1000 korrespondiert mit der sog. ‚MWP’, die aus einer ganzen Reihe von Proxies und anderer Quellen bekannt ist“. Und schließlich: „Die Klimaverschlechterung im zwölften Jahrhundert kann als Startzeitpunkt einer ausgedehnten Kaltzeit angesehen werden, die bis ins erste Jahrzehnt des 20. Jahrhunderts gedauert hat“. Ihren Worten zufolge zeigt sich dabei auch die „kleine Eiszeit“, die ebenfalls aus vielen anderen Quellen bereits bekannt ist. Geht man sogar noch weiter zurück in der Zeit, zeigen die Baumringe zahlreiche weitere dieser relativ wärmeren und kälteren Perioden. Und in einem aussagekräftigen Kommentar zu den gegenwärtigen klimaalarmistischen Behauptungen berichten sie, dass „die relativ warmen Bedingungen zum Ende des 20. Jahrhunderts nicht über die zahlreichen Warmzeiten hinausgehen, die in vielen früheren Epochen rekonstruiert worden sind“. Tatsächlich ging die Erwärmung in vielen der früheren Warm-Intervalle über die Erwärmung Ende des 20. Jahrhunderts hinaus.

Seppa and Birks (2002) verwendeten ein vor Kurzem entwickeltes, auf der Verteilung von Pollen basierendes Klimamodell sowie eine neue Pollen-Schichtenfolge aus dem Toskaljarvi-See – ein von Bäumen umstandener See im kontinentalen Sektor von Nord-Fennoskandien (wenig nördlich von 69°N) – um quantitative Schätzungen der jährlichen Niederschläge und der Mitteltemperatur für Juli abzuleiten. Und wie sie schrieben: „unsere Rekonstruktionen stimmen überein mit dem traditionellen Konzept einer ‚MWP’ und einer ‚LIA’ im Gebiet des Nordatlantik (Dansgaard et al.1975) sowie dem nördlichen Fennoskandien (Korhola et al. 2000)“. Außerdem berichten sie: „Es zeigte sich eine klare Korrelation zwischen (ihrer) Rekonstruktion der MWP und zahlreichen Aufzeichnungen aus grönländischen Eisbohrkernen“ und weiter: „Vergleiche einer geglätteten Temperaturaufzeichnung für Juli am Toskaljarvi-See mit gemessenen Bohrloch-Temperaturen des GRIP [?] und der Dye 3-Eisbohrkerne (Dahl-Jensen et al., 1998) sowie die ð18O-Aufzeichnung des Bohrkerns aus dem Crete-Eisbohrkern (Dansgaard et al., 1975) zeigen eine starke Ähnlichkeit des zeitlichen Ablaufs der MWP zwischen den Aufzeichnungen“. Und schließlich schreiben sie: „Die Juli-Temperaturen während der MWP (vor etwa 1400 bis 1000 Jahren) lagen um etwa 0,8°C höher als heute“, wobei mit ‚heute’ die letzten sechs Jahrzehnte des 20. Jahrhunderts gemeint sind.

Mit der Vorgabe, dass Temperaturänderungen in hohen Breiten erstens empfindliche Indikatoren globaler Temperaturänderungen sind und dass sie zweitens als Basis zur Verifikation von Klimamodellrechnungen verwendet werden können, haben Naurzbaev et al. (2002) eine 2427 Jahre lange Temperaturhistorie aus Proxies für den Teil der Taimyr-Halbinsel in Nordrussland entwickelt, der zwischen 70°30’N und 72°28’N liegt, und zwar basierend auf einer Studie von Baumring-Weiten lebender und konservierter Lärchen. Außerdem schreiben sie: „es ist gezeigt worden, dass der hauptsächliche Treiber der Variabilität von Baumringen an der polaren Waldgrenze“ (wo sie ihre Studie durchgeführt haben) „die Temperatur ist (Vaganov et al., 1996; Briffa et al., 1998; Schweingruber und Briffa, 1996)“. Dabei kamen sie zu dem Ergebnis, dass „die wärmsten Epochen der letzten zwei Jahrtausende in diesem Gebiet eindeutig im dritten (Römische Warmzeit), vom zehnten bis zum zwölften (MWP) und während des zwanzigsten Jahrhunderts waren“.

Hinsichtlich der zweiten dieser Epochen betonen sie, dass „die Wärme der beiden Jahrhunderte 1058 bis 1157 sowie 950 bis 1049 die Realität der relativen Wärme im Mittelalter in diesem Gebiet unterstreicht“. Ihre Daten zeigen auch drei andere wichtige Informationen: 1. Sowohl die römische als auch die Mittelalterliche Warmzeit waren wärmer als die gegenwärtige Warmperiode, 2. der „Anfang vom Ende“ der Kleinen Eiszeit lag irgendwo um das Jahr 1830 und 3. die gegenwärtige Warmperiode erreichte ihren Spitzenwert um das Jahr 1940.

Alle diese Beobachtungen stehen im Gegensatz zu der tausendjährigen Hockeyschläger– Temperaturhistorie von Mann et al. 1998, 1999) sowie der tausendjährigen globalen Ausdehnung von Mann und Jones 2003, worin 1. die gegenwärtige Warmzeit als die wärmste der letzten zwei Jahrtausende genannt wird, 2. die Erholung aus der Kleinen Eiszeit erst nach dem Jahr 1910 begonnen hat und 3. dass die höchsten Temperaturen der gegenwärtigen Warmperiode in der zweiten Hälfte der letzten Dekade des vorigen Jahrhunderts aufgetreten waren.

Zwei Jahre später haben Knudsen et al. (2004) klimatische Änderungen während der letzten 1200 Jahre dokumentiert mittels hoch aufgelöster Multi-Proxy-Studien von benthonischen [Das Benthos (auch Benthon, einzeln: der Benthont) ist die Gesamtheit aller in der
Bodenzone eines Gewässers, dem Benthal, vorkommenden Lebewesen. Quelle: Wikipedia] und planktonischer Ablagerungen von Foraminiferen, stabilen Isotopen und der Grundmoräne von Gletschern, die in drei Sediment-Bohrkernen aus dem Schelf von Nordisland stammen. Diese Arbeit zeigte, dass „der Zeitraum zwischen dem Jahr 1200 und 700 bis 800 Jahre vor heute einschließlich der MWP charakterisiert war durch relativ hohe Wassertemperaturen und Temperaturen am Meeresboden. Nach dieser Zeit markiert eine allgemeine Temperaturabnahme in dem Gebiet den Übergang … in die Kleine Eiszeit“. Sie betonen auch, „dass das Minimum der Wassertemperatur vor etwa 350 Jahren vor heute erreicht worden war, als zahlreiche Proxies sehr kalte Bedingungen zeigten“. Danach berichten sie „von einer modernen Erwärmung der Oberflächen-Gewässer … die nicht in den Proxy-Daten erscheint“ und dass es „keinen klaren Hinweis auf eine Erwärmung der Wassermassen in dem Gebiet während der letzten Jahrzehnte“ gibt, selbst bei den gemessenen Wassertemperaturen während des Zeitraumes 1948 bis 2002.

Weitere zwei Jahre später entwickelten Grinsted et al. (2006) ein „Modell der chemischen Aufspaltung im Eis basierend auf unterschiedlichen Auswaschungsraten für Ionenpaare … als Proxy für die sommerliche Schmelzperiode (1130 bis 1990). Grundlage waren Daten aus einem 121 Meter langen Eisbohrkern, gezogen aus dem höchsten Eisfeld in Svalbard (Lomonosovfonna: 78°51’53"N, 17°25’30"E). Dieses Modell wurde „mit den instrumentellen Aufzeichnungen des 20. Jahrhunderts und längeren historischen Klima-Proxies validiert“. Diese Historie zeigte, dass „im ältesten Teil der Bohrkerns (1130 bis 1200) die Auswaschungs-Indizes mehr als vier mal höher lagen als während des vorigen Jahrhunderts. Das zeigt eine hohe Rate abfließenden Schmelzwassers“. Weiter sagten sie, dass sie seit dem Jahr 1997 Schneedecken-Untersuchungen nahe der Bohrstelle durchgeführt hatten (Virkkunen 2004) und dass „der sehr warme Sommer 2001 zu einem ähnlichen Ionenverlust und Auswaschungsraten wie im ältesten Teil des Bohrkerns geführt habe“. Danach stellen sie fest: „Dies zeigt, dass die sommerlichen Bedingungen während der MWP in Svalbard genauso warm (oder wärmer) waren als heute. Das ist konsistent mit der Temperaturrekonstruktion der Nordhemisphäre von Moberg et al. 2005“. Sie folgerten: „der Grad der Sommerschmelze war während des Zeitraumes von 1130 bis 1300 signifikant größer als in den neunziger Jahren“. Mit anderen Worten, in der MWP war es lange Zeit signifikant wärmer als während der Wärmespitze (die neunziger Jahre) der gegenwärtigen Warmperiode.

Wieder zwei Jahre später haben Besonen et al. (2008) Tausend-Jahre-Abfolgen der Dicke von Tonablagerungen und Sediment-Akkumulationsraten für den Lower Murray-See in Kanada abgeleitet (81°20’N, 69°30’W). Dieser ist normalerweise 11 Monate im Jahr mit Eis bedeckt, das eine Dicke von 1,5 bis 2 Meter zum Ende jeden Winters erreichen kann. Unter Berücksichtigung dieser Parameter schreiben sie unter Berufung auf sieben andere Studien, dass „Messungen an Seen der Hocharktis klar zeigen, dass Sediment-Transporte und die Dicke von Tonschichten mit der Temperatur in der kurzen Sommerperiode zusammen hängen, die in diesem Gebiet vorherrschend ist, und es gibt keinen Grund für die Annahme, dass das am Lower Murray-See anders sein sollte“.

Was also haben sie nun gefunden? Wie es die sechs Wissenschaftler beschreiben, lautet die Geschichte, die die Tonschichten-Dicke und die Sediment-Akkumulationsraten schreiben, dass es am Lower Murray-See „während des 12. und 13. Jahrhunderts relativ warm war“, und in dieser Hinsicht muss man darauf hinweisen, dass es ihren Daten zufolge am Lower Murray-See und in der Umgebung während dieser Zeit (1080 bis 1320) oftmals viel wärmer war als zu irgendeinem Zeitpunkt im 20. Jahrhundert. Dies wurde auch für den Donard-See (66.25°N, 62°W) von Moore et al. 2001 nachgewiesen.

Zeitgleich haben Wagner et al. (2008) bei der Arbeit auf einer fließenden Plattform in der Mitte eines kleinen Sees (Hjort So) auf einer 80 km langen und 10,5 km breiten Insel (Store Koldewey) unmittelbar vor der Küste von Nordostgrönland zwei Sediment-Bohrkerne gezogen mit einer Länge von 70 bzw. 252 cm. Sie haben diese dann stufenweise analysiert auf Korngrößenverteilung, Makrofossilien, Pollen, Diatomeen, Gesamt-Kohlenstoff, Gesamt-organischer Kohlenstoff und viele andere Parameter. Die Sequenzen wurden mittels Massenbeschleunigungsspektrometrie [?] und der Radiokarbon-Methode nach Kalenderjahren vor heute datiert. Diese Arbeiten zeigten, wie sie es beschrieben, „eine Zunahme der auf Produktivität hinweisenden Proxies vor 1500 bis 1000 Jahren, die mit der mittelalterlichen Erwärmung korrespondiert“. Sie fügen hinzu: „Nach dieser mittelalterlichen Erwärmung spiegelt sich eine erneute Abkühlung in der Abnahme der Parameter“ sowie [and a higher abundance of oligotrophic to meso-oligotrophic diatom taxa]“. Und weiter: Und diese Periode, die Kleine Eiszeit, bildete den Höhepunkt kühler Bedingungen während des Holozäns und wird in vielen anderen Aufzeichnungen in Ost- und Nordost-Grönland dokumentiert, bevor die gegenwärtige Warmphase vor etwa 150 Jahren einsetzte“.

Zusätzlich zur offensichtlichen Bedeutung ihrer Beweise für die MWP zeigt das Statement der sechs Forscher, dass die Kleine Eiszeit der Höhepunkt kühler Bedingungen während des Holozäns war, und dass ein solches Abgleiten in extreme Kühle, gefolgt von einer ähnlich extremen Erwärmung nicht ungewöhnlich ist. Das wiederum zeigt, dass der Grad der folgenden Erwärmung im 20. Jahrhundert nicht ungewöhnlich ist, besonders angesichts der Tatsache, dass die Erde noch nicht den Grad der Wärme erreicht hat, der in den meisten Gebieten des Planeten während langer Zeiträume in jener vorigen Warmzeit geherrscht hat.

Ein Jahr später haben Vare et al. (2009) eine neue Methode der Klimarekonstruktion verwendet, die auf der Verwendung eines neuen Biomarkers (IP25) basiert, den sie als einen [mono-unsaturated highly-branched isoprenoid] beschrieben haben. Er wurde synthetisiert aus Diatomeen im Meereis, von denen gezeigt werden konnte, dass sie in Sedimenten unter dem arktischen Eis stabil waren. Zusammen mit „Proxy-Daten, gewonnen aus der Analyse anderer Biomarker, aus stabilen Isotopen-Zusammensetzungen großer Mengen organischer Materie, benthischen Foraminiferen, Größenanordnungen von Partikeln und Verhältnisse anorganischer Elemente“ haben sie eine Frühjahrs-Meereisaufzeichnung in diesem Teil des zentralkanadischen arktischen Archipels entwickelt. [Im Original ist dies vom ersten Wort an lediglich ein einziger Bandwurmsatz! A. d Übers.] Dabei haben sie Beweise entdeckt für eine Abnahme der frühjährlichen Eisbedeckung etwa vor 1200 bis 800 Jahren, was sie mit der „so genannten Mittelalterlichen Warmzeit“ in Verbindung brachten.

Gleichzeitig haben Norgaard-Pedersen and Mikkelsen (2009) bei Arbeiten mit einem Sediment-Bohrkern vom August 2006 aus dem tiefsten Becken des Narsaq Sound in Südgrönland verschiedene Eigenschaften des Materials analysiert, aus denen sie verschiedene „gletscher-maritime, umweltliche und klimatische Änderungen“ ableiteten, zu denen es während der 800 Jahre zuvor gekommen war. Diese Arbeiten zeigten die Existenz von zwei Perioden (vor 2300 bis 1500 bzw. 1200 bis 800 Jahren), die grob mit der Römischen und der Mittelalterlichen Warmzeit zusammen fallen. Die Kaltzeit vor der MWP identifizierten sie als die Kaltzeit der Dark Ages und die der MWP Folgende als die Kleine Eiszeit. Und unter Verweis auf die Arbeiten von Dahl-Jensen et al. (1998), Andresen et al. (2004), Jensen et al. (2004) and Lassen et al. (2004) sagten die beiden dänischen Wissenschaftler, dass die in den Arbeiten jener Forscher identifizierten Kalt- und Warmphasen in der Aufzeichnung aus dem Narsaq Sound wiedergefunden werden konnten. Das sind weitere Beweise für die Realität des aus natürlichen Gründen auftretenden Phänomens, dass diese Klima-Oszillation im Zeitscale von Jahrtausenden bestimmt.

Ein Jahr später haben Vinther et al. (2010) 20 Eisbohrkern-Aufzeichnungen von 14 verschiedenen Stellen analysiert, die allesamt zeitlich 200 Jahre zurück reichten, und dies zusammen mit Boden-Temperaturdaten an 13 Stellen entlang der südlichen und westlichen Küsten von Grönland, die etwa das gleiche Zeitintervall abdeckten (1784 bis 2005) plus einem ähnlichen Temperatur-Datensatz aus Nordwest-Island (wovon die Autoren sagten, dass er „als Klimaindikation östlich des grönländischen Eisschildes fungieren“ solle). Diese Arbeit zeigte, dass das Sauerstoffisotop ð18O „die beste Proxy der Temperaturen in Grönland“ darstellte. Basierend auf dieser Bestimmung und unter Verwendung dreier längerer ð18O-Aufzeichnungen aus Eisbohrkernen (DYE-3, Crete und GRIP) entwickelten sie eine Temperaturhistorie, die über 1400 Jahre zurück reicht.

Den Worten der sieben Wissenschaftler zufolge zeigte diese Historie, dass „die Temperaturen während der wärmsten Perioden der Mittelalterlichen Warmzeit“ – von ihnen definiert als vor 900 bis 1300 Jahren aufgetreten – „genauso warm oder wärmer waren als die heutigen Temperaturen“. Hinsichtlich der Bedeutung dieser Temperaturbedingungen merken sie an, dass eine weitere Erwärmung des heutigen Klimas in Grönland „zu Temperaturbedingungen führen wird, die wärmer sind als alles, was es während der letzten 1400 Jahre gegeben hat“, was natürlich bislang noch nicht geschehen ist. Außerdem haben Vinther et al. eingeräumt: „die Temperaturinversion im GRIP-Bohrloch zeigt, dass die Temperaturen in Zentral-Grönland immer noch um Einiges unter den hohen Temperaturen liegen, die während der MWP aufgetreten waren“.

Etwa zur gleichen Zeit haben Kobashi et al. (2010) eine Studie veröffentlicht, worin sie geschrieben haben: „In Grönland sind Sauerstoffisotope des Eises (Stuiver et al 1995) extensiv als Temperatur-Proxy verwendet worden, aber die Daten rauschen stark und zeigen nicht eindeutig Multi-Jahrhunderte-Trends während der letzten 1000 Jahre. Dies steht im Gegensatz zu den Temperaturaufzeichnungen aus Bohrkernen, die eine klare ‚kleine Eiszeit’ und eine ‚Mittelalterliche Warmzeit’ zeigen. Allerdings sagen sie weiter, dass das Isotopenverhältnis von Stickstoff und Argon – 15N/14N bzw. 40Ar/36Ar – benutzt werden kann, um eine Temperaturaufzeichnung zu rekonstruieren, die „nicht jahreszeitlich verzerrt ist und keine Kalibrierung mit instrumentellen Aufzeichnungen braucht. Außerdem werden dekadische und hundertjährige Temperatur-Fluktuationen aufgelöst“.

Nach der Beschreibung dieses neuen Verfahrens haben sie dieses benutzt, um eine Historie der letzten 1000 Jahre der Bodentemperaturen in Zentral-Grönland zu konstruieren, basierend auf den Werten der Isotopen-Verhältnisse von Stickstoff und Argon, die zuvor von Kobashi et al. 2008 abgeleitet worden waren, und zwar aus im GISP2-Bohrkern eingeschlossenen Luftblasen, die aus Zentral-Grönland extrahiert worden waren. Das Ergebnis zeigt die Abbildung:

Abbildung: Rekonstruktion der Bodentemperatur in Zentral-Grönland während des vorigen Jahrtausends. Übernommen von Kobashi et al. 2010.

Diese Abbildung zeigt die Rekonstruktion der Temperatur in Zentral-Grönland durch die sechs Wissenschaftler, und was man daraus am besten ablesen kann ist der Umstand, dass der Temperatur-Spitzenwert in der zweiten Hälfte der MWP – die tatsächlich schon einige Zeit vor Beginn ihrer Aufzeichnungen begonnen hat, wie die Arbeiten von Dansgaard et al. (1975), Jennings and Weiner (1996), Johnsen et al. (2001) and Vinther et al. (2010) gezeigt haben – um etwa 0,33°C höher lag als der Temperatur-Spitzenwert der gegenwärtigen Warmphase und etwa 1,67°C über der Temperatur der letzten Jahrzehnte des 20. Jahrhunderts.

Die Ton-Schichtdicken in jährlich abgelagerten Sedimenten im Hvitarvatn, einem kleinen Gletschersee im Hochland von Island, werden kontrolliert durch die Rate der Gletscher-Erosion und der Effizienz von Material-Abtransporten unter dem Gletscher der benachbarten Langjokull-Eiskappe. Unter Hinweis darauf haben Larsen et al. (2011) eine Reihe von in jene Sedimente eingelagerten Umwelt-Proxies heran gezogen, um die Klima-Variabilität des Gebietes und die Gletscheraktivität während der letzten 3000 Jahre zu rekonstruieren. Diese Proxies umfassen u. a. Ton-Schichtdicke, Änderungen derselben, vom Eis mitgeschleifte Trümmer, die Gesamtmenge organischen Kohlenstoffes (Massenfluss und Konzentration) sowie das C zu N-Verhältnis organischer Materie in den Sedimenten. Und als all das gesagt und getan war, zeigten diese Bemühungen, dass „alle proxy-Daten eine Veränderung hin zu verstärkter Gletschererosion und Destabilisierung der Landschaft spiegelten, und zwar von den Jahren 550 bis 900 und 1250 bis 1950, unterbrochen lediglich durch ein Intervall relativ milder Bedingungen“. Sie stellen weiter fest: „Das Timing dieser Intervalle fällt zusammen mit den gut dokumentierten Perioden der Klimaänderung, bekannt als die Kaltzeit der Dark Ages, der Mittelalterlichen Warmzeit und der Kleinen Eiszeit“.

Im Falle der MWP weisen sie zusätzlich darauf hin, dass “die Ton-Schichtdicken nach dem Jahr 950 abnehmen und kontinuierlich klein bleiben während des Mittelalters mit noch etwas dünneren jährlichen Ablagerungen als während jeder anderen vielhundertjährigen Periode der letzten 3000 Jahre“. Dies zeigt, dass die MWP die wärmste Periode der letzten drei Jahrtausende war. Und: „Die LIA war das stärkste vielhundertjährige Kaltereignis des späten Holozäns“ und „wahrscheinlich seit der letzten regionalen Vereisung vor 10000 Jahren“.

Für all jene, die zusätzlich kurze Berichte über die MWP in der Arktis lesen wollen: Gehen  Sie zu www.co2science.org und suchen Sie nach Hill et al. (2001), Joynt and Wolfe (2001), Hantemirov and Shiyatov (2002), Andersson et al. (2003), Helama et al. (2005), Mazepa (2005), Weckstrom et al. (2006), Jiang et al. (2007), Zabenskie and Gajewski (2007), Grudd (2008), Justwan et al. (2008), Scire et al. (2008), Axford et al. (2009), Bjune et al. (2009), Cook et al. (2009), Fortin and Gajewski (2010), Büntgen et al. (2011), Divine et al. (2011), Ran et al. (2011), Velle et al. (2011), D’Andrea et al. (2012) and Esper et al. (2012). Alle Referenzen finden sich auch in der langen Liste unten.

Abschließend zu dieser Zusammenfassung: Es ist klar, dass die in den Studien beschriebene Abfolge von Messungen allesamt zeigen, dass die Arktis – von der die Klimamodelle annehmen, dass sie super-sensitiv auf die Treibhausgas-induzierte Erwärmung reagiert – immer noch nicht so warm ist, wie es vor vielen Jahrhunderten während der MWP der Fall war, als es viel weniger CO2 und Methan in der Atmosphäre gab als heute. Diese Tatsachen zeigen des Weiteren, dass die gegenwärtige moderate Wärme des Planeten nicht notwendigerweise das Ergebnis historischer Zunahmen dieser beiden Spuren-Treibhausgase sein muss.

Link 1: http://www.co2science.org/printer1.3/print.php

Link 2: http://www.co2science.org/subject/m/summaries/mwparctic.php

Übersetzt von Chris Frey EIKE

References
Andersson, C., Risebrobakken, B., Jansen, E. and Dahl, S.O. 2003. Late Holocene surface ocean conditions of the Norwegian Sea (Voring Plateau). Paleoceanography 18: 10.1029/2001PA000654.

Andresen, C.S., Bjorck, S., Bennike, O. and Bond, G. 2004. Holocene climate changes in southern Greenland: evidence from lake sediments. Journal of Quaternary Science 19: 783-793.

Axford, Y., Geirsdottir, A., Miller, G.H. and Langdon, P.G. 2009. Climate of the Little Ice Age and the past 2000 years in northeast Iceland inferred from chironomids and other lake sediment proxies. Journal of Paleolimnology 41: 7-24.

Besonen, M.R., Patridge, W., Bradley, R.S., Francus, P., Stoner, J.S. and Abbott, M.B. 2008. A record of climate over the last millennium based on varved lake sediments from the Canadian High Arctic. The Holocene 18: 169-180.

Bjune, A.E., Seppa, H. and Birks, H.J.B. 2009. Quantitative summer-temperature reconstructions for the last 2000 years based on pollen-stratigraphical data from northern Fennoscandia. Journal of Paleolimnology 41: 43-56.

Briffa, K.R., Schweingruber, F.H., Jones, P.D., Osborn, T.J., Shiyatov, S.G. and Vaganov, E.A. 1998. Reduced sensitivity of recent tree-growth to temperature at high northern latitudes. Nature 391: 678-682.

Büntgen, U., Raible, C.C., Frank, D., Helama, S., Cunningham, L., Hofer, D., Nievergelt, D., Verstege, A., Timonen, M., Stenseth, N.C. and Esper, J. 2011. Causes and consequences of past and projected Scandinavian summer temperatures, 500-2100 AD. PLoS ONE 6: 10.1371/journal.pone.0025133.

Cook, T.L., Bradley, R.S., Stoner, J.S. and Francus, P. 2009. Five thousand years of sediment transfer in a high arctic watershed recorded in annually laminated sediments from Lower Murray Lake, Ellesmere Island, Nunavut, Canada. Journal of Paleolimnology 41: 77-94.

Dahl-Jensen, D., Mosegaard, K., Gundestrup, N., Clow, G.D., Johnsen, S.J., Hansen, A.W. and Balling, N. 1998. Past temperatures directly from the Greenland Ice Sheet. Science 282: 268-271.

D’Andrea, W.J., Vaillencourt, D.A., Balascio, N.L., Werner, A., Roof, S.R., Retelle, M. and Bradley, R.S. 2012. Mild Little Ice Age and unprecedented recent warmth in an 1800 year lake sediment record from Svalbard. Geology 40: 1007-1010.

Dansgaard, W., Johnsen, S.J., Gundestrup, N., Clausen, H.B. and Hammer, C.U. 1975. Climatic changes, Norsemen and modern man. Nature 255: 24-28.

Divine, D., Isaksson, E., Martma, T., Meijer, H.A.J., Moore, J., Pohjola, V., van de Wal, R.S.W. and Godtliebsen, F. 2011. Thousand years of winter surface air temperature variations in Svalbard and northern Norway reconstructed from ice-core data. Polar Research 30: 10.3402/polar.v30i0.7379.

Esper, J., Büntgen, U., Timonen, M. and Frank, D.C. 2012. Variability and extremes of northern Scandinavian summer temperatures over the past two millennia. Global and Planetary Change 88-89: 1-9.

Fortin, M.-C. and Gajewski, K. 2010. Holocene climate change and its effect on lake ecosystem production on Northern Victoria island, Canadian Arctic. Journal of Paleolimnology 43: 219-234.

Grinsted, A., Moore, J.C., Pohjola, V., Martma, T. and Isaksson, E. 2006. Svalbard summer melting, continentality, and sea ice extent from the Lomonosovfonna ice core. Journal of Geophysical Research 111: 10.1029/2005JD006494.

Grudd, H. 2008. Tornetrask tree-ring width and density AD 500-2004: a test of climatic sensitivity and a new 1500-year reconstruction of north Fennoscandian summers. Climate Dynamics: 10.1007/s00382-0358-2.

Grudd, H., Briffa, K.R., Karlen, W., Bartholin, T.S., Jones, P.D. and Kromer, B. 2002. A 7400-year tree-ring chronology in northern Swedish Lapland: natural climatic variability expressed on annual to millennial timescales. The Holocene 12: 657-665.

Hantemirov, R.M. and Shiyatov, S.G. 2002. A continuous multimillennial ring-width chronology in Yamal, northwestern Siberia. The Holocene 12: 717-716.

Helama, S., Timonen, M., Holopainen, J., Ogurtsov, M.G., Mielikainen, K., Eronen, M., Lindholm, M. and Merilainen, J. 2009. Summer temperature variations in Lapland during the Medieval Warm Period and the Little Ice Age relative to natural instability of thermohaline circulation on multi-decadal and multi-centennial scales. Journal of Quaternary Science 24: 450-456.

Hiller, A., Boettger, T. and Kremenetski, C. 2001. Medieval climatic warming recorded by radiocarbon dated alpine tree-line shift on the Kola Peninsula, Russia. The Holocene 11: 491-497.

Jennings, A.E. and Weiner, N.J. 1996. Environmental change in eastern Greenland during the last 1300 years: evidence from foraminifera and lithofacies in Nansen Fjord, 68°N. The Holocene 6: 179-191.

Jensen, K.G., Kuijpers, A., Koc, N. and Heinemeier, J. 2004. Diatom evidence of hydrographic changes and ice conditions in Igaliku Fjord, South Greenland, during the past 1500 years. The Holocene 14: 152-164.

Jiang, H., Ren, J., Knudsen, K.L., Eiriksson, J. and Ran, L.-H. 2007. Summer sea-surface temperatures and climate events on the North Icelandic shelf through the last 3000 years. Chinese Science Bulletin 52: 789-796.

Jiang, H., Seidenkrantz, M-S., Knudsen, K.L. and Eiriksson, J. 2002. Late-Holocene summer sea-surface temperatures based on a diatom record from the north Icelandic shelf. The Holocene 12: 137-147.

Johnsen, S.J., Dahl-Jensen, D., Gundestrup, N., Steffensen, J.P., Clausen, H.B., Miller, H., Masson-Delmotte, V., Sveinbjörnsdottir, A.E. and White, J. 2001. Oxygen isotope and palaeotemperature records from six Greenland ice-core stations: Camp Century, Dye-3, GRIP, GISP2, Renland and NorthGRIP. Journal of Quaternary Science 16: 299-307.

Joynt III, E.H. and Wolfe, A.P. 2001. Paleoenvironmental inference models from sediment diatom assemblages in Baffin Island lakes (Nunavut, Canada) and reconstruction of summer water temperature. Canadian Journal of Fisheries and Aquatic Sciences 58: 1222-1243.

Justwan, A., Koc, N. and Jennings, A.E. 2008. Evolution of the Irminger and East Icelandic Current systems through the Holocene, revealed by diatom-based sea surface temperature reconstructions. Quaternary Science Reviews 27: 1571-1582.

Kaplan, M.R., Wolfe, A.P. and Miller, G.H. 2002. Holocene environmental variability in southern Greenland inferred from lake sediments. Quaternary Research 58: 149-159.

Kobashi, T., Severinghaus, J.P., Barnola, J.-M., Kawamura, K., Carter, T. and Nakaegawa, T. 2010. Persistent multi-decadal Greenland temperature fluctuation through the last millennium. Climatic Change 100: 733-756.

Kobashi, T., Severinghaus, J.P. and Kawamura, K. 2008. Argon and nitrogen isotopes of trapped air in the GISP2 ice core during the Holocene epoch (0-11,600 B.P.): methodology and implications for gas loss processes. Geochimica et Cosmochimica Acta 72: 4675-4686.

Knudsen, K.L., Eiriksson, J., Jansen, E., Jiang, H., Rytter, F. and Gudmundsdottir, E.R. 2004. Palaeoceanographic changes off North Iceland through the last 1200 years: foraminifera, stable isotopes, diatoms and ice rafted debris. Quaternary Science Reviews 23: 2231-2246.

Korhola, A., Weckstrom, J., Holmstrom, L. and Erasto, P. 2000. A quantitative Holocene climatic record from diatoms in northern Fennoscandia. Quaternary Research 54: 284-294.

Larsen, D.J., Miller, G.H., Geirsdottir, A. and Thordarson, T. 2011. A 3000-year varved record of glacier activity and climate change from the proglacial lake Hvitarvatn, Iceland. Quaternary Science Reviews 30: 2715-2731.

Lassen, S.J., Kuijpers, A., Kunzendorf, H., Hoffmann-Wieck, G., Mikkelsen, N. and Konradi, P. 2004. Late Holocene Atlantic bottom water variability in Igaliku Fjord, South Greenland, reconstructed from foraminifera faunas. The Holocene 14: 165-171.

Mann, M.E., Bradley, R.S. and Hughes, M.K. 1998. Global-scale temperature patterns and climate forcing over the past six centuries. Nature 392: 779-787.

Mann, M.E., Bradley, R.S. and Hughes, M.K. 1999. Northern Hemisphere temperatures during the past millennium: Inferences, uncertainties, and limitations. Geophysical Research Letters 26: 759-762.

Mann, M.E. and Jones, P.D. 2003. Global surface temperatures over the past two millennia. Geophysical Research Letters 30: 10.1029/2003GL017814.

Mazepa, V.S. 2005. Stand density in the last millennium at the upper tree-line ecotone in the Polar Ural Mountains. Canadian Journal of Forest Research 35: 2082-2091.

Moberg, A., Sonechkin, D.M., Holmgren, K., Datsenko, N.M. and Karlenm, W. 2005. Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data. Nature 433: 613-617.

Moore, J.J., Hughen, K.A., Miller, G.H. and Overpeck, J.T. 2001. Little Ice Age recorded in summer temperature reconstruction from varved sediments of Donard Lake, Baffin Island, Canada. Journal of Paleolimnology 25: 503-517.

Naurzbaev, M.M., Vaganov, E.A., Sidorova, O.V. and Schweingruber, F.H. 2002. Summer temperatures in eastern Taimyr inferred from a 2427-year late-Holocene tree-ring chronology and earlier floating series. The Holocene 12: 727-736.

Norgaard-Pedersen, N. and Mikkelsen, N. 2009. 8000 year marine record of climate variability and fjord dynamics from Southern Greenland. Marine Geology 264: 177-189.

Ran, L., Jiang, H., Knudsen, K.L. and Eiriksson, J. 2011. Diatom-based reconstruction of palaeoceanographic changes on the North Icelandic shelf during the last millennium. Palaeogeography, Palaeoclimatology, Palaeoecology 302: 109-119.

Schweingruber, F.H. and Briffa, K.R. 1996. Tree-ring density network and climate reconstruction. In: Jones, P.D., Bradley, R.S. and Jouzel, J. (Eds.), Climatic Variations and Forcing Mechanisms of the Last 2000 Years, NATO ASI Series 141. Springer-Verlag, Berlin, Germany, pp. 43-66.

Sicre, M.-A., Jacob, J., Ezat, U., Rousse, S., Kissel, C., Yiou, P., Eiriksson, J., Knudsen, K.L., Jansen, E. and Turon, J.-L. 2008. Decadal variability of sea surface temperatures off North Iceland over the last 2000 years. Earth and Planetary Science Letters 268: 137-142.

Seppa, H. and Birks, H.J.B. 2002. Holocene climate reconstructions from the Fennoscandian tree-line area based on pollen data from Toskaljavri. Quaternary Research 57: 191-199.

Stuiver, M., Grootes, P.M. and Brazunias, T.F. 1995. The GISP2 ð18O climate record of the past 16,500 years and the role of the sun, ocean, and volcanoes. Quaternary Research 44: 341-354.

Vaganov, E.A., Shiyatov, S.G. and Mazepa,V.S. 1996. Dendroclimatic Study in Ural-Siberian Subarctic. Nauka, Novosibirsk, Russia.

Vare, L.L., Masse, G., Gregory, T.R., Smart, C.W. and Belt, S.T. 2009. Sea ice variations in the central Canadian Arctic Archipelago during the Holocene. Quaternary Science Reviews 28: 1354-1366.

Velle, G., Kongshavn, K. and Birks, H.J.B. 2011. Minimizing the edge-effect in environmental reconstructions by trimming the calibration set: Chironomid-inferred temperatures from Spitsbergen. The Holocene 21: 417-430.

Vinther, B.M., Jones, P.D., Briffa, K.R., Clausen, H.B., Andersen, K.K., Dahl-Jensen, D. and Johnsen, S.J. 2010. Climatic signals in multiple highly resolved stable isotope records from Greenland. Quaternary Science Reviews 29: 522-538.

Virkkunen, K. 2004. Snowpit Studies in 2001-2002 in Lomonosovfonna, Svalbard. M.S. Thesis, University of Oulu, Oulu, Finland.

Wagner, B., Bennike, O., Bos, J.A.A., Cremer, H., Lotter, A.F. and Melles, M. 2008. A multidisciplinary study of Holocene sediment records from Hjort So on Store Koldewey, Northeast Greenland. Journal of Paleolimnology 39: 381-398.

Wagner, B. and Melles, M. 2001. A Holocene seabird record from Raffles So sediments, East Greenland, in response to climatic and oceanic changes. Boreas 30: 228-239.

Weckstrom, J., Korhola, A., Erasto, P. and Holmstrom, L. 2006. Temperature patterns over the past eight centuries in Northern Fennoscandia inferred from sedimentary diatoms. Quaternary Research 66: 78-86.

Zabenskie, S. and Gajewski, K. 2007. Post-glacial climatic change on Boothia Peninsula, Nunavut, Canada. Quaternary Research 68: 261-270.

Last updated 14 August 2013




Berliner AfD Kandidatin Beatrix von Storch fordert: Das EEG muss weg!

Frank Schäffler, FdP MdB und wieder an aussichtsreicher Position in NRW gesetzt, schrieb vor einigen Tagen im Blog „Eigentümlich frei“:

Die Strompreise schwingen sich in immer neue Höhen und nun auch zum Wahlkampfthema auf. Doch mehr als 80 Prozent der Deutschen unterstützen weiterhin die Energiewende. Ich nehme an, dass mindestens ebenso viele Deutsche über die gestiegenen Stromkosten maulen. Diese Selbstwidersprüchlichkeit verdient offene Worte: Wegen der Energiewende wurden die Kernkraftwerke als günstigste Stromerzeugungsart abgeschaltet und die Gasverstromung verteuert. Wer die Energiewende befürwortet, darf sich über steigende Strompreise nicht wundern oder gar ärgern. In aller Deutlichkeit muss auch gesagt werden, dass sich an den Strompreisen nichts ändern würde, wenn es keine Ausnahmen bei den Netzentgelten gäbe: Die – inzwischen verkleinerten – Ausnahmebereiche bei der Belastung von Großabnehmern und Golfplätzen mit Netzentgelten haben keinen maßgeblichen Einfluss auf die Stromkosten. Das Problem steigender Stromkosten lässt sich nicht durch eine gleichmäßigere Verteilung der Kosten zwischen Privatabnehmern und Industrie lösen.

Grundsätzlichere Lösungen müssen her. Die Kosten können nicht länger sinnvoll gedeckelt und nicht besser umverteilt werden, sondern das EEG muss komplett abgeschafft werden. Diese Forderung habe ich bereits an anderer Stelle erhoben. Es darf keinen Vorrang für „erneuerbare Energien“ mehr geben. Die Vorrangpolitik muss weg!

Dazu bedarf es natürlich in allererster Linie eines Abschwörens von der Ideologie der menschengemachten Klimaerwärmung. Dass wir es hier mit einer Ideologie zu tun haben, zeigt sich an dem Skandal um die vom Umweltbundesamt herausgegebene Broschüre. Das Ziel einer Stabilisierung des Klimas – ein ähnlich größenwahnsinniges Projekt wie die Stabilisierung des Euro – muss aufgegeben werden. Es ist Ausdruck einer Anmaßung von Wissen, Kohlendioxid-Reduktionsziele in einem 50-Jahresplan vorzugeben. Bis 2050 soll der Ausstoß um 80 bis 95 Prozent reduziert werden. Das ist ein planwirtschaftlicher Anspruch auf Gestaltung der Umwelt, den zu erheben selbst das Politbüro Sowjetrusslands zu bescheiden war. Dabei sind die Fakten des Klimawandels längst erschüttert: Die Kohlendioxidkonzentration steigt, indes zeigen Daten der NASA keinen Anstieg der Welttemperatur in den letzten 15 Jahren. Die Klimapolitik bedarf einer Neuevaluation.

Und nun zieht Frau v. Storch mit einem sehr engagierten Video nach

Video Beatrix von Storch zum Erneuerbare-Energien-Gesetz (EEG)

Unsere Meinung:

Frau von Storch spricht das Offensichtliche  klar an und fordert – wie Frank Schäffler- das Selbstverständliche:

Schafft die Ursache all dieser völlig sinn- und nutzlosen Kosten ab. Schafft das EEG ersatzlos ab.

Und sie kandidiert für die Alternative für Deutschland (AfD), der das Internet- Wahlbarometer „Wahl-O-Meter“ immerhin einen Stimmenanteil von gut 10 % bescheinigt. Ganz im Gegensatz zu Forsa´s Manfred Güllner, der die Partei bei gut 3% sieht, aber seinen eigenen Zahlen nicht ganz traut, wie er im Interview gestand.

Niemand sollte beim kritischen Ansehen des Videos daran Anstoß nehmen, dass Frau v. Storch beim Vergleich der Energiemenge, die ein Kraftwerk von der Größe von Brokdorf mit einem Offshore „Windpark“ von rechnerisch gleicher Kapazität, die Zahlen etwas verrutscht sind. Dieser Fehler(1), ändert an den vielen richtigen Einzelaussagen und dem Fazit überhaupt nichts.

Die Redaktion

(1) Nach unserer Überschlags-Berechnung müssten bei einem ein Offshore-Windpark mit Windrädern der Baltic 1 Klasse rechnerisch gleicher Kapazität wie ein Kraftwerk mit der Leistung von Brokdorf, ca. 1400 Windräder der 2,3 MW Klasse aufgestellt werden. Diese würden ca, 13 Mrd € kosten und eine Fläche von knapp 500 km2 bedecken.




Hilflos! Hitzewellen könnten rasant zunehmen- …meint das notorisch Panik verkündende PIK

Das scheint immer schlimmer zu werden, wie man exemplarisch an der Klima- und Energiedebatte sehen kann. Jüngstes Beispiel hierfür ist obige Äußerung des PIK. Offensichtlich sehen alle Politiker und auch die Mainstream-Medien, allen voran die „Süddeutsche Zeitung“, dieses Institut als das Maß aller Dinge an. Nur mit ein wenig Recherche kann man aber sehen (und durch meine Übersetzungen für das Europäische Institut für Klima und Energie EIKE habe ich schon viel gesehen), dass dieser Spruch jeder Grundlage entbehrt. Aber hierzulande… siehe oben.

Dennoch – gerade dieser jüngste Vorgang bringt für mich etwas zum Überlaufen, das schon ziemlich voll war: nämlich Hilflosigkeit.

Wenn man sieht, mit welcher Inbrunst, ja Verehrung solche Sprüche landauf, landab kolportiert werden, wenn man erleben muss, wie die ganze Welt nur auf solche Dummschwätzer hört, wenn man schmerzlich vermisst, dass die Medien, denen doch per Gesetz vorgeschrieben wird, objektiv zu berichten, nichts hinterfragen; wenn keinerlei Kritik erlaubt ist, ja man sogar diffamiert und verleumdet wird, schon wenn man nur wagt, ‚aber…‘ zu sagen – dann überkommt mich Hilflosigkeit. Denn auf diese Sprüche baut ja ein politisches Konstrukt, das uns alle seriösen Quellen zufolge extrem teuer zu stehen kommt und kommen wird.

Wo finden seriöse Stimmen Gehör? Wo? Im Internet, ja. Aber die entsprechenden Sites werden entweder als rechtsradikal oder als terroristisch oder schlichtweg als Spinner angesehen – wieder unisono von der ganzen Journaille. Warum? Was soll man denn da bloß machen? Wie viele Zeitungsgläubige schauen denn im Internet?

Und Hilflosigkeit erzeugt Angst. Böse Erinnerungen werden wach! In der ersten Hälfte des vorigen Jahrhunderts, aber auch noch danach, gab es gravierende Beispiele dafür, was dabei herauskommt. Einer schreit irgendeinen gefährlichen Unsinn – und alle schreien unisono nur noch ‚Hurra!‘ Von links bis rechts, von grün bis schwarz. Macht das wirklich niemanden hellhörig? Außer ein paar ‚Spinnern‘?

Es gibt jedoch einen kleinen Unterschied zu den gleichartigen Vorgängen im vorigen Jahrhundert: damals wurde den Menschen eingebläut, dass andere Menschen schlecht sind. Auch zuvor gibt es dafür natürlich viele Beispiele in der ganzen Welt.

Diesmal jedoch will man der Natur einbläuen, was sie zu tun und zu lassen hat. Jede Wette – der Natur dürfte das herzlich wurscht sein! Und das ist eine kleine Hoffnung. Wenn nämlich die wirklichen, nicht subventionierten, nicht hofierten Wissenschaftler recht haben, war der Sommer des Jahres 2013 einer der letzten richtig warmen Sommer. Und das mit dem ‚nie mehr Schnee‘ aus dem Jahr 2000 ist allgemein bekannt.

Es gab in der Geschichte aber auch schon vor vielen hundert Jahren den Fall, dass man der Natur genau vorschreiben wollte, wie sie auszusehen habe. Die katholische Kirche wollte partout, dass die Sonne und alles Übrige um die Erde kreist. Wie hilflos müssen sich die wenigen Menschen damals vorgekommen sein, die es besser wussten! Und wenn damals wirklich einer gewagt hat, ‚aber‘ zu sagen, wurde er verbrannt – bei lebendigem Leib, im Namen Gottes…

Und die Organisation, die diese unfasslichen Verbrechen gegen die Menschlichkeit hundertfach begangen hat und viele Jahrhunderte gebraucht hat, bis sie vor ein paar Jahren ihren Irrtum eingestanden hat – diese Organisation ist noch heute fest in der Gesellschaft verankert!

Hoffentlich, hoffentlich ist das mit dem Klimawandel in Gestalt des PIK nicht auch so!




An alle Abgeordneten des deutschen Bundestages: Das EEG erzeugt keinen energiewirtschaftlichen Nutzen bei der Versorgung Deutschlands!

Hinweis:

Wer sich dafür einsetzen will, dass die Errichtung neuer Windkraftanlagen nur noch mit Zustimmung der betroffenen Bürger zulässig sein soll,  kann diese Petition hier unterschreiben

Diagramm 1: Lastganglinie (zeitabhängige Einspeiseleistung) aller deutschen Windenergie- und Fotovoltaik-Anlagen mit aktuell 65 000 MW Nennleistung im Juli 2013


Quelle: Die Strombörse EEX Leipzig (European Energy Exchange) www.transparency.eex.com/de/

Das Diagramm 1 dokumentiert die fluktuierende Einspeiseleistung aller deutschen Fotovoltaik-und Windenergie-Anlagen im Juli 2013, die durch extrem hohe Leistungsspitzen zur Mittagszeit über Fotovoltaik (installierte Nennleistung ca. 34 000 MW) und eine relativ geringe Einspeiseleistung der etwa 25 000 Windenergie-Anlagen mit Minimalwerten weit unter 500 MW gekennzeichnet ist (installierte Nennleistung ca. 31 000 MW).

Diese fluktuierende Stromeinspeisung der Fotovoltaik-und Windenergie-Anlagen ist im Diagramm 2 dem Stromverbrauch in Deutschland im Juli 2013 gegenüber gestellt. Zur Stabilisierung der Stromnetze muss die Differenz zwischen der dem Stromverbrauch kongruenten elektrischen Nachfrageleistung (braune Fläche) und der fluktuierenden Einspeiseleistung der nicht regelbaren Kraftwerke vorwiegend aus Wind + Solar (grüne Fläche) durch regelbare konventionelle Kraftwerke ausgeglichen werden.

Diagramm 2: Stromverbrauch und Einspeiseleistung von Fotovoltaik- und Windenergie-Anlagen Juli 2013

Quelle: Strombörse EEX Leipzig (European Energy Exchange) www.transparency.eex.com/de/

Verband europäischer Übertragungsnetzbetreiber Entsoe  www.entsoe.net/

Im Diagramm 3 ist der grenzüberschreitende Stromaustausch dokumentiert, der vom Verband Europäischer Übertragungsnetzbetreiber Entso-E (European Network of Transmission System Operators for Electricity) organisiert wird. Aus dem Datenmaterial der Übertragungsnetzbetreiber ist eindeutig zu erkennen, wie der Stromexport vorrangig durch die Einspeiseleistungsspitzen der Fotovoltaik-Anlagen zur Mittagszeit gesteuert wird. Die hohen
Leistungsspitzen bis über 25 000 MW überschreiten die im Diagramm 2 dokumentierten Tag-Nacht-Leistungsunterschiede von ca. 20 000 MW und werden großteils über den Grenzaustausch kompensiert und nicht mittels Leistungsdrosselung des konventionellen Kraftwerkparks oder der Windenergie- und Fotovoltaik-Anlagen.

Die Einspeiseleistungen der ca. 25 000 Windenergie-Anlagen in Deutschland mit ca. 31 000 MW installierter Nennleistung stellten dagegen nur relativ geringe Beiträge zur Leistungsbilanz zur Verfügung. Außerhalb der ertragreichen Sonnenstunden um die Mittagszeit wurden vorwiegend während der Arbeitswoche erhöhte Stromimporte registriert. Insgesamt war die Import-/Exportbilanz nach Angaben der europäischen Übertragungsnetzbetreiber im Juli 2013 mit 3,1 Milliarden kWh beim Import und 3,25 Milliarden kWh beim Export nahezu ausgeglichen.

In den Medien wird teilweise vom „deutschen Stromexport auf Rekordhöhe“ geschwärmt, vorwiegend, wenn hohe Leistungsspitzen aus Sonne und Wind ins Stromnetz eingespeist werden. Am Sonntag, den 16.06.2013 lag eine solche Leistungsspitze von über 30 000 MW aus Fotovoltaik- und Windenergie-Anlagen über die Mittagsstunden vor. Für den Transfer des in Deutschland nicht verwertbaren Stroms wurden vom deutschen Stromverbraucher für den
Zeitraum von 11 Stunden über 23 Millionen Euro für die Abnahme des Stroms zusätzlich zu den Ausgaben für die EEG-Umlage für dieses Stromkontingent aufgebracht.

Diagramm 3: Saldo Stromexport/-import und flukturierende Stromeinspeisung aus „Sonne+Wind“

Einfluss auf Strompreis

Seit 2010 sind die Übertragungsnetzbetreiber verpflichtet, Strom aus Erneuerbaren an der Börse zu verkaufen. Der wachsende Anteil erneuerbarer Energien an der Stromerzeugung hat aufgrund des Pflichtverkaufs generell einen mindernden Effekt auf die Preise am Spotmarkt im Börsenstromhandel. Dadurch wird konventionell erzeugter Strom systematisch aus dem Markt gedrängt. Da sich die EEG-Auszahlungen an die Besitzer von regenerativen Anlagen
durch die exzessive Ausweitung der installierten Nennleistung von Fotovoltaik- und Windenergie-Anlagen in den letzten Jahren massiv erhöht haben, steigen zwangsläufig die Differenzkosten zwischen dem Börsenpreis und der EEG-Auszahlung für jede kWh, die über die EEG-Umlage an die Stromkunden weiter gegeben werden. Derzeit beträgt die EEG-Umlage, die das von den Übertragungsnetzbetreibern zu führende EEG-Konto ausgleichen muss, 5,277 Cent pro kWh. Umgekehrt arbeiten viele konventionelle Anlagen, die verstärkt nur noch als Regelkraftwerke eingesetzt werden können, unterhalb der Schwelle zur Wirtschaftlichkeit. Daher droht unter dem Stichwort „Kapazitätsmarkt“ den Stromkunden eine neue Zwangsabgabe für diese Anlagen, wenn die Netzstabilität weiter gewährleistet werden soll.

In den vergangenen Jahren waren gemäß Diagramm 4 jeweils im ersten Halbjahr positive Kontostände beim EEG-Konto zu verzeichnen, aus dem die Zahlungen an die Betreiber nach dem Erneuerbare-Energien-Gesetz gespeist  werden. Da in den Wintermonaten generell die Stromeinspeisungen über Fotovoltaik-Anlagen relativ gering gegenüber den Sommermonaten zu Buche schlagen (durchschnittliche EEG-Vergütung: 37,5 Cent/kWh für Fotovoltaik und 9,3 Cent/kWh für Windenergie in 2012), konnte in den letzten Jahren jeweils ein Polster bis zu einer Milliarde Euro in den Monaten März, April aufgebaut werden, um die hohen Ausgaben für die Fotovoltaik in den Sommermonaten auszugleichen. 2012 lag am Stichtag Mitte Oktober 2012 für die Nachholung in der EEG-Umlage 2013 ein negativer Kontostand von 2,589 Milliarden Euro vor, nachdem im April 2012 noch über eine Milliarde Euro zur Verfügung gestanden hatte. Die Folge war eine Erhöhung der EEG-Umlage von  3,6 Cent/kWh auf 5,27 Cent/kWh. 2013 wurde erstmals seit 2010 bereits im März und April ein negativer Kontostand verzeichnet (siehe Diagramm 5).

Diagramm 4:  Verlauf des EEG-Ausgleichskontos von 2010 bis Ende 2012 

Diagramm 5:  Fortsetzung des Verlaufs des EEG-Ausgleichskontos im ersten Halbjahr 2013

Quelle: Übertragungsnetzbetreiber

Entwicklung des EEG-Kontos im Juli 2013

Der Wert des Stroms an der Strombörse wird seit 18.10.2010 von der European Energy Exchange AG (EEX) in Leipzig über die täglich stattfindende Neuberechnung eines europäischen Strompreisindexes ELIX (European Electricity Index ELIX) ermittelt. Neben den Werten der 24 Einzelstunden werden auch die Durchschnittswerte für die Grundlast- und die Spitzenlaststunden berechnet und im Internet veröffentlicht.

An der Strombörse in Leipzig schwankt der Handelspreis für Strom im Spotmarkt, an dem sich auch der mittelfristige Terminmarkt für Strom im Wesentlichen orientiert, zwischen etwa 3 und 6 Cent pro kWh mit einem Durchschnittspreis von 3,5 Cent/kWh. Der Strom aus Fotovoltaik-Anlagen wurde 2012 im Durchschnitt mit 37,5 Cent/kWh über die EEG-Auszahlungen an die Anlagenbetreiber vergütet, der Strom aus Windenergie-Anlagen
mit 9,3 Cent/kWh. Die Auswirkungen dieses Ungleichgewichts zwischen den Erlösen beim Verkauf des Stroms an der Strombörse und den Kosten des Stroms aus Fotovoltaik- und Windenergie-Anlagen durch die Förderung über das EEG spiegelt sich im Diagramm 6 deutlich wieder.

Diagramm 6: Differenzbetrachtung des Stroms aus Sonne und Wind an der Strombörse im Vergleich zu den Vergütungszahlungen über das EEG

Die Kosten der Übertragungsnetzbetreiber für die Überweisungen der EEG-Umlage an die Anlagenbetreiber für den mit Vorrang einzuspeisenden Strom aus Fotovoltaik- und Windenergie-Anlagen im Juli 2013 sind im Diagramm 6 mit der in grün bezeichneten Fläche dargestellt. Der diesen gesetzlich fixierten Ausgaben gegenüberstehende Erlös für diese Stromeinspeisungen an der Strombörse ist mit blauer Farbe maßstäblich hinterlegt. Die
Differenz zwischen den Auslagen der Übertragungsnetbetreiber und den an der Börse erzielten Erlösen, die vom Stromkunden für den Juli 2013 über die EEG-Umlage getragen werden muss, ist als rote Fläche markiert und addiert sich allein für diesen Monat auf 1,8 Milliarden Euro.

Im Juli 2013 wurden in Deutschland von allen Stromerzeugungsanlagen ca. 38 Milliarden kWh erzeugt und entsprechend dem europäischen Strompreisindex ELIX mit 1,35 Milliarden Euro vergütet. Von Fotovoltaik- und Windenergie-Anlagen wurden ca. 6,8 Milliarden kWh in die Übertragungsnetze eingespeist, für die auf Basis des EEG ca. 2,1 Milliarden Euro an die Betreiber ausgezahlt wurden. Mit 1,91 Milliarden Euro floss der Großteil der EEG-Vergütung an die Betreiber von Fotovoltaik-Anlagen.

Diesen Ausgaben von 2,1 Milliarden Euro für den Anteil an eingespeistem Strom aus „Sonne und Wind“ stand ein Erlös an der Strombörse von 238 Millionen Euro im Juli 2013 gegenüber. Daraus ergibt sich ein von allen Stromkunden zu tragender Verlust von 1,83 Milliarden €uro allein für Juli 2013, der dem EEG-Kontostand von Ende Juni 2013 von knapp 1 Milliarde Euro zugeschlagen werden muss. Bis Ende Juli 2013 wurde allein für die Fotovoltaik- und Windenergie-Anlagen in 2013 bereits ein Verlust von 7,9 Milliarden Euro „erwirtschaftet“. Diese Negativentwicklung des EEG-Kontostands wird sich in den Sommermonaten mit hoher Einspeiseleistung der Fotovoltaik-Anlagen zwangsläufig weiter fortsetzen. Die Neuberechnung der EEG-Umlage für das Jahr 2014 erfolgt zum Stichtag Ende September.

Fazit:

Der langjährigen Entwicklung des EEG-Kontos entsprechend wird sich der Negativtrend bis Oktober fortsetzen. Da im ersten Halbjahr 2013 erstmalig kein positiver Kontostand des EEG-Kontos erreicht wurde, ist mit einem stark negativen Kontostand zum Ende der Sommerzeit zu rechnen. Eine weitere kräftige Erhöhung der EEG-Umlage über die aktuell zu zahlenden 5,22 Cent pro kWh hinaus wird daher unumgänglich sein, trotz aller gegenteiligen Behauptungen.

Die Strompreissteigerungen der letzten 5 Jahre wurden fast ausschließlich durch die Erhöhung der EEG-Umlage und die entsprechende Erhöhung der Mehrwertsteuer ausgelöst. Die bei weiterem Ausbau der Fotovoltaik- und Windenergie-Anlagen anfallenden Kosten für die Stabilisierung der Stromnetze wurden bisher nur am Rande diskutiert. Bei weiterem Zubau von Fotovoltaik- und Windenergie-Anlagen muss zumindest mit drei weiteren Kostenblöcken kalkuliert werden, obwohl die Strompreis-Belastungsgrenze für den Stromverbraucher in Deutschland längst erreicht ist:

·        Subventionierung konventioneller Anlagen als Regelkraftwerke

·        Entwicklung und Bau von Speicheranlagen

·        Anpassung der Infrastruktur der Stromnetze auf allen Spannungsebenen

Zur Absicherung der Netzstabilität bei weiter steigender fluktuierender Einspeiseleistung von Fotovoltaik- und Windenergie-Anlagen muss auch zukünftig ein vollumfänglicher konventioneller Kraftwerkspark vorgehalten werden, der nach Angaben aller Kraftwerksbetreiber in großem Umfang bereits heute unterhalb der Schwelle der Wirtschaftlichkeit produziert. Die Verlautbarungen von diversen Versorgungsunternehmen mehren sich, in denen das Abschalten von unwirtschaftlich arbeitenden Anlagen in größerem Umfang in Aussicht gestellt wird. Um diese Anlagen für die Stabilitätshaltung der Stromnetze weiter vorhalten zu können, wird bereits eine weitere Zwangsabgabe diskutiert.

Jede Art von Speicherung ist mit hohen Investitionskosten zum Bau dieser Anlagen und hohen Kosten zum Ausgleich der Wirkungsgradverluste verbunden, die bei einer möglichen Realisierung zusätzlich von den Stromkunden aufgebracht werden müssen. Doch trotz der seit vielen Jahren propagierten Notwendigkeit zur Speicherung konnte bisher der Nachweis nicht erbracht werden, dass zukünftig der Umfang an Speicherung als Ersatz für den konventionellen Kraftwerkspark zu wirtschaftlichen Preisen und vor allem im notwendigen Umfang auch nur ansatzweise bereitgestellt werden kann.

Zur Realisierung der oft propagierten Regionalisierung der Stromerzeugung muss zudem die Infrastruktur der Stromnetze auf allen Spannungsebenen mit erheblichem Aufwand neu gestaltet werden.

Welche Kombination der Zusatzkosten im Zusammenhang mit den physikalisch-technischen Grenzen für die Netzstabilität den weiteren Zubau von Fotovoltaik- und Windenergie-Anlagen begrenzen bzw. beenden wird, ist die spannende Frage, die zwangsläufig nach der Bundestagswahl aufgeworfen werden wird, da die beiden Brennpunkte der Energiewende über regenerative Energien – „Steigende Kosten“ und „Netzinstabilität“ – einer breiteren Bevölkerung immer bewusster werden. Es gilt, die unverantwortliche, größtenteils ideologisch begründete Ressourcenverschwendung einzudämmen. Die Stilllegung hochmoderner Produktionsstätten für Fotovoltaik- und Windenergie-Anlagen mit Arbeitsplatzvernichtung und milliardenschweren Abschreibungen (auch von Subventionen) in Deutschland hätte ebenfalls längst zum Nachdenken anregen müssen.

Die Unterzeichner interessieren sich seit vielen Jahren für die Effektivität von Erzeugungsanlagen für Regenerative Energien und bitten bei aller Euphorie für diese Energien in Deutschland vor allem auch um die Einbeziehung von Fakten bei der Einschätzung von Chancen und Risiken.

Karl Linnenfelser und Rolf Schuster (im August 2013)

Rolf Schuster (rolf_schuster@gmx.de)

Karl Linnenfelser (klinnenfelser@googlemail.com)

——————————————

Hinweis: Dieser Aufsatz ging per E-Mail an die Abgeordneten des Deutschen Bundestages.




Das Märchen vom „grünen Jobwunder“

Lesen Sie hier die ganze Meldung in "Die Welt"

http://www.welt.de/newsticker/dpa_nt/infoline_nt/wirtschaft_nt/article119172521/Studie-daempft-Hoffnung-auf-mehr-Jobs.html
Zu diesem Thema zwei Artikel von Wundergläubigen…
http://www.sueddeutsche.de/wirtschaft/oeko-industrie-umweltschutz-schafft-jobs-wie-nie-1.493337
http://fazjob.net/ratgeber-und-service/beruf-und-chance/ingenieure/121234_Das-gruene-Jobwunder.html
…und ein Artikel von Autoren, die eher nicht an Wunder glauben…
http://www.welt.de/wirtschaft/article13049402/Das-gruene-Jobwunder-ist-nur-ein-Maerchen.html
…sowie der neueste Wunderjob-Alarm, frisch aus der Klimaretter-Szene:
http://www.klimaretter.info/wirtschaft/nachricht/14371-bard-entlaesst-120-mitarbeiter

Übernommen von Wolfgang Röhl auf Achgut

Redaktion: EIKE hat schon des öfteren darüber berichtet, dass "grüne Jobs" weil hochsubventioniert und damit Werte- vernichtend, Werte schaffende Jobs in der Realwirtschaft zerstören. Z.b. zeigte dies die Calzada Studie hier und hier




Lasst uns diese fünf Mythen über Fracking zerschlagen!

Bild rechts: Autor Matt Ridley

Hier sind fünf von ihnen genannte Dinge, die einfach nicht stimmen. Erstens, die Erzeugung von Schiefergas hat das Grundwasser in Amerika verschmutzt. Zweitens, es setzt mehr Methan als andere Formen der Gaserzeugung frei. Drittens, es wird eine horrende Menge Wasser verbraucht. Viertens, es werden hunderte giftiger Chemikalien verwendet. Fünftens, es führt zu zerstörerischen Erdbeben. Nichts davon ist wahr.

Beginnen wir mit der Behauptung bzgl. des Grundwassers. Die Gesamtzahl der Verunreinigungen des Grundwassers entweder durch Fracking-Flüssigkeiten oder Methan als Folge von Fracking in den USA beträgt Null. Eine Behauptung nach der anderen stellte sich als unwahr heraus. Die EPA hat ihre Untersuchung bei Dimock in Pennsylvania abgeschlossen und war zu dem Ergebnis gekommen, dass es keine Beweise für eine Verschmutzung gab; sie hat ihre Behauptung zurück gezogen, dass Bohrungen in Parker County, Texas, dazu geführt haben, dass aus den Wasserhähnen der Menschen Methangas geströmt ist. Und sie hat ihre Anklagen wegen Wasserverschmutzung in Pavilion, Wyoming, aus Mangel an Beweisen fallen gelassen. Zwei vor Kurzem erschienene begutachtete Studien kamen zu dem Ergebnis, dass die Vergiftung von Grundwasser durch Fracking „physikalisch nicht plausibel“ ist.

Der Film Gasland zeigte den Fall einer durch und durch natürlichen Verunreinigung von Wasser, und der Regisseur wusste das auch, hat aber trotzdem so getan, als rühre diese Verunreinigung vom Fracken her. Ernest Moniz, der Energieminister der USA, sagte diesen Monat: „Ich habe immer noch keinen einzigen Beweis für die Verschmutzung von Grundwasser durch Fracking per se gesehen“. Zehntausende Bohrlöcher, zwei Millionen vollendete Fracking-Operationen – und nicht ein einziger nachgewiesener Fall einer Grundwasser-Verschmutzung. Natürlich kann es eines Tages doch passieren, aber nur wenige Industriezweige können eine so vorteilhafte Verschmutzungs-Statistik vorweisen.

Als nächstes zur Behauptung, dass die Erzeugung von Schiefergas mehr Methan freisetzt als Kohle. (Methan ist ein stärkeres Treibhausgas als Kohlendioxid, verbleibt aber kürzer in der Atmosphäre, und die Konzentration steigt derzeit nicht sehr stark). Diese Behauptung hat ihren Ursprung in einem Biologieprofessor in Cornell, mit dem man ein Hühnchen rupfen sollte. Studie für Studie wurde dies widerlegt. Ein Team vom Massachusetts Institute of Technology hat es so ausgedrückt: „Es ist falsch zu sagen, dass hydraulisches Brechen im Zusammenhang mit Schiefergas die Intensität der Treibhausgase der Erdgas-Erzeugung substantiell verändert hat“.

Dritte Behauptung: Fracking verbraucht zu viel Wasser. Der Guardian hat vor einigen Tagen mit einem Bericht aufgewartet, in dem impliziert wurde, dass eine Stadt in Texas wegen des für Fracking verbrauchten Wassers auf dem Trockenen sitze. Und dies, obwohl in Texas nur 1 Prozent des gesamten Wassers für Fracking verwendet wird; in den USA insgesamt sind es 0,3 Porzent – weniger als für das Wässern von Golfplätzen. Falls Teilen von Texas wirklich das Wasser ausgeht, mache man die Landwirtschaft dafür verantwortlich, den bei Weitem größten Verbraucher.

Viertens, die einst so neutrale BBC  hat in einem Hintergrundbericht erklärt, dass Fracking „Hunderte Chemikalien“ in den Felsen treibe. Falsch um eine ganze Größenordnung, alte Tante! Die Fracking-Flüssigkeit besteht zu 99,51 Prozent aus Wasser und Sand. In den verbleibenden 0,49 Prozent stecken 13 Chemikalien, die man allesamt auch in der Küche, im Badezimmer oder in der Garage findet: Zitronensäure (Zitronensaft), Chlorwasserstoff (Schwimmpäder), Glutaraldehyd (Desinfektionsmittel), Guarkernmehl (Eiskrem), Dimethylformamid (Plastik), Isopropanol (Deodorant), Borsäure (Handwaschseife), Ammoniumpersulfat (zum Haare färben), Kaliumchlorid (intravenöser Tropf), Natriumkarbonat (Geschirrspüler), Äthylenglykol (Enteiser), Ammonium-Bisulphit (Kosmetika) und Petroleum-Destillat (Kosmetika)*

[*Ich hoffe, diese Chemikalien alle richtig übersetzt zu haben! A. d. Übers.]

Und was Erdbeben betrifft – die definitive diesbezügliche Umfrage der Durham University aller induzierten Erdbeben über viele Jahrzehnte hinweg kam zu dem Ergebnis, dass „fast die gesamte seismische Aktivität (durch Fracking) von so geringer Größenordnung war, dass nur Geowissenschaftler in der Lage gewesen sind, sie zu entdecken“. Bergbau, Geothermie und Wasserspeicherung im Untergrund verursachen mehr und größere Beben.

Die BBC hat einen armseligen Job gemacht, indem sie den Anti-Fracking-Mob [the Frack Off rent-a-celeb mob] mit faktischen Widerlegungen herausgefordert hat. Bei der Debatte geht es also nicht um zwei ernsthafte, jedoch entgegen gesetzte Argumente, sondern es handelt sich dabei um einen ungleichen Wettbewerb zwischen Wahrheit und Lügen. Kein Wunder, dass ehrliche Leute wie die Anwohner von Balcombe verängstigt sind.

Jetzt scheint es so, als habe die Diözese von Blackburn einen Flyer in Umlauf gebracht mit dem Tenor „wie Fracking Landbesitzer dazu gebracht hat, Leasings zum Bohren auf ihrem Land zu unterzeichnen“ und dass dies lange dauernde Schäden in „Gottes glorreicher Schöpfung“ hinterlassen werde. Einen Moment, Herr Bischof. Haben Sie das Gleiche zu Windkraft gesagt? Machen wir einen schnellen Vergleich

Ködern von Landbesitzern mit Geld: Windparks zahlen bis zu 100000 Pfund pro Windturbinen an Landbesitzer, und das meiste davon kommt aus Zusätzen zu den Stromrechnungen normaler Menschen. Was hat die Kirche dazu zu sagen?

Schäden in Gottes glorreicher Schöpfung: Wie Clive Hambler von der Oxford University dokumentiert hat, werden in jedem Jahr zwischen 6 und 18 Millionen Vögel und Fledermäuse in Spanien allein durch Windräder getötet, einschließlich seltener Gänsegeier, von denen in einem Jahr 400 Exemplare getötet worden sind, und selbst einschließlich noch seltenerer Schmutzgeier. In Tasmanien sind die Keilschwanzadler wegen der Windturbinen vom Aussterben bedroht. Norwegische Windparks töten jedes Jahr zehn Seeadler. Deutsche Windturbinen töten 200000 Fledermäuse pro Jahr, von denen viele Hunderte Meilen gewandert sind.

Die Windindustrie, die gegen die Verfolgung wegen Verbrechen gegen die Umwelt immun ist, entgegnet, dass durch Autos und Katzen [cars and cats] viel mehr Vögel getötet werden, und verweist gerne darauf, dass man eines Tages von der Ölindustrie sagen werde, sie hätte viele Vögel getötet, wenn das Klima immer wärmer wird und sich Habitate verändern. Aber wann war es das letzte Mal, dass eine Katze einen Kaiseradler oder einen Mauersegler nach Hause gebracht hat?

Windräder sind nicht nur viel auffälliger als Gasbohrtürme, sie überdecken auch ein viel größeres Gebiet. Nur zehn Hektar Öl- oder Gasbohrungs-Gebiet kann mehr Energie erzeugen als die gesamte britische Windindustrie. Was bringt nun den größeren Schaden in Gottes glorreiche Schöpfung, Herr Bischof?

Link: http://www.thegwpf.org/matt-ridley-shatter-myths-fracking/

Übersetzt von Chris Frey EIKE




Schiefergasförderung ein weltweiter „Game Changer“ oder Luftnummer?

Sehr geehrte Leserinnen und Leser von EIKE,

vor etwas nun mehr als 3 Jahren verfasste ich für EIKE einen Beitrag zum Thema Schiefergas und Fraccing. Vor drei Jahren benutzte ich im Titel des Beitrages über Schiefergas das Wort „Euphorie“(mit Fragezeichen). Bis heute halte ich es für angebracht, das Wort „Euphorie“ im Zusammenhang mit Schiefergas zu nutzen. Wenn Euphorie denn nun im Spiel sein mag, meine ich schon rein instinktiv, unbedingt alle Vorsicht walten zu lassen.

            So geschah es unlängst, dass ich u.a. auch bei Wikipedia über das Thema „Schiefergas“ nachlas. Mein klischeehaftes  Bild von Wikipedia hatte sich wieder einmal voll und ganz bestätigt: Der deutschsprachige Beitrag war, wie so oft, der am wenigsten erschöpfende.Buchstäblich alle im Beitrag gemachten Querverweise stammen aus einer „Ecke“ sowie auch sonstige Quellenangaben. Wie sich erweist, ist der Beitrag nicht nur nicht objektiv, sondern vergleichsweise auch noch sehr luschig verfasst. Im englischsprachigen Beitrag gibt es z. B. hinsichtlich Bemerkungen zur Umweltverträglichkeit auch entsprechende Anmerkungen. Andererseits, g wurde im russischsprachigen Beitrag auch ein Wort über mögliche Beeinflussungen der Umwelt verloren.

            Ganz kurz über Wikipedia: Wikipedia kann man zum heutigen Zeitpunkt besonders mit Anspruch auf Wissenschaftlichkeit für eine nicht im geringsten als zitierenswürdig zu bezeichnende Quelle bezeichnen. Auf der anderen Seite liegt Wikipedia eine hervorragende Idee zu Grunde – nämlich die, für alle über das Internet den Zugang zu Wissen bzw. Informationen unter Abschöpfung möglichst allen in der Gesellschaft vorhandenen Wissens zu gewährleisten. Und dies alles unter kleinstmöglichem Aufwand für alle beteiligten Seiten! Eigentlich eine tolle Idee! Ganz sicher ist auch, dass mit der Zeit Wikipedia zu einer immer mehr ernstzunehmenden Informationsquelle werden wird. Es erweist sich auch, dass Wikipedia-Einträge das Potential besitzen, politisch instrumentalisiert werden zu können.

            Ausgehend vom zuletzt Gesagten und vom Wissen darüber, dass der überwiegende Teil der Leserschaft des Russischen nicht mächtig ist (auch wenn ein sicher nicht geringer Teil der Leser die russische Sprache einst meist als lästiges schulisches Pflichtfach belegen musste) sowie dass es in Deutschland so gut wie keine Informationen darüber gibt (Jedenfalls sind solche mir persönlich nicht bekannt.), wie man über das Thema „Schiefergas“  wohl so in Russland denken mag (vermutlich höchstens indirekt aus englischsprachigen Quellen). Und nun kam mir die Idee, dem deutschen Publikum dies mit der Übersetzung des russischsprachigen Wikipediaeintrages (bzw. Teilen davon) näher zubringen.

            Hier nun eine Teilübersetzung des Wikipediaeintrages zum Thema „Schiefergas“:(Der Großteil des Eintrages über „Schiefergas“ wurde bis zum März 2013 neu erstellt. Letzte Korrekturen stammen vom Juli 2013. Der Beitrag ist also als recht aktuell zu bewerten.)

            Die im übersetzten Text in eckigen Klammern eingesetzten Zahlen entsprechen den Nummern der im russischsprachigen Beitrag nummerierten Einzelnachweise (Quellen). (Wer von den Lesern Interesse hat, könnte somit auch in diesen Quellen selbst nachschauen, denn mindestens 10 der verlinkten Quellen sind in englischer Sprache verfasst. Von der deutschsprachigen Wikipediaabteilung gelangt man durch Anklicken der Zeile mit „русский“ (auf dem linken Streifen der  Wikipediaseite) auf die russischsprachige Seite von Wikipedia.)

(Abb.1(allgemein bekannte Schema: Typen von Naturgas:(gemeines/traditionelles-A; Schiefergas-C; Gas aus verfestigtem Sand-D (bzw. Sandstein- meine Anm.); nebenher gewinnbares Gas-F (im Zusammenhang mit der Erdölförderung-meine Anm. ); Methan aus Kohlenflözen-G) )(Abb.2:Schiefergasressourcen der Welt (U.S. Energy Information Administration «World Shale Gas Resources: An Initial Assessment of 14 Regions Outside the United States»)

Inhalt

            ●1. Geschichte

            ●2.  Selbstkosten der Förderung

            ●3. Fördertechnologie

            ●4. Geografie, Bewertung der Rohstoffvorräte und die Förderperspektiven                           

                        ●4.1 USA

                        ●4.2 Europa

                                    ●4.2.1 Russland

                                    ●4.2.2 Ukraine

                                    ●4.3    Weitere Länder

            ● 5.  siehe auch

            ● 6.  Anmerkungen (eigtl. Weblinks bzw. Querverweise-meine Anm.)

            ● 7.  Literatur (Einzelnachweise-meine Anm.)

            ● 8.  Verweise (eigtl, auch Weblinks-meine Anm.)

1. Geschichte

            Die erste kommerzielle Gasbohrung in Schieferschichten wurde in den USA im Jahr 1821 durch William Hart,(der Name ist im Beitrag verlinkt)  der in den USA als „Vater des Erdgases“ gilt in Fredonia (New York) niedergebracht. Die Initiatoren der Schiefergasförderung großen Maßstabes in den USA sind George Mitchell [1] (der Name ist im Beitrag verlinkt) und Tom L. Ward (der Name ist im Beitrag verlinkt) .

            Die Schiefergasförderung im größeren industriellen Maßstab wurde durch die Firma Devon Energy (Firmenname verlinkt) zu Beginn der 2000-er Jahre begonnen, wobei im Jahr 2002 erstmalig in der Lagerstätte Barnett Shale (verlinkt)  eine Horizontalbohrung(verlinkt)[2] niedergebracht wurde. Dank des schnellen Wachstums der Gasförderung, was dann als „Schiefergasrevol-ution“[3][4][5] bezeichnet wurde, übernahmen die USA im Jahr 2009 die weltweite Führung in der Erdgasförderung (745,3 x 109 m³, wobei mehr als 40% der Gasfördermenge auf nichttraditionelles Gas (aus Schiefern sowie Methan aus Kohlenflözen) entfielen.

            In der ersten Hälfte des Jahres 2010 verwendeten die größten Energieerzeugerfirmen  der Welt 21 Mrd. $ für Aktiva, die mit der  Förderung von Schiefergas im Zusammenhang standen[6]. Zu dieser Zeit drückten einige Kommentatoren ihre Meinung in der Hinsicht aus, dass der Schiefergasrausch (wird im russischen Sprachgebrauch im speziellen Fall „agiotage“ genannt-eher Rausch als selbiges Spekulationsgeschäft durch Ausnutzung von Kursschwankungen an der Börse- meine Anm.), auch Schiefergasrevolution genannt,  als Resultat einer Werbekampagne initiiert von einer ganzen Reihe von Firmen der Energiebranche, welche erhebliche Mittel in Projekte zur Förderung von Schiefergas steckten und somit des Zustroms zusätzlicher Gelder [7] [8] bedurften. Wie es sich auch ergeben haben mag, begannen mit dem Auftauchen von Schiefergas auf dem Weltmarkt  die Preise für Gas zu fallen [9 ].        

            Mit Beginn des Jahres 2012 begannen in den USA die Erdgaspreise auf ein bedeutend geringeres Niveau als die Selbstkosten der Förderung von Schiefergas zu sinken, wodurch der größte „Player“ auf dem Schiefergasmarkt – die Firma Chesapeake Energy  –  eine Bekanntmachung darüber abgab, dass sie die Schiefergasförderung um 8%  und die Investitionen in Bohrarbeiten um 70% kürze [10][11]. Im ersten Halbjahr des Jahres 2012 war das Gas in den USA , wo eine Überproduktion zu verzeichnen war, billiger als in Russland, welches über die weltgrößten erkundeten Erdgasvorräte(traditionellen Gases-meine Anm.)[12] verfügt. Die niedrigen Preise veranlassten die führenden Firmen der Branche, die Fördermengen zu drosseln, wonach die Gaspreise wider anfingen anzusteigen[13] [14]. Zu  Mitte des Jahres 2012 geriet eine Reihe großer Schiefergasförderer in finanzielle Schwierigkeiten so z.B. erwies sich auch die Firma Chesapeak Energy am Rande des Bankrotts[15] [16].

2. Selbstkosten der Gasförderung

            Nach Informationen des Direktors des „Instituts der Russischen Akademie der Wissenschaften für Probleme von Erdöl und Erdgas“ dem Akademiemitglied Anatoli Dmitrijewski (Ja, so schwierig kann im Russischen die Nennung eines Namens einschl. seiner Position sein, schon allein wegen aller Wahrung von Höflichkeit und Respekt! – meine Anm.) betrugen die Selbstkosten der  Förderung von 1000 m³ Schiefergas in den USA  für das Jahr 2012  nicht weniger als 150 $ [9]. Entsprechend der Auffassung von Experten werden zu erwartende Selbstkosten der Schiefergasförderung solcher Länder wie der Ukraine, Polen oder China um Einiges höher liegen als in den USA[15].

            Die Selbstkosten der Förderung von Schiefergas sind größer als die für traditionelles Erdgas. So betragen die Selbstkosten der Förderung von 1000 m³ Erdgas aus älteren (traditionellenmeine Anm.) Gaslagerstätten unter Berücksichtigung der Transportkosten ca. 50 $[17][18[15].

3. Fördertechnologie

            Zur Gewinnung von Schiefergas wendet man das Horizontalbohren (engl.directional driling, hier ist eigtl. „Richtbohren“, besser übersetzt aber: horizontal drilling-bzw. das sog. Richtbohren , nicht unbedingt immer Horizontalbohren-meine Anm.), hydraulisches Aufbrechen von Gesteinsstrukturen  (engl. hydraulic fracturing) und die seismische Modellierung an. Eine dazu analoge Technologie wendet man auch bei der Gewinnung von Methan aus Kohlenflözen an.  An Stelle  des hydraulic fracturings einer Schicht kann man auch das sog. Propanfracturing (Begriff ist verlinkt) anwenden [19].

            Auch wenn Schiefergas in den Schiefern nicht in besonders großen Mengen (0,2 – 3,2 x 109 m³ ) vorkommt, so kann man jedoch im Resultat des Aufschlusses großer Flächen erhebliche Mengen von Schiefergas erhalten.

4. Geografie, Bewertung der Rohstoffvorräte und die

    Förderperspektiven

            Die Weltressourcen von Schiefergas betragen ca. 200 Trln. (zehn hoch achtzehn) m³. Zur Zeit ist Schiefergas ein regionaler Faktor, welcher einen bedeutenden Einfluss nicht nur auf dem nordamerikanischen Markt hat[21].

            Zu den Faktoren, die sich positiv auf die Perspektiven der Förderung von Schiefergas aus

vorräte, das Interesse der politischen Führung einiger Länder im Sinne der Verringerung der Abhängigkeit von Importen von Energierohstoffen [20]21]. Gleichzeitig gibt es jedoch beim Schiefergas eine Reihe von Unzulänglichkeiten, die sich in der Welt negativ auf seine Förderperspektiven auswirken. Zu den Unzulänglichkeiten gehören vergleichsweise hohe Selbstkosten, Unzulänglichkeiten im Zusammenhang mit fehlenden Möglichkeiten des Transportes über längere Distanzen (bis jetzt noch-meine Anm.), die schnelle Erschöpfung von Lagerstätten (besser „Förderorten“ an Stelle von „Lagerstätten“-meine Anm.), das geringe Sicherheitsniveau im Nachweis von Rohstoffvorräten, sowie bedeutende ökologische Risiken bei der Förderung von Schiefergas [21][9].

            Gemäß der Einschätzung der IHS CERA (IHS Cambridge Energy Research Associate; IHS CERA®-meine Anm.) könnte in der Welt eine Jahresfördermenge von 180 Mrd. m³  bis zum Jahr 2018 erreicht werden[21].

4.1   USA

(Abb.3: Bohranlage auf einer Schiefergaslagerstätte in Pennsylvania (USA))

            Die Menge der erkundeten Vorräte an Schiefergas beträgt in den USA 24 Trln. m³(zur Zeit sind davon 3,6 Trln. m³ [23] bzw. mehr als 10% davon technisch gewinnbar). Als die auf dem Gebiet der Schiefergasförderung in den USA führende Firma gilt Chesapeake Energy[24].

           

            Im Jahr 2009 betrug in den USA die Menge des geförderten Schiefergases 14 % (der Anteil an der des benötigten Gases an der Gasmenge erhöht sich[25]) , was  damals auch zu wesentlichen Veränderungen der internationalen Marktstruktur und auch zu einer Überproduktion zu Anfang 2010 führte[26][27][28].  Im Resultat des Wachstums der Schiefergasförderung waren die Terminals außer Betrieb, die in den USA zum Import von Erdgas in verflüssigter Form errichtet wurden. Zur Zeit befinden sich diese Terminals im Umbau für den Export (s.a. Schiefergasrevolution [29] (verlinkter Begriff)).

            Im November 2009 verkündete der Pressesprecher des Weißen Hauses, dass „die Nutzung von Schiefergas, wie zu erwarten ist, die Energiesicherheit der USA bedeutend erhöhte und verhilft, die Verschmutzung (der Atmosphäre-meine Anm.) durch Treibhausgase zu senken.“[30].

            Zum Jahr 2010 erreichte die Jahresförderung an Schiefergas in den USA 51 Mrd. m³ [31].  Anfang April 2010 wurde berichtet, dass das Energieministerium der USA (verlinkter Begriff) feststellte, dass die Statistik der Produktion von Naturgas (also traditionelles + Schiefergas-meine Anm.) im Lande überhöht sei, wobei man in diesem Zusammenhang gewillt sei, die Bilanz zu Gunsten einer Verringerung der Produktion zu ändern (klingt im Originaltext genauso umständlich-meine Anm.)[32].

            Die Agentur East European Gas Analysis (verlinkter Begriff) prognostizierte, dass die Jahresschiefergasförderung in den USA zum Jahr 2015 mehr als 180 Mrd. m³ betragen wird. Gemäß der Hauptprognose der Internationalen Energieagentur (verlinkter Begriff,IEA) wird die Jahresschiefergasförderung in den USA  zum Jahr 2030 nicht weniger als 150  Mrd. m³  betragen[21].

4.2       Europa

            Große Lagerstätten von Schiefergas wurden in einer Reihe von europäischen Staaten gefunden]33]. Im Einzelnen sind das: Österreich, Großbritannien, Ungarn, Deutschland, die Schweiz, Polen und die Ukraine[34]. Anfang April des Jahres 2010 wurde mitgeteilt, dass in Polen bedeutende Vorräte von Schiefergas nachgewiesen wurden, deren Erschließungsbeginn für den Mai des gleichen Jahres durch die Firma Conoco Phillips[35] geplant war. Mitte 2011 vermeldete der Verlag Stratfor (verlinkter Begriff), dass  „selbst wenn man riesige Mengen von Schiefergas in Pommern vorfände, bräuchte man Dutzende Milliarden Dollar, um die dafür (für die Förderung,den Transport usw.-meine Anm.) notwendige Infrastruktur, Pipelines, Objekte zur Stromerzeugung sowie chemische Fabriken, welche notwendig sind, um die Vorteile dieser Vorräte nutzen zu können“[36]. Im Frühjahr des Jahres 2012 wurden durch die Firma ExxonMobil zwei Bohrungen in Polen niedergebracht. Das Projekt wurde, wie bekannt gegeben wurde, wegen Unrentabilität abgebrochen.

            In Frankreich bewirkt z.Z. ein 2012 erlassenes Gesetz ein fünfjähriges Verbot der Nutzung der Technologie des Fraccings zur Erschließung von Schiefergas[15].

            Die IEA prognostiziert, dass die Förderung nichttraditionellen Gases in Europa zum Jahr 2030 15 Mrd. m³ pro Jahr betragen wird. Gemäß heutigen optimistischsten Prognosen für das Jahr 2030 werden die Jahresförderzahlen in Europa 40 Mrd. m³ nicht übersteigen. Viele meinen, dass diese Prognosen sogar überhöht seien[21].

4.2.1    Russland

            Am 25.März 2010 wurde vom Komitee für Energetik der Russischen Staatsduma ein runder Tisch zum Thema „ Die Perspektiven der Erschließung von Schiefergasressourcen in Russland“ veranstaltet. Die Teilnehmer des Rundtischgespräches empfahlen der Regierung der Russischen Föderation eine Bewertung des Schiefergaspotentials von Russland erstellen zu lassen, zu untersuchen, welche fortschrittlichen Fördertechnologien in Frage kommen, die Möglichkeiten und Perspektiven einer Einführung (der Schiefergasförderung-meine Anm.) sowie detailliert Fragen auszuarbeiten, die in Verbindung mit dem Einfluss der Entwicklung der Schiefergasindustrie in den USA , mit möglichen Bildungen dieses Industriezweiges(die Schiefergasförderung-meine Anm.) in europäischen Ländern und China mit den kurz-und langfristigen Perspektiven russischer Gasexporte stehen[37]. Gazprom plant in den nächsten Jahrzehnten nicht, mit der Förderung von Schiefergas in Russland zu beginnen. Anfang 2012 konstatierte der stellvertretende Vorsitzende  der Führung von Gazprom, Alexander Medwedjew, dass die Ausbeutung der Vorräte traditionellen Gases, über die Gazprom verfügt , 10-fach effektiver sei als die  von Schiefergaslagerstätten. Nach den Worten Medwedjews schiebe die Firma die Schiefergasförderung auf „die lange Bank“ und was die Frage über den Zeitpunkt einer möglichen Schiefergasförderung in Russland betrifft, so kehre man zu ihrer Beantwortung in 50-70 Jahren zurück[38].

           

            Eine Reihe höhergestellter Parlamentarier und verantwortlicher Vertreter der Firma Gazprom sprachen sehr lange über dieses Thema in dem Geiste, dass die Schiefergasrevolution nichts weiter als eine PR-Kampagne sei, die dafür initiiert wurde, um die Interessen Russlands zu untergraben[6]. Am 8. April  2010  erklärte der  russische Minister für Energetik, Sergej Schmatko, dass um das Wachstum der Schiefergasförderung in der Welt zu viel „unnützen Rummels“ veranstaltet würde[39].  Seiner Meinung nach kann die Entwicklung des Schiefergasmarktes der USA  keine Auswirkungen auf die internationale Energiebilanz haben[39]. Am 19. April 2010 erklärte der Minister für Naturressourcen und Ökologie Russlands (das Ministerium-eine Nachfolgeeinrichtung des in der Sowjetunion und dem postsowjetischen Russland noch einige Zeit existierenden Ministeriums für Geologie-meine Anm.), Jurii Trudnjew, dass das Wachstum der Schiefergasförderung für Gazprom und Russland ein Problem sei. Diese Bemerkung war die erste dieser Art aus dem Munde eines höhergestellten Beamten Russlands[40]. Im August 2012 bemerkte der stellvertretende Minister des Ministeriums für die Wirtschaftsentwicklung Russlands, Andrej Klepatsch, dass Gazprom früher die Maßstäbe der „Schiefergasrevolution“ unterschätzt hätte und nun verhielte sich Gazprom zu ihr(der „Schiefergasrevolution“-meine Anm.) mit gebührender Seriositä[41]. Im Oktober 2012 anerkannte der russische Präsident, Wladimir Putin, erstmals eine Gefahr für Gazprom hinsichtlich globaler Veränderung auf dem Energieträgermarkt, die in Folge der Steigerung der Schiefergasförderung, wobei er in diesem Zusammenhang den Energieminister damit beauftragte, die Generallinie des Energieministeriums bis 2030 in genannter Hinsicht zu korrigieren[41].

           

            Nach Auffassung einer Reihe ausländischer Experten stellen die in einigen Jahren zu erwartenden Importe von Schiefergas aus den USA nach Eurasien keine Gefahr dar für Lieferungen von Pipe-linegas durch Gazprom, weil russisches Gas viel konkurrenzfähiger ist im Vergleich zu amerikanischem, weil der Aufwand für die Förderung und den Transport von Gas aus Russland bedeutend niedriger ist  als analoge Aufwendungen für Schiefergas aus den USA[9][43-46]. Jedoch befand einer der großen russischen Unternehmer, Oleg Deripaska, dass Russland noch 3-4 „satte Jahre“ bevorstünden bis zum realen „Ankommen“ des Schiefergases und des Schieferöls, wonach es keine Konkurrenzfähigkeit mehr geben wird unter den Bedingungen der WHO[47].

4.2.2      Ukraine

            Die Ukraine vergab im Jahr 2010 an die Firmen ExxonMobil und Shell Lizenzen  für die Erkundung von Schiefergas[48]. Im Mai 2012 wurden die Gewinner der Ausschreibung zur Ausbeutung der Gasfelder Jusovsk(Gebiet Donjetzk) und Olessk(Gebiet Lvov (dt. Lemberg)) bekannt gegeben. Die Gewinner waren die Firmen Shell und Chevron. Es ist geplant, mit der Gasförderung auf den genannten Feldern 2018/2019 zu beginnen[49]. Im Oktober 2012 begann das Abteufen der ersten Suchbohrung auf Gas durch die Firma Shell. Dabei wurden in dieser Bohrung(im Gebiet Charkov) verdichtete Sande mit Gasführung (tight sand gas) aufgeschlossen[50].

           

            Ein Abkommen zwischen den Firmen Shell und „Nadra Jusovskaja“(ukr. Firma auf dt. „Untergrund von Jusovsk“) über die Teilung der Förderung von den Förderprodukten in Gasfelder der Gebiete Jusovsk und Charkov wurde am 24, Januar 2013 in Davos im Beisein des ukrainischen Staatspräsidenten unterschrieben[51].

           

            Unmittelbar nach der Unterzeichnung fand eine Reihe von Aktionen von Aktivisten der Grünen, Kommunisten und sowie einer Reihe anderer Aktivisten  in den Gebieten Charkov und Jusovsk statt[52]53]54].

4.3       Weitere Länder

            Schieferschichten, aus welchen Gas gewinnbar ist, sind sehr zahlreich, kommen in sehr großen Mengen vor, bspw. auch in den Ländern Australien[55],Indien[56], China[57] und Kanada vor[58].

            So plant man in China zum Jahr 2015, 6,5 Mrd. m³ Schiefergas zu fördern.  Das Gesamtvolumen der chinesischen Erdgasförderung wird sich damit im Vergleich zu den aktuellen Förderzahlen um 6% erhöhen.  Zum Jahr 2020 plant man dort, ein Jahresfördervolumen zwischen 60 bis 100 Mrd. m³ zu erreichen[59].

 5.         S.a.(Links)

·     Miniframe(engl.)

·     Verflüssigtes Naturgas(russ.)

·     Methan aus Kohlenflözen(russ.)

·     Shale gas in the United States(engl.)

6.         Anmerkungen(eigtl. Quellen)

            Unter diesem Punkt sind insgesamt 59 verlinkte Quellen benannt. Jede dieser Quellen habe ich im einzelnen überprüft in der Hinsicht, wie es im vorliegenden russischsprachigen Beitrag üblich ist (meist Name der Quelle, Datumsangabe). Bemerkenswert ist, dass für den Beitrag sehr viele Quellen genutzt wurden. Jedoch muss den Verfassern die Luft ab ca. Quelle Nr. 16 ausgegangen sein. So ergänzte ich ab dann häufig die  Namen der Quellen sowie entsprechend das Publikationsdatum (Ergänzungen von mir rot markiert).

1. The Father of Shale gas(engl.)

2. Schiefergas(russ.)

3. Die Stille Gasrevolution//Tageszeitung „Izvestija“ (russ.).—5.3.2010

4. Konkurrentenabsprache//Wirtschaftszeitung „Kommersant“(russ.).—25.3.2010

5. Die Große Schiefergasrevolution// St. Peterburg News(russ.).—Nr. 27—15.2.01

6.1 2 Von der Redaktion „Bei Gazprom angekommen“//News: Zeitung(russ.).—6.10.2010 — №188

   (2886)

7. TARNAWSKIJ,W.: Schiefergas: Eine revolutionäre Energiequelle oder nur eine Seifenblase?//

    Fin.org.ua.(ukr.).—30.11.2009

8. Die Schieferblase(// RBK daily(Internetnachrichtenagentur) (russ.).—6.4.2010

9. 1 2 3 4 Die Schiefergasrevolution wird umverlegt//Radiobeitrag „Stimme Russlands“(russ.) —

     20.9.2012.

10.Die Iranfrage //Njesawisimaja Gasjeta(Tageszeitung) (russ.).—10.4.2012

11.Ein Schiefernichts//Njesawisimaja Gasjeta(Tageszeitung) (russ.).—15.5.2012

12.PETROWA,P.: „Gazprom“ und die Blitze“ //Wirtschaftszeitung „Kommersant Geld“.(russ.)—

     10.9.2012

13.Niedrige Preise zwangen USA Förderung zu kürzen//www.lenta.ru (russ.).—3.5.2012

14.Die Dynamik der Preise für Gas(engl./ finviz.com/futures_charts.ashx. —

     27.07.2013

15.1 2 3 4 BELL,R.,RUSJETZKIJ,O.: Lohnt es sich, Holland für das Schiefergasverbot zu danken?//La Tribune: Tageszeitung(russ./franz.).— 24.10.2012

16.Ob sich das Schicksal von Enron bei Chesapeak wieder holt?//Radiobeitrag „Vesti“(russ.)—

      17.06.2013

17.Der Gasmarkt: Der Wendepunkt//Financial Group Prime mark/Abt. Marktanalyse www.

      research(at)prime-mark.com.(russ.)—06.2010

18.Beim Erfahrungsaustausch mit China gibt Gazprom Signale an Europa//www.energy-

     experts.ru/comments6555.html (russ.)

19.PropanFraccing—eine neue ökologische Methode zur Schiefergasgewinnung//shale gas Russia; 

http://www.pro-gas.org/2012/05/blog-post_10.html(russ.)/gasinvestingnews.com—10.5.2012

20.Diskussion mit A.G. Korshubajew//http://www.oilforum.ru/topic/22850&st (russ.)

21.1 2 3 4 5 6 Eine Schiefergasrevolution hat bisher nicht stattgefunden.  Njesawisimaja

      Gasjeta(Tageszeitung) (russ.)(11 01.2013). Archiviert anhand der Originalquelle am

       11.01.2013,  überprüft am 10.01.2013

22.Schiefergas// Beitrag Radio „Blogberg“(russ.).—27.02.2010

23.Unconventioal Gas: Shale gas//(engl.)homepage der Firma Schlumberger(franz. Serviceunter-

     nehmen der KW-Industrie)

24.Arbat Kapital(russ. Finanzberatungsfirma): Der Sektor Schiefergas-Die Interessen sind

     ungebrochen//Beitrag Radio „Blogberg“.—15.03.2010

25.Facts about shale gas// Homepage des American Petrolium Instituts(engl.)—07.2013

26.Schiefergas-einMythos oder Boom?//Internetversion der Fachzeitschrift „Erdgas-/Erdölvertikale“

     kein Datum(russ.)

27.US-Canadian shale could neutralize Russian energy threads to Europeans(engl.)//Rice

     University, News&Media , kein Datum(russ.)

28.An unconventional glut//TheEconomist(engl.)—10.03.2010

29.US to take on rivals in natural gas, Financial Times, (engl.)—07.10.2010

30.White House, Office of the Press Sectetaryengl.(engl.)—17.11.2009

31.In Europa wird teures Gas verboten//Wirtschaftszeitung Kommersant(russ.)—26.3. 2010

32.Die USA können an Russland den Meistertitel in der Gasförderung zurückgeben. Aber für

     Gazprom  hat sich ein Konkurrent in Europa gezeigt//euronewsru.com(russ.)—6.04.2010

33.Shale gas in Europe—Overview, Potential and Research//GFZ Potsdam(engl.)—10.06.2009

34.Der ukrainische Botschafter in der Türkei: Es ist notwendig, die Möglichkeiten der

      Schiefergasförderung in der Ukraine zu überprüfen//

35. In den polnischen Tiefen wurde eine riesige Gasblase gefunden//Wirtschaftszeitschrift

     Kommersant,6;04.2010.

36.Die Zukunft des polnischen Schiefergases—Informationsseite InoCMi.Ru“Alles, was sich lohnt

     zu übersetzen“//—17.08.2011 dort auch engl. Original „The future of Polish Shale gas“

37.Der Runde Tisch der Staatsduma//Homepage der russ. Staatsduma

38.Gazprom nimmt nicht am Wettrennen um Schiefergas teil.//Informationsseite InoCMi.Ru“Alles,

      was sich lohnt zu übersetzen“//—17.02.2012 dort auch engl. Original „Gazprom sits out  Shale

     Race“ 

39.1 2 Schmatko beruhigt hinsichtlich des Schiefergasrausches// Wirtschaftsseite Rosbalt(russ.).

      —8.04.2010

40.Erstmals anerkannte Russland die Gefahr des Schiefergases//russ. Internetsite Lenta.Ru(russ.)

     —19.04.2010

41.Das russische Energieministerium verringerte die Prognosen für den Export und die Preise für

     russisches Gas, Es ist an der Zeit für Gazprom, über Schiefergasnachzudenken.//ga-zeta.ru (russ.), nach der Originalquelle am 25.10.2012 archiviert, überprüft am 29.08.2012

42.Sitzung der Kommission für Fragen der Entwicklungsstrategie des Energiekomplexes und für

     Fragen der ökologischen Sicherheit// kremlin.ru.; hompage des russ. Präsidenten, aus der Ori- 

     ginalquelle am 04.11.2012 archiviert, am 28.10.2012 überprüft(russ.)

43.Pressübersicht>China>Erdöl,Gas, Kohle> polpred. Com;01.08.2011 (russ.)

44.Die Zusammenarbeit auf dem Gebiet der Energetik zwischen China und Russland beschränkt

     sich nicht nur auf Erdgas und Erdöl//russionpeople.com—14.10.2011(russ.)

46.Ist die Zeit des billigen Gases vorbei?//Presseübersicht—19.08.2011(russ.)

47.Experten bewerten die Perspektiven von amerikanischem Schiefergas auf dem europäischen

      Markt skeptisch//Presseagentur Tass—13.09.2011 (russ.)

48.Die Geldpolitik Russlands— „Beitrag Expert-TV“, 27.09.2012 (russ.)

49.Shale gas in Europe and America//The Economist, 26.11. 2011(engl.)

50.Azaroff nannte die Gewinner der Ausschreibung über Schiefergasförderung in der

     Ukraine//Internetvariante der Zeitung „Korrespondent“(russ.)—12.05.2012

51.Shell begann auf Schiefergas in der Ukraine zu bohren//Informationsseite Lenta.ru, 25.10.2012

     (russ.)

52.Shell und die Ukraine einigten sich über die Teilung der  von Schiefergas im Gebiet

53.Donjetzk//www.tc.ua. , archiviert aus der Originalquelle am 03.02.2013, am 28.01.2013

      überprüft(russ./ukr.)

54.In Donjetzk beschuldigten auf einem Meeting die Kommunisten die „Partei der Regionen“ darin, dass sie das Programm von Hitler ausführe//www.62.ua., archiviert aus der Originalquelle am 12.03.2013, überprüft am 28.02.2013, (russ./ukr.)

In Donjetzk fand eine Protestaktion gegen die Schiefergasförderung statt. // rian.com.ua, archiviert aus der Originalquelle am 12.03.2013, überprüft am 28.02.2013,(russ./ukr.)55.

56.Die Bürger der ukrainischen Gebiete Donjetzk und Charkov sammeln Unterschriften gegen das

      Projekt der Schiefergasförderung //www.angi.ru. archiviert aus der Originalquelle am

      12.03.2013, überprüft am 28.02.2013,(russ./ukr.)

55.Beach Petroleum eyes shale gas projekt// The Advertiser(UK), http://tinyurl.com/mjx7r7m

     17.11 2009 (engl.)

56.Shale gas: Could it be a new energy source? //“The Times of India“—9.08.2009(engl.)

57.Unconventional gas systems in China//http://tinyurl.com/l8jbael International Geological

     Congress, Oslo 2008 (engl.)

58.Shale gas in North America//Northeast Energy and Commerce  Association; Artikel nicht vorh.

59.Die Gasambitionen von China//Finanzzeitschrift „Kommersant“(russ.).—19.03.2012

7.         Literatur

Unconventional gas shales: development, technology, and policy issues.(Congressional Research Service)(Report): An article from: Congressional Research Service (CRS) Reports and Issue Briefs by Anthony Andrews, Peter Folger, Marc Humphries, and Claudia Copeland (Digita) — 2010

8.         Verweise(Links)

– Shale Gas Primer, 2009 pdf (http://tinyurl.com/kstgwbw)Katelyn M. Nash (Editor).

– Shale Gas Development: Nova Science Pub Inc, 2010 ISBN 1-6169-545-, ISBN 978-1-61668545

   – Naturgas(russ.)

– Die Bewertung der Schiefergasvorräte der USA(russ.), Schiefergas: Ein Signal an

   Gazprom(russ.)       Ende der Übersetzung

Das Schiefergaspotential in Deutschland

            Deutschland wurde im russischen Wikipediabeitrag nur randlich erwähnt. Diesen Zustand möchte ich nun etwas korrigieren. Zum Mai 2012 wurde in diesem Zusammenhang durch die Bundesanstalt für Geologie und Rohstoffwirtschaft (BGR in Hannover) die sog. „Schiefergasstudie“ veröffentlicht. Gegenstand dieser Studie ist das Schiefergaspotential von Deutschland. Demnach wurden drei Tongesteinsformationen (mit insgesamt acht Einzelhorizonten) mit signifikanter Gasführung betrachtet. Das sind im Einzelnen Gesteine des Unterkarbons, des sog. Posidonienschiefers aus der Jura sowie Gesteinshorizonte der Unterkreide (Wealden). U.a. nach Erfahrungen aus den USA wurden Formationen mit Tiefenlagen unter 5000 m sowie mit Mächtigkeiten unter 20 m nicht betrachtet. (Diese Tiefenbegrenzung wurde vor allem deswegen vorgenommen, weil  ab bestimmten Tiefenlagen wegen dadurch verteuerten Bohrarbeiten insgesamt eine Unwirtschaftlichkeit gegeben sein würde. Die Begrenzung der Mächtigkeiten ab >=20 m hat einen bohrtechnologisch/wirtschaftlichen Hintergrund.) Die prognostizierten geologischen Vorräte (in der Studie GIP-Gas in place-genannt bzw. auf deutsch geologische Gasvorräte) belaufen sich bei 13 Bill.(10 hoch 12) m³. Als förderbar gelten 10 % der geologischen Vorräte.

            Für die Studie wurde eigens für die Ermittlung des Schiefergaspotentials von Deutschland bei der BGR eine Projektgruppe „nico“(von nichtkonentionell) geschaffen. Bei der Arbeit solcher Projektgruppen kommt es erfahrungsgemäß schon einmal vor, dass bereits vorhandenes relevantes Wissen komplett ignoriert wird, wie es auch im Fall der vorgelegten „Schiefergasstudie“ so ist (s.u.). Ganz offensichtlich hat man sich bei der Erstellung der Studie große Mühe gegeben. Für die Erstellung dieser Studie müsste theoretisch ein kolossaler Aufwand betrieben worden sein: In jedem Bundesland existieren bei den entsprechenden Landesämtern (in jedem Fall der mit Geologie verbundenen) sog. Landesbohrdatenbanken, in denen gemäß einem von der BGR vorgegebenem Schlüssel so gut wie alle jemals erlangten und dokumentierten Bohrergebnisse landesspezifisch festgehalten sind. Entsprechend der in den Datenbanken vorhandenen stratigraphischen Merkmale könnten dann daraus Koordinaten (die geografische Lage von Bohrungen) sowie bohrungsbezogene Mächtigkeiten gewünschter Horizonte selektiert werden (also praktisch die Raumkoordinaten der Körper bestimmter Horizonte). Damit wäre die Grundlage für die Erstellung von horizontbezogenen Karten für die Darstellung bspw. der Mächtigkeiten (sog. Isopachen) und Verbreitung der jeweiligen Horizonte gegeben. Daraus wiederum könnte man nun das Volumen einer interessierenden Schicht bestimmen. Bei Kenntnis des mit Gas gefüllten Porenraumes des Gesteins, aus dem der betrachtete Horizont besteht, lässt sich dann die Größe des GIP ermitteln. (Ja, so einfach ist das Prinzip der Berechnung von Rohstoffvorräten). Es wäre auch noch möglich, was mir jedoch nicht bekannt ist, dass man die zur Berechnung von Rohstoffvorräten anhand dafür unbedingt notwendiger horizontbezogener Karten, Darstellungen o.ä. bereits im Rahmen früher bearbeiteter Projekte bewerkstelligte. Auf prinzipiell andere als die beschriebene Weise wäre man niemals in der Lage, halbwegs zuverlässig Vorräte natürlicher unter der Erdoberfläche lagernder Rohstoffe zu berechnen.

            Anhand des Literaturverzeichnisses war auffällig, dass das Gros der dort enthaltenen Arbeiten nach dem Jahr 2007 erschien. Aber wahr ist andererseits, dass die Mehrheit der Informationen über schiefergashöffige Horizonte weit vor dem Jahr 2000 gewonnen wurde.  Im Literaturverzeichnis ließ sich Literatur über in der Fachwelt  (relevante jedoch unveröffentlichte Arbeiten) wohl bekannte Vorhaben in Form firmeninterner Ergebnisberichte über bspw. Kartierungsarbeiten (oder auch Kartierungsbohrungen) sowie auch komplexe Maßnahmen der Suche und Erkundung bspw. von Erdöl und Erdgas der Ostdeutschen Staatsmonopolfirmen Erdöl/Erdgas Grimmen, Geophysik Leipzig, Geologische Forschung und Erkundung Halle und auch des ZGI (Zentrales Geologisches Institut Berlin) nicht einmal randlich erwähnt. Vielmehr zog man es vor, oberflächlich („Oberflächlich“ deshalb, weil in geowissenschaftlichen Publikationen keine „Staatsgeheimnisse“ preisgegeben werden durften. Solche Informationen galten durchweg als Staatsgeheimnis) gehaltene Publikationen andererseits in der Fachwelt recht gut bekannter Autoren zu zitieren. Im Literaturverzeichnis findet man nicht nicht die geringste Spur derartiger Arbeiten! Eben gerade Mitarbeiter der BGR hätten besten Zugang zu den unveröffentlichten Berichten erhalten, die in den entsprechenden Landesämtern, wie in der Branche wohl bekannt, komplett archiviert sind.

Weitere Fragen zum Schiefergas

            Bspw. im englischsprachigen Wikipediabeitrag wie auch in anderssprachigen zum Thema ist eine Tabelle als eine Art Rangliste bestimmter Länder nach der Größe ihres Schiefergaspotentials dargestellt. Von Vornherein ist dabei klar, dass in solchen Listen Länder wie z.B. Kanada an vorderen Plätzen und solche wie z.B. Liechtenstein auf hinteren Plätzen rangieren würden. Derartige Ranglisten kann man getrost als Makulatur, sinnfreie Lückenbüßer oder auch z.B. als bloße Spielerei bezeichnen. Sind doch die Angaben zu Schiefergasmengen zur Zeit noch gröbste Schätzungen, die in Wahrheit auf sehr einfachen Berechnungen basieren aber eben besonders für Fachfremde den Eindruck erwecken, auf kompliziert erscheinende Weise ermittelt worden zu sein(s. BGR-Schiefergasstudie).

            Man muss sich im Zusammenhang mit der Realisierung der Schiefergasförderung die ganz natürliche Frage stellen, welche Kriterien beim Ansatz einer Förderbohrung angesetzt werden müssten. In Form bspw. methodischer Anleitungen liegt da keinesfalls etwas Derartiges vor. (Was ja auch in der Natur der Dinge liegt, wenn etwas neu angefangen wird!) Logischerweise müsste ein Bohransatzpunkt für eine Förderbohrung innerhalb der Fläche der Verbreitung gasführender Horizonte liegen. Es ist logisch, dass die bisher nicht nur in Deutschland (auch wenigstens im restlichen westlichen Europa) ausgewiesenen Schiefergasgebiete hauptsächlich auf Archivinformationen (s.u.) beruhen und nicht nur deshalb starken Wahrscheinlichkeitscharakter tragen. Die gasführenden Horizonte (sowie ihre strathigraphischen Positionen) sind qualitativ weitgehend im Voraus bekannt. Es ist jedoch eine Annahme, dass sie durchgängig mehr oder weniger gleichmäßig gasführend seien. Gesetzmäßigkeiten über die Gasführung und deren Charakter (z.B. Chemismus/Genese) sind weitgehend unerforscht. (Die Annahme über eine durchgehende Gasführung als solche, hat sich zumindest durch die US-amerikanische Praxis der Schiefergasförderung als nicht ganz fehl am Platz erwiesen.)

            Zum hinreichend sicheren Ausweis von Schiefergasfeldern bzw. Gebieten mit wirtschaftlich gewinnbarem Schiefergas ist eine der Gasförderung vorausgehende Erkundung einfach notwendig. Was dabei, qualitativ gesehen, anzuwenden ist, scheint auf der Hand zu liegen: Dabei kann es sich nur um Erkundungsbohrungen in Kombination mit oberflächengeophysikalischen Untersuchungen handeln (Letzteres ist z.B. seismische Modellierung zur Feststellung der Schichtung des Untergrundes sowie der Kontinuität interessierender Horizonte zwischen den Bohrungen.) Dabei drängen sich sofort bestimmte Fragen auf: Was ist z. B. „hinreichend sicher“? Welche Untersuchungabstände sollten zum Tragen kommen? u.v.a. Fragen. Auf jeden Fall steht da (auch aus internationaler Sicht) noch einiger Aufwand zur Schaffung einer geeigneten bzw. fundierten Methodik für u.a. die geologische Erkundung (Exploration) bevor, der auch allein von Deutschland nicht befriedigend zu bewältigen sein wird. Nebenbei gesagt, hat man in den USA mehr als 30 Jahre gebraucht,  um sich letztendlich zu getrauen, das Schiefergas auch tatsächlich „anzufassen“. Es könnte sich jedoch für künftige Schiefergasförderer erweisen, dass sich bspw.  Betrachtungen über die Sicherheit eines Mengennachweises förderbaren Schiefergases als praktisch völlig unnötig erweisen, ohne dabei der Gewährleistung einer künftigen stabilen planbaren Schiefergasförderung hinderlich zu sein. Ja, man könnte so noch lange mit dem Stellen aller möglichen Fragen fortfahren! Ganz offensichtlich treffen hier eher europäisch geprägtes Sicherheitsgebahren auf die sprichwörtliche nordamerikanische unternehmerische Risikobereitschaft aufeinander!

Fazit

            Man hat letztendlich auch in Russland die Notwendigkeit einer, künftigen Förderung von Schiefergas erkannt. Mein persönliches Fazit als ehemaliger Gegner (mit emotionell betonter Gegnerschaft-aber auch nicht des Fraccings) der Schiefergasförderung als solcher lautet so: So wird man auch in Deutschland, unabhängig von allen möglichen tatsächlich bestehenden Unwägbarkeiten, nicht umhin kommen, schon allein wegen des großen vor allem wirtschaftlich internationalen Druckes, sich schließlich positiv für eine Schiefergasförderung zu entscheiden.

            Ich befürchte nur aufgrund dessen, dass das Schiefergas im Grunde genommen ein fossiler Brennstoff ist, dass der Wahn mit dem weiteren Ausbau der sog. erneuerbaren Energien und auch die „Eierei“ um die Kernenergie so weitergeht wie bisher. Es ist auch klar, dass man die Beantwortung einer Frage, durch die Beantwortung einer anderen, auf die lange Bank schieben kann! Im Zusammenhang mit der Energiefrage gibt es da, um bei Russland zu bleiben im unmittelbaren Zusammenhang mit der Tschernobyl-Katastrophe eine Äußerung des bekannten Dissidenten und Kernphysikers Andrej Sacharov, dass die Menschheit sich nicht von der so effizienten und quasi schier unendlich zur Verfügung stehenden Kernenergie so einfach trennen dürfe, sondern man dafür sorgen müsse, dass die Kernenergienutzung so ungefährlich wie möglich zu gestalten sei, indem man die Anlagen z.B. tief unter die Erde verlegen solle.

            Insgesamt betrachtet, möchte man da nicht in der Haut von entscheidungstragenden ernsthaften Politikern (Die soll es ja tatsächlich geben!) stecken!

Halle(S.) im August 2013                               gez. Dipl. Berging.-Geol.

                                                                      Dr. rer. nat. Bernd Hartmann

                                                                      Große Brauhausstraße 19/06108 Halle(S.)

Der Beitrag wurde am 20.8.13 9:35 wg. Schreib/Formatierungsfehlern korrigiert  




Ich bin zu 100% sicher, dass das IPCC lügt!

Experts surer of manmade global warming but local predictions elusive – World – DNA

Da sind sie sich so sicher, dass Kevin Trenberth [bereits im Oktober 2009 den folgenden Brief verschickt hat [Original siehe rechts!] Übersetzt:

"…

Hallo zusammen,

Nun habe ich meinen eigenen Artikel zum Thema ‚wo zum Teufel steckt die globale Erwärmung?’ Das fragen wir uns hier in Boulder, wo während der letzten beiden Tage Rekorde gebrochen worden sind, waren es doch die kältesten zwei Tage jemals. Es gab 4 Inches [ca. 10 cm] Schnee. Das Maximum der letzten beiden Tage lag unter 30°F [ca. -1°C], normal wären 69°F [ca. 20°C]. Der bisherige Rekord für diese beiden Tage wurde um 10°F [ca. 5 K] unterboten. Der Tiefstwert lag bei 18°F [ca. -8°C], was ebenfalls ein Rekord-Tiefstwert ist, deutlich unter dem bisherigen Rekord.  Dies ist Wetter im Januar (…).

Trenberth, K. E. 2009: …

Tatsache ist, dass wir uns das Fehlen der Erwärmung derzeit nicht erklären können, und es ist eine Schande, dass wir es nicht können. Die im August im BAMS 2009 [BAMS = Bulletin Am. Met. Soc., die Fachzeitschrift der AMS. A. d. Übers.]  veröffentlichte Ergänzung zu 2008 zeigt, dass es sogar noch mehr Erwärmung hätte geben müssen: Aber die Daten sind mit Sicherheit falsch. Unser Beobachtungssystem ist unzulänglich."

Sie können sich das Fehlen der Erwärmung nicht erklären, aber sie sind sich zu 95% sicher, dass die Erwärmung, die sie nicht erkennen können, durch den Menschen verursacht ist.

Schon im Jahr 1999 hat James Hansen geschrieben:

"In den USA hat sich die Temperatur während der letzten 50 Jahre wenig verändert, also während der Zeit der rapide zunehmenden Treibhausgase – tatsächlich gab es in fast allen Gebieten des Landes eine leichte Abkühlung."

NASA GISS: Science Briefs: Whither U.S. Climate?

Dank an Tom Nelson und Marc Morano

Link: http://stevengoddard.wordpress.com/2013/08/16/im-100-sure-that-the-ipcc-is-lying/

Auf dem Blog von Steven Goddard findet sich hierzu Folgendes:

Die neue Sicherheit des IPCC beträgt 95%. – Was? Nicht 97%??

Anthony Watts

Gerade mal 2% unter magischen Zahl von 97%. Ich bin sicher, die [SkS kidz] werden am Boden zerstört sein.

Reuters:

Im Entwurf der Studie von einem UN-Experten-Ausschuss, der von Reuters eingesehen werden konnte und im nächsten Monat veröffentlicht werden soll, heißt es, dass es zu mindestens 95 Przent wahrscheinlich ist, dass menschliche Aktivitäten – hauptsächlich das Verbrennen fossiler Treibstoffe – der wesentliche Grund für die Erwärmung seit den fünfziger Jahren sind.

Das ist eine Steigerung von 90% im vorigen Bericht 2007, 66 Prozent 2001 und gerade über 50 Prozent 1995. Dabei wurden stetig die Argumente einer kleinen Minderheit von Wissenschaftlern verdrängt, dass natürliche Variationen des Klimas verantwortlich sein könnten.

Dies verschiebt die Debatte auf das Ausmaß der Temperaturanstiege und zu den wahrscheinlichen Auswirkungen – von beherrschbar bis katastrophal. Die Regierungen haben beschlossen, bis Ende 2015 einen internationalen Vertrag auszuarbeiten, die Emissionen zu drosseln.

„Wir sind ein wenig sicherer geworden, dass die Klimaänderung … zum größten Teil vom Menschen verursacht ist”, sagte Reto Knutti, ein Professor an der Eidgenössischen Technischen Hochschule Zürich. „Wir sind uns weniger sicher, dass viele hinsichtlich der lokalen Auswirkungen Hoffnungen hegen“.

Verlangsamung der Erwärmung

Der Ausschuss wird zu erklären versuchen, warum die globalen Temperaturen, obwohl immer noch steigend, seit 1998 langsamer gestiegen sind, obwohl die Treibhausgase dem Vernehmen nach während dieser Zeit wiederholt rekordhohe Konzentrationen erreicht haben, am meisten durch industrielle Emissionen von China und anderen Entwicklungsländern.

In einem IPCC-Entwurf heißt es, dass es ein „mittleres Vertrauen“ gibt, dass die Verlangsamung der Erwärmung „etwa zu gleichen Teilen“ natürlichen Variationen des Wetters und anderen Faktoren, die die auf der Erdoberfläche einfallende Strahlung beeinflussen, geschuldet ist.

Wissenschaftler glauben, das die Gründe u. A. Folgende sind: Größere Mengen Vulkanasche als erwartet, die das Sonnenlicht schwächt; eine Verringerung der Wärme durch die Sonne während des derzeitigen 11-jährigen solaren Zyklus’; mehr durch die tiefen Ozeane absorbierte Wärme oder die Möglichkeit, dass das Klima auf den steigenden Gehalt an Kohlendioxid weniger sensitiv reagiert als erwartet.

„Es könnte auf geringere Beiträge hinauslaufen, die sich alle addieren“, sagte Gabriele Hegerl, eine Professorin an der Edinburgh University. Oder, wie Wissenschaftler sagen, das vergangene Jahrzehnt ist lediglich eine Zacke.

Wissenschaftlich ausgedrückt würde ich das einen SWAG [Shock Wave Generator?] nennen.

DNAindia:

Im Entwurf der Studie von einem UN-Experten-Ausschuss, der von Reuters eingesehen werden konnte und im nächsten Monat veröffentlicht werden soll, heißt es, dass es zu mindestens 95 Przent wahrscheinlich ist, dass menschliche Aktivitäten – hauptsächlich das Verbrennen fossiler Treibstoffe – der wesentliche Grund für die Erwärmung seit den fünfziger Jahren sind. Das ist eine Steigerung von 90% im vorigen Bericht 2007, 66 Prozent 2001 und gerade über 50 Prozent 1995. Dabei wurden stetig die Argumente einer kleinen Minderheit von Wissenschaftlern verdrängt, dass natürliche Variationen des Klimas verantwortlich sein könnten.

Dieses „Verdrängen” wird stimmen – man schaue auf den Minderheiten-Standpunkt in der AGU:

http://wattsupwiththat.com/2013/08/05/pielkes-response-to-agu-statement-on-climate-change/

Sein Minderheiten-Standpunkt wurde von insgesamt 15 Personen geteilt.

Das ergibt ein Minderheiten-Votum von etwa 7% (oder eine Mehrheit von 93%) in diesem Ausschuss.

Tom Nelson wundert sich über diese 95%-Gewissheit:

Sind diese Zahlen berechnet oder lediglich irgendeinem Orakel [orifice] entnommen?

Aktualisierung:

Kurt Rohlfs schreibt via E-Mail über dieses Statement von Tom Nelson:

Im Artikel fragen Sie: „sind diese Zahlen berechnet oder lediglich irgendeinem Orakel [orifice] entnommen?“ Sie wurden nicht berechnet, zumindest falls die gleiche Methode wie im 4. Zustandsbericht angewandt worden ist. In diesem vorigen Zustandsbericht räumte das IPCC versteckt in einer Fußnote ein, dass die erwähnte 90%-Gewissheit lediglich auf „der Experten-Beurteilung“ beruht, das heißt auf Vermutung. Dies wirft natürlich die Frage auf, wie irgendein menschliches Wesen die „Expertise“ haben kann, Temperaturtrends menschlichen Gründen zuzuordnen, wenn es keinerlei wissenschaftliche Methoden oder Verfahren gibt, die diese Experten-Erwartungen verifizieren können.

Inzwischen haben sie immer noch keine Erklärung angeboten, warum die Realität und die IPCC-Modelle so stark voneinander abweichen – vielleicht weil sie das nicht können.

Link: http://wattsupwiththat.com/2013/08/16/the-ipccs-new-certainty-is-95-what-not-97/

Übersetzt und zusammengestellt von Chris Frey EIKE

Anmerkung des Übersetzers: Schon immer hat mich gewundert, warum „Experten“ keine Ahnung haben, warum die Temperatur nicht mehr steigt. Zuletzt habe ich das von Hans von Storch gehört.

Das verstehe ich nicht. Die Sonne ist doch eine ganz einfache Erklärung! Oder kann das nicht sein, weil es nicht sein darf?

C. F.




Neue begutachtete Studie: Nur 36% aller Geowissenschaftler und Ingenieure glauben an AGW

Bild rechts: Photo Wikipedia

Die Ergebnisse der Übersicht zeigen, dass Geowissenschaftler und Ingenieure die Ansichten von Meteorologen teilen. Zwei Umfragen aus neuester Zeit (zusammengefasst hier und hier) enthüllten einen ähnlichen Skeptizismus unter Meteorologen, wenn es um die alarmistischen Behauptungen von AGW geht.

Den vor kurzem veröffentlichten Umfrageergebnissen unter Geowissenschaftlern und Ingenieuren zufolge unterstützen nur 36% das Kyoto-Protokoll. Die Wissenschaftler in dieser Gruppe „verleihen ihrem starken Glauben Ausdruck, dass die Klimaänderung stattfindet, dass sie kein normaler Zyklus der Natur ist und die Menschen der zentrale bzw. Hauptgrund dafür sind“.

Die Umfrage zeigt auch, dass 24 Prozent der antwortenden Wissenschaftler dem Modell „die Natur überwiegt bei Weitem!“ anhängen. Ihrer Diagnose zufolge sind die Änderungen des Klimas natürliche, normale Zyklen der Erde. Mehr noch, „sie bestreiten sehr stark, dass die Klimaänderung irgendein öffentliches Risiko darstellt, und sie sehen keinen Einfluss auf ihr persönliches Leben“.

http://www.forbes.com/sites/jamestaylor/2013/02/13/peer-reviewed-survey-finds-majority-of-scientists-skeptical-of-global-warming-crisis/

Die Studie:

Wissenschaft oder Science Fiction? Die weitschweifige Konstruktion der Klimaänderung der Profis

Lianne M. Lefsrud, University of Alberta, Canada

Renate E. Meyer, Vienna University of Economics and Business, Austria and Copenhagen Business School, Denmark

Abstract

Diese Studie untersucht das Umfeld und identifizierende Arbeiten im Zusammenhang mit der weitschweifigen Konstruktion der Wissenschaft um die Klimaänderung, ihre Legitimation als ‚Die Experten der Wahrheit’ und ihre Haltung zu regulierenden Maßnahmen. Der Umfrage haben 1077 professionelle Ingenieure und Geowissenschaftler geantwortet, und wir rekonstruieren ihre Haltung zu dem Thema und ihre Behauptungen hinsichtlich ihres Wissens dazu innerhalb ihrer organisatorischen und professionellen Institutionen. Mit unserem Verständnis des Streites darüber, was ‚Expertise’ festlegt und legitimiert, zeigen wir die Heterogenität der Behauptungen, der Legitimierungs-Strategien und wie weit Emotionen und Metaphern verwendet worden sind. Wir verbinden Aussagen der Wissenschaft und der Science Fiction zur Klimaänderung mit der Bewertung der Eignung globaler und lokaler politischer Maßnahmen sowie potentieller organisatorischer Folgen. Auf diese Weise tragen wir zum Verständnis bei der ‚defensiven institutionellen Arbeit’ durch hauptamtlich Tätige innerhalb von Ölunternehmen, damit verbundenen Industrien, Regierungsbehörden und jeweils deren professionelle Organisationen.

Die ganze Studie: http://oss.sagepub.com/content/33/11/1477.full

PDF: http://oss.sagepub.com/content/33/11/1477.full.pdf+html

Link: http://wattsupwiththat.com/2013/08/13/new-peer-reviewed-paper-shows-only-36-of-geoscientists-and-engineers-believe-in-agw/

Übersetzt von Chris Frey EIKE




Osteuropa trachtet nach der Schiefergas-‚Revolution’

Die US Energy Information Agency EIA schätzt die Menge der kombinierten Gasreserven in Rumänien, Bulgarien und Ungarn auf über 535 Milliarden Kubikmeter Gas. Dies würde der Agentur zufolge ausreichen, um den Verbrauch in Rumänien fast 40 Jahre lang zu decken, da der mittlere jährliche Verbrauch dort etwa 14 Milliarden Kubikmeter beträgt.

Trotz dieser Gemengelage ist die Anwendung der kontroversen Methode des Fracking schon jetzt auf massive heimische Opposition in Osteuropa gestoßen.

Während Länder wie Frankreich und die Niederlande dieses Verfahren weiterhin verbieten, hat Rumänien ein solches Moratorium Anfang dieses Jahres aufgehoben. Proteste folgten. Allerdings schreitet das Land voran in seinem Bestreben, energieunabhängig zu werden und hat seitdem der US-Firma Chevron genehmigt, die Schwarzmeerregion des Landes zu erkunden. Im Juli erhielt Chevron Genehmigungen zur Erkundung zahlreicher Stellen in Ost-Rumänien, und das bedeutet, dass das Unternehmen jetzt mehr als vier Millionen Acres in Polen, Bulgarien und Rumänien geleast hat, um Schiefergas zu erkunden und zu bewerten.

Aber es wird Jahre langes Bohren und Erkunden erfordern, bevor das gesamte Potential abgeschätzt werden kann, erklärt Sally Jones, die Beraterin für Außenbeziehungen nach Europa, Eurasien und den Nahen Osten bei Chevron.

„Wir befinden uns im Anfangsstadium unserer Erkundungs-Aktivitäten in Mitteleuropa. Diese Phase der Erkundungsarbeiten wird irgendetwas zwischen drei und fünf Jahre dauern. Dann werden wir klarer erkennen, ob die Kohlenwasserstoffe tatsächlich vorhanden sind, ihr potentielles Ausmaß und ob man es kommerziell nutzen kann“, sagt Frau Jones. „Es kann weitere 10 bis 15 Jahre bis zur vollen kommerziellen Nutzung dauern“.

Die Schiefergas-Erkundung wird in Rumänien in zwei Landkreisen stattfinden – Vaslui und Konstanza – und es gibt Pläne, bereits im Herbst in Vaslui mit Bohrungen zu beginnen. Das Unternehmen versucht derzeit, die Sorgen der Bevölkerung hinsichtlich Fracking zu entkräften, und zwar selbst dann noch, als Photos auftauchen, auf denen rumänische Protestierer Transparente hoch halten mit Aufschriften wie „Go home, Chevron!“ oder „Wir sagen nein zu Shale!“

Versprechen substantieller ökonomischer Vorteile machen es den Politikern leichter, die potentiellen Umweltrisiken beiseite zu wischen und den Markt für Schiefergas aufzubauen und zu betreiben. Am bemerkenswertesten ist das Verhalten des rumänischen Ministerpräsidenten Victor Ponta, der während der Wahl im Jahr 2012 die zuvor regierende Partei noch für das Flüssiggas-Verfahren [LNG exploration] kritisiert hatte, inzwischen seinen Standpunkt geändert hat und jetzt enthusiastisch hinter diesem Prozess steht.

„Die Auswirkungen auf die Wirtschaft hinsichtlich direkter Investitionen aus dem Ausland können wichtig sein, falls diese Projekte tatsächlich voranschreiten“, sagt Alexander Wilk, ein Forschungsanalyst bei der UK-Firma Petrologica.

Aber wie realistisch sind Träume, wonach Schiefergas der ökonomische Rettungsanker im früheren Ostblock ist? Nicht sehr, sagt Wilk.

„Für ein zerstörtes Land nach der Wirtschaftskrise wird LNG nicht die goldene Lösung sein; sie wird nicht der einfache Ausweg sein”.

Also dürfte die Leidenschaft hinsichtlich Schiefer etwas voreilig sein, hat sich doch Polen als Schlachtfeld erwiesen für einige wichtige Öl- und Gasunternehmen. Die Firma Talisman Energy Inc. mit Sitz in Calgary und die US-Firma Exxon Mobil Corp. haben ihre Sachen gepackt und das Land verlassen, und zwar erst vor wenigen Monaten, nachdem glanzlose Bohrergebnisse und eine schwieriger als erwartet sich zeigende Geologie den ursprünglichen Enthusiasmus hinsichtlich der Schieferreserven in Polen erschüttert haben.

Andererseits halt Chevron noch die Stellung, um zu sehen, was weitere Erkundungen zeigen, erklärt Sally Jones. Die Arbeiten an vier Bohrlöchern, die Chevron im ganzen Land niedergebracht hat, gehen derweil weiter. „Mitteleuropa befindet sich derzeit im frühen Anfangsstadium der Erkundung … und diese Ressource könnte mit Sicherheit die Energiesicherheit innerhalb Europas erhöhen und auch enorme wirtschaftliche Vorteile bringen“, sagt sie und fügt hinzu: „wir sind immer noch zuversichtlich bzgl. der vor uns liegenden Gelegenheiten“, obwohl die Schiefergas-Revolution in diesem Gebiet nicht das Ausmaß wie in den USA erreichen könnte“.

Die polnische Regierung bleibt ebenfalls optimistisch und hat bislang mehr als 100 Lizenzen zur Erkundung von Schiefergas ausgestellt, und zwar an Firmen wie Chevron, ConocoPhillips Co. und die polnische PGNiG – das vom Staat kontrollierte Öl- und Erdgas-Unternehmen.

Erfahrene Arbeiter und die Fracking-Technologie sind auch nicht fertig verfügbar in diesem Teil der Welt, erklärt Bob Kubis, Analyst globaler Herausforderungen bei Encana, und das ist für Unternehmen, die hier anfangen zu wirken, eine große Ausgabe.

„Wenn man nicht gerade eine wichtige Rolle spielt – wo zeichnet sich ab, dass sich die Ausgaben amortisieren? Es ist immer noch ein Frühstadium, und daher kann jedes kleine Loch immer noch infolge ökonomischer Zwänge aufgegeben werden“.

Kubis räumt ein, dass der Trieb nach Energieunabhängigkeit von Moskau in Ländern wie Rumänien und der Ukraine mächtig ist, aber er sagt auch, dass dies nicht rasch eintreten wird, wenn überhaupt.

Aber es muss nicht notwendigerweise eine Alles-oder-Nichts-Situation sein, fügt er hinzu. Wenn man lediglich die Importmenge aus Russland reduziert und Beziehungen zu neuen Märkten knüpft, könnte sich das als noch vorteilhafter erweisen.

„Selbst heimische Märkte, so sie denn das russische Gas ersetzen können, werden im Markt eine Nische finden unter der Voraussetzung, dass dieses Gas billiger ist als russisches Gas“, erklärt Kubis. „Genauso, wenn sie exportieren können, vor allem nach Polen; wenn sie den deutschen Markt ins Visier nehmen können, also ein ziemlich wichtiges Stück im europäischen Nachfrage-Markt, dann wird man eine ziemlich rasante Entwicklung erleben, wenn all das erfolgreich verläuft“.

Link: http://www.theglobeandmail.com/report-on-business/breakthrough/eastern-europe-seeks-shale-gas-revolution/article13738672/

Übersetzt von Chris Frey EIKE