1

Erstmals Abbau von Methanhydrat vor der Küste von Zentraljapan

Das Tiefseebohrschiff des Unternehmens CHIKYU ist vorige Woche zu einer Bohrstelle in See gestochen, die im vorigen Jahr erbohrt worden ist. In etwa 1000 Meter Wassertiefe hat der Bohrer eine 300 Meter unter dem Meeresboden liegende Schicht von Methanhydrat erreicht, in der der Test durchgeführt werden soll. Dem Methanhydrat, auch als „brennendes Eis“ bekannt, war als neue und reichliche natürliche Treibstoffquelle viel Aufmerksamkeit zuteil geworden.

Der nächste Schritt wird die Niederbringung eines großen Rohres in das Bohrloch sein, um das Methanhydrat in Methangas und Wasser aufzuspalten. Wenn alles nach Plan läuft, und bislang gibt es keine Verzögerungen bzgl. des Ablaufs, wird der Abbau im März beginnen. Geschätzt wird eine abgebaute Menge bis zu 10000 Kubikmeter Gas pro Tag während eines Zeitraumes von zwei Wochen. Schätzungen zufolge liegt in den Küstengewässern Japans 100 mal die Menge Erdgas, die das Land pro Jahr verbraucht, und das Energieministerium der Regierung plant, die Japanische See systematisch nach Methanhydrat abzusuchen.

Adam Westlake

Link: http://japandailypress.com/worlds-first-methane-hydrate-mining-to-begin-off-central-japan-coast-0422630

Übersetzt von Chris Frey EIKE




„Deutschland – ein Winter-Märchen“ … … wie die Klima-Warmisten Heinrich Heine verleugnen

"Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben", sagt der Wissenschaftler Mojib Latif vom Hamburger Max-Planck-Institut für Meteorologie." Dieses Zitat stammt aus einem SPIEGEL-Interview des Jahres 2000, mit der Schlagzeile "Winter ade: Nie wieder Schnee? In Deutschland gehören klirrend kalte Winter der Vergangenheit an".

Allerdings – vielleicht beliebte Herr Prof. Latif auch nur zu scherzen, denn  –  der Artikel  erschien im Jahre 2000 am 1. April !

Unter diesem Aspekt könnte man leicht darüber hinweg gehen, wenn – ja wenn  – diese Aussage von Herrn Latif und auch anderen Klima-Forschern nicht in ständiger Wiederholung stände, z.B.[2]:

"Die sehr milden Winter in den vergangenen Jahrzehnten sind vor allem auf den anthropogenen Treibhauseffekt zurückzuführen. Als Konsequenz registrieren wir beispielsweise einen Rückgang der Schneefälle. Während die heute 50-Jährigen als Kinder fast in jedem Winter Schlitten fahren konnten, müssen Kinder heute oft viele Jahre auf größere Mengen Schnee warten."

Das müssen die Kinder seit fünf Jahren nun nicht mehr –  wie schön für unsere Kinder !

Aber – das alles war offensichtlich noch nicht ausreichend, denn nur zwei Jahre später (2005) ließ sich Mojib Latif erneut vernehmen[3], nun gleich für 50 Jahre im voraus:

‚2050 kein Schnee mehr im Flachland ; Mainz (dpa). Die Winter in Deutschland werden nach Ansicht des Kieler Klimaforschers Mojib Latif weiterhin wärmer. Ohne künftigen Klimaschutz "wird es im Jahr 2050 in Deutschland keinen Schnee mehr geben – zumindest nicht im Flachland", sagte der Professor vom Institut für Meereskunde der Universität Kiel gestern im ZDF-Mittagsmagazin. Der beobachtete Trend zu wärmeren Wintern werde sich fortsetzen.‘

Darf man auch hier mal nachfragen:

Wo ist dieser Trend nur in den vergangenen fünf Wintern geblieben ?

In einem Konferenz-Bericht der Dow Jones News GmbH[4] wird der "…renommierte Kieler Klimaforscher Prof. Mojib Latif…" dort sinngemäß so zitiert:

‚Die von den Wissenschaftlern diskutierten Szenarien gingen von einer weiteren Erwärmung von durchschnittlich 1,4 bis 5,8 Grad bis zum Jahrhundertende aus. In Deutschland werde es dann keinen Frost oder Schnee mehr geben, in heißen Klimazonen komme es zur Verwüstung.‘

Alle diese Aussagen  –  zumindest soweit sie bis in die Gegenwart reichen, also bis 2013  –  sind widerlegt: Die Natur macht was anderes! … das Gegenteil!

Den ersten Klima-Warmisten, denen schon zu Weihnachten 2010 etwas "Passendes" dazu einfiel, waren die des PIK, und zwar  –  wiederum passend – in BILD[5]

"Das Potsdam-Institut für Klimafolgenforschung sieht den strengen Winter als eine Folge der Erderwärmung: Eisige Winde würden ihn auslösen, die durch den Klimawandel in der Arktis jetzt ungehindert zu uns nach Europa kämen"

‚Kann ja sein‘, könnte eine erste Reaktion der BILD-Leser sein; jedoch stellt sich auch dabei sofort die Frage:

‚Wieso haben die Forscher solcherart Erklärungen immer nur erst hinterher ?‘

Aber die Alarmisten wissen sich erneut mit einer Volte zu helfen, und zaubern rasch ein Kaninchen aus dem Klima-Hut[6]:

"Neue Studie zeigt Zusammenhang zwischen arktischer Meereisbedeckung im Sommer und dem Winterwetter in Mitteleuropa …. Die Wahrscheinlichkeit für kalte, schneereiche Winter in Mitteleuropa steigt, wenn die Arktis im Sommer von wenig Meereis bedeckt ist."

Hat man denn je  v o r  den kalten Wintern der letzten Jahre so eine Klima-Modell-Prognose vernommen? NEIN!

Genau  d a s  ist es, was (z.B. und unter Anderen) auch der Züricher WELTWOCHE auffiel[7]:

"…sind drei kalte Winter (Anm.: 2008-2010/11) … zufällig?" … "Solche Winter sind unangenehm, nicht nur für diejenigen, die frieren, sondern auch für diejenigen, die wegen des CO2-Ausstoßes wärmere Temperaturen angekündigt haben" … "Die Realität sei, schrieb der amerikanische Klimaforscher JUDAH COHEN, daß wir nicht trotz des Klimawandels frieren, sondern wegen ihm" … "Überzeugend wäre eine solche Erklärung aber nur, wenn sie nicht erst im Nachhinein käme. Stattdessen wurde jahrzehntelang das Gegenteil verkündet. Man erinnere sich an DAVID VINER von der britischen Climat Research Unit. Im Jahre 2000 hatte VINER gesagt, Schneefall in Großbritannien werde in wenigen Jahren sehr selten und eine Sensation sein. Kinder werden bald nicht mehr wissen, was Schnee ist."

Der frühere Fernseh-Meteorologe Wolfgang Thüne nimmt die ganze Angelegenheit unter fachlichen meteorologischen Aspekten auseinander[8]:

"Die hier [AWI-PM] publizierte AWI-Hypothese sagt nun:

<Die vorliegenden Modellrechnungen zeigen, dass der Luftdruckgegensatz bei geringerer sommerlicher arktischer Meereisbedeckung im darauf folgenden Winter abgeschwächt wird, so dass arktische Kälte bis in die mittleren Breiten vordringen kann.>

W e n n  dem so wäre, d a n n  müssten wir seit etwa 20 Jahren überwiegend kalte Winter haben,  denn mindestens seit dieser Zeit haben wir eine relativ sehr geringe arktische Eisbedeckung.

W e n n  diese AWI-Hypothese wissenschaftlich schlüssig wäre,  d a n n  müsste der Index der Nordatlantischen Oszillation (Luftdruck-Gegensatz Island-Azoren; vgl. Abbildung) seit ca. 30 Jahren weitgehend negativ sein  – das Gegenteil ist der Fall, wie die Abbildung zeigt : positiv 22, negativ 7, +/- Null 1 ! Selbst in den letzten 10 Jahren nur ‚halbe-halbe‘."

Abb.siehe Bild rechts oben: Index der Nordatlantischen Oszillation[9]

Ob kalte Winter in Europa, ob Temperatur-Entwicklung global:

Die Klimaforscher mit ihren Modellen sind "in schwerer See": Seit 15 Jahren stagniert die Erderwärmung[10]:

"…. Doch längst hat sich herumgesprochen, dass sich das Klima zuletzt anders entwickelt hat als vorhergesagt: Seit 15 Jahren stockt die Erwärmung, der Aufwärtstrend der globalen Durchschnittstemperatur hat sich seit 1998 nicht fortgesetzt. "Der Stillstand hat zu der Annahme geführt, die globale Erwärmung habe aufgehört", räumt die Nasa ein."

Dieses wird in den englisch-sprachigen Medien schon länger diskutiert, und hat nun auch die deutsche Öffentlichkeit erreicht[11].

Wie unangenehm, denn noch unlängst hörten wir sowas[12]:

"Die Er­wär­mung ent­wi­ckelt sich wie vor­her­ge­sagt. Die Mo­del­le wur­den auch an ver­gan­ge­nen Kli­ma­än­de­run­gen ge­tes­tet. Es gibt kei­nen Grund, den Mo­del­len zu miß­trau­en"

D A S   kann man offensichtlich auch anders sehen:

[13]

"Mit der gegenwärtig beobachteten Klima-Entwicklung sind die Modelle also nicht konsistent", gesteht Jochem Marotzke, Direktor des Hamburger Max-Planck-Institutes für Meteorologie.

[14]

"Nach unseren ersten Berechnungen müsste es in den kommenden Jahren sprunghaft wärmer werden. Aber wir trauen dieser Prognose nicht über den Weg. Denn die Simulation hätte auch den derzeit herrschenden Stillstand beim Temperaturanstieg vorhersagen müssen – was nicht gelang."   

Kevin Trenberth[15] schrieb am 11. Oktober 2009[16] an Hockeystick-Erfinder Michael Mann:

„Fakt ist, dass wir für die fehlende Erwärmung keine Erklärung haben und es ist ein Hohn, daß wir sie nicht haben“

(“The fact is that we cannot account for the lack of warming at the moment and it’s a travesty that we can’t.”).

Wie sagte doch der Kollege aus Kiel gleich noch (?) :

"…müssen Kinder heute oft viele Jahre auf größere Mengen Schnee warten."

Kinder, wie Ihr seht: Auch Professoren können irren, manchmal sogar fünf Jahre an einem Stück. Schaut einfach aus dem Fenster, auch in den nächsten Jahren, und lasst den Professor im Keller sitzen!

Fazit:

Weder die Winter in Europa noch die Temperaturen global machen  d a s , was Klima-Alarmisten und Modelle vorhergesagt haben. Was für eine Blamage für die etablierte Klima-Forschung. Häme jedoch ist da u.E. völlig unangebracht, denn es ist einfach nur noch peinlich für die Wissenschaft. Am Ehesten trifft da noch ein Zitat, dessen Ursprung zwar schon mehr als ein Jahr zurück liegt, aber das just – zumindest nun auch für manchen Naturwissenschaftler – wieder ganz aktuell ist:

"Dafür schäme ich mich nicht nur heimlich".

Klaus-Eckart Puls,  EIKE


[1] http://www.spiegel.de/wissenschaft/mensch/0,1518,71456,00.html ; 01.04.2000

[2] DIE ZEIT, 27. März 2002, Nr. 14, DOSSIER, Das große Schmelzen hat begonnen: Abbrechende Eisberge, schwere Überschwemmungen und andere Folgen der globalen Erwärmung / Von MOJIB LATIF

[3] Leipziger Volkszeitung, 1./2. Oktober 2005

[4] Dow Jones News GmbH Frankfurter Beratungsunternehmen 3c Climate Change Consulting GmbH, Bericht über die Konferenz am 28. und 29. März 2006 "Fachwelt entdeckt Klimahandel als Quelle für Investment und Finanzierung"

[5] BILD, 23.12.2010, S.7

[6] AWI, Presse-Mitt. 26.01.2012,

[7] WELTWOCHE, Frostbeulen der Erderwärmung, 1/2011, S.40

[8] http://www.eike-klima-energie.eu/news-cache/alfred-wegener-institut-wittert-lukratives-geschaeft-in-der-wetterwahrsagerei/

[9] Quelle: http://www.cru.uea.ac.uk/~timo/datapages/naoi.htm

[10] http://www.spiegel.de/wissenschaft/natur/stillstand-der-temperatur-erklaerungen-fuer-pause-der-klimaerwaermung-a-877941.html  ; 18.01.2013

[11] http://www.eike-klima-energie.eu/news-cache/klima-skepsis-erreicht-auch-die-deutschen-medien/ ; 30.01.2013

[12] Leipniz-Inst. Kiel, Mojib Latif, in : BILD , 20.09.07, S.13

[13] FOCUS-ol. : (http://www.focus.de/wissen/weltraum/odenwalds_universum/tid-25498/neuer-bericht-sorgt-fuer-kontroverseerderwaermung-eine-frage-deransicht_aid_737040.html ; 16.04.2012…)

[14] J. Marotzke, MPI HH, in: DER SPIEGEL, 27.02.2012, S. 113

[15] National Center for Atmospheric Research (NCAR) in Boulder, Co., USA

[16] Trenberth-Email, aufgedeckt im ClimateGate-Skandal 2009, email 1255352257*,  hier nachzitiert aus: DIE WELT, 03.12.09, S.3 ;




Warnung vor dubiosen Petitionsaufrufen!

Organisationen mit dubiosen Absichten:

Name: avaaz.org, Aktion: Petition: /de/petition/Stoppt_die_Energiewende_

damit_Strom_bezahlbar_bleibt/?launch, Vermutetes Ziel: hier, Akteur: Dr. Kindel

Name: Greenpeace, NABU, BUND, WWF usw.

Folgende Organisationen/WEB-Sites verfolgen zumindest teilweise deckungsgleiche Interessen und sind deshalb für Information und Aktion hilfreich.

Name: Bürger für Technik, Aktion: Aufklärung, Name: Dr. Lindner

Name: NAEB (http://www.naeb.info/), Aktion: Aufklärung, Name: Duepmann

Name: Partei der Vernunft, Aktion: Noch in Klärungsphase, Name: Breunig

Name: EPAW European Plattform against WIndfarms, Aktion: Umweltschutz, Name: Buttre

Name: VI-Brandenburg, Aktion: Flächendeckende WK-Verhinderung, Name: Jakob/Gurczik

Lokale Anti-Windkraft-Organisationen

Beteiligen Sie sich bitte nie an Petitionen. Ihre Adresse wird in jedem Fall an Dritte weitergegeben und Sie wissen nie, an wen diese Adresse geht und wofür sie verwendet wird!

Wir danken Herrn Duepmann von NAEB für seine Mail an uns, in welcher er uns auf die Gefahren einer Beteiligung an Petitionen aufmerksam machte. Den Aufruf zur Unterzeichnung der AVAAZ Petitition zum Stop der Energiewende haben wir inzwischen aus diesen Gründen zurückgezogen.

EIKE Redaktion




Brief an die Klima-Seelenklempner

Hallo Laurie,

In diesem Brief geht es um die Themen Klimaänderung und Psychoanalyse im jüngsten Beitrag in dieser Reihe.

Ihre Sendung umrahmt das Problem als ein Versagen zu erkennen, was einer Ihrer Gäste ‚die Realität des Klimawandels’ genannt hat. Das Ganze entwickelte sich dann zu einer Diskussion über ‚Arten der Leugnung’. Falls jedoch die Psychoanalyse irgendetwas in der Klimadebatte zu suchen hat, muss sie auf Klimaskeptiker genauso eingehen wie auf ihre Opponenten.

Sally Weintrobe lässt die Katze aus dem Sack, wenn sie behauptet, dass wir ‚zunehmend aufmerksam’ werden auf ‚verrücktes Wetter’, wobei sie den Hurrikan Sandy und das nasse Wetter der jüngsten Zeit in UK namentlich ansprach. Dabei gab es hinsichtlich des Wetters im vorigen Jahr gar nichts Bemerkenswertes. Im letzten Sonderbericht des IPCC zu Extremwetter hieß es, dass keine Beweise für eine zunehmende Häufigkeit oder Stärke von Stürmen gefunden werden können, auch nicht von Überschwemmungen oder Dürren oder die daraus resultierenden Verluste, die man einer anthropogenen Klimaänderung zuschreiben könnte.

Also muss die Psychoanalyse etwas über Sally Weintrobes irrigen Ansichten hinsichtlich der ‚Realität’ der Klimaänderung, repräsentiert durch das IPCC, sagen können. Ihre Ansichten zum Klima schienen genauso aus dem Gleichgewicht zu sein mit dem wissenschaftlichen Konsens wie die Ansichten der „Leugner“.

Zu ihren irrigen Ansichten hinsichtlich der Realität der Klimaänderung kommen noch Weintrobes völlig falsche Ansichten über die Argumente der Klimaskeptiker. Es gibt viele Formen des Klimaskeptizismus. Einige Skeptiker wenden sich gegen eine umweltliche, ethische oder politische Philosophie. Einige wenden sich gegen die Umwelt-Ökonomie. Einige sind gegen den Versuch, politische Maßnahmen durch das Verbreiten von Angst zu erzwingen. Und natürlich sind einige Skeptiker gegen einige der Behauptungen, die sich aus der Klimawissenschaft zu ergeben scheinen. Ihre Gäste wollen uns glauben machen, dass Skeptiker die Behauptung bestreiten, dass ‚die globale Erwärmung im Gange ist’. Dabei fragen sich meisten Skeptiker nur, welche Rolle Rückkopplungs-Mechanismen spielen, von denen man annimmt, dass sie den Effekt der globalen Erwärmung verstärken – was eine Frage ist, zu der es weit weniger Konsens gibt als Ihre Gäste zugeben wollen.

Für eine Sendung mit dem Titel ‚Thinking Allowed’ ist das ein Problem. Anstatt eine gerechte Debatte zu führen, wird eine Psychopathologie des Klimaskeptizismus vorgeschlagen. Also ist Denken nicht erlaubt: Wenn man anders über die Klimaänderung denkt, hat man einen geistigen Schaden, die die Intervention von Psychoanalytikern erfordert.

Es gibt eine sehr dunkle Geschichte von Psychoanalytikern und Psychiatern, die vom Staat rekrutiert worden sind, um zu eruieren, wie weit die Öffentlichkeit folgsam ist. Ihre Gäste scheinen diese Tradition fortsetzen zu wollen. Dieser Wunsch nach Kontrolle ist es, gegen die sich dieser Klimaskeptizismus richtet.

Die Rekrutierung von Psychotherapeuten für eine politische Kampagne ist ein weit besorglicheres Phänomen als Menschen, die mit der ‚Leugnung’ der ‚Realität des Klimawandels’ leben. Ihre Gäste würden eher raffinierte Theorien über die Pathologie von Klimaskeptikern konstruieren als mit ihnen zu reden. Folglich stehen diese Theorien als eine Demonstration dessen, was sich lediglich in ihren Köpfen abspielt und nicht für die Gesellschaft im Ganzen. Dies wiederum ist hinsichtlich der Natur von Umweltpolitik und der antidemokratischen Tendenz von Umweltaktivismus erhellend.

Ben Pile

Link: http://www.climate-resistance.org/2013/01/letter-to-the-climate-shrinks.html

Kommentar von Bishop Hill dazu unter der Überschrift [hier nicht übersetzt]:

Silly Sally psychoanalyst

Eine Menge Leute schreiben mir mit Bezug auf das Programm Thinking Allowed der BBC (zum Beispiel hier), in dem eine Psychoanalytikerin namens Sally Weintrobe unkontrollierbar über „Klimaleugnung“ schwafelt. Es gibt einen amüsanten Hintergrund über Weintrobe (hier) – sie scheint ein ziemlich zickiger [touchy] Charakter und prozesssüchtig bis zu den Füßen zu sein. Es scheint jedoch, dass sie eigentlich nicht denkt, wir seien verrückt, obwohl das, was sie denkt, ein wenig obskur ist. Wie mir ein Leser in einer E-Mail über Weintrobe und ihre nachfolgenden Interviewpartner bei Thinking Allowed geschrieben hat:

Um ehrlich zu sein, sie sind so verdammt klug, dass ich, lediglich ein Student der Naturwissenschaften an der Cambridge University, das meiste von dem, was sie sagen, nicht verstehe.

Kein Zweifel, diese Sendung war Teil des fortgesetzten Engagements der BBC in Richtung „echte Unparteilichkeit“ in der Klimadebatte.

Bishop Hill  BBC  Climate: Sceptics

Link. http://bishophill.squarespace.com/blog/2013/1/23/silly-sally-psychoanalyst.html

Übersetzt von Chris Frey EIKE




Fracking? Was ist Fracking?

Doch das ruft, wie immer, "Umwelt- und Klimaschützer" auf den Plan, denen kein Grund zu naiv, kein Argument zu dumm ist, um diese reiche Energie- Quelle – auch in Deutschland- gleich wieder zu versiegeln. Billige Energie aus diesen Quellen – wie in den USA schon in Massen erschlossen- würde nämlich die "Erneuerbaren" im Vergleich noch unwirtschaftlicher machen. Und sie haben (noch) einigem Erfolg, denn die Tschechen und Franzosen haben Fracking erstmal verboten und die deutsche Regierung hat ein Moratorium verhängt. Andere Länder handeln konsequenter und erschließen sich diesen Zugang zu billiger Energie.

Unser Geologe und Talsperren-Spezialist Karl-Friedrich Ewert zeigt auf, was es mit der albekannten Technologie des Frackings auf sich hat. 

Was ist Fracking ?

Als „Fracking“ wird die Methode bezeichnet, Erdgas oder Erdöl aus Schiefer und schiefer-ähnlichen Gesteinen zu gewinnen („Shale gas“), indem man diese Vorkommen anbohrt, unter hohem Druck Flüssigkeiten einpresst, um das ursprünglich dichte Gestein durchlässig zu machen und das in ihnen gespeicherte Gas oder Öl zu mobilisieren, damit es gefördert werden kann. Dieses Verfahren ist in den letzten Jahren bedeutungsvoll geworden – besonders auch deshalb, weil in den USA große Funde solcher Lagerstätten gemacht wurden und ausgebeutet werden. Man verspricht sich dort, bald unabhängig von Importen zu werden. Ähnliche Lagerstätten gibt es weltweit vielerorts, auch in Deutschland.

Warum sind Ölschiefer und Schiefergas bedeutungsvoll?

Erdgas und Erdöl  bilden sich aus organischen Substanzen, die nach dem Absterben absinken und im Sediment begraben werden (Abb.1). Wenn unten im Wasser Sauerstoff (O2) fehlt, können die organischen Substanzen nicht verwesen, sondern werden umgelagert zu Kohlenwasserstoffen, z.B. Methan – (CH4).

 Im Laufe langer geologischer Zeiten können bis zu vielen Kilometern mächtige Sedimentstapel abgelagert werden. Im Laufe dieser Zeiten ändern sich die Bildungsbedingungen, so dass nacheinander unterschiedliche Sedimentarten übereinander abgelagert werden. Ihr Gewicht übt Druck aus, der die jeweils unterlagernden Sedimente zu Gesteinen verfestigt. Wurden Sande abgelagert, wurden daraus poröse, also durchlässige Sandsteine. Aus feinkörnigen Tonen wurden dichte Tonsteine. Wenn sie Kohlenwasserstoffe enthalten, spricht man von Erdölmuttergesteinen.

Wenn in der Nachbarschaft der Erdölmuttergesteine poröse Gesteine vorhanden waren, konnten Erdöl und Erdgas dort eindringen und damit das Erdölspeichergestein bilden (Abb. 2), aus dem sich die ‚konventionelle’ Erdöllagerstätte entwickeln konnte. Wo die durchlässigen Speichergesteine fehlten, blieben Erdöl und Erdgas im Erdölmuttergestein bis heute gefangen. Wegen ihrer geringen Durchlässigkeit – oder gar Dichtigkeit – müssen sie aufgepresst werden, wenn man das Erdöl oder Erdgas gewinnen will.

Das Erdölmuttergestein enthält Erdgas und Erdöl, meist in kleinsten Poren, manchmal in kleinen Taschen. Nur wo in Bohrungen – oder Stollen – erdölhaltiger Ölschiefer angetroffen und damit das Öl freigesetzt wird,  kann es aussickern, wie Abb. 3 beispielhaft zeigt.

 

Vermutlich befand sich weltweit nur ein Teil der Erdölmuttergesteine in der Nachbarschaft von porösen Speichergesteinen. Wo das nicht der Fall war – und das ist der wahrscheinlich größere Teil – halten die Erdölmuttergesteine das in ihnen gespeicherte Erdöl und Erdgas gefangen, bilden also eine potentielle Öl- und/oder Gaslagerstätte. Ihr Öl- und Gasinhalt  könnte den der konventionellen Lagerstätten übersteigen, ist aber wegen der sehr geringen Durchlässigkeit oder gar Dichtigkeit nicht in der üblichen Weise zu gewinnen – es fließt weder von alleine heraus noch lässt es sich mit Abpumpen gewinnen. Um diese Lagerstätten auszubeuten, wird das Gestein mittels Fracking aufgebrochen.  Geotechnische Details dazu werden im Anhang skizziert.

Gefährdung von Grundwasser ?

Unsere Grundwasservorkommen befinden sich in der Regel in Tiefen oberhalb 100 m, während die Gas- und Öllagerstätten in sehr großen Tiefen liegen. Zwischen beiden Bereichen befinden sich in den meisten Fällen dichte wassernichtleitende Gesteinszonen mit Mächtigkeiten von einigen hundert Metern, so dass diese Lagerstätten ausgebeutet werden können. Wo diese Bedingung nicht erfüllt ist, könnte Fracking erst dann eingesetzt werden, wenn Clean Fracking entwickelt wurde und sich als übliche Technologie etabliert hat.

Erfahrungen

Fracking wird in USA seit 1949 praktiziert. In 2008 wurde Fracking in den USA ca. 50.000 mal eingesetzt. Wir haben es also mit einer etablierten Technologie zu tun. Es ist zu erwarten, dass die USA nicht nur von Öl- und Gasimporten unabhängig werden, und außerdem sogar exportieren können. Die Preise für Öl und Gas sind in den USA schon kräftig gefallen

Der Aufwand zur Förderung von Erdgas und Erdöl ist größer als bei der konventionellen Förderung, denn es werden mehr und manchmal auch tiefere Bohrungen benötigt – auch, weil die Reichweite der nutzbaren Lagerstätte in der Umgebung einer Bohrung kleiner ist. Wegen des größeren Technischen Aufwandes ist gegenwärtig die Wirtschaftlichkeit noch geringer, allerdings ist das Entwicklungspotential noch nicht ausgeschöpft. 

Beurteilung

Die Gewinnung von Erdöl und Erdgas aus öl- und gashaltigen Tonstein und Schieferton erfordert zwar eine aufwendigere Technik, sollte aber in Anbetracht der Möglichkeit, die Abhängigkeit Deutschlands von Importen zu verringern, nicht versäumt werden. Dabei sollten jene Lagerstätten ausgebeutet werden, die durch ausreichende Barrieren von Grundwasservorkommen getrennt sind. Wirtschaftlichkeitszwänge werden es sehr wahrscheinlich ermöglichen, die Technologie weiter zu entwickeln und dabei zu verbessern. 

Anhang:  Geotechnische Grundlagen zum Fracking

Der Autor hat „Hydraulic Fracturing“ (HF), wie es zutreffend genannt wird, beim Talsperrenbau kennen gelernt; es beschäftigt ihn seit 1964, also seit ca. 50 Jahren.  Der Fels unter einer Staumauer (Staudamm) sollte möglichst dicht sein. Zeigen Untersuchungen, dass er durchlässig ist, wird er abgedichtet, indem man Zementsuspensionen einpresst, die offene Klüfte (Wasserwege) verfüllen sollen. Falls der Einpressdruck zu hoch ist, werden jedoch auch geschlossene Trennflächen (Schicht-, Schiefer- oder Kluftflächen) aufgepresst und wieder injiziert. Damit das vermieden wird, darf der Druck nicht zu hoch sein, denn sonst verursacht die Wiederverfüllung aufgepresster Fugen erhebliche Mehrkosten. Wie die Abbildungen 4 und 5 zeigen, richten sich die jeweils richtigen Drücke nach der Gesteinsfestigkeit. Die zweckmäßigen Drücke werden mittels Wasserdruck-(WD)-versuchen bestimmt (Abb. 4, links).

Das in Abb. 4 dargestellte Gestein enthält weiche Tonsteinlagen, die im Versuch schon bei 3 bar aufgerissen werden, was hier anfangs geschehen ist. Der eingepresste Zement hat infolge HF die ursprünglich geschlossenen (latenten) Schichtflächen geöffnet und die so entstandenen Fugen wurden mit Zement gefüllt. Obwohl mit 3 bar sehr niedrig, hat dieser Druck einen sehr großen Zementverbrauch verursacht und die Abdichtungsmaßnahme enorm verteuert.

Der in Abb. 5 dargestellte Tonschiefer enthält geschlossene Schieferflächen, die wegen der größeren Festigkeit erst bei einem kritischen Druck von 12 bar aufgerissen werden. Wegen dieser Festigkeit bleiben die eingepressten Zementlagen dünn.

Die Lagerstätten liegen zumeist in Tiefen von vielen hundert Metern. Entsprechend tief müssen die Bohrungen sein. Um das Gestein aufzubrechen, wird Wasser eingepresst, wobei der Druck – anders als bei der Abdichtungsinjektion – den kritischen Aufreißdruck deutlich übersteigen muss. Damit sich die aufgepressten Fugen nicht wieder schließen können, wird dem Wasser Sand beigemischt – die Sandkörner setzen sich  in den Fugen ab und halten sie geöffnet (Abb. 6).

 

Außer Sand sorgen dem Wasser zugesetzte ‚Chemische Additive“ dafür,  dass die gespeicherten Öl- und Gasmoleküle mobilisiert werden. Wasser, Sand und Additive bilden die „Fracfluide“.

Als Additive wird eine Vielzahl von Chemikalien eingesetzt, je nach den Gesteinsarten und der Aufgabe. Viskositätserhöhung, Schaumbildung, Lösung von Mineralen, etc .  z.Zt.  kommen noch toxische Komponenten zum Einsatz. Der Ersatz durch nichttoxische Additive wird gegenwärtig erprobt – ‚Clean Fracking’

Früher wurde angenommen, dass die kritischen Drücke, die das Fracking verursachen, mit der Tiefe steigen. Eine systematische Untersuchung an Hand von zahlreichen Beispielen aus praktisch allen Gebirgstypen hat in den letzten Jahren jedoch gezeigt, dass dies nicht der Fall ist [1]. Wie Abb. 7 zeigt, steigen die Drücke nicht mit der Tiefe an.

 

Literaturhinweise

[1]  Ewert F.-K. (2005): The hydrofracturing behaviour of latent discontinuities in rock and its consequences for  the success­ful and economic execution of grouting work. Dam Engineering, Volume XVI, Issue I, P 4 – 65, 42 Figures, 5 Tables; Wil­mington  Business Publishing Ltd, 2005

F.K. Ewert EIKE

Der Beitrag kann auch als pdf im Anhang heruntergeladen werden.

Weitere links zum Thema von ACHGUT:

Genug Energie für 1500 Jahre?

Britain could have enough shale gas to heat every home for 1,500 years, according to new estimates that suggest reserves are 200 times greater than experts previously believed. The British Geological Survey is understood to have increased dramatically its official estimate of the amount of shale gas to between 1,300 trillion and 1,700 trillion cubic feet, dwarfing its previous estimate of 5.3 trillion cubic feet.—

Deutsche Energie ‘Experten’: Fracking lohnt sich in Europa nicht – In Europa ist trotz ebenfalls großer Schiefergas-Vorkommen kaum mit einer wirtschaftlichen Ausbeutung dieser Lagerstätten in den kommenden Jahren zu rechnen. Zu diesem Ergebnis kommen deutsche Energieanalysten vom Zentrum für Europäische Wirtschaftsforschung (ZEW) in Mannheim.

Warum in Deutschland gefrackt werden sollte

gefunden auf Glitzerwasser hier

Und in einem Kommentar auf Science Sceptical schreibt Rudolf Kipp dazu:

Das UBA sprach sich wegen der unsicheren Datenlage dagegen aus, Fracking in Deutschland großtechnisch zu betreiben (hier die damalige Berichterstattung auf SpOn und Welt). Diese Einschätzung erlebte jedoch heftigen Widerspruch von Seiten der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR). In ihrem Gutachten im Sommer letzten Jahres zu unkonventionellen Gasvorkommen in Deutschland fanden sie (wir berichteten damals):

“Die Risiken von Fracking-Maßnahmen im geologischen Untergrund stellen sich im Vergleich zu möglichen Unfällen bei obertägigen Aktivitäten als gering dar. durch standortbezogene Voruntersuchungen können Fracking-Maßnahmen so geplant werden, dass ein unkontrolliertes Entweichen der Fracking-Fluide aus dem unterirdischen Riss in angrenzende Formationen mit sehr hoher Wahrscheinlichkeit ausgeschlossen werden kann.”

In einer Gegendarstellung warfen die Geologen vom BGR dem UBA vor, wissenschaftlich ungenau zu arbeiten und Tatsachen zu ignorieren. Es sei im UBA-Gutachten „durchgängig erkennbar, dass es federführend von Hydrogeologen verfasst wurde, deren Expertise im Themenfeld oberflächennaher Grundwasserleiter liegt“. Beim Thema Fracking gehe es aber um viel tiefere Schichten. Das oberflächennahe Grundwasser, das der Trinkwassergewinnung diene, stehe mit den tiefen Geosystemen, in denen das Gas lagert, „meistens nicht in Verbindung“.

Die unterstellte Gefährdung des Grundwassers wäre demnach weitaus weniger relevant als im Gutachten unterstellt. Außerdem kritisieren die Geowissenschaftler, die UBA-Gutachter machten unzutreffende Aussagen zum Gefährdungspotenzial der Chemikalien, die beim Fracking zum Einsatz kommen. Insgesamt würde der (falsche) Eindruck erweckt, dass generell erhebliche Wissensdefizite über den geologischen Untergrund bestehen.

Update  1 aus ACHGUT (11.2.13).

 Auch SPD will Erdgasförderung mittels Fracking verhindern

Beim Kreisparteitag in Lütjensee hat sich die SPD Stormarn gegen die Gewinnung von Erdgas- und Erdöl mit der sogenannten Fracking-Methode ausgesprochen. Mit großer Mehrheit folgten die Delegierten einem Antrag von Sigrid Kuhlwein, Kreistagsabgeordnete aus Ammersbek, die Tiefbohrungen generell und insbesondere auf Stormarner Gebiet abzulehnen. Die Grünen haben bereits eine ähnliche Forderung erhoben.

Unternehmenschefs sehen den Produktionsstandort Deutschland durch die niedrigen Energiepreise in den USA in Gefahr. Sie betragen dort inzwischen nur noch ein Drittel des Niveaus in Deutschland. “Viele Industriekonzerne planen, wegen der niedrigen Energiepreise neue Fabriken nicht mehr in Europa, sondern in den USA zu bauen”, sagte Gisbert Rühl, Chef des Stahlhändlers Klöckner.

Update 2 (12.2.13)

Altmaier fordert strenge Regeln für Gas-Fracking

Während in den USA der Run auf Gasreserven in tiefen Gesteinsschichten losbricht, denkt Bundesumweltminister Altmaier (CDU) über strenge Auflagen und ein eventuelles Verbot des Verfahrens nach. Die FDP warnt derweil vor "ideologischen Vorbehalten".

"Die Welt": …"Peter Altmaier Zitat: "Die Botschaft ist: Wir wollen das Fracking einschränken, wir wollen es nicht ermöglichen." Quelle: http://tinyurl.com/cokju8a

Update  3 (13.2.13):

Um die Beziehungen zwischen Fracking und der Erdölgewinnung detaillierter zu beschreiben, sind einige grundlegende Begriffe zu verdeutlichen: Die als tierisches (=Erdöl) oder pflanzliches (=Erdgas)  Ausgangsmaterial zur Ablagerung in Sedimentationsbecken gelangenden Kerogene werden bei allmählich zunehmender Auflast nach für gewöhnlich einigen Jahrmillionen und bei steigenden Formationstemperaturen aus ihren sie begleitenden Muttergesteinen, d.h. Tonen oder Kalken, in die über oder unterlagenden porösen Speichergesteine gepreßt. Erdölgeologisch "migrieren" sie in Speichergesteine. Während die Muttergesteine dicht und nur durch einen marginalen Porenraum von vielleicht 2-8% gekennzeichnet sind, können die Speichergesteine eine Porostiät von bis zu 35% besitzen, so daß die Kohlenwasserstoffe durch konventionelle Aufschlußmethoden gefördert werden können. Der Entölungsgrad liegt hier gewöhnlich nur bei etwa 30%, es sei denn, man erhöht den Entölungsgrad durch den Einsatz von heißem Wasser oder sogar nicht-toxischen Chemikalien, um die durch Adhäsionskräfte an die Kalk- oder Sandkörner gebundenen Kohlenwasserstoffe zu überwinden. In günstigen Fällen kann somit der Entölungsgrad auf etwa 45% oder optimal sogar 50 % gesteigert werden. Unterirdische Hohlkörper, in denen sich ebenfalls Kohlenwasserstoffe sammeln können, gibt es nicht. Es sei denn, man sieht von den sehr porösen Riffkörpern ab, bei denen die Korallen ein festes Gerüst und damit außergewöhnlich große Porenvolumina bilden können. In manchen tektonisch beanspruchten Gebieten sind auch Speicher – und Muttergesteine durch Klüfte, also kleine Risse, gekennzeichnet. Aber auch diese bilden keine Hohlräume, da sie sekundär durch entweder Kalkspat oder Quarz gefüllt sind. Hohlräume gibt es unterirdisch nicht, es sei denn, es liegen außergewöhnliche geologische Bedingungen vor.

Während die konventionellen Bohrtechniken durch vertikale Bohrungen gekennzeichnet sind, die direkt auf die Speichergesteine zielen, folgen bei der Frackingmethode die  Bohrungen genau den durch verschiedene tektonischen Bewegungen verstellten Kohlenwasserstoff-führenden Gesteinen und sind hierbei –  und das ist das eigentlich Neue an dieser Methode –  auf die relativ dichten Muttergesteine gerichtet.

Es sei hier auch auf den irreführenden Begriff "Schiefer" verwiesen, der aus dem Englischen "shale" falsch übersetzt wird. In der Diagenese, der Verfestigung  der Sedimente, wird im Deutschen aus einem Ton ein Tonstein, dann ein Schiefer (d. h. das ist der normalerweise bei uns gebräuchliche  Dachschiefer, der also geschieferrt ist) und dann bei höchster tektonischer Beanspruchung letzendlich der Gneis. Und bei Kalk geht die Diagenese von diesem über Kalkstein zu Kalkschiefer und dann zu Marmor. Das Fracking zielt also z. Zt. nur auf Tonstein (=shale) oder Kalkstein ab, nie auf den "richtigen" Schiefer.

Autor: Dr. Klaus Jürgen Goldmann; Erdöl-Geologe; EIKE

Update 4 

 Soeben erschien von PWC eine sehr positive Studie zum Fracking in Deutschland. Die FAZ berichtet daraus: 

Schieferöl könnte Deutschland reicher machen

18.02.2013 ·  Eine neue Studie belegt: Kaum ein Land würde so stark vom Ölfracking profitieren wie die Bundesrepublik. Das größte Förderpotential sehen Experten in Polen. Doch die Methode ist hoch umstritten.

Von MARCUS THEURER, LONDON

.. Deutschland als drittgrößter Profiteur

Deutschland als großes Ölimportland würde vom niedrigeren Weltmarktpreis überdurchschnittlich profitieren, selbst wenn hierzulande auf die Schieferölförderung aus Umweltschutzgründen verzichtet würde. Zwischen 2 und 5 Prozent höher könnte die deutsche Wirtschaftsleistung dadurch zur Mitte des übernächsten Jahrzehnts ausfallen. Von den führenden Volkswirtschaften wäre Deutschland damit nach Schätzung von PwC hinter Indien und Japan der drittgrößte Profiteur einer möglichen Schieferölschwemme. Verlierer wären dagegen vor allem die Mitglieder des Ölförderkartells Opec wie Saudi-Arabien, Nigeria und Venezuela….

Mit Dank an Spürnase Dr. K. Goldmann 

Related Files




Wenn Atlas die Welt abwürfe

Atlas Shrugged ist der Titel eines Romans von Ayn Rand (1957): Die Welt hörte auf, sich zu drehen, als die wertschöpfenden Mitglieder der Gesellschaft streikten. Die Innovatoren und Unternehmer hatten einfach die Nase voll, nur dämonisiert und ausgebeutet zu werden und machten sich einfach davon.

Wie würde es Amerika heute ergehen, wenn die auf fossilen Quellen beruhende Brenn- und Treibstoffindustrie auf unbestimmte Zeit streikte? Was würde geschehen, wenn wir den Umweltaktivisten in allem nachgäben? Was, wenn wir, statt nur an den Rändern herumzuknabbern, voll mitziehen würden? Was wären die Folgen, wenn Atlas die Welt nicht mehr trüge und abwürfe?

Innerhalb von 24 Stunden entstünden lange Schlangen an den Tankstellen, weil die Leute Benzinvorräte kaufen wollten. Die gleichen Leute, die über über die Mineralölfirmen lästern, würden verzweifelt die letzten Tropfen Sprit für ihre SUVs herausquetschen wollen. Am dritten Tag gäbe es überhaupt kein Benzin mehr.

Ohne Diesel kämen die Speditionsfirmen zum Stillstand. Fast alle Handelsware in Amerika wird mittels Lastwagen ausgeliefert. Die Ladenregale würden sich leeren. Die Grundnahrungsmittelproduktion würde aufhören. Ohne Benzin liefe keine Landwirtschaftsmaschine mehr, Pflanzenschutzmittel und Dünger würden nicht mehr industriell produziert werden. Die Vereinigten Staaten können keine 315 Millionen Menschen ernähren, wenn der Ackerbau mit pferdbespannten Pflügen betrieben und Mist als Dünger ausgebracht wird. Eine große Hungersnot bräche nach zwei Wochen aus!

Die Lokomotiven wurden einst mit Kohle befeuert, doch nun treiben sie Dieselmotoren an. Ohne die Eisenbahn und ohne Lastwagen gäbe es keine Möglichkeit, Rohstoffe oder Fertigprodukte zu liefern. Die gesamte Industrieproduktion und das Gewerbe kämen zum Stillstand. Massen-Aussperrungen wären die Folge. Darauf käme es aber nicht mehr an. Wenn alle Transportsysteme ausfielen, könnten nur noch diejenigen arbeiten, die Pferde besäßen, oder die zu Fuß zu ihren Arbeitsstellen gelangen könnten.

Die Besitzer von Elektroautos könnten sich ja zunächst freuen, doch sie würden bald von der unangenehmen Wirklichkeit eingeholt, dass ihre für „emmissionsfrei“ gehaltenen Fahrzeuge auf Kohle laufen. 42 Prozent der Elekrizität in den Vereinigten Staaten wird durch die Verbrennung von Kohle erzeugt. Mit dem Erdgas wäre es auch vorbei, daher gingen weitere 25 Prozent Strom verloren. Die von den Umweltaktivisten so heißgeliebten Energiequellen, Wind und Sonne, könnten die Lücke nicht füllen. Aus Windkraft kommen derzeit [in Amerika] etwa 3 Prozent unserer Elektrizität und auf die Sonne entfallen kaum wahrnehmbare 0,04 Prozent. Die einzigen verbliebenen Energiequellen wären Wasser- und Kernkraft. Aber beide zusammen können das Netz bei normaler Kapaziät nur zu 27 Prozent  versorgen. Wenn zwei Drittel der Stromversorgung wegfallen, macht das Netz vollständig dicht. Kein Strom bedeutet kein Leitungswasser und auch keine Wasserspülung in den Toiletten. Nachdem das in Flaschen abgefüllte Wasser verbraucht wäre, würden die Menschen aus Bächen und Teichen trinken, eine Cholera-Epidemie wäre die unausweichliche Folge.

Die Krankenhäuser würden noch einige Tage mit ihren Notstromversorgungen funktionieren. Doch ohne Diesel wäre es damit auch bald vorbei. Notoperationen müssten bei Tageslicht in Räumen mit Fenstern durchgeführt werden. Kerosinlampen wären kein Ausweg, weil Kerosin ein Nebenprodukt des Petroleums ist. Sogar die Kerzen werden heutzutage aus Paraffin hergestellt, auch ein Nebenprodukt des Petroleums. Man kann bezweifeln, ob es genügend Bienenwachs gäbe, um 132 Millionen Wohnungen in den Vereinigten Staaten zu beleuchten.

Ohne Strom, ohne Treibstoff und ohne die Möglichkeit, Menschen oder Güter zu transportieren, würden die Vereinigten Staaten binnen weniger Tage oder Wochen ins 18. Jahrhundert zurückfallen. Die industrielle Revolution würde zurückgedreht, das Bruttosozialprodukt um mehr als 95 Prozent schrumpfen. Je nach Jahreszeit und Wohnort würden die Menschen entweder frieren oder in ihren Wohnungen schwitzen.

Meine akademischen Kollegen, die den menschlichen Fortschritt für eine Illusion halten, müssten die bittere Realität zur Kenntnis nehmen, dass sie in eine Zeit zurückgeworfen würden, in der die Lebenserwartung weniger als die Hälfte von Heute betrug.

Ich liege aber falsch. Einen Rückfall ins 18. Jahrhundert gäbe es nicht. Nein, es käme noch viel schlimmer. Im Amerika des 18. Jahrhunderts lebten rund 80 Prozent der Bevölkerung auf familieneigenen Farmen und sie waren Selbstversorger. Es gab Pferde und Hufschmiede. Die Menschen kannten ihre Arbeit und verließen sich auf die wertgeschätzten Familienmitglieder und die Nachbarn. Heute arbeiten weniger als zwei Prozent der Bevölkerung in der Landwirtschaft. Und die gesamte moderne Landwirtschaft beruht auf Maschinen, die mit Öl betrieben werden. Wir Heutigen können in einer Welt ohne Öl nicht überleben.

Ich male ein schlimmes Bild, aber es ist genau das, was die Umweltaktivisten anstreben: Sie wollen die gesamte Ölindustrie stilllegen. Wenn Sie das nicht glauben oder akzeptieren wollen, dann kann ich nur empfehlen, dass Sie sich mit der Philsophie des Biozentrismus beschäftigen. Gewisse studentische Gruppen fordern schon heute, dass die Universitäten ihre Investitionen in Aktien von Ölfirmen verkaufen – ganz so, als wäre die Herstellung von Brennstoffen aus fossilen Quellen moralisch genauso zu beurteilen wie die Apartheid. Und in jedem Monat März feiern die Umweltaktivisten „Earth Hour„, eine Stunde lang schalten sie wirklich alle Lichter aus.

Unsere industrialisierte und technisierte Zivilisation beruht nicht auf den Regenbogen und dem Mondschein. Das ist auch in der vorhersehbaren Zukunft überhaupt nicht zu erwarten. Erneuerbare Energiequellen wie z. B. Wind und Sonne sind kein tauglicher Ersatz für fossile Brennstoffe. Das ist keine Frage des politischen Willens, sondern erzwungen von den Gesetzen der Physik und Chemie. Anstatt sich ständig für den Einsatz von fossilen Brennstoffen zu entschuldigen, sollten wir verdammt froh sein, dass wir sie haben.

Original hier

David Deming

—————

David Deming ist Geologe und Professor of Arts and Sciences an der University of Oklahoma. Er ist Autor der Serie Science and Technology in World History.

Copyright © 2013 by LewRockwell.com. Permission to reprint in whole or in part is gladly granted.

—————

Übersetzung: Helmut Jäger, EIKE




Klima-Hellseher als blinde Führer

*[Seer-sucker theory, ein unübersetzbares Wortspiel, das ich nicht kenne. Die Recherche ergab, dass die Unwissenden (sucker) den Hellsehern alles glauben und auch dafür zahlen, obwohl es zahlreiche Beweise dafür gibt, dass es keine Hellseher gibt.

Im Folgenden werde ich den Term Seer-Sucker mangels einer treffenden Bezeichnung auf Deutsch beibehalten. A. d. Übers.]

Vorhersagen einer gefährlichen, vom Menschen verursachten Erwärmung stützen sich stark auf Experten-Beurteilungen. Ist die Bewegung der globalen Erwärmung ein weiteres Beispiel des Seer-Sucker-Phänomens?

In den neunziger Jahren habe ich eine internationale Gruppe von 39 Wissenschaftlern aus verschiedenen Disziplinen zusammen gebracht. Sie sollten Prinzipien zur Herangehensweise an Vorhersagen zusammenstellen. Die Prinzipien basieren zumeist auf experimentellen Studien, was in bestimmten Situationen am besten funktioniert. Die Ergebnisse wurden übersetzt in eine Liste von 139 wissenschaftlichen Prinzipien und 2001 veröffentlicht in dem Buch „Principles of Forecasting“. Die Prinzipien sind bei www.forecastingprinciples.com einsehbar, und sie werden überarbeitet, sobald neue Beweise auftauchen. Die Site enthält auch Freeware, die es jedem erlaubt, selbst die Vorhersage-Prozeduren zu überprüfen.

Im Jahr 2007 habe ich zusammen mit Kesten Green von der University of South Australia ein Audit der Prozeduren veröffentlicht, die vom IPCC bei den UN zur Erstellung von „Projektionen“ der globalen Erwärmung angewandt worden sind. Die IPCC-Autoren verwendeten Computerprojektionen, die aus Experten-Beurteilungen einiger Wissenschaftler abgeleitet worden waren. Sie nennen diese Projektionen „Szenarien“ (d. h. Geschichten). Wie die Autoren einräumen, handelt es sich dabei nicht um Vorhersagen, und doch werden sie als solche betrachtet und verwendet. Das Audit ergab, wenn man so tut, als seien die IPCC-Prozeduren Vorhersagen, dass 72 von 89 relevanten wissenschaftlichen Vorhersage-Prinzipien verletzt worden sind.

Was sagt uns die wissenschaftliche Vorhersagemethodik über die globalen Temperaturen im nächsten Jahrhundert?

Im Jahr 2009 haben Mr. Green, Willie Soon vom Harvard   Smithsonian Center for Astrophysics und ich eine Studie zur Bewertung von Vorhersagen durchgeführt, und zwar mit Daten von 1850 bis 2007. Wir zeigten, dass ein einfaches Modell, das im Zeitscale von einem bis 100 Jahren keinen Trend der globalen Mitteltemperaturen aufweist, Vorhersagen erzeugte, die substantiell genauer waren als die IPCC-Projektion von 0,03°C pro Jahr. Für 91 bis 100 Jahre im Voraus enthielt die Erwärmungs-Projektion des IPCC Fehler, die 12 mal größer waren als bei unserem einfachen Modell. Unsere eigenen Vorhersage-Prozeduren verletzten nur geringe auf Beweisen basierende Vorhersage-Prinzipien und haben sich nicht auf Expertenbeurteilungen hinsichtlich des Trends gestützt. Wissenschaftliche Vorhersagen seit der Studie aus dem Jahr 2009, die wir in unserem jüngsten Arbeitspapier beschrieben haben, benennen diese geringen Abweichungen von den Prinzipien, und die Ergebnisse stützen unsere früheren Erkenntnisse.

Hat es in der Vergangenheit ähnliche Fälle gegeben, wo führende Wissenschaftler und Politiker gefolgert haben, dass die Umwelt gravierenden Gefahren gegenüber steht? In einer noch laufenden Studie haben wir 26 alarmistische Bewegungen identifiziert, die ähnlich dem gegenwärtigen Alarm bzgl. der globalen Erwärmung waren (z. B. Bevölkerungswachstum und Hungersnöte in den sechziger Jahren, globale Abkühlung in den siebziger Jahren). In allen Fällen wurde vorhergesagt, dass menschliche Aktivitäten zu Umweltkatastrophen und Schäden für die Bevölkerung führen würden. Trotz starker Unterstützung seitens führender Wissenschaftler hat sich keine der alarmistischen Bewegungen auf wissenschaftliche Vorhersagemethoden gestützt. Die Regierung hat in 23 der 25 Fälle Regulationen eingeführt, die nach Intervention seitens der Regierung rufen. Keine der alarmistischen Vorhersagen hat sich als richtig herausgestellt. In den 23 Fällen, in denen es zu Interventionen der Regierung gekommen ist, war keine davon effektiv, und 20 richteten insgesamt mehr Schaden an, als das sie nützlich waren.

Die Politik bzgl. der Klimaänderung ruht auf einem dreibeinigen Hocker von Vorhersagen (siehe Bild oben rechts!). Erstens ist es notwendig, gültige und verlässliche wissenschaftliche Vorhersagen eines starken, persistenten Trends der Temperaturen haben. Zweitens, wissenschaftliche Vorhersagen müssen zeigen, dass die Auswirkungen des Trends in den Temperaturen schädlich sein werden. Drittens, wissenschaftliche Vorhersagen müssen zeigen, dass jede vorgeschlagene politische Maßnahme (z. B. eine Maßnahme, die sicherstellt, dass Eisbären wegen der globalen Erwärmung eines besonderen Schutzes bedürfen) insgesamt einen Vorteil aufweist gegenüber dem, was bei einem Unterlassen dieser Maßnahme geschehen würde. Sollte nur eines dieser drei Stützen nicht zutreffen, ist die politische Maßnahme falsch.

Seit 2007 haben wir nach wissenschaftlichen Vorhersagen gesucht, die den dreibeinigen Hocker der Klimapolitik stützen. Wir waren nicht in der Lage, auch nur eine einzige Vorhersage für irgendeine der drei Stützen zu finden – der Sockel erfährt derzeit keine Stützung.

Zwei Wege, bzgl. der Klimaänderung Übereinstimmung zu erzielen wären, darauf zu bestehen, dass Vorhersagen alle Kosten und Vorteile mit einschließen, und dass alle Vorhersage-Prozeduren wissenschaftlichen Prinzipien folgen. Falls gängige Prinzipien bei den gegenwärtigen Vorhersagen nicht enthalten sind, gibt es keine Grundlage für einheitliche Maßnahmen, um die globale Erwärmung zu verhindern – oder eine Abkühlung. Rationale Klimapolitik darf sich nicht auf Hellseher stützen, egal wie viele es davon gibt, wie smart sie sind oder über wie viel Erfahrung sie verfügen.

J. Scott Armstrong

J. Scott Armstrong ist Professoran der University of Pennsylvania und Autor von “Long-Range Forecasting” (Wiley-Interscience, 1985).

Read more: http://www.washingtontimes.com/news/2013/feb/4/climate-seers-as-blind-guides/#ixzz2K7MdSIMJ
Follow us: @washtimes on Twitter

Link: http://www.washingtontimes.com/news/2013/feb/4/climate-seers-as-blind-guides/

Übersetzt von Chris Frey EIKE




Konventionelle Weisheit, unkonventionelles Öl

Bild rechts: Konventionelles Öl sickert nahe McKittrick in Kalifornien aus dem Boden.

Ein Aspekt der Diskussion über Peak Oil, der mich immer beschäftigt hat, ist die Unterscheidung zwischen „konventionellem Öl“ und „unkonventionellem Öl“. Hier möchte ich darlegen, warum diese Unterscheidung bzgl. Peak Oil sinnlos ist.

Ich habe den ganzen Peak Oil-Deal lange verfolgt, der inzwischen, so weit ich das sagen kann, zu einem ein halbes Jahrhundert dauernden Tauziehen geworden ist. Während der früheren Jahre haben die Leute gerufen, das Öl würde uns ausgehen, dass der Höhepunkt [der Förderung] sehr bald erreicht werden wird und – du liebe Zeit – von da an wird würde alles schlimmer werden. Natürlich ist das immer noch nicht passiert. Also wurden die Peak Oil-Rufer mit der Frage zurück gelassen, die von verhinderten Untergangspropheten während der ganzen Menschheitsgeschichte gestellt worden ist, nämlich:

Wie in aller Welt kann ich die Aushöhlung meiner Position erklären und trotzdem noch einige Bruchstücke meines Rufes behalten?

Für die Peak Oil-Leute kam die Erlösung in gestalt des „unkonventionellen Öls“. Jetzt versichert man uns, dass das Öl immer noch ausgeht, dass sie also die ganze Zeit über recht hatten… Sehen Sie, man sagt, King Hubbert hatte recht, das konventionelle Öl geht wirklich zur Neige, aber währenddessen wird es nahtlos ersetzt durch „unkonventionelles Öl“. Soll heißen, wir haben immer noch Öl, obwohl uns das Öl ausgeht. Verstehen Sie?

Das Seltsame daran ist folgendes: wenn man ein Barrel unkonventionelles Öl öffnet, um zu sehen, welche Konventionen bei seiner Herstellung gebrochen worden sind, findet man heraus, dass es von konventionellem Öl gar nicht zu unterscheiden ist.

Was ist unkonventionelles Öl? Nun, wir können mit der Betrachtung der Konventionen hinsichtlich des Öls anfangen. Für buchstäblich Milliarden von Jahren lautete die Konvention, dass man Öl in kleinen Tümpeln und Löchern findet wie in dem Bild oben rechts. Tatsächlich war die Entdeckung von Öl in Oil Creek [= „Ölbach“] in Pennsylvania, der ersten Erdölbohrung in den USA, eine Folge des dort seit unzähligen Jahrhunderten austretenden Erdöls. Das war den ersten asiatischen Immigranten bekannt, und sie haben es in dem Gebiet genutzt, bevor später die bleichgesichtigen Massen eintrafen.

Also wird demnach konventionelles Öl, durch die historische ausgerufene, durch die Millenien weiter gereichte Konvention in Teersümpfen und Öl-Löchern an der Erdoberfläche gefunden. Das bedeutet, dass so unbedacht nach Öl bohren der Definition nach „unkonventionelles Öl“ nach oben pumpen ist… aber natürlich ist das alles nicht so einfach.

Als Ergebnis wird „konventionelles Öl” nicht durch die konventionelle Methode gefördert, es mit einem Eimer aus einem Loch abzuschöpfen, sondern durch eine entschieden unkonventionelle und zu jener Zeit noch nie gehörte Methode, ein Loch in die Erde zu bohren und es heraus fließen zu lassen…

Jahrelang lief es auf diese Weise einfach gut. Dann kamen „sekundäre Fördermethoden“ ins Spiel. Sie bestehen aus einer Anzahl physikalischer und chemischer Methoden, um noch mehr Öl aus bestehenden Feldern herauszuholen, einschließlich des Brechens von Felsen, damit das Öl noch leichter heraus fließt.

Etwa zu dieser Zeit begann sich die ganze Peak Oil-Geschichte nach Süden zu verlagern, weil – egal wie viele Peak Oil-Schreihälse aufheulten – in jedem Jahr noch mehr Öl entdeckt wurde. Jedes Jahr wuchsen die nachgewiesenen Ressourcen immer weiter. Und dieser Prozess setzt sich bis zum heutigen Tag fort, mit größeren nachgewiesenen Reserven als jemals zuvor. Wie erklären sich die Peak Oil-Leute das? Hey, da kommt „unkonventionelles Öl“ als Rettung!

 

Zum Beispiel sind dünnflüssigere Öle „konventionell”, aber zähere, mehr teerige Ablagerungen „unkonventionell“, obwohl sie von den Menschen seit Jahrhunderten genutzt werden. Also waren sie hinsichtlich Peak Oil nicht mitgezählt worden.

Wirklich lächerlich allerdings wird es, wenn man die „Konventionen“ über das Brechen des Gesteins mit einbezieht, um mehr Öl zu fördern, was wir „Fracking“ nennen. Die Fracking-Technologie wurde vor etwa vierzig Jahren entwickelt und ist seitdem benutzt worden, meistens für sekundäre Förderungen. Und alle diese Jahrzehnte lang war das aus den gebrochenen Felsen strömende Öl „konventionelles Öl“. Aber inzwischen hat man gelernt, horizontal zu bohren und das Gestein zu brechen… und jetzt plötzlich, nach 40 Jahren Felsen brechen, liefert das Fracking nur noch „unkonventionelles Öl“, nachdem es zuvor aus den senkrechten Bohrlöchern „konventionelles Öl“ gewesen war – einfach weil das Bohrloch jetzt horizontal und nicht mehr vertikal verläuft… Sieht irgendjemand einen Sinn darin?

Die Klassifizierung von „unkonventionellem Öl” durch Fracking zeigt klar die lächerliche Natur der Trennungslinie, wenn wir über Peak Oil reden. Hinsichtlich des vermeintlichen Peaks, warum ist Öl aus einer horizontalen Bohrung „unkonventionell“ und aus einer vertikalen Bohrung „konventionell“? Es ist immer die Technologie, und keine der Technologien ist „unkonventioneller“ als das Bohren des ersten Loches, ein höchst unkonventioneller Akt…

Die Bezeichnung von Öl aus horizontalen Bohrlöchern als „unkonventionell“ ist für die Peak Oil-Leute allerdings entscheidend. Wenn man nämlich das durch Fracking geförderte Öl konventionell nennen würde, würden die Behauptungen über „Peak Oil“ und Peak Gas“ einfach untergehen…

Sehen Sie, die hässliche Wahrheit ist, dass die Welt in fossilen Treibstoffen schwimmt. Als Erstes ist da die größte einzelne Konzentration fossiler Energie des Planeten, die Powder River Kohleformation in den nördlichen USA zu nennen. Die Welt verfügt noch viele hundert Jahre lang über Kohle. Die Kanadier haben große Ölvorräte… natürlich werden auch diese „unkonventionell“ genannt, weil das allein schon ausreicht, die „Peak Oil“-Behauptungen in die Tonne zu treten. Plus, dass wir inzwischen auch über „festsitzendes [tight] Öl“ verfügen, also Öl im Gestein, das natürlich unkonventionell ist.

Dann gibt es da noch die Entdeckung der Schiefergasvorkommen in der ganzen Welt. Selbst in Israel gibt es endlich einige heimische Energiequellen. Wie unkonventionell ist das? Australien hat gerade einen gewaltigen Fund bekannt gegeben. China verfügt über massive Gas-Ressourcen. Einer vorläufigen Schätzung zufolge haben wir einschließlich Schiefergas genug Gas für die nächsten paar Jahrhunderte im Vorrat.

Und schließlich haben wir als Freikarte [wild card] noch die Methanhydrate, das „brennende Eis“. Schätzungen von deren Menge gehen über alle Grenzen hinaus, aber alle haben eines gemeinsam – die Vorräte sind sehr, sehr groß, in einer Größenordnung von Quadrillionen Kubikfuß.  Dies addiert sich noch zu den globalen Erdgasreserven…

Und schließlich, die meisten Formen dieser fossilen Treibstoffe kommen in Kombination vor und können gegenseitig konvertiert werden. Kohle zum Beispiel kann man verflüssigen oder vergasen.

Und nun, weil es niemals jemanden gegeben hat, der über „Peak Coal“ gebrüllt hat, gibt es so etwas wie „unkonventionelle Kohle“ nicht, trotz gewaltiger Veränderungen beim Bergbau. Der Kohlebergbau hat sich genauso oder sogar noch stärker gewandelt als das Bohren nach Öl… warum also gibt es keine „unkonventionelle Kohle“?

Aber in diesem Fall, da die gesamten Kohlevorräte der Erde „konventionell“ zu sein scheinen und wir Kohle in Öl umwandeln, stellen wir dann „konventionelles“ oder „unkonventionelles Öl“ her? Vermutlich würde es eine Rolle spielen, wenn wir Kohle horizontal oder vertikal in Öl umwandeln würden…

Zusammengefasst: Wenn man einmal den Blödsinn der Unterscheidung zwischen „konventionellem“ und „unkonventionellem Öl“ überwunden hat, zeigt sich, dass es genug Kohle und Gas für viele hundert Jahre gibt, allein mit dem, was wir heute wissen. Dabei sind die Methanhydrate noch nicht einmal mitgezählt. Das ist der Grund, warum ich den Peak Oil-Alarmisten genauso wie den Klima-Alarmisten keinerlei Aufmerksamkeit mehr schenke. Eine Gruppe behauptet, wir haben zu viel Öl, und wir werden es alles verbrennen; die andere Gruppe behauptet, dass wir bald zu wenig Öl zum Verbrennen haben. Ich behandle diese beiden Schwindler genau gleich.

War die Trennung zwischen „konventionellem” und „unkonventionellem“ Öl dazu gedacht, das Scheitern der Peak Oil-Leute zu verschleiern? Keineswegs. Die Unterscheidung ist auf verschiedene Weise sinnvoll, wenn man die Welt der Ölressourcen analysiert. Ich glaube, dass das Konzept von den Peak Oil-Leuten einfach übernommen worden ist, weil es für sie sehr nützlich war, hat es doch das Scheitern ihrer Peak Oil-Vorhersagen komplett verschleiert. Für mich ist Öl gleich Öl gleich Öl, und falls man behauptet, dass der Welt das Öl ausgehen wird, kann man später nicht sagen, dass man die Dinge neu definiert hat, und dass das Öl, dass die Vorhersagen als falsch entlarvt, irgendeine Art Spezialöl ist, das nicht als Öl zählt, sondern nur wie Öl aussieht und die gleichen Eigenschaften wie Öl hat…

Willis Eschenbach

Link: http://wattsupwiththat.com/2013/02/02/conventional-wisdom-unconventional-oil/#more-78653

Übersetzt von Chris Frey EIKE




Klimatismus als Schulfach: Wissenschafts-Standards der nächsten Generation

Die NGSS basieren auf dem Framework for K-12 Science Education (Framework), das 2011 vom National Research Council, einem Zweig der National Academy of Sciences, gegründet worden ist. Ein Blick auf das 401 Seiten starke Dokument enthüllt Bemühungen, Studenten mit der Ideologie des anthropogenen Klimawandels zu instruieren. Auf Seite 43 wird erwähnt, dass die Menschen „dem Klimawandel begegnen müssen“, und auf Seite 166 heißt es, dass die Menschen das Klima „stabilisieren“ können. Aber es gibt kaum empirische Beweise dafür, dass die Menschen auf wahrnehmbare Weise Wetter oder Klima kontrollieren können. Zum Beispiel hat der Bürgermeister von Moskau im Jahr 2009 behauptet, dass die russische Luftwaffe in der Lage sei, „Schneefall zu verhindern“. Fünf Monate später fielen in Moskau 21 Inches [über 50 cm] Schnee in einem einzigen Schneesturm, womit der mittlere Februar-Wert bereits um 50% überschritten war.

Im Framework taucht der Begriff „Theorie” viele Male auf. Diese Dokumente beziehen sich auf die Urknalltheorie, Newtons Schwerkraft-Theorie, die Theorie der Plattentektonik, die Atomtheorie der Materie [the atomic theory of matter], die Bakterien-Theorie von Krankheiten, Darwins Evolutionstheorie und die Quantentheorie. Aber niemals wird der anthropogene Klimawandel als eine Theorie bezeichnet. Vom Menschen verursachte Erwärmung wird als wissenschaftliche Tatsache gelehrt.

Die NGSS verlangen, dass Fünftklässlern beigebracht wird, „Erklärungen zu konstruieren, wie Menschen und andere Organismen betroffen werden, falls die Temperatur der Erde weiterhin so steigt“. Viel ernster wäre eine Periode globaler Abkühlung, wie es fälschlicherweise vom Wissenschaftsmagazin Nature und anderen in den siebziger Jahren vorhergesagt worden ist.

In Mittelschulen fordern die NGSS, dass den Schülern beigebracht wird, dass „menschliche Aktivitäten wie das Freisetzen von Treibhausgasen durch das Verbrennen fossiler Treibstoffe wesentliche Faktoren sind beim gegenwärtigen Anstieg der globalen Mitteltemperatur (globale Erwärmung)“. Aber die Tatsache, dass die globale Temperatur aus natürlichen Gründen während der letzten 350 Jahre seit der Kleinen Eiszeit gestiegen ist, also lange vor dem Beginn menschlicher Treibhausgasemissionen, wird nicht erwähnt.

Indoktrination bzgl. Energie soll sogar noch jüngeren Schülern vermittelt werden. Viertklässler sollen „die Unterschiede zwischen erneuerbarer und nicht-erneuerbarer Energie“ lernen. In der Mittelschule sollen sie lernen, dass „erneuerbare Energiequellen (aus Wasserkraft, Geothermie und Biomasse)“ sowie „unerschöpfliche Energiequellen (Sonne, Wind, Gezeiten, Meereswellen)“ gut sind und dass „nicht erneuerbare Energiequellen (Kohle, Öl, Erdgas, Kernspaltung)“ abgelehnt werden müssen. Und das trotz der Tatsache, dass die Welt noch Jahrhunderte lang über nachgewiesene Reserven von Kohlenwasserstoffen und Kernkraft verfügt, und dass diese Treibstoffe über 90% unserer modernen Gesellschaft mit Energie versorgen.

Sowohl die NGSS als auch das Framework verlangen des Weiteren die Injektion von Werturteilen in die Wissenschafts-Lehrpläne. Bis zum Ende der 12. Klasse sollen die Schüler gelernt haben, dass sich die Menschen der „Überbevölkerung“ und der „Überausbeutung“ schuldig machen. Außerdem sollten die Schüler gelernt haben, dass das „natürliche Kapital“ der Erde erhalten werden müsse.

Beide Dokumente preisen die globalen Klimamodelle, die Grundlage für die alarmierenden Vorhersagen eines globalen Temperaturanstiegs bis zum Jahr 2100 sind. Das Framework stellt fest, dass „die globalen Klimamodelle das beste Wissen der Wissenschaftler hinsichtlich physikalischer und chemischer Prozesse sowie der Wechselwirkungen zwischen relevanten Systemen verkörpern“. Dabei handelt es sich um die gleichen Klimamodelle, die nicht in der Lage waren, den Stillstand des globalen Temperaturanstiegs während der letzten zehn Jahre sowie die seit 30 Jahren andauernde Ausdehnung des Meereises um die Antarktis vorherzusagen.

In einem Zustandsbericht über die Bildungssysteme im Jahr 2012 des Magazins Economist rangierten die USA an 17. Stelle von 50 untersuchten Nationen. Sollten wir nicht lieber zu Lehren empirisch basierter Wissenschaft zurückkehren, als die Ideologie der Klimaänderung weiter zu betreiben?

Steve Goreham

Steve Goreham ist geschäftsführender Direktor der Climate Science Coalition of America und Autor des neuen Buches The Mad, Mad, Mad World of Climatism:  Mankind and Climate Change Mania.

Link: http://wattsupwiththat.com/2013/02/06/teaching-climatism-in-schoolsnext-generation-science-standards/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Wer mich ein wenig kennt, wird sofort merken, warum mir dieser Text besonders am Herzen liegt. Die Indoktrination von Kindern ist für mich ein schweres Verbrechen gegen die Menschlichkeit. Wenn das sogar offizielle Doktrin wird, können wir uns nicht nur wegen der Energiewende, sondern auch wegen der Versündigung an unserer Zukunft, den Kindern nämlich, einsargen lassen.

In Deutschland, zumindest in meinem Wirkungskreis, scheint es aber zum Glück noch nicht ganz so weit zu sein. Sorgen wir alle dafür, dass es nicht noch schlimmer wird!

C. F.




Warum es eine Rolle spielt, dass man WWF-Gelder nimmt

Rajendra Pachauri ist kein Privatmann. Einem Zitat auf Seite 64 eines Berichtes aus dem Jahr 2010 ist er „der Leiter und das Gesicht“ des IPCC.

Alle sechs Jahre hält das IPCC ein Tribunal äquivalent zu einem Kriminal-Tribunal ab. Es untersucht die Beweise (Forschung zur Klimaänderung) und entscheidet, ob menschliche Kohlendioxid-Emissionen auf gefährliche Weise in das normale Klimageschehen im Hintergrund eingreifen oder nicht.

Das Urteil des IPCC, verpackt in einem dicken Wälzer, wird von Regierungen auf der ganzen Welt akzeptiert.

Um es daher noch einmal ganz klar zu sagen: CO2-Emissionen sind angeklagt – und Pachauri ist der oberste Richter.

Wenn Leute wie der UN-Führer Ban-Ki Moon recht haben, ist die Klimaänderung „die Herausforderung unserer Zeit“. Es ist ein Thema, das alle anderen an Bedeutung übertrifft.

Es ist daher überaus wichtig, dass wir alle Vertrauen in den Prozess haben, mit den CO2-Emissionen überführt worden sind, der öffentliche Feind Nummer 1 zu sein. Gerechtigkeit muss nicht nur walten – man muss sehen, dass sie waltet. Der Prozess muss für einen vernünftigen Menschen unparteiisch aussehen.

Der letzte große Bericht des IPCC enthielt viele Fehler, aber einen besonders bösen Fehler bzgl. der Rate, mit der die Gletscher des Himalaya abschmelzen sollten. Hinsichtlich des Ursprungs dieses Fehlers gibt es kein Geheimnis (siehe Seite 10 hier). Dazu war es gekommen, weil das IPCC – das von sich behauptet, eine wissenschaftliche Institution zu sein – seine Schlussfolgerungen auf Statements basiert, die in einer Veröffentlichung einer aktivistischen Organisation erschienen war, nämlich dem World Wildlife Fund (WWF).

Im vorigen Monat habe ich drei IPCC-Sticks öffentlich zugänglich gemacht [auf Deutsch bei EIKE hier], die aufzeigen, was hinter verschlossenen Türen vorgeht. Sie zeigen, dass das IPCC nichts aus dem Himalaya-Debakel gelernt hat.

Zeitungen mögen den Rücktritt seines Vorsitzenden verlangt haben. Der im ersten Absatz dieses Beitrags erwähnte vernichtende Bericht [damning report] kann bestellt worden sein. Aber trotz all dieser Probleme lehnt es das IPCC ab, seine Verfahrensweisen zu ändern.

Für mich ist das mehr als sonderbar. Warum vermeidet das IPCC nicht die Verwendung von Veröffentlichungen durch WWF, Greenpeace und ähnlichen Organisationen? Warum findet sich in der dreiseitigen Erklärung des IPCC zum Verfahren mit grauer Literatur nicht der geringste Hinweis darauf, dass aktivistische Literatur zweifelhafte Literatur ist?

Hier folgt der relevante Abschnitt daraus (Hervorhebung durch Fettdruck von mir):

Nicht veröffentlichte bzw. nicht begutachtete Quellen werden oft graue Literatur genannt. Obwohl diese graue Literatur auch hoch relevante Informationen enthalten kann, haben die Autorenteams bei Verwendung dieser Quellen eine besondere Verantwortung, die Qualität und Gültigkeit der zitierten Quellen und Informationen sicherzustellen. Autoren müssen klar kenntlich machen, warum diese bestimmte Quelle verwendet wird und dies unter Umständen auch im Text erklären.

Die Betrachtung folgender Fragen wird dabei helfen sicherzustellen, dass die den IPCC-Regeln und Prozeduren zugrunde liegenden Prinzipien ordnungsgemäß eingehalten werden:

a) Wer (oder welche Organisation) ist die Quelle der zitierten grauen Literatur?

b) Welche Information fügt das Zitat der Zustandsbeschreibung zu?

c) Stammt die zitierte Information aus einer begutachteten Zeitschriften-Quelle?

d) Gibt es Beweisführungen aus anderen Quellen (begutachtet oder nicht begutachtet), die die zitierte Stelle stützen oder zu anderen Schlussfolgerungen kommen? Falls ja, ist das Zitat notwendig?

e) Welche Qualifikationen haben die Autoren des Dokuments?

f) Ist das präsentierte Material irgendeiner Begutachtung unterzogen worden? Falls ja, wie breit angelegt oder intensiv war diese Begutachtung? Wie glaubwürdig sind die Begutachter?

g) Warum wurde das Dokument geschrieben? Wie wurde die Forschung finanziert? Könnte der Forscher und/oder der Herausgeber des Dokuments empfänglich sein, eine spezielle Agenda zu verfolgen? Wenn ja, welche Vorbehalte werden gebraucht?

h) Warum wurde die Information nicht in einer begutachteten Zeitschrift veröffentlicht?

Das wären die optimalen Stellen gewesen, an denen das IPCC hätte erklären können, dass aktivistische Organisationen unzuverlässige Quellen für Informationen sind.

Warum haben die Funktionäre, die diese Grundlagen festgelegt haben, die Gelegenheit verstreichen lassen? Mit anderen Worten: warum haben sie sich so irrational verhalten?

Ich versuche mein Bestes, nicht zynisch zu sein, nicht das Schlimmste von den Menschen zu denken. Ich tue mein Bestes, um die von mir beobachteten Phänomene zu verstehen.

Was uns zurückbringt zum IPCC-Vorsitzenden. Rajendra Pachauri ist nicht einfach „der Leiter und das Gesicht“ des IPCC. Seit mehr als drei Jahrzehnten war er auch Leitender Direktor von TERI – einem in Indien ansässigen Institut. Für alle Ziele und Zwecke ist er TERI.

Seit 2001 hat TERI einen jährlichen Nachhaltigkeits-Gipfel organisiert. Das ist Pachauris Show. Er ist der Dirigent des Orchesters; die Person, die den Vorsitz innehat; die mit leitenden Regierungsfunktionären auf Du steht.

Wenn wir aufhören, darüber nachzudenken, dann ist das allein schon höchst besorglich. Wie können wir Vertrauen in die Unparteilichkeit eines Tribunals haben, wenn der oberste Richter eine dem Angeklagten feindlich gegenüber stehende Weltsicht propagiert, während er seinem anderen Job nachgeht? (Der Nachhaltigkeits-Meute zufolge ist der CO2 produzierende westliche Lebensstil nicht nachhaltig, Fall erledigt).

Vor ein paar Tagen habe ich berichtet [auf Deutsch bei EIKE hier], dass einer der offiziellen Sponsoren des TERI-Gipfels in diesem Jahr der WWF war. Was zu einer peinlichen Frage führt: Falls das IPCC den WWF verbannt hat, würde Pachauris Institut dann immer noch dessen Geldmittel erhalten?

Sie sagen, der Zusammenhang ist alles. Nun, hier folgt unser jetziger Zusammenhang:

Während der letzten Jahre wurden vielfach Sorgen laut über die Rolle, die Organisationen wie der WWF im IPCC spielen. Diese Besorgnis ist weder hypothetisch noch theoretisch. Der Vorfall mit den Himalaya-Gletschern ist ein aus dem wirklichen Leben stammendes, konkretes Beispiel, warum aktivistische Literatur für das IPCC schlechte Nachrichten sind.

Nichtsdestotrotz kann sich diese Institution nicht dazu durchringen, aktivistische Literatur zu verbannen. Mehr noch, wie ich anderswo beschrieben habe [auf Deutsch bei EIKE hier], erlaubt es immer noch Mitarbeitern von Aktivistengruppen, sich als „wissenschaftliche Experten-Begutachter“ zu gerieren.

Und jetzt, ein paar Monate vor der Veröffentlichung von Teil 1 des brandneuen IPCC-Berichtes, stellt sich also heraus, dass ein vom IPCC-Vorsitzenden geleitetes Institut sich seine Aktivitäten durch Geld von Aktivisten bezahlen lässt.

Kein vernünftiger Mensch kann diese Fakten sehen und daraus schließen, dass sich das IPCC um Unparteilichkeit bemüht.

Kein vernünftiger Mensch kann diesem Vorsitzenden noch Vertrauen hinsichtlich seiner Urteilsfähigkeit entgegen bringen.

Donna Laframboise

Link: http://nofrakkingconsensus.com/2013/02/05/why-taking-wwf-money-matters/

Übersetzt von Chris Frey EIKE




Gesundheitliche Wirkung radioaktiver Strahlung – Teil 1:

Vor über 100 Jahren wurde die radioaktive Strahlung einzelner Elemente erstmalig experimentell nachgewiesen. Tatsächlich leben Menschen aufgrund der Beschaffenheit der Erdkruste und der durch kosmische Quellen verursachten Höhenstrahlung immer schon in einem radioaktiv strahlenden Umfeld, dessen Stärke im Wesentlichen von der geographischen Lage abhängt. Wegen der (glücklicherweise) sehr geringen Wirkung natürlich auftretender Dosen können statistische Aussagen nur dann getroffen werden, wenn eine genügend große Zahl exponierter Personen und eine nichtexponierte Vergleichsgruppe vorliegen.

Mit Sicherheit lässt sich sagen, dass eine über einen kurzen Zeitraum (wenige Minuten) aufgenommene extrem hohe Dosis (mehrere Sievert) äußerlich zu verbrennungsartigen Erscheinungen, begleitet von Nekrose und Organversagen führt. Bei einer deterministischen Wirkung wie in diesem Fall ist der Zusammenhang zwischen Ursache und Wirkung offensichtlich, ähnlich einem Autounfall. Schwieriger ist die Beurteilung statistischer Langzeitrisiken, also der Frage, wie stark sich das Risiko gesundheitlicher Beeinträchtigungen (z.B. Tumorbildung) über die gesamte Lebensspanne erhöht, wenn eine Person einer bestimmten Strahlendosis ausgesetzt wurde.

Blitzdosis und Langzeitdosis

Dosis ist nicht gleich Dosis. Obwohl in der Summe identisch, hat eine hohe Einzeldosis eine ganz andere Wirkung als die gleiche Dosis verteilt über einen langen Zeitraum. Zur Unterscheidung werden wir den ersten Fall als Blitzdosisbezeichnen, den zweiten dagegen als Langzeitdosis. Beide Arten der Dosis haben wiederum die oben genannten statistischen Langzeitwirkungen. Deterministische Kurzzeitwirkungen kann es naturgemäß nur bei einer Blitzdosis geben.

Der Unterschied zwischen Blitzdosis und Langzeitdosis ist vergleichbar mit der Aufnahme von Wärmeenergie: Wenige Minuten in loderndem Feuer führen unweigerlich zum Tod. Dagegen wird die gleiche Energie, verteilt über einen längeren Zeitraum, als angenehme Wärme empfunden. Allgemein gilt für jede Art Energiefreisetzung: Eine explosionsartige Freisetzung führt immer zu Zerstörung, eine langsame Freisetzung derselben Energiemenge dagegen kann einen erwünschten Nutzen erfüllen.

Als Zeitmaß einer Blitzdosis nehmen wir die biologische Reaktionszeit des Körpers an. Nach neueren Erkenntnissen gibt es mehrere Reparaturmechanismen, die die biologisch negative Wirkung sogar überkompensieren können. Diese arbeiten auf unterschiedlichen Zeitskalen, so dass die Grenze zwischen Blitzdosis und Langzeitdosis bei einigen Stunden bis einigen Wochen liegen kann.

Bei der Ermittlung gesundheitlicher Auswirkungen radioaktiver Emissionen z.B. auf die Bevölkerung im Umkreis des verunfallten Kernkraftwerks Tschernobyl aber auch auf Nukleararbeiter als Grundlage für den Strahlenschutz geht es im Allgemeinen um die Langzeitfolgen einer Langzeitdosis. Grundlage dieser Schätzungen sind dagegen die Überlebenden der Atombombenabwürfe über Hiroshima und Nagasaki, also die Studie der Langzeitfolgen einer Blitzdosis. Dieser offensichtliche Widerspruch wird im Strahlenschutz hingenommen, vor allem weil in der "Gründerzeit" des Strahlenschutzes die Hiroshima- und Nagasakiüberlebenden mit 90 000 Personen die einzige größere exponierte Gruppe bildeten, bei der Langzeitwirkungen beobachtet werden konnten.

Inzwischen existieren aber zahlreiche Studien von großen Personengruppen, die einer erhöhten Langzeitdosis ausgesetzt waren. Das prominenteste Beispiel ist die Kontamination mehrerer Wohngebäude mit radioaktivem Kobalt in Taipei, Taiwan, im Jahre 1983, mit 10.000 betroffenen Personen. Studien dazu sind erst wenige Jahre alt, so dass die neuen Erkenntnisse noch nicht den Weg durch die internationalen Strahlenschutzinstanzen gefunden haben.

Obwohl aus den o.g. Gründen als Vorlage für den allgemeinen Strahlenschutz nur sehr beschränkt geeignet, bilden die Hiroshima- und Nagasakibeobachtungen immer noch die Grundlage gesundheitlicher Risikoabschätzungen. Nicht nur die Tatsache, dass die Wirkung einer Blitzdosis sich von der einer Langzeitdosis dramatisch unterscheidet, sondern auch das abgeleitete Risikomodell der Blitzdosis selbst ist kritisch zu betrachten, wie in den folgenden Abschnitten gezeigt wird.

Die Hiroshima- und Nagasakiüberlebenden

Seit den Abwürfen der Atombomben über Hiroshima und Nagasaki am 6. und 9. August 1945, bei denen unmittelbar rund 200.000 Menschen vorwiegend durch die Folgen der Hitze- und Druckwelle starben, wurden statistische Daten der Überlebenden gesammelt mit dem Ziel, einen biologischen Dosis-Wirkung-Zusammenhang für die Spätfolgen radioaktiver Bestrahlung zu etablieren.

Bis zu jenem Zeitpunkt kannte man nur die deterministischen Schäden, also die Sofortwirkung radioaktiver Strahlung, während es über statistische Langzeitschäden nur Vermutungen gab. Rund 90.000 Überlebende der Atombombenangriffe auf Hiroshima und Nagasaki wurden einer lebenslangen Beobachtung (Life Span Study) unterzogen. Mit Berechnungen und Simulationen, die auch heute noch verfeinert werden, wird die in Sekundenbruchteilen empfangene individuelle radioaktive Dosis abgeschätzt. Die Erhebungen werden von der Radiation Effects Research Foundation (RERF)durchgeführt, finanziert vom  japanischen Gesundheitsministerium (MHLW) und dem US-amerikanischen Energieministerium (DoE). Beginnend im Oktober 1950 fand die letzte Aktualisierung mit dem Ende des Jahres 2000 statt. Zu diesem Zeitpunkt waren 55% der untersuchten Überlebenden verstorben. (Es gibt eine weitere Aktualisierung, die bis Ende 2003 reicht, seitdem wurden aber keine neuen Daten veröffentlicht.)

In der vom RERF erstellten Datenbank werden die Personen in Gruppen nach Alter, Geschlecht und geschätzter Strahlendosis eingeteilt. Alle 5 Jahre wird erfasst, wie viele Personen einer Gruppe noch leben. Aus diesen Daten ist ein Zusammenhang zwischen Dosis und Sterberate klar zu erkennen, man muss sich aber dennoch klar machen, wie hoch die Dosis sein muss, um tatsächlich gefährliche Auswirkungen zu haben. Um dies deutlich zu machen, präsentieren wir hier eine vereinfachte Analyse.

Zur besseren Veranschaulichung haben wir hier nur die Mitglieder der Altersgruppe berücksichtigt, die zum Zeitpunkt der Detonation vor 66 Jahren zwischen 30-45 Jahre alt waren und demnach heute fast alle verstorben sind. Im Jahr 1951 lebten 100% der Personen, weil hier die Erhebungen beginnen. In den Jahren davor, zwischen 1945 und 1951 sind natürlich auch Personen gestorben, die von der Statistik nicht erfasst werden. Diese vermutlich den Nachkriegswirren geschuldete Lücke ist für eine ca. 80 Jahre dauernde Langzeitstudie aber vertretbar. In der Grafik wird zwischen zwei Dosisgruppen unterschieden. Diejenigen, die einer Dosis unter 1,5 Sievert ausgesetzt waren (im Durchschnitt 0,1 Sievert) sind grün gekennzeichnet; die rötlich gefärbten Daten beziehen sich auf eine mit über 1,5 Sievert stark exponierte Gruppe (Durchschnitt 2,0 Sievert).

Hiroshima- und Nagasaki-Überlebende, die zum Zeitpunkt der Bombenabwürfe 30 bis 45 Jahre alt waren. Die Gruppe mit starker Strahlendosis lebt 18% kürzer. (Quelle: IFK)

Man sieht, wie die Anzahl der Personen über die Jahre abnimmt, was zunächst der normalen Sterberate entspricht. Es gibt aber auch einen erkennbaren Unterschied zwischen beiden Gruppen: Personen aus der grünen Gruppe lebten nach dem Jahr 1950 durchschnittlich noch weitere 34,5 Jahre, die Mitglieder der roten, stärker exponierten Gruppe hingegen durchschnittlich nur 28,4 Jahre, also 18% weniger. Das Fazit dieser einfachen Analyse wäre also: Eine Strahlendosis von 2 Sievert verringert die Lebenserwartung um 18%.

Die Einteilung in nur zwei Gruppen ist für die Herleitung eines Risikomodells natürlich zu ungenau. Sie eignet sich aber für eine anschauliche Darstellung der Wirkung um eine Vorstellung der Größe zu entwickeln. 1-2 Sievert ist eine Blitzdosis, die – neben den Bombenopfern – in der Geschichte nur einige wenige Personen in nuklearen Einrichtungen als Folge von Unfällen ertragen mussten. In der Bevölkerung sind derartige Dosen sonst nie auch nur näherungsweise aufgetreten. Anders verhält es sich bei der Langzeitdosis; hier kann allein die natürliche Radioaktivität in Deutschland eine Lebensdosis von 1-2 Sievert verursachen.

Das lineare Modell ohne Schwellenwert (LNT-Modell)

Wie verhält es sich nun mit Dosen kleiner als 2 Sievert? Ist die Annahme, dass 1 Sievert die Lebenserwartung um 9% verringert oder 0,1 Sievert um 0,9%, zulässig? Sie entspräche dem linearen Modell ohne Schwellenwert (Linear No-Threshold = LNT). Mithilfe des LNT-Modells lässt sich das Risiko leicht abschätzen. Es bleibt jedoch zu überprüfen, ob eine derartige Abschätzung mit den Beobachtungen übereinstimmt.

Um das LNT-Modell zu überprüfen, verfeinern wir die obige Dosiseinteilung. Das folgende Diagramm zeigt die verringerte Restlebenserwartung relativ zu der der nichtexponierten Gruppe (Dosis 0 Sievert) in Abhängigkeit von der Dosis.

Erhöhtes Todesrisiko der Hiroshima/Nagasaki-Überlebenden in Abhängigkeit von der Strahlendosis. Zwischen 0 und 0,3 Sievert ist die Skala gestreckt. Die vertikalen Balken sind Unsicherheiten. Bis 1,5 Sievert ist keine Risikoerhöhung innerhalb der Unsicherheiten erkennbar. Anmerkung für Statistiker: Die Unsicherheiten beruhen auf der Annahme einer Poisson-Verteilung. Die Schwankungen sind aber offensichtlich kleiner als die Unsicherheiten. (Quelle: IFK)

Da die Anzahl der untersuchten Personen mit zunehmender Dosis immer kleiner wird, vergrößert sich die statistische Ungenauigkeit. Dies wird in dem Diagramm durch die vertikalen Fehlerbalken dargestellt. Grün unterlegt sind wieder jene Gruppen, deren Mitglieder einer Strahlung von maximal 1,5 Sv ausgesetzt waren, im Schnitt 0,1 Sv. Im rötlichen Bereich liegen die Gruppen zwischen 1,5 und 3,0 Sv, im Schnitt 2 Sv. Die Darstellung unterhalb 0,3 Sievert ist horizontal gestreckt worden, um einzelnen Punkte noch unterscheiden zu können.

Das Diagramm zeigt, dass das Risiko bei einer Blitzdosis von bis zu 0,3 Sievert um Null schwankt, also nicht erhöht ist. Zwischen 0,3 und 1 Sievert scheint es leicht anzusteigen und oberhalb 1 Sievert zunächst wieder abzufallen. Diese Änderungen spielen sich aber innerhalb der Unsicherheiten ab, sind also nicht signifikant. Erst ab 1,5 Sievert wird ein sprunghafter Anstieg der Daten deutlich sichtbar. Wie im vorherigen Abschnitt bereits festgestellt liegt die Risikoerhöhung um 2 Sievert bei 18%.

Das folgende Diagramm zeigt die gleichen Daten noch einmal auf einer durchgehenden Dosisskala ohne die Streckung unterhalb 0,3 Sievert. In magenta und grün sind mögliche Modellkurven (grüne Kurve flacher) dargestellt.

Das erhöhte Sterberisiko der Hiroshima- und Nagasaki-Überlebenden, die zum Zeitpunkt der Bombenabwürfe 30-45 Jahre alt waren, dargestellt in Abhängigkeit von der Strahlendosis. Zusätzlich sind 2 Modellfunktionen eingezeichnet. Die LNT-Modellfunktion beschreibt die Beobachtungen nur unzureichend. (Quelle: IFK)

Würde man das LNT-Modell (magenta) nutzen, ergäbe sich eine lineare Risikozunahme von 7% pro Sievert. Die LNT-Gerade läuft aber nur schlecht durch die tatsächlichen Datenpunkte. Sie liegt bei kleinen Dosen über den Daten, bei hohen Dosen jedoch unterhalb der tatsächlichen Beobachtungen. Mit anderen Worten: Das LNT-Modell überschätzt das Risiko geringer Strahlendosen auf Kosten einer Unterschätzung bei hohen Dosen. Wichtiger ist aber die Feststellung, dass unterhalb einer Schwelle gar keine Risikozunahme zu beobachten ist. Dies schließt nicht aus, dass es ein Risiko gibt, nur ist dieses so klein, dass selbst unter Zehntausenden von bestrahlten Personen keine Auffälligkeiten sichtbar sind.

Das LNT-Modell in den wissenschaftlichen und politischen Instanzen

Trotz der erwähnten offensichtlichen Unzulänglichkeiten wurde in den ersten Jahrzehnten nach den Bombenabwürfen das LNT-Modell zur Grundlage für den Strahlenschutz, um wenigstens einen theoretischen Ansatz für den Umgang mit geringer radioaktiver Strahlung zu haben. Dabei war den Strahlenschutzexperten implizit bewusst, dass für Dosen unterhalb einiger hundert Millisievert keine gesundheitlichen Auswirkungen bekannt sind.

Es sei noch einmal ausdrücklich darauf hingewiesen, dass das LNT-Modell doppelt unzulänglich ist:

  • Das LNT-Modell basiert nur auf den Beobachtungen einer Blitzdosis, die sich nicht auf Langzeitdosen übertragen lassen.
  • Selbst die Beobachtungen der Blitzdosis deuten klar auf einen Schwellenwert hin, im Widerspruch zum LNT-Modell.

Das 1955 gegründete "United Nations Scientific Committee on the Effects of Atomic Radiation", UNSCEAR, gab 1958 einen ersten Bericht heraus, in dem verschiedene Modelle zur Abschätzung der Gesundheitsrisiken durch radioaktive Strahlung vorgestellt wurden. Die Diskussion ist auch im Zusammenhang mit den gesundheitlichen Auswirkungen der damaligen Kernwaffentests zu sehen. So kommt UNSCEAR zu dem Schluss, dass weltweit 60.000 Leukämiefälle oder kein einziger als eine Folge der nuklearen Waffentests gewertet werden müssen, je nachdem ob die Daten mit einem Modell ohne Schwelle oder mit einer Schwelle von 60 Millisievert pro Jahr (über eine Lebensspanne von 70 Jahren) ausgewertet wurden. Auch in den neueren UNSCEAR-Reports werden Schwellenwerte im Hundert-Millisievert-Bereich diskutiert, neuerdings auch auf mikrobiologischer Basis.

Bezugnehmend auf die von UNSCEAR diskutierten Probleme mit einem Modell ohne Schwellenwert gibt die Internationale Strahlenschutzkommission ICRP in ihren Empfehlungen (zuletzt Report 103) ein erhöhtes Krebserkrankungsrisiko von 4% pro Sievert vor. Dieses Risiko, so ICRP, skaliere unterhalb 100 Millisievert linear mit der Dosis. wobei ein Gewichtungsfaktor ausdrücklich zugelassen wird (Report 103, Abs. 65). Schon im folgenden Absatz 66 wird darauf hingewiesen, dass das LNT nur als praktische Anleitung für den Strahlenschutz, nicht aber zur Schätzung des Gesundheitszustands einer großen Bevölkerung mit geringer Langzeitdosis anzuwenden sei. Diese umständlichen Formulierungen rühren von der nicht sauberen Unterscheidung zwischen Blitzdosis und Langzeitdosis her.

Zusammenfassung

Die hier gezeigte Dosis-Wirkungsbeziehung für eine exemplarische Auswahl der Hiroshima- und Nagasakiüberlebenden lässt einen Schwellenwert bei mindestens einigen hundert Millisievert vermuten. Überdies lässt sich das Modell einer Blitzdosis nicht auf eine Langzeitdosis übertragen.

Dennoch empfiehlt die Internationale Strahlenschutzkommission ICRP basierend auf den Hiroshima- und Nagasakidaten für den Strahlenschutz ein lineares Modell ohne Schwelle, schließt die Anwendung auf eine größere Bevölkerung aber gleichzeitig aus. Diese letzte Aussage wird oft übersehen; der oft zitierte Satz "Jede Strahlendosis ist gefährlich" hat seinen Ursprung diesem falschen Verständnis des LNT-Modells.

Die Blitzdosis-Gruppe der 90.000 Hiroshima- und Nagasakiüberlebenden war lange Zeit die einzige Quelle zur Erfassung statistischer Langzeitwirkungen. Inzwischen gibt es aber statistisch gut gesicherte Untersuchungen, bei denen eine große Gruppe einer überhöhten Langzeitdosis ausgesetzt war. Diese Studien sind noch nicht oder nur zu einem geringen Teil in die ICRP- und UNSCEAR-Berichte eingeflossen.

von Götz Ruprecht, Institut für Festkörper-Kernphysik Berlin Den Originalartikel gibt es hier.

Quellen




Energiewende auf Dänisch: Windpionier Vestas macht knapp eine Milliarde Verlust!

So schreibt SPON: Der Windkraftanlagenbauer Vestas steckt in der Krise. Das dänische Unternehmen hat auch das vergangene Jahr mit tiefroten Zahlen abgeschlossen, insgesamt vergrößerte sich der Verlust um ein Sechsfaches von 166 auf 963 Millionen Euro. Damit hatten selbst Analysten nicht gerechnet. Grund für das immense Defizit sind laut Vestas vor allem Abschreibungen. Mit diesem Ergebnis setzt Vestas seinen Abwärtskurs fort, das Unternehmen steckt bereits seit zwei Jahren in Schwierigkeiten. Die Entwicklung von Offshore-Plattformen kam nicht wie geplant voran, der Abschluss neuer Projekte und die Einführung neuer Produkte verzögerte sich. Um den Kostendruck zu bewältigen, hatte Vestas den Abbau von fast einem Drittel seiner Stellen angekündigt, außerdem sollen Fabriken verkauft werden…Weiterlesen hier

Und das Handelsblatt ergänzt:

Vestas kassiert Prognose für 2013

06.02.2013, 11:16 Uhr

Der weltgrößte Windturbinenhersteller Vestas hat das zweite Verlustjahr hinter sich – und macht keine Hoffnung auf Besserung. Die Anleger scheinen dennoch zufrieden. Weniger gefallen haben wird den Anlegern jedoch, dass das Unternehmen seine Prognose für 2013 kassierte. Ende vergangenen Jahres rechnete Vestas noch mit einem Absatz von Windturbinen mit einer Kapazität von fünf Gigawatt. Nun sind die Dänen vorsichtiger und erwarten nur noch einen Absatz von vier bis fünf Gigawatt. ….Es ist bereits das zweite Jahr in Folge, in dem der Windturbinenhersteller rote Zahlen schreibt. Das Unternehmen macht keine Hoffnung auf ein weniger schwieriges Jahr und erwartet einen Umsatzrückgang auf 5,5 Milliarden Euro. …Weiterlesen hier

Michael Limburg EIKE




Altmaier Vorstoß: Geht es den Ökostromerzeugern wirklich an den Kragen?

Die Erhöhung der Ökostromumlage um knapp 50 Prozent auf 5,28 Cent je kWh hat viele Verbraucher aufgerüttelt. Steigende Strompreise werden für immer mehr Verbraucher zu einem wesentlichen Kostenfaktor, der die Kaufkraft vermindert und immer häufiger den Lebensstandard auf das Existenzminimum reduziert. Die Zahl der Haushalte, die ihre Stromrechnung nicht mehr bezahlen können, wächst ständig weiter und dürfte bald bei einer Million liegen.

Der Umweltminister Peter Altmaier will nun den Preisanstieg begrenzen durch das Einfrieren der Ökostromumlage, ohne jedoch den weiteren Zubau von Ökostromanlagen zu stoppen. Dies kann nur gelingen, wenn die Einspeisevergütung reduziert wird. Bisher befreite Betriebe mit der Ökostromumlage zu belasten, ist keine Lösung. Der Verbraucher zahlt dann die Umlage über höhere Preise für Waren und Dienstleistungen.

Kann denn die für zwanzig Jahre gesetzlich garantierte Einspeisevergütung überhaupt reduziert werden? Schaut man bei Wikipedia nach, so findet man folgendes: Der vom BMU beauftragte Gutachter Stefan Klinski ist der Auffassung, dass es sich bei einer nachträglichen Änderung der geltenden Vergütungssätze für die Zukunft um eine so genannte unechte Rückwirkung handelt, die grundsätzlich erlaubt sei. Sein vom BMU veröffentlichtes Gutachten kommt zu dem Ergebnis, dass in die laufende Vergütung und deren Bedingungen eingegriffen werden könne, falls EU-Recht dies verlange oder aber nachträglich festgestellt werden würde, dass die gezahlten Vergütungen wirtschaftlich zu hoch seien.

Die Einspeisevergütungen sind also durchaus nicht für zwanzig Jahre gesichert. Und Peter Altmaier will dies nutzen. Die Erzeuger von Ökostrom sollen zwar weiter die versprochene Einspeisevergütung erhalten. Sie werden aber mit einer Abgabe von 1,5 Cent je kWh erzeugten Stromes belegt. Damit werden die überhöhten Renditen der Anlagenbetreiber abgeschöpft. Manche Anlage wird sich dann nicht mehr rentieren. Dies sollten Investoren in Ökostromanlagen bedenken!

Der Umweltminister geht in die richtige Richtung, die die Stromverbraucherschutz-Bewegung NAEB e.V. schon seit ihrer Gründung fordert. Am Ende dieses Weges muss die Abschaffung des planwirtschaftlichen und unsozialen Erneuerbaren Energie Gesetzes (EEG) vollendet sein. Wir laden Herrn Peter Altmaier ein, bei uns Mitglied zu werden. Die zahlreichen Experten von NAEB aus den Gebieten Energietechnik, Naturwissenschaften, Wirtschaft, Medizin und den Medien dürften bessere Berater sein als die Mitarbeiter im Umweltministerium, die überwiegend öko-ideologischen Prinzipien folgen.

Prof. Dr.-Ing. Hans-Günter Appel; Vorsitzender des Beirats NAEB e.V.

Diese Info wurde am 2.2.13 als PM an viele Medien versandt. Die Reaktion des ADAC Redakteurs W. Rudschies sah so aus:

"Rudschies, Wolfgang" <wolfgang.rudschies@adac.de> schrieb:

Sehr geehrter Herr Professor!

Bitte sehen Sie in Zukunft davon ab, mir Mails zu schicken. Sie reden von denen, die sich um die Energieversorgung kümmern, wie über Verbrecher. Damit haben Sie sich endgültig diskreditiert. Streichen Sie mich aus Ihrem Verteiler!

W. Rudschies

Von meinem iPhone gesendet

und Herr Appel regierte wie folgt:


Sehr geehrter Herr Rudschies, 

ich bedaure, dass der ADAC einseitig indoktrinierte Redakteure beschäftigt, die sich nicht bemühen, umfassend zu recherchieren. Durch Ihre mail wird mir auch klar, warum der ADAC in seiner Mitgliederzeitschrift zum großen Teil die unwirtschaftliche und unsoziale Energiepolitik stützt, die Arbeitsplätze vernichtet und zu immer höheren Energiepreisen führt. 

Ich werde aufgrund Ihrer mail meine Mitgliedschaft beim ADAC kündigen. 

Mit freundlichen Grüßen

Hans-Günter Appel  




Jahrhundert-Schneefälle in Moskau – der WWF hat einen logischen Aussetzer

Bild rechts: Moscow Times

„Einen solchen Winter hat es seit 100 Jahren nicht mehr gegeben”, sagte Bürgermeister Pyotr Biryukov am Dienstag in einem Kommentar bei Interfax. „In diesem Jahr ist schon jetzt eineinhalb mal so viel Schnee gefallen wie normal“.

Seinen Worten zufolge hat es in der Hauptstadt einen Gesamtschneezuwachs von 216 cm seit Beginn des Winters gegeben.

Im Mittel fallen in Moskau 152 cm Schnee. Biryukov zufolge gab es in der Stadt 26 cm während der 24 Stunden vor seiner Pressekonferenz am Dienstag Nachmittag sowie 36 cm seit Anfang Februar.

Der starke Schneefall führte am Montag sehr schnell zu Chaos auf den Straßen. Der Yandex Probki Verkehrsüberwachungs-Service hat volle 10 Punkte erreicht, und Montag Abend wurde die selten gesehene Warnung ausgegeben: „Zu Fuß gehen geht schneller!“

Mehr: http://www.themoscowtimes.com/news/article/heaviest-snowfall-in-a-century-hits-moscow/475102.html#ixzz2K4m8i13z

Roland Oliphant

Der WWF Russland macht für das außergewöhnliche Winterwetter die globale Erwärmung verantwortlich:

Die Stadtführung ist natürlich gut beraten, über den massiven Schneefall intensiv nachzudenken. Wissenschaftler sagen, dass derartig extremes Wetter wahrscheinlich zunehmen wird.

„Das Wetter der letzten Tage passt vollkommen zu der Tendenz, die vor einigen Jahren gefunden worden ist, nämlich dass es in Zukunft viel stärkere und auch häufigere Niederschlagsereignisse geben wird“, sagte Alexei Kokorin, Direktor des Klima- und Energieprogramms beim WWF Russland. „Im Sommer wird es möglicherweise mehr Starkregenereignisse geben“.

===========================================================

Gaia ist verärgert, man sende mehr Geld an Pachauri@wwf.ru.

Spaß beiseite, der logische Fehlschluss vom WWF-Sprecher hier ist typisch für ahnungslose Zeloten. Falls wirklich die globale Erwärmung der Grund für dieses Schneefall-Ereignis war, was war dann die Ursache für die starken Schneefälle vor 100 Jahren, als das CO2-Niveau unter dem von Hansen noch als „sicher“ eingestuften Wert von 350 ppm lag?

Forschende Geister würden das gerne wissen.

Aktualisierung: Die populäre Warmisten-Theorie lautet, dass eine geringe Ausdehnung von Meereis im Sommer Ursache für den verstärkten Schneefall-Effekt ist, und dass die Meereis-Reduktion Folge der globalen Erwärmung ist, aber das ist nicht bewiesen. Dann gibt es da das Monate lange Verzögerungs-Problem zwischen dem verringerten Meereis und dem Wetter.

Aus einem Essay bei WUWT von Willis Eschenbach habe ich die folgende Graphik. Man finde die Korrelation zwischen arktischem Meereis und dem Gebiet mit Schneebedeckung!

Bild 1: Arktische Meereis-Ausdehnung (blau) und die Gebiete mit Schneebedeckung auf der Nordhemisphäre (rot). Die untere Graphik zeigt die Anomalien der gleichen Daten mit den gleichen Einheiten (man beachte aber die unterschiedlichen Maßstäbe). R² der Schnee- und Eisanomalien ist 0,01, also vernachlässigbar gering. R² der ersten Ableitungen [of the first differences] ist 0,004, genauso bedeutungslos. Keiner davon wird signifikant verbessert durch Verzögerungen bis zu ±6 Monaten. Quellen: SNOW DATA   ICE DATA.

Willis schrieb dann:

Ich werde nicht viel zu dieser Graphik sagen. Klar ist, dass das arktische Meereis seit 20 Jahren oder so abgenommen hat. Genauso klar ist, dass der Schneefall in der Nordhemisphäre nicht während der letzten 20 Jahre abgenommen hat. Und schließlich ist klar, dass es keine statistische Beziehung zwischen weniger Eis und mehr Schnee gibt.

2. Aktualisierung: Da wir schon von statistischen Beziehungen sprechen, hier sind noch welche.

Die Graphik unten zeigt den jährlichen Schneefall im Vergleich zur Temperatur von Dezember bis April, und zwar für alle USHCN-Stationen in Colorado, die seit mindestens 1920 in Betrieb waren.

Bild 2: Folgende Stationen sind geplottet:

BOULDER, CANON CITY, CHEESMAN, CHEYENNE WELLS, DEL NORTE 2E, DILLON 1 E, EADS, FT COLLINS, FT MORGAN, FRUITA, GUNNISON 3SW, HERMIT 7 ESE, LAMAR, LAS ANIMAS, MANASSA, MONTROSE #2, ROCKY FORD 2 SE. STEAMBOAT SPRINGS, TRINIDAD und WRAY

Und falls jemand sagt, dieses Kollektiv ist zu klein, wollen wir es um eine Stufe anheben. Die folgende Graphik zeigt die Temperatur an allen USHCN-Stationen von Dezember bis April im Vergleich zu Schneefall [in the CONUS versus snowfall].

Und hier ist die jährliche Temperatur an allen USHCN-Stationen im Vergleich zu Schneefall:

Es zeigt sich eine klare Korrelation zwischen Schneefall und verminderter Temperatur. Die drei obigen Graphen wurden von Steve Goddard geplottet.

Anthony Watts

Link: http://wattsupwiththat.com/2013/02/05/heaviest-snowfall-in-a-century-hits-moscow-wwf-has-logic-fail/#more-78933

Übersetzt von Chris Frey EIKE




Solarstandort Thüringen – Zwischenbilanz eines Fiaskos

Dabei hatte alles so schön angefangen: „Bundesministerin für Bildung und Forschung Prof. Dr. Annette Schavan, Ministerpräsidentin Christine Lieberknecht, Thüringens Minister für Wirtschaft, Arbeit und Technologie Matthias Machnig und zahlreiche weitere Gäste aus Politik, Wirtschaft und Bildung unterstreichen die Bedeutung der neuen Bildungseinrichtung für den Wirtschafts- und Solarstandort Thüringen. (…) Schwerpunkte sind unter anderem die Bereiche Solartechnologie, Erneuerbare Energien, Halbleitertechnologie und Mikrosystemtechnik. Jährlich können dann insgesamt ca. 2500 Absolventen, darunter Schüler, Studenten, Auszubildende, Arbeitssuchende sowie Mitarbeiter und Führungskräfte aus Unternehmen, ihre Bildungsabschlüsse und Zertifikate erlangen. Insbesondere das breite Ausbildungsangebot im Bereich Solar und Erneuerbare Energien ist deutschlandweit einzigartig und wird Thüringens Position als einer der führenden Solarstandorte in Europa weiter stärken“, faßte eine befreundete PR-Agentur den feuchten Traum einer parteiübergreifenden Koalition anläßlich der Eröffnung zusammen.

Auf die warmen Worte von Bundeswissenschaftsministerin Schavan freute man sich besonders: „Aus Sicht von Schavan sei die Entscheidung, die Forschung in der Photovoltaik-Industrie mit 100 Millionen Euro zu fördern, der richtige Weg“, schrieb damals eine Zeitung. Allerdings zogen damals schon dunkle Wolken auf und die Ministerin hatte erste Subventionskürzungen zu verteidigen, wofür sie die Thüringer Landespolitik, eine schwarz-rote Koalition, damals heftig kritisierte. Plötzlich war auch nicht mehr von „2.500 Absolventen“, sondern nur noch von „351 Ausbildungsplätzen“ die Rede.

Wenig später schaute auch der damalige Umweltminister Röttgen vorbei und lobte das Projekt in den höchsten Tönen. Dabei wagte er die abenteuerliche Prognose, durch Solarstrom könnten Energiekosten gesenkt werden, denn „nur so könne teurer Energieimport aus dem Ausland durch regionale, erneuerbare Energieträger ersetzt werden.“ Christine Lieberknecht, die Ministerpräsidentin Thüringen, setzte noch einen drauf und erklärte, die „Fotovoltaik ist dabei, sich von einer Nische zu einem relevanten Bestandteil der Stromproduktion zu entwickeln.“

Mittlerweile liegen die Fakten auf dem Tisch: Trotz einer Subvention des Landes an den Träger des Zentrums, das „Bildungswerk für berufsbezogene Aus- und Weiterbildung“ (BWAW), von etwa 8 Millionen Euro (80 Prozent der Gesamtkosten) mußte das Hochtechnologie- und Solarzentrum bereits nach etwas über einem Jahr im Juni 2011 Insolvenz anmelden. „Zu Wochenbeginn standen sämtliche Lehrlinge vor verschlossenen Türen, weil der Strom abgeschaltet wurde und die überwiegende Mehrzahl der Mitarbeiter des Zentrums die Kündigung erhalten hatte“, hieß es dann Ende September 2011. Dabei kam heraus, daß im Solarzentrum inzwischen auch Kosmetikerinnen und Friseure ausgebildet wurden – aber offensichtlich auch nur deshalb, weil die Ehefrau eines der Solar-Geschäftsführer diesen Ausbildungsbereich bei der IHK verantwortete. Selbst die Behauptung der solar-seligen Thüringer Zeitungen, die Auslastung habe nur bei der Hälfte gelegen, muß vor diesem Hintergrund mit einem großen Fragezeichen versehen werden.

Dann meldete auch das BWAW Insolvenz an. Denn weil mit dem Wegfall der Lehrausbildung der Förderzweck nicht mehr erfüllt werden konnte, hatte es die 8-Millionen-Subvention zurückzahlen müssen, wozu es nicht mehr in der Lage war. Anscheinend war das Kompetenzzentrum bereits bei Eröffnung ein Jahrhundert-Flop, denn gegen seine beiden Geschäftsführer wurde – nach nur einem Jahr! – bereits wegen des Verdachts auf Insolvenzverschleppung ermittelt. Ende August verhängte das Amtsgericht Erfurt dann deswegen Strafbefehle über „mehrere Tausend Euro“ gegen die beiden Geschäftsführer. Außer der Nichtzahlung von Löhnen wurde einem der Geschäftsführer „Betrug in vier Fällen zu Last gelegt“, meldete der MDR. Wobei sich natürlich die Frage nach den Mitwissern aufdrängt, die es nach Lage der Dinge ja bis hin höchste Regierungskreise geben müßte. Zumal das Zentrum trotz Unterauslastung einen teuren zweiten Standort in Fußnähe zum Thüringer Wirtschaftsministerium unterhielt.

Auch ansonsten sieht es finster aus: Die seit 2008 in Thüringen aufgebaute Bosch-Tochter „Bosch Solar“ schreibt tiefrote Zahlen und brachte dem Weltkonzern 2012  „gut eine Milliarde Verlust“ ein. Die jüngste Solar-Insolvenz betrifft den Erfurter Hersteller Asola. Der verzeichnete einen Umsatzrückgang von 73 Millionen (2010) auf 20 Millionen (2012) und mußte drei Viertel seiner Beschäftigten entlassen. Dabei hätte man es eigentlich besser wissen müssen, denn die Thüringer Solarbranche ist seit ihrer Entstehung aufs Engste mit dubiosen Machenschaften verbunden. So berichtete die „Welt“ bereits 2008 über die Insolvenz der Ökoanlagenfirma Ecovest AG „und der mit ihr verwobenen Solarfabrik Antec Solar in Thüringen“: „Die Pleite wirft einen Schatten auf die Bemühungen des Landes Thüringen, mit Millionensubventionen die Solarbranche rund um Erfurt zu päppeln“, hieß es dort. Dabei wurden um die 9,5 Millionen an direkten und indirekten Landes- und 3,5 Millionen Euro Bundessubventionen verbrannt. 2009 stritt man dann über die Kosten der Altlastensanierung bei Antec, während in Hinterzimmern schon die nächsten Solarsubventionen klar gemacht wurden.

Die Beteiligten an der Eröffnungsfeier von 2010 versuchen jetzt, sich heimlich still und leise aus der Affäre zu ziehen: Weder ist das Grußwort von Ministerin Schavan noch im Web auffindbar, noch die Webseite der einst vom Thüringer Wirtschaftsministerium betriebenen „Solarinitiative Thüringen“. Auf dem Server der Thüringer Landesregierung finden sich keine neueren Hinweise, wie man mit den angestoßenen Solarprojekten weiter verfahren will. Wirtschaftsminister (und Steinbrück-Berater) Machnig schiebt die Schuld weit von sich und verweist bequemerweise auf China. Auch auf der Webseite des länderübergreifenden „Solarvalley Mitteldeutschland“ ist es mittlerweile sehr ruhig geworden. Dabei wäre eine umfassende Aufklärung darüber, ob die Subventionsverbrennung vorsätzlich, das heißt, mit dem Wissen und der bewußten Inkaufnahme ihrer Sinnlosigkeit durch die Beteiligten, dingend geboten.

Dr. Holger Thuß, Europäisches Institut für Klima und Energie