1

Energiewende-Export floppt. Zweifel am Erfolg wachsen im Ausland

Die gewagte deutsche Energiewende wird im Ausland interessiert mitverfolgt. Schon werden Wetten abgeschlossen, ob das teure Experiment wohl funktonieren kann. Immer mehr internationale Experten melden mittlerweile ernsthafte Zweifel an. In der Printausgabe der Welt vom 20. März 2013 berichtete Daniel Wetzel in einem Artikel mit dem Titel “Energiewende ist international ein Flop” über eine aufschlussreiche Umfrage des Weltenergierates. Der Artikel ist auch in einer Online-Version verfügbar, mit dem entschärften Titel “Andere Staaten verschmähen die Energiewende”:

Weltweit wachsen die Zweifel am Erfolg der deutschen Energiewende. Internationale Experten sind sich sicher, dass sie die deutsche Wirtschaft schwächt. Das belegt eine Umfrage des Weltenergierats. […] Kurzfristige Abschaltung von Atomkraftwerken bei unbegrenzter Subventionierung von erneuerbaren Energien: In Deutschland gilt dies seit Fukushima als Königsweg der Energiepolitik. Allerdings gibt es in Europa und weltweit kaum ein Land, das diese deutsche “Energiewende” für nachahmenswert hält. Das geht aus einer Umfrage der deutschen Sektion des Weltenergierates in 23 Mitgliedsländern hervor, die der “Welt” exklusiv vorliegt. […] Der gewachsene Zweifel hängt möglicherweise mit den unerwartet stark gestiegenen Strompreisen in Deutschland zusammen, die auf viele Länder abschreckend wirken, glaubt Stotz: “Ganz offensichtlich muss man sich eine Energiewende auch leisten können.” (weiterlesen auf Welt Online)

In einem dazugehörigen Kommentar in der Welt mit dem Titel “Deutschland im Abseits” plädiert Daniel Wetzel für mehr Besonnenheit und lehnt Klimaalarmismus als wichtigste Begründung für die Energiewende ab:

Auch erscheint die Notwendigkeit, sich in höchster Geschwindigkeit von fossilen Energieträgern zu verabschieden, nicht mehr so dringlich wie noch vor wenigen Jahren. Denn die Angst vor dem Klimawandel scheint weltweit inzwischen weitgehend verflogen zu sein. Die Erderwärmung legt offenbar seit mehr als zehn Jahren eine Pause ein, und die Politiker vieler Ländern scheinen erst einmal eine überzeugende Erklärung für dieses Phänomen abwarten zu wollen, bevor sie dem Kampf gegen den Klimawandel wieder höhere Priorität einräumen. Davon ganz abgesehen: Ein anderes großes Industrieland hat es gerade auch so geschafft, den CO2-Ausstoß pro Kopf der Bevölkerung auf den Stand der frühen 6oer-Jahre zu senken. Klimapolitischer Klassenbester sind nun die USA, die dank der Fracking-Technologie in der Erdgasförderung ihre schmutzigen Kohlekraftwerke abschalten können.

(1) Der Verband Berliner Kaufleute und Industrieller veranstaltete am 18.3.13 in Berlin eine Podiumsdiskussion mit dem kessen Titel: “ Ist die Energiewende noch zu retten?„.

Teilnehmer auf dem Podium waren (Bild oben, von links nach rechts) Prof. Justus Haucap – Ökonom Uni Düsseldorf Institut für Wettbewerbsökonomie der Universität Düsseldorf , Alexander Jung Generalbevollmächtigter – Vattenfall Europe AG für das Land Berlin,  Boris Schucht – Vorsitzender der Geschäftsführung 50hertz Transmission GmbH  und Friedbert Pflüger – Geschäftsführender Gesellschafter, Pflüger Internationale Beratung GmbH (Moderation); sowie Wolfgang von Geldern – Staatssekretär a.D., Vorsitzender des Vorstandes, Wirtschaftsverband Windkraftwerke e. V.

Ich (M.L.) durfte auch daran teilnehmen und auf einige grundsätzliche Schwächen der Energiewende hinweisen, z.B. auf den Ausfall einer zukünftigen Klimakatastrophe (zumindest wegen Erwärmung) trotz stetig und kräftig wachsender CO2 Konzentration  und das überreiche sowie ständig wachsende Angebot an fossilen wie auch Kernbrennstoffen. Beide Argumente – obwohl sauber belegt- beeindruckten die Podiumsteilnehmer in keiner Weise. Denn die offizielle Inhaltsangabe der Diskussion gem. der Website des VBKI lautet:

DROHT DER ENERGIEWENDE DAS AUS? DAS WAR DIE ZENTRALE FRAGE DER PODIUMSDISKUSSION AM 18. MÄRZ IM VBKI. DASS DIESER PROZESS RICHTIG UND WICHTIG IST – DARIN WAREN SICH ALLE DISKUTANTEN EINIG. DOCH DIE EXPERTEN WISSEN AUCH, DASS ES NOCH VIELE SCHWACHSTELLEN GIBT, DIE ES ZU OPTIMIEREN GILT.

Tlw. übernommen von „Die Kalte Sonne“, Die Welt“ und ergänzt um den Bericht zur Podiumsdiskussion des VBKI und das Zitat von 50 Hz Chef Boris Schucht von Michael Limburg




Wie gut war Hansen im Jahre 1988?

HANSENS SZENARIEN

Die drei Szenarien und ihre Vorhersagen werden von Hansen 1988 wie folgt definiert:

„Szenario A nimmt einen fortgesetzten exponentiellen Anstieg der Spurengase an…“ Hansens vorhergesagter Temperaturanstieg von 1988 bis 2012 soll 0,9°C betragen, MEHR ALS VIER MAL SO VIEL wie die tatsächliche Zunahme um 0,22°C.

„Szenario B nimmt ein zurückgehendes lineares Wachstum der Spurengase an…“ Hansens vorhergesagter Temperaturanstieg von 1988 bis 2012 beträgt 0,75°C, MEHR ALS DREI MAL SO VIEL wie die tatsächliche Zunahme um 0,22°C.

„Szenario C nimmt einen raschen Schnitt bei den Spurengasemissionen an, so dass der Gesamt-Klima-Antrieb nach dem Jahr 2000 nicht mehr zunimmt”. Hansens vorhergesagte Temperaturzunahme von 1988 bis 2012 beträgt 0,29°C, NUR 31% HÖHER als die aktuelle Zunahme von 0,22°C.

Folglich kommt also nur Szenario C, das einen raschen Schnitt bei den Spurengasemissionen annimmt, in die Nähe der Wahrheit.

„ES GAB IN WIRKLICHKEIT ABER KEINEN SCHNITT DER SPURENGASEMISSIONEN”

Wie jedermann weiß, beweisen die Messungen des atmosphärischen CO2 auf dem Mauna Loa, dass es KEINEN IRGENDWIE GEARTETEN SCHNITT der Spurengasemissionen gegeben hat. Tatsächlich setzt sich die rapide CO2-Zunahme ohne Abschwächung fort.

Was macht RealClimate aus dieser Lage?

„…Während die Simulation nicht perfekt war, hat sie doch jede vernünftige naive Hypothese, die die Leute im Jahre 1988 erstellt hatten, bestätigt (die offensichtlichste war eine Vorhersage einer Nicht-Änderung) … Die Schlussfolgerung ist die gleiche wie in jedem der vergangenen Jahre; die Modelle sind auf der niedrigen Seite einiger Änderungen und auf der hohen Seite bei anderen, aber trotz kurzfristiger Anstiege und Rückgänge setzt sich die globale Erwärmung zumeist wie vorhergesagt fort“.

Geht weiter, Leute, hier gibt es nichts zu sehen, alles ist OK, „die globale Erwärmung setzt sich zumeist wie vorhergesagt fort“.

Schlussfolgerungen

Hansen 1988 ist der Eckpfeiler des gesamten AGW-Abenteuers, der Theorie, dass die Anthropogene (vom Menschen verursachte) Globale Erwärmung zu einer Klimakatastrophe in naher Zukunft führen wird. RealClimate, der führenden Website der Warmisten, sollte man zur Veröffentlichung einer Graphik gratulieren, die AGW so eindeutig widerlegt und die alle Ergebnisse der Klimamodelle des offiziellen Klima-Teams (das „Hockey-Team“) so in Frage stellt.

Hansens Modellrechnungen aus dem Jahr 1988 basieren auf einer Klimasensitivität (vorhergesagte Temperaturzunahme bei einer Verdoppelung des CO2-Gehaltes) von 4,2°C. Die tatsächliche CO2-Zunahme seit 1988 liegt irgendwo zwischen Hansens Szenario A („fortgesetzte exponentielle Zunahme der Spurengase“) und Szenario B („reduzierte lineare Zunahme von Spurengasen“). Also wäre es basierend auf den Fehlvorhersagen der Szenarien A und B um einen Faktor drei oder vier vernünftig anzunehmen, dass die Klimasensitivität eher bei 1°C als bei 4°C liegt.

Was die Schlussfolgerung von RealClimate betrifft, dass Hansens Simulation „jede vernünftige naive Hypothese, die die Leute im Jahre 1988 erstellt hatten, bestätigt hat (die offensichtlichste war eine Vorhersage einer Nicht-Änderung)“, so ist sie FALSCH. Selbst eine „naive“ Vorhersage einer Nicht-Änderung wäre näher bei der Wahrheit (bei 0,22°C) als Hansens Szenarien A (Erwärmung um 0,68°C) und B (Erwärmung um 0,53°C)!

Ira Glickstein

Link: http://wattsupwiththat.com/2013/03/20/how-well-did-hansen-1988-do/#more-82273

Übersetzt von Chris Frey EIKE




Earth Hour, Smog & Kim Jong Il

Jedes Poster soll die Leute animieren, eine der nachhaltigen Tätigkeiten vorzunehmen, die von den neun Umweltberatern bei DoTheGreenThing ausgewählt worden sind. Und sie treffen diese Auswahl mit Hilfe einer Weltklasse-Kreativität, von der wir glauben, dass sie ein äußerst effektives Werkzeug ist, um die Leute dazu verführen, zu treiben und zu überreden, ihr Verhalten zum Besseren zu verändern (Fettdruck hinzugefügt; Backup hier).

Das Verhalten der Leute zu ändern. Darum geht es diesen Leuten. Sie und ich sind uninformierte, ungewaschene Massen. Wir verhalten uns so, wie wir uns verhalten, nicht weil wir unsere Optionen bedacht und den sinnvollsten Weg gewählt haben.

Wir sind keine intelligenten Wesen, die intelligente Entscheidungen treffen. Vielmehr sind wir Öko-Sünder. Und die Leute bei DoTheGreenThing sind Missionare, die das Evangelium verbreiten.

Die ersten 10 der 23 Poster sind hier zu sehen. Vor einigen Tagen verkündete das vorgestellte Bild lauthals: „Hot dog, Hot Smog.” Es besteht darauf, dass unser Fleischkonsum für 18% „aller Treibhausgasemissionen“ verantwortlich ist.

Die Tatsache, dass für diese Halbwahrheit in den begleitenden Texten keine Quelle angegeben ist zeigt, dass es den Leuten bei DoTheGreenThing völlig egal ist, ob das stimmt oder nicht. Die Zahl scheint aus einem UN-Bericht aus dem Jahr 2006 zu stammen, deren Ergebnisse sehr umstritten waren. Tatsächlich erschien 2010 eine Story mit dem Titel: UN admits flaw in report on meat and climate change [etwa: UN räumt Falschaussagen im Bericht über Fleischkonsum und Klimaänderung ein].

Aber das andere offensichtliche Problem besteht darin, dass Kohlendioxid-Emissionen seit Langem das vordergründige Ziel der AGW-Aktivisten gewesen sind. Und Kohlendioxid ist sowohl farb- als auch geruchlos. Was immer man noch darüber sagen kann, es ist kein Smog.

Also haben wir eine ungenaue Behauptung und eine zweifelhafte Statistik von einem Poster, das vermeintlich mit der Earth Hour des WWF in Verbindung steht. Angesichts der Tatsache, dass der Begleittext drei Links zu vegetarischen Rezepten enthält, handelt es sich in Wirklichkeit nur um eine Werbung für den Vegetarismus.

Aber das ist noch gar nichts im Vergleich zu einem anderen Poster, das ein Foto des derzeitigen nordkoreanischen Diktators Kim Jong Il zeigt, zusammen mit dem Slogan „Standby lights are evil”. Ich kann mir keine bessere Illustration von einem der häufigen Themen von Ben Pile vorstellen. Wie er sagt: „Umweltaktivisten haben keinen Sinn für Verhältnismäßigkeit”.

Zwischen 1995 und 2000 sind Hunderttausende und vielleicht bis zu 2,4 Millionen Menschen in Nordkorea verhungert  als Folge einer langen Reihe von Aktionen seitens Kim Jong Ils Regierung. In einem Bericht aus dem Jahr 1998 für den US-Kongress findet sich u. a. ein Abschnitt über Gefängnisse für die Hungrigen:

Als sich die Nahrungsmittelkrise in Nordkorea verschärfte, erließ Kim Jong Il am 27. September 1995 eine Anordnung, wonach Menschen eingesperrt werden sollten, um sie davor zu „schützen“, weite Wege auf der Suche nach Nahrung auf sich zu nehmen. Benannt nach dem Datum dieser Anordnung repräsentieren diese „9.27“-Gefängnisse ein neues Tief in den Aufzeichnungen von Menschenrechten in einem Land, das ohnehin schon ganz unten hinsichtlich der menschenrechte international rangiert.

An einer anderen Stelle heißt es in dem Bericht über das Hyesan City Hospital Nr. 1:

Das Hospital war schmutzig. Es gab kein Wasser oder Strom. Fliegen waren allgegenwärtig. Sechzig Prozent der 120 Patienten des Hospitals litten unter Unterernährung… Die Kinder litten unter Mangelernährung, Tuberkulose sowie Lungen- und Nierenentzündungen. Wir haben eine „hausgemachte“ intravenöse Flüssigkeit (IV) gesehen, die einem Kind verabreicht wurde mittels einer leeren Glasflasche, gefüllt mit Wasser und Zucker. Der IV-Schlauch war schmutzig und gelb. Er war mit einem schmutzigen Stück Stoff am Kopf des Kindes befestigt.

Die menschliche Tragödie namens Nordkorea ist sehr tiefgründig. Aber für die Ökoschreihälse von Earth Hour ist diese klaffende Wunde von Unterdrückung und Verzweiflung ein bloßer Punkt, über den man spricht; etwas, von dem man bei Gelegenheit Gebrauch macht. Im Text zu diesem Poster findet sich ein Zitat des Künstlers Joe Stephenson:

Die Standby-Lichter symbolisieren alles, was in der Welt falsch läuft: anstatt zwei Schritte zu gehen und alles komplett auszuschalten, lassen wir es einfach auf Standby, womit wir zusätzlich Strom verbrauchen und unsere Stromrechnungen verteuern. Also wollte ich diese kleinen roten Lämpchen dämonisieren und jeden an Kim Jong Il denken lassen, wenn man sie sieht.

Einige Bemerkungen dazu, dass Standby alles repräsentiert, was in der Welt falsch läuft. Er sagt das wirklich. Sein Ratschlag weist uns an:

Ein Fernsehapparat, der drei Stunden pro Tag läuft und die restlichen 21 Stunden im Standby verbleibt, verbraucht 40% seiner gesamten Energie mit Standby.

Erneut wird keine Quelle angegeben, aber eine Website der Regierung von Kanada zeigt einige dringend benötigte Perspektiven:

Bekannt auch als „versickernder Strom”, „Vampir-Strom“ und „Phantomladungen“ macht der im Standby verbrauchte Strom im Mittel 5 bis 10 Prozent des insgesamt verbrauchten Stromes aus, der in einem typischen kanadischen Haushalt verbraucht wird (Fettdruck hinzugefügt).

Die Leute von DoTheGreenThing glauben also, dass der Verbrauch von etwas mehr Strom als notwendig auf der gleichen moralischen Ebene steht wie ein Diktator und Massenmörder.

Das ist ihre Denkweise, wenn sie kreativ Earth Hour-freundliche Botschaften verbreiten.

Link: http://nofrakkingconsensus.com/2013/03/10/earth-hour-smog-kim-jong-il/

Übersetzt von Chris Frey EIKE




Big Wind verschleiert die Beweise, das Turbinen Vögel töten – und wird belohnt. So haben sie es gemacht:

Seit Anfang der achtziger Jahre wusste die Industrie, dass Propeller-Turbinen niemals für Greifvögel sicher sein würden. Mit den Enden der Rotorblätter, die mit Geschwindigkeiten bis zu 200 mph [ca. 320 km/h] frei durch die Luft rotierten, war das schlicht unmöglich. Windfarmer wussten auch, dass sie einem Alptraum gegenüber stehen würden, sollte die Öffentlichkeit je erfahren, wie viele Adler wirklich zerschnitten werden – oder mit einem gebrochenen Flügel zurück gelassen werden und tagelang herumkriechen, bevor sie sterben.

Um diese grausame Wahrheit zu verstecken, wurden strikte Richtlinien für den Betrieb von Windparks erlassen einschließlich hoher Sicherheit, Nachrichtensperren bei der Verpachtung und andere Abmachungen – und die Verhinderung genauer, bedeutsamer Studien zur Todesrate.

Seitens der Industrie hat diese Geschäftsordnung ziemlich gut funktioniert, den Deckel auf dem Problem der Sterblichkeitsrate zu halten. Während die Öffentlichkeit bis zu einem gewissen Grad versteht, dass Vögel von Windturbinen getötet werden, hat sie keine Ahnung von den wirklichen Sterbezahlen. Und die Industrie wird mit Subventionen belohnt sowie mit Immunität hinsichtlich des Aussterbens bedrohter Tiere und anderer Gesetze des Wildlebens.

Frühere Studien haben das Ausmaß des Problems deutlich gemacht.

Um das Mortalitäts-Problem von Windturbinen in vollem Umfang zu erfassen, muss man den Bericht über das Altamont Pass Wind Resource Area (APWRA) aus dem Jahr 2004 studieren. Die Studie zog sich über 5 Jahre (1998 bis 2003), und die Forscher hatten keinen uneingeschränkten Zugang zu den Altamount-Turbinen.

Diese sorgfältigen, ehrlichen Bemühungen analysierten die Charakteristiken der Turbine im Verhältnis zu Sterberate und der geschätzten Sterberate durch Zählen der Körper, die bei sorgfältigen Suchaktionen gefunden worden sind. Die Forscher haben dann die Anzahl der Todesfälle [mortality number] adjustiert, indem sie auf der Effizienz der Suchenden und anderen natürlichen Faktoren basierende statistische Daten untersucht haben. Die Studie zeigte sogar, dass die Abschätzung der Todeszahlen möglicherweise zu niedrig lag infolge übersehener Kadaver und anderer menschlicher Irrtümer.

Diese Studie steht in scharfem Kontrast zu heute durchgeführten Studien, besonders vom Wildlife Reporting Response System WRRS, derzeit die einzige Analyse, die durchgeführt oder von den meisten Windparks erlaubt wird. Das WRRS ist das eigene Berichtssystem der Stromunternehmen hinsichtlich von Unfällen. Sie erlauben bezahltem Personal, tote Tiere zu sammeln und zu zählen. Das erklärt, warum die Anzahl der Todesfälle immer auf der niedrigen Seite liegt und warum viele höhere Spezies in der Nähe installierter Windturbinen verschwinden.

Unglaublicherweise räumte der APWRA-Bericht tatsächlich ein: „Wir fanden einen toten Greifvogel unter Steinen begraben und einen anderen im Bau eines Erdhörnchens. Ein Operator hat es abgelehnt, uns darüber zu informieren, dass ein Steinadler als Teil des WRRS entfernt worden ist. Aufgrund dieser Erfahrungen ist es möglich, dass wir andere Leichname nicht finden konnten, die entfernt worden waren“ (Kap. 3, S. 52). Man sieht daran eindeutig, wie menschliche „Fehler“ die Todesrate von Vögeln niedrig halten.

Die APWRA-Studie dokumentierte auch, dass Nahrungsquellen für Greifvögel, die Größe der Turbinen und deren Aufstellungsorte alle die Sterblichkeit der Greifvögel direkt beeinflussen. Folglich war es möglich, viele der gefährlichsten Turbinen oder Gruppen von Turbinen zu identifizieren, jene mit einer Historie getöteter Steinadler, Turmfalken, Felseneulen und rotschwänziger Falken.

Die Studienergebnisse wurden immer schlimmer, als immer mehr und immer größere Turbinen errichtet wurden.

Die Studie behandelte auch, wie die Greifvogel-Sterblichkeit zunahm, als kleinere Türme durch größere Turbinen und proportional längere Rotorblätter „aufgewertet“ wurden. Diese Windturbinen boten den Greifvögeln scheinbar optimale und sehr große Freiräume zwischen Türmen und damit vermeintlich optimale Flugbedingungen. Sie nahmen die Rotorblätter nicht wahr; die Freiräume waren bereits besetzt durch viel längere und sich schnell bewegende Rotorblätter.

Die Folge war eine signifikante Steigerung der Todesfälle von Steinadlern, rotschwänzigen Falken, amerikanischen Turmfalken, Felseneulen, Wildenten, Haubenlerchen und Wiesenstärlingen. Turbinen mit einer geringeren Rotationsgeschwindigkeit pro Minute erweckten den Anschein, dass noch mehr Platz zwischen den Türmen war und „größere Zeitfenster“. Dies führte die Vögel in die Irre, vermittelte es ihnen doch die Illusion, dass sie offene Flugkorridore zwischen den sich drehenden Rotorblättern nutzen konnten.

Tatsächlich führt diese Illusion auch Menschen in die Irre. Die neuesten Turbinen weisen Rotationsgeschwindigkeiten von 10 bis 20 Umdrehungen pro Minute auf. Das scheint langsam zu sein, aber an den Spitzen der Rotorblätter ergibt sich daraus eine Geschwindigkeit von 100 bis 200 mph [bis ca. 320 km/h]!

All das war sehr wichtig, weil die Industrie immer größere Turbinen mit immer längeren Rotorblättern installierte. Allerdings hat die Industrie nicht nur die APWRA-Ergebnisse ignoriert und rasch tausende dieser viel größeren Turbinen in ganz Amerika errichtet, trotz der viel größeren Gefahr für Vögel und Greifvögel aller Art. Die Industrie hat auch dafür gesorgt, dass die Öffentlichkeit nicht auf APWRA aufmerksam wird, und lenkten die Aufmerksamkeit auf neue Studienergebnisse, die viel weniger genaue (und ehrliche) Forschungen reflektierten.

Wie die Windindustrie die Sterberate der Greifvögel versteckt

Der AWPRA-Bericht besah sich auch die Fundorte der Kadaver relativ zum Turbinentyp. Er dokumentierte, dass die Abstände der Fundorte von Kadavern signifikant mit Megawatt und Länge der Rotorblätter zugenommen haben. Basierend auf einem Beispiel von etwa 800 Kadavern zeigte der Bericht, dass Vögel im Mittel 28,5 m von 100 KW-Turbinen entfernt auf 24,6 m hohen Türmen gefunden worden sind.

Offensichtlich malträtieren höhere Turbinentürme mit längeren Rotorblättern und höheren Geschwindigkeiten an der Spitze der Rotorblätter die angeschlagenen Vögel immer mehr. Abbildung 1 zeigt, wie eine 2,5 mal größere Turbine zu einer mittleren Entfernung von Kadaver-Fundorten von 113,5 m von der Turbine führt. Die Windindustrie weiß das genau.

Darum hat sie die Forschungsgebiete auf 50 Meter um die größeren Turbinen begrenzt. Dies stellt sicher, dass viel weniger Körper gefunden werden und dass die Betreiber nicht so viele Kadaver hinweg erklären müssen.

Jüngere Studien der Sterberate wie die beim Wolfe Island Windprojekt (2,3 MW-Turbinen) oder beim Criterion Projekt in Maryland (2,5 MW-Turbinen) sollten in einem Umkreis von 200 m um die Turbinen durchgeführt worden sein, um die große Masse der Kadaver zu finden (75% bis 85%). Natürlich haben sie das nicht getan. Stattdessen haben sie ihren Suchumkreis auf 50 Meter begrenzt und sichergestellt, dass sie die meisten Greifvögel-Kadaver gar nicht finden. Damit konnten sie Behauptungen aufstellen, dass ihre Turbinen nur minimale oder „akzeptable“ Auswirkungen auf die Vogelpopulation haben.

Andere Methoden und verzerrte Formeln erlauben es der Industrie, Kadaver auszuschließen oder hinweg zu erklären. Die jüngste Studie vom Altamount-Pass fand viel mehr Vogelkadaver, aber die Betreiber von Altamount behaupten nach wie vor, dass die Sterberate abnimmt, indem man neue Formeln zur Adjustierung und andere ausschließende Faktoren verwendet:

– Ausschluß bestimmter Kadaver. Die WRRS-Daten von 2005 bis 2010 zeigen, dass 347 Kadaver (hauptsächlich Greifvögel) – plus 21 Kadaver von Steinadlern – von den Sterblichkeits-Schätzungen ausgeschlossen worden waren, weil die Arbeiter der Industrien behauptet hatten, sie hätten diese Kadaver außerhalb der Standard-Suchprozeduren gefunden und die „Todesursache sei unbekannt“ ( selbst wenn die Kadaver geköpft worden waren) – oder sie entfernten Kadaver aus dem bestimmten Suchbereich.

– Ausschluss von tödlich verwundeten oder verkrüppelten Vögeln, die während der Suche gefunden wurden, selbst wenn sie augenscheinlich von den Turbinen verursachte Verwundungen zeigen. Obwohl viele von den Rotorblättern getroffene Vögel innerhalb einiger Tage sterben, atmen sie noch, wenn sie gefunden werden. Dann werden sie als flugfähig betrachtet – und folglich nicht als Opfer gezählt.

– Man vermeide es einfach, in der Nähe einiger der gefährlichsten und tödlichsten Turbinen zu suchen. Die Industrie rechtfertigt dieses Vorgehen mit der Behauptung, dass „die Anzahl der untersuchten Turbinen reduziert und räumlich ausbalanciert worden ist, um ein ausgewogenes Muster zu erreichen [for a randomized rolling panel design]“. Mit anderen Worten, „Reduktion und Ausbalancierung“ schlossen die tödlichsten Gebiete der Altamount-Einrichtung aus und präsentierte die Todesraten in diesen Gebieten als zufällig oder Teil einer sauberen wissenschaftlichen Methodik.

Die harte Realität lautet, dass  ehrliche, wissenschaftliche und genaue Untersuchungen zur Sterblichkeit von Vögeln im Gebiet des Altamount-Pass’ Todesraten zeigen würde, die die Amerikaner schockieren würden.

Sie würden auch ernste Fragen zu Windturbinen im gesamten Gebiet der USA stellen, vor allem hinsichtlich von Windparks in einschlägigen Vogel-Habitaten wie der Sheperd’s Flat in Oregon und den Zugkorridoren der Schreikraniche von Alberta in Kanada nach Texas.

Die hier besprochenen Techniken helfen sicherzustellen, dass „Überwachungs“-Studien zu den von den Windpark-Betreibern gewünschten Ergebnissen kommen und Sterblichkeitsraten auf „akzeptablen“ Niveaus gehalten werden.

Die Sterberate der Vögel darf nicht länger versteckt werden

Nicht nur, dass die Windindustrie niemals ihr Umweltproblem gelöst hat. Sie hat mindestens 90% der Schlächterei Jahrzehnte lang versteckt. Tatsächlich geht das universelle Problem des Versteckens der Sterberate von Vögeln (und Fledermäusen) über die Grenzen des Altamount-Pass’ hinaus von schlimm zu unterträglich, weil Studien in anderen Gebieten in ganz Nordamerika erheblich weniger rigoros oder sogar nicht existent sind; und viele neue Turbinen werden in primären Vogel- und Fledermaus-Habitaten errichtet.

Wie Paul Driessen und andere berichten, liegt die wirkliche Todesrate bei Tausenden Greifvögeln pro Jahr und bis zu 39 Millionen Vögeln und Fledermäusen aller Spezies jährlich in den USA allein, Jahr für Jahr! Dies ist unerträglich und nicht nachhaltig. Es führt unvermeidlich zum Aussterben vieler Spezies, zumindest in vielen Habitaten und vielleicht in den gesamten 48 Kernstaaten der USA.

Inzwischen bestehen ausgewählte „Experten” weiterhin darauf, dass die größte Bedrohung für die Steinadler andere Faktoren seien, wie Wanderer, die ihren Nestern zu nahe kommen, selbst wenn die meisten verlassenen Nester in Südkalifornien nirgends auch nur in der Nähe irgendwelcher Wanderwege lagen und die Windturbinen weiterhin Steinadler töten.

Es ist unabdingbar, dass sich die Bevölkerung bewusst wird, dass keine Energiequelle auch nur ansatzweise so viele Opferzahlen unter vielen Greifvögeln fordert wie die Windenergie. Keinen anderen Windunternehmen wird es erlaubt, Körper von seltenen und geschützten Arten rund um ihre Erzeugungsstellen auf Tagesbasis zu sammeln, jahrein, jahraus. Kein anderer Energieerzeuger hat einen viele tausend Meilen breiten Fußabdruck des Todes (den hoch gefährdeten Flugkorridor der Schreikraniche) – nur die Windenergie.

Wenn die Menschen erst einmal all das verstehen, werden sie zu Recht fordern, dass die Windindustrie den gleichen Umweltgesetzen zu gehorchen hat wie alle anderen Industriezweige auch. Dies macht erforderlich, dass Windturbinen nur dann errichtet werden dürfen, wenn das Risiko für die Vögel minimal ist oder bei Null liegt; dass Turbinen mit neuem Design aufgestellt werden, das die Vögel als Hindernis erkennen und damit vermeiden können; dass Strafzahlungen für jeden getöteten Vogel verhängt werden, wie es bei anderen Industriezweigen der Fall ist; und dass industrielle Windparks nicht genehmigt werden, wo diese Anforderungen nicht erfüllt werden können.

Das Wildleben Amerikas und die ordnungsgemäße Anwendung unserer Umweltgesetzte erfordert nichts weniger als das.

Jim Wiegand

Jim Wiegand ist ein unabhängiger Experte für das Wildleben und verfügt über Jahrzehnte lange Erfahrung hinsichtlich Feldbeobachtungen und analytischer Arbeit. Er ist Vizepräsident der US-Sektion von Save the Eagles International, einer Organisation, die sich der Erforschung, dem Schutz und der Erhaltung von Flugvögeln verschrieben hat, die von menschlicher Beanspruchung und Entwicklung bedroht werden.

Link: http://www.cfact.org/2013/03/18/wind-turbines-kill-up-to-39-million-birds-a-year/

Übersetzt von Chris Frey EIKE

Auch bei uns ist das Vogelschreddern eine immer stärker beachtetes Thema:

http://donnerunddoria.welt.de/2013/03/09/vogelfrei-wie-der-klimaschutz-den-naturschutz-platt-macht/

http://www.wattenrat.de/2013/03/vogelfrei-durch-energiewende-und-klimaschutz-eine-pflichtlekture/#more-8219

http://www.welt.de/wissenschaft/umwelt/article114216742/Oeko-Strom-vertreibt-Voegel-von-deutschen-Feldern.html 

http://cdn.eex.com/document/93997/20110609_EEX_workshop_Daniel%20Wragge.pdf




Begutachtungen, Veröffentlichungen in Top-Journalen, wissenschaftlicher Konsens und so weiter

Bild rechts: Autor Robert Higgs

Ich gebe nicht vor, eine Expertise in Klimatologie zu haben oder irgendeine der mit Physik zusammen hängenden Wissenschaften. Daher ist nichts, was ich zu strikt klimatologischen oder damit verbundenen physikalischen Dingen sage, von Bedeutung. Allerdings verfüge ich über 39 Jahre professioneller Erfahrung – 26 als ein Universitätsprofessor einschließlich 15 Jahre an einer maßgebenden Forschungsuniversität, danach 13 Jahre als Forscher, Autor und Herausgeber – in engem Kontakt mit Wissenschaftlern aller Art, einschließlich einiger in biologischen und physikalischen Wissenschaften und vieler in Sozialwissenschaften und Demographie. Ich habe als Begutachter für über 30 Journale fungiert sowie als Begutachter von Forschungsanträgen für die National Science Foundation NSF, den National Institutes of Health NIH sowie einer großen Zahl privater Stiftungen. Ich war leitender Ermittler eines wesentlichen, vom NSF geförderten Forschungsprojektes auf dem Gebiet der Demographie. Also denke ich, dass ich Einiges darüber weiß, wie das System funktioniert.

Es funktioniert nicht so, wie Außenstehende zu denken scheinen.

Wissenschaftliche Begutachtung, auf die Laien großen Wert legen, variiert. Die Bandbreite reicht von einer wichtigen Kontrolle, bei der die Herausgeber und Beurteiler kompetent und verantwortungsbewusst sind, bis zur vollständigen Farce, wo sie das nicht sind. In der Regel und nicht überraschend verläuft dieser Prozess irgendwo in der Mitte und ist mehr als nur ein Witz, aber weniger als das nahezu einwandfreie System olympischer Genauigkeit, eine Vorstellung, die bei Außenstehenden vorherrscht. Irgendein Herausgeber irgendeiner Zeitschrift, der aus welchen Gründen auch immer einen eingereichten Artikel ablehnen möchte, kann dies leicht bewerkstelligen, indem er ihm gut bekannte Gutachter wählt, von denen er weiß, dass sie den Artikel verreißen werden; genauso kann er aber auch Begutachter bestellen, die den Artikel in den Himmel heben. Da ich immer junge Leute beraten habe, deren Arbeit zurückgewiesen worden war, offensichtlich aus vorgeschobenen oder unzutreffenden Gründen, kann ich sagen, dass das System Schrott ist. Persönliche Rachefeldzüge, ideologische Konflikte, professionelle Eifersüchteleien, methodische Widersprüche, übermäßige Selbstdarstellungen  und eine Menge glatter Inkompetenz und Unverantwortlichkeit sind der wissenschaftlichen Welt nicht fremd; tatsächlich ist diese Welt nur zu voll mit all diesen nur allzu menschlichen Eigenschaften. In keinem Fall kann die Begutachtung sicherstellen, dass die Forschung korrekt hinsichtlich der Methodik und der Ergebnisse ist. Die Historie jeder Wissenschaft ist eine Chronik von einem Fehler nach dem anderen. In einigen Wissenschaften werden diese Fehler im Laufe der Zeit ausgemerzt, in anderen bleiben sie für lange Zeit bestehen, und in einigen Wissenschaften wie der Wirtschaft könnte der aktuelle wissenschaftliche Rückschritt noch Generationen andauern, und zwar unter dem irregeleiteten (aber sich selbst zufrieden stellenden) Glauben, dass es sich in Wirklichkeit um Fortschritt handelt.

Zu jeder Zeit kann es in einer bestimmten Wissenschaft in jeder Hinsicht einen Konsens geben. In der Rückschau erscheint dieser Konsens jedoch häufig als ein Fehler. Erst in den siebziger Jahren beispielsweise gab es einen wissenschaftlichen Konsens unter Klimatologen und Wissenschaftlern in angrenzenden Disziplinen, dass die Erde in eine neue Eiszeit eintreten würde. Drastische Vorschläge wurden gemacht wie zum Beispiel Wasserstoffbomben über den polaren Eiskappen explodieren zu lassen (um diese zu schmelzen) oder die Bering-Straße mit einem Damm zu schließen (um zu verhindern, das kaltes Wasser aus der Arktischen See in den Pazifik gelangt), um diese drohende Katastrophe zu umgehen. Angesehene Wissenschaftler und nicht irgendwelche uniformierten Spinner haben diese Vorschläge gemacht. Wie schnell wir vergessen!

Forscher, die sich unorthodoxer Methoden oder theoretischer Grundlagen bedienen, haben unter den gegenwärtigen Umständen große Schwierigkeiten, ihre Ergebnisse in den „besten“ oder – zeitweise – in irgendeiner Zeitschrift zu veröffentlichen. Wissenschaftliche Neuerer oder kreative Exzentriker werden von der großen Masse der Fachleute als Verrückte angesehen – bis es unmöglich ist, ihre Ergebnisse weiter zu leugnen, was jedoch oftmals erst nach dem Aussterben der ersten Generation der Ringträger der Fall ist. Wissenschaft ist ein merkwürdiges Unterfangen: Jeder strebt danach, den nächsten Durchbruch zu erzielen, aber wenn jemandem das dann gelingt, wird er oft behandelt, als trage er das Ebola-Virus in sich. Zu viele Leute haben zu viel in gängige Ideen investiert; für diese Leute ist die Anerkennung, dass ihre eigenen Gedanken falsch sind, das Gleiche wie zuzugeben, dass sie ihr Leben verschwendet haben. Oftmals, vielleicht um erkannte Unstimmigkeiten zu vermeiden, geben sie niemals zu, dass ihre Gedanken falsch waren. Noch wichtiger: Es gilt die Regel – und zwar sowohl in der Wissenschaft als auch anderswo – dass man mit den Wölfen heulen muss, wenn man weiterkommen will.

Forschungswelten sind in ihren oberen Bereichen ziemlich klein. Führende Forscher kennen alle wesentlichen Mitspieler und was jeder davon macht. Sie nehmen an den gleichen Konferenzen teil, gehören zu den gleichen Gesellschaften, schicken ihre Studenten in die Laboratorien dieser Mitspieler begutachten einander ihre Arbeiten für die NSF oder NIH oder andere von der Regierung bezahlte Organisationen, und so weiter. Wenn Sie nicht zu dieser strammen Bruderschaft gehören, wird sich herausstellen, dass es sehr, sehr schwierig für Sie wird, hinsichtlich Ihrer Arbeit angehört zu werden, sie in einem „Top“-Magazin zu veröffentlichen, eine Zuwendung der Regierung genehmigt zu bekommen, eine Einladung zu erhalten für eine Teilnahme in einer wissenschaftlichen Podiumsdiskussion oder Ihre Studenten in angemessene Stellungen zu bringen. Der ganze Klüngel ist unwahrscheinlich inzestuös; die Wechselbeziehungen sind zahlreich, stark und eng.

In diesem Zusammenhang braucht ein aufgeweckter junger Mensch Cleverness, sich an die vorherrschende Orthodoxie anzupassen, aber es geziemt sich für ihn nicht, das Boot zum Schaukeln zu bringen, indem er irgendetwas Fundamentales herausfordert oder es wagt, in die inneren Zirkel derjenigen vorzustoßen, die die Begutachtungsgremien für NSF, NIH und andere Organisationen festlegen. Moderne biologische und physikalische Wissenschaft ist zum überwältigenden Teil von der Regierung finanzierte Wissenschaft. Falls Ihre Arbeit aus welchen Gründen auch immer den relevanten Bürokraten der Agentur oder den akademischen Begutachtungsgremien nicht gefällt, können Sie alle Hoffnungen begraben, jemals Geld zur Erreichung Ihrer Ziele zu erhalten. Erinnern Sie sich an die oben von mir erwähnten Schwachpunkte; sie spielen im Zusammenhang mit Förderung eine genauso große Rolle wie im Zusammenhang mit der Veröffentlichung. Tatsächlich sind diese beiden Zusammenhänge eng miteinander verknüpft: Erhält man keine Förderung, wird man niemals veröffentlichungswürdige Arbeiten erstellen können, und wenn man keine guten Veröffentlichungen nachweisen kann, wird man auch weiterhin keine Förderungen erhalten.

Wenn Ihre Forschung eine „Notwendigkeit” für drastische Maßnahmen der Regierung impliziert, um eine bevor stehende Katastrophe zu umgehen oder um ein schlimmes bestehendes Problem abzumildern, ist die Wahrscheinlichkeit größer, dass Regierungs-Bürokraten und Gesetzgeber Förderungen genehmigen. Falls die Manager bei NSF, NIH und anderen Geld gebenden Regierungsagenturen große Summen Geldes an Wissenschaftler vergeben haben, deren Forschung impliziert, dass keine Katastrophe droht oder derzeit kein schlimmes Problem existiert oder, falls das doch der Fall ist, dass keine durchführbare Politik daran etwas ändern kann, ohne in der Folge noch viel größere Probleme zu schaffen, dann wären die Mitglieder des Kongresses viel weniger geneigt sein, der Agentur Geld hinterher zu werfen, mit allen Konsequenzen, die eine Beschneidung der Fördermittel für das Gedeihen der Bürokratie impliziert. Niemand muss alle diese Dinge den beteiligten Parteien erklären; das sind keine Idioten, und sie verstehen, wie die Dinge in ihren kleinen engen Welten laufen.

Und schließlich müssen wir einen viel feineren Sinn dafür entwickeln, über was zu reden ein Wissenschaftler qualifiziert ist und über was zu reden ihm nicht zusteht. Klimatologen zum Beispiel sind qualifiziert, über die Wissenschaft der Klimatologie zu sprechen (wenngleich das auch Gegen­stand aller Eingriffe in die reine Wissenschaft ist, die ich schon erwähnt habe). Sie sind allerdings nicht qualifiziert zu sagen, dass „wir jetzt handeln müssen“ mittels aufgezwungenen „Lösungen“ irgendeiner Art seitens der Regierung. Sie haben kein professionelles Hintergrundwissen darüber, welches Risiko besser oder schlechter ist für die Menschen, die es auf sich nehmen; nur die Individuen, die diesem Risiko ausgesetzt sind, können das entscheiden, weil es eine Sache der persönlichen Vorliebe ist und nicht eine Sache der Wissenschaft. Klimatologen wissen nichts hinsichtlich Kosten-/Nutzen-Überlegungen; tatsächlich sind die meisten Mainstream-Ökonomen selbst in dieser Hinsicht fundamental fehlgeleitet (zum Beispiel wenn sie Prozeduren und Hypothesen über die Summe individueller Bewertungen übernehmen, denen jede wissenschaftliche Grundlage fehlt). Klimawissenschaftler sind am besten qualifiziert, über die Klimawissenschaft zu reden, aber sie haben keinerlei Qualifikation, über öffentliche Politik zu reden, über Gesetze, individuelle Werte, Zeiteinteilungen und den Grad der Risikovermeidung. Wenn sie über wünschenswerte Maßnahmen der Regierung reden, erwecken sie den Eindruck, dass sie entweder Narren oder Scharlatane sind, aber sie reden immer weiter – und am schlimmsten ist, wenn sie mit untergangslüsternen Journalisten reden – nichtsdestotrotz.

In diesem Zusammenhang sollten wir uns gut daran erinnern, dass die UN (nebst seinen Komitees und Büros) keine wissenschaftlichere Organisation ist als der US-Kongress (nebst seinen Komitees und Büros). Wenn von diesen politischen Organisationen Entscheidungen und Ankündigungen kommen, ist es sinnvoll, diese als im Wesentlichen politisch hinsichtlich Ursprung und Ziel anzusehen. Politiker sind auch nicht dumm – bösartig, ja, aber nicht dumm. Eine Sache, die ihnen mehr als alles andere klar ist, wie man Menschenmassen dazu bringen kann, schlecht gemachten politischen Maßnahmen hinterher zu laufen, auch wenn diese langfristig ernsthaft sowohl den Lebensstandard als auch ihre Freiheiten bedrohen.

Robert Higgs

Eine ausführliche Biographie des Autors nebst seiner jüngsten Schriften gibt es hier.

Link: http://www.independent.org/newsroom/article.asp?id=1963

Übersetzt von Chris Frey EIKE




Der Marcott-Shakun-Umdatierungs-Service

Bild rechts: Rekonstruktionen aus Alkenone-Proxies nach Art von Marcott. Veröffentlichte Daten in rot, Marcott-Shakun-Daten in schwarz

Marcott et al. haben eine Alkenone-Rekonstruktion archiviert. Es gibt Diskrepanzen zwischen der Nachbildung rechts und der archivierten Rekonstruktion, ein Thema, zu dem ich bei anderer Gelegenheit etwas sagen werde. (Ich habe unablässig versucht, die Daten anzugleichen, war aber bisher absolut nicht in der Lage dazu – vielleicht aufgrund einiger Missverständnisse meinerseits hinsichtlich der Marcott-Methodik, einigen Inkonsistenzen zwischen den Daten, wie sie verwendet worden sind und den archivierten Daten oder irgendetwas anderes). Allerdings glaube ich nicht, dass dies eine Rolle spielt für meine Absichten, meine Nachbildungs-Methodik zu nutzen, um die Auswirkungen der Umdatierung von Marcott-Shakun zu illustrieren.

Umdatierung aus Alkenonen in Bohrkernen

Die folgende Tabelle summiert die Marcott-Shakun-Umdatierungen aller Alkenone-Kerne mit entweder veröffentlichten Enddaten oder Marcott-Enddaten weniger als 50 BP (AD 1900). Ich habe auch die Schlusstemperatur jeder Reihe gezeigt nach den zwei Marcott-Umdatierungs-Schritten (so wie ich sie verstehe).

Das Enddatum der Marcott-Rekonstruktion ist das Jahr 1940 (10 BP). Nur drei Kerne trugen zum Endwert der Rekonstruktion mit den veröffentlichten Daten bei: der MD01-2421 splice, OCE326-GGC30 und M35004-4. Zwei dieser Kerne haben stark negative Werte. Marcott et al. haben diese beiden Bohrkerne umdatiert, so dass keiner davon zum Schlusszeitraum beitrug: der MD01-2421-Splice zum Bruchteil eines Jahres vor 1940, was kaum gerechtfertigt ist; OCE326-GGC30 wurde auf 191 Jahre zuvor umdatiert – in das 18. Jahrhundert hinein.

5 Kerne mit veröffentlichten Endwerten wurden früher als AD 10 neu beschrieben, in einigen Fällen sehr viel früher. Der Endwert von MD95-2043 beispielsweise sollte das 10. Jahrhundert zeigen, wurde aber von Marcott mehr als 1000 Jahre später umdatiert zu „0 BP“. MD95-2011 und MD-2015 wurden um 510 bzw. 690 Jahre umdatiert. Alle fünf umdatierten Kerne, die zu der AD 1940-Rekonstruktion beitrugen, hatten positive Werte.

In einem Folgebeitrag werde ich die Gültigkeit der Marcott-Shakun-Umdatierung untersuchen. Falls die einschlägigen Spezialisten das beachtet oder zu Rate gezogen worden wären, dann – da bin ich mir sicher – hätten sie das angefochten.

Jean S hat beobachtet, dass die Marcott-These schon eine Umdatierung der Kerne mittels CALIB 6.0.1 wie folgt beschrieben hat:

Alle radiokarbon-basierten Zeiten wurden mit CALIB 6.0.1 rekalibriert unter Verwendung von INTCAL09 und deren Aufzeichnung (Reimer 2009) für die speziellen Örtlichkeiten und Materialien an der Bohrstelle. Zeitalter aus maritimen Reservoiren wurden aus dem ursprünglich veröffentlichten Manuskript entnommen.

Im SI [Source Index, die Ursprungsquelle?] für Marcott et al. findet sich ein im Wesentlichen identisches Statement (pdf, 8):

Die Mehrheit unserer Alters-Kontrollpunkte basiert auf Radiokarbon-Daten. Um die Aufzeichnungen auf geeignete Weise zu vergleichen, haben wir alle Radiokarbon-Daten mit CALIB 6.0.1 rekalibriert unter Verwendung von INTCAL09 und dessen Aufzeichnung (1) für die speziellen Örtlichkeiten und Materialien an der Bohrstelle. Jedwede in den Ozean-Datensätzen verwendete Zeitalter aus den Reservoiren folgten den ursprünglich vom Autor angegebenen Werten und wurden konstant gehalten, es sei denn, es wurde in der Original-Veröffentlichung anders gekennzeichnet.

Allerdings ist die oben beschriebene Umdatierung eine FOLGE der Marcott-These. (Das habe ich bestätigt, indem ich Plots individueller Proxies auf den Seiten 200 und 201 der These untersucht habe). Die in der These gezeigten Enddaten korrespondieren mehr oder weniger mit den veröffentlichten Enddaten und spiegeln nicht die gesamte Umdatierung des Science-Artikels.

Es war mir nicht möglich, irgendeinen Bezug zur Gesamt-Umdatierung im Text von Marcott et al. zu finden. Noch am dichtesten dran war das folgende Statement im SI:

Es wird angenommen, dass die Endpunkte der Kerne 1950 AD sind, es sei denn, es wurde auf Andere in der ursprünglichen Veröffentlichung hingewiesen.

Allerdings ist wohl mehr als das im Gange. In einigen Fällen haben Marcott et al. Bohrkernspitzen umdatiert, die in der Original-Publikation als 0 BP gekennzeichnet waren. (Vielleicht sogar gerechtfertigt, aber das wird nicht gesagt). In anderen Fällen wurden Kernendpunkte als 0 BP definiert, selbst wenn unterschiedliche Datensätze in der Original-Publikation angesprochen worden waren. In einem anderen wichtigen Fall (nämlich YAD061-Signifikanz, siehe später) haben Marcott et al. einen wesentlichen Widerspruch in der Original-Veröffentlichung ignoriert.

Die Untersuchung der Umdatierung individueller Bohrkerne wird eine interessante Perspektive der Bohrkerne selbst zeigen – eine Sache, die meiner Ansicht nach von den Autoren mit technischen Termen hätte beschrieben werden sollen. Mehr hierzu in einem späteren Beitrag.

Die Moral des heutigen Beitrags über die Ozean-Bohrkerne? Sind Sie ein Bohrkern der es satt hat, zur gegenwärtigen Zeit zu leben? Fühlen Sie sich zum gegenwärtigen Zeitpunkt zu alt? Versuchen Sie den Umdatierungs-Service von Marcott-Shakun. Ashley Madison für Ozean-Bohrkerne. Zufriedenheit ist garantiert.

Link: http://climateaudit.org/2013/03/16/the-marcott-shakun-dating-service/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Die Inhalte vor allem im mittleren Teil dieses Beitrags habe ich nicht verstanden. Der geneigte Fachleser wird hoffentlich trotzdem der Übersetzung entnehmen können, was gemeint ist.

C. F.




Die kalte harte Wirklichkeit über Solarenergie

Vor etwa einem Jahr habe ich zu dem deutschen Trieb [drive] Stellung genommen, die Kernenergie durch Solar- und Windenergie zu ersetzen. Zu jener Zeit hat Berlin diese Ouvertüre als „den nächsten großen Sprung“ in ein neues Energiezeitalter propagiert.

Wie sich herausstellt, verlief das nicht so wie geplant.

In diesem Winter gab es ein gutes Beispiel für das, was alles schief gehen kann. Die Sonnenenergie erlitt einen massiven Rückschlag, als sich alle Paneele zur gleichen Zeit abgeschaltet haben. Dies erfordert einen massiven Ausgleich durch andere Energiequellen.

Trotz der erklärten Entscheidung, die Kernkraft aufzugeben, muss Deutschland jetzt durch Kernkraft erzeugten Strom aus den Nachbarländern importieren und auf Kohle ausweichen, trotz einer früheren gegenteiligen Marschrichtung angesichts der höchsten Energiepreise in Europa. Die Regierung nimmt sogar für tabu erklärte Schweröl-Generatoren in Betrieb, um die Stromlücke zu füllen.

Eine gegen das Fracking gerichtete Bewegung hat die Erschließung heimischer unkonventionellen Gases verhindert, was das Land zusätzlich von Importen abhängig macht, hauptsächlich aus Russland. Was als gewagtes Experiment zur Erschließung neuer Energiequellen begonnen hatte, wird jetzt zu einer sich weiter entwickelnden Kostenkrise.

Die Kosten des deutschen  Energiebedarfs haben angefangen, die ökonomische Entwicklung abzuwürgen. Das wird wahrscheinlich im weiteren Verlauf zu einem immer drängenderen Problem. Die Solarenergie in Deutschland war der Empfänger massiver Subventionen einschließlich etwas, das im amerikanischen Markt als „erneuerbare Energie Portfolio Standards“ bekannt ist.

Diese „Standards” erfordern von Versorgern und Verteilern, einen gewissen Prozentsatz ihrer Energie von immer mehr teuren erneuerbaren Energiequellen zu kaufen. Diese Kosten werden dann auf die ohnehin schon bedrängten Verbraucher umgelegt.

Aktuellen Projektionen zufolge werden die Preise in der Folge der Kernkraft-Abschaltungen bis zu 60% steigen.

Und die Probleme für die Endverbraucher und die erneuerbaren Energiequellen verschlimmern sich weiter.

Ein Rekordmonat

Im Dezember gab es die höchste Anzahl neu an das Netz geschalteter Solarsysteme denn je. Die Subventionen für die Übernahme von Erneuerbaren liefen Ende des Jahres aus, und von zusätzlichen Aggregaten wird eine neue Runde der Unterstützung seitens der Regierung erwartet.

Aber diejenigen, die es über das Ultimatum schaffen, sind während der nächsten 20 Jahre auf weitere Subventionen angewiesen.

Dies stellt sicher, dass fortgesetzt das Einkommen der Steuerzahler weggefressen wird, und zwar für etwas, das eine immer teurere Methode zur Stromerzeugung ist.

Unglücklicherweise hören die Kostensteigerungen an diesem Punkt nicht auf.

Die sog. „EEG-Umlage”, den Stromrechnungen im ganzen Land hinzugefügt, wird steigen … wieder einmal.

Im Klartext bedeutet das, dass für jeden Haushalt im Mittel zu den ohnehin schon immer teureren Stromrechnungen zusätzliche Kosten in Höhe von 200 Euro anfallen.

Dies führte dazu, dass eine führende deutsche Denkfabrik die Promotion der Sonnenenergie „den teuersten Fehler der deutschen Umweltpolitik“ nannte.

Es wird erwartet, dass erneutes Gewicht auf andere erneuerbare Energiequellen gelegt wird wie Windenergie oder Biomasse. Aber es gibt keinen Weg an der Tatsache vorbei, dass erneuerbare Energie von welcher Art auch immer nicht ohne signifikante Subventionen und steigende Kosten für die Verbraucher auskommen.

Letztlich wird es einen dauerhaften Platz für Sonne, Wind und andere Erneuerbare im sich entwickelnden Energiemix geben. Trotz der Perspektiven, die sich aus der Entwicklung unkonventionellem Gas und Öl ergeben, wird sich die Stellung nachhaltiger nicht-fossiler Alternativen mit der Zeit festigen.

Unglücklicherweise ist auch die Zeit ein Problem.

Versuche massiver Wechsel in naher Zukunft werden durch Grenzen der Technik und hohe Preise behindert. Solange sich kein echter Startpunkt für einen wirklichen Markt sowohl hinsichtlich Verbrauchs als auch Erzeugung entwickelt, wird diese Art Energie wahrscheinlich ein kleiner Anteil bleiben, abhängig von Programmen zur Unterstützung aus dem öffentlichen Bereich. Reine Marktkräfte sprechen gegen die Verwendung von Sonnenenergie sowohl hinsichtlich Zuverlässigkeit als auch der Kosten.

Ein Investor sollte dies im Gedächtnis behalten, wenn er die gegenwärtige Lage hinsichtlich von Aktien der Solar- und Windbranche begutachtet.

Solaraktien verharren auf signifikant niedrigem Niveau

Während primäre Anleihen [exchange traded Funds ETFs] sowohl bei Solar- als auch bei Windaktien einmal zulegen konnten, sollte man besonders vorsichtig sein hinsichtlich der Nachhaltigkeit dieser Bewegungen.

First Trust Global Wind Energy (NYSEArca: FAN) ist im Monat um 2% gestiegen, aber während der letzten 13 Monate um 6,6% gefallen. Gleichzeitig sind die beiden zahlungsfähigsten Solar-ETFs – American Vector Solar Energy (NYSEArca: KWT) und Guggenheim Solar (NYSEArca: TAN) – im Monat gestiegen, und zwar um 4,6% bzw. 3,2%.

Aber nach der Begutachtung ihres Verhaltens seit Dezember 2011, haben sie signifikant verloren, und zwar um 33,1% (KWT) bzw. 40% (TAN).

Die gleichen Probleme treten zutage, wenn man individuelle Unternehmen näher betrachtet. Der Solarsektor wird immer mehr von den Chinesen kontrolliert. Dort haben sich sowohl die Entwicklung neuer Methoden als auch der Bau neuer Netzwerke in einem neuen Zentrum der Solarindustrie konzentriert. Aber auch dort, bei der chinesischen LDK Solar (NYSE: LDK), zeigt sich das Bild: Im letzten Monat ist die Aktie um 1,9% gestiegen, seit dem 1. Dezember 2011 aber um ganze 77,6% abgestürzt.

Die sichtbarste amerikanische Firma First Solar (NasdaqGS: FSLR) hat 13,5% für diesen Monat nachgegeben und um 55% während der letzten 13 Monate. Und die amerikanischen Depository Receipts (ADRs) [?] des dominanten Windkraftunternehmens – der in Dänemark ansässigen Firma Vestas Wind Systems (OTC: VWDRY) könnten in diesem Monat 7,3% zulegen, haben aber im gleichen 13-Monate-Zeitraum um 63,6% nachgegeben.

Nichts davon sollte uns aber zu der Schlussfolgerung verleiten, dass die Erneuerbaren ein Auslaufmodell sind.

Das sind sie nicht einmal ansatzweise.

Aber es zeigt, dass die Aussichten für diese Alternativen weiterhin von Zyklen regierungsamtlicher Unterstützung, entweder in Gestalt direkter Subventionen oder indirekter Anreize (wie Portfolio Standards) abhängig sind.

Und das ist keine geeignete Basis für Investitionen.

Für jetzt sollte man diese Realitäten für das Umfeld von Investitionen in Erneuerbare nicht aus den Augen verlieren.

Dr. Kent Moors, Global Energy Strategist, Money Morning

Link: http://moneymorning.com/2013/03/14/heres-the-cold-hard-truth-about-solar-energy/

Übersetzt von Chris Frey EIKE




Umfrage bestätigt: 72 % der Journalisten sind links oder grün

Mit Dank an Prof. Alt, der diese Daten übermittelt hat.

In einem soeben erschienenem Beitrag von Thomas Wolf in Focus Money wird dies auch für unsere Tage nochmals bestätigt.

Unter dem treffenden Titel

Political Correctness KLAPPE ZU!

schreibt er u.a. 

Journalisten selbst sehen sich gern in einer Wächterrolle, die sie unabhängig, objektiv und nur der Wahrheit verpflichtet ausfüllen. Bei näherem Hinsehen bekommt das hehre Bild freilich Kratzer. So förderte eine repräsentative Befragung von Journalisten nach ihren politischen Vorlieben Eindeutiges zu Tage: Rund 35 Prozent der Medienmacher sympathisieren mit den Grünen, 25 Prozent favorisieren die SPD. Der Union sahen sich dagegen gerade mal 7,6 Prozent verbunden. Nun haben sicher auch Journalisten das Recht auf eine eigene Meinung. Aber es wäre naiv zu glauben, dass sich ihre Vorlieben und Abneigungen nicht in der täglichen Arbeit spiegeln und auswirken würden.

Laut dem Medienwissenschaftler Hans Martin Kepplinger billigen denn auch fast die Hälfte aller Journalisten das „bewusste Hochspielen von Informationen, die ihre eigene Sichtweise stützen“. Beispiel Fukushima: Nach der Katastrophe fehlte es nicht an Darstellungen der Gefährlichkeit von Reaktorunfällen, in Sondersendungen warnten mehr oder weniger seriöse Experten vor den Folgen radioaktiver Strahlung. Dass Erdbeben und Tsunamis, die in Japan erst das Atomdesaster ausgelöst hatten, hierzulande eher selten vorkommen, wurde dagegen nicht erwähnt. Kepplinger: „Dadurch erschien Fukushima nicht als Folge regionaler Besonderheiten, sondern als Beleg für das generelle Risiko der Kernenergie.“ Was nicht in ihr Weltbild passe, werde von Journalisten dagegen gern heruntergespielt. So sei etwa die Schadstoffbelastung von Bio-Eiern schnell aus den Medien verschwunden, und auch die Gefahr durch Solaranlagen bei Bränden werde kaum thematisiert…

Auch die Analyse der Berichte des Spiegels ist interessant_

Bereits 1954 entdeckte der „Spiegel“ die Klimaerwärmung. „Nach einer Island-Reise berichtete Dr. Rodewald, dass durch die klimatischen Änderungen Flächen frei geworden sind, die 600 Jahre lang unter Gletscher-Eis begraben lagen …“, heißt es im sozialkritischen Nachrichtenmagazin. Die Ursache war schnell gefunden: Atombombenversuche! In den nächsten 20 Jahren blieb allerdings die globale Durchschnittstemperatur konstant. Der „Spiegel“ musste umdenken und suchte ein neues Schreckensszenario…..

Es lohnt sich den ganzen Artikel zu lesen




Stichhaltigkeit von Marcott et al., Teil II

Im 1. Teil dieser Reihe wurde die Stichhaltigkeit der Schlussfolgerungen hinsichtlich der Zeitspanne von 11300 Jahren beleuchtet. In diesem Segment (2. Teil) werden Schlussfolgerungen in der Studie von Marcott et al. analysiert, in der sie den Standpunkt verfechten, dass „die globalen Temperaturen wärmer als zu irgendeiner Zeit während der letzten 4000 Jahre sind“ und „Die globale Temperatur … ist vom nahezu kältesten auf das wärmste Niveau des Holozäns innerhalb des vergangenen Jahrhunderts gestiegen. Eine Wärmespitze wie diese hat es noch nie zuvor gegeben, zumindest nicht während der letzten 11300 Jahre“.

Wie im 1. Teil werden auch hier die Schlussfolgerungen von Marcott et al. analysiert mittels der wissenschaftlichen Methode von Feynman, der zufolge Schlussfolgerungen mit weithin anerkannten Daten aus anderen Quellen verglichen werden. Wie Feynman erklärt: Wenn eine Hypothese (Schlussfolgerung) nicht mit Beobachtungen und Daten übereinstimmt, ist sie falsch. Dabei macht es keinen Unterschied, wie schön die Hypothese (Schlussfolgerung) ist, wie smart der Autor ist, oder wie er heißt – falls sie mit Daten oder Beobachtungen nicht übereinstimmt, ist sie falsch.

Also wollen wir einmal die Schlussfolgerungen von Marcott et al. mit vielen der besten Datensätze vergleichen.

Hierzu verwenden wir (1) die Sauerstoff-Isotopen-Daten von Stuiver und Grottes aus dem GISP2 (1997), (2) die Paläotemperatur-Daten aus GISP2 von Cuffy und Clow (1997) sowie Alley (2000) und (3) Temperatur-Rekonstruktionen aus chinesischen Baumringen. Unter den vielen Datensätzen, die man verwenden könnte wurden die GISP2-Daten aus dem Eisbohrkern gewählt, weil (1) die Eisdaten auf tausenden Isotopen-Messungen  basieren, die quantitativ die Paläo-Temperaturen reflektieren, (2) weil die Chronologie bis auf 1 bis 3 Jahre genau ist, (3) weil selbst kleine Fluktuationen der Paläo-Temperaturen klar und eindeutig mit globalen Gletschervorstößen und –rückzügen korrelieren, was bestätigt, dass die Daten aus dem Eisbohrkern die globalen Temperaturen nachzeichnen und (4) weil die in Grönland gemessenen Temperaturen während des vorigen Jahrhunderts fast exakt zu den globalen Temperaturtrends passen. Folglich lassen die GISP2-Eisbohrkern-Daten einen exzellenten Check der Schlussfolgerungen über das globale Klima zu – und zwar quantitativ, chronologisch genau und repräsentativ für das globale Klima. Man sollte allerdings nicht vergessen, dass die Amplitude von Temperaturfluktuationen allgemein mit der Breite zunimmt, d. h. je höher die Breite, umso größer die Fluktuationen. Die Temperaturvariationen in Grönland werden also wahrscheinlich größer sein als im globalen Mittel. Es bedeutet auch, dass wir besser Details der Temperaturänderungen in den Daten aus Grönland als im globalen Mittel erkennen können.

Abbildung 1 zeigt einen Vergleich der Temperaturkurve von Marcott et al. der letzten 4000 Jahre (1A), die Temperaturkurve aus GISP2 von Alley (2000), basierend auf den Daten von Cuffy und Clow (1997)(1B), den GISP2 aus Grönland mit Δ18O (das Verhältnis von O18 zu O16 relativ zu einem Standard) aus Isotopendaten gemessen von Stuiver und Grootes (1997)(1C) und eine Temperatur-Rekonstruktion basierend auf chinesischen Baumringen (1D) (hier gezeigt als ein Beispiel für die gute Korrelation der GISP2-Daten mit weit von Grönland entfernten Orten).

Viele Dinge in den Grönland-Daten sind des Erwähnens wert. Es gibt zwei Arten von Temperaturdaten: (1) Abbildung 1B, die die Temperaturen aus Bohrloch-Messungen zeigt, und (2) Abbildung 1C, die die Variationen im Verhältnis der Sauerstoffisotope zueinander zeigt. Die Bedeutung hiervon liegt darin, dass Temperaturvariationen in beiden Kurven im Grundsatz gleich sind und sich gegenseitig bestätigen. Die Kleine Eiszeit, die Mittelalterliche Warmzeit, die Kaltzeit der Dark Ages, die römische Warmzeit sowie andere Temperaturspitzen kommen in beiden Arten von Kurve gleich gut zum Ausdruck.

Abbildung 1: Vergleich der Temperaturkurve von Marcott et al. (A), die GISP2-Temperaturkurve aus Grönland von Alley (2000) basierend auf den Daten von Cuffy und Clow (1997)(B), Das Verhältnis von Sauerstoffisotopen (delta 18O) aus Eiskerndaten gemessen von Stuiver und Grootes (1997)(C) sowie Temperatur-Rekonstruktionen aus chinesischen Baumringdaten (D) (Liu et al. 2011).

Die Kurve von Marcott et al. zeigt eine fast vertikale Linie der jüngsten Erwärmung, von der sie behaupten, dass sie die Temperatur höher als zu jeder anderen zeit während der letzten 4000 Jahre legt. Dieser fast vertikale Teil ihrer Kurve stammt offensichtlich nicht aus ihren Proxy-Daten, sondern anderswo her und spielt eine zentrale Rolle in ihrer Behauptung, dass die gegenwärtigen Temperaturen und die Erwärmungsrate ‚während der letzten 4000 Jahre ohne Beispiel’ sind. Wir wollen beide Behauptungen mit den Eisbohrkern- und globalen Gletscherdaten vergleichen.

Sowohl die GISP2-Temperaturkurve (Abbildung 1B) als auch der Verlauf der Sauerstoff-Isotope (Abbildung 1C) zeigt klar: Außer während der Kleinen Eiszeit und der Kaltzeit der Dark Ages lagen die Temperaturen der letzten 4000 Jahre durchweg höher als zum Ende des Eisbohrkerns (im Jahr 1950). Die Mittelalterliche Warmzeit zeigt sich um 1,1°C wärmer als die Spitze des Bohrkerns (1950) und als mindestens vier weitere Warmperioden mit gleicher Amplitude, die es während der letzten 4000 Jahre gegeben hat; in vier anderen Perioden war es etwa 1,3°C wärmer; zwei andere Warmzeiten waren 1,8 bis 2,0°C wärmer ausgefallen, und während einer Warmzeit war es um 2,8°C wärmer. In mindestens einem Dutzend Zeitperioden war es mehr als 1°C wärmer als 1950, was ganz klar den Schlussfolgerungen von Marcott et al. widerspricht.

Abbildung 2: Wärmere Temperaturspitzen als 1950 während der letzten 4000 Jahre.

GISP2 endet im Jahr 1950, so dass wir auf Temperaturen in jüngerer Zeit aus Grönland schauen müssen, um zur ‚gegenwärtigen Temperatur’ zu kommen, d. h. ist die Temperatur in Grönland seit 1950 gestiegen? Abbildung 2 zeigt die Temperaturen in Grönland von 1880 bis 2004 (Chylek et al. 2004, 2006). Die Temperaturen lagen im Jahr 2004 etwas unter denen aus dem Jahr 1950, so dass sich folglich die Temperaturen am Ende des grönländischen Eiskerns nicht wesentlich von denen ‚der Gegenwart’ unterscheiden.

Abbildung 3: Temperaturen in Grönland von 1880 bis 2004 (Chylek et al. 2004, 2006).

Die Schlussfolgerung von Marcott et al., dass die „globalen Temperaturen derzeit höher liegen als zu irgendeiner Zeit seit mindestens 4000 Jahren“ steht in klarem Widerspruch zu den gemessenen Daten und scheitert folglich am Feynman-Test, d. h. sie ist falsch.

Marcott et al. behaupten, dass „die globale Temperatur … vom nahezu kältesten auf das wärmste Niveau des Holozäns innerhalb des vergangenen Jahrhunderts gestiegen ist. Eine Wärmespitze wie diese hat es noch nie zuvor gegeben, zumindest nicht während der letzten 11300 Jahre. Falls es in dieser Zeit irgendwann Temperaturen ähnlich wie heute gegeben hätte, hätten wir das mit Sicherheit in unseren Aufzeichnungen gefunden“. Wir wollen diese Schlussfolgerung anhand realer Daten testen. Schon ihre Behauptung, dass „die globale Temperatur … vom nahezu kältesten auf das wärmste Niveau des Holozäns innerhalb des vergangenen Jahrhunderts gestiegen ist“, ist falsch. Die kälteste Periode der Kleinen Eiszeit ereignete sich vor etwa 400 Jahren während des Maunder-Minimums, so dass allein dadurch diese Behauptung schon widerlegt ist. Sie scheinen sich der zyklischen Natur von Temperaturänderungen überhaupt nicht bewusst zu sein und nutzen den Tiefpunkt der Kaltzeit von 1880 bis 1915 als Startpunkt zur Berechnung der Erwärmungsrate während des ‚vergangenen Jahrhunderts’, anstatt dafür den Zeitraum 1913 bis 2003 in Betracht zu ziehen. Der Vergleich zwischen dem Kälte-Tiefpunkt während einer Kaltzeit und der Wärmespitze in einer Warmzeit ist wie der Vergleich zwischen Äpfeln und Orangen. Er verzerrt die wirkliche Rate, die man durch Vergleiche von Tiefpunkt zu Tiefpunkt oder von Wärmespitze zu Wärmespitze bestimmen sollte. Der Kaltzeit von 1880 bis 1915 folgte die Warmzeit von 1915 bis 1945. Dann kam die Kaltzeit von 1945 bis 1977, gefolgt von der Warmzeit von 1978 bis 1998 (Abbildung 4). Die Erwärmungsrate von 1913 bis 2013 beträgt etwa 0,7°C pro Jahrhundert (welches ungefähr der gleiche Wert ist wie die Erwärmungsrate der letzten 400 Jahre, als wir aus der Kleinen Eiszeit kamen, lange bevor das atmosphärische CO2 signifikant zuzunehmen begann).

Abbildung 4: Globale Temperatur im vergangenen Jahrhundert.

Nun wollen wir diese Rate (0,7°C pro Jahrhundert) mit Raten der Temperaturzunahme der letzten 11300 Jahre vergleichen. Abbildung 5 zeigt Raten der Temperaturänderung aus dem GSP2-Eisbohrkern aus Grönland seit dem Ende der letzten Eiszeit während des Holozäns (Abbildung 5A). Abbildung 5B zeigt einige der höheren Raten der Temperaturänderung aus Abbildung 5A. Die höchsten Raten gab es beim Übergang von der Eiszeit zum Holozän, betrugen doch die Erwärmungsraten damals in Grönland 20 bis 24°F [10 bis 12 K] pro Jahrhundert, und riesige kontinentale Eisschilde, die weite Gebiete in Nordeuropa und Eurasien überdeckten, schmolzen dramatisch. Wie in Abbildung 5B gezeigt, nimmt sich die Rate des vergangenen Jahrhunderts (0,7°C) wirklich mickrig aus im Vergleich zu den Raten während jenes Übergangs.

Abbildung 5: A: Temperaturänderungen im GISP2-Eisbohrkern vom Ende der letzten Eiszeit während des Holozäns. (Easterbrook 2011, modifiziert aus Cuffy und Clow 1997). B: Raten von Temperaturänderungen (Easterbrook 2011).

Die Raten von Erwärmung und Abkühlung waren nicht so ausgeprägt wie jene am Ende der letzten Eiszeit, waren aber nichtsdestotrotz größer oder gleich gegenwärtigen Erwärmungsraten. Marcott et al. behaupten, „wenn es irgendeine Zeitspanne mit einer Temperaturänderung ähnlich der heutigen gegeben hätte, hätten wir das mit Sicherheit aus unseren Aufzeichnungen ablesen können“. Wie Abbildung 5A zeigt, haben wir tatsächlich eine Aufzeichnung von Erwärmungsraten, die weit über die des vergangenen Jahrhunderts hinausgehen.

Die Schlussfolgerung von Marcott et al., dass die „globale Temperatur … vom nahezu kältesten auf das wärmste Niveau des Holozäns innerhalb des vergangenen Jahrhunderts gestiegen ist. Eine Wärmespitze wie diese hat es noch nie zuvor gegeben, zumindest nicht während der letzten 11300 Jahre“ klar im Widerspruch zu gemessenen wirklichen Daten steht und daher den Feynman-Test nicht besteht, d. h. ihre Schlussfolgerung ist falsch.

Es gibt noch weitere Behauptungen in der Studie von Marcott et al.: Während der nächsten Jahrzehnte werden wir wahrscheinlich Niveaus erreichen, die es auf dem Planeten seit vor der letzten Eiszeit nicht gegeben hat“. „Temperatur-Rekonstruktionen der letzten 1500 Jahre zeigen, dass die jüngste Erwärmung in dieser zeit beispiellos ist“. „Unsere globale Temperatur-Rekonstruktion der letzten 1500 Jahre ist nicht unterscheidbar innerhalb der Unsicherheit von der Rekonstruktion nach Mann et al.“ Diese Behauptungen werden wir in Teil III analysieren.

Link: http://wattsupwiththat.com/2013/03/13/validity-of-marcott-et-al-part-ii/

Übersetzt von Chris Frey EIKE




Die Sintflut diesmal aus Öl und Gas

Bild rechts: CHRISTOPH MORLINGHAUS

Auf der Wasseroberfläche des gemächlich dahin fließenden Kern River, wenig nördlich der Stadt Bakersfield, sind James Elwood schon 1899 Ölflecken aufgefallen. Der Staat befand sich damals mitten in einem Ölboom, und Elwood wollte daran teilhaben. Er aktivierte ein paar Bekannte, besorgte sich ein paar Hacken und Schaufeln, wählte einen sonnengetrockneten Flecken Erde neben den Sickerstellen am Fluss und begann zu graben.

Nach Erreichen von etwa 12 m Tiefe benutzten sie einen  Bohrer und kamen einige weitere Dutzend Fuß [ca. 10 m?] hinab. In den Poren des Gesteins Jahrmillionen lang eingeschlossenes Öl begann, in das Bohrloch zu sickern.

Das Ereignis eroberte die Titelseite der Lokalzeitung und brachte andere Prospektoren dazu, zum Kern River zu eilen. Innerhalb eines Jahres wurden 130 Bohrlöcher niedergebracht. Die Bohrer pumpten den schwarzen Dreck an die Oberfläche, wo es barrelweise mit Mauleselskarren abtransportiert wurde. Bis zum Jahr 1904 flossen mehr als 47000 Barrel pro Tag, was fast die gesamte Produktion des Staates Texas ausmachte.

Öl vom Kern River ist besonders dick und zähflüssig mit einer Viskose wie Molasse. Es fließt also nicht einfach. Analysten jener Zeit sagten voraus, dass man wegen dieser Schwierigkeiten bei der Förderung nicht mehr als 10% des gesamten Vorrats fördern könne. Anfang der vierziger Jahre hatten Ölmänner 278 Millionen Barrel aus dem Feld geholt, aber die Produktion war stark rückläufig; das meiste des leicht zugänglichen Öls war weg. Das Kern River-Feld schien dicht davor, effektiv ausgebeutet zu sein.

 

Abbildung: Pferdekopfpumpen [?] im Kern River-Ölfeld, aus dem fossile Treibstoffe seit über einem Jahrhundert extrahiert werden. (PHOTO: CHRISTOPH MORLINGHAUS)

In den fünfziger Jahren jedoch haben viele der dort aktiven Ölgesellschaften neue Methoden ausprobiert. Sie begannen, „Bottom-Hole-Heaters“ in die Bohrlöcher hinab zu lassen. Mit ihnen kann man mittels heißem Wasser oder Strom das Öl erwärmen, so dass es leichter fließt. Einige Jahre später haben Ingenieure entdeckt, wie man Dampf in den Untergrund bringen kann. Die Ergebnisse waren spektakulär. Innerhalb weniger Jahre produzierte das Kern River-Feld mehr Öl als jemals zuvor. Bis zum Jahr 2007 wuchs es auf einen Vorrat von etwa 2 Milliarden Barrel, was es zu einem der größten Ölfelder in der amerikanischen Geschichte machte.

Die Geschichte von Kern River spiegelt unsere gesamte Erfahrung bei der Geschichte mit dem Öl: Jedes Mal, wenn wir denken, dass es ausgebeutet sei, kommen neue Technologien auf, die uns immer mehr finden lassen. Die weit um sich greifende Furcht von vor einigen Jahren, dass wir uns „Peak Oil“ nähern, hat sich als vollkommen falsch herausgestellt. Von der Arktis bis nach Afrika haben nanotechnologisch aufbereitete Materialien, Unterwasserroboter, 3-D-Sonargeräte, speziell aufbereitete Schmiermittel und Myriaden anderer Fortschritte titanisch große neue Vorräte fossiler Treibstoffe erschlossen, viele davon an unerwarteten Stellen – Brasilien, Australien und – vielleicht am wichtigsten – Nordamerika. „Im Gegensatz zu dem, was die meisten Menschen glauben“, heißt es in einer vor Kurzem erschienenen Studie von der Harvard Kennedy School, „wächst die Kapazität der Vorräte auf so unerwartete Weise, dass es den Verbrauch überflügeln könnte“.

Seit Jahrhunderten bestimmte die sich stets neu zeichnende Landkarte der Gebiete, aus denen die Energie stammt, vieles von dem Charakter unserer Welt. Als die Menschen Walöl für die Beleuchtung ihrer Wohnungen verbrannten, wurde Nantucket zum blühenden Handelszentrum. Kohle sorgte für den Aufstieg von Orten wie Newcastle upon Tyne in UK und Centralia in Pennsylvania – und sorgte für die industrielle und geographische Expansion der USA. Öl half, die Staaten Texas und Kalifornien zu bilden. Seitdem haben fossile Treibstoffe die Entwicklung der Länder auf der ganzen Welt verändert, vor allem im Nahen Osten.

Derzeit wird die Karte, wer Öl und Erdgas verkauft und wer es kauft, radikal umgezeichnet. Noch vor wenigen Jahren machte importiertes Öl fast zwei Drittel des nationalen Verbrauchs in den USA aus; jetzt ist es weniger als die Hälfte. Man erwartet, dass die USA innerhalb einer Dekade Saudi-Arabien und Russland überholen und ihren Titel als der Welt größter Energieerzeuger zurück gewinnen. Länder, die nie über eine erwähnenswerte Energieindustrie verfügt hatten, stehen an der Schwelle, wesentliche Mitspieler zu werden, während etablierte Riesen fossiler Treibstoffe ihre Dominanz in Gefahr sehen. Wir werden Zeuge einer Verschiebung, die wesentliche neue Möglichkeiten – und Gefahren – für individuelle Nationen, die internationale Politik und Wirtschaft sowie den Planeten bereit hält.

Öl ist vielleicht das einzige Produkt, das auf die eine oder andere Weise von nahezu jedermann auf der Welt verwendet wird. Wir sind von ihm weit über unseren Benzinbedarf hinaus abhängig. Öl und Erdgas sind die Rohstoffe für Asphalt, Plastik sowie Chemikalien und Dünger, ohne die die moderne Landwirtschaft kollabieren würde. Wer sagt, dass wir „abhängig“ vom Öl sind in einem Tonfall, als sei das eine schlechte Angewohnheit, die wir bei gutem Willen abstellen könnten, untertreibt den Grad unserer Abhängigkeit gewaltig. Kurz gesagt: Kein Petroleum, keine moderne Zivilisation.

Da ist es keine große Überraschung, dass wir uns praktisch, seitdem wir begonnen haben, das Zeug zu nutzen, Sorgen über die Erschöpfung dieser Stoffe machen. Im Jahr 1922 hat eine regierungsamtliche Kommission vorhergesagt, dass „die Ölerzeugung mit der gegenwärtigen Rate nicht lange aufrecht erhalten werden kann“. Im Jahr 1977 erklärte Präsident Jimmy Carter, dass die Ölerzeugung 1985 ihren Höhepunkt erreichen werde.

Allerdings stellt sich immer mehr heraus, dass das Problem niemals die Menge der Vorräte war, sondern dass es unsere Möglichkeiten waren, diese Vorräte profitabel auszubeuten. Wir Menschen haben während unserer gesamten Geschichte etwa eine Billion Barrel Öl verbraucht. Der Geological Service der USA schätzt, dass immer noch sieben bis acht mal so viel in der Erde steckt. Das verbleibende Öl ist lediglich schwieriger erreichbar und damit teurer. Aber das bringt die unsichtbare Hand des Marktes ins Spiel. Jedes Mal, wenn es für die bekannten Reserven ernst zu werden scheint, steigen die Preise, was wiederum der Auslöser für neue Investitionen in Forschung und Entwicklung ist. Das führt zu raffinierten Technologien, die neue Vorräte erschließen – oftmals an Orten, an denen wir zuvor kaum daran gedacht haben, dort zu suchen.

Auf der riesigen Betonfläche der Schiffswerft in Angra dos Reis in Brasilien fahren Arbeiter auf Fahrrädern durch die Lagerhäuser sowie zwischen den Kränen und Maschinenschuppen umher. Eine 18 Stockwerke hohe, helle gelbe Verladebrücke, leuchtend vor einem bleiern grauen Himmel, gleitet an Stahlgleisen entlang. Die Hügel rings um den Hafen sind wie eine Folie von dichtem grünen Dschungel bedeckt, aber hier unten am Wasser sieht es durch und durch industriell aus, Maschinen arbeiten im unüberschaubar großen Maßstab.

Von einer in den Atlantik hinein ragenden Landebrücke aus klettert Amit Tomar sechs Etagen an einem Gerüst hoch auf das Deck der Cidade de São Paulo, einem rot und schwarz gestrichenen, 1000 Fuß [über 300 m] langen Schiff – groß wie ein umgekippter Wolkenkratzer. An diesem Junitag herrscht dort ein Durcheinander von Arbeitern, die Schrauben festziehen und Rohre verschweißen. Tomar, ein gepflegter Inder mit einem breiten Lächeln und munterem Wesen, ist der zweite Kapitän auf der São Paulo. Die Arbeiter bereiten das Schiff auf etwas vor, das wahrscheinlich seine letzte Mission sein wird.

Die São Paulo stach erstmals 1992 als Öltanker in See – im Grunde ein gigantischer Eimer mit einem hinzu gefügten Motor – und transportierte Rohöl von Hafen zu Hafen. Inzwischen hat die brasilianische nationale Ölgesellschaft Petrobras den Umbau des Schiffes zu einem schwimmenden Industriekraftwerk weitgehend abgeschlossen. Demnächst wird das 1,2 Milliarden Dollar teure Objekt hinausgeschleppt und an einer Stelle etwa 200 Meilen [ca. 320 km] vor der Küste verankert werden. Eine ganze Palette von Rohren an der Seite des Schiffes wird 120000 Barrel Rohöl pro Tag aus einer Tiefe von über 3 Meilen Ozean [fast 5000 m] und unter Felsen und Salz hervor holen.

 

Abbildung 2: Die schwimmende fossile Treibstoff-Fabrik Cidade de São Paolo auf dem Weg zum Tiefwasser (PHOTO: PETROBRAS NEWS AGENCY)

Ist sie erst einmal verankert, werden Versorgungsschiffe zwei Tage bis zur São Paulo brauchen. Zwischen den Dienstschichten hat die 60 Mann starke Besatzung wenig zu tun außer in ihren spartanischen Unterkünften auszuharren. Außerdem steht ihnen ein fensterloser Raum mit einigen dunklen Ledersofas, ein paar Spielen, einem Fernseher und einer PlayStation3 zur Verfügung.

Tomar hat bis zu 11 Monate auf See unter solchen Bedingungen zugebracht. Dieser Job sollte vergleichsweise einfach sein – sechs Wochen Stress auf dem Schiff und dann sechs Wochen frei. „Auf diese Weise verdienen wir uns eine Fahrkarte der Business-Class, um nach Hause zu fahren“, sagt er. Das ist eine nette Vergünstigung, aber trotzdem immer noch eine ziemlich brutale Pendelzeit. Warum reist er ständig von Indien nach Brasilien und wieder zurück? Tomars Antwort ist klar und direkt: „Wegen des Geldes!“.

Man kann eine Menge davon dieser Tage hier verdienen. Lange Zeit fast bedeutungslos auf dem Welt-Energiemarkt ist Brasilien dabei, zu einem der obersten Erzeuger fossiler Treibstoffe aufzusteigen. Es gibt Milliarden Barrel Öl tief unter seinen Hoheitsgewässern – Öl, das bis vor kurzem gar nicht aufgespürt, geschweige denn zugänglich gemacht werden konnte. Es gibt so viel dort unten, dass der damalige brasilianische Präsident Luiz Inácio Lula da Silva beim ersten Fund ausrief: „Das beweist, dass Gott Brasilianer ist!“.

Falls man durch Funde fossiler Treibstoffe Gottes Staatsbürgerschaft beurteilen kann, dann muss Gott über sehr viele Reisepässe verfügen. Riesige untermeerische Gasfelder wurden in letzter Zeit vor den Küsten von Tansania, Mosambik und anderen verarmten Staaten in Afrika und Südamerika gefunden. Ölgesellschaften schnüffeln von Kuba über die USA bis zum Südchinesischen Meer herum, um noch mehr davon zu finden. Man glaubt, dass sich die Vorräte auf bis zu 200 Milliarden Barrel belaufen.

Ölgesellschaften haben seit Jahrzehnten in Flachwassergebieten gebohrt, aber erst in jüngster Zeit vermochten sie ernsthaft in die Tiefe zu gehen. Im Jahr 1992 gab es im Golf von Mexiko erst eine Bohrung, die tiefer als 5000 Fuß ging [über 1500 m]; im Jahr 2008 waren es 465. Nur drei Jahre nach der Explosion der Deepwater Horizon sind die Bohrungen im Golf in vollem Umfang wieder aufgenommen worden. Von dort stammt fast ein Viertel des Öls für die USA, Tendenz steigend. Rund um die Welt hat sich die Tiefwasser-Ölförderung im vergangenen Jahrzehnt vervierfacht und wirft Millionen von Barrel jeden Tag auf den Markt.

 

Abbildung 3: Der ehemalige brasilianische Präsident Luiz Inácio Lula da Silva ist glücklich, sich die Hände mit dem neuen Petroleum seines Landes schmutzig zu machen (PHOTO: FELIPE DANA/AP/CORBIS)

Die Auswirkungen von all dem sind in ganz Brasilien erkennbar, aber vielleicht nirgendwo mehr als in Rio des Janeiro. Als wir eine Hochbrücke über die Innenstadt passieren, weist mein Taxifahrer auf ein Palasthotel hin, das gegenwärtig renoviert wird. „Eike!“ sagt er mit einem Grinsen. Das bezog sich auf den Schnellboot-Rennfahrer und ein Playboy-Modell heiratenden Eike Batista. Er hat sich während der letzten paar Jahre von einem halbwegs wohlhabenden Bergbau-Unternehmer zum weltweit an 7. Stelle stehenden reichsten Mann entwickelt, jedenfalls der Forbes-Liste zufolge, und zwar hauptsächlich wegen seiner OGX Petróleo e Gás-Gesellschaft, der größten privaten Ölgesellschaft in Brasilien. Selbst nach einer Reihe jüngster unternehmerischer Rückschläge verfügt er immer noch über ein Vermögen von 13 Milliarden Dollar. Die Renovierung des historischen Hotels Gloria in Rio ist eines seiner Hobby-Projekte.

Am nördlichen Stadtrand von Rio, weit entfernt von den berühmten Stränden der Copacabana, besteht die Landschaft aus Fabriken und Schiffswerften, in denen Männer und Maschinen der Ölindustrie dienend brummen. Gewaltige Bohrplattformen, die zur Reparatur heran geschleppt worden waren, zieren die Küstenlinie. Etwas weiter landeinwärts befindet sich ein flugplatzgroßes Gebäude, das mit seinen gekrümmten Umrissen, den röhrenförmigen Korridoren und dem elfenbeinfarbenem Äußeren aussieht wie eine Mischung aus einer Shopping Mall in Dubai und einer Filmkulisse für Logan’s Run. Das ist das neue, 700 Millionen Dollar teure Hauptquartier von CENPES, dem Forschungszweig von Petrobas. Das Zentrum wurde offiziell im Jahr 2010 eröffnet, jedoch bis auf den heutigen Tag nicht vollständig fertig gestellt. Das oberste Stockwerk, nach allen Seiten offen, um den Wind durchzulassen und freie Sicht auf die Bucht zu gewährleisten, ist für Treffen und Denkpausen in entspannter Atmosphäre gedacht, aber es fehlen immer noch die Möbel. Ist er erst einmal vollendet, wird der Komplex mehr als 100 Laboratorien und etwa 4000 Beschäftigte beherbergen.

Brasilien hat seit den siebziger Jahren Flachwasserbohrungen vor seiner Küsten betrieben. Aber erst im Jahr 2006 sind Erkundungsbohrungen auf die massiven „Presalt“-Reservoire getroffen – benannt nach ihrem Fundort unter einer dicken Salzschicht, die ein verdunsteter prähistorischer Ozean hinterlassen hat.

Petrobas fand die Kohlenwasserstoffe unter dem Presalt dank einer Reihe von Durchbrüchen der seismischen Erkundung. Im Rahmen dieses Prozesses haben Schiffe auf offener See Meilen lange Sensorkabel gezogen, und mit Luftkanonen wurden Schallimpulse ausgesandt. Diese Impulse werden vom Meeresboden reflektiert und treffen auf die Sensorkabel. So entstehen Bilder der verschiedenen Felsschichten in der Tiefe. Jahrelang vermittelte diese Technik nur ein zweidimensionales Bild. Aber in den neunziger Jahren fanden Geophysiker heraus, wie man die Signale aus verschiedenen Winkeln zur gleichen Zeit aussenden konnte. Damit konnten die Ergebnisse in ein dreidimensionales Bild übertragen werden. Während der folgenden Jahrzehnte waren Computer und Software ausgereift genug, um all diese Daten aufzuschlüsseln.

Aber Salz sorgt für zusätzliche Komplikationen. Es verzerrt die rücklaufenden Signale, so dass die Ingenieure bei Petrobras neue Algorithmen zur Kompensation erstellen mussten. Petrobras brauchte mehr als zwei Jahre, um die Informationen der ersten 3D-Seismik-Bilder der Presalt-Felder zu analysieren, um herauszufinden, was dort unten lag.

Inzwischen schätzt die Gesellschaft die Menge der Reserve auf 15 Milliarden Barrel, die in diesem Jahr nur auf diesen Feldern entdeckt worden sind. Die Gesamtmenge unter dem Salz könnte dreimal so hoch sein, eine Reserve, die mit Libyen konkurriert.

Die Verbesserung dieser seismischen Erkundungs-Techniken ist eine der Kernaufgaben von CENPES. Aber das Aufspüren von Öl ist nur die erste Herausforderung. Es nach oben zu bringen ist ebenfalls ein unendlich komplizierter Prozess. Jeder Schritt erfordert intensive Forschung und professionelle Hardware. Wenn man beispielsweise ein tiefes Loch in die Erde bohrt, leistet die Erde Widerstand. Der Weg des Bohrers muss eingefettet werden. Das ausgebohrte Material muss an die Oberfläche befördert werden. Um all das zu bewerkstelligen, stoßen die Bohrer viskose Flüssigkeiten aus, „Mud“ [Schlamm] genannt. Die meisten Muds basieren auf Wasser, aber das kann zum Problem werden, wenn es um Salzeinlagerungen geht: Das umgebende Salz könnte sich im Wasser lösen, so dass das Bohrloch kollabiert. Folglich gibt es bei CENPES ein 20 Personen starkes Team, dass sich nur mit diesem Mud befasst. „Wir sind ständig auf der Suche nach Wegen, um schneller zu bohren“, sagt Rosana Lomba, die freundliche Leiterin des Teams. „Zeit ist Geld – viel Geld“. Die stählernen Arbeitsplatten in ihrem in weiß gehaltenen Laboratorium sind übersät mit Mischmaschinen, die verschiedene Flüssigkeiten austesten und messen. Ihre Mitarbeiter verbringen ihre Tage mit der Optimierung von Formeln – etwas Bariumsulfat hier, um die Dichte zunehmen zu lassen, ein wenig Xanthan-Gummi dort, um die Viskose zu erhöhen – alles, um die optimalen Kombinationen für die bei jedem Bohrloch unterschiedliche geologische Beschaffenheit zu finden.

Das alles ist zu kompliziert und zu teuer, um es von irgendjemandem allein durchführen zu lassen. Auf den meisten Feldern sind Firmenkonsortien zugange. Folgerichtig rollt Brasilien den roten Teppich aus, um Privatunternehmen zu ermutigen, mit Petrobras zusammen zu arbeiten. Nicht weit von der CENPES-Stätte entfernt überwacht die Federal University of Rio de Janeiro einen riesigen neuen Technologie-Park, hauptsächlich eingerichtet zur Energieforschung. In einer Ecke steht das LabOceano, ein 82 Fuß [ca. 25 m] tiefes Hallen-Wasserbecken – der tiefste Ozeansimulator der Welt. Warum so tief? „Weil Brasiliens Öl so tief liegt“, sagt der geschäftsführende Direktor Paulo des Tarso Themistocles Esperança. Die 30 Millionen Dollar teuren Generatoren zur Erzeugung von Wind und Wellen testen, wie sich Boote in Stürmen und Strömungen verhalten, damit sichergestellt ist, dass sie sich nicht von der Ausrüstung am Meeresboden losreißen. Tatsächlich schwimmt auf der Oberfläche des Beckens ein sechs Fuß-Modell eines Produktionsschiffes nach Art der São Paulo. Aber offenbar sind für heute keine Stürme vorhergesagt; stattdessen paddelt ein behelmter Arbeiter in einem Gummiboot heran, der das Modell zwergenhaft wie in einem Omty Python-Cartoon aussehen lässt.

Überall auf dem Gelände wird gebaut und konstruiert. Die größten Ölversorger der Welt – Halliburton, Schlumberger, Baker Hughes – bauen ihren eigenen Forschungszentren. Hier befindet sich die Ausstattung, die die wesentlichen Ölgesellschaften – einschließlich Petrobras – mieten, um die Bohr- und Erzeugungsmaschinerie am Laufen zu halten. Eine der größten ist die in den USA ansässige Firma FMC Technologies, die über eine Fabrik am Stadtrand von Rio verfügt. 1600 Arbeiter fertigen dort an Fließbändern Kontroll-Module und Bohrköpfe. FMC plant, die Fabrik auf ein benachbartes Grundstück auszuweiten und seine Größe zu verdoppeln.

Auch im Technologiepark betreibt FMC eine Einrichtung, so neu, dass man auf den weißen Klinkersteinen des vorgelagerten Parkplatzes noch die Ölreste zählen kann. Im Inneren eines der verwinkelten, modernistischen Gebäude hängt ein sich vom Boden bis zur Decke erstreckendes Foto. Es zeigt nichts als offenen, sonnenbestrahlten Ozean. Unten auf dem Bild prangen die Worte „Our Vision“. „Das gegenwärtige Operations-Schema ist 50 Jahre alt“, sagt Paulo Couto, ein Vizepräsident der Technologie. „Man baut eine schwimmende Stadt in die Mitte des Ozeans, und dann pumpt man Öl hoch genauso wie an Land. Es müssen Energie, Wohnungen, Kanalisation, Nahrung, Hubschrauber und Ausrüstung zur Verfügung stehen. Es ist schwierig und teuer. Hubschrauber stürzen ab. Boote sinken. Es gibt Hurrikane und Unfälle“. Es ist auch ineffizient. Das Rohöl muss bis an die Oberfläche gepumpt werden, und das beigemengte Erdgas, Wasser und Sand müssen separiert und entsorgt werden. FMC möchte all das stattdessen auf dem Meeresboden durchführen. „Unsere Aufgabe ist es, die Stadt am Meeresboden zu errichten“, sagt Couto. Taucher würden in diesen Tiefen keine Minute überleben, daher muss alles von außen gesteuert werden unter Verwendung von Unterwasser-Robotern, um die Ausstattungen zu reparieren. Es klingt waghalsig. Aber gerade im vorigen Jahr hat FMC einen 500 Tonnen schweren Unterwassergenerator zur Trennung von Öl und Wasser installiert, den ersten seiner Art, und zwar über einem der brasilianischen Untersee-Felder. „Wir sind nicht mehr weit entfernt von dieser Vision“, sagt Couto, „vielleicht 15 Jahre“.

Die Ölförderung unter dem Ozean ist natürlich extrem teuer. Nur eine einzige Bohrung kann bis zu 100 Millionen Dollar kosten. Es ist nur sinnvoll, dies in einer Welt zu tun, in der ein Barrel mindestens 50 Dollar einbringt. Bis zum Jahr 2002 waren es gerade mal 20 Dollar.

Aber die Preise sind im vergangenen Jahrzehnt dramatisch gestiegen. Sie lagen während der letzten Jahre im Mittel gut über 80 Dollar pro Barrel. Teils liegt das an der stärker als je steigenden Nachfrage aus den Entwicklungsländern und teils an politischen Faktoren (wie z. B. die Furcht vor ernsten Unruhen infolge der nuklearen Ambitionen Irans im Persischen Golf). Aber der Preisanstieg erfolgt teilweise auch durch eine andere Art Technologie: Computer-Algorithmen, die das Hochfrequenz-Handeln ermöglichen. Er kam weit verbreitet in Mode hinsichtlich der Zukunft von Öl während des vergangenen Jahrzehnts. Kein Geringerer als Rex Tillerson, Chef von ExxonMobil, hat vor dem Kongress im Jahr 2011 gesagt, dass solche Spekulationen der Schlüsselgrund dafür sind, dass die Ölpreise so hoch geblieben sind.

Von der Oberfläche einer Plattform mehrere Etagen über der Prärie von Nord-Dakota dreht ein lärmender, schlammverschmierter 1000-PS-Motor eine Stahlstange so dick wie ein Softball-Schläger in einer endlosen Pirouette. [Softball = eine Vorstufe zum Baseball, oftmals von Kindern im Grundschulalter praktiziert. A. d. Übers.] Die Stange verläuft durch einen 30 Fuß [ca. 9 m] langen Eisenmantel und dann in den Boden. Unter der Erde erstreckt sich die Bohrung etwa zweimal so tief wie die Golden Gate Bridge lang ist.

In einem daneben stehenden Kontrollraum lehnt sich ein beleibter Operator, seinem Helm zufolge namens Chuck, in einem Sessel zurück, der umgeben ist von allen möglichen Monitoren, und überwacht in der Manie eines Spitzen-Videospielers den Bohrprozess. Er erstreckt sich etwa zwei Meilen [ca. 3200 m] senkrecht in die Tiefe und dann eine weitere Meile zur Seite. Er frisst sich jetzt mit einer Geschwindigkeit von 110 Fuß [ca. 33 m] pro Stunde eine zweite Meile weit durch soliden Fels. Das Ziel: Die ganzen Felsen vorzubereiten, um ihn hydraulisch zu brechen – ein unter dem Namen Fracking besser bekannter Prozess.

Fracking ist in der Öffentlichkeit etwa genauso populär wie Kinderspiele, aber es ist in hohem Maße Big Business. Es wird dadurch so viel Erdgas aus Feldern in Texas, Ohio, Pennsylvania und anderswo gefördert, dass der Preis dafür eingebrochen ist, und zwar von über 10 Dollar pro tausend Kubikfuß vor fünf Jahren auf etwa 3,25 Dollar heute.

Mit Fracking kann man auch Öl fördern, was das hauptsächliche Ziel in Nord-Dakota ist. Bis zu 200 neue Bohrungen werden in diesem Staat jeden Monat niedergebracht, um das Bakken-Feld auszubeuten, ein 25 000 Quadratmeilen [ ca. 65000 km²] großer unterirdischer Streifen, der sich bis nach Montana und Kanada erstreckt und Hunderte Milliarden Barrel enthalten kann.

Energieunternehmen wussten schon seit Jahrzehnten, dass Schiefergestein-Formationen wie Bakken riesige Mengen Kohlenwasserstoffe enthalten. Das Problem bestand in deren Förderung. In konventionellen Öl- oder Gaslagerstätten fließen die Kohlenwasserstoff-Moleküle durch Poren im Gestein in ein Loch, etwa so wie Meerwasser in ein Loch im Sand sickert, das man am Strand gräbt. Aber Schieferformationen sind so dicht, dass Öl und Gas darin nicht fließen können.

Die Durchlässigkeit von Felsen wird in einer Einheit mit der Bezeichnung darcy gemessen. Lance Langford, ein untersetzter Texaner, der den Bakken-Aktivitäten des staatlichen norwegischen Unternehmens Statoil vorsteht, sagt mir, dass das typische Gestein, mit dem sich Statoil in seinem Heimatland befasst, eine Durchlässigkeit von 1 darcy aufweist. Statoil gehören inzwischen Hunderte Bohrlöcher in Nord-Dakota. Hier reicht die Durchlässigkeit des Öl enthaltenden Dolomitgesteins im Bakken-Feld bis zu Nanodarcy – buchstäblich Millionen mal weniger durchlässig. „Es ist wie Zement“, sagt Langford. Er zeigt mir eine Probe, einen Zylinder dunkelgrauen Gesteins von der Größe meines Unterarms. Er ist so schwer wie ein Block Schlacke. Wenn ich meine Nase daran halte, kann ich den penetranten Geruch von Kohlenwasserstoffen wahrnehmen.

 

Eine Bohrplattform von Statoil treibt eine Bohrung in die Erde, so tief wie zweimal die Länge der Golden Gate Bridge. (PHOTO: CHRISTOPH MORLINGHAUS)

Pionierarbeit hinsichtlich Fracking leistete Halliburton – indem es komprimierten Schlamm in Löcher pumpte, um das umgebende Gestein zu brechen und dessen Kohlenwasserstoffe freizusetzen – schon im Jahr 1947. Aber der Nutzen war bei der konventionell vertikalen Technik von damals begrenzt. Im Jahr 2000 hat George Mitchell, ein Energie-Unternehmer in Texas, die Technik entwickelt, mit Hilfe einer Mixtur aus Wasser, Chemikalien und Sand den Schiefer aufzubrechen. Der Sand wird als Stützmittel benötigt, um die Risse offen zu halten – der Druck des umgebenden Gesteins würde sie sonst sofort wieder schließen. Heute verwendet Statoil perfekt runde graue Kügelchen von der Größe von Mohnsamen einer künstlichen, auf Aluminium basierenden Keramik – 2,5 Millionen Pfund davon pro Bohrloch, mit Nachschub aus 40 Fuß [ca. 12 m] hohen Silos, die die Prärie überziehen. Das künstliche Material kostet dreimal so viel wie Sand, hält aber die Risse länger offen.

Mitchells Schlüssel-Innovation freilich war die Kombination von Fracking mit der sich rapide entwickelten Technik horizontalen Bohrens. Anstatt lediglich ein einzelnes Loch in eine Schicht Schiefergestein zu stechen, können die Bohrer jetzt ein Loch horizontal und parallel zu den Schieferschichten bohren und viel mehr Öl und Gas in das Bohrloch strömen lassen.

Die übrige Industrie hat das System sehr schnell übernommen.

Die Firma EOG Resources – besser bekannt unter ihrem früheren Namen Enron – begann im Jahr 2006 mit dem Fracking in Bakken. Seitdem hat sich die jährliche Ölerzeugung in Nord-Dakota fast verfünffacht auf über eine halbe Million Barrel pro Tag. Im vorigen Jahr wurde Alaska überholt, wurde der Staat doch selbst zum zweitgrößten Ölerzeuger. Mehr Schieferöl kommt derzeit nur aus Texas. In Kalifornien liegt ein noch größeres Feld, allerdings haben dort Umweltbedenken – vorerst noch – die Bohrungen nur begrenzt zugelassen. „Der Schieferöl-Boom in den USA ist nicht eine vorübergehende Blase, sondern die wichtigste Revolution im Ölsektor seit Jahrzehnten“, heißt es in der Studie der Kennedy-Schule.

Einen noch größeren Boom verschafft das Fracking der Erdgas-Industrie. Die Erzeugung von Schiefergas belief sich im Jahr 2000 auf 320 Milliarden Kubikfuß; im Jahr 2011 sogar auf 7,8 Billionen. Heimisches Erdgas deckt den Gesamtbedarf der USA inzwischen zu 95%.

All dies führt zu einer ökonomischen Goldmine, die landesweit Hunderttausende Arbeitsplätze schafft (obwohl in den Gebieten, in denen tatsächlich gebohrt wird, nicht immer die erwarteten Vorteile eintreten, wie Lisa Margonelli erklärt “The Energy Debate We Aren’t Having”). Mehr noch, sie könnte die USA dem lange erträumten Ziel näher bringen, energieunabhängig zu werden. Einer Vorhersage der staatlichen Energy Information Administration EIA zufolge werden die Importe von Öl und anderen Energiegrundstoffen bis zum Jahr 2035 auf 13% des Gesamtenergieverbrauchs in den USA zurückgehen. Das ist ein Rückang um 29% im Jahr 2007.

Und der Fracking-Boom fängt gerade erst an. Man schätzt, dass es Ozeane bisher nicht zugänglichen Schiefergases und –öls in Argentinien, China und vielen europäischen Ländern gibt.

Vor dem Houston Reliant Center werden die 80.000 Teilnehmer der Offshore Technology Conference von einer Reihe von 40 Fuß [ca. 12 m] hohen Bohrtürmen begrüßt. Geschmückt mit den Farben und Flaggen vieler Länder sehen die Bohrtürme aus wie eine Reihe einfacher Jahrmarktsattraktionen. Die Flure des Konferenzzentrums füllt inzwischen eine große Ansammlung von Ingenieuren in Polo-Hemden neben Nigerianern in traditionellen Gewändern [dashikis], Unternehmertypen in grauen Anzügen sowie Araber in bodenlangen Gewändern [galabias]. Die riesigen Ausstellungshallen sind angefüllt mit Apparaten von High Tech bis mittelmäßig: empfindliche elektronische Sensoren, Datenverarbeitungs-Software und Ketten mit Gliedern so groß wie mein Kopf. Das Mann-Frau-Verhältnis sieht aus wie etwa einhundert zu eins.

An einem Pult in dem geräumigen Konferenzraum amüsiert sich Uzi Landau offensichtlich. Der lebhafte 69-Jährige – ein ehemaliger Fallschirmjäger, Israels Minister für innere Sicherheit während der zweiten Intifada und derzeit zuständiger Minister für die Infrastruktur in Israel – ist nach Houston gekommen, um die Energieunternehmen der Welt einzuladen, Israel zu helfen, zu einem Zentrum fossiler Treibstoffe zu werden. „Wir sind eine offene Gesellschaft mit einem unabhängigen Justizsystem“, wirft Landau in die Menge, „wir behandeln Frauen mit Respekt. Wir hängen keine Homosexuellen. Wir behandeln alle Dinge genauso wie Sie hier in Houston!“

Die Tatsache, dass Landau einer der Redner auf dieser Konferenz ist, ist ein guter Indikator für den Umbruch in der Industrie fossiler Treibstoffe und die Auswirkungen, die er auf die Geopolitik hat. Ein alter Witz: Moses muss einen falschen Weg eingeschlagen haben, als er seine Leute in das einzige Land des Nahen Ostens führte, in dem es kein Öl gab. Aber jetzt stellt sich heraus, dass der alte Prophet genau wusste, was er tat. Seit 2009 wurden zwei kolossale Erdgasfelder unter israelischen Gewässern entdeckt. Zusammen enthalten sie Billionen Kubikfuß Gas im Wert von Hunderten Milliarden Dollar. Es ist beabsichtigt, mit der Erzeugung in diesem Jahr anzufangen. Und mit Sicherheit gibt es noch mehr davon dort unten, vielleicht viel mehr. „Meine Damen und Herren, dies ist eine Revolution, soweit es Israel betrifft!“

Diese Feststellung scheint richtig. Die Balance der Petro-Macht verschiebt sich in der am meisten mit Öl angereicherten – und politisch unberechenbaren – Region. Und das könnte alle möglichen Dinge auf alle mögliche Weise verändern.

Israels Erdgas-Reichtum bedeutet, dass das Land nicht nur wohlhabender, sondern zum großen Teil auch energieunabhängiger wird. Man stelle sich vor, was das bedeutet. Billigerer Strom würde es für Israel einfacher machen, mehr Entsalzungsanlagen zu bauen, was zur Entspannung seiner chronischen Wasserknappheit führen würde. Diese größere Selbstversorgung könnte bedeuten, dass Israel weniger Anlass hat, gute Beziehungen zu seinen Nachbarn anzustreben, vor allem mit dem sperrigen Freundfeind Ägypten, der bis vor Kurzem einen großen Teil des israelischen Erdgases verbrauchte. Das Gas in Israel verschafft dem Land schon jetzt neue Freunde anderswo: Russland hat Verträge unterschrieben, in israelischen Hoheitsgewässern aktiv zu werden. All dies könnte Israels Abhängigkeit von den USA verringern und damit unseren Einfluss über das Land.

„Energieunabhängig zu sein würde bedeuten, dass Israel sogar noch weniger auf die internationale öffentliche Meinung Rücksicht nehmen muss als ohnehin schon“, sagte der Politikwissenschaftler Michael Ross an der University of California in Los Angeles, ein Experte für die Auswirkungen des Ölreichtums auf die politische Kultur der betreffenden Länder. „Es gibt starke Beweise, dass je mehr Öl- und Gasreichtum ein Land besitzt, umso weniger wird es durch internationale Verträge beeinflusst werden und international eine Rolle spielen“.

Landau verkündet natürlich nur das Best-Case-Szenario, in dem das israelische Gas den Frieden voranbringt. Israel könnte Gas in die Palestinensergebiete, nach Jordanien und andere Nachbarländer exportieren, die für ihre Stromerzeugung schon nach billigerem und saubererem Gas zur Stromerzeugung Ausschau halten. Das könnte die regionale Zusammenarbeit befeuern und die Akzeptanz von Israel erhöhen. Aber die neuen Gasfelder können auch bestehende Konflikte weiter anheizen. Die Palestinenser könnten sich darüber ärgern, israelisches Gas kaufen zu müssen, besonders weil es auch vor dem Gaza-Streifen ein Gasfeld gibt, das sie nicht ausbeuten können. Libanon reklamiert schon jetzt einige der Mittelmeer-Gasfelder für sich selbst, und die Hisbollah hat damit gedroht, israelische Einrichtungen vor der Küste anzugreifen.

Die Ölwirtschaft der Neuen Welt könnte zu dramatischen Veränderungen im gesamten Nahen Osten führen. Die Staaten am Persischen Golf verfügen immer noch über unberührte Reserven – Saudi-Arabien allein über ein Fünftel aller weltweit bekannten Ölvorräte – aber wir brauchen sie nicht so, wie wir es gewöhnt sind. Amerikanische Importe aus der Golf-Region sind in den letzten Jahren eingebrochen; unsere führenden Versorger mit fossilem Treibstoff sind jetzt Kanada und Mexiko. Teils liegt das an der gesteigerten Erzeugung in den USA und teils auch an einer Flutwelle einer weiteren, kürzlich erschlossenen Ressource – die Ölsande im nördlichen Alberta. Inzwischen führt das weltweit neu strömende Öl und Gas zu sinkenden preisen. Das könnte auf einen ernsten Einbruch der Einkommen der Könige und Emire sein, die lange von Gaben der Regierung an die Bevölkerung abhängig waren, um diese daran zu hindern, größere Freiheiten einzufordern nach Art des Arabischen Frühlings.

Tatsächlich könnten die neuen fossilen Treibstoffe der Welt eine ungewisse Zukunft für alle einschlägigen Nationen bedeuten, die gegenwärtig den Markt beherrschen – einschließlich Russland, Venezuela und Iran. „Es liegen große Herausforderungen vor allen vom Öl abhängigen Nationen“, sagt der Management-Direktor von Citigroup Ed Morse, der kürzlich als Mitautor einer Studie gearbeitet hat, in der es um die Auswirkungen des Booms fossiler Treibstoffe in den USA geht – Titel: North America, the New Middle East? (pdf). „Er könnte zu allen möglichen inneren Umbrüchen führen!“

Die Handvoll neu in der globalen Szene fossiler Treibstoffe auftauchenden Mitspieler – Mosambik, Tansania, Papua Neuguinea – sind Joker. Der neue Reichtum könnte ihre Völker aus der Armut führen – oder sie könnten der Versuchung des berühmten „Öl-Fluches“ erliegen und erleben, wie das Geld von korrupten Eliten und explodierenden inneren Konflikten abgezweigt wird.

Oder etwas ganz Anderes könnte passieren. „In diesem Industriezweig liegen die Leute permanent falsch mit ihren Prognosen“, sagt Ross. „In den siebziger Jahren dachte jeder dass die Preise für immer hoch bleiben würden und dass die OPEC der führende Energie-Spekulant der Welt bleiben würde. Das alles ist zerfallen. Dann, in den neunziger Jahren, fielen die Preise und jedermann dachte, sie würden niedrig bleiben“. Soviel dazu.

Die Energieindustrie ist durch so viele komplexe, miteinander in Wechselwirkung stehende Faktoren so berührt, dass langfristige Prognosen genau wie beim Wetter unmöglich sind. Spannungen an vielen Stellen im Nahen Osten könnten sich entladen. China könnte in eine Rezession abgleiten und erleben, wie sein Energieverbrauch abstürzt. Ein weiterer schwerer Unfall im Golf von Mexiko könnte die Tiefwasser-Förderung in den USA zum Erliegen bringen.

Aber eines wissen wir mit Sicherheit: Es ist noch sehr viel fossiler Treibstoff übrig. Und früher oder später werden wir es fördern. Menschen hören nicht auf zu steuern oder Plastik zu benutzen. Die wie Pilze aus dem Boden schießende Mittelklasse in China, Indien und anderswo wollen ihre Autos und Air Condition haben. Der Petroleumverbrauch in China allein hat sich im vergangenen Jahrzehnt verdoppelt, wodurch es zum weltweit zweitgrößten Verbraucher hinter den USA geworden ist. Abgesehen von unvorhergesehenen wirtschaftlichen Schwierigkeiten, wird sich die weltweite Nachfrage nach Energie während der nächsten 20 Jahre um ein Drittel bis zur Hälfte erhöhen – und das meiste dieser Nachfrage wird durch Öl und Gas befriedigt werden. Wind, Sonne und andere erneuerbare Quellen haben noch einen Meilen langen Weg vor sich, bevor sie einen wesentlichen Teil des Weltenergiemix’ ausmachen, und sie haben es schwerer denn je, wettbewerbsmäßig mit Erdgas mitzuhalten, wenn dieses so billig ist.

Was noch mehr zählt ist, dass die Erde noch andere fossile Treibstoffe bereit halt, die wir noch nicht einmal angetastet haben. Regierungen und Unternehmen erforschen eine Anzahl langfristiger Energiequellen. Sie reichen von einem noch nicht ganz ausgereiften Öltyp namens Kerogen bis zu den Methanhydraten im Eis von Alaska.

Was uns zur größten aller Unbekannten bringt: was dieses neue Zeitalter für unseren sich rapide erwärmenden Planeten bringt. Mehr verbrannte Kohlenwasserstoffe bedeuten mehr Kohlenstoff in der Atmosphäre und die gesamte sattsam bekannte Litanei der daraus sich ergebenden Katastrophen.

Selbst Industriebosse räumen das ein. „Es gibt genug Öl und Gas, das durchaus bis zum Ende des nächsten Jahrhunderts ausreichend für uns wäre, ohne viele Zweifel“, sagt David Eyton, Leiter der Abteilung Forschung und Technologie bei BP. Das wirkliche Problem, sagt Eyton, liegt darin, dass „wir die Kohlenstoff aufnehmende Kapazität der Atmosphäre überstrapazieren“.

Sind wir also zu einer Zukunft stetig weiter steigender Temperaturen verdammt? Vielleicht. Vielleicht auch nicht. Es gibt nicht nur schlechte Nachrichten: in der entwickelten Welt sind die Treibhausgasemissionen dabei, sich zu stabilisieren, und zwar dank zunehmender Effizienz und einer Verschiebung hin zu saubereren Treibstoffen. In den USA sind die Kohlenstoffemissionen in Verbindung mit Energie seit dem Spitzenwert des Jahres 2005 zurück gegangen. Auch wird erwartet, dass sie während der nächsten zehn Jahre nur sehr wenig steigen. Und sauberer verbrennendes Erdgas beginnt, Öl und Benzin in einigen Industrien und Fahrzeugflotten zu ersetzen.

„Wir leben in einer Welt, in der die Dinge schneller ablaufen als wir erwarten”, sagt Amy Myers Jaffe, geschäftsführende Direktorin für Energie und Nachhaltigkeit an der University of California. „Vielleicht finden wir ein Mittel, uns einen Weg aus der Klimaänderung zu weisen oder den Prozess zumindest zu verlangsamen, so dass wir uns an die Auswirkungen anpassen können. Wenn es eine Sache gibt, die uns die Geschichte der fossilen Brennstoffe zeigt, dann die, dass wir unglaublich gut hinsichtlich der Anpassung sind sowie beim Aufspüren neuer Wege, um Probleme zu lösen, die früher als unlösbar galten.“

Heute wurde nahezu das gesamte Kern River-Feld von Chevron übernommen. Es ist ein schauerlicher Ort, der aussieht wie nach der Apokalypse. 16 Quadratmeilen, die aussehen, als ob sie verbrannt seien und dann von einer hirnlosen Armee von Pferdekopf-Pumpen übernommen worden sind.

Sie sind eine kunterbunte Horde verschiedener Größe und Farben und Jahrgängen. Einige stehen still, andere nicken mit ihren Köpfen in Richtung Erde und fördern jeden Tag um die 80.000 Barrel Öl.

Unter Tage pumpen mit Erdgas betriebene Generatoren Dampf durch eine Batterie von Rohren in Bohrlöcher; randvoll mit Sensoren; die ununterbrochen Daten über Druck, Fließraten und andere unabdingbare Informationen in ein Kontrollzentrum übermitteln. Dort überwachen Techniker alles mit Hilfe von 3-D seismischen Modellen. All dies macht es viel teurer, Öl aus Kern River zu pumpen; die Energiemenge, die zum Hochpumpen eines Barrels Öl erforderlich ist, hat sich seit Einführung der unterirdischen Heizmethoden dramatisch erhöht, jedenfalls einer vor Kurzem erschienenen Studie der Stanford University zufolge. Aber heute besteht der Bedarf hier, und genauso ist es mit den Vorräten. Geologen bei Chevron schätzen, dass es dort unten noch weitere 627 Millionen Barrel Öl gibt.

Auf einer kleinen Anhöhe, die den eigentlichen Fluss überblickt – dessen Ufer die einzigen grünen Flecken in Sichtweite sind – steht ein weiß gestrichenes Monument, das die Stelle markiert, an der James Elwood erstmals vor über einem Jahrhundert Öl gefunden hat. Dieses Bohrloch wurde 1995 eingeebnet. Aber auf beiden Seiten davon, keine 20 Fuß entfernt, pumpen zwei Apparate mit gelben Köpfen Öl aus den tiefsten Tiefen des Bodens, in einem stetigen Auf und Ab, als ob sie niemals damit aufhören würden.

Vince Beiser

Link: http://www.psmag.com/environment/oil-production-peak-oil-fracking-kern-river-north-dakota-brazil-energy-53395/

Übersetzt von Chris Frey EIKE




Immer wieder: Was die „Energiewende“ bringt…

Über den Öko-Blödsinn – und wie sich unsere Zukunft in Rauch auflöst wenn wir Milliarden zahlen, um am größten Kraftwerk in UK von der Verbrennung von Kohle zur Verbrennung von Holzpellets wechseln.

Christopher Booker

Es könnte kein besseres Symbol für den Blödsinn der britischen Energiepolitik geben als das, was in dem riesigen Drax-Kraftwerk in Yorkshire passiert – dem größten Kraftwerk in UK.

Tatsächlich ist es eines der größten und effizientesten Kohlekraftwerke der Welt. Sein fast 1000 Fuß [rund 300 m] hoher Schornstein ist der höchste des Landes, und seine 12 Monster-Kühltürme (jeder einzelne größer als die St. Pauls Kathedrale) dominieren viele Meilen im Umkreis das Landschaftsbild im östlichen Yorkshire.

Jeden Tag werden bei Drax 36000 Tonnen Kohle verbrannt, angeliefert von 140 Kohlezügen jede Woche – und es stellt sieben Prozent des verbrauchten Stromes in UK zur Verfügung. Das reicht, um viele unserer Großstädte zu versorgen.

Aber als Folge einer Änderung der Regierungspolitik, ausgelöst durch EU-Regeln, wird es bei Drax eine wesentliche Veränderung geben, die alle in Erstaunen versetzen dürfte, die dieses Kraftwerk in den siebziger und achtziger Jahren gleich neben dem Selby-Kohlevorkommen erbaut haben. Dieses Feld war seinerzeit hoch produktiv, ist aber seitdem geschlossen.

Vom nächsten Monat an wird sich Drax einer 700 Millionen Pfund teuren Änderung anschließen, d. h. es wird sich von der Kohleverbrennung, für die es gebaut worden war, verabschieden, um zur Verbrennung von Millionen Tonnen Holzpellets pro Jahr in seinen sechs kolossalen Boilern zu wechseln.

Die meisten dieser Chips werden von Bäumen stammen, die in einem atemberaubende 4600 Quadratmeilen [ca. 11000km²] bedeckenden Wald gefällt worden sind. Von dort werden sie über 3000 Meilen [fast 5000 km] über den Atlantik nach UK verschifft.

Der Grund für diese extreme teure Entscheidung ist, dass Drax zu einer Schlüsselkomponente in der sog. ‚grünen Revolution‘ geworden ist, die jetzt im Zentrum der britischen Energiepolitik steht.

Weil dort so viel Kohle verbrannt wird, ist Drax der größte Einzelemittent in UK von Kohlendioxid (CO2), dem Gas, das vermeintlich für die globale Erwärmung verantwortlich ist.

Die Theorie lautet, dass Drax durch die graduelle Konversion zu Holz – oder ‚Biomasse’, wie es offiziell heißt – eventuell Millionen Tonnen CO2 einspart, die jedes Jahr in die Atmosphäre entweichen, womit es hilft, die Klimaänderung zu verhindern und den Planeten zu retten.

Anders als Kohle, die jetzt als ein dreckiger, den Planeten bedrohender Verschmutzer dämonisiert wird, betrachtet man Biomasse als ‚nachhaltig‘, weil sie vermeintlich bei der Verbrennung nur genauso viel Kohlendioxid in die Atmosphäre entweichen lässt, wie es vorher während der Wachstumsphase der Luft entzogen hat.

Tatsache bleibt jedoch, dass Kohle immer noch der bei Weitem billigste Rohstoff zur Stromerzeugung ist. Aber die Regierung ist so besessen davon, seine eigenen Ziele und die Ziele der EU hinsichtlich der Reduktion der britischen ‚Kohlenstoffemissionen‘ zu erreichen, dass sie jetzt das Problem mit voller Kraft an zwei Fronten angeht – die beide die Änderungen bei Drax erzwungen haben.

Erstens, die Regierung möchte eine Kohlenstoffsteuer dazu verwenden, das Verbrennen fossiler Treibstoffe wie Kohle so teuer zu machen, dass es sich in nicht allzu ferner Zukunft für die Stromunternehmen von selbst verbietet, sie weiter zu verwenden.

Eine neue Kohlenstoffsteuer wird in drei Wochen eingeführt und auf jede Tonne Kohlendioxid angewendet, die bei der Stromerzeugung anfällt. Die Steuer wird auf einem vergleichsweise niedrigen Niveau starten, dann aber jedes Jahr steil ansteigen, so dass sich die Kosten der Stromerzeugung innerhalb der nächsten 20 Jahre verdoppelt haben werden und das daher nicht länger ökonomisch ist.

Zweitens, die Regierung ist entschlossen, all  jene ‚kohlenstoffneutralen‘ – aber gegenwärtig viel teureren – Mittel zur Stromerzeugung zu fördern, als da wären Windparks, Kernkraft und das Verbrennen von Biomasse. Sie hofft, dies mittels einer Reihe von Subventionen für jeden Haushalt und jedes Unternehmen zu erreichen.

Was Drax dazu gezwungen hat, auf diesen Zug der Konversion von Kohle zu ‚Biomasse‘ aufzuspringen, war die Entscheidung des Ministers im vorigen Jahr, jedem kohlebetriebenem Kraftwerk, das zu ‚Biomasse‘ konvertierte, die gleichen, fast 100% Subventionen zu zahlen, die sie bereits an Eigentümern von Windparks onshore zahlt.

Die Experten bei Drax rechneten das Ganze durch und konnten dann sehen, wie sie graduell über die Preise durch eine Kohlenstoffsteuer aus dem Geschäft gedrängt werden würden, wenn sie bei Kohle verbleiben würden. Die Erzeugung von Strom würde dadurch doppelt so teuer werden.

In der Sprache nackter Tatsachen: Die Regierung hat Drax kaum eine Wahl gelassen.

Aber es ist schwierig, den Wahnsinn dieses Drax-Deals zu übertreiben. Zunächst einmal sind einige der Umweltaktivisten, die normalerweise der ‚erneuerbaren‘ Energie fanatisch das Wort reden, stark gegen die Verbrennung von Holz als Mittel zur Stromerzeugung.

Kampagnen durchführende Gruppen wie Friends of the Earth ächten den Gedanken, dass Holzpellets ‚kohlenstoffneutral‘ sind oder dass das Fällen von Millionen Quadratmetern amerikanischer Wälder, die Umwandlung der Bäume in Pellets und der nachfolgende Transport über Tausende Meilen nach Yorkshire dazu führt, dass insgesamt keinerlei Reduktion der ‚Kohlenstoff‘-Emissionen erfolgen wird.

Diese Kritik deckt sich mit der Ansicht von Sir David King, ehemals der wissenschaftliche Chefberater der Regierung, der diese Woche in der Sendung Today auf BBC 4 gesagt hat, dass er bei Betrachtung des vollen ‚Lebenszyklus‘‘ dieser Holzpellets bezweifelt, dass die Maßnahme zu irgendeiner wirklichen Einsparung von CO2-Emissionen führen wird.

Kraftwerke wie Didcot in Oxfordshire und Cockenzie in Schottland (im Bild) werden die Erzeugung als Folge einer Anti-Verschmutzungs-Direktive der EU stoppen.

Drax stimmt damit nicht überein, obwohl alles, was King im Sinn hatte, alle die zusätzlichen Emissionen aus den aufwändigen Prozessen waren, die erforderlich sind zwischen dem Wachstum der Millionen Bäume in Amerika und dem Moment, in dem sie alle in Rauch aufgehen.

Die Bäume müssen erst gefällt werden, dann zu Holzpellets verarbeitet werden in zwei dafür vorgesehenen Werken, die Drax in Amerika baut. Die Pellets müssen dann in riesigen Schiffen tausende Meilen über den Ozean transportiert werden bis zu den Häfen in Yorkshire. Dann müssen sie in riesige Güterzüge geladen und zum Kraftwerk gefahren werden.

Selbst dann müssen die Holzpellets in gigantischen, nur zu diesem Zweck gebauten Hallen gelagert werden, bevor man sie zu Pulver für den Gebrauch verarbeitet. Dort müssen sie befeuchtet werden, um die Selbstentzündung zu verhindern – wofür Holz 1000 mal anfälliger ist als Kohle.

Das hat bereits zu verheerenden Bränden in anderen Kraftwerken geführt, die zu Biomasse übergegangen sind, wie beispielsweise ein Feuer, das vor Kurzem Schäden in Höhe von Millionen Pfund im Tilbury-Kraftwerk in London angerichtet hat.

Wie Drax einräumt, bedeutet all das, dass die Erzeugung der gleichen Menge Strom aus Holz etwa zwei bis drei mal so teuer ist wie aus Kohle. Das wiederum bedeutet, dass sich die Treibstoffkosten verdoppeln oder verdreifachen werden – so dass es nur eine einzige Maßnahme gibt, um dies möglich zu machen, nämlich massive Subventionen, vermutlich im Wert von über 1 Milliarde Pfund pro Jahr.

Das sind kaum gute Nachrichten für uns Stromverbraucher. Wir haben bereits jetzt erlebt, dass die Rechnungen über 1 Milliarde Pfund pro Jahr gestiegen sind, weil wir gezwungen werden, Windparks zu subventionieren. In den kommenden Jahren, wenn diese riesigen Subventionen an Drax gehen, werden sie sogar noch mehr steigen.

Und doch, während die Verbraucher derartig gebeutelt werden, sind die Minister der Regierung erfreut über die Hinwendung von Drax zu Holzpellets. Grund: Das wird zu einem signifikanten Beitrag führen, die von der EU vorgeschriebenen Ziele zu erreichen, denen zufolge Britannien verpflichtet ist, innerhalb von sieben Jahren fast ein Drittel unseres Stromes aus ‚Erneuerbaren’ zu erzeugen.

Derzeit produzieren wir nur einen Bruchteil hiervon, weit hinter fast allen anderen Ländern in der EU.

Trotz der riesigen Subventionen, die für Windparks ausgegeben worden sind, ist deren Beitrag vernachlässigbar. An einem windstillen Tag in dieser Woche zum Beispiel betrug die generierte Strommenge der 4300 Windturbinen in UK lediglich ein Tausendstel – bloße 29 Megawatt – des Strombedarfs.

Aber wenn die Konversion von Drax zu Biomasse abgeschlossen ist, wird es aus eigener Kraft in der Lage sein, 3500 Megawatt Strom zu erzeugen, verlässlich und kontinuierlich, und mehr als ein Viertel unserer gesamten EU-Ziele hinsichtlich der Verwendung erneuerbarer Energie beitragen.

Die Theorie lautet, dass Drax durch die allmähliche Konversion zu Holz – oder ‚Biomasse’, wie es offiziell heißt – Millionen Tonnen CO2 einsparen wird, das sonst jedes Jahr in die Atmosphäre gelangen würde.

Fragen: Sir Daid King hat der Radiosendung Today auf BBC Radio 4 gesagt, dass er bezweifelt, dass es zu wirklichen Einsparungen an CO2-Emissionen kommen wird, wenn erst einmal der gesamte ‚Lebenszyklus’ der Holzpellets durchlaufen wird.

Und doch stellt uns die unabänderliche Tatsache, dass die Regierung so verzweifelt bestrebt ist, von CO2 emittierenden fossilen Treibstoffen wegzukommen, vor eine andere verheerende und viel unmittelbarere Konsequenz ihrer Energiepolitik.

In diesem Monat werden mehrere unserer verbleibenden Kohlekraftwerke geschlossen. Kraftwerke wie Kingsnorth in Kent, Didcot A in Oxfordshire und Cockenzie in Schottland (in der Lage, fast 6000 Megawatt Strom pro Jahr zu generieren – ein Siebentel unseres mittleren Bedarfs) werden die Erzeugung einstellen als Folge der Anti-Verschmutzungs-Direktive der EU. Dies bedeutet, dass wir schon bald abhängiger denn je von teuren Gaskraftwerken sein werden, wenn die Lichter in UK nicht ausgehen sollen.

Das Problem ist, dass unsere Gasversorgung immer prekärer wird. Erst diese Woche hat man uns gesagt, dass UK nur noch für zwei Wochen über Gasvorräte verfügt – der niedrigste Wert jemals.

Unsere einstmals reichlichen Gasvorräte aus der Nordsee sind so schnell dahin geschwunden, dass wir zunehmend abhängig sind von teuren Importen aus Ländern wie Quatar und Algerien sowie in geringerem Ausmaß Russland – Vorräte, auf die wir uns nicht notwendigerweise zu einer Zeit verlassen können, in der die Weltnachfrage nach Gas stark steigt.

Warnung: Alistair Buchanan, der demnächst zurücktretende Leiter unseres Energieregulierers Ofgem hat kürzlich davor gewarnt, dass unsere Stromvorräte derzeit so niedrig und so nah am ‚Gefahrenpunkt’ liegen, dass es zu massiven Stromausfällen kommen könnte.

Die Tragödie liegt in Folgendem: Wenn man unseren Politikern wie Ed Davey, dem Minister für Energie und Klimaänderung der Liberal-Demokraten zuhört, ist es nur allzu offensichtlich, dass sie nicht die leiseste Ahnung haben, wovon sie überhaupt reden.

Angesichts dieser Tatsache ist es kaum überraschend, dass Alistair Buchanan, der demnächst zurück tretende Leiter unseres Energieregulierers Ofgem kürzlich davor gewarnt hat, dass unsere Stromvorräte derzeit so niedrig und so nah am ‚Gefahrenpunkt’ liegen, dass es zu massiven Stromausfällen kommen könnte. Einige von uns haben schon seit Jahren davor gewarnt, mussten wir doch die rücksichtslose Kaperung unserer Energiepolitik durch die Umweltaktivisten und ihre Feindschaft gegenüber fossilen Treibstoffen mit ansehen.

Entscheidend ist, was viele Leute vergessen, dass wenn es zu wesentlichen Stromausfällen kommt, wird dies nicht wie während der ‚Drei-Tage-Wochen’ ablaufen, die es in UK Anfang der siebziger Jahre gegeben hat.

Damals hat unser Land es geschafft, damit fertig zu werden, als die Menschen bei Kerzenlicht lebten und arbeiteten oder sich an Kaminfeuern eingekuschelt haben. Aber heute, vierzig Jahre später, leben wir in einer Welt, die fast vollständig von konstanter Stromversorgung abhängt.

Computer steuern alles, von unseren Büros und Fabriken über Registrierkassen und den Tiefkühlern in unseren Supermärkten bis hin zu den Verkehrsampeln und Signalsystemen, die den Verkehr auf Straße und Schiene gewährleisten.

Die Tatsache, dass Drax durch diese lächerlichen Verzerrungen gehen muss, um im Geschäft zu bleiben, ist ein perfektes Symbol des katastrophalen Durcheinanders, in das uns die Politiker aller Parteien gebracht haben.

Es ist alles in Butter für die Minister der Regierung, von Windparks und anderen ‚erneuerbaren’ Energiequellen besessen zu sein, aber Tatsache ist, dass der Wind oftmals gar nicht weht – so dass wir ein stets verfügbares Back-up brauchen, das früher oder später nur noch von Gaskraftwerken gewährleistet werden kann.

Und der Clou, die Ironie über all dem ist, dass das Gas selbst Gegen­stand dieser rapide steigenden neuen Kohlenstoffsteuer ist, weil es wie Kohle ein fossiler Treibstoff ist – obwohl es zugegebenermaßen weniger CO2 emittiert, wenn man es verbrennt.

Die Folge dieses heillosen Durcheinanders einer Energiepolitik ist, dass wir uns einerseits auf ewig steigende Stromrechnungen freuen dürfen, während wir andererseits vor lähmenden Stromausfällen stehen.

Die Tragödie liegt in Folgendem: Wenn man unseren Politikern wie Ed Davey, dem Minister für Energie und Klimaänderung der Liberal-Demokraten zuhört, ist es nur allzu offensichtlich, dass sie nicht die leiseste Ahnung haben, wovon sie überhaupt reden.

Sie leben in einem solchen Wolkenkuckucksheim eines grünen Glaubens, dass sie keinen Kontakt mehr zur Realität haben – und unfähig scheinen, die nationale Energiekrise zu begreifen, die mit der Geschwindigkeit eines Hochgeschwindigkeitszuges auf uns zurollt.

Die Tatsache, dass Drax durch diese lächerlichen Verzerrungen gehen muss, um im Geschäft zu bleiben, ist ein perfektes Symbol des katastrophalen Durcheinanders, in das uns die Politiker aller Parteien gebracht haben – alles im Namen des Versuchs, unseren Planeten zu retten, indem wir unsere CO2-Emissionen weiter und schneller reduzieren als jedes andere Land in der Welt.

Deutschland, das bereits über fünf mal so viele Windturbinen wie UK verfügt, baut jetzt verzweifelt 20 neue Kohlekraftwerke in der Hoffnung, dass die Lichter nicht ausgehen. Das erste, eröffnet im letzten September, generiert bereits 2200 Megawatt; fast so viel wie die mittlere Menge aller Windparks in UK zusammen.

China, schon jetzt der größte CO2-Emittent der Welt, plant 363 neue Kohlekraftwerke zu bauen, ohne jede Rücksicht auf die riesigen Emissionen, die daraus resultieren.

Indien ist dabei, 455 neue Kohlekraftwerke zu errichten, um eine Wirtschaft mit Energie zu versorgen, die so schnell wächst, dass sie bald unsere eigene Wirtschaft überholen könnte.

Falls diese Länder geruhen zu bemerken, wohin wir in UK steuern, wo wir in dieser Woche eine weitere unserer Handvoll verbleibenden Kohleminen verloren haben, werden sie Schwierigkeiten haben, ein ungläubiges Lächeln zu unterdrücken.

Aber die traurige Wahrheit lautet, dass wir selbst weder lachen noch weinen sollten. Wir sollten uns in Protest erheben, mit echter Wut, gegen jene Politiker, deren kollektive Flucht aus der Realität uns rasant in eine so verheerende Krise führt, wie es dieses Land noch nie erlebt hat.

  • Christopher Booker’s The Real Global Warming Disaster is published by Continuum at £11.99.

Read more: http://www.dailymail.co.uk/news/article-2290444/Madness-How-pay-billions-electricity-bills-Britains-biggest-power-station-switch-coal-wood-chips–wont-help-planet-jot.html#ixzz2NM803bk3

Fuel bills will keep soaring warns energy watchdog: Green targets could trigger 1970s-style power blackouts

The crazy climate change obsession that’s made the Met Office a menace

So much for global warming! Four out of the last five winters have been COLDER than average

So much for global warming! Four out of the last five winters have been COLDER than average

Follow us: @MailOnline on Twitter | DailyMail on Facebook

Link: http://www.dailymail.co.uk/news/article-2290444/Madness-How-pay-billions-electricity-bills-Britains-biggest-power-station-switch-coal-wood-chips–wont-help-planet-jot.html

Soweit dieser Artikel von Booker. Wie eingangs schon erwähnt, hat auch die Journalistin Donna Laframboise dazu Stellung geommen, und zwar folgendermaßen:

Grün zu sein ist nicht harmlos

Donna Laframboise

Wir alle sorgen uns um die Umwelt. Aber jetzt gehen wir auf närrische Extreme zu. Und reale Menschen kommen zu Schaden.

In Gesprächen mit Alt und Jung begegnete mir immer wieder das gleiche Thema. Vielleicht habe ich versucht zu erklären, warum ein spezieller grüner Vorschlag unsinnig ist, sobald unbegründete Hypothesen von harten Fakten getrennt werden. Vielleicht habe ich erwähnt, dass grüne Aktivisten mich alarmieren, weil sie nicht gewählt und unberechenbar sind.

Die fahrlässige Position, auf die gute, solide Personen mit den besten Absichten gewöhnlich zurück fallen, lässt sich so zusammenfassen: „Nun, ich glaube, es ist wichtig, die Umwelt zu schützen.“

Ja, wir alle lieben die Umwelt. Als Gärtnerin und Fotografin gibt es nur wenige Dinge, die mich mehr erfreuen als gesundes, frisches Grün.

Aber im Bereich der Politik gebrauchen Leute, die behaupten, für die Umwelt zu kämpfen, dies oft als Deckmantel für etwas anderes. Sie versuchen, uns an den Vegetarismus zu verkaufen. Sie glauben, dass der Kapitalismus hinweg gefegt werden muss. Sie hängen der Nostalgie einer einfacheren Existenz nach Art des Gartens Eden an.

Sie versuchen, sich selbst davon zu überzeugen, dass sie Superhelden sind, die den Planeten retten, und nicht normale Arbeiter.

Oder sie zahlen einfach die Rechnungen, die ihre eigene Maschinerie füttern. All die Anwälte als Mitarbeiter großmächtiger Grüner kosten Geld. All diese Gelder für Büros in vielen Ländern sind nicht billig.

Wenn die Leute sagen, dass es wichtig ist, die Umwelt zu schützen, müssen mir mit Nachdruck antworten: Ja, aber jetzt kommen wir zu idiotischen Extremen. Und wirkliche Menschen kommen zu Schaden.

Kürzlich hat Christopher Booker, dieser bilderstürmende Großpapa aller Zeitungskolumnisten in UK, den [oben übersetzten] Essay geschrieben.

Das ist ein Knüller. Es ist genau die Art von Essay, die wir brauchen, um zurechtzukommen, weil er ohne jeden Zweifel klarmacht, dass Regierungen dabei sind, verrückte Dinge im Namen des Umweltschutzes zu tun.

In diesem Beispiel versucht man in UK, Emissions-Reduktionsziele zu erreichen – ebenso wie solche hinsichtlich erneuerbarer Energie. Daher wird das größte Kohlekraftwerk des Landes während der kommenden Jahre statt Kohle mehr und mehr Holzpellets verbrennen.

In dieser kühnen neuen Welt, die wir im Bestreben, unsere Umwelt zu retten erschaffen haben, wird Holz „Biomasse“ genannt. Grüne Genies haben beschlossen, dass das CO2, das bei der Holzverbrennung entsteht, gar nicht zählt. Sie haben eine magische Wand errichtet und beschlossen, dass es gar nicht existiert. Wie Booker erklärt:

Biomasse wird als ‚nachhaltig‘ angesehen, weil sie vermeintlich bei der Verbrennung nur genauso viel Kohlendioxid in die Atmosphäre entweichen lässt, wie es vorher während der Wachstumsphase der Luft entzogen hat.

Man nehme diesen Bilanztrick und füge die Bürokratie hinzu, dass Holz gut ist, weil es eine „erneuerbare“ Energiequelle ist und Bingo! wir kommen genau dorthin, wo UK sich heute befindet. Nach Bookers Worten werden die meisten der in UK verbrannten Holzpellets von Bäumen aus Wäldern stammen, die 4600 Quadratmeilen in den USA bedecken, von wo sie 3000 Meilen über den Atlantik bis nach UK verschifft werden.

Wie in aller Welt kann dass auch nur ansatzweise sinnvoll sein, wenn wir gedrängt werden, unseren persönlichen Kohlenstoff-Fußabdruck genau zu verfolgen?

Obendrein stellt sich heraus, dass riesige Haufen von Holzpellets ein signifikantes Risiko der Brandentstehung darstellen (die Industrie nennt das „spontane Entzündung” oder „spontane Verbrennung“). Und habe ich schon erwähnt, dass jeder weiß, dass obiger Plan die Stromrechnung des Normalbürgers verdoppeln wird?

Die britische Regierung – verantwortlich für das Erlassen der Regeln und Regulierungen, die uns in diese Lage gebracht hat – ist vom Wege abgekommen. Sie zwingt jetzt Energieunternehmen, unglaublich dumme Sachen zu machen im Namen, grün zu sein. Sie spielt Spielchen mit einem Grundpfeiler, auf dem Leben und Arbeitsplätze ruhen.

Eine Verdoppelung der Stromrechnungen wird Pensionäre schädigen, ebenso wie verarmte Kinder. Sie wird Arbeitsplätze vernichten. In dem man auf diese Weise Härten auf Härten stapelt und so tut, dass normale Menschen nicht wirklich leiden werden, ist moralisch nicht zu vertreten.

Nicht einmal im Namen, die Umwelt zu schützen.

Link: http://nofrakkingconsensus.com/2013/03/11/being-green-isnt-harmless/

Beides übersetzt von Chris Frey EIKE




Wieder beim Schummeln erwischt

Wieder ein Beweis, dass der neue "Hockeyschläger" Schrottwissenschaft ist.

Von Steven Goddard

Vor zehntausend Jahren war der größte Teil Kanadas vereist. Dadurch wurde der Großteil des einfallenden Sommer-Sonnenlichts zurück ins All reflektiert mit der Folge eines starken Abkühlungseffekt auf die Erde. Das steht so völlig richtig im 1990er Zustandsbericht des IPCC (First IPCC report). Die Temperatur soll etwa 4C Grad niedriger als das Holozän-Maximum gewesen sein.

 

Doch der neue “Hockeyschläger” zeigt die Temperaturen vor 10.000 Jahren als innerhalb 0,1C Grad des Holozän-Maximums liegend. Das macht keinen Sinn und es ist auch unmöglich. Die riesige Eismasse muss den Planeten sehr kalt gehalten haben.

 

Es kommt aber noch schlimmer: Die latente Wärme des schmelzenden Eises hatte auch einen riesigen Kühlungseffekt. Im Zeitraum zwischen vor 10.000 und 8.000 Jahren ist das meiste Eis geschmolzen. Das hat die Energiebilanz beherrscht und die Lufttemperaturen sehr kühl gehalten.

 

Darüberhinaus wies Paul Homewood darauf hin, dass die Eisschmelze in das Meer geflossen sein muss, die Meeresoberflächentemperatur dabei abgekühlt und den Abkühlungseffekt noch verstärkt hat.

 

So besteht für den neuen „Hockeyschläger“ eine „Null-Wahrscheinlichkeit“ richtig zu sein – weil gegen einige physikalische Grundgesetze verstoßen wird. Die Temperaturen vor 10.000 Jarhen können niemals so dicht am Holozän-Maximum gelegen haben.

Original hier




Aus Erwärmung wird Abkühlung und wieder Erwärmung- Temperaturdaten von Mallorca: Original vs. NASA-GISS

Dies lässt sich jetzt feststellen, denn der Vergleich mit den Originaldaten der Station Palma de Mallorca ist inzwischen möglich. Palma de Mallorca wurde ausgewählt, weil der Unterschied zwischen den von NASA-GISS im März 2010 und im März 2012 publizierten Daten bzw. deren Temperaturganglinien größer nicht sein kann – eine Abkühlung war in eine Erwärmung umgewandelt worden. Nach der ersten Kontaktaufnahme mit der Agencia Estatal de Meteorología und einigem Schriftverkehr wurden die Daten zugesandt, die 1879 beginnen. Das erste und vierte Datenblatt sind auszugsweise in Abb. 1 dargestellt.

Abb. 1: Originaldaten der Station Palma de Mallorca, Auszug aus den Blättern 1 und 4

Die Mittelwerte ergeben die in Abb. 2a, oben, dargestellte AEMet-Ganglinie; die insgesamt eine leichte Erwärmung anzeigt ( 0,0083°C/a), wobei Abkühlungs- und Erwärmungsphasen miteinander abwechseln, wie das die Ganglinien der meisten Stationen für das 20. Jahrhundert anzeigen. Im Unterschied dazu zeigt die GISS-Ganglinie von März 2010 insgesamt eine Ab­kühlung  an, nämlich -0,0076°C/a (Abb. 2a, unten). Dieser Unterschied beweist, dass es sich schon bei den 2010-Daten nicht mehr um die Originalaufzeichnungen handelt.

Abb. 2a:  Temperaturganglinie Palma de Mallorca, basierend auf den Originalda­ten der Station (oben), und den modifizierten NASA-GISS-Daten vom März 2010

 

 Während die Daten vom März 2010 eine Abkühlung anzeigen, wurde mit den Daten vom März 2012 eine Trendumkehr begonnen, denn die zusätzlich in Abb. 2b und Abb. 2c darge­stellten Ganglinien, deren Datensätze NASA-GISS zwischen März 2010 und Dezember 2012 veröffentlicht hat, geben nun eine Erwärmung an, und zwar im unterschiedlichen Ausmaß, denn sie beträgt

  • im März 2012:       0,0074°C/a
  • im August 2012:    0,0051°C/a,
  • im Dezember:        0,0102°C/a

Da die Änderungen vom August und vom Dezember eher zufällig entdeckt wurden, ist nicht auszuschließen, dass zwischenzeitlich noch andere Stadien publiziert worden sind, die nur nicht erfasst wurden.

In Anbetracht der im eingangs genannten Bericht analysierten Beispiele von 120 Stati­onen, deren Daten alle und mehrfach verändert  worden sind,  ist wohl anzunehmen, dass es sich bei der Station Palma de Mallorca nicht um einen Einzelfall handelt. Es ist eher wahrscheinlich, dass dieses Beispiel eine gängige Praxis widerspiegelt.

Es ist aufschlussreich, dass NASA-GISS in den letzten Monaten weder Ganglinien noch Da­tensätze anzeigt, und dass von 25 der 120 analysierten Stationen zwar die Ganglinien gezeigt werden, aber nicht mehr die Datensätze der Monats- und Jahresmittelwerte.

Abb. 2b:  dto., Ganglinien der Daten vom März 2012 und vom August 2012

 

Abb. 2c:  dto.: Ganglinie der Daten vom Dezember 2012

 

 Die NASA-GISS-Temperaturdaten wurden nicht nur zwischen März 2010 und März 2012 sondern auch im Laufe des Jahres 2012 verändert, und auch in 2013 wird dies fortge­setzt, wie das in Abb. 3 dargestellte Beispiel der Station Alice Springs zeigt: im März 2013 wurde schon wieder eine völlig andere Ganglinie angegeben als im Au­gust/September 2012. 

Abb. 3: NASA-GISS-Ganglinien für Alice Springs, angeboten im August/September 2012 (links)  und März 2013 (rechts)

 

Im eingangs genannten Bericht wurden für die mit der Datenänderung erreichte stärkere Er­wärmung noch nicht die Mittelwerte und die Häufigkeitsverteilung behan­delt. Sie sind hier in Abb. 4 dargestellt, die Häufigkeitsverteilung in Form ihrer Summenli­nien.  Sie zeigen, dass mit den Veränderungen der Daten in ca. 90% der analysierten 120 Stationen nahezu eine Ver­dopplung der vorgetäuschten Erwärmung erreicht wurde.

Abb. 4:   Mittelwerte der Erwärmungen und Häufigkeitsverteilung  der Jahresänderungsraten

Folgerungen

Das Beispiel Palma de Mallorca lässt vermuten, dass auch die 2010-Daten anderer Stationen bereits vorher verändert worden sind. Nur die Vergleiche mit den Originaldaten möglichst vieler Stationen würden eine Abschätzung erlauben, in welchem Maße dies geschehen sein könnte.  Ein solcher Vergleich ist jedoch mangels Verfügbarkeit der Originaldaten praktisch nicht möglich. Die 2010-Daten sind folglich als Ba­sis für weitergehende quantitative Aus­wertungen nicht geeignet, denn zuverlässige Ergebnisse dürfen nicht erwartet werden.  Nun hat die Analyse der 120 Stationen gezeigt, dass die modifizierten Daten eine größere Erwär­mung vortäuschen. Dementsprechend ist zu vermuten, dass dies auch schon die Veränderun­gen vor 2010 bewirken sollten und erreicht haben. Das Ausmaß lässt sich mit dem vorhande­nen Kenntnisstand allerdings nicht quantifizieren.

Friedrich-Karl Ewert EIKE




Ökoethik: Legt den Menschen Daumenschrauben an, die Eisberge bluten

Die Kolumne zielt primär auf eine ganz bestimmte Person, einen Senator der Demokraten namens Michael Bennet. Die Überschrift lautet: Has Sen. Bennet really thought about immigration? [etwa: Hat Sen. Bennet wirklich über Einwanderung nachgedacht?]. In der Kolumne finden sich Aussagen wie diese:

Die USA sind auf dem Weg einer gewaltigen Bevölkerungszunahme im 21. Jahrhundert… Es ist unklar, wie eine solche Zunahme in einer ökologisch nachhaltigen Weise bewältigt werden kann.

…man mache keinen Fehler: Die Immigranten kommen nicht in die USA, um arm zu bleiben. Diese Hunderte Millionen neuer Staatsbürger werden genauso leben und Energie in gleicher Menge verbrauchen wollen wie andere Amerikaner auch.

…welche die Klimaänderung abschwächenden Maßnahmen plant Sen. Bennet, um die eventuell zunehmenden Treibhausgasemissionen auszugleichen, zu denen es unweigerlich kommen wird, wenn wir unserer Bevölkerung 145 Millionen neue Staatsbürger hinzufügen würden?

…warum sollten die Bewohner Colorados Solarpaneele auf ihre Dächer schrauben … oder irgendeine andere der 1001 Maßnahmen durchführen, die Umweltaktivisten üblicherweise fordern, um der Klimaänderung zu begegnen, wenn unsere gewählten Funktionäre diese Bemühungen einfach zunichte machen, indem sie Hunderte Millionen neuer Menschen in unser Land lassen? (Hervorhebung hinzugefügt; backup link]

Robert Zubrin kritisiert diese verstörenden Gedanken hier unter Verweis darauf, dass Cafaro im Grunde sagt, dass „die Armen dieser Welt in Armut gehalten werden müssen, wo immer sie wohnen, weil sie anderenfalls das Wetter für die Übrigen von uns ruinieren werden“.

Diese Art Logik führt uns zu einigen Angst erzeugenden Überlegungen. Falls die Verbesserung der Lebensumstände dieser Menschen schlecht für die Umwelt ist, was hält die Regierungen der Welt dann davon ab, aktiv danach zu streben, die Armen arm zu halten? Und wie können wir gegen die Regierungspolitik vorgehen, die uns aus freien Stücken alle verarmen lässt?

Wenn zu viele Menschen das Problem sind, warum liefern wir dann jemanden in das Krankenhaus ein, anstatt ihn abtreten zu lassen? Warum schicken wir Hilfe an Länder, die von Naturkatastrophen betroffen sind? Ja, warum geben die Regierungen nicht etwas in das Trinkwasser, hier und anderswo, was ganze Populationen unfruchtbar macht?

Die Denver Post informiert ihre Leser am Ende der Kolumne, dass Philip Cafaro (philip.cafaro@colostate.edu) Professor der Philosophie an der Colorado State University in Fort Collins ist.

Aber er ist nicht einfach ein obskurer Professor. Vielmehr ist er Präsident einer sich ausdrücklich politisch nennenden Organisation namens Progressives for Immigration Reform. Die Titelseite ihrer ölig-schmierigen Website ziert gegenwärtig u. A. diese Graphik:

Verbrauch sind schlechte Nachrichten. Wachstum ist schlechte Nachrichten. Mehr Menschen sind schlechte Nachrichten. Also spenden Sie und werden Sie jetzt aktiv!

Aber Moment, es wird noch schlimmer! Es stellt sich heraus, dass Cafaro auch Präsident der International Society for Environmental Ethics ist. Ich bausche das nicht auf.

Man betrachte das Bild oben rechts. Es zeigt, dass die Website dieser Gesellschaft an hervor gehobener Stelle eine Fotografie von Eis zeigt. Außer dass das Foto manipuliert worden ist, so dass Teile des Eises blutrot erscheinen.

Nun, ich habe eine Botschaft für Professor Cafaro: Ich habe noch nie einen Eisberg bluten sehen. Aber ich weiß, dass Menschen bluten.

Ist es das, wozu sich teure Ausbildung dieser Tage aufschwingt? Die uns zu überzeugen trachtet, dass Eisberge wichtiger sind als leidende Menschen? Und moralisch widerliche Gedanken als ethisch zu bezeichnen?

Link: http://nofrakkingconsensus.com/2013/02/25/eco-ethics-screw-humans-the-icebergs-are-bleeding/

Übersetzt von Chris Frey EIKE




Die radioaktive Verstrahlung in Fukushima: Kerngedanken

Natürlich ist nicht entscheidend, was formal noch möglich ist, sondern was man zu verstehen geben will. Das Vorgehen der betreffenden TV-Redakteure ist menschenverachtend, weil unschuldige Opfer einer Naturkatastrophe für politische Agitation gegen die Kernkraft missbraucht werden. Bei einem solch sensiblen Thema wie der Kernkraftnutzung zeigt das unverkennbar vorsätzliche Vermeiden einer klaren, unmissverständlichen Formulierung, dass die o.g. Zuschauermeinung zutrifft. Die kurze Nennung des Unterschieds zwischen Tsunami (16.000 Tote) und der Kernkraftwerkshavarie (kein einziger Strahlentoter) hätte genügt.  Deutsche TV-Redakteure mögen vielleicht schlecht ausgebildet sein, dass sie aber die Fehlerhaftigkeit von Sätzen nach sprachlich-logischen Unsinnsmustern wie etwa „In 2011 hat der deutsche Straßenverkehr und die grünen Parteitage 4000 Tote gefordert“, nicht zu erkennen vermögen, nimmt ihnen niemand ab. Auch bei Vertragsabschlüssen ist die Willensbekundung entscheidend, nicht eine verdreht konstruierte formale Korrektheit. Vielleicht findet sich ja doch einmal ein kundiger Medienkonsument, der gegen solche Manipulationen des Zuschauers rechtliche Schritte versucht. Auf demokratisch politische Kontrolle und das konsequente Abstellen solcher redaktionellen Durchstechereien zu hoffen ist angesichts der politischen Aufsichtsräte in den öffentlich rechtlichen Rundfunkanstalten wohl sinnlos.

Ebenfalls ohne Polemik darf auch die Einschätzung vieler Zuschauer dieser öffentlich-rechtlichen Sendungen gegen die Kernenergie erwähnt werden, sie unterschiede sich in ihren Täuschungsmethoden kaum noch von denen in der Berichterstattung der ehemaligen DDR und einem noch früheren Zwangssystemen in Deutschland. Insbesondere ältere Zuschauer mit einschlägiger Erfahrung sehen hier Gemeinsamkeiten. In diesem Zusammenhang zur Erinnerung: die öffentlich rechtlichen TV-Sender haben einen Bildungsauftrag und sind zur wahrheitsgemäßen Berichterstattung verpflichtet! Man mag dies kaum mehr glauben.

Aller Protest nützt freilich nichts, denn die grün dominierten deutschen Medienredaktionen richten sich zielgenau nach dem Faktum „nicht die Wahrheit sondern der Zähler zählt“, und sie haben damit Erfolg. Tatsächlich riskiert man heute in manchen deutschen Kneipen schon Schläge, wenn man lautstark die Wahrheit aussprechen würde, dass Tschernobyl 28 direkte Strahlenopfer (davon 19 enthalten, bei denen kein unmittelbarer Zusammenhang mit der Havarie nachweisbar war) und Fukushima kein einziges Strahlenopfer gekostet hat (hier und hier).

Vielleicht ist aber die Empörung der besser informierten Zuschauer und das Bestehen auf den Fakten nicht der richtige Weg. Vielleicht ist Satire, in der die Wahrheit verpackt ist, besser. So geschehen im Blog „kerngedanken.de“, auf den ich durch mehrere EIKE-Kommentare aufmerksam wurde (Dank an die betreffenden Kommentatoren). Der Beitrag „Die Welt nach Fukushima – Teil 1: gefährliche Orte“ ist sachlich völlig korrekt und zudem so hübsch geschrieben, dass ich umgehend den Autor kontaktierte und seine freundliche Genehmigung für das zitieren bzw. posten dieses Beitrags in EIKE erhielt. Er ist bis auf geringfügige Korrekturen im Text unverändert wiedergegeben. Genießen Sie den kleinen Aufsatz, er hat es in sich! In Kürze folgt der zweite Teil „Undemokratische Berufe“.

Prof. Dr. Horst-Joachim Lüdecke, EIKE Pressesprecher

Artikel von „Kerngedanken

Die Welt nach Fukushima – Teil 1: Gefährliche Orte

2013-03-11 22:03:39   Paul Schoeps

Letzten Dienstag zeigte Arte “Die Welt nach Fukushima” von Kenichi Watanabe. Darin geht es zwar nicht um die Welt, sondern nur um Japan, wir haben uns die Dokumentation trotzdem angesehen. Um es vorweg zu nehmen, die Doku hat es so sehr in sich, dass wir uns in mehreren Teilen mit der Auswertung befassen werden. Teil 1 befasst sich mit der Radioaktivität vor Ort.

Ich habe mir die Sendung angesehen und sie hat mir wahrlich die Augen geöffnet. Beängstigend und bedrückend sind die Bilder der Dosimeter, unter deren Joch die Bevölkerung nun lebe (Originalton).

Mehrmals werden verschiedene Dosimeter gezeigt, die in den Gebieten um Fukushima aufgestellt wurden. In der unbewohnbaren Todeszone, werden 0,852µSv/h (Mikrosievert pro Stunde) angezeigt. In einer evakuierten Geisterstadt gar 1,139 µSv/h.

Bild 1: Dosimeter in einer japanischen Geisterstadt die wegen der Reaktorkatastrophe von Fukushima aufgegeben werden musste (Ausschnitt aus“ Die Welt nach Fukushima”).

Schlimm ist das Schicksal derer, die am Rande der verseuchten Zone leben. In einem nicht genannten Dorf am Rand der Berge, liegt die Strahlung bei 0,338 µSv/h. Das Dorf wurde nicht evakuiert. Die besorgte Leiterin einer Kindestagesstätte berichtet, sie würden täglich diskutieren wie sie mit der Strahlung umgingen. Sie hätten sich geeinigt, die Kinder eine halbe Stunde am Tag nach draußen zu lassen. Besonders hilflos wirkt die Aufstellung wassergefüllter Flaschen als Strahlenschutz.

Diese Zahlen und diese Geschichten haben mich tief bewegt. 1,139 µSv/h in der Todeszone. Gut, dass diese Gebiete evakuiert wurden.

Würde man dasselbe Dosimeter in der Stadt Guarapari in Brasilien aufstellen, würde es etwa 20 µSv/h anzeigen, also etwa die 17 fach höhere Radioaktivität von Fukushima (hier und hier). Guarapari hat etwas über 100’000 Einwohner. Das sind etwa so viele wie sie aus der Region von Fukushima evakuiert wurden. Die Stadt erhielt diese hohe radioaktive Strahlung aber nicht durch einen katastrophalen Unfall, sondern durch natürliche Quellen.

Bild 2: Todeszone Guarapari. Die Strahlung in dieser Stadt ist 17 mal so hoch wie in den evakuierten Ortschaften der Präfektur Fukushima.

Jetzt, da die hohen Strahlenwerte bekannt sind, haben wir die brasilianische Regierung sofort informiert. Bestimmt ordnete die brasilianische Regierung so bald wie möglich die Evakuierung der Stadt an. Zwar hat die 1679 gegründete Stadt im Vergleich zum Rest Brasiliens keine erhöhten Raten von Krebs, Geburtsdefekten oder anderen Erkrankungen, aber das lässt sich nur mit der bisherigen Unwissenheit über die Höhe der Strahlung erklären.

Bild 3: Guarapari, bald eine Geisterstadt. Die brasilianische Regierung lässt die Stadt wahrscheinlich schleunigst räumen.

Ein Bewohner von Guarapari äußerte sich gegenüber Kerngedanken: „Ich habe gar nicht gewusst, in welcher Todesfalle ich lebe. Jetzt möchte ich nichts wie weg hier.“ Ein anderer: „Jetzt weiß ich endlich wieso mein 98-jähriger Großvater sterben musste.“

Um den zu erwartenden Strahlentoten Herr zu werden, errichtet die brasilianische Regierung jetzt Notlager auf den freien Flächen der Stadt, jedenfalls können wir die dramatischen Bilder nur so interpretieren.

Bild 4: Notkrankenhäuser unter freiem Himmel, in Guarapari errichtet, um der Menge verstrahlter Bewohner Herr zu werden. Hilflos wirken die Versuche sich mit Sonnenschirmen vor der Radioaktivität zu schützen.

Wem das Schicksal von Guarapari nah geht, sollte schnell eine Reise buchen und bei den Evakuierungsarbeiten helfen. Informationen über Flug und Unterkunft findet man hier:

www.booking.com/Guarapari-Hotels  und bei Trip Advisor (Der Name Trip Advisor spielt auf den Horrotrip an, den so eine humanitäre Aktion bedeutet).

Über die Notunterkunft „Hotel Atlantico Guarapari “ schreibt der schockierte JOFH_Review: „Durchschnittliches Hotel, ausgezeichnete Lage – Dieses Hotel befindet sich im Herzen der Stadt, zwischen Castanheiras Strand und Virtudes Strand gelegen.” Worte, die einen nachdenklich machen. Und er fügt niederschmetternd hinzu: “Seine Lage ist Supreme. Das Hotel selbst ist etwas veraltet. Die Zimmer könnten eine Renovierung vertragen.”

Und über das Hotur Hotel schreibt BIA S.: „Atendimento mt bom, hotel simples precisando de uma reforma, porem limpo, café da manhã bem farto e gostoso.” Und vergibt eine gnädige Gefahrenwertung von 3/5. Wer könnte es ihr verübeln?

Doch über all das Elend dieser Todesfallen dürfen wir nicht vergessen, dass es die Bewohner anderer Regionen ähnlich hart, wenn nicht noch härter trifft. In dem unbenannten japanischen Dorf aus dem Dokumentarfilm bedrohen 0,338 µSv/h das Leben der Bewohner (entspricht etwa 3 mSv/a). Eine halbe Stunde Aufenthalt im Freien für die Kinder des Dorfes, mehr darf es nicht sein. Das Schicksal dieses Dorfes teilen aber auch noch andere Regionen auf der Welt.

In den radioaktiv schwer belasteten Notstandsgebieten von Rom und London zeigen die Dosimeter mit jeweils etwa 0,25 µSv/h (2,2 mSv/a) nur wenig niedrigere Strahlungswerte.

Kerngedanken möchte daher nicht mehr tatenlos mit ansehen, wie Radioaktivität das Leben unserer Kinder zerstört.

Hier darum eine Karte mit unseren Evakuierungsempfehlungen für Europa, basierend auf den leidvollen Erfahrungen in Fukushima

Bild 5: Evakuierungsgebiete in Europa auf Grund zu hoher radioaktiver Strahlung (Kartenquelle hier).

Autor Paul Schoeps; zuerst erschienen bei Kerngedanken