1

Kommentare zum UKMO-Bericht über „die gegenwärtige Pause bei der globalen Erwärmung“

Das UKMO wiederholt hier immer die gleichen ausgelatschten Entschuldigungen. Als Folge spricht dieser Bericht Themen an und präsentiert Daten, um die es schon in früheren Beiträgen gegangen war. Mit anderen Worten, Teile des Folgenden sind einfach wiedergekäute Themen, über die wir früher schon gesprochen haben. Und wie ich es in meinen Beiträgen immer mache, habe ich mir das Beste zum Schluss aufgehoben: Ich glaube nicht, dass das UKMO eine Verlangsamung des ozeanischen Wärmegehaltes während des letzten Jahrzehnts oder so zeigen wollte, oder seit Anfang dieses Jahrhunderts, aber genau das haben sie getan.

Die Executive Summary lautet (Fettdruck von mir):

Eine große Zahl beobachteter Klima-Indikatoren zeigt unverändert Änderungen, die mit einer sich global erwärmenden Welt und mit unserem Verständnis, wie das Klimasystem funktioniert, konsistent sind

Die globale Temperatur ist seit den siebziger Jahren rapide gestiegen, seit den letzten 15 Jahren bis zum Jahr 2013 aber relativ flach verlaufen. Dies hat zu Spekulationen geführt, dass die vom Menschen verursachte globale Erwärmung nicht mehr im Gange ist, oder dass der menschliche Einfluss zumindest geringer ist als vorhergesagt. Andere halten dies für einen vorübergehenden Stillstand und glauben, dass die Temperatur erneut mit den zuvor beobachteten Raten steigen wird.

Diese Studie ist der erste in einer Reihe von drei Berichten des Met. Office Hadley Centre, der auf den jüngsten Stillstand hinsichtlich der globalen Erwärmung eingeht und danach trachtet, die folgenden Fragen zu beantworten. Wie lagen die Trends anderer Indikatoren des Klimas während dieser Periode; was verursacht zum größten Teil den gegenwärtigen Stillstand, und in welchem Umfang beeinflusst der gegenwärtige Stillstand unsere Projektionen des zukünftigen Klimas?

Die Wetter- und Klimawissenschaft gründet sich auf das Beobachten und Verstehen unserer komplexen und sich entwickelnden Umwelt. Die fundamentalen physikalischen Gesetze des Systems Erde bilden die Basis für die Entwicklung numerischer Modelle, welche unser Verständnis des Gesamt-Klimasystems einschließen (d. h. Atomsphäre, Ozean, Land und Cryosphäre). Sie gestatten uns, Projektionen seiner Entwicklung anzufertigen.

Es ist daher eine inhärente Notwendigkeit, dass die Klimawissenschaftler über die bestmöglichen Informationen des gegenwärtigen Klimastatus’ und über den historischen Zusammenhang verfügen. Dies erfordert sehr genaue, global verteilte Beobachtungen, Monitoring-Systeme und Netzwerke. Erforderlich sind auch eine belastbare Datenverarbeitung und Analysen, um riesige Datenmengen zu erfassen. Außerdem muss man Beobachtungs-Unsicherheiten berücksichtigen, sowohl durch Grenzen der Messbarkeit als auch durch Lücken in den Beobachtungen, sowohl räumlich als auch zeitlich. Nur mit angemessener Sorgfalt und dem Anbringen rigoroser, unverzerrter wissenschaftlicher Hypothesen können Klimawissenschaftler das vollständigste Bild des Zustands zeigen, ebenso wie Trends sowie die Variabilität der vielen Variablen des Klimasystems. Dies bildet die Basis, auf der die Beweise und die von den Verbrauchern geforderte Beratung beruhen.

Dieses Dokument präsentiert eine kurze Synthese dieses globalen Bildes, wie es heute aussieht. Ein umfangreicheres Briefing wird in Zusammenarbeit mit einer großen Zahl von Wissenschaftlern jedes Jahr erstellt und in einem Special Supplement im Bulletin of the American Meteorological Society (BAMS) (Blunden and Arndt, 2013) veröffentlicht.

Die Beobachtungen zeigen:

Eine große Anzahl von Klimafaktoren zeigt weiterhin Änderungen. Zum Beispiel gibt es einen beobachteten fortgesetzten Rückgang des arktischen Meereises und einen Anstieg des globalen Meeresspiegels. Diese Änderungen sind mit unserem Verständnis konsistent, wie das Klimasystem auf den zunehmenden atmosphärischen Gehalt von Treibhausgasen reagiert.

Die globalen Temperaturen bleiben hoch, wobei das letzte Jahrzehnt das wärmste jemals war.

Zwar sieht es so aus, als ob sich die Rate der Erwärmung während dieses Jahrzehnts merklich verlangsamt hat, doch gab es derartige Phasen auch schon für ein Jahrzehnt oder so in der Vergangenheit in den Beobachtungen. Sie werden in den Klimamodellen simuliert, in denen es vorübergehende Ereignisse sind.

Soweit UKMO. Wir werden im Folgenden jeden fett gedruckten Punkt ansprechen.

DER STILLSTAND IST UNGEWÖHNLICH IN EINER WELT, VON DER MAN GLAUBT, DASS EINE ERWÄRMUNG DURCH TREIBHAUSGASE SEIT MITTE DER SIEBZIGER JAHRE DOMINIEREND WAR.

Beginnen wir mit dem letzten Absatz der Executive Summary:

„Zwar sieht es so aus, als ob sich die Rate der Erwärmung während dieses Jahrzehnts merklich verlangsamt hat, doch gab es derartige Phasen auch schon für ein Jahrzehnt oder so in der Vergangenheit in den Beobachtungen. Sie wird in den Klimamodellen simuliert, in denen es vorübergehende Ereignisse sind“.

Es scheint, dass das UKMO eine ganze Reihe von Punkten übersehen hat. Erstens hat das IPCC etwas präsentiert, von dem es behauptet, dass es auf Klimamodellen basierende Beweise sind, dass nur vom Menschen emittierte Treibhausgase die Erwärmung der letzten 30 Jahre hervorgerufen haben können. Man schaue in die Präsentation und die Diskussion der Abbildung 9.5 im 4. Zustandsbericht. Sie wird hier als Abbildung 1 reproduziert. Sie stammt aus Kapitel 9: Understanding and Attributing Climate Change, und zwar im Abschnitt mit der Überschrift „9.4.1.2 Simulations of the 20th Century”.

Der begleitende Text der IPCC-Abbildung 9.5 lautet:

„Abbildung 9.5 zeigt, dass Simulationen, die den anthropogenen Antrieb einbeziehen einschließlich zunehmender Treibhausgas-Konzentrationen und der Auswirkungen von Aerosolen sowie auch natürlicher externer Antriebe eine konsistente Erklärung für die beobachtete Temperaturaufzeichnung bieten, während Simulationen, die ausschließlich die natürlichen Antriebe betrachten, die beobachtete Erwärmung der letzten drei Jahrzehnte nicht zeigen.“

Das IPCC wollte die Völker der Welt – und noch wichtiger, die Gesetzgeber – glauben machen, dass nur anthropogene Treibhausgase die Erwärmung seit Mitte der siebziger Jahre erklären können.

Dann zeigten sie den vorhergesagten Anstieg der globalen Temperatur basierend auf Projektionen des zukünftigen Antriebs durch Treibhausgase. Dies haben sie illustriert in Abbildung 10.4 im AR4, die hier als Abbildung 2 reproduziert wird:

Jetzt sagt das UKMO, dass „solche Verlangsamungen für ein Jahrzehnt oder so bereits in vergangenen Beobachtungen aufgetaucht waren und in den Klimamodellen simuliert werden, wo sie vorübergehende Ereignisse sind“. Es gibt in Abbildung 2 keine Jahrzehnte langen Pausen der projizierten globalen Temperatur für die Szenarien A2, A1B oder B2. Die globalen Temperaturen reagieren jedoch ähnlich auf das „Constant Composition Commitment“ [?], welches dem IPCC zufolge bedeutet, dass „Treibhausgas-Konzentrationen auf dem Niveau des Jahres 2000 festgeschrieben werden“. Und doch steigen die Treibhausgas-Konzentrationen unvermindert weiter.

Und die Aufzeichnungen der Temperatur zeigen nicht nur, dass „eine solche Verlangsamung seit einem Jahrzehnt oder so nicht nur in Beobachtungen der Vergangenheit erkennbar war“, sondern auch, dass ein solcher Stillstand viele Jahrzehnte andauern kann. Man betrachte die Beobachtungsdaten (schwarze Kurven) in Abbildung 1. Sie zeigen einen Stillstand oder einen Rückgang von Anfang der vierziger Jahre bis Mitte der siebziger Jahre.

Glaubt das UK Met Office, dass wir uns nur so kurz erinnern oder dass wir Graphen des zeitlichen Verlaufes nicht lesen können?

Zweitens, die öffentliche Aufmerksamkeit für den Stillstand der Erwärmung schoss in die Höhe mit dem Artikel von David Rose in der Daily Mail mit dem Titel “Global warming stopped 16 years ago, reveals Met Office report quietly released… and here is the chart to prove it” [etwa: die globale Erwärmung hat vor 16 Jahren angehalten, enthüllt ein stillschweigend veröffentlichter Bericht des Met. Office … und hier ist die Graphik, die das beweist]. Ich habe die Graphik von David Rose in meiner Antwort auf den Artikel von Kevin Trenberth von der Royal Meteorological Society aktualisiert. Darin zeige ich, dass die Temperaturen im April 2013 im Wesentlichen die gleichen waren wie im Juni 1997. Seitdem habe ich den Juni 1997 als Startmonat für Graphen benutzt, die gleitende 16-Jahres-Trends zeigen, und die ständig aktualisiert und jeden Monat ausgeweitet werden. Der Zeitraum ist jetzt 192 Monate lang. Man betrachte die folgende Graphik eines gleitenden 192-Monate-Trends von Januar 1880 bis Mai 2013 in Abbildung 3, in der die Anomalien der globalen Temperatur nach HADCRUT4 verwendet werden. Die Graphik zeigt Trends der globalen Temperaturanomalien – nicht die Temperaturanomalien. Der letzte Datenpunkt in dieser Graphik ist der lineare Trend von Juni 1997 bis zum Mai 2013 (in Grad Celsius pro Jahrzehnt). Er ist leicht positiv, was einen Erwärmungstrend von etwa 0,03°C pro Jahrzehnt bedeutet. Und das zeigt natürlich, dass sich die globale Temperatur viel langsamer erwärmt hat als von den Klimamodellen während des jüngsten 192-Monate-Zeitraumes vorhergesagt. Geht man zeitlich zurück, repräsentiert der vorletzte Datenpunkt den linearen Trend für den 192-Monate-Zeitraum von Mai 1997 bis April 2013, und der Datenpunkt davor den Trend von April 1997 bis März 2013, und so fort. Das letzte Mal hat sich die Temperatur mit der minimalen Rate von 0,03°C pro Jahrzehnt in einem 192-Monate-Zeitraum um das Jahr 1980 erwärmt.

Wie ich in meinem Beitrag Open Letter to the Royal Meteorological Society Regarding Dr. Trenberth’s Article “Has Global Warming Stalled?” geschrieben habe, hat Kevin Trenberth von der NCAR über 10 Jahre gemittelte Temperaturen präsentiert, und zwar in seinem Artikel für die Royal Meteorological Society. Er hat versucht zu zeigen, dass der derzeitige Stillstand der globalen Erwärmung seit 2001 nicht ungewöhnlich sei. Bequemerweise hat er die Tatsache übersehen, dass der Stillstand, basierend auf seinem Startzeitpunkt, dem Jahr 2001, bereits über 12 Jahre andauert, nicht 10.

Der Zeitraum von Januar 2001 bis Mai 2013 ist inzwischen 149 Monate lang. Man betrachte Abbildung 4, also den Verlauf eines gleitenden 149-Monate-Trends von Januar 1880 bis Mai 2013, wieder mit den HADCRUT4-Daten der Temperaturanomalien. Sie wurden in gleicher Weise aufbereitet wie in der Abbildung zuvor, nur das jetzt eine Sequenz von 149  Monaten gewählt worden ist. Die höchste, auf deren linearem Trend basierende Erwärmungsrate in letzter Zeit ereignete sich während des 149-Monate-Zeitraumes, der Ende 2003 zu Ende gegangen war. Seitdem jedoch sind die Erwärmungstrends drastisch gefallen. Man beachte auch, dass Ende der siebziger Jahre zum letzten Mal ein 149-Monate-Zeitraum ohne jede Erwärmung aufgetreten war – bis jetzt.

Abbildungen 3 und 4 stammen aus dem Blogbeitrag June 2013 Global Surface (Land+Ocean) Temperature Anomaly Update.

Fazit: Der gegenwärtige Stillstand der Erwärmung ist ungewöhnlich. So etwas gab es seit Ende der siebziger Jahre oder dem Jahr 1980 nicht mehr. Und den IPCC-Klimamodellen zufolge, gezeigt in ihrer Abbildung 10.4 (meine Abbildung 2) war kein Stillstand vorhergesagt worden.

Glaubt das UKMO, dass sich die globale Temperatur wie von Zauberhand abkühlen wird?

In der von mir fett gedruckt dargestellten Passage der UKMO-Executive Summary schrieben sie:

Die globale mittlere Temperatur bleibt hoch, wobei die letzte Dekade die wärmste jemals gewesen ist.

Natürlich, „die globale Temperatur bleibt hoch…” Wo hat das UKMO festgestellt, dass die globale Temperatur während der Stillstandsperiode gesunken wäre? Es scheint, als greife das UKMO nach Strohhalmen.

Und natürlich war das vergangene Jahrzehnt das wärmste jemals. Wie ich in meinem offenen Brief an die Royal Meteorological Society zu Kevin Trenberths Artikel „Has Global Warming Stalled?“ geschrieben habe, gab es drei natürliche Ereignisse, die die achtziger Jahre wärmer werden ließen als die siebziger Jahre, die neunziger Jahre wärmer als die achtziger Jahre und das Erste Jahrzehnt dieses Jahrhunderts wärmer als die neunziger Jahre.

Die Pazifische Klimaverschiebung des Jahres 1976 verursachte im Ostpazifik einen Temperaturanstieg von 0,22°C. Siehe Abbildung 5! Es gibt zahlreiche begutachtete Studien über diese Verschiebung, aber keine allgemeine Übereinstimmung über deren Gründe. Die globale Temperatur rund um die Welt reagiert auf diese Verschiebung mit atmosphärischen Sattelpunkten und Fernauswirkungen.

Die Wassertemperaturen des Atlantik, Indik und Westpazifik  (90S-90N, 80W-180) zeigten ebenfalls Verschiebungen mit einem Anstieg. Für diese jedoch verstehen wir die Gründe. Siehe Abbildung 6! Basierend auf den gemittelten Temperaturanomalien über die Zeitperiode verursachte der El Niño von 1986/87/88 einen Anstieg der Wassertemperatur in den genannten Meeresgebieten um 0,09°C. Die Wassertemperatur in diesen Regionen stieg nochmals um etwa 0,18°C im Gefolge des El Niño von 1997/1998. Der El Niño von 2009/2010 scheint einen geringen Anstieg um etwa 0,05°C verursacht zu haben.

Die Gemeinschaft der Klimawissenschaft hat sich entschlossen, diese von El Niño verursachten Anstiege zu ignorieren, und zwar aus zwei Gründen: Erstens, weil hier dokumentiert wird, dass die Wassertemperatur der globalen Ozeane aufgrund natürlicher Ereignisse steigt. Und zweitens, weil es den Klimamodellierern selbst nach Jahrzehnten intensivster Bemühungen bislang nicht gelungen ist, die Ereignisse El Niño und La Niña angemessen zu simulieren.

Und auch aus Abbildung 6 gehen zwei Punkte eindeutig hervor: Erstens, die Erwärmung des Wassers in den vorgenannten Meeresgebieten (oder in 67% der Weltozeane) hängt von starken El Niño-Ereignissen ab. Oder anders ausgedrückt, ohne diese El Niño-Ereignisse würden die Wassertemperaturen im Atlantischen, Indischen und Westpazifischen Ozean nur eine geringe oder gar keine Erwärmung zeigen. Dies zeigt natürlich, dass sich der Stillstand der globalen Erwärmung bis zum nächsten starken El Niño fortsetzen wird. Zweitens: Die La Niña-Ereignisse, die den El Niños von 1986/87/88, 1997/98 und 2009/10 folgten, hatten keine verhältnismäßige Auswirkung auf die Wassertemperatur in diesen Ozeanen. Lediglich die Wassertemperatur im Ostpazifik sank proportional während dieser La Niñas, Abbildung 7, aber die Wassertemperaturen dort über 31 Jahre lang nicht gestiegen.

Wie ich im oben verlinkten Beitrag über Trenberths Artikel für die Royal Meteorological Society geschrieben habe – falls diese auf natürliche Weise stattfindenden, von El Niños verursachten Anstiege der Wassertemperatur für Sie neu sind, schauen Sie in mein bebildertes Essay „The Manmade Global Warming Challenge” [42MB]. Darin stelle ich eine als Einführung gedachte Diskussion der natürlichen Prozesse vor, die solche Sprünge verursachen. Im Prinzip werden diese Sprünge durch warmes Wasser verursacht, das nach starken El Niño-Ereignissen zurückbleibt – das von den El Niños erwärmte Wasser verschwindet nach deren Abklingen nicht sogleich. Der Essay enthält auch Links zu animierten Karten mit den Daten. Darin kann man das Auftreten dieser Verschiebungen erkennen und sich klar machen, woher wir von diesem übrig gebliebenen Warmwasser wissen. Am wichtigsten aber, man kann erkennen, warum man La Niña und El Niño-Ereignisse betrachten sollte, nämlich nicht als Rauschen in den Instrumenten-Temperaturaufzeichnungen, sondern als einen natürlich stattfindenden chaotischen Oszillator. Das Sonnenlicht und nicht infrarote Strahlung nimmt im tropischen Pazifik während eines La Niña zu. Das heißt, die Daten zeigen, dass die steigenden Wassertemperaturen durch die El Niños durch Sonnenlicht angetrieben wurden, nicht durch Treibhausgase. Wir besprechen dies noch detaillierter bei der Diskussion über den ozeanischen Wärmegehalt in einem späteren Beitrag.

In jenem Beitrag über den Trenberth-Artikel an die RMS habe ich auch eine Graphik gezeigt, die ich die Alternierende Präsentation von Dr. Trenberths „großen Sprüngen“ genannt habe. Siehe Abbildung 8! Ich habe die Graphik im Jahre 1951 beginnen lassen, so dass die Reaktion auf die Klimaverschiebung im Pazifik 1976 im Ostpazifik sichtbar wird. Und ich habe auch die Zeitspannen verändert, um diese Sprünge zu isolieren von den Sprüngen im Zuge der El Niño-Ereignisse der Jahre 1986/87/88 und 1997/98. Die natürlichen Beiträge zum Anstieg der globalen Temperatur sind nur zu offensichtlich.

Jetzt wollen wir noch einmal die UKMO-Verlautbarung betrachten, die wir unter dieser Überschrift besprochen haben:

„Die globale Temperatur verharrt auf hohem Niveau, wobei die letzte Dekade die wärmste jemals war“.

Natürlich war es das. Es war das wärmste jemals, weil das Rest-Warmwasser des El Niño von 1997/98 den Auswirkungen des folgenden La Niña entgegen wirkte und zu den Anstiegen der Wassertemperatur im Atlantischen, dem Indischen und dem Westpazifischen Ozean geführt hat. Man erinnere sich, diese Meeresgebiete überdecken etwa 67% der Oberfläche der globalen Ozeane. Die Land-Temperaturen für weite Teile der Welt machen dieses Verhalten der Wassertemperatur einfach mit.

Über das arktische Meereis und den Meeresspiegel

Jetzt wollen wir uns ein anderes unsägliches Zitat aus der Executive Summary Teil 1 des UKMO vornehmen:

„Eine große Zahl beobachteter Klima-Indikatoren zeigt unverändert Änderungen, die mit einer sich global erwärmenden Welt und mit unserem Verständnis, wie das Klimasystem funktioniert, konsistent sind“.

Was das UKMO nicht sagt: Der Meeresspiegel würde weiterhin steigen, völlig unabhängig von der gegenwärtigen Temperatur. Ich möchte einen Absatz aus der Einführung meines demnächst erscheinenden Buches zitieren (Arbeitstitel Climate Models are Crap). Darin heißt es nach derzeitigem Stand:

Der Meeresspiegel ist ebenfalls von Interesse, vor allem für Küsten- und Inselbewohner. Unglücklicherweise liegen die Ergebnisse von Klimamodell-Simulationen nicht in einfach zu interpretierenden Formaten vor, daher finden sich in diesem Buch keine Vergleiche zwischen Modell und Daten. Unabhängig davon halten Viele möglicherweise steigende Meeresspiegel für eine bestätigte Tatsache. Der Meeresspiegel ist seit dem Ende der letzten Eiszeit um 100 bis 120 Meter gestiegen, und er lag weitere 4 bis 8 Meter höher als heute während der Eemian-Zwischeneiszeit (der letzten interglazialen Periode). (Siehe hierzu die Presseerklärung zu der Studie von Dahl-Jensen et al. mit dem Titel Eemian interglacial reconstructed from a Greenland folded ice core). Unabhängig von der Ursache … besser gesagt: egal ob wir die Treibhausgas-Emissionen kappen oder nicht, sollten die Temperaturen auf dem derzeitigen Niveau verharren oder weiter steigen oder selbst bei einer geringen Abkühlung während der kommenden Jahrzehnte, wird der Meeresspiegel wahrscheinlich weiter steigen. Siehe hierzu den Beitrag von Roger Pielke Jr. How Much Sea Level Rise Would be Avoided by Aggressive CO2 Reductions? Es ist sehr gut möglich, dass der Meeresspiegel zum Ende des Holozäns (des aktuellen Interglazials) das Niveau wie während der Eemian-Zeit erreicht. Nach Meinung einiger Leser könnte die Frage nicht lauten, ob, sondern wann er diese Höhe erreicht.

Roger Pielke, Jr.’s Beitrag (linked above) ist lesenswert.

Hinsichtlich des arktischen Meereises müssen wir zunächst über die Wassertemperatur reden. Wir haben seit über 4 Jahren gezeigt und erklärt, dass die Temperaturaufzeichnungen mittels Satelliten die Erwärmung als Folge von natürlich auftretenden Ereignissen aufgetreten ist und nicht durch menschliche Treibhausgase. Noch einmal der Hinweis auf den Essay „The Manmade Global Warming Challenge” [42MB], wenn diese Diskussion für Sie neu ist. Und wir haben auch gezeigt, dass sich der Pazifik als Ganzes seit fast 2 Jahrzehnten nicht mehr erwärmt hat, wie Abbildung 9 zeigt (Abbildung 9 stammt aus diesem Beitrag).

Die linke Karte in Abbildung 10 zeigt die jährlichen Trends der Wassertemperaturen im Pazifik von 1982 bis 2012. Man sieht, dass sich einige Regionen während dieser Zeit erwärmt haben, vor allem in den zentralen und westlichen mittleren Breiten des Nordpazifik. Wenn wir jedoch auf die Trends in den Quartalen mit der höchsten saisonalen arktischen Schmelzrate schauen, also Juli bis September, fallen die Erwärmungsraten in Teilen der höheren Breiten des Nordpazifik ziemlich hoch aus. Das zeigt die rechte Karte in der Abbildung.

Wir haben auch gezeigt, dass die Wassertemperaturen im Nordatlantik einen zusätzlichen Modus jahreszeitlicher Variabilität aufweisen, bekannt unter der Bezeichnung Atlantische Multidekadische Oszillation AMO. (Weiteres zur AMO bei NOAA/AOML FAQ hier, in meinem Blogbeitrag hier und in meiner Einführung zur AMO hier.) Als Folge hat sich der Nordatlantik seit Mitte der siebziger Jahre auf natürliche Weise mit einer Rate erwärmt, die höher war als in den übrigen Ozeanen, die sich ebenfalls aufgrund natürlicher Ereignisse erwärmt haben und nicht aufgrund von Treibhausgas-Emissionen.

Aber wie die Karte der jährlichen Trends im Nordatlatik zeigt (linke Karte in Abbildung 11) erfolgte die stärkste Erwärmung in hohen Breiten. Und das gilt auch und vor allem für die stärkste jährliche Abschmelzrate des arktischen Meereises von Juli bis September, was die rechte Karte zeigt.

Vergleicht man die hohen Breiten im Nordpazifik und im Nordatlantik, weist Letzterer hinsichtlich der Wassertemperatur eindeutig die höhere Erwärmungsrate als Folge der AMO auf.

Das führt uns zur Betrachtung des arktischen Meereises. Wir betrachteten die Auswirkungen der Meereis-Ausdehnung auf eine ganze Anzahl von Datensätzen, nämlich Wassertemperatur, Temperatur der unteren Troposphäre und Temperatur an Land in dem Beitrag How Much of an Impact Does the Atlantic Multidecadal Oscillation Have on Arctic Sea Ice Extent? [etwa: wie groß ist der Einfluss der AMO auf die arktische Meereis-Ausdehnung?] Von allen gezeigten Datensätzen war der Datensatz mit der größten Übereinstimmung – der höchsten Korrelation – mit der Eisausdehnung derjenige mit den Anomalien der Wassertemperatur in den hohen Breiten der Nordhemisphäre (60 N bis 90 N). Siehe Abbildung 12! Die arktische Meereis-Ausdehnung und die Wassertemperaturen in hohen Breiten der Nordhemisphäre wiesen einen Korrelations-Koeffizienten von 0,85 auf. Die Korrelationen der arktischen Meereis-Ausdehnung mit den Temperaturanomalien in der unteren Troposphäre und der Anomalien mit den Temperaturen über Land waren viel geringer (beide in hohen Breiten: 60 N bis 90 N).

Am Ende dieses Beitrags findet sich Folgendes:

Da es keine Beweise für eine vom Menschen verursachte Komponente hinsichtlich der Erwärmung der globalen Ozeane während der letzten 30 Jahre gibt, leistete die natürliche zusätzliche Erwärmung der Wassertemperaturen im Nordatlantik – höher als die natürliche Erwärmung aller anderen globalen Ozeane – einen wesentlichen Beitrag zum natürlichen Eisverlust des arktischen Meereises während der Satelliten-Ära. Man füge jetzt noch die Wetterereignisse hinzu, zu denen es alle paar Jahre kommt. Dann können wir guten Gewissens die Aufregung um den Rekord-Eisverlust in der Arktis im Jahr 2012 vergessen.

Klimamodelle

Nun zum nächsten Punkt der unwahren Behauptungen in der Executive Summary im UKMO-Bericht. Dort heißt es:

Die fundamentalen physikalischen Gesetze des Systems Erde bilden die Basis für die Entwicklung numerischer Modelle, welche unser Verständnis des Gesamt-Klimasystems einschließen (d. h. Atomsphäre, Ozean, Land und Cryosphäre). Sie gestatten uns, Projektionen seiner Entwicklung anzufertigen.

In einer ganzen Reihe von Beiträgen während der letzten Monate haben wir gezeigt, dass die Klimamodelle zur Vorbereitung des kommenden 5. Zustandsberichtes keinerlei Neigung zeigen, die folgenden Phänomene zu simulieren:

Global Land Precipitation & Global Ocean Precipitation

Global Surface Temperatures (Land+Ocean) Since 1880

Greenland and Iceland Land Surface Air Temperature Anomalies

Scandinavian Land Surface Air Temperature Anomalies

Alaska Land Surface Air Temperatures

Daily Maximum and Minimum Temperatures and the Diurnal Temperature Range

Hemispheric Sea Ice Area

Global Precipitation

Satellite-Era Sea Surface Temperatures

Und jüngst haben wir in dem Beitrag Meehl et al (2013) Are Also Looking for Trenberth’s Missing Heat [etwa: Meehl et al. (2013) suchen ebenfalls nach der von Trenberth vermissten Wärme] gezeigt, dass die in jener Studie verwendeten Klimamodelle keinen Beweis zeigen, dass sie in der Lage sein könnten zu simulieren, wie warmes Wasser aus den Tropen zu den mittleren Breiten des Pazifik transportiert werden könnte. Warum also sollten wir dann glauben, dass sie simulieren können, wie warmes Wasser in Tiefen unter 700 m transportiert werden könnte, ohne dass sich das Wasser der oberen 700 m erwärmt?

Die Gemeinde der Klimawissenschaft mag glauben, dass sie „die fundamentale Physik des Erdsystems“ versteht, aber die Performance ihrer Modelle zeigt, dass ihr Verständnis sehr begrenzt ist und dass sie noch einen langen Weg zurücklegen muss, bevor sie „Projektionen der Entwicklung“ erstellen kann. Wenn man die Vergangenheit nicht simulieren kann, gibt es keinen Grund, dem zu glauben, was ihre Projektionen für die Zukunft bereit halten.

Noch rasch etwas zum Wärmegehalt der Ozeane

Das UKMO hatte über den ozeanischen Wärmegehalt Folgendes zu sagen (Fettdruck von mir):

Seit etwas dem Jahr 2000 hat das ARGO-Bojensystem dafür gesorgt, dass wir eine fast globale Abdeckung der Wassertemperatur bis zu einer Tiefe von 700 m haben (15% bis 20% der mittleren Tiefe im offenen Ozean). Neuere Bojen messen bis zu einer Tiefe von 2000 m. Allerdings sind die eisbedeckten Gebiete und die Randmeere immer noch eine Herausforderung. Kombiniert man die Daten der ARGO-Bojen mit Messungen von Schiffen, kann man relativ langzeitliche Schätzungen der in den oberen 700 m gespeicherten Wärme vornehmen (Abbildung 18). Der Vergleich dieser Aufzeichnungen mit den Temperaturaufzeichnungen an Land zeigt trotz der Erwärmungspause seit dem Jahr 2000 einen Anstieg des Wärmegehalts im oberen Ozean.

Abbildung 18 aus dem UKMO-Bericht findet sich im oberen Kasten meiner Abbildung 13. Ich habe vieles der Temperaturdaten an Land gekennzeichnet, um die Daten des ozeanischen Wärmegehaltes zu beleuchten. Das UKMO hat den Datensatz des ozeanischen Wärmegehaltes in einer Tiefe von 0 bis 700 m nicht identifiziert; man hat lediglich in der Bildunterschrift darauf hingewiesen, dass der Datensatz der Temperaturdaten an Land der von HADCRUT4 ist. Im Text seines Berichtes bezog sich das UKMO auf Levitus et al. (2012). Aber der obere Kasten in Abbildung 13 (Abbildung 18 im UKMO-Bericht) zeigt nicht den ozeanischen Wärmegehalt von 0 bis 700 Metern. Die NODC-Daten des ozeanischen Wärmegehalts zeigen von den achtziger Jahren bis zu Beginn dieses Jahrhunderts keine Abkühlung, anders als beim UKMO dargestellt.

Der untere Kasten in meiner Abbildung 13 zeigt ebenfalls eine Graphik der Daten des ozeanischen Wärmegehaltes aus dem UKMO-Bericht. Sie war in ihrer Abbildung 1 als Kasten W eingefügt. Das UKMO merkt an, dass das aus dem Bulletin der American Meteorology „State of the Climate 2012“ von Blunden und Arndt (2013) stammt. Dieser Bericht wird gerade gedruckt, so dass wir den Quellen der Daten bzgl. des Wärmegehaltes nicht folgen können.

Wie man bemerken wird, zeigen in der unteren Graphik 3 der 4 nicht identifizierten Datensätze des ozeanischen Wärmegehaltes von 0 bis 700 m, dass sich die Erwärmung der Ozeane bis zum Schneckentempo verlangsamt hat mit Beginn Anfang des 21. Jahrhunderts. Diese drei Datensätze widersprechen der UKMO-Feststellung, dass „…trotz der Erwärmungspause seit dem Jahr 2000 der ozeanische Wärmegehalt in den oberen Schichten der Ozeane weiterhin steigt“.

Schlussbemerkung

Ich muss dem Titel des Beitrags von Bishop Hill über den UKMO-Bericht zustimmen, der da lautet: Ihr Schiff sinkt. Wird drehen helfen?

Wir werden in einigen Tagen einen Blick auf Teil 2 ihres Berichtes werfen. In der Zwischenzeit schreibe ich weiter an meinem Buch Climate Models are Crap.

Link: http://wattsupwiththat.com/2013/07/25/part-1-comments-on-the-ukmo-report-about-the-recent-pause-in-global-warming/#more-90426

Übersetzt von Chris Frey EIKE




Interview in Freie Welt.net mit Dipl. Ing Burkhard Reimer – „Die EEG-Umlage ist der eigentliche Preistreiber beim Strom.“

Freie Welt.net: Derzeit speisen die „Erneuerbaren“ ca. 20 bis 25 % des Strombedarfes in das deutsche Netz   ein. Die Preise an der Leipziger Strombörse werden dadurch massiv gedrückt. Dies sollte zum Vorteil der Verbraucher an ihn weitergegeben werden. Warum tun das die Versorger nicht?

Reimer:

Durch die Liberalisierung des Strommarktes Ende der 90ziger Jahre war der Strompreis in Deutschland deutlich gefallen. So musste nach der Strompreisanalyse Mai 2013 des Bundesverbands der Energie- und Wasserwirtschaft e.V. BDEW ein Drei-Personen-Haushaltes im Jahre 2000 knapp 14 ct/kWh bezahlen. In diesem Jahr hingegen muss der gleiche Haushalt bereits fast 29 ct/kWh an seinen Versorger entrichten, also mehr als das Doppelte. Diese in der Geschichte Deutschlands seit dem 2. Weltkrieg einmalige Verteuerung unserer wichtigsten Energieform Strom in so kurzer Zeit führt trotz zunächst breiter Zustimmung in der Bevölkerung für die „Energiewende“ zunehmend auf  Unverständnis und Empörung, zumal der grüne Spitzenpolitiker Jürgen Trittin, einer der Initiatoren des EEG, den Menschen erklärte, dass der Umbau der deutschen Stromversorgung mit dem Preis für eine Eiskugel pro Monat zu bezahlen sei.

Nachdem nun das Desaster, das mit der Energiewende in Deutschland angerichtet wird, immer deutlicher zu Tage tritt, wird von den Initiatoren, den Profiteuren und Lobbyisten der „Erneuerbaren“ wie Prof. Dr. Claudia Kemfert vom DIW immer wieder ins Feld geführt, dass natürlich nicht das EEG und die „Erneuerbaren“ an der exorbitanten Preissteigerung schuld sind sondern die Versorger. Diese gäben die sich an der Leipziger Strombörse bildenden niedrigen Strompreise, die „dank“ der Einspeisung der „Erneuerbaren“ stark gefallen sind, nicht an die Stromkunden weiter, um ihren eigenen Profit zu erhöhen. Dabei „vergessen“ diese „Wissenschaftler“ und Politiker zu sagen, dass der „so billige“  Strom aus „Erneuerbaren“ zuvor höchst teuer in jeder Menge – also auch viel mehr als gebraucht wird- von den Netzbetreibern aufgekauft werden musste (Vorrangeinspeisungszwang dank EEG) und dann an der Strombörse zu jedem Preis, auch mit Zuzahlungen (negativer Preis) an den jeweiligen Abnehmer, weiter verkauft werden muss. Daraus ergibt sich die irrationale Situation, dass  je mehr  „erneuerbare“ Energie produziert wird, umso stärker ist der Druck auf den Börsenpreis. Das erhöht die Differenz und damit zusätzlich die EEG-Umlage, die schon allein wegen des Zubaus ständig steigt.

Schaut man sich nun zusätzlich in der BDEW-Analyse an, wie sich der Strompreis für Haushalte zusammensetzt,  wird deutlich, dass nicht der Börsenwert des Stroms den Preis bestimmt. Allein 50% des Preises machen die Steuern und Abgaben aus, rund 20% die regulierten Netzentgelte, nur rund 30% tragen die Strombeschaffung und der Vertrieb zum Strompreis bei. Und nur der letzte Posten wird vom Markt bestimmt. Im Jahr 2013 müssen die privaten Verbraucher für die EEG-Umlage 5,277 ct/kWh bezahlen. Das ist mit 18,4% der größte Posten bei den Steuern und Abgaben. In 2014 wird die Umlage nach vorläufigen Berechnungen  erneut auf ca. 7 ct/kWh steigen.

Damit ist die EEG-Umlage, die für den Ausgleich der Differenz zwischen niedrigem Börsenpreis und der weit über dem Marktpreis liegenden garantierten Einspeisevergütung erhoben wird, ist der eigentliche Preistreiber beim Strom.

Wie leicht auszurechnen ist, bleibt für den herkömmlichen Kraftwerksbetreiber  keinerlei Spielraum. Die niedrigen Börsenpreise ergeben sich ausschließlich auf seine Kosten, da er keine feste Einspeisevergütung erhält. Auch er muss mehr oder weniger den Strom zu den niedrigen Börsenpreisen abgeben.

Auch dadurch, sowie durch die Vorrangeinspeisung der „Erneuerbaren“ sinken die aktiven Betriebsstunden  der herkömmlichen thermischen Kraftwerke immer mehr, sodass ein wirtschaftlicher Betrieb bei Unterschreiten einer bestimmten Anzahl von Betriebsstunden nicht mehr gewährleistet ist. Diese unrentablen Kraftwerke müssten vom Netz genommen werden. Da aber häufig der Wind nicht weht und die Sonne nicht scheint, muss immer ein Kraftwerkspark auf Basis von fossilen und Kernbrennstoffen, der in diesem Fall die gesamte Stromversorgung in  Deutschland übernehmen muss, vorgehalten werden. Um das sicher zu stellen, kann laut EEG die Bundesnetzagentur festlegen, dass diese unrentablen Stromerzeugungs-Anlagen am Netz bleiben. Das Vorhalten und unrentable Betreiben dieser Kraftwerke muss durch weitere Subventionen durch die Verbraucher zusätzlich bezahlt werden. Je mehr Wind- und Sonnenstrom in die Netze zu den überhöhten Preisen eingespeist wird, desto höher werden auch die Subventionen für die vorgehaltenen bzw. unwirtschaftlich betriebenen thermischen Kraftwerke. Ein Kosten-Perpetuum mobile ohne Ende. Von einer Marktwirtschaft kann im Stromsektor nicht mehr gesprochen werden. und alles zahlen die Verbraucher

Freie Welt.net: Durch den Atomausstieg sind bisher 9 Kernkraftwerke vom Netz genommen worden.  Deren Strom fehlt also im Angebot. Einen Blackout, also einen  großflächigen Stromausfall, haben wir auch nicht erlebt. War es also nur Panikmache interessierter Kreise, oder befürchten Sie  das genau das passieren wird?

Reimer:

Bis zum Inkrafttreten des Erneuerbare-Energien-Gesetzes EEG  am 1. April 2000 besaß Deutschland eines der modernsten und sichersten Stromversorgungssysteme der Welt, der die Haushalte, die öffentliche Hand und die Industrie mit Strom zu wettbewerbsfähigen Preisen versorgte. Ein Drei-Personen-Haushalt zahlte im Jahre 2000 für eine kWh Strom knapp 14 ct. Heute bezahlt dieser Haushalt mit 29 ct/kWh bereits doppelt so viel. Weitere Preiserhöhungen sind für die nächsten Jahre bereits programmiert. Die sichere Stromversorgung hingegen muss zunehmend infrage gestellt werden.  .

Zunächst unbemerkt, aber dann mit der Energiewende 2011 schlagartig, kann von einer stabilen Stromversorgung nicht mehr gesprochen werden. Durch das sofortige Abschalten von 9 Kernkraftwerken KKW sind, wenn der erzeugte  Wind- und Solarstrom gegen Null geht, kaum Kraftwerksreserven für Lastspitzen vorhanden. Selbst wenn der Wind weht, kann der vorwiegend im Norden im Überschuss erzeugte Windstrom wegen fehlender Hochspannungsleitungen nicht nach Süddeutschland transportiert werden. So kam es schon  im Winter 2011/2012 zu größeren Schwierigkeiten. In Süddeutschland z.B. fehlten laut Bundesnetzagentur nun eine Leistung von 500 Megawatt. Als es im Februar 2012 in weiten Teilen Europas  kalt wurde, drehten die Gasnetzbetreiber den Gaskraftwerken den Hahn zu, da auch das Erdgas wegen fehlender Lieferungen aus Russland knapp wurde und sie vorrangig Industrie und Haushalte mit Gas versorgen mussten. Das führte fast zu einem Blackout. Dem Netzbetreiber Tennet gelang es im letzten Moment mit Strom aus einem in Österreich wieder in Betrieb genommenen alten Schwer-Ölkraftwerk die kritische Situation zu überbrücken.

Die nahezu absolut sichere Stromversorgung, die wir in Deutschland bisher kannten, ist nach dem Abschalten der 9 KKW nicht mehr gegeben. So wird bei Bedarf  für entsprechend hohe Preise   Strom aus den Nachbarländern importiert, solange dort nicht gerade auch ein kalter Winter oder eine andere Notsituation herrscht. Hatten wir in den früheren Jahren nur einige wenige Eingriffe im Jahr, um die Netzstabilität zu sichern, waren es in den letzten beiden Jahren schon jeweils rd 1000. Von den Netzbetreibern wurden daher Notfallpläne erarbeitet, die zu stundenweisen Stromabschaltungen in bestimmten Regionen führen. Damit kann im Prinzip ein Blackout oder großflächiger Stromausfall verhindert werden. Die Stromversorgung wird sich allerdings aus ganz anderen Gründen weiter destabilisieren.

Wie schon aus der Antwort zu Frage 1 erläutert wurde, müssen die thermischen Kraftwerke, einschließlich KKW,  mit einer Kapazität vorgehalten werden, die den vollen Strombedarf Deutschlands bei einer Höchstlast von ca. 70.000 MW abdecken. Da man noch eine Sicherheit braucht müssen also 80.000 MW ständig vorgehalten werden, wenn Wind und Photovoltaik total ausfallen.  Mit dem ungebremsten Zubau weiterer Anlagen für die unstete Stromerzeugung und deren Vorrangeinspeisung verkürzen sich die Laufzeiten der konventionelle Kraftwerke immer mehr. Sie arbeiten ab einer bestimmten Jahreslaufzeit unwirtschaftlich. Dann werden bis 2022 alle KKW, die gegenwärtig noch 16% des Stromes erzeugen, vom Netz gehen und die durch Zubau fossil gefeuerter Kraftwerke  zu ersetzen sind. Große Stromerzeuger haben bereits die Abschaltung von Kraftwerksblöcken angekündigt. Wer investiert für neue fossile Kraftwerke, wenn sie nie rentabel laufen werden? Wird der Staat die jetzigen Betreiber zwingen die unrentablen Anlagen weiter zu betreiben oder sie ebenfalls zu subventionieren? Wird der Staat den Neubau fossiler Kraftwerke selbst finanzieren und in die Hand nehmen? Fragen über Fragen, die nicht erst in ein paar Jahren beantwortet werden können sondern bei einer verantwortungsvollen Energiepolitik schon lange hätten beantwortet werden müssen.  Von einer sicheren Stromversorgung entfernen wir uns also immer weiter.

Freie Welt.net: Wie sieht die Situation bei den Stromnetzen aus? Sind die Netze in der Lage den Strom aus den Wind- und Photovoltaik-Anlagen  aufzunehmen und die sichere Stromverteilung im Zusammenspiel mit dem Strom aus den thermischen Kraftwerken vorzunehmen?

Reimer: Bis zum groß angelegten Zubau der Windkraft- und Photovoltaik-Anlagen waren die Hoch-, Mittel- und Niederspannungsnetze für eine Richtung des Stromtransportes ausgelegt. Die großen Kraftwerke lieferten den Strom über Hochspannungsleitungen und Umspannwerke in die Mittelspannungsnetze. Diese verteilten den Strom über Transformator-Stationen in die Niederspannungsnetze, die dann direkt zu den Verbrauchern führen. Die gesamte Mess-, Steuer- und Regelungstechnik war für diese eine Richtung des Stromtransportes ausgelegt.

Die im März 2011 durch den gewaltigen Tsunami in Japan zusätzlich ausgelöste Katastrophe durch die Zerstörung des Kernkraftwerks in Fukushima löste in Deutschland hektische Reaktionen aus. Mit dem Gesetzespaket der Bundesregierung zur Energiewende im Juni 2011 wurden nicht nur der schnellere Ausstieg aus der Kernkraft, sondern auch Maßnahmen ohne ausreichende Einbeziehung der Fachleute beschlossen, die die bis dato stabilen deutschen Stromnetze durch einen ungebremsten Zubau von volatilen Windkraft- und Photovoltaik-Anlagen und den Zwang zu deren Vorrangeinspeisung zwangsläufig zu zunehmender Instabilität führen. Dann fehlen immer noch etwa 3000 km Hochspannungsleitungen, die vorrangig den Strom aus den Windparks und Photovoltaik-Anlagen vom Norden in den Süden transportieren. Es handelt sich auch hier um Milliarden-Investitionen, die zumindest parallel zum Ausbau der „Erneuerbaren“ hätten begonnen werden müssen.  Zusätzlich müssen die Mittel- und Nieder      spannungsnetze ebenfalls erweitert werden. Hier sprechen wir von insgesamt 220.000 km. Die Kosten dafür liegen bei mehreren 100 Mrd. €.

Wie gerade in einem Vortrag des Siemens-Managers Dr. Frank Büchner am 24. Juli 2013 im Magnus-Haus der Deutschen Physikalischen Gesellschaft in Berlin eindrucksvoll dargelegt worden ist, macht sich diese Instabilität in den Netzen u.a.dadurch bemerkbar, dass in den Hochspannungsnetzen erste Spannungsprobleme durch fluktuierende Einspeisung dezentraler Energieerzeugung auftreten. In den Mittelspannungsnetzen sind zunehmend thermische Überlastung und Spannungsband-Verletzungen durch Rückeinspeisung von Wind- und Solarstrom über die Niederspannungs-Abzweige festzustellen. Für Niederspannungsnetze gilt das Gleiche, thermische Überlastung und Spannungsbandverletzungen durch Einspeisung „erneuerbarer“ Energie mit Überlastung von Ortsnetztrafos und Problemen bei der Stromqualität wie Spannung, Frequenz usw.

Das hat bereits in München und anderen Gebieten zu Ausfällen von Trafostationen durch thermische Überlastung geführt. Wenn der Ausbau der „Erneuerbaren“ so wie bisher weitergeht und der erforderliche Umbau und die Erweiterung der Netze nicht voran kommt, wird es mit Sicherheit zu größeren und häufigeren Netzausfällen kommen. Leitungsüberlastungen und Netzengpässe in den Kuppelleitungen zwischen den s.g. Regelzonen treten immer häufiger auf. Während früher die Netzbetreiber äußerst selten Maßnahmen gegen diese Instabilitäten im Netz ergreifen mussten, gehört das heute schon zum täglich Brot. 

Um die Stromnetze unter den Bedingungen der Energiewende wieder auf ein sicheres Gleis zu setzen,  müssen die Hoch-, Mittel-, und Niederspannungsnetze so ausgerüstet werden, dass diese Netze den Strom nicht nur sicher in eine Richtung vom Kraftwerk zum Verbraucher verteilen, sondern auch den dezentral produzierten Strom aufnehmen und in umgekehrter Richtung zu den Verbrauchern bringen, wenn die Wind- und Photovoltaik-Anlagen arbeiten und die thermischen Kraftwerke heruntergefahren werden. Dazu wäre ein intelligentes Last- und Verbrauchsmanagement nötig, das durch s.g. Smart Grid Lösungen erreicht werden soll. Dazu müssten  allerdings die gesamte Mess-, Steuer-, und Regelungstechnik, alle Trafo- und Umspannstationen und viele Leitungen erneuert werden. Für den Verbraucher bedeutet das, dass er sich der Liefersituation in seinen Konsumgewohneheiten anzupassen hätte. Eine Rückkehr zur Mangelsituation wie unmittelbar im und nach dem Krieg. Und das in Friedenszeiten.

Ein solches Milliarden-Unterfangen würde alle Verbraucher noch einmal in Größenordnungen belasten und ist von daher schon eine der großen Illusionen, die die Energiewende von Anfang an zu einem unrealistischen Ziel haben werden lassen.

Freie Welt.net: In der Öffentlichkeit wird oft der Eindruck erweckt, als ob die „rechnerische“ Versorgung von soundsoviel Haushalten z.B. durch Solar- oder Windparks der realen Versorgung gleichwertig ist. Bitte klären Sie unsere Leser über die Unterschiede und deren Folgen auf.

Reimer: Die Bundesregierung, alle im Bundestag vertretenen Parteien und insbesondere natürlich die Nutznießer und Lobbyisten der „Erneuerbaren“ werben immer mit der Nennleistung von Anlage für die Stromerzeugung aus Wind und Sonne. Es wird suggeriert, dass z.B.bei einer Nennleistung  einer Anlage von 1 MW die Verbraucher rund um die Uhr mit dieser Leistung versorgt werden können oder dass sich eine ganze Kommunen praktisch mit „erneuerbarer“  Energie versorgen und auf die herkömmliche Stromversorgung verzichten könne.

Diese Behauptungen entsprechen  natürlich nicht der naturgegebenen und technischen Realität. Genau genommen handelt es sich sogar um Betrug.

Die Natur liefert nun einmal völlig unabhängig vom Willen des Menschen Wind und Sonne schon im Verlaufe eines Tages mit großen Schwankungen von Null auf volle Verfügung und umgekehrt und das auch noch in kurzen Zeitintervallen. Im Monat Januar 2013 erzeugte in Deutschland die Sonne 0,35 TWh, der Wind 5,0 TWh und die Konventionellen 36,3 TWh Strom. Für April 2013 sahen dann die Zahlen wie folgt aus: Sonne 3,2 Twh, Wind 3,3 TWh und Konventionelle 30,6 TWh. Schon diese Zahlen zeigen, dass die „Erneuerbaren“ im Januar nur 12,8% und im April denn immerhin schon 17,5% der erforderlichen Elektroenergie lieferten. Wenn man den „Erneuerbaren“ die Erzeugung von  25% des Jahresbedarfs an Elektroenergie zubilligt, fehlen immer noch 75 %, die vor allem von den thermischen Kraftwerken geliefert werden müssen. Solange die Elektroenergie nicht in erforderlicher Größenordnung gespeichert werden kann, muss praktisch jeder Verbraucher mindestens 75% seines Stromes von den herkömmlichen Kraftwerken beziehen. Das gilt natürlich auch für jede Kommune, es sei denn sie hat noch eine Biogasanlage mit angeschlossenem Generator. Aber auch dann wird sie sich hüten, den Stromverbund mit dem Versorgungsnetz zu kappen.

Die Ingenieure  wussten schon Ende des 19. Jahrhunderts,  dass der Wind kein geeigneter Energielieferant für ein stabile und kontinuierliche Stromversorgung war. Die Segelschifffahrt wurde abgeschafft und selbst die Windmühlen waren in Deutschland schon 1885 zu 75% auf Dampfkraft umgestellt, obwohl der  Wind keine Rechnung schickt. Erst weit über 100 Jahre später macht sich in Deutschland eine von grüner Ideologie infiltrierte Gesellschaft auf den Weg, die Gesetze der Natur, Technik und Ökonomie außer Kraft setzen zu wollen. Wie das enden wird, sollte langsam jedem, der seinen gesunden Menschenverstand behalten hat, klar sein.

Dipl.-Ing. Burkard Reimer;  Alternative für Deutschland

Bundesfachausschuss für Energiepolitik

Koordinator der Arbeitsgruppe Energie- und Umweltpolitik LV Berlin




Führender europäischer Geologe Peter A. Ziegler verstorben…

Bild rechts: Professor Dr Dr Peter A. Ziegler, 1928 – 2013. Photo credit: Ziegler family archive, GNU Free Documentation License.

Arthur Rörsch aus den Niederlanden hat folgenden Nachruf verfasst:

Dear all,

In memoriam Prof. (em.) Dr Dr (hc.) Peter A. Ziegler

die Nachricht, dass der bedeutende Wissenschaftler und liebenswerte Kollege Peter Ziegler am 19. Juli 2013 in seinem Haus in der Schweiz verstorben ist, hat uns alle sehr traurig gemacht. Kürzlich war er noch Gastherausgeber der Sonderausgabe von E&E zum Thema „AGW-Konzept: eine kritische Betrachtung“ (E&E 24 {3, 4} 2013). Bis zu seiner letzten Stunde hat er daran gearbeitet in der Hoffnung, dass seine Veröffentlichung in der wissenschaftlichen Gemeinschaft Gehör findet. Ein ganzes Jahr lang hat er praktisch jeden Tag an der Vorbereitung zu dieser Ausgabe gearbeitet. Er kritisierte alle Manuskripte sehr sorgfältig, hat aber in den Diskussionen mit den Autoren nie die Geduld verloren.

Seine Laufbahn umfasst 33 Jahre als forschender Geologe in der Petroleum-Industrie, 30 Jahre davon bei Shell und 20 Jahre Forschung und Lehre an der Universität. Er hat zahlreiche Beiträge in internationalen Journalen und thematischen Ausgaben zur Plattentektonik und zur Evolution der Lithosphäre veröffentlicht.

Im Jahre 1992 wurde er zum Honorarprofessor an der University of Basel gewählt und 1996 zum Ehrenprofessor für globale Geologie ernannt. Im Jahr 1997 hat ihm die Moscow State University, im Jahre 2001 die Technical University Delft die Ehrendoktorwürde verliehen.

Er war Mitglied der Royal Netherlands Academy of Sciences, der Polish Academy of Arts and Sciences, der Russian Academy of Natural Sciences und der Academia Europaea.

Er war auf Lebenszeit Mitglied im Büro des International Lithosphere Program und  Ehrenmitglied der Geological Society of London, der European Union of Geoscientists, der Geological Society of Poland und der American Association of Petroleum Geologists.

Er empfing Auszeichnungen von der Belgian Geological Society, der Royal Geological and Mining Society of the Netherlands, der Geological Society of London, der Geological Society of Glasgow, der Geosciences Union, der Deutschen Geologischen Gesellschaft und der Russian Academy of Natural Sciences.

Alle seine Kollegen werden sich an ihn erinnern als einen sehr begabten und kritischen Wissenschaftler mit einem umfassenden Interesse an der Naturwissenschaft. Er hat ständig Anderen selbstlos geholfen“.

Es gibt absolute keinen Zweifel daran, dass Prof. Zieglers Lebenswerk einen extrem positiven Einfluss auf die Lebensbedingungen der Menschen hat und dass dies auch noch zukünftige Generationen während der nächsten Jahre spüren werden.

Weiteres hier: notrickszone.com/sun-is-driving-climate-not-co2/.

Link: http://notrickszone.com/2013/07/29/leading-european-geologist-scientist-peter-a-ziegler-passes-away/

Übersetzt von Chris Frey EIKE




Fritz Vahrenholt am 13. August 2013 bei Podiumsdiskussion zum Klimawandel in Hamburg

Fritz Vahrenholt wird zudem im August 2013 zwei Vorträge in Hamburg halten:

19. August (10:00 Uhr)
„Storage as a prerequisite of renewable energy systems”
im Rahmen der Graduate School “Key Technologies for Sustainable Energy Systems in Smart Grids” des Instituts für Anorganische und Angewandte Chemie der Universität Hamburg, Martin-Luther King-Platz 6

22. August (18.30 Uhr)
„ Energiewende in Deutschland und Korea – was können wir voneinander lernen“
Vortrag gemeinsam mit Joo-Joung Yoon, Direktor Korean Investment agency, Großer Hörsaal des Museums für Völkerkunde, Hamburg Rothenbaumchaussee 64
Anmeldung hier.

Prof. Dr. Fritz Vahrenholt,

Prof. Dr. Fritz Vahrenholt, geb. 1949, ist Professor im Fachbereich Chemie an der Universität Hamburg. 1984 wurde er Staatsrat der Hamburger Umweltbehörde, von 1991 bis 1997 war er Umweltsenator von Hamburg, danach Vorstand der Deutschen Shell AG, verantwortlich u.a. für Erneuerbare Energien und Chemie; 2001 bis 2007 Vorstandsvorsitzender des Windkraftanlagenherstellers REpower Systems. Von 2008 bis 2012 war er Geschäftsführer der RWE Innogy, der für Erneuerbare Energien zuständige RWE Tochtergesellschaft. Seit 2012 ist er Alleinvorstand der Deutschen Wildtierstiftung. Vahrenholt war Mitglied im Rat für nachhaltige Entwicklung unter Kanzler Schröder und Kanzlerin Merkel und ist Mitglied des Senats der Fraunhofer- Gesellschaft und Mitglied der Deutschen Akademie der Technikwissenschaften Acatech in Berlin. 1978 erschien sein Bestseller Seveso ist überall, 




Die Schrift steht schon auf der Wand! Wann wird die Energiewende-Blase platzen?

Wesentlicher Grund für den Anfang vom Ende dürften zunächst die ausufernden Kosten sein. Das im Jahr 2000 in Kraft getretene Erneuerbare-Energien-Gesetz hat aus der deutschen Energieversorgung einen Selbstbedienungsladen für Besserverdienende gemacht. Jeder, der Kapital zur Verfügung hatte, durfte ohne Berücksichtigung übergeordneter Planungen oder Gegebenheiten ganz nach Gusto drauflos investieren und bekam dafür üppige Renditen auf 20 Jahre garantiert. Das Ergebnis war eine chaotisch wuchernde Investitionslawine. Hunderttausende Solar- und Windenergieanlagen wurden gebaut, ohne auch nur einen Gedanken darauf zu verschwenden, ob der dadurch ohne Rücksicht auf Standort oder Bedarfslage erzeugte Strom auch wirklich gebraucht würde oder wie er zu den Abnehmern transportiert werden konnte. Über Kosten und technische Probleme brauchten sich die Verantwortlichen keinerlei Gedanken zu machen, das wurde den Netzbetreibern einfach auf’s Auge gedrückt. Zur Rechtfertigung wurde der unsäglich dümmliche Spruch geprägt, Sonne und Wind schickten ja keine Rechnung. Eindeutig den Vogel abgeschossen hat diesbezüglich der damalige Bundesumweltminister Trittin von den Grünen, der im Jahre 2004 behauptete, dies alles werde den Verbraucher nicht mehr kosten als den Gegenwert einer Kugel Eis im Monat.

Die Realität sieht jedoch völlig anders aus. Die jährlichen EEG-Zahlungen sind seit der Einführung des Gesetzes Jahr um Jahr mit hohen Raten gestiegen und würden bei Fortsetzung dieses Trends für das Jahr 2020 bereits rund 35 Mrd. € erreichen, Bild 1.

Bild 1: An die Betreiber von EEG-Anlagen jährlich gezahlte Beiträge in Mrd. €, ab 2012 Prognosen (blau). Die Trendlinie zeigt den zu erwartenden Verlauf bis 2020 (Quellen: Wikipedia, eeg-kwk.net)

Diese Zahlen spiegeln jedoch längst noch nicht den tatsächlichen Umfang der Kosten wider. Hinter jeder Jahreszahlung versteckt lauern die damit verknüpften Langzeitverpflichtungen über einen Zeitraum von 20 Jahren, welche die Politik im EEG den Anlagenbetreibern zugesichert hat. Rechnet man diese Gesamtverpflichtungen für die nächsten Jahre einmal zusammen, so ergibt sich für Deutschland eine Kostenbelastung, die sich bis zum Jahr 2020 auf insgesamt rund 670 Mrd. € summieren dürfte, Bild 2. Für den klassischen 4-Personen-Arbeitnehmerhaushalt entspricht dies einer Gesamtbelastung von über 32.000,- €.

Bild 2. Die kumulierten Gesamtverpflichtungen an die Betreiber von EEG-Anlagen dürften bei ungebrochenem Trendverlauf bis 2020 auf rund 670 Mrd. € ansteigen. Ab 2012 Prognosen (blau), ab 2018 Trendberechnung (gelb)

Die Bilder 1 und 2 zeigen den typischen Verlauf einer aus dem Ruder laufenden wirtschaftlichen Entwicklung. Die Selbstbedienung zahlreicher EEG-Profiteure auf Kosten der Allgemeinheit, welche die Zeche über ihre Stromrechnungen zahlen muss, kann und wird nicht ewig so weitergehen. Wirtschaftsfachleute dürften keine Probleme haben, in der dargestellten Entwicklung die Anzeichen einer inzwischen stark überdehnten Blase zu erkennen, die früher oder später platzen wird.

Mit explodierenden Kosten wächst die Unruhe

Etwas unruhig wird der deutsche Bürger vermutlich im Spätherbst werden, wenn die neuen EEG-Zuschläge für das Jahr 2014 bekannt werden. Prognosen zufolge dürfte der Aufschlag von derzeit 5,27 auf dann 6,5 bis 7 €-ct. zulegen. Das ist ein Anstieg von 23 bis 33 %. Da hierzu noch etliche weitere Aufschläge wie Steuern, steigende Kosten der Netzbetreiber z.B. für Offshore-Anschlüsse sowie die seit neuestem greifenden Ausgleichszahlungen für unrentable Kraftwerke kommen, die als Reserve weiter vorgehalten werden müssen, dürfte der Bruttostrompreis für den Endverbraucher im Jahre 2014 stramm in Richtung 0,30,- € pro kWh marschieren. Gerade bei sozial schwachen Haushalten dürfte dies zu einem Stimmungsumschwung bezüglich der Bereitschaft zur weiteren Unterstützung der Energiewende führen.

Noch entscheidender aber ist die stark wachsende Unruhe in Teilen der Industrie, insbesondere in Branchen wie Hütten- und Stahlwerken, Gieβereien oder manchen Bereichen der Chemischen Industrie, deren Energiekosten teilweise mehr als 50 % der Gesamtkosten ausmachen. Im Gegensatz zu früheren Jahren, als die entsprechenden Verbände wohl noch hofften, aus den einst hochgepriesenen Wachstumsmärkten Fotovoltaik und Windkraft Aufträge zu erhalten, sehen sich immer mehr von ihnen nun von den mittlerweile uferlos wachsenden Energiekosten existenziell bedroht. Hinzu kommen erhebliche Sorgen z.B. bei Betrieben, denen mit der von der EU geforderten rückwirkenden Streichung der bisher gewährten Befreiung von der EEG-Zulage die Pleite ins Haus stehen könnte. Die Stellungnahmen der entsprechenden Verbände werden – ganz unüblich für die sonst sehr zurückhaltende Art deutscher Industrievertretungen – inzwischen immer dringlicher und unverblümter. Die Politik wird diese Entwicklung nicht mehr lange ignorieren können.

Deutlichstes Zeichen an der Wand sind neben den fast schon flächendeckenden Pleiten in der Solarbranche die inzwischen fast schon panischen anmutenden Rückzugsmanöver groβer deutscher Konzerne aus ihren Solarsparten sowie aus unsinnigen Groβprojekten wie Desertec.

Chaos in der Energiebranche

Weitere deutliche Anzeichen für einen bevorstehenden Crash zeigen sich im Energiesektor. Die bereits gebauten Nordsee-Windparks kommen nicht vom Fleck, die Hersteller haben leere Auftragsbücher, während die Hafenstädte lautstark Subventionen für den Ausbau weiterer Kapazitäten im Bereich Spezialschiffsbau und Umschlaganlagen fordern. Die groβen Energieversorger schreiben Verluste und müssen in erheblichem Umfang Personal abbauen. Immer mehr konventionelle Kraftwerke – insbesondere Gaskraftwerke – rechnen sich nicht mehr. Die eigentlich fälligen Stilllegungen werden von der Regierung unterbunden, die entsprechenden Kosten trägt ebenfalls der Stromkunde. Die Planung neuer Kraftwerke kommt immer mehr zum Stillstand. Inzwischen jammern auch immer mehr Stadtwerke, also gerade diejenigen, die vorher jahrelang als Treiber der Energiewende aufgetreten waren.

Auch bei Deutschlands Nachbarn breitet sich wegen des unkontrolliert über die Grenzen entsorgten „Ökostroms“ Unruhe aus. Polen und Tschechien errichten Sperranlagen, um ihre Netze zu schützen. In Österreich, wo man normalerweise leise Töne und feinsinnige Diplomatie bevorzugt, beschweren sich hochrangige Manager der Strombranche unverblümt über deutsche Alleingänge und warnen vor einer Destabilisierung der Versorgung. Und in der Schweiz werden inzwischen Planungen zum Ausbau von Pumpspeicherkraftwerken auf Eis gelegt.

Am gravierendsten ist dabei die Tatsache, dass gerade Pumpspeicher und die flexibel einsetzbaren Gaskraftwerke am meisten leiden. Dabei sind es doch gerade diese Kraftwerkstypen, die als Ausgleich für die schwankende Einspeisung aus Wind und Sonne am dringendsten benötigt würden. Ohne Pufferung durch flexible Gaskraftwerke und ohne Speicherung in Pumpspeicherkraftwerken ist ein weiterer Ausbau der „Erneuerbaren“ kaum noch möglich. Dabei erweisen sich die fehlenden Speichermöglichkeiten als Achillesferse. Auf diesem Gebiet gibt es keine in ausreichendem Umfang verfügbare und wirtschaftlich vertretbare Lösungen. Zurzeit ist keinerlei planvolles Vorgehen zur Behebung dieses fundamentalen Mangels zu erkennen. Stattdessen versucht die Politik mit immer hektischeren und teureren Notmaβnahmen, das Unvermeidliche zumindest über den Wahltermin hinaus zu verzögern.

Keinerlei CO2-Einsparung

Eines der für die Politik besonders fatalen Probleme eines baldigen Scheiterns der Energiewende ist, dass deren erklärtes Ziel, nämlich die Verringerung von CO2-Emissionen, bereits jetzt vollständig gescheitert ist. Mit der Abschaltung der Kernkraftwerke müssen deren Leistungsbeiträge zunehmend von Kohlekraftwerken übernommen werden, weil die „Erneuerbaren“ dazu schlicht und ergreifend auβerstande sind. Wenn der Wind im Winter wochenlang schwächelt und die Sonne in Südafrika urlaubt, muss hierzulande der gesamte konventionelle Kraftwerkspark volle Schichten fahren.

Dafür werden Millionen Tonnen Kohle benötigt. Eine Zusammenstellung der bei der deutschen Stromerzeugung entstehenden CO2-Emissionen im Verlauf der letzten 12 Jahre zeigt Bild 3. Bis zur Abschaltung des letzten Kernkraftwerks im Jahre 2022 wird sich diese Situation immer weiter verschärfen. Nach eigenen überschlägigen Berechnungen kann erwartet werden, dass die jährlichen CO2-Emissionen aus Stromproduktion im Jahr 2022 bei rund 450 Mio. t liegen, knapp 30 % mehr als im Jahr 2012.

Die politische „Lösung“ dieser verfahrenen Situation dürfte vermutlich so aussehen, dass man ab 2014 anfangen wird, den weiteren Ausbau erneuerbarer Energien mit dem Argument einer „Kostenbremse“ mehr oder weniger stark einzuschränken. Dies wäre das de facto-Ende der Energiewende. Zur Minimierung von Widerständen wird man vermutlich versuchen, ein Nebeneinander der konventionellen Stromerzeugung und des bis dahin errichteten Bestandes an ineffizienten Wind- und Solaranlagen hinzubekommen. Und inständig hoffen, dass es nicht zu einem „shitstorm“ kommt. Dem Bürger bzw. der nächsten Politikergeneration wird man es überlassen, sich um den angerichteten Scherbenhaufen und eine Gesamt-Kostenbilanz in einer Gröβenordnung zwischen 500 Mrd. und 1 Billion € zu kümmern. Und man wird versuchen, über Themen wie „Klimawandel“ und CO2-Reduzierung still und heimlich Gras wachsen zu lassen.

Bild 3. Die jährlichen CO2-Emissionen der Stromerzeugung (in Mio. t CO2) sind trotz der gestiegenen Anteile von Strom aus Sonne, Wind und Biomasse von 2000 bis 2012 Jahren faktisch unverändert geblieben

Die mittelfristige Katastrophe

Natürlich kann es dazu kommen, dass die Empörung in der Bevölkerung trotz der bekannten Gutmütigkeit des deutschen Michels so stark anwächst, dass es nicht mehr gelingt, den Deckel auf dem Topf zu halten. In diesem Fall wird man wohl versuchen, die laufenden EEG-Verträge zumindest teilweise zu annullieren. So richtig konsequent wird man dies aber wohl nicht tun können oder wollen, weil in diesem dicht verfilzten Interessengeflecht zuviele Wähler, zuviele groβe Konzerne und zuviele Stadtwerke mit verstrickt sind. Am ehesten wird es vermutlich Privatleute treffen, die damit rechnen müssen, dass zumindest ein Teil ihres eingesetzten Kapitals verloren ist.

Das Problem für Deutschland wird jedoch vor allem sein, dass sich immer mehr Hypotheken einer verfehlten Politik aufeinanderstapeln und sich zudem gegenseitig verstärken. Wir haben aktuell bereits eine alternde Gesellschaft, ungedeckte Renten- und Pensionsansprüche und die stetig wachsenden Verpflichtungen aus dem Euro. Obendrauf wurde in den letzten Jahren die ebenso sinnlose wie extrem teure „Energiewende“ gesattelt. Eine gesunde Volkswirtschaft könnte eine oder zwei solcher Lasten sicherlich schultern. Die Kombination wirkt jedoch verheerend. Die zusätzliche Belastung der bereits geschwächten Wirtschaft durch überhöhte Energiekosten könnte sich als der Tropfen erweisen, der das übervolle Rettungsboot schlieβlich zum Sinken bringt. Es ist wie in der Natur, wo ein bereits geschwächter Organismus dem Angriff von Krankheiten und Parasiten dann irgendwann nichts mehr entgegenzusetzen hat.

Jeder, der zurzeit gezwungen ist, die nahende Katastrophe sehenden Auges, aber mit gebundenen Händen durchzumachen, sollte es sich zur Aufgabe machen, die Verantwortlichen die Konsequenzen ihres Tuns spüren zu lassen. Das Internet vergisst nichts, alle ihre Lügen und dummen Sprüche sind leicht zu finden. Jeder Bürger ist aufgerufen, Herrn Trittin und Konsorten nicht nur bei dieser Wahl, sondern auch noch bei der nächsten und übernächsten mit ihren Lügen zu konfrontieren. Irgendwann muss und wird es gelingen, dass „Grüner“ zum Schimpfwort wird und man diese Scharlatane aus den Ämtern und Pöstchen, die sie sich durch Täuschung ihrer Mitmenschen ergaunert haben, wieder entfernt.

Fred F. Mueller




DIW „Studie“: Claudia Kemfert und Cie. versuchen mit fragwürdigen Zahlenspielen die „Energiewende“ zu retten.

Anliegen der DIW-Autoren ist es, einen wissenschaftlichen Nachweis dafür zu finden, dass der (ausschließliche) Einsatz alternativer Energien, speziell von Wind- und Solarenergie, ökonomisch vorteilhafter als der Einsatz von Kernenergie oder von fossilen Energieträgern mit anschließender CO2-Abscheidung, -Transport und -Speicherung (Carbon Capture, Transport, and Storage, CCTS) ist. Ohne weitere Beweisführung wird die These aufgestellt, dass Kernenergie noch nie wettbewerbsfähig gewesen sei und es auch nie sein wird. Den Alternativenergien dagegen wird ein „atemberaubender Produktivitätszuwachs“ bescheinigt – der selbstverständlich auch anhält (Interview Chr. von Hirschausen).

Die Autoren erheben den Anspruch, in ihren Berechnungen die „Gesamtkosten einschließlich sozialer Umwelt- und Transaktionskosten“ zu bewerten. Diese völlig richtige Forderung wird bedauerlicherweise von den Autoren selbst ignoriert. So wird bei unliebsamen Techniken (Kernkraftwerke) kritisiert, dass bestimmte Kostenfaktoren von der Kommission nicht einbezogen wurden, woraus vom DIW eine (dauerhaft) fehlende Wirtschaftlichkeit abgeleitet wurde. Bei den Alternativenergien dagegen werden wichtige Kostenbestandteile ignoriert, wodurch diese „schöngerechnet“ wurden.

Der Kommission wird vorgeworfen, bei den Kernkraftwerken die Versicherungskosten für potentielle Nuklearunfälle, die Kosten des Kraftwerks-Rückbaus, der nuklearen Endlagerung sowie „Fertigstellungsrisiken“ nicht berücksichtigt zu haben. Ebenfalls unberücksichtigt worden seinen die „Umweltkosten“ von fossilen Energieträgern.

Umgekehrt werfen die DIW-Mitarbeiter der Europäischen Kommission vor, die alternativen Energien, insbesondere Photovoltaik und Onshore-Windenergie, zu pessimistisch angesetzt zu haben.

Tatsächlich wird in der Studie die Einsatzweise und Verfügbarkeit der betrachteten Alternativenergien völlig außer Betracht gelassen. Es wird nicht berücksichtigt, dass fossile und nukleare Kraftwerke in der Lage sind, den täglich und jahreszeitlich schwankenden Elektroenergiebedarf voll zu befriedigen, während Photovoltaik- und Windenergieanlagen das nicht können, weil ihre Erzeugung – völlig unabhängig vom tatsächlichen Energiebedarf – sporadisch, unplanmäßig und unbeeinflussbar erfolgt. Um sie betreiben zu können, bedarf es zusätzlicher Anlagen. Dazu gehören konventionelle Kraftwerke Kernkraftwerke, Kohlekraftwerke, Gaskraftwerke), die aus dem Standby-Status jederzeit sekundenschnell einspringen, um ausfallende Leistung von Solar- und Windenergieanlagen zu ersetzen. Während in der Vergangenheit Kraftwerke in Verbraucherschwerpunkten gebaut wurden (oder sich um Kraftwerke energieintensive Industrien entwickelten – siehe Ruhrgebiet oder mitteldeutsches Chemiedreieck),  so werden nach bisherigen Vorstellungen die Entfernungen zwischen Erzeugungsanlagen und Bedarfsschwerpunkten immer größer, was den Bau zusätzlicher Freileitungen (oder Kabel) zwischen Nord- und Süddeutschland erforderlich macht. Theoretisch könnten anstelle der Standby-Kraftwerke auch Energiespeicher eingesetzt werden. Allerdings werden sie in absehbarer Zeit nicht verfügbar sein. In gleicher Richtung soll der Einsatz sog. Smart-meter wirken, mit denen Verbraucher angeregt werden sollen, genau dann Wäsche zu waschen oder Geschirr zu spülen, wenn gerade der Wind weht oder die Sonne scheint.

Praktisch bedeutet das die Installation eines zweiten, parallelen Erzeugungs- bzw. Transportsystems, das nur dann genutzt wird, wenn die Alternativenergien nicht bereitstehen. Daraus resultieren neben Investitionskosten auch zusätzliche enorme Betriebskosten (Personalkosten, Netzverluste, erhöhter Brennstoffverbrauch infolge schlechter Kraftwerks-Auslastung, Speicher-Verluste), die umso größer werden, je mehr Anlagen zur Wind- und Solarenergienutzung installiert werden. – All diese mit dem Betrieb alternativer Stromerzeugungsanlagen notwendigerweise verbundenen Kosten werden in der Studie des DIW unterschlagen.

Während immer wieder auf die Risiken der Kernenergetik verwiesen wird, werden die durch Windenergieanlagen verursachten Umwelt- und Gesundheitsschäden mit keinem Wort erwähnt. Das gilt analog auch für Risiken bei Biomasse-, Sonnenenergie- oder Geothermienutzung.

Bemerkenswert ist, dass Angaben zu Kosten und Risiken bei Bau und Betrieb von Offshore-Windenergieanlagen nicht zu finden sind. Den Autoren genügt es, in einer Fußnote zu vermerken, dass auf Offshore-Windanlagen „aufgrund noch unsicherer Kostenschätzungen hier nicht eingegangen“ wird, obwohl die mit 10.000 MW bis 2020 künftig einen großen Anteil der installierte Leistung übernehmen sollen. Aber gerade hier muss mit hohen Versicherungskosten, nicht zuletzt wegen des Risikos von maritimen Havarien, mit erheblichen Kosten für den zukünftigen Rückbau und mit „Fertigstellungsrisiken“ gerechnet werden. Es sind gegenwärtig auch keine Investitionskosten-Senkungen sichtbar.

Zu Recht wird der Aufbau der CCTS-Technik von den Autoren abgelehnt. Ihre Argumentation beruht allerdings lediglich auf Kostenrechnungen. Die mit dieser Technik verbunden lebensbedrohlichen Risiken, die zur generellen Ablehnung in Deutschland führten, werden ignoriert. Auch hier werden die „Gesamtkosten“ nicht beachtet.

Unterschlagen werden auch die Risiko-Kosten, die mit der wachsenden Unzuverlässigkeit der Elektroenergieversorgung durch zunehmende Nutzung fluktuierender Erzeugungsanlagen verbunden sind: Wie hoch sind die volkswirtschaftlichen  Kosten eines landesweiten Blackouts über einen Tag oder gar eine Woche? Im DIW-Bericht taucht eine solche Überlegung nicht auf.

Der EU wird vorgeworfen, dass in ihren Szenarien „nicht die gesellschaftlichen Kosten der Stromerzeugung, wie zum Beispiel die Risikokosten für Atomenergie oder auch die Umweltkosten von fossilen Energieträgern“ berücksichtig werden. Daher würden „die tatsächlichen Kosten dieser thermischen Stromerzeugung weit unterschätzt“ und „die Kosten der Erneuerbaren werden perspektivisch überschätzt. Das vom DIW monierte „ungleiche Bild der Stromerzeugungsperspektiven“ wird – allerdings  mit umgekehrten Vorzeichen – vom DIW selbst gezeichnet!

Ähnlich einseitig wie bei Kostenbetrachtungen gehen die Autoren mit der Bewertung der künftigen technischen und wirtschaftlichen Entwicklung um.

So unterstellen sie bei den Alternativenergien Wind und Sonne „angesichts technischer Innovationen sowie noch reichlich vorhandenem Lernpotential bis 2050 weitere Rückgänge spezifischer Produktionskosten.“ Sie begründen das mit folgenden Aussagen:

–          Photovoltaik: Es gab „sowohl steigende Wirkungsgrade als auch Kostensenkungen bei den Anlagen; dies führte zu erheblich rückläufigen Durchschnittskosten“

–          Onshore-Windkraftanlagen: Es gab „in den vergangenen Jahren erhebliche Produktionszuwächse sowie Kostenrückgänge. Die meisten Szenarien rechnen damit, dass auch in Zukunft Kostensenkungen möglich bleiben.“

Bei der (ungeliebten) Kernenergie dagegen nehmen die Autoren an, dass es dort keinen technischen Fortschritt gibt, der zur Kostendegression führt: „Entsprechend den bisherigen empirischen Erfahrungen steigender sicherheitstechnischer Anforderungen ist auch für diese Generation von Kraftwerken (die dritte – D. U.) künftig nicht mit Kostendegression zu rechnen; vielmehr werden konstante Kapitalkosten angenommen.“

Es wird zwar eingeräumt, dass Alternativenergien „heute noch mit höheren Investitionskosten verbunden“ sind „als einige konventionelle Stromerzeugungstechnologien“, jedoch wird eine „starke Kostendegression“ in den vergangenen Jahren lediglich bei den (geliebten) Alternativenergien konstatiert.

Also: Technisches Entwicklungspotential gibt es nur bei den alternativen Energien, nicht aber bei der Kernenergie!

Zusammenfassung:

Die DIW-Studie zeichnet sich insbesondere durch zwei grundlegende Fehler aus:

1. Es werden selbstgestellte – und sehr berechtigte – Forderungen nach einer Gesamtkosten-Betrachtung bei der Bewertung von Techniken zur künftigen Elektroenergieerzeugung nur sehr einseitig realisiert, nämlich nur dann, wenn eine Technik-Richtung diskriminiert werden soll (Kernenergie). Bei den politisch-ideologisch gewünschten Technologien werden entscheidende Bestandteile der Gesamtkosten völlig außer Betracht gelassen.

2. Ebenso einseitig wird einigen Techniken (Alternativenergien) ein großes technisches Entwicklungspotential unterstellt, während der Kernenergie überhaupt kein Entwicklungspotential eingeräumt wird.

Aufgrund der dilettantischen Herangehensweise an die Bearbeitung des hochwichtigen Problems der künftigen Elektroenergieversorgung in Deutschland kann die DIW-Studie „Europäische Stromerzeugung nach 2020: Beitrag erneuerbarer Energien nicht unterschätzen“ von Chr. von Hirschhausen, C. Kemfert, F. Kunz und R. Mendelevitch nicht als wissenschaftliche Arbeit bewertet werden.

Dr. Dietmar Ufer ist promovierter Energiewirtschaftler und Gründungsmitglied von EIKE

Hier ein paar links zum Hintergrund von Frau Kemfert

http://kuerzer.de/8PyVQBTdN
http://kuerzer.de/VpSsstYo8
http://kuerzer.de/3cp9OADVc

Mit Dank an Leser C. Thumulla




Klimawissenschaftlerin Judith Curry: Forschung hinkt um Jahrzehnte hinterher weil natürliche Klimafaktoren zu wenig beachtet wurden

Wenn Sie zu diesem Film in Form von crowd-funding beitragen wollen, dann finden Sie hier weitere Informationen. Jeder Euro zählt.

Video des US Filmemacher Christopher Field zum 50:1 Projekt über den Klimawandel. Das Projekt wird von der Lord Monckton Stiftung begleitet. Details dazu hier.  Leider konnten wir die interessanten Statements dazu nicht übersetzen.

————————————————————————————————–

Die anerkannte US-amerikanische Klimawissenschaftlerin Judith Curry beklagte sich kürzlich über den Zustand in ihrer Disziplin und rät zu einem dringenden Umsteuern auf. In einem Beitrag in ihrem Blog schreibt Curry:

“Wir haben Jahrzehnte an Fortschritt in den Klimawissenschaften verloren, indem wir der Rolle der natürlichen Klimavariabilität zu wenig Beachtung geschenkt haben.”  

——————————-

Aus Protest vor einem unerträglich klimaalarmistischen Grundsatzpapier sind jetzt drei langjährige Mitglieder der Meteorological Society aus der Organisation ausgetreten.

——————————-

Alle Macht den Klimamodellen. Zwar scheiterten die Modelle allesamt kläglich bei der Vorhersage des seit 1998 anhaltenden Erwärmungsstopps, aber immer noch gibt es Zeitgenossen, die auf Modell-Basis allerlei Folgeeffekte zweiter und dritter Ordnung prognostizieren. So erschien imStandard im Juni 2013 eine Meldung mit dem Titel “Klimawandel macht Bisons kleiner”. Laut Klimamodellen verlieren die Gräser an Protein, so dass Wildrinder in 50 Jahren angeblich kleiner und leichter werden. Eine durchdachte Prognose. Denn im Jahr 2063 wird sich niemand mehr an diese Vorhersage erinnern, und die entsprechenden Forscher werden dann längst in Rente oder im Himmel sein. Ein totsicheres Business. Interessanter wären Vorhersagen für die kommenden Jahre, für die sich die Wissenschaftler dann auch tatsächlich zu verantworten hätten. Bei der Temperaturprognose scheint genau diese Situation jetzt einzutreten, und die Gesichter der Klimapropheten werden mit jedem Tag länger.




Energiewende wirkt: Siemenschef Peter Löscher – Erfinder des „Green Siemens“ muss gehen

Eine unternehmerische Rosskur, für die er landauf landab von Politik und Medien  lautstark und „nachhaltig“ gefeiert wurde.  Und noch vor wenigen Jahren hatte er sich in einem Interview  darüber mokiert, dass „bis zu meinem Antritt, es innerhalb von Siemens keinen Unternehmensportfolio Umwelt gegeben hat“

Nun, das hatte der Kaufmann aus Österreich zielbewußt geändert. Insbesondere im angestammten Energiebereich ließ er keinen Stein auf dem anderen, gab vermeintlich unrentable oder gesellschaftlich unerwünschte Geschäftsfelder – wie der Kernkraft- unter hohen Verlusten auf und kauft sich wild in vermeintlich gesellschaftlich gewünschte neue „ertragsstarke und nachhaltige“ Technologien im  Bereich der „Erneuerbaren“ ein.

Das alles kostete nicht nur Milliarden, sondern diese Geschäftsfelder verschlangen auch wegen des zwanghaften ,naturgesetzlich vorgegebene Misserfolges an den Märkten, weitere Milliarden. Zudem hatte der Kaufmann Löscher auch die Bereitschaft der Staatskunden unterschätzt die Fehlversuche in der Technologie, die seine Ingenieure einer nach dem anderen hinlegen durften, mit unbegrenzten Subventionen zu unterstützen. Warnungen und Mahnungen von Fachleuten – auch von EIKE (siehe pdf Anlage zum Desertec Projekt)– schlug er großspurig in den Wind.

Zusätzlich negativ beeinflusste die zuvor hochgelobte Energiewende auch gut funktionierende Weltneuheiten, wie das GUD Kraftwerk in Irsching mit 60 % Gesamtwirkungsgrad. Immer, wenn es als Referenzkraftwerk ausländischen Interessenten vorgeführt werden sollte, stand es wegen der ungebremsten Vorrangeinspeisung von Strom aus „Erneuerbaren“ still, wie der Siemens-Bereischvorstand Michael Süß jüngst auf dem CDU/CSZ Energiedialog klagte.

Benny Peiser hat auf ACHGUT eine Shortlist der jüngsten Reinfälle des Hauses Siemens – einst Perle der deutschen Ingenieurskunst- zusammen gestellt:

Zur Erinnerung: Die grüne Siemens-Katastrophe auf Achgut

Wer meine Beiträge zur Energiewende in den vergangenen Jahren aufmerksam gelesen hat, konnte frühzeitig erkennen, dass die grüne Obsession bei den grünen Siemens-Managern nur in Tränen enden konnte.

31. Junuar 2009: Deutsche Deindustrialisierung schreitet voran: Deutschland hat sein gesamtes Know-how für den Bau von Atomkraftwerken an Frankreich verloren. Milliardengeschäfte wickeln die Franzosen künftig ohne Siemens ab. Doch die Bundeskanzlerin scheint den Verlust der industriellen deutschen Kernkompetenz noch nicht einmal wahrgenommen zu haben.

17 Januar 2012: Fast umsonst: Siemens puts cost of nuclear exit at 1.7 trillion euros: Germany’s exit from nuclear power could cost the country as much as 1.7 trillion euros ($2.15 trillion) by 2030, or two thirds of the country’s GDP in 2011, according to Siemens, which built all of Germany’s 17 nuclear plants.

26. Februar 2012: Grüne Planwirtschaft frisst ihre Kinder: Bosch verschob den Bau einer Solarmodulfabrik in Malaysia auf unbestimmte Zeit, Siemens verkündete einen Millionenverlust in seiner Solarsparte. Das ist Deutschland in der Post-Fukushima-Ära: Ein Industriezweig, mit dem das Land auch ohne Atomstrom wirtschaftlich stark bleiben soll, bricht weg, bevor er stark genug geworden ist, sich selbst zu tragen.

18. April 2012: Siemens: Riesenerfolg mit billigem Wind: Der Industriekonzern kämpft mit der Umsetzung der Energiewende: Netzanschlüsse auf See bescheren Siemens hohe Verluste.

23. Oktober 2012: Das erste Strompreisopfer: Offshore-Windenergie galt einmal als Wunderwaffe der Energiewende. Jetzt bröckelt der Rückhalt für die teure Technologie. Branche und Politiker arbeiten an einer Schrumpfkur.—Siemens trennt sich ganz vom Solargeschäft. Aus einem Hoffnungsträger ist ein Verlustbringer geworden.

13. November 2012: Subventionshaie verlassen sinkende Fata Morgana: Solarstrom für Europa aus der Sahara: Das ist der Traum der Desertec-Initiatoren. Doch die Verwirklichung wird immer schwieriger. Nach Siemens steigt mit Bosch der nächste große Partner aus.

15. November 2012: Solar-Ausstieg wird für Siemens teuer – 800 Millionen Euro Verlust

6. Februar 2013: Energiewende is ‘role model and a disaster’ and not ‘thought through’ says Siemens boss: Lothar Balling, a senior boss at German power company Siemens today conceded that his home country’s Energiewende – or energy transition – from nuclear to renewables had been a “disaster” and was “not thought through”.

27. April 2013:‘Wen die Götter zerstören wollen, machen sie zuerst verrückt’: Bayerns Vorzeigekraftwerk droht Aus: Eon und Siemens haben in Irsching bei Ingolstadt vor Jahren die modernste kombinierte Gas- und Dampfturbine der Welt realisiert. Vor gut zwei Jahren ging der Block in Betrieb. Aber seither hat sich vieles verändert auf dem Strompreissektor. Grund ist die Energiewende. Die Betreiber haben angekündigt, das Kraftwerk mindestens zwei Jahre stillzulegen. Rund 100 Millionen Euro seien nötig, um das Kraftwerk am Laufen zu halten, sagte Teyssen.

16. Mai 2013: Jetzt spricht selbst die ZEIT von ‘Energiewende-Wahnsinn’: Eigentlich ging die Geschichte immer so herum: Die Energiewende auf See kommt nicht in Schwung, weil es an Steckdosen für den Windstrom fehlt. Schließlich muss der Strom aus den Offshore-Windparks ja an Land gebracht werden. Das passiert mit Hilfe von Seekabeln und riesigen Umspannplattformen auf See, die großen Bohrinseln gleichen. Und bei deren Bau kommen Firmen wie der Netzbetreiber Tennet oder Siemens nicht hinterher. Am Donnerstag hat nun der zuständige Netzbetreiber eine von ihm in Auftrag gegebene Studie veröffentlicht. Und die kommt zu einem – Hoppla – komplett anderem Ergebnis: Es seien die Offshore-Windparks, die nicht hinterherkommen würden. In den kommenden zehn Jahren würden wahrscheinlich Offshore-Windparks mit einer Kapazität von 3.700 Megawatt ans Netz gehen (wenn man pessimistisch ist). Oder im besten Fall etwa 5.900 Megawatt. Auf der anderen Seite baue und plane aber Tennet zurzeit Verteilerplattformen und Seekabel, die insgesamt 6.200 Megawatt Strom transportieren können. Die würden, glaubt man Tennet, dann einfach ungeausgelastet in der Nordsee stehen.

Stranded investment nennen Betriebswirte so etwas, also komplette Fehlinvestitionen. Nutzlose Investitionen. Energiewende-Wahnsinn. Jährlich könnten sich die Kosten für die nicht genutzten Stromtrassen auf – Achtung – eine Milliarde Euro summieren, warnt Tennet.

9. Juni 2013: Deutsche Industrie: Von der Euphorie in die Depression: Die Zeiten scheinen vorbei zu sein, in denen das Wort Energiewende noch zu Hochstimmung in der Industrie führte. Es macht sich Ernüchterung breit, was die Erwartungen an die grüne Energie- und Umwelttechnik betrifft. So sah sich Siemens etwa als Gewinner, als Bundeskanzlerin Angela Merkel vor zwei Jahren den Ausstieg aus der Atomenergie erklärte. Der Münchner Technologiekonzern kann immerhin vom modernen Kraftwerk über Windräder bis hin zu intelligenten Stromnetzen die Infrastruktur bereitstellen, die es für die Energiewende braucht. Doch nach und nach drohen die Risiken des Projekts schwerer zu wiegen als die Chancen. Vor allem die hohen Stromkosten schrecken die Industrie auf.

10. Juni 2013: Energiewende: Siemens baut 1000 Stellen im Energiesektor ab: Der Siemens-Konzern will in seinem größten Sektor Energie in den nächsten Jahren 1000 Arbeitsplätze abbauen. Nach Informationen der F.A.Z. plant das Unternehmen in einem ersten Schritt, rund 340 Stellen an den Standorten Erlangen und Offenbach in der Geschäftseinheit „Schlüsselfertige Kraftwerke“ einzusparen. Mit der Verlagerung, die zu Lasten deutscher Standorte geht und bis Ende 2016 abgeschlossen sein soll, will Siemens seine Präsenz in Asien stärken.

17. Juni 2013: Wer nicht hören will, muss zahlen: 21 Milliarden in den Sand gesetzt: Achgut-Lesern wäre das nicht passiert: Großkonzerne wie Siemens und Bosch kehren der Solarbranche den Rücken. Ihre Strategien mündeten im Debakel – die Engagements in Sonnenstrom-Unternehmen kosteten Milliarden.

1. Juli 2013: Desertec Deserteure: Fahnenflucht der Wüstenfüchse: Der Streit zwischen der Stiftung Desertec, die Wüstenstrom aus Nordafrika und dem Nahen Osten nach Europa bringen will, und dem Industriekonsortium Dii, das diese Vision realisieren soll, ist eskaliert. Die Desertec-Stiftung erklärte am Montag in Heidelberg, sie kündige ihre Mitgliedschaft bei der Dii GmbH, die sie 2009 mitgegründet hatte.

25. Juli 2013: Grüne Bruchpiloten: Siemens muss eine neue Hiobsbotschaft verkraften: Der Industriekonzern hat Probleme mit seinen Onshore-Windrädern in den USA. Nach SPIEGEL-Informationen wird das den Konzern zusätzlich einen dreistelligen Millionenbetrag kosten.

28 Juli 2013: Chaostage von Siemens: Harakiri des ‘Vorreiters der grünen Energiewende’: Löschers Problem: Er hat keine Wachstums-Vision für Siemens. Umso schmerzhafter machen sich hausgemachte Probleme bemerkbar – unter anderem die teuren Ausfälle bei der Anbindung von Windparks im Meer an das Stromnetz auf dem Festland. Die Solar-Tochter Solel, für 284 Millionen Euro gekauft, wird dichtgemacht – Siemens hatte den Markt offensichtlich vollkommen verkehrt eingeschätzt. Auch von dem Desertec-Projekt, das mit dem Ziel gestartet war, Wüstenstrom von Afrika nach Europa zu bringen, meldete sich Siemens ab. Der finanzielle Schaden hierbei ist zwar gering, doch kratzt der Ausstieg am Image des Konzerns, den Löscher seinen Kunden und Anlegern als Vorreiter der grünen Energiewende verkaufen will.

Wenn jetzt nach der gewaltiger Wertvernichtung durch grüne Visionen, die schnell zu Albträumen mutierten, nicht schnellsten bei Siemens eine sofortige Wende von der Wende eingeleitet wird, und man sich darauf konzentriert das Machbare zu machen, das aber besser als jeder andere auf der Welt, dann trifft die Feststellung, wie sie die Deutschen Wirtschaftsnachrichten auf den Punkt brachten weiterhin voll den Kern des Problems: Siemens: Peter Löscher muss gehen, die Krise bleibt

Michael Limburg EIKE

Related Files




Das Wort zum Sonntag: Kirche und Energiewende

Warum schweigt die Kirche?

Schon lange hat sich die Kirche völlig zu Recht der Erhaltung der Natur verschrieben. Umso unverständlicher ist es für mich, dass die Kirche zu all den verheerenden Folgen der sog. „Energiewende“ schweigt, die ich im Folgenden darlegen möchte.

• Verheerende Umweltschäden:

Die „Energiewende“ führt zu verheerenden Umweltschäden, die in Jahrzehnten nicht mehr repariert werden können. Vögel und Fledermäuse werden zu Tausenden geschreddert. Riesige Windmasten werden u. a. immer mehr in Wald- und Naturschutzgebiete gepflastert. Schon die erforderlichen gewaltigen Betonsockel wirken zerstörerisch. Bei deren Herstellung sowie bei der Herstellung der Windmasten und Rotorblätter wird mehr CO2 freigesetzt als jemals wieder eingespart werden kann. Außerdem benötigt man bestimmte, hauptsächlich in China vorhandene Rohstoffe, die ebenfalls unter verheerenden Umweltbedingungen gefördert werden. Und: nach ihrer Lebensdauer von etwa 20 Jahren müssen die Rotorblätter als Sondermüll entsorgt werden. Und noch vieles mehr.

• Die „Energiewende“ ist zutiefst unsozial:

Durch das unselige EEG werden nämlich die ärmeren Bevölkerungskreise gezwungen, die Stromkosten für die gut Verdienenden mit zu bezahlen. Wer nämlich genug Geld hat, sich eine Solaranlage auf das Dach zu pappen, erfreut sich einer staatlich garantierten Einspeisevergütung, die weit über dem Wert des tatsächlich erzeugten Strompreises liegt. Das nennt man Planwirtschaft. Für viele Bauern mit entsprechend geneigten Scheunendächern ist das EEG eine reine Goldgrube – auf Kosten der ärmeren Bevölkerungsschichten. Das Stichwort „Energiearmut“ sollte der Kirche eigentlich zu denken geben, tut es aber nicht!

Die Kirche setzt sich zwar verbal für die Armen ein, schweigt aber zu den verheerenden Auswirkungen der „Energiewende“ auf eben diese Armen. Warum?

• Folgen für den Industriestandort D:

Die steigenden Strompreise machen natürlich auch der Industrie zu schaffen. Sie muss auf ihre Wettbewerbsfähigkeit achten. Steigen die Strompreise noch weiter, werden die Unternehmen immer mehr aus Deutschland abwandern. Was das für die Beschäftigungszahlen bedeutet, liegt auf der Hand – eine rasch weiter um sich greifende Armut ist die Folge. Die soziale Not wird immer größer.

• Stromversorgung wird immer unsicherer:

Man ersetzt ohne Not ein gut funktionierendes Stromnetz mit sicherer, bezahlbarer Energieversorgung durch ein ineffizientes und immer teurer werdendes Netz. Flächendeckende Blackouts sind unter diesen Bedingungen fast unvermeidlich – mit allen verheerenden gesellschaftlichen und wirtschaftlichen Folgen. Noch niemand konnte mir die Frage beantworten, wie man mit Windkraft Strom erzeugen will, wenn im Winter ein russisches Dauerhoch bei eisigen Temperaturen wochenlang windschwaches Wetter bringt.

• Biotreibstoff:

In rasch zunehmendem Maße wird Ackerbau nicht mehr zur Erzeugung von Nahrungsmitteln, sondern zur Herstellung von Benzin betrieben. Die Landwirte können damit (wieder über das EEG!) viel mehr verdienen als mit der Erzeugung von Mehl. Das gilt sowohl national („Vermaisung“!) als auch international (Palmen in den Tropen). Alle Appelle nicht nur seitens der Kirche, gegen den Welthunger zu spenden, sind daher durch und durch verlogen, solange man nicht gegen diesen gefährlichen Unsinn lautstark seine Stimme erhebt.

Und das Schlimmste von all dem: Alles beruht auf einer Hypothese, für die es bis auf den heutigen Tag keinen einzigen Beweis gibt! Entsprechende Behauptungen werden auch durch ewiges Wiederholen nicht wahrer. Hingegen ist die Hypothese inzwischen vielfach wissenschaftlich widerlegt! Abgesehen davon: CO2 ist für das Leben auf der Erde unabdingbar! Schon vergessen, was wir alle mal über Photosynthese gelernt haben? Mehr CO2 in der Luft bedeutet besseres Wachstum der Pflanzen, vor allem in Gebieten mit extremeren natürlichen Klimabedingungen. Auch das wäre ein Beitrag zur Linderung des Hungers in der Welt. Jede Gärtnerei reichert die Luft in den Gewächshäusern künstlich mit CO2 an. In Deutschland dagegen will man diesen Lebensgrundstoff in der Erde verbuddeln!!

Warum also? Warum schweigt die Kirche zu den unvermeidlichen, vielfach verheerenden Folgen der sog. „Energiewende“ für unsere Gesellschaft?

Warum schreibe ich diesen Brief gerade jetzt? Weil wir nach Ansicht vieler unabhängiger Wissenschaftler am Beginn einer vieljährigen Kaltzeit stehen. (Das hat nichts mit der aktuellen kühlen Witterung zu tun. Das ist Wetter und nicht Klima). Eine Kaltzeit hätte aber mit Sicherheit viel verheerende Auswirkungen als eine Warmzeit. Das war in der gesamten Menschheitsgeschichte so!

Mehr zu diesem Komplex hier:

www.eike-klima-energie.eu

www.science-skeptical.de

Ich bin sehr gerne bereit, dem Kirchenvorstand Rede und Antwort zu stehen, wenn dieser Brief auf die Tagesordnung einer der nächsten Sitzungen gestellt werden würde. Es gibt nämlich noch viel mehr dazu zu sagen. Ich bitte nur um rechtzeitige Terminangabe, um den Termin in meinem Dienstplan unterbringen zu können.

Freundliche Grüße   Chris Frey,

der hofft, dass diesem Brief nicht das gleiche Schicksal droht wie so vielen anderen zu diesem Thema: Dass er nämlich stillschweigend entsorgt und der Autor als „Leugner“ diffamiert wird.

Tatsächlich kam auch nach einiger Zeit eine Antwort, aber nicht per E-Mail, sondern als normaler Postbrief. Daher wird er hier als Abbildung eingefügt:

Diese Antwort hat mich zutiefst entsetzt und enttäuscht. Das habe ich in einer Erwiderung an den Kirchenvorstand auch zum Ausdruck gebracht (nach reiflicher Überlegung und wieder per E-Mail!). Meine Erwiderung hatte folgenden Wortlaut:

Lieber Kirchenvorstand,

herzlichen Dank für Ihre Antwort auf meine E-Mail. Leider muss ich sagen, dass ich zutiefst erschrocken und entsetzt bin. Was Sie schreiben, zeugt von einer so erheblichen Unkenntnis elementarster Dinge bzgl. Windrädern, dass ich mich frage…

Lassen Sie mich das zunächst begründen. Sie schreiben, dass sich die Errichtung eines Windrades bereits nach 6 bis 12 Monaten amortisiert hat. Die Kilowattstunde Windstrom kostet etwa 16 Cent, Tendenz rasant steigend. Am Markt verkaufen lässt sich die Kilowattstunde Strom jedoch nur mit etwa 3 Cent, Tendenz fallend, mehr gibt der Markt nicht her. Können Sie mir mal verraten, wie sich ein Produkt, dessen Erzeugung 16 Cent kostet, dass sich aber nur für 3 Cent verkaufen lässt, je amortisieren soll? Was sagt Herr Heber als Unternehmer dazu? Würde er in ein solches Produkt investieren? Warum müssen wir alle es dann zwangsweise tun?

Nun amortisiert sich ein Windrad für den Betreiber jedoch tatsächlich – indem der Staat mit massiven Subventionen die Preisdifferenz zwischen Erzeugung und Verkauf ausgleicht. Aber wer hat schon so viel Geld, dass er in ein Windrad investieren kann? Die ärmeren Bevölkerungsschichten sicher nicht. Und woher kommen die staatlichen Subventionen – noch dazu auf 20 Jahre garantiert? Natürlich vom Steuerzahler – eben genau auch von diesen ärmeren Bevölkerungskreisen, die einfach zahlen müssen und nichts davon haben. Finden Sie das sozial? Haben Sie schon mal den Begriff „Energiearmut“ gehört?

Finden Sie es wirklich in Ordnung, dass die Geringverdiener die Stromkosten für die Gutverdiener mit bezahlen? Dass einige wenige Wohlhabende sich auf Kosten weiter Kreise ärmerer Bevölkerungsschichten eine „goldene Nase“ verdienen?

Hinzu kommen noch die Kosten für die Infrastruktur (Leitungen), Zugangswege, Trafostationen und, und, und. Auch hierfür wird ausschließlich der Steuerzahler zur Kasse gebeten. Und nicht zu vergessen die verheerenden Umweltschäden, die auf Jahrzehnte hinaus nicht „repariert“ werden können.

Das soll als Beispiel reichen. Ich habe Verständnis dafür, dass Sie angesichts der dürftigen bzw. nicht vorhandenen Kenntnisse der Fakten nichts weiter dazu sagen können. Ich habe aber keinerlei Verständnis dafür, dass Sie sich als maßgebliche gesellschaftliche Kraft so beharrlich weigern, sich mit diesen Fakten vertraut zu machen. Ich selbst hätte Ihnen Einiges dazu sagen können.

Wenn Sie angesichts der mutwillig und völlig unnötig herbeigeführten Armut weiter Bevölkerungskreise weiterhin derartig den Kopf in den Sand stecken, muss ich mich fragen, ob man eine maßgebliche gesellschaftliche Gruppe, die sich so verhält, weiterhin als Mitglied unterstützen sollte.

Der Klimawandel, den unser Herr bei der Schöpfung der Erde gleich mit erschaffen hat (das Klima ändert sich nämlich ständig, seit die Erde besteht), spielt hierbei wirklich keine Rolle.

Freundliche (und traurige) Grüße    Chris Frey

Diesen ganzen Vorgang habe ich auf meiner Website dokumentiert. Der Link: http://www.chris-frey-welt.de/energiewende-aus-der-sicht-eines-laien/fragen-an-die-kirche/




Warum niemals jemand das Wetter ‚normal’ nennt

Teil des Problems war, dass irgendwann zum Ende der ersten Dekade des 21. Jahrhunderts immer klarer wurde, dass die Temperatur der Erde nicht mehr fortwährend angestiegen war. Allerdings wurden an die Thermometermessungen zahlreiche „Korrekturen“ angebracht, um es so aussehen zu lassen, als verlaufe der Anstieg genauso schnell wie die Modelle simulieren.

Also haben diejenigen, die ihren Lebensunterhalt mit Alarm verdient haben – und das waren damals sehr viele – ihre Taktik geändert und angefangen, jedes ungewöhnliche Wetterereignis für sich zu vereinnahmen, egal ob das ein Sturm, eine Dürre, ein Blizzard oder eine Überschwemmung war, indem sie die Ursache hierfür den vom Menschen verursachten Kohlendioxid-Emissionen in die Schuhe schoben. Dies erwies sich als lohnende Taktik, weil die Menschen – tatkräftig unterstützt von Journalisten – einen unstillbaren Appetit nach dem Glauben haben, dass die Wettergötter rachsüchtig sind. Die Industrie der fossilen Treibstoffe wurde an Stelle von Zeus als Sündenbock der Wahl eingesetzt (Wissenschaftler sind die Priester).

Die Tatsache, dass das Gedächtnis der Menschen hinsichtlich von Wetterereignissen sehr kurz ist, ermöglichte es, dieses Spiel zu spielen. Die lange australische Dürre von 2001 bis 2007, die Überschwemmungen in Brisbane der Jahre 2009 und 2010 und der ‚wütende Sommer’ 2012/2013 sind im Gedächtnis der Menschen verankert. Die Menschen ordnen das nur sehr widerwillig als Zufall ein. Selbst hier im beschaulichen England sagen die Leute immer „ich habe noch nie erlebt, dass es so kalt/heiß/windig/nass/trocken/veränderlich war wie in diesem Jahr“. Eines Weihnachtstages bemerkte ich, dass die Jahreszeiten das ganze Jahr über ziemlich durchschnittlich gewesen waren, weder zu trocken noch zu nass, weder zu kalt noch zu warm. „Ich habe noch nie so normales Wetter erlebt“, habe ich jemandem gesagt. Er war völlig perplex. Niemand nennt das Wetter jemals normal.

Also ist es zutiefst erfrischend, das neue Buch zu lesen mit dem Titel Besteuerung der Luft: Fakten und Trugschlüsse [facts and fallacies] über die Klimaänderung des international angesehenen Geologen Bob Carter, illustriert durch den Cartoonisten John Spooner. Das Buch stellt die Klimaänderung genau dorthin, wo sie hingehört – nämlich in die richtige Perspektive. Nach dem Zerriss vieler anderer Argumente für Kohlenstoffsteuern und Klima-Alarm geht Carter durch jüngste Wetterereignisse und zeigt, dass nichts an ihnen außergewöhnlich, geschweige denn beispiellos ist. Das gilt für Dürren, Hochwasser, Hitzewellen, Zyklone oder Änderungen am Great Barrier Reef in jüngster Zeit.

Wie kommt es dann, dass die WMO in der vorigen Woche einen atemlosen Bericht geschrieben hat, in dem sie behauptet, dass „die dekadische Rate der Zunahme der Welt-Temperatur zwischen 1991 und 2000 und 2001 bis 2010 ohne Beispiel war“? Professor Ed Hawkins von der Reading University brauchte ein paar Minuten, um zu zeigen, dass dies nicht stimmte, wenn man es mit den Zehnjahreszeiträumen 1993 bis 2002 und 2003 bis 2012 vergleicht, d. h. wenn man also die aktuellsten Zeitreihen heranzieht. In diesem Fall zeigt die jüngste Dekade einen geringeren Anstieg im Vergleich mit der Dekade zuvor als während jeder anderen vorhergehenden Dekade. Mit anderen Worten, der Temperatur-Stillstand der letzten 16 Jahre hat begonnen, auch in den Daten Dekade für Dekade zu erscheinen.

Und das, noch bevor man die Übertreibung betrachtet, die die Temperaturaufzeichnungen in der zweiten Hälfte des 20. Jahrhunderts vergiftet zu haben scheint – infolge Verstädterung, selektiver Auswahl von Wetterstationen und unerklärter „Korrekturen“. Zwei griechische Wissenschaftler haben vor Kurzem berechnet, dass 67% der 181 global verteilten, von ihnen untersuchten Wetterstationen diese Korrekturen den Temperaturtrend haben anwachsen lassen. Darum haben sie ihre Schätzung der aktuellen Erwärmung im späten 20. Jahrhundert halbiert.

Wie auch immer, „ohne Beispiel” heißt bei der WMO seit 1850, was eine Mikrosekunde für einen Paläo-Klimatologen wie Carter ist. Er betrachtet die langzeitliche Perspektive und weist darauf hin, dass sich die Erde seit 17000 Jahren erwärmt, sich seit 8000 Jahren wieder abkühlt, sich seit 2000 Jahren wieder abkühlt, sich seit 1850 erwärmt und sich kaum verändert seit 1997. Folglich „hängt die Antwort auf die Frage ‚findet eine globale Erwärmung statt’ fundamental von der Länge des betrachteten Zeitraumes ab“. Er fährt fort: „Ist die heutige Temperatur ungewöhnlich warm? Nein – ohne Wenn und Aber“.

Carter ist ein mutiger Mann, weil diejenigen unter den Akademikern, die nicht akzeptieren, dass die Klimaänderung gefährlich ist, oftmals verleumdet werden.

Carter ist von der James Cook University zurück getreten, bevor er sich für die Debatte um die globale Erwärmung interessiert hat, bleibt aber emeritiertes Mitglied. Er hat sich kürzlich tatsächlich benachteiligt gefunden in einer E-Mail von Kollegen, die wegen seiner Weigerung, der Linie zu folgen, aufgebracht waren. Wie der alte Witz sagt: Was ist das Gegenteil von Diversität? Universität!

The Australian, 10 July 2013

Link: http://www.thegwpf.org/matt-ridley-calls-weather-normal/

Übersetzt von Chris Frey EIKE




Interview mit Freie Welt.net mit Dr. Ing. Günter Keil – Das 100-Prozent-Ökostrom-Ziel ist prinzipiell erreichbar, wenn einem der Preis egal ist!

Freie Welt.net Der „Atomausstieg“ ist wesentlicher Teil der Energiewende.  Wie beurteilen Sie die fachliche Kompetenz der „Ethik-Kommission“ deren Votum als Grundlage für den Ausstiegsbeschluss genommen wurde?

Keil: Die Ethik-Kommission wurde von Frau Merkel zur Neutralisierung des für sie höchst unangenehmen Votums der Reaktorsicherheits-Kommission RSK erfunden und dafür instrumentalisiert.

Die RSK hatte  nach dem Fukushima-Unfall allen deutschen Kernkraftwerken ein hohes Sicherheitsniveau bescheinigt. Im internationalen Vergleich stehen sie auch hervorragend da, was nicht zuletzt der ständigen, von den deutschen Regierungen geforderten und vollzogenen sicherheitstechnischen Nachrüstungen zu verdanken ist.

Die Ethik-Kommission enthielt keinen einzigen Energieexperten, dafür aber zwei Bischöfe. Bei auch nur geringer Fähigkeit zur Selbstkritik und angesichts der ihr zugedachtenn offensichtlichenRolle als Anti-RSK hätten diese Personen eigentlich diese Zumutung zurückweisen müssen.

Statt dessen spielte diese Kenntnis-lose Gruppe brav ihre Rolle und lieferte die gewünschte  Stellungnahme ab. Allem Anschein nach auch noch stolz auf ihre Bedeutung.

Tatsächlich aber war das ein Tiefpunkt für alle beteiligten und ein dunkles Kapitel deutscher Energie- und Umweltpolitik.

Freie Welt.net: Nach dem „Energiekonzept“ der Bundesregierung sollen bis 2050 80 % des Stromes aus „Erneuerbaren“ Quellen kommen. Der ForschungsVerbund Erneuerbare Energien (FVEE) hält in einer kürzlich veröffentlichten Studie[1] sogar  100 % für machbar.  Wie beurteilen Sie die Erreichbarkeit beider Visionen?

Keil: Von den sogenannten „Erneuerbaren“ sind Solarstrom und Windstrom wegen ihrer Tageslicht- und  Wetterabhängigkeit vollkommen ungeeignet, Deutschland auch nur zu 50% mit Strom zu versorgen.

Dafür sorgen die auch von der deutschen Regierung nicht steuerbaren Hochdruckgebiete, die tagelang – oft auch wochenlang – alle Windräder still stehen lassen, und zwar von den Azoren bis nach Rumänien, wie es gerade jetzt im Juli 2013 geschieht.

Daran ändert sich auch nichts , wenn die zehnfache Anzahl von Windrädern Deutschlands Landschaften besetzt: Dann steht eben die 10-fache Zahl von Windkraftanlagen still.

Und die Photovoltaik liefert nur an sonnigen Tagen zwischen 9 und 15 Uhr im Sommer Strom; an bedeckten Tagen kaum etwas; Nachts gar nichts – und im Winter nahezu nichts von Anfang November bis Ende Februar.

Dazu muss für den gesamten Stromverbrauch Deutschlands die gesamte Stromversorgung fast doppelt errichtet werden: Kohle- und Gaskraftwerke müssen das übernehmen, unterstützt durch Importstrom – der übrigens zum größten Teil Kernkraftstrom ist.

Das 100-Prozent-Ziel ist prinzipiell erreichbar, wenn einem der Preis egal ist:

Man muss auf die unzuverlässige Solar- und Windstromerzeugung  verzichten und das ganze Land auf Biogasstrom plus etwas Wasserkraft umstellen. Biogas ist speicherbar und Biogas-gefeuerte Gasturbinen könnten immer laufen, ganz nach Bedarf. Das Unangenehme dabei: Man müsste den größten Teil der deutschen Landwirtschaft aufgeben und ausschließlich Mais und Raps anbauen.  Ganz Deutschland eine Monokultur, die mit enormem Aufwand an Kunstdünger und Pestiziden stabil gehalten werden müsste. Die Artenvielfalt müsste man leider ebenfalls opfern.  Und die Strompreise würden einen weiteren, gewaltigen Sprung nach oben machen.

Die Kausalkette Landschaftszerstörung – Strompreisexplosion – Energiearmut – Industrie-Exodus und Bürgeraufstand würde keine Regierung überstehen.

Freie Welt.net Zum Wesen der „Erneuerbaren“ aus Wind und Sonne gehört die unstete Verfügbarkeit gepaart mit heftiger Volatilität bei Verfügbarkeit. Beide Eigenschaften  sin naturgesetzlich gegeben und nicht veränderbar, und stehen damit einer bedarfsgerechten Versorgung diametral gegenüber. Wie beurteilen Sie die Chancen, diese naturgesetzlichen Schwächen  zu  wettbewerbsfähigen Kosten auszugleichen?

Keil: Die naturgesetzlichen Schwächen von Wind- und Solarstrom könnten einzig und allein Pumpspeicherkraftwerke zu erträglichen Kosten ausgleichen.  Diese Anlagen aber fehlen in Deutschland fast völlig. Ihre derzeitige  Leistung beträgt 7.000 MW, mit denen sich rund 40.000 MWh (Megawatt-Stunden oder 40 GWh – Gigawatt-Stunden = Milliarden Wattstunden) an Strom erzeugen lassen, wenn sie komplett leer laufen. Der durchschnittliche Tagesverbrauch liegt aber bei 1643 GWh, was bedeutet, dass man das 313-fache an heute installierter Pumpspeicherkapazität benötigt, wenn man eine 10-tägige Flaute überbrücken wollte, in der es keinen Windstrom gibt.

Aber selbst der Bau der wenigen, geologisch noch möglichen Pumpspeicherkraftwerke ist durch Bürgerwiderstand gefährdet, wie das kürzlich von Trianel aufgegebene Projekt am Rur-See zeigte.

Ein von der Politik geschätztes Märchen sind die norwegischen Wasserkraftwerke, die angeblich zu Pumpspeichern umgebaut werden könnten, woraufhin dann – nach dem Bau vieler Hochspannungs-Seekabel von Norwegen nach Deutschland – endlich Speicher für überflüssigen deutschen Windstrom vorhanden wären.

Ob die dortigen Wasserkraftwerke teuer umgebaut werden könnten, ist die eine Frage. Falls sie am Meer liegen, verbietet das für Turbinen schädliche Salzwasser einen solchen Umbau. Viele Hochspannungs-Seekabel müssten nach Deutschland verlegt werden; leider gibt es da starke Konkurrenz, denn Engländer, Niederländer und Franzosen wollen das ebenfalls.

Bleiben noch die Norweger, die die damit verbundenen höheren Strompreise fürchten und vermutlich alle derartigen Pläne ablehnen werden. 

Es bleiben dann zum Ausgleich der Schwankungen nur unsere teuren Gaskraftwerke, die aber fast alle von der Stilllegung bedroht sind, weil ihre ehemals ertragsreichen Betriebsstunden als Spitzenlastlieferanten so stark gesunken sind, dass sie unrentabel wurden. Eine Folge der kurzzeitigen, aber dann starken Solarstrom-Einspeisung zur Mittagszeit, was den Börsenpreis für Strom abstürzen lässt.

So stören die hochsubventionierten EEG-Stromeinspeisungen nicht nur die Netzstabilität, sie ruinieren auch noch die Rentabilität der einzigen Kraftwerke, die zum Ausgleich der Schwankungen dringend benötigt werden.

Dies führt zu einer weiteren Kettenreaktion des Subventions-Irrsinns, denn nun ist die Regierung dabei, die von Stilllegung bedrohten Kraftwerke  zur „Kapazitätsreserve“ zu ernennen, im Klartext: Die Subvention auch noch dieser überwiegend still stehenden Kraftwerke.

Das ist die bisherige Politik: Jede Fehlentscheidung durch eine neue, noch teurere Fehlentscheidung zu „reparieren“.

Was die gerne von Politikern beschworenen neuen Speichertechnologien betrifft: Reden wir doch noch einmal in 20 Jahren darüber. So lange dauert es mindestens bis zur Marktreife. Dann haben wir vielleicht adiabatische Druckluftspeicher. Ob die auch bezahlbar sein werden, ist eine gute Frage.

Freie Welt.net: Ebenfalls gehört zum Wesen aller „Erneuerbaren“ aus Wind, Sonne oder Energiepflanzen die sehr geringe Energiedichte der Energieträger. Wie sehen Sie für bestimmte Quellen, wie die Chancen von z.B.Offshore Windanlagen  mit einem rel. hohen Nutzungsgrad brauchbaren Strom zu international konkurrenzfähigen Preise zu erzeugen? Wie die der anderen Quellen?

Keil: „Brauchbarer Strom zu international konkurrenzfähigen Preisen“ könnten aus den oben genannten Gründen allein Kohle- und Kernkraftwerke liefern, denn nur sie – abgesehen von den wenigen Wasserkraftwerken – können den unverzichtbaren Grundlaststrom, der immer lieferbar ist, zu akzeptablen Kosten erzeugen.

Auch die Offshore-Windkraft ändert nichts daran, weil auch sie wettbewerbsbedingt und damit völlig unzuverlässig ist. Man muss beachten, dass die gerne angeführten  „Volllaststunden“  nur ein rechnerischer Jahres-Mittelwert sind, der nichts über die reale Lieferbarkeit von Strom zu einem gewünschten Zeitpunkt aussagt.

An den extremen Schwankungen des Windstroms ändert es nichts, ob die Anlagen auf dem Land oder im Meer stehen: „Null“ bei Flaute bis „Maximum“ bei maximal zulässiger Windstärke und wiederum „Null“ bei Überschreiten dieser Windstärke.

Die relativ kleine Meeresfläche, auf der die deutschen Offshore-Windparks stehen sollen, bedeutet exakt das gleiche Wetter für alle. Nichts gleicht sich da gegenseitig aus.

Also Stromversorgung im Takte der Tiefdruckgebiete ? Das ist keine Versorgung, sondern ein energiewirtschaftlicher Albtraum.

Freie Welt.net: Die Befürworter der „Erneuerbaren“ werben mit dem griffigen Slogan „Wind und Sonne schicken keine Rechnung!“ der von dem Journalisten und grünen Aktivisten Franz Alt in die Welt gesetzt wurde. Was halten Sie diesen  Leuten entgegen? 

Keil: Den schönen Satz „Die Sonne schickt keine Rechnung“ habe ich etwas abgeändert. Jetzt lautet er:

„Die Sonne schickt leider gepfefferte Rechnungen; unsere Regierung besorgt das Inkasso – und das Geld kriegen die Chinesen“.


[1] Vision des FVEE für ein 100 % erneuerbares Energiesystem.

Herr Dr. Keil wir danken Ihnen für dieses Gespräch




Faktenfrei: Wie der Energieexperte Döschner der Tagesschau rechnet…“Energie-Dinosaurier in Panik“

Ihre Gewinne, ihr Wohlergehen, ihr Überleben hängt – auch mehr als zehn Jahre nach dem rot-grünen Atomausstieg und dem eigentlichen Beginn der deutschen Energiewende – immer noch zu mehr als 90 Prozent an Kohle, Gas und Atom. Gerade mal acht Prozent des von RWE und E.On produzierten Stroms stammen aus erneuerbaren Quellen. Die neue Energiewelt ist dezentral und überwiegend in der Hand von Privatleuten, Landwirten, Genossenschaften oder Stadtwerken.

Das ist der Grund, warum die Vertreter der alten Energiewelt jetzt alle Register ziehen. “Blackout” heißt die ultimative Allzweckwaffe, mit der schon vor Jahren versucht wurde, den Menschen Angst zu machen, damals vor dem Atomausstieg. Nicht zufällig werden aus den Vorstandsetagen von E.On, RWE und Co. jetzt Horrorszenarien über die massenhafte Abschaltung von Gas- und Kohlekraftwerken lanciert. In den Vorstandsetagen der Energie-Dinosaurier greift allmählich Panikstimmung um sich. Denn im Kampf um die Neuausrichtung der Energielandschaft holen die Erneuerbaren immer weiter auf.

Beispiel Solarenergie: Gerade zur Mittagszeit, wenn der Stromverbrauch besonders hoch ist und die Energiekonzerne früher ihr bestes Geld verdient haben, können Solaranlagen an manchen Tagen bereits Deutschland zu 100 Prozent mit Strom versorgen.(*) Gas und Kohle kommen immer seltener zum Zuge. Außerdem sinken dank Wind- und Sonnenstrom die Börsenpreise, was die konventionellen Kraftwerke noch weniger rentabel macht.

Die Sorgen von RWE, E.On und Co. um ihre Gewinne sind also berechtigt. Aber es sind nicht unsere Sorgen. Denn die Energieversorgung selbst ist deshalb längst nicht in Gefahr. Sicher, bis Speichertechnik und andere Technologien eine 100-prozentige Stromversorgung durch Erneuerbare ermöglichen, brauchen wir noch das eine oder andere Gas- und vielleicht auch Kohlekraftwerk.(**) Doch deren Betrieb lässt sich ohne großen technischen und finanziellen Aufwand durchaus aufrechterhalten – notfalls in öffentlicher Hand.(***) Dazu brauchen wir weder RWE noch E.On.

Noch sind die Energie-Dinos nicht ausgestorben, haben dank billiger Kohle und niedriger CO2-Zertifikatepreise im vergangenen Jahr sogar rund zehn Milliarden Euro Gewinn eingefahren, fühlen sich stark genug, um zu drohen. Wir sollten ihre Drohungen ernst nehmen. Aber einschüchtern lassen sollten wir uns dadurch nicht.

Hier nachlesen:
http://www.tagesschau.de/kommentar/kommentar-kraftwerksabschaltung100.html

…und wie sehen die Fakten aus?

Döschners (1) Vorstellungen zur derzeitigen Energiesituation sind etwas utopisch, wenn nicht bizarr; jedenfalls nicht ganz realitätskompatibel: *) Die Solarenergie kann natürlich NICHT Deutschland zu 100 % mit Strom beliefern. Die höchste Einspeisung in diesem Jahr lag am 17.6. um 13:15 Uhr kurzfristig bei 23.000 MW.  Installiert sind 33.000 MW. Die abzudeckende Last im Sommer liegt – je nach Wochentag – zwischen 40.000 MW und 60.000 MW. Die gemittelte tägliche Solareinspeisung liegt bei 3.300 MW.

Da die Solareinspeisung nach der Mittagsspitze sofort wieder absackt in Richtung 0 MW am Abend, müssen konventionelle Kraftwerke wieder hochfahren, um ausfallende Solar-Leistung zu übernehmen.

Quelle: http://nature2010.tripod.com/wkr189.htm

**) »Wir brauchen noch das eine oder andere Gaskraftwerk«, wird erklärt. Das »eine oder andere Gaskraftwerk« könnte etwas zu wenig sein: Im Winter lagen um 18:00 abends häufig 70.000 MW Last an, während naturgemäß nur 0 MW PV am Netz waren und nur um 200 MW Windstrom. Wir brauchen daher vielleicht doch noch ein oder zwei Kraftwerke mehr – nämlich ca 80.000 MW konventionelle Leistung (Jahreshöchstlast) bei Totalausfall von Wind&Sdolar.

(***)  Der Betrieb von ca. 80.000 MW konventioneller Kraftwerkskapazität dürfte sich »ohne großen technischen und finanziellen Aufwand« leider NICHT aufrechterhalten lassen. Wenn weder EON noch RWE dazu gebraucht werden; wenn sie enteignet und außer Landes gejagt werden sollen, muß der Staat die gesamte konventionelle Stromerzeugung des Landes übernehmen. Wenn das ohne großen technischen und finanziellen Aufwand geht, ist unklar, warum EON z.B. zehntausende Mitarbeiter beschäftigt.

Davon abgesehen hat auch das in Staatshand befindliche Unternehmen EnBW die Abschaltung von vier Kraftwerksblöcken angekündigt.

“Der Energiekonzern EnBW will insgesamt vier Kraftwerksblöcke mit einer Gesamtleistung von 668 Megawatt abschalten, da sie nicht mehr wirtschaftlich betrieben werden können.”

http://www.stromtip.de/News/28881/EnBW-will-vier-konventionelle-Kraftwerksbloecke-abschalten.html

RWE besteht auch zu einem Teil aus “staatlichen”, d.h. hier städtischen Kraftwerken, die ebenfalls Abschaltungen ankündigen.

Vielleicht könnte ja der Staat seine eigenen Staatsbetriebe übernehmen?

Kurzbiographie von Jürgen Döschner (mit Dank an Leser T.Heinzow)

Kurzbiographie Jürgen Döschner
geboren 1957 in Duisburg
Werdegang:
seit 2003 Redakteur/Reporter WDR Wirtschaftsredaktion (Radio)
2002-2003 Elternzeit
1997-2002 Korrespondent und Studioleiter ARD-Hörfunkstudio Moskau
1992-1997 Redakteur/Reporter WDR Wirtschaftsredaktion (Radio)
1989-1992 Redakteur WDR2 Mittagsmagazin
1984-1989 Reporter WDR Regionalstudio Kleve
1983-1984 Freier Journalist (DLF, DW, WDR, Ruhr-Nachrichten)
1978-1983 Studium Journalistik und Geschichte in Dortmund
1978 Abitur am städtischen Gymnasium Kamp-Lintfort

Zuerst erschienen auf ACHGUT hier 

Einen Kommentar von Rudolf Kipp hierzu lesen Sie auf Science Sceptical 




Der heiße, überwiegend trockene Juli 2013- (k)ein ungewöhnliches Ereignis?

Die Trockenheit der vergangenen Juli- Wochen ließ viele Pflanzen welken und Wiesen verdorren- und das nach dem Frühsommer- Hochwasser im Mai/Juni. Doch wird der Juli tatsächlich immer trockener? Für die DWD- Station Erfurt- Bindersleben ergibt sich folgendes Bild:

Man erkennt, dass der Juli zumindest in Erfurt während der vergangenen reichlich 3 Jahrzehnte eher feuchter wurde- die angeblich durch den „Klimawandel“ zunehmende Sommerdürre blieb bisher aus!

Und was ist mit der „besorgniserregend zunehmenden Hitze“?

Insgesamt wurde der Juli etwas wärmer. Besorgniserregend ist das nicht- auch in der ferneren Vergangenheit gab es immer wieder längere warme Phasen und sehr heiße Juli- Monate, so 1959, 1947, 1946, 1941 oder 1911. Nach der Messreihe von Berlin- Tempelhof (Quelle: Berliner Wetterkarte) sind in fernster Vergangenheit die Juli- Monate 1756, 57, 59, 63, 64, 75, 81 und 94 sowie 1803, 26, 34, 59, 65 und 74 mit mindestens 21°C Monatsmittel (da fließen auch die kühlen Nachtwerte mit ein!) deutlich wärmer als das dort zu erwartende Langjährige Mittel von etwa 18 bis 19°C ausgefallen; „Spitzenreiter“ war der Juli 1834 mit 23,0°C. Und warum wurde der Juli in den vergangenen Jahrzehnten insgesamt etwas wärmer? Die Hauptursache ist nicht etwa der steigende CO2- Gehalt der Luft- es ist die länger und intensiver scheinende Sonne. Die folgende Abbildung zeigt, dass auch bei langzeitlicher Betrachtung die Sonnenscheindauer den dominieren Einfluss auf die Juli- Temperaturen hat:

In Potsdam (Quelle des Datenmaterials: PIK) beeinflusste während der vergangenen 120 Jahre die Sonnenscheindauer die Variabilität der Juli- Temperaturen zu fast 70% – je länger die Sonne schien, desto wärmer war es meistens auch. Und dass die Sonnenscheindauer tatsächlich zugenommen hat (bei linearer, langfristiger Betrachtung um fast eine Stunde pro Julitag) zeigt die letzte Abbildung (Quelle des Datenmaterials: PIK):

Auch bei der Sonnenscheindauer gibt es- ähnlich wie bei anderen meteorologischen Größen- periodische Fluktuationen, erkennbar an der rötlichen Ausgleichskurve. Der Juli 2013, in diesen Abbildungen noch gar nicht enthalten, bestätigte den dominanten Einfluss der Sonnenscheindauer, denn trotz vorherrschender Nordwest-, Nord- und Nordostströmung heizte die in vielen Regionen mit weit über 250 Monatsstunden deutlich übernormal scheinende Sonne die Luftmassen subpolarer Herkunft stark auf; nur die kurzen Sommernächte fielen mit Minima teilweise um oder sogar unter 10°C empfindlich kühl aus. Erst im letzten Monatsfünftel bescherte uns dann eine südliche Wetterlage auch sehr hohe Nachttemperaturen. Außerdem sei noch erwähnt, dass neben der Sonne auch verschiedenste Wärmeinsel- Effekte durch geänderte Landnutzung, zunehmende Bebauung und Versiegelungen sowie Wärmeemissionen (Abwärme aus Industrie, Verkehr und Haushalten) zu der leichten, aber keinesfalls besorgniserregenden Erwärmung beigetragen haben.

Dieses Wissen verschafft uns angesichts der aktuellen Hitze zwar keine absolute Abkühlung- aber wenigstens hilft es dabei, einen kühlen Verstand zu bewahren. Es wäre schön, wenn derartige, nüchterne Fakten auch endlich mal in unseren öffentlich- rechtlichen Medien Berücksichtigung fänden.

Verfasst und zusammengestellt von Stefan Kämpfe, Weimar, 25. Juli 2013.

  




Bemerkenswerte Korrelation des arktischen Meereises mit der Länge solarer Zyklen

Abbildung 1.5: Länge des Sonnenzyklus’ (gepunktete Linie), Index der Meereisausdehnung nach Koch aus Beobachtungen in der Grönländischen See (durchgezogene Linie).

Die Studie:

Multi-decadal variation of the East Greenland Sea-Ice Extent: AD 1500-2000

[Multi-dekadische Variation der Eisausdehnung vor Ostgrönland]

Knud Lassen and Peter Thejll

Abstract:

Die Eisausdehnung im Nordatlantik variiert mit der Zeit in zeitlichen Größenordnungen, die bis zu Jahrhunderten reichen, und der Grund für diese Variationen ist Gegen­stand dieser Studie. Wir betrachten den Koch-Eisindex, der die Menge des von Island aus gesichteten Eises im Zeitraum 1150 bis 1983 beschreibt. Diese Maßzahl der Eisausdehnung ist eine nicht lineare und verkürzte Maßzahl der Eismenge in der Grönland-See, gibt aber eine Gesamtübersicht auf die Eismengen während über 800 Jahren. Die Länge dieser Reihe ermöglicht Einsichten in die natürliche Variabilität der Eisausdehnung, und das Verständnis hierfür kann man nutzen, um derzeitige Variationen zu evaluieren. Auf diese Weise kommen wir zu dem Ergebnis, dass der jüngste Eisrückzug in der Grönland-See mit dem Ende der so genannten Kleinen Eiszeit Anfang des 20. Jahrhunderts in Beziehung stehen könnte. Wir betrachten auch die etwa 80-jährige Variabilität des Koch-Meereisindex’ und vergleichen ihn mit der ähnlichen Periodizität, die man hinsichtlich der Länge von solaren Zyklen gefunden hat, einem Maß für die Sonnenaktivität. Zwischen beiden findet sich eine enge Korrelation (R = 0,67) hoher Signifikanz (0,5% Wahrscheinlichkeit des Auftretens). Dies deutet auf eine Verbindung zwischen der Sonnenaktivität und dem Klima im Arktischen Ozean hin.

Schlussfolgerungen:
Angesichts der hohen gefundenen Signifikanz zeigen wir, dass die Korrelation von 0,67 zwischen multidekadischen Modi des Koch-Eisindex’ und der Länge solarer Zyklen auf einen Zusammenhang hindeutet und nicht bloßer Zufall ist. Die multidekadischen Modi repräsentieren immer noch lediglich einen kleinen Teil der Gesamtvarianz in der Zeitreihe des Eises. Sie zeigen: Während die Art der Sonnenaktivität, charakterisiert durch die variable Länge der solaren Zyklen, einige der in den Eis-Zeitreihen zu erkennenden Variationen verursachen kann, wird die Mehrheit durch andere Faktoren verursacht.

Während der multidekadische Zustand die Folge variierender Sonnenaktivität sein kann, ist der Grund des sich allmählich verändernden Zustandes nicht direkt aus den hier gezeigten Daten abzulesen. Offensichtlich muss hier eine natürliche Variation des Klimas zugrunde liegen. Eine Variation ähnlichen Aussehens kann man aus der Länge solarer Zyklen ablesen (Abbildung 1.5), aber es war nicht möglich, aus den vorhandenen Daten eine signifikante Korrelation abzuleiten. Nichtsdestotrotz spricht die Ähnlichkeit der Variation des Eistransportes durch die Fram-Straße und der geglätteten Variation der Länge solarer Zyklen in Abbildung 1.7 für die Hypothese, dass die Länge eines Sonnenzyklus’ beide natürliche Zustände abbilden kann. Diese Schlussfolgerung stimmt überein mit den Ergebnissen von Bond et al. 2001 (ihre Abbildung 2), dass nämlich eine persistente Reihe von der Sonne beeinflusster Variationen im Zeitraum von Jahrtausenden einschließlich der Mittelalterlichen Warmzeit und der Kleinen Eiszeit einen Grundsatz der Zyklen im Zeitraum von Jahrhunderten darstellen.

Abbildung 1.7: Variation des Eistransportes durch die Fram-Straße (in Einheiten von km³ pro Jahr) und geglätteter Werte der Länge solarer Zyklen (SCL121)(dicke Linie).

Die ‚niederfrequente Oszillation’, die den Eistransport durch die Fram-Straße ebenso wie die Eisausdehnung in der Grönland-See und der Davis-Straße im 20. Jahrhundert dominiert hat, kann daher als Teil eines Musters angesehen werden, dass seit mindestens vier Jahrhunderten existiert. Das Muster ist ein natürliches Ereignis und korreliert mit der variierenden Sonnenaktivität. Die Überlegungen hinsichtlich des Einflusses natürlicher Quellen der Variabilität der arktischen Eisausdehnung sind von Bedeutung für Befürchtungen, dass der gegenwärtige Eisrückzug ausschließlich auf menschliche Aktivitäten zurückzuführen ist. Offensichtlich ist ein beträchtlicher Teil des gegenwärtigen Rückzugs ein natürliches Ereignis.

Die ganze Studie steht hier (PDF)

Link: http://wattsupwiththat.com/2013/07/18/remarkable-correlation-of-arctic-sea-ice-to-solar-cycle-length/

Übersetzt von Chris Frey EIKE




Neue Technologie für alte Treibstoffe: Innovationen in die Erzeugung von Öl und Erdgas sichern die zukünftige Versorgung

Was war der Grund für diese dramatischen Zuwächse der Produktion? Antwort: Innovationen in der Bohrtechnik. Die Zusammenführung einer Myriade von Technologien – die von besseren Bohrköpfen und seismischen Daten über automatische Anlagen bis hin zu Hochleistungspumpen reichen – erlaubt es dem Öl- und Gassektor, erstaunliche Mengen Energie zu erzeugen aus Orten, die einst als unzugänglich galten oder vermeintlich bar jeder Kohlenwasserstoffe waren.

Die Dominanz von Öl und Gas in unserem Energiemix wird sich fortsetzen. Die massive Größenordnung im Sektor globaler Bohrung zusammen mit dem technologischem Können gibt uns allen Grund zu der Annahme, dass wir auch während vieler kommender Jahre noch über billige, reichliche und verlässliche Quellen von Öl und Gas verfügen werden.

Die Schlüsselergebnisse dieser Studie sind u. a.:

• Zwischen den Jahren 1949 und 2010 haben die Öl- und Gasbohrgesellschaften dank verbesserter Technologie die Anzahl der Bohrlöcher von 34 Prozent auf 11 Prozent gedrückt.

• Die globalen Ausgaben für die Öl- und Gasausbeutung sind winzig im Vergleich zu den Ausgaben für „saubere“ Energie. Im Jahr 2012 allein beliefen sich die Ausgaben für Bohrungen auf etwa 1,2 Billionen Dollar, fast 4,5 mal mehr als die Ausgaben für alternative Energieprojekte.*

[*Original: Global spending on oil and gas exploration dwarfs what is spent on „clean“ energy. In 2012 alone, drilling expenditures were about $1.2 trillion, nearly 4.5 times the amount spent on alternative energy projects. Dieser Absatz ist ein Widerspruch in sich. Entweder hat der Autor da etwas verwechselt, oder ich habe bei der Übersetzung was übersehen. A. d. Übers.]

• Trotz länger als ein Jahrhundert dauernder Behauptungen, dass der Welt Öl und Gas ausgehen werden, steigen die Schätzungen verfügbarer Ressourcen infolge Innovationen immer weiter. Im Jahr 2009 hat die EIA ihre Schätzungen hinsichtlich globaler Gasreserven gegenüber dem Vorjahr mehr als verdoppelt, und zwar auf etwa 30000 Billionen Kubikfuß – das ist genug Gas, um bei heutigem Verbrauch noch fast drei Jahrhunderte zu reichen.

• Im Jahr 1980 gab es auf der Erde nachgewiesene Reserven von 683 Milliarden Barrel. Zwischen 1980 und 2011 verbrauchten die Bewohner des Planeten etwa 800 Milliarden Barrel Öl. Und doch stehen die nachgewiesenen Reserven bei 1,6 Billionen Barrel, das ist eine Zunahme um 130 Prozent verglichen mit dem Niveau von 1980.

• Die dramatische Zunahme der Öl- und Gasvorräte ist das Ergebnis der ein Jahrhundert langen Verbesserungen älterer Technologien wie automatischem Bohren und der Bohrköpfe, zusammen mit seismischen Methoden, Fortschritten der Werkstoffwissenschaften, besseren Robotern, mehr geeigneten Unterseebooten und natürlich der Verbilligung der Computerleistung.

Einführung

Befürworter von Solar-, Wind- und anderer erneuerbarer Technologien lieben es, die Behauptung aufzustellen, dass die Innovation in jenem Sektor die Energielandschaft verändern werde. Zum Beispiel hat der aus dem Amt scheidende Energieminister Steven Chu kürzlich behauptet, dass neue Batterien „das elektrische Verteilersystem und den Verbrauch erneuerbarer Energie revolutionieren“ werden. Er behauptete auch, dass es dank öffentlicher Ausgaben auch signifikante Fortschritte hinsichtlich Solarzellen und Elektroautos gegeben habe. [1]

Umweltgruppen lieben es, darauf zu verweisen, dass im Jahr 2012 global etwa 268,7 Milliarden Dollar für „saubere Energie“ ausgegeben worden sind [2]. Aber viele der gleichen Befürworter ignorieren die Innovation – ebenso wie die erstaunlichen Geldsummen, die dafür ausgegeben werden [ohne auch nur einen Cent staatlicher Subvention! A. d. Übers.] – im Öl- und Gassektor. Allein im Jahr 2012 beliefen sich die Gesamtausgaben für das Bohren nach Öl und Gas auf über 1,2 Billionen Dollar, mehr als vier mal so viel, wie für „saubere Energie“ ausgegeben worden sind. Von dieser Summe entfallen etwa 400 Milliarden Dollar allein auf Nordamerika [3]. Die große Summe Geldes, die im Bereich Bohren ausgegeben worden ist, zusammen mit fortgesetzten Innovationen zeitigten ein klares Ergebnis: Während des vergangenen Jahrhunderts hat sich das Bohren nach Öl und Gas von einer Industrie, die von Intuition und wilder Spekulation dominiert worden ist, in eine solche verwandelt, die besser geeignet ist, die Präzision zu bieten, die für Flugzeuge und Automobile erforderlich ist.

Trotz der Vorteile der Erzeugung von Öl und Gas ist die Politik der Regierung weiterhin auf die erneuerbare Energie gerichtet. Dem Congressional Budget Office zufolge belief sich die Priorität der Zuführung von Steuergeldern im Jahr 2011 in den Energiesektor auf insgesamt 20,5 Milliarden Dollar. Von dieser Summe wurden 2,5 Milliarden Dollar für den Bereich Kohlenwasserstoff ausgegeben. Erzeuger erneuerbarer Energie (ausgenommen aus Wasserkraft) – wobei die große Mehrheit die Windenergie darstellt – erhielt Erzeugungs-Zuwendungen von 1,4 Milliarden Dollar aus Steuergeldern. Erneuerbare Energie-Projekte ohne Wasserkraft erhielten ebenfalls 3,9 Milliarden Dollar öffentlicher Zuwendungen, und Erzeuger von Äthanol und Biodiesel erhielten zusätzlich 6,9 Milliarden Dollar in Form von Steuervorteilen [4]. Insgesamt erhielt der nicht auf Wasserkraft beruhende Sektor erneuerbarer Energie Steuervorteile im Wert von 12,2 Milliarden Dollar oder fast fünf mal mehr als der Kohlenwasserstoff-Sektor. Und der Bereich der Erneuerbaren erhielt diese Steuervorteile, obwohl er nur 2 Prozent zum Gesamtenergieverbrauch in den USA beiträgt. Kohlenwasserstoffe tun das zu 87 Prozent, und Öl und Gas zusammen zu fast 60 Prozent [5].

Uns gehen Öl und Gas NICHT aus!

Uns gehen Öl und Gas aus. Und das war immer so. Mehr als ein Jahrhundert lang haben zahlreiche Prognostiker den Verbrauchern wiederholt eingeredet, dass die Weltvorräte an Öl und Gas begrenzt sind und bald – sehr bald – vollständig erschöpft sein werden.

Im Jahre 1914 hat eine US-Regierungsagentur, nämlich das Bureau of Mines, vorhergesagt, dass die Ölvorräte der Welt innerhalb von zehn Jahren ausgebeutet sein werden. Im Jahr 1939 schaute das US-Innenministerium auf die Ölreserven der Welt und sagte voraus, dass diese Ölvorräte in 13 Jahren vollständig ausgebeutet sein würden [6]. Im Jahr 1946 machte das US State Department die Vorhersage, dass Amerika in 20 Jahren einer Ölverknappung gegenüber stehen werde, und dass es keine andere Wahl habe als sich auf Importe aus dem Nahen Osten zu verlassen [7]. Im Jahre 1951 ließ das Innenministerium verlauten, dass die globalen Ölvorräte in 13 Jahren aufgebraucht sein würden [8]. Im Jahre 1972 veröffentlichte der Club of Rome Grenzen des Wachstums, in dem vorhergesagt wurde, dass das Öl der Welt bis zum Jahr 1992 und Erdgas bis zum Jahr 1993 reichen würde [9]. 1974 sagten der Bevölkerungswissenschaftler Paul Ehrlich und seine Frau Anne vorher, dass „die Menschheit innerhalb des nächsten Vierteljahrhunderts anderswo hinschauen würde als auf Öl als Hauptenergiequelle“ [10]. In den achtziger Jahren sagte Colin Campbell, einer der lautesten Peak Oil-Theoretiker, voraus, dass die globale Erzeugung 1989 ihren Höhepunkt erreichen werde. Oder man betrachte den Wälzer The Long Emergency: Surviving the Converging Catastrophes of the Twenty-First Century von James Howard Kunstler aus dem Jahr 2005. Darin heißt es, dass die USA am Abgrund der Katastrophe entlang taumeln infolge Energieknappheit: „Wir werden jeden Aspekt unseres täglichen Lebens hinunter schrauben müssen, von der Landwirtschaft über Bildung bis zum Einzelhandel“, sagte Kunstler. „Epidemische Krankheiten und schwankende Landwirtschaft werden mit Energiemangel zusammenfallen und Nationen ins Taumeln bringen“. [11]

Wir haben auch viel von der Verknappung von Erdgas gehört.

Im Jahr 1922 hat die US Coal Commission, eine von Präsident Warren Harding ins Leben gerufene Institution, gewarnt, dass „der Output von Erdgas begonnen hat zu schwächeln“ [12]. Im Jahr 1956 hat M. King Hubbert, ein Geophysiker bei Shell, der für seine Vorhersage von Hubberts Spitze berühmt geworden ist, vorhergesagt, dass die Gaserzeugung in den USA im Jahr 1970 mit 38 Milliarden Kubikfuß im Jahr 1970 seinen Höherpunkt erreichen werde [13]. 1977 hat John O’Leary, der Administrator der Federal Energy Association dem Kongress gesagt, dass „man annehmen muss, dass die heimischen Erdgasvorräte weiter abnehmen werden“, und dass die USA „so schnell wie möglich zu anderen Treibstoffen wechseln sollten“. Im gleichen Jahr hat Gordon Zareski von der Federal Power Commission vor dem Kongress ausgesagt und erklärt, dass die Politik der USA „auf der Erwartung abnehmender Verfügbarkeit von Erdgas“ basieren sollte. Er fuhr fort und sagte, dass die jährliche Produktion von Erdgas „weiterhin abnehmen werde, selbst unter der Annahme erfolgreicher Erschließung und Entwicklung der Grenzgebiete“ [14].

Im Jahr 2003 hat Matthew Simmons, ein in Houston arbeitender Investment-Bankier der Energieindustrie, die sich unter den Anführern der „Peak Oil“-Menschenmenge befand, vorhergesagt, dass die Erdgasvorräte dabei sind, von einer „Klippe“ zu fallen. Gefragt nach der Zukunft der Erdgasvorräte sagte Simmons (der 2010 verstorben ist): „Die Lösung lautet beten … im besten Falle, wenn alle Gebete erhört werden, wird es vielleicht die nächsten zwei Jahre noch keine Krise geben. Danach aber mit Sicherheit“ [15].

2005 hat Lee Raymond, der bekannt streitlustige ehemalige geschäftsführende Direktor von Exxon Mobile erklärt, dass „die Gasproduktion in Nordamerika ihren Höhepunkt überschritten habe“ [16]. Raymond, der sich 2006 aus dem Ölgiganten zurückgezogen hat, sagte, dass sein Unternehmen die Absicht habe, eine neue Pipeline zu bauen, die arktisches Gas aus Kanada und Alaska nach Süden transportieren würde und dass mehr Erdgasvorräte gebraucht würden, „solange es keinen gewaltigen Fund gibt, von dem niemand eine Ahnung hat, wo das sein könnte“ [17].

Viele weitere Beispiele von Untergangs-Vorhersagen hinsichtlich Energie könnten hier genannt werden. Aber schieben wir die mal beiseite und betrachten wir, was in Wirklichkeit passiert ist. Zwischen 1980 und 2011 hat die globale Erdgaserzeugung um 129 Prozent zugenommen, die Ölerzeugung um 33 Prozent [18]. Was war geschehen? Warum lagen so viele Vorhersagende – einschließlich des Direktors von Exxon, einem der weltgrößten und erfahrendsten Unternehmen – so völlig daneben? Die Antwort: Allesamt haben sie die Innovation im Bereich Öl unterschätzt. Heute sind die Bohrungen so präzise, dass man zwei Meilen tiefe Löcher bohren kann, die Bohrung um 90° drehen und zwei weitere Meilen horizontal bohren kann und trotzdem innerhalb weniger Inches der angepeilten Zone landen kann.

Innovationen erfolgen aus vielen Gründen, aber ein schneller Blick auf die Historie des Öl- und Gassektors der USA hilft bei der Erklärung, warum Amerika weiterhin weltführend ist hinsichtlich der Technologie bzgl. Ölfeldern. Die USA waren lange Zeit das innovativste Land hinsichtlich der Bohrtechnologie, weil mehr Öl und Gas erbohrt worden ist als in irgendeinem anderen Land auf diesem Planeten. Kein anderes Land kommt auch nur ansatzweise in die Nähe. Zwischen 1949 und 2011 wurden mehr als 2,6 Millionen Öl- und Gasbohrlöcher in den USA gebohrt, und diese Zahl hat um 41000 Bohrlöcher pro Jahr zugenommen [19].

Die Kosten der Bohrung eines mittleren Loches belaufen sich auf etwa 3 Millionen Dollar [20]. Folglich werden in den USA jedes Jahr im Öl- und Gassektor mehr als 120 Milliarden Dollar für die Erbohrung neuer Löcher ausgegeben. Angesichts dieses Niveaus der Ausgaben hat die Industrie enorme Anreize, die Prozesse zu verbessern, ebenso Hardware, Übungen und Personal. Und Dekaden ökonomischer Motivation resultierten in fortgesetzten Innovationen, die mit der Zeit immer weiter zunehmende Öl- und Gasvorräte erschlossen haben.

Erinnern wir uns, M. King Hubbert hat behauptet, dass die Erdgasproduktion in den USA im Jahr 1970 mit 38 Milliarden Kubikfuß pro Tag seinen Höhepunkt erreichen werde. Das ist nicht eingetreten. Im Jahr 2011 erreichte die heimische Gasproduktion den Rekordwert von 63 Milliarden Kubikfuß pro Tag [21]. Diese Produktion stellte eine Zunahme um 7,7 Prozent der im Jahr 2010 erzeugten Menge dar und sticht mühelos den bisherigen, aus dem Jahr 1973 stammenden Rekordwert von 59,5 Milliarden Kubikfuß pro Tag aus [22]. Außerdem ist die Ölproduktion in den USA, die sich seit Langem im Abwärtstrend befindet, gestiegen – und zwar nicht wenig. 2011 betrug die heimische Förderung 7,8 Millionen Barrel pro Tag, das höchste Niveau seit 1998. Und zahlreiche Analysten sagen voraus, dass die Ölproduktion in den USA innerhalb weniger Jahre die Menge sowohl von Russland als auch von Saudi-Arabien überholen wird, die bislang die größten Produzenten der Welt sind.

Bessere seismische Analysen, härtere und dauerhaftere Bohrköpfe, bessere Bohrmaschinen, Fernerkundungs-Systeme in Echtzeit und stärkere Pumpen haben alle zusammen unsere Fähigkeit verbessert, bei Öl und Gas fündig zu werden. Das lässt sich leicht nachweisen an der dramatisch zurück gehenden Anzahl trockener Bohrlöcher während der letzten sechs Jahrzehnte. Zwischen 1949 und 2010 sank die Prozentzahl trockener Bohrlöcher von 34 Prozent auf 11 Prozent. Dieser dramatische Rückgang trockener Löcher ist das Ergebnis fortgesetzter Innovation von allem in diesem Bereich.

Robert Bryce, Senior Fellow, Manhattan Institute

Link: http://www.manhattan-institute.org/html/eper_12.htm#.UeFIaaxmMuy

Übersetzt von Chris Frey EIKE