1

Nur Kernenergie ist nachhaltige Energie

Zu den Reichweiten der Quellen heißt es bei fossil und Kernspaltung „endliche“ Ressourcen und bei Erneuerbar „unendliche“ Ressourcen. Das ist zwar grundsätzlich nicht falsch, bedarf aber einiger Differenzierung. Die fossilen Quellen reichen einige Jahrzehnte bis Jahrhunderte, so viel weiß man, denn die Erde ist schon ziemlich sorgfältig danach abgesucht worden. Neue große Quellen sind nicht mehr zu erwarten.

Zur Kernenergie wird ebenfalls gern „einige Jahrzehnte“ als Reichweite angegeben. Zu dieser Zahl gelangt man, wenn man die derzeit bekannten Ressourcen durch den derzeitigen jährlichen Verbrauch dividiert. Dabei wird jedoch vieles unterschlagen:

  1. In abgebrannten Brennelementen sind nur 5% der Energie genutzt, durch Recycling, d.h. durch Wiederaufarbeitung und den Brüter sind die restlichen 95% nutzbar.
  2. Das abgereicherte Uran 235 nach dem Anreicherungsprozess ist nutzbar, dazu braucht man den Brüter.
  3. Auch Thorium kann in spaltfähiges Uran überführt werden. Thorium ist auf der Erde 4-fach häufiger als Uran vorhanden, es bildet eine riesige Energiereserve.
  4. Die Erde ist noch lange nicht endgültig nach seinen Uran- und Thoriumvorkommen abgesucht, es gibt noch viele heute schon bekannte Möglichkeiten (z.B. in Phosphatvorkommen, Uran gelöst im Meerwasser).

Die Technik des schnellen Natrium-Brüters wird seit 30 Jahren in Russland erfolgreich zur Stromversorgung genutzt. Seit 1981 ist der BN-600 in Betrieb, eine Anlage doppelt so groß wie in Kalkar fast fertig gebaut worden ist, dann aber auf den Müll geworfen wurde. Die nächste größere Version BN-800 ist in Russland Bau, die Version BN-1200 in Konstruktion. China will zwei Anlagen des russischen Brüters BN-800 bauen, Verträge mit Russland wurden geschlossen. Russland hortet abgereichertes Uran. Das in Gronau bis zu 0,3% U-235 abgereicherte Natururan wird nach Russland exportiert und dort noch etwas weiter abgereichert. Das „Abfall“-Uran-238 mit nur sehr wenig U-235 verbleibt in Russland und kann für den Einsatz im Brüter irgendwann genutzt werden. Der Brüter wird kommen, er ist mit Riesenschritten längst im Anmarsch, auch wenn in Deutschland die Augen vor dieser Entwicklung verschlossen werden.

Wenn man alle obigen vier Punkte berücksichtigt, kommt man bei der Kernspaltungsenergie zu einer Reichweite von mindestens 100 000 bis zu einer Million Jahren, vielleicht sogar noch mehr. Nehmen wir an, dass die fossilen 100 bis 500 Jahre reichen werden, dann folgen nach diesen Jahren immer noch mindestens 99 500 Jahre bis 99 900 Jahre, in denen allein die Kernspaltungsenergie die Menschheit mit lebensnotwendiger Energie versorgen kann. Angesichts des riesigen Unterschiedes zwischen 500 und 999 500 Jahren ist es völlig belanglos, um wie viele Jahre die Entdeckung des Schiefergases die fossilen Quellen noch strecken kann. Erst wenn die Kernspaltungsenergien aufgebraucht sind, muß für die Menschheit zwangsläufig das Zeitalter der Erneuerbaren kommen.

Man kann nach Verfügbarkeit der Energiequellen unterscheiden:

  1. Das heutige Zeitalter der fossilen und nuklearen Energien mit ca. 50 bis 500 Jahren.
  2. Dann das Zeitalter der Kernspaltungsenergien von etlichen 100 000 Jahren.
  3. Daran anschließend das Zeitalter der Erneuerbaren Energien.

Wie mag das Zeitalter der Kernspaltungsenergien nach Ende der fossilen Quellen aussehen?

Das Handeln der Menschen in der Zukunft kann niemand voraussehen. Aber wir kennen die zu allen Zeiten geltenden Naturgesetze, und daher ist ein kleiner Blick in die Zukunft möglich. Wir wissen, dass die fossilen Quellen Öl, Gas und Kohle für etliche Bereiche unersetzlich sind:

  1. Das Transportgewerbe, insbesondere der Flugbetrieb, unverzichtbar in der globalisierten Arbeitsteilung.
  2. Der Betrieb von Großmaschinen, denen eine hohe Leistung von z.B. 100 PS oder mehr tatsächlich abverlangt wird. Diese werden zur Sicherstellung der Ernährung durch eine industrialisierte Landwirtschaft gebraucht, ein gleiches gilt für Großmaschinen am Bau.
  3. Der Bereich der Werkstoffe: Kunststoffe, Chemie, Stahlherstellung aus Eisenerz.

Die aus Erdöl gewonnenen flüssigen Kohlenwasserstoffe (Benzin, Diesel) haben eine hohe Energiedichte, sie lassen sich einfach handhaben. Nur damit konnten Verbrennungsmotoren entwickelt werden, die für Flugzeuge, Autos, Großmaschinen am Bau und in der Landwirtschaft unverzichtbar sind. Für diese Zwecke scheidet Elektroantrieb aus, denn es gibt keine genügend leistungsfähigen Batterien. Es wird sie auch nie geben, denn es gibt kein physikalisches Prinzip, das sich zur Speicherung in der erforderlichen Energiemenge eignen würde. Das Elektroauto ist nur als bessere Seifenkiste ohne Heizung möglich, womit die Fahrfreude im Winter schnell verschwinden wird. Großmaschinen müssen Kabelanschluß haben, das mag am Bau in engem örtlichen Bereichen noch gehen, bereitet Schwierigkeiten in großflächiger Landwirtschaft.

Die flüssigen Kohlenwasserstoffe lassen sich nach Fischer-Tropsch auch aus Kohle herstellen, dann sollte die dazu erforderliche Wärmeenergie aus Kernkraft kommen.

Damit folgt für Zeitalter der Kernspaltungsenergien nach Ende der fossilen Quellen:

  • Keine Flugzeuge
  • Schiffsverkehr nur mit Nuklearantrieb
  • Kein Lkw-Verkehr, Rückkehr zu Pferdefuhrwerken, Schienenverkehr mit Strom
  • Industrielle Landwirtschaft nur mit Kabelanschluss ans Stromnetz
  • Keine Kunststoffe
  • Keine Stahlherstellung aus Erz
  • Wohnungsheizung nur mit Nuklearstrom, sehr eingeschränkt mit Holz

Es sollten die kostbaren fossilen Ressourcen für die Zwecke Transport, Ernährungssicherung, Werkstoffe reserviert werden. Der heutige gigantische Verbrauch der fossilen Energien im Bereich der Gebäudeheizung ist ein Luxus auf Kosten der Zukunft. Heizung ist mit Kernenergiestrom möglich und damit das Gebot der Vernunft.

Wie mag das Zeitalter der Erneuerbaren Energien aussehen?

Dazu sind keine langen Erörterungen erforderlich, denn im Mittelalter hatten wir das schon: Vielleicht eine Million Menschen konnten leben, mit viel Plackerei bei harter körperlicher Arbeit allein zur Ernährung und viel frieren im Winter. Natürlich hat dieses Zeitalter auch Vorteile, es schafft viele Arbeitsplätze – aber wollen die Deutschen wirklich körperliche Schinderei?

Was will Deutschland?

Für Deutschland ist nicht die Reichweite der Energierohstoffe wichtig, sondern es sollte überlegt werden, wie lange Deutschland noch das Geld besitzt, sich die benötigte Energie kaufen zu können. Deutschland muss für den Import von Öl, Erdgas und Steinkohle viel Geld aufwenden, das war in der Summe (Quelle BAFA):

in 2009                        54 Mrd. EURO

in 2010                        65 Mrd. EURO

in 2011                        82 Mrd. EURO

In Zukunft muss wegen der von der Kanzlerin initiierten und von allen Parteien begrüßten der Abschaltung von 8 bestens funktionsfähigen Kernkraftwerken auch der Ersatzstrom bzw. Rohstoffe zur Erzeugung des Ersatzstroms aus dem Ausland gekauft werden, die Reihe der Preissteigerungen kann nur nach oben gehen. Es kann sein, dass es schon nach 20 Jahren in Deutschland dunkel und kalt wird. Und irgendwann wird vielleicht das Kernstrom liefernde Ausland von Deutschland einen Preis dafür verlangen, dass das „nukleare Risiko“ trägt, wegen dessen Deutschland den Ausstieg gemacht hat.

Die deutsche Energiepolitik ist von vielen Ungereimtheiten gekennzeichnet. Man will keinen Fortschritt, man will Rückschritt zurück zur Zeit um 1600: wenige Menschen, viel körperliches schuften bei hungern und frieren. Wenn Umweltministers Herr Dr. Altmaier sagt: „Wir müssen den Menschen das Gefühl geben, dass die Energiewende auch ihr Projekt ist und dass sie davon profitieren“, dann nicht ersichtlich, wie dieses profitieren aussehen soll.

Thilo Bode schrieb im Greenpeace-Magazin 1/98: "Nie wieder wird es eine Phase derartigen Reichtums wie in der 2-ten Hälfte des 20-ten Jahrhunderts geben, Verzicht wird das Dauerthema der Industriestaaten werden müssen." Da hat Herr Bode Recht, Verzicht auf heutige Lebensart, dahin will sich das Land freiwillig begeben. Herr Bode hat eifrig mitgeholfen. Es fehlt aber die Vorstellungskraft, wie dieser Weg zurück in die Vergangenheit friedlich vonstatten gehen soll.

Für den Rest der Welt sieht alles ganz anders aus, dort wird die Kernspaltungsenergie noch lange die Zukunft der Menschen in Wohlstand nachhaltig sichern können.

Dr. Lutz Niemann, EIKE




Anthropogen verursachte globale Erwärmung widerlegt – die gescheiterte Theorie

Die Modelle haben Änderungen der Ausstrahlung nicht korrekt vorhergesagt; ebensowenig die Feuchtigkeit und die Temperaturtrends der oberen Troposphäre. Der wichtigste Einzelaspekt, der alles andere dominiert, liegt in der Tatsache, dass der Wärmegehalt der Ozeane seit 2003 kaum zugenommen (und möglicherweise sogar abgenommen) hat, entgegen den Simulationen. In einem Best-case-Szenario reichte keine der beobachteten Zunahmen an die Modelle heran. Modelle können lokale und regionale Verteilungen sowie jahreszeitliche Auswirkungen nicht vorhersagen, und doch summieren die Modellierer alle diese kleinen Fehleinschätzungen und behaupten, eine akkurate globale Makro-Vorhersage zu erstellen. Die größte Erwärmung fand stufenartig im Jahre 1977 statt, das CO2 dagegen ist jährlich gestiegen.

Beobachtungen aus jeder einzelnen Richtung deuten auf die gleiche Schlussfolgerung

Studien zur Auswertung von 28 Millionen Wetterballonen, tausender Aufzeichnungen von Satelliten, 3000 Messbojen im Ozean, Temperaturaufzeichnungen an 50 Orten in den USA und 1000 Jahre Temperatur-Proxies zeigen, dass die globalen Klimamodelle positive Rückkopplungen überschätzen und auf reinen Hypothesen beruhen. Die Beobachtungen zeigen geringere Werte der Klimasensitivität, egal ob man langzeitliche Feuchtigkeit, hochtroposphärische Temperaturtrends, langwellige Ausstrahlung, Änderungen der Wolkenbedeckung oder Änderungen des Wärmegehalts der riesigen Ozeane betrachtet.

Der fortgesetzte Glaube an gescheiterte Modelle bricht zentrale Grundsätze der Wissenschaft

Es gibt zwei Dinge, die Wissenschaft und Religion unterscheiden: in der Wissenschaft ist nichts geheiligt, und alles aus der Wissenschaft muss ultimativ zu den Beobachtungen in der realen Welt passen. Während eine Theorie nie zu 100% bewiesen werden kann, kann sie aber widerlegt werden. Die Teile des Klimapuzzles finden sich zusammen. Die Beobachtungen zeigen, dass der Erwärmungseffekt der anthropogenen CO2-Emissionen in den Computersimulationen um den Faktor 3 bis 7 überschätzt worden ist.

Die Beobachtungen zeigen wesentliche Fehler [der Modelle auf]:

  1. 1. Die fehlende Wärme im Ozean 8 – 14
  2. 2. Satellitenbeobachtungen zeigen, dass eine wärmere Erde  zusätzlich Energie in den Weltraum abstrahlt 15 -17
  3. 3. Die Modelle zeigen falsche Kernhypothesen – der Hotspot fehlt 22 – 26, 28 – 31
  4. 4. Wolken kühlen den Planeten, während er sich erwärmt 38 – 56
  5. 5. Die Modelle sind im lokalen, regionalen oder kontinentalen Maßstab falsch. 63- 64
  6. 6. Acht verschiedene Verfahren ergeben eine Klimasensitivität von 0.4°C 66
  7. 7. Hat sich der Planet durch das CO2 überhaupt erwärmt während der letzten 50 Jahre? Das ist schwerer zu sagen als man denkt. 70
  8. 8. Selbst bei der Annahme dass es seit 1977 wärmer geworden ist und die Erwärmung durchweg vom CO2 verursacht worden ist, sind die Rückkopplungen Null — Katastrophe abgewendet. 71
  9. 9. Vor 1000 Jahren war es warm oder wärmer als heute. Die Modelle können das nicht erklären. Es lag nicht am CO2. (Siehe auch Fehlschläge der Hockeyschläger) Die Modelle können vergangene Episoden mit Erwärmung nicht abbilden, warum also sollen sie die Zukunft vorhersagen können?

Bild oben rechts: Vergleich der Klimasensitivität (empirische Methoden im Vergleich zu Modellaussagen bei einer Verdoppelung des CO2-Gehaltes).

Die direkte Auswirkung von CO2 beträgt nur  ca. 1,2°C

Das IPCC schätzt, dass die direkte Auswirkung von Kohlendioxid bei jeder Verdoppelung des Gehalts bei 1,2°C Erwärmung liegt1 (das heißt vor Berücksichtigung der Rückkopplungen). Die Modelle verstärken diese Erwärmung mit Annahmen über eine positive Rückkopplung (blaue Region der Modellabschätzungen in der Graphik oben rechts). Aber die Beobachtungen zeigen, dass die Gesamtrückkopplung möglicherweise negativ ist, was die direkte Auswirkung des zusätzlichen Kohlendioxids reduzieren würde.

Während unabhängige Wissenschaftler auf diese empirischen Beweise verweisen, argumentieren von der Regierung bezahlte Wissenschaftler, dass eine Mehrheit der Wissenschaftler, ein Konsens, dass die Theorie von der vom Menschen verursachten Katastrophe kommen wird2. Dies ist rundweg unwissenschaftlich und ein logischer Trugschluss. Getestet werden wissenschaftliche Erkenntnisse durch Experimente und Beobachtungen. Die einzigen Beweise, die die Regierungswissenschaftler für die Schlüsselpunkte des Beitrags (dem Grund der Erwärmung) präsentieren können, sind von Computermodellen erzeugte Simulationen des Klimas. Diese Modelle sind nicht verifiziert und haben, wenn man sie darauf abklopft, keinerlei „Fähigkeiten (skills)“, das Klima vorherzusagen. Wissenschaftler mögen etwas anderes behaupten, aber kein einziges Modell ist dazu geeignet. Lediglich eine Auswahl der Modelle zeigt hinsichtlich einiger Parameter „Erfolge“.

Eine Vielzahl von Beobachtungen stimmt im Großen und Ganzen darin überein, dass jede Zunahme der mittleren globalen Temperatur infolge einer Verdoppelung des CO2-Gehaltes wahrscheinlich eher bei einem halben Grad liegt als die vom IPCC bestimmten 3,3 Grad3.

Das große Problem der Modelle: Rückkopplungen

Unser Klima ändert sich durch Einwirkungen von außen, Antriebe genannt: Die Sonne wird heller, oder ihr magnetisches Feld ändert sich, Ozeanströmungen verschieben sich, die Vegetation verändert sich oder Kontinente driften. Die Erde ist ein Ball aus Magma, sie ist 12 000 km dick mit einer dünnen Kruste von etwa 12 km Felsgestein darauf – wer weiß, welche Auswirkungen von innerhalb der Erde kommen? Das IPCC erkennt nur zwei Typen von Antrieben: Treibhausgase und solare Intensität.

Antriebe sind schwierig herauszuarbeiten. Noch schwieriger ist das mit den Rückkopplungen, da Systeme sich weltweit an veränderte Bedingungen anpassen. In einer wärmeren Welt beispielsweise bedeuten weniger Eis und mehr Pflanzenwachstum, dass weniger Sonnenlicht ins Weltall reflektiert wird, was mehr Erwärmung bewirkt. Der Ozean gast Kohlendioxid aus, mehr Wasser verdunstet, die Feuchtigkeit ändert sich, der Meeresspiegel steigt, und all diese Folgeänderungen beeinflussen die Temperatur immer weiter.

Die Rückkopplungen sind nicht einfach nur der Zuckerguss auf dem Kuchen, aber nach Ansicht des IPCC mächtiger als alle Antriebe, die direkt mit dem CO2 zusammenhängen. Während das CO2 tatsächlich zu einer Erwärmung von etwa 1 Grad führen kann, verstärken die Rückkopplungen dies – jedenfalls theoretisch – auf bis zu drei Grad. Der Hauptakteur bei den Rückkopplungen ist dem IPCC zufolge der Wasserdampf (d. h. Feuchtigkeit) 4. Das IPCC könnte für hundert Faktoren richtig liegen, aber wenn es die falschen Hypothesen benutzt hinsichtlich des Verhaltens von Wolken und Feuchtigkeit, kann die Vorhersage von alarmierenden drei Grad auf eine Vorhersage von lediglich einem halben Grad reduziert werden. Einige Details zählen mehr als andere.

Es ist nicht nur sehr schwierig, alle diese Rückkopplungen zu bewerten, es ist auch schwierig zu erkennen, ob einige Änderungen eine Rückkopplung, ein Antrieb5 oder beides zugleich sind – Wolken zum Beispiel. Der Einfluss der Wolken auf das Klima würde sich offensichtlich bei einer Erwärmung der Welt verändern (eine Rückkopplung). Aber wenn solarmagnetische Vorgänge die Wolken verändern, wie es sich jetzt immer mehr herausstellt, können die Wolken das Klima auch treiben (ein Antrieb) 6, 7.

Alle hier erwähnten Elemente zeigen unabhängig voneinander, dass die zentralen Modellannahmen falsch sind. Die Modelle nehmen an, dass die Relative Feuchtigkeit über den Tropen in einer sich erwärmenden Welt immer gleich bleibt, dass Wolken eine positive und nicht eine negative Rückkopplung bewirken und dass Änderungen der Bewölkung eine Rückkopplung und nicht ein Antrieb sind. Dies sind drei kritische und leicht zu belegende Irrtümer.

Schlussfolgerung

Egal wie man es dreht und wendet, die Modellvorhersagen passen nicht zu den Beobachtungen.

Die Erwärmung der letzten dreißig Jahre impliziert, dass wir bestenfalls [eine Erwärmung um] 1°C durch eine Verdoppelung des CO2-Gehaltes erwarten können, aber Beobachtungen aus acht natürlichen Experimenten weltweit und selbst auf Mars und Venus legen nahe, dass die obere Grenze der Klimasensitivität irgendeines Antriebs bei 0,4°C liegt. Außerdem, wenn Miscolscki recht hat und eine Zunahme des Kohlendioxids zu einer Verringerung des Wasserdampfes führt, könnte die Sensitivität von CO2 nahe Null liegen.

Den Vorhersagen der globalen Erwärmung widersprechen die Daten. Die riesigen Finanzmittel, die derzeit ausgegeben werden, um das Problem der globalen Erwärmung zu ‚lösen’, sollten in die Erforschung von Hypothesen umgeleitet werden, die konsistent mit empirischen Daten sind und von beobachteten Beweisen belegt werden.

Jo Nova und Anthony Cox

Die Ausnahmen bestätigen, dass die Regel falsch ist. Das ist das Prinzip der Wissenschaft. Sollte es zu irgendeiner Regel eine Ausnahme geben und das durch Beobachtungen gezeigt werden kann, ist diese Regel falsch.

Richard Feynman, according to The Meaning of it All, 1999 ­­­

Jo Nova und Anthony Cox

Link: http://joannenova.com.au/2012/10/man-made-global-warming-disproved/

HINWEIS: Im Original folgt eine lange Liste von Referenzen mit 80 Eintragungen.

Übersetzt von Chris Frey EIKE




100 Millionen Beispiele der Absurdität der globalen Erwärmungspropaganda

Sie sind diese Woche im Ausnahmezustand und schreien „Der Himmel fällt herab!“, und zwar angesichts von Vorhersagen einer Gruppe, die sich DARA nennt, der zufolge die globale Erwärmung während der nächsten 18 Jahre mehr als 100 Millionen Menschen töten und die globale Wirtschaft zerstören wird. Ja, Sie haben richtig gelesen – die globale Erwärmung wird mehr als 100 Millionen Menschen töten während der nächsten 18 Jahre!

Die Vorhersagen sind lächerlich bis zum Anschlag. Vielleicht würden wir, wenn der Leiter einer anerkannten wissenschaftlichen Organisation solche Behauptungen in die Welt setzt, diese lächerlichen Vorhersagen ankreiden als frühes Anzeichen von Demenz und gnädig von der Verbreitung der Vorhersagen Abstand nehmen, um die Person nicht zu verunsichern, wenn er oder sie sich aus der realen Welt verabschiedet.

Aber hier handelt es sich nicht um einen anerkannten Wissenschaftler oder eine respektierte wissenschaftliche Organisation, die so lächerliche Vorhersagen macht. DARA ist eine obskure, jetzt und für immer irrelevante Nicht-Regierungsorganisation, deren Ziel es ist, die Menschen in wohlhabenden Ländern sich schuldig fühlen zu lassen und Geld in die übrige Welt zu schaufeln infolge einer ganzen Palette von Sünden der westlichen Demokratien, und vor allem deren Klimasünden. Das Problem für DARA besteht darin, dass bisher niemand diese Gruppe kennt oder sich um deren Existenz geschert hat. DARA war lange Zeit in den tiefsten Ligen von Nicht-Regierungsorganisationen zu finden, unter der Voraussetzung, dass es eine solche tiefste Liga gibt, die verzweifelt genug ist, eine solche Gruppe aufzunehmen.

Aber DARA hat etwas herausgefunden, so unbedeutend sie auch war. Man mache lächerliche unbewiesene Behauptungen zur globalen Erwärmung, und die Oberliga der Umweltaktivisten-Gruppen wird sich einen Weg zu ihrer Tür bahnen. Tatsächlich ist es so, je lächerlicher oder dümmer die Behauptungen sind, umso mehr Glauben* wird man unter den Umweltaktivisten und ihren willfährigen liberalen Medien-Marionetten finden. Also hat sich DARA entschlossen, auf die Oberliga zu schielen und jede andere alarmistische Prognose zur globalen Erwärmung an Lächerlichkeit in den Schatten zu stellen.

[* Unübersetzbares Wortspiel. Original: „street creed“. A. d. Übers.]

Nicht dass DARA irgendwelche Anstrengungen unternommen hat, seine alarmistischen Anlagen zu maskieren. Ganz am Anfang der DARA-Studie, in der die alarmistischen Prognosen gemacht werden, fügte die Gruppe eine ganze Seite hinzu, auf der nichts weiter stand als die Worte „Gewidmet den unschuldigen Opfern der Klimaänderung“.

DAS ist nun wirklich eine objektive wissenschaftliche Studie für Sie!

Eine bislang völlig unbedeutende Aktivistengruppe mit einem ökonomischen Selbstinteresse, eine Krise der globalen Erwärmung zu verkaufen, hat also die völlig absurde und unverifizierbare Prognose abgegeben, dass die globale Erwärmung zu katastrophalem Elend und Tod führen wird (über 100 Millionen Tote während der nächsten 18 Jahre!), und die Alarmisten verkünden das mit dem gleichen Pathos, mit dem der erste Schritt eines Menschen auf dem Mond verbreitet wurde.

„Globale Erwärmung bringt Rückgang des globalen GDP um 1,2% und kann 100 Millionen Tote fordern“, schreit eine Schlagzeile in der International Business Times.

„Schockierende Studie: Bis 2030 könnte die Klimaänderung 100 Millionen Todesopfer fordern”, behauptet Yahoo News.

„Todesopfer durch Klimaänderung kann 100 Millionen bis 2030 erreichen, wenn die Welt nicht sofort handelt”, heißt es in einer Schlagzeile der Huffington Post.

„Klimaänderung reduziert das globale GDP um 1,2 Trillionen Dollar”, behauptet eine Schlagzeile in Businessweek.

Das alles läuft auf Glaubwürdigkeit hinaus. Die Alarmisten behaupten, dass die globale Erwärmung bis zu 100 Millionen Menschen innerhalb der nächsten 18 Jahre töten könnte. Basierend auf dieser absurden Vorhersage wollen sie uns dazu bringen, unsere Gesellschaft neu zu gestalten und die Weltwirtschaft regieren.

Nein danke – der Rest von uns lebt in der realen Welt.

James Taylor CFact

Link: http://www.forbes.com/sites/jamestaylor/2012/09/27/100-million-examples-of-global-warming-absurdity/

Übersetzt von Chris Frey EIKE




Fracking? In Deutschland ein alter Hut!

Nach dem Verzicht auf die Atomenergie, dem Ausstieg aus der deutschen Kohle nun die Absage an den heimischen Energieträger Erdgas?

Hollywood und „SPON“ schüren wieder einmal unqualifizierte Emotionen und Ängste in der deutschen Bevölkerung, die dieses Spielchen technisch nicht durchschauen kann und deshalb manipulierbar und beeinflußbar wird. Ohne detaillierte Fachkentnisse werden dem unbedarften Publikum Schauermärchen von lodernden Feuerbällen und Stichflammen aus dem Wasserhahn präsentiert und als profitgieriges Ergebnis des unkontrollierten Abbaus von Erdgasressourcen präsentiert.     

Was ist nun Fakt, was sind Ammenmärchen? Tatsache ist, das sich Erdgas –  und natürlich auch das Begleitprodukt Erdöl – bei Vorhandensein von Kerogen (1) in vornehmlich relativ dichten, nicht-porösen  Schichten, den Muttergesteinen, in tief in Sedimentationsbecken versenkten Räumen bei Temperaturen oberhalb von ca 80 Grad Celsius bildet, von wo es in der Regel allmählich in poröse, durchlässige Gesteinsformationen, den Speichergesteinen, gedrückt  und somit leicht gefördert und gewonnen werden kann. Nun sind aber diese konventionel-len Lagerstätten zunehmend erschöpft und ausgebeutet, so daß sich die Erdöl-industrie zunehmend den Muttergesteinen zugewandt hat, um die in ihnen noch schlummernden Gasreserven auszubeuten. Hierzu werden diese Schichten durch enormen, gewaltigen hydrostatischen Druck aufgebrochen, als deren Folge drei bis maximal 5 mm breite und bis zu 200m lange Risse entstehen. Damit sich diese durch den darauf auflastenden Gebirgsdruck nicht sofort wieder schließen und das freigesetzte Gas in die Risse, den „Fracks“, strömen kann, werden diese durch Sandeinlagerungen, die mit Spuren von Keramikkügelchen , Enzymen und Gele im Promillebereich durchmischt werden, gefüllt, so daß das nun leicht zugängliche Erdgas über den Bohrstrang gefördert werden kann.

Was veranlaßt nun Medien, durch bewußte Un- und Halbwahrheiten, Unter-stellungen und Tatsachenverdrehungen diese Methode zu diffamieren? Zunächst sei einmal festgestellt, daß das Fracking in Deutschland seit 1961, also seit mehr als 50 Jahren, bereits über 360 mal in Heide/ Holstein und zumeist an den Salzdomen in Niedersachsen ohne je einen Zwischenfall registriert zu haben, also unfallfrei, unter strengster Aufsicht der Bergbehörden betrieben und  –  bei den damals herrschenden Gaspreisen zumeist als unwirtschaftlich  – eingestellt worden ist. Weltweit sind seither tausende dichte, sogenannte unkonventionelle  Lagerstätten auf diese Art und Weise erschlossen worden – alle soweit bekannt- ohne Probleme. In den USA wird diese Methode vermehrt seit etwa 10 Jahre mit so großem Erfolg angewandt, daß sie in den letzten Jahren auf diesem Gebiet autark geworden ist und sogar Erdgas ausführen kann- allerdings mit einem Nebeneffekt: Diese Aufschlußmethode war so erfolgreich, daß der Erdgaspreis stark nachgegeben und die Bohr- zu Fördertätigkeit daraufhin nachgelassen hat und nur noch nach zuvor vertraglich vereinbarten Bohrterminen beschränkt aufrecht erhalten wird – bis der Gaspreis, der weit unterhalb des horrend teuren deutschen Gaspreises liegt, wieder wirtschaftliche Grenzen erreicht haben wird.

Das Geschrei  einiger Medien über feuerspeiende Wasserhähne in den USA aber ergibt sich aus der Tatsache, daß viele Farmer ihren Wasservorrat aus hauseigenen unverrohrten  Brunnen beziehen, in denen sich über Bakterien  Methan  und damit Gas gebildet hat – also Sumpfgas – und das gab es schon vor über hundert Jahren, als das Fracking noch nicht erfunden worden war. Die Berichterstattung darüber im Zusammenhang mit Fracking ist einfach Scharlatanerie und unverantwortlich – einfach Meinungsmanipulation und daher unseriös. Professionell ausgeführte Bohrungen werden hingegen  immer sachgerecht mit sogenannten Futterrohren zementiert, alle dahinterliegenden Schichten, also auch alle durchteuften Grundwasserhorizonte, werden verrohrt und ein Zutritt von Erdgas zu Wasserleitungen entsprechen nur der blühenden Fantasie von Journalisten. 

In Deutschland, und hier insbesondere im Thüringer Becken, im nördlichen Hessen sowie in Niedersachsen,  befindet sich nach Untersuchungen und Berechnungen der BGR, der Bundesanstalt für Geowissenschaften und Rohstoffe, Hannover , in diesen unkonventionellen „shale“-Lagerstätten (unkorrekt übersetzt mit „Schiefergas“) Erdgas in der Größenordnung  von 6,8 bis 22,6 Billionen m3  von dem bei einem Gewinnungsfaktor von 10 etwa 700 bis 2300 Milliarden m3    ,gefördert und für den heimischen Verbrauch benutzt werden können, was etwa die Erdgasversorgung Deutschlands für 7 bis 23 Jahre sicher stellen sollte.

Ein Alternative zu diesem Fracking wäre natürlich, daß sich Deutschland nach so vielem anderen auch von dieser Technik verabschiedet. Dann aber sollte sich jeder ein Sortiment an warmen Pullovern zulegen.               

Dr. Klaus-Jürgen Goldmann EIKE; Dipl.-Geologe

Dr. Goldmann wurde an der an der Universität Gießen diplomiert und promoviert war ab 1967 Research Associate an der Kansas Stae University, Kansas, US und von   1968 -1974 Erdölgeologe bei Texaco Inc. in New Orleans, La., USA, mit Bearbeitungsgebieten US-Golf von Mexiko und onshore Louisiana, Mississippi, Arkansas     und Florida : Dann ab 1973 arbeitete er als Erdölgeologe bei Caltex, Sumatra, Indonesien später ab 1974 als Chefgeologe, Exploration Manager und General Manager bei DEMINEX, Essen, Deutschland, mit Einsatzgebieten in Peru, Irland, Vietnam, Libyen und  Rußland.


(1) Kerogen = polymeres organisches Material aus dem unter Druck und Hitze entweder Erdöl ( tierisches Ausgangsmaterial) oder Erdgas ( pflanzliches   Ausgangsmaterial) entstehen




Deutschlands Chaos bei der Windenergie sollte für UK eine Warnung sein

Deutschland ist auf dem Weg der ‚Erneuerbaren’ weiter voran geschritten als jedes andere Land in der Welt, und jetzt zahlt es den Preis.

Am Freitag, dem 14. September kurz vor 10 Uhr vormittags haben die Windturbinen in UK alle Rekorde gebrochen, indem sie kurzzeitig etwas über vier Gigawatt (GW) Strom in das nationale Netz eingespeist haben. Drei Stunden später erreichten die 23 000 Windturbinen in Deutschland sowie Millionen Solarpaneele einen ähnlichen Rekord mit einem bis dahin einmaligen Wert von 31 GW. Aber die Reaktionen auf diese Ereignisse in den beiden Ländern hätten unterschiedlicher nicht sein können.

In UK triumphierte die Windindustrie. Maria McCaffrey, leitende Direktorin von RenewableUK, frohlockte: „Dieser Rekord zeigt, dass Windenergie eine zuverlässige, sichere Energiequelle für die immer weiter wachsende Zahl von Britischen Wohnungen und Industrien ist“ und dass „diese großzügige freie Ressource helfen wird, Stromrechnungen zu senken“. Aber in Deutschland wurde die Nachricht mit Bestürzung aufgenommen, und zwar aus Gründen, die hier in UK ernsthaft Aufmerksamkeit erregen sollten.

Deutschland liegt auf dem Weg, dem zu folgen unsere Politiker von uns verlangen, weit vor uns – und die dabei auftretenden Probleme sind dort groß in den Nachrichten. Tatsächlich wird Deutschland auf schlimme Weise durch genau die gleiche Täuschung über erneuerbare Energie heimgesucht, der unsere Politiker auch aufgesessen sind. Wie alle Enthusiasten für „kostenlose, saubere, erneuerbare Energie“ übersehen sie die fatalen Implikationen der Tatsache, dass Windgeschwindigkeit und Sonnenlicht konstant variieren. Sie werden gefangen durch den Trick der Windindustrie, die Brauchbarkeit von Windfarmen erheblich zu übertreiben, indem sie von deren „Kapazität“ reden, was die Tatsache verschleiert, dass ihr tatsächlicher Output zwischen 100 und 0 Prozent hin und her schwankt. In UK liegt das Mittel um 25 Prozent, in Deutschland niedriger, um 17 Prozent.

Je mehr ein Land von solchen Energiequellen abhängt, umso mehr erheben sich zwei massive technische Probleme – wie Deutschland gerade entdeckt. Das eine ist, dass es unglaublich schwierig wird, eine konstante Menge Energie in das Netz einzuspeisen, wenn dieser wild fluktuierende erneuerbare Output durch Input von konventionellen Kraftwerken ausgeglichen werden muss. Das andere ist, dass diese Backup-Kraftwerke konstant bereit gehalten werden müssen, weshalb sie die meiste Zeit sehr ineffizient und teuer laufen (und dabei so viel mehr „Kohlenstoff“ freisetzen als normal, dass jede vermeintliche CO2-Einsparung durch Wind obsolet wird).

Beide Probleme haben sich in Deutschland ganz groß eingenistet, weil es aggressiver auf dem Weg der Erneuerbaren vorangeschritten ist als jedes andere Land in der Welt. Hunderte Milliarden Euro wurden an Subventionen in Wind- und Sonnenenergie gepumpt, was zu den fast höchsten Stromrechnungen in Europa geführt hat – auf dem Papier repräsentiert Deutschland in fast jeder Weise den fanatischsten Öko, den man sich denken kann. Im vorigen Jahr erreichten Deutschlands Windturbinen bereits eine Kapazität von 29 GW, äquivalent zu einem Viertel des mittleren deutschen Strombedarfs. Aber weil diese Windturbinen sogar noch ineffizienter als unsere sind, erreichte der tatsächliche Output im Mittel nur 5 GW, und der meiste übrige Strom musste aus ausgereiften Kraftwerken kommen, die zu jeder Zeit eine Versorgung bis 29 GW zur Verfügung stellen und dann abgeschaltet werden müssen, wenn der Wind wieder auffrischt.

Inzwischen hat sich das Problem für das deutsche Netz sogar noch verschlimmert. Dank einer von der Regierung Merkel freigesetzten Flut von Subventionen ist die erneuerbare Kapazität sogar noch weiter gestiegen (bei Solarenergie zum Beispiel um 43 Prozent). Das macht die Stabilisierung des Netzes so schwierig, dass permanent das Risiko von Stromausfällen besteht. (Als vor Kurzem der Strom für eine Hamburger Aluminiumfabrik ausfiel, und zwar nur für den Bruchteil einer Sekunde, wurde die Fabrik herunter gefahren, was zu schweren Schäden geführt hat). Energieintensive Industrien müssen ihre eigenen Generatoren installieren oder trachten danach, alle zusammen Deutschland zu verlassen.

Tatsächlich erhebt sich jetzt eine mächtige Schlacht in Deutschland zwischen grünen Phantasten und praktischen Realisten. Weil die erneuerbare Energie kraft Gesetz mit Vorrang ins Netz eingespeist werden muss, sind die Betreiber konventioneller Kraftwerke so sauer, dass sie mit der Schließung drohen, weil sie diese Kraftwerke nicht mehr profitabel betreiben können. Die Antwort der Regierung bestand erstaunlicherweise darin, ein neues Gesetz auf den Weg zu bringen, dass sie die Kraftwerke mit Verlust weiter betreiben müssen.

Inzwischen haben Firmen wie RWE und E.on damit begonnen, 16 neue Kohle- und 15 neue Gaskraftwerke bis zum Jahr 2020 zu bauen, mit einem kombinierten Output äquivalent zu etwa 38 Prozent des deutschen Strombedarfs. Von keinem davon wird „carbon capture and storage“ (CCS) verlangt, was einfach ein Wunschtraum ist. Dies führt jeden Vorwand, dass Deutschland die EU-Ziele hinsichtlich der Reduktion von CO2 erreichen wird, ad absurdum (und Frau Merkels genauso utopisches Ziel, 35 Prozent Energie aus Erneuerbaren zu gewinnen).

Kurz gesagt, Deutschlands Weg der Erneuerbaren stellt sich als eine Katastrophe heraus. Dies sollte uns besondere Sorgen bereiten, weil sich unsere Regierung mit ihrem Plan der Errichtung von 30 000 Windturbinen und dem Erreichen des EU-Ziels von 32 Prozent unseres Stroms aus Erneuerbaren bis 2020 auf dem gleichen, in die Katastrophe führenden Weg befindet. Aber unseren „großen sechs“ Stromerzeugern, einschließlich RWE und E.on, wird gesagt, dass sie unsere Kohlekraftwerke keinen Ersatz bauen können (viele von ihnen werden demnächst, den EU-Regeln folgend, abgeschaltet). Diese Kohlekraftwerke versorgten uns vorige Woche mit etwa 40 Prozent unseres Stroms, dürfen aber nur weiterbetrieben werden, wenn sie mit dem Phantasiegebilde CCS ausgestattet werden. Eine ähnliche Drohung schwebt über Plänen, neue Gaskraftwerke des Typs zu bauen, die unabdingbar sind, 100 Prozent Backup für diese nutzlosen Windmühlen zur Verfügung zu stellen.

Alles hinsichtlich dieser jetzt in Deutschland tobenden Schlacht geht uns genauso hier in UK etwas an – außer dass wir nur Phantasten wie Ed Davey haben, zuständig für unsere Energiepolitik. Sollten die Realisten nicht ganz schnell eine Gegenkampagne starten, stecken wir tief in Schwierigkeiten.

Nur Warmisten können dies mit der Note 1 belegen

Während Michael Gove tapfer unserem nicht funktionierenden Examenssystem auf die Sprünge helfen will, könnte er einen Blick auf einige aktuelle Prüfungsunterlagen werfen, wie die, die im Juni den Studenten durch unsere führende Examensagentur AQA vorgelegt worden sind. Die Kandidaten wurden aufgefordert, 11 Seiten „Quellenmaterial“ zum Thema Klimaänderung zu diskutieren. Die Quellen reichten von Berichten des IPCC bis zum Guardian, die alle schamlos den Alarmismus der globalen Erwärmung propagieren. Ein Dokument vom Met. Office sagte feierlich vorher, dass „selbst wenn die Temperaturen nur um 2°C steigen würden, 30 bis 40 Prozent aller Spezies auszusterben drohen“. Eine Graphik der US-EPA zeigte, dass die Temperatur während der vergangenen 100 Jahre bereits um 1,4°C gestiegen ist – genau zweimal das allgemein akzeptierte Bild.

Der einzige Hinweis, dass irgendjemand solche Dinge in Frage stellt, war ein Artikel von Louise Gray im Daily Telegraph, die den niemals ermüdenden Aktivisten des Warmismus, Bob Ward vom Grantham Insitute, zitierte, der alle Skeptiker als „eine übrig gebliebene Gruppe von Dinosauriern“ bezeichnete, die „den Punkt der Wissenschaft nicht verstanden hätten“.

Falls es immer noch das Ziel der Ausbildung sein sollte, den Menschen beizubringen, Beweise zu untersuchen und rationell zu denken, würde jeder helle Kandidat einen Durchbruch erzielen, indem er zeigt, dass all dieses „Quellenmaterial“ nichts weiter als geistlose, einseitige Propaganda war. Aber heute fürchtet man, dass sie so heftig niedergemacht werden, wenn sie nicht mit den gewünschten Antworten kommen, dass sie unter der kleinen Handvoll Kandidaten wären, denen man einstimmig ein „durchgefallen“ verpasst hätte.

Christopher Booker

Link: http://www.telegraph.co.uk/comment/9559656/Germanys-wind-power-chaos-should-be-a-warning-to-the-UK.html

Übersetzt von Chris Frey EIKE




Vergleich Modell – Daten: Anomalien der Wassertemperatur – November 1981 bis September 2012

[* Die Begriffe „hindcast/projection“ werden hier als Gegensatz zwischen Rückrechnung oder Rückvergleich (backtesting) und Vorhersage behandelt. Engl. Wikipedia sagt für  „hindcast“ auch "backtesting". A. d. Übers.]

Die Graphen enthalten das Multimodell-Mittel der CMIP3-Rückrechnung– und Vorhersagen für die Wassertemperatur, die mit den beobachteten Daten verglichen werden. Die beobachteten und modellierten linearen Trends werden ebenfalls gezeigt. Dies wurde für globale, hemisphärische und regionale Ozeangebiete durchgeführt.

Die mittleren und linearen Trends der CMIP3-Modellsimulation machen die Graphiken mit Sicherheit anschaulicher [busier]. Man beziehe sich auf den Graphen der globalen Anomalie der Wassertemperatur. Wir haben die geglätteten Daten (gleitendes Mittel über 13 Monate) hinzugefügt, und zwar vor ein paar Monaten auf Versuchsbasis. Leser haben dann ihr Interesse bekundet, die geglätteten Daten beizubehalten. In einigen Fällen können die Trendlinien die jüngsten Änderungen in dem Datensatz verschleiern.

(1) Globale Anomalien der Wassertemperatur

TRENDKARTEN

Die beiden folgenden Karten zeigen die modellierten im Vergleich zu den beobachteten Korrelationen mit der Zeit von 1982 bis 2011. Die Skala unter jeder Karte zeigt den Korrelationskoeffizienten, nicht die Temperatur. Ein positiver Korrelationskoeffizient von 1,0 (stark rosa) würde bedeuten, dass sich ein Gebiet linear von 1982 bis 2011 erwärmt hat, während ein negativer Korrelationskoeffizient von -1,0 (lila) ein Gebiet mit einer linearen Abkühlung in dieser Periode anzeigen würde. Im Grunde zeigen die Karten die Verteilung modellierter und beobachteter Erwärmung bzw. Abkühlung. Es gibt dabei keine Ähnlichkeiten. Behalten Sie diese beiden Bilder im Kopf, wenn Sie das nächste Mal eine wissenschaftlich begutachtete Studie zu Gesicht bekommen, die das Klima regional auf dekadischer oder multidekadischer Basis projiziert. Die Modellierer haben keine Chance, das zu tun, solange sie nicht ENSO und seine Auswirkungen auf die regionalen Land- und Wassertemperaturen vorhersagen können. Beides wird nur sehr unzureichend simuliert.

(2) Modellierte und beobachtete Korrelationen mit der Zeit

Anmerkungen zu den Vergleichen zwischen Modell und Beobachtungen

Die Vergleiche zwischen Modell und Beobachtungen betrachte ich als Aktualisierungen von zwei meiner Lieblingsbeiträge: Satellite-Era Sea Surface Temperature Versus IPCC Hindcast/Projections Part 1 und Part 2 [etwa: Wassertemperatur der Satellitenära im Vergleich zu Nach-/Vorhersagen des IPCC, Teil 1 und Teil 2]. Beziehen Sie sich auf diese Beiträge bei Diskussionen um die monumentalen Unterschiede zwischen den Modellen und den Beobachtungen. Ich zeige sie auch in meinem Buch If the IPCC was Selling Manmade Global Warming as a Product, Would the FTC Stop their Deceptive Ads? in Abschnitt 8. Einige Vergleiche zwischen Modellen und Daten finden sich auch in meinem neuen Buch  Who Turned on the Heat? – The Unsuspected Global Warming Culprit, El Niño-Southern Oscillation. Mehr dazu später.

Von den Multimodell-Mitteln wird nicht erwartet, dass sie die Variationen der Wassertemperatur von Jahr zu Jahr zeigen im Zusammenhang mit der El Niño-Southern Oscillation (ENSO). Einige Modelle simulieren die ENSO, andere nicht. Die Modelle, die tatsächlich versuchen, ENSO zu modellieren, machen das sehr ärmlich. (Dies wird durch zahlreiche begutachtete Studien belegt. Man betrachte den Beitrag Guilyardi et al (2009) “Understanding El Niño in Ocean-Atmosphere General Circulation Models: progress and challenges”). Jedes Modell erzeugt ENSO-Ereignisse nach seinem eigenen Schema, das heißt, die modellierten ENSO-Ereignisse reproduzieren nicht die beobachtete Häufigkeit, die Dauer und die Größenordnung von El Niño und La Niña-Ereignissen. Da das Multimodell-Mittel das Mittel all dieser nicht synchronen ENSO-Signale zeigt, werden diese Ereignisse heraus gemittelt. Aus diesem Grunde werden wir nur mit der Ungleichheit modellierter und beobachteter Trends konfrontiert.

Und wie oben gezeigt wurde, ist der Unterschied zwischen den linearen Trends auf globaler Basis ziemlich groß. Die Modellsimulationen zeigen sowohl in die Vergangenheit als auch in die Zukunft eine globale Anomalie der Wassertemperatur, deren Rate 80% höher liegt als die beobachtete Rate. Abhängig von den Teilbereichen sind die Modelle mal besser, mal schlechter. Zum Beispiel liegt die Rate der vom Modell simulierten Wassertemperatur-Anomalie auf der Nordhemisphäre nur um 24% höher als beobachtet, während die Modelle in der Südhemisphäre sagen, dass sich die Wassertemperatur mit einer Rate erwärmen sollen, die um das 2,5-fache über der beobachteten Rate liegt.

Man erinnere sich: die globalen Ozeane repräsentieren etwa 70% der Oberfläche unseres Globus’, und die Klimamodelle sind nicht in der Lage, deren Erwärmung zu simulieren. Die globale Wassertemperatur hat sich während der vergangenen über 30 Jahre als Folge von ENSO-Ereignissen erwärmt und nicht durch anthropogene Treibhausgase. Dies habe ich detailliert in meinem jüngsten Buch erläutert mit dem Titel Who Turned on the Heat? – The Unsuspected Global Warming Culprit, El Niño-Southern Oscillation sowie in mehreren Beiträgen in meinem Blog.

Bemerkung: Die auf CMIP5 basierenden Rechnungen der Wassertemperatur waren über den Climate Explorer von KNMI verfügbar gewesen. Ich hoffte, sie in diesem Beitrag nutzen zu können. Unglücklicherweise wurden sie aber vom KNMI Climate Explorer entfernt. Hoffentlich werden sie in naher Zukunft wieder erscheinen, so dass ich sie bei der nächsten Aktualisierung verwenden kann. Damit möchte ich eine Vorschau geben, wie schlecht die neuesten Modelle die Wassertemperatur vor Erscheinen des geplanten IPCC-Berichtes Nummer 5 simulieren.

Die MONATLICHEN Graphiken illustrieren grob die OIv2-Anomaliedaten der Wassertemperatur von November 1981 bis März 2012, wie sie auf der Website von NOAA NOMADS gezeigt werden (link siehe unten). Ich habe einen gleitenden 13 Monate langen Filter hinzugefügt, um die jahreszeitlichen Schwankungen zu glätten. Die Trends basieren auf den Rohdaten, nicht auf den geglätteten Daten.

Schließlich werden die Differenzen zwischen Modellen und Beobachtungen im restlichen Beitrag nicht mehr diskutiert. Man kann diese Differenzen aber jederzeit gerne kommentieren!

NINO3.4, individuelle Temperaturvergleiche nach Ozeangebiet und Hemisphäre

(3) NINO3.4 Sea Surface Temperature Anomalies

(5S-5N, 170W-120W)

 

(4) Northern Hemisphere Sea Surface Temperature (SST) Anomalies

(5) Southern Hemisphere Sea Surface Temperature (SST) Anomalies

 

(6) North Atlantic Sea Surface Temperature (SST) Anomalies

(0 to 70N, 80W to 0)

(7) South Atlantic Sea Surface Temperature (SST) Anomalies

(60S to 0, 70W to 20E)

 

(8) North Pacific Sea Surface Temperature (SST) Anomalies

(0 to 65N, 100E to 90W)

(9) South Pacific Sea Surface Temperature (SST) Anomalies

(60S to 0, 120E to 70W)

 

(10) Indian Ocean Sea Surface Temperature (SST) Anomalies

(60S to 30N, 20E to 120E)

 

(11) Arctic Ocean Sea Surface Temperature (SST) Anomalies

(65N to 90N)

 

(12) Southern Ocean Sea Surface Temperature (SST) Anomalies

(90S-60S)

Besteht Interesse zu erfahren, wie Mutter Natur und nicht Treibhausgase die globalen Ozeane während der letzten 30 Jahre erwärmt haben?

Die Aufzeichnungen der Wassertemperatur zeigen, dass El Niño und La Niña-Ereignisse für die Erwärmung der globalen Ozeane der letzten 30 Jahre verantwortlich sind, und nicht vom Menschen emittierte Treibhausgase. Ich habe seit 4 Jahren der Aufzeichnungen zur Wassertemperatur untersucht und konnte keinen Beweis einer anthropogenen Treibhausgas-Komponente feststellen. Das heißt, die Erwärmung der Ozeane hat Mutter Natur selbst besorgt, und nicht anthropogene Treibhausgase.

[Im Original folgt ein längerer Abschnitt, in dem Tisdale Werbung für sein Buch macht. Diese Abschnitte habe ich nicht übersetzt. Zum Schluss jedoch unterstreicht Tisdale seine Unabhängigkeit und äußert sich auch allgemein dazu. Weil dies wohl für alle Wissenschaftler gilt, folgt hier noch die Übersetzung dieses Abschnitts. A. d. Übers.]

Wenn ich sage, dass ich unabhängig bin, meine ich damit, dass ich nicht in einer Forschungsgruppe oder einer akademischen Position angestellt bin; ich bin nicht verpflichtet, Ergebnisse zu veröffentlichen, um Zuwendungen für meine Forschungen fließen zu lassen – das heißt, meine Forschung wird nicht durch irgendeine Agenda getrieben. Ich bin Pensionär. Die einzigen Zuwendungen, die ich erhalte, stammen aus dem Verkauf meines Buches und aus Spenden in meinem Blog. Auch bin ich unabhängig davon, mit irgendwelchen Konsensmeinungen verbunden zu sein, so dass meine Forschungsergebnisse nicht den Spießrutenlauf der begutachtenden Tempelwächter durchlaufen müssen. Um die Wahrheit zu sagen, meine Forschungsergebnisse dürften es kaum durch diese Spießrutengasse schaffen, weil die Daten der Wassertemperatur während der Satellitenära den Lehrsätzen des Konsens’ widersprechen.

Bob Tisdale 

Quellen

The Reynolds Optimally Interpolated Sea Surface Temperature Data (OISST) are available through the NOAA National Operational Model Archive & Distribution System (NOMADS).

http://nomad3.ncep.noaa.gov/cgi-bin/pdisp_sst.sh

The CMIP3 Sea Surface Temperature simulation outputs (identified as TOS, assumedly for Temperature of the Ocean Surface) are available through the KNMI Climate Explorer Monthly CMIP3+ scenario runs webpage.  The correlation maps are available through the KNMI Climate Explorer as well.

About Bob Tisdale

For information about Bob Tisdale and his blog Climate Observations refer to the About webpage at his blog:  http://bobtisdale.wordpress.com/about/

Link: http://bobtisdale.wordpress.com/2012/10/08/model-data-comparison-sea-surface-temperature-anomalies-november-1981-through-september-2012/#more-2431

Übersetzt von Chris Frey EIKE




Purzelbäume und Bauchklatscher: Australische Kohlenstoffsteuer scheitert mit Pauken und Trompeten

Mit der Kohlenstoffsteuer steht Australien zusammen mit der Europäischen Union mit dieser Maßnahme allein da. Außerdem liegt sie mit einem eskalierenden Wert von 23 Dollar etwa doppelt so hoch wie das vorherrschende Niveau in der EU. Wenn er jetzt sagt, dass die Steuer an den europäischen Preis angepasst werden soll, indem den Emittenten von Kohlendioxid in Australien erlaubt wird, Emissionszertifikate von der EU zu kaufen, hat er vier Purzelbäume geschlagen und einen Bauchklatscher hingelegt.

Erstens hat er die Absicht der Kohlenstoffsteuer aufgegeben, welche die australischen Emissionen bis zum Jahr 2050 um 80 Prozent reduzieren sollte, was die Regierung vergessen zu haben scheint. Dieses Niveau wäre bei 23 Dollar pro Tonne unmöglich zu erreichen (eine Steuer, der den Strompreis um 40 Prozent hat steigen lassen).

Um dieses 80-Prozent-Ziel der Reduktion zu erreichen, wäre eine Steuer von mehr als 150 Dollar pro Tonne erforderlich. Dies würde zu einer Verdreifachung des Strompreises führen und direkt zu kolossalen Kosten für die Haushalte; sie würde die gegenwärtige Industriestruktur in Australien zerschlagen und eine deutliche Verschlechterung des Lebensstandards bringen.

In seinem Bemühen um grüne Unterstützung und eine Kriegskasse zu erhalten, um Unterstützer mit Steuerabschlägen zu gewinnen, griff die Regierung begierig nach Vorhersagen des Schatzkanzlers, dass eine Kohlenstoffsteuer nur geringe ökonomische Auswirkungen hätte.

Solche Vorhersagen gehen von weitreichenden technologischen Änderungen aus, die die Low-Carbon-Energie* bevorzugen. Und das, obwohl es bisher keinerlei Fortschritte bzgl. der Ökonomie dieser Quellen gegeben hat, jedenfalls im Vergleich zur konventionellen Energieerzeugung der letzten 20 Jahre.

[*Weiß jemand für diesen Begriff eine gute Übersetzung?]

Verknüpft man den Preis mit denen in Europa bedeutet das, dass der Preis auf 10 Dollar pro Tonne fällt, ein Niveau, dass kaum dazu geeignet ist, auch nur ein Jota Emissionsreduktion zu bringen, aber dem Verbraucher und der Industrie steigende Preise zuzumuten, die immer noch viele Firmen nach Übersee vertreiben werden und die Anzahl der produktivsten Arbeitsplätze verringern dürften.

Zweitens, existierende und zukünftige Ausgaben erfordern eine Kohlenstoffsteuer von 23 Dollar pro Tonne, die Jahr für Jahr steigt. Dass man diesen Plan fallen gelassen hat, reißt ein riesiges Loch in das Budget. Dies zeigt erneut die Unfähigkeit der Labor Party, die notwendige Finanzdisziplin aufrecht zu erhalten. Die Absenkung des Preises auf 10 Dollar bedeutet, dass sich die von der Regierung geschätzten Steuerreinnahmen von 8 Milliarden Dollar halbieren. Und selbst wenn die Emittenten alle Anforderungen erfüllen und Emissionszertifikate aus der EU kaufen, wird die Regierung keine Steuern erhalten. Wird es die Ausgaben jetzt zurückfahren? Wenn ja, wo?

Drittens, die höchste Besteuerung mit 23 Dollar pro Tonne auch nur in Erwägung zu ziehen in der Erwartung, dass alle anderen Länder dem folgen werden, zeigt das Ausmaß des Schadens, der durch die Regierung angerichtet worden ist, weil sie ihre eigene Propaganda glaubt. Eine Flut von Studien zur Stützung der Entscheidung der Regierung hat durchweg gezeigt, dass kein anderes bedeutendes Land Australiens Führung mit einer Kohlenstoffsteuer folgen wird, und alle unsere Handelskonkurrenten lehnen das einfach ab.

Mit seiner Entscheidung, die Roxby Downs-Expansion aufzuschieben, hat BHP Billiton gegenüber den europäischen Börsen eingeräumt, dass die Kohlenstoffsteuer ein Faktor war. Allerdings fand sich nichts davon in einer Presseerklärung für Australien.

Wir werden den Niedergang weiterer Projekte erleben wegen zunehmender Vorräte von Minen rund um den Globus und wegen einer von Steuern getriebenen Verringerung der australischen Wettbewerbsfähigkeit.

Viertens, die Regierung erlaubt es australischen Emittenten, von den EU-Ländern Zertifikate zu kaufen. Wenn Zertifikate für 100 Millionen Tonnen Kohlendioxid gekauft werden, bedeutet das, dass man der EU etwa 1 Milliarde Dollar pro Jahr schenkt.

Diese verschwenderische Förderung der EU auf Kosten der australischen Stromkunden wird nicht im Geringsten zu einer Verminderung der Emissionen im globalen Maßstab beitragen.

Es ist an der Zeit zu erkennen, dass die Kohlenstoffsteuer ein totaler Fehlschlag der Politik ist und sie abzuschaffen, bevor der Schaden für unsere Wirtschaft allgemein noch größer wird und die Stromrechnungen für die Verbraucher noch teurer.

Alan Moran, Australian Financial Review

Link: http://www.ipa.org.au/news/2738/somersaults-and-a-belly-flop-carbon-tax-fails-on-all-counts

Zu diesem Artikel gibt es auch einen Kommentar von Andrew Bolt (Link siehe unten):

Nutzlose Landwirtschaft – stattdessen Zettelwirtschaft

Andrew Bolt

Global warming – general

Ich entschuldige mich, dass ich diese außerordentliche Entwicklung nicht gleich bemerkt habe – der Traum der Grünen wird Wirklichkeit, und zwar dank der verrückten Kohlenstoffsteuer von Labor:

Qantas hat zugestimmt, Kohlenstoffzertifikate für mehr als eine Million Tonnen CO2 von der Henbury-Station in Zentral-Australien zu kaufen.

Die Station mit einer Größe von 527 000 Hektar wurde von den RM Williams Agricultural Holdings im vorigen Jahr für 13 Millionen Dollar gekauft.

Die Regierung hat 9 Millionen zum Projekt der Erhaltungszone zugeschossen. Im Rahmen dieses Projekts wird die Station in den Northern Territories im Bestand verringert und in eine naturnahe Landschaft zurückverwandelt.

[Für Interessierte: Was es mit diesem Henbury-Projekt auf sich hat, kann man hier nachlesen. A. d. Übers.]

Der bei Qantas für Umweltangelegenheiten zuständige Mann John Valastro sagt, dass die Airline zum ersten Mal Kohlenstoffzertifikate in Australien gekauft hat.

Dies ist nichts Anderes als die Öffentlichkeit zu besteuern, um produktive Farmen der Natur zurückzugeben. Mehr zahlen für weniger Nahrung und weniger Arbeitsplätze. Damit wird der Traum der Grünen realisiert, die Menschheit aus der Landschaft zu entfernen.

Und man beachte die erstaunliche, dabei involvierte Geschäftemacherei. Eine Farm im Wert von 13 Millionen Dollar erzeugt jetzt Kohlenstoffzertifikate, die, wenn sie zum gegenwärtigen Kohlenstoffpreis gekauft werden, 23 Millionen Dollar wert sind – alles finanziert durch die Passagiere bei Qantas und durch den Steuerzahler.

Diese Farm wird keine Arbeitsplätze schaffen, sondern Fetzen von Papier, die es Passagieren erlauben, mit erleichtertem grünen Gewissen zu fliegen – und mit einer erleichterten Brieftasche.

Auswirkung auf die Temperatur? Null! Auswirkungen auf die Preise für Nahrungsmittel, Transporte, Arbeitsplätze und Wettbewerbsfähigkeit? Durchweg negativ.

A similar take.

Aktualisierung

Mick Keogh vom Australian Farm Institute kann nicht verstehen, wie dieser Deal funktionieren soll:

Qantas kassiert derzeit von den Passagieren 9,22 Dollar pro Tonne Emissionen, so dass dieser Deal potentiell fast 8,2 Millionen Dollar pro Jahr wert ist (unter der Annahme, dass Qantas davon nicht einen Anteil abzweigt für ‚administrative’ Kosten), die dem Henbury-Projekt zugute kommen.

Allerdings gibt es derzeit keine CFI-Methodik (CFI = Carbon Farming Initiative), die auf das Henbury-Projekt angewendet werden kann. Aus Informationen der Regierung geht hervor, dass die Zertifikate durch zusätzlichen Kohlenstoff erzeugt werden, der im Boden und in der Vegetation abgeschieden wird als Konsequenz der Entfernung des Viehs vom Land.

Die australische Regierung steht in einem Interessenkonflikt in Beziehung zur Entwicklung einer CFI-Methodik hierzu, weil sie dem Vernehmen nach 9 Millionen Dollar zum Kaufpreis von 13 Millionen Dollar für Henbury Station zugeschossen hat. Selbst wenn eine Methodik genehmigt wird, scheint es in jedem Falle so, als ob die erzeugten Kohlenstoffzertifikate nur im freiwilligen Kohlenstoffmarkt verstanden werden können, und nicht im verordnete Markt vom Juli 2012.

Aber sogar noch seltsamer ist die Tatsache, dass die Ankündigung der Regierungsbeteiligung am Henbury-Projekt angedeutet hat, dass das Land dem Nationalen Reserve-System [?] hinzugefügt worden ist – „Henbury wird jetzt für immer geschützt als Teil von Australiens NationalRreserve System – unser sicherster Weg, natürliche Habitate zu schützen“. Unter den Bedingungen des Kyoto-Protokolls zählt die Abscheidung von Kohlenstoff in Schutzgebieten nicht als Teil der Bestandsaufnahme von Emissionen. Wenn also Henbury Station jetzt Teil des NationalRreserve System ist, kann es vermutlich zur Erzeugung von Kohlenstoffzertifikaten nicht genutzt werden – obwohl nicht vollständig geklärt ist, ob das auch im Falle eines freiwilligen Marktes gilt.

Andrew Bolt

(Thanks to reader Bob.)

Link: http://blogs.news.com.au/heraldsun/andrewbolt/index.php/heraldsun/comments/i_apologise_for_having_missed/

Beide Artikel übersetzt von Chris Frey EIKE




ZDF „heute Journal“: Was nicht passt, wird passend gemacht! Antarktische Rekordvereisung ist Wetter; arktische Rekordschmelze ist Klima!

….Die Rekord-Ausdehnung des antarktischen Meereises wurde als kurzfristiges Wetterphänomen hingestellt, während der Eisrückgang in der Arktis  als Folge des anthropogen induzierten Klimawandels erklärt wurde. Als Kronzeuge wirkte ein Prof. Peter Lemke vom AWI; einschlägig bekannter IPCC Follower und Leitautor der Berichte AR4 und des kommenden AR5. Der packte die günstige Gelegenheit beim Schopf. Er ließ es sich nicht nehmen, sogar von einem drohenden Abschmelzen beider Pole zu reden. 
Der Beitrag schloss mit der düsteren Behauptung, dass die anthropogene Klimaerwärmung die ganze menschliche Zivilisation bedrohe. Insgesamt war der Beitrag Meinungsmache vom Schlimmsten, aber in seiner Übertreibung schon wieder unfreiwillig komisch. Man merkte sofort die bemühte Absicht Gegensätzliches um jeden Preis passend zu machen. Wir setzen ihm in einem gemeinsamen Beitrag von "Die kalte Sonne" und EIKE die Fakten entgegen,. Lesen Sie selbst:

Das "ZDF-heute-journal" biegt sich das antarktische Meereis zurecht: 30 Jahre Eiszuwachs werden als „aktuelles Wetter“ verkauft

Wenn sich die Menschen auf der Nordhalbkugel über den Sommer freuen, blasen die Bewohner der Südhalbkugel Trübsal und müssen sich durch den Winter kämpfen. Das weiß jedes Kind. Grund hierfür ist die Neigung der Erdachse. Der Nordpol liegt dann monatelang im gleißenden Sonnenlicht, während in der Antarktis nicht enden wollende Dunkelheit herrscht.

So war es auch in diesem Jahr. Das Eis des Nordpolarmeeres schmolz dabei bis zum  September auf ein neues Minimum seit Beginn der Satellitenmessungen vor gut 30 Jahren, was in den Medien lang und breit als "nie-da-gewesene" wissenschaftliche Sensation und Bedrohung für die Menschheit thematisiert wurde. Im Alarmisten-Jubel über den neuen Schmelzrekord in der Arktis ging jedoch weitgehend unter, dass es auch in der winterlichen Kälte der Antarktis einen neuen "Rekord" gab – "unangenehmerweise", jedoch mit umgekehrten Vorzeichen: Das antarktische Meereis bedeckte plötzlich eine so große Fläche wie „noch nie“ zuvor während der gesamten Satelliten-Ära. Aber aus irgendeinem Grund interessierten sich die Medien kaum dafür. Nur einige wenige Journalisten wie z.B. bei SPON (hier) berichteten kurz darüber, sonst meist nur kurz in der bunten Rubrik „Vermischtes“.

Darauf von uns angesprochen, ließ sich der heute journal-Moderator Claus Kleber nicht zweimal bitten und nahm das Thema großzügig in seine Nachrichtensendung auf. Dafür sollte man ihm danken. Denn Claus Kleber ist nicht gerade dafür bekannt, eine neutrale Position in der Klimadiskussion zu besitzen. In einer Klimasendung aus dem Februar 2012 hatte Kleber einseitig Partei für die Weltklimaratsseite ergriffen (siehe Rainer Hoffmanns Analyse bzw. Beitrag im kalte-Sonne-Blog). Die wissenschaftlichen Belege und Argumente einer stärkeren Berücksichtigung von natürlichen Klima-Faktoren am Klimageschehen stuft er darin abwertend als „Mindermeinung” ein. Klebers IPCC-unterstützende Redaktion wäre hingegen vollkommen unparteiisch: “Uns geht‘s wirklich um die Sache!” Fragt sich nur, welche Sache Kleber da eigentlich meinte.

Jetzt, ein mehr als ein halbes Jahr später, wollte Claus Kleber wohl endlich eine gewisse seine "Unparteilichkeit" beweisen, und untersuchte hierzu im heute-journal also die beiden Eisrekorde. In der ZDF-Mediathek können Sie den Beitrag ab Minute 22:22 anschauen. Oder auch hier:

ZDF Beitrag im "heute journal" vom 8.10.12 zur Arktis & Antarktis ; Mit Dank an R. Hoffmann für die Erstellung dieses Video – Clips 

Klebers Autorin des Beitrages, die studierte Soziologin und langjährige Wissenschaftsredakteurin im ZDF, Frau Hildegard Werth, strickte die Geschichte bezeichnenderweise um das Forschungsschiff Polarstern, das vom Bremerhavener Alfred Wegener Instituts (AWI) betrieben wird und gerade von einer Nordmeerfahrt heimkehrte. Zur Auswahl hätte sicher auch eine Schalte in die Neumayer-III-Antarktisstation gestanden, welche ebenfalls vom AWI betrieben wird. Dort hätten vor Kälte zitternde Forscher jedoch nichts über eine Klimaerwärmung berichten können. Vielleicht ist die Auswahl der Rahmenstory schon ein erster Hinweis darauf, welcher Pol der Autorin wohl eher am Herz liegt?

Dann folgte der Auftritt des Prof. Peter Lemke, Physiker und Meteorologe am AWI. Und der schafft erst einmal "Klarheit" und legt sich unnötigerweise sofort einseitig fest:

„Wir können die globale Erwärmung nicht anders erklären als durch die Zunahme an menschengemachtem CO2, in den letzten 50 Jahren.“

Wow!!!

Weder Ruß, noch die wärmende Phase von Ozeanzyklen, noch die enorm hohe Sonnenaktivität der letzten Jahrzehnte scheinen hier einer Erwähnung wert. Statt einer wissenschaftlichen, feinen Grauabstufung haut Lemke mit dem Schwarz-Weiß-Holzhammer einfach drauf. Dies kommt nicht ganz überraschend, denn Lemke hatte sich bereits in der Besprechung des Vahrenholt/Lüning-Buches „Die kalte Sonne“ als überaus einseitiger Kommentator hervorgetan (siehe Medienecho vom 21.2.2012 im kalte-Sonne-Blog).

Aber ist Lemke eigentlich wirklich der unabhängige Wissenschaftler, der in der Klimadiskussion und im heute journal-Beitrag sachlich vermitteln könnte? Leider nein. Denn die Kleber-Mannschaft vergisst dem Zuschauer eine Winzigkeit mitzuteilen: Peter Lemke ist altgedienter Autor des Weltklimarats. Er hat bereits am letzten IPCC-Bericht von 2007 mitgewirkt und ist auch beim 5. Klimazustandsbericht des IPCC erneut maßgeblich beteiligt (siehe Pressemitteilung des AWI vom 23.6.2010). Lemke ist daher fest auf der alarmistischen Seite der Klimadiskussion verankert, und zugleich auch an den Geld-Töpfen der endlos sprudelnden Forschungs-Mittel für die Propheten des klimatischen Weltunterganges. Im Sinne einer ausgewogenen Berichterstattung hätte nun ein argumentativer Gegenpol zu Wort kommen müssen, oder zumindest einen neutraler Wissenschaftler. Warum fragte das ZDF eigentlich nicht z.B. Heinrich Miller, einen der renommiertesten Antarktiskenner und wirklichen AWI-Eisfachmann? Millers Sicht der Dinge sieht nämlich so aus:

Prof. Dr. Miller, daß "…Grönland zwar sehr wahrscheinlich an Masse verlieren wird, aber dieser Massenverlust durch verstärktes Abschmelzen in Grönland wird kompensiert durch eine Eiszunahme in der Antarktis", und weiter "… nach den von uns berechneten Szenarien kommen wir zu dem Schluß, daß Veränderungen der großen Eismassen keinen Beitrag zu einem Meeresspiegelanstieg leisten werden",

(Quelle: Prof. Dr. Heinrich Miller, Interview mit Professor Dr. Heinz Miller, Stellvertretender Direktor des Alfred-Wegener-Instituts. Er beschäftigt sich als Geophysiker mit Klimarekonstruktion und Eisdynamik, 03.11.2007 ; http://www.awi.de/de/aktuelles_und_presse/bild_film_ton/tonbeitraege/miller_3112007_klimawandel/)

Prof. Dr. Miller : Die Daten von Nord- und Südpol widerlegen düstere Prophezeiungen, der Meeresspiegel könne in kurzer Zeit um mehrere Meter ansteigen. „Bis das Grönlandeis schmilzt, vergehen mehr als tausend Jahre“, versichert Miller, “denn es war in der Vergangenheit auch deutlich wärmer als heute, ohne dass die riesigen Gletscher verschwanden.“

Quelle: Bohrer im Eis, DIE ZEIT, 06.06.2007 , S.40

 Prof. Heinrich Miller AWI zur Abkühlung der Antarktis

Nach diesem gründlich misslungenen Einstieg des ZDF entwickelt sich der Beitrag im Folgenden in eine geradezu komödiantische Richtung. Mit Wissenschaft hat dies jedenfalls nichts mehr zu tun. Die Ausgangsfrage war ja, inwieweit sich die Meereisbedeckungen an Nord- und Südpol miteinander vereinbaren lassen und was dies eigentlich über den Klimawandel aussagt. Der Rekordschmelze in der Arktis steht eine Rekord-Eisausdehnung in der Antarktis gegenüber. Gestützt auf Lemke behauptet nun das heute-journal kess, dass das arktische Schmelzen Folge des Klimawandels wäre, während der antarktische Eiszuwachs lediglich auf „Wind und Wetter“ zurück zu führen wären. Lemke erläuterte hierzu, dass der böse Wind das antarktische Eis raus aufs weite Meer gepustet hätte, und sich die offenen Bruchstellen dann hinterlistiger Weise einfach mit neuem Eis gefüllt hätten.

Zeit für einen wissenschaftlichen Faktencheck:

1) In zahlreichen wissenschaftlichen Untersuchungen ist ein wenigstens 50-jähriger Kälte-Trend in der Antarktis gesichert: http://www.eike-klima-energie.eu/news-cache/klima-kaelte-trend-in-der-antarktis/

2) Betrachtet man die Ausdehnung des antarktischen Eises über den gesamten Satellitenzeitraum seit 1979, so ist eine langfristige Zunahme der Eisbedeckung über Jahrzehnte klar zu erkennen (siehe http://www.eike-klima-energie.eu/news-cache/klima-panik-orchester-spielt-in-der-antarktis/  sowie Abbildung auf Seite 190 in „Die kalte Sonne“). Dies umfasst also eine Zeit von mehr als 30 Jahren, was im Sinne der WMO-Definition ein Klimatrend ist ! Die Entwicklung als „aktuelles Wetter“ abzutun ist wissenschaftlich nicht haltbar.

3) Dazu wird der Wind als Verursacher bemüht. Ein netter Ablenkungsversuch, und ein Konstrukt zugleich. Richtig ist vielmehr, dass der Wind nicht in der Antarktis, sondern in der Arktis insbesondere an den beiden letzten arktischen Meereis-Minima 2007 und 2012 maßgeblich beteiligt war (siehe Zhang et al. 2008 und den kalte-Sonne-Blogbeitrag „Zu viel Rückenwind? Arktischer Meereisrekord auf dem Prüfstand“).

4) Zudem ist gesichert, dass die Arktis offensichtlich seit langem extremen undefinedTemperaturschwankungen ausgesetzt ist. Denn genau im Januar 1919 explodierten im hohen Norden die Temperaturen. So einen gewaltigen Temperaturanstieg wurde von der Meteorologie bisher nur dieses eine Mal gemessen und zwar auf Spitzbergen. Man kann es als Klimaknall bezeichnen. Zwischen den Wintermonaten (Jan/Feb) 1917 & 1918 einerseits und der Jahre 1919 & 1920 andererseits liegt eine Differenz von 16°C. Das gilt selbst dann noch, wenn man sich die Winter (D/J/F) der sieben Jahre 1912-1918 und 1919-1925 gegenüberstellt, die einen Sprung noch oben von 10° ergeben.  Doch nicht nur die Höhe des Anstiegs war verblüffend. Nicht weniger war die Tatsache, dass der Anstieg über zwei Jahrzehnte Bestand hatte und sich noch verstärkte, bis 1939, als der Zweite Weltkrieg seinen Lauf nahm. Die damalige Klima-Wissenschaft wunderte sich und zögerte nicht, das Ereignis und seine Fortdauer als „Klimarevolution“ zu bezeichnen[1].

Bild: Dokumentierte Temperaturschwankungen in der Arktis. Erwärmung seit 90 Jahren

Die Zuschauer haben ein Recht darauf zu erfahren, wie es passieren konnte, dass das "ZDF-heute-journal" diese Forschungsergebnisse einfach ignoriert? Dürfen solche Zusammenhänge in einer neutralen Nachrichtensendung einfach ausgelassen werden, wenn sie nicht zur eigenen Sichtweise der Autorin bzw. Redaktion passen? Ein klarer Fall von einseitiger, selektiver Berichterstattung. Warum berichtet das "heute-journal" nicht über neue Studienergebnisse von der antarktischen Halbinsel, wo 7000 Jahre lang während der vergangenen zehn Jahrtausende Temperaturen herrschten, die auf dem heutigen Niveau lagen? (siehe kalte-Sonne-Blogbeitrag „Nacheiszeitliche Temperaturen der antarktischen Halbinsel lagen 7000 Jahre lang auf dem heutigen Niveau“).

Stattdessen setzt TV-Autorin Werth im Beitrag lieber noch ein Stoßgebet ab:

„Aber auch am Südpol wird sich die globale Erwärmung bald bemerkbar machen, da sind sich die Forscher einig“

Vermutlich meint die Autorin die zwei IPCC-Forscher, mit denen sie regelmäßig korrespondiert. Denn ansonsten hätte sie bereits bemerkt, dass es in der Wissenschaft keineswegs Einigkeit darüber gibt. Da hätte zum Beispiel ein kurzer Anruf nach Norwegen gereicht (siehe Blogbeitrag „Neue norwegische Studien: Ein erheblicher Teil der Klimaerwärmung der letzten 150 Jahre ist durch die Sonne verursacht“).

Der Schluss der aktuellen Kleber-Klimashow unterscheidet sich in keinster Weise vom Kleber-Film aus dem Februar 2012. Als Betthupferl wird den Leuten noch schnell mit der selbstverschuldeten Sintflut gedroht, ausgelöst durch schmelzendes Antarktiseis. Dies wäre dann das Ende der heutigen Zivilisation, heißt es. Wie wir bereits erwähnt hatten, schmilzt das antarktische Eis jedoch momentan gar nicht, sondern ist vielmehr auf dem Vormarsch. Dies gilt sowohl für das antarktische Meereis als auch das antarktische Inlandeis (siehe Blogbeitrag „Klimakatastrophe macht wohl einen Bogen um die Antarktis“ ).

Unklar ist zudem, wie eine im Film gezeigte Äußerung die heute-journal-Cutter-Schere überleben konnte. Ein Teilnehmer der Polarstern-Fahrt wurde nämlich gefragt, warum das Schiff denn nicht bis zum Nordpol weiterfahren konnte. Der Wissenschaftler antwortete wahrheitsgemäß, dass sie es wegen dem dicken Eis nicht bis dahin schaffen konnten. Diese Stelle muss bei der Endredaktion einer ansonsten selektiven Katastrophen-Hysterie wohl vom ZDF übersehen worden sein. Wie auch Kleber, Werth, als auch Lemke übersehen hatten, dass es z.B. div. U-Boote, Ende der 50er und Anfang der 60 Jahre des vorigen Jhh. gelungen war, ganz ohne Eisbrecher auch am Nordpol und in verschiedenen Gegenden der Arktis aufzutauchen und dabei locker die damals sehr dünne Eisschicht  durchbrachen. Wie es auch noch früher und immer wieder geschah, wie div. Berichte (2) zeigen.

 Autoren S. Lüning, K-E. Puls, M. Limburg, 

Kontaktadresse heute & heute Journal "Zuschauerredaktion@zdf.de Klaus" <zuschauerredaktion@zdf.de>

[1] Ahlmann, H.W. (1946); “Research on Snow and Ice, 1918-1940”, The Geographical Journal, 1946, p.11-25.

[2] President of the Royal Society, London, to the Admiralty, 20th November, 1817 Polar Science Center, Oregon State Univ. on Yamal event   "It will without doubt have come to your Lordship’s knowledge that a considerable change of climate, inexplicable at present to us, must have taken place in the Circumpolar Regions, by which the severity of the cold that has for centuries past enclosed the seas in the high northern latitudes in an impenetrable barrier of ice has been during the last two years, greatly abated.

(This) affords ample proof that new sources of warmth have been opened and give us leave to hope that the Arctic Seas may at this time be more accessible than they have been for centuries past, and that discoveries may now be made in them not only interesting to the advancement of science but also to the future intercourse of mankind and the commerce of distant nations." 
Quelle: Daly turning the water und hier http://nsidc.org/NOAA/ULS_Drafts/




Deutschlands Energiewende – ein hochriskantes Abenteuer!

Die Bedeutung der Chemie für den Industriestandort Deutschland

Zu dem Brief gehört eine ihn ergänzende gemeinsame Erklärung.In diesem Positionspapier heben die drei Verbände*)  die Bedeutung der Stromversorgung für die chemische Industrie hervor. Die hat sie zwar auch für Deutschlands übrige Industrie  und für die deutsche Wirtschaft insgesamt. Aber die Chemie-Industrie ist besonders energieintensiv. Ihre Ausgaben für Strom sind ein großer Kostenblock. Für den Industriestandort Deutschland ist die Chemie-Industrie ein unersetzlicher Eckpfeiler. Was sie mit ihren rund 1700 (kleinen, mittleren und großen) Unternehmen herstellt, benötigen nahezu alle produzierenden Wirtschaftszweige für die eigene Tätigkeit.Das reicht von den Grundchemikalien über Dünge- und Pflanzenschutzmittel, Kunststoffe, Pharmazeutika, Treib- und  Schmierstoffe, Farben und Pigmente, Konservierungsmittel, Papier, Dichtungs- und Bautenschutzmaterial bis hin zu Wasch-, Putz- und Körperpflegemitteln und anderem mehr.Dem Umsatz nach rangieren vor der Chemie-Branche nur die Autoindustrie  und der Maschinenbau.In Europa ist Deutschland mit Abstand der bedeutendste Chemiestandort.Die chemische Industrie trägt wesentlich und dauerhaft dazu bei, dass Deutschland eine führende Exportnation ist.Nach China, den USA und Japan ist Deutschland die viertgrößte Chemienation.

Die Chemie hat in der deutschen Industrie den höchsten Energiebedarf

In der gemeinsamen Erklärung heißt es: „Es ist eine traditionelle Stärke unseres Landes, Rohstoffe in wertvolle, für die Gesellschaft nützliche Produkte umzuwandeln.Dazu ist jedoch aus technischen Gründen eine erhebliche Menge an Energie erforderlich.Dabei fällt der Energieeinsatz nicht gleichmäßig entlang den Stufen der Wertschöpfungskette an.Am meisten Energie wird am Anfang der Wertschöpfungskette gebraucht, bei der Aufarbeitung der Rohstoffe zu Grundstoffen … Die weiterverarbeitenden Industrien und die Verbraucher profitieren von den energiereichen Grundstoffen.  ….Die chemische Industrie hat damit den absolut höchsten Energiebedarf aller industriellen Branchen in Deutschland.“

Die Angst vor zu hohen deutschen Strompreisen

Diese wirtschaftliche Rangstellung und die Stromintensität der Produktion machen verständlich, dass die deutsche Chemie-Industrie um ihre internationale Wettbewerbsfähigkeit fürchtet, wenn ihre Stromkosten steigen.Dieser Anstieg ist durch das Erneuerbare-Energien-Gesetz (EEG) und die abrupte Abkehr vom Kernkraftstrom zwangsweise vorgegeben.Das Gesetz belastet den Strompreis mit einer Subvention (Einspeisevergütung) und einer Absatzgarantie für alle, die  mit Windkraft, Sonnenschein (Fotovoltaik) und Gas aus pflanzlichen Stoffen Strom erzeugen.Diese Subvention müssen mit einem Preisaufschlag die Stromverbraucher zahlen.Es ist ein Aufschlag, der immer höher wird, je mehr EEG-Strom mittels Wind, Sonne und Pflanzengas erzeugt wird.Derzeit beträgt er 3,59 Cent je Kilowattstunde (kWh).2013 wird er auf über 5 Cent steigen.Obendrauf kommen noch 19 Prozent Mehrwertsteuer.Mit seinem Gesamtpreis für Strom gehört Deutschland global zur Spitzengruppe.Weil es die „Erneuerbaren“ immer weiter vorantreibt, wird sich der Preis in wenigen Jahren verdoppelt haben.

Die Sorge vor einem Aufbegehren der privaten Stromverbraucher

Zwar ist die Chemie wie auch andere stromintensive Industriezweige von der EEG-Umlage inzwischen weitgehend befreit.Diese Subvention soll sie davor bewahren, dass die EEG-Folgen ihre Wettbewerbsfähigkeit belasten und dann Arbeitsplätze verloren gehen.Aber der Subventionsbetrag wird draufgepackt auf die EEG-Umlage der übrigen Stromverbraucher.Ihnen drohen Erhöhungen auch noch durch Kostenentlastungen anderer Unternehmen.  Da sie für Strom inzwischen ohnehin schon Höchstpreise zahlen müssen, befürchtet die Chemie, dass sie gegen die Überlastung aufbegehren und die politische Führung darauf zum Nachteil der Industrie reagiert.In ihrer Erklärung heißt es dazu, „die gesellschaftliche Akzeptanz für eine solche, aus Wettbewerbsgründen erforderliche Entlastung“ sinke immer mehr, „da diese mit einer Mehrbelastung für die übrigen Verbraucher verbunden ist“.Aber die energieintensive Industrie sei auf die Entlastungen weiterhin angewiesen.

Die Sorge vor Zusammenbrüchen des Stromnetzes

Darüber hinaus hat die Chemie mit den anderen stromintensiven  Branchen und vielen übrigen gewerblichen Stromverbraucher große Sorgen vor Netzzusammenbrüchen und Stromausfällen, selbst wenn diese noch so kurz sind.Durch den unzuverlässigen Strom aus Wind und Sonne (teils gar nicht, teils zu wenig, teils zu viel) ist die Stetigkeit der Stromversorgung und der Netzspannung erheblich gefährdet.Produktionsausfälle und andere Schäden sind die Folge.Die deutsche „Energiewende“ ist also nicht nur wegen der unnötigen horrenden Kosten, sondern auch stromtechnisch ein hochriskantes Abenteuer mit absehbar schlimmem Ausgang.

Wie in Deutschland einer Fertigungskette die Basis abgeschnitten wird

Diese Energiewende-Politik mit ihrer Dauersubventionierung unrentabler Stromerzeugung mit Wind, Sonne und „Biogas“ führt in Deutschland zum unnötigen Verlust vieler Arbeitsplätze.Gegenwärtig findet eine Verlagerung der energieintensiven Metall-, Kunststoff- und Glasherstellung fort von Deutschland statt, die noch für 20 Prozent der industriellen Arbeitsplätze steht.Sie wandert ab in Länder, die die Energie nicht mit der grotesken Klimaschutzpolitik und dem unsozialen EEG künstlich verteuern.Damit geht die Basis der industriellen Arbeitsplätze verloren.Warum? Für neue Entwicklungen werden maßgerechte und häufig auch neue Werkstoffe benötigt.Die aber können nur in enger Zusammenarbeit mit deren Verwendern bereitgestellt werden.Setzen sich die Werkstoffhersteller ins Ausland ab, wird der Fertigungskette die Basis abgeschnitten.Es ist kaum vorstellbar, dass zwischen deutschen Konstrukteuren und den Werkstoffproduzenten, die dann nur noch in China, Brasilien, Indien, Russland und woanders sitzen, eine enge und erfolgreiche Zusammenarbeit klappt, wenn es um Neuentwicklungen oder entscheidende Verbesserungen geht.

Per Saldo gehen Arbeitsplätze verloren

Mit Subventionen werden Arbeitsplätze nur vorübergehend, aber nicht nachhaltig geschaffen.Übersehen werden die Neben- und Folgewirkungen.Je länger das Subventionieren von EEG-Strom dauert, um so mehr führt es dazu, dass Kapital und Arbeit, die hier eingesetzt werden,  anderen Bereichen und Techniken vorenthalten bleiben, wo es sonst produktiver verwendet werden könnte.Nichtsubventionierte Unternehmen werden benachteiligt und mit der Zeit verdrängt.Alle Bürger, die mit den Subventionen belastet sind, verlieren Kaufkraft für andere Waren und Dienstleitungen.Alle Wirtschaftszweige, die vom Kaufkraftverlust und den staatlich hochgetrieben Strompreisen betroffen sind, werden geschwächt.Mit dieser Politik gehen Arbeitsplätze per Saldo verloren.Mit dieser Politik werden das wirtschaftliche Wohlergehen Deutschlands und der Wohlstand seiner Bürger nicht gestärkt, sondern unterminiert.

Deutschland leistet sich eine doppelte Stromerzeugungskapazität

Deutschland leistet sich als einziges Land auf dem Globus eine Verdoppelung seiner Stromerzeugungskapazität und seiner Stromnetze, die es sich nicht leisten darf. Statt nur die erforderlichen 100 Prozent des deutschen Strombedarfs zu decken, ist die Erzeugungskapazität auf 200 Prozent ausgerichtet.Nach wie vor und stets nämlich müssen herkömmliche Kraftwerke bereitstehen, um mit Strom einzuspringen, wenn Wind und Sonne ausfallen.Mit immer mehr Windkraft-, Voltaik und Biogasanlagen müssen daher stets auch zusätzlich herkömmliche Kraftwerke gebaut werden.Obendrein erzwingt dieser vorgebliche „Ökostrom“ ein weiteres Stromleitungsnetz mit zusätzlicher aufwendiger Regelungstechnik.Diese Politik ist unverantwortlich.Mit ihr setzt Deutschland seine Wirtschaftskraft, seinen Wohlstand und seine politische Stellung aufs Spiel.

Die Feigheit der Industrie, gegen die wahre Ursache vorzugehen

Allerdings, solange die Chemie und die übrige unter dieser Politik leidende Industrie nicht die Ursache für diese Wahnsinnspolitik angreifen, also den CO2-Wahn und die daraus resultierende absurde Klimaschutzpolitik, sind ihre Gefahrenrufe und Warnungen, ist ihr angstvolles Flügelschlagen nur ein Bild des Jammers, nämlich Feigheit vor dem Feind. Dieser Feind sind die politische Führung, alle Profiteure, der Mainstream mit der zerstörerischen Political Correctness und die in ihm mitschwimmenden Medien.

Unter dem Titel „Energiewende & Ökodiktatur: Werden wir alle angelogen?“ ist jetzt gerade von CCS New Media eine DVD erschienen, die Darstellungen, Informationen und Fakten enthält, die die meisten Medien nicht bringen. Erhältlich unter der ISBN 978-3-940468-35-2 und der E-Mail-Adresse tlccs@bluewin.ch   Eine Vorgänger-DVD ist 2010 erschienen. Ihr Titel lautet „Der Klimaschwindel – Wie die Öko-Mafia uns abzockt“ (ISBN 978-3-941028-61-6). Klimaexperten liefern Fakten statt Panikmache und äußern sich zu den Hintergründen.

Siehe auch das Youtube-Kurz-Video hier:  

Zusätzliche Informationen hier: www.naeb.info

 Autor: Dr. Klaus-Peter Krause; zuerst erschienen im Blog von K.P. Krause dann auf Freie Welt Blog

*) Die drei sind der Verband der Chemischen Industrie (VCI),  der Bundesarbeitgeberverband Chemie (BAVC) und die Industriegewerkschaft Bergbau, Chemie, Energie (IG BCE).




Obamas Rede vor dem Parteikonvent der Demokraten fällt durch den Faktencheck

Was ist Kohlenstoff-Verschmutzung? Kohlenstoff ist ein fester Stoff und kein Gas. Meinen Sie CO2, ein natürlich vorkommendes Gas, das unabdingbar für das Pflanzenleben ist und kein Verschmutzer? Das ist deswegen unklar, weil Sie fälschlich sagen, dass es den Klimawandel verursacht. Projizierte Erwärmungen und Klimaänderungen durch CO2 existieren ausschließlich vorbestimmten Computermodellen des IPCC, die wesentliche Mechanismen ausschließen und deren Projektionen ständig falsch sind.

Was heißt „Klimaänderung ist kein Schwindel!”? Niemand hat je behauptet, dass das ein Schwindel ist. Der Schwindel sind die Wissenschaft und die Berichte des IPCC.

Derartig abwegige Kommentare setzen sich fort. Nienamnd hat je gesagt, dass Dürren, Überschwemmungen und Waldbrände ein Witz sind. Ein wirklicher Witz ist das vorangestellte Wörtchen ‚mehr’, weil alle diese Ereignisse innerhalb der natürlichen Variabilität liegen. Das ist die gleiche Mythologie, die auch für die steigende Anzahl von Hurrikanen gilt.

Das meiste der begutachteten Wissenschaft zur Sonnenaktivität wird aus den IPCC-Berichten ausgeschlossen. Es gibt drei solare Aktivitäten, aber nur Änderungen der elektromegnetischen Strahlung sind enthalten. Sie schließen den Milankovich-Effekt des sich ändernden Orbits aus, ebenso wie die Neigung [der Erdachse] und die Präzession sowie Svensmarks kosmische Erklärung der Sonneneinwirkung auf die Temperatur.

Das IPCC sagte, über 50 Prozent der Temperaturänderung bis 1950 seien durch die Strahlung erklärbar, aber danach sind sich zu über 90% sicher, dass das vom Menschen erzeugte CO2 die Ursache ist. Dieses Ergebnis war ein Produkt ihrer Computermodelle.

Ein Bericht der BBC stellte eine Verbindung her zwischen dem aktuellen Wetter und der Kleinen Eiszeit (LIA). Sie sagten: „Astronomen haben berichtet, dass die Sonne seit mindestens einem Jahrhundert nicht mehr so schwach war“.

Die BBC identifizierte zwei frühere Abkühlungen infolge verringerter Sonnenaktivität, das Dalton-Minimum (1795 bis 1823) und das Maunder-Minimum (1645 bis 1715) (Abbildung 1)

Zyklus Nr. 24 wird die Summe von 75 Sonnenflecken nicht erreichen. Zwei Experten, Mausami Dikpaka vom National Center for Atmospheric Research und der Solarphysiker David Hathaway von der NASA sagten über 150 Sonnenflecken voraus.

Originalbeschriftung: Sonnenflecken-Zyklen der Vergangenheit bis zum Frühjahr 2006 sind Schwarz dargestellt. Die beiden vorhergesagten zukünftigen Fleckenzyklen sind in rot (Hathaway) und rosa (Dikpata) dargetsellt.

Das gegenwärtige Niveau von 75 Sonnenflecken im Zyklus 24 entspricht ihrer Projektion des Zyklus’ 25. Nur zwei Perioden, das Dalton- und das Maunder-Minimum wiesen gleiche oder noch geringere Zahlen auf.

Das IPCC ignorierte die Beziehung zwischen Sonnenflecken und Temperatur, weil es keinen erläuternden Mechanismus gab. Aber einer erschien 1991 und 1996. Friis-Christensen, Leiter des Danish National Space Institute sagte: „All diese konsistenten wissenschaftlichen Ergebnisse illustrieren, dass den gegenwärtig für die Vorhersage des zukünftigen Klimas genutzten Klimamodellen wichtige physikalische Bedingungen fehlen“.

Dieser Mechanismus erschien vollständig im Jahre 1997 als Kosmische Theorie (CT) von Svensmark und Friis-Christensen. Im IPCC-Bericht 2001 wurde sie kurz erwähnt, aber im Bericht 2007 war dieser Hinweis wieder entfernt worden.

Die CT ist inzwischen bestätigt. Die Menge der tiefen Wolken variiert mit der Variation der kosmischen Strahlung, verursacht durch die Stärke des solaren Magnetfeldes. Wolken sind der Schatten im globalen Treibhaus. Sonnenflecken sind nicht der Grund, aber eine Manifestation von Änderungen des solaren Magnetfeldes. Die jüngste Bestätigung erschien am 6. September 2012. Darin heißt es: „Angesichts des breiten und vielleicht manchmal exzessiven Interesses, das Kohlendioxid mit dem Klima in Verbindung zu bringen, gab es relativ wenige Arbeiten zur Untersuchung der Korrelation zwischen Sonne und Klima.“

Herr Präsident, Ihre Ausführungen sind wissenschaftlich bedeutungslos. Angesichts Ihres Zugangs zu qualifizierten Forschern muss man schließen, dass dies politisch motiviert ist. Sie sagen, dass die Menschen etwas gegen den Klimawandel machen können. Das stimmt nicht. Der deutsche Physiker und Meteorologe Klaus-Eckart Puls sagte über die Klimaänderung: „Wir können nichts dagegen tun. Naturwissenschaftlich ist es schier absurd, durch ein paar Drehungen an irgendwelchen CO2-Stellschrauben ein schön angenehmes stabiles Klima festhalten zu wollen“.

Er sagte dies, nachdem er sich selbst über die Wissenschaft des IPCC informiert hatte, die offensichtlich bei Ihnen zum Maß aller Dinge geworden ist.

Puls weiter: „Bis vor zehn Jahren habe auch ich ungeprüft nachgeplappert, was der Klimarat IPPC uns so erzählt. Irgendwann dann habe ich angefangen, die Behauptungen nachzuprüfen. Das Ergebnis: Es begann mit Zweifeln und mündete dann in Entsetzen und in der Erkenntnis, dass ganz viel von dem, was der IPPC und die Medien bezüglich des Klimawandels sagen, nicht stimmt und gar nicht durch naturwissenschaftliche Fakten und Messungen gedeckt ist. Für das, was ich früher als Naturwissenschaftler ungeprüft auch in eigenen Vorträgen nacherzählt habe, dafür schäme ich mich heute“.

Wenn die Führer der Welt etwas präsentieren, ohne zuvor die Wissenschaft und die Fakten zu untersuchen, ist das noch beschämender.

Tim Ball; Dr. Ball war bis 1996 Professor für Geographie an der Universität von Winnipeg CA; Er ist ein gefragter Redner und Kolumnist zu Klimaspezifischen Fragestellungen.

Link: http://devconsultancygroup.blogspot.de/2012/10/dr-tim-ball-obamas-democratic.html

Übersetzt von Chris Frey EIKE, mit Dank an Herrn Klaus-Eckart Puls, der mir die Originalzitate am Ende des Artikels zur Verfügung gestellt hat




CO2 in UK führt zu Verdoppelung der Strompreise. Sieht aus, als ob die Demokraten [in USA] das Gleiche vorhaben, wenn sie an die Macht kommen

CO2-Steuer von George Osborne wird die Strompreise in UK verdoppeln

Christopher Booker

Eine böse Überraschung steht den britischen Haushalten bevor, wenn eine neue ‚Kohlenstoff-Steuer’ in Kraft tritt.

Mit ihrer völlig unsinnigen Klimapolitik hält die Regierung einen weiteren massiven Schock für uns parat, schnell kommend, aber weitgehend unbemerkt. Es ist überraschend zu sehen, welcher abnorm hohe Anteil des Stromes, den wir verbrauchen, aus Kohlekraftwerken stammt. Mittwoch Abend beispielsweise waren es über 50% und nur 1,3% aus Windkraft. Und doch erfahren wir jetzt, dass im kommenden März fünf unserer größten Kohlekraftwerke, die ein Fünftel unseres Energiebedarfs zur Verfügung stellen, geschlossen werden sollen – viel früher als erwartet und aufgrund einer Anti-Verschmutzungs-Direktive der EU.

Ein Grund, warum diese Kraftwerke durch ihre von der EU erlaubte verbleibende Quote von Stunden gepeitscht werden ist, dass im kommenden April eine neue Steuer in Kraft tritt, die darauf abzielt, fossile Energie signifikant teurer zu machen. Im Jahr 2010 hat George Osborne [Schatzkanzler in UK] seine Absicht verkündet, ab April 2013 einen „Kohlenstoff-Grundpreis“ von 16 Pfund pro Tonne von der britischen Industrie emittierten CO2’ einzuführen. Sie soll bis 2020 auf 30 Pfund pro Tonne, bis 2030 auf 70 Pfund pro Tonne steigen.

Ein explizites Ziel dieser Steuer ist es, die Kosten für fossile Energie so in die Höhe zu treiben, dass sie im Vergleich zu den „Erneuerbaren“ nicht mehr wettbewerbsfähig ist. Osbornes Ministerium zufolge soll sie „30 bis 40 Milliarden Pfund“ an Investitionen in „Low carbon“-Quellen einbringen. Auf dem Papier sehen die Auswirkungen von Osbornes neuer Steuer für unsere Stromrechnungen verheerend aus.

Den neuesten Zahlen aus dem Department of Energy and Climate Change (DECC) zufolge wurden in unseren Kraftwerken im Jahr 2011 40 Millionen Tonnen Kohle verbrannt mit einem CO2-Ausstoß von 116 Millionen Tonnen. Sie haben auch 175 000 Gigawatt Strom aus Gas erzeugt mit einem Ausstoß von etwas über einer halben Tonne pro Gigawatt. Bei 16 pro Tonne würde dieses CO2 3,5 Milliarden kosten – zusätzlich zu unseren Gesamtstromkosten von etwa 19 Milliarden. Folglich würde die neue Abgabe unserer Stromrechnung im nächsten Jahr fast 20 Prozent hinzufügen; bis 2030 würde sie sich verdoppeln. Einiges davon bezahlen wir jedoch schon im Rahmen des Emissions-Handelssystems (ETS) der EU, was auf unseren Mindestpreis von 16 [?] angerechnet wird.*

[*Möglicherweise wurden hier einige Angaben so verkürzt dargestellt, dass ich nicht sicher bin, alles richtig übersetzt zu haben. A. d. Übers.]

Ursprünglich hatte Osborne damit gerechnet, dass weniger als 2 Pfund zusätzlich ausreichen würden, um auf den Preis 16 zu kommen. (Es wurde vorhergesagt, dass der ETS-Preis weiter steigen würde bis 40). Seitdem sind jedoch die Preise für Kohlenstoff-Zertifikate in der EU im Zuge des zurückgehenden Bedarfs infolge der Rezession in der EU dramatisch gefallen. Um das ursprünglich geplante Niveau von 16 zu erreichen, müssen wir jetzt dem Schatzministerium zufolge fast weitere 5 bezahlen, was unsere Stromrechnung signifikant verteuert. Aber seit dieser Ankündigung ist der EU-Preis noch weiter gefallen, nämlich deutlich unter 6, was eine Lücke von 10 pro Tonne hinterlässt, die von Osbornes Steuer gefüllt werden soll, mit einer rapiden Steigerung in jedem Folgejahr.

Folglich werden hier in UK die Stromrechnungen in den Jahren nach 2013 auf ein Niveau steigen, das weit über jedem anderen in Europa liegt. All dies nur zu dem Zweck, Tausende neuer stark subventionierter Windmühlen auf den Weg zu bringen, was uns im Gegenzug dazu zwingt, mehr Gaskraftwerke zu bauen, die als Backup dienen sollen für die ewigen Fluktuationen der Windgeschwindigkeit. Und diese werden Herrn Osbornes schnell steigende Steuer auf das gesamte emittierte CO2 treiben. Natürlich wird das an uns durchgereicht, und innerhalb von 18 Jahren wird sich damit unsere Stromrechnung fast verdoppeln.

Kurz gesagt, das Schatzministerium hat eine unglaublich schädliche Fehlkalkulation vorgenommen. Obwohl es nur geringe Chancen dafür gibt, dass unser Minister für Energie und Klimaänderung Ed Davey sich von dieser Idiotie zurückzieht, könnte vielleicht jemand Herrn Osborne die Rechnung für seine wahnhafte neue Steuer darlegen, die uns alle teuer zu stehen kommen wird..

Link: www.icecap.us, The Political Climate, vom 30.9.2012

Bemerkung: Etwa vor einem Jahr erschien hier bei EIKE, wie das in Australien ist. Nun also in UK.

Übersetzt von Chris Frey EIKE




Neue Studie: Zusammenhang zwischen UHI bzw. Energieverbrauch und langzeitlichen Temperaturänderungen in China

Bild rechts: aus der Studie – Karte des Energieverbrauchs in China

Eckpunkte

1) Temperaturtrends korrelieren mit der Intensität menschlicher Aktivität.

2) Lokale Erwärmung hängt sehr stark vom Energieverbrauch in urbanen Gebieten ab.

3) Die lokalen Auswirkungen auf Temperaturtrends betragen 0,14°C bis 0,25°C pro Dekade.

Eine empirische Studie zum Einfluss menschlicher Aktivität auf Langfristige Temperaturänderungen in China: Perspektive aus dem Energieverbrauch

Yan Li, Key Laboratory for Earth Surface Processes, Peking University, Ministry of Education, Beijing, China, College of Urban and Environmental Sciences, Peking University, Beijing, China

Xinyi Zhao, Key Laboratory for Earth Surface Processes, Peking University, Ministry of Education, Beijing, China, College of Urban and Environmental Sciences, Peking University, Beijing, China

Abstract: (Fettdruck und Absatzformatierung von Watts)

Menschliche Aktivität trägt bedeutend zu lokalen Temperaturänderungen bei, vor allem in städtischen Gebieten. Hier wird der Energieverbrauch als Index des vom Menschen verursachten thermischen Antriebs behandelt. Die Beziehung zwischen Energieverbrauch und Temperaturänderung wird in China durch die OMR-Methode analysiert (OMR = Observation Minus Reanalysis). Temperaturtrends aus Beobachtung, Neuanalyse und OMR werden aus den meteorologischen Aufzeichnungen abgeschätzt sowie aus der Temperatur in 2 m Höhe der NCEP/NCAR-Neuanalyse 1 für den Zeitraum 1979 bis 2007.

Es wurde ein räumliches Darstellungsschema entwickelt, basierend auf der räumlichen und zeitlichen Beziehung zwischen Energieverbrauch und Bruttoinlandsprodukt (Gross Domestic Production GDP), um eine räumliche Verteilung des Energieverbrauchs in China im Jahr 2003 zu ermitteln. Eine positive Beziehung zwischen Energieverbrauch und OMR-Trends findet sich in Gebieten mit hohem und mittlerem Energieverbrauch. Die OMR-Trends nehmen mit der Abnahme menschlicher Aktivität um 0,20°C pro Dekade bei hohem und um 0,13°C bei mittlerem Energieverbrauch ab.

44 Stationen in Regionen mit hohem Energieverbrauch und den stärksten menschlichen Einflüssen wurden ausgewählt, um den Einfluss einer räumlichen Verteilung des Energieverbrauchs auf Temperaturänderungen zu untersuchen. Die Ergebnisse zeigen, dass der menschliche Einfluss auf Temperaturtrends sehr stark von der räumlichen Verteilung des Energieverbrauchs abhängt. OMR-Trends nehmen vom Zentrum des hohen Energieverbrauchs zur Umgebung ab (von 0,26°C auf 0,04°C pro Dekade) und verstärken sich wieder, wenn sich die Gebiete mit hohem Energieverbrauch ausdehnen (von 0,14°C auf 0,25°C pro Dekade).

JOURNAL OF GEOPHYSICAL RESEARCH, VOL. 117, D17117, 12 PP., 2012
doi:10.1029/2012JD018132

Eine der Schlüsselpassagen, die Dr. Pielke beleuchtet hatte, ist Folgende:

Neben den Einflüssen des Landverbrauchs auf das Klima spielt auch der durch menschliche Aktivitäten induzierte thermische Einfluss eine wichtige Rolle und sollte nicht ignoriert werden. Eine davon ist die Freisetzung von Wärme durch den Energieverbrauch. Viele Studien haben gezeigt, dass anthropogene Wärme für die Bildung einer UHI wichtig ist. Simulationsergebnisse einer Fallstudie in Philadelphia legen nahe, dass anthropogene Wärme zu einer um 2 bis 3°C höheren Nachttemperatur im Winter führt (Fan und Sailor 2005).

Hier folgt eine der Graphiken aus der Studie. Sie zeigt die Gebiete mit höchstem Energieverbrauch und Orte mit meteorologischen Stationen :

Hier folgt eine Darstellung der Temperatur von Nanjing (in der roten Zone an der Küste) von NASA GISS. Sie zeigt einen nahezu flachen Trend bis 1990. Offensichtlich fanden die Stationsdaten danach keinen Eingang zu GISS, aber was für ein Unterschied, als das später doch wieder der Fall war:

http://data.giss.nasa.gov/cgi-bin/gistemp/gistemp_station.py?id=205582380000&data_set=14&num_neighbors=1

Im Vergleich dazu das Beispiel von Fuzhou, auch an der Küste, aber nicht in der roten Zone des Energieverbrauchs:

http://data.giss.nasa.gov/cgi-bin/gistemp/gistemp_station.py?id=205588470000&data_set=14&num_neighbors=1

Aus der Schlussfolgerung:

Unsere Ergebnisse zeigen, dass es zu einer signifikanten Erwärmung an den meisten Stationen in China gekommen ist und dass die Größenordnung dieser Erwärmung eng mit dem Energieverbrauch korreliert, welcher die Intensität menschlicher Aktivitäten repräsentiert. In der Gruppe mit hohem und mittlerem Energieverbrauch nehmen die OMR-Trends mit der Abnahme des Energieverbrauchs ab. Die OMR-Trends bei hohem und mittlerem Energieverbrauch betragen jeweils 0,20°C bzw. 0,13°C pro Dekade. Die stärkere Erwärmung wird an Stationen mit hohem Energieverbrauch beobachtet, normalerweise in oder bei Städten. Folglich ist die starke Erwärmung mehr eine Folge eines lokalen thermischen Antriebs aufgrund menschlicher Aktivitäten.

Es scheint, dass Stationen, die zur Gruppe mit hohem und mittlerem Energieverbrauch gehören, nach dieser Studie erkennbar von menschlichen Aktivitäten beeinflusst werden. Wie De Laat (2008) gezeigt hat, kann die durch den Energieverbrauch freigesetzte anthropogene Wärme sehr gut zu den beobachteten Temperaturänderungen beigetragen haben. Folglich sollte man den Einfluss menschlicher Aktivität auf Aufzeichnungen der Temperatur in Vergangenheit und Zukunft viel mehr beachten.

Unter dem Strich: Der Energieverbrauch spielt eine Rolle, der UHI und die Art der Umgebung auch. Stationen, die von all diesen Einflüssen frei sind, sollten die Basis von Temperaturaufzeichnungen sein. NCDC hat diesem Punkt bereits Rechnung getragen, indem es das Climate Reference Network ins Leben gerufen hat, dass die Freiheit von diesen Einflüssen garantieren soll.

Anthony Watts

Link: http://wattsupwiththat.com/2012/10/02/a-new-paper-showing-how-uhi-and-energy-consumption-are-linked-to-long-term-temperature-change-in-china/

Übersetzt von Chris Frey EIKE




Internationale-Umfrage: Klimaskeptiker gewinnen an Raum in den Medien

Abbildung rechts: Die Anzahl von Artikeln zu den Themen Klimaänderung oder globale Erwärmung in Prozent, die im Vergleich zu allen Artikeln skeptische Stimmen zu Wort kommen lassen.

Am meisten kommen Klimaskeptiker in den Medien in UK und den USA zu Wort.

Einer neuen Studie zufolge kommen Klimaskeptiker im Vergleich zu anderen Ländern weltweit in den Medien der USA und UK immer mehr zu Wort, manchmal sogar ohne das ihnen gleich widersprochen wird.

Die Ergebnisse wurden am 5. Oktober in der Zeitschrift Environmental Research Letters von IOP-Publishing veröffentlicht, und zwar als Teil einer Studie, die untersucht, wie sich der Klimaskeptizismus in den Printmedien in den USA, in UK, Brasilien, China, Indien und Frankreich während eines Zeitraums von drei Monaten manifestierte. Darunter war auch ‚Climategate’ 2009/2010 und eine zweite Periode, die [die Veröffentlichung des] AR 4 des IPCC 2007 umfasste.

In einer Durchsicht von über 2064 Zeitungsartikeln aus den sechs Ländern während der ersten Periode haben die Autoren von der University of Oxford und der University of London herausgefunden, dass etwa einer von neun Artikeln skeptische Stimmen enthält.

In den USA enthielten 34 Prozent aller Artikel zur Klimaänderung in der New York Times und dem Wall Street Journal während dieser Zeit eine skeptische Stimme. Von den 511 im Guardian/Observer und dem Daily/Sunday Telegraph während dieser Zeit erschienenen Artikeln enthielten 19% eine skeptische Stimme.

Als nächstes rangieren chinesische Zeitungen mit sieben Prozent aller Artikel, die skeptische Stimmen enthielten. Indien und Frankreich folgten mit jeweils sechs Prozent. An letzter Stelle steht Brasilien mit drei Prozent.

Die Forscher untersuchten auch, ob es irgendeine Art Zusammenhang gibt zwischen der politischen Ausrichtung der Zeitung und der Tendenz, Klimaskeptiker zu Wort kommen zu lassen. Mit Ausnahme von China – wo die Einteilung in links und rechts irrelevant ist – fanden die Forscher, dass es ein wenig mehr skeptische Stimmen in linksgerichteten Zeitungen gab als in zentral- oder rechtsgerichteten Zeitungen.

Vor dem Hintergrund der starken Assoziation von Klimaskeptizismus und der politischen Rechten ist dies eine Überraschung, vor allem in den USA, zumal frühere Studien gezeigt haben, dass rechtsgerichtete Zeitungen mehr dazu neigten, die Klimawissenschaft in Frage zu stellen.

Allerdings zeigte sich bei näherer Betrachtung der Ergebnisse, dass in UK und den USA eine signifikante Anzahl skeptischer Stimmen in den Meinungsspalten auftauchte und dass [nur] in rechtsgerichteten Zeitungen diese Ansichten nicht bestritten worden sind.

In UK erschienen im Guardian/Observer 14 Meinungsartikel, die während beider Perioden skeptische Stimmen enthielten, denen allesamt von Main-Stream-Wissenschaftlern widersprochen worden ist. Der Daily/Sunday Telegraph hingegen veröffentlichte 34 Meinungsartikel mit skeptischen Stimmen, von denen mehr als die Hälfte bestritten worden sind. Im Kontrast dazu gab es im Wall Street Journal 17 Meinungsartikel, die alle mit nur einer Ausnahme unbestritten geblieben waren.

Die Forscher haben sich auch entschlossen, die Typen unter den Klimaskeptikern zu betrachten, die in diesen Artikeln zitiert wurden. Diese Unterscheidung nach Typen, die in Frage stellen, ob die globalen Temperaturen überhaupt gestiegen seien, erschienen fast ausnahmslos in Zeitungen von UK und der USA. In diesen beiden Ländern waren auch die Typen von Skeptikern stark präsent, die den Bedarf für drastische Maßnahmen gegen den Klimawandel in Frage stellen.

Obwohl ‚Climategate’ ein Skandal in UK war, wählten die Forscher einen Zeitraum, die dieses Ereignis einschloss, um Daten zu sammeln, weil sie davon ausgegangen waren, dass die Story groß genug war, um international Aufmerksamkeit zu erregen. Weitere 1263 Artikel wurden zwischen dem 1. Februar und dem 30. April 2007 analysiert, als das IPCC seinen vierten Zustandsbericht veröffentlicht hatte, und weil es ein Zeitraum war, in dem der Skeptizismus kein zentrales Thema war.

Der Leitautor der Studie James Painter sagte: „Diese Ergebnisse sind signifikant, weil sie jene zu stützen scheinen, die da sagen, dass der Klimaskeptizismus in den angelsächsischen Ländern wie USA, UK, Kanada und Australien viel stärker ausgeprägt ist, wenn man die Präsenz in den Medien zugrunde legt.

Die Daten legen auch nahe, dass sehr viel unstrittiger Klimaskeptizismus nicht so sehr in den Nachrichten zu finden ist, sondern auf den Meinungsseiten der rechtsgerichteten Zeitungen in den USA und in UK“.

Die für diese Analyse ausgesuchten Zeitungen waren Folha de São Paulo und Estado de São Paulo in Brasilien, People’s Daily und Beijing Evening News in China, Le Monde und Le Figaro in Frankreich, The Hindu und Times of India in Indien, the Guardian/Observer und the Daily/Sunday Telegraph in UK sowie The New York Times und Wall Street Journal in den USA.

Anthony Watts

Die Studie kann hier herunter geladen werden.

###

Abstract

Bisherige akademische Forschungen zum Klimaskeptizismus haben sich mehr auf die Art und Weise konzentriert, wie er organisiert war, seine Taktiken und seinen Einfluss auf politische Ergebnisse – und nicht auf seine Verbreitung in den Medien. Die meiste Literatur hat sich auf die USA konzentriert, wo der Skeptizismus erstmals in organisierter und politisch effektiver Form aufgetaucht war. In diesem Artikel geht es darum, wie sich der Klimaskeptizismus  in seinen unterschiedlichen Formen in den Printmedien in den USA und fünf anderen Ländern manifestiert (Brasilien, China, Frankreich, Indien und UK). Wir wollten herausfinden, wie weit die Erfahrungen mit dem Skeptizismus in den USA in anderen Ländern auftreten. Wir fanden, dass sich die Berichterstattung in den Nachrichten zumeist auf die USA und UK beschränkt; dass es einen starken Zusammenhang gibt zwischen der politischen Ausrichtung der Zeitung und deren Willen, skeptische Stimmen zu zitieren oder unbestritten in Meinungsartikeln; und dass der Typ Skeptiker, der in Frage stellt, ob die globale Temperatur überhaupt gestiegen ist, fast nur in Zeitungen in den USA und UK zu finden sind. Skeptiker, die gegen starke Maßnahmen zum Kampf gegen den Klimawandel sind, sind ebenfalls viel stärker in diesen beiden Ländern präsent als anderswo.


Abbildung: Skeptiker-Typen geordnet nach Ländern.

Schlüssel: Skepitker des Typs 1 in blau (welche leugnen, dass die Temperaturen steigen) finden sich fast ausschließlich in US-Zeitungen. Skeptiker des Typs 2 in rot (welche den Trend akzeptieren, aber entweder den anthropogenen Anteil daran als überbewertet, vernachlässigbar oder nicht existent betrachten im Vergleich zu anderen Faktoren wie z. B. der natürlichen Variation, oder die sagen, dass nicht mit ausreichender Sicherheit bekannt ist, welches die Hauptgründe sind). Skeptiker des Typs 3 in grün (die den menschlichen Faktor akzeptieren, aber behaupten, dass die Auswirkungen vorteilhaft oder die Modelle nicht robust genug sind), die die Notwendigkeit starker regulierender Maßnahmen oder Interventionen in Frage stellen.

Link: http://wattsupwiththat.com/2012/10/05/climate-skeptics-gaining-ground-in-media/#more-71981

Übersetzt von Chris Frey EIKE




Offener Brief an Umweltminister Peter Altmeier zur „Energiewende“.

Update 8.10.12 

Bundesumweltminister Altmaier: Keine Laufzeitgarantie für neue Kohlekraftwerke

Hamburg (ots) – Energiekonzerne können nicht davon ausgehen, dass neue Kohlekraftwerke dauerhaft am Netz bleiben dürfen. Das sagte Bundesumweltminister Peter Altmaier (CDU) im Interview in der neuesten Ausgabe des Greenpeace Magazins. (mit Dank an Leser D. Glatting)

Sehr geehrter Herr Minister Dr. Altmaier, 

leider hat Ihre Zeitdisposition es wohl nicht ermöglicht, dass Sie meiner, auf dem AZ­Bericht folgenden spontanen e­mail ­Einladung, im Anschluss an Ihre Startschussinbetriebnahme des virtuellen

Brennstoffzellen­Kraftwerksprojektes von Trianel zu einem anschließenden Besuch der VDE Vor­tragsveranstaltung zu „Energiewende zwischen Wunsch und Wirklichkeit“ im 500 m entfernten Bildungszentrum der Handwerkskammer in Aachen folgen konnten.

Nun mussten die rd. 60 anwesenden, meist Fachleute der Energietechnik und Energiewirtschaft, aber auch z.B. Lehrerinnen an Aachener Schulen und Forscherinnen im FZ Jülich nur mit meinen Ausfüh­rungen vorlieb nehmen, die allerdings fundamental von Ihren Presseverlautbarungen z.B. in der AZ vonm 3.10.2012 der Art: „Wir müssen den Menschen das Gefühl geben, dass die Energiewende auch ihr Projekt ist und dass sie davon profitieren“ abweichen.

Aus meinen, Ihnen als Manuskript ja bereits mit meiner Mail vom 29.9.2012 bekannten Ausführungen geht eher wahrheitsbasiert hervor, dass mit jeder weiteren Windenergieanlage und mit jeder weiteren Photovoltaikanlage sowie mit jeder neuen Transportleitung die Strompreise nur deutlich ansteigen müssen ­die Stromversorgung nicht sicherer, mit dem Wegfall der Kernkraftwerke auch nicht CO2­ärmer, sondern wieder CO2­reicher wird, und somit die Ihrerseits angestrebte und geförderte Gefühls­lage in Wahrheit eher den Interessen irgendwelcher Investoren und fast aller Politiker im Deutschen Bundestag ­ausgenommen z.B. Ihren Fraktionskollegen Vaatz und Fuchs ­entgegenkommt, als den Interessen der biederen Stromverbraucher zu Hause an bezahlbare, oder der im globalen Wettbe­werb stehenden Industrieunternehmen, an wettbewerbsfähige Strompreise.

Schade ist, dass Ihre Zeit zur Inbetriebnahme des von dem deutsch­australischen Hersteller CERA­MIC FUEL CELLS produzierten Mini­BHKW, von dem es bereits auch aus deutscher oder anderer Länder Produktion stammend viele Vorläufer gab, die allesamt aus energiewirtschaftlichen Gründen den Status nascendi nach Auslaufen der staatlichen Förderungen nicht überlebt haben, damit aufge­braucht war. Beispiele sind die Totem­Anlagen von Fiat, mit mäßigem Erfolg die BHkW­Hausanlagen von Viessmann VITOTWIN und von VW EcoBlue, die Minigasturbinenanlagen unterschiedlicher Her­steller, die Brennstoffzellenprojekte der RWE AG in Bergheim zur Strom und Wärmeversorgung eines Wohnkomplexes und dass Brennstoffzellenprojekt der Stadtwerke Düren zur Strom­und Wärmever­sorgung des Jesuitenbades in Düren, letztere den Mini­Status wohl übersteigend.

Sehr geehrter Herr Dr. Altmaier, als Jurist müssen Sie verständlicher Weise vieles glauben, was auf öffentliche Förderungsmittel hoffende Vertreter neuer Innovationen auf dem Gebiet der Energiebe­darfsdeckung Ihnen zum Teil als Erfolg versprechend vorgaukeln. Daher kann es auf Dauer keine erfolgreiche Energiepolitik werden, wenn Sie sich weitgehend dem Dialog mit ausgewiesenen Fach­leuten der Branche verschließen. Es tut mir leid, die Dinge aus langjähriger Berufserfahrung in der Branche relativ offen angesprochen zu haben, bin mir aber sehr sicher, dass diese Einschätzung der Lage die breite Mehrheit der gesamten energietechnischen Fachwelt sehr gut abbildet. Selbst im VDE hat es bereits erklärte Austritte von langjährigen fachlich hoch erfahrenen promovierten Mitgliedern gegeben, weil auch dieser Verband sich punktuell dem irrigen Zeitgeist faktenwidrig anbiedert.

Die auf der neuen gesetzlichen Basis nun fortschreitende Umsetzung der Energiewende stößt zu­nehmend an die harten Tatsachen energietechnischer und energiewirtschaftlicher Gegebenheiten und Fakten hinsichtlich der Verfügbarkeit und der Kosten.

Die Verfügbarkeitsproblematik sei anhand der Leistungsganglinien der zeitgleichen Leistungsein­speisung in den ersten 6 Monaten 2012 aller Windenergieanlagen in Deutschland, die gesamte instal­lierte Leistung betrug 29.185 MW bei 22.664 Anlagen, erläutert:

Auch wenn in Deutschland irgendwann die vierfache Zahl an Windanlagen installiert sein sollte, ist das Bild der Leistungsganglinie nicht wesentlich anders, nur ist dann der Ordinatenmaßstab statt 25 GW auf 100 GW zu setzen. Die Nullstellen bleiben Nullstellen, denn eine beliebig große Zahl mal Null bleibt Null, eigentlich sollten das alle Politiker wissen. Auch unter Hinzunahme der Einspeiseleistungen aus Photovoltaikanlagen, die weitgehend ins Nie­derspannungsnetz einspeisen, ändert sich die Leistungsbedarfsdeckung zur Winterzeit nur unerheb­lich, wie nachfolgende Ganglinien aus dem Jahr 2010 für den Monat Januar wohl deutlich zeigen:

­

Nur in sonnenreichen Sommermonaten ist die Leistungsbedarfseckung am Tage weitgehend zu de­cken, aber auch nur an Tagen wo nicht Regenwolken die Sonnenstrahlen weitgehend absorbieren.

Der maximale Leistungsbedarf in Deutschland beträgt rd. 80 GW mit Schwankungsbreiten bis her­unter zu rd. 40 GW in der Nacht bei Minimallast im Sommer. Diese 40 GW müssen aber rund um die Uhr ganzjährig zur Verfügung stehen. Dies hat zur Folge, dass aus einem Kraftwerksmix von derzeit rd. 50 GW Wind­plus Photovoltaikleistung, die Leistung der frequenzstützenden thermischen Kraft­werke in kurzen Zeitintervallen auf Null runter geregelt werden müsste, was aus technischen Stabili­tätsgründen unmöglich ist und wirtschaftlich auch unvertretbar wäre. Die Stromerzeugungskosten werden von derzeit rd. 6 ct/kWh im Mix auf mindestens den dreifachen Wert ansteigen, zuzüglich der Kosten für den notwendigen Leitungsbau, bei unsicherer Stromversorgung.

Es ist höchste Zeit dass die in der politischer Verantwortung stehenden das endlich erkennen und die Energiewendeziele endlich revidieren, denn dieses ist in der Tat, wie Herr Vaatz MdB treffend sagt, ein "sinnloses Experiment", und obendrein auch noch extrem teuer.

Da die Wind­und Sonnenstromanbieter nur ungesicherte Lieferzusagen geben können, nämlich im­mer mit dem Vorbehalt: „wenn der Wind weht oder wenn die Sonne scheint“, war das „Aus“ für die Ökostromvermarktung im derzeitigen Börsenhandel bereits durch den unerreichbaren Arbeitspreis der konventionellen Stromerzeugung vorgegeben, man wollte es nur nicht wahr haben. Durch fluktu­ierende Einspeisungen werden eben keine Kraftwerke eingespart, sondern nur der Brennstoff in den ohnehin weiter notwendigen Kraftwerken. Im Falle der Braunkohle beträgt dieser unter 2 ct/kWh und im Falle der Kernenergie sogar unter 1 ct/kWh. Auch in 100 Jahren wird man, trotz beliebig vieler An­lagen und Kostendegression diese Wettbewerbspreise mit Wind­oder Photovoltaikanlagen nie errei­chen können. Mittelfristig müssten die Back­up Kraftwerke für die fluktuativen Einspeisungen durch neu zu bauende Gaskraftwerke abgesichert dargestellt werden, deren Erdgasbedarf aus Russland importiert werden muss. Der zusätzliche Erdgasbedarf wird energetisch etwa dreimal so hoch sein wie die aus Wind­und Sonnenenergieanlagen generierte elektrische Energie und die Importpreise für den Erdgasbezug aus Russland zusätzlich in die Höhe treiben.

Das Problem mit Speicher zu lösen scheitert daran, dass bislang kein physikalisches Prinzip bekannt ist, nach dem man große Mengen elektrischer Energie bezahlbar speichern könnte. In einer solchen Situation nützen auch beliebig hohe Fördermittel nichts, man muss in der Anwendungsentwicklung schon wissen, was man will, andernfalls steht man erst bei der ergebnisoffenen Grundlagenfor­schung. Wie wir bei der Elektromobiliät schmerzlich erfahren, ist dies bei den Speichern weitgehend der Fall. Unsere verehrte Bundeskanzlerin hat daher diese Zielsetzung für 2020 klugerweise erst kürzlich von 1 Million auf 0,6 Millionen, also um 40 % reduziert. Aber auch dieses Ziel ist ohne Sub­vention wohl unerreichbar.

Die Energiewende ist, wie mir Herr Prof. C.C. von Weizsäcker schrieb, ein Irrtumsweg in die Dein­dustrialisierung unseres Landes und es ist daher im Sinne von Herrn Vaatz, MdB, energiewirt­schaftlich unverantwortlich, weiter daran festzuhalten. Auch die nun im Haushaltsplan der Bundes­regierung vorgesehenen 260 neuen Planstellen, davon 180 bei der Bundesnetzagentur BNA, je 40 im BMWI und im BMU werden an den energiewirtschaftlichen Tatsachen nichts ändern können. Diese irgendwann wieder abzuschaffen, ist wohl auch nicht möglich, das System muss eher kollabie­ren.

Es fragt sich nur, wann die Einsicht zu einer realistischen Energiepolitik gereift sein wird.

Nach 50 jähriger Industrietätigkeit, davon 40 Jahre in verantwortlicher Weise in regionalen und über­regionalen Unternehmen der Energiewirtschaft und nun noch weiter als Hochschullehrer glaube ich schon, die Machbarkeit derartiger Zielvorgaben fachlich sehr realistisch einschätzen und unserer a­kademischen Jugend wahrheitsgemäß zu vermitteln zu können. Gerne stehe ich auch Ihnen hierzu jederzeit zur Verfügung.

Für Ihre verantwortungsvolle Aufgabe zum Wohle unseres Landes und darüber hinaus, innerhalb des Verbundnetzes kontinentaleuropaweit unmittelbar, wünsche ich Ihnen stets eine glückliche Hand ­Wunsch und bezahlbare Wirklichkeit trennscharf zu erkennen ­und im Sinne hoher Energieeffizienz erfolgreich zu handeln, damit alle Bürger, einschließlich Hartz IV Emfänger, auch weiterhin auf eine bezahlbare Energieversorgung vertrauen dürfen. In diesem Sinne verbleibe ich gerne,

mit freundlichen Grüßen,

Ihr Helmut Alt ; Anfang Oktober 2012 

Related Files




Die Geburt eines Infrastruktur-Marktes für europäisches Gas

Bild rechts: Eröffnung des GATE LNG-Terminals, eines Joint Ventures von Gasunie und Vopak im September 2011 in Rotterdam © Gate

Lassen Sie uns mit in paar einfachen Tatsachen beginnen:

·        Im Jahr 2008 haben Shell und ExxonMobil das BEB-Gaspipeline-Netzwerk in Deutschland an die Gasinfrastruktur-Kompanie Gasunie verkauft – Muttergesellschaft des holländischen Übertragungssystems-Operators (Transmission System Operator TSO) GTS.

·        Im Dezember 2010 hat die deutsche RWE ihr Gasübertragungs-Netzwerk Thyssengas an den Investmentstruktur-Fond Macquarie Infrastructure and Real Assets verkauft.

·        Im Jahr 2011 hat die italienische Öl- und Gasgesellschaft ENI Anteile an zwei Pipelines – TENP und Transitgas, die von der belgisch-holländisch-deutschen Grenze durch die Schweiz nach Italien verläuft – an den TSO Fluxys in Belgien verkauft.

·        In diesem Jahr 2012 hat die deutsche Energiekompanie E.on das deutsche Gaspipeline-Netzwerk Open Grid Europe (OGE) an ein Konsortium von Finanzinvestoren unter Leitung von Macquarie verkauft.

Man betrachte diese ersten Stöße eines Erdbebens, das dabei ist, den europäischen Gasinfrastruktur-Markt aufzumischen. Ähnliche Transaktionen werden folgen, da eine Anzahl anderer TSOs einschließlich Net4Gas (tschechische Republik), Eustream (Slowakei) und DESFA (Griechenland) gegenwärtig zum Verkauf stehen.

Was geschieht? Nun, in gewisser Weise, was soll geschehen? Energieriesen wie Shell, ExxonMobil, ENI und E.on, die bei Erzeugung und Verkauf von Gas aktiv sind, verkaufen ihre Infrastruktur-Anteile, was sicherlich durch die ‚nicht verbundenen‘ Forderungen des Third Energy Package der EU ‚ermutigt‘ wird. Der Sinn hinter diesen im Jahre 2009 übernommenen Regelungen ist es, einerseits einen freien Markt zu schaffen, in dem Erzeuger und Versorger von Gas miteinander konkurrieren, und andererseits einen regulierten Markt zu schaffen, in dem unabhängige Infrastruktur-Betreiber ihre Dienste jenen Erzeugern und Versorgern zu gleichen Bedingungen anbieten.

So weit, so gut. Der liberalisierte Gasmarkt besteht und läuft – die Aktivitäten des neuen Handels in Europa wachsen rapide, nationale Märkte werden integriert, noch mehr Beteiligte werden aktiv, die Auswahl für Verbraucher nimmt zu. Das ist es, was die Politiker wollten.

Aber was ist mit diesem anderen ‚Markt’, dem Infrastruktur-Anteil? Wie soll der sich entwickeln? Wie sollen die seit Neuem unabhängigen Infrastruktur-Kompanien ihre Aufgabe erfüllen, die Marktteilnehmer zu unterstützen? Sie sind reguliert, ja. Aber sollen sie im privaten oder öffentlichen Eigentum stehen? National orientiert oder international aktiv? Miteinander kooperieren oder im Wettbewerb stehen – oder beides? All das ist viel weniger klar. Der Gesetzgeber spezifiziert eigentlich nicht, wie seine Erwartungen hinsichtlich der Entwicklung des Infrastruktur-Marktes aussehen. Die EU erwartet, dass die TSOs ‚kooperieren‘, indem sie ‚10-Jahres-Pläne zur Entwicklung des Netzwerkes‘ vorlegen (sowohl regional als auch Europäisch), aber diese Pläne sagen nichts darüber aus, wie der Markt als solcher aussehen soll.

Was möglicherweise nur Wenige vorhergesehen haben, sind die oben erwähnten Übernahmen: Gaspipelines in Deutschland und der Schweiz werden von Kompanien wie Gasunie, Fluxys (die mehrheitlich im öffentlichen Besitz Belgiens befindliche TSO, inzwischen mit einer Minoritäts-Beteiligung eines kanadischen Pensions-Fonds) und Finanzinvestoren wie Macquarie, MEAG (der Investitionsbereich der Versicherungsgesellschaft Münchner Rück) sowie Infinity Investments (eine Tochter der Abu Dhabi Investment Authority) übernommen. Noch einmal: das ist eine Entwicklung, die gerade erst begonnen hat, da immer weitere Energiekompanien dem Beispiel von Shell, ExxonMobil, E.on und ENI folgen und ihre Übertragungs-Netzwerke verkaufen.

Richtige Maßnahme

Dem Strategie-Direktor von Gasunie Hans Coenen zufolge „stehen Shell, ExxonMobil und Gasunie an vorderster Front einer Entwicklung, die den gesamten europäischen Markt übernehmen wird“. Es ist eine logische Konsequenz des Third Package, sagt er. Kompanien wie Shell und Exxon Mobil haben sehr schnell erkannt, dass sie in einem regulierten europäischen Infrastruktur-Markt keine ausreichende Rückkehr des Kapitals erreichen, so dass sie sich entschlossen haben, dieses Geschäft aufzugeben und ihr Kapital anderweitig zu verwenden. „Andere Energiekompanien werden zur gleichen Schlussfolgerung kommen“, sagt Coenen. „Und das bedeutet, dass der Infrastruktur-Markt auch weiterhin neue Gelegenheiten bietet für verschiedene Teilnehmer: spezialisierte Infrastruktur-Kompanien wie uns sowie Finanzinvestoren, die nach einer moderaten, aber stetigen Rate des Rückflusses suchen“.

Tatsächlich musste Gasunie für seine Pioniertätigkeit einen Preis bezahlen. Nach der Übernahme der BEB-Gaspipeline für 2,1 Milliarden Euro hat der deutsche Gesetzgeber die Daumenschrauben an die Tarife gelegt, und zwar auf eine Art und Weise, die vom damaligen Management nicht erwartet worden war. Das machte es für die Kompanie notwendig, den Wert der BEB-Beteiligungen durch erhebliche 1,65 Milliarden abzuschreiben. Das holländische Finanzministerium hat eine unabhängige Untersuchung dieses Verlustes angeordnet. (Zufälligerweise waren Shell und Exxon Mobil zusammen mit dem holländischen Staat Eigentümer von Gasunie, als es noch eine vertikal integrierte Gaskompanie war; sie wurde schon im Jahr 2005 vom holländischen Staat verkauft, als Gasunie aufgeteilt wurde in einen Infrastruktur-Anteil und eine Handelsgesellschaft. Letztere nennt sich jetzt GasTerra und gehört immer noch Shell, ExxonMobil und dem holländischen Staat).

Coenen sagt, was immer man über den Verkaufspreis von BEB sagen kann, „dass es strategisch das Beste war, was man tun konnte. Die Logik der Übernahme steht immer noch außer Frage. Wir waren die erste grenzüberschreitende TSO in Europa. Jetzt folgen andere unserem Beispiel oder denken darüber nach“.

Neuordnung

Was also ist die Logik hinter der Expansion von Gasunie? Diese Frage wird regelmäßig von Kritikern gestellt einschließlich einiger nationaler Parlamentarier, die glauben, dass sich staatseigene Kompanien wie Gasunie nicht an etwas beteiligen sollten, das sie für ‚ausländische Abenteuer‘ halten. Für Gasunie ist es jedoch einfach die Konsequenz der Art und Weise, wie sich der neue, unabhängige Gasinfrastruktur-Markt in Europa entwickelt.

Eine kleine Gruppe internationaler Beteiligter wird sich heraus schälen, die den Ton angeben – sie werden eventuell die Integration des europäischen Gasmarktes ermöglichen“

Im Wesentlichen finden drei grobe Entwicklungen statt: 

1) Erstens, die Märkte werden liberalisiert: es gibt keine [an eine Gesellschaft] gebundene Verbraucher mehr, keine Monopol-Verkäufer – jeder kann alles von jedem kaufen.

2) Zweitens, nationale Märkte werden nach und nach in einen einzigen Markt integriert: Sie werden sich nicht länger an nationalen Linien organisieren, sondern regional oder europaweit.

3) Drittens, Kompanien sind frei [in ihren Entscheidungen]: Versorgung/Erzeugung und Infrastruktur werden aufgeteilt und zu separaten Märkten.

In dieser neuen Ordnung entwickelt der Infrastruktur-Markt eine Eigendynamik. Wir können vier Stadien unterscheiden, wie sich die Betreiber der Infrastruktur erwartungsgemäß in dieser neuen Situation verhalten werden.

1) Ihre erste Aufgabe wird es sein, Versorger und Zulieferer in ihren heimischen Märkten mit dem Bau von Gebäuden und Pipelines zu unterstützen, ebenso mit Handelsspielräumen und Speichermöglichkeiten. Außerdem sollen sie generell den Gasmarkt unterstützen durch Ermunterung zu Innovationen und durch die Durchführung von Aufgaben, die die Marktteilnehmer nicht aufnehmen.

2) Zweitens, da die nationalen (‚heimischen’) Märkte verschwinden, kann man von den Betreibern der Infrastruktur erwarten, dass sie ‚dem Markt folgen’ und über ihre nationalen Grenzen hinaus expandieren. In dieser Hinsicht wäre es anomal, wenn nationale Infrastrukturbetreiber einen internationalen Markt füttern: das würde zu Ineffizienz und zu Entscheidungen aus nationalen Interessen führen, anstatt die Aufgabe aus internationaler Sicht anzugehen.

3) Drittens, da sie jetzt international aktiv werden, geraten die Infrastrukturbetreiber zunehmend in Wettbewerb miteinander. Sie konkurrieren um ‚Anteile am Markt’ in der Hinsicht, dass sie versuchen, Gas in ihr System fließen zu lassen.

4) Viertens, dieser Wettbewerb tendiert dazu, von Konsolidierung gefolgt zu werden, da größere Märkte größere Effizienz bieten und sie den Betreibern erlauben, effizienter zu investieren.

Zusammengefasst: Was geschehen wird, ist, wie Coenen es ausdrückt, „eine kleine Gruppe internationaler Akteure wird sich bilden, die den Ton angeben – sie werden eventuell die Integration des europäischen Gasmarktes ermöglichen“.

Wertvolle Angebote

Was Gasunie betrifft, möchte diese Kompanie zu dieser führenden Gruppe gehören. Deren Strategie ist es, die Reichweite ihres in den Niederlanden bestehenden Netzwerkes entlang der Haupttransitrouten nach und in Nordwesteuropa zu vergrößern. „Wir sehen, wie sich eine dominante nördliche Ost-West-Route entwickelt. Dort wollen wir aktiv sein. Wir sind nicht an isolierten Pipelines interessiert. Wir sehen auch die Entwicklung eines regionalen Marktes weiter südlich, aber wir wollen uns auf den Norden konzentrieren“.

Einer der Hauptkonkurrenten von Gasunie ist die belgische TSO Fluxys, obwohl beide Gesellschaften auch miteinander kooperieren. Coenen erklärt, dass von Deutschland nach UK fließendes Gas entweder durch Belgien oder durch Holland geleitet werden kann. „Was wir versuchen ist, attraktive Tarife und Service anzubieten. Hierfür müssen wir unser System im internationalen Maßstab optimieren. Darum haben wir BEB übernommen und nehmen an NordStream teil, ebenso wie an der Balgzand-Bacton-Pipeline von den Niederlanden nach UK. In Kombination mit dem TTF-Handelsschub, den wir entwickelt haben, hoffen wir, auf diese Weise in der Lage zu sein, den Transporteuren die attraktivsten Angebote machen zu können“.

Angesichts dieser internationalen Strategie der Kompanie kann man natürlich fragen, ob es sinnvoll ist, eine Kompanie wie Gasunie im Staatsbesitz zu belassen. Bis zu welchem Grad repräsentiert Gasunie immer noch holländische Interessen? „Genau wegen unseres grenzüberschreitenden Geschäftes können wir den holländischen Interessen effektiv dienen“, erklärt Coenen. Die nationale TSO, die für das Gleichgewicht des Systems verantwortlich ist, ist ein Tochterunternehmen von Gasunie. Und es liegt im Interesse des holländischen Staates, den Durchfluss von Gas durch Holland und zum TTF attraktiv zu machen. Der Gastransit und Spotmärkte erzeugen Einnahmen in Höhe von vielen hundert Millionen Euro pro Jahr für den Staat. Falls die Kompanie Geschäfte an Fluxys oder andere Konkurrenten abgibt, gehen diese Einnahmen verloren“.

 

Gas fließt in Europa © Gasunie

Gleichzeitig sagt Coenen, dass Gasunie gerne sehen würde, dass ein privater Investor einen Minoritäts-Anteil an der Kompanie erwerben würde – genauso wie es bei Fluxys der Fall war. Im vorigen Jahr hat der Eigentümer von Fluxys, Publigas, ein Konsortium belgischer Gemeinden, 20% der Anteile der Kompanie an die Caisse de dépôt et placement du Québec verkauft, einem kanadischen Pensionsfond, der auch einen Anteil von 33,5% an der von Belgien nach UK führenden Interconnector-Pipeline hält. „Wenn es gelingt, einen privaten Investor an der Kompanie zu beteiligen“, sagt Coenen, „sieht man die Welt mit anderen Augen. Man wird markt- und international orientierter. Wir glauben definitiv, dass dies für die Kompanie sehr gut ist und daher für die gegenwärtigen Anteilseigner auch“.

Coenen verweist auf die Übernahme des Pipeline-Netzwerkes von OGE durch ein Konsortium privater Investoren: „In Deutschland ist die Beteiligung privater Investoren voll akzeptiert. Es sind 13 Netzwerkbetreiber in Deutschland aktiv. Sie sind an Wettbewerb gewöhnt. Die Menschen dort achten darauf, dass regulierende Rahmenbedingungen und Überwachungsorgane die öffentlichen Interessen adäquat im Blick haben, genau wie in den Niederlanden“.

Wie Gasunie es sieht, muss die Kompanie expandieren, um eine wesentliche Rolle im neuen Infrastruktur-Markt zu spielen. „Die Menschen in Holland fragen sich oft, warum wir das tun. Der Punkt ist, wenn man es nicht tut, wird man Geschäfte verlieren. Und der holländische Marktplatz würde an Bedeutung verlieren – anstatt weiter zu wachsen, wie er das momentan so schön tut. Schließlich liegt das überhaupt nicht im öffentlichen Interesse“. Er verweist auf die Tatsache, dass Gasunie etwa 125 bcm Gas pro Jahr transportiert, obwohl am Markt in Holland nur etwa 40 bcm verbraucht werden.

Die Niederlande waren natürlich in der komfortablen Position, seit nunmehr 50 Jahren sowohl Gaserzeuger als auch Gasexporteur zu sein, aber die Gasvorräte nehmen allmählich ab. In weiteren 20 Jahren wird das Land Gas importieren müssen. Dies ist noch ein weiterer Grund, warum Gasunie im sich jetzt entwickelnden Infrastruktur-Markt seine Position sichern möchte. Coenen: „Leute, die ihre Sicht auf nationale Grenzen beschränken, sehen uns als Monopolist. Aber aus europäischer Sicht sind wir lediglich ein Akteur unter vielen, der sich um Geschäftsanteile bemüht“.

Anreize für Investitionen

Aber nicht nur in den Niederlanden stellen die Leute Fragen. In diesem Stadium ist niemand ganz sicher, wie der europäische Gas-Infrastruktur-Markt in Zukunft aussehen könnte. Die möglicherweise größte Frage ist, wie man einen internationalen, wettbewerbsfähigen Markt schaffen kann, der gleichzeitig vollständig reguliert und vorherrschend immer noch auf nationaler Basis reguliert ist“.

Dies ist ein Punkt, der den Strategen bei Gasunie und anderen Infrastruktur-Kompanien mit Sicherheit Kopfzerbrechen macht. Da die Regulatoren die Tarife festlegen, haben sie das Sagen. Viele im Infrastruktur-Geschäft beklagen, dass die Regulatoren gegenwärtig keine ausreichenden Anreize für Investitionen bieten. Gasunie weiß alles darüber: sie hat sich nicht nur in Deutschland eine blutige Nase geholt, sondern streitet sich auch mit dem holländischen Regulator. Und sie stehen nicht allein. Der Vorsitzende der deutschen Gasgesellschaft Wingas, Gerhard König sagte früher in diesem Jahr, dass mehr Anreize gebraucht werden, um ausreichende Investitionen in die Transport- und Speicherkapazität in Deutschland sicherzustellen. „Derzeit ist es nicht attraktiv, in neue Leitungen für Speicher und Gaskraftwerke zu investieren“, sagte er.

Die schlechte Nachricht für die Infrastruktur-Kompanien lautet, dass unter der jetzigen EU-Gesetzgebung nationale Regulatoren weiterhin für die Festlegung von Tarifen zuständig sind. Die gute Nachricht ist, dass die EU gleichzeitig einen Prozess in Gang gesetzt hat, der zu zunehmender Harmonisierung der Regulationssysteme führen soll. Ein Weg dorthin ist die Schaffung eines ‚Netzwerk-Codes’, nach dem sich alle Marktakteure einschließlich der nationalen Regulatoren richten müssen. Auf diese Weise werden die Aussichten der nationalen Regulatoren, ihrem heimischen Markt ihren Stempel aufzudrücken, zunehmend restriktiv.

Einige Analysten sind sogar davon überzeugt, dass die Internationalisierung und die Konsolidierung unter den TSOs die Harmonisierung stärker voran bringen wird als Netzwerk-Codes und andere regulierende Maßnahmen. Das Management von Gasunie teilt diese Meinung. Wie Paul van Gelder, geschäftsführender Direktor von Gasunie vor kurzem auf einer Gaskonferenz gesagt hat: „Ich glaube, dass unabhängige Infrastruktur-Betreiber maßgeblich dazu beitragen, den europäischen Energiemarkt zu verändern“.

Nichtsdestotrotz kommt man nicht um die Tatsache herum, dass die Regulatoren immer mehr bestimmen, wenn es darum geht zu entscheiden, welche Investitionen in die Infrastruktur vorgenommen werden sollten. In der Vergangenheit haben die TSOs ‚offene Jahreszeiten [seasons]’ abgehalten, bei denen Marktakteure ihr Interesse an neuen Pipelines bekunden konnten. Falls es dabei ausreichende Investitionen gegeben hätte, würde die TSO die Pipeline bauen. In Zukunft kann es sein (obwohl dies Spekulation ist), dass die Regulatoren diesen Prozess übernehmen. Bei der gegenwärtigen Rechtslage können die Transporteure unter bestimmten Bedingungen Investitionen von den TSOs verlangen, wenn sie ein Geschäftsinteresse an der Pipeline belegen können. Sollte die TSO dem nicht folgen wollen, kann der Regulator die TSO dazu zwingen.

Planwirtschaft

Aber Coenen ist davon überzeugt, dass „diese Form der Planwirtschaft“, so unerwünscht diese aus seiner Sicht auch sein möge, die Infrastruktur-Kompanien nicht davon abhalten wird, ihren eigenen Platz unter der Sonne in dem neuen Marktschema zu finden. „Wir machen noch mehr als nur Pipelines bauen“, merkt er an. „Wir investieren auch in die Speicherung, LNG-Terminals und Handelsfreiräume. Wir sehen es als unsere Aufgabe an, den Gasmarkt wachsen zu lassen“.

Tatsächlich brennen Gasunie und andere Infrastruktur-Kompanien darauf, die Innovation beim Gasmarkt anzukurbeln. Zum Beispiel haben sich Gasunie, Fluxys und die dänische TSO www.Energinet.dk vor Kurzem geschworen, eine "zu 100% kohlenstoffneutrale Gasversorgung" in ihren Netzwerken bis zum Jahr 2050 zur Verfügung zu stellen. Sie wollen dies erreichen durch Mithilfe bei der Vergrößerung des Biogas-Anteils, durch Investitionen in sog. ‚Power-to-Gas’-Systeme (in welchen überschüssiger Windstrom durch Elektrolyse in Wasserstoff verwandelt wird, welches der Gasversorgung beigemischt wird) und durch das Einrichten eines Gas-Zertifikate-Marktes sowie anderer Dinge.

Gasunie hat zusammen mit anderen Kompanien eine neue LNG-Kette an seinem LNG-Terminal in Rotterdam ins Leben gerufen. Dieses Projekt hat zum Ziel, LNG als Ersatztreibstoff für Diesel für die Schifffahrt und Schwertransporte auf der Straße verfügbar zu machen.

Diese Beispiele zeigen, dass unsere beschauliche neue europäische Gaswelt sich weiterhin auf eine Art und Weise entwickeln wird, die möglicherweise nur Wenige vorhergesehen haben. Infrastruktur-Kompanien wie Gasunie haben sich gebildet, die unvermeidlich die Gelegenheiten nutzen werden, die die neue Marktstruktur bietet und sich daher in ‚mehr als nur TSOs’ transformieren werden.

Coenen zufolge steht eine Kompanie wie Gasunie „ultimativ vor der Wahl: Zuschauer an der Seitenlinie bleiben oder beim Spiel mitmachen und versuchen zu wachsen. Wenn man wächst, gibt es Risiken, aber wenn nicht, besteht das noch größere Risiko, marginalisiert zu werden. Also ist es unsere Aufgabe, effektive Strategien zu entwickeln und die damit einher gehenden Risiken sorgfältig zu bedenken, und uns fortwährend zu verbessern auf der Basis der Evaluierungen und der gelernten Lektionen. Dies ist der Weg, voranzuschreiten und all unseren Anteilsnehmern zu dienen“.

Karel Beckmann

Zusätzliche Lektüre

Für eine Übersicht über die Entwicklungen im europäischen Gashandelsmarkt siehe auch den Artikel von Karel Beckmann "It’s finally coming: the great European gas market transformation" vom 5 April 2012.
Mehr zu den Entwicklungen im europäischen Gasinfrastruktur-Markt erfährt man in unserem jüngsten Interview mit Walter Peeraer, leitender Direktor bei Fluxys am 9. Juli 2012: "Why the national Belgian gas transmission company is looking far beyond its national borders".

No part of this publication may be reproduced in any form without written consent from the publisher. For inquiries please contact info@europeanenergyreview.eu

Link: http://www.europeanenergyreview.eu/site/pagina.php?email=limburg@grafik-system.de&id_mailing=313&toegang=158f3069a435b314a80bdcb024f8e422&id=3870

Übersetzt von Chris Frey EIKE, mit Dank an Energy Review;  Chief Editor Karel Beckmann