1

Ross McKittrick; prominenter Aufdecker des IPCC Hockeystick-Skandals in Berlin

Neben Professor McKittrick wird auch Prof. Karl-Friedrich Ewert (EIKE) über seine Beobachtungen der nachträglichen Veränderungen der Temperaturdaten der Vergangenheit weltweiter Temperaturmessstationen durch das amerikanische GISS (Goddard Institute of Space Science) berichten. Diese zeigen jetzt – nach der Veränderung- eine deutliche Absenkung früherer Temperaturen, so dass die Gegenwart wärmer erscheint.

Einladung – Climate Briefing
mit Prof. Ross McKitrick
17. September, Berlin 

Der Ökonom und Umweltexperte Prof. McKitrick wird sich kritisch mit der Grundlage der deutschen Klimapolitik – dem UN-Weltklimarat IPCC – auseinandersetzen und zeigen, dass der gegenwärtige Klimaschutz nicht gerechtfertigt ist. McKitrick, wurde weltweit bekannt durch seine Arbeit über die "Hockeystick" genannte Temperaturkurve, die er als Fälschung entlarvte.
Im Anschluss an Prof. McKitricks Vortrag zeigt Prof. Ewert, dass die NASA wichtige Temperaturdaten nachträglich verändert und damit zu falschen Ergebnisse in der Klimawissenschaft geführt hat. 

Programm: Montag, 17. September 2012
18:30 h
Begrüßung
Wolfgang Müller
Berlin Manhattan Institut und Europäisches Institut für Klima und Energie (EIKE)

Vorstellung des Referenten
Steffen Hentrich
Senior Research Fellow, Friedrich-Naumann-Stiftung für die Freiheit
18.45 h
What is Wrong with the IPCC?
Prof. Dr. Ross McKitrick
Department of Economics, University of Guelph, Ontario, Canada
19:45 h
NASA GIS Changes Temperature Data Retroactively – Why?
Prof. em. Dr. Friedrich-Karl Ewert
University Paderborn, Pressesprecher EIKE
Followed by Q&A
Light refreshments will be served
Link zum Programm in PDF    Link zum Programm auf der Institutsseite
Leiten Sie diese Einladung weiter (Link)

 

Eine Kooperationsveranstaltung des Berlin Manhattan Instituts mit demEuropäischen Institut für Klima und Energie (EIKE) und dem Haus der Zukunft Berlin – Internationales Institut für Deutschland- und Europapolitische Bildungsarbeit

 

VeranstaltungsortHaus der Zukunft Albrechtstraße 11 (zu finden mit: google maps) 10117 Berlin-Mitte in unmittelbarer Nähe zum S- und U-Bahnhof Friedrichstraße.

Anmeldung

Mit vollem Namen via Email oder Fax an: Berlin Manhattan Institut.

Email: info@berlinmanhattan.org Fax: 030 69 20 800 39

Über die Referenten

Prof Dr. Ross McKitrick ist einer der bedeutendsten Umweltökonomen der Welt und bekannt für seine Forschung über die Ökonomie des Umweltschutzes, den Zusammenhang zwischen Wirtschaftswachstum und Luftverschmutzung, Klimapolitik und Klimageschichte. Er lehrt und forscht an der University of Guelph in Kanada und ist Autor zahlreicher Aufsätze und Bücher darunter: Taken By Storm: The Troubled Science, Policy and Politics of Global Warming. Sein jüngstes Buch Economic Analysis of Environmental Policy wurde von der University of Toronto Press veröffentlicht. McKitrick diente den Canadian Parliamentary Finance and Environment Committees und Regierungsmitarbeitern des U.S. Congress und Senat als Sachverständiger.Prof. em. Dr. Friedrich-Karl Ewert lehrte an der Universität Paderborn und beschäftigt sich seit seiner Emeritierung mit der jüngeren Klimageschichte und im Besonderen mit dem Einfluss des Menschen auf die Temperaturentwicklungen. Ewert tritt häufig im In- und Ausland Veranstaltungen auf und ist zudem Pressesprecher des Europäischen Institut für Klima und Energie (EIKE).Das Berlin Manhattan Institut wird ausschließlich von privaten Förderern unterstützt. Spenden Sie für unsere Arbeit oder ermöglichen Sie die Teilnahme von Schülern und Studenten an dieser Konferenz.Spenden sind steuerlich absetzbar: www.berlinmanhattan.org/spenden


Veranstaltungshinweis

30. November – 1. Dezember 2012 – München

5. Internationale Klima- und Energiekonferenz Zusammen mit dem Haus der Zukunft Berlin, dem Europäische Institut für Klima und Energie, dem Heartland Institute und dem Peutinger Collegium laden wir zur größten mainstreamkritischen Konferenz ausserhalb der USA ein.




Streit bei der Acatech über Klimaforschung: Eine Frage der Ehre oder der wissenschaftlichen Etikette?

Zuerst ein Auszug aus der Stuttgarter Zeitung zur Klärung der unterschiedlichen Standpunkte, die zu dem Eklat führten. Sie titelte am 11.9.2012 "Rauhe See in der Klimaforschung" und führt u.a. aus:

"…vier Mitglieder der 43-köpfigen Arbeitsgruppe möchten das Papier nicht mittragen. Acatech hat ihnen angeboten, ein Sondervotum in den Bericht aufzunehmen, doch das haben die vier abgelehnt. Was ist falsch daran, auf die Anpassung an den Klimawandel besonders einzugehen, wenn dieser Punkt, wie es im Bericht heißt, zu einer „effektiven Klimapolitik“ gehört, gleichwohl aber wenig diskutiert wird? Aus dem Gremium ausgetreten sind der Vizepräsident des Deutschen Wetterdienstes, Paul Becker, der Meteorologe Hans von Storch vom Helmholtz-Zentrum für Material- und Küstenforschung sowie zwei weitere Klimaforscher – ein Verlust für die Studie, wie von Storch findet: „Am Ende ist keiner der Autoren ausgewiesener Experte der Klimaforschung.“ In einer eigenen Stellungnahme beschreiben die vier Forscher einen „fundamentalen Dissens“: Ihrer Ansicht nach hat die Klimaforschung die physikalischen Grundlagen von Treibhausgasen und Temperaturanstieg hinreichend geklärt. Acatech hält hingegen fest, dass man nicht abschätzen könne, wie sehr die Sonnenaktivität und Vulkanausbrüche das Klima der vergangenen 150 Jahre beeinflusst haben. Der Weltklimarat hatte es in seinem letzten Bericht als „sehr wahrscheinlich“ bezeichnet, dass der größte Teil des gemessenen Temperaturanstiegs der vergangenen Jahrzehnte auf Treibhausgase zurückgeht.

Nun sind zunächst einmal Klimawandel, Temperaturanstiege und Temperaturabnahmen die natürlichste Sache der Welt. Konstantes Klima und konstante Jahresmitteltemperaturen gab es noch nie und wird es auch in Zukunft nie geben können. Daher ist Anpassung stets ein Gebot der Stunde. Also worum geht es dann? Den Grund, warum die 4 Mitglieder austraten, nennt die Stuttgarter Zeitung wie folgt:

"Ihrer Ansicht (Anm. EIKE: Ansicht der 4 ausgetretenen Klmaforscher) nach hat die Klimaforschung die physikalischen Grundlagen von Treibhausgasen und Temperaturanstieg hinreichend geklärt." 

Im Klartext: Die ausgetretenen Mitglieder sind mit keinen weiteren Erläuterungen zu den Ursachen von Klimawandel als denen des IPCC einverstanden und sehen dafür auch keinen Bedarf. Es sei erlaubt, vehement zu widersprechen. Klärung der physikalischen Grundlagen – absolut einverstanden! Aber Klärung der Ursachen irgendwelcher Temperaturanstiege? – definitiv "NEIN". Außer den Milankovitch-Theorien, die sich nur mit sehr langfristigen Klimaänderungen befassen, ist so gut wie nichts über die Ursachen von Klimaänderungen bekannt. Und selbst hier gibt es unterschiedliche Hypothesen (hier und hier).

Unkenntnis über die Ursachen von Klimawandel ist schließlich der Grund, warum man es mit Klimamodellen versucht. Klimamodelle haben aber noch nicht einmal die Eintrittspunkte von El-Nino-Ereignissen vorhersagen können, und sie fordern den berühmten Hot Spot über den Tropen, der unauffindbar ist. Von einem beweiskräftigen Nachweis, dass anthropogenes CO2 auf Erdtemperaturen einwirkt (gemäß den physikalischen Grundlagen muss es dies in sehr geringem Ausmaß tun) kann noch weniger die Rede sein. Man hat bis heute keinen derartigen Nachweis gefunden – alle Veränderungen sind auch mit natürlichen Einflüssen bestens erklärbar! Klimaveränderungen der Vergangenheit gingen in vielen Fällen nicht nur schneller vonstatten, sie waren zudem auch noch weit heftiger als heute. Die in der Literatur als "attribution and detection problem" bezeichnete Suche nach dem Einfluss des anthropogenen CO2 harrt leider immer noch ihrer Auflösung. Auch wenn es in der Klimaforschung niemand gerne hören will – über die Ursachen von Klimaänderungen wissen wir auch heute noch so gut wie nichts.

Was ist dann daran auszusetzen, wenn ein Mitglied oder gar die Leitung des Acatech-Ausschusses Hypothesen nennt, die nicht dem IPCC-Kanon entsprechen? Bei so viel Unsicherheiten darf es gestattet sein, und als unwissenschaftlich darf man es nicht bezeichnen. Dennoch führt insbesondere Hans v. Storch aus:

"Man hätte die Strategien der Anpassung nicht losgelöst von der Alternative, der Vermeidung von Treibhausgasen, diskutieren dürfen. „Man hätte gleich zu Anfang klarstellen müssen, dass der Anpassungsbedarf steigt, wenn die Emissionen steigen“

Wieso steigt der Anpassungsbedarf, wenn die Emissionen steigen? Dies wäre nur dann der Fall, wenn durch steigende CO2-Emissionen tatsächlich gefährliche Temperatursteigerungen und zunehmende Extremwetterereignisse entstünden. Dieser Zusammenhang ist aber nicht nur ungesichert, er ist nach Auffassung vieler renommierter Klimaforscher unzutreffend. Immerhin sind gemäß IPCC (IPCC-Report, 2001, AR-02, Kap. 2.7 sowie hier) bis heute keine Extremwetterzunahmen bekannt, obwohl die atmosphärischen CO2-Konzentrationen, verursacht durch den Menschen, seit Beginn der Industrialisierung kräftig zugenommen haben . Den physikalischen Grundlagen folgend, müssen wir mit einer globalen Temperatursteigerung zwischen 0.6 und 1.1 °C bei CO2-Verdoppelung rechnen (H.Harde, Geophys. Res. Abstracts, Vol. 13, EGU2011-4505-1, 2011 sowie die IPCC-Reports). Ob diese unmaßgebliche Erwärmung einen Anpassungsbedarf erfordert, der über den sich aus den natürlichen Klimaänderungen ohnehin schon ergebenden Anpassungsbedarf hinausgeht, ist nicht sehr wahrscheinlich.

Wie EIKE bereits mehrfach berichtete, basieren alle weiteren, über die vorgenannten Zahlen hinausgehenden Temperatursteigerungen auf Klimamodellen (Wasserdampfrückkoppelung), die ihren Zuverlässigkeitsnachweis bislang nicht erbringen konnten. Mit physikalischen Grundlagen haben diese Modelle nur wenig zu tun. Hier wurde das seit Galilei bewährte Paradigma der Physik, dass Messungen die Priorität vor Modellen haben müssen, in postmoderner Vorgehensweise außer Kraft gesetzt. Die Öffentlichkeit ist sich nicht einmal bewusst, dass Klimakatastrophen auf einem mittelalterlichen Pradigma der physikalischen Beurteilung (Klimamodelle) beruhen. Man kann es auch ironisch ausdrücken. Die Physik ist in einem Zweig der Klimatologie (Klimamodellierung) inzwischen von der Natur- zur Geisteswissenschaft mutiert.

xxxxxxxxxxxxxxxxxxxxx

Anmerkung und Korrektur des Autors, 20.9.2012: Der in der ursprünglichen Version Prof v. Storch zugeschriebene Blogbeitrag

"hatten sie erwartet mit Leuten wie Vahrenholt ernsthaft zusammenarbeiten zu können? ….. Aber wenn man Vahrenholts Missrepräsentation der Wissenschaft sieht und liest, frage ich mich, wie man da überhaupt eine gemeinsame Diskussionsgrundlage bekommen soll. Es geht gar nicht."

beruht auf einer unbeabsichtigten Verwechslung. Das "@v. Storch" im Blog bedeutet, dass der vorgenannte Text an v.Storch gerichtet, nicht aber von ihm verfasst ist. Der Autor bittet für diesen Irrtum alle Leser und v. Storch – falls er denn den EIKE-beitrag überhaupt zur Kenntnis genommen hat – um Entschuldigung und dankt dem EIKE-Leser Sören Hader für seinen Hinweis auf diesen Irrtum.

xxxxxxxxxxxxxxxxxxxx

Wieso geht es nicht? Wenn Vahrenholt (immerhin Professor für Chemie und somit akademischer Kollege von v. Storch) die Wissenschaft in seinem Buch "Die kalte Sonne" missinterpretiert, sollte man mit ihm darüber wissenschaftlich streiten und vom Gegenteil überzeugen. Alles andere widerspricht der wissenschaftlichen Etikette. Diskussionsverweigerung und Austritte aus Arbeitsgruppen tragen vielleicht zur Ehre einer Gruppe, nicht aber zur wissenschaftlichen Wahrheitsfindung oder gar zur Aufklärung der Öffentlichkeit bei. EIKE bedauert es außerordentlich, dass ausgerechnet ein so renommierter Meteorologe wie Hans v. Storch keinen anderen Weg fand als den Austritt. Bemerkenswerterweise sind nämlich viele Publikationen von v. Storch nicht gerade als mustergültige Befolgung der IPCC-Linie zu bezeichnen (hier und hier).

Die Acatech-Affaire war zweifellos ein Tiefpunkt für Klimawissenschaft und kollegiales Umgehen miteinander. Wir wünschen aus vollem Herzen, dass der Diskurs unter verdienten Forschern (dazu gehören alle Beteiligten) wieder aufgenommen wird und auf allen Seiten mehr Verständnis und Toleranz für andere Positionen als die eigene aufkommen.

Prof. Dr. Horst-Joachim Lüdecke

EIKE Pressprecher




Aktuelles aus der Klimaforschung: Klimaentwicklung ist keine Einbahnstraße

Wie sich die Kohlendioxid-Konzentration in der Atmosphäre im Verlauf der Erdgeschichte entwickelte, lässt sich langfristig an den Kalkablagerungen in der Tiefsee ablesen. Durch die Verwitterung von Gesteinen wird nämlich der Luft Kohlendioxid entzogen. Über die Flüsse gelangt das chemisch gebundene Treibhausgas ins Meer und wird dort als Kalkablagerung gespeichert, zum Beispiel in kalkigen Mikrofossilen. Dieser Prozess führt langfristig zu einer globalen Abkühlung. Das konnten Forscher des Biodiversität und Klima Forschungszentrums (BIK-F) und der Goethe-Universität für die letzten rund 55 Millionen Jahre anhand von Tiefseebohrungen im äquatorialen Pazifik mit bisher unerreichter Genauigkeit belegen.

Parallel zum Übergang vom Supertreibhaus zum Eiszeitalter fiel auch die Meerestiefe, unterhalb der das Kohlenstoffmineral Kalkspat vollständig aufgelöst wird (Karbonat-Kompensationstiefe). Das berichten die Forscher in der aktuellen Ausgabe der Fachzeitschrift Nature. Die Daten stammen aus Tiefseebohrungen in der Region beiderseits des äquatorialen Pazifiks, die für den globalen Kohlenstoffkreislauf äußerst produktiv ist. Während einer viermonatigen Expedition des US-amerikanischen Bohrschiffs JOIDES Resolution im Jahr 2009 bohrten die Expeditions-Teams in Wassertiefen von 4.300 bis 5.100 Metern. Sie entnahmen die Bohrkerne an acht Orten und über insgesamt 6.3 Kilometer Länge. Damit steht ein Klimaarchiv zur Verfügung, das die letzten 55 Millionen Jahre umspannt.

„Wir reden heute viel über das vom Menschen kurzfristig produzierte Kohlenstoffdioxid und die dadurch ausgelöste Klimaerwärmung“, sagt Prof. Heiko Pälike, einer der Expeditionsleiter. Er arbeitet seit Juni 2012 im MARUM – Zentrum für Marine Umwelt der Universität Bremen. „Über Jahrmillionen gesehen bestimmen allerdings andere Prozesse den Kohlenstoffkreislauf.“ Zum Beispiel Vulkaneruptionen, die große Mengen Kohlendioxid in die Atmosphäre ausstoßen. Andererseits sorgt die Verwitterung kalkhaltiger Gesteine dafür, dass Kohlendioxid wieder gebunden und dem Klimakreislauf entzogen wird. Die Bilanz des Kohlenstoffkreislaufs spiegelt sich im Ozean, und zwar in der Karbonat-Kompensationstiefe. Unterhalb dieser Grenze bleiben keine kalkhaltigen Partikel wie Kalkschalenreste von Meeresorganismen erhalten.

Im äquatorialen Pazifik lag die Grenzlinie vor rund 55 Millionen Jahren in 3.300 bis 3.600 Meter Tiefe. Zwischen 52 und 47 Millionen Jahre vor heute, als es auf unserem Planeten besonders warm war, flachte sie sogar bis auf 3.000 Meter Meerestiefe ab. Als die Erde vor 34 Millionen Jahren allmählich abkühlte und sich in der Antarktis erste Eisschilde bildeten, senkte sich die Karbonat-Tiefenlinie im Pazifik ab, und zwar auf bis zu 4.800 Meter vor 10,5 Millionen Jahren.

Die Tiefseeablagerungen belegen eindrucksvoll, dass Klima und Kohlenstoffkreislauf nie eine Einbahnstraße waren: „In den Ablagerungen aus der Zeit, die der großen antarktischen Vereisung vor 34 Millionen Jahren voranging, haben wir fünf Ereignisse beschrieben, in denen sich die Karbonat-Kompensationstiefe kurzfristig zwischen 200 und 900 Metern nach oben und unten bewegte“, sagt der Geowissenschaftler Prof. Jens Herrle, einer der Expeditionsteilnehmer: „Diese Ereignisse, die oft für Erwärmungs- und Abkühlungsphasen stehen, dauerten zwischen 250.000 und einer Million Jahre. Sie sind durch einen Wechsel innerhalb des marinen Planktons von kalkigen zu kieseligen Mikrofossilien gekennzeichnet.“

Aber auch für die jüngere Vergangenheit sind vergleichbare Episoden belegt. So vor rund 18,5 Millionen Jahren, als besagte Karbonat-Tiefenlinie um rund 600 Meter Richtung Meeresoberfläche anstieg – um zweieinhalb Millionen Jahre später wieder auf 4.700 Meter abzusinken. Heute liegt sie im Pazifik bei etwa 4.500 Meter.

Um die Ursachen dieser Schwankungen zu bestimmen, setzte das internationale Wissenschaftlerteam auf Computermodelle, die das System Erde und die wesentlichen dort ablaufenden Prozesse nachbilden. Dies war eine der Forschungsarbeiten der wissenschaftlichen Mitarbeiterin Dr. Cecily Chun aus der Arbeitsgruppe Paläontologie und Biogeochemie von Prof. Jens Herrle an der Goethe-Universität.

Publikation: Heiko Pälike et al.: A Cenozoic record of the equatorial Pacific carbonate compensation depth, in Nature DOI: 10.1038/nature11360

Veröffentlichung auf der Webseite der Universität Frankfurt mit weiteren Hinweisen zur Arbeitsgruppe Prof. Jens Herrle hier.




Grüne Energie – Abkürzung zur Energieunabhängigkeit oder Sackgasse?

…Dies muss jedoch nicht unbedingt der Grund sein, mit der Entwicklung der Erneuerbaren nicht weiterzukommen. Allerdings ist es vernünftig, unsere Bemühungen und Ressourcen in der heutigen relativ sicheren Energieversorgung darauf zu richten, durch Forschung und Entwicklung zum nationalen Wohlergehen beizutragen. Es ist unsinnig, China und seine hinsichtlich der Umwelt oft fragwürdigen  Produktionsmethoden und absurden Aktivitäten zu subventionieren, wie z. B. das CO2 unter die Erde zu verpressen oder den CO2-Abdruck zu besteuern.

Grüne Energie – Abkürzung zur Energieunabhängigkeit oder Sackgasse?

1 An Stelle einer Einführung oder: „Hören Sie Arthur zu!“

„in Durban ein Hoffnungsschimmer für das Schicksal der Erde“. – „Giftige Gase aus Kraftwerken – Verhängnis für den Planeten“. – „Greenpeace Slowenien weiß, wie man Elektrizität aus den Kernkraftwerken durch erneuerbare Energiequellen ersetzt“. – „Kohlendioxid gefährdet die Gesundheit der Erde.“ – „Der Meeresspiegel steigt“. – „Die Temperatur des Planeten wird bis zum Ende des Jahrhunderts um viele Grad steigen“ – „Überschwemmungen in (wo auch immer) sind das Ergebnis anthropogener Klimaänderungen“. – „Öl kann schon jetzt durch Biodiesel und aus ernten produziertem Ethanol ersetzt werden“. – „Dänemark ist ein gutes Beispiel für andere Länder“.

Die Liste der Schlagzeilen in der Nachrichtenflut wird jeden Tag auf die Öffentlichkeit abgeschossen und klingt wohlbekannt. Während der letzten Jahre wurden die Menschen mit Informationskampagnen konfrontiert, welche verschiedene Maßnahmen zum „Erhalt der Umwelt“ sowie die sog. erneuerbaren Energiequellen preisen und die für das Überleben der menschlichen Rasse und der Natur sofort umgesetzt werden sollten – mehr noch, „eher gestern als heute“. In Slowenien haben zahlreiche Umweltorganisationen ihre Aktivitäten in den Massenmedien verstärkt, gerade vor den Parlamentswahlen (nehmen wir uns die Freiheit zu spekulieren), um den politischen Parteien „Umwelt- und Energie“-Auflagen aufzudrücken, welche später mit finanziellen Zuwendungen erleichtert werden können. Die Netzanwendung „Revizor“ klärt viele Dinge hinsichtlich der Finanzierung einiger Kleriker der Umweltbewegung. Eine davon ist, dass etwa die Hälfte des Geldes, von dem ein beachtlicher Teil vom Staat kommt, für PR ausgegeben wird. Unabhängig von der moralischen Fragwürdigkeit wird diese Finanzierung Slowenien nicht ruinieren. Eine positive Auswirkung der Umweltorganisationen (von solchen ohne Anführungszeichen) hinsichtlich der Aufmerksamkeit der Notwendigkeit des Naturschutzes, der Kontrolle von Verschmutzern und einer positiven Einstellung der Menschen zu ihrer Umwelt sollten nicht vergessen werden.

Als Konsequenz der endlosen Wiederholungen der gleichen zweifelhaften und unbrauchbaren Strategien und der Politik im Energiesektor (konzentrieren wir uns mehr oder weniger auf den elektrischen Strom) tauchen Probleme auf. Obwohl einige der Thesen mehr als zweifelhaft sind, sollte man den Worten von Herrn Paul Joseph Göbbels vertrauen, dass „eine Lüge, tausend mal wiederholt,  zur Wahrheit wird“.

Da Politiker zumindest äußerlich den öffentlichen Interessen folgen, und weil ihr Zeithorizont durch die Dauer ihrer Amtszeit begrenzt wird, können hinsichtlich der Strategie der Energieversorgung Beschlüsse gefasst werden, die weit davon entfernt sind, optimal zu sein und die künftigen Generationen sehr teuer zu stehen kommen (man sollte beachten, dass die Zeitkonstanten im Bereich des Energiemanagements über 30 Jahre dauern).

Daher können wir, wenn wir Aussagen von zahlreichen „Hobbyökologisten“, und „Hobby-Energieexperten“ hören, nichts weiter tun als uns zu fragen: „Warum um Himmels Willen können wir all die Verschmutzer auf dem Gebiet elektrischer Energie nicht einfach durch die so genannten Erneuerbaren ersetzen?“. Lassen Sie uns in unseren Überlegungen den NIMBY und den BANANA-Effekt ignorieren (NIMBY = Not In My Backyard – Nicht vor meiner Hintertür; BANANA = Build Absolutely Nothing Absolutely Nowhere Around – Bilde gar nichts nirgendwo um uns herum [Das Wortspiel geht noch weiter: To go bananas = verrückt werden! A. d. Übers.]), da es mehr als genug Fälle in Slowenien gibt; „Wir sind für Erneuerbare, aber gegen Wasserkraftwerke am Mura-Fluss, gegen Windkraftwerke, gegen Überlandleitungen usw. Ignorieren wir auch Murphys „Naturgesetz“ (d. h. „Wenn etwas zu schön ist, um wahr zu sein, ist es normalerweise nicht wahr) und schauen auf einige technische Aspekte hinsichtlich des Ersetzens klassischer Energiequellen durch Erneuerbare. Erwähnt werden sollte auch, dass „es so etwas wie Lunch umsonst nicht gibt“, und dass das Einhalten hoher Umweltstandards teuer ist (Für die Mehrheit der Leute wird die Ökologie unwichtig in dem Moment, in dem sie dafür ihre Brieftaschen zücken müssen).

Antworten auf Fragen des Wechsels von klassischen Energiequellen hin zu Erneuerbaren sind nicht über die Maßen kompliziert und können auf Basis öffentlich zugänglicher Informationen, Grundkenntnissen der Physik und vor allem unseres gesunden Menschenverstandes gegeben werden. Man sollte immer die Weisheit des Philosophen Arthur Schopenhauer im Hinterkopf behalten: „gesunder Menschenverstand kann fast jedes Bildungsniveau ersetzen, aber keine noch so hohe Bildung kann den gesunden Menschenverstand ersetzen“.

Es ist unbestritten, dass die Technologie erneuerbarer Energiequellen weiter entwickelt werden muss und dass wir alle die Zeit kaum erwarten können, in der wir Solarpaneele auf die Dächer schrauben oder eine „Solarfolie“ an die Südwände unserer Häuser kleben. Es ist auch unbestritten, dass gewisse Technologien verbessert werden müssen, so dass sie preiswert genug sind, um auf dem Markt mit den Technologien fossiler Treibstoffe ohne Subventionen konkurrieren zu können, bezahlt durch „normale Einwohner“. Allerdings ist die Verfügbarkeit von Energie aus erneuerbaren Quellen im globalen Maßstab mit gewissen physikalischen Grenzen und strategisch inakzeptablen Gefahren verbunden.

In der Studie werden einige Aspekte und Probleme diskutiert im Zusammenhang mit der Versorgung der Menschheit mit Energie aus erneuerbaren Quellen anstatt fossiler Treibstoffe. Das Erschließen von Energiequellen ist unabdingbar für jede Gesellschaft. Falsche Entscheidungen können langfristig den Wettbewerb im globalen Maßstab gefährden. Daher ist es wichtig, jeden einzelnen Aspekt genau zu überdenken und natürlich auch jene ich würde sagen, vor allem jene), die höchst unbequem sind.

Die folgenden Abschnitte des Hauptteils dieser Studie werden wegen der Gesamtlänge nicht wörtlich übersetzt, sondern nur kurz zusammengefasst. Vieles davon wurde in Blogs wie EIKE und Anderen in anderen Zusammenhängen schon besprochen.

In den Abschnitten 2 und 3 werden zunächst einige grundlegenden Begriffe aus dem Energiesektor erklärt. In den Abschnitten 4 und5 geht es um Verteilungsnetze, Material- und Landschaftsverbrauch sowie den Fußabdruck in der Umwelt. Im Abschnitt 6 wird ausführlich erklärt, warum durch Erneuerbare keine größere Unabhängigkeit von Energieimporten erreicht wird, sondern die Abhängigkeit eher vergrößert. Ursache ist der notwendige Gebrauch seltener Erden, die von China monopolistisch auf den Markt gebracht werden. In Abschnitt 7 werden die Verhältnisse im „Ökomusterland“ Dänemark erläutert. Dort misst man nämlich mit zweierlei Maß, wenn es um Aufstellorte für Windräder geht. In Abschnitt 8 wird die Problematik der Ethanolgewinnung angesprochen. In Abschnitt 9 geht es um die Problematik der unterirdischen Verpressung von CO2 (Carbon Capture and Storage CCS). Die Abschnitte 10 und 11 befassen sich mit Sinn oder Unsinn einer Kohlenstoffsteuer. Der Autor begründet hier ausführlich, warum diese Maßnahme den Strom unsinnig verteuert und sie daher in Zukunft keine Chance hat. In Abschnitt 12 geht es um die Problematik von Elektroautos. In Abschnitt 13 wird beschrieben, warum das Öl noch lange reichen wird. Zwar wird es durch neue Erschließungstechniken teurer, ist aber immer noch mindestens zehnmal billiger als die sog. „grünen Technologien“. Abschnitt 14 schließlich befasst sich mit Erdgas und der neuen Technik zur Förderung von Schiefergas.

Der Ábschnitt 15 wird wieder wörtlich übersetzt:

15. Schlussfolgerungen

Basierend auf öffentlich zugänglichen Daten beleuchtet der Autor die Transition von klassischen zu erneuerbaren Energiequellen sowie einige damit verbundenen und sozial akzeptierten Glaubenssätzen von fragwürdiger Glaubwürdigkeit. Das Gebiet der Energieerzeugung ist natürlich viel zu umfangreich, um mit einer einzigen Studie abgedeckt werden zu können. Der Autor glaubt, dass die Mehrheit der Bevölkerung einer optimal umweltfreundlichen Energieerzeugung positiv gegenüber steht. Wir alle wollen „saubere“, stets verfügbare, universell einsetzbare Energie zu akzeptablen Preisen haben. Allerdings gibt es nichts umsonst und Energieumwandlungen haben immer ihren Preis, der entweder von der Umwelt oder vom Steuerzahler entrichtet werden muss. Neue Technologien (Wind-, Solarkraftwerke, …) sind nach wie vor unsicher hinsichtlich ihrer Verfügbarkeit und ihrer Preise.

Kurz wird gezeigt, dass die „Auswirkung auf die Umwelt” der sog. „grünen Quellen“ relativ groß ist, verglichen mit einigen klassischen Energiequellen, und dass das Ignorieren der Abhängigkeit von Importen der benötigten Materialien tatsächlich die Abhängigkeit von Energieimporten weiter vergrößern kann, da neue Technologien auf einigen seltenen Materialien basieren, deren Produktion monopolisiert worden ist. Das Beispiel des Dänischen „Öko-Staates“ wird aus einem normalerweise der Öffentlichkeit nicht bekannten Blickwinkel  untersucht. Einige glauben, dass anthropogene CO2-Emissionen für Klimaänderungen verantwortlich sind und propagieren Ideen, diese beim Verbrennen fossiler Treibstoffe einzufangen, um zu verhindern, dass sie in die Atmosphäre gelangen oder besteuert werden. Unabhängig von der Tatsache, dass der Autor von der absoluten Harmlosigkeit des CO2 überzeugt ist (39) zeigt diese Studie, dass keiner der beiden Wege im globalen Maßstab gangbar ist.

Obwohl das Konzept eines Elektroautos verführerisch daher kommt, ist das Problem einer adäquaten Speicherung elektrischer Energie, erforderlich für flächendeckenden Verbrauch, immer noch nicht zufriedenstellend gelöst. Die Menschheit wird noch eine ganze Weile von fossilen Energieträgern abhängig bleiben. Glücklicherweise gehen diese nicht so schnell zur Neige, wie einige befürchtet haben. Allerdings sollte dies kein Grund sein, umweltfreundliche Energiequellen zu erschließen. Es wäre in dieser noch mit einer guten Energieversorgung gesegneten Zeit vielmehr angebracht, unsere Mittel und Bemühungen darauf zu konzentrieren, nach Technologien zu forschen und diese zu entwickeln, die sich auch förderlich für die Gesellschaft auswirken. Es gibt keinen Grund, die schon jetzt unterbezahlten Arbeitskräfte und die umweltpolitisch fragwürdige Produktion in China zu subventionieren. Die Unterstützung des Sektors, dessen einziges Ziel es ist, den Steuerzahlern das Geld aus der Tasche zu ziehen und politische Macht für Einige zu gewinnen ist sozial inakzeptabel. Das unterirdische Verpressen von CO2 sowie eine Kohlenstoffsteuer ist ein Unfug, für den die Europäer schon jetzt nur zu gerne zahlen. Sollte es der Steuerzahler zulassen, dass auf seinen „Kohlenstoff-Fußabdruck“ eine Steuer erhoben wird, würde dies ein weiterer Schritt auf der Straße des Unsinns und ein Schritt zur Begrenzung der persönlichen Freiheit sein (ebenso wie dadurch die Brieftaschen einiger weniger gefüllt werden). Umsonst verschwendete Ressourcen und der Vertrauensverlust bei vielen Menschen wird die Nutzung neuer Technologien schwieriger machen – zu einer Zeit, wenn dies tatsächlich notwendig sein könnte.

Trotz der hier präsentierten Argumente wird Mancher seinen Glauben aus welchen Gründen auch immer nicht ändern, seien es die religiöse Haltung gegenüber dem Problem oder persönliche Interessen. Es gab eine interessante Reaktion in der Zeitung Delo von einem Leser, der längere Zeit auf dem Gebiet Energiemanagement gearbeitet hatte. Er glaubt, dass wir das Problem hinsichtlich Wind und Kernkraft, dem wir gegenüber stehen, nicht richtig sehen. Der Autor glaubt, dass unsere akademische Freiheit uns dazu bringt, über den Tellerrand zu schauen und auch weniger wünschenswerte Dinge anzusprechen.

Wie können wir als Beispiel für freie Menschen geben, wenn wir uns selbst nicht frei fühlen? Dies ist der Grund, warum der Autor Dante Alighieri mit seiner Schlussfolgerung zustimmt:

„Die heißesten Stellen der Hölle sind jenen vorbehalten, die in Zeiten einer großen moralischen Krise ihre Neutralität bewahren wollen“.

Rafael Mihalič

Faculty of Electrical Engineering, University of Ljubljana

Tržaška 25, 1000 Ljubljana

E-pošta: rafael.mihalic@fe.uni-lj.si

Related Files




Eisschmelze in der Arktis – droht der Weltuntergang ?

Das arktische Eis hatte seit einem Sommer-Minimum 2007 wieder zugelegt, bis 2011 ;

Jetzt – im Sommer 2012  – gab/gibt es "endlich" wieder ein neues Minimum.

Bei den Alarmisten bricht nun ein nahezu "hysterischer Jubel" aus: Endlich sind sie mal wieder in den Medien mit "Weltuntergangs-Schlagzeilen".

D a z u   ist anzumerken:

(1) Es sollte doch auch den "naivsten" Zeitungs-Schreibern einleuchten (offenbar leider nicht!), daß dafür weder die mäßige säkulare Erderwärmung von 0,7 Grad  noch die seit 14 Jahren abnehmenden Global-Temperaturen verantwortlich sein können :

Abbildung  Global-Temperatur

(Quelle: http://www.metoffice.gov.uk/hadobs/hadcrut3/diagnostics/global/nh+sh/)

Diese Graphik stammt vom IPCC-nahen Hadley-Center (GB), und zeigt, daß seit 1998 kein Temperaturanstieg mehr gemessen wird, sondern insgesamt einen abnehmenden Trend, aktuell bis Juli 2012 (…bei zugleich steigendem CO2! …wo ist die Korrelation ??).

(2) Längst wird auch in der Literatur darauf hingewiesen,

daß es andere Gründe gibt, geben muß, um die Eis- und Gletscher-Schmelze zu erklären, nämlich Ruß und Staub, die insbesondere (nicht nur) anthropogen erzeugt werden :

A n l a g e n   undefined1, undefined2, undefined3, undefined4

(3) Nach neueren Untersuchungen und Überlegungen spielt auch das troposphärische Ozon eine erhebliche Rolle bei Klima-Wandel und Eisschmelze :

A n l a g e n   undefined5 +undefined 6

(4) ….im Übrigen :

Das Arktis-Eis nimmt ab, das Antarktis-Eis nimmt zu, denn in der AA wird es kälter –

eine Klima-Katastrophe ist weder das eine noch das andere :

A n l a g e n   undefined7, undefined8,  undefined9

(5) …. s o w i e : 

Arktis-Schmelzen hat es auch in der jüngerer Klima-Historie immer wieder gegeben:

A n l a g e n   undefined10, undefined11, undefined12, undefined13

(6) Im Zusammenhang mit (5) :

Schon lange ist der Arktis-Forschung bekannt, daß es in der Arktis natürliche Schwankungen/Schwingungen von etwa 60-70 Jahren gibt, wie soeben auch das Alfred-Wegener-Institut wiederholt :

 (a) 

… "Das ist zum Teil Folge einer natürlichen Entwicklung, die Perioden von 60, 70 Jahren hat." …

            (Quelle: Rüdiger Gerdes, AWI, in: Nordsee-Zeitung, 29.08.2012, S.3) ;

 (b) 

            … "Seit Mitte der 90er Jahre haben wir einen starken Temperaturanstieg im Bereich des Nordatlantiks und des Nordpolarmeers. Das ist zum Teil Folge einer natürlichen oszillierenden Entwicklung, die Perioden von 60, 70 Jahren hat. Da sind wir jetzt in einer warmen Phase." …

(Quelle: R. Gerdes, AWI, in: Nordwest-Zeitung, NR.202, 29.08.1012, SEITE 2)

u n d   nochmals das AWI:

Prof. Dr. Miller (Vize-Direktor AWI): "Wann und ob die Arktis eisfrei sein wird, können wir nicht mit Sicherheit sagen"

(Quelle: Prof. Dr. Heinrich Miller, Interview mit Professor Dr. Heinz Miller, Stellvertretender Direktor des Alfred-Wegener-Instituts. Er beschäftigt sich als Geophysiker mit Klimarekonstruktion und Eisdynamik, 03.11.2007;

 http://www.awi.de/de/aktuelles_und_presse/bild_film_ton/tonbeitraege/miller_3112007_klimawandel/ )

AWI-Direktorin Prof. Dr. Karin Lochte in einem FASZ-Interview (FAZ 16.11.2007, S.46) :

…auf die Frage, ob die starken Meereisverluste im Sommer 2007 ein Indiz für die künstliche Erwärmung sei: "Das müssen wir erst noch sehen. Wir wissen heute noch nicht, ob wir in vielleicht fünf Jahren wieder mehr Eis haben…"

…und nochmals Karin Lochte: auf die Frage, ob die Nordpol-Umrundung 2008 von FS POLARSTERN ein Hinweis auf den globalen Klimawandel sei: 

“Das ist noch nicht klar… Es gibt noch keine Antwort auf die Frage, ob der Rückgang des Meereises anhalten oder ob es wieder eine kältere Phase geben wird.“ (ElbeWeserAktuell, 29.10.2008, S.6BC).

F a z i t :

Die Arktis-Schmelze der vergangenen 20 Jahre ist im Wesentlichen ein altbekanntes, natürliches "Schwingungs-Phänomen", das mit der mäßigen säkularen Temperatur-Erhöhung von 0,7 Grad (in der Arktis ca. 1 Grad) alleine nicht erklärt werden kann, mit der CO2 -Zunahme auch nicht.

Klaus-Eckart Puls , EIKE




Englische Klimaschutzpolitik in Schwierigkeiten

Die britische Regierung kann ihre teure Klimapolitik nicht mehr mit dem Stern-Bericht rechtfertigen

London, 4 September

 

Die Kosten der Regierungsmaßnahmen im Kampf gegen den Klimawandel treffen die Haushalte und die Industrie immer mehr, da weckt eine neue Studie der Global Warming Policy Foundation ernsthafte Zweifel an der Gültigkeit des sogenannten Stern-Berichts (Stern Review of the Economics of Climate Change), auf den sich die britische Regierung zur Rechtferigung ihrer Klimapolitik beruft.

Die gehaltvolle Studie von Peter Lilley, Mitglied des Unterhauses, ist die bislang sorgfältigste Analyse des Stern-Berichts. Sie geht davon aus, dass die IPCC-Meinung von der Klimaerwärmung stimmt, zeigt aber auf, dass Sterns wirtschaftliche Folgerungen den Ansichten der meisten Umwelt-Ökonomen widersprechen, ja sogar dem IPCC selbst. Lilleys Studie führt auch zahlreiche Fehler und Verzerrungen im Stern-Bericht auf, „von denen jeder einzelne dazu geführt hätte, dass der Bericht nicht durch die Fachbegutachtung gekommen wäre.“

Weil Sterns Schlussfolgerungen die Politik unterstützten, die von der Regierung und der Opposition verfolgt wurde, und weil die sehr tendenziösen Annahmen nicht ausdrücklich erwähnt werden, war der Stern-Bericht ohne öffentliche Überprüfung akzeptiert worden.

Die neue Studie zeigt, dass der Stern-Bericht entscheidend auf  “selektiver Faktenauswahl beruht, ungewöhnlichen wirtschaftlichen Annahmen beruht und in propagandistischem Stil geschrieben ist  – damit wäre er nie durch die Fachbegutachtung gekommen.“

Peter Lilley charakterisiert den Bericht als “politisch begründete Beweisfindung” und meint, dass die Regierung damit nicht länger die Ausgabe von vielen Milliarden Pfund rechtfertigen kann. Er fordert eine Rückkehr zu einer „auf Beweisen begründeten Politik“.

Sterns zentrale Schlussfolgerung lautet: “Wenn wir nichts tun, werden die Gesamtkoten und Risiken des Klimawandels einem Verlust von wenigstens 5% des Welt-Brutto-Sozialprodukts jedes Jahr von nun an“ entsprechen, während die „Kosten des Handelns – Treibhausgasverminderung zur Vermeidung der schlimmsten Folgen des Klimawandels – auf etwa 1% des Bruttosozialprodukts begrenzt werden können“. Sie erweist sich als völlig falsch.

Lilley zeigt in seiner Studie, dass der Nutzen der Emissions-Verminderung ab sofort und für immer nicht fünfmal höher ist als die Kosten, wie Stern behauptet. Er sagt: „Das wird durch verbale Akrobatik und damit verbundene Statistik-Sophisterei erreicht. Selbst mit Sterns Zahlen würden die kumulierten Kosten einer Treibhausgasverminderung den Nutzen bis nach 2100 übersteigen.“

Lilley führt weiter an: „Wenn wir Sterns Ratschlägen folgen, werden die Hauptverlierer neben den britischen Steuerzahlern und der britischen Industrie die Entwicklungsländer sein, die ihre Lebensstandards nur erhöhen können, wenn sie massiv mehr fossile Treibstoffe verbrennen und die damit den Großteil der Zunahme der Kohlenstoff-Emissionen verursachen.“

Er fragt: “warum sollte unsere vergleichsweise arme Generation die Opfer bringen, die Stern fordert, um den Lebensstandard von Menschen anzuheben, die erst 2200 leben werden und die, selbst wenn wir nichts gegen den Klimawandel tun – sogar im schlimmsten Szenario laut Stern – immer noch 7 mal besser dran sein werden als die Heutigen?“

Lilley fordert von der Regierung, sich mit ihrer Klimapolitik nicht mehr länger auf den fehlerhaften Stern-Bericht zu berufen und eine neue unabhängige Kosten/Nutzen-Studie für alternative Strategien zu beauftragen.

Übersetzung: Helmut Jäger, EIKE
Original des Artikels hier.

Wir danken der GWPF für die Genehmigung zur Übersetzung und zum Abdruck. Copyright © 2012 The GWPF. All Rights Reserved

Der vollständige Text der Studie (in Englisch) kann hier heruntergeladen werden.




Fanatiker der globalen Erwärmung nehmen zur Kenntnis: Sonnenflecken beeinflussen in der Tat das Klima

Bild rechts: Illustration von Sonnenflecken von John Camejo für The Washington Times <mehr>

Anfang des vorigen Monats August hat Professor Richard Muller von dem University of California-Berkeley Earth Surface Temperature (BEST)-Projekt verkündet, dass die im Rahmen des Projektes neu konstruierte Aufzeichnung der globalen Temperatur auf dem Festland „keine Komponente aufweist, die zu der Sonnenaktivität passt“. Stattdessen sagte Mr. Muller, dass das Kohlendioxid über die Temperatur bestimme.

Kann es wirklich sein, dass die Solarstrahlung – die die Erde mit Energie versorgt, die unser Klima steuert und welche, so sie variiert hat, zu Klimaänderungen mit der Zeit geführt hat – nicht länger der wesentliche Faktor von Klimaänderungen ist?

Man betrachte die begleitende Graphik. Sie zeigt einige ziemlich überaschende Beziehungen zwischen der Solarstrahlung und Tageshöchsttemperaturen, die direkt aus dem BEST-Projekt stammen. Die bemerkenswerte Natur dieser Reihen ist, dass gezeigt werden kann, dass diese engen Beziehungen für Gebiete so groß wie die USA gelten.

Diese neue Darstellung der Beziehung zwischen Sonne und Klima zeigt, dass die Art und Weise, mit der unsere Sonne den Planeten erwärmt oder abkühlt, am stärksten durch das Eindringen solarer Strahlung in Gebieten mit wolkenlosem Himmel abhängt. Jüngste Arbeiten durch die leitenden Wissenschaftler Harry van Loon und Gerald Meehl am National Center for Atmospheric Research legen starke Betonung auf diesen physikalischen Punkt und erklären, dass die Verwendung der täglichen Höchsttemperatur der beste Test für die Hypothese zum Zusammenhang zwischen der Sonnenstrahlung und der Temperatur an der Erdoberfläche ist. Alle früheren Studien bzgl. Sonne – Klima schlossen die nächtlichen Temperaturaufzeichnungen mit ein, wenn die Sonne gar nicht scheint.

Selbst kleine Änderungen der Solarstrahlung können starke Auswirkungen auf die Temperatur und das Klima der Erde haben. Im Jahr 2005 hat einer von uns eine bemerkenswert starke Beziehung zwischen der Solarstrahlung und der Temperatur in der Arktis während der letzten 130 Jahre gezeigt. Seitdem haben wir ähnliche Beziehungen in allen Gebieten rings um die Arktis nachgewiesen, einschließlich des Festlandes der USA und China. Die Bestätigung einer Beziehung zwischen Sonne und Temperatur durch das alleinige Betrachten der Aufzeichnungen der täglichen Höchsttemperatur in den USA fügt der Stärke dieser Beziehung weiteres wissenschaftliches Gewicht hinzu.

Die enge Beziehung zwischen den abrupten Änderungen der Sonnenaktivität und der Temperatur, die wir lokal in den küstennahen Gebieten von Grönland, regional im arktischen Pazifik und dem Nordatlantik sowie hemisphärisch für das gesamte Gebiet rings um die Arktis identifiziert haben, legt nahe, dass Änderungen der Solarstrahlung Ursache für Temperaturänderungen zumindest in vielen Gebieten sind.

Graphiken wie diese kann man nicht für [den Zusammenhang zwischen] Temperatur und CO2-Konzentration erstellen. Es gibt einfach keine solche enge Beziehung zwischen dem stetigen Anstieg des [atmosphärischen] CO2-Gehaltes und den oft dramatischen Temperaturänderungen (Erwärmung und Abkühlung) in und rings um die Arktis, China und den USA.

Selbst noch danach konnten wir in Zusammenarbeit mit Professor David Legates von der University of Delaware eine in sich widerspruchsfreie Erklärung für diese beobachtete offensichtliche Beziehung Sonne – Klima bieten, welche den Austausch von Wärme und Feuchtigkeit zwischen dem arktischen Gebiet und dem Äquator einschließt. Außerdem haben wir kürzlich einen direkten Beweis dafür gefunden, dass Änderungen der Sonnenaktivität etwas beeinflusst haben, das unter dem Namen „conveyor belt“ [?]-Zirkulation der großen atlantischen Meeresströme während der letzten 240 Jahre bekannt ist. Zum Beispiel sorgen solar getriebene Änderungen der Temperatur und des Volumens des Ausflusses von Schmelzwasser in der Arktis für Änderungen der Wassertemperatur im tropischen Atlantik 5 bis 20 Jahre später.

Diese wissenschaftlich begutachteten Ergebnisse, die in vielen verschiedenen wissenschaftlichen Journalen erschienen sind, machen es schwierig, die Hypothese aufrecht zu erhalten, dass Änderungen der Sonnenaktivität keine oder nur eine geringe Rolle bei Klimaänderungen spielen.

Das Gütesiegel guter Wissenschaft ist das Austesten plausibler Hypothesen, die durch Beweise entweder bestätigt oder widerlegt werden. Die Beweise in den BEST-Daten und anderen Daten, die wir analysiert haben, sind konsistent mit der Hypothese, dass die Sonne Klimaänderungen auslöst, vor allem in der Arktis, in China und den USA. Die BEST-Daten widerlegen gleichzeitig eindeutig die Hypothese, dass das CO2 der wichtigste Treiber beobachteter Temperaturänderungen in den Vereinigten Staaten ist.

Im Vergleich zu dem umfangreichen und zeitweise exzessiven Interesse, eine Verbindung zwischen Kohlendioxid und dem Klima herzustellen, gab es relativ wenige Untersuchungen zum Zusammenhang zwischen Sonne und Klima. Die wissenschaftliche Gemeinschaft hat die Weisheit von Ralph Waldo Emerson bewiesen, der da gesagt hat: „Die Sonne scheint und wärmt uns und gibt uns Licht, und wir sind in keiner Weise neugierig, warum das so ist“.

Willie Soon und William M. Briggs

Willie Soon has been researching the relationship of solar radiation and Earth’s climate for the past 22 years.

William M. Briggs is a meteorology-trained statistician and former associate editor of the Monthly Weather Review.

Read more: SOON AND BRIGGS: Global-warming fanatics take note – Washington Times http://www.washingtontimes.com/news/2012/sep/6/global-warming-fanatics-take-note/#ixzz25u4FCzsb
Follow us: @washtimes on Twitter

Link: http://www.washingtontimes.com/news/2012/sep/6/global-warming-fanatics-take-note/

Übersetzt von Chris Frey EIKE




Der letzte Tag, an dem die Klimatologie noch eine Wissenschaft war

Einführung

Helmut Jäger 

Sir John Houghton, Vorsitzender der Konferenz der IPCC-Arbeitsgruppe I (Madrid, Nov. 1995) schrieb 2008 in einem Aufsatz in der Fachzeitschrift Nature, dass diese Konferenz die Welt veränderte: „… ohne sie gäbe es heute kein Kyoto-Protokoll“. Houghton erinnert sich, wie es zu der entscheidenden Feststellung im „Zweiten Zustandsbericht des IPCC – SAR“ gekommen sei, dass der Mensch den Klimawandel verursache. Nach Meinung von Nature hätte damals die Wissenschaft obsiegt (Nature, vol455, 9Oct08).

Korrumpiert wurde sie damals, die Wissenschaft, meint dagegen der australische Autor Bernie Lewin. Für ihn war die Konferenz in Madrid 1995 der Tag, an dem sich die Klimatologie dem gemeinsamen amerikanischen, englischen und kanadischen Regierungsdruck unterwarf und damit ihre Wissenschaftlichkeit opferte. Diese Willfährigkeit gegenüber der Politik wirkt bis heute fort. Der englische Umweltpolitiker Sir John Houghton und der amerikanische Klimatologe Ben Santer spielten dabei eine besondere Rolle. Der Australier Bernie Lewin beschreibt die Vorkommnisse. Lassen wir ihn zu Wort kommen.
[Der Originalartikel entstammt einer Reihe von vier Artikeln zum Thema und ist leicht gekürzt und geringfügig zum besseren Verständnis für deutschsprachige Leser überareitet.
Einfügungen der Übersetzer in eckigen Klammern. Internet-Links auf die übrigen Artikel am Ende.]

Madrid 95: Der letzte Tag, an dem die Klimatologie noch Wissenschaft war

Von Bernie Lewin

Ben Santer in Madrid

Ben Santer kam im Spätherbst 1995 in Madrid an. Da wusste er noch nicht, dass diese Konferenz sein Leben entscheidend verändern würde.

Er war ehrgeizig, ein aufsteigender Stern am Himmel der Klimamodellierer. Er hatte sich schon einen Namen gemacht. Gerade war er 40 geworden und wurde nun maßgeblich mit der Überarbeitung eines Schlüsselkapitels des IPCC Second Assessment Report beauftragt. Erst spät hatte ihn John Houghton, Sitzungsleiter in Madrid, um die Übernahme dieser Aufgabe gebeten, nachdem andere wohlbestallte Wissenschaftler abgelehnt hatten. Vielleicht ahnten sie, was sich da zusammenbraute. Denn es sollte dann auch Santers Schicksal werden, dass auf ihn eine große historische Last als Leitautor dieses Kapitels zukommen würde. Als er damit fertig war, als Houghton nach einigen Tagen den Schlussentwurf erhalten hatte, würde die Klimatologie nie mehr so sein wie früher.
Nach langem Kampf hatten sich die Jünger der Wissenschaft den überstarken Kräften der Politik ergeben. Und bald würden sie völlig und unwiderruflich darin verstrickt sein.

Die Geschichte von Santers späten Änderungen am Kapitel 8 des Berichts der Arbeitsgruppe I ist durch die skeptischen Darstellungen der Klimawandel-Kontroverse bekannt geworden. (Siehe hier und hier und hier in einem nicht skeptischen Bericht).
Die Geschichte wird aber oft von anderen Ereignissen überschattet, und ihr wird nicht die gleiche Bedeutung gegeben, wie z. B. Hansens schweißtriefender Kongress-Anhörung 1988, oder wie es zur Entstehung des IPCC kam, oder der Hockeyschläger-Kontroverse. Wenn man aber mit dem Maßstab des Einflusses auf die Wissenschaft misst, dann steht die Madrider Konferenz von 1995 unangefochten an der Spitze.

Der letzte Tag der Konferenz

Der Vormittag des letzten Tages war schon weit fortgeschritten, als der Abschnitt „Detection and Attribution“ (D&A) [Aufdeckung und Verursachung] in der „Summary for Policymakers“ im Madrider Plenum durchgesprochen wurde. Der vorgelegte Text war das Ergebnis intensiver Diskussionen in einem ad hoc-Ausschusses, der am ersten Tag der Konferenz eingerichtet worden war, unmittelbar nach den lauten Reaktionen auf Ben Santers Präsentation der Ergebnisse der [damals] neuesten ‚Fingerabdruck‘-Studien. Der [zuvor abgestimmte] D&A-Teil schien nun veraltet und überarbeitungsbedürftig …
(Am ersten Tag von Madrid waren noch weiter Ausschüsse gebildet worden, aber keiner führte zu einer solchen Kontroverse im Plenum)

Es gibt verschiedene Darstellungen über den Verlauf des letzten Tages, wir folgen weitgehend dem Bericht der australischen Delegation wegen seines ungewöhnlichen Blickwinkels:

Dr. Al-Sabban von der saudischen Delegation schlug vor, im Plenum den exakten Text der eingereichten [alten] „Concluding Summary“ (von Kapitel 8) zu besprechen. Dr. Santer wies Dr. Al-Sabbans Forderung zurück, der darauf beharrt hatte, dass die vorgelegte [neue] Fassung „keine stimmige Zusammenfassung der Wissenschaft sei“.

Daraufhin bat Dr. Al-Sabban den Vorsitzenden (Houghton) um eine Entscheidung, weil die IPCC-Prozeduren doch vorschrieben, dass die ‚Summary for Policymakers‘ zusammen mit dem zugrunde liegenden wissenschaftlichen Kapitel übereinstimmen müsste. Sir John Houghton entschied, es ginge in Ordnung, wenn auch die zugrunde liegenden Kapitel geändert würden, um sie in Übereinstimmung mit der von der ad hoc Gruppe erarbeiteten [neuen] Erkenntnisse zu bringen. Er wurde von Professor Bolin (IPCC-Vorsitzender) unterstützt. Dr. Al-Sabban protestierte: Während der vergangenen sechs Jahre seiner Tätigkeit im IPCC wäre ihm viele Male verweigert worden, Texte in die ‚Summaries‘ einzufügen, wenn diese nicht auf den zugrunde liegenden Kapiteln basierten. Dem hätte er sich immer gebeugt, aber nun glaube er, würde diese grundlegende Regel verändert.

Santer ereiferte sich. Der Druck auf eine stärkere und durchgängigere Botschaft von einer vom Menschen herbeigeführten Verursachung [des Klimawandels] hatte 2 Tage vorher mit Houghtons Ankündigung der Änderung der Agenda begonnen. Nun geriet diese Absicht in Gefahr. Die Auseinandersetzung barg moralische Probleme [der Integrität] für alle Wissenschaftler auf dem Podium.

Druckaufbau, um das Urteil von der „menschlichen Verursachung“ herbeizuführen

Die alte ‚Concluding Summary‘ von Kapitel 8 war schlüssig und skeptisch, hauptsächlich wegen des Einflusses einer durchweg skeptischen noch unveröffentlichten Studie von Barnett et al., bei welcher Santer ebenfalls Ko-Autor war.

Und so befinden wir uns in einer übernationalen Plenardebatte, deren Teilnehmer einen Konsens bei der Formulierung der ‚Summary for Policymakers‘ finden müssen. Und der Vorsitzende des Plenums entpuppt sich als Komplize eines Leitautors bei dessen Bemühen, die Schlussfolgerungen eines Kapitels zu verwerfen, die in einem [abgeschlossenen] Arbeits- und Begutachtungsprozess von IPCC-Experten erarbeitet worden waren.

Der Vorsitzende Houghton rechtfertigte diese außerordentliche Vorgehensweise mit dem Auftauchen wichtiger neuer Beweise. Diese waren aber nicht neu: Das Muster der ‚vertikalen‘ Verteilung der Korrelationsergebnisse war bereits auf einer Plenarsitzung der Kapitel-Autoren in Asheville im vorhergehenden Juli präsentiert worden. Die Ergebnisse waren in das Kapitel eingearbeitet worden, zusammen mit anderen kürzlich gefundenen ‚Fingerabdrücken‘ von CO2+Sulfaten. Und diesen Sachverhalten war eine erhöhte Bedeutung durch die Erwähnung in der Kapiteleinführung beigemessen geworden.
In Kommentaren, die bereits in Asheville auf dem Tisch lagen, hatte die US-Regierung eine noch stärkere Berücksichtigung der Auswirkungen von CO2+Sulfaten bei der Frage nach der Verursachung gefordert. Und schon in Asheville [wollte die US-Regierung] diese ganz neuen Erkenntnisse in der gleichen Weise behandelt sehen, wie später in Madrid: als Mittel zur Verstärkung einer durchgängigen Botschaft hinsichtlich der Verursachung [durch den Menschen]. Das Problem war nur, dass es Widerstand dagegen gab und dies im Madrider Entwurf (18. April 1995) nur unvollständig berücksichtigt war. Daher sollte der Druck in Madrid fortgesetzt werden. Das große Hindernis war die skeptisch formulierte ‚Concluding Summary‘.

Eine Bresche war bereits zuvor [in Asheville] mit einer Aussage zur Verursachung im Entwurf des Kapitels 8 (19. April 1995) geschlagen worden. In einer früheren Kapitel-Einführung hatte es noch geheißen:

Ein Muster von Klima-Reaktionen auf menschliche Aktivitäten ist in den Klimaaufzeichnungen erkennbar (SAR-Entwurf April 95).

Die Aussage stand aber in einem Kontext von Vorbehalten, die sie anzweifelten.

In Asheville war eine neue Einführung entstanden mit starker Betonung auf die CO2+Sulphate-Muster-Studien, dazu war ein neues Gesamturteil zur Verursachung gekommen:

Insgesamt deuten die Ergebnisse auf einen menschlichen Einfluss auf das Klima hin.

Und das spiegelte sich so als Gesamturteil im Entwurf der ‘Summary for Policymakers’:

Insgesamt deuten die Ergebnisse auf einen erkennbaren menschlichen Einfluss auf das globale Klima hin.

Doch dieses Urteil stach abrupt hervor, und es stand auf den wackligen Beinen von nur zwei kurze Sätzen mit Verweisen auf neue Studien über Verteilungsmuster. (Wegen der schwachen Beweislage also, sollte die ad hoc D&A-Arbeitsgruppe in Madrid die Begründung vertiefen und verstärken).
In Asheville hatte es zur Frage der menschlichen Verursachung eine heiße Debatte gegeben, die Aufrechterhaltung der Behauptung blieb heikel, vor allem angesichts der schlüssigen Kritik an einer derartigen Schlussfolgerung, die bereits aus dem Barnett et al. Papier eingearbeitet worden war.

Aus den intensiven Debatten in Asheville über die Verursachung wurden bisher nur wenige Details bekannt. Ein Hinweis, wie es dort zugegangen ist, kam mit dem Ausbruch der [späteren] Kontroverse im folgenden Frühling. Als Antwort auf den Vorwurf, dass er die gesamte ‚Concluding Summary’ herausgeschnitten hätte, erinnerte Santer seine Mitautoren:

…Ich habe in Sigtuna, Brighton und Asheville hart gekämpft, um Abschnitte über Signale und Rausch-Ungewissheiten in das Kapitel 8 einzufügen (3. Juni und nochmals am 12. Juni; Hervorhebung von Santer)

Die Global Climate Coalition bezeichnete das als nicht zu überbietende Ironie. Auf diese Kritik und als Antwort auf eine in Santers Augen persönliche Attacke auf ihn von Fred Seitz [im Wallstreet Journal], der ihn als den verantwortlichen Autor nennt, hatte Santer den Ball aufgenommen und betont, dass er es ja gewesen wäre, der um die Aufnahme der Signal- und Rausch-Ungewissheiten in das Kapitel 8 gekämpft hätte. Santer:

„Im Endeffekt werde ich als Wissenschaftler herausgepickt und aufs Korn genommen”.

Das ist eine schlüssige Beweisführung, weil Santer in beiden Fällen den Vorwurf der Ironie auf die bei den drei Treffen der Kapitelautoren teilnehmenden Wissenschaftler umlenkt, die es ja besser wissen müssten, wenn es nicht so gewesen wäre.

Zieht man den nordamerikanischen Sinn des Wortes ‚Ironie‘ heran, so scheint Santer zu behaupten, ihn verantwortlich zu machen, widerspräche den Fakten, sei irreführend und unfair. Unfair sei, es ihn ausbaden zu lassen, wo er es doch gewesen wäre, der immer wieder die Beibehaltung der außerordentlich ausführlichen Ausarbeitungen der Ungewissheiten in den Abschnitten 8.2 und 8.3 verteidigt hätte – Ausarbeitungen, die die skeptische Schlussfolgerung zeigten und rechtfertigten. Eine frühzeitige Entfernung dieser Abschnitte (vor allem vor Asheville) hätte es sehr erleichtert, die vielen verschiedenen skeptischen Urteile bei der nachfolgenden Darstellung der Beweise zu entfernen, und die skeptische Schlussfolgerung im Ganzen. Dass sie beibehalten worden wäre, worauf Santer bestand, hätte nach dem vollen Erfolg des Drucks in Madrid doch bedeutet, dass er [Santer] hinterher mit der mühevollen Aufgabe belastet gewesen wäre, alle Ungewissheiten als Vorbehalte gegen die positive Schlussfolgerung umzuschreiben und die skeptische Zusammenfassung zu ersetzen. Und seine Belohnung für all das? Er würde ‚herausgepickt‘.

Vielleicht lag es mit an Santers Widerstand, dass die Version des Kapitels, die an die Delegationen wie gefordert sechs Wochen vor Madrid (9. Oktober 1995) verteilt worden war, inkonsistent mit seiner eigenen Einführung und mit der ‚Summary for Policymakers’ in diesem äußerst strittigen Punkt war. Obwohl die Kapitel zu diesem Zeitpunkt in der Endfassung hätten vorliegen sollen, wurde die Inkonsistenz in den Kommentaren der US-Regierung angemerkt, die ‚Summary’ aber für richtig und schlüssig erklärt. Daher forderten die USA (und deren Verbündete) diese Inkonsistenz in Madrid aufzulösen.

Die Saudis (und deren Verbündete) aber wollten das Ganze auf den ursprünglichen Skeptizismus zurückdrehen. Die Saudis wollten die schwache und unklare Formulierung ‚deutet auf … hin‘ in der neuen Einführung belassen, und die ‚Concluding Summary’ würde in die ‚Summary for Policymakers’ eingehen, die jetzt abzustimmen war.

Die USA dagegen wollten inhaltliche Änderungen an vielen Stellen und in jedem Abschnitt des Kapitels. Am Schwierigsten würde es werden, den Skeptizismus zu beseitigen, der sich wie ein roter Faden durch die gesamten Schlussfolgerungen zog.

Keine Allianz zur Verteidigung der letzten Bastion der Wissenschaftlichkeit

Und damit sind wir wieder beim letzten Vormittag in Madrid, an dem Santer den neuen, stärkeren D&A-Entwurf präsentierte, als Al-Sabban aufstand und vorschlug, zur [ursprünglichen] Schlussfolgerung des Kapitels zurückzukehren, worauf Santer aus der Haut gefahren war.

Al-Sabban war persönlich zur Gruppe bei der Überarbeitung des Entwurfes eingeladen gewesen. Warum hat er nicht teilgenommen hätte, wenn dies für ihn so wichtig wäre? fragte Santer. Nach einem weiteren erbitterten Wortgefecht bat Al-Sabban um eine Entscheidung des Vorsitzenden.

Houghton stellte sich fest hinter den Leitautor des Kapitels und gab sein Einverständnis, dass dieses supranationale Plenum die Kompetenz hätte, den Beurteilungs- und Begutachtungsprozess zu übersteuern, wenn die Leitautoren zustimmten. Unter den außergewöhnlichen Umständen neuer Beweise müssten die Schlussfolgerungen der ‘Summary for Policymakers’ nicht mehr von den unterliegenden Kapiteln abgeleitet werden. Der ebenfalls anwesende damalige IPCC-Vorsitzende Bert Bolin [auch IPCC-Gründungsmitglied] segnete Houghtons Vorgehen ab. Al-Sabban formulierte dann einen Protest: Grundregeln die zuvor gegen seine Vorschläge angewandt worden wären, schienen nun geändert worden zu sein.

Nun bewegten sich die amerikanische, die englische und die kanadische Delegation sehr rasch und machten klar, dass sie weder die alten Schlussfolgerungen des Kapitels 8 akzeptieren würden, noch wollten sie auf den Text der von den Wissenschaftlern in Ashville vorbereiteten ‚Summary‘ zurückfallen. Tatsächlich hatten die Amerikaner, Engländer und Kanadier in der Arbeitsgruppe eine noch stärkere Position bezogen, als im nun abgestimmten Endkompromiß. Als dieser Kompromiß erneut gefährdert war, drängten sie in der Plenarsitzung auf einen noch deutlicheren Text.

Jeder Teilnehmer wußte genau, dass viel auf dem Spiel stand, und daher ging der Kampf an diesem letzten Morgen erst richtig los. Die Kanadier meinten, die neuen Beweise vom „Fingerabdruck“ wären einfach „überwältigend“. Der kenianische Delegierte, zuvor auf der Seite von Al-Sabban, beteiligte sich an der Diskussion und wurde auf die andere Seite gezogen. Der Druck kippte das gesamte Auditorium. Der scheinbar einzig verbliebene Widerständler war der mit entnervender Höflichkeit auf einen Konsens drängende Dr. Mohammed Al-Sabban.

Ungeachtet dessen, was Sie vielleicht gehört haben, war er nicht der Einzige. Nur Wenigen ist bekannt, dass es noch einen anderen Delegierten gab, der sich wehrte. Es war der Leiter der australischen Delegation, John Zillman.

Rolle des australischen Delegationsleiters John Zillman

Zillman, Leiter des Australischen Wetterdienstes seit 1978, war zusammen mit Bolin und Houghton bei den internationalen Verhandlungen von Anfang an dabei. Er war dabei, als die Vorstellung vom politisch-wissenschaftlichen Beinflussungsapparat erfunden wurde. Er bemerkte den sich entwickelnden Alarmismus seit der Konferenz in Villach (1985), der auch von Hansen (1988) und in großem Ausmaß in den späten 1980er Jahren verbreitet wurde.
Er machte sich immer mehr wegen der Integrität der Wissenschaft Sorgen und wegen der Bereitschaft von Regierungen (besonders der USA), denjenigen Wissenschaftlern zu vertrauen, die mit extremen Meinungen unangemessene Aufmerksamkeit fanden.
Er wünschte sich eine regierungsamtliche nüchterne wissenschaftlich fundierte Einschätzung, und er glaubte, dass dies im IPCC-Verfahren gesichert wäre.

An diesem letzten Tag in Madrid allerdings muss man fragen, ob Zillmann der einzige Klimawissenschaftler im Auditorium war, der das sich abzeichnende Gespenst eines Faustischen Pakts wahrnahm?  Houghtons Entscheidung bedeutete, dass die Integrität des wissenschaftlichen Verfahrens aufgegeben würde und nur noch dazu benutzt würde, mit schwer erkämpfter Glaubwürdigkeit politische Ziele durchzusetzen – wie ehrenhaft solche Ziele auch sein mochten. Wenn es Andere gegeben hat, die darüber alarmiert waren, wie die Einwände der Saudis behandelt wurden, dann haben sie geschwiegen, keine weitere Stimme erhob sich.

Am Ende war Australien im Zustimmungsverfahren mit der Überarbeitung einverstanden, aber erst nachdem zwei Einwände protokolliert worden waren. Im ersten ging es darum, wie die Integrität im wissenschaftlich-politischen Verfahren zu wahren wäre:

Wir sind über die Entscheidung des Vorsitzenden überrascht wie auch von Dr. Santers Vorschlag, dass das betreffende Kapitel nicht als beste Quelle für die gegenwärtige wissenschaftliche Erkenntnis dienen soll.

Australiens Einspruch unterstützte nicht nur das IPCC-Verfahren, es unterstützte auch die wissenschaftliche Urteilsfähigkeit des IPCC: Australien bezog eine Position zur Unterstützung einer wissenschaftlichen Erkenntnis, die durch eine Regelverletzung gekippt werden sollte.

Australiens Verteidigung der wissenschaftlichen Urteilsfähigkeit des IPCC war in der D&A Arbeitsgruppe bekannt. Denn dort saß ein australischer Delegierter (Als Zillman 2012 befragt wurde, konnte er sich nicht erinnern, dies selbst gewesen zu sein, aber der Bericht der Delegation bestätigt es). Gegen den Druck seiner englischsprachigen Verbündeten, drückte Australien seine Bedenken aus, dass …

…die Erwärmung dieses Jahrhunderts immer noch etwa von gleicher Größenordnung ist (in anderen Abschnitten des Berichts wird sie auch möglicherweise geringer genannt) wie die natürliche Variabilität, die sich in den Beobachtungen der vergangenen 600 Jahre zeigt.

Das heißt, Australien blieb bei seinen Bedenken wegen der Aussage, wir hätten den Maßstab der natürlichen Variabilität verlassen, trotz aller jüngster Belege mit “Fingerabdrücken”, die gerade in Madrid vorgestellt wurden.
Und da sind wir wieder bei all den gleichen Bedenken, die immer wieder in der langen Geschichte der Zweifel an der anthropogenen Verursachung geäußert worden sind, zurück bis zu Wigley im ersten IPCC-Zustandsbericht, sogar zurück bis 1938, als Callendar zum ersten Mal die Möglichkeit einer menschliche Verursachung der wissenschaftlichen Aufmerksamkeit empfahl. Entgegen dem unveröffentlichten Papier von Barnett et al. mit der Aussage, dass wir noch nicht wüßten, was die natürliche Variabilität sei, sagte Australien in Madrid, dass überall da, wo natürliche Variabilität bekannt geworden wäre, die neuen Belege nicht zeigten, dass wir darüber hinaus wären.

Australien Unterstützung für die Wissenschaftlichkeit im IPCC-Zustandsbericht wurde in zweites Mal deutlich, nachdem Santer den neuen D&A-Entwurf präsentiert hatte, nach Al-Sabbens Widerspruch, und nachdem sich der Vorsitzende und die anderen anglophonen Delegationen hinter Santer gestellt hatten. Und so kann man fragen, warum Australien einen Protest in der Plenarsitzung einbrachte, wo man doch meinte, die Mitgliedern der Arbeitsgruppe stünden einstimmig hinter dem Entwurf.
Der Bericht der australischen Delegation erklärt, dass es am Ende der Schlusssitzung zu einer Übereinstimmung kam, dass Santer den neuen Entwurf wirklich schreiben sollte und darin die Zweifel an der Behauptung von der menschlichen Verursachung Eingang finden sollten.

Am folgenden Morgen aber, als Zillman den im Plenum herumgezeigten Entwurf las, waren die Zweifel derart in einer Ungewissheitsaussage verpackt, dass die Behauptung von der menschlichen Verursachung aufrechterhalten werden konnte.

Santer erklärte bei der Vorstellung des Textes im Plenum, dass er versucht hätte, auf Australiens Einwände einzugehen – aber das war kaum feststellbar. Zillman meinte, man hätte Australiens Bedenken “übergangen” (avoided), und er sagte das auch. In der folgenden Diskussion benutzte Santer selbst den Ausdruck „weggeschoben“ (sidestepped).
[siehe hierzu Nachtrag A am Schluss]

Dies, lieber Leser, beachten Sie bitte: dieses kleine “Wegschieben" der Null-Hypothese von der natürlichen Variabilität war die kleine Ursache mit großer Wirkung, es war wie ein Schneeball, der vom Fujiyama als Gipfel der höchsten wissenschaftlichen Glaubwürdigkeit geworfen, immer schneller und größer werdend als Lawine in Kyoto ankam.

Australische Opposition gegen die USA ist auf der Weltbühne unbekannt. Dennoch veranstaltete Zillman hier so etwas. Er würde das niemals so sehen, andere aber sehr wohl. Und in der Tat, während die Global Climate Coalition schwer arbeitete, um die Saudis zu unterstützen, fand auch Greenpeace Mittel zur Überzeugung. Als man sah, dass Zillman sich entgegen dem Bemühen der „guten“ nordamerikanischen Alliierten Australiens auf die Seite der Araber schlug, fragte einer der Greenpeace-Delegierten Zillman öffentlich:

Was meinen Sie, wird der australische Umwelminister denken, wenn er davon hört?

In Madrid, und noch mehr zwei Wochen später in Rom wurde die Lobby-Tätigkeit der NGO’en auf nie dagewesene und außergewöhnliche Art derart verstärkt, dass man eher an eine Straßen-Demonstration erinnert wurde als an eine Konferenz. Es gab Veröffentlichungen, Flugblätter, Plakate. Und da waren feine und weniger feine Techniken: so z. B. die Umzingelung eines abreisenden Delegierten unter dem Sprechchor: „Klimaverbrecher!“. Zillman sah schockiert und enttäuscht, wie diese Konferenz in ein chaotisches Spektakel degenerierte. Er schüttelt immer noch den Kopf darüber. Wenn man ihn aber mit den Worten konfrontiert: „So geht es doch in der Politik zu, oder?“, wird es interessant.

Man könnte erwarten, dass Zillman in seiner Rolle als Leiter der australischen Regierungsdelegation – nicht als Wissenschaftler, nicht als Leitautor, sondern als Regierungsvertreter – die Position der australischen Regierung hätte vertreten müssen. Vielleicht haben andere das so gesehen. Zillman aber hält daran fest, dass dies niemals seine Aufgabe gewesen wäre. Und er hätte das auch nie akzeptiert. Vielleicht wäre es die Aufgabe des australischen Treibhausgas-Büros gewesen, einer Dienststelle des Umweltministeriums, nach eigener Beschreibung ‘die führende australische Regierungsbehörde in Treibhausgasfragen’. Das Treibhausgas-Büro hielt sich überhaupt nicht zurück und wollte Zillman zu einem eifrigen Verfechter der Treibhausgas-Position machen. Zillman wehrte ab, weil er immer im Vertrauen auf seinen Minister glaubte, dass die Aufgabe der australischen Delegation darin bestanden hätte, sicherzustellen, dass die IPCC-Zustandsberichte sich auf wahre wissenschaftliche Erkenntnis stützten.

Er hielt seinem Minister die Stange, indem er ihn vollständig über den Stand der Wissenschaft und der Verhandlungen informierte – so setzte er sich erschöpft am Ende jener letzten Nacht im Hotel hin und verfasste einen vorläufigen Bericht, den er in den australischen Nachmittag faxte, bevor er sich schlafen legte. Nur um sicher zu gehen, dass der Minister eine genaue Darstellung des Dramas hätte, für den Fall, dass die Presse ihn hetzen würde etwas zu den skandalisierenden Gerüchten zu sagen, über die dann in den Abendnachrichten berichtet werden würde.

Lizenz der amerikanischen Regierung zum Ändern des Berichts

Dass Santer und Houghton ihre Rolle anders sahen als Zillman, wird am besten durch Bemerkungen illustriert, als der Skandal wegen der amerikanischen Regierungsforderung [zur nachträglichen Änderung des Berichts] ausbrach. Am 15. November hatte Houghton die zusammengestellten Kommentare zur “Summary for Policymakers – (SPM)“ vom US-Außenministerium von Tim Wirth erhalten. In den Kommentaren zum D&A-Abschnitt der ‚Executive Summary’ (darin auch die nur schwach belegten Behauptungen von Hinweisen auf einen erkennbaren menschlichen Einfluss) schreibt Robert Watson:

Dieser Text ist nicht völlig konsistent mit dem übrigen SPM und vielen Teilen des Kapitels 8; weil dies ein völlig neuer und wichtiger Aspekt des Berichts ist, halten wir besondere Sorgfalt für nötig. Wir meinen, dass der vorliegende Text mit einigen Klarstellungen das gegenwärtige Verständnis wiedergibt, wie es das Kapitel enthält, aber dass die „Executive Summary“ und die Schlussabschnitte des Kapitels revidiert werden sollten. [fett von B.L. zugefügt]

Die Forderung zur Überarbeitung des Kapitels wird im Anschreiben betont, das direkt an Houghton gerichtet war. Nach dem Hinweis auf viele Inkonsistenzen zwischen der “Summary” und den Inhalten der Kapitel ist zu lesen, dass ‘es wichtig ist, die Kapitel nicht vor dem Abschluss der Madrider Konferenz abzuschließen’. Das US-Außenministerium verlangt, “dass die Autoren der Kapitel zu überreden seien, ihre Texte entsprechend und im Einklang mit den Diskussionen in Madrid zu modifizieren.” Wenn auch nicht ausdrücklich gesagt, so ist das ein deutlicher Hinweis an Houghton, Santer anzuweisen, das Kapitel 8 zu revidieren, besonders die Schlusszusammenfassung. So jedenfalls scheint es Houghtons Verständnis gewesen zu sein.

Um einem Missverständnis vorzubeugen: es geht hier nicht um eine Regierung, die beim Mißbrauch eines diplomatischen Verfahrens erwischt wurde. Das haben wir alles schon gehabt und es ist weder überraschend noch etwas Besonderes. Was bezeichnend für Santer und Houghton ist, dass sie diese Forderung als Hauptfaktor anführen in ihrer Rechtfertigung für die nach Madrid durchgeführten Änderungen des Kapitel 8. [1] Auf dem Gipfel der Kontroverse, im August 1996, benutzte Houghton in einem Brief an Nature mit dem treffenden Titel ‘Rechtfertigung für Kapitel 8’ die ‘Überredung’ der Kapitel-Autoren, um seine Taten zu rechtfertigen.
Auch Santer wird erwähnt, der sich in einem früheren Artikel in Nature darauf berief. Die erste Erwähnung der Forderung findet sich bereits in einer weitverbreiteten Email, gerichtet an ‘alle Leitautoren des IPCC-Zustandsberichts und alle Mitarbeiter am Kapitel 8’. Diese Email war am gleichen Tag abgeschickt worden, an dem die Kontroverse durch einem Brief von Fred Seitz an das Wall Street Journal an die Öffentlichkeit gebracht worden war.

Santer zufolge bestand die Forderung darin:

‘dass die Kapitelautoren überredet werden sollten, ihre Texte zu modifizieren’,
und dass die “Forderung auf Änderung betont werden sollte.”
Er fuhr fort:
Die offizielle Sicht der Vereinigten Staaten war ganz klar, dass die Kapitel nicht vor Madrid abgeschlossen werden sollten. [email 12 June 1996]

Was fangen wir nun mit all dem an?

Warum machen wir Aufhebens wegen eines politischen Drucks zur Veränderung einer vorgeblich wissenschaftlichen Beurteilung? Und wenn wir uns gegen politische Einflußnahmen wehren, warum benutzen wir dabei eine politische Quelle?

Houghton wie Santer benutzte das Argument von der [politischen] Forderung in ihrer Verteidigung gegen die Behauptungen der Skeptiker:
Dass es in Madrid nicht um die Kapitel selbst gegangen wäre, sondern nur um deren wahrheitsgemäße und genaue Zusammenfassung.

Und weiter in ihrer Abwehr der Zweifler, gegen deren Forderungen,
dass Redaktionsschluss für Kommentare zu den Kapiteln ganz klar zu Anfang des Monats Juli gewesen wäre, d. h. vor der Schlusskonferenz der Leitautoren in Asheville,
und dass Politiker nicht Antreiber der Wissenschaft sein dürften.

Und wir sollten uns erinnern, dass diese Verteidigungsline nicht von irgendwelchen Delegierten sondern vom Koordinierenden Leitautor des Kapitels stammt, und weiter von dem Wissenschaftler, der die gesamte wissenschaftliche Beurteilung koordinierte.

Beim Versuch, zu verstehen, warum die offizielle Sicht der USA bei Santers Verteidigung Bedeutung hat, können einige politische Realitäten nicht vernachlässigt werden, wie z. B. die US-Beherrschung der globalen Politik, die Unterstützung der neuen Clinton-Regierung für einen Klimaschutzvertrag und die vitale Rolle, die die USA bei den Vertragsverhandlungen spielte. Kaum zu übersehen ist auch die Tatsache, dass Santer Angestellter der US-Regierung war, und dass viele andere Leitautoren und Beitragende Autoren von den reichlich fließenden Mitteln in die Klimaforschung abhängig waren, die aus den Budgets der USA und den mit ihnen verbundenen Ländern stammten (UK, Kanada), die auf eine positive und konstistente Bestätigung der [anthropogenen] Verursachung aus waren.

Ob eine solche Sicht von den USA im Auditorium in Madrid ausgesprochen wurde oder nicht (wir müssen erst noch eine schriftliche Bestätigung finden): nur unter Einbezug dieser Überlegungen können wir verstehen, warum das [Politische] in Santers Verteidigung eine Rolle spielte, besonders da Saudi Arabien und Australien deutlich andere Ansichten zu Gehör gebracht hatten.

Und wurde diese Rechtfertigung niedergeschrieen? Gab es auch nur einen Vorschlag, dass wir uns auf die Ebene des Feindes hinab begeben hätten? Nicht wahrscheinlich. Unwahrscheinlich auch, dass auch nur irgend einer den hohlen Klang in der spitzen ad hominem-Attacke bemerkt hätte, die darauf abzielte, jeglicher Berechtigung für Proteste den Boden zu entziehen. Keine Stimme im wissenschaftlichen Establishment erhob sich, nicht in der Global Climate Coalition, auch nicht im Buch: Merchants of Doubt, und nicht einmal vom Regierungsdelegierten Zillman.

Stattdessen erhoben sich Stimmen zur Unterstützung dieser Verteidigung, und daher wurden Santers und Houghtons Taten am letzten Tag von Madrid von der wissenschaftlichen Gemeinde gerechtfertigt als ausdrücklich veranlaßt von (guten) politischen Interessen.

Ein chaotischer Sieg des Guten

Noch war es nicht vorbei. Trotz des Protestes der Australier und der Saudis sollte der neue Entwurf des D&A-Abschnittes diskutiert werden, Zeile für Zeile, Wort für Wort, und diese Debatte erstreckte sich über den ganzen Nachmittag bis in den Abend hinein. Wieder war es der Beitrag aus den neuen Fingerabdruck-Studien zur Behauptung der Verursachung, gegen den am meisten opponiert wurde.

Der neu zu besprechende Entwurf des D&A-Abschnitts zählte drei Schlüsselgebiete auf, wo jüngste Forschungsergebnisse zur Verursachung beitrugen.

Das erste Schlüsselgebiet war, dass Stellvertreter-Daten nahe legten, dass das 20. Jh. das wärmste von den vergangenen sechs gewesen wäre.

Das zweite war der Nachweis über die statistische Signifikanz des Erwärmungstrends der globalen Durchschnittstemperatur, der darauf hinweist, dass er nur natürliche Ursachen hätte. Dieser Nachweis ist bekanntermaßen schwach und wird für ungeeignet gehalten, um die Behauptung eines positiven menschlichen Beitrags zu begründen. Und als ob dies noch betont werden müsste, wurde

das dritte und finale Gebiet, das Gebiet der CO2+ Sulfat Fingerabdruck–Studien eingeleitet mit den Worten von einem „stärker überzeugenden Nachweis“: Es liest sich so:
Ein stärker überzeugender Nachweis für die Zuschreibung eines menschlichen Effektes auf das Klima kommt von den pattern-basierten Studien…

Die Studien zeigten “eine Zunahme der Muster-Übereinstimmungen über der Zeit,” wie bei zunehmenden Emissionen zu erwarten ist, wobei die ‘Wahrscheinlichkeit sehr gering ist, dass diese Übereinstimmungen zufällig zustande kämen als Ergebnis einer natürlichen Variabilität.’

Wie schon dargelegt, läßt der Ausschluss des ‘Zufalls’ oder ‘gelegentlich vorkommender’ Variabilität implizit die Möglichkeit offen für die Jahrhunderte alten Standard-Kandidaten für einen natürlichen externen Antrieb.

Vielleicht ging es darum, Bedenken wegen des natürlichen Antriebs zu zerstreuen, wenn der folgende Satz einen merkwürdigen Bezug zu den ‘vertikalen’ Muster-Studien herstellt als ‘inkonsistent mit den möglichen Effekten bekannter solarer und vulkanischer Antriebe.’[2] Das ist merkwürdig, weil der Ausschluss derartiger natürlicher externer Antriebe keine besondere Behauptung in keiner dieser Studien war, noch wird eine solche Schlussfolgerung im Kapitel selbst gezogen. Stattdessen erwähnt das Kapitel nur, dass ’erste anfängliche’ Studien erschienen wären, die ‘verschiedene nicht-anthropoge Antriebsmechanismen auszuschließen versuchten. ’ (p416)

Wie dem auch sei, der Wahrheit halber muss gesagt werden, dass das Hauptproblem mit dem Kapitel ist, dass es diese Nachweise nicht als  ‘stärker  überzeugend’ sondern als ‘vorläufig’ benennt:

Obschon diese Studien große Vorbehalte enthalten, enthalten sie vorläufige Belege für das Bestehen eines anthropogenen Effektes auf das Klima’. [SAR Draft, 9Oct95, 8.4]

Schließlich, nach Madrid, um den Widerspruch zwischen dem Kapitelinhalt und der Zusammenfassung abzumildern, änderte Santer das Kapitel von ‘vorläufig’ auf ‘anfänglich’ (p416b). Aber es ist interessant, anzumerken, dass der Dritte Zustandsbericht (TAR) bei der Besprechung der Ergebnisse des Zweiten Auswertungsberichts (Second Assessment Report) feststellte, dass die “Muster-Studien (pattern studies) noch in frühem Zustand seien. (‘still in their infancy’ [TAR 701]) Das ist interessant im Zusammenhang mit dem Barnett et al.  Papier, mit der zusammenfassenden Beurteilung und mit den australischen Bedenken.

Unter Betrachtung all dessen ist es schwer, nicht davon überzeugt zu sein, dass auf die Position von Saudi Arabien und Kuwait hätte eingegangen werden müssen – besonders dass die ‚Summary‘ den Aussagen im Kapitel hätte folgen sollen mit der Aussage, dass die Anzeichen als „vorläufig“ zu betrachten seien. Natürlich wäre es schwieriger gewesen, die Behauptung von der [anthropogenen] Verursachung aufzustellen, wenn das Wörtchen “überzeugend” entfallen wäre. Deshalb geriet die Konferenz erneut in eine Blockade.

Houghton:

Eine anderthalbe Stunde lang debattierte die Versammlung über die Angemessenheit von “vorläufig” anstelle von “überzeugend”. Alle Delegierten, die sprachen, argumentierten, dass die Anzeichen im Kapitel 8 die Bezeichnung „vorläufig“ nicht rechtfertigten und schließlich wurde ein Satz formuliert, der so begann: “Überzeugendere jüngste Anzeichen …”

Tatsächlich wurde die Blockade aufgelöst mit der Vereinbarung einer außergewöhnlichen Maßnahme, die anzeigen sollte, dass es keinen Konsens gab, dies aber nicht ohne einen bitteren Nachgeschmack und einen „scharfen Wortwechsel“.
Man beschloss die Einfügung einer Fußnote, die die abweichende arabische Meinung erläutern sollte.[3]

Danach konnte die Diskussion fortgesetzt werden und man befasste sich mit der schlussendlichen Behauptung unter dem Strich von der Verursachung:

Trotzdem weist die Abwägung aller Anzeichen nun darauf hin, dass das Weltklimasystem durch menschliche Tätigkeiten beeinflusst wird. [4]

Dieselbe Behauptung wurde eingedampft im beabsichtigten Titel des D&A-Abschnitts:

Die Abwägung der Anzeichen deutet auf menschlichen Einfluss

Jetzt war der Abend des letzten Tages gekommen. So wie es mit dem Abstimmungsverfahren weiterging, verschob sich der geplante Schlusstermin der Versammlung schrecklicherweise immer weiter von 18 Uhr nach hinten. Vieles aus der ‚Executive Summary’ musste noch abgestimmt werden, bevor der Haupttext der ‚Summary for Policymakers’ diskutiert werden konnte. Darüber hinaus musste an diesem Abend auch noch der zugrundeliegende Bericht von der Konferenz abgesegnet werden.

Inzwischen verließen die ersten Delegierten die Konferenz, um ihre Heimflüge zu erreichen, während sich der Kampf über den D&A-Abschnitt immer mehr hinzog. Deswegen kamen Forderungen, die Konferenz zu schließen: Mehrmals gerieten die Saudis an einen Punkt, wo die Konferenz platzen konnte wegen dem Nichtzustandekommen einer Mehrheitsmeinung [ausDelpRpt11]. Da das gemeinsame Treffen mit dem IPCC in Rom nach nur zwei Wochen stattfinden sollte, gab es keine realistische Möglichkeit, eine Plenarsitzung der Working Group 1 erneut einzuberufen. Der Kampf um die anthropogene Verursachung brachte die Konferenz an den Rand des kompletten Scheiterns und damit wäre eine Zustimmung zur ‚Summary for Policymakers’ auf den Sankt Nimmerleinstag verschoben worden. Und immer noch kam das allein wichtige Gesamturteil von der Verursachung nicht über die Ziellinie. Der AustDelReport beschreibt, wie es zuging:

Die meisten Delegationen unterstützten die Annahme des vorgeschlagenen Textes mit dem Wunsch auf eine noch stärkere Aussage (insbesondere die USA, UK und Kanada. Dr. Watson [Leiter der US Delegation] wollte eine Aussage des Inhalts, dass das ‘Überwiegen’ oder ‘Gewicht’ (anstelle von ‚Abwägung’) der Beweise ‘anzeige’ (anstelle von ‘legt nahe’ oder ‘verweist auf’), dass es einen menschlichen Einfluss auf das Weltklima gäbe. Dr. Stone von Kanada meinte, dass die Beweise ‘überwältigend’ wären. Eine andere von Saudi Arabien angeführte Gruppe (mit informeller Unterstützung von amerikanischen Industrie-NGO’en) versuchte die Aussage abzuschwächen und die Ungewissheiten stärker zu betonen, die bei der Zuschreibung auf den Menschen bei den beobachteten Veränderungen obwalteten.

Schließlich wurde Übereinstimmung für folgenden Text erzielt:

 “(Nichtsdestoweniger) legt die Abwägung der Beweise (nun) nahe, dass ein wahrnehmbarer  
   menschlicher Einfluss auf das Klima existiert.”

Mit dieser schwachen Verursachungs-Behauptung in trockenen Tüchern konnte sich die Konferenz nun mit dem folgenden Abschnitt der ‚Executive Summary’ befassen. Die Lage blieb prekär, denn die Gefahr des Scheiterns bei der Abstimmung der vollständigen Überarbeitung und Annahme der ‚Summary’ bestand weiter. Jetzt war es 21 Uhr, die Anwesenheit dünnte aus, der Großteil der ‚Summary for Policymakers’ noch nicht durchgesprochen. Es entstand eine Pause mit einer Diskussion, wie es weitergehen sollte. Die Lage schien hoffnungslos, bis es einen Durchbruch gab:

Man beschloss, die ‚Executive Summary’ als ‚Summary for Policymakers’ umzudeklarieren und nannte die übrige Summary nun eine ‘Technical Summary’. Als ‘Technical Summary’ würde ihr Text nur noch der Annahme durch das Plenum bedürfen (wie bei den Kapiteln) und keiner Zeile-für-Zeile-Durchsprache. Dafür war keine Zeit mehr.

Dieses Vorgehen wurde akzeptiert und die Konferenz schritt voran mit der Annahme des übrigen Textes der ‚Executive Summary’. Das ging jetzt in einem Schritt und mit nur wenig oder gar keiner Diskussion. Die Frage der Verursachung hatte die gesamte Konferenz über die Maßen beherrscht, aber sie wollte und wollte nicht verschwinden. Es gab Geraune im Auditorium und eine neue Krise entstand. Es stellt sich heraus, dass die endgültige Behauptung von der [anthropogenen] Verursachung doch noch nicht in trockenen Tüchern war.

Beide Seiten der Debattierer waren unzufrieden. Der australische Bericht fährt fort:

Unglücklicherweise hat der Vorsitzende beim Herstellen des Konsenses die in Klammern gesetzten Worte nicht laut vorgelesen (was als gegeben aus dem früheren Text anzusehen war) und einige Delegationen machten bald klar, dass der vom Vorsitzenden für abgestimmt erklärte Text nicht der war, dem sie zugestimmt hätten. Die Unzufriedenheit verstärkte sich auch wegen des Begriffes ‘erkennbar’ (appreciable), der von einem der Leitautoren vorgeschlagen worden war (Trenberth) und von der US-Delegation stark unterstützt wurde.

Augenscheinlich waren die ‘Bullen’ mit der Einbringung der in Klammern gesetzten Worte unzufrieden, und den ‘Bären’ war ‘erkennbar’ zu stark. Bert Bolin [IPCC-Vorsitzender] ging auf der Suche nach einer Lösung im Saal herum und besprach sich mit verschiedenen Delegationen. Schließlich unterbrach er um 22:30 Uhr die Sitzung und ‘übernahm die Versammlungsleitung’ indem er erklärte …

… er hätte entschieden, den abgestimmten Text als außergewöhnliche Maßnahme zu überschreiben wegen der äußersten Wichtigkeit der Formulierung zum Zwecke der Interpretation der IPCC-Erkenntnisse. Er sagte, er wünsche ausdrücklich eine Diskussion darüber, aber er meine, die Versammlung würde folgende Aussage unter dem Strich zum Thema „Aufdeckung und Verursachung“ (D&A) akzeptieren:

‘Nichtsdestoweniger verweist die Abwägung der Beweise auf einen abgrenzbaren menschlichen Einfluss auf das globale Klima.’

[Anm. d. Ü: Im Originaltext SAR, Chapter 8, Summary for Policymakers, p. 5: Nevertheless, the balance of evidence suggests that there is a discernible human influence on global climate.

In der offiziellen deutschen Übersetzung: http://www.bmu.de/klimaschutz/internationale_klimapolitik/un-klimakonferenzen/doc/36721.php
"Die Abwägung der Erkenntnisse legt einen erkennbaren menschlichen Einfluss auf das globale Klima nahe".]

Dieser Sprachregelung widersprach niemand aus dem Plenum. Auf diese Weise ist diese bekannte Zeile entstanden. Für Zillman bedeutete es ein weiteres Zugeben des Scheiterns eines Konsenses. Er erinnert sich, dass er überrascht war und auch enttäuscht über die rüde Art, wie Bolin eine Angelegenheit von nicht unerheblicher Bedeutung für das gesamte Verfahren der Beurteilung handhabte.

Dann ging es rasch auf Mitternacht zu. Die Dolmetscher und das Konferenzzentrums-Management konnten die Konferenz nur noch bis zu diesem Zeitpunkt am Laufen halten. Das Gebäude musste kurz darauf verlassen werden. Jetzt war es nur noch wie bei einem Endspurt. Die ‘Executive Summary’-Zustimmung wurde eilig während der letzten Stunde draufgepackt, während die Delegationen schon einräumten und gingen. Es fehlte nur noch die Zustimmung zu den darunter liegenden Kapiteln. Das wäre nicht weiter schlimm gewesen, wenn es nicht die nun noch mehr hervorstechende Inkonsistenz zwischen dem Kapitel 8 und dem neuen D&A–Abschnitt der Summary gegeben hätte. Den verschiedenen Rechtfertigungen von Santer und Houghton zufolge akzeptierte die Konferenz nach ihrem Fast-Zusammenbruch tatsächlich, dass der Leitautor im Sinne der abgestimmten Position das Kapitel 8 revidieren sollte. Hier zum Beispiel ist, was Houghton in Nature im nachfolgenden August in einer ’Justification of Chapter 8’ sagte:

Das Plenum ‘akzeptierte’ schließlich die Entwürfe der Kapitel (einschließlich Kapitel 8), wie sie von den Leitautoren umzuschreiben wären, unter Berücksichtigung der von der Versammlung gegebenen Leitlinien und besonders hinsichtlich der Notwendigkeit einer Gesamtkonsistenz.

Wie explizit diese Akzeptanz, und wie speziell diese Leitlinien waren, kann kaum festgestellt werden. Dokumentation aus der Versammlung und alle Berichte von der Zeit vor dem Ausbruch der Kontroverse wären hilfreich, darauf warten wir noch. Jedenfalls war zu diesem Zeitpunkt die Versammlung allen Berichten zufolge zu einer Farce degeneriert, und vielleicht ist unerheblich, was gesagt oder verschwiegen wurde, was abgestimmt wurde und was nicht.

Der australische Delegationsbericht wurde vor der zwei Wochen später folgenden IPCC-Konferenz in Rom vervollständigt und stand zur Verfügung. (Zillman erinnert sich, dass er den Entwurf auf dem Rückflug anfertigte). Er gibt eine kurze Darstellung. Daraus ist zu entnehmen, dass trotz der nötigen Änderungen am Kapitel 8 sowohl die Ermächtigung dazu wie auch das Verfahren alles andere als klar waren:

In den Schlussminuten der Versammlung bat Sir John Houghton um eine formelle Akzeptanz des vollständigen Textes des zugrunde liegenden Berichts. Dem wurde zugestimmt, obgleich unklar war, welche [inhaltliche] Befugnis für die Revision der Kapitel den Leitautoren gegeben wurde.

In der Tat, wir haben früher gesehen, dass Santer und Houghton meinten, die Erlaubnis wäre bereits vom US-Außenministerium eingegangen gewesen. Änderungen waren gewünscht und wurden gemacht.

Im Jahre 2008, als die Kontroverse völlig verstummt war und zumeist vergessen, belebte Houghton das Thema Madrid 1995 wieder mit einer kurzen Erinnerungsnotiz in Nature. Bedauern ist nicht zu erkennen, stattdessen aber kein geringer Stolz über seine Rolle und seinen Erfolg auf einer Konferenz, die die Welt veränderte. Ohne diesen Erfolg hätte es kein Kyoto gegeben. Es wäre eine schwere Aufgabe gewesen, aber die Aufgabe wäre gut gelöst worden.

Vielleicht [zum Ende des langen Artikels] ein Epilog….

Über Santer, der schnurstracks ins Hauptquartier der Arbeitsgruppe I in England ging, um an den Änderungen zusammen mit Callendar zu arbeiten. Keine Mitarbeit von Houghton aber Billigung der Änderungen, bevor sie dem unsterstützenden Stab vorgelegt wurden. Rasches Herumschicken des neuen Entwurfs der ‚Summary’ an die Delegierten in Rom, damit sie an den Zusammenfassungen der Arbeitsgruppen 1,2,3 arbeiten könnten.
In Rom aber nur der alte Entwurf des Kapitels. Daher Überraschung im Mai, als die Vorab-Version erschien. 

Nachtrag:

(A) Hinsichtlich Zillmans Streitpunkt ist interessant, dass der Arbeitsgruppen-Entwurf während der Debatte im Plenum in diesem Punkt geändert wurde. Die Qualifizierung der Globaltemperatur im 20. Jh. als ‘höher als in jedem anderen Jahrhundert nach 1400’ wurde geändert in ‘mindestens so warm wie.’ Und nach Madrid änderte Santer tatsächlich die darauf bezogene Aussage in der Einführung des Kapitels. Doch das war eher ein Ausweichmanöver als eine Änderung.

Von:

‘Im Ganzen gesehen, zeigen diese Ergebnisse, dass die beobachtete globale Erwärmung während der vergangenen 100 Jahre höher ist als unsere derzeit besten Abschätzungen der natürlichen Klimavariabilität über die vergangenen 600 Jahre.’ [SAR 9Oct95 8.1]

In:

Im Ganzen gesehen, zeigen diese Ergebnisse, dass der beobachtete Trend in der globalen Durchschnittstemperatur während der vergangenen 100 Jahre unwahrscheinlicherweise nur natürlichen Ursprungs ist. [SAR p412b]

————————————

Fußnoten:

1. Santer: Zit. in ‘Sparks Fly Over Climate Report’ von Ehsan Masood, Nature, June 20, 1996; 381, 6584. Man beachte, dass die Formulierung ‘prevailed upon’ [überzeugen zu] weggelassen ist. Vgl. eine früher zirkulierte Email June 12 1996 und Real Climate. Houghton: ‘Justification of Kapitel 8’. Houghton correspondence to Nature Vol 382, 22 August 1996.

2. Man beachte, dass im Plenum einvernehmlich beschlossen worden war, das Attribut ‘possible’ [mögliche] aus der Formulierung possible effects [mögliche Effekte] zu entfernen.

3. Als diese Sache später in Rom zur Sprache gebracht wurde, forderten sie [Santer und Houghton ?], diese Fußnote wegzulassen.

4. Im Entwurf vom 9. Oktober stand: “Taken together, these results point towards a detectable human influence on global climate” [Zusammengenommen deuten diese Ergebnisse auf einen erkennbaren menschlichen Einfluss auf das globale Klima hin]. In den Kommentaren der US-Regierung (15 Nov, von Robert Watson) wird vorgeschlagen, diesen Satz zu ändern in: “Taken together these results indicate a detectable….” [Zusammengenommen zeigen diese Ergebnisse einen erkennbaren….]

——————————–

Die vier Aufsätze von Bernie Lewin werden hier zum Herunterladen angeboten. Zur Reihe gehören alle Titel, die mit Madrid 1995 … beginnen.

———————————

Übersetzung: Chris Frey und Helmut Jäger




Klima? Finde ich gut!




Wie lange wird Europa noch zaudern, bei der Schiefergas-Revolution mitzumachen?

Europäische Länder könnten bald zu Schiefergas-Importeuren aus Russland werden, wenn die grüne Energie-Verhinderer-Lobby ihren Weg erfolgreich fortsetzt. Die Aussicht auf noch größere Abhängigkeit von russischem Gas, zusammen mit einem neuen Ansturm auf die Verbrennung von Kohle, kann die unbeabsichtigte doch unvermeidliche Folge des anhaltenden Widerstandes grüner Aktivisten und politischer Entscheidungsträger gegen heimische europäische Schiefergasförderung sein. So wie der deutsche Ausstieg aus der Kernenergie zu einem Anstieg der Einfuhren in Deutschland von französischer und tschechischer Kernenergie geführt hat, wird Europas Blockade der Schiefergasexploration Russland den perfekten Grund bieten, ihre eigenen Schiefer-Extraktion zu intensivieren.

Während die europäischen Regierungen zaudern, wird der Schiefer-Boom in Russland die Ausbeutung der riesigen Vorkommen beschleunigen. Russische Unternehmen schließen sich der Schiefergas-Revolution an, um den Exportmarkt  des Landes zu sichern, nicht zuletzt auch seine Gasexporte nach Europa. Der Kreml hofft darauf, die vermutlich weltweit reichsten Schieferreserven in Westsibirien durch steuerliche Anreize für internationale Unternehmen interessant zu machen, um in das neuen Energie-Spiel zu investieren.

In scharfem Kontrast zu den Entwicklungen in Russland und einem Großteil des Restes der Welt, stehen dazu Umwelt-Aktivisten und grüne Politiker. Sie blockieren Schiefer-Entwicklungen in den meisten europäischen Ländern. Staaten der Europäischen Union haben kaum die Oberfläche der Schiefergas-Vorkommen angekratzt. Es gibt zwei dutzend Probebohrungen in ganz Europa, im Vergleich zu geschätzten 35.000 Fracking- Standorten in den Vereinigten Staaten. Als Ergebnis hat Europa es versäumt, der Schiefergas-Revolution, die durch die USA gefegt ist, beizutreten. Statt von kostengünstigem Schiefergas zu profitieren, zudem mit weniger CO2-Emissionen, neuen Branchen und hunderten bis  tausenden neuer Arbeitsplätze, beschränkt sich Europa selbst mit auferlegten Grenzen grünen Wachstums.

Weil in den USA das Gas die Kohle in großem Umfang ersetzt, hat die Schiefergas-Revolution dort zu einer dramatischen Reduktion der CO2-Emissionen geführt: Auf das Niveau von 1992.

Laut Regierungsvertretern, ist dafür das billige und reichlich vorhandene Schiefergas der Hauptgrund. Es hat dazu geführt, dass Kraftwerksbetreiber von Kohle auf Erdgas umstellen. Der Schiefergas-Boom hat den Gaspreis von $ 12 pro Einheit, vor etwa fünf Jahren auf weniger als 3 $ abgesenkt. Zudem ist Erdgas viel billiger zu verstromen, als Kohle.

Um die US-Energie-Revolution zu wiederholen, die für den schnellen Rückgang der CO2-Emissionen und den Zusammenbruch der Preise für Erdgas geführt hat, würde Europa von Kohle auf Erdgas umschalten müssen. Doch die Schiefergas-Blockade der grünen Lobby, zusammen mit ihrem Widerstand gegen die Kernenergie verursacht das genaue Gegenteil: Sie hat zu einer Renaissance der Kohle geführt. Deutschlands grüne Energiewende sollte Strom umweltfreundlich produzieren. Wie sich herausstellt, wird die Stromlücke, die durch die Abschaltung von acht Kernkraftwerken erzeugt wurde, weitgehend durch Kohlestrom ausgefüllt werden. Damit wird die Kohle eine neue Renaissance aber nicht nur in Deutschland erleben. Denn tatsächlich werden die CO2-Emissionen in der EU als Ganzes wahrscheinlich auf 43 Millionen Tonnen in diesem Jahr steigen, wegen der vermehrten Verbrennung von Kohle in Kraftwerken – so glauben Barclays Analysten.

Doch mehr als Europas neuen Kohle-Boom, fürchten grüne Energie Aktivisten, dass das Umschalten auf billiges und reichlich vorhandenes Schiefergas, die erneuerbaren Energien und deren Multi-Milliarden-Subventionen bedrohen. Es ist diese ökonomische Sorge, die den Antrieb für die organisierte Opposition gegen die Schiefergas-Entwicklung in Europa liefert und dabei ökologische Gesichtspunkte ausser Acht läßt. "Wir brauchen keine so große Menge Gas und sicherlich nicht billiges Gas, denn das würde nicht nur die Kohle, sondern auch die erneuerbare Energien verdrängen", fürchtet der Greenpeace-Experte für erneuerbare Energien Sven Teske.

Es gibt einige starke Anzeichen dafür, dass die Anti-Schiefergas-Kampagne in Europa an Dynamik verliert, nicht zuletzt in Frankreich, wo das Hydraulic Frakking vor einem Jahr aus parteipolitischen Sorgen verboten wurde. Die neue sozialistische Regierung, vor einer tiefen Wirtschafts- und Finanzkrise stehend, hat achon angekündigt, dass sie erwägt, für Schiefergas-Extraktion grünes Licht zu geben. Jüngst sagte Ministerpräsident Jean-Marc Ayrault, dass die Debatte über Schiefergasbohrungen "nicht erledigt" sei und dass neue und sichere Methoden für Hydraulic Frakking ökologische Bedenken ausräumen könnten. Seine diplomatische Sprache übersetzt Präsident Francois Hollande, der Reportern erzählte, dass er "offen bliebe für die Schiefergas-Extraktion, wenn sie mit einer sicheren und sauberen Technik erzielbar sei". Ich denke, die meisten Beobachter verstehen, dass Frankreich letztendlich im Geschäft bleiben will.

Autor Benny Peiser ist Direktor des Global Warming Policy Foundation, einem in London ansässigen Think-Tank

Zuerst erschienen bei der Global Warming Policy Foundation 




Die „mutierten“ Schmetterlinge von Fukushima!

Gibt es dort tatsächlich Mutationen? Ganz bestimmt, die gibt es überall, bei Menschen, Tieren und Pflanzen. Oder sollte unter dem Bild stehen: „Atomkatastrophe auch in China“?

Die richtige Frage wäre: Gibt es um Fukushima erhöhte Mutationsraten? Nach dem Bericht von Atsuki Hiyama und 6 anderen in der Zeitschrift „Nature“ vom August 2012 über mutierte Schmetterlinge müsste man das annehmen.

Der Bericht sieht wissenschaftlich aus. Was ist aber Naturwissenschaft? Sie erforscht Tatsachen und deren Zusammenhänge. Erstere stellt sie in Form von Zahlen dar, letztere als mathematische Formeln. Damit kommt die Wissenschaft aber nicht aus, sie braucht auch Worte. Da reicht der Wortschatz der Umgangssprache nicht, es mussten Fachausdrücke erfunden werden.

Nun lässt sich mit Zahlen und Fachwörtern beliebiger Unsinn darstellen, und diese Möglichkeit wird in größtem Umfang genutzt. Dadurch wird es aber keine Wissenschaft. Diese ist ein System, in welchem alles zueinander passen muss, Wirkungen zu Ursachen, neue Erkenntnisse zu den etablierten alten. In der Physik begegnet man Namen wie Archimedes, Galilei, Newton, deren Erkenntnisse ewig gültig bleiben, weil sie sich auf von Menschen unabhängige Naturgesetze beziehen. Man ersetzt sie nicht, sondern baut auf ihnen auf. In der Biologie gilt das für die Vererbungsregeln von Gregor Mendel und die Erkenntnisse über Strahlenmutanten seit Muller (1927).

Ganz anders der mit wissenschaftlicher Terminologie dargestellte Aberglaube. Da ist alles beliebig. Was früher war, ist heute anders, Strahlung in Indien ist nicht mit Strahlung in Deutschland zu vergleichen, es gibt Wirkungen ohne Ursache, z.B. leukämiekranke Kinder schon bei der Dosis Null.

Die Wissenschaft ermittelt tatsächliche Zusammenhänge zwischen Wirkung und Ursache. Die Abhängigkeit der Mutationsrate von der Dosis ionisierender Strahlung wird seit 1927 untersucht. Es ging nie um die Frage, gibt es Mutationen? Die gibt es immer, die Frage ist, um wie viel sich die Mutationsrate erhöht. Beginnen muss man also bei der natürlichen Mutationshäufigkeit. In der Arbeit über die Schmetterlinge wurde es nicht so gemacht.

Das wesentliche Ergebnis aller wirklich wissenschaftlichen Versuche seit über 80 Jahren mit Drosophila, Mäusen, Bakterien, Hefe usw. und allen Strahlenarten, Röntgen, Gamma, Beta, Alpha sowie Neutronen ist: Die Zahl sichtbarer Mutationen verdoppelt sich bei Dosen im Bereich von 1.000 Millisievert. Das zu ermitteln erforderte einen großen Aufwand. Oft gibt es unter 100 Nachkommen nicht einen, dessen Aussehen durch Mutation verändert ist. Die natürlichen Mutationsraten liegen fast immer unter 1 %. Anders wäre es auch schlimm, würden wir sagen. Nicht so die Züchter, sie finden das unbefriedigend und steigern die Mutationsraten oft durch Bestrahlung. Ob Sie Ihre Lebensmittel nun im eigenen Garten anbauen, im normalen Lebensmittelmarkt oder im Bioladen kaufen, immer werden Sie einen hohen Anteil an Strahlenmutanten essen.

Nun zu den Schmetterlingen. Die Art (Zizeeria maha) gehört in die Gruppe der Bläulinge, hat es gern warm, in der Gegend von Fukushima geht es gerade noch. Sie kommt auch in Indien vor, wo sie im Bundesstaat Kerala ganz erheblicher natürlicher Radioaktivität ausgesetzt ist,  was ihr offensichtlich nichts ausmacht. Aber glaubt man den Autoren, ist es um Fukushima ganz anders. Die Tiere hat es in der Winterruhe erwischt, als Raupen. Sie waren also am 11. März längst aus dem Ei und daher wurden bei den im Mai gefangenen 144 Schmetterlingen auch keine Mutanten gefunden. Allerdings waren angeblich die Flügel um so kürzer, je näher am Kraftwerk die Schmetterlinge lebten.

Die Schmetterlinge wurden nach Okinawa gebracht; weiter weg von Fukushima geht es in Japan nicht. Dort konnten sie Eier legen, die Raupen schlüpften aus, und da zeigte sich die ganze Katastrophe: 18,5 % Veränderungen an Flügeln, Beinen, Augen und anderem. Dazu kam noch eine hohe Todesrate der Raupen und unnormale Dauer des Puppenstadiums. Die Überlebenden durften wieder Eier legen, und in dieser zweiten Generation wurde alles noch schlimmer: 33,5 % Veränderungen.

Mehrere Wissenschaftler haben die Angaben überprüft und eine Reihe von Unstimmigkeiten gefunden. Ich möchte nur einmal die Dosiswerte vergleichen. Es gibt eine Dosis-Wirkungs-Beziehung! Strahlung schlägt nicht einmal so zu und einmal anders.

1.000.000 Millisievert            Tod von Wespen

     40.000 Millisievert            10 % Mutationsrate bei der Fliege Drosophila

       7.000 Millisievert            Tod von Menschen und Mäusen

       1.000 Millisievert            Verdopplung der normalen Mutationsrate (unter 1%) verschiedenster Tiere

125 Millisievert            Laborversuche der Autoren.  Angeblich Veränderungen,  hohe Sterberate

55 Millisievert            Laborversuche, immer noch Veränderungen und erhöhte Sterblichkeit

4,5 Millisievert             max. Dosis nach Angaben der Autoren an den Fundorten der Schmetterlinge im Mai. Die Dosis war davor höher.

Falls man nicht die Ergebnisse von fast einem Jahrhundert strahlenbiologischer Forschung in Zweifel ziehen will, muss man erkennen: Insekten sind recht unempfindlich gegenüber Strahlung. Und wenn es doch Mutationen gibt? Natürlich gibt es welche, siehe die abartigen Nachkommen der Karauschen. Auf deren Bestand hat das keinen Einfluss. Die Fische haben sehr viele Nachkommen, nur die gesunden und normalen überleben. Das war auch im Kühlteich des Kraftwerks Tschernobyl so. Dort muss man wirklich eine erhöhte Mutationsrate annehmen, aber die Fische ein paar Jahre nach dem Unglück waren zahlreich und gesund.

Dr. Hermann Hinsch; Hannover




Lügen, verdammte Lügen und Anomalien-Lügen

Oberflächlich betrachtet scheinen Anomalien nützlich zu sein. Aber die Antwort auf die zweite Frage ist ziemlich einfach:

Nein!

Wenn die ganze Erde eine einzige uniforme Temperatur aufweisen würde, bräuchten wir keine Anomalien. Tatsache ist aber, dass die Temperaturen in den Tropen nicht allzu stark variieren, während sie in den gemäßigten Breiten häufig um 80 Grad oder mehr im Jahresverlauf schwanken. Wie vergleicht man die Temperaturen beispielsweise von Khartoum mit einer Jahresschwankung zwischen 25 bis 35 Grad je nach Monat mit Winnipeg, wo die Temperatur von -40°C im Winter bis +40°C im Sommer schwanken kann?

Bleiben wir bei den Anomalien. Mittels Definition eines Referenzwertes, normalerweise der Temperatur über 30 Jahre, ist es möglich zu erkennen, wie stark sich die Temperaturen (zum Beispiel) im Winter in Winnipeg im Vergleich zu den Temperaturen im Sommer in Khartoum verändert haben. Oberflächlich gesehen ist das sinnvoll. Aber stützt die Physik selbst diese Methode der Vergleiche?

Das tut sie absolut NICHT.

Die Theorie der direkten Auswirkungen des CO2 auf die Lufttemperatur an der Erdoberfläche ist nicht so schwer zu verstehen. Für diese Diskussion wollen wir für den Moment die Details der genauen physikalischen Mechanismen ignorieren, ebenso wie Größenordnung und Bandbreite von Rückkopplungen. Stattdessen wollen wir mal vermuten, dass das IPCC und andere warmistische Literatur in dieser Hinsicht recht haben und dann nachschauen, ob es logisch ist, diese Theorie mit Hilfe von Anomaliedaten zu analysieren.

Die „Konsens”-Literatur sagt, dass die direkten Auswirkungen des CO2 zu einem Energiefluss [a downward energy flux] von 3,7 W/m² bei einer Verdoppelung des CO2 führen. Akzeptieren wir das mal für den Augenblick. Dann wird vorgeschlagen, dass dies wiederum zu einer Temperaturzunahme um 1 Grad führt. Diese Aussage kann nicht unterstützt werden.

Fangen wir mit der Ein-Grad-Rechnung selbst an. Wie konvertiert man W/m² in Grad?

Die Antwort kann man in jedem Lehrbuch finden, in dem es um Strahlenphysik geht. Die Ableitung der Formel erfordert einiges Tiefenverständnis davon, und für Interessierte gibt es eine gute Erklärung bei Wikipedia: http://en.wikipedia.org/wiki/Stefan%E2%80%93Boltzmann_law

Für die Ziele dieser Diskussion ist jedoch alles, was wir brauchen die Formel selbst, die da lautet:

P=5,67*10^-8*T^4

Dabei ist P die Strahlungs-Leistung eines schwarzen Körpers pro Flächeneinheit, T die absolute Temperatur in K und der Koeffizient 5,67* 10^8 die Stefan-Boltzmann-Konstante. Es bedurfte physikalischer Arbeiten, die mit dem Nobelpreis ausgezeichnet worden waren, diese Formel zu entwickeln, aber alles, was wir benutzen müssen, ist ein Taschenrechner:

Für die mathematisch Gebildeten sollte die Aufgabe sofort offensichtlich sein. Es gibt keine direkte Korrelation zwischen P in W/m² und der Temperatur T. Die Leistung ist der 4. Potenz der Temperatur proportional, nicht mit der Temperatur selbst.  Das wirft eine offensichtliche Frage auf. Bei welcher Temperatur führt die Verdoppelung des CO2 zu einem Temperaturanstieg von einem Grad? Verwenden wir die definierte Mitteltemperatur der Erde von +15°C (288 K) in der Formel, so zeigt sich, dass dieser Anstieg NICHT bei der Mitteltemperatur der Erde gilt:

Für T = 288K
P = 5.67*10^-8*288^4 = 390.1

Für T = 289K (plus 1 Grad)
P = 5.67*10^-8*289^4 = 395.5

Das ist ein Unterschied von 5,4 W/m², nicht 3,7 W/m²!

Wie also rechtfertigt das IPCC seine Behauptung? Vom Weltraum aus gesehen ist die Temperatur der Erde an der Erdoberfläche nicht definiert, noch kann sie an der Obergrenze der Atmosphäre (Top of Atmosphere TOA) definiert werden. Photonen, die von der Erde in den Weltraum entweichen, können aus jeder Höhe stammen, und es ist das Mittel von diesen, das die „effektive Schwarzkörpertemperatur der Erde“ definiert, von der sich herausstellt, dass sie um -20°C (253 K) liegt, viel kälter als die Mitteltemperaturen an der Erdoberfläche. Füttern wir diesen Wert in die Formel, erhalten wir:

253K  = 232.3 w/m2
254K  = 236.0 w/m2

236.0 – 232.3 = 3.7

Da sind die flüchtigen 3,7 W/m² = 1 Grad! Doch das hat nichts zu tun mit den Temperaturen an der Erdoberfläche! Aber wenn wir diese Analyse noch einen Schritt weiter führen, wird es sogar noch schlimmer. Der Zweck der Temperaturanomalien war es ursprünglich, Temperaturveränderungen unter verschiedenen Temperaturspannen zu vergleichen. Wie wir aus der obigen Analyse erkennen, da W/m² sehr Verschiedenes bedeutet bei verschiedenen Temperaturbereichen, ist diese Methode komplett unbrauchbar, um die Veränderungen der Energiebilanz der Erde infolge der Verdoppelung des CO2 zu verstehen.

Zur Verdeutlichung dieses Punktes: nehmen wir an, dass sich manche Gebiete der Erde zu einer bestimmten Zeit im Abkühlungs-, andere in Erwärmungstrends befinden. Durch das Mitteln von Temperaturanomalien über den Globus hat das IPCC und die „Konsens“-Wissenschaft gefolgert, dass es alles in allem einen positiven Erwärmungstrend gibt. Das Folgende ist ein einfaches Beispiel, wie leicht Anomaliedaten nicht nur zu einem irreführenden Ergebnis führen können, sondern schlimmer, in einigen Fällen sogar zum GEGENTEIL dessen, was aus Sicht einer Energiebilanz passiert. Um das zu illustrieren, wollen wir vier verschiedene Temperaturwerte nehmen und ihren Wert bedenken, wenn sie in W/m² konvertiert werden, wie man es mit der Stefan-Boltzmann-Gleichung tun kann:

-38 C = 235K = 172.9 W/m²
-40 C = 233K = 167.1 W/m²
+35 C = 318K = 579.8 W/m²
+34 C = 317K = 587.1 W/m²

Nehmen wir jetzt an, dass wir zwei gleichartige Gebiete haben, von denen eines eine Anomalie von +2 Grad aufweist durch eine Erwärmung von -40 auf -38°C. Im anderen Gebiet zeigt sich zur gleichen Zeit eine Anomalie von -1 mit einer Abkühlung von +35 auf +34°C.

-38 C Anomalie von +2 Grad = +5.8 W/m²
+35 C Anomalie von -1 Grad = -7.3 W/m²

 „Gemittelte" Temperaturanomalie = +0,5 Grad

„Gemittelte" W/m²-Anomalie = -0,75 W/m²

Die Temperatur ist gestiegen, die Energiebilanz aber gefallen? Tatsache ist: Weil Temperatur und Leistung nicht direkt miteinander variieren, führt das Mitteln von Anomaliedaten in dramatisch unterschiedlichen Temperaturbereichen zu einem bedeutungslosen Ergebnis.

Kurz gesagt: falls es das Ziel der Bestimmung von Temperaturanomalien ist, die Auswirkungen einer CO2-Verdoppelung auf die Energiebilanz der Erde an deren Oberfläche zu quantifizieren, sind die Anomalien vom Winter in Winnipeg und dem Sommer in Khartoum einfach nicht vergleichbar. Es trotzdem zu versuchen und dann Rückschlüsse zu ziehen über die CO2-Auswirkungen in W/m² ist einfach sinnlos und erzeugt eine globale Anomalie, die bedeutungslos ist.

David M. Hoffer

Link: http://wattsupwiththat.com/2012/08/26/lies-damn-lies-and-anoma-lies/

David M. Hoffer ist Naturwissenschaftler und arbeitet auf ökologisch relevanten Themen.

Übersetzt von Chris Frey EIKE




Green Economy: Politikerreden auf dem Prüfstand

Doch daran erinnern jetzt wieder viele Durchhalteparolen, ausgegeben von so veritablen Schwergewichten des Kabinetts Merkel, nämlich von Frau Forschungsminsterin Frau Anette Schavan, als ausgebildete Theologin, besonders gut geeignet sich zur "Green Economy" zu äußern und vom lebensfrohen, leicht übergewichtigen  Herrn Umweltbundesminister, dem Juristen Peter Altmaier. Um diese diese Parolen unters ausgesuchte* Volk zu bringen, wird bald eine – natürlich vom Steuerzahler bezahlte- internationale Konferenz, auf der alle Nutznießer zu Wort kommen sollen, veranstaltet. Es ist die Konferenz zur  „Green Economy – Ein neues Wirtschaftswunder?“ am 4.-5. September 2012 im ewerk in Berlin

Unser Leser Dr. Wehlan hat sich auf seine Weise mit beider Texte beschäftigt und sie in das unbestechliche BlaBlameter eingeben. Das Ergebnis stellen wir hier vor:

Zuerst Frau Schavan:

Eingegebener Text:

„Die Art und Weise wie wir leben und wirtschaften, hat einen enormen Effekt auf unsere Umwelt. Daher wollen wir der Gesellschaft eine Gebrauchsanweisung für praktisches Handeln an die Hand geben, um den Herausforderungen durch Klimawandel, Energie- und Ressourcenknappheit wirksam zu begegnen“, sagte Schavan. „Mit der Green Economy verfolgen wir das Ziel, in Zukunft nachhaltige Ideen von der Produktion über die Unternehmensführung bis in die Bereiche Konsum und Recycling in einem Kreislauf miteinander zu verknüpfen.“

Dazu Blablameter: Bullshit-Index :0.56; Kommentar im BlaBlameter

Ihr Text signalisiert deutlich: Sie wollen etwas verkaufen oder jemanden tief beeindrucken. Es wirkt unwahrscheinlich, dass damit auch eine klare Aussage verbunden ist – und wenn ja: wer soll das verstehen?

 Nun der Text von Herrn Peter Altmaier:

"In Deutschland ist der Prozess eines „Greenings“ der Wirtschaft schon weit vorangeschritten. Mit weniger Rohstoffen, weniger Schadstoffausstoß und geringerem Energieeinsatz als noch vor zehn Jahren erwirtschaften wir heute die gleichen Erträge. Die Marktchancen sind enorm: Energie- und Rohstoffeffizienz werden mehr und mehr zum Wettbewerbsfaktor, Umwelt- und Effizienztechnologien sind Wachstumstreiber entlang der gesamten industriellen Wertschöpfungskette.“

Dazu Blablameter: Bullshit-Index :1.28 Kommentar dort

Glückwunsch, Ihnen ist es tatsächlich gelungen, unsere Bullshit-Skala von 0 – 1 zu sprengen! Diesen Text tut sich ein Leser wohl nicht freiwillig an, aber uns haben Sie beeindruckt

Die Texte wurden der gemeinsamen Pressemitteilung entnommen. Sie finden Detais dazu hier

Green Economy – Ein neues Wirtschaftswunder

Schavan und Altmaier starten gemeinsame Initiative

Bundesforschungsministerin Annette Schavan und Bundesumweltminister Peter Altmaier wollen mit einer gemeinsamen Initiative den Umbau der Wirtschaft zu einer nachhaltigen „Green Economy“ beschleunigen. Schavan und Altmaier haben dazu rund 450 Experten aus Wissenschaft, Wirtschaft, Politik, Verbänden und Gesellschaft zu einer zweitägigen Konferenz nach Berlin eingeladen, um unter anderen über die Frage zu diskutieren, wie mit marktwirtschaftlichen Instrumenten nachhaltige Produktion, Preisbildung und Konsumverhalten erreicht werden können. Die Konferenz in Berlin soll der erste Schritt auf dem Weg zu einem neuen Forschungsprogramm Green Economy sein. Ziel der „Grünen Ökonomie“ ist es, die Art des Wirtschaftens in Zukunft ressourceneffizienter, umweltverträglicher und sozial inklusiver zu machen.

Bundesforschungsministerin Annette Schavan machte zum Auftakt der Konferenz deutlich, dass sie eine kohlenstoffarme und ressourceneffiziente soziale Marktwirtschaft anstrebe. „Die Art und Weise wie wir leben und wirtschaften, hat einen enormen Effekt auf unsere Umwelt. Daher wollen wir der Gesellschaft eine Gebrauchsanweisung für praktisches Handeln an die Hand geben, um den Herausforderungen durch Klimawandel, Energie- und Ressourcenknappheit wirksam zu begegnen“, sagte Schavan. „Mit der Green Economy verfolgen wir das Ziel, in Zukunft nachhaltige Ideen von der Produktion über die Unternehmensführung bis in die Bereiche Konsum und Recycling in einem Kreislauf miteinander zu verknüpfen.“

Bundesumweltminister Peter Altmaier betonte: „In Deutschland ist der Prozess eines „Greenings“ der Wirtschaft schon weit vorangeschritten. Mit weniger Rohstoffen, weniger Schadstoffausstoß und geringerem Energieeinsatz als noch vor zehn Jahren erwirtschaften wir heute die gleichen Erträge. Die Marktchancen sind enorm: Energie- und Rohstoffeffizienz werden mehr und mehr zum Wettbewerbsfaktor, Umwelt- und Effizienztechnologien sind Wachstumstreiber entlang der gesamten industriellen Wertschöpfungskette.“

Die internationale Staatengemeinschaft (UN) hatte in Rio die Green Economy als zentrales strategisches Instrument für nachhaltige Entwicklung anerkannt und betont, dass die Transformation zu einer Green Economy eine Aufgabe für alle Staaten ist – für Entwicklungs- und Schwellenländer, aber auch für Industriestaaten. Wirtschaft und Konsumenten sollen damit in die Lage versetzt werden, aus eigenem Interesse den Umbau der Wirtschaft zu beschleunigen. Von Beginn an sind Vertreter aus der Wirtschaft, Gewerkschaften und Umweltverbände an diesem Prozess beteiligt, um die praktische Umsetzbarkeit und Anwendungsorientierung sicherzustellen.

Deutschland startet aus einer hervorragenden Position. Jährlich werden mehr als 2,8 Prozent des Bruttoinlandsprodukts in Forschung und Entwicklung investiert. Deutsche Anbieter haben bei den Umwelttechnologien weltweit eine Spitzenposition. Bei den „Umweltfreundlichen Energien und der Energiespeicherung“ verfügen sie zum Beispiel über einen Weltmarktanteil von 23%. In der Umweltbranche arbeiten heute bereits über 2 Millionen Menschen. Die Projektförderung der Nachhaltigkeitsforschung hat sich in den letzten acht Jahren fast verdoppelt – auf derzeit rund 430 Millionen Euro.

Über den gesamten Text urteilt das BlaBlameter:

Bullshit-Index :0.76

Es stinkt gewaltig nach heißer Luft! Auch wenn Sie PR-Profi, Politiker, Unternehmensberater oder Universitätsprofessor sind – beim Eindruck schinden sollten Sie Ihre Aussage nicht vergessen.

*Leider ist die Teilnahme an der Konferenz nur mit einer persönlichen Einladung möglich.




Arktische Sommereisschmelze 2012 – Menetekel oder nüchterne Wissenschaft?

So ist im Zeit-online-Interview auf die Frage, dass im Sommer nichts auf die Rekordschmelze hindeutete, von Herrn Prof. Rahmstorf zu erfahren: Das stimmt: 2007 gab es ein langes, stationäres Hochdruckgebiet über der Arktis, das viel Sonne brachte. Das war in diesem Jahr nicht der Fall, das Wetter war durchwachsen.“ Damit die Personen in Presse und PIK nicht weiter im Dunkeln tappen und den Durchblick erhalten, erhellt der folgende Bericht die Szenerie und gibt die Antworten, warum in 2012 die arktische Sommereisschmelze so hoch ausfällt und wagt einen Blick in die Zukunft.

Abbildung 1 zeigt die arktische Eisbedeckung vom 28.08.2012 (rechts) und dazu im Vergleich, die arktische Eisbedeckung am 28.08.2011 (links). Deutlich weniger Eisbedeckung ist in diesem Jahr zu erkennen. Gleiches Bild zeigt die arktische Eisentwicklung.

Abbildung 2 zeigt die arktische Eisentwicklung 2012 zum bisherigen Rekordminimum der letzten 30 Jahre von 2007, Datenquelle: NSIDC (National Snow Ice and Data Center).

Da die Aggregatzustände von Wasser bekannt und gleich sind, muss es eine oder mehrere Ursachen für die starke Sommereisschmelze in 2012 gegenüber dem bisherigen Minimum in 2007 geben. Da es sich beim arktischen Eis um schwimmendes, also gefrorenes Eis handelt, sollen zuerst die arktischen Meerestemperaturen (deren statistisches Mittel – bei all solchen Darstellungen, auch denen des IPCC, handelt es sich immer um statistisch gemittelte Werte, da es physikalisch keine Globaltemperatur, als auch keine arktische Temperatur gibt) betrachtet werden.

 

Abbildung 3 zeigt die Anomalien des Arktischen Meeres von November 1981 bis Juli 2012. Die arktischen Wassertemperaturen sind gegenwärtig zwar hoch, erreichen aber nicht die Werte von 2007. Hier sind wir nicht wirklich fündig geworden. Wie sieht es bei den arktischen Temperaturen aus, die das Eis verstärkt schmelzen lassen können.

 

Abbildung 4 (Quelle: Climate4you.com) zeigt die arktischen Temperaturschwankungen. Sie liegen etwa auf gleicher Höhe wie 2007. Also ein Grund für eine hohe Eisschmelze, aber nicht höher als 2007. Demnach auch nicht der Grund.

Nun hat Eis unterschiedliche Schmelzpunkte, was auf den im Eis eingebauten Salzgehalt zurückzuführen ist. So schmilzt einjähriges Eis schneller, als mehrjähriges.

Abbildung 5 zeigt die Eisentwicklung nach verschiedenen Altersklassen. Auch von dort keine Unterstützung, dass einjährige Eis, welches am schnellsten schmilzt, hat 2012 keine geringeren Werte als im Sommer 2007.

Nun ist die Eisschmelze auch von der Winddrift und damit von der Arktischen Oszillation (AO) abhängig, wie Prof. Dr. Seymor Laxon bereits vor fast 10 Jahren herausfand (Abbildung 6)

 

Abbildung 6 zeigt die Eisanomalien zur Windzirkulation (AO), Quelle: “Are the Ice caps melting?“ Prof. Seymor Laxon.

Weitere Forscher um Prof. Dr. James Morison (Polar Science Center – PSC) stellten fest, dass die arktischen Meeresströmungen, angetrieben durch Luftmassenzirkulationen, die Verteilung von Wärme und Salzgehalt verändern. Die AO (Arktische Oszillation) steht dabei in direktem Zusammenhang mit der Meereisbedeckung. James Morison: "The winter of 2006-2007 was another high Arctic Oscillation year and summer sea ice extent reached a new minimum." Das Forscherteam um James Morison fand weiter heraus, dass sich (durch die geänderten Meeresströmungen) der Salzgehalt der arktischen See seit 2002 deutlich geändert hat (Abbildung links).

Abbildung 7 links zeigt die Trendkonturen des Druckes der arktischen See im Zeitraum von 2002 – 2006, verglichen mit dem Referenzwert der 1990-Jahre. Der Druck steht im direkten Zusammenhang mit dem Salzgehalt, weil die Änderung des Wasserdrucks durch die im Wasser gelösten Stoffe – Salz – bestimmt wird. D.h. eine Erhöhung des Druckes ist gleichbedeutend mit einer äquivalenten Erhöhung des Salzgehaltes – je höher der Druck, desto höher der Salzgehalt. Die Messungen entstanden mit GRACE. GRACE ist ein Gemeinschaftsprojekt der NASA und des DLR (Deutsches Zentrum für Luft- und Raumfahrt). Die Abbildung rechts zeigt die sich veränderte Eisbedeckung im Zeitraum von 1979 – 2005, wobei die Eisschmelze in den 2000-Jahren vergleichsweise hoch ausfiel, Quelle: NASA. Werden beide Abbildungen miteinander verglichen, wird sofort ersichtlich, dass die Regionen, die eine hohe Eisschmelze zu verzeichnen haben, überwiegend auch die Regionen sind, in denen sich der Salzgehalt des Meerwassers erhöht und damit der Schmelzpunkt des Eises herabgesetzt wurde, d.h. die Eisschmelze bereits bei tieferen Temperaturen eintritt, bzw. bei höheren Temperaturen verstärkt stattfindet, mit einer großen Eisschmelze in der Fläche.

Schauen wir uns daher den Kandidaten, der von den Forschern genannt wurde und unmittelbar mit der arktischen Eisentwicklung zu tun hat, die AO, genauer an. Prof. Morison sagt uns dabei auch, worauf zu achten ist – auf eine stark positive Winter-AO vor der Sommereisschmelze.

Die AO ist der Luftdruckgegensatz zwischen den arktischen und den mittleren Breiten auf der Nordhemisphäre. Sie entsteht durch die großen Temperaturunterschiede zwischen den sehr kalten Polarregionen und den gemäßigten mittleren Breiten. Wie der Name schon sagt, handelt es sich um zyklische Änderungen (Oszillation). Die AO bestimmt die arktischen Wettersysteme. Bei einer negativen AO liegt über dem Pol ein starkes Hoch und dadurch bedingt entsteht ein schwacher Polarwirbel. Die sich entwickelnden Winde werden aufgrund der Corioliskraft nach Osten abgelenkt. In der positiven Phase treiben im Winter starke Westwinde die warme Atlantikluft nach Nordeuropa und Sibirien.

 

Abbildung 8 zeigt die Winter AO im Zeitraum von 1950 bis Dezember 2011. Dabei ist festzustellen, dass die AO ausgesprochen stark ist, so stark, wie die Winter AO vor dem letzten Rekordminimum in 2007. In 2011 war die AO dagegen stark negativ. Schauen wir noch genauer hin.

 

Abbildung 9 (Quelle: NASA Science News vom 19.01.2012) zeigt die Entwicklung der Winter AO von 2011/2012 zum Vorjahr. Deutlich ist zu sehen, dass diese vor der jetzt anstehenden Rekordeisschmelze ausgesprochen positiv ausgeprägt war.

Zwischenergebnis: Mit der AO wurde ein Parameter identifiziert, der für die starke Sommereisschmelze verantwortlich ist und dies war bereits im Dezember 2011 absehbar!

Gibt es weitere Kandidaten, die die Eisschmelze bestimmen und für die gegenüber 2007 nochmals verstärkte Sommereisschmelze verantwortlich ist? Von der Gletscher- und Eisentwicklung in unseren Breiten ist bekannt, dass diese von der AMO moderiert wird (Abbildung 10). Die AMO gibt die Wasseroberflächentemperaturen (deren Abweichungen) im Nordatlantik an.

 

Abbildung 10 zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2002, Quelle: Slupetzky, 2005, Uni Salzburg. Gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß folgt und das in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen vorlagen, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild). Daher soll die AMO an den arktischen Parametern gespiegelt werden.

 

Abbildung 11, zeigt die arktischen Lufttemperaturen von 1880 – 2000 und darunter die trendbereinigte AMO. Deutlich zu sehen, dass sich die arktischen Temperaturen im Gleichklang zur AMO (Quelle: http://la.climatologie.free.fr/amo/amo-index.gif) entwickeln.

Für die jetzige Eisschmelze ist es notwendig, die gegenwärtige AO und zwar die reale und die trendbereinigte zu betrachten.

 

Abbildung 12 (Quelle: http://www.ncl.ucar.edu/Applications/Images/index_amo_1_lg.png) zeigt die reale AMO (mit Trend) und die trendbereinigte. Deutlich ist zu sehen, dass die AMO derzeit ihr Maximum anstrebt. Doch, woher kommen die Trends und die Schwingung, die die AMO nach Beginn des 20. Jahrhunderts steil ansteigen lässt? Der Autor gab bereits in seiner 8-teiligen EIKE-Serie “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ vom August 2011 die Antwort. Der Trend basiert auf dem Hauptsonnenzyklus, den im Mittel 208-jährigen de Vries/Suess-Zyklus, der um 2003 sein Maximum hatte und etwa 100 Jahre davor, sein Minimum, was sich in der AMO widerspiegelt. Wie sehr er die arktische Eisbedeckung bestimmt, zeigt Abbildung 14.

Auf http://www.ozeanklima.de/ ist hierzu folgendes zu lesen: In den späteren Jahren der 1930er Dekade waren so warm wie die erste Dekade nach dem Jahr 2000. Nach 30 Jahren Abkühlung ab 1940, setzte der Erwärmungstrend seit 1980 wieder ein. War es eine Fortsetzung der Erwärmung, die mit dem Klimaknall im Januar 1919 begonnen hatte?“ Und dazu die folgende Abbildung zu sehen.

 

Abbildung 13 zeigt die globale und arktische Temperaturentwicklung seit 1880 nach GISS. Deutlich zu sehen, dass die globalen Temperaturen um 1910 und die arktischen um 1900 zu steigen beginnen. Dies ist exakt der Zeitpunkt, zu dem der Hauptsonnenzyklus sein Minimum verlies und wieder ansteigt und somit sowohl die globalen, als auch die arktischen Temperaturen ansteigen lässt – der Anstiegstrend beginnt. EIKE-Leser wissen mehr und kennen nun auch den Grund für den Anstieg.

 

Abbildung 14: Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt die Abbildung, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde vom Autor um den de Vries/Suess-Sonnenzyklus (Zeiten) ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erleben Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen.

Woher stammt indes die Schwingung der AMO von ca. 35 Jahren? Das AWI, Prof. Dr. R. Gerdes, hierzu: "Seit Mitte der 90er Jahre haben wir einen starken Temperaturanstieg im Bereich des Nordatlantiks und des Nordpolarmeers. Das ist zum Teil Folge einer natürlichen oszillierenden Entwicklung, die Perioden von 60, 70 Jahren hat. Da sind wir jetzt in einer warmen Phase."

Diese Schwingung stammt ebenfalls von der Sonne und zwar vom Brückner-Zyklus der Sonne, der exakt diese Schwingung hat, wie Abbildung 15 zeigt.

 

Abbildung 15 (Quelle: Halberg et al., “Thirty-Five-Year Climatic Cycle in Heliogeophysics“) zeigt den Brückner-Zyklus (grün) anhand der zeitlichen Variabilität der Wolfs-Zahl (Sonnenfleckenzahl). Ausgewertet wurden die Daten von Brückner, 1890 (4), Egeson, 1889 (5), und Lockyer, 1901 (6). Der Autor hat die mittlere Zykluslänge im Untersuchungszeitraum (gekennzeichnet durch die beiden roten Linien) ermittelt und an das letzte Maximum des Brückner-Zyklus angesetzt, um auf diese Weise statistisch die Folgemaxima zu ermitteln (blaue Rechtecke). Wie zu sehen, hatte der Brückner-Zyklus um 2005 sein letztes Maximum. Jetzt verwundert es auch nicht mehr, warum Europa 2003 einen Jahrhundert-Hitzesommer erlebte. Gleich drei starke Sonnenzyklen hatten seinerzeit ihr Maximum, der Hauptsonnenzyklus (de Vries/Suess-Zyklus), der Brückner-Zyklus und die magnetische Aktivität im Schwabe-Zyklus. Die Maxima gleich drei solarer Zyklen, die zudem auch noch stark ausgeprägt waren, fielen zu Beginn des Jahrhunderts zusammen, was seit Beginn der Sonnenfleckenaufzeichnungen um 1610 nicht stattfand und wohl letztmalig während dem Klimaoptimum des Mittelalters stattfand (verlässliche Daten über die Sonnenfleckenzahl aus dieser Zeit liegen dem Autor nicht vor, daher das „wohl“).

Wie dominant der Brückner-Zyklus die klimatischen Bedingungen in der Arktis, die Warm-und Kaltphasen und damit die Eisausdehnung bestimmen, zeigt ein Blick auf 1.200 Jahre Klimageschichte.

 

Abbildung 16, Quelle:  Fredrik Charpentier Ljungqvist, Stockholm University, “A regional approach to the medieval warm period and the little ice age“, zeigt Temperaturschwankungen aus Eisbohrkerndaten in Grönland (blau) und von Messungen an der Westküste Grönlands (rot) im Zeitraum von 800 – 2000 (grau: Standardabweichung). Zu sehen ist ein heftig gezacktes Muster, in dem sich relative Minima und relative Maxima abwechseln. Werden z.B. die Maxima gekennzeichnet (blaue Linien), sind im Betrachtungszeitraum 31 volle Perioden von ca. 850 – 1935 abgebildet (der nächste also 1970 und er darauf folgende 2005!!! Vergleiche mit Abbildung 15). Daraus ergibt sich eine mittlere Zykluslänge von exakt 35 Jahren, was dem Brückner-Zyklus entspricht. Temperaturspitzen wechseln sich im Mittel alle 35 Jahre ab. Während des Klimaoptimums des Mittelalters sind die Zyklen eng zusammen, gleich wie heute, wogegen sie zu dessen Ausgang und während der Kleinen Eiszeit deutlich länger werden, was ein sicherer Parameter, für eine schwache Sonnenaktivität ist. So versuchen IPCC-nahe Wissenschaftler vergeblich, die Kleine Eiszeit nicht mit der variablen Sonne in Verbindung zu bringen. Wie am Brückner-Zyklus gezeigt, ein Versuch, der aussichtslos ist.

Nach diesem Exkurs, welche Parameter die AMO und damit unser Wetter und Klima, sowie die arktische Sommereisschmelze bestimmen, zurück, wie sich die AMO in 2012 entwickelte. Abbildung 12 zeigt die AMO bis 2011 und in der schwarzen Zeitreihe, dass sie gerade am Fallen ist, was natürlich der Begründung für die jetzige starke Sommereisschmelze entgegenstünde. Daher soll die AMO in 2012 betrachtet werden und im Vergleich dazu, in 2007. Die Daten stammen von (http://www.esrl.noaa.gov/psd/data/correlation/amon.us.data).

 

Abbildung 17 zeigt die AMO von Januar bis Juli 2012 im Vergleich zur AMO in 2007. Die AMO-Werte von 2012 laufen den Werten von 2007 regelrecht davon. Während die AMO in 2007 gar fällt, was auf das seinerzeit dort vorliegende Hoch zurück zu führen ist (siehe Zeit-online Interview mit Prof. Rahmstorf) und dem damit verbundenen schwachen atmosphärischen Polarwirbel, steigt in 2012 die AMO raketenartig an, was schnell und stark ansteigende Temperaturen in der Arktis bedeutet, vor allem in Grönland, dass sozusagen vor der „Haustür“ der AMO liegt. So braucht es niemanden zu verwundern, wenn die Presse solche Bilder brachte, die zeigen, dass zeitweise große Areale der grönländischen Eisdecke an geschmolzen waren.

 

Abbildung 18 zeigt zwei Momentaufnahmen der grönländischen Eisbedeckung vom Juli 2012. Damals fabulierte die deutsche Presse, dass 97% des grönländischen Eis schmilzen, was blühender Unsinn ist, da lediglich die oberste Schicht kurz an schmolz (Wasser gemessen wurde). Warum dem so war, wissen die EIKE-Leser nun.

Der Autor ist unseren Lesern noch die Beantwortung einer wichtigen Frage schuldig. Warum die arktische Eisschmelze mit dem Maximum der AMO gerade jetzt so ausgeprägt ist? Die Antwort stammt aus der Untersuchung von Prof. Solanki (Max Planck Institut für Sonnenforschung, MPS) “Solar activity over the last 1150 years: does it correlate with climate”. Er ermittelte, dass das Klimasystem der Erde der solaren Aktivität um 10 Jahre nachläuft – die Sonnenaktivität dem Klima um 10 Jahre vor eilt. Was in erster Linie auf die Trägheit und Wärmekapazität des Wassers zurückzuführen ist.

 

Abbildung 19 links zeigt den Nachlauf des Klimasystems zur Sonnenaktivität (Quelle: Solanki et al.). Die Abbildung rechts, den Hitzesommer von 2003 (Quelle: Hadley Center). Während die solare Aktivität auf die Lufttemperaturen und damit Bodentemperaturen unmittelbar wirkt, wirkt sie auf das die Wassertemperaturen und das Klima verzögert, nach Solanki et al. mit einem Nachlauf von 10 Jahren. Die AMO wechselte 1995 in ihre positive Phase, die ca. 35 Jahre andauert. Daraus ergibt sich, dass sie um 2012/2013 ihr Maximum erreicht, was die Zeitreihen der AMO belegen. Ihr Einfluss auf die Eisschmelze wird anschaulich, wenn im Vergleich die Jahre 2007, 2011 und 2012 betrachtet werden (Abbildung 20).

 

Abbildung 20 zeigt die arktische Sommereisbedeckung (Juli) für 2007 (links), 2011 (Mitte) und 2012 (rechts). Gegenüber dem bisherigen Rekord in 2007 sind in 2012 vor allem die Gebiete östlich und westlich von Grönland betroffen, also die Gebiete, die unmittelbar vor der „Haustür“ der AMO liegen. Was den Unterschied zu 2007 ausmacht.

So wird auch die Aussage der russischen Wissenschaftler Dr. habil. Genrich Alexejew, Forschungsinstituts für Arktis und Antarktis (St. Petersburg) zur arktischen Eisschmelze 2012 verständlich: “Der sommerliche „Rückzug“ der Eisdecke im Nordpolarmeer erfolge außerdem nicht gleichmäßig. Die für Russland transportrelevanten Meeresgebiete seien im laufenden Jahr sogar stärker als gewöhnlich mit Eis bedeckt. In der Kara-, Laptew-, Tschuktschen- und Ostsibirischen See sei die Eisdecke beispielsweise stärker als im Jahr 2007“ (Quelle: http://german.ruvr.ru/2012_08_31/86793871/). Und weiter “Die langjährigen Beobachtungen des Petersburger Arktis-Instituts belegen zyklische Schwankungen im Klimasystem des Planeten: Im Abstand von ungefähr 60 Jahren erleben die atmosphärischen Vorgänge und die damit zusammenhängende ozeanische Zirkulation eine Neugestaltung. Derzeit geht eine Erwärmungsphase laut Forschern zu Ende (der vorhergehende Wärme-Höhepunkt war in den 1930er und 1940er Jahren zu beobachten). Die Natur dieser Zyklen ist vorerst nicht ganz klar – ebenso wie die Gesetze, nach denen das Weltmeer lebt.“ EIKE-Leser ist dies klar und sie können diese Zyklen und ihren Einfluss nun beantworten.

Ergebnis:

Zusammenfassend ist festzuhalten, dass die Rekordeisschmelze 2012 auf eine starke AO, wie in 2007 (Abbildung 8) zurückzuführen ist und ihr Minimum gegenüber 2007 auf die steil ansteigende, positive AMO zurückzuführen ist (Abbildung 17), was bereits in 12/11, bzw. spätestens 05/12 absehbar war.

So viel zu den eingangs geschilderten Meinungen und Aussagen eines PIK-Professors. Aber, dass es sich beim PIK mehr um ein Wiederentstanden des Orakels von Delphi, als um eine Wissenschaftseinrichtung handelt, hatte der Autor bereits in seinem EIKE-Artikel “Prognosen des Meeresspiegelanstiegs und was sie wert sind“ (http://www.eike-klima-energie.eu/klima-anzeige/prognosen-des-meeresspiegelanstiegs-und-was-sie-wert-sind/) gezeigt. Der Autor schloss seinen EIKE-Artikel mit den Worten. Insofern bewegen sich diverse Regierungen/politische Programme und deren (pseudo)wissenschaftliche Helfer, auf einer Stufe mit der Weltanschauung der Maya-Kultur und die diversen Klimaprognosen auf derselben Ebene wie die Vorhersagen der keltisch/germanischen Druiden oder der antiken Orakel. Unsere Vorfahren benutzten die Innereien von Tieren, um die Zukunft zu ergründen. Gänseleber und Krötenblasen waren sehr beliebt. Heute werden wieder Innereien benutzt, um in die Zukunft zu blicken. Es sind die BYTES und FLOPS der Supercomputer – mit demselben Ergebnis.“ Mit Wissenschaft hat all dies nichts zu tun.

Die Wissenschaft sucht nach Fragen und strebt danach, diese Fragen zu beantworten und zu beweisen. Herr Prof. Rahmstorf weiß davon offensichtlich nichts. Er ist jedoch in einem Alter, in dem es nicht abwegig ist, an den verdienten Ruhestand zu denken. In Anbetracht seiner gezeigten Leistungen im Zeit-online Interview, eine echte Alternative. Bei der Süddeutschen und beim ZDF fällt dem Autor spontan ein, dumm, dümmer, ZDF.

Warum viele deutsche Journalisten so verpicht darauf sind, sich als Halbwissende auszuzeichnen, vermag der Autor nicht zu beantworten. Möglicherweise hat dies etwas mit der Tradition des deutschen Journalismus zu tun. In Deutschland gab es mal Zeiten, in denen die Journalisten von Amts wegen die Dummheit verbreiteten und damit als Verstärker dienten. In Ostdeutschland ist dies noch nicht so lange her, etwas mehr als 20 Jahre. In Westdeutschland, etwas länger – mit dem Unterschied zu heute (wie Heute-Journal), dass sie dies jetzt freiwillig tun wie beim Heute-Journal (Frau Reidt ).

Raimund Leistenschneider – EIKE




Der Offshore-Bluff

Die Offshore-Experten von wind:research haben im Juni 2012 in einer Studie, über die die Wirtschaftswoche berichtete (10), ausgerechnet, dass im wahrscheinlichsten Fall 2020 rund 3.000 MW fehlen werden. Bis 2030 würde sich diese Lücke auf 6.000 MW verdoppeln. Im schlimmsten Falle allerdings wären 2020 gerade einmal ca.  3.000 MW auf See installiert – und bis 2020 käme kein einziges Windrad hinzu.

Dieser schlimmste Fall würde nach Einschätzung der wind:research-Experten eintreten, wenn die Übertragungsnetz-Betreiber vor den gewaltigen Kosten der Stromanbindung der Meeres-Windparks kapitulieren. Vor allem fürchteten sie die unbegrenzte Haftung für verspätete Anschlüsse.

Die Offshore-Windkraft heute

Gegenwärtig arbeiten nach offiziellen Berichten folgende Offshoreanlagen:

– alpha ventus (Nordsee):         12 WEA  mit insgesamt 60 MW Leistung (4)

– Baltic 1 (Ostsee)           :         21 WEA  mit zusammen 48,3 MW (4)

– BARD Offshore 1 (Nordsee): bisher 16 WEA mit zusammen 80 MW (3)

– sowie 3 Einzelanlagen in Nord- und Ostsee mit zusammen 12 MW (4)

Das ergäbe bescheidene 200 MW.

Rechnet man die auf BARD Offshore 1 angeblich fertiggestellten, aber nicht angeschlossenen  4 WEA und die 33 begründeten, aber noch leeren Fundamente, die hoffentlich Ende 2013 alle ans Netz angeschlossene Windräder tragen, als "im Bau befindlich" hinzu, dann könnten sich Ende 2013 weitere 185 MW hinzufügen (3).  Theoretisch hätte man dann 305 Megawatt Offshore-Strom.

Aber leider nicht 3.000 MW. Mit einer Planung um den Faktor 10 daneben zu liegen, ist nicht sehr vertrauenserweckend.

Eine schlichte Nachprüfung

Die Wirklichkeit, die sich jedoch ergibt, wenn man den Erfolgsmeldungen auf den Grund geht, sieht abermals anders aus.

Rolf Schuster, der die Stromerzeugung der "Erneuerbaren" regelmäßig genauer unter die Lupe nimmt, hat jetzt die Offshore-Stromerträge aus der Nordsee, die der   Netzbetreiber Tennet verzeichnete,  näher betrachtet.

Abb. 1 (1) stellt für den Zeitraum  2009 bis Juli 2012 einerseits die Stundenganglinie der gesamten ins Tennet-Netz gelieferten Nordsee-Offshore-WKA-Leistung dar (blaue Leistungsspitzen) und darüber die zum jeweiligen Zeitpunkt angeblich installierte und verfügbare Gesamtleistung (als graue, treppenförmig ansteigende Fläche). Quelle: Tennet.  Darstellung: Rolf Schuster

Diese Grafik ist vielsagend. Zum einen vermittelt sie das typische zerrissene Bild der zeitlichen Windstromerzeugung, das sich wegen der extrem nichtlinearen Abhängigkeit der Windradleistung von der Windgeschwindigkeit  (die Leistung steigt und fällt mit der 3. Potenz der Windgeschwindigkeit, fällt somit bei halber Windgeschwindigkeit auf ein Achtel ab) und dem schwankenden Windangebot  zwangsläufig ergibt.

Stephan Kohler, der Leiter der bundeseigenen Deutschen Energie-Agentur Dena warnte deshalb, daß man sich "von den gewaltigen Zahlen nicht blenden lassen dürfe", denn "von der hohen installierten Leistung seien gerade einmal sechs Prozent wirklich verlässlich verfügbar".

Weiterhin zeigt Abb. 1, daß es – zumindest bis Juli 2011 – regelmäßig Leistungsspitzen bis auf 100 Prozent der installierten Maximalleistung gab. Das kann man bei Offshore-Anlagen auch erwarten.  In jedem Monat gibt es einige Starkwindereignisse, die sehr kurz sein können,  die aber dann die bezüglich der Größe von Tiefdruckgebieten räumlich benachbarten Nordsee-Anlagen gemeinsam zu einer kurzen 100%-Leistungsspitze veranlassen.  Damit hat man aber zugleich einen Test für die Anzahl der tatsächlich am Netz befindlichen WEA im Vergleich zu der Anzahl der installierten Windräder.  Sind alle installierten WEA auch am Netz, müssen die Kurzzeit-Leistungsspitzen mehrfach die Obergrenze (grau) berühren.

Und hier zeigt sich die erste Überraschung: Ab Juli 2011 geschieht das nicht mehr. Die Leistungsspitzen erreichen weiterhin nur maximal 130 MW, obwohl die installierte Leistung laut Tennet-Daten im Juli 2012 angeblich sogar 180 MW erreichte.  Das entsprach aber nicht den Tatsachen (s.u.)

Und ein zweiter Effekt zeigt sich deutlich: Im Februar und März 2012 bricht selbst diese stagnierende Leistungsabgabe noch um mehr als 50% ein (s. dazu auch Abb. 2).

Daraus ergeben sich zwei Schlussfolgerungen:

1.  Seit Juli 2011 hat es keinen Zubau der nutzbaren Offshore-Windkraft in der

     Nordsee gegeben. Und das betrifft offensichtlich allein die im Bau befindliche

     Anlage BARD Offshore 1.

     Damit stagnierte die Gesamt-Maximalleistung der Nord- und Ostsee-WEA ein

     Jahr lang bei 190 MW.

2.  Im Februar und März 2012 waren nur noch ca. 45 MW an Nordsee-WEA-Leistung

     am Netz. Entweder gab es eine achtwöchige windschwache Periode, die man

     dann allerdings auch an Land erlebt hätte (siehe dazu Abb. 2), oder ca. 55 MW

     sind ausgefallen, was 11 Windräder zu je 5 MW bedeutet.  Welchen der

     Windparks das betraf, ist noch nicht bekannt. Diese Nachricht muss uns

     entgangen sein; es sei denn, es gab sie nicht.

     Während dieser 2 Monate betrug die Gesamt-Maximalleistung aller Offshore-

     WEA bescheidene 135 MW.

Erklärungen findet man interessanterweise in einem Bericht über BARD Offshore 1 bei Wikipedia (3).  Dort ist im Kapitel "Geschichte" zu lesen:

"Mitte August 2011 waren 19 der 80 Windenergieanlagen aufgestellt, 16 waren am Netz. Im Mai 2012 standen 53 WEA-Fundamente, 20 waren komplett aufgestellt, von denen 16 Strom lieferten."

Zwischen August 2011 und Mai 2012 wurde somit nur eine einzige WEA zusätzlich aufgestellt – und keine einzige WEA wurde in diesem Zeitraum ans Netz angeschlossen. Damit stagnierte die Nordsee-WEA-Leistung bei rechnerisch 60 MW  (Alpha Ventus) plus 80 MW (BARD 1; 16 WEA zu je 5 MW), also 140 MW. Aus Abb. 1 ergibt sich 130 MW – eine befriedigende Übereinstimmung.

Und noch etwas wird klar: Die in Abb. 1 von Tennet gelieferten Daten zur angeblich installierten Leistung – die stolz ansteigende Treppenkurve – sind ab Juli 2011 nicht korrekt.  Nur ein einziges Windrad kam hinzu – nicht angeschlossen.

Die in Ziff. 2 aufgestellte Frage wird durch Abb. 2 beantwortet.

Abb. 2: Hier wurden die stündlichen Leistungs-Prozentwerte der Land- und der Nordsee-WEA für den Zeitraum Januar bis April 2012 zusammen dargestellt – Land-Windräder in grün, Offshore-Anlagen in blau.                                              Quelle: Tennet, Darstellung: Rolf Schuster

Außerhalb des Zeitraums Februar und März übersteigen die Offshore-Leistungsspitzen die der Land-Windräder, was zu erwarten ist, denn aus diesem Grunde ist man ja mit der Windkraft auf die See gegangen. Im Februar und März 2012 aber übersteigen die Leistungsspitzen der Land-WEA die der Nordsee-WEA z.T um mehr als das Doppelte – und von Flaute oder Schwachwindperiode in diesen 8 Wochen gibt es keinerlei Anzeichen. Der drastische Leistungseinbruch  der Offhore-WEA wurde somit durch den Ausfall von Anlagen verursacht.

Beim Windpark BARD-Offshore 1 gestatten die Daten trotz der schönfärberischen offiziellen Darstellung einen Blick auf die tatsächliche Situation. Dem Netzbetreiber Tennet, der ab Winter 2011/2012 als angeblich Schuldiger an allen Verzögerungen in die Schusslinie mehrerer Mitwirkender im großen Offshore-Spiel geriet, kann in diesem Falle niemand etwas vorwerfen: Nicht existente Windräder kann man nicht ans Netz anschließen.

An diesem Beispiel kann man erkennen, wie man aus objektiven Daten die tatsächlichen Zustände in der Offshore-Windkraft beurteilen kann.

In der Nordsee tut sich weit mehr

Es gibt eine ganze Reihe weiterer Windparkprojekte in der Nordsee,  die angeblich  durch die zögerliche oder unterbliebene Netzanbindung durch Tennet verzögert wurden und bei denen Schadensersatz-Forderungen erhoben werden. Tennet ist schließlich für die Netz-Anbindung aller in dem von Deutschland kontrollierten und beanspruchten Teil der Nordsee im Bau befindlichen und geplanten Windparks zuständig und verantwortlich. Bei den beklagten Schäden geht es vor allem um ausgebliebene Stromverkaufserlöse.  Die seit gut einem halben Jahr vor allem von einflussreichen Windpark-Betreibern  betriebene Kampagne, die sich zunächst gegen Tennet und dann aber mit Tennet gegen die Regierung richtete, ist ein Lehrstück für den Umgang der Wirtschaft mit einer Politik, die sich selbst erpressbar machte.

Ein erster Schuldiger ist gefunden: Der Netzbetreiber

Der Ablauf:

Der im Staatsbesitz befindliche niederländische Netzbetreiber Tennet, der im vergangenen Jahr das 11.000 km lange Höchstspannungsnetz von E.on gekauft hat, ist gesetzlich verpflichtet, alle Windparks in der Nordsee anschließen. Für die Anbindung der Windparks an die Stromnetze auf dem Festland haben die Netzbetreiber feste Fristen (31).

Zwölf genehmigte Nordsee-Windparks bzw. deren Antragsteller oder Betreiber besitzen eine Netzanschluss-Zusage von Tennet:

Borkum West II, MEG Offshore, Borkum Riffgrund, BARD Offshore 1, Veja Mate, Global Tech I, Deutsche Bucht, Nordsee Ost, Meerwind, Amrumbank, Dan Tysk und Butendiek. Sieben riesige Umspann-Plattformen, an die alle Windparks angeschlossen werden sollen, sollten errichtet werden: Alpha Ventus, BorWin 1 und 2 (Borkum), HelWin 1 und 2  (Helgoland),  SylWin 1 (Sylt) und DolWin 1 (Dollart) – siehe Abb.3. In Betrieb sind Alpha Ventus und BorWin 1; bei drei weiteren ist die Fertigstellung  z.T. um 1,5 Jahre verzögert.

Am 22. November 2011 startete Tennet einen ersten Versuchsballon: Er sehe Probleme bei deren Anbindung. Die Errichtung von Anschlüssen sei in der bisherigen Form nicht länger möglich, zitierte die SZ aus einem Brief der Geschäftsführung an Kanzleramt, Umwelt- und Wirtschaftsministerium. Wegen der steigenden Zahl von Anschlussinteressenten "stießen alle Beteiligten an die Grenzen ihrer Ressourcen". Hinzu kämen Probleme bei der Kapitalbeschaffung. Bei allen laufenden Projekten "gingen Planung und Bau nur unter Schwierigkeiten voran". Der Zeitplan könne mangels hinreichender Finanzierung und wegen Schwierigkeiten bei der Beschaffung der Technik nicht eingehalten werden. Wahrscheinliche Verzögerung: ein Jahr.

Eine Tennet-Sprecherin betonte anschließend, alle bestehenden Projekte zum Anschluss von Windparks stünden "völlig außer Frage". Tennet wolle aber mit der Bundesregierung und den am Netzausbau beteiligten Partnern "darüber diskutieren, wie der Anschluss der Anlagen auch in Zukunft geleistet werden könne" (11).

Dieser Brief erreichte die Regierung kurz nachdem die Bundesnetzagentur Anfang November 2011 die Rendite-Obergrenze für die Netzgesellschaften lediglich auf immer noch stattliche 9,05 % gesenkt hatten – und nicht, wie zunächst geplant, auf 8,2 %.  "Der Vorwurf, in Deutschland seien Investitionen in die Netze nicht attraktiv, sollten nun endgültig vom Tisch sein", kommentierte der damalige Präsident der Agentur, Matthias Kurth.  Verbraucherschützer beklagten, dass die Netzbetreiber ihre Renditen auf Kosten der Verbraucher erhöht hätten.

Kontra gab es umgehend von Tennet: "Eine Rendite von 9,05 % ist im internationalen Vergleich für viele Investoren oft nicht ausreichend", erklärte Tennet- Sprecherin Hörchens.  Sie fügte hinzu, daß es schliesslich um 13.000 MW Offshore-Leistung in Nord- und Ostsee sowie um noch einmal 12.000 MW an Land ginge (4).

Möglicherweise ist aber diese Renditebetrachtung eher akademischer Natur. Felix Goedhart, der Vorsitzende der Capital Stage AG, einer Hamburger Investment- und  Betreiberfirma von Solar- und Windparks, stellte nüchtern fest: "Zurzeit sind Offshore-Windparks aus Investorensicht völlig unattraktiv. Es ist ratsam, bei Offshore-Wind zu drosseln, Erfahrung zu sammeln und dadurch große Fehler zu vermeiden, um dann in Ruhe die Ausbauziele zu erreichen".  Eine Empfehlung, die in Berlin auch Dietmar Schütz, Präsident des Bundesverbandes Erneuerbare Energien, gab: "Wir sollten im Offshore-Bereich die Kurve wesentlich flacher halten und das Ganze von der Kostenseite her betrachten". Wie sich zeigt, denkt die Regierung nicht daran, diesen Ratschlägen zu folgen.

Jetzt ist die Energiewende in Gefahr

In einem Brief vom 6. Dezember 2011 warnte daraufhin RWE die Bundesregierung unvermittelt vor einem Scheitern der Energiewende. Begründung: Die "zeitliche Realisierung von Netzanschlüssen" bei Offshore-Windparks hätte sich "dramatisch verschärft". Der Ausbau des Sektors und damit auch die Ziele der Bundesregierung seien massiv gefährdet. Und. "Wir selbst sind durch diese Entwicklung in eine schwierige Lage geraten" (13). Eine Sprecherin von RWE-Innogy bezifferte den durch die Verzögerung entstandenen Schaden auf einen dreistelligen Millionenbetrag. Eine Schadensersatzklage sei nicht ausgeschlossen.

Die RWE-Vorstände hatten auch gleich einen Vorschlag parat: Die Bundesregierung möge die EEG-Vergütungen für Offshore-Windstrom aus den betroffenen Anlagen erhöhen  oder die Dauer dieser Zahlungen verlängern.

Dies ist insofern interessant, als der Energiekonzern bereits in seiner ersten Reaktion auf die ihm nicht vom Staat zugefügten Schäden sofort auch die Stromverbraucher zur Kasse bitten möchte, die bekanntlich die EEG-Vergütungen für Ökostromerzeuger zu bezahlen haben.

Der SPIEGEL stellte dazu fest, daß in Berlin "wenig Bereitschaft bestünde, das nach  zähen Verhandlungen verabschiedete Gesetzespaket zum EEG und zu Energiefragen wieder aufzuschnüren". Tatsächlich war die Bundesregierung zu diesem Zeitpunkt zwar erschreckt, aber noch nicht genügend weichgekocht.

"Anpassung der Rahmenbedingungen"

Gegen Jahresende legte Tennet nach: Es verbreitete sich die Nachricht, dass Tennet "bis zu einer Anpassung der Rahmenbedingungen" an die rasante Entwicklung keine weiteren HGÜ-Netzanbindungen (Hochspannungs-Gleichstrom-Übertragung) für Offshore-Windparks mehr in Auftrag gibt.  Quasi über Nacht habe es einen Stopp von Investitionen gegeben. Auch der Netzbetreiber hatte jetzt vor allem "bessere Rahmenbedingungen", also Hilfen vom Staat im Auge. Eigentlich eine recht ungewöhnliche Reaktion auf eine schwierige wirtschaftliche Lage, in die man sich schliesslich selbst gebracht hatte. Ob daran eventuell auch weitere Geschäftspartner von Tennet  eine Mitschuld traf, wie Tennet es später erklärte, sollte allein zwischen diesen geklärt werden. So funktionierte zumindest bisher die Wirtschaft in Deutschland.

Zu diesem Zeitpunkt war bereits bekannt, daß Tennet in Finanzierungsproblemen steckte.  Erst im Juni 2012 erfuhr man Zahlen: Nach eigenen Angaben hätte Tennet bis dahin 6 Mrd. Euro in die deutsche Energiewende investiert und müsste für die noch folgenden Offshore-Netzanschlüsse weitere 15 Mrd. Euro nachlegen.

Auch die Behörden sind jetzt schuld

RWE meldete sich am 10. Januar 2012  mit neuen Vorwürfen. Jetzt hatte man den Bund als neuen Schuldigen im Visier: Die Genehmigungsbehörde Bundesamt für Seeschiffahrt und Hydrographie (BSH) in Hamburg:  Beim Bau des Windparks Nordsee-Ost seien langwierige Genehmigungsvorgänge Schuld an der Verzögerung, so der damalige Vorstandsvorsitzende Prof. Dr. Fritz Vahrenholt. Auch für die beiden anderen Energieunternehmen Wind MW GmbH und E.on Climate & Renewables würden die Genehmigungshindernisse in der Netzanbindung der Windparks an der deutschen Küste Probleme bereiten (18).

Noch traten sich die Beteiligten gegenseitig vor das Schienenbein: Die Geschäftsführerin des Offshore-Forums Windenergie, Ursula Prall, erklärte Anfang Februar, "daß das eigentliche Problem darin bestünde, dass die Genehmigungsanträge (beim BSH) so maßlos spät gestellt werden" (4).

Das Vorzeigen der Folterinstrumente für die Regierung: Baustopp

Am 11. Februar 2011 holte dann E.on den großen Hammer heraus und warnte vor  einem Baustopp bei allen Hochsee-Windparks – mit der Konsequenz des Scheiterns aller Ausbaupläne der Regierung. Dieses Problem gefährde die Energiewende ganz akut – womit E.on die magische Floskel aussprach.

Die Stromnetzbetreiber kämen mit dem Anschluss der Windparks nicht hinterher, sagte Sparten-Chef Mike Winkel der "Berliner Zeitung". Die Situation sei katastrophal. "Niemand wird weiter investieren, wenn der Netzanschluss so unsicher ist wie derzeit, weder E.on noch andere".

Konkreter Anlass: Der erste große Offshorewindpark Amrumbank West werde von Tennet voraussichtlich erst in 3 Jahren mit dann 15 Monaten Verspätung angeschlossen (12).

Winkel ließ noch einen Rundschlag gegen alle anderen Beteiligten folgen: Die Netzbetreiber hätten sich selbst über- und die Probleme unterschätzt. Zweitens seien die finanziellen Anreize für die Netzbetreiber unzureichend , da ihnen die Regulierungsbehörde Investitionen nicht besonders hoch vergüte (s.o.). (Abgesehen von dem verbalen Fußtritt wird Tennet das sehr gerne gehört haben.)

Drittens schafften es die Lieferanten nicht, die benötigten Kabel herzustellen.  Weiterhin beklagte Winkel "ein großes Durcheinander bei den Behörden".

E.oN sucht übrigens inzwischen selbst Hilfe bei Finanzinvestoren für den Windpark Amrum-Bank-West

Nach dem  Schlag von E.on in Richtung Bundesregierung legten nun auch RWE und Tennet  nach:

dapd meldete in der letzten  Februarwoche, daß sowohl Tennet als auch RWE den Ausbau von weiteren Windparkprojekten auf See gestoppt hätten. Beide Unternehmen forderten von der Politik "verlässlichere Rahmenbedingungen".

"Wir werden zunächst nur noch die bestehenden Projekte weiterverfolgen", sagte eine Tennet-Sprecherin. Eine finanzielle Kapazitätsgrenze sei erreicht.

Wie dieses "Weiterverfolgen der bestehenden Projekte" angesichts der massiven Klagen gerade der an bestehenden Projekten Beteiligten praktisch aussehen soll, erklärte sie leider nicht.

Zur RWE-Entscheidung nannte der Finanzchef von RWE-Innogy Hans Bünting die fehlende Rechtssicherheit und fehlende belastbare Regelungen für den Fall eines späteren Netzanschlusses.

Dieser Vorstoß zielte  die Haftungsfrage bei Verzögerungen.  Offenbar hatte man sich darauf verständigt, daß es für alle  Unternehmen besser wäre, wenn der Staat mit anderen "Rahmenbedingungen" für die Haftung die Risiken selbst tragen würde. Die weitere Entwicklung bestätigte das.

Auch die finanziellen Anreize seien unzureichend

Tennet beklagte inzwischen, daß „die finanziellen Anreize für Netzbetreiber unzureichend“ seien – unter Benutzung der gleichen Wortwahl wie E.on-Mann Winkel.  Von den laut Energiekonzept der Bundesregierung für Ende 2022 geplanten Windkraftanlagen mit 13.000 MW Leistung in Nord- und Ostsee habe Tennet nun die Anbindung von rund 5.300 MW auf den Weg gebracht. Mehr sei kostenmäßig für ein Einzelunternehmen nicht möglich. Im Klartext: Bitte höhere  Renditegarantien (15).

Weil der niederländische Staat als 100-prozentiger Eigentümer der Muttergesellschaft Tennet, die Anfang 2010 das Nord-Stromnetz von E.on (zuvor „Transpower“) übernommen hat, vermutlich nicht mit neuem Kapital die Probleme der deutschen Tochter Tennet TSO GmbH und die deutschen Windkraft-Probleme lösen wollte – zumindest nicht zu diesem Zeitpunkt – , hatte Tennet eine neue Rettungsidee – auf Kosten Dritter:

Eine deutsche Gleichstrom-Netzgesellschaft ?

In einem Brief an Wirtschaftsminister Rösler, über den WELT Online am 20.2.2012 berichtete, schlug Tennet die Gründung einer deutschen Gleichstrom-Netzgesellschaft vor (16), denn Investitionen von 15 Mrd Euro allein für Offshore-Anbindungen seien nicht von einer einzigen Netzfirma zu tragen. Diese sollte aus den 4 großen Übertragungsnetzbetreibern (ÜNB) bestehen: Amprion (früher RWE), Tennet , 50Hertz (Ex-Vattenfall) und EnBW-Netze. Die drei übrigen Netzbetreiber, die sich bereits zusammen mit Tennet seit Wochen in einer „Arbeitsgemeinschaft  Beschleunigung Offshore“ im Bundeswirtschaftsministerium  mit diesen Problemen beschäftigen, zeigten sich  von Tennets Vorpreschen  überrascht bis befremdet. Alle wiesen diesen Vorschlag zurück.

„Tennet habe beim Kauf des E.on-Netzes gewusst, welche Aufgaben anstünden“, kommentierte Amprion. "Vor diesem Hintergrund verwundert es, dass sich Tennet nicht in der Lage sieht, die Investitionen zu tätigen", sagte ein Unternehmenssprecher. Eine gemeinsame Offshore-Gesellschaft bringe hier keinen Mehrwert.  "Weder ändert sie etwas an den Investitionsbedingungen noch etwas an der Intensität der gemeinsamen Netzentwicklungsplanung".

Diese berechtigte Entgegnung weist auf die tatsächlichen Motive von Tennet hin:  Dem niederländischen Staat als alleiniger Eigentümer des Netzbetreibers wurden offenbar die anstehenden Finanzierungsanforderungen – über die man sich dort in der Tat von vornherein nicht im Zweifel sein konnte, wie Amprion nüchtern feststellte  – einfach zu unangenehm. Man hätte entweder die Finanzierungsausstattung von Seiten des niederländischen Staates erhöhen müssen, wodurch die Frage aufgetreten wäre, was es die Niederlande angeht, wenn Deutschland seine  Offshore-Windkraft in extremer Weise ausbauen will. Oder man hätte sich um externe Investoren bemühen müssen, was man damals offensichtlich noch nicht wollte.

Die marktwirtschaftliche Lösung in einem solchen, durchaus üblichen Fall wäre der Verkauf von Tennet  – allerdings unter Hinnahme und Abschreibung eventuell bereits eingetretener Verluste.  Der Käufer könnte dann mit frischem Geld weitermachen. Diese normale Lösung gefiel den staatlichen Gesellschaftern anscheinend gar nicht.

Also hat man sich damals offenbar dazu entschieden, Tennet zu behalten, aber nichts mehr zu investieren und statt dessen die deutsche Regierung mit einem Ausbau-Stopp und der Schreckensvision vom Scheitern der Energiewende unter Druck zu setzen, damit sie "die Rahmenbedingungen" ändert.

Die Betreiber der Windparks haben diese Strategie übernommen, da sie davon ebenfalls profitieren können. Wie sich später zeigte, war das sehr wirksam.

Die unschlagbare Idee: Sozialisierung der Schäden

Tennet trug in diesem Brief noch eine zweite Idee vor: Vor weiteren Aufträgen für den Anschluss von Offshore-Windparks müsse es bei der Haftung neue Regeln geben, heißt es in dem Brief.  Wo Versicherungen nicht mehr einsprängen müsse eine „Sozialisierung der Schäden“ (wörtlich !) ermöglicht werden. Schöner kann man das Abwälzen der Risiken auf die Steuerzahler und Stromverbraucher nicht ausdrücken.

Diese Schadens-Sozialisierungs-Idee gibt im Übrigen einen Hinweis auf die Einschätzung der Offshore-Risiken  durch die Versicherungen. Dort waren offenbar nüchterne Fachleute am Werk, die sich an diesen unberechenbar risikoreichen Aktivitäten nicht beteiligen wollten.

Es sei denn, der Staat nimmt ihnen die Risiken ab, was für Versicherungen der Idealfall wäre – und im Normal-Kapitalismus eigentlich unmöglich. Aber bei der Energiewende ist nichts unmöglich – siehe unten.

Am 2. März meldete sich der Sprecher der Stiftung Offshore-Windenergie, Thorsten Falk, neben einer nüchternen Schilderung der Situation mit Feststellungen, die nicht so ganz in die bislang ausgeführten Rundumschläge gegen die angeblich Schuldigen passten:

Die Behörden seien nicht der Grund für die gemeldeten Verzögerungen.

Und: "Die Investitionen in die Netze sind ein vergleichsweise sicheres Investment, wenn tatsächlich Renditen von bis zu 9 % erreichbar sind".

Die Versicherer melden sich zu Wort

Es dauerte bis Mai, bis sich Vertreter der Versicherungen zu dem Thema zu Wort meldeten. Achim Sandhövel, Chef der Allianz-Klimasparte, erklärte am 10.6.2012 in einem dpa-Interview auf die Frage "Was erwarten Sie, damit institutionelle Investoren wie Allianz in großem Stil in Offshore-Windanlagen investieren ?" : "Der Staat muss Anreize schaffen, damit Stromspeicher gebaut und Leitungen gelegt werden. Manchen Netzbetreibern fehlt das Geld für den Ausbau. Darum sind gesetzliche Rahmenbedingungen eine wichtige Grundlage, damit Private investieren." Und weiter: "Der Gesetzgeber ist vor allem an einer Stelle gefordert: Es ist kaum vorstellbar, dass die Privatwirtschaft alle Risiken schultern kann. Einige Unternehmen mussten wegen der Probleme bei den Offshore-Windparks in den vergangenen Quartalen bereits Rückstellungen in dreistelliger Millionenhöhe bilden. Hier müssen Risiken auf mehrere Schultern verteilt werden…." (19).

Daß eben dafür die Versicherungswirtschaft einschließlich der Rückversicherungen da ist, scheint Herrn Sandhövel nicht zu berühren.

Die aktuelle Situation bei den Versicherungen beschrieb eine Meldung der "Wirtschaftswoche" am 9.6.2012 (20):

Rückversicherer wie Hannover Rück und Munich Re sähen große Risiken für Offshore-Windparks in der Nordsee. "Nehme der Aufbau der  Windparks Fahrt auf, könne es schwer werden", wird ein Rückversicherer zitiert. Zwar habe etwa Munich Re einige Policen für Sachschäden gezeichnet. Bei Spezialrisiken wie der Verfügbarkeit von Wartungsschiffen und dem Funktionieren der Windturbinen halte sich der Konzern aber zurück. Man analysiere derzeit die Risiken aus Wind und Wellengang. "Hier brauchen wir noch viel Expertise", zitiert WiWo den Munich Re-Vorstand Thomas Blunck.

Auch andere Versicherer seien vorsichtig. So versichere die Hannover Rück zwar den Windparkbau. Von Betriebsunterbrechungen nach Stürmen oder Kabelschäden lasse sie aber die Finger.  Der Wintersturm über der Nordsee gehört zu den größten Risiken der Rückversicherer. "Schlägt der richtig zu, fällt nicht nur eine Anlage aus, sondern gleich eine Vielzahl", sagt einer. Dann könnten die Anlagen zudem lange stillstehen, wenn sie etwa zwischen Oktober und März wegen schlechten Wetters nicht gewartet werden. Schließlich stünden die deutschen Windparks oft mehr als 100 Kilometer vor der Küste.

Die Versicherer haben dramatische Warnungen nicht nötig. Sie kalkulieren berechenbare Risiken genau – und lehnen die Versicherung schlecht kalkulierbarer, hoher  Risiken schlicht ab. Sie sind somit in dem gesamten Offshore-Drama die einzigen  Mitspieler, die gegen Energiewende-Visionen und –Heucheleien immun sind.  Sie können in Ruhe abwarten, ob es den Windparkerrichtern und Netzbetreibern mit ihrer Blockadedrohung gegen die Regierung gelingt, bessere "Rahmenbedingungen" und Haftungsregelungen zu erzwingen. In diesem Falle werden sie neu kalkulieren.

Tennet rechnet ab

Tennet meldete sich noch einmal am 2.5.2012 durch seinen Geschäftsführer Lex Hartmann. Er präsentierte eine Zusammenstellung aller Argumente und Forderungen (21):

–        Es gebe einen dramatischen Engpass in den Anschlüssen der Windparks.

–        Zugleich gebe es einen wahren Boom an Anträgen für Nordsee-Windparks.

–        "Unsere Probleme sind Material, Produktionskapazitäten, enge Zeitfenster für die Arbeiten auf See. Eigentlich braucht man bei solchen Großprojekten Testphasen. Diese Zeit haben wir nicht; wir müssen mit den Projekten sofort anfangen, ohne Lernkurve – um die ehrgeizigen Ziele des Wirtschafts- und des Umweltministers in die Tat umzusetzen.

Anmerkung: Eine schwache Ausrede. Da wir uns nicht in der DDR befinden, hätte Tennet angesichts dieser absehbar unakzeptablen Situation ja auch die Übernahme dieser Arbeiten ablehnen können. Schließlich ist es nicht die Aufgabe eines niederländischen Staatsunternehmens, die "ehrgeizigen"  Ziele deutscher Ministerien  um den Preis des eigenen Untergangs in die Tat umzusetzen.

–        Mit den "richtigen Rahmenbedingungen", für die die Politik sorgen muss, sei das zu schaffen. Nötig sei ein langfristig angelegter Offshore-Plan (Anmerkung: ..den es in der Tat bis heute nicht gibt), die schnelle Klärung der Haftungsfrage und eine Lösung für die künftige Verteilung der nötigen milliardenschweren Investitionen auf "mehrere Schultern". Deshalb die BMU-BMWi-Ankündigung eines Offshore-Netzentwicklungsplans vom Juli 2012 – s.u. und (25))

–        "Wir haben uns nicht verschätzt. Uns geht finanziell nicht die Puste aus. Wir haben für die laufenden Projekte bereits 5,5 Mrd Euro ausgelöst. Mehr kann man von einem einzelnen Unternehmen nicht verlangen. Wir gehen von mindestens 15 Milliarden Euro für die Offshore-Anbindungen am Ende aus".

–        Es geht vieles durcheinander. Wir benötigen einen langfristigen Plan, wann was wo gebaut werden soll. Was die Bundesnetzagentur für die benötigten Stromleitungen an Land vorlegen will, brauchen wir auch für Offshore – und beides muss miteinander verzahnt sein.

–        Unter einem wahren Tsunami von Bau- und Projektanfragen droht die gesamte Branche durcheinender zu geraten.

–        Neben einem langfristigen Offshoreplan geht es uns vor allem um Haftungs- und Kapitalfragen.

–        (Auf die Frage nach Wunschpartnern): "Das könnte z.B. die Kreditanstalt für Wiederaufbau KfW sein".   (Anm.: .also eine staatliche Bank. Wieder ein Ruf nach dem Staat.). Minister Rösler hatte das allerdings schon mehrfach zurückgewiesen.

Interessant war die Mitteilung von Tennet vom 25.06.2012, in der nun auch der Firma Siemens eine erhebliche Mitschuld an Verzögerungen angelastet wurde: Man sei von diesem Generalunternehmer darüber informiert worden, daß es bei der Installation von zwei der vier im Zentrum der Windpark-Cluster liegenden zentralen Stromumspann- und Gleichrichter-Plattformen HelWin alpha (bei Helgoland) und BorWin Beta (bei Borkum) zu neuerlichen Verschiebungen komme.

RWE: Die Regierung muss eine Lösung suchen

Am 24.06.2012 meldete sich der neue RWE-Chef Peter Terium mit der Nachricht, daß sich der Anschluss des Windparks Nordsee Ost noch mehr verzögern wird. Tennet habe mitgeteilt, daß es weitere massive Verzögerungen gebe. Damit sei die Wirtschaftlichkeit des Projektes nordöstlich von Helgoland "extrem gefährdet".  Er forderte die Regierung auf, schnellstens eine Lösung des Problems zu suchen und mit den Investoren über einen "wirtschaftlichen Ausgleich" zu reden.

Am 01.07.2012 trat Terium mit einer neuen  Idee auf, die er offenbar für eine  Drohung hielt: Die aktuellen Probleme könnten der Grund dafür sein, daß in Zukunft möglicherweise ein großer Teil der für deutsche Gewässer geplanten Offshore-Parks vor den Küsten Großbritanniens gebaut würden. 

RWE verkündete am 25.07.2012 die Verschiebung seines Investitionsbeschlusses für den 40 km nördlich Juist geplanten Windpark Innogy Nordsee 1 bis mindestens Anfang 2013. Hauptgrund für den Aufschub seien die unklaren Haftungsregelungen im Falle eines verzögerten Netzanschlusses (23).  Man verwies auf schlechte Erfahrungen beim Windpark Nordsee Ost (18).

Hiermit erhöhte RWE den Druck für neue, günstigere Haftungsregelungen, ohne dass es bereits Probleme beim Netzanschluss eines noch nicht existenten RWE-Windparks geben konnte.  Jetzt kämpfte RWE  also für Tennet.

Noch mehr Schuldige

Am 27.06.2012 meldete sich der Windpark-Betreiber Trianel mit der Ankündigung, daß aufgrund von Verzögerungen beim Netzanschluss durch Tennet die Inbetriebnahme seines Windparks Borkum bis zum 2. Quartal 2013 verschieben werde. Aber es gebe noch weitere Gründe: Wegen Produktionsengpässen bei einigen Zulieferern müsse Trianel den gesamten Einrichtungszeitplan neu ausrichten. Auch hänge die Fertigung der 700 Tonnen schweren dreibeinigen Fundamente (Tripods) durch die Weserwind AG deutlich hinter dem Zeitplan. Auch die Fertigstellung der Umspannplattform durch den Hersteller Alstom Grid – gemeint war BorWin Beta; siehe Tennet-Mitteilung vom 25.06. – sei erheblich verzögert (22).

Offensichtlich stimmte Tennets Hinweis auf eine ganze Reihe von Verzögerungs-Ursachen, für die nicht Tennet, sondern andere Unternehmen verantwortlich sind.

Trianel-GF Klaus Horstick verzichtete ebenfalls nicht darauf, die Absicht der Regierung zu begrüßen, im Sommer einen Gesetzesentwurf vorzulegen, der insbesondere die Haftungsfragen löst und den Offshore-Ausbau unterstützt. Was eine gesetzliche Regelung etwas daran ändern könnte, dass Zulieferer ihren Auftrag nicht zeitnah erfüllen, erklärte er leider nicht.

Die Windreich AG durchschlägt den gordischen Knoten

Die letzte Aktion in dieser Reihe von Negativ-Nachrichten, Forderungen und Drohungen geschah am 14.08.2012.  Der schwäbische Windpark-Entwickler Windreich AG bezog sich auf die Tennet-Mitteilung von der Verschiebung des Baus der Leitungen für eine Umspann-Plattform – offenbar BorWin 2 –  und die Anbindung des geplanten Windparks Deutsche Bucht 94 km nördlich Borkum auf unbestimmte Zeit verschoben (32).  Windreich hat daraufhin bei der Bundesnetzagentur einen Antrag auf ein Mißbrauchsverfahren gegen Tennet gestellt – das erste Verfahren dieser Art. Tennet könnte im schlimmsten Fall vor einem Zivilgericht auf Millionen-Schadenersatz verklagt werden (28).

Eine Tennet-Sprecherin verwies darauf, daß man sich trotz der bisherigen Probleme auf einem guten Weg sehe. Besonders hilfreich seien die neuen Haftungsregelungen. Allerdings gibt es diese noch gar nicht – und wenn sie erlassen werden, müssten sie für den vorliegenden Fall bezüglich ihrer Wirksamkeit rückdatiert werden.  Aber dies gehörte zur Kategorie "Thema verfehlt".

Denn die Windreich AG hatte einen gordischen Knoten durchschlagen: Zunächst leitete die  Bundesnetzagentur das Mißbrauchsverfahren gegen Tennet ein, wie Behördenpräsident Jochen Homann gegenüber der FAZ am 15.08.2012 bestätigte. Für den Netzbetreiber kam es nun aber noch wesentlich schlimmer:  "Aus heutiger Sicht ist völlig klar, daß die Bundesnetzagentur Tennet nicht als Übertragungsnetzbetreiber zertifizieren kann. So steht es in unserem Entwurf, den wir zur Konsultation an die Europäische Kommission geschickt haben", sagte Homann.  Grund ist die von Tennet selbst bestätigte mangelnde Kapitalausstattung. Dem Unternehmen droht ein Bußgeld von 1 Million Euro,  aber weitaus größere finanzielle Folgen könnten sich aus dem laufenden Mißbrauchsverfahren ergeben.

In der FAZ forderte Homann das Unternehmen auf, "ernsthaft nach kapitalstarken privaten Finanzierungspartnern zu suchen".

Die angedrohte Verweigerung der Zertifizierung wäre für Tennet die größte anzunehmende Katastrophe und vermutlich das Ende seiner Aktivitäten in Deutschland.

Während alle anderen von den Verzögerungen betroffenen Windparkerrichter über ein halbes Jahr lang ein wirkungsloses Gejammer von sich gaben und von der Regierung bessere "Rahmenbedingungen", einen "wirtschaftlichen Ausgleich", höhere und länger geltende EEG-Vergütungen und weitere Hilfsaktionen forderten,  hat Windreich gehandelt und in wenigen Tagen eine nachhaltige Verbesserung der Situation erreicht, wie sich unmittelbar zeigte.

Die niederländische Regierung lenkt ein: Private Investoren gesucht

Nur zwei Tage nach der Ankündigung in der FAZ  sagte der niederländische Wirtschaftsminister Maxime Verhagen nach einem Treffen mit Rösler, seine Regierung sei bereit, zu erlauben, daß das Staatsunternehmen Tennet weitere Investoren  in seine Projekte einbeziehe (29). Verhagen erklärte weiter, daß Tennet Deutschland auch mehr Privatkapital für künftige Investitionen akquirieren könne und wolle. "Dagegen hat die niederländische Regierung überhaupt keine Einwendungen".

Dieses Happy End nannte Rösler einen Durchbruch für ein wichtiges Feld der  Energiewende. Mit der Klärung von Haftungsfragen (s.o.), die das Kabinett noch im August beschließen soll, sei dann der Weg frei für den dringend notwendigen Ausbau der Windenergie auf See.

Dazu allerdings hatte seine Kollegin Aigner ganz andere Vorstellungen – s.u. (26).

Wirtschaftsminister Rösler sieht sich immerhin in der Frage der bislang fehlenden Investitionen in das Offshore-Stromnetz bestätigt: Er hatte ein staatliches Engagement Deutschlands bei der Netzanbindung und deren Finanzierung etwa über die Staatsbank KfW wiederholt abgelehnt.  Er beharrt darauf, daß dies eine Sache privater Investoren sei. Daß dieses Thema damit dauerhaft vom Tisch ist, darf man zumindest hoffe.

Die Front gegen Berlin steht weiterhin

RWE-Teriums Forderung vom 24.06. war die klarste Botschaft an die Regierung. Die Regierung, und nicht etwa die RWE, sollte eine Lösung für das nicht von Berlin  verschuldete Problem suchen – und zwar schnellstens. Und abermals die Regierung – und nicht etwa die RWE – sollte mit Investoren über Subventionen für das Versagen der Industrieunternehmen reden, denn nichts anderes meinte der "wirtschaftliche Ausgleich".  Zumindest das hat sich nun auf ganz einfache Art erledigt – bis auf die weiterhin aktuelle Forderung nach höheren Renditen für Investoren. Diese werden sich noch damit melden; sie haben gute Karten..

Nach dieser Tennet-Wende wird sich die Interessengemeinschaft der Windparkbetreiber, Netzgesellschaften, Hersteller und Zulieferer,  Versicherungen, Lobbyverbände, Hafenstädte, Stiftungen und anderer Beteiligter auf das verbliebene Thema Haftungsregelung konzentrieren. Die gemeinsame Drohung: Entweder die weitgehende Entlastung von allen großen Risiken oder das spektakuläre und schmähliche Ende der im Prinzip großartigen Energiewende.

Die problematische Mixtur: Geringe Erfahrung, Zeitdruck und viel Geld.

Wo in Europa Erfahrungen mit Offshore-Windanlagen existieren, zeigt eine Übersicht:

Seit 1991 wurden in 7 Ländern Europas 40 Offshore-Windparks mit insgesamt 1414 Windrädern (WKA) in Betrieb genommen; die weitaus meisten davon seit 2003.      Die Verteilung:

– Großbritannien 624 WKA

– Dänemark        405    "

– Belgien             146    "

– Schweden        94    "

–  Finnland          10    "

–  Irland                 7    ".

Demgegenüber hat Deutschland bisher 2 Offshore-Windparks voll (2009 Alpha Ventus  und 2011 Baltic 1) und einen (BARD Offshore 1) 2011 teilweise in Betrieb genommen.

Diese bei unseren Nachbarn über eine lange Zeit und mit sehr vielen Anlagen gesammelten Erfahrungen konnte kein "ehrgeiziges" und mit massiven Subventionen angereichertes Energiewende-Programm innerhalb kürzester Zeit ersetzen. Die sich jetzt häufenden Pannen und Verzögerungen sind daher kein Zufall, sondern die zwangsläufige Folge der inkompetenten Politiker und Ministerien, die das zu verantworten haben.

Wenn Vertreter von Wind- und Stromnetzwirtschaft einen Systemwechsel bei der Errichtung von Offshore-Windparks und bei den zugehörigen Netzanbindungen fordern und wenn das etwa zwei bis drei Jahre vor dem Beginn der Arbeiten auf See geschieht, wäre das zwar knapp, aber wohl gerade so in Ordnung.

Wenn aber genau dies – wie gerade Mitte August 2012 erfolgt -,  erst geschieht, wenn bereits die ersten Anlagen gebaut wurden, weitere im Bau und eine Vielzahl weiterer Windparks in der Planung und zum Teil schon genehmigt sind, dann handelt es sich um eine Blamage ersten Ranges für die Regierung und ihre Behörden, die ein gigantisches Investitionsprojekt ganz offensichtlich schlecht durchdacht, unvollständig und unprofessionell vom Zaun gebrochen haben.

Auch für die Industrie, die sich – vom Anblick der Fördersummen geblendet – auf dieses Abenteuer einließ, sind die bisher abgelaufenen Vorgänge alles andere als schmeichelhaft.  Wie sich jetzt zeigt, fehlt es vor allem an Erfahrungen, wie oben beschrieben.

Problem-Brennpunkt Umrichter-Plattformen

In einem vorzüglichen Artikel von Jörn Klein in den vdi-nachrichten vom 17.08.2012 (24) wird auf eine große und riskante Lücke in den Standards hingewiesen: Die staatlichen Stellen, die eigentlich rechtzeitig die Standards – also Regelwerke – für Windkraft-Umrichterplattformen zu entwickeln hatten, damit die Hersteller überhaupt auf sicherer Grundlage planen und konstruieren können,  haben praktisch bis heute nichts geliefert – während schon fleißig gebaut wird.

Diese großen Bauwerke sind die technischen Herzstücke einer ganzen Gruppe von zugehörigen Windparks. Alle Leitungen einer solchen Windpark-Gruppe führen zu einer dieser Umrichterplattformen; von dieser führt dann ein Gleichstrom-Hochspannungskabel (HGÜ) zum Festland.

Abb. 3 zeigt die Planung für die Nordsee.

Abb. 3: Ausgewählte Windpark-Areale in der Nordsee. Die geplanten Windparks – die jeweils bis zu 80 Windräder enthalten können –  sollen durch Kabel mit Umspann-Plattformen verbunden werden. Dort wird der angelieferte Windstrom zu Hochspannungs-Gleichstrom umgewandelt, der dann mit langen Seekabeln an die Umspannwerke an Land weitergeleitet wird. Quelle: DER SPIEGEL 51/2011.

Siehe auch Tennet-TSO (31).

Die Hersteller behelfen sich in ihrer prekären Situation mit der teilweisen Anwendung der Standards z.B. der norwegischen Öl- und Gasindustrie (Norsok) und auch der internationalen Convention for the Safety of Life at Sea (Solas).

"Hinsichtlich der Regelwerke herrscht einige Verwirrung bei denjenigen, die die Umrichter-Plattformen entwickeln und betreiben", beschreibt Tobias Bublat (Senior Engineer beim Zertifizierer GL Renewables Certifications, einer Tochter des Germanischen Lloyd) die gegenwärtige Situation.

Die Kernzelle  aller Genehmigungen im Offshore-Windsektor ist das Bundesamt für Seeschiffahrt und Hydrographie (BSH) in Hamburg.  Von dort hört man Klartext: "Bei den Generalunternehmern, die die Umrichterplattformen errichten, ergeben sich Verzögerungen, weil die Unternehmen offenbar keine vereinheitlichenden Technikvorgaben haben – also "Kochbücher" wie die DIN-Vorschriften fehlen", sagt der BSH-Jurist Christian Dahlke. "Manche große Unternehmen sind völlig ahnungslos ins Offshore-Geschäft gestolpert".

Der BSH-Jurist erlebt es immer wieder, dass Plattformen im Bau bereits weit fortgeschritten sind, wenn er endlich die technischen Unterlagen für die beantragte Genehmigung bekommt. 

Für die Windräder gibt es einen BSH-Konstruktionsstandard, der die technischen Regelwerke für die drei Phasen Ausführung, Betrieb und Rückbau berücksichtigt.  auch die Zertifizierer haben schon vor Jahren Richtlinien für die Zertifikation von Windturbinen aufgestellt. Windrad-Konstrukteure haben also kein Problem.

Für die Umrichterplattformen gibt es das immer noch nicht.  Man legt nur die Gleichbehandlung dieser Bauwerke mit dem Turbinenbau nahe – eine klägliche Verlegenheitslösung, die die Plattform-Entwickler im Regen stehen lässt.  Hin und wieder hilft vielleicht Norsok.  Aber eine riesige Plattform voller Hochspannungsanlagen ist leider keine Ölbohrplattform; die Standards der Öl- und Gasförderer passen und reichen nicht. Die Hersteller müssen  improvisieren.

Für BSH-Fachleute wie  Christian Dahlke ist es schwer erträglich, eine mehrere hundert Millionen teure Umrichterplattform zu genehmigen, ohne Gewissheit zu haben, daß der Unternehmer dies auch technisch umsetzen kann. Sein Alptraum: Er erhält die Unterlagen für die Genehmigung erst dann, wenn der stählerne Riese gerade voll ausgerüstet die Werft verlässt und zur Position des Windparks geschleppt wird.

Zu diesem Thema passen die Beschwerden von Tennet und Trianel über die Probleme bei den Umrichter-Plattformen HelWin alpha und BorWin Beta (s.o.).

Siemens hatte vier Aufträge für Umrichterplattformen übernommen. HelWin 1 und BorWin II haben bereits 1,5 Jahre Verzögerung. Ein weiteres hinkt dem Zeitplan hinterher. Konzernchef Peter Löscher fand deshalb bei der Vorstellung der Zahlen für das zweite Quartal 2012 im April, als er einen Verlust von 278 Mio Euro erklären mußte, deutliche Worte: Man hätte sich nicht vier Plattformen vornehmen sollen, sondern nur eine. "Wir haben diese Projekte falsch eingeschätzt.  Es ist ein hochkomplexer Schiffsanlagenbau. Das ist kein Projekt, das wir mit Fixpreisen und Garantien der zeitlichen Abnahme heute in dieser Art und Weise leisten können" (30). Trotz der roten Zahlen hält Siemens an diesem Geschäftsfeld fest; der einzige Konkurrent ist ABB.

Angesichts der von der Politik geschaffenen Probleme und ihrer ausbleibenden Behebung gibt es mittlerweile harte Beurteilungen:  Thorsten Herdan, der Geschäftsführer des VDMA Power Systems, sieht die größten Probleme im Offshore-Bereich.  Seine Beurteilung. "Das Vertrauen der Investoren und Hersteller in die Worte der Bundesregierung ist nicht mehr vorhanden".

Ein Netzentwicklungsplan kommt – Jahre zu spät

In einem Eckpunktepapier des BMU und des BMWi vom 08.08.2012 (25) steht am Beginn eine erstaunliche Ankündigung:

"Durch Einführung eines verbindlichen Offshore-Netzentwicklungsplans wollen wir die Errichtung von Netzanbindungen und Offshore-Windparks zukünftig besser miteinander koordinieren. Auf diese Weise schaffen wir für alle Beteiligten mehr Planungssicherheit und stellen den effizienten Ausbau eines Offshore-Netzes sicher".

Mit anderen Worten: Diese am Beginn jeglicher Offshore-Planungen und deren Einbeziehung in die Energiewende-Gesetze stehende Selbstverständlichkeit gibt es bisher überhaupt noch nicht.  Und jetzt, nach all´ den Pleiten, Pech und Pannen,  fällt der Regierung dieses Manko auf.

Die Kapitulation

Für die Bundesregierung gab es nach den massiven Drohungen bezüglich eines Stopps jeglicher Baumaßnahmen an Offshore-Windparks zwei Möglichkeiten:

Möglichkeit 1 (die marktwirtschaftliche): 

Da man in aller Deutlichkeit erkennt, dass die "ehrgeizigen" Ziele beim Ausbau der Offshore-Windkraft mit den vorhandenen Ressourcen – zu denen insbesondere erfahrene Unternehmen, präzise Pläne (s.o.) und brauchbare Standards (s.o.) gehören –  nicht in der vorgesehenen Zeit erreichbar sind,  entscheidet man sich für ein langsameres und damit auch aussichtsreicheres Vorgehen. Man muss seine Ziele deshalb nicht aufgeben, nur sie realistischer angehen. Die offensichtlichen Drohungs- bzw. Erpressungsversuche, die auf weitgehende Zugeständnisse des Staates hinsichtlich höherer Renditezusagen und Übernahme der Haftungsrisiken hinauslaufen, nimmt man nicht ernst, weil man davon ausgeht, daß die Mehrzahl der beteiligten Unternehmen mit ihren Arbeiten auch ohne Erfüllung der Forderungen fortfahren wird, da die erzielbaren Renditen nach wie vor attraktiv sind. Man fürchtet auch nicht eine kurzfristige Pressekampagne der Drohkulisse-Betreiber, da man auf die Wirkung der Regierungsargumente setzt.  Möglichkeit 1 setzt allerdings eine die Marktwirtschaft beachtende und praktizierende Regierung voraus.

Möglichkeit 2 (die staatswirtschaftliche):

Die Regierung kapituliert, weil sie die Verbreitung der Botschaft "Die Energiewende ist gescheitert" mehr fürchtet als die Folgen des Nachgebens.

Wirtschafts- und Umweltministerium haben diese Möglichkeit gewählt. Am 08.08.2012 erklärte der Wirtschaftsminister,  dass die Haftungsfrage geklärt sei. Alle Beteiligten hätten sich auf einen zuvor vom Umwelt- und Wirtschaftsministerium skizzierten Eckpunkteplan (25) geeinigt, der beschreibt, wer haften soll, wenn Windräder auf hoher See nicht ans Netz angeschlossen werden können und den Windparkbetreibern dadurch Verluste entstehen.  Diese Haftungsregelung solle noch im Sommer 2012 ins Bundeskabinett kommen.

Die geplante Haftungsregelung sieht vor, daß die Windparkbetreiber im Falle einer nicht rechtzeitigen Anbindung oder längeren Leitungsstörung ab dem 11. Tag der Nichteinspeisung  einen pauschalierten Schadensersatz in Höhe von 90 Prozent der entgangenen EEG-Einspeisevergütung erhalten. Die Kosten dieses Schadensersatzes soll der Übertragungsnetzbetreiber tragen.  Dieser kann diese Kosten aber bundesweit und ohne Zeitverzug über eine Haftungsumlage "wälzen".  Und zwar auf die Stromkunden.  Nur bei grober Fahrlässigkeit trägt der Netzbetreiber 20 Prozent der Kosten, jedoch maximal 20 Mio Euro pro Schadensfall.  Der große "Rest" wird auch dann wieder "gewälzt".

Eine Tennet-Sprecherin erklärte daraufhin, "Das war alles, was wir wollten". Und Wirtschaftsminister Rösler bemerkte in Ergänzung zu seiner o.e. Ankündigung: "Den gesamten Ausbau im Bereich Offshore-Windenergie werden am Ende immer Verbraucher und Verbraucherinnen selber zu tragen haben"

Der Bundesverband der Verbraucherzentralen warnte deshalb vor dem Ausbau von Offshore-Windparks; wie auch schon mehrfach zuvor vor den steigenden Belastungen der Stromkunden durch die Auswirkung des EEG.

Ein Veto-Versuch der Verbraucherschutz-Ministerin

Herr Rösler und Herr Altmaier hatten bei ihren Offshore-Rettungsplänen anscheinend übersehen, daß es auch noch ein Verbraucherschutz-Ministerium gibt, dessen Chefin Ilse Aigner  ihren Job ziemlich ernst nimmt.  Die von BMWi und BMU geplanten Haftungsregelungen veranlassten sie zu einem vorläufigen Gegenschlag: Sie kündigte ihr Veto an (26).

Die an die beiden Ressortkollegen gerichtete Stellungnahme ließ an Klarheit nichts zu wünschen übrig, auch etwas Sarkasmus würzte den Text.  Die entscheidenden Sätze lesen sich wie folgt: Die Leitungen von Umwelt- und Wirtschaftsministerium hätten öffentlich hervorgehoben, "daß die Bezahlbarkeit für die Akzeptanz der Energiewende mehr Gewicht erhalten muß".  Und weiter: "Vor diesem Hintergrund sei das Verbraucherministerium über den Referentenentwurf (Anm.: das Eckpunktepapier) "sehr erstaunt" (Anm.: im ministerialen Sprachgebrauch ein schwerer Hammer) , weil er in die entgegengesetzte Richtung zeigt".

"Die Neuregelungen (….) deutlich zulasten des Stromverbrauchers, sind kaum beherrschbar und mit marktwirtschaftlichen Prinzipien nicht zu vereinbaren", betonte Aigners Ministerium.

Rösler meldete sich offensichtlich verärgert mit der Wiederholung der Drohung der Offshore-Lobby, daß dann die ganze Energiewende scheitern werde.

Es ist eine neue Qualität in der politischen Debatte, daß die Kritik an den Auswirkungen der Energiewende auf die Bürger nun im Kabinett angekommen ist, nachdem sich bereits andere CDU-Politiker dazu recht kritisch geäußert hatten. Nur einen Tag darauf kritisierte der NRW-CDU-Landeschef Armin Laschet Merkels Wirtschaftspolitik mit sehr deutlichen Worten; insbesondere schrieb er ihr ins Stammbuch, daß Arbeitsplatzsicherung wichtiger sei als die Energiewende (27).

Am 29.8. war der Aufstand der Ministerin geräuschlos abgesagt: Das Bundeskabinett beschloß die neue Offshore-Haftungsregelung.

Greenpeace nannte es aberwitzig, daß die Regierung eine weitere industriefreundliche Regelung zulasten der Bürger verabschiede. Von Kritik aus irgendeiner der im Bundestag vertretenen Parteien hörte man nichts.

Weitere Anlässe, sich über neue "Wälzungen" von Wendekosten auf die Bürger aufzuregen, stehen zahlreich bevor:

Die gerade angekündigte Abwrackprämie für alte Heizungen;  "Investitionsanreize" (sprich: Subventionen) für unwillige Investoren zum Bau neuer Kohle- und Gaskraftwerke, der sich gerade durch die Auswirkungen der Energiewende mit seinem EEG nicht mehr rentiert;  Subventionen für Energieunternehmen, damit sie ihre alten, stillzulegenden Kohlekraftwerke modernisieren und weiterlaufen lassen; die gewaltige kommende Kostenwelle für den Netzausbau, der noch gar nicht begonnen hat; die "Wälzung" der Kosten für den Seekabel-Anschluß an norwegische Wasserkraftwerke – die Liste ist unvollständig.

Ferner wird jetzt der überhastete Ausbau der Offshore-Windkraft ungebremst weitergehen und die Zusatzkosten der unvermeidlichen Pannen, Verzögerungen und Schäden  wird man ebenso behandeln, wie soeben geschehen.

Ein besonders unangenehmes Datum ist der 15. Oktober 2012, der Tag, an dem die Übertragungsnetzbetreiber jedes Jahr ihre Prognose für die Höhe der EEG-Umlage veröffentlichen müssen.  Der enorme Zubau von Photovoltaikanlagen und Windrädern dürfte sich hier entsprechend kräftig bemerkbar machen. Dann wird das Medienthema Energiearmut eine neue Dynamik erhalten. Die Politik geht windigen Zeiten entgegen.

Dr. Günter Keil St. Augustin August/September 2012

Den gesamten Beitrag können Sie auch als pdf Datei im Anhang herunterladen.

Quellen

(1) Transpower/Tennet: Tennet_Offshore 2012-07-31, Stündliche Ganglinie und

      tägliche installierte Leistung ; Darstellung: Rolf Schuster

(2) Transpower/Tennet:  Vergleich der Vollaststunden-Äquivalente von Onshore- und

      Offshore-Wind im Netz von TenneT/TSO GmbH; Darstellung : Rolf Schuster

(3)  Wikipedia: "BARD Offshore 1",  Stand 2012

(4)  Wikipedia: "Offshore-Windparks", 29.07.2012

(4)  Eva Mahnke: "Das Nadelöhr auf hoher See", 05.02.2012, www.klimaretter.info/

(5)  Thorsten Falk: "50 Monate für einen Netzanschluss", 02.03.2012,

       www.klimaretter.info/

(6)  BMU-Pressedienst Nr. 097/12: Gemeinsame Pressemitteilung mit dem BMWi:

      "Offshore-Netzausbau wird beschleunigt: Rösler und Altmaier legen Vorschlag für

       Haftungsregelung und Systemwechsel hin zu einem Offshore-

       Netzentwicklungsplan vor", 02.07.2012, www.bmu.de/ 

(7)  ZDF: Michael Braun: "Netzausbau: Der Stromkunde soll mitzahlen", "Windstille

       beim Netzausbau", 08.08.2012,

       www.zdf.de/ZDF/zdfportal/web/heute-Nachrichten/4672/23782708/978416/

(8)   dradio: Philip Banse: "Rösler im Energiewende-Gegenwind", 08.08.2012,

       www.dradio.de/dlf/sendungen/wirtschaftundgesellschaft/1834332/

(9)   Verena Kern: "Philipp Rösler und der Wind", 08.08.2012,

       www.klimaretter.info/politik/hintergrund/11727-roesler-und-der-wind/

(10) Dieter Dürand: "Energiekonzept der Regierung droht Desaster",

       Wirtschaftswoche Online, 22.6.2012,

       www.wiwo.de/unternehmen/energie/studie-zur-windkraft-

(11)  dpa, WELT Online: "Kosten für Offshore-Windparks explodieren", 10.11.2011,

        www.welt.de/wirtschaft/energie/article13719620/Kosten-fuer-offshore-windparks

(12)  Reuters,dapd, WELT Online: "E.on warnt Deutschland vor Scheitern der

        Windkraft", 14.02.2012,

        www.welt.de/wirtschaft/energie/article13867570/e-on-warnt-deutschland-vor-

(13)  Frank Dohmen, Alexander Jung. "Stress auf hoher See", DER SPIEGEL,

        17.12.2011, www.spiegel.de/spiegel/print/d-83180829.html

(14)  WELT Online: „E.on warnt Deutschland vor Scheitern der Windkraft“,

        14.2.2012,  www.welt.de/energie/article13867570/E-on-warnt-Deutschland-vor-

(15)  Daniel Wetzel: „Netzbetreiber mit Ausbau auf See überfordert“, WELT Online,

        20.2.2012, www.welt.de/dieweltbewegen/article13878199/Netzbetreiber-mit-Ausbau-auf-See-

(17)  Institut der deutschen Wirtschaft Köln: „Teurer Offshore-Strom“, Juni 2011,

        www.iwkoeln.de/publikationen/iwnachrichten/tabid/123/articleid/24588/default.aspx 

(18)  Insel Helgoland: "Verzögerung beim Ausbau des RWE Offshore-Windkraftwerk Nordsee Ost",

        11.1.2012,  www.insel-helgoland.de/?p=2129

(19)  Matthias Kamp: "Allianz-Manager fordert Staatshilfen für Windparks", Wirtschaftswoche,

        10.06.2012, www.wiwo.de/unternehmen/energie/armin-sandhoevel-allianz-manager-fordert-

         staatshilfen-fuer-windparks/6589162.html

(20)  Wirtschaftswoche: "Versicherer scheuen Ausfallrisiken von Offshore-Anlagen", 9.6.2012,

        www.wiwo.de/unternehmen/versicherer/windenergie-versicherer-scheuen-ausfallrisiken-von-

        offshore-anlagen/6720856.html 

(21)  Andreas Wildhagen: "Keiner investiert so in die Energiewende", Wirtschaftswoche, 02.06.2012,

        www.wiwo.de/unternehmen/energie/tennet-chef-lex-hartmann-keiner-investiert-so-in-die-

        energiewende/6564130.html

(22)  IWR: "Offshore-Windpark von Trianel muss auf Netzanschluss warten", 27.06 2012,

        www.iwr.de/news.php?id=21435

(23)  Jürgen Flauger, Georg Weishaupt: "RWE stoppt Windkraft-Großprojekt", Handelsblatt,

        25.07.2012, www.handelsblatt.com/unternehmen/industrie/neue-energiequellen-rwe-stoppt-

        windkraft-grossprojekt/6917606.html

(24)  Jörn Klein: "Fehlende Standards für Konverterplattformen verzögern Bau von Offshore-

         Windparks". vdi-nachrichten, 17.08.2012.

(25)  Gemeinsame Pressemitteilung des BMU mit dem BMWi: "Offshore-Netzausbau wird

        beschleunigt: Rösler und Altmaier legen Vorschlag für Haftungsregelung und Systemwechsel

        hin zu einem Offshore-Netzentwicklungsplan vor", 02.07.2012, BMU-Pressedienst Nr. 097/12

(26)  n-tv: "CSU löst Koalitionskrach aus", 21.08.2012,

        www.n-tv.de/politik/csu-loest-koalitionskrach-aus-article7022026.html

(27)  SPIEGEL-Online: "Laschet kritisiert Merkels Wirtschaftspolitik", 22.08.2012,

        www.spiegel.de/politik/deutschland/nrw-landeschef-laschet-kritisiert-merkels-wirtschaftspolitik-

        a-851476.html

(28)  manager magazin online: "Missbrauchsverfahren gegen Tennet eröffnet", 15.08.2012,

         mhtml:file://GFehlender Netzanschluss Missbrauchsverfahren gegen Tennet eröffnet –

         manager magazin-Unternehmen.mht

(29)  manager magazin online: "Niederlande duldet private Tennet-Investoren", 17.08.2012,

        mhtml:file://GDurchbruch Niederlande duldet private Tennet-Investoren-manager magazin-

        Unternehmen.mht

(30)  Verena Herb, Deutschlandfunk: "Mit vollem Frust voraus. Siemens und die Windenergie",

        www.dradio.de/dlf/sendungen/firmen/1835641/

(31)  Tennet-TSO: Offshore-Netzanbindungen, mit interaktiver Nordseekarte,

        www.tennettso.de/site/netzausbau/de/offshore-projekte/

(32)  INGENIEUR360: "Sündenbock für verzögerte Energiewende", 16.08.2012,

        www.ingenieur360.de/allgemeines/suendenbock-fuer-verzoegerte-energiewende/

Related Files