1

Sind wir der massenhaften Installation von Windkraftanlagen hilflos ausgeliefert?

Das Gespräch führte Wolfgang Müller EIKE. Die Aufzeichnung entstand im März 2011.

Alle Videos von EIKE finden Sie hier




Was ist mit der Sonne los? Vorhersage eines starken Abfalls der Sonnenaktivität!

Darstellungen von „Jetstreams“ (siehe untere Abbildung) unter der Sonnenoberfläche nach geografischer Breite über der Zeit zeigen den überraschenden Stillstand des solaren Zyklen-Mechanismus. Neue Jetstreams bilden sich typischerweise bei etwa 50 Grad Breite (wie 1999 auf der Darstellung) und sie sind mit dem 11 Jahre nachfolgenden Sonnenzyklus verbunden. Die Bildung neuer Jetstreams für ein zukünftiges solares Maximum von 2018 – 2020 war 2008 erwartet worden, sie sind bislang aber noch nicht aufgetaucht. Das deutet auf einen verspäteten oder ausfallenden Zyklus Nr. 25 hin.

 

Die Wissenschaftler am Sonnenobservatorium „Solar Observatory (NSO)“ und beim Forschungslabor der U.S.-Luftwaffe „Air Force Research Laboratory (AFRL)“ meinen, dass ein ausbleibender Jetstream, schwächer werdende Sonnenflecken und verlangsamte Aktivität nahe den Polen eine Ruheperiode andeuten, obwohl die Aktivität zum ersten Mal seit Jahren wieder zunimmt.
Während sich der derzeitige Zyklus Nr. 24 auf sein Maximum zu bewegt, deuten voneinander unabhängige Studien über das Sonneninnere, die sichtbare Oberfläche und die Korona darauf hin, dass der kommende 11jährige Sonnenfleckenzyklus Nr. 25 sehr schwach oder überhaupt ausfallen wird.?Die nachfolgenden Erkenntnisse sind auf dem Jahrestreffen der Sonnenphysik-Abteilung der amerikanischen Astronomischen Gesellschaft (AAS) angekündigt worden. Das Jahrestreffen fand in der Woche  vom 12. – 16. Juni 2011 an der New Mexico State University in Las Cruces statt.
http://astronomy.nmsu.edu/SPD2011/
“Das ist sehr ungewöhnlich und unerwartet,” sagte Dr. Frank Hill, Co-Direktor des Solar Synoptic Network NSO, “Aber die Tatsache, dass drei völlig unterschiedliche Beobachtungsrichtungen der Sonne in die gleiche Richtung zeigen, ist ein starkes Anzeichen dafür, dass sich der Sonnfleckenzyklus zur Ruhe begibt.”
Sonnenfleckenanzahl und die Sonnenaktivität steigen und fallen etwa alle 11 Jahre, das ist die Hälfte des magnetischen Sonnenintervalls, während dessen sich die magnetischen Pole umkehren. Daraus ergibt sich sofort die Frage, ob die Verminderung einem zweiten Maunder-Minimum vorausgeht, einer 70jährigen Periode von 1645-1715 mit nahezu keinen Sonnenflecken.
Hill ist Leitautor eines der drei Papiere, die auf dem Jahrestreffen präsentiert wurden. Anhand der Daten der Global Oscillation Network Group (GONG) von sechs über die ganze Welt verteilten Beobachtungsstationen überträgt die Forschergruppe Schallschwingungen der Sonnenoberfläche, die durch die Sonne laufen, in Modelle der inneren Sonnenstruktur. Eine ihrer Entdeckungen ist eine von Ost nach West gerichtete zonale Strömung innerhalb der Sonne, die „torsionale Schwingung“ genannt wird. Sie beginnt in mittleren Breiten und wandert zum Äquator hin. In jedem Zyklus stimmt die Breite dieser Strömung mit dem Gebiet der Bildung neuer Sonnenflecken überein. So wurde auch die Verspätung des derzeitigen Zyklus Nr. 24 vorausgesagt.
“Den Beginn der zonalen Strömung für Zyklus 25 hätten wir jetzt erwartet,” erklärte Hill, “aber wir sehen keine Anzeichen dafür. Das deutet darauf hin, dass der Beginn des Zyklus 25 sich bis 2021 oder 2022 verzögern könnte, oder vielleicht ganz ausfallen wird.“

Abbildung Die durchschnittliche Magnetfeldstärke in der Sonnenflecken-Umbra  fällt seit über einem Jahrzehnt ständig ab. Der Trend umfasst die Sonnenflecken der Zyklen 22, 23 und des gegenwärtigen Zyklus 24.
In einem zweiten Papier meinen Matt Penn und William Livingston, einen Langzeitschwächetrend bei der Stärke der Sonnenflecken entdeckt zu haben. Sie sagen voraus, dass die im Zyklus 25 auf der Sonne aufbrechenden Magnetfelder so schwach sein werden, dass kaum Sonnenflecken gebildet werden, wenn überhaupt welche. Flecken entstehen, wenn starke röhrenförmige Magnetflüsse aus dem Inneren hervorbrechen und verhindern, dass kühleres Gas zurück ins Sonneninnere strömt. In typischen Sonnenflecken hat das Magnetfeld eine Stärke von 2.500 bis 3.500 Gauß ?(Das Erdmagnetfeld hat weniger als 1 Gauß an der Oberfläche). Die Feldstärke muss mindestens 1.500 Gauß erreichen, um einen dunklen Fleck zu bilden.
Penn und Livingston haben Sonnenfleckendaten von über 13 Jahren benutzt, die vom McMath-Pierce Teleskop auf dem Kitt Peak in Arizona stammen, und sie haben entdeckt, dass die durchschnittliche Feldstärke im Zyklus 23 und nun im Zyklus 24 um 50 Gauß/Jahr abgenommen hat. Sie haben auch beobachtet, dass die Temperaturen der Flecken angestiegen sind, wie für derartige Veränderungen im Magnetfeld zu erwarten war. Wenn sich der Trend fortsetzt, wird die Feldstärke unter die 1.500 Gauß-Schwelle sinken und die Sonnenflecken werden zum großen Teil verschwinden, weil das Magnetfeld nicht mehr stark genug ist, um die konvektiven Kräfte auf der Sonnenoberfläche zu überwinden.

Bei der Auswärtsbewegung hat Richard Altrock, Leiter beim Air Force Korona-Forschungsprogramm „NSO Sunspot“, Neu Mexiko, eine Verlangsamung des Drangs zu den Polen beobachtet (“rush to the poles”), einer raschen Polwärtsbewegung der Magnettätigkeit in der schwachen Sonnenkorona. Altrock hat Beobachtungen aus vier Jahrzehnten mit dem 40-cm koronografischen Teleskop in Sunspot benutzt.
“Der Schlüssel zum Verständnis dieser wunderbar feinen Korona-Erscheinungen ist, dass diese tatsächlich mächtigen robusten Strukturen aus dem Inneren der Sonne kommen,“ erklärte Altrock. „Änderungen in der Korona spiegeln Veränderungen aus der Tiefe der Sonne.“
Altrock benutzte ein Photometer, um Eisen aufzuzeichnen, das auf 2 Millionen Grad C aufgeheizt war. Wenn es der Hälfte seiner Elektronen beraubt ist, wird es leicht vom aufsteigenden Magnetismus von der Sonne konzentriert. Einem wohlbekannten Muster folgend beginnt Sonnenaktivität etwa bei 70 Grad Breite zu Beginn eines Zyklus, mit dem Altern des Zyklus bewegt sich die Aktivität äquatorwärts. Gleichzeitig schieben neue Magnetfelder die Überreste des alten Zyklus bis zu 85 Grad polwärts.
“Während der Zyklen 21 bis einschließlich 23 ereignete sich das solare Maximum, als der Drang zu den Polen die durchschnittliche Breite von 76 Grad erreichte,” sagte Altrock. “Zyklus 24 fing spät und langsam an, und er könnte nicht stark genug sein, einen Drang zu den Polen zu erzeugen, was auf ein schwaches solares Maximum im Jahr 2013 hindeuten würde, wenn überhaupt eins stattfindet. Wenn der Drang zu den Polen nicht eintritt, stellt das ein schreckliches Dilemma für die Theoretiker dar, weil es heißen würde, dass das Magnetfeld von Zyklus 23 nicht vollständig aus den Polarregionen verschwände. (Diesen Kraftakt vollbringt der Drang zu den Polen). Wer weiß, was die Sonne dann machen wird.”
Alle drei Forschungsrichtungen deuten an, dass der bekannte Sonnenfleckenzyklus für eine Weile ausgeschaltet ist.
“Wenn wir recht haben,” schloss Hill, “könnte dies das letzte solare Maximum gewesen sein, das wir für mehrere Jahrzehnte gesehen haben. Alles würde davon beeinflusst, die Weltraumerkundung wie auch das Erdklima.“
# # #

Aus einer offiziellen Pressemitteilung des Southwest Research Institute Planetary Science Directorate mit der AAS (Amerikanische Astronomische Gesellschaft).

Diese Forschungsergebnisse sind auf dem kürzlichen Treffen der AAS/SPD vorgestellt worden: Zitiert nach:16.10: “Large-Scale Zonal Flows During the Solar Minimum — Where Is Cycle 25?” by Frank Hill, R. Howe, R. Komm, J. Christensen-Dalsgaard, T.P. Larson, J. Schou & M. J. Thompson.17.21: “A Decade of Diminishing Sunspot Vigor” by W. C. Livingston, M. Penn & L. Svalgard.18.04: “Whither Goes Cycle 24? A View from the Fe XIV Corona” by R. C. Altrock.

Quelle: Southwest Research Institute Planetary Science Directorate http://www.boulder.swri.edu/
Ergänzendes Bildmaterial: http://www.boulder.swri.edu/~deforest/SPD-sunspot-release/

Anthony Watts:  Den Originalartikel finden Sie hier

Die Übersetzung besorgte Helmut Jäger EIKE




Über die Kaperung der Amerikanischen meteorologischen Gesellschaft (AMS)

Ich bin sehr enttäuscht über den abwärts führenden Weg, dem die AMS während der letzten 10 bis 15 Jahre mit ihrer Propagierung der Hypothese von der anthropogenen globalen Erwärmung (AGW) gefolgt ist. Die Gesellschaft hat ganz offiziell eine Position übernommen, mit der viele unserer Mitglieder in der AMS nicht überein stimmen. Wir glauben, dass die Menschen wenig oder gar keinen signifikanten Einfluss auf das globale Klima haben, und dass die zahlreichen globalen Zirkulationsmodelle (GCMs) sowie die vier IPCC-Zustandsberichte keine realistisch genauen Projektionen der Zukunft zur Verfügung stellen. Dass die AMS diese Position einnimmt, mit der so viele Mitglieder nicht notwendigerweise übereinstimmen, zeugt mehr von einer politischen als von einer wissenschaftlichen Agenda.

Der geschäftsführende Direktor der AMS Keith Seitter sowie die anderen höher gestellten Funktionäre der AMS und der Rat haben nicht die wissenschaftliche Reife und Weisheit gezeigt, die wir von den Führern der AMS erwarten. Ich stelle in Frage, ob sie überhaupt wissen, wie weit die AMS bereits vom richtigen Weg abgekommen ist, seit sie eine so dümmliche Pro-AGW-Haltung eingenommen hat.

Die Amerikanische Meteorologische Gesellschaft AMS wurde 1919 gegründet als eine Organisation, die sich dem wissenschaftlichen Fortschritt zu den Themen Wetter und Klima verschrieben hat. Sie war ein herausragender Leuchtturm, um neues Verständnis über atmosphärische und ozeanische Vorgänge zu fördern. Aber dieses starke positive Bild wird nun als Folge der Kapitulation des AMS-Vorstands vor den Klimamodellierern sowie den externen Umwelt- und politischen Gruppen immer mehr getrübt, wollen sie doch die derzeitige Haltung der AMS zu AGW dazu missbrauchen, ihre eigenen speziellen Interessen durchzusetzen. Die Effektivität der AMS als eine objektive wissenschaftliche Organisation wird in großem Umfang kompromittiert.

Wir Mitglieder der AMS haben es zugelassen, dass eine kleine Gruppe von Administratoren in der AMS, Klimamodellierer und Sympathisanten der Erwärmung durch CO2 die internen Vorgänge unserer Gesellschaft zur Unterstützung der AGW-Politik steuert, ohne Rücksicht darauf, was unsere hoch dekorierten Mitglieder denken mochten. Diese kleine organisierte Gruppe von AGW-Sympathisanten hat unsere Gesellschaft wirklich gekapert [Hervorhebung im Original, ebenso wie alle Folgenden].

Die AMS sollte als Moderator der wissenschaftlichen Diskussion um das Für und Wider der AGW-Hypothese fungieren und nicht nur die eine Seite der Medaille übernehmen. Die AMS hat eine offene und ehrliche wissenschaftliche Debatte der AGW-Hypothese nicht so zugelassen, wie es eigentlich der Fall sein sollte. Warum haben sie sich vor einer offenen Diskussion bei einem so bedeutenden Thema gedrückt? Man hat mir gesagt, dass die Amerikanische Ökonomische Gesellschaft [the American Economic Society] sich nicht einseitig bei einer kontroversen wirtschaftlichen Diskussion auf eine Seite festlegt, sondern hauptsächlich dabei hilft, eine Diskussion über das Für und Wider am Leben zu halten. Dies sollte auch bei der AMS so sein, ist es aber nicht.

Inzwischen hat sich herausgestellt, dass die Vorhersagen zur künftigen Klimaentwicklung, die James Hansen 1988 vor dem US-Kongress abgegeben hatte, nicht im Geringsten der Wirklichkeit entsprachen. Er kann nicht erklären, warum es während der letzten 10 bis 12 Jahre keine signifikante globale Erwärmung gegeben hat.

Viele von uns Mitgliedern der AMS glauben, dass die beobachtete moderate globale Erwärmung natürlichen Ursprungs ist und zurückgeführt werden kann auf multidekadische und jahrhundertelange Änderungen der globalen Zirkulation in den Ozeanen der Welt aufgrund wechselnden Salzgehaltes. Diese Änderungen haben nichts mit der CO2-Zunahme zu tun. Die meisten der GCM-Programmierer haben kaum Erfahrung in praktischer Meteorologie. Sie verstehen einfach nicht, dass die stark chaotische Natur des ozeanisch-atmosphärischen Klimasystems die Festlegung auf bestimmte Ausgangswerte, auf denen die numerische Klimavorhersage fußt, nicht zulässt. Die Simulationen der GCMs scheitern in mindestens zwei fundamentalen Dingen:

  1. Ihre Annahmen über den Gehalt an Wasserdampf in der oberen Troposphäre sind völlig falsch. Sie nehmen an, dass eine Zunahme des atmosphärischen CO2 zu einer starken Zunahme des hochtroposphärischen Wasserdampfgehaltes führt, was sehr unrealistisch ist. Das meiste ihrer modellierten Erwärmung folgt aus diesen ungültigen Annahmen bzgl. des Wasserdampfes. Ihre Behandlung der Niederschlagsprozesse ist ziemlich unvollkommen.
  1. Es fehlt ihnen jedes Verständnis über die fundamentale Rolle der ozeanischen Tiefenzirkulation (Meridional Overturning Circulation – MOC) und auf welche Weise die sich ändernde ozeanische Zirkulation (verursacht durch Änderungen des Salzgehaltes) zu Änderungen der Winde, der Regenmenge und der Temperatur an der Erdoberfläche führt, unabhängig von Änderungen der Strahlung und des Gehaltes an Treibhausgasen. Dies alles sind erhebliche Defizite.

Die freie Fahrt der Modellierer. Es ist überraschend, wie lange die GCMs in der Lage waren, mit ihren unrealistischen Modellierungen davon zu kommen. Eine Erklärung ist, dass sie in erheblicher Weise durch Senator/Vizepräsident Al Gore und andere Politiker unterstützt worden sind, die über drei Jahrzehnte lang versucht haben, aus der Zunahme des CO2 politisches Kapital zu schlagen. Ein  anderer Grund ist, dass die vielen Umwelt- und politischen Gruppen (einschließlich der Main-Stream-Medien) darauf versessen waren, die Ergebnisse der GCMs als Rechtfertigung dafür zu benutzen, ihre eigenen speziellen Interessen unter dem Banner der globalen Erwärmung voranzutreiben. Eine dritte Erklärung ist, dass sie nie durch Begutachter herausgefordert worden sind, die offensichtlich die Möglichkeiten erkannt haben, ähnlich hohe Forschungsgelder gewährt zu bekommen, wenn sie es Hansen und den ersten GCM-Modellierern einfach nachmachen.

Ich nehme an, dass es während der nächsten 15 bis 20 Jahre aus natürlichen Gründen zu einer moderaten globalen Abkühlung kommt. Sie wird ähnlich verlaufen wie die schwache globale Abkühlung zwischen den frühen vierziger und den mittleren siebziger Jahren. Dabei muss darauf hingewiesen werden, dass der CO2-Gehalt auch während dieser früheren Abkühlungsperiode gestiegen ist, ganz im Gegensatz zur behaupteten Beziehung zwischen CO2 und Temperatur.

Eine erwartete Abkühlung während der nächsten 15 bis 20 Jahre wird es (nach meiner Ansicht) wegen der gegenwärtig sehr starken MOC geben, die sich während der vergangenen eineinhalb Jahrzehnte etabliert hat und die sich noch ein paar Jahrzehnte lang fortsetzen dürfte. Ich erkläre mir die generelle globale Erwärmung der letzten eineinhalb Jahrhunderte (seit dem Beginn der industriellen Revolution) als Ergebnis einer viele Jahrhunderte langen Verlangsamung der ozeanischen MOC. Die Zunahme des CO2-Gehaltes dürfte nur einen kleinen Bruchteil  (0,1 bis 0,2°C) zu der seit 1850 beobachteten Erwärmung um etwa 0,7°C beigetragen haben. Natürliche Prozesse waren zum größten Teil verantwortlich für den größten Teil der Erwärmung der letzten eineinhalb Jahrhunderte.

Diskussion. Die AMS ist die bedeutendste aller wissenschaftlichen Gesellschaften unserer Nation, haben doch ihre Mitglieder höchste wissenschaftliche und technische Erfahrung in Meteorologie und Klima. Sie sollte führend dabei sein, die Behauptungen der AGW-Befürworter und ihrer skeptischen Kritiker zusammen zu bringen. Unser aus dem Angelsächsischen abgeleitetes Gesellschaftssystem basiert auf dem Gedanken, dass der beste Weg zur Wahrheitsfindung darin besteht, gegensätzliche Ansichten eines fortwährenden Ereignisses in einer offenen Diskussion vor einer unparteiischen Jury zu diskutieren. Nichts dergleichen geschah in punkto AGW. Anstatt solche Treffen zu einer freien und offenen Debatte über die grundlegende Physik und die Wahrscheinlichkeit einer anthropogen verursachten Klimaänderung zu organisieren, haben die Führer der Gesellschaft (mit Rückendeckung durch die AGW-Enthusiasten in der Gesellschaft) beschlossen, in vollem Umfang den Klimamodellen zu vertrauen und offene Diskussionen über dieses Thema absichtlich vermieden. Ich weiß von keiner durch die AMS gesponserten Konferenz, auf der die AGW-Hypothese offen und frei diskutiert worden wäre. Lange Zeit habe ich mir ein Forum gewünscht, um meinem Skeptizismus hinsichtlich der AGW-Hypothese Ausdruck zu verleihen. Im Rahmen der AMS ergab sich keine einzige solche Gelegenheit. Versuche, meine skeptischen Ansichten zu veröffentlichen, gestalteten sich äußerst schwierig. In einer der Ablehnungen wurde behauptet, dass ich zu weit vom Denken des Main Stream entfernt sei. In einer anderen hieß es, dass meine Gedanken schon jetzt diskreditiert seien. Eine Reihe weiterer AGW-Skeptiker berichtete mir von ähnlichen Erfahrungen.

Die Klimamodellierer und ihre Unterstützer leugnen den Bedarf einer offenen Debatte der AGW-Frage mit der Begründung, dass das Thema bereits durch die Modellergebnisse eindeutig entschieden ist. Sie kamen zu dieser Ansicht, weil sie wissen, dass die Physik ihrer Modelle und die lange Dauer ihrer Vorhersageperioden vermutlich einer sachkundigen und unparteiischen Begutachtung nicht standhalten würden. Sie lehnen einfach die Diskussion in dieser Angelegenheit ab. Um die Kritik abzuwehren, haben sie sich auf eine generelle Verunglimpfung jener zurückgezogen, die die AGW-Hypothese nicht unterstützen. AGW-Skeptiker werden manchmal sogar als nicht länger glaubwürdige Wissenschaftler abgestempelt (wie ich selbst). Skeptiker werden oft als Werkzeuge der Ölindustrie diffamiert. Seit einer ganzen Reihe von Jahren läuft eine Art McCarthyismus gegen AGW-Skeptiker.

Jüngste AMS-Preisträger. Seit dem Jahr 2000 hat die AMS folgende AGW-Befürworter oder –Sympathisanten mit dem jährlich höchsten Preis (die Rossby Research Medal) ausgezeichnet: Susan Solomon (00), V. Ramanathan (02), Peter Webster (04), Jagadish Shukla (05), Kerry Emanuel (07), Isaac Held (08) und James Hansen (09). Die zweithöchste Auszeichnung (Charne Award) ging an die AGW-Befürworter und –Sympathisanten: Kevin Trenberth (00), Rich Rotunno (04), Graeme Stephens (05) Robert D. Cess (06), Allan Betts (07), Gerald North (08), Warren Washington und Gerald Meehl (09). Und die anderen Rossby- und Charney-Preisträger während dieser zeit sind nicht als Kritiker der AGW-Hypothese hervorgetreten.

Die Verzerrung in Richtung AGW innerhalb der AMS ist so tief verwurzelt, dass es für weithin bekannte und etablierte Wissenschaftler (aber AGW-Skeptiker) fast unmöglich ist, eine Auszeichnung durch die AMS zuerkannt zu bekommen, egal wie grundlegend oder brillant ihre Forschungen sind – Wissenschaftler wie Fred Singer, Pat Michaels, Bill Cotton, Roger Pielke, Sr., Roy Spencer, John Christie, Joe D’Aleo, Bob Balling, Jr., Craig Idso, Willie Soon und viele andere.

Was die Meteorologen vor Ort sagen. Mein (jahrelanger) Austausch mit einem großen Teil von AMS-Mitgliedern (die ich im Zuge meiner Vorhersage der Hurrikansaison und anderer Aktivitäten getroffen habe), die einen erheblichen Teil ihrer Laufbahn in den meteorologischen Bereichen Beobachten und Vorhersagen verbracht haben, hat darauf hingewiesen, dass die Mehrheit von ihnen der These, dass die Menschen der Hauptgrund für die globale Erwärmung seien, nicht zustimmen. Diese Meteorologen vor Ort sind zu erfahren und zu klug, um durch die Lobby der Klimamodellierer und der mit ihr verbundenen Propagandisten hereingelegt zu werden. Ich vermute, dass die AMS eine Übersicht über seine Mitglieder erstellt, die derzeit mit aktuellen Wetter- und Klimadaten arbeiten, um festzustellen, wie viele von ihnen damit übereinstimmen, dass die Menschen der Hauptgrund der globalen Erwärmung sind und dass die höchste Auszeichnung der AMS (die Rossby Research Medal) 2009 an James Hansen ging.

Globale Umweltprobleme. Es gibt keine Zweifel daran, dass die Weltbevölkerung immer mehr zunimmt und dass die zunehmende Industrialisierung viele Umweltprobleme erzeugt hat, und zwar hinsichtlich Luft- und Wasserverschmutzung, industrielle Vergiftungen, überflüssiger Landschaftsverbrauch sowie hunderte andere menschengemachte Umweltstörungen. Aber all diese anthropogenen Umweltprobleme verschwinden nicht durch drastische Anstrengungen, die CO2-Demissionen zu reduzieren. CO2 ist kein Verschmutzer, sondern Dünger. Die Menschheit braucht fossile Energie, um seinen industriellen Standard zu halten und um ihren Lebensstandard zu erweitern, so dass sie in der Lage ist, diese Nicht-CO2-Umweltprobleme besser zu handhaben. Es scheint bei vielen Leuten ein Missverständnis darüber zu bestehen, dass durch die Reduzierung des CO2-Ausstoßes die drängendsten Umweltprobleme gelöst werden können. Dem ist nicht so!

Man muss sich daran erinnern, dass fortschrittliche Industriegesellschaften mehr für die globale Umwelt tun als ärmere Gesellschaften. Durch die massenhafte Reduktion der CO2-Emissionen und erheblich steigenden Kosten für die dann erforderlichen erneuerbaren Energien wird der Lebensstandard unserer Nation abnehmen, und wir werden eben nicht mehr in der Lage sein, viele unserer Umwelt-, politischen und sozialen Probleme zu lösen.

Erreichen einer ausgewogenen Sichtweise zu AGW. Um zu verstehen, was wirklich im Hinblick auf die AGW-Frage geschieht, muss man jetzt eine Verbindung zwischen der AMS, den Main-Stream-Medien und der Grundlinie wissenschaftlicher Journale herstellen. Meistens wurden sie dazu gebracht, die AGW-Hypothese zu akzeptieren und ganz allgemein gegen jeden vorzugehen, der nicht zustimmt, dass AGW nach dem Nuklearkrieg das ernsteste langfristige Problem für unsere Gesellschaft ist.

Um irgendeine Art einer ausgewogenen Hin-und-her-Diskussion zum Thema AGW zu bekommen, muss man die vielen Blogs betrachten, wobei es sowohl Befürworter als auch Skeptiker hinsichtlich AGW gibt. Diese Blogs sind die einzige Quelle für eine echte offene Debatte zur Gültigkeit der AGW-Hypothese. Hier findet die echte Wissenschaft in Bezug auf AGW statt. Während der letzten Jahre sorgte die Masse der Gegenbeweise, wie sie in diesen Blogs präsentiert wird, dafür, dass die Stimmung für die AGW-Hypothese zu kippen beginnt. Angesichts der Tatsache, dass die Erde sich nicht so erwärmt, wie es die GCMs simuliert hatten, verliert die amerikanische Öffentlichkeit allmählich den Glauben an die früheren Behauptungen von Gore, Hansen und die vielen anderen AGW-Befürworter.

Vorhersage. Die AMS wird in künftigen Jahren so beurteilt werden: sie hat törichterweise ihre große wissenschaftliche Reputation für politische und finanzielle Zwecke geopfert. Ich bin sicher, dass sich Hunderte unserer älteren verstorbenen AMS-Mitglieder  in ihren Gräbern umdrehen angesichts dessen, was aus ihrer und unserer großen Gesellschaft geworden ist.

Gastbeitrag von Bill Gray, Professor Emeritus, Colorado State University, seit über 50 Jahren AMS-Mitglied, ausgezeichnet mit dem Charney Award.

Übersetzt und mit einer Einführung versehen von Chris Frey für EIKE

Link: http://wattsupwiththat.com/2011/06/16/on-the-hijacking-of-the-american-meteorological-society-ams/

Link zum Brief von Hal Lewis: hier




Der große Solarschwindel!

Der Tag, an dem Angela Merkel die Sonnenenergie nach Nordvorpommern brachte, begann trübe und wolkenverhangen. Die Bundeskanzlerin war trotz enger Terminlage in ihren Wahlkreis gefahren, um im Orte Grimmen an der Trebel den Bau des größten Solarparks von Mecklenburg-Vorpommern auf den Weg zu bringen. Dass sich die Sonne bei dem symbolträchtigen ersten Spatenstich im Oktober vergangenen Jahres partout nicht zeigen wollte, tat Merkels guter Laune ebenso wenig Abbruch wie die Tatsache, dass die 30 480 Solarmodule auf der 19 Hektar großen Fläche allesamt den Stempel "Made in China" tragen sollten. "Der Solarpark ist eine Zukunftsinvestition", sagte die Regierungschefin unverdrossen und stach den rot lackierten Spaten in die bröckelige Tonerde: "Wir sind auf dem Weg in das Zeitalter erneuerbarer Energien.

Bei ihrer Unterstützung für die Solarwirtschaft weiß die Bundeskanzlerin die Mehrheit der Bevölkerung hinter sich. Sonnenstrom ist die Wunschenergie Nummer eins für die Deutschen, das ergab in der vergangenen Woche eine Umfrage, die der Wirtschaftsverband führender Public-Relations-Agenturen in Deutschland (GPRA) mit den Marktforschern von TNS Emnid veröffentlichte. Danach messen 99 Prozent der Befragten "der Sonnenenergie eine besonders hohe Wichtigkeit für die zukünftige Energieversorgung in Deutschland" bei. Die Sonne sei "aus Sicht der Verbraucher die wichtigste Energiequelle der Zukunft – noch vor Wasserkraft und Windkraft", heißt es im Ergebnis der Umfrage. Weniger als die Hälfte der Befragten glaubten dagegen noch an eine wichtige Rolle der Kohlekraftwerke, nur ein Fünftel an Atomkraft. "Die deutsche Bevölkerung hat die Energiewende längst vollzogen und vertraut regenerativen Energiequellen", lautet das Fazit des GPRA-Präsidiummitglieds Uwe Kohrs. Angesichts der derzeit diskutierten Kürzungspläne für Solarsubventionen müssten "Politik und Energieversorger aufpassen, dass sie nicht alles Restvertrauen verspielen."

Wissenschaftler aber reiben sich verwundert die Augen angesichts solcher Vorstellungen über die Struktur der deutschen Energieversorgung. Atom- und Kohlekraftwerke decken heute noch drei Viertel des deutschen Strombedarfs. Solarmodule tragen tatsächlich erst drei Prozent zur Bedarfsdeckung bei. Schon der Beitrag der Windenergie übertrifft den der Solaranlagen um ein Vielfaches – für einen Bruchteil der Kosten. Die Solarenergie kostet die Verbraucher Jahr für Jahr hohe Milliardenbeträge, verteuert den Klimaschutz, lässt sich nicht wirtschaftlich speichern und fällt in mehr als der Hälfte des Jahres fast komplett aus. Auch industriepolitisch ist die Solarförderung ein gewaltiger Schuss in den Ofen: Bereits mehr als 70 Prozent der in diesem Jahr in Deutschland verbauten Solarmodule stammen aus Asien.

Die Nachteile der solaren Energieversorgung im schattigen Deutschland sind aus wissenschaftlicher Sicht so eklatant, dass der Sachverständigenrat für Umweltfragen, ein hochkarätiges Beratergremium der Bundesregierung, dazu rät, den Ausbau der Fotovoltaik nicht mehr weiter zu forcieren, sondern im Gegenteil in sehr engen Grenzen zu halten. Der Flensburger Umweltwissenschaftler Olav Hohmeyer, ein Mitglied des Sachverständigenrats, fordert, die derzeitige solare Ausbaurate um mindestens 85 Prozent zurückzuschrauben, auf nur noch 500 bis 1000 Megawatt pro Jahr. Dabei ist der Sachverständigenrat durchaus kein natürlicher Feind erneuerbarer Energien: In anderen Gutachten zeigt das Professorengremium Wege auf, wie Ökostrom bis 2050 den kompletten deutschen Energiebedarf decken kann, verzichtet dabei aber lieber auf ein Übermaß an Sonnenenergie.

Die Forscher stehen mit ihrer Meinung nicht allein. Das Rheinisch-Westfälische Institut für Wirtschaftsforschung (RWI) sagt wegen des "Hype um die Fotovoltaik" in Deutschland einen "weiter anschwellenden Kosten-Tsunami" voraus. Das RWI, das zu den renommiertesten deutschen Wirtschaftsforschungsinstituten gehört, schlägt angesichts der deutschen Defizite bei Stromspeichern, Stromleitungen und der mangelhaften Vernetzung mit den europäischen Nachbarn deshalb sogar ein mehrjähriges Moratorium für erneuerbare Energien vor, um "die Förderanreize für diesen Zeitraum auszusetzen". Auch der unabhängige Energieexperte Sven Bode vom Arrhenius Institut für Energie- und Klimapolitik in Hamburg stellt offen die Frage, "ob die Förderung der Fotovoltaik nicht bereits heute vollständig eingestellt werden sollte".

Doch danach sieht es ganz und gar nicht aus: Die Fraktionen der Regierungsparteien wollen sich Morgen über die Novelle des Erneuerbare-Energien-Gesetzes verständigen und dabei auch die Vergütungssätze für die unterschiedlichen Ökostrom-Arten festschreiben. Schon jetzt ist absehbar, dass es zu keinen nennenswerten Abstrichen bei den Solarsubventionen kommen wird. Vorgesehen ist im derzeitigen Gesetzentwurf lediglich, dass die Einspeisevergütung um jeweils drei bis vier Prozentpunkte sinkt, wenn der Grenzwert von 3500 Megawatt um 1000 Megawatt überschritten wird. Dass dies ausreicht, die solare Kostenexplosion zu beenden, glaubt kaum ein Marktbeobachter.

Der Wirtschaftsflügel der Unionsfraktion im Bundestag ist dabei schon bereit, die richtigen Konsequenzen zu ziehen: Er will den Fotovoltaik-Zubau in Deutschland – wie in anderen Ländern längst üblich – durch einen festen "Ausgabendeckel" begrenzen. Thomas Bareiß, der die Energiepolitik der CDU/CSU-Fraktion koordiniert, will mit dieser Forderung auch in die Koalitionsgespräche im Bundestag gehen, denn: "Was sich hier abzeichnet, ergibt energiewirtschaftlich keinen Sinn und ist sozialpolitisch verantwortungslos."

Doch Bareiß hat Zweifel, ob sich die Position des Wirtschaftsflügels der Union in den Koalitions- und Fraktionsgesprächen noch durchsetzen wird. Auch die anderen Wirtschaftspolitiker der Fraktion glauben nicht, dass sie bei der eigenen Parteiführung und beim Koalitionspartner FDP durchdringen.

Warum die Bundesregierung den Subventionsirrsinn jetzt nicht beendet, ist offensichtlich. Zu groß ist die Sorge der Partei- und Regierungsspitzen, vor den anstehenden Landtags- und Bundestagswahlen vom ökologischen Mainstream der Bevölkerung abgestraft zu werden. Nach außen hin wolle die Bundesregierung nach der Abschaltung der Kernkraftwerke eben nicht nur als "Ausstiegspartei" wahrgenommen werden, formuliert es ein hoher Beamter des Bundeswirtschaftsministeriums: "Ebenso wichtig ist es zu zeigen, dass man auch in etwas einsteigt." Und die Kappung von Solarsubventionen – wie sinnvoll sie inhaltlich auch immer sein mag – "passt da eben nicht ins Bild".

Folge dieses politischen Populismus dürfte sein, dass auch in den kommenden Jahren jeweils mehr als die Hälfte der vom Verbraucher zu zahlenden Ökostrom-Milliarden an die Solarindustrie fließen wird – und hier wiederum zum weitaus größten Teil an die asiatischen Modul- und Zellen-Hersteller. Während die Solarlobby in der Öffentlichkeit behauptet, die Bundesregierung würde bei ihrer Energiewende die Windkraft bevorzugen, sprechen die Zahlen eine völlig andere Sprache: Nach der offiziellen Statistik des Bundesumweltministeriums wurden im vergangenen Jahr rund 19,5 Milliarden Euro für die Errichtung von Fotovoltaik-Anlagen in Deutschland ausgegeben, jedoch nur 2,5 Milliarden für die deutlich ergiebigere Windkraft. Während die installierte Leistung der Solarmodule 2010 um 7500 Megawatt zunahm, wuchs die angeblich bevorzugte Windkraft lediglich um 1500 Megawatt. Ein Missverhältnis, das sich nach den Zubauprognosen in diesem Jahr weiter verfestigen dürfte.

In ihrem "Energiekonzept" hatte sich die Bundesregierung im vergangenen Jahr noch das Ziel gesetzt, den Anteil erneuerbarer Energien bis 2020 von heute 17 auf dann 30 Prozent zu erhöhen. Nach der Reaktorkatastrophe von Fukushima und der Abschaltung mehrerer deutscher Atomkraftwerke wurde der zu erreichende Ökostrom-Anteil jetzt auf "mindestens 35 Prozent" heraufgesetzt. So steht es im Entwurf des Erneuerbare-Energien-Gesetzes, das Ende kommender Woche vom Bundestag in zweiter und dritter Lesung verabschiedet werden soll. Doch viele Ökonomen und nicht wenige Bundestagsabgeordnete fragen sich inzwischen, wie die beschleunigte "Energiewende" innerhalb von zehn Jahren gelingen soll, wenn die Förderpolitik für Ökostrom dem luxuriösen Motto "Vom Teuersten das Meiste" folgt. Müsste man angesichts des Zeitdrucks und der knappen Mittel nicht die effizientesten Techniken am stärksten fördern?

Dass die "Energiewende" eher zu einer "Sonnenwende" zu werden droht, hat viel damit zu tun, dass die einseitige Argumentation der Solarlobby öffentlich kaum je hinterfragt wird. Aber halten die wichtigsten Argumente einer Überprüfung stand?

1. Solarstrom ist nicht billig

 "Die Sonne schreibt keine Rechnung": Angesichts der realen Kosten für Verbraucher und Volkswirtschaft bekommt das beliebte Lobbyistenwort einen fast zynischen Beiklang. Strom aus Solarmodulen, die im Jahre 2005 montiert wurden, wird 20 Jahre lang mit 50,23 Cent pro Kilowattstunde vergütet. Dieser Wert übersteigt den Börsenwert für Elektrizität um das Zehnfache. Die Stromnetzbetreiber sind verpflichtet, den Solarstrom, wie anderen Ökostrom auch, vorrangig einzuspeisen und mit dem gesetzlichen Fixpreis zu bezahlen. Die gewaltige Differenz zum eigentlichen Marktwert wird über die Stromrechnung auf alle Verbraucher abgewälzt.

Zwar wurde die Einspeisevergütung in mehreren Schritten gesenkt – auf heute rund 28 Cent pro Kilowattstunde. Doch weil der Preisverfall bei Solarmodulen noch drastischer war, können Investoren noch immer Traumrenditen auf Kosten der Verbraucher erzielen. Während ein Tagesgeldkonto derzeit kaum 2,5 Prozent abwirft, können Besitzer von Solardächern völlig risikolos jährlich sechs bis acht Prozent Gewinn einstreichen, gesetzlich garantiert über 20 Jahre lang. Kein Wunder, dass die Zahl der Fotovoltaik-Anlagen Jahr für Jahr exponentiell auf inzwischen mehr als 800 000 mit einer Gesamtleistung von rund 17 000 Megawatt angewachsen ist. Zum Vergleich: Ein Atomkraftwerk hat ungefähr 1000 Megawatt Leistung.

Die Frage, welche Nettokosten von den Verbrauchern zu schultern sind, hat in der Vergangenheit einigen wissenschaftlichen Streit ausgelöst. Das Rheinisch-Westfälische Institut für Wirtschaftsforschung hat die Strommengen aller bis Ende 2010 installierten Solarmodule mit ihren Einspeisetarifen summiert und um den eigentlichen Marktwert des Stroms bereinigt. Ergebnis: Allein für die bis Ende letzten Jahres verbauten Module wird der deutsche Verbraucher mit reinen Subventionskosten oder "Solarschulden" von real 81,5 Milliarden Euro belastet, die er über einen Zeitraum von zwanzig Jahren abzustottern hat.

Mit diesem gewaltigen Entzug an volkswirtschaftlicher Kaufkraft zahlt der Bürger für eine Stromquelle, die in jeder Nacht und mit Einbruch der dunklen Jahreszeit ihren Beitrag zur Stromversorgung fast völlig einstellt und durch andere Kraftwerke ersetzt werden muss. Obwohl die Solarenergie in diesem Jahr nur etwa 20 Prozent des gesamten Ökostrom-Aufkommens in Deutschland stellt und lediglich drei Prozent des gesamten Strombedarfs deckt, verschlingt sie 55 Prozent der gesamten Ökostrom-Beihilfen nach dem EEG.

Sogar die "Agentur für Erneuerbare Energien", ein in Berlin ansässiges Lobbybüro der Ökobranche, hielt das Kosten-Nutzen-Verhältnis des Solarstroms nach den RWI-Berechnungen für so schlecht, dass man das "Wuppertal Institut für Klima, Umwelt und Energie" im vergangenen Jahr mit einem Gegengutachten beauftragte. Man könne die "Horrorzahlen des RWI so nicht stehen lassen", hieß es dazu. Nötig sei endlich "eine seriöse Diskussionsgrundlage". Und tatsächlich: Das Gutachten der Wuppertaler fiel für die Ökolobbyisten wunschgemäß aus. In einer Pressekonferenz im Oktober vergangenen Jahres erklärte das Wuppertal Institut, man habe in den RWI-Berechnungen mehrere Rechen- und Bewertungsfehler gefunden, unter anderem bei der Diskontierung zukünftiger Werte. Fazit des Wuppertal Instituts: Die Subventionskosten des Solarstroms seien in Wahrheit 42 Prozent niedriger als vom RWI behauptet.

Das allerdings ließen die Essener Wissenschaftler nicht auf sich sitzen und überprüften ihrerseits die Berechnungen aus Wuppertal. Ihr Ergebnis publizierte das RWI in einer mehrseitigen Streitschrift mit dem Titel "Eine unbequeme Wahrheit": Die Wuppertaler hatten sich demnach selbst verrechnet und in ihren Formeln versehentlich doppelt abgezinst. Um diesen Fehler bereinigt, ergab die Kalkulation der Öko-Gutachter fast dieselbe "Horrorzahl", die zuvor vom RWI berechnet worden war. "Die vom RWI ermittelte Größenordnung der Kosten der deutschen Solarstromförderung wird durch die Wuppertal-Studie nolens volens bestätigt", resümieren die angegriffenen Wissenschaftler aus Essen zufrieden.

Wenn der Solarausbau vom Bundestag in der kommenden Woche nicht gedeckelt wird, steigen die Solarkosten innerhalb kürzester Zeit sogar auf einen dreistelligen Milliardenbetrag. Nach Berechnungen des RWI kämen bis 2020 für die deutschen Verbraucher weitere 42 Milliarden Euro Kosten hinzu. Dies allerdings auch nur unter der konservativen Annahme, dass der Solarzubau ab 2012 auf 3500 Megawatt jährlich begrenzt werden kann. Es könnte auch noch doppelt so teuer werden, wenn es bei der bisherigen Zubaurate bleibt.

Die Förderung der Solarbranche ist längst so hoch, dass sie den Bundeshaushalt völlig überfordern würde. Mehr als sieben Milliarden Euro überweisen die deutschen Verbraucher in diesem Jahr wohl an die Besitzer von Solaranlagen. Das übersteigt den Etat des Bundesumweltministeriums von 1,6 Milliarden Euro um fast das Vierfache. Die Summe, die von allen Bundesministerien zusammen in diesem Jahr für Energieforschung ausgegeben wird, beträgt mit 700 Millionen Euro nur ein Zehntel der Solarförderung.

Der Wissenschaftliche Beirat des Bundeswirtschaftsministeriums warnt angesichts der "riesigen Subventionen" bereits vor einem "gewaltigen Umverteilungsprogramm". Es wäre mit einem Volumen von mehr als 100 Milliarden Euro tatsächlich die größte soziale Umverteilung von unten nach oben, die je von einer sozialdemokratischen Regierung mit ausgelöst wurde. Denn die Milliardenlast zahlt der Mieter mit seiner Stromrechnung, den Ertrag streicht der tendenziell wohlhabende Solardach- also Immobilienbesitzer ein. Allein zu Jahresbeginn 2011 erhöhte sich die EEG-Umlage zur Förderung des Ökostroms in einem einzigen großen Schritt um 70 Prozent auf 3,53 Cent pro Kilowattstunde. Der Kostensprung, der den Strompreis für Privathaushalte um rund zehn Prozent verteuerte, war fast ausschließlich auf den Fotovoltaik-Zubau zurückzuführen.

2. Atomstrom ist nicht teurer

Die Kosten der Solarförderung mit denen der Kernenergie zu vergleichen und so zu relativieren, ist ein beliebtes Argument von Solarfreunden. Tatsächlich sind die Beihilfen für beide Technologien gar nicht mehr so weit von einander entfernt. In einer Studie zur staatlichen Förderung von Atomkraft kommt Greenpeace zu dem Ergebnis, dass die staatlichen Forschungsgelder für die Nukleartechnik bis 2010 real – also in Preisen des Jahres 2010 – rund 55 Milliarden Euro betrugen. Insgesamt gaben die öffentlichen Haushalte für die Atomkraft bislang sogar 203,7 Milliarden Euro aus, heißt es in der Greenpeace-Berechnung. Eine hohe Zahl, die auch dadurch zustande kommt, dass selbst "die Vorteile der Atomenergie durch den Emissionshandel" als Kostenpunkt angesetzt wurden – und eine Reihe weiterer fragwürdiger Posten, zum Beispiel die "Sanierungskosten des sowjetischen Uranerzbergbaus in Wismut".

Tatsächlich kommen die Solarkosten den von Greenpeace errechneten Atom-Subventionen schon recht nahe. Denn der Ausbau der Verteilnetze in den Kommunen, der wegen des Solarbooms nötig wird, kostet Experten zufolge allein schon rund 30 Milliarden Euro zusätzlich. Kommt es zum erwarteten Ausbau des Solarstroms, addieren sich Subventionen und Netzausbaukosten bis 2020 ebenfalls schon auf 150 Milliarden Euro. Noch nicht eingerechnet sind dabei die indirekten volkswirtschaftlichen Kosten, die durch die so ausgelösten Strompreissteigerungen entstehen, wie etwa Produktionsverlagerungen ins Ausland oder Arbeitsplatzabbau.

Kommt es also nicht zu einer effektiven Ausbaubremse für Fotovoltaik, dürften die Solar-Kosten in absehbarer Zeit denen der Kernenergie gleichen. Einziger Unterschied: Atomkraftwerke haben für dieses Geld den Strombedarf der größten europäischen Volkswirtschaft 40 Jahre lang rund um die Uhr zu einem Viertel gedeckt. Solarenergie deckt derzeit nur drei Prozent des Strombedarfs und kann nach Angaben des Bundesverbandes Solar auch im Jahr 2020 nur maximal neun Prozent zur Bedarfsdeckung beitragen, wie es in der "PV-Roadmap" des Verbandes heißt. Dabei ist freilich zu berücksichtigen, dass der Beitrag der Solar-Technologie in jeder Nacht und während langer Wintermonate fast auf null sinkt und dann komplett von einem weiteren, "doppelten" Kraftwerkspark ersetzt werden muss, dessen enorme Kosten in der Rechnung ebenfalls noch nicht berücksichtigt sind.

3. Die Nachfrage fehlt

Setzt sich die Solarlobby mit ihren Subventionswünschen politisch durch, dürfte im Jahr 2020 eine installierte Leistung von 70 Gigawatt Sonnenenergie am Netz sein. Dieses Ziel hat die Branche in ihrer "PV-Roadmap" selbst ausgegeben. Allerdings beträgt die gesamte Stromnachfrage Deutschlands im Schnitt nur 60 Gigawatt. Schon in zwei oder drei Jahren werden Solar- und Windkraftanlagen gemeinsam an einigen Tagen im Sommer, zur hellen Mittagszeit, phasenweise deutlich mehr Strom produzieren, als überhaupt nachgefragt wird. Wegen des gesetzlichen Einspeisevorrangs für Ökostrom müssten während dieser Stunde alle anderen Atom- Kohle- und Gaskraftwerke nicht nur gedrosselt, sondern komplett abgeschaltet werden.

Weil das mit enormen Kosten und technischen Risiken verbunden ist, bleibt als Alternative nur, den überschüssigen Strom an ausländische Abnehmer zu "verschenken". Die jüngsten Erfahrungen am Strommarkt zeigen allerdings, dass ausländische Abnehmer deutschen Ökostrom noch nicht einmal geschenkt haben wollen – sie nehmen ihn nur gegen Zuzahlung ab. Das hat in den letzten Monaten bereits mehrmals zum Effekt "negativer Strompreise" an der Europäischen Energiebörse geführt.

Die Besitzer großer Pumpspeicherkraftwerke wie etwa Österreich oder die Schweiz profitieren in diesen Stunden doppelt vom deutschen Ökowunder: Zunächst lassen sie sich die Abnahme des zur Unzeit produzierten deutschen Stroms teuer bezahlen. Dann kassieren sie für dieselben Kilowattstunden ein zweites Mal, wenn sie die gespeicherte Energie aus ihren Pumpspeichern ablassen und als teuren Spitzenlaststrom nach Deutschland zurückverkaufen.

Die absehbare temporäre Überproduktion von Wind- und Solarstrom führt zu einem weiteren, bislang ungelösten Problem: Welcher Sauberstrom muss für den anderen im Netz Platz machen, wenn doch beide eigentlich gesetzlichen Einspeisevorrang genießen? Regeln dafür sind auch in der jetzigen EEG-Novelle noch nicht enthalten. Ökonomen plädieren zwar dafür, dass in Zeiten der Überproduktion der billigere Windstrom den teureren Solarstrom verdrängen sollte. Doch RWI-Experte Frondel fürchtet, dass es wohl eher die leicht regelbaren Windparks sein werden, die in einer solchen Situation abgestellt werden, "da das Abschalten einer großen Zahl an kleinen, dezentralen Fotovoltaikanlagen mit großem Aufwand verbunden sein dürfte." Teuer verdrängt billig: Für die Verbraucher dürfte das anbrechende Solarzeitalter noch einige Überraschungen bereit halten.

4. Die Mär von der Autarkie

Dass Solarstrom "dezentral" produziert wird, stellt der Lobbyverband der Branche gern als Vorteil heraus, ohne allerdings zu erklären, worin eigentlich genau dessen Wert liegt. "Ob Einfamilien-, Mehrfamilien- oder Mietshaus: Jeder kann investieren, profitieren und sich künftig selbst versorgen", wirbt der Bundesverband Solarwirtschaft (BSW) dieser Tage in ganzseitigen Zeitungsanzeigen unter dem Titel "Solarstrom – ein Gewinn für alle". Das Argument appelliert an das unterschwellige psychologische Bedürfnis vieler Menschen nach Autarkie und Unabhängigkeit.

Allerdings bleibt Autarkie mit Solarenergie eine teure Illusion. Denn Tatsache ist, dass Solaranlagen in diesen Breitengraden nur an 875 Stunden der 8760 Stunden eines Jahres ihre Volllast erreichen. In der übrigen Zeit herrscht Nacht, schlechtes Wetter oder Winter. An neun von zehn Stunden sind Solardachbesitzer darauf angewiesen, Strom aus dem Verbundnetz zu beziehen, wie jeder andere auch.

5. Kommunen werden geschwächt

Dennoch lautet ein Argument der Solarbranche, die dezentrale Stromerzeugung stärke auch die Wertschöpfung in den Kommunen. Fragt man vor Ort einmal nach, ist die Begeisterung der Stadtwerke über den Fotovoltaikboom allerdings begrenzt. Zum Beispiel im nordrhein-westfälischen Froendenberg im Kreis Unna. Die Stadtwerke Froendenberg sind ein Traditionsbetrieb, der schon vor 100 Jahren damit begann, mit einem Wasserkraftwerk in der Ruhr Strom zu produzieren. Auch heute noch ist der Betrieb, der 22 000 Einwohner in 14 Ortsteilen versorgt, dem Ökostrom gegenüber aufgeschlossen: Es gibt neun Windräder, drei Laufwasserkraftwerke und 340 Fotovoltaik-Anlagen in der Stadt. Nur die Tatsache, dass die Dächer überall mit blauen Modulen belegt werden, treibt Bernd Heitmann, dem Geschäftsführer der Stadtwerke, die Sorgenfalten auf die Stirn. "Fotovoltaik hat die unangenehme Eigenschaft, dass alle Anlagen bei Sonneneinstrahlung zeitgleich ans Netz gehen", sagt er. "Das erzeugt einen plötzlichen Spannungshub, der im Verteilnetz nur in begrenztem Umfang vorhanden sein darf."

Mit ihren 340 Fotovoltaik-Anlagen haben die Froendenberger bereits 5,6 Megawatt ans Netz gebracht. Dabei liegt der Strombedarf in der Region, etwa an Feiertagen, oft nur halb so hoch bei rund 2,5 Megawatt. So musste Heitmann etwa 25 Anträge auf Netzanschluss neuer Solaranlagen bereits ablehnen, weil dies sein Leitungsnetz in einigen Außenbereichen überlastet hätte.

Um dem Solar-Problem Herr zu werden, müsste das kleine Stadtwerk allein 12 bis 13 Millionen Euro in den Ausbau der Leitungsnetze vor Ort investieren. "Das entspricht der Höhe unseres gesamten Eigenkapitals", sorgt sich Heitmann. Weil die Kosten des Netzausbaus vom örtlichen Netzbetreiber zu tragen sind, müssten die Stadtwerke ihre Netznutzungsentgelte erhöhen, um die Investition tragen zu können. "Das könnte sich zum Standortnachteil für unsere Stadt auswachsen", glaubt Heitmann. Aus Sicht des Stadtwerke-Chefs, "stimmt die Verhältnismäßigkeit nicht, wenn wir hier 12 Millionen Euro investieren müssen, damit 30 Leute dann ein paar Tausend Euro mit Solarstrom verdienen."

6. Das Problem der Stromspeicherung

An dem Tag im vergangenen Oktober, als Bundeskanzlerin Angela Merkel den Grundstein für den größten Solarpark Mecklenburg-Vorpommerns legte, brauchte Deutschland den ganzen Tag über knapp 50 Gigawattstunden Strom. Die 17 Gigawatt installierter Solarleistung in Deutschland hätte davon einen Gutteil decken können – wenn denn die Sonne geschienen hätte. Tatsächlich aber quälte sich die Solarleistung an diesem Tag nur ganz kurz am Mittag mal über die 2-Gigawatt-Grenze, um schon bald nach 16 Uhr gegen null abzutauchen. 88 Prozent der installierten Solarleistung an diesen Tag blieben ungenutzt, und die ungeliebten fossilen Kraftwerke mussten die Versorgung übernehmen.

Ganz anders die Situation am vergangenen Pfingstsonntag. Da lag der Strombedarf Deutschlands feiertagsbedingt bei lediglich 28 Gigawatt. Zugleich brannte diesmal die Sonne und die Solaranlagen speisten den ganzen Tag über mehr als sechs Gigawatt Strom ein. Als die Sonne über Mittag am höchsten stand, deckte Solarstrom mit zehn Gigawatt Leistung allein mehr als ein Drittel des gesamten deutschen Bedarfs. Es wäre schön gewesen, wenn der relative Solarstrom-Überschuss von Pfingsten hätte gespeichert werden können für die dunkle Jahreszeit – oder zumindest für die kommende Nacht. Doch Speichertechnologien stehen in der geforderten Größenordnung auch nicht ansatzweise zur Verfügung. Nach Berechnungen des Beratungsunternehmens Boston Consulting Group (BCG) liegt die derzeitige Speicherkapazität Deutschlands bei gerade einmal sieben Gigawatt. Um das schwankende Aufkommen von Wind- und Solarstrom mithilfe von Speichern ausgleichen zu können, müsste die Speicherkapazität bis 2025 vervierfacht werden.

Die billigste Art, dies zu tun, wäre der Bau von Pumpspeicherkraftwerken. Ein temporärer Überschuss von Ökostrom wird dabei dazu genutzt, Wasser bergauf in eine Talsperre zu pumpen. Bei Windflaute oder nächtlichem Ausfall des Solarstroms kann das Wasser in Röhren zu Tal rauschen und dabei eine Turbine zur Stromproduktion antreiben. Aber das größte deutsche Pumpspeicherkraftwerk Goldisthal hat gerade mal eine Leistung von einem Gigawatt. Viel zu wenig, um in der dunklen Jahreszeit Solarausfälle ausgleichen zu können.

Die Größenverhältnisse beschreiben die Wissenschaftler Sven Bode und Helmuth Groscurth vom Hamburger Arrhenius-Institut: Um eine Woche lang ohne Wind, Fotovoltaik und ohne konventionelle Kraftwerke auszukommen, bräuchte man nach ihrer Modellrechnung 1260 Pumpspeicherkraftwerke vom Typ Goldisthal. "Abgesehen davon, dass es in Deutschland dafür keine Standorte mehr gibt", schreiben die Autoren Bode und Groscurth, "wären die Kosten für eine Kilowattstunde astronomisch, da die meisten dieser Anlagen nur für einige Stunden im Jahr betrieben würden."

Auch die Batterien von Elektroautos können als Puffer für das schwankende Ökostromaufkommen noch lange nicht dienen. Da ein Elektrosmart im Schnitt nur 40 Kilowattstunden Strom speichern kann, wären nach den Berechnungen des Arrhenius-Instituts "250 Millionen dieser Fahrzeuge erforderlich, um ausreichend Strom für Deutschland für eine Woche zu speichern".

Der Sachverständigenrat für Umweltfragen, ein Beratergremium der Bundesregierung, schlug kürzlich in einem Sondergutachten vor, die norwegischen Wasserkraftwerke als Speicher für deutschen Ökostrom zu nutzen. Allerdings geben die Dimensionen dem Projekt eher visionären Charakter. So liegt heute erst ein Kabel in der Nordsee zwischen Norwegen und den Niederlanden. Dieses NorNed-Kabel hat eine Kapazität von 600 Megawatt. Bei einer annähernden Vollversorgung Deutschlands mit Ökostrom, wie sie die Bundesregierung bis 2050 erreichen will, müssten die Kabelkapazitäten laut Sondergutachten aber auf 70 000 Megawatt mehr als verhundertfacht werden, damit die Lichter auch nachts und bei Windflaute nicht ausgehen. Da aber schon die Baukosten des NorNed-Kabels 600 Millionen Euro betragen haben, ist nicht ganz klar, wer die Baukosten tragen könnte.

Der Plan wird dadurch erschwert, dass sich schon das NorNed-Kabel nur refinanzieren lässt, weil die Preise für Elektrizität im Strommarkt Skandinavien stets deutlich vom übrigen Europa abweichen. Das erlaubt den Kabelbetreibern Handels- oder Arbitragegeschäfte, um die Baukosten wieder hereinzuholen. Diese Finanzierungsmöglichkeit wird aber in dem Maße eingeschränkt, in dem weitere Seekabel hinzukommen. Denn durch den intensiveren Stromverbund würden sich die Elektrizitätspreise zwischen Skandinavien und dem Rest Europas tendenziell angleichen. Norwegen würde auf diesem Wege geradezu das höhere deutsche Strompreisniveau "importieren". Die Finanzierung der Seekabel auf diesem Wege wäre nicht mehr möglich. Ohnedies ist es unsicher, ob die Norweger ihre Flusstäler als Speicher für deutschen Ökostrom überhaupt zur Verfügung stellen würden – zumindest ohne dafür einen üppigen Preisaufschlag zu verlangen.

Andere Methoden sehen vor, Strom in Form von Druckluft in unterirdischen Kavernen zu speichern. Doch sie sind mit hohen Wirkungsgrad-Verlusten verbunden und sind schon aus geologischen Gründen nur begrenzt einsetzbar. Blei- oder selbst Lithium-Ionen-Akkus, wie sie von einigen Solarfirmen bereits angeboten werden, lassen die ohnehin verheerende Kostenbilanz der Solartechnik völlig aus dem Ruder laufen. Dass in absehbarer Zeit genügend wirtschaftlich nutzbare Speicher für Ökostrom zur Verfügung stehen, ist damit nicht zu erwarten.

7. Hightech-Industrie – aber nicht in Deutschland

Bundesumweltminister Norbert Röttgen (CDU) erhofft sich aus der ökologischen Energiewende vor allem ein Programm zur wirtschaftlichen und technischen Erneuerung und einen "Jobmotor" für Deutschland. Insbesondere in der Solarwirtschaft sieht der Minister eine neue Hightech-Industrie heranwachsen. Die Solarsubventionen dienen aus seiner Sicht dazu, den "Technologievorsprung" und die "Marktführerschaft" der deutschen Solarindustrie zu sichern. Lassen sich Solarsubventionen also wenigstens industriepolitisch begründen?

Die Zahlen ernüchtern: Der globale Marktanteil deutscher Solarzellen-Hersteller hat sich innerhalb des letzten Jahres von 15,4 auf 9,7 Prozent fast halbiert. Im gleichen kurzen Zeitraum hat sich der Weltmarktanteil Chinas um ein Viertel auf 48 Prozent gesteigert. Gefördert mit günstigen Darlehen der chinesischen Staatsbanken kaufen die chinesischen Hersteller wie Yingli, Suntech oder JA Solar gleich ganze Produktionslinien modernster westlicher Technologie in großem Stil ein. Die Qualität der asiatischen Solarzellen steht deshalb der von deutschen Anbietern in nichts nach, wie unabhängige Testlabors bestätigen.

Kein Wunder: Wie aus der "PV-Roadmap"-Studie des Solar-Bundesverbandes hervorgeht, investieren die deutschen Hersteller lediglich 2,5 Prozent ihres Umsatzes für Forschung und Entwicklung. Erstaunlich wenig für eine vorgebliche "Hightech-Branche". Im Maschinenbau oder in der Automobilindustrie liegt die F+E-Quote mindestens doppelt so hoch zwischen fünf und acht Prozent des Umsatzes. Da in China im Vergleich zu den deutschen Fabriken auch gleich große Stückzahlen gefertigt werden, ergeben sich Kostenvorteile, mit denen die deutsche Solarindustrie längst nicht mehr mithalten kann. Von den im letzten Jahr in Deutschland verbauten Solarmodulen stammten bereits 70 bis 80 Prozent von asiatischen Herstellern. Bislang völlig unbekannte Firmen wie etwa Yingli Solar treten inzwischen als Sponsor des Erstliga-Klubs Bayern München selbstbewusst in Erscheinung. Andere bereiten die Übernahmen deutscher Wettbewerber vor, wie die geplante Übernahme des Konstanzer Herstellers Sunways AG durch die chinesische LDK Solar beweist. Sogar Maschinenbauer und Ausrüster von Solarfabriken, eigentlich eine Domäne deutscher Ingenieurskunst, werden bereits von ausländischen Konkurrenten aufgekauft. Erst im Mai hatte Roth & Rau aus Hohenstein-Ernstthal, eines der wenigen deutschen Unternehmen auf der globalen Top-10-Liste der Solarfabrik-Ausrüster, dem Übernahmeangebot der Schweizer Firma Meyer Burger zugestimmt. Was Bundesumweltminister Röttgen besonders nachdenklich stimmen sollte: Ausgerechnet die erfolgreichsten Solarfirmen mit dem stärksten Marktwachstum wie etwa Meyer Burger stammen aus Ländern, die selbst überhaupt kein eigenes Einspeisegesetz für Ökostrom haben.

Der größte deutsche Anbieter Solarworld arbeitet zwar noch profitabel. Auf der Liste der 20 größten Solarzellen-Hersteller der Welt ist der deutsche Marktführer allerdings schon nicht mehr vertreten. Dort dominieren jetzt Chinesen. Auf der gesamten Top-20-Liste findet sich überhaupt nur noch ein deutsches Unternehmen, Q-Cells. Doch der einst weltweit führende Solarkonzern ist auf Platz neun abgerutscht, Tendenz fallend. Für die ersten drei Monate des laufenden Geschäftsjahres musste Q-Cells-Chef Nedim Cen gerade einen Verlust über 41 Millionen Euro ausweisen. Seither kursieren auch im Falle von Q-Cells Gerüchte um eine feindliche Übernahme.

8. Jobmotor Solarindustrie: ein Mythos

Dieser Trend ist – gerade mit Blick auf Arbeitsplätze in Deutschland – besonders misslich, weil die Zell- und Waferfertigung den eigentlichen "Hightech"-Teil der Solarproduktion darstellt, wohingegen das Zusammensetzen der Zellen in gerahmte Module eher dem "Medium- oder Lowtech"-Bereich zuzuordnen ist. Doch in der deutschen Branche herrscht stillschweigendes Einvernehmen über die Tatsache, dass Solarzellen in Deutschland nicht mehr wirtschaftlich zu produzieren sind. In dieser Woche war es Holger von Hebel, Chef der Firma Bosch Solar, der ankündigte, die nächsten großen Solarfabriken mit tausenden Arbeitsplätzen in Malaysia und den USA zu bauen. Wolfgang Hummel von der Hochschule für Technik und Wirtschaft (HTW) in Berlin, der den Solarmarkt seit Jahren intensiv verfolgt, glaubt: "Im Bereich der Solarzellen- und Modulproduktion ist kein weiterer Aufbau von Arbeitsplätzen in Deutschland mehr zu erwarten."

Damit hat Hummel vermutlich recht. Zwar wirbt die Solarlobby stets mit den 133 000 Arbeitsplätzen, die durch eine Kappung der Solarförderung gefährdet wären. Doch den Mythos vom angeblichen "Jobmotor" Solarindustrie hat die Branche selbst entzaubert: In ihrer eigenen "PV-Roadmap" gibt die Branche zu, dass von den 133 000 Arbeitsplätzen nur ein Bruchteil – lediglich 18 000 – in der eigentlichen Fotovoltaik-Produktion angesiedelt sind. Die Zahl von Solar-Arbeitsplätzen im Handwerk ist mit 39 000 demgegenüber mehr als doppelt so hoch. Weitere 64 000 Solar-Arbeitsplätze werden in den nicht weiter definierten Bereichen "Vorleistungen" und "Sonstiges" verortet.

Angesichts dieser Zahlenverhältnisse scheinen die zweistelligen Milliardensubventionen weniger dem Aufbau eines "Jobmotors" der Hightech-Industrie zu dienen als vielmehr einem arbeitsmarktpolitischen Strohfeuer im Handwerk. Dass sich daran allzu viel ändert, ist wenig wahrscheinlich: Sogar nach den Zielen, die sich die deutsche Solarbranche selbst steckt, soll die Zahl der Arbeitsplätze bis 2020 nicht nur nicht wachsen, sondern sogar leicht zurückgehen.

9. Erfolge einer gute Lobby

Als die Parteivorsitzenden von CDU, CSU und FDP am 23. Oktober 2009 zur Beratung ihres Koalitionsvertrages zusammenkamen, lag ein Vorschlag der Unionsarbeitsgruppe "Wirtschaft" auf dem Tisch, die schon damals ausufernden Solarsubventionen bereits zum 1. Januar deutlich um 30 Prozent zu senken. Als Angela Merkel, Horst Seehofer und Guido Westerwelle den Koalitionsvertrag tags darauf der Öffentlichkeit präsentierten, fand sich der Vorschlag der Abgeordneten darin nicht wieder. Nur unbestimmt, ohne festes Datum und Mengenangabe, stand dort, die Regierung wolle "im Dialog mit der Solarbranche" darüber reden, wie "eine kurzfristige Überförderung vermieden werden" könne.

Szenebeobachter sehen in der Verwässerung des Unionsvorschlags einen Erfolg des damaligen FDP-Vorsitzenden Guido Westerwelle. Denn Westerwelles Wahlkreis ist Bonn, wo der größte deutsche Solarkonzern Solarworld AG seinen Sitz hat. Solarworld-Chef Frank Asbeck stand nach Beobachtung mehrerer an den Koalitionsverhandlungen Beteiligter damals in regem SMS-Austausch mit seinem erklärten "Freund" Westerwelle. So dürfte es wohl auch kein Zufall sein, dass der Bundesverband der Solarwirtschaft (BSW) auch heute noch auf seiner Homepage unter dem Kapitel "Politikberatung" seine eigene Lobbyarbeit preist und dies unter der Überschrift "Ohne starke Lobby keine solare Energiewende" ausgerechnet mit einem Foto des Bundesaußenministers Guido Westerwelle dekoriert.

"Tag für Tag sind engagierte und kompetente Streiter des Verbandes auf den Fluren von Bundestag und Ministerien in Berlin unterwegs", heißt es in dem Abschnitt, in dem der BSW seine eigenen Lobbyerfolge feiert. "Die Politikberater des BSW-Solar" hätten schon "im Juni 2008 auch die Neu-Novellierung des EEG im Sinne der Branche positiv mitgestalten können." Erzielt wurden diese Erfolge mit einem außergewöhnlich hohen Etat für politische Arbeit: Der Bundesverband der Solarwirtschaft leistet sich in Berlin immerhin 29 hauptamtliche Mitarbeiter. Zum Vergleich: Die angeblich so mächtige Lobby-Organisation der deutschen AKW-Betreiber, das "Deutsche Atomforum" beschäftigt in der Hauptstadt lediglich 13 Mitarbeiter, Sekretariat und Buchhaltung schon miteingerechnet.

Doch auch Einzelunternehmen der Branche betreiben auf eigene Kosten politische Landschaftspflege. Dabei sind nicht alle Parlamentarier so ehrlich wie der Bonner SPD-Abgeordnete Ulrich Kelber, der auf seiner Homepage als "gläserner Abgeordneter" selbst zugibt, in den Jahren 2007, 2008 und 2009 jeweils Spenden in Höhe von 25 000 Euro von der Solarworld AG aus seinem Bonner Wahlkreis erhalten zu haben. Dies zusätzlich zu einer Spende über 15 000 Euro von "First Solar" im Jahre 2009. Allerdings betont der stellvertretende Fraktionsvorsitzende Kelber, durch die Gelder in seiner Arbeit nicht beeinflusst worden zu sein. Kelber ist in der SPD-Fraktion unter anderem für den Schwerpunktbereich Umwelt zuständig und ist Mitglied der "Arbeitsgruppe Energie".

Auch die IBC Solar AG aus Bad Staffelstein erklärt auf Nachfrage, dass sie "die politische Arbeit in Deutschland über Parteigrenzen hinweg unterstützt". IBC hatte unter anderem Bundeskanzlerin Merkel dafür gewinnen können, den ersten Spatenstich beim Bau des Solarpark Grimmen in Mecklenburg-Vorpommern zu setzen, den IBC errichtet und mit chinesischen Solarmodulen bestückt hatte. Als IBC in der vergangenen Woche den Baubeginn für den Solarpark "Jura" in Oberfranken feierte, war es mit CSU-Chef Horst Seehofer ebenfalls hohe politische Prominenz, die hier kamerawirksam den ersten Spatenstich setzte.

Das politische Engagement von IBC ist breit gestreut: "Die im Bundestag vertretenen Parteien CDU, CSU, SPD, FDP sowie Bündnis 90/Die Grünen wurden und werden von uns unterstützt", gibt die Firma Auskunft. Dabei halte man sich "strikt an die gesetzlichen Vorgaben", und knüpfe "in keinem Fall Bedingungen an die von uns getätigten Spenden". Wenn es im Zusammenhang mit Parteispenden zu Kontakten mit Abgeordneten komme, dann nur um die Zahlungmodalitäten abzustimmen, "nicht aber – und darauf legen wir großen Wert – um Einfluss auf die Entscheidungen dieser Mandatsträger zu nehmen."

Das klingt nach einem geradezu selbstlosen Engagement. Allerdings ergibt eine stichprobenartige Anfrage beim Schatzmeister der FDP, dass die Firma IBC Solar die Spendenempfänger relativ gezielt auswählt. "Im Jahr 2010 sind zwei Spenden in Höhe von jeweils 5000 Euro an den Kreisverband Dortmund sowie an den Kreisverband Regensburg verbucht", gibt FDP-Sprecher Wulf Oehme Auskunft. Dortmund ist der Wahlkreis von Michael Kauch, der als umweltpolitischer Sprecher der FDP-Bundestagsfraktion jetzt auch an der Verabschiedung der EEG-Novelle mitwirkt. Kurz vor den jetzt anstehenden parlamentarischen Gesprächen hatte sich Kauch für eine stärkere Kürzung, aber gegen eine feste "Deckelung" der Solarsubventionen ausgesprochen, wie sie etwa vom Wirtschaftsflügel der CDU gefordert wird. Der andere IBC-Spendenempfänger, der FPD-Kreisverband Regensburg, ist der Wahlkreis von Horst Meierhofer, dem stellvertretenden Vorsitzenden des Ausschusses für Umwelt, Naturschutz und Reaktorsicherheit im Bundestag.

Auch auf europäischer Ebene sind Solar-Lobbyisten erfolgreich: So gelang es etwa der Firma First Solar im vergangenen Jahr, bei der EU-Kommission in Brüssel eine Ausnahmegenehmigung für die Verwendung des krebserregenden Nervengifts Kadmium in der Verbindung Kadmiumtellurid zu erwirken.

Obwohl die EU-Kommission mit ihrer sogenannten RoHS-Richtlinie eigentlich die industrielle Verwendung giftiger Schwermetalle wie Quecksilber oder eben Kadmium zum Schutz von Mensch und Umwelt komplett untersagen wollte, machte sie dann für die Solarbranche doch eine Ausnahme. Die besonders günstigen und leistungsfähigen Solarmodule der Firma First Solar enthalten nach Angaben vom vergangenen Jahr pro Stück etwa sieben Gramm der toxischen Schwermetallverbindung. Nach Erkenntnissen der unabhängigen Initiative "Lobbycontrol" gab First Solar im Jahre 2009 für Lobbyarbeit in Brüssel zwischen 100 000 und 150 000 Euro aus. Dass First Solar im Kampf gegen das Kadmium-Verbot "mit problematischen Mitteln vorgegangen ist", sei "nicht auszuschließen", heißt es in dem Dossier der unabhängigen Initiative weiter.

10. Beitrag zum Klimaschutz?

Solarstrom gilt als "saubere" Energie, die klimaschädliche, fossile Kraftwerke verdrängt. Doch für Solarenergie gilt dasselbe wie für alle Ökostromvarianten: Unter dem Dach des Europäischen Emissionshandelssystems führen sie lediglich dazu, dass Emissionen verlagert, aber nicht vermieden werden.

Der Mechanismus wird von Vertretern der Ökostrom-Branche zwar immer wieder angezweifelt, gilt aber im Grundsatz als unwiderlegt. Denn im Kampf gegen die Kohlendioxid-Emissionen in Deutschland und Europa ist seit 2005 der sogenannte Emissionshandel das erste Mittel der Wahl. Wirtschaftssektoren bis hinunter zum einzelnen Kraftwerk bekommen eine streng begrenzte Menge an Emissionszertifikaten zugeteilt. Das sind Gutscheine, die für den Ausstoß von jeweils einer Tonne Kohlendioxid (CO2) berechtigen. Anlagenbetreiber, die weniger CO2 ausstoßen als geplant, können überzählige Zertifikate am freien Markt verkaufen. Dieses System setzt marktwirtschaftliche Kräfte für den Klimaschutz frei und erzeugt "Preissignale", die dafür sorgen, dass die Investitionen der Unternehmen zuerst in die günstigsten und effizientesten Umwelttechnologien fließen.

Durch Subventionen für bestimmte Ökostrom-Techniken wird der Emissionshandel als marktwirtschaftlich konzipiertes Klimaschutzinstrument jedoch ausgehebelt. Denn der Solarausbau sorgt zwar für weniger CO2-Emissionen in Deutschland, doch zugleich fallen dadurch in gleichem Umfang die Preise für Emissionszertifikate an der Börse. Das führt dazu, dass "Vermeidungsmaßnahmen in anderen Sektoren nicht ergriffen werden, weil es kostengünstiger ist, stattdessen Zertifikate zu kaufen", beschreiben die Wissenschaftler des Essener Wirtschaftsinstituts RWI die Wirkung: Andere Industriesektoren im europäischen Ausland "weisen folglich höhere Emissionen auf und gleichen so die Emissionseinsparungen, die im deutschen Stromerzeugungssektor durch das EEG ausgelöst werden, gänzlich aus." Im Ergebnis, so die Ökonomen, "ergibt sich lediglich eine Emissionsverlagerung". Der "Nettoeffekt" jeglicher Ökostrom-Subventionen sei, jedenfalls solange das europäische Emissionshandelssystem existiert, genau "null".

Zudem stellt die Fotovoltaik die bei Weitem teuerste Art des Klimaschutzes dar. Wissenschaftler der Internationalen Energieagentur (IEA) oder des RWI haben errechnet, wie viel es kostet, den Ausstoß von jeweils einer Tonne des Treibhausgases Kohlendioxid aus einem fossilen Kraftwerkspark durch den Einsatz verschiedener Ökostrom-Techniken zu verhindern. Ergebnis: Die CO2-Vermeidungskosten der Fotovoltaik lagen zuletzt bei rekordverdächtigen 648 Euro je Tonne. Denselben Klimaschutzeffekt würde man mit Windkraft schon für 69 Euro pro Tonne erzielen. Die Tatsache, dass an der Europäischen Strombörse in Leipzig Emissionsgutscheine für nur 16 Euro pro Tonne gehandelt werden, weist darauf hin, dass die Fotovoltaik als reines Klimaschutzinstrument sogar rund 40-mal teurer ist als die günstigste derzeit verfügbare CO2-Vermeidungstechnik.

Die Subventionierung gerade der teuersten CO2-Vermeidungstechnik aber "konterkariert das Prinzip des Emissionshandels, den Treibhausausstoß dort zu verringern, wo es am kostengünstigsten ist", stellt Manuel Frondel, Leiter des Kompetenzbereichs Umwelt und Ressourcen des RWI fest. Fazit: Welche Gründe es für die Subventionierung von Solarstrom auch immer geben mag: Klimaschutz gehört eher nicht dazu.

Obwohl also fast kein Argument der Solar-Befürworter einer kritischen Überprüfung standhält, droht der Solarzubau weiterzugehen. Denn weil die Preise für Solarmodule dank der chinesischen Billiganbieter allein im ersten Halbjahr 2011 um rund 30 Prozent gefallen sind, bleibt es für Investoren in Deutschland ein äußerst lukratives Geschäft, sich Solarzellen aufs Dach zu setzen. So sagen die Anlageexperten der Investmentbank Morgan Stanley voraus, dass in diesem Jahr erneut die Leistung von 6500 Megawatt auf deutsche Dächer geschraubt werden wird. Und die Credit Suisse erwartet sogar einen Zubau von 7500 Megawatt Solarleistung. Das ist fast die Menge, die im bisherigen Rekordjahr 2010 aufgestellt wurde. Und es wird noch mehr: Branchenbeobachter erwarten, dass Deutschland im kommenden Jahr mit einer wahren Flut von Billig-Solarmodulen überschwemmt wird, weil andere große Abnehmerländer wie Tschechien oder Italien ihre Solarförderung bis dahin drastisch zurückfahren wollen. Deutschland aber, das als einziges Land übrig bleibt, das Solarenergie weiter in unbegrenzter Höhe und Menge fördert, dürfte dann den größten Teil der Weltproduktion an Modulen geradezu aufsaugen. Nach inoffiziellen, aber gleichlautenden Schätzungen aus Kreisen des Bundesumwelt- und des Bundeswirtschaftsministeriums könnte so im kommenden Jahr erneut mindestens 10 000 Megawatt Solarkraft hinzukommen. Eine gewaltige Überkapazität, die den Spielraum für die Förderung anderer, effizienterer Ökostromarten stark einschränkt, und damit die Chancen für eine nachhaltige ökologische Energiewende zu vertretbaren Kosten verringert. Denn falls die Wirtschaftspolitiker der Unionsfraktion kommende Woche mit ihrer Forderung nach Deckelung der Solarausgaben scheitern sollten, ist die Messe erst einmal gelesen, glaubt ein Kenner der Solarszene: "Dann wird es wohl bis weit nach der nächsten Bundestagswahl 2013 dauern, bis man sich wieder mit dem Thema beschäftigt und endlich jemand die Notbremse zieht."

Daniel Wetzel aus "Die Welt am Sonntag" vom 26.6.11 

mit freundlicher Genehmigung




Bild des Tages: „Sonnen-Energie-Feld“ in der Nähe von Markranstädt

Mit Dank an Prof. Löschke. Aufgenommen am 26.6.11




Update: Dreizehn und ein Energiewende-Märchen!

1. Im Kapitel 8 von der Sonne, die keine Rechnung schickt, habe ich eine eingehende .Erläuterung der produktionstechnischen Gründe für die Übernahme des Photovoltaikmarktes durch chinesische Hersteller eingefügt. Leser hatten angesichts der Preissenkungen in letzter Zeit etwas Unverständnis bezüglich meiner Aussage geäußert, daß die technologische Entwicklung weitgehend ausgereizt sei. Die Ergänzung erläutert die Gründe dafür.

2. Das Kapitel Ökostrom fehlte mir eigentlich von Anfang an. Es gehört ja zu den skurrilsten Auswüchsen des grünen Gutmenschentums, das von cleveren Geschäftemachern ausgenützt wird. Eine Recherche der Angebote und eine gründliche Betrachtung der Randbedingungen (EEG) hat mich nun veranlasst, doch ein längeres Kapitel dazu zu schreiben, wobei es einige Überraschungen gab, die Ökostrom-Kunden wohl nicht gefallen werden. Das ist nun Märchen Nr. 14. Deshalb habe ich den Titel so geändert, daß er weitgehend dem alten ähnelte.

3. Ein Teil des Schlußwortes eignete sich eigentlich besser als Anfangssequenz des Artikels. So geschehen.

Hier können Sie jetzt das 14. Energiewendemärchen lesen:

Nr. 14: Das Märchen vom Ökostrom

 Viele Deutsche meinen es gut und geben Geld aus, um die Welt ein bißchen besser zu machen. Das ist natürlich anzuerkennen. Aber freigiebig locker gemachtes Geld lockt gewisse Leute an, die es gerne hätten, ohne die damit verbundenen Wünsche ernst zu nehmen. Schon länger fließt etliches Geld aus Deutschland über den Atlantik, um dort zum Beispiel eine Patenschaft für eine Fledermaus in Nicaragua, einen Ara in Brasilien oder ein paar Quadratmeter Regenwald in Costa Rica zu finanzieren. Manches davon mag seriös sein, aber seit längerem hat sich in Übersee für das treuherzige, unkritische Finanzieren  gut gemeinter Projekte der böse Begriff "Stupid German Money" (Deutsches Idiotengeld) eingebürgert. 

Auch in Deutschland selbst kann man zum Beispiel durch seine Stromrechnung die Heimat angeblich etwas grüner machen, vorausgesetzt, man kauft bei einem der zahlreichen Anbieter "Ökostrom". Als Techniker ist man von diesen Vorgängen zunächst verwirrt, denn eins ist absolut klar: Aus der Steckdose eines jeden Kunden kommt überall der gleiche Strom, über dessen Quellen man sich erst am Jahresende ein Bild machen kann, wenn bilanziert wird, welche Erzeuger wieviel Strom eingespeist haben. 

Für 2010 sah dieser Strommix folgendermaßen aus:

Kernenergie 22%, Erdgas 14%, Braunkohle 24%, Steinkohle 19%, Wind 6,2%, Wasserkraft 3,2%, Biomasse 5,6%, Photovoltaik 2%, Sonstige (Müll, Öl, Grubengas; Klärgas) 5%. 

Die im EEG genannten "Regenerativen" (s.u.) haben also zusammen knapp 20%.

Wie sehen nun die Ökostrom-Angebote aus ?  Und was steckt tatsächlich dahinter ?

Variante A ist das Angebot, Wasserkraftstrom aus Deutschland zu liefern. Das bieten mehrere Stromversorger an. Einer dieser Anbieter schreibt: "In jedem Fall erhalten Sie ohne CO2-Emissionen produzierten Strom aus 100% Wasserkraft mit TÜV Nord-Zertifikat. Sie bestimmen, welcher Strom für Sie persönlich produziert wird. Aber nicht nur das: Sie sorgen dafür, daß der Anteil von Ökostrom im gesamten Netz immer größer wird."

Bewertung: Die beiden ersten Sätze sind irreführend und haben mit der Realität nichts zu tun. Der dritte Satz würde nur dann eine Winzigkeit Wahrheit enthalten, wenn sich dieser Anbieter verpflichtet hätte, seine Gewinne selbst in neue Anlagen der regenerativen Energieerzeugung zu investieren. (Siehe Variante D). Davon ist aber in seiner Werbung nicht die Rede.

Daß der Kunde den vom Anbieter gekauften Wasserkraftstrom komplett erhält, ist schon physikalisch unmöglich. Ebenfalls unmöglich ist aber sogar, daß durch diesen Kauf der gläubige Ökostromkunde oder auch irgendein anderer Stromkunde auch nur eine Winzigkeit mehr regenerativen Strom an seiner Steckdose ankommen sieht. 

Das verhindert nämlich das Erneuerbare Energie-Gesetz (EEG). Es bestimmt, daß die öffentlichen Netzbetreiber verpflichtet sind, sämtliche von den im EEG genannten Erzeugern (Wasserkraftwerke; Biomassekraftwerke; Geothermiekraftwerke; Windkraftanlagen; Photovoltaikanlagen; Stromerzeuger mit Deponiegas, Klärgas und Grubengas) produzierten Strommengen vorrangig – und das heißt restlos – gegen die gesetzlich festgelegte Vergütung anzukaufen. Anschließend müssen sie diesen Strom an einer Strombörse vermarkten.

Das bedeutet: Sämtlicher in Deutschland erzeugter regenerativer Strom wird qua Gesetz den Produzenten abgekauft – nichts bleibt an ungenutzten Kapazitäten übrig, deren Strom man noch extra als Ökostrom ankaufen und weiterverkaufen könnte. 

Ebenso unmöglich ist es, daß der Ökostromkunde "selbst bestimmt, welcher Strom für ihn persönlich produziert wird." Er bekommt wie alle anderen Verbraucher, die nichts extra bezahlen, z.Zt. knapp 20% Ökostrom – und kein bißchen mehr.

Variante B:  Wenn der Ökostrom nicht aus Wasserkraft, sondern angeblich aus anderen im EEG genannten regenerativen Quellen in Deutschland kommt, gilt das oben Gesagte genau so.

Variante C:   Ein Anbieter schreibt: "Es ist garantiert kein Atomstrom." Und: "Unser Strom aus erneuerbaren Energiequellen in Norwegen wird aus Wasserkraft gewonnen. Aus 100% Wasserkraft."

Bewertung:  Abermals gilt das oben zu der Unmöglichkeit der Beeinflussung des Strommixes an der Steckdose des Ökostromkunden Gesagte. Selbstverständlich erhält auch dieser Kunde seine ca. 20% regenerativ erzeugten Strom – und Wasserkraft hat daran (s.o.) ihre 3,2%. Deutsche Wasserkraft, selbstverständlich.

Das EEG-Argument gilt in diesem Falle nicht, denn es wird ja in Norwegen Strom eingekauft. Das klingt zwar besser, ist es aber auch wieder nicht. Norwegen hat viel Wasserkraft, aber nicht genug davon. Das hat zwei Konsequenzen: Zum einen brauchen und verbrauchen die Norweger ihren Wasserkraftstrom selbst. Und weil das nicht reicht, importieren sie Strom aus Schweden – und zwar Kernkraftstrom. 

Kaufen Ausländer wie der deutsche Ökostromanbieter den norwegischen Wasserkraftwerken Strom ab, fehlt dieser im dortigen Netz. Weil die Wasserkraftwerke wegen des deutschen Käufers auch nicht mehr als ohne ihn produzieren, ist der Umweltnutzen dieses Geschäfts Null.  Es muß nur mehr Kernkraftstrom in gleicher Menge importiert werden. Und weil man im norwegischen Netz genau wie im deutschen einen Strommix hat – in diesem Falle Wasserkraftstrom und schwedischen Kernkraftstrom – , ist auch in dem nach Deutschland gelieferten Ökostrom doch zusätzlicher Atomstrom dabei – der sich dann im deutschen Netz mit dem deutschen Atomstrom vereinigen würde, wenn das bei Strom überhaupt ginge. An der Steckdose des Kunden ist wieder "garantiert" 22% Atomstrom entnehmbar.

Ob der deutsche Ökostrom-Aufkäufer die Norweger zu einem weiteren Ausbau ihrer Wasserkraft veranlassen kann, ist eine gute Frage. Aber nur wenn genau das der Fall wäre, hätte es einen Einfluß auf den Strommix im norwegischen und deutschen Netz.

Variante D: Der Ökostromanbieter erklärt verbindlich, daß er seine Gewinne in neue Anlagen der regenerativen Energieerzeugung investieren wird. Dies finden die Umweltverbände gut, denen die anderen Varianten verständlicherweise wohl weniger überzeugend vorkommen. 

Aber auch hierbei scheint der Umweltnutzen nur marginal zu sein: Es sind ja nicht die vom Kunden überwiesenen Ökostromkosten gemeint – der Löwenanteil davon geht an die vom EEG begünstigten Einspeiser, dann gibt es noch Verteilungskosten etc. – sondern nur die Gewinne, sofern sie anfallen. Außerdem befinden sich die Ökostromanbieter dann auf einem durch das EEG (d.h. durch die Zwangsabgaben der Verbraucher) recht lukrativ gewordenen Markt, in dem sich kapitalkräftige Investmentgesellschaften, EVU´s, Kommunen und andere Geldgeber tummeln.  Der Einfluß der Ökostromanbieter, hier noch Zusatzkapazitäten zu errichten, die man überhaupt quantitativ bemerkt, dürfte überschaubar sein. 

Dennoch haben die Ökostromkunden in unserem Wirtschaftssystem eine Wirkung, wenn auch eine nicht von ihnen beabsichtigte: 

Ihre Nachfrage nach regenerativ erzeugtem Strom bewirkt an den Strombörsen, an denen der Übertragungsnetzbetreiber seinen teuren EEG-Strom verkaufen muß, einen Preisanstieg. Den Netzbetreiber, der diesen Strom  ursprünglich bei den Wasserkraftwerken und den anderen EEG-begünstigten Erzeugern ankaufen mußte,  freut das, denn er zahlt beim Ökostrom immer kräftig zu, weil der Strompreis-Erlös an den Börsen viel niedriger liegt als der gesetzlich festgelegte Ankaufspreis. Jetzt bekommt er also etwas mehr Geld an der Börse und seine Verluste, die er auf alle Stromkunden umlegen darf, sinken etwas. 

Das Ökostromgeschäft führt somit zwar nicht zu mehr Ökostrom, – weder bei der Erzeugung noch beim Verbraucher – entlastet aber RWE, E.ON & Co. finanziell. Solche Wege nimmt die Entwicklung, wenn gutgemeinte Fördermechanismen auf Marktwirklichkeit stoßen.

Eigentlich müßte nun gemäß der Marktlogik auch der Endverbraucher-Strompreis etwas sinken. Aber mächtige Kräfte wirken in die entgegengesetzte Richtung: Die Stillegung preisgünstiger Grundlast-Kernkraftwerke, der Ersatz ihrer Strommengen durch teureren Importstrom, die Errichtung teuer produzierender schneller Gaskraftwerke für den Ausgleich der Solar- und Windkraft-Schwankungen, der riesenhaft geplante Ausbau des Höchstspannungsnetzes, der weiter gehende gewollte Ausbau der „Erneuerbaren“, deren Strom  teuer angekauft und ins Netz eingespeist werden muß… 

Wenn man es freundlich ausdrücken will, dann ist die deutsche Ökostrom-Liebe eine sympathische Liebhaberei. Diese Bezeichnung ist genau so gemeint, wie es die Finanzämter auch meinen, wenn sie das Tun der Steuerzahler einschätzen. 

Schlußwort

Die deutsche Angstpolitik ist nun Wirklichkeit. Für eine Hoffnung auf eine Rückkehr zu einer realistischen Politik besteht für mehrere Jahre kein Anlaß. Erst nachdem massive Schäden eingetreten sind, die sich politisch auszuwirken beginnen, könnte es zu einer Rückbesinnung kommen, allerdings wohl nicht innerhalb der zur Zeit im Bundestag vertretenen Parteien.  

Daß sich ein führendes Industrieland ohne real existierende Probleme nur aus Angst selbst wirtschaftlich ruiniert, ist in der Geschichte einzigartig.

Der Autor hat nicht die Hoffnung, mit seinen Zeilen noch irgend etwas an diesem Prozeß aufzuhalten; das wäre realitätsfern. Das mußte nur einfach aufgeschrieben werden, damit es jemand liest. Tatsächlich ist es  kein Artikel , sondern ein Nachruf.

Dr. Günter Keil im Juni 2011 

Die vollständigen dreizehn und ein Energiemärchen können Sie komplett als Anhang lesen

Related Files




Lawrence Solomon: Klima-Skeptiker im Obersten Gericht der USA

 „Der Gerichtshof weist darauf hin, dass er keine bestimmte Sichtweise der komplizierten Streitfragen im Zusammenhang mit Kohlendioxid-Emissionen und Klimawandel befürwortet“, heißt es in der mit 8 zu 0 Stimmen gefällten Entscheidung, die von der gefeierten Liberalen des Gerichtshofes, Richterin Ruth Bader Ginsburg, verkündet wurde.

Die Entscheidung des Gerichts unterstrich, dass die amerikanische Umweltagentur (EPA) selbst „bestätigt hat, dass nicht alle Wissenschaftler in der Beurteilung der Folgen des globalen Temperaturanstiegs übereinstimmen“, und schlug vor, dass die Leser „Ansichten in Opposition“ zu dem konventionellen Wissen betrachten sollten. Das Gericht schlug im Einzelnen als Lektüre vor, was der hervorragende Wissenschaftler Freeman Dyson von der Princeton University im Magazin New York Times am 29. März 2009 geschrieben hatte.

Dyson, ein unerschrockener Skeptiker, glaubt, dass Kohlendioxid keineswegs schädlich, sondern sowohl notwendig und auch wünschenswert ist, und zwar mit der Begründung, dass „die Zunahme des atmosphärischen Kohlendioxids viele positive Effekte auf die natürliche Pflanzen- und Tierwelt der Erde haben würde“.

Im gleichen Fahrwasser stellt Richterin Ginsburg fest, dass Kohlendioxid notwendig und allgegenwärtig ist und daher nicht das Ziel rücksichtsloser Angriffe sein sollte. „Schließlich emittiert jeder einzelne von uns Kohlendioxid nur durch das Atmen“ betonte sie und wiederholte damit einen Standpunkt Dysons, den er selbst nicht besser hätte formulieren können.

Für den genauen Text des Obersten Gerichtshofes in seinem bemerkenswerten Urteil im Rechtsstreit zwischen American Electric und Connecticut klicke man hier.

Lawrence Solomon ist geschäftsführender Direktor von Energy Probe und Autor von The Deniers. LawrenceSolomon@nextcity.com.

Link: http://opinion.financialpost.com/2011/06/23/lawrence-solomon-supreme-skeptics/

Übersetzt von Chris Frey für EIKE




Das IPCC macht Greenpeace so richtig bekannt; der jüngste Bericht des IPCC ist prall gefüllt mit noch heißerer Luft als sonst!

Was jedoch nach Veröffentlichung des gesamten Berichtes ans Licht kam, war die sonderbare Quelle dieser außerordentlich anspruchsvollen Behauptung. Sie basierte ausschließlich auf einem Papier, das unter der Ko-Autorenschaft eines Mitarbeiters von Greenpeace International sowie eines European Renewable Energy Council (EREC) geschrieben worden ist. Diese in Brüssel ansässige, von der EU großzügig unterstützte Institution, arbeitet für die Europäische Kommission, die für alle wesentlichen erneuerbaren Industrien zuständig ist, wie Wind und Solarenergie. Der leitende Autor dieser Studie von Greenpeace, Sven Teske, fungierte auch als leitender Autor des Kapitels 10 des IPCC-Berichtes. Dies bedeutet, dass die Schlagzeilen von einem in Vollzeit beschäftigten Umweltaktivist gekommen waren, mit Unterstützung durch eine Lobbygruppe, die diese Industrien vertritt, und die durch die Ergebnisse dieser Studie am meisten finanziell profitieren.

Es war keine Überraschung, dass Experten unter den Kritikern des IPCC rasch darauf hinwiesen, wie sehr dieser Vorgang die Enthüllungen vor 18 Monaten unterstrich, die mehr als alles andere in der Geschichte diese Institution der UN diskreditierten. Im Zentrum jener Skandale stand die Entdeckung, dass die am meisten alarmistischen Prognosen im IPCC-Bericht von 2007 – wie z. B. die Behauptung, dass die Gletscher des Himalaya bis 2035  verschwunden sein würden – nicht im Geringsten das Ergebnis sauberer wissenschaftlicher Arbeit waren. Es handelte sich dabei einfach um Angst machende Geschichten von Lobbygruppen der Umweltbewegung, die noch dazu auf eine Art und Weise propagiert wurden, die die vom IPCC selbst aufgestellten Regeln verletzten, denen zufolge die Berichte ausschließlich auf einwandfrei akkreditierten wissenschaftlichen Studien beruhen sollten.

Hinzu kam noch die unrühmliche Publicity des Vorsitzenden des IPCC, Dr. Rajendra Pachauri zu jener Zeit. Und doch hat er im Vorwort zu diesem neuen Bericht allen seinen speziellen Dank ausgesprochen, die ihn erstellt hatten. Nicht nur das – er schrieb auch eine Einführung zu der kontroversen Greenpeace-Studie, auf die sich seine Schlagzeile bezog.

Als Vorsitzender, der eigentlich unabhängig sein sollte, und als wohl einflussreichster öffentlicher Funktionär hat Dr. Pachauri – dessen Forschungsinstitut in Delhi in zahlreiche Projekte der erneuerbaren Energien verwickelt ist – auch Vorworte zu zwei früheren Veröffentlichungen von Greenpeace geschrieben.

Die Skeptiker waren so sehr damit beschäftigt, die fragwürdigen Ursprünge des neuen IPCC-Berichtes aufzudecken, dass sie sich noch nicht um diesen wohl noch größeren Skandal kümmern konnten. Dies ist die erstaunlich einseitige Berichterstattung im übrigen Report, welches sich nicht so sehr als ein wissenschaftliches Dokument, sondern viel mehr als eine Propagandaschrift für die weltweite Industrie der erneuerbaren Energien.

In einem langen Kapitel zur Windenergie werden beispielsweise einige der peripheren Vorbehalte gegen Windturbinen einfach vom Tisch gewischt; Vorbehalte wie der durch die Turbinen verursachte Tod einer großen Zahl von Vögeln und Fledermäusen oder auch die Auswirkungen auf die Preise von Immobilien. Und auf all den 108 Seiten gibt es keinen ernsthaften Versuch, den zentralen Vorbehalt gegen Windturbinen anzusprechen, nämlich deren lächerliche Ineffizienz und die teure Art und Weise, Energie zu erzeugen – so unzuverlässig wegen der Veränderlichkeit des Windes, dass die winzige Menge der erzeugten Energie keinen signifikanten Beitrag zum Weltenergiebedarf leisten kann.

Nirgendwo wird in dem Bericht der wesentliche Nachteil dieser Turbinen angesprochen, nämlich dass sie im Mittel nur 25 Prozent oder weniger ihrer nominellen Kapazität erzeugen. Die Abbildungen in dem Report dazu in einem kurzen Absatz, der sich um diese Sache dreht, sind auf absurde Weise übertrieben. Es wird behauptet, dass US-Windturbinen 30% ihrer Kapazität erreichen, ohne darauf hinzuweisen, dass der Output aller 12000 Windturbinen in Amerika im Mittel nicht größer ist als derjenige von zwei großen Kohlekraftwerken. Und nirgendwo werden in dem Bericht die exorbitanten Kosten dieser Maschinen angesprochen, bei denen niemand auf die Idee kommen würde, diese ohne die Hilfe von Subventionen, die in GB 100% des Wertes der von ihnen produzierten Energie ausmachen, überhaupt zu errichten (und 200% für Off-shore-Windparks).

Verlassen Sie dieses übel riechende IPCC-Tollhaus und betreten Sie die wirkliche Welt; überlegen Sie, was in Fullabrook Down in Nord-Devon vor sich geht, wo man etwas baut, dass demnächst die größte landbasierte Windfabrik in England sein wird. Die Entwickler prahlen damit, wie die 22 riesigen 3-MW-Turbinen, die sie auf den Hügeln zwischen Barnstaple und Ilfracombe für einen Preis von mehr als 60 Millionen Pfund errichten, die „Kapazität“ haben, 66 MW Strom zu erzeugen, und wie sie 100 000 Pfund pro Jahr an „kommunale Projekte“ überweisen wollen, um sich von der Gegnerschaft der lokalen Anwohner freizukaufen.

In Wirklichkeit wird der Output dieser Windfarm im Mittel nicht mehr als 16,5 MW betragen oder 25 Prozent der Kapazität (der mittlere Output der Windturbinen in UK betrug im vorigen Jahr 21 Prozent), das ist eine so bedauernswert kleine Menge, dass sie kaum 2 Prozent des Outputs eines mittelgroßem Gaskraftwerkes ausmacht. Und trotz all dem können die Entwickler darauf hoffen, 13 Millionen Pfund zu verdienen, von denen 6,5 Millionen Pfund durch Subventionen zustande kommen. Die 100 000 Pfund, die sie an die Kommunen vor Ort  weitergeben wollen, liegen unter 1 Prozent.

Eine andere ausgewählte Stelle in GB, an der sich durch die Errichtung von Windparks unter den Einwohnern gewaltiger Ärger erhebt, ist die Alstorp estate in Northamptonshire, wo Earl Spencer hofft, dass es einer französische Kompanie, EDF, erlaubt wird, für 2,5 Millionen Pfund 13 2-MW-Windturbinen zu errichten, die sich 385 Fuß [ca. 117 m] über dem kleinen Tal von Avon Dasset erheben werden. Dies wird ihren Besitzern Subventionen in Höhe von 650 000 Pfund pro Jahr einbringen, nur um eine so geringe Menge Energie zu erzeugen, dass der wechselnde, ins Netz fließende Anteil von dem Netz kaum bemerkt wird. Man vergleiche das mit dem Output von fast 900 MW des 400 Millionen Pfund teuren Gaskraftwerkes, das kürzlich in der Nähe von Plymouth eröffnet worden ist, und man sieht, dass die kapitalen Kosten dieser Windfarmen im Vergleich mit der kümmerlichen Energiemenge, die sie erzeugen, rund zehn mal so hoch sind. Die Kosten des 2-Milliarden-Pfund-Planes, 800 Windturbinen mit einer Höhe bis zu 415 Fuß [ca. 126 m] über einem ausgedehnten Areal von Mittelwales zu errichten, ebenso wie der Bau von 100 Meilen [ca. 161 km] Leitungen, um sie ans Netz anzuschließen, werden atemberaubend 15 mal höher sein als notwendig, wenn man die gleiche Menge Energie aus Gas erzeugt, ganz ohne Subventionen.

Dies ist die Sorte von harten Fakten, die nirgendwo in der jüngsten Propagandaübung des IPCC auftauchen. Das einzige Ziel dieses Berichtes ist es, Politiker wie unseren Energieminister Chris Huhne mit einem Stück Papier zu versorgen, mit dem sie winken können, um ihrer Behauptung Nachdruck zu verleihen, dass ihre Träume, die Erde mit Windturbinen zu bedecken, von „den führenden Klimawissenschaftlern der Welt“ in vollem Umfang gerechtfertigt wird.

Unsere Regierung, unterstützt von nahezu allen unseren Politikern, hofft, dass wir während der nächsten neun Jahre 100 Milliarden Pfund für Windturbinen ausgeben. Selbst wenn das in der Praxis erreichbar sein sollte, würde es den Bau einer Anzahl von Gaskraftwerken erforderlich machen, allein schon um ein sofortiges Backup zur Verfügung zu stellen, wann immer der Wind nicht mit der richtigen Geschwindigkeit weht. Diese müssten ständig in Bereitschaft gehalten werden, so dass jede theoretische Reduktion von CO2 in GB obsolet ist.

Diese Vernarrtheit in die Chimäre der Windenergie ist von gleicher Größenordnung wie der zusammenbrechende Euro und stellt eine der größten Torheiten unserer Tage dar. Da kommt der Umstand gerade recht, dass Dr. Pachauris jüngste Bemühungen mit den Warnungen von US-Wissenschaftlern zusammenfällt, dass die gegenwärtige dramatische Abnahme der Sonnenaktivität die Annäherung einer „Mini-Eiszeit“ ankündigen könnte. Aber angesichts der immer mehr verblassenden Angst vor der globalen Erwärmung liegt das wirkliche Problem darin, dass unsere Politiker so viel persönlichen Ehrgeiz in diesen Wahn gesteckt haben, dass es ihnen  selbst dann, wenn die Hölle zufriert, unmöglich ist zuzugeben, dass sie sich geirrt haben.

Christopher Booker im britischen Telegraph 

Übersetzt von Chris Frey für EIKE




Strandinterviews: Dr. Klaus Puls

Strandgespräch

Strandgespräch im März 11 auf Sylt über den Meeresspiegel mit Dipl, Meteorologen Klaus Puls EIKE. Das Gespräch führt Wolfgang Müller EIKE




Nur Europa glaubt noch an die Klimarettung!

Die Situation der globalen Klimapolitik ist kurz zusammenfassbar: Es gib sie nicht. Insbesondere die wachsenden Volkswirtschaften Asiens lassen sich ihre Wachstumsmöglichkeiten durch verpflichtende Kohlenstoffdioxidminderungen nicht beschneiden. Überall auf der Welt werden Klimagesetze beerdigt oder auf Eis gelegt. Insbesondere das viel gepriesene Instrument Emissionshandel ist ein Auslaufmodell und steht nicht etwa vor einem Durchbruch. China, Indien und Australien winken ab. In den USA wurde die Chicagoer Klimabörse nach den letzten Zwischenwahlen zum US-Kongress geschlossen. Kurz vorher hat der selbst ernannten Klimapapst Al Gore noch seine Anteile der Börse verkauft. „Klimapolitik ist ein totes Projekt“. heißt es in Washington. Die EU hält an allen Maßnahmen fest und diskutiert sogar deren Verschärfung. Dabei stehen wir mit den politischen Kosten der CO2-Minderung weitgehend allein. Man ignoriert die internationalen Realitäten mit einer bemerkenswerten Hartnäckigkeit.

Nach wie vor gilt das inzwischen autosuggestiv benutzte Argument: „Einer muss ja den Anfang machen.“ Dieser Anfang bleibt ein Alleingang! Wenn wir das nicht erkennen, ruinieren wir unsere Volkswirtschaften durch einseitige Kostenbelastungen.

Dem Klima nützt das alles nichts. Denn völlig unabhängig davon, was Kohlenstoffdioxid in der Atmosphäre anrichtet, jede Minderung europäischer Emissionen wird in kürzester Zeit von Emissionen anderswo in der Welt kompensiert. Das neben den politischen Realitäten auch die vom IPCC („Weltklimarat“) verbreiteten wissenschaftlichen Grundlagen über die angeblich gesicherten Erkenntnisse der Ursachen klimatischer Veränderungen hinterfragt werden sollten, kommt immer noch einer Art Gotteslästerung gleich.

Nachdem das IPCC durch Affären und politische Einflussnahme weitgehend diskreditiert ist, sollten die gängigen CO2-Thesen neu bewertet werden. Klimawandel ist komplex und war zu allen Zeiten gegenwärtig. Das er nur von einem Spurengas in der Atmosphäre maßgeblich angetrieben wird, ist schon mit der Hinterfragung durch gesunden Menschenverstand und mit Blick auf die langfristige Klimahistorie unwahrscheinlich.

Wer die Macht über den Glauben hat, hat Macht über die Menschen. Das galt früher für Religionen. Heute scheint der Glaube an den von Menschen gemachten Klimawandel eine Art Ersatzreligion geworden zu sein. 

Holger Krahmer FDP MdP mit Dank übernommen von ACHGUT hier

Anmerkung der Redaktion:

Der frühere Klimachef der UN, Yvo de Boer, sagte sogar in einem Interview: „Wir müssen sehen, dass das Kyoto-Protokoll tot ist.“ 

gefunden im Tagesspiegel hier




IPCC-Arbeitsgruppe 3 und Greenpeace-Karaoke

Ich zum Beispiel war brennend daran interessiert, wie das IPCC zu dem Potential von 80% gekommen war. In Fortsetzung der widerwärtigen Praktiken des IPCC wurden unglücklicherweise die stützenden Dokumente für diese Studie zu den Erneuerbaren zum Zeitpunkt dieser Ankündigung nicht zugänglich gemacht. (Lediglich die Zusammenfassung für Politiker war verfügbar zu der Zeit). Dies zeigte einen Sorgen machenden Aspekt der Ankündigung. Der Bericht basierte auf 164 „Szenarien“, und das „bis zu 80%-Szenario“ im einführenden Satz ihrer Presseerklärung war für diese Szenarien nicht repräsentativ, sondern nur das absolute äußerste Maximum. Diese Art von Presseerklärung ist unzulässig, und es bleibt für mich unverständlich, warum so etwas bei akademischen Presseerklärungen oder solchen durch internationale Organisationen toleriert wird.

Die Veröffentlichung des zugrunde liegenden Berichtes war für den 14. Juni vorgesehen und wurde dem gemäß auch heute bekannt gemacht. Natürlich war ich am Ursprung dieses 80%-Szenarios interessiert und daran, welche außerordentliche Sorgfalt [due diligence] das IPCC an den Tag gelegt hatte, um vor der Veröffentlichung in der Presseerklärung festzustellen, wie realistisch dieses Szenario war. Ich hegte wider besseres Wissen die Hoffnung, dass es etwas mehr war als nur eine Coverversion des IPCC für eine Studie von Greenpeace, aber ich wurde enttäuscht.

Die Szenarien finden sich in Kapitel 10 des Berichtes. Autoren dieses Kapitels waren (hauptsächlich Deutsche):

CLAs -Manfred Fischedick (Deutschland) und Roberto Schaeffer (Brasilien).

Leitende Autoren: Akintayo Adedoyin (Botswana), Makoto Akai (Japan), Thomas Bruckner (Deutschland), Leon Clarke (USA), Volker Krey (Österreich/Deutschland), Ilkka Savolainen (Finnland), Sven Teske (Deutschland), Diana Ürge?Vorsatz (Ungarn), Raymond Wright (Jamaica).

Die 164 Szenarien beziehen sich auf einen gerade erst veröffentlichten und bezahlten [paywalled?] Artikel von zwei der leitenden Autoren (Krey und Clarke 2011, Klimapolitik). Update – seit man sich seitens des IPCC auf diesen Artikel verlassen hat, wurde er hier offiziell gemacht [liberated].

Im Kapitel 10 wurden vier Szenarien isoliert, um sie detaillierter zu beschreiben. Eines davon kann mit dem Szenario in der Presseerklärung des IPCC identifiziert werden. Die Identifikation erfolgt auf der Basis von Tabelle 10.3, die 77% Erneuerbare bis 2050 für das ER-2100-Szenario zeigt, wie es Teske et al. 2010 zugeschrieben wird. (Teske ist ein weiterer leitender Autor von Kapitel 10). Dieses Szenario wird folgendermaßen beschrieben:

Niedriger Bedarf (z. B. durch eine signifikante Zunahme der Energieeffizienz) in Kombination mit einer hohen Entfaltung der Energierevolution, keine Verwendung von CCS und einem Auslaufen nuklearer Energie bis 2045 in der dritten, abgemilderten Version, beschleunigter Energierevolution (ER) 2010 (Teske et al. 2010; im Folgenden ER-2010).

Teske et al. – online hier wird folgendermaßen zitiert:

Teske, S., T[homas] Pregger, S[onja] Simon, T[obias] Naegler, W[ina] Graus, und C[hristine] Lins (2010). Energy [R]evolution 2010—ein nachhaltiger Ausblick auf die Weltenergie. Energieeffizienz, doi:10.1007/s12053-010-9098-y.

Allerdings führte mich das Googeln dieses Titels zunächst zu einem anderen Artikel mit fast gleicher Überschrift: ‚Energie(r)evolution 2010 – EIN NACHHALTIGER GLOBALER AUSBLICK AUF DIE WELTENERGIE‘, online hier. Diese Version ist eine gemeinsame Publikation von Greenpeace und des European Renewable Energy Council [etwa: Europäischer Rat für erneuerbare Energien], der sich selbst als ‚Dachorganisation der Industrie für erneuerbare Energie‘ bezeichnet. Die Titelseite zeigt:

project manager & lead author: Sven Teske
EREC: Oliver Schäfer, Arthouros Zervos,
Greenpeace International: Sven Teske, Jan Béranek, Stephanie Tunmore
research & co-authors: DLR, Institute of Technical Thermodynamics, Department of Systems Analysis and Technology Assessment, Stuttgart, Germany: Dr. Wolfram Krewitt, Dr. Sonja Simon, Dr. Thomas Pregger.
DLR, Institute of Vehicle Concepts, Stuttgart, Germany: Dr. Stephan Schmid
Ecofys BV, Utrecht, Niederlande: Wina Graus, Eliane Blomen.

Das Vorwort zu dieser Greenpeace-Studie  stammt von einem gewissen R. K. Pachauri, der darin feststellt:

Diese Zusammenstellung von Szenarien der Energie(r)evolution stellt eine detaillierte Analyse des Potentials der Energieeffizienz sowie ausgewählte Transportmöglichkeiten zur Verfügung. Das Material, das in dieser Publikation präsentiert wird, stellt eine brauchbare Basis dar, um sich spezifische politische Maßnahmen und Entwicklungen zu überlegen, die nicht nur für die Welt als Ganzes wertvoll sind, sondern auch für verschiedene Länder in ihrem Versuch, die globale Herausforderung, der sie sich gegenüber sehen, anzunehmen. Die auf den folgenden Seiten beschriebenen durchgeführten Arbeiten sind umfassend und rigoros, und selbst diejenigen, die dieser Analyse nicht zustimmen, könnten vielleicht durch eine vertiefte Studie der zugrunde liegenden Hypothesen profitieren, sind sie doch mit spezifischen Szenarien der Energiezukunft  verbunden.

Dr. R. K. Pachauri
DIRECTOR-GENERAL, THE ENERGY AND RESOURCES INSTITUTE (TERI) AND CHAIRMAN, INTERGOVERNMENTAL PANEL ON CLIMATE CHANGE (IPCC)

Kehren wir nun zu der Originalpresseerklärung des IPCC zu den Erneuerbaren zurück:

Einem aktuellen Bericht zufolge kann nahezu 80% des Weltenergiebedarfs bis zur Mitte des Jahrhunderts durch Erneuerbare zur Verfügung gestellt werden, falls sie durch richtige politische und öffentliche Maßnahmen unterstützt werden.

Die Basis für diese Behauptung ist ein von Greenpeace entworfenes Szenario. Der leitende Autor, der dieses Greenpeace-Szenario begutachtet hatte, war der gleiche Mitarbeiter von Greenpeace, der die Greenpeace-Szenarien vorbereitet hatte, zu denen der IPCC-Vorsitzende Pachauri seine Einführung geschrieben hatte.

Die Öffentlichkeit und die Politiker hungern nach einer unabhängigen und maßgebenden Analyse dazu, wie viel Gewicht genau den Erneuerbaren in der Energiezukunft beigemessen werden kann. Sie erwarten mehr von der IPCC-Arbeitsgruppe 3 als eine Karaoke-Version eines Greenpeace-Szenarios.

Es ist vollkommen inakzeptabel, dass das IPCC einen Greenpeace-Mitarbeiter als einen leitenden Autor des kritischen Kapitels 10 bestellt, und dass dieser Greenpeace-Mitarbeiter als leitender Autor des IPCC sozusagen dafür verantwortlich ist, seine eigene Arbeit zu begutachten (wie es Michael Mann und Keith Briffa in vergleichbaren Situationen getan haben), und dass ein solches mit einer solchen mangelhaften und nicht-unabhängigen ‚außerordentlichen Sorgfalt‘ entworfenes Greenpeace-Szenario in einer Presseverlautbarung des IPCC zum Thema Erneuerbare erscheint.

Jeder Einzelne in der Arbeitsgruppe 3 des IPCC sollte abgelöst werden, und falls die Institution am Leben gehalten werden soll, muss sie ohne diese Kratzer neu strukturiert werden.

Dieser Beitrag wurde von Steve McIntyre geschrieben und am 14. Juni 2011geposted, gelistet unter Uncategorized und unterder Rubrik IPCC, renewables, wg3. Bookmark den permalink. Follow any comments here with the RSS feed for this post. Post a comment or leave a trackback: Trackback URL.

Link: http://climateaudit.org/2011/06/14/ipcc-wg3-and-the-greenpeace-karaoke/

Übersetzt von Chris Frey für EIKE




CDU/CSU Energiepolitischer…. Dialog der Abzocker. Gastbeitrag von Vera Lengsfeld Ex CDU MdB

Das erste Impulsreferat hielt der Staatsekretär im Wirtschaftsministerium Homann. Es war eine Zeitreise. Seit den realsozialistischen Tagen unseligen Angedenkens habe ich nicht mehr einen solchen planwirtschaftlichen Vortrag vernommen, mit allem, was dazu gehört, realitätsfernen Planzielen, samt Festlegungen, wodurch sie zu erreichen seien. Ganz wohl war dem Beamten nicht dabei, deshalb riß es ihn zu einigen brisanten Aussagen aus dem wirklichen Leben hin: die „finanziellen Folgen der Energiewende seinen unabsehbar“, es gäbe „keine belastbaren Zahlen“, was das alles kosten würde, „nicht einmal Schätzungen“. Er referierte über den politischen Beschluss, den Ausbau der Erneuerbaren Energien zu forcieren und wies gleichzeitig darauf hin, dass die Netzkapazität für die bereits installierte Leistung längst nicht mehr ausreicht. Das heißt, der forcierte Ausbau der „Erneuerbaren“ wird kaum ein anderes Resultat haben, als das gegenwärtige Netzchaos noch zu verstärken. Jede verantwortliche Regierung würde den Ausbau der „Erneuerbaren“ stoppen, bis adäquate Netze zur Verfügung stehen. Das Kabinett Merkel jedoch, das seinen „Handlungsbedarf“ aus dem Reaktorunglück in Fukushima und denn Vorgaben der von ihr eingesetzten „Ethikkommission“ ableitet, verfährt nach dem sozialistischem Muster, dass der politische Wille erfüllt werden muss, egal, was es kostet, oder wie die Realität aussieht. 
Welche Schwierigkeiten es dabei gibt, entnimmt man, auch wie zu sozialistischen Zeiten, aus den Botschaften, die sich zwischen den Zeilen verbergen: die beiden am häufigsten wiederkehrenden Begriffe im Referat waren „Versorgungssicherheit“ und „Bezahlbarkeit“. Da weiß zumindest der gelernte DDR-Bürger, dass beides in den Sternen steht. Über Versorgungssicherheit ist im Westteil unseres Vaterlandes seit Gründung der BRD nicht mehr geredet worden, weil sie selbstverständlich war. Die DDR-Bürger lasen diesen Begriff im „Katastrophenwinter“ 1978/78 häufiger bei Kerzenlicht in den SED-Parteizeitungen, als immer öfter der Strom abgeschaltet werden musste, weil die realsozialistische Misswirtschaft nicht in der Lage war, die Grundversorgung zu sichern. 
Was die „Bezahlbarkeit“ betrifft, so machte die zweite Referentin, Katharina Reiche, Staatssekretärin im Umweltministerium, die ihren Minister vertreten musste, den ich gern gefragt hätte, woher er denn weiß, dass die Energiewende nicht mehr als 39 € pro Kopf kosten würde, eine aufschlussreiche Bemerkung. Noch, sagte sie, sei man bemüht, die „Umlage stabil zu halten“, aber dieses „gegenwärtige Ziel“ sei im Anbetracht der vielen Wünsche und Forderungen nach mehr Förderung wohl nicht einzuhalten. Reiche bemühte sich auch, den Eindruck zu erwecken, die Partei Ludwig Ehrhards würde sich weiterhin bemühen, irgendwann marktwirtschaftliche Elemente in das Staatsplan-Konstrukt „Energiewende“ einzuführen. Es war aber allzu offensichtlich reine Rhetorik. 
Das wurde in der nachfolgenden Diskussion ganz offensichtlich. Einer nach dem anderen standen die Vertreter der Erneuerbaren Energiebranche auf und meldeten weitergehenden Förderbedarf an. Es ging zu wie auf dem Weihnachtsbasar. Jeder lieferte seinen prall gefüllten Wunschzettel ab, gepaart mit der Erwartung, dass die Wünsche umgehend und in vollem Umfang erfüllt werden müssten. Die Damen und Herren Profiteure der größten Umverteilung von unten nach oben ließen durchblicken, dass sie keine Moralkeule zu schwingen sich scheuen würden, damit das Steuer-, und Abgabengeld weiter munter in ihre weit geöffneten Kassen fließt. 
Der Markt ist für sie schon deshalb das größte Übel, weil sie sich auf ihm nicht behaupten können. Sie wollen es auch gar nicht. Staatliche Zuwendungen fließen schließlich unabhängig von der Leistung und dem erzielten Ergebnis. Back in the GDR- und das nach nur zwanzig Jahren. Willkommen in Angelas Alptraum. 

Vera Lengsfeld

mit freundlicher Genehmigung zuerst erschienen auf ACHGUT




Meldung des PIK: „Meeresspiegel steigt so schnell wie seit 2000 Jahren nicht“ entpuppt sich als Ente! Daten zeigen keine Änderung!

….Die Klima-Katastrophen-Auguren verkünden heute in den Medien zum x-ten Mal die Überflutung der Kontinente, n i c h t  auf der Basis von Messungen  (die zeigen das Gegenteil! s.w.u.), sondern auf der Basis von Sediment-Analysen;
h i n z u  kommt: es handelt sich um eine ausgewählte kleine Küstenregion, von der die Autoren auf alle weltweiten Meere schließen!
    in der Original-Presse-Miteilung heißt es nämlich dazu :
"… Das zeigt eine Untersuchung von Ablagerungen an der US-Atlantikküste – …"

Update: Nicht nur der chronisch klimakatastropengläubige WDR fällt auf diese Ente herein. Aber der besonders:

Sehen Sie hier ganz aktuell die Verbreitung dieser Ente durch den WDR II. Mit Dank an Solarkritik.de

Das ganze Gegenteil zeigen weltweit die MESSUNGEN(!!) von Pegeln und Satelliten:

(1) GLEICHZEITIG  zur o.a. Verlautbarung erscheint soeben im US-Coastel Journal der hier beigefügte Artikel, in dem auf der Basis von Pegel-Messungen klipp+klar das Gegenteil bewiesen wird:

"Der weltweite Temperaturanstieg hat keine Beschleunigung des globalen Meeresspiegelanstieges verursacht, sondern wahrscheinlich sogar eine Entschleunigung in den vergangenen 80 Jahren."

hier die gesamte undefinedPublikation :

(2) EUMETSAT hat kürzlich die aktuellen GLOBALEN Daten/Messungen zum Meeres-Spiegel veröffentlicht -ERGEBNIS: Von einem beschleunigten Meeresspiegelanstieg keine Spur !

(3) Zum gleichen Ergebnis kommt das GFZ Potsdam :

Die GFZ-Daten beweisen darüber hinaus, daß es überhaupt keinen globalen einheitlichen Meerestrend gibt, sondern stets auch riesige Areale mit fallendem Meeresspiegel !

(4) Anhand der langjährigen zuverlässigen Pegel von Norderney + Cuxhaven kommen in Niedersachsen  die Landesregierung und der Niedersächsische Landesverband NLWKN auch für die Nordseeküste  zu der klaren Aussage, daß es keine Beschleunigung des Meeresspiegelanstiegs gibt :

(5) Arbeiten des Institutes für historische Küstenforschung Wilhelmshaven
kommen ebenfalls zu ganz anderen Ergebnissen:

Danach : Der Meeresspiegel ist in den vergangenen Jahren nie so langsam gestiegen, wie im 20. Jahrhundert ! …von einer Beschleunigung keine Spur.

(6) Ein Autorenteam der NASA  hat kürzlich eine Arbeit publiziert, aus der u.a. zwei Dinge klar hervor gehen:
(a) Es existiert kein beschleunigter Meeresspiegelanstieg,
(b) die Meerestemperatur zeigt einen abnehmenden(!) Trend,
     folglich existiert auch kein thermisch beschleunigter Meeresspiegelanstieg :

(7) Auch das IPCC hat offensichtlich die gleichen Erkenntnisse, denn von Bericht zu Bericht wurde die Prognoserate des Meeresspiegels für 2100 zurück genommen  –  auf mittlerweile unter 40 cm :

Berücksichtigt man, daß dem Autorenteam weltweit als Alarmisten bekannte Autoren wir Michael Mann (Hockey-Stick-Erfinder), Stefan Rahmstorf (PIK) et al.
angehören, so sind erheblich Zweifel an der Aussagekraft dieses neuen Weltuntergangs-Papiers angebracht.

Eine jüngst erschienene kritische Auseinandersetzung mit dem neuerlichen Meeres-Spiegel-Alarmismus findet sich auch hier:

Klaus-Eckart Puls EIKE

Weiterführender Link z.B hier: Mann´s neues Meeresspiegel Hockeystick Papier

oder hier eine lesenswerte Besprechung des Aufsatzes von Michael Krüger auf Science Skeptical




Ab in die Zukunft: Wie sieht die Versorgung mit Windenergie bis 2050 aus?

Die Grafik 1 zeigt die Windstromerzeugung  vom 1.3.2011 bis 31.3.2011.

Man kann folgende Datenpunkte entnehmen (Angaben in Gigawatt) :

1. Maximale Windleistung 19GW

2. Minimale Windleistung 0,1GW

3. Mittlere Leistung 4,1GW

4.Installierte Windleistung 27,214GW

5.Installierte Windkraftanlagen 21.607 –5443-

6.Geleistete Arbeit 3057GWh

7.Nutzungsgrad 15%

Um die ungleichmäßige Windstromerzeugung zu glätten und damit in einen kontinuierlichen Leistungsfluß zu erreichen ist die elektrische Arbeit, die grün über der roten Mittelwertmarke gezeigt ist, dem Netz zu entnehmen und zu speichern und in dem Bereich, der weiss unterhalb der roten Mittelwertlinie dargestellt ist, dem Speicher wieder zu entnehmen und dem Netz zuzugefügen. Die obere grüne Fläche ist gleich groß wie die untere weisse Fläche. Für diese Aufgabe stehen gegenwärtig Pumpspeicherwerke mit einer maximalen Leistung von 7GW für Pump- und Generatorbetrieb zur Verfügung. Um die Windleistung oberhalb der mittleren Leistung im Pumpbetrieb einspeichern zu können ist aber eine maximale Pumpleistung von 14,9GW erforderlich.

Erforderliche Pumpleistung =Maximale Windleistung – Mittlere Windleistung

Da die Pumpleistung sowie die Speicherkapazität der vorhandenen Pumpspeicherwerke, als blaue Fläche in der Grafik zum Vergleich dargestellt,  nicht ausreicht um die weissen Flächen zu füllen, wäre schon jetzt der Zubau an Pumpspeicherwerken auf die Größe von 14,9GW Pumpleistung erforderlich.

Da der Windstrom fast vollständig in Norddeutschland gewonnen wird und Standorte für Pumpspeicherwerke wegen der erforderlichen Fallhöhe nur in Süddeutschland gefunden werden könnten, was ja kaum möglich ist, muss also, um einen gleichmäßigen Leistungsfluß von 4,1GW aus Windenergie zu erreichen 14,9GW nach Süddeutschland gebracht und als Pumparbeit eingespeichert werden können. Eine solche Belastung für ein Hochspannungsnetz nur zur Speicherung ist einmalig auf der Erde. Die maximale Generatorleistung der Pumpspeicherwerke müßte bei 4,0 GW liegen.

Maximale Generatorleistung = Mittlere Windleistung – Minimale Windleistung

Die Einspeicherungskapazität der Pumpspeicherwerke müßte bei ca. 330GWh liegen. Das ist notwendig um die als weisse Fläche unterhalb der roten Linie dargestellte Arbeit abzudecken. Der Wert 330GWh ist eine Abschätzung der Größe der weissen Fläche unterhalb der roten Linie. Dazu teilt man die untere Datumsskala statt in Tage in Stunden ein und kann dann die in diesen Bereich fallende Arbeit durch Multiplikation von Leistung und Zeit errechnen. Heute sind ca. 56GWh Pumpspeicherkapazität installiert.

Speicherkapazität = 7GW * 8h =56GWh.

Wie man auch sehen kann reicht am Monatsanfang die grüne Fläche nicht aus um die weissen Flächen unter der roten Mittelmarke zu füllen. Es ist also ein vorausschauendes Speichermanagement erforderlich um Reserven im Vormonat anzulegen. Gedankenspiele der Politik Speicher in Norwegen zu bauen kann man als Utopie abhaken. Dann würden die Leitungen gegen den Willen der Bevölkerung durch Norwegen, Schweden und Dänemark oder als Kabel durch die Nordsee gehen müssen. Der dafür erforderliche Netzausbau ist riesengroß und dieses Beispiel zeigt ja nur den heutigen Zustand im März 2011. Von Netzverlusten und Wirkungsgraden soll in diesem Bericht, obwohl sie wichtig sind, nicht die Rede sein. Schon heute kann die Netzstabilität wegen fehlender Speicher nur von fossilen oder nuklearen Kraftwerken garantiert werden. In dieser Situation geht nun die Bundesregierung daran und will Deutschland voll auf Wind und Sonne umstellen.

Ich habe jetzt folgendes gemacht. Ich habe die Grafik 1 umgerechnet auf den gleichen Monat des Jahres 2050. Zufällig sind in diesem Monat die gleichen Windverhältnisse wie 2011. Man hat kräftig neue Windkraftanlagen gebaut. Die installierte Leistung ist jetzt gleich mit der Maximalleistung von 80GW mit 63524 (16000) Windkraftanlagen.

Inst. Windkraftanl.2050 (Inst.Windleistung2050/Inst.Windleistung2011) x Inst.Windkraftanl.2011

Wo die in Nord-und Ostsee stehen sollen weiß nur die Bundesregierung.

Die Grafik 2 zeigt die Windstromerzeugung  vom 1.3.2050 bis 31.3.2050.

Sie ist durch die Multiplikation der Werte vom 2011 mit 2,94 entstanden.

2,94=Inst.Windleistung2050/Inst.Windleistung2011

Man kann folgende Datenpunkte entnehmen:

1. Maximale Windleistung 56GW

2. Minimale Windleistung 0,3GW

3. Mittlere Leistung 12,05GW

4.Installierte Windleistung 80GW

5.Installierte Windkraftanlagen 63524  (16000)

6.Geleistete Arbeit 8986GWh

7.Nutzungsgrad 15%

Pumpspeicherwerke konnten in der vergangenen Zeit nicht gebaut werden wegen Standortmangel und Bürgerprotest. Auch die Norweger haben sich nicht so gezeigt wie die deutschen Politiker es gerne gesehen hätten. Für die Berechnung tu ich mal so als wäre tüchtig gebaut worden. Jetzt muss mit einer maximalen Pumpleistung von 43,95GW eingespeichert werden.

Erforderliche Pumpleistung =Maximale Windleistung – Mittlere Windleistung

Für das Hochspannungsnetz ist diese Belastung einmalig auf der Welt da sie ja nur fürs Speichern erforderlich ist. Eine Utopie !!! Die maximale Generatorleistung der Pumpspeicherwerke beträgt 11,75GW.

Maximale Generatorleistung = Mittlere Windleistung – Minimale Windleistung

Eine Vollversorgung Deutschlands mit Windenergie ist nicht möglich. Dafür müßten im März 2050 406524 (106231) Windkraftanlagen installiert sein.

Erford.Windkraftanl.=(80 GW / mittlereWindleistung) x Inst.Windkraftanl.

Wie schon 2011 muß der Bereich zwischen mittlerer Leistung und tatsächlicher Leistung mit überwiegend fossilen oder nuklearen Energien abgedeckt werden. Wieviele Pumpspeicherwerke brauchen wir denn jetzt ? Nehmen wir als Beispiel die Anlage Goldisthal. Diese hat eine Leistung von 1,05GW und kann diese Leistung ca.8 Stunden liefern. Dann ist der Speicher leer.  Das ist eine Speicherkapatität von ca.8,4 GWh. Um den Monat März zu überstehen müssen wir 44 Anlagen dieser Art bauen, denn die Pumpleistung einer Anlage ist 1,05 GW, wir müssen aber 43,95 GW einsetzen um zu Speichern. Um die Abgabeleistung zu erreichen müßten wir 12 Anlagen bauen.

Maximale Generatorleistung = Mittlere Windleistung – Minimale Windleistung

Dazu gehört auch ein gewaltiger Netzausbau um die Leistung von 43,95GW von Norddeutschland an die Standorte der Pumpspeicherwerke in Süddeutschland zu bringen. Alles gegen den Willen der Bevölkerung. Völlige Utopie !!!

Da ja keine Pumpspeicherwerke gebaut werden konnten geht das nicht, daher muss jetzt wieder die fossile oder nukleare Energie ran. Man hat also in Windkraft Milliarden Euro investiert und ist keines der ungeliebten Dampfkraftwerke losgeworden. Aber Kohle, Oel und Nuklear will die Bundesregierung 2050 nicht mehr haben, dafür sollen gasgefeuerte GUD-Kraftwerke mit CCS-Technologie gebaut werden. Wieviele brauchen wir denn ? Die größte von Siemens lieferbare Anlage  SCC5-8000H 1S hat eine Leistung von 570MW. Um 80GW abdecken zu können müßten 140 Werke gebaut werden. Das ist alles gigantisch und utopisch. Weiss die Bundesregierung auch wieviel flüssiges CO2 anfällt und wo es bleiben soll, für alle Ewigkeit und gegen den Willen der Bevölkerung ? Ich fürchte das weiss sie nicht .

Ökofreunde werden jetzt nach Photovoltaik rufen. Aber die hat täglich  schlimmere Probleme als die Windenergie. Wie ist es mit Biogas, BHKW, Erdwärme, Sonnenkraft aus der Sahara, Wasserstoff, Luftspeicherkraftwerke. Alle diese Dinge haben nicht das Potenzial 80GW abzudecken und noch viel wichtiger, alle diese Dinge können nicht die Netzstabilität gewährleisten. Darunter ist zu verstehen:

1.Netzfrequenz

2.Netzspannung

3.Kurzschlußleistung

4.Blindleistungskompensation

5.Schwarzstartfähigkeit (nur Luftspeicher,Laufwasser oder Pumpspeicher)

Wer bis jetzt nicht die Unsinnigkeit des Vorhabens nicht bemerkt hat bekommt jetzt die volle Ladung. Jetzt kommt die Berechnung für den Idealfall Vollversorgung mit Windenergie im Hochlastbereich im Winter 2050 mit dem Wind vom März 2050 :

 

1. Maximale Windleistung 371GW (Utopie)

2. Minimale Windleistung 2GW  (Utopie)

3. Mittlere Leistung 80GW entspricht der maximalen Netzlast

4.Installierte Windleistung 531GW (Utopie)

5.Installierte Windkraftanlagen 406524 = 0.86km2/WKA (Utopie) 106231 = 3.3km2/WKA (Utopie)

6.Installierte Leistung GuD 80 GW

7.Installierte Anlagen GuD 140

8.Installierte Speicherpumpen 291GW = 277 mal Goldisthal (Utopie)

9.Installierte Speichergeneratoren 80GW = 76 mal Goldisthal (Utopie)

Die Bundesregierung setzt auf ein grosses Einsparpotenzial, will aber bis zu 40 Millionen PKW als Elektrofahrzeuge auf die Strasse bringen. Eine absolute Horrorvorstellung und Utopie.Wir können nur hoffen das die Bundesregierung weiss was sie macht. Ich fürchte sie weiss es nicht. Über die Kosten mache ich mir keine Gedanken. Die werden über das EEG an den Stromverbraucher weitergegeben. Null Problemo !!!!

Jetzt zu dem Geheimnis der fett gesetzten Zahlen. Die Berechnungen gingen von dem Bestand an WKA des Jahres 2011 aus. Zu dieser Zeit gab es noch kleine WKA die man 2050 nicht mehr bauen würde und die auch 2050 nicht mehr existieren. Ich habe daher die Anzahl der WKA umgerechnet auf eine mittlere Leistung von 5MW/WKA und diesen Wert als blaue Zahl in den Text gestellt. Trotzdem sind die sich egebenden Stückzahlen gigantisch.

Da ich jetzt soweit gekommen bin mit meinen Überlegungen kommt mir der Gedanke  :  Windkraftanlagen haben ja nur eine Lebensdauer von 20 Jahren. Wir brauchen dann ein Management für Bau und Abriss von WKA. Da kommen Ewigkeitskosten wie im Ruhrgebiet auf uns zu.

Wenn wir 2010 mit dem Bau von 400 WKA/Jahr kontinuierlich angefangen hätten wären wir im Jahr 2030 schon bei 8000 Stück angelangt. Nur sind die ältesten WKA jetzt 20 Jahre alt und müssen abgerissen werden. Wiederum mit 400St/Jahr, so dass im Jahr 2050 keine dieser Anlagen mehr da ist. Gleichzeitig müssen wir ab 2030 die Produktion von WKA auf 800 Stück/Jahr steigern damit wir 2050 auf 16000 Stück kommen. Die ersten die wir 2030 bauen sind 2050 schon 20 Jahre alt und müssen abgerissen und ersetzt werden. Es ist  also die Produktion von WKA auch nach 2050 für die Ewigkeit auf 800Stück/Jahr zu halten. Die Kosten werden sich auf ca. 20 Mrd.€/Jahr belaufen. Dazu kommen die Abrisskosten von Schätzungsweise 10% des Neuwertes also nochmals 2 Mrd.€/Jahr. Auch über diese Kosten mache ich mir keine Gedanken. Die werden über das EEG an den Stromverbraucher weitergegeben. Null Problemo !!!!

Grafik 1

Grafik 2

Michael Treml für EIKE

Prozessleittechiker und Windkraftkenner mit 40 jähriger Erfahrung in Kraftwerkstechnik 

jetzt im Ruhestand

Related Files




Die Chaos-Theorie selbst zieht der Klimamodellierung den Boden unter den Füßen weg.

Was ist Chaos? Ich benutze diesen Ausdruck hier in seiner mathematischen Bedeutung. So, wie in den vergangenen Jahren die Naturwissenschaftler weitere Aggregatzustände der Materie entdeckten (neben fest, flüssig, gasförmig, nun auch plasma),  so wurden von der Wissenschaft neue Zustände entdeckt, die Systeme annehmen können.

Systeme von Kräften, Gleichungen, Photonen oder des Finanzhandels können effektiv in zwei Zuständen existieren:

Einer davon ist mathematisch zugänglich, die zukünftigen Zustandsformen können leicht vorhergesagt werden; im anderen aber passiert scheinbar Zufälliges.
Diesen zweiten Zustand nennen wir “Chaos”. Es kann gelegentlich in vielen Systemen eintreten.
Wenn Sie z. B. das Pech haben, einen Herzanfall zu erleiden, geht der normalerweise vorhersehbare Herzschlag in einen chaotischen Zustand über, wo der Muskel scheinbar zufällig schlägt. Nur ein Schock kann ihn in den Normalzustand zurücksetzen. Wenn Sie jemals ein Motorrad auf einer eisigen Fahrbahn scharf abgebremst haben, mussten Sie ein unkontrollierbares Schlagen des Lenkrads befürchten, eine chaotische Bewegung, die meist zu einem Sturz führte. Es gibt Umstände, wo sich die Meereswogen chaotisch bewegen und unerklärlich hohe Wellen erzeugen.
Die Chaos-Theorie ist das Studium des Chaos und weiterer analytischer Methoden und Messungen und von Erkenntnissen, die während der vergangenen 30 Jahre gesammelt worden sind.
Im Allgemeinen ist Chaos ein ungewöhnliches Ereignis. Wenn die Ingenieure die Werkzeuge dafür haben, werden sie versuchen, es aus ihrem Entwurf „heraus zu entwerfen“, d. h. den Eintritt von Chaos unmöglich zu machen.
Es gibt aber Systeme, wo das Chaos nicht selten, sondern die Regel ist. So eines ist das Wetter. Es gibt weitere, die Finanzmärkte zum Beispiel, und – das ist überraschend – die Natur. Die Erforschung der Raubtierpopulationen und ihrer Beutetierpopulationen zeigt z. B. das sich diese zeitweilig chaotisch verhalten. Der Autor hat an Arbeiten teilgenommen, die demonstrierten, dass sogar einzellige Organismen Populationschaos mit hoher Dichte zeigen können.
Was heißt es also, wenn wir sagen, dass sich ein System anscheinend zufällig verhalten kann? Wenn ein System mit dem zufälligen Verhalten anfängt, wird dann das Gesetz von Ursache und Wirkung ungültig?
Vor etwas mehr als hundert Jahren waren die Wissenschaftler zuversichtlich, dass jedes Ding in der Welt der Analyse zugänglich wäre, dass alles vorhersagbar wäre, vorausgesetzt man hätte die Werkzeuge und die Zeit dazu. Diese gemütliche Sicherheit ist zuerst von Heisenbergs Unschärfeprinzip zerstört worden, dann durch Kurt Gödels Arbeiten, schließlich durch Edward Lorenz, der als Erster das Chaos entdeckte. Wo? natürlich bei Wetter-Simulationen.
Chaotische Systeme sind nicht gänzlich unvorhersagbar, wie wirklich Zufälliges. Sie zeigen abnehmende Vorhersagbarkeit mit zunehmender Dauer, und diese Abnahme wird durch immer größer werdende Rechenleistung verursacht, wenn der nächste Satz von Vorhersagen errechnet werden soll. Die Anforderungen an Rechnerleistung zur Vorhersage von chaotischen Systemen wächst exponentiell. Daher wird mit den verfügbaren begrenzten Möglichkeiten die Genauigkeit der Vorhersagen rapide abfallen, je weiter man in die Zukunft prognostizieren will. Das Chaos tötet die Ursache-Wirkungs-Beziehung nicht, es verwundet sie nur.

Jetzt kommt ein schönes Beispiel.

Jedermann hat ein Tabellenkalkulationsprogramm. Das nachfolgende Beispiel kann jeder selbst ganz einfach ausprobieren.
Die einfachste vom Menschen aufgestellte Gleichung zur Erzeugung von Chaos ist die „Logistische Karte“ (logistic map).
In einfachster Form: Xn+1 = 4Xn(1-Xn)
Das bedeutet: der nächste Schritt in Folge gleicht 4 mal dem vorhergehenden Schritt mal (1 – vorhergehender Schritt). Wir öffnen nun ein Blatt in unserer Tabellenkalkulation und bilden zwei Spalten mit Werten:


Jede Spalte A und B wird erzeugt, indem wir in Zelle A2 eingeben [=A1*4* (1-A1)], und wir kopieren das nach unten in so viele Zellen, wie wir möchten. Das gleiche tun wir für Spalte B2, wir schreiben [=B1*4* (1-B1)]. Für A1 und B1 geben wir die Eingangszustände ein. A1 erhält 0.3 und B1 eine ganz gering verschiedene Zahl: 0.30000001.
Der Graph zeigt die beiden Kopien der Serien. Anfänglich sind sie synchron, dann beginnen sie bei etwa Schritt 22, auseinander zulaufen, von Schritt 28 an verhalten sie sich völlig unterschiedlich.

Dieser Effekt stellt sich bei einer großen Spannweite von Eingangszuständen her. Es macht Spaß, sein Tabellenkalkulationsprogramm laufen zu lassen und zu experimentieren. Je größer der Unterschied zwischen den Eingangszuständen ist, desto rascher laufen die Folgen auseinander.
Der Unterschied zwischen den Eingangszuständen ist winzig, aber die Serien laufen allein deswegen auseinander. Das illustriert etwas ganz Wichtiges über das Chaos. Es ist die hohe Empfindlichkeit für Unterschiede in den Eingangszuständen.
In umgekehrter Betrachtung nehmen wir nun an, dass wir nur die Serien hätten; wir machen es uns leicht mit der Annahme, wir wüssten die Form der Gleichung, aber nicht die Eingangszustände. Wenn wir nun Vorhersagen von unserem Modell her treffen wollen, wird jede noch so geringe Ungenauigkeit in unserer Schätzung der Eingangszustände sich auf das Vorhersage-Ergebnis auswirken und das in dramatisch unterschiedlichen Ergebnissen. Der Unterschied wächst exponentiell. Eine Möglichkeit zur Messung gibt uns der sogenannte Lyapunov-Exponent. Er misst in Bits pro Zeitschritt, wie rasch die Werte auseinanderlaufen – als Durchschnitt über eine große Zahl von Samples. Ein positiver Lyapunov-Exponent gilt als Beweis für Chaos. Er nennt uns auch die Grenze für die Qualität der Vorhersage beim Versuch der Modellierung eines chaotischen Systems.
Diese grundlegenden Charakteristiken gelten für alle chaotischen Systeme.
Und nun kommt etwas zum Nachdenken. Die Werte unseres einfachen Chaos-Generators im Kalkulationsblatt bewegen sich zwischen 0 and 1. Wenn wir 0.5 subtrahieren, sodass wir positive and negative Werte haben, und dann summieren, erhalten wir diesen Graphen. Der ist jetzt auf tausend Punkte ausgedehnt.


Wenn ich nun ohne Beachtung der Skalen erzählt hätte, das wäre der Kurs im vergangenen Jahr für eine bestimmten Aktie, oder der jährliche Meerestemperaturverlauf gewesen, hätten Sie mir vermutlich geglaubt. Was ich damit sagen will: Das Chaos selbst kann ein System völlig antreiben und Zustände erzeugen, die so aussehen, als ob das System von einem äußeren Antrieb gesteuert wäre. Wenn sich ein System so verhält, wie in diesem Beispiel, kann es wegen einer äußeren Kraft sein, oder ganz einfach nur wegen des Chaos.

Wie steht es also mit dem Wetter?

Edward Lorenz (1917 – 2008) ist der Vater der Chaosforschung. Er war auch Wetterforscher. Er schuf eine frühe Wetter-Simulation, indem er drei verkoppelte Gleichungen benutzte und er war erstaunt, dass die Simulationswerte mit dem Fortschritt der Simulation über der Zeit unvorhersehbar wurden.
Dann suchte er nach Beweisen, ob sich das tatsächliche Wetter in der gleichen unvorhersehbaren Weise verhielt. Er fand sie, bevor er noch mehr über die Natur des Chaos entdeckte.

Kein Klimatologe bezweifelt seine Erkenntnis vom chaotischen Charakter des Wetters.

Edward Lorenz schätzte, dass das globale Wetter einen Lyapunov-Exponenten gleich einem Bit von Information alle 4 Tage zeigt. Das ist ein Durchschnitt über die Zeit und über die globale Oberfläche.  Zuweilen und an gewissen Stellen ist das Wetter chaotischer, das kann jedermann in England bezeugen. Das bedeutet aber auch, dass, falls man das Wetter mit einer Genauigkeit von 1 Grad C für morgen vorhersagen kann, die beste Vorhersage für das Wetter für den 5. Folgetag bei +/- 2 Grad liegen wird, für den 9. Tag bei +/-4 Grad und den 13. Tag bei +/- 8 Grad. Auf jeden Fall wird die Vorhersage für den 9-10. Tag nutzlos sein. Wenn Sie aber das Wetter für Morgen mit einer Treffsicherheit von +/- 0.1 Grad vorhersagen könnten, dann würde die Zunahme des Fehlers verlangsamt. Weil sie aber exponentiell steigt, wird auch diese Vorhersage bereits nach wenigen weiteren Tagen nutzlos sein.
Interessanterweise fällt die Treffsicherheit der Wettervorhersagen von Institutionen, wie z. B. dem englischen Wetterdienst, genau in dieser Weise ab.  Das beweist einen positiven Lyapunov-Exponenten und damit, dass das Wetter chaotisch ist, wenn es noch eines Beweises bedurft hätte.

Soviel zur Wettervorhersage. Wie steht es mit der Langzeit-Modellierung?

Zuerst zur wissenschaftlichen Methode. Das Grundprinzip ist, dass die Wissenschaft sich so entwickelt, dass jemand eine Hypothese formuliert, diese Hypothese durch ein Experiment erprobt und sie modifiziert, sie beweist oder verwirft, indem er die Ergebnisse des Experiments auswertet.Ein Modell, ob nun eine Gleichung oder ein Computer-Modell, ist nur eine große Hypothese. Wenn man die mit der Hypothesenbildung betroffene Sache nicht durch ein Experiment modifizieren kann, dann muss man Vorhersagen mit dem Modell machen und am System selbst beobachten, ob die Vorhersagen damit zu bestätigen oder zu verwerfen sind.##Ein klassisches Beispiel ist die Herausbildung unseres Wissens über das Sonnensystem. Bei den ersten Modellen standen wir im Mittelpunkt, dann die Sonne, dann kam die Entdeckung der elliptischen Umläufe und viele Beobachtungen, um die exakte Natur dieser Umläufe zu erkennen. Klar, dass wir niemals hoffen konnten, die Bewegungen der Planeten zu beeinflussen, Experimente waren unmöglich. Aber unsere Modelle erwiesen sich als richtig, weil Schlüsselereignisse zu Schlüsselzeiten stattfanden: Sonnenfinsternisse, Venusdurchgänge usw. Als die Modelle sehr verfeinert waren konnten Abweichungen zwischen Modell und Wirklichkeit benutzt werden, um neue Eigenschaften vorherzusagen. Auf diese Art konnten die äußeren Planeten Neptun und Pluto entdeckt werden. Wenn man heute auf die Sekunde genau wissen will, wo die Planeten in zehn Jahren stehen, gibt es im Netz Software, die exakt Auskunft gibt.Die Klimatologen würden nur allzu gerne nach dieser Arbeitsweise verfahren. Ein Problem ist aber, dass sie aufgrund des chaotischen Charakters des Wetters nicht die geringste Hoffnung hegen können, jemals Modellvorhersagen mit der Wirklichkeit in Einklang bringen zu können. Sie können das Modell auch nicht mit kurzfristigen Ereignissen zur Deckung bringen, sagen wir für 6 Monate, weil das Wetter in 6 Monaten völlig unvorhersagbar ist, es sei denn in sehr allgemeinen Worten.Das bedeutet Schlimmes für die ModellierbarkeitNun möchte ich noch etwas in dieses Durcheinander einwerfen. Das stammt aus meiner anderen Spezialisierung, der Welt des Computer-Modellierens von selbst-lernenden Systemen.Das ist das Gebiet der „Künstlichen Intelligenz“, wo Wissenschaftler meist versuchen, Computer- Programme zu erstellen, die sich intelligent verhalten und lernfähig sind. Wie in jedem Forschungsfeld ruft das Konzept Mengen von allgemeiner Theorie hervor, und eine davon hat mit der Natur der Stück-um-Stück zunehmenden Erfahrung (Inkrementelle Erfahrung) zu tun.Inkrementelle Erfahrung findet statt, wenn ein lernender Prozess versucht, etwas Einfaches zu modellieren, indem er vom Einfachen ausgeht und Komplexität zufügt, dabei die Güte des Modells beim Fortgang testet.Beispiele sind Neuronale Netzwerke, wo die Stärke der Verbindungen zwischen simulierten Hirnzellen mit dem Prozess des Lernens angepasst wird. Oder genetische Programme, wo Bits von Computerprogrammen modifiziert werden und bearbeitet werden, um das Modell immer mehr anzupassen.Am Beispiel der Theorien über das Sonnensystem können Sie sehen, dass die wissenschaftliche Methode selbst eine Form des inkrementellen Lernens ist.Es gibt einen universellen Graphen über das Inkrementelle Lernen. Er zeigt die Leistung eines beliebigen inkrementellen Lern-Algorithmus bei zwei Datensätzen, ganz gleich bei welchem.Voraussetzung ist, dass die beiden Datensätze aus der gleichen Quelle stammen müssen, aber sie sind zufällig in zwei Datensätze aufgespaltet, in den Trainingsdatensatz für die Trainierung des Modells und in einen Testdatensatz, der immer wieder für das Überprüfen gebraucht wird. Normalerweise ist der Trainingsdatensatz größer als der Testdatensatz, aber wenn es viele Daten gibt, macht das nichts aus. Mit der Zunahme des Wissens im Trainingsmodell benutzt das lernende System die Trainingsdaten, um sich selbst anzupassen, nicht die Testdaten, die zum Testen des Systems benutzt und sofort wieder vergessen werden.

Wie zu sehen ist, wird die Leistung mit dem Trainingsdatensatz immer besser, je mehr Komplexität dem Modell zugefügt wird, auch die Leistung des Testdatensatzes wird besser, beginnt aber dann, schlechter zu werden.
Um es deutlich zu sagen: der Testsatz ist das Einzige, was zählt. Wenn wir das Modell für Vorhersagen benutzen wollen, werden wir es mit neuen Daten füttern, wie mit unserem Testdatensatz. Die  Leistung des Trainingsmodells ist irrelevant.
Über dieses Beispiel wird diskutiert, seit Wilhelm von Ockham den Satz geschrieben hat: “Entia non sunt multiplicanda praeter necessitatem“, besser bekannt als „Ockhams Rasiermesser“ und am besten so übersetzt: “Die Entitäten dürfen nicht ohne Not vermehrt werden”. Mit Entitäten meinte er unnötige Verzierungen und Schnörkel einer Theorie. Die logische Folge daraus ist, dass die am einfachsten die Fakten erklärende Theorie wahrscheinlich stimmt. Es gibt Beweise für die Allgemeingültigkeit dieses Satzes aus dem Gebiet der Bayesianischen Statistik und der Informationstheorie.
Das heißt also, dass unsere kühnen Wettermodellierer von beiden Seiten her in Schwierigkeiten stecken: wenn die Modelle für die Wettererklärung nicht ausreichend komplex sind, sind ihre Modelle nutzlos, wenn sie allzu komplex sind, auch.

Wer möchte da noch Wettermodellierer sein?

Unter der Voraussetzung, dass sie ihre Modelle nicht anhand der Wirklichkeit kalibrieren können, wie entwickeln und prüfen die Wettermodellierer ihre Modelle?Wie wir wissen, verhalten sich auch Wettermodelle chaotisch. Sie zeigen die gleiche Empfindlichkeit auf die Eingangsbedingungen. Das Mittel der Wahl für die Evaluierung (von Lorenz entwickelt) ist, Tausende von Läufen durchzuführen mit jeweils geringfügig anderen Eingangsbedingungen. Die Datensätze heißen „Ensembles”.Jedes Beispiel beschreibt einem möglichen Wetter-Pfad, und durch die Zusammenstellung des Satzes wird eine Verteilung möglicher Zielentwicklungen erzeugt. Für Wettervorhersagen zeigen sie mit dem Spitzenwert ihre Vorhersage an. Interessanterweise gibt es bei dieser Art von Modell-Auswertung wahrscheinlich mehr als nur eine Antwort, also mehr als einen Spitzenwert, aber über die anderen, auch möglichen Entwicklungen, wird nicht gesprochen. In der Statistik heißt dieses Verfahren „Monte Carlo Methode“.Beim Klimawandel wird das Modell so modifiziert, dass mehr CO2 simuliert wird, mehr Sonneneinstrahlung oder andere Parameter von Interesse. Und dann wird ein neues Ensemble gerechnet. Die Ergebnisse stellen eine Serie von Verteilungen über der Zeit dar, keine Einzelwerte, obwohl die von den Modellierern gegebenen Informationen die alternativen Lösungen nicht angeben, nur den Spitzenwert.Die Modelle werden nach der Beobachtung der Erde geschrieben. Landmassen, Luftströmungen, Baumbedeckung, Eisdecken, usw. werden modelliert. Sie sind eine große intellektuelle Errungenschaft, stecken aber noch immer voller Annahmen. Und wie man erwarten kann, sind die Modellierer stets bemüht, das Modell zu verfeinern und neue Lieblingsfunktionen zu implementieren. In der Praxis gibt es aber nur ein wirkliches Modell, weil alle Veränderungen rasch in alle eingebaut werden.Schlüsselfragen der Debatte sind die Interaktionen zwischen den Funktionen. So beruht die Hypothese vom Durchgehen der Temperaturen nach oben infolge von erhöhtem CO2 darauf, dass die Permafrostböden in Sibirien durch erhöhte Temperaturen auftauen würden und dadurch noch mehr CO2 freigesetzt würde. Der daraus resultierende Feedback würde uns alle braten. Das ist eine Annahme. Die Permafrostböden mögen auftauen oder auch nicht, die Auftaugeschwindigkeit und die CO2-Freisetzung sind keine harten wissenschaftlichen Fakten, sondern Schätzungen. So gibt es Tausende von ähnlichen „besten Abschätzungen“ in den Modellen.Wie wir bei den inkrementell lernenden Systemen gesehen haben, ist allzu viel Komplexität genau so fatal, wie zu wenig. Niemand weiß, wo sich die derzeitigen Modelle auf der Graphik oben befinden, weil die Modelle nicht direkt getestet werden.Jedoch macht die chaotische Natur des Wetters alle diese Argumente über die Parameter zunichte. Wir wissen natürlich, dass Chaos nicht die ganze Wahrheit ist. Es ist in den ferner vom Äquator gelegenen Regionen im Sommer im Durchschnitt wärmer als im Winter geworden. Monsune und Eisregen kommen regelmäßig jedes Jahr vor und daher ist die Sichtweise verführerisch, dass das Chaos wie das Rauschen in anderen Systemen aussieht.

Das von den Klimawandel-Anhängern benutzte Argument geht so: Chaos können wir wie Rauschen behandeln, daher kann das Chaos „herausgemittelt“ werden.

Um ein wenig auszuholen: Diese Idee des “Ausmittelns” von Fehlern/Rauschen hat eine lange Geschichte. Nehmen wir das Beispiel von der Höhenmessung des Mount Everest vor der Erfindung von GPS und Radar-Satelliten. Die Methode der Höhenermittlung war, auf Meereshöhe mit einem Theodoliten zu beginnen und die lokalen Landmarken auszumessen, indem man deren Abstand und Winkel über dem Horizont maß, um die Höhe zu schätzen. Dann wurde von den vermessenen Punkten aus das Gleiche mit weiteren Landmarken gemacht. So bewegte man sich langsam im Binnenland vor. Zum Zeitpunkt der Ankunft der Landvermesser am Fuße des Himalaja beruhten ihre Messungen auf Tausenden vorhergehenden Messungen. Alle mit Messfehlern. Im Endeffekt lag die Schätzung der Vermesser von der Höhe des Everest nur um einige zig Meter daneben.Das kam, weil die Messfehler selbst eine Tendenz zum Ausmitteln hatten. Wenn ein systemischer Fehler drin gewesen wäre, etwa von der Art, dass jeder Theodolit um 5 Grad zu hoch gemessen hätte, dann wären die Fehler enorm groß geworden. Der Punkt dabei ist, dass die Fehler dann keinen Bezug zum vermessenen Objekt gehabt hätten. Es gibt viele Beispiele dafür in der Elektronik, in der Radio-Astronomie und auf anderen Gebieten.Sie verstehen nun, dass die Klimamodellierer hoffen, dass das auch für das Chaos gilt. Sie behaupten ja tatsächlich, dass es so wäre. Bedenken Sie aber, dass die Theodolitenfehler nichts mit der tatsächlichen Höhe des Everest zu tun haben, wie auch das Rauschen in Radioteleskopverstärkern nichts mit den Signalen von weit entfernten Sternen zu tun hat. Das Chaos dagegen ist Bestandteil des Wetters. Daher gibt es keinerlei Grund, warum sich das „ausmitteln“ würde. Es ist nicht Bestandteil der Messung, es ist Bestandteil des gemessenen Systems selbst.Kann Chaos überhaupt „ausgemittelt“ werden? Falls ja, dann müssten wir bei Langzeitmessungen des Wetters kein Chaos erkennen. Als eine italienische Forschergruppe um meine Chaos-Analyse-Software bat, um eine Zeitreihe von 500 Jahren gemittelter süditalienischer Wintertemperaturen auszuwerten, ergab sich die Gelegenheit zur Überprüfung. Das folgende Bild ist die Ausgabe der Zeitreihe mittels meines Chaos-Analyse-Programms „ChaosKit“.

Ergebnis: Ein Haufen Chaos. Der Lyapunov-Exponent wurde mit 2.28 Bits pro Jahr gemessen.
Auf gut Deutsch: Die Treffsicherheit der Temperaturvorhersage vermindert sich um den Faktor 4 für jedes weitere Jahr, für welches eine Vorhersage gemacht werden soll, oder anders herum: die Fehler vervierfachen sich.

Was heißt das? Chaos mittelt sich nicht aus. Das Wetter bleibt auch über Hunderte von Jahren chaotisch.

Wenn wir einen laufenden Durchschnitt über die Daten bilden würden, wie es die Wettermodellierer tun, um die unerwünschten Spitzen zu verbergen, können wir eine leichten Buckel rechts sehen, und viele Buckel links. Wäre es gerechtfertigt, dass der Buckel rechts ein Beweis für den Klimawandel ist? Wirklich nicht! Man könnte nicht entscheiden, ob der Buckel rechts das Ergebnis des Chaos und der angezeigten Verschiebungen wäre, oder ob da ein grundlegender Wandel wäre, wie zunehmendes CO2.

Fassen wir zusammen: die Klimaforscher haben Modelle konstruiert auf der Grundlage ihres Verständnisses des Klimas, derzeitigen Theorien und einer Reihe von Annahmen. Sie können ihre Modelle wegen der chaotischen Natur des Wetters nicht über kurze Zeiträume testen, das geben sie zu.
Sie hofften aber, dass sie kalibrieren könnten, ihre Modelle bestätigen oder reparieren, indem sie Langzeitdaten auswerteten. Aber wir wissen jetzt, dass auch dort das Chaos herrscht. Sie wissen nicht, und sie werden niemals wissen, ob ihre Modelle zu einfach, zu komplex oder richtig sind, weil – selbst wenn sie perfekt wären – angesichts der chaotischen Natur des Wetters keine Hoffnung besteht, die Modelle an die wirkliche Welt anpassen zu können. Die kleinsten Fehler bei den Anfangsbedingungen würden völlig unterschiedliche Ergebnisse hervorbringen.
Alles, was sie ehrlich sagen können, ist: “Wir haben Modelle geschaffen, wir haben unser Bestes getan, um mit der wirklichen Welt im Einklang zu sein, aber wir können keinen Beweis für die Richtigkeit liefern. Wir nehmen zur Kenntnis, dass kleine Fehler in unseren Modellen dramatisch andere Vorhersagen liefern können, und wir wissen nicht, ob wir Fehler in unseren Modellen haben. Die aus unseren Modellen herrührenden veröffentlichten Abhängigkeiten scheinen haltbar zu sein.“


Meiner Ansicht nach dürfen regierungsamtliche Entscheider nicht auf der Grundlage dieser Modelle handeln. Es ist wahrscheinlich, dass die Modelle so viel Ähnlichkeit mit der wirklichen Welt haben wie Computerspiele.
Zu guter Letzt, es gibt eine andere Denkrichtung in der Wettervorhersage. Dort herrscht die Meinung, dass das Langzeitwetter großenteils von Veränderungen der Sonnenstrahlung bestimmt wird. Nichts in diesem Beitrag bestätigt oder verwirft diese Hypothese, weil Langzeit-Aufzeichnungen der Sonnenflecken enthüllen, dass die Sonnenaktivität ebenfalls chaotisch ist.
Dr. Andy Edmonds

Übesetzt von Helmut Jäger EIKE

Anmerkung von Antony Watts: Nur damit wir uns gleich verstehen: Chaos beim Wetter ist NICHT dasselbe wie der oben beschrieben Klimazusammenbruch – Anthony

Den Originalbeitrag finden Sie hier

Kurzbiografie
Dr. Andrew Edmonds ist Wissenschaftler und schreibt Computer Software. Er hat viele frühe Computer Software Pakete auf dem Gebiet der „Künstlichen Intelligenz“ entworfen und er war möglicherweise der Autor des ersten kommerziellen „Data Mining“ Systems. Er war Vorstandssprecher einer amerikanischen Aktiengesellschaft und bei mehreren erfolgreichen Firmen-Neugründungen tätig. Seine Doktorarbeit behandelte die Vorhersagen von Zeitreihen in chaotischen Reihen. Daraus entstand sein Produkt ChaosKit, des einzigen abgeschlossenen kommerziellen Produkts für die Analyse von Chaos in Zeitreihen. Er hat Papiere über Neuronale Netze veröffentlicht und über genetisches Programmieren von „fuzzy logic“ Systemen, „künstlicher Intelligenz“ für den Handel mit Finanzprodukten. Er war beitragender Autor von Papieren auf den Gebieten der Biotechnologie, des Marketings und des Klimas.
Seine Webseite: http://scientio.blogspot.com/2011/06/chaos-theoretic-argument-that.html