1

Der große Solarschwindel!

Der Tag, an dem Angela Merkel die Sonnenenergie nach Nordvorpommern brachte, begann trübe und wolkenverhangen. Die Bundeskanzlerin war trotz enger Terminlage in ihren Wahlkreis gefahren, um im Orte Grimmen an der Trebel den Bau des größten Solarparks von Mecklenburg-Vorpommern auf den Weg zu bringen. Dass sich die Sonne bei dem symbolträchtigen ersten Spatenstich im Oktober vergangenen Jahres partout nicht zeigen wollte, tat Merkels guter Laune ebenso wenig Abbruch wie die Tatsache, dass die 30 480 Solarmodule auf der 19 Hektar großen Fläche allesamt den Stempel "Made in China" tragen sollten. "Der Solarpark ist eine Zukunftsinvestition", sagte die Regierungschefin unverdrossen und stach den rot lackierten Spaten in die bröckelige Tonerde: "Wir sind auf dem Weg in das Zeitalter erneuerbarer Energien.

Bei ihrer Unterstützung für die Solarwirtschaft weiß die Bundeskanzlerin die Mehrheit der Bevölkerung hinter sich. Sonnenstrom ist die Wunschenergie Nummer eins für die Deutschen, das ergab in der vergangenen Woche eine Umfrage, die der Wirtschaftsverband führender Public-Relations-Agenturen in Deutschland (GPRA) mit den Marktforschern von TNS Emnid veröffentlichte. Danach messen 99 Prozent der Befragten "der Sonnenenergie eine besonders hohe Wichtigkeit für die zukünftige Energieversorgung in Deutschland" bei. Die Sonne sei "aus Sicht der Verbraucher die wichtigste Energiequelle der Zukunft – noch vor Wasserkraft und Windkraft", heißt es im Ergebnis der Umfrage. Weniger als die Hälfte der Befragten glaubten dagegen noch an eine wichtige Rolle der Kohlekraftwerke, nur ein Fünftel an Atomkraft. "Die deutsche Bevölkerung hat die Energiewende längst vollzogen und vertraut regenerativen Energiequellen", lautet das Fazit des GPRA-Präsidiummitglieds Uwe Kohrs. Angesichts der derzeit diskutierten Kürzungspläne für Solarsubventionen müssten "Politik und Energieversorger aufpassen, dass sie nicht alles Restvertrauen verspielen."

Wissenschaftler aber reiben sich verwundert die Augen angesichts solcher Vorstellungen über die Struktur der deutschen Energieversorgung. Atom- und Kohlekraftwerke decken heute noch drei Viertel des deutschen Strombedarfs. Solarmodule tragen tatsächlich erst drei Prozent zur Bedarfsdeckung bei. Schon der Beitrag der Windenergie übertrifft den der Solaranlagen um ein Vielfaches – für einen Bruchteil der Kosten. Die Solarenergie kostet die Verbraucher Jahr für Jahr hohe Milliardenbeträge, verteuert den Klimaschutz, lässt sich nicht wirtschaftlich speichern und fällt in mehr als der Hälfte des Jahres fast komplett aus. Auch industriepolitisch ist die Solarförderung ein gewaltiger Schuss in den Ofen: Bereits mehr als 70 Prozent der in diesem Jahr in Deutschland verbauten Solarmodule stammen aus Asien.

Die Nachteile der solaren Energieversorgung im schattigen Deutschland sind aus wissenschaftlicher Sicht so eklatant, dass der Sachverständigenrat für Umweltfragen, ein hochkarätiges Beratergremium der Bundesregierung, dazu rät, den Ausbau der Fotovoltaik nicht mehr weiter zu forcieren, sondern im Gegenteil in sehr engen Grenzen zu halten. Der Flensburger Umweltwissenschaftler Olav Hohmeyer, ein Mitglied des Sachverständigenrats, fordert, die derzeitige solare Ausbaurate um mindestens 85 Prozent zurückzuschrauben, auf nur noch 500 bis 1000 Megawatt pro Jahr. Dabei ist der Sachverständigenrat durchaus kein natürlicher Feind erneuerbarer Energien: In anderen Gutachten zeigt das Professorengremium Wege auf, wie Ökostrom bis 2050 den kompletten deutschen Energiebedarf decken kann, verzichtet dabei aber lieber auf ein Übermaß an Sonnenenergie.

Die Forscher stehen mit ihrer Meinung nicht allein. Das Rheinisch-Westfälische Institut für Wirtschaftsforschung (RWI) sagt wegen des "Hype um die Fotovoltaik" in Deutschland einen "weiter anschwellenden Kosten-Tsunami" voraus. Das RWI, das zu den renommiertesten deutschen Wirtschaftsforschungsinstituten gehört, schlägt angesichts der deutschen Defizite bei Stromspeichern, Stromleitungen und der mangelhaften Vernetzung mit den europäischen Nachbarn deshalb sogar ein mehrjähriges Moratorium für erneuerbare Energien vor, um "die Förderanreize für diesen Zeitraum auszusetzen". Auch der unabhängige Energieexperte Sven Bode vom Arrhenius Institut für Energie- und Klimapolitik in Hamburg stellt offen die Frage, "ob die Förderung der Fotovoltaik nicht bereits heute vollständig eingestellt werden sollte".

Doch danach sieht es ganz und gar nicht aus: Die Fraktionen der Regierungsparteien wollen sich Morgen über die Novelle des Erneuerbare-Energien-Gesetzes verständigen und dabei auch die Vergütungssätze für die unterschiedlichen Ökostrom-Arten festschreiben. Schon jetzt ist absehbar, dass es zu keinen nennenswerten Abstrichen bei den Solarsubventionen kommen wird. Vorgesehen ist im derzeitigen Gesetzentwurf lediglich, dass die Einspeisevergütung um jeweils drei bis vier Prozentpunkte sinkt, wenn der Grenzwert von 3500 Megawatt um 1000 Megawatt überschritten wird. Dass dies ausreicht, die solare Kostenexplosion zu beenden, glaubt kaum ein Marktbeobachter.

Der Wirtschaftsflügel der Unionsfraktion im Bundestag ist dabei schon bereit, die richtigen Konsequenzen zu ziehen: Er will den Fotovoltaik-Zubau in Deutschland – wie in anderen Ländern längst üblich – durch einen festen "Ausgabendeckel" begrenzen. Thomas Bareiß, der die Energiepolitik der CDU/CSU-Fraktion koordiniert, will mit dieser Forderung auch in die Koalitionsgespräche im Bundestag gehen, denn: "Was sich hier abzeichnet, ergibt energiewirtschaftlich keinen Sinn und ist sozialpolitisch verantwortungslos."

Doch Bareiß hat Zweifel, ob sich die Position des Wirtschaftsflügels der Union in den Koalitions- und Fraktionsgesprächen noch durchsetzen wird. Auch die anderen Wirtschaftspolitiker der Fraktion glauben nicht, dass sie bei der eigenen Parteiführung und beim Koalitionspartner FDP durchdringen.

Warum die Bundesregierung den Subventionsirrsinn jetzt nicht beendet, ist offensichtlich. Zu groß ist die Sorge der Partei- und Regierungsspitzen, vor den anstehenden Landtags- und Bundestagswahlen vom ökologischen Mainstream der Bevölkerung abgestraft zu werden. Nach außen hin wolle die Bundesregierung nach der Abschaltung der Kernkraftwerke eben nicht nur als "Ausstiegspartei" wahrgenommen werden, formuliert es ein hoher Beamter des Bundeswirtschaftsministeriums: "Ebenso wichtig ist es zu zeigen, dass man auch in etwas einsteigt." Und die Kappung von Solarsubventionen – wie sinnvoll sie inhaltlich auch immer sein mag – "passt da eben nicht ins Bild".

Folge dieses politischen Populismus dürfte sein, dass auch in den kommenden Jahren jeweils mehr als die Hälfte der vom Verbraucher zu zahlenden Ökostrom-Milliarden an die Solarindustrie fließen wird – und hier wiederum zum weitaus größten Teil an die asiatischen Modul- und Zellen-Hersteller. Während die Solarlobby in der Öffentlichkeit behauptet, die Bundesregierung würde bei ihrer Energiewende die Windkraft bevorzugen, sprechen die Zahlen eine völlig andere Sprache: Nach der offiziellen Statistik des Bundesumweltministeriums wurden im vergangenen Jahr rund 19,5 Milliarden Euro für die Errichtung von Fotovoltaik-Anlagen in Deutschland ausgegeben, jedoch nur 2,5 Milliarden für die deutlich ergiebigere Windkraft. Während die installierte Leistung der Solarmodule 2010 um 7500 Megawatt zunahm, wuchs die angeblich bevorzugte Windkraft lediglich um 1500 Megawatt. Ein Missverhältnis, das sich nach den Zubauprognosen in diesem Jahr weiter verfestigen dürfte.

In ihrem "Energiekonzept" hatte sich die Bundesregierung im vergangenen Jahr noch das Ziel gesetzt, den Anteil erneuerbarer Energien bis 2020 von heute 17 auf dann 30 Prozent zu erhöhen. Nach der Reaktorkatastrophe von Fukushima und der Abschaltung mehrerer deutscher Atomkraftwerke wurde der zu erreichende Ökostrom-Anteil jetzt auf "mindestens 35 Prozent" heraufgesetzt. So steht es im Entwurf des Erneuerbare-Energien-Gesetzes, das Ende kommender Woche vom Bundestag in zweiter und dritter Lesung verabschiedet werden soll. Doch viele Ökonomen und nicht wenige Bundestagsabgeordnete fragen sich inzwischen, wie die beschleunigte "Energiewende" innerhalb von zehn Jahren gelingen soll, wenn die Förderpolitik für Ökostrom dem luxuriösen Motto "Vom Teuersten das Meiste" folgt. Müsste man angesichts des Zeitdrucks und der knappen Mittel nicht die effizientesten Techniken am stärksten fördern?

Dass die "Energiewende" eher zu einer "Sonnenwende" zu werden droht, hat viel damit zu tun, dass die einseitige Argumentation der Solarlobby öffentlich kaum je hinterfragt wird. Aber halten die wichtigsten Argumente einer Überprüfung stand?

1. Solarstrom ist nicht billig

 "Die Sonne schreibt keine Rechnung": Angesichts der realen Kosten für Verbraucher und Volkswirtschaft bekommt das beliebte Lobbyistenwort einen fast zynischen Beiklang. Strom aus Solarmodulen, die im Jahre 2005 montiert wurden, wird 20 Jahre lang mit 50,23 Cent pro Kilowattstunde vergütet. Dieser Wert übersteigt den Börsenwert für Elektrizität um das Zehnfache. Die Stromnetzbetreiber sind verpflichtet, den Solarstrom, wie anderen Ökostrom auch, vorrangig einzuspeisen und mit dem gesetzlichen Fixpreis zu bezahlen. Die gewaltige Differenz zum eigentlichen Marktwert wird über die Stromrechnung auf alle Verbraucher abgewälzt.

Zwar wurde die Einspeisevergütung in mehreren Schritten gesenkt – auf heute rund 28 Cent pro Kilowattstunde. Doch weil der Preisverfall bei Solarmodulen noch drastischer war, können Investoren noch immer Traumrenditen auf Kosten der Verbraucher erzielen. Während ein Tagesgeldkonto derzeit kaum 2,5 Prozent abwirft, können Besitzer von Solardächern völlig risikolos jährlich sechs bis acht Prozent Gewinn einstreichen, gesetzlich garantiert über 20 Jahre lang. Kein Wunder, dass die Zahl der Fotovoltaik-Anlagen Jahr für Jahr exponentiell auf inzwischen mehr als 800 000 mit einer Gesamtleistung von rund 17 000 Megawatt angewachsen ist. Zum Vergleich: Ein Atomkraftwerk hat ungefähr 1000 Megawatt Leistung.

Die Frage, welche Nettokosten von den Verbrauchern zu schultern sind, hat in der Vergangenheit einigen wissenschaftlichen Streit ausgelöst. Das Rheinisch-Westfälische Institut für Wirtschaftsforschung hat die Strommengen aller bis Ende 2010 installierten Solarmodule mit ihren Einspeisetarifen summiert und um den eigentlichen Marktwert des Stroms bereinigt. Ergebnis: Allein für die bis Ende letzten Jahres verbauten Module wird der deutsche Verbraucher mit reinen Subventionskosten oder "Solarschulden" von real 81,5 Milliarden Euro belastet, die er über einen Zeitraum von zwanzig Jahren abzustottern hat.

Mit diesem gewaltigen Entzug an volkswirtschaftlicher Kaufkraft zahlt der Bürger für eine Stromquelle, die in jeder Nacht und mit Einbruch der dunklen Jahreszeit ihren Beitrag zur Stromversorgung fast völlig einstellt und durch andere Kraftwerke ersetzt werden muss. Obwohl die Solarenergie in diesem Jahr nur etwa 20 Prozent des gesamten Ökostrom-Aufkommens in Deutschland stellt und lediglich drei Prozent des gesamten Strombedarfs deckt, verschlingt sie 55 Prozent der gesamten Ökostrom-Beihilfen nach dem EEG.

Sogar die "Agentur für Erneuerbare Energien", ein in Berlin ansässiges Lobbybüro der Ökobranche, hielt das Kosten-Nutzen-Verhältnis des Solarstroms nach den RWI-Berechnungen für so schlecht, dass man das "Wuppertal Institut für Klima, Umwelt und Energie" im vergangenen Jahr mit einem Gegengutachten beauftragte. Man könne die "Horrorzahlen des RWI so nicht stehen lassen", hieß es dazu. Nötig sei endlich "eine seriöse Diskussionsgrundlage". Und tatsächlich: Das Gutachten der Wuppertaler fiel für die Ökolobbyisten wunschgemäß aus. In einer Pressekonferenz im Oktober vergangenen Jahres erklärte das Wuppertal Institut, man habe in den RWI-Berechnungen mehrere Rechen- und Bewertungsfehler gefunden, unter anderem bei der Diskontierung zukünftiger Werte. Fazit des Wuppertal Instituts: Die Subventionskosten des Solarstroms seien in Wahrheit 42 Prozent niedriger als vom RWI behauptet.

Das allerdings ließen die Essener Wissenschaftler nicht auf sich sitzen und überprüften ihrerseits die Berechnungen aus Wuppertal. Ihr Ergebnis publizierte das RWI in einer mehrseitigen Streitschrift mit dem Titel "Eine unbequeme Wahrheit": Die Wuppertaler hatten sich demnach selbst verrechnet und in ihren Formeln versehentlich doppelt abgezinst. Um diesen Fehler bereinigt, ergab die Kalkulation der Öko-Gutachter fast dieselbe "Horrorzahl", die zuvor vom RWI berechnet worden war. "Die vom RWI ermittelte Größenordnung der Kosten der deutschen Solarstromförderung wird durch die Wuppertal-Studie nolens volens bestätigt", resümieren die angegriffenen Wissenschaftler aus Essen zufrieden.

Wenn der Solarausbau vom Bundestag in der kommenden Woche nicht gedeckelt wird, steigen die Solarkosten innerhalb kürzester Zeit sogar auf einen dreistelligen Milliardenbetrag. Nach Berechnungen des RWI kämen bis 2020 für die deutschen Verbraucher weitere 42 Milliarden Euro Kosten hinzu. Dies allerdings auch nur unter der konservativen Annahme, dass der Solarzubau ab 2012 auf 3500 Megawatt jährlich begrenzt werden kann. Es könnte auch noch doppelt so teuer werden, wenn es bei der bisherigen Zubaurate bleibt.

Die Förderung der Solarbranche ist längst so hoch, dass sie den Bundeshaushalt völlig überfordern würde. Mehr als sieben Milliarden Euro überweisen die deutschen Verbraucher in diesem Jahr wohl an die Besitzer von Solaranlagen. Das übersteigt den Etat des Bundesumweltministeriums von 1,6 Milliarden Euro um fast das Vierfache. Die Summe, die von allen Bundesministerien zusammen in diesem Jahr für Energieforschung ausgegeben wird, beträgt mit 700 Millionen Euro nur ein Zehntel der Solarförderung.

Der Wissenschaftliche Beirat des Bundeswirtschaftsministeriums warnt angesichts der "riesigen Subventionen" bereits vor einem "gewaltigen Umverteilungsprogramm". Es wäre mit einem Volumen von mehr als 100 Milliarden Euro tatsächlich die größte soziale Umverteilung von unten nach oben, die je von einer sozialdemokratischen Regierung mit ausgelöst wurde. Denn die Milliardenlast zahlt der Mieter mit seiner Stromrechnung, den Ertrag streicht der tendenziell wohlhabende Solardach- also Immobilienbesitzer ein. Allein zu Jahresbeginn 2011 erhöhte sich die EEG-Umlage zur Förderung des Ökostroms in einem einzigen großen Schritt um 70 Prozent auf 3,53 Cent pro Kilowattstunde. Der Kostensprung, der den Strompreis für Privathaushalte um rund zehn Prozent verteuerte, war fast ausschließlich auf den Fotovoltaik-Zubau zurückzuführen.

2. Atomstrom ist nicht teurer

Die Kosten der Solarförderung mit denen der Kernenergie zu vergleichen und so zu relativieren, ist ein beliebtes Argument von Solarfreunden. Tatsächlich sind die Beihilfen für beide Technologien gar nicht mehr so weit von einander entfernt. In einer Studie zur staatlichen Förderung von Atomkraft kommt Greenpeace zu dem Ergebnis, dass die staatlichen Forschungsgelder für die Nukleartechnik bis 2010 real – also in Preisen des Jahres 2010 – rund 55 Milliarden Euro betrugen. Insgesamt gaben die öffentlichen Haushalte für die Atomkraft bislang sogar 203,7 Milliarden Euro aus, heißt es in der Greenpeace-Berechnung. Eine hohe Zahl, die auch dadurch zustande kommt, dass selbst "die Vorteile der Atomenergie durch den Emissionshandel" als Kostenpunkt angesetzt wurden – und eine Reihe weiterer fragwürdiger Posten, zum Beispiel die "Sanierungskosten des sowjetischen Uranerzbergbaus in Wismut".

Tatsächlich kommen die Solarkosten den von Greenpeace errechneten Atom-Subventionen schon recht nahe. Denn der Ausbau der Verteilnetze in den Kommunen, der wegen des Solarbooms nötig wird, kostet Experten zufolge allein schon rund 30 Milliarden Euro zusätzlich. Kommt es zum erwarteten Ausbau des Solarstroms, addieren sich Subventionen und Netzausbaukosten bis 2020 ebenfalls schon auf 150 Milliarden Euro. Noch nicht eingerechnet sind dabei die indirekten volkswirtschaftlichen Kosten, die durch die so ausgelösten Strompreissteigerungen entstehen, wie etwa Produktionsverlagerungen ins Ausland oder Arbeitsplatzabbau.

Kommt es also nicht zu einer effektiven Ausbaubremse für Fotovoltaik, dürften die Solar-Kosten in absehbarer Zeit denen der Kernenergie gleichen. Einziger Unterschied: Atomkraftwerke haben für dieses Geld den Strombedarf der größten europäischen Volkswirtschaft 40 Jahre lang rund um die Uhr zu einem Viertel gedeckt. Solarenergie deckt derzeit nur drei Prozent des Strombedarfs und kann nach Angaben des Bundesverbandes Solar auch im Jahr 2020 nur maximal neun Prozent zur Bedarfsdeckung beitragen, wie es in der "PV-Roadmap" des Verbandes heißt. Dabei ist freilich zu berücksichtigen, dass der Beitrag der Solar-Technologie in jeder Nacht und während langer Wintermonate fast auf null sinkt und dann komplett von einem weiteren, "doppelten" Kraftwerkspark ersetzt werden muss, dessen enorme Kosten in der Rechnung ebenfalls noch nicht berücksichtigt sind.

3. Die Nachfrage fehlt

Setzt sich die Solarlobby mit ihren Subventionswünschen politisch durch, dürfte im Jahr 2020 eine installierte Leistung von 70 Gigawatt Sonnenenergie am Netz sein. Dieses Ziel hat die Branche in ihrer "PV-Roadmap" selbst ausgegeben. Allerdings beträgt die gesamte Stromnachfrage Deutschlands im Schnitt nur 60 Gigawatt. Schon in zwei oder drei Jahren werden Solar- und Windkraftanlagen gemeinsam an einigen Tagen im Sommer, zur hellen Mittagszeit, phasenweise deutlich mehr Strom produzieren, als überhaupt nachgefragt wird. Wegen des gesetzlichen Einspeisevorrangs für Ökostrom müssten während dieser Stunde alle anderen Atom- Kohle- und Gaskraftwerke nicht nur gedrosselt, sondern komplett abgeschaltet werden.

Weil das mit enormen Kosten und technischen Risiken verbunden ist, bleibt als Alternative nur, den überschüssigen Strom an ausländische Abnehmer zu "verschenken". Die jüngsten Erfahrungen am Strommarkt zeigen allerdings, dass ausländische Abnehmer deutschen Ökostrom noch nicht einmal geschenkt haben wollen – sie nehmen ihn nur gegen Zuzahlung ab. Das hat in den letzten Monaten bereits mehrmals zum Effekt "negativer Strompreise" an der Europäischen Energiebörse geführt.

Die Besitzer großer Pumpspeicherkraftwerke wie etwa Österreich oder die Schweiz profitieren in diesen Stunden doppelt vom deutschen Ökowunder: Zunächst lassen sie sich die Abnahme des zur Unzeit produzierten deutschen Stroms teuer bezahlen. Dann kassieren sie für dieselben Kilowattstunden ein zweites Mal, wenn sie die gespeicherte Energie aus ihren Pumpspeichern ablassen und als teuren Spitzenlaststrom nach Deutschland zurückverkaufen.

Die absehbare temporäre Überproduktion von Wind- und Solarstrom führt zu einem weiteren, bislang ungelösten Problem: Welcher Sauberstrom muss für den anderen im Netz Platz machen, wenn doch beide eigentlich gesetzlichen Einspeisevorrang genießen? Regeln dafür sind auch in der jetzigen EEG-Novelle noch nicht enthalten. Ökonomen plädieren zwar dafür, dass in Zeiten der Überproduktion der billigere Windstrom den teureren Solarstrom verdrängen sollte. Doch RWI-Experte Frondel fürchtet, dass es wohl eher die leicht regelbaren Windparks sein werden, die in einer solchen Situation abgestellt werden, "da das Abschalten einer großen Zahl an kleinen, dezentralen Fotovoltaikanlagen mit großem Aufwand verbunden sein dürfte." Teuer verdrängt billig: Für die Verbraucher dürfte das anbrechende Solarzeitalter noch einige Überraschungen bereit halten.

4. Die Mär von der Autarkie

Dass Solarstrom "dezentral" produziert wird, stellt der Lobbyverband der Branche gern als Vorteil heraus, ohne allerdings zu erklären, worin eigentlich genau dessen Wert liegt. "Ob Einfamilien-, Mehrfamilien- oder Mietshaus: Jeder kann investieren, profitieren und sich künftig selbst versorgen", wirbt der Bundesverband Solarwirtschaft (BSW) dieser Tage in ganzseitigen Zeitungsanzeigen unter dem Titel "Solarstrom – ein Gewinn für alle". Das Argument appelliert an das unterschwellige psychologische Bedürfnis vieler Menschen nach Autarkie und Unabhängigkeit.

Allerdings bleibt Autarkie mit Solarenergie eine teure Illusion. Denn Tatsache ist, dass Solaranlagen in diesen Breitengraden nur an 875 Stunden der 8760 Stunden eines Jahres ihre Volllast erreichen. In der übrigen Zeit herrscht Nacht, schlechtes Wetter oder Winter. An neun von zehn Stunden sind Solardachbesitzer darauf angewiesen, Strom aus dem Verbundnetz zu beziehen, wie jeder andere auch.

5. Kommunen werden geschwächt

Dennoch lautet ein Argument der Solarbranche, die dezentrale Stromerzeugung stärke auch die Wertschöpfung in den Kommunen. Fragt man vor Ort einmal nach, ist die Begeisterung der Stadtwerke über den Fotovoltaikboom allerdings begrenzt. Zum Beispiel im nordrhein-westfälischen Froendenberg im Kreis Unna. Die Stadtwerke Froendenberg sind ein Traditionsbetrieb, der schon vor 100 Jahren damit begann, mit einem Wasserkraftwerk in der Ruhr Strom zu produzieren. Auch heute noch ist der Betrieb, der 22 000 Einwohner in 14 Ortsteilen versorgt, dem Ökostrom gegenüber aufgeschlossen: Es gibt neun Windräder, drei Laufwasserkraftwerke und 340 Fotovoltaik-Anlagen in der Stadt. Nur die Tatsache, dass die Dächer überall mit blauen Modulen belegt werden, treibt Bernd Heitmann, dem Geschäftsführer der Stadtwerke, die Sorgenfalten auf die Stirn. "Fotovoltaik hat die unangenehme Eigenschaft, dass alle Anlagen bei Sonneneinstrahlung zeitgleich ans Netz gehen", sagt er. "Das erzeugt einen plötzlichen Spannungshub, der im Verteilnetz nur in begrenztem Umfang vorhanden sein darf."

Mit ihren 340 Fotovoltaik-Anlagen haben die Froendenberger bereits 5,6 Megawatt ans Netz gebracht. Dabei liegt der Strombedarf in der Region, etwa an Feiertagen, oft nur halb so hoch bei rund 2,5 Megawatt. So musste Heitmann etwa 25 Anträge auf Netzanschluss neuer Solaranlagen bereits ablehnen, weil dies sein Leitungsnetz in einigen Außenbereichen überlastet hätte.

Um dem Solar-Problem Herr zu werden, müsste das kleine Stadtwerk allein 12 bis 13 Millionen Euro in den Ausbau der Leitungsnetze vor Ort investieren. "Das entspricht der Höhe unseres gesamten Eigenkapitals", sorgt sich Heitmann. Weil die Kosten des Netzausbaus vom örtlichen Netzbetreiber zu tragen sind, müssten die Stadtwerke ihre Netznutzungsentgelte erhöhen, um die Investition tragen zu können. "Das könnte sich zum Standortnachteil für unsere Stadt auswachsen", glaubt Heitmann. Aus Sicht des Stadtwerke-Chefs, "stimmt die Verhältnismäßigkeit nicht, wenn wir hier 12 Millionen Euro investieren müssen, damit 30 Leute dann ein paar Tausend Euro mit Solarstrom verdienen."

6. Das Problem der Stromspeicherung

An dem Tag im vergangenen Oktober, als Bundeskanzlerin Angela Merkel den Grundstein für den größten Solarpark Mecklenburg-Vorpommerns legte, brauchte Deutschland den ganzen Tag über knapp 50 Gigawattstunden Strom. Die 17 Gigawatt installierter Solarleistung in Deutschland hätte davon einen Gutteil decken können – wenn denn die Sonne geschienen hätte. Tatsächlich aber quälte sich die Solarleistung an diesem Tag nur ganz kurz am Mittag mal über die 2-Gigawatt-Grenze, um schon bald nach 16 Uhr gegen null abzutauchen. 88 Prozent der installierten Solarleistung an diesen Tag blieben ungenutzt, und die ungeliebten fossilen Kraftwerke mussten die Versorgung übernehmen.

Ganz anders die Situation am vergangenen Pfingstsonntag. Da lag der Strombedarf Deutschlands feiertagsbedingt bei lediglich 28 Gigawatt. Zugleich brannte diesmal die Sonne und die Solaranlagen speisten den ganzen Tag über mehr als sechs Gigawatt Strom ein. Als die Sonne über Mittag am höchsten stand, deckte Solarstrom mit zehn Gigawatt Leistung allein mehr als ein Drittel des gesamten deutschen Bedarfs. Es wäre schön gewesen, wenn der relative Solarstrom-Überschuss von Pfingsten hätte gespeichert werden können für die dunkle Jahreszeit – oder zumindest für die kommende Nacht. Doch Speichertechnologien stehen in der geforderten Größenordnung auch nicht ansatzweise zur Verfügung. Nach Berechnungen des Beratungsunternehmens Boston Consulting Group (BCG) liegt die derzeitige Speicherkapazität Deutschlands bei gerade einmal sieben Gigawatt. Um das schwankende Aufkommen von Wind- und Solarstrom mithilfe von Speichern ausgleichen zu können, müsste die Speicherkapazität bis 2025 vervierfacht werden.

Die billigste Art, dies zu tun, wäre der Bau von Pumpspeicherkraftwerken. Ein temporärer Überschuss von Ökostrom wird dabei dazu genutzt, Wasser bergauf in eine Talsperre zu pumpen. Bei Windflaute oder nächtlichem Ausfall des Solarstroms kann das Wasser in Röhren zu Tal rauschen und dabei eine Turbine zur Stromproduktion antreiben. Aber das größte deutsche Pumpspeicherkraftwerk Goldisthal hat gerade mal eine Leistung von einem Gigawatt. Viel zu wenig, um in der dunklen Jahreszeit Solarausfälle ausgleichen zu können.

Die Größenverhältnisse beschreiben die Wissenschaftler Sven Bode und Helmuth Groscurth vom Hamburger Arrhenius-Institut: Um eine Woche lang ohne Wind, Fotovoltaik und ohne konventionelle Kraftwerke auszukommen, bräuchte man nach ihrer Modellrechnung 1260 Pumpspeicherkraftwerke vom Typ Goldisthal. "Abgesehen davon, dass es in Deutschland dafür keine Standorte mehr gibt", schreiben die Autoren Bode und Groscurth, "wären die Kosten für eine Kilowattstunde astronomisch, da die meisten dieser Anlagen nur für einige Stunden im Jahr betrieben würden."

Auch die Batterien von Elektroautos können als Puffer für das schwankende Ökostromaufkommen noch lange nicht dienen. Da ein Elektrosmart im Schnitt nur 40 Kilowattstunden Strom speichern kann, wären nach den Berechnungen des Arrhenius-Instituts "250 Millionen dieser Fahrzeuge erforderlich, um ausreichend Strom für Deutschland für eine Woche zu speichern".

Der Sachverständigenrat für Umweltfragen, ein Beratergremium der Bundesregierung, schlug kürzlich in einem Sondergutachten vor, die norwegischen Wasserkraftwerke als Speicher für deutschen Ökostrom zu nutzen. Allerdings geben die Dimensionen dem Projekt eher visionären Charakter. So liegt heute erst ein Kabel in der Nordsee zwischen Norwegen und den Niederlanden. Dieses NorNed-Kabel hat eine Kapazität von 600 Megawatt. Bei einer annähernden Vollversorgung Deutschlands mit Ökostrom, wie sie die Bundesregierung bis 2050 erreichen will, müssten die Kabelkapazitäten laut Sondergutachten aber auf 70 000 Megawatt mehr als verhundertfacht werden, damit die Lichter auch nachts und bei Windflaute nicht ausgehen. Da aber schon die Baukosten des NorNed-Kabels 600 Millionen Euro betragen haben, ist nicht ganz klar, wer die Baukosten tragen könnte.

Der Plan wird dadurch erschwert, dass sich schon das NorNed-Kabel nur refinanzieren lässt, weil die Preise für Elektrizität im Strommarkt Skandinavien stets deutlich vom übrigen Europa abweichen. Das erlaubt den Kabelbetreibern Handels- oder Arbitragegeschäfte, um die Baukosten wieder hereinzuholen. Diese Finanzierungsmöglichkeit wird aber in dem Maße eingeschränkt, in dem weitere Seekabel hinzukommen. Denn durch den intensiveren Stromverbund würden sich die Elektrizitätspreise zwischen Skandinavien und dem Rest Europas tendenziell angleichen. Norwegen würde auf diesem Wege geradezu das höhere deutsche Strompreisniveau "importieren". Die Finanzierung der Seekabel auf diesem Wege wäre nicht mehr möglich. Ohnedies ist es unsicher, ob die Norweger ihre Flusstäler als Speicher für deutschen Ökostrom überhaupt zur Verfügung stellen würden – zumindest ohne dafür einen üppigen Preisaufschlag zu verlangen.

Andere Methoden sehen vor, Strom in Form von Druckluft in unterirdischen Kavernen zu speichern. Doch sie sind mit hohen Wirkungsgrad-Verlusten verbunden und sind schon aus geologischen Gründen nur begrenzt einsetzbar. Blei- oder selbst Lithium-Ionen-Akkus, wie sie von einigen Solarfirmen bereits angeboten werden, lassen die ohnehin verheerende Kostenbilanz der Solartechnik völlig aus dem Ruder laufen. Dass in absehbarer Zeit genügend wirtschaftlich nutzbare Speicher für Ökostrom zur Verfügung stehen, ist damit nicht zu erwarten.

7. Hightech-Industrie – aber nicht in Deutschland

Bundesumweltminister Norbert Röttgen (CDU) erhofft sich aus der ökologischen Energiewende vor allem ein Programm zur wirtschaftlichen und technischen Erneuerung und einen "Jobmotor" für Deutschland. Insbesondere in der Solarwirtschaft sieht der Minister eine neue Hightech-Industrie heranwachsen. Die Solarsubventionen dienen aus seiner Sicht dazu, den "Technologievorsprung" und die "Marktführerschaft" der deutschen Solarindustrie zu sichern. Lassen sich Solarsubventionen also wenigstens industriepolitisch begründen?

Die Zahlen ernüchtern: Der globale Marktanteil deutscher Solarzellen-Hersteller hat sich innerhalb des letzten Jahres von 15,4 auf 9,7 Prozent fast halbiert. Im gleichen kurzen Zeitraum hat sich der Weltmarktanteil Chinas um ein Viertel auf 48 Prozent gesteigert. Gefördert mit günstigen Darlehen der chinesischen Staatsbanken kaufen die chinesischen Hersteller wie Yingli, Suntech oder JA Solar gleich ganze Produktionslinien modernster westlicher Technologie in großem Stil ein. Die Qualität der asiatischen Solarzellen steht deshalb der von deutschen Anbietern in nichts nach, wie unabhängige Testlabors bestätigen.

Kein Wunder: Wie aus der "PV-Roadmap"-Studie des Solar-Bundesverbandes hervorgeht, investieren die deutschen Hersteller lediglich 2,5 Prozent ihres Umsatzes für Forschung und Entwicklung. Erstaunlich wenig für eine vorgebliche "Hightech-Branche". Im Maschinenbau oder in der Automobilindustrie liegt die F+E-Quote mindestens doppelt so hoch zwischen fünf und acht Prozent des Umsatzes. Da in China im Vergleich zu den deutschen Fabriken auch gleich große Stückzahlen gefertigt werden, ergeben sich Kostenvorteile, mit denen die deutsche Solarindustrie längst nicht mehr mithalten kann. Von den im letzten Jahr in Deutschland verbauten Solarmodulen stammten bereits 70 bis 80 Prozent von asiatischen Herstellern. Bislang völlig unbekannte Firmen wie etwa Yingli Solar treten inzwischen als Sponsor des Erstliga-Klubs Bayern München selbstbewusst in Erscheinung. Andere bereiten die Übernahmen deutscher Wettbewerber vor, wie die geplante Übernahme des Konstanzer Herstellers Sunways AG durch die chinesische LDK Solar beweist. Sogar Maschinenbauer und Ausrüster von Solarfabriken, eigentlich eine Domäne deutscher Ingenieurskunst, werden bereits von ausländischen Konkurrenten aufgekauft. Erst im Mai hatte Roth & Rau aus Hohenstein-Ernstthal, eines der wenigen deutschen Unternehmen auf der globalen Top-10-Liste der Solarfabrik-Ausrüster, dem Übernahmeangebot der Schweizer Firma Meyer Burger zugestimmt. Was Bundesumweltminister Röttgen besonders nachdenklich stimmen sollte: Ausgerechnet die erfolgreichsten Solarfirmen mit dem stärksten Marktwachstum wie etwa Meyer Burger stammen aus Ländern, die selbst überhaupt kein eigenes Einspeisegesetz für Ökostrom haben.

Der größte deutsche Anbieter Solarworld arbeitet zwar noch profitabel. Auf der Liste der 20 größten Solarzellen-Hersteller der Welt ist der deutsche Marktführer allerdings schon nicht mehr vertreten. Dort dominieren jetzt Chinesen. Auf der gesamten Top-20-Liste findet sich überhaupt nur noch ein deutsches Unternehmen, Q-Cells. Doch der einst weltweit führende Solarkonzern ist auf Platz neun abgerutscht, Tendenz fallend. Für die ersten drei Monate des laufenden Geschäftsjahres musste Q-Cells-Chef Nedim Cen gerade einen Verlust über 41 Millionen Euro ausweisen. Seither kursieren auch im Falle von Q-Cells Gerüchte um eine feindliche Übernahme.

8. Jobmotor Solarindustrie: ein Mythos

Dieser Trend ist – gerade mit Blick auf Arbeitsplätze in Deutschland – besonders misslich, weil die Zell- und Waferfertigung den eigentlichen "Hightech"-Teil der Solarproduktion darstellt, wohingegen das Zusammensetzen der Zellen in gerahmte Module eher dem "Medium- oder Lowtech"-Bereich zuzuordnen ist. Doch in der deutschen Branche herrscht stillschweigendes Einvernehmen über die Tatsache, dass Solarzellen in Deutschland nicht mehr wirtschaftlich zu produzieren sind. In dieser Woche war es Holger von Hebel, Chef der Firma Bosch Solar, der ankündigte, die nächsten großen Solarfabriken mit tausenden Arbeitsplätzen in Malaysia und den USA zu bauen. Wolfgang Hummel von der Hochschule für Technik und Wirtschaft (HTW) in Berlin, der den Solarmarkt seit Jahren intensiv verfolgt, glaubt: "Im Bereich der Solarzellen- und Modulproduktion ist kein weiterer Aufbau von Arbeitsplätzen in Deutschland mehr zu erwarten."

Damit hat Hummel vermutlich recht. Zwar wirbt die Solarlobby stets mit den 133 000 Arbeitsplätzen, die durch eine Kappung der Solarförderung gefährdet wären. Doch den Mythos vom angeblichen "Jobmotor" Solarindustrie hat die Branche selbst entzaubert: In ihrer eigenen "PV-Roadmap" gibt die Branche zu, dass von den 133 000 Arbeitsplätzen nur ein Bruchteil – lediglich 18 000 – in der eigentlichen Fotovoltaik-Produktion angesiedelt sind. Die Zahl von Solar-Arbeitsplätzen im Handwerk ist mit 39 000 demgegenüber mehr als doppelt so hoch. Weitere 64 000 Solar-Arbeitsplätze werden in den nicht weiter definierten Bereichen "Vorleistungen" und "Sonstiges" verortet.

Angesichts dieser Zahlenverhältnisse scheinen die zweistelligen Milliardensubventionen weniger dem Aufbau eines "Jobmotors" der Hightech-Industrie zu dienen als vielmehr einem arbeitsmarktpolitischen Strohfeuer im Handwerk. Dass sich daran allzu viel ändert, ist wenig wahrscheinlich: Sogar nach den Zielen, die sich die deutsche Solarbranche selbst steckt, soll die Zahl der Arbeitsplätze bis 2020 nicht nur nicht wachsen, sondern sogar leicht zurückgehen.

9. Erfolge einer gute Lobby

Als die Parteivorsitzenden von CDU, CSU und FDP am 23. Oktober 2009 zur Beratung ihres Koalitionsvertrages zusammenkamen, lag ein Vorschlag der Unionsarbeitsgruppe "Wirtschaft" auf dem Tisch, die schon damals ausufernden Solarsubventionen bereits zum 1. Januar deutlich um 30 Prozent zu senken. Als Angela Merkel, Horst Seehofer und Guido Westerwelle den Koalitionsvertrag tags darauf der Öffentlichkeit präsentierten, fand sich der Vorschlag der Abgeordneten darin nicht wieder. Nur unbestimmt, ohne festes Datum und Mengenangabe, stand dort, die Regierung wolle "im Dialog mit der Solarbranche" darüber reden, wie "eine kurzfristige Überförderung vermieden werden" könne.

Szenebeobachter sehen in der Verwässerung des Unionsvorschlags einen Erfolg des damaligen FDP-Vorsitzenden Guido Westerwelle. Denn Westerwelles Wahlkreis ist Bonn, wo der größte deutsche Solarkonzern Solarworld AG seinen Sitz hat. Solarworld-Chef Frank Asbeck stand nach Beobachtung mehrerer an den Koalitionsverhandlungen Beteiligter damals in regem SMS-Austausch mit seinem erklärten "Freund" Westerwelle. So dürfte es wohl auch kein Zufall sein, dass der Bundesverband der Solarwirtschaft (BSW) auch heute noch auf seiner Homepage unter dem Kapitel "Politikberatung" seine eigene Lobbyarbeit preist und dies unter der Überschrift "Ohne starke Lobby keine solare Energiewende" ausgerechnet mit einem Foto des Bundesaußenministers Guido Westerwelle dekoriert.

"Tag für Tag sind engagierte und kompetente Streiter des Verbandes auf den Fluren von Bundestag und Ministerien in Berlin unterwegs", heißt es in dem Abschnitt, in dem der BSW seine eigenen Lobbyerfolge feiert. "Die Politikberater des BSW-Solar" hätten schon "im Juni 2008 auch die Neu-Novellierung des EEG im Sinne der Branche positiv mitgestalten können." Erzielt wurden diese Erfolge mit einem außergewöhnlich hohen Etat für politische Arbeit: Der Bundesverband der Solarwirtschaft leistet sich in Berlin immerhin 29 hauptamtliche Mitarbeiter. Zum Vergleich: Die angeblich so mächtige Lobby-Organisation der deutschen AKW-Betreiber, das "Deutsche Atomforum" beschäftigt in der Hauptstadt lediglich 13 Mitarbeiter, Sekretariat und Buchhaltung schon miteingerechnet.

Doch auch Einzelunternehmen der Branche betreiben auf eigene Kosten politische Landschaftspflege. Dabei sind nicht alle Parlamentarier so ehrlich wie der Bonner SPD-Abgeordnete Ulrich Kelber, der auf seiner Homepage als "gläserner Abgeordneter" selbst zugibt, in den Jahren 2007, 2008 und 2009 jeweils Spenden in Höhe von 25 000 Euro von der Solarworld AG aus seinem Bonner Wahlkreis erhalten zu haben. Dies zusätzlich zu einer Spende über 15 000 Euro von "First Solar" im Jahre 2009. Allerdings betont der stellvertretende Fraktionsvorsitzende Kelber, durch die Gelder in seiner Arbeit nicht beeinflusst worden zu sein. Kelber ist in der SPD-Fraktion unter anderem für den Schwerpunktbereich Umwelt zuständig und ist Mitglied der "Arbeitsgruppe Energie".

Auch die IBC Solar AG aus Bad Staffelstein erklärt auf Nachfrage, dass sie "die politische Arbeit in Deutschland über Parteigrenzen hinweg unterstützt". IBC hatte unter anderem Bundeskanzlerin Merkel dafür gewinnen können, den ersten Spatenstich beim Bau des Solarpark Grimmen in Mecklenburg-Vorpommern zu setzen, den IBC errichtet und mit chinesischen Solarmodulen bestückt hatte. Als IBC in der vergangenen Woche den Baubeginn für den Solarpark "Jura" in Oberfranken feierte, war es mit CSU-Chef Horst Seehofer ebenfalls hohe politische Prominenz, die hier kamerawirksam den ersten Spatenstich setzte.

Das politische Engagement von IBC ist breit gestreut: "Die im Bundestag vertretenen Parteien CDU, CSU, SPD, FDP sowie Bündnis 90/Die Grünen wurden und werden von uns unterstützt", gibt die Firma Auskunft. Dabei halte man sich "strikt an die gesetzlichen Vorgaben", und knüpfe "in keinem Fall Bedingungen an die von uns getätigten Spenden". Wenn es im Zusammenhang mit Parteispenden zu Kontakten mit Abgeordneten komme, dann nur um die Zahlungmodalitäten abzustimmen, "nicht aber – und darauf legen wir großen Wert – um Einfluss auf die Entscheidungen dieser Mandatsträger zu nehmen."

Das klingt nach einem geradezu selbstlosen Engagement. Allerdings ergibt eine stichprobenartige Anfrage beim Schatzmeister der FDP, dass die Firma IBC Solar die Spendenempfänger relativ gezielt auswählt. "Im Jahr 2010 sind zwei Spenden in Höhe von jeweils 5000 Euro an den Kreisverband Dortmund sowie an den Kreisverband Regensburg verbucht", gibt FDP-Sprecher Wulf Oehme Auskunft. Dortmund ist der Wahlkreis von Michael Kauch, der als umweltpolitischer Sprecher der FDP-Bundestagsfraktion jetzt auch an der Verabschiedung der EEG-Novelle mitwirkt. Kurz vor den jetzt anstehenden parlamentarischen Gesprächen hatte sich Kauch für eine stärkere Kürzung, aber gegen eine feste "Deckelung" der Solarsubventionen ausgesprochen, wie sie etwa vom Wirtschaftsflügel der CDU gefordert wird. Der andere IBC-Spendenempfänger, der FPD-Kreisverband Regensburg, ist der Wahlkreis von Horst Meierhofer, dem stellvertretenden Vorsitzenden des Ausschusses für Umwelt, Naturschutz und Reaktorsicherheit im Bundestag.

Auch auf europäischer Ebene sind Solar-Lobbyisten erfolgreich: So gelang es etwa der Firma First Solar im vergangenen Jahr, bei der EU-Kommission in Brüssel eine Ausnahmegenehmigung für die Verwendung des krebserregenden Nervengifts Kadmium in der Verbindung Kadmiumtellurid zu erwirken.

Obwohl die EU-Kommission mit ihrer sogenannten RoHS-Richtlinie eigentlich die industrielle Verwendung giftiger Schwermetalle wie Quecksilber oder eben Kadmium zum Schutz von Mensch und Umwelt komplett untersagen wollte, machte sie dann für die Solarbranche doch eine Ausnahme. Die besonders günstigen und leistungsfähigen Solarmodule der Firma First Solar enthalten nach Angaben vom vergangenen Jahr pro Stück etwa sieben Gramm der toxischen Schwermetallverbindung. Nach Erkenntnissen der unabhängigen Initiative "Lobbycontrol" gab First Solar im Jahre 2009 für Lobbyarbeit in Brüssel zwischen 100 000 und 150 000 Euro aus. Dass First Solar im Kampf gegen das Kadmium-Verbot "mit problematischen Mitteln vorgegangen ist", sei "nicht auszuschließen", heißt es in dem Dossier der unabhängigen Initiative weiter.

10. Beitrag zum Klimaschutz?

Solarstrom gilt als "saubere" Energie, die klimaschädliche, fossile Kraftwerke verdrängt. Doch für Solarenergie gilt dasselbe wie für alle Ökostromvarianten: Unter dem Dach des Europäischen Emissionshandelssystems führen sie lediglich dazu, dass Emissionen verlagert, aber nicht vermieden werden.

Der Mechanismus wird von Vertretern der Ökostrom-Branche zwar immer wieder angezweifelt, gilt aber im Grundsatz als unwiderlegt. Denn im Kampf gegen die Kohlendioxid-Emissionen in Deutschland und Europa ist seit 2005 der sogenannte Emissionshandel das erste Mittel der Wahl. Wirtschaftssektoren bis hinunter zum einzelnen Kraftwerk bekommen eine streng begrenzte Menge an Emissionszertifikaten zugeteilt. Das sind Gutscheine, die für den Ausstoß von jeweils einer Tonne Kohlendioxid (CO2) berechtigen. Anlagenbetreiber, die weniger CO2 ausstoßen als geplant, können überzählige Zertifikate am freien Markt verkaufen. Dieses System setzt marktwirtschaftliche Kräfte für den Klimaschutz frei und erzeugt "Preissignale", die dafür sorgen, dass die Investitionen der Unternehmen zuerst in die günstigsten und effizientesten Umwelttechnologien fließen.

Durch Subventionen für bestimmte Ökostrom-Techniken wird der Emissionshandel als marktwirtschaftlich konzipiertes Klimaschutzinstrument jedoch ausgehebelt. Denn der Solarausbau sorgt zwar für weniger CO2-Emissionen in Deutschland, doch zugleich fallen dadurch in gleichem Umfang die Preise für Emissionszertifikate an der Börse. Das führt dazu, dass "Vermeidungsmaßnahmen in anderen Sektoren nicht ergriffen werden, weil es kostengünstiger ist, stattdessen Zertifikate zu kaufen", beschreiben die Wissenschaftler des Essener Wirtschaftsinstituts RWI die Wirkung: Andere Industriesektoren im europäischen Ausland "weisen folglich höhere Emissionen auf und gleichen so die Emissionseinsparungen, die im deutschen Stromerzeugungssektor durch das EEG ausgelöst werden, gänzlich aus." Im Ergebnis, so die Ökonomen, "ergibt sich lediglich eine Emissionsverlagerung". Der "Nettoeffekt" jeglicher Ökostrom-Subventionen sei, jedenfalls solange das europäische Emissionshandelssystem existiert, genau "null".

Zudem stellt die Fotovoltaik die bei Weitem teuerste Art des Klimaschutzes dar. Wissenschaftler der Internationalen Energieagentur (IEA) oder des RWI haben errechnet, wie viel es kostet, den Ausstoß von jeweils einer Tonne des Treibhausgases Kohlendioxid aus einem fossilen Kraftwerkspark durch den Einsatz verschiedener Ökostrom-Techniken zu verhindern. Ergebnis: Die CO2-Vermeidungskosten der Fotovoltaik lagen zuletzt bei rekordverdächtigen 648 Euro je Tonne. Denselben Klimaschutzeffekt würde man mit Windkraft schon für 69 Euro pro Tonne erzielen. Die Tatsache, dass an der Europäischen Strombörse in Leipzig Emissionsgutscheine für nur 16 Euro pro Tonne gehandelt werden, weist darauf hin, dass die Fotovoltaik als reines Klimaschutzinstrument sogar rund 40-mal teurer ist als die günstigste derzeit verfügbare CO2-Vermeidungstechnik.

Die Subventionierung gerade der teuersten CO2-Vermeidungstechnik aber "konterkariert das Prinzip des Emissionshandels, den Treibhausausstoß dort zu verringern, wo es am kostengünstigsten ist", stellt Manuel Frondel, Leiter des Kompetenzbereichs Umwelt und Ressourcen des RWI fest. Fazit: Welche Gründe es für die Subventionierung von Solarstrom auch immer geben mag: Klimaschutz gehört eher nicht dazu.

Obwohl also fast kein Argument der Solar-Befürworter einer kritischen Überprüfung standhält, droht der Solarzubau weiterzugehen. Denn weil die Preise für Solarmodule dank der chinesischen Billiganbieter allein im ersten Halbjahr 2011 um rund 30 Prozent gefallen sind, bleibt es für Investoren in Deutschland ein äußerst lukratives Geschäft, sich Solarzellen aufs Dach zu setzen. So sagen die Anlageexperten der Investmentbank Morgan Stanley voraus, dass in diesem Jahr erneut die Leistung von 6500 Megawatt auf deutsche Dächer geschraubt werden wird. Und die Credit Suisse erwartet sogar einen Zubau von 7500 Megawatt Solarleistung. Das ist fast die Menge, die im bisherigen Rekordjahr 2010 aufgestellt wurde. Und es wird noch mehr: Branchenbeobachter erwarten, dass Deutschland im kommenden Jahr mit einer wahren Flut von Billig-Solarmodulen überschwemmt wird, weil andere große Abnehmerländer wie Tschechien oder Italien ihre Solarförderung bis dahin drastisch zurückfahren wollen. Deutschland aber, das als einziges Land übrig bleibt, das Solarenergie weiter in unbegrenzter Höhe und Menge fördert, dürfte dann den größten Teil der Weltproduktion an Modulen geradezu aufsaugen. Nach inoffiziellen, aber gleichlautenden Schätzungen aus Kreisen des Bundesumwelt- und des Bundeswirtschaftsministeriums könnte so im kommenden Jahr erneut mindestens 10 000 Megawatt Solarkraft hinzukommen. Eine gewaltige Überkapazität, die den Spielraum für die Förderung anderer, effizienterer Ökostromarten stark einschränkt, und damit die Chancen für eine nachhaltige ökologische Energiewende zu vertretbaren Kosten verringert. Denn falls die Wirtschaftspolitiker der Unionsfraktion kommende Woche mit ihrer Forderung nach Deckelung der Solarausgaben scheitern sollten, ist die Messe erst einmal gelesen, glaubt ein Kenner der Solarszene: "Dann wird es wohl bis weit nach der nächsten Bundestagswahl 2013 dauern, bis man sich wieder mit dem Thema beschäftigt und endlich jemand die Notbremse zieht."

Daniel Wetzel aus "Die Welt am Sonntag" vom 26.6.11 

mit freundlicher Genehmigung




Atomausstieg beschlossen! Dreizehn Energiewende-Märchen Teil III

Nr. 9: Das Windstrom-Märchen: "Der Windpark XY kann Z-tausend Haushalte versorgen."

Eine derartige Behauptung ist ein fester Bestandteil jeder Pressemitteilung über die Einweihung eines Windparks.

Tatsächlich kann auch der größte Windpark keinen einzigen Haushalt sicher und zuverlässig mit Strom versorgen. Das liegt am bekanntlich unvorhersehbaren und extrem schwankenden Windangebot, was regelmäßig dazu führt, daß bei den sowohl im Sommer als auch im Winter beliebten windstillen Hochdrucklagen alle Windmühlen viele Stunden und oft Tage still stehen. Das würde Stromsperren bedeuten und wäre für die Industrie tödlich.

Aus diesem Grunde konnte bisher trotz des enormen und durch Milliarden an von Stromkunden bezahlten Zwangsabgaben (EEG-Gesetz) subventionierten Ausbaus der Windkraft bis 2010 auf 21.607 Anlagen mit 27.200 MW "installierter Leistung" (die Leistung, die die Windmühlen maximal erzeugen würden, wenn sie alle ihre maximal verkraftbare Windstärke erhalten würden) kein einziges konventionelles Kraftwerk ersetzt, also abgeschaltet werden.

Im Gegenteil: Es müssen zusätzliche Gaskraftwerke gebaut werden, die die extremen Schwankungen des Windstroms durch schnelles Herauf- und Herunterfahren ausgleichen müssen, damit das Stromnetz nicht zusammen bricht.

Der einzige verbleibende Vorteil der Windkraft ist eine Brennstoffeinsparung der vorübergehend herunter gefahrenen Kraftwerke. Ihr enormer Nachteil ist die nun doppelt vorhandene teure Stromerzeugungs-Kapazität , die den Strompreis nach oben treibt.

Zusätzliche Stromspeicher, die das Netz stabilisieren könnten, gibt es nicht und wird es auch in 20 Jahren nicht geben (siehe das Märchen von den neuen Stromspeichern und das Elektroauto-Märchen).

Nr. 10: Das Geothermie-Märchen

Mit heißem Wasser aus der Tiefe Strom in Deutschland erzeugen zu wollen, erfüllt im Grunde den Straftatbestand des groben Unfugs – in Verbindung mit der Verschwendung von Steuergeldern, sofern die zur Zeit laufenden Projekte öffentlich gefördert werden.

Es ist der hoffnungslose Versuch, die Gesetze der Physik zu betrügen: Bei einer Temperaturdifferenz von etwa 80 Grad zwischen dem etwa 100 Grad heißen Wasser aus dem Bohrloch und der Kühlseite des daran angeschlossenen Niederdruck-Dampfkraftwerks ist der Umwandlungs-Wirkungsgrad von Wärmeenergie in elektrische Energie dermaßen klein, daß die allenfalls optisch eindrucksvollen Versuchskraftwerke – die tatsächlich gebaut worden sind – nur minimal Strom erzeugen können. Aus diesem Grund wird in den Beschreibungen dieser Projekte stets jegliche Angabe des elektrischen Wirkungsgrades sowie der anteiligen Anlagenkosten pro erreichtem Kilowatt an erzeugter elektrischer Leistung peinlichst vermieden.

Die Leistungsbilanz sowohl der 4 errichteten und der 5 geplanten Geothermiekraftwerke ist insgesamt: 7,4 Megawatt.

Ein einziges Kohlekraftwerk erzeugt jedoch 900 bis 1.400 MW; ein Kernkraftwerk 1200 bis 1.400 MW.

Sinnvoll wäre allein die Nutzung der Geothermiewärme zu Heizzwecken über Fernwärme – sofern sich ein Neubaugebiet in der Nähe der Anlage befindet.

Aus dem soeben bekannt gewordenen EEG-Erfahrungsbericht des BMU, der zugleich die künftige Planung bekannt gibt, geht hervor, daß "die Förderung der Geothermie stark ausgebaut werden soll". Damit sind höchstwahrscheinlich wieder "Kraftwerke" wie die oben genannten gemeint. Das Motto scheint zu sein: Je hoffnungsloser und sinnloser die Vorhaben, desto stärker die Förderung.

Nr. 11: Das Märchen vom Technologiesprung

Es fällt auf, daß nur Politiker auf angeblich sicher kommende Technologiesprünge hinweisen, wenn sie die peinliche Tatsache von für die Energiewende fehlenden Techniken (z.B. effiziente, bezahlbare Stromspeicher) hinwegreden möchten.  Fachleute hüten sich vor solchen Äußerungen.

In Wahrheit verlaufen technische Entwicklungen ohne spektakuläre Sprünge langsam und gleichmäßig, was die langen Zeiträume zwischen erster Idee, Labor- oder Technikumsmuster, Prototypentwicklung, Konstruktion der ersten marktreifen Anlage und dann noch den schwierigen Prozeß der Marktdurchdringung erklärt.

Tatsächlich brauchen technische Entwicklungen – außerhalb der in dieser Hinsicht für schnelle Verbesserungen prinzipiell sehr  geeigneten Mikroelektronik – daher bis zu ihrer Markteinführung oft 30 Jahre, nicht selten auch 50 Jahre.

Einige Beispiele:

– die erste Anwendung der Wärmepumpe geschah in den 40er Jahren in der Schweiz;

– die ersten Elektroautos gab es schon vor über 100 Jahren;

– Silizium-Photovoltaik-Solarzellen wurden 1953 erstmals in den Bell Labs produziert;

– mit Brennstoffzellen als Treibstoff-Strom-Wandler bestückte Fahrzeuge gab es in

  Deutschland bereits um 1970;

– der Stirlingmotor, der jetzt als Mini-Kraft-Wärme-Einheit (Motor plus Stromgenerator)

  für Häuser angeboten wird, wurde 1816 von dem Geistlichen Robert Stirling erfunden.

  Er dient seit dem Jahre 1996 als Antrieb schwedischer U-Boote der Gotland-Klasse.

– Windmühlen als Stromerzeuger gibt es seit mindestens 80 Jahren.

Wer von kommenden Technologiesprüngen redet, zeigt damit nur, daß er keine Sachargumente hat, statt dessen aber meint, technologische Entwicklungen durch politische Sonntagsreden beschleunigen zu können.

Siehe hierzu:

o Das Märchen von der Sonne, die keine Rechnung schickt

o Das Märchen von den neuen Stromspeichern

o Das Elektroauto-Märchen

o Das Geothermie-Strom-Märchen.

Nr. 12: Das Märchen vom Segen der Dezentralisierung

Schon lange wird als ein Gegenmodell zur stets bösen Großtechnologie – gemeint sind vor allem normale Kraftwerke – die Vision von unzähligen kleinen Stromerzeugern in den Häusern als die ideale Stromversorgungs-Struktur für unser Land propagiert.  Die technische Lösung sieht immer gleich aus: Ein Gas- oder Dieselmotor treibt einen kleinen Stromgenerator an; die Abwärme kann in den Wintermonaten der Hausheizung zugeführt werden.

Wegen der vielen Erzeuger ist die Versorgungssicherheit in einem derart dezentralisierten Netz ähnlich hoch wie bei der Nutzung unseres Verbundnetzes, an dem ebenfalls viele Kraftwerke – allerdings zumeist Großkraftwerke – hängen.

Würde man in einem Land mit maroder Infrastruktur leben, dessen Stromversorgung durch ständige Blackouts gekennzeichnet ist, dann wäre ein solches dezentralisiertes System unverzichtbar. Im Grunde müßte jeder Betrieb und fast jedes Haus so eine eigene kleine Stromerzeugungsanlage besitzen, wie wir sie nur als Notstromversorgung in extrem stromabhängigen Nutzern kennen: Kliniken, Rechenzentren, Flugplätze, Telefonzentren, Polizei, Feuerwehr.

In einem solchen maroden Land leben wir aber glücklicherweise nicht. Deshalb sticht das Argument der Versorgungssicherheit eines dezentralen Systems nicht – und das ist dessen einziger positiver Aspekt.

Betrachtet man seine Nachteile,  dann kommt einiges zusammen:

• Ein durch viele Kleinerzeuger aufgebautes Stromversorgungsnetz benötigt zu 100 Prozent chemische Energieträger: Erdgas (auch veredeltes Biogas), Benzin oder Diesel (ebenfalls ggf. mit Biosprit-Anteilen). In der Realität wäre Erdgas mit Abstand der häufigste Brennstoff. Damit ist der Betrieb dieser Kleinanlagen von den Mineralöl- und Erdgaspreisen bestimmt – und zu mindestens 95% von Importen abhängig. Die Preise bestimmen dann der Öl-Spotmarkt und Gazprom.

• Durch dieses weit überwiegend mit fossilen Energieträgern betriebene System weitaus mehr CO2 erzeugt, als das System der CO2-freien Kernkraftwerke, der modernen Kohle- und Gaskraftwerke (GuD) mit ihren den Gas- und Dieselmotoren deutlich überlegenen höheren Wirkungsgraden, bedeutet das dezentrale Stromnetz einen wesentlich höheren CO2-Ausstoß, als es das Verbundnetz aufweist.

• Neben den hohen Brennstoffkosten spielen auch die erheblich höheren Investitionskosten bei den Kleinanlagen– gemessen in Euro pro erzeugter elektrischer Leistung in Euro / Kilowatt – eine Rolle.

Für den Ersatz eines 1000-MW-Kohlenkraftwerks wären ca. 330.000 Kleinanlagen á

3 KW erforderlich. Eine solche Kleinanlage kostet 8.000 – 22.000 Euro; das sind

3.700 – 7.500 Euro / KW.

(Mikro-BHKW-Vergleich, www.sanevo.de/ )

Zum Vergleich: Die Investitionskosten eines Kohlekraftwerks führen zu Kosten von

1.140 – 1.480 Euro / KW. 

Zusammengefaßt:

•  Gegenüber einem durch Kohlenkraftwerke versorgten Verbundnetz  wäre ein   durch Kleinanlagen  dominiertes Versorgungsnetz wesentlich teurer, wozu noch der Netzausbau im Mittelspannungs- und Niederspannungsnetz hinzu käme..

•  Die benötigten Import-Brennstoffe sind wesentlich teurer als heimische Braunkohle. oder Uran (Beispiel: anteilige Urankosten einer Kernkraft-Kilowattstunde 27% bei abgeschriebener Anlage,  8,1% bei KKW-Neubau; Erdgaskosten-Anteil bei GuD-Gaskraftwerken  74%).

•   Deshalb würde der Strom im dezentralen Netz deutlich mehr kosten.

•     Der CO2-Ausstoß würde sich deutlich erhöhen.

•    Die dezentrale Stromerzeugung hätte gegenüber dem jetzigen System keinen Vorteil bezüglich der Versorgungssicherheit.

Das dezentrale Stromversorgungssystem besitzt also keinen Vorteil, hat aber mehrere erhebliche Nachteile.

Nr. 13: Das Jobwunder-Märchen: "Erneuerbare" Energien schaffen viele Arbeitsplätze"

Dieses Argument wird ständig gebracht, aber exakt das Gegenteil dieser  Behauptung stimmt: Jeder Arbeitsplatz, der durch Subventionen geschaffen wird, führt zur Vernichtung von mindestens  2,2  Arbeitsplätzen in der übrigen Wirtschaft.  Bei der besonders teuren Photovoltaik werden sogar doppelt so viele Arbeitsplätze pro geschaffenem subventionierten Öko-Arbeitsplatz vernichtet. 

Der Mechanismus dieses Zerstörungsvorgangs, der übrigens für alle Subventionen gilt, ist simpel: Subventionen für Unternehmen oder deren Produkte, die am freien Markt keine Chance hätten, entziehen den Bürgern und der Wirtschaft Geld, das diese ansonsten für Konsum, Investitionen, Dienstleistungen etc. ausgeben würden. Das vernichtet Arbeitsplätze in diesen Branchen.

Hinzu kommt, daß die so künstlich geschaffenen Arbeitsplätze in der "grünen Industrie" zum großen Teil nicht dauerhaft sind, da sie überwiegend nur für die Produktion von Anlagen eingesetzt werden, nach deren Verkauf die Arbeit beendet ist. Arbeitsplätze, die dauerhaft mit dem Betrieb, der Wartung und  Reparatur von Anlagen befaßt sind,  gibt es dort vergleichsweise wenig.

Diese Erkenntnisse sind in der internationalen Wirtschaftswissenschaft mehrfach bestätigt worden.

(s. Gabriel Calzada Alvarez et al, Universität Rey Carlos de Madrid, März 2009, Calzada Studie hier und hier und hier die Stagnaro Studie).

Deutsche Unternehmen exportieren erfolgreich Anlagen für Umweltschutz-Zwecke. Aber die Hoffnungen von den "Erneuerbaren" als Exportschlager für die Industrie sind längst geplatzt. 2006 fanden sich unter den zehn weltgrößten Windkraftanlagen-Herstellern noch vier deutsche. 2010 standen nur noch zwei Namen auf der Liste – wohl aber vier chinesische. Deutschland exportierte 2010 Solarstromanlagen für 138 Millionen Euro nach China; China exportierte im Gegenzug solche Anlagen im Wert von 5,9 Milliarden Euro nach Deutschland.

Nr. 14: Das Märchen vom Ökostrom

Viele Deutsche meinen es gut und geben Geld aus, um die Welt ein bißchen besser zu machen. Das ist natürlich anzuerkennen. Aber freigiebig locker gemachtes Geld lockt gewisse Leute an, die es gerne hätten, ohne die damit verbundenen Wünsche ernst zu nehmen. Schon länger fließt etliches Geld aus Deutschland über den Atlantik, um dort zum Beispiel eine Patenschaft für eine Fledermaus in Nicaragua, einen Ara in Brasilien oder ein paar Quadratmeter Regenwald in Costa Rica zu finanzieren. Manches davon mag seriös sein, aber seit längerem hat sich in Übersee für das treuherzige, unkritische Finanzieren  gut gemeinter Projekte der böse Begriff "Stupid German Money" (Deutsches Idiotengeld) eingebürgert.

Auch in Deutschland selbst kann man zum Beispiel durch seine Stromrechnung die Heimat angeblich etwas grüner machen, vorausgesetzt, man kauft bei einem der zahlreichen Anbieter "Ökostrom". Als Techniker ist man von diesen Vorgängen zunächst verwirrt, denn eins ist absolut klar: Aus der Steckdose eines jeden Kunden kommt überall der gleiche Strom, über dessen Quellen man sich erst am Jahresende ein Bild machen kann, wenn bilanziert wird, welche Erzeuger wieviel Strom eingespeist haben.

Für 2010 sah dieser Strommix folgendermaßen aus:

Kernenergie 22%, Erdgas 14%, Braunkohle 24%, Steinkohle 19%, Wind 6,2%, Wasserkraft 3,2%, Biomasse 5,6%, Photovoltaik 2%, Sonstige (Müll, Öl, Grubengas; Klärgas) 5%.

Die im EEG genannten "Regenerativen" (s.u.) haben also zusammen knapp 20%.

Wie sehen nun die Ökostrom-Angebote aus ?  Und was steckt tatsächlich dahinter ?

Variante A ist das Angebot, Wasserkraftstrom aus Deutschland zu liefern. Das bieten mehrere Stromversorger an. Einer dieser Anbieter schreibt: "In jedem Fall erhalten Sie ohne CO2-Emissionen produzierten Strom aus 100% Wasserkraft mit TÜV Nord-Zertifikat. Sie bestimmen, welcher Strom für Sie persönlich produziert wird. Aber nicht nur das: Sie sorgen dafür, daß der Anteil von Ökostrom im gesamten Netz immer größer wird."

Bewertung: Die beiden ersten Sätze sind irreführend und haben mit der Realität nichts zu tun. Der dritte Satz würde nur dann eine Winzigkeit Wahrheit enthalten, wenn sich dieser Anbieter verpflichtet hätte, seine Gewinne selbst in neue Anlagen der regenerativen Energieerzeugung zu investieren. (Siehe Variante D). Davon ist aber in seiner Werbung nicht die Rede.

Daß der Kunde den vom Anbieter gekauften Wasserkraftstrom komplett erhält, ist schon physikalisch unmöglich. Ebenfalls unmöglich ist aber sogar, daß durch diesen Kauf der gläubige Ökostromkunde oder auch irgendein anderer Stromkunde auch nur eine Winzigkeit mehr regenerativen Strom an seiner Steckdose ankommen sieht.

Das verhindert nämlich das Erneuerbare Energie-Gesetz (EEG). Es bestimmt, daß die öffentlichen Netzbetreiber verpflichtet sind, sämtliche von den im EEG genannten Erzeugern (Wasserkraftwerke; Biomassekraftwerke; Geothermiekraftwerke; Windkraftanlagen; Photovoltaikanlagen; Stromerzeuger mit Deponiegas, Klärgas und Grubengas) produzierten Strommengen vorrangig – und das heißt restlos – gegen die gesetzlich festgelegte Vergütung anzukaufen. Anschließend müssen sie diesen Strom an einer Strombörse vermarkten.

Das bedeutet: Sämtlicher in Deutschland erzeugter regenerativer Strom wird qua Gesetz den Produzenten abgekauft – nichts bleibt an ungenutzten Kapazitäten übrig, deren Strom man noch extra als Ökostrom ankaufen und weiterverkaufen könnte.

Ebenso unmöglich ist es, daß der Ökostromkunde "selbst bestimmt, welcher Strom für ihn persönlich produziert wird." Er bekommt wie alle anderen Verbraucher, die nichts extra bezahlen, z.Zt. knapp 20% Ökostrom – und kein bißchen mehr.

Variante B:  Wenn der Ökostrom nicht aus Wasserkraft, sondern angeblich aus anderen im EEG genannten regenerativen Quellen in Deutschland kommt, gilt das oben Gesagte genau so.

Variante C:   Ein Anbieter schreibt: "Es ist garantiert kein Atomstrom." Und: "Unser Strom aus erneuerbaren Energiequellen in Norwegen wird aus Wasserkraft gewonnen. Aus 100% Wasserkraft."

Bewertung:  Abermals gilt das oben zu der Unmöglichkeit der Beeinflussung des Strommixes an der Steckdose des Ökostromkunden Gesagte. Selbstverständlich erhält auch dieser Kunde seine ca. 20% regenerativ erzeugten Strom – und Wasserkraft hat daran (s.o.) ihre 3,2%. Deutsche Wasserkraft, selbstverständlich.

Das EEG-Argument gilt in diesem Falle nicht, denn es wird ja in Norwegen Strom eingekauft. Das klingt zwar besser, ist es aber auch wieder nicht. Norwegen hat viel Wasserkraft, aber nicht genug davon. Das hat zwei Konsequenzen: Zum einen brauchen und verbrauchen die Norweger ihren Wasserkraftstrom selbst. Und weil das nicht reicht, importieren sie Strom aus Schweden – und zwar Kernkraftstrom.

Kaufen Ausländer wie der deutsche Ökostromanbieter den norwegischen Wasserkraftwerken Strom ab, fehlt dieser im dortigen Netz. Weil die Wasserkraftwerke wegen des deutschen Käufers auch nicht mehr als ohne ihn produzieren, ist der Umweltnutzen dieses Geschäfts Null.  Es muß nur mehr Kernkraftstrom in gleicher Menge importiert werden. Und weil man im norwegischen Netz genau wie im deutschen einen Strommix hat – in diesem Falle Wasserkraftstrom und schwedischen Kernkraftstrom – , ist auch in dem nach Deutschland gelieferten Ökostrom doch zusätzlicher Atomstrom dabei – der sich dann im deutschen Netz mit dem deutschen Atomstrom vereinigen würde, wenn das bei Strom überhaupt ginge. An der Steckdose des Kunden ist wieder "garantiert" 22% Atomstrom entnehmbar.

Ob der deutsche Ökostrom-Aufkäufer die Norweger zu einem weiteren Ausbau ihrer Wasserkraft veranlassen kann, ist eine gute Frage. Aber nur wenn genau das der Fall wäre, hätte es einen Einfluß auf den Strommix im norwegischen und deutschen Netz.

Variante D: Der Ökostromanbieter erklärt verbindlich, daß er seine Gewinne in neue Anlagen der regenerativen Energieerzeugung investieren wird. Dies finden die Umweltverbände gut, denen die anderen Varianten verständlicherweise wohl weniger überzeugend vorkommen.

Aber auch hierbei scheint der Umweltnutzen nur marginal zu sein: Es sind ja nicht die vom Kunden überwiesenen Ökostromkosten gemeint – der Löwenanteil davon geht an die vom EEG begünstigten Einspeiser, dann gibt es noch Verteilungskosten etc. – sondern nur die Gewinne, sofern sie anfallen. Außerdem befinden sich die Ökostromanbieter dann auf einem durch das EEG (d.h. durch die Zwangsabgaben der Verbraucher) recht lukrativ gewordenen Markt, in dem sich kapitalkräftige Investmentgesellschaften, EVU´s, Kommunen und andere Geldgeber tummeln.  Der Einfluß der Ökostromanbieter, hier noch Zusatzkapazitäten zu errichten, die man überhaupt quantitativ bemerkt, dürfte überschaubar sein.

Dennoch haben die Ökostromkunden in unserem Wirtschaftssystem eine Wirkung, wenn auch eine nicht von ihnen beabsichtigte:

Ihre Nachfrage nach regenerativ erzeugtem Strom bewirkt an den Strombörsen, an denen der Übertragungsnetzbetreiber seinen teuren EEG-Strom verkaufen muß, einen Preisanstieg. Den Netzbetreiber, der diesen Strom  ursprünglich bei den Wasserkraftwerken und den anderen EEG-begünstigten Erzeugern ankaufen mußte,  freut das, denn er zahlt beim Ökostrom immer kräftig zu, weil der Strompreis-Erlös an den Börsen viel niedriger liegt als der gesetzlich festgelegte Ankaufspreis. Jetzt bekommt er also etwas mehr Geld an der Börse und seine Verluste, die er auf alle Stromkunden umlegen darf, sinken etwas.

Das Ökostromgeschäft führt somit zwar nicht zu mehr Ökostrom, – weder bei der Erzeugung noch beim Verbraucher – entlastet aber RWE, E.ON & Co. finanziell. Solche Wege nimmt die Entwicklung, wenn gutgemeinte Fördermechanismen auf Marktwirklichkeit stoßen.

Eigentlich müßte nun gemäß der Marktlogik auch der Endverbraucher-Strompreis etwas sinken. Aber mächtige Kräfte wirken in die entgegengesetzte Richtung: Die Stillegung preisgünstiger Grundlast-Kernkraftwerke, der Ersatz ihrer Strommengen durch teureren Importstrom, die Errichtung teuer produzierender schneller Gaskraftwerke für den Ausgleich der Solar- und Windkraft-Schwankungen, der riesenhaft geplante Ausbau des Höchstspannungsnetzes, der weiter gehende gewollte Ausbau der „Erneuerbaren“, deren Strom  teuer angekauft und ins Netz eingespeist werden muß…

Wenn man es freundlich ausdrücken will, dann ist die deutsche Ökostrom-Liebe eine sympathische Liebhaberei. Diese Bezeichnung ist genau so gemeint, wie es die Finanzämter auch meinen, wenn sie das Tun der Steuerzahler einschätzen.

Schlußwort

Die deutsche Angstpolitik ist nun Wirklichkeit. Für eine Hoffnung auf eine Rückkehr zu einer realistischen Politik besteht für mehrere Jahre kein Anlaß. Erst nachdem massive Schäden eingetreten sind, die sich politisch auszuwirken beginnen, könnte es zu einer Rückbesinnung kommen, allerdings wohl nicht innerhalb der zur Zeit im Bundestag vertretenen Parteien. 

Daß sich ein führendes Industrieland ohne real existierende Probleme nur aus Angst selbst wirtschaftlich ruiniert, ist in der Geschichte einzigartig. 

Der Autor hat nicht die Hoffnung, mit seinen Zeilen noch irgend etwas an diesem Prozeß aufzuhalten; das wäre realitätsfern. Das mußte nur einfach aufgeschrieben werden, damit es jemand liest. Tatsächlich ist es  kein Artikel , sondern ein Nachruf.

Dr. Günter Keil Sankt Augustin, 16. Juni 2011

Die dreizehn und ein Energiewende-Märchen finden Sie als Datei im Anhang

Related Files




Dreizehn Energiewende-Märchen Teil II

Nr. 4: Das Märchen von den umweltfreundlichen "erneuerbaren" Energien

Daß Energie nicht erneuerbar ist, lernt man im Physikunterricht. Das widerspricht nämlich den Hauptsätzen der Thermodynamik. Deshalb sagt die Tatsache, daß die Deutschen einem energiepolitischen Gesetz diese falsche Bezeichnung gaben, bereits einiges über die Kenntnisse der Gesetzesmacher aus. Genauer ist die Bezeichnung regenerative Energien.

Gemeint sind Windstrom, Solarstrom- und –Wärme, Wasserkraft-Strom, energetische Biomassenutzung und Geothermie.

Was die bisherige Biomasse-Nutzung anbelangt, hat Umweltminister Norbert Röttgen schon den Rückzug angetreten. In seiner Verteidigungsrede für den von den Autofahrern abgelehnten E 10 – Sprit behauptete er schon gar nicht mehr, daß dieser der Umwelt nutzen würde. Zu groß war die Kritik von allen Seiten, sogar vom hauseigenen Umweltbundesamt: Verbrennung von Lebensmitteln bei weltweit – gerade deshalb – steigenden Lebensmittelpreisen, Hunger, Abholzung von Tropenwäldern für den Anbau von Ölpalmen, riesiger Flächenverbrauch, Monokulturen, Rückgang der Artenvielfalt, großer Düngemitteleinsatz, dazu noch eine negative CO2-Bilanz. 

Eine Studie des WWF beklagt den durch das EEG ausgelösten Kampf um Agrarflächen: Die EEG-Subvention liegt mit 3.000 Euro pro Hektar (ha) fast 10-fach über der EU-Subvention von 340 Euro/ha  für traditionelle Bauern. die Landwirte geraten in Bedrängnis, da sie bei Neuverpachtung nicht mit den Betreibern der Biogasanlagen konkurrieren können.

(FAZ vom 22.2.2011).

Eine dermaßen die Menschen und die Umwelt schädigende Energietechnik, die wegen ihrer negativen CO2-Bilanz auch nicht das Etikett "erneuerbar" verdient, hat es noch nicht gegeben.

Dennoch gehört auch diese Technik zu den Hoffnungsträgern der Energiewende, denn im Gegensatz zu Wind- und Solarstrom kann man mit Biogas zu jeder Zeit Strom erzeugen, obwohl statt dessen die Veredelung zu Erdgas und dessen Einspeisung in das Gasnetz die im Biogas steckende Energie wesentlich effizienter nutzen würde – was der deutlich kleinere Unfug  wäre.

Aber seit die GRÜNEN an der Regierung waren, ist "erneuerbare" Stromerzeugung zu buchstäblich jedem Preis – siehe Photovoltaik-Solarstrom – ein energiepolitisches Prinzip jeder Bundesregierung. Auch wenn der hauptsächliche Energieverbrauch in unserem nicht vom Klima verwöhnten Land weit überwiegend in die Hausheizung geht und weil deshalb z.B. die Solarthermie, die Pelletheizung, die Wärmepumpe, die Modernisierung von Heizungsanlagen oder die Fernwärmenutzung Priorität vor jedem Stromerzeugungs-Krampf haben müßten. Das wäre ideologiefreie Energiepolitik.

Beschwichtigungsversuche unter Verweis auf die noch tief im Versuchsstadium steckende Biomassenutzung "der 2. Generation" (ohne Lebensmittel-Verbrennung) gehören zum Thema Hoffnungstechnologien – siehe das Märchen vom Technologiesprung – und sollten nicht ernst genommen werden, da dies bis zur Marktreife und –Durchdringung noch ca. 20 Jahre dauern wird.

Das Flächenverbrauchs-Argument trifft aber ebenso auf die Windkraft und den Solarstrom im Vergleich zu konventionellen Kraftwerken zu:

Windkraft: Um rechnerisch die Strommenge eines Kernkraftwerks der Größe des Meilers Philippsburg 2 (Nettoleistung 1.400 MW )  zu erzeugen, wären 3690 Windräder an Land (2 MWp mit je 0,2 km2 Flächenbedarf) nötig.  Das Kernkraftwerk produzierte 2010 die Strommenge von 11.8 Gigawattstunden (11,8 Milliarden Kilowattstunden).

Der Flächenbedarf für die Windräder wäre etwa 370-mal so groß wie für das Kernkraftwerk. Insgesamt würden sie 738 Quadratkilometer beanspruchen.

(Angaben für die Windkraft: Wolf v. Fabeck, Solarenergie-Förderverein Deutschland e.V., 27.8.2009)

Würde Deutschland im Jahr 2050 seinen Strom komplett "erneuerbar" erzeugen, benötigten die Windräder (dann 4 MWp , á 0,32 km2) für ihren Anteil an geschätzten 870 Mrd KWh etwa eine Fläche von 43.500 Quadratkilometern. Das wäre 90% der Fläche Niedersachsens.

Biogas-Kraftwerke: Würde mit Biomasse – etwa Mais – das Gas erzeugt, um ein herkömmliches Gas-Dampf-Kombikraftwerk (GuD) zu betreiben, wären 667 Quadratkilometer Anbaufläche nötig. Dies entspricht etwa dem 11.500-fachen der GuD-Kraftwerksfläche und 93.417 Fußballfeldern.

Hierzulande wären 10.100 Quadratkilometer nötig für den Biomasseanteil einer komplett auf "erneuerbaren" Quellen basierenden Stromerzeugung.  Das wäre dann 174.137-mal die GuD-Fläche – und entspricht 6 Prozent der Landwirtschaftsfläche in Deutschland.

Solarstromanlagen:  Für den Solaranteil am Strommix der Zukunft berechnete die T.U. München zusammen mit Siemens einen Flächenbedarf von 1.073 km2.

Aus der DLR-Studie (s.u.) gehen 700 – 900 km2 hervor. Der größte Teil davon kann auf Dächern Platz finden.

(Daten zu den 3 o.g. Stromerzeugungs-Methoden beruhen auf der "Leitstudie 2010" des Deutschen Zentrums für Luft- und Raumfahrt, DLR)

Im Vergleich: Ein 1.400-MW-Kernkraftwerk besetzt maximal 2 km2 an Fläche. Der neue 1.600-MW-Europäische Druckwasserreaktor der 3. Generation EPR (in Finnland und Frankreich im Bau) besetzt 60 Hektar = 0,6 km2. Für Steinkohlenkraftwerke gilt das Gleiche. Bei Braunkohlenkraftwerken muß der Tagebau eingerechnet werden: 10 – 20 km2.

Rechnet man die Ziele der Energiewende für den Anteil der "Erneuerbaren" an der Stromerzeugung in den Flächenverbrauch um, dann müßte Deutschland seine Landwirtschaft weitgehend einstellen – außer natürlich für Mais, Weizen und Raps.

Die Energiewende als ökologische Katastrophe ? Als Vorbild ungeeignet.

Nr. 5: Das Märchen vom großen Energie-Einsparpotenzial

Zum festen Bestandteil aller geschönten und grenzenlos optimistischen Prognosen über den kommenden Siegeszug der "Erneuerbaren" gehört das Märchen vom enormen Einsparungspotenzial an Primärenergie und insbesondere Strom. Denn setzt man große fiktive Einsparungsmöglichkeiten in seinem Konzept an, hat das den schönen Vorteil, daß man viel weniger regenerative Energiequellen und auch nicht so viele Stromspeicher braucht, um die Phantasieziele wenigstens auf dem Papier zu erreichen.

Kein Wunder also, daß auch wieder im Energiekonzept der Bundesregierung hoffnungsvolle Sätze stehen, wie "In Deutschland bestehen weiterhin ganz erhebliche Potenziale zur Energie- und Stromeinsparung" und "In der deutschen Industrie besteht nach wissenschaftlichen Studien ein wirtschaftliches Einsparpotenzial von jährlich 10 Mrd. Euro."

Und dann auch noch: "(Es) bedarf aber noch vielfältiger Anstöße, um Deutschland auf den Weg zu einer der energieeffizientesten Volkswirtschaften der Welt zu bringen."

In den quantitativen Zielen des Energiekonzeptes steht dann auch als eine der wichtigsten Vorgaben:

"Die Verminderung des Primärenergieverbrauchs bis zum Jahre 2050 um 50% gegenüber 2008; und bis 2020 eine Verminderung um 20%. Das erfordert pro Jahr eine Steigerung der Energieproduktivität um durchschnittlich 2,1%, bezogen auf den Endenergieverbrauch."

Und weiter:

"Wir streben an, bis 2020 den Stromverbrauch gegenüber 2008 in einer Größenordnung von 10% und bis 2050 von 25% zu vermindern." 

1. Zur Energieproduktivität:

Üblicher ist es, die Energieintensität einer Volkswirtschaft zu verfolgen, das ist diejenige Energiemenge, die zur Erzeugung eines bestimmten Brutto-Inlandsproduktes BIP erforderlich ist. 

Gemessen wird sie international in Tonnen Öl-Äquivalent pro 1000 US-$ BIP.

Die Energieintensität ist somit umgekehrt proportional zur Energieproduktivität – die Wirtschaft arbeitet folglich rationeller, wenn die Energieintensität sinkt; also weniger Energie für den gleichen Produktionswert benötigt wird.

Die obige Forderung bedeutet also, daß die Energieintensität jährlich um 2,1% sinken sollte.

Zu den Tatsachen:

Das statistische Bundesamt hat berichtet, daß die Energieintensität in Deutschland vom Jahre 1991 – das man mit 100 Punkten angesetzt hat – bis zum Jahre 2006 auf 80,5 Punkte, also um 19,5%, zurückgegangen ist.  Und das ganz ohne Energiekonzept einer Regierung, sondern durch die ständigen Bemühungen der Industrie, die die Aufgabe der rationellen Energieverwendung seit den 50er Jahren als eine Selbstverständlichkeit systematisch betreibt.

Die Energieintensität ist folglich 15 Jahre lang mit durchschnittlich 1,3% jährlich gesunken – und das ist ein großartiges Ergebnis.

Diese unter hohen Kosten und Anstrengungen über einen langen Zeitraum erzielte Erfolgsquote kann nicht durch das Bedrucken von Papier mit der Zahl 2,1%  erhöht werden.

Interessant ist auch ein Blick auf die Nachbarländer: Unter 25 europäischen Ländern liegt Deutschland in der Spitzengruppe an 5. Stelle bezüglich einer niedrigen Energieintensität.  Geringfügig besser sind Dänemark, Irland, Östereich und Italien. Berücksichtigt man aber die Tatsache, daß Deutschland mit seiner erfreulicherweise noch vorhandenen Schwerindustrie sowie weiteren energieintensiven Grundstoffindustrien und dem Maschinen- und Fahrzeugbau eine Industriestruktur besitzt, die wesentlich stärker als die der genannten Länder ist und deshalb für seine Produktion auch mehr Energie benötigt, dann erkennt man, daß Deutschland hier unter den Industrieländern  eine Spitzenposition einnimmt.

Es bedarf deshalb keiner "Anstöße" durch eine Regierung, "um Deutschland auf den Weg zu einer der energieeffizientesten Volkswirtschaften der Welt zu bringen", denn Deutschland ist längst der Spitzenreiter.

2. Zum Energieverbrauch, speziell zum Stromverbrauch

Auch hierzu gibt es für jedes Jahr präzise Zahlen.

Der Bruttostromverbrauch betrug in den alten Bundesländern:

– 1981 : 375    Mrd. KWh

– 1995:  462      "       ".

   Das war eine Steigerung von 23,2% in 15 Jahren.

In Gesamtdeutschland verlief der Stromverbrauch wie folgt:

–  1990:  550,7 Mrd. KWh

–  1991, 1992 und 1993 ein Rückgang um 4,2% bis auf 528,0  Mrd. KWh

–  1994 bis 2007 ein stetiger Anstieg auf 618,1 Mrd. KWh

–  2008 und 2009 ein Rückgang um 5,8% auf 582,5 Mrd. KWh

–  2010 mit einem kräftigen Anstieg um 4,3% auf den Endstand von 607,5 Mrd. KWh.

   Das war eine Steigerung von 10,3% in 20 Jahren.

Daraus kann man folgende Erkenntnisse ableiten:

– Der Stromverbrauch steigt stetig und nur Wirtschafts- und Finanzkrisen können diesen 

  Trend kurzfristig unterbrechen.

– Das Wirtschaftswachstum des Industrielandes Deutschland führt automatisch zu

  einem Anstieg des Stromverbrauchs.

– Die dank der Anstrengungen der Industrie sinkende Energieintensität – s.o. –

  verlangsamt den Anstieg des Stromverbrauchs – aber es bleibt ein Anstieg.

– Der einzige Weg zu einem deutlichen Rückgang des Stromverbrauchs ist eine harte Wirtschaftskrise. Genau das hat man beim Zusammenbruch des Ostblocks gesehen.

  Insofern sind die Wunschzahlen im Energiekonzept zu einer Verringerung des Stromverbrauchs  wirklichkeitsfremd. Sie sprechen ein hartes Urteil über das Niveau des Sachverstands und das Vorherrschen reinen Wunschdenkens bei den Verfassern.  Und ein ebenso hartes Urteil über die Regierung!

Wenn es der Regierung um eine realistische Energiepolitik ginge, hätte sie z.B. die VDE-Prognose von 2008 "Effizienz und Einsparpotenziale elektrischer Energie in Deutschland – Perspektiven bis 2025 und Handlungsbedarf"  beachtet und ernst genommen.

Darin wurden die tatsächlich noch vorhandenen Einsparpotenziale identifiziert, vor allem bei:

– Kraft- und Wärme-Kopplung;

– Haushaltsgeräten;

– Wirkungsgraden von Kleinmotoren;

– und der Optimierung von Gesamtanlagen.

Es wurden optimistische und pessimistische Szenarien durchgerechnet und das  dazwischen liegende, wahrscheinliche Ergebnis präsentie

"Unter der Annahme realistischer Verbrauchs- und Effizienzprognosen wird der Stromverbrauch bis 2025 um rund 30% zulegen."

Der VDE erklärte zu diesem Ergebnis: "Bei diesem Szenario gibt es eine deutlich verbesserte Effizienz der Stromnutzung (s.o), jedoch einen Mehrverbrauch bei neuen und zusätzlichen Anwendungen."

Man benötigt wenig Phantasie, um sich vorzustellen, was aus den "ehrgeizigen" (ein von vorsichtigen Kritikern an Stelle des Wortes "unrealistisch" gern benutztes Adjektiv) Zielen des Energiekonzeptes der Bundesregierung geworden wäre, wenn man den Schätzungen diesen Anstieg des Stromverbrauchs zusammen mit der Speicher-Misere und den absehbaren Stromnetz-Engpässen zu Grunde gelegt hätte.

Nr. 6: Das Märchen von den neuen Stromspeichern

Seit der Einführung des Erneuerbare Energien-Gesetzes EEG, mit dem der Wetter- und Tageszeit-abhängige, deshalb wild schwankende und unzuverlässige Wind- und Solarstrom massiv durch Zwangssubventionen über den Strompreis gefördert wird, sind 10 Jahre vergangen.

Daß dieses Stromangebot, das für die Stromnetzbetreiber der reine Alptraum ist, bei Erreichen einer bestimmten Größe mit seinen schnellen Schwankungen die Stabilität des Netzes ruiniert und damit durch Blackouts die Stromversorgung gefährdet ist, haben die seither drei Regierungen 10 Jahre lang nicht bemerkt.  Sie haben aber in dieser Zeit fleißig neue Windparks und Solarstrom-Farmen eingeweiht, was gute Pressefotos einbrachte.

Jetzt aber ist  Groschen Nr.1 gefallen, nachdem die Warnungen immer unüberhörbar  wurden: Man sah tatsächlich ein Problem mit dem Ökostrom. Anschließend folgte  die Erkenntnis: Wenn die zum Ausgleich dieser Schwankungen eingesetzten konventionellen Kraftwerke nicht mehr ausreichen, braucht man riesige Stromspeicher.

Dann fiel Groschen Nr.2: Diese Speicher hatte man gar nicht.  Es gibt zwar einige Pumpspeicherwerke, aber deren Speicherleistung von 6.020 MW deckt im Idealfalle – fast leere Speicher bei Beginn der Starkwindphase – nur 17% Prozent der bereits heute benötigten Kapazität ab (s.u.).

Die AG Energiebilanzen e.V. hat zu dieser Situation folgendes veröffentlicht (1.2.2011):

Ende 2010 hatte an Deutschlands ges. Stromerzeugung von 621 Mrd KWh

– die Windenergie einen Anteil von 5,9% (bei 25.800 MWp Leistung lt. VGB PowerTech);

– und die Photovoltaik nur 1,9% Anteil (bei  9.800 MWp  lt. VGB PowerTech).

Die trotz hoher Maximalleistung geringen Anteile kommen von den geringen Vollaststunden pro Jahr:  Windstrom 18,3 -20%; Photovoltaik 9 -10%. Deshalb sind sie für die Grundlastversorgung nicht zu gebrauchen.

Angenommen, daß die von dieser großen Wind- und Solarstrom-Kapazität in einer Starkwindphase eingespeiste Leistung nur 10.000 MW beträgt, müßten bereits Speicher bereit stehen, die diese Leistung für 30 Stunden aufnehmen, also eine Speicherkapazität von 300.000 MWh (Megawatt-Stunden) besitzen.  Die deutschen Pumpspeicherwerke haben aber nur eine Gesamtleistung von 6.020 MW.

Selbst wenn man annimmt, daß zu Beginn dieser Starkwindphase alle deutschen Pumpspeicherkraftwerke fast leer sind – eine unrealistische Annahme – dann könnten diese Speicher nur eine Energiemenge von 50.000 MWh aufnehmen, also gerade einmal 17 % der erforderlichen Menge.  Es bliebe nur die Wahl zwischen sofortiger Abtrennung der Windräder vom Netz oder Netzzusammenbruch.

Auch bei einem gerade noch möglichen Ausbau der Pumpspeicherwerke könnte maximal eine Erhöhung der Speicherkapazität von 3 % erreicht werden.

(Prof. Dr. Helmut Alt, FH Aachen) 

Was tun ?

Auf die unangenehmen Erkenntnisse folgte eine politische Lösung: Es begann entsprechend dem "Märchen vom Technologiesprung" mit völlig neuen Stromspeichern, die bald die Lösung bringen würden.  An einen riesigen Ausbau der Pumpspeicher, die leider die einzig verfügbare und auch nur mit geringen Verlusten von etwa 20 bis 25% arbeitende Speichertechnik ist, wagte man gar nicht erst zu denken. Mit Recht, denn die Bürgerproteste, die den Bau sowohl des vermutlich letzten großen Pumpspeicherwerks Atdorf/Schwarzwald, das eine Leistung von 1.400 MW haben soll,  sowie auch die Baupläne wesentlich kleinerer Anlagen begleiten, machen wenig Hoffnung (s.u.).

Eine Regierung, die eine ehrliche und rationale Energiepolitik betreibt, würde nun nach dieser Erkenntnis die Errichtung aller neuen Windkraftanlagen und auch Photovoltaikanlagen stoppen und vielleicht noch versuchen, den immer wahrscheinlicher werdenden Blackout durch raschen Zubau von teuren, schnellen Gasturbinen-Kraftwerken unwahrscheinlicher zu machen.

Die Bundesregierung aber macht das Gegenteil: Noch stärkerer Ausbau von Offshore-Windstrom und unveränderte Förderung von Solarstrom stehen im BMU-Entwurf des Erfahrungsberichts 2011 zum EEG.  Im Gegenzug will man  die Abschaltung der Kernkraftwerke, die – allgemein unbeachtet und in der deutschen Fundamental-Ablehnungsstimmung auch unangenehm – tatsächlich die heute schnellste Leistungsregelung (Lastfolgeregelung) aller Kraftwerksarten (außer Gasturbinen) bieten und ironischerweise die sicherste Stütze für den Windstrom darstellen.

Aber man hat versäumt, diesen Beitrag der Kernkraftwerke rechtzeitig herauszustellen. Jetzt noch damit zu kommen, traut sich niemand mehr.

Damit verschärft die Regierung das Problem – und verlagert es teilweise auf unsere Nachbarn, die seit der Abschaltung der ersten 7 Kernkraftwerke kräftig Importstrom liefern und einigermaßen besorgt sind (siehe: Das Märchen vom deutschen Vorbild, ebenfalls: Das Märchen von der Überflüssigkeit der 7 abgeschalteten Kernkraftwerke).

Das von ihr selbst verschuldete und jetzt nochmals verschlimmerte Problem der Versorgungs-Unsicherheit bekämpft die Regierung nunmehr rhetorisch durch das Beschwören von neuen Speichertechniken, die es allerdings erst einmal zu entwickeln gilt.

Am 21. April 2011 stellte dann die Regierung eine gemeinsame „Förderinitiative Energiespeicher“ vor, in deren Einleitung nach der Zitierung des Energiekonzeptes vom 28.9.2010 und dessen unglaublich hoch gesteckten Zielen der bemerkenswerte Satz steht: „Leider stehen den notwendigen Fortschritten auf dem Gebiet der Energiespeicher vielfältige und nach wie vor zum Teil grundlegende (!) technologische Hürden entgegen.“ Dieser Mut zur Wahrheit ist zu begrüßen. Es stellt sich dann aber die Frage, wie man angesichts dieses Fehlens der wichtigsten Schlüsseltechnik für die stärkere Nutzung von Wind- und Solarstrom überhaupt dieses Energiekonzept beschließen konnte.

Die großen und wirtschaftlichen Stromspeicher waren im September 2010 noch die Katze im Konzept-Sack; schon im April 2011 stellt sich nun regierungsamtlich heraus, daß in dem Sack gar keine Katze drin ist.

Daß die Förderinitiative Energiespeicher von drei Bundesministerien (BMBF, BMWi und BMU) präsentiert wird, zeigt zugleich die Zersplitterung der Zuständigkeiten.

Unter den im Förderkonzept genannten Speichertechnologien ist einzig die „Entwicklung von großen zentralen adiabatischen Druckluftspeichern“ eine für den genannten Zweck der Netzstabilisierung  interessante und brauchbare Möglichkeit. Alle anderen dort genannten Techniken haben entweder andere Anwendungen – vor allem Elektroautos (siehe das entsprechende Märchen) – oder sind noch viel weiter von einer Realisierung entfernt, als es die adiabatischen Druckluftspeicher sind – so die „unterirdischen Pumpspeicherwerke“.

Die Hoffnungen der Regierung auf irgendwann verfügbare große und bezahlbare Stromspeicher ruhen auf folgenden Techniken:

1. Druckluftspeicher

Der zu speichernde Strom treibt Kompressoren an (Wärmeverlust), die Luft in unterirdische Kavernen pressen. Später treibt diese Druckluft Turbinen und diese wiederum Stromgeneratoren an, die den Strom ins Netz einspeisen. Bisher mußte die komprimierte Luft zusätzlich mit einer Gas-Zusatzheizung auf hohe Turbinen-Eintrittstemperatur gebracht werden; eine verlustreiche Technik.

Es existieren weltweit zwei Prototypanlagen, eine in Huntorf/Deutschland und eine in McIntosh/USA – letztere nutzt bereits einen Teil der beim Verdichten entstehenden Verlustwärme (Rekuperator-Technik).   Das Aushöhlen der Kavernen ist zudem ein Umweltproblem.

Deshalb ist gegenüber den nur 20 bis 25% Verlust bei den Pumpspeicherwerken  der bislang erreichte technische Stand der Druckluftspeicher völlig unbefriedigend. Man will deshalb künftig versuchen, durch zusätzliche Wärmespeicher die bei der Kompression entstandene Verlustwärme aufzufangen und sie der zu verdichtenden Frischluft zuzuführen (adiabatische Kompression), was die Gas-Zusatzheizung im Idealfalle überflüssig macht und für einen Speicherwirkungsgrad von geschätzt 71% in der Nähe des  Niveaus der Pumpspeicherwerke sorgen würde..

Ein erstes Entwicklungsprojekt für adiabatische Druckluftspeicherung namens ADELE stellte am 22.11.2010 die RWE Power zusammen mit ihren Partnern General Electric,  Züblin und der DLR in Staßfurt/Sachsen-Anhalt vor. Dort betreibt RWE bereits einen großen Erdgasspeicher in den Salzformationen des Staßfurter Sattels. Zuerst sollen lt. RWE-Vorstand Prof. Gerd Jäger folgende Voraussetzungen geschaffen werden: „Erfolgreiches Abschließen der technischen Untersuchungen und Planungen; Finanzierung einschließlich der erforderlichen (!) Förderung; Geologie des Standortes.“

Zu den technischen Entwicklungsaufgaben derartiger Speicher gehören:

• Die Kompressionswärme bei sehr hohen Drücke  (bis 150 bar) und Temperaturen

    (bis 650 Grad) zu speichern. D.h. die Entwicklung von Hochtemperatur-

    Wärmespeichern  (keramische oder Flüssigsalz-Speicher) mit einer Kapazität von bis zu 1200 MWtherm : DLR Stuttgart;

• Neuentwicklungen der Hochdruckverdichter, um hohe Austrittstemperaturen zu erreichen; hoher Wirkungsgrad, variabler Durchsatz, schnelle Verfügbarkeit in wenigen Minuten;

• Luftturbinen, die durch Expansion der verdichteten Heißluft auf Atmosphärenniveau Leistungen von 300 MW erreichen. Das bedeutet hohe Leistungsdichte, hohe Eintrittstemperatur, große Volumen-Ströme und –Änderungen, hoher Wirkungsgrad über den gesamten Lastbereich bei niedrigen spezifischen Kosten;

Ein derartiges Speicherkraftwerk arbeitet wirtschaftlich, wenn die Druckluft maximal eine Woche gespeichert werden kann.

Mit dem Bau der ersten  Demonstrationsanlage soll ab 2013 begonnen werden.

Es soll eine Speicherkapazität von max. 360 MWh und eine elektrische Leistung von 90 MW haben, womit nach RWE-Angaben über etwa 4 Stunden rund 50 Windräder ersetzt werden könnten.

Ende 2010 standen in Deutschland bereits 21.607 Windräder mit einer installierten Maximalleistung von 25.800 MW.

Diese Technik ist vielversprechend und vermutlich realisierbar. Aber sie befindet sich gerade am Anfang und die Erfahrungen mit vergleichbaren Entwicklungen lassen einen Zeitbedarf bis zu einem umfangreichen und damit wirksamen Ausbau von fertig entwickelten und erprobten  Speichern im Netz von 25 bis 30 Jahren erwarten.

Sinnvoll, aber viel zu spät, um die akuten Probleme im deutschen Stromnetz zu lösen und ebenfalls viel zu spät, um einen Beitrag zur Verwirklichung des Energiekonzepts der Bundesregierung zu leisten.

2.  Die Seekabel-Verbindung  zu den norwegischen Wasserkraftwerken.

Ein solches Kabel soll es bis Anfang 2017 geben: Das 530 km lange Nord Link. Es soll  1.400 MW übertragen. Das entspricht der Leistung eines Kernkraftwerks und gerade einmal 4 Prozent der schon jetzt in Deutschland installierten Windstromleistung. Fünf bis zehn dieser Seekabel wären wohl nötig, geplant sind sie nicht, und es gibt noch andere Probleme: Die meisten norwegischen Wasserkraftwerke sind keine in beiden Richtungen (bergauf und bergab) arbeitenden Pumpspeicherwerke. Sie müßten teuer und langwierig umgebaut werden – wenn es die Norweger überhaupt wollen.

Außerdem wollen alle Nordseeanrainer, die ebenfalls Windkraftanlagen gebaut haben, ebenfalls mit Seekabeln an die norwegische Wasserkraft heran. Holland hat es schon getan. Damit fällt für jeden weniger Speicherkapazität ab. Und schließlich: Schon jetzt kämpfen Bürgerinitiativen in Norddeutschland gegen die Umspannstation an Land und die neuen Hochspannungsleitungen.

3. Elektroautos – siehe "Das Märchen vom Elektroauto als Stromspeicher".

4. Pumpspeicher-Kraftwerke

Obwohl klar ist, daß die Leistung der deutschen Pumpspeicherwerke bei weitem nicht ausreicht, werden hier die letzten Planungen für Neubauten und Erweiterungen vorgestellt:

– Atorf/Südschwarzwald.  Bauherr: Schluchseewerke. Geplante Leistung 1.400 MW.

  Zwei weitere Staubecken und ein Kavernenkraftwerk. Inbetriebnahme 2020 und 2030. Speichervermögen 3,7 Mrd. KWh.

  Die dena (Deutsche Energieagentur) stellte dazu fest, daß auch dieses neue Werk nur 8%  der Strommenge puffern könne, die die Wind- und Solaranlagen bereits im Jahre 2009 erzeugt hätten.

  Der Schwarzwaldverein als Interessenvertreter der Bevölkerung hatte in den

  Anhörungen kritisiert, die "Region dürfe nicht bloß das Objekt für energiewirtschaftliche Ausbeutung werden." Die Vertreter des EVU räumten ein, daß sich die Landschaft deutlich verändern werde, "da werde man sich sicher erst dran gewöhnen müssen."

Der Kreisverband der B90/Die Grünen / Waldshut sprach sich gegen das Projekt aus.

– Riedl/Bayern.  Geplante Leistung 300 MW. Bauzeit bis 2018. Das Projekt ist politisch umstritten; eine Bürgerinitiative hat sich dagegen gebildet.

– Schweich/Mosel.  Bauherr: Stadtwerke Trier. Geplante Leistung 300 MW.

  Inbetriebnahme 2017 – 2021. Neues Projekt; noch keine Reaktionen aus der

  Bevölkerung.

– Blautal / Birkhau. Bauherr: Stadtwerke Ulm/Neu-Ulm. Geplante Leistung 60 MW. Die Planung begann Mitte 2005; massive Bürgerproteste in Arnegg und Markbronn führten  zu erheblichen Planungsänderungen – auch bezüglich des Ortes der Anlage. Zur Zeit  werden Sicherheitsbedenken geltend gemacht; der Widerstand hält auch nach 6 Jahren an; ein Baubeginn ist nicht absehbar.

Die Deutschen haben in den vergangenen 20 Jahren gelernt, daß sie mit Bürgerinitiativen recht erfolgreich gegen Bauprojekte aller Art vorgehen können. Besonders die GRÜNEN haben das vorgeführt. Inzwischen hat sich das Spektrum der zu verhindernden  Vorhaben auf nahezu alles ausgedehnt und es sind jetzt besonders die angeblich dem Umwelt- oder Klimaschutz dienenden Projekte, die den stärksten Widerstand hervorrufen.  Windräder,  Hochspannungsleitungen für die Energiewende, Erdspeicher für CO2, Transformatorstationen für das Seekabel, großflächige Photovoltaikanlagen, Biogasanlagen – und besonders Pumpspeicherwerke, die extreme Eingriffe in die Landschaft verursachen. So werden selbst die wenigen theoretisch noch möglichen neuen Speicherwerke faktisch unrealisierbar.

Es gibt außerhalb des Energiekonzepts weitere Vorschläge für große Stromspeicher, die sich aber alle durch immense Kosten und meist auch größte Verluste im Bereich von 70 bis 80 Prozent auszeichnen. So gehören alle Vorschläge, die mit einer elektrolytischen Spaltung von Wasser durch Windstrom beginnen und danach den entstandenen Wasserstoff, der ja nur noch ein Brenngas ist, wieder in Strom zurück verwandeln wollen (mit Gasmotoren oder gar teuren Brennstoffzellen), zu der Gruppe kostspieligster Energievernichtungsanlagen. Trotzdem werden solche Vorschläge selbst

in bislang  seriösen Zeitschriften kritiklos als Zukunftstechnologien vorgestellt. Ein typisches Merkmal aller dieser Technikvorschläge ist das absichtliche Weglassen aller Angaben zum Gestehungspreis einer Kilowattstunde und zu den Kapitalkosten, die jedes von der Anlage erzeugtes Kilowatt Leistung verursacht. Am Fehlen dieser Angaben kann man gut die fehlende Seriosität sowohl der Erfinder und Anbieter als auch der Journalisten erkennen.

Es gibt noch eine weitere schlechte Nachricht – und sie ist von grundsätzlicher Natur:

Stromspeicher können nicht den kompletten Bedarf an Reservekraftwerken für den Ausgleich der Einspeise-Schwankungen ersetzen: Sie reduzieren nur den notwendigen Netzausbau und teilen sich die Spitzenlastversorgung mit schnell regelbaren Gaskraftwerken.

Fazit

Die einzigen genügend großen Stromspeicher, mit denen man überhaupt rechnen kann, sind die noch zu entwickelnden adiabatischen Druckluftspeicher – und sie kommen viel zu spät, während der Ausbau von Windstrom und Solarstrom immer weiter geht.  Das europäische Verbundnetz kann deren Schwankungen bald nicht mehr auffangen und ausgleichen. Im Gegenteil: Um nicht in das absehbare Chaos im deutschen Verbundnetz hineingezogen zu werden, müßten sich unsere Nachbarn abkoppeln. Diese Entwicklung ist wohl zwangsläufig. Aber die  Regierung hat anscheinend die Hoffnung, daß sie die Medien beruhigen und bis zur nächsten Bundestagswahl Zeit gewinnen kann, bevor die Probleme übermächtig werden.

Dann wird man weiter sehen.

Nr. 7: Das Märchen vom Elektroauto als Stromspeicher

"Millionen von Elektroautos können mit ihren Batterien das Speicherproblem des Wind- und Solarstroms lösen". So oder so ähnlich liest man es häufig.

Eine doppelte Illusion: In den nächsten 10 –15 Jahren wird es keine nennenswerte Anzahl von Elektroautos geben, da es trotz des technischen Wunderglaubens von Politikern, die selbst allen technischen Fächern ziemlich fern stehen, noch sehr lange keine bezahlbaren, für den Winterbetrieb geeigneten und mit ausreichender Energiekapazität ausgestatteten Batterien geben wird. Die sehr deutlichen Warnungen der Fachleute der physikalischen Chemie werden geflissentlich überhört. So betonte Christoph Huß von der VDI-Gesellschaft Fahrzeug- und Verkehrstechnik  "daß wir nicht vergessen dürfen, daß die technisch-physikalischen Grenzen elektrochemischer Energiespeicher nicht durch politische Sonntagsreden außer Kraft gesetzt werden können.“

Illusion Nr.2: Selbst wenn es einmal eine größere Anzahl von Elektroautos gibt, wird kaum einer der Besitzer bereit sein, es per Netzanschluß und Datenleitung dem Stromversorger zum Ausgleich von dessen Einspeisungs-Schwankungen zu überlassen – also die Autobatterie je nach Bedarf des EVU zu laden oder zu entladen. Denn dem E-Auto-Besitzer wird vom Hersteller sehr deutlich klar gemacht, daß die Lebensdauer seiner teuren Batterie nicht etwa durch ihr Alter, sondern allein durch die Anzahl der Lade-Entlade-Vorgänge bestimmt wird.

Wer sich auf die Benutzung seiner Antriebsbatterie als beliebig auf- und entladbarer Speicher für seinen Stromversorger einläßt, verkürzt die Batterielebensdauer erheblich. Das müßte zu ganz erheblichen Nutzungszahlungen der Stromversorger führen, zu denen sie wohl kaum bereit wären.

Der Glaube an das Elektroauto als umweltfreundliches Verkehrsmittel könnte sich sehr leicht in sein Gegenteil verkehren, wenn die abgeschalteten Kernkraftwerke – wie abzusehen ist – in erster Linie durch neue Kohlekraftwerke und ergänzend durch Gaskraftwerke ersetzt werden. Ohne regenerative Energien aber wäre der grüne Plan ein Eigentor: Wenn aus der Steckdose neben Import-Atomstrom viel mehr Kohlestrom kommt, dann "ist jeder gefahrene Kilometer mit einem E-Auto deutlich CO2-intensiver als sein konventionell betriebenes Gegenstück", erklärt Lino Guzzella, Professor für Thermotronik der ETH Zürich. Ein Großeinsatz von E-Autos würde den Klimawandel beschleunigen, statt ihn zu bremsen – falls die Theorie vom CO2 als das Klima beeinflussendes Spurengas überhaupt stimmt. Aber das ist ein anderes Gefechtsfeld.

(Jan-Philipp Hein, FOCUS 18 / 2011).

Die Politiker-Vision vom elektrisch angetriebenen Autoverkehr gab es übrigens schon einmal: Die Regierung von Bundeskanzler Kohl hatte bereits im Jahre 1992 die neue Elektroauto-Epoche angekündigt.   Zwischen 1992 und 1995 führte die Regierung – begeistert  befürwortet durch Forschungsminister Heinz Riesenhuber und eine gewisse Angela Merkel, Umweltministerin, – einen großen Feldtest für Elektroautos auf Rügen durch. Und der damalige Innenminister Manfred Kanther gab das Ziel aus, daß mindestens 10 Prozent aller neu zugelassenen KFZ im Jahre 2000 Elektroautos sein sollten.

Das erleben wir nun zum zweiten Mal.

Nr. 8: Das Märchen von der Sonne, die keine Rechnung schickt

Der Werbespruch "Die Sonne schickt keine Rechnung" ist gewiß der Anwärter für den Hauptgewinn im Volksverdummungs-Wettbewerb. Spötter haben dazu festgestellt, daß auch die geologischen Epochen Carbon und Perm keine Rechnung für die damals erzeugte Kohle schicken und daß die kosmische Katastrophe, die das Sonnensystem mit seinen Uranvorräten hervorbrachte, ebenfalls netterweise auf die Versendung von Rechnungen verzichtet hat.

Was mit diesem Verdummungsspruch verschleiert werden soll: Die Sonne scheint in Deutschland – wenn sie scheint – mit einer Leistungsdichte von nur ca. 1000 Watt (thermisch) pro Quadratmeter, woraus eine Silizium-Photovoltaikzelle etwa 90 Watt (elektrisch) erzeugt. Hoffnungen, daß sich das in Zukunft wesentlich verbessert, sind unbegründet und gehören zum technologiepolitischen Wunderglauben (siehe das Märchen vom Technologiesprung). Diese sehr alte Technik ist in den vielen Jahrzehnten bis dicht an ihre physikalische Grenze herangebracht worden; wundersame Verbesserungen, "Technologiesprünge",  wird es nicht  geben.

Dieser bei voller und möglichst senkrecht einfallender Sonne seine 90 Watt abgebende Quadratmeter kostet echtes Geld. Die Anschaffungskosten für ein Einfamilienhaus-Dach belaufen sich auf 13.000 Euro für eine Spitzenleistung von 2,5 KWp. Für den Anteil der  Solarzellen daran  zahlt man derzeit  bis 10.000 Euro – das übrigens zu gut zwei Dritteln nach China fließt, denn die chinesischen Hersteller haben die deutsche Konkurrenz längst in Grund und Boden konkurriert: Deutschland konnte 2010 gerade einmal Solarzellen für 138 Millionen Euro nach China exportieren – während von dort Konkurrenzware für 5,9 Milliarden Euro kam.

Daß China jetzt den Photovoltaik-Markt derart dominiert und die deutschen Hersteller beiseite gedrängt hat, haben unsere Medien kaum berichtet. Es ist zu peinlich. Das Sinken der Modulpreise hat man aber bemerkt. Teilweise wird dazu die Behauptung verbreitet,  dies läge an großen Fortschritten der Produktionstechnologie.

Die Wahrheit sieht jedoch anders aus: Die Technik der Herstellung von kristallinen Silizium-Solarzellen, die gegenüber den Dünnschichtzellen einen deutlich höheren Umwandlungs-Wirkungsgrad besitzen und trotz höherer Preise den Markt dominieren, ist durch eine lange Kette von schwierigen Bearbeitungsschritten gekennzeichnet, die sich sämtlich einer Automatisierung entziehen. Es beginnt mit dem langwierigen Ziehen der großen Siliziumkristalle aus der Schmelze, gefolgt vom Sägen dünner Scheiben, dem Schleifen, Läppen und Polieren, dann dem Ätzen und Reinigen. Es folgen die Prozesse der Silizium-Halbleitertechnik: Dotieren der Si-Scheiben entweder im Diffusionsofen oder durch den Beschuß mit elektrisch beschleunigten Atomen (Implantieren), wieder Reinigungsarbeiten, dann Kontaktieren durch Aufdampfprozesse im Vakuum, anschließend Zuschneiden der Zellen. Die meisten dieser Arbeiten müssen unter Reinraumbedingungen erfolgen. Sie erfordern an allen Stationen in extremer Weise Handarbeit durch geschultes Laborpersonal – und der begleitende Energieverbrauch ist dermaßen hoch, daß die Solarzellen zwei bis drei Jahre arbeiten müssen, bevor sie die für ihre Herstellung aufgewendete Energie wieder "verdient" haben. Eine Kostenreduktion durch Erhöhung des Produktionsvolumens, wie es bei allen Verfahrenstechniken möglich ist,  wird durch die technologiebedingt kleinen Anlagen (Ausnahme: die Implantationsaggregate) und deren Bedienung verhindert: Für die zehnfache Produktion braucht man auch zehn mal mehr Anlagen und zehn mal mehr Personal.

Es sind diese beiden prinzipiellen Handicaps, die deutsche Hersteller von Anfang an in eine fast aussichtslose Position gegenüber chinesischen Herstellern gebracht haben: Der sehr hohe Lohnanteil und der hohe Energieverbrauch.  Hier konnte China seine großen Vorteile ausspielen, die mit Technologie nichts zu tun haben.  Sowohl die deutschen Löhne als auch die Strompreise sind hierzulande viel höher. So kam es rasch zu deutlichen Preissenkungen und einer Eroberung des Photovoltaik-Marktes durch chinesische Hersteller.

Zwar gab es auch technologische Fortschritte bei der Effizienz der Zellen, aber das trug nur in geringem Maße zum Preisrückgang bei.

Wäre in der rot-grünen Regierung, die das Milliarden verschlingende Erneuerbare Energien-Gesetz EEG verabschiedete,  etwas Sachverstand über die sehr speziellen Fertigungsbedingungen der Photovoltaik vorhanden gewesen, man hätte den unvermeidlichen Verlust dieser lohnintensiven Technologie vorausgesehen und hätte sich wohl auch die großspurigen Reden über die viele tausend Arbeitsplätze schaffende Solarstromindustrie verkniffen. So fördern die deutschen vom EEG gerupften Verbraucher am Ende nur noch die chinesische Industrie.

An dieser Stelle muß auch mit dem Glauben an die Photovoltaik als Hochtechnologie aufgeräumt werden. Sie gehört zwar fachlich zur Halbleiter-Technik, ist aber hinsichtlich ihrer nicht vorhandenen Komplexität und ihrer relativ bescheidenen Ansprüche an die Fertigungseinrichtungen, das Reinraum-Niveau und die Mitarbeiter-Qualifikation in keiner Weise mit der Mikroelektronik ("Chip-Technologie") zu vergleichen.  Letztere befindet sich permanent an den Grenzen des gerade technologisch Machbaren, verbunden mit extremem apparativem Aufwand und ausgeklügelter Design-Software, stets auf dem Wege weiterer Verkleinerung und   Verdichtung der Schaltkreise bei Erhöhung ihrer Arbeitsgeschwindigkeit nebst Verringerung des Energieverbrauchs. Zwischen der ins Sub-Mikroskopische und Hyper-Komplexe gehenden Chip-Technologie und der Photovoltaik im Postkatenformat liegen technologische Lichtjahre.  Auch wenn es manchen Ideologen weh tut: Die Photovoltaik war immer "Low-Tec" – und deshalb konnte sie Deutschland nicht halten und verteidigen.

Die Deutschen sind  jetzt die Hauptabnehmer  der chinesischen Solarzellenfabriken. China selbst jedoch nicht.  Obschon etwas größer als Deutschland und auch von der Sonne bestrahlt, hat China für seine Stromerzeugung andere Pläne: Das Riesenreich installierte 2010 nur den achtzehnten Teil der 7.300 Megawatt Solaranlagen, die Deutschland  ans Netz brachte.

Jürgen Heraeus, der China-Beauftragte der deutschen Wirtschaft, stellte dazu fest: "Das haben wir uns selbst eingebrockt." Erst das Erneuerbare-Energien-Gesetz habe die chinesischen Solarunternehmen zu einer derartigen Konkurrenz gemacht. (FOCUS 15/2011).

Zu den happigen Preisen für den Kollektor selbst kommen noch der Wechselrichter (deutsches Produkt), die Montage, die Wartung, die Versicherung hinzu. 

So wurde vor 10 Jahren die alte bewährte Nischentechnik Photovoltaik, die für die Versorgung entlegener Plätze ohne Stromversorgung wie Bojen, Jagdhütten, Segelyachten, Telefonmasten in dünnbesiedelten Regionen etc. schon immer ihren Sinn hatte, durch den krampfhaften grün-roten Versuch, Kernkraftwerke durch irgend etwas ökologisch irgendwie Strom Erzeugendes zu ersetzen – möglichst mit Hilfe der symbolhaften Sonne, die keine Rechnungen schickt – zu einer extrem teuren, Milliarden verschlingenden Großtechnik aufgebaut. Die trotz einer Ende 2010 bereits installierten Spitzenleistung von ca. 16.900 MW  wegen ihres sehr geringen  Nutzungsgrades  auch nur einen geringfügigen Anteil von 1,9 Prozent an der Gesamt-Stromerzeugung von Deutschland ( 621 Mrd KWh) hatte. 

Dieser klägliche Beitrag kostet die deutschen Verbraucher, die das mit ihren Stromrechnungen bezahlen müssen, insgesamt unglaubliche 85,4 Milliarden Euro – diese Summe ist den Betreibern teils schon ausgezahlt worden, teils fällt sie noch an, da diese Einnahmen per EEG für 20 Jahre garantiert sind.

(Prof. Manuel Frondel, Prof. Christoph M. Schmidt, Nils aus dem Moore, Brennstoff-Wärme-Kraft  Bd. 63 (2011) Nr.3)

Der größte Teil dieser Milliarden dient der Anschaffung der Anlagen und den verdient jemand. Den Löwenanteil chinesische Hersteller, der Rest Zellen-Zusammenbauer und Handwerker.  

Es ist aber nicht die Sonne, so viel ist richtig.

Dr. Ing. Günter Keil.

Der dritte Teil mit den letzten sechs der (inzwischen) dreizehn und ein Märchen wird bald veröffentlicht. Alle Märchen zusammen können Sie jetzt schon als pdf im Anhang nachlesen. (Achtung: Aktualiserte Version)

Anmerkung der Redaktion 1: Dass die massive Subventionierung der Windenergie immer noch nicht ausreicht zeigt dieser Beitrag: Offshore-Branche fordert bessere Stromvergütung

* Anmerkung der Redaktion 2: Jürgen Heraäus ist Gründungsmitglied der 2 ° Inititiative "Deutsche Unternehmen für Klimaschutz"

Related Files




Dreizehn Energiewende-Märchen Teil I

Allein diese wenigen Zeilen enthalten eine hohe Konzentration an stark übertriebenen und unrealistischen und auch sehr kurzlebigen Zielvorgaben; im Falle Kernkraft eine 180-Grad-Wende innerhalb weniger Wochen.  Bereits der erste Satz stellt ein bemerkenswertes Beispiel von Schönfärberei dar, denn – wie in den folgenden Kapiteln dargelegt wird – dieses Energiekonzept würde Deutschland in eine sehr unzuverlässige, unbezahlbare und zudem ganz und gar nicht umweltschonende Energieversorgung befördern, wenn es denn jemals ernsthaft versucht wird. Bereits der Versuch würde große wirtschaftliche Schäden anrichten und es ist ein nur schwacher Trost, daß die vollständige Umsetzung dieses Energiekonzeptes ohnehin unerreichbar ist, weil bei einem bestimmten Ausmaß der angerichteten Schäden – Arbeitslosigkeit, Einbruch der Steuereinnahmen, Auswandern der Industrie, Verarmung der sozial Schwachen –  die Regierung davongejagt werden würde.

Die Bundesregierung selbst hat nun gerade einmal 5½ Monate nach der Verabschiedung dieses bis zum Jahre 2050 reichenden Energiekonzepts und  3 Monate nach der zu diesem Konzept gehörenden Laufzeitverlängerung für die Kernkraftwerke (am 14.12.10 in Kraft getreten) mit dessen Verbrennung begonnen.

Das Kernkraftmoratorium und die wohl folgende Stillegung von mehreren Kernkraftwerken, deren Laufzeit soeben noch verlängert wurde,  und die 180-Grad-Wende in der Nuklearpolitik, die plötzlich verkündet wird, befördern Deutschland in das mit teuren „Erneuerbaren“ angereicherte Kohle- und Gaszeitalter zurück und mit den  Klimabroschüren des BMU kann man nun sein Haus heizen. 

Es lag nahe, alle Widersprüche dieser Energiepolitik, die eigentlich diese Bezeichnung nicht verdient, zu kommentieren, wobei sich die Erzählform, die die Gebrüder Grimm begründet haben, als Rahmen anbot.

Einmal dabei, wurden aber auch noch einige weitere politische Illusionen, Manipulationen und Irreführungen, die seit Jahren die deutsche Energiedebatte kennzeichnen, in diese Darstellung aufgenommen.

Nr. 1: Das Märchen vom deutschen Vorbild

Es ist schon erstaunlich, wie oft von Politikern erzählt wird, daß Deutschland für den Rest der Welt mit seiner Umwelt- und Energiepolitik ein Vorbild ist, dem in Kürze alle nacheifern würden.                                                                                                                                 

Abgesehen davon, daß es seit Jahrzehnten in Deutschland eine langfristige, schlüssige und dem Standort dienende Energiepolitik, der man hätte nacheifern können,  niemals gegeben hat, stellt diese Ansicht nur einen Beleg für die völlige Unkenntnis der Meinungen über Deutschland im Ausland dar – und darüber hinaus ein Zeugnis von sehr unangebrachter Überheblichkeit  ( "Am deutschen Wesen…").

Eine Betrachtung der Meinung ausländischer Regierungen zur Erdbeben- und Tsunamikatastrophe von Fukushima und deren Konsequenzen für die Nutzung der Kernkraft ergibt ein eindeutiges Bild: Alle Länder, die selbst Kernkraftwerke bauen und betreiben, bleiben dabei. Ebenso  alle Länder, die Kernkraftwerke nur betreiben – eventuell mit Ausnahme der Schweiz.  Und von allen Ländern, die deren Bau planten, gibt es bisher nur ein einziges, das seine Pläne zurückgestellt hat: Venezuela.

"Die Welt versteht die deutsche Energiewende nicht," titelte der Bonner Generalanzeiger am 27. Mai seinen Bericht über das G8-Treffen in Deauville.

Zu den abrupten Stillegungs- und Ausstiegsplänen des weder von Erdbeben noch von Tsunamis bedrohten Deutschland gab es im Ausland nur Kommentare, die von Unverständnis bis zu beißender Ironie reichten.

Schließlich hat ja Deutschland soeben seine stolze Vorbildrolle als Klimaschützer abgebrochen und will jetzt zu Kohle- und Gasstrom zurückkehren. Die zugesagten nationalen Klimaziele sind Makulatur geworden:

Wird die bisherige Stromerzeugung aus deutschen Kernkraftwerken je zur Hälfte aus (Atom-) Stromimporten und neue hiesige Kohle- und Gaskraftwerke ersetzt, dann würden im Jahre 2018 allein durch die deutsche Energiewirtschaft 62 Millionen Tonnen CO2  mehr emittiert.

(www.bdi.eu/pressemitteilungen_energiekostenstudie_24_04_2011.htm)

Allein in den 3 Monaten des Atommoratoriums vom März 2011 werden in Deutschland rund 8 Millionen Tonnen CO2  zusätzlich erzeugt.

Wer sich jetzt noch als Vorbild vorkommt und das auch noch verkündet, läuft Gefahr, nur noch Mitleid zu erregen.

Es wächst aber auch Ärger in unseren Nachbarländern über die deutsche Schnellabschaltung von sieben Kernkraftwerken: So sehr Frankreich und Tschechien ihre Kernkraft-Neubaupläne von Flamanville,  Penly und Temelin auf den massiven Atomstromexport für ihre angsterfüllten deutschen Nachbarn ausgerichtet haben, stört sie doch die plötzliche Ausstiegs-Hektik der deutschen Regierung.  Zum einen fürchten sie das Überspringen deutscher Netz-Zusammenbrüche über das europäische Stromverbundnetz auf ihr Land.

Zum anderen bringt der durch die beträchtlichen Kraftwerks-Abschaltungen  nötig gewordene plötzliche Stromexport nach Deutschland die Preise an den Strombörsen zum Steigen – auch für unsere Nachbarn. So erhöhte sich dadurch der Börsenstrompreis schon jetzt um 12% und die Emissionszertifikate, die Kohle- und Gaskraftwerks-Betreiber kaufen müssen, stiegen im Preis um 10%.                       (Siehe: Das Märchen von der Überflüssigkeit der 7 abgeschalteten Kernkraftwerke).

Seit dem 17. März 2011 importiert Deutschland im Mittel täglich eine Energiemenge von durchschnittlich 45 Millionen Kilowattstunden (KWh) – überwiegend aus Frankreich und Tschechien, aber auch aus Polen und der Schweiz. Das ist überwiegend Atomstrom. Die Betreiber dieser Kraftwerke orientieren sich für ihren Abgabepreis an dem Niveau der Strombörsen – und der liegt um rund 50 Euro pro 1000 KWh über den Kosten der stillgelegten deutschen Kernkraftwerke. Damit zahlen die Deutschen seit dem 17. März täglich gut 7 Millionen Euro mehr für ihren Stromverbrauch. Die ausländischen Atomkraftwerke zahlen ihre Steuern nicht in Deutschland, auch nicht die  Brennelementesteuer.

Die Kanzlerin hatte übrigens zu dem Energiekonzept 2010, in dem zum Ärger der Regierung  in mehreren der dem Konzept zugrunde gelegten Szenarien erhebliche Stromimporte zum Ausgleich der abzuschaltenden Kohle- und Kernkraftwerke prognostiziert waren, verkündet, daß Stromimporte – die weitgehend Kernkraftstrom betreffen – nicht in Frage kämen. Sie hatte dabei übersehen, daß das ihre Regierung gar nicht beeinflussen kann, denn im freien europäischen Energiemarkt entscheiden das die Händler an den Strombörsen – und zwar nach Verfügbarkeit und Preis.

Im Übrigen: Das größte Land der Welt, China, nimmt mit konsequenter Regelmäßigkeit alle 4 Tage ein neues Kohlenkraftwerk in Betrieb und hält unverändert an seinen massiven Kernkraft-Ausbauplänen fest. Gottlob, könnte man sagen, denn sonst würde China für jedes nicht gebaute Kernkraftwerk zusätzlich ein bis zwei weitere Kohlenkraftwerke errichten.

Eine wirkliche Energiewende wird es vermutlich weltweit geben, wenn die verschiedenen, inhärent sicheren – also aus physikalischen Gründen zu keinem Kernschmelze-GAU fähigen – Kernkraftwerks-Konstruktionen der 4. Generation, die derzeit in der Entwicklung sind, auf den Markt kommen. (Siehe Internationale Arbeitsgemeinschaft "Generation IV International Forum – GIF"; www.gen-4.org/ ).

Leider kann Deutschland bei dieser Energiewende kein Vorbild sein, weil hier die Reaktorentwicklung seit Jahren politisch verhindert wurde und Deutschland deshalb aus den inzwischen auf 7 Nationen angewachsenen Kreis der Hersteller endgültig ausgeschieden ist.  Der gewollte Verlust dieses Milliardenmarktes kann auch nicht durch Beschwörungsfloskeln über großartige Exportchancen von Windmühlen, die inzwischen die verbliebenen Kunden selber bauen können,  wegdiskutiert werden.

Nr. 2: Das Märchen von der Überflüssigkeit der 7 abgeschalteten Kernkraftwerke

Als die Regierung in einer überstürzten Aktion, als drohe in den nächsten Tagen ein Tsunami, das sog. Moratorium beschloß, das 7 ältere Kernkraftwerke stillegte, erhob sich bei der SPD und den Grünen sowie in den diesen Parteien zugetanen Medien großer Jubel, weil es nicht sofort landesweite Blackouts gab. Damit war nach Ansicht dieser selbsternannten Energieexperten bewiesen, daß diese Kernkraftwerke – und vielleicht auch noch weitere – von Anfang an vollkommen überflüssig gewesen seien.

Auf die Idee, daß die Betreiber dieser Kraftwerke, allesamt börsennotierte Aktiengesellschaften, diese Anlagen nicht allein als Hobby oder zum Ärgern der Grünen am Laufen hielten, sondern deren Strom in Deutschland und Europa tatsächlich verkauften, kamen sie nicht. Und daß sie zusammen mit den Netzbetreibern in Wahrnehmung ihrer Verantwortung gegenüber ihren Kunden und ihren europäischen Nachbarn sämtliche Register zogen – auch recht problematische (s.u.) –  um Netzzusammenbrüche trotz der Panik-Abschaltung zu verhindern, wurde ignoriert.

Was aber im Hintergrund und ohne Medienbegleitung tatsächlich passierte, sah ganz anders aus:

Die Netzbetreiber verzichteten wegen der angespannten Stromnetz-Situation teilweise auf Wartungs- und Instandhaltungsarbeiten am Höchstspannungsnetz, da auch zeitweilige Abschaltungen das Risiko flächendeckender Stromausfälle zu sehr erhöht haben würden.

Auch Bauarbeiten sind betroffen: So mußten die Arbeiten zur Erneuerung des Umspannwerkes Großkrotzenburg unterbrochen werden.

E.On-Chef Teyssen teilte mit, daß E.On seine Gas- und Kohlekraftwerke hochgefahren und fällige Wartungsarbeiten verschoben hat, um Stromausfälle zu verhindern. Auch Reparaturen wurden verschoben. Die Netzbetreiber hätten darum gebeten, weil sie kurzfristige Blackouts infolge der abgeschalteten Kernkraftwerke befürchteten. Teyssen: "Wir verschieben auf Bitten der Netzbetreiber auch Revisionen von Kraftwerken."

Die Bundesnetzagentur warnte deshalb öffentlich vor weiteren politischen Abschaltungsverfügungen.

Für die Aufrechterhaltung der Versorgungssicherheit wurden sofort Stromimporte notwendig; sie wurden essentiell.

Die 4 großen Übertragungsnetz-Betreiber Tennet (früher E.On-Netz),  Amprion,  50hertz (früher Vattenfall-Netz) und EnBW warnten am 23.5.2011 vor drohenden Versorgungsproblemen im kommenden Winter, wenn der Solarstrom ausfällt, die Windkraft eine Zeitlang nichts liefert und unsere Nachbarn ihren Strom selber brauchen. Zur Zeit sei die Situation nur durch den Solarstrom und vor allem hohe Stromimporte von mindestens 8.000 MW zu beherrschen, wobei alle hiesigen konventionellen Kraftwerke bereits bis zu ihrer Leistungsgrenze hochgefahren wurden. „Das Netz ist gerade noch gemäß EU-Mindest-Sicherheitsstandards zu betreiben“

Im Winter würde eine andauernde Stillegung der 7+1 Kernkraftwerke (das achte ist das Z.Zt. außer Betrieb befindliche KKW Krümmel) an kalten, windarmen Tagen zu Netzzusammenbrüchen führen.

Auch nach einem Bericht der Bundesnetzagentur vom 11.4.2011 wird Deutschland als Stütze für das europäische Netz ausfallen.

Daß auch schon vor dem Fukushima-Unglück und der folgenden Reaktorabschaltung in Deutschland Teile der Regierung erhebliche Sorgen hatten, zeigt der Elektrizitätsbericht des Bundeswirtschaftsministeriums vom 20.1.2011, in dem vor Stromausfällen infolge überlasteter Netze durch den Ausbau "erneuerbarer" Energien gewarnt wurde.

Währenddessen sucht die Regierung nun nachträglich eine technische Begründung, um die jetzt abgeschalteten Kernkraftwerke endgültig stillzulegen.

(Prof. Johannes Paulus,  Experte für Thermodynamik und Energietechnik, Schweinfurt. Schweinfurter Tagblatt 16.4.2011).

Nr. 3: Das Märchen von den geringen Kosten der "Energiewende"

Politische Befürworter der sog. Energiewende behaupten, daß deren Zusatzkosten – insbesondere beim Strompreis – sehr gemäßigt ausfallen würden. Sie sind sich sehr darüber im Klaren, daß sich die Bürger derartige Wenden nicht gefallen lassen werden, wenn sie sich durch exorbitante Preissteigerungen ausgeplündert vorkommen. Umfragen zeigen bereits, daß die Zustimmung zum Kernkraft-Ausstieg stark abnimmt, wenn diese Aussichten angedeutet werden.

Deshalb muß den Bürgern, damit sie still halten, durch optimistische Berechnungen diese Angst genommen werden. Wenn erst alles beschlossen und eingeleitet ist, so die Spekulation, werden es die Menschen schon hinnehmen.

An optimistischen bzw. extrem geschönten Rechnungen herrscht kein Mangel. Bei der Expertenbefragung des Ethikrates zum Kernkraftausstieg erläuterte einer der Wissenschaftler, daß es von sogenannten Expertisen nur so wimmele, "in denen die Kostensteigerungs-Schätzungen zum Kernkraftausstieg und der damit verbundenen   Energiewende zwischen dem Faktor 1 und dem Faktor 100 liegen."

Mit anderen Worten: Diese Expertisen sind zwar wissenschaftlich dekoriert, aber der größte Teil davon verdient die Bezeichnung Expertise nicht, was durch  diese unglaubliche Streuung der Ergebnisse bewiesen wird.  Es handelt sich dabei vielmehr um Scharlatanerie und Gefälligkeits-"Gutachten", die politisch genutzt werden.

Die Energiewirtschaft ist ein durch eindeutige Daten und bekannte Abläufe präzise erfaßter Bereich, in dem die Gesetze der Mathematik bzw. der Betriebswirtschaft sowie die der Physik gelten und in dem es bei seriöser Herangehensweise vielleicht eine Streuung der Ergebnisse um den Faktor 1,5 aber niemals um den Faktor 100 geben kann.

Im Grunde kann aber jeder schon heute recht gut abschätzen, ob die Energiewende für ihn teuer wird: Der Schlüssel dazu sind die Vergütungssätze (Einspeisevergütung für Ökostrom gem. EEG) für jede Kilowattstunde (KWh) Wind-, Solar- und Biomassestrom im Vergleich zu den Gestehungskosten (ohne Steuern, Abgaben, Verteilungskosten, Gewinn) für Strom aus Kohle-, Kernkraft- und Gas-Dampf-Kombikraftwerke (GuD).

Die Höhe der Einspeisevergütungen ist ja genau danach bestimmt worden, was die Erzeugung durch die betr. Energieanlagen kostet – plus einer Rendite. Deshalb sind die Einspeisevergütungen pro eingespeister Kilowattstunde (KWh) ein exzellentes Maß für den Vergleich – und für das, was die Stromkunden bei ihrem weiteren starken Ausbau  erwartet.

Gestehungskosten für die konventionelle Stromerzeugung

– Braunkohlekraftwerke………………4,6 Cent / KWh  (davon  20% Brennstoffkosten)

– Steinkohlekraftwerke……………….4,9 Cent / KWh  ( davon  42% Brennstoffkosten)

– Kernkraftwerk (abgeschrieben)…2,2 Cent / KWh   (davon   27% Brennstoffkosten )

– Kernkraftwerk-Neubau……………..5,0  Cent / KWh  (davon 8,1% Brennstoffkosten)

– GuD-Gaskraftwerke…………………5,7 Cent / KWh  (davon 74% Brennstoffkosten)

       (Daten aus:Panos Konstantin: „Praxisbuch Energiewirtschaft“, 2009, VDI-Buch)

Einspeisevergütung gem. Erneuerbare Energien-Gesetz  (für 2011)

– Windstrom:   Landanlagen          9,2   Cent / KWh

                       Offshoreanlagen    13,0 Cent / KWh

– Biomasse-Strom: Grundvergütung:    

— bis 150 KW: ……………………….11,67 Cent / KWh, absinkend bis

— 5 MW – 20 MW: ……………………7,79 Cent / KWh

Dazu kommen zahlreiche Boni:   Nawaro-Bonus incl. Gülle-Bonus,

                                                                  Technologie-Bonus,

                                                                  Kraft-Wärme-Kopplungs-Bonus

                                                                  Formaldehyd-Bonus.                

– Photovoltaik-Solarstrom:

— Inbetriebnahme 1.1.- 30.6.2011: …28,74 Cent / KWh

— Inbetriebnahme 1.7.- 30.9.2011: …24,43 Cent / KWh.

Da sich an den zusätzlichen Kosten wie Steuern und Abgaben nichts ändern würde, weil der Staat das Geld braucht und sich die Netzkosten auch noch wegen der gewaltigen Erweiterungen  für den Nord-Süd-Transport des Windstroms  massiv erhöhen würden, steigen selbstverständlich die Strompreise deutlich. Der ehemalige Wirtschaftsminister Brüderle legte am 21.3.2011 Eckpunkte für den Stromnetzausbau vor: "Für den ehrgeizigen Ausbau der erneuerbaren Energien würden etwa 3.600 km neue Leitungen benötigt."

Die Deutsche Energie-Agentur dena rechnet jedoch mit erforderlichen 4.500 km an zusätzlichen Höchstspannungsleitungen. Der dena-Geschäftsführer Stephan Kohler erwartet einen Strompreisanstieg von 20% bei einem Kernkraftausstieg bis 2020/25.

Der VDE wies bereits in seiner Prognose von 2008 auch darauf hin, daß ein Netzausbau mit Hochspannungs-Freileitungen "zunehmend an der ablehnenden Haltung der Bürger scheitert." Die Folge sei der Bau von unterirdischen Leitungen, die jedoch "das Drei- bis Sechsfache einer Freileitung kosten."

Immerhin prognostizierten sowohl Kanzlerin Merkel als auch Herr Brüderle, daß auf die Verbraucher damit höhere Strompreise zukommen würden. Zahlen nannten sie nicht.

Im Dilemma zwischen Reaktorstillegungen, Klimaschutz-Verpflichtungen und drohenden Stromsperren tendiert die Regierung zu mehr Gaskraftwerken, da diese eine bessere CO2-Bilanz als Kohlekraftwerke haben und somit das „kleinere Übel“ darstellen – obwohl das die teuerste Art der konventionellen Stromerzeugung ist, deren Preis auch noch von Monopolisten abhängt.

Die Russen finden die deutsche Energiewende deshalb großartig: Gazprom-Chef Alexej Miller  schätzt, daß schon bis Dezember 2011 der Preis für 1000 Kubikmeter Erdgas von heute 354 Dollar auf 500 Dollar steigen wird. Sie haben durch die Schlafmützigkeit der letzten deutschen Regierungen eine bequeme Monopolstellung bekommen, weil Deutschland seit vielen Jahren auf den Bau eines Terminals für LNG (verflüssigtes Erdgas) in Wilhelmshaven verzichtet hat, was die Anlandung von Erdgas aus anderen Lieferländern – z.B. aus Nordafrika – ermöglicht hätte. Unsere westeuropäischen Nachbarn haben diese Chance konsequent genutzt. Auch dieses Kapitel gehört zum Generalthema "Nichtexistenz einer deutschen Energiepolitik."

Analysten gehen im Gegensatz zu der deutschen Rettungs-Vision "Gaskraftwerke statt Reaktoren" davon aus, daß eine durch Kernkraft-Abschaltung entstehende Versorgungslücke keineswegs durch neue Gaskraftwerke gefüllt werden kann. Sie sagen voraus, daß die Stromversorger erst dann in neue Gaskraftwerke investieren werden, wenn die Gasimport-Kapazitäten stark erhöht werden. Und damit meinen sie nicht noch mehr Leitungen zum Monopolisten Gazprom.

Wie wäre es dann mit Kohle ? Erich Schmitz, Geschäftsführer des Vereins der Kohleimporteure, sagt: "Würden wir die Kapazität der jetzt vom Netz genommenen Atomkraftwerke vollständig durch Steinkohle ersetzen, müßten wie pro Quartal bis zu 3 Millionen Tonnen mehr einführen." Und der Vorsitzende der Industriegewerkschaft IGBCE (Bergbau, Chemie, Energie) Michael Vassiliadis forderte bereits einen kräftigen Wiedereinstieg in die Kohleverstromung – Braun- und Steinkohle – bei einem Kernkraft-Ausstieg. Der SPD-Vorsitzende Siegmar Gabriel hat das vernommen und verwies bereits darauf, daß "wir die acht bis zehn Kohlekraftwerke brauchen, die sich derzeit im Bau befinden." Offenbar sieht die SPD jetzt die Chance, ihre Atomausstiegs-Forderungen mit gewerkschaftlichen Wünschen in Einklang zu bringen.

Wie es aussieht, hat sich die Regierung völlig in eine Sackgasse hinein manövriert.  Sie wird die Kohleoption nutzen müssen, wenn sie nicht eine erneute Kehrtwendung  ("Wir brauchen die Kernkraft nun doch…") machen will. Aber ganz ohne Kehrtwendungen geht es jetzt nicht mehr weiter:

Ein plötzlicher Abschied von bislang unantastbaren Umweltzielen steht ins Haus.

Nach einer Studie des BDI kämen durch den Kernkraftausstieg bis 2020 Mehrkosten von 33 Milliarden Euro zusammen;

– davon 24 Mrd. Euro für Industrie- und Gewerbekunden

– und 9 Mrd. Euro für private Verbraucher.

Rechne man noch die Kosten für den Ausbau der "Erneuerbaren" und des Stromnetzes (s.o.)  hinzu, würden aus den 33 Mrd. sogar 51 Mrd. Euro.

E.On-Chef Teyssen befürchtet bei steigenden Strompreisen eine De-Industrialisierung. 830.000 Arbeitsplätze seien in Gefahr. "Wenn die energieintensive Grundstoff- und Chemieindustrien uns verlassen, ist das für die ganze Wirtschaft schlimm."

In einer Wirtschaft ohne Grundstoffindustrie, ohne Stahl- und Aluminiumerzeugung, gebe es auch keine heimische Werkzeugmaschinenindustrie mehr. "Dann werden auch keine Windkraftanlagen mehr bei uns gebaut."

(Wirtschaftswoche 1.5.2011; http://wiwo.de/t/a/464720 )

Werden die Gewerkschaften dem zu befürchtenden  Exodus der deutschen Industrie, vor dem bereits der EU-Energiekommissar Oettinger gewarnt hat, weiterhin tatenlos zusehen ?

Lesen sie auch die Teile II und III mit  den Märchen 4 bis 13 in den nächsten Tagen 

Dr.ing.  Günter Keil Sankt Augustin, 27. Mai 2011 für EIKE

Den Beitrag können Sie auch als .pdf Dokument herunterladen.

Related Files




Protokoll: PIK – EIKE wissenschaftliches Kolloqium vom 20.4.11

Bisher lief die wechselseitige Information ausschließlich über Veröffentlichungen in den Medien, bzw. des Internets und Veranstaltungen (Vorträge, Symposien…).  Die Diskussion wurde dort z.T. mit großer Schärfe geführt. Dieses persönliche Treffen sollte daher dem unmittelbaren Informationsaustausch dienen, um ggf. Missverständnisse oder kontroverse Auffassungen im direkten Gespräch zu klären.

Eröffnung

Um 13:40  eröffnete Herr Schellnhuber die Konferenz mit einem kurzen Statement. Er hieß die Gäste willkommen und stellte kurz die Umstände dar, die zur Einladung führten[1]. Er erläuterte dann, warum das PIK, als Gastgeber, keine Medienbeteiligung wünschte, obwohl dies von EIKE vorgeschlagen war. Er gab seinem Erstaunen Ausdruck, dass EIKE im Anschluss an dieses Kolloquium eine Pressekonferenz abzuhalten beabsichtigte. Dann eröffnete er das Kolloquium.

Herr Limburg (Vizepräsident EIKE) bedankte sich im Namen der Gäste für die Einladung, die man als Chance begreifen wolle, mehr miteinander über wissenschaftliche Erkenntnisse und Sachverhalte zu reden.

Stand der Klimaforschung“

Dann begann Herr Feulner mit seinem Vortrag: „Stand der Klimaforschung“ (s. undefinedFeulner). Ein Abriss der wichtigsten Trendentwicklungen aus der Sicht des PIK. Die Diskussion im Anschluss war lebhaft. Herr Vahrenholt stellte den vorgetragenen  Einfluss der solaren Aktivität – Herr Feulner stufte ihn mit 0,1 K als äußerst gering ein – in Frage. Er verwies auf neueste Untersuchungen von Shapiro (Shapiro et al 2011), wonach die TSI-Steigerung von der Kleinen Eiszeit bis heute möglicherweise 6 mal höher war als im AR4 angenommen. Verwiesen wurde auch auf ein in Januar 2010 erschienenen Paper von Solomon, wonach die Abkühlung der letzten 10 Jahre mit dem um 10 % verminderten Wasserdampf in der Stratosphäre in Zusammenhang gebracht wird.

Es wurde auch darauf hingewiesen, dass GISS bei der Erstellung der "Global-Temperatur" auch arktische Temperaturen aufzeigt, obwohl dort als auch in der Antarktis dafür nicht annähernd ausreichende Messstationen existieren.

Herr Link stellte fest, dass die Temperaturoszillationen der Ozeane wie AMO, PDO, El Nino etc. nicht in die Modellrechnungen eingehen, da die Modelle diese auch nicht vorhersagen können. Dieser Feststellung widersprach Herr Rahmstorf. Herr Feulner erläuterte seine Feststellung, dass keine Trendabsenkung der jüngsten globalen Mitteltemperatur zu erkennen sei, weil eine kurzzeitige Betrachtung unter 30 Jahre dies nicht zuließen. Auch würden die Klimamodelle dies nicht so fein auflösen können. EIKE widersprach dieser Feststellung mit dem Hinweis auf die veröffentlichten Daten von z.B. Hadley-Center und UEA, die seit 1998 keinen Temperatur-Anstieg mehr ausweisen.  Obwohl  es richtig sei, so EIKE, dass ein Klimareferenzwert mindestens 30 Jahre umfassen sollte, müsse man feststellen, dass die bisher eingesetzten Modelle die letzten 10 – 15 Jahre nicht angemessen abbilden können.

"Sonne und Klima “

Um 14:20 begann Herr Weber mit seinem Vortrag : Sonne und Klima “ (s. undefinedKurzfassung). In einem kurzen ersten Teil wies er auf die zu erwartende Sättigung der CO2 Aufnahme in der Atmosphäre hin. Heute verbleiben etwa 50 % des anthropogen emittierten CO2 in der Atmosphäre, zu Beginn der industriellen Zeit ging wegen des damaligen CO2 Gleichgewichts  zwischen Ozean und Atmosphäre alles anthropogen emittierte CO2 zunächst in die Atmosphäre. Dann führte Weber die resultierende Differentialgleichung  ein, die im einfachst möglichen Modell bei konstanter CO2 Emission zu einer exponentiellen Sättigung der atmosphärischen CO2 Aufnahme führt. Bei ca. 4 ppm jährlicher CO2 Emission, wie sie heute vorliegt, liegt der Sättigungwert bei ca. 500 ppm CO2. Weber wies ferner darauf hin, dass es gute wissenschaftliche Praxis sei, in der öffentlichen Darstellung zunächst das einfachste Modell vorzustellen und dann die Verfeinerungen und Korrekturen zu diskutieren. In der Diskussion wurden dann entsprechende Korrekturen und Grenzen des Modells vorgebracht.

Im Hauptteil des Vortrags befasste sich Weber mit der indirekten Beeinflussung des Klimas durch die aktive Sonne, bewirkt durch eine bis zu 20% betragende Reduktion der kosmischen Strahlung infolge der solaren Magnetfelder, was wiederum über die daraus folgende Reduktion in der Erzeugung von troposphärischen Aerosolen zu einer starken Erhöhung der terrestrischen solaren Einstrahlung führe. Diese Trends, die Weber in früheren Solardaten gefunden hatte, waren von Herrn Feulner (PIK) in einem Papier bezweifelt worden. Daher ging der Vortrag im wesentlichen um die Qualität der beiderseitigen Analysen. Leider stand Weber nur eine Zwischenfassung des Papiers von Herrn Feulner zur Verfügung, die darüber hinaus missverständlich formuliert war. Wegen eines solchen missverständlichen Arguments vermutete Herr Weber einen technischen Fehler bei Herrn  Feulner. In der Diskussion forderte Her Schellnhuber die Herren Feulner und Weber auf, diese Streitpunkte zunächst in internen Diskussionen zu klären. Dies geschah auch während des Workshops. Herr Feulner bedauerte, dass er bislang nicht die direkte Disskussion gesucht habe und entschuldigte sich dafür. Er wies dann auf die Endfassung seines Papiers hin, wo er hauptsächlich vulkanische Emissionen für die Vorspiegelung eines solar-aktiven Trends verantwortlich machte. Damit war der Vorwurf eines technischen Fehlers vom Tisch. Es wurde vereinbart, die Endfassung des Papiers von Herrn Feulner im Detail zu diskutieren, unter Beteiligung von Herrn A. Hempelmann, der mit Weber eine Kooperation auf diesem Gebiet begonnen hat.

Klimasensitivität des CO2“

Im Anschluß begann Herr Link seinen Vortrag über die Klimasensitivität des CO2“. (s. undefinedKurzfassung). Er nahm kurz zu seinem beruflichen Werdegang als Experimentalphysiker Stellung. Dann stellte er seine Ausführungen unter den bekannten Kernsatz der Naturwissenschaft:.“ Jede Theorie wird in den Naturwissenschaften nur dann anerkannt, wenn sie durch die Beobachtung bestätigt wird. Eine einzige Beobachtung, die der Theorie widerspricht reicht aus, diese zu widerlegen. Die von den Modellen postulierte Wasserdampfverstärkung (WDV), die der essentielle Teil der alarmistischen Vorhersage zur Temperaturerhöhung durch die Klimamodelle ist, konnte durch keine Beobachtung bestätigt werden, im Gegenteil mehrfach widerlegt werden.“ Ein Hot Spot in der mittleren bis oberen Troposphäre der tropischen Regionen sei in Hunderten von Ballonmessungen nicht gefunden worden. Damit entfiele aber die Möglichkeit, dass das Klimasystem durch CO2 mit anschließender WDV außer Kontrolle geriete. Das beträfe auch das sog. 2 ° Ziel. Die verbleibende Temperaturerhöhung durch CO2 Verdopplung berechnete Link mit max. 1,6 K ; wahrscheinlich sei sie aber deutlich geringer. (zitiert u.a Lindzen, Paltridge und Harde). Damit bestünde kein Grund für irgendeinen Klimaalarm. An der wiederum sehr kontroversen Diskussion beteiligten sich umfassend außer Herrrn Link, die Herrn Schellnhuber, Rahmstorf, Puls, Dittrich und Frau Huber. Der Hinweis von Herrn Rahmstorf, dass man allein mit den Milankowitsch-Zyklen das Auf- und Ab der Eiszeiten nicht erklären kann, sondern dafür auch noch das CO2 über die Wasserdampfrückkopplung verantwortlich machen muss, wurde von ihm nicht kausal begründet. Der Anstieg der Temperatur nach den einzelnen Eiszeiten ist aber nicht eine Folge des höheren CO2- Gehalts, sondern der beobachtete CO2-Anstieg ist eine Folge der Entgasung aus den wärmer gewordenen Ozeanen. Die vorgebrachten Argumente von Herrn Link konnten seitens der PIK-Teilnehmer nicht überzeugend widerlegt werden.

 „Extremwetter und Meeresspiegel“

Nach der Kaffeepause begann Herr Puls seinen Vortrag zu „Extremwetter und Meeresspiegel“ (s. undefinedVortrag in Langfassung). Herr Puls wies eingangs darauf hin, daß die Öffentlichkeit in den vergangenen 10 Jahren mit unzähligen und teilweise absurden Alarm-Meldungen zu Wetter und Klima überflutet wurde, überwiegend hochstilisiert zu Signalen einer schon begonnenen Klima-Katastrophe. Weiterhin: In der Öffentlichkeit (Medien und Politiker!) werden die von den Klima-Institutionen veröffentlichten  Ergebnisse der Klima-Modelle meist als Prognosen dargestellt, ohne dass darauf hingewiesen wird, dass es sich lediglich um Szenarien handelt, die mit noch größeren Unsicherheiten verbunden sind, als es Prognosen ohnehin schon sind. Puls schlug dazu vor  –  analog zu einer von Meteorologen soeben verabschiedeten "Hamburger Erklärung" zu Wetter-Langfrist-Prognosen –  eine gemeinsam von PIK + EIKE zu erarbeitende "Potsdamer Erklärung" zu verabschieden mit dem Ziel, gemeinsame Richtigstellungen zu falschen und/oder übertriebenen Klima-Verlautbarungen in den Medien anzustreben. Dazu gab es keine Antwort des PIK, auch nicht im Schluß-Fazit (Schellnhuber).

Puls führte in folgendem anhand von Graphiken, Statistiken und Zitaten diverser Institute aus, dass auch nach 150 Jahren Erderwärmung die Wetterdienste weltweit keine Jahrhundert-Trends finden bei Mittelbreiten-Zyklonen, Tropischen Wirbelstürmen, Tornados, Hochwasser und anderen Wetter-Ereignissen. Gleichermaßen zeigte P. anhand einer Reihe von Pegelmessungen und Satelliten-Daten auf, dass die von einigen Klima-Instituten und vom IPCC erwartete Beschleunigung des Meeres-Spiegel-Anstieges bisher nicht zu finden ist. Herr Rahmstorf wies darauf hin, dass es auch andere Datensätze gäbe. Puls  und Rahmstorf verständigten sich darauf, ihre Daten auszutauschen. Bezüglich der von K.-E. Behre (B., NIHK Wilhelmshaven) über Jahrtausende dokumentierten Trends an der Deutschen Nordseeküste wies Puls  in einer Debatte mit Herrn Kropp darauf hin, dass Behre keine Temperatur-Betrachtungen durchgeführt hat, und dass Behre innerhalb der letzten 400  Jahre eine Abschwächung des Meeresspiegel-Anstieges festgestellt hat, insbesondere für das 20. Jahrhundert.

Globale Langzeit­Temperaturreihen“

Um 17:00 begann Herr Lüdecke seinen Vortrag „Globale Langzeit­Temperaturreihen“ (s. undefinedKurzfassung).  Schon im Vorfeld wurden die verschiedenen Auffassungen zu der Mann´schen Rekonstruktion der Temperatur der letzten 1000 Jahre deutlich. Herr Lüdecke und andere bezeichneten sie als eindeutige Fälschung, worauf Herr Rahmstorf Beweise für diese Behauptung verlangte. Er wurde auf die umfassenden Arbeiten von McIntyre und McKitrick dazu verwiesen. Sehr gut zusammengefasst im Buch „ The Hockeystick Illusion“ von A. Montford.

Die Kernaussage der Untersuchung von Lüdecke und Ewert – belegt durch intensive statistische Untersuchung der Autokorrelation (Persistenz) von vielen tausend Temperaturzeitreihen lautet: „An der Erwärmung des 20. Jahrhunderts ist nichts Ungewöhnliches aufzufinden.“ Nach einem Absenken der Temperatur in den Jahren davor gab es jetzt eine im wesentlichen natürlich verursachte Erwärmung, wenn man von menschgemachten Einflüssen wie dem UHI absieht. Der ist allerdings gut erkennbar. Ähnliche und oft sogar noch stärkere Fluktuationen  sind in der Vergangenheit der letzten 2000 Jahre nachgewiesen. Alle hatten natürliche Ursachen. Die Herrn Schellnhuber und Kropp beteiligten sich lebhaft an der folgenden Diskussion. Herr Schellnhuber zeichnete als Mitautor eines von Herrn Lüdecke zitierten Papers, das das Fehlen der Erwärmung bestätigte, Herr Kropp war Projektleiter des mit der Uni Gießen durchgeführten Projektes zu dieser Studie. Herr Schellnhuber bemerkte, dieses Ergebnis sei trotzdem kein „Smoking Gun“ (gegen eine CO2 induzierte Erwärmung?), während Herr Rahmstorf einwarf, diese Statistik sei „blind“ gegen die Physik. Dem wurde von Lüdecke und Link widersprochen. Herr Kropp warf noch ein, die verwendete Methode sei immer noch in der Entwicklung.

Fazit

Offensichtlich stimmten die Gesprächsteilnehmer in der Wahrnehmung der Fakten weitgehend überein – die vom PIK unwidersprochene Abwesenheit von Extremwetterzunahmen steht hierfür stellvertretend. Die Methode bei der Bewertung dieser Fakten scheint aber verschieden. Während die Vertreter von EIKE die unbedingte Priorität der physikalischen Messungen betonen, muss sich Klimafolgenforschung ihrer Zukunftsbezogenheit wegen notwendigerweise auf Modellprojektionen stützen. Diese können und werden sich aber von den gezählten und gemessenen Fakten mit hoher Wahrscheinlichkeit entfernen. Es wäre wünschenswert, wenn dieser Gegensatz der weitgehend uninformierten Öffentlichkeit besser bekannt wäre. Zur wahrheitsgemäßen Information von Laien sind daher populäre Vorträge von Fachwissenschaftlern, in denen entgegen allen Mess-Fakten von bereits erfolgten katastrophalen Extremwetterzunahmen berichtet wird, die überdies noch einem anthropogen verursachten Klimawandel zugeordnet werden, nicht hilfreich.     

Abschluss: Dank und Gegeneinladung:

Herr Limburg bedankte sich im Namen der Gäste für die offene Diskussion, die EIKE gerne -da die Debatte über die heute von EIKE vorgetragenen Erkenntnisse überraschend fruchtbar war – fortsetzen wolle. Zu diesem Zweck lud er die Kollegen des PIK zu einem ordentlichen Folgetreffen im Spätsommer des Jahres ein. Hierzu gab es keinen Widerspruch.

Mit etwas Verspätung wurde das Kolloquium gegen 17:50 von Herrn Schellnhuber mit einer kurzen Ansprache beendet. Er dankte allen Teilnehmern für die geleistete Arbeit und die fast immer sachliche Art der Auseinandersetzung. Er vermerkte zudem, dass er für das im Anschluss geplante Pressegespräch von EIKE von einer fairen Behandlung des PIK ausginge. Darauf hin lud Herr Limburg Herrn Schellnhuber ein, dabei zu sein. Herr Schellnhuber lehnte ab, er sei privat verhindert, benannte aber  Mitarbeiter statt seiner.

Michael Limburg EIKE

Teilnehmer PIK: Dr. Georg Feulner, Eva Gaigg, Prof. Dr. Friedrich Gerstengarbe, Dr. Veronika Huber, Dr. Brigitte Knopf, Claudia Köhler, Prof. Dr. Jürgen Kropp, Prof. Dr. Anders Levermann, Dr. Jörg Pietsch, Prof. Dr. Stefan Rahmstorf, Prof. Dr. Hans Joachim Schellnhuber, Dr. Thomas Schneider von Deimling, Mareike Schodder, Jonas Viering>Tanja Fröhlich, Prof. Dr. Uwe Ulbrich

Teilnehmer EIKE: Dr. Siegfried Dittrich Prof. Dr. Karl-Friedrich Ewert, Michael Limburg, Prof. Dr. Horst-Joachim Lüdecke, Klaus-Eckart Puls; EIKE Gäste Dr. Alexander Hempelmann, Dr. Rainer Link, Prof. Dr. Fritz Vahrenholt, Prof. Dr. Werner Weber

Eine Englische Version der Vorträge finden Sie als pdf Datei im Anhang


[1] kontroverses Frage- und Antwortspiel während des Zukunftskongresses der CDU/CSU Bundestagsfraktion mit der Vorstellung des Energiekonzeptes und eines Vortrages von Herrn Schellnhuber). 

* Mit Dank an Pierre Gosselin von No Trick Zone für die gelungene Übersetzung

zusätzlich Medienberichte z.B hier

FAZ

MAZ

Richtigstellung EIKE zum FAZ Bericht vom 4.5.11

Bericht einer vergleichbaren Konferenz in Groß Britannien hier 

Skeptics Meet Warmists At Cambridge

Related Files




Bestrahlung? Verstrahlung? Erhöhte Radioaktivität? Fakten zur Strahlung aus nuklearmedizinischer Sicht.

Die medizinische Beurteilung des Strahlenrisikos

In den Meldungen über die havarierten Kernkraftwerke bei Fukushima werden gehäuft Begriffe wie „verstrahlt“, „erhöhte Strahlung“ oder „erhöhte Strahlenwerte“ genannt, wobei selten auf die strahlenbiologische Bedeutung dieser Meldungen hingewiesen wird. Bedingt durch fehlende Informationen kann die Bevölkerung ein gesundheitliches Risiko nicht abschätzen und es liegt nahe, dass aufgrund der Angst und der Unwissenheit vor radioaktiver Strahlung in einzelnen Bevölkerungsschichten die Verunsicherungen steigen.

Strahlung ist der Transport oder die Ausbreitung von Energie durch den Raum. Die radioaktive Strahlung entsteht beim Zerfall bestimmter Atomkerne (Radionuklide), wobei sie in Form von Teilchen (z. B. Alpha- oder Betastrahlung) oder elektromagnetische Wellen (Gammastrahlung) in die Umwelt gelangt. Die Reichweite der Teilchenstrahlung ist gering, für Alphastrahlung beträgt sie wenige Zentimeter in der Luft und liegt unter ein Zehntel Millimeter in Materie, für Betastrahlung beträgt sie einige Meter in der Luft und liegt unter einem Zentimeter in Materie. Die Reichweite der Gammastrahlung ist theoretisch unendlich. Die Intensität der Gamma-Strahlung nimmt jedoch nach dem Abstandsquadratgesetz ab (doppelter Abstand bedeutet ¼ der Intensität). Die abgestrahlte Energie und das Zerfallstempo der Radionuklide gehorchen nuklidspezifisch bestimmten physikalischen Gesetzmäßigkeiten. Die Einheit für den radioaktiven Zerfall ist Becquerel (Bq), 1 Bq entspricht einem radioaktiven Zerfall eines bestimmten Atomskerns pro Sekunde. In der deutschen Strahlenschutzverordnung wird durch die Freigrenzen für jedes Radionuklid penibel festgelegt, bis zu wie viel Bq pro Quadratzentimeter oder Bq pro Gramm die Abgabe der Radionuklide an die Umwelt unbedenklich ist (z. B. 5 Bq pro Liter für das radioaktive Iod-131 in Abwässer). Für Lebensmittel werden analog Grenzwerte in Bq pro Kilogramm definiert (z. B. 600 Bq Cs-137 pro Kilogramm für Wildfleisch), die als gesundheitlich unbedenklich angesehen werden. Wir Menschen selbst sind wandelnde Strahlenquellen, in jedem von uns finden durchschnittlich 9000 radioaktive Zerfälle pro Sekunde statt. Auch die Umwelt ist seit Milliarden von Jahren durch die Entstehungsgeschichte radioaktiv, bedingt durch Strahlung aus dem Weltall und der Erdoberfläche. Aus der alleinigen Angabe einer Zerfallshäufigkeit in Bq lässt sich nur bedingt ein strahlenbiologisches Ausmaß ermitteln.

Der Begriff ionisierende Strahlung beschreibt die Eigenschaft der Strahlung, dass der Energiegehalt der Strahlung ausreicht, um Atome ionisieren zu können, d. h. dass Elektronen aus der Atomhülle abgetrennt werden. Da Materie und alles Leben aus Atomen aufgebaut sind, die unter Mitwirkung der Hüllenelektronen komplexe Moleküle bilden, können durch die ionisierten Atome die Moleküle auseinanderbrechen mit fatalen Folgen für die biologischen und physiologischen Abläufe. Je nach Schäden, bedingt durch ionisierten Atome oder Moleküle, kann dies in den Zellen, Proteinen, Molekülen, Enzymen und der DNA zu Funktionsstörungen, Mutationen bis hin zum Tod des Individuums führen. Durch die Evolution haben sich in uns Menschen allerdings raffinierte Reparaturmechanismen von Strahlenschäden entwickelt, so dass zusammen mit bestehenden Erholungskapazitäten die Strahlenexposition der Umwelt uns nur in extrem geringem Umfang gesundheitliche Probleme bereitet. Es wird sogar diskutiert, ob eine geringe Strahlenexposition bei den beruflich strahlenexponierten Personen zu einer Stimulation des Immunsystem führt, die eine gering erhöhte Lebenserwartung der beruflich strahlenexponierten Personen im Vergleich zur Gesamtbevölkerung bedingt. 

Um die Wirkung der ionisierenden Strahlung auf die Umwelt abschätzen zu können, wurden Dosisbegriffe eingeführt, indem die Abgabe der Strahlungsenergie an die Materie erfasst wird. Neben der alleinigen Bewertung der Energieabgabe (Einheit Gray, Gy) wurde für strahlenbiologische Auswirkungen die Äquivalentdosis (Einheit Sievert, Sv) eingeführt, indem die Strahlenart (Alpha, Beta- oder Gammastrahlung) hinsichtlich ihrer biologischer Wirksamkeit berücksichtigt wird. Für die strahlenbiologischen Auswirkungen am Menschen wird speziell die sog. effektive Dosis (Einheit ebenfalls Sievert, Sv) herangezogen, in dem die Energieabgabe in Abhängigkeit der Strahlenart und des strahlenexponierten Körpergewebes in komplexen Rechenverfahren ermittelt wird. Mit entsprechenden Messgeräten (Dosimeter) kann die effektive Dosis auch direkt grob abgeschätzt werden. Über die effektive Dosis lässt sich das Ausmaß eines Körperschadens sowie ein statistisches Risiko ermitteln, Krebs zu bekommen und an dessen Folgen zu sterben. Die Wahrscheinlichkeit für Tod durch bösartige Neubildung nach Strahlenexposition beträgt 5 % pro Sv oder 0,005 % pro mSv, d. h. erhalten 100 000 Personen eine effektive Dosis von 1 mSv, so werden statistisch gesehen dadurch fünf Personen irgendwann an Krebs erkranken und daran sterben.

Die natürliche Strahlenexposition mit ihren Quellen im Weltall und der Erdkruste sowie die Eigenstrahlung des Menschen ergibt für jeden von uns eine natürlich bedingte, regional unterschiedliche effektive Dosis von ca. 2 – 3 mSv pro Jahr. Im Tabakrauch sind die Alphastrahler Blei-210 und Polonium-210 enthalten, die bei einem täglichen Konsum von einer Schachtel pro Tag zu einer jährlichen, internen Strahlenexposition mit einer effektiven Dosis von 10 mSv führen. Weitere typische Beispiele für Strahlenexpositionen in unserer Zivilisation zeigt Tab. 1.

Exposition

effektive Dosis [mSv]

Flug innerhalb Europa, pro Flug

0,002 – 0,02

Flug transkontinental, pro Flug

0,02 – 0,1

Flugpersonal, pro Jahr

2 – 5

2 Wochen Hochgebirge (2000 m)

0,02

Anteil der Tschernobyl-Katastrophe in Deutschland pro Jahr

0,02

Schilddrüsenszintigramm (Nuklearmedizin)

0,7

Röntgenaufnahme Brustkorb

0,1

Computertomografie Brustkorb

10

obere Grenze für beruflich strahlenexponierte Personen pro Jahr

20

Berufslebensdosis für beruflich strahlenexponierte Personen

400

 

Tab. 1: effektive Dosis bei verschiedenen Strahlenexpositionen

Höhere effektive Dosen wurden in Deutschland für Rettungsdienste als Dosisrichtwerte festgelegt, die das Einsatzrisiko in ein zum Einsatzerfolg vertretbares Risiko setzen:

–        15 mSv zum Schutz von Sachwerten,

–        100 mSv zur Abwehr von Gefahren für Menschen und zur Verhinderung einer wesentlichen Schadensausweitung sowie 

–        250 mSv zur Rettung von Menschenleben.

In der Medizin werden zur Behandlung von Gewebeveränderungen, speziell von bösartigen Tumoren, gezielt Strahlen eingesetzt. Bei der Strahlentherapie wird das erkrankte Gewebe von außen mit hohen Herddosen (Dosis für das Tumorgewebe) bis zu 70 Gy bestrahlt, wobei die effektive, auf den ganzen Körper bezogene Dosis bis zu 1 Sv betragen kann. In der Nuklearmedizin wird z. B. bei der Radiojodtherapie das zu behandelnde Gewebe körperintern mit dem radioaktiven J-131 mit einigen 100 Gy bestrahlt mit einer effektiven Dosis von einigen 100 mSv. Die Ergebnisse europäischer Sammelstatistiken zeigen, dass das Risiko für strahleninduzierten Krebs – wenn überhaupt – gering erhöht ist.

Den zu diskutierenden langfristigen Folgen einer Strahlenexposition stehen die Akutfolgen gegenüber, die unmittelbar nach Strahlenexposition auftreten können (Tab. 2).

 

Effektive Dosis [Sv]

Bezeichnung

Symptomatik

klinische Folgen

bis 0,25

stochastische Schäden

keine

keine

0,25

Schwellendosis

keine

kurzzeitige Blutbild-

veränderungen

1

subletale Dosis

Unwohlsein, Übel-

keit, Erbrechen

baldige Erholung

5

mittelletale Dosis

Übelkeit, Durch-

fälle, Blutungen

50 % Todesfälle in wenigen Wochen

7

letale Dosis

Erbrechen, Blutungen, Fieber, Kräfteverfall

100 % Todesfälle in wenigen Tagen

Tab. 2: Vereinfachte Angaben zu akuten Dosiswirkungsbeziehungen.

Solche Dosen sind akut nur für das Einsatzpersonal denkbar, die unmittelbar vor Ort nahe der havarierten Reaktoren notfallmäßig größere Ausmaße der Schäden verhindern sollen.

Für die Bevölkerung im Umkreis der Reaktoren lässt sich eine gesundheitsgefährdende Auswirkung abschätzen, wenn Messwerte für die effektiven Dosen, z. B. µSv pro Stunde, zur Verfügung stehen, über die sich im zeitlichen Verlauf bedenkliche effektive Dosen anhäufen können. Anhand solcher Messgrößen lässt sich dann die Weite einer notwendigen Evakuierungszone abschätzen. Als Beispiel ergibt sich aus dem gemeldeten Messwert von 0,8 µSv/h (effektive Dosis?) in Minamisoma am Rand der 20 km-Fukushima-Sperrzone eine geschätzte effektive Jahresdosisleistung von ca. 7 mSv (0,8 x 24 x 365) pro Jahr. Das ist ca. das 2,5-fache der natürlichen Strahlenexposition in Deutschland. Zum Vergleich: der obere Grenzwert der effektiven Dosis für beruflich strahlenexponierte Personen ist nach Strahlenschutzverordnung bzw. Röntgenverordnung mit 20 mSv pro Jahr (siehe Tab. 1) festgelegt. Dieser Grenzwert, gesundheitlich noch unbedenklich, wird allerdings extrem selten erreicht, im Mittel liegt die effektive Dosis für beruflich strahlenexponierte Personen in Deutschland bei ca. 3 mSv pro Jahr zusätzlich zur natürlichen Strahlenexposition. Man kann also abschätzen, dass ein Einwohner in Minamisoma etwa genauso strahlenexponiert ist wie ein Radiologe oder Nuklearmediziner in Deutschland, die keine schlechtere Lebenserwatung haben im Vergleich zur Gesamtbevölkerung.

Lancierte Begriffe wie „verstrahlt“ oder „erhöhte Strahlung“ sind in den Meldungen nicht hilfreich. Entweder es liegt eine Kontamination des Materials oder von Menschen vor, also eine Verunreinigung mit Radionukliden (Angabe in Bq/ cm² oder Bq/g), oder es besteht für die Bevölkerung eine externe Strahlenexposition (meistens Gammastrahlung, da die Reichweite der Teilchenstrahlung sehr gering ist). Eine Inkorporation liegt vor, wenn Radionuklide in den Körper gelangt sind (z. B. über Atemweg oder Nahrung). Die Bezeichnung „verstrahlt“ besagt gar nichts. Nur über die effektive Dosis lässt sich ein statistisches, gesundheitsgefährdendes Risiko aufgrund einer Strahlenexposition abschätzen. Bei der gegenwärtigen Fukushimakatastrophe erfolgen in den Medien selten Angaben über die effektive Dosis. In den Fällen, in denen Angaben wie µSv oder µSv/h vorliegen, muss spekuliert werden, ob die effektive Dosis oder Äquivalentdosis bzw. –leistung gemeint ist. Es wäre hilfreich, wenn zumindest bei den Meldungen Vergleiche angestellt würden im Sinne von z. B. „dieser Messwert entspricht das x-fache der natürlichen Strahlenexposition“ oder „entspricht der Strahlenexposition einer Computertomografie“ mit dem darüber hinaus notwendigen Hinweis, ob die angegebene Strahlenexposition als (un)bedenklich angesehen werden kann.

Japan liegt weit weg. Über den Verdünnungseffekt in der Atmosphäre ist die Wahrscheinlichkeit, dass sich aufgrund der Fukushimakatastrophe für uns in Deutschland irgendwelche akute oder langfristige Auswirkungen auf die Gesundheit ergeben, als extrem gering anzusehen. Auch die Auswirkungen aus der näher gelegenen Tschernobylkatastrophe (siehe Tab. 1) gehen nach nun mehr 25 Jahren in den statistischen Schwankungen der natürlichen Strahlenexposition unter.

Dr. med. Dr. rer. nat Roland Rödel für EIKE

Dr. Rödel arbeitet als Nuklearmediziner an der Klinik und Poliklinik für Nuklearmedizin des Universitätsklinikums Bonn




Bürger hört die Signale! Das Gutachten des Umweltrates. Die „Große Transformation“ – ein Ökologistisches Manifest

Wenn die neun Professor(Inn)en des „Wissenschaftlichen Beirats der Bundesregierung Globale Umweltveränderung“ eine solche „Kurzfassung“ vorlegen, beweisen sie damit entweder ihre Unkenntnis über ministerielle Entscheidungsgänge, oder sie führen etwas im Schilde. Letzteres kann man nur vermuten: Unter „Großer Transformation“ (EIKE berichtete darüber z.B. hier und hier und hier) sollen die Entscheidungsträger wohl nur den Weg zum sogenannten ökologisch „nachhaltigen Wirtschaften“ verstehen, nicht aber, was wirklich gemeint ist: eine neue „Weltrevolution“, diesmal unter ökologistischem, nicht unter sozialistischem Vorzeichen.

Dass  die empfohlene „Große Transformation“ nicht durch demokratische Legitimation entstehen kann, scheinen die Herren/Damen Professoren zu wissen. Sie fordern daher auf nationaler Ebene den „gestaltenden Staat“, dem mit Hilfe einer Art Ermächtigungsgesetz das ökologistische Kontrollrecht für alle öko-relevanten Gesetzgebungsvorhaben gegeben werden soll – auf internationaler Ebene die Übergabe wesentlicher Souveränitätsrechte an die UNO. Dort würde eine atemberaubende Öko-Bürokratie mit autoritären Befugnissen entstehen. Zu guter Letzt sollen Wissenschaft und Schulen umfassend zum ökologisch verantwortungsvollen Denken und Handeln erziehen – Agitprop läßt grüßen!

Es geht um eine ökologistisch-idealistische Welt-Diktatur, legitimiert durch eine neue Moral, einen neuen Gesellschaftsvertrag, der sich wie folgt legitimiert: 

Erstens moralisch:

Die Transformation … ist moralisch ebenso geboten, wie die Abschaffung der Sklaverei und die Ächtung der Kinderarbeit. 

Zweitens durch Volkserziehung:

Die Einsicht in die Notwendigkeit entsteht durch die Entwicklung des Problembewusstseins, des systemischen Denkens, sowie der Einsicht zum verantwortliche Handeln.

Drittens durch eine marxistische Denkfigur:

Die Einsicht in die Notwendigkeit des Umbaus der Weltwirtschaft ist primär wissenschaftlich begründet.

Man braucht kein Politikwissenschaftler und kein Klimatologe zu sein, um zu merken, woher der Wind weht. Dieses Gutachten ist ein dikatorisch-ökologistisches Manifest. Schade, dass Steuerzahlergeld darauf verschwendet wird! Der Herr Umweltminister Röttgen täte gut daran, seine wissenschaftlichen Berater an die Grundsätze unserer freiheitlich verfassten demokratischen Gesellschaft zu erinnern.

Helmut Jäger, EIKE

SPON berichtet am 7.4.11  darüber unter: 

Atomausstieg: Regierungsberater fordern radikale Energiewende

————————————–

Die gekürzte lesbare Form finden sie als pdf im Anhang

Das Original finden Sie hier

Zum WBGU geht es hier

Related Files




3.(IV) Klima- & Energiekonferenz Berlin 2010 Videovorträge Teil 4

"Klimaschutz" & Energiekonzept – Passt das zusammen?

Dipl. Ing. Michael Limburg

Vizepräsident Europäisches Institut für Klima und Energie (EIKE) Hier finden Sie die undefinedppt Datei 

Auswirkung des deutschen Energiekonzepts auf die Grundstoff- Stahlindustrie

Prof. Dr. Dieter Ameling

Präsident Wirtschaftsvereinigung Stahl a. D. und Vorsitzender Stahlinstitut VDEh a. D. Hier finden Sie die undefinedppt Datei 

Wie zeitgemäß ist Kernenergie? Endlagerung & Fusion 

Prof. Dr. Alois Haas

Ruhr Universität Bochum; hier die undefined.ppt Datei des Vortrags

Speicherung volatiler Elektroenergie im Großmaßstab

Prof. Dr. Helmut Alt Fach Hochschule Aachen 




3.(III) Klima- & Energiekonferenz Berlin 2010 Videovorträge Teil 3

Die Erneuerbare Energielobby und die politisch-wirtschaftlichen Konsequenzen

Günter Ederer

Wirtschaftsjournalist und Filmproduzent

Klimawandel zwischen Modellen, Statistik und Ersatzreligion

Prof. Dr. Werner Kirstein

Institut für Geographie, Universität Leipzig

Was bedeute Climategate für die Wissenschaft?

Dr. Terence Kealey

University of Buckingham

Fiktion und Realität im Klimaschutz

Dr. Lutz Peters

Berater und Autor von Klima 2055

"Klimaschutz" als Instrument französischer Politk!

Dr. Emmanuel Martin Ökonom und Herausgeber von UnMondeLibre.org; hier sein undefinedppt Vortrag




3.(II) Klima- & Energiekonferenz Berlin 2010 Videovorträge Teil 2

Persistenz in Temperaturreihen zeigt den Einfluss der Sonne auf unser Klima

Prof. em. Dr. Horst-Joachim Lüdecke Hochschule für Technik und Wirtschaft des Saarlandes; Hier sein Vortrag als undefinedppt Datei

Weltweite Langzeit-Thermometer Daten zeigen mehrheitlich keine Erwärmung!

Prof. em. Dr. Friedrich-Karl Ewert, Universität Paderborn; Hier sein Vortrag als undefinedppt Datei

Neue Erkenntnisse über den solaren Einfluss auf das Klima und deren Bedeutung für das Verständnis der Klimawandels

Prof. Dr. Nir Shaviv Racah Institute of Physics – The Hebrew University of Jerusalem; 

Der „Fußabdruck“ der Sonne in der jüngeren Klimageschichte

Prof. Dr. Vincent Courtillot;  Directeur, IPGP Université Paris Diderot; Hier sein Vortrag als undefinedppt Datei

Die Korrelation von Schwankungen der Sonnenaktivität und Klimaveränderungen

Dipl. Phys. Dr. Horst Borchert ehem. am Geographischen Institut der Johannes-Gutenberg Universität Mainz; Hier sein Vortrag als undefinedppt Datei

Wird fortgesetzt mit Teil III und IV




3. Klima- & Energiekonferenz Berlin 2010 Videovorträge Teil I

Begrüßung – Warum Klima noch immer ein Thema ist 

Dr. Holger Thuss

Präsident Europäisches Institut für Klima und Energie

Bedrohungen durch Klimawandel – Anpassung ist die Lösung

Prof. Dr. Bob Carter Hier undefinedppt Datei

Marine Geophysical Laboratory: James Cook University, Queensland und University of Adelaide South Australia

Mensch vs. Natur – Wer emittiert mehr CO2

Prof. Dr. Ian Plimer

Institute of Geology and Geophysics at the University of Adelaide; hier die undefinedppt Datei

The role of water in the fate of carbon: implications for the climate system

Die Rolle des Wassers und das Schicksal des Kohlenstoffs: Klima, Wasser, Kohlendioxid und die Sonne

Prof. Dr. Jan Veizer  

Department of Earth Sciences, University of Ottawa hier undefineddie ppt Datei

Die Normalität des veränderlichen Wetters

Dipl. Meteorologe Klaus-Eckart Puls 

Pressesprecher EIKE, hier die undefinedppt datei

Die Botschaft von Cancun

Cfact´s Craig Rucker, Lord Christopher Monckton; Dr. Spencer vom The Science & Environmental Policy Project (SEPP)





Weitere Mess-Unsicherheit (Fehler) von Oberflächentemperaturdaten quantifiziert! Deutlich größer als bisher angenommen!

Zusammenfassung

Die Unsicherheit der instrumentallen Messungen ist in früheren Schätzungen des globalen Oberflächen-Temperaturmittels noch nie vollständig behandelt worden. Der geschätzte durchschnittliche Messstationsfehler von ±0.2 C wurde fälschlicherweise als zufällig betrachtet und der systematische Fehler aus freien Variablen ist ständig vernachlässigt worden. Die systematischen Messfehler von drei ideal positionierten und gewarteten Temperatursensoren werden hier berechnet. Kombiniert mit dem durchschnittlichen Messstationsfehler von ±0.2 C wurde eine repräsentative untere Unsicherheitsgrenze von ±0.46 C für jede globale jährliche Oberflächentemperatur-Anomalie gefunden. Diese ±0.46 C zeigen, dass der Trend der globalen jährlichen Oberflächentemperatur-Anomalie von 1880 bis einschließlich 2000 statistisch nicht von 0 C unterschieden werden kann, er stellt daher eine untere Grenze der Kalibrierungs-Unsicherheit für Klimamodelle dar und für jede voraussichtliche physikalisch gerechtfertigte Proxy-Rekonstruktion von Paläo-Temperaturen. Die Rate und das Ausmaß der Erwärmung im 20. Jh.  sind daher nicht bestimmbar. Behauptungen eines noch nie dagewesenen Trends in der globalen Termperatur im 20. Jh. können nicht aufrecht erhalten werden.

Einführung

Die Rate und das Ausmaß der Klimaerwärmung im vergangenen Jahrhundert geben zu erheblicher internationaler Besorgnis und Forschung Anlaß [1, 2]. Die veröffentlichten Auswertungen der Quellen der Unsicherheit in den Aufzeichnungen der globalen jährlichen Oberflächentemperaturen sind bisher auf Ortsveränderungen der Messstationen gerichtet gewesen, auf räumliche Inhomogeneität der Messstationen, auf Instrumentenaustausch und auf Veränderungen in der Landnutzung und auf die Verstädterung.

Überprüfungen der Datenqualität von Landmessstationen und Anpassungen der Zeitreihen, die zur Unterstützung eine geschätzten Unsicherheit von etwa ±0.2 C bei einer globalen  Anomalie im Jahrhundertdurchschnitt von etwa +0,7 C angewendet worden sind, haben das Messungsrauschen nicht richtig beachtet und sie haben noch nie die unabhängigen Umweltvariablen beachtet, die die Auflösungsgenauigkeit der Sensoren im Feld beeinflussen. Die Auflösungsgenauigkeit im Feld bezieht sich auf die Fähigkeit eines Sensors zwischen ähnlichen Temperaturen, dem wirksamen Einfluß der Umwelt und den verschiedenen Quellen von Instrumentenfehlern zu unterscheiden.

In einer neuen Abschätzung globaler jährlicher Oberflächentemperaturen und deren Unsicherheiten haben Brohan et al. [11], hier folgend mit B06 zitiert, das Messgeräterauschen als vernachlässigbar beurteilt. Sie schreiben: „Der zufällig Fehler bei einer einzigen Thermometer-Ablesung beträgt etwa 0.2 C (1Standardabweichung) [Folland,et al., 2001] ([12]); der Monatsdurchschnitt beruht auf mindestens zwei Ablesungen pro Tag während der gesamten Monatsdauer, wodurch 60 oder mehr Werte gewonnen werden, die zur Durchschnittsbildung herangezogen werden. Daher beträgt der Fehler im Monatsdurchschnitt höchstens 0.2 /Quadratwurzel 60 = 0.03 C und dieser Wert wird nicht mit dem Wert einer anderen Station oder mit dem Wert für einen anderen Monat korreliert.

Ziffer [29] von B06 begründet diesen statistischen Ansatz damit, dass die monatlichen Temperatur-Aufzeichnungen der Bodenmessstationen als Summe aus einem konstanten Mittelwert plus Wetter-Rauschen verstanden werden. “Die Messstationstemperatur jedes Monats während der Normalperiode kann als die Summe zweier Komponenten betrachtet werden: einem konstanten Stationsnormalwert (C) und einem zufälligen Wetterwert (w, mit der Standardabweichung ?i).“ Diese Beschreibung und der Ansatz einer Reduktion von 1 / Quadratwurzel 60 als Messungsrauschen zusammen bedeuten, dass hier statistisch eine Mittelwertbildung des Signals der monatlichen Temperaturen vorgenommen wird.…

..Die „Freiwilligen“ und ich werden erwähnt (Anm. d. Ü.: Es handelte sich um ein Freiwilligen- Team, das unter Anthony Watts Anleitung die meisten U.S.-amerikanischen Bodenwetterstationen auf mögliche verfälschende Umwelteinflüsse untersuchte):

Die Güte einzelner Bodenmessstationen wird für die Vereinigten Staaten vielleicht am besten durch die empfehlenswerten und ausgezeichneten unabhängigen Auswertungen durch Anthony Watts und sein Freiwilligenkorps untersucht. Die Ergebnisse sind öffentlich zugänglich unter: http://www.surfacestations.org/. Ihr Ausmaß umfaßt das gesamte Netz der USHCN Bodenmessstationen. Danach verdienten 69% der USHCN Stationen eine Stationsbewertung von “schlecht” (poor) und weitere 20% nur ein “ausreichend” (fair) [26]. Aus dieser und begrenzteren veröffentlichten Untersuchungen von Stationsmängeln [24, 27-30] geht hervor, wie weit entfernt von „ideal“ die Güte der Stationsmessungen in den Vereinigten Staaten sind. In Europa hat eine kürzliche weitflächige Analyse der Güte von Stationsdatenreihen im Rahmen des European Climate Assessment [31] überhaupt keine Untersuchung der individuellen Stations-Sensorabweichungen erwähnt und ausgesagt: “es kann nicht garantiert werden, dass jede Temperatur- und Niederschlagsserie für Dezember 2001 genügend homogen ist in Bezug auf die tägliche Mittelwertbildung und Abweichung.“

Also, es hat offensichtlich nie eine Auswertung weder der Abweichung des Temperatursensor-Rauschens noch der stationsbezogenen Abweichungen stattgefunden für diejenigen Messstationen stattgefunden, deren Messungen in die globale Mittelwertbildung eingehen. Schlechte Stationsgüte wurde größtenteils denjenigen Stationen bescheinigt, die unabhängig untersucht worden sind. Schließlich haben Lin und Hubbard nachgewiesen [35], dass variable Bedingungen im Feld eine nicht-lineare systematische Auswirkung auf das Messverhalten der Sensorelektronik ausüben. Das deutet auf wahrscheinliche nicht-stationsbezogene Rauschvarianzen in den Zeitreihen der Temperaturmessungen der jeweiligen Bodenstationen hin.

4. Zusammenfassung und Ergebnisse

Die Annahme eines globalen stationseigentümlichen Sensor-Rauschens ist empirisch noch nicht überprüft worden und noch nicht bestätigt. Die geschätzte Unsicherheit im Rauschens setzt sich eher mit fort als mit . Die Unsicherheit in den monatlichen Mittelwerten würde außerordentlich vermindert, wenn die Positionierung der Bodenmessstationen verbessert würde und die Varianzen des Sensor-Rauschens bekannt, überwacht und empirisch als stationseigentümlich verifiziert würden.

Die Untergrenze der Unsicherheit von ±0.46 C zeigt, dass der Trend der gemittelten globalen Temperatur-Anomalien zwischen 1880 und 2000 statistisch nicht von 0 C auf der 1? – Ebene unterschieden werden kann. Daher ist die Schlussfolgerung unabweisbar, dass es derzeit unmöglich ist, einen globalen Erwärmungstrend des Klimas seit 1880 zu quantifizieren.

Das Papier kann vom Verlag Multi-Science bezogen werden: 

Ich bitte jeden, der diese Arbeit schätzt und mehr wissen will, den Verlag durch den Kauf einer Kopie des Papiers über die oben angegebene Adresse zu unterstützen.

Glückwünsche an Herrn Frank für sein schwere Arbeit und die erfolgreiche Publikation. Ich bin sicher, dass seine Arbeit noch zitiert werden wird.

Bei Jeff Id bei Air Vent gibt es eine technische Diskussion darüber, die einen Besuch wert ist.

Antony Watts

Zu einer vergleichbaren Aussage kommt R. Lindzen bei seiner Aussage vor dem Senatsausschuss 2007: (Seiten 10,11 & 12)

Die Übersetzung besorgte Helmut Jäger




Ist das westliche Klima-Establishment korrupt? Die Öffentlichkeit kennt vielleicht die Wissenschaft nicht, aber sie erkennt einen Schwindel

Das westliche Klimaestablishment lügt uns an:

• Offizielle Thermometer stehen vorwiegend an warmen Orten nahe von Auslässen von Klimaanlagen, Gebäuden, Beton, Flugzeugpisten oder Asphalt.

• Beamte verbergen die Daten der Argo-Bojen, welche die sich abkühlenden Temperaturen der Weltmeere zeigen.

• Sie ignorieren die Ergebnisse von Hunderttausenden Wetterballonen, die zeigen, dass die Klimamodelle die projizierte Erderwärmung um mindestens 300% überbewerten.

• Klimawissenschaftler weisen häufig auf die letzten 130 Jahre globaler Erwärmung hin, erzählen aber die volle Geschichte nicht: der Planet fing vor dem Jahr 1700 an, sich zu erwärmen: Mehr als ein Jahrhundert bevor Menschen anfingen, nennenswerte Mengen CO2 auszustoßen.

• Führende Autoren veröffentlichen eine berüchtigte Grafik in täuschender Farbgebung, welche die gewünschten Ergebnisse vorspiegelt. Warum publiziert eine füh- rende Zeitschrift nur ein derart durchsichtiges und kindisches Täuschungsmanöver?

• Die russischen, chinesischen und indischen Klimaorganisationen, vom westlichen Klimaestablishment finanziell unabhängig, zeigen sich alle skeptisch. Genauso wie viele Wissenschaftler aus anderen Zweigen der Wissenschaft, aber auch viele pensionierte Klimawissenschaftler (welche ohne negative Konsequenzen für ihre Karriere offen sprechen können).

Nur ein Narr sieht das Muster nicht

Wenn nur ein paar größere Zeitungen die Photos der neben Hitzequellen stationier- ten Messstationen veröffentlichen würden, wären unsere Volksvertreter gezwungen, ihre Treibjagd gegen die globale Erwärmung aufzugeben. Denn niemand will mit Halbwahrheiten und schamlosem Betrug in Verbindung gebracht werden. Wer will schon leichtgläubig aussehen, weil er offensichtliche Fragen nicht stellte?

 

Abb. 1: Ein offizielles Thermometer in einer Abwasserkläranlage. Es misst die zusätzliche Wärme, die aus Klimaanlage, Kühleinrichtung, umgebendem Beton, einer Backsteinmauer und anderer Technik resultiert, mit. Es liegt zudem im Windschatten, und die Abluft, die im Winter aus den Gitterscha?chten entweicht, liegt deutlich über dem Gefrierpunkt. (Die roten Linien zeigen mögliche Hitzepfade; offensichtlich gelangt nur ein Teil der Hitze von jeder Quelle zum Thermometer.) Photo: Anthony Watts, www.surfacestations.org und Steve Tiemeier.

Jene, die Aussagen unterstützen, die auf korruptem Verhalten basieren, werden nachlässig erscheinen, da sie die vorliegenden Beweise nicht in Erwägung gezogen haben.

Dr. Evans ist ein Wissenschaftler, der einst im Klima-Finanzzirkus tätig war und schockiert war von dem, was er sah. Er sprach sich zuerst 2008 in höflicher Weise dagegen aus. Da zu viele Politiker dieser Welt noch nicht aufgewacht sind, zeigt er ihnen jetzt in deutlicher und für jeden Politiker verständlicher Sprache, wie es um den Klimamumpitz steht.

Diese Bilder sprechen für sich. Die Korruption der Klimawissenschaft ist so eklatant, so offensichtlich geworden, dass sogar Nichtwissenschaftler nicht mehr blauäugig behaupten können, dass sie „davon nicht wussten.“ Niemand braucht einen Doktortitel um zu merken, dass es Betrug ist, Thermometer in der Nähe künstlicher Hitzequellen aufzustellen und es dann „Treibhauseffekt" zu nennen

Warum messen sie Temperaturen auf diese Weise?

Abb. 2: Es gibt für das Thermometer sicher einen besseren Standort auf der anderen Seite des Parkplatzes, als in der Nähe der Klimaanlage, von Automotoren, Asphalt und neben Windbrechern! Photo: Anthony Watts, www.surfacestations.org und Joel McDade.

Die globale Erwärmung liegt in der Größenordnung von Zehntelgraden pro Jahrhundert, deshalb fällt jeder noch so leichte künstliche Messfehler spürbar ins Gewicht.

Um dies zu vermeiden, fordern die offiziellen Bestimmungen, dass ein Thermometer mindestens 100 Fuß (30 Meter) von gepflasterten oder betonierten Oberflächen, in offener Umgebung und gebietstypischer Bodenbedeckung aufgestellt werden muss.(1)

Anthony Watts (2), ein Meteorologe mit 25 Jahren Medienerfahrung, warb 650 Freiwillige an, um die 1.221 landbasierten, von der NOAA (Nationale Ozeanische und Atmo- sphärische Verwaltung) der USA beaufsichtigten Thermometer zu inspizieren und zu dokumentieren. (3) Von 860 Thermometern, die Anfangs 2009 inspiziert wurden, entsprachen ganze 89% nicht den offiziellen Anforderungen, weil sie zu nahe an künstlichen Wärmequellen (mit aktiver Ausstrahlung oder Hitzereflektion) aufgestellt sind.(4)

Warum fährt das Klimaestablishment fort, die offizielle Temperaturaufzeichnung von Thermometern zu beziehen, die fast alle zu nahe an künstlichen Wärmequellen liegen?

Was könnte das Motiv sein außer die offiziellen Temperaturen hochzumogeln? Warum wurde dies nur deshalb publik, weil Freiwillige die Sache anpackten und die offiziellen Thermometer fotografierten?…

von…Joanne Nova, David Evans. Übersetzung EIKE

Lesen Sie den ganzen Bericht mit 47 Seiten. Sie können ihn in Deutsch oder Englisch als pdf Datei herunterladen

Related Files




Eisbohrkerne und Pflanzenstomata: Der historische CO2 Gehalt der Atmosphäre war oft deutlich höher als 280 ppm!

Pflanzenstomata = verschließbare Poren der Epidermis (der äußeren Schicht) der oberirdischen, von Luft umgebenen grünen Pflanzenteile (meist Blattunterseite) der höher organisierten Pflanzen

Gastbeitrag von David Middleton

Einführung

Jeder, der sich schon mal Zeit genommen hat, die Literatur der Klimawissenschaft zu studieren, hat möglicherweise Variationen der folgenden Abbildung gesehen…

Aufzeichnungen des atmosphärischen CO2-Gehaltes über die letzten 1000 Jahre, ermittelt aus antarktischen Eisbohrkernen und moderner Messmethoden auf dem Mauna Loa legen nahe, dass der vorindustrielle atmosphärische Gehalt an CO2 relativ stabil war und bei etwa 275 ppmv bis zur Mitte des 19. Jahrhunderts gelegen hatte. Danach hat der CO2-Gehalt rapide zugenommen bis zu einer Menge, der oft als noch nie da gewesen während der letzten hunderttausende oder viele Millionen Jahre angesehen wurde.

Daten über den CO2-Gehalt aus Eisbohrkernen sind großartig. Diese Kerne können kontinuierliche Aufzeichnungen des CO2-Gehaltes von vor 800 000 Jahren bis zu den siebziger Jahren des vorigen Jahrhunderts liefern. Diese Eisbohrkerne bilden auch einen der Eckpfeiler für die Müllwissenschaft der Alarmisten [Warmista Junk Science]: Dass nämlich der CO2-Gehalt in der vorindustriellen Zeit bei 275 ppmv lag. Die  Abschätzungen des CO2-Gehaltes aus Eisbohrkernen der Antarktis sind jedoch überhaupt nicht konsistent mit fast allen anderen Methoden, den vorindustriellen CO2-Gehalt zu messen.

Es gibt folgende drei allgemeine Wege, die Konzentrationen von CO2 in vorindustriellen Zeiten zu ermittelt (bevor Messungen mit Messfühlern im Jahre 1959 begannen):

1) Messungen des CO2-Gehaltes in den im Eis eingeschlossenen Luftbläschen

2) Messungen der Dichte von Stomata in Pflanzen

3) GEOCARB (Berner et al., 1991, 1999, 2004): Ein geologisches Modell der Evolution atmosphärischen CO2-Gehaltes über das Phanerozoische Zeitalter [Phanerozoic Eon: Ein Zeitraum von 542 bis 0 Millionen Jahre vor unserer Zeitrechnung. Quelle: Wikipedia]. Dieses Modell wurde aus „geologischen, geochemischen, biologischen und klimatologischen Daten“ entwickelt. Als Haupttreiber gelten tektonische Vorgänge, die Verwesung organischen Materials sowie Verwitterung von Felsen auf den Kontinenten.

Eisbohrkerne

Der Vorteil antarktischer Eisbohrkerne liegt darin, dass sie eine kontinuierliche Aufzeichnung der relativen Änderungen des CO2-Gehaltes zurück bis zu einer Zeit vor 800 000 liefern, und zwar mit einer Auflösung von einzelnen Jahren im Engeren und multidekadischen im Weiteren. Aufzeichnungen in Bohrkernen aus dem Pleistozän scheinen eine starke Korrelation zwischen dem CO2-Gehalt und der Temperatur zu belegen; wobei jedoch die Änderungen des CO2-Gehaltes etwa 800 Jahre nach Änderungen der Temperatur erfolgten…

Eisbohrkerne aus Grönland werden selten zur Rekonstruktion des CO2-Gehaltes genutzt, reichen sie doch höchstens bis 130 000 Jahre zurück; noch älteres Eis wurde deformiert. Allerdings haben die Eisbohrkerne aus Grönland eine bessere zeitliche Auflösung, weil die Schneefallrate dort viel höher liegt als in der Antarktis. Das Komische an diesen grönländischen Eisbohrkernen: Sie zeigen während der Warmperioden des Holozäns und  der Pleistocene Interstadials ["eine Warmperiode, die wegen ihrer geringen Ausdehnung nicht den Namen Zwischeneiszeit verdient*] einen viel höheren CO2-Gehalt (330 bis 350 ppmv). Der Eisbohrkern Dye 3 zeigt einen mittleren CO2-Gehalt von 331 ppmv (+/- 17) während der präborealen Oszillation (etwa vor 11 500 Jahren). Diese höheren CO2-Gehalte wurden wegerklärt mit dem Argument, dass es in situ das Ergebnis von chemischen Reaktionen sei (Anklin et al., 1997).

Pflanzenstomata

Über die Stomata findet der Gasaustausch statt. Die Dichte der Stomata in einigen
C3-Pflanzen verhält sich umgekehrt proportional zur Konzentration von CO2 in der Atmosphäre. In lebenden Pflanzen kann dieser Zusammenhang während der letzten 60 Jahre gemessen und kalibriert werden. Der Vorteil der so gewonnenen Daten liegt darin, dass die Beziehung zwischen dem Index der Stomata und des atmosphärischen CO2-Gehaltes empirisch gezeigt werden kann…

Wagner et al., 2004. Reproduzierbarkeit des atmosphärischen CO2-Gehaltes im Holozän auf Basis der Dichte von Stomata. Quaternary Science Reviews 23 (2004) 1947–1954.

Wenn man den aus den Stomata abgeleiteten CO2-Gehalt (rot) mit demjenigen aus Eisbohrkernen (blau) vergleicht, erkennt man, dass die Stomata allgemein eine viel größere Variabilität des CO2-Gehaltes der Atmosphäre spiegeln und oft einen viel höheren Gehalt zeigen als die Bohrkerne…

Die Auswertung der Pflanzenstomata lassen vermuten, dass der vorindustrielle CO2-Gehalt der Luft zwischen 360 und 390 ppmv lag.

GEOCARB

GEOCARB zeigt eine kontinuiertliche Langzeitaufzeichnung atmosphärischer Änderungen des CO2, jedoch mit einer sehr niedrigen Frequenz…

Das Fehlen einer langzeitlichen Korrelation zwischen dem CO2 und der Temperatur wird gut ersichtlich, wenn man GEOCARB [ein paleogeologisches Modell mit verschiedenen Einflussgrößen zur Bestimmung von CO2 Daten über lange geologische Zeiträume Details z.B. hier 1994, GEOCARB II: A revised model of atmospheric CO2 over Phanerozoic time: American Journal of Science, v. 294, p. 56 –91. oder hier:] mit Veizers d18O-abgeleiteter Phanerozoischer Rekonstruktion der Temperatur vergleicht. Wie man in der obigen Abbildung erkennt, deuten die Pflanzenstomata auf eine viel größere Variabilität des CO2-Gehaltes hin, doch stützen sie allgemein die Ergebnisse des GEOCARB-Modells mit seiner niedrigeren Frequenz.

DISKUSSION

Eisbohrkerne und GEOCARB stellen langzeitliche Aufzeichnungen zur Verfügung; während die Reihen aus Pflanzenstomata unterbrochen und begrenzt sind auf fossile Pflanzen, die man genau datieren und mit bestehenden Pflanzenarten kalibrieren kann. GEOCARB liefert nur eingeschränkt Angaben über die Variabilität, Eisbohrkerne haben eine größere Auflösung und Stomata können sehr hohe Änderungsraten erbringen. Der gegenwärtige CO2-Gehalt ist nach den Daten von GEOCARB unspektakulär, nach den Daten der Eiskerne ohne Präzedenz und nach den Daten aus den Stomata nicht anomal. Also, mit welcher Methode kann man am besten den historischen CO2-Gehalt der Atmosphäre rekonstruieren?

Die Probleme mit den Eisbohrkernen sind 1) das Verhältnis zwischen Luft und Alter zum Verhältnis Eis und Alter und 2) die Effekte, die verschieden tiefen Einlagerungen auf die Gaskonzentrationen haben.

Das Alter der Eisschichten kann ziemlich einfach und genau bestimmt werden. Die Altersbestimmung der in das Eis eingeschlossenen Luftbläschen lässt sich dagegen nicht so einfach oder genau durchführen. Die am meisten verbreitete Methode für die Altersbestimmung ist gegenwärtig der Gebrauch des „Firn Densification Models“ (FDM). Firn weist eine größere Dichte als Schnee, aber eine geringere Dichte als Eis auf. Wenn die Schichten von Schnee und Eis immer tiefer begraben werden, werden sie zunächst zu Firn und dann zu Eis gepresst. Die Tiefe, in der die Poren im Firn geschlossen werden und die Gasbläschen gefangen sind, kann sehr variieren… Daher kann die Spannbreite zwischen dem Alter des Eises und der eingeschlossenen Luftbläschen von 30 bis über 2000 Jahre reichen.

Der Eisbohrkern EPICA C weist eine Spannbreite über 2000 Jahre auf. Die Poren haben sich nicht geschlossen, bevor sie eine Tiefe von 99 m erreicht hatten, wo das Eis 2424 Jahre alt ist. Nach dem FDM wurde die Luft des vergangenen Jahres in einer Eisschicht eingelagert, die vor über 2000 Jahren entstanden ist.

Ich habe viele Zweifel über die Genauigkeit der FDM-Methode. Ich bezweifle irgendwie, dass die Luft in einer Tiefe von 99 m die Luft aus dem vergangenen Jahr ist. Gas hat nicht die Tendenz, sich durch die Sedimente hindurch nach unten auszubreiten… Mit der geringeren Dichte als Fels oder Wasser tendiert es eher dazu, nach oben zu wandern. Das ist auch der Grund dafür, warum Erdöl und Erdgas fast immer viel älter sind als die Felsformationen, in denen sie sich gesammelt haben. Ich weiß wohl, dass Luft in Eis eindringt… Aber es scheint mir so, als ob es in der Tiefe zu einer Vermischung der gegenwärtigen Luft, die sich im Eis durchsetzt, und der von unten aufsteigenden älteren Luft kommt, bevor das Eis völlig verfestigt ist.

Eine Studie von Van Hoof et al. (2005) zeigt, dass die CO2-Daten aus Eisbohrkernen im Wesentlichen eine geringe Frequenz des CO2-Gehaltes in der Vergangenheit  im Bereich von einem bis zu mehreren Jahrhunderten repräsentieren.

Van Hoof et al., 2005. Atmosphärischer CO2-Gehalt im 13. Jahrhundert: Abgleich von Daten aus Eisbohrkernen und der Frequenzanalyse aus Stomata. Tellus (2005), 57B, S. 351 – 355.

Es scheint, dass die Eiskerndaten ein langfristiges Mittel mit niedriger Frequenz der atmosphärischen CO2-Konzentration zeigen, während sich aus den Stomata eine Komponente mit hoher Frequenz ergibt.

Die Daten aus den Stomata zeigen regelmäßig einen höheren CO2-Gehalt der Atmosphäre an als diejenigen aus den Eiskernen, vor allem für das vorige Interglazial (Eemian/Sangamonian)…

Rundgren et al., 2005. Änderungen des atmosphärischen CO2-Gehaltes im letzten Interglazial aus Stomatadaten und ihre Relation zu Klimavariationen. Global and Planetary Change 49 (2005) S. 47 – 62.

Die GEOCARB-Daten legen ebenfalls nahe, dass die CO2-Daten aus den Eisbohrkernen zu niedrig liegen…

Der mittlere CO2-Gehalt der Eiskerne aus dem Pleistozän zeigt um 36 ppmv niedrigere Werte als GEOCARB…

Jüngere Satellitendaten (NASA AIRS) zeigen, dass der atmosphärische CO2-Gehalt in den Polargebieten signifikant geringer ist als in niedrigeren Breiten…

AIRS kann die Konzentration von Kohlendioxid in der mittleren Troposphäre mit 15 000 Beobachtungen täglich überwachen, von Pol zu Pol über den gesamten Globus mit einer Genauigkeit von 1 bis 2 ppm und einer horizontalen Auflösung von 1° zu 1°. Die monatliche Verteilung in der rechten Karte ermöglicht es Forschern, Variationen im CO2-Gehalt in verschiedenen Breiten und verschiedenen Jahreszeiten viel besser zu bestimmen. Bild: NASA http://www.nasa.gov/topics/earth/agu/airs-images20091214.html

Die AIRS-Daten zeigen, dass das Kohlendioxid in der Erdatmosphäre nicht gleichmäßig verteilt ist, was durch direkte Messungen auch bestätigt wird. Der Gürtel maximaler CO2-Konzentration in der südlichen Hemisphäre, dargestellt in rot, erreicht sein Maximum im Juli und August, sein Minimum im Dezember und Januar. Es gibt einen Transportfluss von Kohlendioxid von der nördlichen zur südlichen Hemisphäre. Auf der Nordhemisphäre entsteht drei bis vier mal so viel anthropogenes Kohlendioxid wie auf der südlichen Hemisphäre. Bild: NASA: http://www.nasa.gov/topics/earth/agu/airs-images20091214.html

Also sollten die Eiskerndaten geringere Werte zeigen als die Pflanzenstomata und die Messungen auf dem Mauna Loa.

Kouwenberg et al. fanden 2005, dass „Aufzeichnungen der Frequenz von Nadeln des Baumes Tsuga heterophylla (Westamerikanische Hemlocktanne), die unter der Erde begraben lagen,  signifikante CO2-Fluktuationen im Maßstab von Jahrhunderten während des vorigen Jahrtausends zeigten“. 

Die Daten aus Pflanzenstomata zeigen eine viel größere Variabilität des atmosphärischen CO2-Gehaltes über die letzten 1000 Jahre als die Daten aus Eiskernen. Sie zeigen außerdem, dass der Gehalt während des vorigen Jahrtausends oft zwischen 300 und 340 ppmv lag, einschließlich eines Anstiegs um 120 ppmv vom späten 12. Jahrhundert bis zum mittleren 14. Jahrhundert. Die Stomatadaten deuten auch einen höheren CO2-Gehalt an als die auf dem Mauna Loa gemessenen Werte; jedoch nähern sich beide Werte mit einem gleitenden Mittel über 5 Punkte ganz gut an…

Eine Überprüfung historischer chemischer Analysen (Beck, 2007) zeigt sogar eine noch größere Variabilität des CO2-Anteils in der Atmosphäre als die Daten aus den Pflanzenstomata…

Was bedeutet das alles?

Das gegenwärtige „Paradigma“ besagt, dass der CO2-Gehalt der Atmosphäre von etwa 275 ppmv seit Mitte des 19. Jahrhunderts auf Werte um 388 ppmv gestiegen ist, und zwar als Ergebnis des Verbrennens von fossilen Energieträgern durch den Menschen. Der zunehmende CO“-Gehalt erwärmt möglicherweise den Planeten…

Jedoch, wenn wir den Nicht-Hockeyschläger nach Moberg (2005) betrachten, ändert sich die Korrelation zwischen Temperatur und CO2 ein wenig…

Moberg hat viel bessere Arbeit geleistet, die Komponente der niedrigen Frequenz des Klimasignals zu bewerten. Rekonstruktionen wie diese deuten auf ein viel variableres Klima während der letzten 2000 Jahre hin als jeder „Hockeyschläger“. Moberg konnte auch zeigen, dass die Erwärmung nach der Kleinen Eiszeit um das Jahr 1600 begonnen hatte, 260 Jahre, bevor der CO2-Gehalt zu steigen begann.

Wie man unten erkennen kann, sind geologisch konsistente Rekonstruktionen, wie sie Moberg und Esper durchgeführt haben, in viel besserer Übereinstimmung mit „direkten“ Messungen der Paläotemperatur als Alleys Eisbohrkernrekonstruktion aus dem inneren Grönland…

Um fair zu Dr. Mann zu sein, muss man erwähnen, dass er die Mittelalterliche Warmperiode ebenso wie die Kleine Eiszeit wieder eingeführt und zeitlich richtig zugeordnet hat; aber er nutzt immer noch Mike’s Trick, den Verlauf im 20. Jahrhundert in die Form eines Hockeyschlägers zu pressen.

Was passiert, wenn man die aus den Pflanzenstomata abgeleiteten CO2-Werte anstelle der Eiskerndaten benutzt?

Man findet, dass die Zeitverzögerung um etwa 250 Jahre konsistent ist. Der CO2-Gehalt erreichte sein Maximum 250 Jahre nach dem Höhepunkt der Mittelalterlichen Warmzeit und als die Abkühlung zur Kleinen Eiszeit begonnen hatte. Und es erreichte ein Minimum etwa 240 Jahre nach dem Tiefpunkt der Kleinen Eiszeit. In einer Weise ähnlich der Verzögerungen zwischen Eis- und Zwischeneiszeiten in den Eisbohrkernen zeigen die Daten aus den Pflanzenstomata dass Änderungen des CO2-Gehaltes den Temperaturänderungen des vorigen Jahrtausends um etwa 250 Jahre hinterher hinkten. Der Anstieg des CO2-Gehaltes, der im Jahre 1860 begonnen hatte, ist höchstwahrscheinlich auf die Erwärmung der Ozeane und der damit verbundenen Ausgasung zurückzuführen.

Zwar gibt es keine kontinuierlichen Stomatadaten während des Holozäns, aber es scheint so, als hätte es eine Zeitverzögerung auch im frühen Holozän gegeben…

Wenn sie erst einmal im tiefen Ozean gelöst sind, können Kohlenstoffatome mehr als 500 Jahre dort verbleiben. Daher ist eine Verzögerung um 150 bis 200 Jahre zwischen dem 1500 Jahre langen Klimazyklus und der Ausgasung der Ozeane  keine Überraschung.

Schlussfolgerungen

  • Daten aus Eisbohrkernen stellen eine niederfrequente Abschätzung atmosphärischer CO2-Änderungen zwischen den Glazialen und Interglazialen des Pleistozäns dar. Jedoch unterschätzen die Eiskerne die Variabilität des interglazialen CO2-Gehaltes erheblich.

  • GEOCARB zeigt, dass die Eiskerne den langzeitlichen CO2-Gehalt im Pleistozän um 36 ppmv unterschätzen.

  • Neue Satellitenbeobachtungen zeigen, dass der atmosphärische CO2-Gehalt in der Antarktis um 30 ppmv niedriger liegt als in niedrigeren Breiten.

  • Die Daten aus Pflanzenstomata zeigen, dass Eisbohrkerne nicht die CO2-Variationen im Maßstab von Jahrzehnten oder einem Jahrhundert auflösen, die von vergleichbarer Amplitude und Frequenz seit dem Beginn des Anstiegs um 1860 sind.

Daraus ergeben sich folgende Schlussfolgerungen:

  • Der CO2-Gehalt war vom frühen Holozän durch alle vorindustriellen Zeiten sehr variabel und nicht stabil, wie es die Eisbohrkerne aus der Antarktis nahelegen.

  • Die Kohlenstoff- und Klimazyklen zeigen in konsistenter Weise vom Frühen Holozän bis heute einen Zusammenhang.

  • Der Kohlenstoffzyklus hinkt dem Klimazyklus hinterher, kommt also als Antrieb für den Klimazyklus nicht in Betracht.

  • Die zeitliche Verzögerung ist mit der Hypothese eines von der Temperatur angetriebenen Kohlenstoffzyklus’ konsistent.

  • Der anthropogene Anteil am Kohlenstoffzyklus seit 1860 ist minimal und ohne Konsequenzen.

Hinweis des Autors: Alle Klimarekonstruktionen, die in diesem Beitrag beschrieben werden, gelten für die Nordhemisphäre, es sei denn, es wurde ausdrücklich auf die Südhemisphäre hingewiesen.

David Middleton; den Originalartikel finden Sie hier

Hinweis des Übersetzers: Einige Abbildungen enthalten eine längere Legende, die gewürzt ist mit allen möglichen Fachausdrücken. Da jedoch der Inhalt der Abbildungen auch im Text zusammenfassend beschrieben wird, wird hier auf eine Übersetzung dieser Inschriften verzichtet.

Übersetzt und mit einer Einführung versehen von Chris Frey für EIKE

den 2. Teil dieses interessanten Artikels finden Sie hier und die Übersetzung hier:

Eisbohrkerne aus der Antarktis: Probleme bei der Auswertung

In meinem ersten Gastbeitrag (CO2: Ice Cores vs. Plant Stomata, auf EIKE: hier) wurde die Qualität der Auswertungen von Eisbohrkernen mit denen von Pflanzenstomata verglichen.  Eine der grundlegenden Arbeiten zu diesem Thema, aus der ich zitiert hatte, stammt von Thomas van Hoof mit dem Titel „Atmospheric CO2 during the 13th century AD: reconciliation of data from ice core measurements and stomatal frequency analysis.” (Etwa: Der atmosphärische CO2-Gehalt während des 13. Jahrhunderts: Abgleich von Daten aus Eisbohrkernen und der Analyse von Pflanzenstomata). Van Hoof und seine Mitautoren zeigten, dass die Eiskerne aus der Antarktis lediglich die niederfrequente Komponente des CO2-„Signals“ spiegelten…

Es ist weithin bekannt, dass Diffusionsprozesse innerhalb der Firnschicht und dem graduellen Einschluss von Luftbläschen im langsam von Schnee zu Eis werdenden Firn nur ein abgeschwächtes Signal der ursprünglichen atmosphärischen Variabilität liefern und hochfrequente Variationen verschleiern können. (Z. B. Trudinger et al., 2003)

Dieser „Diffusionsprozess” ist zuallererst abhängig von der Schneezuwachsrate. Je höher der Schneezuwachs, umso weniger Diffusion und umso höher die Auflösung der Veränderungsfrequenzen. Verdichtungseffekte durch die Ablagerung immer neuer Schichten von Schnee können zum Diffusionsprozess beitragen. Die Studie von Dr. van Hoof zeigte deutliche Beweise dafür, dass die Chronologie aus Pflanzenstomata eine viel höhere Auflösung des CO2-Signal ergeben kann als in den Eiskernen. Ich fragte mich, ob irgendwelche Beweise für Diffusionseffekte von CO2-Variationen  in den Eiskernen identifiziert werden können oder nicht, und zwar durch das Verhältnis zwischen der CO2-Durchmischung und der Rate der Schneezunahme. Die paläoklimatische Bibliothek der NOAA enthält keine Angaben zur Rate der Schneedeckenerhöhung von antarktischen Eisbohrkernen; aber der Zuwachs kann angenähert durch die Berechnung einer beispielhaften Zuwachsrate abgeschätzt werden.

Ich verwendete Daten von zwei antarktischen Eiskernen (Law und Taylor Domes), die die meiste Zeit des Holozäns abdecken (11 kya bis zum frühen 20. Jahrhundert) und verglich den Zuwachs mit dem Mischungsverhältnis von CO2. Die Raten wurden errechnet, indem einfach das Intervall der Schneehöhe durch das Zeitintervall der Eiszeit dividiert wurde:

sr = [(zn – zn+1) / (tn – tn+1)]

Hier ist sr = Zuwachsrate (m/yr), z = Höhe (m) und t = Eiszeitalter (yr)

Dann habe ich das Mischungsverhältnis des CO2 und der Zuwachsrate graphisch dargestellt. Es ist nicht überraschend, dass sich eine starke Korrelation während des gesamten Holozäns zeigt…

Antarktische Eisbohrkerne: Zuwachsrate im Vergleich zu CO2 während des Holozäns.

Dies zeigt sehr deutlich, dass die niedrigen CO2-Werte in den Eiskernen der Antarktis während des Holozäns leicht das Ergebnis von Diffusionsprozessen sein können und nicht als Beweis für einen stabilen CO2-Gehalt der Luft von etwa 275 ppmv in vorindustrieller Zeit taugen.

Literatur zu Teil 2

Etheridge, D.M., L.P. Steele, R.L. Langenfelds, R.J. Francey, J.-M. Barnola, and V.I. Morgan. 1996.  Natural and anthropogenic changes in atmospheric CO2 over the last 1000 years from air in Antarctic ice and firn. Journal of Geophysical Research 101:4115-4128.

Indermühle A., T.F. Stocker, F. Joos, H. Fischer, H.J. Smith, M. Wahlen, B. Deck, D. Mastroianni, J. Tschumi, T. Blunier, R. Meyer, B. Stauffer, 1999, Holocene carbon-cycle dynamics based on CO2 trapped in ice at Taylor Dome, Antarctica. Nature 398, 121-126.

Van Hoof, T.B., K.A. Kaspers, F. Wagner, R.S.W. van de Wal, W. Kürchner, H. Vissher, 2005. Atmospheric CO2 during the 13th century AD: reconciliation of data from ice core measurements and stomatal frequency analysis. Tellus (2005), 57B, 351–355.

Übersetzt von Chris Frey für EIKE

* Mit Dank an Leser Crisis Maven

Literatur zu Teil 1

References

Anklin, M., J. Schwander, B. Stauffer, J. Tschumi, A. Fuchs, J.M. Barnola, and D. Raynaud, CO2 record between 40 and 8 kyr BP from the GRIP ice core,  (C12), 26539-26545, 1997.

Wagner et al., 1999. Century-Scale Shifts in Early Holocene Atmospheric CO2 Concentration. Science 18 June 1999: Vol. 284. no. 5422, pp. 1971 – 1973.

Berner et al., 2001. GEOCARB III: A REVISED MODEL OF ATMOSPHERIC CO2 OVER PHANEROZOIC TIME. American Journal of Science, Vol. 301, February, 2001, P. 182–204.

Kouwenberg, 2004. APPLICATION OF CONIFER NEEDLES IN THE RECONSTRUCTION OF HOLOCENE CO2 LEVELS. PhD Thesis. Laboratory of Palaeobotany and Palynology, University of Utrecht.

Wagner et al., 2004. Reproducibility of Holocene atmospheric CO2 records based on stomatal frequency. Quaternary Science Reviews 23 (2004) 1947–1954. 

Esper et al., 2005. Climate: past ranges and future changes. Quaternary Science Reviews 24 (2005) 2164–2166.

Kouwenberg et al., 2005. Atmospheric CO2 fluctuations during the last millennium reconstructed by stomatal frequency analysis of Tsuga heterophylla needles. GEOLOGY, January 2005.

Van Hoof et al., 2005. Atmospheric CO2 during the 13th century AD: reconciliation of data from ice core measurements and stomatal frequency analysis. Tellus (2005), 57B, 351–355.

Rundgren et al., 2005. Last interglacial atmospheric CO2 changes from stomatal index data and their relation to climate variations. Global and Planetary Change 49 (2005) 47–62.

Jessen et al., 2005. Abrupt climatic changes and an unstable transition into a late Holocene Thermal Decline: a multiproxy lacustrine record from southern Sweden. J. Quaternary Sci., Vol. 20(4) 349–362 (2005).

Beck, 2007. 180 Years of Atmospheric CO2 Gas Analysis by Chemical Methods. ENERGY & ENVIRONMENT. VOLUME 18 No. 2 2007.

Loulergue et al., 2007. New constraints on the gas age-ice age difference along the EPICA ice cores, 0–50 kyr. Clim. Past, 3, 527–540, 2007.

DATA SOURCES

CO2

Etheridge et al., 1998. Historical CO2 record derived from a spline fit (75 year cutoff) of the Law Dome DSS, DE08, and DE08-2 ice cores.

NOAA-ESRL / Keeling.

Berner, R.A. and Z. Kothavala, 2001. GEOCARB III: A Revised Model of Atmospheric CO2 over Phanerozoic Time, IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series # 2002-051. NOAA/NGDC Paleoclimatology Program, Boulder CO, USA.

Kouwenberg et al., 2005. Atmospheric CO2 fluctuations during the last millennium reconstructed by stomatal frequency analysis of Tsuga heterophylla needles. GEOLOGY, January 2005.

Lüthi, D., M. Le Floch, B. Bereiter, T. Blunier, J.-M. Barnola, U. Siegenthaler, D. Raynaud, J. Jouzel, H. Fischer, K. Kawamura, and T.F. Stocker. 2008. High-resolution carbon dioxide concentration record 650,000-800,000 years before present. Nature, Vol. 453, pp. 379-382, 15 May 2008. doi:10.1038/nature06949.

Royer, D.L. 2006. CO2-forced climate thresholds during the Phanerozoic. Geochimica et Cosmochimica Acta, Vol. 70, pp. 5665-5675. doi:10.1016/j.gca.2005.11.031.

TEMPERATURE RECONSTRUCTIONS

Moberg, A., et al. 2005. 2,000-Year Northern Hemisphere Temperature Reconstruction. IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series # 2005-019. NOAA/NGDC Paleoclimatology Program, Boulder CO, USA.

Esper, J., et al., 2003, Northern Hemisphere Extratropical Temperature Reconstruction, IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series # 2003-036. NOAA/NGDC Paleoclimatology Program, Boulder CO, USA.

Mann, M.E. and P.D. Jones, 2003, 2,000 Year Hemispheric Multi-proxy Temperature Reconstructions, IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series #2003-051. NOAA/NGDC Paleoclimatology Program, Boulder CO, USA.

Alley, R.B.. 2004. GISP2 Ice Core Temperature and Accumulation Data. IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series #2004-013. NOAA/NGDC Paleoclimatology Program, Boulder CO, USA.

VEIZER d18O% ISOTOPE DATA. 2004 Update.




Lord Monckton: In Cancun hat der Westen abgedankt!

Die 33-seitige Note (FCCC/AWGLCA/2010/CRP.2) der “Ad-Hoc Working Group on Long-Term Cooperative Action under the Convention” mit dem Titel Possible elements of the outcome – Note by the Chair (Mögliche Ergebniselemente – Note des/der Vorsitzenden) sagt alles. Oder nichts, wenn man nicht den komplexen, obskuren Jargon versteht.  Alle UNFCCC-Dokumente der Cancuner Konferenz und besonders die Note „Possible elements of the outcome“ sind in der sogenannten “transparenten Unverständlichkeit” entworfen. Die Dokumente sollen  unverständlich sein, damit uns nachher gesagt werden kann, dass sie die ganze Zeit öffentlich zugänglich gewesen sind – worüber wollen wir uns also beschweren?

Die Note ist nicht sehr lang, ich will die Hauptpunkte zusammenfassen:

Finanzen:

Der Westen wird gemeinsam $100 Milliarden pro Jahr bis 2020 in einen namenlosen neuen UNO-Fonds einzahlen. Um diese Summe an die Zunahme des BSP zu koppeln, darf sich der Westen verpflichten, 1,5 % des BSP jährlich an die UNO zu zahlen. Das ist mehr als doppelt so viel wie die 0,7 % des BSP, welche die UNO dem Westen als Enwicklungshilfe für das vergangene halbe Jahrhundert empfahl. Mehrere hundert Klauseln in der Note des/der Vorsitzenden werden den Staaten des Westens riesige finanzielle Kosten auferlegen.

Das Sekretariat der Welt-Regierung:

Nicht dem Namen nach, aber ansonsten wird das Sekretariat der UNO-Konvention zu einer Weltregierung werden, die Hunderte von globalen, übernationalen, regionalen, nationalen und sub-nationalen Bürokratien direkt steuern wird. Es wird die große Summe des Geldes der Steuerzahler erhalten, die deutlich erkennbar nur vom Westen an die Dritte Welt bezahlt werden soll, damit sie sich an die widrigen Folgen eines eingebildeten (und imaginären) „Klimawandels“ anpassen kann.

Bürokratie:

Hunderte  neuer sich überschneidender Bürokratien, die an das Weltregierungs-Sekretariat berichten, werden dessen Macht und Möglichkeiten stark ausweiten. So wie es die Europäische Union mit ihrer Methode macht, bei der Durchsetzung des Willens eines nicht gewählten Kommissars  gegen die ächzenden Völker des verdunkelten europäischen Festlandes, werden sich die Beamten als Diener eines Großreiches des Sekretariats fühlen und dessen Ukasse und Diktate durchziehen, ohne Rücksicht auf den politischen Willen der Nationalstaaten.

Viele der neuen Bürokratien sind als “Aufbauhilfe für Entwicklungsländer” getarnt. Das hat nichts mit den sich entwickelnden Volkswirtschaften oder Industrien der ärmeren Staaten zu tun. Es bedeutet in Wahrheit die Einrichtung von Hunderten von Büros in vielen Staaten der Erde, die nur dem Sekretariat verantwortlich sind. Wer das bezahlt?
Sie natürlich, lieber Steuerzahler.

Babylon, Byzanz, das spätere Osmanische Reich, die schreckliche Bürokratie Nazi-Deutschlands, das riesige Reich der 27.000 Papierschieber bei der Europäischen Union: das muss man alles zusammenaddieren und mit 100 multiplizieren, um dann immer noch nicht auf die schiere Größe, die Kosten, die Macht und die Wirkmöglichkeit der neuen Ableger des Sekretariats zu kommen.

Zusätzlich zu den neuen Bürokratien in jedem der 193 Mitgliedstaaten der Konvention wird es

ein Anpassungsrahmengremium geben, ein Anpassungsgremium für die am wenigsten entwickelten Länder, ein Anpassungskomitee, Regionale Netzwerkzentren, ein Internationales Zentrum zur Verbesserung der Anpassungsforschung, nationale Anpassungsinstitutionen, ein Gremium zur Klärung von Annahmen und Bedingungen für Ansprüche aus Verminderungen nationaler Treibhausgasemissionen, ein Verhandlungsgremium für die Zielwerte zusammengefasster Emissionsverminderungen und nationaler Ziele, ein Büro zur Überarbeitung der Richtlinien für nationale Mitteilungen, eine Multilaterales Büro für den Mitteilungsprozess, ein Gremium für Fortschritte bei der Entwicklung von Modalitäten und Richtlinien für das Erfüllungsverfahren, eine Registratur angemessener nationaler Schadensminderungsaktionen in entwickelten Ländern, ein Gremium für die Überwachung des Verständnisses für die Verschiedenartigkeit von eingereichten Schadensminderungszielen und benötigter Hilfe, ein Gremium zur Entwicklung von Modalitäten für die Registrierung von geeigneten nationalen Modalitäten von Schadensminderungsaktionen, ein Büro für Internationale Konsultation und Analyse; ein Büro zur Leitung eines Arbeitsprogramms für die Entwicklung von unterschiedlichen Modalitäten und Empfehlungen; ein Netzwerk von Büros der Entwicklungsländer für nationale strategische Waldaktionspläne; ein Netzwerk nationaler Wald-Referenz-Emissionsmengen und/oder Wald-Referenzemissionsgremien; ein Netzwerk nationaler Waldüberwachungssysteme; ein Büro für das Ackerbau-Arbeitsprogramm zur Verbesserung der Umsetzung von Artikel 4, Para. 1c der Konvention zur Berücksichtigung des Paragrafen 31; einen oder mehrere Mechanismen zur Einrichtung eines auf dem Markt beruhenden Ansatzes zur Verbesserung und Beförderung der Kostenwirksamkeit der Schadensminderungsaktionen; ein Forum zur Auswirkung der Durchführung von Antwortmaßnahmen; ein Arbeitsprogramm zur Untersuchung der Auswirkung des Umsetzungsmechanismus der Antwortmaßnahmen; ein Gremium zur Überprüfung des finanziellen Hilfsbedarfs der Entwicklungsländer bei der Bekämpfung des Klimawandels und der Auswahl von Optionen zur Mobilisierung dieser finanziellen Hilfen; ein Fonds zusätzlich zum Kopenhagen „Green Fond“; ein Interim-Sekretariat für die Entwurfsphase des neuen Fonds; ein neues Gremium zur Unterstützung der Mitgliederkonferenz beim Ausüben ihrer Funktionen in Bezug auf den Finanziellen Mechanismus; ein Gremium zum Starten eines Prozesses zur weiteren Definition der Rollen und Funktionen dieses neuen Gremiums zur Unterstützung der Mitgliederkonferenz beim Ausüben seiner Funktionen in Bezug auf den Finanziellen Mechanismus; ein Leitendes Technologiekomitee; ein Klimatechnologiezentrum und Netzwerk; ein Netzwerk von nationalen, sektoralen und Internationalen Technologiezentren, Netzwerken, Organisationen und Initiativen; Partnerschaftszentren für das Vorwärtsbringen von Nord-Süd, Süd-Süd und trilateralen Partnerschaften mit der Aussicht zur Ermutigung kooperativer Forschung und Entwicklung; einen Expertenworkshop für die Durchführungsmodalitäten des Technologiemechanismus; eine internationale Versicherungseinrichtung; ein Arbeitsprogramm-Gremium für Strategien und positive Anreize in Fragen der Reduzierung von Emissionen infolge der Entwaldung und der Waldschäden in Entwicklungsländern; ein Gremium zur Umsetzung eines Arbeitsprogramms über die Auswirkung der Umsetzung von Antwort-Maßnahmen; und ein Gremium zur Entwicklung von Modalitäten für die Operationalisierung des Arbeitsprogramms über die Auswirkung der Umsetzung von Antwort-Maßnahmen.

Die Machtbefugnis der Weltregierung:

Das Sekretariat soll die Nationalstaaten nicht nur einladen dürfen, sondern sie auch zur Einhaltung ihrer Pflichten aus der Klimawandel-Konvention zwingen können. Die Nationalstaaten müssen angewiesen werden können, große Mengen von Informationen zu erheben, zusammenzustellen und zu übermitteln, in der Art und Weise, wie es das Sekretariat und seine waschsende Zahl von untergeordneten Gremien vorgeben. Sie werden neue Befugnisse erhalten, um Informationen zu verifizieren, zu überprüfen und auf der Grundlage dieser Überprüfung den Nationalstaaten zu sagen, was sie dürfen und was nicht. 

Ständiges Wachstum:

Das Verb “verbessern” (enhance) wird mindestens 28 Mal in seinen verschiedenen Formen in der Note des/der Vorsitzenden gebraucht. Ähnliche Verben, z. B.  „verstärken“ (strengthen) und “ausweiten” (extend), sowie Adjektive wie “vergrößert” (scaled-up), “neu” (new) und “zusätzlich” (additional) werden ebenso häufig benutzt, besonders in Bezug auf die finanzielle Ausstattung zu Lasten der westlichen Steuerzahler. Wenn alle in der Note vorgeschlagenen “Verbesserungen” durchgeführt würden, erreichten die Kosten leicht ein Jahresbudget von über $100 Milliarden (oder die zu diesem Zwecke genannten 1.5% des BSP), die die Note für den Westen für das nächste Jahrzehnt erwähnt.

Schutzrechte für Erfindungen:

Patentinhaber, besonders auf dem Gebiet der Klimawandels und seiner Abmilderung, sollen verpflichtet werden, die Gewinne aus ihrer Erfindungskraft den Entwicklungsländern zu übergeben, ohne dass sie Lizenzeinnahmen erhalten. Das wird nirgendwo explizit in der Note des/der Vorsitzenden gesagt, doch Technologietransfer wird etwa 20 Mal im Entwurf genannt, was nahelegt, dass diese ausdrückliche Regelung aus dem gescheiterten Kopenhagener Vertrag vom 15. 9. 2009 übernommen werden soll.

Versicherung:

Das Sekretariat schlägt eine so starke Einmischung in die Geschäfte des weltweiten Versicherungsmarktes vor, dass der freie Markt dort aufhört mit den üblichen negativen Konsequenzen für jeden auf diesem Markt Tätigen.

Der freie Markt:

Der gescheiterte Kopenhagener Vertragsentwurf wollte die neue “Steuerung” so einrichten, dass sie die Macht gehabt hätte, die Regeln aller vormals freier Märkte zu bestimmen. Es würde keine freien Märkte mehr geben. In Cancun sagt die Note des/der Vorsitzenden nur, dass verschiedene “Marktmechanismen“ vom Sekretariat und den Mitgliedern der Konvention genutzt werden könnten: die Verweise auf diese “Marktmechanismen“ sind so häufig, dass man den Eindruck einer weiterbestehenden Absicht zur Auslöschung der freien Märkte gewinnt.

Wissen ist Macht:

Die Note des/der Vorsitzenden enthält viele Verweise auf eine Vielzahl von neuen wie bereits existierenden Verpflichtungen der Nationalstaaten, das Sekretariat mit Informationen in einer von diesem diktierten Art und Weise zu versorgen. Da erkennt man die Handschrift der EU.

Sie hat die Mitgliedstaaten in vier Stufen um deren Macht gebracht: anfänglich als reines Sekretariat zur Sicherung der Kohle- und Stahlversorgung für den Wiederaufbau Europas nach dem 2. Weltkrieg; dann als eine Registratur, die von den Mitgliedstaaten immer mehr Informationen einforderte; dann als Überprüfungsgremium, das den Mitgliedstaaten aufgrund der von ihnen übermittelten Informationen mitteilte, ob sie ihre Verpflichtungen aus den immer längeren und komplexeren Texten der Europäischen Verträge erfüllten; schließlich und letztendlich als oberste Gesetzgebungsautorität, der alle gewählten Parlamente einschließlich des Europa-„Parlamentes“ unterworfen sind.
Unter dem Cancun-Vorschlag folgt das Sekretariat dem Pfad, den ihm die Pest der EU-Vertreter zweifellos eifrig anempfohlen hat. Es maßt sich nun vielerlei Rechte an, nicht nur beim Einfordern von Informationen von den Nationalstaaten, es will sie auch aufgrund der von ihnen pflichtgemäß übermittelten Informationen zur Verantwortung ziehen, damit sie ihre internationalen Verpflichtungen unter der Klimawandelkonvention einhalten.

Propaganda:

Die Note des/der Vorsitzenden enthält an vielen Stellen die Vorstellung, dass die Völker der Welt mehr über den Klimawandel erfahren müssten. Auch das ist eine Parallele zur EU, die einen Propaganda-Fonds von etwa $250 Million pro Jahr verwaltet, nur um einem immer skeptischer werdenden Volk nahe zu bringen, wie wunderbar sie doch sei. Auch das IPCC gibt alljährlich Millionen für PR-Agenturen aus mit dem Auftrag, seine grauenerregende  Botschaft über neue Wege weiter zu verbreiten, so dass jedermann sie versteht und sich ängstigt. Das Sekretariat erfreut sich schon einer unkritischen, ergebenen, wissenschaftlich unbedarften, in wirtschaftlichen Dingen rechenschwachen, oder einfach nur dummen Medienresonanz. Jetzt soll es auch noch einen Fonds erhalten, um das Spiel weiter zu treiben.

Der vom Prozess angerichtete Schaden:

Weil empfindsamere Nationalstaaten wie die USA, die Tschechische Republik, Japan, Kanada und Italien darauf bestanden haben, steht im  Cancun-Ergebnis, dass der Prozess beträchtlichen wirtschaftlichen Schaden anrichtet. Das nennt die Note des/der Vorsitzenden feinsinnig “unerwünschte Nebenwirkungen der Einführung von klimasteuernden Maßnahmen“. Wie soll die Lösung aussehen? Die Behandlung der katastrophalen wirtschaftlichen Konsequenzen der heldenhaft wahnsinnigen Entscheidungen des Sekretariats soll in die Zuständigkeit des – ja, sie lesen richtig – des Sekretariats selbst fallen. Eine schon bewundernswürdige Unverfrorenheit!

Schaden für den Welthandel:

In dem Maße, wie das Vermögen und die Wirkungsreichweite des Sekretariats wachsen werden, reibt es sich selber an den anderen supranationalen Organisationen. Ganz besonders wird die Welthandelsorganisation WTO immer nervöser über die zahlreichen Vorschläge des Sekretariats, welche Beschränkungen des internationalen Handels darstellen. In mehreren Punkten drückt die Note des/der Vorsitzenden den “Entschluss” aus, dass die Politik des Sekretariats keine Handelsbeschränkungen erzeugen soll. Das ist aber nur eine Ansicht und noch dazu eine bezweifelbare.

Die Canute-Vorschrift:

Die Konferenz hält die Entscheidung ihrer Vorgängerkonferenz von Kopenhagen 2009 aufrecht, “die Zunahme der globalen Durchschnittstemperatur unter 2 C Grad im Vergleich zur vorindustriellen Höhe zu halten“. Einfach so! Tatsächlich hat sich die Temperatur in Mittel-England, implizit damit auch weltweit, um 2,2 C Grad binnen 40 Jahren von 1695-1735 erhöht, als die Sonne aus ihrem 11.400-jährigen Aktivitätsminimum herauskam. Im 20. Jh. wurden noch einmal 0,74 C Grad zugelegt. Im 21. Jh. hat es keine Erwärmung mehr gegeben, wir stehen aber schon bei gut 2 C Grad über dem vorindustriellen Niveau.

Die Canute-Vorschrift [den Temperaturanstieg auf 2 C Grad begrenzen] demonstriert die Trennung zwischen dem Prozess und der Wirklichkeit. Sie wurde scherzhaft von einigen Delegierten so getauft, weil einst der gleichnamige dänische König im alten England schmerzhaft die Grenzen seiner und auch seiner Höflinge Macht erleben musste, als er beim Aufstellen seines Thrones am Strand dem Meer befahl, nicht mehr zu steigen. Doch die Flut kam wie gewöhnlich und machte die königlichen Beine nass.

Auslassungen:

Es gibt einige hochbedeutsame Auslassungen, die zusammengenommen die zentrale Absicht bestätigen, dass “der Prozess” nichts mehr mit dem Klima zu tun hat, selbst wenn das jemals so gewesen wäre. Das Ziel ist die Verstärkung der Macht und noch stärker die Bereicherung der internationalen politischen Klasse zum Schaden der Völker des Westens. „Klima” wird als Vorwand benutzt, um die Europäischen Union zu kopieren und dauerhaft das einzurichten, was einige Delegierte einen “transnationalen Perma-Sozialismus” nennen, der nicht mehr der Wählerzustimmung unterworfen ist. Hier folgen die bezeichnenden Auslassungen:

Wissenschaft:

Die Frage, ob diese weite Ausdehnung supranationaler Macht wissenschaftlich zu rechtfertigen ist, wird nicht mehr gestellt. Stattdessen gibt es eine frömmelnde Zustimmung zum abergläubischem Vertrauen in das IPCC an den Stellen, wo die Konferenz “anerkennt, dass tiefe Einschnitte bei den globalen [Treibhausgas-] Emissionen nötig sind, wie die Wissenschaft fordert und wie im Vierten Auswertebericht (AR4 IPCC) dokumentiert ist.

Wirtschaft:

Es findet keine Beurteilung des Ausmaßes statt, wie kostenwirksam auch nur eine der vorgeschlagenen Aktionen zur Steurung der “globalen Erwärmung” durch die Verminderung von CO2-Emissionen oder zur Anpassung der Welt an den Klimawandel ist. Kein Wort wird auch bezeichnenderweise darüber verloren, wie die Kostenwirksamkeit beim Vergleich zwischen „Verminderung“ (mitigation) oder „Anpassung“ (adaptation) aussähe: schon bei der Strukturierung  des IPCC war ja sorgfältig darauf geachtet worden, „Verminderung“ und „Anpassung“ in zwei gänzlich getrennten Bürokratien anzusiedeln, damit voneinander verschiedene Berichte erstellt würden, die aussagekräftige Vergleiche erschwerten. Obgleich jede ökonomische Analyse dieser Hauptfrage nach der Wirtschaftlichkeit – im Gegensatz zu der des inzwischen verrufenen Lord Stern – enthüllt, ist Vermeidung eine nutzlose Dummheit, und gezielte Anpassung an die Folgen eines vielleicht einmal stattfindenden „Klimawandels” ist um Größenordnungen billiger und kostenwirksamer. Trotzdem hält das Ergebnis der Cancun-Konferenz daran fest, dass Vermeidung wirtschaftlich ebenso nützlich ist wie Anpassung.

Kündigung:

Verträge haben Kündigungsklauseln, die bestimmen, was geschieht, wenn ein Vertrag endet. Nichts illustriert die Absicht zur Schaffung einer dauerhaften Weltregierung besser, als das Fehlen jeglicher Kündigungsregelungen im Cancun-Ergebnis. Der Prozess soll ewig sein, wie ein Diamant.

Demokratie:

Mit der Volkssouveränität wird es vorbei sein. Das Prinzip „keine Besteuerung ohne Volksvertretung“, das zur Gründung der Vereinigten Staaten führte, kann man vergessen. Die Vorkehrungen einer demokratischen Wahl durch die Völker der Welt dieses neuen allmächtigen, gesetzgebenden, Steuern erhebenden Weltregierungs-Sekretariats können in einem einzigen Wörtchen genannt werden: Keine.

Wie konnte dieser monströse Machttransfer von den einst stolzen, souveränen, demokratischen Nationen auf das korrupte, nicht gewählte Sekretariat geschehen? Die Geschichte beginnt bei Sir Maurice Strong, einem schwerreichen UNO-Bürokraten aus Kanada, der vor einem Vierteljahrhundert das IPCC nicht als wissenschaftlichen Ausschuss, sondern als intergouvernmentales politisches Gremium schuf, das dahin gebracht werden konnte, das langfristige UNO-Ziel der Auslöschung der nationalen Unabhängigkeiten und der Schaffung einer Weltregierung zu unterstützen. So haben es im vergangenen Mai auf einem UNO-Gipfel hohe UNO-Offizielle unter Ban Ki-Moons Leitung selbst wieder bestätigt.

Ernsthaft hat dieser Prozess 1988 begonnen, als das IPCC aufgestellt wurde. Kurz darauf erschien an einem besonders heißen, von Al Gore deswegen absichtlich ausgesuchten Junitag, James Hansen vor einem Kongress-Ausschuss in Washington und zeigte eine wild übertriebene Grafik mit einer vorhergesagten globalen Erwärmung für die künftigen 20 bis 30 Jahre. Hansen war einer von Al Gores politischen Weggefährten und finanziell von ihm begünstigt. Im Juni 2008 jedoch, dem 20. Jahrestag der Anhörung, war es global kühler als im Juni 1988. Die globale Erwärmung gab es nur halb so stark wie vorhergesagt.

Beim Rio-Erdgipfel 1992 durften Umweltaktivisten und Weltpolitiker ihre Schau abziehen. Aus jenem Gipfel kam die UN Framework Convention on Climate Change, UNFCCC, die von da an jährliche Konferenzen zum “Klimalwandel” abhielt.

Das Kyoto-Protokoll von 1997 verpflichtete seine Unterzeichner, die nationalen CO2-Emissionen auf die 1990er Höhen bis 2012 zurückzufahren. Die meisten werden das nicht schaffen. Der US-Senat unter dem Vorsitz von Al Gore stimmte mit 95:0 dafür, jeglichen Vertrag von der Kyoto-Art abzulehnen, der nur den Westen binden und den Entwicklungsländern wie z. B. China erlauben würde, CO2 ohne Begrenzung zu emittieren.

Bis zur Bali-Konferenz 2007 gab es ganz geringe Fortschritte: auf jener Konferenz aber wurde eine “road-map” gebastelt, die zu einem bindenden Vertrag auf der Kopenhagen-Konferenz 2009 führen sollte.

Hier ist ein Problem zu nennen. Die Verfassung der USA sieht vor, dass selbst die Präsidentenunterschrift unter einem Vertrag nicht gilt, solange über den Vertrag nicht im Senat debattiert, und zumindest eine Mehrheit von 67 von 100 Senatoren ihn ratifiziert hat.
Jedermann weiß inzwischen, dass nach dem Scheitern der Obama-Regierung mit dem Waxman/Markey-Emissionshandelsgesetz, wo 60 Senatoren mit Schmeicheleien und Drohungen zur Zustimmung gebracht werden sollten, kein Klimaschutzgesetz den Senat passieren wird.

Umso schlimmer, dass sich das Sekretariat nun mächtig übernommen hat. Es glaubt an seine eigene Propaganda, abgesehen von dem kleinen Ärgernis, dass nur ganz wenige öl- und kohlenstoffindustrie-finanzierte Skeptiker mit der Behauptung widersprechen, der „Klimawandel“ wäre gering und harmlos. So hatte das Sekretariat auf seiner eigenen Webseite einen 186-seitigen Entwurf für einen Kopenhagener Vertrag ins Netz gestellt mit dem Vorschlag, dass es sich in eine nicht gewählte Regierung verwandeln wollte mit der unbeschränkten Macht, den Signatarstaaten direkte Steuern aufzuerlegen, ohne parlamentarisches Mandat, ohne Möglichkeit, sich dagegen zu verwahren. Weiterhin, sich direkt in die Umweltpolitik der einzelnen Staaten einzumischen, alle freien Märkte weltweit wegzufegen, und sich selbst als alleinige Steuerungsbehörde für alle Märkte einzusetzen (Kopenhagener Vertragsentwurf, Annex 1, Artikel 36-38). Einige Zitate aus dem Entwurf machen klar, was die UNO anstrebt:

 “Das Konzept der neuen vertragsgemäßen Einrichtung ruht auf drei Grundpfeilern: 

Steuerung;

Fördermechanismus, Finanzmechanismus. … Die Steuerung wird von der Konferenz der Mitgliedstaaten der UNO Framework Convention on Climate Change (FCCC) bestimmt, dazu kommt die Unterstützung eines neuen Hilfsgremiums zur Anpassung, und eines Leitenden Ausschusses, der für die Verwaltung der neuen Gelder und der zugehörigen Vergabeprozesse und Vergabegremien verantwortlich ist. (Kopenhagener Vertragsentwurf v. 15. September 2009, Zi. 38).

Die drei zentralen Machtbefugnisse, die sich die UNO unter dem Deckmäntelchen der „Rettung der Erde“ anzumaßen hoffte, lauteten wie folgt:

“Steuerung” (orig. government):

Dieser Gebrauch des Wortes steht an erster Stelle, um eine Art Weltregierung in jedwedem internationalen Vertrag zu bezeichnen.

“Finanzmechanismus” (orig. financial mechanism):

Der “Finanzmechanismus” ist ein feinsinniger Ausdruck zur Umschreibung einer neue Machtbefugnis der UNO, nämlich den Signatarstaaten unbegrenzte Besteuerungen aufzuerlegen: Besteuerung ohne Volksvertretung, und das in globalem Umfang.

“Vergabemechanismus”(orig. facilitative mechanism):

Dieser Mechanismus hätte zum ersten Mal der UNO die Befugnis übertragen, die Vertragserfüllung direkt und notfalls mit Gewalt bei den Signatarstaaten zu erzwingen. 

Der Vertragsentwurf beschreibt das so: 

“… ein fazilitativer Mechanismus ist als Mittel der Wahl gedacht, um das Konzept, die Akzeptanz und Durchführung der Strategie zu ermöglichen, welcher die Marktgesetze und Regeln und diesbezüglichen Marktkräfte gehorchen sollen.”

In Kürze, es wäre eine neue Weltordnung geworden, mit einer “Regierung”, die über einen “Finanzmechanismus” in Form von unbegrenzten Rechten zur direkten Besteuerung aller Bürger der Welt verfügt hätte, und mit einem “Durchsetzungsmechanismus”, der die Regeln aller vormals freier Märkte unter die direkte Kontrolle der neuen UNO-“Steuerung” gebracht hätte, unterstützt von einer schon jetzt wuchernden Bürokratie.

An keiner einzigen Stelle auf den 186 Seiten des Vertragsentwurfs fanden sich die Worte “Demokratie”, “Wahlen”, “Abstimmung”.

Wie die EU schon gezeigt hat, beendet der Machttransfer von souveränen Demokratien auf supranationale Einheiten die Demokratie selbst. Auf supranationaler Ebene, in der UNO, der EU und in der vorgeschlagenen Weltregierung werden die Entscheidungen von Personen getroffen, die von uns Wählern nicht dafür bestimmt worden sind.

Die Offenlegung des Vertragsentwurfes in den internationalen Leitmedien führte zur Panik in der UNO. Sie gab den Vertragsentwurf auf, noch bevor die Kopenhagener Konferenz  begonnen hatte. Stattdessen bewegt sich die UNO nun gesetzgeberisch in kleinen Schritten, ganz so wie die Europäische Union, mit einer Reihe von aufeinanderfolgenden jährlichen Vereinbarungen. Die letzte davon war das Kopenhagener Einverständnis (Copenhagen Accord). Jede dieser Vereinbarungen transferiert ein bisschen mehr Macht und Wohlstand von den einzelnen Staaten auf eine supranationale Bürokratie. Die vorläufig jüngste wurde in Cancun zum Abschluss gebracht.

Die Europäische Union, die selbst klammheimlich die Demokratie während des vergangenen halben Jh. durch eine Reihe von Verträgen ausgelöscht hat, indem sie in kleinen Schritten immer mehr Macht und Wohlstand von den Händen der gewählten Volksvertreter in die Hände von nicht Gewählten transferiert hat, hat dem Sekretariat geraten, so etwas auch auf globaler Ebene zu machen.

Nachdem sich das Sekretariat in Kopenhagen eine blutige Nase geholt hatte, legte es großen Wert darauf, dies in Cancun nicht noch einmal zu erleben. Deshalb erhielt es die Zustimmung der Deutschen Bundesregierung, 2010 in Bonn eine Reihe von Zusammentreffen abzuhalten, von denen einige für außenstehende Beobachter zugänglich waren, andere fanden in einem komfortablen Landschloss hinter verschlossenen Türen statt. Dort wurde die neue Art der Weltgesetzgebung heimlich zuerst ans Laufen gebracht.

Die chinesische Regierung gierte danach, mitzumischen, und sie stimmte vor einigen Wochen einer weiteren Sitzung in Tientsin zu. Der Zweck dieser fast ständigen internationalen Vergnügungsreisen (die nationale Delegierten amüsieren sich großartig auf unsere Kosten) war, sicherzustellen, dass fast alle Elemente der Cancuner Vereinbarung und vorher abgestimmt und unter Dach und Fach waren. Damit sollte das von vielen Journalisten unermüdlich vorhergesagte Mexikanische Patt verhindert werden.

Genau wegen dieser massiven und teuren Vorbereitung kann die Note des/der Vorsitzenden widerspiegeln, was schlussendlich herauskam und binnen weniger Tage ankündigt werden konnte. Das ist kein Versuchsballon: diese Note drückt aus, was das Sekretariat nun zu erreichen hofft.

Nach dem Kopenhagener Unfall gehen unsere zukünftigen grimmigen Herrscher keine Risiken mehr ein. Sie haben ihre Freunde in den Leitmedien überzeugt, die nun nicht mehr aus ihrem leichtfertigen Glaubensbekenntnis für die Kirche des Klimawandels herauskommen, dass sie die Geschichte vom geringen Erfolg von Cancun und vom nächsten Jahr in Durban herumtönen müssen. Sie müssen wie das Sekretariat darauf achten, ihr Gesicht nicht zu verlieren.

Noch zwei internationale Klimakonferenzen sind beabsichtigt, die letzte 2012 zum 20. Jahrestag des Erdgipfels, wieder in Rio, wo alles anfing. Man will das Sekretariat so mächtig  machen, dass niemand – auch nicht der US-Senat – es wagen wird, den Vertrag von Rio nicht zu ratifizieren. Der beerdigt die Demokratie weltweit und bestätigt Lord Mandelsons jüngste Aussage, dass wir heute in einem post-demokratischen Zeitalter leben. 

Nur über meine Leiche! Das Volk weiß am besten, was ihm nützt. Die Regierenden wissen auch, was gut für sie ist, sie wissen aber nicht immer, was für das Volk gut ist. Und sie müssen immer an den Wahlurnen in Schach gehalten werden.

Wenn es schon eine Weltregierung geben sollte (und mit dem Zusammenbruch der „Wissenschaft vom Klimawandel“ schwinden auch die Voraussetzungen für eine kleine privilegierte Minderheit, die Weltherrschaft zu erringen), dann wird es wesentlich sein, dass die Weltregierung eine gewählte ist, und dass, wie der Artikel 1, Abschnitt 1, der US-Verfassung fordert, „ALLE GESETZGEBENDE GEWALT“ beim gewählten Kongreß und dem Senat liegt, dass niemand Besteuerungsgesetze für die Welt machen darf oder der Welt Steuern auferlegen darf über das hinaus, was eine universell und geheim gewählte Weltregierung beschlossen hätte. [Vgl. Artikel 20, Deutsches Grundgesetz]

Wie können wir, das Volk, das Sekretariat besiegen und die geliebte Demokratie behalten? Ganz einfach, indem wir unsere gewählten Volksvertreter im Einzelnen über den Umfang, die Tragweite und Absichten der Cancun-Vereinbarung informieren.

Die Vereinbarung kann in den USA kein Vertrag werden, weil der US-Senat sie nun nach den Halbzeitwahlen nicht passieren lassen wird. Aber sie kann den Amerikanern immer noch auferlegt werden durch den schwer linkslastigen Obersten Gerichtshof, der überhaupt keine Anstalten mehr macht, juristisch unparteiisch zu sein, und der sehr wohl entscheiden könnten, dass die Cancun-Vereinbarung entgegen dem Willen des Kongresses Bestandteil des US-Rechts wird, weil sie internationales „Gewohnheitsrecht“ wäre.  

Was kann man tun? Senden Sie diese Informationen an Ihre Volksvertreter. Es ist deren  Macht, wie auch Ihre, die beschnitten werden soll; Ihre gemeinsame Demokratie, die untergehen wird, es sei denn, dieser blühende Unsinn würde gestoppt.

Viscount Monckton of Brenchley

Die Übersetzung besorgte dankenswerterweise Helmut Jäger EIKE

Den Originalartikel finden Sie hier. The Abdiction Of The West