1

Statistik und Verfügbarkeit von Wind- und Solarenergie in Deutschland

 Windkraft

Wetter ist ein zufälliges Phänomen – vor einem Ausflug ins Grüne kann die Wettervorhersage schon mal eine spannende Sendung sein. Wir sind diesem Zufall auch ausgeliefert – nicht umsonst können Ausflüge buchstäblich ins Wasser fallen. Und obwohl Wind und Wetter zufällig sind, hat jeder ein vernünftiges Gefühl dafür: Im Sommer kommen sonnige Tage öfter vor als etwa im Spätherbst. Mit windigem Wetter verhält es sich eher umgekehrt. Wie würden wir uns ein Bild davon machen, ob es an einem bestimmten Ort eher windiger oder weniger windig ist? Wir würden die Windintensität als Windgeschwindigkeit messen und dann die Tage oder Stunden auszählen, an denen die Windgeschwindigkeit z. B. zwischen 2 und 2,5m/s liegt. Das ganze würden wir in einem Diagramm auftragen – dieses Häufigkeitsdiagramm, auch Histogramm genannt, charakterisiert die Windigkeit an einem Ort. In diesem Diagramm kann man ablesen, wie sich die Windgeschwindigkeit im Verlaufe eines Zeitraums auf niedrige und hohe Windgeschwindigkeiten verteilt. Für diese Verteilung hat sich in der Szene der Begriff Windhöffigkeit eingebürgert.

Diese Wind-Häufigkeitsdiagramme haben überwiegend eine ähnliche Struktur, gleichgültig wo man sie gemessen hat: Lediglich die durchschnittliche Geschwindigkeit und die Höhe der Histogramm – Linien verschiebt sich etwas. Bei großen Windgeschwindigkeiten verschieben sich die Linien zu höheren, bei kleinen Windgeschwindigkeiten zu niedrigeren Werten hin. Es ist allgemein anerkannt, dass der Wind nach einem ganz bestimmten Häufigkeitsschema verteilt ist, das nach dem schwedischen Mathematiker Weibull benannt ist. Man spricht daher von einer Weibull-Verteilung.

 

Abbildung 1: Weibull- Verteilung bei einer mittleren Windgeschwindigkeit von 5,75m/s

Bei einem Windrad erzeugt nun der Wind auf die Rotorflügel einen Druck, der den Rotor in Drehung versetzt. Diese Kraft auf den Rotor erzeugt im Generator den Strom, den ein Windrad ins Netz einspeist. Die Menge an produziertem Strom wird nach Kilowattstunden (kWh) bemessen – so wie im Privathaushalt die Strommenge nach kWh abgerechnet wird, wird auch die Stromproduktion so gemessen. Genaugenommen verbirgt sich hinter der Kilowattstundenzahl nicht die Strommenge, sondern der Gegenwert an Energie, den ein Windrad produziert. Wenn ein Windrad nun gemütlich vor sich hin trudelt, wird es einen längeren Zeitraum brauchen, um eine bestimmte Strommenge zu produzieren. Bei schwachem Wind (Windgeschwindigkeit 4 m/s)  braucht ein 3000 kW Windrad ungefähr 20 Stunden, um den Jahresverbrauch eines Haushalts von 2500 kWh zu erzeugen. Bei starkem Wind (Windgeschwindigkeit 10 m/s) kann es die gleiche Strommenge in nur einer Stunde produzieren – das Windrad läuft mit weitaus höherer Anstrengung und leistet mehr. Der Grad der Anstrengung einer Maschine wird in der Fachsprache als deren Leistung bezeichnet. Die größte Leistung einer Maschine ist deren Nennleistung. Die Leistung wird in der Einheit kW gemessen- bei Autos hat sich bis heute die Angabe in PS gehalten. Die PS-Zahl ist beim Auto die Nennleistung des Motors.

Strom muss im Augenblick des Verbrauchs produziert werden- die Leistung der Stromquelle muss in jedem Augenblick mit der Leistung des Verbrauchers übereinstimmen. Aus diesem Grund ist für die Beurteilung der Verfügbarkeit die sogenannte momentane Leistung (kW) und nicht die Strommenge (physikalisch korrekter: die Arbeit, gemessen in kWh) für die Beurteilung maßgeblich.

Die Leistung (kW) eines Windrads steigt und fällt mit der Windgeschwindigkeit. Die im Windrad produzierte elektrische Leistung schwankt mit der Windgeschwindigkeit.  Man würde salopp sagen, je höher die Windgeschwindigkeit ist, desto höher ist auch die Leistung des Windrads. Leider ist es nicht ganz so einfach, weil die Leistung sehr viel stärker anwächst als die Windgeschwindigkeit selbst: Wie man sagt, ist dieser Zusammenhang bei einem Windrad „kubisch“, d. h. die Leistung des Windrads ändert sich mit der 3. Potenz der Windgeschwindigkeit. Dieser Zusammenhang ist bekannt, seit man Ventilatoren, Propeller und Schiffsschrauben baut. Das bedeutet, dass sich die Leistung verachtfacht, wenn sich die Windgeschwindigkeit verdoppelt. Die Leistung eines Windrads reagiert also sehr empfindlich auf Änderungen der Windgeschwindigkeit. Das kann man auch daran ablesen, dass die Produktion der gleichen Strommenge mal fast einen ganzen Tag und bei günstigem Wind nur eine Stunde dauert. Bei einem Windrad mit einer Leistung von 3000 kW bedeutet das, dass die Leistung von 37 kW auf 480 kW anwächst, wenn sich die Windgeschwindigkeit von 3 m/s auf 6 m/s erhöht. Die genannten Zahlen stammen aus einem Datenblatt für eine Enercon 101- Windkraftanlage. Diese Leistungscharakteristik könnte für eine Stromversorgung ungünstiger nicht sein – schließlich ändert sich die Windgeschwindigkeit zufällig je nach Wetterlage. Eine kaum spürbare Erhöhung der Windgeschwindigkeit um 10% bewirkt eine Leistungserhöhung von 30%. Bei schwachem Wind trudelt ein Windrad eher gemütlich vor sich hin, bei starkem Wind läuft es zur Höchstleistung auf. Ein Auto mit zufälligen Zündaussetzern, das mit Vollgas gefahren wird, hat ein ähnliches Leistungsverhalten.

 

Abbildung 2: Häufigkeitsdiagramm eines 3000 kW- Windrads

Wenn man nun das Häufigkeitsdiagramm der Windgeschwindigkeit kennt, wie kommt man nun auf das Häufigkeitsdiagramm der eingespeisten Leistung? Hier hilft die Mathematik: Man kann das Häufigkeistdiagramm der Windgeschwindigkeit umrechnen auf das Häufigkeitsdiagramm der eingespeisten Leistung. Hier kommt man zunächst zu dem überraschenden Ergebnis, dass die Häufigkeit der eingespeisten Leistung einer gänzlichen anderen Gesetzmäßigkeit folgt als die Windgeschwindigkeit. Diese Tatsache ergibt sich aus der kubischen Abhängigkeit der Leistung von der Windgeschwindigkeit. Das Häufigkeitsdiagramm eines 3000 kW Windrads ist in Abbildung 2 dargestellt. Unschwer kann man erkennen, daß niedrige Leistungen sehr häufig und hohe Leistungen eher die Ausnahme sind. In dieser Abbildung kann man ablesen, dass die Leistung eines 3000 kW Windrads an 132 Tagen im Jahr (also mehr als 4 Monate) zwischen 0 und 145kW (das sind rund 5 % der Nennleistung) liegt. Die volle Leistung (hier 3000 kW) erreicht ein Windrad nur selten. Dass Windräder häufig still stehen, ist also kein subjektiver Eindruck, sondern eine mathematisch beweisbare und damit erwiesene Tatsache. In einer Propagandaschrift der Windlobby unter dem Titel ‚A bis Z- Fakten zur Windenergie‘ wird dieser Zusammenhang wie folgt umschrieben „Allerdings drehen sich die Rotoren nicht immer mit maximaler Leistung“.

 Aus diesem Grund ist die weit verbreitete Behauptung der Windlobby unzutreffend, dass Windräder Haushalte mit Strom versorgen können – die Versorgungsaufgabe scheitert schon daran, dass Windräder keinen Strom liefern wenn, und das ist sehr häufig, der Wind nur mäßig weht und Leistung daher klein ist. Letztlich ist dies Folge aus der Weibull-Verteilung der Windgeschwindigkeit und dem (kubischen) Zusammenhang zwischen eingespeister Leistung und Windgeschwindigkeit.

Betrachtet man nun eine größere Fläche, in der eine große Anzahl von Windkraftanlagen verteilt ist, stellt sich die Frage, in welchem Umfang sich diese Windräder untereinander ergänzen können. Produzieren die einen Windräder Strom, wenn andere still stehen? Weht der Wind immer irgendwo? Ohne eine genaue statistische Analyse vorzunehmen, kann man sich dieser Frage vorläufig ganz anschaulich nähern: Hohe Windgeschwindigkeiten treten typischerweise bei Tiefdruckwetterlagen auf und die Größe des Tiefdruckgebiets bestimmt die Fläche, in der mit erhöhten Windgeschwindigkeiten zu rechnen ist. In der gesamten Fläche sind dann hohe eingespeiste Windleistungen zu erwarten. Die umgekehrte Aussage gilt in der gleichen Weise: Bei geringen Windgeschwindigkeiten sind die Windleistungen in der gesamten Fläche niedrig. In beiden Fällen können sich Windräder in dieser Fläche nicht untereinander ergänzen. Bei Hochdruckwetterlagen können diese Flächen schon mal so groß wie ganz Deutschland sein. Mittlere Tiefdruckgebiete haben praktisch immer die Größe von mindestens mehreren Bundesländern, normale Tiefdruckgebiete überdecken fast immer ganz Deutschland.

 

Abbildung 3: Häufigkeitsdiagramm der Windleistung im Amprion- Netz

Wenn man nun das Häufigkeitsdiagramm der eingespeisten Windleistung in einem kleineren Gebiet, wie etwa das vom Netzbetreiber Amprion, erstellt, findet man diese Überlegungen bestätigt:

Auch in einem Gebiet von der Größe des Amprion-Netzes ergänzen sich Windräder untereinander nicht. Das Häufigkeitsdiagramm zeigt noch immer den fallenden Verlauf: Niedrige Leistungen bis zum Stillstand sind besonders häufig, große Leistungen sind eher selten. Auch eine große Zahl von Windrädern verhält sich offensichtlich ähnlich wie ein einzelnes Windrad. Auch in einer mittleren Fläche ist der häufigste Betriebszustand aller Windräder zusammen der Stillstand.

Nimmt man die eingespeiste Leistung von ganz Deutschland (Abbildung 5), kann man im Häufigkeitsdiagramm zumindest erkennen, dass kleine Leistungen seltener werden. Die Leistung Null kommt, anders als bei Flächen von der Größe Niedersachsens oder Nordrhein- Westfalens, nicht mehr vor. Windräder können sich in geringem Umfang durchaus ergänzen: Gleichwohl sinken die Leistungen im großflächigen Verbund auf sehr geringe Werte ab. Bei einer installierten Windrad-Leistung von 31000 MW im Jahre 2012 ist die niedrigste Einspeiseleistung aller Windräder in Deutschland zusammen auf 170 MW (also auf 0,5% der installierten Leistung) gesunken. Dieser Wert ist so nahe bei Null, dass man die Aussage treffen kann, dass die gesicherte Leistung aller Windkraftanlagen in Deutschland zusammen mit Null anzusetzen ist. Damit ist nachgewiesen, dass sich die Anlagen auch bei einer Fläche von der Größe Deutschlands nicht untereinander zu einer gesicherten Leistung ergänzen.

 

Abbildung 4: Zeitverlauf der Windleistung in ganz Deutschland

Immer wieder, so auch im IWES Windenergie Report 2012, wird behauptet, „andererseits erreicht man nur durch eine gleichmäßige geografische Verteilung über eine große Fläche eine Glättung der Netzeinspeisung“. Abgewandelt findet sich diese These auch in der Agora Kurzstudie Entwicklung der Windenergie in Deutschland  in der Form „Ein geographisch verteilter Ausbau führt zu einer stetigeren Einspeisung aus Windenergieanlagen.“

Alle 23000 Windkraftanlagen in Deutschland verhalten sich in ihrem Häufigkeitsdiagramm ungefähr so, wie ein einzelnes Windrad (Abbildung 2). Daraus ergibt sich, dass die Einspeisungen der einzelnen Windräder untereinander stark korreliert sind- wenn ein Windrad hohe Leistungen einspeist, ist das auch für eine große Zahl anderer Windräder der Fall. Das erklärt den ausgeprägt ungleichmäßigen Verlauf der Einspeisung in Abbildung 4. Ein weiterer Ausbau der Windenergie bewirkt aufgrund dieser Korrelation keine stetigere Einspeisung, sondern vielmehr einen Anstieg der Ungleichmäßigkeit. Diese Aussage fußt auf einem Satz aus der mathematischen Statistik, demzufolge die Ungleichmäßigkeit (mathematisch korrekter: Streuung bzw. Standardabweichnung) korrelierter zufälliger Größen mit dem Mittelwert anwächst. Am IWES- Institut hat man durchaus richtig erkannt, dass es „eine grundsätzliche Korrelation der Erzeugung aus Wind in ganz Deutschland“ gibt. Dass diese Aussage mathematisch im Widerspruch zur behaupteten „stetigeren Einspeisung“ steht, gehört dort offenbar (noch) nicht zum Stand des Wissens.

Der nunmehr von der Politik beschlossene weitere Ausbau der Windkraft in Deutschland wird daher die bekannten technischen und ökonomischen Probleme mit der schlichten Strenge mathematischer Notwendigkeit weiter verschärfen.

Dass sich technisch vorgebildete Autoren zu der ganz offensichtlich unzutreffenden Behauptung „Aufgrund der Distanz von über 600 km, flaut der Wind üblicherweise nicht zum selben Zeitpunkt in Hamburg und München ab“ hinreißen lassen und bei einem Zeitverlauf wie in Abbildung 4 von „Glättung“ sprechen, wirft ein Schlaglicht auf die Qualität und Seriosität wissenschaftlicher Arbeit einschlägiger Studien und Konzepte.

 

Abbildung 5: Häufigkeitsdiagramm der Windleistung in ganz Deutschland

Leistung immer sicher zur Verfügung zu stellen, wird als Grundlastfähigkeit bezeichnet. Die oft verbreitete Aussage, der Wind wehe immer irgendwo ist erwiesenermaßen unzutreffend. Auch über das ganze Land gesehen sind Windkraftanlagen nicht grundlastfähig. Ohne zusätzliche grundlastsichere Kraftwerke ist eine unterbrechungsfreie sichere Stromversorgung mit Windrädern in Deutschland schon aus Gründen der statistischen Verfügbarkeit nicht möglich. In dem Häufigkeitsdiagramm für die gesamte bundesweit eingespeiste Windleistung kann man außerdem ablesen, dass die Windleistung an 120 Tagen (also rund 4 Monaten) im Jahr unterhalb von 10% der installierten Leistung liegt.

Fazit:

Bei einem Versorgungsgebiet von der Größe Deutschlands ist Windkraft nicht in der Lage, einen Beitrag zur Sicherung der Grundlast bei der Stromversorgung zu leisten.

Photovoltaik

Die Nennleistung aller Photovoltaikanlagen in Deutschland belief sich per Ende 2012 auf rund 32.700 MW. Diese Leistung steht aus naheliegenden Gründen bei Dunkelheit nicht zur Verfügung, womit klar, ist, dass Photovoltaikanlagen keinen Beitrag zur Sicherung der Grundlast leisten. Das Häufigkeitsdiagramm in Abbildung 6 zeigt, dass alle Solaranlagen zusammen in 52% ihrer Betriebsdauer (das sind rund 190 Tage im Jahr) keinen Strom liefern.

 

Abbildung 6: Häufigkeitsdiagramm der Solarleistung in ganz Deutschland

An 292 Tagen (diese Zeitspanne entspricht ungefähr neuneinhalb Monaten) liegt die Leistung unter 6700 MW, also unter 20% der Nennleistung. Diese Zahlen verdeutlichen, dass die Angabe der Nennleistung nichts über die Verfügbarkeit einer Energieform aussagt. Die durchschnittliche Leistung aller Solaranlagen in Deutschland liegt bei 3200 MW, also bei 10% der installierten Leistung.

Windkraft und Photovoltaik

Der Gedanke, dass die aus Wind- und Photovoltaikanlagen gewonnenen Energien sich gegenseitig ergänzen, hat etwas Verlockendes und scheint zunächst sogar naheliegend. Schließlich überwiegt im Sommer der Sonnenschein und in den eher dunklen Wintermonaten der Wind. In Deutschland sind per Ende 2012 Wind- und Solarkraftwerke mit einer Nennleistung von rund 64.000 MW installiert. Einen Beitrag zur sicheren Grundlast können beide Energieformen nicht leisten, weil die Grundlast von Wind- und Photovoltaik einzeln und auch zusammen bei Null liegt.

 

Abbildung 7: Häufigkeitsdiagramm der Wind- und Solarleistung in ganz Deutschland

Das Häufigkeistdiagramm in Abbildung 7 zeigt, dass die summarische Leistung aus Wind- und Sonnenenergie an 90 Tagen im Jahr (3 Monate) unter 3200 MW (entsprechend 5% der installierten Leistung) und an 180 Tagen (6 Monate) unter 6550 MW (entsprechend 10% der installierten Leistung) liegt. Während eines halben Jahres stehen die sogenannten erneuerbaren Energien nur zu einem  Bruchteil der Nennleistung zur Verfügung. Die Behauptung, dass sich beide Energieformen im Mix ergänzen, ist daher unzutreffend.

Bei einem Versorgungsgebiet von der Größe Deutschlands sind Wind- und Solarenergie nicht in der Lage, einen Beitrag zur Sicherung der Grundlast bei der Stromversorgung zu leisten. Auch im Verbund liegt deren sichere zur Verfügung stehende Leistung bei Null – ein Netz kann mit diesen Kraftwerken ohne Speicher bzw. zusätzliche Kraftwerke nicht betrieben werden. Ohne Stromspeicher benötigt jede Wind- oder Solaranlage ein konventionelles Kraftwerk, das bei zurückgehender Leistung einspringen kann.

Da bis heute Speicher von nennenswerter Größe nicht vorhanden sind und auch nicht absehbar ist, dass eine Technologie zur Speicherung in ausreichendem Umfang zur Verfügung steht, können Windkraft- und Solaranlagen nur im Zusammenspiel mit konventionellen Kraftwerken betrieben werden- hierbei ist es zunächst gleichgültig, ob diese Kraftwerke mit Kohle oder Erdgas befeuert werden. Diese konventionellen Kraftwerke laufen im Hintergrund und werden in ihrer Leistung zurück gefahren, wenn die Leistung aus Wind- und Solarkraft ansteigt und wieder hoch gefahren, wenn die Leistung sinkt. Hierzu sind diese Kraftwerke im allgemeinen in der Lage, weil sie schnell auf Lastwechsel reagieren können  und müssen. Ein modernes Kohlekraftwerk ist ohne weiteres in der Lage, die Leistung um 60% der Nennleistung in 15 Minuten also beispielsweise von 200 MW auf 500 MW zu erhöhen. Dieser Lastwechselbetrieb einer Kraftmaschine ist für jeden Autofahrer völlig selbstverständlich, wenn er beim Beschleunigen auf das Gaspedal tritt: Binnen einiger Sekunden steht die Nennleistung zur Verfügung. Dieses Regelverhalten eines Kraftwerks ist für den sicheren Betrieb eines Stromnetzes unabdingbar, weil Kraftwerke in der Lage sein müssen, Schwankungen der Last augenblicklich auszugleichen! Die Grenzen der Regelungsfähigkeit von Kraftwerken sind erreicht, wenn die eingespeiste Leistung aus sogenannten erneuerbaren Energien schneller ansteigt, als ein Dampfkraftwerk zurückgefahren werden kann. Um das Stromnetz vor einem Zusammenbruch zu bewahren, werden konventionelle Kraftwerke dann im sogenannten Drosselbetrieb gefahren: Der Dampf aus dem Dampferzeuger wird an der Turbine vorbei geleitet und im Kondensator wieder zu Wasser kondensiert. Diese Kraftwerke verbrauchen dann zwar Brennstoff und produzieren CO2, liefern aber keinen Strom. Der Verbundbetrieb von konventionellen Kraftwerken mit Windkraft- und Solaranlagen bestimmt auch die Grenze des weiteren Ausbaus. Wenn die konventionellen Kraftwerke auf ihre kleinste Leistung zurückgefahren sind, kann die Leistung aus Solar- und Wind vom Netz nicht mehr aufgenommen werden, die Anlagen müssen abgeregelt, also in ihrer Leistung begrenzt werden, weil der Strom dann vom Netz nicht mehr aufgenommen werden kann oder ins Ausland verkauft werden muss.

Mit der beschlossenen Abschaltung der Kernkraftwerke in Deutschland steht deren Leistung zur sicheren Versorgung der Netze in wenigen Jahren  nicht mehr zur Verfügung. Da die gesicherte Grundlast von Photovoltaik und Windenergie bei Null liegt, muss diese Leistung durch konventionelle Kraftwerke ersetzt werden. Ein Zubau an Kapazitäten ist eine physikalische und technische Notwendigkeit, will man das Stromnetz auch in Zukunft sicher betreiben. Hierfür kommen nur Gas- oder Kohlekraftwerke in Frage – die Abschaltung der Kernkraftwerke ist daher nur mit einem Ausbau der konventionellen Kraftwerkskapazitäten möglich. Wer die Abschaltung von Kohlekraftwerken fordert, oder den Neubau von konventionellen Kraftwerken verhindern will, hat die Physik gegen sich.

Es ist daher fragwürdig, ob sich die CO2- Emissionen durch Solar- und Windkraftanlagen senken lassen- es ist eher zu erwarten, dass diese Emissionen in Zukunft -wie im letzten Jahr- weiter ansteigen werden.

Literatur

Hennig, H.-M., Palzer, A.:

100 % erneuerbare Energien für Strom und Wärme in Deutschland

Fraunhofer-Institut für Solare Energiesysteme ISE

Stuttgart, Kassel, Teltow, 2012

NN:

A bis Z

Fakten zur Windenergie

Hrsg.: Bundesverband Windenergie e.V., Berlin

Rohrig, K.:

Windenergie Report Deutschland 2012

Hrsg.: Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES), Kassel, 2012

Pape, C. et. al:

Entwicklung der Windenergie in Deutschland

Agora Kurzstudie erstellt vom Fraunhofer- IWES, Kassel, Juni 2013

Über den Autor: Dr.-Ing. Detlef Ahlborn ist bei Vernunftkraft Leiter Fachbereich Technologie

Jahrgang 1960, selbständiger Unternehmer, Vater von 2 Kindern, Motorradfahrer und Naturwissenschaftler aus Leidenschaft, aus Großalmerode in Hessen. Bürgerinitiative Pro Kaufunger Wald und Hirschberg.

Fachgebiet: Energie- und Kraftwerkstechnik, Speicherung von erneuerbaren Energien, statistische Analyse und Verfügbarkeit von Wind- und Solarenergie. 




Energiepolitisches Manifest Argumente für die Beendigung der Energiewende (2)

von Günter Keil, Michael Limburg und Burkard Reimer

Hinweis zur Einordnung dieses Papiers

Die Autoren wirken in einer Gruppe von Fachleuten mit, die Bewertungen und Vorschläge zur Energiepolitik für die Partei „Alternative für Deutschland “ (AfD) erarbeitet. Es handelt sich dabei um den Bundesfachausschuss Energiepolitik (BFAE) der AfD.Der Inhalt des vorliegenden Papiers ist zum Teil in die Programm-Arbeit der AfD eingeflossen, es gibt jedoch ausschließlich die Meinung der Autoren wieder und ist kein Programm-Papier der AfD. Politische Grundsätze und Ziele dieser Partei werden auf einem in Vorbereitung befindlicher Programmparteitag nach eingehender Beteiligung ihrer Landesverbände beschlossen – dieser Prozess und seine Ergebnisse bezüglich der künftigen Energiepolitik der AfD sind abzuwarten.

Fortsetzung des ersten Teiles (den finden Sie hier)

2.3    Ein weiteres Milliarden-Grab – die Energie-Einspar-Verordnung EnEV und das Erneuerbare-Energien-Wärme-Gesetz EEWärmeG 

Wesentliche Komponenten der Energiewende sind die Energie-Einspar-Verordnung EnEV (47), die auf dem Energie-Einsparungs-Gesetz EnEG beruht, und das Erneuerbare-Energien-Wärme-Gesetz EEWärmeG (48). Wie bei dem EEG und der Energiewende werden die erforderlichen Kosten zur Umsetzung von der Regierung und den Profiteure klein geredet oder verschwiegen. Beide Maßnahmen sollen den Verbrauch von vorwiegend fossilen Energieträgern für das Heizen privater und öffentlicher Gebäude vermindern und damit der geplanten Absenkung der CO2-Emissionen dienen.  Die EnEV wurde 2002 erlassen. Zwischenzeitlich wurde sie mehrfach mit dem Ziel novelliert, zuletzt 2013, insbesondere die Forderungen an die Wärmedämmung und die Heizsysteme der Gebäude, weiter zu verschärfen .

Beide gesetzlichen Maßnahmen stehen deutlich seltener als das EEG im öffentlichen Fokus. Obwohl die erhofften Wirkungen der Verbrauchsminderung nachweislich nur bei wenigen Gebäude-Konstruktionen mit schlechter Wärmedämmung, wie z.B. bei dünnen Wänden mit geringer Masse, die in den 50er und 60er Jahren errichtet worden sind,  eintreten. Dagegen verursachen sie häufig massive Schäden z.B. durch mangelhaften Luftaustausch in den Innenräumen, aber auch durch Durchfeuchtung, Algen- und Pilzbefall der Außenwände. Zudem sind insbesondere Styropor-Dämmmaterialen gute Brandbeschleuniger, so dass im Brandfall die Feuerwehr einen kontrollierten Abbrand bevorzugt, statt zu löschen.

Eine messbare Verminderung des Energie-Verbrauchs wird hingegen nur selten erreicht, oft tritt das Gegenteil ein, da die Dämmmaterialien das Eindringen der durch die Sonnenstrahlung erzeugten Wärme in die Außenwände weitgehend verhindern.

Da die EnEV seit Jahren großräumig in allen Teilen des Landes angewendet werden muss, führt sie in großem Umfang zu einer Zerstörung der verbauten Materialien und damit der Bausubstanz bei gleichzeitig extrem aufwendiger und damit kostspieliger Umhüllung der Fassadenflächen. Die Kosten, die der Vermieter ggf. auf die Mieter abwälzen kann, sind erheblich, und werden bis zum Ende des Programms 2050 ca. 3 Billionen € allein durch die Fassadendämmung erreichen. Da die Dämmung oft mit einer ohnehin notwendigen Renovierung der Fassade einhergeht, werden die für die EnEV aufzuwendenden Beträge in der Regel weniger sichtbar. Kaum einer der Auftraggeber der Dämmmaßnahmen macht sich die Mühe diese Kosten herauszurechnen. So fehlt die Transparenz. Die Kosten belaufen sich pro m3 umbauten Raumes auf derzeit ca. 200 €, amortisieren sich aber nur selten. In so gut wie in keinem Fall geschieht das innerhalb der in der EnEV vorgegebenen Amortisationszeit von 10 Jahren.

In der Studie von Prof. Simons, Forschungsinstitut empirica, Berlin, „Energetische Sanierung von Ein- und Zweifamilienhäusern“ (49)  wurden zur Beurteilung des energetischen Zustands der Gebäude in die Berechnungen die Heizungsanlage,  Fenster, Außenwanddämmung, obere Geschossdecke/Dach und Fußboden/Kellerdecke einbezogen. Zusammengefasst kommt die Studie zum Ergebnis, dass eine energetische Sanierung im Regelfall unwirtschaftlich ist, da die eingesparten Energiekosten nicht die Kosten dieser Sanierung decken. Der mittlere Energieverbrauch von nicht wesentlich modernisierten Ein- und Zweifamilienhäusern beträgt 167 kWh/(m²a). Bei Energiekosten von 0,08 €/kWh belaufen sich die Energiekosten vor Sanierung auf 13,36 €/(m²a). Unterstellt, durch eine energetische Sanierung ließen sich tatsächlich 60 % der Energie einsparen – ein ambitioniertes Einsparziel, das in der Realität nur selten erreicht wird – so sinken die Energiekosten um 8,01 €/(m²a). Innerhalb von 15 Jahren summieren sich die eingesparten Energiekosten entsprechend auf 120 €/m² und damit bei Weitem nicht auf die Sanierungskosten, die bereits bei einfachen Fällen zwischen 300 und 500 €/m² liegen.

Auf einer Fachtagung zur Gebäudesanierung stellte Prof. Simons fest (41):

„Eine Sanierung trotz noch relativ gutem Zustand der Bauteile macht wenig Sinn“. Und weiter: „Besonders die Materialkosten der energetisch relevanten Bauprodukte sind in den Jahren 2000-2011 zwischen 10 und 50% angestiegen“. Auch eine aktuelle Studie der Kreditanstalt für Wiederaufbau KfW beleuchtete das Dilemma steigender Bauproduktpreise und deren Auswirkung auf die dadurch weiter sinkende  Wirtschaftlichkeit energetischer Modernisierungs-Maßnahmen (42). Hierzu M. Kleemann, Jülich: „Neben der oftmals sehr knappen Wirtschaftlichkeit energetischer Sanierungsmaßnahmen mit Amortisationszeiten von über 25 Jahren (!) ist auch das „Dilemma der mittleren Qualität“ ein Problem. Das Anforderungsniveau … wird nur zu 69% umgesetzt“.

Zweck des am 01.01.2009 in Kraft getretenen EEWärmeG ist 1. der Klimaschutz, 2. die Schonung fossiler Ressourcen, 3. die Senkung von Energieimporten, 4. die Weiterentwicklung von Technologien zur Erzeugung von Wärme und Kälte aus „Erneuerbaren Energien“ EE und 5. bis 2020 den EE-Anteil am Endenergieverbrauch für Wärme und Kälte auf 14% zu erhöhen (Ist 2011: 10,2%). Es ist damit das zentrale regulatorische Instrument, um den Einsatz von EE im Gebäudesektor  und weitere  Maßnahmen voranzutreiben.

Bei Neuerrichtung von Gebäuden müssen die Eigentümer für die Erzeugung von Wärme und Kälte bestimmte Anteile an der gewählten „Erneuerbaren Energie“ nutzen (48 § 5, § 7). Die Mindestanteile sind u.a.: Für Solare Strahlung 15%; für feste Biomasse 50%; für Geothermie oder Umweltwärme 50%. Bei s.g.  Ersatzmaßnahmen gilt ein Mindestanteil von 50% bei Nutzung von Abwärme oder KWK-Anlagen. Als Ersatzmaßnahmen kann z.B. auch die zusätzliche Einsparung von Energie durch besonders gute Wärmedämmung der Gebäudehülle angerechnet werden, wenn der jeweilige Höchstwert des Jahres-Primärenergiebedarfs nach der EnEV um mindestens 15% unterschritten wird. Fernwärme und Fernkälte gelten nur dann als Ersatzmaßnahme, wenn sie zu einem wesentlichen Anteil aus EE oder zu mindestens  zu 50% aus der Nutzung von Abwärme oder von KWK-Anlagen oder aus einer Kombination der drei Varianten stammt.

Die bei derartigen Zwangsmaßnahmen eintretenden Reaktionen der Betroffenen beklagte die Bundesregierung bereits 2012 in einem „Erfolgsbericht“ des BMU (40): „Es zeigten sich sogar rückläufige (!) Trends beim EE-Anteil an Sanierungsmaßnahmen.“ Offenbar versuchen die Bürger nicht nur mit der Verschiebung von eigentlich fälligen Erneuerungen ihrer Heizungsanlagen den Einbau teurer EE-Anlagen zu vermeiden; sie haben alte Anlagen repariert und sie zum Teil wiederum unauffällig durch funktionierende Anlagen ersetzt. Diese Zwangsmaßnahmen führen mit Sicherheit dazu, dass sich ein Schwarzmarkt für die Installation von Heizungsanlagen entwickelt, die keine EE-Anlagen einbeziehen, die aber sehr wohl aus modernen und effizienten konventionellen Anlagen – z.B. Brennwertkessel – bestehen können.

Auch von E. Gawel et al (39) wird diese Entwicklung beklagt: „Kritisch bei einer anlassbezogenen  Nutzungspflicht (Anm.: einer Modernisierung) im Bestand sind die möglichen Auswirkungen auf die Heizungs-Modernisierungs-Rate, soweit Investoren Sanierungen hinauszögern, um den gesetzlichen Geboten bei unzureichender Wirtschaftlichkeit zu entgehen“

Die Öko-Bürokratie in den Berliner Ministerien wird diesen logischen Reaktionen der Betroffenen auf die  gesetzlich vorgeschriebene Installation unwirtschaftlicher Anlagen sehr wahrscheinlich mit Verschärfungen begegnen. Das könnte vor allem einer Ausdehnung der EnEV und des EEWärmeG auf alle Bestandsgebäude  bedeuten. Die wirksamste und wahrscheinlichste neue Zwangsmaßnahme wird vermutlich eine Modernisierungspflicht für alle Heizungsanlagen sein, die ein bestimmtes Alter erreicht haben, wobei dann EE-Anlagen eingesetzt werden müssen.

Die Deutsche Energie-Agentur GmbH (dena) und die Allianz für Gebäude-Energie-Effizienz (geea) haben sich bereits für eine „deutliche Verschärfung der Anforderungen an Neubauten“ ausgesprochen.

Der Bundesrat hat – wie auch die geea – die Bundesregierung aufgefordert, das Ordnungsrecht zur Energieeffizienz von Gebäuden zu vereinfachen, indem die EnEV und das EEWärmeG zusammengelegt werden. Das bildet dann auch die Gelegenheit, endlich alle Bestandsgebäude diesen Regelungen zu unterwerfen.

(Anm.: Die dena gehört zu 50% dem Staat, zu 26% der mehrheitlich bundeseigenen Kreditanstalt für Wiederaufbau KfW. Die geea wurde von der dena gegründet und versteht sich als „Plattform der Akteure (Anm.: Profiteure) in den Branchen Bauen und Energie“; sie wird von der dena koordiniert.)

Der Wärmesektor ist jedoch der einzige Bereich, in dem in Deutschland die Energie der Sonnenstrahlung – und zwar auch ihr beträchtlicher Rot- und Infrarotanteil – wirtschaftlich genutzt werden kann. Ferner bietet auch die Nutzbarmachung der Umwelt- oder Erdwärme zu Heizungszwecken – z.B. mittels der Wärmepumpen-Technik – eine weitere sinnvolle Anwendung für die regenerativen Energien in Deutschland.

Bei einer konsequenten Förderung der betreffenden Forschung und Entwicklung (F&E) mit Fokus auf eine Senkung ihrer Investitions- und Betriebskosten stellt dies eine große Chance für eine importunabhängige und kostengünstige Klimatisierung der Gebäude dar. Kostenintensive

Markteinführungsmaßnahmen hingegen bringen keine qualitativen Verbesserungen und sollten niemals vom Staat gefördert werden. Die Fokussierung der Regierungen auf die Stromerzeugung mit „Erneuerbaren“ war und ist ein grundsätzlicher und sehr teurer politischer Fehler. Der verspätete Versuch auch im Gebäudebereich die „Erneuerbaren“  für Techniken zur Erzeugung von Wärme und Kälte zu erschließen, beruht abermals auf Zwang und bevorzugt wiederum die unwirtschaftlichen, aber politisch-ideologisch gewollten EE-Technologien (siehe Kapitel 2.3). 

Im Kapitel 2.13 sind die notwendigen F&E-Maßnahmen zusammengestellt worden.

Vorschlag:

Die EnEV und das EEWärmeG sind ersatzlos abzuschaffen. Es muss den Bauherren oder Gebäudebesitzern überlassen bleiben, ob und wieviel Geld er/sie in die Wärmdämmung, die Heizungsanlage, die Pflege  und den Erhalt der Gebäude stecken.

2.4  Das Speicher-Dilemma

Die Regierung hat seit Einführung des EEG mit ihrer massiven Förderung der vom Tageslicht und vom Wind abhängigen Stromerzeugung von Anfang an ignoriert, dass dieser „Flatterstrom“ ohne die Möglichkeit seiner großtechnischen Speicherung für einen hochentwickelten Industriestaat weitgehend  wertlos, stattdessen aber sogar für die Netzstabilität problematisch ist. Zum Ausgleich der systembedingten kurzzeitigen starken Schwankungen des Wind- und Solarstroms sind riesige Speicher erforderlich, die es aber weder damals gab noch heute oder in absehbarer Zukunft geben wird.

Die Aufgabe solcher Speicher wäre es, nicht nur die kurzzeitigen Schwankungen der instabilen Stromquellen Wind und Sonne zu glätten sondern insbesondere im Winter längere Hochdruck-Wetterlagen mit Hochnebel und daher ohne Wind und mit stark verringerter Sonneneinstrahlung für mindestens 12 Tage zu überbrücken.

Hier bieten sich allein Pumpspeicher-Kraftwerke mit einem Wirkungsgrad von 75% an (8).  Die z.Z. vorhandene Speicher-Kapazität aller Pumpspeicher in Deutschland beträgt 40 GWh (Gigawatt-Stunden), womit Deutschland 40 min lang mit Strom versorgt werden könnte (9).

Um für 12 Tage die erforderliche Strommenge von 17.280 GWh über diese Speicherkraftwerke  sicherzustellen, müssten 2038 Pumpspeicher-Kraftwerke von der Größe Goldisthal neu errichtet werden. Goldisthal in Thüringen ist das größte Pumpspeicher-Kraftwerk Deutschlands und kann maximal 8,480 GWh speichern (Berechnung siehe Nr.1 der Anlage).

  • Auch Prof. Sinn ging in seinem Vortrag auf das Problem der fehlenden Speicherkraftwerke ein (38).  Um den Flatterstrom aus Wind und Sonne bedarfsgerecht aus eigener Kraft anbieten zu können, kann er am effektivsten mit Hilfe von Pumpspeicher-Kraftwerken „geglättet“ werden. Das heißt aber auch: Solange das nicht realisiert ist,  muss  die installierte Leistung der herkömmlichen fossil-gefeuerten und Kern-Kraftwerke zu 100%  betriebsbereit vorgehalten werden. Nur so kann gegenwärtig der volatile Strom verstetigt  und in der Nacht bei Windstille aber oft auch über Tage nahezu vollständig ersetzt werden.
  • Bei seinem Modell geht Prof. Sinn von der 2011 installierten Leistung an volatilem Wind- und Sonnenstrom und der in diesem Jahr gelieferten Strommenge aus. Er rechnet vor, wie viel Pumpspeicher nötig wären, um diese vergleichsweise kleine Strommenge von 68.500 GWh, das sind 11,2% des produzierten Bruttostroms (4) kontinuierlich liefern zu können.
  • Für den Ausgleich der Windkraft-Fluktuationen ergibt sich folgende Rechnung (38, Video ab min. 43): Eine über das Jahr kontinuierliche Windstrom-Leistung von 5,1 GW, wovon insgesamt 0,9 GW ständig gesichert am Netz sind und 4,2 GW der Volatilität unterliegen, erfordert eine Speicherkapazität von 6600 GWh. Dafür müssten 6097 neue Pumpspeicher gebaut werden. Tatsächlich habe Deutschland aber nur 35 dieser Anlagen und selbst die wenigen neu geplanten Anlagen würden stärksten Bürgerprotest hervorrufen – siehe das Jochberg-Projekt am Walchensee in den Bayerischen Voralpen. Selbst wenn man mit 3,0 GW kontinuierlicher Windstrom-Leistung vorliebnimmt und den Strom aus der Leistungs-Differenz von 2,1 GW (5,1 GW – 3,0 GW), d.h. die Leistungsspitzen „verwirft“ –  benötigte man dennoch 456 neue Anlagen für das Speichern des volatilen Anteils aus der Leistung von 2,1 GW (3,0 GW – 0,9 GW).
  • Wegen der Nacht gibt es überhaupt keine gesicherte Sonnenstrom-Leistung. Der volle Ausgleich der Sonnenstrom-Votalität von 2,2 GW mittlerer Jahresleistung würde noch einmal 3918 Pumpspeicher-Kraftwerke erfordern (38, Video ab min. 46). Da sich der Windstrom und der Sonnenstrom in gewisser Weise ergänzen – im Winter gibt es mehr Wind und im Sommer mehr Sonne – brauchte man für die Speicherung der Summe des Stroms aus 7,3 GW Wind- und Sonnenstrom-Leistung  „nur“ 3544 Speicher-Kraftwerke. Reduziert man das wieder auf 4,1 GW und verwirft die Leistungsspitzen von Wind- und Sonnenstrom bis 7,3 GW braucht man dann „nur“ 385 Speicher. Da noch der Wirkungsgrad der Pumpspeicher-Kraftwerke von 75% berücksichtigt werden muss, werden zur Glättung des volatilen Stroms aus einer Leistung von 3,2 GW (4.1 GW – 0,9 GW gesicherte Windstrom-Leistung) 437 Speicher gebraucht.
  • Unter diesen Bedingungen würde man durch den 2011 produzierten Wind- und Sonnenstrom gerade einmal 4 Kernkraftwerke oder Kohlekraftwerke mit einer Leistung von 4,1 GW dauerhaft ersetzen können, davon knapp 1 Kraftwerk durch den kontinuierlich zur Verfügung stehenden Windstrom von 0,9 GW und gut 3 Kraftwerke durch den Bau von 437 Speicher-Kraftwerken. Somit kann nur 1 Kraftwerk bzw. eine Leistung von 0,9 GW endgültig still gelegt werden. Das dauerhafte Abschalten weiteren 3 herkömmlichen Kraftwerken bzw. Herausnehmen von 3,2 GW – d.h. von 4% – aus der aus Sicherheitsgründen vorzuhaltenden Leistung  von ca. 80 GW ist technisch und ökonomisch nicht lösbar. An diesem Beispiel sieht man noch einmal sehr deutlich, wie weit entfernt von leicht überprüfbaren mathematischen, naturwissenschaftlichen und ökonomischen Fakten sich alle Verfechter  der Energiewende bewegen und zur großen Volksverdummung über die Energiewende beitragen.
  • Nach Prof Sinn ist sei auch die Idee unsinnig, die Batterien von Elektroautos als Speicher für das Stromnetz zu verwenden. Die von der Regierung bis 2020 erhoffte Zahl von 1 Million E-Autos würde – falls sie überhaupt als Speicher für das Netz zur Verfügung stehen würden –,6% der erforderlichen Speicherkapazität bringen. Für eine 100%ige Speicherung würde man 164 Millionen E-Autos brauchen, die ca. 254 Milliarden Euro kosten würden (38).

Die eignen Berechnungen für die immer wieder propagierte mögliche Versorgung mit 100% volatilem EE-Strom (siehe Anhang) ergeben folgende, sehr ähnliche  Resultate:

Um die o.g. 2038 Pump-Speicher-Anlagen mit ausreichend volatilem EE-Strom zu versorgen, müsste die Leistung der erneuerbaren Stromerzeuger von 62 GW im Jahre 2012 auf das  11-fache  ausgebaut werden. Beides ist illusorisch, denn  nicht einmal der hundertste Teil der erforderlichen Pumpspeicher-Kraftwerke könnte noch in Deutschland errichtet werden: Es fehlt der Platz; vom Widerstand der lokalen Bevölkerung ganz abgesehen, wie kürzlich am Beispiel der gescheiterten Rursee-Anlage in der Nordeifel zu sehen war. Und ein 11-facher Ausbau der volatilen EE-Stromer-Anlagen ist ebenso abwegig. Es kann niemals in Deutschland die notwendige Langzeit-Speicherkapazität errichtet werden, die für den geplanten Ausbau der Stromversorgung mit weitaus höherem Anteil an Wind- und Solarstrom unter der Bedingung einer ausreichenden Netzstabilität erforderlich wäre.

Deshalb kommen für die notwendige Stabilisierung des Stromnetzes gegen den fluktuierenden Wind- und Solarstrom fast ausschließlich konventionelle Kraftwerke in Frage – das sind Gas- und Kohlekraftwerke – die somit unverzichtbar bleiben. Allerdings sind gerade diese durch das zu bestimmten Zeiten erzwungene Überangebot des an der Strombörse gehandelten billigen EE-Stroms, der anschließend von den Verbrauchern über die EEG-Umlage teuer bezahlt werden muss, in ihrer Wirtschaftlichkeit und damit von Stilllegung bedroht – siehe Kapitel 2.6.

Damit ist die Absurdität der Energiewende-Planung mit ihren inneren Widersprüchen offensichtlich.  Deren Ziele sind ungeachtet der zu ihrem Erreichen verschwendeten Milliarden an € niemals auch nur im Entferntesten realisierbar.

Die Aussichten heute: Die Stabilität des Netzes nimmt weiter ab, aber dennoch wird der auf Kosten der Verbraucher verfolgte Ausbau der unberechenbaren Wind- und Solarstromanlagen – nach wie vor ohne Absicherung durch Speicher – sehr wahrscheinlich weiter fortgesetzt. Damit ist der Weg in die doppelte Katastrophe – eine unsichere Stromversorgung und die extrem hohen Stromkosten – vorgezeichnet, wenn nicht sehr bald ein radikaler Kurswechsel erfolgt.

2.5  Neue Speichertechniken ohne Chance zur Rettung der Energiewende

Da auch die Politik und die Verfechter der volatilen „Erneuerbaren“ die Unmöglichkeit für dieErrichtung der riesigen, zwingend benötigten Pumpspeicher-Kapazitäten in Deutschland stillschweigend akzeptieren, greifen nun die politischen Verteidiger der Energiewende zu der bewährten Methode der Herausstellung angeblicher technischer Alternativen sowie der Finanzierung von angeblich die Lösung bringenden  Entwicklungsprojekten – in diesem Fall also Stromspeichertechniken bzw. Techniken, die man so nennt, obwohl sie nur auf die Produktion von Gas oder Wärme aus EE-Strom hinauslaufen.

Wie meistens gibt es in der Technik verschiedene Lösungen für technische Probleme; das Deutsche Patentamt ist voll davon. Der immer über die Brauchbarkeit entscheidende Knackpunkt ist aber jeweils die Antwort auf die Fragen nach den Kosten, nach der Praktikabilität und – selbst bei den Techniken, die dafür eine positive Antwort versprechen – die Frage nach dem realistischen Zeitpunkt nicht nur der Entwicklungsarbeiten, sondern des Erreichens von Marktreife und Marktdurchdringung. Technische Laien können sich nur schwer vorstellen, dass die Zeit vom Beginn der Entwicklungsarbeiten bis zur Marktreife sehr oft 30 bis 40 Jahre dauert, wobei 20 Jahre bereits die erfreuliche Ausnahme bildet.

Ein Beispiel  ist die Brennstoffzelle. Diese Anlage vermag aus Wasserstoff und Sauerstoff durch „kalte Verbrennung“ Gleichstrom mit Wirkungsgraden von 50 – 60% zu erzeugen.  Seit 1970 hat der Staat  viele Millionen DM in die Entwicklung investiert. Leider ist diese Technik bis heute immer noch nicht ausgereift; es gibt nur wenige sog. Pilotanwendungen. Der Grund: Immer noch zu hohe Kosten und zu geringe Lebensdauer. Aus diesem Grund wird die Anwendung dieser nicht verfügbaren Technik in den unten beschriebenen Prozessen auch nicht berücksichtigt.

Das Dilemma der fehlenden großen Stromspeicher führt nun dazu, dass die Regierung damit begonnen hat, verschiedene Entwicklungen von neuen Speichertechniken zu fördern, die man zumindest der Öffentlichkeit als Hoffnungsvision darstellen kann. Dabei wird darauf vertraut, dass vor allem die Medien diese Aktivitäten als sog. Zukunftstechnologien lobend darstellen – und dass die Bürger einerseits die Schwächen dieser Systeme nicht durchschauen und andererseits annehmen, dass der Einsatz dieser Techniken in nächster Zukunft stattfinden kann und wird.

Man kann durchaus von einer Täuschung sprechen, denn wie unten gezeigt wird, besteht in keinem der Fälle eine Chance dazu.

In den folgenden Darstellungen wird wiederholt auf eine wichtige Kenngröße aller Anlagen der  Energieumwandlung und -Übertragung hingewiesen: Der Wirkungsgrad.

Das ist ein Maß für die Effizienz, mit der eine Anlage arbeiten kann. Er beschreibt das Verhältnis der abgegebenen Nutzleistung zur zugeführten Leistung und wird deshalb in Prozent angegeben.

Ein Pumpspeicherkraftwerk, das einen Wirkungsgrad von 70 % hat, vermag also von einer aufgenommenen Strommenge (z.B. 100 Megawattstunden, MWh) 70 Prozent wieder als Strom abzugeben – also 70 MWh Strom. Der Rest von 30 MWh elektrischer Energie geht als Verlustwärme verloren.

Bei einer Kette von hintereinander liegenden Anlagen erhält man den Gesamtwirkungsgrad durch einfache Multiplikation der Einzel-Wirkungsgrade.

Bei allen offiziellen Angaben zu Wirkungsgraden ist Vorsicht geboten, weil man damit die Effizienz einer Anlagentechnik erheblich auf dem Papier schönen kann – was auch gerade zu Gunsten politisch erwünschter Technologien oft und gerne geschieht.

Im Folgenden werden die als neue Speichertechnologien ins Rampenlicht gestellten Verfahren beschrieben und bewertet. Sie alle sollen den überflüssigen und nur das Netz störenden  Wind- oder Solarstrom nutzen und daraus Wasserstoff, synthetisches Erdgas oder auch wieder Strom erzeugen.

Die meisten nützlichen Zahlenangaben lieferte die Fa. ENERTRAG, die die Anlage in Prenzlau betreibt (51,54); s. auch die Lit. (55) und (56). Daten zu diesem Projekt in Anlage 2.

A.) Die Power-to-Gas-Technik  

Dieses Verfahren beginnt in allen seinen Varianten mit der Anwendung eines elektrochemischen Prozesses: Die Elektrolyse von Wasser mit Strom – woraus man Wasserstoff, Sauerstoff und Verlustwärme erhält.  Wollte man tatsächlich eine Speicherung des eingesetzten Stroms wie bei einem Pumpspeicherwerk, liegt hier bereits ein entscheidender Nachteil vor, denn aus der hochwertigen Elektroenergie wird unter Inkaufnahme hoher Verluste ein im Vergleich zur elektrischen Energie minderwertigerer Energieträger, ein Brenngas, erzeugt. Bei einem Pumpspeicherwerk erfolgt die Zwischenspeicherung jedoch in der Form von hochwertiger potenzieller Energie (die Höhe der Wassersäule), die direkt wieder über eine Turbinen-Generator-Kombination mit einem hohen Wirkungsgrad als Strom abgegeben wird.(6)

A 1) Die Erzeugung von Wasserstoff aus EE-Strom

Der aus dem Netz entnommene Wechselstrom muss gleichgerichtet werden, um dann in einer Elektrolyse-Anlage Wasser in Wasserstoff H2 Sauerstoff zu spalten. Ziel ist es, den Wasserstoff dem landesweiten Erdgasnetz zuzuführen. In diesem ist eine Wasserstoffkonzentration von 5% erlaubt.

Wirkungsgrad „EE-Strom zu H2“: – Gleichrichtung 94 %,   – Elektrolyse 80 %,  – Gesamt 75 %.

Probleme: a) Man hat keinen Strom gespeichert. Es wurde mit 25% Verlusten ein Brenngas erzeugt.

                 b) Es ist zunächst der Nachweis zu erbringen, dass Elektrolyseure, die unter Praxisbedingungen intermittierend bzw. fluktuierend im Zusammenspiel mit EE-Erzeugern eingesetzt werden, tatsächlich ein zufriedenstellendes Betriebsergebnis zeigen

                 c) Man muss große Mengen an H2 zwischenspeichern. Dessen Kompression erzeugt weitere Verluste zwischen 5 und 15 % (6).

 Kosten:     Die Kosten des so erzeugten Wasserstoffs werden vom Preis des EE-Stroms (bei direkter  Lieferung Windpark-zu-Anlage), von den o.g. Verlusten und von den Kapital- und Betriebskosten der Anlage und den Steuern bestimmt. 

Folgendes kann gut abgeschätzt werden:

–        Windstromkosten nach EEG: Land: 4,87 – 8,93 (Anfangsvergütung) Cent/kWh

                                                    Offshore: 19 Cent/kWh („Stauchungsmodell“)

–        mal Faktor 1,48 wegen der Verluste bis zur Elektrolyse (75%) und durch die folgende Verdichtung zur Gasnetz-Einspeisung (10 %); =    7,21 Cent/kWh für alte Land WKA                                                                                                         = 28,05 Cent/kWh für Offshore-WKA

–        Kapital- und Betriebskosten: Marktübliche jährliche Größen sind 7% für Verzinsung, 5% für eine 20-jährige Abschreibungsdauer und 7% für Betriebskosten – zusammen 19% p.a. von der Investition. Aus den Daten der Anlage in Prenzlau (Elektrolyseurkosten 10 Mio Euro, weitere Anlagen (geschätzt) 4 Mio Euro, Stromerzeugung 16.000 MW/a) ergeben sich  Kapital- und Betriebskosten von 16,6 Cent/kWh.

–        Damit Erzeugungskosten des ins Erdgasnetz eingespeisten H2:

= 23,7  bis 44,65 Cent/kWh 

–        Dazu Netzkosten, Erdgassteuer, Umsatzsteuer, Konzessionsabgabe: zus. 47%

–        Endpreis bei Bezug des Wind-Wasserstoffs über das Erdgasnetz:

=  34,8  bis 65,6 Cent/kWh, je nach Alter und Ort der Windräder.

–        Im Vergleich: Haushalts-Gaspreis: 7,1 Cent/kWh (Rhenag, Siegburg).

Je höher der Anteil an Offshore-Windstrom wird, umso teurer wird der Wind-Wasserstoff – d.h. bis zum 9-fachen des normalen Erdgaspreises.

Der so erzeugte Wasserstoff kann jedoch nur in beschränkten Mengen ins Erdgasnetz eingespeist

werden. Das verhindert einen flächendeckenden Einsatz dieser Technik. Bei größeren Anlagen wird diese Grenze rasch erreicht, weshalb dieses nur bis zur Wasserstofferzeugung reichende Verfahren relativ bedeutungslos bleiben wird. Deshalb hat man notgedrungen einen weiteren Schritt mit der Erweiterung dieser verlustreichen Verfahrenskette getan, um das Erdgasnetz voll als Endabnehmer nutzen zu können. Mit der Nachschaltung einer Methanisierungs-Stufe wird Synthetisches Erdgas SNG erzeugt (siehe A 3).  

A 2)  Die Erzeugung von Strom – über den Zwischenschritt Wasserstoff – mit Rückverstromung.

Zumindest mutet eine so aufgebaute Anlage wie ein Stromspeicher an, denn Strom geht hinein und wird wieder abgegeben. Dafür muss der Wasserstoff – nach Speicherung – in einem Wasserstoffmotor oder einer Gasturbine plus Stromgenerator verbrannt werden. Erhebliche Zusatzverluste sind der Preis.

Wirkungsgrad „EE-Strom zu H2 zu Strom“:

–        In A 1) ergab sich für die H2-Erzeugung 75 %.

–        Ein Gasmotor kann 40 % erreichen.

–        Eine 100 MW-Gasturbine bis 40 %; eine 10 MW-Gasturbine 35 %. Es wird hier

–        38 % angenommen.

Diese Anlage erreicht somit einen Wirkungsgrad von 0,75×0,38 = 28,5 %. Mit einem Stromspeicher hat das nichts mehr zu tun. Vielmehr handelt es sich bei einem Verlust von 71,5 Prozent um eine recht teure Energievernichtungs-Anlage.

                 

Probleme: a) Weil Überschuß-Windstrom im Netz nicht gebraucht wird, muss der erzeugte Wasserstoff erst einmal gespeichert werden, bis wieder Bedarf im Stromnetz entseht. Das führt zu einem erheblichen Speicherproblem.

                 b) Zwar nimmt die Anlage Strom auf, speichert den erzeugten Wasserstoff und erzeugt mit diesem wieder Strom, der abgegeben wird, aber die nochmals erhöhten Verluste sowie die ebenfalls höheren Kapitalkosten treiben diesen Strompreis weit über das Niveau der ohnehin schon hohen Kosten für den „gespeicherten“ Wind- oder Solarstrom. Der Gesamtwirkungsgrad von 30 % – also 70 % Verluste – ist nichts anderes als eine Katastrophe. Da hilft es nichts, einen Teil der Verlustwärme noch irgendwie zu nutzen.

 Kosten:     –  Wie in A 1) ergibt sich für die Wasserstofferzeugung

                     =    7,21 Cent/kWh für Strom aus alten Land-WKA                                                    =  28,05 Cent/kWh für Strom von Offshore-WKA

                  –  Die folgende Verstromung kann in Wasserstoff-Motoren oder Gasturbinen – jeweils mit  nachgeschalteten Stromgeneratoren – erfolgen. Deren Wirkungsgrad ist in beiden Fällen

                     ca. 38 %.

                  –  Bei großen Gaskraftwerken wird oft das sog. GuD-Verfahren eingesetzt, bei dem einer Gasturbine noch eine zweite Stufe – eine Dampfturbine – zur Abwärmenutzung nachgeschaltet wird, was Wirkungsgrade bis zu 60 % ermöglicht. Aufgrund der höheren Investitionskosten für GuD-Anlagen und der sehr wahrscheinlich geringen zeitlichen Auslastung in einem von EE-Stromerzeugern

dominierten System wird man vermutlich auf die teure Dampf-Zusatzstufe verzichten. Das bedeutet: Nur eine Gasturbine ohne Abwärmenutzung erledigt die Rückverstromung – mit dem o.g. Wirkungsgrad. Entsprechend sinkt der Gesamtwirkungsgrad der Anlage auf 25,6 %.

                   –  Zwischenergebnis:  18,96 bis 73,77 Cent/kWh

                   –  Hinzuzufügen: Kapital- und  Wartungskosten (bei 21 Mio Investitionskosten (54))

                      von 25  Cent/kWh:

                   –  Die Stromerzeugungskosten betragen dann:

                       =   44,0  bis 98,8 Cent/kWh.

                      Weil das EEG derartige Vergütungen nicht vorsieht, wird eine solche Anlage nur Verluste einfahren, Es sei denn, die Regierung ändert das EEG und stellt die o.g. enormen Einspeisevergütungen bereit. Das ist im Moment nicht vorstellbar, aber noch vor wenigen Jahren war auch die heutige Situation in der Energiewirtschaft nicht vorstellbar.

                   –  Für die Privatkunden beträgt 2014 die Belastung des Strompreises durch Steuern und Abgaben 55 %. (56).

                      Ergebnis: Eine derartige Power-to-Gas-Anlage verursacht einen Strompreis von 68,2 Cent/kWh bis  1,53 Euro/kWh – je nach aufgenommenem „EE-Strom-Mix“.

A 3)  Die Erzeugung von Strom – über die Zwischenschritte Wasserstoff, Methan und Rückverstromung

Weil die nur bis zum Wasserstoff reichende Verfahrenskette bald zu Schwierigkeiten bei der Einspeisung dieses Gases in das Erdgasnetz führt (s.o.), hat man beschlossen, der Elektrolyse eine Methanisierung nachzuschalten. Damit nimmt man weitere Verluste in Kauf.

Für die Umwandlung von Wasserstoff in synthetisches Naturgas SNG nach dem Sabatier-Verfahren wird Kohlenstoffdioxid CO2 eingesetzt. Anschließend erfolgt wieder die Rückverstromung – wie oben beschrieben.

Probleme: a)  Die Umwandlung in SNG erfordert einen weiteren erheblichen Ausbau der Anlage; deutlich höhere Kapitalkosten und Wartungskosten entstehen.

b)     Der Wirkungsgrad der Methanisierung beträgt 80 bis 85 %; hier angenommen: 83 %.

Damit folgt für den Gesamtwirkungsgrad der Anlage:

0,75 x 0,9 x 0,83 x 0,38 = 0,213. Also klägliche 21,5 Prozent.

V. v. Schnurbein, der die zwei Szenarien einer optimistischen und einer skeptischen Abschätzung der einzelnen Prozeßwirkungsgrade betrachtete, kam  hier bei der skeptischen – und möglicherweise realitätsnäheren – Variante auf einen Gesamtwirkungsgrad von nur noch 14 %. (6)

c)  Woher sollen aber die großen Mengen an CO2 kommen ? Es ist umstritten, ob überhaupt

     genügend CO2 aus biogenen und industriellen Prozessen für eine großflächige

     Anwendung der Methanisierungs-Technologie zur Verfügung steht.(55).

Kosten: Nach Anwendung der obigen Rechnungen ergibt sich mit Methanisierung und Rückverstromung sowie mit 33,3 Cent/kWh für die Kapital- und Betriebskosten (wegen der zusätzlichen Methanisierungs-Stufe wird die Investition um 33% höher als bei  Verfahren A 2) geschätzt):

             Stromerzeugungskosten:  =  56,2 bis 122,2 Cent/kWh

             Für Privatkunden beträgt dann der Strompreis nach Aufschlag der Steuern und Abgaben:

             =  1,07  bis  1,89  Euro/kWh.

                

Bei diesem angeblich der Stromspeicherung dienenden Verfahren sind die Verluste so extrem, dass eher von einem Stromvernichtungs-Verfahren gesprochen werden kann. Entsprechend hoch fällt dann der Preis des verbleibenden  Rest-Stroms bei der Rück-Einspeisung aus, wie das Zitat aus einem Fachartikel zeigt: „Dieses System als Langzeitspeicher für überschüssigen EE-Strom (Wind und Solar) würde bei einer Anlagenkapazität von 44 GW(el) und einem Stromoutput zwischen 12,3 und 31,7 TW (1 Terawatt  = 1 Million Megawatt) – das wären 2 bis 5 % des deutschen Strombedarfs – jährliche Mehrkosten zwischen 25,1 und 28,1 Mrd. Euro verursachen (6).

Es wird schnell klar, dass zur vollständigen Stromversorgung über die volatilen „Erneuerbaren“ unter Verwendung dieser höchst ineffizienten Speicher noch eine viel größere Anzahl von Wind- und Solarstromanlagen  als schon beim  Bau von 2038 neuen Pumpspeicherkraftwerken erforderlich wäre.  Bei dem Power-to-Gas-Verfahren  Strom – Wasser -Wasserstoff – Methan – Strom  wären sogar Wind- und Solarstromanlagen mit einer ca. 58-fachen Leistung im Vergleich zur installierten Leistung von 2012 zu errichten.

Damit wären alle Pläne bezüglich der Nutzung von  grünem Überschussstrom mittels elektrochemischer und chemischer Umwandlung als Erdgas-Ersatz, als KFZ-Antrieb und erst recht als Stromspeichermethode wegen unakzeptabler Ineffizienz und untragbarer Kosten sinnlos.

Alle Unternehmen, die sich an Power-to-Gas-Projekten beteiligen, besitzen selbstverständlich den Sachverstand, um die geschilderten Probleme, die sich ganz einfach aus einem Ignorieren physikalischer Gesetzmäßigkeiten ergeben, klar zu erkennen.

Es stellt sich daher die Frage, weshalb aus der Industrie und insbesondere aus ihren Verbänden keine Kritik an der Energiewende-Politik zu hören ist. Im Gegenteil: In allen Reden, Artikeln und Pressemitteilungen von Unternehmensvertretern wird in einer bemerkenswert gleichlautenden Sprachregelung immer von „ehrgeizigen“, „ambitionierten“ und „anspruchsvollen“ Zielen der Regierung gesprochen. Das sind heute die Synonyme für die Adjektive „sinnlos“, „unbezahlbar“ und „realitätsfern“.

Durchweg wird betont, dass man selbstverständlich die gleichen Ziele hätte. Nur ein paar kleine Änderungen wären doch schön.

Es erinnert an das Märchen von des Kaisers neuen Kleidern. Die Motive jedoch, die heute die Höflinge der Regierung für ihre Bewunderung der Energiewende haben, sind von handfesterer Art: Man rechnet damit, dass die gegenwärtige Energiepolitik noch einige Jahre andauert und man möchte die durch die verschiedenen Schwierigkeiten und Fehler entstandene Notsituation der Regierung für lukrative Geschäfte nutzen. Die Situation ist deshalb dafür besonders günstig, weil jetzt der Staat durch Gesetze und Verordnungen dafür sorgt, dass alle politisch gewünschten Projekte – seien sie auch noch so sinnlos wie die Power-to-Gas-Fabriken – mit Sicherheit bezahlt werden. Deshalb schaltet der Energieversorger E.ON derzeit TV-Spots mit der Präsentation der Power-to-Gas-Anlagen “ als „Stromakku“ für Windkraftstrom. Die Bürger werden es schon nicht durchschauen.

Es besteht eine staatliche Abnahme- und Gewinngarantie. Auch neue Absatzmärkte winken, wie die nur durch Zwang vielen und demnächst vermutlich allen  Haushalten vorgeschriebenen „Smart Meter“. Es ist ein vorübergehend existierendes, planwirtschaftliches Paradies.

Aus der Sicht dieser Unternehmen wäre es sehr unvernünftig, die Zeitspanne bis zum Zusammenbruch der Energiewende-Politik nicht für gute Geschäfte zu nutzen.

Das Power-to-Gas-Thema wurde hier so eingehend dargestellt, weil es sich dabei um die dreisteste Irreführung in der gesamten Energiewende handelt. Die Kosten sind derart extrem, die Verluste dermaßen krass, dass jegliche Hoffnung auf das spätere Erreichen eines erträglichen Niveaus vergeblich ist. Man kann die Physik nun einmal nicht betrügen.

Die finanzielle Förderung etlicher Projekte durch Bundes- und Länderministerien zeigt deutlich, dass es dort als politisch wichtig angesehen wird, mit diesen Potemkinschen Dörfern den Bürgern eine Hoffnung auf künftige Besserung der offensichtlich prekären, an den Strompreisen ablesbaren Situation vorzugaukeln. Es geht nur um Zeitgewinn, nicht um Energie…

Fortsetzung folgt

Den gesamten Text können Sie sich als pdf datei im Anhang herunterladen

Related Files




Windstrom ist kein Ökostrom

Dagegen liefern Temperaturmessungen der vergangenen Jahrhunderte, die realen Beobachtungen der Natur, beispielsweise die Änderungen der Gletscherrandlagen, und die paläoklimatologischen Forschungsergebnisse handfeste Beweise gegen die Annahme, CO2 verstärke den Treibhauseffekt und verursache den Klimawandel. Tatsächlich bestätigen die Fakten Franke’s Lexikon der Physik von 1959 mit der Feststellung: „CO2 ist als Klimagas bedeutungslos“;  1959 wurde CO2 noch objektiv beurteilt, denn die Klimahysterie gab es noch nicht.

Es soll reichen, an einige Gegenbeweise zu erinnern: 1) Die Langzeit-Temperaturmessungen seit 1700 registrierten in den vorindustriellen Jahrhunderten stärkere und schnellere Wechsel als im 20. Jahrhundert. 2) Zwischen 1920 und 1960 wurde es weltweit wärmer, die anthropo­gen ver­stärkten CO2-Emissionen begannen erst später. 3) Trotz der dann ein-setzenden Emis­sionen folgte bis etwa 1980 eine Abkühlungsphase. 4) Die anschließende Warmphase wurde dann um 1995 von einer neuen Abkühlungsphase abgelöst, die noch andauert, obwohl der CO2-Gehalt weiter ansteigt. Und um auch die Erdgeschichte zumindest etwas zu berücksich­tigen 5) sehr viel höhere CO2-Gehalte als in der Gegenwart haben keine Eiszeiten verhindert. Es gibt folglich kei­nen wirklichen Grund, CO2 als klimawirksam  zu bekämpfen, es gibt aber einen sehr wesentli­chen Grund, den Anstieg des CO2-Gehaltes der Luft zu begrüßen: Be­kanntlich steigt die Pro­duktivität der Pflanzen mit dem CO2-Gehalt der Luft, und mehr CO2 steigert auch die Ernteer­träge, was die Versorgung von immer mehr Menschen erleichtert.

Schließlich noch eine Erinnerung an unsere Geschichte: Die Menschheit hat schon immer schlimme selbstverschuldete Entwicklungen durchleiden müssen und selbst die schlimmsten wurden auch von Wissenschaftlern gerechtfertigt – und das ist immer noch möglich, denn die Menschen haben ihr Verhalten nicht geändert. Diesmal soll uns etwas mehr CO2, der Grundbau­stoff unserer Nahrungsmittel, die Hölle heiß machen und damit die Existenz der Menschheit ge­fährden. Also muss seine Produktion eingeschränkt wer­den. Strom aus Kohle und Gas ist schäd­lich und soll nun vorrangig aus dem Wind und dem Son­nen­schein gewonnen werden. Denn die­ser ‚grüne’ Strom ist angeblich sauber und ökologisch ein­wandfrei. ‚Öko’ wurde zur Zauberfor­mel, die unsere Zukunft sichert. ‚Öko’ hat Hochkon­junktur und wurde zum Markenzeichen für ein gutes und friedliches Leben. Soll etwas als harmlos ge­kennzeichnet werden, erhält es die Vorsilbe ‚Öko’.

Ist das berechtigt?  Was meint Öko?  Die erste Definition des Begriffes Ökologie stammt aus dem Jahr 1866 von Ernst Haeckel, einem deutschen Biologen. Als Anhänger des zu seiner Zeit noch jungen Modells von der biologischen Evolution, das Charles Darwin 1859 publiziert hatte, verstand er unter Ökologie die Lehre von den Bedingungen der Lebewesen im Kampf ums Da­sein und vom Haushalt der Natur. Mo­dern interpretiert ist

„Ökologie die Wissenschaft, die sich mit den Wechselbe­ziehungen be­fasst, die die Verbreitung und das Vorkommen der Orga­nismen bestim­men.“

(zitiert in Wikipedia von Lampert/Sommer (1993) übernommen aus Krebs (1985). Daraus folgt, dass unsere Aktivitäten, die die Wechselbeziehungen zwischen den Orga­nismen, ihrer Vorkommen und ihrer Verbreitung beeinträchtigen, anti-ökolo­gisch sind. Das gilt auch für das Öko­system ‚Luft’ mit allen seinen Organismen, ihren Vorkommen, ihrer Verbreitung und ihren Wechselbeziehungen. Auch sie sind selbstverständlich ein Ergebnis der Evolution, die bis zur Gegenwart erreicht wurde. Deshalb ist zwangsläufig jeder Eingriff, der dieses Ergebnis stört, ökologiefeindlich, also auch die Wind­kraftanlagen. 

Die Grünen: „Gefährlich sind die Windräder nicht“….

… lautet kurz und bündig die Schlussfolgerung der Grünen von Bad Driburg anlässlich ihres Besuches einer Windkraftanlage im Raume Paderborn, wie im Mitteilungsblatt vom 28.11. berichtet wird. Die Grünen begründen ihr Urteil damit, dass der Sturm Kyrill „keine einzige Windkraftanlage zum Umkippen“ brachte, während er doch „viele Hektar Wald umlegte“.  Welch ein Vergleich – Hochbauten werden sturmsicher gegründet! Was die Grünen in ihrem Bericht verschwiegen haben: die Fakten zeichnen für Windkraftanlagen ein schlimmes Bild, wie Beispiele dokumentieren.

(1)  Matt Ridley berichtet in der Times (Stichwort: Clive Handler Pulmonary hypertension): „Wie Clive Hanbler von der Oxford University dokumentiert hat, werden in jedem Jahr zwi­schen 6 und 18 Millionen Vögel und Fledermäuse in Spanien allein durch Windräder getötet, einschließlich seltener Gänsegeier, von denen in einem Jahr 400 Exemplare getötet worden sind, ….. In Tasmanien sind die Keilschwanzadler wegen der Windturbinen vom Aussterben bedroht. Norwegische Windparks töten jedes Jahr zehn Seeadler. Deutsche Windturbinen töten 200000 Fledermäuse pro Jahr, von denen viele Hunderte Meilen gewandert sind“.

(2)  AP/dpa, t-online.de, 23. November 2013: In den USA will eine Windenergiefirma eine Geldstrafe von einer Million Dollar (rund 740.000 Euro) zahlen, weil in ihren Windrädern 14 Steinadler umgekommen sind. Das Unternehmen Duke Energy aus Charlotte in North Carolina gab eine Einigung mit den Behörden bekannt, nach der es sich eines Verstoßes gegen das Gesetz zum Schutz von Zugvögeln schuldig bekennen werde.

 (3)  Falmouth, Cape Cod, Mass., USA, BARNSTABLE (22. November): Das Oberste Ge­richt stellt fest, dass Hausbesitzer in der Nähe von WKA ‚irreparable physische und psychi­sche Schä­den erleiden“. Gerichtsurteil Richter Christopher J. Muse am Oberen Verwaltungs­gericht erließ die einstweilige Verfügung, dass in Falmouth die Betriebsstunden der WKA wegen dieser Schä­den stark zu reduzieren sind. Mit dem Urteil müssen zwei Windkraftwerke von 19.00 bis 07.00 Uhr von Montag bis Samstag, sowie ganztägig am Sonntag, Thanksgi­ving, Weihnachten und Neujahr, mit sofortiger Wirkung abgeschaltet werden. „Dies ist ver­mutlich das erste Mal, dass ein Gericht in den USA entschieden hat, dass es genü­gend Be­weise dafür gibt, dass Windkraft­anlagen in der Nähe von Wohngebieten ein Ge­sundheitsri­siko für Familien sind, die in der Nähe leben", sagte Lilli-Ann Green, ein Vor­standsmit­glied der Organisation Wind Wise Massachu­setts.   (Quelle: http:// wind­wahn.de/index.php/news/gerichte/gesundheit-vor-windenergie)

Noch schlimmer fällt das Urteil für die Gewinnung von „Grüner Bio-Energie“ aus. Der Öko­loge Ulrich Eichelmann und sein Team beweisen das in „Climate Crimes“, als DVD abrufbar. Ein Ausschnitt: „Kaum mit Worten wiederzugeben ist der Frevel an der deutschen Flur, wie sie Ei­chelmann im Film beschreibt. Das Land verödet zur artenfeindlichen Monokultur von Maisfel­dern bis zum Horizont, auch Biosphärenreservate werden davon nicht verschont. Alles nur, da­mit ge­nügend Biogas produziert wird, um die Klimaziele zu erfüllen. Im Namen einer vermeint­lich sauberen Energie. Viele Vogelarten sind bereits vollends verschwunden, andere werden fol­gen. Feldhasen und andere Bodenbewohner wird man nicht mehr zu Gesicht be­kommen. Die größte Biogasanlage im Land benötigt 1000 Tonnen Mais pro Tag. 7000 Anla­gen stehen bereits, pro Jahr kommen im Durchschnitt etwa 1000 hinzu. Die Maisbauern kön­nen – letztlich aus sub­ventionierten Einnahmen – jede Pacht bezahlen, deshalb haben sich die Pachtpreise mehr als verdoppelt, bäuerliche Betriebe machen pleite. Übrigens: 2011 konnte Deutschland zum ersten Mal seinen Getreidebedarf nicht mehr selbst decken.“   Und dafür müssen in den armen Ländern immer mehr Kinder verhungern.

Der mit Windkraft und Bio-Energie gewonnene Strom ist ebenso wenig sauber und ökolo­gisch einwandfrei wie Stalins Arbeitslager im sowjetischen Gulag Pflegeheime waren. Ernst Heckel, der Vater der Ökologie, wäre entsetzt, müsste er erleben, dass Politiker und nicht wenige Berei­che der Wirt­schaft und sogar der Öffentliche Dienst wirkungsvoll mit „Ökolo­gie“ in­doktrinieren, obwohl sie nicht wissen, was wirklich gemeint ist. Dazu Beispiele aus der Politik:

Katrin Göring-Eckardt, die Fraktionsvorsitzende von Bündnis 90/Die Grünen im Bundestag, fordert in ihren Redebeiträgen die 100%ige Gewinnung von Strom aus Regenerativen Ener­gien als Mittel der ökologischen Erneuerung. Mal abgesehen davon, dass Windstrom und Bio-Energie ohnehin nicht ökologisch produziert werden, ist das aus zwei Gründen nicht erreich­bar: Erstens liefern Sonne und Wind bestenfalls in einem knappen Fünftel der Zeit Strom und zweitens ist das Speicherproblem noch lange nicht gelöst – und sehr wahrscheinlich für die benötigten Mengen auf unabsehbare Zeit nicht lösbar. Die sich daraus ergebenden Folgerun­gen sollte auch Frau Kat­rin Göring-Eckardt kennen und deshalb auf solche Forderungen ver­zichten. Nun mahnt sie aber auch gleichzeitig Glaubwürdigkeit an, beispielsweise in Günter Jauch’s Talkrunde,  und da wird der Fall problematisch, denn wer in der Politik eine absolut unrealistische Forderung stellt und trotzdem Glaubwürdigkeit verlangt, ist entweder extrem unwissend, was infolge der fachfremden akademischen Ausbildung und praktischen Tätigkeit in evangelischer Theologie von Frau Gö­ring-Eckardt verständlich wäre, oder verlogen, denn er praktiziert den in der Politik nicht selten anzutreffenden Zynismus zur Gewinnung von Wählerstimmen. Welcher Grund bei Frau Göring-Eckardt zutrifft, ist nicht zu beurteilen. Aber fest steht, dass die unsinnige 100%-Forderung nicht akzeptierbar ist, denn durch Werben mit einer nicht erfüllbaren Forderung wird der Bürger betrogen.

Vermutlich wäre Frau Katrin Göring-Eckardt entsetzt, würde sie erkennen – und anerkennen – müssen, was ökologische Erneuerung wirklich bedeutet: eine Reaktivie­rung der „Bedingungen der Lebewesen im Kampf ums Dasein“ (Heckel). Die Bezeichnung Ökostrom ist falsch – ebenso der inflationäre Gebrauch von ‚Öko’ als Vorsilbe.

Es hat sich schon lange gezeigt, dass das Prinzip der Evolution – Überleben des Geeignetesten (Survival of the fittest) – auch für unsere Produkte der Technik gilt, also auch für die Herstellung von elektrischem Strom. Die wichtigsten Faktoren für seine Erzeugung sind die Verfügbarkeit, die Wirtschaftlichkeit und die Energiedichte. Eine Produktionsweise, die keine optimalen Fakto­ren anwendet, wird sich als Sackgasse der Evolution erweisen. 

Related Files




Scheitern einer Prophetie

Vor mehr als fünf Jahren, im Mai 2008, erschien factum mit der Titelgeschichte «Die überhitzte Prognose – Fakten und Meinungen rund um den Klimawandel». Die Interviews und Berichte waren eine kritische Bestandsaufnahme der damaligen Berichterstattungin den Medien: Inwieweit entsprach die Behandlung des Themas der journalistischen Verpflichtung zur Wahrhaftigkeit?

Die Bilanz fiel ernüchternd aus. Wissenschaftliche Fakten und Ereignisse, die gegen einen anthropogenen (von Menschen verursachten) Klimawandel sprechen, wurden ausgeblendet.

Sie wurden schlicht nicht berichtet. Fast alle Medien, auch die Politik, vermittelten den Eindruck, in der Wissenschaft bestünde Einigkeit darüber, dass es eine dramatische Klimaerwärmung gäbe – ja, dass eine globale Katastrophe schier unausweichlich sei.

Die erste Aussage erwies sich damals (wie auch heute) als falsch. Die Medienwissenschaftler Prof. Mathias Kepplinger und Senja Post hatten im Rahmen einer Studie alle 239 professionellen Klimaforscher Deutschlands im Range eines Professors befragt, wie sie zu dem Thema stehen. Ergebnis: Nur eine Minderheit der Klimaforscher glaubte 2008 an einen von Menschen verursachten Klimawandel [1]. Als Mediennutzer musste man zu einem anderen, einem ganz falschen Eindruck kommen. Die Meinung der Mehrheit der Forscherfand in den Medien keinen Widerhall. 2008 gab es praktisch keine Berichterstattung über Aussagen von Wissenschaftlern, darunter viele Nobelpreisträger, die dem Mainstream widersprachen.

Das hat sich inzwischen geändert, seit der Klimarat einräumen musste, dass die Temperatur der Erde seit 15 Jahren unverändert ist. Und doch herrscht in der Öffentlichkeit noch immer ein falsches Bild von vielen Fakten, vor allem, weil Medien auf Übertreibung und Katastrophismus getrimmt sind. So glauben heute wie damals die meisten, dass es ein dramatisches globales Abschmelzen von Gletschern gäbe.

Für diese Behauptung fehlt aber jede wissenschaftliche Grundlage: Nur ein winziger Bruchteil der Gletscher, im Promillebereich, wird überhaupt untersucht. Von weltweit 160 000 Gletschern liegen gerade einmal von 120 Daten vor, berichtet der Gletscherforscher Jonathan Bember. Und keinesfalls alle Gletscher, über die Informationen vorliegen, schmelzen. Manche wachsen, manche werden kleiner.

Ebenso sind die meisten Menschen der Meinung, es bestehe ein ursächlicher Zusammenhang zwischen dem Rückgang von Gletschern und der postulierten Erwärmung durch menschliche Einflüsse. Tatsache ist aber, dass es auch in früherer Zeit starke Gletscherschmelzen (und auch erneutes Wachstum) gab. Vor allem ist zu bedenken, dass der gegenwärtige Rückgang von Alpengletschern bereits 1860 begann, zu einer Zeit also, als menschliches Verhalten schwerlich der Grund gewesen sein konnte.

Medien sind süchtig nach der Katastrophe und dem Skandal, weil ihre Nutzer genau dies nachfragen. Dass der Nordpol aktuell einen Zuwachs von 1,6 Millionen Quadratkilometern Eisfläche hat (60 Prozent mehr als im Spätsommer 2012) stand in kaum einer Zeitung. Auch wurde kaum vermeldet, dass der Südpol 2012 so viel Eisfläche hatte wie noch nie seit Beginn der Messungen. Hingegen stand die Rekordschmelze des Nordpols von 2012 auf jedem Titel.

Die Einstellung der Bevölkerung wird von veröffentlichter Meinung geprägt, nicht von Tatsachen.

Aus wissenschaftlicher Sicht kann man sich auch fragen, welchen Sinn es hat, CO2 zu einer Art Grunderkrankung des Erdballs zu erklären. Ohne CO2 gäbe es kein Leben auf der Erde. Steigende Werte bewirken eine Vitalisierung alles Lebendigen. Pflanzen wachsen schneller, sind robuster und ertragreicher. Schweizer Forscher stellten fest, dass höhere CO2-Werte die Biodiversität im Alpenraum erhöhen. Schwankende CO2-Werte sind kein Phänomen unserer Zeit. Es gab sie immer. Wie es dazu kam, dass der industrielle Ausstoss von CO2 zum wichtigsten klimarelevanten Stoff deklariert wurde, hat der ehemalige Greenpeace-Aktivist Jeremy Leggett in dem Buch «The Carbon War» in erstaunlicher Offenheit geschildert. Es war eine politische Entscheidung, keine wissenschaftliche.

In der Februar-Ausgabe der «Prodeecings of the National Academy of Sciences», einem der weltweit angesehensten wissenschaftlichen Magazine, kommen Forscher der Universität von Washington in Seattle zu dem Ergebnis, dass der anthropogene Anteil an der globalen Erwärmung in der zweiten Hälfte des 20. Jahrhunderts masslos überschätzt werde. Kollegen der Universität Oslo kommen in einer aktuellen Studie zu einem ähnlichen Ergebnis. Sogar eine Verdopplung des CO2-Ausstosses hätte demnach bei Weitem nicht die behauptete dramatischen Auswirkung.

Darauf, dass die Wirkung von CO2 auf die Erdtemperatur überschätzt wird, weist sogar dessen aktueller Bericht hin: Trotz einem Anstieg von CO2 blieb die Erwärmung aus. Der postulierte Zusammenhang fehlt offenbar. Auch im vergangenen Jahrhundert verlief das Auf und Ab der CO2-Werte nicht synchron mit dem Temperaturverlauf. Ungeachtet der Fakten hält der Klimarat nicht nur an der Erwärmung fest, sondern behauptet zudem, jetzt stehe «mit 95-prozentiger Sicherheit» fest, dass der Mensch schuld sei. Aufgrund welcher Fakten, an welcher Erwärmung?

Nüchtern betrachtet wirken auch die Daten von 1951 bis 1998 wenig dramatisch, geschweige denn katastrophal: 0,12 Grad Erwärmung in einer Dekade. Seither der Stillstand mit 0,05 Grad. Dabei muss man noch wissen, dass eine solche Temperaturmessung eine Wissenschaft für sich ist und dass es sich beim Klima der Erde um ein gigantisches und unendlich komplexes System handelt, welches zudem zu annähernd 100 Prozent von kosmischen Faktoren bestimmt wird, vor allem von der Sonne. Die Vorstellung, die Erdtemperatur sei nur bei 0,000 Grad Veränderung «gesund», 0,05 Grad Veränderung sei katastrophal, ist unsinnig. Ist überhaupt vorstellbar, dass die Parameter eines so gigantischen, interdependenten und komplexen, quasi lebendigen Systems sich statisch verhalten, unverändert bleiben?

Die gegenwärtige Entwicklung ist keine Erwärmung. Das war von 950 bis 1250 n. Chr., als die Wikinger ins grüne Grönland zogen und Ackerbau betrieben – und erst recht beim Klimaoptimum in biblischer Zeit – anders. Klimaerwärmung und -Abkühlung sind normale Phänomene. Höhere Temperaturen waren immer zum Wohl der Menschen wie der ökologischen Systeme. Klima ist Wandel.

Auf Messergebnisse kann der Weltklimarat seine Bedeutung nicht gründen – weil die Wirklichkeit diese Daten nicht hergibt. Er versucht, durch möglichst erschreckende, ja apokalyptische Aussagen die Menschen zu einer Folgsamkeit aus Furcht zu führen. Sein politisches Gewicht, seine Macht gründet auf seinen Zukunftsvorhersagen, nicht auf objektiven Messungen. Völlig zu Unrecht erweckt er den Anschein, einwissenschaftliches Gremium zu sein.

Aber ebenso wie der Weltklimarat kein wissenschaftliches, sondern ein politisches Gremium ist, so ist auch dessen Bericht kein wissenschaftliches, sondern ein politisches Dokument. Politiker und Verbandsvertreter feilschen um die Formulierungen. So versuchten deutsche Politiker die ausbleibende Erwärmung der vergangenen anderthalb Jahrzehnte in der Zusammenfassung des Berichts unter den Tisch fallen zu lassen.

Mit dem Klimarat ist die Wissenschaft in die Hände der Politik geraten. Es entstand eine Art bürokratisch-politischer Komplex, der Zugang zu den Geldtöpfen nationaler und internationaler Behörden und Institutionen und zu den Medien gefunden hat. Seine Haupttätigkeit besteht darin, Öffentlichkeitsarbeit für seine eigene Existenzberechtigung zu machen. Die Aussagen des IPPC widersprechen empirischen Erkenntnissen. Das scheitert jetzt und das musste auch scheitern. Langsam dreht sich der Wind.

Kein Mensch kann die Zukunft vorhersagen und es gibt auch keine wissenschaftliche Methode, die dies leisten könnte. Eine aktuelle, in der Fachzeitschrift «Nature Climate Change» publizierte Studie hat 117 der Prognosen zur Entwicklung der Welttemperatur überprüft. Die Trefferquote ist praktisch bei Null. Die Prophetien lagen fast alle (114) falsch und überschätzten die Temperatur. Prophetische Aussagen taugen nur zur Verifizierung einer Theorie und stärken nur dann die Autorität des Propheten, wenn sie eintreffen. Das ist hier nicht der Fall.

Am Beginn des Medienereignisses Klimawandel stand zuerst die Festlegung, dass es einen solchen (menschengemacht und katastrophal) unzweifelhaft gibt und danach begann die «wissenschaftliche» Arbeit: Bestehende und neue Daten wurden anschliessend in das bestehende, nicht mehr hinterfragte Paradigma eingebaut. Das ist vergleichbar mit dem Paradigma von den «geologischen Zeiträumen», die unzweifelhaft Millionen Jahre alt seien.

Zuerst wurde diese Feststellung getroffen, anschliessend wurden die gesammelten Daten in dieses Modell integriert. Den Wissenschaftlern macht das zunehmend Mühe. Früher ging man davon aus, dass es hunderte von Millionen Jahre dauert, bis eine auch nur millimeterdünne Gesteinsschicht entsteht. Heute weiss man, weil es vielfach bei Naturkatastrophen beobachtet wurde, dass sogar dicke Schichtfolgen in kürzester Zeit entstehen können. Da dies mit dem Paradigma von den unendlich langen Zeiträumen kollidiert, postulieren Geologen jetzt, die langen Zeiträume lägen nicht in den sichtbaren Schichten, sondern sie lägen zwischen den Schichten.

So ist es mit dem Klimawandel, hier postuliert schon das Wort die Unanzweifelbarkeit des Sachverhaltes. Dabei ist es absolut unwissenschaftlich, von der Unanzweifelbarkeit auszugehen. Es kann sich, aus wissenschaftlicher Sicht, nur um eine Theorie handeln. Darauf weist auch der Physik-Nobelpreisträger Prof. Ivar Giaver hin: «Die Aussage, ein menschen-gemachter Klimawandel sei ‹unwiderlegbar›, ist unwissenschaftlich und unhaltbar.»

Der ehemalige britische Finanzminister Lord Nigel Lawson hat dazu bemerkt: «Der Glaube an einen menschengemachten Klimawandel trägt religiöse Züge: Dies erklärt auch, warum er in Europa, wo sich die Kirchen leeren, wesentlich stärker ist als etwa in den USA.»

Mit dem postulierten direkten Zusammenhang von CO2 und Erdtemperatur verliert die Klimapolitik ihre Grundlage. Wer übernimmt dafür die Verantwortung? Die wirtschaftlichen Folgen dieser Verschwendung öffentlicher Gelder sind immens. Die Folgen tragen vor allem die ärmeren Bevölkerungsschichten.

Die ökologischen Folgen der Klimapolitik sind schwerwiegend: Dazu zählen, neben vielem anderen, die Brandrodung riesiger Urwälder in Indonesien, um aus Nahrungsmitteln «Biosprit» zu machen. Kaum eine Zeitung interessiert sich für diese Naturzerstörung oder für die Klagen von Ornithologen und Vogelschützern über die Tausende Vögel und Fledermäuse, die durch Windräder jämmerlich verenden. Eine im Wildlife Society Bulletin veröffentlichte Studie nennt die Zahl von 573 000 Vögeln, die jedes Jahr getötet werden, davon 83 000 Greifvögel.

Das christliche Hilfswerk «Brot für die Welt» beklagt die verheerenden Folgen der buchstäblich menschenverachtenden, ja menschenopfernden Energiewende: Nur noch knapp die Hälfte (47 Prozent) der weltweiten Getreideernte dient der menschlichen Ernährung.

Der Anteil, der zu Sprit verarbeitet wird, steigt ständig. Praktisch die ganze amerikanische Maisernte wird verflüssigt. Auch in Europa werden die Flächen zum Anbau von Getreide, aus dem Sprit gemacht wird, ständig ausgedehnt. Gewaltige Mengen, ein Drittel der benötigten Energiepflanzen, wird importiert, um die halbe Welt transportiert, vor allem aus Südamerika und Indonesien, wo Bauern von ihrem Land vertrieben werden und für Hungerlöhne arbeiten müssen. Der Ernährungsexperte von «Brot für die Welt», Bernhard Walter, sagt: «Hunger und Armut sind die Folgen.» Weder aus ökologischer noch aus christlicher Sicht ist es zu vertreten, aus Nahrungsmitteln Treibstoff herzustellen.

Die Theorie vom Klimawandel ist längst milliardenschwere Politik geworden. Sie wird nicht so schnell vergehen wie jene zur Bewahrung vor dem in den 90er-Jahren prophezeiten Waldsterben. Zu sehr konnte sie sich schon global in den Institutionen implementieren. Sie ist Teil eines Systems geworden, welches mit der Notwendigkeit, die Welt zu retten, eine alternativlose «Weltinnenpolitik», eine Weltregierung, anstrebt. Und doch: Mit der Glaubwürdigkeit verliert die Klimatheorie auch als Angstszenario an Kraft.

Viel Geld wurde verschwendet, um das prophezeite Waldsterben abzuwenden. Unimogs quälten sich durch das Unterholz und sprühten hunderttausende Tonnen Kalk in den Wald. Förster, die den Unsinn nicht mitmachen wollten, konnten froh sein, wenn sie nicht strafversetzt wurden. Viele Menschen waren verunsichert, geängstigt durch die schrecklichen Aussichten. Die Schriftstellerin Zoë Jenny erinnert sich an ihre Schulzeit: «Monatelang stand das Thema Waldsterben auf der Tagesordnung. Mit neun Jahren war ich überzeugt, dass es irgendwann, wenn ich gross bin, auf dieser Welt keine Bäume mehr geben wird. Warum konnte man uns nicht auf die Schönheiten der Natur hinweisen und uns auf diese Weise Respekt vor der Umwelt beibringen?»

Mit dem Alarmruf «Waldsterben» war die für die Medien bis dato wenig interessante Forstwissenschaft plötzlich en vogue. «Kritische» Forstwissenschaftler wurden zu gefragten Gästen von Sondersendungen. Deren Modellrechnungen über den Gesundheitszustand von Bäumen waren der «Beweis» für eine katastrophale Entwicklung. Die Meinungen besonnener Forstwirte konnte kein Journalist für seine Story brauchen – allenfalls als Beleg dafür, dass auch im aufgeklärten Zeitalter im Dunkel des sterbenden Waldes noch immer Hinterwäldler hausen. Kein Politiker hätte es sich leisten können, nicht auf den Zug aufzuspringen, Betroffenheit zu zeigen und Gelder zu bewilligen. Heute geht es dem Wald bestens, der Flächenzuwachs in Deutschland, der Schweiz und Österreich ist enorm und der Wald wird immer naturnaher.

Andere Drohgebäude werden den Klimawandel ersetzen. Es wird, und muss, wieder ein globales Bedrohungsszenario sein. Die Theorie von der angeblichen Versauerung der Meere bietet sich als Projektionsfläche an. Das ist dann die Neuauflage der Theorie von der Versauerung der Wälder – diesmal im globalen Massstab.

Schneller kann man kein gutes Gewissen bekommen als durch den Glauben an derlei Katastrophismus. Die Handlungen, die er einem abverlangt, sind leicht zu erfüllen. Der postmoderne Vorteil dieses Glaubens ist, dass er durch solche religiösen Ersatzhandlungen von der Notwendigkeit zu befreien scheint, tatsächlich auf sein Gewissen zu hören. Denn ein Merkmal haben alle Untergangsszenarien gemeinsam: Sie kollektivieren die Schuld und sie begründen eine starke politische, (welt-)zentrale Macht, die entschlossen, notfalls undemokratisch handeln muss, weil ja «Gefahr im Verzuge» ist. Sie verlagern also politische Macht nach oben und gewähren dafür dem zustimmungswilligen Fussvolk die Absolution des guten Gewissens.

Aber: Schuld ist immer persönlich, jeder trägt allein an seiner Schuld und muss – seinem echten Gewissen folgend, das Richtige tun. Das gilt für ein tatsächlich ökologisch verantwortetes Handeln (welches die Natur schützt) genauso wie für die Fragen nach persönlicher Schuld und Erlösung.

[1] Senja Post: «Klimakatastrophe oder Katastrophenklima? Die Berichterstattung über den Klimawandel aus Sicht der Klimaforscher». Medien Skripten, Bd. 51, Verlag Reinhard Fischer, 2008.

EIKE Redaktion zum Artikel:

Der vorstehende Artikel ist erschienen in „factum“, 8 (2013), S. 24-26;  Monatszeitschrift mit aktuellen Themen aus den Bereichen Wissenschaft und Natur, Gesellschaft, Glaube, Literatur und Politik.

EIKE dankt der factum-Redaktion für die Genehmigung des ungekürzten Nachdrucks.

(1)  Link zu factum (hier)

Related Files




Die Blackout-Koalition! Sicherheit der Stromversorgung bleibt auf der Strecke

Die Energiewende soll noch einmal beschleunigt werden, so die aktuelle Meldungslage zur großen Koalition [SPI1, SPI2]. Statt der bisher angestrebten 35 % sollen bis zum Jahr 2025 sogar 40-45 % Strom aus sogenannten Erneuerbaren Energien erzeugt werden. Der Schwerpunkt dürfte dabei auf der Windenergie liegen, insbesondere an den „guten“ küstennahen Standorten in Norddeutschland, und die Kapazität der Offshore-Windenergie soll von derzeit wenigen 100 MW auf 6500 MW vervielfacht werden. Dies dürfte vor allem zu Lasten der konventionellen Kraftwerke gehen, denen man – soweit sie fossil befeuert werden – zusätzlich auch noch die CO2-Zertifikate verteuern will [CO2]. Als Antwort auf den überbordenden Preisanstieg bei den EE-Energien will man lediglich die Förderung in einigen Bereichen nach unten anpassen oder gar deckeln. Falls dies so umgesetzt wird, könnte sich der Anteil der Windenergie an der deutschen Stromerzeugung, der im Jahre 2012 noch bei 7,3 % lag, bis zum Jahr 2025 mehr als verdreifachen und auf über 22 % anwachsen. Für Solarenergie kann von einem Anwachsen von 4,6 auf bis zu 7 % ausgegangen werden, während das Wachstum bei Wasser, Biomasse und Müll gedrosselt werden dürfte. Für Deutschlands Energieversorgung bedeutet diese Entwicklung eine Katastrophe. Grund ist, dass im Netz im Prinzip kaum Strom gespeichert werden kann. Produktion und Verbrauch müssen deshalb stets im Gleichgewicht gehalten werden. Erzeuger wie Wind und Sonne, die nicht stabil einspeisen, stören dieses Gleichgewicht. Zur Stabilisierung müssen die Netzbetreiber dabei vor allem auf die konventionellen Kraftwerke zurückgreifen. Und genau die dürften zu den Leidtragenden der Koalitionsvereinbarungen gehören.

Wind und Sonne bieten weder Versorgungssicherheit…

Ursache der Probleme ist die Unzuverlässigkeit der Energielieferungen aus Sonne und Wind. Die moderne Industrienation Deutschland benötigt an Werktagen im Winter bis zu 80000 MW an elektrischer Leistung. Da Wind und Sonne selbst zusammen manchmal nur wenige 100 MW liefern können (Bild 1), muss die Differenz – also nahezu die gesamte erforderliche Leistung von bis zu 80000 MW – durch konventionelle Kraftwerke abgesichert werden.

Bild 1. Am 22.8.2013 lag die gesamte EE-Stromproduktion aus Wind und Sonne in der Zeit von 05:00 und 07:00 Uhr bei weniger als 600 MW. Ganz rechts die installierten Gesamtkapazitäten (Datenquelle: EEX)

Um dies zu gewährleisten, wird in Deutschland eine sogenannte gesicherte Kraftwerksleistung bereitgehalten, die zurzeit bei 85000 MW liegt [ENLE]. Diese kann faktisch nur von konventionellen Kraftwerken inklusive Kernkraftwerken erbracht werden. Zwar wird im Prinzip auch Windrädern ein gewisser Beitrag von 6 % ihrer Nennleistung zugesprochen, doch zeigt Bild 1 deutlich, dass dies eher eine ideologisch motivierte Wunschvorstellung ist: Bei einer installierten Windkapazität von knapp 32000 MW hätten mehr als 1900 MW zur Verfügung stehen müssen, tatsächlich waren es zeitweise weniger als 600 MW. Versorgungssicherheit sieht anders aus.

…noch Vorhersagbarkeit

Von den Befürwortern der EE-Energien wird oft behauptet, dank moderner Methoden zur Wettervorhersage sei das Aufkommen an Wind- und Solarenergie inzwischen so gut vorhersagbar, dass man den Fahrplan der konventionellen Kraftwerke problemlos an das zu erwartende Leistungsprofil anpassen könne. Leider ist dies jedoch nichts anderes als eine ideologisch motivierte Lüge, die an den harten Fakten der Realität zerbricht. Trotz modernster Computersysteme liegen die Prognosen manchmal schon im 24-h-Bereich grausam daneben, wie Bild 2 anschaulich zeigt.

Bild 2. Verlauf von Windenergieprognose, tatsächlicher Stromerzeugung und des resultierenden Prognosefehlers am 11.10.2013, ergänzt um die entsprechenden Werte bei gleichem Wettergeschehen unter Annahme einer verdreifachten Windenergiekapazität im Jahre 2025 (Datenquelle: EEX)

Der Blick auf Bild 2 zeigt, wie das Windenergieaufkommen im Verlauf des Vormittags mehr und mehr von der Prognose abweicht. Um die Mittagszeit herum lag die Differenz zwischen Vorhersage und Ist-Werten bei bis zu 12500 MW, das entspricht der Leistung von 12 Großkraftwerken der 1000-MW-Klasse. Zu diesem Zeitpunkt erreichte die Windenergieleistung 22000 bis 23000 MW. Besonders interessant wird die Darstellung, wenn man sie um eine Projektion für das Jahr 2025 mit einer verdreifachten Windenergiekapazität bei Annahme einer gleichen Wetterlage ergänzt. Man kommt dann auf einen Prognosefehler von knapp 38.000 MW bei einer maximalen Windenergieleistung von 68000 MW. Da die EE-Erzeugung Vorrang vor allen anderen Stromanbietern hat, müssten dann faktisch alle konventionellen Kraftwerke vom Netz genommen werden.

Ähnlich groß sind solche Abweichungen auch im Bereich der Solarenergie. So kam es im Zeitraum zwischen dem 4. und dem 6. April zu einem Prognosefehler von mehr als 8800 MW. Beim Netzbetreiber 50 Hz war die Lage dadurch zeitweilig äußerst kritisch [ZFK].

….noch Stabilität

Ein weiteres Problem insbesondere der Windenergie sind die teilweise extremen, kurzfristig im Viertelstunden-Rhythmus auftretenden Schwankungen der Einspeisung. Ungeachtet gegenteiliger Behauptungen der Windkraftlobby ändert daran auch die großräumig verteilte Aufstellung der Windräder kaum etwas. Bild 3. zeigt die kurzfristigen Sprünge der Windenergieleistung am 11. Oktober 2013. Solche Schwankungen „rütteln“ ganz erheblich an der Netzstabilität und zwingen die Netzbetreiber, von den konventionellen Kraftwerken teure Regelenergie abzurufen, um das Gleichgewicht aufrechtzuerhalten. Bei den verärgerten Mitarbeitern der entsprechenden Schaltwarten setzen sich für den Strom aus Wind und Sonne daher inzwischen Ausdrücke wie „Zappelstrom“ oder „Neue Instabile Energie“ (NIE) immer mehr durch. Die Folgen sind fatal.

Bild 3. Kurzfristige Schwankungen des Aufkommens an Windenergie im Viertelstundenabstand um bis zu + 3000/ -2500 MW/h am 11.10.2013 (blau). Bei der entsprechenden Projektion für das Jahr 2025 (rot) zeigen sich Gradienten von bis zu + 10000/ -6500 MW/h (Datenquelle: EEX)

Konventionelle Kraftwerke als Lückenbüßer missbraucht

Je höher der Anteil der sogenannten EE-Stromerzeugung im Netz ist, desto unzuverlässiger und schwankender ist das Stromaufkommen im Netz. Da dieser Strom aufgrund des Erneuerbare-Energien-Gesetzes jedoch Vorrang hat, müssen die konventionellen Kraftwerke ihre Leistung immer häufiger stark reduzieren oder gar ganz vom Netz gehen, ohne jedoch abschalten zu können, weil sie dennoch dringend gebraucht werden: Zum einen müssen sie einspringen, wenn Sonne und Wind gerade mal wieder keine Lust zur Arbeit haben, zum anderen müssen sie ständig dafür sorgen, dass die Schwankungen der EE-Erzeuger ausgeglichen werden. Statt kontinuierlich arbeiten zu können, wofür sie eigentlich ausgelegt sind, müssen sie zunehmend in einem Stop-and-Go-Modus agieren, der für sie sowohl technisch als auch wirtschaftlich desaströs ist. So muss beispielsweise auch im sogenannten „Hot Standby“, bei dem ein Kohlekraftwerk seinen Kessel auf Betriebsdruck und -temperatur hält, in erheblichem Maße Kohle verbrannt werden. Zusammen mit der Tatsache, dass auch die Belegschaft weiterhin präsent sein muss, bedingt dies erhebliche Kosten, ohne dass auch nur ein Cent verdient werden kann. Unter dem erzwungenen Stillstand leidet auch die Fähigkeit der Kraftwerke zu schneller Reaktion auf plötzlich auftretende Bedarfsspitzen, denn sie können bei stillstehenden Generatoren keine Rotationsenergie zur Netzstabilisierung bereitstellen.

Bild 4. Großkraftwerke wie das 2575-MW-Braunkohlekraftwerk Boxberg kann man nicht einfach an- und abschalten wie ein Auto (Foto: Kohlekraftwerke.de)

Reaktionsfähigkeit von Großkraftwerken

Konventionelle Kraftwerke kann man nicht einfach wie einen Automotor betreiben, den man mal eben mit dem Zündschlüssel anwirft, um sofort losfahren zu können. Große, dampfbetriebene Kraftwerke (Bild 4) sind riesige Anlagen mit gewaltigen Massen. Sie müssen zunächst auf Temperatur gebracht werden, bevor sie Leistung liefern können, denn allein im Kessel müssen mehrere 1000 Tonnen Wasser in superheißen Dampf verwandelt werden. Bei den wirklich großen Grundlastkraftwerken mit Leistungen im Bereich ab 1000 MW kann es bis zu einer Woche dauern, bevor sie nach längerem Kaltstillstand wieder ans Netz gehen können [WIDA]. Die typischen Hochlaufzeiten von Kohlekraftwerken – diese werden häufig für den reaktionsschnellen Mittellastbetrieb eingesetzt – liegen zwischen 6-7 Stunden bei einem Kaltstart und immerhin noch 2 Stunden bei einem sogenannten Heißstart, worunter ein Stillstand von weniger als 8 h zu verstehen ist [WIKO]. Zwingt man solche Kraftwerke also zum Stop-and-Go-Betrieb, so nimmt man ihnen gleichzeitig die Fähigkeit, im Notfall rasch Energie liefern zu können. Das hat nachteilige Auswirkung auf die Versorgungssicherheit.

Stabilität in Gefahr

Das entscheidende Problem für die Aufrechterhaltung der Netzstabilität ist, dass sich einerseits aufgrund des Anwachsens von Zappelstrom-Erzeugung der Bedarf an Regelenergie erheblich erhöht, während gleichzeitig aufgrund der zunehmenden Stillsetzung konventioneller Kraftwerke deren Verfügbarkeit zurückgeht. Um bei einem größeren Ausfall wie z.B. einer Kraftwerksstörung sofort gegensteuern zu können, benötigen die Netzbetreiber zuverlässige Kraftwerke, von denen sie kurzfristig gestaffelt die benötigte Regelenergie abrufen können, Bild 5.

 

Bild 5. Schema des zeitlichen Einsatzes der unterschiedlichen Regelleistungsarten (Grafik: DF5GO/ Wikimedia Commons)

Hierfür eignen sich nur konventionelle Kraftwerke oder Wasserspeicherkraftwerke. Am wichtigsten sind hierbei die augenblicklich wirksame Trägheitsreserve – hierfür sorgt der Schwungradeffekt der riesigen Turbinen und Generatoren – sowie die Primärregelleistung, die innerhalb von Sekunden zur Verfügung gestellt werden muss. Für beides braucht man Großkraftwerke. Damit die einzelnen liefernden Kraftwerke dabei nicht selbst überlastet werden, wird hierfür pro Einheit nur 2,5 % der Anlagenleistung herangezogen. Für Deutschland wird aktuell eine jederzeit verfügbare Primärregeleistung von 700 MW für erforderlich gehalten. Somit kann eine ständige Präsenz von 28000 MW primärregelfähiger Leistung von konventionellen Kraftwerken als Untergrenze der Netzstabilität angesetzt werden. An Wochenenden liegt die Netzlast jedoch manchmal nur bei 30000 bis 40000 MW. Bereits jetzt kommen dann manchmal 20000 MW an Windleistung und ebensoviel Solarleistung dazu, so dass es nahezu unmöglich wird, die erforderliche Präsenz an konventionellen Kraftwerken zu gewährleisten. Wenn in zwölf Jahren 40 % statt wie derzeit 22 % EE ins Netz eingespeist werden sollen, ist die Stabilität der Netze nicht mehr zu gewährleisten.

Hinzu kommt eine Tatsache, über die sich kaum jemand Gedanken zu machen scheint. Jedes „Zappeln“ von Zufallsstrom im Netz muss durch entsprechende Zufuhr von Regelenergie der zweiten und dritten Ebene kompensiert werden. Dazu muss jedoch entsprechende Kraftwerksleistung von konventionellen Kraftwerken abrufbar bereitstehen. Zurzeit werden in Deutschland insgesamt 7000 Megawatt positiver Regelleistung und 5500 Megawatt negativer Regelleistung vorgehalten [WIKI]. Die Kosten dafür betragen etwa 40 Prozent des gesamten Übertragungsnetzentgeltes. Sie werden im Netzentgelt versteckt, obwohl sie eigentlich durch die “Erneuerbaren” verursacht werden. Bereits im Jahr 2006 wurde geschätzt, dass es hierbei um etwa 300 bis 600 Mio. Euro ging [CARE]. Inzwischen dürfte die Milliardengrenze längst überschritten sein.

Das eigentliche Problem ist jedoch, dass für den Ausgleich der „Zappelei“ künftig immer noch mehr an Regelleistung bereitgehalten werden muss, während der Marktanteil der konventionellen Kraftwerke gleichzeitig zurückgedrängt werden soll. Von den Verantwortlichen scheint sich kaum jemand darüber Gedanken zu machen, woher denn bei dieser gegenläufigen Entwicklung die künftig benötigte Regelenergie kommen soll. Mit Gaskraftwerken allein ist das nicht zu stemmen, nicht nur aufgrund der Kosten, sondern auch weil im Stillstand befindliche Gasturbinen weder Trägheitsreserve vorhalten noch schnell genug hochgefahren können, um in nennenswertem Umfang Primärregelenergie bereitstellen zu können. Sie sind zwar Schnellstarter, aber es dauert dennoch eher Minuten als Sekunden, bis sie wirklich hohe Leistungen abgeben können.

Konventionelle Kraftwerke verschwinden vom Markt

Nach der Aufstellung der deutschen Strombörse umfasst der konventionelle Kraftwerksbestand derzeit Anlagen mit einer Gesamt-Erzeugungskapazität von knapp 110000 MW. Für eine Projektion bis zum Jahre 2020 (bzw. 2022) muss man hiervon noch rund 8000 MW Pumpspeicherkapazität abziehen, da Pumpspeicher ja selbst keine Energie erzeugen, sondern sie lediglich zwischenspeichern. Außerdem muss man bedenken, dass bis 2022 rund 12000 MW an Kernkraftkapazität zur Stilllegung anstehen. Ab 2022 verbleiben also rund 90000 MW, doch will man diesen ein um 18 % kleineres Marktsegment zugestehen als bisher. Zudem werden sie mehr und mehr zu unwirtschaftlichem Teillastbetrieb gezwungen. Schon heute ist die Situation für viele Betreiber kritisch, wie die aktuellen Pläne von RWE und E.ON zur Stilllegung von Kraftwerken und Freistellung von Mitarbeitern belegen. Auch immer mehr Stadtwerke haben mit ihren Kraftwerken Schwierigkeiten. In den nächsten Jahren ist damit zu rechnen, dass zahlreiche weitere der zurzeit noch existierenden Kraftwerke stillgelegt werden. Planungen für neue Kraftwerke sind mittlerweile nahezu zum Erliegen gekommen. Bei Bauzeiten von bis zu 15 Jahren ist dies eine bedenkliche Situation.

Bild 6. Die Politik wird weiterhin daran festhalten, im Namen des angeblichen Umwelt- und Klimaschutzes unsere Natur zu schädigen

Welche Entwicklung ist zu erwarten?

Nachdem noch vor kurzem Stellungnahmen des NRW-Wirtschaftsministers Garrelt Duin sowie von NRW-Chefin H. Kraft Hoffnungen geweckt hatten, dass bei den Koalitionsverhandlungen die Bedenken der Industrie zumindest ansatzweise Berücksichtigung finden könnten, zeigt der derzeit kommunizierte Verhandlungsstand, dass man seitens der Politik weiterhin unbeirrt in die falsche Richtung marschieren wird, Bild 6. Im Prinzip hat man sich völlig verfahren. Es gibt keinerlei strategische Planung, stattdessen scheint man nur noch zu versuchen, sich im Widerstreit zwischen den Interessengruppen mit den für Politiker üblichen „Formelkompromissen“ weiter durchzumogeln. Zurzeit wird zwar noch behauptet, man wolle das Tempo des EE-Ausbaus weiter steigern, dabei jedoch gleichzeitig an der Kostenschraube drehen und allzu üppige Vergütungszahlungen zurückschneiden. Gleichzeitig hält man die konventionellen Kohlekraftwerke wegen ihres CO2-Ausstosses weiterhin auf der Abschussliste und will sie durch Verknappung von CO2-Zertifikaten bestrafen. Vermutlich erhofft man sich dadurch eine Besserung der Wettbewerbssituation der notleidenden Gaskraftwerke. Diese will man offensichtlich als flexible Schnellstarter verfügbar halten, damit sie als Ausputzer für die Eskapaden der EE-Erzeuger einspringen können. Augenscheinlich war bei den Verhandlungen niemand dabei, der auch nur ein klein wenig Ahnung davon hatte, warum wir auf unsere Großkraftwerke und ihre entscheidende Fähigkeit, das Netz in den ersten entscheidenden Sekunden(bruchteilen) einer Störung zu stabilisieren, umso weniger verzichten können, je mehr Zappelstrom ohne Sinn und Verstand in die Netze gedrückt wird.

Bild 7. Egal wie solide ein (Energieversorgungs)-Gebäude auch gebaut sein mag – man kann es viel schneller kaputtmachen als wieder aufbauen

 Nicht bedacht wird zudem, dass bis 2022 mit den zur Stilllegung verurteilten Kernkraftwerken weitere 12000 MW Großkraftwerksleistung vom Netz gehen werden, deren Funktion durch Gaskraftwerke nicht zu ersetzen ist. Unsere Energiepolitik steuert daher so oder so unbeirrt auf einen massiven Crash zu (Bild 7), langdauernde Blackouts eingeschlossen. Denk ich an Deutschland in der Nacht…

Fred F. Mueller

Quellen

[CARE] http://www.care-energy-online.de/index.php/stromgas/strom/oekostrom.html?showall=&start=19

[ENLE] http://www.energie-lexikon.info/jahreshoechstlast.html

[SPI1] http://www.spiegel.de/politik/deutschland/energiewende-koalition-will-windrad-schwemme-bremsen-a-932599.html

[SPI2] http://www.spiegel.de/wirtschaft/soziales/arbeitsgruppe-union-und-spd-wollen-energiewende-billiger-machen-a-932733.html

[CO2] http://www.spiegel.de/wissenschaft/natur/emissionshandel-eu-staaten-wollen-co2-ausstoss-teurer-machen-a-932575.html

[WIDA] http://de.wikipedia.org/wiki/Dampfturbine

[WIKI] http://de.wikipedia.org/wiki/Regelleistung_(Stromnetz)

[WIKO] http://de.wikipedia.org/wiki/Kohlekraftwerk

[ZFK] http://www.zfk.de/strom/artikel/prognosefehler-von-8800-mw.html




Schützen Wind, Sonne und Faulgasstromerzeuger das Klima?

Diese Aussage gilt selbstverständlich auch für die Herstellung von elektrischem Strom. In den Medien und bei sogenannten Expertendiskussionen, wie beispielsweise „Hart aber fair“ am 4.11.2013 in der ARD, werden die unterschiedlichsten „Stromkosten“ in die Welt gesetzt. Es wird von Teilkosten, Marginalkosten, Fremdkosten, – und ganz wichtig! – unberücksichtigten Kosten und ähnlichem Unfug geschwafelt, um die „Erneuerbaren“ ins korrekte wirtschaftliche Licht zu rücken. Allen diesen vermeintlichen „Stromkosten“ ist eines gemeinsam: Mit einer korrekten betriebswirtschaftlichen Kalkulation haben sie nichts zu tun, einer korrekten Kostenanalyse halten sie nicht stand. Obwohl das so ist, ist der gutgläubige Bürger gezwungen, das alles zu glauben, weil er sich in der Materie nicht auskennt.

Nun ist im August 2010 eine für die wirtschaftliche Beurteilung der Stromwirtschaft grundlegend wichtige Arbeit von der Universität Stuttgart veröffentlicht worden (1) ferner (hier), in der die Herstellkosten für die verschiedenen Prozesse der Stromerzeugung nach allen gültigen Regeln der Betriebswirtschaftslehre berechnet worden sind. Dabei sind ausnahmslos sämtliche zugrundeliegenden Kostenarten und selbstredend die jährlichen Laufzeiten korrekt berücksichtigt und nach gängigen Vorschriften in Herstellkosten umgerechnet. Wichtig ist hierbei, dass die Herstellkosten aller verglichenen Herstellverfahren einheitlich für Neuinvestitionen im Jahr 2015 berechnet sind. Damit sind alle lähmenden Diskussionen über nebulöse Kostenbeurteilungen aus abgeschriebenen Anlagen ausgeschlossen.

In dieser schulbuchmäßig ausgeführten Arbeit werden folgende Herstellkosten für elektrischen Strom nach verschiedenen Herstellverfahren errechnet. Windenergie: 118,5-146,5 €/MWh; Photovoltaik: 277,0-317,7 €/MWh; Braunkohle, reduziert um 17,2 €/MWh für CO2-Zertifikate, die mit technischen Herstellkosten nichts zu tun haben: 37,1 €/MWh. (2) Diese hier errechneten Kosten sind die tatsächlichen, korrekten Kosten für die Stromerzeugung nach den genannten Verfahren. Setzt man die Kosten in Relation zueinander, so ergibt sich, dass elektrischer Strom aus PV das 7-fache und aus Wind das 3-fache kostet, verglichen mit einem Braunkohlekraftwerk. Diese harten Fakten sind die einzig korrekte Grundlage zur wirtschaftlichen Beurteilung der „Erneuerbaren Energien“.

Bei Verwendung dieses Faktenmaterials in Diskussionen mit Vertretern der „Ökoszene“ wird gebetsmühlenartig und unisono das „Wunderargument“ der grünen Lobby aufgetischt, um jegliche weitere Diskussion abzuwürgen: „Da fossile Energieträger zukünftig immer knapper werden, steigen die Kosten der klassischen Kraftwerke entsprechend und werden in Kürze die Kosten für „Erneuerbare Energien“ übertreffen.“ Diese Aussage ist indes ein fundamentaler Irrtum! Der Grund für diesen Irrtum wird durch das „Kosten-Energie-Äquivalenzgesetz“ offensichtlich, das die Kosten neu definiert: „Ausnahmslos sämtliche im Weltwirtschaftssystem auftauchenden Kosten bestehen zu 100% aus reinen Energiekosten.“ Die neueste Veröffentlichung des „Kosten-Energie-Äquivalenzgesetz“ ist als PDF beigefügt.

Die weltweit auftretenden Kosten sind Kosten für Wirtschaftswerte, die in der Vergangenheit durch den Einsatz der Primärenergieträger geschaffen worden sind. Zu diesen Werten gehören Immobilien, Produktionsanlagen, Fahrzeuge, langlebige Gebrauchsgüter, Haushaltsausstattungen, Versicherungen, Sparguthaben, – nicht zu vergessen – das monetäre Gesamtvolumen der Weltwährungen und vieles mehr. Obwohl sich die Zusammensetzung der Primärenergieträger – Kohle/Öl/Gas – seit dem 2. Weltkrieg verändert hat, bestanden die Primärenergieträger stets und ununterbrochen zu mehr als 90% aus Kohlenstoff-haltigen Fossilien. Bis heute besteht der Primärenergieeinsatz zu über 90% aus Kohle, Öl und Gas (hier), bei deren physischem Einsatz in die Wertschöpfungskette die äquivalente Menge an CO2 in die Atmosphäre abgegeben wird (3). Damit bestehen die heutigen weltweiten Kosten zu über 90% aus dem Verbrauch von Kohle, Öl und Gas. Diese fundamentale Aussage beruht einzig und allein auf physikalischen und chemischen Grundgesetzten, die die Grundlage des „Kosten-Energie-Äquivalenzgesetzes“ bilden.

Selbstverständlich resultieren dann auch die Kosten für „Erneuerbare Energien“ wie alle anderen weltweit auftretenden  Kosten zu über 90% aus fossilen Kohlenstoffverbindungen. Windstrom verbraucht demnach das 3-fache, PV-Strom das 7-fache an Kohle, Öl und Gas, das in einem Braunkohlkraftwerk benötigt wird.  Entsprechend beträgt die CO2-Emission bei Windrädern das 3-fache, bei PV-Anlagen das 7-fach der CO2-Emissionen eines Braunkohlekraftwerks. Sollte das Klima wirklich durch Reduktion von CO2 geschützt werden, so wird durch die Umstellung auf „Erneuerbare Energien“ exakt das Gegenteil erreicht.

Die lauthals verkündete Umkehr der Kostenstruktur zu kostengünstigeren „Erneuerbare Energie“-Anlagen, hervorgerufen durch steigende Kosten für Kohle, Öl und Gas stellt sich als fundamentaler Irrtum heraus, da auch in absehbarer Zukunft der Löwenanteil der Primärenergieträger aus Kohle, Öl und Gas bestehen wird. Steigenden Kosten für diese fossilen Energieträger erhöhen – wie das „Kosten-Energie-Äquivalenzgesetz“ zeigt – zwangsläufig die Kosten für „Erneuerbare Energien“.

Zur Rettung der „Erneuerbaren Energien“ bliebe als einziger Ausweg eine technische Effizienzsteigerung der Produktionsverfahren für „Erneuerbare Energien“. Eine notwendige Effizienzsteigerung um den Faktor 3 und 7 ist jedoch aufgrund der technischen Reife dieser Verfahren absolut ausgeschlossen.

Die Einsparung von CO2 durch Einführung von „Erneuerbaren Energien“ zur Rettung der Welt ist ganz offensichtlich ein modernes Märchen.

Dr- rer. nat Heinz Schütte 

Über den Autor

Geboren 1939 in Kassel. Studium der Chemie, Physik und Pharmakologie an der Universität Marburg. 1966 Promotion in organischer Chemie. Executive Course in BWL an der University of California, Berkeley. Ab 1967 bei der damaligen HOECHST AG zunächst in der Forschung tätig. Nach mehreren Jahren Tätigkeit als Referent im Vorstand der HOECHST AG, Chief Operating Officer des Pharmabereichs mit Verantwortung für 12000 Mitarbeiter und 14 Mrd. DM Produktionsvolumen.

(1)  S. Wissel et al., Energiekosten zur Bereitstellung elektrischer Energie von Kraftwerksoptionen in 2015,   Bericht Nr.7, August 2010, IER, Universität Stuttgart

(2)  Wenn der Leser dieser Auffassung nicht folgen möchte, kann er für Braunkohle, die durch politische Willkür aufgeblähte Summe von 54,3 €/MWh einsetzten. Das Verhältnis PV, Wind, Braunkohle lautet dann 5/2/1 und ändert an der Aussage qualitativ nichts.

(3)  BP Global, Statistical Review of World Energy, 2012

Related Files




Stromnetze am Limit – das Risiko wächst: Mit jedem Windrad nehmen die Probleme zu

Schafft die Leitstelle dies nicht, so gerät das Netz innerhalb von Sekundenbruchteilen aus dem Takt. Grundlage des Problems ist die Tatsache, dass unsere Stromversorgung mit Wechselstrom arbeitet. Jeder Erzeuger, der in ein Verbundnetz einspeist, muss dies nicht nur mit der exakt gleichen Frequenz tun wie alle anderen Generatoren, sondern auch mit genau synchronem Verlauf der positiven und negativen Halbwellen. Anders ausgedrückt darf das eine Kraftwerk nicht gerade in dem Moment mit negativer Spannung einspeisen, wenn das andere gerade eine positive Spannung erzeugt, denn diese unterschiedlichen Polungen würden dazu führen, dass die Generatoren gegeneinander statt miteinander arbeiten würden, Bild 1. Statt gemeinsam Strom ins Netz zu liefern, würden sie sich gegenseitig innerhalb von wenigen Sekunden zerstören, weil die Wicklungen der Generatoren ausbrennen würden.

Bild 1. Würden zwei Generatoren mit derartiger Phasenverschiebung gleichzeitig ins Netz einspeisen, so würden sie sich gegenseitig beschädigen (Grafik: Saure, Wikipedia Creative Commons)

Eine der wichtigsten Aufgaben der Netzleitstellen besteht daher darin, die Netzfrequenz zu überwachen und innerhalb extrem enger Grenzen stabil zu halten, damit die mehr als eine Million Teilnehmer, die allein in das deutsche Verbundnetz einspeisen, stets synchron und mit exakt gleicher Phasenlage einspeisen können.

Zusammenhang von Frequenz und Netzlast

Die Netzfrequenz hängt wiederum direkt von Gleichgewicht zwischen Erzeugung und Verbrauch ab. Je höher der Verbrauch, desto größer ist auch das von der Turbine aufzubringende Drehmoment, damit der Generator seine exakt vorgeschriebene Drehzahl halten kann. Laständerungen wirken sich daher sofort auf seine Drehzahl und damit auf die Frequenz des erzeugten Wechselstroms aus. Das Kraftwerk überwacht deshalb die Frequenz und versucht, diese stabil zu halten, indem es mehr oder weniger Dampf auf die Turbine leitet. Im Verbundnetz muss dies stets von allen einspeisenden Generatoren synchron nachvollzogen werden, um das dynamische Gleichgewicht von Erzeugung, Verbrauch und Netzfrequenz innerhalb der für den stabilen Netzbetrieb erforderlichen Sicherheitsmargen zu halten. Voraussetzung hierfür ist die Fähigkeit der einspeisenden Kraftwerke, ihre Energieerzeugung bedarfsgerecht entweder zu steigern oder zu drosseln.

Solar- und Windenergieanlagen können solche gezielten Leistungsanpassungen prinzipbedingt nicht in nutzbarem Umfang erbringen und sind daher außerstande, das Netz zu stabilisieren. Im Gegenteil, ihre nur von den Zufällen von Wind und Wetter abhängige Einspeisung, die von den Netzbetreibern aufgrund gesetzlicher Vorgaben zwangsläufig abgenommen werden muss, erschwert den restlichen Kraftwerken die sowieso schon anspruchsvolle Aufgabe, das Netz auch im Falle unvorhersehbarer Störungen ständig im Gleichgewicht zu halten.

Reaktion auf Netzstörungen

Im Netz treten unablässig Änderungen der Belastung auf, die durch ständige Anpassung der Erzeugung aufgefangen werden müssen. Viele dieser Änderungen sind mit einer gewissen Zuverlässigkeit vorhersehbar – beispielsweise das Einschalten zahlloser Fernseher pünktlich zum Beginn eines Bundeligaspiels oder das morgendliche Duschen vor der Arbeit – und können daher in den Tagesfahrplänen der Kraftwerke berücksichtigt werden. Andere Ereignisse sind jedoch nicht planbar, zum Beispiel Leitungsausfälle, Trafo- oder Kraftwerksstörungen oder Blitzeinschläge, die zu Kurzschlüssen und damit zu größeren Ausfällen im Stromnetz führen können. Erschwerend kommt hinzu, dass solche Ereignisse oft in Sekundenbruchteilen eintreten, viel schneller, als jeder Mensch reagieren könnte. Erste Sicherheitsreserve im Netz sind deshalb die riesigen Schwungräder, als die in solchen Fällen die rotierenden Turbinen und Generatoren fungieren. In diesen rotierenden Massen (Bild 2) sind enorme Energiemengen gespeichert, die sofort zur Verfügung steht. Große Turbinen und Generatoren wiegen hunderte von Tonnen und rotieren mit hohen Drehzahlen, typischerweise 1500 oder 3000 Umdrehungen pro Minute.

 

Bild 2. Solche Wellen für Kraftwerke wiegen oft mehr als 100 Tonnen und rotieren mit bis zu 3000 Umdrehungen pro Minute. Sie speichern daher große Energiemengen Bild http://www.saarschmiede.com/69.html

Es ist die darin gespeicherte, sofort ohne jede Verzögerung verfügbare Energie, welche in den ersten Sekunden einer größeren Störung die Netzfrequenz und damit die Netzstabilität innerhalb der zulässigen Grenzen hält. Unmittelbar darauf reagieren die Dampfventile der für die Notversorgung herangezogenen Kraftwerke und sorgen beispielsweise dafür, dass mehr Dampf auf die Turbine geleitet wird. Damit wird die zweite Verteidigungslinie der Netzstabilisierung aktiviert, die großen Energiereserven, die in den vielen tausend Tonnen extrem hoch erhitzten und komprimierten Dampfs gespeichert sind, welchen die riesigen Dampfkessel fossiler Kraftwerke ständig vorrätig halten. Diese extrem schnelle und in Sekunden verfügbare Stabilisierung kann nur von dampfbetriebenen Fossil- und Kernkraftwerken mit massiven, schnell rotierenden Generatoren gewährleistet werden. Einen gewissen Beitrag können auch Wasserkraftwerke leisten. Solar- und Windenergie sind hierzu dagegen außerstande, denn sie halten weder nennenswerte Rotationsenergie vor noch lassen sich Sonne und Wind gezielt herauf- oder herunterregeln. Vor diesem Hintergrund lassen Behauptungen, eine 100 prozentige Stromversorgung aus erneuerbaren Energien ohne konventionelle Kraftwerke sei möglich, doch erhebliche Zweifel daran aufkommen, ob die Betreffenden überhaupt wissen, wovon sie reden.

Worst Case: Ein Kraftwerks-Totalausfall

Eine der kritischsten Situationen, auf die eine Netzleitstelle ständig vorbereitet sein muss, ist der Totalausfall des größten derzeit am Netz befindlichen Kraftwerks oder einer sonstigen leistungsbestimmenden Komponente wie einer großen Fernleitung. Die im Netz vorgehaltenen Leistungsreserven müssen selbst in einem solchen Fall ausreichen, um einen Zusammenbruch zu verhindern. Dafür muss die ausgefallene Leistung innerhalb von Sekundenbruchteilen ersetzt werden. Um das zu erreichen, muss die Leitstelle dafür sorgen, dass automatisch genügend Zusatzleistung von den anderen mit dem Netz verbundenen Großkraftwerken bereitgestellt wird. Da einige wenige Kraftwerke einen solchen plötzlichen Mehrbedarf gar nicht stemmen könnten, wird die benötigte Ersatzleistung in vielen Teilbeträgen auf zahlreiche Kraftwerke aufgeteilt. Die einzelnen Beiträge sind dabei so klein, dass die jeweiligen Kraftwerke damit noch problemlos zurechtkommen. In der Regel sind dies 2,5 % der jeweils möglichen Erzeugungsleistung. Diese Reserve muss zur Hälfte innerhalb von 5 Sekunden und insgesamt innerhalb von 30 Sekunden bereitgestellt werden [PRIM]. Im Rahmen ihrer ständigen Notfallbereitschaftsplanung führt die Netzleitstelle eine ständig aktualisierte Liste mit denjenigen Kraftwerken, die zurzeit am Netz sind und über die Fähigkeit verfügen, diese Systemdienstleistung zu erbringen. Die Leistungsregler dieser Kraftwerke müssen hierfür ständig direkt von der Leitstelle aus ansteuerbar sein und werden von dort im Notfall dann aufgefahren. Dies erfolgt vollautomatisch computergesteuert innerhalb von Sekundenbruchteilen, viel schneller als ein Mensch reagieren könnte. Da Deutschland im Rahmen des europäischen Verbundnetzes im Notfall auch auf Hilfe aus dem Ausland zählen kann, liegt der Umfang dieser Leistungsreserve, die jederzeit abrufbereit zur Verfügung stehen muss, bei 700 MW [PRIM]. Aus beiden Angaben lässt sich leicht ausrechnen, dass zur Aufrechterhaltung der Netzsicherheit jederzeit 28000 MW an primärregelfähiger Kraftwerksleistung am Netz sein müssen – was inzwischen jedoch aufgrund des ständig wachsenden Aufkommens an Solar- und Windstrom im Netz nicht mehr ständig der Fall ist, Bild 3.

Bild 3. Als am 27.10. 2013 – einem Sonntag mit geringer Netzlast – ein Sturm über Deutschland hinwegfegte, war das Aufkommen an zwangseingespeistem Wind- und Solarstrom so hoch, dass der Beitrag konventioneller Kraftwerke unter die kritische Marke von ca. 28.000 MW gedrückt wurde (Daten: Strombörse EEX)

Wird diese kritische untere Grenze unterschritten, so gerät das Netz in Gefahr. Zwar kann man in solchen Fällen über das europäische Verbundnetz Hilfe von den Nachbarn erhalten, doch erwarten diese im umgekehrten Falle natürlich gleichwertige Dienste auch von Deutschland, so dass die ständig vorzuhaltende Leistung in der Summe letztlich gleich bleibt.

Die erste Regelebene ist entscheidend

Neben den ersten beiden Regelebenen – der Trägheitsreserve und der Sekundenregelung – verfügt die Leitstelle noch über eine Sekundär und Tertiärebene [WIKI], die innerhalb von 30 s bis 5 min bzw. innerhalb von 5 bis 15 min zur Verfügung stehen müssen. Aus diesem Grund bezeichnet man die zweite Ebene als Sekundenreserve und die dritte Ebene als Minutenreserve. Zur Sekundenreserve gehören vor allem schnellstartfähige Kraftwerke wie Gaskraftwerke, die innerhalb kürzester Zeit von Null auf Vollleistung gehen können, sowie Speicher-Wasserkraftwerke, die nur die Regelventile weiter zu öffnen brauchen. Die Sekundärregelung hat vor allem die Aufgabe, den Abfall der Netzfrequenz aufzufangen und damit die „rotierende Reserve“ zu entlasten, so dass sie für eventuelle weitere Notfälle wieder voll verfügbar wird. Überlappend hierzu werden auch die anderen Regelebenen aktiviert, indem zunächst Pumpspeicher- oder Gasturbinenkraftwerke – die auch die Sekundärregelung besorgen – und mit entsprechender Zeitverzögerung auch Großkraftwerke auf höhere Leistung gefahren werden.

Ungeachtet der Feinheiten des Zusammenspiels verschiedener Regelebenen muss man sich jedoch darüber im Klaren sein, dass die ersten Sekundenbruchteile einer größeren Störung entscheidend sind. Gelingt es nicht, das Netz innerhalb dieser ersten „Flackersekunden“ zu stabilisieren, so reicht selbst eine noch so große, aber eben erst nach 30 s verfügbare Zusatzleistung nicht aus, um einen Zusammenbruch zu verhindern: Dann geht es, bildlich gesprochen, nicht mehr um Therapie, sondern um Autopsie, denn die unterbrechungsfreie Stromversorgung ist dann nicht mehr möglich, es müssen Netze und/ oder Verbraucher abgeworfen und später mit hohen Kosten wieder hochgefahren werden.

Und bei der Betrachtung der zur Verfügung stehenden Rotationsenergie zeigt sich, dass die oft als „Dinosaurier“ geschmähten Großkraftwerke (Bild 4) hier einen entscheidenden Vorteil gegenüber kleineren Einheiten haben, denn ihre riesigen Turbinen-Rotor-Einheiten können erheblich mehr Energie speichern als kleinere Systeme, weil die Energie eines Schwungrads mit dem Quadrat des Durchmessers zunimmt.

 

Bild 4. Die oft als Dinosaurier geschmähten großen Dampfkraftwerke – hier das Kraftwerk Neurath – sind für die Aufrechterhaltung der Netzstabilität ganz einfach unersetzlich (Foto: Kohlekraftwerke.de)

Enorme Risiken

Vor diesem Hintergrund versteht man schnell, dass die „Energiewende“ mit der ins Auge gefassten Steigerung der Kapazitäten an Wind- und Solarstromerzeugung so nicht funktionieren kann, ohne die Netzstabilität zu opfern. Zur Zeit sind 32000 MW Windleistung und 34000 MW Solarleistung am deutschen Netz [EEX]. Sie tragen kumuliert jedoch nur etwa 12 % zur Gesamtstromerzeugung bei. Um die ca. 64 % zu erreichen, die nach EEG-Planung bis 2050 erreicht werden sollen (Annahme: 80 % Wind- und Solaranteil an insgesamt 80 % EE-Erzeugung), müssten bei gleichbleibendem Verbrauch noch fünfmal so viele Windräder und Solaranlagen wie aktuell verfügbar aufgestellt werden. Damit würden die konventionellen Anlagen endgültig aus dem Markt gedrängt, obwohl sie bei Flaute und fehlendem Sonnenschein dennoch gebraucht werden. Das ist völlig unrealistisch, kann doch die Lage in den deutschen Netzen bereits jetzt als kritisch bezeichnet werden [FOCU, RWE]. So sagte der Tennet-Chef einem Bericht in den VDI-Nachrichten vom 4.10.2013 zufolge: „Wir haben heute im Schnitt drei Eingriffe ins Stromnetz am Tag. Vor zehn Jahren waren es drei im gesamten Jahr” [EIKE]. Ähnliche Meldungen gibt es auch von den anderen deutschen Netzbetreibern. Falls nicht bald gegengesteuert wird, drohen im Falle von Blackouts insbesondere in modernen Industrien (Bild 5) mit ihren fein austarierten Hochleistungsprozessen oft enorme Schäden [BER].

 

Bild 5. Stromausfälle legen die in jedem modernen Betrieb unentbehrlichen Computer lahm. Das kann zu erheblichen Ausfällen und sogar Anlagenschäden führen

Schon eine einzige Stunde Blackout in Deutschland kann Schäden von bis zu 600 Mio. € verursachen [WEWO]. Hält man sich diese Tatsachen vor Augen, so weiß man angesichts von Berichten wie dem des Spiegel-Journalisten Stefan Schultz [SPON], der behauptet, die Stromversorgung lasse sich auf absehbare Zeit auch mit den bestehenden Mitteln ohne die Gefahr von Blackouts sichern, wirklich nicht mehr, ob man nun lachen oder weinen soll.

Vor diesem Hintergrund sind die jüngsten Äußerungen von RWE-Chef Peter Terium, dass sein Unternehmen aus den Planungen zum Bau konventioneller Kraftwerke komplett aussteigen will [RWE2], im Prinzip als Resignation zu werten. Im Bereich der Stromversorger scheint man offensichtlich die Hoffnung aufgegeben zu haben, dass die deutsche Politik in absehbarer Zukunft wieder zur Vernunft findet. Frau Merkel und ihre neue Regierung haben damit ein im Prinzip unlösbares Problem am Hals, noch bevor die Koalition auch nur steht. Auf Deutschland dürften somit im Sinne des Wortes düstere Zeiten zukommen.

Fred F. Mueller

Quellen

[BER] Bericht “Gefährdung und Verletzbarkeit moderner Gesellschaften – am Beispiel eines großräumigen und langandauernden Ausfalls der Stromversorgung”, Ausschuss für Bildung, Forschung und Technikfolgenabschätzung des Deutschen Bundestags (04/2011)

[EEX] http://www.transparency.eex.com/de

[PRIM] http://www.udo-leuschner.de/basiswissen/SB124-03.htm

[EIKE] http://www.eike-klima-energie.eu/news-cache/deutscher-journalismus-kommmir-nicht-mit-fakten-meine-meinung-steht/

[FOCU] http://www.focus.de/immobilien/energiesparen/bedrohliche-energiewende-502-stoerfaelle-im-ersten-halbjahr-stromnetz-steht-vor-kollaps_aid_1089770.html

[RWE] http://de.nachrichten.yahoo.com/rwe-chef-warnt-strom-engp%C3%A4ssen-080510591–finance.html

[RWE2] http://de.nachrichten.yahoo.com/rwe-chef-warnt-strom-engp%C3%A4ssen-080510591–finance.html

[SPON] http://www.spiegel.de/wirtschaft/soziales/kraftwerke-darum-braucht-deutschland-keinen-teuren-reservemarkt-a-929302.html

[WEWI] http://www.welt.de/wirtschaft/article121265359/Jede-Stunde-Blackout-kostet-600-Millionen-Euro.html

[WIKI] http://de.wikipedia.org/wiki/Regelleistung_(Stromnetz)




SPON’s Logbuch der Bekloppten und Bescheuerten

Der verantwortliche SPON-Redakteur Stefan Schultz hat in seinem Beitrag (hier) immerhin begriffen, dass Wind und Sonnenstrom den Launen der Natur gehorchen müssen und daher zu oft ausbleiben. Das war es dann aber auch schon. Seine logisch klingende, aber leider unrealistische Schlussfolgerung besteht darin, dass der notwendige Ersatzstrom durch geeignete Lieferverträge mit Stromlieferanten garantiert werden könne. Er drückt dies so aus: „Das fundamentale Prinzip der deutschen Stromversorgung lautet: Jeder Kunde hat einen Lieferanten, und dieser muss liefern – egal, was kommt. So steht es in der Stromnetzzugangsverordnung“. Weiter folgert er: „Überwacht wird diese Pflicht über einen sogenannten Bilanzkreis, ähnlich einem Bankkonto. Liefert der Verantwortliche für den Bilanzkreis zu wenig Strom, rutscht sein Konto ins Minus. Dann gibt der Netzbetreiber Kredit: sogenannte Regelenergie. Spätestens nach einer Viertelstunde muss der Anbieter sein Konto wieder ausgleichen. Dazu kann er die Elektrizität selbst produzieren oder irgendwo einkaufen. Ein Versorger kann also so viele Kraftwerke abschalten, wie er will – solange er am Markt genug Strom kaufen kann. Sollten viele Kraftwerke abgeschaltet werden, würde Strom teuer. Die verbleibenden Kraftwerke würden wieder profitabel.

Dunnerlittchen, nun hat uns einer die ultimative Lösung verraten. Nur schade, dass die Wirklichkeit diesen sachlich absurden Vorstellungen beim besten Willen nicht folgen kann. Freilich darf man fairerweise von einem Redakteur, dessen akademischer Hintergrund das Studium der „Medienkultur“, Politik und britischen Literatur ist (hier), nicht mehr erwarten. Man kann aber vom SPON einfordern, dass er fachfremde und nicht einmal einer ordentlichen Recherche kundige Mitarbeiter keine Artikel schreiben lässt, die sie fachlich überfordern. So nämlich blamieren sich SPON und Redakteur gleichermaßen. Der Autor hätte lieber von Herrn S. Schultz etwas über die na sagen wir mal Metaphysik Hamlets unter Berücksichtigung der "politischen Medienkultur" im 17. Jahrhundert erfahren. Mit einem Bericht über die Energiewendeproblematik lag er etwas daneben – um es höflich auszudrücken.

Tatsächlich ist das Problem des Ersatzstroms nicht wirtschaftlicher sondern weit überwiegend technischer Natur. Dieses Faktum, das sich jedem Einsichtigen schon nach kurzer Recherche erschließt, ist Herrn S. Schultz entgangen. Die sich aus Naturgesetzen und technischen Regeln ergebenden Probleme der Energiewende lassen sich dummerweise weder mit Verträgen noch mit politischen Zwangsmaßnahmen lösen. Kurz, Herr S. Schultz hätte sich vielleicht doch besser vorher informiert. Danach hätte er als der Medienkultur kundiger Kopf das Verfassen seines Artikels vermutlich unterlassen.

Eine gute Quelle der Information ist beispielsweise die deutsche physikalische Gesellschaft (DPG) in „physik konkret“ (hier). Dort ist nachfolgend zu lesen (hier), verfasst von Prof. Konrad Kleinknecht, einem ehemaligen Vorstandsmitglied der DPG und Beauftragten der DPG für „Energie“:

————- Beginn des Beitrags von K. Kleinknecht (DPG) ——————–

Speicherung der elektrischen Energie

Elektrischer Strom muss in dem Augenblick verwendet werden, in dem er erzeugt wird. Es gibt einen Bedarf, der rund um die Uhr benötigt wird (Grundlast), einen regelmäßig auftretenden zeitlich variablen Bedarf (Mittellast) und einen plötzlich nachgefragten Spitzenbedarf. Die Grundlast wird derzeit durch Braunkohle- und Kernkraftwerke abgedeckt, die Mittellast durch Steinkohlekraftwerke und die Spitzenlast durch schnell steuerbare Gaskraftwerke.

Neue fluktuierende Stromquellen

Durch die neuen Stromquellen Windkraft und Photovoltaik (PV) ändern sich die Verhältnisse. Die Abbildung rechts zeigt stellvertretend den zeitlichen Verlauf der Einspeisung von Solar- und Windstrom für den März 2012. Die erbrachte Leistung fluktuiert sowohl täglich als auch saisonal. Windkraftwerke lieferten im Jahr 2012 ihre volle Nennleistung nur während durchschnittlich 4,6 Stunden am Tag und Photovoltaik-Solarzellen während 2,3 Stunden am Tag. Andererseits muss der Strom aus diesen Quellen wegen des EEG-Gesetzes prioritär abgenommen werden. Die konventionellen Kraftwerke müssen heruntergefahren werden, wenn die Sonne scheint oder der Wind bläst, und anschließend wieder hochgefahren werden. Das verringert ihre Effizienz und Rentabilität. Da die Erzeugung des Stroms aus Wind-und Solarenergie nicht mit dem zeitlichen Verlauf des Bedarfs übereinstimmt, wäre es sinnvoll, die überschüssige elektrische Energie wenigstens für die Dauer eines Tages zu speichern.
Die elektrische Energie aus Windkraft betrug im Jahr 2012 ca. 50.000 GWh, die aus Photovoltaik ca. 24.000 GWh [1]. An einem Tag fallen also durchschnittlich 137 GWh Windenergie und 66 GWh Solarenergie an. Wenn diese Energie zum Zeitpunkt der Erzeugung nicht gebraucht werden kann, muss sie gespeichert werden, oder die Anlagen müssen abgeschaltet werden. Eine weitere Möglichkeit ist es, den Überschuss an die Nachbarländer zu verschenken oder dafür sogar eine Gebühr zu bezahlen.

Speicherung der elektrischen Energie aus Solar- und Windkraftanlagen

Elektrischer Strom kann mit hoher Effizienz zurzeit nur in Pumpspeicherkraftwerken gespeichert werden. Die Speicherkapazität aller Anlagen in Sachsen, Bayern und im Schwarzwald beträgt 40 GWh [2], reicht also nur aus, um ein Fünftel des Tagesertrags aus Wind und Sonne zu speichern. Dieses Szenario setzt voraus, dass die nötigen neuen Übertragungsleitungen von Nord nach Süd schon gebaut sind, um die Energie der Windkraftanlagen im Norden zu den Speichern im Süden zu bringen. Dies wird einige Jahre Bauzeit erfordern. Der Ausbau der Speicher im Süden hätte also höchste Priorität, stößt allerdings z. B. beim Ausbau des Schluchseekraftwerks bei Atdorf auf den Widerstand der Anwohner.

Als alternative zukünftige Speichermöglichkeit wird die Elektrolyse von Wasser und die Umwandlung des erzeugten Wasserstoffs zu Methan sowie dessen Verbrennung in einem Gaskraftwerk diskutiert. Diese Methode („power-to-gas-to-power“) erlaubt die Speicherung des Methangases im existierenden Rohrleitungssystem, ist allerdings sehr ineffizient; nur ein Drittel der eingesetzten Windkraftenergie steht am Ende als Elektrizität wieder zur Verfügung [3]. Die technische Umsetzung steckt noch in den Kinderschuhen, der Wirkungsgrad der Elektrolyse ist bei fluktuierendem Stromangebot geringer als bei konstantem Strom [4]. Das erzeugte Methan ist zur Zeit wesentlich teurer als das russische Erdgas oder das Flüssiggas aus Katar. Andere Alternativen wie etwa Druckluftspeicher haben nicht die benötigte Kapazität [3].

Eine Entlastung der Netze könnte erreicht werden, wenn alle Besitzer von PV-Anlagen auf ihrem Dach den um die Mittagszeit anfallenden Solarstrom in einigen Batterien im Haus speichern und am Abend zum Betrieb ihrer Hausgeräte benutzen würden. Wenn zwei Millionen Haushalte mit PV-Anlage jeweils Batterien mit 5 kWh Kapazität installieren, würde dies einen lokalen Speicher von 10 GWh bilden. Als weitere Möglichkeit wird die Speicherung in den Batterien zukünftiger Elektromobile diskutiert. Falls in zehn Jahren eine Million solcher Fahrzeuge existieren würde, könnte in ihren Batterien eine Energie von 20 GWh gespeichert werden. Das wären etwa zehn Prozent der an einem Tag anfallenden Wind-und Solarenergie, falls alle Elektromobile um die Mittagszeit aufgeladen würden. In Wirklichkeit werden sie nachts aufgeladen, wenn keine Sonne scheint. Für die nächsten zehn Jahre wird diese Speichermöglichkeit also keine Rolle spielen.

Fazit

Für die nächsten zehn Jahre wird es keine Möglichkeit geben, relevante Mengen elektrischer Energie effizient zu speichern. Es bleibt bei der fluktuierenden Einspeisung der Wind-und Solarenergie nur die Möglichkeit, fossile Kraftwerke als regelbare Schattenkraftwerke zu betreiben, die bei überschüssiger Energie aus Wind-oder Solarkraft heruntergefahren werden und bei deren Ausfall als Reserve zur Verfügung stehen. Diese unregelmäßige Betriebsweise der fossilen Kraftwerke ist allerdings ineffizient und unwirtschaftlich. Auch kann die Leistung dieser Kraftwerke nicht beliebig stark und schnell geändert werden.

Quellen

[1] Arbeitsgemeinschaft Energiebilanzen e.V.

[2] H. Gasser, Arbeitskreis Energie des DPG Tagungsbands 2012, S. 128

[3] M. Sterner, M. Jentsch, U. Holzhammer, Gutachten für Greenpeace, Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES Kassel), Feb. 2011

[4] F. Schüth, MPI für Kohleforschung (Mülheim), FAZ, 13. März 2013, Seite N2

[5] G. Bergolte 2013

———- Ende des Beitrags von K. Kleinknecht (DPG) —————————

Es ist nicht zuviel verlangt und einem SPON-Redakteur zuzumuten, zu recherchieren, d.h. beispielsweise die hier zitierte, gut informierende DPG zu lesen. Ferner sich zu bemühen, technische Inhalte zu verstehen und dann dem Leser zu vermitteln. Herr Schultz hätte sich natürlich auch auf der EIKE Website bestens informieren können, z.B. über die ihm wohl etwas näher liegenden wirtschaftlichen Aspekte des alternativen „Zappelstroms“ (hier, hier, hier, hier). Dann wäre ihm die simple Erleuchtung gekommen, dass der Nachteil fluktuierender Stromeinspeisung ohne unzumutbar hohe Kosten TECHNISCH-NATURGESETZMÄßIG-GRUNDSÄTZLICH nicht zu beseitigen ist.

Der oft von sachunkundigen Zeitgenossen zu vernehmende gute Glaube "wir brauchen nur noch mehr Windstrom, dann wird die Energiewende schon klappen" ist absurd falsch. Wir können so viel Windstrom produzieren, wie wir wollen (an windreichen Tagen ist es bereits jetzt schon viel zu viel, der Strom muss dann gegen Aufpreis ins Ausland verschenkt werden), so steht doch fest: beliebig und unvorhersehbar fluktuierender Strom ist unbrauchbar und für die Stabilität der Stromnetze fatal. Die Beseitigung dieses Nachteils führt unabdingbar zu extremen Kosten. An der Hauptversorgung mit kostengünstigen Grundlastkraftwerken, die stetigen, regelbaren Strom liefern (Kohle und Uran, in anderen Ländern auch Schiefergas – Putins Gas ist für Grundlastkraftwerke zu teuer) geht kein Weg vorbei. Dem Autor tut es ja für jeden gutgläubigen grünen Traumtänzer leid, aber so ist nun einmal die Realität. Windräder und Photovoltaik sind volkswirtschaftlich kostspieliger Unsinn, ganz besonders hierzulande. In Wüsten mag dies ein wenig anders aussehen. Noch ist Deutschland keine Wüste, wenn es aber mit der Energiewende so weitergeht, wird es eine werden – eine industrielle. Das Problem der deutschen Energiewende ist nur mit der Rückkehr zum Zustand quo ante behebbar. Kompletten Nonsense abzustellen, war schon immer die beste Lösung. Ein kleiner Tipp für noch immer nicht überzeugte Leser und insbesondere für Herrn S. Schultz: wer außer uns in der Welt macht die Energiewende noch mit? Woran mag das wohl liegen?

Der Mythos des SPON vom "nicht möglichen" Blackout

Wir wären ja alle heilfroh, wenn der drohende Black Out ein Mythos wäre. Leider ist das platte Gegenteil der Fall. Je mehr fluktuierender Wind- und Sonnenstrom ins bundesdeutsche Netz per Oktroi (EEG) gelangt, umso technisch schwieriger wird dessen unabdingbare Stabilitätsausregelung vermittels schnell reagierender Schattenkraftwerke (meist Gas). Das Netz wird zunehmend instabil und bricht früher oder später zusammen, wenn es wie bisher mit der zunehmenden Eispeisung von Wind- und Sonnenstrom so weitergeht und immer mehr Grundlastkraftwerke wegfallen (hier, hier, hier).

Zum Blackout (hier). Der Autor hatte nach einem Hochschul Fachvortrag die Gelegenheit mit einschlägigen Experten zu sprechen, die zum kritischen Zeitpunkt konkret mit dem Stabilitätsproblem befasst waren. Deutschland ist nach Schilderung dieser und aller weiteren dem Autor bekannten Fachleute im vorletzten Winter haarscharf an der Katastrophe vorbeigeschlittert. Über die Folgen informiert die nicht gerade als ruhige Nachtlektüre geeignete Drucksache des deutschen Bundestages (hier). Man darf bei einem mehrtägigen Black Out zuverlässig von Tausenden Toten, Plünderungen und weiteren wenig ersprießlichen Ereignissen ausgehen. Erst ist der Druck in der Wasserleitung, dann das Wasser selber weg, Handy und Telefon sind tot, niemand befreit Sie aus einem steckengebliebenen Fahrstuhl mit eng aneinandergedrückten Passagieren ….. Wenn man auch noch an materiellen Schadensschätzungen interessiert ist, dann (hier).

Ein nettes Schlusswort

Lieber SPON, wir alle schätzen SPIEGEL bzw. SPON als informative, oft erfrischend freche und meist bemüht objektiv berichtenden Medien – keine Selbstverständlichkeit in der heutigen deutschen Journalistenlandschaft. So wie in dem hier kritisierten Beitrag geht es aber gar nicht. Der ist kurioser sachlicher Unsinn, nichts weiter. Und an den SPON Redakteur: Lieber Herr Schultz, wir empfehlen Ihnen, in Zukunft erst einmal sorgfältig zu recherchieren und dabei die Fakten nicht dem grünen Glauben zu opfern. Wir empfehlen Ihnen auch, nur über Themen zu schreiben, in denen Sie fachlich einigermaßen sattelfest sind. Wir sind sicher, in diesem Fall Ihre Beiträge schätzen zu lernen.

Zum Autor:

Prof. Dr. Horst-Joachim Lüdecke ist Diplom-Physiker mit langjähriger Berufserfahrung in Forschung, Lehre und Industrie. Er hat das Sachbuch "Energie und Klima: Chancen, Risiken, Mythen", expert-Verlag, verfasst sowie über Klimathemen in den letzten Jahren mehrere Forschungsarbeiten in begutachteten Fachjournalen zs. mit Koautoren veröffentlich. Informationen zu Buch und Publikationen sind in der EIKE-Webseite (hier) einseh- und herunterladbar.




Exit

Bei den Medien sicherlich. Hier ist, wie in der deutschen Medienlandschaft schon so oft, der SPIEGEL einer der wichtigsten Vorreiter. Noch nicht lange her auf Linie des IPCC, übt sich der SPIEGEL inzwischen in Klimakritik (hier, hier, hier, hier, hier, hier, hier). Weiter ist die Schweizer Weltwoche zu nennen (hier, hier). Die übrige „anspruchsvolle" Zeitungslandschaft wie FAZ, Süddeutsche Zeitung, die WELT usw. verharren aber immer noch im Irgendwo. Man zögert und hält sich alle Optionen offen, ausgenommen die ideologiefeste Süddeutschen Zeitung und die öffentlich-rechtlichen TV- und Radio-Sender mit ihren grün-roten Redaktionen. Diese üben  sich bunkermental im Durchhalten nach dem Motto „was kümmern uns Fakten, wir verbreiten Klimakatastrophen“.

In den Zeitungsredaktionen weiß man dagegen immer noch nicht, woher der Wind einmal blasen wird und legt sich daher nicht fest. Klimakritische Artikel wechseln sich mit Klimaklamauk zunehmend rascher ab. So war sich sogar die FAZ nicht zu schade, den Asyl-Antrag eines „Klimawandel-Opfers“ der Pazifik-Insel Kiribati an Neuseeland zu kolportieren und damit dem Leser wieder einmal einen gefährlichen Meeresspiegelanstieg zu verkaufen (hier) – oder war es vielleicht schon Ironiel? Im Gegensatz zum Klima machen freilich fast alle Zeitungen massiv gegen den volkswirtschaftlichen und technischen Wahnsinn der Energiewende Front. Die einfache logische Konsequenz, nämlich deren komplette Abschaffung, ist aber leider immer noch ein Tabu. Das Anzeigengeschäft mit Unternehmen, die von der Energiewende profitieren, ist für die finanziell bedrohten Blätter zu wichtig, um frei und objektiv berichten zu können. Eine Fortsetzung der Energiewende wie bisher, die mit der kommenden Regierungskoalition wenig wahrscheinlich ist, würde dann aber wohl doch alle noch vorhandnen Kritik-Dämme der Printmedien brechen lassen.

Der Exit der deutschen Wirtschaft ist dagegen schon traurige, komplette Realität. Stromintensive Industrien verabschieden sich ins Ausland, Arbeitsplätze gehen verloren. Es wird nicht viel Getöse gemacht. Zwischen Politik und den verschwindenden Firmen bestehen nämlich Absprachen einer gefälligen Abwicklung des Exit unter folgenden leicht zu erkennenden Bedingungen: Keine öffentlichwirksamen, lauten Klagen der abziehenden Unternehmen über die Energiewende! Dann geht der Exit nachsichtig glatt vonstatten – dies der Deal.

Der Verband der deutschen Chemie protestiert inzwischen gegen die gestiegenen Strompreise, ohne die hierfür verantwortliche Energiewende klar als Unsinn zu bezeichnen. Es ist leider nicht nur Höflichkeit, was sie daran hindert. Man fühlt sich unübersehbar unbequem und windet sich. Man ist natürlich "für" die Energiewende, nur eben nicht für solch eine usw. usw…. ja, aber für welche dann? „Nur eine wettbewerbsfähige Energiewende kann auch Wachstum und Arbeitsplätze fördern“ heißt es in der aktuellen VCI-Schrift (hier). Gut gebrüllt Löwe! Nun aber bitte im Ernst! Wie soll denn die deutsche Energiewende, ein Musterbeispiel längst vergangen geglaubter DDR-Planwirtschaft, jemals wettbewerbsfähig werden? Einzige unabdingbare Lösung ist, sie komplett in der Mülltonne der Geschichte zu entsorgen. Zugegeben, die Chemie hat ohnehin schon gegen einen unberechtigt schlechten Ruf zu kämpfen. Es gibt Leute, die vermuten, dass große Chemieunternehmen Greenpeace und weiteren NGO-Konsorten Schutzgelder zahlen (Pardon, natürlich Spenden zukommen lassen), damit diese nicht vor den Werkstoren randalieren. Wir wissen nicht, ob dies zutrifft, abwegig ist es aber nicht. Man kann in diesem Zusammenhang nur den Wunsch aussprechen, dass wenigstens die russische Regierung hart bleibt und die Besatzung des widerrechtlich operierenden Greepeace-Schiffs konsequent hinter Gitter setzt.

Was waren es dagegen noch für Zeiten, als sich Greenpeace japanischen Walfängern entgegenstellte, Aktionen, für die wohl nicht nur der Autor immer noch sehr viel Sympathie aufbringt. Heute singt Greenpeace das Lied von Rockefeller und betreibt das grüne Geschäft der Vernichtung deutscher Kernkraftwirtschaft. Das ist finanziell lukrativer als Wale zu schützen. Auf diese Weise hat es dieser fragwürdige Verein von einer kalifornischen Klitsche bis zu einem weltweit agierenden Unternehmen gebracht, dessen Führung im sonnigen US-Weststaat sich sogar des Besitzes einer Großyacht erfreut [2]. Es darf als Skandal bezeichnet werden, wie Verlautbarungen von Greenpeace in den deutschen Medien fast schon den Rang offizieller deutscher Regierungserklärungen einnehmen.

Aprospos "hinter Gittern". Wir kommen damit zum Exit der weltweit agierenden Großbanken, Versicherungen und Rückversicherungen. Es gibt kluge Leute, die sehen das IPCC, den Club of Rome und NGO’s wie WWF, Greenpeace etc. als verlängerte Arme der US-Großfinanz an. Allen voran steht wohl das Bankimperium Goldman Sachs (hier, hier, hier). Die US-Großfinanz hat die politischen Welteliten auf Klimakatastrophen eingeschworen und belohnt dafür die Protagonisten, die oft aus prominenten, abgehalfterten Politikern bestehen. Wem dies zu sehr nach "Verschwörungstheorie" riecht, schaue sich nur als Beispiel von vielen die Vita unseres ehemaligen Außenministers Joschka Fischer an, insbesondere seine Aktivitäten nach Ausscheiden aus dem Amt (hier, hier). Die Anzahl von einflussreichen Politikern, die einmal auf der Gehaltsliste von Goldman Sachs standen, ist Legion (hier, hier). Lukrative Geschäftsfelder lassen sich mit Hilfe einer fremdgesteuerten Agenda unauffällig und wirkungsvoll installieren.

Die Verästelungen reichen heute bis hinunter in die deutsche Provinz. So lassen sich deutsche Bürgermeister, die sich dem glorreichen Vorhaben verschrieben haben, ihre Städte CO2-frei zu machen (hier), von fragwürdigen Institutionen beraten. Wie zum Beispiel in Heidelberg von einem IFEU-Istitut (hier). Derartige Grün-Unternehmen treiben ihr Unwesen inzwischen bundesweit. Sie beschäftigen Mitarbeiter, die in ordentlichen Firmen vermutlich keinen Arbeitsplatz finden konnten. Immerhin könnte man diese Entwicklung euphemistisch als Arbeitsbeschaffungsmaßnahmen bezeichnen – auf Kosten der Kommunen bzw. des Steuerzahlers natürlich.

Zurück zur großen Bühne! Hier stehen große Exit-Probleme an. Die Glaubwürdigkeit des IPCC hat durch seine undurchsichtige und unglaubwürdige Politik, aber am meisten wohl durch das widerspenstige Verhalten der Natur irreparablen Schaden erlitten (hier, hier) und [1]. Eine knapp 30-jährige globale Erwärmung, deren Ursprung von naturunkundigen Zeitgenossen (die von der Klimavergangenheit mit ihren wesentlich heftigeren Fluktuationen nichts wissen) sowie von Advokatenwissenschaftlern dem anthropogenen CO2 zugeschrieben wird, will sich partout nicht fortsetzen. Den großen Banken und Versicherungen droht dadurch der Boden unter dem so schön eingefädelten Klimageschäft wegzubrechen. Wir brauchen diese Unternehmen nicht zu bedauern, sie werden rasch andere Geschäftsfelder zur Rupfung ihrer Opfer finden. Unglücklicherweise ist die von Großbanken gesteuerte US-Administration nicht in der Lage, die großen Banken zu zerschlagen (Trennbankensystem durch Auslagerung der Zocker-Abteilungen in eigene Unternehmen, um die Steuerzahler von den irrsinnig hohen bail-out-Kosten zu befreien). Immerhin scheint dies der EU zu gelingen, wenn auch leider noch nicht ganz konsequent (hier) – ein erster Hoffnungsschimmer! Die US-Administration ist freilich so stark im Griff der Großfinanz – Demokraten und Republikaner gleichermaßen, hier spielt es keine Rolle, wer das Sagen hat – ,dass jede Hoffnung auf Bankenzerschlagung und Neuordnung von Währung und Schulden vergeblich ist.

Wieder zurück zum Klima! Der Autor freut sich über den nun 15 Jahre andauernden Temperaturstillstand überhaupt nicht, denn die Erwärmung der 90-er Jahre war wohltuend und für die Menschheit überdies günstig. Er wagt auf der anderen Seite aber gar nicht daran zu denken, was bei weiterer Erderwärmung passiert wäre. Mit Sicherheit wären heute alle EIKE-Mitglieder von Klimagerichten wegen Volksverhetzung abgeurteilt, wenn sie nicht schon vorher widerrufen hätten. Klimagerichte wurden von grüner Politik tatsächlich schon vorgeschlagen und sind kein Phantasieprodukt [2]. Sie wären bei weiterer Erwärmung installiert worden (alternativlos, Zitat Merkel). Den Klimakonsens aller deutschen Parteien erleben wir ja bereits seit vielen Jahren. Eine solche "überparteiliche" Übereinstimmung ohne jedwede Sachkritik seitens der Politik (von Splitterparteien abgesehen) ist zweifellos der Existenzbeweis einer bereits realen bundesdeutschen Ökodiktatur. Eine weiter fortgesetzte Erwärmung hätte Massendemonstrationen für noch mehr Klimaschutz initiiert, und es hätten sich noch weit schlimmere Dinge entwickelt. Jeder mit ein wenig Vorstellungsvermögen, Geschichtskenntnissen und Menschenerfahrung kann es sich ausmalen. Wozu Menschen fähig sind, haben vergangene Diktaturen bewiesen. Die aktuelle deutsche Ökodiktatur ist glücklicherweise noch milde, sie ist erst bis zur medialen Meinungsunterdrückung sowie dem stillen Herausdrängen unliebsamer Fachwissenschaftler aus Schlüsselpositionen und ihrem Ersatz durch linientreue Ökoaktivisten gelangt (Beispiel WGBU, zu den Mitgliedern dieses Beirats erübrigt sich jeder Kommentar). Ferner ist heute schon jeder in einschlägigen Ministerien oder Unternehmern Beschäftigte im Interesse seiner beruflichen Karriere gut beraten, keine Klimakritik zu äußern.

Ein stellvertretendes Beispiel von fragwürdigen Vorkommnissen in diesem Zusammenhang unter vielen: Man muss sich angesichts des fast unglaublichen sachlichen Dummschwätzens einer bundesweit medienbekannten Volkswirtin, die sich als ökopolitische Kassandra mit Unterstützung grüner Medien-Seilschaften in den Vordergrund spielte, ersthaft fragen, wie diese Dame zu einer Universitätsprofessur gelangte. Kurzum, ohne Abbruch der globalen Kurz-Erwärmung Ende des 20. Jh. hätte die aktuelle Ökodiktatur Deutschlands ohne Zweifel einen weit gefährlicheren Weg eingeschlagen. Insofern begrüßt der Autor den Erwärmungsstillstand, wenn auch ungern.

Verbleibt nun noch der Exit der Politik. Wie kommt die Politik vom hohen Ross "Klima und Energie" wieder herunter? Der Autor kann sich den Ablauf nur schlecht vorstellen. Dies aus dem einfachen Grund, weil Politiker über ein Wandlungsvermögen verfügen, gegen das Chamäleons Stümper sind. Einen Exit wird es geben, denn sowohl der Bevölkerung als auch der Industrie sind die steigenden Kosten der Energiewende inzwischen bewusst geworden, ihr Duck wird stärker. Die Medien werden entsprechend den Druck erhöhen, so dass Frau Merkel sich irgendwann erneut zu „Alternativlosigkeit“ bemüßigt fühlen wird. Wie dann der Koalitionspartner (SPD) wohl reagiert? Spannend wird es auch, ob die politische Hoffnung AfD endlich zur Energiewende Farbe bekennt und deren komplette Abschaffung zusammen mit der Abschaffung aller Klimaschutzmaßnahmen fordert. Bei den ersten Sitzungen im Europaparlament, in welches diese Partei einziehen wird, muss sich ihre bisher unklare Linie verdeutlichen. Erst mit kopromissloser Ablehnung von Energiewende und Klimaschutz (neben Ablehnung jedes Euro Bail-Out) wird die AfD zu einer echten Alternative. Bei der FDP unter dem neuen Vorsitzenden Lindner ist Hoffnung wohl vergeblich. Ob es ihm gelingt diese Partei, die im Zuge von Außenminister Westerwelle von gleichgeschlechtlich orientierten Protagonisten majorisiert wird, wieder zu ordentlichem Funktionieren zu bringen, ist fraglich. Bis jetzt hört man nur von Personengeschacher, nichts über die vorrangigen Sachfragen einer liberalen Partei. Weiß die FDP überhaupt noch, was liberal bedeutet? 

Um bei der unübersehbaren Haltung des Autors zu Energiewende und Klimaschutz keine Missverständnisse aufkommen zu lassen: Selbstverständlich ist nicht die Aufgabe des Naturschutzes gemeint! Klimaschutz und Energiewende haben mit Naturschutz nichts zu tun, sie sind diametral dessen Gegenteil! Insbesondere die echten „Grünen“ (nicht die Wassermelonen dieser Partei – innen rot, außen grün) könnten vielleicht einmal aufwachen, indem sie das Schleifen der Windräder zum Schutz der Fledermäuse und Greifvögel fordern und sich damit wieder auf ihre ehemalige Agenda "Naturschutz" und nicht Gesellschaftsveränderung und -bevormundung besinnen. Das Bauen von Fledermaustunneln ist sicher ein ehrenwertes, wenn auch etwas teures Unterfangen. Es scheint aber nicht ganz passend, wenn diese nützlichen Tiere infolge ihres vorzeitigen Ablebens gar nicht mehr zur Benutzung dieser Passierhilfen kommen. Sie sind nämlich längst mit geplatzten Lungen infolge der Einwirkung von Windmühlenflügeln abgestürzt und zum Zubrot von Krähen und Füchsen geworden.

Nicht verlinkte Quellen

[1] Die Bücher von Donna Lafromboise über das IPCC und dessen Verbindungen mit NGO’s wie Greenpeace

[2] Vom Fraktionschef der Niedersächsischen Grünen, NWZ vom 10.03.2008

Zum Autor:

Prof. Dr. Horst-Joachim Lüdecke ist Diplom-Physiker mit langjähriger Berufserfahrung in Forschung, Lehre und Industrie. Er hat das Sachbuch "Energie und Klima: Chancen, Risiken, Mythen", expert-Verlag, verfasst sowie über Klimathemen in den letzten Jahren mehrere Forschungsarbeiten in begutachteten Fachjournalen zs. mit Koautoren veröffentlich. Sie sind von der EIKE-Webseite unter http://www.eike-klima-energie.eu/publikationen/ herunterladbar.




CDU OB von Stadt Albstadt hält ein Plädoyer für eine rationale Energiepolitik

Wirklich tödlich? – es sind ja „nur“ Sandkastenspiele, die bestenfalls der Willensbildungund Entscheidungsfindung im Vorfeld von Wahlterminen dienen. Aber worin unterscheiden sich nun „Freizeit-Energiepolitiker“ von den Profis in unseren Parlamenten auf Landes- und Bundesebene? Ich würde sagen nur graduell, wenigstens das sieht Frau Schwan ähnlich. Dort gibt es in der Ausschussarbeit klare Zuordnungen und Spezialisierungen auf Einzelpolitiken, und der Bildungs- oder Innenpolitiker hat eben mit der Energiepolitik weniger am Hut, einmal abgesehen vom in der Regel fehlenden technisch-naturwissenschaftlichen Hintergrund.

Und selbst als Physiker(in) – im gegenwärtigen Bundestag zusammen mit Ingenieuren, Chemikern und Mathematikern eine Minderheit von 7,5% –, das zeigt sich ganz klar an der Bundeskanzlerin, ist man Zwängen unterworfen, die einer rationalen Entscheidung im Wege stehen. Nicht zu vergessen natürlich die ständige Beeinflussung durch Medien, Vertreter von Einzelinteressen, bezahlte Politikberatung sowie der nachvollziehbare Wunsch, wiedergewählt zu werden. Im Bereich der Energiepolitik kommt erschwerend hinzu, dass es sich um ein komplexes Thema handelt, dessen Erkenntnislücken gerne mit Glaubenssätzen aufgefüllt und durch Angstszenarien untermauert werden. Nicht zu unterschätzen darüber hinaus die Verquickung wirtschaftlicher Interessen, die gerade auch in den jungen Industrien der sog. Erneuerbaren Energien ausgeprägt ist.

Was hilft dagegen? Nicht Palaver, sondern Aufklärung und Information, so objektiv wie möglich, so umfassend wie nötig und so interessenneutral wie es nur geht. Das heißt, im Vordergrund muss das Gemeinwohl stehen. Für verschiedene Fragestellungen der Energiepolitik soll hierzu in knapper Form und unter Zuhilfenahme von Quellen und Publikationen mit naturwissenschaftlich-technischem Fokus, vorwiegend aus dem Internet, ein erster Versuch unternommen werden. Dabei hilft, dass der Verfasser als „einfacher Wirtschaftswissenschaftler“ sich dem kritischen Rationalismus von Karl Popper verpflichtet fühlt.

1. Was ist Sinn und Zweck der Energiewende?

Die Energiewende soll zwei (vermeintliche?) Probleme lösen: Erstens die Abhängigkeit von fossilen Rohstoffen beseitigen, die nach den „Prophezeiungen“ des Club of Rome über die Grenzen des Wachstums aus dem Jahre 1972 „sehr zeitnah“ nicht mehr verfügbar sein werden, sprich die Begrenztheit der Vorräte an Kohle, Öl und Gas wird ins Kalkül gezogen. Dadurch sollen sich auch die anthropogen verursachten Emissionen des Gases CO2 verringern, die vom wissenschaftlichen „Mainstream“ ganz wesentlich für den Klimawandel verantwortlich gemacht werden – Stichwort: Menschengemachter Klimawandel.

Zweitens soll das deutsche Energiesystem sukzessive, d.h. in vier Schritten von fossilen auf erneuerbare Energien wie Sonne, Wind, Biomasse und Wasserkraft umgestellt werden. Bis 2020 sollen jeweils mindestens 35%, bis 2030 50%, bis 2040 65% und bis 2050 80% der Stromerzeugung regenerativ erfolgen, die gesamte Energieversorgung zur Jahrhundertmitte zu mindestens 50%. Parallel zum Umstieg auf erneuerbare Energien erfolgt der Ausstieg aus der Kernenergie – wohl die stärkste Antriebskraft –, der allerdings schon in 2022 zu 100% vollzogen sein soll.

Dies ist das Ergebnis der im Nachgang zu der Naturkatastrophe vom 11. März 2011 – dem Erdbeben und Tsunami mit anschließender Havarie von drei Reaktoren in Fukushima/Japan – von der Bundesregierung getroffenen Entscheidungen. Kurz zuvor war der Kernkraftnutzung in Deutschland noch eine Funktion als „Brückentechnologie“ zugetraut und zugebilligt worden. D.h. sie sollte einen behutsamen Systemwechsel von Fossil auf Erneuerbar auch wirtschaftlich abfedern und begleiten.

Die vom Club of Rome angestoßene Diskussion wird heute u.a. unter Begriffen wie „Peak-Oil“ und „-Gas“ stark meinungsprägend fortgeführt, wobei die Internationale Energie Agentur (IEA) in Paris die Versorgung mit fossilen Brennstoffen noch für Jahrhunderte sichergestellt sieht (siehe hierzu nur Rudolf Kipp, Peak-Oil und Anti-Fracking Propaganda in der ARD, 28.3.2013, unter www.science-skeptical.de). In Bezug auf die Kernkraftnutzung weist die Ablehnungsfront fast krankhafte Züge auf. Dies erkennt man an der gängigen Tabuisierung des Themas, wie auch an Manifestationen der schon sprichwörtlichen „German Angst“. Dies geht soweit, dass versucht wird, neuere Entwicklungen in der Kerntechnik bewusst aus der öffentlichen Diskussion herauszuhalten.

So wurde im laufenden Wettbewerb des renommierten GreenTec Awards 2013 ein durch Online-Voting mehrheitlich nominierter Salzschmelze-Reaktor durch die nachträgliche Änderung der Wettbewerbsbedingungen aus der Wertung genommen. Zwischenzeitlich hat das Berliner Kammergericht dies per einstweiliger Verfügung für unzulässig erklärt. Dem neuen Reaktortyp der Generation IV werden aufgrund seiner Vorteile gegenüber den üblichen Leichtwasserreaktoren (u.a. inhärente Sicherheit, bessere Nutzung von Thorium und Uran, Lagerung der radioaktiven Abfälle für einen Zeitraum von 300 Jahren) auf lange Sicht – in 30 bis 50 Jahren – gute Chancen eingeräumt. Die Chinesen haben schon ihr Interesse an dieser Entwicklung artikuliert.

Der Enkel des Entdeckers der Kernspaltung und Nobelpreisträgers Otto Hahn, Dietrich Hahn, weist übrigens gerne darauf hin, dass sein Großvater, wie auch seine Patentante Lise Meitner, im hohen Alter (im 89. bzw. 90. Lebensjahr) eines natürlichen Todes gestorben sind. Und darauf, dass sich Tadatoshi Akiba, ehemaliger Bürgermeister Hiroshimas und langjähriger Präsident der weltweit aktiven Organisation “Mayors for Peace” bei der Verleihung der Otto-Hahn-Friedensmedaille am 16. April 2013 in Berlin klar für eine Fortsetzung des Kernenergienutzung in seinem Heimatland Japan ausgesprochen hat.

2. Sind die Erkenntnisse über die Ursachen des Klimawandels eindeutig?

Glaubt man der neuesten einschlägigen Publikation des Umweltbundesamtes (UBA) aus Dessau, dann sind hierzu keine Fragen mehr offen. Unter dem Titel „Und sie erwärmt sich doch“ – basta – kam im Frühjahr 2013 eine amtliche Apologetik heraus, die keine Zweifel mehr daran zulässt, dass die Erderwärmung von statten geht und anthropogen, d.h. durch den Menschen verursacht ist.

Abgesehen davon, dass es verwegen erscheint, eine so komplexe Materie wie das weltweite Klimageschehen monokausal erklären zu wollen, dass der Versuch indiskutabel ist, abweichende Meinungen durch die namentliche Nennung einzelner Autoren zu diskreditieren, dass einzelne Inhalte nicht mit den neuesten Erkenntnissen des sog. Weltklimarates (Intergovernmental Panel on Climate Change – IPCC) übereinstimmen, ist es unsäglich und wissenschaftlich unredlich, einen öffentlichen Diskurs, noch bevor dieser richtig angefangen hat, für beendet zu erklären. Sehr ausführlich und die Fehler des UBA vermeidend, hat das Europäische Institut für Klima und Energie (EIKE) aus Jena im Mai 2013 die UBA-Broschüre einem Faktencheck unterworfen (http://www.eike-klima-energie.eu/uploads/media/EIKE-Faktenckeck_des_UBA_01Juni2013_02.pdf). Dabei wird u.a. darauf hingewiesen, dass schon seit 16 Jahren nicht mehr von der globalen Erwärmung ausgegangen werden kann (vgl. S. 1), im Gegenteil, dass eine globalweite Abkühlung gemessen wird und dies nicht mit dem stetig steigenden CO2 Gehalt der Atmosphäre zusammenpasst (vgl. S. 4).

Auch Extremwetterzunahmen werden (sogar unter Bezugnahme auf das IPCC) verneint. Hier verwechsele das UBA bei Flutkatastrophen auftretende größere Schäden mit angeblich höheren Pegelständen, was allein schon durch historische Hochwassermarken widerlegt wird (vgl. S. 5). Das UBA ignoriere die Rolle des CO2 für die Ernährung der Menschen, ohne dieses Gas (mit aktuell 0,04% Anteil an der Erdatmosphäre, entspricht 400 ppm = parts per million) gäbe es kein Leben. Denn CO2 ist Hauptlieferant des für den Aufbau von Biomasse notwendigen Kohlenstoffs im Zuge der Photosynthese. Wenn fachunkundige Bürgermeister eine CO2-freie Stadt anstrebten, sei dies deshalb absurd (vgl. S. 8-9).

Carl Christian von Weizsäcker hat sich bereits in 2009 zu der Frage geäußert, wer nun recht hat? „Auf beiden Seiten (den sog. „Alarmisten“ mit dem IPCC und bei den „Skeptikern“ – JG) gibt es seriöse Wissenschaftler. Aber dafür bin ich nicht der Experte. Ich stelle mich in die Schuhe derjenigen, die sagen, es gibt diesen Klimaeffekt. Das ist die pessimistischere Variante. Das Vorsichtsprinzip lässt mich sagen: Solange wir es nicht wissen, sollten wir eher die pessimistischere Variante nehmen. Ich bin durchaus skeptisch gegenüber dem, was der Mainstream behauptet. Aber ich bin kein Naturwissenschaftler und kann es nicht hinreichend beurteilen. Deshalb sage ich: Wenn der IPCC recht hat, dann finde ich als Ökonom, dass eine rationale Klimapolitik eine andere sein muss als die, die wir jetzt betreiben. Etwa, was die erneuerbaren Energiequellen angeht. Der Glaube daran trägt schon religiöse Züge. Da werden durch Lobbyinteressen finanziell gut unterfütterte Glaubenssätze propagiert“ (http://www.novo-argumente.com/magazin.php/archiv/novo99_27).

Dieser Einschätzung kann man sich auch heute noch vorbehaltlos anschließen, wobei sicherlich die Bestimmtheit – und da liegt das UBA mit seiner Broschüre voll daneben – mit der seriöse Aussagen zur globalen Erwärmung getroffen werden, weiter abnehmend und die Bandbreite der Vorhersagen zunehmend ist. Der 5. Zustandsbericht des IPCC, der für September angekündigt ist, wird dies zeigen.

3. Welchen physikalischen und wirtschaftlichen Gesetzmäßigkeiten unterliegt die Energiewende?

Einen „Klassiker“ hierzu hat meines Erachtens Peter Heller zu Anfang des Jahres mit seinem Aufsatz „Die Energiewende scheitert an der Physik“ verfasst (http://www.science-skeptical.de/energieerzeugung/die-energiewende-scheitert-an-der-physik/009246/). Meine mehrfach gegenüber Fachleuten aus der Energiewirtschaft geäußerte Frage, ob dies denn so (einfach) sei, wie dort beschrieben, wurde durch die Bank einschränkungslos bejaht. Dazu gehört, dass sich in einem Wechselstromnetz verbunden mit der Notwendigkeit relativ konstanter Frequenz (Norm-Frequenz in Deutschland ist 50 Hertz), Energieentnahme und Energiezufuhr stets, d.h. zu jedem Zeitpunkt ausgleichen müssen, damit es stabil bleibt. Hinzu kommt, dass man elektrischen Strom nicht speichern kann (dort S. 1), sondern hier eine Energiespeicherung erst nach Umwandlung in andere Energieformen möglich ist. So z.B. über kostspielige, mit Energieverlusten verbundene Umwege, indem man mit nicht benötigtem Strom Wasser den Berg hinauf pumpt, um es bei Bedarf durch Rohrleitungen und Turbinen-Generatoreinheiten wieder ins Tal zu leiten (daher Pumpspeicherkraftwerk) und so wieder elektrische Energie zu gewinnen (dort S. 6).

Aus drei Gründen stiftet die Energiegewinnung aus Sonne und Wind in Deutschland nur bedingt Nutzen: Zum einen ist sie nicht in der Lage die plan-, steuer- und verfügbare Stromerzeugung aus konventionellen Kohle-, Gas-, und Kernkraftwerken zu ersetzen. Daher: Wenn die Sonne nicht scheint und der Wind nicht weht, müssen diese sog. verlässlichen Kraftwerke zur Stabilisierung des Stromnetzes weiterhin bereitstehen, es müssen also Kraftwerkskapazitäten doppelt vorgehalten werden (dort S. 3). Zum anderen gibt es in Deutschland bei der Energie keinen Engpass und keine gänzlich unerschlossenen Landstriche, im Gegensatz zu Ländern wie China oder Indien mit großem Nachholbedarf und „Entwicklungshunger“. Aber wir haben, drittens, das Problem, dass für die massive weitere Integration von regenerativer Stromerzeugung auf Basis von Sonne und Wind die geeigneten Stromnetze fehlen oder vorhandene erst entsprechend ertüchtigt werden müssen: Sowohl die Übertragungsnetzbetreiber (50Hertz, Amprion, TenneT und Transnet BW) als auch die großen Energieversorger (E.ON, RWE, Vattenfall und EnBW) und die vielen hundert Stadtwerke mit ihren Verteilnetzen müssten kräftig investieren und sich entsprechend finanzieren.

Die wirtschaftlichen Auswirkungen beschreibt präzise Peter Heller: „Strom wird teurer, weil man Erzeugungskapazitäten aufbaut, die man nicht braucht. In die also niemand freiwillig investieren würde, es sei denn der Staat übernimmt das finanzielle Risiko. Nichts anderes ist das EEG und nichts anderes sind die Garantien für potentielle Betreiber von Offshore-Windparks. Er wird teurer, weil die vorhandenen Kapazitäten dadurch unwirtschaftlicher arbeiten. Er wird teurer, weil man die Vorhaltung von unwirtschaftlichen Kapazitäten für die Regelenergie subventionieren muss, um die Netzstabilität zu sichern. Er wird teurer, weil man den Betreibern volatiler Quellen auch die elektrische Energie bezahlen muss, die am Bedarf vorbei produziert wird. Er wird teurer, weil Stromspeicher weniger effizient sind, als Kraftwerke.“ (dort S. 6). Fast resignierend fügt er hinzu: „Die Energiewende bedeutet nichts anderes als steigende Preise bei gleichzeitig sinkender Versorgungssicherheit. Dauerhaft.“ (dort S. 7).

4.  Was sind die Charakteristika der erneuerbaren Energien?

Die Volatilität als gemeinsames „Manko“ der erneuerbaren Energien wurde schon thematisiert. Einzige Ausnahme die Bioenergie, die sogar steuerbar produzieren kann. Ihr Problem allerdings tritt zutage, wenn man den sog. Erntefaktor vergleicht, der sich aus dem Verhältnis der durch die Anlage bereitgestellten Energie zum kumulierten Energieaufwand errechnet, der für die Bereitstellung notwendig ist. Je höher der Wert, desto effizienter die Energiequelle (siehe hierzu nurhttps://de.wikipedia.org/wiki/Erntefaktor und/oder http://www.festkoerper-kernphysik.de/erntefaktor).

Das mit Biogas betriebene Gaskraftwerk erreicht hier lediglich einen Erntefaktor von 3,5 – was auch auf den hohen Einsatz von Ressourcen für die Brennstoffbereitstellung sowie den Bau, Betrieb und Abbau des Kraftwerks hinweist (zum Vergleich: Kernkraft beginnt bei einem Erntefaktor von 75, Kohle mit 29, Erdgas hat einen Faktor von 28, Wasserkraft 36, Wind an der Küste 4, Photovoltaik (PV) auf Dächern in Süddeutschland 1,6; dabei sind bei den volatilen Kraftwerkstypen notwendige Pumpspeicher und Überkapazitäten schon erntefaktormindernd berücksichtigt).

Eine Erklärung liefert im Fall des gezielten Anbaus von Mais der große Flächenverbrauch für die durchindustrialisierte Landwirtschaft. Dabei kommt es zu ernsthaften Zielkonflikten wie „Klimaschutz vor Natur- und Vogelschutz“ oder auch „Tank vor Teller“, d.h. der Gewissensfrage, ob eine solche Verwendung angesichts der Lebensmittelknappheit weltweit verantwortbar ist (von Ulli Kulke anschaulich beschrieben in der Welt vom 7.3.2013 –http://www.welt.de/wissenschaft/umwelt/article114216742/Oeko-Strom-vertreibt-Voegel-von-deutschen-Feldern.html). Zudem sind (Mais-)Monokulturen in der Regel auch noch ökologisch problembehaftet. Anders sieht es aus, wenn Biomasse aus Rasenschnitt, Abfällen, Essensresten oder Gehölz zusammengetragen wird. Als generelles Problem bleibt aber auch hier die chronische Abhängigkeit von Subventionen bestehen, in unserem Falle von der EEG-Einspeisevergütung, im Fall der angeblich energieautarken Stadt Güssing im österreichischen Burgenland von der EU-Ziel-1-Gebietsförderkulisse. Dort musste nach Auslaufen der Förderung das auf der Verfeuerung von Holz basierende Biomassekraftwerk Insolvenz anmelden.

Der sehr niedrige Erntefaktor der Photovoltaik steht im krassen Gegensatz zur üppigen EEG-Förderung. Die PV-Anlagen sind damit die teuerste Stromerzeugungsmöglichkeit (siehe hierzu, wie auch zur Windkraftnutzung den sehr lesenswerten Aufsatz von Eike Roth, Chancen und Risiken der deutschen Energiewende, zu finden unter http://www.buerger-fuer-technik.de/Chancen_und_Risiken_der_deutschen_Energiewende.pdf, leider ohne Seitenangaben). Die mehr als eine Million PV-Anlagen in Deutschland haben im letzten Jahr mit einer Gesamtleistung von 28 GW (Gigawatt) 24 TWh (Terawattstunden) Strom erzeugt, die rund 23000 Windkraftwerke mit einer Gesamtleistung von 30 GW 52 TWh. Das heißt, Nennleistung unterstellt laufen die PV-Anlagen 850 Volllaststunden (gemessen an den 8760 Stunden des Jahres sind das lediglich 9,7 Prozent) und die Windkraftanlagen 1700 Volllaststunden (macht gerade mal 19,4 Prozent aus). Bei Windkraftanlagen auf See (Offshore) nehmen Eike Roth 3000 und das Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES) im „Windenergie Report Deutschland 2012“ (http://publica.fraunhofer.de/eprints/urn:nbn:de:0011-n-2385784.pdf) für neue Anlagen sogar bis zu 4500 Volllaststunden an (entspricht 34,2 bzw. 51,3 Prozent). (Dagegen weist das IWES für Windkraftanlagen an Land (Onshore) auf S. 35 lediglich 1542 Volllaststunden aus). Zusammen genommen deckten Sonne und Wind in 2012 damit rund 13 Prozent des Stromverbrauchs ab.

Charakteristisch für Windkraft- und PV-Anlagen sind also die über den Tages- und Jahresablauf extrem schwankende und somit volatile Leistungsbereitstellung, was zur Folge hat, dass sie an Volllast gemessen im Durchschnitt 80% bzw. 90% des Jahres 2012 „stillstanden“. Bei Windkraftanlagen auf See sieht das besser aus, allerdings sind dort die Kosten höher, da der Strom vom Standort im Meer ja auch noch an Land gebracht werden und die Wind, Wasser und jedem Wetter ausgesetzte Technik ganz andere Anforderungen erfüllen muss. Aber auch hier fällt bei schwachem Wind, wie auch bei Sturm die Erzeugung auf Null. Die Stromerzeugung der Windkraftanlage, darauf weist Eike Roth hin, verhält sich proportional zur dritten Potenz der Windgeschwindigkeit: „Wenn also die Windgeschwindigkeit auf die Hälfte zurück geht, dann geht die Erzeugung … auf ein Achtel zurück! Bei einem Drittel Windgeschwindigkeit geht die Erzeugung auf ein Siebenundzwanzigstel zurück, dann ist praktisch nichts mehr da.“

Entscheidend kommt hinzu, dass enorme Anstrengungen im Ausbau von Übertragungs- und Verteilnetzen sowie hinsichtlich von Speichermöglichkeiten unternommen werden müssten. Einem forcierten Ausbau der erneuerbaren Energien sind deshalb finanzielle und planerische Grenzen gesetzt. Da hilft es auch nicht, auf technische Neuerungen zu hoffen (beispielsweise Farbstoffsolarzellen, „organische“ oder eine „konzentrierte“ PV).

Seit dem Verfall der Preise für Solarmodule besteht die ernsthafte Gefahr einer „Flucht in die Eigenversorgung“, durch die, ähnlich wie bei der EEG-Umlage, der Mehrheit der Strombezieher Kosten belastet werden (siehe die Welt vom 21.3.2013). Verstärkt wird dieser Effekt durch ein Förderprogramm der staatlichen KfW-Bankengruppe, das eine noch unausgereifte und unwirtschaftliche Batteriespeichertechnik für PV-Anlagen (einschließlich einem Tilgungszuschuss von 30 Prozent) zinsgünstig finanziert.

Charakteristisch für die erneuerbaren Energien ist auch – das folgt aus den niedrigeren Erntefaktoren – ein höher Flächenbedarf bei (unterstellt) identischer Leistungserbringung. Während dabei allein schon aufgrund der geo- und topographischen Bedingungen die Nutzung von Wasserkraft (und Pumpspeicherkraftwerken) in Deutschland eingeschränkt ist, liegen im Falle der Windkraft umfassende Expansionspläne auf dem Tisch. In Hessen werden Vorranggebiete diskutiert, die je nach politischer Couleur (schwarz-gelbe Landesregierung oder rot-grün dominierter Regionalverband) Platz zum Bau von 2300 bis 5360 Windkraftanlagen hätten, je nachdem ob man den Mindestabstand zur Wohnbebauung auf 1000 oder 750 Meter und die erforderliche Windgeschwindigkeit in 140 Meter Höhe auf 5,75 Meter oder 5,5 Meter pro Sekunde festlegt (http://www.faz.net/aktuell/rhein-main/energiewende-rhein-main-region-als-grosser-windpark-12452549.html).

Das grün-rot regierte Baden-Württemberg will bis zum Jahr 2020 auf einen Bestand von 1200 Windkraftanlagen kommen, von 400 am Ende 2012. Dabei stehen nicht nur Belange des Naturschutzes und mögliche Gefährdungen für Mensch und Tier im Weg, auch die im Südwesten weit unterdurchschnittliche Volllaststundenzahl schürt Zweifel an der Wirtschaftlichkeit des gesamten Unterfangens, die ohne die EEG-Einspeisevergütung (in Höhe von gegenwärtig 9,27 Cent/kWh) sowieso nicht gegeben ist (Angaben im Internet zu Volllaststunden in Baden-Württemberg variieren von 1155 bis 1177 (entspricht 13,4 Prozent)). Die räumliche Verteilung der Windkraftanlagen in Deutschland dokumentiert, dass es eben Standorte gibt, die windhöffiger sind (siehe bei Carsten Ender, Windenergienutzung in Deutschland. Stand 31.12.2012, die Abbildungen auf den S. 33 und 35 – http://www.dewi.de/dewi/fileadmin/pdf/publications/Magazin_42/06.pdf). Entsprechend bekommen potenzielle Investoren hier zu Recht kräftigen „Gegenwind zu spüren“ (so titelt der Staatsanzeiger vom 26.7.2013). Auch auf immer größere Nabenhöhen (Richtung 140 Meter) und Rotordurchmesser (120 Meter) zu setzen, ändert nichts an den Fakten. Das IWES verweist im Windenergie Report hierzu auf das „Square-Cube-Law“, demzufolge bei noch größeren Rotorblättern das Material an seine Grenzen stößt (S. 86).

Erneuerbare Energien sind auf Speichermöglichkeiten angewiesen, nach Eike Roth die „Achillesferse“ der Energiewende. Vorstellbar sind Pumpspeicher, die allerdings nur kurzfristig wirken, und in Deutschland nicht in ausreichender Anzahl geschaffen werden können. In dieser Hinsicht auf die norwegische Karte zu setzen erscheint illusorisch. Bei einer Reihe von Technologien (auch batteriegebundenen) ist die Reife noch nicht absehbar und vor allem die Wirtschaftlichkeit nicht gegeben. Am weitesten ist das „Power-to-Gas“-Verfahren, bei dem mit überschüssigem Wind- und Sonnenstrom durch Elektrolyse Wasserstoff erzeugt und anschließend zusammen mit Kohlendioxid in Methan umgewandelt wird. Dieses synthetische Erdgas lässt sich quasi verlustfrei im Erdgasnetz mit seinem immensen Volumen speichern und bei Bedarf rückverstromen. Es kann aber auch für den Antrieb von Erdgasautos genutzt werden – eine Option, die Audi nutzt (siehe hierzu http://www.zsw-bw.de/uploads/media/pi09-2013-ZSW-Einweihung6MWPtGAnlage.pdf).

Wie komplex unter den heutigen Randbedingungen die Steuerung der Übertragungsnetze geworden ist, zeigt auch folgender Umstand: Gab es früher kaum eine Handvoll Regelungseingriffe, so waren letztes Jahr schon über tausend notwendig. Damit wächst die Gefahr eines großflächigen und länger anhaltenden Netzzusammenbruchs, sie wird von Tag zu Tag wahrscheinlicher. Nur durch ein geschicktes Netzmanagement konnte der „Blackout“ bisher vermieden werden.

Eindeutige Schlussfolgerung: Bevor nicht klar ist, dass und wie man vernünftig speichern kann und welche Netze man wo braucht, ist der weitere Ausbau erneuerbarer Energien in Deutschland schlicht unsinnig.

5. Strickmuster und Auswirkungen des Erneuerbaren Energien Gesetzes (EEG)?

Das EEG trat zum 1. April 2000 zu Zeiten einer rot-grünen Bundesregierung in Kraft. Es löste das Stromeinspeisungsgesetz – mit dem ersten Einspeise- und Vergütungssystem zugunsten regenerativen Stroms – ab, das seit dem 1. Januar 1991 gültig war. Als Väter des ganze fünf Paragraphen starken „Gesetzes über die Einspeisung von Strom aus erneuerbaren Energien in das öffentliche Netz“ werden Matthias Engelsberger (CSU), Wolfgang Daniels (Grüne) und – als weitere Person – auch Hermann Scheer (SPD) kolportiert. Sicher ist, dass der entsprechende Gesetzesentwurf von der CDU/CSU-Fraktion eingebracht und u.a. von Helmut Kohl und dem FDP-Politiker Helmut Haussmann (dem damaligen Bundeswirtschaftsminister) unterzeichnet wurde. Wenn man so will, eine schwarz-rot-grüne Erfindung, die knapp 10 Jahre später – bei Mitwirkung von Solarunternehmern am Gesetzesvorhaben – richtig „vergoldet“ wurde.

Das Markenzeichen des an die Bedingungen im liberalisierten Strommarkt angepassten und erheblich erweiterten Erneuerbaren Energien Gesetzes – zuletzt geändert am 20.12.2012, mit zwischenzeitlich 66 Paragraphen und fünf Anhängen – sind der Einspeisevorrang für Erneuerbare, die 20 Jahre lange Garantiezeit sowie die, trotz verschiedener Anpassungen nach unten (sog. Degressionen) immer noch stattlichen Einspeisevergütungen. Mit der letzten Novellierung wurde – zum ersten Mal überhaupt – für die Förderung des weiteren Ausbaus von PV-Anlagen bei 52 GW eine Deckelung verfügt.

Der erste Erfahrungsbericht vom 28. Juni 2002 bestätigte (natürlich) den Erfolg des EEG: den gestiegenen und weiter steigenden Anteil der erneuerbaren Energien am Stromverbrauch, Umsatzrekorde der Branche mit zu diesem Zeitpunkt neu entstandenen 120.000 Arbeitsplätzen und vielen Millionen Tonnen vermiedenen Treibhausgasen. Der Erste Monitoring Bericht „Energie der Zukunft“ der Bundesministerien für Umwelt und Wirtschaft, Stand Dezember 2012, (lesenswert, nicht nur wegen des Glossars am Ende des Werkes – http://www.bmwi.de/BMWi/Redaktion/PDF/Publikationen/erster-monitoring-bericht-energie-der-zukunft,property=pdf,bereich=bmwi2012,sprache=de,rwb=true.pdf), geht ebenfalls auf die Beschäftigungseffekte ein. Dabei wird für die Jahre 2009 und 2010 von einer Netto-Beschäftigung von 70.000 bis 90.000 Arbeitsplätzen durch den Ausbau erneuerbarer Energien ausgegangen, zur Wirkung der in den Jahren 2011 und 2012 verabschiedeten Maßnahmen lägen noch kaum Daten vor (siehe S. 107).

Im Jahre 2005 hatte der damalige Bundesumweltminister Sigmar Gabriel bei der Novellierung des EEG, gestützt auf ein Gutachten, noch von 400.000 Arbeitsplätzen bis 2020 gesprochen. Berücksichtigt man die seit 2011 eingetretenen Insolvenzen in der PV-Branche und die offensichtlichen Schwierigkeiten im „Windkanal“, wird klar, dass die optimistischen Annahmen blauäugig und die frühen Warnungen zur angeblichen Mär von der Job-Maschine richtig waren, u.a. von Carl Christian von Weizsäcker (siehe oben S. 2-3) oder dem Rheinisch-Westfälischen Institut für Wirtschaftsforschung (RWI), das schon im Jahre 2004 von bestenfalls kurzfristigen, jedoch nicht nachhaltigen, am Ende sogar negativen Effekten auf die Beschäftigung sprach.

Das EEG lädt der deutschen Volkswirtschaft zudem immense finanzielle Lasten auf: nach Bundesumweltminister Peter Altmaier, der damit am 28. Januar d. J. seinen (vergeblichen) Vorstoß mit der Strompreissicherung oder -bremse begründete, eine Billion, das sind 1.000 Mrd. €. Dass selbst Experten diese Dimension lange Zeit verborgen blieb, erklärt sich vielleicht mit der verbreiteten Interessengebundenheit, aber auch damit, dass die ganze Übung ja außerhalb des Bundeshaushalts allein über Strompreisanpassungen abläuft. Prof. Hans-Werner Sinn vom ifo Institut in München warnte im Juli 2011: „Die 17 Mrd., die das EEG die Verbraucher allein in diesem Jahr kostet, sind anderswo Einkommen, zu einem erheblichen Teil allerdings in China, denn von dort kommen zwei Drittel der Sonnenpaneelen und sicherlich auch ein großer Teil der Windräder.“ Hinzu kommen weitere Umverteilungseffekte – sozial bedenklich von unten nach oben, wie auch geographisch von der Mitte (Nordrhein-Westfalen) in den Norden (Schleswig-Holstein/Niedersachsen) und Süden (Bayern). Roland Tichy hat das in einem Kommentar in der Wirtschaftswoche am 23.2.2013 treffend mit „Die große Verteile“ umschrieben: „Von den Bundesländern ist es so vor allem Nordrhein-Westfalen, das ausblutet. An Ruhr und Rhein erstreckt sich die größte Stadtregion Europas. Die Reste der Montanindustrie – Stromkonzerne, Kraftwerke, Zulieferer verlieren ihre Existenz.“ Die RWE aus Essen könnte umziehen, aber was machen die vielen Stadtwerke, die ebenso die Energiewende verkraften müssen? Verluste “fressen” deren Eigenkapital auf. Trifft dies ein Stadtwerk in einer klammen Kommune, auch hier ist NRW führend, gehen die Lichter aus und Arbeitsplätze und Wertschöpfung unwiederbringlich verloren.

In Bezug auf diese, fast mit Händen greifbaren Verteilungswirkungen erstaunt die weit verbreitete Ahnungslosigkeit: So kommt beispielsweise im 2013 erschienen Buch von Hans-Ulrich Wehler, Die neue Umverteilung – Soziale Ungleichheit in Deutschland, Energiepolitik/das EEG überhaupt nicht vor. Dass auch im vom Bundesministerium für Arbeit und Soziales im März d. J. unter dem Titel „Lebenslagen in Deutschland“ herausgegebenen vierten Armuts- und Reichtumsbericht der Bundesregierung nichts in dieser Hinsicht zu finden ist, passt ins Bild. Allgemein wird konstatiert, dass durch die Ungleichheit das Gerechtigkeitsempfinden verletzt werde. Mit Eike Roth kann man fragen, inwieweit sich dieses Gefühl verstärkt, wenn mit zunehmender Tendenz „ … die relativ finanzarmen Mieter … Hausbesitzern den Ausbau der Solarzellen …, die kleinen Leute den Grundbesitzern die Pacht für das Aufstellen von Windenergieanlagen … zahlen, … soviel, dass diese … auch noch dicke Gewinne einstreichen können, ohne irgend ein Risiko dabei zu haben.“

Die kräftigen „Wecksignale“ sollten beachtet und richtig gedeutet, vom weitverbreiteten Wunschdenken beim Prognostizieren des Anstiegs der EEG-Umlage in Wissenschaft und Politik endlich Abstand genommen werden. Rudolf Kipp belegt dies eindrücklich (siehe www.science-skeptical.de/blog/energiewende-immer-teurer) und zeigt, dass seit 2009 die EEG-Umlage regelrecht explodiert ist (von 1,13 Cent/kWh auf 2.05 in 2010, 3,53 in 2011, 3,59 in 2012 und gegenwärtig 5,28 Cent/kWh netto, d.h. noch ohne 19% Mehrwertsteuer).

Den vier Übertragungsnetzbetreibern hat man die Verpflichtung auferlegt, die EEG-Umlage bis zum 15. Oktober eines Kalenderjahres für das folgende Kalenderjahr zu ermitteln und zu veröffentlichen (siehe hierzu http://www.eeg-kwk.net/de/EEG-Umlage.htm). Das Aufkommen aus der EEG-Umlage betrug in 2012 14,1 Mrd. €, für 2013 sind 20,4 Mrd. € eingerechnet, Tendenz weiter steigend.

Auch in Bezug auf den Klimaschutz kehrt Ernüchterung ein, nachdem der CO2-Ausstoss in Deutschland seit 2012 wieder steigt. Wie von Prof. Sinn vorhergesagt, wird „kein Gramm CO2 eingespart“, da sich das EEG und der Handel mit Verschmutzungsrechten im Grunde genommen ausschließen. Nach Einführung der Emissionszertifikate auf Ebene der Europäischen Union im Jahre 2005 wollte man vom EEG nicht lassen, da es sich als gute Einkommensquelle erwies. Gleiches trifft auch auf die Verheißungen zu, mit dem EEG würden Innovationen angestoßen. Prof. Joachim Weimann von der Universität Magdeburg hat am 31.1.2011 in der FAZ nachdrücklich davor gewarnt, dass die Subvention nicht in die Entwicklung von Zukunftstechnik, sondern ausschließlich in die Produktion gehe. Die Turbulenzen in der deutschen PV-Branche sind dafür ein eindrücklicher Beweis. Gut ist, dass nicht auch noch der Streit mit China um Schutzzölle eskaliert ist, sonst hätten wir die Zeche doppelt und dreifach gezahlt.

Im gemeinsamen Monitoring Bericht von Wirtschafts- und Umweltministerium wird auf die preisdämpfenden Wirkungen der erneuerbaren Energien an der Strombörse verwiesen (siehe S. 40). Die verringerte Nachfrage nach konventionellem Strom verdrängt entsprechend der Merit-Order (Einsatzreihenfolge von Kraftwerken nach deren kurzfristigen Grenzkosten) Kraftwerke mit höheren variablen Kosten und sorgt dafür, dass Kraftwerke mit vergleichsweise niedrigeren variablen Kosten preissetzend werden. Dabei reicht in 2011 die Bandbreite für die dadurch erzielte Absenkung des Börsenstrompreises von 0,3 bis 1,0 Cent/kWh.

In der Praxis führt dies zunehmend zur vorläufigen Stilllegung oder gar Nichtinbetriebnahme von hochmodernen Gas- und Dampfturbinen-Kraftwerken (GuD), die aber als Produzenten von Regelenergie zur Stabilisierung des Stromnetzes dringend gebraucht werden. Entsprechende Ankündigungen liegen von allen vier großen Energieversorgern, ebenso von Stadtwerken vor. So gibt es massive wirtschaftliche Probleme beim Stadtwerkeverbund „Trianel“ bezüglich dem von 32 Stadtwerken (bei insgesamt 54 über das ganze Bundesgebiet verteilten kommunalen Gesellschaftern) gemeinsam geschulterten Steinkohlekraftwerk in Lünen, das unter den gegenwärtigen Rahmenbedingungen nach voller Inbetriebnahme (zur Zeit läuft der Probebetrieb) einen jährlichen Verlust von 100 Mio. € machen wird (siehe FAZ vom 17.7.2013). Der Bundesnetzagentur sind aufgrund einer Ende letzten Jahres beschlossenen Neuregelung Stilllegungen mindestens 12 Monate im Voraus anzukündigen, auch vorläufige Abschaltungen müssen angezeigt werden. Ist ein Kraftwerk „systemrelevant“ kann die Bundesnetzagentur anordnen, dass es zwei Jahre lang weiterbetrieben werden muss.

Vermutlich auch hieran denkt Eike Roth, wenn er als „Todsünde“ der Energiewende das Auseinanderlaufen von betriebs- und volkswirtschaftlicher Optimierung bezeichnet. Von Kriegen abgesehen, sei es das Schlimmste, was Politiker tun könnten, wenn Unternehmen, die sich betriebswirtschaftlich richtig verhalten, aufgrund fehlerhafter Rahmenbedingungen der Volkswirtschaft Schaden zufügen.

6. Wie unabhängig kann Deutschland agieren und eine Vorreiterrolle einnehmen?

Unsere Volkswirtschaft ist stark in den internationalen Wettbewerb eingebunden. Eine wichtige Größe, neben Qualität und Markennamen ist der Preis deutscher Produkte, der entscheidend von der Arbeitsproduktivität beeinflusst wird. Die Energiekosten spielten dabei in jüngster Vergangenheit je nach Branche zumeist nur eine untergeordnete Rolle, auch weil es im EEG Ausnahme- und Härtefallregelungen für stromintensive Unternehmen und den beschriebenen Effekt der Börsenpreissenkung gibt (siehe zum Stand März 2011: http://www.bmu.de/fileadmin/bmu-import/files/pdfs/allgemein/application/pdf/eeg_stromkosten_bf.pdf). Dies ändert sich zunehmend und nicht nur beschränkt auf große Industrien, es wirkt sich inzwischen auf die gesamte Volkswirtschaft aus. Die Schere bei den Energiepreisen öffnet sich nicht nur, weil in den USA die Energie billiger wird, sondern weil gerade und vor allem in Deutschland die Energiekosten durch das EEG immer weiter “künstlich” in die Höhe getrieben werden. So warnte jüngst (am 29.7.2013 in der Mittelbayerischen Zeitung) der bayerische Wirtschaftsminister Martin Zeil von der FDP: „Wenn unsere Grundstoffindustrien von heute auf morgen 5,3 Cent EEG-Umlage pro Kilowattstunde Strom bezahlen müssten – das ist mehr als der gesamte Industriestrompreis in den USA –, dann wäre der Industriestandort Bayern schnell am Ende“. Er spielt damit insbesondere auf das am 6. März d. J. eröffnete förmliche Beihilfeverfahren durch die Europäische Kommission an, bei dem es um die Prüfung der Befreiung zugunsten energieintensiver Unternehmen geht und dessen Ergebnis nicht nur eine Signalwirkung zugeschrieben wird.

Wir müssen schauen, was machen unsere Nachbarn in Europa (z.B. Polen, das auf Kohle setzt) und die USA? Dort laufen beispielsweise Steuermäßigungen für Windkraftanlagen Ende 2013 definitiv aus; das sog. Fracking zur Gasgewinnung wird verstärkt genutzt, die freiwerdende Kohle exportiert (und damit auch die CO2-Emissionen im eigenen Land reduziert). Übrigens werden auch in Großbritannien und Polen riesige Vorkommen des unkonventionellen Schiefergases vermutet. China und Indien gehen aufgrund ihrer schieren Größe unbeirrt ihren eigenen Weg, ebenso Russland. Bis auf die Schweiz setzen dabei alle, sogar das arg gebeutelte Japan auf die weitere friedliche Nutzung der Kernenergie. Die Schweiz wendet sich, ebenso wie Deutschland von der Kernenergienutzung ab, allerdings in gemächlichem Tempo, Optionen offen haltend, keineswegs so überhastet und kopflos wie wir mit unserer Energiewende. Reine Gefolgschaft haben wir fast keine mehr.

Das EEG ist von den meisten EU-Mitgliedstaaten übernommen worden, jedoch selten eins zu eins und bei weitem nicht in dieser Umfänglichkeit. Statt des Einspeise- gibt es auch sogenannte Quotenmodelle. Österreich beispielsweise deckelt die Subvention auf maximal 27 Mio. € im Jahr, gibt „nur“ eine 13jährige Garantiezeit und wird in 2015 auf ein Quotenmodell umstellen. Italien, Spanien, Bulgarien, Griechenland und Tschechien haben zwischenzeitlich eine opulente Förderung zurückgeschnitten, in Prag läuft wegen der Solarsubventionen sogar eine von der nationalen Regulierungsbehörde angestrengte Strafanzeige gegen Unbekannt.

Wird an einzelnen Tagen im deutschen Stromnetz zu viel Strom erzeugt, erhält das Ganze automatisch ebenfalls eine internationale Dimension (siehe Handelsblatt vom 16.4.2013). Denn dann gehen überschüssige Strommengen aufgrund des paneuropäisch-technischen Netzverbundes notgedrungen unter anderem ins Nachbarland Polen, das sich die Übernahme zudem bezahlen lässt. Da dies auch die Sicherheit des dortigen Stromnetzes – wie in anderen europäischen Staaten – gefährdet, werden mittlerweile in Ländern wie Tschechien und Polen Überlegungen in Richtung technischer Stromsperren angestellt.

Das wohlwollende Interesse, mit dem das Ausland den deutschen Sonderweg in der Energiepolitik zunächst begleitet hat, ist verflogen. Die enge wirtschaftliche Verflechtung der deutschen Volkswirtschaft in Europa und der ganzen Welt gemahnt uns daran, die Energiekosten nicht aus dem Ruder laufen zu lassen.

7. Welche Weichenstellungen sind nach der Bundestagswahl am 22. September dringend geboten?

Wichtig ist zunächst einmal, die grassierende Panikmache zu beenden, denn „Angst essen Seele auf“ (Rainer Werner Fassbinder). Es muss ein Meinungsklima geben, in dem alle Fragen der Energiepolitik offen und vorbehaltlos diskutiert werden können. Es darf nicht sein, dass erst bei der Pensionierung von Spitzenbeamten, wie jüngst bei der Verabschiedung von Werner Ressing (einem studierten Ingenieur für Maschinenbau und Energietechnik) aus dem Bundeswirtschaftsministerium, die Stunde der Wahrheit schlägt: „Man baue mit den Erneuerbaren Energien Zigtausende Kilowatt Leistung auf, die nicht immer Kilowattstunden liefern. …. 80 Millionen Deutsche alimentieren seit 20 Jahren und für 20 Jahre eine Million Betreiber von EE-Anlagen. … Wo gibt es das in einem marktwirtschaftlichen System?“ (siehe hierzu die Wirtschaftswoche vom 6.8.2013).

Man sollte den Mut haben, das EEG abzuschaffen, die bereits aufgelaufenen Lasten zu begrenzen. Die Zeit für Halbherzigkeiten (wie der Vorschlag von Hanno Kempermann vom DIW oder auch die Altmaiersche Strompreisbremse) ist abgelaufen. Systematisch und ausgesprochen ehrenwert ist der Verfahrensvorschlag des Bundesumweltministers zur Neuregelung des EEG. Er sollte aber grundsätzliche Fragestellung nicht ausklammern. Auch sind die bisher im dafür vorgesehenen EEG-Dialog angestellten Überlegungen viel zu nahe am Status quo angesiedelt (zum BMU-Papierhttp://www.bmu.de/fileadmin/bmu-import/files/pdfs/allgemein/application/pdf/verfahrensvorschlag_eeg-reform_2012_bf.pdf und zum EEG-Dialoghttp://www.bmu.de/themen/klima-energie/energiewende/eeg-reform/1-eeg-dialogforum/). Auf dem Tisch liegende Vorschläge zu einem neuen Marktdesign, wie vom Verband kommunaler Unternehmen (VKU) oder auch die „EIKE Energiewende light“, selbst das AfD Energie-Programm und andere sind aufzunehmen und auf ihre Nützlichkeit hin sorgfältig abzuklopfen.

Dazu gehört auch die Antwort auf die hochsensible Frage, ob stillgelegte Kernkraftwerke nicht wieder ans Netz bzw. die noch nicht stillgelegten länger am Netz bleiben sollten? Auch hier gilt, dass Angst ein falscher Ratgeber sein kann. Auf jeden Fall ist im internationalen Kontext die deutsche Beteiligung an der Erforschung neuerer Kernkraftwerkstypen (der vierten Generation), wie beispielsweise dem Dual-Fluid-Reaktor, sicherzustellen. Wer hier mauert, verspielt wesentliche Zukunftsoptionen.

Es sollten zudem konkrete Anpassungsstrategien an den Klimawandel entwickelt und die Möglichkeit in Betracht gezogen werden, dass dieser maßgeblich natürliche Ursachen haben könnte. Davon unabhängig sind im internationalen Rahmen alle Möglichkeiten der Effizienzsteigerung und Energieeinsparung entlang des Neuentwurfs der Energie-Klima-Landkarte der IEA auszuschöpfen (http://www.worldenergyoutlook.org/publications/weo-2013/).

Die verbliebenen Unternehmen aus der PV- und Windkraftbranche (einschließlich des „Power-to-Gas“-Verfahrens) sind weiterhin in ihren Anstrengungen zu unterstützen, den Export in jene Länder kräftig anzukurbeln, die für die entsprechende Anwendung die günstigsten, das heißt auch günstigere Bedingungen als in Deutschland aufweisen (siehehttp://www.exportinitiative.bmwi.de/EEE/Navigation/downloads.html).

Vor allem sollte Deutschland keine kostspieligen Alleingänge mehr unternehmen. Dazu gehört, sich von der althergebrachten Formel zu verabschieden, „am deutschen Wesen, könne/solle die Welt genesen.“ Alles in allem geht es darum, planwirtschaftliche Experimente im Energiesektor zu beenden und zu einer langfristig angelegten, stärker ordnungspolitischen Variante zurückzufinden, die den Trias der Energiepolitik aus Sicherheit, Wirtschaftlichkeit und Umweltverträglichkeit dauerhaft gewährleisten kann.

Jürgen Gneveckow ist studierter Wirtschaftswissenschaftler und aktiver Kommunalpolitiker (CDU)

Mit Dank übernommen von Science Sceptical hier 




Blick aus dem Ausland: Deutsche Energiewende – Selbstdemontage einer Industrienation

Zwei der am achten September gehaltenen Vorträge beschäftigten sich mit Themen, die keineswegs ausschließlich den Standort Österreich betreffen: Die Zukunft der Atomenergie einerseits und die mit geradezu religiösem Eifer vorangetriebene „Energiewende“ im Nachbarland Deutschland. Es macht den Anschein, als ob beide Themen – spätestens seit der Reaktorkatastrophe im fernen Fukushima – längst nicht mehr von harten Fakten und wissensbasierter Forschung, sondern vielmehr von Emotionen und Bekenntnissen bestimmt werden und sich einer offen geführten Debatte nahezu vollständig entziehen. Atomkraft gilt in Deutschland und Österreich mittlerweile als Inbegriff des Bösen und der menschengemachte Klimawandel als schlechterdings nicht anzuzweifelnde Tatsache. Ende der Durchsage. Mit dem „Potsdam Institut für Klimafolgenforschung“ hält sich die Kanzlerin eine Ideologiefabrik voller strenggläubiger Klimaalarmisten, deren Umgang mit kritischen Geistern stark an jenen Tomas de Tórquemadas mit nichtswürdigen Häretikern erinnert.

Gerhard Wrodnigg, Systemanalytiker und Experte für Risikomanagement und Technikabschätzung, widmete sich dem Thema „Zukunft der Kernkraft“. Genauer gesagt beschäftigte er sich mit einer nüchternen Analyse der mit dem Einsatz von Kernenergie verbundenen Risiken (und zwar den tatsächlichen, nicht den von den stets im Panikmodus laufenden Hauptstrommedien behaupteten) und den aktuellen, zum Teil sehr vielversprechenden technischen Entwicklungen. Die derzeit in Gebrauch stehenden Reaktortypen, die große Mengen an (waffenfähigem) Plutonium produzieren und damit unaufhörlich Diskussionsstoff hinsichtlich der Frage von Zwischen- und Endlagerung strahlender Abfälle liefern, könnten demnach schon bald durch solche ersetzt werden, bei denen dieses Problem nicht mehr auftritt. Auf dem Gebiet dieser „Dual-Fluid-Reaktoren“ stehen deutsche Wissenschaftler an vorderster Front. Nicht nur die Verwertung von Brennelementen, die in konventionellen Atomkraftwerken abgebrannt wurden und die weit erhöhte Betriebssicherheit (die Gefahr einer Kernschmelze besteht bei dieser Bauart nicht länger), sondern auch die wesentlich verringerte Menge (schwach) strahlenden Abfalls sprechen für den Einsatz dieser Technik. Auch die Überlegung, von Großkraftwerken wegzukommen und stattdessen kleineren Einheiten mit entsprechend verringerten Umweltrisiken den Vorzug zu geben, wird seitens der Politik nicht einmal in Erwägung gezogen. Zumindest in Deutschland und Österreich, wo man denjenigen, die auch nur das Wort „Atomkraftwerk“ in den Mund nehmen, auf der Stelle das Wort verbietet, scheint dieser Zug abgefahren zu sein. Gegen quasireligiöse Bekenntnisse mit rationalen Überlegungen zu Felde zu ziehen, ist allemal sinnlos…

Markus Fichtinger, Ökonom am Economia Institut für Wirtschaftsforschung, widmete sein Referat der in Deutschland im Jahr 2010 eingeleiteten „Energiewende“. Bis 2020 sollen dort demnach mindestens 35 Prozent des Strombedarfs aus „erneuerbaren Energien“ gedeckt werden – ein, gelinde ausgedrückt, mehr als ehrgeiziges Ziel. International ist keine vergleichbare Tendenz zur radikalen Änderung des Energiemix´ erkennbar. Dass man sich in Deutschland gefährlich weit aus dem Fenster lehnt, um die Emissionen des angeblich klimaschädlichen Kohlendioxids zu begrenzen, während außerhalb der OECD-Staaten zugleich eine drastische Zunahme der CO2-Emissionen stattfindet, scheint niemanden zu irritieren. Der ganze hochfahrende Plan, dessen Herzstück das „Erneuerbare-Energien-Gesetz“ (EEG) bildet, kann ohne weiteres als die Umstellung von der Markt- auf eine Planwirtschaft bezeichnet werden, bei der die Ausschaltung von Marktpreisen für elektrische Energie am Anfang steht.

Der Verzicht auf die gründliche wissenschaftliche Untersuchung von Möglichkeiten und Konsequenzen eines Übergangs auf „erneuerbare Energieträger“ (hauptsächlich Windkraft und Photovoltaik), wird erhebliche Folgen nach sich ziehen. Die für jedermann unmittelbar erkennbare davon liegt in einer dramatischen Steigerung der Stromkosten für die Privathaushalte. Deutsche Stromkunden bezahlen schon heute die (nach Dänemark) höchsten Gebühren pro Kilowattstunde elektrischer Energie. 85,7 Prozent der Preissteigerungen sind den auf 20 Jahre hinaus garantierten Subventionen der Einspeisetarife für Strom aus Wind- und Photovoltaikanlagen geschuldet. Unter dem Strich ergibt sich ein kollektiver Wohlstandsverlust, da die verfügbaren Einkommen nunmehr vermehrt für Energiekosten aufzuwenden sind und nicht für alternative Konsumausgaben eingesetzt werden können. Dass im Strompreis zudem mehr als 40 Prozent an Steuern enthalten sind, rundet das schauerliche Bild harmonisch ab.

Ferner bedarf es gewaltiger Investitionen in die Leitungsnetze, da die meiste Windenergie bekanntlich im Norden des Landes anfällt, während der Strombedarf aber vorrangig im Süden entsteht. Die flächendeckende und nachhaltige Verschandelung der Landschaft durch die unter Marktpreisbedingungen nicht wirtschaftlich zu betreibenden Windräder ist dagegen gar nicht in Zahlen zu fassen. Der bis spätestens 2022 geplante völlige Ausstieg aus der Atomenergie wird darüber hinaus eine ernstzunehmende Lücke in der Grundlastversorgung hinterlassen, wodurch sich das Risiko von Netzzusammenbrüchen erheblich erhöhen wird. Hier geht es schlicht an den Lebensnerv des Hochtechnologiestandortes Deutschland. Die politisch Verantwortlichen scheinen offenbar bis heute nicht erkannt zu haben, dass Strom nicht nur dann gebraucht wird, wenn die Sonne scheint und der Wind bläst. Auch nachts und bei Flaute sollte der Kühlschrank kalt bleiben. So lange es für das Problem der großtechnischen Speicherung elektrischer Energie keine brauchbare Lösung gibt, sind Produzenten, die nicht dauerhaft liefern können, nur dann etwas wert, wenn jederzeit einsetzbare Ersatzlieferanten bereitstehen. Immerhin sind ganze Industriezweige auf eine rund um die Uhr stabile und zuverlässige Lieferung elektrischer Energie angewiesen. Da die Möglichkeiten zur Gewinnung von Energie aus Wasserlaufkraftwerken aber bereits ausgeschöpft sind, führt zur Sicherung des Grundlastbedarfs kein Weg an einem massiven Aus- und Neubau konventioneller Wärmekraftwerke (die mit Gas, Öl oder Kohle befeuert werden) vorbei. Wie sich das mit dem Ziel der angepeilten CO2-Reduktion unter einen Hut bringen lassen soll, steht dahin.

Während andernorts auf – stark verbesserte – Nukleartechnologie gesetzt und durch den Einsatz modernster Methoden zur Energiegewinnung aus Schiefergas und Öl die Wettbewerbsfähigkeit der Industrie erheblich gesteigert wird, legt die Regierung Deutschlands mit dem mittelfristigen Verzicht auf Kernkraft und den Umstieg auf kostspielige „erneuerbare Energien“ den Unternehmen eine Zwangsjacke an. Die internationalen Wettbewerber dürfen dem Treiben der seltsamen Teutonen mit einer Mischung aus Unverständnis und Schadenfreude zusehen – erste Reihe fußfrei.

Mit der Politik der „Energiewende“ schickt sich Deutschland an, wieder einen Sonderweg zu beschreiten. Die Zukunft der wichtigsten Industrienation Europas wird von einer emotional motivierten, von völlig falschen Voraussetzungen ausgehenden, überstürzt angegangenen Kampagne bestimmt. Damit kann es – wenn auch um 70 Jahre verspätet – durchaus gelingen, den 1944 bekannt gewordenen Plan Henry Morgenthaus doch noch zu realisieren und das Land der Techniker und Ingenieure auf den Status eines primitiven Agrarstaates zurückzuführen. Ganz ohne äußeren Zwang und ohne Not. Die ganze Welt würde zum Zeugen des historisch einmaligen Akts der Selbstkastration der wichtigsten Industrienation der Alten Welt. Österreich wird, dank seiner intensiven wirtschaftlichen Verflechtung mit Deutschland, davon nicht unberührt bleiben. „Interessante Zeiten“ stehen uns ins Haus…

Zuerst erschienen in eigentümlich frei




Berliner AfD Kandidatin Beatrix von Storch fordert: Das EEG muss weg!

Frank Schäffler, FdP MdB und wieder an aussichtsreicher Position in NRW gesetzt, schrieb vor einigen Tagen im Blog „Eigentümlich frei“:

Die Strompreise schwingen sich in immer neue Höhen und nun auch zum Wahlkampfthema auf. Doch mehr als 80 Prozent der Deutschen unterstützen weiterhin die Energiewende. Ich nehme an, dass mindestens ebenso viele Deutsche über die gestiegenen Stromkosten maulen. Diese Selbstwidersprüchlichkeit verdient offene Worte: Wegen der Energiewende wurden die Kernkraftwerke als günstigste Stromerzeugungsart abgeschaltet und die Gasverstromung verteuert. Wer die Energiewende befürwortet, darf sich über steigende Strompreise nicht wundern oder gar ärgern. In aller Deutlichkeit muss auch gesagt werden, dass sich an den Strompreisen nichts ändern würde, wenn es keine Ausnahmen bei den Netzentgelten gäbe: Die – inzwischen verkleinerten – Ausnahmebereiche bei der Belastung von Großabnehmern und Golfplätzen mit Netzentgelten haben keinen maßgeblichen Einfluss auf die Stromkosten. Das Problem steigender Stromkosten lässt sich nicht durch eine gleichmäßigere Verteilung der Kosten zwischen Privatabnehmern und Industrie lösen.

Grundsätzlichere Lösungen müssen her. Die Kosten können nicht länger sinnvoll gedeckelt und nicht besser umverteilt werden, sondern das EEG muss komplett abgeschafft werden. Diese Forderung habe ich bereits an anderer Stelle erhoben. Es darf keinen Vorrang für „erneuerbare Energien“ mehr geben. Die Vorrangpolitik muss weg!

Dazu bedarf es natürlich in allererster Linie eines Abschwörens von der Ideologie der menschengemachten Klimaerwärmung. Dass wir es hier mit einer Ideologie zu tun haben, zeigt sich an dem Skandal um die vom Umweltbundesamt herausgegebene Broschüre. Das Ziel einer Stabilisierung des Klimas – ein ähnlich größenwahnsinniges Projekt wie die Stabilisierung des Euro – muss aufgegeben werden. Es ist Ausdruck einer Anmaßung von Wissen, Kohlendioxid-Reduktionsziele in einem 50-Jahresplan vorzugeben. Bis 2050 soll der Ausstoß um 80 bis 95 Prozent reduziert werden. Das ist ein planwirtschaftlicher Anspruch auf Gestaltung der Umwelt, den zu erheben selbst das Politbüro Sowjetrusslands zu bescheiden war. Dabei sind die Fakten des Klimawandels längst erschüttert: Die Kohlendioxidkonzentration steigt, indes zeigen Daten der NASA keinen Anstieg der Welttemperatur in den letzten 15 Jahren. Die Klimapolitik bedarf einer Neuevaluation.

Und nun zieht Frau v. Storch mit einem sehr engagierten Video nach

Video Beatrix von Storch zum Erneuerbare-Energien-Gesetz (EEG)

Unsere Meinung:

Frau von Storch spricht das Offensichtliche  klar an und fordert – wie Frank Schäffler- das Selbstverständliche:

Schafft die Ursache all dieser völlig sinn- und nutzlosen Kosten ab. Schafft das EEG ersatzlos ab.

Und sie kandidiert für die Alternative für Deutschland (AfD), der das Internet- Wahlbarometer „Wahl-O-Meter“ immerhin einen Stimmenanteil von gut 10 % bescheinigt. Ganz im Gegensatz zu Forsa´s Manfred Güllner, der die Partei bei gut 3% sieht, aber seinen eigenen Zahlen nicht ganz traut, wie er im Interview gestand.

Niemand sollte beim kritischen Ansehen des Videos daran Anstoß nehmen, dass Frau v. Storch beim Vergleich der Energiemenge, die ein Kraftwerk von der Größe von Brokdorf mit einem Offshore „Windpark“ von rechnerisch gleicher Kapazität, die Zahlen etwas verrutscht sind. Dieser Fehler(1), ändert an den vielen richtigen Einzelaussagen und dem Fazit überhaupt nichts.

Die Redaktion

(1) Nach unserer Überschlags-Berechnung müssten bei einem ein Offshore-Windpark mit Windrädern der Baltic 1 Klasse rechnerisch gleicher Kapazität wie ein Kraftwerk mit der Leistung von Brokdorf, ca. 1400 Windräder der 2,3 MW Klasse aufgestellt werden. Diese würden ca, 13 Mrd € kosten und eine Fläche von knapp 500 km2 bedecken.




Lasst uns diese fünf Mythen über Fracking zerschlagen!

Bild rechts: Autor Matt Ridley

Hier sind fünf von ihnen genannte Dinge, die einfach nicht stimmen. Erstens, die Erzeugung von Schiefergas hat das Grundwasser in Amerika verschmutzt. Zweitens, es setzt mehr Methan als andere Formen der Gaserzeugung frei. Drittens, es wird eine horrende Menge Wasser verbraucht. Viertens, es werden hunderte giftiger Chemikalien verwendet. Fünftens, es führt zu zerstörerischen Erdbeben. Nichts davon ist wahr.

Beginnen wir mit der Behauptung bzgl. des Grundwassers. Die Gesamtzahl der Verunreinigungen des Grundwassers entweder durch Fracking-Flüssigkeiten oder Methan als Folge von Fracking in den USA beträgt Null. Eine Behauptung nach der anderen stellte sich als unwahr heraus. Die EPA hat ihre Untersuchung bei Dimock in Pennsylvania abgeschlossen und war zu dem Ergebnis gekommen, dass es keine Beweise für eine Verschmutzung gab; sie hat ihre Behauptung zurück gezogen, dass Bohrungen in Parker County, Texas, dazu geführt haben, dass aus den Wasserhähnen der Menschen Methangas geströmt ist. Und sie hat ihre Anklagen wegen Wasserverschmutzung in Pavilion, Wyoming, aus Mangel an Beweisen fallen gelassen. Zwei vor Kurzem erschienene begutachtete Studien kamen zu dem Ergebnis, dass die Vergiftung von Grundwasser durch Fracking „physikalisch nicht plausibel“ ist.

Der Film Gasland zeigte den Fall einer durch und durch natürlichen Verunreinigung von Wasser, und der Regisseur wusste das auch, hat aber trotzdem so getan, als rühre diese Verunreinigung vom Fracken her. Ernest Moniz, der Energieminister der USA, sagte diesen Monat: „Ich habe immer noch keinen einzigen Beweis für die Verschmutzung von Grundwasser durch Fracking per se gesehen“. Zehntausende Bohrlöcher, zwei Millionen vollendete Fracking-Operationen – und nicht ein einziger nachgewiesener Fall einer Grundwasser-Verschmutzung. Natürlich kann es eines Tages doch passieren, aber nur wenige Industriezweige können eine so vorteilhafte Verschmutzungs-Statistik vorweisen.

Als nächstes zur Behauptung, dass die Erzeugung von Schiefergas mehr Methan freisetzt als Kohle. (Methan ist ein stärkeres Treibhausgas als Kohlendioxid, verbleibt aber kürzer in der Atmosphäre, und die Konzentration steigt derzeit nicht sehr stark). Diese Behauptung hat ihren Ursprung in einem Biologieprofessor in Cornell, mit dem man ein Hühnchen rupfen sollte. Studie für Studie wurde dies widerlegt. Ein Team vom Massachusetts Institute of Technology hat es so ausgedrückt: „Es ist falsch zu sagen, dass hydraulisches Brechen im Zusammenhang mit Schiefergas die Intensität der Treibhausgase der Erdgas-Erzeugung substantiell verändert hat“.

Dritte Behauptung: Fracking verbraucht zu viel Wasser. Der Guardian hat vor einigen Tagen mit einem Bericht aufgewartet, in dem impliziert wurde, dass eine Stadt in Texas wegen des für Fracking verbrauchten Wassers auf dem Trockenen sitze. Und dies, obwohl in Texas nur 1 Prozent des gesamten Wassers für Fracking verwendet wird; in den USA insgesamt sind es 0,3 Porzent – weniger als für das Wässern von Golfplätzen. Falls Teilen von Texas wirklich das Wasser ausgeht, mache man die Landwirtschaft dafür verantwortlich, den bei Weitem größten Verbraucher.

Viertens, die einst so neutrale BBC  hat in einem Hintergrundbericht erklärt, dass Fracking „Hunderte Chemikalien“ in den Felsen treibe. Falsch um eine ganze Größenordnung, alte Tante! Die Fracking-Flüssigkeit besteht zu 99,51 Prozent aus Wasser und Sand. In den verbleibenden 0,49 Prozent stecken 13 Chemikalien, die man allesamt auch in der Küche, im Badezimmer oder in der Garage findet: Zitronensäure (Zitronensaft), Chlorwasserstoff (Schwimmpäder), Glutaraldehyd (Desinfektionsmittel), Guarkernmehl (Eiskrem), Dimethylformamid (Plastik), Isopropanol (Deodorant), Borsäure (Handwaschseife), Ammoniumpersulfat (zum Haare färben), Kaliumchlorid (intravenöser Tropf), Natriumkarbonat (Geschirrspüler), Äthylenglykol (Enteiser), Ammonium-Bisulphit (Kosmetika) und Petroleum-Destillat (Kosmetika)*

[*Ich hoffe, diese Chemikalien alle richtig übersetzt zu haben! A. d. Übers.]

Und was Erdbeben betrifft – die definitive diesbezügliche Umfrage der Durham University aller induzierten Erdbeben über viele Jahrzehnte hinweg kam zu dem Ergebnis, dass „fast die gesamte seismische Aktivität (durch Fracking) von so geringer Größenordnung war, dass nur Geowissenschaftler in der Lage gewesen sind, sie zu entdecken“. Bergbau, Geothermie und Wasserspeicherung im Untergrund verursachen mehr und größere Beben.

Die BBC hat einen armseligen Job gemacht, indem sie den Anti-Fracking-Mob [the Frack Off rent-a-celeb mob] mit faktischen Widerlegungen herausgefordert hat. Bei der Debatte geht es also nicht um zwei ernsthafte, jedoch entgegen gesetzte Argumente, sondern es handelt sich dabei um einen ungleichen Wettbewerb zwischen Wahrheit und Lügen. Kein Wunder, dass ehrliche Leute wie die Anwohner von Balcombe verängstigt sind.

Jetzt scheint es so, als habe die Diözese von Blackburn einen Flyer in Umlauf gebracht mit dem Tenor „wie Fracking Landbesitzer dazu gebracht hat, Leasings zum Bohren auf ihrem Land zu unterzeichnen“ und dass dies lange dauernde Schäden in „Gottes glorreicher Schöpfung“ hinterlassen werde. Einen Moment, Herr Bischof. Haben Sie das Gleiche zu Windkraft gesagt? Machen wir einen schnellen Vergleich

Ködern von Landbesitzern mit Geld: Windparks zahlen bis zu 100000 Pfund pro Windturbinen an Landbesitzer, und das meiste davon kommt aus Zusätzen zu den Stromrechnungen normaler Menschen. Was hat die Kirche dazu zu sagen?

Schäden in Gottes glorreicher Schöpfung: Wie Clive Hambler von der Oxford University dokumentiert hat, werden in jedem Jahr zwischen 6 und 18 Millionen Vögel und Fledermäuse in Spanien allein durch Windräder getötet, einschließlich seltener Gänsegeier, von denen in einem Jahr 400 Exemplare getötet worden sind, und selbst einschließlich noch seltenerer Schmutzgeier. In Tasmanien sind die Keilschwanzadler wegen der Windturbinen vom Aussterben bedroht. Norwegische Windparks töten jedes Jahr zehn Seeadler. Deutsche Windturbinen töten 200000 Fledermäuse pro Jahr, von denen viele Hunderte Meilen gewandert sind.

Die Windindustrie, die gegen die Verfolgung wegen Verbrechen gegen die Umwelt immun ist, entgegnet, dass durch Autos und Katzen [cars and cats] viel mehr Vögel getötet werden, und verweist gerne darauf, dass man eines Tages von der Ölindustrie sagen werde, sie hätte viele Vögel getötet, wenn das Klima immer wärmer wird und sich Habitate verändern. Aber wann war es das letzte Mal, dass eine Katze einen Kaiseradler oder einen Mauersegler nach Hause gebracht hat?

Windräder sind nicht nur viel auffälliger als Gasbohrtürme, sie überdecken auch ein viel größeres Gebiet. Nur zehn Hektar Öl- oder Gasbohrungs-Gebiet kann mehr Energie erzeugen als die gesamte britische Windindustrie. Was bringt nun den größeren Schaden in Gottes glorreiche Schöpfung, Herr Bischof?

Link: http://www.thegwpf.org/matt-ridley-shatter-myths-fracking/

Übersetzt von Chris Frey EIKE




Das Wort zum Sonntag: Kirche und Energiewende

Warum schweigt die Kirche?

Schon lange hat sich die Kirche völlig zu Recht der Erhaltung der Natur verschrieben. Umso unverständlicher ist es für mich, dass die Kirche zu all den verheerenden Folgen der sog. „Energiewende“ schweigt, die ich im Folgenden darlegen möchte.

• Verheerende Umweltschäden:

Die „Energiewende“ führt zu verheerenden Umweltschäden, die in Jahrzehnten nicht mehr repariert werden können. Vögel und Fledermäuse werden zu Tausenden geschreddert. Riesige Windmasten werden u. a. immer mehr in Wald- und Naturschutzgebiete gepflastert. Schon die erforderlichen gewaltigen Betonsockel wirken zerstörerisch. Bei deren Herstellung sowie bei der Herstellung der Windmasten und Rotorblätter wird mehr CO2 freigesetzt als jemals wieder eingespart werden kann. Außerdem benötigt man bestimmte, hauptsächlich in China vorhandene Rohstoffe, die ebenfalls unter verheerenden Umweltbedingungen gefördert werden. Und: nach ihrer Lebensdauer von etwa 20 Jahren müssen die Rotorblätter als Sondermüll entsorgt werden. Und noch vieles mehr.

• Die „Energiewende“ ist zutiefst unsozial:

Durch das unselige EEG werden nämlich die ärmeren Bevölkerungskreise gezwungen, die Stromkosten für die gut Verdienenden mit zu bezahlen. Wer nämlich genug Geld hat, sich eine Solaranlage auf das Dach zu pappen, erfreut sich einer staatlich garantierten Einspeisevergütung, die weit über dem Wert des tatsächlich erzeugten Strompreises liegt. Das nennt man Planwirtschaft. Für viele Bauern mit entsprechend geneigten Scheunendächern ist das EEG eine reine Goldgrube – auf Kosten der ärmeren Bevölkerungsschichten. Das Stichwort „Energiearmut“ sollte der Kirche eigentlich zu denken geben, tut es aber nicht!

Die Kirche setzt sich zwar verbal für die Armen ein, schweigt aber zu den verheerenden Auswirkungen der „Energiewende“ auf eben diese Armen. Warum?

• Folgen für den Industriestandort D:

Die steigenden Strompreise machen natürlich auch der Industrie zu schaffen. Sie muss auf ihre Wettbewerbsfähigkeit achten. Steigen die Strompreise noch weiter, werden die Unternehmen immer mehr aus Deutschland abwandern. Was das für die Beschäftigungszahlen bedeutet, liegt auf der Hand – eine rasch weiter um sich greifende Armut ist die Folge. Die soziale Not wird immer größer.

• Stromversorgung wird immer unsicherer:

Man ersetzt ohne Not ein gut funktionierendes Stromnetz mit sicherer, bezahlbarer Energieversorgung durch ein ineffizientes und immer teurer werdendes Netz. Flächendeckende Blackouts sind unter diesen Bedingungen fast unvermeidlich – mit allen verheerenden gesellschaftlichen und wirtschaftlichen Folgen. Noch niemand konnte mir die Frage beantworten, wie man mit Windkraft Strom erzeugen will, wenn im Winter ein russisches Dauerhoch bei eisigen Temperaturen wochenlang windschwaches Wetter bringt.

• Biotreibstoff:

In rasch zunehmendem Maße wird Ackerbau nicht mehr zur Erzeugung von Nahrungsmitteln, sondern zur Herstellung von Benzin betrieben. Die Landwirte können damit (wieder über das EEG!) viel mehr verdienen als mit der Erzeugung von Mehl. Das gilt sowohl national („Vermaisung“!) als auch international (Palmen in den Tropen). Alle Appelle nicht nur seitens der Kirche, gegen den Welthunger zu spenden, sind daher durch und durch verlogen, solange man nicht gegen diesen gefährlichen Unsinn lautstark seine Stimme erhebt.

Und das Schlimmste von all dem: Alles beruht auf einer Hypothese, für die es bis auf den heutigen Tag keinen einzigen Beweis gibt! Entsprechende Behauptungen werden auch durch ewiges Wiederholen nicht wahrer. Hingegen ist die Hypothese inzwischen vielfach wissenschaftlich widerlegt! Abgesehen davon: CO2 ist für das Leben auf der Erde unabdingbar! Schon vergessen, was wir alle mal über Photosynthese gelernt haben? Mehr CO2 in der Luft bedeutet besseres Wachstum der Pflanzen, vor allem in Gebieten mit extremeren natürlichen Klimabedingungen. Auch das wäre ein Beitrag zur Linderung des Hungers in der Welt. Jede Gärtnerei reichert die Luft in den Gewächshäusern künstlich mit CO2 an. In Deutschland dagegen will man diesen Lebensgrundstoff in der Erde verbuddeln!!

Warum also? Warum schweigt die Kirche zu den unvermeidlichen, vielfach verheerenden Folgen der sog. „Energiewende“ für unsere Gesellschaft?

Warum schreibe ich diesen Brief gerade jetzt? Weil wir nach Ansicht vieler unabhängiger Wissenschaftler am Beginn einer vieljährigen Kaltzeit stehen. (Das hat nichts mit der aktuellen kühlen Witterung zu tun. Das ist Wetter und nicht Klima). Eine Kaltzeit hätte aber mit Sicherheit viel verheerende Auswirkungen als eine Warmzeit. Das war in der gesamten Menschheitsgeschichte so!

Mehr zu diesem Komplex hier:

www.eike-klima-energie.eu

www.science-skeptical.de

Ich bin sehr gerne bereit, dem Kirchenvorstand Rede und Antwort zu stehen, wenn dieser Brief auf die Tagesordnung einer der nächsten Sitzungen gestellt werden würde. Es gibt nämlich noch viel mehr dazu zu sagen. Ich bitte nur um rechtzeitige Terminangabe, um den Termin in meinem Dienstplan unterbringen zu können.

Freundliche Grüße   Chris Frey,

der hofft, dass diesem Brief nicht das gleiche Schicksal droht wie so vielen anderen zu diesem Thema: Dass er nämlich stillschweigend entsorgt und der Autor als „Leugner“ diffamiert wird.

Tatsächlich kam auch nach einiger Zeit eine Antwort, aber nicht per E-Mail, sondern als normaler Postbrief. Daher wird er hier als Abbildung eingefügt:

Diese Antwort hat mich zutiefst entsetzt und enttäuscht. Das habe ich in einer Erwiderung an den Kirchenvorstand auch zum Ausdruck gebracht (nach reiflicher Überlegung und wieder per E-Mail!). Meine Erwiderung hatte folgenden Wortlaut:

Lieber Kirchenvorstand,

herzlichen Dank für Ihre Antwort auf meine E-Mail. Leider muss ich sagen, dass ich zutiefst erschrocken und entsetzt bin. Was Sie schreiben, zeugt von einer so erheblichen Unkenntnis elementarster Dinge bzgl. Windrädern, dass ich mich frage…

Lassen Sie mich das zunächst begründen. Sie schreiben, dass sich die Errichtung eines Windrades bereits nach 6 bis 12 Monaten amortisiert hat. Die Kilowattstunde Windstrom kostet etwa 16 Cent, Tendenz rasant steigend. Am Markt verkaufen lässt sich die Kilowattstunde Strom jedoch nur mit etwa 3 Cent, Tendenz fallend, mehr gibt der Markt nicht her. Können Sie mir mal verraten, wie sich ein Produkt, dessen Erzeugung 16 Cent kostet, dass sich aber nur für 3 Cent verkaufen lässt, je amortisieren soll? Was sagt Herr Heber als Unternehmer dazu? Würde er in ein solches Produkt investieren? Warum müssen wir alle es dann zwangsweise tun?

Nun amortisiert sich ein Windrad für den Betreiber jedoch tatsächlich – indem der Staat mit massiven Subventionen die Preisdifferenz zwischen Erzeugung und Verkauf ausgleicht. Aber wer hat schon so viel Geld, dass er in ein Windrad investieren kann? Die ärmeren Bevölkerungsschichten sicher nicht. Und woher kommen die staatlichen Subventionen – noch dazu auf 20 Jahre garantiert? Natürlich vom Steuerzahler – eben genau auch von diesen ärmeren Bevölkerungskreisen, die einfach zahlen müssen und nichts davon haben. Finden Sie das sozial? Haben Sie schon mal den Begriff „Energiearmut“ gehört?

Finden Sie es wirklich in Ordnung, dass die Geringverdiener die Stromkosten für die Gutverdiener mit bezahlen? Dass einige wenige Wohlhabende sich auf Kosten weiter Kreise ärmerer Bevölkerungsschichten eine „goldene Nase“ verdienen?

Hinzu kommen noch die Kosten für die Infrastruktur (Leitungen), Zugangswege, Trafostationen und, und, und. Auch hierfür wird ausschließlich der Steuerzahler zur Kasse gebeten. Und nicht zu vergessen die verheerenden Umweltschäden, die auf Jahrzehnte hinaus nicht „repariert“ werden können.

Das soll als Beispiel reichen. Ich habe Verständnis dafür, dass Sie angesichts der dürftigen bzw. nicht vorhandenen Kenntnisse der Fakten nichts weiter dazu sagen können. Ich habe aber keinerlei Verständnis dafür, dass Sie sich als maßgebliche gesellschaftliche Kraft so beharrlich weigern, sich mit diesen Fakten vertraut zu machen. Ich selbst hätte Ihnen Einiges dazu sagen können.

Wenn Sie angesichts der mutwillig und völlig unnötig herbeigeführten Armut weiter Bevölkerungskreise weiterhin derartig den Kopf in den Sand stecken, muss ich mich fragen, ob man eine maßgebliche gesellschaftliche Gruppe, die sich so verhält, weiterhin als Mitglied unterstützen sollte.

Der Klimawandel, den unser Herr bei der Schöpfung der Erde gleich mit erschaffen hat (das Klima ändert sich nämlich ständig, seit die Erde besteht), spielt hierbei wirklich keine Rolle.

Freundliche (und traurige) Grüße    Chris Frey

Diesen ganzen Vorgang habe ich auf meiner Website dokumentiert. Der Link: http://www.chris-frey-welt.de/energiewende-aus-der-sicht-eines-laien/fragen-an-die-kirche/




Alarmismus wider die Natur! Interview in der „Welt der Fertigung“ mit Klaus Eckart Puls

Sehr geehrter Herr Puls, das Wort ›EIKE ‹ haben schon viele Leute einmal gehört, wissen jedoch nicht, wer oder was sich dahinter verbirgt. Bitte erläutern Sie kurz, was EIKE ist, wann und warum es gegründet wurde und welche Ziele es hat.

Puls:  EIKE steht für „Europäisches Institut für Klima & Energie e.V.“. EIKE wurde 2007 gegründet, von beruflich und ideologisch unabhängigen Naturwissenschaftlern und Ingenieuren. Im wissenschaftlichen Fachbeirat von EIKE sind zahlreiche renommierte Hochschullehrer. Die Eintragung als gemeinnütziger Verein ist beim Amtsgericht Jena erfolgt. EIKE finanziert sich aus freiwilligen Beiträgen seiner Mitglieder sowie Spenden. Der Beweggrund war, ein Institut zu schaffen, das sich der kritischen Auseinandersetzung mit einer insbesondere in Deutschland und der EU stark ausgeprägten Ideologisierung der Klima- und Energie-Wissenschaften widmet. Instrumente sind jährliche Kongresse, wissenschaftliche Arbeiten und deren Publikation sowie eine WEB-Seite (http://www.eike-klima-energie.eu/). Dazu steht als Leitsatz auf der EIKE-homepage: „Nicht das Klima ist bedroht, sondern unsere Freiheit! Umweltschutz: Ja! Klimaschutz: Nein.“

Sie haben also erkannt, dass das Klima von interessierter Seite als Instrument entdeckt wurde, um neue Steuern und Abgaben zu begründen. Warum muss da erst ein privat finanziertes Institut, wie es EIKE ist, kommen, um Wahrheiten auszusprechen?

Puls:  Die anthropogene Emission von Treibhausgasen ist nicht völlig ohne Klima-Wirkung. Diese Wirkung ist jedoch aufgrund der physikalischen Gesetze außerordentlich gering, und  beträgt bei CO2-Verdoppelung gegenüber heute nur etwa ½ Grad. Frühzeitig – etwa ab Mitte der 1980ger Jahre – hat sich die Politik einer Pseudo-Wissenschaft namens „Klima-Schutz“ bemächtigt. Die politischen Beweggründe sind einerseits Ideologische "Weltrettungs-Philosophien“, andererseits handfeste fiskalische Interessen über vielfältige Öko-Steuern.

Haben Wissenschaftler in öffentlich finanzierten Instituten keinen Mut, um die offizielle Klimadoktrin als Schwindel zu entlarven?

Puls:  Seit etwa 30 Jahren gibt es einen – mittlerweile dramatisch zunehmenden – Trend bei immer mehr Instituten und Institutionen, wie zum Beispiel auch den NGO’s, über eine ständig weiter angefachte "Klima-Hysterie“ Forschungs- und Förder-Mittel aus Steuergeldern zu erhalten – mittlerweile in Milliardenhöhe. Es hat sich ein Geflecht aus ideologischen "grünen“ Organisationen, fiskalisch abhängigen Wissenschafts-Instituten und leider zum Teil auch ideologisierten Wissenschaftlern gebildet.  Diese alle profitieren davon, sichern damit ihre Existenz und ihre Daseinsberechtigung. Viele Forschungs-Ergebnisse sind die Folge einer gewissen "Auftrags-Forschung“ : "wes’ Brot ich eß, des’ Lied ich sing“, sagt der Volksmund. So ist zum Beispiel der "Weltklimarat“ IPCC eine politisch gegründete Organisation, wie der Name ja schon sagt: Intergovernmental Panel on Climate Change.

Wie lässt es sich erklären, dass selbst Organisationen die den Arbeitgebern nahestehen, die offizielle Klimaaussage ohne kritische Prüfung übernehmen? Schließlich müssen Unternehmen teure CO2-Zertifikate kaufen, wenn sie in Europa produzieren möchten, was zum einen hier erzeugte Produkte unnötig verteuert und zudem Arbeitsplätze gefährdet, da sich eine CO2-lastige Produktion sehr schnell nicht mehr rechnet.

Puls:  Industrie und Wirtschaft sind m.E. gespalten: Einerseits gibt es Industrie- und Wirtschafts-Zweige, die "auf den Klima-Zug aufgesprungen sind“, weil sie auf diesem Wege bequem an Subventionen und Steuergelder kommen. Andererseits gibt es Verlierer, zu denen m.E. insbesondere energie-intensive Firmen und somit ínsbesondere auch der handwerkliche Mittelstand gehören. Ich bin Naturwissenschaftler, und kein Wirtschafts-Fachmann; jedoch: Ich wundere mich über den geringen Widerstand aus letzteren Bereichen.

Sechs europäische Fluggesellschaften haben sich mit dem Luftfahrtkonzern Airbus zusammengeschlossen, um gegen die unsinnige EU-Emissionsabgabe vorzugehen, die ihr Geschäftsfeld bedroht. Die chinesische Regierung hat gar mit der Stornierung von Milliardenaufträgen gedroht, wenn chinesische Airlines CO2-Rechte kaufen müssen, um europäische Ziele anfliegen zu können. Eine Götterdämmerung?

Puls:  Es wird kein internationales Klima-Abkommen geben. Dabei wird stets unterstellt, daß die außer-europäischen Industrie-Staaten nur deshalb nicht mit machen, weil sie ihre Wirtschaft nicht schwächen wollen. Das spielt eine Rolle. Ein darüber hinaus gehender Aspekt ist jedoch, daß in den großen Wissenschafts-Nationen wie USA, China, Japan, Indien, Russland, Kanada auch Wissenschaftler mit einer klima-realistischen skeptischen Meinung Zugang als Regierungs-Berater haben.

Seriöse Wissenschaftler haben schon längst festgestellt, dass CO2 kein klimaschädliches Gas ist. CO2 macht nur 0,4 Promille aller Gase in der Luft aus. Zudem liegt die Klimasensivität des CO2 unter einem Grad Celsius. Würde man in utopischer Weise sämtliche fossilen Brennstoffe der Erde verfeuern, wäre kein Temperaturanstieg über 1 Grad Celsius zu verzeichnen. Was ist also der Grund für die unglaubliche Panikmache in Sachen CO2?

Puls:  Die Fakten haben Sie in Ihrer Frage schon treffend dargelegt. Schon diese Tatsachen sind in der Öffentlichkeit kaum bekannt. Nun propagieren einige Klima-Institute und das IPCC eine Erderwärmung von 2…5…8  Grad für eine CO2-Verdoppelung. Was jedoch in der Öffentlichkeit nahezu unbekannt ist: Das kann CO2 aus physikalischen Gründen gar nicht leisten, was genau so auch in den Berichten des Weltklima-Rates zu lesen ist. Dort steht, dass CO2-Verdoppelung nur ein Grad Erwärmung ermöglicht. Darüber Hinausgehendes wird mit Rückkopplungs-Effekten berechnet. Der IPCC-Bericht spricht von "angenommenen Werten". Es handelt sich folglich um Hypothesen!

Nachdem von Hackern E-Mails des IPCC veröffentlicht wurden, kann davon ausgegangen werden, dass diese Organisation ihre Statistikdaten manipuliert hat, um die offizielle Aussage zum Klimawandel zu untermauern. Haben wir es hier mit mafiösen Netzwerken zu tun, die sich des Stichwortes "Klimawandel" bemächtigt haben, um sich zu bereichern?

Puls:  Mir persönlich geht „mafiös“ etwas zu weit;  das von Ihnen angesprochene unwissenschaftliche Verhalten ist möglicherweise viel naheliegender und vielleicht sogar "menschlicher“ zu erklären: Es handelt sich m.E. um eine Interessen-Gemeinschaft. Die finanziellen Abhängigkeits- und Profit-Aspekte haben wir schon angesprochen. Darüber hinaus müssen wir sehen: Viele dieser etablierten Klima-Forscher haben sich schon vor Jahren festgelegt, und fürchten nicht nur um ihre Pfründe, sondern auch um ihre Reputation, ihren "guten Ruf“ als Wissenschaftler, wenn sich nun heraus stellt, daß sie sich geirrt haben. Dazu schreibt zum Beispiel die Züricher Weltwoche: "Hoffen auf die Apokalypse: Sicher ist, daß diejenigen Kräfte, die politisch mit dem Klimawandel agieren, ihre apokalyptischen Szenarien mit Zähnen und Klauen verteidigen werden … Sie haben sich in eine Zwangssituation hineinmanövriert: Die Warnungen vor dem Klimawandel sind jetzt ein politisches Erfolgsrezept … Sollte der Klimawandel als Bedrohung wegfallen, fiele das politische Konzept von Links-Grün in sich zusammen wie ein Kartenhaus … Insofern ist der Streit um die Wahrheit beim Klimawandel die Mutter aller Ökoschlachten. Die Klimaschützer kämpfen nicht nur gegen die Erderwärmung, sondern auch um ihre politische Existenz.“

Nachdem nun in großen Stil Windparks entstehen, ist nun selbst der NABU auf den Geschmack gekommen und erpresst Windkraftbetreiber mit Verweis auf bestimmte Vögel, die auf der Jagd nach Beute durch die Windräder gefährdet sind. Um einer drohenden Stilllegung zu entgehen, zahlen die Betreiber sechsstellige Summen, die dann angeblich dem Schutz der bedrohten Vogelart dienen. Regelt mittlerweile das Faustrecht den Energiemarkt?

Puls:  Der NABU wie auch andere NGO’s haben ihre grüne und ursprünglich in vielen guten Ansätzen auf wirklichen Naturschutz abzielende Agenda längst verlassen, und sich zu den Profiteuren der von ihnen mit angeheizten Klima-Hysterie gesellt. Das zeigte zum Beispiel in 2012 der Austritt des Mitbegründers des Bundes für Umwelt und Naturschutz Deutschland, Freiherr Enoch zu Guttenberg, aus dem BUND. In seinem Schreiben an den BUND-Vorsitzenden Prof. Hubert Weiger begründete er seinen Schritt mit der aktiven Duldung und Unterstützung des BUND zur weitgehenden Zerstörung der deutschen Landschaftsschutzgebiete und Naturparks durch riesige Windkraft- und auch Photovoltaik-Anlagen.

Wie EIKE auf seiner Homepage darlegt, sind die Temperaturen in den letzten Jahren nicht mehr gestiegen. Woher kommen die Daten ?

Puls:  Die IPCC-nahen Institute ermitteln aus den Daten der welt-weiten Wetterdienste eine so genannte Global-Temperatur. Diese zeigt auch im 20. Jahrhundert ein ständiges Auf+Ab, wie schon in früheren Jahrhunderten. In den Jahren 1975-1998 hat es einen Temperatur-Anstieg von etwa ½ Grad gegeben, seit 1998 zeigt die Temperatur wieder einen leichten Rückgang, allenfalls kann man von einem Temperatur-Plateau sprechen. In den englisch-sprachigen Medien wird das schon seit einigen Jahren offen ausgesprochen, z.B.: „Global warming nonsense gets a true cold shoulder“ schreibt The Daily Telegraph. Nun hat die skeptische Debatte auch die Medien in Deutschland erreicht, z.B. schreibt DER SPIEGEL: "…. Doch längst hat sich herumgesprochen, dass sich das Klima zuletzt anders entwickelt hat als vorhergesagt: Seit 15 Jahren stockt die Erwärmung, der Aufwärtstrend der globalen Durchschnittstemperatur hat sich seit 1998 nicht fortgesetzt." Die nunmehr seit 15 Jahren andauernde Phase des Erwärmungs-Stops liegt außerhalb des "Rauschens“ von Klima und  Klimamodellen, sie ist statistisch signifikant. Damit wird zugleich die immer wieder propagierte Korrelation mit dem anhaltenden CO2-Anstieg und damit letztlich ein maßgeblicher Anteil durch den Menschen an der säkularen Erwärmung des 20. Jahrhunderts in Frage gestellt.

Dies würde klar bedeuten, dass dann nicht der Mensch, sondern andere Kräfte am Werk sind, die für das Klima relevant sind. Welche sind das?

Puls:  Das Klima-System der Erde besteht aus Atmosphäre, Hydrosphäre (Ozeane), Kryosphäre (Eis), Biosphäre und Lithosphäre (Gesteine). Bei den Umsetzungen von Energie und Gas im Klimasystem gibt es stets eine Fülle von physikalischen und chemischen Prozessen und Rückkopplungen, die im Detail unüberschaubar und allenfalls in Ansätzen verstanden sind. Genau  d a s  ist das Problem der Klima-Modelle, die sich folglich mit einer Vielzahl von Annahmen, Näherungs-Lösungen (Aproximationen), Parametrisierungen etc. behelfen müssen. Schon aus diesem Grunde ist es naturwissenschaftlich schier absurd, durch ein paar Drehungen an irgendwelchen CO2-Stellschrauben ‚ein schön angenehmes stabiles Klima’ festhalten zu wollen. So ist auch das propagierte "2-Grad-Ziel“ ist ein politisches Ziel. Dazu schreibt der SPIGEL: "Gipfel in L’Aquila (2009) : … Die Staats- und Regierungschefs der acht größten Wirtschaftsmächte haben sich darauf verständigt, dass die Erderwärmung auf zwei Grad Celsius begrenzt werden soll.“ Fällt es eigentlich niemandem auf? Politiker beschließen, was das Klima zu tun hat! Dazu sagt der Mathematiker und Klimaforscher Prof. Hans von Storch in DIE ZEIT: “Zwei Grad ist eine politische, eine sinnlose Zahl. Ich halte das für Verarschung“.

Selbst der 93 Jahre alte „Vater“ der Klimawandel-Theorie, der britische Biophysiker James Lovelock, gibt heute zu, dass er sich geirrt hat. Er hat zusammen mit der amerikanischen Mikrobiologin Lynn Margulis im Jahre 1979 die Gaia-Theorie aufgestellt, nach der die Erde wie ein Lebewesen funktioniert, das sich durch Selbstorganisation im Gleichgewicht hält. Er stellt die Frage, wie man eine Eiszeit als Normalzustand und Warmzeiten als krankhafte Entgleisung deuten kann. Hochkulturen sind schließlich nur in Warmzeiten möglich. Wie erklärt es sich, dass alle Welt den unglaublichen Irrtum blind hin nimmt?

Puls:  Das kann ich nicht beantworten, denn – damit beschäftigen sich mittlerweile die Psychologen und Soziologen: Wissenschaftsdebatten um die Klimakatastrophe, erklärte Prof. Dr. Norbert Bolz, seien nichts anderes als ’civil religion’, als der aus den Kirchen ausgezogene Glaube der Massengesellschaft. In ihr walte moderner Priesterbetrug. Sie erlaube gute Geschäfte für politische Ablaßverkäufer, wie die Fundraiser von Greenpeace und fülle nicht zuletzt den Opferstock Al Gores. Soviel allerdings ist gewiß: Stets sind es die Kaltzeiten gewesen, welche die Menschheit in Bedrängnis gebracht haben; mit Missernten, Hungersnöte, Energie-Knappheit, Anstieg der Sterberate, Völker-Wanderungen et cetera !  Auch unter diesem Aspekt ist die CO2-Verteufelung in einer derzeitigen mäßigen Warmzeit – unabhängig von der Ursache  – nahezu hirnrissig.

In der Öffentlichkeit wird der Meeres-Spiegel-Anstieg als dramatisch und beängstigend dargestellt. Was hat es damit auf sich ?

Puls:  Der Meeres-Spiegel steigt global seit mehr als Zehntausend Jahren, seit der letzten Eiszeit. Dabei ist eine ständige Verlangsamung zu beobachten, die bis heute andauert.Wenn sich dieser Trend fortsetzt – was wegen der zahlreichen Einfluß-Faktoren niemand weiß –  dann haben wir in 100 Jahren einen Anstieg von ca. 25 cm, was keinerlei Problem darstellt. Das  haben auch die deutschen Behörden erkannt; so sagt z.B. die Landesregierung Niedersachsen: "Klimawandel nicht bemerkbar: Für einen steigenden Meeresspiegel an Niedersachsens Nordseeküste als Folge des Klimawandels sieht die Landesregierung keine Anzeichen."  Das BSH Hamburg zu Stürmen und Sturmfluten: "Es gibt in Norddeutschland nicht mehr Sturmfluten als vor 50 Jahren. Ein generell steigender Trend bei der Häufigkeit und Intensität von Sturmfluten als Vorbote des globalen Klimawandels ist gegenwärtig nicht erkennbar."

In jüngerer Zeit hören wir immer wieder von einer dramatischen Eisschmelze in der Arktis. Wie ist das zu beurteilen ?

Puls:  In der Klima-Geschichte hat es stets Eis-Schwankungen bei den Polen und den Gletschern gegeben, weit über das heutige Ausmaß hinaus. Schon aus der jüngeren Klima-Geschichte der letzten 150 Jahre wissen wir, daß es auch in der Arktis zyklische und sogar periodische Schwingungen von ca. 60 Jahren gibt, offenbar im Zusammenhang mit natürlichen Schwingungen von Meeres-Strömen (PDO). Was jedoch von den IPCC-Klima-Instituten und den Medien kaum erwähnt wird: Die Antarktis legt an Fläche und Masse ständig zu, und hat nach Aussage des Alfred-Wegener-Instituts derzeit die größte Eisausdehnung seit 40 Jahren! Also: Die Arktis schmilzt, die Antarktis legt zu  –  eine Katastrophe ist weder das Eine noch das Andere.

Die extreme Kälte in den letzten Wintern wird nun auch mit der angeblichen Klimaerwärmung in Verbindung gebracht. Eine weitere Irreführung?

Puls:  Meteorologisch ist das schier absurd. Wir wissen seit mehr als 100 Jahren, daß die atmosphärische Zirkulation unvorhersagbare zyklische Schwankungen aufweist. Einfach ausgedrückt: Der Luftdruckgradient zwischen den Azoren und Island verändert sich über die Jahre chaotisch, was in Europa immer wieder zu einer Reihe milder bzw. kalter Winter führt. Mit einer polaren Eisschmelze hat das nichts zu tun, mit einem Klimawandel oder gar CO2 schon gar nicht. "Es wird kälter, weil es wärmer wird“ !? Wieso fallen den Klima-Katastrophikern eigentlich solcherart Erklärungen immer erst hinterher ein, wo sie doch angeblich Klima+Wetter für 100 Jahre im voraus prognostizieren können !?

Große CO2-Umwandlungsgebiete, wie etwa die Urwälder in Brasilien, werden mit einem unglaublichen Tempo abgeholzt werden. Gibt es eine Statistik, aus der man ablesen könnte, dass das Verschwinden dieser Wälder mit dem Anstieg von CO2 zusammenfällt?

Puls:  Für mich gibt es keinen Zweifel, daß ein wesentlicher Teil des atmosphärischen CO2- Anstiegs seit Beginn der Industrialisierung anthropogen verursacht ist. Allerdings – die zahlreichen chemischen und physikalischen Umsetzungen von CO2 in der Natur sind bis heute unüberschaubar. Einfach gesagt: Die Details des natürlichen CO2-Haushaltes in der Natur sind ungeklärt.

Wäre es nicht sinnvoll, den Ländern dieser Urwälder einen finanziellen Ausgleich zukommen zu lassen, wenn dadurch die Urwälder nicht weiter abgeholzt werden?

Puls:  Nicht alles in der Welt kann man mit Geld regeln, was ja meist auch mit neuen Schulden verbunden ist. Nein  –  man muß m.E. andere Wege gehen, zum Beispiel den genannten Ländern den Anreiz nehmen, Wälder abzuholzen, um anschließend Bio-Sprit zu produzieren –  nur damit die Menschen in Europa "billig und  CO2-weltrettend“ Auto fahren können.

Ist es richtig, dass ein höherer CO2-Gehalt in der Luft den Pflanzen eher zugutekommt? Schließlich haben in Zeiten großer CO2-Konzentrationen besonders große Pflanzen die Erde bedeckt, wie Versteinerungen zeigen.

Puls:  CO2 ist  über die Photosynthese  d a s   Lebens-Elixier schlechthin: Ohne CO2 kein Getreide,  kein Grünland, keine Tiere und auch keine Menschen, denn die Photosynthese erzeugt auch den Sauerstoff in der Luft zum Atmen.  Die Verteufelung von CO2 als Gift, Schadstoff, Klima-Killer …. ist hahnebüchener Unfug, naturwissenschaftlich absurd! Hinzu kommt: Das Optimum für Pflanzen-Wachstum und Ernte-Erträge liegt bei dem Dreifachen der heutigen CO2-Konzentration. Unter dem Gesichtspunkt des Welternährung und einer Milliarde hungernder Menschen müssten wir folglich die „CO2-Produktion“ intensivieren

Welchen Einfluss haben Vulkane auf den CO2-Gehalt der Luft? Ist es richtig, dass die weltweit aktiven Vulkane wesentlich mehr CO2 in die Luft pusten, als der Mensch mit seinen Aktivitäten?

Puls:  Auch Vulkanismus bringt CO2 in die Atmosphäre, die Bilanzen sind unklar. Die wesentliche Klima-Wirkung der Vulkane liegt jedoch bei den gewaltigen Mengen an Schwebstoffen (Aerosolen), die in die höhere Atmosphäre geblasen werden, und die wirken auf Wetter+Klima über den Strahlungs-Haushalt abkühlend!

Wie steht es mit dem Einfluss der Sonne? Welche Rolle spielt unser Lebensspender für das Klima auf der Erde? Ist hier nicht die eigentliche Ursache für unterschiedliche Klimaperioden zu suchen?

Puls:  Ja, vieles spricht dafür. In der Klima-Debatte gewinnen seit einigen Jahren die Solar-Forscher mehr und mehr die Oberhand, und verdrängen die mono-kausale CO2-Debatte. Die neuere Literatur dazu ist sehr umfangreich. Genannt sei hier exemplarisch das Buch "Die Kalte Sonne“, das zu nahezu hysterischen Abwehr-Reaktionen bei den CO2-Klima-Alarmisten geführt hat. Die zunehmende Plausibilität der Klima-Steuerung durch die Sonnen-Variationen erschüttert die auf CO2 fixierten etablierten Klima-Institute.

Wie wird sich das Klima ihrer Meinung nach weiterentwickeln? Es gibt nicht wenige Stimmen, die eine neue Abkühlung vorhersagen.

Puls:  Damit sind wir wieder bei der aktuellen Solar-Forschung: Seit einigen Jahren deutet die aktuelle Entwicklung der Sonnen-Aktivität auf ein bevorstehendes, alle 200 Jahre eintretendes Minimum hin. Die letzten Ereignisse dieser Art liegen 200 bzw. 400 Jahre zurück. In diesen Jahrhunderten gab es die „Kleine Eiszeit“.  Unabhängig davon, ob es erneut so kommt: Wir sollten die derzeitige mäßige Warmzeit genießen, anstatt sie als "CO2-Katastrophe“ zu verteufeln.

Kann man das Klima schützen ?

Puls:  Wie anmaßend muß man eigentlich sein, um zu behaupten, man könne das hoch komplizierte und unüberschaubare Klima-System "schützen“. Dazu sagt der Klima-Forscher und AWI-Vizedirektor Prof. Heinrich Miller: “Wer von Klimaschutz redet, weckt Illusionen …  Klima lässt sich nicht schützen und auf einer Wunschtemperatur stabilisieren. Es hat sich auch ohne Einwirkungen des Menschen oft drastisch verändert." Schlagworte wie Klimakollaps oder -katastrophe hält er für irreführend. "Das Klima kann nicht kollabieren, Natur kennt keine Katastrophen.“

Was also hat Klima-Schutz mit Umwelt-Schutz zu tun ?

Puls:  Gar Nichts !  Mit dieser These werden die Menschen gefügig gemacht, unsinnige Klima- und CO2-Steuern zu zahlen, weil man ihnen suggeriert, sie würden damit auch Umwelt-Schutz betreiben und finanzieren. Der ehemalige Direktor des Meteorologischen Instituts Berlin, Prof. Horst Malberg, bringst es auf den Punkt : "Saubere Luft zu atmen, sauberes Wasser zu trinken, unbelastete Seen, Flüsse, Ozeane und Erdböden sowie ein intaktes Ökosystem gehören zu den Grundrechten des Menschen. Ein stabiles Klima gehört, wie die Klimageschichte lehrt, nicht dazu.“

Menschen, die sich nicht von der Klimahysterie anstecken lassen und nüchtern ihre Sichtweise mit Fakten untermauert darlegen, ausgegrenzt und angefeindet werden. In Diktaturen werden Menschen weggesperrt die gegen die offizielle Meinung Einspruch einlegten. Besteht die Gefahr, dass sich in Deutschland unter grüner Ideologie die schlimme deutsche Geschichte wiederholt?

Puls:  Dafür gibt es leider Anzeichen. Hinzu kommt:  Auf eine irrationale Klima-Debatte wird eine ideologisierte und für die Bürger extrem teuere Energie-Debatte drauf gesattelt. Beide Debatten werden m.E. nicht rational, nicht naturwissenschaftlich und nicht betriebswirtschaftlich geführt, sondern sind ideologisch und kommerziell geprägt. Es hat sich eine Interessen-Gemeinschaft von Profiteuren vernetzt: Die Politiker „…wir retten die Welt für Euch und Euere Kinder“ gehen damit auf Wähler-Fang, etliche Institute und Firmen scheffeln Steuer-Gelder, und die Medien verfahren nach dem uralten Verkaufs-Rezept „only bad News are good News“ !

Herr Puls, vielen Dank für das Interview

Das Interview erschien zuerst in der Ausgabe 3/2013 der Fachzeitschrift: Welt der Fertigung    siehe Anlage                    

Related Files