1

Kombikraftwerke für 100 % „Erneuerbare“ (Teil 2). Ein Projekt von Tagträumern oder Hütchenspielern?

Teil 2

Deshalb machen wir nun die Probe aufs Exempel und übertragen dieses Ergebnis auf die bereits installierte Menge von sog. „Erneuerbaren“ besser Neue Instabile Energien (NIE) in ganz Deutschland. Mit ca. 36,3 GW PVA und rd. 34,3 GW Wind liegen wir Ende 2013 zusammen bei rd. 71 GW. Mit Biomasse betriebene Kraftwerke können derzeit knapp 3 GW [1] (Ende 2011) bereitstellen. Das Verhältnis liegt also heute schon bei 1: 23, also ungefähr wie im Feldversuch auch. Damit könnten wir zwar theoretisch eine Netzlast von bis zu 71 GW + 3 GW = 74 GW abdecken, aber nur dann, wenn diese auch tatsächlich erzeugt würde. Das ist aber nur sehr selten und in den Herbst- und Wintermonaten so gut wie nie der Fall. In diesen Monaten brauchen wir jedoch gerade in der Spitze um die 81 GW [2], die aber von keinem dieser Anbieter bereitgestellt werden können.

Wir müssten also die Biomasse als einzig grund- und mittel-und evtl. spitzenlastfähige Stromerzeugungsart der NIE erheblich ausbauen, um uns den Luxus der Regelenergie in Spitzenlastzeiten aus Wind und PVA leisten zu können. Aber auch die Spitzenlast könnte damit nicht sicher bereitgestellt werden. Weder am Mittag noch am Abend. Denn es ist nicht sicher, das am Mittag und Abend der Wind bläst, die Sonne scheint abends schon mal gar nicht.

Biomasse-Kraftwerke müssten auf mindestens 80 GW (ohne Reserve!) hochgefahren werden

Insgesamt ist daher festzustellen, dass zur Sicherstellung von 100 % EE-Strom der Bestand an  Biomassekraftwerken zur Sicherung der Grundversorgung auf mindestens 80 GW (ohne Reserve) hochgefahren werden müsste. Dass das in jeder Hinsicht völlig illusorisch ist, nicht nur, weil der Plan der Bundesregierung zur Energiewende nur ca. 6 GW vorsieht, zeigt schon eine grobe Betrachtung des Flächenverbrauches.  Allein der wäre so gigantisch, wie es heute bereits die Umweltbelastung durch die bestehenden Monokulturen ist. Zwar müsste man nicht den Dauerbetrieb dieser Faulgasgeneratoren übers Jahr einplanen und dafür die entsprechende Menge an Energiepflanzen oder Gülle vorhalten, aber ein wesentlicher Teil müsste schon für den Fall der Fälle vorgehalten werden.Derzeit benötigt Deutschland ca. 600 TWh an elektrischer Arbeit. Diese Energiemenge wird durch Grund- Mittel- und Spitzenlastkraftwerke bereit gestellt. Etwa 40 % (2005) davon werden als Grundlast bereitgestellt, von Kraftwerken, die 7000 oder mehr Volllaststunden gefahren werden. Die Mittellast von ebenfalls ca. 40 % wird hingegen nur an ca. 2/3 des Tages gebraucht. Die Spitzenlast muss dann in sehr kurzer Zeit einige den Rest der der Leistung bereitstellen, was bisher und wohl auch in Zukunft nur Pumpspeicher und Gaskraftwerke können. Sie wird je nach Wochentag in 10 bis 20 % der Zeit benötigt, dann aber bis 100 %. (Siehe Abbildung).

Abbildung 3: Lastverlauf über den Tag Verteilung von Grund- Mittel- und Spitzenlast im Winter (Quelle: VDEW http://de.wikipedia.org/wiki/Grundlast)

Das bedeutet, dass auch genügend Biomasse vorgehalten werden muss, um diesen Bedarf zu decken. Wie hoch der letzendlich sein muss, lässt sich nur abschätzen, denn Wind und Sonne liefern ja, wenn auch oft sprunghaft und nicht unbedingt dann, wenn man die Energie braucht.

Rechnen wir der Einfacheit halber mit 40 % der benötigten Energiemenge. Das wären rd. 600 x 0,4 = 240 TWh.

Um ein konventionelles Kraftwerk mit 1 GW Leistung komplett und übers Jahr mit  Faulgasanlagen zu ersetzen, bräuchte man Maisanbauflächen lt einer VDE (Verband deutscher Elektroingenieure) Berechnung [3], unter Bestbedingungen, in der Größe von mindestens 1.600 km2. Dabei sind die für die Lagerung erforderliche Flächen und die Energie für die Produktion der Biomasse, ihren Transport und ihre Umwandlung noch nicht berücksichtigt. Sie erhöhen den Netto-Flächenbedarf nochmals erheblich.

Es wäre in der Lage bis zu 7,9 TWh nach Bedarf zu liefern. Das bedeutet, zur Abdeckung  von 40 % der Strommenge durch Biomassekraftwerke (bei angenommenen 7000 Betriebsstunden p.a.) müssten Biomasse für ca. 1600 x 240/7,9= 48.606 km2 für die Produktion von Biomasse vorgehalten werden. Zusätzlich natürlich noch die Flächen für Lagerung etc. wie oben beschrieben, Und selbst dann wäre es technisch wohl kaum möglich die erforderliche Spitzenlast in der notwendigen kurzen Zeit bereit zu stellen. Das schaffen bisher nur hocheffiziente  schnelle Gaskraftwerke. Umgekehrt können diese Kraftwerke bei plötzlichen Ausfällen im Sekundenbereichen nichts nachschieben, das können nur die mit großen Schwungmassen ausgestatteten Turbinen der Großkraftwerke.

Insgesamt hat Deutschland aber nur 119.000 km2  Ackerfläche. D.h. rd. 41 % könnte und müsste nur für die Bereitstellung von Energieplanzen vorgehalten und bewirtschaftet werden. Unsere Nahrung müsste dann zum großen Teil hinzugekauft werden- da fragt sich von welchem Geld- oder die ganze Nation verzichtet auf eine sichere Stromversorgung und vertraut auf Wind und Sonne und deren Wohlwollen. Das wäre unweigerlich das Ende Deutschlands als Industrienation, aber ein grünes Paradies für Wildschweine und andere Nutznießer der Monokulturen.

Eine weitere Begrenzung stellt die notwendige Zahl der Biomasse-Faulgas Anlagen dar. Wie der VDE weiter ermittelt hat, lassen sich Biomasse-Kraftwerke nur bis 20 MW Leistung vernünftig bauen. Zur Bereitstellung der erforderlichen  80 GW müssten demnach 80.000 MW/20 = 4.000 Anlagen dieser Größe errrichtet werden.

Vielleicht auch deswegen resumieren die VDE Autoren:

 „Mit den vorher genannten verfügbaren Flächen beträgt das Potenzial zur Erzeugung elektrischer Energie aus dem großflächigen Anbau von Biomasse ca. 5.000 MW, was ca. 4,5 % der zurzeit installierten elektrischen Leistungen in Deutschland entspricht. Der Anteil der erzeugten elektrischen Energie könnte dabei ca. 7 % betragen, da Biomasseanlagen ganzjährig als Grundlasterzeuger betreibbar sind.“

Es wird also schon aus diesem Grund nichts mit der Grund- und Regellast aus Faulgasgeneratoren bei 100 % Ökostrom.

Und weil die Organisatoren des Feldversuches Kombikraftwerk 2 das wissen, fordern sie mal eben schnell eine Änderung der Regeln für die Zulassung zur Lieferung von Regelleistung. Unter der Überschrift „Fazit und Änderungsbedarf am Regelenergiemarkt“, fordern sie, die Regeln zugunsten der fluktuierenden „Erneuerbaren“ aufzuweichen, indem man auch ganz kurzfristige Angebote als Einspeisung zulässt. Dass damit der Bock zum Gärtner gemacht wird, leuchtet sofort ein, denn damit wird das zerstörerische Element der Vorrangeinspeisung auch auf die Regelenergie übertragen und dem schon heute zunehmendem Chaos im Netz ein weiteres breites Einfallstor geöffnet.  Zigtausende bis Millionen von „Erneuerbaren“ Erzeugern würden dann  zu jeder beliebigen Zeit, die nur vom Wettergott abhängt, zu- oder abregeln dürfen.  Das Chaos wäre der Normalfall, die Netzstabiltität endgültig dahin.

Aber es blieben nicht nur technischen die Randbedingungen völlig ausgeblendet, sondern auch die vielleicht noch wichtigeren Kosten dieses Kombikraftwerkes.

Welche Kosten kommen auf uns zu?

Die Befürworter der Neuen Instabile Energien (NIE ) wie man die „Erneuerbaren“ treffender nennen sollte, wollen uns einreden, dass 100 % „Erneuerbare“ aus übergeordneten Gründen überaus erstrebenswert seien, schweigen sich aber über die Kosten dieser Energieherstellung, sowie ihre zahllosen, naturgesetzlich bedingten, Schwächen komplett aus. Wenn sie dann doch mal genannt werden müssen, dann mutieren sie zur sattsam bekannten „Kugel Eis“ des ehemaligen Umweltministers Jürgen Trittin. Mehr würden sie nicht kosten, behauptete dieser Star der Grünen Bewegung vor einigen Jahren, als er gerade das EEG durchgedrückt hatte. Das war ebenso unverfroren wie falsch. Im Laufe des Jahres 2013 kostete diese „Kugel Eis“ bereits 23 Mrd €, die die Netzbetreiber an die Besitzer der NIE Anlagen auszuschütten hatten.

Doch bleiben wir vorerst beim „Kombikraftwerk 2“ und seinen Kosten. Es besteht wie in Tabelle 1 gezeigt – aus 37 Windkraftanlagen in Brandenburg, mit einer Nennleistung von   76,4 MW, ferner aus 12 Photovoltaik Anlagen in der Kasseler Umgebung mit 1 MW und 7 kleinen Faulgas (Biomasse)-Anlagen mit insgesamt 3,6 MW Leistung.

Biomasse-Kraftwerke

Der Fachverband Biogas e.V. beziffert die Investitionskosten pro Kilowatt installierter Leistung auf ca. 2.500 Euro/Kilowatt für größere Biogasanlagen und ca. 4.000 Euro/Kilowatt für kleinere Anlagen. Hier handelt es sich zweifelsfrei um kleine Anlagen. D.h. es fielen dabei Investitionen in Höhe von ca. 14,4 Mio € an

Praktisch für die Investoren dieser Anlagen ist, dass auch diese Anlagen (bis zu einer Leistung von 20 MW) sich nicht an der Lastregelung noch an der Spannungs- oder Frequenzregelung des Netzes beteiligen müssen. Sie können soweit technisch und betriebsbedingt möglich ständig unter Volllast produzieren, die Abnahme ist garantiert.

Windkraftanlagen

Einbezogen wurden die Windkraftanlagen der „stromautarken“ (eigene Angaben) Gemeinde Feldheim in Brandenburg. Sie wurden im wesentlichen ab dem Jahr 1999 errichtet.

Onshore Windkraftanlagen kosten heute nach dem Verbraucherportal Solar-und-Windenergie als Kleinanlagen zwischen  600 und 870 €/kW als Großanlagen zwischen  770 und 1030 €/kW [4] . Enercon gibt an, dass seine Großanlagen derzeit mit ca. 1250 €/kW zu Buche schlagen. Wir rechnen hier mit 1000 €/kW, damit dürfte ein vernünftiger Mittelwert gefunden sein.

Photovoltaik-Anlagen

Photovoltaik Anlagen sind rapide im Preis gefallen. Das Branchenportal Solaranlagen.eu[5] nennt Preise in 2007 von noch 4500 €/kWp gegenüber heutigen Preisen von ca. 1700 €/kWp[6]. Zwischen 2012 und 213 ist kam die Preisreduktion zum Stillstand.

Damit hätten wir die Investitionskosten für die Anlagen zusammen. Beachtet werden muss jedoch, dass die erforderliche dezentrale Netzanbindung nicht enthalten ist.

Windkraftanlagen Photovoltaik Faulgas Braunkohle KW Niederaußem
Anzahl 37 12 7 1
Kosten pro kW in € 1000 1700 4000 1200
Nenn-Leistung in MW 76,4 1 3,6 1.012
Kosten in Mio € 76,4 1 14,4 1.200

Tabelle 2. I Investitionskosten für das Kombikraftwerk 2 und Braunkohle KW nach heutigen Preisen

Zusammen kosteten die Komponenten des Kombikraftwerkes 2  rd. 91,8 Mio €, jedoch ohne Netzanbindung. Ein Kohle-, Öl-, Kern- oder Gaskraftwerk, würde man für diese mickrigen Leistungsdaten nicht bauen. Das rechnete sich nicht. Trotzdem kann man die Investition pro kW, der heute für ein modernes konventionelles Kraftwerk (z.B. BoA Niederaußem) gestemmt werden muss, bestimmen und vergleichen. Er liegt bei rd. 1.200 €/kW[7].

Das sieht auf den ersten Blick sehr ähnlich aus, wenn man vom Ausreißer Faulgas mal absieht. Doch das geht nicht, denn der ist es, der dem ganzen Projekt vom Kombikraftwerk 2 erst die Existenz erlaubt. Ohne ein Kraftwerk, das jederzeit die volle Leistung bedarfsgerecht produzieren kann, fällt die gesamte Logik des Projektes in sich zusammen.  Es ist also für die Funktion bestimmend.

Eigentlich hätten das die eifrigen Förderer vom BMU schon vorher erkennen und die Förderung verweigern müssen. Denn nur mit Hilfe eines nach Angebot und Nachfrage steuerbaren Kraftwerks, kann in Flauten und/oder sonnenarmen oder dunklen Tagen die Leistung bereitgestellt werden, die die heutige Zivilgesellschaft in jedem Moment in Deutschland benötigt. Allein und nur rechnerisch betrachtet kostet das Kombikraftwerk 2  demnach 91,8 Mio € mit einer Nennleistung von 81 MW. Pro kW installierter Lesitung sind das  1.133 €/kW und damit in etwa genau so viel pro installierter kW, wie das Braunkohle-Kraftwerk BoA in Niederaußem. Sogar etwas weniger.

Fordert man hingegen einen unter allen Umständen sicheren Betrieb, was bei einem derart lebenswichtigen Produkt wie Strom, nicht nur eine Selbstverständlichkeit ist, sondern auch per Gesetz gefordert wird, dann tun sich Welten zwischen beiden auf. Dann müssten die Faul(Bio)Gas Kraftwerke in Zahl und Leistung erheblich ausgeweitet werden, nämlich auf die volle Nennleistung des gesamten Kombikraftwerkes 2. Das wären die bereits erwähnten 81 MW.

Ohne diese Investition stünden im Bedarfsfall nur die mickrigen 3.6 MW der jetzigen Anlagen zur Verfügung, die Verbraucher für den Rest von 77,4 MW gingen leer aus, wenn, wie jeden Abend und in der Nacht, die Sonne nicht scheint, oder der Wind nicht weht. In den Herbst und Wintermonaten oft beides gleichzeitig.

Damit erhöhten sich  allein die Investitionskosten der Versuchsanlage um satte 324 Mio und summierten sich auf 401 Mio €.  Ein vergleichbares konventionelles Kraftwerk hingegen käme nur auf 97,2 Mio €. Ein Faktor von 4,1 zuungunsten  des Kombikraftwerkes.

Selbst wenn man auch bei Faulgasanlagen nur noch große Anlagen mit Kosten von 2.500 €/kW bauen würde, wäre eine Investition in Höhe von 202,5 Mio € zusätzlich zu tätigen. Insgesamt beliefe sich die Investition damit dann auf knapp 280 Mio €. Immer noch rd. 3 mal soviel wie rein konventionell.

Welche Kosten kämen bei 100 % NIE auf uns zu?

Überträgt man diese Erebnisse auf 100 % NIE Versorgung für ganz Deutschland, wofür ja der Versuch den Beweis antreten sollte, dann müssten zur Absicherung des Gesamtbedarfes von rd. 80 GW, wenn auch nur für rd 40 % der Zeit, ca. 200 Mrd € in Biomasse Kraftwerke (4000 x 2.500 €/kWh x 80.000.000 kW Leistung) zusätzlich investiert werden.  Sie würden sich natürlich ebensowenig rechnen wie die heutigen konventionellen Kraftwerke, da die vglw. geringe Betriebsstundenzahl keine Amortisation zulässt. Dafür hätten wir dann mindestens eine Dopplung des jetzigen Kraftwerksbestandes hinbekommen, ergänzt um die vielen GW Erbringer aus NIE Anlagen, mit Wind- und Sonne betrieben.

Die bleibt als offene Frage, die auch dieser Versuch nicht beantworten will:

Wie also sollen 100 % NIE erreicht werden, ohne die Faulgasanlagen, wie zuvor beschrieben, auf 70 bis 80 GW Nennleistung auszuweiten? Die wiederum könnten allein von der verfügbaren Anbau-Fläche nicht mit in Deutschland erzeugten „Energiepflanzen“ betrieben werden. Der Bedarf wäre viel zu groß, auch wenn man davon ausgehen kann, dass die Mittel- und Spitzenleistung von 70 GW nicht an allen Tagen im Jahr gebraucht würde. Da hilft nur großvolumiger Strominport aus dem nahen Ausland. Erzeugt per Kernkraft versteht sich. Oder Verzicht, gesteuert per Smartmeter!

Fazit:

Der Feldversuch Kombikraftwerk 2 beweist nur, dass seine Initiatoren das Geld für teuere Spielchen verbraten durften, deren Erkenntnisse bei einfacher , ehrlicher und analytischer Betrachtung auch ohne diesen Versuch hätten gewonnen werden können. Das Versuchsergebnis aber demonstriert erneut, wenn auch unabsichtlich, dass  die Energieversorgung eines Industrielandes nicht von den schwankenden Ergebnissen der NIE´s abhängig gemacht werden darf. Das  zumindest hat der Versuch einmal mehr sehr deutlich gezeigt. Weder ist eine sichere Versorgung mit elektrischer Energie damit möglich, noch sind die extremen Kosten dafür zu rechtfertigen.


[1] Wikipedia Ende 2011 waren in Deutschland rund 7.200 Biogasanlagen mit einer installierten elektrischen Anlagenleistung von ca. 2.850 MW

[2] lt BDEW wurden 81,2 Gigawatt am 7. Dezember 2012 gemessen.

[3] Wikipedia Ende 2011 waren in Deutschland rund 7.200 Biogasanlagen mit einer installierten elektrischen Anlagenleistung von ca. 2.850 MW

[4] Lt. VDE Biomassekraftwerke  Ein Beitrag des ETG-Fachbereichs V1 „Zentrale und dezentrale Erzeugung elektrischer Energie“ liefert z.B. der energiereiche Silomais 1000 kWh/t, pro ha. Es wird mit einen Ertrag von 50 t/ha, gerechnet. Der Wirkungsgrad der Stromerzeugung wird incl. Ankopplung eines Blockheizkraftwerkes mit 40 % angegeben.  Die für die Lagerung erforderliche Fläche und die Energie für die Produktion der Biomasse, ihren Transport und ihre Umwandlung wurden von der produzierten Energie nicht abgezogen, dadurch erhöht sich aber der spezifische Netto-Flächenbedarf.

http://www.vde.com/de/fg/ETG/Arbeitsgebiete/V1/Aktuelles/Oeffentlich/Seiten/Biomassekraftwerke.aspx

[5]  Quelle: http://www.solar-und-windenergie.de/windenergie/kosten-und-bau-windkraftanlagen.html

[6] Quelle: http://www.solaranlage.eu/solar/solaranlagen-preise

[7] Die Einheit kWp (Kilowatt Peak) steht für die Nennleistung dieser Anlage im Neuzustand und unter optimalen Laborbedingungen

[8] Quelle- http://de.wikipedia.org/wiki/Kraftwerk_Niederau%C3%9Fem




Kombikraftwerke für 100 % „Erneuerbare“. (Teil 1) Ein Projekt von Tagträumern oder Hütchenspielern?

Teil 1

In der Hunger-Zeit nach dem zweiten Weltkrieg warb ein geschäftstüchtiger Fleischermeister mit einem besonderen Angebot.

„Billig, billig: Reines Kaninchenfleisch (mit Pferdefleisch gemischt!)“ Im Kleingedruckten stand: „Mischung: 50:50!“. Ein neugieriger Kunde fragte nach, wie denn das mit der 50 : 50 Mischung zu verstehen sei?  Der Meister zögerte ein wenig, bis er schließlich sagte: „Na, ja, ein Kaninchen,  ein Pferd!“

So ähnlich kann man sich die Zusammensetzung des Kombikraftwerks vorstellen, welches das unermüdliche Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES) in Kassel zusammen mit seinen Partnern[1]:  der staunenden Öffentlichkeit kürzlich vorstellte.

Die dazu erstelle Pressemitteilung ist überschrieben mit:

Kombikraftwerk 2 demonstriert: „Sicherer Stromnetzbetrieb bei 100% Erneuerbaren Energien in Zukunft möglich“

Und um die sehr hohen Erwartungen an die Möglichkeiten dieses Projektes auch allen Gläubigen des Einsatzes von „Erneuerbaren“ zu demonstrieren, wurde außerdem ein schöner aufwendiger Film erstellt, der auf Youtube zu sehen ist.

Er hat den verführerischen Titel

Stabiler Strom aus Erneuerbaren Energien“:

Hier das Youtube Video  zum Projekt Kombikraftwerk 2

Als Dokumentarfilm aufgemacht und  mit vielen  Animationen angereichert, welche die schöne neue Welt mit hundert Prozent  Ökostromversorgung  den Zuschauern nahe bringen soll, zeigt er uns anschaulich was -dank Kombikraftwerk-2-Erkenntnissen- zukünftig möglich sein soll.  Nämlich 100 % Stromversorgung aus Ökostrom. Geld für das Projekt ist jedenfalls genug da,  denn es wird – wie anders – vom Bundesministerium für Umwelt mit rd. 1,8 Mio € gefördert. Der Anteil der vielen Projektpartner an der Förderung –allesamt Nutznießer des Geldregens aus der Energiewende- wird leider nicht genannt. Klein wird er jedoch nicht sein. Doch sonst ist von Geld oder gar Kosten samt Vergleichen, wie man dasselbe Ziel mit konventionellen oder mit Kernkraftwerken erreichen kann, mit keinem Wort die Rede.

Was wurde gemacht?

Deswegen ist es nützlich, sich die Fakten anzuschauen, die dem Projekt zugrunde liegen. Im „Hintergrundpapier[2] ist aufgelistet welche Einzel-Kraftwerke zum  „Kombikraftwerk“ zusammengeschlossen wurden. Es handelt sich um zwei brandenburgische „Windparks“, 12 PV Anlagen im Raum Kassel und insgesamt sieben Biomasseanlagen in Hessen und im Saarland. Tabelle 1 zeigt deren Anzahl, Lage und Leistungsdaten

WKA Ort Anzahl

Anlagen

Nennleistung in MW
Brandenburg Jüterbog 18 37,2
Brandenburg Jüterbog 19 39,2
PVA Raum Kassel 12 1
Biomasse Wallerstädten 1 1,2
Mittelstrimmig 2 0,5
Zemmer 2 1,4
Heilbachhof 2 0,5
Zusammen 56 81

Tabelle 1: Typ, Ort, Anzahl und Nennleistung der zum Kombikraftwerk 2 zusammengeschalteten Einzelanlagen mit zusammen 81 MW Leistung.

Sofort sticht ins Auge, dass es sich beim Zusammenschluss um eine recht willkürliche Angelegenheit handelt. Auch wenn Deutschland als Ganzes und insbesondere Kassel nicht von der Sonne verwöhnt werden, so ist doch der Anteil an PVA Leistung mit nur 1,2 % der Gesamtleistung extrem gering. Hält doch Deutschland mit rd 40 % der installierten PV Anlagen, deren Nennleistung sich inzwischen zu über 34 GW auftürmen den Weltrekord bei der Solarnutzung.

Ob die geringe Einspeisung für das Gelingen des Versuches erforderlich war oder nicht, wissen wir nicht. Denkbar wäre es jedenfalls. An zweiter Stelle folgen dann, mit ebenfalls geringen 4,44 % der Gesamtleistung, die Biomasseanlagen, während die Windparks, mit rund 94,3 %, dominieren.

Das Tortendiagramm in Abb 1. zeigt die Anteile nochmals grafisch.

Abbildung 1: Verteilung der Nennleistungsanteile beim Feldversuch Kombikraftwerk 2.

Der Feldversuch hatte den  Zweck herauszufinden ob „Erneuerbare“ sich dazu eignen sog. „Regelleistung“ bereit zu stellen. Das ist die Kraftwerksleistung, die zur Grundlast hinzukommen muss, um schwankenden Bedarf und/oder schwankende Einspeisung sekunden- bis minutenschnell auszugleichen. Dabei sind besondere Anforderungen an Frequenz und Phase der so eingespeisten Leistung zu erfüllen.

Auch ohne jeden Versuch dieser Art hätte man vorab feststellen können, dass sich Kraftwerke auf Biomassebasis jederzeit für die Bereitstellung von Regelenergie eignen, denn wie alle thermischen Kraftwerke können sie innerhalb gewisser – wenn auch bei Biomasse besonders enger-Grenzen (siehe Kommentare unten) beliebig herauf- wie auch heruntergefahren werden, d.h. je nach Anweisung des KW-Betreibers mehr oder weniger Leistung ins Netz einspeisen. Komplizierter wird diese Betriebsweise bei Windkraft- oder Solaranlagen. Aber auch diese lassen sich, wenn auch in wesentlich engeren Grenzen, auf- und abregeln, bspw. durch Verstellen des Anstellwinkels der WKA-Rotorblätter oder durch schrittweises Zu- und Abschalten oder Veränderung des Anstellwinkes einzelner PVA Felder.  Mit der sehr wichtigen Einschränkung, dass dies nur möglich ist, wenn genügend Wind oder Sonne vorhanden sind. Also immer von Wind und Sonne abhängig.

Da nun die beiden letzteren generell immer von der Verfügbarkeit von Wind und Sonne abhängen, ist ihr Einsatz als Kraftwerke auch und besonders für Regelleistung – von wenigen Ausnahmen mal abgesehen – im Normalfall dem Willen der Götter unterworfen. Deswegen setzt man sie bisher nicht für deren Erbringen ein.

Der Versuch sollte nun demonstrieren, dass sich alle beteiligten Kraftwerkstypen zusammen als Regelleistungslieferant eignen würden. Dabei wurde bereits in der Kurzbeschreibung ausführlich dargelegt und auch im Film entsprechend gewürdigt, dass man später auch Speicher und Backup-Kraftwerke einbeziehen würde. Das ist in diesem Falle jedoch – mangels Speichern und Backup-Kraftwerken- nicht geschehen. Denn als Backup Kraftwerke gerade mal für 4,44 % der Leistung gut, kann man das Faulgas-Kraftwerk wohl nicht ansehen.

Was wurde versprochen?

Das Projekt wurde zentral vom Fraunhofer Insititut für Windenergie & Energiesystemtechnik (IWES) in Kassel entworfen und geleitet und im Versuch von dort im 3-Sekunden-Takt gesteuert. Der Versuch selbst dauerte insgesamt 20 Minuten und wurde schon nach dieser kurzen Zeit von der Projektleitung als Erfolg gewertet. Dabei gelang es lt. Versuchsleitung, die Netz-Frequenz mittels passender Steuerung der einzelnen Komponenten innerhalb einer Bandbreite von ± 0,03 Hz bezogen auf 50 Hz zu halten. Vollmundig sagte der Versuchsleiter Kurt Rohrig anschließend (Minute 7:20 ff)

„Unser Versuch hat gezeigt, dass die Erneuerbaren nicht nur genügend Energie liefern, sondern auch für eine stabile Spannung und eine stabile Frequenz sorgen“.

Wenn das so sein sollte, dann bleibt zunächst die Frage offen, was ein 20 minütiger Feldtest, aufs genaueste vorbereitet und ausgetrimmt, eigentlich beweisen soll? Hätte ein solcher als Nachweis für eine 100 % Versorgung aus „Erneuerbaren“ angekündigter „Feldversuch“, nicht über einen wesentlich längeren Zeitraum – mindestens 7 Tage á 24 Stunden, besser noch – weil wirklichkeitsnäher- – mehrere Monate mit Stark- und Schwachwindtagen sowie mit Sommer und Wintersonne laufen müssen?

Offen  bleibt auch die Frage, warum man schon bei einem so positiven Ergebnis, (wenn auch nur im extrem kurzem Test) die Regeln für die Anlieferung von Regelleistung  zugunsten der „Erneuerbaren“ ändern soll. Denn dies wurde im Hintergrundpapier eindringlich gefordert. Da bahnt sich offensichtlich, parallel zur Vorrangeinspeisung, der Wunsch nach Sonderbehandlung an. Aber diese Forderungen sollen hier jetzt nicht betrachtet werden.

Was wurde erreicht?

Wie der Film exemplarisch zeigt, wurde erreicht, dass die Frequenz unter kontrollierten Bedingungen innerhalb von ± 0,03 Hz ausgeregelt wurde. Dazu waren alle Teilkomponenten lieferbereit und zuvor entsprechend abgeregelt, um im Bedarfsfall ihre Leistung erhöhen oder im umgekehrten Fall drosseln zu können.

Weder genannt noch gezeigt wurden die Produktionsbedingungen insbesondere für die dominierenden Windkraftanlagen, die bis zu 94 % der Leistung betragen könnten. Auch wurde die Leistungsabgabe der PVA Anlage  in Kassel nicht erwähnt, vielleicht weil diese mit nur max. 1,2 % zu Gesamtleistung beigetragen hätte.

Ebensowenig wurde gezeigt, wie das System reagiert, wenn die Netzfrequenz sich bis zu ± 0,2 Hz ändert. Das ist  nämlich der Bereich, den normale Kraftwerke ausregeln müssen und können.

Somit ist die Schlussfolgerung des Projektleiters Rohrig reichlich kühn, wenn er diesen Mikroversuch, der unter engsten, streng kontrollierten Bedingungen durchgeführt wurde, als Beleg für das Vorhandensein  grundlegender Eigenschaften ansah, wie man sie aus guten Gründen an eine funktionierende qualitativ hochwertige Stromversorgung stellen muss.  Diesen Beweis erbrachte der Versuch nicht.

Was wurde nicht erreicht?

Nirgendwo -weder im ausführlichen Hintergrundpapier noch im Film – wurden die Randbedingungen erläutert, unter denen der Versuch durchgeführt wurde. Die Beschränkung auf die Ausregelung von mageren ± 0,03 Hz, also einem knappen Sechstel der zulässigen Abweichung, legt den Verdacht nahe, dass die Versuchsanforderungen extrem leicht waren. Auch gab es keine Informationen über Laständerungen o. ä.

Unterstellt man, wie im Film und im Hintergrundpapier behauptet. dass dieser Feldversuch ein gelungenes Beispiel für das Funktionieren der Versorgung eines Industrielandes wie Deutschland mit 100 % Strom aus „Erneuerbaren“ sein soll, dann erhebt sich sofort als weitere Frage, wie denn die Stromversorgung gesichert werden soll, wenn weder die Sonne scheint noch der Wind weht. Dann nützt weder ein Aufregeln der Windparks noch eine künstliche Beleuchtung der dunklen PVA Anlagen. Denn von nichts kommt nichts! Was verfügbar bleibt, ist die Energiemenge, die die Biomassekraftwerke (vulgo Faulgas-Generatoren) abliefern können. D.h. die maximal sicher abrufbare Regel-Leistung ist nur diejenige der paar Faulgasgeneratoren. Alles andere ist Beiwerk oder Spitzenlastausgleich für den eher seltenen Fall, dass Nachfrage und Angebot übereinstimmen.

Abbildung 2: Maximal abgebbare Energiemenge je Kraftwerkstyp beim Feldversuch Kombikraftwerk 2

Die Leistung der Biomassekraftwerke und somit der obere Grenzwert an sicher verfügbarer Leistung lag hier bei 3,6 MW oder knapp 5 % der Gesamtleistung. Anders ausgedrückt, dieses Kombikraftwerk kann trotz seiner 81 MW Nennleistung dauerhaft und sicher nur bis zu 3,6 MW aufbringen. Das entspricht einem Verhältnis von 22,5 zu 1 zwischen installierter (und vom deutschen Michel bezahlter) Leistung und der sicher abrufbaren Leistung!

Aufgrund seines vglw. hohen Nutzungsgrades kann dieser Kraftwerkstyp im Durchschnitt zwar bis zu 17 % der Gesamtmenge an elektischer Energie erzeugen, aber eben auch nicht mehr. Die stündlich oder täglich abgebbare Energiemenge wird jedoch durch die maximale Leistung der Biomassegeneratoren[3]  nach oben begrenzt.  Von Speichern, die diese missliche Situation mildern könnten, insbesondere Batterien und/oder Wasserstoff-Methanspeichern, ist im Film zwar die Rede, aber sie wurden weder in den Versuch einbezogen noch sind sie in der Realität – selbst in diesen Minigrößenordungen- verfügbar

Nun wird man sofort einwenden, dass auch im konventionellen Bereich die Kraftwerke nach Grund- Mittel- und Spitzenlastkraftwerken unterschieden werden. Es muss nicht immer die volle Lieferkapazität bereitstehen, weil sich bestimmte Abahmesituationen in Abhängigkeit von  Stunde, Tag und Jahreszeit kurz-, mittel- und langfristig planen lassen. Deshalb lassen sich dafür entsprechende Kraftwerkstypen und deren Leistung unter kosten- und betriebsoptimalen Bedingungen vorhalten. Das hat zusätzlich den Charme, dass auch unvorhergesehene Lastabrufe über die gleichen Kraftwerke abgefangen werden können.

Dieser berechtigte Einwand ist jedoch für die oben gezeigten Situation  nicht stichhaltig. Denn alle konventionellen Kraftwerkstypen sind per se auch zur Erbringung von Grundlast sowie zur Abgabe von Regelenergie fähig. Und damit auch fähig zu jeder gewünschten Zeit, Strom – im Rahmen der jeweiligen Maximalauslegung – in gewünschter Menge, bereitzustellen. Es ist nur eine  Kostenfrage, ob sie für diesen oder jenen Zweck eingesetzt werden oder nicht. Und damit keine Frage, die allein vom Wettergott entschieden wird. Deswegen müssen die Regellast- Kraftwerke auch nur bis zur Abdeckung der Spitzenlast ausgelegt werden und nicht für ein Vielfaches davon. Einer solchen, eigentlich selbstverständlichen, Anforderung genügen aber weder PVA noch Windkraftwerke. Denn die liefern ihre Leistung nur an wenigen Stunden des Tages und auch nur dann, wenn Wind oder Sonne es erlauben. Häufiger vorhersagbar, aber sehr oft eben auch nicht.

Also bleibt festzuhalten, dass uns die Versuchsleitung allen Ernstes weismachen will, eine Überkapazität von 23:1 im Kraftwerkspark wäre ein probates Mittel um 100 % „Erneuerbare“ einzusetzen.

Ende Teil 1


[1] Diese sind: CUBE – Engineering GmbH, Deutscher Wetterdienst, ENERCON GmbH, ÖKOBiT GmbH, Siemens AG, SMA Solar Technology AG, SolarWorld AG, Agentur für Erneuerbare Energien und Institut für Elektrische Energieversorgung an der Universität Hannover, Quelle http://www.kombikraftwerk.de/kontakt/impressum.html

[2] hier Kombikraftwerk Hintergrundpapier

[3] In der Realität ist sie auch beim Biomassekraftwerk noch geringer weil diverse Einschränkungen nur eine Nutzung von max. 75 % übers Jahr gestatten




Aus dem deutschen Stromparadies in den Blackout!

Ohne Feuer, Strom und Treibstoffe müssten wir alle noch unter den Bedingungen der frühen Steinzeit leben in Höhlen oder in Baumhütten ohne Licht und ohne ein wärmendes Feuer. Nur mit Hilfe der Energie können wir auch den Winter ertragen, haben jederzeit Licht, können in einer Stunde Strecken überwinden, für die früher mehr als eine Woche gebraucht wurden. Mit Strom wird heute Energie an fast jeden beliebigen Ort geliefert. Ohne Strom gibt es keinen Kühlschrank, keine Spülmaschine, keine Waschmaschine, kein Radio und Fernsehen, kein Internet und I-Phone, keine Zentralheizung, kein fließendes Wasser und keine Abwasserbeseitigung. Für uns ist Strom heute ein nicht verzichtbarer Grundbedarf, genau wie das tägliche Brot. Mit der „Energiewende“ droht uns aber der Black Out.

Die Leistung des Menschen

Der Mensch ist ein schwaches Lebewesen. Seine Leistungsfähigkeit liegt bei lächerlichen 100 Watt (W). Pferde leisten sieben- bis achtmal mehr. Sie brauchen aber auch mehr Nahrung. Wenn ein Mensch jeden Tag des Jahres 10 Stunden arbeitet, hat er eine Arbeit (mechanische Energie) von 350 Kilowattstunden (kWh) erbracht. In Europa liegt heute der Primär-Energieverbrauch bei 50.000 kWh pro Einwohner und Jahr. Das heißt, jeder Europäer nutzt die Arbeit von rund 150 Menschen. Wenn man berücksichtigt, dass ein Großteil der Primärenergie als Wärme genutzt oder verloren geht, nutzt jeder von uns immer noch die Arbeitskraft von 60 Menschen. Vor 200 Jahren hatten selbst Fürsten und Könige häufig nicht so viele Diener.

Heute geht es uns allen daher in vieler Hinsicht besser als den Königen vor 200 Jahren.

Wir reisen zum Beispiel viel schneller und bequemer als damals zu Pferd oder in Kutschen. Nachrichten, die früher erst nach Monaten eintrafen,  gehen fast kostenlos und sekundenschnell um den Erdball. Die Beispiele kann man beliebig fortsetzen.

Mangel an mechanischer Energie

Das Feuer, die Wärmeenergie, nutzte der Mensch mit der Menschwerdung. (Der Mensch erhebt sich aus der Tierwelt durch die Sprache und die Energienutzung). Er konnte sich Wärmen und Essen bereiten. Auch das Brennen von Ton zu Steinzeug war eine frühe Erfindung. Als mechanische Energie gab es zunächst nur die geringe Arbeitskraft der Menschen. Der Einsatz von Pferden, Eseln und Ochsen war dann eine kleine Verbesserung. Die Erfindung der Wind- und Wassermühlen führte zu einem deutlichen Fortschritt. Die Anlagen waren jedoch ortsgebunden. Mahlgut musste zu den Mühlen gekarrt oder geschleppt werden. Wassermühlen gab es nur an Wasserläufen mit ausreichendem Gefälle. Die Wege dorthin waren oft weit. Die Windmühlen arbeiteten nur, wenn Wind wehte. Das hat sich bis heute nicht geändert.

Trotz dieser Verbesserungen war mechanischer Energie weiter Mangelware. Menschen mussten die meiste Arbeit verrichten. Die Lösung waren Sklaven. Es gab Sklaven auf der ganzen Welt von China über Europa bis nach Mexiko. In Europa hießen die Sklaven Leibeigene oder Untertanen, die zu Arbeitsleistungen für die Herrschaft verpflichtet waren. Viele Kriege wurden geführt, um Sklaven zu gewinnen. Mehr als die Hälfte der Einwohner im antiken Rom waren Sklaven.

Die Sklaverei wurde nicht von Politikern oder durch humane Forderungen abgeschafft. Die Erfindung von James Watt, die Umwandlung von Wärmeenergie in mechanische Energie mit der Dampfmaschine, beendete die Sklaverei. Mechanische Energie wurde durch die Dampfmaschine so billig, dass Sklavenarbeit einfach zu teuer war. Auch die Hungerjahre wurden mit dieser Erfindung besiegt. In Gebieten mit Missernten durch Überschwemmungen, Dürren, Spätfröste oder Insektenplagen hatten die Menschen nicht mehr genug im Winter zu essen. Mit den drei Kilometer pro Stunde langsamen Ochsenkarren konnte aus den angrenzenden Überschussgebieten nicht genug Nahrungsmittel heran geschafft werden. Viele Menschen verhungerten. Mit der Dampfmaschine auf Rädern, der Eisenbahn, war der Transport ausreichender Nahrungsmittel in die Hungergebiete kein Problem mehr.

 

Strom, der universelle Energietransport

Mit dem von Siemens erfundenen elektro-dynamischen Prinzip, dem Generator, konnte mechanische Energie in Strom umgewandelt und mit Drahtleitungen einfach und preiswert zu den Verbrauchern transportiert werden, um dort Licht, Wärme, mechanische Energie oder andere Energieformen zu erzeugen. Strom selbst ist keine Energie, sondern ein Energietransport. Daher lässt sich Strom auch nicht speichern. Er muss zum Zeitpunkt seiner Erzeugung auch verbraucht werden. (Die Speicherkraftwerke speichern mechanische Energie, Wasserstoff ist ein Brennstoff, Warmwasserspeicher speichern Wärmeenergie).

Vor gut 100 Jahren wurden Stromleitungen in die Häuser gelegt. Damit fing ein neues Zeitalter an. Mit einer Schalterdrehung war der Raum sofort erleuchtet. Das langwierige und gefährliche Hantieren mit Kerzen war vorbei. Dieser Luxus kostete richtig Geld. Für eine Kilowattstunde (kWh) musste ein Facharbeiter eine Stunde arbeiten. Die Beleuchtung seiner Wohnung mit 15 Watt Lampen kostete ihm fast einen Monatslohn im Jahr. Doch die Kosten gingen schnell zurück. 1975 war die Kilowattstunde mit 0,9 Minuten eines Facharbeiterlohns am Günstigsten. Doch dann wurden die Abgaben auf Strom erhöht. Die auf Glauben und nicht auf Realitäten beruhenden Maßnahmen gegen den angeblich von Menschen verursachten Klimawandel verteuerten mit der unwirtschaftlichen und unsozialen Energiewende den Strom kräftig weiter. Heute muss ein Facharbeiter wieder 1,5 Minuten für eine kWh arbeiten. Und er braucht wesentlich mehr Strom für die wachsende Zahl der Elektrogeräte.  Die Stromkosten werden damit zu einer immer größeren Belastung. Die Haushalte, die Ihre Stromrechnung nicht mehr bezahlen können, nähern sich der Millionengrenze. Sie erleiden durch die Abschaltung des Stromes unfreiwillig und vorzeitig den Black Out, der uns allen durch die unsinnige Energiewende droht.

Mit Strom beleuchten wir nicht nur unsere Wohnungen. Er wird zum Kochen, Kühlen und Gefrieren genutzt. Er treibt Waschmaschinen und Spülmaschinen und viele Küchengeräte. Radio, Fernsehen und Internet laufen nur mit Strom. Die Zentralheizung wird mit Strom gezündet und gesteuert, das Wasser wird mit Elektropumpen zum Verbraucher gedrückt und das Abwasser zur Kläranlage. Mit Strom können wir Temperaturen bis 5.000 Grad Celsius erzeugen. Wir können damit Schweißen und Löten und viele hochschmelzende Metalle erzeugen. Für uns ist es selbstverständlich, aus einer Steckdose die Arbeitskraft von 20 Menschen problemlos  zu zapfen. 

Wir  können heute auf Strom nicht mehr verzichten, ohne unseren Lebensstandard erheblich einzuschränken. Die vielen elektrischen Küchengeräte und die Kühlketten für Lebensmittel haben zu einer wesentlichen Arbeitsentlastung im Haushalt geführt. Nur so konnte es zu einer Emanzipation der Frauen kommen; denn ohne die zahlreichen elektrischen Hilfsmittel hätte die Hausfrau einen zehnstündigen Arbeitstag, um das Essen für die Familie zu bereiten und das Haus und die Wäsche zu säubern.

Stromverteuerung ist unsozial

Phantasten, wie die Mitglieder des Club of Rome, aber auch viele Politiker in Deutschland, fordern mit unbewiesenen Katastrophenszenarien eine Verringerung des Energieverbrauchs unter dem Deckmantel der Weltklimarettung. Dazu sollen Elektrogeräte mit höherer Effizienz, also geringeren Verlusten dienen. Doch solche Geräte können sich nur Reichere leisten. Die vielen Mitbürger, die gerade ihren Lebensunterhalt bestreiten können, müssen weiter mit ihren billigen Elektrogeräten leben, die viel Strom fressen. Es wird auch nicht über die alternde Bevölkerung nachgedacht, die immer mehr elektrisch angetriebene Hilfsmittel braucht, weil menschliche Hilfe bei der abnehmenden Kinderzahl nicht mehr ausreichend zur Verfügung steht. Wir werden also in Zukunft noch mehr Elektrogeräte betreiben und dafür noch mehr Strom brauchen. Eine Reduzierung des Stromverbrauchs um ein Drittel, wie es von Politikern gefordert wird, ist eine Utopie.

Sozial ist der Abbau der vielen gesetzlichen Abgaben auf den Strom. Dazu gehört die Stromsteuer, die hohen Einspeisevergütungen nach dem Erneuerbaren Energien Gesetz (EEG), die durch den Ökostrom verursachten höheren Netzkosten, die Kosten für Kohlenstoffdioxid (CO2) Zertifikate, die Brennelemente-Steuer der Kernkraftwerke, die Abgabe für die Kraft-Wärmekopplung, die Umlage für abschaltbare Lasten und die Offshore-Umlage. Als Nächstes kommt noch die Bereitstellungsgebühr für Dampfkraftwerke und Gaskraftwerke, die gebraucht werden, wenn der Wind nicht weht und die Sonne nicht scheint. Auf diese staatlich verordneten Kosten kommt noch die Mehrwertsteuer von 19 Prozent, die dem Staat rund 5 Milliarden Euro pro Jahr in die Kassen spült.

„Ohne die staatlich verordneten Abgaben, die mit einer unsinnigen und unbewiesenen Ideologie zur Klimarettung begründet werden, kostet unser Strom weniger als die Hälfte der derzeitigen Preise und er bleibt zuverlässig.“ sagt Heinrich Duepmann, der Vorsitzende der Stromverbraucherschutz-Bewegung NAEB e.V. „NAEB fordert daher die sofortige Abschaffung des EEG und die Reduzierung der Mehrwertsteuer auf 7 Prozent, die auch sonst auf alle Grundbedürfnisse gezahlt wird.“

www.naeb.info

Übernommen von mmnews




Im Takt der AMO und der NAO (3): Das Häufigkeitsverhalten der Großwetterlagen und dessen Auswirkungen auf die Deutschland- Temperaturen

Bild rechts: Mehr Dürren und mehr Hochwasser- stimmen diese Behauptungen? Fotos: Stefan Kämpfe

Die Analyse der langzeitlichen Häufigkeitsentwicklung der Großwetterlagen ersetzt zwar kein exakt erhobenes Datenmaterial wie Niederschlags-, Wind- und Temperaturmessungen, liefert aber wichtige Hinweise, ob sich durch eine Zu- oder Abnahme einzelner Großwetterlagen und deren Cluster bestimmte Wetterereignisse häufen könnten. Um den Umfang dieser Arbeit überschaubar zu halten, sollen einmal die beliebtesten, gern auch von den Medien und der Allgemeinheit geäußerten Thesen überprüft werden. Hierzu ist es zeitweise erforderlich, die Jahresebene zu verlassen und sich auf die Ebene der Jahreszeiten zu  begeben, so auch gleich bei der ersten Behauptung.

„Die Sommer werden in Deutschland immer heißer und trockener.“

Ob ein Sommer (der Meteorologische, also Juni bis August) trocken- warm oder eher feucht- kühl ausfällt, entscheiden die vorherrschenden Großwetterlagen. Trocken- warmes Hochdruckwetter beinhaltet das Cluster „Kontinentale Hochs“, das sind Großwetterlagen, bei denen überwiegend Luftmassen kontinentaler Prägung nach Deutschland gelangen. Feucht- kühles Wetter umfasst das Cluster „Sommermonsun“, das sind wolkenreiche West- bis Nordwest- oder Nordlagen mit überwiegend Meeresluftmassen, die den Temperaturausgleich zwischen dem sommerwarmen Festland und dem kühleren Meer herstellen (siehe Teil 1, Tabelle der Wetterlagen). Der Begriff „Sommermonsun“ wurde unter anderem von KOCH (1953) geprägt. Natürlich hat der mitteleuropäische Sommermonsun keinesfalls die Intensität, Bedeutung und die Beständigkeit der asiatischen Monsune, außerdem ist sein Wirkeffekt auf die erweiterte Grenzschicht bis maximal 2500 Meter Höhe beschränkt,  aber er bewirkt doch, dass die in Mitteleuropa meist westliche Strömung im Hochsommer etwas auf Nordwest dreht. Wir sehen, wie sich die Häufigkeit dieser sehr gegensätzlichen Cluster im Meteorologischen Sommer verändert hat (Zur Orientierung wird auch stets wieder die AMO bei diesen Gleitmitteln gezeigt):

Abb. 1: Bis in die 1970er Jahre nahm die Häufigkeit der kühlende Sommermonsunlagen (Blau) zwar deutlich ab; wärmende Kontinentalhochlagen (Dunkelgelb) nahmen hingegen bis Ende der 1990er Jahre nur leicht  zu; danach jedoch wieder ab.

Und noch klarer wird das bisherige Ausbleiben der gehäuft trocken- warmen Sommer nach Betrachtung der folgenden Abbildung:

Abb. 2: Bei dem deutlichen Anstieg der oft Niederschläge bringenden Z- Lagen und dem (folgerichtigen) Rückgang der A- Lagen ist bislang keine eindeutige Änderung des Klimas in Deutschland hin zu trockeneren, heißeren Sommern zu erkennen. Die stärksten Zunahmen (lineare Regression) waren bei SWZ (leicht erwärmend, +7 Tage/Sommer), TRM (kühlend, + 6 Tage) und TRW (leicht erwärmend, +6 Tage) zu beobachten.

Der angekündigte Klimawandel hin zu immer trockeneren, heißeren Sommern lässt sich am Verhalten der meisten dafür in Frage kommenden Wetterlagen bislang nicht eindeutig erkennen. Allenfalls die Lagen mit südwestlicher bis südlicher Strömungskomponente, die im Sommer, wie auch im Frühling, Herbst sowie im Jahresmittel (siehe Teil 2, Abb. 5), häufiger wurden, können einen gewissen Beitrag zur sommerlichen Erwärmung geleistet haben; doch diese bringen oft Niederschläge. Zumindest an der Station Erfurt- Bindersleben haben außerdem die Sommerniederschläge seit 1979 nach eigenen Untersuchungen zu- und nicht abgenommen; besonders im Juli und August. Untersuchungen von SCHÖNWIESE/TRÖMEL zeigen, dass die Sommerniederschläge in Deutschland zwischen 1901 und 2000 zwar um 2,7% geringfügig abnahmen; bei Betrachtung des Zeitraumes 1981 bis 2010 zeigte sich jedoch eine Zunahme um gut 12%. Außerdem ist zu beachten, dass die Südwestlagen, welche im Sommer den Hauptanteil bei der Zunahme aller Wetterlagen mit Südkomponente ausmachten, in dieser Jahreszeit am wenigsten erwärmend wirken. Dass die Sommer im Verlauf der vergangenen 130 Jahre etwas wärmer wurden, hat zwei wesentliche andere Ursachen, den zunehmenden, oftmals auch flächenhaften Wärmeinseleffekt und eine erhöhte Sonnenscheindauer, welche besonders in den vergangenen 30 Jahren zu beobachten war und von der am Ende des 20. Jahrhunderts hohen Sonnenaktivität sowie durch Luftreinhaltemaßnahmen verursacht wurde (KÄMPFE, LEISTENSCHNEIDER, KOWATSCH, 2012, 2013; MALBERG, 2009; WEHRY, 2009; WEHRY, MYRCIK, 2006). Die folgende Abbildung belegt eindrucksvoll, wie stark der Einfluss der Sonnenscheindauer auf die sommerlichen Lufttemperaturen zumindest während der vergangenen 120 Jahre war:

Abb. 3: Die sommerliche Sonnenscheindauer beeinflusste die Variabilität der Sommertemperaturen in Potsdam mit 62% sehr stark. Dieses Ergebnis ist nicht auf ganz Deutschland übertragbar- dennoch zeigt es, dass es wohl nicht die geänderten Häufigkeitsverhältnisse der Großwetterlagen waren, welche den leichten Anstieg der sommerlichen Lufttemperaturen vorrangig verursachten. Quelle des Datenmaterials: PIK

Außerdem nahm die Sonnenscheindauer im Sommer in Potsdam insgesamt leicht zu:


Abb. 4: Man erkennt eine leichte Zunahme der Sonnenscheindauer um insgesamt etwa eine halbe Stunde pro Sommertag; außerdem gab es leichte periodische Schwankungen. Quelle des Datenmaterials: PIK

Und auch die Intensität der Globalstrahlung, welche leider in Potsdam erst seit 1937 gemessen wird, zeigt eine leichte sommerliche Zunahme:

Abb. 5: Auch die erwärmend wirkende Globalstrahlung (gesamte Einstrahlung) nahm im Sommer leicht zu- sicher auch durch Luftreinhaltemaßnahmen begünstigt. Quelle des Datenmaterials: PIK

Zahlreiche Untersuchungen, Arbeiten und Indizien belegen die Zusammenhänge zwischen saubererer Luft, aktiverer Sonne, weniger Nebel, weniger (tiefer) Bewölkung, mehr Sonnenschein und höheren Temperaturen auch in den übrigen Jahreszeiten in Deutschland sowie teilweise global (CALDER/SVENSMARK (2007); CLIMATE4YOU; HOFFMANN/MÜLLER, 1994; KÄMPFE, 1997, 1999, KÄMPFE/LEISTENSCHNEIDER/KOWATSCH, 2012, 2013; LEISTENSCHNEIDER, 2011; NABEL; PELZ, 1993, 1994; WEHRY, 2009; WEHRY/MYRCIK, 2006). Der Juli 2013, in diesen Untersuchungen noch gar nicht enthalten, bestätigte den dominanten Einfluss der Sonnenscheindauer erneut eindrucksvoll, denn trotz vorherrschender Nordwest-, Nord- und Nordostströmung heizte die in vielen Regionen mit weit über 250 Monatsstunden deutlich übernormal scheinende Sonne die Luftmassen subpolarer Herkunft stark auf; nur die kurzen Sommernächte fielen mit Minima teilweise um die 10°C empfindlich kühl aus. Erst im letzten Monatsfünftel bescherten uns dann feucht- heiße, wolkenreichere Luftmassen aus dem Süden auch sehr warme Nächte. Die leichte Zunahme der sommerlichen (und auch der jährlichen) Temperaturen hatte bislang auch keine wesentlichen Auswirkungen auf die Pflanzenwelt. Ein zeitweise häufigeres Auftreten Wärme ertragender Arten oder von solchen mit später Blüte und Fruchtreife beziehungsweise langer Vegetationszeit (Kleines Liebesgras, Hirse- Arten, Ranken-Platterbse, Runder Lauch, Wermut, Beifuß- Ambrosie, verwilderte Astern, Weißer Stechapfel, Einjährige Sonnenblume, Gefleckter Schierling, aber auch manche Orchideen und Frühblüher) war um Weimar zu beobachten, aber nicht von Dauer (KÄMPFE, 2009). Besonders die sehr wärmebedürftige Ranken- Platterbse, aber auch der Runde Lauch und der Wermut, sind in den letzten 5 Jahren um Weimar wieder seltener geworden.

„Die Winter werden immer milder. Schon bald ist Wintersport nur noch in den höheren Lagen der Alpen möglich, und Schnee kennen die meisten Kinder nur noch von Fotos oder den Erzählungen der Großeltern. Außerdem gibt es immer häufiger schwere Winterstürme.“

Dieser weit verbreitete Mythos entstammt den späten 1980er und den frühen 1990er Jahren, als es eine Serie ungewöhnlich milder und schneearmer Winter zwischen 1987/88 und 1994/95 in Deutschland gab. Warum das so war, sehen wir in der folgenden Darstellung (bei allen Grafiken, die den Winter, also Dez bis Feb., betreffen, ist als schwarze Kurve der saisonale NAO- Index mit abgebildet, welcher im Winter einen gewissen Einfluss auf die Wintermitteltemperaturen in Deutschland mit r = 0,48 im Untersuchungszeitraum hatte):

Abb. 6: Lagen mit Westanteil (Rotviolett), das sind solche, die im Winter meist sehr deutlich erwärmend wirken, wurden bis etwa 1990 häufiger; danach aber wieder seltener. Deutlich ist ein gewisser Gleichklang mit der Nordatlantischen Oszillation (NAO- Index, Schwarz) und ein inverser Verlauf zur AMO erkennbar.

Betrachtet man nur den GWT West (Zonale Lagen), und „zerlegt“ diesen in seine zwei Bestandteile, die deutlich erwärmend wirkenden WA- und WZ- Lagen sowie die kaum erwärmend wirkenden („gestörten“) Lagen WS und WW,  so ergibt sich folgendes Bild:

Abb. 7: „Westlagen im engeren Sinne“, die überwiegend deutlich erwärmend wirken (WA + WZ, Dunkelviolett) schwankten im Winter bezüglich ihrer Häufigkeit in einem etwa 30- bis 40- jährigen Rhythmus; am Beginn der 1990er hatten sie ein auffälliges Häufigkeitsmaximum und nahmen seitdem auf das Niveau der 1890er Jahre ab. Man achte wiederum auf die Ähnlichkeit zum Verlauf des NAO- Index und den inversen Verlauf zur AMO. Die „gestörten“ Westlagen (WS und WW, hell blauviolett) sind insgesamt seltener, sie verhalten sich außerdem invers zu den Westlagen im engeren Sinne.  Bei gesamtjährlicher Betrachtung zeigt sich ein ähnliches Verhalten der Westlagen- siehe Teil 2, Abb. 6.

Die vorhergesagte Häufung „immer milderer Winter“ ist ausgeblieben, denn die dafür verantwortlichen Wetterlagen sind in den ersten 13 Wintern des 21. Jahrhunderts deutlich seltener geworden, was sich auch schon in den dämpfend wirkenden Gleitmitteln zeigt. Vielmehr unterliegt die Häufigkeit der „Westwetterlagen“ im Winter periodischen Schwankungen, die unter anderem von der NAO und der AMO beeinflusst werden. Und genau diese Tatsache ist auch dem Deutschen Wetterdienst (DWD) seit mehr als 10 Jahren bekannt. Der DWD- Autor P. BISSOLLI schrieb in seiner Arbeit „Kommen Westlagen häufiger vor als früher?“, veröffentlicht im Klimastatusbericht 1999, folgendes: „… . Dies bedeutet, dass eine Häufung von Westwetterlagen, die zweifellos während der letzten Jahre stattgefunden hat, zwar deutliche Auswirkungen auf die Wintermitteltemperaturen haben kann, aber eine einfache Kausalkette anthropogener Treibhauseffekt- mehr Westlagen- mildere Winter lässt sich dennoch nicht ohne weiteres aufstellen. …“ Wie sich nun zeigt, eine weise Formulierung, vermutlich hat er mit dem Rückgang der Westlagenhäufigkeit bereits gerechnet. Schade, dass solcherlei Erkenntnisse nie den Weg über die Medien in die breite Öffentlichkeit finden. Und wie sieht es mit der „katastrophalen Häufung der Winterstürme“ aus? Eine Voruntersuchung im Rahmen dieser Arbeit ergab, dass, bis auf ganz wenige Ausnahmen, schwere Winterstürme von 3 Großwetterlagen (WZ, NWZ, mitunter auch SWZ) verursacht werden, die im Cluster „Atlantische Tiefs“ zusammengefasst sind:

Abb. 8: Die bis zum Ende des 20. Jahrhunderts währende starke Häufigkeitszunahme Atlantischer Tiefs (Grauviolett, unterste Kurve) erklärt, warum es in der 2. Hälfte des 20. Jahrhunderts, besonders aber in den 1990er Jahren, gehäuft schwere Winterstürme in Deutschland gab, doch auch hier zeigt sich die Abnahme im frühen 21. Jahrhundert.

Anhand langjähriger Sturmstatistiken, darunter der Anzahl nordatlantischer Sturmtiefs zwischen November und März und der Häufigkeit der Sturmfluten in Hamburg, wies PULS (2009) nach, dass die prognostizierte Zunahme von Stürmen ausgeblieben ist. Mit der Abnahme der Westwetterlagen wurden Meridional- Lagen seit Beginn des 21. Jahrhunderts wieder deutlich häufiger. Betrachtet man den Gesamtzeitraum 1881/82 bis 2012/13 unter Einbeziehung des Wintermittels der Lufttemperaturen in Deutschland, so ergibt sich folgendes Bild:

Abb. 9: Das Deutschland- Wintermittel der Lufttemperaturen (°C Deutschland, hellblau) ähnelt in seinem Verlauf dem NAO- Index und der Häufigkeit der am stärksten erwärmend wirkenden Westlagen im engeren Sinne (WA + WZ), während zur AMO ein eher inverser Verlauf besteht.

Man beachte den starken Rückgang der Westlagen während der vergangenen knapp 2 Jahrzehnte; außerdem ist das Wintermittel der Lufttemperaturen- trotz eines (wie lange noch?) positiven Lineartrends-  wieder genau auf dem Niveau der 1880er Jahre angekommen- die vorhergesagten immer milderen, stürmischeren Winter finden in der Realität nicht statt. Und weil sich diese unumstößliche Tatsache nicht verheimlichen lässt- die Auswirkungen von Schnee und Kälte bekam in den letzten „Horror- Wintern“ nahezu jeder auf die ein oder andere Art und Weise zu spüren- wurde gleich die nächste Behauptung in die Welt gesetzt:

„Die Winter werden in Deutschland trotz der Klimaerwärmung kälter, weil das Arktische Meereis schmilzt. Dadurch bilden sich im Norden mehr winterliche Hochs, die eisige Nord- bis Ostluft nach Deutschland lenken.“

Zur Beurteilung dieses Mythos ist es wichtig zu wissen, dass

1. Eine exakte, kontinuierliche Beobachtung und Quantifizierung der flächen- und mengenmäßigen Ausdehnung des Meereises erst seit den späten 1970er Jahren (Aufkommen und stetige Verbesserung der Satellitentechnik) möglich ist, so dass langfristige, über deutlich mehr als 4 Jahrzehnte reichende, für diese Arbeit verwendbare Datensätze fehlen.

2. Beobachtungen aus früheren Jahrhunderten und Jahrzehnten zeigen, dass es immer wieder rhythmische Phasen mit Vorrücken und Zurückweichen der Eisfelder gab (Quelle: KALTESONNE.DE, 2012). Mitunter konnten Nordost- und Nordwestpassage problemlos befahren werden, dann gab es wieder Jahre oder gar Jahrzehnte, in denen diese völlig unpassierbar waren.

3. Letztmalig wurde ein den heutigen Dimensionen möglicherweise ähnelnder Rückgang der Eisfelder und Arktis- Gletscher in den 1930er bis 1940er Jahren beobachtet (Quelle: FOTOS AUS DEN 30er JAHREN…, 2012). Dieser fällt (ähnlich wie das heutige Eisminimum) in die Positiv- Phase der AMO, weil die AMO über den Golfstrom Wärme und Salz in die arktischen Gewässer einträgt, so dass ein Zusammenhang zwischen der AMO und der Eisausdehnung besteht (Quelle: WIKIPEDIA). Ein mögliches Indiz ist (die hier schon dargestellte) tendenzielle Häufigkeitsabnahme der Westlagen in AMO- Positivphasen, weil dann der vermehrte Wärmeeintrag in die Arktis das Temperaturgefälle zwischen Süd und Nord verringert.  Es ist aber nicht ausgeschlossen, dass der jüngste Eisrückgang auch noch andere Ursachen haben kann.

Nach diesen Vorbetrachtungen wollen wir uns nun das Verhalten des Clusters „Wintermonsun“ (quasi das Gegenteil des Sommermonsuns, der Wind weht jetzt vom kalten Festland auf die wärmere See), ansehen:

Abb. 10: Die beiden bläulichen Kurven zeigen den Häufigkeitsverlauf aller meist sehr kalten Großwetterlagen mit vorwiegend nördlichem bis östlichem Wind in der untersten Troposphäre im Winter über Mitteleuropa. Da strittig ist, ob die Nordlagen im engsten Sinne (NA + NZ) hinzugehören, weil sie erstens häufig eine bodennahe nordwestliche Strömung aufweisen und sie zweitens durch den Weg der Luftmassen über die relativ warme Ost- und Nordsee meist nur wenig kühlen, sind sie in der untersten (Blauen) Kurve nicht enthalten- aber im Häufigkeitsverhalten zeigen sich kaum Unterschiede. Alle diese kalten Wetterlagen werden positiv von der AMO beeinflusst (in deren Warmphasen sind sie häufiger), und sie verhalten sich konträr zum NAO- Index. Aber trotz der synchronen Schwingung mit der AMO und der momentan geringen Arktiseisausdehnung, sind diese Wetterlagen heute deutlich seltener, als in den 1880er Jahren oder zur Mitte des 20. Jahrhunderts.

Es zeigt sich also, dass auch dieser Mythos auf tönernen Füßen steht- trotz der heute etwas höheren Wassertemperaturen und der geringeren Eisausdehnung in der Arktis sind zu Kälte neigende winterliche Großwetterlagen heute seltener, als zu den beiden letzten AMO- Positivphasen des späten 19. Jahrhunderts und der 1930er bis zu den frühen 1960er Jahren. Und um jeden Zweifel auszuräumen, das Wetterlagen- Cluster sei so geschickt gewählt, dass die wirklich zu extremster Winterkälte neigenden Lagen, die berühmt- berüchtigten Skandinavien- Hochs, nicht mehr zur Geltung kämen, hier zur Entkräftung aller Zweifel deren Cluster „Skandinavien- Hochs“ (Ostlagen im engeren Sinne):


Abb. 11: Auch wenn man nur die Skandinavien- Hochs (olivgrün) als „Ostlagen im engeren Sinne“ betrachtet- sie unterscheiden sich vom „Wintermonsun“ nur durch ihre markante Häufung in den 1940er Jahren (strenge Kriegs- und Nachkriegswinter).

Nun muss aber noch die Frage geklärt werden, warum die Winter im frühen 21. Jahrhundert bislang wieder etwas kälter wurden, obwohl in den Abb. 10 und 11 bisher kein wesentlicher Häufigkeitsanstieg der sehr winterkalten Lagen am Ende des Untersuchungszeitraums erkennbar wird. Die folgende Abbildung zeigt die Ursachen dafür:

Abb. 12: Ab etwa der Mitte der 1990er Jahre häuften sich Lagen mit Nordanteil (Blau), etwas später auch Meridionale Lagen (Dunkelgrau); Zonale Lagen (Großwettertyp West, Grauviolett) hingegen nahmen ab. Zwecks Übersichtlichkeit musste hier auf die Darstellung des winterlichen NAO- Index verzichtet werden.

Im Cluster „Meridionale Lagen“ sind auch alle Südlagen enthalten, die im Winter aber kaum häufiger wurden und meist auch nicht erwärmend wirken, dazu sämtliche Ost- und Nordlagen. Das Cluster „Nordanteil“ beinhaltet alle Nord- und Nordostlagen (insgesamt 8) sowie zusätzlich die beiden Nordwestlagen. Eine genauere Prüfung ergab, dass die Großwetterlagen TRM und NWZ deutlich, NZ, HNZ und HB etwas häufiger wurden, während die beiden Nordostlagen sowie NWA deutlich seltener wurden und sich die Häufigkeiten bei NA und HNA kaum änderten. Die häufiger gewordenen Lagen zeichnen sich im Langjährigen Temperaturmittel meist durch normale bis leicht unternormale Wintertemperaturen mit Tagesmitteln zwischen minus 2 und +2°C aus; in einzelnen Fällen oder an einzelnen Tagen können sie deutlich zu mild, mitunter auch deutlich zu kalt, sein. Und weil die Westlagen insgesamt seltener wurden, und das auch noch ausschließlich auf Kosten der deutlich wärmenden WA- und WZ- Lagen (Abb. 7 und 9), mussten die Wintertemperaturen in den letzten Jahren wieder etwas fallen.

Als letzter Mythos soll noch ein Blick auf die angeblich „immer häufiger auftretenden Hochwasserlagen“ geworfen werden. Im Rahmen der Winterbetrachtung hatten wir gerade schon gesehen, dass Westwetterlagen, welche besonders in Westdeutschland (Rhein und Nebenflüsse) die berüchtigten Winterhochwasser verursachen, einer Rhythmik unterliegen und keinen dauerhaften Trend zur Häufigkeitszunahme zeigen. Bleiben die Wetterlagen mit Potential zu 5b- Charakter, das sind meist Lagen mit kalter bodennaher Nordwest-, Nord- bis Ostströmung, während in der Höhe feucht- warme Luftmassen mitunter aus Ost, meist aber Südost, Süd oder Südwest, aufgleiten. Diese können ganzjährig Hochwasser besonders in Ost- und Süddeutschland verursachen, wobei aber die gesamte Variationsbreite von nur ein paar Regentropfen oder Schneeflocken bis hin zu (glücklicherweise seltenen) schwersten Unwettern möglich ist, was ihre Beurteilung erschwert. Dass es nur ein gutes Jahrzehnt nach dem August- Hochwasser von 2002 erneut zu schwersten Überflutungen in Ostdeutschland kam (Mai/Juni 2013), löste natürlich Befürchtungen aus, die betreffenden Wetterlagen mit 5b- Charakter könnten sich massiv häufen; was aber sagen uns die Daten?

 

Abb. 13: Mehr Lagen mit Potential für Starkniederschläge in Ost- und Süddeutschland- Mitnichten! Zwar nahmen 5b- artige Lagen (Dunkelblau) seit ihrem Minimum um 1990 wieder leicht zu- doch auch ihr Häufigkeitsverhalten unterliegt einer gewissen Rhythmik- ein eindeutiger Trend zur dauerhaften Häufung fehlt; und in den 1880er und 1970er Jahren waren sie häufiger als heute.

Auch hier muss angemerkt werden, dass sich die Häufigkeitsverhältnisse innerhalb des Clusters zugunsten der TRM- Lagen verschoben haben. Etwas öfter traten in jüngster Vergangenheit auch HFZ, HNFZ und HNZ auf, während NZ, NEZ und TM deutlich seltener und SEZ in fast unveränderter Häufigkeit zu beobachten waren. Wesentliche Rückschlüsse auf ein erhöhtes Unwetterpotential lassen sich daraus aber schon deshalb nicht ableiten, weil die meisten dieser Lagen erstens relativ selten vorkommen und sie zweitens in ihren räumlichen Auswirkungen (es können nur sehr kleine Areale, mitunter jedoch ganze Landstriche von den Überschwemmungen betroffen sein) stark variieren. Ob Hochwasser oder andere witterungsbedingte Katastrophen überhaupt als solche empfunden und wahrgenommen werden, hängt auch sehr stark von den sozial- ökonomischen, politischen und gesellschaftlichen Rahmenbedingungen ab. Im Amazonasbecken kommen die Ureinwohner mit jährlich wiederkehrenden Überflutungen von 10 bis 15 Metern Höhe problemlos zurecht. Für hunderte Millionen Menschen in Südasien sind die von den jährlich wiederkehrenden Monsunregenfällen verursachten Hochwasser ebenfalls Alltag. Der Umwelt- und Hochwasserschutz in Deutschland ist jedoch in sich widersprüchlich. Einerseits wird dem Naturschutz große Aufmerksamkeit gewidmet. Auch deshalb wurden- trotz der Beteuerungen nach der Flutkatastrophe von 2002- viele Dammbauprojekte verzögert oder verhindert, obwohl sich begrünte Dämme aus Erde meist problemlos in die Landschaft einfügen beziehungsweise der Pflanzen- und Tierwelt kaum schaden. Andererseits werden selbst in einem Kleinstaat wie Thüringen pro Tag etwa 3 Hektar Fläche versiegelt, so dass die Pufferwirkung der natürlich gewachsenen Böden als Wasserspeicher weiter geschwächt wird.

Zusammenfassung und Ausblick

Im Rahmen dieser Arbeit konnte gezeigt werden, dass…

1. …die Deutschland- Temperaturen von der AMO und der Häufigkeit bestimmter Wetterlagen mit beeinflusst werden, wobei die Zusammenhänge im Jahresmittel nur gering bis mäßig sind. Im Winter üben jedoch die meisten Wetterlagen mit westlicher Strömung und solche mit östlicher Strömung einen sogar dominanten Einfluss auf die Deutschland- Temperaturen aus. Dies gilt außerdem für die einzelnen Wintermonate sowie für einzelne Sommermonate, jedoch nur für das Cluster „Kontinentale Hochdrucklagen“. Ansonsten vermag die Länge und Intensität der Sonnenscheindauer in der strahlungsreicheren Jahreszeit luftmassenbedingte Unterschiede, welche von den verschiedenen Großwetterlagen und deren Häufigkeitsverteilung verursacht werden, teilweise auszugleichen, so dass zwischen Ende März und Anfang Oktober insgesamt nur mäßige Zusammenhänge zwischen Wetterlagen und Temperaturen bestehen.

2. …die AMO das Häufigkeitsverhalten bestimmter Wetterlagen andeutungsweise mit beeinflusst, wobei meist erwärmend wirkende Süd- und Südwestlagen mit steigenden Wassertemperaturen tendenziell häufiger und solche mit nördlichen bis östlichen Strömungsanteilen eher seltener wurden. Dabei „schwingen“ nördliche Lagen im Takt der AMO; Westlagen im engeren Sinne verhalten sich entgegengesetzt. Übergeordnete Antriebsmechanismen für dieses Verhalten werden vermutet.

3. …es insgesamt eine (bislang dauerhafte) Häufigkeitszunahme nur bei den Süd- und vor allem den Südwestlagen sowie bei den Troglagen gab. Die in Mitteleuropa insgesamt viel häufigen Westlagen zeigen hingegen eine rhythmische Zu- und Abnahme, die andeutungsweise von der AMO, im Winter außerdem deutlich von der NAO, beeinflusst wird, was besonders im Winter Auswirkungen auf die Deutschland- Temperaturen hat (tendenziell mildere Winter in Phasen mit positiven NAO- Indizes und häufigeren Westlagen).

4. …sich bei gesamtheitlicher  Betrachtung am Langzeitverhalten der Großwetterlagen bislang keine gravierende Zunahme von Lagen mit Extremwetterpotential erkennen  lässt. Die Häufung der im Sommer bedingt zu Hitzewellen neigenden Südlichen Lagen wurde durch die Abnahme der in dieser Jahreszeit insgesamt sehr warmen Hochdrucklagen teilweise kompensiert. Die Rhythmik der westlichen Lagen bedingte die vorübergehende Häufung der milden Winter und Winterstürme um 1990, und der auf verschiedenen Ursachen, unter anderem der AMO- Positivphase, beruhende Eisrückgang bewirkte bislang keine Häufung der für extreme Kältewellen infrage kommenden winterlichen Wetterlagen. Auch eine wesentliche Häufung der Lagen mit Potential für großflächige Starkniederschläge blieb aus, weil sich die Zu- und Abnahmen der dafür infrage kommenden einzelnen Wetterlagen in etwa die Waage hielten.

Das rhythmische Verhalten der hier betrachteten Größen und deren Einfluss auf das Deutschland- Mittel der Lufttemperatur (die ebenfalls hierfür sehr wichtige Sonnenaktivität, welche auch die AMO mit beeinflussen kann, die Intensität der allgemeinen, globalen Zirkulation sowie weitere, mögliche Einflussfaktoren wie El Nino, QBO, die Rhythmik weiterer Meeresströmungen oder die Wassertemperaturen der Randmeere Nord-/Ostsee und Mittelmeer konnten aus Umfangsgründen im Rahmen dieser Arbeit nicht geprüft werden) verleitet dazu, Mutmaßungen über die weitere Zukunft anzustellen. Sichere Vorhersagen sind nicht möglich, und es kann nicht oft genug davor gewarnt werden, beobachtete Trends und Zusammenhänge bedenkenlos in die Zukunft zu extrapolieren. Trotzdem sollte, natürlich nur im Rahmen weiterer Untersuchungen, über folgende Szenarien nachgedacht werden:

1. Falls die AMO ihre bisherige Rhythmik beibehält, hat sie aktuell ihr Maximum erreicht oder bereits leicht überschritten, so dass im Atlantik für die kommenden 20 bis 30 Jahre mit fallenden Wassertemperaturen zu rechnen ist. Die seit 2003 insgesamt stark rückläufige Sonnenaktivität dürfte sich nach den (freilich mit Unsicherheiten behafteten) Vorhersagen (ABDUSSAMATOV 2012, CALDER/SVENSMARK 2007, MALBERG 2002 bis 2013; VAHRENHOLT/LÜNING 2012, LANDSCHEIDT 1983, LEISTENSCHNEIDER, 2011) bis mindestens etwa 2050 weiter abschwächen, was sich zeitverzögert auch auf die AMO auswirken kann, so dass insgesamt eine Abnahme der Wassertemperaturen  im 21. Jahrhundert nicht unwahrscheinlich ist.

2. Mit der zyklusbedingten  und tendenziellen Abnahme der AMO- Werte könnte sich das Häufigkeitsverhalten der Großwetterlagen im 21. Jahrhundert umkehren- tendenziell wieder weniger Südliche Lagen; im Sommer wieder mehr feucht- kühle Lagen („Sommermonsun“); insgesamt im Jahr wieder mehr Hochdrucklagen sowie mehr Lagen mit nördlicher Strömungskomponente.

3. Falls sich auch die Rhythmik der westlichen Lagen fortsetzt, so ist möglicherweise das Minimum ihrer Häufigkeit aktuell bereits erreicht. Eine Zunahme der Westlagen könnte im Winter den aktuell beobachteten Rückgang der Wintertemperaturen in Deutschland stoppen oder zumindest dämpfen.

Die vorliegende Arbeit konnte nur die Möglichkeit bestimmter Zusammenhänge andeuten und zu weiterer Forschungsarbeit anregen. Diese wird nötig sein, um die äußerst spannenden Zusammenhänge besser zu quantifizieren und daraus möglicherweise präzisere Vorhersagen für die künftige Entwicklung von Witterung und Klima in Deutschland zu treffen.

Verfasst und zusammengestellt von Stefan Kämpfe, Weimar, 2012/2013.

Literaturliste und Informationsquellen für alle drei Teile

Abdussamatow, H. I. (2012): Zweihundertjährige Abnahme der Solarstrahlung führt zu einem Ungleichgewicht des thermischen Budgets der Erde und zu einer Kleinen Eiszeit. Petersburg 2012 http://nextgrandminimum.files.wordpress.com/2012/11/abduss_apr.pdf

Alles schon einmal dagewesen – Arktische Meereisschmelze in der ersten Hälfte des 20. Jahrhunderts (2012). www.kaltesonne.de/

AMO smoothed from the Kaplan SST V2 Calculated at NOAA/ESRL/PSD1 http://www.esrl.noaa.gov/psd/data/timeseriesimeseries/AMO/

Atlantische Multidekaden- Oszillation https://de.wikipedia.org/wiki/Atlantische_Multidekaden-Oszillation

Bissolli, P. (1999/2000): Kommen Westlagen häufiger vor als früher? Veröffentlicht im Klimastatusbericht 1999 des DWD, erschienen im Jahr 2000.

Bissolli, P. (2001/2002): Wetterlagen und Großwetterlagen im 20. Jahrhundert. Veröffentlicht im Klimastatusbericht 2001 des DWD, erschienen im Jahr 2002.

Bissolli, P., Dittmann, E. (1998 bis 2005): Objektive Wetterlagenklassifikation. Veröffentlicht in den Klimastatusberichten 1998 bis 2005 des DWD, erschienen 1999 bis 2006.

Borchert, H.(2013): Die bodennahen Temperaturen in Potsdam und Hohenpeissenberg und Sonnenfleckenhäufigkeit von 1900 bis 2012. http://www.eike-klima-energie.eu/news-cache/die-bodennahen-temperaturen-in-potsdam-und-hohenpeisenberg-und-sonnenfleckenhaeufigkeit-von-1900-bis-2012/

Calder, N., Svensmark, H. (2007): The Chilling Stars – A New Theory of Climate Change, übersetzt ins Deutsche von Helmut Böttiger: Sterne steuern unser Klima: Eine neue Theorie zur Erderwärmung. Patmos Verlag, Düsseldorf 2008.

Climate4you: Low clouds tend to have a net cooling effect on global climate. Scatter diagram showing the total monthly global cloud cover plotted versus the monthly global surface air temperature, since July 1983. High values of global cloud cover is associated with low global temperatures, demonstrating the cooling effect of clouds. http://www.climate4you.com/ClimateAndClouds.htm

Deutscher Wetterdienst (DWD) (2010, 2011, 2012, 2013): Großwetterlagen- Anzahl der Tage. www.dwd.de

Deutscher Wetterdienst (Herausgeber): Stadtklima. Hauptschriftleiter M. Schlegel. promet, Jahrgang 9, Heft 4, 1979.

Fett, W. (2012): Klimawandelschuldzuweisung: Mensch oder doch Sonne? Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 73/12 (Sonderbeilage 35/12) vom 12.12.2012.

Fotos aus den dreißiger Jahren: Grönland-Gletscher haben sich damals schneller zurück gezogen als heute (2012)… www.eike-klima-energie.eu  Vom 15.06.2012.

Hess, P., Brezowsky, H.: Katalog der Großwetterlagen Europas. Ber. Dt. Wetterd. in der US- Zone 33, 1952.

Hess, P., Brezowsky H.: Katalog der Großwetterlagen Europas. 2. neu bearbeitete und ergänzte Auflage. Ber. Dt. Wetterd. 15 (113), 1969.

Hess, P., Brezowsky, H.: Katalog der Großwetterlagen Europas 1881–1976. 3. verbesserte und ergänzte Aufl.. Ber. Dt. Wetterd. 15 (113), 1977.

Heyer, E.: Witterung und Klima. Leipzig 1977.

Hoffmann, G.; Müller, B.: Nebel in Berlin- Dahlem (II). Klimanormalperiode 1961- 90. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 65/94 (Sonderbeilage 17/94) vom 23.06.1994

Hurrell Station-Based Seasonal NAO Index http://climatedataguide.ucar.edu/sites/default/files/cas_data_files/asphilli/nao_station_seasonal_2.txt

Kämpfe, S., Kowatsch, J., Leistenschneider, R.: Starker Temperaturanstieg seit 1979 in Erfurt- warum CO2 dabei nur eine unbedeutende Nebenrolle spielt! Teil 1 Vorstellung der Hauptakteure (20.10.2012) und Teil 2 „Trittbrettfahrer“ CO2- Das Phantom der Klimawissenschaft (26.10.2012) www.eike-klima-energie.eu 

Kämpfe, S., Kowatsch, J., Leistenschneider, R. (2013): Erst zum Gipfel, dann talwärts: Die Temperaturentwicklung in Deutschland seit 1980 und deren wesentliche Ursachen. Teile 1 bis 3. www.eike-klima-energie.eu

Kämpfe, S. (2009): Die Flora Weimars und seiner Umgebung. Weimarer Schriften, Stadtmuseum Weimar.

Kämpfe, S., Kowatsch, J., Leistenschneider, R (2013).:  Die Winter werden in Deutschland seit einem Vierteljahrhundert deutlich kälter. www.eike-klima-energie.eu

Kämpfe, S. (2012): Zu trockener, warmer, sonniger Herbst 2011 in Thüringen -ungewöhnlich oder einfach nur schön? Beiträge des Instituts für Meteorologie der Freien Universität Berlin/Berliner Wetterkarte, Beilage 03/12 (SO 01/12) vom 04.01.2012 und in leicht geänderter Fassung bei www.eike-klima-energie.eu 27.12.2011.

Kämpfe, S. (1997): Nebel in Thüringen. Eine Untersuchung unter Zuhilfenahme von Theorie und Praxis. Beilage Nr. 179/1997 zur Wetterkarte des Deutschen Wetterdienstes, Offenbach am Main (liegt nur analog vor).

Kämpfe, S. (1999): Die Horizontalsichtweite- Anmerkungen zu einer interessanten meteorologischen Größe. Beilage Nr. 53/1999 zur Wetterkarte des Deutschen Wetterdienstes, Offenbach am Main (liegt nur analog vor).

Kämpfe, S., Kowatsch, J., Leistenschneider, R (2013).: Klimawandel in Deutschland bedeutet Abkühlung- trotz deutlicher Zunahme von CO2.  www.eike-klima-energie.eu

Koch, H. G. (1953): Wetterheimatkunde von Thüringen. Gustav Fischer Verlag Jena (nur analog vorliegend).

Kowatsch, J., Leistenschneider, R. (2010): Der Wärmeinseleffekt (WI) als Antrieb der Temperaturen- eine Wertung der DWD- Temperaturmessstationen. www.eike-klima-energie.eu 04.10.2010.

Landscheidt, T. (1983): Solar oscillations, sunspot cycles and climatic change. Boulder 1983.

Leistenschneider, R., Kowatsch, J. (2012): Der Wärmeinseleffekt (WI) als maßgeblicher Treiber der Temperaturen. www.eike-klima-energie.eu 20. Januar 2012.

Leistenschneider, R., Kowatsch, J. (2012): Der Wärmeinseleffekt (WI) als maßgeblicher Treiber der gemessenen Temperaturen. www.eike-klima-energie.eu 04.08.2012.

Leistenschneider, R. (2011): Dynamisches Sonnensystem- die tatsächlichen Hintergründe des Klimawandels, Teile 1 bis 8

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4 – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht,
            interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen.

Teile 1 bis 8 bei www.eike-klima-energie.eu

Malberg, H. (2002 bis 2013) Beiträge des Instituts für Meteorologie der Freien Universität Berlin/Berliner Wetterkarte:

– Über den Klimawandel in Mitteleuropa seit 1850 und sein Zusammenhang mit der Sonnenaktivität. SO 17/02

– Die globale Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 27/02

– Die nord- und südhemisphärische Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 10/03

– Der solare Einfluss auf das mitteleuropäische und globale Klima seit 1778 bzw. 1850. SO 01/07 (2007) – In Memoriam Prof. Richard Scherhag

– Über den dominierenden solaren Einfluss auf den Klimawandel seit 1701. SO 27/07

– El Nino, Vulkane und die globale Erwärmung seit 1980. SO 34/07

– El Niño und der CO2-Anstieg sowie die globale Erwärmung bei CO2-Verdopplung. SO 02/08

– Die unruhige Sonne und der Klimawandel. SO 20/08

– Über die kritische Grenze zwischen unruhiger und ruhiger Sonne und ihre Bedeutung für den Klimawandel. SO 03/09

– La Niña – El Niño und der solare Einfluss – Der Klimawandel 1950-2008. SO 11/09

– Über das Stadtklima und den Klimawandel in Deutschland seit 1780. SO 18/09

– Langfristiger Klimawandel auf der globalen, lokalen und regionalen Klimaskala und seine primäre Ursache: Zukunft braucht Herkunft. SO 29/09 

 – Der solare Einfluss auf den Klimawandel in Westeuropa seit 1672. SO 37/09 (2009)

– Rekonstruktion des Klimawandels seit 1860 bzw. 1672 aufgrund solarer Aktivitätsänderungen, SO 11/10 (2010)

– Kurzperiodische und dekadische Klimavariabilität im Zeitraum 1980-2009. SO18/10 (2010)

– Über scheinbare und tatsächliche Klimaerwärmung seit 1850. SO 26/10 (2010)

– Analyse des solaren Effekts und des langfristigen Klimawandels seit 1680 sowie des gegenwärtigen kurzperiodischen Klimaverhaltens SO 09/11 (2011)

– Über sprunghafte Anstiege von CO2 und globaler Temperatur SO 05/12 (2012)

– Fakten zum Klimawandel seit der Kleinen Eiszeit SO 01/13.

NABEL (Nationales Beobachtungsnetz Luft in der Schweiz) www.bafu.admin.ch/luft

Pelz, J. (1993): Das Zeitverhalten des Schwebstaubs und der Niederschlagsbeimengungen in Berlin- Dahlem. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 26/93 (Sonderbeilage 4/93) vom 26.02.1993.

Pelz, J. (1994): Dreißig Jahre Staubmessungen in Berlin- Dahlem. Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 100/94 (Sonderbeilage 31/94) vom 21.10.1994.

PIK Werte der Lufttemperaturen, der Sonnenscheindauer und der Globalstrahlung in Potsdam www.pik-potsdam.de/services

Puls, K. E. (2009): Viel Wind um Nichts. Die prognostizierte Zunahme von Stürmen bleibt aus. http://www.eike-klima-energie.eu/uploads/media/PULS.Stuerme_LP.0908.pdf

Schönwiese, Chr- D., Trömel, S.: Langzeitänderungen des Niederschlags in Deutschland. http://www.climate-service-center.de/imperia/md/content/csc/warnsignalklima/Warnsignal_Klima_Kap3.1_3.1.6_Scho__nwiese.pdf

Standardisierte beziehungsweise normalisierte NAO- Werte Januar 1950 bis Dezember 2011: www.cpc.noaa.gov/

Tabellen der Sonnenfleckenrelativzahlen www.schulze-md./de (dort auch Abbildungen aller 23 Zyklen) und www.swpc.noaa.gov/solarCycle

Tinz, B. (2002, 2003): Die Nordatlantische Oszillation und ihr Einfluss auf die europäischen Lufttemperaturen. Veröffentlicht im Klimastatusbericht 2002 des DWD, erschienen im Jahr 2003.

Vahrenholt, F., Lüning, S. (2012): Die kalte Sonne. Warum die Klimakatastrophe nicht stattfindet. Hoffmann und Campe, Hamburg 2012.

Wehry, W. (2009): Mehr Sonnenschein, weniger Nebel und höhere Temperatur- anthropogene Klima- Änderung? Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 47/09 (Sonderbeilage 23/09) vom 09.07.2009.

Wehry, W., Myrcik, G. (2006): Sonniger und warmer Herbst- Anzeichen auch für einen milden Winter? Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 86/06 (Sonderbeilage 29/06) vom 13.12.2006.

Werner, P. C., Gerstengarbe, F.W.; Rüge, U. (1999): KATALOG DER GROSSWETTERLAGEN EUROPAS (1881-1998) NACH PAUL HESS UND HELMUT BREZOWSKY. Potsdam und Offenbach a. M., 1999.

Werner, P. C., Gerstengarbe, F.W. (2010): KATALOG DER GROSSWETTERLAGEN EUROPAS (1881-2009) NACH PAUL HESS UND HELMUT BREZOWSKY. PIK Report No. 119 Potsdam 2010.

Zeitreihe der Lufttemperatur in Deutschland ab 1761. Jahres-, Jahreszeiten- und Monatswerte. http://de.wikipedia.org/wiki/Zeitreihe_der_Lufttemperatur_in_Deutschland




Wie man eine halbe Billion Euro verliert: Europas Stromversorger stehen vor einer existenziellen Bedrohung

Das Problem besteht darin, dass Kern- oder Braunkohlekraftwerke auf Volllastbetrieb angelegt sind und nicht ohne Weiteres ihre Erzeugung verringern können, während die zusätzliche Energie aus Sonne und Wind frei ist. Die Last der Anpassung liegt also bei Gas- und Kohlekraftwerken, deren Output auf lediglich 10% der Kapazität fiel.

Diese Ereignisse waren ein Mikrokosmos der Änderungen, die alle Gebiete betreffen, in denen erneuerbare Energiequellen immer wichtiger werden – Europa im Allgemeinen und Deutschland im Besonderen. Für Umweltaktivisten sind diese Änderungen ein Triumph. Erneuerbare Low-Carbon-Energie bekommt einen immer größeren Anteil an der Erzeugung. Das hilft, den Großhandelspreis zu senken und könnte eines Tages zu großen Reduktionen von Treibhausgas-Emissionen führen. Für etablierte Unternehmen jedoch ist das eine Katastrophe. Ihre Gaskraftwerke werden durch erneuerbare Energiequellen beiseite gedrängt. Sie verlieren Geld durch die Stromerzeugung. Sie machen sich Sorgen, dass das Wachstum von Solar- und Windenergie das Netz destabilisiert und zu Blackouts führen kann. Und sie weisen darauf hin, dass man keinen normalen Betrieb laufen lassen kann, in dem die Kunden für einen Service abhängig vom Verbrauch zahlen, wenn die Preise negativ werden. Kurz gesagt, argumentieren sie, das Wachstum der erneuerbaren Energie unterminiert die etablierte  Stromversorgung und ersetzt sie durch etwas weniger Zuverlässiges und viel Teureres.

Strom schwächer

Die Schwäche der europäischen Stromversorger war mit Sicherheit alarmierend. Auf ihrem Höhepunkt waren die obersten 20 Versorger etwa 1 Billion Euro wert. Jetzt sind sie nur noch die Hälfte wert (siehe Graphik 1). Seit September 2008 haben die Energieversorger im Bereich Verluste des Morgan Stanley-Index’ globaler Aktienkurse am schlechtesten abgeschnitten. 2008 hatten die obersten 10 europäischen Einrichtungen alle eine Kreditwürdigkeit von A oder besser. Jetzt ist dies nur noch bei 5 Unternehmen so.

Am weitesten fortgeschritten ist der Verfall in Deutschland, wo Strom aus erneuerbaren Quellen am schnellsten zugenommen hat. Der größte Stromversorger des Landes, E.ON, musste einen Verfall seiner Anteilspreise um drei Viertel seit dem Spitzenwert hinnehmen, und das Einkommen aus der konventionellen Stromerzeugung (fossile Brennstoffe und Kernkraft) fiel seit 2010 um mehr als ein Drittel. Der Umsatz des zweitgrößten Versorgers RWE ist ebenfalls seit 2010 um ein Drittel zurückgegangen. Der Finanzchef des Unternehmens klagt: „Die konventionelle Stromerzeugung kämpft als Geschäftsbereich um ihr ökonomisches Überleben“.

Die Unternehmen wären in jedem Falle in Schwierigkeiten gekommen, egal was mit den Erneuerbaren ist. Während des ersten Jahrzehnts dieses Jahrhunderts haben die europäischen Unternehmen zu viel in die Erzeugungskapazität aus fossilen Brennstoffen investiert, was diese Erzeugung um 16% in Europa als Ganzem verstärkt hat. In einigen Ländern war es noch viel mehr (Spanien z. B. 91%). Der Strommarkt ist aber nicht einmal annähernd um diese Größenordnung gewachsen, selbst in guten Zeiten. Dann hat die Finanzkrise auf die Nachfrage durchgeschlagen. Der International Energy Agency IEA zufolge wird die Gesamtnachfrage in Europa zwischen 2010 und 2015 um 2% abnehmen.

Verschärft wurden diese Probleme durch zwei Einflüsse von außerhalb. Das erste war die Havarie in Fukushima. Dadurch war die Regierung von Angela Merkel in Panik geraten und hat die sofortige Schließung von acht Kernkraftwerken und bis 2022 die Schließung der übrigen 9 in Deutschland verfügt. So abrupt kam diese Änderung, dass sich die Nackenschläge für die Unternehmen verstärkten, obwohl viele dieser Kraftwerke später ohnehin geschlossen werden sollten.

Das andere Problem war der Schiefergas-Boom in Amerika. Dies wirkte sich direkt auf die europäische Kohle aus, die zuvor in Amerika verbrannt worden war, und die Kohlepreise sanken im Vergleich zu den Gaspreisen. Gleichzeitig verfiel der Kohlenstoffpreis, weil es zu viele Zertifikate gab, die die Emission von Kohlenstoff im europäischen Emissions-Zertifikatehandel erlauben würden, und die Rezession führte zu einer geringeren Nachfrage. Das hat die Strafen für die Verbrennung von Kohle reduziert, die Umsatzvorteile von Kohlekraftwerken erhalten und Gaskraftwerke ins Hintertreffen geraten lassen. Gérard Mestrallet, leitender Direktor des größten Stromerzeugers der Welt GDF Suez, sagt, dass 30 GW durch Gas erzeugter Kapazität seit dem Spitzenwert eingestampft worden sind, einschließlich brandneuer Kraftwerke. Die Zunahme der Kohleverbrennung hat die Kohlenstoff-Emissionen in Deutschland während der Jahre 2012 und 2013 steigen lassen, also das Gegenteil dessen erreicht, was beabsichtigt war.

Darum wären die Gas- und Kernkraftanteile der Stromerzeuger selbst vor dem Boom der Erneuerbaren in Schwierigkeiten geraten. Das Wachstum von Wind und Solar hat diesen Vorgang nur verstärkt. Die Kapazität der Erneuerbaren (die viel größer ist als der Output) macht fast die Hälfte der Stromerzeugungs-Kapazität in Deutschland aus; in Spanien und Italien ist es etwa ein Drittel. Die Gesamtkapazität einschließlich der Erneuerbaren liegt weit über der Spitzennachfrage in allen drei Ländern. Daher haben die Erneuerbaren ganz stark zu der Überversorgung beigetragen.

Exzessive Erzeugung plus verringerte Nachfrage gleich niedrigere Preise. Die Strompreise sind von über 80 Euro pro MWh zu Spitzenzeiten im Jahr 2008 in Deutschland auf nur noch 38 Euro pro MWh heute (siehe Graphik 2). Das sind Großhandelspreise. Der Preis für die Haushalte beläuft sich auf 285 Euro pro MWh, ist also einer der höchsten der Welt. Teilweise liegt das daran, dass darin die Subventionen für die Erneuerbaren enthalten sind, die pro Energieeinheit eineinhalb mal so hoch sind als der Strompreis selbst). Mit dem Fallen der Großhandelspreise fiel auch die Rentabilität der Kraftwerke. Bloomberg New Energy Finance (BNEF) zufolge verlieren 30 bis 40% der konventionellen RWE-Kraftwerke Geld.

Aber das ist nur die Hälfte. Die Erneuerbaren haben nicht nur die Strommenge unter Druck gesetzt. Sie haben das etablierte Geschäftsmodell der Versorger transformiert. Direktor Michael Liebreich von BNEF vergleicht es mit den Telefon-Unternehmen in den neunziger Jahren oder heutzutage mit den Zeitungen, die durch das Internet unter Druck geraten: „es ist eine existenzielle Bedrohung!“ sagt er.

Maximale Bestrafung

In den achtziger Jahren war die Stromversorgung eine relative einfache Angelegenheit. Man garantierte eine konstante Stromversorgung auf der Basis von Kohle, Kernkraft (falls gewünscht) oder Wasserkraft (falls verfügbar). Diese Kraftwerke konnte man rund um die Uhr in Volllast betreiben. Aus technischen Gründen lassen sich Kohle- und Kernkraftwerke nicht einfach herunter fahren. Das sorgte für die Grundlastversorgung (die stets benötigte Menge). Um zusätzlichen Strom zu Spitzenlast-Zeiten zu erzeugen (beispielsweise am frühen Abend), hatte man Kraftwerke, die einfacher hoch- und herunter geregelt werden konnten wie z. B. Gaskraftwerke. Stellt man sich eine Verteilung der Stromversorgung über einen Tag vor, sieht es aus wie eine Schichttorte: Die unterste Schicht ist flach (Kernkraft, Kohle usw.), die obere Schicht (Gas) ist gewellt.

Die Liberalisierung des Strommarktes hat dieses einfache, geordnete System hinweg gefegt. Kraftwerke erzeugten Strom nur noch angepasst an den marginalen Strompreis. Das Aufkommen erneuerbarer Energie hat diese Änderungen dann wesentlich beschleunigt. Erneuerbare haben „Netz-Priorität“, das heißt, den so erzeugten Strom muss das Netz bevorzugt aufnehmen. Das ist eine legale Forderung, um die erneuerbare Energie in Europa voranzubringen. Aber sie ist auch logisch: Da die Marginalkosten von Wind und Sonne Null sind, würden die Netze diese Energie ohnehin zuerst aufnehmen. Also kommt die erneuerbare Energie am unteren Ende der Schichttorte ins Spiel. Aber anders als die schon bestehenden Grundlastversorger (Kernkraft und Kohle) sind Wind- und Solarenergie unregelmäßig und ändern sich mit dem Wetter. Dadurch wird die Grundschicht der Schichttorte ebenfalls wellig.

Wenn jetzt die Nachfrage schwankt, könnte es nicht ausreichen, lediglich den Output von Gas-Generatoren zu senken. Einige Kraftwerke müssten vielleicht komplett abgeschaltet und Kohlekraftwerke herunter gefahren werden. Genau das passierte am 16. Juni. Das ist teuer, weil es schwierig ist, Kohlekraftwerke herunter zu regulieren. Das macht die Strompreise volatiler. Und es hat auf die Profite verheerende Auswirtungen.

Unter dem alten System war der Strompreis zu Spitzenlastzeiten auf Spitzenwerte gestiegen (um die Mittagszeit und am frühen Abend). Nachts fiel der Preis mit der sinkenden Nachfrage. Die Unternehmen haben ihr ganzes Geld während der Spitzenlastzeiten verdient. Aber um die Mittagszeit ist die solare Stromerzeugung maximal. Dank der erzwungenen Bevorzugung reißt der Solarstrom ein großes Stück aus diesem Kuchen der Spitzennachfrage, was die Preisspitze eliminiert hat. Dem Fraunhofer-Institut für Solarenergie zufolge hatte der Strompreis im Jahre 2008 während der Spitzenlastzeiten 14 Euro pro MWh über dem Grundlastpreis gelegen. Während der ersten sechs Monate des Jahres 2013 betrug dieser Preisunterschied nur 3 Euro. Fazit: der mittlere Strompreis ist seit 2008 nicht nur um die Hälfte gefallen, sondern die Spitzenlastpreise sind um fast vier Fünftel gesunken. Kein Wunder, dass die Versorger derartig in Schwierigkeiten stecken.

Aber es wird noch schlimmer kommen. Die Kombination von Nachfrage in Europa und Investitionen in China haben die Preise für Solarpaneele seit 2006 um fast zwei Drittel abstürzen lassen (siehe Graphik 3). In Deutschland sind die Kosten für die Erzeugung eines Megawatts Strom mittels Solarpaneele auf 150 Euro gefallen. Das liegt über den Großmarktpreisen, aber unter den festgesetzten Preisen für die Erneuerbaren und unter den Preisen für die Haushalte. Das bedeutet, dass die solare Stromerzeugung selbst dann noch steigen kann, wenn die neue Regierung in Deutschland die Subventionen für Erneuerbare kürzt. Die Herausforderungen für die alten Unternehmen steigen.

Mehr noch, während der letzten paar Jahre haben sich die Versorger abgesichert und zwei Drittel ihres erzeugten Stromes ein bis drei Jahre im Voraus verkauft (d. h. sie bekommen die Preise aus dem Jahr 2010 für heute gelieferte Energie). Das hat sie vor der vollen Auswirkung der jüngsten Preisrückgänge bewahrt. Diese Verträge laufen 2014 oder 2015 aus. Der Direktor von E.ON sagte kürzlich: „Für die Jahre 2013 und 2014 ist keine Erholung in Sicht“.

Bereiche Holz und Wind

Die Versorger sind angesichts dieser Probleme nicht machtlos, und sie werden nicht alle gleich stark betroffen. Die sechs großen britischen Versorger beispielsweise waren geschützt durch langfristige Preisabkommen mit dem Regulator, obwohl ihre Profite mager bleiben.

Einige Versorger sind selbst in das Geschäft mit den Erneuerbaren eingestiegen. Drax, früher das größte Kohlekraftwerk in UK, ist konvertiert worden zur Verbrennung von Holzpellets. Andere Versorger investieren in großem Umfang in Offshore-Windparks.

Aber im Großen und Ganzen waren die großen Versorger sehr zögerlich mit Investitionen. In Deutschland beispielsweise gehören nur 7% der erneuerbaren Kapazität den Stromversorgern. Das Problem liegt darin, dass die Solarenergie sich so total von dem unterscheidet, woran sie gewöhnt sind. Der althergebrachte Versorger besitzt ein großes teures Kraftwerk mit einer Kapazität von 1 bis 1,5 GW. Das Kraftwerk befindet sich in der Mitte eines strahlenförmig nach allen Seiten sich ausbreitenden Netzes. Der Solarstrom unterscheidet sich davon. Photovoltaik-Paneele sind billig, klein (ein solches mittlerer Größe kann eine Kapazität von lediglich 10 MW haben) und in einem Netzwerk angeordnet, nicht als Mittelpunkt eines Rades mit Speichen.

Die Versorger könnten die erneuerbare Energie etwas ernster nehmen, aber im Moment ändert sich kaum etwas. Stattdessen reagieren die Versorger auf ihre Probleme, indem sie sich von der Stromerzeugung verabschieden und in „Downstream“-Aktivitäten [?] einsteigen wie z. B. durch das Anbieten von Beratung der Kunden. Während der letzten Monate hat Vattenfall, der größte Versorger Schwedens, 6% seiner Gewinne abgeschrieben, und drei deutsche Stromriesen, E.ON, RWE und EnBW haben angekündigt, ihre Kapazität um über 15 GW zu kürzen. Am weitesten ist EnBW hinsichtlich der Aussichten für die Zukunft gegangen. Das Unternehmen sagt, dass der Verdienst aus der Stromerzeugung von 2012 bis 2020 um 80% zurückgehen wird, abgesetzt von höheren Verdiensten durch Energie-Serviceleistungen und Erneuerbare. „Wir müssen überdenken, welche Rolle wir spielen und welchen Platz wir im Sektor Energie einnehmen“, sagt der Boss Frank Mastiaux.

Saubere Trennung

Für die Unternehmen sind die Änderungen und abstürzende Anteilspreise offensichtlich besorglich. Aber sollte sich sonst noch jemand darum kümmern? Amory Lovins vom Rocky Mountains Institute, einer amerikanischen Denkfabrik, sagt: „In Deutschland hat sich ein Geschäftsfeld mit Low-Carbon-Energie gebildet, und zwar bis zu einem Punkt, an dem der weitere Zubau von Solarenergie wenige Subventionen braucht; an dem Großmarktpreise fallen und die Bedrohung für die Verlässlichkeit des Netzes bisher nicht materialisiert haben“. Wo also liegt das Problem?

Da gibt es viele verschiedene Antworten. Erstens mussten die Versorger massive Verluste bei der Bewertung der Gewinne hinnehmen. Ihr Marktkapital ist innerhalb von fünf Jahren um 500 Milliarden Euro gesunken. Das ist mehr als die europäischen Bankanteile im gleichen Zeitraum verloren haben. Diese Verluste spielen unmittelbar eine Rolle. Für Pensionsfonds und andere Investitionen repräsentieren sie verlorenes Kapital und geringere Verdienste in der Zukunft. Für Beschäftigte bedeuten sie geringere Löhne und Arbeitsplatzverluste. Die Verluste – von denen viele dem Boom der erneuerbaren Energie vorausgegangen waren – addierten sich zu den gewaltigen Summen, die die Europäer auch für die Politik hinsichtlich der Klimaänderung ausgeben. Die Subventionen für erneuerbare Energie bewegen sich um 16 Milliarden Euro pro Jahr in Deutschland (Tendenz steigend); die kumulativen Kosten betragen etwa 60 Milliarden Euro.

Als nächstens haben die Versorger ihre Rolle als Investoren verloren. Einst waren sie gleichmäßig in Betrieb, zuverlässig und resistent gegen Inflation, die Schatzkammer der USA der Kapitalmärkte. Pensionskassen brauchen dieses Kapital, um ihre langfristigen Verpflichtungen auszubalancieren. Aber die Versorger spielen diese Rolle nicht mehr, was nicht nur die kollabierenden Anteilspreise zeigen, sondern auch die Politik bzgl. Dividenden. Bis zum Jahr 2008 folgten die Gewinne von RWE und E.ON den deutschen 10-Jahres-Bonds. Seitdem sind sie auf etwa 10% gestiegen, während die Gewinne der Regierungs-Bonds gleich geblieben sind. Erneuerbare sind nicht die einzigen riskanten Investitionen.

Am wichtigsten ist aber, dass das abwärts gerichtete Schicksal der Versorger verstörende Fragen aufwirft über die Zukunft des Stromsystems in Europa. Vereinfacht gesagt: Die europäischen Staaten fügen allmählich ein System zusammen, in dem es immer mehr Low-Carbon- und schwankende Energiequellen gibt; mehr Energieversorger, mehr moderne Kraftwerke und mehr Energie, die über Grenzen hinweg gehandelt wird. All dies wird zusammengehalten durch „Smart Grids“, die den Verbrauchern sagen, wie viel Energie sie verbrauchen, die Geräte abschalten, wenn sie nicht gebraucht werden und die Nachfrage effizienter gestalten.

In einer solchen Welt spielen die althergebrachten Versorger zwei vitale Rollen. Sie sind einmal die Stromerzeuger, wenn alle Stricke reißen und stellen sicher, dass die Lichter nicht ausgehen, wenn der Wind nicht weht und die Sonne nicht scheint. Und sie werden Investoren sein, wenn es um den Bau eines ganz neuen Netzes geht. Es ist nicht klar, ob die Lage der Versorger gut genug ist, auch nur eine solche Rolle wahrzunehmen.

Bislang haben sie es vermocht, Backup-Strom zur Verfügung zu stellen, und das Netz ist nicht zusammengebrochen, selbst im sonnen- und windverrückten Deutschland [!]. Tatsächlich ist das deutsche Netz zuverlässiger als die meisten anderen (die Länder führen einen Zuverlässigkeits-Index: Deutschland liegt in Europa mit an vorderster Stelle). Die Grünen weisen daher Bedenken zurück, dass die Erneuerbaren die Stabilität des Netzes unterminieren. Sie verweisen darauf, dass es in einem Netz von Wind- und Solarparks über ganz Europa immer irgendwo Gebiete gibt, in denen es windig oder sonnig genug ist, sie zu betreiben, zumindest tagsüber.

Vielleicht. Aber wie die Preissprünge in Deutschland zeigen, wird es immer schwieriger, die Netzstabilität zu gewährleisten. Die Versorger werden nicht dafür belohnt, die variable Natur von Wind und Solar auszugleichen. Und dies passiert zu einer Zeit, in der die erneuerbare Energie im Mittel etwa 22% der Energienachfrage in Deutschland deckt. Niemand weiß wirklich, was passiert, wenn Erneuerbare einen Marktanteil von 35% erreichen,  was das erklärte Ziel der Regierung bis zum Jahr 2020 ist, geschweige denn bei einem angestrebten Anteil von 80% im Jahr 2050. Fast jeder räumt ein, dass sich bei steigendem Anteil der Erneuerbaren die Regulierung des Netzes ändern muss.

Die Rolle der Versorger als Investoren ist ebenfalls bedroht. Die erforderlichen Summen, um das Netz aufzubereiten, sind gewaltig und betragen bis zu 1 Billion Euro bis zum Jahr 2020. Unternehmen mit einem Wert von 500 Milliarden Euro können so etwas nicht einmal ansatzweise finanzieren. Stattdessen kürzen sie ihre Kapitalausgaben. Bei RWE beispielsweise sind sie seit 2011 von 6,4 Milliarden Euro auf 5 Milliarden Euro gefallen. Davon gehen 1,6 Milliarden in die Wartung existierender Kraftwerke, was etwa 1 Milliarde Euro für die Entwicklung übrig lässt – die Hälfte des gegenwärtigen Niveaus. In ihrem jetzigen Zustand können die Versorger das saubere Energiesystem, auf das Europa hofft, nicht finanzieren.

Und das hat Auswirkungen auf die Zukunft. Um den Investitionsausfall durch die Versorger auszugleichen, müssen die Regierungen Andere überreden einzuspringen, wie z. B. Pensionfonds oder Wohlstandsfonds [pension funds or sovereign-wealth funds]. Aber diese Einrichtungen haben schon durch das Halten von Anteilen der Versorger indirekt in Energie investiert und nicht direkt. Und das aus gutem Grund: Sie mögen nicht die politischen Risiken des Besitzes von Projekten, in denen die Regierungen eine Rolle spielen, weder durch Planung noch durch das Festsetzen von Preisen. In einigen Ländern gibt es auch Gesetze gegen das Erwirtschaften von Umsätzen, sowohl stromaufwärts (Erzeuger) als auch stromabwärts (Verteilung.)

Während der letzten 30 Jahre haben die europäischen Regierungen versucht, die Energiemärkte zu deregulieren. Sie haben staatseigene Unternehmen privatisiert und die Stromerzeugung aufgeteilt nach Übermittlung und Verteilung. Ziele waren zunehmender Wettbewerb, Effizienzsteigerungen und Preisabschläge.

Diese Ziele werden immer schwerer zu erreichen sein. Erneuerbare Energie hat sich einen wachsenden Anteil des Marktes gegriffen, hat die Großhandelspreise gedrückt und war erfolgreich hinsichtlich der Verbilligung von neuen Technologien. Aber die Kosten für die Subventionen waren ebenfalls sehr hoch, die erwünschten Umweltauswirkungen nicht existent und der Schaden für die Versorger viel größer als erwartet. Europa im Allgemeinen und Deutschland im Besonderen sehen sich selbst als Pioniere von Low-Carbon-Energie. Wenn sie das wirklich sind, müssen sie ein deutlich besseres Stromsystem schaffen, dass sich die Low-Carbon-Energie auszahlt ohne Verringerung der Zuverlässigkeit und ohne Entstehung übermäßiger und unnötiger Kosten.

[Leider lässt sich der Autor oder die Autorin nicht darüber aus, wie das gehen soll. A. d. Übers.]

Link: http://www.economist.com/news/briefing/21587782-europes-electricity-providers-face-existential-threat-how-lose-half-trillion-euros

Übersetzt von Chris Frey EIKE




CDU OB von Stadt Albstadt hält ein Plädoyer für eine rationale Energiepolitik

Wirklich tödlich? – es sind ja „nur“ Sandkastenspiele, die bestenfalls der Willensbildungund Entscheidungsfindung im Vorfeld von Wahlterminen dienen. Aber worin unterscheiden sich nun „Freizeit-Energiepolitiker“ von den Profis in unseren Parlamenten auf Landes- und Bundesebene? Ich würde sagen nur graduell, wenigstens das sieht Frau Schwan ähnlich. Dort gibt es in der Ausschussarbeit klare Zuordnungen und Spezialisierungen auf Einzelpolitiken, und der Bildungs- oder Innenpolitiker hat eben mit der Energiepolitik weniger am Hut, einmal abgesehen vom in der Regel fehlenden technisch-naturwissenschaftlichen Hintergrund.

Und selbst als Physiker(in) – im gegenwärtigen Bundestag zusammen mit Ingenieuren, Chemikern und Mathematikern eine Minderheit von 7,5% –, das zeigt sich ganz klar an der Bundeskanzlerin, ist man Zwängen unterworfen, die einer rationalen Entscheidung im Wege stehen. Nicht zu vergessen natürlich die ständige Beeinflussung durch Medien, Vertreter von Einzelinteressen, bezahlte Politikberatung sowie der nachvollziehbare Wunsch, wiedergewählt zu werden. Im Bereich der Energiepolitik kommt erschwerend hinzu, dass es sich um ein komplexes Thema handelt, dessen Erkenntnislücken gerne mit Glaubenssätzen aufgefüllt und durch Angstszenarien untermauert werden. Nicht zu unterschätzen darüber hinaus die Verquickung wirtschaftlicher Interessen, die gerade auch in den jungen Industrien der sog. Erneuerbaren Energien ausgeprägt ist.

Was hilft dagegen? Nicht Palaver, sondern Aufklärung und Information, so objektiv wie möglich, so umfassend wie nötig und so interessenneutral wie es nur geht. Das heißt, im Vordergrund muss das Gemeinwohl stehen. Für verschiedene Fragestellungen der Energiepolitik soll hierzu in knapper Form und unter Zuhilfenahme von Quellen und Publikationen mit naturwissenschaftlich-technischem Fokus, vorwiegend aus dem Internet, ein erster Versuch unternommen werden. Dabei hilft, dass der Verfasser als „einfacher Wirtschaftswissenschaftler“ sich dem kritischen Rationalismus von Karl Popper verpflichtet fühlt.

1. Was ist Sinn und Zweck der Energiewende?

Die Energiewende soll zwei (vermeintliche?) Probleme lösen: Erstens die Abhängigkeit von fossilen Rohstoffen beseitigen, die nach den „Prophezeiungen“ des Club of Rome über die Grenzen des Wachstums aus dem Jahre 1972 „sehr zeitnah“ nicht mehr verfügbar sein werden, sprich die Begrenztheit der Vorräte an Kohle, Öl und Gas wird ins Kalkül gezogen. Dadurch sollen sich auch die anthropogen verursachten Emissionen des Gases CO2 verringern, die vom wissenschaftlichen „Mainstream“ ganz wesentlich für den Klimawandel verantwortlich gemacht werden – Stichwort: Menschengemachter Klimawandel.

Zweitens soll das deutsche Energiesystem sukzessive, d.h. in vier Schritten von fossilen auf erneuerbare Energien wie Sonne, Wind, Biomasse und Wasserkraft umgestellt werden. Bis 2020 sollen jeweils mindestens 35%, bis 2030 50%, bis 2040 65% und bis 2050 80% der Stromerzeugung regenerativ erfolgen, die gesamte Energieversorgung zur Jahrhundertmitte zu mindestens 50%. Parallel zum Umstieg auf erneuerbare Energien erfolgt der Ausstieg aus der Kernenergie – wohl die stärkste Antriebskraft –, der allerdings schon in 2022 zu 100% vollzogen sein soll.

Dies ist das Ergebnis der im Nachgang zu der Naturkatastrophe vom 11. März 2011 – dem Erdbeben und Tsunami mit anschließender Havarie von drei Reaktoren in Fukushima/Japan – von der Bundesregierung getroffenen Entscheidungen. Kurz zuvor war der Kernkraftnutzung in Deutschland noch eine Funktion als „Brückentechnologie“ zugetraut und zugebilligt worden. D.h. sie sollte einen behutsamen Systemwechsel von Fossil auf Erneuerbar auch wirtschaftlich abfedern und begleiten.

Die vom Club of Rome angestoßene Diskussion wird heute u.a. unter Begriffen wie „Peak-Oil“ und „-Gas“ stark meinungsprägend fortgeführt, wobei die Internationale Energie Agentur (IEA) in Paris die Versorgung mit fossilen Brennstoffen noch für Jahrhunderte sichergestellt sieht (siehe hierzu nur Rudolf Kipp, Peak-Oil und Anti-Fracking Propaganda in der ARD, 28.3.2013, unter www.science-skeptical.de). In Bezug auf die Kernkraftnutzung weist die Ablehnungsfront fast krankhafte Züge auf. Dies erkennt man an der gängigen Tabuisierung des Themas, wie auch an Manifestationen der schon sprichwörtlichen „German Angst“. Dies geht soweit, dass versucht wird, neuere Entwicklungen in der Kerntechnik bewusst aus der öffentlichen Diskussion herauszuhalten.

So wurde im laufenden Wettbewerb des renommierten GreenTec Awards 2013 ein durch Online-Voting mehrheitlich nominierter Salzschmelze-Reaktor durch die nachträgliche Änderung der Wettbewerbsbedingungen aus der Wertung genommen. Zwischenzeitlich hat das Berliner Kammergericht dies per einstweiliger Verfügung für unzulässig erklärt. Dem neuen Reaktortyp der Generation IV werden aufgrund seiner Vorteile gegenüber den üblichen Leichtwasserreaktoren (u.a. inhärente Sicherheit, bessere Nutzung von Thorium und Uran, Lagerung der radioaktiven Abfälle für einen Zeitraum von 300 Jahren) auf lange Sicht – in 30 bis 50 Jahren – gute Chancen eingeräumt. Die Chinesen haben schon ihr Interesse an dieser Entwicklung artikuliert.

Der Enkel des Entdeckers der Kernspaltung und Nobelpreisträgers Otto Hahn, Dietrich Hahn, weist übrigens gerne darauf hin, dass sein Großvater, wie auch seine Patentante Lise Meitner, im hohen Alter (im 89. bzw. 90. Lebensjahr) eines natürlichen Todes gestorben sind. Und darauf, dass sich Tadatoshi Akiba, ehemaliger Bürgermeister Hiroshimas und langjähriger Präsident der weltweit aktiven Organisation “Mayors for Peace” bei der Verleihung der Otto-Hahn-Friedensmedaille am 16. April 2013 in Berlin klar für eine Fortsetzung des Kernenergienutzung in seinem Heimatland Japan ausgesprochen hat.

2. Sind die Erkenntnisse über die Ursachen des Klimawandels eindeutig?

Glaubt man der neuesten einschlägigen Publikation des Umweltbundesamtes (UBA) aus Dessau, dann sind hierzu keine Fragen mehr offen. Unter dem Titel „Und sie erwärmt sich doch“ – basta – kam im Frühjahr 2013 eine amtliche Apologetik heraus, die keine Zweifel mehr daran zulässt, dass die Erderwärmung von statten geht und anthropogen, d.h. durch den Menschen verursacht ist.

Abgesehen davon, dass es verwegen erscheint, eine so komplexe Materie wie das weltweite Klimageschehen monokausal erklären zu wollen, dass der Versuch indiskutabel ist, abweichende Meinungen durch die namentliche Nennung einzelner Autoren zu diskreditieren, dass einzelne Inhalte nicht mit den neuesten Erkenntnissen des sog. Weltklimarates (Intergovernmental Panel on Climate Change – IPCC) übereinstimmen, ist es unsäglich und wissenschaftlich unredlich, einen öffentlichen Diskurs, noch bevor dieser richtig angefangen hat, für beendet zu erklären. Sehr ausführlich und die Fehler des UBA vermeidend, hat das Europäische Institut für Klima und Energie (EIKE) aus Jena im Mai 2013 die UBA-Broschüre einem Faktencheck unterworfen (http://www.eike-klima-energie.eu/uploads/media/EIKE-Faktenckeck_des_UBA_01Juni2013_02.pdf). Dabei wird u.a. darauf hingewiesen, dass schon seit 16 Jahren nicht mehr von der globalen Erwärmung ausgegangen werden kann (vgl. S. 1), im Gegenteil, dass eine globalweite Abkühlung gemessen wird und dies nicht mit dem stetig steigenden CO2 Gehalt der Atmosphäre zusammenpasst (vgl. S. 4).

Auch Extremwetterzunahmen werden (sogar unter Bezugnahme auf das IPCC) verneint. Hier verwechsele das UBA bei Flutkatastrophen auftretende größere Schäden mit angeblich höheren Pegelständen, was allein schon durch historische Hochwassermarken widerlegt wird (vgl. S. 5). Das UBA ignoriere die Rolle des CO2 für die Ernährung der Menschen, ohne dieses Gas (mit aktuell 0,04% Anteil an der Erdatmosphäre, entspricht 400 ppm = parts per million) gäbe es kein Leben. Denn CO2 ist Hauptlieferant des für den Aufbau von Biomasse notwendigen Kohlenstoffs im Zuge der Photosynthese. Wenn fachunkundige Bürgermeister eine CO2-freie Stadt anstrebten, sei dies deshalb absurd (vgl. S. 8-9).

Carl Christian von Weizsäcker hat sich bereits in 2009 zu der Frage geäußert, wer nun recht hat? „Auf beiden Seiten (den sog. „Alarmisten“ mit dem IPCC und bei den „Skeptikern“ – JG) gibt es seriöse Wissenschaftler. Aber dafür bin ich nicht der Experte. Ich stelle mich in die Schuhe derjenigen, die sagen, es gibt diesen Klimaeffekt. Das ist die pessimistischere Variante. Das Vorsichtsprinzip lässt mich sagen: Solange wir es nicht wissen, sollten wir eher die pessimistischere Variante nehmen. Ich bin durchaus skeptisch gegenüber dem, was der Mainstream behauptet. Aber ich bin kein Naturwissenschaftler und kann es nicht hinreichend beurteilen. Deshalb sage ich: Wenn der IPCC recht hat, dann finde ich als Ökonom, dass eine rationale Klimapolitik eine andere sein muss als die, die wir jetzt betreiben. Etwa, was die erneuerbaren Energiequellen angeht. Der Glaube daran trägt schon religiöse Züge. Da werden durch Lobbyinteressen finanziell gut unterfütterte Glaubenssätze propagiert“ (http://www.novo-argumente.com/magazin.php/archiv/novo99_27).

Dieser Einschätzung kann man sich auch heute noch vorbehaltlos anschließen, wobei sicherlich die Bestimmtheit – und da liegt das UBA mit seiner Broschüre voll daneben – mit der seriöse Aussagen zur globalen Erwärmung getroffen werden, weiter abnehmend und die Bandbreite der Vorhersagen zunehmend ist. Der 5. Zustandsbericht des IPCC, der für September angekündigt ist, wird dies zeigen.

3. Welchen physikalischen und wirtschaftlichen Gesetzmäßigkeiten unterliegt die Energiewende?

Einen „Klassiker“ hierzu hat meines Erachtens Peter Heller zu Anfang des Jahres mit seinem Aufsatz „Die Energiewende scheitert an der Physik“ verfasst (http://www.science-skeptical.de/energieerzeugung/die-energiewende-scheitert-an-der-physik/009246/). Meine mehrfach gegenüber Fachleuten aus der Energiewirtschaft geäußerte Frage, ob dies denn so (einfach) sei, wie dort beschrieben, wurde durch die Bank einschränkungslos bejaht. Dazu gehört, dass sich in einem Wechselstromnetz verbunden mit der Notwendigkeit relativ konstanter Frequenz (Norm-Frequenz in Deutschland ist 50 Hertz), Energieentnahme und Energiezufuhr stets, d.h. zu jedem Zeitpunkt ausgleichen müssen, damit es stabil bleibt. Hinzu kommt, dass man elektrischen Strom nicht speichern kann (dort S. 1), sondern hier eine Energiespeicherung erst nach Umwandlung in andere Energieformen möglich ist. So z.B. über kostspielige, mit Energieverlusten verbundene Umwege, indem man mit nicht benötigtem Strom Wasser den Berg hinauf pumpt, um es bei Bedarf durch Rohrleitungen und Turbinen-Generatoreinheiten wieder ins Tal zu leiten (daher Pumpspeicherkraftwerk) und so wieder elektrische Energie zu gewinnen (dort S. 6).

Aus drei Gründen stiftet die Energiegewinnung aus Sonne und Wind in Deutschland nur bedingt Nutzen: Zum einen ist sie nicht in der Lage die plan-, steuer- und verfügbare Stromerzeugung aus konventionellen Kohle-, Gas-, und Kernkraftwerken zu ersetzen. Daher: Wenn die Sonne nicht scheint und der Wind nicht weht, müssen diese sog. verlässlichen Kraftwerke zur Stabilisierung des Stromnetzes weiterhin bereitstehen, es müssen also Kraftwerkskapazitäten doppelt vorgehalten werden (dort S. 3). Zum anderen gibt es in Deutschland bei der Energie keinen Engpass und keine gänzlich unerschlossenen Landstriche, im Gegensatz zu Ländern wie China oder Indien mit großem Nachholbedarf und „Entwicklungshunger“. Aber wir haben, drittens, das Problem, dass für die massive weitere Integration von regenerativer Stromerzeugung auf Basis von Sonne und Wind die geeigneten Stromnetze fehlen oder vorhandene erst entsprechend ertüchtigt werden müssen: Sowohl die Übertragungsnetzbetreiber (50Hertz, Amprion, TenneT und Transnet BW) als auch die großen Energieversorger (E.ON, RWE, Vattenfall und EnBW) und die vielen hundert Stadtwerke mit ihren Verteilnetzen müssten kräftig investieren und sich entsprechend finanzieren.

Die wirtschaftlichen Auswirkungen beschreibt präzise Peter Heller: „Strom wird teurer, weil man Erzeugungskapazitäten aufbaut, die man nicht braucht. In die also niemand freiwillig investieren würde, es sei denn der Staat übernimmt das finanzielle Risiko. Nichts anderes ist das EEG und nichts anderes sind die Garantien für potentielle Betreiber von Offshore-Windparks. Er wird teurer, weil die vorhandenen Kapazitäten dadurch unwirtschaftlicher arbeiten. Er wird teurer, weil man die Vorhaltung von unwirtschaftlichen Kapazitäten für die Regelenergie subventionieren muss, um die Netzstabilität zu sichern. Er wird teurer, weil man den Betreibern volatiler Quellen auch die elektrische Energie bezahlen muss, die am Bedarf vorbei produziert wird. Er wird teurer, weil Stromspeicher weniger effizient sind, als Kraftwerke.“ (dort S. 6). Fast resignierend fügt er hinzu: „Die Energiewende bedeutet nichts anderes als steigende Preise bei gleichzeitig sinkender Versorgungssicherheit. Dauerhaft.“ (dort S. 7).

4.  Was sind die Charakteristika der erneuerbaren Energien?

Die Volatilität als gemeinsames „Manko“ der erneuerbaren Energien wurde schon thematisiert. Einzige Ausnahme die Bioenergie, die sogar steuerbar produzieren kann. Ihr Problem allerdings tritt zutage, wenn man den sog. Erntefaktor vergleicht, der sich aus dem Verhältnis der durch die Anlage bereitgestellten Energie zum kumulierten Energieaufwand errechnet, der für die Bereitstellung notwendig ist. Je höher der Wert, desto effizienter die Energiequelle (siehe hierzu nurhttps://de.wikipedia.org/wiki/Erntefaktor und/oder http://www.festkoerper-kernphysik.de/erntefaktor).

Das mit Biogas betriebene Gaskraftwerk erreicht hier lediglich einen Erntefaktor von 3,5 – was auch auf den hohen Einsatz von Ressourcen für die Brennstoffbereitstellung sowie den Bau, Betrieb und Abbau des Kraftwerks hinweist (zum Vergleich: Kernkraft beginnt bei einem Erntefaktor von 75, Kohle mit 29, Erdgas hat einen Faktor von 28, Wasserkraft 36, Wind an der Küste 4, Photovoltaik (PV) auf Dächern in Süddeutschland 1,6; dabei sind bei den volatilen Kraftwerkstypen notwendige Pumpspeicher und Überkapazitäten schon erntefaktormindernd berücksichtigt).

Eine Erklärung liefert im Fall des gezielten Anbaus von Mais der große Flächenverbrauch für die durchindustrialisierte Landwirtschaft. Dabei kommt es zu ernsthaften Zielkonflikten wie „Klimaschutz vor Natur- und Vogelschutz“ oder auch „Tank vor Teller“, d.h. der Gewissensfrage, ob eine solche Verwendung angesichts der Lebensmittelknappheit weltweit verantwortbar ist (von Ulli Kulke anschaulich beschrieben in der Welt vom 7.3.2013 –http://www.welt.de/wissenschaft/umwelt/article114216742/Oeko-Strom-vertreibt-Voegel-von-deutschen-Feldern.html). Zudem sind (Mais-)Monokulturen in der Regel auch noch ökologisch problembehaftet. Anders sieht es aus, wenn Biomasse aus Rasenschnitt, Abfällen, Essensresten oder Gehölz zusammengetragen wird. Als generelles Problem bleibt aber auch hier die chronische Abhängigkeit von Subventionen bestehen, in unserem Falle von der EEG-Einspeisevergütung, im Fall der angeblich energieautarken Stadt Güssing im österreichischen Burgenland von der EU-Ziel-1-Gebietsförderkulisse. Dort musste nach Auslaufen der Förderung das auf der Verfeuerung von Holz basierende Biomassekraftwerk Insolvenz anmelden.

Der sehr niedrige Erntefaktor der Photovoltaik steht im krassen Gegensatz zur üppigen EEG-Förderung. Die PV-Anlagen sind damit die teuerste Stromerzeugungsmöglichkeit (siehe hierzu, wie auch zur Windkraftnutzung den sehr lesenswerten Aufsatz von Eike Roth, Chancen und Risiken der deutschen Energiewende, zu finden unter http://www.buerger-fuer-technik.de/Chancen_und_Risiken_der_deutschen_Energiewende.pdf, leider ohne Seitenangaben). Die mehr als eine Million PV-Anlagen in Deutschland haben im letzten Jahr mit einer Gesamtleistung von 28 GW (Gigawatt) 24 TWh (Terawattstunden) Strom erzeugt, die rund 23000 Windkraftwerke mit einer Gesamtleistung von 30 GW 52 TWh. Das heißt, Nennleistung unterstellt laufen die PV-Anlagen 850 Volllaststunden (gemessen an den 8760 Stunden des Jahres sind das lediglich 9,7 Prozent) und die Windkraftanlagen 1700 Volllaststunden (macht gerade mal 19,4 Prozent aus). Bei Windkraftanlagen auf See (Offshore) nehmen Eike Roth 3000 und das Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES) im „Windenergie Report Deutschland 2012“ (http://publica.fraunhofer.de/eprints/urn:nbn:de:0011-n-2385784.pdf) für neue Anlagen sogar bis zu 4500 Volllaststunden an (entspricht 34,2 bzw. 51,3 Prozent). (Dagegen weist das IWES für Windkraftanlagen an Land (Onshore) auf S. 35 lediglich 1542 Volllaststunden aus). Zusammen genommen deckten Sonne und Wind in 2012 damit rund 13 Prozent des Stromverbrauchs ab.

Charakteristisch für Windkraft- und PV-Anlagen sind also die über den Tages- und Jahresablauf extrem schwankende und somit volatile Leistungsbereitstellung, was zur Folge hat, dass sie an Volllast gemessen im Durchschnitt 80% bzw. 90% des Jahres 2012 „stillstanden“. Bei Windkraftanlagen auf See sieht das besser aus, allerdings sind dort die Kosten höher, da der Strom vom Standort im Meer ja auch noch an Land gebracht werden und die Wind, Wasser und jedem Wetter ausgesetzte Technik ganz andere Anforderungen erfüllen muss. Aber auch hier fällt bei schwachem Wind, wie auch bei Sturm die Erzeugung auf Null. Die Stromerzeugung der Windkraftanlage, darauf weist Eike Roth hin, verhält sich proportional zur dritten Potenz der Windgeschwindigkeit: „Wenn also die Windgeschwindigkeit auf die Hälfte zurück geht, dann geht die Erzeugung … auf ein Achtel zurück! Bei einem Drittel Windgeschwindigkeit geht die Erzeugung auf ein Siebenundzwanzigstel zurück, dann ist praktisch nichts mehr da.“

Entscheidend kommt hinzu, dass enorme Anstrengungen im Ausbau von Übertragungs- und Verteilnetzen sowie hinsichtlich von Speichermöglichkeiten unternommen werden müssten. Einem forcierten Ausbau der erneuerbaren Energien sind deshalb finanzielle und planerische Grenzen gesetzt. Da hilft es auch nicht, auf technische Neuerungen zu hoffen (beispielsweise Farbstoffsolarzellen, „organische“ oder eine „konzentrierte“ PV).

Seit dem Verfall der Preise für Solarmodule besteht die ernsthafte Gefahr einer „Flucht in die Eigenversorgung“, durch die, ähnlich wie bei der EEG-Umlage, der Mehrheit der Strombezieher Kosten belastet werden (siehe die Welt vom 21.3.2013). Verstärkt wird dieser Effekt durch ein Förderprogramm der staatlichen KfW-Bankengruppe, das eine noch unausgereifte und unwirtschaftliche Batteriespeichertechnik für PV-Anlagen (einschließlich einem Tilgungszuschuss von 30 Prozent) zinsgünstig finanziert.

Charakteristisch für die erneuerbaren Energien ist auch – das folgt aus den niedrigeren Erntefaktoren – ein höher Flächenbedarf bei (unterstellt) identischer Leistungserbringung. Während dabei allein schon aufgrund der geo- und topographischen Bedingungen die Nutzung von Wasserkraft (und Pumpspeicherkraftwerken) in Deutschland eingeschränkt ist, liegen im Falle der Windkraft umfassende Expansionspläne auf dem Tisch. In Hessen werden Vorranggebiete diskutiert, die je nach politischer Couleur (schwarz-gelbe Landesregierung oder rot-grün dominierter Regionalverband) Platz zum Bau von 2300 bis 5360 Windkraftanlagen hätten, je nachdem ob man den Mindestabstand zur Wohnbebauung auf 1000 oder 750 Meter und die erforderliche Windgeschwindigkeit in 140 Meter Höhe auf 5,75 Meter oder 5,5 Meter pro Sekunde festlegt (http://www.faz.net/aktuell/rhein-main/energiewende-rhein-main-region-als-grosser-windpark-12452549.html).

Das grün-rot regierte Baden-Württemberg will bis zum Jahr 2020 auf einen Bestand von 1200 Windkraftanlagen kommen, von 400 am Ende 2012. Dabei stehen nicht nur Belange des Naturschutzes und mögliche Gefährdungen für Mensch und Tier im Weg, auch die im Südwesten weit unterdurchschnittliche Volllaststundenzahl schürt Zweifel an der Wirtschaftlichkeit des gesamten Unterfangens, die ohne die EEG-Einspeisevergütung (in Höhe von gegenwärtig 9,27 Cent/kWh) sowieso nicht gegeben ist (Angaben im Internet zu Volllaststunden in Baden-Württemberg variieren von 1155 bis 1177 (entspricht 13,4 Prozent)). Die räumliche Verteilung der Windkraftanlagen in Deutschland dokumentiert, dass es eben Standorte gibt, die windhöffiger sind (siehe bei Carsten Ender, Windenergienutzung in Deutschland. Stand 31.12.2012, die Abbildungen auf den S. 33 und 35 – http://www.dewi.de/dewi/fileadmin/pdf/publications/Magazin_42/06.pdf). Entsprechend bekommen potenzielle Investoren hier zu Recht kräftigen „Gegenwind zu spüren“ (so titelt der Staatsanzeiger vom 26.7.2013). Auch auf immer größere Nabenhöhen (Richtung 140 Meter) und Rotordurchmesser (120 Meter) zu setzen, ändert nichts an den Fakten. Das IWES verweist im Windenergie Report hierzu auf das „Square-Cube-Law“, demzufolge bei noch größeren Rotorblättern das Material an seine Grenzen stößt (S. 86).

Erneuerbare Energien sind auf Speichermöglichkeiten angewiesen, nach Eike Roth die „Achillesferse“ der Energiewende. Vorstellbar sind Pumpspeicher, die allerdings nur kurzfristig wirken, und in Deutschland nicht in ausreichender Anzahl geschaffen werden können. In dieser Hinsicht auf die norwegische Karte zu setzen erscheint illusorisch. Bei einer Reihe von Technologien (auch batteriegebundenen) ist die Reife noch nicht absehbar und vor allem die Wirtschaftlichkeit nicht gegeben. Am weitesten ist das „Power-to-Gas“-Verfahren, bei dem mit überschüssigem Wind- und Sonnenstrom durch Elektrolyse Wasserstoff erzeugt und anschließend zusammen mit Kohlendioxid in Methan umgewandelt wird. Dieses synthetische Erdgas lässt sich quasi verlustfrei im Erdgasnetz mit seinem immensen Volumen speichern und bei Bedarf rückverstromen. Es kann aber auch für den Antrieb von Erdgasautos genutzt werden – eine Option, die Audi nutzt (siehe hierzu http://www.zsw-bw.de/uploads/media/pi09-2013-ZSW-Einweihung6MWPtGAnlage.pdf).

Wie komplex unter den heutigen Randbedingungen die Steuerung der Übertragungsnetze geworden ist, zeigt auch folgender Umstand: Gab es früher kaum eine Handvoll Regelungseingriffe, so waren letztes Jahr schon über tausend notwendig. Damit wächst die Gefahr eines großflächigen und länger anhaltenden Netzzusammenbruchs, sie wird von Tag zu Tag wahrscheinlicher. Nur durch ein geschicktes Netzmanagement konnte der „Blackout“ bisher vermieden werden.

Eindeutige Schlussfolgerung: Bevor nicht klar ist, dass und wie man vernünftig speichern kann und welche Netze man wo braucht, ist der weitere Ausbau erneuerbarer Energien in Deutschland schlicht unsinnig.

5. Strickmuster und Auswirkungen des Erneuerbaren Energien Gesetzes (EEG)?

Das EEG trat zum 1. April 2000 zu Zeiten einer rot-grünen Bundesregierung in Kraft. Es löste das Stromeinspeisungsgesetz – mit dem ersten Einspeise- und Vergütungssystem zugunsten regenerativen Stroms – ab, das seit dem 1. Januar 1991 gültig war. Als Väter des ganze fünf Paragraphen starken „Gesetzes über die Einspeisung von Strom aus erneuerbaren Energien in das öffentliche Netz“ werden Matthias Engelsberger (CSU), Wolfgang Daniels (Grüne) und – als weitere Person – auch Hermann Scheer (SPD) kolportiert. Sicher ist, dass der entsprechende Gesetzesentwurf von der CDU/CSU-Fraktion eingebracht und u.a. von Helmut Kohl und dem FDP-Politiker Helmut Haussmann (dem damaligen Bundeswirtschaftsminister) unterzeichnet wurde. Wenn man so will, eine schwarz-rot-grüne Erfindung, die knapp 10 Jahre später – bei Mitwirkung von Solarunternehmern am Gesetzesvorhaben – richtig „vergoldet“ wurde.

Das Markenzeichen des an die Bedingungen im liberalisierten Strommarkt angepassten und erheblich erweiterten Erneuerbaren Energien Gesetzes – zuletzt geändert am 20.12.2012, mit zwischenzeitlich 66 Paragraphen und fünf Anhängen – sind der Einspeisevorrang für Erneuerbare, die 20 Jahre lange Garantiezeit sowie die, trotz verschiedener Anpassungen nach unten (sog. Degressionen) immer noch stattlichen Einspeisevergütungen. Mit der letzten Novellierung wurde – zum ersten Mal überhaupt – für die Förderung des weiteren Ausbaus von PV-Anlagen bei 52 GW eine Deckelung verfügt.

Der erste Erfahrungsbericht vom 28. Juni 2002 bestätigte (natürlich) den Erfolg des EEG: den gestiegenen und weiter steigenden Anteil der erneuerbaren Energien am Stromverbrauch, Umsatzrekorde der Branche mit zu diesem Zeitpunkt neu entstandenen 120.000 Arbeitsplätzen und vielen Millionen Tonnen vermiedenen Treibhausgasen. Der Erste Monitoring Bericht „Energie der Zukunft“ der Bundesministerien für Umwelt und Wirtschaft, Stand Dezember 2012, (lesenswert, nicht nur wegen des Glossars am Ende des Werkes – http://www.bmwi.de/BMWi/Redaktion/PDF/Publikationen/erster-monitoring-bericht-energie-der-zukunft,property=pdf,bereich=bmwi2012,sprache=de,rwb=true.pdf), geht ebenfalls auf die Beschäftigungseffekte ein. Dabei wird für die Jahre 2009 und 2010 von einer Netto-Beschäftigung von 70.000 bis 90.000 Arbeitsplätzen durch den Ausbau erneuerbarer Energien ausgegangen, zur Wirkung der in den Jahren 2011 und 2012 verabschiedeten Maßnahmen lägen noch kaum Daten vor (siehe S. 107).

Im Jahre 2005 hatte der damalige Bundesumweltminister Sigmar Gabriel bei der Novellierung des EEG, gestützt auf ein Gutachten, noch von 400.000 Arbeitsplätzen bis 2020 gesprochen. Berücksichtigt man die seit 2011 eingetretenen Insolvenzen in der PV-Branche und die offensichtlichen Schwierigkeiten im „Windkanal“, wird klar, dass die optimistischen Annahmen blauäugig und die frühen Warnungen zur angeblichen Mär von der Job-Maschine richtig waren, u.a. von Carl Christian von Weizsäcker (siehe oben S. 2-3) oder dem Rheinisch-Westfälischen Institut für Wirtschaftsforschung (RWI), das schon im Jahre 2004 von bestenfalls kurzfristigen, jedoch nicht nachhaltigen, am Ende sogar negativen Effekten auf die Beschäftigung sprach.

Das EEG lädt der deutschen Volkswirtschaft zudem immense finanzielle Lasten auf: nach Bundesumweltminister Peter Altmaier, der damit am 28. Januar d. J. seinen (vergeblichen) Vorstoß mit der Strompreissicherung oder -bremse begründete, eine Billion, das sind 1.000 Mrd. €. Dass selbst Experten diese Dimension lange Zeit verborgen blieb, erklärt sich vielleicht mit der verbreiteten Interessengebundenheit, aber auch damit, dass die ganze Übung ja außerhalb des Bundeshaushalts allein über Strompreisanpassungen abläuft. Prof. Hans-Werner Sinn vom ifo Institut in München warnte im Juli 2011: „Die 17 Mrd., die das EEG die Verbraucher allein in diesem Jahr kostet, sind anderswo Einkommen, zu einem erheblichen Teil allerdings in China, denn von dort kommen zwei Drittel der Sonnenpaneelen und sicherlich auch ein großer Teil der Windräder.“ Hinzu kommen weitere Umverteilungseffekte – sozial bedenklich von unten nach oben, wie auch geographisch von der Mitte (Nordrhein-Westfalen) in den Norden (Schleswig-Holstein/Niedersachsen) und Süden (Bayern). Roland Tichy hat das in einem Kommentar in der Wirtschaftswoche am 23.2.2013 treffend mit „Die große Verteile“ umschrieben: „Von den Bundesländern ist es so vor allem Nordrhein-Westfalen, das ausblutet. An Ruhr und Rhein erstreckt sich die größte Stadtregion Europas. Die Reste der Montanindustrie – Stromkonzerne, Kraftwerke, Zulieferer verlieren ihre Existenz.“ Die RWE aus Essen könnte umziehen, aber was machen die vielen Stadtwerke, die ebenso die Energiewende verkraften müssen? Verluste “fressen” deren Eigenkapital auf. Trifft dies ein Stadtwerk in einer klammen Kommune, auch hier ist NRW führend, gehen die Lichter aus und Arbeitsplätze und Wertschöpfung unwiederbringlich verloren.

In Bezug auf diese, fast mit Händen greifbaren Verteilungswirkungen erstaunt die weit verbreitete Ahnungslosigkeit: So kommt beispielsweise im 2013 erschienen Buch von Hans-Ulrich Wehler, Die neue Umverteilung – Soziale Ungleichheit in Deutschland, Energiepolitik/das EEG überhaupt nicht vor. Dass auch im vom Bundesministerium für Arbeit und Soziales im März d. J. unter dem Titel „Lebenslagen in Deutschland“ herausgegebenen vierten Armuts- und Reichtumsbericht der Bundesregierung nichts in dieser Hinsicht zu finden ist, passt ins Bild. Allgemein wird konstatiert, dass durch die Ungleichheit das Gerechtigkeitsempfinden verletzt werde. Mit Eike Roth kann man fragen, inwieweit sich dieses Gefühl verstärkt, wenn mit zunehmender Tendenz „ … die relativ finanzarmen Mieter … Hausbesitzern den Ausbau der Solarzellen …, die kleinen Leute den Grundbesitzern die Pacht für das Aufstellen von Windenergieanlagen … zahlen, … soviel, dass diese … auch noch dicke Gewinne einstreichen können, ohne irgend ein Risiko dabei zu haben.“

Die kräftigen „Wecksignale“ sollten beachtet und richtig gedeutet, vom weitverbreiteten Wunschdenken beim Prognostizieren des Anstiegs der EEG-Umlage in Wissenschaft und Politik endlich Abstand genommen werden. Rudolf Kipp belegt dies eindrücklich (siehe www.science-skeptical.de/blog/energiewende-immer-teurer) und zeigt, dass seit 2009 die EEG-Umlage regelrecht explodiert ist (von 1,13 Cent/kWh auf 2.05 in 2010, 3,53 in 2011, 3,59 in 2012 und gegenwärtig 5,28 Cent/kWh netto, d.h. noch ohne 19% Mehrwertsteuer).

Den vier Übertragungsnetzbetreibern hat man die Verpflichtung auferlegt, die EEG-Umlage bis zum 15. Oktober eines Kalenderjahres für das folgende Kalenderjahr zu ermitteln und zu veröffentlichen (siehe hierzu http://www.eeg-kwk.net/de/EEG-Umlage.htm). Das Aufkommen aus der EEG-Umlage betrug in 2012 14,1 Mrd. €, für 2013 sind 20,4 Mrd. € eingerechnet, Tendenz weiter steigend.

Auch in Bezug auf den Klimaschutz kehrt Ernüchterung ein, nachdem der CO2-Ausstoss in Deutschland seit 2012 wieder steigt. Wie von Prof. Sinn vorhergesagt, wird „kein Gramm CO2 eingespart“, da sich das EEG und der Handel mit Verschmutzungsrechten im Grunde genommen ausschließen. Nach Einführung der Emissionszertifikate auf Ebene der Europäischen Union im Jahre 2005 wollte man vom EEG nicht lassen, da es sich als gute Einkommensquelle erwies. Gleiches trifft auch auf die Verheißungen zu, mit dem EEG würden Innovationen angestoßen. Prof. Joachim Weimann von der Universität Magdeburg hat am 31.1.2011 in der FAZ nachdrücklich davor gewarnt, dass die Subvention nicht in die Entwicklung von Zukunftstechnik, sondern ausschließlich in die Produktion gehe. Die Turbulenzen in der deutschen PV-Branche sind dafür ein eindrücklicher Beweis. Gut ist, dass nicht auch noch der Streit mit China um Schutzzölle eskaliert ist, sonst hätten wir die Zeche doppelt und dreifach gezahlt.

Im gemeinsamen Monitoring Bericht von Wirtschafts- und Umweltministerium wird auf die preisdämpfenden Wirkungen der erneuerbaren Energien an der Strombörse verwiesen (siehe S. 40). Die verringerte Nachfrage nach konventionellem Strom verdrängt entsprechend der Merit-Order (Einsatzreihenfolge von Kraftwerken nach deren kurzfristigen Grenzkosten) Kraftwerke mit höheren variablen Kosten und sorgt dafür, dass Kraftwerke mit vergleichsweise niedrigeren variablen Kosten preissetzend werden. Dabei reicht in 2011 die Bandbreite für die dadurch erzielte Absenkung des Börsenstrompreises von 0,3 bis 1,0 Cent/kWh.

In der Praxis führt dies zunehmend zur vorläufigen Stilllegung oder gar Nichtinbetriebnahme von hochmodernen Gas- und Dampfturbinen-Kraftwerken (GuD), die aber als Produzenten von Regelenergie zur Stabilisierung des Stromnetzes dringend gebraucht werden. Entsprechende Ankündigungen liegen von allen vier großen Energieversorgern, ebenso von Stadtwerken vor. So gibt es massive wirtschaftliche Probleme beim Stadtwerkeverbund „Trianel“ bezüglich dem von 32 Stadtwerken (bei insgesamt 54 über das ganze Bundesgebiet verteilten kommunalen Gesellschaftern) gemeinsam geschulterten Steinkohlekraftwerk in Lünen, das unter den gegenwärtigen Rahmenbedingungen nach voller Inbetriebnahme (zur Zeit läuft der Probebetrieb) einen jährlichen Verlust von 100 Mio. € machen wird (siehe FAZ vom 17.7.2013). Der Bundesnetzagentur sind aufgrund einer Ende letzten Jahres beschlossenen Neuregelung Stilllegungen mindestens 12 Monate im Voraus anzukündigen, auch vorläufige Abschaltungen müssen angezeigt werden. Ist ein Kraftwerk „systemrelevant“ kann die Bundesnetzagentur anordnen, dass es zwei Jahre lang weiterbetrieben werden muss.

Vermutlich auch hieran denkt Eike Roth, wenn er als „Todsünde“ der Energiewende das Auseinanderlaufen von betriebs- und volkswirtschaftlicher Optimierung bezeichnet. Von Kriegen abgesehen, sei es das Schlimmste, was Politiker tun könnten, wenn Unternehmen, die sich betriebswirtschaftlich richtig verhalten, aufgrund fehlerhafter Rahmenbedingungen der Volkswirtschaft Schaden zufügen.

6. Wie unabhängig kann Deutschland agieren und eine Vorreiterrolle einnehmen?

Unsere Volkswirtschaft ist stark in den internationalen Wettbewerb eingebunden. Eine wichtige Größe, neben Qualität und Markennamen ist der Preis deutscher Produkte, der entscheidend von der Arbeitsproduktivität beeinflusst wird. Die Energiekosten spielten dabei in jüngster Vergangenheit je nach Branche zumeist nur eine untergeordnete Rolle, auch weil es im EEG Ausnahme- und Härtefallregelungen für stromintensive Unternehmen und den beschriebenen Effekt der Börsenpreissenkung gibt (siehe zum Stand März 2011: http://www.bmu.de/fileadmin/bmu-import/files/pdfs/allgemein/application/pdf/eeg_stromkosten_bf.pdf). Dies ändert sich zunehmend und nicht nur beschränkt auf große Industrien, es wirkt sich inzwischen auf die gesamte Volkswirtschaft aus. Die Schere bei den Energiepreisen öffnet sich nicht nur, weil in den USA die Energie billiger wird, sondern weil gerade und vor allem in Deutschland die Energiekosten durch das EEG immer weiter “künstlich” in die Höhe getrieben werden. So warnte jüngst (am 29.7.2013 in der Mittelbayerischen Zeitung) der bayerische Wirtschaftsminister Martin Zeil von der FDP: „Wenn unsere Grundstoffindustrien von heute auf morgen 5,3 Cent EEG-Umlage pro Kilowattstunde Strom bezahlen müssten – das ist mehr als der gesamte Industriestrompreis in den USA –, dann wäre der Industriestandort Bayern schnell am Ende“. Er spielt damit insbesondere auf das am 6. März d. J. eröffnete förmliche Beihilfeverfahren durch die Europäische Kommission an, bei dem es um die Prüfung der Befreiung zugunsten energieintensiver Unternehmen geht und dessen Ergebnis nicht nur eine Signalwirkung zugeschrieben wird.

Wir müssen schauen, was machen unsere Nachbarn in Europa (z.B. Polen, das auf Kohle setzt) und die USA? Dort laufen beispielsweise Steuermäßigungen für Windkraftanlagen Ende 2013 definitiv aus; das sog. Fracking zur Gasgewinnung wird verstärkt genutzt, die freiwerdende Kohle exportiert (und damit auch die CO2-Emissionen im eigenen Land reduziert). Übrigens werden auch in Großbritannien und Polen riesige Vorkommen des unkonventionellen Schiefergases vermutet. China und Indien gehen aufgrund ihrer schieren Größe unbeirrt ihren eigenen Weg, ebenso Russland. Bis auf die Schweiz setzen dabei alle, sogar das arg gebeutelte Japan auf die weitere friedliche Nutzung der Kernenergie. Die Schweiz wendet sich, ebenso wie Deutschland von der Kernenergienutzung ab, allerdings in gemächlichem Tempo, Optionen offen haltend, keineswegs so überhastet und kopflos wie wir mit unserer Energiewende. Reine Gefolgschaft haben wir fast keine mehr.

Das EEG ist von den meisten EU-Mitgliedstaaten übernommen worden, jedoch selten eins zu eins und bei weitem nicht in dieser Umfänglichkeit. Statt des Einspeise- gibt es auch sogenannte Quotenmodelle. Österreich beispielsweise deckelt die Subvention auf maximal 27 Mio. € im Jahr, gibt „nur“ eine 13jährige Garantiezeit und wird in 2015 auf ein Quotenmodell umstellen. Italien, Spanien, Bulgarien, Griechenland und Tschechien haben zwischenzeitlich eine opulente Förderung zurückgeschnitten, in Prag läuft wegen der Solarsubventionen sogar eine von der nationalen Regulierungsbehörde angestrengte Strafanzeige gegen Unbekannt.

Wird an einzelnen Tagen im deutschen Stromnetz zu viel Strom erzeugt, erhält das Ganze automatisch ebenfalls eine internationale Dimension (siehe Handelsblatt vom 16.4.2013). Denn dann gehen überschüssige Strommengen aufgrund des paneuropäisch-technischen Netzverbundes notgedrungen unter anderem ins Nachbarland Polen, das sich die Übernahme zudem bezahlen lässt. Da dies auch die Sicherheit des dortigen Stromnetzes – wie in anderen europäischen Staaten – gefährdet, werden mittlerweile in Ländern wie Tschechien und Polen Überlegungen in Richtung technischer Stromsperren angestellt.

Das wohlwollende Interesse, mit dem das Ausland den deutschen Sonderweg in der Energiepolitik zunächst begleitet hat, ist verflogen. Die enge wirtschaftliche Verflechtung der deutschen Volkswirtschaft in Europa und der ganzen Welt gemahnt uns daran, die Energiekosten nicht aus dem Ruder laufen zu lassen.

7. Welche Weichenstellungen sind nach der Bundestagswahl am 22. September dringend geboten?

Wichtig ist zunächst einmal, die grassierende Panikmache zu beenden, denn „Angst essen Seele auf“ (Rainer Werner Fassbinder). Es muss ein Meinungsklima geben, in dem alle Fragen der Energiepolitik offen und vorbehaltlos diskutiert werden können. Es darf nicht sein, dass erst bei der Pensionierung von Spitzenbeamten, wie jüngst bei der Verabschiedung von Werner Ressing (einem studierten Ingenieur für Maschinenbau und Energietechnik) aus dem Bundeswirtschaftsministerium, die Stunde der Wahrheit schlägt: „Man baue mit den Erneuerbaren Energien Zigtausende Kilowatt Leistung auf, die nicht immer Kilowattstunden liefern. …. 80 Millionen Deutsche alimentieren seit 20 Jahren und für 20 Jahre eine Million Betreiber von EE-Anlagen. … Wo gibt es das in einem marktwirtschaftlichen System?“ (siehe hierzu die Wirtschaftswoche vom 6.8.2013).

Man sollte den Mut haben, das EEG abzuschaffen, die bereits aufgelaufenen Lasten zu begrenzen. Die Zeit für Halbherzigkeiten (wie der Vorschlag von Hanno Kempermann vom DIW oder auch die Altmaiersche Strompreisbremse) ist abgelaufen. Systematisch und ausgesprochen ehrenwert ist der Verfahrensvorschlag des Bundesumweltministers zur Neuregelung des EEG. Er sollte aber grundsätzliche Fragestellung nicht ausklammern. Auch sind die bisher im dafür vorgesehenen EEG-Dialog angestellten Überlegungen viel zu nahe am Status quo angesiedelt (zum BMU-Papierhttp://www.bmu.de/fileadmin/bmu-import/files/pdfs/allgemein/application/pdf/verfahrensvorschlag_eeg-reform_2012_bf.pdf und zum EEG-Dialoghttp://www.bmu.de/themen/klima-energie/energiewende/eeg-reform/1-eeg-dialogforum/). Auf dem Tisch liegende Vorschläge zu einem neuen Marktdesign, wie vom Verband kommunaler Unternehmen (VKU) oder auch die „EIKE Energiewende light“, selbst das AfD Energie-Programm und andere sind aufzunehmen und auf ihre Nützlichkeit hin sorgfältig abzuklopfen.

Dazu gehört auch die Antwort auf die hochsensible Frage, ob stillgelegte Kernkraftwerke nicht wieder ans Netz bzw. die noch nicht stillgelegten länger am Netz bleiben sollten? Auch hier gilt, dass Angst ein falscher Ratgeber sein kann. Auf jeden Fall ist im internationalen Kontext die deutsche Beteiligung an der Erforschung neuerer Kernkraftwerkstypen (der vierten Generation), wie beispielsweise dem Dual-Fluid-Reaktor, sicherzustellen. Wer hier mauert, verspielt wesentliche Zukunftsoptionen.

Es sollten zudem konkrete Anpassungsstrategien an den Klimawandel entwickelt und die Möglichkeit in Betracht gezogen werden, dass dieser maßgeblich natürliche Ursachen haben könnte. Davon unabhängig sind im internationalen Rahmen alle Möglichkeiten der Effizienzsteigerung und Energieeinsparung entlang des Neuentwurfs der Energie-Klima-Landkarte der IEA auszuschöpfen (http://www.worldenergyoutlook.org/publications/weo-2013/).

Die verbliebenen Unternehmen aus der PV- und Windkraftbranche (einschließlich des „Power-to-Gas“-Verfahrens) sind weiterhin in ihren Anstrengungen zu unterstützen, den Export in jene Länder kräftig anzukurbeln, die für die entsprechende Anwendung die günstigsten, das heißt auch günstigere Bedingungen als in Deutschland aufweisen (siehehttp://www.exportinitiative.bmwi.de/EEE/Navigation/downloads.html).

Vor allem sollte Deutschland keine kostspieligen Alleingänge mehr unternehmen. Dazu gehört, sich von der althergebrachten Formel zu verabschieden, „am deutschen Wesen, könne/solle die Welt genesen.“ Alles in allem geht es darum, planwirtschaftliche Experimente im Energiesektor zu beenden und zu einer langfristig angelegten, stärker ordnungspolitischen Variante zurückzufinden, die den Trias der Energiepolitik aus Sicherheit, Wirtschaftlichkeit und Umweltverträglichkeit dauerhaft gewährleisten kann.

Jürgen Gneveckow ist studierter Wirtschaftswissenschaftler und aktiver Kommunalpolitiker (CDU)

Mit Dank übernommen von Science Sceptical hier 




Britische Wirtschaft protestiert gegen die Kosten der grünen Energie-Reformen

Mehrere Minister drücken ein Energiegesetz durch das Parlament, das Milliarden Pfund langzeitlicher Subventionen einführen soll für Low-Carbon-Energiequellen wie Windparks und Kernreaktoren.

Mit den Plänen wird beabsichtigt, ältere und schmutzigere Kohlekraftwerke zu ersetzen, die abgeschaltet werden, damit UK die gesetzlich vorgeschriebenen Ziele hinsichtlich Kohlenstoff-Reduktion und erneuerbare Energien erreichen kann.

Aber die grünen Technologien sind nicht kommerziell lebensfähig ohne die Subventionen. Aufgebracht werden sie durch Zuschläge zu den Stromrechnungen der Verbraucher.

Unberechenbare neue Energiequellen wie Wind machen auch die wirtschaftlichen Aspekte des Baus von Gaskraftwerken schwieriger, da sie nicht länger ununterbrochen laufen werden. Es wird Anreize geben, neue Gaskraftwerke zu betreiben, wenn sie gebraucht werden, z. B. wenn der Wind nicht weht. Die Politik beschreibt das als „eine Premium-Versicherung gegen das Risiko von Blackouts“.

Offiziellen Zahlen zufolge ist der Einheitspreis für Strom als Folge dieser Politik bereits um 30 Cent gestiegen und wird bis zum Jahr 2020 um 50 Cent steigen. Allerdings bestehen die Minister darauf, dass dies billiger wäre als gar nichts zu tun, weil ihren Worten zufolge Gaskraftwerke immer teurer im Betrieb werden.

Eine Umfrage von npower unter 66 leitenden Energiemanagern in wesentlichen industriellen und kommerziellen Unternehmen in UK sowie Energieberatern ergab, dass weniger als die Hälfte von ihnen genau verstanden hat, wie ihre Geschäfte betroffen sein würden.

Drei von vier sagten, sie seien besorgt bzgl. der Reformen. Die meisten führten die Kosten als ihre Hauptsorge an.

Wayne Mitchell, Direktor für industrielle und kommerzielle Verkäufe und Marketing bei npower sagte: „Es zeigt sich, dass die Firmen über die Auswirkungen auf die Wettbewerbsfähigkeit von UK besorgt sind. Dabei ist das Letzte, was die Regierung will, dass Firmen ins Ausland gehen, um die Folgen der Energiereformen zu umgehen“.

Diese Warnung ist ein Spiegelbild dessen, was auch die Organisation der Hersteller EEF sagte: „solange wir die Preisspirale nach oben nicht im Griff haben, bergen stark steigende Strompreise das Risiko, dass UK zu einer zunehmend unattraktiven Örtlichkeit für Investitionen der Industrie wird, was die Bemühungen zur wirtschaftlichen Erholung unterminiert“.

Die Minster haben bereits Pläne, wesentliche Energieverbraucher von einigen der Kosten der Reformen auszunehmen. Aber Kritiker sagen, dass das nicht weit genug geht, um die Kosten wirklich zu lindern.

Link: http://www.telegraph.co.uk/finance/newsbysector/energy/10278434/Businesses-protest-over-cost-of-green-energy-reforms.html

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Hier geht es zwar um UK, aber warum fällt mir bei so etwas immer auch unser Land ein?




Europa zieht den Stecker aus seiner grünen Zukunft

Bild rechts: Solarpaneele in Spanien, wo 50000 Unternehmer von Solarpaneelen vor einem finanziellen Desaster stehen, nachdem die spanische Regierung Subventionen gekürzt hatte. Quelle: AFP

Langsam, aber immer mehr wacht Europa auf in Bezug auf eine Krise grüner Energie; einem ökonomischen und politischen Debakel, das vollständig selbst verschuldet ist.

Die Mainstream-Medien, die gewöhnlich den Schub der Erneuerbaren enthusiastisch befeuern, beginnen ebenfalls, sich zu besinnen. Immer mehr Risse tun sich auf, und viele Zeitungen kehren zu der ihnen zukommenden Rolle als vierte Gewalt zurück, die die Fallen des Glücksspiels grüner Energie aufzeigen und ihre Seiten für gründliche Analysen und Debatten öffnen [da ist die „Süddeutsche“ aber noch Lichtjahre von entfernt! A. d. Übers.]. Heute sind die europäischen Medien angefüllt mit Nachrichten und Kommentaren über die Probleme einer schlecht durchgeführten Strategie, die zunehmend wackelig und unsicher wird. [Das gilt aber wohl nur für alle Länder außer Deutschland. Was kann man denn da bloß machen?! Siehe auch meine Bemerkung am Ende! A. d. Übers.]

In einer Studie der britischen PR-Beratungsgesellschaft CCGroup wurden 138 Artikel über Erneuerbare analysiert, die während des Julis letzten Jahres in den fünf größten britischen nationalen Zeitungen veröffentlicht worden waren: The Sun, The Times, The Daily Telegraph, Daily Mail and Daily Mirror. Alle zusammen erscheinen täglich mit einer Auflage von etwa 6,5 Millionen.

Die Studie kam zu dem Ergebnis: „Die Analyse enthüllte eine Anzahl von Trends in der Berichterstattung über Erneuerbare Energien. Erstens und am wichtigsten, die Temperatur der Gefühle der Medien hinsichtlich der Erneuerbaren ist kalt. Mehr als 51 Prozent der 138 analysierten Artikel waren in ihrem Tenor entweder negativ oder sehr negativ bzgl. dieser Industrie“.

Mehr als 80 Prozent der Artikel erschienen unter fetten Schlagzeilen in den Zeitungen The Times, The Daily Telegraph und The Daily Mail, heißt es in der Studie; und weiter: „aber 55% dieser Artikel waren entweder negativ oder sehr negativ über die Industrie“.

Der Bloomberg New Energy Finance zufolge haben die EU-Mitgliedsstaaten seit dem Jahr 2005 etwa 600 Milliarden Euro in Projekte erneuerbarer Energie gesteckt. Die grüne Energiewende in Deutschland allein könnte die Verbraucher bis zum Jahr 2030 1 Billion Euro kosten, hat die Regierung [in Gestalt von Peter Altmaier! A. d. Übers.] gewarnt

Diese Hunderte Milliarden werden von gewöhnlichen Familien sowie kleinen und mittleren Unternehmen gezahlt. Es ist unzweifelhaft eine der größten Transfers von Wohlstand von den Armen zu den Reichen in der jüngeren europäischen Geschichte. Steigende Stromkosten dämpfen die Kauflust der Verbraucher, und das ist Gift für einen Kontinent, der mit einer ernsten ökonomischen und finanziellen Krise kämpft.

Der Bund der Energieverbraucher. e.V. in Deutschland schätzt, dass bis zu 800000 Deutsche von der Stromversorgung abgeschnitten worden sind, weil sie ihre Stromrechnungen nicht mehr zahlen konnten. Darunter waren einem Bericht des Spiegels zufolge 200000 Langzeitarbeitslose.

Der Autor Charles Lane von der Washington Post hat beobachtet: „Es ist eine Sache, den Arbeitsplatz zu verlieren, weil eine konkurrierende Firma eine größere Mausefalle entwickelt hat; es ist aber juristisch eine ganz andere Sache, ihn zu verlieren, weil ein Mitbewerber der Regierung gesagt hat, ihn zu streichen“.

Vor zwei Wochen hat die tschechische Regierung beschlossen, zum Ende dieses Jahres sämtliche Subventionen für Projekte erneuerbarer Energie zu stoppen. „Der Grund für diese Überarbeitung der Gesetze ist die steigende finanzielle Last für die Stromverbraucher“, sagte Premierminister Jiri Rusnok. „Sie bedroht die Wettbewerbsfähigkeit unserer Industrie und steigert die Unsicherheit der Verbraucher hinsichtlich der Energiepreise“. Während der vergangenen Jahre haben fast alle EU-Staaten ebenfalls den Prozess begonnen, zurückzurudern und grüne Subventionen zu kürzen.

Spanien ist ein besonders warnendes Beispiel. Durch das Versagen bei der Kontrolle der Kosten garantierter Subventionen steht das Land mit 126 Milliarden Euro bei den Investoren in erneuerbare Energien in der Kreide.

Inzwischen hat die spanische Regierung diese Subventionen drastisch gekürzt, sogar rückwirkend, und über 50000 Solarunternehmer stehen vor einer finanziellen Katastrophe und dem Bankrott.

Deutschland jedoch ist die Nation, die die Agenda der Erneuerbaren am weitesten vorangetrieben hat und kämpft auch am stärksten mit den unbeabsichtigten Schäden der sog. Energiewende [das Wort steht so kursiv gesetzt auch im Original, auch noch in folgenden Abschnitten. In diesen Fällen habe ich die Kursiv-Schreibweise übernommen. A. d. Übers.].

Die Abgaben für erneuerbare Energie in Deutschland, mit denen die Erzeugung grüner Energie subventioniert wird, sind innerhalb nur eines Jahres von 14 Milliarden Euro auf 20 Milliarden Euro gestiegen, und zwar als Folge des ungebremsten Ausbaus von Wind- und Solarenergieanlagen. Seit Einführung der Abgabe im Jahr 2000 haben sich die Stromrechnungen deutscher Verbraucher verdoppelt.

Deutsche Haushalte werden allein in diesem Jahr einen Aufpreis von 7,2 Milliarden Euro zahlen. Zusätzlich werden die Verbraucher durch indirekte Kosten belastet, weil Industrie, Handel und Kommerz die steigenden Energiepreise für ihre Produkte an die Verbraucher weiterreichen. Und weil die Subventionen für grüne Energie 20 Jahre lang garantiert sind, besteht die reale Gefahr, dass diese Kosten noch exorbitant weiter steigen, wenn der Zubau weitergeht. Energierechnungen schießen durch die Decke, die Energiearmut nimmt zu, und die Energiepolitik bzgl. der Erneuerbaren steht vor einem Rückschlag. Was aber noch mehr ins Gewicht fällt – die Regierungen in Europa machen sich zunehmend Sorgen über die Bedrohung für die industrielle Basis.

In Deutschland zahlt man die höchsten Strompreise Europas mit einem mittleren Preis von 26,8 Cent pro Kilowattstunde. Kein Wunder, dass Kanzlerin Angela Merkel davor gewarnt hat, dass die rapide Ausweitung von Programmen bzgl. grüner Energie den deutschen Wettbewerbsvorteil in der globalen Wirtschaft schwächt.

Auch die EU fährt ihre erneuerbare Agenda still und heimlich zurück, weil die EU-Führer inzwischen erkennen, dass dadurch im gesamten Kontinent die Energiepreise gestiegen sind. Auf ihrem Gipfel in Brüssel im Mai haben sie ihre Absicht bekundet, das Thema bezahlbare Energie höher zu stellen als die Reduktion von Treibhausgasen.

Von diesem EU-Gipfel ging auch das Signal aus, dass man die zurückgehende Wettbewerbsfähigkeit aufzuhalten gedenkt und die Entwicklung billiger Energie, darunter Schiefergas, zu unterstützen, während Subventionen für grüne Energie gekürzt werden.

Allerdings sind die Umweltminister der EU alarmiert über das anvisierte Zurückfahren. Sie trachten danach, die Ausbeutung der EU-Schieferreserven zu verhindern, indem sie EU-weite Hindernisse einführen.

Bis vor Kurzem hat sich Europa als der globale Anführer hinsichtlich Klimaschutz und erneuerbare Energie geriert, wobei Deutschland an erster Stelle stand mit ambitionierten Zielen und großzügigen Subventionen, die Solar- und Windenergie enorm befeuert haben.

Über die Hälfte aller in der Welt stationierten Solarpaneele steht in Deutschland. Am 6. Juni erreichte die Erzeugung von Solarstrom in Deutschland den neuen Rekord von 23,4 Gigawatt, was die gesamte Spitzenlast des Landes zu 40% gedeckt hat. Aber um zu verstehen, warum dieser Rekord ziemlich bedeutungslos ist, betrachte man das Vorbeischrammen am Netzzusammenbruch im vergangenen Winter. Viele Wochen lang in den Monaten Dezember und Januar haben die 1,1 Millionen Solarsysteme in Deutschland fast keinen Strom erzeugt. Die meiste Zeit über haben die Solarpaneele in diesen Monaten bei bedecktem Himmel die Stromerzeugung mehr oder weniger eingestellt. Um Blackouts zu verhindern, mussten die Netzbetreiber Kernkraftstrom aus Frankreich und der Tschechischen Republik importieren sowie von einem alten, mit Öl befeuerten Kraftwerk in Österreich.

Die Subventionen sind extreme generös und garantieren den Investoren 20 Jahre lang einen Rückfluss von fast 10 Prozent pro Jahr. Angesichts dieses beispiellosen Angebotes ist es keine Überraschung, dass bereits mehr als eine Million Familien Solarpaneele installiert haben. Dieser Solarboom hat jedoch dem Land Verpflichtungen in Höhe von über 130 Milliarden Euro an Subventionen aufgebürdet, was zu immer weiter steigenden Energiepreisen führt.

Während wohlhabende Hausbesitzer und Firmeneigentümer auf ihren Dächern und Fabrikgebäuden Solarpaneele installieren, müssen in Mietswohnungen lebende Familien mit geringem Einkommen die in die Höhe schießenden Stromrechnungen bezahlen. Viele können sich das nicht länger leisten, so dass die Versorger sie von der Stromversorgung ausschließen.

Um den Solarboom zu beenden hat die Regierung die Einspeisetarife für Solarstrom während der letzten Jahre reduziert. Allerdings sind seit dem Jahr 2010 über 5000 Unternehmen in der Solarbranche pleite gegangen, wobei zehntausende grüner Arbeitsplätze vernichtet worden sind.

Die größten deutschen Unternehmen wie Siemens und Bosch geben die Industrie ebenfalls auf. Ihre Strategien hinsichtlich erneuerbarer Energien endeten in kostspieligen Debakeln. Siemens, das größte derartige Unternehmen, hat im Juni angekündigt, die gesamte Abteilung Solar zu schließen, und zwar mit einem Verlust von etwa 1 Milliarde Euro. Im vorigen Monat hat der Siemens-Vorstand seinen Direktor Peter Löscher gefeuert. Sein dramatischer Hinauswurf erfolgte im Zusammenhang mit einem ganzen Bündel katastrophaler Fehlinvestitionen im Sektor grüne Energie, dem er vorstand.

Auch für Bosch, einen weiteren Riesen in Deutschland, endete das Solarabenteuer in einer Katastrophe, und zwar mit einem Verlust noch höher als bei Siemens: etwa 2,4 Milliarden Euro.

Während des vergangenen Jahres hat die Welle von Bankrotten in der Solarindustrie die gesamte Branche verheerend getroffen, während Investoren in Solar am Aktienmarkt fast 25 Milliarden Euro verloren haben.

Inzwischen plant Deutschland, alle Subventionen auslaufen zu lassen, und die Solarindustrie des Landes wird bis zum Ende dieses Jahrzehnts wohl verschwunden sein.

Die meisten Beobachter waren davon überzeugt, dass die Energielücke in Deutschland durch den vor zwei Jahren erfolgten Beschluss der Schließung von Kernkraftwerken durch Wind- und Solarenergie gefüllt werden würde. Kaum jemand hatte erwartet, dass der außerordentliche Boom erneuerbarer Energieerzeugung auch einen Kohleboom auslösen würde.

Tatsächlich sind die CO2-Emissionen seit zwei Jahren hintereinander gestiegen, weil die Kohle eine Renaissance erfährt. Aber die CO2-Emissionen in der EU als Ganzes werden wahrscheinlich ebenfalls steigen, weil zunehmend Kohlekraftwerke in Betrieb gehen. Diese Enthüllung hat die deutsche Regierung empört und die Öffentlichkeit überrascht, die nicht verstehen kann, wie ein Land, dass sich der erneuerbaren Energie mehr als jedes andere Land verschrieben hat, 20 neue Kohlekraftwerke bauen kann.

In weiten Teilen Europas ist Kohle inzwischen viel billiger für die Stromerzeugung geworden als Erdgas. Der Grund ist der Kollaps des Emissionshandels in der EU und der folgerichtige Rückgang der Kohlepreise. Das macht Kohlekraftwerke ökonomischer als Gaskraftwerke.

Bislang hat der Emissionshandel in Europa die Verbraucher über 300 Milliarden Euro gekostet. Massive grüne Investitionen, ursprünglich gedacht als Antwort auf hohe Kohlepreise wurden eingestampft und sind nicht länger möglich. Es gibt kaum noch Zweifel daran, dass die Klimapolitik des Flaggschiffs Europa total gescheitert ist. In einem Anflug von Realismus hat die International Energy Agency angemerkt, dass „die Klimaänderung ziemlich abrupt zum Ladenhüter politischer Prioritäten geworden ist“.

Von allen unbeabsichtigten Konsequenzen der deutschen Energiewende ist vielleicht die schlimmste von allen der nachteilige Effekt von Wind- und Solarprogrammen auf den Preis von durch Erdgas erzeugtem Strom. Fast 20 Prozent der Gaskraftwerke in Deutschland sind unrentabel geworden und stehen vor der Schließung, weil die Erneuerbaren das Stromnetz bevorzugt mit Energie überschwemmen. Um Blackouts zu verhindern musste die Regierung unökonomische Gas- und Kohlekraftwerke subventionieren, damit sie als Backup zur Verfügung stehen, wenn die Sonne nicht scheint und der Wind nicht weht.

Dieses Durcheinander zwingt Unternehmen zu sogar noch radikaleren Lösungen. E.ON, das größte Stromunternehmen in Deutschland, denkt darüber nach, einige seiner europäischen Gaskraftwerke abzureißen, weil sie nicht mehr profitabel sind, und sie außerhalb der EU neu aufzubauen. Solche absurden Überlegungen sind inzwischen symptomatisch für die unbeabsichtigten Konsequenzen des rasanten Ausbaus erneuerbarer Energie.

Die europäischen Hersteller verlieren massiv Boden im internationalen Wettbewerb. Anstatt ihr Geld in die energieteure EU zu stecken, gießen Investoren es lieber in die USA, wo die Energiepreise auf ein Drittel des Niveaus in der EU gefallen sind, hauptsächlich wegen der Schiefergas-Revolution.

Die naive Annahme von Politkern, dass die wesentlichen Unternehmen in Europa der Verschiebung weg von billigem fossilen Treibstoff hin zu teurer grüner Energie folgen würden, hat sich nicht erfüllt. Die Washington Post hat jüngst gewarnt, dass Europa „zu einem Fall für den Papierkorb hinsichtlich grüner Energie geworden ist. Anstatt zu einem Modell für die Welt zu werden, ist Europa inzwischen zu einem Modell geworden, wie man es nicht machen sollte“.

Die europäische Strategie war aus zwei Befürchtungen entstanden: dass die globale Erwärmung eine zwingende Bedrohung sei, die man sofort verhindern müsse, egal zu welchen Kosten; und dass der Welt die fossilen Treibstoffe ausgehen, was bedeutet hätte, dass Öl und Gas sogar noch teurer geworden wären. Beide Mutmaßungen haben sich inzwischen als falsch erwiesen.

Das Ergebnis des von Angst getriebenen Glücksspiels mit der industriellen Zukunft des Kontinents ist ein kostspieliges, heilloses Durcheinander, das droht, die ökonomische und politische Situation Europas in einer Welt zu unterminieren, die sich vernünftigerweise weigert, seiner Führung zu folgen.

Die Strategie grüner Energie in Deutschland wird sich wahrscheinlich nach den Wahlen am 22. September grundlegend ändern. Merkel hat den Wählern versprochen, die Last von 20 Milliarden Euro drastisch zu kürzen, die sie Investoren in erneuerbare Energien jedes Jahr zahlen muss, falls sie gewinnt.

Die Australier sind gut beraten, genau zu beobachten, wie dieser grüne Zug sehr bald zum Wrack wird, wenn sie verhindern wollen, dass sich das in Europa entfaltende Fiasko hierzulande wiederholt.

Benny Peiser is director of the London-based Global Warming Policy Foundation.

The Australian, 10 August 2013

Link: http://www.thegwpf.org/benny-peiser-europe-pulls-plug-green-future/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers:

Dieser Artikel ist so gut recherchiert, dass ich bei der Übersetzung manchmal fast vergessen habe, dass er aus australischer Sicht geschrieben ist. Man sieht die ganze Chose also außerhalb ganz anders als bei uns. Fast habe ich den Eindruck, dass sich Autor Benny Peiser gar nicht vorstellen kann, wie weit die deutschen Medien noch der Agitation anhängen und hinterher hinken.

C. F.




Kurzvideo über EIKE 1. Hamburger Klima- und Energiegespräch 14.6.13

Übersichts-Video zum 1. Hamburger Klima- und Energiegespräch

Immer dichter vor einem Stromausfall – Die Energiepolitik eines Wahns

Die Stromversorgung in Deutschland ist nicht mehr sicher genug. Sie ist sogar hochgefährdet. Jeden Tag kann es zu einem Stromausfall kommen. Noch ist es bisher gelungen, durch blitzschnelle Eingriffe einen Systemzusammenbruch abzuwenden, aber die Zahl dieser Notfälle hat erheblich zugenommen und tut es weiter. Schuld daran ist der deutsche Wahn, die Versorgung mit Strom aus Kernkraft, Kohle, Erdgas und Erdöl umzustellen auf sogenannte Erneuerbare Energien, vor allem auf die mit Strom aus Wind- und Sonnenenergie.

Je mehr Strom aus Sonne und Wind, desto größer die Blackout-Gefahr

Die Schwankungen dieser Stromversorgung im Verlauf eines jeden Tages sind groß und gefährden das Stromnetz massiv. Wind- und Sonnenstrom fließen auch dann ins Netz, wenn man ihn nicht braucht, oder gehen dem Netz unvermittelt verloren, wenn der Wind nachlässt und/oder sich eine Wolkendecke vor die Sonne schiebt. Wird die technisch notwendige Stromfrequenz von 50 Hertz im Netz über- oder unterschritten, bricht es schlagartig zusammen; vertragen kann es nur eine sehr geringe Abweichung von dieser Frequenz. Und je mehr Windkraft- und Fotovoltaikanlagen errichtet werden, umso häufiger sind auch die Gefährdungen. In der Zeit vor diesem Wahn war die Stromversorgung in Deutschland zu 99,9999 Prozent sicher. Das ist sie mit Wind- und Sonnenstrom nicht mehr. Die wenigsten Bürger sind sich darüber im Klaren.

Systemsicherheit der Stromnetze als Thema bei einer EIKE-Konferenz

Diese Unsicherheitslage in der deutschen Stromversorgung war ein Thema beim 1. Hamburger Klima- und Energiegespräch am 14. Juni in Hamburg, veranstaltet vom Europäischen Institut für Klima und Energie (EIKE). Die Einzelheiten dazu trugen die Energiefachleute Bernd Benser und Helmut Alt vor. Der promovierte Benser ist Hauptgeschäftsführer der GridLab GmbH in Cottbus, dem Europäischen Trainings- und Forschungszentrum für Systemsicherheit der Elektrizitätsnetze, Alt ist Professor für Elektrotechnik an der Fachhochschule Aachen. GridLab bezeichnet sich als „ein in Europa bislang einzigartiges technologisches Instrument, um kritische Netzsituationen unter Realbedingungen zu testen“. Das Besondere daran sei, der GridLab-Netzsimulator könne mit den realen Archivdaten der Netzbetreiber arbeiten.

Die Zahl der Eingriffs- und Gefährdungstage steigt

Eine kritische Situation im Stromnetz gibt es nach Benser derzeit jeden zweiten Tag. Eine Benser-Statistik zeigt: Die Zahl der Eingreif- und Gefährdungstage ist mit dem Ausbau von Windkraft- und Fotovoltaikanlagen von Jahr zu Jahr gestiegen. 2012 haben die Übertragungsnetzbetreiber schon an 262 Tagen in das Netz eingreifen müssen, damit es nicht zusammenbricht, früher sind es nach Benser nur vier bis fünf Tage gewesen. Mit noch mehr Wind- und Sonnenstrom wie geplant werde das dann jeden Tag mehrmals passieren. Denn bis 2020 seien weitere 50 bis 60 Gigawatt an Erzeugungskapazität geplant, aber Transportkapazität für diesen zusätzliche Strom gebe es nur für 12 Gigawatt. Ebenfalls 2012 habe man die Stromlieferungen aus „Erneuerbaren Energien“ schon an 77 Tagen abschalten müssen, um das Land vor Stromausfall zu bewahren.

Was passiert, wenn der Strom ausfällt

Benser wie Alt warnten vor den Folgen eines solchen Ausfall und malten aus, was er bedeutet. Hier eine kleine Auswahl: Das Kommunikationssystem verstummt sofort oder bricht, soweit noch funktionsfähig, in kürzester Zeit wegen Überlastung zusammen, Feuerwehr, Hilfsorganisationen und Polizei sind nicht mehr erreichbar, der Zahlungsverkehr kommt zum Erliegen, die Automaten geben kein Bargeld her, Trinkwasserversorgung und Abwasserentsorgung kollabieren, im Straßenverkehr kommt es zu Staus (Ampelausfall), die Gesamtlogistik bricht zusammen, die Produktionsanlagen laufen nicht mehr, Kühlanlagen kühlen nicht mehr und Kühlgut verdirbt, in den großen Geflügelmastställen fallen die Klimaanlagen aus, für Kühe funktionieren die Melkmaschinen nicht, in Wohnhäusern gehen morgens die elektrischen Rolläden nicht hoch, auch ist (teils nach vier, teils schon nach zwei Stunden) mit Plünderungen zu rechnen, und die medizinische Versorgung ist gefährdet, denn rund 90 Prozent der deutschen Krankenhäuser können sich nicht länger als 48 Stunden mit Notstrom versorgen, aber nach Benser braucht man sechs Tage, bis ein Totalausfall von Strom behoben ist. „Im schlimmsten Fall rechnen wir mit 200 000 Toten.“ Ohne Strom funktioniert im hochtechnisierten Deutschland an wichtigen Dingen fast nichts mehr. Großflächiger Strom-Blackout ist ein nationaler Katastrophenfall.

Durch die „Energiewende“ immer öfter und länger am Limit

Bisher ist die Sicherheit der Stromversorgung in Deutschland, wie Benser sagte, so hoch wie
nirgendwo sonst. Diese hohe Versorgungsqualität sei auch ein Eckpfeiler für Deutschland als Wirtschaftsstandort. Aber das System werde immer länger und immer öfter am Limit gefahren. „Die Gefahr von Blackouts erhöht sich damit automatisch.“ Die deutsche Energiewende bedeute eine enorm schnelle Transformation des gewachsenen Energiesystems, getrieben durch eine veränderte Versorgungsstruktur mit hoher und stetig steigender Volatilität der erneuerbaren Energien, und die hohe Volatilität führe zu immer höheren Frequenzschwankungen. Zwar habe der Gesetzgeber die Problematik erkannt und mit der Systemstabilitätsverordnung (in Kraft seit 26. Juni 2012) darauf reagiert, aber bis sie in der technischen Anwendung und täglichen Praxis umgesetzt sei, bestehe ein deutlich höheres Risiko.

Für die komplizierte Regelungstechnik im Stromverbund ein „Systemführerschein“ vorgeschlagen

Auch sind die technischen Anforderungen an das Bedienungspersonal, wie Benser sagt, rapide gestiegen. In Anbetracht der komplizierter gewordenen Regelungstechnik im Stromverbundsystem und gemessen an den möglichen hohen Schäden, wenn das Personal einen Fehler gemacht hat, will Benser für diese Techniker einen „Systemführerschein“ zur Pflicht gemacht sehen, der sie zur Netz- und Systemführung befähigt und berechtigt. Dieses Verlangen ist aber nicht selbstlos, denn vermitteln will Benser die Befähigung mit seinem Unternehmen. Auch soll diese wie bei Flugzeugpiloten in regelmäßigen Abständen überprüft werden, um die Berechtigung zu verlängern. In seinem Unternehmen soll das Notwendige trainiert werden: der Normalbetrieb, der Stressbetrieb, der Störbetrieb, der Teil- und Totalsausfall des Netzes, der Netzwiederaufbau und dergleichen mehr.

An den Grenzen der technischen Machbarkeit

Professor Alt formuliert die Gefahr des Netzzusammenbruchs so: „Derzeit beträgt die installierte Windleistung rund 30 Gigawatt und die installierte Photovoltaikleistung ebenfalls rund 30 Gigawatt, also insgesamt 60 Gigawatt. Davon können durchaus rund 70 Prozent gleichzeitig wirksam werden, also rund 42 Gigawatt. … Ein stabiler Netzbetrieb ist dann in Deutschland nicht mehr möglich. Die ‚steigenden Anforderungen’ geraten an die Grenzen der technischen Machbarkeit.“

Einfach toll: Stromversorgung nicht nur unsicherer, sondern auch teurer gemacht

Doch gefährden Wind- und Sonnenstrom nicht nur die Stromversorgungssicherheit, sondern haben auch immense zusätzliche Kosten zur Folge. Das Erzeugen von Strom aus regenerativen Kraftwerken mit Wind und Sonne ist wesentlich teurer als aus thermischen Kraftwerken (Kohle, Uran, Erdgas, Heizöl). Freiwillig also würde niemand diesen Strom kaufen. Daher werden die Verbraucher zum Kauf und zu dem höheren Preis gezwungen. Ziemlich verrückt: Für den willkürlich unsicher gemachten Strom muss der Stromverbraucher auch noch mehr bezahlen. Die Grundlage dafür ist das Erneuerbare-Energien-Gesetz (EEG). Da am 17. März 2011 – nach der Zerstörung des Fukushima-Kernkraftwerks durch die Riesenwelle des Seebebens – politisch entschieden wurde, die Stromerzeugung aus Kernkraft zu beenden, gibt Deutschland diese preiswerte Erzeugung mutwillig auf.

Kosten der Stromerzeugung fünfmal höher als vor der „Energiewende“

Die „Energiewende“ wird die Stromerzeugungskosten, wie Elektrotechniker Alt in Hamburg vortrug, um „mindestens den Faktor 5“ erhöhen. Zwar hätten Politiker aller Parteien und viele Verantwortliche der Energieversorgungsunternehmen verkündet, der Kernkraftausstieg sei bis 2020 machbar, doch die Verkünder seien in aller Regel Banker, Volkswirte, Architekten, Lehrer oder Juristen, aber keine Elektrotechniker. „Welcher technische Mehraufwand erforderlich ist und was das dann kostet, sei nicht thematisiert worden. Das ist so, als wenn ein Elektrotechniker erklären würde, dass bis 2020 der Durchbruch zur Heilung jeder Krebserkrankung möglich sei.“

Ein Ziel, das nicht erreichbar ist

Die installierte Leistung von Windkraftanlagen Ende 2012 hat nach den Angaben von Alt 30 980 Megawatt erreicht, davon 150 MW im Meer („offshore“), und die von Fotovoltaik-Anlagen 32 400. In den Sommermonaten dominiert tagsüber in der Regel die Sonnenstromleistung, doch in den Wintermonaten ist sie meist fast bedeutungslos. Bis 2030 sollen in der deutschen Nord- und Ostsee 25 Gigawatt Offshore-Windenergie-Anlagen hinzukommen. Alt: „Derzeit sind 0,15 Gigawatt installiert, die Erkenntnis, dass das Ziel nicht zu erreichen ist, ist ein offenes Geheimnis nicht nur im Hause Siemens oder Tennet.“

Herkömmliche thermische Kraftwerke bleiben unentbehrlich

Es kommt vor, dass Wind und Sonne zur gleichen Zeit keinen Strom liefern. Daher müssen beide regenerativen Stromlieferanten in nahezu voller Leistungshöhe, also zu 100 Prozent, durch Reservekapazitäten abgesichert sein, die mit ihrem Strom sofort zur Verfügung stehen. Das geht am schnellsten mit Pumpspeicher- und Gaskraftwerken. Aber die verfügbare Speicherkapazität aus Pumpspeicherkraftwerken reicht, wie Alt zeigte, bei weitem nicht aus, um die leistungslosen Zeiten der regenerativen Stromerzeugung zu überbrücken: „Das Energie-Speicherpotenzial aller Pumpspeicher-Kraftwerke in Deutschland ist mit 7 Gigawatt Leistung als Tagesspeicher (maximal acht Stunden) vollkommen unzureichend, um die Windstromflautezeiten zu überbrücken.“ Folglich ist und bleibt die herkömmliche thermische Kraftwerkskapazität unentbehrlich.

Je mehr “Erneuerbare“ umso mehr herkömmliche Kraftwerke

Man kann die thermischen Kraftwerke zwar abschalten, wie es längst geschieht, muss sie aber immer bereithalten – gerade auch dann, wenn die Stromerzeugung, wie vorgesehen, nur noch aus regenerativen Anlagen kommen soll. Denn, so Helmut Alt, „zu Zeiten minimaler Windleistung die in jedem Monat kurzzeitig auftreten, helfen selbst beliebig viele Windenergieanlagen nicht weiter. Da es keine Energiespeicher für diese Größenordnungen der Leistung gibt, sind zusätzliche Gasturbinen als back-up-Sicherung erforderlich“. Wenn also immer noch mehr Windkraft- und Fotovoltaikanlagen errichtet werden, müssen auch zusätzliche herkömmliche Kraftwerke gebaut werden, vor allem Gaskraftwerke, weil die schnell anspringen. Deutschlands Politiker glauben also, sich eine Stromerzeugungskapazität leisten zu können, die den Bedarf um das doppelte überschreitet.

Statt 7,5 Milliarden für Kernkraftstrom fast 34 Milliarden für Strom von Wind und Sonne

Was kostet das? Ein solches System aus Wind-, Sonnen- und Gaskraftwerken verteuert – je nach Wind-, Sonnen- und Erdgasanteil für den zu ersetzenden Kernkraftstrom – allein schon die bloße Erzeugung von Strom erheblich. Alt rechnet vor: Die jährlich 150 Milliarden Kilowattstunden Strom aus Kernenergie in Deutschland kosten in der Erzeugung 5 Cent je kWh, insgesamt also 7,5 Milliarden Euro. Für die gleiche Strommenge aus Windkraftanlagen im Meer betragen die Erzeugungskosten 15 Cent je kWh (zusammen 22,5 Milliarden) und aus Fotovoltaik-Anlagen 30 Cent (zusammen 45 Milliarden). Im Mix dieses Wind- und Sonnenstroms je zur Hälfte ergeben sich Erzeugungskosten von 22,5 Cent je kWh und zusammen von 33,75 Milliarden Euro – sofern der Wind weht und die Sonne scheint. Das sind gegenüber dem Kernkraftstrom Mehrkosten im Jahr von 26,25 Milliarden Euro.

Einer freut sich über Deutschlands Energiewende: Gaslieferant Russland

Aber das sind nur die Erzeugungskosten. Erforderlich sind auch 4500 Kilometer neue Übertragungsleitungen (Investitionsbedarf über 10 Milliarden), gebaut sind erst 90 Kilometer. Erforderlich sind ferner für 20 Gigawatt neue Gaskraftwerke; bei 400 Megawatt je Anlage müssen es 50 neue sein (Investitionsbedarf rund 8 Milliarden). Den zusätzlichen Gasbezug aus Russland veranschlagt Alt auf rund 20 Milliarden Kubikmeter im Jahr mit Zusatzkosten von jährlich 3 Milliarden Euro. Damit steige der deutsche Erdgasbedarf von insgesamt rund 100 auf demnächst mindestens 120 Milliarden Kubikmeter. Die russischen Lieferanten reiben sich vor Begeisterung über die deutsche „Energiewende“ die Hände.

Täglich 7 Millionen Euro Mehrkosten für den Stromimport

Wenn Wind und Sonne nicht genug, also nicht bedarfsgerecht liefern, wird Strom importiert, vor allem aus Frankreich und Tschechien. Es ist Strom aus Kernkraftwerken. Frankreichs Lieferungen erreichen monatlich 2 Terrawattstunden und die aus Tschechien 1 TWh. Helmut Alt resümiert: „Die dann noch fehlenden Strommengen werden durch teurere inländische Kohle- und Gaskraftwerke abgedeckt, was eine höhere CO2 -Emission bedingt. Die Mehrkosten für die Strombeschaffung liegen ab dem Tag der Abschaltung am 17. März 2011 bei mindestens 7 Millionen Euro pro Tag. Solange unser Wohlstand in Deutschland nicht aufgebraucht ist, können wir das durchstehen. Wie lange es tragbar ist, aus rein emotionalen Gründen pro Tag 7 Millionen Euro einfach nutzlos – ohne Zuwachs an Wertschöpfung – zusätzlich auszugeben, wird die Zukunft erweisen.“

Die „Energiewende“ beglückt andere, nur nicht die deutschen Stromverbraucher

Liefern Wind und Sonne in Deutschland an Strom zuviel, also ebenfalls nicht bedarfsgerecht, wird er exportiert, vornehmlich in die Niederlande (monatlich 2,5 TWh), in die Schweiz (monatlich 2 TWh) und nach Österreich (monatlich bis zu 1,5 TWh) – dies aber zu sehr niedrigen Preisen. Teilweise sogar muss Deutschland noch dafür zuzahlen, dass ihm diese Länder den Überschussstrom überhaupt abnehmen. So reiben sich auch die Empfänger in diesen drei Ländern ob der deutschen „Energiewende“ die Hände. Wohl also beglückt Deutschland mit seiner Energiepolitik viele andere, nur nicht die eigenen Stromverbraucher – eine Energiepolitik, die geradezu pervers ist. Schon jetzt muss ein Drei-Personen-Haushalt in Deutschland wegen dieser Politik für seinen Strom 400 Euro im Jahr zusätzlich zahlen.

Frau Merkels späte Erkenntnis

Mit steigendem Anteil von Strom aus Wind und Sonne wird der Stromverbraucher in Deutschland zusätzlich noch mehr zahlen müssen. Denn spätestens 2020 soll der Anteil der erneuerbaren Energien am Stromverbrauch 35 Prozent betragen. 2030 sollen es 50 Prozent, 2040 dann 65 und 2050 schon 80 Prozent sein. Bundeskanzlerin Merkel hat, man staune, zutreffend erkannt: „Unser Problem ist die Bezahlbarkeit, weil die erneuerbaren Energien subventioniert werden müssen.“1) Eine ziemlich späte Erkenntnis. Derweilen hält sie die Kostenbegrenzung bei der Ökostromförderung für die “wichtigste Aufgabe” der Bundesregierung. Allerdings erst nach der Bundestagswahl. 2) Doch schiefgegangen ist das auch schon vor der Wahl. Mit ihrem Minister Peter Altmaier hat sie schon vor Monaten eine „Strompreisbremse“ einzubauen versucht. Die Länder legten sich quer. Im April hat Frau Merkel das Vorhaben abgeblasen.3) Wie inzwischen mehrfach erwiesen, ist auf Merkels Äußerungen kein Verlass – und nach der Wahl erst recht nicht.

Eine Politik von Verbohrten, Unbelehrbaren – von Wahnsinnigen

Bisher haben Zeitungen und Zeitschriften über solche EIKE-Tagungen wie diese jüngst in Hamburg nicht berichtet. Sie veröffentlichen lieber gutbezahlte ganzseitige Inserate der Windkraft- und Solarindustrie. Diese finanzieren die Inserate aus den hohen Renditen, die ihnen der Staat mit dem EEG zwanzig Jahre lang garantiert. So müssen die Stromverbraucher mit der ihnen abgepressten Subventionierung letztlich auch noch für die Werbung der EEG-Profiteure aufkommen, die dafür gedacht ist, dass immer mehr solcher Anlagen entstehen. Folglich finanzieren die Stromverbraucher zwangsweise sogar auch selbst noch, dass sie für Strom immer mehr bezahlen müssen. Auch das ist pervers. Diese Energiepolitik ist eine Politik von Verbohrten, Unbelehrbaren – von Wahnsinnigen.

Apropos, wenn es um Ökostrom geht, immer an diese fünf Merksätze denken:

  1. Nachts scheint keine Sonne, bei Regenwetter und bedecktem Himmel fällt sie ebenfalls aus.
  2. Wind weht meist zu viel, zu wenig oder auch gar nicht.
  3. Strom lässt sich nicht speichern.
  4. Der Acker soll Brot fürs Volk liefern, nicht aber „Biogas“ für Strom.
  5. Kernkraft in Deutschland ist sicher genug (und CO2-frei)

PS. Hilfe gegen die Energiewende und Informationen finden Sie bei der Stromverbraucher-Schutzorganisation NAEB: http://www.naeb.de/ und http://www.prmaximus.de/pressefach/naeb-nationale-anti-eeg-bewegung-e.v.-pressefach.html

Dr. Klaus Peter Krause zuerst erschienen auf seinem Blog:

Erneuerbar, aber nicht steuerbar

1) Leipziger Volkszeitung vom 18. September 2012.

2) http://nachrichten.rp-online.de/wirtschaft/merkel-will-strompreisbremse-sofort-nach-der-wahl-1.3461746 sowie FAZ vom 12. und 13. Juni 2013.

3) FAZ vom 22. April 2013.




Interview in Freie Welt.net mit Dipl. Ing Burkhard Reimer – „Die EEG-Umlage ist der eigentliche Preistreiber beim Strom.“

Freie Welt.net: Derzeit speisen die „Erneuerbaren“ ca. 20 bis 25 % des Strombedarfes in das deutsche Netz   ein. Die Preise an der Leipziger Strombörse werden dadurch massiv gedrückt. Dies sollte zum Vorteil der Verbraucher an ihn weitergegeben werden. Warum tun das die Versorger nicht?

Reimer:

Durch die Liberalisierung des Strommarktes Ende der 90ziger Jahre war der Strompreis in Deutschland deutlich gefallen. So musste nach der Strompreisanalyse Mai 2013 des Bundesverbands der Energie- und Wasserwirtschaft e.V. BDEW ein Drei-Personen-Haushaltes im Jahre 2000 knapp 14 ct/kWh bezahlen. In diesem Jahr hingegen muss der gleiche Haushalt bereits fast 29 ct/kWh an seinen Versorger entrichten, also mehr als das Doppelte. Diese in der Geschichte Deutschlands seit dem 2. Weltkrieg einmalige Verteuerung unserer wichtigsten Energieform Strom in so kurzer Zeit führt trotz zunächst breiter Zustimmung in der Bevölkerung für die „Energiewende“ zunehmend auf  Unverständnis und Empörung, zumal der grüne Spitzenpolitiker Jürgen Trittin, einer der Initiatoren des EEG, den Menschen erklärte, dass der Umbau der deutschen Stromversorgung mit dem Preis für eine Eiskugel pro Monat zu bezahlen sei.

Nachdem nun das Desaster, das mit der Energiewende in Deutschland angerichtet wird, immer deutlicher zu Tage tritt, wird von den Initiatoren, den Profiteuren und Lobbyisten der „Erneuerbaren“ wie Prof. Dr. Claudia Kemfert vom DIW immer wieder ins Feld geführt, dass natürlich nicht das EEG und die „Erneuerbaren“ an der exorbitanten Preissteigerung schuld sind sondern die Versorger. Diese gäben die sich an der Leipziger Strombörse bildenden niedrigen Strompreise, die „dank“ der Einspeisung der „Erneuerbaren“ stark gefallen sind, nicht an die Stromkunden weiter, um ihren eigenen Profit zu erhöhen. Dabei „vergessen“ diese „Wissenschaftler“ und Politiker zu sagen, dass der „so billige“  Strom aus „Erneuerbaren“ zuvor höchst teuer in jeder Menge – also auch viel mehr als gebraucht wird- von den Netzbetreibern aufgekauft werden musste (Vorrangeinspeisungszwang dank EEG) und dann an der Strombörse zu jedem Preis, auch mit Zuzahlungen (negativer Preis) an den jeweiligen Abnehmer, weiter verkauft werden muss. Daraus ergibt sich die irrationale Situation, dass  je mehr  „erneuerbare“ Energie produziert wird, umso stärker ist der Druck auf den Börsenpreis. Das erhöht die Differenz und damit zusätzlich die EEG-Umlage, die schon allein wegen des Zubaus ständig steigt.

Schaut man sich nun zusätzlich in der BDEW-Analyse an, wie sich der Strompreis für Haushalte zusammensetzt,  wird deutlich, dass nicht der Börsenwert des Stroms den Preis bestimmt. Allein 50% des Preises machen die Steuern und Abgaben aus, rund 20% die regulierten Netzentgelte, nur rund 30% tragen die Strombeschaffung und der Vertrieb zum Strompreis bei. Und nur der letzte Posten wird vom Markt bestimmt. Im Jahr 2013 müssen die privaten Verbraucher für die EEG-Umlage 5,277 ct/kWh bezahlen. Das ist mit 18,4% der größte Posten bei den Steuern und Abgaben. In 2014 wird die Umlage nach vorläufigen Berechnungen  erneut auf ca. 7 ct/kWh steigen.

Damit ist die EEG-Umlage, die für den Ausgleich der Differenz zwischen niedrigem Börsenpreis und der weit über dem Marktpreis liegenden garantierten Einspeisevergütung erhoben wird, ist der eigentliche Preistreiber beim Strom.

Wie leicht auszurechnen ist, bleibt für den herkömmlichen Kraftwerksbetreiber  keinerlei Spielraum. Die niedrigen Börsenpreise ergeben sich ausschließlich auf seine Kosten, da er keine feste Einspeisevergütung erhält. Auch er muss mehr oder weniger den Strom zu den niedrigen Börsenpreisen abgeben.

Auch dadurch, sowie durch die Vorrangeinspeisung der „Erneuerbaren“ sinken die aktiven Betriebsstunden  der herkömmlichen thermischen Kraftwerke immer mehr, sodass ein wirtschaftlicher Betrieb bei Unterschreiten einer bestimmten Anzahl von Betriebsstunden nicht mehr gewährleistet ist. Diese unrentablen Kraftwerke müssten vom Netz genommen werden. Da aber häufig der Wind nicht weht und die Sonne nicht scheint, muss immer ein Kraftwerkspark auf Basis von fossilen und Kernbrennstoffen, der in diesem Fall die gesamte Stromversorgung in  Deutschland übernehmen muss, vorgehalten werden. Um das sicher zu stellen, kann laut EEG die Bundesnetzagentur festlegen, dass diese unrentablen Stromerzeugungs-Anlagen am Netz bleiben. Das Vorhalten und unrentable Betreiben dieser Kraftwerke muss durch weitere Subventionen durch die Verbraucher zusätzlich bezahlt werden. Je mehr Wind- und Sonnenstrom in die Netze zu den überhöhten Preisen eingespeist wird, desto höher werden auch die Subventionen für die vorgehaltenen bzw. unwirtschaftlich betriebenen thermischen Kraftwerke. Ein Kosten-Perpetuum mobile ohne Ende. Von einer Marktwirtschaft kann im Stromsektor nicht mehr gesprochen werden. und alles zahlen die Verbraucher

Freie Welt.net: Durch den Atomausstieg sind bisher 9 Kernkraftwerke vom Netz genommen worden.  Deren Strom fehlt also im Angebot. Einen Blackout, also einen  großflächigen Stromausfall, haben wir auch nicht erlebt. War es also nur Panikmache interessierter Kreise, oder befürchten Sie  das genau das passieren wird?

Reimer:

Bis zum Inkrafttreten des Erneuerbare-Energien-Gesetzes EEG  am 1. April 2000 besaß Deutschland eines der modernsten und sichersten Stromversorgungssysteme der Welt, der die Haushalte, die öffentliche Hand und die Industrie mit Strom zu wettbewerbsfähigen Preisen versorgte. Ein Drei-Personen-Haushalt zahlte im Jahre 2000 für eine kWh Strom knapp 14 ct. Heute bezahlt dieser Haushalt mit 29 ct/kWh bereits doppelt so viel. Weitere Preiserhöhungen sind für die nächsten Jahre bereits programmiert. Die sichere Stromversorgung hingegen muss zunehmend infrage gestellt werden.  .

Zunächst unbemerkt, aber dann mit der Energiewende 2011 schlagartig, kann von einer stabilen Stromversorgung nicht mehr gesprochen werden. Durch das sofortige Abschalten von 9 Kernkraftwerken KKW sind, wenn der erzeugte  Wind- und Solarstrom gegen Null geht, kaum Kraftwerksreserven für Lastspitzen vorhanden. Selbst wenn der Wind weht, kann der vorwiegend im Norden im Überschuss erzeugte Windstrom wegen fehlender Hochspannungsleitungen nicht nach Süddeutschland transportiert werden. So kam es schon  im Winter 2011/2012 zu größeren Schwierigkeiten. In Süddeutschland z.B. fehlten laut Bundesnetzagentur nun eine Leistung von 500 Megawatt. Als es im Februar 2012 in weiten Teilen Europas  kalt wurde, drehten die Gasnetzbetreiber den Gaskraftwerken den Hahn zu, da auch das Erdgas wegen fehlender Lieferungen aus Russland knapp wurde und sie vorrangig Industrie und Haushalte mit Gas versorgen mussten. Das führte fast zu einem Blackout. Dem Netzbetreiber Tennet gelang es im letzten Moment mit Strom aus einem in Österreich wieder in Betrieb genommenen alten Schwer-Ölkraftwerk die kritische Situation zu überbrücken.

Die nahezu absolut sichere Stromversorgung, die wir in Deutschland bisher kannten, ist nach dem Abschalten der 9 KKW nicht mehr gegeben. So wird bei Bedarf  für entsprechend hohe Preise   Strom aus den Nachbarländern importiert, solange dort nicht gerade auch ein kalter Winter oder eine andere Notsituation herrscht. Hatten wir in den früheren Jahren nur einige wenige Eingriffe im Jahr, um die Netzstabilität zu sichern, waren es in den letzten beiden Jahren schon jeweils rd 1000. Von den Netzbetreibern wurden daher Notfallpläne erarbeitet, die zu stundenweisen Stromabschaltungen in bestimmten Regionen führen. Damit kann im Prinzip ein Blackout oder großflächiger Stromausfall verhindert werden. Die Stromversorgung wird sich allerdings aus ganz anderen Gründen weiter destabilisieren.

Wie schon aus der Antwort zu Frage 1 erläutert wurde, müssen die thermischen Kraftwerke, einschließlich KKW,  mit einer Kapazität vorgehalten werden, die den vollen Strombedarf Deutschlands bei einer Höchstlast von ca. 70.000 MW abdecken. Da man noch eine Sicherheit braucht müssen also 80.000 MW ständig vorgehalten werden, wenn Wind und Photovoltaik total ausfallen.  Mit dem ungebremsten Zubau weiterer Anlagen für die unstete Stromerzeugung und deren Vorrangeinspeisung verkürzen sich die Laufzeiten der konventionelle Kraftwerke immer mehr. Sie arbeiten ab einer bestimmten Jahreslaufzeit unwirtschaftlich. Dann werden bis 2022 alle KKW, die gegenwärtig noch 16% des Stromes erzeugen, vom Netz gehen und die durch Zubau fossil gefeuerter Kraftwerke  zu ersetzen sind. Große Stromerzeuger haben bereits die Abschaltung von Kraftwerksblöcken angekündigt. Wer investiert für neue fossile Kraftwerke, wenn sie nie rentabel laufen werden? Wird der Staat die jetzigen Betreiber zwingen die unrentablen Anlagen weiter zu betreiben oder sie ebenfalls zu subventionieren? Wird der Staat den Neubau fossiler Kraftwerke selbst finanzieren und in die Hand nehmen? Fragen über Fragen, die nicht erst in ein paar Jahren beantwortet werden können sondern bei einer verantwortungsvollen Energiepolitik schon lange hätten beantwortet werden müssen.  Von einer sicheren Stromversorgung entfernen wir uns also immer weiter.

Freie Welt.net: Wie sieht die Situation bei den Stromnetzen aus? Sind die Netze in der Lage den Strom aus den Wind- und Photovoltaik-Anlagen  aufzunehmen und die sichere Stromverteilung im Zusammenspiel mit dem Strom aus den thermischen Kraftwerken vorzunehmen?

Reimer: Bis zum groß angelegten Zubau der Windkraft- und Photovoltaik-Anlagen waren die Hoch-, Mittel- und Niederspannungsnetze für eine Richtung des Stromtransportes ausgelegt. Die großen Kraftwerke lieferten den Strom über Hochspannungsleitungen und Umspannwerke in die Mittelspannungsnetze. Diese verteilten den Strom über Transformator-Stationen in die Niederspannungsnetze, die dann direkt zu den Verbrauchern führen. Die gesamte Mess-, Steuer- und Regelungstechnik war für diese eine Richtung des Stromtransportes ausgelegt.

Die im März 2011 durch den gewaltigen Tsunami in Japan zusätzlich ausgelöste Katastrophe durch die Zerstörung des Kernkraftwerks in Fukushima löste in Deutschland hektische Reaktionen aus. Mit dem Gesetzespaket der Bundesregierung zur Energiewende im Juni 2011 wurden nicht nur der schnellere Ausstieg aus der Kernkraft, sondern auch Maßnahmen ohne ausreichende Einbeziehung der Fachleute beschlossen, die die bis dato stabilen deutschen Stromnetze durch einen ungebremsten Zubau von volatilen Windkraft- und Photovoltaik-Anlagen und den Zwang zu deren Vorrangeinspeisung zwangsläufig zu zunehmender Instabilität führen. Dann fehlen immer noch etwa 3000 km Hochspannungsleitungen, die vorrangig den Strom aus den Windparks und Photovoltaik-Anlagen vom Norden in den Süden transportieren. Es handelt sich auch hier um Milliarden-Investitionen, die zumindest parallel zum Ausbau der „Erneuerbaren“ hätten begonnen werden müssen.  Zusätzlich müssen die Mittel- und Nieder      spannungsnetze ebenfalls erweitert werden. Hier sprechen wir von insgesamt 220.000 km. Die Kosten dafür liegen bei mehreren 100 Mrd. €.

Wie gerade in einem Vortrag des Siemens-Managers Dr. Frank Büchner am 24. Juli 2013 im Magnus-Haus der Deutschen Physikalischen Gesellschaft in Berlin eindrucksvoll dargelegt worden ist, macht sich diese Instabilität in den Netzen u.a.dadurch bemerkbar, dass in den Hochspannungsnetzen erste Spannungsprobleme durch fluktuierende Einspeisung dezentraler Energieerzeugung auftreten. In den Mittelspannungsnetzen sind zunehmend thermische Überlastung und Spannungsband-Verletzungen durch Rückeinspeisung von Wind- und Solarstrom über die Niederspannungs-Abzweige festzustellen. Für Niederspannungsnetze gilt das Gleiche, thermische Überlastung und Spannungsbandverletzungen durch Einspeisung „erneuerbarer“ Energie mit Überlastung von Ortsnetztrafos und Problemen bei der Stromqualität wie Spannung, Frequenz usw.

Das hat bereits in München und anderen Gebieten zu Ausfällen von Trafostationen durch thermische Überlastung geführt. Wenn der Ausbau der „Erneuerbaren“ so wie bisher weitergeht und der erforderliche Umbau und die Erweiterung der Netze nicht voran kommt, wird es mit Sicherheit zu größeren und häufigeren Netzausfällen kommen. Leitungsüberlastungen und Netzengpässe in den Kuppelleitungen zwischen den s.g. Regelzonen treten immer häufiger auf. Während früher die Netzbetreiber äußerst selten Maßnahmen gegen diese Instabilitäten im Netz ergreifen mussten, gehört das heute schon zum täglich Brot. 

Um die Stromnetze unter den Bedingungen der Energiewende wieder auf ein sicheres Gleis zu setzen,  müssen die Hoch-, Mittel-, und Niederspannungsnetze so ausgerüstet werden, dass diese Netze den Strom nicht nur sicher in eine Richtung vom Kraftwerk zum Verbraucher verteilen, sondern auch den dezentral produzierten Strom aufnehmen und in umgekehrter Richtung zu den Verbrauchern bringen, wenn die Wind- und Photovoltaik-Anlagen arbeiten und die thermischen Kraftwerke heruntergefahren werden. Dazu wäre ein intelligentes Last- und Verbrauchsmanagement nötig, das durch s.g. Smart Grid Lösungen erreicht werden soll. Dazu müssten  allerdings die gesamte Mess-, Steuer-, und Regelungstechnik, alle Trafo- und Umspannstationen und viele Leitungen erneuert werden. Für den Verbraucher bedeutet das, dass er sich der Liefersituation in seinen Konsumgewohneheiten anzupassen hätte. Eine Rückkehr zur Mangelsituation wie unmittelbar im und nach dem Krieg. Und das in Friedenszeiten.

Ein solches Milliarden-Unterfangen würde alle Verbraucher noch einmal in Größenordnungen belasten und ist von daher schon eine der großen Illusionen, die die Energiewende von Anfang an zu einem unrealistischen Ziel haben werden lassen.

Freie Welt.net: In der Öffentlichkeit wird oft der Eindruck erweckt, als ob die „rechnerische“ Versorgung von soundsoviel Haushalten z.B. durch Solar- oder Windparks der realen Versorgung gleichwertig ist. Bitte klären Sie unsere Leser über die Unterschiede und deren Folgen auf.

Reimer: Die Bundesregierung, alle im Bundestag vertretenen Parteien und insbesondere natürlich die Nutznießer und Lobbyisten der „Erneuerbaren“ werben immer mit der Nennleistung von Anlage für die Stromerzeugung aus Wind und Sonne. Es wird suggeriert, dass z.B.bei einer Nennleistung  einer Anlage von 1 MW die Verbraucher rund um die Uhr mit dieser Leistung versorgt werden können oder dass sich eine ganze Kommunen praktisch mit „erneuerbarer“  Energie versorgen und auf die herkömmliche Stromversorgung verzichten könne.

Diese Behauptungen entsprechen  natürlich nicht der naturgegebenen und technischen Realität. Genau genommen handelt es sich sogar um Betrug.

Die Natur liefert nun einmal völlig unabhängig vom Willen des Menschen Wind und Sonne schon im Verlaufe eines Tages mit großen Schwankungen von Null auf volle Verfügung und umgekehrt und das auch noch in kurzen Zeitintervallen. Im Monat Januar 2013 erzeugte in Deutschland die Sonne 0,35 TWh, der Wind 5,0 TWh und die Konventionellen 36,3 TWh Strom. Für April 2013 sahen dann die Zahlen wie folgt aus: Sonne 3,2 Twh, Wind 3,3 TWh und Konventionelle 30,6 TWh. Schon diese Zahlen zeigen, dass die „Erneuerbaren“ im Januar nur 12,8% und im April denn immerhin schon 17,5% der erforderlichen Elektroenergie lieferten. Wenn man den „Erneuerbaren“ die Erzeugung von  25% des Jahresbedarfs an Elektroenergie zubilligt, fehlen immer noch 75 %, die vor allem von den thermischen Kraftwerken geliefert werden müssen. Solange die Elektroenergie nicht in erforderlicher Größenordnung gespeichert werden kann, muss praktisch jeder Verbraucher mindestens 75% seines Stromes von den herkömmlichen Kraftwerken beziehen. Das gilt natürlich auch für jede Kommune, es sei denn sie hat noch eine Biogasanlage mit angeschlossenem Generator. Aber auch dann wird sie sich hüten, den Stromverbund mit dem Versorgungsnetz zu kappen.

Die Ingenieure  wussten schon Ende des 19. Jahrhunderts,  dass der Wind kein geeigneter Energielieferant für ein stabile und kontinuierliche Stromversorgung war. Die Segelschifffahrt wurde abgeschafft und selbst die Windmühlen waren in Deutschland schon 1885 zu 75% auf Dampfkraft umgestellt, obwohl der  Wind keine Rechnung schickt. Erst weit über 100 Jahre später macht sich in Deutschland eine von grüner Ideologie infiltrierte Gesellschaft auf den Weg, die Gesetze der Natur, Technik und Ökonomie außer Kraft setzen zu wollen. Wie das enden wird, sollte langsam jedem, der seinen gesunden Menschenverstand behalten hat, klar sein.

Dipl.-Ing. Burkard Reimer;  Alternative für Deutschland

Bundesfachausschuss für Energiepolitik

Koordinator der Arbeitsgruppe Energie- und Umweltpolitik LV Berlin




DIW „Studie“: Claudia Kemfert und Cie. versuchen mit fragwürdigen Zahlenspielen die „Energiewende“ zu retten.

Anliegen der DIW-Autoren ist es, einen wissenschaftlichen Nachweis dafür zu finden, dass der (ausschließliche) Einsatz alternativer Energien, speziell von Wind- und Solarenergie, ökonomisch vorteilhafter als der Einsatz von Kernenergie oder von fossilen Energieträgern mit anschließender CO2-Abscheidung, -Transport und -Speicherung (Carbon Capture, Transport, and Storage, CCTS) ist. Ohne weitere Beweisführung wird die These aufgestellt, dass Kernenergie noch nie wettbewerbsfähig gewesen sei und es auch nie sein wird. Den Alternativenergien dagegen wird ein „atemberaubender Produktivitätszuwachs“ bescheinigt – der selbstverständlich auch anhält (Interview Chr. von Hirschausen).

Die Autoren erheben den Anspruch, in ihren Berechnungen die „Gesamtkosten einschließlich sozialer Umwelt- und Transaktionskosten“ zu bewerten. Diese völlig richtige Forderung wird bedauerlicherweise von den Autoren selbst ignoriert. So wird bei unliebsamen Techniken (Kernkraftwerke) kritisiert, dass bestimmte Kostenfaktoren von der Kommission nicht einbezogen wurden, woraus vom DIW eine (dauerhaft) fehlende Wirtschaftlichkeit abgeleitet wurde. Bei den Alternativenergien dagegen werden wichtige Kostenbestandteile ignoriert, wodurch diese „schöngerechnet“ wurden.

Der Kommission wird vorgeworfen, bei den Kernkraftwerken die Versicherungskosten für potentielle Nuklearunfälle, die Kosten des Kraftwerks-Rückbaus, der nuklearen Endlagerung sowie „Fertigstellungsrisiken“ nicht berücksichtigt zu haben. Ebenfalls unberücksichtigt worden seinen die „Umweltkosten“ von fossilen Energieträgern.

Umgekehrt werfen die DIW-Mitarbeiter der Europäischen Kommission vor, die alternativen Energien, insbesondere Photovoltaik und Onshore-Windenergie, zu pessimistisch angesetzt zu haben.

Tatsächlich wird in der Studie die Einsatzweise und Verfügbarkeit der betrachteten Alternativenergien völlig außer Betracht gelassen. Es wird nicht berücksichtigt, dass fossile und nukleare Kraftwerke in der Lage sind, den täglich und jahreszeitlich schwankenden Elektroenergiebedarf voll zu befriedigen, während Photovoltaik- und Windenergieanlagen das nicht können, weil ihre Erzeugung – völlig unabhängig vom tatsächlichen Energiebedarf – sporadisch, unplanmäßig und unbeeinflussbar erfolgt. Um sie betreiben zu können, bedarf es zusätzlicher Anlagen. Dazu gehören konventionelle Kraftwerke Kernkraftwerke, Kohlekraftwerke, Gaskraftwerke), die aus dem Standby-Status jederzeit sekundenschnell einspringen, um ausfallende Leistung von Solar- und Windenergieanlagen zu ersetzen. Während in der Vergangenheit Kraftwerke in Verbraucherschwerpunkten gebaut wurden (oder sich um Kraftwerke energieintensive Industrien entwickelten – siehe Ruhrgebiet oder mitteldeutsches Chemiedreieck),  so werden nach bisherigen Vorstellungen die Entfernungen zwischen Erzeugungsanlagen und Bedarfsschwerpunkten immer größer, was den Bau zusätzlicher Freileitungen (oder Kabel) zwischen Nord- und Süddeutschland erforderlich macht. Theoretisch könnten anstelle der Standby-Kraftwerke auch Energiespeicher eingesetzt werden. Allerdings werden sie in absehbarer Zeit nicht verfügbar sein. In gleicher Richtung soll der Einsatz sog. Smart-meter wirken, mit denen Verbraucher angeregt werden sollen, genau dann Wäsche zu waschen oder Geschirr zu spülen, wenn gerade der Wind weht oder die Sonne scheint.

Praktisch bedeutet das die Installation eines zweiten, parallelen Erzeugungs- bzw. Transportsystems, das nur dann genutzt wird, wenn die Alternativenergien nicht bereitstehen. Daraus resultieren neben Investitionskosten auch zusätzliche enorme Betriebskosten (Personalkosten, Netzverluste, erhöhter Brennstoffverbrauch infolge schlechter Kraftwerks-Auslastung, Speicher-Verluste), die umso größer werden, je mehr Anlagen zur Wind- und Solarenergienutzung installiert werden. – All diese mit dem Betrieb alternativer Stromerzeugungsanlagen notwendigerweise verbundenen Kosten werden in der Studie des DIW unterschlagen.

Während immer wieder auf die Risiken der Kernenergetik verwiesen wird, werden die durch Windenergieanlagen verursachten Umwelt- und Gesundheitsschäden mit keinem Wort erwähnt. Das gilt analog auch für Risiken bei Biomasse-, Sonnenenergie- oder Geothermienutzung.

Bemerkenswert ist, dass Angaben zu Kosten und Risiken bei Bau und Betrieb von Offshore-Windenergieanlagen nicht zu finden sind. Den Autoren genügt es, in einer Fußnote zu vermerken, dass auf Offshore-Windanlagen „aufgrund noch unsicherer Kostenschätzungen hier nicht eingegangen“ wird, obwohl die mit 10.000 MW bis 2020 künftig einen großen Anteil der installierte Leistung übernehmen sollen. Aber gerade hier muss mit hohen Versicherungskosten, nicht zuletzt wegen des Risikos von maritimen Havarien, mit erheblichen Kosten für den zukünftigen Rückbau und mit „Fertigstellungsrisiken“ gerechnet werden. Es sind gegenwärtig auch keine Investitionskosten-Senkungen sichtbar.

Zu Recht wird der Aufbau der CCTS-Technik von den Autoren abgelehnt. Ihre Argumentation beruht allerdings lediglich auf Kostenrechnungen. Die mit dieser Technik verbunden lebensbedrohlichen Risiken, die zur generellen Ablehnung in Deutschland führten, werden ignoriert. Auch hier werden die „Gesamtkosten“ nicht beachtet.

Unterschlagen werden auch die Risiko-Kosten, die mit der wachsenden Unzuverlässigkeit der Elektroenergieversorgung durch zunehmende Nutzung fluktuierender Erzeugungsanlagen verbunden sind: Wie hoch sind die volkswirtschaftlichen  Kosten eines landesweiten Blackouts über einen Tag oder gar eine Woche? Im DIW-Bericht taucht eine solche Überlegung nicht auf.

Der EU wird vorgeworfen, dass in ihren Szenarien „nicht die gesellschaftlichen Kosten der Stromerzeugung, wie zum Beispiel die Risikokosten für Atomenergie oder auch die Umweltkosten von fossilen Energieträgern“ berücksichtig werden. Daher würden „die tatsächlichen Kosten dieser thermischen Stromerzeugung weit unterschätzt“ und „die Kosten der Erneuerbaren werden perspektivisch überschätzt. Das vom DIW monierte „ungleiche Bild der Stromerzeugungsperspektiven“ wird – allerdings  mit umgekehrten Vorzeichen – vom DIW selbst gezeichnet!

Ähnlich einseitig wie bei Kostenbetrachtungen gehen die Autoren mit der Bewertung der künftigen technischen und wirtschaftlichen Entwicklung um.

So unterstellen sie bei den Alternativenergien Wind und Sonne „angesichts technischer Innovationen sowie noch reichlich vorhandenem Lernpotential bis 2050 weitere Rückgänge spezifischer Produktionskosten.“ Sie begründen das mit folgenden Aussagen:

–          Photovoltaik: Es gab „sowohl steigende Wirkungsgrade als auch Kostensenkungen bei den Anlagen; dies führte zu erheblich rückläufigen Durchschnittskosten“

–          Onshore-Windkraftanlagen: Es gab „in den vergangenen Jahren erhebliche Produktionszuwächse sowie Kostenrückgänge. Die meisten Szenarien rechnen damit, dass auch in Zukunft Kostensenkungen möglich bleiben.“

Bei der (ungeliebten) Kernenergie dagegen nehmen die Autoren an, dass es dort keinen technischen Fortschritt gibt, der zur Kostendegression führt: „Entsprechend den bisherigen empirischen Erfahrungen steigender sicherheitstechnischer Anforderungen ist auch für diese Generation von Kraftwerken (die dritte – D. U.) künftig nicht mit Kostendegression zu rechnen; vielmehr werden konstante Kapitalkosten angenommen.“

Es wird zwar eingeräumt, dass Alternativenergien „heute noch mit höheren Investitionskosten verbunden“ sind „als einige konventionelle Stromerzeugungstechnologien“, jedoch wird eine „starke Kostendegression“ in den vergangenen Jahren lediglich bei den (geliebten) Alternativenergien konstatiert.

Also: Technisches Entwicklungspotential gibt es nur bei den alternativen Energien, nicht aber bei der Kernenergie!

Zusammenfassung:

Die DIW-Studie zeichnet sich insbesondere durch zwei grundlegende Fehler aus:

1. Es werden selbstgestellte – und sehr berechtigte – Forderungen nach einer Gesamtkosten-Betrachtung bei der Bewertung von Techniken zur künftigen Elektroenergieerzeugung nur sehr einseitig realisiert, nämlich nur dann, wenn eine Technik-Richtung diskriminiert werden soll (Kernenergie). Bei den politisch-ideologisch gewünschten Technologien werden entscheidende Bestandteile der Gesamtkosten völlig außer Betracht gelassen.

2. Ebenso einseitig wird einigen Techniken (Alternativenergien) ein großes technisches Entwicklungspotential unterstellt, während der Kernenergie überhaupt kein Entwicklungspotential eingeräumt wird.

Aufgrund der dilettantischen Herangehensweise an die Bearbeitung des hochwichtigen Problems der künftigen Elektroenergieversorgung in Deutschland kann die DIW-Studie „Europäische Stromerzeugung nach 2020: Beitrag erneuerbarer Energien nicht unterschätzen“ von Chr. von Hirschhausen, C. Kemfert, F. Kunz und R. Mendelevitch nicht als wissenschaftliche Arbeit bewertet werden.

Dr. Dietmar Ufer ist promovierter Energiewirtschaftler und Gründungsmitglied von EIKE

Hier ein paar links zum Hintergrund von Frau Kemfert

http://kuerzer.de/8PyVQBTdN
http://kuerzer.de/VpSsstYo8
http://kuerzer.de/3cp9OADVc

Mit Dank an Leser C. Thumulla




Das schmutzige Geheimnis der britischen Energie-Verrücktheit: Schmutzige Diesel-Generatoren…

Bild rechts: Diesel-Generatoren-Blöcke, gebaut um einzuspringen, wenn Windturbinen infolge Windmangels keinen Strom erzeugen

Heimlich, still und leise werden Tausende schmutziger Dieselgeneratoren in ganz UK eingerichtet, um das nationale Stromnetz im Notfall vor dem Kollaps zu bewahren, wenn der Wind nicht weht. Und mit diesem gewaltig teuren Schema wird das nationale Netz und der erzeugte Strom zwölf mal so teuer sein wie der normale Preis am Strommarkt.

Einer der Hauptprofiteure dieser Verlegenheitslösung ist die Regierung selbst, die Hunderte Millionen Pfund einnimmt, indem sie die Kapazität dieser Generatoren in öffentlichem Eigentum erzeugt einschließlich Krankenhäuser, Gefängnisse, Militärbasen, Polizeireviere, Feuerwehrbasen, Schulen und Verwaltungsgebäude.

Aber die Verlierer werden die Verbraucher sein, die sich auf weitere Sprünge in ihren Stromrechnungen einstellen können, und zwar im Namen der ‚Bekämpfung des Klimawandels’. Es wird erwartet, dass das System 1 Milliarde Pfund pro Jahr bis 2015 kosten wird, was die Stromrechnungen um 5 Prozent teurer macht.

Dieses Vorhaben ist eine direkte Konsequenz der Politik bzgl. der Erneuerbaren, die von der Koalition übernommen worden ist. Es wurde zuvor von Tony Blair entwickelt, und zwar als Antwort auf die Direktiven der EU, dass UK seine Kohlenstoffemissionen bis zum Jahr 2020 um 20 Prozent reduzieren soll.

Durch die Errichtung von immer mehr Windturbinen, die die fossilen Treibstoffe ersetzen sollen, wird das nationale Netz zunehmend instabil, weil der Wind ungleichmäßig, unvorhersagbar und unzuverlässig weht.

Der Anteil an Windkraft am Energiemix in UK beträgt derzeit etwa zehn Prozent. Den gegenwärtigen Plänen der Regierung zufolge sollen es planmäßig bis 25 Prozent bis zum Jahr 2020 werden.

Allerdings warnen einige Experten wie der Ökonom Professor Gordon Hughes in einem Bericht für die GWPF, dass ein so hoher Anteil von Erneuerbaren nicht nachhaltig ist, und zwar infolge der dramatischen Schwankungen der Energie, die in das Netz eingespeist wird.

Im vorigen Jahr hat Professor Hughes die Kosten der Errichtung dieser Windkapazität bis zum Jahr 2020 auf 124 Milliarden Pfund geschätzt. Die gleiche Menge Energie durch Gas zu erzeugen würde lediglich 13 Milliarden Pfund kosten.

Die wahnsinnig teure Lösung für das nationale Netz, um der Instabilität der Windkraft zu begegnen, ist unter der Bezeichnung Short Term Operational Reserve STOR bekannt. Damit soll eine Reservekapazität von acht Gigawatt bis zum Jahr 2020 bereit gestellt werden, also etwa die gleiche Menge wie von fünf Kernkraftwerken.

Die Dieselgeneratoren werden ein computerüberwachtes Sofort-Backup für die ausgedehnten Perioden zur Verfügung stellen, wenn die Windturbinen nicht laufen, aber mit einem gewaltigen Aufpreis.

Gegenwärtig liegt der Preis für Strom um 50 Pfund pro Megawattstunde (MWh), aber den Besitzern der Dieselgeneratoren wird man 600 Pfund pro MWh zahlen.

Dieser Preis, zwölf mal höher als der Marktpreis, repräsentiert eine Goldader, die sogar noch größer ist als die, an der sich derzeit die Windentwickler erfreuen, die einen subventionierten Preis erhalten, der zwei bis drei mal über dem Marktpreis liegt, abhängig davon, ob sich ihre Turbinen an Land oder auf See drehen.

 

Abbildung: Umweltfreundlich: Der schmutzige und teure Backup für Windturbinen macht die grünen Schwüre von David Cameron zum Narren.

Obwohl STOR schon im April 2007 entworfen und im Dezember 2010 modifiziert worden ist, hat die Koalition nicht sehr viel Aufhebens darum gemacht. Neben der merklich teurer werdenden Energie würde es das versprechen von David Cameron, die „grünste Regierung jemals“ zu führen, zum Narren halten.

Jedweder Vorteil der vermeintlich ‚sauberen’, von Windturbinen erzeugten Energie wird wahrscheinlich überkompensiert durch die schmutzige und ineffiziente Energie, die mit dem unabdingbaren Diesel-Backup erzeugt wird.

„Ja, das könnte dafür sorgen, dass die Lichter nicht ausgehen, aber als eine Art der Energieerzeugung ist es kompletter Unsinn“, sagt Dr. Benny Peiser von der GWPF. „Das Verbrennen von Diesel ist fast so schmutzig und CO2-intensiv wie das Verbrennen von Kohle. Aber schlimmer noch ist, dass es so unnötig teuer und ineffizient ist“.

Allerdings beklagt sich nicht jeder, haben doch findige Geschäftsleute in der Politik der Regierung eine lukrative Gelegenheit erkannt.

Unter ihnen war der Amerikaner David Walters, einst Gouverneur von Oklahoma. Sein Unternehmen Walters Power hat als erstes davon profitiert, was er ‚die fortschrittliche Energiepolitik’ in UK genannt hatte. Er kaufte eine von landwirtschaftlichen Flächen umgebene Stelle nahe Doncaster in South Yorkshire und stellte dort Dieselgeneratoren auf.

 

Abbildung: Fleck in der Landschaft: Der Dieselstandort Walters, umgeben von landwirtschaftlichen Flächen zwischen den Dörfern in Thorpe, Balne und Trumfleet nahe Doncaster.

Dabei spielt es keine Rolle, ob diese wirklich Strom erzeugen oder nicht: das meiste Geld, das sie von National Grid gezahlt bekommen, wird lediglich für die Verfügbarkeit im Notfall bezahlt.

Für kleinere Erzeuger wird der Strom kanalisiert durch ‚Aggregatoren’ genannte Unternehmen, die die zahlreichen Dieselgeneratoren je nach Erfordernis an- und abschalten können.

In ganz UK beeilen sich andere Unternehmer, auf den Geldzug aufzuspringen, und zwar in ähnlichen abgelegenen Stellen von Lincolnshire und einem Steinbruch in Somerset. Die Anreize sind gewaltig und die Risiken lachhaft gering.

Selbst als das System 2010 eingeführt wurde, konnte der Eigentümer lediglich für einen 1 MW-Generator, der etwa 500000 Pfund kosten würde, erwarten, 30000 bis 45000 Pfund pro Jahr zu erhalten. Es wird erwartet, dass sich diese Zahl bis 2020 mehr als verdreifacht. Andere wesentliche Nutznießer sind öffentliche Einrichtungen wie Militärbasen und Krankenhäuser.

Das Glasgow General Hospital beispielsweise verfügt über 20 MW Erzeugungskapazität, aber selbst ein mittelgroßes Hospital kann 500000 Pfund pro Jahr verdienen, einfach nur durch die Zustimmung, dass seine Generatoren im Notfall genutzt werden können.

Zwar klingt das nach einem herzerwärmenden Geldsegen für wichtige öffentliche Dienstleistungen, doch ist das Geld in Wirklichkeit eine andere Art indirekter Besteuerung, die direkt aus den Taschen der Verbraucher kommt, und zwar in Gestalt bedrohlich teurer Stromrechnungen.

Im Jahr 2010 hat dieses System bereits 205 Millionen Pfund pro Jahr gekostet; bis 2020 wird ein Anstieg auf 945 Millionen Pfund erwartet – eine gewaltige Ausgabe zur Nährung der Illusion, dass Erneuerbare ein wichtiger Bestandteil des ‚Energie-Mix’’ von UK sind.

Wie Beispiele aus dem kontinentalen Europa zeigen, ist das nur der Anfang der Misere in UK. In Deutschland, wo der Sektor der Erneuerbaren erheblich weiter entwickelt ist (dort gibt es 31 GW Windenergie – verglichen mit 8 GW in UK), steht das grüne Experiment dort dicht vor der Katastrophe.

 

Abbildung: Viele Gemeinden so wie Llanllwni in West Wales haben schwer etwas dagegen, dass ihre Umgebung durch die Windindustrie verschandelt wird.

Plötzlich auftretende Fluktuationen im Netz in Deutschland infolge der schwankenden Windgeschwindigkeit haben bereits zu ernsten Schäden in der Industrie geführt. Der deutschen Energieagentur DENA zufolge hat die Anzahl kurzzeitiger Unterbrechungen im Netz während der letzten drei Jahre um 29 Prozent zugenommen. Einige Mitglieder berichteten von Schäden in Höhe von Hunderttausenden Euro als Folge unerwarteter Unterbrechungen. [Stand das schon mal in einer deutschen Zeitung? Warum nicht? A. d. Übers.].

Im Jahr 2006, als Windparks noch selten waren, mussten die Ingenieure in Ostdeutschland mit dem Betrieb von Kohle-, Gas- und Kernkraftwerken etwa 80 mal pro Jahr eingreifen, um das Netz zu stabilisieren. Heutzutage, wenn die durch die 8000 Windturbinen erzeugte Strommenge stündlich steigt und fällt, müssen die Ingenieure jeden zweiten Tag eingreifen, um die Stabilität des Netzes zu gewährleisten. Die Nachbarländer Tschechien und Polen haben die Nase durch die Instabilität so voll, dass sie kurz davor sind, den unberechenbaren Windstrom [aus Deutschland] aus ihrem Netz fernzuhalten.

Gegenwärtig wird Strom aus Norddeutschland durch Leitungen über ihre Nachbarländer zu den Verbrauchern in Süddeutschland geleitet, weil das deutsche Netz die Fluktuationen nicht verkraftet. Allerdings drängen beide Länder Deutschland, sein Energiesystem in Ordnung zu bringen.

Unglücklicherweise befindet sich UK in einer potentiell viel schlimmeren Position. Als Insel würde es uns nicht so leicht fallen, unsere plötzlichen Stromspitzen an unsere kontinentalen Nachbarn zu liefern.

Fazit: Je mehr Windparks on- und offshore während der nächsten paar Jahre errichtet werden, umso teurer und instabiler wird unsere Energiewirtschaft.

Wie die Windindustrie die verheerenden Folgen des Lärms von Windturbinen 25 Jahre lang vergraben hat…

Windturbinen können zu einer Gefahr für die menschliche Gesundheit werden – und der Industrie war das seit über 25 Jahren bekannt.

 

Abbildung: Bitterer Schlag: Gesundheitsrisiken von Windturbinen sind seit Jahrzehnten bekannt

Einem kürzlich wieder aufgefundenen Bericht zufolge, der im Jahr 1987 für das US-Department of Energy erstellt worden war, kann unhörbarer Infraschall von den Generatoren Probleme für lokale Anwohner darstellen, die sich mit der Zeit verschlimmern.

In der Nähe von Windparks wohnende Menschen haben sich über Probleme beklagt wie Übelkeit, Kopfschmerzen und Schlaflosigkeit – dem so genannten Windturbinen-Syndrom.

Die Beweise aus dem Jahr 1987 widersprechen den Behauptungen der Befürworter von Windenergie, wonach die Symptome allesamt nur eingebildet sind.

Bis vor Kurzem hat die Handelsorganisation RenewableUK behauptet: „Über 25 Jahre lang ist kein Mitglied der Öffentlichkeit durch den normalen Betrieb von Windparks geschädigt worden“. Außerdem wurden Behauptungen, dass Windparks „Infraschall aussenden und gesundheitliche Probleme verursachen“, als ‚unwissenschaftlich’ zurückgewiesen.

Aber in dem Bericht aus dem Jahr 1987, erstellt unter Leitung von N. D. Kelly vom Solar Research Institute in Colorado, wurde festgestellt, dass ‚impulsiver Infraschall’ gesundheitliche Probleme verursacht. Er verlangte Lärmschutzwälle um die Turbinen.

Allerdings schließt der Industrie-Code Infraschall-Frequenzen spezifisch aus. Der Bericht legt Gewicht auf Behauptungen von Campaignern wie Dr. Sarah Laurie in Australien, die behauptet, dass die Industrie in einer konzertierten Aktion diese Folgen verschleiert hat.

Aber bei RenewableUK heißt es: „Wir akzeptieren nicht, dass der Lärm von Windturbinen Auswirkungen auf die Gesundheit hat. Der Bericht von 1987 basiert auf antiquierten Maschinen. Heute sind die Turbinen viel ausgereifter“.

…und wie Minister sich bei grünen Summen um 100 Milliarden Pfund vertan haben

Offizielle zahlen der Regierung hinsichtlich des Umfangs der grünen Ökonomie sind ein totaler Schwindel, wie die Mail on Sunday enthüllen kann.

Von den Zahlen, die das Department for Business and Skills veröffentlich hatte, sagt man, dass sie zeigen, dass der Umweltsektor im vergangenen Jahr erstaunliche 122 Milliarden Pfund wert gewesen sei, was ihn zum am schnellsten wachsenden Wirtschaftszweig machte, schreibt David Rose.

Minister haben diese Zahlen wiederholt benutzt, um lähmende Energiesteuern und Subventionen für Windparks zu rechtfertigen. Sie behaupten, diese Zahlen zeigen, dass diese Maßnahmen den Weg öffnen für boomende Aussichten auf zukünftige ‚grüne Arbeitsplätze’ und für eine blühende Low-Carbon-Industrie.

 

Abbildung: Irreführend: Offizielle Zahlen übertreiben die Größenordnung des Wertes des Sektors bis zu 700 Prozent.

Aber Dokumente, erstellt im Rahmen des Freedom of Information Act enthüllen, dass der wirkliche Wert der grünen Ökonomie nur zwischen 16,8 Milliarden und 27,9 Milliarden Pfund liegt; abhängig davon, wie genau man den Term ‚grüne Ökonomie’ definiert. Mit anderen Worten, die offiziellen Zahlen übertreiben die Größenordnung des Sektors um bis zu 700 Prozent.

Die so genannte Low Carbon and Environmental Goods and Services (LCEGS)-Darstellung hat in der Wirklichkeit keine bekannte Grundlage.

Beispiel: Berechnungen lassen vermuten, dass erneuerbare Energie 37 Milliarden Pfund pro Jahr wert ist – obwohl der gesamte Strommarkt in UK dem Department of Energy zufolge weniger als 30 Milliarden Pfund wert ist.

Selbst die Renewable Energy Association – eine Lobbygruppe der Industrie, die versucht, die Regierung zur Erhöhung ihrer Subventionen zu überreden – beziffert den gesamtwert des Sektors der Erneuerbaren auf weniger als 10 Milliarden Pfund.

 

Abbildung: Bericht: Parlamentsmitglieg Roger Helmer möchte eine vollständige Übersicht über alle politischen Maßnahmen, um die Kosten der grünen Ökonomie zu untersuchen.

Die LCEGS-Zahlen enthalten auch Milliarden Pfund durch Aktivitäten, die nur wenige Leute als ‚grün’ bezeichnen würden – wie die Wasserversorgung, die Erschließung von Müllkippen und – das ist am Bizarrsten – normale Fenster und Türen, die allein mit fast 9 Milliarden Pfund zu Buche schlagen.

Weitere 11,7 Milliarden Pfund tragen die Märkte für flüssiges Propan und Erdgas bei. Diese Zahl ist viele Male größer als die eigenen Schätzungen der Industrie – während Gas ein CO2-erzeugender Treibstoff ist.

Die Analyse der LCEGS-Daten erschienen in einem innerhalb von sechs Monaten durch den unabhängigen Forscher Ben Pile im Auftrag von UKIP MEP Roger Helmer erstellten Bericht.

Der Politiker sagt, dass es eine vollständige Übersicht über alle politischen Maßnahmen geben sollte, die von den Daten beeinflusst worden waren. „Frühere und die heutige Regierung haben große Versprechen hinsichtlich der ‚grünen Ökonomie’ abgegeben, und zwar basierend auf Forschungen, die vor der Öffentlichkeit verborgen gehalten worden waren und die jetzt in eine Richtung verzerrt worden sind, dass sie die grüne Agenda stützen“, sagte er. „Sie haben die Menschen in die Irre geführt, einschließlich der Parlamentsmitglieder“.

Diese Zeitung übergab eine Kopie des Berichtes an das Business Department und fragte an, ob er irgendetwas enthalte, dass man faktisch in Frage stellen könnte.

Eine Sprecherin erwiderte, dass die grüne Ökonomie „ein komplexes Gebiet ist, da es keine klassische Standarddefinition gebe. Allerdings haben die LCEGS-Daten geholfen, Informationen in die Debatte zu bringen“.

Business Secretary Vince Cable hat auf die falschen Zahlen verwiesen, um sein Vorhaben einer neuen Grünen Investmentbank zu stützen, und behauptet, dass ‚die grünen Sektoren die übrige Wirtschaft hinter sich gelassen haben’.

Nicht bei meinem Haus bauen – und ich spende 5000 Pfund an die Operngesellschaft Ihrer Frau

Der Zeitschriftenmogul William Cash hat eine bizarre Eingabe gemacht, um zu verhindern, dass zwei gigantische Windturbinen nahe seinem Anwesen errichtet werden, schreibt Charlie Lankston.

Mr. Cash, Sohn des euroskeptischen Abgeordneten Bill, bieten 5000 Pfund Spende für eine lokale Musikvereinigung an, wenn man die Pläne fallen lässt. Er schritt zur Tat, nachdem ein Antrag auf die Errichtung der beiden 260-Fuß-Turbinen [= fast 80 m hoch] beim Gemeinderat in Shropshire eingegangen war.

 

Abbildung: Historisch: Das Anwesen von William Cash Upton Cressett Hall nahe Bridgnorth in Shropshire

Kritiker sagen, dass sie eine Landschaft verschandeln werden, die durch A. E. Housman und P. G. Wodehouse unsterblich gemacht worden ist.

Die Pläne wurden eingereicht von dem Landwirt Clive Millington, und Mr. Cash, 46, sagte: „welchen besseren Weg gibt es zu verhindern, dass die Gemeinde in dieser Sache gespalten wird, die beinahe zu Blutvergießen geführt hat, als die Pläne zurückzuziehen und der Bridgnorth Operatic Society zu helfen.

Ich sehe die Ehefrau (Suzanne Millington) als so etwas wie eine Diva innerhalb der Operngesellschaft an. Ich glaube, es ist wichtig, Druck auf den Landwirt auszuüben, damit er das tut, was für die Gemeinde wichtig ist und nicht nur an sich selbst denkt“.

 

Abbildung: Spende: Suzanne Miilington von der Bridgnorth Musical Theatre Company

Mr. Cash, Gründer und Herausgeber des Wohlstandsmagazins Spear unterbreitete dieses Angebot in einer ganzseitigen Anzeige in seiner lokalen Zeitung.

Er fuhr fort: „Ich habe seit fast vierzig Jahren in Upton Cresset gelebt, und ich würde nie davon träumen, mein Land mit Windturbinen zu verunstalten um des Profits willen. Aber die örtlichen Landwirte haben ihre Nasen in den Futtertrögen“.

Mr. Cash gab sich den Anschein, enttäuscht zu sein. Mr. Millington, 57, sagte: „Ich habe dies als ein Projekt der Gemeinde eingebracht, weil ich dachte, dass es etwas sei, an dem sich die lokalen Anwohner beteiligen können. Wir wollen die Landschaft nicht zerstören, aber ein oder zwei Turbinen können einen Beitrag leisten. Mr. Cash ist ein Charakter größer als das Leben, aber er ist einer, der überhaupt nichts mit der Gemeinde zu tun hat. Meine Frau war mit der Operngesellschaft befasst, aber nicht seit über fünf Jahren. Von daher war es bizarr, ein solches Angebot zu machen“.

Howard Marsh, Vorsitzender dessen, was jetzt die Bridgnorth Musical Theatre Company ist, sagte: „Die Gesellschaft würde niemals eine Spende in Zusammenhang mit dieser Kontroverse akzeptieren“.

James Dellingpole

Link: http://tinyurl.com/nfkflzx

Übersetzt von Chris Frey EIKE




Die Energiewende ist tot! Langsam merkt es auch die Alternative für Deutschland (AfD)

Doch wer bei der heutigen Pressekonferenz der AfD zu diesem Thema den großen Wurf erwartete wurde ziemlich enttäuscht. Obwohl es die Spatzen von den Dächern pfeifen, dass die Klimamodelle die Computer nicht wert sind, auf denen sie laufen, denn das Klima (wenn man das merkwürdige  statistische Konstrukt „globale Mitteltemperatur“ als Klimaersatz akzeptieren will) denkt gar nicht daran das zu tun, was die Modelle prognostiziert haben. Seit 17 Jahren steigt dieser Wert nicht mehr, sondern fällt leicht, obwohl der „Klimakiller CO2 „ (Lucke AfD ) stetig mit rd. 2 ppm pro Jahr ansteigt und nach der „wissenschaftlichen“ Konsens-Treibhausthese diese um  0,3 °C  hätte steigen müssen.  Tut sie aber nicht, wie Stephan Boyens -Mitglied im AfD Bundes-Fachausschuss Energie (nicht Sprecher wie die SZ fälschlich behauptet)-  in einem mutigen Statement der Wahrheit herausstellte. Auch bei der Verfügbarkeit fossiler wie Kernbrennstoffe ist die Zukunft alles andere als schwarz. Es gibt sie in Hülle und Fülle, die Schiefergas und –öl-gewinnung ist nur ein Teil des Angebotes, das täglich größer wird und zu gewaltigen weltpolitischen Umwälzungen führt. Einige Zeitung wie z.B. die Süddeutsche haben das zwar noch nicht gemerkt, was nicht wundert, wenn man durch die Welt nur durch die ideologische Brille sieht, aber andere schon. Und damit sind die beiden Hauptbegründungen für die Durchführung der „Energiewende“ ersatzlos entfallen.

Doch statt diese  schwerwiegenden Tatsachen aufzugreifen und sie zur Basis einer vernunftbasierten Politik zu machen, versucht sich heute die AfD im Klein-Klein.

Aber immerhin, wenigstens das! Es kann ja noch mehr werden.

Und Stephan Boyens darf ungehindert geradezu Ungeheuerliches (zumindest für einige anwesende linke Journalisten) vortragen. "Die Theorien der globalen Erwärmung bröckeln", sagt Boyens. "Googeln sie mal Korrelation CO2 und Temperatur", und auch das noch "Seit 20 Jahren haben wir keine Klimaerwärmung…Grönland komme von Grünland, die Polkappen seinen nicht in ihrem erdgeschichtlichen Normalzustand. Kohlendioxd sei ja auch nur ein Spurengas in der Luft…Das ist, als ob meine dreijährige Tochter Pippi in den Baggersee macht. Und dann haben wir Angst, dass der Baggersee kippt." So Boyens, ebenso richtig wie plakativ!

Doch statt daraus die einzig angemessene Konsequenz zu ziehen, die Wende von der Energiewende u.a.  mittels ersatzloser Abschaffung des EEG zu fordern, bleibt es im taktischen Klein-Klein.

Immerhin will man die Vorrangeinspeisung, gesichert qua EEG, zu extrem überhöhten Preisen in jeder Menge für 20 Jahre, abschaffen, aber nur für Neuverträge, die Altverträge sollen unangetastet bleiben. Dass das keinesfalls zur Reduzierung der jetzt schon viel zu hohen Strompreise führt, ist jedem bewusst, sicher auch dem Vorsitzenden der AfD,  dem Volkswirt Lucke. Übersteigen doch die bereits aufgelaufenen Schuldwechsel dank EEG, welche die Verbraucher die nächsten 20 Jahre lang einlösen müssen, die 300 Milliarden Euro Marke bei weitem.

Lucke begründet diese Inkonsequenz, dann auch auf ehrenvolle Weise. Die AfD sei die einzige Partei, welche die Einhaltung der Verträge beim Euro (Stichwort Maastricht) fordere. Das sei eigentlich eine Selbstverständlichkeit! Doch dann müsse sie dies auch für andere Verträge tun. Soweit so ehrenvoll.

Was aber wäre, wenn die Verträge, die nur mit Hilfe und mittels Zwang des EEG geschlossen wurden, einer rechtsstaatlichen Prüfung nicht standhielten? Wenn sie sittenwidrig und damit nichtig wären? EIKE hat diese Prüfung schon vor einiger Zeit vorgenommen.

Ergebnis: Die von zwei Parteien (EEG Anbieter und Netzbetreiber)  zu Lasten unbeteiligter Dritter (den Stromkunden) abgeschlossenen Verträge zum An- und Weiterverkauf  eines, zudem qualitativ minderwertigen, Zufallsstromes, zu stark überhöhten Preisen, ist Wucher. Und Wucher ist sittenwidrig. Solche Verträge sind damit nichtig! Nur muss irgendjemand dies auch mal einklagen. Juristen vor!

Zurück zur Pressekonferenz:

Obwohl Lucke sofort seinem Boyens in die Parade fuhr mit der Bemerkung, er "stelle nicht grundsätzliche die Tatsache in Frage, dass es wissenschaftliche Evidenzen gibt, das CO2 ein Klimakiller ist." sprach er sich im Folgenden für einen Rückzug des Staates aus dem Energiemarkt aus und verlangte statt indirekter Subventionierung über den Strompreis, eine solche über den allgemeinen Steuerhaushalt – um Klarheit zu schaffen, wie er sagte.

Zudem forderte er eine „Quotenregelung“ für die Menge an „regenerativem“ Strom, die der Staat festzusetzen hätte, jedoch keine Bevorzugung irgendeiner Technologie  Um dann die beste und billigste Lösung sich per Konkurrenz entwickeln zu lassen.

Nun, letzteres ist nicht gerade neu, denn das fordert die FDP auch schon seit einigen  Monaten, zumindest in Sonntagsreden der Herren Brüderle und Rösler. Sie geht auf eine Idee des Journalisten Günter Ederer zurück, der meinte damit das große Übel „Erneuerbare“ per Wettbewerb, in ein kleines Übel verwandeln zu können. Er vergaß, dass die Energiedichte der „Erneuerbaren“, naturgesetzlich viel zu klein ist, ihre Volatilität (nachts und bei Wolken scheint keine Sonne und der Wind weht wann er will, nicht wann man ihn braucht) ebenso naturgesetzlich bedingt ist und Groß-Speicher für Strom – abgesehen von wenigen Pumpspeicherwerken- weder in der Grundlagen- noch in der Anwendungsforschung auch nur ansatzweise in Sicht sind: Deswegen würde sich auch ein Quotenmodell nur unter Zwang zum Kauf des Quotenstromes durchsetzen und sich auf sehr hohen Preisen einpendeln. Es wäre wenig gewonnen. Zu wenig!

Fazit:

Das Energiepolitische Programm der AfD ist zu vorsichtig weil zu  klein geraten. Aber immerhin ist es da! Ein sehr kleiner Schritt für die Deutschland, aber ein großer für die Alternative für Deutschland! Und in die richtige Richtung.

Die nächsten Wochen bis zur Wahl werden zeigen, ob es gelingt, aus diesem ersten kleinen Schritt viele große zu machen. Die Kompetenz dazu hat die AfD, ob sie auch den Mut dazu aufbringt ist ihr zu wünschen. Ohne diesen Mut wird das Überwinden der fünf Prozenthürde wohl ein Wunschtraum bleiben. Lesen Sie dazu die Leitlinien der AFD zur Energiepolitik im Anhang

Weitere Fakten zur Pressekonferenz am 15.7.13

Anders als die Süddeutsche ihren Lesern glauben machen will, war die Beteiligung der Medien sehr hoch. Im völlig überfüllten Saal 4 der Bundespressekonferenz hatten sich ca. knapp 100 Menschen versammelt. Max. 15 von Ihnen waren wohl der AfD zuzurechnen.

6 oder  7 Kamerateams hielten jede Regung der Podiumsteilnehmer fest. Div. Fotografen schossen Standbilder.

Erste Pressestimmen finden Sie hier:

http://www.sueddeutsche.de/politik/afd-und-der-klimawandel-wie-pippi-im-baggersee-1.1721968

http://www.welt.de/politik/deutschland/article118054276/AfD-tritt-in-allen-16-Laendern-zur-Bundestagswahl-an.html

http://de.nachrichten.yahoo.com/anti-euro-partei-afd-tritt-bundesweit-wahl-121552691.html

http://www.berliner-umschau.de/news.php?id=14022&title=AfD+will+Erneuerbare+Energien+ausbremsen&storyid=1001373897939

http://www.spiegel.de/politik/deutschland/alternative-fuer-deutschland-partei-will-nicht-nur-euro-koennen-a-911205.html

http://www.jungefreiheit.de/Single-News-Display-mit-Komm.154+M59822ea19fd.0.html

Related Files




Energiewende: Größte Geldumverteilung seit Kriegsende – Nutzloser EEG-Zufalls-Strom wird 2013 bereits 26 Mrd € kosten!

Gerade eben tönte die Kanzlerin auf irgendeiner Nachhaltigkeitsdiskussion im Bundestag wieder einmal, sie sei "machbar" (nicht: sie sei erforderlich), nur die Deckelung der Strompreise sei noch schwierig. Wenn es mal so einfach wäre.

Abbildung 1: amtlich festgestellter Verlauf der globalen Mitteltemperatur (dunkelrote gezackte Linie) von 1997 bis 2012, Anstieg der atmosphärischen CO2 Konzentration (schwarze gepunktete Linie) von 362 auf 400 ppm und von Klimamodellen errechneter Temperaturanstieg um 0,3 K (entspricht 0,3 °C). Hellrote Mittellinie ist der ermittelte Trend des Verlaufs der globalen Mitteltemperatur.

Das war damals schon vorsätzlich gelogen und ist es heute noch viel mehr. Denn inzwischen wissen es alle, die es wissen wollen, besser. Weder richtet sich das Weltklima und noch nicht mal das Klima in Deutschland nach dieser kindlichen Wunschvorstellung. Die globale Mitteltemperatur, was immer sie darstellen soll, hat den von Klimaforschern u.a. des Potsdam Institutes für Klimaforschungsfolgen (PIK) verordneten Gleichschritt mit dem CO2 seit nunmehr 15 Jahren ermattet aufgegeben. Es wird seitdem nicht mehr wärmer. Der Trend zeigt sogar leicht nach unten in Richtung Kälte. Siehe Abb. 1. Die jüngsten Erfolge bei der Gewinnung von Erdgas und Erdöl aus Schiefergestein, rücken zudem das baldige Ende fossiler Brennstoffe in weite, weite Ferne. Auch die Geschichte  vom baldigen Ende derselben, entpuppt sich als das Märchen, das es von Anfang an war.

Damit ist nicht nur Klimakatastrophe[2] ersatzlos abgesagt. Auch vermögen die,  mittels EEG massenhaft erzeugten, NIE (Neue Instabile Energien) auch nur annähernd den Bedarf nur eines einzigen Haushaltes zu decken. Der simple Grund: Nachts scheint auch hierzulande keine Sonne und der Wind weht dort und dann wo er will. Nicht wo und wann wir ihn brauchen. Häufig auch gar nicht. Und weil man Strom in brauchbaren Mengen nicht speichern kann – auch nicht in Zukunft- müssen konventionelle, ebenso wie die verbliebenen Kernkraftwerke, die selbstgemachten Lücken füllen. D.h. sie stehen in Dauer-Bereitschaft, werden ständig auf- und abgeregelt, damit bewusst auf Verschleiß gefahren und liefern zuverlässig Strom. Immer noch! Denn sie verhindern, wenn auch gerade mal so, einen flächendeckenden Stromausfall: Den Blackout!

Dafür kostet dieser Zufallsstrom, den normalerweise niemand, der klar im Kopf ist, auch nur mit der Kneifzange anfassen würde. Und wie er kostet! Allein in 2012 durften die Erzeuger dieser NIE´s 20 Mrd €[3] dafür einkassieren, obwohl der so erzeugt Zufallsstrom an der Strombörse gerade mal 2,7 Mrd Euro einbrachte. Und für 2013 erwarten Experten [4] eine Summe von 26 Mrd €, das wäre ein Anstieg um 30 %.

Doch das ist noch längst nicht alles. Gleichzeitig nämlich verpflichtet das EEG uns -die Verbraucher- zur Unterzeichnung von Schuldwechseln für die Dauer von 20 Jahren, deren Bedienung uns bereits aufgelaufen bis Ende 2012 301 Mrd Euro in den nächsten 20 Jahren kosten werden. Und in diesem Jahr kommen nochmals mindestens 30 Mrd Euro dazu. Und dann jedes Jahr mehr und mehr und mehr. 

Abbildung 2: Reale Zahlungen an EEG Besitzer in den Jahren 2000 bis 2012 in Millionen €. Blaue Kurve: Zahlungen pro Jahr. Grüne Kurve: kumulierte Zahlung seit Beginn des EEG. Rote Kurve: Zahlungsverpflichtungen über die nächsten 20 Jahre wegen der vertraglich zugesicherten 20 jährigen Garantie. Ab 2012 best fit aus Excel für den zukünftigen Verlauf der Zahlungen und Zahlungsverflichtungen. Bereits für 2013 wird die Auszahlung statt errechneter 22,5 Mrd € voraussichtlich die Summe  von 26 Mrd € erreichen.

Damit ist, seit dem Ende des zweiten Weltkrieges, die größte Umverteilung von unten nach oben – parallel zur Eurorettung- von Regierungsseite in Gang gesetzt worden. Gleichzeitig dazu wird die beste Energieinfrastruktur der Welt aufs schwerste beschädigt, massiver Raubbau an der Natur durch Vermaisung und massive Waldrodung für Photovoltaik und Windkraftanlagen,  betrieben, und der massenhafte Verlust von wertschöpfenden Arbeitsplätzen[5] – angefangen bei der energieintensiven Grundstoffindustrie- billigend in Kauf[6] genommen.  Allein bei der Grundstoffindustrie sprechen wir da – direkt und indirekt- von ca. 850.000 Arbeitsplätzen.

Zu diesen Themen wird jetzt von EIKE das 1. Hamburger Klima- und Energiegespräch am 14. Juni im Hamburger Maritim Hotel veranstaltet, mit spannenden Vorträgen von Top-Experten.  Die Tagungsgebühr beträgt 60 € und schließt Mahlzeiten und Erfrischungsgetränke ein. Sie deckt nur einen geringen Anteil der Kosten ab. Interessenten melden sich bitte hier: 

Michael Limburg, EIKE


[1]Im Januar  2004 behauptete J. Trittin, dass „die Förderung erneuerbarer Energien einen durchschnittlichen Haushalt nur rund 1 Euro im Monat kostet – so viel wie eine Kugel Eis“ [BMU] http://www.eike-klima-energie.eu/climategate-anzeige/stellt-die-wahre-partei-der-besserverdienenden-zur-rede/

[2] Durchschlagende Wortschöpfung der Deutschen Physikalischen Gesellschaft aus 1986 zur Unterstützung der Kernkraft

[3] FAZ vom 06.01.13 Verbraucher zahlen 17  Milliarden Euro Zuschuss für Ökostrom 

 http://www.faz.net/aktuell/wirtschaft/energiewende-verbraucher-zahlen-17-milliarden-euro-zuschuss-fuer-oekostrom-12016230-l1.html·

[4] Diese Zahl nannte der für den Kraftwerksbereich zuständige Siemensvorstand Dr. Süß auf dem CDU/CSU Energiedialog am 30.4.13 in Berlin

[5] siehe Calzada Studie http://www.eike-klima-energie.eu/uploads/media/Calzada_EXECUTIVE_SUMMARY_deutsch.pdf

und Stagnaro Studie: http://www.eike-klima-energie.eu/news-anzeige/saubere-arbeitsplaetze-teure-arbeitsplaetze-warum-italien-sich-keine-gruene-oekonomie-leisten-kann/

[6] „Saurierindustrien die zum Aussterben verurteilt seien“ nannte dies der inzwischen geschasste ehemalige Umweltminister Dr. Norbert Röttgen 




Treibhausgas-Konfusion vervielfacht durch Missbrauch von Infrarot-Thermometern

Carl Brehmer

Von Radiometern genannten Instrumenten glaubt man, dass sie sowohl die einfallende als auch die ausgehende langwellige Strahlung messen, aber was messen Radiometer eigentlich wirklich, und was bedeuten ihre Messergebnisse eigentlich? Der innere Bereich eines Radiometers besteht aus einer Kette von Thermoelementen in einem Vakuum unter einer Haube, deren eines Ende mit einer Dose verbunden ist, in der die „Referenztemperatur“ eingehalten wird. Abhängig vom Messziel wird eine positive oder negative Ladung von den Thermoelementen erzeugt, die an eine Schaltkreis-Karte geleitet wird. Falls das Ziel wärmer ist als die Referenztemperatur in der Dose (der Boden zum Beispiel) werden sich die Thermoelemente strahlungsbedingt erwärmen, und eine positive Ladung wird erzeugt. Ist das Ziel kälter als die Dose (der offene Himmel zum Beispiel) wird es zu strahlungsbedingter Kühlung kommen und eine negative Ladung wird induziert. Zusammen mit dem elektrischen Signal, erzeugt durch die Thermosäule, werden noch zwei weitere Temperatursignale an die Schaltkreis-Karte gesendet: 1) Die Temperatur der Büchse und 2) die Temperatur unter der Haube. Die elektrischen Spannungen dieser drei Signale werden dann mathematisch in einen Messwert konvertiert mit der Einheit W/m².

„Das Epply PIR hat 3 ausgehende Signale: von der Strahlungsthermo(elemente)säule (mV), von der Temperatur in der Dose (V) und der Temperatur in der Hülle (V). Die 3 Signale werden über die Pyrgeometer-Gleichung kombiniert, die die thermische Balance des Instruments und damit die Verteilung der einfallenden langwelligen Strahlung (LW)“ PIR = Precision Infrared Radiometer auf Kilo Moana von Frank Bradley.

„Der mV-Output aus den Thermosäulen wird in W/m² konvertiert, dann korrigiert für die Temperatur-Auswirkungen auf die PIR-Dose“. Epply PIR (Precision Infrared Radiometer) ® CAMPBELL SCIENTIFIC, INC. Copyright © 2001-2007 Campbell Scientific, Inc.

Hier folgt ein Beispiel einer solchen Epply-PIR-Berechnung von Downward-long wave radiation (DLWR) aus der Studie „PIR – Precision Infrared Radiometer on Kilo Moana“ von Frank Bradley. Was das Epply PIR tatsächlich bei der Ausrichtung zum Himmel gemessen hat, war die strahlungsbedingte Kühlung der Thermosäule. Diese Strahlungs-Kühlung induzierte eine kleine negative Spannung in den Output-Leitungen, und das wurde mathematisch konvertiert in negatives W/m²: in diesem Beispiel -66,6 W/m².

Das Radiometer berechnete dann mittels der S-B-Formeln die potentielle IR-Emission der Thermosäule selbst, basierend auf der Referenztemperatur der Dose und deren angenommener Emissivität (das Ergebnis dieser Berechnung war 460,9 W/m². Diese beiden Zahlen wurden dann addiert (-66.6 + 460.9 = 394.3). Schließlich schätzte das Epply PIR den Einfluss der Temperatur in der Haube auf diese Zahl, welche -10,9 W/m² betrug. Danach wurde diese Zahl zu der zuvor ermittelten Summe addiert:

(-10.9 + 394.3 = 383.4)

So wurde aus einem gemessenen ausgehenden IR-Strahlungsenergiefluss von -66,6 W/m² ein einfallender IR-Strahlungsenergiefluss von 383,4 W/m². Obwohl also die Thermosäule einen ausgehenden Strahlungsfluss von -66,6 W/m² ermittelt hat, besagte das Ergebnis vom Epply PIR, dass es einen einfallenden Strahlungsfluss von 383,4 W/m² gegeben hat. In Wirklichkeit ist das Ergebnis des Epply PIR eine Berechnung dessen, was der einfallende Strahlungsenergie-Fluss aus der Atmosphäre sein würde, wenn dieser nicht durch eine destruktive Interferenz mit ausgehender IR-Strahlung eliminiert werden würde. Als solche ist die Existenz eines atmosphärischen einfallenden Strahlungsenergie-Flusses eine mathematische Plauderei; es ist eine hypothetische und keine gemessene Realität.

Richtet man den Epply PIR in Richtung Erdboden, erfährt die Thermosäule eine strahlungsinduzierte Erwärmung, und die gleichen Berechnungen werden durchgeführt, um eine Zahl der ausgehenden IR-Strahlung zu erzeugen. Das Ergebnis ist wieder eher hypothetisch als tatsächlich gemessen. Ein ordentliches Radiometer würde einem lediglich den tatsächlichen Strahlungsenergie-Fluss zeigen und in welche Richtung dieser geht. In diesem Falle wäre die „Gesamt“-ausgehende IR-Strahlung der gesamte ausgehende IR-Strahlungsenergie-Fluss sein, und der einfallende IR Strahlungsenergie-Fluss wäre Null.

Ich glaube, dass man an dieser Stelle einmal erklären sollte, was die Einheit W/m² wirklich bedeutet.

Ein Watt pro Quadratmeter (W/m²) ist eine abgeleitete Größe der Dichte von Strahlungsflüssen im internationalen Einheiten-System SI. Per Definition ist Watt pro Quadratmeter die Rate der Wärmeenergie von 1 Watt, transportiert durch eine Fläche von 1 Quadratmeter, welche senkrecht zur Richtung des Wärmeflusses steht.

„Wärmefluss“ ist „die Menge der transportierten Wärme über einer bestimmten Fläche während einer bestimmten Zeit. Auch bekannt unter thermischer Fluss“.

„Fluss“ (n) die Fließrate von etwas über oder auf eine gegebene Fläche, z. B. Energie, Partikel oder eine Flüssigkeitsmenge. Encarta® World English Dictionary © 1999 Microsoft Corporation.

Die Einheit W/m² ist also die Messung der Rate, mit der thermische Energie tatsächlich von einer Stelle zu einer anderen fließt. Es ist keine Messung des Flusses potentieller Energie. Der tatsächliche Fluss thermischer Energie verläuft immer an einem Temperaturgradienten abwärts. Man denke an die Einheit, mit der die Wasser-Durchflussmenge in einem Strom angegeben wird: Litern/Minute. Dies ist eine Messung, wie viel Wasser an einem bestimmten Punkt während einer bestimmten Zeitspanne fließt. Es ist keine Messung dessen, wie viel Wasser wirklich fließen würde, wenn das Flussbett infinitesimal steil wäre. Und doch ist es das, was die upward longwave radiation ULWR- und DLWR-Zahlen auf der K-T Erdenergiebudget-Karte sind; sie sind potentielle thermische Energieflüsse und nicht tatsächliche Energieflüsse. Radiometer messen in Wirklichkeit nur den Fluss der strahlungsbedingten thermischen Energie in einer Richtung, aber die Ergebnisse der Radiometer sind nicht eine tatsächlich gemessen, sondern eine Berechnung, wie der Wärmefluss wäre, wenn die strahlende Materie aus einem Vakuum in Richtung eines perfekten Schwarzkörpers strahlen würde bei einer Temperatur von 0°K.

Also nimmt sich ein Radiometer etwas, das physikalisch gemessen wird (entweder die radiative Abkühlung oder radiative Erwärmung, die eine kleine negative oder positive Spannung in der Thermosäule induziert) und konvertiert es in eine hypothetische Zahl.

Wir können aus deren Design ablesen, dass Ingenieure von IR-Radiometern Anhänger des zwei-Wege-Energieaustausch-Paradigmas sind und diese Instrumente so bauen, dass sie dieses Paradigma manifestieren. Zum Beispiel: Wenn man eines dieser Instrumente in einen Weinkeller bringt und ihm ermöglichte, die Raumtemperatur abzuschätzen würde es zeigen, dass etwa 300 W/m² von jeder Oberfläche kommen würde. In Wirklichkeit ist die „Dichte des tatsächlichen Wärmeflusses“ innerhalb des Weinkellers in W/m² gleich 0,00, weil sich der gesamte Raum im thermischen Gleichgewicht befindet und kein Wärmefluss (Anmerkung der Redaktion: wohl aber eine Strahlung) von irgendwoher nach irgendwohin stattfindet.

Woher kommt dann aber der vom Radiometer angegebene Wert von etwa 300 W/m²? Er ist die berechnete Menge der IR-Strahlung, die die Thermosäule emittieren würde, wenn sie sich in einem Vakuum gegenüber einem Schwarzkörper bei 0°K befinden würde. In Wirklichkeit sollte ein Radiometer in einem Weinkeller, dessen Temperatur im Gleichgewicht mit der Umgebung liegt, 0,00 W/m² anzeigen, weil der Wärmefluss von einer Wand des Weinkellers zu einer anderen Null ist.

Gehen wir nun nach draußen. Wieder sind weder die DLWR-Zahl 333 W/m² noch die ULWR-Zahl 396 W/m², die man auf der K-T-Karte des Erdenergie-Haushalts sieht, Messungen der tatsächlichen Strahlungsenergie-Flüsse. Stattdessen sind sie mathematische Schätzungen, welche Größe der auf- oder abwärts gerichtete Fluss annehmen würde, wenn der jeweils andere fehlen würde. Das ist so, als wenn man die Windgeschwindigkeit mit 10 mph aus West misst und gleichzeitig annimmt, dass tatsächlich ein mit 20 mph aus Ost wehender Wind existiert, der sich durch Vektoraddition zu einer Windgeschwindigkeit von 10 mph aus West berechnet. Genauso wie der Wind nur in eine Richtung weht, fließt auch thermische Energie nur in eine Richtung. Noch einmal, den empirische Beweis, dass DLWR von ULWR vollständig ausgelöscht wird, liefert das gleiche Radiometer, dass vorgibt, deren Gegenwart zu messen. Diese Radiometer detektieren einen abwärts gerichteten Wärmefluss von 0,00 W/m²; was sie wirklich messen, ist ein aufwärts gerichteter Energiestrom, von dem sie dann berechnen, wie der DLWR ausgesehen hätte, wenn er nicht ausgelöscht worden wäre.

Und das ist der Korken: Das IPCC wird in seinem demnächst erscheinenden AR 5 erneut bekräftigen, dass es DLWR als substantiell identisch mit der Sonneneinstrahlung ansehen, indem sie einfach die hypothetischen Zahlen der IR-Radiometer zu den tatsächlich gemessenen kurzwelligen Strahlungsenergieflüssen addieren, die von der Sonne kommen.

„Der momentane radiative Antrieb (RF) bezieht sich auf eine momentane Änderung des Gesamt-Strahlungsflusses (auf- oder abwärts gerichtet) (solar- und langwellig in W/m²) infolge einer aufgezwungenen Änderung“. AR 5, Entwurf Kapitel 8.

Dies führt zu der Perspektive, dass die Atmosphäre tatsächlich die Oberfläche der primären Wärmequelle der Erde ist, da die Messungen der Radiometer nahe legen, dass der einfallende langwellige Strahlungsfluss aus der Atmosphäre zweimal so groß ist wie der des direkten Sonnenlichts! In Wirklichkeit ist er Null.

Carl Brehmer

Schlussbemerkung: In einem Teil meiner Karriere erhielt ich einen Grad in elektronischer Technologie, und aus diesem Wissen heraus habe ich obige Analyse der internen Operation des Epply PIR durchgeführt, wobei ich Epplys Beschreibung ihres eigenen Instrumentes im Owners Manual gefunden habe. Ich fordere jeden heraus, der im Owners Manual irgendeines Radiometers die Behauptung findet, dass sie tatsächlich die einfallende IR-Strahlung messen. Bei näherer Betrachtung wird man finden dass diese Owners Manuals enthüllen, dass DLWR-Zahlen immer eine berechnete hypothetische Zahl ist, basierend auf dem strahlungsbedingten Wärmetransport-Paradigmas in beide Richtungen, und nicht eine tatsächliche direkte Messung von DLWR.

Link: http://principia-scientific.org/supportnews/latest-news/114-greenhouse-gas-confusion-magnified-by-misuse-of-infrared-thermometers.html

Übersetzt von Chris Frey EIKE

(1)Details dazu hier http://www.eol.ucar.edu/rtf/facilities/isff/sensors/kippzonen/manual_cg4.pdf