1

Was ist da los? Der Hoch­sommermonat August wird in Deutsch­land nicht mehr wärmer.

Fangen wir mit Fakten an. Der Monat August 2017 hatte laut Deutschem Wetterdienst einen Schnitt von 17,9 C und damit ähnlich warm wie letztes Jahr. Anfangs war er noch recht kühl, aber vor allem im letzten Drittel lief er zu hochsommerlichen Temperaturen auf und entschädigte die Sonnenhungrigen. Mit den Rekordhöchsttemperaturen lag er um einige Grade unter den Höchstrekorden von 2015. Im Norden war der August eher durchschnittlich und mancherorts kühl, im Süden dafür deutlich wärmer, oftmals sogar vom mediterranen Klima gestreift. Auch Regen gab es reichlich, das Plansoll war wieder einmal übererfüllt und die von den CO2-Erwärmungsgläubigen schon vor 20 Jahren vorhergesagte August-Trockenheit traf somit auch diesmal nicht zu, eine ausführliche Beschreibung für den August 2017 findet man hier: http://www.dwd.de/DE/presse/pressemitteilungen/DE/2017/20170830_deutschlandwetter_august.html?nn=618918

Im weiteren Verlauf betrachten wir nur die Temperaturentwicklung dieses Sommermonates über diverse Zeiträume. Man kann den Temperaturgang seit 1942 in drei Abschnitte einteilen:

Abbildung 1: Temperaturentwicklung in Deutschland für den Monat August seit 1942, gezeichnet nach den Daten des Deutschen Wetterdienstes. Die Daten sind nicht wärmeinselbereinigt, die Stationsumgebungen haben sich nahezu überall durch Bebauung wärmend verändert.

1) Ab 1942 sanken die Durchschnittstemperaturen und die kühlen Augustmonate hielten an bis Anfang der 70-er Jahre.

2) Ab 1975 erfolgte ein Anstieg auf ein neues Temperaturhoch.

3) Seit der Jahrtausendwende haben wir dieses Temperaturhoch überschritten, die Temperaturen des Monates August sinken wieder. Insgesamt liegt das Temperaturniveau aber jetzt höher als zu Beginn der Betrachtung, zumindest zeigen das die jetzigen DWD-Messstationen, die natürlich nicht dieselben sein können wie 1942.

Um die Entwicklung dramatischer aussehen zu lassen als sie ist, greifen einige Berichterstatter zu einem Trick: Sie lassen die Temperaturbetrachtung inmitten des Kältetales beginnen. Meist beginnt ihre Betrachtungskurve 1961

Abbildung 2: Temperaturentwicklung in Deutschland für den Monat August seit 1961, gezeichnet nach den Daten des DWD.

Der Trick funktioniert: Tatsächlich sind aus dem Kältetal der 60er Jahre heraus bis heute die Augusttemperaturen deutlich angestiegen. Der Hochsommermonat August wurde in den letzten 57 Jahren zu unserer Freude wärmer. Die Durchschnittstemperaturen lagen damals laut Trendlinie bei 16 Grad, während wir in der Gegenwart laut Trendlinie um 2 Grad höher liegen. Natürlich ist an dieser angenehmen Augusterwärmung der Mensch beteiligt, aber nicht durch Kohlendioxid, sondern durch die Ausbreitung der Wärmeinseln um die Stationen herum.

Die Wärmeinselerwärmung bei den Stationen ist die einzige Auswirkung des Menschen auf die Temperaturen. Für CO2 als Treibhausgas konnte auch in diesem August kein einziger Klimafolgenwissenschaftler einen Versuchsbeweis liefern. Die behauptete CO2-Klimasensitivität gibt es nicht oder sie ist minimalst.

Kürzere Zeiträume:

Betrachten wir die letzten 30 Augustmonate, also 1988 bis 2017, dieser Zeitraum ist die kleineste Klimaeinheit. Die Trendlinie hat nun ein gänzlich anderes Aussehen: Seit 30 Jahren stagnieren die deutschen Augusttemperaturen auf dem Niveau von 1988. Ein Temperaturplateau auf hohem Niveau hat sich herausgebildet (Abbildung 3).

Abbildung 3: Temperaturentwicklung in Deutschland für den Monat August seit 1988, gezeichnet nach den Daten des Deutschen Wetterdienstes.

Interessant ist jedoch die Betrachtung der letzten 20 Jahre, also die Gegenwart. Der Hochsommermonat August hat seit zwei Jahrzehnten in Deutschland eine leichte Abkühlungstendenz. Der Trend ist nicht signifikant.

Abbildung 4: Temperaturentwicklung in Deutschland für den Monat August seit 1997.

Es lohnt sich, diese Fakten im Hinterkopf zu behalten, wenn in der Presse wieder einmal die sommerliche „Hitzesau“ durchs Dorf getrieben wird. Hier gilt es, einen kühlen Kopf zu behalten und hochgeputschte Emotionen bestimmter Medienvertreter oder gut bezahlter CO2-Märchenwissenschaftler von den Realitäten zu unterscheiden. Auffallend ist eh, dass diese Leute- von den Medien großspurig als „Experten“ bezeichnet- nur schwadronieren, aber niemals ihre Aussagen auf eine Grafik zurückführen und unsere Medienvertreter fragen eh nicht danach.

Ländliche Stationen, in deren Umgebung sich weniger baulich verändert hat wie in unseren Städten oder an den Flughäfen, zeigen bereits seit 30 Jahren eine leichte Abkühlung. Als Beispiel wählen wir Schneifelforsthaus an der belgischen Grenze. Natürlich hätten wir auch Amtsberg-Dittersdorf im Erzgebirge oder andere ländliche Stationen nehmen können.

Abbildung 5: Ländliche Stationen mit geringen Wärmeinselwirkungen zeigen bereits seit 30 Jahren eine leichte Augustabkühlung.

Fazit: 1) Die Augusttemperaturen verlaufen in Mitteleuropa über mehrere Jahrzehnte betrachtet in Wellen. Momentan befinden wir uns auf einem hohen Niveau. Besonders die wärmeinselarmen Stationen auf dem Lande zeigen jedoch schon wieder eine leichte Abwärtsbewegung an.

2) Die Kohlendioxidkonzentration hat in den letzten 3 Jahrzehnten weiter zugenommen. Auch die August-Grafiken zeigen genauso wie die Grafiken der anderen Monate, dass CO2 keinerlei Erwärmung bewirken konnte.

3) Einen Versuchsnachweis für die behauptete CO2-Erwärmung gibt es auch nicht. Das Klima ändert sich immer und viele Ursachen bestimmen den Verlauf.

4) Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt der Staaten gestellt werden und nicht das Geschäftsmodell Klimaschutz, deren angebliche Gegenmaßnahmen der Natur oftmals großen Schaden zufügen.

Müssen wir uns sorgende Gedanken für die Zukunft machen?

Außer dem wachsenden Wärmeinseleffekt (WI) bei den Messstationen hat der Mensch keinerlei Einfluss auf das Kima. Aber die Bebauung und Versiegelung der Landschaft, die zu erheblichen Erwärmungen in den letzten 70 Jahren führte, wird in absehbarer Zukunft zu einem Ende kommen müssen. Und viele Großstädte sind nun bereits an einem Limit angelangt, der WI innerorts nimmt kaum mehr zu. Zumindest die Berliner müssen sich keine Gedanken machen, denn die Messstation Berlin-Tempelhof zeigt keinerlei Klimakatastrophe

Abbildung 6: Augustverlauf seit über 250 Jahren. Die Trendlinie ist eben. Der wärmste August in Berlin und wohl überall in Deutschland war der August 1807. Man beachte den diesjährigen August von Tempelhof im Vergleich zu 1807. Eingezeichnet sind noch die kalten Jahre von 1881, dem DWD Betrachtungsbeginn und 1931, welches das BaWü-Umweltministerium gerne für Betrachtungen nimmt.

Die Temperaturdaten sind nicht wärmeinselbereinigt, sonst lägen die letzten 130 Jahre gerade von Tempelhof mit seiner baulich städtischen Entwicklung viel tiefer. Wo ist die menschengemachte CO2-Klimakatastrophe?

Ein Blick west- und nordwärts- fehlende August- Erwärmung in Zentralengland, in Dale Enterprise/Virginia und in Mittelschweden

Die drei letzten Grafiken dieses Beitrages sprechen für sich. In Zentralengland stagnieren die August- Werte seit gut dreieinhalb Jahrzehnten, trotz steigender CO2- Konzentrationen. In den USA zeigt sich der starke Wärmeinsel- Effekt der Bundeshauptstadt Washington im Vergleich zur nicht weit entfernten, ländlich gebliebenen Station Dale Enterprise.

Abbildungen 7 bis 9: In Zentralengland (oben) fehlt jegliche August- Erwärmung seit 36 Jahren. Die „Schere“ zwischen der Entwicklung der Augusttemperaturen in Washington (orange) und in Dale Enterprise lässt sich nur mittels WI- Effekten erklären. In Östersund (westliches Mittelschweden, unterste Abb.) gab es zwar seit 1951, dem Beginn der dortigen Messreihe, noch eine unwesentliche August- Erwärmung; seit 1990 (hier gezeigt) aber bereits wieder einen noch minimalen Abkühlungstrend, der nicht signifikant und daher als Stagnation zu werten ist. Zum Redaktionsschluss lagen die 2017er August- Werte der US- Stationen und aus Schweden noch nicht vor, so dass hier die Reihen mit dem August 2016 enden.

Nachtrag: der 2017-er Augustwert der Dale-Enterprise beträgt nur 21,2C (noch nicht eingezeichnet).

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimawissenschaftler

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Der Kohleausstieg – ein ganz normaler Wahnsinn!

Auf der Bundesdelegiertenkonferenz der Grünen im Juni wurde der Kohleausstieg mit Beschluss versehen und auf das Jahr 2030 terminiert. Zeitgleich soll der Verbrennungsmotor in Kraftfahrzeuge nicht mehr eingebaut werden. Politische Willensbekundungen und Konferenzbeschlüsse sind nun mal wunschgetragen und hoch gesteckt, denn um Wirkung zu erreichen, bedarf es „ehrgeiziger“ oder „ambitionierter“ Ziele. Inwieweit die Delegierten über ihren Beschluss nachgedacht oder sich mit Realitäten beschäftigt haben, ist nicht bekannt. Es steht eher zu vermuten, dass in bewährter ideologischer Art die Welt, wie sie ihnen gefällt, grün angestrichen wurde.

Dabei wäre es nicht schwer gewesen, sich zu informieren. Kundige Leute wie Dr. Wolfgang Rasim aus Forst und andere haben sich die Mühe gemacht, was-wäre-wenn-Rechnungen anzustellen:

Angenommen, zwei Drittel (221 Terrawattstunden) des wegfallenden Kohle- und Atomstroms sollen durch Windenergie ersetzt werden, ein weiteres Drittel durch Solar, Erdgas, Geothermie und anderes, so wären dafür etwa 44.200 Windkraftanlagen (onshore) der 3,2-Megawattklasse notwendig. Für zwei Drittel Ersatz der Kohle im Wärmemarkt (737 Terrawattstunden thermisch) bräuchte es, wenn hälftig Wärmepumpen und Elektroheizungen zum Einsatz kämen, 98.300 Windkraftanlagen. Da die Verbrenner-Autos ab 2030 durch E-Mobile ersetzt werden sollen, braucht man auch hier Strom: Für unsere betrachteten zwei Drittel des Strombedarfs (321 Terrawattstunden) wären theoretisch 64.200 Windkraftanlegen nötig.

Rein rechnerisch geht es also um eine Größenordnung von zusätzlich über 200.000 bis 2030 neu zu errichtende Windkraftanlagen im Land. Gegenwärtig drehen sich bei uns (zeitweise) 27.270 Rotoren. Der Fantasie der Leser sei jetzt Raum gegeben.

Da Wind und Sonne den Strom nur fluktuierend liefern, entstünde ein gigantischer Speicherbedarf in der Größenordnung einiger Tausend theoretischer herkömmlicher Pumpspeicherwerke. Speicher fressen über ihren Wirkungsgrad einen Teil der eingelagerten Energie wieder auf. Pumpspeicherwerke eher weniger, bei Power-to-Gas sollte man nicht den Begriff Speicher gebrauchen, sondern das entstehende Gas anderweitig nutzen. Bereits 2010 stufte die Deutsche Physikalische Gesellschaft P2G als Stromspeicher als „energetisch uninteressant“ ein. Es gilt weiter der Spruch: Ohne Speicher ist diese Energiewende nicht machbar, mit Speichern nicht bezahlbar.

Auch ein bodenständiger grüner Ministerpräsident wie Kretschmann findet offenbar in der abgehobenen Gilde kein Gehör mehr. So gleitet die Heilige Grüne Dreifaltigkeit aus Kohleausstieg, E-Mobilität und Ehe für alle dem Wahlkampf entgegen und mag belächelt werden. Wenn die Grünen aber gebraucht werden für Machterhalt oder Machterlangung, wird nicht mehr gelächelt, sondern koaliert.




Fake News von dpa: Offshore Windkraft produziert so viel Leistung wie vier sehr große, konven­tionelle Kernkraft­werke

dpa Propagandameldung zur offshore-Windkraft

Das Wahrheitsinstitut dpa zeigte nun, dass es diese Verwechslung bewusst einsetzt, um den Untertanen im Merkelland EEG-Erfolge zu suggerieren.
In einer Lokalausgabe der Nordbayerischen Nachrichten las sich das wie folgt:
NN Lokalausgabe, 26.08.2017: Steife Seebrise bringt Windkraft auf Touren
mittlerweile produzieren in der Nordsee 953 Windkraftanlagen mit einer Leistung von 4410 Megawatt, das entspricht ungefähr vier sehr großen konventionellen Kernkraftwerken.
Das Wenige an dafür reißerischem dpa-Text ergänzte eine Drittel Seite Bild mit Offshore-Windrädern in verschiedenen Bauzuständen.

Auf n-tv kam die gleiche Information ausführlicher:
n-tv, Sonntag, 27. August 2017: [3] 50 Prozent mehr Nordseestrom Offshore-Windenergie wächst beständig
Vor der Küste im hohen Norden bläst der Wind viermal stärker als irgendwo sonst in Deutschland. Die Offshore-Parks in der Nordsee brummen, ihr Beitrag an der Gesamtstromerzeugung wächst. Damit liegen die Ziele der Bundesregierung bereits in Reichweite.
… Die Windparks lieferten in den ersten sechs Monaten des Jahres mit 7,77 Terawattstunden 50 Prozent mehr Strom als im gleichen Vorjahreszeitraum. Das teilt der Übertragungsnetzbetreiber Tennet in Bayreuth mit.
Gleichzeitig wurden zum Halbjahr bereits 72 Prozent der Gesamterzeugung des Vorjahres erreicht. Dazu kommen noch einmal 0,7 Terawattstunden aus der Ostsee, so dass sich der Beitrag des Offshore-Stroms auf insgesamt 8,47 Terawattstunden beläuft. Das entspricht 16,5 Prozent oder einem Sechstel des insgesamt in Deutschland erzeugten Windstroms.
„Dass zugleich die Kosten bei Windparks und Anbindungssystemen künftig sinken werden, zeigt die große wirtschaftliche Leistungsfähigkeit auf, die Offshore mittlerweile erreicht hat“, sagte Lex Hartman aus der Tennet-Geschäftsführung. „Auch für die Zukunft erwarten wir die Fortsetzung dieses Trends.“
Mittlerweile produzieren in der Nordsee 953 Windkraftanlagen mit einer Leistung von 4410 Megawatt, das entspricht ungefähr vier sehr großen konventionellen Kernkraftwerken. Die tatsächliche maximale Einspeisung lag am 7. Juni bei 4010 Megawatt. Aus der Ostsee steuern 102 Windkraftanlagen noch einmal 339 Megawatt Leistung bei.
… Bis 2025 will Tennet die Übertragungskapazität in der Nordsee auf mehr als 10.000 Megawatt steigern.
Quelle: n-tv.de , lou/dpa

Der Unterschied zwischen Anschlussleistung und wirklich verfügbarer Leistung

Anbei aus Agora-Daten aufbereitete Grafiken zur Windenergie.
Vorab vergleiche man die „pompösen“ Artikelangaben zur offshore-Windkraft mit den wirklichen Verhältnissen. Die offshore-Windkraft hat am gesamten Energiemix einen so geringen Anteil, dass selbst das vollständige Fehlen nicht bemerkt würde.

Bild 1 Offshore Windkraft Ganglinien eines Jahres bis zum 28.08.2017. Blau: Windenergie offshore, Rot: Verbrauch. Vom Autor um die Ende 2016 installierte Anschlussleistung ergänzt. Quelle: Agora-Viewer

Bild 1.1. Ganglinien Wind offshore 2016 in Stundenauflösung. Deutlich erkennbar die fehlende Grundlastfähigkeit. Datenquelle Agora

Nun die dpa-Angaben nachgesehen. Leider sind aktuelle Datensätze für einen Privatmann schwer zu bekommen, so dass man sich mit den Daten von 2016 behelfen und hochrechnen muss. Zur Abschätzung reicht dies aus. Es wird bei der Abschätzung davon ausgegangen, dass das Verhältnis Anschlussleistung / verfügbare Leistung gleich bleibt.

In 2016 betrugen*:
Gesamte installierte Leistung offshore (Nord- und Ostsee): 4089 MW
Gelieferte Energie: 11,9 TWh

4090 MW installierte Leistung ergeben über das Jahr multipliziert eine Energie von 35,8 TWh. So viel (abzüglich 10 … 15 % für Wartungsreduzierungen) hätten die vier Kernkraftwerke geliefert, welche laut dpa durch die Windkraft ersetzt wurden.
Die offshore-Windkraft lieferte aber nur 11,9 TWh, und damit nur ca. 37 % der Energie, welche die Kernkraftwerke sicher und kontinuierlich geliefert hätten.
Somit wurde im Jahr 2016 von den Offshoreanlagen in Wirklichkeit im Verhältnis nur die Energie von 1,5 anstelle der gemeldeten, vier KKW „ersetzt“.

Die Redaktion der dpa lancierte damit bewusst – denn sie hatte genügend Zeit zum Überdenken – den Lesern eine Falschinformation durch Gleichsetzen der Windpark-Anschlussleistung als wirklich verfügbare Leistung: Den gleichen Fehler, den Herr Özdemir im Interview unter Stress gebracht hat.
Dass dies keiner Redaktion auffällt, ist bei den Kenntnissen (der Redakteur*innen) und ihrem Auftrag, das EEG vorbehaltlos zu bejubeln, naheliegend. Zudem haben Redakteur*innen (hat dem Autor einmal einer auf eine Beschwerde hin geantwortet) keine Veranlassung, Agenturmeldungen zu prüfen. Grund: Diese sind so teuer, dass man diese Arbeit nicht noch zusätzlich leisten will. Agenturmeldungen gelten auch automatisch als wahr (dazu gibt es ein Gerichtsurteil).
Das Volk hält die dpa inzwischen wohl ebenfalls für ausreichend gehirngewaschen, um eine solche Falsch-„Information“ bedenkenlos über die Medien zu liefern.

Die tatsächliche maximale Einspeisung lag am 7. Juni bei 4010 Megawatt

Mit Zahlen lässt sich auch in der Technik wunderbar jonglieren. Wie meisterhaft die dpa dieses Spiel beherrscht, sei anbei dargestellt.
Die dpa meldete stolz: … Mittlerweile produzieren in der Nordsee 953 Windkraftanlagen mit einer Leistung von 4410 Megawatt, das entspricht ungefähr vier sehr großen konventionellen Kernkraftwerken. Die tatsächliche maximale Einspeisung lag am 7. Juni bei 4010 Megawatt. Aus der Ostsee steuern 102 Windkraftanlagen noch einmal 339 Megawatt Leistung bei.
Wie diese Angabe das wahre „Lieferdesaster“ der Windenergie bewusst verschleiert, zeigt Bild 2, in dem das Einspeisewunder im Detail dargestellt ist.

Am 07.06.2017 standen wirklich 91 % der Offshoreleistung Nordsee zur Verfügung,
am 02.06.2017 waren es jedoch nur 0,003 % (Hinweis: umgerechnet auf die Nordsee)

Bild 2 Ganglinien Wind offshore um den 07.06.2017. Blau: Windenergie offshore, Rot: Verbrauch. Zahlenangaben vom Autor zugefügt. Quelle: Agora-Viewer

Dieses desaströse Energie-Lieferverhalten zeigen KKWs und die anderen, konventionellen Kraftwerke nicht.

Womit gezeigt ist, dass die offshore Windkraft nicht einmal 1,5 sondern kein KKW (oder sonstiges, grundlastfähiges Kraftwerk) ersetzt. Diese müssen als Backup nämlich immer mitlaufen, sonst müsste man für mehrere Tage mit unter 1 % der Leistung auskommen. Und bei der Windkraft onshore ist dieses Verhältnis noch wesentlich ungünstiger (Bild 3).

Eine Lösung könnten Speicher sein. Die gibt es für solche Energievolumen jedoch noch nicht einmal im Ansatz [2]. Unter der gnädigen Annahme, es wäre anders – weil es Ökoenergieexperten vehement behaupten und auch simulieren können -, kommt nach bisherigem, seriösem Wissensstand, nur Power to Gas mit Rückverstromung in Frage.
Diese Zwischenspeicherung hat mit Methanisierung einen Wirkungsgrad von [2]:
Aktuell 22 %,
Zukunftshoffnung: 36 %.

Diese gewaltigen Verluste müssen zusätzlich erzeugt werden. Nimmt man ca. 50 % erforderlichen Zwischenspeicheranteil an, werden nur noch max. 1 Kernkraftwerk ersetzt. Zu den ursprünglich gemeldeten, vier Kraftwerken ein erheblicher Unterschied. Das gilt auch für die Kosten, die für eine rückverstromte kWh in der Größenordnung von 26 … 47 ct netto zuzüglich Steuern und Gebühren liegen [2].

Wenn es um den eigenen Vorteil geht, verdrängt man das Fachwissen und macht lieber die gewünschten Aussagen

Die für die Übertragung zuständige Firma Tennet zeigt dazu ihr wahres Gesicht. Sie verdient prächtig und hofft, dass die Subventionsregularien noch eine Zeit lang so weiter gehen. Einfacher lässt sich Geld nicht verdienen. Grund, auf Reklamation dieses teils unsinnigen Systems durch Fachwissen zu verzichten und es lieber als vorteilhaft und zukunftsträchtig zu preisen.
Tennet: [3] „Dass zugleich die Kosten bei Windparks und Anbindungssystemen künftig sinken werden, zeigt die große wirtschaftliche Leistungsfähigkeit auf, die Offshore mittlerweile erreicht hat“, sagte Lex Hartman aus der Tennet-Geschäftsführung. „Auch für die Zukunft erwarten wir die Fortsetzung dieses Trends.“
Bezahlen muss es ja der Bürger und der kann sich dagegen so wenig wehren wie gegen GEZ-Zwangsgebühren, außer er hat Geld und steigt als Eigenversorger aus diesem staatlich verordneten Abzocksystem aus.

Bild 2 führt auch wieder drastisch vor, dass von einer Grundlastfähigkeit selbst der Offshore-Windkraft nicht entfernt die Rede sein kann. Und es zeigt damit, was man von Aussagen von „Fachpersonen“ und der dpa halten darf, die das Volk angeblich „wahr“ informiert:
[4] Münchner Stadtwerke: Christian Vogt, Leiter des Beteiligungsmanagements der Stadtwerke München:
… Bis 2025 wollen wir so viel Ökostrom erzeugen, wie ganz München verbraucht. Eine ganz wesentliche Bedeutung bei der Umsetzung hat die Windkraft, insbesondere Offshore. Sie hat das größte Potenzial und
ist sogar grundlastfähig.
dpa [5]: … Weil der Wind auf dem Meer stetiger und häufiger weht als an Land, liefern Windräder auf See mehr Strom und sind besser ausgelastet. Sie gelten wie Atom- und Kohlekraftwerke als „grundlastfähig“, können also den Versorgungssockel absichern.

Windkraft onshore

Es lohnt, die Windkraft auch in Summe zu betrachten. Dazu die folgende Gangliniengrafik. Man sieht den gewaltigen Leistungsunterschied zwischen Land- und See-Windparks, aber auch den immer noch gewaltigen zur benötigten Energie. Der Abstand zwischen Anschlussleistung und wirklich gelieferter ist nun deutlich größer – und damit auch die Kraftwerks-Ersatz, oder alternativ die Speicherproblematik.

Bild 3 Windkraft gesamt, Ganglinien eines Jahres bis zum 28.08.2017. Blau: Windenergie, Rot: Verbrauch. Vom Autor um die Ende 2016 installierte Anschlussleistung ergänzt. Quelle: Agora-Viewer

Dazu wieder eine kleine Abschätzung: In 2016 betrugen*:
Gesamte installierte Leistung offshore und onshore: 45.920 MW
Gelieferte Energie: 79,8 TWh

Die 45.920 MW ergeben über das Jahr multipliziert eine Energie von 402 TWh. Geliefert wurden aber nur 79,8 TWh und damit nur ca. 20 % der „versprochenen“ Energie. Gegenüber Windkraft offshore alleine ist es fast nur die Hälfte.
Klar, dass sich damit die Backup-, alternativ Speicherproblematik vervielfacht.
Dass Solar daran nichts „rettet“, zeigt das folgende Bild.

Bild 4 Windkraft gesamt und Solar. Ganglinien eines Jahres bis zum 28.08.2017.Quelle: Agora-Viewer

Fachpersonen für politisch verordnete Energie interpretieren solche Daten dank ideologisch begründetem Wissensverbot anders. Als Beispiel die EXPERTIN der GRÜNEN für Energie. Diese Frau weiß nicht was sie sagt, aber sie weiß, warum sie es sagt:
Annalena Baerbock (Studium: Politikwissenschaften, öffentliches Recht, Völkerrecht):
[1] … „Am Kohleausstieg führt kein Weg vorbei. Nicht nur aufgrund unserer klimapolitischen Verpflichtungen, sondern auch wegen des bevorstehenden Desasters am Strommarkt, wenn wir so weitermachen wie bisher. Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen. Es mangelt an der Bereitschaft, aus der Kohle auszusteigen. Deshalb kommen wir bei der Energiewende nicht richtig voran.“

Heutzutage braucht man im vermerkelten Deutschland nicht nur keine Ahnung zu haben, es scheint fast eine Bedingung zu sein, um zur Fachperson ernannt zu werden. Allerdings muss man dazu ergänzen: Wer Ahnung hat, aus Eigennutz das Falsche, jedoch politisch richtige sagt, bekommt auch Posten und Ehrungen.

*Die Daten stammen vom Fraunhofer IWES und anderen Quellen. Wegen der innerhalb des Jahres erfolgten Zubauten und Repowering weichen die Zahlen verschiedener Quellen teils erheblich voneinander ab.

Quellen

[1] Annalena Baerbock 25.08.2017: Studie: Stromexporte von Stein- und Braunkohlestrom

[2] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

[3] n-tv, Sonntag, 27. August 2017: 50 Prozent mehr Nordseestrom Offshore-Windenergie wächst beständig

[4] EIKE 11.01.2017: Der Wind weht überhaupt nicht immer irgendwo: Ein Nachtrag zum Märchen von der Wind-Grundlastfähigkeit

[5] EIKE 28.01.2016: Ein EEG-Märchen wird zum Öko-Dogma – Offshore Windkraft sei grundlastfähig




Die dunkle Seite der Windkraft: Vogel-Massen­grab, Rotoren­schrott, fragwürdige nationale Allein­gänge

Der VGB hat nun eine wichtige Übersicht zur Windkraft in Deutschland und Europa vorgelegt. Der VGB ist als internationaler Fachverband für die Erzeugung und Speicherung von Strom und Wärme eine non-profit-Organisation und ein freiwilliger Zusammenschluss von Unternehmen der Kraftwerksbetreiber und -hersteller. Thomas Linnemann und Guido Vallana beleuchteten darin Status quo, Potenziale und Herausforderungen in der Grundversorgung mit Elektrizität, sowie die Entwicklungen in Deutschland seit dem Jahr 2010. Hier die Zusammenfassung von der VGB-Webseite, wo auch das pdf des Komplettberichts abgerufen werden kann:

Die installierte Nennleistung sämtlicher Windenergieanlagen in Deutschland hat sich in den letzten 16 Jahren, von Anfang 2001 bis Ende 2016, auf 50.000 Megawatt (MW) verachtfacht. In 18 betrachteten europäischen Ländern, die Windenergie heute nutzen, erhöhte sich die Nennleistung im gleichen Zeitraum um das Zwölffache auf mehr als 150.000 MW.

Eine wesentliche physikalische Eigenschaft der Windenergie ist ihre starke raumzeitliche Variation aufgrund der Fluktuationen der Windgeschwindigkeit. Meteorologisch betrachtet wird die aus Windenergieanlagen eingespeiste elektrische Leistung durch Wetterlagen mit typischen Korrelationslängen von mehreren hundert Kilometern bestimmt. Im Ergebnis ist die aufsummierte eingespeiste Leistung der europaweit über mehrere tausend Kilometer sowohl in Nord-Süd-als auch Ost-West-Richtung verteilten Windenergieanlagen hoch volatil, gekennzeichnet durch ein breites Leistungsspektrum.

Die intuitive Erwartung einer deutlichen Glättung der Gesamtleistung in einem Maße, das einen Verzicht auf Backup-Kraftwerksleistung ermöglichen würde, tritt allerdings nicht ein. Das Gegenteil ist der Fall, nicht nur für ein einzelnes Land, sondern auch für die große Leistungsspitzen und -minima zeigende Summenzeitreihe der Windstromproduktion 18 europäischer Länder. Für das Jahr 2016 weist die entsprechende Zeitreihe (Stundenwerte) einen Mittelwert von 33.000 MW und ein Minimum von weniger als 6.500 MW auf. Dies entspricht trotz der europaweit verteilten Windparkstandorte gerade einmal 4 % der in den betrachteten 18 Ländern insgesamt installierten Nennleistung. Windenergie trägt damit praktisch nicht zur Versorgungssicherheit bei und erfordert 100 % planbare Backup-Systeme nach heutigem Stand der Technik.

Im derzeit in der Vorbereitung befindlichen Teil 2 der Studie wird die gesamteuropäische Situation analysiert.

Ein nüchterner Artikel, der die Windkraft in Deutschland in realistischer Weise darstellt: Windenergiekapazität 50 000 MW, gesicherte Leistung 100 MW. 37 mal im Jahr ist Dunkelflaute.

Die Gewinner der Windkraft sind klar: Die Besitzer und Investoren der Anlagen, die sich Bau und Betrieb fürstlich bezahlen lassen. Der Hinweis auf die große Bedeutung in der “ökologischen” Transformation erstickt jegliche Kritik im Keim. Aber wie ökologisch und naturnah ist diese Energiegewinnung wirklich? Einen Hinweis darauf finden wir in einer Pressemitteilung der Deutschen Wildtierstiftung vom 23. Juni 2017:

Neues Bundesnaturschutzgesetz legalisiert Tötung von Wildtieren
Deutsche Wildtier Stiftung kritisiert: Bauvorhaben und Windkraft stehen künftig über Artenschutz

Wenn Windkraftanlagen ohne Rücksicht auf geschützte Arten wie Fledermäuse und Rotmilan errichtet werden, kommen sie unter die Räder. Denn Natur- und Artenschutz stören häufig, wenn es um wirtschaftliche Interessen geht. Mit der gestern am späten Abend beschlossenen Änderung des Bundesnaturschutzgesetzes hat die Bundesregierung kurz vor der parlamentarischen Sommerpause Tatsachen geschaffen: Auf Betreiben des Bundesumweltministeriums wurde eine Neuregelung beschlossen, die bei Baumaßnahmen wie z.B. von Windkraftanlagen geltendes Gesetz zum Schutz von Arten aufweicht. Viele Arten stehen aufgrund der intensiven Landnutzung in Deutschland ohnehin schon enorm unter Druck – nun verschärft sich die Situation weiter. Tote Adler unter Windenergieanlagen, Feldhamster unter Beton eingeschlossen – in Zukunft kaum mehr ein Problem.

Wie rücksichtslos diese Ziele verfolgt werden, zeigt die Neuregelung im Rahmen des Paragraph 44 des Bundesnaturschutzgesetzes: „Es wurde mit einem Federstrich gegen Natur- und Artenschutz entschieden”, kritisiert Professor Dr. Fritz Vahrenholt, Alleinvorstand der Deutschen Wildtier Stiftung. Fakt ist: Es ist jetzt legal, wenn z.B. durch den Betrieb von Windkraftanlagen Wildtiere getötet werden! Besonders der neue Ausdruck der „Signifikanz” ist problematisch. Erst ab dieser undefinierten Schwelle soll das bisherige Tötungsverbot wirken. Doch wer entscheidet, wie viele tote Tiere signifikant sind? Das geltende EU-Recht für geschützte Arten kennt diesen Begriff ebenfalls nicht.

“Im Interesse der Windkraftlobby setzen sich Bundesregierung und Bundestag mit dieser Entscheidung über das Tötungs- und Verletzungsverbot von Wildtieren hinweg”, bedauert Professor Dr. Vahrenholt. Über 25.000 Windenergieanlagen drehen mittlerweile in Deutschland ihre Rotoren. Der Raum wird knapp. Besonders im windarmen Süden Deutschlands werden die Anlagen daher zunehmend auch in Wäldern gebaut, wo der ökologische Schaden oft beträchtlich ist. Der Tod von Schwarzstorch, Wespenbussard und seltenen Fledermäusen wird nun als unvermeidbar dargestellt und damit quasi legalisiert.

„Wir können nur hoffen, dass dieser ungeheuerliche Angriff auf den Naturschutz in der nächsten Legislaturperiode wieder rückgängig gemacht wird und protestieren aufs Schärfste”, sagt Professor Dr. Fritz Vahrenholt, Alleinvorstand der Deutschen Wildtier Stiftung.

Die Änderung des Naturschutzgesetzes im Wortlaut

„….Zudem kann auch für Vorhaben privater Träger die Ausnahmevorschrift des § 45 Absatz 7 Satz 1 Nummer 5 in Anspruch genommen werden, wenn zugleich hinreichend gewichtige öffentliche Belange ihre Realisierung erfordern. Zu diesen Belangen gehört der Ausbau der Erneuerbaren Energien.”

Siehe auch Beitrag von Dirk Maxeiner auf achgut.com “Die große Koalition macht Tiere töten leicht” (englisch hier). Im August 2017 veröffentlichte Fritz Vahrenholt dazu auch in der Welt einen Beitrag:

Tierschützer warnt: Bis kein Storch mehr fliegt

Tausende Vögel werden Opfer von Windrädern. Investoren zerstören sogar Nester geschützter Arten, die dem Geschäft im Wege stehen. Dagegen hilft ein Mittel, das schon gegen die Mafia erfolgreich war.

Die Entwicklung der Artenvielfalt in Deutschland hat in den letzten Jahrzehnten gezeigt, dass Tiere, die durch Jagd und industrielle Verschmutzung bedroht waren, zurückkehren. Jagdverbote und der Umweltschutz zeigen Erfolg. Zu diesen Rückkehrern gehören viele prominente Vogelarten: Seeadler, Fischadler, Wanderfalke, Uhu, Schwarzstorch, Kranich.

Jetzt droht diese positive Tendenz bei den Greifvögeln wieder zu kippen. Schuld daran ist das Ausufern der Energiewende in die größte Landschaftsveränderung seit dem Zweiten Weltkrieg. Greifvögel geraten in die Zange von 28.000 Windkraftanlagen, davon mittlerweile 1200 in Wäldern. Mais-Monokulturen wachsen auf 2,5 Millionen Hektar, einer Fläche so groß wie Sizilien.

Weiterlesen in der Welt.

Die Freie Welt griff das Thema am 9. August 2017 auf:

Schattenseite der Ökopolitik: Windkraft wird zunehmend zum Massengrab beliebter Vogelarten

Die Umweltpolitik der Grünen erweist sich als ökonomisches und paradoxerweise auch als ökologisches Desaster

Eine Partei, die in den 80er-Jahren angetreten war, um die Natur zu retten, wandelte sich zur Sachwalterin großflächiger Naturzerstörung“, heißt es zusammenfassend in einem Artikel von Fritz Vahrenholt, der in der ‘Welt’ unter dem Titel: „Bis kein Storch mehr fliegt“ erschienen ist.

Prof. Dr. Fritz Vahrenholt war einst Umweltsenator in Hamburg und hatte mit ‚Seveso ist überall’ eines der wirkmächtigsten Bücher der damals neu aufkommenden Umweltbewegung geschrieben. Nun warnt er eindringlich vor einem massiven Vogelsterben durch einen weiteren Ausbau der Windenergie und berichtet von zunehmendem Widerstand.

Weiterlesen in der Freien Welt

Kenneth Richard besprach auf Notrickszone zwei neue Papers, die das Müllproblem ausgedienter Altanlagen analysieren:

Unsustainable: 43 Million Tonnes Of Wind Turbine Blade Waste By 2050
Despite an explosion in installed wind capacity since 1990, wind power had achieved just 0.39%of the world’s total energy consumption as of 2013. Germany has assumed a leading role in promoting the consumption of renewable energy.  And yet even in Germany the share of energy consumption from wind power reached only 2.1% in 2016. Despite its extremely limited infiltration as a world energy source, it is assumed that a rapid expansion of wind power will ultimately be environmentally advantageous both due to its reputation as a “clean” energy and because of the potential to contribute to reduced CO2 emissions. Recently, however, the austere environmental impacts and health risks associated with expanding wind energy have received more attention. For example, scientists have asserted that wind turbines are now the leading cause of multiple mortality events in bats, with 3 to 5 million bats killed by wind turbines every year.   Migratory bats in North America may face the risk of extinction in the next few decades due to wind turbine-related fatalities.

Nicht nachhaltig: 43 Millionen Tonnen Windturbinen-Abfall bis zum Jahr 2050

Trotz einer Explosion der installierten Windkapazität (hier) seit dem Jahr 1990 erreichte Windenergie gerade mal 0,39% des weltweiten Gesamt-Energieverbrauchs bis zum Jahr 2013. Deutschland hat vermutlich eine führende Rolle beim Vorantreiben des Verbrauchs erneuerbarer Energie. Und dennoch, selbst in Deutschland erreichte der Energieverbrauch durch Windkraft im Jahre 2016 gerade mal 2,1% (hier). Trotz dieser extrem begrenzten Infiltration als Energiequelle nimmt man an, dass eine rapide Ausweitung von Windenergie ultimativ umweltlich vorteilhaft ist, sowohl durch deren Ruf als eine „saubere Energiequelle“ als auch wegen des Potentials, zur Reduktion von CO2-Emissionen beizutragen. In letzter Zeit jedoch ist den ernsten Umweltauswirkungen und Gesundheitsrisiken im Zusammenhang mit der Ausweitung der Windenergie immer mehr Aufmerksamkeit zuteil geworden. Beispielsweise haben Wissenschaftler vermutet, dass Windturbinen inzwischen der Hauptgrund für die multiplen Sterbefälle von Fledermäusen (hier) mit 3 bis 5 Millionen durch Windräder getöteten Fledermäusen pro Jahr (hier). Zug-Fledermäuse in Nordamerika stehen vor dem Risiko des Aussterbens während der nächsten Jahrzehnte, weil sie von Windrädern zerschmettert werden.

[Übersetzung: Chris Frey, EIKE]

Zitate aus Ramirez-Tejeda et al. (2017):

“If the industry cannot come up with more sustainable manufacturing and disposal processes, public acceptance of wind energy would decline if the public becomes aware of these issues”

Falls die Industrie nicht mit nachhaltigerer Herstellung und Entsorgung aufwarten kann, wird die öffentliche Akzeptanz von Windenergie abnehmen, falls der Öffentlichkeit diese Umstände bekannt werden.

[Übersetzung: Chris Frey, EIKE]

Ganzen Artikel auf Notrickszone lesen.

Die Volatilität ist ein großes Problem der Windkraft. Nationale Alleingänge machen dabei wenig Sinn, fand eine Studie der ETH Zürich vom 17. Juli 2017 (Pressemitteilung):

Einseitige Planung verschärft Schwankungen

Würden die Länder Europas bei der Windenergie besser zusammenarbeiten, würde die Windstromproduktion weniger stark schwanken. Das sagt eine Gruppe von Energie- und Klimaforschern der ETH Zürich und des Imperial College London, die für Europa erstmals Großwetterlagen mit Stromproduktionszahlen kombiniert untersuchten.

Der Ausbau erneuerbarer Energien steht wegen der wetterabhängigen Stromproduktion massiv in der Kritik. Eine neue Studie zeigt, dass das weniger am Wetter als an mangelnder Berücksichtigung der gesamteuropäischen Wetterverhältnisse in der Planung liegt. Denn etliche Länder Europas folgen für den Ausbau der Windenergiekapazitäten einseitig ihren nationalen Strategien, ohne über ihren eigenen Gartenzaun zu schauen.

Besser wäre es aber, die Länder würden zusammenarbeiten und auch den Ausbau der Kapazitäten in anderen Regionen Europas fördern, wo Windkraft derzeit kaum genutzt wird. Denn nur so ließen sich die extremen Schwankungen, die heute aufgrund der wechselnden Wetterverhältnisse in der Windstromproduktion auftreten, auf einem vergleichsweise tiefen Niveau halten. Zu diesem Schluss kommt eine Gruppe von Klima- und Energieforschern der ETH Zürich und des Imperial College London in ihrer neusten Studie, die soeben in der Fachzeitschrift «Nature Climate Change» erschienen ist.

Premiere für kombinierte Analyse

Für ihre Studie kombinierten die Forscher erstmals für ganz Europa Daten über großräumige Wetterverhältnisse der vergangenen 30 Jahre mit Wind- und Solarstromproduktionsdaten. Dabei verwendeten sie die an der ETH Zürich entwickelte Plattform Renewables.ninja, um die Wind- und Solarstromproduktion in Europa realistisch zu simulieren.

Mit Hilfe dieser Daten modellierten sie unter anderem, wie sich die Windstromproduktion in Bezug auf sieben in Europa vorherrschende Wetterregime verhält und mit dem weiteren Ausbau der Windenergiekapazität zukünftig ändern wird. Solche Wetterregime erklären, weshalb Schwankungen über mehrere Tage in der europäischen Windstromproduktion auftreten.

Einige Regime sind von Tiefdruckgebieten über dem Atlantik geprägt, welche starken Wind in Westeuropa verursachen, gleichzeitig aber mit ruhigeren Verhältnissen weiter östlich einhergehen. Während anderer Regime ist das Wetter über dem Atlantik und in Westeuropa ruhiger, zur gleichen Zeit herrscht jedoch stärkerer Wind in Südeuropa und Nordskandinavien. «Es gibt kaum eine Wettersituation, in der auf dem ganzen Kontinent gar kein Wind weht und damit ganz Europa gar kein Potential für Windenergie hätte» erklärt Erstautor Christian Grams vom Institut für Atmosphäre und Klima der ETH Zürich.

Die Windparks sind jedoch schon heute einseitig über Europa verteilt, vor allem in Ländern um die Nordsee. Das lässt die Windstromproduktion schwanken, weil die meiste Kapazität in Nachbarländern mit ähnlichen Wetterbedingungen installiert ist. Herrscht also über der Nordsee während einiger Tage oder gar Wochen wegen eines stabilen Hochdruckgebiets Flaute, wie im Winter 2016/17, sackt die gesamteuropäische Windenergieproduktion drastisch ab.

Kooperation würde Schwankungen ausgleichen

Verschärft wird dieses Problem dadurch, dass die Länder meist ihren eigenen Strategien für den weiteren Ausbau der Windkraft folgen. Dadurch werden noch mehr Kapazitäten im Nordseeraum konzentriert. Das wird künftig noch extremere Schwankungen zur Folge haben: Die Differenz zwischen hoher Produktion bei günstigen Windverhältnissen und tiefer Produktion bei Flaute wäre bei besonders ungünstigen Verhältnissen bis zu 100 Gigawatt. Dies entspricht in etwa der Kapazität von 100 Atomkraftwerken, die innerhalb weniger Tage zusätzlich bereitgestellt respektive gedrosselt werden müssten.

Würden europäische Länder hingegen kooperieren und künftige Standorte von Windparks anhand der Wetterregime festlegen, ließen sich die Schwankungen auf dem heutigen Niveau von rund 20 Gigawatt stabilisieren. In Frage kommen etwa der Balkan, Griechenland, der westliche Mittelmeerraum und Nordskandinavien.

An diesen Standorten weht der Wind nämlich dann genügend stark, wenn im Nordseeraum ein Hochdruckgebiet für Windstille sorgt. Umgekehrt kann ein stabiles Hochdruckgebiet über dem Mittelmeer die Windstromproduktion dort zum Erliegen bringen, dafür produzieren dann die Windparks im Nordseeraum genügend Strom.

«Deshalb könnte Windstromkapazität in Ländern wie Griechenland oder Bulgarien als wertvoller Ausgleich im gegenwärtigen europäischen Windpark dienen. Das erfordert allerdings einen Paradigmenwechsel in den Planungsstrategien der Länder, in denen Windkraft Potenzial hat», betont Mitautor Iain Staffell vom Imperial College London.

Stromspeicherung nicht machbar

Den Strom für mehrere Tage zu speichern, um die mehrtägigen Schwankungen abzufedern, etwa mit Batterien oder Pumpspeicherseen in den Alpen, ist laut Autoren schwierig, da eine solche gigantische Speicherkapazität auch in absehbarer Zeit nicht verfügbar sein wird. Bislang verfügbare Speichertechnologien eignen sich vor allem zum Ausgleich kürzerer Schwankungen innerhalb weniger Stunden bis Tage.

Vielmehr erfordert eine größere räumliche Verteilung von Windparks auch den Ausbau des Übertragungsnetzes. Solch ein gesamteuropäisch erneuerbares Energiesystem könnte der Schweiz dennoch die Chance bieten ihre Wasserkraftkapazitäten wieder wirtschaftlicher zu nutzen, um kurzfristige Schwankungen auszugleichen.

Politischer Wille und Netzausbau nötig

Auch mit Solarenergie lässt sich eine allfällige Lücke über mehrere Tage höchstens regional füllen. Um die Schwankungen europaweit ausgleichen zu können, müsste gemäss den Forschern die Solarenergiekapazität verzehnfacht werden. «Oft scheint zwar die Sonne, wenn es windstill ist», erklärt Mitautor Stefan Pfenninger vom Institut für Umweltentscheidungen der ETH Zürich. «Aber im Winter reicht die Sonneneinstrahlung in Mittel- und Nordeuropa oft nicht aus, um mit Solarpaneelen genügend Strom zu gewinnen.» Es sei daher wenig sinnvoll, mit einem massiven Ausbau der Solarkapazität die Schwankungen bei der Windenergie ausgleichen zu wollen.

Die Forscher hoffen nun, dass Energieproduzenten und Netzbetreiber, aber auch Regierungen und Politiker, von diesen neuen Erkenntnissen Wind bekommen und die Planung und den Netzausbau europaweit besser koordinieren.

Literaturhinweis: Grams, C.M., R. Beerli, S. Pfenninger, I. Staffell, and H. Wernli, 2017:  Balancing Europe’s wind power output through spatial deployment informed by weather regimes. Nature Climate Change, Advanced Online Publication 17th July 2017, doi: 10.1038/nclimate3338

Dieser Beitrag war zuerst im Blog „Die Kalte Sonne“ erschienen.

Link: http://www.kaltesonne.de/die-schattenseiten-der-windkraft-vogel-massengrab-rotorensondermull-fragwurdige-nationale-alleingange/




Die Science Fiction des Jeremy Rifkin oder: die schöne neue Welt der Öko-Kollektive

Nicht auszuschließen, daß er dabei den selbsternannten Visionär Jeremy Rifkin im Auge hatte, der auch damals schon in Europa herumgeisterte, der aber erst in jüngerer Zeit zu einem Berater der EU und Kanzlerin Merkels aufsteigen konnte. Zu Schmidts Zeiten war es dagegen noch üblich, daß Politiker sich Wissen und Ratschlag bei Fachleuten holten.

Besonders in Asien ist längst aufgefallen, daß fundiertes Fachwissen in Deutschland, vielleicht auch in ganz Europa, zunehmend an Bedeutung verloren hat. Statt Sachverstand zählen heute Glaubensformeln und Redefluß. Es ist hinlänglich bekannt, daß bei dem immerhin lebenswichtigen Thema Energieversorgung in Deutschland schon lange keine Fachleute mehr das Sagen haben, sondern Ideologen, die über CO2– Emissionen schwadronieren und die Rettung des Planeten zu ihrem Lebensziel gemacht haben. Das Kanzleramt, die Kirchen, die Parteien, Schulen, Kindergärten, selbst wissenschaftliche Institute haben seit Jahrzehnten ihre Mitarbeiter zunehmend nach politisch korrekten Ideologien durchleuchtet und ausgesucht.

Nun treten die peinlichsten Resultate dieser allseits vergrünten Gesellschaft zutage. Wie die gesamte Industrie langsam zu ahnen beginnt, daß dramatisch steigende Stromkosten ein Resultat wetterabhängiger Windmühlentechnik sind, so muß auch die Autoindustrie zur Kenntnis nehmen, daß die Physik sich nicht nach den Wünschen ideologiegetriebener Grenzwerte verbiegen läßt. Und auch die kürzlich in England durch übertriebene Fassadendämmung zu Tode gekommenen Menschen seien uns eine Warnung.

Zitat von Prof. Schellnhuber, Bild swr

Folgt man den jüngsten Aussagen des schon etwas bekannteren Merkel-Beraters Prof. John Schellnhuber vom WBGU (Wissenschaftlicher Beirat Globale Umweltveränderungen), dann müßte man diesen einmal eingeschlagenen Holzweg erst noch richtig auskosten. Anläßlich der Verabschiedung Trumps vom Klimawahn sagte Schellnhuber am 15.3. 2017 in einem Interview in der Deutschen Welle:

„… Es ist ziemlich umwerfend – zum Beispiel bis 2030 müssen wir den Verbrennungsmotor auslaufen lassen. Und wir müssen den Einsatz von Kohle zur Stromerzeugung komplett ausschalten. Bis 2040 müssen wir wahrscheinlich Beton und Stahl für den Bau durch Holz, Ton und Stein ersetzen… Und tun wir das nicht… Es wäre das Ende der Welt, wie wir es wissen, und ich habe alle Beweise.“

Jeder normale Mensch würde sagen: „Hier stimmt was nicht!!“

Gleiches trifft auf den anderen Berater zu, der in Berlin und auch in Brüssel unterwegs ist. Der in Deutschland weniger bekannte Jeremy Rifkin bezeichnet sich als Visionär und Zukunftsforscher. Wie Schellnhuber ist auch er als Öko-Aktivist mit der Rettung des Planeten beschäftigt, aber im Unterschied zu ihm will er uns offiziell zumindest keine Holzhütten andrehen (am Ende sind es dann doch welche), sondern preist seine Vision an als die größte Entdeckung aller Zeiten, nämlich als „Die Dritte Industrielle Revolution“.

In einem Vortrag, den er 2014 bei der amerikanischen Akademie in Berlin hielt, erzählt er, daß Merkel ihn, als sie zur Kanzlerin gewählt wurde, um Beratung bat. Er habe ihr gesagt, daß das alte kapitalistische System mit seinem veralteten Kommunikations- und Verkehrssystem am Absterben sei, daß das Bruttosozialprodukt bei steigenden Kosten fossiler und nuklearer Brennstoffe unweigerlich schrumpfen und die Arbeitslosigkeit beständig ansteigen werde. Kurz, man könne der Tatsache nicht ausweichen, daß wir die Entropiezeche eines auf fossiler Energie bestehenden Systems jetzt nicht nur in wirtschaftlicher Hinsicht zahlen müßten, sondern auch durch die davon verursachte Klimakatastrophe.

Was dagegen hoffnungsvoll im Entstehen sei, sei ein völlig neues System, eine „Dritte Industrielle Revolution“ auf der Grundlage erneuerbarer Energien, neuer Transportwege und eines Super-Internets der Dinge. In einer jüngsten Film-Ankündigung vom April 2017 bezeichnet er Deutschland als das Epizentrum dieser Revolution; Merkel wird darin zitiert, wir würden diese dritte industrielle Revolution in Deutschland haben, und mehr noch, sie wolle auch die Zentralregierung Chinas davon überzeugen.

Um dem Leser die Vorstellung zu erleichtern, was seither im Kopf dieser Kanzlerin spukt, sei aus Rifkins Buch zitiert. Die fünf Säulen seiner Vision sind folgende:

* „Umstieg von einer auf kohlenstoffhaltigen fossilen Brennstoffen basierenden Energieordnung auf erneuerbare Energien.“

* „Umbau der weltweiten Bausubstanz zu Mikrokraftwerken, die vor Ort erneuerbare Energien zu erzeugen imstande sind.“

* „Installation von Wasserstoff und anderen Speichermöglichkeiten in jedem Gebäude und über die ganze gesellschaftliche Infrastruktur verteilt, um schwankende Energien zu speichern und damit einen kontinuierlichen, zuverlässigen Nachschub an grüner Energie zu garantieren.“

* „Die Nutzung der Internettechnologie zur Umstellung des Stromnetzes auf ein intelligentes Versorgungsnetz, in das Millionen Menschen selbst erzeugten grünen Strom einspeisen können, um ihn – nach dem Vorbild des Informationsaustausches im Internet – mit anderen in einer Art quelloffener Allmende zu teilen.“

* „Die Umstellung der globalen Transportflotte – Pkws, Busse, Lkws, Züge – auf elektrische, von erneuerbaren Energien aus Millionen von Gebäuden angetriebenen Steckdosen- und Brennstoffzellenfahrzeuge und die flächendeckende Einrichtung von Ladestationen, an denen sich Elektrizität über ein dezentrales Stromnetz kaufen und verkaufen läßt.“

In dieser schönen neuen Welt werden Milliarden von Menschen die großen Kraftwerke ersetzen. Sie werden den von Sonne und Wind kostenlos gelieferten Strom innerhalb ihrer vier Wände speichern und per Internet verkaufen. Vor dem Haus steht eine Flotte von gemeinschaftlich benutzten E-Mobilen, die mit dem kostenlos gelieferten und gespeicherten Strom fahrerlos in der Gegend herumkutschieren. Auch für den Fall, daß das Internet der Dinge doch keine Dinge produziert, ist vorgesorgt. Alle, selbst fünfjährige Kinder, werden über 3-D-Drucker verfügen, mit denen man die Dinge drucken und verkaufen kann, von Spielzeug über Kochtöpfe bis hin zu E-Mobilen. Wer sich das nicht vorstellen kann, ist eben nicht auf der Höhe der Zeit.

Man bräuchte über Visionen dieser Art kein Wort zu verlieren, wenn nicht tatsächlich der gefährliche Zustand erreicht wäre, daß ganze Institutionen wie die Europäische Union und die Verantwortlichen der großen Energieerzeuger Deutschlands zwischen Science Fiction und Wissenschaft nicht mehr unterscheiden können. E.ON und Google gründeten kürzlich eine Partnerschaft zur Ermittlung des Solarpotentials von weiteren sieben Millionen Gebäuden in Deutschland. Welches Interesse sollte daran bestehen, wenn die Verantwortlichen der Firmen nicht tatsächlich den flächendeckenden Umbau der Bausubstanz in Deutschland zu Mikrokraftwerken im Schilde führten? Wie Rifkin in seinem Buch über die Dritte Industrielle Revolution preisgibt, habe auch der ehemalige Chef von EnBW, Utz Claassen, zur Überraschung seiner Belegschaft selbst versprochen, beim Weg in die neue Ära dezentraler Energie ganz vorne mit dabei zu sein.

Ist die Autoindustrie vielleicht auch gerade dabei, mit dem E-Mobil der letzten der fünf notwendigen Säulen den Weg zu bereiten? Wenn selbst die Führung unserer Industrie sich an der Zerschlagung eines der besten und sichersten Energiesysteme der Welt beteiligt und sich stattdessen mit fragwürdigen Visionären einläßt, dann ist es höchste Zeit, auf die eigentlichen Pläne dieser Propheten hinzuweisen. Denen geht es nämlich nicht um technische Herausforderungen gegenwärtiger oder zukünftiger Machbarkeit, sondern um Bevölkerungsreduktion mittels Wiedereinführung kollektiver Subsistenzwirtschaft. Was Rifkin vorschwebt und jeder in seinen Büchern nachlesen kann, sind Modelle, mit denen sich die Umweltökonomin Elinor Ostrom beschäftigt hat, Modelle, die in die vorindustrielle Zeit, teils nicht weniger als tausend!!!! Jahre zurückreichen.

Bevor wir dahin kommen, wollen wir uns zunächst mit der Frage beschäftigen: Wer ist eigentlich dieser Jeremy Rifkin?

 

Wer ist Jeremy Rifkin?

Geboren 1945 in Denver/Colorado. Bereits 1978 gründete er seine Stiftung „Foundation On Economic Trends“ (FOET) und war seither als Ökoaktivist sowohl in den USA als auch international tätig. Egal, ob es sich um Themen wie Gentechnik, Fleischverzehr oder Klimawandel handelte, Rifkin mobilisierte auf allen Ebenen, was seine Stiftung für die Ökolobby interessant machte. Sie wird bis heute von großen Geldgebern wie Arca Foundation, Oak Foundation, Rockefeller Family Fund, Kellogg Foundation, Warsh-Mott Legacy und Nathan Cummings Foundation unterstützt, um nur einige zu nennen.

Während er in den USA in Sachen Klimawandel wegen der dort existierenden Opposition weniger erfolgreich war, wurde er seit 2000 Berater der Europäischen Union und beriet in dieser Funktion Prodi, Barroso und Juncker, seit 2005 nach eigenen Angaben auch Merkel und verschiedene Vorstände großer Unternehmen in Europa. Gegenwärtig hat er eine Beraterfunktion in Sachen „Dritte Industrielle Revolution“ in der Region Hauts-de-France, sowie Rotterdam und Den Haag und ist für den Großherzog von Luxemburg tätig. Seit ein paar Jahren soll er auch einzelne Vertreter chinesischer Institutionen beraten haben.

Rifkin schrieb im Laufe seiner Karriere etwa 20 Bücher, von denen einige in 30 Sprachen übersetzt wurden. Die beiden letzten sind Die Dritte Industrielle Revolution von 2011 und das neueste Die Null-Grenzkosten-Gesellschaft von 2014.

In seinen umfangreichen Ausführungen, die alle möglichen Gebiete streifen, findet sich nirgends fundiertes Wissen, nur Behauptungen, teils der absurdesten Art. Aus diesem Grund wollen wir hier auf weitere Details zu seiner Vision nicht näher eingehen, und uns lediglich auf eine Kostprobe beschränken, um dann die Betonung auf das zu legen, worauf das ganze zwangsläufig hinauslaufen soll, nämlich die Dekonstruktion der Industriegesellschaft. Eine Kostprobe aus Die Null-Grenzkosten-Gesellschaft:

„Im Gegensatz zu fossilen Brennstoffen und Uran für Atomkraft, wo bereits der Rohstoff Kosten verursacht, sind erneuerbare Energien nahezu kostenlos zu haben: die Sonne, die Sie auf Ihrem Dach einfangen, der Wind, der die Wände Ihres Hauses hochstreicht, der anaerobe Kompost in Ihrer Küche, die Wärme in der Erde unter Ihrem Büro.

Und schließlich sind die Kosten für den Betrieb eines dreidimensional gedruckten Wagens mit lokal geernteter erneuerbarer Energie so gut wie umsonst. Die Brennstoffkosten eines Urbee liegen bei nur 0,02 Dollar pro Meile – mit anderen Worten: bei einem Drittel der Kosten eines Toyota Prius.“ (Campus-Verlag, S.391 f.)

Die unsichtbare Hand des Marktes habe die Entdeckung des Null-Grenzkosten-Prinzips freigegeben und trete ihren Triumphzug an.

Auf dieser wunderbaren Entdeckung basiert die ganze Vision des Jeremy Rifkin, und die Granden der europäischen Politik applaudieren. Ganz Recht hatte er, der alte Helmut Schmidt: Da hilft nur der Gang zum Arzt!

 

Die autarken Öko-Kollektive

Kommen wir noch einmal zurück auf den oben schon zitierten Vortrag 2014 in Berlin. Nach den großen Lobreden auf die angeblich extrem steigende Produktivität in einer mit erneuerbarer Technik vernetzten Welt läßt er schließlich die Katze aus dem Sack.

Besser als alle Formen kapitalistischer oder sozialistischer Wirtschaft sei die soziale Wirtschaft, die tausend Jahre vor dem Kapitalismus existierte und von der man nur nichts gehört habe, weil die moderne Geschichte das auslasse. Es bedurfte erst der Wirtschaftswissenschaftlerin Ostrom von der Indiana-Universität Bloomington, die schließlich das Prinzip einer wahrhaft demokratischen und sozialen Gemeinschaft in den kleinsten Gebirgsdörfern der deutschen Alpen, auch der Schweizer und italienischen Alpen wiederentdeckt habe.

Elinor Ostrom bekam für ihre Arbeit auf dem Gebiet der Umweltökonomie 2009 im Alter von 76 Jahren den Nobelpreis verliehen und starb zwei Jahre danach. Sie befaßte sich unter Anwendung der Spieltheorie mit der Frage, wie eine wachsende Bevölkerung mit knappen Ressourcen umgehe, wobei der Hauptgegenstand ihrer früheren Forschungstätigkeit die Wasserknappheit in Kalifornien war.

In ihrem Buch Die Verfassung der Allmende kommt sie zu dem Schluß, daß die von Rifkin erwähnten Bergdörfer (genannt werden Törbel in der Vistatalklamm im Kanton Wallis und die japanischen Dörfer Hirano, Nagaike und Yamanoka) die erfolgreichsten selbstverwalteten und langlebigsten Gemeinden waren. Zitat:

„Die Schweizer und japanischen Gebirgsallmenden haben trotz intensiver Nutzung die Jahrhunderte überdauert oder sind sogar verbessert worden. Ökologische Nachhaltigkeit in einem fragilen Milieu von Lawinen, unvorhersagbaren Niederschlägen und wirtschaftlichem Wachstum ist für jede Aneignergemeinschaft, die seit Jahrhunderten zusammenarbeitet, ein eminenter Erfolg.“

Über die japanischen Dörfer schreibt sie:

„Das Bevölkerungswachstum war extrem niedrig (0,025 % im Zeitraum von 1721 bis 1846) und die Besitzverhältnisse in den Dörfern waren stabil… Wie in den Schweizer Dörfern waren auch hier die Regeln und Vorschriften zugeschnitten auf das spezifische Ökosystem, auf die besondere wirtschaftliche Rolle der diversen Waldprodukte in der Dorfökonomie sowie auf die notwendige Minimierung der Überwachungskosten für Arbeitsinputs, Ressourceneinheiten-outputs und für die Regeleinhaltung… Jedes Dorf entwarf auch sein eigenes Überwachungs- und Sanktionssystem. Da der Berg bis auf bestimmte Perioden geschlossen war, verstieß offenkundig jeder gegen die Vorschriften, der zu anderen Zeiten in gemeindeeigenen Territorien ertappt wurde. Die meisten Gemeinden stellten ,Detektive’ ein, die zu zweit täglich die Allmenden abritten, um Regelbrecher aufzuspüren…“

Es folgen noch lange Berichte über die Handhabung von Strafen, die bei Übertretung der gemeinschaftlich beschlossen Regeln wirksam wurden.

Man kann aus alledem nur schließen, daß Rifkin die These vom „nachhaltigen Füllhorn“ seiner angeblichen Revolution selber bezweifelt und stattdessen wie alle heimlichen oder bekennenden Malthusianer fasziniert ist von der Idee, daß das Leben erst unter der Bedingung eines ständigen Überlebenskampfes bei äußerster Ressourcenknappheit eine Würze bekommt. Woher sonst die Begeisterung für solche Gebirgsdorf-Modelle des 18. und 19. Jahrhunderts?

Will man diese Modelle tatsächlich auf das heutige Deutschland und darüber hinaus ausdehnen, dann muß man auch zur Bevölkerungsdichte aus der Zeit von Robert Malthus zurückkehren. Das wären in Deutschland höchstens 15 Millionen Menschen, und maximal eine Milliarde weltweit.

Und, in der Tat, man müßte, wie er tatsächlich vorschlägt, das Erziehungssystem für diese „Kulturrevolution“ gründlich umkrempeln. Zitat aus Die Dritte Industrielle Revolution:

„Folglich müssen Lehrer in aller Welt ihren Schülern von klein auf beibringen, daß sie ein enger Teil der Biosphärenprozesse sind und alle ihre Entscheidungen – was sie essen, was sie tragen, welches Auto sie fahren, welchen Strom sie benutzen – sich auf ihre Klimabilanz auswirken und diese wiederum auf alle anderen Menschen und Kreaturen.“ (Fischer Taschenbuch, S. 255)

Und dann, unter der Überschrift „ Das dezentralisierte und kollaborative Klassenzimmer“:

„Eine neue Generation von Erziehern macht sich daran, die schulischen Lernprozesse, die sich während der ersten beiden industriellen Revolutionen etabliert haben, zu dekonstruieren. Ziel des neuen Lernerlebnisses ist die Förderung eines erweiterten, von Biosphärenbewußtsein erfüllten ökologischen Ichs. Der vorherrschende hierarchische Unterrichtsansatz, dessen Ziel darin besteht, ein autonomes Wesen zu schaffen, das in Konkurrenz zu anderen lebt, beginnt einer dezentralen und kollaborativen Lernerfahrung zu weichen, die ein Gespür für das soziale Wesen unseres Wissens zu vermitteln vermag.“ (ebenda, S. 257)

Abschließend stellt sich die Frage: Was planen Angela Merkel nebst Barroso, Prodi, Juncker, Theyssen, Claassen und andere für Europa?

Durchsetzen können sich solche rückwärtsgewandten Modelle sicherlich nicht, weil sich schon heute ein Teil der Welt fragt, was mit Europa los ist. Anderswo setzt man gerade auf die Verwirklichung einer Industriegesellschaft, und in China ist man froh, daß die Erfahrungen der schrecklichen Kulturrevolution der Vergangenheit angehören. China hat unter Einbeziehung des Ausbaus der Kernenergie und der Fusionsforschung einen beispielhaften Weg zur Entwicklung der Weltgemeinschaft aufgezeigt und in Form des Konzeptes der Neuen Seidenstraße den Weg in die Zukunft gewiesen.

Aber es stellt sich die Frage, welchen Preis Europa dafür wird zahlen müssen, daß unsere Politiker auch nur versuchsweise dem Ratschlag von Scharlatanen folgen?

 

 

 




Vehicle-to-Grid (V2G)

Dieses Techno-Kürzel beschreibt keine Energiewandlung wie zum Beispiel “P2H” (Strom zu Wärme) oder “P2G” (Strom zu Gas), sondern meint ein Konzept zur Stromspeicherung. Eine Vielzahl mit dem Netz verbundener E-Fahrzeuge könnte überschüssigen Strom kurzfristig einspeichern und bei Bedarf als Schwarmstrom auch ans Netz zurückgeben. „Bidirektionales Laden“ lautet dafür der Fachbegriff.

Ein großer Vorteil wäre, dass dadurch der aufwändige Bau großer zentraler Stromspeicher reduziert werden könnte. Auch E-Mobile stehen zu über 90 Prozent der Zeit unbenutzt herum. Da könnte man doch deren Akkus nutzen?

Der visionäre Ansatz offenbart Schwächen durch seine Komplexität. Zunächst bedarf es einer Vielzahl an Fahrzeugen, die am System teilnehmen, um tatsächlich Wirkung im Netz zu erzielen. Die Speicher im Auto können nicht im vollen Umfang entladen werden, weil der Nutzer höchstwahrscheinlich auch fahren will. Und damit kommen wir zum kritischen Punkt der Vision, dem Nutzer des E-Mobils, der als Verbraucher auftritt. Also dem mithin unbekannten Wesen. Es legt ein Nutzerverhalten an den Tag, das uneinheitlich und unberechenbar ist. Zunächst wird sich niemand einen Stromer kaufen, um dessen Reichweite durch einen Vertrag mit dem Netzbetreiber einzuschränken und einen Teil der Fahrzeugbatterie als tote Masse durch die Gegend zu fahren. Für das Netzmanagement wird sich der E-Fahrer nicht zuständig fühlen, und das zu Recht.

Die Freiheit des Individualverkehrs besteht nun mal darin, nicht stets zu fahren, sondern stets fahren zu können. Dazu kommt, dass jetzt und wohl auch künftig ein großer Anteil der E-Mobile zu Firmenflotten und Car-Sharing-Verbünden gehören, so dass ihre Nutzung in der Regel nicht vorhersehbar ist und sie stets „vollgetankt“ zur Verfügung stehen müssen.

 

Vision und Preis

Man könnte die Batterie- (korrekt natürlich Akkumulatoren-) nutzung durch den Netzbetreiber finanziell anreizen, durch Vergütung für den gespeicherten Strom oder durch Rabatte beim Ladestrom. Dann wäre allerdings die sinnvollere Variante, sich einen möglichst großen Akku in den Keller oder die Garage zu stellen, was von einer täglichen Kalkulation der geplanten Fahrstrecke oder der Startzeit am Folgetag entbinden würde. Damit kommen wir zum Grundproblem – wer zahlt? Speicher generieren per se keine Wertschöpfung, sie sind verlustbehaftete Stromparkplätze und müssen irgendwie über den Preis abgerechnet werden. Dazu kämen Kosten für Ladesoftware und Leittechnik für die Steuerung hunderttausender Ladestationen in Abhängigkeit der Netzsituation. Schaut man sich die Kosten normaler Ladestationen an, ist der Aufwand beträchtlich und geht pro Stück schnell in die Tausende. Hinzu kommen Kosten für die Elektronik und Vernetzung für das bidirektionale Laden. Möglich ist die Abrechnung über die Netzgebühren, die mit dem weiteren Fortgang der „Wende“ ohnehin der am stärksten steigende Kostenfaktor sind.

Wie ist die technische Realisierbarkeit? Mit dem Projekt „e-SolCar“ gelang bereits 2014 an der Brandenburgisch-Technischen Universität in Cottbus der Nachweis, dass bidirektionales Laden und somit die Nutzung von E-Fahrzeugakkus zur Kurzzeitspeicherung möglich sind. Speziell die Steuerungstechnik für das Ein- und Ausspeichern wurden am Lehrstuhl von Professor Schwarz entwickelt und getestet.

Seitdem gibt es keine weiteren Schritte in Richtung einer breiten Anwendung. Die Voraussetzung einer existierenden großen Anzahl an E-Fahrzeugen ist einfach nicht gegeben. So fehlen natürlich auch die Steuerungstechnik für die Schwarmspeicher beim Netzbetreiber und entsprechende Tarife.

Die Frage, warum in Deutschland trotz der Subventionen so wenig E-Autos verkauft werden, bringt uns zu einer völlig schräg geführten Diskussion. Permanent prügeln Politiker und Journalisten auf die Autoindustrie ein und verlangen höhere Verkaufszahlen ihrer E-Modelle und Hybride. Entscheidend ist jedoch das Käufer- und Verbraucherverhalten und speziell im automobilen Bereich wird niemand eine Kaufentscheidung treffen, die zu einem Neuwagen führt, der teuer ist und schlechtere Gebrauchseigenschaften hat als das Altfahrzeug. Potenzielle Käufer führen die bekannten Gründe an, die vom Kauf eines Stromers abhalten:

  1. Preis, 2. Reichweite, 3. Verfügbarkeit der Ladestationen, 4. Noch unklare Batterielebensdauer und damit unklarer Wiederverkaufswert. Die Hersteller bauen, was der Kunde möchte. Für ausbleibende Kaufentscheidungen die Konzerne verantwortlich zu machen, zeugt vom nur partiell vorhandenen Wirtschaftsverständnis von Politikern und Journalisten.

 

Nachfrage und Angebot oder Quote

Manche Medien machen die bösen Autokonzerne verantwortlich dafür, dass durch ihre aggressive Werbung die Käufer die SUV´s bevorzugen würden. Zweifellos besteht unsere Bevölkerung, wie in anderen Ländern auch, aus einem nicht unerheblichen Anteil von Deppen. Eine Kaufentscheidung zugunsten eines Automobils, die zu den größten Haushaltsausgaben gehört und manche Haushalte an die finanzielle Schmerzgrenze bringt, wird in aller Regel aber gut abgewogen und bedacht. Der 3-Liter-Lupo wurde seinerzeit umfangreich beworben und medial sehr positiv begleitet, ohne dass es der VW-Bestseller wurde. Früher wurde der Kunde sogar König genannt, heute spricht man ihm eigenes Denken ab. Um das Kundenverhalten zu umgehen, sinniert man im Bundeswirtschaftsministerium über eine Quotenregelung für die Hersteller. Adäquat entschied seinerzeit auch die staatliche Plankommission der DDR, dass Weiterentwicklungen des „Trabant“ unterbleiben, da dieser für den Bevölkerungsbedarf ausreichend sei.

Der regelmäßige Verweis auf höhere Verkaufszahlen von E-Mobilen in Asien oder Norwegen ist pauschal und auf unsere Verhältnisse nicht übertragbar. Auch anderswo lebt die Elektromobilität von Subventionen und wenn diese wegfallen, bricht der Boom zusammen. Im März endete in Hongkong die staatliche Förderung, wonach der Absatz im April auf null zurückging – nach noch einigen hundert in den Vormonaten. Auch in Dänemark brach der Absatz nach Subventionskürzungen ein und deren gänzliche Streichung wurde vorerst ausgesetzt.

Gern wird Norwegen als Beispiel angeführt und hier macht die E-Mobilität auch Sinn, zumindest in den Städten. Zum Einen ist die Staatskasse prall genug gefüllt, um üppig zu fördern, zum anderen besteht der Energiemix zu 99 Prozent aus Wasserkraft. Hier werden also tatsächlich Emissionen vermieden. Was kaum erwähnt wird: Die E-Mobilität konzentriert sich auf Oslo und andere Städte, im dünn besiedelten und kalten Land zwischen Gletschern, Schären und Küste wird man noch sehr lange fossil fahren, denn das Reichweitenproblem haben auch die Norweger. Zudem kann man das Verkehrsaufkommen im 5,3–Millionen-Einwohner-Land mit wenig Großindustrie nicht mit Deutschland vergleichen.

Lernen kann man trotzdem, zum Beispiel, dass eine generös geförderte individuelle Mobilität die Straßen in Oslo verstopft und die Fahrgastzahlen im ÖPNV reduziert.

Was für norwegische Emissionen gut ist, erweist sich für die chinesischen als eher kontraproduktiv. Der dortige Energiemix beinhaltet 63 Prozent Kohlestrom und die

Elektromobilität wird gefördert, um lokale Emissionen zu senken. In Summe steigt der Strombedarf und wird überwiegend aus Kohlekraftwerken gedeckt.

 

Kohle im Tank

Wo kommt bei uns der Strom zum Fahren her? Bei Bilanzrechnungen zur Emission von Stromern wird üblicherweise der Mix im Netz zugrunde gelegt. Kann man machen, ist aber nicht korrekt.

Dazu ein Gedankenexperiment: Mario Mustermann biegt nach getaner Arbeit am späten Nachmittag auf den Stellplatz seines Eigenheims ein. Lässig und im tiefen Bewusstsein ökologischer Reinheit klappt er die Wagentür zu, schreitet zum Ladekabel und führt dieses in Richtung der Steckdose.

Halt! Genau jetzt stoppen wir den Gedankenfilm und machen uns ein Bild vom Zustand im Netz. Nehmen wir einen durchschnittlichen Strommix von 70 (konventionell) zu 30 (regenerativ) an und eine vorbildliche Frequenz von 50,000 Hertz. Gemäß Einspeisevorrang im EEG sind alle regenerativen Erzeuger, also hauptsächlich Wind, Sonne und Biomasse, mit der ganzen verfügbaren Kapazität am Netz.

Film weiter: Mustermann steckt den Stecker und startet den Ladevorgang. Damit ergibt sich im Netz eine Frequenzabweichung nach unten, die bei einem einzelnen Fahrzeug vermutlich nicht registrierbar ist. Machen in diesen Minuten aber hunderte oder tausende Mustermänner das gleiche wie Mario, geht die Frequenz merkbar für die Leittechnik der Kraftwerke nach unten. Einige tausendstel Hertz reichen aus, die (vertraglich vom Netzbetreiber gebundene) Primärregelleistung der konventionellen Kraftwerke aufzurufen. Automatisch erhöhen diese ihre Leistung innerhalb eines vorgegebenen Regelbandes und sorgen dafür, dass die Frequenz wieder 50 Hertz erreicht. Fazit: Der Ladestrom kann bilanziell nur konventionellen Ursprungs sein, da der regenerative Strom nicht hochgeregelt werden kann. Natürlich könnte zufällig in diesen Minuten der Wind auffrischen, wahrscheinlicher ist aber, dass am späten Nachmittag die Sonne untergeht und nachts nicht scheinen wird. Zusammen mit der Ökobilanz für die Herstellung der Batterien ist ersichtlich, dass bezogen auf die Gesamtemissionen die E-Fahrzeuge heute kein Fortschritt sind.

Der Traum vom emissionsfreien Elektroverkehr ließe sich nur erfüllen, wenn 100-Prozent-Erneuerbar – wie in Norwegen – schon Realität wären. Solange aber die Sektorkopplung im jetzigen Energiemix vorangetrieben wird, stabilisiert dies die Grund- und Regellast der konventionellen Erzeuger – was ich wiederum gut finde. Ein gut belastetes Netz regelt sich besser und ist damit sicherer.

Was bei der „Energiewende“ schon vor Unausgewogenheit, Wunschdenken und Verdrängung der Realitäten nur so strotzt, erfährt bei der „Verkehrswende“ noch eine Steigerung. Sachliche Diskussionen und pragmatische Lösungsvorschläge sind Mangelware. Die übliche Schwarz-Weiß-Malerei meinungsführender NGO`s wird politisch und medial übernommen. Der Hype ist allerdings nicht neu und kehrt alle paar Jahre wieder. Schon der Halbgott der Journalisten und ehemalige Chef der Hamburger Journalistenschule, Wolf Schneider, schrieb während seiner Zeit bei der „Süddeutschen“ unter der Überschrift „Tod dem Verbrennungsmotor“: „Die Zukunft kann nur dem Elektroauto gehören! . . . Der Verbrennungsmotor ist vermeidbar. Nach der Vernunft wie nach unseren technischen Möglichkeiten gebührt ihm der Tod.“

Das war am 5. Februar 1966.

 

Vision statt Plan

Nüchtern betrachtet wird auch der Verkehr der Zukunft aus einem Mix an Antriebssystemen bestehen. Natürlich kann man Diesel-Pkw zunächst durch Benziner ersetzen, allerdings stehen diese als nächste am Pranger auf Grund ihres höheren CO2-Ausstoßes. Dass Stickoxide giftig sind, CO2 dagegen nicht, spielt dabei keine Rolle. Sicher wird im Kurzstreckenverkehr und in Ballungsgebieten mehr elektrisch gefahren werden. Für den Fernverkehr ist nur die Elektrotraktion auf der Schiene erste Wahl. Was auf Gummi rollt, wird Brennstoff brauchen, der in Teilen natürlich synthetischen oder biogenen Ursprungs sein kann. Beim Schwerlastverkehr führt am Diesel vorerst kein Weg vorbei, desgleichen auf der Schiene im nichtelektrifizierten Bereich.

Will man Emissionen senken, sind Gasantriebe die erste Wahl. Sowohl LPG- (Flüssiggas) als auch CNG- (Erdgas)-Motoren sind technisch ausgereift und bezahlbar. Die Verdichtung des entsprechenden Tankstellennetzes würde Peanuts kosten, verglichen mit einem flächendeckenden Ausbau stromfressender E-Ladestationen, der mit einem notwendigen Netzausbau im Niederspannungsbereich einhergeht. Merkwürdigerweise spielen die Gasantriebe bei allen Visionen zur Verkehrswende keine Rolle.

Anstelle eine realisierbare Strategie zu entwickeln, hantiert die verantwortliche Politik mit Subventionen und Verboten und denkt auf dem Weg zur Planwirtschaft über vorgegebene Quoten nach. Jeder profilneurotische, meist grün lackierte Hinterbänkler im Politikbetrieb und der Großteil der Journalisten vom Fachgebiet Weltrettung hält sich für weiser als Wissenschaftler und die Ingenieure in den Entwicklungsabteilungen der Hersteller. Die verantwortlichen Manager winden sich im Appeasement und im Wissen, dass ihr möglicher Fall ein sehr weicher sein wird.

Sicher ist, dass P2V (Power to Vehicle) wachsen wird. Sinnvolle Anwendungen gibt es zuhauf: Paket- und Pflegedienste, Taxis, Car-Sharing-Fahrzeuge, lokaler Kurier- und Warenverkehr. Dagegen ist V2G nicht mal am Horizont zu sehen.

 




Windenergie, Rein wie frisch gefallener Schnee….

Die Perversion des Wortes „sauber“ durch Klima-Alarmisten

Carlin Economics & Science

Alan Carlin  20. Juli 2017

Klima-Alarmisten treiben unendliche Anstrengungen, um die Akzeptanz „des kommenden Tags des Jüngsten Gerichts“ zu erwerben, dass die Welt die Verwendung von fossilen Brennstoffen stark reduzieren muss, um eine katastrophale anthropogene globale Erwärmung zu vermeiden.

Sie haben die Oberflächentemperaturdaten frisiertsinnlose Klimamodelle verwendet und argumentieren, dass die menschlichen Emissionen von Kohlendioxid den Planeten trotz des starken Beweises des Gegenteils erwärmen werden und so weiter, aber ihre größte Perversion ist die Verbiegung der Sprache.

Sie haben CO2 als Schadstoff gebrandmarkt und behauptet, dass es notwendig sei, die Welt „sauber“ zu machen. Alle Alarmisten von Gore bis McKibben bis Obama sind darin schuldig; seltsamerweise wird diese Terminologie so einheitlich verwendet, dass man vermuten kann, sie sind alle trainiert worden, um es bei jeder Gelegenheit von sich zu geben.

Leider wurden ihre Bemühungen sogar vom Obersten Gerichtshof unterstützt, der anordnete, dass CO2 von der US Umweltbehörde unter dem Clean Air Act reglementiert wird, obwohl es in der Historie der Gesetzgebung keinen wirklichen Präzedenzfall dafür gibt.

 

Die größte Propaganda-Waffe der Alarmisten

Da niemand etwas gegen Sauberes hat, ist dies bei weitem die größte Propagandawaffe der Alarmisten. Sie haben das eifrig beschlagnahmt und nutzen es so oft wie möglich, trotz der Unwahrheit in diesem Fall. Oft kombinieren sie das mit dem zusätzlichen Adjektiv „erneuerbar“ und beziehen sich auf Wind und Sonnenenergie als „saubere erneuerbare“ Energie.

CO2-Emissionen aus der Nutzung fossiler Brennstoffe zur Energiegewinnung andererseits werden als „schmutzig“ bezeichnet, obwohl diese unsichtbar und in den geringen Mengen absolut ungefährlich sind, so dass diese von niemandem als sauber oder schmutzig empfunden werden können.

Aber wie können sie mit einer so groben Perversion der Realität und der Sprache durchkommen? Pflanzen brauchen ausreichende CO2-Werte zum Leben, und es ist bekannt, dass sie bei höheren atmosphärischen CO2 Anteilen besser wachsen. Wenn Pflanzen kein CO2 mehr bekommen, so sterben sie und die Erde wird eine leblose Landschaft mit endlosen Haufen von verwehendem Sand und Schmutz und verhungerten Menschen. In der letzten Eiszeit waren die Pflanzen des geringen CO2-Ausstoßes wegen dem Verhungern nahe. CO2 ist für Pflanzen essentiell und damit indirekt für alle Lebewesen.

 

Warum Wind und Solar eigentlich sehr schmutzig sind

Die Alarmisten argumentieren, dass das Leben auf der Erde eingehen sollte und die Pflanzen müssen sterben, um die lebensnotwendigen atmosphärische CO2-Werte zu reduzieren.

Das von den Panikmacher bevorzugte Mittel zur Reduzierung von CO2-Emissionen hat viele schmutzige Nebenwirkungen, wie die Tötung vieler Vogel- und Fledermausarten. Der giftige Abbau von Seltenen Erden für die scheußlichen Wind- und Solaranlagen verteilen sich auf riesige Gebiete. Der Rückbau von aufgegebenen Windmühlen und Solaranlagen nach Ablauf der Subventionen ist schwierig und zähe. [Wenn sich einer findet, der das angreift; d.Üb.]

Damit ist eine CO2-Reduktion „nicht sauber“. Das ist anti-umweltfreundlich, gegen arme Leute gerichtet und ultimativ „schmutzig“. Es gibt keine rationale Grundlage, dass diese anti-ökologischen Aktionen „sauber“ sind. Wie Matt Ridley vor kurzem beschrieben hat :

Was den Ressourcenverbrauch und die Umweltauswirkungen betrifft, so sind die direkten Effekte von Windenergieanlagen – die massenhafte Tötung von Vögeln und Fledermäusen, die in unberührter Natur versenkten Betonfundamente – schlecht genug. Aber aus den Augen und aus dem Sinn ist die „nachhaltige“ Umweltbelastung z.B. in der Inneren Mongolei durch den Abbau von Selten Erd für die Magneten in den Windgeneratoren. Dort werden giftige und radioaktive Abfälle produziert, weshalb der Ausdruck „saubere Energie“ ein kranker Witz ist und die Politiker sollten sich jedes Mal schämen, wenn das ihre Lippen passiert.

Es geht noch schlimmer weiter. Windkraftanlagen¸ abgesehen von den Glasfaser-Flügeln, bestehen meist aus Stahl mit Betonfundamenten und Türmen. Sie benötigen etwa 200-mal so viel Material pro Energieeinheit (der Nennleistung!) wie eine moderne kombinierte Gas-und Dampf-Turbine. Stahl wird mit Kohle hergestellt, nicht nur um die Hitze zum Schmelzen von Erz zu liefern, sondern um den Kohlenstoff in der Legierung zu liefern. [Gips ist ein Abfallprodukt der Kohleverbrennung und wird in großen Mengen ausgefiltert – und auch von der Bauindustrie benötigt]. Auch Zement wird oft mit Kohle hergestellt. Die Maschinerie der „sauberen“ erneuerbaren Energien basiert auf der fossilen Brennstoffwirtschaft und damit weitgehend auf der Kohlewirtschaft.

Hier beschreibt der Autor eine – inzwischen rel. kleine Windkraftanlage, weitere Info siehe Fundstücke unten, der Übersetzer.

Eine Zwei-Megawatt-Windkraftanlage wiegt etwa 250 Tonnen, darunter Turm, Gondel, Rotor und Flügel. Weltweit wird es etwa eine halbe Tonne Kohle benötigt, um eine Tonne Stahl zu erzeugen. weitere 25 Tonnen Kohle für die Herstellung des Betons und damit brauchen Sie 150 Tonnen Kohle pro Windkraftanlage. Wenn wir jetzt jährlich 350.000 Windenergieanlagen bauen wollen (oder eine kleinere Anzahl größerer), nur um mit dem steigendem Energiebedarf Schritt zu halten, wird dies jährlich 50 Millionen Tonnen Kohle benötigen. Das ist etwa die Hälfte der EU-Steinkohle-Bergbau-Produktion.

Es ist an der Zeit, dass die Klimaskeptiker ihre rechtmäßigen Eigentumsrechte an dem Wort „sauber“ behaupten, wenn sie das Klima diskutieren, anstatt es Klima Alarmisten zu überlassen

Carlin Economics & Science

 

Gefunden auf stopthesethings vom 25.08.2017

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2017/08/25/dirty-deeds-how-the-green-energy-cult-stole-the-english-language/

 

Fundstücke weiterer Informationen im Web:

Betontürme: Ein Betonturm aus Stahlbeton hat bei einer Größe von 60 – 120 m ein Eigengewicht von 300 – 1200 Tonnen. Diese Kräfte werden durch Pfahlgründungen bis zu 25 m Tiefe aufgenommen.

Windenergie im Binnenland

Ein Herr Kopp, Dipl.Ing. (FH) Energietechnik, Fan von Windkraft, hat viele Informationen darüber zusammengestellt „Die Wahrheit über Windkraft …“, Na gut, da wissen unsere Leser schon mehr. Aber egal wie man dazu steht, sehr viel Information.

… Nur das die lokalen Grundeigentümer jetzt durch den Windpark so hohe Nutzungsentgelte erhalten, die sie vorher NIEMALS durch blosse Landwirtschaft hätten erwirtschaften können!

Die größte Windanlage der Welt Enercon mit 6MW Nennleistung, Kosten 11 Mio €

Moderne Windkraftanlagen sind Hightech-Industrieanlagen mit gewaltigen Dimensionen. Beschreibung der Eigenschaften durch Windkraftgegner.

Hier findet man die Windkarten in Deutschland

 




Rundbrief der GWPF vom 28. August 2017

Warum die Überschwemmungen in Houston kein Zeichen von Klimawandel sind

Roy W. Spencer

Es gab schon viele Überschwemmungskatastrophen in der Region um Houston, auch schon Mitte des 19. Jahrhunderts, als die Gegend noch sehr dünn besiedelt war. Im Dezember 1935 war es zu einer massiven Überflutung im Bereich des Stadtzentrums gekommen, als der Pegel bei Buffalo Bayou in Houston das Rekordniveau von 54,4 Fuß [ca. 16,5 m] erreichte. Zum Vergleich: um 6.30 Uhr [Ortszeit] am Montag Morgen lag der Pegelstand an der gleichen Stelle bei 38 Fuß [ca. 11,5 m], also immer noch 16 Fuß [fast 5 m] unter dem Niveau von 1935. Ich bin sicher, dass der Pegel noch steigt. Es gibt keinen Aspekt in der Theorie der globalen Erwärmung, dem zufolge sich die Regen bringenden Wettersysteme langsamer verlagern, wie es derzeit in Texas der Fall ist. Das ist einfach eine Zufallsverteilung. Roy W Spencer 28 August 2017

————————————————

Hurrikan Harvey im Zusammenhang

Judith Curry

Wer auch immer Hurrikan Harvey mit globaler Erwärmung in Zusammenhang bringt, hat keine Grundlage.

Der Zeitraum von 12 Jahren, ohne dass ein starker Hurrikan auf das US-Festland übergetreten ist, ist beendet, mit katastrophalen Auswirkungen in Texas. Vorhersagen von Hurrikan Harvey illustrieren Erkenntnisse erweiterter und langfristiger Hurrikan-Vorhersagen.

Dieser Beitrag analysiert die Vorhersagen bzgl. Hurrikan Harvey, ausgegeben von meinem Unternehmen Climate Forecast Applications Network (CFAN) und auch diejenigen des National Hurricane Center. (…)

Harvey im Zusammenhang

Ich bin sicher, dass Sie nicht überrascht sind zu hören, dass Mancher Harvey mit globaler Erwärmung in Zusammenhang bringt. Wie ungewöhnlich war Harvey? Nun, mit Sicherheit wird er in die Annalen eingehen als der Hurrikan, welcher die rekordlange Zeit ohne ein solches Ereignis beendet hat.

Phil Klotzbach hat eine Liste der Hurrikane Kategorie 4 und 5 zusammengestellt, die auf das US-Festland übergetreten waren:


Diese Liste erinnert uns, wie schlimm es schon einmal war. Abgesehen der furchtbaren Jahre 2004 und 2005 haben wir während der letzten Jahrzehnte ziemliches Glück gehabt.

Die Verbindung von Harvey mit globaler Erwärmung, wer auch immer diesen herzustellen versucht, entbehrt jeder Grundlage.

Harvey wird in die Annalen eingehen für seine fast unglaublich hohen Regenmengen. Die endgültigen Mengen sind noch nicht gefallen, und unglücklicherweise wird es wohl noch einige Tage in Texas regnen, wobei sich die bisher gefallenen Mengen potentiell verdoppeln können. Während riesige Mengen Wasserdampf in Harvey kondensierten, gehen die extrem hohen Regenmengen darauf zurück, dass sich Harvey kaum noch verlagert hat. Dabei liegt er immer noch nahe genug an der Golfküste, um weitere Feuchtigkeit aufzunehmen.

Full post
————————————————

Party in Paris anstatt Vorsorge in Houston

Ron Clutz

Während gewählte Bürokraten über „Null-Kohlenstoff-Fußabdrücke“ schwafeln, wird nichts getan, um sich auf Wetterereignisse vorzubereiten, die es schon immer gegeben hat und zu denen es immer wieder kommen wird. Internationale Abkommen und Konferenzen wie jüngst in Paris leisten nichts, aber auch gar nichts für verwundbare Orte wie Houston.

Man betrachte beispielsweise diesen Beitrag mit dem Titel [übersetzt] „Ein Nachrichtenportal in Texas hat eine Katastrophe vorhergesagt. Jetzt ist sie eingetreten“ (hier). Auszüge daraus:

Die TEXAS TRIBUNE und PROPUBLIKA haben im vorigen Jahr eine mehrteilige Untersuchung veröffentlicht, in der sie unter die Lupe genommen hatten, was passieren würde, falls Houston von einem starken Hurrikan betroffen werden würde.

[Hervorhebung vom Übersetzer]

Die Reporter taten sich mit Wissenschaftlern von verschiedenen Universitäten in Texas zusammen, um Simulationen verschiedener Sturm-Szenarien* durchzuspielen für die viertgrößte Stadt mit seiner rapide wachsenden Bevölkerung, gewaltigen Öl- und Erdgaslagern sowie einer Haupteinrichtung der NASA.

[*Das amerikanische Wort „storm“ lässt sich nicht einfach mit Sturm übersetzen, denn damit sind alle irgendwie extremen Wettervorgänge gemeint. Auch Dauerregen oder im Winter Glatteisregen oder Schnee wird als „storm“ bezeichnet, auch wenn dabei keinerlei Wind aufgetreten war. Der Einfachheit halber bleibe ich aber hier bei der Übersetzung mit „Sturm“. Anm. d. Übers.]

Ergebnis: Die Stadt und ihr Umland sind schrecklich unvorbereitet auf einen starken Hurrikan. Die Infrastruktur für Evakuierungen und Flutkontrolle ist unzureichend. Ein schwerer Sturm würde katastrophale Schäden verursachen und zu einem „ökonomischen und ökologischen Desaster“ führen. Die Serie wurde mit Preisen ausgezeichnet, hat aber keinerlei politische Änderungen oder große neue Investitionen in die Infrastruktur nach sich gezogen.

Houston ist die viertgrößte Stadt des Landes. Der größte Raffinerie- und petrochemische Komplex befindet sich dort, wo Milliarden Gallonen Öl und gefährliche Chemikalien gelagert werden. Und sie ist potentielles Opfer des nächsten großen Hurrikans. Lesen Sie, warum Texas nicht darauf vorbereitet ist. – 3. März 2016

Ein Haus ist in Flammen aufgegangen, nachdem Wasser und Wellen Häuser auf der Galveston-Insel überschwemmt haben. So geschehen durch den Hurrikan Ike am 12. September 2008.

Jetzt starren die gleichen Journalisten nervös auf die Annäherung von Harvey an die texanische Küste. Der Übertritt auf das Festland wird zwischen den Städten Corpus Christy und Houston erwartet [was eingetroffen ist, Anm. d. Übers.], und das Worst-Case-Szenario kann immer noch eintreten.

„Unglücklicherweise könnte es einer Katastrophe bedürfen, bevor Texas aufwacht und erkennt, dass man ein wenig echtes Geld aufbringen muss, um einen der größten Häfen des Landes zu schützen, wo wir das Meiste unseres Öls und unserer Chemikalien lagern“, sagt einer der Autoren, und weiter: „Falls Houston irgendwann von einem Sturm der Stärke von Harvey betroffen wird, könnten die Umweltschäden über diejenigen bei der Havarie der Ölplattform ,Deepwater Horizon‘ hinausgehen“.

Nachdem die Serie erschienen war, traten die Reporter an die gesamte Kongress-Delegation des Staates heran sowie an beide seine US-Senatoren, von denen einer, Ted Cruz, sich als Präsidentschaftskandidat in Stellung brachte. „Keiner dieser Herrschaften kann also von sich behaupten, dass niemand dieses Unheil voraussehen konnte, welches ein großer Sturm für ihre jeweiligen Wahlbezirke heraufbeschwören könnte“, schrieben die Autoren. „Ike sollte eigentlich dieser Weckruf sein, in diesem Zusammenhang endlich tätig zu werden. Alles, was ich mir erhoffe ist, dass hier und jetzt ein neuer Weckruf erschallt und Texas mehr Maßnahmen fordern wird vor dem ,Big One’“.

Full post
————————————————

Warum hat Harvey keine größeren Auswirkungen auf die Energiepreise? Stichwort: Schiefer!

Liam Denning, Bloomberg

Die schockierenden Bilder, wie sich die Hauptstraßen von Houston in Kanäle verwandelt haben im Zuge von Hurrikan Harvey (hier) erinnern an ähnliche Bilder der Fluten der Hurrikane Katrina und Rita vor 12 Jahren an der Golfküste.

Wie alles andere auch ist die Energieindustrie, die sich in diesem Gebiet so konzentriert hat, hart getroffen worden, sowohl damals als auch jetzt. Und dennoch, während das volle Ausmaß der Schäden erst nach diesen Wettervorgängen hervortreten wird, kann es sein, dass die Hurrikan-Saisons 2005 und 2017 zu Marksteinen einer Transformation im US-Energiesektor werden.

Selbst wenn sie es mit noch existenzielleren Problemen zu tun haben, sind Energie-Händler auch mit der Tatsache konfrontiert, dass die Märkte im Großen und Ganzen weitgehend ungestört scheinen.

Die Preise für Benzin und andere Raffinerie-Produkte sind nach oben geschnellt – ein logisches Ereignis angesichts des Umstandes, dass etwa ein Sechstel der US-Raffinierungs-Kapazität zum Stillstand gekommen ist. Und dennoch, die Preise für Öl und Erdgas blieben entweder gleich oder waren bis Montag Morgen sogar gesunken.

Dies ist ein markanter Gegensatz zur Lage vor 12 Jahren. Erdgas illustriert den Punkt. Als Katrina und Rita die Golfregion heimsuchten, sind die Erdgaspreise sprunghaft auf zweistellige Zahlen gestiegen. Heute dagegen liegt der Preis bei weniger als 3 Dollar pro Million BTU.

Noch erstaunlicher allerdings sind die völlig unterschiedlichen Erwartungen hinsichtlich der Auswirkungen, wenn man die Marktlage damals und heute vergleicht. Im Jahre 2005 geschah Folgendes:

Nach den Hurrikanen des Jahres 2005 wurden in den Himmel schießende Preise für Erdgas erwartet, nicht nur unmittelbar nach dem Ereignis, sondern auf Jahre hinaus.


Und hier folgt, wie es sich in diesem Monat entwickelt hat. Man beachte den Unterschied:

Die Auswirkung von Hurrikan Harvey hat sich in den Märkten bzgl. der Zukunft von Benzin kaum bemerkbar gemacht, vor allem im weiteren Verlauf der Kurve:

Indifferent

Der Schlüsselfaktor ist der Schiefer-Boom. In der Anfangsphase bekam er Rückenwind durch stark steigende Erdgaspreise, sowohl infolge des Handels-Superzyklus im Jahrzehnt vor 2014 und Preisspitzen in Verbindung mit Katastrophen wie im Sommer und Herbst 2005. Man erkennt dies in den dramatischen Verschiebungen der Ursprünge der heimischen Gasversorgung.

Zurück auf das Land

Der Schiefer-Boom beschleunigte sich in Texas und Louisiana nach dem Jahr 2005, wobei Appalachia nach dem Jahr 2009 den Stab übernahm. Die Offshore-Erzeugung ist inzwischen eingebrochen.

Die Verschiebung weg von den durch Hurrikane bedrohten Gewässern am Golf von Mexiko bedeutet, dass selbst ein katastrophales Ereignis wie Harvey derzeit kaum Auswirkungen auf die Preisentwicklung hat. Tatsächlich hat sogar die Onshore-Erzeugung in Texas und Louisiana während der letzten Jahre an Bedeutung verloren als Anteil an der heimischen Erdgas-Erzeugung in den USA, nachdem die erste Welle des Schiefer-Booms abgeebbt ist und das Wachstum sich anderswohin verlagert hat, besonders nach Appalachia.

Falls überhaupt belastet Harvey die Erdgasversorgung vor Ort, welche an Bedeutung im vorigen Jahrzehnt nichts verloren hat:

Nachfrage

Während der Anteil von Texas und Louisiana zusammen mit den Offshore-Aktivitäten im Golf von Mexiko an der US-Erdgaserzeugung abgenommen hat, ist der Anteil der Nachfrage relativ konstant geblieben:

Full story
————————————————

Harveys weit reichende Zerstörung testen US-Schiefer

The Wall Street Journal

Dieser Sturm ist der Stärkste, welcher den Bereich nach Beginn der Schiefer-Bohrungen vor einem Jahrzehnt heimgesucht hat, und es könnte dauern, bis sie sich wieder erholt.

HOUSTON – Der Tropensturm Harvey, der stärkste Sturm in Texas seit Langem, hat einen bedeutenden Anteil der Schiefer-Erzeugung des Staates zum Erliegen gebracht, was die Versorgung der USA um 15% zurückgehen ließ.

Jetzt, angesichts des ersten starken Sturmes, welcher ein Test für US-Schiefer ist, lautet die große Frage, wie schnell der Sektor ein Comeback hinlegen kann.

Vor Übertritt von Harvey auf das Festland haben viele große Schiefergas-Erzeuger in den Schieferformationen bei Corpus Christi in Texas alle ihre Öl- und Gasbohrlöcher geschlossen. Erste Schätzungen der Verluste wegen der zum Erliegen gekommenen Produktion belaufen sich auf 400.000 bis 500.000 Barrel pro Tag.

Nachdem die verbreiteten Schäden klarer hervorgetreten waren, sagen viele Analysten, dass es fast sicher ist, dass ein großer Teil, wenn nicht die gesamte Ausbeutung der 1,4 Millionen Barrel pro Tag in der Region zum Erliegen gekommen ist. Schiefer-Produzenten stützen sich auch auf ein riesiges Netzwerk von Energie-Infrastruktur im Wert von Multimilliarden Dollar – von Häfen über Eisenbahnlinien bis zu Pipelines – welches sich während der letzten Jahre entlang der texanischen Küste entwickelt hat. Viele Teile dieses Netzwerkes scheinen ebenfalls ertränkt worden zu sein.

Der Bedarf jener Infrastruktur könnte die Fähigkeit des Schiefers, sich zu erholen, behindern. In der Vergangenheit haben Hurrikane ein Loch in die Energieindustrie von Texas geschlagen, indem sie Offshore-Plattformen im Golf von Mexiko versenkten; aber in vielen Fällen konnten viele dieser großen Installationen schon bald ihren Betrieb wieder aufnehmen, nachdem der Sturm erst einmal abgezogen war.

„Die Auswirkung auf Schiefer könnte sich hinziehen angesichts des Ausmaßes und der Ausdehnung der Überschwemmungen, welche der Schiefer-Logistik zusetzen“, sagte Benny Wong, ein Analyst bei Morgan Stanley.

Der durch Fracking induzierte Boom in Texas hat die Rolle des Staates in der US-Ökonomie gestärkt, was bedeutet, dass falls die Ölfelder und die umgebende Infrastruktur längere Zeit ausfallen, dies außerordentliche ökonomische Auswirkungen auf den Staat haben kann, sagt Joe Brusuelas, Chefökonom einer Beraterfirma.

Das Schieferfeld Eagle Ford in Texas erzeugt 1,4 Millionen Barrel Öl pro Tag, das ist der zweitgrößte Output des Staates nach dem Permian Basin in West-Texas. Seit Beginn der Schiefer-Bohrungen vor einem Jahrzehnt gab es keinen Sturm dieser Größenordnung.

Unternehmen waren am Montag bereits damit beschäftigt, die Schäden an ihren Einrichtungen im Eagle Ford-Feld zu erfassen, welche direkt von Harvey betroffen worden waren. Aber die Ausdehnung des Sturms, der am Samstag vom Hurrikan-Status herabgestuft worden war, sowie der weiter fallende Regen in einigen Gebieten haben diese Bemühungen behindert.

Full post

Übersetzt von Chris Frey EIKE




Stern und FAZ schreiben Fakes über den Hurrican Harvey

Hier zunächst die erwähnten Fake-Artikel von FAZ und Stern (insbesondere der Artikel des Stern kann nur als „unterirdisch“ bezeichnet werden), dann der sachliche Beitrag von Welt N24 sowie schließlich das Interview mit S. Rahmstorf im Heute Journal vom 30.8.2017 (hier). Die Auflagen von Stern, FAZ aber auch vom SPIEGEL befinden sich bekanntlich im freien Fall. Dies sollte den betreffenden Redaktionen eigentlich zu denken geben und ihre Bemühungen dahin lenken, wieder zu berichten „was ist“. Offensichtlich beurteilt man aber die Remedur gegen wegbrechende Leserzahlen etwas anders. Das Motto scheint zu sein „folge dem Mainstream“, „vermeide jede Recherche“ und „mache den Lesern Angst“.

Bild 1: So scheint man es heute bei vielen Zeitungen zur Rettung der Auflagenstärke zu versuchen. Wie sich insbesondere auch die zwangsalimentierten ARD und ZDF in Fake-News überbieten, ist in EIKE bereits wiederholt thematisiert worden, stellvertretend hier, hier, hier, hier, hier, hier, hier, usw. usw. Um mehr Fake News zu erhalten, diesen Begriff ins EIKE-Suchfenster eingeben.

Ob Fake News helfen? Wir erlauben uns nun, nachfolgend die korrekte Berichterstattung über Harvey und vor allem den klimatischen Stellenwert dieser Sturmkatastrophe nachzuholen.

Als erstes ist unübersehbar, dass wir zwar Sinnesorgane für das „Wetter“ aber nicht für „Klima“ haben. Gemäß WMO (World Meteorological Organization)  ist Klima das lokale Mittel von Wetterwerten über mindestens 30 Jahre, also die jeweiligen Mittelwerte von Temperaturen, Niederschlägen, Windgeschwindigkeiten usw.  Klima ist ein statistisches Konstrukt. Es gibt kein Globalklima, nur Klimazonen von tropisch bis polar. Die unterschiedlichen Klimata jeder Klimazone der Erde haben sich seit jeher stets geändert. Konstantes Klima ist naturgesetzlich unmöglich. „Klimaschutz“ ist daher ein fragwürdiger Begriff – um es vorsichtig auszudrücken. Unseren Lesern und natürlich auch den Kollegen M. Latif und S. Rahmstorf ist dies alles bestens bekannt, nicht aber offensichtlich den Redakteuren in Stern und FAZ.

Um etwas über das Klima aussagen zu können, ist also Statistik unverzichtbar. Der Übergang vom Wetter zum Klima ist quasi der Übergang von Sinnesorganen zum menschlichen Gehirn. Solch ein Übergang ist bei vielen Zeitgenossen ein schwieriges und schmerzhaftes Unterfangen und bietet Alarmisten ihr Spielfeld zur Verängstigung von Laien. Schauen wir uns jetzt die einzig relevanten Quellen an, nämlich die Messungen und die daraus abgeleiteten Statistiken – hier speziell die Statistiken über Extremstürme!  Eine frühe Grafik der Hurrican-Forscher Goldenberg und Landsea zeigt die Hurrican-Aktivität des Atlantiks im Zeitraum von 1944 bis 2000.

Bild 1: Atlantische Hurricans in den Jahren 1944 bis 2000, Bild aus S. Goldenberg and C. W. Landsea: The recent increase in Atlantic hurricane activity: causes and implications, Science, 293, 474-478 (2001).

Es ist keine längerfristige Zu- oder Abnahme zu erkennen. Aktueller wird es dann für die Jahre 1950 bis heute, zuerst schauen wir dazu nach „Down Under“

 

Bild 2: Zyklone um Australien zwischen 1969 und 2016, Datenquelle: die offizielle australische Wetterbehörde (hier). Die beiden Regressionsgeraden sind vom Autor aus den Daten erstellt und eingetragen.

Also auch aus Australien sind keine Warnungen zu vermelden. Nun geht es in die Hordhemisphäre, genauer in die USA:

 

Bild 3: US Tornados der stärksten Kategorien zwischen 1950 bis 2016. Bildquelle ustornados.com, die Regressionsgerade ist vom Autor aus den Daten erstellt und eingefügt. Eine zugehörige, frühere Fachpublikation, die die Jahre von 1970 bis 2010 umfasst, ist J. Weinkle et al.: Historical global tropical cyclone landfalls, Journal of Climate, Amarican Meteorological Society, S. 4729-4735 (2012).

Aber auch Deutschland hat Extremstürme, für deren Erfassung der Deutsche Wetterdienst (DWD) verantwortlich zeichnet:

Bild 4: Deutsche Tornados zwischen 2000 und 2014. Bildquelle (hier). Regressionsgerade vom Autor aus den Daten erstellt und eingetragen.

Sogar das IPCC, sicher unverdächtig entwarnende Klima-Aussagen von sich zu geben, schreibt im Jahre 2013 über tropische und außertropische Zyklone

TropischeZyklone [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 216]: “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”

Außer-tropischeZyklone [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 220]: “In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”

Kurz: Es gibt bis heute keine Hinweise, dass Extremstürme die letzen Jahrzehnte zugenommen hätten – weder lokal noch global. Selbstverständlich sind immer irgend welche Ecken in der Welt aufzufinden, in denen irgend eine minore Kategorie von Stürmen diesem Trend widerspricht. Dies sind aber Einzelphänomene, die gemäß dem reinen Zufall zu erwarten sind. Zu Überflutungen wird EIKE in Kürze berichten. Auch zu diesem Thema gibt es nichts Ungewöhnliches. Und natürlich sind die Extremregenfälle in Houston sehr ungewöhnlich. Wie drücken es so schön die Meteorologen aus „Das Gewöhnliche am Wetter ist seine Ungewöhnlichkeit„.

Zu den beiden Herren M. Latif und S. Rahmstorf nur kurz Folgendes: Insbesondere, wenn sich M. Latif äußert, kommt bei vielen Zeitgenossen bereits Humor auf. Sein sachlicher Katastrophenquatsch ist einfach zu lustig. Man erinnert sich an seine Prophezeiung aus dem Jahre 2000, es würde des Klimawandels wegen in Deutschland keine Winter mit Schnee mehr geben (hier). Das hat man davon, wenn man Modelle propagiert, die es ohne künstliche Hilfen noch nicht einmal vermögen die Klimavergangenheit wiederzugeben. Nun liegt M. Latif im Prinzip zwar mit „Die Folgen des Klimawandels sind von einem bestimmten Punkt an nicht mehr beherrschbar“ nicht völlig falsch, aber er hat erwartungsgemäß vergessen die oben zitierten und ihm bestens bekannten Statistiken zu erwähnen. Der bestimmte Punkt von Nichtbeherrschbarkeit wird übrigens immer öfter erreicht. Und daran ist tatsächlich der Mensch schuld, nur nicht so wie es uns M. Latif und S. Ramstorf weismachen wollen. Einer der Gründe: Verantwortungsloses Bauen in Überschwemmungsgebieten – so wie aktuell geschehen in Houston (Texas).

Man erzählt von alarmistisch interessierter Seite inzwischen zwar nicht mehr grob Falsches, sieht aber sorgfältig darauf, dass der gewünschte sachliche Unsinn „Der Mensch ist durch seine CO2 – Emissionen schuld“ unüberhörbar ist und sicher ankommt. Der Redakteur des FAZ-Interviews, Herr S. Eder vom Ressort Gesellschaft kann einem dagegen fast leid tun. Was soll ein Redakteur ohne den geringsten fachlichen Bezug zum Thema denn auch anderes schreiben. Der Teufelskreis ist aber unübersehbar: Unkorrekte Berichterstattung wegen fehlender Recherche sowie fehlenden Fachredakteuren führen zu sinkenden Auflagen und weniger Einnahmen, dies wieder zu noch weniger Recherchen (denn die sind teuer) …..

Oberster Klimawarner S. Rahmstorf geht im Interview nach bekannter Masche vor. Erzählen von sachlichen Zusammenhängen, die zwar korrekt sind, aber meist mit dem Thema nur am Rande zu tun haben, den Laien nicht interessieren und von diesem auch meist nicht verstanden werden. Fachliche Kompetenz soll beim staunenden Zuschauer für den Professor aus Potsdam erzeugt werden. Und wenn es dann ans Eingemachte geht (ist der Klimawandel anthropogen?) verweist Rahmstorf auf Modelle, die – etwas herumeiernd – so etwas zwar nicht so direkt, aber eben irgendwie doch so sagen würden, aber natürlich nur für die Zukunft, versteht sich.

Nun, über Modelle ist weiter oben bereits das Nötige ausgeführt worden. Sie sind keinen Pfifferling für öffentliche TV-Auftritte wert. In den Händen seriöser Forscher können sie dagegen durchaus zur wissenschaftlichen Erkenntnis von Detailfragen beitragen. Ob das Verschweigen von maßgebenden Sachargumenten (hier die oben genannten Messungen und Extremsturmstatistiken) als eine Falschaussage gegenüber der Öffentlichkeit und Verletzung der Berufsethik von beamteten Professoren aufzufassen ist, sei der Beurteilung des Lesers überlassen.




SPIELER AM WERK? Die Energiewende und Grünsprech – Die Kaskadierung

Täglich werden wir mit Begriffen konfrontiert, die im Ergebnis einer als alternativlos gepriesenen Energiewende verwendet werden oder durch sie erst entstanden sind. Wir greifen auch Bezeichnungen auf, die in der allgemeinen Vergrünung in den Alltagsgebrauch überzugehen drohen – in nichtalphabetischer Reihenfolge.

K wie

Kaskadierung, die

Unter einer Kaskade versteht man einen treppenartig ablaufenden Wasserfall, heute auch in der Elektrotechnik eine Hintereinanderschaltung von Bauteilen im Sinne einer Kette. In Reihe geschaltete Batteriezellen kaskadieren, bilden also eine Kaskade und sorgen für höhere Spannung. Unfälle und Havarien können kaskadenförmig ablaufen. Der Bruch des Banqiao-Staudamms im August 1975 in China gilt als das größte Unglück als Folge eines kaskadierenden Schadensereignisses. Auch in der Akrobatik kennt man den Begriff für eine Abfolge wagemutiger Sprünge, ausgeführt vom „Kaskadeur“.

Die hier gemeinte Kaskadierung bezieht sich auf kritische Situationen im Stromnetz, wenn die Maßnahmen eines Übertragungsnetzbetreibers zum Redispatch nicht ausreichen und nachgelagerte Netzbetreiber helfen müssen. Abschaltungen von Verbrauchern oder Erzeugern können so lokal begrenzt bleiben. Dieses Kaskaden-Prinzip ist seit Jahren bewährt, es bedeutet die situative Abkehr vom Normalbetrieb hin zum Störungsmanagement. Ziel ist, einen flächendeckenden Blackout als Folge einer Einzelstörung mit folgendem Dominoeffekt zu verhindern.

Damit sich alle Netzbetreiber auf eine solche Situation vorbereiten können, sind klare Regeln notwendig. Das Forum Netztechnik/Netzbetrieb im VDE (Verband der Elektrotechnik Elektronik Informationstechnik e.V.) erließ dazu mit Wirkung zum 1. Februar 2017 die Anwendungsregel „Kaskadierung von Maßnahmen für die Systemsicherheit von elektrischen Energieversorgungsnetzen“. Ziel ist, den Betrieb auf weiter steigende Aufnahme von Strom aus regenerativen Energieanlagen vorzubereiten.

ANSPRUCH UND WIRKLICHKEIT

„Energiewende“ trifft frostige Wirklichkeit

Neben der Beschreibung der Aufgaben für die Beteiligten und der Kommunikationsstruktur lassen neu gesetzte Vorbereitungs- und Umsetzungszeiten die Stadtwerke und Betreiber von Mittel- und Niederspannungsnetzen ins Grübeln kommen. Der VDE verschärft nicht aus Spaß die Bedingungen, sondern aus Umsicht und Vorsorge in der Kenntnis, wie sich die Schwankungen im Netz vergrößern werden. Auch dieser Verband erkennt, dass weiterer Zubau volatiler Einspeisung die Schwankungen verstärkt und keinesfalls glättet.An die unteren Spannungsebenen sind rund 95 Prozent der regenerativen Erzeugung und der elektrischen Verbraucher angeschlossen. Für fünf Szenarien (vom Netzengpass über die Systembilanzabweichung bis zum schleichenden Spannungskollaps) werden Handlungsfolgen festgelegt, bei denen es zu keinen Verzögerungen kommen darf. Nicht nur Engpässe im Sinne von Mangel müssen beherrscht werden, sondern auch lokaler Überschuss durch (zu) hohe Einspeisung. Für jede Stufe der Kaskade bleiben 12 Minuten. Dieser kurze Zeitraum, in dem einzelne Großkunden oder Netzgebiete abgeschaltet werden müssen, stellt vor allem für kleinere Stadtwerke und Netzbetreiber eine große technische und organisatorische Herausforderung dar. Ist der Finger in dieser Zeit nicht am Knopf oder die Hand nicht auf der Maus, droht die Kaskadierung und die Abschaltung auf der nächsthöheren Spannungsebene – mit weiter reichenden Folgen.

Überlast und Unterlast

Absehbar ist, dass die Maßnahmen zum Redispatch auf der Höchstspannungsebene bald nicht mehr ausreichen werden, auch wenn Erfahrungen und Handlungssicherheit wachsen.

Bisher hatten Stadtwerke und Verteilnetzbetreiber eine Stunde Zeit zum Handeln, nun muss neu organisiert werden. Die Netzbetreiber der unteren Spannungsebenen verfügen nicht über ständig besetzte Leitwarten. Wie man nun lokal den Meldefluss und die Schalthandlungen organisieren soll, ist noch offen. Für die Planspiele läuft seit Februar eine zweijährige Frist. Eventuell können externe Dienstleister herangezogen werden. In jedem Fall sind 12 Minuten zu kurz, den zur Abschaltung anstehenden Kundenkreis, der vorher „diskriminierungsfrei“ nach Kapazität auszuwählen ist, zu informieren. Es können auch Krankenhäuser oder Altenheime sein. Schadenersatzansprüche sind ausgeschlossen. Verbraucher sollten Vorsorge treffen, wie unser Innenminister in seinem „Zivilschutzkonzept“ bereits anregt (s. auch „Dunkelflaute“, S. 24).

Die Umsetzung der neuen VDE-Anwendungsregel wird Kosten verursachen, die in die Netzgebühren einfließen werden. Ein Schluck mehr zu den indirekten Kosten der Energiewende, von denen nicht so gern gesprochen wird.

Niemand weiß, wann, wo und wie oft diese Kaskadierung eintreten wird. Mit den weiteren Außerbetriebnahmen regelfähiger Kraftwerke steigt das Risiko.
Kaskadeuren in der Arena schaut man gern zu, Kaskaden im Netz werden keine Freude verbreiten.

Übernommen von Tichys Einblick hier


Frank Hennig ist Diplomingenieur für Kraftwerksanlagen und Energieumwandlung mit langjähriger praktischer Erfahrung. Wie die Energiewende unser Land zu ruinieren droht, erfährt man in seinem Buch Dunkelflaute oder Warum Energie sich nicht wenden lässt.