1

Wikipedia – Ersatz von Fakten durch grünen Katechismus

Erstfrage:

Sind Sie Nutzer von WIKIPEDIA? Glauben Sie alles was dort geschrieben steht, obwohl -formell- JEDER sich daran mit Einträgen beteiligen kann? Verstehen Sie das "System Wikipedia?"

Zweitfrage:

Kennen Sie den WIKIPEDIA-Eintrag "Klimaskeptizismus"? 

https://de.wikipedia.org/wiki/Klimaskeptizismus 

Dort steht z.B. "definiert" was und wer ein "Klimaleugner" sei und so weiter. Ursprünglich angefangen von einem WIKIPEDIA-User "Nils Simon" und seit Jahren wie sein Privatbuch sozusagen "verwaltet" von "Benutzer Hg6996" den Sie sicherlich gar nicht kennen, oder?

Tägliche Praxis:

Immer wieder versuchen unzählige unterschiedliche andere "Nutzer" die in "Klimaskeptizismus" stehenden Sätze und Erklärungen abzuändern, zu ergänzen oder teilweise zu löschen. Jedoch stellt kurz darauf, jener ominöse "Hg6996" alles wieder weitgehend auf den vorherigen Stand. Diese schon fast 500 Änderungsversuche, sind nachsehbar im "Diskussionsteil" dieses Begriffs:

https://de.wikipedia.org/w/index.php?title=Klimaskeptizismus&offset=&limit=500&action=history

Egal, was also andere eintragen, unser "Hg6996" korrigiert alles wieder auf einen Stand, wie ER ihn für richtig hält. Dabei ist ER offenbar dazu niemanden Übergeordnetem irgendeine Rechenschaft schuldig. "Hg6996" ist wie ein kleiner Kaiser in seinem abgeschotteten Reich.

Wer ist "Hg6996"? 

https://de.wikipedia.org/wiki/Benutzer:Hg6996

Ein Name steht da nicht, nur daß dieser Account ihm vom Administrator des Rechenzentrums der Uni Gießen zugeteilt worden sei. Er habe (Stand heute) in 8 Jahren und 163 Tagen WIKIPEDIA-Einsatz immerhin schon 17627 "Bearbeitungen" hier getätigt, also etwa 6 je Tag. Geboren 1967 und aus Stephanskirchen und Leonberg stammend (??). Dipl Ing. (FH) in Biomedizintechnik. Vegetarier und irgendwo heute in Stuttgart lebend für irgendwelche Projekte (sprich: es steht nirgends konkret von WAS und von WEM er letztendlich beruflich lebt). 

Bei den "Artikeln" die unser "Hg6996" in WIKIPEDIA als "Gärtner" erstgeschaffen hat: 

https://de.wikipedia.org/wiki/Benutzer:Hg6996/Artikel 

fällt unten auf:

"Folgen der globalen Erwärmung in der Antarktis" (und "Erweitert durch Nils Simon" – ja derselbe Nils Simon, der auch den Artikel "Klimaskeptizismus" gründete, den Hg6996 heute "verwaltet" – was für ein Zufall! Ping-Pong-Spielchen oder so…) 

https://de.wikipedia.org/wiki/Folgen_der_globalen_Erw%C3%A4rmung_in_der_Antarktis

Hierin kommen neben viel "wissenschaftlich klingenden Sätzen" auch solche DRAMATISCHEN Formulierungen vor:

"Im Jahr 2014 wurde in mehreren unabhängigen Publikationen festgestellt, dass der Westantarktische Eisschild die Grenze für einen irreversiblen Kollaps überschritten hat: In den kommenden 100 bis 300 Jahren wird eine Eisfläche von der Größe Frankreichs zerfallen, was einen Meeresspiegelanstieg von mindestens einem Meter Höhe zur Folge haben wird. Daneben ergaben Untersuchungen, dass auch der Ostantarktische Eisschild von Zerfall betroffen sein wird" 

Also "Meeresspiegelanstieg von mindestens EINEM METER HÖHE"!!

Aber lesen Sie den Artikel lieber selbst. Bilden Sie sich selbst Ihr Urteil.

SO einer bestimmt also, was alle deutsche Bürger, als Begriffsdefinitionen auch zu "Klima" lesen dürfen oder nicht. 

Nach einem Abwarten von Feedbacks/Reaktionen aus Ihren Reihen, werde ich diesen Beitrag irgendwann später in 2016 mal fortsetzen.

Anmerkung der Redaktion:

Über vergleichbare Erfahrungen haben wir auch andere Leser berichtet. Sie finden deren Bericht hier




Strom aus Sonne und Wind ist nicht nach Bedarf verfügbar. Niemals und nirgends!

Behauptung der EE Befürworter

Immer wieder liest und hört man  von Befürwortern der „EE“ besser NIE (Nachhaltig Instabilen Energien) –auch in diesem Blog- dass irgendwo immer genügend Wind wehe, oder die Sonne scheine, um deren Kraft zur Erzeugung von Strom nutzen zu können, damit Flauten oder Dunkelheit zu überbrücken, und Strom dahin zu liefern, wo er zwar benötigt, aber wegen Flauten oder Dunkelheit – trotz ausreichender Anlagenkapazität- gerade nicht produziert werden könne. Man müsse nur überall genügend Kapazität aufbauen und auch die entsprechenden Leitungen dazu legen, dann würde einer baldigen 100 prozentigen Bedarfsdeckung durch NIE (Nachhaltig Instabilen Energien) Strom nichts mehr im Wege stehen. Diese Behauptung wird immer wieder auf Neue aufgestellt und von allen Medien, Politikern und ihren zuarbeitenden und oft auch von ihnen finanzierten NGO´s ständig wiederholt.

So heißt es z.B in der  „Agora Kurzstudie zur Entwicklung der Windenergie in Deutschland:

„Eine großräumige Verteilung der Anlagen führt folglich zu einer Glättung der Einspeisung.“

Stellt sich dann heraus, dass sie z.B. für Deutschland praktisch nicht stimmt, wird als Begründung angegeben, dass Deutschland eben zu klein ist, aber für Europa als größerer Raum würde es dann stimmen. Man müsse nur durch erweiterte europäische Verbundnetze und die entsprechende Gesetzgebung dafür sorgen, dass ein Ausgleich möglich sei. So jedenfalls sieht es, stellvertretend für viele, der bisher eher nicht durch kluge Energiepolitik aufgefallene FDP Europaabgeordnete Graf Lambsdorff.

Realität

In der Realität ist dieses, für viele Umwelt- und Klimabewegte aber auch links-grüne Feinde (und ihre Unterstützer von anderen Parteien) von „Konzernen“, verlockende Gedankengebäude, jedoch nichts weiter als ein Luftschloss, besser gesagt ein Wolkenkuckucksheim. Im Folgenden wird dies hier aufgezeigt.

Die örtliche NIE Verteilung  und Stromernte.

Behauptet wird, dass durch eine entsprechende Vervielfachung der Anlagenkapazität an jedem Ort in Deutschland nicht nur die geerntete Energie-Menge proportional steige, sondern auch,  dass deren Einspeisung „verstetigt“ wird, dass also Mindermengen der einen Installation durch Mehrmengen  der anderen Installation kompensiert werden.  Doch diese häufig wiederholte Annahme z.B. von gut besoldeteten IWES Wissenschaftlern ist fundamental falsch, sowohl theoretisch als auch praktisch. Detlef Ahlborn von Vernunftkraft führte schon vor einiger Zeit den Nachweis[1], dass auch für Windkraftanlagen der fundamentale Satz der Wahrscheinlichkeitslehre gilt, dass sich die Varianzen (des Leistungsangebotes) bei höherer Zahl der Teilnehmer addieren und nicht subtrahieren. D.h. je mehr NIE (hier Wind-) Anlagen installiert werden, umso größer wird auch die Streuung.

Doch es kommt noch ein weiterer Aspekt hinzu, der zusätzlich dafür sorgt, dass die obige Behauptung falsch ist.  Im Gegensatz zu rein zufälligen Zahlen, wie sie z.B beim Würfeln entstehen, ist die Einspeisung von Windkraftanlagen (wie auch Solaranlagen) bei der Bereitstellung ihrer Leistung (statistisch) nicht unabhängig sondern stark voneinander abhängig. Sie ist extrem eng korreliert, wie es im Fachjargon heißt. Bei unabhängigen Quellen würde die Varianz symmetrisch um einen Mittelwert herum verteilt liegen, doch bei den miteinander eng korrelierten Quellen ist das anders. Der Grund dafür ist, dass der Wind (wie auch die Sonne) häufig über ganz Europa stark oder auch schwach oder überhaupt nicht weht. Ein weiteres wichtiges Merkmal ist, dass starker Wind wesentlich seltener ist, als schwächerer Wind, oder gar Flaute. Abb 1 zeigt den typischen Verlauf dieses Verhaltens

Abbildung 1: Verteilung der Summeneinspeisung in Deutschland Quelle: http://www.vernunftkraft.de/windkraft-versus-wuerfeln/

Damit sind höhere Leistungen wesentlich unwahrscheinlicher als geringere Leistung oder gar Null-Leistungen. Und das auch noch über der ganzen Fläche und gleichzeitig. Von symmetrischer Verteilung der Tage über der Windstärke (dargestellt als Energieernte in MW) um einen Mittelwert kann also wirklich keine Rede sein. Man sieht in Abb. 1 deutlich eine starke Verschiebung des zeitlichen Maximums nach links auf dem Diagramm. Es liegt bei knapp 10 % der Leistung für nur 27 Tage (dem Maximum an Zeit) jeden Jahres, an 17 Tagen d.J. wird sogar keine Leistung abgegeben, während die maximale Leistung nur an 1 bis 2 Tagen, oft auch nur für ein paar Stunden, eingespeist wird.

Dieses Ergebnis zeigt auch die praktische Einspeisung aller deutscher installierten NIE Anlagen die mit ¼ stündlicher Auflösung an der Entso-e abgerufen werden können. Abb 2 zeigt den Sachverhalt für den Oktober 2015.

Abbildung 2: Verteilung der Summeneinspeisung von Wind- und Sonnenleistung gegenüber dem Bedarf in Deutschland über den Oktober 2015 Quelle: Entso-e Grafik R. Schuster

Man sieht, dass in diesem Zeitraum die Spitzen zu keiner Zeit auch nur in die Nähe des Bedarfes kommen, von Spitzenabdeckung ganz zu schweigen, obwohl die installierte Leistung der beiden NIE Quellen Wind und Sonne den max. Verbrauch bereits heute schon um fast 20 % übertrifft.

Damit dürfte auch der Wunschtraum vieler Aktivisten gestorben sein, genügend Strom nicht nur bei voller Wind- und Solarverfügbarkeit  zur Versorgung eines Industrielandes wie Deutschland sicher zur Verfügung stellen zu können, sondern zugleich den unweigerlich anfallenden Spitzenstrom für die Speicherung über den Umweg der Methanerzeugung und Wiederverstromung (Power to Gas to Power) zu verwenden. Das funktioniert auch dann nicht, wenn, wie es der Bedarfsplan vorsieht, die Installationen in Windkraftanlagen auf 170 GW [2]vervierfacht werden.

Die Gründe dafür wurden oben ausführlich dargestellt. Die folgende Simulation zeigt die Situation nochmals deutlich. 

Für die Simulation wurde die installierte Windkapazität in Inkrementen der bereits jetzt installierten Leistung um jeweils einen Schritt bis zum 10 fachen erhöht und die Daten vom Oktober entsprechend multipliziert. Die PVA Kapazität hingegen wurde – wie vom Gesetzgeber gewollt- bei 50 GW Nennleistung gedeckelt.

Abbildung 3: Verteilung der Summeneinspeisung von Wind- und Sonnenleistung gegenüber dem Bedarf in Deutschland bei Verdreifachung der Windkapazität gegenüber Oktober 2015 Quelle: Entso-e Grafik R. Schuster 

Man erkennt, das erst bei einer Verdreifachung der Windkapazität am 12. Oktober der Bedarf kurzzeitig übertroffen wurde. Für den Rest des Monats reichte das Angebot bei weitem nicht aus, diesen Bedarf auch nur annähernd zu decken.

Abbildung 4: Verteilung der Summeneinspeisung von Wind- und Sonnenleistung gegenüber dem Bedarf in Deutschland bei Vervierfachung der Windkapazität gegenüber Oktober 2015 Quelle: Entso-e Grafik R. Schuster 

Bei Vervierfachung der Windkapazität, wie vom Gesetzgeber gewünscht, erreichen die Spitzen nur an 4 Tagen den Bedarf, nämlich am 6. und 7. Oktober und am 11. und 12. Und auch das nur kurzzeitig. Für die Erzeugung von Methan  bliebe nichts übrig, und die restlichen 27 Tage müssten konventionelle Kraftwerke den Bedarf decken, wenn es nicht zu Stromabschaltungen in großem Stil kommen sollte.

Und so setzt sich das bis zum 10 fachen fort, mit dem Ergebnis, dass die Talwerte dann in ihren Minima nur leicht proportional ansteigen, (in der Realität wären sie tiefer, weil die windhöffigen Standorte alle längst besetzt sind), während die Erzeugungs-Spitzen die Bedarfsspitzen an nur 14 Tagen um bis zum  2,4 fachen überstiegen, obwohl die Nennleistung dann bereits um den Faktor 8 über dem mittleren Bedarf läge. Es drängen sich daher die Fragen auf:

Wohin dann mit diesem Strom? Und wer füllt die Lücken?

Abbildung 5; Video: Verteilung der Summeneinspeisung von Wind- und Sonnenleistung gegenüber dem Bedarf in Deutschland bis zur Verzehnfachung der Windkapazität gegenüber Oktober 2015 Quelle: Entso-e Grafik R. Schuster

Doch selbst unter diesen grotesk übersteigerten Installationswerten liefern die NIE Quellen in der Spitze nur max. 29 % ihrer installierten Nennleistung.

Selbstverständlich ist die Situation zu anderen Jahreszeiten anders. Es wird Monate geben, bei denen das Stromangebot den Bedarf massiv übersteigt, und trotzdem wird diese Menge nicht ausreichen um z.B. genügend Methan zu erzeugen, das in Schwachmonaten zur Stromerzeugung verbrannt werden kann. Dafür sorgt schon der lausige Restwirkungsgrad von 20-30 % (eher 20 % aufGrund vielfältiger innerer Hemmnisse) der Power-to Gas to Power Speicherung.

Und es wird auch Monate geben wird, in denen noch größerer Mangel herrscht und in denen nicht mal die Spitzen den Bedarf erreichen.

Die heutige schon sehr angespannte Netzstabilität würde deshalb weiter Schaden nehmen und flächendeckende Blackouts gehörten zur Tagesordnung. 

Abbildung 6 Zahl der dokumentierten Netzeingriffe pro Jahr in Deutschland incl. Fortschreibung der Kurve mittels eines Kurvenfits (Polynom 3 Ordnung) Quelle: ab 2012: http://www.netztransparenz.de/de/Redispatch.htm, zuvor Pressemeldungen und priv. Info) Grafik Michael Limburg

D. Ahlborn hat deshalb auch die Frage untersucht wie viele Windkraftanlagen in Deutschland errichtet sein müssten, um die vom Gesetzgeber vorgegebene Endzahl von rd. 170 GW zu erreichen und dann errechnet welcher Flächenbedarf dabei entstünde. In seiner sehr lesenswerten und lesbaren Analyse ermittelt er 55.240 Windräder der 3 MW Klasse, die man z.B. in Windparks zu je 10 Anlagen zusammenfassen könnte. Bei gleichmäßiger Verteilung über Deutschlands Fläche kommt er dann zu dem Schluss

Zitat:

..dass wir die gesamte Fläche Deutschlands von Flensburg bis nach Berchtesgaden, von Aachen bis nach Görlitz im Abstand von durchschnittlich 8 km mit Windparks zubauen müssen, um ein Viertel der Stromversorgung Deutschlands mit Windkraftanlagen sicherzustellen. Zitat Ende

Nicht viel besser sieht die Situation aus, wenn man sich die Einspeisung von Windstrom für einen großen Teil Europas ansieht. R. Schuster hat dies dankenswerter Weise getan und für das erste Quartal 2015 grafisch aufbereitet.  Abb. 7 zeigt die Einspeisung deutscher Windkraftanlagen für das erste Quartal 2015. Während Abb. 8 die summierte Einspeisung aus 12 europäischen Ländern  für denselben Zeitraum zeigt.

Abbildung 7: Verteilung der Summeneinspeisung von Windleistung in Deutschland im I. Quartal  Quelle: Entso-e Grafik R. Schuster 

Abbildung 8 und Video : Verteilung der Summeneinspeisung von Windleistung von 12 Ländern im I. Quartal  Quelle: Entso-e Grafik R. Schuster

In Abb. 7 und Video Abbildung 8 ist deutlich zu erkennen, dass sich manche Täler zwar an einigen Tagen auffüllen, aber in keinem Fall den  Ausgleich herbeiführen, also zu Verstetigung beitragen würden.

Fazit

Viel hilft eben auch in diesem Falle nicht viel, außer manchen Leuten zu nie gekanntem Vermögen zu verhelfen, und dabei dem Rest massiv zu schaden, auch als „politische“ Auslegung des Amtseides bekannt.

 


[1] http://www.vernunftkraft.de/windkraft-versus-wuerfeln/

[2] Siehe auch: D. Ahlborn: WIEVIELE WINDRÄDER BRAUCHT DAS LAND? http://www.vernunftkraft.de/dreisatz/




„…und sie dreht sich doch!“

Wenn Staatsbeamte, darunter Professoren der Physik und der Physikalischen Chemie, zwischen Fläche und Länge, zwei wahrlich einfachen Begriffen der Geometrie, nicht mehr unterscheiden können oder unterscheiden wollen, muss „etwas faul im Staate“ sein.

Das Wärmebild (Bild 1) einer Infrarotkamera zeigt eine Fläche mit unterschiedlichen Oberflächentemperaturen wie zum Beispiel dieses Bild der NASA. Es unterscheidet sich optisch nicht von üblichen Wärmebildern, wohl aber in der Dimension. Hier ist nicht die Temperatur, sondern die infrarote Wärmestrahlung in W/m2 farbig dargestellt.

Bild 1[1] Siehe rechts

Die bekannte Kurvenschar (Bild 2) von Max Planck für die Wärmestrahlung bezieht sich nicht auf eine Fläche, sondern auf die Wellenlänge der elektromagnetischen Strahlung. Diesen Kurvenverlauf konnte Planck erst in einer mathematischen Gleichung beschreiben (zuvor waren alle Versuche an der sogenannten „UV-Katastrophe“ gescheitert), als er bei seiner Ableitung annahm, dass es für Energie – ähnlich wie für chemische Materie – kleinste, nicht mehr teilbare Einheiten gäbe. Diese nannte er Quanten. Im Fall der chemischen Materie nennt man diese kleinsten Einheiten seit Demokrit (ca. 400 v.Chr.) Atome („Unteilbares“). In der Quantentheorie sind die unteilbaren Quanten kleinstmögliche Energiebeiträge. Um diese Quanten erhöht sich die Bewegungsenergie einer chemischen Bindungsstruktur bei einem Quantensprung nach oben. Bei einem Quantensprung nach unten verringert sich die Bewegungsenergie entsprechend. Der „gequantelte“ Energiebeitrag stellt bei dem für diesen Quant typischen Quantensprung bei Emission wie bei Absorption immer einen gleich großen Energiebeitrag dar.

In jedem Fall ist der Energiebeitrag des elektromagnetischen Quants von der Wellenlänge und nicht von der Fläche der chemischen Bindungsstruktur abhängig. Dabei ist die Energie des Quants bzw. des Quantensprungs in der chemischen Bindungsstruktur umgekehrt proportional zu seiner Wellenlänge. Je kürzer die Wellenlänge ist, um so energiereicher ist der elektromagnetische Strahlungsquant bzw. der elektromagnetische Quantensprung in der chemischen Bindungsstruktur. Wenn chemische Bindungsstrukturen Quanten aller Wellenlängen aussenden (emittieren) bzw. aufnehmen (absorbieren) könnten, wie es das elektromagnetische Plasma der Sonne kann, erreicht der elektromagnetische Strahlungsfluss das Maximum, wie es im Kurvenverlauf nach Planck mathematisch dargestellt ist. Dieser theoretische Maximalstrahler wird „Schwarzer Strahler“ genannt. Bild 2 zeigt die Wellenlängenabhängigkeit der Strahlung von Sonne und Erde schematisch als solche Maximalstrahler nach Planck.

 

Bild 2: 

Die Chemie spricht nicht undifferenziert von Körpern, sondern immer ganz spezifisch von chemischen Stoffen, Stoffmischungen oder unterschiedlichen Materialien. Ob diese unterschiedlichen Materialien eher Maximalstrahler oder eher schwächere Strahler sind, kann nicht einfach an ihrer Temperatur erkannt werden. Jedes Material  kann unabhängig von seinem Elektromagnetismus jede beliebige Temperatur annehmen. Die Temperatur wird nicht vom Material selbst, sondern von seiner Umgebung bestimmt.

Ob der Elektromagnetismus eines Materials einem „Schwarzen Strahler“ nach Bild 2 entspricht, kann nur die wirkliche Messung der spektralen Intensitätsverteilung seiner infraroten Wärmestrahlung in Abhängigkeit von der Wellenlänge zeigen. Die spektrale Intensitätsverteilung wird Spektrum genannt. Spektren bestimmter Oberflächen der Erde zeigt Bild 3. Das bekannteste unmittelbar sichtbare Spektrum ist der Regenbogen des Sonnenlichts. Wassertropfen haben gegenüber Sonnenlicht genau die lichtbrechenden Eigenschaften, die ein IR-Spektrometer im Infraroten benötigt, damit dort die spektrale Intensitätsverteilung pro Wellenlänge gemessen werden kann. Energiereiche Quanten sieht unser Auge blauviolett, energiearme dunkelrot. Wärmequanten kann das Auge nicht sehen, dafür werden physikalische Geräte benötigt. Fast jedes chemische Institut und manche Schulen besitzen heute IR-Spektrometer, die IR-Spektren automatisch messen können.

Seit entsprechende Geräte von Satelliten aus IR-Spektren verschiedener Erdoberflächen wie Sahara, Grönland oder Antarktis zu verschiedenen Tageszeiten gemessen haben, ist bekannt, dass keine Fläche der Erde einer Planck Kurve entspricht. Das zeigen die IR-Spektren in Bild 3.

Bild 3 [2]

Wenn ein beamteter Professor behauptet, die Erde sei in guter Näherung im Infraroten ein „Schwarzer Strahler“ und er deshalb an den atmosphärischen Treibhauseffekt glaubt, gleichzeitig ein anderer beamteter Professor[3] umgekehrt die gravierendsten Abweichungen von der Planck Kurve, die trichterförmigen Einbuchtungen mittags über der Sahara, als den ultimativen Beweis für den Treibhauseffekt ansieht, folgt aus diesem Widerspruch in sich logisch zwingend, dass keiner der beiden Professoren die elektromagnetische Wirklichkeit der Erdoberfläche richtig beschreibt.

Ein auf Umweltfragen spezialisierter Staatsanwalt der Staatanwaltschaft Hanau erklärte auf Anfrage, Falschaussagen von Beamten seinen im Strafgesetzbuch nicht als Straftaten anzusehen, auch nicht in schweren Fällen und auch nicht bei Wiederholung. Falschaussagen seien allenfalls zivilrechtlich einklagbar, wenn ein Schaden vor Gericht schuldhaft nachgewiesen werden kann. Somit ist eine gerichtliche Klärung der CO2 Frage an sich in einem demokratischen Rechtsstaat grundsätzlich nicht möglich. Die gesellschaftliche Mehrheit kann frei entscheiden, ob CO2 wärmt oder kühlt. Allerdings sollte jeder gebildete Mensch wissen, dass die Wirklichkeit nicht an Mehrheitsbeschlüsse gebunden ist, auch nicht die Wirklichkeit der elektromagnetischen Bedeutung von Quantensprüngen in den chemischen Bindungsstrukturen des CO2 Moleküls.

Das im April 1985 aufgenommene globale Wärmebild der Erde (Bild 1) zeigt, dass die Erdoberfläche entlang des Äquators, also bei gleicher Sonnenneigung, nicht einheitlich ein „Schwarzer Strahler“ ist, sonst müsste die Erde am Äquator überall die rotviolett erscheinen und nicht rot, gelb oder grün. Das entspricht unterschiedlichen Füssen an infraroter Wärmestrahlung, die von der Erdoberfläche und der Atmosphäre ins Weltall abfließen und die Erdoberfläche ganz unterschiedlich und nicht immer maximal kühlen.  Bild 1 zeigt aber auch sehr gut, dass die Ozeane den erwärmenden Treibhauseffekt verursachen, ganz extrem heizt gerade der Pazifik die Erde auf durch den gerade sichtbaren warmen El Niño Strom entlang des Äquators.

Einzelne Beamte können irren. Das ist menschlich. Gravierender ist, wenn auch altehrwürdige Naturwissenschaftsvereine wie die Deutsche Bunsen Gesellschaft für Physikalische Chemie (DBG) falsche Darstellungen verbreiten. Gemeinsam mit drei weiteren Chemieorganisationen veröffentlichte die DBG 2011 eine Broschüre[4] über CO2. Darin wird der „Strahlungstransport“ von unten durch die Atmosphäre nach oben in einer schematischen Abbildung mit Pfeilen dargestellt. Diese Darstellung steht genau auf dem Kopf. Am Boden (im „Fuß“) ist die Energieübertragung durch Infrarotstrahlung nicht wie dargestellt maximal intensiv (Netto acht Pfeile nach oben), sondern am geringsten. Oben (im „Kopf“) ins Weltall gehend ist die infrarote Wärmestrahlung nicht wie dargestellt am geringsten (ein Pfeil nach oben), sondern am intensivsten und entspricht dort 100 % der Intensität der eingestrahlten Sonneneinstrahlung („Strahlungsgleichgewicht“).

Bild 4:

Schriftliche Bitten von Dr. Stehlik um Korrektur (als Einschreiben mit Rückschein) an die vier wissenschaftlichen Gesellschaften wurden nicht zur Kenntnis genommen. Im mündlichen Gespräch erklärte der Autor später bei einem ACHEMA Besuch, Gravitation sei nur auf der Sonne und auf dem Jupiter relevant für die Temperatur.

Das ist die deutsche Wirklichkeit beim Thema Treibhauseffekt heute! Diese mehr als dubiose gesamtgesellschaftliche Gemengelage rechtfertigt die Erinnerung an Galileo Galilei und seine damaligen „mittelalterlichen“ gesellschaftlichen Umstände, die ihn zu seinem legendären Satz veranlasst haben: „und sie dreht sich doch!“


[1] https://en.wikipedia.org/wiki/Black-body_radiation

[2] R. A. Hanel, B. J. Conrath, V. G. Kunde, C. Prabhakara, I. Revah, V. V. Salomonson, G. Wolford: The Nimbus 4 Infrared Spectroscopy Experiment, Journal of Geophysical Research, Vol 77, 15, 2629 – 2641, 1972

[3] Prof. Dr. Dr. h.c. Reinhard Zellner: Klimawandel – Eine Herausforderung für Wissenschaft und Gesellschaft, Vortragsreihe vom 17.11.15 bis 15.12.51, Der Klimawandel und seine Folgen, Frankfurter Forum zur UN-Klimakonferenz 2015, ORT Hörsaal des Senckenberg Biodiversität und Klima Forschungszentrums in Frankfurt am Main am 17. November 2015 von 19:00 bis 20:00 Uhr, Präsentationsfolie „IR-Spektren nach Hanel 1972“

[4] Herausgeber: Deutsche Bunsen-Gesellschaft für Physikalische Chemie, Theodor-Heuss-Allee 25, 60486 Frankfurt am Main, „Feuerlöscher oder Klimakiller? Kohlendioxid CO2 – Facetten eines Moleküls“, 2011, Seite 10




Die Energiepolitik im Koalitionsvertrag der Großen Koalition – Die Beschwörung des Irrealen –

 „Das Energiepolitische Dreieck“

Zitat: „Die Ziele des energiepolitischen Dreiecks – Klima- und Umweltverträglichkeit, Versorgungssicherheit, Bezahlbarkeit – sind für uns gleichrangig. Die Energiewende wird nur dann bei Bürgern und Wirtschaft Akzeptanz finden, wenn Versorgungssicherheit und Bezahlbarkeit gewährleistet sowie industrielle Wertschöpfungsketten und Arbeitsplätze erhalten bleiben.“ 

Dazu gibt es eine treffende Bewertung durch Wieland Kramer, freier Journalist, Wuppertal, 2013:

„Zu den besonders schönen und trügerischen Exemplaren der Gattung Dreieck gehört das der nachhaltigen Energieversorgung. Es ist angenehm gleichseitig und vollkommen harmonisch. Mit jeweils identischer Entfernung zum Mittelpunkt positionieren wir die Versorgungssicherheit, die Umweltfreundlichkeit und die Preiswürdigkeit. Wir wünschen und behaupten sogar, die geometrische Harmonie entspreche der Realität.

Doch so robust wie wir es gerne hätten, ist das Energiedreieck keineswegs. Im zweiten Jahr in Folge (2012 und 2013) wird der inländische Energieverbrauch nahezu vollständig durch den Witterungsverlauf geprägt. Rund 10% mehr Erdgas und Heizöl waren nötig, um Wohnungen und Büros angenehm warm zu halten.

Und bei den Schwellenländern? Deren Rezepte gegen Wachstumsverluste sind einheitlich: Ganz vorne steht der Einsatz preiswerter Energie. Damit ist für diese Staaten eine Ecke des Energiedreiecks fest gesetzt. Die Option heißt Kohle.

Wir müssen akzeptieren, dass viele Länder im Energiedreieck auf sichere Versorgung und niedrige Preise setzen, um die Entwicklung ihrer Volkswirtschaft zu stützen, negative Umweltauswirkungen dagegen in Kauf nehmen.

Deutschland setzt mit seiner Energiewende auf Umwelt- und Klimaschutz (1. Anmerkung: Weder beim CO2 noch gar beim Natur- und Landschaftsschutz ist das tatsächlich der Fall)  auf Versorgungssicherheit – insbesondere im Stromnetz (2.Anmerkung: Selbst diese ist massiv gefährdet). Hierzulande wird die Preiswürdigkeit im Energiedreieck vernachlässigt, wenn nicht sogar ganz fallengelassen.

Allenfalls zwei Ziele lassen sich zu Lasten des Dritten verwirklichen. Die Dreiheit erscheint unmöglich.“

3. Anmerkung: In Europa könnten allenfalls Länder mit reichlich Wasserkraft zwei dieser drei Ziele nahekommen, ebenfalls kann das Frankreich mit seiner Kernkraft. Wenn man die Kernkraftnutzung als umweltfreundlich ansieht, was bei einer effizienten Behandlung der radioaktiven Abfälle und der abschließenden Endlagerung der Spaltprodukte hinreichend erfüllt sein kann, dann bleiben allein Frankreich und Norwegen, die alle drei Ziele des energiepolitischen Dreiecks erfüllen können. Für die deutsche Regierung, die dafür sorgt, dass nicht ein einziges dieser Ziele erfüllt wird und die trotzdem das Zieldreieck beschwört, ist Frankreich jedoch kein Vorbild und die norwegische Gebirgslandschaft kann man leider nicht nach Deutschland holen.

 

Zur Zusammenarbeit mit den Ländern:

Zitat: „Auf der Basis dieser Korridore (betr. den Ausbau der EE)  wird sich die Koalition mit den Ländern auf eine synchronisierte Planung für den Ausbau der einzelnen Erneuerbaren Energien verständigen“.

 

Tatsächlich hat Deutschland 17 Energiewenden

Die vergangenen Jahre haben sehr deutlich gezeigt, dass alle quantitativen Vorgaben der Regierung für den Ausbau der unter das EEG fallenden sog. Erneuerbaren von den Bundesländern nicht beachtet werden. Diese verfolgen jeweils eigene Pläne, die im Ergebnis beliebig von den Vorgaben aus Berlin abweichen. Das geht nach dem Prinzip: „Auf welche Weise können wir das Meiste für  unser Land aus den Fördermöglichkeiten herausholen ? Solange es keine festen Ausbaugrenzen    mit entsprechenden Sanktionen gibt, machen wir, was wir wollen.“

Im April 2014 wurde der „Entwurf für ein Gesetz zur grundlegenden Reform des Erneuerbare-Energien-Gesetzes“ vom  Bundeskabinett beschlossen und Bundestag sowie Bundesrat zugeleitet. Gabriel wollte damit „die Kostendynamik der vergangenen Jahre beim Ausbau der erneuerbaren Energien durchbrechen und den Anstieg der Stromkosten begrenzen“ – so steht es im Entwurf.

Die „grundlegende Reform“ bedeutete für die Windkraft: Der Ausbau der Windenergie sollte auf 2.500 MW/ Jahr begrenzt werden.  Aber eine besonders krasse Missachtung ihrer Ausbauziele erlebte die Regierung, als die 2014er Zahlen für die Windkraft bekannt wurden. Denn am 29. Januar 2015 war der Begrenzungsbeschluss für die Windkraft bereits Makulatur. An diesem Tage gab der Verband Deutscher Maschinen- und Anlagenbauer VDMA bekannt, dass im Jahr 2014 in einem enormen Zubau 4.750 MW Windkraftleistung an Land neu installiert wurden.  Das entspricht einem Zuwachs von 58% gegenüber 2014.

Dazu erklärte der energiepolitische Sprecher der CDU/CSU-Bundestagsfraktion Joachim Pfeiffer: „Diese Fehlsteuerung im EEG führt zu einer Mehrbelastung der Stromkunden von mindestens  einer  Viertelmilliarde Euro. Die steigenden Netz- und Systemkosten sind dabei noch nicht eingerechnet.“ Er verlangte „schnellstmöglich“ eine grundlegende Reform der Förderung; nur so könne „die weitere Kostenexplosion beendet werden.“ Sein unfreiwilliger Humor bestand in der erneuten Forderung nach einer „grundlegenden Reform“, die es doch gerade einmal 9 Monate zuvor gab.

Während auf diese Weise die Landesregierungen ihre eigene Energiewendepolitik betreiben, gibt es inzwischen auch einen wachsenden Widerstand in den Länderparlamenten gegen diese Politik:

Bayern kämpft mittlerweile wegen der wachsenden Bürgerproteste mit der Bundesregierung gegen die geplanten Stromtrassen  und sieht außerdem die gesamte Stromversorgung bedroht, wenn die letzten Kernkraftwerke vom Netz gehen müssen. Im Ausbau des Solarstroms und der Biomasse ist Bayern hingegen ein führender Profiteur des EEG.

In Hessen hat sich die SPD-Opposition mittlerweile gegen die Windkraft-Ausbaupläne der schwarz-grünen Landesregierung gestellt und nimmt damit – ebenso wie Oskar Lafontaine im Saarland . auch eine Oppositionsrolle gegen das SPD-geführte Wirtschaftsministerium in Berlin ein. Der Bürgerwiderstand gegen neue Stromtrassen führt wiederum dazu, dass mehrere Landesregierungen die Netzausbaupläne im vielen  Details ändern und damit verzögern.

Das Bild wird zunehmend unübersichtlicher.

 

Zu Gebäuden:

„Der Einsatz von erneuerbaren Energien im Gebäudebestand sollte weiterhin auf Freiwilligkeit beruhen.“ 

Dies liest man gerne, nur ahnt man Böses: Das am 01.01.2009 in Kraft getretene Erneuerbare-Energien-Wärme-Gesetz EEWärmeG hat, wie auch bei der Energiewende üblich, mehrere Zielsetzungen

1. der Klimaschutz, 2. die Schonung fossiler Ressourcen, 3. die Senkung von Energieimporten, 4. die Weiterentwicklung von Technologien zur Erzeugung von Wärme und Kälte aus „Erneuerbaren Energien“ EE und 5. bis 2020 den EE-Anteil am Endenergieverbrauch für Wärme und Kälte auf 14% zu erhöhen. Es ist damit das zentrale regulatorische Instrument, um den Einsatz von EE im Gebäudesektor  und weitere  Maßnahmen voranzutreiben.

 

Die bei derartigen Zwangsmaßnahmen eintretenden Reaktionen der Betroffenen beklagte die Bundesregierung bereits 2012 in einem „Erfolgsbericht“ des BMU: „Es zeigten sich sogar rückläufige (!) Trends beim EE-Anteil an Sanierungsmaßnahmen.“ Offenbar versuchen die Bürger nicht nur mit der Verschiebung von eigentlich fälligen Erneuerungen ihrer Heizungsanlagen den Einbau teurer EE-Anlagen zu vermeiden; sie haben alte Anlagen repariert und sie zum Teil wiederum unauffällig durch funktionierende Anlagen ersetzt. Diese Zwangsmaßnahmen führen mit Sicherheit dazu, dass sich ein Schwarzmarkt für die Installation von Heizungsanlagen entwickelt, die keine EE-Anlagen einbeziehen, die aber sehr wohl aus modernen und effizienten konventionellen Anlagen – z.B. Brennwertkesseln – bestehen können.

Bei Neuerrichtung von Gebäuden müssen die Eigentümer für die Erzeugung von Wärme und Kälte bestimmte Anteile an der gewählten „Erneuerbaren Energie“ nutzen (48 § 5, § 7). Die Mindestanteile sind u.a.: Für Solare Strahlung 15%; für feste Biomasse 50%; für Geothermie oder Umweltwärme 50%. Bei s.g.  Ersatzmaßnahmen gilt ein Mindestanteil von 50% bei Nutzung von Abwärme oder KWK-Anlagen. Als Ersatzmaßnahmen kann z.B. auch die zusätzliche Einsparung von Energie durch besonders gute Wärmedämmung der Gebäudehülle angerechnet werden, wenn der jeweilige Höchstwert des Jahres-Primärenergiebedarfs nach der EnEV um mindestens 15% unterschritten wird.

Fernwärme und Fernkälte gelten nur dann als Ersatzmaßnahme, wenn sie zu einem wesentlichen Anteil aus EE oder zu mindestens  zu 50% aus der Nutzung von Abwärme oder von KWK-Anlagen oder aus einer Kombination der drei Varianten stammt.

 

Auch von E. Gawel et al. wird diese Entwicklung beklagt: „Kritisch bei einer anlassbezogenen  Nutzungspflicht (Anm.: einer Modernisierung) im Bestand sind die möglichen Auswirkungen auf die Heizungs-Modernisierungs-Rate, soweit Investoren Sanierungen hinauszögern, um den gesetzlichen Geboten bei unzureichender Wirtschaftlichkeit zu entgehen“.

Die Öko-Bürokratie in den Berliner Ministerien wird diesen logischen Reaktionen der Betroffenen auf die  gesetzlich vorgeschriebene Installation unwirtschaftlicher Anlagen sehr wahrscheinlich mit Verschärfungen begegnen. Das könnte vor allem einer Ausdehnung der EnEV und des EEWärmeG die  gesetzlich vorgeschriebene Installation unwirtschaftlicher Anlagen sehr wahrscheinlich mit Verschärfungen begegnen. Die wahrscheinlichste neue Zwangsmaßnahme wird vermutlich eine Modernisierungspflicht für alle Heizungsanlagen sein, die ein bestimmtes Alter erreicht haben, wobei dann EE-Anlagen eingesetzt werden müssen.

Die Deutsche Energie-Agentur GmbH (dena) und die Allianz für Gebäude-Energie-Effizienz (geea) haben sich bereits für eine „deutliche Verschärfung der Anforderungen an Neubauten“ ausgesprochen.

Mal sehen, ob der Koalitionsvertrag wenigstens in diesem Punkte bis zum Ende dieser Legislaturperiode gilt.

 

Klimafreundlicher Wärmemarkt

„Ziel der Koalition bleibt es, bis zum Jahre 2050 einen nahezu klimaneutralen Gebäudebestand zu haben.“

Das Tröstliche am Koalitionsvertrag ist die schlichte Tatsache, dass die Regierung, die diesen Text absegnete, im Jahre 2050  über ein Drittel Jahrhundert nicht mehr im Amt ist; von der Frage, ob ein heutiges Regierungsmitglied dann überhaupt noch am Leben ist, ganz zu schweigen. Was befremdet, ist der völlig unrealistische Gestaltungswahn, mit dem die nächsten zwei Generationen aus der dunklen Vergangenheit des Jahres 2013 heraus ferngesteuert werden sollen. 

Das hier beschriebene Ziel ergänzt und relativiert jedoch die Aussage zum Gebäudebestand im vorausgegangenen Satz aus dem Koalitionsvertrag, der das schöne Wort „Freiwilligkeit“ enthält.

Zur Verwendung von überschüssigem EE-Strom als Wärme:

In einem Strommarkt mit einem weiter zunehmenden Anteil von Strom aus erneuerbaren Energien werden wir Strom, der sonst abgeregelt werden müsste, für weitere Anwendungen, etwa im Wärmebereich, nutzen.“

Hier findet man ein typisches Merkmal der Energiewendepolitik: Den Versuch, die Physik zu ignorieren. Man könnte das in Lehrbüchern nachlesen; Prof. Dr.-Ing. Robert Heß, Westfälisches Energieinstitut an der Hochschule Gelsenkirchen, erläuterte es noch einmal:

„Aus technischer Sicht hat die Thermodynamik mit der Exergie seit Langem ein quantifizierbares Maß für die Wertigkeit der unterschiedlichen Energieformen eingeführt. Elektrische Energie ist reine Exergie und höchstwertig. Wärme hingegen ist nur auf hohem Temperaturniveau hochwertig; niedertemperierte Wärme ist minderwertig.

Einseitige rein energetische Beurteilungen ohne Berücksichtigung der Exergie enthalten dem zur Folge keine Aussagen zur Energiewertigkeit und sind unvollständig.

Das Exergie-Gebot bedeutet für die Orientierung der Energiewende: Hochwertige Energieträger dürfen nicht ausschließlich zur Deckung energetisch geringwertiger Energiebedürfnisse eingesetzt werden.

Eine Energiewirtschaft, die auf der Basis angeblich kostenloser überschüssiger elektrischer Energie aus Windenergie- und Photovoltaikanlagen die elektrische Direkt-Raumheizung rechtfertigt, verstößt eklatant gegen dieses Exergie-Gebot.

Elektrische Energie als Edelenergie muss, falls überschüssig angeboten, „verwertet“, das heißt, in erster Linie gespeichert werden. Es fehlen aber zur Zeit integrierte Systemlösungen mit Energiespeichern.

Nicht der einseitige Ausbau einzelner Systemkomponenten zur Nutzung regenerativer Energien, wie bisher bei Photovoltaik und Windenergieanlagen, ist zukunftsfähig, sondern nur die Realisierung integrierter Systemlösungen – zum Beispiel Photovoltaik nur in Verbindung mit passgenauen Speicherlösungen, unterstützt durch intelligentes Bedarfs- und Angebotsmanagement in einem vernetzten Gesamtsystem.

Diesen Aspekt haben die politischen Fördermechanismen in der Vergangenheit nicht beachtet, da keine Systemlösungen verlangt wurden.“

Trotzdem kann man davon ausgehen, dass dieser physikalische Unfug von der Regierung nicht nur empfohlen, sondern auch unterstützt wird. Es entspräche dem intellektuellen Niveau der Verfasser des Koalitionsvertrages.

Zur Reform des Fördersystems:

„Die Förderung der Erneuerbaren will die Koalition mit Blick auf bezahlbare Strompreise kosteneffizienter gestalten. Überförderungen werden wir schnell und konsequent bei Neuanlagen abbauen.“ 

Eine spürbare Reduzierung der EEG-Förderung hat es nur bei der Verwendung von Biomasse gegeben. Die Photovoltaik boomt weiterhin, was die chinesischen Produzenten freuen wird. Ebenso wird die Windkraft nach wie vor „überfördert“, was an dem enormen Zuwachs 2014 zu erkennen ist. Eine besondere Absurdität besteht in den erhöhten Förderungssätzen für Windkraftanlagen, die in sogenannten Schwachwindgebieten errichtet werden. Dass dort die Stromproduktion selbst beim Bau von riesenhaften „Schwachwind-WKA“ viel niedriger ist als in den geeigneten Gebieten, liegt wiederum an der unpolitischen Physik. Konsequent und das Gegenteil der Verschwendung von Subventionen wäre ein Förderungsverbot für WKA in Schwachwindgebieten.

Auch die Offshore-Windkraft erfreut sich nach wie vor besonders hoher Subventionen; hier entsteht das nächste Milliardengrab.

 

Zur Reform des EEG:

„Zur Aufrechterhaltung der Versorgungssicherheit in Deutschland muss der wirtschaftliche Betrieb notwendiger Kapazitäten konventioneller und flexibel einsetzbarer Kraftwerke in bezahlbarer Weise möglich bleiben.“ 

Schöne Worte, die man beherzigen sollte. Die Tatsachen sprechen eine andere Sprache: Bei der Bundesnetzagentur häufen sich die Stilllegungsanträge der Kraftwerksbetreiber. Gaskraftwerke fahren nur noch Verluste ein; Steinkohlekraftwerke sind bereits zum Teil unrentabel. Neubauten unterbleiben, da es keine Investoren mehr gibt. Selbst Pumpspeicherkraftwerke verdienen kein Geld mehr; auch hier liegt die Mehrzahl der wenigen konkreten Neubaupläne auf Eis. Stadtwerke geraten selbst mit ihren Heizkraftwerken in die Verlustzone; Kommunen kommen dadurch zusätzlich in Finanzprobleme.

Grund für diese gefährliche Entwicklung ist das EEG. Der enorme Überschuss an billigem, weil subventioniertem Solar- und Windstrom, der wetterabhängig und nicht zu Zeiten des Bedarfs mit dem Einspeisevorrang zwangsweise ins Netz gedrückt wird, drückt die Preise an der Strombörse auf ein Niveau, bei dem konventionelle Kraftwerke nichts mehr verdienen können. Abschalten erzeugt dann weniger Verluste als Stromerzeugung.

Nur durch gesetzliche Maßnahmen, die es der Bundesnetzagentur erlauben, Stilllegungen für ein Jahr zu verbieten und sogar den späteren Weiterbetrieb der Anlagen gegen Vergütungen anzuordnen, kann das Wegbrechen eines großen Teils der konventionellen Kraftwerkskapazität noch vorübergehend verhindert werden.

Die o.a. Formulierung im Koalitionsvertrag ist daher der blanke Hohn.

 

Zur Markt- und Systemintegration:

„Das EEG ist ein Instrument zur Markteinführung von Erneuerbaren Energien. Sie sollen perspektivisch ohne Förderung am Markt bestehen.“ 

Die einzige „erneuerbare Energie“, die schon lange am Markt besteht, ist die Wasserkraft. Alle anderen grünen Energiearten, deren Förderung im EEG festgelegt wird, sind und bleiben dermaßen unwirtschaftlich, dass sie dauerhaft subventioniert werden müssen, weil ansonsten ihre Anwendung wegfällt. Hinzu kommen ihre negativen Umweltauswirkungen (Flächenverbrauch, Landschaftsverschandelung, Grundwassergefährdung, Zerstörung von Waldflächen, Gefährdung von Greifvögeln, Gesundheitsgefahren durch Lärm und Infraschall, Umweltgefährdung durch die PV-Herstellung).

Der Versuch der Markteinführung von unwirtschaftlichen Techniken mit dem Ziel, sie sich anschließend ohne weitere Subventionen im Markt bewähren zu lassen, ist prinzipiell zum Scheitern verurteilt, weil wegen dieser problemlosen Absatzsituation praktisch kaum eine Weiterentwicklung erfolgt, wie ausgerechnet die von der Regierung selbst eingesetzte  Expertenkommission EFI in ihrem Gutachten von 2014 bestätigt hat.

Das EFI-Gutachten

Die „technologiespezifischen Innovationswirkungen des EEG in Deutschland“ wurden insbesondere von der hochrangig besetzten Expertenkommission zu Forschung, Innovation und technologischer Leistungsfähigkeit Deutschlands (EFI) beurteilt, die von der Bundesregierung zu ihrer Beratung eingesetzt wurde.

In diesem im Februar 2014 überreichten Gutachten stehen deutliche Sätze:

„Ein wichtiger Indikator für die Innovationsfähigkeit eines Landes oder einzelner Branchen ist die Anzahl der Patentanmeldungen. Empirische Studien, welche auf dieser Basis die Innovationswirkung einer Absatzförderung von erneuerbaren Energien in Deutschland bewerten, zeichnen kein positives Bild.“

„Eine aktuelle Analyse, die speziell die Innovationswirkung der Einspeisevergütungen des EEG von 2000 bis 2009 technologiespezifisch untersucht, findet in keinem Technologiebereich einen positiven Zusammenhang. Die festen Einspeisevergütungen des EEG bieten keinen Anreiz zur Entwicklung neuartiger Technologien.“

„Unternehmen haben einen erhöhten Anreiz, ihre knappen Ressourcen zum Ausnutzen bestehender Marktpotenziale einzusetzen, anstatt Forschung und Entwicklung zu betreiben.“

„Das EEG lässt sich damit auch aus innovationspolitischer Sicht in seiner jetzigen Form nicht rechtfertigen. Es entfaltet gerade in denjenigen erneuerbaren Technologien, in die der Großteil der EEG-Förderung fließt – der Photovoltaik, der Windenergie und der Biomasse – nach derzeitigem Erkenntnisstand keine messbare Innovationswirkung.

Die Expertenkommission kommt zu dem Schluss, dass das EEG weder ein kosteneffizientes Instrument für Klimaschutz ist noch eine messbare Innovationswirkung zu entfalten scheint. Aus diesen beiden Gründen ergibt sich deshalb keine Rechtfertigung für eine Fortführung des EEG.“

Die Bundeskanzlerin hat am 26. Februar 2014 dieses Gutachten ihrer eigenen Expertenkommission, das dieses vernichtende Urteil ihrer Politik enthielt, dankend entgegen genommen. Es blieb ohne jede Folge.

 

Einspeisevorrang:

„Der Einspeisevorrang für die Erneuerbaren Energien wird beibehalten.“ 

Damit wird die Ausplünderung der Stromverbraucher durch die weiter steigende EEG-Umlage und die ebenso ansteigenden Netzentgelte  (plus Mehrwertsteuer) beibehalten – und ebenso wird dafür gesorgt, dass der wirtschaftliche Niedergang der angeblich unverzichtbaren konventionellen Kraftwerke (siehe die folgende Aussage) weiter geht.

 

Zu den konv. Kraftwerken:

„Die konventionellen Kraftwerke (Braunkohle, Steinkohle, Gas) als Teil des nationalen Energiemixes sind auf absehbare Zeit unverzichtbar……So lange keine anderen Möglichkeiten (wie z.B. Speicher oder Nachfragemanagement) ausreichend und kostengünstig zur Verfügung stehen, kann Stromerzeugung aus Wind- und Sonnenenergie nicht entscheidend zur Versorgungssicherheit beitragen.“ 

Dass die Politik der Regierung die konventionelle Kraftwerkswirtschaft massiv schädigt und durch den Entzug der Absatz- und Verdienstmöglichkeiten systematisch zerstört, wird bereits oben erläutert.

Der hier zitierte Satz aus dem Koalitionsvertrag ist allerdings deshalb von Interesse, weil er in einem Anflug von Realitätssinn die Nichteignung von Sonnen- und Windstrom für die Versorgungssicherheit feststellt. Dieser Erkenntnis folgen aber keine diesem Missstand abhelfenden Maßnahmen – im Gegenteil: Der oben zitierte Satz „Der Einspeisevorrang für die Erneuerbaren Energien wird beibehalten“ legt fest, dass es so weiter geht wie bisher.

 

Pumpspeicher:

„Wir wollen, dass Pumpspeicherwerke auch künftig ihren Beitrag zur Netzstabilität wirtschaftlich leisten können.“

Die Wirklichkeit sieht auch hier anders aus.

Angesichts der riesigen Zahl von neuen Pumpspeicherkraftwerken (PSKW), die zur Abwehr von Netzzusammenbrüchen bei einem immer weitergehenden Ausbau von Wind- und Solarstromkapazität entscheidend und unverzichtbar wären, ist die Liste der geplanten und zugleich auch chancenreichen Neuanlagen sehr kurz – dafür wird die Liste der abgebrochenen Vorhaben und die der Stilllegungsanträge länger.

Es gibt wenig positive und viele negative Nachrichten:

Selbst in der Schweiz droht den Wasserkraft- und Pumpspeicherkraftwerken durch den

Deutschen EEG-Billigstrom die Pleite. Die Axpo AG, größter Schweizer Stromerzeuger aus Wasserkraft beschreibt die wirtschaftliche Situation als „alarmierend“. Im Sommer werde man angesichts der importierten Strommengen bald gezwungen sein, das Wasser an den Turbinen vorbei zu leiten, wie Axpo-Verwaltungspräsident Robert Lombardini sagte. Jede Investitionstätigkeit sei eingestellt worden; auch gebe es kaum Aussicht auf die 1000-MW-Erweiterung der PSKW der Kraftwerke Linth-Limmern AG.  300 Axpo-Mitarbeiter seien bereits entlassen worden.

Damit bedroht die deutsche Energiewende ausgerechnet die Projekte, die aus Sicht ihrer Berliner Strategen von zentraler Bedeutung sind: Die Alpen-Pumpspeicherkraftwerke, die von Politikern als „Batterien Europas“ angepriesen werden.

Die Energiewende hat das Geschäftsmodell der Pumpspeicherkraftwerke ruiniert. Weil die Kernkraftwerke vom Netz gehen müssen, können die Speicheranlagen nachts keinen billigen Kernkraftstrom mehr kaufen und müssen den teureren Braunkohlestrom beziehen. Die Abgabe von teurem Spitzenlaststrom um die Mittagszeit, wenn der Strombedarf am höchsten ist, war bisher die Haupt-Einnahmequelle der Pumpspeicherkraftwerke. Jetzt ist gerade um die Mittagszeit die gesetzlich privilegierte Stromeinspeisung der mit Milliarden-Subventionen geförderten Photovoltaikanlagen als riesiger Überschuss im Netz und lässt den Börsenpreis für Strom massiv fallen. Die Anlagen schreiben deshalb sämtlich Verluste. Der Bau neuer Speicherwerke trifft also nicht nur auf den Widerstand der Bürger, es springen die Investoren ab, denn wer möchte Verlustbringer  finanzieren?  Und wer ahnt die künftigen kurzfristigen Schachzüge einer hektischen Energiepolitik, die jede langfristige Ertrags- und Renditekalkulation zunichte macht?

Speicher 2

„Bei einem hohen Anteil an Erneuerbaren Energien brauchen wir auch Langzeitspeicher, die saisonale Schwankungen ausgleichen können, wie z.B. Power-to-Gas.“ 

Dieser Satz enthält zwei interessante Aussagen: Erstens werden als notwendige Langzeitspeicher Pumpspeicherkraftwerke (PSKW) nicht als Beispiel genannt. Fast könnte man die Einsicht in die Tatsache vermuten, dass für einen Ausgleich der wetterabhängigen, extremen Schwankungen der Solar- und Windstromeinspeisungen über 2000 (zweitausend) neue PSKW gebraucht werden, während im optimistischsten Fall gerade einmal 1 Prozent dieser Anzahl in Deutschland errichtet werden könnten – wenn es die Bürgerinitiativen zulassen würden, was nicht der Fall ist. Selbst die bestehenden PSKW werden durch das EEG wirtschaftlich massiv geschädigt (s.o.).

Es ist unter sämtlichen Fachleuten unstrittig, dass es für Pumpspeicher keine technisch und wirtschaftlich sinnvolle Alternative gibt und es auch in den kommenden 30 Jahren nicht geben kann. Man hat es hier wieder einmal mit dem Todfeind der Berliner Energiepolitiker zu tun: Der Physik.

Im Koalitionsvertrag hätte zu diesem Thema folglich ein Eingeständnis stehen müssen, dass die ganze Energiewende wegen des nicht behebbaren Fehlens einer riesenhaften Langzeit-Speicherkapazität für Strom von vornherein zum Scheitern verurteilt war.  Das wollte man nicht. Deshalb wird die Stromspeicher-Technik „Power-to-Gas“ genannt, als ob sie tatsächlich jemals zur Anwendung kommen könnte.

Das damit gemeinte Verfahren besteht aus mehreren Prozessstufen, die stets mit Verlusten behaftet sind: Die Elektrolyse von Wasser mit dem „grünen“ überflüssigem Strom, daraus dann Wasserstoff, dessen Speicherung, dann die Methan-Herstellung aus dem Wasserstoff , dann die Verbrennung des Methans in Gasmotoren oder Gasturbinen – mit der Stromerzeugung am Ende. Auf diesem Wege sind ca. 85% der ursprünglichen elektrischen Energie in nutzlose Niedertemperaturverluste verwandelt worden und die so gespeicherte und wieder ins Netz abgegebene Kilowattstunde kostet 1,00 bis 2,00  2 Euro. Solche Projekte werden mit Steuermitteln allen Ernstes gefördert.

 

Klima 1

„Die Erreichung ambitionierter europäischer Klimaschutzziele darf nicht zu Nachteilen für energieintensive und im internationalen Wettbewerb stehende Industrien führen und ist so zu gestalten, dass Carbon Leakage vermieden wird.“

Ein Widerspruch in sich, denn „ambitionierte“ Klimaschutzziele und mit „Klimaschutz“ begründete Strompreisbelastungen – wie das EEG – bedeuten Strafpreise für CO2-Emissionen und damit eine direkte Gefährdung energieintensiver Industrien. Die Abwanderung ins Ausland hat längst begonnen, weitere Unternehmen aus der Chemie, der Stahlbranche und der Rohstoffindustrie werden und müssen folgen, wenn sie wettbewerbsfähig bleiben und dem Bankrott entgehen wollen. Dass man dafür im Koalitionsvertrag den englischen Begriff Carbon Leakage (etwa Kohlenstoff-Abfluss) verwendet, zeugt von der Denkweise der Koalitionäre: Es betrübt sie einzig und allein, dass auf diese Weise die bösen CO2-Emissionen ins Ausland abwandern. Der Verlust an Arbeitsplätzen ist ihnen gleichgültig. 

Klima 2,  Treibhausgas-Emissionen

„In Deutschland wollen wir die weiteren Reduktionsschritte im Lichte der europäischen Ziele und der Ergebnisse der Pariser Klimaschutzkonferenz 2015 bis zum Zielwert von 80 bis 95 Prozent im Jahr 2050 festschreiben….(Klimaschutzplan).“

Da die Koalitionäre wohl nicht dem Beispiel Frankreichs folgen möchten, mehr als drei Viertel der deutschen Stromerzeugung künftig durch Kernkraftwerke bewerkstelligen zu lassen (nach EU-Definition wäre das eine vorbildliche „Klimaschutz-Strategie“), weil Kohlekraftwerke treibhausgasmäßig undiskutabel sind und Gaskraftwerke leider auch viel mehr Treibhausgase erzeugen, als hier erlaubt wird, bleiben Deutschland nur die auch nicht ganz treibhausgasfreien „Erneuerbaren“ für die „80 bis 95 Prozent im Jahr 2050“.

Diesen Unsinn muss man nicht mehr kommentieren.

Es bleibt nur die Frage, was von Leuten zu halten ist, die im Jahre 2013 den kommenden zwei Generationen Vorschriften über ihre Wirtschafts- und Umweltpolitik machen wollen. 

Erneuerbare Energien

„Der weitere Ausbau der Erneuerbaren Energien erfolgt in einem gesetzlich festgelegten Ausbaukorridor: 40 bis 45 Prozent im Jahre 2025, 55 bis 60 Prozent im Jahr 2035.“

Auch hier fällt zunächst der großartige Planungshorizont bis zum Jahr 2035 auf, der somit 20 Jahre in die Zukunft reicht, was 4,5 weitere Legislaturperioden und 4 neue Regierungen bedeutet, denen die große Koalition schon jetzt mal sagt, was sie künftig zu tun haben. Aber Papier ist bekanntlich geduldig.

Zu der Frage, welchen Anteil die „Erneuerbaren“ maximal an der Stromerzeugung erreichen können, gibt es längst seriöse fachliche Ergebnisse: Weil sowohl Windstrom wie auch Solarstrom wetterabhängig und prinzipiell unzuverlässig anfallen, zählt man sie nicht zu der „gesicherten Leistung“, die jederzeit in das Netz eingeleitet und sofort genutzt werden kann.

In den Wintermonaten beträgt der maximale Leistungsbedarf 85.000 MW ; dieser muss absolut sicher und zuverlässig vom System der Stromerzeuger bereitgestellt werden. Weil gerade im Winter die Erzeugung von Solarstrom besonders niedrig ist (nachts sowieso nichts; tagsüber wenig Tageslichtstunden; bedeckter Himmel; Schnee auf den Kollektoren) und weil bei einem Hochdruckgebiet alle deutschen Windräder still stehen – manchmal zwei Wochen lang – ist die Bewertung „kein Beitrag zur gesicherten Leistung“ richtig. Das geht aus einem Artikel von Yvonne Dyllong und Uwe Maaßen vom Nov. 2015 hervor, die aus den Daten von 2013 folgende Ergebnisse erhielten:

– Die zusammen installierten 69.100 MW PV- und Windleistung lieferten das ganze Jahr 2013 eine sichere Leistung von nur 100 MW = 0,15%; allein von der Windkraft.  PV = Null.

– Nimmt man an, dass die gesamte bisher installierte Wind- und PV-Kapazität in den kommenden Jahren noch einmal verdoppelt wird, steigt deren gesicherte Leistung auf klägliche 200 MW=0,3%. Dazu gibt es jedoch Leistungsspitzen von über 60.000 MW, die vom Netz überhaupt nicht mehr verkraftet werden könnten. Also Abschaltung.

Der Strom aus der Steckdose kommt dann immer noch überwiegend von konventionellen Kraftwerken (Kohle, Gas, Kernkraft), ergänzt durch Stromimporte (Kohle- und Kernkraftwerke, Wasserkraft) und etwas inländische Wasserkraft und Biogas-Strom. Nach Berechnungen der dena von 2012 wird in Deutschland selbst noch 2050 eine fossile Grundlast-Stromversorgung von 61.000 MW existieren  müssen, egal, wie viele Windräder und PV-Anlagen noch installiert werden.

Diese Situation ändert sich daher auch dann nicht im Geringsten, wenn für weitere Milliarden Euro, die den deutschen Stromkunden abgenommen werden, zehntausende neue Windräder oder hunderttausende neue chinesische Photovoltaik-Module installiert werden. Das ist der Plan der großen Koalition zur angeblichen Klimarettung, aber es ist nur ein Plan zur sinnlosen Vernichtung von Milliarden und zur Umweltzerstörung.

 

Damit ist zu den Zielen aus dem Koalitionsvertrag festzustellen:

– Der 40-45-prozentige Anteil der „Erneuerbaren“ an der Stromerzeugung im Jahr 2025 ist eventuell mit einer Ruinierung der Bürger und des Staatshaushalts knapp erreichbar, aber sowohl unbezahlbar wie auch für die Energieversorgung vollkommen nutzlos.

– Der 55-60-prozentige Anteil im Jahr 2035 ist unerreichbar, weil zuvor auch die Stromversorgung zusammenbricht.

 

Kosten der Energiewende

„Die EEG-Umlage hat mittlerweile eine Höhe erreicht, die für private Haushalte und weite Teile der Wirtschaft, insbesondere auch mittelständische Wirtschaft, zum Problem wird, wenn es nicht gelingt, die Kostendynamik zu entschärfen. Mit der grundlegenden Reform, auf die wir uns verständigt haben, wollen wir Ausmaß und Geschwindigkeit des Kostenanstiegs spürbar bremsen, indem wir die Vergütungssysteme vereinfachen und die Kosten auf einem vertretbaren Niveau stabilisieren.“

Die unaufhaltsam steigende EEG-Umlage ist also noch gar kein Problem, sondern wird erst eins, „wenn es nicht gelingt, die Kostendynamik zu entschärfen“. Leider hat die Regierung an der Entschärfung der Kostendynamik kein Interesse, was ihre weiteren massiven Ausbaupläne bei der Photovoltaik, der Land- und Offshore-Windkraft beweisen. Das und nichts anderes treibt die Kostendynamik – und es ist gewollt. Hinzu kommt der Netzausbau, der die Netzentgelte in die Höhe treibt – siehe den nächsten Abschnitt.

Eine „grundlegende Reform“ hat es bisher nicht gegeben und es wird auch keine geben, weil über allem die extremen Ausbauziele für die „Erneuerbaren“, die hier mehrfach zitiert werden, zu den heiligen Grundsätzen der Energiepolitik dieser Regierung gehören.

Diesen Anstieg ganz bewusst zu fördern und zugleich darüber in dunklen Andeutungen von einem Bremsen der Geschwindigkeit des Kostenanstiegs (der also weitergehen soll, nur langsamer) zu fabulieren, ist schon so etwas wie das Orwell’sche Zwiedenken. 

Kosten 2: Netzentgelte

„Die Kosten für die Bereitstellung der Netzinfrastruktur müssen künftig stärker abgebildet werden, zum Beispiel durch die Einführung einer generellen Leistungskomponente im Netzentgelt…und die Beteiligung der Einspeiser an den Kosten der Netzinfrastruktur und des Netzbetriebs.“ 

Diese Absichtserklärung hat den Zweck, die von den Stromkunden zunehmend als unverständlich und ärgerlich empfundenen Erhöhungen des Strompreises in ihrem andauernden Anstieg – auch durch ihren Bestandteil „Netzentgelte“ – etwas abzumildern. Dieser Kostenanteil wird inzwischen zu 51% durch den Staat bestimmt und dessen weiterer, erheblicher Anstieg ist durch den beschlossenen Netzausbau (zunächst für die großen Nord-Süd-Trassen zum Windstrom-Transport) vorprogrammiert.

Es entspricht im Grunde sogar der Logik, die „Einspeiser“ von Strom damit zu belasten, weil insbesondere die Produzenten von Wind- und Solarstrom die wachsenden Probleme im Stromnetz verursachen, die es ohne diese Grünstrom-Einspeiser gar nicht geben würde. Das wäre neu und sogar richtig. Aber dieser Logik folgten in den ersten zwei Jahren der GroKo keine Konsequenzen. Denn gleichgültig, was die Wind- und Solarstromerzeuger für Probleme verursachen; sie werden grundsätzlich geschont und stattdessen andere beteiligte an der Stromversorgung belastet.

Wenn die Regierung also tatsächlich wie angekündigt den Anstieg der Netzentgelte abmildern will, muss man sich wohl darauf einstellen, dass die Lobby der sog. Erneuerbaren von Belastungen verschont wird und dass diese der konventionellen Kraftwerkswirtschaft auferlegt werden. Das dann verbunden mit der Beschimpfung, dass sie nun ihre Abgabepreise erhöht hätten.

 

Neue Rolle für konventionelle Kraftwerke

„Um kurzfristige Risiken für die Versorgungssicherheit zu vermeiden, werden wir darüber hinaus dafür sorgen, dass die Bundesnetzagentur ….auf Grundlage der Reservekraftwerksverordnung die Errichtung neuer regional erforderlicher Kraftwerkskapazitäten zügig prüft und gegebenenfalls sicherstellt.“ 

In der gesamten Energiewirtschaftlichen Literatur wird festgestellt, dass es keine Investoren mehr gibt, die ihr Geld für Kraftwerksneubauten ausgeben wollen. Hauptgrund ist das nicht mehr vorhandene Vertrauen in eine beständige und verlässliche Politik, die eine Investition rechtfertigen könnte, die mindestens 25 Jahre eine auskömmliche Rendite bringt. Daran tragen die Regierung mit ihren zahlreichen Eingriffen in den Markt, aber auch die hier angesprochene Bundesnetzagentur die alleinige Schuld. Die Bundesnetzagentur wird daher leider nichts mehr „zügig zu prüfen und gegebenenfalls sicherzustellen“ haben.

Das Porzellan ist restlos zerschlagen und die Glaubwürdigkeit der Regierung ebenfalls.

 

Kernkraft

„Wir erwarten von den Kernkraftbetreibern ihre Mitwirkung an der Energiewende.“

Das ist erstaunlicherweise eine eingetretene Erwartung. Denn abgesehen von einigen Schadensersatzklagen wegen des Kernkraftmoratoriums haben sich die Kernkraftbetreiber erstaunlich friedlich, geradezu demütig verhalten und sehen ihrem von der Regierung organisierten Untergang offenbar gefasst entgegen. Ein Grund dafür mag auch in der Haltung der wichtigsten Industriegewerkschaft IGBCE liegen, deren Chef Michael Vassiliadis unmittelbar nach der Entscheidung vom 6.8.2011, die ersten 7 Kernkraftwerksblöcke außer Betrieb zu nehmen, laut und deutlich seine Zustimmung zum Kernkraftausstieg verkündete und damit die baldige Arbeitslosigkeit seiner Kollegen in den Kraftwerken ungerührt in Kauf nahm. Damit gab es keinerlei wirksame Unterstützung mehr für die Betreiber. Inzwischen begleiten insbesondere die Vorstände von E.ON und RWE den Zusammenbruch ihrer Konzerne mit rührender Fernsehwerbung für die Energiewende, an der sie in der Tat noch mit einigen Wind- und Solarstromprojekten beteiligt sind.

 

Ein Resumé

Man schwankt zwischen Belustigung und Verzweiflung, wobei Letzteres überwiegt.

Es stellen sich Fragen: Wie konnte es geschehen, dass die zwei größten politischen Parteien mit ihrem zweifellos vorhandenen energiewirtschaftlichem Sachverstand und mit den analytischen Fähigkeiten der vielen Abgeordneten ihrer Fraktionen ein derartiges Machwerk produzierten ?

Wo blieben die Warner, die offensichtlich unsinnige Absichtserklärungen hätten verhindern müssen ?  Weshalb wurden keine ausgewiesenen, ideologiefreien Fachleute hinzugezogen ? Welcher hochrangige Politiker, der für den Posten des Wirtschaftsministers in Frage kam, konnte diesen Sprengsatz aus unrealistischen Ankündigungen dulden, der ihn spätestens in der zweiten Hälfte der Legislaturperiode zum Gegenstand von Kritik und vor allem Spott machen und ihm den Stempel „gescheitert“ aufdrücken wird ?

Aber zu diesen Fragen, die die Entstehung dieses Teils des Koalitionsvertrags betreffen,  kommt jetzt 2 Jahre danach die nicht minder verstörende Erkenntnis hinzu, dass die neue Regierung ihren Apparat – die Ministerien und deren nachgeordneten Behörden – gezwungen hat, den Katalog an Ankündigungen ernst zu nehmen und abzuarbeiten. Das Ergebnis sind neue Gesetze und Verordnungen, die die Energiewirtschaft weiter in eine Planwirtschaft umwandeln – und damit die unheilvolle Politik der Vorgängerregierung aus CDU/CSU und FDP fortsetzen, was man leider feststellen muss.

Auch wenn es noch so unwahrscheinlich erscheint: Wir müssen die Tatsache akzeptieren, dass die im Koalitionsvertrag beschriebenen Ziele und Absichtserklärungen mangels einer kritischen parlamentarischen Opposition ohne Zögern und allen Ernstes weiter verfolgt werden und dass dies erst dann ein Ende finden wird, wenn der Wirtschaft schwerste Schäden zugefügt worden sind und die durch Steuern und Abgaben ausgeplünderten Bürger der Politik dafür die Quittung geben.




Heartland Institute: UN-Klimaabkommen „zahnlos, wahnhaft“

Angesichts der Präsenz von 40.000 Umweltaktivisten, Politikern, Bürokraten und professionellen Protestierern bei COP21 könnte man meinen, dass das Verhältnis zur Heartland-Delegation (1000 zu 1) eine entmutigende und unmögliche Aufgabe wäre. Nichtsdestotrotz zeichnete sich die Heartland-Delegation durch solide Wissenschaft, reale Ökonomie und gesunden Menschenverstand aus, was in Paris auch gehört wurde.

Am Mittwoch, dem 16. Dezember moderierte das Heartland Institute zwei Lagebesprechungen, dass und wie die Heartland-Delegation tatsächlich in der Lage sein könnte, die Parade der Globale-Erwärmung-Alarmisten zu verwässern – ein mittägliches Ereignis beim Union League Club in Chicago und dann noch einmal im Hauptquartier von Heartland. Drei Mitglieder aus dem Vorstand von Heartland, nämlich Vizepräsident James Taylor (externe Kommunikation), Jim Lakely (Direktor der Kommunikation) und Keely Drukala, Stellvertreterin von Lakely (deren Professionalität in der französischen Sprache ein gewaltiges Plus war), berichteten von ihren Abenteuern in Frankreich und vermittelten Einsichten in das wirkliche Ergebnis von COP21. Hier kann man dieses Briefing bei Arlington Heights über COP21 hören.

Gründe der Teilnahme von Heartland bei COP21

Warum aber hielt es Heartland für so wichtig, eine Delegation zu COP21 zu entsenden, wenn es dies doch bei keiner UN-Konferenz zuvor getan hatte? Auslöser war die zuvor erfolgte Reise des Präsidenten und geschäftsführenden Direktors von Heartland Joe Bast zum Vatikan (hier) im April diesen Jahres (2015). Das löste ernsthafte Überlegungen aus, die Teilnahme an COP21 in Paris in Betracht zu ziehen. Besondere Bedenken erhoben sich darüber, wie der Papst zum Klimaalarmisten für die UN wurde in Gestalt seiner Proklamation, dass die Menschen Ursache einer Klimakrise seien. Da außerdem diese Nation [die USA] durch die aufgedrückten Kohlenstoff-Restriktionen eingeengt ist, die nicht zurückgefahren werden können, muss Big Government Widerstand geleistet sowie Freiheit und die freien Märkte geschützt werden.

Auf der Haben-Seite erzeugte das Heartland-Ereignis beim Vatikan direkt Nachrichten [aber nicht hier in D! Anm. d. Übers.] anderen Inhalts als die unbestreitbaren Verzerrungen der Medien hier in den USA. Ergebnis: Heartland sorgte in Rom für internationale Nachrichten, die in der ganzen Welt gehört wurden.

Befeuert durch die Erinnerung an eine ehrlichere mediale Berichterstattung während des Aufenthaltes von Heartland in Rom – abgehalten einen Steinwurf entfernt vom Vatikan – wurde eine Woche vor der Eröffnung des Pariser Gipfels beschlossen, dass Heartland nach Paris reisen sollte, um an COP21 teilzunehmen, wurde diese Veranstaltung doch als die letzte Chance für die versammelten 196 Nationen proklamiert, die Welt zu retten. Mit Hilfe von Spendengeldern wurde die Heartland-Delegation nach Paris entsandt. Koffer wurden gepackt, Flüge arrangiert und Hotelreservierungen vorgenommen, und zwar am Hotel California in Paris.

Als bekannt wurde, dass Heartland nach Paris gehen würde, sandten Universitäts-Professoren in Kanada einen auch vom UN-Botschafter der USA unterschriebenen Brief an die UN mit der Forderung, das Heartland Institute krimineller Vergehen anzuklagen, weil es Lügen bzgl. des Klimawandels verbreite. Ebenso ging ein Brief an Interpol, in dem Heartland Drogenschmuggel vorgeworfen wurde. All dies bewies aber nur, dass Heartland eine effektive und unerwünschte Herausforderung für die auf falscher Wissenschaft basierende propagierte Klimawandel-Doktrin war. Dabei wurde James Taylor persönlich angegriffen. Sein Konterfei fand sich zusammen mit sieben anderen Persönlichkeiten auf einem „Wanted“-Poster unter dem Vorwurf der Einschüchterung und der Belästigung. Das Plakat wurde in ganz Paris angeschlagen.

Der „Tag der Daten-Untersuchung“ von Heartland

Der 7. Dezember 2015 wurde als der „Tag der Untersuchung der Daten seitens des Heartland Institutes“ proklamiert. Er begann mit einer 1 Stunde langen Pressekonferenz um 9 Uhr in Paris. Obwohl es zur gleichen Zeit erst 2 Uhr nachts war, zog die Pressekonferenz 1800 Personen an, die am gesamten oder an Teilen des Programms teilnahmen. Als Clowns verkleidete Protestierer versuchten, in den Raum zu gelangen, aber die Türen waren blockiert. Leider haben die Medien nicht eine einzige Frage während der gesamten Pressekonferenz über die Wissenschaft der globalen Erwärmung gestellt, sondern nur die Finanzierung von Heartland hinterfragt.

Das von Heartland präsentierte siebenstündige Programm am 7. Dezember enthielt die folgenden Programmpunkte. Die gesamte Veranstaltung kann hier eingesehen werden.

● Pressekonferenz

● Tag der Untersuchung der Daten seitens des Heartland Institute

● Fred Singer, Ph.D., SEPP.

● Robert Carter, Ph.D., NIPCC.

● Willie Soon, Ph.D., NIPCC.

● Christopher Essex, Ph.D., University of Western Ontario.

● James Taylor, Heartland Institute.

● Patrick Moore, PhD., Ecosense (zur Ozean-Versauerung).

● Patrick Moore, Ph.D., Ecosense (zur Energiepolitik).

● Nicolas Loris, Heritage Foundation.

● Wolfgang Müller, EIKE, Generalsekretär des EIKE.

● Lord Christopher Monckton, Science and Public Policy Institute.

● Jim Lakely, Heartland Institute (Schlussworte)

Briefings der Teilnehmer 

Es folgen die Höhepunkte der Erfahrungen, die man bzgl. Arlington Heights gemacht hatte:

● James Taylor: Auf einer Veranstaltung von COP21 war auch eine Rede von Al Gore geplant. James Taylor und Jim Lakely vom Heartland Institute kamen früh, um an dieser Veranstaltung teilzunehmen. Darum war es ihnen möglich, weit vorne zu sitzen, nachdem man ihnen den Beobachter-Ausweis angeheftet hatte. Wie das so ging, Fragen wurden nur von Personen entgegen genommen, die in den ersten vier Reihen saßen. Jims Frage an Al Gore, die nicht sein sollte, war eine sehr gute Frage: Ich bewundere die Leute wirklich, die das praktizieren, was sie predigen. Welches Transportmittel haben Sie zur Überquerung des Atlantiks benutzt? Welches Transportmittel haben Sie hier in Paris genutzt? Es war mit Sicherheit nicht die Pariser Metro!

● Jim Lakely: Als Team nahmen Jim Lakely und James Taylor an einem Treffen des National Research Defense Council teil. Von den 40.000 Teilnehmern an COP21 waren vielleicht etwa ein Dutzend Personen zugegen. Bei so wenigen Leuten gab es keine Möglichkeit, Jim Lakely zu ignorieren. Gepriesen vom Redner wurde Indien mit dem Ziel des Landes, 40% seiner Energie aus sauberer Energie zu gewinnen. Falls Indien das kann, warum können nicht alle anderen Länder das auch? Darauf fragte Jim Lakely: Wie will Indien diese Marke von 40% erreichen? Welchen Anteil haben Kern- oder Wasserkraft? Die Antwort kann dem Auditorium nicht gefallen haben (außer Jim Lakey und James Taylor natürlich), musste doch der Redner mit Überheblichkeit einräumen, dass Indien seine Investitionen in Kernkraft nicht nur fortsetzt, sondern auch noch ausweiten will.

Keely Drukula: Als jemand, der fließend französisch sprach und der jedes Jahr öfter nach Paris kommt, um Freunde zu besuchen, war Drukula die richtige Frau, um über die Stimmung der Pariser im Zuge der Ereignisse vor ein paar Wochen zu sprechen. Wenn sie gedacht hatte, dass es viele Protestierer geben würde – neben den 1000 „Wanted“-Postern – fand sie ziemlich normale Verhältnisse in Paris. Die Pariser gingen einfach ihrem Alltag nach. Die Ausnahme waren lediglich die zusätzlichen und unübersehbaren Sicherheitsmaßnahmen. Drukula fand zwei Terrorismus-Alarme am Pariser Flughafen bei der Rückkehr nach Hause viel nervender als ihre Zeit in Paris.

CPAC und CEI waren bei COP21 Aliierte von Heartland, ebenso wie das Europäische Institut für Klima und Energie EIKE. Unmittelbar nach COP21, also am 11. und 12. Dezember hielt Heartland seine 11. Internationale Konferenz zu Klimawandel in Essen ab, zusammen mit dem EIKE (hier). Dies ist das zweite Mal, dass Heartland als Partner des EIKE eine ICCC-Tagung abgehalten hatte. Das erste Mal war dies auf der 8. Konferenz dieser Art (ICCC-8) der Fall gewesen, und zwar in München im Jahre 2012.

Das Heartland Institute war die einzige Institution, die eine organisierte Veranstaltung abgehalten hat an ihrem „Tag der Untersuchung der Wissenschaft“. Deren Teilnehmerzahl lag im Verhältnis zur Teilnehmerzahl bei COP21 im Verhältnis 1000 zu 1.

Die Insider-Information hinter den unterzeichneten Vorschlägen von COP21

Jim Bast zufolge, dem Präsidenten und geschäftsführenden Direktor des Heartland Institute, ist es schwierig, mit Personen zu diskutieren, die von Emotionen und nicht von der Wirklichkeit getrieben werden. Obwohl der Vertrag (tatsächlich eine Absichtserklärung, da ein Vertrag vom Senat genehmigt werden muss) als ein Sieg angepriesen worden ist, wurde stattdessen ein hohles und zahnloses Dokument unterzeichnet; ein einzelnes nicht bindendes Dokument, deren Wortwahl alle Nationen zugestimmt haben. Das Dokument als Solches ist nichts als eine „wahnhafte Phantasie“, der zufolge wir nur die so genannte globale Erwärmung unter 2°C drücken müssen, um die Welt zu retten. Halten wir uns nicht zum Narren: Es geht ausschließlich um die Umverteilung von Wohlstand und wer das Geld im globalen Maßstab erhalten soll. Aber selbst das ist noch nicht verbindlich. Es gab keinerlei Diskussion über den Einfluss der Sonne auf das Klima.

Für Präsident Obama war dieses zahnlose Abkommen eine Möglichkeit, sein Gesicht zu wahren und seine Teilnahme an COP21 weiterhin als wesentliches Zugeständnis anzupreisen, wenn er aus dem Amt scheidet. Hat nicht Obama schließlich proklamiert, dass die globale Erwärmung die größte Bedrohung ist, vor der die Amerikaner stehen?

Wie viel ist die amerikanische Bevölkerung willens zu zahlen, um die globale Erwärmung zu bekämpfen? Umfragen zeigen, dass das Thema weit abgeschlagen am Ende aller Bedenken liegt, die die Amerikaner umtreiben. Angesichts eines Preises von 500 Dollar pro Jahr oder mehr pro Familie gibt es keinen Zweifel daran, dass die amerikanische Bevölkerung lauthals zurückweisen würde, was Umweltaktivisten vorschlagen, wenn diese die Möglichkeit hätten, ihren Worten Taten folgen zu lassen.

Joe Bast sagte in seinen Schlussbemerkungen: der 12. Dezember 2015 repräsentiert den Tag, an dem die Bewegung der Globalen Erwärmung gestorben ist – und sie ist in Paris gestorben.

Nancy J. Thorner is a writer, cellist, and Tea Party activist based in suburban Chicago. (read full bio)

Link: http://news.heartland.org/editorial/2015/12/23/un-climate-deal-toothless-delustional-heartland-institute-says

Übersetzt von Chris Frey EIKE




CFACT präsentiert vier unbequeme Fakten über die globale Erwärmung

Es sind Folgende:

Unbequeme Fakten 1: Temperatur

„Globaler Klimatrend seit dem 16. November 1978: +0,11°C pro Dekade“ – University of Alabama, Huntsville

„Die Troposphäre hat sich längst nicht so stark erwärmt wie von fast allen Klimamodellen prophezeit“. „Nach dem Jahr 1998 liegen die gemessenen Werte unter den Simulationen, was zeigt, dass die Simulationen als Ganzes viel zu viel Erwärmung prophezeien“. – Remote Sensing Systems

„Satelliten-Analysen der oberen Atmosphäre sind genauer und sollten als Standardverfahren etabliert werden, um die globale Temperaturänderung zu überwachen“ – NASA, April, 1990

Es gibt eine „robuste“ Relation zwischen globaler Temperatur und kosmischer Strahlung … was eine weitere Bestätigung der Svensmark-Theorie ist. – National Academy of Sciences of the United States of America, August 2015

„Unter der Annahme, dass die geforderten Einschnitte bis zum Jahr 2100 verlängert, aber nicht verstärkt werden, führt dies zu etwa 0,2°C weniger Erwärmung bis zum Ende des Jahrhunderts im Vergleich mit unseren Schätzungen. – Massachusetts Institute of Technology, Energy and Climate Outlook, 2015

„Unter Verwendung des begutachteten Klimamodells MAGICC erkenne ich lediglich einen sehr geringen Einfluss der Kohlenstoff-Reduktionen, die von der EU, den USA, China und der übrigen Welt versprochen worden sind, zusammen mit dem wahrscheinlichen globalen Politik-Output. Mein Hauptergebnis ist, dass die Gesamtauswirkung sehr gering ist: unter 0,05°C im Vergleich mit unseren Schätzungen. – Global Policy, November 2015.

Die in Paris eingegangenen Verpflichtungen aller Länder = weniger als 0,05°C Differenz bis zum Ende des Jahrhunderts!

——————————————–

Unbequeme Tatsache 2: Der Meeresspiegel steigt nur 1 bis 3 mm pro Jahr – und das seit Generationen

„Der absolute Anstieg des Meeresspiegels wird vermutlich 1,7 bis 1,8 mm pro Jahr betragen“ – NOAA

Tidenmessungen entlang von Küsten beweisen, dass der mittlere Meeresspiegel MSL seit Ende des 19. Jahrhunderts mit global gemittelten Raten zwischen 1,33 und 1,98 mm pro Jahr gestiegen ist … es wurden „mögliche natürliche Trends um bis zu ~1 mm pro Jahr unterschätzt, was fälschlicherweise die Bedeutung des anthropogenen Fußabdrucks verstärkt hatte“ – University of Siegen, Nature Communications, Juli 2015 [eine durch und durch alarmistische Website! Anm. d. Übers.]

„Einer neuen Analyse von Satellitendaten zufolge zeigte der antarktische Eisschild einen Gesamt-Zuwachs von 112 Milliarden Tonnen Eis von 1992 bis 2001. Dieser Gesamt-Zuwachs verlangsamte sich auf 82 Milliarden Tonnen pro Jahr von 2003 bis 2008“.

„Die Antarktis trägt derzeit nicht zum Anstieg des Meeresspiegels bei, sondern lässt ihn um 0,23 mm pro Jahr sinken“ – NASA

„Der globale Meeresspiegel ist viel weniger sensitiv gegenüber den hohen atmosphärischen CO2-Konzentrationen als ursprünglich gedacht“ – Stanford, Geology, August 2015

Inselnationen gehen nicht unter

„Keine Insel ist verloren gegangen, die meisten haben sich vergrößert, und es gab im vorigen Jahrhundert eine Zunahme der Gesamtfläche aller Inseln um 7,3% (von 1897 bis 2013). Es gibt keine Beweise für eine erhöhte Erosion während der letzten Hälfte des vorigen Jahrhunderts durch den steigenden Meeresspiegel. Riffinseln in Funafuti passen Größe, Form und Lage immer wieder an Variationen der Grenzbedingungen an, darunter Stürme, Anschwemmen von Sedimenten und der Meeresspiegel. Die Ergebnisse geben Raum für eine optimistischere Prognose hinsichtlich der Bewohnbarkeit aller Atoll-Nationen“. Geology, März 2015

——————————————–

Unbequeme Tatsache 3: Eisbären – sechziger Jahre: 5000 Tiere ↔ Heute: über 25.000 Tiere

„Die globale Population von Eisbären beträgt derzeit etwa 26.000 Tiere. Dies sind 1000 mehr als im Jahre 2014. Schätzungen reichen von 15.000 bis 35.000 Tiere weltweit“ – International Union for Conservation of Nature

„Das arktische Meereis nimmt zu und erreichte seine größte Ausdehnung seit dem Jahr 2004“ – Denmark Ocean and Ice Services

„In der Hudson- und der James-Bay hielt sich das Eis noch bis weit in den August 2015 hinein. Berichten zufolge herrschten die schlimmsten Eisbedingungen seit 20 Jahren, wodurch die routinemäßige Belieferung mit Versorgungsgütern durch Schiffe verhindert wurde“ – NASA

„In mindestens drei ostkanadischen Gebieten mit Eisbärpopulationen gab es 2015 deutlich mehr Eis als normal“ – Canadian Ice Services

Nach einem kühlen Sommer im Jahre 2013 hat das Eis um mindestens ein Drittel zugenommen. „Dies zeigt, dass das Meereis vielleicht viel widerstandsfähiger ist“, sagte Rachel Tilling, University College London – The Guardian, Juli 2015

——————————————–

Unbequeme Tatsache 4: Extremwetter ist historisch gesehen normal

Die Autoren stellen fest: „Wir haben global eine merkliche Variabilität von Jahr zu Jahr hinsichtlich des Übertretens von Hurrikanen auf Festland identifiziert. Aber innerhalb der Auflösung der verfügbaren Daten stützen unsere Beweise nicht die Präsenz eines signifikant langzeitlichen globalen oder individuellen Trends in einzelnen Meeresgebieten. Dies gilt für schwache, starke sowie für die Gesamtzahl der Hurrikane im durch verfügbare Daten ausreichender Qualität abgedeckten Zeiträumen“ – Journal of the American Meteorological Society, Juli 2012

„Gegenwärtig reichen die Beweise nicht aus, um mehr als geringes Vertrauen in einen im globalen Maßstab beobachteten Trend zu haben hinsichtlich Dürren oder Trockenheit seit Mitte des 20. Jahrhunderts. – IPCC 5th Assessment Report

„Es gibt nur geringes Vertrauen hinsichtlich jedweder Zunahme der Aktivität tropischer Zyklone … und geringes Vertrauen, globale Veränderungen irgendwelchen speziellen Ursachen zuzuordnen“. Die Zunahme von Schäden durch Hurrikane „waren nicht schlüssig dem anthropogenen Klimawandel zuzuordnen; die meisten derartigen Behauptungen basieren nicht auf wissenschaftlichen Methoden“. Es gibt „geringes Vertrauen“ hinsichtlich der Trends bzgl. Tornados, und „die Beweise für durch das Klima getriebene Änderungen von Überschwemmungen an Flüssen sind nicht überzeugend“ – IPCC 5th Assessment Report.

„Bei genauem Hinsehen scheint es keine Zunahme von Extremwetter-Ereignissen während der letzten Jahre gegeben zu haben, jedenfalls im Vergleich zum Zeitraum 1945 bis 1977, als die mittlere Temperatur der Erde zurückgegangen war. Die Verbindung zwischen globaler Erwärmung und extremem Wetter ist mehr eine Empfindung als Realität (Kandekhar et al. 2005). Die propagierte Verbindung zwischen Erwärmung und Extremwetter wurde verstärkt durch zunehmende und unkritische Medienaufmerksamkeit in Bezug auf jüngste Extremwetterereignisse. Der jüngste IPCC-Bericht scheint die Betonung der Verbindung zwischen Erwärmung und Extremwetter eher zurückzunehmen, indem man einer Verbindung zwischen einigen der Ereignisse und der jüngsten Erwärmung des Klimas ,geringes Vertrauen‘ zuteil werden lässt“ – The Global Warming Extreme Weather Link, GWPF 2013

Read the report

Link: http://www.cfact.org/2015/12/04/cfacts-presents-the-inconvenient-facts-about-global-warming-at-cop-21-display/

Übersetzt von Chris Frey EIKE




Die neuen Energien im Jahr 2015 und im Jahr 2050 für Dummies

Der aktuelle Netzzustand

 Der Verlauf der Ökoenergie-Einspeisung im Jahr 2015  (Bild 1) zeigt im Grunde ein „friedliches“ Versorgungssystem. Deutschland-weit ist der Bedarf immer höher als die Ökostrom-Einspeisung. In Folge können (besser: müssen) die von den EEG-Befürwortern noch nicht ganz verbotenen konventionellen  Kraftwerke das Netz durch Regelung ihrer Einspeisung stabil halten. Das funktioniert, weil (noch) selten und vor allem nur lokal kurzzeitig Überangebote vorkommen und deshalb das „Wegwerfen“ von Strom z.B. durch Verschenken oder sogar mit Zuzahlung fürs Abnehmen ins Ausland möglich ist.

Trotzdem sind bereits bei diesem aktuell noch „paradiesischen“ Zustand enorme Maßnahmen nötig, um die lokalen Probleme nicht ausufern zu lassen[12].

 Bild 1 Stromverbrauch und angebotene Ökoleistung von Dez. 2014 bis Nov. 2015 (Quelle Agora-Energiewende)

 Kurze Wiederholung aus Teil 1

Das folgende Bild 2 zeigt die simulierten Ganglinien von Verbrauch und Ökostrombereitstellung beim Ausbaufaktor für 100 % netto-Bedarfsdeckung im Planjahr 2050 und Bild 3 zeigt dazu den Verlauf der Residuallast (Differenz zwischen Last und Einspeisung aus erneuerbaren Energien zu jedem Zeitpunkt (beachten: Positive Residuallast = Deckungslücke der Ökostromeinspeisung, also Energiemangel).

 

Bild 2 Simulierte Ganglinien von Verbrauch und Ökostrombereitstellung im Jahr 2050 bei 100 % Bedarfsdeckung

  

Bild 3  Jahr 2050. Simulierte Ganglinien der Residuallast mit Anzeige von positiver Ökostrombereitstellung (negative Residuallast) und negativer  Ökostrombereitstellung (positive Residuallast) bei 100 % netto-Bedarfsdeckung

 Damit niemand meint, die Simulation liegt völlig falsch, mit Bild 4 die entsprechende Darstellung aus der Fraunhofer-Studie[4]. Zu beachten ist, dass darin die Planzahlen von 2012 und deshalb ein erheblich niedrigerer Ausbau simuliert sind (die Information dazu kam im Teil 1).

 Bild 4[4] Simulation des Jahres 2050 aus Daten und Ausbaufaktoren Stand 2012

 Anhand von Bild 3 sieht man, dass die neuen Einspeiseverläufe zwischen dem positiven und negativen Bereich „beliebig“ hin- und herpendeln – was es im bisher durch Großkraftwerke dominierten Versorgungssystem nicht gab -, und damit vollkommen neue (und vor allem teure und sehr kritische) Anforderungen an das Versorgungsnetz stellen.

Bei einer Erhöhung auf ca. 150 % wie es wirklich erforderlich wird, um ohne die dann verbotenen konventionellen Kraftwerke (Stichwort: Forderung unserer Umweltministerin und führender Weltrettungs- NGOs nach einer Dekarbonisierung Deutschlands) eine positive Einspeisung zu garantieren, werden zusätzlich Energiespeicher im Großmaßstab erforderlich. Diese zusätzliche – und wirklich gewaltige Problematik – ist aber nicht Gegenstand dieser Reihe. Ein Einstieg dazu ist im EIKE-Artikel des Autors Elektro-Energiespeicherung nachlesbar.

 Der  Stromsee

Eine der genialsten Marketingschöpfungen der EEG-Zunft ist der Stromsee. Bei den Münchner Stadtwerken – die dank ihren massiven Ökostrom-Investitionen erstmals in ihrer Geschichte Verluste schreiben – kann man das Prinzip nachlesen "Das Modell des Stromsees". Leider hat dieses herrlich anschauliche Modell einen Haken: Dieses Sammelbecken für Strom bildet das Versorgungsnetz nicht – die Physik lässt es auch im „Grünstromland“ nicht zu. Wenn allerdings Politiker nach solch falschen Modellen entscheiden, hat das Auswirkungen auf das Ergebnis.

Das konventionelle Versorgungs-Paradies

Im bisherigen konventionellen Versorgungssystem speisen wenige Kraftwerke in das Netz. Diesen stehen viele Verbraucher aber kaum einspeisende Quellen gegenüber. Damit ist die Kraftwerks-Einspeisung „dominant“. Die Konsequenz ist ein überschaubares und leicht beherrschbares Versorgungsnetz.

Erklärung

Wenn der Verbrauch immer niedriger ist als die planbar zur Verfügung stehende Leistungsreserve können Lastspitzen durch Hochfahren der Planleistung sicher und stabil versorgt werden. Dazu gibt es ein über Jahrzehnte ausgeklügeltes System von Primärregelung, Sekundärregelung und Minutenreserve. Minderverbrauch kann durch gezieltes Herunterfahren und eventuellem Zuschalten weniger  Verbrauchern wie Pumpspeicher ausgeglichen werden. Durch sorgfältiges Abstimmen der Einspeise- und Lastpunkte fließt der Strom immer vom Versorger zum Verbraucher – siehe die hellgrüne Linie „Last“ in Bild 5 – und die Spannungspegel auf den Netzsegmenten  sind einfach auf die zulässigen +- 10 % einhaltbar.

Dieses im Wesentlichen zentral gespeiste System kann mit wenig Regelaufwand das Netz „führen“ und die Verbrauchsveränderungen auch im Verbund sicher ausregeln.

Bild 5[6] Spannungsbänder im Versorgungsnetz. Konventionelles System: grüne Linie „Last“ (mit Ergänzungen durch den Autor)

 Bekannt ist (besser: war) diese Technologie als „sicherstes und stabilstes Versorgungsnetz der Welt“.

 Das Grünstrom-Chaos

Anmerkung: Es folgt eine stark vereinfachte und nie richtige Darstellung, da die Bedingungen durch Gesetze und Verordnungen laufend und beliebig verändert werden.

Im neuen Grünstrom-Versorgungssystem gibt es die „dominante Einspeisung“ und die planbar verfügbare Leistung nicht mehr. Auch das gezielte Herunterregeln ist entfallen (Anm.: inzwischen muss jedoch jede Anlage ab 100 kW in Stufen von 0; 30; 60; 100 % fern-schaltbar sein). Jeder kann an jeder Stelle einspeisen und gleichzeitig verbrauchen. Zusätzlich legte das EEG mit der Vorrangeinspeisung fest, dass sich Ökoenergie nicht um den Bedarf kümmern muss, sondern bedarfs-unabhängig und vorrangig einspeisen darf (Anm.: Vorrangeinspeisung bedeutet, dass ein Netzbetreiber zuerst allen anliegenden Grünstrom annehmen muss, bevor er konventionellen Strom einspeisen darf).

 Bild 6 zeigt die Veränderung im Versorgungssystem in technischer Darstellung mit den zusätzlichen je nach Anschlussleistung in verschiedenen Spannungsebenen einspeisenden Grünstrom-Lieferanten (Wind, Solar usw.). Im Bild 5 zeigt der rote Verlauf die auftretenden Spannungserhöhungen in den Netzsegmenten, eine Folge daraus zeigt Bild 7. Diese Erhöhungen können so groß werden, dass auch Rückspeisungen in höhere Netzspannungsebenen erfolgen.

 Bild 6[6] Vergleichende Darstellung der konventionellen und der Grün-Energie-Netzstruktur (mit Ergänzungen durch den Autor)

 

Bild 7 [15] Brand in einer Kompaktstation. Quelle: Osnabrücker Zeitung, 25.11.2013

 Anforderungen an das Versorgungsnetz der Öko-Zukunft

 Unser Grünstrom-Netz wird bei weiterem Ausbau Prinzip-bedingt unstabil, weil  un-planbar und unkontrolliert mehr Energie eingespeist werden kann als verbraucht wird. In Netz-Segmenten ist dies bereits heute der Fall, das Gesamtnetz trifft es noch.

Die Parole: Die Sonnenfinsternis 2015 hat das Netz mit Bravur bestanden und damit belegt, dass es stabil bleibt "Sonnenfinsternis beamt Stromnetz ins Jahr 2030" ist einfach nur hanebüchen – man kann mit gutem Gewissen sagen: auch gegen besserem Wissen. EIKE dürfte so etwas nie bringen – der Blog würde es zerreißen -, aber wenn es „Experten“  sagen und unsere seriösen Zeitungen berichten, stimmt es eben.

Die Angaben eines Netzbetreibers (Bild 8) zeigen, wie sich die Probleme innerhalb weniger Jahre schon durch den aktuell noch niedrigen Zubau verschlimmert haben.

Bild 8 Daten der Netzeingriffe 2012 und 2015 (beide Jan. – Nov.) des Netzbetreibers 50hertz (mit Ergänzungen durch den Autor)

Auf jeden Fall hat man nun nur noch die Wahl, das Versorgungsnetz stabil zu zwingen – die andere, es stabil zu belassen verhindern unsere Politiker -. Wie das geht, zeigen wendige Militärflugzeuge. Diese werden bewusst instabil gebaut (Flügel mit negativem Winkel). Als Folge kann sie der Pilot nicht mehr selbst stabil halten – was deshalb eine Regelung sicherstellen muss – und sie fallen genau deshalb verblüffend oft von selbst herunter.

Wie so ein „Herunterfallen“ des Versorgungsnetzes durch völliges Versagen aller geplanten Schutzmaßnahmen aussieht, zeigte der Vorfall einer Großstörung am 4. November 2006. Und da war noch keine Green-Energie im Spiel.

Beschreibung der Großstörung [16]:

Am späten Abend des 4. November 2006 um etwa 22:10 Uhr kam es zu einer Großstörung im UCTE-System, bei der etwa 15 Mio. Haushalte in Europa von Stromausfällen betroffen waren. Die Ursache war die in ihren Konsequenzen unzureichend durchdachte Abschaltung einer einzelnen Übertragungstrasse zwischen Deutschland und den Niederlanden (Conneforde-Diele). In der Folge kam es zu einer Systemauftrennung in drei Gebiete: der westliche Teil Europas (Area 1, Abb. V.3) brach wegen einer Unterdeckung mit Erzeugungsleistung großflächig zusammen. Im nordöstlichen Teil (Area 2, Abb. V.3) gelang es, eine Versorgungsunterbrechung trotz massiver Überspeisung und daraus folgender Frequenzerhöhung zu vermeiden. Im südöstlichen Europa (Area 3, Abb. V.3) war die Leistungsbilanz zum Zeitpunkt der Störung nahezu ausgewogen und das System konnte stabilisiert werden. Nach 38 Minuten konnte die Synchronisierung wiederhergestellt werden, bis zur Rückkehr zum Normalbetrieb vergingen etwa 2 Stunden (UCTE 2007).

 Manche denken sicher, die bisherigen Ausführungen wäre nur die Beschreibung eines unverbesserlichen Kritikers, aber niemand sonst sieht das so. Doch solche Beschreibungen gibt es sowohl in Amtsdeutsch:

[11 Während bislang Stromnetze mit zentraler Stromerzeugung dominieren, geht der Trend hin zu dezentralen Erzeugungsanlagen, insbesondere bei der Erzeugung aus erneuerbaren Quellen (wie z. B. Photovoltaikanlagen, Windkraftanlagen und Biogasanlagen). Dies führt zu einer wesentlich komplexeren Struktur, primär im Bereich der Lastregelung und zur Aufrechterhaltung der Netzstabilität. Deshalb sind Stromnetze, welche durch ein abgestimmtes Management mittels zeitnaher und bi-direktionaler Kommunikation zwischen Netzkomponenten, Erzeugern, Speichern und Verbraucherinnen/Verbrauchern einen energie- und kosteneffizienten Systembetrieb unterstützen, auf zukünftige Anforderungen („Smart Grids“) anzupassen. Als eine Möglichkeit zur Visualisierung und besseren Kontrollmöglichkeit für den Strombedarf werden Smart Meters diskutiert. Sie sollen dazu beitragen, das Zusammenspiel von Erzeugung (aus diversen Quellen) und Verbrauch bei wechselndem Angebot und Nachfrage zu optimieren. Stromabnahmen, die während Verbrauchsspitzen nicht unbedingt notwendig sind, könnten verschoben werden auf Zeiten geringeren Stromverbrauchs und guten Stromangebotes (zu niedrigeren Preisen). Damit sollen über Zähler durch Preisanreize günstigere Lastverteilungen erwirkt werden.

 Und es gibt sie auch als aktuellen Zeitungsbericht. Man beachte, dass die Probleme diskriminierungsfrei verteilt werden – ein Lob für die an alles denkende Gesetzgebung.

 Neue Wetzlarer Zeitung „Die Zukunft kann düster werden".

Zitate: [13] Wenn es künftig zu Hause zappenduster wird, könnte die Ursache im Energiewirtschaftsgesetz stecken. Um großflächige Stromausfälle auszuschließen, sind Netzbetreiber wie die Enwag verpflichtet worden, einzelne Verbraucher oder sogar ganze Stadtteile abzuschalten.

Die Wahrscheinlichkeit des großen Blackouts steigt mit der stark wachsenden Stromerzeugung aus Wind und Sonne. Längst sehen Experten dadurch die Stabilität der Stromnetze gefährdet.

Ist der Überlast durch das Abschalten von Wind- und Solaranlagen oder Umleitungen nicht mehr beizukommen, dann werden Verbraucher künftig abgeschaltet oder komplette Stromtrassen vorübergehend stillgelegt. Ob es sich dabei um einzelne größere Abnehmer oder gleich ganze Stadtteile handelt, wird von der Größe der Überlast abhängen.

Leidtragende einer Abschaltung, die schnell vier bis acht Stunden dauern kann, sind ganz klar die Kunden, die den Ausbau der Anlagen über die EEG-Umlage finanzieren.

"Schwieriger wird es für Kunden, die aus medizinischen, technischen, sicherheitsrelevanten oder sonstigen Gründen zwingend auf eine unterbrechungsfreie Stromversorgung ihrer Geräte angewiesen sind", sagte Stein. Diese sollten bereits jetzt für den Ernstfall vorsorgen. Vorsorgen heißt, über die Anschaffung eines Stromspeichers nachdenken. Eine solche "Batterie" kann mit Installation aber schnell 5000, 7000 oder auch 25 000 Euro kosten – je nach Größe und Leistung. Arztpraxen könnten künftig kaum mehr ohne Stromspeicher auskommen, sagte der Enwag-Geschäftsführer.

Die Abschaltungen müssen "diskriminierungsfrei" erfolgen. Egal ob Unternehmen oder Privatkunden – alle müssen gleichbehandelt werden.

Das folgende Bild 9 aus einem aktuellen Bericht für den Bundestag zeigt, welche Problematik dahinter steckt und dass diese gerade erst begonnen hat. Dabei geht diese Darstellung nur bis zum Jahr 2030 und die Werte entsprechen der alten (noch moderaten) Ausbauplanung. Man darf sich gar nicht vorstellen, was bei der Umsetzung der aktuellen Forderung des Uba nach 100 % Green-Energieausbau bis 2050 passiert. Interessant ist, dass im Bericht der Einsatz von Speichern sehr kritisch gesehen wird und zudem als eine Lösung das Abregeln empfohlen wird. Anm. des Autors: der Bericht [16] ist für Interessierte zu empfehlen. Er beschreibt alle Aspekte umfassend und realistisch.

[16] Die Abregelung der EE-Erzeugung und ein netzgetriebener Einsatz von dezentralen Speichern reduzieren den Investitionsbedarf um immerhin fast 20 %, wohingegen der marktgetriebene Speichereinsatz einen kontraproduktiven Effekt hat: Der Netzausbaubedarf erhöht sich um fast 35 %!

Bild 9[16] Darstellung der Überspannungsproblematik im Verteilnetz durch Greenstrom-Einspeisung (Hinzufügungen durch den Autor)

Die rettende Idee

Zur Lösung kam man auf die Idee, dem Versorgungsnetz die Stabilität durch Aufpfropfen einer übergreifenden, vermaschten mehrfach unterlagerten Regelung aufzuzwingen. Weil so eine Idee  jedem erfahrenen Regelungstechniker den kalten Angstschweiß auf die Stirn treibt, wurde diese neue Wunderregelung als „intelligent“ definiert. Die Neusprech-Begriffe dafür waren schnell gefunden und lauten: „Smart-Grid“ und „intelligente Netze“.

Seitdem geht dazu ein Boom durchs deutsche Land. Firmen welche versprechen, diese „Schulung des Netzes“ zu stemmen, haben Hochkonjunktur.  Und die dafür benötigten Investitionen sind enorm.

[7] Deutsche Energieversorger verpassen Megatrend

Bis 2030 werden Investitionen in Höhe von rund 400 Mrd. € für neue, intelligente Stromnetze in Europa notwendig werden – so eine Schätzung der Europäischen Kommission. Mit Hilfe dieser Smart Grids lassen sich künftig erneuerbare Energien klug in die Stromnetze einspeisen oder Strom dann abrufen, wenn er am billigsten ist.

Diese Mitteilung muss man sich genau durchlesen, dann bemerkt man des Kaisers neue Kleider, welche der Bürger zu bezahlen hat. Aber wenn die Europäische Kommission es sagt, zieht der Kaiser die Kleider an und die Bürger stehen Spalier zum Bejubeln. Kritik:

·         „… künftig erneuerbare Energie klug in die Stromnetze einspeisen“.

Wie wollen Smart Grids der Sonne beibringen, dann zu scheinen, wenn ihre Energie gebraucht wird? Und beim Wind dürfte das Problem ähnlich sein. Zudem ist dieser Satz in diesem Kontext eine reine Tatsachenverdrehung: klug speiste man im konventionellen System ein, un-klug macht man es erst im EEG-Netz.

·         „… Strom dann abrufen, wenn er am billigsten ist“.

Einmal gibt es zu keinem Zeitpunkt billigen Ökostrom. Denn er wird vom Privatkunden aufgrund des EEG immer mit der festen Einspeisevergütung an den Lieferanten bezahlt. Es gibt ausschließlich den billigen „Grün-Wegwerfstrom“ an der Börse. Doch dieser kann nicht anstehen, wenn der Bürger gerade Strom benötigt, denn dann wäre er ja nicht billig. Und an der Strombörse diesen Grün-Wegwerfstrom privat beziehen, gelingt schon gar nicht.

Beschrieben wird also die künftige Strom-Mangelverwaltung: Der Bürger bekommt ihn nur noch, wenn es ihm „erlaubt“ ist, ansonsten bezahlt er als Lehrgeld einfach horrende Preise.

Man könnte sich vorstellen, ein pfiffiges örtliches EVU würde für seine Kunden den billigen Börsenstrom beziehen. Einmal benötigt es dafür Speicher, die den Strompreis mindestens verdoppeln "Elektro-Energiespeicherung Teil3". Und dann kommt schnell das Problem, dass zwar der Börsenpreis des Überschussstromes niedrig ist, die Differenz aber über die EEG-Umlage trotzdem vom Kunden „eingetrieben“ wird. Nur so lange es nur wenige EVUs machen (dürften), hätte das wenig Einfluss.

Also werden sich die Versorger mit ihrer Sachkenntnis gegen diesen Unsinn wehren – denkt man. Nicht so in Deutschland. Was wir machen, machen wir total. Beispiel:

ENERGIE und TECHNIK 10.10.2014 

RWE-Projekt: Die Eifler Stromnetze werden intelligent

RWE Deutschland macht die Stromnetze des nördlichen Rheinland-Pfalz intelligent. Über 100 Millionen Euro nahm der Konzern in die Hand, um die Netze für die volatile Energiezukunft zu optimieren.

Ansonsten strotz der Artikel nur so von Öko-Neusprech. Die „neue Intelligenz“ löst einfach alles.

Zitate: »Wir wollen die Stromversorgung von morgen regenerativ, wirtschaftlich und energieeffizient gestalten. Dafür investieren wir in unsere Netze und bereiten sie auf die zunehmende Einspeisung von Wind- und Sonnenstrom vor. Der Einsatz von intelligenter Netztechnik spielt dabei eine maßgebliche Rolle«,

…. »Dazu gehört auch, dass wir unsere Stromnetze intelligenter machen. Unsere Modellprojekt Smart Country in der Eifel ist ein Beispiel, welches die Innovationskraft von RWE belegt«

…… In diesem Forschungsprojekt werden ein Biogasspeicher und intelligente Spannungsregler genutzt, um das Spannungsniveau im Stromnetz trotz starker Einspeisung aus EEG-Anlagen auf zulässigem Niveau zu halten.

… Im Niederspannungsbereich zieht ebenfalls intelligente Netztechnik ein.

Wie sieht so ein Intelligenzbeispiel in der Praxis aus

Nach dem  "intelligenten Lichtschalter" kommt nun auch der intelligente Transformator. Diese bahnbrechende Intelligenz entpuppt sich beim genaueren Hinsehen als Elektromotor, der Spulenanzapfungen schalten kann (früher hieß das einfach „Stufentransformator mit Schaltmotor“)  und einer Fernschaltverbindung zum Versorger.

Natürlich lässt sich das in Grün-Neusprech begeisterungsvoller beschreiben:

Quelle: etz 2012

Zusammenfassung
Die Netzstation der Zukunft wird grundsätzlich eine intelligente Netzstation sein und durch eine intelligente Vermaschung mit übergeordneten Schaltstationen und Umspannwerken den wirtschaftlichen und störungsfreien Netzbetrieb garantieren.

Das Wundergerät dazu zeigt Bild 10. Man sieht den Blechtopf, unter dem der mittels Elektromotor mit (wenigen) Stufen fern-schaltbare Stufenschalter sitzt.

Bild 10 (Quelle: etz 2012) Regelbarer Ortsnetztransformator.

Was macht dieser regelbare Ortsnetztransformator als „Intelligenz“ im Ortsnetz?

Aufgrund der unkontrollierten Ökostrom-Einspeisung hebt sich der Spannungspegel in davon betroffenen Ortsnetzen (im Bild 5 als rote Linie unter „Einspeisung heute“ zu sehen). Richtige Konsequenz wäre nun, diese Einspeisung abzuschalten (Abregeln) – die teurere Konsequenz wäre, für die Einspeisespitzen Speicher anzulegen.

Noch macht das aber noch kein EVU gerne. Wobei die „Hemmungen“ aber bald vorbei sein dürften – wie der Nürnberger Versorger stolz zeigt "N-Ergie nimmt Zwei-Zonen-Speicher in Betrieb"-, nachdem es sich bei EVU-Vorständen  herumgesprochen hat, dass die Verluste der Münchner Stadtwerke nicht zu Protesten der betrogenen Kunden führten, sondern als vorbildliche Ausgaben gelten "Ausbauoffensive Erneuerbare Energien". Und nichts scheint ja einfacher, als Speicher im Großmaßstab einzurichten wie es das Bild 11 suggeriert. 

Bild 11 (Quelle VDE) Darstellung zur Energiespeicherung

Weil man beim Abregeln die dann nicht eingespeiste Energie aber trotzdem bezahlen muss (und oft auch der Versorger selbst an der einspeisenden Grün-Energie beteiligt ist) erscheint es günstiger (und ist politisch gewollt), das Problem im Ortsnetz zu „reparieren“.

Das lässt sich zudem ideal als Ökoinitiative verkaufen und gibt dem häufig mit im Aufsichtsrat sitzenden, örtlichen  Bürgermeister die Möglichkeit, sein Klimaschutz- und Ökoengagement in der Lokalzeitung zu präsentieren – und die darauf basierenden Verluste des Versorgers als wichtige, nachhaltige Zukunftsinvestition anzupreisen.

Man hebt und senkt also in Ortsnetz-Segmenten durch Umschalten von Trafoanzapfungen den Spannungspegel und hofft, dass der zu viele Strom die Chance hat, von Netzbereichen mit angehobener Spannung in solche mit niedrigerer Spannung zu fließen. Wer sich mit Elektrotechnik auskennt weiß, dass dieses Verfahren nur sehr eingeschränkt funktionieren kann – denn man muss weiterhin zwingend im +- 10 % Toleranzband bleiben –  und vollkommen versagt, wenn einfach keine ausreichenden Lasten vorhanden sind. Es wird also nur angewandt, weil man dem Problem inzwischen vollkommen hilflos gegenüber steht und jeder Strohhalm ergriffen werden muss.

Einem elektrotechnischen Laien kann man das Prinzip so erklären:

Hochintelligente Netzregelung erklärt für Dummies

Die Autobahn ist überlastet und alle stehen im Stau. Das intelligente Leitsystem informiert nun alle Fahrer: Ab sofort mit höherer Geschwindigkeit fahren und dazu keinen Sicherheitsabstand mehr einhalten. So passen mehr Autos auf die Autobahn und der Durchsatz wird erhöht.

Es ist so, als hätte ein Bombenhagel in das Versorgungsnetz eingeschlagen

Firmen welche diese Technik herstellen helfen natürlich mit Begeisterung. Alleine ein solcher „Blechtopf mit Grün-IQ“ kostet ca. das 2- bis 3-Fache eines herkömmlichen und vor allem muss auch ein Großteil der bisherigen durch solche ersetzt werden, denn es funktioniert ja nur im Verbund.  Zudem ist es mit diesem IQ-versorgten Ortsnetztransformator alleine nicht getan. Er benötigt in erheblichem Umfang Messtechnik, Kommunikationsmittel und eine aufwendige IT-Struktur im Hintergrund (Bild 12 und 13). Mit etwas Glück muss man dazu auch noch lokale Speicher (Akkus)  zurüsten, wodurch das Invest nochmals zunimmt. Das ist so schön, als hätte ein Bombenhagel von Green-Dschihadisten gerade Deutschlands Stromnetze zerstört und man darf dieses mit erheblich teurerem Gerät ganz neu aufbauen. Der Bundestagsbericht [16] schätzte dafür konservativ bis zum Jahr 2030 noch 230 Milliarden EUR, bis zum Jahr 2050 dürften die von der EU genannten 400 Milliarden EUR aufgrund des höheren Ausbaus nicht zu niedrig angesetzt sein – nur haben die übersehen, dass diese Kosten nicht für die EU, sondern für Deutschland gelten.

Unsere Versorger sehen es gelassen. Bezahlen muss es sowieso der Kunde. Der Versorger kann sich aber mit Leitstellen und neuem IT-Personal beliebig aufblähen, was ver.di gefällt (mehr Mitglieder und damit Beiträge) und dem Versorger-Vorstand auch, weil mehr Mitarbeiter grundsätzlich  mehr Salär bedeuten.

 Bild 12 [14] Intelligente Ortsnetz-Trafostation mit Systemumgebung

 

Bild 13 [16] Geschätzter Versorgungsnetz- Ausbaubedarf bis 2030 (Summe 230,8 Milliarden EUR)

Warum wird es vielleicht nicht (ganz) so schlimm kommen?

Nicht, weil noch Vernunft herrschen würde. Das wäre viel zu viel Ehre für das Verhalten der aktuell dafür Verantwortlichen in Politik, „Wissenschaft“ und Industrie. Es wird einfach nicht schnell und konsequent genug gelingen, das bisher noch Funktionierende in die „Neue intelligente Energiewelt“ zu transformieren. Damit werden die Lücken füllbar bleiben und bei Überlast kann man ja alle grüne Energieeinspeisung auch einfach mal wegschalten. Was aber auf jeden Fall und un-stopp-bar ganz schlimm kommen wird – sind die Kosten.

Dass sich aber bereits Versorger darauf vorbereiten „wie schlimm“ es doch kommen kann zeigt der (bereits in einem vorherigen Kapitel zitierte) aktuelle Artikel „Die Zukunft kann düster werden" in der Neuen Wetzlarer Zeitung.

Irgendwie hofft man, dass doch noch irgendwo wenigstens ein kleines Vernunftpflänzchen keimen würde. Fällt es wirklich niemandem auf, was die „Leuchtturmprojekte der Energieautarkie“ belegen? Nicht einmal mit dem größten technischen- und (mit hohem Anteil aus Fördermitteln bezahltem) Kostenaufwand schaffen es diese kleinen Gemeinden, wirklich autark zu werden.

[17] Mit rund 21 Gigawattstunden produziert die Insel Pellworm jährlich dreimal so viel Strom wie sie verbraucht. Trotzdem sind die 1.200 Einwohner von Stromlieferungen über zwei 20‐Kilovolt‐Seekabel vom Festlandnetz abhängig. Mit einer Kombination aus Windkraft-, Photovoltaik- und Biogasanlagen mit Großspeichern, Haushaltsspeichern und intelligenter Messtechnik kann die Insel nun nahezu Selbstversorger mit Strom werden.

Das Leuchtturmprojekt wird mit einem Investitionsvolumen von fast zehn Millionen Euro von einem Innovationsverbund aus Industrie und Wissenschaft durchgeführt. Die Bundesregierung trägt 4,1 Millionen Euro der Förderung.

Ein Nebeneffekt

Die immer größeren Mengen an Überflüssigem Strom welche Deutschland an die Nachbarn zu Niedrigpreisen verscherbelt, verschenkt oder sich gar mit Strafgebühren abnehmen lassen muss beeinflussen auch dort die Kostenstrukturen der Betreiber. Man kennt dies aus Entwicklungsländern, denen man durch jahrelanges Schenken von bei uns Überflüssigem zum „guten Zweck“ die eigene Erzeuger-Infrastruktur kaputt gemacht hat. So Schlimm ist es bei unseren Nachbar sicher noch nicht, aber es geht denen schon gewaltig „auf den Keks“  und erste Maßnahmen sind bereits in Arbeit "Deutschland nervt Polen mit der Energiewende".

Zum Abschluss zusammenfassend die ganze Technik und EEG-Historie inclusive der Zukunftsvision in nicht ganz wissenschaftlich präziser Darstellung beschrieben. Erklärt wird anstelle der Stromsee-Darstellung mit dem Modell des Strom-Flusses.

Das EEG und die Versorgungsnetzthematik anhand der Stromversorgung von Green-Schildburg erklärt für Dummies

Bei Green-Schildburg fließt ein Strom. Mehrere große und energiestarke Kraftwerke speisen ihn, so dass er recht konstant fließt und nie Gefahr läuft auszutrocknen. Im Frühjahr bei Hochstrom lassen sich die Kraftwerke drosseln so dass der Strom nie überläuft.

Nicht verbrauchter Strom ist leider verloren, denn er fließ einfach weiter (z.B. aktuell durch Verschenken ins Ausland). Das geschieht aber äußerst selten, denn die Kraftwerke lassen sich regeln und reduzieren frühzeitig die Einspeisung. Es geschieht schon aus Eigeninteresse, denn nicht benötigter Strom wird auch nicht bezahlt.

Über viele, viele Jahrzehnte funktionierte dies stabil und problemlos

Green-Aktivisten gefiel das nicht. Sie befanden unter anderem, dass die Kraftwerksinhaber zu viel Geld verdienten und verlangten die Abschaltung der großen Kraftwerke und  Ersatz durch möglichst viele Bürgerquellen. Ihr Argument war: Wenn Bürger Strom erzeugen, wird er billig werden. Damit sich das Erzeugen für die Bürger lohnt, wurde beschlossen: Der Bürgerstrom wird immer zu vollem Preis vergütet, auch wenn er nicht benötigt wird. Er darf zudem in beliebiger Menge und zu beliebiger Zeit in den Stromfluss eingeleitet werden – wobei im Gegenzug dann die großen bösen Kraftwerke gedrosselt werden müssen, sofern sie nicht bereits zwangsweise  abgeschaltet sind.

Recht bald stellten sich bisher noch nie gekannte Probleme ein

Auf ein Mal gab es auch zu viel Stromfluss und der Strom trat über die Ufer und dann gab es Zeiten, wo gar kein Strom floss.

Nun kamen die Green-Schildbürger auf die Idee, nutzlos vorbei-fließenden Strom in einem Stromsee zu speichern und damit die früher nicht gekannten Probleme zu beheben. Dazu sperrten sie den Strom-Abfluss und (er-)warteten, dass sich der Stromfluss staut und damit speichern ließe. Zu ihrem Erstaunen erhöhte der Strom aber sofort seine Spannung und trat als Folge unkontrollierbar über die Ufer, wobei er  sein Flussbett und die Strom-Entnahmestellen der kleinen Leute zerstörte.

Nachdem dies immer öfter vorkam befragten die Green-Schildbürger jemanden, der das Verhalten von Strom noch kannte. Dieser erzählte den  staunenden Green-Schildbürgern, dass es elementare physikalische Unterschiede zwischen Wasser und elektrischem Strom gibt und man Strom deshalb nicht in einem Stromsee durch Absperren speichern kann.

Weiter erzählte er ihnen, dass die Möglichkeiten den Stromfluss zu bändigen ausschließlich die Folgenden sind:

·         Man darf zu jedem Zeitpunkt nur genau so viel Strom einspeisen wie gebraucht wird, sonst erhöht der Stromfluss sofort seine  Spannung (siehe die Homepage "Energie-Wissen", Kapitel: Strom muss im selben Augenblick erzeugt werden, in dem er gebraucht wird).

·         Wenn man an die großen Quellen als Haupt-Zufluss wegnimmt und stattdessen viele kleine, ungesteuerte  Zuflüsse im Verlauf  einrichtet, treten ganz schnell lokale Spannungsüberhöhungen auf. Es passiert sogar, dass die Stromspannung an solchen Stellen den Stromfluss „zurückschiebt“ also quasi bergauf fließen lässt.

·         Wenn man vorbeifließenden, überflüssigen Strom speichern will, muss man den Strom abschöpfen und in eine „Speicherform“ umwandeln. Denn nur in speziellen „Speicherformen“ lässt er sich lagern. Um daraus wieder Strom zu erhalten, muss man die „Speicherformen“ in Strom zurück-wandeln.

·         Er vergaß nicht zu erwähnen, dass die zur Umwandlung in „Speicherform“ bisher bekannten Verfahren für den erforderlichen Großeinsatz noch gar nicht erprobt sind und zudem sehr teuer wären. Seines Wissens wäre das vorbei-fließen lassen immer billiger, als die Speicher-Umwandlung (siehe  "Elektrospeicherung – Kosten" ).

Nachdem die Green-Schildbürger das gehört hatten, fragten sie ihren Bürgermeister was zu tun wäre.

Sie bekamen zur Antwort:

Entscheidungen deutscher Regierungen waren noch nie falsch und die unserer aktuellen Regierung sind zudem alternativlos. Mit viel Geld haben wir zudem viele der sonst arbeitslosen Akademiker(-Schwemme) in Strom-Forschungseinrichtungen untergebracht. Diese und die Industrie sind sich sicher, dass es keine Probleme gibt und stehen gerade vor dem green-technologischen Durchbruch.

Zudem habt ihr Wichtiges übersehen. Was der Fachmann gesagt hat, gilt nur für dreckigen, konventionellen Strom. Dieser Dreck verstopft das Strombett, blockiert es und erzeugt damit beim Stauen solche Effekte. Der neue Greenstrom hat diese Eigenschaften nicht. Sonst hätten unsere Politiker ja nie über das EEG bestimmt, dass Greenstrom mit Vorrangeinspeisung  beliebig und ungeregelt in den Stromfluss münden darf. Und zudem sorgt unser Green-EEG dafür, durch Abschalten aller konventionellen und billigen Energien die Welt vor dem CO2-Tod zu retten.

Die Green-Schildbürger waren zufrieden weil so fürsorglich und vor allem auch für die Bedürfnisse weit in der Zukunft geborener Generationen regiert wird.

Sie wunderten sich zwar, dass der Strom immer teurer wurde, immer häufiger ausfiel und zum Schluss verfügt wurde, dass er nur in Kontingenten und wenn die Regierung es für zulässig hielt, verbraucht werden darf. Dann begann die Regierung sogar, die Stromverbraucher in den Haushalten fern-zu-schalten und unerlaubtes Benutzen zu überwachen, was mit fehlender Bürgerintelligenz, die nun das green-intelligente Stromnetz übernommen habe, begründet wurde. Leider brach das hochintelligente Netz immer häufiger zusammen und die absolut sicheren Notfallpläne der extra geschaffenen Erstellungs-, Betreuungs-, Überwachungs-, Betriebs- und Kontrollbehörden entpuppten sich als Makulatur.

Aufgrund der Probleme verfügte die Regierung, dass Bürger welche Strom verbrauchen Energieräuber wären und an Räuber kein Green-Versorger Strom liefern muss. Strom hat der Bürger selbst herzustellen und die, welche auf das öffentliche Stromnetz angewiesen sind, dürfen nur noch Geräte ohne Stromverbrauch verwenden.

Zum Schluss führte es dazu, dass davon nicht wenige in einem kalten Winter erfroren, weil in den nur noch zugelassenen 0-Energie-Häusern alle Lüftungsanlagen stillstanden und die Bewohner die fest montierten Fenster einschlagen mussten, um Luft zu bekommen.

Weil aber bald eine EEG-Mauer um sie gebaut wurde bekam niemand mit, dass außerhalb von Green-Schildburg mit konventionellem und vor allem auch atommodernem Strom keines der in Green-Schildburg alltäglich gewordenen Probleme vorhanden war.

Das Green-Schildbürger Volk war inzwischen arm wegen der Energiekosten, schien aber glücklich – zumindest wählte es immer wieder die gleichen Regierungsparteien. Obwohl,  es gab auch Reiche, die einen Energiepark nach dem anderen errichteten und die Politiker sorgten auch dafür, nicht selbst darben zu müssen. Laufend wurden  – immer gut dotierte – Forschungseinrichtungen gegründet welche immer neu belegten, dass nur dieser Weg der richtige sei. Ein Wind-Marx, ein Solar-Engel und erst neuerdings wieder ein Tritt-Ihn hätten dies unwiderlegbar bewiesen. Deshalb würde bald Strom im Überfluss kommen, so wie es von verschwundenen Arbeiterparadiesen erzählt wird, in denen nie Mangel herrschte.

Ergänzende EIKE-Artikel vom Autor

Zum Nachsehen der elektrotechnischen Begriffe und Detailerklärung der Ganglinienbilder

·         Ökostrom erklärt für DUMMIES anhand der Wind und Solareinspeisung im November 2015* V2 23.12.2015

Zur Energiespeicherung

·         Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

Darstellungen, wie auch ein CSU-regiertes Bundesland inzwischen die Vernunft abgibt

·         Der Wind bläst stetig – die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus

·         Das Positionspapier des CSU-Arbeitskreises Energiewende Keine Vernunft mehr, nirgendwo

Quellen (Teil 1 und 2)

[1]

Kopp Verlag 25.08.2015: Windenergie-Flutwellen aus Deutschland werfen seine Nachbarn in die Dunkelheit

http://info.kopp-verlag.de/hintergruende/enthuellungen/redaktion/windenergie-flutwellen-aus-deutschland-werfen-seine-nachbarn-in-die-dunkelheit.html

[2]

KLIMARETTER.INFO Dienstag, 22. Dezember 2015: Neuer deutscher Stromrekord

http://www.klimaretter.info/energie/hintergrund/20355-neuer-deutscher-stromrekord

[3]

Bundesverband Solarwirtschaft, Homepage

https://www.solarwirtschaft.de/ueber-uns/stimmen.html

[4]

Fraunhofer IWES   29. März 2012: BMU – FKZ 03MAP146, Langfristszenarien und Strategien  für den Ausbau der erneuerbaren Energien in Deutschland  bei Berücksichtigung der Entwicklung in Europa  und global – Schlussbericht

[5]

EIKE 22.12.2015: Klimanarren und die Lügenpresse DER SPIEGEL

http://www.eike-klima-energie.eu/news-cache/klimanarren-und-die-luegenpresse-der-spiegel/

[6]

Michael Fette  Dresden, Februar 2014: Das Spannungsfeld zwischen Netzdynamik,  dezentraler Erzeugung von Elektroenergie  und deren Speicherung 

[7]

energiespektrum   18. DEZEMBER 2015: Intelligentes Stromnetz

http://www.energiespektrum.de/index.cfm?pid=1706&pk=89040#.VnQwQVnZ1Ec

[9]

Technische Universität Berlin, September 2011 Studie: Kosten des Ausbaus der erneuerbaren Energien

[10]

Umweltbundesamt: Energieziel 2050 100% Strom aus erneuerbaren Quellen

http://www.umweltbundesamt.de/publikationen/energieziel-2050

[11]

Anpassungsstrategie_Aktionsplan_23-10-2012: Die österreichische Strategie zur Anpassung an den Klimawandel Teil 2 – AKTIONSPLAN Handlungsempfehlungen für die Umsetzung

[12]

ENERGIE und TECHNIK 10.10.2014, Artikel: RWE-Projekt: Die Eifler Stromnetze werden intelligent

[13]

Wetzlarer Neue Zeitung 28.12.2015: Die Zukunft kann düster werden

http://www.mittelhessen.de/lokales/region-wetzlar_artikel,-Die-Zukunft-kann-duester-werden-_arid,613216.html

[14]

Dr. Ing. Peter Birkner, FfM. Nov. 2012 Vortragsfoliensatz: Smart Grid eines kommunalen Versorgers im Querverbund

[15]

egrid applications & consulting GmbH, Vortragsfoliensatz: Energiewende im Griff

[16]

Deutscher Bundestag 08.09.2015  Drucksache 18/5948:  Bericht des Ausschusses für Bildung, Forschung und  Technikfolgenabschätzung (18. Ausschuss)  gemäß § 56a der Geschäftsordnung

[17]

ENERGIE SPEICHER Forschungsinitiative der Bundesregierung. News 12.9.2013 SmartRegion Pellworm: Intelligentes Stromnetz steigert Eigenverbrauch der Insel

SZENARIO »LOKAL AUTARK«

Im Ergebnis zeigte sich, dass eine lokale autarke Stromversorgung in den ländlichen Siedlungsstrukturen machbar erscheint. In Süddeutschland muss hierfür (wegen der schlechteren Windbedingungen) eine höhere Erzeugungs- und Speicherleistung installiert werden als in Norddeutschland. Treten nicht nur Haushalte, sondern auch Gewerbe und Industrie als Stromverbraucher auf, kann eine autarke Versorgung nicht mehr erreicht werden. Dasselbe gilt für städtische Siedlungsstrukturen, in denen eine autarke Versorgung unter den beschriebenen Randbedingungen nicht dargestellt werden kann (UBA 2013, S. 96 ff.).

Allerdings muss betont werden, dass hier lediglich die technische Machbarkeit untersucht wurde, nicht jedoch die wirtschaftliche Umsetzbarkeit. Selbst im günstigsten der präsentierten Fälle (ländlich, Norddeutschland, 50 % Elektromobilität, nur Haushalte) muss eine erhebliche elektrische Speichergröße von 97 MWh installiert werden. Das bedeutet, dass für jeden der 3.850 Einwohner eine Speicherkapazität von ca. 25 kWh installiert werden müsste. Im hier betrachteten Beispiel von Blei-Akkus entspricht das einem ca. 800 kg schweren Speicher zum Preis von ca. 2.500 Euro je Einwohner.

Hinzu kommt, dass zur Absicherung der Versorgung, die Erzeugungsanlagen überdimensioniert werden müssen, sodass in der Gesamtbilanz nicht unerhebliche Strommengen nicht genutzt werden können. Im zitierten Beispiel wird mehr als doppelt so viel Strom erzeugt, wie tatsächlich genutzt werden kann (UBA 2013, S. 44).




Sturm „ECKARD“: Massenhysterie in den Medien – nicht in den Wetterstatistiken

Im Rahmen der allgemeinen Klima-Hysterie kommt den Medien und auch manchem Politiker jedes einzelne Extremwetter gelegen, um es einer angeblich schon begonnenen Klima-Katastrophe zuzuordnen. Dabei wird sogar denjenigen Instituten, die sich noch einen Rest an Sachlichkeit bewahrt haben, "Leisetreterei" oder gar "Vertuschung" unterstellt, wie soeben in der FAZ [1]:

"Und schließlich: Könnte der extrem warme Dezember in Europa und der ebenso ungewöhnliche November, laut Deutschem Wetterdienst die beiden wärmsten Jahresabschlussmonate seit Beginn der Aufzeichnungen im Jahr 1881, eine Fernwirkung El Niños sein – oder doch eher die Folge der globalen Erwärmung? Oder noch fataler: Wirken beide zusammen? Wen können die Betroffenen, allen voran die Wintertourismusbranche und die Landwirtschaft, also verantwortlich machen?

Im gestern veröffentlichten Bulletin des Deutschen Wetterdienstes zum „Deutschlandwetter im Jahr 2015“ liest man keine Silbe dazu – weder zu El Niño, noch zum Klimawandel. Die Meteorologie lässt sich da auf keine Spekulationen ein. …."

Es folgt eine üble FAZ-Unterstellung "vom Feinsten":

"Mit gekonnter Wortakrobatik windet sie sich um die von der Öffentlichkeit oft geforderten Erklärungsversuche."

Und selbst das ist dem FAZ-"Journalisten" Müller-Jung noch nicht genug, er will selbst die noch halbwegs Besonnenen unter den Alarmisten weiter antreiben:

"Doch die Klimaforschung treibt sie vor sich her. Mit einer Flut an Daten und Studien versucht die Klimawissenschaft für mehr Klarheit zu sorgen – und auch nach dem Erfolg des Pariser Klimagipfels – geballten politischen Druck zu erzeugen."

Dem DWD ist es in dieser durch die Medien aufgeheizten Klima-Panik hoch anzurechnen, daß er zu dem Orkantief ECKARD ruhig und sachlich sagt [2]:

"Die DWD-Bodenanalyse von heute Morgen (Anm. 30.12.15) 06 UTC zeigt das Orkantief mit dem Namen ECKARD bereits über Island mit einem Kernluftdruck von etwa 935 hPa Der niedrigste, jemals in einem außertropischen Tiefdruckgebiet über dem Nordatlantik beobachtete Luftdruck beträgt allerdings 914 hPa. Es war der sog. "Braer-Sturm" (…) im Januar 1993, der zu seiner Zeit im Seegebiet zwischen Island und Schottland diesen fabelhaften Rekord aufstellte. Diese Marke bleibt unangetastet…"

Eine etwas ausführlichere Statistik zu den Atlantik-Tiefs der vergangenen 30 Jahre wird weiter unten dargelegt.

Während die Medien den aktuellen Orkan ECKARD gerne (!) in die aktuelle Klima-Hysterie einordnen möchten, wirkt der DWD auch hier angenehm versachlichend (nachzitiert nach SPON [3]) :

"Es ist ein Ausdruck des chaotischen Systems Atmosphäre. Mit dem Klimawandel hat es nichts zu tun."

Es gibt – über den DWD hinaus – weitere Kollegen, die an einer Versachlichung interessiert sind, wie zum Beispiel THOMAS SÄVERT auf "Kachelmann-Wetter" [4]:

"Auf dem Atlantik hat sich das Tief ECKARD zu einem starken, aber nicht rekordverdächtigen Orkantief verstärkt. Es überquert derzeit Island und zieht unter Abschwächung zum Nordmeer. Das Tief lenkt sehr milde Luft weit nach Norden bis in die Polarregionen. Solche Warmluftvorstöße kommen aber gelegentlich vor." …

"In einigen Medien geistert die Meldung rum, dass es am Nordpol diese Tage bis zu 50 Grad wärmer werden soll als normal.

Das ist so völliger Quark und wurde vom Verursacher mittlerweile schon etwas relativiert – nur leider gehen die Verbreiter nicht auf die Relativierung ein!

Fakt ist, dass am Nordpol normal ungefähr -25°C sind, mal mehr, mal weniger, und durchaus auch mal bis an die Null Grad. Völlig normal, dass das im Winter vorkommt, Luftmassen verschieben sich halt. Schon nächste Woche werden dort wieder kuschelige minus 30°C sein.

Wir erwarten heute und morgen Höchstwerte von 0 bis 2 Grad. Wieviel ist das mehr als -25° ? Genau, 25 bis 27°. Also nicht doppelt so viel (50 Grad)!

Was uns daran stört, ist, dass den Leuten über Radio, Internet und TV suggeriert werden soll, dass es mit der Nordpolwärme über 50 Grad als normal die Polkappen-Schmelze voran treibt und wir alle sterben werden. Es ist Winter, die Eisschilde am Nordpol wachsen gerade kräftig, so wie sie es im Winter immer tun, und sie schmelzen nicht bei +2 Grad für ein paar Tage. Bitte immer nachdenken bei solchen Infos…"

Unlängst hatten wir an dieser Stelle über den Orkan XAVER vom 5. Dezember 2013 berichtet [5]:

"XAVER war ein Orkantief. Es hat Schäden verursacht, und auch Menschen starben. Das ist schlimm, aber das kommt vor – früher, heute, morgen. Fast noch schlimmer: Unsere medial gesteuerte Welt machte und macht daraus eine voyeuristisch orientierte Katastrophen-Show. Am "Schlimmsten" ist es dann, wenn den Menschen – wie aktuell wieder geschehen – auf völlig unabgesicherter wissenschaftlicher Basis eine dramatische Orkan- und Sturmflut-Zukunft suggeriert wird. Warum? Weil eine angeblich mensch-gemachte Klima-Katastrophe unvorstellbare Stürme verursachen soll. Beweis ?  XAVER?  Fehlanzeige !"

Im Rahmen des hier zitierten XAVER-Beitrages hatten wir eine kleine Statistik über Orkane der letzten 30 Jahre dargelegt – schon das genügt für die Versachlichung auch der aktuellen ECKARD-Debatte:

===================================================

"Wie extrem war XAVER ?" ( Auszug aus [5])

"Die erste Wetterkarte in Deutschland wurde 1876 an der Seewarte in Hamburg gedruckt.

Seit dieser Zeit werden auch die Stürme dokumentiert, und ihre Intensitäten – wobei der tiefste Luftdruck (Kerndruck) die wichtigste Orientierung ist. So wurden seit mehr als 100 Jahren immer wieder atlantische Tiefs mit Kerndrucken von unter  940 und sogar unter 920 hPa beobachtet. Extreme Beispiele aus "jüngerer Zeit" sind der Orkan vom 10.01.1993 mit 920 hPa Kerndruck [17], sowie am 15.12.1986 mit 910 hPa [18]. 

Bei dem Sturmtief vom 13.11.1972 wurden beim Seewetteramt HH 955 hPa gemessen [19], was noch nicht einmal dem Kerndruck entsprach.

Gegenüber alledem sieht XAVER mit etwa 960 hPa über Skandinavien (Abb. 3) noch recht zahm aus.

Gleichermaßen verhält es sich mit den Sturmstärken [20] :

"Xaver war nicht so heftig wie der Orkan "Christian" Ende Oktober, aber er erreichte ebenfalls extreme Windstärken, dauerte außergewöhnlich lange und betraf ein besonders großes Gebiet. Einige der höchsten Windgeschwindigkeiten in der Nacht auf Freitag wurden laut Deutschem Wetterdienst (DWD) an der Ostseeküste Schleswig-Holsteins gemessen. In Glücksburg mit 158 Kilometern pro Stunde, am Kieler Leuchtturm mit 144 km/h. Auch auf dem Brocken (155 km/h), in List auf der Nordseeinsel Sylt (174) und in Büsum (137) wurden hohe Werte registriert."

Und [1] :

"Auf dem höchsten Berg Norddeutschlands, dem Brocken im Harz, hat Orkantief "Xaver" am Donnerstag eine Spitzengeschwindigkeit von 155 Stundenkilometern erreicht. Doch man bleibt gelassen. "Das ist nichts Besonderes für unsere Verhältnisse", hieß es bei der Wetterstation auf dem Berg."

"Nichts Besonderes" – so war es landauf-landab bei den gemessenen XAVER-Windstärken.

In Erinnerung ist manch einem noch LOTHAR vom 26.12.1999, bei dem z.B. Windspitzen im Rheintal von 152 km/h gemessen wurden und auf dem Wendelstein 212 km/h  [21].

In "jüngerer" Erinnerung ist auch noch eine ganze Serie von fünf Orkanen zwischen dem 25.01. und dem 28.02.1990, die als "VIVIAN, WIEBKE + Co." in die Wettergeschichte eingingen. Dabei wurden in ganz Deutschland verbreitet Spitzenwerte um die 150 km/h gemessen, auf dem Wendelstein sogar 265 km/h [22].

Wie dem auch sein – die bei XAVER gemessenen Werte um die 150 km/h sind historisch nichts Besonderes."

Gleiches gilt für Tief ECKARD !

==================================================

F a z i t :

Ob  XAVER – ob  ECKARD :

"Es ist ein Ausdruck des chaotischen Systems Atmosphäre.
Mit dem Klimawandel hat es nichts zu tun." 

[DWD in SPON s.w.o.]

=============

Q u e l l e n :

[1]  http://www.faz.net/aktuell/wissen/wird-2016-das-wetter-genauso-schlimm-wie-in-diesem-jahr-13991353-p3.html

[2]http://www.dwd.de/DE/wetter/thema_des_tages/2015/12/30.html;jsessionid=F7B4784853787481BDC16FEF1E93085F.live11053

[3] http://www.spiegel.de/wissenschaft/natur/sturm-frank-waermt-nordpol-und-stuermt-ueber-island-a-1070030.html

[4] http://wetterkanal.kachelmannwetter.com/orkantief-bei-island-ohne-rekordwaerme/

[5] http://www.eike-klima-energie.eu/news-cache/xaver-ein-herbstliches-orkantief-wie-andere-auch-missbrauch-durch-die-klima-alarmisten-von-der-natur-widerlegt/

=================================================================

[1] http://www.rp-online.de/panorama/deutschland/orkan-xaver-sturmfluten-drohen-der-sturm-laesst-fluege-zuege-ausfallen-aid-1.3866302

……

[17] Berliner Wetterkarte, 11.01.1993

[18] SWA Hamburg, Wetterlotse, Mai 1990: Der extrem tiefe Orkanwirbel von 910 hPa am 15.12.1986

[19] SWA HH, Beil.z.WK, 17.11.1972, Der schwere Sturm am 13.11.1972

[20] SPON 06.12.2013, 14:35 Uhr;  http://www.spiegel.de/panorama/sturm-und-sturmflut-fragen-und-antworten-zu-orkan-xaver-a-937583.html ;

[21] DWD, Beil.z.WK, 9/2000, Bewertung der Orkanwetterlage am 26.12.1999

[22] H. Dronia; Vivian und Wiebke, SuW 12 (1990), S. 723-726

=================================================================

PDF-Anhänge: Stürme "ECKARD" und "XAVER"


Related Files