1

Zwei Stromerzeugungs­systeme kollidieren

Einleitung

Das Jahr 2015 war ein Rekordjahr für die Produzenten von Solar- und Windstrom, vor allem, weil das Jahr ein „gutes Windjahr“ war. Nie zuvor wurde in Deutschland so viel Strom aus Wind und Sonne erzeugt. In der Summe waren es 125 TWh. Gemessen am Stromverbrauch liegt der Anteil des in Deutschland produzierten Wind- und Sonnenstroms damit bei 19,3%. Diese Zahl wurde von der Presse und der EE-Lobby gefeiert und der Eindruck erweckt, die erneuerbaren Energien (Wind, Sonne, Biogas, Wasserkraft, Hausmüll und Sonstige) hätten damit tatsächlich 30 % zur Versorgung in Deutschland beigetragen. Genau das ist nicht der Fall. Es wurden zwar Rekordmengen an Strom produziert, aber nicht im Lande verbraucht, sondern in großen Mengen ins angrenzende Ausland exportiert. Die Diskussion darüber, ob es sich bei den Exporten um Kohlestrom oder EE-Strom handelt, ist müßig. Auch der Hinweis darauf, dass der EE-Strom bei der Börse zu Grenzkosten 0 hereingenommen wird, führt an den eigentlichen Problemen vorbei. Unabhängig vom aktuellen Börsenpreis zahlt der Kunde immer den durch das EEG garantierten Strompreis, geht der Preis bei Überproduktion ins Negative, kommen diese Kosten noch hinzu.

Kernproblem sind die immer größer werdenden Schwankungen der EE-Stromproduktion, die von den vorhandenen thermischen Kraftwerken vor allem aus physikalischen und technischen Gründen nicht mehr kompensiert werden können. Im Netz ist der Strom aus EE-Anlagen ein Unruhestifter, dessen Schwankungen ohne die erforderlichen Speicher nicht mehr beherrschbar sind. Mit der Rekordproduktion an EE-Strom stiegen in 2015 auch die Kosten für die Notmaßnahmen zur Verhinderung eines Netzzusammenbruchs: So schreibt DER SPIEGEL am 17. Januar, dass die Eingriffe zur Abwehr eines größeren Stromausfalls im vergangenen Jahr zu Rekordkosten von etwa einer Milliarde Euro geführt haben. Über die Netzentgelte gehen diese Kosten zu Lasten der Verbraucher.

 

Unsere elektrischen Nachbarn errichten Stromsperren an ihren Grenzen, um die eigenen Netze vor unserem Überschussstrom zu schützen. Die erforderlichen Phasenschiebertransformatoren lassen sie sich vom deutschen Stromkunden auch noch bezahlen! Kosten für die Verbraucher: 200 Millionen Euro.

Dieses Debakel ergibt sich aus fundamentalen technischen und physikalischen Zusammenhängen und schon vor Jahren wurde davor gewarnt: In einer Untersuchung [1] hat das ISE Fraunhofer Institut in Freiburg schon im August 2013 davor gewarnt, dass ein weiterer Ausbau der erneuerbaren Energien zu anwachsenden Exportüberschüssen und zu länger andauernden Zeiten mit niedrigen oder gar negativen Börsenpreisen und zu einem langfristig unüberwindbaren Systemkonflikt führen wird.

Dieser Systemkonflikt ist längst eingetreten. Aus Sätzen der mathematischen Statistik wurde bereits im Jahre 2014 abgeleitet, dass die Leistungsspitzen durch den Ausbau der Windkraft weiter ansteigen und die bekannten Probleme wie Überstromproduktion und Negativpreise an der Börse weiter verschärfen werden [2].

Der Systemkonflikt entsteht durch zwei voneinander unabhängige Stromerzeugungssysteme in Deutschland:

  1. Das konventionelle Stromerzeugungssystem, bestehend aus Kernkraftwerken, Braunkohlekraftwerken für die Grundlast, Steinkohlekraftwerken für die Mittellast und Gaskraftwerken für die Spitzenlast. Diese Klassifizierung ergibt sich zwangsläufig aus dem technisch möglichen und wirtschaftlich sinnvollen Regelpotenzial dieser Kraftwerke.

Zu dem konventionellen Stromerzeugungssystem kann man aus gutem Grund auch die Biogasanlagen hinzuzählen. Diese lassen sich ähnlich kontinuierlich betreiben wie Kohlekraftwerke und gehören damit auch zu den regelbaren Stromerzeugern. Die konventionellen Anlagen lassen sich bedarfsgerecht betreiben. Aufgrund der Regelbarkeit der Kraftwerke folgt die Stromproduktion auf die Millisekunde genau dem Bedarf. Dieser momentane Ausgleich von Nachfrage und Erzeugung ist die physikalische Grundbedingung für ein stabiles Stromnetz.

 

  1. Das zweite System sind Windkraftanlagen mit ca. 45 GW installierter Leistung und Photovoltaikanlagen mit ca. 40 GW installierter Leistung. Die Stromerzeugung aus Sonne unterliegt dem Tag-Nacht-Rhythmus. Die Periodendauer beträgt 24 Stunden, der Stromeintrag beginnt nach Sonnenaufgang mit geringen Werten und erreicht um 12:00 das Maximum. Der Leistungsbedarf schwankt auch im 24 Stunden Rhythmus, jedoch nicht deckungsgleich mit dem Sonneneintrag. Er beginnt früher als die Sonnenstromlieferung, geht gegen Mittag zur Zeit der höchsten Sonnenausbeute leicht zurück, steigt danach wieder an und endet gegen Abend später als der Sonneneintrag.

Die Windausbeute hängt von den Wetterbedingungen ab. Wind- und Sonnenstrom sind daher in hohem Maße volatil.[1] Bedarfsgerechte Stromerzeugung ist mit diesem System physikalisch nicht möglich.
Die Kombination aus Wind- und Sonnenstrom verursachen für das konventionelle Versorgungssystem unterschiedlich schwierige und unterschiedlich teure Regelsituationen. Der einfachste und auch kostengünstigste Fall ist Windstille bei Nacht. Dann liegt der Regelungsbedarf bei Null. Der teuerste Fall ist viel Wind beispielsweise bei einer Ost-Wetterlage und tagsüber ein hohes Angebot an Solarstrom. Hier müssen konventionelle Kraftwerke vormittags schnell abgeregelt und nachmittags genauso schnell wieder heraufgeregelt werden. Nur so können Netzausfälle vermieden werden.

Die Volatilität von Wind- und Sonnenstrom ist das bisher ungelöste Kernproblem der Energiewende. Liegt die Lösung in noch mehr Windrädern?

Tabelle 1 Statistische Kennzahlen Windkraft

Jahr Installierte Nennleistung am Jahresende Maximale Windleistung Mittlere Windleistung Minimale Windleistung Standard-abweichung Stundenwerte – Mittelwert Verhältnis Standard-abweichung zum Mittelwert
2010 27.072 MW 21.679 MW 4.070 MW 113 MW 3.661 MW 0,90
2011 28.606 MW 22.870 MW 5.051 MW 88 MW 4.391 MW 0,87
2012 30.755 MW 24.086 MW 5.222 MW 115 MW 4.419 MW 0,85
2013 33.614 MW 26.269 MW 5.380 MW 121 MW 4.864 MW 0,91
2014 36.928 MW 29.687 MW 5.868 MW 24 MW 5.488 MW 0,93
2015 44.946 MW 36.956 MW 8.996 MW 93 MW 7.220 MW 0,80

Betrachtet man die Standardabweichung als Maß für die Volatilität so ist festzustellen, dass diese von 2010 bis 2015 gleichzeitig mit dem Anstieg der installierten Wind- und Sonnenleistung zu- und nicht etwa abgenommen hat. Offensichtlich erhöhen noch mehr Windräder lediglich die Spitzenerzeugung, ohne eine sichere Grundlast zur Verfügung stellen zu können. Eine sichere und unterbrechungsfreie Stromversorgung ist unabhängig von der Anzahl der Wind- und Sonnenkraftwerke nicht möglich. Einen Ausgleich der Erzeugung zu einer sicher zur Verfügung stehenden Leistung durch noch mehr Windräder gibt es in Deutschland nicht. Dies ist inzwischen hinreichend belegt [3], obgleich das Gegenteil in Studien zu erneuerbaren Energien immer wieder behauptet wird und damit die Politik zu nachweisbar falschen Entscheidungen drängt.

Strom aus Wind und Sonne hat gemäß EEG Vorrang in den Netzen und wird von der Börse zu Grenzkosten 0 hereingenommen. Dadurch ist das volatile und für den Stromverbraucher teure Stromerzeugungssystem gegenüber dem konventionellen System absolut bevorzugt. Das bedeutet in letzter Konsequenz, dass die konventionellen Kraftwerke bei Nacht und Windstille die gesamte nachgefragte Leistung decken können müssen und dies unabhängig von der Anzahl der installierten Windräder. Die gesamte Sonnen- und Windleistung muss zu 100 % der nachgefragten Leistung ausreichend schnell durch regelbare Kraftwerke ersetzbar sein. Die maximale Residuallast, das ist die Differenz zwischen der benötigten Leistung und der Leistung, die die nicht regelbaren Kraftwerke – das sind die Wind- und Sonnenkraftwerke – erbringen, beträgt in diesem Fall 100% der nachgefragten Leistung.

Wenn ausreichend Sonnen- und Windleistung vorhanden ist, müssen die konventionellen Kraftwerke den Schwankungen der Wind- und Sonnenstromerzeugung schnell folgen und soweit heruntergefahren werden, wie dies technisch und wirtschaftlich vertretbar ist. Diese Schwelle bestimmt die mögliche minimale Residuallast, auf die die konventionellen Kraftwerke heruntergefahren werden können, ohne dass sie die Fähigkeit verlieren, bei Nachlassen von Wind und Sonne die Leistung kurzfristig wieder herauf geregelt zu werden. Welche Residuallast darf also nicht unterschritten werden?

Zur Erinnerung: es sind bereits 85 GW Wind- und Sonnenleistung installiert. Als Maximalwert wurden bisher im Rahmen des Netzmanagements 50 % der Nennleistung, das sind etwa 42 GW zugelassen. Bei weiterem Ausbau der Windenergie wird zumindest in Schwachlastzeiten sehr bald mit negativen Residuallasten zu rechnen sein, d.h. es kann theoretisch mehr EE-Strom produziert als verbraucht werden. Eine Prognos-Studie geht davon aus, dass als Folge eines weiteren Ausbaus von Sonnen- und Windkraft in 2030 an ca. 1100 Stunden eine negative Residuallast anfallen wird. [4]

Beispielsweise am Sonntag den 8. Mai 2016 betrug der Leistungsbedarf in Deutschland gegen 12:00 Uhr ca. 50 GW. Wind und Sonne lieferten zur gleichen Zeit 42 GW, damit betrug die auf den Strombedarf in Deutschland bezogene Residuallast nur 8 GW. Eigentlich würde man hier erwarten, dass die verbleibenden Kraftwerke auf diese Leistung zurückgefahren werden. Warum war das nicht der Fall? Die regelbaren Kraftwerke wurden auf 23 GW abgeregelt. Der Überschuss von 15 GW wurde in ausländische Netze „entsorgt“. Dafür waren zwischen 10:00 Uhr und 17:00 Uhr Entsorgungsgebühren von 21 Mio. € fällig. In der Statistik werden die Entsorgungsgebühren beschönigend „negative Strompreise“ genannt.

Das Kernproblem der Energiewende ist die bedarfsgerechte Bereitstellung der Residuallast. Wie weit und wie schnell kann man die vorhandenen Kraftwerke auf- und abregeln und sind die Kraftwerke dann überhaupt noch wirtschaftlich zu betreiben?

Für die Ermittlung der minimal zulässigen Residuallast sind folgende Faktoren zu berücksichtigen:

  1. Welches ist die maximal mögliche Abregelgeschwindigkeit, damit die konventionellen Kraftwerke den witterungsbedingten Schwankungen der EE-Stromeinspeisung und damit den steilen Lastgradienten folgen können?
  2. Welches ist der Minimalwert, von dem aus die konventionellen Kraftwerke ihre Leistung bis zur Nennleistung wieder schnell heraufregeln können?
  3. Welche minimale generator-basierte Leistung muss zur Bereitstellung der Frequenz stabilisierenden Schwungmasse vorgehalten werden?

Die Leistungsänderung erfolgt in einem technisch bestimmten Leistungsspektrum – nämlich zwischen der minimalen – und technisch sinnvollen – im Normalbetrieb fahrbaren Leistung und der (maximalen) Nennleistung des Kraftwerks.

 

Thermische Kraftwerke lassen sich schnell auf ca. 40 % ihrer Nennleistung herunterfahren.

Tabelle 2 Leistungskennwerte von Kraftwerken [5]

Maximale

Leistung

Minimale

Leistung

Maximaler Laständerungs-

gradient

Kernkraftwerke

 

1.260 MW 630 MW ± 63 MW/min
Neue GuD-Kraftwerke 875 MW 260 MW

 

± 38 MW/min
Neue Kohlekraftwerke 800 MW 320 MW ± 26 MW/min
Alte Kohlekraftwerke 600 MW 420 MW ± 8 MW/min

Zur Deckung der stark schwankenden Residuallast nutzt man sinnvollerweise die Regelkraftwerke, nämlich Pumpspeicher-Kraftwerke, Gasturbinen- (soweit verfügbar) und Steinkohlekraftwerke. KKWs sind aus wirtschaftlichen Gründen zunächst nicht für die Regelreserve geeignet. Nach Abschaltung der verbliebenen 8 KKWs in 5 Jahren stehen diese ohnehin nicht mehr zur Verfügung.

Unterstellt man eine Mindestleistung von 40 % für einen gesicherten Betrieb, kann man die Produktion aus o.a. Kraftwerken auf ca. 20 GW absenken. Dabei sind KKWs und Laufwasserkraftwerke nicht berücksichtigt. Danach sind etwa 25 bis 30 GW die Mindestleistung, auf die man die konventionelle Erzeugung absenken kann, ohne Kraftwerke komplett „kalt“ fahren zu müssen. Ein Kaltstart dauert bei Gaskraftwerken min. 30 min. Bei einem Kohlekraftwerk dauert ein Kaltstart hingegen 7 bis 15 Stunden.

Ein weiterer fundamentaler Grund, der eine Mindesteinspeisung konventioneller Kraftwerke erfordert, ist die Aufrechterhaltung der Systemstabilität, da Erzeugung und Verbrauch sich zu jedem Zeitpunkt in einem stabilen Gleichgewicht befinden müssen. Ein Abweichen von diesem Gleichgewicht äußert sich in einer Änderung der Frequenz (ein Überangebot führt zu Frequenzanstieg und ein Mangel zu Frequenzabfall). Dieses stabile Gleichgewicht wird durch die kinetische Energie der Turbogeneratoren gewährleistet, die im Netz als Kurzzeitspeicher wirken. Bereits bei einer Frequenzänderung von 0,01 Hz wird zu Maßnahmen der Primärregelung gegriffen. Zu Abweichungen gegenüber dem geplanten Gleichgewicht kann es kommen, da es Prognosefehler bei der Last und bei der Windeinspeisung geben kann und konventionelle Kraftwerke ungeplant vom Netz gehen können. Dann sind sogenannte Redispatch Maßnahmen erforderlich.

Hierzu die Erklärung von Amprion [6]:

In allen europäischen Kraftwerken drehen sich die Generatoren 50 Mal pro Sekunde und erzeugen den Wechselstrom mit einer Frequenz von 50 Hertz. Sinkt oder steigt die Frequenz im Netz, so wird die Funktion zahlreicher elektrischer Geräte wie Computer, Fernseher oder Motoren beeinflusst. Aber auch die Generatoren können beschädigt werden, sofern die Frequenz auf unter 47,5 Hertz sinkt. Die dann auftretenden Resonanzschwingungen führen zu einer Zerstörung.

Deshalb soll im europäischen Verbundnetz die Netzfrequenz nur wenig vom Sollwert abweichen. Die Netzregelung greift bereits bei einer Abweichung von 0,01 Hertz automatisch ein. Starten in den Fabrikhallen morgens die Maschinen gleichzeitig oder werden am Abend zu den Nachrichten die Fernseher im selben Moment eingeschaltet, so steigt die Belastung der Generatoren und sie werden für einen kurzen Augenblick etwas langsamer. Das Resultat: die Frequenz sinkt ab. Die automatisch einsetzende Leistungs-Frequenz-Regelung im Netz sorgt dafür, dass die Kraftwerke neue Leistungssollwerte erhalten und dadurch die Turbinen mehr Dampf bekommen und die Generatoren wieder mit 50 Hertz (Hz) rotieren. An dieser Regelung sind kontrahierte Kraftwerke im UCTE-Verbund beteiligt, die dafür ein vereinbartes Leistungsband ihrer Erzeugungsleistung als Reserve bereithalten.“

Die Übertragungsnetzbetreiber haben in einer Studie zur Ermittlung der Mindesterzeugung des konventionellen Kraftwerkparks folgende Ergebnisse veröffentlicht [7]:

Bei einer durchschnittlich bereitgestellten Regelleistung für die Primärregelung in Höhe von 3 % der Nennleistung ergibt sich eine installierte Leistung von knapp 20 GW, die kontinuierlich am Netz sein muss. Auf Basis dieser Mindesterzeugung wird im folgenden Abschnitt der dadurch gesicherte Beitrag zur Schwungmasse im Regelblock Deutschland beziffert und dessen Bedeutung für die Frequenzstabilität abgeleitet.  

Die zuvor genannte Mindesterzeugung von 20 GW stellt eine bestimmte mindestens am Netz befindliche Schwungmasse für den Regelblock Deutschland sicher. Da die Regelleistung hauptsächlich durch thermische und hydraulische Erzeugungseinheiten bereitgestellt wird, kann als konservativer Wert eine mittlere Anlaufzeitkonstante der Turbosätze angenommen werden. Somit ergibt sich abhängig von der Netzlast im Regelblock Deutschland die minimale Netzanlaufzeit. Für eine Netzlast zwischen Schwachlast von ca. 35 GW und Starklast von ca. 85 GW liegt die minimale Netzanlaufzeitkonstante für den Regelblock Deutschland zwischen 5,7 s und 2,4 s. Hierbei sind alle Kraftwerke vernachlässigt, die nicht an der Primärregelung teilnehmen. Selbst bei hoher Netzlast stellen die primärgeregelten Kraftwerke annähernd die minimal erforderliche Schwungmasse bereit. Darüber hinaus sind u. a. Laufwasserkraftwerke und KWK nahezu das ganze Jahr am Netz. Es ist davon auszugehen, dass bei mittlerer und hoher Netzlast weitere konventionelle Erzeugungseinheiten am Netz sind, sodass die o.g. Empfehlung für die minimale Schwungmasse ohne zusätzliche Maßnahmen erfüllt werden kann.“

PV-Anlagen und Windkraftanlagen verfügen nicht über Schwungmassen. Diese müssen auch in Zeiten hoher Wind- und Sonnenstromausbeute von konventionellen Kraftwerken bereitgestellt werden.

Aus den oben genannten Gründen kann und darf die Residuallast nicht nennenswert unter 20 GW sinken. Das hat zur Folge, dass auch und gerade in Schwachlastzeiten bei hohem Aufkommen an Sonnen- und Windstrom konventionelle Kraftwerke zur Stabilisierung der Netze in Betrieb gehalten werden müssen, will man die Netzstabilität nicht gefährden. Daraus ergibt sich, dass überschüssiger EE-Strom exportiert oder abgeregelt werden muss. Um teure Exporte zu vermeiden, müssen Windkraft- und Solaranlagen abgeregelt werden. Es gibt also einen kausalen Zusammenhang zwischen der Überproduktion von EE-Strom und den Stromexporten. Das deutsche Stromnetz ist also aus Gründen der Systemstabilität schon heute nicht mehr in der Lage, die Erzeugungsspitzen aus EE-Strom in vollem Umfang aufzunehmen.

Abbildung 1 Stromexporte zwischen 2010 und 2015 [8]
Abbildung 1 Stromexporte zwischen 2010 und 2015 [8]
Abbildung 1 Stromexporte zwischen 2010 und 2015 [8]

 

In der Tat haben sich die Exportmengen seit 2010 nahezu verdoppelt. Bevorzugte Exportländer sind Österreich, Niederlande und Belgien.

Eine Reduzierung der Leistung unter 25 GW ist technisch und wirtschaftlich nicht möglich. Der in der Folge entstehende Überschussstrom muss in ausländische Netze geleitet werden. Ein typisches Beispiel ist die 45. Woche 2015.

Abbildung 2 Last und Stromerzeugung in KW 45 2015
Abbildung 2 Last und Stromerzeugung in KW 45 2015

Abbildung 2 Last und Stromerzeugung in KW 45 2015

Am Sonntag, den 8 Nov. 2015 betrug die EE-Strom Produktion um 00:00 Uhr knapp 26 GW, die nachgefragte Last 42 GW. Die Residuallast wurde aber nicht auf die eigentlich erforderlichen 16 GW gedrosselt, sondern nur auf 26 GW, um genügend Schwungmasse für die Netzstabilität zur Verfügung zu stellen und um die Regelfähigkeit für den weiteren interessanten Lastverlauf des Tages zu sichern. Von 00:00 Uhr bis 02:00 Uhr gingen 10 GW in den Export. Mit steigender Nachfrage in Deutschland verringerte sich der Export auf ca. 2 GW. In der Nacht gab es wieder mehr Windstrom und um 24:00 gingen wieder 12 GW in den Export.

 

Abbildung 3 Korrelation der Stromexporte mit Wind- und Solarproduktion im Februar 2015 (Stundenwerte)
Abbildung 3 Korrelation der Stromexporte mit Wind- und Solarproduktion im Februar 2015 (Stundenwerte)

 

Abbildung 3 Korrelation der Stromexporte mit Wind- und Solarproduktion im Februar 2015 (Stundenwerte)

Wertet man die zugänglichen Daten mittels Regressionsanalysen[2] aus, kommt man zu vergleichbaren Ergebnissen:

Abbildung 3 zeigt einen eindeutigen Zusammenhang zwischen der stündlichen EE-Stromproduktion und den Stromexporten: Je höher die EE-Leistung, desto höher sind die Stromexporte. Dies gilt nicht nur für die Stundenwerte, sondern auch für die summarische jährliche Stromproduktion.

Die Regressionsanalyse der Jahresdaten zeigt einen signifikanten Zusammenhang zwischen EE-Stromerzeugung und -export (Abbildung 4). Der Regressionskoeffizient liegt mit 0.92 nur unwesentlich unter dem höchsten möglichen Wert 1. Zahlenmäßig hat das Anwachsen der EE-Stromerzeugung auf jährlich 120 TWh eine Erhöhung des Stromexports um rund 40 TWh zur Folge gehabt. Ein Drittel der EE-Stromproduktion wurde nicht in Deutschland verbraucht, sondern ins Ausland exportiert. Die verbreitete Behauptung, erneuerbare Energien hätten einen Beitrag von 30% zur deutschen Stromversorgung geleistet, hält daher einer kritischen Prüfung nicht Stand.

Daher ist die EE-Stromerzeugung unter den gegebenen technischen und wirtschaftlichen Randbedingungen die Ursache für den Export und für die unvertretbaren Entsorgungsgebühren.

abb-4-regression

Abbildung 4 Zusammenhang zwischen Stromexport und Stromproduktion aus Wind- und Solarkraftwerken

 

Tabelle 3 Entwicklung von negativen Strompreisen

Jahr Anzahl Stunden mit negative Börsenpreisen Handelsmenge EEX Summe der Handels-menge Durchschnittlicher negativer Börsenwert
2010 12 h/a 0,32 TWh -1.695.134 € -5,40 €/MWh
2011 14 h/a 0,46 TWh -4.674.723 € -10,10 €/MWh
2012 56 h/a 1,81 TWh -106.573.608 € -58,80 €/MWh
2013 64 h/a 2,17 TWh -31.403.398 € -14,50 €/MWh
2014 64 h/a 2,59 TWh -41.511.253 € -16,00 €/MWh
2015 126 h/a 4,77 TWh -44.223.893 € -9,30 €/MWh

In 2015 haben die abnehmenden Länder 44,2 Mio. € Entsorgungsgebühr erhalten, obwohl Windräder in zunehmendem Maße abgeschaltet wurden. Die sogenannte Ausfallarbeit [9] hat sich von 1,5 TWh in 2014 auf 3 TWh in 2015 fast verdoppelt. Ohne diesen Anstieg wären die Exportmengen und damit die Entsorgungsgebühren entsprechend höher gewesen.

Folgende Gesetzmäßigkeit lässt sich ableiten: sinkt die Residuallast unter die minimale Regelleistung, dann muss Strom exportiert werden oder die Wind- oder PV-Anlagen müssen vom Netz genommen werden. Eine weitere Schlussfolgerung: wird der vorgesehene weitere Ausbau der Sonnen- und Windkraft nicht gestoppt, muss es zu noch höheren Exporten kommen mit der Folge noch höherer Entsorgungskosten und / oder die neuen Anlagen müssen bei viel Sonne und Wind abgeschaltet werden mit der Folge noch höherer Kosten für die Ausfallarbeit.

Eine im Auftrag des BMWI durchgeführte Studie [10] geht davon aus, dass es für Deutschland mit seinen „elektrischen Nachbarn“ bei weiterem Ausbau der Windkraft Ausgleichseffekte durch unterschiedlichen Lastgang und durch schwankende nationale Produktionen geben wird. Den Beweis für die Ausgleichseffekte erbringt die Studie nicht. Einen Ausgleich bei der Windkraft, und das ist hinreichend bewiesen, gibt es zwischen Deutschland und seinen „elektrischen Nachbarn“ nicht. Ein Ausgleich beim Lastgang ist höchst unwahrscheinlich: in allen europäischen Ländern beginnt der Industrietag am frühen Morgen, die Mittagspause gegen Mittag und das Ende der Produktion gegen Abend. Die Lastgangkurven sind in allen europäischen Ländern im Wesentlichen identisch.

DE DE DE DE DE DE DE DE DE DE
Jahr FR AT BE CH CZ DK IT LU NL PL
2006 96,8 99,7 99,8 95,9 98,5 97,9 99,7 99,6 98,5
2007 96,8 99,6 99,2 99,3 98,9 96,7 99,9 97,8 99,0
2008 98,6 99,6 99,8 98,7 99,4 97,5 99,8 99,9 98,6
2009 97,7 99,7 99,3 99,1 99,4 98,9 99,7 99,9 99,1
2010 97,1 99,8 100,0 99,7 99,5 100,0 97,0 99,9 100,0 99,3
2011 98,9 99,6 98,4 99,3 99,4 99,5 97,1 99,5 99,8 99,6
2012 100,0 99,6 99,5 99,7 99,7 99,8 98,6 100,0 99,6 99,8
2013 96,2 99,6 99,6 99,4 99,5 99,5 97,4 100,0 99,1 99,9
2014 99,3 99,8 100,0 99,7 99,7 99,6 99,8 99,9 100,0 99,5

 

Tabelle 4 Gleichzeitigkeitsfaktoren der Netzlasten [12]

Die in Tabelle 4 dargestellten Gleichzeitigkeitsfaktoren zeigen, dass große Netzlasten in ganz Westeuropa im Wesentlichen zum gleichen Zeitpunkt auftreten. Ein ausgebautes westeuropäisches Stromnetz kann daher keinen Ausgleich bewirken.

Schlussfolgerungen:

  1. Die Exportüberschüsse und die Stunden mit negativen Börsenpreisen sind, wie in der Fraunhofer ISE Studie aus dem Jahr 2013 vorhergesagt, tatsächlich weiter gestiegen und sie werden mit weiterem Ausbau von Wind- und Sonnenstrom notwendigerweise exponentiell weiter steigen, wenn dies nicht durch Abregelung begrenzt wird.
  2. Die Systemkonflikte zwischen konventionellem Erzeugungssystem und dem Wind- und Sonnenstrom-System sind bereits eingetreten. Deren Beherrschung wird immer teurer.
  3. Bereits jetzt schalten energieintensive Industriebetriebe die Produktion ab, wenn die konventionellen Kraftwerke den steilen Lastgradienten nachmittags und abends nicht schnell genug folgen können. [11]
  4. Die durch das EEG geförderte Energiewende ist an den Grenzen der Physik gescheitert.
  5. Es müssen endlich technisch realisierbare Lösungen gefordert und gefördert werden: Haushaltspeicher für Sonnenstrom. Sie sind verfügbar, Stand der Technik und geeignet, die Spitzen der Sonnenstrom Erzeugung abzuschneiden und in den Abend und in die Nacht zu verlagern.
  6. Geothermie-Kraftwerke sind Stand der Technik. Das Potenzial in Deutschland ist hoch, sie sind grundlastfähig und arbeiten 8760 Stunden im Jahr ohne Emissionen. Die bisher realisierten Projekte in Bayern sind vielversprechend.
  7. Industrielle Abwärme kann zur Stromerzeugung genutzt werden. Hier vermutet der ORC Fachverband ein Potenzial von 4 bis 8 GW grundlastfähiger Leistung. Bereits jetzt laufen in Deutschland 100 Anlagen mit einer installierten Leistung von 120 MW.

 

Literaturverzeichnis

[1] Johannes N. Mayer, Niklas Kreifels, Bruno Burger: „Kohleverstromung zu Zeiten niedriger Börsenstrompreise“ Fraunhofer ISE, August 2013 https://www.ise.fraunhofer.de/de/downloads/pdf-files/aktuelles/kohleverstromung-zu-zeiten-niedriger-boersenstrompreise.pdf

[2] Ahlborn, D.: „Korrelation der Einspeisung aus Windkraftanlagen macht Grundlastfähigkeit in Deutschland unmöglich“ in: Herbert Niederhausen, Andreas Burkert: Elektrischer Strom: Gestehung, Übertragung, Verteilung, Speicherung und Nutzung elektrischer Energie im Kontext der Energiewende Springer, Vieweg 2014

[3] Ahlborn, D.: „Glättung der Windeinspeisung durch Ausbau der Windkraft?“ in Energiewirtschaftliche Tagesfragen 65. Jg. (2015) Heft 12 S.37-39

[4] Ess, F. et al.: „Bedeutung der internationalen Wasserkraft-Speicherung für die Energiewende“ www.worldenergy.ch/file/Publikationen/Aktuell/prognos_wec_20121009.pdf

[5] http://www.alt.fh-aachen.de/downloads/Vorlesung%20EV/Hilfsb%2060% 20Regelleistungsbereiche%20Lastgradienten%20Kraftwerke.pdf

[6] http://www.amprion.net/netzfrequenz

[7] „Auswirkungen reduzierter Schwungmasse auf einen stabilen Netzbetrieb“

Studie im Auftrag der deutschen Übertragungsnetzbetreiber, Abschlussbericht, 20. Januar 2012

http://www.netzentwicklungsplan.de/sites/default/files/media/documents/Minimale%20Schwungmasse.pdf

[8] Agora Energiewende Denkfabrik, BDEW Energiebilanzen

[9] Bundesnetzagentur, Monitoringbericht 2015

Udo Leuschner: Energie Chronik

http://www.udo-leuschner.de/energie-chronik/151201.htm

https://www.bundesnetzagentur.de/SharedDocs/Downloads/DE/Allgemeines/Bundesnetzagentur/Publikationen/Berichte/2015/Monitoringbericht_2015_BA.pdf?__blob=publicationFile&v=3

[10] „Versorgungssicherheit in Deutschland und seinen Nachbarländern: länderübergreifendes Monitoring und Bewertung“ Consentec GmbH, r2b energy consulting GmbH 06.03.2015 Untersuchung im Auftrag des Bundesministeriums für Wirtschaft und Energie

[11] Dipl.-Ing. Heribert Hauck: „Netzstabilisierung durch flexible Produktion“ Vortrag auf dem Tag der Metallurgie, Goslar, 04.03.2016

[12] Bericht der deutschen Übertragungsnetzbetreiber zur Leistungsbilanz 2015 nach EnWG § 12 Abs. 4 und 5, Stand 30.09.2015

[1] Unter Volatilität versteht man das Ausmaß der Fluktuation einer Größe um ihren Mittelwert oder Trend, gemessen durch die Standardabweichung bzw. den Variationskoeffizienten. Danach hat sich die Volatilität der Windkraft in absoluten Zahlen verdoppelt, während die installierte Leistung um den Faktor 1,8 gestiegen ist (Tabelle 1).

[2] Regressionsanalysen sind statistische Analyseverfahren, die es erlauben Beziehungen zwischen zwei Variablen zu identifizieren.

[1] Dr.-Ing. Detlef Ahlborn, Dr.-Ing. Detlef Ahlborn, Fachbereichsleiter Technologie, VERNUNFTKRAFT. e. V., detlef.ahlborn@vernunftkraft.de

[2] Prof. Dr.-Ing. Hans Jacobi, Jacobi & Partner Industrieberatung GmbH Kennedyplatz 8 45127 Essen




Urteil des Bundesverfassungsgerichtes über den beschleunigten Ausstieg aus der friedlichen Nutzung der Kernenergie und ein Schweizer Volksentscheid

von  Rainer Küper

Am 06. Dezember 2016 verkündete das Bundesverfassungsgericht (BVerfG) das Urteil im Verfahren über den beschleunigten Ausstieg aus der friedlichen Nutzung der Kernenergie, der 2011 von Bundesregierung und Bundestag beschlossen worden war.

Das BVerfG stellt fest, dass Enteignungen nicht vorgenommen worden sind. In diesem Falle wäre Eigentum entzogen worden und in das Eigentum der öffentlichen Hand überführt worden. Die Eigentumsverhältnisse der 2011 stillgelegten Kernkraftwerke und die der laufzeitbeschränkten Kernkraftwerke sind aber unverändert.

Mit der 13. AtG-Novelle von 2011 sind lediglich Produktionslizenzen entzogen worden, ein Vorgang, mit dem jedes Unternehmen zu rechnen hätte.

Die vom BVerfG erkannten Verstöße gegen das Grundgesetz betreffen daher nur zwei Bereiche:

  1. 2002 wurden mit der Laufzeitbegrenzung der Kernkraftwerke Produktionsmengen festgelegt, die einen besonderen Vertrauensschutz genießen. Deren Nichtausschöpfung infolge der 2011 festgelegten starren Abschalttermine ist entschädigungswürdig. Insofern ist die 13. AtG-Novelle grundgesetzwidrig.
  2. Investitionen der Betreiber aufgrund der im Dezember 2010 vom Bundestag beschlossenen Laufzeitverlängerung der Kernkraftwerke, die aufgrund des Japan-Tsunamis im März 2011 zugunsten früherer und fester Abschalttermine zurückgenommen wurde, werden als gefrustete Investitionen gewertet. Sie sind ebenfalls entschädigungswürdig. Auch insofern ist die 13. AtG-Novelle grundgesetzwidrig.

In der Bewertung einer Technik ist der Bundestag jedoch frei. Der Bundestag kann jederzeit eine Technik zulassen oder verbieten.

Den konkreten Fall des beschleunigten Ausstiegs aus der Kernenergie beurteilt das BVerfG wie folgt, vgl. untenstehenden Link zur Pressemitteilung:

„[…] Demgegenüber sind die mit der 13. AtG-Novelle verfolgten Gemeinwohl­belange (Leben und Gesundheit der Bevölkerung, Schutz der natür­lichen Lebensgrundlagen) von hohem Wert und in der konkreten Umsetzung der Rücknahme der Laufzeitverlängerung von 2010 von großem Gewicht. Der Gesetz­geber wollte den 2002 beschlossen Ausstieg aus der friedlichen Nutzung der Kernenergie beschleunigen, indem er feste Abschalt­termine einführte und die Ende 2010 erfolgte Ver­längerung der Laufzeiten rückgängig machte. Hierdurch wurde eine Risikominderung von ganz erheblichem Ausmaß erreicht. Dabei ist auch nicht zu beanstanden, dass der Gesetz­geber auf die Ereignisse in Fukushima reagierte, obwohl hieraus keine neuen Gefährdungs­erkennt­nisse abgeleitet werden konnten. Wie weit allein geänderte politische Wertungen oder gewachsene Befürch­tungen und Ängste in der Bevöl­kerung auch Maß­nahmen tragen können, die ‑ wie die Beschleuni­gung des Atom­ausstiegs ‑ erheblich in Grundrechte der Betrof­fenen eingreifen, und welches Gewicht ihnen beigemessen werden kann, lässt sich allerdings nicht allgemein bestimmen. Jedenfalls bei der Beurteilung einer Hoch­risiko­techno­logie, deren Schadens­risiken in besonderem Maße von einer politi­schen Bewertung und einer öffent­lichen Akzeptanz abhängig sind, kann auch Ereignissen ein eigenes Gewicht beigelegt werden, die allein das Bewusst­sein der Öffent­lichkeit für diese Risiken ändern, obwohl neue Gefährdungen nicht erkennbar sind. […].“

Das BVerfG trägt eine Begründung vor, die den Anschein erweckt, Bundes­re­gierung und Parlament nicht schaden zu wollen.

Das BVerfG behauptet pauschal, mit den neuen festen Abschaltterminen „wurde eine Risikominderung in erheblichem Ausmaß“ erreicht, obwohl „keine neuen Gefährdungserkenntnisse abgeleitet werden können“.

Sollte das Risiko des Betriebes der Kernkraftwerke nicht tolerierbar sein, dann müssten alle sofort stillgelegt werden. Das sofortige Stilllegen der 8 Kernkraftwerke im März 2011 reduziert das Risiko um weniger als den Faktor 2, also nicht „erheblich“. In der Probabilistik sind erst Faktoren von 10 resp. 1/10 von Bedeutung. Faktor 2 ist Rauschen. Die Stilllegung der restlichen Kernkraftwerke würde erst ab Ende 2022 das Risiko aus dem Leistungsbetrieb auf Null setzen. Solange sich Brennelemente im Kraftwerk befinden, bleibt ein Risiko größer als Null, wenngleich extrem klein. Der Risikogewinn besteht als nur darin, dass Kernkraftwerke statt bis ca. 2030 nur bis 2022 im Leistungsbetrieb sein werden.

Das BVerfG erkennt an, dass für den Betrieb der Kernkraftwerke keine „neuen Gefährdungserkenntnisse“ vorliegen. Die Risikominderung kann also allenfalls die Differenz zwischen dem genehmigten extrem-winzig und dem zukünftigen hyper-winzig sein. 1/20 von ganz wenig über Null bleibt aber ganz wenig über Null. Insofern kann von „Risikominderung von ganz erheblichem Ausmaß“ keine Rede sein.

Das BVerfG widmet sich auch der Willkür von Bundesregierung und Bundestag, die mit hü und hott heute dies und morgen jenes durchsetzen und hat damit einen Entschädigungsanspruch begründet.

Insgesamt erscheint das BVerfG-Urteil jedoch mehr politisch als sachlich motiviert zu sein.

Die BVerfG-Begründung ist auch insofern verwunderlich, als sie jederzeit auf andere Industriezweige übertragbar ist. Der Bundestag könnte z. B. übermorgen beschließen, dass der eine oder der andere Zweig der chemischen Industrie ihm wegen eines Bauchgefühles zu gefährlich erscheine, das Risiko „in erheblichem Ausmaß“ gemindert werden müsse, und die Produktion stillzulegen sei. Da in diesem Falle nicht einmal mit vereinbarten Produktionsmengen argumentiert werden kann, würde der betroffene Betrieb der chemischen Industrie zwar nicht im juristischen Sinne, aber im praktischen Sinne per parlamentarischer Willkür über Nacht enteignet worden sein.

In Deutschland wird geschwurbelt, bis das Urteil zur Politik passt. Ohne Geschwurbel, klar und eindeutig das Votum des Schweizer Volkes am 27.11.2016 gegen die vorzeitige Stilllegung der Kernkraftwerke in ihrem Land. In der Schweiz hat das Volk entschieden, dass die Kernkraftwerke in Betrieb bleiben dürfen, solange sie sicher sind. Über die Kriterien entscheidet das Volk.

Das Deutsche Volk dagegen begnügt sich damit, andere über sich entscheiden zu lassen.

Links:




„Analyse zur Bewertung und Fehlerabschätzung der globalen Daten für Temperatur und Meeresspiegel und deren Bestimmungsprobleme“

Die Entwicklung des Globalklimas ist seit vielen Jahren ein Thema, das Wissenschaft, Öffentlichkeit und vor allem die Politik stark beschäftigt. Es wurde durch die Vermutung zum Thema, dass der Mensch durch die ungebremste Einspeisung von sog. Treibhausgasen, namentlich CO2, zu einer deutlichen Erhöhung der Globaltemperatur beiträgt. Dies sei für die Natur, aber auch die menschliche Entwicklung, schädlich. Dabei wird in aller Regel, wenn vom Globalklima gesprochen wird, dieses auf die Entwicklung der mittleren Globaltemperatur T reduziert. Im Gefolge der mit viel Aufwand errechneten Temperaturerhöhung des letzten Jahrhunderts, von im Durchschnitt ca. 0,7 ± 0,1 °C , wird die Befürchtung geäußert, dass diese Erwärmung Einfluss auf das Ansteigen des globalen Meeresspiegels nähme. Entsprechend werden Untersuchungen angestellt und veröffentlicht, welche die Entwicklung des Anstiegs eines globalem mittleren Meeresspiegels zum Inhalt haben. Darin wird festgestellt, dass dieser (über das ganze Jahrhundert) vermutlich mit einer Rate von ca. 1,8 ± 0,4 mm/Jahr gestiegen sei. Diese Rate, so wird geschätzt, hätte sich besonders im letzten Jahrzehnt des drastisch beschleunigt, d.h. um den Faktor 4, erhöht. Die Arbeit zeigt nun auf, dass es auf Grund der Art der vorhandenen Daten, deren Menge, Messmethoden und Mittel, sowohl bei der Temperatur, als auch beim Meeresspiegel nicht möglich ist die angegebene Genauigkeit darzustellen. Daraus folgt, dass alle darauf aufbauenden Schlussfolgerungen und Zuordnungen, von als wichtig erachteten Ursachen, im Bereich der Unsicherheiten liegen und damit ebenfalls nur sehr grobe Schätzungen sein können. Sie sind deshalb eher Vermutungen zu nennen und daher mit größter Vorsicht zu betrachten.

Summary

The development of global climate has been a topic of great discussion in science, the public, and foremost in politics for a number of years. It has been suspected that man has contributed significantly to an increase in global temperature by emitting so-called greenhouse gases, namely CO2. This is claimed to be harmful for nature and for human development. Here, as a rule, when global climate is discussed, everything gets reduced to the development of the mean global temperature. As a consequence of the temperature increase of approx. 0.7°± 0.1°C over the last century, which was calculated with great effort1, fear is now being expressed that this warming is having an impact on global sea level increase. Accordingly, studies are being carried out and published concerning the impacts a global mean sea level increase could have. It has been determined to have risen (over an entire century) at a rate of approximately 1.8 ± 0.4 mm/year. This rate, it is estimated, has accelerated dramatically especially during the last decade – by a factor of 4. This work shows that based on the type of available data, their quantity, and methods used, as is the case with temperature, it is not possible to give the sea level with an accuracy that is claimed. Thus the result is that all conclusions and correlations based on this data, which are from causes considered to be important, lie within the range of uncertainties and thus can only be regarded as very rough estimates. For this reason they can be only considered as conjecture and thus must be taken with great caution.

Einen Überblick über die Entstehungsgeschichte dieser Arbeiten finden Sie hier

Related Files




Neuer systematischer Fehler bei Anomalien der globalen Zeitreihe der Mitteltemperatur

Neuer systematischer Fehler bei Anomalien der globalen Zeitreihe der Mitteltemperatur

ZUSAMMENFASSUNG

Bestehende Einschätzungen der Unsicherheit und ihrer mathematischen Modelle für die Bestimmung von Fehlern, die zur Abschätzung der globalen Durchschnittstemperatur-Anomalien verwendet wurden, werden hier untersucht. Dabei wurden methodische Fehler im Bewertungsmodell von Brohan et al 06 [1] festgestellt, die sie zur Beschreibung als nicht umfassend und präzise genug erkennen lässt. Für eine andere Art von Fehlern wurde dies bereits von Frank [2], [3], im Folgenden als F 10 und F 11, gezeigt. Zusätzlich zu den Feststellungen beider Arbeiten von Frank 10,11, wurde hier ein sehr häufiger, aber neuer systematischer Fehler isoliert und als „Algorithmus-Fehler“ definiert und benannt. Dieser Fehler wurde bisher durch die verwendete Methode der Anomalienbildung als selbst korrigierend angesehen oder es wurde vermutet, dass er von einigen unbekannten und ungenannten Homogenisierungsprozessen korrigiert wird. Aber das war bisher nicht der Fall. Er fügt daher der momentanen Mitteltemperatur eine zusätzliche systematische  Unsicherheit oder zusätzliche Fehlerspanne von  mindestens

+ 0,3 ° C und – 0,23 ° C

für jede globale mittleren Anomalie Berechnung hinzu.

Dieses Ergebnis wird erzielt, wenn man nur die am häufigsten verwendeten Algorithmen zur Berechnung der Tagesmitteltemperatur  mit  dem „wahren“-Algorithmus durch Mittelwertbildung täglich kontinuierlich durchgeführter Messungen miteinander vergleicht. Bedingt durch die Tatsache, dass die reale Verteilung aller verwendeten Algorithmen (nach Griffith [4] > 100 verschiedene) über Zeit und Fläche nicht bekannt ist, weder für die Land-basierten Temperaturdaten noch für die SST (Meeresoberflächentemperaturen), wird der Minimalwert dieses Fehler hier als typisch ausgewählt. In der Realität ist aber der dadurch erzeugte Fehler vermutlich noch um einiges größer.

EINFÜHRUNG

Allgemeine Bemerkungen

Zum Zwecke der Klarheit ist der erste Teil diese Aufsatzes dem allgemeinen Verhalten der Anomalien-Berechnung in Bezug auf die Fehlerfortpflanzung gewidmet. Es wird gezeigt, dass die weithin angenommen Fehlerreduktions-Fähigkeiten eines Anomalie-Modells nur für einen einzigen Sonderfall gelten, aber generell kann sie die endgültigen systematischen Fehler nicht reduzieren – vor allem in Zeitreihen – sondern sie wird sie in fast allen anderen Fällen sogar noch erhöhen. Weiterhin werden hier eine Vielzahl von weiteren potentiellen, wie realen systematischen Fehler genannt, von denen nur sehr wenige bisher identifiziert, dann quantifiziert und somit korrigiert werden konnten, und auch das bisher nur teilweise. Auch dies wird hier gezeigt.

Mit diesem Wissen muss die Mindest-Unsicherheit für jeden jährlichen globalen Mitteltemperaturwert nicht nur auf die hier beschriebenen, (bei 2 sigma = 95% Vertrauensbereich) zwischen ± 1,084 ° C bis ± 2,084 ° C, sondern auf eine Spanne die mindestens 3 bis 5 mal größer ist, angehoben werden.

Somit ist die durchschnittliche globale Temperaturanomalie für die letzten 150 Jahre in einem sehr großen Unsicherheitsband aufgelöst, das viel breiter ist, als die gesamte vermutete Veränderung des 20. Jahrhunderts. Deshalb ist jeder Versuch, dass deren Variation möglichen „Forcings“ zuzuordnen sei, nur wissenschaftliche Spekulation. Der einzige, aber sehr wichtige, Ausnahme könnte der Einfluss einer starken zyklischen Forcings sein, das um ein gegebenes Mittel schwingt. Seine Schwingungssignale können viel leichter im Unsicherheits-Band erkannt und damit unterschieden werden und zwar auf Grund ihrer zuvor beschriebenen repetitiven Natur…

…….

FAZIT

Es wurde gezeigt, dass die begrenzte Unsicherheits-Beurteilung des B 06 papers und seiner Vorgänger nicht die reale Situation in Bezug auf die Unsicherheiten der historischen Temperatur beschreibt: Um dies zu zeigen, wurde ein einziger, aber weit verbreiteter Fehler, mit dem Namen „Algorithmus-Fehler“ untersucht. Er allein addiert mindestens ± 0,23 ° C (1 σ!) zum systematischen Fehler wie er von F 11 entwickelt wurde, hinzu.  Aber es wurde auch gezeigt, dass der Gesamt-Fehler in der Realität wahrscheinlich noch viel größer sein muss.

Außerdem wurde gezeigt, dass er nur einer von einer Vielzahl von anderen systematischen Fehlern ist, die auf den vorangegangenen Seiten genannt worden sind. Die wurden aber bisher nie sorgfältig untersucht und daher auch noch nicht korrigiert.

Aus diesem Grund muss jeder Versuch versagen, eine genaue Zeitreihe einer globalen Temperaturanomalie zu entwickeln, weil diese immer von einem viel breiteren Band der Unsicherheitsband begleitet wird.

Außerdem ist der genaue Wert der Anomalie selbst irgendwo in diesem breiten Unsicherheitsband versteckt, was bedeutet, dass auch die resultierende Hüllkurve unsymmetrisch zur versteckten Anomalie Zeitreihe ist.

Somit ist es unmöglich,  dieser eine mögliche Ursache für ihre Veränderung zuzuordnen. Jeder Versuch, eine wahrscheinliche Ursache für die Änderung der globalen Temperaturzeitreihe zu definieren, bleibt daher reine Spekulation.

Die einzige, aber sehr  wichtige Ausnahme kann der Einfluss eines starken Forcings sein, das um einen bestimmten Mittelwert schwingt. Sein Schwingungssignal lässt sich viel leichter vom zuvor beschrieben Unsicherheits-Band unterscheiden, allein aufgrund seiner sich wiederholenden Natur. Dies liegt daran, dass alle zuvor genannten Fehlerquellen, entweder sprunghaft auftreten und dann stabil über der Zeit (beispielsweise die Änderung der Rechen-Algorithmus der verwendet wird) bleiben, oder aber einen schleichenden Fehler bewirken, mit zu- oder oder abnehmender Fehlergröße, (wie die Veränderung der Eigenschaften einer Wetterhütte im Laufe der Zeit zum Beispiel durch Alterung der Farbe), aber selbst keine Schwingungseigenschaften zu zeigen.

Aus Sicht der obigen Ergebnisse kann man für die Zwecke der Klimaforschung fragen, welchen wissenschaftlichen Wert eine Mittelwerts-Anomalie für die ganze Welt haben kann, wie sie zum Beispiel in B 06 entwickelt wurde, wenn man die großen Schwankungen der Mittelwerte der Erd-Temperaturen in Abhängigkeit von ihrer Lage auf dem Globus (siehe S.2; von +30 ° bis -35 ° C) und von Saison zu Saison betrachtet.

Das bedeutet nicht, dass es keine Erwärmung gab, denn sie konnte in einigen Perioden des letzten Jahrhunderts beobachtet werden, weil andere Proxies weltweit zeigen, dass es eine moderate Erwärmung gab, aber es bedeutet, dass diese Konstruktion einer Temperatur-Zeitreihe es nicht erlaubt, die Ergebnisse, für die sie gedacht ist, zu liefern.

Related Files




Windenergieeinspeisung im April: Ein teures Trauerspiel.

Insgesamt sind bis heute  Windkraftanlagen mit einer Gesamtnennleistung von 32 GW oder 32.000 MW installiert. Diese Windleistung würde der Leistung von ca. 30 „Atomkraftwerken“ entsprechen, wie es uns die Grünen aller Parteien immer wieder einreden wollen. Dass das nicht stimmt, wissen immer noch die wenigsten, die PISA Studien kommen wohl um Jahrzehnte zu spät. Denn nach dieser Betrachtungsweise könnte ein einzelner, stinknormaler Blitz, wenn man ihn den nutzen wollte und so wie er täglich vorkommt, sämtliche deutsche Kraftwerke ersetzen. Die Leistung dazu hätte er, die Energiemenge zum Glück nicht. Und um die geht es. Und sie muss auch noch auch noch zur richtigen Zeit abgerufen werden können.. Deswegen erlauben wir uns eine kurze Darstellung der Realität der Windenergie in Deutschland.

Denn die raue Wirklichkeit sieht anders aus. Die nebenstehende Abbildung 1 [3] zeigt die Einspeisung sämtlicher deutsche Windkraftanlagen aus ihren „Windparks“ für den April (die noch fehlenden 5 Tage verändern das Bild nicht). In der Spitze, am 18.4.13, wurden kurzzeitig 17 GW erzeugt.

Der gesamte Netto-Elektro-Energieverbrauch in Deutschland betrug in den 25 Apriltagen ca. 33 TWh. Das heißt, pro Tag musste im Mittel und Stunde für Stunde Kraftwerksleistung  von 55 GW abgerufen werden können. Mit Spitzen um 60 GW. Damit hätten die installierten WKA´s also allein 60 % des Bedarfes decken können. Konnten sie aber nicht. Denn das ist eine schönfärberische Milchmädchenrechnung. Weil, wie allseits bekannt, wackelt die eingespeiste Energie mit dem Wind und deshalb betrug die Spitzenleistung am 18.4.13 nur 17 GW, aber auch nur für ca. 2 h und fiel dann schnell wieder auf 8 GW gegen 24:00 Uhr ab. Damit lieferten an diesem Tag alle WKA´s zusammen, gerade mal  28.8 % der notwendigen Leistung und auch nur 53 % ihrer Nennleistung. Und das war noch der beste Tag.  An allen anderen Tagen war es noch deutlich schlechter.  Und an 5 oder 20 % der Tage, kam die Leistung nicht über 4 GW hinaus, mit Minima knapp über Null. An diesen windschwachen Tagen betrug die  Spitzenleistung also nur knapp 12 % der installierten Leistung und auch nur 7,3 % der erforderlichen Leistung.

Abbildung 2: Gesamt-Windeinspeisung für den 25.4.13

Abb. 2 zeigt die ganze Misere noch einmal überdeutlich. Um die Mittagszeit, wenn der Stromverbauch ein Maximum erreicht, fiel die Einspeisung durch Wind auf läppische 184 MW ab. Das sind gerade mal 0,3 % der dann benötigten Leistung. Und mitten in der Nacht, des Morgens und Abends, erreichte sie ihr niedriges Maximum von nur 4,8 GW. Strom, den keiner gebrauchen kann, und der vielleicht mit Aufgeld ans Ausland "verkauft" werden musste.

Ausgleichen müssen diese teure Wackelei konventionelle Kohle- Kern- und zunehmend wichtiger – Gaskraftwerke. Das modernste, vor gut einem Jahr erst in Betrieb genommen, ist das GUD Kraftwerk in Irrsching. Es hat einen Wirkungsgrad von knapp 60 % und liefert volle Leistung, wenn es denn soll, so gut wie jede Stunde im Jahr. Bei jährlich 4000 Betriebsstunden wäre es profitabel gewesen. Es durfte aber -wg. der Vorrangeinspeisung der NIE (Neue Instabile Energien)- nur 1600 Stunden im Jahr liefern. Dadurch wurde es unrentabel. Und müsste stillgelegt werden. Doch die Politk hat auch dafür eine Lösung. Ausgerechnet der FDP Minister Zeil weiß wie. In der Augsburger Allgemeinen lesen wir:

Die Betreiber haben angekündigt, das Kraftwerk mindestens zwei Jahre stillzulegen. Rund 100 Millionen Euro seien nötig, um das Kraftwerk am Laufen zu halten, sagte Teyssen...

…Bayerns Wirtschaftsminister Martin Zeil hat vor wenigen Tagen erklärt, dass Irsching V am Netz bleiben müsse. Ansonsten wäre die Systemstabilität und damit die Versorgungssicherheit entscheidend gefährdet. Der Netzbetreiber könne aus diesen Gründen auch den Erhalt der Betriebsbereitschaft eines Kraftwerkes anordnen, erinnerte der Minister. Weiter sagte Zeil, die Staatsregierung plane eigentlich den Bau von vier neuen Gaskraftwerken, finde aber keinen Investor. Irsching V kann beinahe so viel Strom produzieren wie ein kleines Kernkraftwerk….
Bayerns Vorzeigekraftwerk droht Aus

weiter lesen auf Augsburger-Allgemeine:

So also sieht die schöne neue Energiewende-Welt aus.  Aldous Huxley hätte seine helle Freude daran, wegen des schnellen Eintreffens seiner Prophezeiungen, wenn auch auf anderem Gebiet.

Michael Limburg EIKE, mit Dank an Rolf Schuster für die Erstellung der Grafiken

[1] http://www.eike-klima-energie.eu/climategate-anzeige/ein-weihnachtsmaerchen-minister-altmaier-die-energiewende-und-die-geisterfahrer/

[2] Länder lehnen Altmaiers Strompreisbremse ab http://www.zeit.de/wirtschaft/2013-03/energiegipfel-strompreisbremse-dissens

[3] Quelle EEX Leipzig, zusammengestellt von EIKE Leser Ralf Schuster 




Aus Erwärmung wird Abkühlung und wieder Erwärmung- Temperaturdaten von Mallorca: Original vs. NASA-GISS

Dies lässt sich jetzt feststellen, denn der Vergleich mit den Originaldaten der Station Palma de Mallorca ist inzwischen möglich. Palma de Mallorca wurde ausgewählt, weil der Unterschied zwischen den von NASA-GISS im März 2010 und im März 2012 publizierten Daten bzw. deren Temperaturganglinien größer nicht sein kann – eine Abkühlung war in eine Erwärmung umgewandelt worden. Nach der ersten Kontaktaufnahme mit der Agencia Estatal de Meteorología und einigem Schriftverkehr wurden die Daten zugesandt, die 1879 beginnen. Das erste und vierte Datenblatt sind auszugsweise in Abb. 1 dargestellt.

Abb. 1: Originaldaten der Station Palma de Mallorca, Auszug aus den Blättern 1 und 4

Die Mittelwerte ergeben die in Abb. 2a, oben, dargestellte AEMet-Ganglinie; die insgesamt eine leichte Erwärmung anzeigt ( 0,0083°C/a), wobei Abkühlungs- und Erwärmungsphasen miteinander abwechseln, wie das die Ganglinien der meisten Stationen für das 20. Jahrhundert anzeigen. Im Unterschied dazu zeigt die GISS-Ganglinie von März 2010 insgesamt eine Ab­kühlung  an, nämlich -0,0076°C/a (Abb. 2a, unten). Dieser Unterschied beweist, dass es sich schon bei den 2010-Daten nicht mehr um die Originalaufzeichnungen handelt.

Abb. 2a:  Temperaturganglinie Palma de Mallorca, basierend auf den Originalda­ten der Station (oben), und den modifizierten NASA-GISS-Daten vom März 2010

 

 Während die Daten vom März 2010 eine Abkühlung anzeigen, wurde mit den Daten vom März 2012 eine Trendumkehr begonnen, denn die zusätzlich in Abb. 2b und Abb. 2c darge­stellten Ganglinien, deren Datensätze NASA-GISS zwischen März 2010 und Dezember 2012 veröffentlicht hat, geben nun eine Erwärmung an, und zwar im unterschiedlichen Ausmaß, denn sie beträgt

  • im März 2012:       0,0074°C/a
  • im August 2012:    0,0051°C/a,
  • im Dezember:        0,0102°C/a

Da die Änderungen vom August und vom Dezember eher zufällig entdeckt wurden, ist nicht auszuschließen, dass zwischenzeitlich noch andere Stadien publiziert worden sind, die nur nicht erfasst wurden.

In Anbetracht der im eingangs genannten Bericht analysierten Beispiele von 120 Stati­onen, deren Daten alle und mehrfach verändert  worden sind,  ist wohl anzunehmen, dass es sich bei der Station Palma de Mallorca nicht um einen Einzelfall handelt. Es ist eher wahrscheinlich, dass dieses Beispiel eine gängige Praxis widerspiegelt.

Es ist aufschlussreich, dass NASA-GISS in den letzten Monaten weder Ganglinien noch Da­tensätze anzeigt, und dass von 25 der 120 analysierten Stationen zwar die Ganglinien gezeigt werden, aber nicht mehr die Datensätze der Monats- und Jahresmittelwerte.

Abb. 2b:  dto., Ganglinien der Daten vom März 2012 und vom August 2012

 

Abb. 2c:  dto.: Ganglinie der Daten vom Dezember 2012

 

 Die NASA-GISS-Temperaturdaten wurden nicht nur zwischen März 2010 und März 2012 sondern auch im Laufe des Jahres 2012 verändert, und auch in 2013 wird dies fortge­setzt, wie das in Abb. 3 dargestellte Beispiel der Station Alice Springs zeigt: im März 2013 wurde schon wieder eine völlig andere Ganglinie angegeben als im Au­gust/September 2012. 

Abb. 3: NASA-GISS-Ganglinien für Alice Springs, angeboten im August/September 2012 (links)  und März 2013 (rechts)

 

Im eingangs genannten Bericht wurden für die mit der Datenänderung erreichte stärkere Er­wärmung noch nicht die Mittelwerte und die Häufigkeitsverteilung behan­delt. Sie sind hier in Abb. 4 dargestellt, die Häufigkeitsverteilung in Form ihrer Summenli­nien.  Sie zeigen, dass mit den Veränderungen der Daten in ca. 90% der analysierten 120 Stationen nahezu eine Ver­dopplung der vorgetäuschten Erwärmung erreicht wurde.

Abb. 4:   Mittelwerte der Erwärmungen und Häufigkeitsverteilung  der Jahresänderungsraten

Folgerungen

Das Beispiel Palma de Mallorca lässt vermuten, dass auch die 2010-Daten anderer Stationen bereits vorher verändert worden sind. Nur die Vergleiche mit den Originaldaten möglichst vieler Stationen würden eine Abschätzung erlauben, in welchem Maße dies geschehen sein könnte.  Ein solcher Vergleich ist jedoch mangels Verfügbarkeit der Originaldaten praktisch nicht möglich. Die 2010-Daten sind folglich als Ba­sis für weitergehende quantitative Aus­wertungen nicht geeignet, denn zuverlässige Ergebnisse dürfen nicht erwartet werden.  Nun hat die Analyse der 120 Stationen gezeigt, dass die modifizierten Daten eine größere Erwär­mung vortäuschen. Dementsprechend ist zu vermuten, dass dies auch schon die Veränderun­gen vor 2010 bewirken sollten und erreicht haben. Das Ausmaß lässt sich mit dem vorhande­nen Kenntnisstand allerdings nicht quantifizieren.

Friedrich-Karl Ewert EIKE




EIKE ist umgezogen




In eigner Sache: Wartungsarbeiten am 14.3.13!




Fukushima Propaganda á la Tagesschau

Die mp4 Datei dieser Tagesschau können sie im Anhang finden und herunterladen.

Noch dreister und noch falscher ist dann die „Originaltagesschau“ vom heutigen Tage

Video nicht mehr verfügbar

Hier der Ausschnitt aus der Tagesschau von heute 7:00 Uhr. Mit Dank an PI hier

Konstruktive Kritik nehmen der erste Chefredakteur der ARD, Dr. Kai Gniffke, und sein Tagesschausprecher Thorsten Schröder sicherlich gerne an: » Telefon: 040-4156-0 / redaktion@tagesschau.de » info@thorsten-schroeder.de

Update heute

Mail von 20:06 von Tagesschau-Sprecher Thorsten Schröder an einen der sich über diese dreiste Verdrehung der Wahrheit beschwerte:

Sehr geehrter XXXXXXX,

vielen Dank für Ihre Mail.

Ich habe die Meldung zwar nicht geschrieben (denn bei der Tagesschau herrscht Arbeitsteilung: der Redakteur schreibt, der Sprecher liest), aber ich kann Sie beruhigen: die Meldung ist korrekt. Wenn Sie die Meldung noch einmal in Ruhe durchlesen, werden Sie es sicher selbst bemerken.

Anfangs sage ich, dass Japan der Opfer der Erdbeben und Tsunami-Katastrophe gedenkt! Kein Wort von Opfern der Reaktorkatastrophe! Anschließend erzähle ich, was sich damals ereignete, also erst Beben, dann Riesenwelle und dann Reaktorkatastrophe. Dann kommt die Zahl der Opfer, nämlich 16.000 Menschen sind dabei (bei diesen Ereignissen, ich sage nicht „bei der Reaktorkatastrophe“!) ums Leben gekommen. Fällt Ihnen etwas auf? Genau: der Satz am Anfang, da ging es um die Opfer der Erdbeben- und Tsunamikatastrophe. Die 16.000 beziehen sich somit natürlich nicht allein auf die Reaktorkatastrophe. Das ist klar, wenn man den Anfang der Meldung nicht schon wieder vergessen hat.

Und, um mal logisch zu argumentieren: wenn sich die 16.000 nur auf die Reaktorkatastrophe beziehen würden, wie Sie es unterstellen,  wo sind dann die Opfer der Erdbeben- und Tsunamikatastrophe geblieben, von der im ersten und somit wichtigsten Satz der Meldung die Rede ist??? Dann würde das heißen, dass es Null Opfer gegeben hat infolge der Erdbeben- und Tsunamikatastrophe. Die Japaner gedenken also der nicht vorhandenen Opfer der Erdbeben- und Tsunamikatastrophe? Wäre merkwürdig, oder?

Es gibt somit keinen Grund von einer dreisten Falschmeldung oder Ähnlichem zu reden.

mit freundlichen Grüßen, Thorsten Schröder

Update 12.3.13

Und Jürgen Trittin haut auch in diesselbe Kerbe und setzt munter einen drauf: „19.000 Menschen starben durch Tsunami und Reaktorkatastrope etcc. etc.

Der grüne Fraktionschef Jürgen Trittin zum Jahrestag der Erdbeben und Tsunamiopfer. Sein möglicher Wahlspruch: „Wahrheit ist was für ganz Doofe“.  Mit Dank an Spürnase M. Estermeier

Related Files




Videovorträge (Teil III) der 5. IKEK in München. Schwerpunkte Energie & Politik

Hingegen deutet alles auf eine Energieschwemme aus fossilen Ressourcen hin, die die energiepolitische Landkarte dramatisch verändern wird.  Ironischerweise ist dies ein weiterer Sargnagel für die „Energiewende“

Dr. Utz Tillmann, Hauptgeschäftsführer des Verbandes der Chemischen Industrie (VCI) ,

stellt fest, dass die Energiewende die Chemie und andere stromintensive Industriezweige vor wachsende Probleme stellt. Jedoch stellte er Merkels Energiepolitik nicht grundsätzlich in Frage, zumal auch Mitgliedsunternehmen seines Verbandes von der „Energiewende“ profitieren. Er bot der Politik sogar Unterstützung in Form eines fachlich kompetenten Projektmanagements an.

Prof. Lüdecke EIKE

Im vergangenen Jahr (2011) erreichte die reale Gesamtleistung aller deutschen Windräder, wie EIKE-Pressesprecher Prof. Horst Lüdecke nur 16 Prozent der installierten Nennleistung. Von den im Jahre 2011 von allen EEG-Anlagen erzeugten 124 Terawattstunden Strom stand nur etwa ein Zehntel einigermaßen zuverlässig zur Verfügung. Die langen Stillstandszeiten mussten durch Kohle- und Gaskraftwerke überbrückt werden. Deshalb konnten die EEG-Anlagen kaum CO2 einsparen. Doch für diese klägliche Leistung kassierten die Betreiber von Ökostrom-Anlagen im vergangenen Jahr bereits über 17 Milliarden Euro Subventionen. Das sind 375 Euro je Durchschnittshaushalt.

<

Der Doktorand Jacob Nordångaard

aus Schweden erläutert unter dem Titel „The History of Biofuels in the European“ Union den erschreckend spannenden Inhalt seiner Doktorarbeit, über die Vernetzung immer derselben Leute aus immer denselben Verbänden, Vereinen, Lobbygruppen und EU-Kreisen, die verbissen am „EU-Klimaschutzprogramm“ und EU-Biosprit Desaster mitgewirkt haben, bzw. immer noch mitwirken.

Dr. Thomas Teluk

erläutert in seinem Vortrag den Spannungsbogen für Polen einerseits die EU-Vorgaben für den „Klimaschutz“ erfüllen zu müssen und dabei die eigenen Energieinteressen einer aufstrebenden Wirtschaftsmacht nicht aus den Augen zu verlieren. Eine Spannungsfeld was nur zu Gunsten der konventionellen Energieversorgung aufgelöst werden kann.

Prof. Dr. Alt

„Tatsache hierzu ist für den Energiesektor, dass mit jeder weiteren Windenergie und mit jeder weiteren Photovoltaikanlage sowie mit jeder neuen Transportleitung oder zusätzlichen Verteilungsleitung die Strompreise nur deutlich ansteigen müssen – die Stromversorgung nicht sicherer, mit dem Wegfall der Kernkraftwerke auch nicht CO2-ärmer, sondern CO2-reicher wird.“
Die Verfügbarkeitsproblematik von Wind- und PV-Strom lässt sich an den Leistungsganglinien leicht ablesen. Egal wie hoch die in diesem Bereich installierte Leistung ist, es muss immer die zusätzliche gleiche Leistung an Gas-, Kohle- oder Kernkraftwerken vorhanden sein, wenn man 24 Stunden am Tag Strom zur Verfügung stellen will. Der Irrsinn scheint hier keine Grenzen mehr zu kennen.

Dr. Michael Goetz,

Assoc. Director CFACT Europe, gibt einen Einblick in die „neue Klima- und Energiepolitik nach der US.Wahl. Die US-Bürger machen sich eher Sorgen um reines Wasser als um „global warming“. Es gibt drei politische Gruppen: Republicans, Democrats and Independents. Selbst bei Al Gore ist Klima in USA kein „primary issue“. Im Wahlkampf spielte das Klima überhaupt keine Rolle. Klimaverträge benötigen im Senat 2/3-Mehrheit. Die Mehrheit der Republikaner werden dagegen stimmen.

Die Reihe der Vorträge zur 5. IKEK ist hiermit beendet!

Danksagung:

Das EIKE Präsidium dankt allen Beteiligten, die bei der Erstellung dieser Videomitschnitte beteiligt waren, von ganzem Herzen. Wir wissen deren – fast immer ehrenamtliches Engagement- sehr, sehr zu schätzen. Ohne sie und viele andere wäre unsere Arbeit nicht möglich, da Exxon und alle anderen virtuellen Geldgeber wie die „Kohlelobby“ – so wie es uns eine bestimmte Medienmeute und deren Nachbeter immer wieder andichtet- stets vergessen, die Schecks  abzuschicken.

Die Redaktion




Regierung stürzt über steigende Strompreise – bald auch in Berlin?

SPON meldet:

Sofia – Lange hatte sich die bulgarische Regierung gegen einen Rücktritt gesträubt, doch jetzt hat sie sich dem Druck der Demonstranten gebeugt: Ministerpräsident Bojko Borissow erklärte am Mittwoch seinen Rückzug und den seines ganzen Kabinetts. „Wir haben Würde und Ehre. Es ist das Volk, das uns an die Macht brachte, und wir geben sie ihm heute zurück“, erklärte er vor dem Parlament in Sofia.

Und die Deutschen Wirtschaftsnachrichten melden

Offizielle Inflation: Energiepreise und Lebensmittel explodieren

Deutsche Wirtschafts Nachrichten  |  Veröffentlicht: 20.02.13, 10:58  |  Aktualisiert: 20.02.13, 11:00  |  4 Kommentare

Im Januar sind die Preise für Energie und Lebensmittel drastisch gestiegen. Offiziell ist die Inflations-Rate für den gesamten Warenkorb jedoch mit 1,7 Prozent so niedrig wie schon lange nicht. Damit erhält die EZB eine weitere Lizenz zum Gelddrucken.

Und die Berliner Umschau präzisiert:

Energiepreise – Haushalte müssen immer mehr einsparen

Die Verbraucherpreise für Haushaltsenergie (Wärmerzeugung und Strom) haben sich im Januar 2013 im Vergleich zum Vorjahresmonat um 5,8 Prozent erhöht. Das hat das Statistische Bundesamt (Destatis) heute im Rahmen seiner Veröffentlichung des Verbraucherpreisindexes mitgeteilt. Auf diese Verteuerung reagieren die Bundesbürger zunehmend, indem sie Energie im Haushalt einsparen. Neben den Kraftstoffen entfällt der größte Posten der privaten Energierechnung auf das Heizen. Hier lohnt es sich, statt fossiler Ressourcen Erneuerbare Energien für die Wärmeversorgung einzusetzen.

Da passt zusammen, was zusammen gehört,

denn die FAZ meldet heute:

Umweltminister Altmaier„Energiewende könnte bis zu einer Billion Euro kosten“

19.02.2013 ·  Erstmals spricht Umweltminister Peter Altmaier öffentlich über die Gesamtkosten der Energiewende: 1000 Milliarden Euro. Grund genug für den CDU-Politiker, die „Strompreisbremse“ zu ziehen…

Mit Dank an Benny Peiser von ACHGUT




Video-Vorträge (II) 5. IKEK München

Auch auf den Energiemärkten werden fast täglich neue riesige Funde, ob konventioneller oder unkonventioneller Art, gemacht und führen zu erheblichen Preissenkungen, vor allem in Gasbereich. Da bleibt für das deutsche Riesenexperiment „Zeitalter der „Erneuerbaren“ weder Platz noch Notwendigkeit. Die deutsche Politik und Wirtschaft täten gut daran, diese Fakten umgehend zur Kenntnis zu nehmen und ihr Handeln danach auszurichten.

Die Vorträge wurden simultan in beide Konferenzsprachen Deutsch <-> Englisch übersetzt. Aus Copyrightgründen werden Vorträge hier nur in der Originalsprache gezeigt.

Klimawandel und die Bedrohung durch „neue Krankheiten“

Prof. Dr. Paul Reiter; Unité “Insectes et Maladies Infectieuses” Institut Pasteur, Paris

Die Entwicklung des arktischen Eises

Dr. Fred Goldberg; Swedish Polar Institute

NASA-GISS Temperaturdaten wurden geändert – warum?

Prof. Dr. Friedrich-Karl Ewert Fachbeirat, Europäisches Institut für Klima und Energie (EIKE)

Warum fast nichts von dem, was Sie über das IPCC wissen, wahr ist

Donna Laframboise

Blog nofrakkingconsensus.com, Autor des Buchs „The Delinquent Teenager Who Was Mistaken for the World’s Top Climate Expert“

Politik, Medien und die Rolle der Wissenschaft

Dr. James M. Taylor

Senior fellow, The Heartland Institute, Chicago, USA


Wird fortgesetzt!




Weltenretter Schellnhuber wieder im Einsatz! Auftritt vor dem UN Sicherheitsrat

So meldete der Informationsdienst Wissenschaft soeben. (Mit Dank an Spürnase Dr. Kohler). Da wird die Idee der „großen Transformation“ bestimmt auf fruchtbaren Boden fallen. Von etwas kleinerem Kaliber ist die Veröffentlichungen eines Comic-Bandes, es kann aber nicht ausgeschlossen werden, dass dieses wegweisende Werk, den Wunsch nach Aufklärung der Mitglieder des Sicherheitsrates durch John  Schellnhuber maßgeblich beflügelt hat.

Der Blog „Die kalte Sonne“ kommentiert dieses Jahrhundertereignis so:

Hajo Schellnhuber jetzt als Comic-Figur

Das Potsdam-Institut für Klimafolgenforschung (PIK) fällt regelmäßig durch Pressemitteilungen und Thesen auf, deren Inhalt bei näherer Überprüfung äußerst fragwürdig erscheinen. Wir haben in der Vergangenheit mehrfach über die entsprechenden Vorfälle berichtet:

Kipp-Element auf wackeliger fachlicher Grundlage: Grönlands Eismassen lassen sich vom Potsdam-Institut keine Angst einjagen
–Pünktlich zum UN-Klimafest in Doha: Neuer Alarm aus Potsdam
–Senat von North Carolina erteilt Rahmstorfs beschleunigtem Meeresspiegel eine Absage
–Golfstrom bleibt laut neuen Messdaten stabil: Stefan Rahmstorfs Modell beginnt zu wackeln

Es ist schon unheimlich, wie solche Dinge in Serie passieren können. Die meisten Mitarbeiter des Instituts sind doch studierte Leute, denen man eigentlich einen gesunden Menschenverstand zutrauen würde. Der Direktor des Instituts ist seit 22 Jahren am Ruder und heisst Hans-Joachim Schellnhuber. “In Würdigung seiner hervorragenden wissenschaftlichen Verdienste auf dem Gebiet der Klimafolgenforschung und Politikberatung” verlieh die Technische Universität Berlin Mitte 2012 Prof. Dr. Dr. h.c. Hans Joachim Schellnhuber die Ehrendoktorwürde.

Einige Monate zuvor hatte Schellnhuber im Interview mit t-online gesagt, der Klimawandel wäre “so etwas wie ein Meteoriteneinschlag in Zeitlupe, in Superzeitlupe sogar. Er vollzieht sich über viele Jahrzehnte.“ Im Mai 2012 erklärte Schellnhuber dann, er würde es bedauern, dass es keine Weltregierung gibt, denn nur eine solche Zentralgewalt könnte das Klimaproblem in den Griff bekommen. In einem lesenswerten Artikel “Schellnhuber und die Weltherrschaft” beleuchtete Peter Heller kurz darauf das bedenkliche Denkmuster des Potsdamer Professors.

Auch im Ausland werden Schellnhubers Aktionen besorgt verfolgt. So schrieb Donna Laframboise kurz vor Weihnachten 2012 in einem kürzlichen Portrait über Schellnhuber: “He is a full-blown activist”! Allerdings scheint der Klimaforscher auch ab und zu eine klimaalarmistische Pause einzulegen. Laut einem Bericht im Focus soll Schellnhuber auf einem Seminar von Landwirtschaftsexperten zugegeben haben, dass die steigende CO2-Konzentration der Atmosphäre und die Erwärmung wohl zu höheren landwirtschaftlichen Erträgen führen könnte.

In Kürze wird der umtriebige Schellnhuber zu allem Überfluss auch als Comic-Figur in einem (nicht-lustigen) Taschenbuch tätig werden, für das das Bundesministerium für Bildung und Forschung vorab schon kräftig die Werbetrommel rührt. Das ist schon ganz schön ungerecht, denn für unser Buch Die kalte Sonne hat sich das BMBF überhaupt nicht eingesetzt. Über das Schellnhuber-Comic schrieb das BMBF Mitte Dezember auf seiner Webseite hingegen:

Im Kampf gegen den Klimawandel gehen das Bundesministerium für Bildung und Forschung und der Wissenschaftliche Beirat Globale Umweltveränderungen (WBGU) ungewöhnliche Wege. Neun Wissenschaftler erklären im Comic “Die große Transformation: Umwelt – So kriegen wir die Kurve”, wie wir die Herausforderungen noch meistern können. Sie zeigen als Comic-Helden in aufwändig gestalteten “Graphic Interviews”, was getan werden muss, um nachhaltiges Wirtschaften weltweit Realität werden zu lassen. Hier ein kleiner Ausschnitt mit Professor Dr. Hans Joachim Schellnhuber, Klimaforscher und Vorsitzender des Wissenschaftlichen Beirates Globale Umweltveränderungen (WBGU). Das Buch ist ein Projekt des Wissenschaftsjahres 2012 Zukunftsprojekt: ERDE und erscheint Ende Februar 2013 im Verlagshaus Jacoby & Stuart

Im Comic sagt Schellnhuber:

Gerade der Klimawandel hat einen sehr langen “Bremsweg” und muss deswegen rasch begrenzt werden.

Wenn man das Wort “Klimawandel” jetzt noch gegen “Klimaalarmismus” austauscht, dann hat Schellnhuber vollkommen recht !

Da geben sich der stellvertretende Direktor des PIK Friedrich-Wilhelm Gerstengarbe und sein Co-Herausgeber Harald Welzer (Herausgeber), sowie das Forum für Verantwortung (Herausgeber) viel seriöser. Haben sie es doch für notwendig gehalten auch ein neues Buch unter dem aufregenden Titel: 

Zwei Grad mehr in Deutschland: Wie der Klimawandel unseren Alltag verändern wird

zu verfassen. Hier z.B. bei Amazon

in der Buchbeschreibung liest man:

Was bewirkt der Klimawandel in Deutschland? – Das Szenario 2040

Klimaforschung, Klimapolitik und Klimaprotest drehen sich um das Erreichen des „2-Grad-Ziels“: das Abbremsen der Erderwärmung bei zwei Grad Celsius über der vorindustriellen Durchschnittstemperatur. Aber zwei Grad global sehen lokal sehr unterschiedlich aus: das können vor Ort vier Grad oder auch nur ein Grad mehr sein, genauso wie die Folgen in einer Region Wasserknappheit und in einer anderen extreme Hochwasser sein können. Friedrich-Wilhelm Gerstengarbe vom Potsdam-Institut für Klimafolgenforschung und der Soziologe Harald Welzer bieten ein realistisches Bild der Auswirkungen des Klimawandels in deutschen Städten und Landschaften im Jahr 2040.

Anders als das Energiekonzept der Bundesregierung, das planwirtschaftlich bis zum Jahre 2050 reicht, begnügt sich die Autoren damit, nur ein Scenario bis zum Jahre 2040 vorzustellen.

Für EIKE Leser ist es gut zu wissen, dass die Temperaturen sowohl in Deutschland als auch in der Welt gar nicht daran denken nach oben zu gehen. Nur ein Schönheitsfehler (!) mehr nicht, zumindest nach Meinung der Herausgeber. Irgendwann wird es wieder losgehen. Und dann kann man sagen:

We told you so!

Postnormale Wissenschaft, so nennt sich dieses Vorgehen.

Schon die obige Einleitung zeigt wissenschaftliche Tiefe, erläutern uns doch die Herausgeber darin, wie sehr ein Durchschnittswert von seinen Varianzen abweichen kann. Gut zu wissen.

Und noch besser ist, dass der bekannte Soziologe Harald Welzer seine blühende Phantasie bemüht, um uns streng wissenschaftlich natürlich, wissen zu lassen, wie schlimm alles werden wird, wenn wir nicht heute schon umkehren, und die große Transformation jauchzend begrüßen. Dazu gehört schon eine tüchtige Portion Sachkenntnis, die Harald Welzer wie folgt erworben hat:

Seit 2012 Professor für Transformationsdesign an der Universität Flensburg und Direktor der Stiftung Futur Zwei in Berlin. Seit 2008 Leiter der Projekte „Katastrophenerinnerung“ und „Shifting Baselines“ im Bereich KlimaKultur am KWI

Sachkundige Bewertungen dieses Werkes können hier abgegeben werden.

Michael Limburg EIKE

unter Verwendung von Texten von Die kalte Sonne und div. anderen.




Mafia auf Umweltisch: NABU steigt in die Schutzgeldbranche ein

Wie Du mir so ich Dir! könnte man denken, wenn man so liest, wie der Naturschutzbund Deutschland „NABU“ ungeniert in die Kasse der Windkraftbeutemacher greift.

Die Berliner Zeitung schreibt dazu:

In der Windkraftbranche schrillen die Alarmglocken – sogar außerhalb Hessens. „Das ist der Einstieg des Nabu in die Schutzgeldbranche“, sagt Johannes Lackmann. Der ehemalige Chef des Bundesverbands Erneuerbare Energie und Geschäftsführer von WestfalenWind, erwägt derzeit sogar eine Strafanzeige wegen der aus seiner Sicht stattfindenden „Erpressung“ durch den Nabu. „Das darf als Geschäftsmodell für Umweltverbände auf gar keinen Fall Schule machen“, sagt er. „Das Verhalten des Nabu ist ein krasses Beispiel dafür, dass der Machtanspruch des Verbandes völlig aus dem Ruder läuft“, empört sich Lackmann.

Der Nabu, der ohnehin zu den am besten finanzierten Umweltverbänden gehöre, verschaffe sich jetzt indirekt eine zusätzliche Einnahmequelle. „Setzt sich dieses Modell durch, dann ist das wie eine Sonderabgabe auf die Energiewende und wird den Ausbau der Windkraft stark behindern.“ Der Nabu nutze seine Sonderrechte „schamlos“ aus……

Gefunden auf ACHGUT, mit Dank an Spürnase Benny Peiser




In eigener Sache: EIKE wieder online