1

Windenergie in der Grund-, Mittel- und Spitzenlast?

Die Stromerzeugungskosten in ct/kWh für die ersten 50 Prozent – leicht verständlich und realitätsnah:

Einleitung

In der Diskussion über die Energiewende gilt die Windenergie als die Hauptstütze für die Zukunft. Bisher fehlen jedoch belastbare Zahlen über die Kosten.

Dabei ist eine Überschlagsrechnung einfach durchzuführen. Bei dem beschriebenen Konzept  werden Gaskraftwerke mit ähnlich leistungsfähigen Windenergieanlagen (WEA) gekoppelt. Immer dann, wenn der Wind nicht genug leistet, springen Gaskraftwerke ein.

So ist ständig Strom in gefordertem Umfang verfügbar und das macht auch die Preiskalkulation einfach. Es ist gleichzeitig das einzig realistische und heutzutage mögliche Konzept zum Einsatz von Windenergie in maximalem Umfang. Alle Vorstellungen, die weit darüber hinausgehen, sind heute von den technischen Möglichkeiten her lediglich Visionen.

Ermittelt werden maximale (kein Wind) und minimale (100% Wind) Kosten, zwischen denen sich der reale Betrieb bewegt.

Die Ergebnisse sind überraschend: 

* wegen der Sicherheit in der Abschätzung,

* wegen  der Höhe der Kosten (Grundlast: 10-14 ct/kWh landbasiert, 15-19 ct/kWh Offshore, Mittellast: + 33%) und

* dem technisch-realistisch machbaren Anteil der Windenergie von 50% in Grund- und Mittellast.

Zum Vergleich: Die Stromerzeugungskosten für Kohle liegen bei 2,5-3,3 ct/kWh.

Der Einsatz von Speichertechniken wird ausgeschlossen, da sie in erforderlichem Umfang nicht annähernd verfügbar sind. Auch wird hier nicht dargestellt, wie hoch die Kosten eines Umsteuerns wären, wenn noch wirtschaftlich laufende Kraftwerke vorzeitig abgeschaltet werden. Zusätzlicher Netzausbau und Gasleitungen sind in der Kalkulation ebenfalls nicht enthalten.

Es ist davon auszugehen, dass andere Modelle (www.kombikraftwerk.de) mit höheren Anteilen alternativer Energien (Wind, Sonne, Biogas) und evtl. umfangreichen Speichern angesichts der praktischen Möglichkeiten im Großmaßstab zu keinen günstigeren, sondern deutlich teureren Ergebnissen kommen werden.

Es geht hier nur um Technik und Preise. Eine Bewertung unter sozialen, politischen, Klima-  und Umweltgesichtspunkten wird nicht vorgenommen.

Konzept

Es soll Grundlastbetrieb sicher gewährleistet sein.

Grundlast bezeichnet die Netzbelastung, die während eines Tages in einem Stromnetz nicht unterschritten wird. In Deutschland liegt sie bei um die 40 GW4 (2005) im Gegensatz zur Jahreshöchstlast mit 75 bis 80 GW.

Dazu werden Gaskraftwerke mit gleich leistungsfähigen WEAs gekoppelt. Dabei wird bei diesen eine durchschnittliche Auslastung im Jahresmittel von 20 % der Nennleistung angenommen, wie sie in der Realität von landbasierten WEAs in Deutschland auch vorkommen. D.h. beispielsweise, dass ein 300 MW Gaskraftwerk mit 1.500 WEAs mit je 1 MW Nennleistung gekoppelt wird, die zusammen ebenfalls im Durchschnitt 300 MW liefern.

Dabei entsteht unvermeidbar überschüssige Windenergie in Höhe von ca. 50%, für die es derzeit überwiegend keine wirtschaftlich vertretbare Verwendung gibt.

Um die Leistung von 40 GW zuverlässig bereitzustellen, wären ca. 130 Gaskraftwerke á 300 MW und 195.000 WEAs mit 1 MW Nennleistung notwendig. Derzeit gibt es ca. 22.000 WEAs in Deutschland mit einer installierten Durchschnittsleistung von 1,3 MW je Anlage. Je nach Anlagengröße und Standort ist daher ein weiterer umfangreicher Ausbau notwendig.

Wie sich Wind und Gas die Erzeugung der Grundlast aufteilen würden ist in der Grafik2a am Beispiel des Windgangs aller deutschen WEAs für März 2011 demonstriert. Für die unvermeidbare überschüssige Windenergie (grau) wird es vermutlich kaum Abnehmer5 geben, obwohl die  Kosten anfallen und auch in der Kalkulation hier einbezogen sind. Um es deutlich zu sagen: Windenergie, die angeboten, aber nicht abgenommen werden kann, muss bezahlt werden.

Kalkulation für Grundlast

Dass heutige EEG (Erneuerbare-Energien-Gesetz) bestimmt, dass aller durch WEAs erzeugte Strom auch abgenommen werden muss.

Bei der Verwendung in der Grundlast mit Kopplung von Gaskraftwerken ist das nicht möglich. Dann verfallen ungefähr 50%.

Aber der gesamte angebotene Strom durch WEAs muss bezahlt werden, weil sonst die Anlagenbetreiber nicht auf ihre Kosten kommen würden.

Wenn bspw. von den WEAs mehr als 300 MW Wind erzeugt werden, dann kann alles über 300 MW nicht verwendet werden und muss daher verfallen. Aber bezahlt werden muss es.

Preislich sieht das dann im  Durchschnitt so aus:

Es entfallen auf alle der ständig angebotenen 300 MW des gekoppelten Systems im Durchschnitt auch immer die entsprechenden Windkosten von 9 ct pro verbrauchter Kilowattstunde.

Erzeugerpreise1:

9 ct/KWh (Einspeisevergütung) bei WEAs

5 ct/KWh Erzeugerpreis bei Gaskraftwerken im Betrieb und 1 ct/kWh in Bereitschaft (angenommen)

Obere Preisgrenze:

Die Ausgangsfrage: Wo ist ungefähr die obere überhaupt mögliche Preisgrenze, wenn WEAs durch Gaskraftwerke gepuffert werden, um Grundlastbetrieb zu gewährleisten?

Die Antwort: Am teuersten ist es, wenn Gaskraftwerke zu 100% und WEAs zu 0% einspeisen, aber die WEAs mit ihrem Stromangebot bezahlt werden müssen, so, als ob sie 100% liefern würden. Dabei ist es egal wie lange dieser Zustand dauern würde. Die Stromleistung wird gleich zweimal erzeugt, aber nur einmal abgenommen. Einen höheren Preis kann es nicht geben.

Demnach beträgt der gesamte Erzeugerpreis:

5 ct/kWh (Gas, Erzeugerpreis) + 9 ct/kWh (Wind, Einspeisevergütung) = 14 ct/kWh obere Preisgrenze

Untere Preisgrenze:

WEAs liefern 100% Strom und das Gaskraftwerk ist nur in Bereitschaft.

9 ct/kWh + 1 ct/kWh  (Bereitstellungskosten) = 10 ct/kWh  untere Grenze

Zwischen 10 und 14 ct/kWh muss sich der real existierende Erzeugerpreis dieses Modells in der Realität einpendeln, wobei 12 ct/kWh das Mittel ist.

Bei Offshore Anlagen (14 ct/kWh) dürfte der Erzeugerpreis entsprechend höher (15-19 ct/kWh) und im Mittel 17 ct/kWh sein.

Windenergieanteil

Im Durchschnitt liefern die WEAs 20% ihrer Nennleistung. Alles, was im gegebenen Augenblick über 300 MW erzeugt (angeboten) wird, verfällt. Das ist wahrscheinlich realistisch, da es kaum Speichermöglichkeiten in großem Umfang (Pumpspeicherwerke, etc.) gibt und der Verkauf ins Ausland bei einer nur nationalen Energiewende nicht zuverlässig sein dürfte.

Daher teilen sich im Durchschnitt Gas und Wind die Stromerzeugung je zur Hälfte.  Man kann es auch so ausdrücken: Um 50% Gas zu sparen werden 2-3fach höhere Erzeugerkosten bezahlt.

 

Die rote Linie stellt die durchschnittlich erzeugte Leistung dar und beträgt im Jahresmittel ca. 20% der Spitzenleistung. 2)

Erhöhung des Windanteils auf weit über 50%

Eine Erhöhung des Windanteils ist nur über eine massive Entwicklung von Speichern möglich. Praktisch stehen diese nicht in nennenswertem Umfang zur Verfügung. Die meisten Ideen sind reine Visionen, kaum kalkulierbar und dürften realisiert preislich astronomische Höhen erreichen.

Kalkulation für Mittellast

Mittellast bezeichnet im Kraftwerksmanagement den Bereich der Tageslastkurve, in dem

* über die Grundlast hinaus zusätzlicher Strom verbraucht wird und

* die Charakteristik des Stromverbrauchs so ist, dass sie von Mittellastkraftwerken abgedeckt werden kann.

Für kurze Spitzen des Stromverbrauchs, sehr starke Lastanstiege oder unvorhergesehenen Strombedarf müssen dann Spitzenlastkraftwerke hinzugenommen werden.

Ein Einsatz von ungespeicherter Windenergie in der Mittellast kann wie vorstehend für die Grundlast berechnet werden. Dabei muss berücksichtigt werden, dass ca. 1/3 der gesamten Zeit keine Leistung abgerufen werden kann. Dadurch ist der Preis der Kilowattstunde gegenüber der Grundlast im Mittel um ca. 1/3 höher.

Daher  muss sich der real existierende Erzeugerpreis dieses Modells in der Mittellast zwischen 13 und 19 ct/kWh einpendeln wobei 17 ct/kWh das Mittel ist.

Bei Offshore Anlagen (14 ct/kWh) dürfte der Erzeugerpreis entsprechend höher (20-26 ct/kWh) und im Mittel 23 ct/kWh sein.

Es wären dann weitere ca. 34.000 WEAs mit je 1 MW Nennleistung notwendig.

-> Mittellast: http://de.wikipedia.org/wiki/Mittellast

Spitzenlast

Spitzenlast bezeichnet kurzzeitig auftretende hohe Leistungsnachfrage. Bedarfsspitzen zeichnen sich oft durch einen starken Anstieg der nachgefragten Leistung aus, so dass für die Stromversorgung schnell regelbare Spitzenlastkraftwerke eingesetzt werden müssen. Diese können innerhalb von Sekunden oder Minuten hohe Leistungen zur Verfügung stellen. Hierzu zählen unter anderem Pumpspeicher- und Druckluftspeicherkraftwerke, aber auch moderne Gasturbinenkraftwerke.

Vom Leistungsumfang her ist die Spitzenlast vergleichsweise gering.

Ein Einsatz von Windenergie in der Spitzenlast ist zuverlässig nur über Zwischenspeicherung möglich. Dazu können vorhandene Pumpspeicherwerke, etc. verwendet werden.

-> Spitzenlast: http://de.wikipedia.org/wiki/Spitzenlast

 

Die Grundlast betrug 40 GW im Jahre 2005. Mittellast ist nach dieser Grafik  für etwa  2/3 eines Tages notwendig. ->  http://de.wikipedia.org/wiki/Kraftwerksmanagement

Verbraucherpreise

Wie würden sich die vorstehend ermittelten Windenergiepreise auf die Verbraucherpreise auswirken?

Die Stromerzeugerpreise für die fossilen Energien (Kohle, Gas) betragen 2,5 bis 5 ct/kWh.

Die Windenergie liefert im Modell wie oben ausgeführt im Mittel für 12 ct (landbasiert) und 17 ct (offshore) die Kilowattstunde, also zu 8 ct oder 12 ct höherem Preis. Bei einem Drei-Personen-Haushalt mit 3.500 kWh jährlichem Verbrauch ergibt sich dadurch eine Erhöhung von 280 € bzw. 420 €  (plus MwSt).

Diese Mehrkosten könnten durch Senkung von Steuern und Abgaben kompensiert oder teilkompensiert werden. Staat und Kommunen müssten dann auf Einnahmen verzichten, die dann allerdings auch nicht mehr zu Ausgaben führen können. Auf volkswirtschaftlicher Ebene ergäbe sich dadurch direkt oder indirekt eine Absenkung von gewohnten Standards.

Für das Gewerbe und stromintensive Industrien können Strompreiserhöhungen existenzielle Bedeutungen haben und wären damit ein Politikum ersten Ranges.

Über die Zusammensetzung des Strompreises kann bei Wikipedia nachgelesen werden.

-> http://de.wikipedia.org/wiki/Strompreis

Fazit

Die Windenergie ist unter den Alternativen zu den fossilen Energien diejenige, deren technisches Potential am weitesten entwickelt und die preislich im Vergleich zur Sonne, der anderen Energie mit großem Potential, weit günstiger ist.

Nur eine Entwicklung der Speichertechnik wie Pumpspeicherwerke, Gasgewinnung (Wasserstoff, Methan, etc.) kann den Windanteil nennenswert über 50% anheben. Preislich dürften die Stromerzeugungskosten dadurch weiter stark ansteigen.

Bisher ist die öffentliche Diskussion mehr durch Vermutungen geprägt als durch fundiertes Zahlenmaterial. Vielleicht können die hier vorgelegten Betrachtungen bei der Fundierung und Versachlichung hilfreich sein.

Klaus Öllerer Publizist  – Dipl-Ing. Hannover, im Februar 2012

0170 92 60 771

www.oellerer.net

Anmerkung der Redaktion: Russland drosselt Gaslieferung

Bei weiterem Ausbau der Puffer-Gaskraftwerke würde die Abhängigkeit von Russland weiter steigen. Wenn die drosseln wie bereits jetzt geschehen, gehen die Lichter aus: Zitat aus der Welzheimer Zeitung vom 7.2.11

Am vergangenen Freitag habe sich die Lage aber weiter verschärft. In einem daraufhin an alle Großkunden verschickten Brief spricht die GVS-Netz von einer „kritischen Situation“ und fordert die Energieversorger „dringend“ auf Gas zu sparen. Unter anderem sollen – falls vertraglich möglich – Lieferungen heruntergefahren oder unterbrochen werden.

Nach Recherchen unserer Zeitung ist dies auch schon geschehen. So ist seit vergangenen Freitagabend Block vier des Karlsruher EnBW-Meilers RDK nicht mehr am Netz, wie eine EnBW-Sprecherin bestätigte. Die GVS-Netz selbst habe in den vergangenen Tagen die Gaslieferungen für „eine Handvoll Kunden“ reduziert, sagte der Sprecher.

Weitere Quellen

1. Stromerzeugungskosten
http://www.energie-verstehen.de/Energieportal/Navigation/Energieversorgung/stromerzeugung,did=249676.html

Die Einspeisevergütung für Land-WEAs als Kalkulationsgrundlage ist realistisch, da sie die Errichtung, den Betrieb, die Wartung und den Gewinn für die Eigentümer beinhaltet.

2. Windleistung in Deutschland

 Prof. Dr.-Ing H. Alt, Fachhochschule Aachen, Hilfsb 123-5 Windleistung Deutschland 3-2011

2a. wie vor, jedoch geändert

3. Foto Windenergie in Landschaft
(c) J. Musehold

4. GW=Gigawatt, MW=Megawatt, kW=Kilowatt, W=Watt

1 GW=1.000 MW=1.000.000 kW=1.000.000.000 W

5. Wind-Wärme-Kopplung
Es wäre denkbar, dass überschüssiger Windstrom niederpreisig zur Wärmeerzeugung (Fernwärme, etc.) verwendet wird.




Windräder töten Vögel und Fledermäuse! Update

Rotorspitzen über 400 km/h schnell

Tatsächlich fegen die Spitzen der Rotorblätter schon bei mäßigem Wind mit 170 km/h durch die Luft und laut Informationstafel am Schellenberg bei Neustadt a. d. Aisch liegt deren Spitzengeschwindigkeit bei 272,3 km/h. Neuere Anlagen erreichen über 400 km/h. Für Skeptiker zum Nachrechnen: Einfach die Rotorblattlänge in Metern mit 22,6 multiplizieren und durch die Zahl der Sekunden teilen, die das Windrad für eine Umdrehung braucht und man erhält die Geschwindigkeit der Rotorblattspitzen in km/h. Die meisten Rotorblätter sind zwischen 35 und 55 Meter lang, auf See sind Längen von 125 Metern geplant.
Aktualisiert am 26. Januar 2012Sog zieht Vögel und Fledermäuse an die Rotoren.
Kommt ein Vogel oder eine Fledermaus auch nur in die Nähe eines Rotorblattes, saugt sie ein Unterdruck unweigerlich gegen das Rotorblatt und es ist um sie geschehen. Dieser Unterdruck entsteht durch die Luftströmung an den Rotorblättern und schwankt, weil der Wind mal schneller oder mal langsamer weht und auch, weil sich das Rotorblatt wegen seines hohen Trägheitsmomentes nur verzögert schneller oder langsamer drehen kann. Mit dem Unterdruck schwankt auch der daraus resultierende Sog ständig. Verstärkt werden die Druckschwankungen durch den Turm-Effekt, weil immer dann, wenn ein Rotorblatt vor dem Turm vorbei saust, der Winddruck abfällt und deshalb das Rotorblatt vor und zurück springt. Das hört man als Wummern, weil der Mast periodisch von den nachlaufenden Luftströmungen des vor ihm vorbei sausenden Rotorblattes getroffen wird und sich seine Anströmrichtung und Anströmgeschwindigkeit kurzzeitig ändern. Hinzu kommt, dass der Wind mit der Höhe zunimmt, was man schon vom Kinderdrachen kennt. Das bedeutet aber, dass die Rotorblätter, wenn sie ganz oben stehen, mehr belastet werden, als wenn sie ganz unten stehen. Das führt zu weiteren Schwingungen und zwar umso mehr, je länger die Rotorblätter werden.

Druckschwankungen sind kilometerweit zu hören

Obwohl sich die Druckschwankungen mit Schallgeschwindigkeit ausbreiten und sich dabei mit dem Quadrat der Entfernung abschwächen, hört man das Wummern noch kilometerweit. Daran erkennt man die enorme Wucht der Druckschwankungen und ihre Gefährlichkeit für Vögel und Fledermäuse. Auch der Infraschall wird letztlich durch die Druckschwankungen ausgelöst. Wir Menschen können ihn wegen seiner tiefen Tonlage nicht hören, er scheint aber trotzdem gesundheitsschädlich zu sein. Hinzu kommt, dass Infraschall weiter reicht als der hörbare Schall. Elefanten unterhalten sich mit Infraschall über 2,5 Kilometer Entfernung.

Ausweichen für Vögel und Fledermäuse unmöglich

Werden Tiere von einem Rotorblatt direkt getroffen, dann ist es natürlich erst recht um sie geschehen und die Wahrscheinlichkeit dafür ist groß. Denn jedes einzelne Rotorblatt wiegt 3,5 t und mehr, also so viel wie ein rasender Kleinlaster und alle paar Sekunden kommt das Nächste mit einer Geschwindigkeit von 27 bis 76 Metern pro Sekunde herangerast und dann wieder eines und wieder und wieder. Das ist der sprichwörtliche Kampf gegen Windmühlenflügel, den jeder Vogel und jede Fledermaus verliert.

Tod auch ohne direkte Kollision

Doch selbst wenn die Opfer nicht vom Rotorblatt angesogen oder direkt getroffen werden, lösen die heftigen Druckschwankungen im Turbulenzbereich der Rotorblätter innere Verletzungen aus. Die Tiere sterben ohne Zeichen äußerer Verletzungen, was durchaus vergleichbar mit der Wirkung von Luftminen auf Menschen im 2. Weltkrieg ist. Diese Minen lösten ebenfalls heftige Druckschwankungen aus und zerrissen auch Menschen die Lungen, die sich im Bunker sicher glaubten. Diese als Barotraumen bezeichneten inneren Verletzungen betreffen nicht nur die Lungen. Bei Fledermäusen fand man sogar geplatzte Fettzellen (Current Biology 18, S. 695 – 696, 2008), was zeigt, wie äußerst aggressiv die Druckschwankungen sind.

Einfacher Versuch zu Sogwirkung 

Die Sogwirkung der Rotorblätter zeigt ein einfacher Versuch. Hält man zwei Blatt Papier in geringem parallelen Abstand vor den Mund und bläst hindurch, so weichen sie nicht etwa auseinander, wie man vermuten könnte, sondern der Sog zieht sie aufeinander zu. Ersetzt man eines der beiden Blätter durch Karton, zieht der Sog das leicht bewegliche Papier auf den starren Karton. Der Karton entspricht dem starren Rotorblatt und das bewegliche Papier dem Vogel oder der Fledermaus. Jedoch pustet kein harmloser Mensch, sondern ein Tornado mit Windgeschwindigkeiten bis über 400 km/h und zwar ständig, solange sich das Windrad dreht! Ein solcher Sog ist tödlich, da gibt es kein Entkommen. Schon viel geringere Geschwindigkeiten wie bei Schiffsschrauben oder sich eng begegnenden LKWs oder von vorbei fahrenden Zügen sind lebensgefährlich: Ein Hobbyfilmer wollte einen dramatischen Streifen drehen, stellte seine Kamera ganz dicht an die Bahngleise und filmte den herannahenden Zug. Er glaubte sich sicher, doch der Sog des Unterdruckes zog ihn an den Zug, er selbst überlebte, seine Kamera nicht….

Dr. Friedrich Buer

Lesen Sie den ganzen undefinedBericht als Dateianlage




Englischer Europa-Abgeordneter spricht Klartext

Was in der EU geschieht – in England und Schottland noch schlimmer wegen zusätzlicher Kosten.

Die De-Industrialisierung Europas

von Roger Helmer

Wir könnten auch in den Flughäfen ein Schild aufhängen: „Wegen Geschäftsaufgabe geschlossen“.

 

Der Schuldige: EU-Umwelt-Kommissar Janez Potocnik.

Während die führenden europäischen Politiker über den Vorrang für Wachstum und Arbeitsplätze schwafeln, haben wir eine Klimarettungspolitik, die die Energiekosten massiv erhöht und ganze Industrien, Firmen, Arbeitsplätze und Investitionen aus der EU hinausteibt. Im Namen des Umweltschutzes zwingen wir sie ins Ausland, in Rechtsräume mit geringeren Umweltstandards.

Das betrifft ein ganzes Spektrum von energieintensiven Industrien: Metall, Stahl und Aluminium, Zement, Chemie, Glas, Papier und Holz. Wir sprechen von einer „Neuausrichtung der Wirtschaft in der Produktion“ und mit dem nächsten Atemzug schlagen wir „einen Basispreis für Kohlenstoff“ vor. Dann wundern wir uns, warum die Industrie im Abendrot verschwindet.

Ich habe jahrelang darüber geschrieben, aber so richtig deutlich wurde es mir gestern abend bei EUROFER anläßlich einer Abendveranstaltung in Brüssel. EUROFER ist der europäische Verband der Stahlproduzenten. Normalerweise folgen auf die Reden/Informationen/Darstellungen bei derartigen Veranstaltungen rege Diskussionen und Zwischenfragen aus dem Auditorium.  Diesmal wandte sich die Aufmerksamkeit nach den paar Ansprachen dem Abendessen zu, keine Debatte mehr. Meine sorgfältig vorbereitete Frage blieb ungefragt, deshalb möchte ich sie nun hier stellen.:

„Herr Vorsitzender, der Sprecher der Kommission hat richtigerweise gesagt, dass es die EU derzeit mit einer Wachstumskrise zu tun hat, niedriger Produktivität und Wettbewerbsfähigkeit, dazu hoher Arbeitslosigkeit. Und dies am Ende des Jahrzehnts des Lissabon-Prozesses, wo mit Überheblichkeit gehofft worden war, in Europa die ‚wettbewerbsfähigste wissensbasierte Wirtschaft der Welt zu schaffen‘. Bedeutet dieses massive Versagen nicht, dass da etwas grundlegend falsch ist im EU-Modell der ökonomischen Integration, ganz so, wie die derzeitige EURO-Krise bedeutet, dass da etwas grundlegend daneben geht in der Architektur der Einheitswährung?

Stimmt es ewa nicht, dass unsere Klimaschutzpolitik die Kosten erhöht und energieintensive Industrien wie die Stahlindustrie aus Europa vertreibt?“

Es bedurfte doch nur einer übertriebenen Regulierung und Besteuerung, um die EU zu einer unattraktiven Geschäftsregion zu machen. Zusätzlich haben in der jetzigen Rezession die westlichen Wirtschaften noch einen Klotz am Bein namens „SCHULDEN”. Und bei diesem dreifachem Pech haben wir in der EU uns vorsätzlich und freiwillig einen neuen Klotz ans andere Bein gebunden: Der heißt ‚Führungsrolle im Kampf gegen den Klimawandel'“.

Über „Führungsrollen“ wird in der EU sehr gerne gesprochen, in der Klimapolitik und wo sonst auch immer. Man merkt leider nicht, dass niemand sonst mitmacht. Der Klima-Alarmismus findet in der übrigen Welt keine Sympathie. Obama hat den Zertifikatehandel über Bord geworfen – und seine Kritiker von den Linksgrünen beschuldigen ihn, das Interesse an der Umwelt gänzlich verloren zu haben.
Wir hören, dass China in der Entwicklung Grüner Technologie führend wäre, aber dennoch bauen die Chinesen wöchentlich ein neues Kohlekraftwerk, während ihre Solarplatinen-Fabriken wegen Nachfragemangel pleite gehen.

Es bringt keinen Vorteil, der erste Lemming zu sein, der über die Klippe stürzt, aber das ist genau die Position, in der sich die EU befindet.

Ich sprach von „Rechtsräumen mit geringeren Umweltstandards“. Gestern abend wurde das mit einer Zahl belegt. Ein höherer EUROFER-Offizieller sagte mir, dass in Europa die Produktion einer Tonne Stahl mit ein-einhalb Tonnen CO2-Emissionen verbunden ist. Die Herstellung der gleichen Tonne Stahl in China setzt vier Tonnen CO2 frei. Mehr als das Doppelte.

Halten wir uns ganz klar vor Augen: Wir haben eine Politik, die Wachstum, Arbeitsplätze, Investitionen und Wohlstand zerstört und gleichzeitig möglicherweise die Emissionen verdoppelt. Das ist, wie so vieles in der EU, eine Politik, bei der man nur verlieren kann.

Ich habe oft erlebt, dass einzelne Sprecher ihre privaten Zweifel aussprechen, während Organisationen und Firmen ständig Kniefälle vor der herrschenden Klima-Lehre machen. Das war gestern Abend nicht anders. Die konventionelle Sicht wird aber allmählich von innen ausgehöhlt: die Skeptiker sind auf dem Wege, die Hirne und Herzen zu gewinnen.

Mein EUROFER-Gesprächspartner (dessen Namen ich aus verständlichen Gründen nicht nenne) sagte: „Wir bei EUROFER sind zum Kampf gegen den Klimawandel verpflichtet. Aber ich persönlich halte das für Unfug“.

Da haben wir es. Wir de-industrialisieren Europa im Namen des Klimawandels, einer bizarren, kollektiven Wahnidee, die so wieder vergehen wird, wie sie sich verbreitet hat.

Dieser Artikel erschien zuerst auf ConservativeHome und bei Roger Helmer.

Übersetzung: Helmut Jäger, EIKE




Kältewelle- Regierung baut vor; wie offizielle Stellen mit Blackout umgehen sollen!

Der überstürzte Atomausstieg könnte in diesen Tagen dramatische Folgen haben: Wegen der anhaltenden Kälte rechnet die Bundesregierung mit Stromausfällen und Industrie-Abschaltungen (Fachbegriff: Lastabwurf). Das geht aus einem internen Rundschreiben des Bundesumweltministeriums hervor, das BILD vorliegt.

O-Ton: „In der laufenden Woche ist es extrem kalt, die Nachfrage nach Strom daher voraussichtlich höher und das Risiko von Netzproblemen größer als in den vergangenen Monaten.“…

…Die erneuerbaren Energien tragen laut dem Rundschreiben ausdrücklich keine Schuld an möglichen Stromausfällen.

….Besonders brisant: Die Bundesregierung hat mögliche Abschaltungen und Stromausfälle bei den Beschlüssen zum Atomausstieg sogar eingeplant: „Das Risiko eines vorübergehenden Blackouts war den politischen Entscheidungsträgern bei den post-Fukushima Beschlüssen zur Energiewende bekannt.“

Den ganzen Beitrag von Ralf Schuler sehen Sie  hier

Anmerkung der Redaktion:

Da muss Umweltminister Röttgen, bekannt als technisch versierter Kima- und Energiefachmann natürlich flankierend eingreifen. Im Tagesspiegel lässt er verlautbaren:

"Erneuerbare Energien schaffen Versorgungssicherheit"

"Gerade in diesen extrem kalten Tagen zeigt sich, dass die erneuerbaren Energien Versorgungssicherheit und Stabilität schaffen. Der Ausbau von Wind und Solar zahlt sich aus

Währenddessen baut RWE noch mehr Jobs ab und BDI Präsident Keitel warnt vor weiteren Jobverlusten 




Ein Termin bei der Kanzlerin?

Thorium als Energiequelle

Vorschlag: Die Bundesregierung soll ein ambitioniertes Programm zur Entwicklung und Realisierung des Thorium-Flüssigsalzreaktors auflegen.

Nein, ich möchte hier nicht den Anstoß für die Fortsetzung einer ideologiebasierten Energiedebatte liefern, die von beiden Seiten voller Fanatismus und Bitterkeit geführt wird. Wollen wir denn nicht alle dasselbe? Eine bessere Zukunft für uns und unsere Kinder? Wenn wir uns doch in diesem Ziel einig sind, ist es dann nicht möglich, Gräben zu überwinden und die klügsten unserer jeweiligen Ideen miteinander zu verbinden, statt Gegensätze zu betonen und sich gegenseitig zu neutralisieren?

Auch und gerade als Befürworter der Kernenergie bin ich zu Einsicht in der Lage. Uran 235, der Stoff, den unsere gegenwärtigen Reaktoren zur Energiegewinnung einsetzen, ist selten. Ihn nutzen zu wollen, bedarf einer Technologie, die entlang der gesamten Kette, vom Bergbau über die Anreicherung bis hin zur Verwendung im Kraftwerk und der anschließenden Behandlung der Abfälle, Risiken beinhaltet, die viele Menschen zu tragen nicht mehr bereit sind. Angesichts der Störfälle in Harrisburg, Tschernobyl und Fukushima ist auch mir deutlich geworden, wie aus Risiken reale Gefahren werden können, seien Wahrscheinlichkeiten auch noch so gering. Aber hören wir denn auf, Häuser zu bauen, wenn mal eines einstürzt? Schaffen wir Schiffe ab, wenn eines versinkt? Demontieren wir unser Schienennetz, wenn ein Zug entgleist? Verzichten wir auf Wasserkraft, wenn ein Damm bricht?

Nein, das tun wir nicht. So zu handeln, würde den meisten Menschen irrational und hysterisch erscheinen. Stattdessen versuchen wir, aus Unglücken zu lernen und unsere Technologie weiter zu verbessern, sie sicherer, effizienter und effektiver zu gestalten. Sind wir selbstbewußt, sind wir fähig und kompetent genug, uns dieser Herausforderung auch auf dem Gebiet der friedlichen Nutzung der Kernenergie zu stellen?

Es gibt ein Element, das sehr viel häufiger zu finden ist, als Uran 235. Es handelt sich um das Schwermetall Thorium. Und es gibt eine Maschine, mit der die diesem Element innewohnenden Energien freigesetzt und verwendet werden können. Es handelt sich um den Thorium-Flüssigsalzreaktor, im englischen Sprachraum auch als “LFTR” (Liquid Fluoride Thorium Reactor) oder eingängig als Lifter bezeichnet.

Der Vorteil dieser Maschine besteht dabei nicht darin, die mit unseren gegenwärtigen Leichtwasserreaktoren verbundenen Risiken noch weiter zu minimieren. Mit dem Lifter wären diese Risiken vielmehr grundsätzlich ausgeschlossen. Er stellt eine völlig andere Technologie, ein völlig anderes Konzept dar. Eine Kernschmelze ist nicht möglich, denn der Kern ist bereits geschmolzen. Kühlsysteme, deren Ausfall gefährlich sein könnte, gibt es nicht mehr. Der Lifter reguliert seine Temperatur selbst. Er basiert auf dem Konzept der passiven Sicherheit, sollte (wie im Falle Fukushima) jegliche Energieversorgung des Kraftwerkes unterbrochen sein, nimmt er von selbst einen sicheren Betriebszustand ein. Isotope, die man zum Bau von Kernwaffen verwenden könnte, entstehen im Thorium-Brennstoffkreislauf nicht. Es fehlen ebenso die langlebigen und toxischen Transurane, die bei herkömmlichen Reaktoren das Problem der Endlagerung aufwerfen.

Ein Lifter ist weit mehr als nur eine thermodynamische Maschine zur Stromproduktion. Er ist eine chemische Fabrik, seine Gestaltung ist auf die optimale Handhabung der beteiligten Stoffe ausgerichtet. Dies begründet letztlich nicht nur seine Sicherheitsvorteile, dies ermöglicht auch die Gewinnung vieler nützlicher Stoffe auf einfache Weise während des Betriebs, von seltenen Erden wie Neodym bis hin zu Isotopen für die Nuklearmedizin. Darüber hinaus stellt er eine ideale Quelle für Prozesswärme in der industriellen Produktion dar.

Das einzige Problem: Er produziert Energie durch die Freisetzung der Kernbindungskräfte mittels einer Kernspaltung. Und dieser Ansatz ist nun nicht nur in Deutschland verboten, sondern für viele Mitbürger scheinbar grundsätzlich nicht tragbar. Darf oder kann man aber ein Naturgesetz verbieten, ist es klug, gegen ein natürliches Prinzip zu demonstrieren?

Ich kann die politische Entscheidung zum Ausstieg aus der Kernenergie als eine Reaktion auf die Stimmung in der Bevölkerung verstehen. Ich kann auch verstehen, wenn viele Menschen angesichts der Geschehnisse in Tschernobyl und Fukushima der Kernkraft skeptisch, ja sogar ängstlich gegenüberstehen. Man sollte sich aber darüber im klaren sein: Was man auch immer als Argument gegen Kernkraftwerke in die Diskussion einbringt, ist in Wahrheit nur ein Argument gegen eine bestimmte technische Umsetzung und nicht gegen die Kernkraft insgesamt. Es gibt tausende Möglichkeiten, die Kernbindungskräfte in Kraftwerken zu nutzen, man sollte Leichtwasserreaktoren nicht für eine gesamte Technologie haftbar machen.

Masse und Energie sind einander äquivalent. Daraus kann man nicht aussteigen.

Der Lifter ist keine Phantasie. Er wurde bereits gebaut und war als Versuchsanlage am Oak Ridge National Laboratory in den USA von 1965 bis 1969 in Betrieb. Die Technologie ist heute weitgehend in Vergessenheit geraten, zumindest in Deutschland. Weltweit hingegen formieren sich Netzwerke aus Wissenschaftlern und Ingenieuren, aus Wirtschaft, Wissenschaft und Politik, um die Wiederaufnahme der damaligen Entwicklungstätigkeiten zu forcieren. Zu nennen sind die Thorium Energy Alliance, dieInternational Thorium Energy Organization und die Weinberg Foundation. Anfang 2011 hat China angekündigt, innerhalb der nächsten 5 Jahre einen Demonstrationsreaktor zu bauen und binnen 20 Jahren den Lifter kommerziell einzusetzen. Man sieht dies als eines von vier Projekten zur Gewinnung einer strategischen Führungsrolle in Wissenschaft und Wirtschaft in bedeutenden Zukunftstechnologien.

Stellen wir uns in Deutschland dieser Herausforderung? Wir, die wir doch eigentlich die Maschinen entwickeln und bauen möchten, die die Welt in Zukunft mit Energie versorgen? Energie, die sauber und ohne die heute debattierten Risiken produziert wird? Man kann an den Klimawandel glauben oder nicht – der Lifter wird ganz unabhängig davon keine Naturräume bedrohen, wie Wind- und Solarkraftwerke oder wie der Anbau von Energiepflanzen, und er wird kein Kohlendioxid freisetzen.

Wenn die Frage gestellt wird, wovon wir in Zukunft in Deutschland leben wollen, dann kann die Antwort nur unsere Innovationskraft sein. Die Kernkraftgegner mögen im Moment triumphieren, aber die Freiheit, durch Demonstrationen politische Entscheidungen zu erzwingen ist auch verbunden mit der Verantwortung, die man dann für diese Entscheidung zu übernehmen hat. Ist es verantwortlich gedacht, sich wegen eines Störfalles in einem bestimmten Reaktortyp gleich ganz  von einem zukünftigen Wachstumsmarkt zu verabschieden? In einer auf Wissen und Kompetenz in Hoch- und Spitzentechnologien angewiesenen Gesellschaft?

Ich kann auch als Befürworter der Kernenergie der Entscheidung zum Ausstieg etwas abgewinnen. Wenn wir den Leichtwasserreaktor durch etwas Besseres ersetzen. Das uns mehr Möglichkeiten für eine sichere, saubere und verlässliche Energieversorgung bietet – und nicht weniger. In diesem Sinne bitte ich Sie alle um Zustimmung zu meinem Vorschlag. Ich würde mich freuen, könnten einige Kernkraftgegner über ihren Schatten springen und damit ein Zeichen dafür setzen, ideologische Ignoranz nicht als den Weg in die Zukunft anzusehen. Fortschritt kann auch eine Brücke sein, er kann Gräben überwinden, weil er scheinbar wichtige Fragen irrelevant macht. Der Lifter ist in diesem Sinne nicht Sieg oder Niederlage für die ein oder andere Meinung, sondern ein Gewinn für uns alle.

—–

Nach der Reduzierung auf die durch den Zukunftsidalog vorgeschriebenen 1.500 Zeichen wurde dann das hier daraus:

Die Bundesregierung soll ein Programm zur Entwicklung und Realisierung des Thorium-Flüssigsalzreaktors auflegen.

Mit dem LFTR (Liquid Fluoride Thorium Reactor, eingängig “Lifter”) wären die Risiken herkömmlicher Kernkraftwerke ausgeschlossen. Er basiert auf einem anderen Konzept. Eine Kernschmelze ist nicht möglich, Kühlsysteme, deren Ausfall gefährlich sein könnte, gibt es nicht mehr. Sollte jegliche Energieversorgung des Kraftwerkes unterbrochen sein, nimmt der Lifter von selbst einen sicheren Betriebszustand ein. Isotope für den Bau von Kernwaffen entstehen im Thorium-Brennstoffkreislauf nicht. Es fehlen auch langlebige und toxische Transurane, die bei herkömmlichen Reaktoren das Problem der Endlagerung aufwerfen.

Der Lifter ist nicht nur eine thermodynamische Maschine zur Stromproduktion. Er ist eine chemische Fabrik, sein Design ist auf die optimale Handhabung der beteiligten Stoffe ausgerichtet. Dies ermöglicht die Gewinnung vieler nützlicher Stoffe während des Betriebs, von seltenen Erden wie Neodym bis hin zu Isotopen für die Nuklearmedizin. Darüber hinaus wäre er eine Quelle für Prozesswärme in der industriellen Produktion.

Deutschland wird auch in Zukunft nur von seiner Innovationskraft leben können. In den USA, in GB und in China ist man bestrebt, die Arbeiten der 1960er Jahre, in denen der Lifter bereits prototypisch realisiert wurde, wiederaufzunehmen und ihn zur Marktreife zu führen. Wir dürfen uns aus diesem Zukunftsmarkt nicht verabschieden.

Ich denke, wir sollten uns in den Zukunftsdialog einbringen. Wenn denn die Kanzlerin wissen will, welche Fragestellungen und Themen die Menschen bewegen, dürfen wir nicht fehlen. Im Gegensatz zum Bürgerdialog des BMBF zur Energiewende, der nicht nur mich frustriert hat, sind hier alle Themen erlaubt. Betreut wird die Internetseite auch nicht von einem privaten, dem rotgrünen Spektrum zuzuordnenden Dienstleister, sondern vom Presse- und Informationsamt der Bundesregierung selbst. Und das allerbeste: Man kann nicht mit “Nein” stimmen, sondern nur mit “Ja”.

Ich bitte daher um die Stimmen der Leser von Science Skeptical (ein paar unterstützende Kommentare wären natürlich auch hilfreich). Und um die Weiterverbreitung dieses Aufrufes in allen möglichen anderen Blogs. Kann ich es unter die besten zehn schaffen? Wahrscheinlich nicht, wenn man sich anschaut, wie beliebt die Debatten über das bedingungslose Grundeinkommen und die Legalisierung von Cannabis sind (beides Ideen, die mir durchaus sympathisch sind, das möchte ich einräumen). Aber man kann solche Plattformen auch nutzen, um Ideen bekannt zu machen und weiter zu verbreiten. Schaffen wir 1.000 Unterstützer bis zum 15. April? Diese tausend erzählen es vielleicht herum und bald werden es mehr.

An dieser Stelle möchte ich auch auf meinen Artikel in der letzten Ausgabe der NovoArgumente hinweisen, der nun auch online gelesen und diskutiert werden kann. Leider ist der Text immer noch zweimal vorhanden, einmal hier (im Blog) und einmal hier(im Archiv, mit schon eingegangenen Kommentaren). Was die Novo-Redaktion da treibt, ist mir ein Rätsel.

Es gibit im Zukunftsdialog natürlich auch weitere Vorschläge, die die Haltung von Science Skeptical aufgreifen. Einige Beispiele:

Auch diese Beiträge verdienen unsere Unterstützung. Weitere Fundstücke können im Kommentarbereich ergänzt werden.

Dr. Peter Heller, übernommen von Science Sceptical




MdB Arnold Vaatz über die Energiewende, ihre Gründe und Folgen!

Leider ist dies als Höchststrafe für jene hinreichend, deren Existenzbedingung öffentliche Zustimmung ist. Dazu zählen in einer Demokratie ausnahmslos alle Politiker. Für sie gibt es zwei Möglichkeiten, sich diesem Dilemma zu stellen:

Erstens kann man versuchen, die öffentliche Meinung zu ändern. Man hat dazu eine scharfe Waffe: Der naturwissenschaftliche Schlafwandel, in dem sich die Energie- und Klimadiskussion bewegt, bedarf nämlich scheinbar, um vom Balkon zu stürzen, nur des kleinen Rippenstoßes einer Richtigstellung durch naturwissenschaftliche Klärung. Und: Man hat die Zukunft auf seiner Seite! Denn der Crash an der Wand der Realität nach der Geisterfahrt der deutschen Klimapolitik ist unausweichlich. Allerdings ist der Schlafwandler ein Elefant und der Rippenstoßgeber eine Maus. Und auf die Bekehrung des Schlafwandlers beim Aufprall auf die Realität zu setzen, ist Illusion (Man vergewissere sich in dem Klassiker „Don Quichote“ des 1616 gestorbenen spanischen Schriftstellers Miguel Cervantes der Unwiderlegbarkeit ideologischer Fixierungen durch gegenteilige empirische Erfahrung). Hinzu kommt, dass die Rolle eines Agitator populi erst dann sinnvoll wird, wenn die Öffentlichkeit in einem kollektiven Irrtum befangen ist, aus der sie der Politiker herauszuführen gedenkt. Der Politiker muss dann die Kraft haben, aus diesem von ihm festgestellten kollektiven Irrtum auszubrechen. Tut er das, muss er in sein Handeln einpreisen, dass ihm am Ende in aller Regel persönliche Anerkennung versagt bleiben wird: Falls nämlich der „kollektive Irrtum“ in Wahrheit kein solcher war und der Agitator populi sich selbst geirrt hat, wird ihm zwar das Kollektiv als reuigen Sünder nach vorangegangener Kapitulation in der Sache, die er zerknirscht vollziehen wird, wenn er seinen Irrtum eingesehen hat, wieder in die Arme schließen. Behält er aber recht, und das Kollektiv wird des eigenen kollektiven Irrtums gewahr, dann wird es begehren, nicht daran schuld gewesen zu sein und den Verkünder dieses Irrtums verfolgen und bedrohen, solange er lebt; denn die kollektive Eitelkeit duldet keine lebendigen Beweise dafür, dass man nicht hat irren müssen.

Zweitens kann man versuchen, sich der öffentlichen Meinung anzupassen. Man wird Advocatus populi. Diese Haltung ist politisch hocheffektiv. Viele schwere Entscheidungen muss man nicht selbst treffen. Sie werden einem von Umfragen abgenommen. Diese Haltung wird oft verbal geächtet verachtet, und dann stillschweigend vollzogen. Die große Kunstfertigkeit des Advocatus populi besteht dabei nicht mehr darin, einen objektiv richtigen Weg einzuschlagen und einen objektiv falschen zu vermeiden (also „Schaden vom Deutschen Volk zu wenden“, wie es in diversen Eidesformeln heißt). Sie besteht im Ersinnen von Argumentationsketten, die auch die unlogischsten und verderblichsten Gelüste der öffentlichen Meinung als sinnvolle, legitime und erreichbare politischen Zielen erscheinen lassen.

In der Realität wird man stets Mischformen zwischen beiden Wegen vorfinden. Auf einen Sachverhalts A eher auf die erste Art zu reagieren schließt keineswegs eine Reaktion auf die zweite Art bezüglich eines Sachverhalts B aus. Von seinen Gegner wird der auf die erste Art Handelnde gern als Fundamentalist und der auf die zweite Art handelnde als Opportunist bezeichnet. Beide Einordnungen wirken pejorativ und sind oft ungerecht.

Ich will diesen zweiten Weg, obwohl er mir persönlich zuwider ist, nicht schmähen, sondern verteidigen. Er verlangt dem Politiker Demut ab. Er befreit ihn, indem er dessen Kräfte, anstatt sie für aussichtslose Kämpfe zu binden, für sinnvolle kleinere Aufgaben freisetzt, die er erledigen kann. Und es gibt ihm die Möglichkeit, vielleicht am Ende gerade für jene Ziele, zu denen die öffentliche Meinung sonst hätte bekehrt werden müssen, durch Lüge, List und Täuschung noch mehr zu erreichen, als ihm das auf dem vorher angesprochenen geraden Wege gelungen wäre. Aber der zweite Weg birgt auch eine Gefahr. Wer immer artig anstatt seine Kräfte durch aussichtslose Kämpfe zu binden, dieselben für sinnvolle kleine Aufgaben freisetzt, der handelt in bestimmten Lagen auch wie ein 5-Sterne-Koch auf der Titanic.

Aber sind wir auf einer Titanic? Dies ist leider nicht entscheidbar. Das Schiff Deutschland hat seine Navigationsinstrumente an die Priesterschaft einer neuen Religion abgegeben. Es ist nicht mehr festzustellen, in welcher Seegegend wir tatsächlich manövrieren. Ob das neue Antiparadies, die Klimakatastrophe durch menschengemachtes CO2, wirklich unserer harrt, kann in unserem Land nicht wirklich festgestellt werden, weil eine freie Diskussion unter dem bei uns herrschenden Konformitätsdruck nicht stattfinden kann. Die Realität der Klimakatastrophe ist genauso wissenschaftlich erwiesen wie der gesetzmäßige Übergang der gesamten Welt vom Kapitalismus zum Sozialismus vor 35 Jahren, oder die Verantwortung von Hexen für Seuchen, Fehlgeburten, Todesfälle, Unfruchtbarkeit, Unwetter und Kriege vor 350 Jahren. Widerstand gegen Thesen dieser Art hat heute wie vor 35 oder 350 Jahren für die bezweifelte These wenig, für den Zweifler aber große Folgen.

Ob also eine Klimakatastrophe droht, und wer sie, wenn es sie droht, verursacht hätte und ob sie, wenn es sie droht, durch Politik vermeidbar wäre, wissen wir nicht. Was wir aber wissen ist, dass die politischen Vorkehrungen zur Verhinderung einer von CO2 verursachte Klimakatastrophe gigantisch und von fraglichem Erfolg sind. Sollte sich die CO2-Annahme als falsch herausstellen, so hätten wir die bisher größte Fehlallokation von Ressourcen und Kapital in der Geschichte der Menschheit verursacht – mit allen hier nicht weiter zu erörternden Folgen besonders für die künftige Rangfolge der Volkswirtschaften in der Welt, möglicherweise dem definitiven Ende der Technologieführerschaft durch Demokratien. Sollte sich die Annahme hingegen als richtig erweisen, so bleibt es durchaus fraglich, ob es aussichtsreicher ist, zu erwarten, dass der Prozess der Selbstmarginalisierung der westlichen Demokratien weltweit hinreichend Nachahmung findet um die Klimaentwicklung erfolgreich zu beeinflussen, oder ob es aussichtsreicher ist, sich der zu erwartenden Klimaentwicklung anzupassen, so wie der sibirische Bauer nicht etwa vom Zaren verlangte, den sibirischen Winter zu mildern, sondern sich warm anzog.

Ich selbst will gern an eine CO2-gemachte Klimaerwärmung glauben, weil mich das vieler Konflikte entledigte. Aber schon Frage, wie das präkambrische CO2 in Atmosphäre und Urozean, in dem der gesamte heute in Fossilien und Lebewesen gebundene Kohlenstoff enthalten gewesen sein muss, unter die Erde geraten sein könnte, dieweil die Erde wegen der deshalb ja wohl unerträglichen Treibhauswärme von oben und der noch nicht mal auf heutiges Niveau abgekühlten Erdkruste von unten nicht nur nicht im Höllenfeuer untergegangen ist, sondern sich im Gegenteil zum Lebensraum für die heutigen Schutzgüter der Ökoreligion entwickeln konnte, überfordert mich – ebenso wie Annahme von Wärmestrahlungen, die kältere Gasmoleküle aus  lithosphärenferneren Schichten der Atmosphäre an nähere und wärmere Gasmoleküle abgeben sollen, mit dem zweiten Hauptsatz der Wärmelehre vereinbar sein soll.

Aber selbst wenn erstens die Annahme richtig sein sollte, das eine gefährliche Menschen-CO2-verursachte Klimaerwärmung zu befürchten sei, zweitens die Erwartung berechtigt wäre, dass klimapolitische Entscheidungen die Welt vor selbiger schützen könnte, bleibt die Frage, inwieweit die deutsche Energiepolitik diesem Ziel dient.

Diese Frage ist beantwortbar.

Nicht nur dient die deutsche Energiepolitik diesem Ziel nicht, sie widerspricht ihm. Will man den Ausstoß von CO2 bei der Energieerzeugung verringern, so muss man ihn verteuern. Der europäische Emissionshandel leistet dies. Die Energieversorger werden gezwungen, CO2-emmissionsfreie Energieerzeugungsarten bereitzustellen, um Geld zu sparen. Den Zwang zur kostenminimierten Entwicklung von Energiebereitstellungsalternativen durch den know-how-Träger schlechthin, nämlich den Wettbewerb, haben die deutschen Regierungen – egal welcher Farben – ausgesetzt. Sie haben es getan durch politische Bevormundung und Suspendierung des Marktes. Damit ist die Statik des Systems überbestimmt.

Verantwortlich hierfür ist eine der bedeutendsten Gesetzesfehlkonstruktionen der deutschen Nachkriegsgeschichte, das Stromeinspeisegesetz aus dem Jahr 1990, gültig seit dem 1. Januar 1991, und das daraus hervorgegangene Erneuerbare Energien Gesetz (EEG) aus dem Jahr 2000. Diese Gesetze zwingen die bestehenden Energieversorger, die Einspeisung von Elektroenergie aus alternativen Quellen (u.a. Wind und Sonne) in ihre Netze zuzulassen. Das ist zunächst nicht zu beanstanden. Sie verpflichten die Energieversorger aber außerdem, diese Energie mit Vorrang aufzunehmen und zu politisch bestimmten Preisen zu kaufen. Mehr noch: Sie müssen jede kWh alternativ erzeugten Stroms vergüten, sobald diese kWh ins Netz eingespeist ist. Die Vergütungspflicht tritt also nicht erst dann ein, wenn die besagte kWh das ganze Jahr über oder wenigstens eine gewisse Zeit über kontinuierlich verfügbar, also grundlastfähig, war.

Mit diesem Eingriff in den Markt bevormundet der Gesetzgeber zunächst die Energieerzeuger bei der Auswahl der Technologie und beeinträchtigt so deren Optimierung. Wer diese Bevormundung akzeptierte, den entband nun der Gesetzgeber als Gegenleistung von seinem unternehmerischen Risiko und legte politische Vergütungshöhen fest, die nicht an durchschnittlichen Energiepreisen orientiert waren, sondern die Rendite der alternativen Energieerzeugung garantieren sollten, weshalb sie um ein Vielfaches höher waren als die Energiemix-Gestehungspreise, die der bisherige, auf diesem Gebiet unregulierte Markt erzeugt hatte (bei Solarstrom bis etwa zum Zehnfachen). Dieser politische Eingriff hat aus der deutschen Energieerzeugungslandschaft ein dauerhaft wettbewerbsunfähiges Gesamtgebilde gemacht. Das gut Gemeinte frisst nun langsam das gut Gemachte auf.

Um das zu verdeutlichen, nehmen wir an, das eigentlich in Gänze überflüssige Stromeinspeisegesetz bzw. EEG wäre wenigstens anders konstruiert gewesen und hätte eine Vergütungspflicht nicht für jede einzelne kWh sondern erst für die das ganze Jahr über geleisteten kW Dauerleistung festgeschrieben. Was wäre geschehen? Die Erzeuger von Wind- oder Solarstrom hätten erst dann Geld erhalten, wenn sie auch Speicheranlagen installiert hätten, die in der Lage sind,  diskontinuierlich eingehende Stromspitzen  in eine kontinuierliche Abgabe zu wandeln. Dies geschah nicht. Erreicht wurde stattdessen, dass viele Milliarden Euro in ebenso gewaltige wie sinnlose Spannungsamplituden in den Netzen investiert worden. Ihre Spitzen müssen (nachdem sie vergütet wurden) „weggeworfen“ werden, weil sie das Netz überlasten. Ihre Senken (die kontinuierlicher und anhaltender anfallen als die Spitzen) müssen durch Energieimporte oder vorgehaltene herkömmliche Erzeuger ausgefüllt werden, weshalb bei aller alternativer Euphorie noch kein Kohlekraftwerk durch Sonne und Wind substituiert und geschlossen werden konnte. Die ideologische Verbohrtheit war aber noch steigerungsfähig: Zunehmend wir die deutsche Energiebereitstellung nicht mehr kohle- und kernkraftgeführt bereitgestellt, sondern: Damit die alternativen Energien ungehindert ihre volatile Individualität ausleben können, müssen die eigentlich grundlastfähigen Kraftwerke (Kohle und Gas) durch Auf- und Abregeln ihren verschleißintensiven Ideologiebonus entrichten. Beim Fußball hieße das: Nicht mehr der Schuss muss ins Tor gezielt werden, sondern das Tor ist beweglich und die Balljungen müssen es hin- und hertragen in dem Bemühen ziellos abgegebene Schüsse einzufangen.

Auch die Wirkung der politisch festgesetzten Vergütungspreise war äußerst lehrreich. Wäre es richtig, dass die deutsche Öffentlichkeit so vom Klimaschutzgedanken durchdrungen ist, dass sie gern ein paar Groschen mehr für ökologisch geweihten Strom bezahlt, dann hätten das Einspeisungsrecht dieses Stromes in das Netz als gesetzliche Vorkehrung ausgereicht. Der Stromkunde hätte den Aufpreis fröhlich bezahlt und die Branche wäre prächtig gewachsen. Aber offenbar erwartete man solchen Großmut beim Verbraucher nicht. Wir mussten deshalb vom Staat, unserem großen Erzieher, zu richtigem Verhalten erzogen werden. Daher also die erwähnten Einspeisesubventionen. Nun verringerten sich aber die Herstellungspreise für die alternativen Energieaggregate (zunächst Solarzellen, allmählich auch Windmühlen) viel schneller als die Politik imstande war, die Einspeisesubventionen zu reduzieren. Die deutschen Solarzellenproduzenten sahen sich immer stärkerer Billigkonkurrenz aus Südostasien ausgesetzt. Dies ermöglichten einerseits südostasiatische Niedriglöhne und andererseits chinesische Staatssubventionen, die zum Eintritt in diesen hochsubventionierten europäischen Markt führen sollten, um dort zirkulierendes Subventionsgeld nach China umzuleiten, was im großen Stil gelungen ist. In der Folge gehen nun auch noch unsere Solarfirmen nach und nach pleite. Die Windmühlenindustrie wird möglicherweise folgen. Da aber die Rendite der alternativen Energiebetreiber zu den risikofreiesten wirtschaftlichen Unternehmungen gehört, die unser Land zu bieten hat, haben wir in Wirklichkeit nichts weiter gebaut als eine gewaltige Pipeline zur Umverteilung von Reichtum in die Hände der Ökostromanbieter, für die die gesamte Gesellschaft bluten muss und die uns aufgrund der Nachteile dieser Energiedargebote bei unserer vorgeblichen Absicht, CO2 zu reduzieren eher stört, als voranbringt.

Was ist zu tun? Eine vernünftige, sichere und ressourcenschonende Energiepolitik könnte so beginnen:

  • 1a. Das EEG wird ersatzlos nach einer politisch zu vereinbarenden Frist außer Kraft gesetzt.
  • 1b. Fehlen für 1a die politischen Mehrheiten, so ist die zweitbeste Lösung: Die Vergütungspflicht für Alternativstrom erstreckt sich ab sofort nur auf kontinuierliche Stromlieferungen über einen gewissen Zeitraum (in kW Dauerleistung) und nicht auf diskontinuierlich eingetroffene Energieeinheiten (kWh) – d.h. auf grundlastfähigen Ökostrom.
  • 2. Die Ausstieg aus dem Ausstieg aus dem Ausstieg aus dem Ausstieg aus der Kernenergie wird beschlossen.
  • 3. 50% der Einsparungen von Einspeisevergütungen werden zur Reduzierung der Verbraucherpreise eingesetzt. Die restlichen 50% sind von den Energieversorgungsunternehmen an Steuern an den Staatshaushalt abzuführen, sofern sie diese nicht für Forschungszwecke nutzen – wozu ausdrücklich auch die weitere Erforschung von Kernenergietechnologien gehört.

Leider verbietet sich die Illusion, dass die deutsche Politik diesen Vorstellungen alsbald folgt. Daher ist die Frage berechtigt, wie sich die Deutsche Energiewirtschaft entwickeln wird, wenn sie ihren Tunnelblick von heute beibehält. Hierzu ist anzunehmen, dass nach enormen Investitionen in Wind- und Sonnenenergie, in die Herstellung eines Zubringernetzes an die „Stromautobahnen“, die „Stromautobahnen“ selbst (dena spricht von 350.000 km im Niederspannungs- und 4.500 km im Hoch- und Höchstspannungsbereich) und in diverse sinnvolle und weniger sinnvolle Speichertechniken sowie die explodierenden Einspeisevergütungen zu Preisen führen, die der Stromkunde – vom Privathaushalt bis zum Großkunden – nicht mehr zu zahlen bereit ist. Der Großkunde wird seinen Standort nach außerhalb Deutschlands verlagern, der Privatkunde wird die deutsche Politik zur Verantwortung ziehen.

Wenn die Politik das Land aus der (ohne jede Not) selbstgemachten Misere heraus steuern will, wird sie sehr schnell an Grenzen stoßen; denn der 20jährige Vertrauensschutz für die alternativen Energieerzeuger lässt sich ebenso wenig aufkündigen wie sich das investierte Geld die ideologisch motivierte Umgestaltung der Energiewirtschaft in Deutschland zurückholen lässt. Der eingeschlagene Weg wird also in einen dauerhaften Wettbewerbsnachteil in allen energieintensiven Bereichen Deutschlands führen, der durch keine noch so geschmeidige Staatskunst zu beheben sein wird.

Deshalb ist zu hoffen, dass der deutsche Tunnelblick auf die von uns an die Wand gemalten modernen apokalyptischen Reiter möglichst bald einer nüchternen Betrachtungsweise weicht, wir vernünftigerweise, so lange das noch nicht geschafft ist, lieber Atom- und andere Energie importieren als sinnlose Perpetua mobile zu bauen, die wir dann wieder wegreißen. Obwohl sich die deutsche Wirtschaft an dem eingeschlagenen verhängnisvollen Weg in hohem Maße durch  kurzsichtigen Opportunismus – bis auf zahlreiche standfeste Persönlichkeiten wie pars pro toto Herr Großmann – mitschuldig gemacht haben (sie verhielten sich wie die Uniformschneider des sächsischen Königs bei einer Mobilmachung), sollte man doch letztlich hier immer noch auch auf deren Einsicht hoffen, wenn sie nur nicht zu spät kommt oder durch die mittlerweile enorme ökonomische Macht der durch Subventionen ausgebrüteten und hochgepäppelten Ökostromanbieter abgewürgt wird.

Arnold Vaatz für EIKE

der Beitrag ist die gekürzte Version einer längeren Betrachtung zum Vortrag von Prof.Löschke

sowie zu einem Leserbrief vom 9.1.12 von Prof. Löschke der (allerdings gekürzt) in der Leipziger Volkszeitung erschien. Wir bringen ihn hier in vollem Wortlaut:

Guten Tag, meine Damen und Herren,
mit größter Entrüstung habe ich in Ihrer Zeitung darüber lesen müssen, dass über eine Viertelmillion Euro in die Erarbeitung eines „Energie- und Klimaschutz“ -Konzeptes der Stadt Leipzig gesteckt wurde.
Mit der Klima-Rettungs-Wahnidee als Vorwand werden wertvolle Steuergelder verschleudert und auf eine Öko-Diktatur zugesteuert. Wir sollen daran glauben, dass die Erde in einer Klimakatastophe verbrennen wird, wenn wir dem Klimarettern nicht folgen. Die Wahrheit sieht hingegen anders aus.
Zum Einen verfestigen sich die naturwissenschaftlich ermittelten Tatsachen, dass es einen wesentlichen Einfluss des Menschen auf das langfristige Wettergeschehen (Klima) durch die von uns hervorgerufenen CO-2 -Emissionen nicht gibt. Damit wären allen Klimarettungsaktionen durch CO-2-Vermeidung der Boden unter den Füßen weg gezogen. Das Ganze wäre als Schwindel entlarvt.
Zum zweiten sind bereits jetzt durch diesen Schwindel machtpolitische und wirtschaftspolitische Entscheidungen getroffen worden, die eine De-Industrialisierung Deutschlands zur Folge haben werden und die die deutsche Wirtschaft, insbesondere die regionalen, mittelständischen Unternehmen wettbewerbsschädigend belasten (Energiepreise, Umweltzone usw.). Die Gewinner und Unterstützer des ganzen Unsinns sind die mittelbar und unmittelbar mit hoch subventionierten „erneuerbaren“ Energie zusammen hängenden Unternehmen. Das wird aber auf Dauer wie eine Kartenhaus zusammen fallen. Haben wir die geplatzte Blase des „Neuen Marktes“ so schnell vergessen?
Drittens – und das bringt mich als Ossi ganz besonders aus dem Häuschen – sollen unsere Kinder in der Schule verdummt und auf Klimareligionskurs getrimmt werden. Im „Energie- und Klimaschutz“-Konzept der Stadt Leipzig heißt es wörtlich:
„Durch die Institution Schule ist es möglich, Kinder besonders für den Klimaschutz zu sensibilisieren….Aufgrund der differenzierten Wissensaufnahme und –Verarbeitung von Kindern gegenüber Erwachsenen sollten spezielle Kampagnen auch unter Mithilfe von Pädagogen ausgearbeitet werden. Der große Vorteil kann hier sein, dass Kinder ihr erlerntes Wissen mit nach Hause nehmen und dort ihre Eltern beeinflussen können.“
Das kann man doch als vernünftiger Mensch nicht mehr mitmachen!
Deshalb ist sachliche und durchaus differenzierte Information wichtig und zum Glück noch möglich.
Ich verweise u.a. auf die Vorträge, die namhafte Dozenten im Rahmen der Ringvorlesung zum Studium Generale an der HTWK Leipzig in diesem Herbst/Wintersemester gehalten haben und noch halten werden (http://www.htwk-leipzig.de/de/studierende/studium-generale/fukushima/)
Beste Grüße
Knut Löschke




Attac Ableger Campact will Deutschland noch grüner und ärmer! Selbst ernannte Klimaretter sollen EEG retten

Siehe auch Update unten: Griechenland, Italien & Spanien streichen die Solarförderung ersatzlos.

…Im Vorstand dieser ominösen Kampf-Organisation im beschaulichen Verden sitzt u.a. der "Politikwissenschaftler" Felix Kolb. 

Felix Kolb

Felix KolbDr. Felix Kolb, Jahrgang 1973, ist Politikwissenschaftler. Er promovierte an der FU Berlin über die politischen Auswirkungen sozialer Bewegungen. Nach der Beendigung seines Studiums beteiligte er sich als Pressesprecher am Aufbau vonAttac. Zusammen mit Christoph Bautz gab er den Anstoß zur Gründung der Bewegungsstiftung. 

Über ihn, den mitfühlenden Politikwissenschaftler, schreibt die Bundeszentrale für politische Bildung (wer sonst?) in ihrem kaum gelesenen Magazin Fluter 

Felix Kolb kommt aus einem gutbürgerlichen Haus. Geld, sagt er, sei einfach immer da gewesen, nichts, worüber er sich Gedanken machen musste. Das änderte sich, als der heute 33-Jährige in der Schulzeit politisch aktiv wurde. "Politische Arbeit kostet Geld,und es war für mich eine neue Erfahrung:dass etwas an Geld scheitern kann", sagt er. Seitdem war er stets auf der Suche nach Geld für die gute Sache – seine Eltern waren eher zurückhaltend darin,ihren Sohn dabei finanziell zu unterstützen. Kolb gehörte zu den Mitgründern von Attac, war ihr Sprecher. Im Umfeld von Attac war es auch,wo sich junge,reiche Erben zusammenfanden, die ihr Geld nicht nur für den eigenen Gewinn,sondern für Reformen arbeiten lassen wollten.Daher gründeten sie die "Bewegungsstiftung". Felix Kolb war einer von ihnen.

Natürlich ist mit vollen Hosen gut stinken. Geld war eben einfach immer da. Da kümmert´s wenig, wenn schon heute hunderttausende von Haushalten ihre Stromrechnung nicht mehr bezahlen können. Angetrieben durch das unselige EEG. Da kümmert es offensichtlich noch weniger, dass durch den programmierten Wegfall von bis zu 1 Million wertschöpfender Arbeitsplätze durch den Weggang der energieintensiven Industrien, dank der "Energiewende", aus diesen hunderttausenden bald mehrere Millionen werden. Wir haben ja die "Erneuerbaren"! Mit ihren nachhaltigen Arbeitsplätzen mit Subventionen von bis zu 250.000 € pro Arbeitsplatz

Und offensichtlich war Kolb auch bei der Geldbeschaffung von den anderen reichen Erben sehr erfolgreich. Denn "das Team" diese Gruppe besteht aus immerhin 18 ( in Worten: Achtzehn!) Leuten, die wohl die Redaktion bilden. Eine mögliche Quelle dafür wurde schon genannt: Die Bundeszentrale für politische Bildung. Der Rest soll von den Unterstützern und Stiftungen kommen.

Mit von der Partie bei Campact ist auch ein Günter Metzges, ebenfalls "Politikwissenschaftler" aber zudem noch "Erwachsenen Pädagoge". 

Er ist – wie anders – auch Autor der TAZ. Tritt dort aber als Journalist auf. Über ihn schreibt seine eigene Organisation: 

Günter Metzges ist Initiator von Campact und arbeitet vollzeit für die Organisation. Er ist 33 Jahre alt, Politikwissenschaftler und Erwachsenenpäda­goge. Seit langen Jahren ist er insbesondere in der Jugendumweltbewegung und der Anti-Atom Bewegung aktiv. In verschiedenen Projekten und Kampagnen hat er sich vor allem mit Presse- und Öffentlichkeitsarbeit und Strategie­entwicklung beschäftigt und dabei lange Jahre als Trainer für die Moderationsmethode, Zukunftswerkstätten, Pressearbeit und Rhetorik gearbeitet. An der Universität Bremen hat er Erwachsenenpädagogik und Politik studiert. Parallel dazu das Ökologische Zentrum in Verden gegründet und aufgebaut. Das Verdener Ökozentrum ist ein Gründungszentrum für selbstverwaltete Betriebe und politische Initiativen. Nach Abschluss des Studiums hat Günter Metzges in den vergangenen dreieinhalb Jahren am Institut für Internationale und Interkulturelle Studien (InIIS) an der Universität Bremen an der Erstellung einer Doktorarbeit zu Einflussmöglichkeiten von Nichtregierungsorganisationen auf internationale Verhandlungen gearbeitet. Seit Januar 2005 arbeitet er vollzeit für Campact.

Günter Metzges

Dr. Günter Metzges, Jahrgang 1971, ist Politikwissenschaftler und Erwachsenenpäda­goge. Parallel zum Studium: Gründung des Ökologischen Zentrums in Verden/Aller und Mitwirkung in verschiedenen politischen Kampagnen. Das VerdenerÖkozentrum ist ein Gründungszentrum für selbstverwaltete Betriebe und politische Initiativen. 2000-2003 Wissenschaftlicher Mitarbeiter am Institut für Internationale und Interkulturelle Studien (InIIS) an der Universität Bremen.2003-2004 Marie-Curie-Fellowship an der University of Warwick (GB). Dissertation: „NGO-Kampagnen und ihr Einfluss auf internationale Verhandlungen“ (Nomos Verlag, 2006).

Von ähnlichem Zuschnitt und Kaliber sind auch die anderen Mitglieder des Teams. 

Aber, ihre Aktion gegen den vermeintlichen Anschlag auf das EEG durch Herrn Rösler ist erfolgreich. Fast jeder Grüne mit Internetanschluss hat bisher dafür gestimmt. Bis jetzt haben sich -nach eigenen Angaben- schon 56.000 dieser kühnen Rettungsaktion angeschlossen. Wozu diese dienen soll steht auch in der Einladungsemail: 

Lieber Klimaretter,

auf dem Papier ist die Energiewende beschlossen. Doch Wirtschaftsminister Rösler blockiert sie ausgerechnet dort, wo sie sich entscheidet: beim effizienten Einsatz von Energie. In Brüssel will er im Namen der Bundesregierung den mutigen Vorschlag der EU-Kommission für eine verbindliche Energieeffizienz-Richtlinie bis zur Unkenntlichkeit verwässern. Doch wenn es jetzt nicht gelingt, Energie sparsamer einzusetzen, dann droht uns schon in wenigen Jahren erneut eine Debatte, ob alle AKWs wie geplant abgeschaltet werden können.

Da ist es nur ein schwacher Trost, dass zumindest drei Länder in Europa jetzt aus diesem Irrsinn aussteigen. Es sind die arg gebeutelten Spanier und das nicht minder gebeutelte Italien (mit Dank an die Leser Laburda & Ranseyer). Denn sie stoppen die Subventionierung der Photovoltaik. Soeben wird auch von Griechenland gemeldet, dass es seine "Förderung" stoppt.

Offensichtlich muss ein Land erst mal so klamm werden wie Spanien oder Italien oder gar Griechenland. Erst dann wird man feststellen, dass Wind und Sonne Horrorrechnungen stellen, die unsere verwöhnten Klimaretter aber nicht bezahlen müssen. Sondern wir! 

Michael Limburg EIKE




Windräder produzieren Atommüll! Greenpeace muss eingreifen

Nicht ganz, denn die Vereinfachung zwingt zu anderen Generatoren. In konventionellen Windrädern mit Getriebe wird der Strom durch einen Elektromagneten erzeugt, dessen Drehgeschwindigkeit dank des Getriebes sehr hoch ist. Ohne Getriebe laufen die Generatoren dagegen mit der gleichen Geschwindigkeit wie die Rotoren. Unter diesen Bedingungen benötigt man Ringgeneratoren. Auch hier kann man Elektromagnete einsetzen, handelt sich damit aber wieder Nachteile in Form von Größe und Gewicht sowie von Verschleißteilen (Schleifringe) ein. Viele Hersteller setzen daher statt eines Elektromagneten Permanentmagnete ein, die ein so starkes Magnetfeld erzeugen, dass eine nur 1,5 cm dicke Permanentmagnetscheibe eine 10-15 cm lange Kupferspule ersetzen kann.

Einer Studie des Marktforschungsunternehmens trend:research zufolge hatten 2009 40% der neu installierten Anlagen ein Getriebe, aber weil die große Mehrheit der Hersteller an getriebelosen Anlagenkonzepten arbeitet, geht die Studie für Deutschland von einem drastischen Rückgang der Anlagen mit Getriebe aus. 2020 werden ca. 55% aller dann vorhandene Anlagen einen Direktantrieb haben. Bis auf einen Hersteller – Enercon – setzen derzeit alle auf Direktantriebe mit Permanentmagneten.

Um solche starken Permanentmagneten zu erzeugen, sind Metalle der so genannten Seltenen Erden nötig, vor allem Neodym, das zum Aufbau von starken Neodym-Eisen-Bor-Magneten genutzt wird. Als Faustregel gilt: pro Megawatt Leistung benötigt ein Direktantrieb ca. 200 kg Neodym. Für eine 5MW-Anlage, wie sie etwa in im alpha ventus Windpark vor Borkum eingesetzt wird, wird also eine Tonne Neodym benötigt. Neodym aber ist ohne große Mengen radioaktiven Abfalls nicht zu haben, denn es kommt nur in chemischen Verbindungen vergesellschaftet mit anderen sog. Lanthanoiden vor – und mit radioaktiven Elementen,  z. B. Thorium oder Uran.

Hier fangen die Probleme an: bei der Abtrennung vom Gestein entstehen giftige Abfallprodukte; bei der Aufkonzentrierung mittels Flotation entstehen Flotationsberge in Absinkbecken, von denen wiederum Schwermetalle, Giftstoffe und radioaktive Stoffe wie Uran und Thorium in gelöster Form ins Grundwasser oder als Stäube in die Luft gelangen können. Dammbrüche dieser Becken hätten katastrophale Folgen für die Umgebung. Auch aus dem Abraum können Schwermetalle sowie radioaktive Begleitstoffe ins Grundwasser gelangen.

Da das radioaktive Thorium derzeit nicht verwendet wird, häuft es sich rund um die chinesischen Minen, aus denen derzeit 97% der Weltproduktion an Neodym stammt, in riesigen Mengen unter freiem Himmel an: allein rund um den „See der seltenen Erden“ (40.632324, 109.685440), einem riesigen Auffangbecken für die wässrigen Abfallprodukte des Abbaus nahe der mongolischen Stadt Baotou, lagern bereits jetzt ca. 90.000 Tonnen Thorium. Chinesische Blogger berichten, dass Seltene Erden nicht nur in den bekannten Minen um Bayan Obo und Baotou, sondern in großem Stil und illegal in etwa 4.000 Abbaustätten rund um Ganzhou der Provinz Jiangxi abgebaut wird. Aus Bayan Obu stammt etwa die Hälfte des in China produzierten Neodyms. Hinzu kommt, dass die Arbeitsbedingungen in den Minen größtenteils katastrophal, d.h. gefährlich und extrem gesundheitsschädigend sind.

China ist Lieferant für ca. 97% des weltweit verbrauchten Neodyms, von dem bereits 2006 etwa 55% für den Bau von Windrädern und zu einem geringeren Teil für Elektro- bzw. Hybridfahrzeuge verbraucht wurden. Neodym findet sich darüber hinaus in Kleinelektronik (Festplatten, Lautsprecher) und medizinischen Geräten (Kernspintomographen). Die Weltproduktion belief sich 2006 auf 137.000 Tonnen, aber China reduzierte die Verfügbarkeit auf dem Markt, so dass 2008 nur ca. 17.000 Tonnen verfügbar waren. Der Jahresbedarf wird für 2014 auf 200.000 Tonnen geschätzt. Die Preise entwickelten sich entsprechend, sie stiegen von $42 pro kg im April 2010 zu $334 pro kg im Juli 2011.

Um sich von der chinesischen Monopolstellung unabhängig zu machen, wird derzeit in Australien ebenso wie in Kalifornien und Grönland darüber nachgedacht, vor Jahren still gelegte Minen in Gebieten mit Vorkommen von Seltenen Erden wieder zu eröffnen. Auch wenn Arbeitsschutz- und Umweltstandards in diesen Minen besser sind als in China, regt sich in einigen Ländern bereits jetzt Widerstand von Umweltgruppen gegen die Wiederaufnahme der Förderung. Murphy&Spitz Research, das Unternehmen auf Nachhaltigkeit analysiert und bewertet, kommt Mitte 2011 zu dem Urteil, dass es derzeit auf dem Weltmarkt kein nachhaltig gewonnenes und aufbereitetes Neodym am Markt gibt.

Von Greenpeace, das ja auch und gerne Ökostrom aus Windkraftanlagen verkauft, hört man in dieser Sache nichts. Während sonst auch noch die kleinste Lötstelle eines neuen Smartphones von den Regenbogenkriegern auf nachhaltige Produktion und Ökostandards geprüft wird und Hersteller, die als Sünder überführt werden, gnadenlos an den Pranger kommen, drückt man bei tausenden von Tonnen Neodym beide Augen zu – ist ja für eine gute Sache. Da beschweigt man lieber, dass der saubere Windstrom eine schmutzige Seite hat und versichert treuherzig:  „Wir liefern Strom, der aus Ökokraftwerken kommt – garantiert ohne Kohle und Atom“. Bislang hat sich kein Greenpeace-Aktivist an einem Neodym-haltigen Windrad angekettet. Kommentare auf dem Greenpeace-Blog, die sich auf Neodym-Verwendung in Windkraftanlagen beziehen, bleiben unbeantwortet. Im Greenpeace-Magazin, dass sich in Heft 2/2011 im Rahmen der Serie „Wieso, weshalb, warum?“ mit „Seltenen Erden“ beschäftigt, wird auf einer Infografik unter dem schönen Titel „Seltene Erden – knapp und unverzichtbar“ zwar angerissen, dass bei deren Abbau „radioaktive Rückstände“ anfallen. Aber, so lautet die frohe Kunde: „China gibt an, den Export aus Umweltschutzgründen zu begrenzen.“

Dr.Ludger Weß; zuerst erschienen auf ACHGUT

Update 1.2.12

Auch der Daily Mail online berichtet umfassend über die radiaktive Verseuchung in China durch Windräder in Europa. "In China, the true cost of Britain’s clean, green wind power experiment: Pollution on a disastrous scale"




Neue Kernreaktor Konzepte: Der CANDU Reaktor

CANDU (Canadian Deuterium Uranium) Reaktor ist ein in Europa weitgehend unbeachtetes Reaktorkonzept. Dieses Reaktorkonzept wurde in Kanada entwickelt und gebaut. Indien hat das Know-How erworben und baut zahlreiche Reaktoren in Indien. Weltweit befinden sich 47 dieser Reaktoren in Betrieb und 4 weitere befinden sich im Bau. Wenn man dieses Konzept näher betrachtet so entdeckt man ein ganz eigenes Konzept mit erheblichem Entwicklungspotential.

Der beste Moderator (abbremsen der Neutronen) für einen Kernreaktor ist schweres Wasser.

Absorbtionsquerschnitt H2O 0,664 barn; D2O, 0,00118b

Schweres Wasser hat die geringste Neutronenabsorbtion, das heißt es gehen am wenigsten Neutronen beim Abbremsen verloren. Dadurch kann man mit derartigen Reaktoren Brennstoff mit einem sehr geringen Anteil an spaltbarem Material verwenden. Die Brutrate kann beim CANDU Reaktors 0,8 (für jedes gespaltene 235U Atom werden 0,8 spaltbare 239Pu Atome erbrütet), betragen. Andererseits ist der Abbrems(Stoss)querschnitt des Schweren Wassers viel geringer als der des leichten Wassers.

Stoßquerschnitt H2O 105 barn, D2O 14,5 barn

In der Konsequenz ist ein Schwerwasserreaktor kernphysikalisch optimal, erfordert jedoch ein größeres Reaktorvolumen als ein Leichtwasserreaktor.

 

 

Letztlich hat der mit schwerem Wasser betriebene Candu Reaktor 4 große Vorzüge gegenüber dem Leichtwasserreaktor:

Ø  Aufgrund der Verwendung des optimalen Moderators, schweres Wasser, kann dieser Reaktor mit Natururan als Brennstoff betrieben werden, oder mit den abgebrannten Brennelementen eines Leichtwasserreaktors.

Ersteres  half beispielsweise Indien, welches mit kleinen eigenen Uranvorkommen gesegnet ist, den Sanktionen der USA und anderer Länder im Zuge des Kernwaffenbaus die Wirkung zu nehmen.

Die Nutzung abgebrannten Kernbrennstoffs aus Leichtwasserreaktoren in CANDU Reaktoren ermöglicht es den vorhandenen Brennstoff besser zu nutzen. Ein Kernbrennstoff  der im Leichtwasserreaktor 55 MWd/Kg  abgebrannt wurde kann z.B. im Candu Reaktor um weitere 10 – 12 MWd/Kg abgebrannt werden. Entsprechende Tests werden aktuell gefahren, Erläuterung g

Ø  Die Verwendung von Schwerem Wasser ermöglicht einen höheren Brutfaktor, etwa 0,8 bei der Verwendung von Uran als Brennstoff, verglichen mit dem Brutfaktor des Leichtwasserreaktors von 0,5 -0,6. Bei der Nutzung von Thorium anstelle von Uran (kleineres Verhältnis zwischen Neutroneneinfang- und Spaltquerschnitt, es werden weniger Transurane gebildet) kann man  einen Brutfaktor von etwas unter 1 erreichen (h). Versuche zur Nutzung von Thorium sind in Indien unter Beteiligung von AECL (Reaktorbauer aus Kanada) geplant.

Ø  Der Reaktor benötigt keinen technisch aufwendigen Reaktordruckbehälter und kann auch von Ländern mit einer weniger entwickelten Technologie gebaut werden.

Ø Die Brennelemente können während des Betriebes gewechselt werden. Es entfällt der jährliche mehrwöchige Stillstand zum Brennelementwechsel. Dadurch ergibt sich eine höhere Betriebszuverlässigkeit. Das Wechseln von Brennelementen während des Betriebs erlaubt es solche nur kurz zu bestrahlen und damit Bombenplutonium zu erbrüten (Erläuterung f). Aus den oben genannten Gründen hat vor allem Indien auf diese Reaktorlinie gesetzt und zahlreiche Reaktoren dieses Typs nachgebaut. Indien ist Atommacht geworden.

Daneben gibt es einige gewichtige Nachteile gegenüber dem Leichtwasserreaktor:

Ø  Die reinen Baukosten liegen bei einem Candu KKW etwa 1/5 höher als bei einem Leichtwasserreaktor.

Ø  Hinzu kommen die Kosten für Schweres Wasser. Ein Candu-6 Reaktor enthält 457to (20) davon, es addieren sich 274 Mio. Euro zu den Investitionskosten. Insgesamt ist der Candu Reaktor damit 1/3 teurer als ein Leichtwasserreaktor gleicher Nennleistung. Der jährliche Verbrauch an schwerem Wasser dürfte bei etwa 5to zu 600$/Kg (21) liegen, entsprechend 3 Mio. $/a. Sofern man eine Anlage zur Umarbeitung des abgebrannten Kernbrennstoffs aus Leichtwasserreaktoren baut, kann sich je nach Anlagenkosten und Betriebskosten eine Ersparnis durch die Nutzung der abgebrannten Brennelemente aus Leichtwasserreaktoren geben. Der Reaktor muss nicht zu einem mehrwöchigen Brennstoffwechsel stillgelegt werden.

Ø  Nach etwa 30 – 35 jährigem Betrieb benötigen die CANDU Reaktoren eine mehrjährige Generalüberholung die einige zig% der Baukosten eines neuen Kernkraftwerks kostet.

Insgesamt ergibt sich ein  wirtschaftlicher Nachteil gegenüber dem Leichtwasserreaktor. Der Vorteil liegt in der Verwendung von Natururan als Brennstoff und der Möglichkeit waffenfähiges Plutonium zu erbrüten. Der Candu Reaktor wird wohl auch künftig nur in Nischen erfolgreich sein.

 

Die Nachteile der Verwendung superkritischen Wassers und dem Verzicht auf einen Sekundärkreislauf liegen darin, dass dann die Turbinen mit dem radioaktiven Wasser des Primärkreislaufs gespeist werden und analog der Siedewasserreaktoren Teil des nuklearen Teils des Kraftwerks sind. Die Dichte des superkritischen Wassers sinkt mit steigenden Temperaturen stark was wiederum ggf. zu einem komplexeren Reaktoraufbau führt. Weiterhin müssten die Brennstabhüllen aus Edelstahl anstelle von Zirkonium gefertigt werden, wodurch sich die Neutronenabsorbtion erhöht.

Der ACR1000 und insbesondere die Variante mit superkritischem Wasser ist eine wenig beachtete, wettbewerbsfähige Reaktoralternative mit erheblichem Zukunftspotential.

Erläuterungen:

f.  Die Frage, ob es als Vorteil empfunden wird wenn Länder zu Atommächten werden können, ist eine Frage der Sicht. Analog eines Jugendlichen der sich einen Gettoblaster kauft und damit sein Umfeld beschallt, wird dies vom Jugendlichen und dem Hersteller des Geräts als Vorteil empfunden, vom Umfeld eher als Nachteil gesehen. Aus der Sicht des Staates in dem ein solcher Reaktor steht ist dies zumindest ein potentieller Vorteil, aus der Sicht anderer Staaten sicherlich nicht.

g. Für den DUPIC Prozess, der Nutzung abgebrannten Kernbrennstoffs aus Leichtwasserreaktoren in CANDU Reaktoren, ergeben sich 3 Optionen:

·       Die genutzten hochradioaktiven Brennelemente werden zerlegt, die Brennstäbe in 50cm lange Stücke geschnitten und wiederum verschlossen. (25) Üblicherweise enthalten die Brennstäbe eine Feder um die Brennstofftabletten im Brennstab zu positionieren und ein Spaltgasplenum um einen Überdruck zu vermeiden. Somit erscheint mir fraglich ob dieser Prozess so funktioniert. Dieser Prozess, obwohl einfach, erfordert aber auch Investition in eine geeignete Anlage. 

·       Die genutzten Brennelemente werden zerlegt, der hochradioaktive Brennstoff von den Brennstabhüllen befreit, zu Pulver gemahlen, mit Sauerstoff erhitzt um einen Teil der Spaltprodukte zu entfernen und wiederum zu Tabletten gepresst, in Brennstäbe gefüllt und daraus Brennelemente gefertigt. Dieser Prozess wird in einer Zusammenarbeit von AECL Kanada und der Ukraine entwickelt. (12) Der Prozess erfordert Investitionen in eine geeignete Anlage.

·       Die genutzten Brennelemente werden in einer Wiederaufbereitungsanlage in kochender Salpetersäure zersägt, der Brennstoff löst sich in Salpetersäure auf. Uran und Plutonium werden in TBT gebunden und der von Spaltprodukten befreite Brennstoff zur Fertigung von neuen Brennelementen genutzt. Auf die Trennung von Pu und Uran, wie im Purex Verfahren üblich, kann verzichtet werden. Dieser Wiederaufbereitungsprozess ist erprobt, jedoch sehr teuer!  (s. Artikel Wiederaufbereitung!)

h. Verwendung von Thorium im Candu Reaktor

Um einen Brutfaktor von etwas unter 1 real zu erreichen müssen die Thorium Brennstäbe wiederaufbereitet werden. Die Wiederaufbereitung von Thorium ist schwierig da Thoriumoxid chemisch sehr stabil ist. Es existiert weltweit auch keine Wiederaufbereitungsanlage für Thorium. Deshalb ist dieses Konzept auf absehbare Zeit nicht wirtschaftlich.

 Horst Trummler; Vandale

Quellen:

1. Homepage AECL http://www.aecl.ca/Default.aspx

20. ACR-1000 Technical Summary www.aecl.ca , AECL 2007, S13,  Zugriff am 30.06.09 Candu -6  D2O Inventar 457to

21. Iran and the nuclear nightmare, Martin Baker Schaffer, Armed Forces Journal http://www.afji.com/2008/02/3608391, Zugriff 30.06.09 1 Kg D2O 600$ 2008




Deutscher Städtetag ist williger Helfer des WWF: Aufruf zur Klimaaktion Earthday 2012

auf seiner Homepage liest man:

Der Deutsche Städtetag

  • nimmt Einfluss auf die Gesetzgebung – durch Stellungnahmen zu Gesetzentwürfen, Gespräche mit Parlament und Regierung sowie durch Öffentlichkeitsarbeit, 

  • fördert eine moderne Verwaltung, die sich an den Bedürfnissen der Bürgerinnen und Bürger orientiert,  
  • erarbeitet mit den Städten Konzepte für neue kommunalpolitische Herausforderungen.  

  • Wie diese Einflußnahme aussehen kann zeigt der hier veröffentlichte Brief

in der dazughörigen Email dazu schreibt ein/eine Handan Aktas-Ewert

Betreff: Weltweite Klimaaktion "Earth Hour 2012" des WWF am 31. März 2012

Sehr geehrter Herr Bürgermeister,wir möchten Sie mit diesen Rundschreiben auf o. g. Aktion hinweisen.Mit freundlichen GrüßenIm AuftragHandan Aktas-EwertDeutscher StädtetagDezernat für Umwelt und WirtschaftBrand- und KatastrophenschutzHausvogteipaltz 110117 BerlinTel. +49 30 37711-601Fax +49 30 37711-609mailto:handan.aktas@staedtetag.de

dann folgt das Anschreiben:

Weltweite Klimaaktion „Earth Hour 2012“ des WWF am 31. März 2012

Sehr geehrte Damen und Herren,

die Earth Hour ist die wohl größte Klima-Aktion der Welt: Tausende Städte auf der ganzen Welt löschen während einer Stunde die Beleuchtung ihrer Wahrzeichen – als Zeichen für mehr Klima- und Umweltschutz. Auch 2012 wird es wieder eine Earth Hour geben, und zwar am 31. März 2012 um 20:30 Uhr Lokalzeit.

Alle interessierten Städte sind herzlich eingeladen, sich aktiv an dieser globalen Aktion zu beteiligen. Der WWF würde gerne die Teilnahme der Städte auch schon zum Auftakt der Earth Hour Kampagne Mitte Februar 2012 verkünden, hierfür ist eine Zusage bis zum 31.01.2012 erforderlich.

Im Info-Blatt (Anlage) erfahren Sie mehr über die Earth Hour und wie Sie sich 2012 beteiligen können. Für Anmeldungen zur Earth Hour oder falls Sie noch weitere Fragen haben, können Sie sich an Anila Preis, WWF Deutschland, Reinhardtstraße 14, 10117 Berlin, Tel.: 030 311777-464, Fax: 030 308741-199, anila.preis@wwf.de wenden.

Mit freundlichen Grüßen In Vertretung

Detlef Raphael

E-Mail detlef.raphael@staedtetag.de

Die zugehörigen Anlagen können Sie hier als pdf Datei abrufen

Related Files




Klimawahn und Energiezukunft der Menschheit

Sinn und Sensitivität II

By Christopher Monckton of Brenchley

Joel Shore, der wie jeder gute Skeptiker meine Rechnungen zur Klimasensitivität anzweifelte, hat freundlicherweise auf meine Bitte hin eine Referenz zu einem Papier von Dr. Andrew Lacis et al. vom Goddard Institute of Space Studies (GISS) genannt, um seine Behauptung zu untermauern, dass der CO2-Anteil mit ungefähr 75% zum Strahlungsantrieb aller Treibhausgase beitrüge. Wasserdampf dagegen, wegen seiner hohen Konzentration in der Atmosphäre das wichtigste Treibhausgas, kondensiere rasch aus, während die nicht-kondensierenden Gase, wie  CO2, jahrelang in der Atmosphäre verblieben.

Dr. Lacis erläutert sein eigenes Papier: “Während die nicht-kondensierenden Treibhausgase mit 25% zum gesamten Treibhauseffekt beitragen, sind es die kondensierenden Treibhausgase, die tatsächlich die Stärke des irdischen Treibhauseffekts steuern, weil sich die Beiträge des Wasserdampfs und der Wolken-Rückkopplung nicht selbst aufrechterhalten und deshalb nur eine Verstärkung darstellen.”

Dr. Lacis’ Argument ist, dass der Strahlungsantrieb des Wasserdampfes als eine Rückkopplung behandelt werden sollte, weil, selbst wenn alle Treibhausgase aus der Atmosphäre entfernt würden, der Großteil des jetzt in the Atmosphäre befindlichen Wasserdampfes kondensieren oder innerhalb von zehn Jahren abregnen würde, und innerhalb von 50 Jahren wäre die Globaltemperatur dann um etwa 21 K kälter als heute.

Zu diesem Papier habe ich viele Einwände, da es u. a. nicht der Tatsache Rechnung trägt, dass die Verdampfung von der Erdoberfläche dreimal so stark ist, wie in den Computer-Modellen abgebildet (Wentz et al., 2007). Deshalb ist viel mehr Wasserdampf in der Atmosphäre als von den Modellen unterstellt, selbst ohne Treibhausgase.

Im Papier wird auch behauptet, die Verweildauer von CO2 in der Atmosphäre wäre “nach Tausenden von Jahren zu bemessen”. Selbst das zur Übertreibung neigende IPCC setzt die Verweildauer nur auf 50 – 200 Jahre. Auf Anforderung kann ich drei Dutzend Papiere nennen, die bis auf Revelle in den 1950ern zurückgehen, welche die CO2-Verweildauer mit gerade mal sieben Jahren angeben, auch wenn Professor Lindzen sagt, dass aus vielerlei Gründen 40 Jahre eine gute Schätzung wäre.

Darüberhinaus ist fraglich, ob der rein politische Schlussabsatz des Papiers in einer angeblich unparteiischen wissenschaftlichen Analyse stehen sollte. Zu behaupten und keine Beweise anzuführen, dass jenseits einer CO2-Konzentration von über 300-350 ppmv “eine gefährliche anthropogene Beeinflussung des Klimasystems durch Überschreitung der 25% Risiko-Toleranz-Grenze einträte mit einer damit verbundenen Verschlechterung der Land- und Meeres-Ökosysteme, einem Meereshöhenanstieg [derzeit gerade mal knapp 5 cm pro Jahrhundert im Verlauf der letzten 8 Jahre, gemäß Envisat], einer unvermeidbaren Störung der sozioökonomischen und nahrungsmittelerzeugenden Infrastruktur” ist überhaupt nicht belegt und daher unwissenschaftlich: Das ist widerlich politisch.

Man merkt, dass viele Wissenschaftler am GISS einer gewissen politischen Strömung angehören, und dass mindestens einer von ihnen regelmäßige substanzielle Zuwendungen für Al Gores Wiederwahl-Kampagnen machte, wissenschaftliche Zeitschriften sind aber nicht der Ort für politische Linksausleger.

Mein Haupteinwand ist, dass das zentrale Argument im Papier eigentlich eine petitio principii ist, ein Zirkelschluss und daher ein ungültiges Argument: eine der Prämissen ist auch die Schlussfolgerung: eine starke netto-positive Rückkopplungswirkung verstärkt die vom Strahlungsantrieb hervorgerufene Erwärmung.

Das Papier beruht nicht auf Messungen, Beobachtungen und der Anwendung bewährter Theorie. Es kommt zu dem Ergebnis, – man ahnt es schon –, dass es mit einem berüchtigten Computer-Klima-Modell herumspielt: dem GISS ModelE. Dieses Modell unterstellt in der Tat sehr starke netto-positive Rückkopplungen, für welche es ziemlich wenig verläßliche empirische oder theoretische Indizien gibt.

Als Dr. Lacis’ Papier geschrieben wurde, enthielt das ModelE “flux adjustments” (auf gut Deutsch: Schummelfaktoren), die bis zu 50 Watt/Quadratmeter betrugen, ein Mehrfaches der Größenordnung des ziemlich kleinen Antriebs, den wir auf das Klima ausüben können.

Dr. Lacis sagt, das ModelE beruhe auf gut verstandenen physikalischen Prozessen. Wenn das wahr wäre, wären keine so großen Schummelfaktoren notwendig (wie im Betriebshandbuch des Modells erwähnt und quantifiziert).

Auch würde man bei der Vorhersagefähigkeit dieses und anderer Modelle eine viel größere Treffsicherheit erwarten, als sich gezeigt hat. Wie der große Dr. John Christy von der NASA kürzlich schrieb: Im Zeitalter der Satelliten (es fällt zum größten Teil mit der von der Pacific Decadal Oscillation herrührenden natürlichen Erwärmungsphase zusammen) sind die Temperaturen nur um ein Viertel bis zur Hälfte angestiegen, verglichen mit der von Modellen wie dem ModelE vorhergesagten Temperaturerhöhung.

An dieser Stelle kann ein wenig grundlegende Klimaphysik helfen. Es ist nicht besonders schwierig (sonst würde ich es nicht verstehen). Ich möchte die IPCC/GISS-Schätzungen des Antriebs, der Rückkopplungen und Erwärmung auf das anwenden, was seit 1750 tatsächlich beobachtet oder daraus abgeleitet worden ist.

Beginnen wir mit den Antrieben. Dr. Blasing und seine Kollegen vom Carbon Dioxide Information and Analysis Center haben kürzlich den Anteil der gesamten Treibhausgas-Antriebe seit 1750 mit 3,1 Watt/Quadratmeter bestimmt.

Bei Anwendung der Antriebstabelle des IPCC müssen wir davon 35%, oder 1,1 Watt/Quadratmeter abziehen, um negative anthropogene Antriebe zu berücksichtigen, besonders die Rußpartikel, die wie kleine Schirme gegen die Sonne wirken. Die netto-anthropogenen Antriebe seit 1750 betragen daher 2 Watt/Quadratmeter.

Wir multiplizieren 2 Watt/Quadratmeter mit dem Klima-Sensitivitäts-Parameter (vor der Rückkopplung) von 0.313 Kelvin pro Watt/Quadratmeter. Wir erhalten eine Erwärmung von 0,6 K, bevor irgendwelche Rückkopplungen wirken.

Dann wenden wir den impliziten, auf einen Jahrhundertmaßstab bezogenen IPCC-Rückkopplungsfaktor von 1,6 an (nicht den Gleichgewichtsfaktor von 2,8, weil das Gleichgewicht Tausende von Jahre entfernt ist: Solomon et al., 2009).

Nachdem alle Rückkopplungen über die gesamte Zeitspanne gewirkt haben, beträgt demnach die vom ModelE und anderen vom IPCC bevorzugten Modellen vorhergesagte Schätzung der Erwärmung 1,0 K.

We verfizieren, dass der (IPCC-implizite) jahrhundert-maßstäbliche Rückkopplungsfaktor von 1,6 richtig ist, weil wir sehen, dass 1 K Erwärmung geteilt durch 2 Watt/Quadratmeter des ursprünglichen Antriebs nun 0,5 Kelvin per Watt/Quadratmeter ergibt. Das ist tatsächlich der implizite transiente Sensitivitätsparameter für jahrhundert-maßstäbliche Analysen, der in allen sechs CO2-Emissionsszenarien des IPCC steckt, und auch in dessen Mittelwertbildung. (Der Faktor wird nicht explizit genannt: Es hat den Anschein, als ob man nicht möchte, dass wir die Dinge überprüfen.)

Dr. Lacis Papier sagt tatsächlich, dass 80% der Antriebe von allen Treibhausgasen dem CO2 zugerechnet werden müssen. Die jetzige implizite zentrale IPCC-Schätzung in allen sechs Szenarien und deren Durchschnitt ist von gleicher Größenordnung, um die 70%.

Beim Ansatz der IPCC-eigenen Antriebsfunktion für CO2: 5,35 * natürlicher Logarithmus von (390 ppmv / 280 ppmv) unter Berücksichtigung der gestörten und ungestörten Konzentrationen von CO2 über die Betrachtungsperiode, ergeben sich 1,8 Watt/Quadratmeter.

Bei dessen Multiplikation mit dem transienten Sensitivitätsfaktor des IPCC von 0,5 erhält man 0,9 K – das aber ist die gesamte jetzige Erwärmung seit 1750. Wo bleiben die ungefähr 20-30% Erwärmung, die von den anderen Treibhausgasen stammen? Das ist ein Anzeichen dafür, dass der CO2-Antrieb doch ziemlich übertrieben worden ist.

Das IPCC sagt in seinem 2007er Bericht nur, dass seit 1950 die gesamte Erwärmung zur Hälfte bis zum Gesamtbetrag beobachtet wurde (also seit 1750), und dass dies dem Menschen zugerechnet werden müsste. Daher wären 0,45 – 0,9 K der beobachteten Erwärmung auf uns zurückzuführen. Selbst bei Annahme des höheren Wertes und unter Annahme der IPCC/GISS-Parameterwerte und Methoden gingen auf das Konto des CO2 nicht 70-80% der beobachteten Erwärmung für den Zeitraum, sondern die gesamte Erwärmung.

Als Antwort auf Argumente wie dieses, erhebt der schon müde DEUS EX MACHINA der vielleicht allzu gutgläubigen IPPC-Anhänger mühsam sein Haupt und sagt, dass die fehlende Erwärmung mit uns Versteck spiele, heimlich auf dem Meeresgrund lauere bis sie zuschlüge.
Elementare Betrachtungen der Thermodynamik belegen aber, dass solche Vorstellungen Unsinn sind.

Nichts kann uns sagen, wie groß die Rückkopplungen wirklich sind – vor allem nicht, wie sie in der Einbildung des IPCC bestehen. Ohne die Unterstellung einer hohen netto-positive Rückkopplung kann man kein Klimaproblem erschaffen. Doch selbst mit der vom IPCC angenommenen, unrealistisch hohen Rückkopplung gibt es überhaupt kein Klimaproblem, wie ich jetzt zeigen werde.

Obwohl das IPCC seine Schätzung des Gleichgewichts-Parameters für die Klimasensitivität explizit nennt (wenn auch nur in der konfusen Fußnote 631 des 2007er Berichts), macht es den transienten Sensitivitäts-Parameter nicht explizit – es ist der Letztere, nicht der Vorhergehende, der für die nächsten paar Jahrhunderte politisch relevant ist.

Während wir also genügend Verdachtsgründe finden für eine nicht unbeträchtliche Übertreibung der vorhergesagten Erwärmung in den IPCC-Vorhersagen (oder “Projektionen”, wie sie vorsichtigerweise genannt werden) und für eine noch größere Übertreibung im GISS ModelE, wollen wir die zentralen Schätzungen erst einmal anwenden, ohne gleich auf das  einzugehen, was uns angeblich in diesem Jahrhundert erwartet.

Dem IPCC zufolge besitzen alle sechs Emissionsszenarien gleiche Gültigkeit. Daraus folgt, dass wir sie mitteln können. Das machen wir. Danach soll die CO2-Konzentration im Jahre 2100 bei 712 ppmv liegen im Vergleich zur den 392 ppmv von heute. Der CO2-Antrieb wird demzufolge 5,35 ln(712/392) betragen, oder 3,2 Watt/Quadratmeter. Wir teilen durch 0,75 (Durchschnitt der GISS- und IPCC-Schätzungen vom CO2-Anteil an den gesamten Treibhausgas-Antrieben), um die anderen Treibhausgase zu berücksichtigen. Wir erhalten 4,25 Watt/Quadratmeter.

Diesen Wert vermindern wir um 35%, um die negativen Antriebe aus unseren Ruß-Abschirmungen usw. zu berücksichtigen. Wir erhalten 2,75 Watt/Quadratmeter netto-anthropogenen Antrieb zwischen heute und 2100.

Jetzt folgt die Multiplikation mit dem jahrhundert-maßstäblichen transienten Sensitivitätsparameter 0,5 Kelvin pro Watt/Quadratmeter. Damit erhalten wir eine vernünftige zentrale Schätzung der bis 2100 zu erwartenden Erwärmung, wenn wir die IPCC- und GISS-Methoden und Werte durchgängig anwenden. Wie hoch ist nun die in diesem Jahrhundert zu erwartende Erwärmung, wenn wir alles so gemacht haben? Aha, es sind nicht ganz 1,4 K.

Nun kommen wir auf die zuvor bemerkte Diskrepanz zurück. Das IPCC sagt, dass zwischen der Hälfte bis zur Gänze der gesamten Erwärmung seit 1950 auf uns zurückginge, und nun scheinen die IPCC-eigenen Methoden und Parameterwerte eine Übertreibung um die 20-30% zu zeigen, selbst wenn wir annehmen, dass die gesamte Erwärmung seit 1950 auf uns zurückginge. Die Übertreibung wäre noch viel größer, wenn nur die Hälfte der Erwärmung von uns gekommen wäre.

Wenn man diese Übertreibung berücksichtigt, wird die anthropogene Erwärmung in diesem Jahrhundert auf kaum mehr als 1 K zurückgeschoben – das ist ein Drittel der 3-4 K, von denen wir so oft hören.

Man beachte, wie geschickt diese Verdreifachung der wahren Erwärmungsrate erzeugt wurde: Durch eine Reihe von kleinen Übertreibungen, die sich alle zusammengenommen zu einem Knaller auswirken. Es ist sehr schwierig, diese Übertreibungen ausfindig zu machen, nicht nur weil die meisten von ihnen gar nicht groß sind, sondern auch, weil nur so wenige der notwendigen Parameterwerte explizit in den IPCC-Berichten genannt werden, so dass jedermann bemerken könnte, was da vorgeht.

Der Stern-Bericht von 2006 übernahm die zentrale IPCC-Schätzung von 3 K Erwärmung im 20.  Jahrhundert und meinte, dass die Kosten der Nicht-Vermeidung dieser Erwärmung 3% des Bruttosozialprodukts des 21. Jahrhunderts betrügen. Das GDP tendiert aber zu einer Zunahme von 3% pro Jahr; also, selbst wenn das IPCC mit 3 K Erwärmung recht hätte, wäre alles, was wir im gesamten Jahrhundert verlören, sogar angesichts der von Stern stark übertriebenen Kostenschätzungen (dafür wurde Stern in der Zeitschrift World Economics kritisiert; er ist dort selbst Mitglied des Beraterstabs), wäre das Äquivalent eines Bruttosozialprodukt-Wachstums nur das im vielleicht einzigen Jahr 2100 zu erwartende. Mehr nicht.

Um die Dinge noch schlimmer zu machen, hat Stern einen künstlich niedrigen Abzinsungssatz für den Vergleich der Kosten zwischen den Generationen angenommen, sein Büro teilte ihn mir mit: 0,1%. Als er wegen dieses zu niedrigen Abzinsungssatzes im fachbegutachteten Wirschaftsjournal World Economics auseinandergenommen wurde, sagte er, die ihn kritisierenden Wirtschaftswissenschaftler wären "konfus", er hätte tatsächlich 1.4% angesetzt. William Nordhaus, der viele fachbegutachtete kritische Artikel zu Stern geschrieben hat, meint, dass es ganz unmöglich wäre, auch nur ein Stück von Sterns Arbeit zu verifizieren oder zu replizieren, weil kaum etwas von seiner Methode explizit und zugänglich wäre.

Wie oft wir das schon gehört haben! Anscheinend will man nicht, dass die Dinge nachgeprüft werden.

Der absolute minimale wirtschaftlich vernünftige Abzinsungssatz ist mindestens so hoch wie das reale Ergebnis auf das Kapital, d.h. 5%. Tun wir Stern den Gefallen und nehmen wir an, dass er einen Abzinsungssatz von 1,4% benutzte und nicht die 0,1% von denen sein Büro sprach.

Selbst wenn das IPCC recht hätte mit seiner Behauptung – entgegen der obigen Analyse von nur 1 K menschengemachter Erwärmung in diesem Jahrhundert –, dass die Menschheit 3 K Erwärmung um 2100 erleben würde (Zunahme im ersten Neuntel des Jahrhunderts: 0 K), würden sich die Kosten des Nichtstuns, abgezinst mit 5%, auf nur 0,5% des globalen Bruttosozialprodukts im 21. Jahrhundert belaufen, anstelle von Sterns 3%.

Nicht überraschend ergibt sich daher, dass die Kosten einer Vermeidung der
3 K – Erwärmung um mindestens eine Größenordnung höher wären, als die Kosten der klimabezogenen Schäden, die aus dem Nichtstun entstehen könnten, wenn wir uns nur anpassen würden, was unsere Spezies so gut kann.

Wenn aber die von uns verursachte Erwärmung im Jahre 2100 sich nur als 1 K herausstellt, dann wird in den meisten Analysen diese sanfte Erwärmung nicht nur als harmlos, sondern sogar als günstig angesehen. Es werden überhaupt keine Netto-Kosten entstehen. Ganz im Gegenteil: ein wirtschaftlicher Nutzen wird daraus folgen.

Deswegen und auf den Punkt gebracht, sollten die Regierungen das UNFCCC und das IPCC auflösen, die Klimazuwendungen mindestens um neun Zehntel vermindern, nur noch zwei bis drei Klima-Computer-Modelle bezahlen und sich um die wirklichen Probleme der Welt kümmern – wie z. B. um die heraufziehende Energieknappheit in England und Amerika, weil die Klima-Extremisten und ihr künstlich erzeugter Unsinn fatalerweise den Neubau von kohle- und atomar befeuerten Kraftwerken verhindert haben, die nun dringend gebraucht werden.

Wir müssen wieder Boden unter die Füße bekommen und unsere fossilen Brennstoffe nutzen, Schiefergas und so, um den Milliarden von Menschen Elektrizität zu geben, die noch keine haben: das nämlich ist der schnellste Weg, sie aus der Armut zu befreien und schmerzlos die Weltbevölkerung zu stabilisieren. Das würde echte Vorteile für die Umwelt bringen.

Sie wissen nun auch, warum der Zubau von vielen neuen Kraftwerken dem Klima nicht weh tut, und weil, selbst wenn ein reales Risiko einer 3 K Erwärmung in diesem Jahrhundert existieren würde, es um ein Vielfaches kosteneffektiver wäre, sich anzupassen, als zu versuchen, die Erwärmung aufzuhalten.

Wie man bei Lloyds in London zu sagen pflegt, “Wenn der Preis der Prämie die Kosten des Risikos übersteigt, versichere dich nicht.” – Selbst wenn dieser Merkspruch unterstellt, dass es ein Risiko gibt – welches in unserem Falle gar nicht existiert.

Viscount Monckton of Brenchley

Original hier

Übersetzung: Helmut Jäger, EIKE




Fördert Ministerin AIGNER Betrugs-Internet-Rechner?

Von: Agentur für Erneuerbare Energien  <presse@unendlich-viel-energie.de>

Datum: 25. Januar 2012 11:43:02 MEZ

An: <i.blachnik@unendlich-viel-energie.de>

Betreff: PM: Bundesministerin Aigner: "Erneuerbare Energien schaffen Arbeit und Einkommen vor Ort"

Sehr geehrte Damen und Herren,
liebe Kolleginnen und Kollegen,

bitte beachten Sie unsere heutige Pressemitteilung:
——–

Bundesministerin Aigner: „Erneuerbare Energien schaffen Arbeit und Einkommen
vor Ort“
Online-Rechner ermittelt Wertschöpfungseffekte durch den Zubau

Berlin, 25. Januar 2012. Die Erneuerbaren Energien schaffen in Deutschlands Kommunen Arbeitsplätze, generieren Steuereinnahmen, schützen das Klima und verbessern die Versorgungssicherheit. Auf welche Beträge sich diese positiven Wirtschaftseffekte Erneuerbarer Energien summieren können, ermittelt ein neuer Online-Wertschöpfungsrechner der Agentur für Erneuerbare Energien, den Bundeslandwirtschaftsministerin Ilse Aigner heute auf der Internationalen Grünen Woche (IGW) in Berlin vorgestellt hat.

„Für die Energiewende in Deutschland kommt den Bürgerinnen und Bürgern eine entscheidende Rolle zu. Engagement und Akzeptanz für den Umbau der Energieversorgung wachsen, wenn sie erkennen, welchen Nutzen die Erneuerbaren Energien vor Ort schaffen. Dafür kann der Wertschöpfungsrechner der Agentur für Erneuerbare Energien eine wichtige Hilfe sein“, betonte Aigner bei der Präsentation des kostenlosen Online-Angebots, das ab sofort im Internet unter www.kommunal-erneuerbar.de freigeschaltet ist.

Der Online-Rechner berücksichtigt für seine Kalkulationen der Wertschöpfung vor Ort die Unternehmensgewinne ebenso wie Einkommen durch Beschäftigung und Steuern an die Kommunen. Nutzer des Rechners können sich für ihre Kommune und Region auch den Anteil Erneuerbarer Energien an der Versorgung ausrechnen lassen. Darüber hinaus kalkuliert der Online-Rechner Klimaschutz- und Jobeffekte, die in den Dörfern und Städten mit dem Umbau der Energieversorgung einhergehen.

Als Glieder der Wertschöpfungskette wird in dem Rechner unterschieden zwischen

• Planung und Installation 
• Betrieb und Wartung sowie der
• Betreibergesellschaft.

Über diese Wertschöpfungsstufen kann der Online-Rechner für 24 unterschiedliche Technologien aus den Bereichen Strom, Wärme, Kraft- und Brennstoffe eine Orientierungssumme in Euro errechnen. Dazu gehören beispielsweise kleine Biogas- ebenso wie Solaranlagen, Erdwärmepumpen, Windräder und die Holzwirtschaft.

„Die Vielfalt erneuerbarer Energiequellen wird künftig eine wichtige Stütze für eine saubere und sichere Energieversorgung sein“, sagte Aigner. In Deutschlands Regionen bestehe je nach örtlichen Gegebenheiten noch erhebliches Potenzial zur Erschließung von Biomasse und von Standorten. „Erneuerbare Energien schaffen in Deutschlands Kommunen Arbeitsplätze, schützen das Klima und verbessern die Versorgungssicherheit“, so Aigner weiter. Gerade im ländlichen Raum stellten die Erneuerbaren Energien ihre Rolle als Jobmotor unter Beweis. Davon profitierten nicht zuletzt die Kommunen, beispielsweise über Einnahmen aus Gewerbe- und Einkommensteuern.

Mehr Wirtschaftskraft und Klimaschutz

Neben dem ökonomischen Nutzen für die Kommunen und Regionen zeigt der Wertschöpfungsrechner auch die positiven ökologischen Effekte, die mit der Energiewende einhergehen können: „Klimaschutz und der Zugewinn an Wirtschaftskraft durch den Ausbau Erneuerbarer Energien gehen Hand in Hand“, erklärte der Geschäftsführer der Agentur für Erneuerbare Energien, Philipp Vohrer. Mit dem Wertschöpfungsrechner bekämen Bürger, Projektierer und Entscheider in den Kommunen zur rechten Zeit ein überzeugendes Instrument für ihre Planungen an die Hand. „Der Ausbau der Erneuerbaren Energien wird in Deutschland vor allem von bürgerschaftlichen Initiativen in den Kommunen getragen“, sagte Vohrer. „Solche Initiativen sind die wahren Stützen der Energiewende.“

Eingebunden ist der Wertschöpfungsrechner in das Informationsportal kommunal-erneuerbar.de der Agentur für Erneuerbare Energien. Er basiert auf einer vom Institut für ökologische Wirtschaftsforschung (IÖW) entwickelten Methodik. Der Rechner entstand auf Grundlage umfangreicher wissenschaftlicher Vorarbeiten des IÖW. In einer Studie hatte das IÖW die kommunale Wertschöpfung durch Erneuerbare Energien für das Jahr 2010 insgesamt auf 10,5 Milliarden Euro pro Jahr beziffert.

Gefördert wurde die Entwicklung des Wertschöpfungsrechners durch das Bundeslandwirtschaftsministerium über die Fachagentur Nachwachsende Rohstoffe (FNR). Weitere Sponsoren unterstützen das Projekt.

SPERRFRIST: 13:45 Uhr

Kontakt:
Agentur für Erneuerbare Energien
Reinhardtstr. 18
10117 Berlin
Alexander Knebel
Pressereferent 
Tel:   030-200535-52 
Mail: a.knebel@unendlich-viel-energie.de
www.unendlich-viel-energie.de

Die Redaktion 

mit Dank an Leser Dr. Stromburg




Germany’s Green Energy Supply Transformation Has Already Failed!

To do this, the former Socialist-Green coalition government, led by Gerhard Schröder, enacted the so-called Renewable Energy Feed-In Act (EEG) in 2000. This Feed-In Act requires electric utilities to buy all renewable energies, such as solar and wind power, from all producers at fixed, exorbitant rates and to feed it into the power grid for a period of 20 years. This has led to a boom as thousands of homeowners, businesses, and investors have installed thousands of megawatts of solar and wind power capacity over the years. The current Conservative-Liberal government, not to be outdone by its predecessor, is also gleefully pushing the Feed-In Act to the limit.

Weather-dependent supply wreaking havoc on the power grid

The problem is that these energy sources are weather-dependent and thus their sporadic supply is starting to wreak havoc on Germany’s power grid and is even now threatening to destabilize power grids all across Europe. The other problem: the power grid needed to distribute the decentrally produced green power is simply not there yet. They forgot to build it! So far, after tens of billions of euros spent on renewable energy systems and higher prices for consumers, not a single coal or gas-fired power plant has been taken offline. To the contrary, old inefficient plants have been brought back into service in an effort to stabilize the grid.

In a panic reaction, Germany shut down 8 nuclear power plants

To make matters worse, in a fit of panic and hysteria, the German government shut down 8 of its older 18 nuclear reactors in the wake of the Fukushima disaster, thus removing a very cheap and stable supply of power and further pushing the grid to the limits. Before the shutdown of the nuclear reactors, Germany had been a net power exporter; today it is a net power importer and is at times severely straining neighboring power grids. To compensate for the missing nuclear power, the government is now heavily promoting even more weather-dependent wind power, which is further destabilizing the German and European power grids. A solution to the problem of storing electricity is still at least a generation away.

The question of course is how could such absurd decisions have been made to begin with? Were there no experts involved in the planning of the new power generation infrastructure? The answer obviously is no. Power executives are viewed as evil, dirty and greedy polluters, and thus were never really consulted. They could not be counted on to give the politically correct solutions. Therefore the decision to shut down the German nuclear power plants and to massively support renewables was done unilaterally by the government, without consulting the power executives or even neighboring countries.

Offshore wind parks, but no transmission lines to industrial regions!

Now that the damage is spreading, Germany’s utilities are now struggling to keep the grid stable and to fill in the power gap left by the shut-down of nuclear reactors. To do this the German government has ordered the installation of large-scale wind parks in the North and Baltic seas, in addition to the re-commissioning of mothballed, inefficient coal-fired plants. This overall energy production transition from nuclear and fossils over to “renewables” is dubbed by German officials as the Energy Supply Transformation. Construction of the offshore wind parks is now progressing rapidly. But there’s just one problem: the huge high voltage power transmission lines needed to bring their power to Germany’s industrial heartland to the south are missing! More than 3000 km of these lines are needed, but are nowhere near in sight. The government forgot about those too!

Activists groups blocking grid expansion

Building the power transmission lines quickly across the landscape will be a virtually impossible task. Activist groups have long since organized and are effectively blocking their approval and construction. So far only a measly 214 km have been built. As a result, surplus wind power cannot be delivered to the markets, and thus either has to be destroyed, dumped on the market at “negative prices”, or wind park owners are simply ordered to stop generating. No problem though – paragraph 12 of Germany’s Energy Feed-In Act requires electric utilities to pay for the electricity that they ask not to have produced! Technically, there is an incentive for wind parks to destabilize the grid.

Eventually all these costs add up and in the end they get passed along to the consumer. Under the bottom line, consumers have to pay more and more, and for a lower and lower quality supply. German industry is getting nervous and surveys show that many are leaving Germany, or are planning to do so. They no longer view Germany’s power supply as reliable.

In a death spiral…”will fail spectacularly”

Dr. Guenter Keil’s report focusses in detail on the amazing absurdities of Germany’s Renewable Energy Feed-In Act and the country’s utopian Energy Transformation. The government, through intrusive meddling and ballooning bureaucracy, has maneuvered Germany’s energy supply system into a vicious death spiral: the more the government intervenes, the greater the mess becomes. And the greater the mess becomes, the more the government intervenes! Dr. Keil concludes:

Germany’s energy transformation has already failed. For Germans, the outlook is bleak. …the planned mismanagement is heavily damaging the economy and will fail spectacularly some years later because its economic and social costs will have become unbearable. The question remaining open is how many billions of euros will have to be destroyed before a new energy policy (a new energy transformation?) picks up the shattered pieces.”

So it’s no wonder that according to a survey of experts from 21 national committees by the World Energy Council, 0% said they could imagine their own country completely taking over the German political approach. An equal number believe Germany will reach its stated targets.

Germany’s model will serve as a classic lesson on how not to handle energy production and management.

Michael Limburg; with thanks to Pierre Gosselin from notrickszone for excellent translation support

Dr. Guenter Keil was a scientific employee at the Technical University of Munich / Fraunhofer Society, as well as Project Support at the Federal Research Ministry.

For downloading full undefinedreport & undefinedpress release here or see files attached (remark: Downloads of .doc pressrelease with SAFARI seems not to work, FIRFOX workfs fine)

Contact EIKE or Michael Limburg at: m.limburg@eike-klima-energie.eu

Die deutsche Version finden Sie hier-The german version you´ll find here.

Related Files




Der WDR und die Wahrheit: Yogeshwars Blackout!

Die Antwort ist: leider Nein – eher war das Gegenteil der Fall. 

Doch der Reihe nach: Den Anfang machte Quarks mit einer anschaulichen Darstellung der Folgen, die ein überregionaler oder landesweiter Stromausfall haben würde. Schon nach wenigen Tagen treten ernsthafte Versorgungsengpässe, wenig später versänke das Land im Chaos. So weit, so richtig – und so Besorgnis erregend. 

Wer jetzt gespannt darauf wartete, ob Rangar Yogeshwar es vielleicht wagen würde, eine realistische Darstellung des Zustands des deutschen Stromnetzes und dessen Ursachen zu bringen sollte enttäuscht werden. 

Ja, das Stromnetz sei anfällig, aber das läge nur an der zentralen Energieerzeugung durch wenige Großkraftwerke, die Energieübertragung durch (zu) wenige Hochspannungsleitungen und dem Umstand, dass Strom nicht dort erzeugt wird, wo er gebraucht wird . Nun kann man durchaus der Meinung sein, dass das deutsche Energieverteilungsnetz eine gewisse Modernisierung vertragen könnte. Auch ist die Forderung nach mehr Resilienz bspw. durch redundante Auslegung bei einem so überlebenswichtigen Gut wie elektrischer Energie sicher nicht abwegig. 

Leider verschweigt uns Quarks aber, warum die Wahrscheinlichkeit für Netzausfälle in der Tat angestiegen. Dafür gibt es nämlich zwei einfache Gründe. Da ist zum einen die ständig zunehmende Zwangseinspeisung „erneuerbarer“ Energie. Diese führt aufgrund ihrer Volatilität zu Schwankungen im Netz, die durch konventionelle Backup-Kraftwerke zeitnah ausgeglichen muss. Zum anderen hat der nach Fukushima durchgepeitschte Ausstieg aus der Kernenergie zu zusätzlichen Belastungen der Netze geführt.

In der Welt des Rangar Yogeshwar wäre dies aber alles nicht grundsätzlich problematisch.  Alles Übel ließe sich abwenden, wenn wir nur wirklich ernsthaft die „Energiewende“ voranbrächten, bspw. das Land mit Sonarpaneelen und Windrädern vollstellen oder die Deutsche Bucht mit einer ausreichenden Menge Signalmasten (die mit den großen Rotoren) für die Vogelwelt versehen. Die entstehende dezentrale Erzeugungsinfrastruktur muss dann ja lediglich noch mit ein paar Tausend Kilometern Hochspannungstrassen verbunden und ausreichend Stromspeichern versehen werden – und fertig ist das Energie-Wunderland nach Quark(s)-Manier. Elfen, die Einhorn-Mist in Biogasanlagen schaufeln, inklusive.

Welche technischen, planerischen oder finanziellen Herausforderungen mit dieser Vision verbunden sind, thematisiert die Sendung leider nicht wirklich. Eine gelungene und auch für Laien nachvollziehbare Übersicht der absehbaren Probleme liefert Günter Keil "Die Energiewende ist schon gescheitert" 

Anscheinend ist auch der Quarks-Redaktion nicht gänzlich verborgen geblieben, dass vielleicht doch nicht alles ganz so einfach ist. Und so werden prophylaktisch schon mal die Schuldigen für zukünftige Probleme bei der Stromversorgung ausgemacht. Es sind – natürlich – die Energieversorger, die sich um ihrer Profite wegen einem Wandel zum Guten mit aller Macht entgegen stemmen. Der interessierte Beobachter darf sich also bei zukünftigen Netzausfällen auf lustige Verschwörungstheorien über deren Ursache freuen.

Gegen Ende der Sendung lernen wir noch das Smart Meter kennen, mit dessen Hilfe der Stromkunde seine Kosten optimieren könne, indem er Strom dann verbraucht, wenn er verfügbar und damit billiger ist. Umgekehrt zahlt mehr, wer in Zeiten knappen Angebots Strom nutzen möchte. Das hört sich zunächst gut an, bedeutet aber in der Praxis für den Durchschnittsbürger eher höhere Energiekosten. Welcher Arbeitnehmer-Mehrpersonenhaushalt ist schon in der Lage, im durchgetakteten Alltag auch noch die jeweils billigsten Zeitfenster für den notwendigen Betrieb elektrischer Geräte zu nutzen? Waschen nachts um drei im Mietshaus? Den Sonntagsbraten sicherheitshalber nur noch an windigen Wochenenden auf den Speiseplan setzen? Licht einschalten nur, wenn im Sommer mittags um 12 die Sonne gerade auf Solaranlagen knallt? Viel Vergügen.

Aber das ficht die Macher von Quarks nicht an: Vielmehr wird dem Zuschauer ausdrücklich mit auf den Weg gegeben, er habe nun einmal in der schönen neuen Energiewelt seine Nachfrage an das Angebot anzupassen. Nach dieser Logik müsste bei Klopapier-Mangel auch mal der Stuhlgang auf nächste Woche verschoben werden…

Sehr geehrter Herr Yogeshwar: wenn es ein untrügliches Zeichen für die prinzipielle Dysfunktionalität eines Versorgungssystems gibt, dann ist es der Umstand, dass es nicht in der Lage ist zu liefern, wenn Bedarf besteht! Solche Systeme konnten wir bis 1989 zwischen Elbe und Wladiwostok besichtigen. Sie haben sich nicht bewährt.

Deutschland braucht eine verlässliche und bezahlbare Stromversorgung – und keine gigantische Rube-Goldberg-Maschine.

Nachtrag: Die Ausstrahlung der Quarks-Sendung fiel in eine Woche, in welcher 
der SPIEGEL eine vernichtende Bilanz der Solarstromförderung zieht. 
laut DIHK 58 % der deutschen Unternehmen Stromausfälle befürchten und 
der CEO des Siemens-Sektors Energy den Investitionsbedarf im Energiesektor allein in Deutschland bis 2030 auf 1,7 Billionen Euro veranschlagt.

Hier der Auszug aus der Meldung von Reuters

Germany’s exit from nuclear power raises the amount of investments needed in the German power sector to as much as 1.7 trillion euros ($2.15 trillion) by 2030, or two thirds of the country’s GDP in 2011, according to Siemens, which built all of Germany’s 17 nuclear plants.

Autor – Rainer Schulze, zuerst erschienen auf ACHGUT




Was sind Querregler und wozu braucht man sie? – Europäisches Stromverbundnetz zum Schutz vor Kraftwerks-Ausfällen-

Update 24.1.12 Neueste Meldung

Industrie soll Prämie bei Stromabschaltung erhalten

Firmen, die bei Engpässen auf Strom verzichten, sollen entschädigt werden. Die Kosten landen über das Netzentgelt beim Verbraucher, berichtet die FAZ
Große Energieverbraucher in der Industrie sollen künftig Geld bekommen, wenn ihnen im Notfall der Strom abgestellt werden kann. Das sieht eine vom Bundeswirtschaftsministerium erarbeitete „Abschaltverordnung“ vor, wie die „Frankfurter Allgemeine Zeitung“ berichtet…

Text:

Im Europäischen Verbundnetz (Drehstrom 220/380 kV) werden Querregel-Transformatoren großer Leistung — Übersetzung 400 kV/400 kV – für verschiedene Aufgaben der Lastflußsteuerung eingesetzt. Dazu zählen Richtbetrieb, Vermeidung von Ringflüssen und Belastungsausgleich im Netz. Die Wirkungsweise beruht auf der zwischen Eingangs- und Ausgangsspannung in kleinen Schriften regelbaren Phasenverschiebung.
Im Leerlauf kann eine Verschiebung bis zu plus/minus 24Grad (zeitl=1,33) msec erreicht werden und damit ein entsprechender Energiemangel oder Energieüberschuss im Netz nachgebildet werden. Für die Fernbedienung in der zuständigen Netzleitstelle müssen die notwendigen Steuerbefehle, Stellungsmeldungen und Meßwerte übertragen werden. Die Investitionskosten für einen Querregeltransformator großer Leistung, z.B. 1200 MVA, einschließlich der zugehörigen Hochspannungschaltfelder im Umspannwerk liegen in Millionenhöhe.
Die übergeordnete Steuerung übernimmt die Netzregelzentrale, die sagt, das ein kontinuierlicher Lastfluß von z.B. 750 MW aus dem Netzgebiet 50Hz in das angrenzendes Netzgebiet Polen vereinbart ist. Bläst nun der Wind zu stark, wird der Querregler aktiv und suggeriert dem 50Hz-Netzgebiet, durch simuliertes Frequenz-Voreilen, das die vereinbarte Lastmenge schon überschritten ist. Tatsächlich jedoch ist im polnischen Netz heile Welt, und die Deutschen Wind-Katastrophen-Heinis können nur noch ihre WKA vom Netz nehmen oder den Blackout erfahren.

Dieses Abwehrverhalten kann nun je nach aktueller Konstellation die verschiedensten auch unerwünschten Auswirkungen haben und defacto wird durch sie das Subsidiaritäts-Prinzip der UCTE ausgehebelt. Es fragt sich, wie lange die Deutschen Anrainerstaaten diese Beträge aufwenden wollen, um proforma weiterhin den fiktiven Anspruch eines Europäischen Verbundnetzes zu erfüllen. Der BDEW sah sich auf meine Nachfrage hierfür nicht zuständig (kann ich sogar akzeptieren.)

Die DENA wiederum als Agitprop-Organisation der „Energiewende“-Politiker bringt den Sachverhalt in die Öffentlichkeit, um mit dem Phantom-Argument „vergeudeter Öko-Strom“ die Bereitschaft des Stromverbrauchers zu wecken, mehr fürs Netz zu bezahlen und die Strecken nicht über BI zu bekämpfen bzw. die dort engagierten ehrenwerten Bürger zu diskreditieren.

Für das grundsätzliche Verständnis des Netzbetriebes empfiehlt sich diese WEB-Site des Netzbetreibers Amprion:

Wer nun verstehen will, warum allein unter Berücksichtigung der hier skizzierten Problematik Smart-Grids ein Wunsch- oder Alptraum (politisch oder technisch) sind, möge sich etwas mit der Diplomarbeit eines Informatikers Fürst aus Dortmund auseinandersetzen:
Entwicklung eines verteilten Koordinierungsverfahrens für Leistungsflussregler in Energieübertragungsnetzen.
Spätestens, wenn man diese Arbeit verstanden hat, weiß man, dass die Energiewende nichts anderes ist als eine große Stromlüge, die Störstrom produziert und zu einem Harakiri der ENTSEO wird. Der Untergang des Euro mit dem Rückfall in nationale Währungen wäre der wesentlich kleinere Fisch.

Das dann Redakteure wie ein Georg Ismar, von dpa Berlin, in Hilfestellung für die Stromwende-Politiker den Einsatz solcher Schutzmechanismen abwehren wollen mit Vernebelungstaktik „Die Energiewende läuft also recht gut, wäre da nicht die Netzfalle“, bzw. beim Bürgern die Akzeptanz von zusätzlichen Stromtrassen erpressen wollen, ist evidente Bauernfängerei.

……

Narretei Smartgrid

Was verbirgt sich überhaupt hinter dem Begriff – hier eine simple Beschreibung für diesen Unsinn, abgesehen von der netzphysikalsichen technischen Unmöglichkeit:

a) Wenn eine Photovoltaik-Anlage ein Verteilnetz zum Zusammenbruch führen würde, weil sie zuviel Strom einspeist, greift die Netzsteuerung ein und schaltet die Anlage ab (ab/kurz), natürlich bekommt der Betreiber dann finanziellen Ersatz. Soweit halbwegs nachvollziehbar, wenn auch eine volkswirtschaftliche Enteignung der Stromkunden, weil Zahlung ohne Leistung

b) Ihre Waschmaschine (im Badezimmer in der Wohnung stehend) läuft nicht dann wenn Sie wollen, sondern z.B. nachts um 3 bei einem Stromverbrauchsloch und Ihre Kinder werden spätestens durch den Schleudergang geweckt.
In Ihrer Hausordnung steht zwar, dass Sie wegen störender Wassergeräusche nach 22.00 Uhr nicht duschen dürfen, aber die Wassergeräusche Ihrer Waschmaschine sind Ihre Mitbewohner Dank Merkelscher Energiewende verpflichtet zu ertragen.

Das bedeutet Smartgrid.

Die Übersetzung Stromlüge von Energiewende ist noch viel zu harmlos! Vorschläge erbeten!

Noch viel griffigere Beispiele für Unfug findet man als ernst gemeinte Forumsbeiträge von Freaks z.B. unter:
http://www.photovoltaikforum.com/sonstiges-f13/
Schauen Sie mal, Sie werden erschrecken was uns diese Menschen noch antun wollen.

Auszüge aus dem EEG-Strom-Newsletter 12/01 von NAEB Nationale Anti EEG Bewegung

H. Duepmann NAEB