1

Teil 3: IV Internationale Klima & Energiekonferenz (4. IKEK) in München: Vortragsvideos

Alle Vorträge sind in der Originalsprache. Durch den Schaltknopf cc auf dem Youtube Video kann man – wenn auch bei weitem nicht perfekt- eine Lautumschreibung in der gewünschten Sprache als Untertitel wählen

 1. Gletscher- und Waldentwicklung in alpinen Hochlagen der letzten 10.000 Jahre Prof. em. Dr. Gernot Patzelt Universität Innsbruck

 Der Schein trügt – Was haben windige Verträge mit Windkraft zu tun? Dipl. Ing. Tilman Kluge Bad Soden am Taunus




Stromspeicher – was sie sind, was sie taugen, was sie kosten!

Einleitung

Aus einer religiösen Laune heraus meint man in Deutschland und ein paar anderen Ländern, dass man den Strom mittels Wind-, oder Sonnenenergie gewinnen müsse. Auf die Problematik der Beliebigkeit der Verfügbarkeit dieser „Energien“ und der damit einhergehenden Nutzlosigkeit des auf diese Weise erzeugten Stroms angesprochen, wird immer wieder die Möglichkeit der Stromspeicherung in den Raum gestellt. In der Tat kann man technisch gesehen über gewisse Umwege Strom speichern. Im konventionellen Bereich wird dies seit vielen Jahrzehnten  praktiziert um die Kraftwerke gleichmäßiger auszulasten. Allerdings sucht man dies aus Kosten- und Umweltgründen wann immer möglich zu vermeiden. Bei der Stromspeicherung fallen hohe Kosten an, die teils die Kosten der Stromerzeugung übersteigen. Jede Art von Stromspeicherung hat einen Wirkungsgrad. Es kommt nur ein Bruchteil des Stroms aus dem Speicher den man eingespeist hat.

Foto Stefan, Speichersee

Zusammenfassung

Strom ist der am schwierigsten zu speichernde Energieträger. Deshalb wird Strom üblicherweise über Umwege gespeichert. Die Kosten der Stromspeicherung übertreffen teils die Kosten der Stromerzeugung. Man sucht den Strom bedarfsgerecht herzustellen. Innovative Kondensatorkonzepte und Schwungräder bieten sich als Kurzzeitspeicher an. Batterien dienen als Notstromspeicher. Pumpspeicherkraftwerke sind als preiswerte Tagesstromspeicher für konventionelle Stromerzeugungssysteme bewährt. Redox Batterien mit externem Speicher und Wasserstoff könnten technisch gesehen als 2-Wochen, oder Monatsspeicher Wind- und Solarenergie nutzbar machen. Allerdings sind die Kosten dieser Speicherung zusammen mit den ohnehin Vielfachen Kosten dieser religiös motivierten „Energieerzeugung“ nur mehr spirituell zu rechtfertigen.

Wenn man eine ohnehin schon umweltschädliche Windstromerzeugung mit einer Wasserstoffspeicherung (Wirkungsgrad 40%) kombiniert, kann man mit sehr, sehr großer Wahrscheinlichkeit davon ausgehen das es mehr Energie bedarf derartige Anlagen zu errichten und betreiben als diese je an Energie erzeugen.

1.  Strombedarf in Deutschland

Einem Stromnetz muss zu jedem Zeitpunkt soviel Strom zugeführt werden wie verbraucht wird. Der Stromverbrauch schwankt abhängig von der Jahreszeit durch den winterlichen Heiz- und Lichtbedarf. Der Strombedarf ist an Feiertagen niedriger, an Werktagen höher. Der Strombedarf schwankt im Tagesverlauf.

 

Bild 2 in MW (1)

1.1 Stromerzeugung

Der konventionelle Stromerzeugung in Deutschland teilt sich auf in:

Bild 3

Spitzenlast, Abdeckung auftretender Lastspitzen. Hierzu eignen sich schnell regelbare Gasturbinen und Speicherkraftwerke

Mittellast, zusätzliche schwankende Erzeugung gem. des auftretenden Bedarfs, überwiegend Kohlekraftwerke.  

Grundlast, Durchgehende Erzeugung des ganztägig auftretenden Bedarfs. Ideale Grundlastkraftwerke sind aufgrund niedriger Brennstoffkosten und hoher Baukosten Kernkraftwerke und Braunkohlekraftwerke.

Als Beispiel, Stromeinspeisung eines Kernkraftwerks

Bild 4

Ein konventionelles Netz bedarf einer  „Tagesstromspeicherkapazität“ um die täglichen Lastspitzen abzufangen und die Kraftwerke möglichst gleichmäßig zu betreiben.  Auch bei Ausfällen von Kraftwerken, Beispiel die Schnellabschaltung des KKW Krümmel, bedürfen sehr schnell zuschaltbarer Reservekapazitäten.

1.2 Ökostromeinspeisung

Ökostrom fällt unregelmäßig entsprechend den Launen des Wetters an.

Eine Tagesspeicherung des umweltschädlichen Windstroms kann die gröbsten Schwan-kungen der Windstromeinspeisung einebnen. Um jedoch mittels Windkraft konventionelle Kraftwerke zu ersetzen bedürfte es einer 2-Wochen, oder Monatsspeicherung.

 Bild 5

2. Stromspeicherung

2.1 Kondensatoren

In Kondensatoren wird elektrische Ladung zwischen zwei durch ein Dielektrikum getrennte Elektroden gespeichert. Die gespeicherte Energie folgt der Formel:

 

Bild 6

Bei der Entwicklung von Kondensatoren als Energiespeicher geht die Entwicklung hin zum Nanokondensator. …Dieses Ziel im Blick, ätzten die Forscher Millionen winziger Löcher in eine Aluminiumfolie.

Die Wände dieser nur etwa 50 Millionstel Millimeter breiten und einige Mikrometer tiefen Aushöhlungen beschichteten sie danach mit drei hauchdünnen Schichten aus Titannitrid und Alumimiumoxid. Jede dieser Nanoporen bildete einen kleinen Kondensator. Kontaktiert mit Elektroden aus Aluminium ergab sich ein Stromspeicher, der eine etwa 250-mal größere Oberfläche hatte als konventionelle Kondensatoren gleicher Größe. Dieser Nanostrukturen konnten bei ersten Messungen 100-mal mehr Strom speichern als bisher verfügbare Kondensatoren. Allerdings sind die Strommengen damit immer noch zu gering, um mit Lihtiumionen-Akkus zu konkurrieren… (7)

…Ihre Energiedichte wird mit 5 – 20 kWs/kg angegeben, und es sind Leistungen bis 10 kW erreichbar. Die Lebensdauer-Zyklenzahl beträgt ca. 1 Million und die Energieeffizienz liegt bei rund 95 %. Die Kosten belaufen sich auf 10 – 20 T€/kWh Speicherkapazität. (21)(vergl. Pumpspeicherkraftwerk z.B. 80 €/KWh)

Kondensatoren erlauben einen extrem schnellen Zugriff und werden deshalb sicherlich künftig weitere Anwendungen für unterbrechungsfreie Systeme, in der Elektrotechnik und Elektronik finden. Aufgrund hoher Kosten im Verhältnis zur Speicherkapazität (8),  begrenzter Kapazität und hoher Selbstentladung spielen sie keine Rolle als Langzeitspeicher.

2.2 Supraleitende Spulen

Spulen sind die Stromspeicher schlechthin.

Bild 7

Heutige  auf Spulen basierende Speicherkonzepte, basieren auf supraleitenden Spulen. Hierzu müssen die heutigen Supraleiter mittels flüssigem Helium, oder Stickstoff gekühlt werden. 

Aufgrund der hohen benötigten Kühlleistung weisen SMES eine im Vergleich zu anderen Speichertechnologien hohe Selbstentladerate von etwa 10-12% pro Tag auf. Hohe Wirkungsgrade lassen sich nur bei einer Nutzung als Kurzzeitspeicher erzielen (11, S94)

Der vor einiger Zeit diskutierte Einsatz von SMES in Großanlagen von 1000 bis 5000MWh…zum Tages-/Nachtausgleich sind nach heutigen Kostenanalysen nicht wirtschaftlich realisierbar. Allein schon aufgrund des benötigten großen Spulendurchmessers, der zwischen 100m bis etwa 1Km liegen würde…

SMES benötigen einen hohen Wartungsaufwand und gut ausgebildetes Personal (22).

Aufgrund des hohen Investitionsaufwands, des Aufwands für die Kühlung konnten sich SMES Spulen bislang nicht als Energiespeicher durchsetzen. Ein möglicher Anwendungsbereich könnte der Ausgleich von kurzfristigen Netzschwankungen sein, oder die Sicherstellung einer unterbrechungsfreien Stromversorgung.

2.3  Mechanische Energiespeicher – Schwungrad

Bild 8

Eine seit Jahrhunderten bekannte Methode zur Speicherung von Energie ist das Schwungrad.

Bild 9

Die speicherbare Energie nimmt quadratisch mit der Umfangsgeschwindigkeit und dem Abstand des Schwerpunkts vom Drehpunkt zu.  Die Fliehkräfte (Zentripetalkräfte) nehmen gleichfalls quadratisch mit der Winkelgeschwindigkeit und dem Abstand des Massenschwerpunkts vom Drehpunkt zu.

Moderne Schwungräder bestehen demzufolge aus Faserverstärkten Kunststoffen um hohe Drehzahlen zu ermöglichen, bzw. den Fliehkräften standzuhalten. Zugunsten einer möglichst reibungsfreien Lagerung sind die Räder magnetisch gelagert. Die Räder laufen üblicherweise im Vakuum (2). Die Energiedichte kann bis zu 222Wh/Kg erreichen (11). Die Kosten je KW Leistung liegen bei 100 – 300 €/KW. Die Kosten je KWh Speicherkapazität können bei alten Stahlsystemen gem. Wikipedia 5000 €/KWh betragen, Faserverstärkte Systeme sind entsprechend teurer (Ein Vielfaches dessen von Pumpspeicherkraftwerken).

Vorteile sind eine schnell abrufbare hohe Leistung. Nachteile die hohe Selbstentladung von bis zu 20% /Stunde und die hohen Kosten bezogen auf die Speicherkapazität. 

Schwungradspeicher sind ideal geeignet um kurzfristige Netzschwankungen, beispielsweise Anfahrströme von Industrieanlagen, oder Anfahr- und Bremsströme von Eisenbahnen zu glätten. Als Tages, oder Monatspeicher für die Stromerzeugung sind Schwungräder nicht geeignet.

2.4 Elektrochemische (Batterie) Speicherung

Eine Zwischenspeicherung von Strom, als Notstromversorgung, oder zur Netzstabilisierung wird seit Jahrzehnten praktiziert. In der Regel werden zu diesem Zweck Blei(akku)batterien wie im Automobil eingesetzt. In der Entwicklung und als Prototypen im Einsatz befinden sich innovative Batteriekonzepte wie die NaS (Natrium-Schwefel) Batterie, oder Vandium Redoxflowbatterien.

Bild 10

Batterien mit internem Speicher dienen vor allem der Kurzzeitspeicherung, während Redoxbatterien mit einem großen, externen Speicher für eine Wochen, oder Monatsspeicherung von Strom geeignet sein könnten. Bei Letzteren lassen sich beliebig große Tanks (Speicherkapazität) relativ preiswert errichten.

…Die Investitionskosten je KW betragen derzeit circa 2000 € für Großspeicher. Das entspricht in etwa dem Dreifachen der Investitionskosten von Druckluftspeichern…

Bild 11 (8)

 ..Durch die Trennung von Speicher und Wandler ergibt sich eine höhere Anzahl von Zyklen (etwa 12000), aber ein niedrigerer Wirkungsgrad (etwa 80%). Die Trennung von Speicher und Wandler lässt flexible Kombinationen aus Speichergröße und Konverter zu. Aufgrund der hohen Investitionskosten bietet sich aus wirtschaftlicher Sicht eine im Verhältnis zur Konverterkapazität große Speicherkapazität große Speicherdimensionierung (Vollaststunden >8h) an.

Bei den genannten Investitionskosten von 2000€/KW, 5% Zins, 2,5% Betriebskosten, 30 Jahren Abschreibungsdauer (Annuität 6,5%) und 20% Vollaststromerzeugung ergeben sich reine Speicherkosten von 10c/Kwh.

Bei einem Wirkungsgrad von 75% und Preisen für Windstrom von 9,4c/Kwh, bzw. Solarstrom von 16c/Kwh, ergibt sich ein Speicherstrompreis von 23c/KWh für gespeicherten Windstrom und 31c/Kwh für gespeicherten Solarstrom. Die Kosten für Strom aus Kohle und Kernkraft betragen 1,5 – 5c/KWh! Die Netzkosten und Verluste bleiben hierbei unberücksichtigt.

2.5 Druckluftspeicherkraftwerke

In Norddeutschland gibt es wenige Berge die mit ihren Höhenunterschieden die Einrichtung von Pumpspeicherkraftwerken erlauben. Andererseits ist der größte Teil der umweltschädlichen Windmühlen in Norddeutschland aufgestellt. In Norddeutschland gibt es zahlreiche Salzstöcke die sich als Speicher für Druckluft anbieten. Ein Druckluftspeicherkraftwerk ist im Grunde ein Erdgasturbinenkraftwerk. Wie in jeder Gasturbine wird Luft verdichtet, jedoch in diesem Fall nicht direkt in die Brennkammer geleitet, sondern bei Stromüberschuss in einen Speicher eingelagert. Bei großem Strombedarf wird die gespeicherte Druckluft in die Brennkammer der Gasturbine geleitet.

Bild 12

Aufgrund der Verwendung des teuren Brennstoffs Erdgas, des niedrigen Wirkungsgrads der Druckluftspeicherung, wird der Speicher Huntsdorf sowenig wie möglich genutzt. Eine Druckluftspeicherung ist möglich, ist allerdings nicht die erste Wahl.   Druckluftspeicher liessen sich mit einer großen Speicherkaverne als 14-Tage Speicher zur Nutzbarmachung „Erneuerbarer Energien“ nutzen.

2.6 Pumpspeicherkraftwerke

Pumpspeicherkraftwerke werden seit etwa 100 Jahren als Stromspeicher genutzt. Gegenwärtig werden in Deutschland Pumpspeicherkraftwerke mit gut 6610MW Leistung und 40GWh (11) Speicherkapazität betrieben. Pumpspeicherkraftwerke sind vergleichsweise preiswert und ermöglichen einen Ausgleich der täglichen Lastspitzen.(8)

..Kosten. PSW werden seit vielen Jahrzehnten wirtschaftlich rentabel eingesetzt. Die Investitionskosten betragen in etwa 750 €/KW..

Physikalisch ergibt sich die Energiespeicherung aus:

W = D x g x ΔH x V (Dichte des Wassers x Erdbeschleunigung x Höhendifferenz x Speichervolumen)

Die Energiespeicherung ist linear abhängig von der Höhendifferenz des Ober- und Unterbehälters und des Speichervolumens.

Schema Speicherkraftwerk:  

Bild 13

Die Gesamtverluste der Umwandlung halten sich in Grenzen. Etwa ¾ des eingespeisten Stroms können wiedergewonnen werden. Hinzu kommen die Verluste/Kosten der Zuleitung des zu speichernden und Ableitung des gewonnenen Stroms.

Bild 14

Pumpspeicherkraftwerke sind die erste Wahl als Tagesstromspeicher. Die Ausnutzung der Speicher beträgt etwa 20%.  Das heißt ein Pumpspeicherkraftwerk liefert etwa 20% des Tages Vollast. Gleichfalls wird 20% des Tages die volle Pumpleistung aus dem Netz bezogen.

Bild 15

Pumpspeicherkraftwerke sind die idealen Speicher für eine Tagesstromspeicherung und ergänzen den Einsatz von Kohlekraftwerken und umweltfreundlichen Kernkraftwerken. Pumpspeicherkraftwerke können beim Einsatz umweltschädlicher Windmühlen einen Beitrag zur Milderung von Erzeugungsspitzen leisten. Allerdings reichen die Pumpspeicherkapazitäten nicht aus um ein unbegrenztes Anwachsen der Windstromkapazitäten auszugleichen.

Zykluskosten Pumpspeicherkraftwerk am Beispiel des Projekts Atdorf

Aus der Investitionssumme von 1 Mrd. € und einer Leistung von 1400 MW (19) ergibt sich eine Investitionssumme von knapp 750 €/KW. Bei einem Zinssatz von 5% über 30 Jahre ergibt sich eine Annuität von 6,5%.  Bei 1% Betriebskosten entspricht dies 75 Mio € Kosten pro Jahr. Die beiden größten Pumpspeicherkraftwerke Goldisthal und Atdorf haben Speicherkapazitäten von knapp 8 und 9 Stunden. Bei einer Tagesspeicherung mit 20% Vollast – Speicher und Leistungsbetrieb ergeben sich Speicherkosten von 3c/KWh.

Bei einem 2 Wochenzyklus und 9h Speicherkapazität ergibt sich eine Auslastung von 2,7%. Damit betragen die Speicherkosten 23c/KWh.   Aufgrund der geringen Speicherkapazität der realen PSW- Kraftwerke  betragen die Kosten einer 2 Wochenspeicherung zig-faches einer Tagesspeicherung.

Pumpspeicherkraftwerke sind geeignet die Einspeisung des Zufallsstrom aus Wind,- und Solarenergie zu glätten und die Gefahr von Netzzusammenbrüche zu reduzieren, allerdings sind diese nicht geeignet Wind- u. Solarstrom zu erträglichen Preisen als Grundlaststrom nutzbar zu machen.

Die Kosten für gespeicherten Tagesstrom, Strom aus Kohle, oder Kernenergie, Erzeugungskosten 3c/Kwh (abgeschrieben), 75% Wirkungsgrad, 3c/KWh Speicherkosten ergibt sich ein Speicherstrompreis von 7c/KWh zuzüglich der Netzkosten und Verluste.

Die Kosten für gespeicherten Strom aus Windstrom, 2 Wochenspeicher, Strompreis gem. EEG 9,4c/Kwh betragen 36c/Kwh zuzüglich der Netzkosten und Verluste.

Die Kosten für gespeicherten Strom aus Solarstrom, 2 Wochenspeicher, Strompreis gem. EEG 16c/kWh betragen 44c/KWh zuzüglich der Netzkosten und Verluste.

Wind- und Solarstrom lässt sich auch mit Pumpspeicherkraftwerken zu Grundlaststrom konvertieren. Allerdings sind die Kosten ökologisch.

Die Pumpspeicherkraftwerkskapazität wird, soweit dies Landschaftsschutz und Bürgerinitiativen zulassen, kontinuierlich ausgebaut.  Ein weiteres Potential böten die aufgelassenen Braunkohlegruben, die man als Untersee nutzen könnte. Zusammen mit Seen auf Landschaftshöhe  liessen sich die Speicherkapazitäten signifikant erweitern .

2.7 Wasserstoff als Energiespeicher

Aufgrund der hohen Energiedichte bietet sich eine chemische Wasserstoffspeicherung als 2- Wochen, oder Monatsspeicher an um Wind- und Solarstrom grundlastfähig zu machen.

Funktion einer Wasserstoffspeicherung

Bild 16

Eine Alternative könnte es sein den erzeugten und gespeicherten Wasserstoff anstatt diesen zur Stromerzeugung zu nutzen an die chemische Industrie zu verkaufen. Allerdings wäre dies ein recht teurer Wasserstoff, insbesondere wenn man den aus religiösen Gründen subventionierten Ökostrom hierzu verwendet.

Kosten

Die Investitionskosten sind mit bis zu 2.500€/KW(für eine Speichergröße von 12h und einer Erzeugungsleistung von 300MW)vergleichsweise hoch. Sie werden vor allem durch den Konverter verursacht.

Auslegung

Die im Vergleich zum Speicher sehr hohen Konverterkosten fördern Anlagenkonfigurationen, in denen ein großes Speichervolumen eine hohe Vollaststundenzahl des Konverters ermöglicht.(8)

Einsatzmöglichkeiten

Der Wirkungsgrad ist mit 30 – 40% sehr niedrig. Auf Grund der im Vergleich zu Druckluft- oder Pumpspeicherkraftwerken hohen Energiedichte von Wasserstoff, ist mit Wasserstoff die Speicherung größerer Energiemengen bei geringem Platzbedarf möglich.

Zykluskosten Wasserstoffspeicher

Aus der Investitionssumme von 2500 €/KW Leistung (Die Größe der Kaverne ist nicht maßgebend  für die Kosten einer Wasserstoffspeicherung), 30 Jahren,  Abschreibungsdauer, 5% Zins, 6,5% Annuität und 2% Betriebskosten ergeben sich bei einer Nutzung von 20% Vollasteinspeicherung und 20% Vollastleistung reine Speicherkosten von 12c/kWh.

Die Kosten für gespeicherten Strom aus Windstrom (Land), 2 Wochenspeicher, Strompreis gem. EEG 9,4c/kWh, Wirkungsgrad 40%,  betragen 36c/kWh zuzüglich der Netzkosten und Verluste.

Die Kosten für gespeicherten Strom aus Solarstrom, 2 Wochenspeicher, Strompreis gem. EEG 16c/kWh (b), Wirkungsgrad 40%, betragen 52c/kWh zuzüglich der Netzkosten und Verluste.

Angesichts von Stromerzeugungskosten von 1,5 – 5c/kWh in modernen Kohle und Kernkraftwerken (s. Artikel Stromerzeugung) sind die obigen Erzeugungs-, und Speicherkosten zu denen noch die Verluste von 60% des eingespeisten Stroms und die Leitungskosten hinzukommen, ausschließlich ökoreligiös zu verstehen.

3.    Zusammenfassung der Kostensituation

Die Kosten des Stroms, der Speicherung und der Speicherverluste betragen häufig ein Mehrfaches der Stromerzeugung.

Bild 17

Zu den oben genannten Kosten addieren sich die Netzkosten (Kraftwerk –Speicher-Verbraucher) und die Transportverluste von etwa 1 -3% je 1000Km Leitung (5).

4.   Nutzung verschiedener Speicher in einem Stromnetz

Bild 18

A. Superkondensatoren, Spulen und Schwungräder eignen sich ideal für eine Kurzzeitspeicherung von Strom und einer Stabilisierung der Stromnetze.

B. Batterien mit internem Speicher eignen sich am Besten für eine Notstromversorgung von Krankenhäusern und Industriebetrieben die auf eine 100% Stromversorgung angewiesen sind

C. Pumpspeicherkraftwerke und mit Abstrichen Druckluftspeicher eignen sich zum Tagesausgleich der Stromversorgung.

D. Vanadium Redox Batterien mit externem Speicher und Wasserstoffspeicher eignen sich am ehesten zum Ausgleich der Erzeugungsschwankungen der Wind- und Solarstromproduktion, wobei die Kosten dieser Speicherung ökologisch sind.

Horst Trummler – Vandale

www.oekoreligion.npage.de

Erläuterungen:

a. Umrechnung KWh, GJ, SKE: 1 Kg SkE = 8,14 KWh = 29 MJ, 1 MJ = 0,278 KWh  

b. Erläuterung Solarstrompreis… Gem. (24) werden die Einspeisevergütungen für Solarstrom dieses Jahr zwischen 12,7 und 19,5 c/kWh abhängig von der Anlagengrösse und dem Zeitpunkt der Inbetriebnahme betragen. Für diese Betrachtung wurde ein Preis von 16c/kWh angenommen. 

f. Die Berechnung der Kapitalkosten erfolgt in diesem Artikel (in den anderen Artikeln wurde dies ähnlich Modell 1 gerechnet) auf der Basis einer gleich bleibenden Annuität.  

Bei dieser Betrachtung bleibt die Geldentwertung unberücksichtigt! In der Realität nehmen die Kapitalkosten eines Kraftwerks durch die Geldentwertung ab.

Quellen:

1. Homepage des UCTE (Europäisches Verbundnetz) vom 01.04.09

2. Diss. ETH 11444, Schnelldrehendes Schwungrad aus faserverstärktem Kunststoff, Peter von Burg, 1996

3. http://www.bmwi.de/BMWi/Navigation/Service/publikationen,did=53736.html Bundeswirtschaftsministerium

4. Who needs pumped storage plants?, Dr. Peter Vennemann, VGB Congress Power Plants 2009, Lyon, 23rd to 25th Sept. Vattenfall Wer

5. Energiespeicherung, Transport und Netzmanagement, Daniel Groß, Katharina Nowak, Andrea May, Matthias Schelling. Integration Erneuerbarer Energien, Druckluftspeicher

6. Integration erneuerbarer Energien, 18. Februar 2008, EON Energie Dr. Wolfgang Woyke

7. http://www.weltderphysik.de/de/4245.php?ni=1325, Effizienter Stromspeicher aus Nanoporen 20.03.2009 | Welt der Stoffe

8. DENA Studie,

9. Einbindung von Speichern für erneuerbare Energien in die Kraftwerkseinsatzplanung  – Einfluss auf die Strompreise der Spitzenlast, Dissertation Vanessa Grimm, Ruhr Uni Bochum, 2007 
http://www-brs.ub.ruhr-uni-bochum.de/netahtml/HSS/Diss/GrimmVanessa/diss.pdf, S16

10. Siemens PDF zu Energiespeichern

11. Büro für Technikfolgenabschätzung beim Deutschen Bundestag, Energiespeicher- Stand und Perspektiven, Dagmar Oertel, S35, S37, S94.  

12. Energiespeicher in Stromversorgungssystemen mit hohem Anteil erneuerbarer Energieträger Bedeutung, Stand der Technik, Handlungsbedarf 24.03.2009 

13. http://www.vde.de/de/fg/ETG/Arbeitsgebiete/V1/Aktuelles/Oeffentlich/Seiten/Energiespeicherstudie-Ergebnisse.aspx

14. Reaktortechnik 2, Vorlesung, April 1992,RWTH Aachen, Prof. Dr. Ing. K. Kugler, S144-147

15. http://www.wisoveg.de/rheinland/erft/erft-rb.htm Zugriff 01.

16. http://www-classic.uni-graz.at/inmwww/NEU/lehre/pdf/Energiewirtschaft_WS0506_Teil2.pdf

Logistik der Stromerzeugung Haar&Haar 

17. http://www.energie-verstehen.de/Energieportal/Navigation/strompreise,did=249606.html

vom 18.04.09

18. Who needs pumped storage plants? VGB Congress Power Plants 2009, Lyon 23 – 25.09, Vattenfall Europe Generation, RWE Power 29.09.2009, Dr. Hans Funke RWE Power AG, Lothat Thiel Vattenfall Europe Generation AG, Dr. Peter Vennemann, RWE Power AG.

19. http://www.landkreis-waldshut.de/landkreis-waldshut/index.php?id=3177

20. http://de.wikipedia.org/w/index.php?title=Datei:PV-Norddeutschland-2008-Tagesdarstellung.svg&filetimestamp=20090620134220 Jahresgang 2008,

Der Urheberrechtsinhaber dieser Datei hat ein unbeschränktes Nutzungsrecht ohne jegliche Bedingungen für jedermann eingeräumt. Dieses Nutzungsrecht gilt unabhängig von Ort und Zeit und ist unwiderruflich.

21. http://www.buch-der-synergie.de/c_neu_html/c_10_03_e_speichern_batterien_2.htm

22. Dr. Arman Nylias FZK.

23. Gem. dieser Quelle beträgt die Einspeisevergütung 2012  8,93c/kWh zzgl. Systemdienstleistungbonus 0,49c/kWh zzgl. Ggf. Repoweringbonus 0,49c/kWh

24. Google Ergebnisse

Photovoltaik Einspeisevergütung ab 01.04.2012 (stand 17. April 2012)


Inbetriebnahme 

Installierte Anlagenleistung – PV Dachanlagen / Vergütung in Cent je KWh

 

Bis 10 KW

Bis 1000 KW /1 MW

1 MW – 10 MW

 

Ab 01.04.2012

19,50 Cent

16,50 Cent

13,50 Cent

 

Monatliche Degression Mai – Oktober 2012

1,0%

1,0%

1,0%

 

Ab 01.05.2012

19,31 Cent

16,34 Cent

13,37 Cent

 

Ab 01.06.2012

19,12 Cent

16,18 Cent

13,24 Cent

 

Ab 01.07.2012

18,93 Cent

16,02 Cent

13,11 Cent

 

Ab 01.08.2012

18,74 Cent

15,86 Cent

12,98 Cent

 

Ab 01.09.2012

18,55 Cent

15,70 Cent

12,85 Cent

 

Ab 01.10.2012

18,36 Cent

15,54 Cent

12,72 Cent

Horst Trummler (Vandale) für EIKE

Related Files




Stellvertreter(Proxy-) Methodik führt zu Pseudowissenschaft

Doch es gibt auch andere Wissenschaftler, die sowohl Baumringe, Sedimentschichtarten und -dicken oder das Mischungsverhältnis von verschiedenen atmosphärischen Isotopen zur Proxy-Temperaturbestimmung verwendet haben. Sie wollten weder betrügen, noch haben sie das getan. Ihre Veröffentlichungen sind zahlreich und werden tlw. im folgenden Beitrag von Pat Frank aufgelistet und bewertet. Und zwar nach der entscheidenden Frage bewertet:

Wie gut, bzw.wie genau lässt sich ein Temperaturverlauf aus Poxydaten rekonstruieren?

Wie kann man die Rohdaten kalibrieren? Was hängt wovon ab? Wie hoch ist die nicht zu unterschreitende Fehlermarge?

Um es kurz zu machen: Sein Urteil ist bis auf eine Ausnahme sehr negativ. Lesen Sie warum:

Proxy-Wissenschaft und Proxy-Pseudo-Wissenschaft    

Es ist bekannt, dass die weithin veröffentlichte Proxythermometrie seit 1998 [1] unwissenschaftlichist, und dies ganz besonders, seit Steve McIntyre und Ross McKitrick aufdeckten, dass sie auf absichtsvoller reiner statistischer Numerologie beruht. Vor einiger Zeit diskutierte ich hier auf WUWT mit Michael Tobis über die Unwissenschaftlichkeit der Proxy-Paläothermometrie. Es begann mit Michaels Kommentar hier und meiner Antwort dort. Michael berief sich bald auf seine Autoritäten auf Planet3.org. Wir hatten einen netten Gedankenaustausch, der damit endete, dass der Moderator und Mitstreiter Arthur Smith fälschlicherweise Zensur ausübte, weil er glaubte, eine Beleidigung zu erkennen. (Für starke Nerven: hier ist der Kommentar in voller Länge zu finden)

Immerhin, zwei hiesige Experten in Proxythermometrie kamen Michael zu Hilfe: Kaustubh Thimuralai, graduiert im Fach Proxy-Klimatologie an der Universität von Austin, Texas, und Kevin Anchukaitis, Dendroklimatologe an der Columbia Universität. Kaustubh hat seine Verteidigung auf seinem eigenen Blog veröffentlicht.

Ihre Argumentation hatte eines gemeinsam: eine ausschließliche Berufung auf stabile Isotopen-Temperatur-Proxys – sie sagten kein Wort zur Verteidigung der Baumring-Thermometrie, welche die große Menge der Paläo-Temperatur-Rekonstruktionen darstellt.

Die Unwissenschaftlichkeit der veröffentlichten Paläothermometrie wurde durch die Tatsache belegt, dass sie auf deren Kernbereich mit den Baumringen überhaupt nicht verteidigten; anders gesagt: "Verurteilung durch Verschweigen".

Auch fanden sie kein Wort der Verteidigung dafür, dass die Physik durch Statistik ersetzt wird, was nahezu durchgängig in der Paläothermometrie geschieht.

Aber ihre Berufung auf die Thermometrie mit stabilen Isotopen-Proxys gibt Anlass zu einer Überprüfung. Das möchte ich hier nun tun: eine Analyse der Temperatur-Rekonstruktion aus stabilen Isotopen-Proxys durchführen, anschließend einen kurzen Abriss der Dendrothermometrie geben. 

Soweit die einleitenden Worte von Dr. Pat Frank. Unseren Lesern schon bekannt durch seine Fehlerbetrachtungen der Zeitreihe der globalen Mitteltemperatur (hier) und (hier)

Im (sehr ausführlichen) Aufsatz (hier im Original) erläutert Frank nun im 1. Teil sehr ausführlich die Möglichkeiten und Grenzen der Temperaturbestimmung aus Isotopenverhältnissen mittels bekannter Analysemethoden. Nach gründlicher Prüfung aller anderen Methoden, erkennt Frank dieses Verfahren als einziges an, welches -einigermaßen- eine verlässliche Temperaturbestimmung erlaubt. Allerdings hat auch diese Verfahren seine Grenzen, die sich in breiten Fehlermargen äußern. Es sind eben trotzdem keine Präzisionsthermometer sondern Stellvertreter.

Wer will kann das im anhängenden pdf Beitrag nachlesen. Wir bringen in dieser News nur sein Resumée. Darin wendet Frank die zuvor erarbeiteten Erkenntnisse auf veröffentlichte Berichte und Proxymethoden an. 

Teil II: Pseudo-Wissenschaft: Statistische Thermometrie

Nun zu den veröffentlichten typischen Proxy-Paläotemperatur-Rekonstruktionen. Ich habe mich mit einem repräsentativen Satz von acht hochrenommierten Studien beschäftigt und wissenschaftliche Belege gesucht. Mit Belegen meine ich, ob die Studien sich auf die Theoretische Physik berufen.

Kurzfassung: keine davon kann im Sinne der Theoretischen Physik Gültigkeit beanspruchen. Keine davon zeigt eine Temperatur.

Bevor ich weitermache, ist ein Wort zu „Korrelation und Verursachung“ fällig. Michael Tobis hat darüber geschrieben, “Wenn zwei Signale korreliert sind, dann enthält jedes Signal Information über das andere. Mehr zu behaupten ist einfach nur dumm.”

Davon gibt es eine Menge in der Proxythermometrie. Eine Klarstellung ist Pflicht. John Aldrich beschrieb in einem schönen Papier [16] die Schlacht zwischen Karl Pearson und G. Udny Yule wegen: „Korrelation deutet auf Verursachung hin“. Pearson glaubte das, Yule nicht.

Auf Seite 373 macht Aldrich eine sehr bedeutende Unterscheidung: “Statistische Folgerungen sind Folgerungen aus Stichproben auf die Gesamtbevölkerung. Wissenschaftliche Folgerungen zielen auf Erkenntnisse über die Bevölkerung im Sinne einer theoretischen Struktur.”

Im Klartext: Statistik beschäftigt sich mit Beziehungen zwischen Zahlen. Wissenschaft beschäftigt sich mit Schlussfolgerungen aus falsifizierbaren Theorien.

Wir werden sehen, dass die unten erwähnten Proxy-Studien unzulässigerweise beide Kategorien vermischen. Sie konvertieren richtige Statistik in falsche Wissenschaft.

Um diesen Punkt noch zuzuspitzen, verweise ich auf einige schöne Beispiele von falschen Korrelationen. Und hier sind die Gewinner des Wettbewerbs von 1998 an der Purdue University wegen falscher Korrelationen: Dabei waren [so abwegige] Korrelationen wie die zwischen dem Absatz von Speiseeis und Ertrunkenen, zwischen Ministergehältern und dem Wodkapreis. Pace Michael Tobis sagte dazu, dass jede der Korrelationen “Signale” korrelierte, die offensichtlich Informationen über den dazu in Beziehung gesetzten Sachverhalt enthielten. Mit meiner Ironie hoffe ich, das Thema abschließend behandelt zu haben.

Diaz und Osuna [17] weisen auf den Unterschied “zwischen Alchemie und Wissenschaft hin … , der darin besteht, dass (1) streng getestete Modelle spezifiziert sind, die (2) hinreichend die verfügbaren Daten beschreiben, (3) überlieferte Erkenntnisse berücksichtigen und (4) von wohlbegründeten Theorien abgeleitet sind.“ (Hervorhebung durch den Autor)

Eine verursachende Bedeutung in einer Korrelation kann nur im deduktiven Kontext einer falsifizierbaren Theorie erkannt werden, die die Korrelation erwartet. Statistik (induktives Schlussfolgern) kann niemals alleine eine Verursachung offen legen.

Für die Klimawandel-Paläo-Proxythermometrie wird gezeigt werden, dass die Diaz und Osuna Elemente 1, 3, 4 für wahre Wissenschaft fehlen. Das macht sie zur Alchemie, auch als Pseudo-Wissenschaft bekannt.

Also zunächst zur Klimawandel Paläo-Proxythermometrie:

1. Thomas J. Crowley und Thomas S. Lowery (2000) “How Warm Was the Medieval Warm Period?.” [18]

Fünfzehn Zeitreihen werden benutzt: drei dO-18 (Keigwins Sargasso-See Proxy, GISP 2, und die Dunde Eiskappen-Zeitreihe), acht Baumring-Zeitreihen, die Zeitreihe der Temperatur von Mittelengland (CET), eine Temperatur-Zeitreihe von Island (IT) und zwei Proxies mit Pflanzenwachstum (China Phänologie und Michigan Pollen).

Alle fünfzehn Reihen sind zwischen 0 und 1 skaliert und dann gemittelt. Es besteht eine völlige Vernachlässigung der Bedeutung der fünf physikalisch gültigen Reihen. (3 x dO18, IT und CET). Alle sind auf die gleiche physikalisch bedeutungslose Begrenzung einer Einheit skaliert.

Man bedenke, was das heißt: Crowley und Lowry haben fünf physikalisch bedeutungsvolle Reihen ausgewählt und dann die Physik nicht betrachtet. Nur dadurch konnten die Reihen für die Verwendung in der Klimawandel- Proxythermometrie geeignet gemacht werden.

Es gibt keine physikalische Theorie, um Baumringmessungen in Temperaturen umzusetzen. Angesicht der Nicht-Existenz einer derartigen Theorie bleiben jegliche exakten Beziehungen völlig im Dunkeln.

Wie aber haben Crowley und Lowery ihre auf Einheiten skalierten Proxy-Mittelwerte in Temperaturen konvertiert? Nun denn: “Die beiden Gesamtheiten wurden so skaliert, damit sie mit den Temperaturmessdaten der Nordhalbkugel von Jones et al. übereinstimmten …“. So einfach ist das.

Kurz gesagt, die fünfzehn Reihen wurden numerisch auf eine gemeinsame Skala adjustiert, gemittelt und größenmäßig an die gemessenen Temperaturen angepasst. Schließlich geben Crowley und Lowry noch eine Auflösung von (+/-)0.05 C für ihre Temperaturen an. Messunsicherheiten bei den physikalisch wahren Zeitreihen wurden im Schlussergebnis ignoriert. So sieht Wissenschaftlichkeit in der Klimawandel-Proxythermometrie aus.

Abstützung auf eine physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja

Physikalische Erklärung: Keine.

Physikalische Gültigkeit: Keine.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

2. Timothy J. Osborn und Keith R. Briffa (2006) The Spatial Extent of 20th-Century Warmth in the Context of the Past 1200 Years.” [19]

Vierzehn Proxies – elf davon Baumringe, einer dO-18-Eisbohrkern (West-Grönland) – geteilt durch ihre jeweilige Standardabweichung, um eine einheitliche Größenordnung zu erzeugen. Dann werden sie auf die Instrumentenmessdaten skaliert. Die physikalische Bedeutung des dO-18 – Eisbohrkerns ist nicht betrachtet und dessen experimentelle Unsicherheit wird nicht beachtet.

Interessanterweise zeigte der zusammengesetzte Proxy zwischen 1975 und 2000 gegenüber den Instrumentenmessdaten eine Abnahme. Osborn und Briffa verheimlichten den Niedergang nicht, das muss ihnen hoch angerechnet werden. Sie schrieben aber, dass diese Nicht-Bestätigung eine, “Folge des zu erwartenden Rauschens in den Proxy-Aufzeichnungen wäre.”

Ich habe das “Rauschen” abgeschätzt, indem ich die Verfälschung in Bezug auf die Temperaturaufzeichnung verglich, sie beträgt etwa 0.5 C. Es ist auf der grafischen Darstellung von Osborn und Briffa nicht als Unsicherheit dargestellt. Tatsächlich haben beide künstlich die Mittelwerte der Proxy-Reihen von 1856-1995 mit den Oberflächen-Temperatur-Messdaten vermischt, um den Proxy wie eine Temperatur aussehen zu lassen. Die 0,5 C „Rausch“-Abweichung ist unterdrückt und sieht sehr viel kleiner aus, als sie tatsächlich ist. Wären die tatsächlichen 0.5 C “Rausch-” Fehlerbalken auf die Temperaturkurve ihrer abschließenden Grafik skaliert worden, wäre der ganze Versuch auf theatralische Weise geplatzt, abgesehen davon, dass das nichts mit Wissenschaft zu tun hat.

Abstützung auf eine physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja

Physikalische Unsicherheit in T: keine.

Physikalischer Wert: keiner.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

3. Michael E. Mann, Zhihua Zhang, Malcolm K. Hughes, Raymond S. Bradley, Sonya K. Miller, Scott Rutherford, und Fenbiao Ni (2008) “Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia.” [20]

Eine große Anzahl von Proxies vielfacher unterschiedlicher Längen und Herkunft. Darin: Eisbohrkerne, Speleothem, dO-18 von Korallen. Die Daten sind aber von den Baumringzeitreihen beherrscht.  Mann & Co. korrelieren die Reihen statistisch mit lokaler Temperatur während einer “Kalibrationsperiode”, passen sie auf eine gleiche Standardabweichung an, skalieren sie auf die Messdaten und veröffentlichen das Zusammengemischte mit einer Auflösung von 0.1 C (Figur 3). Auch ihre Methode betrachtet nicht die physikalische Bedeutung der dO-18-Proxys verwirft sie.

Abstützung auf eine physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja!

Physikalische Unsicherheit bei der Temperatur dargestellt: keine.

Physikalischer Wert: keiner.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

4. Rosanne D’Arrigo, Rob Wilson, Gordon Jacoby (2006) “On the long-term context for late twentieth century warming.” [21]

Drei Baumring-Zeitreihen von 66 Standorten, die Varianz adjustiert, auf die Instrumenten-Messdaten skaliert und mit einer Auflösung von 0.2 C veröffentlicht (Figur 5 C).

Abstützung auf ein physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja

Physikalisch gültige Temperatur-Unsicherheiten: keine

Physikalische Erklärung der Unterteilungen in 0.2 C: keine.

Physikalische Erklärung der Baumringtemperaturen: keine zu sehen.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

5. Anders Moberg, Dmitry M. Sonechkin, Karin Holmgren, Nina M. Datsenko und Wibjörn Karlén (2005) “Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data.” [22]

Achtzehn Proxies: Zwei d-O18-Meeresoberflächen-Temperaturen (Sargasso und Karibik-Foraminifera-d-O18, ein Stalagmiten-d-O18 (Soylegrotta, Norway), sieben Baumring-Zeitreihen. Dazu weitere Zusammenmischungen.

Die Proxy sind mit einer aufregend neuen Wellen-Transformations-Methode behandelt (noch verbesserungsbedürftig), kombiniert, Varianz-adjustiert, stark auf die Messdaten während der Kalibrierungsperiode skaliert, mit einer Auflösung von 0.2 C veröffentlicht (Figur 2 D). Die Autoren folgten der Standardpraxis des Entfernens und Verwerfens der physikalischen Bedeutung der dO-18-Proxies.

Abstützung auf eine physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja

Physikalische Unsicherheiten aus den dO18 Proxies in die Schlusszusammenstellung übernommen? Nein.

Physikalische Erklärung der Unterteilungen in 0.2 C: Keine.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

6. B.H. Luckman, K.R. Briffa, P.D. Jones und F.H. Schweingruber (1997) “Tree-ring based reconstruction of summer temperatures at the Columbia Icefield, Alberta, Canada, AD 1073-1983.” [23]

Dreiundsechzig regionale Baumring-Zeitreihen, dazu 38 Reihen von fossilem Holz; Einsatz der standardmäßigen statistischen (nicht physikalischen) Kalibrations-Verifikationsfunktion für die Konversion von Baumringen in Temperatur, Überlagerung der Zusammenstellung mit den 1961-1990er Mittelwerten der Messdatenreihe, Veröffentlichung des Ergebnisses mit 0.5 C Auflösung (Figur 8). Im Text werden Anomalien angesprochen bis zu einer (+/-)0.01 C Auflösung (z. B. Tables 3 & 4), die mittleren Anomalien mit (+/-)0.001 C. Diese letztere behauptete Genauigkeit ist 10x höher als die typische Einstufung eines zwei-Punkte kalibrierten Platin-Widerstands-Thermometers unter dem Schutz angestrebter moderner kontrollierter Laborbedingungen.

Physikalische Theorie bei der Erklärung herangezogen?: Nein

Rein statistische Ableitung?: Ja

Physikalische Erklärung der Proxies: Keine.

Bedeutung der Schluss-Zusammenstellung für die Temperatur: Keine.

7. Michael E. Mann, Scott Rutherford, Eugene Wahl, and Caspar Ammann (2005) “Testing the Fidelity of Methods Used in Proxy-Based Reconstructions of Past Climate.” [24]

Diese Studie ist teilweise ein methodischer Überblick über die Wege zur Erzeugung einer Proxy-Paläo-Temperatur, wie sie von den das Fachgebiet beherrschenden Forschern empfohlen werden:

Methode 1: “Die composite-plus-scale (CPS) Methode. Sie besteht aus “einem Dutzend Proxy-Reihen, wobei von jeder angenommen wird, dass sie eine lineare Kombination von lokalen Temperaturänderungen und zusätzlichem Rauschen darstellt, die zusammengefasst (typischerweise mit dekadischer Auflösung;…) und skaliert werden gegen hemisphärische gemittelte Temperatur-Messdaten-Reihen während eines darüber gelegten „Kalibrierungs-“ Intervalls, um eine hemisphärische Rekonstruktion zu bilden. (Hervorhebung von mir)

Methode 2, Climate Field Reconstruction (CFR): “Unsere Umsetzung des CFR Ansatzes benutzt die „regularized expectation maximization (RegEM)“-Methode (Regulierte Erwartungsmaximierung) von Schneider (2001), die für CFR in vielen jüngeren Studien angewandt wird. Die Methode gleicht den auf der „principal component analysis (PCA)“ beruhenden Ansätzen, sie setzt aber eine iterative Schätzung der Daten-Co-Varianzen ein, um die verfügbare Information besser ausnutzen zu können. Wie schon bei Rutherford et al. (2005) haben wir getestet: (i) die direkte Anwendung der RegEM, (ii) einen Ansatz der “hybrid frequency-domain calibration”, der unterschiedliche Kalibrierungen von Komponenten mit Perioden von hoher Zeitfrequenz (Periode kürzer als 20 Jahre) und solchen mit niedriger Zeitfrequenz (Periode länger als 20 Jahre) der jährlichen Mittelwerte, die anschließend zusammengesetzt werden, um eine einzige Rekonstruktion zu bilden, (iii) eine “schrittweise” Version der RegEM, wobei die Rekonstruktion selbst stärker benutzt wird, um die älteren Segmente nacheinander zu kalibrieren.” (Hervorhebung von mir)

Zur Wiederholung des Offensichtlichen:

CPS: wird als repräsentativ für die Temperatur angenommen; statistische Skalierung auf die Messdatenreihe; Methodische Korrelation = Verursachung. Physikalischer Wert: keiner. Wissenschaftlicher Gehalt: keiner.

CFR: Principal component analysis (PCA): eine numerische Methode unter Vernachlässigung intrinsischer physikalischer Deutungen. Die Hauptkomponenten sind numerisch, nicht physikalisch, orthogonal. Numerische „Principal Components“ sind typischerweise Zusammenstellungen multipler aufgelöster (d.h., partieller) physikalischer Signale von unbekannter Größenordnung. Sie haben keine besondere physikalische Bedeutung. Eine quantitative physikalische Bedeutung kann den Principal Components nicht dadurch beigemessen werden, dass auf subjektive Urteile einer ‘Temperatur-Abhängigkeit’ verwiesen wird.

Was bedeutet die Skalierung der Principal Components in die Temperatur-Zeitreihen? Korrelation = Verursachung!

‘Korrelation = Verursachung’ ist möglicherweise der häufigste naive Fehler in der Wissenschaft. Mann et al. zeigen offen, ohne dabei rot zu werden, dass dieser Fehler der Stützpfeiler des gesamten Bereichs der Baumring-Proxy-Thermometrie ist.

Wissenschaftlicher Gehalt der Mann-Rutherford-Wahl-Ammann Proxy-Methode: null.

Zum Schluss noch etwas Beachtliches:

8. Rob Wilson, Alexander Tudhope, Philip Brohan, Keith Briffa, Timothy Osborn, und Simon Tet (2006), “Two-hundred-fifty years of reconstructed and modeled tropical temperatures.”[25]

Wilson et al. rekonstruierten 250 Jahre Meeresoberflächen-Temperaturen, indem sie nur Reihen von Korallen benutzten, auch dO-18, Strontium/Kalzium-, Uran/Kalzium-,  und Barium/Kalzium-Verhältnisse . Die letzteren drei habe ich nicht eingehend überprüft, aber die Betrachtung ihrer Punktstreuungen allein deutet schon darauf hin, dass keines davon genauere Temperaturen hergibt als dO-18. Dennoch, alle Temperatur-Proxies bei Wilson et al. haben echte physikalische Bedeutung. Was wäre das für eine großartige Gelegenheit gewesen, die Methode zu überprüfen, die Auswirkungen des Salzgehalts und biologischer Ungleichgewichte zu diskutieren, und wie das zu berücksichtigen ist. Zusätzlich könnten andere zentrale Elemente stabiler Meeres-Isotopen-Temperaturen erforscht werden.

Was aber machten diese Forscher? Sie fingen mit etwa 60 Proxy-Reihen an, warfen dann alle hinaus, die nicht mit den lokalen Gitternetz-Temperaturen korrelierten. Sechzehn Proxies verblieben, 15 davon waren dO-18. Warum korrelierten die anderen Proxies nicht mit der Temperatur? Rob Wilson & Co. schwiegen sich aus. Nachdem sie zwei weitere Proxies verworfen hatten, um das Problem des Ausfilterns hoher Frequenzen zu vermeiden, blieben ihnen noch 14 Korallen- Meeresoberflächen-Temperatur-Proxies.

Danach setzten sie standardmäßige statistische Berechnungen an: teile durch die Standardabweichung, mittele die Proxies alle zusammen (Einsatz der “nesting procedure” zum Angleichen unterschiedlicher Proxy-Längen), und skaliere dann auf die Messdatenreihe hoch.

Das Lobenswerte bei der Erwähnung dieser Forscher beruht auf der Tatsache, dass sie nur und allein physikalisch echte Proxies benutzten, leider dann aber die physikalische Bedeutung von allen verwarfen.

Damit sind sie besser als die anderen sieben Beispiel-Vertreter, die Proxies ohne jegliche physikalische Bedeutung einbezogen.

Trotzdem:

Physikalische Theorie bei der Erklärung herangezogen?: Nein

Rein statistische Ableitung?: Ja

Einsatz einer physikalisch gültigen Methode: Nein.

Physikalische Bedeutung der Proxies: existierte, wurde berücksichtigt, dann aber verworfen.

Bedeutung der Schluss-Zusammenstellung für die Temperatur: Keine.

Schlussurteil: Die weithin praktizierte Klimawandel-Paläo-Proxythermometrie besteht aus Zusammenstellungen, die allein auf rein statistischen Ableitungen beruhen und auf numerischen Skalierungen. Sie haben nicht nur keinen wissenschaftlichen Wert, schon die Methodik spricht deutlich gegen den wissenschaftlichen Gehalt.

Statistische Methoden: 100%.

 

 

Physikalische Methoden: nahezu keine (ausgenommen stabile Isotopen, aber deren physikalische Bedeutung wird permanent bei den zusammengesetzten Paläoproxies nicht zur Kenntnis genommen).

Bedeutung der numerisch skalierten Zusammenstellungen für die Temperatur: null.

Die sieben Studien sind typische Vertreter und sie sind repräsentativ für das gesamte Feld der Klimawandel-Paläo-Proxythermometrie. Was da wissenschaftlich praktiziert wird, ist wissenschaftlicher Betrug. Es ist Pseudo-Wissenschaft durch und durch.

Studien über stabile Isotopen sind aber echte Wissenschaft. Dieses Feld köchelt so dahin und die darin tätigen Wissenschaftler konzentrieren sich richtig auf das Detail. Ich nehme sie ausdrücklich von meiner generellen Verurteilung der Klimawandel-Paläo-Proxythermometrie aus.

In den nachfolgend genannten Arbeiten habe ich bereits die Glaubwürdigkeit der drei Richtungen der Klimawandel-Wissenschaft überprüft: Klima-Modelle (GCMs) hier (Berechnungen hier), den Datenbestand der Oberflächen-Lufttemperaturdaten hier (alles als pdf-downloads), und mit diesem Beitrag nun die Proxy-Paläo-Temperatur-Rekonstruktionen.

In allen Forschungsrichtungen werden die systematischen Fehler außer acht gelassen. Diese Vernachlässigung der systematischen Fehler zeigt, dass keine der Methoden – wirklich keine einzige – in der Lage ist, die Temperaturveränderungen der letzten 150 Jahre zu behandeln oder gar zu erklären.

Immerhin, die pandemische Ausbreitung dieser Vernachlässigung ist der zentrale Mechanismus für das Überleben des Klimawandel-Alarmismus. Das geht nun schon seit mindestens 15 Jahren so, bei den Klimamodellen seit 24 Jahren. Unterstellt man Integrität, dann muss man aber erkennen, dass die Wissenschaftler, ihre Fachgutachter und ihre Redakteure alle zusammen inkompetent sind.

Schlussfolgerung: Bei Behauptungen über Etwas-Noch-Nie-Dagewesenes bei den jüngeren globalen Lufttemperaturen weiß niemand, wovon überhaupt gesprochen wird.

Ich bin sicher, dass es Menschen gibt, die meine Schlussfolgerung angreifen werden. Sie werden gebeten, hier her zu kommen und ihre Einwände vorzutragen.

 Pat Frank PhD

Die Übersetzung besorgte in dankenswerter Weise Helmut Jäger EIKE

Über den Autor Pat Frank

Patrick Frank ist promovierter Chemiker und hat über 50 fachbegutachtete Artikel veröffentlicht. Er hat in folgenden Magazinen geschrieben: in „Skeptic“ über den Mythos vom „Edlen Wilden“ geschrieben, in „Theology and Science“ über den Mythos vom „Schöpferuniversum“ sowie in Energy & Environment über Fehler in Globaltemperaturbestimmungen sowie in „Free Inquiry“ zusammen mit Thomas H. Ray über den Mythos „Wissenschaft ist Philosophie“.

Referenzen:

1. Mann, M.E., R.S. Bradley, and M.S. Hughes, Global-scale temperature patterns and climate forcing over the past six centuries. Nature, 1998. 392(p. 779-787.

2. Dansgaard, W., Stable isotopes in precipitation. Tellus, 1964. 16(4): p. 436-468.

3. McCrea, J.M., On the Isotopic Chemistry of Carbonates and a Paleotemperature Scale. J. Chem. Phys., 1950. 18(6): p. 849-857.

4. Urey, H.C., The thermodynamic properties of isotopic substances. J. Chem. Soc., 1947: p. 562-581.

5. Brand, W.A., High precision Isotope Ratio Monitoring Techniques in Mass Spectrometry. J. Mass. Spectrosc., 1996. 31(3): p. 225-235.

6. Kim, S.-T., et al., Oxygen isotope fractionation between synthetic aragonite and water: Influence of temperature and Mg2+ concentration. Geochimica et Cosmochimica Acta, 2007. 71(19): p. 4704-4715.

7. O’Neil, J.R., R.N. Clayton, and T.K. Mayeda, Oxygen Isotope Fractionation in Divalent Metal Carbonates. J. Chem. Phys., 1969. 51(12): p. 5547-5558.

8. Epstein, S., et al., Revised Carbonate-Water Isotopic Temperature Scale. Geol. Soc. Amer. Bull., 1953. 64(11): p. 1315-1326.

9. Bemis, B.E., et al., Reevaluation of the oxygen isotopic composition of planktonic foraminifera: Experimental results and revised paleotemperature equations. Paleoceanography, 1998. 13(2): p. 150Ð160.

10. Li, X. and W. Liu, Oxygen isotope fractionation in the ostracod Eucypris mareotica: results from a culture experiment and implications for paleoclimate reconstruction. Journal of Paleolimnology, 2010. 43(1): p. 111-120.

11. Friedman, G.M., Temperature and salinity effects on 18O fractionation for rapidly precipitated carbonates: Laboratory experiments with alkaline lake water ÑPerspective. Episodes, 1998. 21(p. 97Ð98

12. Keigwin, L.D., The Little Ice Age and Medieval Warm Period in the Sargasso Sea. Science, 1996. 274(5292): p. 1503-1508; data site: ftp://ftp.ncdc.noaa.gov/pub/data/paleo/paleocean/by_contributor/keigwin1996/.

13. Shackleton, N.J., Attainment of isotopic equilibrium between ocean water and the benthonic foraminifera genus Uvigerina: Isotopic changes in the ocean during the last glacial. Colloq. Int. C.N.R.S., 1974. 219(p. 203-209.

14. Shackleton, N.J., The high-precision isotopic analysis of oxygen and carbon in carbon dioxide. J. Sci. Instrum., 1965. 42(9): p. 689-692.

15. Barrera, E., M.J.S. Tevesz, and J.G. Carter, Variations in Oxygen and Carbon Isotopic Compositions and Microstructure of the Shell of Adamussium colbecki (Bivalvia). PALAIOS, 1990. 5(2): p. 149-159.

16. Aldrich, J., Correlations Genuine and Spurious in Pearson and Yule. Statistical Science, 1995. 10(4): p. 364-376.

17. D’az, E. and R. Osuna, Understanding spurious correlation: a rejoinder to Kliman. Journal of Post Keynesian Economics, 2008. 31(2): p. 357-362.

18. Crowley, T.J. and T.S. Lowery, How Warm Was the Medieval Warm Period? AMBIO, 2000. 29(1): p. 51-54.

19. Osborn, T.J. and K.R. Briffa, The Spatial Extent of 20th-Century Warmth in the Context of the Past 1200 Years. Science, 2006. 311(5762): p. 841-844.

20. Mann, M.E., et al., Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia. Proc. Natl. Acad. Sci., 2008. 105(36): p. 13252-13257.

21. D’Arrigo, R., R. Wilson, and G. Jacoby, On the long-term context for late twentieth century warming. J. Geophys. Res., 2006. 111(D3): p. D03103.

22. Moberg, A., et al., Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data. Nature, 2005. 433(7026): p. 613-617.

23. Luckman, B.H., et al., Tree-ring based reconstruction of summer temperatures at the Columbia Icefield, Alberta, Canada, AD 1073-1983. The Holocene, 1997. 7(4): p. 375-389.

24. Mann, M.E., et al., Testing the Fidelity of Methods Used in Proxy-Based Reconstructions of Past Climate. J. Climate, 2005. 18(20): p. 4097-4107.

25. Wilson, R., et al., Two-hundred-fifty years of reconstructed and modeled tropical temperatures. J. Geophys. Res., 2006. 111(C10): p. C10007.

Related Files




Wie kann man eine mittlere Globaltemperatur ermitteln? Was die Statistik verlangt und erlaubt

Wenn der zeitliche Verlauf  globaler Temperaturen graphisch dargestellt wird, so z. B. von dem NASA Goddard Institut for Space Studies (GISS), werden meist  Temperaturanomalien gezeigt. (Abb. 1 nebenstehend) Dabei handelt es sich z. B. um Jahresmittelwerte, die ihrerseits auf einen  Mittelwert über ein definiertes Zeitintervall bezogen werden, z. B. 1961 – 1990. Man muss sich darüber im Klaren sein, dass es sich bei Mittelwerten um  Schätzungen handelt, die letztendlich auf einer für repräsentativ gehaltenen Auswahl von Einzelmessungen beruhen. 

Die zulässigen Methoden der Mittelwertbildung unter Berücksichtigung der Schätzfehler  von den Messdaten bis zur globalen Jahresmitteltemperatur soll im Folgenden dargestellt werden. Darauf aufbauend werden für ausgewählte Temperaturreihen die Mittelwerte auf signifikante Unterschiede analysiert.

Abb. 2 

Es existieren weltweit ca. 39.000 meteorologische Stationen, die neben der Registrierung anderen Wetterdaten die bodennahen (2m) Lufttemperatur messen. Wie Abb. 2 zu entnehmen, sind diese Stationen sind nicht homogen über die Landfläche der Erde verteilt (die Markierungen in den Meeren beziehen sich auf  Inseln).

Zwischen 1000 und 3000  von ihnen werden mit z. T. unterschiedlicher Gewichtung zur Berechnung der Globaltemperatur-Reihen  der verschiedenen Institutionen herangezogen. Die bodennahen Lufttemperaturen werden auch von einem Satelliten (TIROS-N ) erfasst und können u. a. als globale Verteilungen dargestellt werden.

So wurden von der NOAA (National Oceanic and Atmospheric Administration, USA) z. B.  für den 2. März 2012 die folgenden ”Momentaufnahmen” (Abb. 3)veröffentlicht:

Abb.  3

Die riesige geographische Variabilität der bodennahen  Landtemperaturen durch einen einzigen Mittelwert  charakterisieren zu wollen, erscheint sehr ehrgeizig. Die ständigen täglichen, wie auch jahreszeitlichen Temperaturänderungen erschweren dieses Vorhaben zusätzlich.

Betrachtet man zunächst einmal nur eine einzige Station. Die allgemein vorgeschriebenen Bedingungen zur Messung der bodennahen Temperatur verlangen, dass ein geeichtes Thermometer in einem als ”englische Hütte” bezeichneten Kasten zwei Meter über dem Erdboden untergebracht ist (Abb. 4).

Abb.  4

Der weiße Anstrich und die Belüftungslamellen sollen gewährleisten, dass die Lufttemperatur ungestört (im Gleichgewicht  mit der Umgebung) gemessen werden kann. Tagesmittelwerte werden weltweit nach verschiedenen Methoden gebildet

In Deutschland wird traditionell das arithmetische Mittel aus den 7 Uhr, 14 Uhr und 21 Uhr Temperaturen berechnet, wobei der 21 Uhr Wert doppelt gewichtet  wird.

Nach Umstellung auf elektronische Datenerfassung sind auch andere Mittelwertbildungen gebräuchlich.

Der Tagesmittelwert ist in jedem Fall eine  Schätzung, die als verbindlich betrachtet wird, ohne mögliche Fehlerquellen der Station (Ablesefehler, Aufbau und Anstrich der ”englischen Hütte”, Beeinflussung der Umgebung durch lokale Wärmequellen) zu berücksichtigen.
  

Abb. 5 zeigt die Tagesmittelwerte der Station Braunschweig Völkenrode des Deutschen Wetterdienstes (DWD) für Februar 2011 dargestellt. Wenn daraus ein Monatsmittelwert gebildet werden soll, muss man aus statistischer Sicht erst einmal untersuchen, welche Art der Mittelwertbildung für diese Grundgesamtheit, wie eine solche Ansammlung von Werten genannt wird, zulässig ist. Das arithmetische Mittel, also die durch ihre Anzahl dividierte Summe aller Werte, ist nur dann sinnvoll (zulässig), wenn sie einer definierten Verteilung unterliegen. Dazu werden die Tagesmitteltemperaturen in Größenklassen unterteilt und als Histogramm dargestellt:

Abb.  6

Wenn die Flächen der Klassen annähernd die Fläche unter der Kurve, die einer Normalverteilung nach Gauss entspricht, ausfüllen, kann die Grundgesamtheit als normalverteilt betrachtet werden (Abb.6). Dies zu entscheiden gibt es statistische Testverfahren, die in der Wissenschaft routinemäßig am Beginn einer statistischen Auswertung stehen. Für die gezeigten Tagesmittelwerte ist die Bildung  eines arithmetischen Mittels demnach zulässig. Hätte der Test das Vorliegen einer normalverteilten Grundgesamtheit abgelehnt, wäre der Median zur Beschreibung der Monatsmitteltemperatur sinnvoll (erlaubt) und ein besserer Repräsentant für den Monatsmittelwert. Aus der aufsteigend angeordneten Einzelwerten wird der Wert bei der halben Anzahl ausgewählt und als Median bezeichnet.

Genau dieser Fall tritt für die Oktober-Temperaturen 2011 ein.

In Abb. 7 sind die Verteilungen der Einzelwerte als schwarze Punkte als sogenannte  Jitterplots dargestellt. -Die Februarwerte streuen symmetrisch um das blau eingezeichnete arithmetische Mittel herum, während die Oktoberwerte unsymmetrisch mit einer Tendenz zu höheren Temperaturen um das das arithmetische Mittel verteilt sind.

Abb.  7

Von diesem weicht der Median deutlich ab, da er sich an der Lage der meisten Einzelwerte orientiert.  Die Kästchen über und unter dem Median repräsentieren die Lage von jeweils 25% der Einzelwerte (25% Quantile) und sind für den Oktober 2011 sehr unterschiedlich, während sie für den Februar fast gleich groß ausfallen. Auch sind die Werte für Median und arithmetisches Mittel fast identisch. Dies ergibt sich bei normalverteilten Grundgesamtheiten, bei denen zusätzlich  Kenngrößen für die Streuung berechnet werden können.

Die rot eingezeichneten Vertrauensbereiche (Konfidenzintervalle) weisen aus, dass der zutreffende Mittelwert  unter Berücksichtigung  der Verteilung der Einzelwerte  mit einer Wahrscheinlichkeit von 95% (95% Konfidenzniveau) in diesem Bereich liegt.

Abb.  8

Da jede Mittelwertbildung eine Schätzung darstellt, ist ihr eine von der Anzahl der Einzelwerte und deren Verteilung (eben der Grundgesamtheit) abhängiges Streuungsmaß sozusagen aufgeprägt.                                                        

Dies erlaubt die Anwendung von Signifikanztests, mittels derer  zum Beispiel für ein vorgegebenes Konfidenzniveau entschieden werden kann, ob sich Mittelwerte signifikant voneinander unterscheiden. Für normalverteilte Grundgesamtheiten  werden dabei andere Tests (Varianzanalyse) als für beliebige (nicht parametrische) Verteilungen angewandt, z. B. der Kruskal-Wallis Test.

Für den Vergleich der Februar-Mitteltemperaturen von 2001 bis 2011 der DWD Station Braunschweig (Abb. 8) können die arithmetischen Mittel der Tagesmittelwerte verglichen werden, da für jedes Jahr eine Normalverteilung vorliegt. Die darauf angewandte Varianzanalyse kommt zu dem Ergebnis, dass sich die Mittelwerte insgesamt auf einem Konfidenzniveau von 95% unterscheiden.

Um Jahresmittelwerte zu bilden, kann man die Tagesmittelwerte direkt verrechnen oder nach Bildung von Monats-mitteln,  diese zur Mittelwertbildung verwenden. 

Abb.  9

Da für die DWD Station Braunschweig die Jahresverteilungen der Tagesmittel die Normalitätskriterien nicht erfüllen, müssen die Mediane benutzt werden (Abb. 9).

Zur Entscheidung, ob sich die Jahres-Mediane signifikant voneinander unterscheiden, wird der Kruskal-Wallis Test angewandt, der zu dem Ergebnis gelangt, dass insgesamt kein signifikanter Unterschied zwischen ihnen vorliegt.

In der Praxis weren jedoch die Jahresmittelwerte aus den Monatsmittelwerten gebildet, wobei einfach vorausgesetzt wird, dass die Tageswerte der Monate jeweils normalverteilt sind. Das trifft auch meistens zu, da Mittelwerte,  auch wenn sie aus nicht normalverteilten Grundgesamtheiten gebildet  werden, tendenziell dazu neigen, eine Normalverteilung  anzunehmen.

Abb.  10

Die Streungsmaße der Monatsmittel werden in den öffentlich zugänglichen Datensätzen nicht weiter berücksichtigt, was jedoch aufgrund der Fehlerfortpflanzungsregeln nach Gauss geboten ist.                                       

Somit stehen nur solch Streuungsparameter,  die sich bei der Bildung von Jahresmittelwerten aus den veröffentlichten Monatswerten ergeben, für Signifikanztests zur Verfügung.

 In die Berechnung von Konfidenzintervallen geht die Anzahl der Einzelwerte als Divisor ein. Daher  fallen sie für Jahresmittelwerte relativ groß aus, da diese jeweils nur aus 12 Werten (Monaten) gebildet werden (Abb. 10).  Die Varianzanalyse sagt aus, dass sich die Jahresmittelwerte nicht signifikant voneinander unterscheiden und gelangt damit zum gleichen Ergebnis wie der vorige Vergleich der Mediane aus Tagesmittelwerten geführt.

Abb.  11

Im nächsten Schritt, werden aus den Monatsmitteln einzelner Stationen Gebietsmittel gebildet. Der Deutsche Wetterdienst berücksichtigt z. Zt.  264 Stationen, die zur Berechnung einer für Deutschland relevanten Mitteltemperatur herangezogen werden. Die Monatswerte sind normalverteilt, so dass die Jahresmittelwerte durch arithmetische Mittel und ihre Konfidenzintervalle repräsentiert werden können. Eine Varianzanalyse weist keine signifikanten Unterschiede zwischen den Jahresmittelwerten seit 1960 aus (Abb. 11).                                                                                 

Dennoch läßt sich ein Trend berechnen, der durch eine Steigung von 0,03 ± 0,006 °C/Jahr  der Regressionsgeraden charakterisiert  wird, für die mit einem Bestimmtheitsmaß  von R2 = 0,33 eine beträchtliche  Unsicherheit besteht.

 

Tab. 1

Nach Angaben des Global Historical Climatology Network (GHCN), bei dem die Temperaturen der weltweit verteilten Stationen gesammelt werden, wurden 2011 zur Ermittlung der globalen mittleren Landtemperatur die Daten von 2644 Stationen berücksichtigt. Anzahl und Verteilung ist der Tabelle 1 zu entnehmen. Wie schon aus der oben gezeigten Karte hervorging, sind die Stationen nicht homogen über die Landfläche verteilt.                                                                                                

Temperatur – Zeit – Reihen werden im Wesentlichen von 3 von Institutionen mit unterschiedlichen Gewichtungen der Werte erstellt und publiziert.

 

Laure M. Montandon et al. haben die unterschiedliche  Berücksichtigung der vom GHCN nach Oberflächentypen differenzierten Landstationen tabelliert (Tab. 2).  Auffällig sind die hohen Anteile der urbanen Stationen. 

In jüngster Zeit haben Überarbeitungen der Zeitreihen dazu geführt, dass sich die Ergebnisse weitestgehend angenähert haben. Dies gilt auch für die beiden Reihen, in denen die Messungen des TIROS-N Satelliten auswertet werden.                  

 

Tab. 2 

Diese Daten basieren auf der Reflexion von ausgesandten Mikrowellensignalen und liefern relative Werte, die mithilfe der  landgestützten Auswertungen kalibriert werden müssen, um sie in Temperaturwerte umrechnen zu können.

 

Abb. 12 stellt die Zeitreihe der globalen monatlichen Mitteltemperaturen dar, wie sie vom NCDC (National Climate Data Center) bereitgestellt wird. Es sei darauf hingewiesen, dass keine Streuungsmaße mitgeteilt werden und daher auch nicht eingezeichnet sind.

Die die Regressionsgerade weist eine  Steigung von 0,022 mit einem Konfidenzintervall von ± 0,01 °C/Jahr auf und hat ein äusserst geringes Bestimmtheitsmaß  von R2 = 0,006 so dass der Trend als sehr unsicher angesehen werden muss.  

In Abb. 13 sind die Temperaturanomalien, bezogen auf die Referenzperiode von 1960 bis 1990, zu sehen. 

Auch hier fehlen Streuungsmaße, die aufgrund der Subtraktion der Mittelwerte der Referenz-Monatsmittemittel von den jeweiligen monatlichen Mittelwerten nach dem Fehlerfortpflanzungsgesetz sehr beträchtlich ausfallen.

Da diese nicht berücksichtigt werden, d. h. weniger Information über die Ausgangsdaten für weitere Berechnungen vorliegt, erhält man mit R2 = 0,5 nur ein scheinbar größeres Bestimmtheitsmass für die Regressionsgerade.

Ihre Steigung unterscheidet sich mit  0,022 ± 0,001 ebenfalls nur durch ein augenscheinlich um den Faktor 10 verringertes Konfidenzintervall von der obigen.

Da die Erdoberfläche nur zu angenähert einem knappen Drittel (29 %) aus Land, zu gut zwei Ditteln (71%) aber aus Ozeanen besteht, erscheint es sinnvoll, deren Temperaturen zur Berechnung einer Global-Mitteltemperatur einzubeziehen. Früher wurde dazu eine Wasserprobe mit einem Schöpfeimer (Pütz oder Bucket) genommen und die Temperatur des Wassers darin gemessen. Deren Schöpftiefe sollte 1 m betragen. Das wurde aber aus praktischen Gründen selten eingehalten. Man kann unterstellen, dass sie je nach Geschwindigkeit des Schiffes und Sorgfalt der beauftragten Person, diese irgendwo zwischen wenigen Zentimetern und max 1 bis 1,5 m lag. Heute wird die Wassertemperatur im Kühlwassereintritt der Schiffe in 3m bis 15 m Tiefe bestimmt. Stationäre Bojen messen die Wassertemperatur in 2m Tiefe (nach Mitteilungen von M. Limburg). 

Die solchermaßen gewonnenen Wassertemperaturen werden als SST (Sea Surface Temperatures) bezeichnet.

In Abb. 14  sind die NCDC Zeitreihen für die SST Monatsmittel-Temperaturen und Anomalien abgebildet:

Abb.  14

Die Steigungen der Regressionsgeraden sind mit 0,009 ± 0,001 und 0,01 ± 0,0002 nahezu identisch. Für die Anomalien ergibt sich ein R2 = 0,7, das aber auf dem Hintergrund fehlender Fehlerfortpflanzung kritisch zu betrachten ist. 

Die Kombination von Land- und Ozeanberflächentemperaturen wird in Abb. 15 gezeigt:

Abb.  15

Die  Steigungen der Regressionsgeraden fallen mit 0,013 ± 0,004 bzw. 0,013 ± 0,0004  auch hier praktisch gleich aus. Das Bestimmtheitsmaß ist mit R2 = 0,7 für die Mittelwert-Anomalien größer als für die Mitteltemperaturen mit  R2 = 0,02.           

Zwar ist es bemerkenswert, dass die Steigung für die Landwerte rund doppelt so hoch wie für SST und Land + SST Werte,  jedoch sollte immer bedacht werden,  dass die Bestimmtheitsmaße recht gering sind,  bzw. für die Anomalien wegen der nicht berücksichtigten Fehlerfortpflanzung nur gesteigert erscheinen.

Werden aus den Monatsmittelwerten Jahresmittel gebildet und die Signifikanzintervalle berechnet und dargestellt, ergibt sich die Abb. 16  für Landtemperaturen der NCDC Reihe.              

Abb.  16

Für die normalverteilten Werte der globalen Monatsmittel ergibt eine Varianzanalyse, dass sich zwischen den arithmetischen Jahresmitteln keine signifikanten Unterschiede nachweisen lassen.

Hierbei wird deutlich, dass bei der üblichen Darstellung von Temperaturreihen als Anomalien ohne Angabe von Streuungsparametern  wichtige Informationen unterdrückt werden und dadurch ungesicherten Spekulationen über Temperaturunterschiede und -trends  Vorschub geleistet wird.

Die Angabe einer globalen Mitteltemperatur bzw. der Veränderung einer globalen Mittelwertanomalie   (z. B. um 2°C gegenüber einem definierten Zeitpunkt) ist daher unter Beachtung statistischer Gesetzmäßigkeiten,  ohne Angabe von Konfindenzintervallen  als sinnlos zu betrachten.

Autor: PD Dr. habil Dr. Eckhard Schulze  < eckhard.schulze@gmx.org >

Quellen:

zu Tab. 1                 http://fzuber.bplaced.net/NOAA-GHCN-Stations-E.pdf

zu Tab. 2                 Laure M. Montandon et al.  Earth Interactions Volume  15 (2011)  Paper No. 6

zu Abb.1                 http://cdiac.ornl.gov/trends/temp/hansen/graphics/gl_land.gif

zu Abb.2                 http://data.giss.nasa.gov/gistemp/station_data/

zu Abb.3                  http://www.osdpd.noaa.gov/ml/mspps/surftprd.html

zu Abb.4                  http://imk-msa.fzk.de/Wettervorhersage/images/Huette.jpg

zu Abb. 5 bis 10      avacon.com/cms/ContentFiles/Internet/Downloads/Netze_SN_unterbrVerbrauchseinr_Tagesmitteltemp_2012.xls

zu Abb.11                http://www.dwd.de/bvbw/generator/DWDWWW/Content/Oeffentlichkeit/KU/KU2/KU21/klimadaten/german/download__gebietsmittel__temp,templateId=raw,property=publicationFile.xls/download_gebietsmittel_temp.xls

zu Abb.12  u. 13      http://junksciencearchive.com/MSU_Temps/NCDCabsLand.csv  bzw. http://junksciencearchive.com/MSU_Temps/NCDCanomLand.csv

zu Abb.14 a u.b       http://junksciencearchive.com/MSU_Temps/NCDCabsOcean.csv  bzw. http://junksciencearchive.com/MSU_Temps/NCDCanomOcean.csv                    

zu Abb.15 a u. b      http://junksciencearchive.com/MSU_Temps/NCDCabs.csv bzw. http://junksciencearchive.com/MSU Temps/NCDCanom.csv

Der gesamte Text kann als pdf im Anhang herunter geladen werden

Related Files




Meerestemperatur auf tausendstel Grad bestimmt? Ein Ozean übermäßigen Vertrauens!

Bild rechts: Aus Levitus 2012. Der obere Graph zeigt die Änderungen des Wärmegehalts der Ozeane mit der Einheit 1022 Joules. Die unteren Graphen zeigen die Datenmenge.

Nun gibt es in dieser Graphik einige Merkwürdigkeiten. Zum Einen fangen die Daten im Jahr 1957,5 an, vermutlich weil der Wert eines jeden Jahres tatsächlich der zentrale Wert eines fünf-Jahres-Mittels ist… Was mich allein schon nervös macht, sehr nervös. Warum zeigt man nicht die tatsächlichen jährlichen Daten? Was versteckt sich hinter den Mittelwerten?

Am interessantesten für mich sind jedoch die Fehlerbalken. Um die Angaben zum Wärmegehalt zu ermitteln, messen sie tatsächlich die Wassertemperatur. Dann übertragen sie dessen Änderungen in Änderungen des Wärmegehaltes. Um also die zugrunde liegenden Messungen zu verstehen, habe ich den Graph aus der Abbildung oben rechts, der den Wärmegehalt in den Ozeanen in einer Tiefe von 0 bis 2000 m zeigt, in Einheiten der Temperatur zurück übertragen. Das Ergebnis hiervon zeigt die folgende Abbildung:

Verlauf der Anomalie des ozeanischen Wäörmegehaltes von 0 bis 2000 m aus dem Bild oben rechts mit Einheiten konvertiert zu Grad Celsius. Man beachte, dass die Gesamtänderung während der ganzen Periode 0,09°C beträgt, was mit der in ihrer Studie genannten Gesamtänderung überein stimmt.

Das Problem, das ich mit dieser Graphik habe, ist Folgendes: Es wird behauptet, dass wir die Temperatur der oberen zwei Kilometer des Ozeans von 1955 bis 1960 mit einem Fehler von plus/minus eineinhalb Hundertstel Grad Celsius kennen…

Es wird auch behauptet, dass wir gegenwärtig die Temperatur der oberen 2 Kilometer der globalen Ozeane, einer Wassermenge von 673.423.330.000.000.000 Tonnen (673 Quadrillionen Tonnen), mit einem Fehler von plus/minus zwei Tausendstel Grad Celsius kennen…

Tut mir leid, aber das nehme ich ihnen nicht ab. Ich weiß nicht, wie sie ihre Fehlerbalken berechnen, aber das ist einfach unmöglich. Man frage irgendeinen Prozessingenieur. Wenn man etwas so Geringes wie einen Swimmingpool mit Olympia-Ausmaßen voller Wasser bis auf zwei Tausendstel Grad genau messen will, braucht man eine ganze Handvoll Thermometer. Lediglich ein oder zwei wären dafür viel zu wenig. Und die oberen zwei Kilometer der globalen Ozeane sind unvorstellbar viel, mit einem Volumen von 260.700.000.000.000 Schwimmbecken mit Olympia-Ausmaßen…

Ich weiß also nicht, woher sie ihre Fehlerangaben haben… aber ich gehe jede Wette ein, dass sie die Fehler in ihren Berechnungen weit unterschätzt haben.

Willis Eschenbach

PS – eine letzte Merkwürdigkeit. Sollte die Erwärmung der Ozeane durch zunehmendes CO2 getrieben sein und die Zunahme der Oberflächentemperatur den Behauptungen der Autoren entsprechen, warum haben sich dann die Ozeane von 1978 bis 1990 nicht im Mindesten erwärmt, obwohl doch der CO2-Gehalt angestiegen ist und die Lufttemperatur zugenommen hat?

PPS – Bonus-Frage. Nehmen wir an, wir haben ein Olympia-Schwimmbecken und ein perfekt genaues Thermometer an einer Stelle im Becken. Nehmen wir weiter an, dass wir eine Messung pro Tag vornehmen. Wie lange muss man dann eine Messung pro Tag vornehmen, bis man die Temperatur des gesamten, mit Wasser gefüllten Schwimmbeckens auf zwei tausendstel Grad Celsius kennt?

Link: http://wattsupwiththat.com/2012/04/23/an-ocean-of-overconfidence/#more-61861

Übersetzt von Chris Frey EIKE




In eigener Sache: EIKE wird Gemeinnützigkeit bescheinigt!

"Das zuständige Finanzamt hat unserem Institut bescheinigt, dass es ausschliesslich und unmittelbar gemeinnützigen Zwecken im Sinne der §§ 51 ff. der AO dient und zu den in § 5 Abs. 1 Nr. 9 KStG bezeichneten Körperschaften, Personenvereinigungen und Vermögensmassen gehört. Unser Institut ist daher berechtigt, für Spenden, die satzungsgemäß Wissenschaft, Forschung und Bildung zugute kommen, Zuwendungsbescheinigungen auszustellen, wodurch solche Zuwendungen in der Steuererklärung des Zuwendenden geltend gemacht werden können (steuerliche Abziehbarkeit)."

Wie der eine oder an andere Spender schon erkennen konnte, haben wir unsere Bank samt Kontonummer nur als etwas verknittertes Bild auf unserer Impressumseite hinterlegt. Der Grund dafür, sie nicht mehr als einfach per copy & paste übernehmbare Zeichen/Ziffernfolge anzugeben, lag in vielfachen, räuberischen Abbuchungsversuchen von Webkriminellen. Wir haben deshalb Anzeige gegen Unbekannt erstattet.  

Falls Sie also jetzt spenden möchten, tun Sie das wie bisher bitte über den PayPal Spendenknopf (oben rechts) oder per Überweisung auf diese Kontonummer. Spenden in jeder Höhe – auch ganz kleine- sind sehr willkommen.

Wir danken unseren bisherigen Spendern, dass sie uns bisher auch ohne diese steuerliche Erleichterung, Spenden haben zukommen lassen und freuen uns auf neue Spenden, diesmal mit steuerlicher Unterstützung.

Michael Limburg

Vizepräsident EIKE




Teil 2: IV Internationale Klima & Energiekonferenz (4. IKEK) in München: Vortragsvideos

Der Einfluss kosmischer Strahlung auf das Klima – Neuste Erkenntnisse und deren Bedeutung für das Verständnis des Klimawandels

Prof. Dr. Nir Shaviv
Racah Institute of Physics – The Hebrew University of Jerusalem  

Klima, Wasser, CO2 und die Sonne

Prof. Dr. Jan Veizer

Department of Earth Sciences, University of Ottawa 

Die klimatische Rolle der Sonne und der kosmischen Strahlung

Prof. Dr. Henrik Svensmark

Centre for Sun-Climate Research des Danish National Space Centre 

Reale Temperaturmessungen vs. Klima-Alarmismus

Prof. em. Dr. Horst-Joachim Lüdecke Pressesprecher EIKE

Hochschule für Technik und Wirtschaft des Saarlandes

Dipl. Meteorologe Klaus-Eckart Puls stv. Pressesprecher EIKE

stv. Pressesprecher EIKE

Wie akkurate und langfristige Wettervorhersagen möglich sind

Piers Corbyn Weather Action, London

Zum ersten Block der Vorträge geht es hier.




Teil 1: IV Internationale Klima & Energiekonferenz (4. IKEK) in München: Vortragsvideos

Vom Umgang mit der Wahrheit bei Forschern und Projektentwicklern

Den Auftakt bildete Frau Dona Laframbose, die die vermeintlichen weltweit besten Experten des IPCC untersuchte und Ihre Ergebnisse vortrug.

IPCC – Warum fast nichts, was Sie über das IPCC wissen, wahr ist

Donna Laframboise 

 Die kanadische Enthüllungsjournalistin Donna Lafromboise Autorin des Buches "The delinquent Teenager" (Der kriminelle Teenager) über die Qualifikation vieler der vermeintlich Weltbesten Klimawissenschaftler des IPCC (Durch den Schaltknopf cc auf dem Youtube Video kann man – wenn auch bei weitem nicht perfekt- eine Lautumschreibung in der gewünschten Sprache als Untertitel wählen) 

Spuren verwischen: Der “Weltklimarat” IPCC und sein Verständnis von Transparenz

Dr. Christopher C. Horner

Center for Energy and Environment – Competitive Enterprise Institute, Washington, DC 

Green Economy: Die neuesten Formen des Vetternwirtschafts-Kapitalismus

Dr. Christopher C. Horner

Center for Energy and Environment – Competitive Enterprise Institute, Washington, DC 

Climategate – Die Geschichte einer Vertuschung

Andrew Montfort

Klimawandel zwischen Modellen, Statistik und Ersatzreligion

Prof. Dr. Werner Kirstein

Institut für Geographie, Universität Leipzig 

 5. Klimapolitik – eine Gefahr für die Freiheit Prof. Dr. Gerd Habermann

Universität Potsdam, Hayek Society Germany

 Die weiteren Vorträge werden in den nächsten Tagen veröffentlicht.




Die weltweite Abkühlung geht weiter! März 2012 weltweit kühler als normal!

[NCAR = National Center for Atmospheric Research = Amerikanisches Forschungszentrum für die Atmosphäre und deren Zusammenwirken mit der Sonne. A. d. Übers.]

Tatsächlich gab es nicht nur eine Dekade ohne Erwärmung, sondern wirklich keine statistisch signifikanten Änderungen ereigneten sich global seit 17 Jahren, ein scharfer Kontrast zu den Projektionen des IPCC. Man erinnere sich, kein anderer als Ben Santer von der LLL [Lawrence Livermore Lab] hat gesagt, dass zur Falsifizierung von AGW nicht ein paar Jahre, nicht einmal eine ganze Dekade, sondern 17 Jahre ohne Erwärmung auftreten müssten. Selbst mit den massiven und immer noch anhaltenden, durch Klimagate bekannt gewordenen Manipulationen der Daten, um eine fälschliche Erwärmung zu suggerieren, haben die Daten von der Site, die der Autor verwendet (Wood for Trees) genau das getan – sie haben die vom Menschen verursachte globale Erwärmung falsifiziert. Die 17 Jahre begannen während einer Kaltphase und endeten in einer Kaltphase, unterbrochen von drei El Nino-Spitzen. Sie endeten um 0,3°C kälter als sie begonnen hatten.

Das von Yulsman abgespulte Garn hat Steve Goddard so kommentiert: „Ich frage mich, warum er vergessen hat zu erwähnen, dass die Temperaturen in seiner Heimatstadt (Boulder, CO) seit den dreißiger Jahren zurück gegangen sind!“

Joe Bastardi antwortete ebenso sehr detailliert:

Was ist bloß so mysteriös an der Änderung des pazifischen Ozeanzyklus’ zur Kaltphase vor drei Jahren und die globale Reaktion darauf:


Quelle

Lügt also der Satellit? Lassen Sie mich jetzt Folgendes fragen. Wenn dies globale Erwärmung ist, warum liegt die globale Temperatur im März unter den Normalwerten?

 Quelle

Die Temperaturverteilung oben zeigt in rot die Hitzewelle in den USA im März – und warum liegt die Temperatur seit Jahresbeginn unter den Normalwerten? (Siehe das globale Mittel oben rechts)


Quelle

Wenn man in Asien wäre, würde man die globale Erwärmung anpreisen?

Okay, schauen wir mal… hinsichtlich der Korrelation zwischen den Temperaturen und den ozeanischen Zyklen kamen wir gerade aus der Warmphase der PDO und treten in den Zyklus der sechziger und siebziger Jahre ein.


Quelle


Vergrößerung
Sehen Sie den Kontrast zwischen dem CO2-Verlauf und der Temperatur, die zunächst flach verläuft und jetzt zurückgeht.


Quelle

Wo ist der Hotspot des IPCC, von dem es angenommen hat, dass er eine Rückkopplung der explosiven Erwärmung sei? Informieren Sie sich selbst, lassen Sie sich nicht wie eine Hammelherde vorführen! Lesen Sie DIES [von 2008, aber immer noch aktuell! A. d. Übers.].

Schließlich noch die drei Szenarien des IPCC im Vergleich mit der aktuellen Temperatur. Sie liegt unter der mittleren Kurve, unter der unteren Kurve und zeigt in die entgegen gesetzte Richtung.


Eine weitere Quelle.

Wie um alles in der Welt kann man das also als Rosinenpickerei bezeichnen, wenn es sich perfekt in die Theorie von den Ozeanzyklen einfügt, die besagt, dass sich die Ozeane [derzeit] abkühlen, gefolgt von der Luft über den Ozeanen (sehr ähnlich einem Thermostat, der in der Wohnung herunter gedreht wird, wonach sich zunächst die Luft abkühlt). DANN KÜHLEN SICH DIE UNTERSTEN SCHICHTEN AB. Dies stimmt genau mit Vorhersagen überein, die Bill Gray vor Jahren abgegeben hat, und wenn man ihm nahe steht, warum fragt man ihn nicht selbst? Meine Vorhersage von vor 4 Jahren erhalte ich aufrecht, nämlich dass die Abkühlung beginnen würde (das war der Fall, wie man den gemessenen objektiven Daten entnehmen kann), und dass wir bis 2030 auf dem Niveau der späten siebziger Jahre angelangt sein werden, ALS DIE KALTPHASE IM PAZIFIK ZU ENDE GEGANGEN WAR. Man schaue selbst nach den PDO-Werten oben.

Objektive Temperaturmessungen via Satellit begannen im Jahr 1978, DEM ENDE DES KALTZYKLUS’. Was glauben Sie passiert global, wenn sich die Weltenergiequelle Nr. 1, der tropische Pazifik, erwärmt? Und wenn sich der Atlantik ebenfalls erwärmt bedeutet das, dass die globale Temperatur steigt, da Wärme ein Maß für Energie ist. Die Kontinente erwärmen sich und dadurch wiederum dann auch die Arktis. Allerdings findet gegenwärtig die Wende zu einer gegensätzlichen Entwicklung statt. Es ist ein Gefühl, dass der Rückgang beginnt, und er tut es tatsächlich. Es gibt keinen Kipp-Punkt, die Panikvorhersage des IPCC zerplatzt und wir verursachen unsägliches Leid, indem wir den Lebensnerv unserer Ökonomie einem Geist opfern, der sich nachgewiesenermaßen als Betrug herausstellen wird.

Der Gedanke, dass es eine gut geölte Maschine gibt, ist Unsinn. Ich verlange von niemandem, mir zu vertrauen, aber nehmen Sie sich eine Stunde Zeit, um die andere Seite des Ganzen zu lesen, dann werden Sie verstehen, dass Leute, die dies vorantreiben, von Ihnen verlangen, dass Sie ihnen glauben. Nein, CO2 ist es nicht. Die Sonne, die Ozeane und bis zu einem gewissen Grad auch vulkanische Aktivitäten überkompensieren bei Weitem ein „Treibhausgas“, das 400 mal GERINGER KONZENTRIERT in der Atmosphäre vorkommt als das Treibhausgas Nr. 1, Wasserdampf. Der CO2-Gehalt in der Atmosphäre beträgt lediglich 0,04%, hat ein höheres spezifisches Gewicht als Luft (1,5 bis 1,0), erwärmt sich schneller und KÜHLT SICH SCHNELLER AB als Luft und hat verschiedene Strahlungseigenschaften. Verstehen Sie jetzt, wie gering die Wahrscheinlichkeit ist, dass dieses Spurengas etwas mit dem Klima zu tun hat? Und das Geschrei sowie Hohn und Spott werden sich erheben, denn mit der Änderung der ozeanischen und selbst der solaren Zyklen hat die große Entkoppelung bereits begonnen, die zeigt, dass die Beziehung von CO2 zur Temperatur zufällig ist. Da wir nicht einmal annähernd in der Nähe eines Kipp-Punktes liegen und es an Orten, denen das IPCC eine besonders starke Erwärmung prophezeit hat, zu REKORD-KÄLTEWELLEN gekommen war, ist alles, was wir tun müssen, die Daten zu verfolgen, OHNE ANPASSUNG, nur die reinen Satellitendaten, die ich oben gezeigt habe und die man jeden Tag beobachten kann.

Schaut man voraus, ergibt sich, dass die Temperatur für einige Zeit während der nächsten 3 Monate wieder bis zu den Normalwerten STEIGEN wird, aber der Rückgang wird wieder einsetzen und erkennbar sein, wenn wir uns diese Darstellung im nächsten Jahr wieder ansehen.

Quelle

Es wird zu einer größeren negativen Spitze kommen als dieses Jahr.

Das ist der Unterschied zwischen mir und diesen Leuten, die diese Angelegenheit voran treiben. Ich werde eine Vorhersage abgeben, von der Sie selbst sehen können, ob sie richtig oder falsch ist, zumindest während eines bestimmten Zeitraumes. Ich werde Sie auffordern, das selbst zu lesen und meine Gedanken zu testen. Ich werde Sie nicht einfach nur auffordern, dem IPCC wie eine Hammelherde zu folgen und seinen düsteren Prognosen für viele Jahrzehnte im Voraus zu vertrauen, nach denen es viele von uns nicht mehr geben wird. Es ist Ihr Leben, Ihr Land. Betrachten Sie das ganze zumindest von allen Seiten, bevor sie blind unterstützen, was die großzügig von der Regierung finanzierte Warmistenlobby Ihnen einreden will.

Joe Bastardi Meteorologe The Weather Bell

Link: www.icecap.us vom 25. März 2012.

Übersetzt von Chris Frey




Postmoderne Wissenschaft und die wissenschaftliche Legitimität des Entwurfs der Arbeitsgruppe 1 zum 5. Zustandsbericht des IPCC

Das IPCC vermutet, dass die anthropogene globale Erwärmung (AGW) stattfindet und dass sie durch die Akkumulation menschlichen CO2-Ausstoßes verursacht wird. Bis heute jedoch wurden kein handfester wissenschaftlicher Beweis, ja nicht einmal starke empirische Hinweise für diesen Effekt präsentiert, weshalb dieser Effekt ein Objekt der Spekulation bleibt. Dennoch haben Reaktionen gebildeter Gesellschaften und von Regierungsagenturen auf die IPCC-Berichte bisher die Meinung weit verbreitet, dass diese globale Erwärmung gefährlich (DAGW) sein könnte und dass Maßnahmen ergriffen werden sollten, den Eintrag menschlichen CO2 in die Atmosphäre zu begrenzen.

Dieses Arbeitspapier analysiert vor allem die politischen Maßnahmen, die Verfahren und die Philosophie der Wissenschaftler und der Regierungsfunktionäre des IPCC im Licht der traditionellen wissenschaftlichen Prinzipien.

Es konzentriert sich auf:

  • die generelle Darbietung der IPCC-Berichte mit ihrer Terminologie zur Wahrscheinlichkeit, selbsternanntes Expertenwissen und die Nichtbeachtung alternativer, unabhängiger Standpunkte
  • – aktuelle fragwürdige Praktiken der Klimamodellierung
  • – vernachlässigte (fast vergessene) Einsichten aus der klassischen Klimatologie
  • – die fehlende Aufmerksamkeit wichtiger neuer Ergebnisse der Naturwissenschaften, die in der Klimaforschung anzuwenden erwartet wird, wie z. B. die Komplexitätstheorie
  • – die fragwürdige Qualität gegenwärtiger Studien der Literatur.

Es wird gefordert, dass Studien der Zustandsberichte durch individuelle Nationen durchgeführt werden, weitgehend unabhängig vom IPCC, wie Indien es bereits angekündigt hat. Diese Begutachtungen werden am Besten von erfahrenen und etablierten Wissenschaftlern durchgeführt, deren Reputation in traditionellen Disziplinen zur Untermauerung der Klimawissenschaft liegt, besonders Physik, Chemie, Geologie, Astronomie, Sonnenphysik und Meteorologie. Die Verfahren sollten strikt den traditionellen Prinzipien der Wissenschaft folgen und sich auf die wissenschaftliche Methodik und empirische Beweise hinsichtlich der hypothetischen DAGW konzentrieren.

Einführung

Viele hundert Leitautoren, beitragende Autoren und Begutachter haben am jüngsten Zustandsbericht der begutachteten Literatur zur Klimaänderung des IPCC mitgearbeitet. Der Entwurf für den 5. Zustandsbericht der Arbeitsgruppe 1 (WG 1 AR 5)ist eine eindrucksvolle Zusammenfassung und Aufstellung von in wissenschaftlichen Journalen veröffentlichten Studien bis 2011, einschließlich einiger, die auf Beobachtungen in der Realität basieren, zusammen mit einer Diskussion der möglichen Interpretationen dieser Literatur hinsichtlich der DAGW-Hypothese. Auf den ersten Blick kann man den Eindruck gewinnen, dass hier das ‚vollständige Werk’ der wissenschaftlichen Gemeinschaft weltweit sowie eine umfassende Zusammenfassung der gegenwärtigen Forschungsliteratur präsentiert wird. Jedoch:

  • Die vorherrschende Hypothese lautet, dass DAGW stattfindet. Diese Hypothese wird seit vielen Jahren durch zahlreiche unabhängige Wissenschaftler in Frage gestellt. Diese Wissenschaftler wurden nicht eingeladen, an der Vorbereitung des 5. Zustandsberichtes teilzunehmen.

  • Die zitierte wissenschaftliche Literatur im Entwurf des 5. Zustandsberichtes ist selektiv, und zwar zugunsten von Studien die die DAGW-Hypothese stützen, und selbst diese wurden selektiv analysiert, um zum gleichen Ergebnis zu kommen (3)

Diese beiden zugrunde liegenden Verzerrungen geben den Ton an, den die Autoren des AR 5 vermitteln möchten. Deren Botschaft lautet, dass die gegenwärtigen Manifestationen der Klimaänderung Vorboten einer bisher nicht da gewesenen und bedrohlichen globalen Erwärmung seien, hervorgerufen durch die anthropogenen Emissionen von CO2, das sich in der Atmosphäre ansammelt. Allerdings bleibt dies trotz der endlosen Wiederholungen seitens der Befürworter eine unbewiesene Hypothese, mit der viele Wissenschaftler aufgrund ihres Wissens um widersprechende empirische Beweise nicht übereinstimmen. Die DAGW-Hypothese basiert auf der unbestrittenen physikalischen Tatsache, dass CO2 infrarote Strahlung (IR) absorbiert und emittiert. Die meisten Kritiker der DAGW-Hypothese bezweifeln jedoch, ob die gemessenen und projizierten Änderungen der CO2-Konzentration signifikante Auswirkungen auf das komplexe Klimasystem haben, wie es die DAGW-Befürworter propagieren. In diesem Zusammenhang betonen die Kritiker eine Anzahl von Beobachtungen, die der AGW-Hypothese direkt widersprechen. Aber die Erwähnung dieser Phänomene fehlt auffallend in früheren Berichten der Arbeitsgruppe 1 (WG 1) und auch im Entwurf zu AR 5.

Viele Details wissenschaftlicher Beweise, die nicht mit der IPCC-Agenda konform gehen, sowie zahlreiche relevante Diskussionen finden sich in den Berichten des NIPCC ebenso wie auf zahlreichen wissenschaftlichen Blogs. Beispiele angezweifelter IPCC-Wissenschaft sind dessen Überinterpretation instrumentell gemessener Temperaturtrends, das Scheitern an Klimaänderungen in geologischen Zeiträumen, die Missachtung von Eisveränderungen im Verhältnis von Arktis und Antarktis (d. h. global im Gegensatz zur Betrachtung des arktischen Eises allein), das Scheitern des IPCC, auch nur ansatzweise einen Beweis für eine Beschleunigung des Meeresspiegelanstiegs zu erbringen sowie die überaus verengte und spekulative Interpretation der Veränderungen von Lebensräumen bestimmter Spezies durch die globale Erwärmung.

Im Anhang A werden diese Punkte noch etwas detaillierter erläutert, aber mehr noch als diese und andere Zweifel an der DAGW-Hypothese wieder aufzunehmen wird sich diese Studie stattdessen auf die wissenschaftliche Methodik konzentrieren und darauf, was essentiell im Entwurf des AR 5 fehlt sowie auf die bei der Vorbereitung angewandte Philosophie. Die Schlussfolgerung, die von der wissenschaftlichen Gemeinschaft im Ganzen ebenso wie von den politischen Entscheidungsträgern beachtet werden, müsste lauten, dass der Entwurf zum AR 5 des IPCC unzureichende Objektivität aufweist und dass die für die Basis politischer Entscheidungen unabdingbare ‚traditionelle’ wissenschaftliche Ausgewogenheit fehlt. Bedauerlicherweise enthält der Bericht viele Vorgehensweisen einer ‚postmodernen’ Annäherung an die Wissenschaft, wobei die Regeln der Logik nur im Zusammenhang mit den gewählten kulturellen Paradigmen einer vorgegebenen Denkschablone gelten.

Einige charakteristische Besonderheiten des IPCC-Entwurfs

CO2 als wesentlicher Treiber für steigende Temperatur

Alle vierzehn Kapitel des IPC-Berichtes gehen von der Annahme aus, dass das CO2 ein dominanter Treiber der globalen Temperatur ist. In manchen Kapiteln wird sogar behauptet, dass es inzwischen zunehmende Beweise für das CO2 als Ursache steigender Temperatur und anderer Symptome der Klimaänderung gibt. Allerdings finden sich in den relevanten Passagen und auch im gesamten Bericht an keiner Stelle Beschreibungen für solche Beweise.

Der ‚Beweis’, auf den sich das IPCC bezieht, ist nicht empirischer Natur, sondern basiert weitgehend auf schon vorher präsentierten Hypothesen zum Prozess des Strahlungstransportes innerhalb eines atmosphärischen Körpers.

Aber wie funktioniert dieser Prozess in der realen Atmosphäre weltweit? Um diese Frage zu beantworten, verwenden die Modellierer des IPCC deterministische allgemeine Zirkulationsmodelle (General Circulation Models GCMs). Diese Modelle, bei denen der klimatreibende Effekt des CO2 vorgegeben ist, werden auf Supercomputern gerechnet. Die DAGW-Befürworter argumentieren, dass die heutige beobachtete Klimaänderung nicht ohne einen menschlichen treibenden Effekt erklärt werden kann. Da die virtuelle Welt der Modelle sich sehr unterscheidet von der realen Welt, einschließlich einer Serie von ‚was wenn’-Experimenten, weisen Kritiker darauf hin, dass der hypothetische Einfluss des CO2 auf das globale Klimasystem spekulativ bleibt. Eine fundamentale Kritik der gegenwärtigen Generation von GCMs wird im nächsten Abschnitt geübt.

Neben solcher Kritik ist es jedoch augenscheinlich, dass Experimente mit GCM-Modellen einem starken und nützlichen heuristischen Ziel dienen. Ihr Gebrauch als ein heuristisches Werkzeug ist daher vollkommen angemessen. Es ist Aufgabe der GCMs zu zeigen, was das IPCC „Projektionen“ der zukünftigen Temperatur nennt, was jedoch dann unvermeidlich von der Presse, der Öffentlichkeit und von Politikern als „Vorhersage“ angesehen wird. Dies steht im Gegensatz zur bewährten wissenschaftlichen Praxis.

Der Vorhersagewert und andere Defizite der GCMs sowie die nicht perfekte Darstellung eines Modelles ist natürlich kein Beweis dafür, dass es komplett falsch liegt. Und in ähnlicher Weise kann das vermutete Fehlen eines starken CO2-Einflusses auf das Erdklima, wie es DAGW-Kritiker anführen, ebenfalls als spekulativ angesehen werden. Wie auch immer, derzeit erleben wir, dass die empirischen Daten zeigen, wie sehr früher präsentierte Projektionen in die Zukunft in Zusammenhang mit anthropogenem CO2 falsch waren.

Die Abweichung eines Modells von Beobachtungen ist ein wissenschaftliches Signal, das (mit der Haltung zu Nebengedanken, die Wissenschaftler anstreben) weitere gründliche und innovative Studien erfordert.

Wahrscheinlichkeitsterminologie

Ein anderer bemerkenswerter Prozess des IPCC ist die Anweisung an die Autoren, dass sie ihre Schlussfolgerungen in der Terminologie einer qualitativen (d. h. meinungsbasierten) Wahrscheinlichkeitsskala ausdrücken. Dieser Umstand wird aus der folgenden Tabelle ersichtlich, zu finden in der Guidance Note for Lead Authors für den 4. Zustandsbericht, ausgegeben 2005 4:

Tabelle 4: Wahrscheinlichkeitsskala

Dieses Prozedere führt zu einem Eintrag subjektiver Beurteilungen durch eine Gruppe Wissenschaftler, die im Endeffekt durch „Handzeichen“ zu ihrem Urteil kommen. Ein solches Prozedere gehört in die Bereiche soziale und politische Wissenschaft und sollte in einer echten Studie der etablierten Wissenschaft keine Rolle spielen (5).

Tatsächlich, die Anwendung dieser postmodernen Technik in den jüngsten IPCC-Berichten reicht aus, um diese als seriöse wissenschaftliche Dokumente zu disqualifizieren.

Selbsternannte Experten

Bedauerlicherweise wird der Gebrauch einer nicht objektiven Beurteilung nach Pseudo-Wahrscheinlichkeiten nicht mehr als eine ungewöhnliche Praxis in der Entwicklung von Wissenschaftspolitik in vielen wissenschaftlichen Institutionen angesehen. Ob eine daraus resultierende Befürwortung sinnvoll ist oder nicht, hängt von der Glaubwürdigkeit ab, mit der Wissenschaftsberater (und in der Folge politische Entscheidungsträger) dem Expertenwissen der an dem ‚Konsens‘ einer bestimmten Sache beteiligten Wissenschaftler Tribut zollen. Werden diese Wissenschaftler als glaubwürdig angesehen, werden die Politiker den ‚Führern‘ folgen, welche im Falle des IPCC die Leitautoren der Berichte sind.

Aber warum solche Leute als von vornherein glaubwürdig angesehen werden, kann und muss hinterfragt werden. Liegt es einfach an ihrem selbst verliehenen Expertenstatus oder weil sie einige außerordentliche Einsichten in sehr komplexe Zusammenhänge der Klimaänderung an den Tag gelegt haben? Hinsichtlich des IPCC ist Ersteres sicherlich zutreffend (weil bis jetzt keiner der vielen Alarmisten des IPCC widerlegt worden ist). Mehr noch, es gibt eine unglückliche Tendenz, auf extreme Wetterereignisse zu deuten, die zwar nicht spezifisch vorhergesagt worden waren, die aber als etwas hingestellt werden, was man von einer globalen Klimaänderung zu erwarten hätte.

Es fehlt die Achtung vor alternativen, unabhängigen Ansichten

Unabhängige Wissenschaftler reagieren besonders empfindlich auf die Arroganz und Intoleranz gegenüber alternativen Ansichten, die den selbsternannten Klimaexperten des IPCC unter die Augen kommen. Personen, die von sich behaupten, überragendes Wissen auf jedem Gebiet öffentlicher Politik zu haben, nicht nur hinsichtlich der globalen Erwärmung, und die aktiv an politischen Aktivitäten teilnehmen, und die verhindern sollen, dass ihre Ansichten unabhängig begutachtet werden (wie es die IPCC-Wissenschaftler immer getan haben), sollte man mit Argwohn betrachten. Das zur-Schau-stellen solcher Verhaltensweisen lässt signifikante Zweifel aufkommen über diejenigen, die dem Stall der IPCC-Berater angehören. Es muss jedoch anerkannt werden, dass solche Gefühle auf Gegenseitigkeit beruhen, und das viele Protagonisten der DAGW der Meinung sind, dass ihre Kritiker einfach ‚Leugner‘ dessen sind, was sie als etablierte Wissenschaft ansehen.

Dieses beiderseitige Fehlen von Respekt hat sich als ernstes Hindernis einer ‚normalen’ wissenschaftlichen Diskussion zwischen den Protagonisten und Antagonisten der DAGW in der Vergangenheit herausgestellt. Und bedauerlicherweise liefert der neue Entwurf des 5. Zustandsberichtes mit seinen unverblümten Statements darüber, was hinsichtlich der angenommenen gefährlichen Erwärmung wahrscheinlich ist oder nicht, keine Hinweise darauf, dass eine solche Diskussion demnächst in Gang kommt.

Der wichtigste Punkt einer Verhinderung dieser Diskussion lautet, dass der Stil des Entwurfs von AR5 diesen eher als ein politisches als ein wissenschaftliches Dokument kennzeichnet, weil er innerhalb des Rahmens eines speziellen kulturellen Paradigmas erstellt worden ist. Dies ist so trotz einer gründlichen und manchmal gut zusammengefassten Selektion der begutachteten Klimaliteratur. Demnach können die AR5-Berichte der Arbeitsgruppen 2 und 3, die den Erwartungen zufolge auf den Entwürfen der hier begutachteten Arbeitsgruppe 1 aufbauen, auch nicht als wohlüberlegte, ausgewogene, akkurate und leidenschaftliche Analysen der Klimawissenschaft und der erforderlichen sinnvollen Politik angesehen werden.

Modellieren der Klimaänderung

Modellieren ist zu einem bedeutenden Werkzeug in allen naturwissenschaftlichen Disziplinen geworden – und mit zunehmendem Erfolg und Wert wegen der großen Fortschritte, die die Programmierung und die Technologie von Computern gemacht haben. Modelle werden inzwischen routinemäßig benutzt, um komplexe Prozesse besser zu verstehen, vor allem solche, die nur durch unlösbare, nichtlineare Differentialgleichungen beschrieben werden können, und die daher einer modellbasierten Simulation bedürfen, um verstanden zu werden.

Der Erfolg von Modellierungen in den Bereichen Meteorologie, vor allem Wettervorhersage, hat sich stetig vergrößert. Aber gerade auch speziell in diesem Bereich hat sich eindeutig herausgestellt, dass die Vorhersagbarkeit wegen der chaotischen Natur des komplexen atmosphärischen Systems begrenzt ist. Vorhersagen lassen sich höchstens etwa eine Woche im Voraus machen. Nach diesem Zeitraum werden chaotische Variationen und wachsende Fehler die Erfolge kürzerfristiger Vorhersagen überkompensieren. Aufgrund theoretischer Überlegungen ist heute allgemein akzeptiert, dass die „eine-Woche-Grenze“ heutiger Vorhersagemodelle nicht mehr wesentlich ausgeweitet werden kann, zumindest nicht in den Klimazonen der gemäßigten Breiten mit ihrer hohen atmosphärischen Variabilität hinsichtlich von Hoch- und Tiefdruckgebieten.

Was also lässt die Klimawissenschaftler glauben, dass sie Klimavorhersagen für Jahrzehnte im Voraus machen können? Mit Hilfe von GCMs, die aus den gegenwärtig benutzten Modellen zur Wettervorhersage abgeleitet worden sind, nahmen die Modellierer an, dass die Mitte des 19. Jahrhunderts ein guter Startpunkt für das Studium künftiger Klimaänderungen ist, und dass ihre Algorithmen bei diesem Startpunkt akkurat das Mittel der globalen Klimaänderung berechnen können im Gegensatz zu der hoch variablen (und über eine Woche hinaus unbekannten) Entwicklung des Wetters. Mehr noch, jedem einzelnen Modell wird vorgegeben, dass ein signifikanter Teil der globalen Erwärmung auf einem Antriebseffekt durch CO2 beruht.

Diese Vorgehensweise ist naiv. Sie ist wahrscheinlich auch fundamental falsch.

In historischen und geologischen Zeiträumen sind Klimaänderungen als ein natürliches Phänomen etabliert. Klimaänderungen gibt es in allen Zeitbereichen bis zu einer Million Jahre, und es führt in die Irre, zu Analysezwecken eine einzige 150 Jahre lange Periode aus ihrem Zusammenhang zu reißen und zu isolieren (darunter solare Zyklen von 11, 22, 80, 200 und 1500 Jahren ebenso wie gut bekannte multidekadische Variationen vieler unterschiedlicher Oszillationen zwischen Ozean und Atmosphäre). Daher sollte man zuerst versuchen, Klimaänderungen in Relation zu diesen natürlichen Phänomenen zu modellieren. Stattdessen werden fast alle Klimazyklen von der gegenwärtigen Generation der GCMs zugunsten des CO2-Zusammenhangs außen vor gelassen.

Erst nach einer vernünftigen Analyse aller bekannten natürlichen Variationen der Vergangenheit könnte es möglich sein, die mögliche Bedeutung eines verstärkten CO2-Effektes zu erkennen.

Die natürliche Variation wird im nächsten Abschnitt detaillierter beschrieben.

Klassische Klimatologie

Das ‚Modellieren’ von der oben beschriebenen Art wurde auf einer breiteren Grundlage in qualitativer und beschreibender Weise von klassischen Klimatologen vor 1965 durchgeführt. Dabei fanden sie heraus, dass die historische Klimavariabilität zum großen Teil auf Verschiebungen der sechs großen Windsysteme des Planeten beruhen, Verschiebungen, die oft mit multidekadischen Klimaoszillationen zusammen hängen (6).

Wenn sich verändernde Strömungssysteme tatsächlich in historischen Zeiträumen der wesentliche Treiber globaler Klimaänderungen waren, muss jede Auswirkung von Änderungen der Zusammensetzung der Atmosphäre, z. B. durch die Zunahme von CO2, auf das Klima zuvor deren Auswirkung auf die Windzonen modelliert werden. Daran sollte sich die Suche nach den natürlichen Variablen anschließen, die diese Änderungen hervorgerufen haben könnten. Sollte diese Modellierung zufrieden stellende Ergebnisse und Erklärungen für die Veränderungen der Vergangenheit liefern, dann und erst dann ist es die Zusammensetzung der Atmosphäre, die untersucht werden kann.

Andere wichtige Erkenntnisse aus der klassischen Klimatologie, die durch jüngste Beobachtungen bestätigt worden sind, scheinen ebenfalls vom IPCC ignoriert zu werden. Zum Beispiel die Bedeutung der ungleichen Strahlungsverteilung durch die Sonne. Sie würde die Temperatur in der Äquatorzone bis fast 100°C steigen lassen, wenn es keine konvektive Umverteilung der Wärme über den Planeten durch Winde, die Meeresströmungen und – allgemeiner – die Wasserzyklen geben würde (7). Dieses Verständnis legt nahe, dass das mittlere globale Klima, falls ein solches Konzept überhaupt irgendeine Bedeutung hat, großenteils durch meteorologische und physikalische Prozesse um den Äquator und vor allem in den tropischen Ozeanen bestimmt wird.

Konvektion ist für den Wärmetransport genauso wichtig wie Strahlung

Anstatt detailliert den wichtigen Effekt der lokalen Überhitzung in den Tropen und deren Entschärfung durch den konvektiven Wärmetransport zu erwägen, ziehen die AGW-Befürworter des IPCC die Metapher vor, dass der Planet ohne das, was sie als Treibhauseffekt bezeichnen, ein Eisball wäre. Dieser Glaube basiert auf dem Gedanken eines allgemeinen planetarischen Energiebudgets, dessen Analyse darauf hindeutet, dass die gesamte Sonnenenergie, die die untere Atmosphäre (die Troposphäre) und die Erdoberfläche erreicht, nicht ausreicht, ein mittleres globales Temperaturniveau von 15°C zu halten, es sei denn, ein Wärmepuffer in der Troposphäre agiert als eine Art Decke. Die sich daraus ergebende Dämmung wird (der Öffentlichkeit) dann mit der Metapher eines Treibhauses erklärt. Diese Metapher führt erheblich in die Irre, weil sich ein Treibhaus gravierend von der freien Atmosphäre unterscheidet, wird doch in einem Treibhaus die Wärme durch Unterdrückung der Luftzirkulation (d. h. der Konvektion) zurück gehalten.

In Wirklichkeit stellen konvektive Prozesse einen der wichtigsten Einflüsse auf den Wärmehaushalt der Erde dar und spielen eine bestimmende Rolle bei der Regelung der Temperatur an der Erdoberfläche und in der Troposphäre. Nichtsdestotrotz ist auch aus der klassischen Klimatologie offensichtlich, dass die Atmosphäre Wärme aus Strahlung einfängt, sowohl die von der Sonne kommende als auch die (im thermischen Infrarot) ausgehende Strahlung von der Erdoberfläche. Das Ergebnis sind ein Druckgradient und ein Temperaturgefälle – letzteres mit einer Bandbreite von im Mittel 15°C an der Oberfläche bis -50°C in einer Höhe über 10 km. Das theoretisch berechnete Temperaturgefälle wird jedoch fortwährend ‚gestört’ durch lokale Wetterereignisse einschließlich der horizontalen Verlagerung von Hoch- und Tiefdruckgebieten. Die Oberfläche kann sich manchmal beim Fehlen solcher Bewegungen stark erwärmen (40°C), nur durch Dämmung.

Das Dämmungspotential der Troposphäre erklärt sich der AGW-Hypothese des IPCC zufolge fast ausschließlich durch Strahlungstransportprozesse, welche man in einer Luftsäule von Infrarot absorbierenden und emittierenden Molekülen erwartet. Andere (skeptische) Wissenschaftler erachten diese Beschreibung als viel zu eng und weisen darauf hin, dass andere meteorologische und physikalische Prozesse in aktuellen Klimatologie-Fachbüchern gut repräsentiert sind – von denen die meisten den erwarteten verstärkten ‚Treibhauseffekt’ viel reservierter sehen als das IPCC.

Es gibt zahlreiche Bücher und Artikel von ‚Skeptikern der globalen Erwärmung’, die die AGW-Hypothese aufgrund physikalischer und meteorologischer Gegebenheiten in Frage stellen. Zwar werden Nicht-Strahlungsmechanismen wie z. B. unterschiedliche Arten der Konvektion, vom IPCC nicht vollständig in Abrede gestellt, doch sind sie im Vergleich mit dem Verständnis von Klimaänderungen einer größeren wissenschaftlichen Gemeinschaft erheblich unterrepräsentiert. Der Disput konzentriert sich auf eine unterschiedliche Interpretation der gegenseitigen Ursache-Wirkung-Relation zwischen Luft- und Meeresströmungen auf dem Planeten und auf die optischen Eigenschaften der Atmosphäre, welche wiederum einen bestimmten Temperaturgradienten über Breite und Höhe vorgeben.

Es ist zu erwarten, dass positive und negative Rückkopplungen in den oben erwähnten Beziehungen eine Rolle spielen. Die meteorologische Umgebung versucht fortwährend, einen Gleichgewichtszustand zu erreichen, was aber ständig durch verändernde Kräfte unterbrochen wird. In einem dynamischen System ist zu erwarten, dass dies im globalen Maßstab zu komplexen Oszillationsprozessen und nicht zu einem festgelegten Gleichgewicht führt. Letzteres wird bei der DAGW-Hypothese empfohlen, indem man Modelle für unabhängige ‚Klimaantriebe’ nutzt, zum Beispiel die Variabilität der Sonne sowie Änderungen des Aerosols und der optischen Dichte der Atmosphäre.

Die Missachtung einer wichtigen Errungenschaft der Naturwissenschaften

Die endgültige veröffentlichte Version des Zustandsberichtes 5 des IPCC wird zweifellos mit ähnlichen Kritiken bedacht, die oben umrissen worden sind. Im Besonderen wird die Proklamation im Berichtsentwurf, dass es „zunehmende Beweise dafür gibt, dass CO2 der Grund für den globalen Temperaturanstieg und andere Indikationen für die Klimaänderung ist“, massiv unter Feuer geraten, weil diese Feststellung aufgrund der empirischen Daten einfach nicht gerechtfertigt ist.

Ziemlich unabhängig vom Erreichen eines intelligenteren Verständnisses des fortgesetzten Streits unter Wissenschaftlern mit unterschiedlichen Standpunkten zur Klimawissenschaft und DAGW muss dringend ein fundamentales Problem bei der Forschung zur Klimaänderung angesprochen werden.

Diese Notwendigkeit ist von praktischer Bedeutung für die Philosophie hinter einer Komplexitätstheorie, die früher unter der Bezeichnung Katastrophen- oder Chaostheorie bekannt war, welche sich schon im 19. Jahrhundert entwickelt hat. Die Komplexitätstheorie versucht, die Eigenarten dynamischer Prozesse zu interpretieren, die weit unabhängig von jedem thermodynamischen Gleichgewicht auftreten und die daher nur mit Hilfe nichtlinearer (d. h. nicht lösbarer) Differentialgleichungen beschrieben werden können. Computersimulationen, durch Fortschritte in der Informationstechnologie Mitte und Ende des 20. Jahrhunderts stark verbessert, wurden im Besonderen wichtig, um die Natur solcher Prozesse zu simulieren, wobei es wichtig ist darauf hinzuweisen, dass solche Simulationen NICHT tatsächliche Lösungen in der realen Welt zur Verfügung stellen. Stattdessen muss jede solche Simulation mit einem „was, wenn“-Experiment unter bestimmten Bedingungen in einer virtuell realen Welt behandelt werden.

Wegen seiner komplexen Natur ist die Klimaänderung zweifellos ein illustratives Beispiel eines Zweiges der Wissenschaft, in dem man ohne Verwendung solcher Computersimulationen kaum Fortschritte machen kann. Diese Vorgehensweise wurde schon Mitte des 20. Jahrhunderts von den Main Stream-Klimatologen aufgegriffen und erklärt. (8)

Die Kritik an den Schlussfolgerungen dieser früheren Simulationen bezog sich überwiegend auf Fragen, ob die eingehenden Variablen genügend aussagekräftig und ob die angewandten Algorithmen sowohl gültig als auch akkurat waren.

Diese Diskussion wird weitergehen und kann zu einer Verbesserung der Modelle führen. Aber viele wichtige Aspekte der Komplexitätstheorie wurden bisher überhaupt nicht in den Modellierungsprozess eingebracht. Am wichtigsten ist die fehlende Berücksichtigung von Oszillationsprozessen, für die Trajektorien beschrieben werden können, die durch ‚feste Punkte’ genannte Gleichgewichtszustände bestimmt werden können; der entwickelten Theorie zufolge sollten diese niemals auftreten. Dass dieser Aspekt der Komplexitätstheorie bei der gegenwärtigen Modellierung weitgehend ignoriert wird, kann man daran erkennen, dass zuvor keine Identifikation aller festen Punkte durchgeführt worden ist, die hier involviert sein können.

Ein erkannter wesentlicher Fixpunkt ist die globale Strahlungsenergiebilanz zwischen der einfallenden Sonnenstrahlung und der langwelligen Ausstrahlung an der Obergrenze der Atmosphäre. Ob alle Angaben im Modell von Kiehl und Trenberth (KT97) zur globalen Energiebilanz akkurat sind oder nicht, ist von relativ geringer Bedeutung (9). Die viel wichtigere philosophische und wissenschaftliche Frage lautet, ob das Modell KT97 einen Fixpunkt zu beschreiben versucht (hinsichtlich der Komplexitätstheorie ein Attraktor), der in keinem wirklichen Gleichgewichtszustand ist.

Ein zweiter, in KT97 nicht berücksichtigter, aber durch grundlegende Physik und meteorologische Beobachtungen gut belegter Fixpunkt ist die Maximumtemperatur von 29°C, der die tropischen Ozeane charakterisiert, kontrolliert durch die Umleitung der Energie durch starke lokale Dämmung hin zu Verdunstung. Viele weitere Fixpunkte (das heißt Attraktoren, die die Klimatrajektorien beeinflussen) müssen existieren, zum Beispiel an den Grenzen der Windsysteme und an der Obergrenze der Atmosphäre. Diese Attraktoren wurden bis jetzt noch nicht einmal identifiziert, geschweige denn in die GCMs eingebaut.

Man würde erwarten, dass eine Zustandsbeschreibung wie AR5 der WG 1 diesen und anderen Aspekten der Komplexitätstheorie volle Aufmerksamkeit gewidmet hätte, vielleicht sogar deren Behandlung in einem speziellen Kapitel. Obwohl jedoch die deterministisch-chaotische (komplexe) Natur des Klimasystems im Vorübergehen in früheren IPCC-Zustandsberichten erwähnt worden war, gab es niemals eine ausführliche Diskussion darüber, und auch im AR5 ist das nicht der Fall. Die unvermeidliche Schlussfolgerung daraus lautet, dass die IPCC-Experten der Computersimulation und andere Leitautoren mit den Grundprinzipien der Komplexitätstheorie nicht vertraut sind. Folglich fehlen Einsichten im Entwurf von AR 5, die von einer hoch entwickelten und wesentlichen mathematischen und wissenschaftlichen Institution nicht fehlen sollten und dürften.

Kommen wir zurück zu den wesentlichen Konsequenzen, die man hätte berücksichtigen müssen:

  1. Die Punkte in jedem Graphen sind nicht „normal“ um den Mittelwert verteilt (die Verteilung ist multimodal), und die Definition von Vertrauensintervallen, die auf der Standardabweichung um den Mittelwert abgeleitet sind, ist ein statistischer Fehler.

  2. Wie vorher schon erläutert ist die Mittelung der Kurven aus dem gleichen Grunde bedeutungslos.

  3. Es ist mathematisch nicht korrekt, Faktoren zu addieren/zu subtrahieren (eine lineare Operation), wie z. B. die Isolierung einer Trendlinie oder eines jahreszeitlichen Effektes, wenn das System nichtlinear ist, muss ein Querschnittsfaktor existieren.

Der Ursprung der ‚wahrscheinlich’ genannten ‚Unsicherheiten’ hätte durch Verwendung von Argumenten von Auditoren anderer Disziplinen verdeutlicht werden können, die mit dem manchmal unerwarteten Verhalten komplexer Systeme vertraut sind. Dies unterstreicht wieder einmal, dass der Entwurf vom AR 5 keine ‚komplette Arbeit’ einer weltumspannenden wissenschaftlichen Gemeinschaft ist. Es kann sein, dass der AR 5 des IPCC trotz (oder sogar gerade wegen) der Alarmrufe bzgl. der Erwärmung sich eher als ein Hindernis als eine Hilfe auf dem Weg zu den Erkenntnissen über die wahren Gründe der globalen Erwärmung und von Klimaänderungen erweist.

Abwägung der Beweise in Zustandsstudien

Der Entwurf zum AR 5 behauptet, die physikalischen Mechanismen der Klimaänderung zu erklären. Aber er spricht den Kern der Sache gar nicht adäquat an: nämlich die Frage nach den Gründen der natürlichen Klimavariabilität. Bei unserem gegenwärtigen Wissensstand, nämlich dass DAGW existiert, ist eine wissenschaftliche Zustandsstudie erforderlich, die die Beweise für und gegen die Hypothese abwägt. Dieser Zustandsbericht sollte nicht einfach die Leistung einer einzigen spekulativen DAGW-Hypothese proklamieren, wie es der Entwurf zum AR 5 tut.

Die meisten Kapitel im AR 5 behandeln nicht die CO2-Hypothese als solche, sondern lediglich die Signale, die auf die Klimavariabilität hinweisen. Dass diese Variabilität verbreitet auftritt überrascht niemanden, weshalb die geeignete Null-Hypothese lautet, dass die beobachtete Variabilität ein Ausdruck natürlicher Gründe ist, solange und bis kein anthropogener Grund und eine gefährliche Rate einer daraus resultierenden Änderung empirisch gezeigt werden kann.

Obwohl der IPCC-Bericht den Titel ‚The Scientific Basis’ trägt mit der starken Betonung auf und dem Vertrauen der Leitautoren in eine Auswahl DAGW-freundlicher begutachteter Literatur macht den Bericht eher zu einem politischen und nicht einem wissenschaftlichen  Zustandsbericht.

Zusammenfassend: Der Entwurf zum AR 5 bietet keine ausgewogene und leidenschaftslose Beschreibung der aktuellen Klimawissenschaft, die als Basis für politische Maßnahmen dienen kann. Obwohl einige erfahrene, unabhängige Wissenschaftler wahrscheinlich von dem Bericht in die Irre geführt werden, von denen einige auch schon ihr Unbehagen mit der IPCC-Arbeitsweise kundgetan haben, könnte das Dokument der WG 1 gefährlich werden, wenn Nichtexperten davon Gebrauch machen – vor allem Bürokraten und Politiker.

Die Notwendigkeit einer ausgewogenen wissenschaftlichen Zustandsbeschreibung

Eine einwandfreie wissenschaftliche Zustandsbeschreibung in Sachen globale Erwärmung sollte auf der kritischen Erwägung einer breiten Palette von Studien in wissenschaftlichen Journalen basieren, und nicht auf naivem und bedingungslosem Vertrauen in den Begutachtungsprozess ausgewählter wissenschaftlicher Journale, seien diese auch noch so angesehen (10). Diese Studien sollten kritisch von einer größeren Anzahl von Schiedsrichtern gelesen werden, mehr als die zwei oder drei bei dem Journal angestellten. Außerdem sollten in der Öffentlichkeit die Befürworter einer Hypothese, die Implikationen für teure politische Maßnahmen enthält, nicht ihre eigenen Begutachter oder ihre eigene Jury sein – wie es die IPCC-Leitautoren tatsächlich waren.

Die Kritiker des IPCC, und davon gibt es viele, haben seit Langem Zweifel daran geäußert, ob das Personal des IPCC ausreichend die Notwendigkeit für ordentliche und angemessen sorgfältige Zustandsberichte wie AR 4 und AR 5 wahrnimmt. Diese Zweifel wurden bestätigt, als die Korrespondenz zwischen einigen Leitautoren des IPCC durch Klimagate 1 im Jahr 2009 offen gelegt wurde. Dieses Leck, und ein zweites Leck Ende 2011 zeigten inter alia viele Beispiele wissenschaftlichen Fehlverhaltens, einschließlich im Besonderen einer herablassenden Haltung und emotionaler Reaktionen auf professionelle Kritik von außen.

Detaillierte Analysen der IPCC-Prozeduren und damit Zusammenhängendes von John McLean, Andrew Montford und jüngst durch Donna Laframboise (11) sowie die Analysen von Steve McIntyre auf seinem Blog ClimateAudit verdienen viel mehr Aufmerksamkeit seitens der Politiker als diese bisher dafür übrig hatten. Stattdessen fahren die Politiker fort, ein unterwürfiges Klammern an die politisch gefärbten Ratschläge des IPCC an den Tag zu legen, entweder weil sie es nicht besser wissen oder bevorzugen, die eindeutigen Unzulänglichkeiten und die fehlende Ausgewogenheit der wissenschaftlichen Zusammenfassungen des IPCC nicht zur Kenntnis zu nehmen.

Anfang 2007 hat das IPCC unter Druck von Kritikern die kritischen Kommentare der Begutachter veröffentlicht, die es zum AR 4 WG 1 gegeben hatte, zusammen mit den Antworten auf diese Kritiken von den Leitautoren. Ungefähr zur gleichen Zeit haben die Autoren der Zusammenfassung für Politiker von AR 4 (SPM) ihren Text fertig gestellt, der offenkundig die substantielle Kritik von außen am IPCC nicht enthielt. Und in einer anderen erstaunlichen Missachtung des Prozesses basierte die politisch motivierte SPM des AR 4 auf einem Entwurf der WG 1; weitere sechs Monate gingen ins Land, bevor die Schlussfolgerungen und Behauptungen der SPM in den endgültigen Bericht integriert wurden, auf den die SPM doch aufbauen sollte. Inzwischen haben Sprecher des IPCC bereits die alarmierende Botschaft der fortwährenden gefährlichen globalen Erwärmung in die Welt posaunt, basierend auf der zuvor veröffentlichten SPM.

Diese verschiedenen Umstände und Fakten machen klar, dass eine unabhängige wissenschaftliche Begutachtung des WG1 AR 5 des IPCC unabdingbar ist, sowie der Bericht veröffentlicht wird. Unabhängige Experten haben in der Tat bereits eine solche Begutachtung seit der Veröffentlichung von AR 3 2001 angemahnt, aber ihr Drängen wurde ignoriert.

Wichtig: Die wissenschaftlichen Auditoren müssen (i) ausschließlich von außerhalb des IPCC-Interessenkreises stammen; (ii) sie müssen kompetent genug sein, um ein unabhängiges Urteil über die relevanten Beobachtungen und deren Interpretation fällen zu können, und (iii) sie dürfen sich nicht einfach auf die pro-DAGW-Schlussfolgerungen verlassen, die von den Autoren der meisten Studien gezogen werden.

Frühere Begutachtungen der IPCC-Ratschläge

Viele nationale Wissenschaftsakademien haben zusammenfassende Broschüren zum DAGW-Problem veröffentlicht, veranlasst durch die Kritiken in der Folge der Veröffentlichung von AR 4 2007 (z. B. von der  Royal Society of London, der Australian Academy of Science und der US National Academy of Sciences). Diese individuellen Berichte führten etwas später zu einer Untersuchung ihrer übergeordneten Institution, das international Inter-Academy Council (IAC). Die Hauptschlussfolgerung dieser zahlreichen Dokumente – trotz Kritik seitens des IAC über die Unzulänglichkeiten einiger IPCC-Verfahrensweisen, enthüllt durch Klimagate – lautete, dass die wesentlichen Schlussfolgerungen des 4. Zustandsberichtes immer noch als gültig angesehen werden sollten.

Diese Behauptung durch das IAC und andere führte sofort dazu, dass sich die folgende Frage in unabhängigen wissenschaftlich kritischen Kreisen erhob: Welche Schlussfolgerungen?

Dass einige Signale einer moderaten Klimaänderung in der jüngeren Vergangenheit aufgetaucht sind? Aber diese Schlussfolgerung ist wissenschaftlich trivial und steht nicht im Mittelpunkt der DAGW-Frage, die da lautet zu beurteilen, bis zu welchem Grad menschliche CO2-Emissionen eine messbare oder gefährliche Erwärmung verursachen. Wie viel Zeit und Wissen hat das Komitee des IAC damit zugebracht, diese Frage zu beurteilen? Weder die vielen nationalen noch die IAC-Komitees scheinen diese zentrale Frage überhaupt angesprochen zu haben, was viele Wissenschaftler dazu gebracht hat, die Prognosen als politisch willfährige Operationen zur Weißwäsche anzusehen.

Unabhängige Wissenschaftlerkreise stellten sofort in Frage, was eigentlich das IAC so befürwortete. Dessen Schwerpunkt lag auf den Prozeduren und der administrativen Arbeit des IPCC, nicht auf der Integrität von dessen Schlussfolgerungen.

Begutachtungen im parlamentarischen Zusammenhang

Zusätzlich zu den akademischen Begutachtungen haben zahlreiche nationalen Parlamente seit 2007 Anhörungen zur DAGW-Frage organisiert. Im parlamentarischen Kontext hatten diese Anhörungen den sehr starken Vorzug, dass unabhängige angesehene Wissenschaftler involviert waren, zusammen mit den IPCC-Akolyten. Solche Anhörungen haben zumindest in den USA, in Schweden, Australien den Niederlanden und jüngst Kanada stattgefunden.

Trotz der sehr klaren wissenschaftlichen Informationen und Ratschläge dieser Anhörungen (für ein Beispiel siehe Anhang B), die speziell dem IPCC-Alarmismus widersprechen, war ihr nachfolgender Einfluss auf die Öffentlichkeit begrenzt; und zwar aus folgenden Gründen: (i) alle offiziellen Kanäle, über die die Öffentlichkeit über die globale Erwärmung informiert wird, werden durch Material vom IPCC dominiert und (ii) die Medien haben eine starke Aversion, Stories über die Klimaänderung zu verbreiten, die das vorherrschende, politisch korrekte und alarmistische Paradigma herausfordern.

Die Begutachtungen holländischer und französischer Akademien

Der 2007 veröffentlichte Bericht AR 4 wurde formalen Überprüfungen durch die nationalen Akademien Frankreichs und der Niederlande unterzogen. Die beiden Prozesse und die folgenden Berichte weisen bestimmte Ähnlichkeiten auf.

Jeder der beiden Untersuchungen waren informelle Treffen unter den Mitgliedern der Akademien vorausgegangen, woran auch einige geladene externe Wissenschaftler teilgenommen hatten (Niederlande, April 2010; Frankreich, September 2010). Diese anerkennenswerten Initiativen führten zu Audit-Berichten, die unabhängig von der IPCC-internen Begutachtungsprozedur waren.

Trotz der ursprünglich gut gemeinten Absichten, die unvermeidlich von einer begrenzten Anzahl von Autoren zusammengestellt worden sind, wurden in der Folge dafür kritisiert, nicht ausreichend die Nuancen der unterschiedlichen Meinungen der DAGW-Protagonisten und –Antagonisten gespiegelt zu haben, die in den voran gegangenen Besprechungsrunden zum Ausdruck kamen.

Diese Kritik gilt sehr stark vor allem dem Audit-Bericht der Royal Dutch Academy of Sciences (KNAW), veröffentlicht im Oktober 2012 (12). Der Bericht war erheblich in Richtung der IPCC-Doktrin verzerrt und erwähnte nicht die Kommentare der DAGW-Antagonisten während der Treffen. Außerdem hat sich die KNAW sehr beeilt, die Aufmerksamkeit des Ständigen Parlamentsausschusses für Infrastruktur und Umwelt auf ihren Bericht zu lenken, ohne vorher noch einmal die Teilnehmer des Treffens zu konsultieren. Dieses Vorgehen führte zu einem formalen Protest und der Forderung, den Bericht zurückzuziehen. Unterschrieben war er von 23 Professionellen mit wissenschaftlichem Hintergrund – nicht zuletzt, weil der Bericht ein Dutzend aussagestarker Feststellungen bzgl. DAGW enthielt, die wissenschaftlich als nicht gerechtfertigt angesehen waren. Die Forderung wurde ignoriert, und der verfälschte Bericht blieb in der ursprünglichen Fassung bestehen (Februar 2012).

Eine Untersuchung der Prozeduren durch die Autoren des holländischen Berichtes brachte ans Licht, dass eine kleine Zahl anonymer pro-DAGW-Begutachter den Ton im endgültigen Text vorgegeben hatte, was erneut das Ausmaß zeigt, mit dem IPCC-Insider mit politischen Mitteln den „wissenschaftlichen“ Rat an Politiker beeinflussen können. Trotz dieses ungehörigen und unangebrachten Einflusses präsentierte die Akademie den Bericht als eine autorisierte Feststellung einer ‚gebildeten’ Vereinigung. Offensichtlich hatte die Akademie so viel Vertrauen in einige ausgewählte akademische Autoren, dass sie sich nicht die Mühe gemacht hat, unabhängige auswärtige Wissenschaftler zu konsultieren, die ziemlich genau, tatsächlich wesentlich in die Begutachtung involviert waren.

Solche Aktionen gehen ganz klar nicht konform mit dem Motto der ältesten wissenschaftlichen Akademie der Welt, der Royal Society of London, das da lautet: ‚Nullius addictus iurare in verba magistri‘ (ich bin nicht verpflichtet, irgendeinem Herrn Gefolgschaft zu schwören).

Betrachtet man die Schlussfolgerungen der Debatte bei der französischen Akademie der Wissenschaften, berichteten die französischen medien, dass sie voll auf der Linie des WG 1 AR 4 lagen.

Diese Schlussfolgerung unterscheidet sich jedoch um Einiges vom verständnis einiger Mitglieder der Akademie, die an der Diskussion teilgenommen hatten. In seiner Analyse weist der Akademiker Vincent Courtillot darauf hin, dass die Akademie nicht in vollem Umfang das für und wider gegeneinander abgewogen hat, sondern einfach die verschiedenen – sich teilweise widersprechenden – Ansichten nebeneinander gestellt hat (13).

Trotz all der abweichenden Meinungen und gegenteiliger Aussagen in den französischen und holländischen Akademien scheinen die wesentlichen Schlussfolgerungen in ihren Berichten die Autorität des IPCC zu stützen. Zum Beispiel heißt es im Bericht der französischen Akademie:

Eine Anzahl unabhängiger Indikatoren weist auf eine Zunahme der globalen Erwärmungsrate von 1975 bis 2003 hin; diese Zunahme erfolgt hauptsächlich durch die zunehmende CO2-Konzentration in der Atmosphäre.

Und im holländischen Bericht heißt es:

Die gegenwärtigen Klimamodelle erklären zum größten Teil die Klimaänderungen im 20. Jahrhundert. Diesen Modellen zufolge kann der globale Temperaturanstieg im späten 20. Jahrhundert nicht erklärt werden, ohne die anthropogene Erzeugung von Treibhausgasen zu betrachten.

Eine Zusammenfassung der entgegen gesetzten Ansichten der DAGW-Antagonisten ist im Audit-Bericht von unabhängigen Wissenschaftlern an die australische Regierung enthalten. Siehe Anhang B mit einem Auszug und Referenz.

Was führt zu der Dominanz des IPCC-DAGW-Paradigmas?

Zweifellos ist das vom IPCC bevorzugte Paradigma der gefährlichen globalen Erwärmung durch menschliche CO2-Emissionen fest in den Köpfen der Öffentlichkeit, der Medien und der Politiker verankert. Die Schlüsselfrage lautet jedoch: „bis zu welchem Grad resultiert diese Dominanz aus der Aussagekraft der wissenschaftlichen Beweise, und bis zu welchem Grad aus der höchst aktiven öffentlichen und politischen Kommunikation durch das IPCC vor dem Hintergrund einer willfährigen, tatsächlich DAGW oft missionarisch vorantreibender Medien?“

Zweifellos ist die DAGW-Hypothese des IPCC oberflächlich plausibel. Die Hypothese macht auch wissenschaftlich detaillierter Sinn, solange man nur das zugrunde liegende Konzept des „Treibhauseffektes“ akzeptiert, dass man die Klimaänderung einteilen kann nach den verschiedenen separat einwirkenden Treibern, dass all diese Treiber bekannt sind und dass das Klima als deterministisches System erfolgreich analysiert werden kann.

Allerdings stellen viele kompetente Wissenschaftler einen, zwei, drei oder alle vier dieser Positionen in Frage, und zwar mit durch und durch vernünftigen und verantwortungsvollen Argumenten. Daher ist der Gebrauch all dieser überheblichen Vermutungen als Basis für die Propagierung der globalen Erwärmung, wie es das IPCC macht, so, als ob man Logik innerhalb eines subjektiven kulturellen Paradigmas anbringen wollte. Dies, nämlich die Verwendung einer Modellannahme innerhalb eines gegebenen und nicht hinterfragbaren Denksystems ist natürlich das Kennzeichen  der postmodernen wissenschaftlichen Vorgehensweise.

Aber wenn man diese Positionen verwirft – nicht zuletzt, weil diese prognostizierten Ergebnisse den Beobachtungen widersprechen – erscheint ein sehr unterschiedliches Bild der Klimavariabilität. Akzeptiert man eine alternative konzeptionelle Annäherung, könnte sich der Zusammenhang mit einem „Treibhauseffekt“ und einer Quantifizierung der angenommenen Klimatreiber als falsch herausstellen und eher ein Hindernis als eine Hilfe bei Fortschritten des Wissens sein.

Schlussbemerkungen

Es ist offensichtlich, dass Audits, die mehr auf Autorität als auf wirklicher wissenschaftlicher Expertise beruhen, hinsichtlich der grundlegenden Prinzipien wissenschaftlicher Untersuchungen fragwürdig bleiben.

Die Beschreibung der vermeintlichen DAGW-Bedrohung erfordert daher eine vollständig neue wissenschaftliche Begutachtung, die mit den IPCC-Argumenten und solider alternativer technischer Informationen gleichwertig ist, wie z. B. die Berichte des NIPCC. Eine solche ausgewogene Begutachtung wurde definitiv durch irgendeine wissenschaftliche Akademie bisher nicht durchgeführt, weil alle das betrügerische IPCC-Treibhausmodell vorbehaltlos akzeptiert haben (einschließlich der Gültigkeit des Konzeptes unabhängiger und schwierig zu definierender Antriebe, welche komplexe Prozesse sind), und weil alle die Notwendigkeit, sich der Klimaänderung durch die Komplexitätstheorie anzunähern, ignoriert haben.

Einige jüngere Wissenschaftler, die unter dem Einfluss postmoderner Wissenschaft studiert haben, könnten dies als altmodisch ansehen. Aber mein Appell lautet, dass wir weiterhin die Traditionen der Grundlagen- und angewandten Wissenschaft respektieren sollten, wie sie während der historischen Periode, die wir Aufklärung nennen, etabliert worden sind. Es war nämlich von größtem Vorteil für moderne Gesellschaften, dass wir seit vier Jahrhunderten die wissenschaftliche, experimentelle, empirische und theoretische Praxis übernommen haben, und zwar unter den wachsamen Augen von Universitäten und gebildeten Gesellschaften.

Nach dem, was wir das IPCC-„Abenteuer“ nennen können, ist es mein Appell an zeitgemäße politische und wissenschaftliche Administratoren, dass sie sich jetzt einmal kritisch überlegen, ob die nationalen Wissenschaftsakademien und –agenturen dem wissenschaftliche Prinzip, „Qualität ist der Eckpfeiler der Wissenschaften“, noch folgen. (14)

Danksagung

Die erste Version dieses Arbeitspapiers und die neun Entwürfe zuvor wurden von 15 Wissenschaftlern kommentiert. Was ich dankbar willkommen heiße. Und die mich zu ein paar Änderungen veranlasst haben. Anstatt ihre Namen zu nennen, lade ich diese Schiedsrichter ein, selbst zu benennen, bis zu welchem Grad sie meine Analyse unterstützen und meiner Forderung folgen wollen, dass Zustandsbeschreibungen durch individuelle Nationen vorgenommen werden sollten, weitgehend unabhängig vom IPCC. Diese Begutachtungen sollten am Besten durch erfahrene und etablierte Wissenschaftler durchgeführt werden, deren Reputation in traditionellen Disziplinen wurzelt, die die Klimawissenschaft bilden, speziell Physik, Chemie, Geologie, Astronomie, Sonnenphysik und Meteorologie. Die Audits sollten sich an den traditionellen Prinzipien der Wissenschaft orientieren und sich auf die wissenschaftliche Methodik und empirische Beweise stützen, die die hypothetische DAGW in Frage stellen.

Anhang A: Ausgewählte Punkte in verschiedenen, vom IPCC unabhängigen Begutachtungen und in den Berichten des NIPCC

1.

Wie aus den vom IPCC bevorzugten Temperaturaufzeichnungen von HadCRUT hervorgeht, hat es seit 1995 keine statistisch signifikante Erwärmung mehr gegeben, trotz einer Zunahme des atmosphärischen CO2-Gehaltes um 20% seit jenem Jahr (welches selbst 34% aller Emissionen in Verbindung mit Menschen seit dem Beginn der industriellen Revolution repräsentiert).

Dies ist an sich nicht so überraschend, wie es scheint. Noch einmal, es ist wissenschaftlich unumstritten, dass die Beziehung zwischen dem zunehmenden atmosphärischen Kohlendioxid und der atmosphärischen Erwärmung eine negativ logarithmische ist. Mit anderen Worten, jeder zusätzliche Eintrag verursacht eine geringere Folgeerwärmung.

2.

Gelogische Klimaaufzeichnungen zeigen, dass im richtigen Zusammenhang nichts Ungewöhnliches an der moderaten Erwärmung um ein paar Zehntelgrad ist, die es zum Ende des 20. Jahrhunderts gegeben hat. Gleiche oder höhere Temperaturen gab es viele Male in vielen Gebieten während des Holozäns (die letzten 10 000 Jahre) und während des Pleistozäns (vor 6 bis 3 Millionen Jahren), und man schätzt, dass es auf der Erde im Mittel in diesen Zeiten 2 bis 3 Grad Celsius wärmer war als heute; und keine Krise der Biodiversität ist erfolgt. Diese Art der Temperaturoszillationen ist charakteristisch während der gesamten Geologie und wurde verursacht durch solare und andere Gründe – die bei weitem noch nicht völlig verstanden sind.

3.

Betrachtet man das globale Eisvolumen, erkennt man, dass das jüngste Abschmelzen des arktischen Meereises (noch einmal, was es in früheren geologischen Zeiten schon oft gegeben hatte) durch ein Anwachsen des Meereises um die Antarktis kompensiert worden ist, d. h. die Gesamteisbedeckung hat sich kaum verändert. Außerdem ist das Schmelzen in der Arktis NICHT durch steigende atmosphärische Temperaturen verursacht worden, sondern durch viel komplexere Gründe, unter anderem Änderungen der Windsysteme (wobei Eis südwärts in wärmere Gewässer verfrachtet wird) und warme Meeresströmungen (welche beim Eintritt in den Arktischen Ozean das Eis direkt schmelzen).

4.

Die Analyse antarktischer Eisbohrkerne zeigt, dass das Niveau des Kohlendioxids und die Temperatur tatsächlich parallel variierten während der letzten vielen hunderttausend Jahre. Allerdings sind die beiden Verläufe nicht genau phasengleich, wobei Änderungen des CO2-Gehaltes den Temperaturänderungen um 800 bis 2000 Jahre hinterher hinken. Diese fundamentale Tatsache stellt die CO2-Temperatur-Annahme der DAGW-Hypothese schwer in Frage und ist konsistent mit den CO2 freisetzenden, sich erwärmenden Ozeanen.

5.

Die zahlreichen ökologischen und umweltlichen Änderungen, die der DAGW durch das IPCC zugeschrieben werden, sind genauso konsistent mit der Null-Hypothese wie die beobachteten Änderungen in der modernen natürlichen Welt, die in Übereinstimmung mit natürlichen und umweltlichen Änderungen stehen. Vögel, die früher oder später nisten, weniger oder mehr Eisbären, mehr oder weniger Regen, mehr oder stärkere Hurrikane – sollte irgendein Ereignis dieser Art stattfinden – sind durch die Bank zu erwartende Ereignisse im Zusammenhang mit der natürlichen Klimavariabilität der Erde.

Trotz gewaltiger Ausgaben für die damit verbundene Forschung ist es bisher noch keiner Studie gelungen, solche biotischen oder klimatischen Änderungen mit dem sich ansammelnden CO2 in der Atmosphäre in Zusammenhang zu bringen.

Anhang B: Das australische unabhängige Audit

Dieses Audit (Carter et al 2009) (15) der IPCC-Äußerungen, das dem australischen Parlament durch das Department of Climate Change übermittelt worden ist, wurde auf Anforderung von dem unabhängigen australischen Senator Stephen Fielding durchgeführt. Und zwar durch eine qualifizierte Gruppe erfahrener Wissenschaftler aus verschiedenen Disziplinen mit klimatologisch-meteorologischem Hintergrund, einem Hydrologen, einem Computermodellierer und einem Geologen.

Das Audit fand massive Defizite beim IPCC – bis zu einem Grad, dass Senator Fielding veranlasst hat, gegen die Gesetzgebung zum Emissionshandel zu stimmen – was zu dessen Ablehnung führte.

Die wesentlichen Schlussfolgerungen dieses australischen Audits waren Folgende:

(i) Die jüngste Zunahme der Treibhausgase spielt eine geringere radiative Rolle beim globalen Klima, es existiert kein stichhaltiger Beweis, dass menschliche CO2-Emissionen eine gefährliche globale Erwärmung verursachen oder in Zukunft verursachen werden, (ii) es ist eine unkluge Umweltpolitik der Regierung, auf einer monopolistischen Aussage zu basieren, vor allem, wenn dieses Monopol durch eine internationale politische (nicht wissenschaftliche) Agentur repräsentiert wird (d. h. das IPCC); (iii) Die Folgen der Gesetzgebung zum Emissionshandel werden so teuer, so besorglich regressiv, sozial spaltend und umweltlich ineffektiv sein, dass das Parlament die Überlegung zum CPRS (Emissionshandel) aussetzen sollte und eine vollständig unabhängige Kommission einsetzen sollte, um die Beweise für und gegen einen gefährlichen menschlichen Einfluss auf das Klima zu untersuchen. Hinsichtlich (iii) fügen wir hinzu, dass die wissenschaftliche Gemeinschaft inzwischen so polarisiert hinsichtlich dieses kontroversen Themas ist, dass die angemessene Sorgfalt hierbei nur erreicht werden kann, wenn kompetente wissenschaftliche Zeugen ins Kreuzverhör genommen werden, unter Eid und unter strikten Vorgaben von Beweisen.

Trotz dieser Forderungen und trotz des Scheiterns des Emissionshandels im Parlament wurde keine Kommission ins Leben gerufen, und die australische und internationale Presse hat nichts über dieses wissenschaftliche Audit berichtet.

 Arthur Rörsch

Über den Autor:

1 Dr. Arthur Rörsch hat einen Grad als Chemieingenieur der University of Delft (1957) und einen PhD der University von Leyden (1963). Er ist Ritter des Ordens Dutch Lion (1994). Seine wesentliche Tätigkeit war die Mitgliedschaft, zeitweise auch als Vizepräsident, des Managementboard der Netherlands Organisation for Applied Research, TNO, 1979 bis 1994) mit spezieller Verantwortung für die Forschungsgebiete öffentliche Gesundheit, Nahrung & Landwirtschaft sowie Umwelt. Als Student war er Sekretär des Departments ‚Delft’ der Netherlands Association for Meteorology and Astronomy.

Auf europäischer Ebene war er in Komitees involviert, die die Qualität von EU-Projekten und wissenschaftliche Institutionen bewerten sollte. Als Generalsekretär der European Molecular Biological Conference (einer politischen Institution mit seinerzeit 10 Mitgliedern) war er aktiv im Wechselspiel zwischen Wissenschaft und Regierungspolitik. Als Vorsitzender des National (Dutch) Council for Agricultural Research arbeitete er vier Jahre lang (1995 bis 1999) an der Entwicklung von Szenarien und Vorhersagen aus theoretischer und angewandter Sicht.

Als Mitglied des Beratungsgremiums des populären holländischen Wissenschaftsjournals ‚Natuur, Wetenschap and Techniek‘ (1970-2009) hatte er auch großes Interesse an der Qualität der Informationen, die der Öffentlichkeit von der wissenschaftlichen Gemeinschaft durch modernen Wissenschaftsjournalismus gegeben worden sind.

2 Traditionelle objektive Wissenschaft basiert auf der Interpretation von Beobachtungen und dem Formulieren einer Hypothese, gefolgt von der Interpretation und den logischen Implikationen dieser Hypothese sowie der ständigen Überprüfung. Nachmodernisten hinterfragen nicht die Rationalität, sondern ob sie eine reale Einsicht in die Welt darstellt. Regeln der Logik finden nur innerhalb eines gegebenen kulturellen Paradigmas oder Modells Anwendung, die auf einem gegebenen Denksystem beruhen.

http://en.wikipedia.org/wiki/Science_wars

http://www.spaceandmotion.com/Philosophy-Postmodernism.htm

3 Hunderte von Studien, die Daten oder Besprechungen enthalten, die nicht DAGW uunterstützen, wurden in den früheren Berichten des NIPCC unabhängig zusammengefasst und analysiert. Die Ausgaben der NIPCC-Berichte sind daher ein Muss, wenn es um Gegenliteratur zu den IPCC-Berichten geht, und zwar für diejenigen, die eine umfassende, ausgewogene Sicht des komplexen Themas DAGW und Klimaänderung erhalten wollen. http://www.nipccreport.org/reports/2011/pdf/FrontMatter.pdf

4 http://www.ipcc.ch/pdf/assessment-report/ar4/wg1/ar4-uncertaintyguidancenote.pdf

5 „Es gab eine Zeit, in der Päpste und Könige Astrologen um sich hatten, die ihnen helfen sollten, die Zukunft zu planen. Heutzutage haben Regierungsabteilungen Statistiker für den gleichen Zweck. (…) Aber für viel der statistischen Arbeit durch Regierungsabteilungen kann ich keine Entschuldigung finden“. M. J. Moroney in  ‘Facts from Figures’(Pelican 1957) in Kapitel 17 ‘Time series and Fortune Telling’

6 und 7 Für den aktuellen Stand der Technik siehe: Encyclopaedia Britannica 1964, volume V page 914-927:

„Die grobe Verteilung der Klimaänderung seit dem Ende der Eiszeit ist konsistent mit der Hypothese einer alternierenden Verstärkung und Abschwächung der planetarischen atmosphärischen Zirkulation, verbunden mit einer alternierenden Verlagerung der Windzonen in Richtung Äquator oder Pole.“

8 D.A.Randall (ed) “General Circulation Model Development. Past, Present and Future. (Academic Press

2000).

9 aktualisierte Version: EARTH’S GLOBAL ENERGY BUDGET by Kevin E. Trenberth, John T.

Fasullo, and Jeffrey Kiehl. AMERICAN METEOROLOGICAL SOCIETY März 2009

10 . J.P.A. Ioannidis. “Why most Published Research findings are false”. PloS Medicine, August ,2005.

Vol 2. Issue 8, 696-701

11 J. McLean “Peer review, what peer reviews? Failures of scrutiny of the UN’s fourth assessment report

(2007) http://scienceandpublicpolicy.org/images/stories/papers/originals/mclean/mclean_IPCC_review_final_9-

5-07.pdf

A. Montford. http://www.amazon.co.uk/Illusion-Climategate-Corruption-Science-

Independent/dp/1906768358

D. Laframboiboise. http://wattsupwiththat.com/2011/10/14/donna-laframboises-new-expose-book-onthe-

ipcc/

12 Theo Wolters. “Sceptical seminar climate report of Dutch Science academy www.climategate.nl. Dec. 29. 2011

13 Siehe: http://www.thegwpf.org/science-news/1804-vincent-courtillot-the-climate-report-by-the-frenchacademy-

of-sciences.html.

14 meinung von Hendrick Casimir, ein sehr respektierter Physiker und Wissenschaftsberater, früher Direktor des Philips Physics lab in Eindhoven, Niederlande.

15 http://joannenova.com.au/global-warming/the-wong-fielding-meeting-on-global-warming-documents/;

Punkt 7 auf der Liste)

Übersetzt von Chris Frey für EIKE




Rückkopplung über Rückkopplungen und ähnliche Dummheiten

Kiehl und Trenberth sagen, dass das Intervall der Gesamtstrahlung von fünf hauptsächlichen Treibhausgasen bei 101 (86, 125) W/m² liegt. Da in etwa alle Temperatur-Rückkopplungen seit Entstehung der Erde inzwischen stattgefunden haben, beträgt die Nach-Rückkopplung oder das Gleichgewichtssystem Klimasensitivität als Parameter 33 K, geteilt durch das treibende Intervall – nämlich 0,22 (0,27; 0,39) K pro Watt und Quadratmeter.

Multipliziert man das Sensitivitätsparamter-Intervall durch irgendeinen gegebenen Strahlungsantrieb, ergibt sich eine Gleichgewichts-Temperaturänderung. Das IPCC nimmt diesen Antrieb aus der Verdoppelung der CO2-Konzentrationen als 3,7 W/m² an, so dass die korrespondierende Erwärmung – die System-Klimasensitivität – 1,2 (1,0; 1,4) K beträgt, oder ein Drittel des IPCC-Wertes von 3,3 (2,0; 4,5) K.

Ich habe auch gezeigt, dass die offiziell geschätzten 2 W/m² aus Strahlungsantrieben und als Folge anthropogene Temperaturänderungen von 0,4 – 0,8 K seit 1750 auf eine kurzlebige Sensitivität der industriellen Ära hindeuten, die 1,1 (0,7; 1,5) K beträgt, was auf einer Linie mit der unabhängig berechneten Sensitivität des Systems liegt.

Dementsprechend liegen kurzlebige und Gleichgewichts-Sensitivitäten so dicht beieinander, dass Temperaturrückkopplungen – zusätzliche Antriebe, die ausschließlich dadurch entstehen, dass sich die Temperatur aufgrund von Anfangsantrieben ändert – sehr wahrscheinlich bei Null liegen.

Tatsächlich liegt der kurzlebige Sensitivitätsparameter bei einer Null-Rückkopplung des IPCC bei 0,31 K pro Watt pro Quadratmeter, nahe dem Wert von 0,33 den ich als Parameter abgeleitet habe.

Ich habe daraus geschlossen, dass die Klimasensitivität bei einer Verdoppelung der CO2-Konzentration in diesem Jahrhundert klein genug ist, um harmlos zu sein.

Ein sich regelmäßig zu Wort meldender Troll – das kann man an seiner dümmlichen Hasssprache erkennen, wie ich „weiterhin Sie und andere zum Narren halte“ – hat versucht zu sagen, dass der Wert 86 bis 125 W/m² als Gesamtstrahlungsantrieb durch die Gegenwart der fünf wirksamsten Treibhausgase die Rückkopplungen konsequent enthält, und vermutet ohne Beweis, dass ich (und auch die beiden Autoren) die Begriffe Antrieb und Rückkopplung durcheinanderbringen.

Nein: Kiehl und Trenberth sind in ihrer Studie ziemlich genau: „Wir berechnen den langwelligen Strahlungsantrieb eines gegebenen Gases, indem wir die atmosphärischen Absorber Stück für Stück aus dem Strahlungsmodell entfernen. Wir führen diese Rechnungen für klaren und bewölkten Himmel durch, um die Rolle der Wolken bei der Auswirkung eines gegebenen Absorbers auf den Gesamtstrahlungsantrieb zu illustrieren. Tabelle 3 listet die individuellen Beiträge jedes Absorbers zum Strahlungsantrieb auf, und zwar bei klarem (und bewölktem) Himmel“. Antrieb, nicht Rückkopplung. Tatsächlich taucht der Begriff „Rückkopplung“ in der Studie von Kiehl und Trenberth nicht ein einziges Mal auf.

Insbesondere dachte der Troll, dass wir die Rückkopplung des Wasserdampfes behandeln, als ob es ein Treiber sei. Haben wir natürlich nicht, aber wir wollen uns mal einen Moment lang vorstellen, dass wir es doch getan haben. Wenn wir jetzt CO2 zum atmosphärischen Gasgemisch hinzufügen und damit das stören, von dem das IPCC annimmt, es sei zuvor im klimatischen Gleichgewicht gewesen, dann ist es aufgrund der Clausius-Clapeyron’schen Beziehung möglich, dass der durch die Atmosphäre eingenommene Raum fast exponentiell mehr Wasserdampf enthalten kann als für die Erwärmung nötig. Dies – bis zum Eintreten des Ereignisses – wäre wirklich eine Rückkopplung.

Jedoch, wie Paltridge et al. (2009) gezeigt haben, ist nicht klar, dass die Wasserdampf-Rückkopplung auch nur annähernd so stark positiv ist, wie das IPCC es uns glauben machen möchte. Unterhalb der mittleren Troposphäre macht zusätzlicher Wasserdampf nur einen kleinen Unterschied aus, weil die wesentlichen Absorptionsbanden weitgehend gesättigt sind. Darüber tendiert zusätzlicher Wasserdampf dazu, harmlos in tiefere Schichten abzusinken, was auch nur einen sehr kleinen Temperaturunterschied zur Folge hat. Die Autoren schließen daraus, dass die Rückkopplungen irgendwie negativ sind. Diese Schlussfolgerung wird gestützt durch Messungen in Studien wie die von Lindzen und Choi (2009,2010), Spencer und Braswell (2010, 2011) und Shaviv (2011).

Man sollte sich auch daran erinnern, dass Solomon et al. (2009) gesagt haben, dass das Gleichgewicht 3000 Jahre lang nicht erreicht wird, nachdem wir das Klima gestört haben. Falls das so ist, dann ist es nur eine vorübergehende Klimaänderung (ein Drittel der IPCC-Gleichgewichtsschätzung), die wir während unserer Lebenszeit erleben und in der unserer Enkel. Wie auch immer man es einordnet, die anthropogene Erwärmung in unserer Zeit wird immer klein und daher harmlos sein.

Ein wirklich Gläubiger fragte mich kürzlich auf einer Klimakonferenz in Santa Fe mit erschrocken klingender Stimme, ob ich wirklich die Absicht habe, unsere Enkelkinder für die Konsequenzen unseres wahnsinnigen Ausstoßes von CO2 büßen zu lassen. Da die von uns ausgelöste Erwärmung gering ist und sich sehr gut als vorteilhaft herausstellen kann, hoffen wir, dass uns künftige Generationen dankbar sein werden.

Außerdem, wie schon Vaclav Klaus, der Präsident der Tschechischen Republik, weise gesagt hat, wenn wir das Erbe unserer Enkel beschädigen, indem wir dieses Erbe in sinnlose Windmühlen, quecksilbergefüllte Lampen, Solarpaneele und anderes in diesem wirren Durcheinander stecken, in teure, verschwenderische und umweltzerstörende Modedinge, werden uns unsere Nachkommen mit Sicherheit nicht dankbar sein.

Mr. Wingo und andere fragen sich, ob es sinnvoll ist anzunehmen, dass die Summe der verschiedenen Kräfte der Temperatur auf der gesamten Erdoberfläche den Kräften der Globaltemperatur gleich ist, wie sie durch die fundamentale Gleichung des Strahlungstransports festgelegt wird. Durch zonale Berechnung vieler hundert Zonen gleicher Seehöhe und damit gleicher sphärischer Oberflächen unter Berücksichtigung des Sonnenwinkels für jede Zone habe ich bestimmt, dass die Gleichung wirklich eine fast sehr genaue mittlere Oberflächentemperatur ergibt, die von der Summe der zonalen Mittel nur um insgesamt 0,5 K variiert. Mathematisch ausgedrückt, das Holder-Ungleichgewicht ist in diesem Falle fast verschwindend gering.

Dr. Nikolov jedoch glaubt, dass die Lehrbücher und die Literatur in dieser Hinsicht falsch sind: aber ich habe meine Analyse absichtlich von den Lehrbuch-Methoden und der „Mainstream-Wissenschaft“ abgegrenzt, um die Bandbreite für irgendwelche Nicht-Übereinstimmungen mit jenen, die – bis jetzt – mit der Vermutung des IPCC konform gegangen waren, dass die Klimasensitivität hoch genug ist, um gefährlich zu sein. Indem ich ihre eigenen Methoden angewendet und saubere Schlussfolgerungen von ihnen übernommen habe, lässt sie ihre Haltung besser überdenken als zu versuchen, das Rad neu zu erfinden.

Mr. Martin fragt, ob ich meine Berechnungen auch auf die Venus anwenden würde. Allerdings teile ich nicht die Ansicht von Al Gore, Dr. Nikolov oder Mr. Huffman, dass wir von der Venus wahrscheinlich Antworten bekommen, die wir zur Bestimmung der Klimasensitivität auf der Erde bräuchten. Eine kurze Kritik an Mr. Huffmans Analyse der venusianischen Atmosphärensuppe und deren Implikationen hinsichtlich der Klimasensitivität findet sich auf der schönen Website von Jo Nova.

Brian H fragt, ob Dr. Nikolov Recht hat mit seinen Rückschlüssen, dass für viele astronomische Körper (einschließlich der Venus) alles, was für die Temperatur an der Oberfläche bedeutsam ist, die Masse der atmosphärischen Last ist. Da ich mich nicht damit zufrieden gebe, dass Dr. Nikolov mit seiner Einschätzung recht hat, dass nämlich die charakteristische Emissionstemperatur der Erde um 100 K unter dem in den Lehrbüchern genannten Wert von 255 K liegt, gedenke ich hier keine weiteren Untersuchungen anzustellen, bis diese ziemlich große Diskrepanz gelöst ist.

Rosco ist überrascht, dass ich die einfallende Solarstrahlung durch 4 teile, um Watt pro Quadratmeter auf der Erdoberfläche zu bestimmen. Diesen Schritt habe ich unternommen, weil die Erde ein scheibenförmiges Gebiet der Isolierung darstellt, welche über die rotierende sphärische Oberfläche verteilt werden muss, und das Verhältnis dieser Oberfläche einer Scheibe zu einer Sphäre mit gleichem Radius ist 1:4.

Andere Kommentatoren haben gefragt, ob die Tatsache, dass die charakteristische Emissionssphäre eine größere Oberfläche hat als die Erde, irgendeinen Unterschied macht. Nein, macht es nicht, weil das Verhältnis der Oberflächen einer Scheibe und einer Sphäre 1:4 ist, unabhängig vom Radius und damit der Oberfläche der Sphäre.

Rosco zitiert auch Kiehl und Trenberths Bemerkung, dass die absorbierte und emittierte Strahlung an der Erdoberfläche 390 W/m² beträgt. Die beiden Autoren wollen damit indirekt sagen, dass sie diesen Wert abgeleitet haben, indem sie den vierten Teil der irdischen mittleren Oberflächentemperatur von 288K mit der Stefan-Boltzmann-Konstante (0,0000000567 Watt pro Quadratmeter und Kelvin zum 4. Teil) multipliziert haben.

Sollten Kiehl und Trenberth mit ihrer Annahme recht haben, das seine strikte Stefan-Boltzmann-Beziehung auf diese Weise an der Oberfläche wirkt, können wir legitimerweise darauf hinweisen, dass der Klimasensitivitätsparameter vor der Rückkopplung – das erste Differential der Fundamentalgleichung des Strahlungstransportes mit den obigen Werten des Strahlungsflusses an der Oberfläüche und der Temperatur – 288/(390 x 4) = 0,18 K pro Watt und Quadratmeter beträgt. Wäre das so, selbst wenn wir annehmen, dass die implizite IPCC-Schätzung eines stark positiven Feedbacks 2,1 Watt pro Quadratmeter und Kelvin beträgt, würde die Gleichgewichts-Klimasensitivität bei einer Verdoppelung des CO2-Gehaltes 3,7 x 0,18 / (1-2,1 x 0,18) = 1,1 K. Und wo haben wir diesen Wert schon mal gesehen?

Bei all dem möchte ich natürlich nicht dafür garantieren, dass die Ergebnisse des IPCC, von Kiehl und Trenberth oder dass die Methoden des Lehrbuches richtig sind: das wäre, bildlich gesprochen, weit über meiner Gehaltsgruppe. Wie jedoch Mr. Fenley-Jones korrekt angemerkt hat, bin ich ziemlich glücklich, Folgendes zu zeigen: falls ihre Methoden und Werte korrekt sind, läge die Klimasensitivität – wie auch immer man die berechnet – bei einem Drittel von dem, was sie uns glauben machen wollen.

Alle Beitragenden – selbst die Trolle – haben mir sehr dabei geholfen zu klären, was im Grunde ein einfaches, aber kein simplizistisches Argument ist. Jenen, die diese Diskussion auf verschiedenen Weise komplizieren möchten, sage ich, wie der hervorragende Willis Eschenbach schon vorher hier gesagt hat, dass man sehr genau den Unterschied zwischen vordergründigen Effekten, die definitiv das Ergebnis verändern, und untergeordneten Effekten beachten, die das Ergebnis ändern oder nicht ändern, aber eine Veränderung wäre klein, und drittrangigen Effekten, die definitiv keine Änderung bringen, die groß genug ist, um einen Unterschied auszumachen. Man sollte knallhart drittrangige Effekte ausschließen, auch wenn  sie vordergründig interessant sind.

Unter der Voraussetzung, dass das IPCC die Klimasensitivität um das Dreifache übertreibt, machen nur die größten vordergründigen Einflüsse einen signifikanten Unterschied bei der Berechnung. Und es sind die offiziellen Methoden, mit denen diese Einflüsse behandelt werden, die ich hier durchweg angewandt habe.

Mein Vorsatz für das neue Jahr ist es, ein kleines Buch über die Klimafrage zu schreiben, in welchem ich die Ergebnisse dieser Diskussion hier darstellen werde. Man wird dort lesen, dass die Klimasensitivität niedrig ist. Selbst wenn sie so hoch wäre wie das IPCC uns glauben machen möchte, wäre es mindestens eine Größenordung besser, uns an die Folgen irgendeiner Erwärmung anzupassen als zu versuchen, diese zu verhindern; dass es viele Arten von Beweisen für systematischen Betrug und Korruption gibt bei einer überraschend kleinen Clique von politisch motivierten „Wissenschaftlern“, die die jetzt scheiternde Klimaangst erzeugt und weitergetrieben haben; und dass zu viele, die es besser wissen sollten, in eine andere Richtung geschaut haben, als ihre akademischen, wissenschaftlichen, politischen oder journalistischen Kollegen ihre schäbigen Betrügereien begangen und betrieben haben, weil Schweigen im Angesicht offizieller Verlogenheit sozial bequem, politisch passend und über allem finanziell profitabel ist.

Im letzten Kapitel werde ich hinzufügen, wie groß inzwischen die echte Gefahr ist, dass die UN mit Beratern aus der Europäischen Union damit Erfolg haben, die durch die Klima- und Umweltproblematik gestützte betrügerische Wissenschaft wie ein trojanisches Pferd benutzen, um die Demokratie in jenen Ländern auszulöschen, die anders als die Länder in Europa diese immer noch glücklicherweise haben; dass die Freiheit in der Welt als Konsequenz in aktueller und ernster Gefahr ist, und zwar durch die unverhohlenen Ambitionen einer besitzergreifenden, talentfreien und wissenschaftlich ungebildeten regierenden Elite einer Weltregierung, die überall dabei sein möchte; aber dass – wie die jüngste Geschichte der bürokratisch-zentralistisch geführten, aber inzwischen gescheiterten EU zeigt – die machtbesessenen Nicht-Didaktiker untergehen, und sie werden klein gehalten durch die unvermeidliche Sinnlosigkeit ihrer Versuche, mit den Gesetzen der Physik und der Wirtschaft herumzupusseln.

Die Armee der Erleuchteten und der Wahrheit, wie wenige auch immer wir sind, werden am Ende still über die Kräfte der Dunkelheit triumphieren: weil, ob sie es mögen oder nicht, die unveränderliche Wahrheit nicht unbegrenzt durcheinandergebracht, verborgen oder ihr nicht widersprochen werden kann. Wir haben die Gesetze der Wissenschaft nicht gemacht: also liegt es auch jenseits unserer Möglichkeiten, sie außer Kraft zu setzen.

Christopher Monckton of Brenchley

Den Originalartikel finden Sie hier!

Übersetzt von Chris Frey für EIKE




Der Siegeszug der Kernkraft beginnt erst!

Vorbemerkung I

Im Gegensatz zu Deutschland läuft im Rest der Welt weiterhin eine mächtige Aktivität zur Verstärkung und auch insbesondere zur erstmaligen Einführung dieser Technologie. Die Arbeitsgemeinschaft "Internationale Forum IV. Generation (GIF)" – siehe Vorbemerkung III – arbeitet gemeinsam an 7 neuen Reaktorkonzepten, die sämtlich eine noch weit erhöhte Sicherheit im Vergleich zu heutigen KWK bieten; teilweise auch eine „inhärente“ Sicherheit, also die physikalische Unmöglichkeit einer Kernschmelze.

Zahlreiche innovative Neuentwicklungen verbreiten das Anwendungsfeld der Nukleartechnik auf sämtliche Bereiche der Energieanwendung.  Zu erwähnen ist insbesondere die Entwicklung von Kleinreaktoren, die der Nukleartechnik sehr große neue Anwendungsfelder eröffnen (siehe Vorbemerkung IV).

Daß vor diesem Hintergrund von deutschen Politikern wiederholt von der Kernkraft als nur noch für kurze Zeit brauchbare „Brückentechnologie“ gesprochen wird, zeigt ihren Versuch, eine unwillkommene quantitativ und insbesondere qualitativ zunehmende internationale Entwicklung durch das Etikettieren mit abwertenden Begriffen als vorübergehende Erscheinung  darzustellen.

Die Regierungen der übrigen Nationen beachten das nicht, wie die folgenden Ausführungen zeigen.

Eine zusammenfassende Bilanz der weltweiten Aktivitäten:

(Da KKW aus einem oder mehreren Reaktorblöcken bestehen können, ist es sinnvoll, nur die Blöcke zu zählen. Da die Blockleistung bei neuen Anlagen oft 1.000 – 1.500 MW (Megawatt) erreicht, bedeuten neue Reaktorblöcke häufiger als früher neue leistungsstarke KKW mit nur einem Block.)

► Seit dem Jahre 2004, als 22 KKW-Blöcke im Bau waren, ist die Anzahl der im Bau befindlichen Projekte kontinuierlich gestiegen.

► Im Oktober 2011 waren in 31 Ländern insgesamt 432 Reaktoren mit einer Gesamtleistung von 369.000 MWel in Betrieb.

► 6 KKW haben 2010 den Betrieb neu aufgenommen.

► Mitte Oktober 2011 gab es 63 aktive Bauprojekte in 13 Ländern für KKW  (1. Beton gegossen bzw. in der Ausrüstung):

(Argentinien:1; Brasilien:1; Kanada:3; China:27; Finnland:1; Frankreich:1; Indien:6; ;Japan:2; Südkorea:5; Pakistan:1; Russland:10; Slowakische Republik:2;  Taiwan:2, USA:1).

► Bereits bestellt bzw. im fortgeschrittenen Planungsstadium waren in 20 Ländern 152 KKW-Blöcke (Genehmigung und Finanzierung bzw. größere Finanzierungszusagen liegen vor; erwartete Betriebsaufnahme in 8 – 10 Jahren).

►  Vorgeschlagen sind weitere 350 Blöcke, davon 120 in China, 40 in Indien, 30 in Russland, 27 in USA, 16 in Saudi-Arabien (erwartete Betriebsaufnahme in ca. 15 Jahren).

Hiermit wird ein weltweiter, detaillierter Überblick über diese Entwicklung – d.h. die Neubauprojekte und die konkreten Planungen –  präsentiert.

Die Fukushima-Katastrophe hat weltweit unterschiedliche Reaktionen hervorgerufen, über die hier ebenfalls berichtet wird – siehe die fettgedruckten Passagen in den folgenden Länderberichten:

Australien, Chile, China, Deutschland, England, EU, Finnland, Frankreich, Indien, Italien, Japan, Korea, Polen, Russland, Schweden, Schweiz, Slowakische Republik, Spanien, Tschechien, Türkei, USA, Venezuela, Weißrussland.

Daraus wird deutlich, daß es in keinem Land auch nur annähernd so extreme Reaktionen gab, wie in Deutschland. Offensichtlich setzen nahezu alle Länder ihre Kernkraftaktivitäten wie geplant fort, wobei Sicherheitsaspekte noch stärker ins Gewicht fallen als zuvor. Veränderungen in dieser Hinsicht planen die Schweiz und Japan (s.d.).

Unmittelbare Konsequenzen ergeben sich  für alle durch schwere Erdbeben gefährdete Nationen, insbesondere die auf dem sog. pazifischen Feuerring liegenden (Japan, Indonesien, Kalifornien, Chile) und ebenso für die Türkei. Wie das Tohoku-Erdbeben vom 11. März zeigte, sind die an erdbebengefährdeten Küsten liegenden existierenden KKW selbst gegen derart schwere Erschütterungen gut gerüstet, aber ob das auch in jedem Einzelfall für Tsunamis gilt, kann man  anzweifeln.

Vorbemerkung II

Die weltweite nukleare Renaissance erfolgt auf drei Wegen:

► Die überwiegend staatlich geleitete und finanzierte Fortführung des Nuklearanlagen-Baus in Ländern mit existierender Industrie, wie Frankreich, Finnland, Südkorea, China, Indien und Russland;

 Erneuerte Unterstützung der Kerntechnik in Ländern mit existierender Industrie, die aber keine Neubauten in den letzten Jahrzehnten sahen, wie insbesondere das Vereinigte Königreich und die USA;

 Eine Reihe potentieller Newcomer im Nuklearmarkt, wobei die substantiellste Gruppe aus diversen aufsteigenden Wirtschaftsnationen Asiens und des Mittleren Ostens besteht.

 Drei Länder hatten sich für die Beendigung der Nuklearenergie entschieden: Belgien, Deutschland  und Schweden. Schweden hat  seine Meinung geändert. In Belgien gab es inzwischen eine Laufzeitverlängerung für zwei KKW. Italien, das keine KKW besitzt, wollte ein Neubauprogramm beginnen. Nach dem Ergebnis eines kürzlich dazu durchgeführten Referendums wird das nicht erfolgen.

Doch in Osteuropa und Asien wurde der Aufbau neuer nuklearer Kapazitäten zu keinem Zeitpunkt gestoppt, im Gegenteil.

Die Situation in Japan ist vorübergehend unklar: Zunächst wird man bemüht sein, die vorhandenen unbeschädigten  KKW nach Sicherheitsüberprüfungen komplett wieder in Betrieb zu bringen, da der Strom dringend benötigt wird. Die Neubaupläne wird man vorübergehend auf Eis legen, aber später vermutlich – evtl. mit sicherheitstechnischen Modifikationen und Auflagen – wieder verfolgen, weil es nicht vorstellbar ist, daß Japan in großem Stil wieder Kohlekraftwerke baut.

Die Schweiz wird voraussichtlich in 2 – 3 Jahren eine Volksabstimmung zur Kernkraft haben.

Vorbemerkung III

Das "Internationale Forum IV. Generation (GIF)"

► Im Jahre 2001 unterzeichneten 13 Nationen das Gründungsdokument (die Charta):  Argentinien, Brasilien, Kanada, Frankreich, Japan, Republik Korea, Republik Südafrika, Großbritannien, USA. Anschließend traten weitere Nationen dem GIF bei: Schweiz 2002; EURATOM 2003; VR China und Russland 2006.

► Die EU-Kommission benannte ihre Generaldirektion Joint Research Centre (JRC) als ihre Instanz für die Vertretung der EURATOM-Interessen in der GIF. Obwohl Deutschland Mitglied der Europäischen Atomgemeinschaft EURATOM ist, beteiligt es sich faktisch nicht an GIF-Reaktorentwicklungen. Deutsche

Kernforschungsinstitute erhalten keine staatlichen Mittel dafür; nur für Sicherheitsforschung, die aber ohne die unverzichtbare Beteiligung an neuen Reaktorentwicklungen auch bei aller Bemühung und Fachkompetenz kaum nennenswerte Beiträge liefern kann.

► Das Ziel des GIF: Identifizierung und Auswahl von 7 nuklearen Energiesystemen zu deren weiterer Entwicklung. Die auszuwählenden 7 Systeme bieten eine

Vielzahl von Reaktor-, Energieumwandlungs- und Brennstoffkreislauf-Technologien. Ihre Designs weisen thermische und schnelle Neutronenspektren auf, geschlossene und offene Brennstoffkreisläufe und eine größere Spannweite von Reaktorgrößen – von sehr klein bis sehr groß. Abhängig von ihrem einzelnen technischen Reifegrad erwartet man, dass die Systeme der IV. Generation im Zeitraum zwischen 2020 und 2030 und danach zur Anwendung kommen.

► Die von der GIF ausgewählten Systeme sind:

  • 1. Gasgekühlter Schneller Reaktor (GFR): 

  • mit schnellem Neutronenspektrum, einem mit Helium gekühlten Reaktor und geschlossenem Brennstoffkreislauf; Temperatur 850 Grad Celsius; Herstellung von Strom und Wasserstoff. Beteiligt: Japan, Frankreich, Euratom, Schweiz

  • 2. Hochtemperaturreaktor (VHTR):

  • Graphit-moderierter, Helium-gekühlter Reaktor mit offenem Einweg-Uran-Brennstoffkreislauf ; hoher Druck; Temperatur 900 – 1000 Grad C; dadurch            fähig zur thermochemischen Wasserstofferzeugung über einen zwischengeschalteten Wärmetauscher; vollständige passive Sicherheit.
  • Aufgabe: Strom und Wasserstoffherstellung.
  • Beteiligt: USA, Japan, Frankreich, Kanada, Korea, Schweiz, Euratom, China.

  • 3. Superkritischer wassergekühlter Reaktor (SCWR):

  • wassergekühlter Hochtemperatur- und Hochdruck-Reaktor, der oberhalb des thermodynamischen kritischen Punktes von Wasser arbeitet; sehr hoher Druck von 25 MPa; Neutronenspektrum thermisch bis schnell; :Temperatur 510 – 625 Grad C;
  • Aufgabe: Stromerzeugung.
  • Beteiligt: Euratom, Kanada, Japan, Korea als Beobachter

  • 4. Natriumgekühlter Schneller Reaktor (SFR): 

  • Schnelles Neutronenspektrum, Kühlung mit flüssigem Natrium, geschlossener Brennstoffkreislauf für das effiziente  Management von Aktiniden (Transurane) und für die Umwandlung von Natururan in Spaltmaterial; Druck nahe bei Atmosphärendruck; Temperatur 500 – 550 Grad C; 
  • Aufgabe:  Stromerzeugung.
  • Beteiligt: Japan, USA, Frankreich, Euratom, Korea, China, Russland als Beobachter

  • 5. Bleigekühlter Schneller Reaktor (LFR): 

  • Mit schnellem Neutronenspektrum und einer Kühlung mit flüssigem Blei oder einer flüssigen eutektischen Blei-Wismut-Mischung;  Temperatur 480 – 800 Grad C; Aufgabe: Erzeugung von Strom und Wasserstoff;
  • Beteiligt: Euratom und Japan (MoU in Verhandlung); USA und Russland als Beobachter

  • 6. Schneller Salzschmelze-Reaktor (MSFR): 

  • Umlaufende  geschmolzene Fluoridsalz-Brennstoff-Mischung;   geschlossener Brennstoffkreislauf mit  vollständigem Aktiniden-Recycling; niedriger Druck; passive Kühlung; Temperatur: 700 – 800 Grad C;
  • Aufgabe: Strom- und  Wasserstoffherstellung;
  • Beteiligt: Euratom, Frankreich und USA: MoU in Verhandlung; Russland als Beobachter.

  • 7. Hochtemperatur-Salzschmelze-Reaktor (AHTR): 

  • Thermisches (langsames) Neutronenspektrum; gleiche Grafitkernstruktur wie VHTR, jedoch Kühlmittel Fluoridsalze anstelle von Helium; offener Brennstoffkreislauf; passive Kühlung; Temperatur: 750 – 1000o C;
  • Aufgabe: Erzeugung von Wasserstoff.;

.

Bewertung des GIF: "Diese Systeme bieten signifikante Fortschritte in Nachhaltigkeit, Sicherheit und Zuverlässigkeit, Wirtschaftlichkeit, Schutz gegen Weiterverbreitung und in physikalischem Schutz."

Vorbemerkung IV

Miniatur-Kernkraftwerke – eine neue Klasse kompakter Strom-Wärme-Erzeuger

In der Kerntechnik wußte man schon lange, daß der Bau von wesentlich kleineren Reaktoren als die derzeit den Kraftwerkspark der Welt beherrschenden Typen ohne weiteres möglich ist. Forschungsreaktoren und Reaktoren für die Herstellung von medizinisch nutzbaren Isotopen gibt es schon lange. Einige Kleinreaktoren wurden auch in beachtlicher Stückzahl gebaut, allerdings überwiegend als Antriebs-Energiequelle in Atom-U-Booten und nur wenige in Handelsschiffen und Eisbrechern. Weitere dienten als Energiequellen für entlegene Standorte im hohen Norden.

Dies hat sich seit einiger Zeit grundlegend geändert: Jetzt werden Kleinreaktoren in enormer Vielfalt und in allen bekannten Reaktortechnologien entwickelt.

Mit Kleinanlagen sollen Versorgungslücken geschlossen und neue Anwendungen erschlossen werden. Ihre durchweg hohe Sicherheit, durch die ihre Akzeptanz bei der Bevölkerung erhöht werden kann, und ihre sehr oft unterirdische Bauweise    prädestiniert diese Systeme als stadtnahe Strom- und Fernwärmelieferanten. Weiterhin ist die Meerwasserentsalzung bei mehreren Kleinsystemen ein Anwendungszweck, ebenfalls die Wasserstoffproduktion. Auch könnte die Stromversorgung in Ländern mit wenig Infrastruktur und geringerer Bevölkerungsdichte dadurch bezahlbar werden. Die günstigen Kosten können durch die Komplett-Vorfertigung in der Fabrik mit ihren Preis- und Qualitätsvorteilen erzielt werden. Die Modularität erhöht die gesamte Anlagenverfügbarkeit und zugleich die Sicherheit.

Nukleare Kleintechnik bietet daher vor allem einen Weg für Entwicklungsländer, um eine Nuklearindustrie zu einem Bruchteil der Kosten und Risiken aufzubauen, die üblicherweise mit großen konventionellen Kernkraftwerken in Verbindung gebracht werden. Kleine Nuklearanlagen können die Energielösung für die Grundlastversorgung für viele Entwicklungsländer darstellen, die ansonsten auf fossile Brennstoffe angewiesen wären. Für alle Länder, die in gemäßigten oder kälteren Zonen liegen, kann diese Technik Gas und Heizöl ersetzen. Durch die Wasserstofferzeugung könnten chemische Treibstoffe mit Hilfe der Nukleartechnik hergestellt werden.

Diese Entwicklung bedeutet eine Ausweitung der Kernenergie-Anwendung in mehrere neue und bedeutende Energiemärkte, die kaum unterschätzt werden kann.

Eine Übersicht über die derzeit in der Entwicklung befindlichen Kleinsysteme mit elektrischen Leistungen bis 100 MW: 

Leichtwasser-Reaktoren

KLT-40S (Russland)

Als Nachfolger der schon länger in Eisbrechern eingesetzten KLT-40-Reaktoren entwickelte das russische Unternehmen OKBM den 35 MWe -Druckwasserreaktor KLT-40S. Er soll als schwimmendes Kraftwerk eingesetzt werden, das entlegene Hafenstädte mit Strom und Wärme versorgen kann.

Zur Sicherheitsauslegung gehören 5 Barrieren (Uranpellets, Brennstäbe, der Primärkreislauf, das Containment und der abgeschlossene Reaktorraum), die den Austritt von radioaktivem Material verhindern sollen. 

Die Konstruktion begann 2007, am 30.6.2010 fand in der baltischen Werft in St. Petersburg der Stapellauf des ersten schwimmfähigen Kernkraftwerks Akademik Lomonossow statt. Die Installation der zwei Reaktoren erfolgt 2011 und ebenfalls der erste Test, 2013 die Endabnahme.

Jeweils 2 dieser Reaktoranlagen werden auf einer 144 m langen Barke installiert.  

Als Option ist auch die Ausrüstung mit zwei Entsalzungsanlagen zur Trinkwasserherstellung  vorgesehen. Das schwimmende Heizkraftwerk  soll für eine 35 bis 40-jährige Betriebsdauer ausgelegt sein.

Erster Einsatz soll 2012 an der Halbinsel Kamtschatka zur Versorgung der Siedlung Viljuchinsk erfolgen. Russland bemüht sich stark um Exporte dieser Anlage nach Asien, Lateinamerika und Nordafrika.

mPower (USA)

Babcock & Wilcox (B&W) hat ein mPower genanntes Konzept für ein aus modular aufgebauten 125 MWe -Leichtwasser-Reaktorblöcken bestehendes Kraftwerk konzipiert.  Die Anlagen können mit 1 bis 10 Reaktor-Modulen bestückt werden. B&W bezeichnet diese Anlage als „Generation 3++“, womit auf den höheren Sicherheitsstandard hingewiesen werden soll.

Reaktor und Dampferzeuger sowie eine Lagermöglichkeit für abgebrannte Brennelemente bilden bei diesem Design eine in einem gemeinsamen Behälter befindliche Einheit. Dieses sog. Nuclear Steam Supply System NSSS befindet sich in einem unterirdischen Containment. Bei einem Brennelemente-Wechsel oder bei Reparaturarbeiten muß nur ein Modul heruntergefahren werden, während die übrigen weiter laufen.

Jedes Modul soll für eine Laufzeit von 60 Jahren ausgelegt sein, während ein Betriebszyklus 4,5 Jahre betragen soll.

Ein wesentlicher Vorteil dieses Konzepts sei die kostengünstige und qualitativ überlegene Komplettfertigung des NSSS in einer Fabrik, von der es zur Kraftwerksbaustelle transportiert und eingebaut werden kann.   Daher soll die Bauzeit für eine Anlage nur 3 Jahre betragen.

Betont werden die erweiterten Sicherheitsfunktionen der Reaktoren: Insbesondere passive Sicherheitssysteme, keine aktiven Kernkühlsysteme. Keine Notstromaggregate, sondern Batterieversorgung.

Erste Arbeiten in der Produktion sollen 2013 beginnen. B&W und Bechtel haben eine Gemeinschaftsentwicklung für das mPower-Konzept vereinbart.

B&W verfügt für den mPower bereits über Verträge mit drei Versorgern (TVA; First Energy; Oglethorp Power).

NuScale (USA)     

NuScale entwickelt ein Konzept für modular aufgebaute Leichtwasser-Reaktoren.

Eine NuScale-Anlage soll aus 12 Modulen bestehen und eine Leistung von 540 MWel liefern, wobei das Einzelmodul 45 MWel beisteuert. Der einzelne Reaktor-Druckbehälter, der die Abmessungen 14 m Länge und 3 m Durchmesser besitzt, befindet sich in einem separaten Containment von 18 m Länge und 4,5 m Durchmesser. Auch Dampferzeuger und Druckhalter befinden sich in dem Modul.

Für einen Brennelementwechsel muß nur ein Einzelmodul herunter gefahren werden. Es wird dann von den Speisewasser- und Dampfleitungen getrennt und mittels eines Krans in ein Wechselbecken befördert, wo der BE-Wechsel per Fernbedienung ausgeführt wird.

Zur Erhöhung der Sicherheit wurden verschiedene zusätzliche Barrieren eingeführt: Ein Containment-Pool, der die einzelnen Module umgibt, dann die Stahlbetonhülle des Pools, ein biologischer Schild und schließlich das Reaktorgebäude selbst. Das Notkühlsystem des Reaktors arbeitet passiv und bedarf keiner Stromversorgung.

Ferner sind alle kritischen Komponenten unterirdisch installiert – als Schutz gegen äußere Einwirkungen (Flugzeugabstürze etc.).

Wie beim Konzept mPower werden die Module in einer Fabrik komplett gefertigt und per Zug, LKW oder Schiff zur Baustelle gebracht.

SMART (Südkorea)

Das Korea Atomic Energy Research Institute KAERI arbeitet seit 1997 gleichfalls an einem modularen Kleinreaktorkonzept „System-Integrated Modular Advanced Reactor (SMART)“. Es handelt sich um einen Druckwasserreaktor, der für  Stromerzeugung, Meerwasserentsalzung und Fernwärmeversorgung eingesetzt werden soll.

Sein integraler Aufbau bedeutet, daß alle Primärkomponenten wie der Reaktorkern, der Dampferzeuger, die Kühlpumpen und Druckhalter in einem Behälter untergebracht sind. Die Leistung beträgt über 330 MWt und 100 MWe ; die Anlage ist auf eine 60-jährige Betriebsdauer ausgelegt.

Neben einer Vielzahl von Sicherheitssystemen stellt die passive Ableitung der Restwärme  eine Neuerung dar.

KAERI ist eine Partnerschaft mit dem KEPCO-Konsortium (siehe Korea) eingegangen. Die Designarbeit soll Ende 2011 abgeschlossen werden.

CAREM (Argentinien)

Ein modularer 27 MWe Druckwasserreaktor mit integriertem Dampferzeuger. Für Stromerzeugung oder Wasserentsalzung. Das primäre Kühlsystem ist innerhalb des Druckbehälters untergebracht. Das Kühlsystem basiert allein auf Wärmeableitung. Jährliche Brennstoff-Nachfüllung. Fortgeschrittene Entwicklung; in ca. 10 Jahren Einsatz in der NW-Provinz Formosa.

VKT-12 (Russland)

Der VKT-12 ist ein kleiner transportabler 12 MWe Siedewasserreaktor (BWR), der dem   VK-50 – BWR-Prototyp in Dimitrowgrad ähnelt. Ein Kreislauf, Keramik-Metall-Kern. Brennstoffwechsel alle 10 Jahre. Reaktorbehälter 2,4 m Innendurchmesser,

Höhe 4,9 m.

ABV (Russland)

Ein in Entwicklung befindlicher kleiner Druckwasserreaktor von OKBM Afrikantow ist der ABV mit einem Leistungsspektrum von 45 MWt  (ABV-6M) bis herunter zu 18 MWt  (ABV-3), somit 18 – 4 MWe. Die Einheiten haben einen integrierten Dampfgenerator. Sie werden in einer Fabrik für die Montage auf festem Grund oder auf einem Lastkahn    produziert .  Brennstoffwechsel-Intervall ist ca. 8-10 Jahre; Betriebsdauer ca. 50 Jahre.

NHR-200 (China)

Der Nuclear Heating Reactor (Nuklearer Heizreaktor) NHR-200, entwickelt vom Institute of Nuclear and New Energy Technology der Tsinghua Universität, ist ein einfacher

200 MWth Druckwasserreaktor für die Fernheizung oder Wasserentsalzung. Er basiert auf dem NHR-5. Im Jahre 2008 stimmte die Regierung dem Bau einer sog. Multi-Effekt-Entsalzungsanlage (MED) mit dem NHR—200 auf der Halbinsel Shandong zu.

Holtec HI-SMUR (USA)

Holtec International gründete im Februar 2011 eine Tochter – SMR LLC – um ein 140 MWe  – Reaktorkonzept „Holtec Inherently Safe Modular Underground Reactor – HI-SMUR 140“) kommerziell zu verwerten. Es ist ein Druckwasserreaktor mit externem Dampfgenerator. Er besitzt völlige passive Kühlung sowohl im Betrieb als auch nach Abschaltung. Das gesamte Reaktorsystem soll unterirdisch installiert werden. Holtec will den Antrag für die Design-Zertifizierung durch das NRC gegen Ende 2012 einreichen. Die Shaw-Gruppe leistet Engineering-Unterstützung.

TRIGA (USA)

Das TRIGA Power System ist ein Druckwasserreaktor, dessen Konzept auf General Atomics bewährtem Forschungsreaktor-Design beruht. Es ist ein 64 MWth , 16,4 MWe  System, das bei relativ niedriger Temperatur arbeitet. Das Sekundärkühlmittel ist Perfluorkohlenstoff. Der Brennstoff ist Uran-Zirkon-Hydrid. Verbrauchter Brennstoff wird im Reaktorbehälter gespeichert.

Schnelle Salzschmelze-Reaktoren

FUJI (Japan)

Dieses maßgeblich von dem japanischen Wissenschaftler Dr. Kazuo Furukawa begleitete Reaktorkonzept gehört im Grunde bereits zur IV. Generation (Nr.6 in Vorbemerkung III) der Flüssigsalz-Reaktoren (MSR). Mit diesem Konzept beschäftigt sich ein internationales Konsortium aus Japan, Russland und den USA.

Der FUJI ist ein kleiner Brutreaktor mit eigenem Brennstoffkreislauf.

Als Vorstufe soll eine kleinere Version – der miniFUJI – gebaut werden, der eine Größe von nur 1,8 m Durchmesser und 2,1 m Höhe aufweisen und dabei jedoch die respektable Leistung von 7 bis 10 MWel erreichen soll. Nach mehrjähriger Erprobung soll dann der FUJI gebaut werden, der mit 5,4 m Durchmesser und 4 m Höhe eine Leistung von 100 bis 300 MWel erreichen könnte.

Das Prinzip: Grafitmoderierung; keine Metallteile im Inneren des Reaktors, das Flüssigsalz ist nicht brennbar (im Gegensatz zum Natrium-gekühlten Brutreaktor) und chemisch inaktiv.  Der Reaktor wird passiv gekühlt und der Brennstoff kann jederzeit durch Schwerkraft, also ohne Pumpen etc., aus dem Reaktor entfernt werden. Dabei gelangt der Brennstoff in einen Entladetank, der von einem passiven Kühlsystem umschlossen wird. Ein System aus Schutzbarrieren soll den FUJI umgeben.

Auch soll das sehr gut verfügbare Thorium (etwa 10-fach größere Vorräte als Uran vorhanden) als Brennstoff mitgenutzt werden.

Am 18.6.2010 wurde in Tokio die International Thorium Energy & Molten-Salt Technology Inc. (IThEMS) gegründet, die innerhalb von 5 Jahren den ersten Thorium-MSR miniFUJI bauen will.

Zu den Vorteilen gehört insbesondere die praktische Unmöglichkeit einer Kernschmelze und/oder einer Freisetzung großer Mengen an radioaktiven Substanzen.  Auch existiere eine weitgehende Verringerung der terroristischen Bedrohung, da kaum waffenfähiges Plutonium im Reaktor erzeugt wird.

Eine wichtige zusätzliche Eigenschaft, die prinzipiell alle schnellen Brutreaktoren und damit auch der FUJI aufweisen, ist die Verbrennung (Spaltung) von langlebigen radioaktiven Abfällen aus Leichtwasser-Reaktoren der II. und III. Generation, die dem FUJI als Brennstoff dienen können – wodurch Spaltprodukte mit einer mittleren Halbwertszeit von nur ca. 100 Jahren als Abfall übrig bleiben.

Flüssigmetall-gekühlte schnelle Reaktoren

HPM (USA)

Die Hyperion Power Generation Inc. in Santa Fe baut einen Minireaktor „Hyperion Power Module, HPM“  mit einer Leistung von 25 MW (elektrisch) und 75 MW (thermisch).

Es handelt sich um einen bleigekühlten Schnellen Reaktor (LFR)  mit  Kühlung durch eine flüssigen eutektischen Blei-Wismut-Mischung. Eine Version dieses Reaktortyps fuhr jahrelang in der russischen Alpha-U-Boot-Klasse als Antriebsquelle, aber Hyperions HPM-Design hat einen anderen Ursprung: Das Los Alamos National Laboratory (LANL) hat das Konzept entwickelt und es steht nach wie vor als „brain trust“ hinter dieser Entwicklung. Hyperion ist ein „spin-off“ des LANL zum Bau und zur Vermarktung des Typs.

Der HPM weist ein geschlossenes Brennstoffsystem auf. Der kleine Reaktor – mit den Abmessungen 1,5 m Durchmesser, 2,5 m Höhe – wird vollständig in einer Fabrik hergestellt und dann per Bahn, LKW oder Schiff zum Einsatzort gebracht. Der enthaltene Brennstoffvorrat reicht für einen 10-jährigen Betrieb, nach dem der Reaktor zur Fabrik zurück gebracht und dort mit neuem Brennstoff versehen wird. Die gesamte Anlage ist kleiner als ein Acre (4047 m2) und wird unterirdisch eingebaut.

Hyperion hat mit dem Savannah River National Laboratory SRNL, das dem Energieministerium DOE gehört, ein Abkommen zur Errichtung des HPM auf dem SRNL-Gelände abgeschlossen.

Das Unternehmen hat eine weitere Anwendung im Blick: Schiffsantriebe. Ein Konsortium der Strategic Research Group von Lloyd´s Register, Hyperion Inc., dem britischen Entwickler BMT Nigel Gee und dem griechischen Schiffsbetreiber Enterprises Shipping and Trading SA will den HPM als Antrieb großer Schiffe, speziell Großtanker, voranbringen. Man denkt an Kleinreaktoren mit über 68 MW (das hieße 2-3 HPM) als „plug-in“ Nuklear-“Batterien“.

Lloyd´s R. Sadler: „…wir werden nukleare Schiffe auf bestimmten Handelsrouten früher sehen, als viele derzeit annehmen.“

Am 9.12.2010 hat Hyperion der NRC die erste formelle Präsentation des HPM vorgestellt und damit den ersten Schritt zur Lizensierung des Designs getan.

Die Finanzierung erfolgt durch die Risikokapital-Firma Altira, Denver.

SSTAR (Japan)

Dieser bleigekühlte schnelle Reaktor wird von Toshiba u.a. entwickelt. Er wird bei

566o C betrieben, besitzt einen integrierten Dampferzeuger und soll unterirdisch installiert werden. Wirkungsgrad 44%. Nach 20 Betriebsjahren ohne neuen Brennstoff wird der komplette Reaktor zum Brennstoff-Recycling abgeholt. Der Kern ist 1 m hoch und hat 1,2 m Durchmesser (20 MWe –Version).

SVBR-100 (Russland)

Der Blei-Wismut-gekühlte Schnelle Reaktor SVBR mit 75-100 MWe und

400 – 495 oC wurde von Gidropress entwickelt. Bei seinem integrierten Design sitzt der Dampfgenerator im gleichen Behälter wie der Kern. Der Reaktor würde in der Fabrik gefertigt und dann mit 4,5 m Durchmesser und 7,5 m Höhe in einem Wassertank installiert, der passive Wärmeabfuhr und Abschirmung bietet. Russland baute 7 Alfa-Klasse U-Boote, die mit einem kompakten 155 MWth Pb-Bi-gekühlten Reaktor angetrieben wurden – was im Wesentlichen ein SVBR war. Damit wurden 70 Reaktorjahre an Betriebserfahrung gesammelt.

Ende 2009 wurde AKME-Engineering (ein Gemeinschaftsunternehmen von Rosatom und der En+ Gruppe) gegründet, um eine Pilotanlage des SVBR zu entwickeln und zu bauen. Das Design soll 2017 komplettiert sein und 2020 soll der 100 MWe -SVBR  in Dimitrowgrad ans Netz gehen.

Der SVBR-100 könnte damit der erste Schwermetall-gekühlte Schnelle Reaktor sein, der zur Stromerzeugung eingesetzt wird. Nach den gleichen Designprinzipien ist ein SVBR-10 mit 12 MWe geplant.

4S (Japan)

Toshiba und das Central Research Institute of Electric Power Industry (CRIEP) entwickeln zusammen mit SSTAR Work und Westinghouse (ein Toshiba-Unternehmen) den Super-Safe, Small & Simple (4S) Natrium-gekühlten schnellen Reaktor – der auch als „nukleares Batteriesystem“ bezeichnet wird. Der 4S besitzt passive Sicherheitseigenschaften. Betriebstemperatur 550oC. Die Einheit wird in der Fabrik gebaut, zum Standort gebracht und unterirdisch eingebaut. Sie soll 3 Dekaden ohne neue Brennstoffzufuhr kontinuierlich laufen. Eine 10 MWe –Version (0,68 m Kerndurchmesser, 2 m Höhe) und eine 50 MWe –Version (1,2 m Kerndurchmesser, 2,5 m Höhe) sind geplant.

Nach 30 Betriebsjahren wird 1 Jahr zur Abkühlung des Brennstoffs abgewartet.

Aufgabe: Stromerzeugung und elektrolytische Wasserstofferzeugung. Ein erster Standort wird Galena/Alaska sein. Die Design-Zertifizierung durch die NRC (USA) steht bevor.

Der L-4S ist eine Blei-Wismut-gekühlte Version des 4S-Designs.

EHNS (USA)

Die „Encapsulated Nuclear Heat Source“ EHNS ist ein 50 MWe  Flüssigmetall-gekühlter Reaktor, der von der University of California, Berkeley, entwickelt wird. Ein Sekundär- Kühlkreis liefert die Wärme an 8 separate, nicht verbundene Dampfgeneratoren. Außerhalb des Sekundär-Pools ist die Anlage luftgekühlt. Der Reaktor sitzt in einem 17 m tiefen Silo. Der Brennstoffvorrat soll 15 – 20 Jahre reichen. Danach wird das Modul abtransportiert und durch ein neu aufgefülltes ersetzt. Die ENHS ist für Entwicklungsländer entworfen und ist äußerst Proliferations-sicher.  Die Kommerzialisierung ist noch entfernt.

Gasgekühlte Hochtemperatur- Reaktoren

HTR-10 (China)

Chinas HTR-10 ist ein 10 MWth  experimenteller gasgekühlter Hochtemperaturreaktor am Institute of Nuclear & New Energy Technology (INET) an der Tsinghua Universität nördlich Pekings. Vorbild war der deutsche HTR bzw. AVR. Er erreichte 2003 volle Leistung. Der Brennstoff ist ein „Kugelbett“ (27.000 Elemente), von denen jedes 5 g auf 17% angereichertes Uran enthält. Betriebstemperatur 700oC. Im Jahre 2004 erfolgte  ein extremer Sicherheitstest, in dem der Umlauf des Kühlmittels Helium unterbrochen wurde, ohne den Reaktor abzuschalten. Bedingt durch die Physik des Brennstoffs ging die Kettenreaktion zurück und endete nach 3 Stunden. Ein Gleichgewicht zwischen der Kernwärme und der Wärmeableitung durch den Stahlreaktor wurde dabei erreicht und die Temperatur überstieg niemals sichere 1600oC.

Beim AVR (Jülich) hatte man früher den gleichen Test erfolgreich durchgeführt.

Adams Engine (USA)

Adams Atomic Engines´10 MWe  HTR-Konzept besteht aus einem einfachen Brayton-Zyklus (Gasturbine)  mit Niederdruck-Stickstoff als Kühl- und Arbeitsgas sowie Grafitmoderation. Der Reaktorkern ist ein festes, ringförmiges Bett mit ca. 80.000 Brennstoffelementen. Die Ausgangstemperatur des Kerns ist 800oC. Eine Demo-Anlage soll 2018 fertig gestellt sein.

MTSPNR (Russland)

Der kleine Hochtemperaturreaktor MTSPNR wurde vom N.A. Dolezal Research and Development Institute of Power Engineering (NIKIET) entwickelt. Es ist ein modularer, transportabler, luftgekühlter HTR kleiner Leistung mit geschlossenem Gasturbinen-Kreislauf für die Wärme- und Stromversorgung entlegener Regionen.  Eine 2-Reaktoren-Einheit liefert 2 MWe  ; sie ist für eine Laufzeit von 25 Jahren ohne weitere Brennstoffergänzung vorgesehen. Ein Vorläufer-Gerät war der von Sosny gebaute Pamir-630D von 1976-1986, ein 300-600 kW HTR, auf LKW montiert. Seit 2010 kooperiert NIKIET mit SPA Luch und Sosny, um einen transportablen Kernreaktor zu entwickeln.

Bilanz der weltweiten Kernkraft-Aktivitäten

Ägypten

Der frühere ägyptische Präsident Hosni Mubarak hatte am 29.10.2007 den Bau mehrerer Kernkraftwerke zur ausschließlich friedlichen Nutzung angekündigt. "Mit dieser strategischen Entscheidung übernehmen wir neue Verantwortung und ziehen Konsequenzen aus der Energiesituation in Ägypten", sagte Mubarak. Im August 2010 teilte die staatliche Nachrichtenagentur MENA mit, dass Präsident Mubarak die Zustimmung für den Bau des ersten KKW an der Mittelmeerküste in Dabaa  gegeben habe. Den Bauauftrag will Ägypten noch 2010 ausschreiben. Bis 2025 wollte das Land 4 KKW bauen.

Am 11.November traf der ägyptische Minister für Energie und Elektrifizierung Ägyptens, H. Junis, in Russland mit Rosatom-Generaldirektor S. Kirienko zusammen. Man besprach die Zusammenarbeit auf dem Gebiet der Kernenergie und die Beteiligung Russlands an der bevorstehenden Ausschreibung über die Errichtung des 1. KKW in Ägypten. In Vorbereitung darauf haben bereits 20 ägyptische Spezialisten eine Qualifizierung in Rosatom-Unternehmen abgeschlossen; 20 weitere sollten folgen.

Algerien

Politik: 
Algerien und die USA unterzeichneten im Juni 2007 ein Nuklearabkommen, das die Zusammenarbeit von Labors und Forschern in Anlagen der USA gestattet. Anlässlich des Besuchs des französischen Staatspräsidenten Sarkozy in Algier Ende 2007 wurde in der dortigen Presse über den Bau von bis zu einem Dutzend Reaktoren spekuliert. Bis zu diesem Zeitpunkt gab es zwei Versuchsprojekte. Auch Interesse von russischer Seite bestünde. Im Juni 2008 unterzeichneten dann Frankreich und Algerien ein ziviles Atomabkommen.

Im November 2008 unterzeichneten Argentinien und Algerien ein Abkommen über die Zusammenarbeit in der Kernenergie.

Der algerische Energieminister Chakib Kheli gab im Februar 2009 bekannt, dass Algerien bis 2020 ein KKW errichten werde. Darüber hinaus sehe Algerien vor, "alle 5 Jahre" einen neuen Reaktor zu bauen.

Projekte:

Der Vorsitzende von Algeriens Atomenergiebehörde Comena Dr.M. Derdour war Anfang Februar 2010 in Südafrika, um den Einstieg seines Landes in das PMBR-Projekt (Hochtemperatur-Kugelhaufenreaktor) auszuloten. In einer Pressemitteilung hieß es, Algerien untersuche den Einsatz kleiner Kugelhaufen-Reaktoren, um seine Energieabhängigkeit zu verringern und seine Dörfer im Inland mit Strom und Wasser versorgen zu können.

Derdour: "Wir planen den Bau von 1000 MW nuklearer Kapazität bis 2022 und 2.400 MW bis 2027. Da diese Energie sowohl für die Stromerzeugung als auch für die Meerwasserentsalzung eingesetzt werden soll, scheint die Technologie des Kugelhaufenreaktors eine extrem attraktive Option zu sein."

Jaco Kriek, Chef der PMBR Ltd., sah gute Chancen für eine Zusammenarbeit. Seit 2003 bestehe bereits ein Kooperationsabkommen auf dem Feld der Kernenergie zwischen Comena und dem südafrikanischen Ministerium für Wissenschaft und Technik.

Nach der Beendigung des PMBR-Projektes in Südafrika (siehe dort) stellt sich die Frage, ob Algerien jetzt über diese Technologie mit anderen Ländern – z.B. mit China – verhandeln wird. 

Argentinien

Politik:
In Argentinien ist seit 25.11.2009 ein neues Kernenergiegesetz in Kraft. Es ermöglicht den Bau eines 4. Kernkraftwerks von 1.200 MW Leistung sowie die Laufzeitverlängerung um 30 Jahre des seit 1983 in Betrieb befindlichen  KKW Embalse (PHWR, 600 MW) als "Projekte von nationalem Interesse."

Darüber hinaus wurde die nationale Atomenergiekommission Comision Nacional de Energia Atomica (CNEA) beauftragt, den Bau des Reaktorprototyps Carem in Angriff zu nehmen. Es handelt sich dabei um einen Druckwasserreaktor argentinischer Auslegung, der bis 300 MW Leistung erweiterbar ist und dessen Prototyp in der NO-Provinz Formosa errichtet werden soll. Formosas Gouverneur Insfran kündigte an, dass seine Provinz die "nordargentinische Hauptstadt für nukleare Entwicklung" werde. (Siehe Vorbemerkung IV.)

Im Jahre 2005 hat der damalige Staatspräsident Nestor Kirchner in seinem

Energieprogramm die notwendige Fertigstellung der Anlage Atucha II  betont – ebenso den weiteren Ausbau der Kernenergie.

Projekte:

Bau des kleinen Reaktorprototyps Carem (s.o. Vorbemerkung IV).

Die Arbeiten an der Schwerwasser-Reaktoranlage Atucha II  (745 MW) am Rio Parana nahe der Stadt Zarate waren 1990 gestoppt worden; der Reaktor war zu 80% fertiggestellt.  Die abschließende Fertigstellung, die 2006 begann,  wurde der eigens gegründeten Nucleoelectrica Argentina S.A. (NA-SA) übertragen. Siemens hatte 1980 den Letter of Intent (Absichtserklärung) zu Auslegung und Bau der Anlage Atucha II erhalten. Es handelt sich – ebenso wie bei Atucha I – um Druckkessel-Schwerwasser-Reaktoren vom Typ PHWR, die bei Siemens in Anlehnung an die eigene Leichtwasser-Reaktortechnik entwickelt wurden. Als Brennstoff wird Natururan (UO2) verwendet, weshalb der Kern mit Schwerwasser (D2O) moderiert und gekühlt werden muss.

Als anlagentechnische Referenz dient das KKW Grafenrheinfeld , weshalb die Basisauslegung der Sicherheitstechnik von Atucha II den deutschen Konvoi-Anlagen entspricht.

Jetzt ist Siemens Argentina mit der Montage des Dampfturbosatzes und des Generators abermals beteiligt.

Die argentinische Regierung hat am 25. Oktober 2010 die Urananreicherungsanlage im Technologiekomplex Pilcaniyeu in der Provinz Rio Negro offiziell wieder in Betrieb genommen. Diese Gasdiffusionsanlage der Comision Nacional de Energia Atomica (CNEA) war in den 1990er Jahren vorläufig stillgelegt worden. Die argentinische Präsidentin Cristina Fernandez de Kirchner erklärte dazu, daß Argentinien nun den gesamten Brennstoffzyklus handhaben könne, von der Uranproduktion bis zum Abfallmanagement. Die Anlage soll 2011 das erste schwach angereicherte Uran herstellen.

Armenien

Russlands Präsident Dimitrij Medwedew vereinbarte im August 2010 mit seinem armenischen Amtskollegen eine umfassende gegenseitige Zusammenarbeit auf militärischem und wirtschaftlichem Gebiet. Darunter ist auch der Bau eines neuen KKW, für den der russische Atomkonzern Rosatom den Zuschlag erhielt. Auftragsvolumen 5 Mrd. Dollar.

Das Abkommen regelt die Kooperation beim KKW-Bau des russischen Typs WWER (1000 MW) und die Ausbildung von Fachpersonal. Russland wird ferner Kernbrennstoff liefern. Laut dem armenischen Ministerium für Energie und Bodenschätze könnte der Bau des ersten KKW 2011 beginnen.

In Betrieb ist z.Zt. nur Mezamor 2, ein WWER-440, der 1980 in Betrieb ging und auf 30 Betriebsjahre ausgelegt ist.

Australien

Politik:

Um die Abhängigkeit von fossilen Brennstoffen zu verringern, plante die jetzige Regierung erneut den Atomeinstieg. Premierministerin Julia Gillard wollte die Atompolitik im Lichte der japanischen Katastrophe noch nicht bewerten. Eine Debatte müsse später geführt werden.

Australien verfügt über sehr erhebliche Kohle- und Uranvorkommen  (23% der Uran-Welt-Reserven), von denen die Exportwirtschaft profitiert.

Australien besitzt bisher kein KKW.  Es gab bereits einen Vorschlag für ein KKW: Im Jervis Bay Territorium an der Südküste von New South Wales. Mehrere Umweltstudien und auch Standortarbeiten wurden durchgeführt, zwei Bieter-Runden eröffnet und ausgewertet.  Die Regierung entschied jedoch, das Projekt nicht weiter zu verfolgen.

Im Juni 2006 wurde Dr. Switkowski zum Vorsitzenden eines Commonwealth-Regierungs-Untersuchungsteams zur Ermittlung der Nützlichkeit einer nationalen Kernkraftindustrie ernannt. Diese Taskforce stellte fest, dass Australien die Kernkraft in seinen Energiemix einfügen sollte. Andere Wissenschaftler bestritten anschliessend diese Feststellung. Switkowski wurde im März 2007 von Wissenschaftsministerin Julie Bishop zum Vorsitzenden der Australian Nuclear Science and Technology Organization (ANSTO) ernannt. Ende 2010 läuft seine Berufung aus.

Ende 2006 und Anfang 2007 machte Premier John Howard weit beachtete Aussagen zu Gunsten der Kernkraft – mit dem Hauptargument des Klimaschutzes. Die von ihm  geführte Regierung ging im November 2007 mit einem Pro-Nuklear-Programm in die Parlamentswahl – es gewann jedoch die Anti-Kernkraft-Partei Labour. Die folgende  Regierung unter Kevin Rudd bezeichnete Kernkraft als nicht erforderlich. Zuvor hatten Queensland und Tasmanien als Reaktion auf Howard´s Position Verbote des KKW-Baus auf ihrem Territorium erlassen. 

Projekte:

Australiens erster Kernreaktor – kein KKW – war der Schwerwasser-moderierte High Flux Australian Reactor (HIFAR), der 1960 seine volle Leistung von 10 MW therm. erreichte. Er wurde am Standort der ANSTO-Forschungseinrichtung in Lucas Heights gebaut und diente der Materialforschung und Isotopenherstellung. HIFAR wurde am 30.1.2007 ausser Betrieb genommen.

Ein gleichartiger Ersatzreaktor OPAL mit 20 MW wurde rechtzeitig gebaut und lief 6 Monate parallel zu HIFAR; anschliessend übernahm OPAL die Aufgaben des Vorgängers.

Einschätzung:

In Anbetracht der immensen Vorräte und der starken Kohleindustrie ist es nicht verwunderlich, dass Australien seinen Strom mit Kohlekraftwerken erzeugt. Hier gilt nicht das von den Erdöl und Erdgas liefernden Nationen (Russland, Golfstaaten) übereinstimmend genannte Motiv für die Kernkraft zur Stromerzeugung: Diese wertvoll gewordenen Energieträger wolle man nicht mehr in Kraftwerken verfeuern, sondern exportieren. Strom wird dann mit Kohle oder – zunehmend – mit Kernkraft erzeugt. Für Australien insofern keine Frage, was man angesichts seiner noch für Jahrhunderte reichenden Kohlereserven wählt.

Bahrain

Im Oktober 2007 gab König Hamad einen Plan zur Einführung der Technologie der nuklearen Energieerzeugung bekannt. Im März 2008 unterzeichneten Bahrain und die USA ein Kooperationsabkommen im Bereich der Kernenergie. Im Dezember 2008 führten Bahrain und Frankreich Gespräche über ein Atomprogramm.

Bangladesch

Der Leiter der Kommission für Atomenergie in Bangladesch gab im September 2007 bekannt, dass bis 2015 ein neues KKW am Standort Rooppur errichtet werden soll. Russland und Bangladesch unterzeichneten im Juli 2009 ein Abkommen über eine Zusammenarbeit im Kernenergiebereich.

Belgien

Belgien will bis 2025 aus der Kernenergie aussteigen. Darauf hätten sich die Parteien des Landes geeignet, so eine Regierungssprecherin am 31.10.2011. Der Beschluß dazu stammt aus dem Jahre 2003. Vor dem endgültigen Ausstieg müsse aber sichergestellt sein, daß es genügend alternativen Strom gebe und die Preise nicht explodierten. Erst dann sollen die ältesten drei Reaktoren bis 2015 abgestellt und bis 2025 sollte komplett aus der Kernenergie ausgestiegen sein.

Belgien hat 7 Blöcke in 2 KKW: Doel und Tihange. In Belgien hat der (gesamtnationale) Minister für Energie am 1.10 2009 die Inkraftsetzung eines Königlichen Dekrets angekündigt, mit dem eine 10-jährige Laufzeitverlängerung für die 3 ältesten KKW Doel 1, Doel 2 und Tihange 1 genehmigt wird; also bis 2025…………………

…………………………….
Den gesamten sehr umfangreichen (78 Seiten A4) hervorragend recherchierten Beitrag können Sie als pdf Datei aus dem Anhang herunterladen. 

……………………………….

Schlusskommentar

"Nach Limitierungen und Revisionen der früheren Beschlüsse zum Ausstieg aus der Kernenergie in Schweden, Belgien und Spanien ist Deutschland jetzt das einzige Land der Welt, das die Kernkraft ganz auslaufen lassen will."

(Zitat: VGB PowerTech e.V.; "Electricity Generation 2010/2011", Sep. 2010).

Dieser Satz gilt unverändert auch nach der Katastrophe von Fukushima.

Deutschlands Haltung hat sich im Grunde nicht verändert: die Nutzung der Kernkraft soll nach wie vor beendet werden; die einzigen Fragen sind: Wann ? Wie soll die wegfallende Grundlast sichergestellt werden ? Durch neue Kohlekraftwerke oder durch Atomstrom-Importe ? Sollen die sog. erneuerbaren Energien derart stark ausgebaut werden, daß zwangsläufig  bei dann drastisch gestiegenen Strompreisen die energieintensive Industrie aus Deutschland flüchtet ? Die jetzige emotionale und realitätsferne Debatte deutet darauf hin, daß Deutschland erst sehr tief in die genannten Schwierigkeiten geraten muß, bevor seine Politiker über unerträgliche Energiepreise, wachsende Arbeitslosigkeit und einbrechende Staatseinnahmen ihre Lektion lernen: Die Gesetze der Physik, der Mathematik und die Gesetze des Marktes sind weder durch Ideologie, durch Sonntagsreden, durch Hysterie oder durch unhaltbare Versprechungen von angeblich kurz bevor stehenden  Wundertechniken auszuhebeln.

Die Betrachtung der weltweiten Aktivitäten, der die vorliegende  Arbeit dient, beweist, daß auch weiterhin kein anderes Kernenergie nutzendes Land aus dieser Technik aussteigen will.  Selbst diejenigen Nationen, die erstmals die Kernkraft nutzen wollen, halten an ihren Plänen fest.

Verschärfen wird sich nach Fukushima der jeweils hinsichtlich der Sicherheit der Anlagen betriebene staatliche Kontrollaufwand; möglicherweise werden die Reaktorhersteller auch in einigen Fällen eine Änderung ihrer Auftragslage feststellen: Weniger Reaktoren der 2. Generation und statt dessen – trotz höherer Kosten – mehr Reaktoren der 3. Generation mit ihrer überlegenen Sicherheit.

Im Lichte der hier aufgelisteten neuen, weltweiten  Aktivitäten sowohl bei Kernkraftwerks-Neubauten als auch insbesondere angesichts der massiven und bereits sehr weit gekommenen Entwicklungen für die IV. Generation erscheint die deutsche Kernenergiepolitik als bemitleidernswerte Verirrung in eine ideologische Nische. Als besonders seltsam erweist sich die von Politikern erfundene Bezeichnung "Brückentechnologie", die inzwischen den Charakter einer hilflosen Beschwörungsformel erreicht hat, was aber den Rest der Welt nicht daran hindert, die Kerntechnik als die ausschlaggebende und zukunftsträchtigste Energietechnologie voran zu treiben. Diese Brücke ist mindestens 300 Jahre lang. Für die deutsche Forschung und Industrie geradezu deprimierend ist der technologische Vorsprung derjenigen Länder, die zu keinem Zeitpunkt ihre Entwicklungsarbeiten eingestellt haben: Russland, China, Indien, Frankreich, Südkorea, Japan und auch die U.S.A.

Deutschland hatte niemals die Chance, diese Entwicklung mit seiner angstgesteuerten Verhinderungspolitik auch nur zu verzögern, geschweige denn aufzuhalten. Es sind nur Arbeitsplätze vernichtet und Marktchancen verspielt worden, wertvollstes  Know-how ging verloren – sonst nichts. Noch sind deutsche Hersteller von Komponenten für Kernkraftwerke respektierte Mitspieler am Weltmarkt, aber auch das könnte sich bei andauernder Bekämpfung dieser Industrie noch zum Negativen verändern. Denn es ist zu befürchten, daß die Bundesregierung aus Schwäche, Konzeptionslosigkeit und Furcht vor den Medien am Ende auch die Exportbürgschaften auf den grünen Opferaltar legen und damit auch noch die verbliebene Zulieferer-Industrie preisgeben wird.

Im Grunde könnten die im Nuklearbereich noch vorhandenen Restpotenziale in der deutschen Industrie und Forschung theoretisch bei jetzt wieder einsetzender politischer Unterstützung (ohne Subventionen) wenigstens einen bescheidenen Anteil am expandierenden Milliardenmarkt retten.

Man zeige uns aber die Politiker oder Gewerkschaftler, die diese Haltung zu vertreten wagen, selbst wenn sie so denken. Von den Medien ganz zu schweigen.

Weitaus mehr gilt heute der Satz von Fritz Vahrenholt, der 2006 als damaliger Chef des Windkraftunternehmens Repower Systems feststellte: "Der deutsche Atomausstieg, der als weltweites Vorbild gedacht war, bleibt ein Alleingang."

Ein Jahr darauf äußerte sich die Bundeskanzlerin, die heute – nach wie vor im Amt – den vollständigen Ausstieg aus der Kernkraft verkündet,  zum gleichen Thema folgendermaßen: "Die Welt wird sich wenig nach unserer Meinung richten." 

Unter den zahlreichen Quellen sind hervorzuheben:

atw – atomwirtschaft-atomtechnik, International Journal for Nuclear Power, INFORUM GmbH, Berlin, ISSN-1431-5254 ; www.atomwirtschaft.de

bwk Brennstoff, Wärme, Kraft

www.areva.com

www.nuklear-forum.ch

www.buerger-fuer-technik.de

www.gen-4.org

www.world-nuclear.org

www.kernfragen.de

World Nuclear Association

vdi-nachrichten

DER SPIEGEL

FOCUS

Financial Times Deutschland

Handelsblatt

Dr.-Ing. Günter Keil, Sankt Augustin und Dipl.-Ing. Jürgen Wahl, Wachtberg b. Bonn

Related Files




Die Energiewende ist schon gescheitert (mit Update 4.1.12)

Sie will ihren Gegnern endlich das Atomangst-Argument aus der Hand schlagen, mit dem man sie ständig ärgert. Sie will jetzt die Atomenergie einfach abschaffen und verkündet, daß sie nun plötzlich begriffen hätte, daß Atomreaktoren unsicher sind. Das habe sie vorher nicht gewußt. Frau M. ist übrigens Physikerin. Sofort werden sieben Kernkraftwerke abgeschaltet, die übrigen dann später. Weil die Reaktorsicherheits-Experten leider erklären, daß die Atomkraftwerke doch sicher sind, beruft Frau M. einen Ethikrat, der gar nicht erst über den Ausstieg diskutieren soll, sondern dem sie gleich die gewünschte Antwort als Frage vorlegt: „Wie kann ich den Ausstieg mit Augenmaß vollziehen…?“ Diesem Ethikrat gehört kein Energieexperte an, jedoch 2 Bischöfe…..

Dieser Rat gibt die gewünschte Antwort und dann wird ein Ausstiegs-Gesetzespaket beschlossen, das Parlament und Bundesrat anschließend in Rekordzeit verabschieden. Es herrscht große Angst, denn schon morgen können die Reaktoren explodieren. Jedenfalls genau die, die zuerst abgeschaltet wurden. Die übrigen noch nicht. Der jetzt fehlende Strom wird nun zum großen Teil aus den Nachbarländern importiert: Und das ist wieder überwiegend Atomstrom. Das stört jetzt aber niemanden mehr. Deutschland ist noch einmal davon gekommen. Frau M. nennt es die Energiewende.“

Das Drehbuch wird wegen Unglaubwürdigkeit abgelehnt. Soweit die Fiktion.

Wie man weiß, hat sich das aber tatsächlich im Frühjahr und Frühsommer 2011 zugetragen. Jetzt, wo sich die ersten Auswirkungen zeigen und die Fehler im Gesetzeswerk, in den Methoden ihrer Kaschierung und in der Argumentation der Regierung deutlich hervortreten und nun auch Reaktionen aus dem Ausland vorliegen, kann man eine Diagnose der sogenannten Energiewende versuchen.

1. Übertreiben, Beschönigen, Weglassen, Verschweigen

Wer die amtlichen Verlautbarungen zur Energiepolitik, zur Begründung von Gesetzen, die die Förderung bestimmter Energietechnologien betreffen, die politischen Erläuterungen zu sämtlichen staatlichen Maßnahmen auf diesem Gebiet kritisch betrachtet, der kann zunächst die durchgängig festzustellenden fast unglaublichen Fehler nicht fassen.

Bis er das System erkennt: Vorbei sind die Zeiten, als eine Oberste Bundesbehörde unter keinen Umständen die Bürger gezielt getäuscht und mit falschen Informationen in die Irre geführt hat. Die einzige lässliche Sünde war in diesen “guten alten Zeiten” das Weglassen allzu peinlicher Aussagen – aber es wurde niemals gefälscht und gelogen.

Vorbei. Die Manipulation von Fakten und absichtliche Falschinformationen sind seit etwa 6 Jahren zu einem normalen Mittel der Öffentlichkeitsarbeit geworden.

Da es sich bei dem Thema Energiewirtschaft und Energietechnik um Fachgebiete handelt, die dem Normalbürger eher fremd sind, war diese Politik der systematischen Desinformation außerordentlich erfolgreich – wie die Umfragen auf diesem Gebiet belegen.

Das Haupt-Schlachtfeld dieses Medienkriegs sind die sogenannten erneuerbaren Energien, die es natürlich nicht gibt, denn Energie ist nicht erneuerbar. Gemeint sind regenerative Energietechniken, mit denen die Strahlungsenergie der Sonne, die kinetische Energie von Luftströmungen oder die chemische Energie von Biomasse ausgenutzt werden kann. Es war und ist das politische Ziel der letzten und der derzeitigen Bundesregierung, für diese Energietechniken trotz ihrer vielfachen und massiven Nachteile eine öffentliche Akzeptanz zu erreichen und Widerstände der Fachleute zu neutralisieren. Dazu dient diese systematische Fehlinformation – sie ist ein politisches Instrument zur Durchsetzung ideologischer Ziele.

Eine Grundbehauptung für die Rechtfertigung der „Erneuerbaren“ ist der Ersatz von Kohlekraftwerken durch Wind- und Solarstrom. Tatsächlich konnte jedoch dadurch bis zum heutigen Tag kein einziges Kohlekraftwerk stillgelegt werden, weil diese Anlagen selbst bei starker Einspeisung des „grünen“ Stroms als Reserve unverzichtbar sind: Wenn Wind- oder Solarstrom wetterbedingt kurzfristig ausfallen, müssen diese Kohlekraftwerke so schnell wie möglich wieder hochgefahren werden und einspringen.
Man beachte: Sie müssen innerhalb von ca. 30 Minuten hochgefahren werden, was im Klartext bedeutet, daß sie nicht etwa aus dem kalten Zustand innerhalb von Stunden angefahren werden – da würde jede kurzfristige Ausregelung der Netzstörung nicht mehr möglich sein – , sondern die ganze Zeit „im Leerlauf“ betrieben werden müssen, was erheblich Kohle benötigt. Deshalb ersetzen Wind- und Solarstrom bei ihrer Einspeisung ins Netz nicht etwa den äquivalenten Kohleverbrauch der Kraftwerke im Verhältnis eins-zu-eins, sondern nur einen Teil davon.
Die Energiewende hat diese Situation noch weiter verschärft:
Auf dringende Bitten der Regierung und ihrer Bundesnetzagentur mußten die Kraftwerksbetreiber selbst ältere, nur noch teilweise betriebene Kraftwerksblocks wieder anfahren, weil deren Strom nach der Abschaltung der 8 Kernkraftwerke dringend gebraucht wird.
Es kann festgestellt werden:
Der Treibstoff für Merkels Energiewende ist Kohle – und zwar viel mehr als bislang.  Daß es auch dabei aus verschiedenen Gründen wieder klemmt, wird in Kap. 8 „Das stille Ende großer Ankündigungen“ und Kap. 14 „Für die Bürger wird es immer teurer“ beschrieben.

Die von Frau Merkel angestrebte sogenannte Energiewende ist – abgesehen vom Ausstieg aus der Kernkraft – in allen Einzelheiten seit 6 Jahren der Kern der Energie-Regierungspolitik, neu ist nur der geradezu messianische Ehrgeiz, die selbst gesteckten Ziele in relativ kurzer Zeit zu erreichen. Der Anspruch, damit Vorbild für den Rest der Welt zu sein, ist nicht neu, sondern eher typisch.

Ein kurzer Durchgang durch die politisch wichtigsten Förderfelder im Energiebereich zeigt die offensichtlichen, aber verschwiegenen Schwachstellen:

2. Windstrom – Versorgung nach Wetterlage

Die Stromerzeugung mit Windkraftanlagen zeigt wegen deren Wetterabhängigkeit extreme Schwankungen – einschließlich tagelanger Perioden ohne jede nennenswerte Leistung, aber auch plötzlich auftretende Leistungsspitzen, die das Verbundnetz an den Rand des Zusammenbruchs bringen. Großflächige Stromsperren drohen, vor allem im Winter, wenn der Bedarf steigt, das Ausland weniger liefert – und Flaute herrscht. Bei plötzlichem Starkwind kann das Gleiche geschehen. Man läßt es darauf ankommen.

November 2011: Lastganglinie aller deutschen Windkraftanlagen in viertelstündlicher Auflösung (Quelle: wilfriedheck.de)

Eine sehr beeindruckende Zahl zum Ausmaß der wetterbedingten Leistungsschwankungen der Windkraft und des Solarstroms nannte der Leiter Politik und Märkte der Essener RWE Innogy, Holger Gassner auf einem VDI-Kongress Ende November 2011:

„Es seien allein im ersten Halbjahr 2011 Variationen der verfügbaren Windkraftkapazitäten von 23 GW (= 23.000 MW) und der Photovoltaikleistung von 13 GW beobachtet worden.“

Ein Alptraum für die Übertragungsnetz-Betreiber. Die stets bei der Einweihung neuer Windparks behauptete Versorgung von mehreren tausend Haushalten gehört hierbei zu den Standardlügen, denn bei Flaute kann kein einziger Haushalt versorgt werden.

Es konnte trotz der bereits installierten gewaltigen theoretischen Maximalleistung aller Windkraftanlagen noch kein einziges Kohlekraftwerk abgeschaltet werden, weil die WKA im Gegensatz zu Kohle- und Kernkraftwerken eben keine Grundlast liefern – das heißt zu jeder Stunde an jedem Tag. Im Gegenteil: Man benötigt schnell regelbare Kraftwerke, die einspringen, wenn sich die Leistung der WKA zu schnell ändert, und die Kraftwerke, die das am besten können, sind Kernkraftwerke. Diese werden nun der Reihe nach abgeschaltet und fallen als Netzstabilisatoren aus.

Daher müssten neue Gasturbinen-Kraftwerke für diesen Zweck gebaut werden; allerdings rentiert sich das nicht.

Weil große Stromspeicher fehlen, muß man buchstäblich um jeden Preis versuchen, überflüssigen Windstrom, der oft genug verschenkt werden muß, ins Ausland zu leiten. Manchmal muß sogar dem Abnehmer dafür noch ein Preis bezahlt werden. Der dafür benutzte Begriff ist „negativer Preis.“ Der Erzeuger erhält dennoch die EEG-Einspeisevergütung; der Verbraucher zahlt dann doppelt für den überflüssigen grünen Strom.

Endgültig auf den Kopf gestellt wird die bei der Energiewende prinzipiell missachtete Marktwirtschaft durch die sogenannte Härtefallregelung in §12 EEG: Zufällig anfallender Wind- oder Solarstrom, der vom Netzbetreiber nicht akzeptiert werden kann und dessen Produktion folglich unterbleibt, muß trotzdem bezahlt werden – siehe Kapitel 5.

Der Ausbau der Windkraft erfolgt weiterhin mit hohem Tempo. Das vergrößert das Problem – aber man negiert es. Prinzipiell könnten Pumpspeicherwerke diese Schwankungen ausgleichen, aber Deutschland hat viel zu wenige davon und der immer größer werdende Bedarf kann hier niemals gedeckt werden.

Es werden Langzeitspeicher benötigt, um längere Flauten abfangen zu können. Eine 10-tägige Flaute ist nicht selten; aber Deutschland erlebte gerade eine 44 Tage andauernden Hochdruck-Wetterlage im Oktober – November 2011, die einen nicht enden wollenden, spektakulären Einbruch in der Windstromerzeugung mit sich brachte.

Es gibt bereits die Daten

Konventionelle Stromerzeugung und Windkraft im November 2011 (wilfriedheck.de)

Von der gesamten in Deutschland installierten Windstrom-Leistung von 27.215 MW (Stand nach EWI vom 30.6.11) lieferten die Windräder an 27 Tages des November:

  • An 2 Tagen 30% ihrer möglichen elektrischen Arbeit ;

  • an 4 Tagen 15%

  • an 5 Tagen 7 – 8%

  • an 2 Tagen 4 – 5%

  • an 11 Tagen 2 – 2,5%

Zu diesem Thema schreibt Prof. Dr. Fritz Vahrenholt, RWE Innogy GmbH, daß bei 450 TWh (Terawattstunden = Milliarden kWh) Jahresverbrauch der durchschnittliche Tagesverbrauch bei 1,25 TWh liegt und bei 10 Tagen somit bei 12,5 TWh. Die derzeit in Deutschland vorhandene Kapazität an Pumpspeicher-Kraftwerken beträgt 7.000 MW, mit denen sich rund 0,04 TWh an Strom erzeugen lassen, wenn sie komplett leer laufen.

Demnach würde zur Abpufferung der Flautenzeit von 10 Tagen das 313-fache der heute installierten Pumpspeicherleistung benötigt. Dies sei für Deutschland und die Alpenregion auch auf Grund von Akzeptanzproblemen vollkommen unrealistisch.

Somit wird in vielen Studien oft auf Norwegen verwiesen.

Dort sind die meisten Speichermöglichkeiten derzeit einfache Stauseen mit natürlichem Zulauf, die zwar in Engpaßzeiten Strom liefern könnten, aber nicht als Senke (= Stromaufnahme bzw. –Speicherung) in (Windstrom-) Überschußzeiten zur Verfügung stehen. Zudem müßte im Bedarfsfalle einer Flaute in Deutschland ja auch noch Norwegen weiterhin versorgt werden.

Lastgang in Norwegen 2011 (wilfriedheck.de)

Die letzte Oktoberwoche und der November 2011 zeigten, daß Prof. Vahrenholts Annahme einer 10-tägigen Flaute als „worst case“ noch stark untertrieben war: Diese Flaute dauerte 3 bis 4 Wochen.

Angesichts dieser Misere werden von der Regierung Hoffnungen auf ganz neue Stromspeichermöglichkeiten geweckt: So trotz der oben beschriebenen Aussichtslosigkeit die Nutzung norwegischer Wasserkraftwerke per Seekabel, die Erzeugung von Wasserstoff mit überflüssigem Windstrom oder die Verwendung von Elektroautos als Speicher für das Stromnetz. Zu diesen Visionen weiter unten.

Ein weiteres, wohl nur aus Verzweiflung geborenes Riesenprojekt

ist der Bau von mindestens 3000 km neuer Höchstspannungsleitungen von Nord- nach Süddeutschland, um den im Norden erzeugten, dort aber gar nicht benötigten Windstrom bis nach Baden-Württemberg und Bayern zu transportieren, wo auch die Abschaltung der Kernkraftwerke besonders große Löcher in die Stromversorgung gerissen hat. Selbstverständlich kann der unzuverlässige Windstrom diese Grundlaststrom-Lücke auch nicht annähernd ausgleichen.

Daß der Plan auch aus anderen Gründen unrealistisch ist, kommt noch hinzu: Siehe dazu Kapitel 6 „Das zweimal vergessene Netz.“

Wenn man alle Systemschwächen der Windkraft ignoriert und nur die installierte, aber fast nie gelieferte Maximalleistung herausstellt und diese den Bürgern auch noch als zuverlässige Stromversorgung verkauft, dann kann man sie für die stärkste der “Erneuerbaren” halten. Realistisch betrachtet ist es jedoch nur eine gelegentliche, unberechenbar und zufällig anfallende Stromerzeugung, die nicht nur sehr teuer ist, sondern auch eine Störung der Stromversorgung darstellt.

Die Regierung kann das aber nicht zugeben,

denn für sie ist Windstrom die Schlüsselkomponente in ihrem Energiekonzept, das sich ohne die Verwirklichung von dessen Phantasiezahlen in Nichts auflösen würde: Bis 2030 sollen die sog. Erneuerbaren enorme 50 Prozent der Stromversorgung liefern; allein die Offshore-Windparks 15 %.

Abgesehen von den erwähnten prinzipiellen Systemschwächen, an denen die Physik und das Wetter Schuld sind, gibt es aber bereits jetzt Schwierigkeiten beim Anschluß der später weitestgehend nutzlosen Windräder auf See: Der Netzbetreiber Tennet, der im vergangenen Jahr das 11.000 km lange Höchstspannungsnetz von E.on gekauft hat, muß nun alle Windparks in der Nordsee anschließen. Jetzt warnte Tennet die Bundesregierung in einem Brandbrief vor Engpässen. Für die Anbindung der Windparks an die Stromnetze auf dem Festland haben die Netzbetreiber feste Fristen. Tennet:

“Tatsächlich gibt es in sämtlichen laufenden Projekten erhebliche Schwierigkeiten im Planungs- und Baufortschritt.“

Alle Beteiligten „stießen an die Grenzen ihrer Ressourcen“, und „hinzu kommen massive Probleme bei der Beschaffung des Kapitals.“ Das ist der Unterschied zwischen Ministerialpapieren und der Wirklichkeit.

Mit welchem tatsächlichen Windräder-Ausbau bis 2022 zu rechnen ist, hat soeben (Anfang Dezember 2011) dankenswerterweise die Bonner Bundesnetzagentur – immerhin eine staatliche Behörde – ermittelt bzw. abgeschätzt: Sie hat den Strombedarf und die Stromerzeugung in Deutschland in drei Szenarien berechnet; als Grundlage für den dann nötigen Netzausbau.

Welches Szenario dann Realität werde, hänge vor allem davon ab, wie stark die Windkraft zulege, sagte Behördenchef Matthias Kurth. Im mittleren Szenario erwartet die Behörde einen Ausbau der installierten Windstrom-Leistung

  • auf dem Festland von 27.100 MW auf 47.500 MW

  • bei Offshore-Windparks von 100 MW auf 13.000 MW 

Die Netzagentur rechnet deshalb auch mit zeitweise erheblichen Stromüberschüssen. Wie diese dann zum Schaden der Verbraucher behandelt werden, ist in Kapitel 5 „Jenseits der Planwirtschaft…“ beschrieben.

In Anbetracht der schon beim jetzigen Ausbau kaum noch zu beherrschenden Schwierigkeiten – siehe die obigen Ausführungen zum unlösbaren Speicherproblem – ist diese Abschätzung der Bundesnetzagentur im Grunde die Projektion einer von Deutschland ausgelösten Katastrophe für den gesamten europäischen Netzverbund. Bereits jetzt beginnen sich die angrenzenden Länder dagegen zu wappnen: Siehe die Ankündigung Polens, die deutschen Windstrom-Überschüsse nicht mehr aufzunehmen – in Kap. 12 „Energiewende bedroht die Nachbarländer“. 

Da diese voraussichtlich lange vor dem Erreichen der erwarteten Ausbauzahlen eintreten wird, bekommen wir sie ein paar Milliarden Euro billiger.

3. Solarstrom – geringer Nutzen für sehr viel Geld

Auch die Stromgewinnung aus Sonnenlicht leidet unter dem Wetter und zusätzlich auch unter den Tageszeiten: In der Dämmerung und des Nachts gibt es überhaupt keinen Strom. Ebenso liegt die Leistung der Photovoltaik (PV)-Module bei bedecktem Himmel, bei Regen und auch bei einer Schneedecke auf den Modulen bei Null. Weil auch bei klarem Himmel die Einstrahlung in Deutschland verglichen mit südlichen Ländern eher bescheiden ist, liefern alle für teures Geld installierten Photovoltaik-Zellen trotz ihrer inzwischen gewaltigen installierten theoretischen Maximalleistung, die Ende 2010 bereits den enormen Wert von 16.900 MW erreicht hatte, wegen ihres sehr geringen Nutzungsgrades auch nur einen kläglichen Anteil von 1,9% an der Inlands-Stromerzeugung.

Probleme verursacht die Photovoltaik wegen ihrer dezentral verteilten Einspeisung

auch in den unteren Spannungsebenen des Netzes, das bisher nur auf die Versorgung der Abnehmer, aber nicht auf die Bewältigung vieler Stromerzeuger ausgelegt ist. PV-Anlagen derzeit so ausgelegt sind, dass alle Anlagen – wie in der bisherigen Niederspannungsrichtlinie des BDEW gefordert – bei einer Netzfrequenz von 50,2 Hz, die die Folge einer gefährlich zu hohen Stromeinspeisung ist, gleichzeitig vom Netz gehen.

Dieser abrupte Einbruch kann dann zu einem Netzausfall führen, wie das BMU in einem Berichtsentwurf vom Mai 2011 selbst konstatiert – vgl. Kapitel 6.

Deshalb plant es, den Anwendungsbereich des § 6 EEG auch auf PV-Anlagen zu erstrecken, so dass auch diese in das Einspeisemanagement nach § 11 EEG einbezogen werden. Daß die Betreiber der unteren Verteilungsnetze überhaupt eine Chance zu einem Eingriff in die zahllosen Einzelanlagen haben, ist nicht der Fall.

Denn „bei Wolkendurchzug funktioniert das bei Solarstromanlagen nicht“,

wie der Leiter des Fachgebiets Elektrische Energieversorgungsnetze der TU München, Prof. Rolf Witzmann nüchtern feststellte. Gegen den dadurch verursachten rapiden Wechsel von Leerlauf zu voller PV-Leistung ist der Netzbetreiber machtlos; es hilft nur automatische Abschaltung durch die Einzelanlage selbst und kein „Einspeisemanagement“.

Genau darüber denkt das BMU jetzt nach. In die PV-Anlagen müßten Meßgeräte eingebaut werden, die ständig die Netzfrequenz messen und bei zu hoher Gesamt-Einspeisung, die sich durch Überschreiten der kritischen 50,2 Hertz-Grenze ankündigt, die Einzelanlage abschalten. Das erfordert also eine teure Nachrüstung aller PV-Anlagen. Aber damit nicht genug: Man kann davon ausgehen, daß auch hier wieder dafür gesorgt wird, daß dem Betreiber der nicht gelieferte Solarstrom voll bezahlt wird. Das ist schließlich das Prinzip der Regierung – siehe die „Härtefallregelung“ des EEG § 12.

Der Solarstrom-Nichterzeuger wird also dem Übertragungsnetzbetreiber einen Nachweis über die von seiner Automatik verhinderte Stromeinspeisung liefern müssen, was einen interessanten neuen Entschädigungs-Bürokratismus auszulösen verspricht.

Daß diese Entschädigungen und wahrscheinlich auch die technischen Nachrüstungen der PV-Anlagen wieder von den Stromkunden zu bezahlen wären, kann man sicher erwarten.

Die Erzeugung des Solarstroms ist extrem teuer

Die Besitzer derartiger Anlagen erhalten – entsprechend dem EEG-Gesetz – ab 1.7.2011 pro eingespeister Kilowattstunde 24,4 Cent, was dann dem Strompreis für Endverbraucher aufgeschlagen wird. Und das Geld, das die Solarzellen kostet, geht inzwischen zu ca. 60% nach China. Deutschland ist dank seiner übertriebenen Photovoltaik-Zwangsförderung der weitaus größte Kunde von Chinas neuen PV-Fabriken. Dort sind die Arbeitsplätze entstanden – mit dem Geld der Stromverbraucher, die sich keine eigene PV-Anlage leisten können.

China hat diesen gewaltigen, von deutschen Verbrauchern bezahlten Geldstrom für den Aufbau seiner Photovoltaik-Produktion eingesetzt und ist inzwischen der weltgrößte Hersteller. Chinas Solarzellen sind konkurrenzlos billig und jetzt brechen den deutschen Unternehmen die Umsätze weg. Deutschland exportierte 2010 Solarstromanlagen für 138 Millionen Euro nach China; China exportierte im Gegenzug solche Anlagen im Wert von 5,9 Milliarden Euro nach Deutschland.

Verluste werden geschrieben, Pleiten und Arbeitsplatzverluste drohen.

Es trifft diejenigen Arbeitsplätze, die nach grünen Plänen eigentlich an die Stelle der Jobs in der konventionellen Energiewirtschaft treten sollten. Der Windkraft droht exakt das gleiche Schicksal: 2006 fanden sich unter den zehn weltgrößten Windkraftanlagen-Herstellern noch vier deutsche. 2010 standen nur noch zwei Namen auf der Liste – wohl aber vier chinesische. Das ständig wiederholte Argument über die Erneuerbaren als Jobmaschine löst sich jetzt auf.

Ebenso wie der Windstrom leistet auch der Solarstrom keinerlei Beitrag zur Grundlast-Stromversorgung. Im Gegenteil stört auch diese Wetter-abhängige Stromeinspeisung vor allem die Stabilität im Netz und beansprucht ebenfalls große Stromspeicher, die es nicht gibt.

Ein erstaunliches Eingeständnis ist im EEG-Erfahrungsbericht 2011(Entwurf) des BMU zu lesen:

„Die Vergütungszahlungen im Rahmen des EEG beliefen sich 2010……auf über 12 Mrd. €….. Hier ist es in den letzten Jahren zu Fehlentwicklungen gekommen (!). So entfielen 2010 im Stromsektor von rund 23,7 Mrd. € Investitionen in erneuerbare Energien allein 19,5 Mrd. € und damit über 80% auf die Photovoltaik.“

Und zum Thema Strompreise liest man:

„Insgesamt stieg seit dem Jahr 2000 die durchschnittliche Vergütung für Strom aus (allen) erneuerbaren Energien von 8,5 Cent / kWh auf voraussichtlich 15,5 Cent / kWh (2010) an. Diese Entwicklung mußte dringend gestoppt werden.“

Mit der zum 1.1.2012 vorgesehenen EEG-Novelle, genannt „neues EEG“, habe die Regierung

„wirksam gegengesteuert und insbesondere mit dem Abbau der Überförderung der Photovoltaik entschlossen gehandelt.“

Das Zugeständnis durch die Regierung, daß es hier eine Überförderung gibt, ist interessant; die Behauptung, daß sie nun abgebaut würde, ist unwahr:

In einer Mitteilung des BMU über „Daten und Fakten zur Photovoltaik-Förderung“ vom 17.11.11 heißt es, daß nach dem am 1.1.12 in Kraft tretenden „neuen EEG“ der „Ausbaukorridor“ möglicherweise auf 2500 – 3500 MW zusätzliche PV-Leistung pro Jahr sinken könnte. Ob und wann das tatsächlich erfolgt, bleibt im Unklaren; konkrete und später nachprüfbare Angaben werden vermieden.

Mit einer Absenkung hat das wenig zu tun,

denn ein weiterer jährlicher Ausbau der PV um die genannte Leistung ist nur wenig kleiner als der in den ersten 9 Monaten von 2011 erfolgte Zubau mit 3400 MW. Es soll also genau so weiter gehen, nur nicht so extrem wie im Boomjahr 2010 mit 7200 MW Zubau.

Aber die weitere gewollte Entwicklung, die auch weiter über das EEG und damit über die Verbraucher finanziert wird, ist hier absichtlich nicht quantifiziert worden.

Diese Verschleierungstaktik des BMU hat nun die Bundesnetzagentur – immerhin eine staatliche Behörde – in ihrem im Kapitel 2 „Windstrom…“ erwähnten Bericht vom Dezember 2011 durchbrochen:

Er befaßt sich auch mit dem erwarteten Ausbau der Photovoltaik und nennt Zahlen. Hier erwartet die Behörde in ihrem wahrscheinlicheren Szenario bis 2022 einen Anstieg von heute 18.000 MW auf enorme 54.000 MW. Auch dies wird zu den für die bedauernswerten Verbraucher kostenträchtigen Stromüberschüssen führen.

Ebenso wie der erwartete extreme Ausbau der Windkraft (s.o.) dürfte auch dieser enorme Anstieg der PV sowohl an den dadurch ausgelösten Netzstörungen als auch an den nicht mehr verkraftbaren Kosten scheitern – aber erst nach vielen weiteren von den Verbrauchern gezahlten Milliarden Euro, die in diesem Falle zum größeren Teil nach China fließen.

Die Regierung sitzt in der Klemme:

Einerseits setzt sie voll auf die Photovoltaik. Sie ist eben neben dem Windstrom die zweite Säule der Energiewende. Sie darf trotz erwiesener Nutzlosigkeit nicht fallen, koste es was es wolle.

Andererseits ruiniert die „Überförderung“ die „notwendige Akzeptanz des EEG“ (Zitat aus dem o.e Bericht des BMU). Aber ohne eine derartige die Marktmechanismen außer Kraft setzende Überförderung könnte es den dringend gewünschten Zubau nicht geben. Und auch das „neue EEG“ sorgt weiterhin dafür.

4. Biogas: Wenn Nahrungsmittel verheizt werden

Im Gegensatz zu Wind- und Solarstrom ist Biogas ein Energieträger, der gleichmäßig anfällt, gut speicherbar ist und mit dem auch über einen längeren Zeitraum Strom erzeugt werden kann, obwohl das seine mit Abstand schlechteste Nutzung darstellt. Ebenso wie die für eine Stromerzeugung vollkommen ungeeignete und quantitativ marginale Geothermie wird Biogas zu sehr zur Gewinnung elektrischer Energie eingesetzt, anstatt es mit einfachen Mitteln zu Erdgas zu veredeln und dem Wärmemarkt zuzuführen.

Der Grund dafür ist die ideologische Überbewertung von Stromerzeugung, was zum exzessiven und teuren Ausbau der Windkraft und der Photovoltaik geführt hat und was gleichzeitig zu einer Vernachlässigung der Nutzung regenerativer Energiequellen für die Wärmeerzeugung führte: Solarthermie und die Nutzung von Erdwärme mittels Wärmepumpen hätte statt dessen eine konsequente und wirkungsvolle Förderung verdient.

Die Probleme des Biogases liegen aber nicht allein in einer ineffizienten Nutzung:

Das Hauptproblem ist der große Flächenverbrauch, der zuvor landwirtschaftlich genutzte Flächen betrifft und an die Stelle der Produktion von Nahrungsmitteln Energiepflanzen setzt. Zwar wird angestrebt, pflanzliche Reststoffe und andere biologische Abfälle vermehrt einzusetzen, aber der Druck auf die Umwandlung von Agrarflächen zur Produktion von Raps, Mais, Miscanthus etc. hält wegen der damit erzielbaren weitaus höheren Renditen unvermindert an – eine direkte Folge der Überförderung. Und selbst wenn Gülle zu Biogas vergoren wird, erhöht die Zugabe von Weizen den Gasertrag beträchtlich – und wird unbedenklich angewendet.

Die gleichen Probleme ergeben sich bei der Herstellung von Biotreibstoff. Hier tritt ein weiterer negativer Umwelteffekt auf: Es wird in großem Umfang Palmöl aus subtropischen Ländern – z.B. Indonesien – eingeführt und hier verarbeitet. Im Ursprungsland werden daher neue Ölpalmplantagen eingerichtet und dafür Tropenwald gerodet.

Schon lange prangern vor allem die Kirchen die Umwandlung von Agrarflächen und die Verwendung von Lebensmitteln als Energieträger als unethisch und skandalös an. Selbst das dem Umweltministerium nachgeordnete Umweltbundesamt spricht Biogas und Biodiesel schon lange jeglichen Umweltnutzen ab. In seiner hilflosen und erfolglosen Verteidigung der Einführung des E-10-Treibstoffs wagte es der Umweltminister Röttgen denn auch nicht, diesem irgend einen positiven Umwelteinfluß zuzuschreiben.

Es stellt sich die Frage,

wie lange die Politik und die Öffentlichkeit dieser vom Staat unterstützten Vernichtung von Agrarfläche noch zuschaut. Daß man damit die Energiewende in irgendeiner Weise unterstützen könnte, wird durch einfache Rechnungen widerlegt, aus denen hervorgeht, daß in Deutschland nicht annähernd die für signifikante Biogas-Steigerungen erforderlichen Flächen verfügbar sind. Von den katastrophalen Konsequenzen für den Naturschutz ganz abgesehen.

5. Jenseits der Planwirtschaft: Entschädigung für die Nicht-Erzeugung von „Ökostrom“, Verpflichtung zur Hellseherei und „negative Preise“

Das Erneuerbare-Energien-Gesetz EEG enthält mehrere kaum glaubliche Vorschriften. Einige Beispiele:

Entschädigung für die Strom-Nichterzeugung

Die Härtefallregelung des EEG – der §12 – bestimmt: „Wird die Einspeisung von EEG-Strom wegen eines Netzengpasses…… reduziert, sind die von der Maßnahme betroffenen Betreiberinnen und Betreiber ……für 95 Prozent der entgangenen Einnahmen…zu entschädigen. Übersteigen die entgangenen Einnahmen in einem Jahr ein Prozent der Jahreseinnahmen, sind die Betreiberinnen……zu 100 Prozent zu entschädigen.“

Mit anderen Worten: Bei besonders häufigen Netzstörungen durch den grünen Strom gibt es für dessen Erzeuger mehr Geld.

Dies erinnert leider sehr an die Praktiken der Agrar-Planwirtschaft in der EU, wo ebenfalls Produktionsvermeidungen finanziell belohnt werden. In Deutschland wird  nun auch  die Energiewirtschaft dazu verurteilt, nach den schlimmsten Methoden der Planwirtschaft zu einem ineffizienten Milliardengrab zu verkommen.

Gesetzliche Verpflichtung zur Hellseherei

Der §12 EEG enthält auch eine Verpflichtung für die Netzbetreiber, die offenbar von den Gesetzesmachern für notorische Betrüger gehalten werden, in die Zukunft zu sehen und das Ergebnis den Betreibern der Ökostromanlagen (EE-Anlagen genannt) verbindlich mitzuteilen. Zitat:

„Betreiber von EE-Anlagen sollen künftig spätestens am Vortag vom Netzbetreiber über den erwarteten Zeitpunkt, den Umfang und die Dauer des Einspeisemanagements (Anm.: gemeint ist der Eingriff des Netzbetreibers, z.B. das Stoppen der Einspeisung in sein Netz) informiert werden.“

Der Netzbetreiber muß also „spätestens am Vortag“ eine Netzüberlastung oder Netzstörung voraussehen. Da derartige Überlastungen gerade durch den plötzlichen und massiven Anstieg von Windstrom innerhalb von Stunden verursacht werden, muß das der Netzbetreiber „spätestens am Vortag“ „den erwarteten Zeitpunkt“ und auch „den Umfang“ sowie ebenfalls „die Dauer“ der morgigen Störung und seiner dann notwendigen Eingriffe sicher feststellen und mitteilen..

Wahrscheinlichkeits-Aussagen, wie sie die Meteorologen gerne benutzen, da selbst sie niemals exakt die regionalen Wettergeschehnisse vorhersagen können, sind hier unzulässig.

Man darf auf das Ergebnis der sicher kommenden Zivilklagen von Erzeugern gegen Netzbetreiber, die ihren hellseherischen Pflichten nicht nachgekommen sind, gespannt sein.

Diese Bestimmung sagt alles sowohl über den Realitätsbezug als auch über die Denkweise im Bundesumwelt-Ministerium.

Ökostrom-„Verkauf“ zu „negativen Preisen“

Bemerkenswert ist, daß es durch diese Härtefallregelung des EEG dem Netzbetreiber nicht erlaubt ist, bei Unverkäuflichkeit des Ökostroms an der Strombörse diesen abzuschalten bzw. dessen Einspeisung abzulehnen. Er muß stattdessen den vom Markt unerwünschten Strom entweder verschenken, oder gar noch dem Interessenten Geld bezahlen, damit er den Strom abnimmt. Das wird beschönigend „negative Preise“ genannt.

Das BMU schreibt in seinem „EEG-Erfahrungsberichts-Entwurf 2011“:

„Im September 2008 wurde an der Strombörse die Möglichkeit negativer Preise eingeführt. Dies ist bislang weltweit einzigartig. (Anm.: Die Verfasser sind eindeutig stolz darauf). Tatsächlich sind negative Preise inzwischen mehrfach vorgekommen, im Extremfall wurden Preise bis zu minus 500 €/MWh erreicht.

Um die Höhe negativer Preise zu begrenzen, sah die Ausgleichsmechanismus-Ausführungsverordnung (AusglMechAV) vom 22.2.2010 eine bis zum Jahresende 2010 befristete Übergangsregelung vor, welche die Netzbetreiber in Ausnahmefällen von der Pflicht befreite, EEG-Strom um jeden Preis an der Börse verkaufen zu müssen. Um das Kostenrisiko auch über das Jahr 2010 hinaus zu reduzieren, enthält die AusglMechAV seit dem 1.1.2011 eine bis zum 28.2. 2013 befristete Möglichkeit, negative Preise zu begrenzen. Danach greifen Preislimits zwischen minus 150 und minus 350 Euro.“

Es geht also genau so weiter. Selbstverständlich erhält der Erzeuger auch in diesen Fällen seine volle Einspeisevergütung, die genau wie die Zuzahlung an den Abnehmer den Verbrauchern aufgebürdet wird, die dadurch den grünen Strom doppelt bezahlen müssen.

Auch hier stimmt die Parallele zur Agrarpolitik der EU: Überschüsse, die keiner braucht, werden verbilligt, also unter den Erzeugungskosten, ins Ausland exportiert, wodurch dann die regionalen Erzeuger aus dem Markt verdrängt werden. Die durch den Überschußexport in den Empfängerländern angerichteten Schäden addieren sich zu den finanziellen Schäden, die in den EU-Staaten angerichtet werden. Eine exakte Parallele zum jetzt von Deutschland praktizierten doppelt subventionierten Export des überflüssigen Wind- und Solarstroms, der ebenfalls in den Empfängerländern zu Schäden führt: Deshalb die von Polen angekündigte Importsperre für grünen deutschen Überschuß-Strom. (Siehe den Abschnitt „Deutschlands Energiewende bedroht die Nachbarländer“ in Kapitel 12.) 

Selbst die UdSSR und ihre Satellitenstaaten haben es während der Ära des „real existierenden Sozialismus“ und seiner letztlich das ganze System zerstörenden Planwirtschaft nicht fertig gebracht, die Nichtproduktion eines Wirtschaftsgutes mit einer Bezahlung zu belohnen. Das war Deutschland vorbehalten. Und das BMU hat hier recht: Das ist einzigartig.

6. Die zweimal vergessenen Netze

Mit den nicht vom Markt, sondern durch die Zwangssubvention des EEG kräftig wachsenden Installationen von Windrädern und Photovoltaikanlagen entstanden zwei ganz unvermeidliche Probleme, die die Große Koalition überhaupt nicht und die Schwarz-Gelbe Regierung erst nach massiven Warnungen der Netzbetreiber ernst nahmen:

Problem Nr.1:

Zum einen bemerkte man schließlich, daß der größere Teil der Windstromanlagen in Norddeutschland liegt, wo man aber deren Strom nicht brauchen kann. Anders in Süddeutschland, wo es nach der Abschaltung mehrerer der dortigen Kernkraftwerke durchaus einen Bedarf gäbe – wenn es dafür ausreichend dimensionierte Nord-Süd-Höchstspannungsleitungen gäbe. Was nicht der Fall ist.

Problem Nr.2:

Zum anderen bemerkte man bis zum Oktober 2011 nicht, daß es auch noch ein zweites gravierendes Netzproblem gibt: Im weitaus größeren regionalen Verteilungsnetz, das technisch nur für die Versorgung der Abnehmer, keineswegs aber für die stark schwankende Stromaufnahme aus vielen dezentralen Windparks und Photovoltaikanlagen (s.u.) und die Weiterleitung dieses Stroms in das Höchstspannungsnetz ausgelegt ist.

Zum bereits bestehenden Ausmaß dieser Situation hat Ende November Holger Gassner, der Leiter Politik und Märkte bei der RWE Innogy, mitgeteilt, daß allein im ersten Halbjahr 2011 ganz enorme Schwankungen der verfügbaren Windkraftkapazitäten von 23.000 MW und der Photovoltaikleistung von 13.000 MW beobachtet worden.

Zum Problem Nr. 1: Für eine bessere Abnahme des Windstroms wünscht die Regierung bereits bis 2020 den Bau von 3000 km neuen Höchstspannungsleitungen von Nord- nach Süddeutschland. Aber der ehemalige Wirtschaftsminister Brüderle legte am 21.3.2011 Eckpunkte für den Stromnetzausbau vor:

“Für den ehrgeizigen Ausbau der erneuerbaren Energien würden etwa 3.600 km neue Leitungen benötigt.”

Die Deutsche Energie-Agentur Dena rechnet jedoch mit erforderlichen 4.450 km an zusätzlichen Höchstspannungsleitungen und die parlamentarische Staatssekretärin im BMU, Katherina Reiche, nannte gerade 4200 km. Die Chancen dafür sind allerdings verschwindend. Bürger wehren sich erfolgreich dagegen; die Planungs- und Genehmigungsverfahren dauern und die Kosten sind enorm. Bisher sind gerade nur 214 km neu gebaut worden (s.u. „Monitorbericht“).

Weil die abgeschalteten Kernkraftwerke zuvor ganz wesentlich zur Stabilisierung des Netzes beigetragen hatten, das mit der schwankenden Ökostromproduktion zu kämpfen hat, – sie können Leistungsschwankungen am schnellsten von allen Kraftwerken durch massives Gegensteuern ausgleichen – mußten zuletzt immer häufiger Windparks zwangsweise abgeschaltet werden. Allein 2010 gingen dadurch ca. 150 Millionen kWh verloren.

Das führte aber keineswegs zu einer geringeren Belastung der Verbraucher,

denn die Regierung hat im EEG in der „Härtefallregelung“ des §12 dafür gesorgt, daß auch in derartigen Fällen Geld fließt: Die Windstromerzeuger, deren Stromeinspeisung wegen der drohenden Stabilitäts-Störung des Netzes von den Netzbetreibern abgelehnt wird, bekommen trotzdem für die Nichterzeugung von Windstrom eine Entschädigung, „die den entgangenen Vergütungen entspricht.“. Näheres in Kapitel 5.

Die Bundesnetzagentur hat in ihrem „Monitorbericht 2011“ interessante Zahlen mitgeteilt. Die Hälfte von 24 besonders wichtigen Ausbauprojekten verzögere sich und die bestehenden Netze seien „durch die Vielzahl der in den letzten Jahren zu erfüllenden Transportaufgaben und die Veränderung der Erzeugungsstruktur (im Klartext: Massiver Ausbau der Wind- und Solarstromerzeugung, Abschaltung von 8 Kernkraftwerken) „am Rand der Belastbarkeit angekommen.“

Die Netzagentur bezieht sich auf Stromleitungen, die im August 2009 als vordringlich eingestuft wurden – mit der Einführung des Energieleitungsausbaugesetzes.

Der Zeitverzug bei diesen 12 Projekten liege zwischen 1 und 4 Jahren.

Erst 214 km von insgesamt 1807 km seien bislang fertiggestellt. Nach Informationen von SPIEGEL-Online werden in dem Monitorbericht 2011 weitere 73 Projekte genannt, die sich nach Angaben von Übertragungsnetzbetreibern verzögern (Angaben vom 2. Quartal 2011).

Auch die Anbindung der neuen Offshore-Windparks an das Netz an Land gerät in Turbulenzen: Soeben warnte der Netzbetreiber Tennet, der in Norddeutschland das E.ON-Stromnetz übernahm, die Bundesregierung in einem Brandbrief vor Engpässen. Es gebe in sämtlichen laufenden Projekten erhebliche Schwierigkeiten im Planungs- und Baufortschritt. Alle Beteiligten „stießen an die Grenzen ihrer Ressourcen“, auch gebe es massive Probleme bei der Kapitalbeschaffung.

Wie die Bürger auf die Aussicht auf den geplanten massiven Ausbau der Hochspannungstrassen reagieren, wird in Kapitel 9 näher beschrieben. Der bremsende Einfluß der vielen Bürgerinitiativen wird von den Netzbetreibern jedenfalls als noch ernster betrachtet, als die langen Genehmigungszeiträume.

Die Zielvorgabe ist vollkommen unrealistisch

wird aber aufrecht erhalten, denn Berlin will auf keinen seiner Stützpfeiler für die Energiewende-Vision verzichten, seien sie auch noch so brüchig. Aber auch einer eingespielten Maschinerie für die Illumination des Bildes einer vollkommen auf „erneuerbaren“ Energiequellen beruhenden Zukunft passiert hin und wieder ein Fehler – bzw. kommt versehentlich ein Stückchen Wahrheit ans Licht:

Das Bundesumweltministerium BMU hat in seinem bereits mehrfach zitierten „Entwurf des Erfahrungsberichts 2011 zum Erneuerbare-Energien-Gesetz“ auf Seite 38 und 39 bemerkenswerte, fast resignierende, Sätze veröffentlicht:

„Es muß davon ausgegangen werden, daß der Netzausbau auch künftig nicht in dem erforderlichen Maß vorankommen wird.“

Und weiter heißt es:

„Obwohl sich die betroffenen Netzbetreiber bemühten, die bestehenden Netzengpässe im Verteilnetz zu überwinden, stieg die durch das Einspeisemanagement abgeregelte Strommenge (Anm.: Das heißt: die abgelehnte Aufnahme ins Netz) aus Windenergieanlagen von 2004 bis 2009 auf das 7-fache an. Einzelne Netzausbaumaßnahmen an kritischen Stellen im Netz könnten große Wirkung entfalten und diesen Trend abschwächen. Dennoch dürfte das Einspeisemanagement mit zunehmendem Ausbau der erneuerbaren Energien weiter an Bedeutung gewinnen, weil es zunehmend zu Netzengpässen kommen wird.“

Zum Problem Nr. 2: Wie im Kapitel3 „Solarstrom..“ beschrieben, treten Netzprobleme keineswegs nur im Hochspannungsnetz auf, das mit dem Transport der Windstrom-Schwankungen nicht fertig wird, sondern sie zeigen sich zunehmend auch in den unteren Spannungsebenen. Dafür sind die immer zahlreicher werdenden Photovoltaikanlagen, insbesondere Solarparks, aber auch Windparks im Binnenland verantwortlich, die mit ihren wetterabhängigen Schwankungen das nicht für Tausende von Stromeinspeisern ausgelegte regionale Netz in Schwierigkeiten bringen.

Man kämpft jetzt mit dem „50,2 Hertz-Problem“,

der abrupten, massenhaften Selbstabschaltung der Photovoltaikanlagen bei Netzüberlastung durch zu hohe Einspeisung. Diese Sicherheitseinrichtung ist vorgeschrieben und sehr vernünftig. Nur hat die Regierung übersehen, daß sie sich damit ein neues Problem einhandelt, wenn eine riesige Anzahl von PV-Anlagen, mit der kein vernünftiger Mensch im sonnenarmen Deutschland je rechnen konnte, das gleichzeitig tut.

Die nun notwendige technische Nachrüstung aller PV-Anlagen mit automatischen Meß- und Abschaltgeräten sowie die mit Gewißheit auch hier künftig praktizierte Entschädigung der PV-Betreiber für den nicht gelieferten Strom würde wohl unweigerlich wieder den Stromverbrauchern aufgebürdet werden.

Als einzige realistische Abhilfe gilt deshalb der Ausbau nicht nur der höchsten, sondern auch der unteren Spannungsebenen mit ihren Netzen und der Einsatz von Ortsnetztransformatoren. Dazu gab es endlich auch eine Zahl – und zwar eine sehr hohe: Katherina Reiche, parlamentarische Staatssekretärin im BMU, erklärte Ende November 2011 auf einem VDI-Kongress, daß das Netz „massiv umgebaut“ werden müsse. „Beim Höchstspannungsnetz seien 4.200 km, bei den Verteilnetzen 200.000 km in moderner Netztechnik nötig.“

Sie reagierte damit vermutlich auf eine im Auftrag des Bundesverbandes Windenergie angefertigte Studie der Ecofys Germany GmbH, in der ein folgenschwerer Satz steht (eigene Ergänzungen in Klammern):

„Die Ausfallarbeit durch Abregelung (d.h. Abschalten der Wind- und Solarstrom-Einspeiser) aufgrund von Netzengpässen im Übertragungsnetz (Höchstspannungsnetz mit 380 oder 220 Kilovolt; Länge 35.000 km) ist bislang noch wesentlich kleiner als die Ausfallarbeit aufgrund von Netzengpässen im (1,7 Millionen km großen) regionalen Verbundnetz.“

Das Hauptproblem für die Netzstabilität liegt also bei den Verteilnetzen:

Bei dem regionalen Hochspannungsnetz (100 oder 60 kV mit 77.000 km); dem Mittelspannungsnetz (30 – 3 kV mit 500.000 km) und Niederspannungsnetz (400 oder 230 Volt mit über 1 Million km) – und die zusammen sind riesenhaft. (Daten von Verivox).

Der Verband kommunaler Unternehmen VKU forderte deshalb in einer Erklärung vom 17.11.2011 die Politik und die Regulierung auf, ihren Blick auf diese 1,7 Mio km der Stromverteilnetze zu richten und nicht nur auf die knapp 35.000 km der Höchstspannungs-Übertragungsnetze, denn mehr als 80% der Anlagen der „Erneuerbaren Energie“ waren 2009 an die unteren Verteilnetze angeschlossen und haben diesen die Probleme gebracht..

Der VKU rechnet für einen derartigen Ausbau und die Integration der dezentralen Energieversorgung in den Verteilnetzen mit 25 Mrd € bis 2030. Darin seien die Kosten des Umbaus zur vielseitigen Meß- und Steuerbarkeit (Smart Grids) noch nicht einmal enthalten. Auswirkungen auf den Strompreis sind unausweichlich.

Peinlich für die Regierung:

Im neuen Energieleitungsausbau-Gesetz EnLAG sind nur die Höchstspannungs-Trassen des Übertragungsnetzes vorgesehen. Es ging den Gesetzesmachern nur um die Durchleitung des Windstroms von Nord nach Süd. Die Gefährdung der Stabilität des weitaus größeren Verteilnetzes durch die vielen unkontrollierten Stromerzeuger hatte man übersehen.

Während die Bundesregierung und ihre Bundesnetzagentur die anwachsende Bedrohung der Netzstabilität herunterspielen – Röttgen bezeichnete solche Warnungen unlängst als Horrorszenario – wächst in der Industrie eben diese Sorge. Nicht aus Freude an Horrorszenarien, sondern aus konkreten Erfahrungen im Jahre der Energiewende 2011.
Das Handelsblatt berichtete am 29.12.2011 über die sinkende Qualität der Stromversorgung: „Mit der beschleunigten Energiewende kommt es bereits heute zu bedenklichen Qualitätsverlusten bei der Stromversorgung“, wird Volker Schwich, der Vorstandsvorsitzende des Verbandes der Industriellen Energie- und Kraftwirtschaft (VIK) zitiert. Die Stabilität komplexer Produktionsprozesse sei bedroht – lange bevor die Allgemeinheit einen Blackout bemerkt. Kurze Unterbrechungen im Millisekundenbereich und Frequenzschwankungen führten jetzt häufiger als früher zu Problemen.
In einem Brandbrief an den Präsidenten der Bundesnetzagentur M. Kurth listet eine Tochterfirma des norwegischen Norsk-Hydro-Konzerns, der als drittgrößter Aluminiumhersteller der Welt in Deutschland an 14 Standorten Unternehmen der Al-Primärproduktion betreibt, die Probleme aus den Instabilitäten auf. Man beobachte „seit Juli 2011 eine beunruhigende Häufung aus Netz- und Frequenzschwankungen.“
In dem Schreiben werden die 5 wesentlichsten Fälle aus den vergangenen Monaten aufgelistet, die zu teuren Schäden geführt hätten. Die steigende Zahl der netzbedingten Produktionsbeeinträchtigungen sei beunruhigend. Eine solche Häufigkeit von Zwischenfällen habe es in den vergangenen Jahrzehnten nicht gegeben.

Die Bundesnetzagentur, die über die Netzstörungen eine Statistik führt, berücksichtigt aber nur ungeplante Unterbrechungen, die länger als 3 Minuten dauern. Der sich daraus ergebende Index (SAIDI) sieht deshalb optisch gut aus.
Er berücksichtigt aber aus der Sicht der Industrie nicht die sich häufenden und wachsende Probleme verursachenden Störungen von weniger als 3 Minuten Dauer.

In der kurzen Debatte um die Energiewende war die Zuverlässigkeit der Stromversorgung ein zentrales Thema. Heinz-Peter Schlüter, der Aufsichtsratsvorsitzende und Eigentümer von Trimet-Aluminium, hatte in den Anhörungen der Ethik-Kommission „Sichere Energieversorgung“ vor den unausweichlich auf die Industrie zukommenden Problemen gewarnt: Mit dem Wegfall einer zuverlässigen Stromversorgung verliere er seine Existenzgrundlage.
„Nur vier Stunden ohne Stromversorgung und die Produktionsanlagen meines Unternehmens wären irreparabel zerstört“, hatte Schlüter gewarnt.
Die Töpfer-Ethik-Kommission setzte sich darüber hinweg.

Während die Bundesregierung und ihre Bundesnetzagentur die anwachsende Bedrohung der Netzstabilität herunterspielen – Röttgen bezeichnete solche Warnungen unlängst als Horrorszenario – wächst in der Industrie eben diese Sorge. Nicht aus Freude an Horrorszenarien, sondern aus konkreten Erfahrungen im Jahre der Energiewende 2011.
Das Handelsblatt berichtete am 29.12.2011 über die sinkende Qualität der Stromversorgung: „Mit der beschleunigten Energiewende kommt es bereits heute zu bedenklichen Qualitätsverlusten bei der Stromversorgung“, wird Volker Schwich, der Vorstandsvorsitzende des Verbandes der Industriellen Energie- und Kraftwirtschaft (VIK) zitiert. Die Stabilität komplexer Produktionsprozesse sei bedroht – lange bevor die Allgemeinheit einen Blackout bemerkt. Kurze Unterbrechungen im Millisekundenbereich und Frequenzschwankungen führten jetzt häufiger als früher zu Problemen.
In einem Brandbrief an den Präsidenten der Bundesnetzagentur M. Kurth listet eine Tochterfirma des norwegischen Norsk-Hydro-Konzerns, der als drittgrößter Aluminiumhersteller der Welt in Deutschland an 14 Standorten Unternehmen der Al-Primärproduktion betreibt, die Probleme aus den Instabilitäten auf. Man beobachte „seit Juli 2011 eine beunruhigende Häufung aus Netz- und Frequenzschwankungen.“
In dem Schreiben werden die 5 wesentlichsten Fälle aus den vergangenen Monaten aufgelistet, die zu teuren Schäden geführt hätten. Die steigende Zahl der netzbedingten Produktionsbeeinträchtigungen sei beunruhigend. Eine solche Häufigkeit von Zwischenfällen habe es in den vergangenen Jahrzehnten nicht gegeben.

Die Bundesnetzagentur, die über die Netzstörungen eine Statistik führt, berücksichtigt aber nur ungeplante Unterbrechungen, die länger als 3 Minuten dauern. Der sich daraus ergebende Index (SAIDI) sieht deshalb optisch gut aus.
Er berücksichtigt aber aus der Sicht der Industrie nicht die sich häufenden und wachsende Probleme verursachenden Störungen von weniger als 3 Minuten Dauer.

In der kurzen Debatte um die Energiewende war die Zuverlässigkeit der Stromversorgung ein zentrales Thema. Heinz-Peter Schlüter, der Aufsichtsratsvorsitzende und Eigentümer von Trimet-Aluminium, hatte in den Anhörungen der Ethik-Kommission „Sichere Energieversorgung“ vor den unausweichlich auf die Industrie zukommenden Problemen gewarnt: Mit dem Wegfall einer zuverlässigen Stromversorgung verliere er seine Existenzgrundlage.
„Nur vier Stunden ohne Stromversorgung und die Produktionsanlagen meines Unternehmens wären irreparabel zerstört“, hatte Schlüter gewarnt.
Die Töpfer-Ethik-Kommission setzte sich darüber hinweg.

Inzwischen bereitet sich Hamburg auf die Möglichkeit eines totalen Stromausfalls im kommenden Winter vor, wie WELT Online am 21.11.2011 berichtete.

Der Netzbetreiber 50Hertz arbeite an einem Notfallplan und verhandle bereits mit großen Stromverbrauchern über eine Abschaltung. Olivier Felix von 50Hertz:

„Eine solche Situation kann eintreten, wenn im Winter bei Hochdrucklagen keine Windenergie erhältlich ist und zusätzlich das KKW Brokdorf unerwartet abgeschaltet werden muß.“

Vor nicht allzu langer Zeit gab es in dieser Region noch die KKW Stade (wird abgerissen), Brunsbüttel und Krümmel (sind stillgelegt). Deren Leistung fehlt nun.

Zur Erinnerung: Dieser  geplante riesenhafte Ausbau des Stromnetzes ist nur eine Folge der Fehlentscheidung, die Windkraft ebenso wie die Photovoltaik so lange übermäßig durch Subventionen zu fördern, bis deren gewaltige Schwankungen und ihr unvorhersehbar auftretender Überschuß zu einer Bedrohung der Netzstabilität wurde. Ohne diese Fehlentscheidung hätte das Netz weiterhin völlig ausgereicht.
Wenn unsere Nachbarländer dem Beispiel Polens, das keinen grünen Spitzenstrom mehr hereinlassen will, folgen sollten, bricht das deutsche Stromnetz durch die selbst verschuldeten Störungen, die dann nicht mehr exportiert werden können, bei jedem Sturmtief zusammen. (Siehe Kap. 12 „Energiewende bedroht die Nachbarländer.“)
Doch die Geldvernichtung im Namen der angeblich davon profitierenden Umwelt  geht unvermindert weiter: Die Regierung subventioniert  Wind- und Solarstrom weiterhin mit dem EEG und bekämpft anschließend mit weiteren Milliarden die eben dadurch verschärften Probleme.

7. Schäden umverteilen

Daß die Energiewende zu Strompreiserhöhungen führen wird, bestreitet nicht einmal die Regierung. Aber das Ausmaß dieser Erhöhung wird von ihr verniedlicht, während externe Fachleute von mindestens 20% ausgehen. Wesentlicher Grund dafür ist die 2011 erfolgte Abschaltung von 8 deutschen Kernkraftwerken, die bisher preisgünstigen Grundlaststrom erzeugten, der nun vermehrt durch Stromimporte aus Frankreich, Tschechien und Polen ersetzt werden muß – was Frau Merkel zunächst kategorisch ausgeschlossen hatte.

Strom Import-Export Bilanz in Deutschland Janunar-Oktober 2011 (rot: Import, blau: Export; Quelle: wilfriedheck.de)

Ein weiterer Grund ist der weitergehende Ausbau der teuren “erneuerbaren” Stromerzeuger Windkraft, Solarzellen und Biogas-gefeuerte Kleinkraftwerke, deren vom EEG garantierte Einspeisevergütungen den Stromverbrauchern aufgebürdet werden.

Dieser Anteil an der Stromrechnung steigt daher systematisch,

wobei auch wieder festzustellen ist, daß die Regierung wesentlich niedrigere Zahlen nennt als Energiewirtschaftler.

Der EU-Energiekommissar Günther Oettinger warnte bereits Anfang März, danach im Juni, im August, im September und zuletzt am 22.10.2011 vor den dramatischen Folgen des steigenden Strompreises für Deutschland. Hohe Energiekosten gefährdeten nicht nur den Wirtschaftsstandort, sondern auch den sozialen Frieden, wenn ein Teil der Menschen die Stromrechnung nicht mehr bezahlen könne. “Ich bin überrascht, wie gedankenlos die Entwicklung der Strompreise hingenommen wird,” sagte Oettinger auf dem internationalen Wirtschaftsforum in Baden-Baden. Deutschland zähle weltweit zu der Spitzengruppe bei den Strompreisen. Dies sei eine Ursache für die stetige De-Industrialisierung – energieträchtige Produktionen würden ins Ausland verlagert, sagte Oettinger.

Wie ernst diese Situation für die energieintensiven Industrien – Chemie, Papierindustrie, Düngemittelindustrie, Glaswerke, Stahlwerke, Baustoffindustrie, Aluminiumhersteller, Metallverarbeitung – bereits geworden ist, ist der Regierung bereits durch Wirtschaftsverbände und Gewerkschaften klar gemacht worden.

Das Schlupfloch: Die Stromnetzentgeltverordnung

Die Reaktion der Regierung war bezeichnend: Der Staat verzichtet keineswegs auf seine vielfältigen Steuern und Abgaben auf den Strompreis, die ihn hier dermaßen teuer machen. Er verteilt die Lasten einfach um. Das Instrument dafür ist die o.g. am 28.7.2011 geänderte Verordnung (StromNEV), die unauffällig im Konvoi anderer Energiewende-Gesetze versteckt und die von der Presse erst nach einem Vierteljahr entdeckt wurde.

In dem für Laien praktisch unlesbaren Juristenchinesisch verbirgt sich im §19 ein Goldesel: Unternehmen mit einem hohen Verbrauch werden fast komplett von den Netzgebühren befreit – und auch noch rückwirkend für das laufende Jahr. Unternehmen, die mindestens 7000 Stunden jährlich am Stromnetz hängen und mehr als 10 Millionen kWh Strom verbrauchen, müssen gar keine Netzgebühren mehr bezahlen.

Bereits ab einem jährlichen Stromverbrauch von 100.000 kWh sinken die Netzkosten deutlich, so daß Tausende Unternehmen nicht den vollen Preis zahlen müssen. Die dadurch von den Unternehmen gesparten Netzkosten werden voll auf den Strompreis umgelegt – also von den Verbrauchern bezahlt. Geschätzt wird, daß die Strompreise allein durch diese Netzkostenermäßigung um 0,75 bis 1,0 Cent / kWh steigen könnten. Pro Haushalt mit ca. 4000 kWh Jahresverbrauch wären das bis zu 40 Euro mehr.

„Die Industrie zu entlasten und allein die Kleinverbraucher die Zeche zahlen zu lassen, ist eine Dreistigkeit, die bisher ohne Beispiel ist,“

zitierte die „Frankfurter Rundschau“ Verbraucherschützer Holger Krawinkel.

Aber das ist das durchgängige Prinzip bei der Energiewende. Sie beruht schließlich ganz wesentlich auf der Schröpfung der Bürger durch ihre Zwangsbeglückung mit zu teurer Energie. Mit dieser fortgesetzten Umverteilung zu Lasten der kleinen Leute dürften die Warnungen des Energiekommissars vor dem Ende des sozialen Friedens Wirklichkeit werden.

Eine auch gegenüber unseren Nachbarländern betriebene Rücksichtslosigkeit, die bislang ohne Beispiel ist,  stellt der Mißbrauch der Stromnetze dieser Länder als Ausgleichspuffer für den in Deutschland nicht verwendbaren Wind- und Solarstrom dar. Mit den dadurch ausgelösten Spannungs- und Frequenzschwankungen dürfen sich dann die Netzbetreiber dieser Länder herumschlagen.
Ohne diesen zum Teil mit teuren Zuzahlungen erkauften Export der nicht nutzbaren Überschüsse (siehe Kap. 5 „Jenseits der Planwirtschaft“) würden die Netzstörungen in Deutschland wohl unbeherrschbar.
Das erklärt, weshalb die Energiewende-Gesetzgebung mit ihrer massiven Grundlast-Abschaltung der 8 KKW ohne jegliche Konsultation oder Vorwarnung der Regierungen der Nachbarländer durchgesetzt worden ist. Die deutsche Regierung wußte sehr genau, wie deren Reaktion ausgesehen hätte: Sie ist im Kap. 15 „Ein internationales Urteil“ nachzulesen.

8. Das stille Ende großer Ankündigungen

Sie haben es sicherlich bemerkt: Klimaschutz ist plötzlich “out”. Jahrelang hat die Regierung Deutschland als einsamen Vorreiter und moralisches Vorbild bei der Reduzierung der CO2-Emissionen hingestellt. Der nach dem Anschluß der DDR dort stattgefundene Zusammenbruch der Industrie sowie die anschließende Modernisierung ihres Restes hat einen beträchtlichen Rückgang der dortigen Emissionen zur Folge gehabt – den sich die Bundesrepublik als eigene Leistung angerechnet hat. Damit konnte sie die Selbstverpflichtung, die CO2-Emissionen gegenüber dem sehr geeigneten Jahr 1990 um 21% zu vermindern, mit 23,4% sogar übertreffen. Anschließend hat sie in der EU die Forderung nach einer Absenkung der Emissionen bis 2020 um 40% erhoben – was von den Grünen als „ambitionierte Vorreiterrolle“ bezeichnet wurde.

Das ist nun seit Verkündigung der Energiewende Makulatur.

Die Abschaltung von 8 unbestreitbar CO2-freien Kernkraftwerken und der Ersatz des Stromausfalls durch Importe – teilweise von Kohlekraftwerken – und Hochfahren auch noch der letzten und ineffizientesten deutschen Kohlekraftwerke hat alle großartigen Selbstverpflichtungen abrupt in eine Peinlichkeit verwandelt. Hinzu kommt, daß Deutschland dringend neue Grundlastkraftwerke benötigt – und das können nach derzeitiger politischer Lage wiederum nur Kohlekraftwerke sein, wenn auch sehr moderne. Die Braunkohle-Bundesländer und die Industriegewerkschaft Bergbau, Chemie, Energie begrüßen das sehr.

Aber die Grünen und zahlreiche Bürgerinitiativen, die vom Ende der Klimaschutzpolitik noch nichts gehört haben, behindern den Neubau von Kohlekraftwerken nach Kräften. – siehe Projekt Datteln. Allein in NRW sind drei Neubauprojekte gestoppt bzw. verzögert: Das EON-Kraftwerk Datteln wurde vom NRW-Oberverwaltungsgericht gestoppt, ebenfalls  das Trianel-Kraftwerk Lühen; für beide fordert der Bund für Umwelt und Naturschutz BUND das Ende. Das Trianel-Steinkohlekraftwerk Krefeld wurde nach heftigen Protesten der Umweltschützer aufgegeben – eventuell wird stattdessen innerhalb von 6 Jahren ein Gaskraftwerk gebaut.  Und der neue Block 10 des STEAG-Kraftwerks Walsum wird wegen technischer Probleme erst drei Jahre später ans Netz gehen. 

Dennoch müßte es unbedingt weitere Kohlekraftwerke geben; die Regierung hat gar keine andere Wahl, als nun auch beim sogenannten Klimaschutz eine 180-Grad-Wende zu fahren. Aber sie streitet über das Neubau-Thema – siehe den Abschnitt „Für die Bürger wird es immer teurer“ im Kapitel 14.

Aber das werden dann auch nicht einmal Kraftwerke mit CO2-Abtrennung (CCS) sein, wie es stets vollmundig verkündet wurde. Denn die Regierung erlitt kürzlich eine schwere Niederlage: Der Bundesrat lehnte ihren Gesetzesvorstoß ab, der es ermöglichen sollte, in Kraftwerken abgetrenntes CO2 zunächst versuchsweise in ehemaligen Gasspeichern zu lagern. Er will auch nicht den Vermittlungsausschuß anrufen. Damit ist die unterirdische Einlagerung von CO2 in Deutschland erst einmal unmöglich.

Die Abtrennungs- und Speichertechnik sollte eigentlich durch ein vom Energieversorger Vattenfall zu bauendes Demonstrationskraftwerk im Brandenburgischen Jänschwalde erprobt werden.

Jetzt hat Vattenfall Anfang Dezember 2011 erklärt, daß dieses Projekt gestoppt wird.

Grund sei das jahrelange erfolglose Ringen um eine gesetzliche Grundlage, teilte Vattenfall mit und bezog sich dabei vermutlich auch auf die kürzliche Ablehnung der CO2-Einlagerung (s.o.). Minister Röttgen zeigte sich enttäuscht. Jetzt fehlt es also weiterhin sowohl an der Abtrenungstechnik als auch an der Möglichkeit zur Lagerung des Gases. Damit sind auch alle Lippenbekenntnisse zum künftigen Bau von ausschließlich CO2-freien Kohlekraftwerken gegenstandslos geworden. Aber neue Kohlekraftwerke werden nach der Abschaltung der AKW dringend benötigt. Es werden dann – falls es der in den vergangenen Jahren stets begrüßte Widerstand der Bevölkerung überhaupt zulässt und die Investoren das Risiko überhaupt tragen wollen– ganz normale Kohlekraftwerke ohne CO2-Abtrennung gebaut.

Womit die CO2-Emissionen Deutschlands noch mehr steigen werden, als es bereits jetzt der Fall ist.

Mit diesem Dilemma ist die Regierung aber nicht allein: Die EU verfolgt das Ziel, 2050 rund 90% weniger CO2 zu emittieren, wozu entscheidend die CCS-Technik gebraucht wird. Die EU-Kommission geht davon aus, daß im Jahre 2035 CO2 aus Kohle- und Gaskraftwerken mit einer Kapazität von 35.000 MW abgetrennt und gespeichert werden kann. Allerdings fehlen Erfolgsmeldungen: Nur Spanien, die Niederlande und Rumänien haben bisher die EU-Richtlinie zur geologischen Speicherung von CO2 vom April 2009 in nationales Recht übernommen. In allen anderen EU-Staaten fehlt Investoren die Rechtssicherheit.

Und von den 6 von der EU-Kommission geplanten Pilotprojekten wird eventuell nur das in Rotterdam bis 2015 in Betrieb gehen. Das deutsche Projekt Jänschwalde hätte keinen Ort zur Speicherung des Gases.

Das Hauptproblem der CCS-Technik ist die fehlende Wirtschaftlichkeit. Eine Tonne CO2 abzuscheiden kostet ca. 50 €. Im Emissionshandel liegt der Preis für diese Menge bei ca. 10 €. Und er könnte später noch weiter sinken, wenn in Europa die neuen Erdgasquellen ausgebeutet werden – siehe Kapitel 13.

Aber auch mit der Verwendung von CO2 als Rohstoff (CCU) kann nur ein kleiner Teil der Emissionen genutzt werden, wie kürzlich auf einem Kongress in Düsseldorf einhellig festgestellt wurde. Die größte Hürde – vor allem in Mitteleuropa und Skandinavien ist aber die fehlende Akzeptanz der CO2-Speicherung vor der eigenen Haustür. Zur Rolle der Bürgerinitiativen mehr in Kapitel 11.

Die Erwartung der Regierung, daß künftig viele neue Gaskraftwerke gebaut werden,

die wegen ihrer geringeren Emissionen als klimafreundlicher gelten und auch als Regelungskraftwerke zum Ausgleich der Einspeisungs-Schwankungen benutzt werden könnten, wird sich nach Aussagen der Kraftwerksbetreiber nicht erfüllen. Das würde sich nicht rechnen, denn einerseits sind die Gaspreise zu hoch, andererseits sind Kraftwerke, die nur gelegentlich angefahren werden, um das Netz zu stabilisieren, unrentabel und rechtfertigen keine Investition. Es bleibt nur die Kohle. Ob Deutschland wenigstens nach 10 Jahren in den Genuß des billigen Erdgases aus „unkonventionellen“ Quellen (Shale-Gas) kommen wird, ist unsicher – siehe Kapitel 13.

Seit 6 Jahren experimentiert Deutschland auch mit Klimaschutz durch den Emissionshandel. Das Ergebnis stellt eine Kapitulation dar: Der Staat beschenkt mittlerweile energieintensive Unternehmen – z.B. Stahl-, Zement- und Chemieindustrie; insgesamt 164 Industriebereiche – üppig mit Emissionsrechten, nach Meinung von Kritikern wie BUND sogar viel mehr als nötig, damit sie nicht abwandern. Diese Emissionsrechte können sie nun weiterverkaufen. Ein Zwang zum erhofften CO2-Sparen entfällt; der Effekt ist gleich Null.

Die Regierung wird somit in den kommenden Jahren stetig ansteigende CO2-Emissionen registrieren,

sie aber vermutlich nicht mehr kommentieren. Sie hat vielleicht die Hoffnung, daß die weltweit stark ansteigenden Emissionen – allein 2010 gegenüber 2009 um +6 Prozent auf knapp 32 Mrd Tonnen, vor allem durch China, Indien, USA, Russland und Japan – von der ehemals „ambitionierten Vorreiterrolle“ Deutschlands ablenken würden.

Man könnte nun auf die Idee kommen, daß eine Regierung, die derart leichthin ihre moralisch überlegen gespielte Rolle als selbsternannte Weltretterin opfert, ebenso eines Tages ihre Energiewende einfach ausklinken könnte. Man kann sich jedoch nicht darauf verlassen, denn die Lobby, die man mit dem EEG geschaffen hat, ist stark.

9. Das Prinzip Hoffnung als Realitätsersatz

Ein von der Politik schon immer eingesetztes Mittel zur Stärkung der Überzeugungskraft von Plänen ist die Projektion von Verheißungen, das Versprechen von neuen Möglichkeiten, wozu sich insbesondere die Schilderung von neuen technischen Lösungen sehr gut eignet, weil hierbei die rasche Nachprüfung durch die Bürger entfällt und auch die Medien erfolgreich als Werbeträger eingesetzt werden können.

In keinem anderen Sachbereich wird von dieser Methode derart viel Gebrauch gemacht,

wie bei der Energieversorgung. Und je ungewisser den Verkündern neuer Lösungswege – zum Beispiel eine Energiewende – die Erfolgschancen erscheinen, umso mehr arbeiten sie mit Visionen, Hoffnungen und Versprechungen.

Die am meisten benutzte Methode ist die Beschreibung von tatsächlich noch nicht entwickelten Techniken als in Kürze sicher und erfolgreich einsetzbar.

Die Begründungsversuche für die sog. Energiewende stützen sich ganz erheblich auf derartige Beispiele. Ihre Merkmale sind:

  • Verschweigen des noch verstreichenden Zeitraums bis eine ausgereifte Technik entwickelt ist; statt dessen Erwecken des Eindrucks kurzfristiger Verfügbarkeit.
  • Unterschlagung wichtiger Leistungsziffern, insbesondere Wirkungsgrade bzw. Verluste sowie Kosten – z.B. die Investitionskosten pro geleistetem Kilowatt an Leistung und die Kosten einer erzeugten Kilowattstunde.
  • Verschleierung der für bestimmte Techniken vergebenen Subventionen bzw. Zwangsabgaben und deren Auswirkung auf die Verbraucher. Drastisches Beispiel: Das erneuerbare Energien-Gesetz EEG.
  • Verschweigen der damit verbundenen direkten Umweltbelastungen wie Flächenverbrauch (Biomassenutzung, Energiepflanzen), Lärmemissionen (Windräder), Feinstaubemissionen (Pelletheizungen), Gesundheitsgefahren (CO2-Speicher), Gefährdung von Gebäuden (Geothermie), Landschaftszerschneidung (Höchstspannungs-Trassen). Ebenso auch indirekter schädlicher Auswirkungen wie Biodiversitätsverluste durch Monokulturen (Energiepflanzen), der weltweite Anstieg der Nahrungsmittelpreise durch exzessive energetische Nutzung von Feldfrüchten mit Verlust von Anbauflächen für Nahrungsmittel oder die sozialen Auswirkungen steigender Energiepreise für Menschen mit geringem Einkommen (s. Aussagen von Oettinger).

Hier eine Zusammenstellung einiger Beispiele:

  • Technologien zur CO2-Abtrennung aus den Abgasen von Kohle- und Gaskraftwerken. Dazu Prof. H.-J. Wagner, Institut für Energietechnik der Ruhr-Univ. Bochum: „Kraftwerke mit CO2-Abscheidung werden erst in der übernächsten Generation, also in 30-40 Jahren, zum großtechnischen Einsatz kommen.“

  • Die unterirdische CO2-Speicherung: Bereits die gesetzliche Regelung zur Erprobung ist am Widerstand der Bürger gescheitert;

  • Der Ausbau des Höchstspannungsnetzes um 4200 km innerhalb der nächsten 20 Jahre: Bisher nur 214 km realisiert; angesichts der Widerstände ist selbst das Erreichen eines kleinen Teils dieser Pläne aussichtslos.

  • Druckluftspeicher zum Ausgleich von Windstromschwankungen: Das erste und einzige Entwicklungsprojekt für adiabatische Druckluftspeicherung namens ADELE stellte am 22.11.2010 die RWE Power in Staßfurt/Sachsen-Anhalt vor. Zu schaffende Voraussetzungen: „Erfolgreiches Abschließen der technischen Untersuchungen und Planungen; Finanzierung einschließlich der erforderlichen (!) Förderung; Geologie des Standortes.“ Viele wesentliche technische Komponenten müssen ebenfalls erst noch entwickelt werden. Ob in 30 Jahren die Marktreife erreicht werden kann, ist unklar.

  • Seekabelverbindungen zu norwegischen Pumpspeicher-Kraftwerken mit mindestens 5000 MW Übertragungsleistung: Siehe die obigen Ausführungen von Prof. Vahrenholt in Kap.1. Ein erstes kleineres Projekt befindet sich bereits in Schwierigkeiten: Das 530 km lange Nord Link Ein solches Kabel soll es bis Anfang 2017 geben. Es soll 1.400 MW übertragen. Das entspricht der Leistung eines Kernkraftwerks und gerade einmal 4 Prozent der schon jetzt in Deutschland installierten Windstromleistung. Mehrere Partner verließen das Projekt bereits.

    Fünf bis zehn dieser Seekabel wären wohl nötig, geplant sind sie nicht, und es gibt noch andere Probleme: Die meisten norwegischen Wasserkraftwerke sind keine in beiden Richtungen (bergauf und bergab) arbeitenden Pumpspeicherwerke. Sie müßten teuer und langwierig umgebaut werden – wenn es die Norweger überhaupt wollen.

    Außerdem wollen alle Nordseeanrainer, die ebenfalls Windkraftanlagen gebaut haben, ebenfalls mit Seekabeln an die norwegische Wasserkraft heran. Holland hat es schon getan. Damit fällt für jeden weniger Speicherkapazität ab. Und schließlich: Schon jetzt kämpfen Bürgerinitiativen in Norddeutschland gegen die Umspannstation an Land und die neuen Hochspannungsleitungen. Siehe auch die Ausführungen von Prof. Vahrenholt, Kap. 2: „Windstrom“.

  • Bezahlbare, leistungsfähige und langlebige Batterien für Elektroautos. Diese Entwicklung dauert voraussichtlich mehr als 20 Jahre. Als Speicher für Wind- oder Solarstrom wird auch danach kaum ein Autobesitzer seine Batterien bereitstellen: Ihre Lebensdauer leidet darunter.

  • Brennstoffzellen zur Stromerzeugung aus Wasserstoff, der wiederum per Elektrolyse aus überflüssigem Windstrom gewonnen wurde. Zu teuer, zu geringe Lebensdauer, unausgereifte Technik.

  • Solarstrom aus Nordafrika für Europa: Das DESERTEC-Projekt. Abgesehen von enormen Kosten, enormen Leistungsverlusten bei Stromerzeugung und Transport bis Mitteleuropa sind sehr lange, neue Höchstspannungstrassen notwendig – und kaum realisierbar. Zudem haben die politischen Umbrüche in Nordafrika alle Pläne obsolet gemacht.

  • Unterirdische Pumpspeicherwerke in ehemaligen Bergwerken. Noch existieren nur Pläne. Bis zur Marktreife mindestens 25 Jahre. Problem: Über Tage müßten sehr große und tiefe Speicherseen angelegt werden.

  • Hybridspeicher: Wasserstofferzeugung durch Windstrom-Elektrolyse mit anschließender Stromerzeugung durch Verbrennungskraftmaschine plus Stromgenerator. Diese Anlage würde 81% des eingespeisten Windstroms als Abwärmeverluste vernichten. Absurd, aber als Pilotanlage in Prenzlau errichtet. Eine chancenlose Energievernichtungstechnik, die wahrscheinlich mit Steuergeldern gefördert wurde. Details in Kap.5.

  • Geothermie-Kraftwerke zur Stromerzeugung. Die äußerst geringe Temperaturdifferenz, mit der diese Wärmekraftanlagen arbeiten müssen (ca. 140oC), führt zu einem kläglich kleinen Wirkungsgrad, der fast immer verschwiegen wird. Erstmals wurden im Herbst 2011 in einem Fachbericht über das geplante „petrothermale“ Kraftwerk in Munster-Bispingen (Lüneburger Heide) die interessanten Zahlen genannt: Thermalwassertemperatur 160oC; thermische Leistung 14,7 MW; elektrische Leistung 1,2 MW. Elektrischer Wirkungsgrad somit trotz relativ hoher Temperatur des Thermalwassers nur 8,2%. Das heißt: Sehr wenig elektrische Leistung für sehr hohe Investitionskosten, die hier 43 Mio € betragen; somit 36.000 € für 1 kWel. Zum Vergleich: 1 kW eines Kohlekraftwerks kosten 1.140-1.480 €; selbst bei einer kleinen Haus-Blockheizanlage kostet 1 Kilowatt 3.700-7.500 €. Stromerzeugung mit Geothermie ist also extrem unrentabel. Nur als Fernheizung hat es Sinn.

  • Solare Wasserstofferzeugung durch CO2-gefütterte Algen. Im Labormaßstab in Erprobung. Ungewisse Aussichten; mehrere Jahrzehnte von der Marktreife entfernt.

Diese und weitere Techniken sind zwar realisierbar, jedoch entweder noch weit von einer Markteinführung entfernt, von untragbar hohen Kosten gekennzeichnet, mit unakzeptablen Verlusten behaftet oder ihr Einsatz bleibt durch andere Defizite weit jenseits des politisch anvisierten Zeitraumes. Somit ohne Wirkung für die Umsetzung der Ziele der Energiewende.

Ein weiteres Hoffnungsargument in den Energiewende-Papieren

besteht in der Annahme der Regierung, daß der Bedarf an elektrischer Energie jährlich um 1,7% sinken werde. Diese Annahme wurde offenbar sehr zum Erreichen besserer Zahlen benötigt.

Sie wurde aber schon zuvor durch eine Studie der Task Force „Stromversorgung und Umwelt“ des VDE von 2009 widerlegt: Der bisherige langfristige Trend sei im Gegenteil eine Erhöhung von 1,2% pro Jahr gewesen. Seit 2006 habe er +0,6% betragen – und dieser jährliche Verbrauchszuwachs von 0,6% sei auch unter der Annahme von weiterhin erzielbaren Effizienzfortschritten wegen der zunehmenden Anwendung elektrischer Energie auch das wahrscheinlichste Szenario für die Zukunft.

10. Fehlinvestitionen: Die Förderung des Ungeeigneten

Die ideologische Überbewertung der Stromerzeugung durch alle sogenannten erneuerbaren Energiequellen und die Vernachlässigung der Nutzung dieser Energiequellen für die Wärmeerzeugung führte zu einer extremen Fehlsteuerung, deren Kern das EEG-Gesetz ist. Milliarden Euro werden den Verbrauchern abgenommen und in unzuverlässige, unrentable und im Falle der großtechnischen Biogasproduktion sogar umweltschädliche Investitionen geleitet, die im Falle von Windkraft und Solarstrom nicht etwa der sicheren Stromversorgung dienen, sondern sie im Gegenteil noch gefährden. Anstatt diese gigantische Fehlinvestition zu beenden, wird sie verstärkt fortgeführt – siehe die Energiewende-Schwerpunkte – und zur Schadensbegrenzung sollen weitere Milliarden für einen zuvor vollkommen unnötigen riesigen Netzausbau und für die verschiedensten Stromspeicherkonzepte ausgegeben werden, von denen die meisten wegen extremer Kosten und ebenso extremer Verluste bereits als Pläne in den Papierkorb gehörten.

Eins der absurdesten Beispiele ist das Wasserstoff-Hybrid-Speicherkraftwerk, das vor kurzem in Prenzlau in Gegenwart von Ministerpräsident Michael Platzeck eingeweiht wurde.

Überschüssiger Windstrom wird darin zur Wasserstoff-Erzeugung benutzt;

danach wird mit dem gespeicherten Wasserstoff in einem Gasmotor wieder Strom erzeugt, der bei Bedarf ins Netz zurück gespeist wird. Die Presse berichtete begeistert; Zahlen zum Speicher-Wirkungsgrad der Anlage und zu den Kosten einer so gespeicherten Kilowattstunde gab es bezeichnenderweise nicht.

Eine Nachrechnung ergibt: Die Umwandlung des Windkraft-Wechselstroms in Gleichstrom für die Druckelektrolyse beschert 10% Verluste; die Wasserstofferzeugung durch Elektrolyse verursacht 25% Verluste und der Gasmotor, der wieder Strom aus dem Wasserstoff erzeugt, hat 70% Verluste. Das ergibt einen Gesamtverlust von mindestens 80% – wertlose Abwärme. Der verbliebene kleine Rest des ohnehin nicht billigen Windstroms ist dann nach dieser „Speicherung“ fünffach teurer geworden.

Diese Anlage ist deshalb kein Stromspeicher, sondern eine teure Energievernichtungsanlage.

Derartige Pläne haben Konjunktur; es gibt offenbar in den zuständigen Ministerien keine fachliche Kontrolle mehr, die diese politisch korrekten Projekte von ihrer Förderung fernhalten könnte.

Das Problem für die Regierung, die Derartiges mit Steuergeld unterstützt, ist die Physik. Sie ist weder durch Programmpapiere, noch durch Sonntagsreden oder Einweihungszeremonien zu beeinflussen. Der einzige Effekt derartiger Projekte ist ein positives Medienecho und ein kleiner Zeitgewinn – bis zur unausweichlichen Pleite, über die aber nicht mehr berichtet wird. Das scheint die Steuergelder wert zu sein.

Eine ernsthafte und ehrliche Energie- und Umweltpolitik

hätte die physikalisch-betriebswirtschaftliche Sackgasse der Stromerzeugung aus ungeeigneten Quellen vermieden und die regenerativen Energiequellen für den Wärmemarkt erschlossen: Solarthermie und die Nutzung von Erdwärme mittels Wärmepumpen hätten eine konsequente und wirkungsvolle Förderung verdient, was niemals geschehen ist. Auch die Fernwärmenutzung aus tiefen Erdschichten – an Stelle absurd unrentabler Geothermie-Kraftwerke (siehe Kap.9) – und die ausschließliche Biogaserzeugung aus verwertbaren Abfällen und nicht aus Feldfrüchten wäre Bestandteil jener Politik. Vorhandene Windkraft dürfte in diesem Pumpspeicher-armen Lande einzig zur Wasserstofferzeugung mit anschließender Verwertung als Brennstoff oder Chemierohstoff eingesetzt werden; neue Installationen müßten gesetzlich unterbunden werden.

Die Reihe der Beispiele für eine intelligente Verbesserung der Wärmebereitstellung ließe sich noch lange fortsetzen.

Und das würde direkt die teuren fossilen Öl- und Gasimporte treffen. Eine derartige konsequente Energiepolitik könnte sich „Kaizen“ nennen – der aus der Industrie bekannte japanische Begriff für „ständige Verbesserung“. Eine „Wende“ hingegen bedeutet eine 90- bis 180-Grad-Kursänderung; diese Bezeichnung war daher korrekt. Abrupte Wenden in der Energiepolitik aber kann die Wirtschaft eines Industrielandes nicht aushalten, erst recht nicht eine Wende mit den beschriebenen Defiziten.

11. Die Geister, die man gestern rief…

Viele Jahre lang wurden die Umweltverbände von den Regierungen mit großer Sympathie behandelt und ungezählte Forderungen wurden ihnen erfüllt. Vernünftiges und auch Unsinniges geschah. Gleichzeitig bildeten sich lokale und regionale Aktionsbündnisse, die Flugplatzerweiterungen, Atomabfall-Endlager, Straßenbauprojekte, Flußbegradigungen, Abholzungen, Sendemasten des Mobilfunks und vieles andere mehr bekämpften; oft mit beachtlichem Erfolg.

Die Bürger haben daraus gelernt,

daß sie recht wirksam unliebsame Entwicklungen in ihrer Umgebung verhindern können. Genau diese Fähigkeiten setzen sie seit einiger Zeit gegen nahezu alle Projekte ein, die jetzt zu wesentlichen Teilvorhaben der Energiewende ernannt worden sind:

Eine kaum übersehbare Anzahl von Bürgerinitiativen – inzwischen von den Medien als „Wutbürger“ bezeichnet – bekämpft Windkraftanlagen:

ArGe für eine windradfreie Heimat; Volksinitiative „Gegen Windräder“ mit 26 angeschlossenen Vereinen; Windkraftgegner; Gegenwind; Windwahn; NAEB; Epaw-Europäische Plattform gegen Windkraftanlagen; Bürgerinitiative „gegenwindlärm“; Sturm im Storm; Freier Wald e.V.; IG Sturmwind; Wind gegen Wind; Sturm gegen Wind u.v.a.m.

Auch die wenigen noch geplanten Pumpspeicher-Kraftwerke sehen sich dem Widerstand der Bürger gegenüber:

  • Atorf/Südschwarzwald: Der Schwarzwaldverein als Interessenvertreter der Bevölkerung hatte in den Anhörungen kritisiert, die “Region dürfe nicht bloß das Objekt für energiewirtschaftliche Ausbeutung werden.“ Der Kreisverband der B90/Die Grünen / Waldshut sprach sich gegen das Projekt aus.
  • Riedl/Bayern: Das Projekt ist politisch umstritten; eine Bürgerinitiative hat sich dagegen gebildet.
  • Blautal / Birkhau: Massive Bürgerproteste in Arnegg und Markbronn führten zu erheblichen Planungsänderungen – auch bezüglich des Ortes der Anlage. Zur Zeit werden Sicherheitsbedenken geltend gemacht; der Widerstand hält auch nach 6 Jahren an; ein Baubeginn ist nicht absehbar.

Eine Bürgerinitiative hat bislang erfolgreich die Errichtung einer Umrichterstation in Norddeutschland verhindert, die als deutscher Endpunkt am Seekabel nach Norwegen das Anzapfen der norwegischen Wasserkraftwerke für die Speicherung deutschen Windstroms möglich machen sollte. (Vgl. Kapitel 1 und Kapitel 9).

Massiven Widerstand gibt es bereits gegen jegliche neue Hochspannungs-Freileitungen.

Angst vor Elektrosmog, entwertete Grundstücke und verschandelte Natur führen die Bürgerinitiativen ins Feld. Das wird sich noch erheblich steigern, wenn die Pläne der Regierung zum Neubau von 3000 km Höchstspannungsleitungen von Nord- nach Süddeutschland verwirklicht werden sollen. Bisher sind davon nur 214realisiert worden. Siehe „Netz“-Kap.6.

Eine weitreichende Niederlage erlitt die Berliner Regierung mit ihrem Gesetzesvorstoß, der es ermöglichen sollte, in Kraftwerken abgetrenntes CO2 zunächst versuchsweise in ehemaligen Gasspeichern zu lagern. Der Bundesrat lehnte es ab und will auch nicht den Vermittlungsausschuß anrufen.

Grund für diese Ablehnung war die im Gesetz vorgesehene Klausel, die es jedem Bundesland ermöglicht hätte, auf seinem Territorium diese Technik zu erproben oder aber die Erprobung zu verbieten. Angesichts des sehr großen Widerstandes in den nördlichen Ländern – zahlreiche Bürgerinitiativen kämpfen dort gegen die Einlagerung des giftigen CO2 „unter ihren Füßen“ – wäre letzteres mit Sicherheit geschehen.

Bereits vor der Bundesrats-Abstimmung hatte es massive Proteste gegeben:

„Stoppt das CO2-Endlager“ stand auf ungezählten Autoaufklebern im Raum Flensburg und massenweise in friesischen Vorgärten, an der Nordseeküste in Schleswig-Holstein und Niedersachsen brannten Mahnfeuer. Die Initiatoren lehnten auch eine Speicherung vor der Küste ab, weil Experten davon ausgehen, daß sich eine CO2-Verpressung noch in 100 km Entfernung auswirken könnte.

Diese Ausstiegsklausel aber lehnte insbesondere Brandenburg ab, das in Jänschwalde den Bau einer große CCS-Pilotanlage von Vattenfall erhoffte, für deren CO2 dann aber wohl keinerlei unterirdische Speichermöglichkeit zu erwarten wäre. Vattenfall fürchtet nun, daß eine EU-Förderung wegzufallen droht.

Greenpeace zeigte sich über das Abstimmungsergebnis im Bundesrat erfreut.

Diese sog. CCS-Technik gilt nun als Voraussetzung, um in Deutschland Kohlekraftwerke auf Dauer wirtschaftlich betreiben zu können, da sonst CO2-Emissionsrechte an der Börse gekauft werden müssen. Das könnte alle Pläne zum Bau neuer Kohlekraftwerke, die die abgeschalteten Kernkraftwerke ersetzen sollen, verhindern. Damit wäre eine entscheidende Voraussetzung der sog. Energiewende entfallen.

Ob die sog. unkonventionellen Erdgasfunde (Shale-Gas; siehe Kap.13) in Europa innerhalb von 10 Jahren zu einem Sinken der Emissionsrechte-Preise und dann zu besseren Chancen für neue Kohle- und Gaskraftwerke – ohne CO2-Abtrennung – führen werden, ist ungewiss.

Auch gegen Photovoltaikanlagen gibt es Widerstand – und zwar aus den Reihen der Solarstrom-Befürworter selbst:

Die “kleinen Gebäudeanlagen”, die typischerweise auf Reihenhausdächern angebracht sind , wurden dramatisch durch wesentlich größere Freiflächenanlagen zurückgedrängt: Im Juli 2009 machten die Kleinanlagen nur noch 2% der installierten Leistung aus.

Dazu schrieb Wolf v. Fabeck, Geschäftsführer und Vorstandsmitglied des Solarenergie-Fördervereins Deutschland e.V. (SFV) am 21.9.2009:

“Hier setzt sich eine bedauerliche Fehlentwicklung fort.”

Der SFV lehne PV-Freiflächen aus folgenden Gründen ab :

  • Sie belegen unnötigerweise Landflächen und treiben damit in ihrer Weise die Zersiedelung der Landschaft weiter voran.
  • Freiflächen stehen in Konkurrenz zum Nahrungsmittelanbau.
  • Freiflächen fangen viel Sonnenenergie ab; diese fehlt dann bei der Photosynthese. Das Pflanzenwachstum unter den Solarmodulen bindet bei weitem nicht so viel CO2 aus der Atmosphäre, wie es ohne Abschattung binden könnte.
  • Als ökologisch bessere Alternative bietet sich die Nutzung der Windenergie an.
  • Durch die Zunahme der Freiflächen nimmt die Akzeptanz für die Photovoltaik in der Bevölkerung ab, wie einige Bürgerinitiativen gegen Freiflächen-Anlagen belegen.

Die Bürger haben leider von der Politik nicht nur das erfolgreiche Blockieren von Projekten gelernt, sondern auch die Verwendung irrealer technischer Vorschläge als Argumente.

So wird beispielsweise zur Vermeidung neuer Stromtrassen gefordert, die Drahtseile der vorhandenen Leitungen durch Hochtemperaturseile zu ersetzen, die mehr Strom transportieren können. Weiterhin wird der Einsatz der Hochspannungs-Gleichstromübertragung (HGÜ) gefordert, weil damit mehr Leistung über vorhandene Leitungen geschickt werden kann.

Genervte Vertreter der Netzbetreiber sehen sich in den Diskussionen vor Ort genötigt,

auf die offensichtliche Tatsache hinzuweisen, daß heiße Stromleitungen deshalb heiß sind, weil dort eine zu hohe Belastung zu hohen Verlusten führt. Im Übrigen gebe es dafür nicht einmal kommerzielle Systemanbieter, nur Seil-Lieferanten. Und die HGÜ sei nur für die Übertragung großer Leistungen über große Entfernungen zwischen zwei Punkten sinnvoll – und ein nur mit sehr teuren Umrichterstationen anzapfbarer Fremdkörper im Wechselstromnetz.

Sehr beliebte ist das Argument des Ersatzes der Freileitungen durch unterirdische Kabel. Unterirdische Hochspannungsleitungen stellen jedoch keine realistische Alternative dar: Auch sie brauchen breite Schneisen wie die Freileitungen, ihre elektromagnetischen Abstrahlungen („Elektrosmog“) sind die gleichen – und sie führen zu Bodenaustrocknung. Außerdem sind sie über größere Strecken unerprobt und zudem bis zu 8-fach teurer als Freileitungen.

Die Vertreter der Regierung lernen jetzt erneut,

was die Experten des Bundesforschungsministeriums bereits von 1975 – 1978 in den Diskussions- und Seminarveranstaltungen ihrer umfangreichen Aufklärungs- und Werbeaktion „Bürgerdialog Kernenergie“ erfahren hatten: Es ist unmöglich, Ängste durch Sachargumente erfolgreich zu bekämpfen.

12. Deutschlands Energiewende bedroht die Nachbarländer

Als die 8 deutschen Kernkraftwerke Mitte März 2011 mit einer Entscheidung der Regierung abgeschaltet wurden, wodurch eine Grundlast-Kapazität von 8.800 MW (Megawatt) mit einem Schlag ausfiel, geschah es ohne jede Vorwarnung oder gar Konsultation der Nachbarländer, obwohl klar war, daß diese von dem drastischen Eingriff in den europäischen Strommarkt erheblich betroffen sein würden.

Der Zeitpunkt war zufällig und vorübergehend günstig, denn am Beginn des Frühjahrs waren die Nachbarländer Frankreich und Tschechien gut in der Lage, das in Deutschland entstandene Leistungsdefizit mit Stromexporten zu füllen. Frankreich, das generell vom Frühjahr bis zum Herbst Strom exportiert, musste seit dem 15. März 2011 durchschnittlich 2.000 Megawatt (MW) mehr exportieren – und zwar nach Deutschland.

Frau Merkel hatte zuvor erklärt, daß Deutschland keinerlei Stromimporte benötigen würde. Tatsächlich sind es noch vor dem Winter 2011/2012 bis zu 4.000 MW geworden. Was die deutsche Regierung offensichtlich übersah – oder nicht wußte – war die völlig andere Situation Frankreichs in den Wintermonaten: In diesen wird das Land zum Stromimporteur, wobei die Höhe dieser Importe bei 2,500 MW im Mittel und bei 5.000 MW im Maximum liegt.

Die Zahlen belegen es:

Während der Grundlastbedarf im Sommer bei 32.000 MW im Mittel und der Spitzenbedarf bei 50.000 MW liegt, steigt die erforderliche Grundlast in den Wintermonaten auf 55.000 MW sowie auf enorme 95.000 MW im Maximum. Dieser beträchtliche Verbrauchsanstieg beruht darauf, daß französische Häuser meist elektrisch beheizt werden – weshalb Frankreich im Winter stets Strom bezog – auch aus Deutschland.

Nun braucht Deutschland im Winter selbst Stromimporte, und zwar viel mehr als noch im Sommer 2011. Frankreich wird also von Deutschland nichts mehr geliefert bekommen. Und umgekehrt aber Deutschland auch nichts mehr aus Frankreich. Deshalb hat nicht nur Deutschland im Winter 2011/2012 einen Stromengpass zu befürchten, sondern insbesondere Frankreich, wie der Stromkonzern EDF Anfang November warnte. Siehe auch die folgende Meldung:

Auch die Strombranche der Schweiz trifft nach einem Bericht der NZZ vom 26.11.2011 Vorbereitungen für Versorgungsengpässe in den kommenden Wintermonaten, wie der Betreiber des Hochspannungsnetzes Swissgrid im November bestätigte. In der 3. Novemberwoche hatte die europäische Netzbetreibervereinigung Entso-E einen Bericht publiziert, der die Auswirkungen des deutschen Atomausstiegs auf die Versorgungssicherheit erörtert.

Probleme könnten sich bei einer längeren Kälteperiode ergeben, erklärte Swissgrid-Sprecher Thomas Hegglin.

Laut Entso-E könnte es zu weiträumigen Engpässen kommen, wenn etwa Frankreich auf Importe aus Deutschland angewiesen sein würde, dort aber aufgrund des Abschaltens von 8 AKW nicht genügend Kapazitäten vorhanden wären. Das letzte Mittel seien gezielte Stromrationierungen.

Die Nachbarn beginnen sich bereits gegen die schädlichen Auswirkungen der rücksichtslosen deutschen Energiepolitik zu wehren, wie der SPIEGEL am 5.12.2011 berichtete:
In Warschau sorgt man sich, daß die polnischen Kraftwerke dem ständigen Hoch- und Herunterfahren nicht gewachsen seien und es durch einen unerwarteten Stromüberschuß sogar zu einem Blackout kommen könne. Deshalb sollen künftig sogenannte Phasenschieber den Stromfluß zwischen beiden Ländern unterbrechen. Überschuß-Strom müßte dann im deutschen Netz verteilt werden, was dort das Risiko von Stromausfällen vergrößern würde.
Stephan Kohler, der Chef der Deutschen Energie-Agentur Dena, sagte dazu: „Wenn überschüssiger Wind- und Solarstrom nicht mehr ins Ausland abgeführt werden kann, dann wird das deutsche Stromnetz instabiler.“ Er forderte die Bundesregierung auf, mit den Nachbarländern rasch Verhandlungen aufzunehmen, „um die Energiewende europäisch abzusichern.“

Die einseitige dramatische und abrupte Verringerung der deutschen Stromerzeugung hat also erwartungsgemäß zu größten Problemen im europäischen Verbund geführt und unabhängig von gefährlichen Stromengpässen steigen jetzt auch die Strompreise in unseren Nachbarländern. Sie dürfen Merkels Energiewende mitbezahlen. Sämtlichen Energiewirtschaftlern waren diese Folgen sofort klar. Der Regierung Merkel anscheinend nicht.

Daß die Handlungsweise der deutschen Regierung in den Nachbarländern als unsolidarisch und arrogant angesehen wird, bestätigen Landsleute, die mit dortigen Regierungsvertretern Kontakt haben.

„Wenn alle so reagieren würden, wie die Deutschen, wäre die Energieversorgung Europas gefährdet“

zitiert der Europaabgeordnete Holger Krahmer Stellungnahmen aus der holländischen Regierung.

Sollte es in Folge des deutschen Alleingangs zu wirtschaftlichen Schäden kommen, wird Deutschland vermutlich die Rechnung auf dem Wege über Brüssel präsentiert werden. Die Stellungnahmen der ausländischen Experten in der Umfrage des World Energy Council – siehe Kapitel 15 – belegen, daß sie alle sowohl Preissteigerungen als auch eine Gefährdung der Versorgungssicherheit in Europa als Folge der deutschen Kursänderung erwarten.

13. Globale Entwicklungen gehen in eine andere Richtung

Es gibt drei starke Trends in der Energiewirtschaft und der Energiepolitik des gesamten Auslands:

  1. Die weiterhin bestehende Dominanz der Kohleverstromung,
  2. die weltweite Renaissance der Kernenergie,
  3. die Erschließung der gewaltigen neuen Erdgasquellen (Shale Gas).

Kohleverstromung:

Die Kohleverstromung muß Deutschland angesichts des Kernkraft-Ausstiegs wieder erheblich ausbauen – ohne CO2-Abscheidung. Selbst das ist jetzt durch die jahrelange und sehr erfolgreiche Klimakatastrophen-Propaganda mit der Kohle als gefährlichstem Primärenergieträger von erheblichen Unsicherheiten gekennzeichnet, wie oben ausgeführt wurde.

Diese Form der Stromerzeugung kommt jedoch bald unter starken Druck durch die neuen Erdgasvorkommen, wobei Deutschland vermutlich eher spät dazu kommt– s.u.

Kernkraft:

Im Gegensatz zu Deutschland läuft im Rest der Welt weiterhin eine mächtige Aktivität zur Verstärkung und auch insbesondere zur erstmaligen Einführung dieser Technologie.

Zahlreiche innovative Neuentwicklungen verbreiten das Anwendungsfeld der Nukleartechnik auf sämtliche Bereiche der Energieanwendung. Zu erwähnen ist insbesondere die Entwicklung von Kleinreaktoren, die der Nukleartechnik sehr große neue Anwendungsfelder eröffnen

Ein kurzer Überblick:

  • Ende 2010 wurden in 30 Ländern insgesamt 443 Kernkraftwerke (6 Blöcke mehr als am 31.12.2009) mit einer Nettoleistung von 376 GW (376.000 MW) betrieben, die damit um ca. 5 GW über dem Vorjahreswert lag.
  • 6 Kernkraftwerke haben 2010 den Betrieb neu aufgenommen.
  • Ende 2010 gab es 62 aktive Bauprojekte in 15 Ländern für KKW – das sind 9 im Bau befindliche Blöcke mehr als im Vorjahr: (Argentinien:1; Brasilien:1; Bulgarien:2; China:27; Finnland:1; Frankreich:1; Indien:5; Iran:1; Japan:2; Südkorea:5; Pakistan:1; Russland:10; Slowakische Republik:2; Taiwan:2; USA:1).
  • Im fortgeschrittenen Planungsstadium befanden sich Ende 2010 in 20 Ländern 102 KKW-Blöcke. Weitere sind in der Vorplanung.

Mit seinem Ausstiegsbeschluß und der sofortigen Stillegung von 8 Kernkraftwerken mit 8.800 MW Leistung befindet sich Deutschland allein in der Welt. Insbesondere die Schwellenländer haben einen derart großen Bedarf an elektrischer Energie, daß sie nur zwischen Kohlestrom und Kernkraftstrom wählen können. Die größten dieser Länder – China und Indien – haben beide Optionen gewählt und sind inzwischen selbst zu den dynamischsten Entwicklern modernster Nukleartechnik herangereift.

Shale-Gas (Unkonventionelle Gasvorkommen (Quelle: Wikipedia):

Die neue Bohr- und Erschließungstechnologie für die riesigen, lange bekannten, bislang unzugänglichen Shale-Gas-(Schiefergas)-Vorkommen hat in den letzten Jahren eine Revolution auf dem Weltenergiemarkt ausgelöst. Die Internationale Energieagentur rechnet mit Vorräten in der Höhe des 250-fachen Jahresverbrauchs in der Welt.

Bereits jetzt decken die USA, wo Shale-Gas in großem Stil gefördert wird, inzwischen ihren Gasbedarf aus eigenen Quellen und beginnen mit Erdgasexporten. Amerika hat inzwischen Russland als weltgrößten Gasproduzenten abgelöst. Es gibt dort ca. 3000 Bohrungen für Erdgas, monatlich kommen ca. 135 hinzu.

Exxon Mobile erwartet in einer neuen Prognose, daß Erdgas bis 2030 die Kohle als wichtigsten Stromlieferanten verdrängen wird. Vermutete Vorkommen von „unkonventionellem“ (Shale-Gas) und konventionellem Erdgas:

  • Konventionell: 241 Billionen Kubikmeter

  • Unkonventionell: 1720 Billionen Kubikmeter, davon Europa 84.

In NRW werden die zweitgrößten Vorkommen Europas vermutet. In NRW und Niedersachsen suchen etwa zwei Dutzend Konzerne nach wirtschaftlichen Vorkommen. Es wird jedoch noch Jahre dauern, bis die Daten aus den Probebohrungen ausgewertet sind. In Polen haben die Behörden in den vergangenen 2 Jahren 70 Konzessionen für Probebohrungen vergeben. Bereits jetzt haben sich Bürgerinitiativen im Emsland und in NRW gegen die Probebohrungen gebildet. Man befürchtet Umweltgefahren, z.B. eine Beeinträchtigung des Trinkwassers.

Der an der Rockefeller Universität in New York tätige Umweltforscher Jesse Ausubel sagte zu Shale-Gas in einem Interview im Jahre 2010:

„Es ist nicht aufzuhalten. Gas wird der in der Welt dominierende Energieträger für den größeren Teil der kommenden hundert Jahre werden. Kohle und die Erneuerbaren werden verdrängt, während Öl hauptsächlich für den Transport verwendet wird. Selbst Kernkraft wird sich verzögern.“

Und der britische Journalist Matt Ridley schrieb 2011:

„Das Beste am billigen Gas sind jene, denen es Kummer macht. Die Russen und die Iraner hassen es, weil sie glaubten, daß sie den Gasmarkt in den kommenden Dekaden kontrollieren würden. Die Grünen hassen es, weil es ihr Argument zerstört, daß die fossilen Energieträger immer teurer werden würden, bis schließlich Wind- und Solarkraft konkurrenzfähig geworden sind. Das gilt auch für die Nuklearindustrie. Der große Verlierer aber wird die Kohle sein.“

Nicht verwunderlich, daß eine seltsame Allianz von Grünen, Kohlewirtschaft, Kernkraftindustrie und konventionellen Gaserzeugern mit Umweltargumenten gegen die Shelf-Gas-Gewinnung arbeitet. In Deutschland war das sicher zu erwarten; zum Ärger dieser Kritiker haben jedoch Vertreter Niedersachsens trocken mitgeteilt, daß sie die vorgetragenen Sorgen nicht teilen, da sie selbst viele Jahre lang Erfahrungen mit den benutzten Techniken haben, und zwar ohne Probleme.

Interessant wird die Haltung der Rot-Grünen NRW-Landesregierung

zu der Erschließung der im Lande liegenden Vorkommen sein: Die Grünen sicherlich dagegen, auch wenn sie bisher immer Erdgas als wünschenswerte und klimafreundliche Alternative zur Kohle herausstellten; die SPD wird wohl mit freudiger Erwartung auf die zusätzlichen Steuereinnahmen blicken. In unseren ebenfalls Shale-Gas-begünstigten Nachbarländern – insbesondere Polen – wird man hingegen diesen unverhofften Energiesegen nach Kräften nutzen.

Die deutsche Haltung wird somit voraussichtlich eine Mischung aus Förderung hier und Eiertanz dort werden, mit dem gemeinsamen Merkmal, daß es auf jeden Fall länger dauert als bei den Nachbarn.

Gaskraftwerke mit ihren sehr hohen Brennstoffkosten – der Gaspreis macht 74% der Stromerzeugungskosten eines modernen GuD-Kraftwerks aus – würden dann deutlich billiger Strom erzeugen können und mindestens in die Mittellasterzeugung vordringen. Die Heizungskosten würden beträchtlich sinken und der Erdgasantrieb im Transportsektor würde attraktiver.

Weil bei der Verbrennung von Gas nur halb so viel CO2 entsteht,

wie bei Kohle, wird der neue Boom Folgen für den Emissionshandel haben. Die Preise für „Verschmutzungsrechte“ dürften sinken und das wiederum hätte Folgen für die „erneuerbaren“ Energien: Je stärker die Preise von CO2-Rechten sinken, desto schwerer kann Wind- und Solarstrom im Wettbewerb bestehen. Man würde sich dann wohl fragen, wozu man eigentlich die vielen teuren Windräder und Photovoltaikanlagen errichtet hat.

Eine Energiewende hätte man dann tatsächlich, aber ganz anders als es die Regierung geplant hatte. Ob sie diese Entwicklung ebenso wie das übrige Ausland als große Chance begreift, ist angesichts ihres bisherigen planlosen energiepolitischen Zickzackkurses keineswegs sicher.

14. Für die Bürger wird es immer teurer

Es ist eine eiserne Regel der Marktwirtschaft, die auch für Ideologen, Weltverbesserer oder Zwangsbeglücker gilt: Verstöße gegen die Prinzipien der Wirtschaftlichkeit werden durch Preiserhöhungen bestraft. Die deutsche Energiepolitik der letzten und der gegenwärtigen Regierung führt exakt zu diesem Ergebnis.

Die Energiewende von Frau Merkel ist im Grunde nichts anderes als die konsequente Fortsetzung der Energiepolitik der rot-grünen Vorgängerregierung. Deren stärkste Waffe war dabei das Erneuerbare-Energien-Gesetz (EEG) vom 1. April 2000. Es ist nach wie vor in Kraft.

Der durch das EEG bewirkte Zuwachs an Windkraft-, Photovoltaik- und Biogasanlagen, deren Stromerzeugung von den Netzbetreibern vorrangig angenommen und mit den bekannten hohen Einspeisevergütungen bezahlt werden muß, führt zu beständig steigenden Strompreisen, weil diese Kosten auf die Verbraucher abgewälzt werden dürfen.

Im EEG-Erfahrungsbericht 2011 des BMU sind nahezu selbstkritische Töne zu finden:

„Die Vergütungszahlungen im Rahmen des EEG beliefen sich 2010……auf über 12 Mrd. €….. Hier ist es in den letzten Jahren zu Fehlentwicklungen gekommen.“

Und zum Thema Strompreise liest man:

„Insgesamt stieg seit dem Jahr 2000 die durchschnittliche Vergütung für Strom aus (allen) erneuerbaren Energien von 8,5 Cent / kWh auf voraussichtlich 15,5 Cent / kWh (2010) an. Diese Entwicklung mußte dringend gestoppt werden.“

Sie wurde aber nicht gestoppt, wie die folgenden Ausführungen zeigen.

Die Folgen des Erneuerbare-Energien-Gesetzes.

Die folgenden Angaben stammen aus der Veröffentlichung vom 15.10.2010 der 4 Übertragungsnetz-Betreiber (ÜNB), die per Gesetz verpflichtet sind, jeweils am 15.10. eines Kalenderjahres die EEG-Umlage – das sind die durch das EEG verursachten Mehrkosten, die den Endverbrauchern aufgebürdet werden – für das folgende Jahr zu ermitteln:

„Die ÜNB haben…auf Basis von Prognosen unabhängiger Gutachter für 2011 eine EEG-Einspeisevergütung in Höhe von 16,7 Mrd. € ermittelt. (Anm.: Davon gehen unglaubliche 8,38 Mrd. € an die Photovoltaik-Betreiber, die aber nur klägliche 1,9% der deutschen Stromerzeugung beisteuern.) Der prognostizierte Gegenwert des eingespeisten Stroms liegt bei 4,7 Mrd. €. Zusätzlicher Differenzbetrag (aus 3 Quartalen von 2010): 1,1 Mrd. €. Insgesamt werden somit rund 13 Mrd. € über die EEG-Umlage refinanziert.“

Dies ist die Summe, die die Endverbraucher zusätzlich für den grünen Strom aufzubringen haben.

„Wie die 4 ÜNB mitteilen, bedeutet dies im Jahre 2011 eine Belastung von 3,530 Cent pro kWh. Für das Jahr 2010 betrug die EEG-Umlage 2,047 Cent pro kWh.“

Das ist eine Steigerung von 73% in nur einem Jahr. Das bedeutet für einen Haushalt mit einem Jahresverbrauch von 2500 kWh: 88 € Mehrkosten durch das EEG im Jahre 2011 gegenüber 51 € im Jahre 2010. Wesentlich interessanter ist aber die Vorhersage für 2012. Die Bundeskanzlerin hatte noch im Sommer 2011 erklärt:

„Die EEG-Umlage soll nicht über ihre heutige Größenordnung hinaus steigen. Heute liegt sie bei etwa 3,5 Cent / kWh.“

Umweltminister Röttgen versprach das Gleiche.

Für 2012 hatte die Bundesnetzagentur anschließend angekündigt, daß die EEG-Umlage bei 3,6 Cent / kWh liegen werde. Nun zeigt die neue Prognose der Netzbetreiber vom 15.10.2011 für das Jahr 2012,

„daß die Bandbreite der Ökostrom-Umlage zwischen 3,66 und 4,74 Cent / kWh liegen wird.“

Auch die Deutsche Energie-Agentur Dena widersprach Anfang Dezember:

„Es wird nicht gelingen, die EEG-Umlage auf etwa 3,5 Cent pro Kilowattstunde zu begrenzen,“

sagte Dena-Chef Stephan Kohler der „Frankfurter Rundschau“.

Laut Kohler ergeben Dena-Berechnungen, daß die Umlage 2013 bereits knapp unter 4 Cent und 2020 bei 5 bis 5,5 Cent liegen wird. Für einen 3-Personen-Haushalt bedeutet das ca. 210 Euro Mehrkosten.

„Diese Prognose zeigt eindeutig, wer die Kostentreiber der Energiewende sind,“

sagte dazu Holger Krawinkel des Verbraucherzentralen-Bundesverbandes.

Die Mieter trifft die Energiewende doppelt

Das Gesetz zur Energieeinsparung in Gebäuden hat sich zu einer ernsten finanziellen Bedrohung für die Mieter entwickelt. Denn zu den ständig steigenden Stromkosten kommt im Falle einer Energiesanierung eines Miethauses eine kräftige Mieterhöhung hinzu. „Mieter zahlen für die Energiewende drauf,“ sagte Mieterbundchef Bernhard von Grünberg dem Bonner Generalanzeiger.

Nach geltendem Recht können Vermieter elf Prozent der Modernisierungskosten auf die Jahresmiete aufschlagen. Im Schnitt steigt die Miete nach einer Energiesanierung um 2,40 € pro qm, die Energieersparnis aber beträgt nur 50 Cent. „Die Miete steigt real um 1,90 € pro Quadratmeter,“ rechnet Grünberg vor.

Der NRW-Mieterbund lehnt den Kabinettsentwurf der Mietrechtsreform des Bundes mit der weiterhin enthaltenen 11-Prozent-Kostenumlage auf die Mieten ab.

Die Wohnungsgesellschaft LEG hat in Ratingen festgestellt, daß viele Rentner wegen der gestiegenen Heizkosten ihre Heizung nicht mehr einschalten.

Inzwischen wird die Forderung nach Sozialtarifen für einkommensschwache Verbraucher erhoben und von der Politik – noch – abgelehnt.

Weitere Strompreiserhöhungen drohen durch die 2011 beschlossenen Energiewende-Pläne sowie durch die Umsetzung einiger bereits 2010 eingeleiteter Vorhaben:

  • Die Abschaltung von 8 Kernkraftwerken entzog dem europäischen Stromverbund schlagartig 9000 MW Grundlast. Der Strompreis stieg sofort an der Börse. Schätzungen belaufen sich auf +20% – und nicht nur für Deutschland. Die Netzbetreiber – s.o. – konnten das bei ihrer Prognose vom Oktober 2010 noch nicht einbeziehen.

  • Eine große Zahl von energieintensiven Unternehmen hat – unbemerkt bei der Verkündung der Energiewende – von der Regierung eine weitgehende Befreiung von den Netzentgelten zugestanden erhalten. Mit der Überwälzung der dort eingesparten Kosten wieder auf die Endverbraucher. Auch das kommt noch hinzu.

  • Falls der riesenhafte geplante Ausbau des Höchstspannungsnetzes tatsächlich in Gang kommt – vieles spricht dagegen – dann werden alle damit verbundenen Kosten auf den Strompreis draufgepackt.

  • Der Ausbau von Windkraft – speziell die teure Offshore-Windkraft – und von Photovoltaik und Biogaserzeugung geht unvermindert weiter. Nur bei der Photovoltaik voraussichtlich langsamer, aber wegen ihrer hohen Kosten weiterhin preistreibend. Damit steigt die EEG-Umlage weiter.

  • Es ist zu erwarten, daß die Regierung in Anbetracht der Unwilligkeit der Kraftwerksbetreiber, neue Gaskraftwerke zu bauen, dies mit Steuergeldern und Steuerermäßigungen anregt, da sich Gaskraftwerke als einzige fossile Kraftwerke der Sympathie der Regierung erfreuen. Leider ist der von ihnen erzeugte Strom wegen der hohen Gaspreise sehr teuer. Dann zahlen die Bürger wieder mehr.

  • Falls es der Regierung wider Erwarten gelingen sollte, Zugang zu norwegischen Wasserkraftwerken als Speicher für Überschuß-Windstrom zu erlangen, wird Windstrom teurer. Dann steigt die EEG-Umlage.

  • Es ist zu befürchten, daß die weiter zunehmende und in der Fläche verteilte Photovoltaik die bereits sichtbaren Netzprobleme in der regionalen Mittelspannungs-Ebene derart verschärft, daß zusätzlich zu den ohnehin geplanten 3000 oder 4400 km Hochspannungstrassen noch ein starker Ausbau der regionalen Stromleitungen nötig wird. Diese Netze sind nicht auf viele Einspeiser ausgelegt, die Sonnenlicht-abhängig je nach Wetterlage kurzfristig extreme Leistungsspitzen erzeugen können. Die Verbraucher werden das dann ebenfalls zu bezahlen haben.

Eine deutliche Warnung vor den dramatischen Folgen des steigenden Strompreises für Deutschland gab es mehrfach im Jahre 2011 von EU-Energiekommissar Günther Oettinger. Hohe Energiekosten gefährdeten nicht nur den Wirtschaftsstandort, sondern auch den sozialen Frieden, wenn ein Teil der Menschen die Stromrechnung nicht mehr bezahlen könne.

“Ich bin überrascht, wie gedankenlos die Entwicklung der Strompreise hingenommen wird,”

sagte Oettinger. Deutschland zähle weltweit zu der Spitzengruppe bei den Strompreisen.

Die im Kapitel 16 „Die Planwirtschaft ist Realität“ aufgelisteten staatlichen Eingriffe in den Energiesektor sind ausnahmslos preistreibend, weil gegen den freien Markt gerichtet und stellen deshalb zugleich eine Auflistung der vielen Komponenten dar, die den Bürgern eine nicht enden wollende Kette von Strompreiserhöhungen bescheren werden.

Alle in den obigen Ausführungen beschriebenen, den Strompreis kräftig in die Höhe treibenden Handlungen der Regierung werden aber von einem Ereignis in den Schatten gestellt, das am 1.1.2013 eintritt.

An diesem Tag beginnt die Versteigerung der Emissionszertifikate, die der Industrie bislang zugeteilt wurden. Nach einer Schätzung des Energiefachmanns Dr. Alfred Richmann, Meckenheim, wird der Strompreis „über Nacht“ um ca. 50% steigen.

Daß diese Zertifikate die Emissionen in der EU um keine einzige Tonne reduzieren können, weil sie nur für die Umverteilung von Emissionen zwischen Ländern und Industrien sorgen, wie schon mehrfach aber erfolglos von Fachleuten bekräftigt wurde, ist nur eine weitere Absurdität in der Energie- und „Klimaschutz“-Politik der EU – und natürlich auch Deutschlands.

Inzwischen streiten sich bereits zwei Bundesministerien über den Ausbau der fossilen Kraftwerke und die zu befürchtenden Strompreis-Erhöhungen:
Mitte Dezember 2011  berichtete der SPIEGEL daß der für die Energiepolitik zuständige Bundeswirtschaftsminister Philipp Rösler „stärker als bisher geplant in zusätzliche Kohle- und Gaskraftwerke investieren“ wolle. (Gemeint war wohl, daß er entsprechende Investitionen befürwortet, denn investieren kann das BMWi nichts.)
Laut SPIEGEL sei in einem BMWi-Papier  von „circa 17 neuen Großkraftwerken bis zum Jahr 2022“ die Rede. Weiter hieße es dort: „Fossile Kraftwerke sind essenziell für eine sichere Energieversorgung“, denn diese müßten die wegfallenden Atomkraftwerke ersetzen und die schwankende Stromerzeugung aus Wind und Sonne ausgleichen.

Dem widersprach sofort der unzuständige aber intensiv mit dem Segen der Kanzlerin Energiepolitik betreibende Bundesumweltminister Norbert Röttgen, der die Existenz von Engpässen in der Erzeugungskapazität bestritt. Bei Kraftwerkskapazitäten gebe es bis 2020 „kein Problem.“ Es dürften nur die bereits beantragten oder im Bau befindlichen Kohlekraftwerke in Betrieb gehen.
Röttgen bezeichnete Warnungen vor einem „Blackout“ ebenso als Horrorszenario wie jene vor explodierenden Strompreisen.

Damit hat man ein halbes Jahr nach Verkündung der Energiewende ein zutreffendes Bild von der Arbeit der Regierung an ihrer Umsetzung.

Wie es selbst bei den bereits geplanten und vorübergehend im Bau befindlichen Kohlekraftwerken tatsächlich aussieht, ist für das Kohleland NRW im Kap. 8 (Das stille Ende großer Ankündigungen) beschrieben.

15. Ein internationales Urteil

Das World Energy Council – der Weltenergierat – ist das größte internationale Netzwerk der Energiewirtschaft. Seit über 80 Jahren besteht er in fast 100 Ländern. Es war dem World Energy Council vorbehalten, am 10. Oktober 2011 das Ergebnis einer internationalen Expertenbefragung zur deutschen Energiewende zu präsentieren; eine Befragung, die die deutsche Regierung besser selbst durchgeführt hätte, und zwar rechtzeitig vor der Verkündung ihrer dramatischen Politikänderung.

Die Umfrage erfolgte unter den mehr als 90 Länderkomitees. Grundlage der Ergebnisse sind Antworten aus den Rückläufen: Von Experten aus 21 Länderkomitees des World Energy Council, darunter 14 aus Europa.

Die wesentlichen Ergebnisse sind:

  • Keiner der befragten Experten erwartet, daß Deutschland sämtliche Ziele der Energiewende in der anvisierten Frist erreichen kann.
  • Nur 38% trauen Deutschland zu, einzelne Ziele – und zwar verspätet – zu erreichen.
  • Nur 29% schätzen, daß alle Ziele – verspätet – erreicht werden können.
  • Bis 2020 erwarten 76% der Experten eine Schwächung der Wirtschaftskraft Deutschlands.
  • Auch längerfristig – nach 2020 – erwarten 48% eine solche Schwächung. Nur 33% erwarten eine Stärkung.
  • Der weit überwiegende Teil der Befragten – 71% – erwartet Preissteigerungen für Strom im eigenen Land
  • 29% der Befragten erwarten Strompreiserhöhungen von bis zu 10%
  • 24% erwarten Strompreiserhöhungen zwischen 10 und 20%
  • und einige Länder – 14% – gehen sogar von Preissteigerungen über 20% aus.
  • Knapp zwei Drittel – 62% – der Befragten sehen erhöhte Gefahren für die Versorgungssicherheit Europas.
  • 81% der befragten Länder lehnen den deutschen Weg als Vorbild für die Welt ab.
  • Keiner der Experten hält es für vorstellbar, daß sein Land den deutschen Politikansatz vollständig übernehmen könnte.
  • 62% können sich vorstellen, einzelne Elemente der Energiewende zu übernehmen. 33% kein einziges Element.

Dieses Gutachten der internationalen Energieexperten ist vernichtend.

17. Die Planwirtschaft ist Realität

Von vielen Autoren der Wirtschaftspresse ist bereits harte Kritik daran geübt worden, daß im Energiesektor immer mehr marktwirtschaftliche Grundprinzipien, die bisher den Erfolg der Industrienation Deutschland herbeiführten, von der Regierung missachtet und durch politisch motivierte Verletzungen dieser Prinzipien ersetzt werden.

Die Liste dieser Verstöße ist inzwischen lang:

  1. Das EEG, also die extreme Zwangssubventionierung unwirtschaftlicher und auch technisch ungeeigneter Methoden der Stromerzeugung – verbunden mit dem Zwang, den so erzeugten Strom vorrangig ins Netz einzuspeisen und seinen Weiterverkauf notfalls noch zusätzlich zu bezahlen

  2. Entschädigungs-Verpflichtung für die Nicht-Produktion eines Wirtschaftsgutes – s. §12 EEG.

  3. Die mit Angstszenarien begründete Stilllegung einer großen Grundlast-Stromerzeugung (Kernkraft) mit der Folge von Preissteigerungen – auch im Ausland – und Versorgungsengpässen.

  4. Gewaltiger, teurer Ausbau der Stromnetze, der ohne die Fehlentscheidung der Bevorzugung unrentabler Erzeugungstechniken – s. Punkt 1 – überhaupt nicht notwendig wäre.

  5. Entlastung von energieintensiven Produktionen von den durch die EEG-Fehlsteuerung verursachten Strompreiserhöhungen – und deren Überwälzung auf die übrigen Verbraucher.

  6. Geplante neue Subventionen, um weitere Folgen der Fehlsteuerung durch das EEG und den Kernkraftausstieg zu bekämpfen: Die Bevorzugung von Wind- und Solarstrom macht die jetzt benötigten neuen Kohle- und Gaskraftwerke unrentabel, weshalb sich Investoren zurückhalten. Die Gaswirtschaft betonte, daß sich auch der Betrieb der zum schnellen Ausregeln der Netzschwankungen geeigneten Gasturbinenkraftwerke wegen der hohen Gaspreise nicht rentiere. Deshalb hat die Bundesregierung einen Investitionskostenzuschuss für neue fossile Kraftwerke im Zeitraum 2013-2016 in Aussicht gestellt und steht hierzu in Verhandlungen mit der EU.

  7. Stromspeicher werden im Ausland gesucht – so die per Seekabel teuer anzuschließenden Pumpspeicherwerke Norwegens – weil nicht benötigter, überschüssiger Windstrom zwischengespeichert werden muß. Fördermittel fließen in neue Speicherprojekte. Ohne die Fehlsteuerung durch das EEG hätten die vorhandenen Pumpspeicherwerke weiterhin ausgereicht.

  8. Durch die Energieeinsparverordnung werden Hausbesitzer zur energetischen Sanierung und Nachrüstung gezwungen. Auch wenn sie das nicht wünschen. Sie dürfen die Kosten auf die Mieter umlegen.

  9. Für Neubauten ist bereits die Installierung der sog. intelligenten Stromzähler vorgeschrieben. Ein Zwang für alle Verbraucher, diese Geräte anzuschaffen, ist angesichts der die Bürger bevormundenden Energiepolitik zu erwarten.

  10. In Baden-Württemberg wurden Hausbesitzer bereits gesetzlich verpflichtet, bei einer Modernisierung ihrer Heizungsanlage eine anteilige Versorgung durch „Erneuerbare Energie“ sicherzustellen.

  11. Der staatliche Geldregen für Energiewende-Reparaturmaßnahmen lockt nun auch weitere Interessenten hervor: Auf der Energiespeicher-Konferenz IHRES in Berlin wurde ein Einspeisegesetz á la EEG auch für Energiespeicher, die das Netz stabilisieren sollen, gefordert. Auch Investitionszuschüsse seien geeignet….

Das durchgängige Prinzip dieser Politik ist es, den Energiesektor zunehmend aus der Marktwirtschaft herauszulösen und sowohl die Wirtschaft wie auch die Bürger durch Gesetze und Verordnungen zu einem geänderten Verhalten zu zwingen – selbstverständlich nur zu ihrem Besten.

Die Geschichte zeigt ausnahmslos,

daß eine derartige Politik, die nichts anderes als Planwirtschaft ist, mit Sicherheit scheitert. Die unvermeidliche Folge sind riesige Fehlinvestitionen, die Verhinderung wirtschaftlicher Weiterentwicklung und die Ausplünderung der Bürger – insgesamt eine Verarmung des Landes und eine Absenkung seiner Wettbewerbsfähigkeit.

Das abschreckendste Beispiel für eine schon lange existierende Planwirtschaft in Westeuropa ist natürlich der reglementierte, subventionierte und riesige Kosten verursachende Agrarsektor.

Umso merkwürdiger, daß selbst eine von CDU/CSU und FDP getragene Regierung diese Demontage der Marktwirtschaft nach Kräften vorantreibt.

18. Wie geht es weiter?

Die Feststellung, daß buchstäblich alle in den Energiewende-Gesetzen angestrebten Ziele nicht erreichbar sind, bedeutet, daß dieser energiepolitische Kurswechsel bereits jetzt gescheitert ist. In keinem der für die sichere Stromversorgung relevanten Themenfelder bestehen auch nur geringe Erfolgschancen für die Zielerreichung.

Das erklärt das vernichtende Urteil der internationalen Experten, die unbeeinflusst von deutschen Fördermitteln und unbeeindruckt von deutscher Medienpropaganda allein auf der Grundlage ihres Sachverstandes und ihrer Erfahrung ihr Urteil fällten.

Die Frage der Kapitelüberschrift ist leider nicht zu beantworten. Die deutsche Energiepolitik ist dermaßen erratisch, von Tagespolitik bestimmt und deshalb auch für unsere Nachbarländer unberechenbar und verantwortungslos geworden, daß jegliche Prognosen, die sich altmodisch auf das Fortschreiben notwendiger, sinnvoller und realistischer Entwicklungen abstützen, unmöglich sind.

Für die Deutschen und ihre Nachbarn sind das keine schönen Aussichten.

Die folgende Prognose ist jedoch zwingend: Die im Energiesektor ausufernde, die Wirtschaft schwer schädigende Plan-Misswirtschaft wird nach einigen Jahren spektakulär scheitern, weil ihre wirtschaftlichen und sozialen Kosten untragbar geworden sind. Die offene Frage ist nur, wie viele Milliarden Euro erst vernichtet werden müssen, bis eine neue Energiepolitik (eine neue Energiewende ?) den Scherbenhaufen zusammenkehrt.

Professor Helmut Alt von der FH Aachen hat die finale Auswirkung der deutschen Energiepolitik in einem Satz zusammengefasst:

„Die deutsche Politik hat Energie zum Luxusgut erklärt. Die Ärmsten werden es zuerst zu spüren bekommen, aber die haben keine Lobby.“

Und ein amerikanischer Präsident hat einmal den dauerhaft gültigen Satz gesagt:

„It´s the economy, stupid !“ Es ist die Wirtschaft, Dummkopf.

Dr.Günther Keil,

Sankt Augustin, Dezember 2011, mit Update vom 4.1.12

zuerst erschienen bei Science Sceptical

Der Aufsatz ist wegen seiner Bedeutung sowohl als pdf abrufbar auch als Lesezeichen markiert!

Unbedingt lesen:

Teure Grünstrom-Euphorie:Die Kosten der Energiewende
Manuel Frondel, Nolan Ritter und Christoph M. Schmidt

Related Files




Der amerikanische Steuerzahler soll noch mehr für UNO-Narrheiten bezahlen

Ein Jahr nach der UNO-Weltklimakonferenz in Kopenhagen bat US-Außenministerin Hillary Clinton, bis 2020 mindestens $100 Milliarden jährlich für Hilfen an die Dritte Welt zu bewilligen, damit diese Länder ihre Klimaprobleme lösen könn­ten, für die Amerika und der Kapitalismus verantwort­lich gemacht wurden. Die Kopenhagen nachfolgende Cancun-Konferenz hat sich hauptsächlich mit der Aufstellung eines Planes beschäftigt, eine solche Verpflichtung umzusetzen. Man sprach dort zu Beginn wirklich von „Rache“. Der Plan für einen "Grünen Klimafonds" (Green Climate Fund – GCF) im Umfang von jährlich $100 Milliarden wurde entworfen. Dessen Ziel ist nichts weniger als die grundlegende Transformation der Weltwirt­schaft … angefangen bei der amerikanischen.

Wer sind die Hauptspieler? George Soros ist dabei, ein Vertreter der Weltbank und Lawrence Summers (ehemals Direktor des Nationalen Wirtschaftsrats im Weißen Haus und nun Berater für Wirtschaftspolitik des Präsidenten Obama). Man sollte sehr ernst nehmen, was da anvisiert wird.

Das erste Treffen des "Grünen Klimafonds" bestand aus einer 40-köpfigen Entwurfsmannschaft genannt “Transitional Committee” (TC), es fand in Mexico City vom 28.-29. April statt. Ziel war die Vorbereitung der Spezifikation für die Arbeit des Grünen Klimafonds, der nun auf der  U.N. Framework Convention on Climate Change in Durban auf der Tagesordnung stand. Man kann darauf wetten, dass das Hauptziel ist, die Strategie zu beschreiben, wie jährlich mehr als $100 Mrd. aus den amerikanischen Verbrauchern herausgepresst werden können, und das ungehindert von parlamentarischer Genehmigung.

Den Plänen zufolge würde die UNO ein Besteuerungsrecht erhalten und dadurch aus ihrer Rolle der Beratung in die Rolle einer "Regierung" schlüpfen, die unserer nationalen Souveränität vorginge. Das steht im Einklang mit den Vorschlägen einer 20-köpfigen "hochrangigen Beratungsgruppe für die Finanzierung des Klimawandels", die vom UNO-Generalsekretär Ban ki-Moon einberufen worden war, um die Nationen aufzufordern, “grundlegend die Weltwirtschaft zu transformie­ren mit einer kohlenarmen, sauberen Energiewelt." Daraus folgten Empfehlungen zum Einführen von:

  • – einer CO2-Steuer
  • – einer Steuer auf den Luft- und Seeverkehr
  • – einer Steuer auf Finanztransaktionen
  • – einer Steuer auf die Erzeugung von Elektrizität
  • – einer Umlenkung aller Subventionen für fossile Treibstoffe in internationale Klima-Aktionen

Der Fernsehsender FOX-News meldete, dass er im Besitz von Positionspapieren sei mit den Punkten, die in einem Treffen Ban ki-Moons mit seinen 60 Spitzen-Beamten während eines zweitägigen Treffens in einem Australischen Berghotel diskutiert wurden. Es ging darum, wie die UNO ihre wuchernde Organisation weiter entwickeln könnte. Die Punkte enthielten:

  • • Wie der “Klimawandel” nach dem Kopenhagener Fiasko wieder höchste Priorität bekommen könnte,
  • • wie man mit dem Versuch weiterkommen, die globale Umverteilung des Reichtums zur realen Basis des Klimarettungsprogramms zu machen, und wie die Diskussion weiter auf "globale Gemein­schaftsgüter" ausgeweitet werden könnte,
  • • wie die U.N.-Friedensmissionen auf Aufgaben der Polizei, der Gerichtsbarkeit, des Justizwesens und andere Bereiche in bürgerkriegsgeplagten Ländern ausgedehnt werden könnten,
  • • was man aus der globalen Flut von Immigranten von armen nach reichen Ländern machen könnte, einschließlich eines möglichen neuen “internationalen Leit-Netzwerks für Migration”,
  • • wie man Technologien geschickt nutzen könnte, um das, was die UNO "Zivilgesellschaft" nennt, stär­ker an sich zu binden. Das bedeutet neue Wege des direkten Zugangs zu den Interessengruppen, die die UNO-Ziele unterstützen, – vorbei an den Regierungen der UNO-Mitgliedstaaten.

Den Themen, mit denen sich die UNO-Oberen beschäftigten, lag ein Papier zugrunde mit dem  ärgerli­chen Thema der nationalen Souveränität. Diese verträgt sich nicht mit dem globalen Weltregierungsanspruch der UNO. Wie es in einem anderen Papier heißt: "die UNO sollte die Führung beim Setzen der globalen Politikziele übernehmen, sich wirksam mit anderen multinationalen und regionalen Organisationen und der Zivilgesellschaft und nichtstaatlichen Interessenvertretern verbinden, und sich selbst in ein Instrument zur Ein­führung von global vereinbarten Zielen wandeln."

Im Papier heißt es weiter: “es ist nötig, über den Inhalt der Souveränität gründlich nachzudenken und zu erkennen, dass Veränderungen in unserer Auffassung ein gutes Anzeichen für die Richtung sind, in die wir gehen.”

Und was hat diese Demontage der Souveränität mit dem Unterdrücken des Kapitalismus, der Abdämpfung des Konsums und der Umverteilung des globalen Reichtums zu tun? Eine ganze Menge.

Auf einer Eröffnungssitzung wurde erklärt: "Die echte Herausforderung kommt vom exponentiel­len Wachstum der globalen Konsumgesellschaft, das von immer höheren Erwartungen der oberen und mittleren Schichten in den reichen Ländern getragen wird, wie auch von dem sich ausweitenden Bedarf der entstehenden Mittelklasse in den Entwicklungsländern. Unser wahrer Ehrgeiz sollte es daher sein, Anreize für eine tiefgreifende Transformation der Haltungen und der Konsumstile zu setzen." Ein Papier aus Generalsekretär Bans eigenem Klimawandel-Team rief zu "nichts weniger als einer grundle­genden Transformation der globalen Wirtschaft" auf.

Die Verfolgung derartiger Zielsetzungen wird eine Menge Geld erfordern, … unser Geld und eine neue Besteuerungshoheit. Der fabrizierte CO2-Alarmismus schafft die Begründung dafür.

Im Jahre 2004 hat das University-World Institute for Development Economics Research (UNU-WIDER) der Vereinten Nationen eine Studie veröffentlicht, die mögliche Szenarien für die Einführung einer glo­balen Steuer skizzierte. In der Studie wurde die Frage gestellt: “Wie können wir zusätzlich an US $550 Milliarden für die Entwicklungshilfe kommen? Unser Interesse richtet sich darauf, Ressourcen von reichen Ländern zu Entwicklungslän­dern fließen zu lassen.” Die Schlussfolgerung: “Eine globale Steuer kann nur durch eine konzertierte Aktion der Nationalstaaten eingeführt werden, nicht von einer einheitlichen Weltregierung … Die Besteuerung von Umweltbelastungen ist eine sichtbare mögliche Quelle für Einnahmen.” Und weiter: “Wir gehen davon aus, dass die Steuer von Einzelpersonen wie auch von Firmen in Form einer Kohlenstoff-Abgabe erhoben wird.”

Eine andere, weiter verbreitete UNU-Wider-Publikation meint: “Die Unterstützung für eine internationale ‘Koh­lenstoff-Steuer’ ist immer stärker geworden seit dem 1992-er UNO-Erdgipfel, der die internationale Aufmerksamkeit auf die Zerstörung der Umwelt durch den exzessiven weltweiten Einsatz von fossilen Treibstoffen lenkte …  Über 20% der Steuereinnahmen würden aus den U.S.A kommen.”

So auch der deutsche Wirtschaftwissenschaftler und Mit-Vorsitzende der Arbeitsgruppe III "Milderung der Folgen des Klimawandels" des Weltklimarats (IPCC), Ottmar Edenhofer, der in einem Interview mit Investor’s Business Daily zugab: “Der Klimagipfel in Cancun Ende des Monats [December, 2010] ist keine Klimakonferenz sondern eine der größten Wirtschafts­konferenzen seit Ende des Zweiten Weltkriegs.”

In Lord Moncktons detaillierter Analyse [Durban 2011] kann man nachlesen, was der UNO-Vertrag alles enthält, und wie er mithilft, die Welt­wirtschaft zu dezimieren, und die UNO-Bürokraten zu begünstigen. Daraus zwei Auszüge:

Grüner Klimafonds (Green Climate Fund): Die westlichen Staaten werden dazu gedrängt, “sich unverzüglich für die Startfinanzierung des Grünen Klimafonds  zu verpflichten”, und zusätzlich “zum Tragen der laufenden Kosten” und “zum Bezahlen der notwendigen Kosten der Aufstellung und Unterhalt des Vorstandsgremiums und des Sekretariats des Grünen Klimafonds”.
Hier wollen die UNO-Bürokraten zuerst selbst ihre Organisation garantiert haben: das Geld, ihre Vergünstigungen, ihre Pensio­nen, bevor auch nur ein Dollar an Drittwelt-Länder geht.

Die UNO ist heute das größte Hindernis für die Beseitigung der weltweiten Armut, weil ihre gehätschel­ten Funktionäre so viel Geld für sich selbst abgreifen für einen wuchernden Abkürzungs-Bürokratie-Dschungel und heroisch verrückte Projekte wie das von der Steuerung des Klimawandels.
Es ist Zeit für die Abschaffung.

Von Larry Bell, Forbes

Über dem Autor: Larry Bell ist Professor und Stiftungsprofessor an der University of Houston. Er ist Gründer und Leiter des Sasakawa International Center for Space Architecture und Leiter des Graduiertenprogramms für Weltraumarchitektur. Er hat kürzlich ein neues Buch mit dem Titel: "Climate of Corruption: Politics and Power Behind the Global Warming Hoax" veröffentlicht. Es kann über www.climateofcorruption.com eingesehen und bestellt werden.

Nachdruck mit freundlicher Genehmigung des Autors. (gekürzte Fassung)
Übersetzung: Helmut Jäger, EIKE




Presseschau zum IPCC Extremwetterbericht – Mehr Extremwetter ? Fehlanzeige !

IPCC-Bericht[1] vor Klima-Gipfel in Durban[2]

"…Die UNO-Präsentation war dubios: Forschungs-Ergebnisse werden ignoriert, der Report bleibt geheim." (SPIEGEL-ol. [3]) 

"Offiziell bekanntgemacht wurde am Freitag nur die Zusammenfassung des Berichts. Dabei handelt es sich jedoch um ein Dokument, das Politiker und Juristen der Staatengemeinschaft diese Woche in Kampala ausgehandelt haben."  (SPIEGEL-ol. [3]) 

"Der Klimabericht wird simpel als "Weckruf" verkauft – die Arbeit der Wissenschaftler wird einfach ignoriert. "Unglücklicherweise haben wir noch keine Antwort auf viele Fragen zur Klimavorhersage", sagt Lisa Schipper vom Stockholm Environment Institute, eine Leitautorin des neuen IPCC-Berichts, zu SPIEGEL ONLINE.". (SPIEGEL-ol. [3])

"Pielke [5]    … warnt davor, die Wissenschaft vor den Karren der Klimapolitik zu spannen. Die Welt wird wärmer, und wir sollten dringend etwas dagegen machen, aber wir sollten dafür nicht mit den Naturkatastrophen argumentieren."

"Politiker hatten hohe Erwartungen an den neuen IPCC-Report zum Extremwetter. ‚Wir erhoffen uns einen Schub für die Klimaverhandlungen in Südafrika‘, erklärten EU-Klimapolitiker in Brüssel Anfang November auf einer Tagung zur Vorbereitung des Weltklimagipfels," . (SPIEGEL-ol. [3])

"Die Präsentation des neuen Klimaberichtes jedoch zeigt, daß es gleichgültig zu sein scheint, was Wissenschaftler in jahrelanger harter Arbeit heraus finden – die Botschaft ist immer die gleiche: Alles wird schlimmer." (SPIEGEL-ol. [3])

"Bei der Präsentation des Berichtes in Kampala anwesende IPCC-Forscher jedoch mühten sich um Drohkulisse: Der Klimabericht unterstreiche die Anfälligkeit der Menschen für Wetterextreme, sagte IPCC-Chef Rajendra Pachauri. "Wir sollten besorgt sein", ergänzte Maarten Aalst, Direktor des Internationalen Roten Kreuzes." (SPIEGEL-ol. [3]) 

"Über die Entwicklung der meisten anderen Wetterextreme (Anm.: außer Hitze und Dürre) jedoch kann die Wissenschaft keine befriedigenden Aussagen treffen. … Die Einschätzungen beruhen auf Meinungsumfragen unter Experten, sie haben also keine harte wissenschaftliche Basis." (SPIEGEL-ol. [3])

"Bei Extremwetter-Ereignissen fällt bereits die Bestandsaufnahme schwer … Aufgrund der Seltenheit extremer Wetterphänomene mangelt es aber an Daten – Vorhersagen sind ungleich komplizierter." (SPIEGEL-ol. [3])

Die eigentliche Botschaft lautet: Über die meisten Wetterkatastrophen wissen wir zu wenig, um die Entwicklung vorhersagen zu können." (SPIEGEL-ol. [3])

"… noch immer können die Forscher einzelne Extremereignisse nicht wirklich auf den menschlichen Einfluss zurückführen…" (SPIEGEL [4])

"Mehr Hitze lässt mehr Wasser verdampfen – ergo mehr Regen. Diese Cocktailparty-Gleichung mag einfach klingen, doch hat sie leider nichts mit dem realen Wettergeschehen zu tun … "Wir finden aber in unseren Messungen keinen Anstieg der Niederschläge“, klagt Andreas Becker vom Deutschen Wetterdienst (DWD) in Offenbach. Ein Messfehler? Oder sind die Gleichungen falsch? "Für die Forschung ist das ein großes Rätsel“, bekennt der Leiter des Weltzentrums für Niederschlagsklimatologie" (SPIEGEL [4])

"…Kategorie Starkregen: … Jüngste Studien kommen sogar zu dem Ergebnis, dass Überflutungen nicht häufiger geworden sind. Die Schäden durch über die Ufer tretende Flüsse, wie bei der Oderflut, gingen zuletzt sogar zurück." (SPIEGEL [4] 

DWD-Meteorologe Becker rechnet damit, dass sich die Niederschlagsmengen im Sommer nur wenig verändern. Im Winter dagegen regne und schneie es schon heute mehr als früher,

und dieser Trend werde sich fortsetzen. (SPIEGEL [4]) 

"Die Wissenschaft kann keinen klaren Trend erkennen. Einiges deutet sogar darauf hin, dass die Zahl der Wirbelstürme eher abnehmen wird.“ (SPIEGEL [4])

Dass beispielsweise Stürme weltweit zugenommen hätten, kann Hans von Storch vom Meteorologischen Institut der Universität Harnburg und selbst Autor für den Weltklimarat, nicht bestätigen. "Bei der Anzahl von Taifunen in Asien, Polarstürmen und Starkwinden über der Nord- und Ostsee hat unser Team für die vergangenen Jahre keine Zunahme festgestellt", sagt von Storch. Auch in den nächsten 20 Jahren werde der Anstieg so gering sein, dass er nicht einmal messbar sei.

Fehlalarm auch bei Hurrikanen, wie eine Studie der Universität Miami belegt: Orkane traten in den vergangenen Jahren nicht häufiger auf. in Zukunft ist sogar mit weniger Wirbelstürmen zu rechnen.

Das räumt selbst der neue Bericht des Klimarats ein." (WirtschaftsWoche [9])

"Wir vergessen in der ganzen Treibhausgas-Debatte, dass Fluten, Stürme und Hitzewellen

sich auch ohne den Klimawandel ereignen.“ (SPIEGEL [4])

"Der Sonderbericht des IPCC spricht die Unsicherheiten recht klar aus und wird dafür

von einigen Klima-Aktivisten bereits scharf angegriffen" (SPIEGEL [4])

"Es ist ein Automatismus geworden: Händeringend verlangen Umweltaktivisten und Politiker vor Klimaverhandlungen nach neuen Forschungsergebnissen, die das ökologische Wüten der Menschheit dokumentieren. Und die Wissenschaft liefert sie, im Schulterschluss übrigens mit den Wissenschaftsjournalen, die ihre Veröffentlichungspolitik schon längst nicht mehr verschämt an der politischen Agenda ausrichten." (FAZ [6])

"Für das zunehmende Risiko durch Wetterextreme machen die Klimaforscher vor allem verantwortlich, dass ihnen mehr Menschen ausgesetzt sind als früher und dass sie verletzlicher sind. Eine Rolle des Klimawandels könne "nicht ausgeschlossen werden", fügen sie weit schwächer formuliert hinzu. … Man kann auf der globalen Ebene noch keine Beispiele finden, dass die Zunahme der Wetterextreme allein das Risiko erhöht und kein sozio-ökonomischer Faktor beiträgt". (Südd.Z. [7]) 

"Die Sicherheit der Prognosen über die Zukunft des Weltklimas hat in den letzten Jahren eher ab- als zugenommen, auch wenn die führenden Köpfe der Alarmisten vor allem hierzulande nicht müde werden, das Gegenteil zu behaupten." (WELT-online [8])

"Aber wird die Klimaerwärmung denn wirklich zur Katastrophe führen? Der Weltuntergang scheint erst einmal aufgeschoben. Rechtzeitig vor dem Klimagipfel veröffentlichte der Weltklimarat IPCC eine neue Studie über die Zunahme von Extremwetterereignissen durch die Erderwärmung: Stürme, Dürren, Fluten. Doch die Statistiken gaben einfach nicht genug her für Alarmismus, auf den hier manch einer setzte, der nach dem Atomstopp gleich den sofortigen Ausstieg aus der Kohle-, Öl- und Gasenergie propagierte.

So blieben die Aussagen über die Veränderungen im Extremwetter eher vage. Was die IPCC-Experten nicht hinderte, für die fernere Zukunft umso dramatischere Ereignisse zu prognostizieren. Das gehört offenbar zum guten Ton.

Auch im Kleinen entpuppen sich Alarmrufe in unserer aufgeregten Zeit immer häufiger als Rohrkrepierer. In den letzten Jahren, in denen Klimarekorde eher seltener waren, hörte man immer öfter Vermutungen der Art, dieses Jahr könnte wieder einmal das heißeste werden, die Ausdehnung des arktischen Eises könnte auf Rekordniveau schrumpfen usw. Trat das Ereignis dann aber nicht ein, wie geschehen, hat kaum noch jemand vom Ausbleiben der Katastrophe Notiz genommen." (WELT-online [8])

"Geht es um die Folgen des weltweiten Klimawandels, prophezeien Politik und Medien immer neue Katastrophenszenarien: Ganze Landstriche könnten unter Wasser stehen, Hurrikane Küsten verwüsten und Dürren Millionen Menschen in den Hunger treiben.

Wie realistisch dieses Bild ist, darüber sind sich die Forscher uneins. So löste der neueste Sonderbericht des Weltklimarates über die Folgen des Klimawandels, der am 18. November in der ugandischen Hauptstadt Kampala vorgestellt wurde, schon vor der Veröffentlichung Streit aus.

Vor allem die Aussage, die Erderwärmung führe mit großer Wahrscheinlichkeit heute schon zu einer wachsenden Zahl extremer Wetterereignisse, sehen viele Wissenschaftler mit Skepsis.

(WirtschaftsWoche [9])

Klaus-Eckart Puls EIKE

Q u e l l e n :

[1]  IPCC-Report zu Extremwetter, Kampala, 18.11.2011

[2]  Welt-Klima-Gipfel 28.11. – 09.12.2011 in Durban

[3]  SPON, 18.11.2011, Report zum Extremwetter: Uno versagt bei Aufklärung über Klimawandel;

[4]  DER SPIEGEL, 21.11.2011, Die Krux mit der Katastrophe, S. 156

[5]  Roger Pielke, Univ. Colorado, Boulder

[6]  FAZ, 23.11.2011, Natur und Wissenschaft, Auf dem Polterabend der Klimadiplomaten; Vor Durban:

        Die Forschung macht sich wieder wichtig

[7]  Südd. Zeitg.: Zeitalter der Extreme 19.11.2011, Seite: 24

[8]  WELT-online: KONFERENZ IN DURBAN, Ulli Kulke, 28.11.2011, Klima-Kritiker sind öffentlich so gut  wie mundtot;

[9]  WirtschaftsWoche, Nr.47, 21.11.2011