1

Betrugsanzeige gegen Klimawissenschaftler?

Monckton erläuterte: „Ich habe mit der Zusammenstellung eines Schriftsatzes für eine Anzeige bei den Strafverfolgungsbehörden begonnen …, um … das Vorhandensein von Fällen von fortgesetztem Wissenschafts- und Wirtschaftsbetrug zu belegen bei der Darstellung des „Klimawandels“ … Die Strafverfolgungsbehörden werden dem nachgehen müssen, weil sie gesetzlich dazu verpflichtet sind.“

Auf der Webseite Climate Depot skizzierte Lord Monckton seinen Plan und wie er sich das weitere Vorgehen vorstellt.

Den Rechtsstaat für uns arbeiten lassen

Von Christopher Monckton of Brenchley, London

Sechs Polizeibeamte von Norfolk und von London haben eine Hausdurchsuchung bei “Tallbloke” durchgeführt und seine Computer „ausgeliehen“. Tallbloke war der erste Blogger im Vereinigten Königreich, der enthüllte, dass es weitere 5.000 E-Mails in der Climategate 2.0-Affäre gibt. Es ist zu fragen, warum die britische Polizei mehr an der Verfolgung und Bestrafung des Warners/“Datendiebs“ interessiert ist, als sich mit den Betrügereien von IPCC-„Wissenschaftlern“ zu beschäftigen, deren Vergehen die E-Mails enthüllen.

Es gibt einen Grund, warum die Polizei den Warner sucht und noch nicht gegen diejenigen ermittelt, deren zahlreichere und schwerere Vergehen von den E-Mails enthüllt wurden. Die University of East Anglia hat Anzeige gegen den „Datendieb“ erstattet, niemand aber hat bisher gegen die Klimastrolche Anzeige erstattet, deren Vergehen die Universität so gerne verheimlichen möchte.

Wir, die wir uns die Frage erlaubten, wieviel “Klimawandel” denn von einer Verdoppelung der CO2-Konzentration in der Atmosphäre in diesem Jahrhundert ausgehen könnte, waren uns bis dato viel zu fein, Strafanzeige bei der zuständigen Polizei zu erstatten. Das wird sich jetzt ändern. Dieser Beitrag legt unsere Absichten dar.

Welche Straftaten sind begangen worden?

Schwerer Betrug, das ist doch schon was!
Augenscheinlich haben sich einige der prominenten Climategate-E-Mail-Verfasser mit anderen zu fortgesetzter raffinierter Vorspiegelung falscher Tatsachen zusammengetan zum Zwecke der eigenen und gemeinschaftlichen Bereicherung, zur Verarmung von Dritten und zum Schaden ganzer Schlüsselindustrien und Volkswirtschaften, indem sie systematisch und fortgesetzt die behaupteten Bedrohungen und Kosten des anthropogenen „Klimawandels“ grob übertrieben haben. Darüberhinaus haben sie den Grad der Gewissheit der wissenschaftlichen Erkenntnis stark übertrieben, die den Behauptungen des IPCC zugrunde liegt, und sie haben ebenso die Wirksamkeit der verschiedenen vorgeschlagenen Methoden für das versuchte Aufhalten des anthropogenen „Klimawandels“ übertrieben. Gleichzeitig haben sie untertrieben bei den Vorteilen einer Erwärmung und bei den Kosten eines versuchten Aufhaltens des „Klimawandels“.

Warum waltet die Polizei nicht ihres Amtes und fällt stattdessen über den unbescholtenen  „Tallbloke“ her? Nicht zuletzt deshalb, weil die Polizei nicht so viel von den Besonderheiten der Klima-Physik und deren wirtschaftlichen Auswirkungen versteht, wie wir Fachleute. Die Polizei ist einfach nicht in der Lage, die Bedeutung der E-Mails zu verstehen, weil man ihr das nie erklärt hat.

Beispielsweise ist die tatsächliche Bedeutung des Satzes „das Abnehmen [der globalen Temperatur] verstecken“ (hide the decline) bei oberflächlicher Lektüre der E-Mails überhaupt nicht erkennbar. Die Polizei liest die E-Mails nicht so wie wir, es sei denn, wir verhelfen ihr zum Verständnis der schockierenden Bedeutung.

Wenn wir den Strafverfolgungsbehörden erklären, wie die vielen in den Climategate E-Mails erkennbaren Betrügereien funktionierten und wie sie mit weiteren künstlichen und in betrügerischer Absicht unternommen Vorspiegelungen falscher Tatsachen in Verbindung stehen, um die Bedrohung durch den „Klimawandel“ in den IPCC-Dokumenten zu übertreiben, und die außergewöhnlich hohen und jenseits jeglichen vernünftigen Maßes stehenden Kosten eines Versuches zum Abmildern des „Klimawandels“ klein zu reden, dann wird man verstehen und – was wichtiger ist – auch handeln. Denn das verlangt das Gesetz.

In vielen nationalen Rechtssystemen ist Betrug ein Offizialdelikt. Betrug begeht, wer durch Täuschung einen Vermögensvorteil für sich zu erlangen sucht, oder einen Vermögensschaden für einen Dritten herbeiführt. Tatbestandsmerkmale sind: Vermögensvorteil oder Nachteil und Täuschung.

Betrug im englischen Strafrecht

Im Vereinigten Königreich ist im “Fraud Act 2006” der Tatbestand des Betrugs ausführlich kodifiziert. [Anm. d. Übers.: Die deutsche Strafvorschrift ist am Schluss zitiert]

Zusammengefasst geht es bei Betrug [im engl. Recht] um:
die Erlangung eines zeitweiligen oder dauerhaften Vorteils für den Täter, oder um die Zufügung eines zeitweiligen oder dauerhaften Schadens zu Lasten eines Dritten (entweder durch Verhinderung der Erlangung dessen, was er möglicherweise erlangen könnte, oder Verminderung dessen, was er besitzt), wobei der Vor- oder Nachteil in Geld oder in Grundeigentum oder anderem persönlichen Eigentum (darin eingeschlossen bewegliches oder immaterielles Eigentum) besteht;
die vorsätzliche Vorteilsverschaffung für den Täter oder einen Dritten, oder die Zufügung eines Schadens zu Lasten eines Dritten – auch wenn er einem erhöhten Verlustrisiko ausgesetzt wird – durch Vorspiegelung falscher oder irreführender Tatsachen (ausdrücklich oder impliziert), die dem Täter bekannt sind;
das betrügerische Verschweigen von Informationen einem Dritten gegenüber, wenn der Täter gesetzlich zur Offenlegung verpflichtet ist;
die wissentliche Vorenthaltung von Informationen einem Dritten gegenüber, zu deren Offenlegung eine gesetzliche Verpflichtung besteht;
den vorsätzlichen Missbrauch eines Amtes (durch Handlung oder Unterlassung), bei dessen Ausübung der Täter zum Schutz der finanziellen Interessen eines Dritten verpflichtet ist, oder zum Nicht-Zuwiderhandeln gegen diese.

In einigen Rechtssystemen wird als “schwerer Betrug” angesehen, wenn der/die Täter als Inhaber eines Amtes des öffentlichen Vertrauens handelt(n), oder wenn es um sehr hohe Geldsummen geht oder beides.
Die in den Climategate E-Mails enthüllten Betrügereien erfüllen beide Tatbestände.
[Anm. d. Übers.: Auch der deutsche § 263  Betrug (StGB) kennt diese Merkmale des besonders schweren Betruges.]

Der Tatbestand des Vermögensvorteils oder Nachteils ist bei den zusammenhängenden Vorspiegelungen falscher Tatsachen gegeben, die zu den übertriebenen Behauptungen des IPCC und dessen Helfern geführt haben: die Nachteile sind massive Verluste für die Steuerzahler, für die Käufer von Benzin und Elektrizität, nur um einige zu nennen. Das ist alles gut dokumentiert.

Jeder Betrugsvorwurf, den wir erheben, muss ein klarer, zuordenbarer Fall einer Täuschung durch eine benennbare Person sein, die an der gesamten Täuschung mitgewirkt hat.

Einige Beispiele für möglichen Betrug:

Angenommen, eine einzelne, dreimal im Vierten Bericht des IPCC (AR4) erschienene Grafik beruhte auf einer falschen statistischen Technik derart, dass sie fälschlicherweise eine raschere Erderwärmung vorspiegelte, und dass wir dafür verantwortlich wären. Das könnte ein Fehler sein. Aber wenn der Bericht eines kompetenten Statistikers beweist, dass dieses Verfahren tatsächlich fehlerhaft ist, und wenn ein Leitautor des Vierten Berichts aufgefordert wird, den Fehler korrigieren zu lassen, sich aber weigert, und auch noch versucht, die falsche Grafik mit täuschenden und fehlerhaften Begründungen zu verteidigen, dann könnte das den Tatbestand des Betrugs durch den Leitautor erfüllen. Jeder Landsmann des Leitautors könnte in seinem Land zur Polizei gehen und eine Anzeige erstatten. Der Betrug bestünde im Vorsatz des Leitautors, die fehlerhafte Grafik nicht zu berichtigen, obwohl er weiß, dass sie falsche Tatsachen vorspiegelt, und dass sie falsch berechnet worden ist, um den Einfluss des Menschen auf das Klima zu übertreiben. Die Verweigerung des Täters, sich wie ein vernünftiger Leitautor zu verhalten, wäre Betrug.

Angenommen, der Leitautor eines IPCC-Kapitels gäbe zu, dass er es zuließ, einen offensichtlich falschen Wert im Vierten Bericht erscheinen zu lassen, weil er „ … die Regierungen beeinflussen wollte …“, und angenommen, dass der falsche Wert trotz der Einsprüche von „Gutachtern“ dennoch abgedruckt wurde, und angenommen, dass viele Monate lang das IPCC bis zu den höchsten Positionen hinauf versucht hätte, die Täuschung zu verheimlichen, dann wäre das Betrug.

Angenommen, ein Politiker wäre mit einer unzulässigerweise alarmistischen Predigt vom „Klimawandel“ reich geworden. Angenommen, dass er in einer weitverbreiteten Präsentation Einzelheiten eines Experiments gezeigt hätte, das nicht in der behaupteten Weise durchgeführt wurde, und das daher nicht die offizielle Deutung in dem Maße belegte, wie er behauptete. Das wäre klar eine Vorspiegelung falscher Tatsachen. Es wäre Betrug.

Angenommen, eine hoher Amtsträger einer Internationalen Meteorologischen Organisation würde dabei gefilmt, wie er sagte, dass die globalen mittleren Temperaturtrends an der Erdoberfläche dreißig Jahre überdecken sollten, und dass sein Gesprächspartner höflich darauf hinwies, dass diese 30 Jahre gänzlich mit der Erwärmungsphase der großen Oszillationen der Meeresströmungen übereinstimmten und daher die Trends 60 Jahre überdecken sollten, um Überzeichnungen durch den Einschluss der Abkühlungsphasen abzumildern. Und weiter angenommen, der Amtsträger hätte daraufhin dem Gesprächspartner geantwortet, er möchte nicht belehrt werden, und dann hätte er auch noch beim UNFCCC-Sekretariat die falsche Anschuldigung gemacht, er wäre schikaniert worden.
Für sich allein genommen, wäre der Vorfall unbedeutend. Im Kontext einer weiteren Reihe von damit verbundenen Vorspiegelungen falscher Tatsachen durch diese und andere Organisationen, hätte der Amtsträger es unternommen, die Täuschung aufrecht zu erhalten mit dem Bemühen, die Tatsache zu verheimlichen, dass die fraglichen 30 Jahre weitgehend mit der Erwärmungsphase einer natürlichen Meeresoszillation zusammenfielen und dann, nachdem dies hinterfragt worden sei, eine falsche Anschuldigung gegen seinen Gesprächspartner gemacht. Das Fehlverhalten des Amtsträgers wäre im weiteren Kontext nicht nur unprofessionell, es wäre Betrug.

Angenommen, der Verwalter eines Datenbestandes über die globalen Temperaturen verweigerte sich der Anforderung, die Daten und die Methoden der Zusammenstellung des Datenbestandes auf Anforderung herauszugeben, und angenommen er bespricht sich noch mit anderen „Wissenschaftlern“, wie man die auf dem Informationsfreiheitsgesetz beruhenden Anfragen umgehen und damit erfolgreich mehrere Jahre lang viele grundlegende Fehler beim Verwalten und Verarbeiten der Daten verbergen könnte. Für sich allein genommen könnte der Vorfall mit reiner Inkompetenz erklärt werden in Verbindung mit dem verständlichen Wunsch, eine verdiente berufliche Demütigung zu vermeiden. Im anderen Kontext der gesamten damit verbundenen Betrügereien könnte ein Gericht sehr wohl zu dem Schluss kommen, dass der Vorfall den Tatbestand des Betrugs erfüllt, weil ein Irrtum über die Zuverlässigkeit und Vertrauenswürdigkeit des IPCC erregt und unterhalten wurde, um dem IPCC-Verfahren eine besonders hohe wissenschaftliche Wahrhaftigkeit zuzuschreiben.

Man beachte, dass jeder dieser Vorfälle für sich allein genommen kaum mehr als ein Schulterzucken bei den Strafverfolgungsbehörden auszulösen vermag, weil nicht erkennbar ist, wie der jeweilige Betrug sich in das größere Bild derer einfügt, die den Klima-Alarm durch eine große Menge von entsprechenden Konstrukten und Täuschungen weit über jegliches wissenschaftlich gerechtfertigte Maß hinaus erzeugt haben und weiter aufrecht erhalten. Man möge daher auf die beschriebenen Betrügereien als Ganzes und im Zusammenhang blicken. Erst dann kommt die schier atemberaubende Arroganz der gesamten Täuschung auch für diejenigen zum Vorschein, die bisher nichts wahrnehmen konnten.

Nächste Schritte

Ich habe mit dem Entwurf des Schriftsatzes und der Schilderung der Tatbestände für eine Strafanzeige begonnen. Im Schriftsatz stehen alle nötigen Beweise zum Beleg des Vorhandenseins vieler einzelner Fälle von wissenschaftlichem oder wirtschaftlichem Betrug im Zusammenhang mit der offiziellen Darstellung des „Klimawandels“. Auch die Verbindungen zwischen diesen Vorfällen und das darüber lagernde Gebilde der Täuschung, auf dessen Aufrechterhaltung die einzelnen Lügengebäude vorsätzlich zielten, ist darin enthalten. In jedem einzelnen Fall werden die Betrüger beim Namen genannt und ihre Handlungen beschrieben.

Nach Fertigstellung des Schriftsatzes wird er sorgfältig von erfahrenen Strafrechtsjuristen aus jedem der Länder überprüft, wo die Verdächtigten ihre Wohnsitze haben. Dann wird der Schriftsatz den jeweils zuständigen Strafverfolgungsbehörden übergeben, zusammen mit einer Strafanzeige von  Anwälten, die namens und im Auftrag der Bürger in der jeweiligen Gerichtszuständigkeit handeln.
IPCC oder UNFCCC können nicht angezeigt werden, weil sie außerhalb der nationalen Jurisdiktionen stehen. Die einzelnen „Wissenschaftler“ aber können in ihren jeweiligen Wohnsitzländern belangt werden.

Bitte um Mitarbeit

Sie können alle mithelfen. Wenn Sie in einem besonderen Aspekt der “Klimawandelwissenschaft” ein Element von Betrug wie oben definiert und erläutert erkennen, dann setzen Sie sich bitte – in strengster Vertraulichkeit – mit mir in Verbindung und nenne Sie bitte so viele Details wie möglich. Seien Sie bitte treffend und genau. Nennen Sie Namen, Einzelheiten. Falls möglich, verweisen Sie auf unterstützende Beweise.

Weil Ihre Information im Zuge einer Strafverfolgung geliefert wird, ist sie besonders geschützt und kann nicht zu einer Verleumdungsklage führen, selbst im unwahrscheinlichen Falle, dass die Verdächtigten herausfänden, dass Sie sich mit mir in Verbindung gesetzt haben. Ihre Details werden vertraulich behandelt und werden nicht im Schriftsatz erscheinen oder irgendwelchen Behörden überlassen.

Seien Sie bitte nicht zurückhaltend. Es fällt nur allzu leicht, sich vor der immer stärker verfolgten Linie von einigen der bekannteren Betrüger blenden zu lassen – sie pflegen zu sagen, dass die Wissenschaft nicht in einer Atmosphäre gedeihen könnte, wo sich Wissenschaftler beim gutgläubigen Veröffentlichen von ehrlicher Forschung mit Anklagen der Strafverfolgung konfrontiert sähen.

Eines ist ganz klar: die Hürde der Tatbestandsmerkmale von Untreue und Betrug liegt sehr hoch. Die Staatsanwälte, die die Anzeige und den Schriftsatz nach der Fertigstellung lesen, werden nicht zulassen, dass auch nur ein angezeigter Betrugsfall zu einer Anklage führt, wenn nicht klare Augenscheinsbeweise vorliegen, dass eine vorsätzlich Täuschung begangen wurde. Die ehrliche Wissenschaft wird nicht angegriffen, nur die unehrliche. Ein unehrlicher Wissenschaftler kann keine höhere Immunität vor Strafverfolgung beanspruchen als jeder andere Mensch.

Lassen Sie uns dranbleiben. Wir haben eine Chance, den Rechtsstaat für uns und nicht für die Anderen arbeiten zu lassen und diese teuere Angstmacherei endlich zu beenden.

—————————————————-
[Anm. des Übers.: Die Definition des Betrugs im deutschen Strafgesetzbuch
(§ 263 StGB) lautet:
(1) Wer in der Absicht, sich oder einem Dritten einen rechtswidrigen Vermögensvorteil zu verschaffen, das Vermögen eines anderen dadurch beschädigt, dass er durch Vorspiegelung falscher oder durch Entstellung oder Unterdrückung wahrer Tatsachen einen Irrtum erregt oder unterhält, wird mit Freiheitsstrafe bis zu fünf Jahren oder mit Geldstrafe bestraft. …]

Tatbestandsmerkmale im deutschen Strafrecht:
Die Grundform des Betruges enthält folgende Tatbestandsmerkmale:
Vermögen sind alle geldwerten Positionen einer Person.
Tatsachen sind Ereignisse, Vorgänge oder Zustände aus der Gegenwart oder Vergangenheit, die dem Beweis zugänglich sind.
Vorspiegelung falscher Tatsachen ist gegeben, wenn der Täter einem anderen eine nicht bestehende Tatsache als bestehend unterbreitet.
Entstellung oder Unterdrückung wahrer Tatsachen.
Täuschung ist jede intellektuelle Einwirkung auf das Vorstellungsbild eines anderen, um eine Fehlvorstellung über Tatsachen hervorzurufen.
Irrtum ist jede Fehlvorstellung über Tatsachen.
Die Vermögensverfügung ist ungeschriebenes Tatbestandsmerkmal des Betruges: jedes Handeln, Dulden oder Unterlassen, das sich unmittelbar vermögensmindernd auswirkt.
Eintritt eines Vermögensschadens.

Christopher Moncktons Original finden Sie hier.

Übersetzung: Helmut Jäger, EIKE




Eine kontroverse Diskussion über Schwarzkörperstrahlung und eine Erde ohne Treibhausgase

Bild rechts via Wikipedia

Da ich nicht sicher bin, wie die „charakteristische Emissionstemperatur der Erde“ definiert ist, kann ich den behaupteten Wert von 255 K nicht in Abrede stellen. Allerdings kann ich – und das ist auch so – mit der Behauptung, dass 255 K „die Temperatur ist, die an der Erdoberfläche beim Fehlen jeglicher Treibhausgase herrscht“ nicht übereinstimmen.

Wenn man die Temperaturdifferenz an der Erdoberfläche „mit und ohne alle Treibhausgase“ berechnet, müssen 1) zwei Temperaturen (A und B) gemessen/abgeschätzt werden und 2) die Differenz beider Werte berechnet werden. Die erste Temperatur A ist die auf der Erde gemessene Temperatur unter Gegenwart einer Atmosphäre, die sowohl Treibhausgase, als auch Nicht-Treibhausgase beinhaltet. Die zweite Temperatur B ist die Temperatur auf der Erde unter Gegenwart einer Atmosphäre ausschließlich ohne Treibhausgase – d. h. eine Atmosphäre, die Gase ohne Treibhauswirkung enthält, aber der Treibhausgase fehlen.

Für Temperaturwert A benutzt fast jeder eine „gemessene Mitteltemperatur“ an der Erdoberfläche. Obwohl der Algorithmus zur Berechnung eines „gemessenen Mittels“ diskussionswürdig ist, möchte ich für diesen Artikel alle solche Diskussionen beiseite schieben und den Wert von 288 K als Wert für Temperatur A akzeptieren (die Temperatur an der Erdoberfläche in Gegenwart einer Atmosphäre, die sowohl Treibhausgase als auch Gase ohne Treibhauswirkung enthält.)

Folglich bleibt nur, einen Weg zu finden, Temperatur B zu messen/abzuschätzen. B können wir nicht direkt messen, weil wir die Treibhausgase aus der Erdatmosphäre nicht entfernen können. Dies bedeutet, dass wir einen Algorithmus (ein Modell) benutzen müssen, um B abzuschätzen. Ich glaube, dass der zur Berechnung der 255-K-Temperatur allgemein benutzte Algorithmus NICHT mit einem Modell „der Temperatur an der Erdoberfläche in einer Atmosphäre, die ausschließlich Gase ohne Treibhauswirkung enthält“ korrespondiert. Wie aus meiner Beschreibung hervorgehen wird (unten), ist dieser Algorithmus, wenn überhaupt, eher repräsentativ für den Modellwert „in einer Atmosphäre, die sowohl Treibhausgase als auch Gase ohne Treibhauswirkung enthält“ als für ein Modell der „Temperatur auf der Erde in einer Atmosphäre, die ausschließlich Gase ohne Treibhauswirkung enthält.“

Wenn ich Recht habe, ist die Verwendung des Wertes 255 K bei der Berechnung der Temperaturdifferenz mit und ohne Treibhausgase ungültig.

Obwohl es viele Algorithmen gibt, die potentiell zu einem Wert von 255 K als Schätzwert für B führen, präsentiere ich hier den Algorithmus, von dem ich annehme, dass er der am meisten Benutzte ist, und diskutiere, warum dieser Algorithmus NICHT „die Temperatur in Gegenwart einer Atmosphäre ist, der Treibhausgase völlig fehlen“. Ich glaube, dass der unten beschriebene Algorithmus die fundamentale Gleichung des Strahlungstransports im System Erde/Sonne repräsentiert, und zwar unter den Annahmen a) einer Absorptionsalbedo der Erde von 0,3 und b) einer irdischen Emissivität von 1.

 (1) Die effektive Temperatur” der Sonne (d. h. die Temperatur eines sonnengroßen sphärischen Schwarzkörpers, für den die ausgestrahlte elektromagnetische Leistung (a) repräsentativ ist für die gesamte abgestrahlte Leistung und (b) für den die Spektraldichte der Strahlung [power spectral density] ähnlich der der Sonne ist) beträgt etwa 5778 K.

(2) Für einen sphärischen Schwarzkörper mit einem Radius von 6,96×10^8 Metern (dem geschätzten Radius der Sonne) bei einer gleichförmigen Oberflächentemperatur von 5778 K (a) beträgt die gesamte abgestrahlte Kraft etwa 3,85 x 10^26 Watt, (b) beträgt die Spektraldichte in einer Entfernung von 1,5 x 10^11 Metern vom Zentrum des Schwarzkörpers (die ungefähre Entfernung des Erdkerns vom Sonnenkern) etwa 1367 Watt pro m².

(3) Falls sich das Zentrum einer Sphäre mit einem Radius von 6,44 x 10^6 Metern (dem ungefähren Erdradius) in einer Entfernung von 1,5 x 10^11 Metern vom Zentrum der Sonne entfernt befindet, beträgt das „effektive Absorptionsgebiet“ dieser Sphäre hinsichtlich der Schwarzkörperstrahlung von der Sonne in guter Näherung 1,3 x 10^14 m²; und darum liegt die Auswirkung der solaren Strahlung auf das effektive Absorptionsgebiet der Sphäre mit einem Radius von 6,44 x 10^6 Metern etwa bei 1,78 x 10^17 Watt (1,3 x 10^14 m² mal 1367 Watt pro m²).

(4) falls die Sphäre mit dem Radius 6,44 x 10^6 Metern elektromagnetische Energie mit einer „effektiven Absorptionsalbedo“ von 0,3 absorbiert, dann beträgt die von der Sphäre absorbierte solare Energie 1,25 x 10^17 Watt (1,78 x 10^17 Watt mal (1-0,3)).

(5) Ein sphärischer Schwarzkörper (d. h. ein sphärischer Körper, dessen Oberfläche wie ein solcher mit einer Emissivität von 1 strahlt) mit einem Radius von 6,44 x 10^6 Metern und einer Temperatur von 254,87 K (hierbei gerundet zu 255 K) wird Energie mit einer geschätzten Rate von 1,25 x 10^17 Watt abstrahlen.

(6) Falls die Oberflächentemperatur der Sphäre unabhängig von der Richtung der einfallenden Strahlung zu jeder Zeit überall gleich ist, dann besitzt die Sphäre die Eigenschaft eines perfekten thermischen Leitvermögens. Folglich ist (a) ein inaktiver (ohne eigene thermale Energiequelle) sphärischer Körper mit einem perfekten thermischen Leitvermögen und einem Radius von 6,44 x 10^6 Metern und einer gleichmäßigen Temperatur von 255 K, dessen Zentrum sich 1,5 x 10^11 Meter vom Zentrum eines aktiven sphärischen Schwarzkörpers (mit einer eigenen internen thermischen Energiequelle) und einem Radius von 6,96 x 10^8 Metern und einer gleichmäßigen Temperatur von 5778 K entfernt befindet, und (b) der sphärische Körper mit den o. g. Eigenschaften (i) elektromagnetische Energie mit einer effektiven Absorptionsalbedo von 0,3 absorbiert und (ii) elektromagnetische Energie mit einer Emissivität von 1 abstrahlt, dann wird sich der inaktive sphärische Körper im Strahlungsgleichgewicht mit dem aktiven sphärischen Schwarzkörper mit einer Temperatur von 5778 K befinden. Wenn der Terminus „inaktiver sphärischer Körper mit perfektem thermischen Leitvermögen und einem Radius von 6,44 x 10^6 Metern“ durch das Wort „Erde“ ersetzt wird und der Terminus „aktiver sphärischer Schwarzkörper mit einem Radius von 6,96 x 10^8 Metern und einer gleichmäßigen Oberflächentemperatur von 5778 K“ durch das Wort „Sonne“ ersetzt wird, kann man daraus folgern: Falls (a) eine „Erde“ mit einer Temperatur von 255 K 1,5 x 10^11 Meter von der „Sonne“ entfernt liegt und (b) die „Erde“ (i) elektromagnetische Energie absorbiert mit einer effektiven Absorptionsalbedo von 0,3 und (ii) Energie mit einer Emissivität bei 1 abstrahlt, dann befindet sich die „Erde“ im Strahlungsgleichgewicht mit der „Sonne“. Unter diesen Bedingungen wird die Temperatur der „Erde“ im Strahlungsgleichgewicht mit der „Sonne“ 255 K betragen.

Dies vervollständigt den Algorithmus, von dem ich glaube, dass er gemeinhin benutzt wird, um einen Wert von 255 K als „charakteristische Emissionstemperatur der Erde“ zu erhalten und folglich benutzt wird, um die 33 K Temperaturdifferenz zu berechnen.

Selbst wenn man die Tatsachen ignoriert, dass (1) es nicht korrekt ist, die „mittlere Temperatur“ zu benutzen, wenn man den Strahlungsenergieverlust von einer Oberfläche berechnet, und dass (2) in Gegenwart einer Atmosphäre (a) die Schwarzkörperstrahlungsgleichung nicht angewendet werden kann und (b) die Schwarzkörperstrahlung von der Erdoberfläche nicht der einzige Mechanismus für den Energieverlust der Erde in Richtung Weltall ist (die Atmosphäre selbst ohne Treibhausgase wird erwärmt durch Ableitung von der Erdoberfläche, und Ableitung sowie Konvektion zusammen führen dazu, dass die thermische Energie in der gesamten Atmosphäre verteilt wird, und die so erwärmte Atmosphäre wird ebenfalls Energie in den Weltraum abstrahlen), besteht das Problem in der Verwendung des oben berechneten Temperaturwertes von 255 K bei der Berechnung der Erdtemperatur zwischen einer Atmosphäre mit und ohne Treibhausgase darin, dass die effektive Absorptionsalbedo der Erde von 0,3 zur Erzeugung der Temperatur von 255 K teilweise (hauptsächlich?) auf die Wolken in der Atmosphäre zurückzuführen ist, und atmosphärische Wolken bilden sich aus Wasserdampf, einem Treibhausgas.

Folglich basiert die effektive Absorptionsalbedo von 0,3 auf der Gegenwart eines Treibhausgases – Wasserdampf. Es ist unlogisch, eine Differenz zwischen zwei Temperaturwerten zu berechnen, deren Werte beide auf der Gegenwart eines Treibhausgases basieren und dann zu behaupten, dass die Temperaturdifferenz zwischen einer Atmosphäre mit und ohne Treibhausgase auftritt. Ohne Wasserdampf gäbe es keinerlei Wolken, wie wir sie kennen. Ohne Wolken dürfte die effektive Absorptionsalbedo der Erde wahrscheinlich nicht 0,3 betragen, und folglich wird die Temperatur der Erde ohne das Treibhausgas Wasserdampf wahrscheinlich ein anderer sein als 255 K. Folglich ist der Wert von 255 K als „charakteristische Emissionstemperatur der Erde“, wie er sich unter Verwendung des oben beschriebenen Algorithmus’ ergibt, NICHT relevant bei der Diskussion über die Temperaturdifferenz auf der Erde bei einer Atmosphäre mit und ohne Treibhausgase. Nur falls 0,3 die effektive Absorptionsalbedo der Erde in Gegenwart einer Atmosphäre ganz ohne Treibhausgase ist, ist die Behauptung gestattet, dass die Anwesenheit von Treibhausgasen die Temperatur auf der Erde um 33 K zunehmen lässt.

Weil die Wolken einen signifikanten Teil der einfallenden Sonnenstrahlung reflektieren, glaube ich, dass die effektive Absorptionsalbedo der Erde ohne Wasserdampf weniger als 0,3 ist. Falls das stimmt, dann wird von einer Erde, deren Atmosphäre frei von Treibhausgasen ist, mehr Sonnenenergie absorbiert als von einer Erde, deren Atmosphäre Wolken aus dem Treibhausgas Wasserdampf enthält. Dies impliziert bei Fehlen von Wasserdampf eine höhere Temperatur auf der Erde als die „charakteristische Emissionstemperatur der Erde von 255 K“.

Für eine effektive Absorptionsalbedo von 0, wird die Temperatur der Erde im Strahlungsgleichgewicht mit der Sonne etwa 278,64 K betragen (hiernach gerundet zu 279 K). Wenn dieser Wert als Temperatur der Erde in Gegenwart einer Atmosphäre ohne Treibhausgase verwendet wird, kann man daraus schließen, dass die Gegenwart von Treibhausgasen zu einer Erwärmung von etwa 9 K führt (288K minus 279 K).

Zusammengefasst: Unter Verwendung der vereinfachten Argumente, von denen ich glaube, dass sie auch benutzt werden, um bei den 33 K Temperaturdifferenz anzukommen (d.h. unter Voraussetzung einer Erde mit einer perfekten Wärmeleitfähigkeit, Schwarzkörperstrahlung der Erde, Graukörperabsorption der Erde mit einer effektiven Absorptionsalbedo zwischen 0 und 0,3 und unter Ignorieren der atmosphärischen Strahlung in Richtung Weltraum bei einer Erdatmosphäre ohne Treibhausgase), schließe ich, dass die Gegenwart von Treibhausgasen in der Erdatmosphäre die Temperatur zwischen 9 und 33 K steigen lässt. Folglich glaube ich, dass die Behauptung, die Gegenwart von Treibhausgasen führe zu einer Temperaturzunahme auf der Erde von 33 K auf einem Argument basiert, das wenig Relevanz hinsichtlich der Temperatur der Erde beim Fehlen von Treibhausgasen in der Atmosphäre besitzt; und dass dieser Wert folglich im besten Falle irreführend und im schlimmsten Falle falsch ist.

Reed Coray

den Originalartikel finden Sie hier

lesen Sie auch den Beitrag von Michael Krüger zum selben Thema auf Science Sceptical "Die Wohlfühltemperatur der Erde"

Update zu den Kräften zwischen Sonne und Erde

Paul L. Vaughan, M.Sc.

Die Amplitude der zonalen Winde auf der Erde wird vom solaren Zyklus gesteuert. Hier folgt ein knappes Update auf Basis der jüngsten Daten:

LOD’ = Rate der Änderung der Tageslänge

Quelle der Bilder:

ftp://ftp.iers.org/products/eop/long-term/c04_08/iau2000/eopc04_08_IAU2000.62-now ftp://ftp.ngdc.noaa.gov/STP/SOLAR_DATA/COSMIC_RAYS/STATION_DATA/Monthly_data/moscow.tab

Link hierzu: http://wattsupwiththat.com/2011/12/25/solar-terrestrial-power-update/

Übersetzt von Chris Frey für EIKE

Bemerkung des Übersetzers: Dieser Text war wieder ein „harter Knochen“ zum Übersetzen. Einmal waren viele Sätze mehrfach verschachtelt, zum Anderen haben manche Passagen die Grenzen meiner Fachkenntnisse überschritten. Für wohlwollende Korrekturvorschläge der von mir übersetzten Fachausdrücke wäre ich dankbar. Wer nur solche Vorschläge machen will, ohne den Artikel selbst zu kommentieren, sollte über den Menüpunkt Kontakt direkt an das EIKE schreiben. Danke!




Die Energiewende ist schon gescheitert (mit Update 4.1.12)

Sie will ihren Gegnern endlich das Atomangst-Argument aus der Hand schlagen, mit dem man sie ständig ärgert. Sie will jetzt die Atomenergie einfach abschaffen und verkündet, daß sie nun plötzlich begriffen hätte, daß Atomreaktoren unsicher sind. Das habe sie vorher nicht gewußt. Frau M. ist übrigens Physikerin. Sofort werden sieben Kernkraftwerke abgeschaltet, die übrigen dann später. Weil die Reaktorsicherheits-Experten leider erklären, daß die Atomkraftwerke doch sicher sind, beruft Frau M. einen Ethikrat, der gar nicht erst über den Ausstieg diskutieren soll, sondern dem sie gleich die gewünschte Antwort als Frage vorlegt: „Wie kann ich den Ausstieg mit Augenmaß vollziehen…?“ Diesem Ethikrat gehört kein Energieexperte an, jedoch 2 Bischöfe…..

Dieser Rat gibt die gewünschte Antwort und dann wird ein Ausstiegs-Gesetzespaket beschlossen, das Parlament und Bundesrat anschließend in Rekordzeit verabschieden. Es herrscht große Angst, denn schon morgen können die Reaktoren explodieren. Jedenfalls genau die, die zuerst abgeschaltet wurden. Die übrigen noch nicht. Der jetzt fehlende Strom wird nun zum großen Teil aus den Nachbarländern importiert: Und das ist wieder überwiegend Atomstrom. Das stört jetzt aber niemanden mehr. Deutschland ist noch einmal davon gekommen. Frau M. nennt es die Energiewende.“

Das Drehbuch wird wegen Unglaubwürdigkeit abgelehnt. Soweit die Fiktion.

Wie man weiß, hat sich das aber tatsächlich im Frühjahr und Frühsommer 2011 zugetragen. Jetzt, wo sich die ersten Auswirkungen zeigen und die Fehler im Gesetzeswerk, in den Methoden ihrer Kaschierung und in der Argumentation der Regierung deutlich hervortreten und nun auch Reaktionen aus dem Ausland vorliegen, kann man eine Diagnose der sogenannten Energiewende versuchen.

1. Übertreiben, Beschönigen, Weglassen, Verschweigen

Wer die amtlichen Verlautbarungen zur Energiepolitik, zur Begründung von Gesetzen, die die Förderung bestimmter Energietechnologien betreffen, die politischen Erläuterungen zu sämtlichen staatlichen Maßnahmen auf diesem Gebiet kritisch betrachtet, der kann zunächst die durchgängig festzustellenden fast unglaublichen Fehler nicht fassen.

Bis er das System erkennt: Vorbei sind die Zeiten, als eine Oberste Bundesbehörde unter keinen Umständen die Bürger gezielt getäuscht und mit falschen Informationen in die Irre geführt hat. Die einzige lässliche Sünde war in diesen “guten alten Zeiten” das Weglassen allzu peinlicher Aussagen – aber es wurde niemals gefälscht und gelogen.

Vorbei. Die Manipulation von Fakten und absichtliche Falschinformationen sind seit etwa 6 Jahren zu einem normalen Mittel der Öffentlichkeitsarbeit geworden.

Da es sich bei dem Thema Energiewirtschaft und Energietechnik um Fachgebiete handelt, die dem Normalbürger eher fremd sind, war diese Politik der systematischen Desinformation außerordentlich erfolgreich – wie die Umfragen auf diesem Gebiet belegen.

Das Haupt-Schlachtfeld dieses Medienkriegs sind die sogenannten erneuerbaren Energien, die es natürlich nicht gibt, denn Energie ist nicht erneuerbar. Gemeint sind regenerative Energietechniken, mit denen die Strahlungsenergie der Sonne, die kinetische Energie von Luftströmungen oder die chemische Energie von Biomasse ausgenutzt werden kann. Es war und ist das politische Ziel der letzten und der derzeitigen Bundesregierung, für diese Energietechniken trotz ihrer vielfachen und massiven Nachteile eine öffentliche Akzeptanz zu erreichen und Widerstände der Fachleute zu neutralisieren. Dazu dient diese systematische Fehlinformation – sie ist ein politisches Instrument zur Durchsetzung ideologischer Ziele.

Eine Grundbehauptung für die Rechtfertigung der „Erneuerbaren“ ist der Ersatz von Kohlekraftwerken durch Wind- und Solarstrom. Tatsächlich konnte jedoch dadurch bis zum heutigen Tag kein einziges Kohlekraftwerk stillgelegt werden, weil diese Anlagen selbst bei starker Einspeisung des „grünen“ Stroms als Reserve unverzichtbar sind: Wenn Wind- oder Solarstrom wetterbedingt kurzfristig ausfallen, müssen diese Kohlekraftwerke so schnell wie möglich wieder hochgefahren werden und einspringen.
Man beachte: Sie müssen innerhalb von ca. 30 Minuten hochgefahren werden, was im Klartext bedeutet, daß sie nicht etwa aus dem kalten Zustand innerhalb von Stunden angefahren werden – da würde jede kurzfristige Ausregelung der Netzstörung nicht mehr möglich sein – , sondern die ganze Zeit „im Leerlauf“ betrieben werden müssen, was erheblich Kohle benötigt. Deshalb ersetzen Wind- und Solarstrom bei ihrer Einspeisung ins Netz nicht etwa den äquivalenten Kohleverbrauch der Kraftwerke im Verhältnis eins-zu-eins, sondern nur einen Teil davon.
Die Energiewende hat diese Situation noch weiter verschärft:
Auf dringende Bitten der Regierung und ihrer Bundesnetzagentur mußten die Kraftwerksbetreiber selbst ältere, nur noch teilweise betriebene Kraftwerksblocks wieder anfahren, weil deren Strom nach der Abschaltung der 8 Kernkraftwerke dringend gebraucht wird.
Es kann festgestellt werden:
Der Treibstoff für Merkels Energiewende ist Kohle – und zwar viel mehr als bislang.  Daß es auch dabei aus verschiedenen Gründen wieder klemmt, wird in Kap. 8 „Das stille Ende großer Ankündigungen“ und Kap. 14 „Für die Bürger wird es immer teurer“ beschrieben.

Die von Frau Merkel angestrebte sogenannte Energiewende ist – abgesehen vom Ausstieg aus der Kernkraft – in allen Einzelheiten seit 6 Jahren der Kern der Energie-Regierungspolitik, neu ist nur der geradezu messianische Ehrgeiz, die selbst gesteckten Ziele in relativ kurzer Zeit zu erreichen. Der Anspruch, damit Vorbild für den Rest der Welt zu sein, ist nicht neu, sondern eher typisch.

Ein kurzer Durchgang durch die politisch wichtigsten Förderfelder im Energiebereich zeigt die offensichtlichen, aber verschwiegenen Schwachstellen:

2. Windstrom – Versorgung nach Wetterlage

Die Stromerzeugung mit Windkraftanlagen zeigt wegen deren Wetterabhängigkeit extreme Schwankungen – einschließlich tagelanger Perioden ohne jede nennenswerte Leistung, aber auch plötzlich auftretende Leistungsspitzen, die das Verbundnetz an den Rand des Zusammenbruchs bringen. Großflächige Stromsperren drohen, vor allem im Winter, wenn der Bedarf steigt, das Ausland weniger liefert – und Flaute herrscht. Bei plötzlichem Starkwind kann das Gleiche geschehen. Man läßt es darauf ankommen.

November 2011: Lastganglinie aller deutschen Windkraftanlagen in viertelstündlicher Auflösung (Quelle: wilfriedheck.de)

Eine sehr beeindruckende Zahl zum Ausmaß der wetterbedingten Leistungsschwankungen der Windkraft und des Solarstroms nannte der Leiter Politik und Märkte der Essener RWE Innogy, Holger Gassner auf einem VDI-Kongress Ende November 2011:

„Es seien allein im ersten Halbjahr 2011 Variationen der verfügbaren Windkraftkapazitäten von 23 GW (= 23.000 MW) und der Photovoltaikleistung von 13 GW beobachtet worden.“

Ein Alptraum für die Übertragungsnetz-Betreiber. Die stets bei der Einweihung neuer Windparks behauptete Versorgung von mehreren tausend Haushalten gehört hierbei zu den Standardlügen, denn bei Flaute kann kein einziger Haushalt versorgt werden.

Es konnte trotz der bereits installierten gewaltigen theoretischen Maximalleistung aller Windkraftanlagen noch kein einziges Kohlekraftwerk abgeschaltet werden, weil die WKA im Gegensatz zu Kohle- und Kernkraftwerken eben keine Grundlast liefern – das heißt zu jeder Stunde an jedem Tag. Im Gegenteil: Man benötigt schnell regelbare Kraftwerke, die einspringen, wenn sich die Leistung der WKA zu schnell ändert, und die Kraftwerke, die das am besten können, sind Kernkraftwerke. Diese werden nun der Reihe nach abgeschaltet und fallen als Netzstabilisatoren aus.

Daher müssten neue Gasturbinen-Kraftwerke für diesen Zweck gebaut werden; allerdings rentiert sich das nicht.

Weil große Stromspeicher fehlen, muß man buchstäblich um jeden Preis versuchen, überflüssigen Windstrom, der oft genug verschenkt werden muß, ins Ausland zu leiten. Manchmal muß sogar dem Abnehmer dafür noch ein Preis bezahlt werden. Der dafür benutzte Begriff ist „negativer Preis.“ Der Erzeuger erhält dennoch die EEG-Einspeisevergütung; der Verbraucher zahlt dann doppelt für den überflüssigen grünen Strom.

Endgültig auf den Kopf gestellt wird die bei der Energiewende prinzipiell missachtete Marktwirtschaft durch die sogenannte Härtefallregelung in §12 EEG: Zufällig anfallender Wind- oder Solarstrom, der vom Netzbetreiber nicht akzeptiert werden kann und dessen Produktion folglich unterbleibt, muß trotzdem bezahlt werden – siehe Kapitel 5.

Der Ausbau der Windkraft erfolgt weiterhin mit hohem Tempo. Das vergrößert das Problem – aber man negiert es. Prinzipiell könnten Pumpspeicherwerke diese Schwankungen ausgleichen, aber Deutschland hat viel zu wenige davon und der immer größer werdende Bedarf kann hier niemals gedeckt werden.

Es werden Langzeitspeicher benötigt, um längere Flauten abfangen zu können. Eine 10-tägige Flaute ist nicht selten; aber Deutschland erlebte gerade eine 44 Tage andauernden Hochdruck-Wetterlage im Oktober – November 2011, die einen nicht enden wollenden, spektakulären Einbruch in der Windstromerzeugung mit sich brachte.

Es gibt bereits die Daten

Konventionelle Stromerzeugung und Windkraft im November 2011 (wilfriedheck.de)

Von der gesamten in Deutschland installierten Windstrom-Leistung von 27.215 MW (Stand nach EWI vom 30.6.11) lieferten die Windräder an 27 Tages des November:

  • An 2 Tagen 30% ihrer möglichen elektrischen Arbeit ;

  • an 4 Tagen 15%

  • an 5 Tagen 7 – 8%

  • an 2 Tagen 4 – 5%

  • an 11 Tagen 2 – 2,5%

Zu diesem Thema schreibt Prof. Dr. Fritz Vahrenholt, RWE Innogy GmbH, daß bei 450 TWh (Terawattstunden = Milliarden kWh) Jahresverbrauch der durchschnittliche Tagesverbrauch bei 1,25 TWh liegt und bei 10 Tagen somit bei 12,5 TWh. Die derzeit in Deutschland vorhandene Kapazität an Pumpspeicher-Kraftwerken beträgt 7.000 MW, mit denen sich rund 0,04 TWh an Strom erzeugen lassen, wenn sie komplett leer laufen.

Demnach würde zur Abpufferung der Flautenzeit von 10 Tagen das 313-fache der heute installierten Pumpspeicherleistung benötigt. Dies sei für Deutschland und die Alpenregion auch auf Grund von Akzeptanzproblemen vollkommen unrealistisch.

Somit wird in vielen Studien oft auf Norwegen verwiesen.

Dort sind die meisten Speichermöglichkeiten derzeit einfache Stauseen mit natürlichem Zulauf, die zwar in Engpaßzeiten Strom liefern könnten, aber nicht als Senke (= Stromaufnahme bzw. –Speicherung) in (Windstrom-) Überschußzeiten zur Verfügung stehen. Zudem müßte im Bedarfsfalle einer Flaute in Deutschland ja auch noch Norwegen weiterhin versorgt werden.

Lastgang in Norwegen 2011 (wilfriedheck.de)

Die letzte Oktoberwoche und der November 2011 zeigten, daß Prof. Vahrenholts Annahme einer 10-tägigen Flaute als „worst case“ noch stark untertrieben war: Diese Flaute dauerte 3 bis 4 Wochen.

Angesichts dieser Misere werden von der Regierung Hoffnungen auf ganz neue Stromspeichermöglichkeiten geweckt: So trotz der oben beschriebenen Aussichtslosigkeit die Nutzung norwegischer Wasserkraftwerke per Seekabel, die Erzeugung von Wasserstoff mit überflüssigem Windstrom oder die Verwendung von Elektroautos als Speicher für das Stromnetz. Zu diesen Visionen weiter unten.

Ein weiteres, wohl nur aus Verzweiflung geborenes Riesenprojekt

ist der Bau von mindestens 3000 km neuer Höchstspannungsleitungen von Nord- nach Süddeutschland, um den im Norden erzeugten, dort aber gar nicht benötigten Windstrom bis nach Baden-Württemberg und Bayern zu transportieren, wo auch die Abschaltung der Kernkraftwerke besonders große Löcher in die Stromversorgung gerissen hat. Selbstverständlich kann der unzuverlässige Windstrom diese Grundlaststrom-Lücke auch nicht annähernd ausgleichen.

Daß der Plan auch aus anderen Gründen unrealistisch ist, kommt noch hinzu: Siehe dazu Kapitel 6 „Das zweimal vergessene Netz.“

Wenn man alle Systemschwächen der Windkraft ignoriert und nur die installierte, aber fast nie gelieferte Maximalleistung herausstellt und diese den Bürgern auch noch als zuverlässige Stromversorgung verkauft, dann kann man sie für die stärkste der “Erneuerbaren” halten. Realistisch betrachtet ist es jedoch nur eine gelegentliche, unberechenbar und zufällig anfallende Stromerzeugung, die nicht nur sehr teuer ist, sondern auch eine Störung der Stromversorgung darstellt.

Die Regierung kann das aber nicht zugeben,

denn für sie ist Windstrom die Schlüsselkomponente in ihrem Energiekonzept, das sich ohne die Verwirklichung von dessen Phantasiezahlen in Nichts auflösen würde: Bis 2030 sollen die sog. Erneuerbaren enorme 50 Prozent der Stromversorgung liefern; allein die Offshore-Windparks 15 %.

Abgesehen von den erwähnten prinzipiellen Systemschwächen, an denen die Physik und das Wetter Schuld sind, gibt es aber bereits jetzt Schwierigkeiten beim Anschluß der später weitestgehend nutzlosen Windräder auf See: Der Netzbetreiber Tennet, der im vergangenen Jahr das 11.000 km lange Höchstspannungsnetz von E.on gekauft hat, muß nun alle Windparks in der Nordsee anschließen. Jetzt warnte Tennet die Bundesregierung in einem Brandbrief vor Engpässen. Für die Anbindung der Windparks an die Stromnetze auf dem Festland haben die Netzbetreiber feste Fristen. Tennet:

“Tatsächlich gibt es in sämtlichen laufenden Projekten erhebliche Schwierigkeiten im Planungs- und Baufortschritt.“

Alle Beteiligten „stießen an die Grenzen ihrer Ressourcen“, und „hinzu kommen massive Probleme bei der Beschaffung des Kapitals.“ Das ist der Unterschied zwischen Ministerialpapieren und der Wirklichkeit.

Mit welchem tatsächlichen Windräder-Ausbau bis 2022 zu rechnen ist, hat soeben (Anfang Dezember 2011) dankenswerterweise die Bonner Bundesnetzagentur – immerhin eine staatliche Behörde – ermittelt bzw. abgeschätzt: Sie hat den Strombedarf und die Stromerzeugung in Deutschland in drei Szenarien berechnet; als Grundlage für den dann nötigen Netzausbau.

Welches Szenario dann Realität werde, hänge vor allem davon ab, wie stark die Windkraft zulege, sagte Behördenchef Matthias Kurth. Im mittleren Szenario erwartet die Behörde einen Ausbau der installierten Windstrom-Leistung

  • auf dem Festland von 27.100 MW auf 47.500 MW

  • bei Offshore-Windparks von 100 MW auf 13.000 MW 

Die Netzagentur rechnet deshalb auch mit zeitweise erheblichen Stromüberschüssen. Wie diese dann zum Schaden der Verbraucher behandelt werden, ist in Kapitel 5 „Jenseits der Planwirtschaft…“ beschrieben.

In Anbetracht der schon beim jetzigen Ausbau kaum noch zu beherrschenden Schwierigkeiten – siehe die obigen Ausführungen zum unlösbaren Speicherproblem – ist diese Abschätzung der Bundesnetzagentur im Grunde die Projektion einer von Deutschland ausgelösten Katastrophe für den gesamten europäischen Netzverbund. Bereits jetzt beginnen sich die angrenzenden Länder dagegen zu wappnen: Siehe die Ankündigung Polens, die deutschen Windstrom-Überschüsse nicht mehr aufzunehmen – in Kap. 12 „Energiewende bedroht die Nachbarländer“. 

Da diese voraussichtlich lange vor dem Erreichen der erwarteten Ausbauzahlen eintreten wird, bekommen wir sie ein paar Milliarden Euro billiger.

3. Solarstrom – geringer Nutzen für sehr viel Geld

Auch die Stromgewinnung aus Sonnenlicht leidet unter dem Wetter und zusätzlich auch unter den Tageszeiten: In der Dämmerung und des Nachts gibt es überhaupt keinen Strom. Ebenso liegt die Leistung der Photovoltaik (PV)-Module bei bedecktem Himmel, bei Regen und auch bei einer Schneedecke auf den Modulen bei Null. Weil auch bei klarem Himmel die Einstrahlung in Deutschland verglichen mit südlichen Ländern eher bescheiden ist, liefern alle für teures Geld installierten Photovoltaik-Zellen trotz ihrer inzwischen gewaltigen installierten theoretischen Maximalleistung, die Ende 2010 bereits den enormen Wert von 16.900 MW erreicht hatte, wegen ihres sehr geringen Nutzungsgrades auch nur einen kläglichen Anteil von 1,9% an der Inlands-Stromerzeugung.

Probleme verursacht die Photovoltaik wegen ihrer dezentral verteilten Einspeisung

auch in den unteren Spannungsebenen des Netzes, das bisher nur auf die Versorgung der Abnehmer, aber nicht auf die Bewältigung vieler Stromerzeuger ausgelegt ist. PV-Anlagen derzeit so ausgelegt sind, dass alle Anlagen – wie in der bisherigen Niederspannungsrichtlinie des BDEW gefordert – bei einer Netzfrequenz von 50,2 Hz, die die Folge einer gefährlich zu hohen Stromeinspeisung ist, gleichzeitig vom Netz gehen.

Dieser abrupte Einbruch kann dann zu einem Netzausfall führen, wie das BMU in einem Berichtsentwurf vom Mai 2011 selbst konstatiert – vgl. Kapitel 6.

Deshalb plant es, den Anwendungsbereich des § 6 EEG auch auf PV-Anlagen zu erstrecken, so dass auch diese in das Einspeisemanagement nach § 11 EEG einbezogen werden. Daß die Betreiber der unteren Verteilungsnetze überhaupt eine Chance zu einem Eingriff in die zahllosen Einzelanlagen haben, ist nicht der Fall.

Denn „bei Wolkendurchzug funktioniert das bei Solarstromanlagen nicht“,

wie der Leiter des Fachgebiets Elektrische Energieversorgungsnetze der TU München, Prof. Rolf Witzmann nüchtern feststellte. Gegen den dadurch verursachten rapiden Wechsel von Leerlauf zu voller PV-Leistung ist der Netzbetreiber machtlos; es hilft nur automatische Abschaltung durch die Einzelanlage selbst und kein „Einspeisemanagement“.

Genau darüber denkt das BMU jetzt nach. In die PV-Anlagen müßten Meßgeräte eingebaut werden, die ständig die Netzfrequenz messen und bei zu hoher Gesamt-Einspeisung, die sich durch Überschreiten der kritischen 50,2 Hertz-Grenze ankündigt, die Einzelanlage abschalten. Das erfordert also eine teure Nachrüstung aller PV-Anlagen. Aber damit nicht genug: Man kann davon ausgehen, daß auch hier wieder dafür gesorgt wird, daß dem Betreiber der nicht gelieferte Solarstrom voll bezahlt wird. Das ist schließlich das Prinzip der Regierung – siehe die „Härtefallregelung“ des EEG § 12.

Der Solarstrom-Nichterzeuger wird also dem Übertragungsnetzbetreiber einen Nachweis über die von seiner Automatik verhinderte Stromeinspeisung liefern müssen, was einen interessanten neuen Entschädigungs-Bürokratismus auszulösen verspricht.

Daß diese Entschädigungen und wahrscheinlich auch die technischen Nachrüstungen der PV-Anlagen wieder von den Stromkunden zu bezahlen wären, kann man sicher erwarten.

Die Erzeugung des Solarstroms ist extrem teuer

Die Besitzer derartiger Anlagen erhalten – entsprechend dem EEG-Gesetz – ab 1.7.2011 pro eingespeister Kilowattstunde 24,4 Cent, was dann dem Strompreis für Endverbraucher aufgeschlagen wird. Und das Geld, das die Solarzellen kostet, geht inzwischen zu ca. 60% nach China. Deutschland ist dank seiner übertriebenen Photovoltaik-Zwangsförderung der weitaus größte Kunde von Chinas neuen PV-Fabriken. Dort sind die Arbeitsplätze entstanden – mit dem Geld der Stromverbraucher, die sich keine eigene PV-Anlage leisten können.

China hat diesen gewaltigen, von deutschen Verbrauchern bezahlten Geldstrom für den Aufbau seiner Photovoltaik-Produktion eingesetzt und ist inzwischen der weltgrößte Hersteller. Chinas Solarzellen sind konkurrenzlos billig und jetzt brechen den deutschen Unternehmen die Umsätze weg. Deutschland exportierte 2010 Solarstromanlagen für 138 Millionen Euro nach China; China exportierte im Gegenzug solche Anlagen im Wert von 5,9 Milliarden Euro nach Deutschland.

Verluste werden geschrieben, Pleiten und Arbeitsplatzverluste drohen.

Es trifft diejenigen Arbeitsplätze, die nach grünen Plänen eigentlich an die Stelle der Jobs in der konventionellen Energiewirtschaft treten sollten. Der Windkraft droht exakt das gleiche Schicksal: 2006 fanden sich unter den zehn weltgrößten Windkraftanlagen-Herstellern noch vier deutsche. 2010 standen nur noch zwei Namen auf der Liste – wohl aber vier chinesische. Das ständig wiederholte Argument über die Erneuerbaren als Jobmaschine löst sich jetzt auf.

Ebenso wie der Windstrom leistet auch der Solarstrom keinerlei Beitrag zur Grundlast-Stromversorgung. Im Gegenteil stört auch diese Wetter-abhängige Stromeinspeisung vor allem die Stabilität im Netz und beansprucht ebenfalls große Stromspeicher, die es nicht gibt.

Ein erstaunliches Eingeständnis ist im EEG-Erfahrungsbericht 2011(Entwurf) des BMU zu lesen:

„Die Vergütungszahlungen im Rahmen des EEG beliefen sich 2010……auf über 12 Mrd. €….. Hier ist es in den letzten Jahren zu Fehlentwicklungen gekommen (!). So entfielen 2010 im Stromsektor von rund 23,7 Mrd. € Investitionen in erneuerbare Energien allein 19,5 Mrd. € und damit über 80% auf die Photovoltaik.“

Und zum Thema Strompreise liest man:

„Insgesamt stieg seit dem Jahr 2000 die durchschnittliche Vergütung für Strom aus (allen) erneuerbaren Energien von 8,5 Cent / kWh auf voraussichtlich 15,5 Cent / kWh (2010) an. Diese Entwicklung mußte dringend gestoppt werden.“

Mit der zum 1.1.2012 vorgesehenen EEG-Novelle, genannt „neues EEG“, habe die Regierung

„wirksam gegengesteuert und insbesondere mit dem Abbau der Überförderung der Photovoltaik entschlossen gehandelt.“

Das Zugeständnis durch die Regierung, daß es hier eine Überförderung gibt, ist interessant; die Behauptung, daß sie nun abgebaut würde, ist unwahr:

In einer Mitteilung des BMU über „Daten und Fakten zur Photovoltaik-Förderung“ vom 17.11.11 heißt es, daß nach dem am 1.1.12 in Kraft tretenden „neuen EEG“ der „Ausbaukorridor“ möglicherweise auf 2500 – 3500 MW zusätzliche PV-Leistung pro Jahr sinken könnte. Ob und wann das tatsächlich erfolgt, bleibt im Unklaren; konkrete und später nachprüfbare Angaben werden vermieden.

Mit einer Absenkung hat das wenig zu tun,

denn ein weiterer jährlicher Ausbau der PV um die genannte Leistung ist nur wenig kleiner als der in den ersten 9 Monaten von 2011 erfolgte Zubau mit 3400 MW. Es soll also genau so weiter gehen, nur nicht so extrem wie im Boomjahr 2010 mit 7200 MW Zubau.

Aber die weitere gewollte Entwicklung, die auch weiter über das EEG und damit über die Verbraucher finanziert wird, ist hier absichtlich nicht quantifiziert worden.

Diese Verschleierungstaktik des BMU hat nun die Bundesnetzagentur – immerhin eine staatliche Behörde – in ihrem im Kapitel 2 „Windstrom…“ erwähnten Bericht vom Dezember 2011 durchbrochen:

Er befaßt sich auch mit dem erwarteten Ausbau der Photovoltaik und nennt Zahlen. Hier erwartet die Behörde in ihrem wahrscheinlicheren Szenario bis 2022 einen Anstieg von heute 18.000 MW auf enorme 54.000 MW. Auch dies wird zu den für die bedauernswerten Verbraucher kostenträchtigen Stromüberschüssen führen.

Ebenso wie der erwartete extreme Ausbau der Windkraft (s.o.) dürfte auch dieser enorme Anstieg der PV sowohl an den dadurch ausgelösten Netzstörungen als auch an den nicht mehr verkraftbaren Kosten scheitern – aber erst nach vielen weiteren von den Verbrauchern gezahlten Milliarden Euro, die in diesem Falle zum größeren Teil nach China fließen.

Die Regierung sitzt in der Klemme:

Einerseits setzt sie voll auf die Photovoltaik. Sie ist eben neben dem Windstrom die zweite Säule der Energiewende. Sie darf trotz erwiesener Nutzlosigkeit nicht fallen, koste es was es wolle.

Andererseits ruiniert die „Überförderung“ die „notwendige Akzeptanz des EEG“ (Zitat aus dem o.e Bericht des BMU). Aber ohne eine derartige die Marktmechanismen außer Kraft setzende Überförderung könnte es den dringend gewünschten Zubau nicht geben. Und auch das „neue EEG“ sorgt weiterhin dafür.

4. Biogas: Wenn Nahrungsmittel verheizt werden

Im Gegensatz zu Wind- und Solarstrom ist Biogas ein Energieträger, der gleichmäßig anfällt, gut speicherbar ist und mit dem auch über einen längeren Zeitraum Strom erzeugt werden kann, obwohl das seine mit Abstand schlechteste Nutzung darstellt. Ebenso wie die für eine Stromerzeugung vollkommen ungeeignete und quantitativ marginale Geothermie wird Biogas zu sehr zur Gewinnung elektrischer Energie eingesetzt, anstatt es mit einfachen Mitteln zu Erdgas zu veredeln und dem Wärmemarkt zuzuführen.

Der Grund dafür ist die ideologische Überbewertung von Stromerzeugung, was zum exzessiven und teuren Ausbau der Windkraft und der Photovoltaik geführt hat und was gleichzeitig zu einer Vernachlässigung der Nutzung regenerativer Energiequellen für die Wärmeerzeugung führte: Solarthermie und die Nutzung von Erdwärme mittels Wärmepumpen hätte statt dessen eine konsequente und wirkungsvolle Förderung verdient.

Die Probleme des Biogases liegen aber nicht allein in einer ineffizienten Nutzung:

Das Hauptproblem ist der große Flächenverbrauch, der zuvor landwirtschaftlich genutzte Flächen betrifft und an die Stelle der Produktion von Nahrungsmitteln Energiepflanzen setzt. Zwar wird angestrebt, pflanzliche Reststoffe und andere biologische Abfälle vermehrt einzusetzen, aber der Druck auf die Umwandlung von Agrarflächen zur Produktion von Raps, Mais, Miscanthus etc. hält wegen der damit erzielbaren weitaus höheren Renditen unvermindert an – eine direkte Folge der Überförderung. Und selbst wenn Gülle zu Biogas vergoren wird, erhöht die Zugabe von Weizen den Gasertrag beträchtlich – und wird unbedenklich angewendet.

Die gleichen Probleme ergeben sich bei der Herstellung von Biotreibstoff. Hier tritt ein weiterer negativer Umwelteffekt auf: Es wird in großem Umfang Palmöl aus subtropischen Ländern – z.B. Indonesien – eingeführt und hier verarbeitet. Im Ursprungsland werden daher neue Ölpalmplantagen eingerichtet und dafür Tropenwald gerodet.

Schon lange prangern vor allem die Kirchen die Umwandlung von Agrarflächen und die Verwendung von Lebensmitteln als Energieträger als unethisch und skandalös an. Selbst das dem Umweltministerium nachgeordnete Umweltbundesamt spricht Biogas und Biodiesel schon lange jeglichen Umweltnutzen ab. In seiner hilflosen und erfolglosen Verteidigung der Einführung des E-10-Treibstoffs wagte es der Umweltminister Röttgen denn auch nicht, diesem irgend einen positiven Umwelteinfluß zuzuschreiben.

Es stellt sich die Frage,

wie lange die Politik und die Öffentlichkeit dieser vom Staat unterstützten Vernichtung von Agrarfläche noch zuschaut. Daß man damit die Energiewende in irgendeiner Weise unterstützen könnte, wird durch einfache Rechnungen widerlegt, aus denen hervorgeht, daß in Deutschland nicht annähernd die für signifikante Biogas-Steigerungen erforderlichen Flächen verfügbar sind. Von den katastrophalen Konsequenzen für den Naturschutz ganz abgesehen.

5. Jenseits der Planwirtschaft: Entschädigung für die Nicht-Erzeugung von „Ökostrom“, Verpflichtung zur Hellseherei und „negative Preise“

Das Erneuerbare-Energien-Gesetz EEG enthält mehrere kaum glaubliche Vorschriften. Einige Beispiele:

Entschädigung für die Strom-Nichterzeugung

Die Härtefallregelung des EEG – der §12 – bestimmt: „Wird die Einspeisung von EEG-Strom wegen eines Netzengpasses…… reduziert, sind die von der Maßnahme betroffenen Betreiberinnen und Betreiber ……für 95 Prozent der entgangenen Einnahmen…zu entschädigen. Übersteigen die entgangenen Einnahmen in einem Jahr ein Prozent der Jahreseinnahmen, sind die Betreiberinnen……zu 100 Prozent zu entschädigen.“

Mit anderen Worten: Bei besonders häufigen Netzstörungen durch den grünen Strom gibt es für dessen Erzeuger mehr Geld.

Dies erinnert leider sehr an die Praktiken der Agrar-Planwirtschaft in der EU, wo ebenfalls Produktionsvermeidungen finanziell belohnt werden. In Deutschland wird  nun auch  die Energiewirtschaft dazu verurteilt, nach den schlimmsten Methoden der Planwirtschaft zu einem ineffizienten Milliardengrab zu verkommen.

Gesetzliche Verpflichtung zur Hellseherei

Der §12 EEG enthält auch eine Verpflichtung für die Netzbetreiber, die offenbar von den Gesetzesmachern für notorische Betrüger gehalten werden, in die Zukunft zu sehen und das Ergebnis den Betreibern der Ökostromanlagen (EE-Anlagen genannt) verbindlich mitzuteilen. Zitat:

„Betreiber von EE-Anlagen sollen künftig spätestens am Vortag vom Netzbetreiber über den erwarteten Zeitpunkt, den Umfang und die Dauer des Einspeisemanagements (Anm.: gemeint ist der Eingriff des Netzbetreibers, z.B. das Stoppen der Einspeisung in sein Netz) informiert werden.“

Der Netzbetreiber muß also „spätestens am Vortag“ eine Netzüberlastung oder Netzstörung voraussehen. Da derartige Überlastungen gerade durch den plötzlichen und massiven Anstieg von Windstrom innerhalb von Stunden verursacht werden, muß das der Netzbetreiber „spätestens am Vortag“ „den erwarteten Zeitpunkt“ und auch „den Umfang“ sowie ebenfalls „die Dauer“ der morgigen Störung und seiner dann notwendigen Eingriffe sicher feststellen und mitteilen..

Wahrscheinlichkeits-Aussagen, wie sie die Meteorologen gerne benutzen, da selbst sie niemals exakt die regionalen Wettergeschehnisse vorhersagen können, sind hier unzulässig.

Man darf auf das Ergebnis der sicher kommenden Zivilklagen von Erzeugern gegen Netzbetreiber, die ihren hellseherischen Pflichten nicht nachgekommen sind, gespannt sein.

Diese Bestimmung sagt alles sowohl über den Realitätsbezug als auch über die Denkweise im Bundesumwelt-Ministerium.

Ökostrom-„Verkauf“ zu „negativen Preisen“

Bemerkenswert ist, daß es durch diese Härtefallregelung des EEG dem Netzbetreiber nicht erlaubt ist, bei Unverkäuflichkeit des Ökostroms an der Strombörse diesen abzuschalten bzw. dessen Einspeisung abzulehnen. Er muß stattdessen den vom Markt unerwünschten Strom entweder verschenken, oder gar noch dem Interessenten Geld bezahlen, damit er den Strom abnimmt. Das wird beschönigend „negative Preise“ genannt.

Das BMU schreibt in seinem „EEG-Erfahrungsberichts-Entwurf 2011“:

„Im September 2008 wurde an der Strombörse die Möglichkeit negativer Preise eingeführt. Dies ist bislang weltweit einzigartig. (Anm.: Die Verfasser sind eindeutig stolz darauf). Tatsächlich sind negative Preise inzwischen mehrfach vorgekommen, im Extremfall wurden Preise bis zu minus 500 €/MWh erreicht.

Um die Höhe negativer Preise zu begrenzen, sah die Ausgleichsmechanismus-Ausführungsverordnung (AusglMechAV) vom 22.2.2010 eine bis zum Jahresende 2010 befristete Übergangsregelung vor, welche die Netzbetreiber in Ausnahmefällen von der Pflicht befreite, EEG-Strom um jeden Preis an der Börse verkaufen zu müssen. Um das Kostenrisiko auch über das Jahr 2010 hinaus zu reduzieren, enthält die AusglMechAV seit dem 1.1.2011 eine bis zum 28.2. 2013 befristete Möglichkeit, negative Preise zu begrenzen. Danach greifen Preislimits zwischen minus 150 und minus 350 Euro.“

Es geht also genau so weiter. Selbstverständlich erhält der Erzeuger auch in diesen Fällen seine volle Einspeisevergütung, die genau wie die Zuzahlung an den Abnehmer den Verbrauchern aufgebürdet wird, die dadurch den grünen Strom doppelt bezahlen müssen.

Auch hier stimmt die Parallele zur Agrarpolitik der EU: Überschüsse, die keiner braucht, werden verbilligt, also unter den Erzeugungskosten, ins Ausland exportiert, wodurch dann die regionalen Erzeuger aus dem Markt verdrängt werden. Die durch den Überschußexport in den Empfängerländern angerichteten Schäden addieren sich zu den finanziellen Schäden, die in den EU-Staaten angerichtet werden. Eine exakte Parallele zum jetzt von Deutschland praktizierten doppelt subventionierten Export des überflüssigen Wind- und Solarstroms, der ebenfalls in den Empfängerländern zu Schäden führt: Deshalb die von Polen angekündigte Importsperre für grünen deutschen Überschuß-Strom. (Siehe den Abschnitt „Deutschlands Energiewende bedroht die Nachbarländer“ in Kapitel 12.) 

Selbst die UdSSR und ihre Satellitenstaaten haben es während der Ära des „real existierenden Sozialismus“ und seiner letztlich das ganze System zerstörenden Planwirtschaft nicht fertig gebracht, die Nichtproduktion eines Wirtschaftsgutes mit einer Bezahlung zu belohnen. Das war Deutschland vorbehalten. Und das BMU hat hier recht: Das ist einzigartig.

6. Die zweimal vergessenen Netze

Mit den nicht vom Markt, sondern durch die Zwangssubvention des EEG kräftig wachsenden Installationen von Windrädern und Photovoltaikanlagen entstanden zwei ganz unvermeidliche Probleme, die die Große Koalition überhaupt nicht und die Schwarz-Gelbe Regierung erst nach massiven Warnungen der Netzbetreiber ernst nahmen:

Problem Nr.1:

Zum einen bemerkte man schließlich, daß der größere Teil der Windstromanlagen in Norddeutschland liegt, wo man aber deren Strom nicht brauchen kann. Anders in Süddeutschland, wo es nach der Abschaltung mehrerer der dortigen Kernkraftwerke durchaus einen Bedarf gäbe – wenn es dafür ausreichend dimensionierte Nord-Süd-Höchstspannungsleitungen gäbe. Was nicht der Fall ist.

Problem Nr.2:

Zum anderen bemerkte man bis zum Oktober 2011 nicht, daß es auch noch ein zweites gravierendes Netzproblem gibt: Im weitaus größeren regionalen Verteilungsnetz, das technisch nur für die Versorgung der Abnehmer, keineswegs aber für die stark schwankende Stromaufnahme aus vielen dezentralen Windparks und Photovoltaikanlagen (s.u.) und die Weiterleitung dieses Stroms in das Höchstspannungsnetz ausgelegt ist.

Zum bereits bestehenden Ausmaß dieser Situation hat Ende November Holger Gassner, der Leiter Politik und Märkte bei der RWE Innogy, mitgeteilt, daß allein im ersten Halbjahr 2011 ganz enorme Schwankungen der verfügbaren Windkraftkapazitäten von 23.000 MW und der Photovoltaikleistung von 13.000 MW beobachtet worden.

Zum Problem Nr. 1: Für eine bessere Abnahme des Windstroms wünscht die Regierung bereits bis 2020 den Bau von 3000 km neuen Höchstspannungsleitungen von Nord- nach Süddeutschland. Aber der ehemalige Wirtschaftsminister Brüderle legte am 21.3.2011 Eckpunkte für den Stromnetzausbau vor:

“Für den ehrgeizigen Ausbau der erneuerbaren Energien würden etwa 3.600 km neue Leitungen benötigt.”

Die Deutsche Energie-Agentur Dena rechnet jedoch mit erforderlichen 4.450 km an zusätzlichen Höchstspannungsleitungen und die parlamentarische Staatssekretärin im BMU, Katherina Reiche, nannte gerade 4200 km. Die Chancen dafür sind allerdings verschwindend. Bürger wehren sich erfolgreich dagegen; die Planungs- und Genehmigungsverfahren dauern und die Kosten sind enorm. Bisher sind gerade nur 214 km neu gebaut worden (s.u. „Monitorbericht“).

Weil die abgeschalteten Kernkraftwerke zuvor ganz wesentlich zur Stabilisierung des Netzes beigetragen hatten, das mit der schwankenden Ökostromproduktion zu kämpfen hat, – sie können Leistungsschwankungen am schnellsten von allen Kraftwerken durch massives Gegensteuern ausgleichen – mußten zuletzt immer häufiger Windparks zwangsweise abgeschaltet werden. Allein 2010 gingen dadurch ca. 150 Millionen kWh verloren.

Das führte aber keineswegs zu einer geringeren Belastung der Verbraucher,

denn die Regierung hat im EEG in der „Härtefallregelung“ des §12 dafür gesorgt, daß auch in derartigen Fällen Geld fließt: Die Windstromerzeuger, deren Stromeinspeisung wegen der drohenden Stabilitäts-Störung des Netzes von den Netzbetreibern abgelehnt wird, bekommen trotzdem für die Nichterzeugung von Windstrom eine Entschädigung, „die den entgangenen Vergütungen entspricht.“. Näheres in Kapitel 5.

Die Bundesnetzagentur hat in ihrem „Monitorbericht 2011“ interessante Zahlen mitgeteilt. Die Hälfte von 24 besonders wichtigen Ausbauprojekten verzögere sich und die bestehenden Netze seien „durch die Vielzahl der in den letzten Jahren zu erfüllenden Transportaufgaben und die Veränderung der Erzeugungsstruktur (im Klartext: Massiver Ausbau der Wind- und Solarstromerzeugung, Abschaltung von 8 Kernkraftwerken) „am Rand der Belastbarkeit angekommen.“

Die Netzagentur bezieht sich auf Stromleitungen, die im August 2009 als vordringlich eingestuft wurden – mit der Einführung des Energieleitungsausbaugesetzes.

Der Zeitverzug bei diesen 12 Projekten liege zwischen 1 und 4 Jahren.

Erst 214 km von insgesamt 1807 km seien bislang fertiggestellt. Nach Informationen von SPIEGEL-Online werden in dem Monitorbericht 2011 weitere 73 Projekte genannt, die sich nach Angaben von Übertragungsnetzbetreibern verzögern (Angaben vom 2. Quartal 2011).

Auch die Anbindung der neuen Offshore-Windparks an das Netz an Land gerät in Turbulenzen: Soeben warnte der Netzbetreiber Tennet, der in Norddeutschland das E.ON-Stromnetz übernahm, die Bundesregierung in einem Brandbrief vor Engpässen. Es gebe in sämtlichen laufenden Projekten erhebliche Schwierigkeiten im Planungs- und Baufortschritt. Alle Beteiligten „stießen an die Grenzen ihrer Ressourcen“, auch gebe es massive Probleme bei der Kapitalbeschaffung.

Wie die Bürger auf die Aussicht auf den geplanten massiven Ausbau der Hochspannungstrassen reagieren, wird in Kapitel 9 näher beschrieben. Der bremsende Einfluß der vielen Bürgerinitiativen wird von den Netzbetreibern jedenfalls als noch ernster betrachtet, als die langen Genehmigungszeiträume.

Die Zielvorgabe ist vollkommen unrealistisch

wird aber aufrecht erhalten, denn Berlin will auf keinen seiner Stützpfeiler für die Energiewende-Vision verzichten, seien sie auch noch so brüchig. Aber auch einer eingespielten Maschinerie für die Illumination des Bildes einer vollkommen auf „erneuerbaren“ Energiequellen beruhenden Zukunft passiert hin und wieder ein Fehler – bzw. kommt versehentlich ein Stückchen Wahrheit ans Licht:

Das Bundesumweltministerium BMU hat in seinem bereits mehrfach zitierten „Entwurf des Erfahrungsberichts 2011 zum Erneuerbare-Energien-Gesetz“ auf Seite 38 und 39 bemerkenswerte, fast resignierende, Sätze veröffentlicht:

„Es muß davon ausgegangen werden, daß der Netzausbau auch künftig nicht in dem erforderlichen Maß vorankommen wird.“

Und weiter heißt es:

„Obwohl sich die betroffenen Netzbetreiber bemühten, die bestehenden Netzengpässe im Verteilnetz zu überwinden, stieg die durch das Einspeisemanagement abgeregelte Strommenge (Anm.: Das heißt: die abgelehnte Aufnahme ins Netz) aus Windenergieanlagen von 2004 bis 2009 auf das 7-fache an. Einzelne Netzausbaumaßnahmen an kritischen Stellen im Netz könnten große Wirkung entfalten und diesen Trend abschwächen. Dennoch dürfte das Einspeisemanagement mit zunehmendem Ausbau der erneuerbaren Energien weiter an Bedeutung gewinnen, weil es zunehmend zu Netzengpässen kommen wird.“

Zum Problem Nr. 2: Wie im Kapitel3 „Solarstrom..“ beschrieben, treten Netzprobleme keineswegs nur im Hochspannungsnetz auf, das mit dem Transport der Windstrom-Schwankungen nicht fertig wird, sondern sie zeigen sich zunehmend auch in den unteren Spannungsebenen. Dafür sind die immer zahlreicher werdenden Photovoltaikanlagen, insbesondere Solarparks, aber auch Windparks im Binnenland verantwortlich, die mit ihren wetterabhängigen Schwankungen das nicht für Tausende von Stromeinspeisern ausgelegte regionale Netz in Schwierigkeiten bringen.

Man kämpft jetzt mit dem „50,2 Hertz-Problem“,

der abrupten, massenhaften Selbstabschaltung der Photovoltaikanlagen bei Netzüberlastung durch zu hohe Einspeisung. Diese Sicherheitseinrichtung ist vorgeschrieben und sehr vernünftig. Nur hat die Regierung übersehen, daß sie sich damit ein neues Problem einhandelt, wenn eine riesige Anzahl von PV-Anlagen, mit der kein vernünftiger Mensch im sonnenarmen Deutschland je rechnen konnte, das gleichzeitig tut.

Die nun notwendige technische Nachrüstung aller PV-Anlagen mit automatischen Meß- und Abschaltgeräten sowie die mit Gewißheit auch hier künftig praktizierte Entschädigung der PV-Betreiber für den nicht gelieferten Strom würde wohl unweigerlich wieder den Stromverbrauchern aufgebürdet werden.

Als einzige realistische Abhilfe gilt deshalb der Ausbau nicht nur der höchsten, sondern auch der unteren Spannungsebenen mit ihren Netzen und der Einsatz von Ortsnetztransformatoren. Dazu gab es endlich auch eine Zahl – und zwar eine sehr hohe: Katherina Reiche, parlamentarische Staatssekretärin im BMU, erklärte Ende November 2011 auf einem VDI-Kongress, daß das Netz „massiv umgebaut“ werden müsse. „Beim Höchstspannungsnetz seien 4.200 km, bei den Verteilnetzen 200.000 km in moderner Netztechnik nötig.“

Sie reagierte damit vermutlich auf eine im Auftrag des Bundesverbandes Windenergie angefertigte Studie der Ecofys Germany GmbH, in der ein folgenschwerer Satz steht (eigene Ergänzungen in Klammern):

„Die Ausfallarbeit durch Abregelung (d.h. Abschalten der Wind- und Solarstrom-Einspeiser) aufgrund von Netzengpässen im Übertragungsnetz (Höchstspannungsnetz mit 380 oder 220 Kilovolt; Länge 35.000 km) ist bislang noch wesentlich kleiner als die Ausfallarbeit aufgrund von Netzengpässen im (1,7 Millionen km großen) regionalen Verbundnetz.“

Das Hauptproblem für die Netzstabilität liegt also bei den Verteilnetzen:

Bei dem regionalen Hochspannungsnetz (100 oder 60 kV mit 77.000 km); dem Mittelspannungsnetz (30 – 3 kV mit 500.000 km) und Niederspannungsnetz (400 oder 230 Volt mit über 1 Million km) – und die zusammen sind riesenhaft. (Daten von Verivox).

Der Verband kommunaler Unternehmen VKU forderte deshalb in einer Erklärung vom 17.11.2011 die Politik und die Regulierung auf, ihren Blick auf diese 1,7 Mio km der Stromverteilnetze zu richten und nicht nur auf die knapp 35.000 km der Höchstspannungs-Übertragungsnetze, denn mehr als 80% der Anlagen der „Erneuerbaren Energie“ waren 2009 an die unteren Verteilnetze angeschlossen und haben diesen die Probleme gebracht..

Der VKU rechnet für einen derartigen Ausbau und die Integration der dezentralen Energieversorgung in den Verteilnetzen mit 25 Mrd € bis 2030. Darin seien die Kosten des Umbaus zur vielseitigen Meß- und Steuerbarkeit (Smart Grids) noch nicht einmal enthalten. Auswirkungen auf den Strompreis sind unausweichlich.

Peinlich für die Regierung:

Im neuen Energieleitungsausbau-Gesetz EnLAG sind nur die Höchstspannungs-Trassen des Übertragungsnetzes vorgesehen. Es ging den Gesetzesmachern nur um die Durchleitung des Windstroms von Nord nach Süd. Die Gefährdung der Stabilität des weitaus größeren Verteilnetzes durch die vielen unkontrollierten Stromerzeuger hatte man übersehen.

Während die Bundesregierung und ihre Bundesnetzagentur die anwachsende Bedrohung der Netzstabilität herunterspielen – Röttgen bezeichnete solche Warnungen unlängst als Horrorszenario – wächst in der Industrie eben diese Sorge. Nicht aus Freude an Horrorszenarien, sondern aus konkreten Erfahrungen im Jahre der Energiewende 2011.
Das Handelsblatt berichtete am 29.12.2011 über die sinkende Qualität der Stromversorgung: „Mit der beschleunigten Energiewende kommt es bereits heute zu bedenklichen Qualitätsverlusten bei der Stromversorgung“, wird Volker Schwich, der Vorstandsvorsitzende des Verbandes der Industriellen Energie- und Kraftwirtschaft (VIK) zitiert. Die Stabilität komplexer Produktionsprozesse sei bedroht – lange bevor die Allgemeinheit einen Blackout bemerkt. Kurze Unterbrechungen im Millisekundenbereich und Frequenzschwankungen führten jetzt häufiger als früher zu Problemen.
In einem Brandbrief an den Präsidenten der Bundesnetzagentur M. Kurth listet eine Tochterfirma des norwegischen Norsk-Hydro-Konzerns, der als drittgrößter Aluminiumhersteller der Welt in Deutschland an 14 Standorten Unternehmen der Al-Primärproduktion betreibt, die Probleme aus den Instabilitäten auf. Man beobachte „seit Juli 2011 eine beunruhigende Häufung aus Netz- und Frequenzschwankungen.“
In dem Schreiben werden die 5 wesentlichsten Fälle aus den vergangenen Monaten aufgelistet, die zu teuren Schäden geführt hätten. Die steigende Zahl der netzbedingten Produktionsbeeinträchtigungen sei beunruhigend. Eine solche Häufigkeit von Zwischenfällen habe es in den vergangenen Jahrzehnten nicht gegeben.

Die Bundesnetzagentur, die über die Netzstörungen eine Statistik führt, berücksichtigt aber nur ungeplante Unterbrechungen, die länger als 3 Minuten dauern. Der sich daraus ergebende Index (SAIDI) sieht deshalb optisch gut aus.
Er berücksichtigt aber aus der Sicht der Industrie nicht die sich häufenden und wachsende Probleme verursachenden Störungen von weniger als 3 Minuten Dauer.

In der kurzen Debatte um die Energiewende war die Zuverlässigkeit der Stromversorgung ein zentrales Thema. Heinz-Peter Schlüter, der Aufsichtsratsvorsitzende und Eigentümer von Trimet-Aluminium, hatte in den Anhörungen der Ethik-Kommission „Sichere Energieversorgung“ vor den unausweichlich auf die Industrie zukommenden Problemen gewarnt: Mit dem Wegfall einer zuverlässigen Stromversorgung verliere er seine Existenzgrundlage.
„Nur vier Stunden ohne Stromversorgung und die Produktionsanlagen meines Unternehmens wären irreparabel zerstört“, hatte Schlüter gewarnt.
Die Töpfer-Ethik-Kommission setzte sich darüber hinweg.

Während die Bundesregierung und ihre Bundesnetzagentur die anwachsende Bedrohung der Netzstabilität herunterspielen – Röttgen bezeichnete solche Warnungen unlängst als Horrorszenario – wächst in der Industrie eben diese Sorge. Nicht aus Freude an Horrorszenarien, sondern aus konkreten Erfahrungen im Jahre der Energiewende 2011.
Das Handelsblatt berichtete am 29.12.2011 über die sinkende Qualität der Stromversorgung: „Mit der beschleunigten Energiewende kommt es bereits heute zu bedenklichen Qualitätsverlusten bei der Stromversorgung“, wird Volker Schwich, der Vorstandsvorsitzende des Verbandes der Industriellen Energie- und Kraftwirtschaft (VIK) zitiert. Die Stabilität komplexer Produktionsprozesse sei bedroht – lange bevor die Allgemeinheit einen Blackout bemerkt. Kurze Unterbrechungen im Millisekundenbereich und Frequenzschwankungen führten jetzt häufiger als früher zu Problemen.
In einem Brandbrief an den Präsidenten der Bundesnetzagentur M. Kurth listet eine Tochterfirma des norwegischen Norsk-Hydro-Konzerns, der als drittgrößter Aluminiumhersteller der Welt in Deutschland an 14 Standorten Unternehmen der Al-Primärproduktion betreibt, die Probleme aus den Instabilitäten auf. Man beobachte „seit Juli 2011 eine beunruhigende Häufung aus Netz- und Frequenzschwankungen.“
In dem Schreiben werden die 5 wesentlichsten Fälle aus den vergangenen Monaten aufgelistet, die zu teuren Schäden geführt hätten. Die steigende Zahl der netzbedingten Produktionsbeeinträchtigungen sei beunruhigend. Eine solche Häufigkeit von Zwischenfällen habe es in den vergangenen Jahrzehnten nicht gegeben.

Die Bundesnetzagentur, die über die Netzstörungen eine Statistik führt, berücksichtigt aber nur ungeplante Unterbrechungen, die länger als 3 Minuten dauern. Der sich daraus ergebende Index (SAIDI) sieht deshalb optisch gut aus.
Er berücksichtigt aber aus der Sicht der Industrie nicht die sich häufenden und wachsende Probleme verursachenden Störungen von weniger als 3 Minuten Dauer.

In der kurzen Debatte um die Energiewende war die Zuverlässigkeit der Stromversorgung ein zentrales Thema. Heinz-Peter Schlüter, der Aufsichtsratsvorsitzende und Eigentümer von Trimet-Aluminium, hatte in den Anhörungen der Ethik-Kommission „Sichere Energieversorgung“ vor den unausweichlich auf die Industrie zukommenden Problemen gewarnt: Mit dem Wegfall einer zuverlässigen Stromversorgung verliere er seine Existenzgrundlage.
„Nur vier Stunden ohne Stromversorgung und die Produktionsanlagen meines Unternehmens wären irreparabel zerstört“, hatte Schlüter gewarnt.
Die Töpfer-Ethik-Kommission setzte sich darüber hinweg.

Inzwischen bereitet sich Hamburg auf die Möglichkeit eines totalen Stromausfalls im kommenden Winter vor, wie WELT Online am 21.11.2011 berichtete.

Der Netzbetreiber 50Hertz arbeite an einem Notfallplan und verhandle bereits mit großen Stromverbrauchern über eine Abschaltung. Olivier Felix von 50Hertz:

„Eine solche Situation kann eintreten, wenn im Winter bei Hochdrucklagen keine Windenergie erhältlich ist und zusätzlich das KKW Brokdorf unerwartet abgeschaltet werden muß.“

Vor nicht allzu langer Zeit gab es in dieser Region noch die KKW Stade (wird abgerissen), Brunsbüttel und Krümmel (sind stillgelegt). Deren Leistung fehlt nun.

Zur Erinnerung: Dieser  geplante riesenhafte Ausbau des Stromnetzes ist nur eine Folge der Fehlentscheidung, die Windkraft ebenso wie die Photovoltaik so lange übermäßig durch Subventionen zu fördern, bis deren gewaltige Schwankungen und ihr unvorhersehbar auftretender Überschuß zu einer Bedrohung der Netzstabilität wurde. Ohne diese Fehlentscheidung hätte das Netz weiterhin völlig ausgereicht.
Wenn unsere Nachbarländer dem Beispiel Polens, das keinen grünen Spitzenstrom mehr hereinlassen will, folgen sollten, bricht das deutsche Stromnetz durch die selbst verschuldeten Störungen, die dann nicht mehr exportiert werden können, bei jedem Sturmtief zusammen. (Siehe Kap. 12 „Energiewende bedroht die Nachbarländer.“)
Doch die Geldvernichtung im Namen der angeblich davon profitierenden Umwelt  geht unvermindert weiter: Die Regierung subventioniert  Wind- und Solarstrom weiterhin mit dem EEG und bekämpft anschließend mit weiteren Milliarden die eben dadurch verschärften Probleme.

7. Schäden umverteilen

Daß die Energiewende zu Strompreiserhöhungen führen wird, bestreitet nicht einmal die Regierung. Aber das Ausmaß dieser Erhöhung wird von ihr verniedlicht, während externe Fachleute von mindestens 20% ausgehen. Wesentlicher Grund dafür ist die 2011 erfolgte Abschaltung von 8 deutschen Kernkraftwerken, die bisher preisgünstigen Grundlaststrom erzeugten, der nun vermehrt durch Stromimporte aus Frankreich, Tschechien und Polen ersetzt werden muß – was Frau Merkel zunächst kategorisch ausgeschlossen hatte.

Strom Import-Export Bilanz in Deutschland Janunar-Oktober 2011 (rot: Import, blau: Export; Quelle: wilfriedheck.de)

Ein weiterer Grund ist der weitergehende Ausbau der teuren “erneuerbaren” Stromerzeuger Windkraft, Solarzellen und Biogas-gefeuerte Kleinkraftwerke, deren vom EEG garantierte Einspeisevergütungen den Stromverbrauchern aufgebürdet werden.

Dieser Anteil an der Stromrechnung steigt daher systematisch,

wobei auch wieder festzustellen ist, daß die Regierung wesentlich niedrigere Zahlen nennt als Energiewirtschaftler.

Der EU-Energiekommissar Günther Oettinger warnte bereits Anfang März, danach im Juni, im August, im September und zuletzt am 22.10.2011 vor den dramatischen Folgen des steigenden Strompreises für Deutschland. Hohe Energiekosten gefährdeten nicht nur den Wirtschaftsstandort, sondern auch den sozialen Frieden, wenn ein Teil der Menschen die Stromrechnung nicht mehr bezahlen könne. “Ich bin überrascht, wie gedankenlos die Entwicklung der Strompreise hingenommen wird,” sagte Oettinger auf dem internationalen Wirtschaftsforum in Baden-Baden. Deutschland zähle weltweit zu der Spitzengruppe bei den Strompreisen. Dies sei eine Ursache für die stetige De-Industrialisierung – energieträchtige Produktionen würden ins Ausland verlagert, sagte Oettinger.

Wie ernst diese Situation für die energieintensiven Industrien – Chemie, Papierindustrie, Düngemittelindustrie, Glaswerke, Stahlwerke, Baustoffindustrie, Aluminiumhersteller, Metallverarbeitung – bereits geworden ist, ist der Regierung bereits durch Wirtschaftsverbände und Gewerkschaften klar gemacht worden.

Das Schlupfloch: Die Stromnetzentgeltverordnung

Die Reaktion der Regierung war bezeichnend: Der Staat verzichtet keineswegs auf seine vielfältigen Steuern und Abgaben auf den Strompreis, die ihn hier dermaßen teuer machen. Er verteilt die Lasten einfach um. Das Instrument dafür ist die o.g. am 28.7.2011 geänderte Verordnung (StromNEV), die unauffällig im Konvoi anderer Energiewende-Gesetze versteckt und die von der Presse erst nach einem Vierteljahr entdeckt wurde.

In dem für Laien praktisch unlesbaren Juristenchinesisch verbirgt sich im §19 ein Goldesel: Unternehmen mit einem hohen Verbrauch werden fast komplett von den Netzgebühren befreit – und auch noch rückwirkend für das laufende Jahr. Unternehmen, die mindestens 7000 Stunden jährlich am Stromnetz hängen und mehr als 10 Millionen kWh Strom verbrauchen, müssen gar keine Netzgebühren mehr bezahlen.

Bereits ab einem jährlichen Stromverbrauch von 100.000 kWh sinken die Netzkosten deutlich, so daß Tausende Unternehmen nicht den vollen Preis zahlen müssen. Die dadurch von den Unternehmen gesparten Netzkosten werden voll auf den Strompreis umgelegt – also von den Verbrauchern bezahlt. Geschätzt wird, daß die Strompreise allein durch diese Netzkostenermäßigung um 0,75 bis 1,0 Cent / kWh steigen könnten. Pro Haushalt mit ca. 4000 kWh Jahresverbrauch wären das bis zu 40 Euro mehr.

„Die Industrie zu entlasten und allein die Kleinverbraucher die Zeche zahlen zu lassen, ist eine Dreistigkeit, die bisher ohne Beispiel ist,“

zitierte die „Frankfurter Rundschau“ Verbraucherschützer Holger Krawinkel.

Aber das ist das durchgängige Prinzip bei der Energiewende. Sie beruht schließlich ganz wesentlich auf der Schröpfung der Bürger durch ihre Zwangsbeglückung mit zu teurer Energie. Mit dieser fortgesetzten Umverteilung zu Lasten der kleinen Leute dürften die Warnungen des Energiekommissars vor dem Ende des sozialen Friedens Wirklichkeit werden.

Eine auch gegenüber unseren Nachbarländern betriebene Rücksichtslosigkeit, die bislang ohne Beispiel ist,  stellt der Mißbrauch der Stromnetze dieser Länder als Ausgleichspuffer für den in Deutschland nicht verwendbaren Wind- und Solarstrom dar. Mit den dadurch ausgelösten Spannungs- und Frequenzschwankungen dürfen sich dann die Netzbetreiber dieser Länder herumschlagen.
Ohne diesen zum Teil mit teuren Zuzahlungen erkauften Export der nicht nutzbaren Überschüsse (siehe Kap. 5 „Jenseits der Planwirtschaft“) würden die Netzstörungen in Deutschland wohl unbeherrschbar.
Das erklärt, weshalb die Energiewende-Gesetzgebung mit ihrer massiven Grundlast-Abschaltung der 8 KKW ohne jegliche Konsultation oder Vorwarnung der Regierungen der Nachbarländer durchgesetzt worden ist. Die deutsche Regierung wußte sehr genau, wie deren Reaktion ausgesehen hätte: Sie ist im Kap. 15 „Ein internationales Urteil“ nachzulesen.

8. Das stille Ende großer Ankündigungen

Sie haben es sicherlich bemerkt: Klimaschutz ist plötzlich “out”. Jahrelang hat die Regierung Deutschland als einsamen Vorreiter und moralisches Vorbild bei der Reduzierung der CO2-Emissionen hingestellt. Der nach dem Anschluß der DDR dort stattgefundene Zusammenbruch der Industrie sowie die anschließende Modernisierung ihres Restes hat einen beträchtlichen Rückgang der dortigen Emissionen zur Folge gehabt – den sich die Bundesrepublik als eigene Leistung angerechnet hat. Damit konnte sie die Selbstverpflichtung, die CO2-Emissionen gegenüber dem sehr geeigneten Jahr 1990 um 21% zu vermindern, mit 23,4% sogar übertreffen. Anschließend hat sie in der EU die Forderung nach einer Absenkung der Emissionen bis 2020 um 40% erhoben – was von den Grünen als „ambitionierte Vorreiterrolle“ bezeichnet wurde.

Das ist nun seit Verkündigung der Energiewende Makulatur.

Die Abschaltung von 8 unbestreitbar CO2-freien Kernkraftwerken und der Ersatz des Stromausfalls durch Importe – teilweise von Kohlekraftwerken – und Hochfahren auch noch der letzten und ineffizientesten deutschen Kohlekraftwerke hat alle großartigen Selbstverpflichtungen abrupt in eine Peinlichkeit verwandelt. Hinzu kommt, daß Deutschland dringend neue Grundlastkraftwerke benötigt – und das können nach derzeitiger politischer Lage wiederum nur Kohlekraftwerke sein, wenn auch sehr moderne. Die Braunkohle-Bundesländer und die Industriegewerkschaft Bergbau, Chemie, Energie begrüßen das sehr.

Aber die Grünen und zahlreiche Bürgerinitiativen, die vom Ende der Klimaschutzpolitik noch nichts gehört haben, behindern den Neubau von Kohlekraftwerken nach Kräften. – siehe Projekt Datteln. Allein in NRW sind drei Neubauprojekte gestoppt bzw. verzögert: Das EON-Kraftwerk Datteln wurde vom NRW-Oberverwaltungsgericht gestoppt, ebenfalls  das Trianel-Kraftwerk Lühen; für beide fordert der Bund für Umwelt und Naturschutz BUND das Ende. Das Trianel-Steinkohlekraftwerk Krefeld wurde nach heftigen Protesten der Umweltschützer aufgegeben – eventuell wird stattdessen innerhalb von 6 Jahren ein Gaskraftwerk gebaut.  Und der neue Block 10 des STEAG-Kraftwerks Walsum wird wegen technischer Probleme erst drei Jahre später ans Netz gehen. 

Dennoch müßte es unbedingt weitere Kohlekraftwerke geben; die Regierung hat gar keine andere Wahl, als nun auch beim sogenannten Klimaschutz eine 180-Grad-Wende zu fahren. Aber sie streitet über das Neubau-Thema – siehe den Abschnitt „Für die Bürger wird es immer teurer“ im Kapitel 14.

Aber das werden dann auch nicht einmal Kraftwerke mit CO2-Abtrennung (CCS) sein, wie es stets vollmundig verkündet wurde. Denn die Regierung erlitt kürzlich eine schwere Niederlage: Der Bundesrat lehnte ihren Gesetzesvorstoß ab, der es ermöglichen sollte, in Kraftwerken abgetrenntes CO2 zunächst versuchsweise in ehemaligen Gasspeichern zu lagern. Er will auch nicht den Vermittlungsausschuß anrufen. Damit ist die unterirdische Einlagerung von CO2 in Deutschland erst einmal unmöglich.

Die Abtrennungs- und Speichertechnik sollte eigentlich durch ein vom Energieversorger Vattenfall zu bauendes Demonstrationskraftwerk im Brandenburgischen Jänschwalde erprobt werden.

Jetzt hat Vattenfall Anfang Dezember 2011 erklärt, daß dieses Projekt gestoppt wird.

Grund sei das jahrelange erfolglose Ringen um eine gesetzliche Grundlage, teilte Vattenfall mit und bezog sich dabei vermutlich auch auf die kürzliche Ablehnung der CO2-Einlagerung (s.o.). Minister Röttgen zeigte sich enttäuscht. Jetzt fehlt es also weiterhin sowohl an der Abtrenungstechnik als auch an der Möglichkeit zur Lagerung des Gases. Damit sind auch alle Lippenbekenntnisse zum künftigen Bau von ausschließlich CO2-freien Kohlekraftwerken gegenstandslos geworden. Aber neue Kohlekraftwerke werden nach der Abschaltung der AKW dringend benötigt. Es werden dann – falls es der in den vergangenen Jahren stets begrüßte Widerstand der Bevölkerung überhaupt zulässt und die Investoren das Risiko überhaupt tragen wollen– ganz normale Kohlekraftwerke ohne CO2-Abtrennung gebaut.

Womit die CO2-Emissionen Deutschlands noch mehr steigen werden, als es bereits jetzt der Fall ist.

Mit diesem Dilemma ist die Regierung aber nicht allein: Die EU verfolgt das Ziel, 2050 rund 90% weniger CO2 zu emittieren, wozu entscheidend die CCS-Technik gebraucht wird. Die EU-Kommission geht davon aus, daß im Jahre 2035 CO2 aus Kohle- und Gaskraftwerken mit einer Kapazität von 35.000 MW abgetrennt und gespeichert werden kann. Allerdings fehlen Erfolgsmeldungen: Nur Spanien, die Niederlande und Rumänien haben bisher die EU-Richtlinie zur geologischen Speicherung von CO2 vom April 2009 in nationales Recht übernommen. In allen anderen EU-Staaten fehlt Investoren die Rechtssicherheit.

Und von den 6 von der EU-Kommission geplanten Pilotprojekten wird eventuell nur das in Rotterdam bis 2015 in Betrieb gehen. Das deutsche Projekt Jänschwalde hätte keinen Ort zur Speicherung des Gases.

Das Hauptproblem der CCS-Technik ist die fehlende Wirtschaftlichkeit. Eine Tonne CO2 abzuscheiden kostet ca. 50 €. Im Emissionshandel liegt der Preis für diese Menge bei ca. 10 €. Und er könnte später noch weiter sinken, wenn in Europa die neuen Erdgasquellen ausgebeutet werden – siehe Kapitel 13.

Aber auch mit der Verwendung von CO2 als Rohstoff (CCU) kann nur ein kleiner Teil der Emissionen genutzt werden, wie kürzlich auf einem Kongress in Düsseldorf einhellig festgestellt wurde. Die größte Hürde – vor allem in Mitteleuropa und Skandinavien ist aber die fehlende Akzeptanz der CO2-Speicherung vor der eigenen Haustür. Zur Rolle der Bürgerinitiativen mehr in Kapitel 11.

Die Erwartung der Regierung, daß künftig viele neue Gaskraftwerke gebaut werden,

die wegen ihrer geringeren Emissionen als klimafreundlicher gelten und auch als Regelungskraftwerke zum Ausgleich der Einspeisungs-Schwankungen benutzt werden könnten, wird sich nach Aussagen der Kraftwerksbetreiber nicht erfüllen. Das würde sich nicht rechnen, denn einerseits sind die Gaspreise zu hoch, andererseits sind Kraftwerke, die nur gelegentlich angefahren werden, um das Netz zu stabilisieren, unrentabel und rechtfertigen keine Investition. Es bleibt nur die Kohle. Ob Deutschland wenigstens nach 10 Jahren in den Genuß des billigen Erdgases aus „unkonventionellen“ Quellen (Shale-Gas) kommen wird, ist unsicher – siehe Kapitel 13.

Seit 6 Jahren experimentiert Deutschland auch mit Klimaschutz durch den Emissionshandel. Das Ergebnis stellt eine Kapitulation dar: Der Staat beschenkt mittlerweile energieintensive Unternehmen – z.B. Stahl-, Zement- und Chemieindustrie; insgesamt 164 Industriebereiche – üppig mit Emissionsrechten, nach Meinung von Kritikern wie BUND sogar viel mehr als nötig, damit sie nicht abwandern. Diese Emissionsrechte können sie nun weiterverkaufen. Ein Zwang zum erhofften CO2-Sparen entfällt; der Effekt ist gleich Null.

Die Regierung wird somit in den kommenden Jahren stetig ansteigende CO2-Emissionen registrieren,

sie aber vermutlich nicht mehr kommentieren. Sie hat vielleicht die Hoffnung, daß die weltweit stark ansteigenden Emissionen – allein 2010 gegenüber 2009 um +6 Prozent auf knapp 32 Mrd Tonnen, vor allem durch China, Indien, USA, Russland und Japan – von der ehemals „ambitionierten Vorreiterrolle“ Deutschlands ablenken würden.

Man könnte nun auf die Idee kommen, daß eine Regierung, die derart leichthin ihre moralisch überlegen gespielte Rolle als selbsternannte Weltretterin opfert, ebenso eines Tages ihre Energiewende einfach ausklinken könnte. Man kann sich jedoch nicht darauf verlassen, denn die Lobby, die man mit dem EEG geschaffen hat, ist stark.

9. Das Prinzip Hoffnung als Realitätsersatz

Ein von der Politik schon immer eingesetztes Mittel zur Stärkung der Überzeugungskraft von Plänen ist die Projektion von Verheißungen, das Versprechen von neuen Möglichkeiten, wozu sich insbesondere die Schilderung von neuen technischen Lösungen sehr gut eignet, weil hierbei die rasche Nachprüfung durch die Bürger entfällt und auch die Medien erfolgreich als Werbeträger eingesetzt werden können.

In keinem anderen Sachbereich wird von dieser Methode derart viel Gebrauch gemacht,

wie bei der Energieversorgung. Und je ungewisser den Verkündern neuer Lösungswege – zum Beispiel eine Energiewende – die Erfolgschancen erscheinen, umso mehr arbeiten sie mit Visionen, Hoffnungen und Versprechungen.

Die am meisten benutzte Methode ist die Beschreibung von tatsächlich noch nicht entwickelten Techniken als in Kürze sicher und erfolgreich einsetzbar.

Die Begründungsversuche für die sog. Energiewende stützen sich ganz erheblich auf derartige Beispiele. Ihre Merkmale sind:

  • Verschweigen des noch verstreichenden Zeitraums bis eine ausgereifte Technik entwickelt ist; statt dessen Erwecken des Eindrucks kurzfristiger Verfügbarkeit.
  • Unterschlagung wichtiger Leistungsziffern, insbesondere Wirkungsgrade bzw. Verluste sowie Kosten – z.B. die Investitionskosten pro geleistetem Kilowatt an Leistung und die Kosten einer erzeugten Kilowattstunde.
  • Verschleierung der für bestimmte Techniken vergebenen Subventionen bzw. Zwangsabgaben und deren Auswirkung auf die Verbraucher. Drastisches Beispiel: Das erneuerbare Energien-Gesetz EEG.
  • Verschweigen der damit verbundenen direkten Umweltbelastungen wie Flächenverbrauch (Biomassenutzung, Energiepflanzen), Lärmemissionen (Windräder), Feinstaubemissionen (Pelletheizungen), Gesundheitsgefahren (CO2-Speicher), Gefährdung von Gebäuden (Geothermie), Landschaftszerschneidung (Höchstspannungs-Trassen). Ebenso auch indirekter schädlicher Auswirkungen wie Biodiversitätsverluste durch Monokulturen (Energiepflanzen), der weltweite Anstieg der Nahrungsmittelpreise durch exzessive energetische Nutzung von Feldfrüchten mit Verlust von Anbauflächen für Nahrungsmittel oder die sozialen Auswirkungen steigender Energiepreise für Menschen mit geringem Einkommen (s. Aussagen von Oettinger).

Hier eine Zusammenstellung einiger Beispiele:

  • Technologien zur CO2-Abtrennung aus den Abgasen von Kohle- und Gaskraftwerken. Dazu Prof. H.-J. Wagner, Institut für Energietechnik der Ruhr-Univ. Bochum: „Kraftwerke mit CO2-Abscheidung werden erst in der übernächsten Generation, also in 30-40 Jahren, zum großtechnischen Einsatz kommen.“

  • Die unterirdische CO2-Speicherung: Bereits die gesetzliche Regelung zur Erprobung ist am Widerstand der Bürger gescheitert;

  • Der Ausbau des Höchstspannungsnetzes um 4200 km innerhalb der nächsten 20 Jahre: Bisher nur 214 km realisiert; angesichts der Widerstände ist selbst das Erreichen eines kleinen Teils dieser Pläne aussichtslos.

  • Druckluftspeicher zum Ausgleich von Windstromschwankungen: Das erste und einzige Entwicklungsprojekt für adiabatische Druckluftspeicherung namens ADELE stellte am 22.11.2010 die RWE Power in Staßfurt/Sachsen-Anhalt vor. Zu schaffende Voraussetzungen: „Erfolgreiches Abschließen der technischen Untersuchungen und Planungen; Finanzierung einschließlich der erforderlichen (!) Förderung; Geologie des Standortes.“ Viele wesentliche technische Komponenten müssen ebenfalls erst noch entwickelt werden. Ob in 30 Jahren die Marktreife erreicht werden kann, ist unklar.

  • Seekabelverbindungen zu norwegischen Pumpspeicher-Kraftwerken mit mindestens 5000 MW Übertragungsleistung: Siehe die obigen Ausführungen von Prof. Vahrenholt in Kap.1. Ein erstes kleineres Projekt befindet sich bereits in Schwierigkeiten: Das 530 km lange Nord Link Ein solches Kabel soll es bis Anfang 2017 geben. Es soll 1.400 MW übertragen. Das entspricht der Leistung eines Kernkraftwerks und gerade einmal 4 Prozent der schon jetzt in Deutschland installierten Windstromleistung. Mehrere Partner verließen das Projekt bereits.

    Fünf bis zehn dieser Seekabel wären wohl nötig, geplant sind sie nicht, und es gibt noch andere Probleme: Die meisten norwegischen Wasserkraftwerke sind keine in beiden Richtungen (bergauf und bergab) arbeitenden Pumpspeicherwerke. Sie müßten teuer und langwierig umgebaut werden – wenn es die Norweger überhaupt wollen.

    Außerdem wollen alle Nordseeanrainer, die ebenfalls Windkraftanlagen gebaut haben, ebenfalls mit Seekabeln an die norwegische Wasserkraft heran. Holland hat es schon getan. Damit fällt für jeden weniger Speicherkapazität ab. Und schließlich: Schon jetzt kämpfen Bürgerinitiativen in Norddeutschland gegen die Umspannstation an Land und die neuen Hochspannungsleitungen. Siehe auch die Ausführungen von Prof. Vahrenholt, Kap. 2: „Windstrom“.

  • Bezahlbare, leistungsfähige und langlebige Batterien für Elektroautos. Diese Entwicklung dauert voraussichtlich mehr als 20 Jahre. Als Speicher für Wind- oder Solarstrom wird auch danach kaum ein Autobesitzer seine Batterien bereitstellen: Ihre Lebensdauer leidet darunter.

  • Brennstoffzellen zur Stromerzeugung aus Wasserstoff, der wiederum per Elektrolyse aus überflüssigem Windstrom gewonnen wurde. Zu teuer, zu geringe Lebensdauer, unausgereifte Technik.

  • Solarstrom aus Nordafrika für Europa: Das DESERTEC-Projekt. Abgesehen von enormen Kosten, enormen Leistungsverlusten bei Stromerzeugung und Transport bis Mitteleuropa sind sehr lange, neue Höchstspannungstrassen notwendig – und kaum realisierbar. Zudem haben die politischen Umbrüche in Nordafrika alle Pläne obsolet gemacht.

  • Unterirdische Pumpspeicherwerke in ehemaligen Bergwerken. Noch existieren nur Pläne. Bis zur Marktreife mindestens 25 Jahre. Problem: Über Tage müßten sehr große und tiefe Speicherseen angelegt werden.

  • Hybridspeicher: Wasserstofferzeugung durch Windstrom-Elektrolyse mit anschließender Stromerzeugung durch Verbrennungskraftmaschine plus Stromgenerator. Diese Anlage würde 81% des eingespeisten Windstroms als Abwärmeverluste vernichten. Absurd, aber als Pilotanlage in Prenzlau errichtet. Eine chancenlose Energievernichtungstechnik, die wahrscheinlich mit Steuergeldern gefördert wurde. Details in Kap.5.

  • Geothermie-Kraftwerke zur Stromerzeugung. Die äußerst geringe Temperaturdifferenz, mit der diese Wärmekraftanlagen arbeiten müssen (ca. 140oC), führt zu einem kläglich kleinen Wirkungsgrad, der fast immer verschwiegen wird. Erstmals wurden im Herbst 2011 in einem Fachbericht über das geplante „petrothermale“ Kraftwerk in Munster-Bispingen (Lüneburger Heide) die interessanten Zahlen genannt: Thermalwassertemperatur 160oC; thermische Leistung 14,7 MW; elektrische Leistung 1,2 MW. Elektrischer Wirkungsgrad somit trotz relativ hoher Temperatur des Thermalwassers nur 8,2%. Das heißt: Sehr wenig elektrische Leistung für sehr hohe Investitionskosten, die hier 43 Mio € betragen; somit 36.000 € für 1 kWel. Zum Vergleich: 1 kW eines Kohlekraftwerks kosten 1.140-1.480 €; selbst bei einer kleinen Haus-Blockheizanlage kostet 1 Kilowatt 3.700-7.500 €. Stromerzeugung mit Geothermie ist also extrem unrentabel. Nur als Fernheizung hat es Sinn.

  • Solare Wasserstofferzeugung durch CO2-gefütterte Algen. Im Labormaßstab in Erprobung. Ungewisse Aussichten; mehrere Jahrzehnte von der Marktreife entfernt.

Diese und weitere Techniken sind zwar realisierbar, jedoch entweder noch weit von einer Markteinführung entfernt, von untragbar hohen Kosten gekennzeichnet, mit unakzeptablen Verlusten behaftet oder ihr Einsatz bleibt durch andere Defizite weit jenseits des politisch anvisierten Zeitraumes. Somit ohne Wirkung für die Umsetzung der Ziele der Energiewende.

Ein weiteres Hoffnungsargument in den Energiewende-Papieren

besteht in der Annahme der Regierung, daß der Bedarf an elektrischer Energie jährlich um 1,7% sinken werde. Diese Annahme wurde offenbar sehr zum Erreichen besserer Zahlen benötigt.

Sie wurde aber schon zuvor durch eine Studie der Task Force „Stromversorgung und Umwelt“ des VDE von 2009 widerlegt: Der bisherige langfristige Trend sei im Gegenteil eine Erhöhung von 1,2% pro Jahr gewesen. Seit 2006 habe er +0,6% betragen – und dieser jährliche Verbrauchszuwachs von 0,6% sei auch unter der Annahme von weiterhin erzielbaren Effizienzfortschritten wegen der zunehmenden Anwendung elektrischer Energie auch das wahrscheinlichste Szenario für die Zukunft.

10. Fehlinvestitionen: Die Förderung des Ungeeigneten

Die ideologische Überbewertung der Stromerzeugung durch alle sogenannten erneuerbaren Energiequellen und die Vernachlässigung der Nutzung dieser Energiequellen für die Wärmeerzeugung führte zu einer extremen Fehlsteuerung, deren Kern das EEG-Gesetz ist. Milliarden Euro werden den Verbrauchern abgenommen und in unzuverlässige, unrentable und im Falle der großtechnischen Biogasproduktion sogar umweltschädliche Investitionen geleitet, die im Falle von Windkraft und Solarstrom nicht etwa der sicheren Stromversorgung dienen, sondern sie im Gegenteil noch gefährden. Anstatt diese gigantische Fehlinvestition zu beenden, wird sie verstärkt fortgeführt – siehe die Energiewende-Schwerpunkte – und zur Schadensbegrenzung sollen weitere Milliarden für einen zuvor vollkommen unnötigen riesigen Netzausbau und für die verschiedensten Stromspeicherkonzepte ausgegeben werden, von denen die meisten wegen extremer Kosten und ebenso extremer Verluste bereits als Pläne in den Papierkorb gehörten.

Eins der absurdesten Beispiele ist das Wasserstoff-Hybrid-Speicherkraftwerk, das vor kurzem in Prenzlau in Gegenwart von Ministerpräsident Michael Platzeck eingeweiht wurde.

Überschüssiger Windstrom wird darin zur Wasserstoff-Erzeugung benutzt;

danach wird mit dem gespeicherten Wasserstoff in einem Gasmotor wieder Strom erzeugt, der bei Bedarf ins Netz zurück gespeist wird. Die Presse berichtete begeistert; Zahlen zum Speicher-Wirkungsgrad der Anlage und zu den Kosten einer so gespeicherten Kilowattstunde gab es bezeichnenderweise nicht.

Eine Nachrechnung ergibt: Die Umwandlung des Windkraft-Wechselstroms in Gleichstrom für die Druckelektrolyse beschert 10% Verluste; die Wasserstofferzeugung durch Elektrolyse verursacht 25% Verluste und der Gasmotor, der wieder Strom aus dem Wasserstoff erzeugt, hat 70% Verluste. Das ergibt einen Gesamtverlust von mindestens 80% – wertlose Abwärme. Der verbliebene kleine Rest des ohnehin nicht billigen Windstroms ist dann nach dieser „Speicherung“ fünffach teurer geworden.

Diese Anlage ist deshalb kein Stromspeicher, sondern eine teure Energievernichtungsanlage.

Derartige Pläne haben Konjunktur; es gibt offenbar in den zuständigen Ministerien keine fachliche Kontrolle mehr, die diese politisch korrekten Projekte von ihrer Förderung fernhalten könnte.

Das Problem für die Regierung, die Derartiges mit Steuergeld unterstützt, ist die Physik. Sie ist weder durch Programmpapiere, noch durch Sonntagsreden oder Einweihungszeremonien zu beeinflussen. Der einzige Effekt derartiger Projekte ist ein positives Medienecho und ein kleiner Zeitgewinn – bis zur unausweichlichen Pleite, über die aber nicht mehr berichtet wird. Das scheint die Steuergelder wert zu sein.

Eine ernsthafte und ehrliche Energie- und Umweltpolitik

hätte die physikalisch-betriebswirtschaftliche Sackgasse der Stromerzeugung aus ungeeigneten Quellen vermieden und die regenerativen Energiequellen für den Wärmemarkt erschlossen: Solarthermie und die Nutzung von Erdwärme mittels Wärmepumpen hätten eine konsequente und wirkungsvolle Förderung verdient, was niemals geschehen ist. Auch die Fernwärmenutzung aus tiefen Erdschichten – an Stelle absurd unrentabler Geothermie-Kraftwerke (siehe Kap.9) – und die ausschließliche Biogaserzeugung aus verwertbaren Abfällen und nicht aus Feldfrüchten wäre Bestandteil jener Politik. Vorhandene Windkraft dürfte in diesem Pumpspeicher-armen Lande einzig zur Wasserstofferzeugung mit anschließender Verwertung als Brennstoff oder Chemierohstoff eingesetzt werden; neue Installationen müßten gesetzlich unterbunden werden.

Die Reihe der Beispiele für eine intelligente Verbesserung der Wärmebereitstellung ließe sich noch lange fortsetzen.

Und das würde direkt die teuren fossilen Öl- und Gasimporte treffen. Eine derartige konsequente Energiepolitik könnte sich „Kaizen“ nennen – der aus der Industrie bekannte japanische Begriff für „ständige Verbesserung“. Eine „Wende“ hingegen bedeutet eine 90- bis 180-Grad-Kursänderung; diese Bezeichnung war daher korrekt. Abrupte Wenden in der Energiepolitik aber kann die Wirtschaft eines Industrielandes nicht aushalten, erst recht nicht eine Wende mit den beschriebenen Defiziten.

11. Die Geister, die man gestern rief…

Viele Jahre lang wurden die Umweltverbände von den Regierungen mit großer Sympathie behandelt und ungezählte Forderungen wurden ihnen erfüllt. Vernünftiges und auch Unsinniges geschah. Gleichzeitig bildeten sich lokale und regionale Aktionsbündnisse, die Flugplatzerweiterungen, Atomabfall-Endlager, Straßenbauprojekte, Flußbegradigungen, Abholzungen, Sendemasten des Mobilfunks und vieles andere mehr bekämpften; oft mit beachtlichem Erfolg.

Die Bürger haben daraus gelernt,

daß sie recht wirksam unliebsame Entwicklungen in ihrer Umgebung verhindern können. Genau diese Fähigkeiten setzen sie seit einiger Zeit gegen nahezu alle Projekte ein, die jetzt zu wesentlichen Teilvorhaben der Energiewende ernannt worden sind:

Eine kaum übersehbare Anzahl von Bürgerinitiativen – inzwischen von den Medien als „Wutbürger“ bezeichnet – bekämpft Windkraftanlagen:

ArGe für eine windradfreie Heimat; Volksinitiative „Gegen Windräder“ mit 26 angeschlossenen Vereinen; Windkraftgegner; Gegenwind; Windwahn; NAEB; Epaw-Europäische Plattform gegen Windkraftanlagen; Bürgerinitiative „gegenwindlärm“; Sturm im Storm; Freier Wald e.V.; IG Sturmwind; Wind gegen Wind; Sturm gegen Wind u.v.a.m.

Auch die wenigen noch geplanten Pumpspeicher-Kraftwerke sehen sich dem Widerstand der Bürger gegenüber:

  • Atorf/Südschwarzwald: Der Schwarzwaldverein als Interessenvertreter der Bevölkerung hatte in den Anhörungen kritisiert, die “Region dürfe nicht bloß das Objekt für energiewirtschaftliche Ausbeutung werden.“ Der Kreisverband der B90/Die Grünen / Waldshut sprach sich gegen das Projekt aus.
  • Riedl/Bayern: Das Projekt ist politisch umstritten; eine Bürgerinitiative hat sich dagegen gebildet.
  • Blautal / Birkhau: Massive Bürgerproteste in Arnegg und Markbronn führten zu erheblichen Planungsänderungen – auch bezüglich des Ortes der Anlage. Zur Zeit werden Sicherheitsbedenken geltend gemacht; der Widerstand hält auch nach 6 Jahren an; ein Baubeginn ist nicht absehbar.

Eine Bürgerinitiative hat bislang erfolgreich die Errichtung einer Umrichterstation in Norddeutschland verhindert, die als deutscher Endpunkt am Seekabel nach Norwegen das Anzapfen der norwegischen Wasserkraftwerke für die Speicherung deutschen Windstroms möglich machen sollte. (Vgl. Kapitel 1 und Kapitel 9).

Massiven Widerstand gibt es bereits gegen jegliche neue Hochspannungs-Freileitungen.

Angst vor Elektrosmog, entwertete Grundstücke und verschandelte Natur führen die Bürgerinitiativen ins Feld. Das wird sich noch erheblich steigern, wenn die Pläne der Regierung zum Neubau von 3000 km Höchstspannungsleitungen von Nord- nach Süddeutschland verwirklicht werden sollen. Bisher sind davon nur 214realisiert worden. Siehe „Netz“-Kap.6.

Eine weitreichende Niederlage erlitt die Berliner Regierung mit ihrem Gesetzesvorstoß, der es ermöglichen sollte, in Kraftwerken abgetrenntes CO2 zunächst versuchsweise in ehemaligen Gasspeichern zu lagern. Der Bundesrat lehnte es ab und will auch nicht den Vermittlungsausschuß anrufen.

Grund für diese Ablehnung war die im Gesetz vorgesehene Klausel, die es jedem Bundesland ermöglicht hätte, auf seinem Territorium diese Technik zu erproben oder aber die Erprobung zu verbieten. Angesichts des sehr großen Widerstandes in den nördlichen Ländern – zahlreiche Bürgerinitiativen kämpfen dort gegen die Einlagerung des giftigen CO2 „unter ihren Füßen“ – wäre letzteres mit Sicherheit geschehen.

Bereits vor der Bundesrats-Abstimmung hatte es massive Proteste gegeben:

„Stoppt das CO2-Endlager“ stand auf ungezählten Autoaufklebern im Raum Flensburg und massenweise in friesischen Vorgärten, an der Nordseeküste in Schleswig-Holstein und Niedersachsen brannten Mahnfeuer. Die Initiatoren lehnten auch eine Speicherung vor der Küste ab, weil Experten davon ausgehen, daß sich eine CO2-Verpressung noch in 100 km Entfernung auswirken könnte.

Diese Ausstiegsklausel aber lehnte insbesondere Brandenburg ab, das in Jänschwalde den Bau einer große CCS-Pilotanlage von Vattenfall erhoffte, für deren CO2 dann aber wohl keinerlei unterirdische Speichermöglichkeit zu erwarten wäre. Vattenfall fürchtet nun, daß eine EU-Förderung wegzufallen droht.

Greenpeace zeigte sich über das Abstimmungsergebnis im Bundesrat erfreut.

Diese sog. CCS-Technik gilt nun als Voraussetzung, um in Deutschland Kohlekraftwerke auf Dauer wirtschaftlich betreiben zu können, da sonst CO2-Emissionsrechte an der Börse gekauft werden müssen. Das könnte alle Pläne zum Bau neuer Kohlekraftwerke, die die abgeschalteten Kernkraftwerke ersetzen sollen, verhindern. Damit wäre eine entscheidende Voraussetzung der sog. Energiewende entfallen.

Ob die sog. unkonventionellen Erdgasfunde (Shale-Gas; siehe Kap.13) in Europa innerhalb von 10 Jahren zu einem Sinken der Emissionsrechte-Preise und dann zu besseren Chancen für neue Kohle- und Gaskraftwerke – ohne CO2-Abtrennung – führen werden, ist ungewiss.

Auch gegen Photovoltaikanlagen gibt es Widerstand – und zwar aus den Reihen der Solarstrom-Befürworter selbst:

Die “kleinen Gebäudeanlagen”, die typischerweise auf Reihenhausdächern angebracht sind , wurden dramatisch durch wesentlich größere Freiflächenanlagen zurückgedrängt: Im Juli 2009 machten die Kleinanlagen nur noch 2% der installierten Leistung aus.

Dazu schrieb Wolf v. Fabeck, Geschäftsführer und Vorstandsmitglied des Solarenergie-Fördervereins Deutschland e.V. (SFV) am 21.9.2009:

“Hier setzt sich eine bedauerliche Fehlentwicklung fort.”

Der SFV lehne PV-Freiflächen aus folgenden Gründen ab :

  • Sie belegen unnötigerweise Landflächen und treiben damit in ihrer Weise die Zersiedelung der Landschaft weiter voran.
  • Freiflächen stehen in Konkurrenz zum Nahrungsmittelanbau.
  • Freiflächen fangen viel Sonnenenergie ab; diese fehlt dann bei der Photosynthese. Das Pflanzenwachstum unter den Solarmodulen bindet bei weitem nicht so viel CO2 aus der Atmosphäre, wie es ohne Abschattung binden könnte.
  • Als ökologisch bessere Alternative bietet sich die Nutzung der Windenergie an.
  • Durch die Zunahme der Freiflächen nimmt die Akzeptanz für die Photovoltaik in der Bevölkerung ab, wie einige Bürgerinitiativen gegen Freiflächen-Anlagen belegen.

Die Bürger haben leider von der Politik nicht nur das erfolgreiche Blockieren von Projekten gelernt, sondern auch die Verwendung irrealer technischer Vorschläge als Argumente.

So wird beispielsweise zur Vermeidung neuer Stromtrassen gefordert, die Drahtseile der vorhandenen Leitungen durch Hochtemperaturseile zu ersetzen, die mehr Strom transportieren können. Weiterhin wird der Einsatz der Hochspannungs-Gleichstromübertragung (HGÜ) gefordert, weil damit mehr Leistung über vorhandene Leitungen geschickt werden kann.

Genervte Vertreter der Netzbetreiber sehen sich in den Diskussionen vor Ort genötigt,

auf die offensichtliche Tatsache hinzuweisen, daß heiße Stromleitungen deshalb heiß sind, weil dort eine zu hohe Belastung zu hohen Verlusten führt. Im Übrigen gebe es dafür nicht einmal kommerzielle Systemanbieter, nur Seil-Lieferanten. Und die HGÜ sei nur für die Übertragung großer Leistungen über große Entfernungen zwischen zwei Punkten sinnvoll – und ein nur mit sehr teuren Umrichterstationen anzapfbarer Fremdkörper im Wechselstromnetz.

Sehr beliebte ist das Argument des Ersatzes der Freileitungen durch unterirdische Kabel. Unterirdische Hochspannungsleitungen stellen jedoch keine realistische Alternative dar: Auch sie brauchen breite Schneisen wie die Freileitungen, ihre elektromagnetischen Abstrahlungen („Elektrosmog“) sind die gleichen – und sie führen zu Bodenaustrocknung. Außerdem sind sie über größere Strecken unerprobt und zudem bis zu 8-fach teurer als Freileitungen.

Die Vertreter der Regierung lernen jetzt erneut,

was die Experten des Bundesforschungsministeriums bereits von 1975 – 1978 in den Diskussions- und Seminarveranstaltungen ihrer umfangreichen Aufklärungs- und Werbeaktion „Bürgerdialog Kernenergie“ erfahren hatten: Es ist unmöglich, Ängste durch Sachargumente erfolgreich zu bekämpfen.

12. Deutschlands Energiewende bedroht die Nachbarländer

Als die 8 deutschen Kernkraftwerke Mitte März 2011 mit einer Entscheidung der Regierung abgeschaltet wurden, wodurch eine Grundlast-Kapazität von 8.800 MW (Megawatt) mit einem Schlag ausfiel, geschah es ohne jede Vorwarnung oder gar Konsultation der Nachbarländer, obwohl klar war, daß diese von dem drastischen Eingriff in den europäischen Strommarkt erheblich betroffen sein würden.

Der Zeitpunkt war zufällig und vorübergehend günstig, denn am Beginn des Frühjahrs waren die Nachbarländer Frankreich und Tschechien gut in der Lage, das in Deutschland entstandene Leistungsdefizit mit Stromexporten zu füllen. Frankreich, das generell vom Frühjahr bis zum Herbst Strom exportiert, musste seit dem 15. März 2011 durchschnittlich 2.000 Megawatt (MW) mehr exportieren – und zwar nach Deutschland.

Frau Merkel hatte zuvor erklärt, daß Deutschland keinerlei Stromimporte benötigen würde. Tatsächlich sind es noch vor dem Winter 2011/2012 bis zu 4.000 MW geworden. Was die deutsche Regierung offensichtlich übersah – oder nicht wußte – war die völlig andere Situation Frankreichs in den Wintermonaten: In diesen wird das Land zum Stromimporteur, wobei die Höhe dieser Importe bei 2,500 MW im Mittel und bei 5.000 MW im Maximum liegt.

Die Zahlen belegen es:

Während der Grundlastbedarf im Sommer bei 32.000 MW im Mittel und der Spitzenbedarf bei 50.000 MW liegt, steigt die erforderliche Grundlast in den Wintermonaten auf 55.000 MW sowie auf enorme 95.000 MW im Maximum. Dieser beträchtliche Verbrauchsanstieg beruht darauf, daß französische Häuser meist elektrisch beheizt werden – weshalb Frankreich im Winter stets Strom bezog – auch aus Deutschland.

Nun braucht Deutschland im Winter selbst Stromimporte, und zwar viel mehr als noch im Sommer 2011. Frankreich wird also von Deutschland nichts mehr geliefert bekommen. Und umgekehrt aber Deutschland auch nichts mehr aus Frankreich. Deshalb hat nicht nur Deutschland im Winter 2011/2012 einen Stromengpass zu befürchten, sondern insbesondere Frankreich, wie der Stromkonzern EDF Anfang November warnte. Siehe auch die folgende Meldung:

Auch die Strombranche der Schweiz trifft nach einem Bericht der NZZ vom 26.11.2011 Vorbereitungen für Versorgungsengpässe in den kommenden Wintermonaten, wie der Betreiber des Hochspannungsnetzes Swissgrid im November bestätigte. In der 3. Novemberwoche hatte die europäische Netzbetreibervereinigung Entso-E einen Bericht publiziert, der die Auswirkungen des deutschen Atomausstiegs auf die Versorgungssicherheit erörtert.

Probleme könnten sich bei einer längeren Kälteperiode ergeben, erklärte Swissgrid-Sprecher Thomas Hegglin.

Laut Entso-E könnte es zu weiträumigen Engpässen kommen, wenn etwa Frankreich auf Importe aus Deutschland angewiesen sein würde, dort aber aufgrund des Abschaltens von 8 AKW nicht genügend Kapazitäten vorhanden wären. Das letzte Mittel seien gezielte Stromrationierungen.

Die Nachbarn beginnen sich bereits gegen die schädlichen Auswirkungen der rücksichtslosen deutschen Energiepolitik zu wehren, wie der SPIEGEL am 5.12.2011 berichtete:
In Warschau sorgt man sich, daß die polnischen Kraftwerke dem ständigen Hoch- und Herunterfahren nicht gewachsen seien und es durch einen unerwarteten Stromüberschuß sogar zu einem Blackout kommen könne. Deshalb sollen künftig sogenannte Phasenschieber den Stromfluß zwischen beiden Ländern unterbrechen. Überschuß-Strom müßte dann im deutschen Netz verteilt werden, was dort das Risiko von Stromausfällen vergrößern würde.
Stephan Kohler, der Chef der Deutschen Energie-Agentur Dena, sagte dazu: „Wenn überschüssiger Wind- und Solarstrom nicht mehr ins Ausland abgeführt werden kann, dann wird das deutsche Stromnetz instabiler.“ Er forderte die Bundesregierung auf, mit den Nachbarländern rasch Verhandlungen aufzunehmen, „um die Energiewende europäisch abzusichern.“

Die einseitige dramatische und abrupte Verringerung der deutschen Stromerzeugung hat also erwartungsgemäß zu größten Problemen im europäischen Verbund geführt und unabhängig von gefährlichen Stromengpässen steigen jetzt auch die Strompreise in unseren Nachbarländern. Sie dürfen Merkels Energiewende mitbezahlen. Sämtlichen Energiewirtschaftlern waren diese Folgen sofort klar. Der Regierung Merkel anscheinend nicht.

Daß die Handlungsweise der deutschen Regierung in den Nachbarländern als unsolidarisch und arrogant angesehen wird, bestätigen Landsleute, die mit dortigen Regierungsvertretern Kontakt haben.

„Wenn alle so reagieren würden, wie die Deutschen, wäre die Energieversorgung Europas gefährdet“

zitiert der Europaabgeordnete Holger Krahmer Stellungnahmen aus der holländischen Regierung.

Sollte es in Folge des deutschen Alleingangs zu wirtschaftlichen Schäden kommen, wird Deutschland vermutlich die Rechnung auf dem Wege über Brüssel präsentiert werden. Die Stellungnahmen der ausländischen Experten in der Umfrage des World Energy Council – siehe Kapitel 15 – belegen, daß sie alle sowohl Preissteigerungen als auch eine Gefährdung der Versorgungssicherheit in Europa als Folge der deutschen Kursänderung erwarten.

13. Globale Entwicklungen gehen in eine andere Richtung

Es gibt drei starke Trends in der Energiewirtschaft und der Energiepolitik des gesamten Auslands:

  1. Die weiterhin bestehende Dominanz der Kohleverstromung,
  2. die weltweite Renaissance der Kernenergie,
  3. die Erschließung der gewaltigen neuen Erdgasquellen (Shale Gas).

Kohleverstromung:

Die Kohleverstromung muß Deutschland angesichts des Kernkraft-Ausstiegs wieder erheblich ausbauen – ohne CO2-Abscheidung. Selbst das ist jetzt durch die jahrelange und sehr erfolgreiche Klimakatastrophen-Propaganda mit der Kohle als gefährlichstem Primärenergieträger von erheblichen Unsicherheiten gekennzeichnet, wie oben ausgeführt wurde.

Diese Form der Stromerzeugung kommt jedoch bald unter starken Druck durch die neuen Erdgasvorkommen, wobei Deutschland vermutlich eher spät dazu kommt– s.u.

Kernkraft:

Im Gegensatz zu Deutschland läuft im Rest der Welt weiterhin eine mächtige Aktivität zur Verstärkung und auch insbesondere zur erstmaligen Einführung dieser Technologie.

Zahlreiche innovative Neuentwicklungen verbreiten das Anwendungsfeld der Nukleartechnik auf sämtliche Bereiche der Energieanwendung. Zu erwähnen ist insbesondere die Entwicklung von Kleinreaktoren, die der Nukleartechnik sehr große neue Anwendungsfelder eröffnen

Ein kurzer Überblick:

  • Ende 2010 wurden in 30 Ländern insgesamt 443 Kernkraftwerke (6 Blöcke mehr als am 31.12.2009) mit einer Nettoleistung von 376 GW (376.000 MW) betrieben, die damit um ca. 5 GW über dem Vorjahreswert lag.
  • 6 Kernkraftwerke haben 2010 den Betrieb neu aufgenommen.
  • Ende 2010 gab es 62 aktive Bauprojekte in 15 Ländern für KKW – das sind 9 im Bau befindliche Blöcke mehr als im Vorjahr: (Argentinien:1; Brasilien:1; Bulgarien:2; China:27; Finnland:1; Frankreich:1; Indien:5; Iran:1; Japan:2; Südkorea:5; Pakistan:1; Russland:10; Slowakische Republik:2; Taiwan:2; USA:1).
  • Im fortgeschrittenen Planungsstadium befanden sich Ende 2010 in 20 Ländern 102 KKW-Blöcke. Weitere sind in der Vorplanung.

Mit seinem Ausstiegsbeschluß und der sofortigen Stillegung von 8 Kernkraftwerken mit 8.800 MW Leistung befindet sich Deutschland allein in der Welt. Insbesondere die Schwellenländer haben einen derart großen Bedarf an elektrischer Energie, daß sie nur zwischen Kohlestrom und Kernkraftstrom wählen können. Die größten dieser Länder – China und Indien – haben beide Optionen gewählt und sind inzwischen selbst zu den dynamischsten Entwicklern modernster Nukleartechnik herangereift.

Shale-Gas (Unkonventionelle Gasvorkommen (Quelle: Wikipedia):

Die neue Bohr- und Erschließungstechnologie für die riesigen, lange bekannten, bislang unzugänglichen Shale-Gas-(Schiefergas)-Vorkommen hat in den letzten Jahren eine Revolution auf dem Weltenergiemarkt ausgelöst. Die Internationale Energieagentur rechnet mit Vorräten in der Höhe des 250-fachen Jahresverbrauchs in der Welt.

Bereits jetzt decken die USA, wo Shale-Gas in großem Stil gefördert wird, inzwischen ihren Gasbedarf aus eigenen Quellen und beginnen mit Erdgasexporten. Amerika hat inzwischen Russland als weltgrößten Gasproduzenten abgelöst. Es gibt dort ca. 3000 Bohrungen für Erdgas, monatlich kommen ca. 135 hinzu.

Exxon Mobile erwartet in einer neuen Prognose, daß Erdgas bis 2030 die Kohle als wichtigsten Stromlieferanten verdrängen wird. Vermutete Vorkommen von „unkonventionellem“ (Shale-Gas) und konventionellem Erdgas:

  • Konventionell: 241 Billionen Kubikmeter

  • Unkonventionell: 1720 Billionen Kubikmeter, davon Europa 84.

In NRW werden die zweitgrößten Vorkommen Europas vermutet. In NRW und Niedersachsen suchen etwa zwei Dutzend Konzerne nach wirtschaftlichen Vorkommen. Es wird jedoch noch Jahre dauern, bis die Daten aus den Probebohrungen ausgewertet sind. In Polen haben die Behörden in den vergangenen 2 Jahren 70 Konzessionen für Probebohrungen vergeben. Bereits jetzt haben sich Bürgerinitiativen im Emsland und in NRW gegen die Probebohrungen gebildet. Man befürchtet Umweltgefahren, z.B. eine Beeinträchtigung des Trinkwassers.

Der an der Rockefeller Universität in New York tätige Umweltforscher Jesse Ausubel sagte zu Shale-Gas in einem Interview im Jahre 2010:

„Es ist nicht aufzuhalten. Gas wird der in der Welt dominierende Energieträger für den größeren Teil der kommenden hundert Jahre werden. Kohle und die Erneuerbaren werden verdrängt, während Öl hauptsächlich für den Transport verwendet wird. Selbst Kernkraft wird sich verzögern.“

Und der britische Journalist Matt Ridley schrieb 2011:

„Das Beste am billigen Gas sind jene, denen es Kummer macht. Die Russen und die Iraner hassen es, weil sie glaubten, daß sie den Gasmarkt in den kommenden Dekaden kontrollieren würden. Die Grünen hassen es, weil es ihr Argument zerstört, daß die fossilen Energieträger immer teurer werden würden, bis schließlich Wind- und Solarkraft konkurrenzfähig geworden sind. Das gilt auch für die Nuklearindustrie. Der große Verlierer aber wird die Kohle sein.“

Nicht verwunderlich, daß eine seltsame Allianz von Grünen, Kohlewirtschaft, Kernkraftindustrie und konventionellen Gaserzeugern mit Umweltargumenten gegen die Shelf-Gas-Gewinnung arbeitet. In Deutschland war das sicher zu erwarten; zum Ärger dieser Kritiker haben jedoch Vertreter Niedersachsens trocken mitgeteilt, daß sie die vorgetragenen Sorgen nicht teilen, da sie selbst viele Jahre lang Erfahrungen mit den benutzten Techniken haben, und zwar ohne Probleme.

Interessant wird die Haltung der Rot-Grünen NRW-Landesregierung

zu der Erschließung der im Lande liegenden Vorkommen sein: Die Grünen sicherlich dagegen, auch wenn sie bisher immer Erdgas als wünschenswerte und klimafreundliche Alternative zur Kohle herausstellten; die SPD wird wohl mit freudiger Erwartung auf die zusätzlichen Steuereinnahmen blicken. In unseren ebenfalls Shale-Gas-begünstigten Nachbarländern – insbesondere Polen – wird man hingegen diesen unverhofften Energiesegen nach Kräften nutzen.

Die deutsche Haltung wird somit voraussichtlich eine Mischung aus Förderung hier und Eiertanz dort werden, mit dem gemeinsamen Merkmal, daß es auf jeden Fall länger dauert als bei den Nachbarn.

Gaskraftwerke mit ihren sehr hohen Brennstoffkosten – der Gaspreis macht 74% der Stromerzeugungskosten eines modernen GuD-Kraftwerks aus – würden dann deutlich billiger Strom erzeugen können und mindestens in die Mittellasterzeugung vordringen. Die Heizungskosten würden beträchtlich sinken und der Erdgasantrieb im Transportsektor würde attraktiver.

Weil bei der Verbrennung von Gas nur halb so viel CO2 entsteht,

wie bei Kohle, wird der neue Boom Folgen für den Emissionshandel haben. Die Preise für „Verschmutzungsrechte“ dürften sinken und das wiederum hätte Folgen für die „erneuerbaren“ Energien: Je stärker die Preise von CO2-Rechten sinken, desto schwerer kann Wind- und Solarstrom im Wettbewerb bestehen. Man würde sich dann wohl fragen, wozu man eigentlich die vielen teuren Windräder und Photovoltaikanlagen errichtet hat.

Eine Energiewende hätte man dann tatsächlich, aber ganz anders als es die Regierung geplant hatte. Ob sie diese Entwicklung ebenso wie das übrige Ausland als große Chance begreift, ist angesichts ihres bisherigen planlosen energiepolitischen Zickzackkurses keineswegs sicher.

14. Für die Bürger wird es immer teurer

Es ist eine eiserne Regel der Marktwirtschaft, die auch für Ideologen, Weltverbesserer oder Zwangsbeglücker gilt: Verstöße gegen die Prinzipien der Wirtschaftlichkeit werden durch Preiserhöhungen bestraft. Die deutsche Energiepolitik der letzten und der gegenwärtigen Regierung führt exakt zu diesem Ergebnis.

Die Energiewende von Frau Merkel ist im Grunde nichts anderes als die konsequente Fortsetzung der Energiepolitik der rot-grünen Vorgängerregierung. Deren stärkste Waffe war dabei das Erneuerbare-Energien-Gesetz (EEG) vom 1. April 2000. Es ist nach wie vor in Kraft.

Der durch das EEG bewirkte Zuwachs an Windkraft-, Photovoltaik- und Biogasanlagen, deren Stromerzeugung von den Netzbetreibern vorrangig angenommen und mit den bekannten hohen Einspeisevergütungen bezahlt werden muß, führt zu beständig steigenden Strompreisen, weil diese Kosten auf die Verbraucher abgewälzt werden dürfen.

Im EEG-Erfahrungsbericht 2011 des BMU sind nahezu selbstkritische Töne zu finden:

„Die Vergütungszahlungen im Rahmen des EEG beliefen sich 2010……auf über 12 Mrd. €….. Hier ist es in den letzten Jahren zu Fehlentwicklungen gekommen.“

Und zum Thema Strompreise liest man:

„Insgesamt stieg seit dem Jahr 2000 die durchschnittliche Vergütung für Strom aus (allen) erneuerbaren Energien von 8,5 Cent / kWh auf voraussichtlich 15,5 Cent / kWh (2010) an. Diese Entwicklung mußte dringend gestoppt werden.“

Sie wurde aber nicht gestoppt, wie die folgenden Ausführungen zeigen.

Die Folgen des Erneuerbare-Energien-Gesetzes.

Die folgenden Angaben stammen aus der Veröffentlichung vom 15.10.2010 der 4 Übertragungsnetz-Betreiber (ÜNB), die per Gesetz verpflichtet sind, jeweils am 15.10. eines Kalenderjahres die EEG-Umlage – das sind die durch das EEG verursachten Mehrkosten, die den Endverbrauchern aufgebürdet werden – für das folgende Jahr zu ermitteln:

„Die ÜNB haben…auf Basis von Prognosen unabhängiger Gutachter für 2011 eine EEG-Einspeisevergütung in Höhe von 16,7 Mrd. € ermittelt. (Anm.: Davon gehen unglaubliche 8,38 Mrd. € an die Photovoltaik-Betreiber, die aber nur klägliche 1,9% der deutschen Stromerzeugung beisteuern.) Der prognostizierte Gegenwert des eingespeisten Stroms liegt bei 4,7 Mrd. €. Zusätzlicher Differenzbetrag (aus 3 Quartalen von 2010): 1,1 Mrd. €. Insgesamt werden somit rund 13 Mrd. € über die EEG-Umlage refinanziert.“

Dies ist die Summe, die die Endverbraucher zusätzlich für den grünen Strom aufzubringen haben.

„Wie die 4 ÜNB mitteilen, bedeutet dies im Jahre 2011 eine Belastung von 3,530 Cent pro kWh. Für das Jahr 2010 betrug die EEG-Umlage 2,047 Cent pro kWh.“

Das ist eine Steigerung von 73% in nur einem Jahr. Das bedeutet für einen Haushalt mit einem Jahresverbrauch von 2500 kWh: 88 € Mehrkosten durch das EEG im Jahre 2011 gegenüber 51 € im Jahre 2010. Wesentlich interessanter ist aber die Vorhersage für 2012. Die Bundeskanzlerin hatte noch im Sommer 2011 erklärt:

„Die EEG-Umlage soll nicht über ihre heutige Größenordnung hinaus steigen. Heute liegt sie bei etwa 3,5 Cent / kWh.“

Umweltminister Röttgen versprach das Gleiche.

Für 2012 hatte die Bundesnetzagentur anschließend angekündigt, daß die EEG-Umlage bei 3,6 Cent / kWh liegen werde. Nun zeigt die neue Prognose der Netzbetreiber vom 15.10.2011 für das Jahr 2012,

„daß die Bandbreite der Ökostrom-Umlage zwischen 3,66 und 4,74 Cent / kWh liegen wird.“

Auch die Deutsche Energie-Agentur Dena widersprach Anfang Dezember:

„Es wird nicht gelingen, die EEG-Umlage auf etwa 3,5 Cent pro Kilowattstunde zu begrenzen,“

sagte Dena-Chef Stephan Kohler der „Frankfurter Rundschau“.

Laut Kohler ergeben Dena-Berechnungen, daß die Umlage 2013 bereits knapp unter 4 Cent und 2020 bei 5 bis 5,5 Cent liegen wird. Für einen 3-Personen-Haushalt bedeutet das ca. 210 Euro Mehrkosten.

„Diese Prognose zeigt eindeutig, wer die Kostentreiber der Energiewende sind,“

sagte dazu Holger Krawinkel des Verbraucherzentralen-Bundesverbandes.

Die Mieter trifft die Energiewende doppelt

Das Gesetz zur Energieeinsparung in Gebäuden hat sich zu einer ernsten finanziellen Bedrohung für die Mieter entwickelt. Denn zu den ständig steigenden Stromkosten kommt im Falle einer Energiesanierung eines Miethauses eine kräftige Mieterhöhung hinzu. „Mieter zahlen für die Energiewende drauf,“ sagte Mieterbundchef Bernhard von Grünberg dem Bonner Generalanzeiger.

Nach geltendem Recht können Vermieter elf Prozent der Modernisierungskosten auf die Jahresmiete aufschlagen. Im Schnitt steigt die Miete nach einer Energiesanierung um 2,40 € pro qm, die Energieersparnis aber beträgt nur 50 Cent. „Die Miete steigt real um 1,90 € pro Quadratmeter,“ rechnet Grünberg vor.

Der NRW-Mieterbund lehnt den Kabinettsentwurf der Mietrechtsreform des Bundes mit der weiterhin enthaltenen 11-Prozent-Kostenumlage auf die Mieten ab.

Die Wohnungsgesellschaft LEG hat in Ratingen festgestellt, daß viele Rentner wegen der gestiegenen Heizkosten ihre Heizung nicht mehr einschalten.

Inzwischen wird die Forderung nach Sozialtarifen für einkommensschwache Verbraucher erhoben und von der Politik – noch – abgelehnt.

Weitere Strompreiserhöhungen drohen durch die 2011 beschlossenen Energiewende-Pläne sowie durch die Umsetzung einiger bereits 2010 eingeleiteter Vorhaben:

  • Die Abschaltung von 8 Kernkraftwerken entzog dem europäischen Stromverbund schlagartig 9000 MW Grundlast. Der Strompreis stieg sofort an der Börse. Schätzungen belaufen sich auf +20% – und nicht nur für Deutschland. Die Netzbetreiber – s.o. – konnten das bei ihrer Prognose vom Oktober 2010 noch nicht einbeziehen.

  • Eine große Zahl von energieintensiven Unternehmen hat – unbemerkt bei der Verkündung der Energiewende – von der Regierung eine weitgehende Befreiung von den Netzentgelten zugestanden erhalten. Mit der Überwälzung der dort eingesparten Kosten wieder auf die Endverbraucher. Auch das kommt noch hinzu.

  • Falls der riesenhafte geplante Ausbau des Höchstspannungsnetzes tatsächlich in Gang kommt – vieles spricht dagegen – dann werden alle damit verbundenen Kosten auf den Strompreis draufgepackt.

  • Der Ausbau von Windkraft – speziell die teure Offshore-Windkraft – und von Photovoltaik und Biogaserzeugung geht unvermindert weiter. Nur bei der Photovoltaik voraussichtlich langsamer, aber wegen ihrer hohen Kosten weiterhin preistreibend. Damit steigt die EEG-Umlage weiter.

  • Es ist zu erwarten, daß die Regierung in Anbetracht der Unwilligkeit der Kraftwerksbetreiber, neue Gaskraftwerke zu bauen, dies mit Steuergeldern und Steuerermäßigungen anregt, da sich Gaskraftwerke als einzige fossile Kraftwerke der Sympathie der Regierung erfreuen. Leider ist der von ihnen erzeugte Strom wegen der hohen Gaspreise sehr teuer. Dann zahlen die Bürger wieder mehr.

  • Falls es der Regierung wider Erwarten gelingen sollte, Zugang zu norwegischen Wasserkraftwerken als Speicher für Überschuß-Windstrom zu erlangen, wird Windstrom teurer. Dann steigt die EEG-Umlage.

  • Es ist zu befürchten, daß die weiter zunehmende und in der Fläche verteilte Photovoltaik die bereits sichtbaren Netzprobleme in der regionalen Mittelspannungs-Ebene derart verschärft, daß zusätzlich zu den ohnehin geplanten 3000 oder 4400 km Hochspannungstrassen noch ein starker Ausbau der regionalen Stromleitungen nötig wird. Diese Netze sind nicht auf viele Einspeiser ausgelegt, die Sonnenlicht-abhängig je nach Wetterlage kurzfristig extreme Leistungsspitzen erzeugen können. Die Verbraucher werden das dann ebenfalls zu bezahlen haben.

Eine deutliche Warnung vor den dramatischen Folgen des steigenden Strompreises für Deutschland gab es mehrfach im Jahre 2011 von EU-Energiekommissar Günther Oettinger. Hohe Energiekosten gefährdeten nicht nur den Wirtschaftsstandort, sondern auch den sozialen Frieden, wenn ein Teil der Menschen die Stromrechnung nicht mehr bezahlen könne.

“Ich bin überrascht, wie gedankenlos die Entwicklung der Strompreise hingenommen wird,”

sagte Oettinger. Deutschland zähle weltweit zu der Spitzengruppe bei den Strompreisen.

Die im Kapitel 16 „Die Planwirtschaft ist Realität“ aufgelisteten staatlichen Eingriffe in den Energiesektor sind ausnahmslos preistreibend, weil gegen den freien Markt gerichtet und stellen deshalb zugleich eine Auflistung der vielen Komponenten dar, die den Bürgern eine nicht enden wollende Kette von Strompreiserhöhungen bescheren werden.

Alle in den obigen Ausführungen beschriebenen, den Strompreis kräftig in die Höhe treibenden Handlungen der Regierung werden aber von einem Ereignis in den Schatten gestellt, das am 1.1.2013 eintritt.

An diesem Tag beginnt die Versteigerung der Emissionszertifikate, die der Industrie bislang zugeteilt wurden. Nach einer Schätzung des Energiefachmanns Dr. Alfred Richmann, Meckenheim, wird der Strompreis „über Nacht“ um ca. 50% steigen.

Daß diese Zertifikate die Emissionen in der EU um keine einzige Tonne reduzieren können, weil sie nur für die Umverteilung von Emissionen zwischen Ländern und Industrien sorgen, wie schon mehrfach aber erfolglos von Fachleuten bekräftigt wurde, ist nur eine weitere Absurdität in der Energie- und „Klimaschutz“-Politik der EU – und natürlich auch Deutschlands.

Inzwischen streiten sich bereits zwei Bundesministerien über den Ausbau der fossilen Kraftwerke und die zu befürchtenden Strompreis-Erhöhungen:
Mitte Dezember 2011  berichtete der SPIEGEL daß der für die Energiepolitik zuständige Bundeswirtschaftsminister Philipp Rösler „stärker als bisher geplant in zusätzliche Kohle- und Gaskraftwerke investieren“ wolle. (Gemeint war wohl, daß er entsprechende Investitionen befürwortet, denn investieren kann das BMWi nichts.)
Laut SPIEGEL sei in einem BMWi-Papier  von „circa 17 neuen Großkraftwerken bis zum Jahr 2022“ die Rede. Weiter hieße es dort: „Fossile Kraftwerke sind essenziell für eine sichere Energieversorgung“, denn diese müßten die wegfallenden Atomkraftwerke ersetzen und die schwankende Stromerzeugung aus Wind und Sonne ausgleichen.

Dem widersprach sofort der unzuständige aber intensiv mit dem Segen der Kanzlerin Energiepolitik betreibende Bundesumweltminister Norbert Röttgen, der die Existenz von Engpässen in der Erzeugungskapazität bestritt. Bei Kraftwerkskapazitäten gebe es bis 2020 „kein Problem.“ Es dürften nur die bereits beantragten oder im Bau befindlichen Kohlekraftwerke in Betrieb gehen.
Röttgen bezeichnete Warnungen vor einem „Blackout“ ebenso als Horrorszenario wie jene vor explodierenden Strompreisen.

Damit hat man ein halbes Jahr nach Verkündung der Energiewende ein zutreffendes Bild von der Arbeit der Regierung an ihrer Umsetzung.

Wie es selbst bei den bereits geplanten und vorübergehend im Bau befindlichen Kohlekraftwerken tatsächlich aussieht, ist für das Kohleland NRW im Kap. 8 (Das stille Ende großer Ankündigungen) beschrieben.

15. Ein internationales Urteil

Das World Energy Council – der Weltenergierat – ist das größte internationale Netzwerk der Energiewirtschaft. Seit über 80 Jahren besteht er in fast 100 Ländern. Es war dem World Energy Council vorbehalten, am 10. Oktober 2011 das Ergebnis einer internationalen Expertenbefragung zur deutschen Energiewende zu präsentieren; eine Befragung, die die deutsche Regierung besser selbst durchgeführt hätte, und zwar rechtzeitig vor der Verkündung ihrer dramatischen Politikänderung.

Die Umfrage erfolgte unter den mehr als 90 Länderkomitees. Grundlage der Ergebnisse sind Antworten aus den Rückläufen: Von Experten aus 21 Länderkomitees des World Energy Council, darunter 14 aus Europa.

Die wesentlichen Ergebnisse sind:

  • Keiner der befragten Experten erwartet, daß Deutschland sämtliche Ziele der Energiewende in der anvisierten Frist erreichen kann.
  • Nur 38% trauen Deutschland zu, einzelne Ziele – und zwar verspätet – zu erreichen.
  • Nur 29% schätzen, daß alle Ziele – verspätet – erreicht werden können.
  • Bis 2020 erwarten 76% der Experten eine Schwächung der Wirtschaftskraft Deutschlands.
  • Auch längerfristig – nach 2020 – erwarten 48% eine solche Schwächung. Nur 33% erwarten eine Stärkung.
  • Der weit überwiegende Teil der Befragten – 71% – erwartet Preissteigerungen für Strom im eigenen Land
  • 29% der Befragten erwarten Strompreiserhöhungen von bis zu 10%
  • 24% erwarten Strompreiserhöhungen zwischen 10 und 20%
  • und einige Länder – 14% – gehen sogar von Preissteigerungen über 20% aus.
  • Knapp zwei Drittel – 62% – der Befragten sehen erhöhte Gefahren für die Versorgungssicherheit Europas.
  • 81% der befragten Länder lehnen den deutschen Weg als Vorbild für die Welt ab.
  • Keiner der Experten hält es für vorstellbar, daß sein Land den deutschen Politikansatz vollständig übernehmen könnte.
  • 62% können sich vorstellen, einzelne Elemente der Energiewende zu übernehmen. 33% kein einziges Element.

Dieses Gutachten der internationalen Energieexperten ist vernichtend.

17. Die Planwirtschaft ist Realität

Von vielen Autoren der Wirtschaftspresse ist bereits harte Kritik daran geübt worden, daß im Energiesektor immer mehr marktwirtschaftliche Grundprinzipien, die bisher den Erfolg der Industrienation Deutschland herbeiführten, von der Regierung missachtet und durch politisch motivierte Verletzungen dieser Prinzipien ersetzt werden.

Die Liste dieser Verstöße ist inzwischen lang:

  1. Das EEG, also die extreme Zwangssubventionierung unwirtschaftlicher und auch technisch ungeeigneter Methoden der Stromerzeugung – verbunden mit dem Zwang, den so erzeugten Strom vorrangig ins Netz einzuspeisen und seinen Weiterverkauf notfalls noch zusätzlich zu bezahlen

  2. Entschädigungs-Verpflichtung für die Nicht-Produktion eines Wirtschaftsgutes – s. §12 EEG.

  3. Die mit Angstszenarien begründete Stilllegung einer großen Grundlast-Stromerzeugung (Kernkraft) mit der Folge von Preissteigerungen – auch im Ausland – und Versorgungsengpässen.

  4. Gewaltiger, teurer Ausbau der Stromnetze, der ohne die Fehlentscheidung der Bevorzugung unrentabler Erzeugungstechniken – s. Punkt 1 – überhaupt nicht notwendig wäre.

  5. Entlastung von energieintensiven Produktionen von den durch die EEG-Fehlsteuerung verursachten Strompreiserhöhungen – und deren Überwälzung auf die übrigen Verbraucher.

  6. Geplante neue Subventionen, um weitere Folgen der Fehlsteuerung durch das EEG und den Kernkraftausstieg zu bekämpfen: Die Bevorzugung von Wind- und Solarstrom macht die jetzt benötigten neuen Kohle- und Gaskraftwerke unrentabel, weshalb sich Investoren zurückhalten. Die Gaswirtschaft betonte, daß sich auch der Betrieb der zum schnellen Ausregeln der Netzschwankungen geeigneten Gasturbinenkraftwerke wegen der hohen Gaspreise nicht rentiere. Deshalb hat die Bundesregierung einen Investitionskostenzuschuss für neue fossile Kraftwerke im Zeitraum 2013-2016 in Aussicht gestellt und steht hierzu in Verhandlungen mit der EU.

  7. Stromspeicher werden im Ausland gesucht – so die per Seekabel teuer anzuschließenden Pumpspeicherwerke Norwegens – weil nicht benötigter, überschüssiger Windstrom zwischengespeichert werden muß. Fördermittel fließen in neue Speicherprojekte. Ohne die Fehlsteuerung durch das EEG hätten die vorhandenen Pumpspeicherwerke weiterhin ausgereicht.

  8. Durch die Energieeinsparverordnung werden Hausbesitzer zur energetischen Sanierung und Nachrüstung gezwungen. Auch wenn sie das nicht wünschen. Sie dürfen die Kosten auf die Mieter umlegen.

  9. Für Neubauten ist bereits die Installierung der sog. intelligenten Stromzähler vorgeschrieben. Ein Zwang für alle Verbraucher, diese Geräte anzuschaffen, ist angesichts der die Bürger bevormundenden Energiepolitik zu erwarten.

  10. In Baden-Württemberg wurden Hausbesitzer bereits gesetzlich verpflichtet, bei einer Modernisierung ihrer Heizungsanlage eine anteilige Versorgung durch „Erneuerbare Energie“ sicherzustellen.

  11. Der staatliche Geldregen für Energiewende-Reparaturmaßnahmen lockt nun auch weitere Interessenten hervor: Auf der Energiespeicher-Konferenz IHRES in Berlin wurde ein Einspeisegesetz á la EEG auch für Energiespeicher, die das Netz stabilisieren sollen, gefordert. Auch Investitionszuschüsse seien geeignet….

Das durchgängige Prinzip dieser Politik ist es, den Energiesektor zunehmend aus der Marktwirtschaft herauszulösen und sowohl die Wirtschaft wie auch die Bürger durch Gesetze und Verordnungen zu einem geänderten Verhalten zu zwingen – selbstverständlich nur zu ihrem Besten.

Die Geschichte zeigt ausnahmslos,

daß eine derartige Politik, die nichts anderes als Planwirtschaft ist, mit Sicherheit scheitert. Die unvermeidliche Folge sind riesige Fehlinvestitionen, die Verhinderung wirtschaftlicher Weiterentwicklung und die Ausplünderung der Bürger – insgesamt eine Verarmung des Landes und eine Absenkung seiner Wettbewerbsfähigkeit.

Das abschreckendste Beispiel für eine schon lange existierende Planwirtschaft in Westeuropa ist natürlich der reglementierte, subventionierte und riesige Kosten verursachende Agrarsektor.

Umso merkwürdiger, daß selbst eine von CDU/CSU und FDP getragene Regierung diese Demontage der Marktwirtschaft nach Kräften vorantreibt.

18. Wie geht es weiter?

Die Feststellung, daß buchstäblich alle in den Energiewende-Gesetzen angestrebten Ziele nicht erreichbar sind, bedeutet, daß dieser energiepolitische Kurswechsel bereits jetzt gescheitert ist. In keinem der für die sichere Stromversorgung relevanten Themenfelder bestehen auch nur geringe Erfolgschancen für die Zielerreichung.

Das erklärt das vernichtende Urteil der internationalen Experten, die unbeeinflusst von deutschen Fördermitteln und unbeeindruckt von deutscher Medienpropaganda allein auf der Grundlage ihres Sachverstandes und ihrer Erfahrung ihr Urteil fällten.

Die Frage der Kapitelüberschrift ist leider nicht zu beantworten. Die deutsche Energiepolitik ist dermaßen erratisch, von Tagespolitik bestimmt und deshalb auch für unsere Nachbarländer unberechenbar und verantwortungslos geworden, daß jegliche Prognosen, die sich altmodisch auf das Fortschreiben notwendiger, sinnvoller und realistischer Entwicklungen abstützen, unmöglich sind.

Für die Deutschen und ihre Nachbarn sind das keine schönen Aussichten.

Die folgende Prognose ist jedoch zwingend: Die im Energiesektor ausufernde, die Wirtschaft schwer schädigende Plan-Misswirtschaft wird nach einigen Jahren spektakulär scheitern, weil ihre wirtschaftlichen und sozialen Kosten untragbar geworden sind. Die offene Frage ist nur, wie viele Milliarden Euro erst vernichtet werden müssen, bis eine neue Energiepolitik (eine neue Energiewende ?) den Scherbenhaufen zusammenkehrt.

Professor Helmut Alt von der FH Aachen hat die finale Auswirkung der deutschen Energiepolitik in einem Satz zusammengefasst:

„Die deutsche Politik hat Energie zum Luxusgut erklärt. Die Ärmsten werden es zuerst zu spüren bekommen, aber die haben keine Lobby.“

Und ein amerikanischer Präsident hat einmal den dauerhaft gültigen Satz gesagt:

„It´s the economy, stupid !“ Es ist die Wirtschaft, Dummkopf.

Dr.Günther Keil,

Sankt Augustin, Dezember 2011, mit Update vom 4.1.12

zuerst erschienen bei Science Sceptical

Der Aufsatz ist wegen seiner Bedeutung sowohl als pdf abrufbar auch als Lesezeichen markiert!

Unbedingt lesen:

Teure Grünstrom-Euphorie:Die Kosten der Energiewende
Manuel Frondel, Nolan Ritter und Christoph M. Schmidt

Related Files




Climategate: Obamas Erfüllungsgehilfen schlagen zurück

Um Ihnen einen Hinweis zu geben, wie Tallbloke das aufgenommen hat – Folgendes hatte er dazu bei Climateaudit gesagt: „Der Inspektor und seine Kollegen waren höflich, hatten gute Manieren und haben nicht überreagiert, als ich es ablehnte, ihnen mein Passwort zu verraten. Ich habe sie höflich darauf hingewiesen, dass sie einen Durchsuchungsbefehl für mein Haus, aber nicht für meinen Kopf haben“.

Aber nein: Es scheint, dass der eigentliche Anstifter dieses ärgerlichen Machtmissbrauchs einer eigenmächtigen Behörde niemand anders als Präsident Obama gewesen sein könnte.

Chris Horner hat die Faktenlage im Washington Examiner wie folgt beschrieben:

„Ich habe offensichtliche Beweise gesehen, dass die Justizbehörde in den USA (DOJ), Abteilung Kriminalität, mit der Polizei in UK zusammenarbeitet, um den Whistleblower der Klimagate – E-Mails aus den Jahren 2009 und 2011 zu verfolgen.

Ich habe erfahren, dass das DOJ einen Durchsuchungs- und Festsetzungsauftrag für die Betreiber von drei ‚skeptischen’ Blogs der Klimaänderung verschickt hat. Während der vergangenen Nacht hat die Polizei in UK die Wohnung eines Bloggers durchsucht und Computer und Ausrüstung beschlagnahmt.

Am 9. Dezember hat das DOJ einen Schutzbrief unter 18 U.S.C 2703(f) an den Betreiber der Website WordPress gesandt. Diese Behörde autorisiert die Regierung, einen Internetprovider (ISP) anzuweisen, alle Aufzeichnungen eines speziellen Kontos 90 Tage lang aufzuheben, während die Polizei eine Vollmacht ausarbeitet.

Das Polizeirevier Norfolk hat sich darauf zumindest in einem Fall ihrer Razzien bezogen, wonach diese internationale Strafverfolgung dem Whistleblower galt und nicht den Aktivitäten der Personen, die der Whistleblower durch die Veröffentlichung von E-Mails bloßgestellt hatte, obwohl in den E-Mails diese Aktionen von den Urhebern in ihren eigenen Worten beschrieben worden waren.“ [So weit Chris Horner].

Dieser letzte Absatz von Horner richtet sich an ein Rätsel, welches nicht Wenige von uns zu schaffen machte, nämlich: Warum werden all diese öffentlichen Mittel verschwendet für die Verfolgung von jemandem, der keinerlei Anlass zu Antworten hat, selbst wenn die Polizei ihn in die Finger bekommt. Wenn ein Whistleblower im öffentlichen Interesse interne Informationen – wie es Climategate und Climategate 2,0 eindeutig sind – bekannt macht, ist er so ziemlich immun gegen Verfolgung  (Public Interest Disclosure Act 1998).

Sicher, wenn man den Schiebern an der Universität für leichten Zugang [unübersetzbares Wortspiel. „University of Easy Access“ soll auf die „University of East Anglia” {UEA} anspielen. A. d. Übers.] zuhört oder den fuchsteufelswütenden Propagandisten auf Komödien-Websites wie RealClimate oder den freigiebig bezahlten Paläopiezometristen [palaeopiezometrists ?] wie Bob Ward, dann, ja dann sind die Climategate und Climategate 2,0 – E-Mails „gestohlen“ worden. Aber kein ernstzunehmender Mensch glaubt das. Die Bezeichnung „gestohlen“ war nichts als ein schäbiger Trick – der zum ersten Mal von der Kirche der Warmisten, dem BBC, angewandt wurde – der dazu dienen sollte, die Aufmerksamkeit von den einzigen echten kriminellen Handlungen dieser ganzen Affäre abzulenken: dem ungeheuerlichen und vorsätzlichen Bruch der Gesetze des FOI durch diverse Klimagate-„Wissenschaftler“; die potentiell betrügerische Verschwendung von Millionen Pfund und Dollar öffentlicher Gelder für politische Ziele.

Warum benutzt man diesen Vorschlaghammer, um eine Nuss zu knacken?

Wir können nur fieberhaft spekulieren. Meine persönliche bevorzugte Theorie lautet – abgeleitet aus vielen der klugen Kommentare auf Watts Up With That – : es betrifft alle jene verschlüsselten E-Mails, die zu besitzen der FOIA 2011 behauptet hatte, als er Klimagate 2,0 von der Leine ließ. Mit anderen Worten, da könnte noch mehr pikantes Zeug sein, – viel, viel mehr pikantes Zeug – das noch kommt. Es kann auch sein, dass die belasteten Namen nicht nur diejenigen wie die von kleinen Lichtern vom Schlage eines Phil Jones oder Michael Mann sind, sondern auch von führenden Politikern und Geschäftsleuten, die noch viel mehr zu verlieren haben, sollte das jemals ans Tageslicht kommen.

Also wollen wir hoffen, dass es so ist, ja?

P.S.: Erinnerung an die Polizei in Norfolk: Wenn Sie heute Abend wieder herumlaufen und meinen Computer konfiszieren – jenes massive pornographische Archiv hat nichts mit mir zu tun. Es ist von den Kindern. Oder der Katze. Irgendwas in der Art.

James Dellingpole Telegraph UK

Link: http://blogs.telegraph.co.uk/news/jamesdelingpole/100124397/climategate-obamas-boot-boys-strike-back/

Übersetzt von Chris Frey für EIKE




Erklärt sich der „Weltklimarat“ IPCC für sakrosankt?

Richard Tol ist Professor für „Wirtschaft des Klimawandels“ an der Vrije Universiteit Amsterdam und Mitarbeiter im IPCC. Er ist eher der skeptischen Seite zuzurechnen. Verschiedentlich hat er seine Zweifel an der Alarmschlägerei und an der Haltbarkeit der Hypothese vom CO2-verursachten Klimawandel geäußert.
Richard Tols Bericht vom Treffen in San Francisco wird auf der Webseite Bishop Hill am 14. 12. zitiert:

… Die Mitgliedstaaten des IPCC wollen sich über die U.S.-Gesetzgebung zur Informationsfreiheit hinwegsetzen. Man legt die Gesetze so aus, dass sie nicht für das IPCC gelten würden. Das ist ein Irrtum. Die Informationsfreiheitsgesetze [Freedom of Information Act – FoIA] sind amerikanisches Recht. Amerikanische Gesetze können nur von den zuständigen Gerichten ausgelegt und nur von den jeweiligen Parlamenten geändert werden. Amtsträger, die für ihre jeweiligen Länder [im IPCC] sprechen, haben kein Recht, die Informationsfreiheitsgesetzgebung zu usurpieren. Dem IPCC steht keine Meinung in dieser Angelegenheit zu.“

Dieser Bericht liegt auf der gleichen Linie, wie eine vorhergehende Veröffentlichung vom
17. 10. von Christopher Horner vom amerikanischen Competitive Enterprise Institute. Angeblich strebt die UNO an, ein vertrauliches und in den jeweiligen Ländern nicht-regierungsamtliches Kommunikations-Netzwerk einzurichten, um die im IPCC mitarbeitenden nationalen Wissenschaftler davor zu bewahren, dass ihre Arbeitsergebnisse und Meinungen an die Öffentlichkeit gelangen. Weil die nationalen Mitglieder des IPCC meist von ihren nationalen Standorten aus arbeiten und in der Regel steuermittelfinanziert sind, unterliegt ihre Arbeit den jeweiligen nationalen Datenschutz- und Datenzugangsgesetzen

Offensichtlich sieht das IPCC in der immer lauter werdenden Forderung auf Transparenz und Öffentlichkeit seiner Arbeit eine Gefahr! Ein stärkerer Kontrast zu der vom IPCC-Vorsitzenden Pachauri wiederholt verkündeten Behauptung von der völligen Transparenz der IPCC-Arbeit lässt sich kaum denken.

Christopher Horner vom CEI.org schrieb:

Eine IPCC-Backchannel “Cloud” ist offensichtlich eingerichtet worden, um die IPCC-Angelegenheiten vor dem Informationsfreiheitsgesetz zu verbergen.
[Anm. d. Ü.: Gemeint ist damit die Einrichtung einer Art von geschlossenem „sozialen Netzwerk“ des IPCC, eines Internet-Dienstes zum Austausch von Informationen. Dabei werden eigens für diesen Zweck spezielle Nutzerkonten eingerichtet. Diese Nutzerkonten sollen die Zugehörigkeit amerikanischer Regierungsangestellten zu Regierungsämtern verbergen. Die Brisanz dieser Angelegenheit ist Thema des Beitrags von Chris Horner.]

Das Competitive Enterprise Institut hat von einem UNO-Plan erfahren, die offizielle Korrespondenz von Angestellten [im amerikanischen Öffentlichen Dienst] so auf Nutzerkonten zu verstecken, als ob sie keine US-Regierungsangestellten wären. Ein U.S. General-Bundesinspektor hat bereits bestätigt, dass ein derartiger Informationsaustausch der FoIA unterliegen würde. Eine solche „Cloud“ wäre so etwas wie ein toter Briefkasten für die Diskussionen von U.S.-Regierungsangestellten über den nächsten IPCC-Bericht. Das skandalgeplagte IPCC ist gerade dabei, den nächsten Bericht fertigzustellen, der mit Millionen von amerikanischen Steuerzahler-Dollars bezahlt wird.
[Anm. d. Ü.: im amerikanischen parlamentarischen System gibt es die Institution von „Inspectors General“. Sie sind unabhängige Beauftragte zur Überwachung der Legalität des Regierungshandelns und der zweckdienlichen Verwendung der Steuergelder.]

Chris Horner schreibt weiter: Eine zwielichtige und ungesetzliche Sache ist das, auch vom Zeitpunkt her schlecht gewählt. Man könnte aber auch sagen, gut gewählt. Es hängt vom jeweiligen Standort ab:
Genau jetzt sind [von der investigativen kanadische Journalistin Donna Laframboise] in einem neuen Buch die betrügerischen Machenschaften des IPCC aufgedeckt worden. Über den IPCC-Betrug hat auch der Verfasser Chris Horner geschrieben. Darüber, wie die Obama-Regierung mit dem IPCC kooperiert hat, um die amerikanischen Gesetze für Transparenz zu unterlaufen. Bekannt ist auch ein Memorandum aus dem Jahre 2005 mit der Offenlegung von Präsident Obamas Umweltpolitik, die von seinem eifernden „Wissenschaftszaren“ John Holdren stammt.

Das CEI hat zur Klärung eine FoIA-Anfrage gestartet. Danach muss … wegen der „Backchannel Cloud“ ausführlich Auskunft erteilt werden: ob und wie sie eingerichtet wurde, um den IPCC-Informationsaustausch von Anfragen auszuschließen, die sich auf FoIA berufen.

Man erinnere sich: das IPCC hat zusammen mit Al Gore den Friedensnobelpreis 2007 erhalten. Das IPCC war der Ort vieler Skandale. Es ging um gefälschte und manipulierte Daten, Abkupfereien von Doktorarbeiten, Magazin-Artikeln und Pressemitteilungen von grünen Gruppen. Zu erwähnen ist auch das berüchtigte „hide the decline“ bei der Temperaturgeschichte.

Das CEI wird seine FoIA-Anfrage bald veröffentlichen.
Vorab nur soviel aus der Erläuterung der Anfrage:

Der neue UNO-Plan, von dem das CEI Kenntnis hat, verfolgt die Absicht, die offizielle Korrespondenz auf Konten von Nicht-Regierungskonten zu verstecken, die, wie ein General-Bundesinspektor schon bestätigt hat, der FoIA unterliegen würde. Eine solche „Cloud“ wäre so etwas wie ein toter Briefkasten für Diskussionen von U.S.-Regierungsangestellten über den nächsten IPCC-Bericht.

Die UNO hat ihre IPCC-Teilnehmer informiert, dass sie wegen belastenden Veröffentlichungen aus früherern Diskussionen (darunter vor allem Climategate) dazu veranlasst würde, und dass sie das Problem durch Umgehen der nationalen Transparenzgesetzgebungen umschiffen wollte.

CEI erinnert das Büro für Wissenschaft und Technologie im Weißen Haus (OSTP) daran, dass diese Praxis … als „Einrichtung von nicht regierungsamtlichen Teilnehmerkonten für den offiziellen Geschäftsgang und deren Nutzung zum Zwecke der Vermeidung der Aufzeichnung des Verkehrs“ bezeichnet wurde. CEI erwartet nun einen Aufschrei aus dem Kongress und von den Medien über eine derartige Praxis, die dazu dient, gültiges Recht zur Datenaufzeichnung zu umgehen.

CEI erinnert OSTP weiter an einen vergleichbaren Versuch der Regierung, die auf U.S.-Regierungscomputern geschriebenen Berichte zum Eigentum des IPCC zu erklären und damit der FoIA zu entziehen. Diese Praxis ist zu Anfang diesen Jahres in einem Bericht aus der Abteilung des Generalinspekteurs des Department of Commerce  bestätigt worden.

Diese Sache ist augenscheinlich mit Beteiligung und direkter Unterstützung aus Obamas Weißem Haus ins Werk gesetzt worden. Der Präsidenten-Stab hatte sich ja sofort nach Obamas Amtsantritt die Führungsrolle bei der IPCC-Arbeit aus dem Wirtschaftsministerium für Holdrens Büro geholt. Der Plan zur heimlichen Schaffung einer FoIA-freien Zone wurde anschließend ins Werk gesetzt.

Das bedeutet eine politische Unterstützung für das IPCC, für die UNO, die EU, die U.S.-Bürokraten und poltischen Berater bei deren Bemühen, offizielle Email-Kanäle bei der Wahrnehmung der poltischen Arbeit mit hohem öffentlichen Interesse zu vermeiden. Die dienstliche Arbeit auf Regierungscomputern soll geschützt vor den neugierigen Augen der immer skeptischer werdenden Steuerzahlern geleistet werden.

Wenn die Gespräche zur Fortsetzung des gescheiterten Kyoto-Protokolls wieder aufgenommen werden, erwartet CEI vom OSTP, dass diese illegalen Tätigkeiten beendet werden und rascher Zugang zu den angeforderten Aufzeichnungen ermöglicht wird, damit der Steuerzahler weiß, was die U.S.-Vertreter und das IPCC vorhaben. …

Möglicherweise wird ein republikanischer Präsidentschaftskandidat die fällige Debatte eröffnen mit der Forderung zur Einstellung der U.S.-Finanzierung des IPCC, das, wie nun bekannt geworden ist, aktiv (mit Unterstützung aus Obamas Weißem Haus) US-Gesetze umgeht.
Genug ist genug! …

Chris Horner CEI

—————————————

Übersetzung und Bearbeitung: Helmut Jäger, EIKE
(Der Beitrag von Christopher Horner wurde um die für deutschsprachige Leser nicht auf Anhieb verstehbaren Teile bereinigt, die mit dem sich abzeichnenden US-Präsidentschaftswahlkampf zu tun haben.)




Deutschlands Abstieg vom Weltwirtschaftsniveau

Die wohl erfolgreichste deutsche Po­litikerin ist derzeit Christine Lagar­de. Als französische Finanzministe­rin hatte die jetzige IWF-Chefin Deutschland wegen der hohen Ex­portüberschüsse getadelt. Daraufhin hat die Bundesregierung sofort ener­gische Maßnahmen ergriffen, um diese Überschüsse kurz-, aber auch insbesondere mittelfristig zu redu­zieren. Mit dem Moratorium für acht Kernkraftwerke in Deutschland wür­de deutscher Stromexport von rund 3000 bis 4000 Megawatt (MW) er­setzt durch Stromimporte in Höhe von rund 3 000 MW. Das verändert die deutsche Zahlungsbilanz konso­lidiert um rund 3 Mrd. Euro pro Jahr, ein schöner Erfolg.

Mit dem Energiewendepaket wer­den die Belastungen der deutschen Wirtschaft deutlich zunehmen, Ar­beitsplätze werden verloren gehen, Investitionen werden am deutschen Standort nicht getätigt. Die Export­überschüsse werden demgemäß in den nächsten zehn Jahren weiter re­duziert. Gegenüber dem Papier der Energiewende ist ein Scherbenhau­fen ein Muster an stringenter Archi­tektur und purer Ästhetik. …..

Kopflose politische Führung

Wie konnte es dazu kommen? Wie jedermann weiß, ist das Risiko für Erdbeben der Stufe 9 und das Risiko eines Tsunamis in Deutschland äu­ßerst gering. Die Reaktion der deut­schen Regierung hat demgemäß mit Rationalität nichts mehr zu tun, es handelt sich um eine rein emotio­nale Entscheidung. Man fragt sich, ob es in der ganzen Regierung denn nicht eine einzige Persönlichkeit gibt, die für etwas mehr Überlegung plädiert und für einen rationalen Entscheidungsprozess in Berlin sorgt. Auch wenn angeblich der größte Teil der Bevölkerung nach Fukushima einen Ausstieg befürwor­tet, muss man doch von der Politik Führung und nicht Kopflosigkeit verlangen.

….

….Lagarde bekommt recht

In Baden-Würtemberg sieht die Sa­che anders aus, weil die Aktionäre EnBW zu solchen unwirtschaftli­chen Investitionen zwingen können. Darüber wird auch im Südwesten bereits hinter vorgehaltener Hand gesprochen. Unterstellen wir ein­mal, in Bayern und Baden-Würtem­berg werden ausreichend Kapazitä­ten an Gasgrundlaststrom gebaut. Wer braucht dann noch den Netz­ausbau von Nord nach Süd? Nord­deutschland steht dann mit der nicht abgesicherten Windkraftkapazität allein.

Wohin man auch sieht: ein pla­nender Staat ohne Werkzeuge, seine Planung auch zu realisieren! Dass es teuer wird, steht fest, "Erst gehen die Hütten", sagt ein renommierter Energieberater. "Dann gehen die Schmieden, die Pressen, – alles mit­telständische Betriebe – dann geht der Edelstahl, Teile der Chemie wer­den folgen". Das hat im Gegensatz zu seinen Mitgliedsfirmen der derzeiti­ge Präsident des Chemieverbandes VCI noch nicht begriffen.

Das Programm von Christine La­garde nimmt also Fahrt auf. Die In­vestitionen in Deutschland gehen zurück, die Arbeitslosigkeit steigt, die Exportüberschüsse verschwin­den. Kanzlerin Merkel hat die Ener­giewende als eine Herkulesarbeit be­zeichnet. Aber Herkules hatte über­menschliche Kräfte. Das kann man von Angela Merkel und ihrem Leichtmatrosen Norbert Röttgen wirklich nicht behaupten.

Max Dietrich Kley

Mitglied des Auf­sichtsrats der BASF SE 

Den gesamten Beitrag können Sie als pdf im Anhang herunter laden

Related Files




Zu trockener, warmer, sonniger Herbst 2011- Vorbote der „Klimakatastrophe“ oder einfach nur schön?

Erste Behauptung: „Der Herbst 2011 war ungewöhnlich warm.“

Die folgende Tabelle zeigt die 10 wärmsten meteorologischen Herbste und die jeweils 10 wärmsten September, Oktober und November (Monatsmittel) seit 1979 in Erfurt- Bindersleben.

Platz

Herbst °C

September °C

Oktober °C

November °C

1

2006 12,1

1999  17,2

2001  12,3

2009  7,6

2

1982  11,1

1982  17,1

2006 12,0

2006  7,1

3

2000  10,1

2006  17,1

1995  11,7

1982  6,2

4

2005  10,1

1991  15,7

2005  11,0

1994  6,2

5

2009 9,9

2011 15,7

1989  10,9

2000  6,0

6

1999 9,5

2005 15,2

1984  10,4

1986  5,8

7

2011 9,5

1989 14,8

2000  10,4

2003 5,8

8

1989 9,4

1987 14,5

1990  10,2

2002  5,2

9

2001 9,2

2009 14,5

2004  10,2

1992  5,0

10

1987 9,1

1980 14,1

         1982  9,9

1990  4,8

Zum Vergleich: Das langjährige Herbstmittel in Erfurt- Bindersleben beträgt 8,6°C, das für September 13,4°C, das Oktobermittel 8,9°C, das für November 3,5°C. Beim Betrachten der Tabelle fällt auf, dass der Herbst 2011 nicht zu den 5 wärmsten zählte; bei den Einzelmonaten kam nur der September 2011 unter die ersten 10, während der Oktober 2011 mit etwa 9,3°C und der November 2011 mit etwa 3,6°C nur geringfügig zu mild ausfielen. Es sei aber der Vollständigkeit halber noch erwähnt, dass der November 2011 auf den Berggipfeln außergewöhnlich mild ausfiel. Warum gerade dieser Umstand eher ein Hinweis auf das Ausbleiben der „Klimaerwärmung“ sein könnte, dazu später mehr.

Fazit: Der Herbst 2011 war zwar zu warm, völlig „ungewöhnlich“ ist das aber nicht.

Zweite Behauptung: „Es wird immer wärmer.“

Einzelne warme Monate, Jahreszeiten oder Jahre sagen wenig über die langfristige Temperaturentwicklung. Erst über längere Zeiträume von mindestens 25 bis 30 Jahren lassen sich konkrete Aussagen über Trends treffen. Die folgenden Diagramme zeigen die Lineartrends der Herbstmonate in Erfurt seit 1979:

Fazit: Für September und Oktober ist seit 1979 fast kein Temperaturanstieg nachweisbar, während der November deutlich milder wurde. Einen generellen, „katastrophalen“ Temperaturanstieg gab es bisher nicht; der November erwärmte sich, weil milde Südwestlagen häufiger wurden.

Dritte Behauptung: „Der Herbst 2011 war extrem trocken.“

Niederschläge sind noch größeren Schwankungen unterworfen als Lufttemperaturen; unter anderem sind sie auch deshalb so schwer vorherzusagen. Die folgende Tabelle zeigt die 10 trockensten meteorologischen Herbste und die jeweils 10 trockensten September, Oktober und November (Monatssummen) seit 1979 in Erfurt- Bindersleben.

Platz

Herbst mm

September mm

Oktober mm

November mm

1

1991  49mm

1982  9mm

1985  3mm

   2011  0,3mm

2

1985  54mm

1997  11mm

1983  5mm

1986  6mm

3

2011  64mm

1991  16mm

1995  7mm

 1982  12mm

4

1983  68mm

2006  16mm

2007  7mm

1983  16mm

5

1982  76mm

1985  20mm

 2004  11mm

1991  19mm

6

2006 83mm

1996  21mm

1999  12mm

2008  19mm

7

1997  89mm

1992  22mm

1979  13mm

2000  21mm

8

1999  99mm

1988  25mm

1991  14mm

1995  22mm

9

 2004  100mm

1999  25mm

1988  15mm

1997  25mm

10

1990  106mm

2011  28mm

1990  15mm

1993  28mm

1mm Niederschlag entspricht 1 Liter Wasser je Quadratmeter. Im langjährigen Mittel fallen in Erfurt im September etwa 46, im Oktober 34 und im November 44mm, so dass sich eine mittlere Herbstsumme von etwa 124mm ergibt. 2011 erreichte der September mit 28mm Platz 10, der Oktober fiel mit 36mm sogar etwas zu feucht aus, während ein so trockener November wie 2011 fast ohne Niederschlag seit Beginn regelmäßiger Messungen (in Erfurt- Bindersleben seit 1968) noch nicht registriert wurde. Aber erstens kann es viel früher durchaus völlig niederschlagsfreie November gegeben haben, und zweitens waren die November 1953 und 1902 mit etwa 3mm fast genauso trocken. Offenbar lässt die Schwankungsbreite unseres Klimas auch ganz ohne „Klimawandel“ durchaus niederschlagsfreie Herbstmonate zu. So fielen in den Oktobern 1908 und 1943 in Weimar überhaupt keine Niederschläge; und auch der September 1959 war mit nur 1mm nahezu niederschlagsfrei. Der Herbst ist ohnehin niederschlagsärmer als der Sommer, was nicht so recht zu seinem (übrigens unberechtigten) Image als „Schmuddel- Jahreszeit“ passen will. Einerseits enthält die sich abkühlende Herbstluft schon weniger Wasserdampf als im Sommer, und die schwächer werdende Sonneneinstrahlung vermag keine so häufigen und ergiebigen Schauer oder Gewitter wie im Sommer auszulösen. Andererseits treten im Herbst besonders häufig Hochdruckwetterlagen auf (Spät-, Nach- oder Altweibersommer). Im Frühherbst scheint dann meist noch die Sonne, während sich im Oktober und November in feuchter Luft entstehende Nebel- und Hochnebelfelder oft nicht mehr auflösen, aber außer etwas Nebelnässe oder geringem Sprühregen keinen Niederschlag liefern. Seit 1979 waren die Herbste 1991 und 1985 noch trockener als der von 2011.

Fazit: Der Herbst 2011 war deutlich zu trocken; man kann das als seltenen, jedoch keinesfalls als extremsten Fall ansehen, denn auch in der jüngeren und weiteren Vergangenheit gab es immer wieder sehr geringe Niederschlagsmengen im Herbst; und auch völlig niederschlagsfreie Herbstmonate sind schon früher gelegentlich vorgekommen.

Vierte Behauptung: „Es wird immer trockener und extremer.“

Auch hier gilt: Einzelne trockene Monate, Jahreszeiten und Jahre sind kein Indiz für zunehmende Trockenheit oder eine „Radikalisierung“ unseres Klimas. Wie sieht eigentlich der lineare Niederschlagstrend der 3 Herbstmonate seit 1979 aus?

 

 

Fazit: Der Oktober weist fast keinen Niederschlagstrend auf, während September und November tendenziell etwas feuchter wurden. Die Trockenheit im Herbst 2011 konnte diesen Trend nicht beenden. Und schon immer gab es große Schwankungen, welche gerade für die Niederschlagsverhältnisse typisch sind.

Fünfte Behauptung: „Der Herbst 2011 war der sonnigste aller Zeiten.“

Die Sonnenscheindauer (gemessen in Stunden) erhöhte sich seit Ende der 1970er Jahre aufgrund von Luftreinhaltemaßnahmen (weniger Staub und Schwefeltröpfchen) und vermutlich auch wegen der Abnahme der kosmischen Strahlung (aktivere Sonne) sowie Änderung der Großwetterlagen besonders im Frühjahr und im Sommer deutlich; im Herbst fehlen eindeutige Trends. Wie der Herbst 2011 seit 1979 abschneidet, zeigt die folgende Tabelle.

Platz

Herbst (Stunden)

September (Stunden)

Oktober (Stunden)

November (Stunden)

1

487 Jahr 2011

243  Jahr 2006

182 Jahr 2005

116 Jahr 1989

2

481 Jahr 2005

229 Jahr 1997

179 Jahr 1991

116 Jahr 2011

3

455 Jahr 2006

219 Jahr 1982

174 Jahr 1990

95  Jahr 1986

4

434 Jahr 1991

213 Jahr 1999

166 Jahr 2011

86 Jahr 2005

5

409 Jahr 1997

213 Jahr 2005

152 Jahr 2004

85 Jahr 2003

6

402 Jahr 2004

205 Jahr 2011

141 Jahr 1979

85 Jahr 2006

7

391 Jahr 1989

201 Jahr 2004

136 Jahr 1989

78 Jahr 1984

8

380 Jahr 1982

200 Jahr 1991

135 Jahr 2010

73 Jahr 2000

9

376 Jahr 2003

187 Jahr 2003

133 Jahr 1994

72 Jahr 1982

10

373 Jahr 1986

172 Jahr 1985

      133 Jahr 2001

68 Jahr 1983

Anmerkung: Die Messung der Sonnenscheindauer ist noch stärker als die ebenfalls fehlerbehafteten Niederschlags- und Temperaturmessungen von zufälligen, systematischen oder groben Messfehlern verfälscht; mitunter kommt es auch zum Komplettausfall von Messgeräten, so dass die Sonnenscheindauer bei einzelnen Monaten um wenige Stunden höher sein kann, als hier angegeben. Im Laufe des Herbstes schwindet der direkte Einfluss der Sonne auf die Monatstemperaturen. Während im noch relativ strahlungsreichen September der sonnigste Monat einer der wärmsten war (2006), „landete“ der wärmste Oktober (2001) gerade noch auf Platz 10, und der mildeste November (2009) war mit 60 Sonnenstunden nur Mittelmaß außerhalb dieser Tabelle.

Fazit: Der Herbst 2011 war tatsächlich der sonnigste seit mehr als 3 Jahrzehnten. Auch hier lässt sich aber nicht ausschließen, dass es in der ferneren Vergangenheit noch etwas sonnigere Herbste gegeben hat, so dass das Prädikat „sonnigster Herbst aller Zeiten“ besser vermieden werden sollte. Bei langanhaltenden Hochdruckwetterlagen zwischen September und November ist es durchaus denkbar, dass unter noch günstigeren Bedingungen als 2011 (andauernde Föhneffekte durch Süd- und Südwestwind, sehr trockene Luftmassen) auch einmal die „magische“ Grenze von 500 Sonnenstunden in Erfurt erreicht oder gar leicht überschritten wird.

Ursachen und Besonderheiten der Herbstwitterung 2011

Im Spätsommer/Frühherbst dominierte anfangs die für Mitteleuropa typische wechselhafte Witterung, wenngleich auf zeitweise sehr hohem Temperaturniveau. Der heißeste Tag des Jahres trat bemerkenswert spät ein, nämlich erst am 26. August. Dabei wurden in Erfurt und Weimar Maxima um 33°C gemessen, während am 27. August nach Passage einer Kaltfront kaum noch 16°C erreicht wurden. Im Normalfall ist der heißeste Tag des Jahres zwischen Mitte Juni und Anfang August zu erwarten; ein so später Eintrittstermin kommt selten vor, wenngleich in der letzten Augustdekade gelegentlich noch Höchstwerte nahe oder gar über 30°C auftreten (1989, 1990, 1992, 1995, 1997 und 2001). Danach gab es weitere Hitzewellen mit mehr als 25°C in der ersten Septemberhälfte und Anfang Oktober; allerdings wurden in der 3. Septemberdekade 1982 in Erfurt mehr als 30°C erreicht. Im Oktober sind derart hochsommerliche Werte zwar selten, doch gab es auch in der Vergangenheit in diesem an sich schon sehr kühlen Monat durchaus an einzelnen Tagen noch Werte von 24 oder gar über 25°C (1985, 1990, 1995, 2004 und 2009). Ausgerechnet zum Weimarer Zwiebelmarkt folgte dann der jähe, für den Oktober aber durchaus typische Temperatursturz, und der erste Frost trat ganz vereinzelt schon um den 09., verbreitet aber dann am 14.10. und damit etwa 1 Woche früher als gewöhnlich, ein. Um den Monatswechsel Oktober/ November gab es einen späten Wärmerückfall mit Maxima nochmals um 18, vereinzelt sogar über 20°C (noch etwas wärmer war es um den 30.10.2005), bevor es sich kontinuierlich abkühlte, so dass Mitte November an 2 Tagen schon leichter Dauerfrost, teils mit Raufrostansatz an Bäumen, herrschte. Während es bis Mitte September noch gelegentliche, vereinzelt ergiebige Schauer oder Gewitter gab, regnete es im Oktober nur vom 06. bis zum 11. nennenswert und am 12. sehr ergiebig; danach gab es nur noch geringen Regen und im November nur unbedeutenden Sprühregen.

 

 

 

 

Die Diagramme (Quelle: wetteronline.de) zeigen sehr schön den typischen, wenn auch in diesem Jahr verzögerten herbstlichen Temperaturrückgang bei den Maximum- Temperaturen bis hin zu den zwei Dauerfrosttagen am 15. und 16.11. , während bei den Minimum- Werten außer den ab Mitte Oktober häufigen Nachtfrösten auch einige für September sehr laue Nächte mit 16 bis 18°C auffallen. Bei den Werten der relativen Luftfeuchte, welche tendenziell im Laufe des Herbstes immer ansteigen, sind die Schwankungen bis Anfang Oktober aufgrund der in diesem Frühherbst sehr markanten Luftmassenwechsel auffallend groß. Eine erste, längere markante Trockenphase ohne Regen gab es vom 19.09. bis zum 05.10. („Altweibersommer“); und nach Mitte Oktober regnete es praktisch gar nicht mehr. Weil längere „Schlechtwetterphasen“ fehlten, schien die Sonne fast täglich über mehrere Stunden; erst im November blieben mehrere Tage hintereinander wegen Nebel oder Hochnebel völlig trüb. Verursacher dieser beständigen Herbstwitterung sind zahlreiche Hochdruckgebiete. Man erkennt, dass nach Mitte September, also mit Beginn des „Altweibersommers“, das tägliche Luftdruckmittel größtenteils über dem Normalwert von etwa 1013 Hektopascal (hPa, dicke, rote Linie) lag.

Nun ist aber hoher Luftdruck allein noch keine Gewähr für sonniges, mildes Herbstwetter, es kommt ganz wesentlich auf weitere Begleitumstände, besonders die Luftfeuchtigkeit und die Windrichtung, an. Aufgrund seiner Lage am Südrand des Thüringer Beckens im Lee des Thüringer Waldes entstehen in Erfurt bei südlicher bis südwestlicher Windrichtung leichte Föhneffekte. Setzt sich dieser „Föhn“ bis zum Boden durch, heitert es selbst in feuchter Luft oft auf, so geschehen auch am 31.10. Dieser Effekt kann an einzelnen Tagen auch ohne stabiles Hochdruckgebiet auftreten. Allerdings schafft es dieser schwache Föhn Richtung Spätherbst immer seltener, die zähen Nebel- oder Hochnebelfelder zu vertreiben. So war im inneren Thüringer Becken am 31.10. ganztägig dichter Nebel zu beobachten. Erfurt liegt am Rande dieses „innerthüringischen Kaltluftsees“ und wird bei diesen ruhigen Hochdruckwetterlagen häufiger als das nahe, meist etwas sonnigere Weimar vom Nebel erfasst. So herrschte am 31.10. vom Ettersberg aus klare Fernsicht Richtung Weimar, während Erfurt zwar ebenfalls Sonne hatte, aber im Dunst blieb, und Richtung Nordwesten (Sömmerda) waberte dichter Nebel. Weil die Zentren der Hochdruckgebiete meist südlich bis östlich von Mitteleuropa lagen, herrschten günstige südliche Luftströmungen vor. Eine Winddrehung auf Ost bis Nord förderte hingegen vom 07. bis zum 10.11. erstmals über längere Zeit leichte Staueffekte mit Dunst, Nebel und Hochnebel, und erst in trockenerer Luft bei Winddrehung auf Südost heiterte es am 11.11. kurzzeitig und am 12.11. wieder anhaltend auf.

Warum gab es im Herbst 2011 besonders viele Hochdruckwetterlagen? Einerseits sind längere Hochdruckwetterlagen im Herbst durchaus typisch. Unsere Vorfahren ahnten zwar noch nichts von Luftdruck oder Luftdruckmessung, aber sie registrierten die immer wieder auffällige Häufung von Schönwetterperioden im Herbst und verliehen ihnen klangvolle, bis heute gebräuchliche Namen wie „Altweibersommer“ (Ende September/Anfang Oktober), „Mittherbst“ (Mitte Oktober) und „Nach- oder Martinssommer“ (Ende Oktober bis Mitte November). Die beginnende Abkühlung des Festlands begünstigt die Entstehung und den längeren Verbleib der Hochdruckgebiete über dem Kontinent. Weil die Luftschichtung stabiler wird, vergrößert sich die Erhaltungsneigung solcher Hochdrucklagen. Andererseits begünstigten Besonderheiten der allgemeinen Zirkulation eine beständige Witterung, denn in höheren Luftschichten befand sich im Herbst 2011 über Europa oftmals ein langwelliger Hochdruckkeil. Je langwelliger ein solcher Keil ist, desto langsamer verlagert er sich (ROSSBY- Gleichung). Solche „Höhenkeile“ sind außerdem mit hochreichend warmer Luft angefüllt, die sich besonders an der Westflanke mit einer südlichen Strömung bis zum Boden durchsetzen kann. Intensive Tiefdruckgebiete über dem Ostatlantik, West- und Südwesteuropa (dort gab es teilweise starke Niederschläge) begünstigten durch Warmluftzufuhr auf ihrer Vorderseite den Aufbau und die häufige Regeneration des langwelligen europäischen Höhenkeils. Möglicherweise wurde diese rege Tiefdrucktätigkeit durch die Einbeziehung ehemaliger tropischer Wirbelstürme noch erheblich forciert. So lenkte das Tief „Ex- Irene“ am 03./04.09. verstärkt Warmluft nach Mitteleuropa, und „Ex- Maria“ machte nach seinem Abzug Richtung Nordosteuropa ab dem 23.09. den Weg für den Altweibersommer endgültig frei.

Der Herbst 2011- ein Vorbote der „Klimakatastrophe“?

 Wie schon dargelegt, war der vergangene Herbst trotz überdurchschnittlicher Sonnenscheindauer, Trockenheit und Wärme keinesfalls außergewöhnlich; das „normale“ Klima lässt solche Schwankungen durchaus zu. Die im letzen Viertel des 20. Jahrhunderts eingetretene leichte Erwärmung wird auf den steigenden CO2- Gehalt der Atmosphäre zurückgeführt. Da der CO2- Gehalt kräftig weiter steigt, soll sich die Erwärmung beschleunigt fortsetzen. Es häufen sich jedoch kritische Stimmen zu diesen Prognosen, zumal es bei einer Verdopplung der CO2- Konzentration nur zu einer Temperaturerhöhung um 1K kommen kann, so bei LINDZEN & CHOI (2009) 0,95K, bei DIETZE (2007) 0,7K, beim IPCC („Weltklimarat“) (2007) 1,2K und bei LINK/LÜDECKE (2011) 1,1K, angegeben. Und ob sich diese an sich geringe Erwärmung durch sogenannte „positive Rückkopplungen“, beispielsweise über eine vermehrte Freisetzung von Wasserdampf oder Methan, verstärkt, ist zweifelhaft, denn es mehren sich Hinweise, dass im Klimasystem negative Rückkopplungen dominieren, welche die Erwärmung abbremsen, was auch die lange Klimageschichte unseres Planeten nahelegt. Häufig wird auch der Einfluss der Sonnenaktivität auf das Klima unterschätzt. Neuere Forschungsergebnisse, unter anderem von HENRIK SVENSMARK, decken Einflüsse der Stärke des solaren Magnetfeldes und des „Sonnenwindes“ auf die Intensität der die unteren Luftschichten erreichenden Kosmischen Strahlung auf, was wiederum die Wolkenbildung beeinflusst. Möglicherweise verringerte die im Herbst 2011 stark zunehmende Sonnenaktivität die Intensität der Kosmischen Strahlung, was die Bildung tiefer Wolkenfelder erschwert und Aufheiterungsphasen begünstigt hat. Wie bereits dargelegt, weisen 2 der 3 Herbstmonate zumindest in Erfurt bislang praktisch keinen Erwärmungstrend auf. Und auch die Abkühlung der Luft funktioniert trotz steigender CO2- Werte normal. Im November sammelte sich nämlich die durch starke Abkühlung entstandene Kaltluft im Thüringer Becken an, was zu kräftigen Inversionen (Temperaturumkehrungen) von mehr als 10K führte. Das Tagesmaximum betrug am 15.11. in Erfurt- Bindersleben frostige minus 1,7°C, während auf dem Rennsteig +10,5°C gemessen wurden. Der Mitteldeutsche Rundfunk (MDR) meldete am 14.11. für Mühlhausen am Westrand des Thüringer Beckens Frühtemperaturen von minus 6°C, während es gleichzeitig auf der Schmücke am Rennsteig mit +6°C mild war. Am selben Tag stieg die Temperatur in Oberhof am Rennsteig auf frühlingshafte +12°C, hingegen wurden in Dachwig nördlich von Erfurt nur 0°C erreicht. Am 15.11. wurden in Mühlhausen sogar minus 7°C gemessen, am Kleinen Inselsberg jedoch +5°C. Es gibt daher lediglich eine mögliche Erklärung, wie CO2 das hiesige Klima maßgeblich beeinflussen könnte. Kohlendioxid ist kein Gift, sondern essentiell für die Photosynthese der Pflanzen. Welche Rolle die stetige Zunahme des atmosphärischen CO2 auf die Zusammensetzung der Flora und die Pflanzenökologie hat, bedarf weiterer Forschungen. Da CO2 ein Mangelnährstoff mit gegenwärtig nur knapp 0,04% Volumenanteil in der Atmosphäre ist, optimal aber nach Angaben aus der Fachliteratur (WERNER KÖSTER, 2009) beispielsweise für den Winterweizen 0,12% wären und eine CO2- Begasung in Gewächshäusern die Erträge stark steigert, ist anzunehmen, dass sich die Biomasseproduktion durch mehr CO2 insgesamt bereits deutlich erhöht hat und sie weiter steigen wird. Fachleute rechnen mit landwirtschaftlichen Ertragssteigerungen um 30 bis 70% je 100ppm CO2- Zunahme. Allerdings reagieren einzelne Pflanzenarten sehr unterschiedlich auf steigende CO2- Konzentrationen; so sollen Lärchen deutlichere Zuwachsraten als Kiefern aufweisen. Eine bessere Versorgung mit CO2 führt zur effektiveren Nutzung der übrigen Ressourcen durch die Pflanze. Daher wird zur Bildung der gleichen Menge pflanzlicher Trockenmasse auch weniger Wasser benötigt. Die Pflanzen bilden bei höheren CO2- Konzentrationen weniger Spaltöffnungen (Stomata) und geben weniger Wasserdampf pro erzeugtem Kilogramm pflanzlicher Trockenmasse an die Atmosphäre ab. Während aber junge Bäume und Kulturpflanzen bei ausreichender Wasserversorgung mit mehr und schnellerer Biomassebildung reagieren und das vorhandene Bodenwasser dafür voll ausnutzen, können ausgewachsene Wälder nicht mehr Biomasse bilden. Sie benötigen aber für ihren Lebenserhalt bei steigenden CO2- Konzentrationen weniger Wasser und geben folglich weniger Wasserdampf an die Luft ab. Wasserdampf ist jedoch ein sehr wirksames „Treibhausgas“. Einfacher ausgedrückt: Die Vegetation bremst den Erwärmungseffekt durch CO2 möglicherweise indirekt. Da weniger Verdunstung durch alte Bäume weniger Kühlung bedeutet, wird es in Bodennähe zwar etwas wärmer; allerdings vermindert sich der Wärmetransport mittels Wasserdampf in die Luft, so dass der Gesamtwärmeinhalt der Atmosphäre konstant bleibt. Diese geringere Wasserdampfabgabe durch die Vegetation könnte neben der Sonnenaktivität, der Minderung des Staubgehalts der Atmosphäre durch Luftreinhaltemaßnahmen und der fortschreitenden Bebauung mit verantwortlich für die gegenwärtig in Mitteleuropa beobachteten Klimaverschiebungen (erhöhte Sonnenscheindauer, mehr Wärme und Dürre besonders in der ersten Jahreshälfte, Zunahme von Spät- und Frühfrösten, raschere Abkühlung im Herbst) sein. So könnten auch die relativ frühen Fröste trotz insgesamt warmer Herbstwitterung 2011 durch diesen Mechanismus begünstigt worden sein. Ob sich diese Hypothese eines Zusammenhangs zwischen CO2, Assimilation der Pflanzen und Klima aber bestätigen lässt, müssen künftige, langwierige Forschungen zeigen.

Phänologische Beobachtungen im Herbst 2011

Fast alle Gehölze, egal ob Wild- oder Kulturformen, fruchteten trotz der Anfang Mai aufgetretenen Spätfröste reich bis überreich. Sie reiften allerdings wegen der viel zu zeitigen Blüte 2 bis 3 Wochen vorzeitig. Daher war die Ernte der Pflaumen und Mirabellen mit Beginn des meteorologischen Herbstes schon fast abgeschlossen. Das Kernobst wies eine gute Qualität (wenig Schorfbefall und durch den sonnigen September hohe Fruchtzuckergehalte) auf. Ein erster Herbststurm schüttelte am 06.10. reichlich Walnüsse von den Bäumen; frühe Sorten waren bereits Mitte September reif. Bei Zuckerrüben wurden stellenweise Rekorderträge und mit bis zu 18% Zuckergehalt eine sehr gute Qualität erzielt; auch bei Kartoffeln und Silomais lagen die Erträge meist über dem Durchschnitt, und die trockene Witterung erleichterte die Erntearbeiten. Während der Winterraps dank der Niederschläge im Spätsommer zügig auflief, verzögerte die zunehmende Trockenheit stellenweise die Keimung des Winterweizens. Anfang Oktober ließ die Trockenheit auf flachgründigen Böden erste Rapspflanzen welken. Die Waldböden waren übersät mit Eicheln und Bucheckern. Vereinzelt blühten Forsythien und Wildrosen erneut, und in manchen Gärten konnte man noch im November blühende Rosen und auf den Feldern oder Wiesen blühende Wildkräuter finden. Die Laubfärbung verzögerte sich, weil im September die dafür nötigen Kältereize fehlten. Anfang Oktober waren nur an wenigen Trockenhängen über Keuper oder Muschelkalk schöne Färbungsaspekte bei Süß- und Wildkirschen, Ahornen, Hartriegel, Schlehen und Weißdornen zu beobachten. Außerdem hatte der feuchte Sommer Blattkrankheiten wie Mehltau oder Sternrußtau begünstigt, was die Färbung der sonst oft auffälligen Ahorn- Arten beeinträchtigte. Dafür bewirkten die leichten Fröste Mitte Oktober in Kombination mit viel Sonne und einem Wärmerückfall um den 31.10. eine leuchtende, teils grellrote Färbung bei Wild- und Süßkirschen, teilweise auch bei Birnen und Wildrosen. Bei den milden Temperaturen flogen noch um den 31.10. Bienen und Schmetterlinge. Während es im Thüringer Wald und in Südthüringen teilweise eine regelrechte Pilzschwemme gab, fand man in Nordthüringen und im Thüringer Becken kaum Pilze. Gera, Ilm und andere Thüringer Flüsse führten Ende November deutlich weniger Wasser als im Sommer. Mit den einsetzenden, reichlichen und häufigen Dezemberniederschlägen normalisierte sich jedoch ihr Wasserstand rasch. Die feuchte und milde Dezemberwitterung förderte die Entwicklung der Wintersaaten, so dass trockenheitsbedingte Rückstände aufgeholt wurden.

Diese Aufnahmen vermitteln zum Abschluss des Beitrags noch ein paar Eindrücke vom „goldenen“ Herbst 2011. Obere Reihe: Flacher Morgennebel bei Sättelstädt, 24.09. Darunter links Dunst und Morgennebel an den Vorbergen des Thüringer Waldes, 29.09. Rechts daneben „schwebende“ Schornsteine im berüchtigten Saaletal- Nebel bei Jena, 20.09. Mitte unten flacher Morgennebel im Wippertal bei Sondershausen, 14.10. Unterste Reihe knallbunter Spätherbst mit voll ausgefärbten Kirschen bei Hopfgarten und am Ettersberg bei Weimar, 31.10

Verfasst und zusammengestellt von Gast-Autor Stefan Kämpfe, Weimar, im Dezember 2011.

Den ganzen Beitrag können Sie als pdf Anhang herunterladen.

Related Files




Keine Steuern auf Entwicklung, es tut den Armen weh!

Einer ihrer Testfälle ist die Suche nach einer Beziehung zwischen Größenordnungen globaler Indikatoren. Hier folgt eine Liste der Ergebnisse durch die MIC-Methode:

Abbildung 1: Signifikante Beziehungen, gekennzeichnet durch den maximalen Informationskoeffizienten. Auf herkömmliche Art wird diese Beziehung durch den Pearson-Koeffizienten gemessen.

Der seltsamste Wert in dieser Liste ist der MIC auf Rang drei, die Beziehung zwischen dem Ölverbrauch und dem Einkommen, jeweils pro Person. Mit dem Pearson-Koeffizienten lag diese Beziehung an 207. Stelle, der MIC an 3. Stelle. Das motivierte mich zu einem weiteren Blick auf den Zusammenhang zwischen Energie und Entwicklung.

Um dies zu tun, benutzte ich “Gapminder World”, ein faszinierendes Online-Tool, um Daten zu visualisieren. Abbildung 2 zeigt davon ein Beispiel, und zwar einen Vergleich zwischen mittlerem Energieverbrauch und Einkommen, jeweils pro Kopf. Jedes Land wird in den Diagrammen durch eine „Blase“ symbolisiert.

 

Abbildung 2: Blasendarstellung des Zusammenhangs von Pro-Kopf-Verbrauch von Energie, unterteilt nach Ländern (vertikale Achse) und Einkommen pro Kopf (horizontale Achse). Man beachte, dass beide Achsen logarithmisch sind. Die Größe einer individuellen Blase kennzeichnet die Gesamtenergieerzeugung in diesem Land. Die Farbe der Blasen steht für die Gesamtölproduktion in diesem Land. Der Energieverbrauch wird in Tonnen pro Öläquivalent (TOE) angegeben. Quelle

Wie man erkennen kann, gibt es eine klare und lineare Beziehung zwischen dem Energieverbrauch und dem Einkommen. Dies führt zu einer unerbittlichen Schlussfolgerung: Man kann aus der Armut ohne Zugang zu erschwinglicher Energie nicht heraus kommen. Abbildung 3 unten zeigt die gleichen Daten mit Identifikation der größten Energieproduzenten.

Abbildung 3: Wie Abbildung 2, nur diesmal mit der Kennzeichnung der größten Energieproduzenten  Quelle.

Die Größe der Blasen zeigt, dass China und die USA hinsichtlich der Gesamtenergieerzeugung etwa gleichauf liegen. Russland liegt an dritter, die Saudis an vierter und – überraschend für mich – Indien an fünfter Stelle. Die Farben zeigen, dass für die Russen und die Saudis die meiste Energie aus Öl erzeugt wird (rot), während in China und den USA auch die Kohle eine Hauptquelle dafür ist. Indien gewinnt seine Energie hauptsächlich aus Kohle.

Abbildung 4 (unten) zeigt die gleiche Vergleichskarte zwischen Energie und Einkommen, aber in unterschiedlicher Weise. Die Größe der Blasen in Abbildung 4 zeigt die Energieerzeugung pro Kopf und nicht die gesamte Energieerzeugung. Alle Blasen liegen an der gleichen Stelle, und nur deren Größe hat sich verändert.

Abbildung 4: Wie die oberen beiden, nur das die Größe der Blasen hier für die Energieerzeugung pro Kopf steht. Quelle

Aus den Abbildungen 3 und 4 kann man einige neue Schlussfolgerungen ziehen. Eine lautet, dass man nicht viel Energie erzeugen muss, weder pro Kopf noch insgesamt, um eine moderne, industriell entwickelte Wirtschaft zu haben (die Menge der kleinen Blasen oben rechts). Die Niederlande und Japan sind hierfür Beispiele. Die zweite lautet, wenn man eine hohe Energieerzeugung pro Kopf hat, kommt man leichter zu einem hohen Pro-Kopf-Einkommen (Überlegenheit der großen Blasen oben rechts).

Die Website Gapminder erlaubt uns auch, einen Blick auf die Geschichte der verschiedenen Länder zu werfen. Hier folgt die Entwicklung in einigen Ländern mit der Zeit. Das Niveau, auf dem die Namen der Länder stehen, zeigt jeweils den Beginn der Aufzeichnung.

Abbildungen 5 und 6: Wie in Abbildung 3, jedoch jetzt mit der Entwicklung einiger Länder von 1971 bis 2007. Die Größe der Blasen steht für die Pro-Kopf-Energieerzeugung in diesem Land. Die Farbe der Blasen steht für die Gesamtölproduktion in diesem Land. „Spurlinien“ zeigen die Werte Jahr für Jahr. Beide Skalen sind logarithmisch. Abb. 5  Quelle1, Abb. 6: Quelle2*.

[*Im Original steht in der letzten zeile der Bildunterschrift Fig. 4 bzw. Fig. 5. Dies halte ich für ein Versehen des Autors, da sich ja beides auf die Abbildungen 5 und 6 bezieht. A. d. Übers.]

Einige Bemerkungen zu den historischen Abbildungen. Zunächst wird die Richtung, die Sie für Ihr Land sehen möchten, eine Bewegung nach unten und nach rechts sein. Dies würde für weniger Energieverbrauch und mehr Einkommen stehen. Ganz allgemein bewegt sich jedoch fast kein Land in dieser Richtung.

Die schlechte Richtung wäre nach oben und nach links. Dies stünde für einen größeren Energieverbrauch, um weniger Geld zu verdienen. Hässlich! Die Saudis haben sich während der letzten Jahre in diese Richtung bewegt.

Einige Länder liegen im ungünstigsten Quadranten links unten. Hier wird weniger Energie verbraucht und auch weniger Geld verdient. Zimbabwe und die „demokratische“ Republik Kongo stehen dort. Schlechtes Zeichen! Es bedeutet Rück-Entwicklung und schließt in der Regel ein, dass sowohl die Menschen dort als auch die Umwelt leiden.

Bleibt der vierte Quadrant rechts oben. Hier wird mehr Energie verbraucht und mehr Geld verdient. Gemeinhin nennt man das „Entwicklung“ alias aus der Armut herauskommen. Man verdient genug Geld, um sich den Schutz der Umwelt leisten zu können.

Die Spielregel lautet, sich so weit wie möglich nach rechts (zunehmendes Geld) und sich so wenig wie möglich nach oben (zunehmender Energieverbrauch) zu bewegen. Bangladesh beispielsweise steht nicht so gut da wie Indien, da es sich steiler nach oben bewegt. In den siebziger und achtziger Jahren China war genauso gut wie Indien, aber während des letzten Jahrzehnts der Aufzeichnung ging es steiler nach oben. Man beachte, dass Indien seine Energie hauptsächlich aus Kohle erzeugt.

Russland bewegte sich Anfang der neunziger Jahre nach unten und nach links, hat sich aber seitdem erholt und das Einkommen fast verdoppelt, ohne wesentliche Zunahme des Energie[verbrauchs]. Es ist kurios, dass das Einkommen jetzt auf dem Niveau von 1990 liegt, aber der Energieverbrauch geringer ist. Das Gleiche gilt für Usbekistan und viele andere frühere Mitglieder der Sowjetunion. Zu ihren Gunsten [muss gesagt werden], dass sie sich aus dem Zusammenbruch der Sowjetunion heraus gekämpft haben und zu einer effizienteren Form zurück gekehrt sind. Tatsächlich haben sich die Usbeken während der vergangenen Dekade nach unten und nach rechts bewegt, und das ist der Heilige Gral der Entwicklung, mehr zu produzieren mit weniger Energieverbrauch.

Die armen Saudis andererseits bewegen sich inzwischen fast senkrecht nach oben (sie brauchen mehr Energie, um das gleiche Einkommen zu erzielen) und haben sogar etwas an Boden verloren. Und Senegal hat sich nirgendwohin bewegt.

In Japan, China, Mexiko und Australien hat sich die Pro-Kopf-Energieerzeugung während der Periode erhöht (Blasengröße), während sie in den USA und Russland in etwa gleich geblieben ist. Die Gesamtölproduktion in den USA ist zurück gegangen (Blasenfarbe), während sie in China zugenommen hat. Die russische Ölerzeugung ist erst zurück gegangen, hat sich aber wieder erholt.

In USA und UK tat sich etwas Merkwürdiges. Der Pro-Kopf-Energieverbrauch in beiden Ländern lag jeweils 2007 etwa gleich hoch wie 1979. Aber das Einkommen hat sich erhöht. In beiden Ländern hat sich das Pro-Kopf-Einkommen fast verdoppelt, praktisch ohne jede Erhöhung des Pro-Kopf-Energieverbrauchs. Ich weiß nicht, was sie richtig machen, aber wir sollten es herausfinden und kopieren…

Schlussfolgerungen und –bemerkungen:

1. Entwicklung ist Energie, und Energie ist Entwicklung. Obwohl einem Effizienz und Konservierung helfen können, muss man im Allgemeinen den Energieverbrauch steigern, um das persönliche Einkommen so zu erhöhen, dass man aus der Armut herauskommt. Verteuert man die Energie, ist das erheblich rückschrittlich, da sich die armen Länder und die armen Leute das einfach nicht leisten können. Kohlenstoffsteuern, „Zertifikatehandel“ oder andere Energiesteuern sind ein Verbrechen gegen die weniger begünstigten Bewohner unseres Planeten.

2. Große Länder mit höheren Transportkosten werden pro Dollar Einkommen mehr Energie verbrauchen als kleine Länder.

3. Innerhalb der „Wolke” von Ländern in Abbildung 3 ist es möglich, die Energieeffizienz zu steigern und mehr Geld mit der gleichen Menge verbrauchter Energie zu verdienen.

4. Länder mit hoher Energieerzeugung tendieren dazu, mehr davon zu verschwenden als andere Länder mit geringer Energieerzeugung.

5. Die bevorzugte Stelle für jedes gegebene Einkommensniveau befindet sich am unteren Rand der „Wolke“ der Länder mit diesem Einkommen. Hier bekommen Sie das meiste Geld für Ihre Arbeit. Viele europäische Länder liegen an dieser Stelle. Die USA und Kanada liegen etwa in der Mitte der Wolke. Allerdings sind sie wie erwähnt viel größer als die europäischen Länder.

6. China, Indien und Bangladesh wiesen 1971 in etwa das gleiche Pro-Kopf-Einkommen auf, circa 700 Dollar pro Jahr. Die Unterschiede ihrer jetzigen Position sind groß, hat doch Bangladesh ein solches Einkommen von 1400 Dollar, Indien von 2600 Dollar und China von 6000 Dollar pro Jahr.

7. Leider reichen die Datensätze nur bis 2007… es wäre interessant zu sehen, in welche Richtung sich sowohl der Energieverbrauch als auch das Einkommen im Zuge der globalen Finanzkrise bewegen.

8. Zum Schluss: wenn jemand das Wort „Technologie“ in den Mund nimmt, denken viele Umweltaktivisten sofort an „Bulldozer“. Sie sollten lieber an „Energieeffizienz“ denken! Schließlich leistet Technologie mehr mit weniger. Es ist die Technologie, die es uns gestattet, weniger Benzin pro Meile zu verbrauchen. Durch eine gewisse Kombination von Konservierung und technologischer Fortschritte waren die USA und UK in der Lage, ihr Einkommen bei gleichem Energieverbrauch zu verdoppeln. Von diesem technologischen Fortschritt profitieren sowohl jeder Einzelne als auch die Umwelt.

P.S.: Die Links zu den Quellen unter jeder Abbildung verweisen auf die korrespondierenden Abbildungen auf der Website Gapminder. Dort kann man mit den Variablen spielen oder die Geschichte der Länder verfolgen, die ich hier nicht erwähnt habe.

Weitere Beiträge des Autors: Willis Eschenbach

Link zum Artikel, auf den sich Eschenbach ganz oben bezieht: “Detecting Novel Associations in Large Data Sets

Link: http://wattsupwiththat.com/2011/12/19/dont-tax-development-it-hurts-the-poor/

Übersetzt von Chris Frey für EIKE




Rahmstorfs neue Temperaturstudie nach Strich und Faden auseinandergenommen

Dabei scheinen die Herren die Rechnung ohne den Wirt gemacht zu haben. An der fachlichen Kompetenz klimaskeptischer Blogger beißen sich die Alarmisten nämlich zunehmend die Zähne aus. F&R widersprechen nur scheinbar wohlbegründet der seit 13 Jahren andauernden Stagnierung des Erwärmungstrends, wie sie z.B. die Hadcrut-Daten zeigen (vgl. auch wood4trees):

Lesen Sie den auf WUWT veröffentlichten Artikel, der hier in deutscher Übersetzung folgt:

Zeigen Foster und Rahmstorf den wirklichen Temperaturtrend?

Frank Lansner

Abbildung 1: Foster und Rahmstorf (F&R) haben vor Kurzem ein Schriftstück mit dem Titel „The Real Global Warming Signal“ veröffentlicht. Ich glaube, damit wollen sie das „skeptische“ Argument in Frage stellen, dass die Temperaturen während der letzten Dekade oder noch länger stagniert haben. Da dies ein wesentlicher Bestandteil der Klimadebatte ist, habe ich mich entschlossen zu untersuchen, ob F&R eine vernünftige Berechnung unter Verwendung relevanter Parameter durchgeführt haben.

Die globalen Temperaturen haben dieser Tage einen ziemlich flachen Trend:

 

Abbildung 2: Es ist möglich, bis zum 1. Mai 1997 zurückzugehen und immer noch einen gleichbleibenden Trend in den Temperaturdaten von Hadcrut zu erkennen, daher wird dieser Datensatz als Gegenstand dieses Artikels sein:

Können die Argumente und Berechnungen von F&R tatsächlich einen signifikanten Erwärmungstrend selbst in den Daten von Hadcrut von 1998 bis 2011 erzeugen?

F&R benutzen drei Parameter für ihre Korrekturen, ENSO, AOD (vulkanische atmosphärische Dämmerung [dimming]) und TSI (totale Solarstrahlung).

“Einwand”: Die TSI ist kaum der wesentliche Parameter, wenn es um den solaren Einfluss auf das Erdklima geht.

Angemessener wäre es, so etwas wie „Sonnenaktivität“, „Sonnenfleckenzahl“, „Wolkenbedeckung“, „Magnetismus“ oder „Kosmische Strahlen“ zu verwenden. Die TSI ist weniger relevant und sollte nicht herangezogen werden.

 

Abbildung 3: F&R haben MEI [?] gewählt, um die Auswirkungen von El Nino und La Nina auf die globalen Temperaturen zu repräsentieren. MEI sind die „rohen“ Nina 3,4 SST, die direkt El Nino und La Nina repräsentieren, aber im MEI-Index ist auch der SOI implementiert. Um den am besten geeigneten Parameter zu finden, habe ich den ONI [?] von NOAA, der lediglich der Nina 3,4-Index ist, mit dem MEI auf Temperaturverläufe verglichen, um zu evaluieren, welcher davon bevorzugt werden sollte.

Sowohl Hadcrut als auch RSS passen etwas besser zu dem reinen Nina 3,4-ONI-Index, welcher daher im Folgenden benutzt wird. (Beide Datensätze wurden um 3 Monate verschoben, um die beste Anpassung mit Temperaturvariationen zu erhalten).

Abbildung 4: Nach Anbringung der Korrektur für den Nina 3,4-Index (El Nino + La Nina) ist immer noch kaum ein Trend in den Hadcrut-Daten von 1998 bis 2011 zu erkennen. (Falls man sich für MEI entschieden hat, resultiert das in einem leichten Erwärmungstrend um etwa 0,07 K pro Dekade für die korrigierten Hadcrut-Daten von 1998 bis 2011).

 

Abbildung 5: Dann habe ich den SATO-Datensatz bzgl. Vulkanen skaliert. In den Jahren nach 1998 gibt es nicht wirklich irgendeinen Einfluss von Vulkanen, so dass wir sagen können:

Es gibt keinen Erwärmungstrend in den Hadcrut-Daten nach 1998, selbst wenn man Korrekturen für El Nino/La Nina und Vulkane anbringt.

Jedoch ändert sich dies, wenn man die Sonnenaktivität ins Spiel bringt, wozu ich die Sonnenfleckenzahl SSN gewählt habe, um die Sonnenaktivität zu repräsentieren:

 

Abbildung 6: Um die Skalierung von SSN besser abschätzen zu können, habe ich die mit Nino 3,4 und vulkanisch korrigierten Hadcrut-Daten trendbereinigt und SSN skaliert, bis es am besten passte. Anders als F&R bekomme ich heraus, dass die Variation von SSN etwa bei 0,2 K liegt und nicht 0,1 K, wie F&R zeigen.

Nun sehen Sie, was passiert:

Abbildung 7: F&R beschreiben die Sonnenaktivität („TSI“, wie sie das nennen…) als von geringster Bedeutung in ihren Berechnungen. Jedoch ist es nur die Sonnenaktivität SSN, die dafür sorgt, dass Hadcrut selbst in den Jahren nach 1998 einen Erwärmungstrend zeigen, wenn man sie korrigiert. In Abbildung 7 habe ich die jährlichen Ergebnisse von F&R für Hadcrut geplottet, und sie sind nahezu identisch mit meinen Ergebnissen.

Folglich komme ich zu dem Schluss, dass sich eine geringere Erwärmung durch meine Verwendung von Nino 3,4 verglichen mit dem größeren Einfluss der Sonnenaktivität gegenseitig aufheben.

Argumente:

Bis hier habe ich evaluiert, was F&R getan haben, jetzt wollen wir Alternativen beleuchten:

1) F&R nehmen an, dass eine Temperaturänderung beispielsweise durch El Nino oder durch eine Periode erhöhter Sonnenaktivität unmittelbar nach Ende eines solchen Ereignisses wieder verschwindet. F&R nehmen an, dass sich die Wärme nicht von einem Temperaturereignis zum nächsten ansammelt.

2) Fehlende Korrekturen für die PDO

3) Fehlende Korrekturen für menschliche Aerosole – (Vermutung: Die sind wichtig)

4) Fehlende Korrektur für die AMO

5) F&R hätten die Auswirkungen ihrer Anpassungen vor 1979 erwähnen können.

Punkt 1: F&R nehmen an, dass jedweder Effekt einer kurzen Erwärmung oder Abkühlung sofort nach Ende des Ereignisses komplett wieder verschwindet.

Im Grunde fordert die Vorgehensweise von F&R, dass alle Auswirkungen der drei Parameter, die sie für Korrekturen verwenden, lediglich Augenblickseffekte haben.

Beispiel:

Abbildung 8.

In den oben gezeigten Näherungen werden die Nino 3,4-Spitzen entfernt, und zwar unter der Annahme, dass alle Auswirkungen beispielsweise von einem kurzen, intensiven Wärmeeffekt entfernt werden können, indem man die Wärme lediglich dann entfernt, wenn die Aufheizung stattfindet, aber nicht mehr entfernt werden kann, wenn der Effekt selbst beendet ist.

Um diese Näherung nun zu untersuchen, verglich ich zwei Datensätze. A) Hadcrut-Temperaturen, „korrigiert“ für Nina 3,4 und SSN-Effekte wie oben gezeigt – trendbereinigt. B) Der Nino 3,4-Index, der auf El Ninos/La Ninas und damit die zeitliche Folge der Anpassungen hinweist. (Man erinnere sich, der Nino 3,4 wurde um 3 Monate verschoben, um zu den Temperaturdaten vor der Anpassung zu passen):

Abbildung 9
Nach dem “Entfernen” der durch La Ninas während einer spezifischen El Nino-Periode hervorgerufenen Wärme beispielsweise kann man 1 bis 2 Jahre später in den „Nino 3,4“-korrigierten trendbereinigten Temperaturdaten Wärmespitzen erkennen. Nach den roten Spitzen erkennt man schwarze Spitzen.

Dies bedeutet, dass die Näherung der systematischen Entfernung von Wärme, wenn der Erwärmungseffekt stattfindet, fundamental falsch ist.

Falsch bis zu welchem Ausmaß? Typischerweise zeigt [sich] die für Nina 3,4 korrigierte nicht eliminierte Wärme 1 bis 2 Jahre später als der Wärmeeffekt. Könnte dies einen Einfluss auf dekadische Temperaturtrends haben? Vielleicht: In den meisten Fällen von El Nino-Spitzen erscheint erst die rote Nino 3,4-Spitze und 1 bis 2 Jahre später die verbleibende schwarze Temperaturspitze, die danach abfällt. Aber man beachte, dass normalerweise der Abfall der verbleibenden Wärme (schwarz) dann stattfindet, wenn der rote Nino 3,4-Index anfängt.

Dies lässt vermuten, dass die verbleibende Wärme einer El Nino-Spitze nicht von selbst verschwindet, sondern vielmehr erst dann beseitigt wird, wenn kältere Nino 3,4-Bedingungen einen Abkühlungseffekt induzieren.

Ganz allgemein arbeiten wir mit verrauschten Vulkan- und SSN-korrigierten Daten, so dass es bei jeder Schlussfolgerung einige Situationen gibt, bei denen die „normalen“ Beobachtungen nicht gut erkennbar sind.

Und was passiert nun, wenn man sich auf Perioden konzentriert, in denen der Nino 3,4-Index länger als 2 Jahre neutral ist – keine wesentlichen Spitzen?


Abbildung 10

Jetzt wurde der trendbereinigte Hadcrut-Temperaturdatensatz für Nina 3,4 korrigiert, Vulkane und SSN – schwarze Kurve – und über 2 Jahre gemittelt:

Die Auswirkungen von El Ninos und La Ninas sind immer noch klar erkennbar, und zwar in Daten, die vermeintlich um diese Auswirkungen korrigiert worden waren. Da diese Korrektur von F&R ihre „allerwichtigste“ Korrektur sein soll und scheitert, kann man daraus folgern, dass F&R 2011 fundamental widerlegt und nutzlos ist.

Die Wirklichkeit ist komplex, und F&R haben meist nur die Spitze des Eisbergs gesehen, nicht mehr.

Mehr noch: Man betrachte die Perioden von 1976 bis 1981 und 2002 bis 2007. In beiden Fällen [gab es] einen Zeitraum von einigen Jahren, in denen der Nino 3,4-Index ziemlich neutral war. In diesen Fällen ändert sich das Temperaturniveau nicht besonders stark.

In der Periode von 1976 bis 1981 sorgt La Nina dafür, dass es bis 1977 kalt bleibt und auch noch Jahre später kalt bleibt, in denen Nino 3,4 ziemlich neutral ist. Nach dem El Nino 2003/2004 bleibt der Nino 3,4-Index [ebenfalls] ziemlich neutral, und die Temperatur hält sich einfach auf dem warmen Niveau.

Punkt 2: fehlende Korrektur für die PDO

In einen ziemlich guten im Zusammenhang mit dem ersten Punkt, nämlich dem Ignorieren langzeitlicher Effekte von Temperaturspitzen, erkennen wir keine Erwähnung der PDO.

 

Abbildung 11: Don Easterbrook  vermutet, dass es zu einer generellen Erwärmung kommt, wenn die PDO in der Warmphase ist, und zu einer generellen Abkühlung in ihrer Kaltphase. Das heißt, obwohl [der] PDO-Index konstant und warm bleibt, sollte sich die Wärme über die Jahre eher akkumulieren als nur kurzzeitig strikt in Zusammenhang mit dem PDO-Index eines gegebenen Jahres stehen. Dies steht in voller Übereinstimmung mit den langzeitlichen Effekten von Temperaturspitzen wie unter Punkt 1 gezeigt.

Don Easterbrook schlägt eine Erwärmung um 0,5 K im Zeitraum 1979 vor, und zwar durch den langzeitlichen PDO-Wärmeeffekt. Ich denke, dass dies im Prinzip korrekt ist, ich kann nicht beurteilen, ob der Wert 0,5 K korrekt ist – offensichtlich wird über ihn debattiert – aber sicherlich muss man die langzeitliche Auswirkung der PDO auf die Temperaturen in Zusammenhang mit JEDEM Versuch betrachten, Temperaturdaten zu korrigieren. F&R haben das nicht getan, obwohl die Wärme durch die PDO potentiell ausreicht, den gesamten Erwärmungstrend nach 1979 zu erklären.

Ich möchte Temperaturdaten für den PDO-Effekt analysieren, falls möglich.

 

Abbildung 12: PDO-Daten von http://jisao.washington.edu/pdo/PDO.latest.

Um den PDO-Effekt zu analysieren, müssen wir uns vergegenwärtigen, dass die PDO und Nino 3,4 (nicht überraschend) eine Menge gemeinsam haben. Dies bedeutet, dass ich PDO-Effekte in einem für Nino 3,4 „korrigierten“ Datensatz nicht analysieren kann, weil es bis zu einem gewissen Grad auch für die PDO „korrigiert“ wäre…

Mehr, diese starke Ähnlichkeit zwischen Nino 3,4 und PDO hat seine Konsequenz: Wenn Don Easterbrook sagt, dass [die] PDO einen langzeitlichen Effekt hat, sagt er auch, dass Nino 3,4 einen langzeitlichen Effekt hat – wie ich unter Punkt 1 schon gefolgert hatte.

Abbildung 13: Also arbeite ich mit dem PDO-Signal verglichen mit den für Vulkane und SSN korrigierten Hadcrut-Temperaturen allein. Der generelle Gedanke, dass sich Wärme von einer Periode zur nächsten (langzeitliche Effekte) akkumulieren kann, wird in diesem Vergleich klar gestützt. Falls man erwarten kann, dass die PDO-Wärme (wie jede Wärme!) akkumuliert werden kann, können wir für jede größere PDO-Wärmespitze sehen, dass die Temperatur auf der Erde auf ein konstant höheres Niveau steigt.

Abbildung 14: Beachte: Anfang der sechziger Jahre ist die Korrektur [infolge des] Vulkans Agung höchst fragwürdig, weil verschiedene Datenquellen, die die Auswirkung des Agung betreffen, überhaupt nicht übereinstimmen. Sehr wahrscheinlich habe ich den kühlenden Effekt des Agung über-angepasst. Auf dem obigen Graph vom Mauna Loa wird deutlich, dass man kaum eine Anpassung vornehmen sollte…

Wissenschaftler behaupten oft, dass wir das CO2 in die Modelle einführen MÜSSEN, um den Erwärmungstrend zu erklären. Hier folgen Wärmetrends korrigiert für Vulkane und SSN; und jetzt sehen Sie, wie viel Mathematik man braucht, um den Temperaturanstieg mittels der PDO nach 1980 zu erklären:

 

Abbildung 15: „Mathematik” zur Erklärung des Temperaturtrends mittels PDO. Wegen der Ungewissheit der Daten um 1960 (Agung + fehlende Übereinstimmung mit dem RUTI-Weltindex/unangepasste GHCN-Daten) habe ich je einen Graphen vor und nach 1960 gezeichnet. In jedem Monat addiere ich einen Bruchteil des PDO-Signals zur Temperatur des vergangenen Monats, das heißt, ich nehme an, dass die im vergangenen Monat erzeugte Wärme „nicht von selbst verschwinden“ würde, sondern von Auswirkungen des Vormonats reguliert wird. Diese Näherung ist wahrscheinlich auch nicht perfekt, aber sie zeigt, wie leicht Temperaturtrends erklärt werden können, wenn man den globalen Einfluss der PDO akzeptiert.

(Außerdem habe ich einige andere Szenarien entworfen, bei denen die Temperatur bis zu einem gewissen Grad nach Null strebt, und bei denen ich auch die Quadratwurzel der PDO-Eingangsdaten nutzte, mit denen es etwas besser geht, Quadratwurzeln machen kleinere Änderungen bei einer PDO um Null deutlicher sichtbar).

Und jetzt, wie kann die PDO allein zu einer langen stetigen Wärme auf der Erde führen? Kommt die Wärme aus den Tiefen der Ozeane, oder was?

Abbildung 16: Es ist von vorherein klar, dass SSN und PDO (und damit Nina 3,4 wie gezeigt) zusammen hängen. Ist es wahrscheinlich, dass die PDO die Sonnenfleckenzahl beeinflusst? Nein, und darum können wir schlussfolgern, dass die Sonnenaktivität die Temperatur der PDO treibt, was wiederum die Temperaturänderungen auf der Erde erklären kann.

Plötzlich wurde diese Analyse viel interessanter als die F&R-Evaluation, aber dieser Graph zeigt auch, dass F&R noch in einem anderen Punkt falsch lagen: Man beachte an diesem Graphen, dass wir mit Temperaturen arbeiten , die für die Sonnenaktivität „KORRIGIERT“ worden sind… aber NACH jeder SSN-Spitze sehen wir immer noch die Akkumulation von Wärme nach dem „Korrigieren“ für die Sonnenaktivität. Und wieder folgt daraus, dass es fundamental falsch ist anzunehmen, dass es keine langzeitlichen Auswirkungen von Temperaturänderungen gibt. Dieses Mal kann man Auswirkungen der Temperatur in vielen Jahren sehen, lange nachdem sich die „korrigierte“ Sonnenaktivität ereignet hatte.

Schlussfolgerung: Die PDO wird offensichtlich von der Sonne getrieben und kann leicht die analysierten Temperaturentwicklungen erklären.

Punkt 3: Fehlende Korrekturen für menschliche Aerosole – von denen man annimmt, dass sie wichtig sind

Seitens AGW wurde wiederholt behauptet, dass menschliche Sulfate/Aerosole signifikante Temperaturänderungen auf der Erde erklären können.

Wenn man F&R liest, kann ich nicht aufhören, mich zu wundern: Warum sprechen sie jetzt nicht von menschlichen Aerosolen?

 

Abbildung 17. Quelle: http://www.manicore.com/anglais/documentation_a/greenhouse/greenhouse_gas.html. In fast allen Quellen von Sulfatemissionen scheint es so zu sein, das die Emissionen um 1980/90 beginnen abzunehmen.

Falls diese Aerosole wirklich signifikante Abkühlung erklären können, nun, dann sollte ein Agens für die reduzierte Abkühlung nach 1980 dafür verantwortlich sein, wenn man Temperaturen anpasst, um „das echte“ Temperatursignal zu finden. F&R haben das nicht getan.

Punkt 4: Fehlende Korrektur für die AMO:

Die AMO scheint die Temperaturen in der Arktis und auch in weiten Landgebieten der Nordhemisphäre zu beeinflussen.

 

Abbildung 18: Tatsächlich kann davon ausgegangen werden, dass die von der AMO beeinflusste Temperatur der Arktis ein wichtiger Parameter globaler Temperaturtrends ist und folglich Korrekturen für die AMO relevant sein können. Die AMO scheint die Temperaturen der Jahre 2000 bis 2010 getrieben zu haben, so dass jede Korrektur der Temperaturen mittels AMO den Temperaturtrend nach 1980 reduzieren würde.

F&R haben die AMO nicht erwähnt.

Punkt 5: F&R hätten die Auswirkung ihrer Anpassungen [auf Daten] vor 1979 erwähnen können

F&R zeigen lediglich Auswirkungen nach 1979, möglicherweise wegen nur begrenzt zur Verfügung stehender Satellitendaten.

 

Abbildung 19: „Korrigiert” man Hadcrut-Daten für Nino 3,4 + Vulkane stellt sich heraus, dass der Wärmetrend von 1950 um 0,16 K oder 25% reduziert ist. Warum zeigen F&R das nicht?

Ich habe 1950 als Startpunkt gewählt, weil sowohl Nina 3,4 und der SATO-Vulkanindex in jenem Jahr beginnen.

Schlussfolgerung

F&R scheinen anzunehmen, dass Temperaturauswirkungen auf der Erde sich nur während der Ereignisse auswirken, nicht danach. Wenn man ein Glas Wasser erwärmt, wird die Wärme nicht sofort wieder verschwinden, wenn man die Wärmequelle entfernt. Daher muss dokumentiert werden, dass dies für diese Erde nicht gelten soll.

Das bloße „Korrigieren” des augenblicklichen Einflusses auf die Temperatur und nicht auf die Auswirkungen nach Ende des Ereignisses erzeugt einen ziemlich komplexen Datensatz mit signifikanten Randwertfehlern. Folglich sind die „angepassten Daten“ nach F&R für die Temperatur offensichtlich nutzlos. Zumindest bis die langzeitliche Auswirkung von Temperaturänderungen in robuster Manier geklärt worden ist.

Ferner scheinen die PDO, Nin 3,4 [?] und Sonnenaktivitäten zusammen zu hängen, und schon unter Verwendung der einfachsten Mathematik (für die PDO) können diese die jüngste Temperaturentwicklung auf der Erde erklären. Das Argument, dass man das „CO2 braucht, um jüngste Temperaturtrends erklären zu können“, ist offensichtlich absolut falsch.

Folglich könnte die “Korrektur” langzeitlicher Auswirkungen für PDO/Nina 3,4 den Wärmetrend der Temperaturdaten insgesamt entfernen.

Es wurde gezeigt, dass die Sonnenaktivität ein wichtiger Treiber von PDO/Nino 3,4 und damit für das Klima ist.

Können wir nun abschließend Temperaturdaten ohne die Arten der o. g. Korrektur verwenden?

Beachtet man die Komplexitäten, die mit solchen Anpassungen einher gehen, ist es sicher besser, die aktuellen Daten zu akzeptieren als einen Datensatz, der offensichtlich fundamental falsch ist.

Sollte man solche Anpassungen nur für Nino 3,4 vornehmen, fehlen die langzeitlichen Effekte von Nina 3,4. Außerdem entfernt es nicht den flachen Trend aus der jüngsten Dekade der Hadcrut-Temperaturdaten.

Frank Lansner

in der Diskussion zum Artikel auf der WUWT Site zeigt z.B. Bob Tisdale wo Lansner irrt, allerdings Rahmstorf et al ebenso.

Mit Dank an K. Gans für den Hinweis.

Link von Watts zu diesem von ihm ins Netz gestellten Artikel: http://wattsupwiththat.com/2011/12/17/frank-lansner-on-foster-and-rahmstorf-2011/#more-53252

Link zu den Bemerkungen im Subheader von  climateobservator:

http://www.science-skeptical.de/blog/rahmstorfs-neue-temperaturstudie-nach-strich-und-faden-auseinandergenommen/006390/

Links zu dem Papier von F&R, das hier nach Strich und Faden auseinandergenommen wird: Global temperature evolution 1979–2010 und http://tamino.wordpress.com/2011/12/06/the-real-global-warming-signal/

Übersetzt von Chris Frey für EIKE

Technische Bemerkung des Übersetzers: Dieser Artikel sprengt zeitweise wieder meine Fachkenntnisse. Unabhängig davon zeichnen sich manche Passagen aber auch durch unvollständige Sätze oder offensichtlich falsche Zuordnungen und auch Rechtschreibfehler aus. In allen diesen Fällen habe ich Abweichungen oder zusätzlich eingefügte Wörter mit [] eckigen Klammern gekennzeichnet.

C. F.




„Klimafakten“ und die Definition der Wahrheit – oder ist Wahrheit Ansichtssache?

Im Netz gibt es eine weitere Seite, die die Bürger mit Fakten, im speziellen Fall, „Klimafakten“, informativ an die Wahrheit, das Wahre, die Realität also, heranführen möchte. „Klimafakten“, endlich eine Seite, die Fakten liefert, was denn nun los ist mit unserem Wetter und Klima oder ist damit etwa gar nichts los? Fakten sollen bekanntlich Realitäten, Wahrheiten aufzeigen, bzw. liefern. Die Enttäuschung über die Zeitvergeudung bei näherer Betrachtung war indes nicht unerheblich oder mit dem geflügelten Satz zu umschreiben „Außer Spesen, nichts gewesen“, was nun wieder einen direkten Zusammenhang zu dem jüngsten Klimarummel in Durban liefert, den die Politik, unterstützt von diversen Instituten, wie dem PIK veranstaltet, um unser Bestes zu wollen. Nicht unser Geld, wie jetzt vielleicht mancher zu denken glaubt, nein, unser Klima und damit unsere Lebensgrundlagen, zu retten (sofern sich das Klima von uns Menschen überhaupt retten lässt). In Anbetracht solch geistiger Verwandtschaft lag es nahe, einen Blick auf die Personenliste zu werfen, die die „Wahrheitsseite“ betreibt. Und in der Tat, bekannte Personen, die die Politik mit „Wahrheiten“ beliefert und mit ihr zu sonnigen, urlaubsbekannter Orte, Entschuldigung, heißt natürlich von Klimagipfel zu Klimagipfel jetten, sind dort aufgeführt. Für wahr, eine glaubwürdige, will heißen, unabhängige „Elite“, die sich dort zusammen findet, um uns Bürgern im Land, die Wahrheit, also Fakten zu liefern. Unser EIKE- Artikel möchte exemplarisch ein paar der dort zu findenden „Wahrheiten“ unter die Lupe nehmen.

Ganz vorne steht die Aussage: “97 Prozent der Klimaforscher sind überzeugt, dass der Mensch den Klimawandel verursacht“ und weiter “Es ist wissenschaftlich gesichert und gut belegt, dass der Mensch Hauptverursacher der bereits laufenden globalen Erwärmung ist.“ Warum braucht man dann noch eine „Wahrheitsseite“ im Netz, betrieben von so bekannten Personen wie Rahmstorf – war dass nicht der Rahmstorf, der sich Wissenschaftler nennt und zuweilen Wissenschaft mit einem Wettbüro verwechselt (http://www.scilogs.de/wblogs/blog/klimalounge/klimadaten/2008-05-08/die-klimawette).

Doch zurück zum obigen Zitat. In der Kommunikationswissenschaft wird solches mit einem „Totschlagargument“ gekennzeichnet. Unter Wikipedia steht dazu folgendes:

„Totschlagargumente sind inhaltlich nahezu leere Argumente, also Scheinargumente, bloße Behauptungen oder Vorurteile.“ Wikipedia liefert hierzu Beispiele wie „Jeder vernünftige Mensch weiß, dass …“, oder „Das ist doch allgemein bekannt.“

In der Wissenschaft werden üblicherweise Fragen gesucht, deren Beantwortung diskutiert und Für und Wider gegeneinander „abgewogen“. Von einer weiteren Person, die der Netzseite ein wissenschaftliches Renommee gibt, Prof. Marotzke, MPI, stammt folgende Aussage:

“Unsere Arbeiten zeigen zum ersten Mal mit einem umfassenden gekoppelten Klimamodell, dass die Erde bei heutiger Sonneneinstrahlung und heutiger Konzentration von Kohlendioxid in der Atmosphäre sowohl den heutigen Klimazustand als auch den Eisballzustand annehmen kann.“

Bravo! Herr Prof. Marotzke, wann dürfen Ihre Leser Ihre Einschätzung zu der Güte der Klimamodelle auf „Klimafakten“ lesen. Zum weiteren Inhalt von „Klimafakten“.

Einer der dortigen Berichte befasst sich mit Temperaturreihen und diverser Institute, die diese Reihen zusammenstellen. Nun, seit Climategate weiß die Welt, wie dort Klimawissenschaft durch Taschenspielertricks ersetzt wurde. EIKE berichtete ausführlich darüber. Wissenswertes darüber ist auch unter der Internetseite vor Prof. Watts oder in der Studie “Surface Temperature Records: Policy Driven Deception?“ (http://scienceandpublicpolicy.org/images/stories/papers/originals/surface_temp.pdf), oder  hier zu finden (http://surfacestations.org/).

Da die Betreiber der Netzseite „Klimafakten“ explizit auf die Güte der GISS-Reihen verweisen, eine kleine Kostprobe, was es mit dieser Güte auf sich hat:

Abbildung 1 (Quelle: http://icecap.us/images/uploads/GHG_Model_failure_AO.pdf) zeigt die GISS-1980-Datenreihe (blau) und zum Vergleich, für exakt denselben Zeitraum, die GISS-Datenreihe 2010 (rot), in der auf wundersame Weise, der Temperaturverlauf gänzlich anders ist. Zum Vergleich ist darüber hinaus die Abweichung der Satellitenmessungen (+0,26°C) für 2009 eingetragen.

Weiter weiß der EIKE-Leser bereits, dass sich über 50% aller weltweiten Temperaturmessstationen des GHCN (erstellt die globalen Temperaturreihen) auf Flughäfen befinden und mittelbar und unmittelbar von den bis zu 600°C-heißen Jetabgasen beaufschlagt werden. Für globale Temperaturaussagen, die sich im Zehntel-°C-Bereich befinden, für wahr eine mehr als fragwürdige Darbietung. Und man braucht nicht weit zu gehen, um solch eine „Gütestation“ zu finden.

 

Abbildung 2 zeigt die Wetterstation auf dem Frankfurter Flughafen. Sie liegt nicht nur sehr nah am Rollfeld (ca. 70m), sondern in direkter Richtung zu den Abgasstrahlen der Jets, wie in der rechten Abbildung zu sehen. Das Bild erinnert frappierend an die Zustände auf dem Flughafen Rom, wie von Antony Watts gezeigt.

 

Abbildung 3 zeigt die Lage der DWD-Wetterstation auf dem Flughafengelände Frankfurt (roter Pfeil).

Der mittlere Temperaturhub, der sich durch den Flugbetrieb ergibt und durch die direkte, wie die indirekte Beaufschlagung über Wirbelschleppen erfolgt, liegt bei ca. +2,5°C, wie EIKE berichtete.

Optimisten könnten nun anführen, dass immerhin noch fast die Hälfte der Stationen brauchbar ist, doch leider weit gefehlt, wie der angegebene Link http://surfacestations.org/ und Abbildung 4 und 5 zeigen.

 

Die Messstation befindet sich direkt gegenüber einem Parkplatz in nur 2-3 m Entfernung zur Motorabwärme der Fahrzeuge. Unmittelbar gegenüber der Messhütte ist im Abstand von 3m gerade ein Messfahrzeug des Deutschen Wetterdienstes geparkt. Der Autor möchte nun nicht so weit gehen und fragen, ob immer dann dort Fahrzeuge abgestellt werden, wenn gerade einmal wieder Rekordtemperaturen benötigt werden. Auf jeden Fall verwundert es wohl niemanden mehr, dass gerade die Station in Karlsruhe immer unter den Temperaturrekordhaltern in Deutschland platziert ist.

 

Geradezu abenteuerlich die Aussage von „Klimafakten“ zum  Wärmeinseleffekt (WI), der angeblich heraus gerechnet würde und überhaupt sehr gering sei. Erstens wird der WI weder von dem GISS, noch vom DWD heraus gerechnet, mehr noch, die Stationsleiter des DWD kennen auf Anfrage nicht einmal den WI ihrer Station! Und zweitens ist er alles andere als gering, wie die Bundesanstalt für Geowissenschaften und Rohstoffe bestätigt.

Abbildung 6 verdeutlicht am Beispiel der USA für den Zeitraum von 1910 bis 2000 den WI der Temperaturmessungen. Regionen mit geringer Einwohnerzahl weisen niedrige Temperaturen und fast keinen Temperaturanstieg auf, wogegen in Ballungsräumen eine signifikant höhere Durchschnittstemperatur und ein deutlicher Temperaturanstieg  zu verzeichnen ist, Quelle: Klimafakten, S. 212, der Bundesanstalt für Geowissenschaften und Rohstoffe. Die Bundesanstalt für Geowissenschaften und Rohstoffe nennt ihre Ausarbeitung übrigens ebenfalls „Klimafakten“.

In der folgenden Abbildung sind die wissenschaftlichen Untersuchungen zum Wärmeinseleffekt für Asien, Nordamerika, Europa und Deutschland aufgelistet. Leicht erkennbar, dass die Stadttemperatur deutlich von der Umgebungstemperatur Land abweicht, also verfälschte Werte liefert. Abbildung 7 zeigt die Temperaturunterschiede von Städten gegenüber dem Umfeld.

Abbildung 7, Quelle: Christian-Dietrich Schönwiese, Klimatologie, Stuttgart, 2003

Das gleiche Bild bei der Untersuchung des international hoch angesehenen Klimawissenschaftlers Dr. Spencer.

Abbildung 8: In seiner Veröffentlichung vom 03. März 2010 berichtet der bekannte Physiker und Klimawissenschaftler Roy Spencer, dass die Auswirkungen des Wärmeinseleffekts von der Besiedlungsdichte abhängen. Bei Änderungen von geringen Bevölkerungsdichten ist dieser proportional am stärksten, d.h. hier tritt die größte Erwärmung auf. Da im 20. Jahrhundert weit mehr kleinere Ansiedlungen in ihrer Bevölkerungsdichte zunahmen, als große Städte, die darüber hinaus noch einen geringeren Erwärmungstrend beim Zuwachs der Besiedlung ausweisen, liegt hier ein weiterer Fakt, warum die Temperaturen ab der zweiten Hälfte des 20. Jahrhunderts, als die Bevölkerungszahlen deutlich zunahmen, vergleichweise stark anstiegen.

Zum gleichen Ergebnis kommen wir bei EIKE. EIKE hat erstmals die für Deutschland richtige Vergleichstemperaturkurve veröffentlicht, in der der WI flächendeckend heraus gerechnet wurde.

Abbildung 9 zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und der WI-bereinigten von 1891 – 2009. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass es derzeit kälter als im 120-Jahresvergleich ist. Zum berechneten WI wurde, wie dies beim IPCC üblich ist, der Fehlertoleranzbereich angegeben (grüner Bereich).

Nicht besser ist die Aussage über den sog. Konsens. Dieser so oft bemühte Konsens besteht und bestand zu keiner Zeit und basierte zu allen Zeiten seines Aufkommens auf einer glatten Lüge. EIKE berichtete darüber (http://www.eike-klima-energie.eu/climategate-anzeige/phoenix-runde-teil-ii-kein-prima-klima-ist-die-welt-noch-zu-retten-ein-faktencheck/). Auch hier bringen die Klimaalarmisten Realität und Fiktion durcheinander:

Der Präsident der amerikanischen Akademie der Wissenschaften, Prof. Seitz schrieb im Wallstreet Journal vom 13. August 1996 die folgenden Passagen (deutsche Übersetzung: EIKE):

“In der vergangenen Woche veröffentlichte das Intergovernmental Panel on Climate Change nach fünf Jahren seinen ersten Bericht mit dem Titel „Die Wissenschaft vom Klimawandel 1995“ [The Science of Climate Change 1995]. Das IPCC wird von Vielen als beste Quelle für wissenschaftliche Information über den menschlichen Einfluss auf das Erdklima angesehen. Der Bericht wird ganz gewiss als jüngste und höchstautoritative Aussage über die Erderwärmung begrüßt. Entscheidungsträger und die Weltpresse werden den Bericht wahrscheinlich als Basis für wichtige Entscheidungen über die Energiepolitik ansehen. Er wird einen großen Einfluss auf die amerikanischen Öl- und Gaspreise und auf die internationale Wirtschaft ausüben.“

“Dieser IPCC-Bericht genießt wie alle anderen sein hohes Ansehen vor allem deshalb, weil er von Fachleuten begutachtet [peer reviewed] ist. Das heißt, er wurde von einem internationalen Expertengremium gelesen, diskutiert, geändert und gebilligt. Diese Experten haben ihren Ruf in die Waagschale gelegt. Doch der Bericht ist nicht, wonach er aussieht: Es ist nicht die Version, die von den beitragenden Wissenschaftlern genehmigt wurde, die auf der Titelseite aufgeführt sind. In meinen über 60 Jahren als Mitglied der amerikanischen Wissenschaftler-Gemeinde einschließlich meiner Tätigkeit als Präsident der „Academy of Sciences“ und der „American Physical Society“ habe ich keine bestürzendere Korruption des Verfahrens der Expertenbegutachtung [peer review] erlebt, wie bei der Entstehung dieses IPCC-Berichts.“

“Der Vergleich des von den beitragenden Wissenschaftlern genehmigten Berichts mit der veröffentlichten Version zeigt, dass zentrale Änderungen durchgeführt wurden, nachdem die Wissenschaftler zusammengesessen und die für den Schlussstand gehaltene Version begutachtet und gebilligt hatten. Die Wissenschaftler hatten angenommen, dass das IPCC seine eigenen Regeln einhalten würde – einen Regelsatz zur Steuerung seiner eigenen Tätigkeit. Keine der IPCC-Regeln erlaubt es, einen wissenschaftlichen Bericht zu verändern, nachdem ihn das Gremium der wissenschaftlichen Mitarbeiter und das gesamte IPCC selbst akzeptiert hat.“

“Die wissenschaftlichen Mitarbeiter hatten im November [1995] in Madrid den Bericht „The Science of Climate Change“ angenommen; das gesamte IPCC hatte im Folgemonat in Rom zugestimmt. Aber mehr als 15 Abschnitte im Kapitel 8 waren nach der wissenschaftlichen Überprüfung und Billigung des vermeintlichen Schlusstextes verändert oder gelöscht worden. Kapitel 8 ist das Schlüsselkapitel für das Darstellung der wissenschaftlichen Beweise für und gegen einen menschengemachten Einfluß auf das Klima.“

“Nur einige der Änderungen waren kosmetischer Natur, nahezu alle Hinweise auf die Skepsis vieler Wissenschaftler wegen der Behauptung, dass der Mensch einen Haupteinfluss auf das Klima generell und im Besonderen auf die Erderwärmung hätte, wurden entfernt.“

“Die folgenden Passagen enthalten Beispiele aus dem gebilligten Bericht, die aber aus der vermeintlichen expertengeprüften Version gelöscht wurden.“

„Keine der oben zitierten Studien hat einen klaren Beweis erbracht, dass wir den beobachteten [Klima-] Wandel auf die Zunahme von Treibhausgasen zurückführen können.“ „Bislang hat keine Studie den gesamten oder einen Anteil [des Klimawandels] auf anthropogene [menschengemachte] Ursachen zurückführen können.“ „Jegliche Behauptungen von positiver Entdeckungen über signifikante Klimaveränderung werden wahrscheinlich kontrovers bleiben, bis die Ungewissheit über die gesamte natürliche Veränderlichkeit des Klimasystems vermindert ist.“

“Die gutachtenden Wissenschaftler benutzten genau diese Sprache, um ihre eigene Aufrichtigkeit und die des IPCC zu wahren. Ich bin nicht in der Lage, zu sagen, wer die Hauptänderungen am Kapitel 8 gemacht hat. Doch der Hauptautor des Berichts, Benjamin D. Santer, muss vermutlich dafür verantwortlich gemacht werden.“

“IPCC-Berichte werden häufig als „Konsens“ bezeichnet. Wenn sie aber zur Kohlenstoff-Besteuerung und zu Beschränkungen des Wirtschaftswachstums führen, werden sie ganz sicher eine schwere zerstörerische Wirkung auf die Weltwirtschaft entfalten. Was auch immer die Absicht der Leute war, die diese bedeutenden Änderungen machten, sie täuschten Politiker und die Öffentlichkeit darüber, dass es wissenschaftliche Beweise für die menschliche Verursachung des Klimawandels gäbe.“

“Wenn das IPCC noch nicht einmal seine eigenen Regeln einhält, dann sollte das gesamte IPCC-Vorgehen aufgegeben werden, oder zumindest der Anteil, bei dem es um die wissenschaftlichen Beweise für den Klimawandel geht. Und die Regierungen sollten sich verlässlichere Quellen zur Beratung in dieser wichtigen Frage suchen.“

Die Fälschung der Kyoto-Vorlage durch Santer, warf ein ernstes Problem auf, wenn auch nicht für die Politiker und Staatsoberhäupter, die letztendlich ein solches Konstrukt unterschrieben und sich im wahrsten Sinne des Wortes, verschaukeln ließen. Das Problem bestand darin, dass sich von den ca. 2.000 Unterzeichnern, etwa 1.500 Wissenschaftler weigerten, den von Santer eigenmächtig geänderten Entwurf zu unterzeichnen. Wo sollte nun das IPCC die Unterschriften herbekommen. Hartmut Bachmann hat hierzu Unglaubliches recherchiert und veröffentlicht.

Hartmut Bachmann war u. a. Präsident eines Wirtschaftsinstitutes in den USA und leitete zur Zeit der Erfindung der Klimakatastrophe, also vor ca. 25 Jahren, als CEO und Managing Director eine US-Firma, die sich exklusiv mit Klimafragen beschäftigte. Er war als Kommissar des US Energy Savings Programms präsent bei zahlreichen Meetings und Verhandlungen in den USA, welche die Geburt des IPCC, des späteren Weltklimarates, zur Folge hatten.

Auszug aus dem Bericht von Hartmut Bachmann, “Wer waren die Unterzeichner des gefälschten Weltklimaberichtes?“ vom 02.08.2011:

“Um der hypothetischen Klimakatastrophe entgegenzusteuern sollen alle Nationen der Erde das angebliche Klimagift CO2 durch entsprechende nationale Gesetze bekämpfen. Dieser Auftrag an die Völker der Erde wurde vor Jahren durch die UNO beschlossen. Sie ordnete via ihres Ablegers UNEP für Dezember 1997 eine Weltklimakonferenz in Kyoto in Japan an. Den geladenen Delegationen sollte der neueste Weltklimabericht des IPCC vorgelegt werden.“

“Dieser zweite IPCC-Bericht von Ende 1995 beinhaltete die Schlüsselinformationen für die Verhandlungen, die dann 1997 zur Annahme des Protokolls von Kyoto durch den UNFCCC führen sollten. Dieser Bericht war vor Publikation peer-rewied. Nachdem alle an diesem Bericht beteiligten so genannten Wissenschaftler ihn durch ihre Unterschrift abgesegnet und in Umlauf gebracht hatten, kam Dr. Ben Santer, ein relativ kleines Licht innerhalb der UNO – UNEP – IPCC – Organisationen daher, und löschte alle Textteile, die darauf hinwiesen, dass es wahrscheinlich „KEINE“ Mensch-gemachte Klimaerwärmunf gäbe.“

„Ohne Löschen dieser Aussagen war das lange eingefädelte Billionengeschäft mit der Klimakatastrophe in Gefahr, was anlässlich der nächsten Weltklimakonferenz in Kyoto von der Weltgemeinde abgesegnet werden sollte. Also strich Santer die entsprechenden hinderlichen Passagen.

“Kyoto rückte in Eile näher. Ein von Santer präparierter (gefälschter) schockierender Weltklimabericht lag nunmehr vor. Er sollte die Delegationen animieren, ohne viel Rückfragen und Aufhebens nach Kenntnisnahme des Inhaltes des Klimaberichtes ruck-zuck das so genannte Kyoto-Protokoll, das Endprotokoll der Tagung, zu unterzeichnen. Damit war der Weg frei, mittels nationaler Gesetze den weltweiten kostenträchtigen Kampf gegen das angebliche Umweltgift CO2 zu beginnen. Das gigantische Geschäft der Menschheit erhielt das internationale Limit zum Start. Und nun konzentrieren Sie sich bitte: Der den Delegationen vorzulegende jetzige Klimabericht war nunmehr nicht von gewünschter Anzahl von Wissenschftlern unterzeichnet, da so genannte originäre peer-Reviewer sich weigerten, den von Santer geänderten IPCC-Bericht in der jetzigen „gefälschten“ Form zu unterzeichnen, bzw. die Mitarbeit beim IPCC gekündigt hatten.“

Abbildung 10, zeigt nach Daten der EnBW, wie sich die CO2-Emissionen Chinas von 1990 – 2010 entwickelten und wie sie sich bis zum Jahr 2020 entwickeln werden. Dazu im Vergleich, die europäischen CO2-Emissionseinsparungen nach dem Kyoto-Verträgen. Deutlich ist erkennbar, dass alle EU-Maßnahmen wirkungslos bleiben und die ganzen Gelder zur Reduzierung verschwendet sind.

“In Kassel gab es damals ein Klimainstitut (Center for Enviromental Systems Research University of Kassel) dessen Chef Prof. Joseph Alcamo von UNO, UNEP und IPCC ausgesucht wurde, die Interessen dieser Organisationen bezüglich Klima in Deutschland (Vorbereitung gigantischer Geschäfte) wahrzunehmen. Seinen in Kyoto wartenden Assistenten gab Prof. Alcamo am 9. Okt. 1997 zur Beschaffung der entsprechenden Unterschriften unter den gefälschten IPCC-Bericht folgenden Auftrag, den ich Ihnen hier komplett zur Kenntnis bringe:“

”Sounds like you guys have been busy doing good things for the cause. I would like to weigh in on two important questions–Distribution for Endorsements. I am very strongly in favor of as wide and rapid a distribution as possible for endorsements. I think the only thing that counts is numbers. The media is to say: „1000 scientists signed“ or „1500 signed“. No one is going to check if it is 600 with PhDs versus 2000 without. They will mention the prominent ones, but that is a different story. Conclusion – Forget the screening, forget asking them about their last publication (most will ignore you.) Get those names! Timing — I feel strongly that the week of 24 November is too late.”

”1. We wanted to announce the Statement in the period when there was a sag in related news, but in the week before Kyoto we should expect that we will have to crowd out many other articles about climate.”

”2. If the Statement comes out just a few days before Kyoto I am afraid that the delegates who we want to influence will not have any time to pay attention to it. We should give them a few weeks to hear about it.”

”3. If Greenpeace is having an event the week before, we should have it a week before them so that they and other NGOs can further spread the word about the Statement. On the other hand, it wouldn’t be so bad to release the Statement in the same week, but on a different day. The media might enjoy hearing the message from two very different directions.”

”Conclusion — I suggest the week of 10 November, or the week of 17. November at the latest.
Mike — I have no organized email list that could begin to compete with the list you can get from the Dutch. But I am still willing to send you what I have, if you wish.

Best wishes, Joe Alcamo“

“Wie wurde nun die Beschaffung der Unterschriften dort in Kyoto Ende Nov.-Dez. 1997 bewerkstelligt, damit die nichts ahnenden Teilnehmer der Delegationen den Bericht akzeptierten? Zur Tagung in Kyoto strömten zehntausend geladene Gäste und ebenso viele Klimamitläufer herbei. Alle wollten am Geschäft beteiligt werden.“

„So war es kein Kunststück fast 2000 Unterschriften von Greenpeace Gesandten, Lobbyisten, Angestellten umliegender Hotels, Tagesgästen, Schuhputzern und Tellerwäschern und rumstrolchenden Mitessern einzusammeln und sie als wichtige Wissenschaftler die letzten Seiten des Weltklimaberichts unterschreiben zu lassen, der dann in Kopie an alle anwesenden Delegationen verteilt wurde, um Schockwirkungen und Bereitschaft zur Unterschrift unter das endgültige Kyoto-Protokoll zu produzieren.

“So lernte das Klima in Kyoto das Laufen und bewegte sich mittels der entsprechenden internationalen Klimagesetzte dahin, wofür es 11 Jahre lang – seit 1986 – zur Entwicklung gigantischer weltweiter, lang anhaltender Geschäfte mittels entsprechender Aktivitäten der Medien und der Wissenschaftler vorpräpariert worden war.“

Der anthropogene Klimawandel ist der größte Wissenschaftsschwindel und Wissenschaftsskandal der Neuzeit. Es muss an dieser Stelle die Feststellung getroffen werden, dass im IPCC tlw. eine dominante Gruppe von Betrügern am Werk ist, die gezielt Politik, Medien und Gesellschaft hinters Licht führen. Der ehemalige französische Wissenschaftsminister Claude Allegre bezeichnete die IPCC als “Ganz gewöhnliche Mafia.“

Der „Wissenschaftlicher Beirat“ von „Klimafakten“, wie man sich dort bezeichnet und deren Terminus auf Kompetenz hoffen lässt, schreiben zum Klima:

“Alle bekannten natürlichen Faktoren, die das Klima beeinflussen, wirken entweder über viel längere Zeiträume (z.B. die Verschiebung der Kontinente über Millionen von Jahren oder Unregelmäßigkeiten in der Umlaufbahn der Erde in Zig-Tausend-Jahres-Zyklen), oder sie haben sich innerhalb der vergangenen Jahrzehnte nicht signifikant verändert.“

Es hat den Anschein, dass der „wissenschaftliche Beirat“ von „Klimafakten“ noch nicht etwas von der variablen Sonne gehört hat, bzw. nicht deren vielfältige Facetten kennt. Auf EIKE ist hierzu ein 8-teiliger Artikel erschienen, mit dem der „Wissenschaftliche Beirat“ seine Kenntnisse erweitern kann: (http://www.eike-klima-energie.eu/klima-anzeige/teil-1-dynamisches-sonnensystem-die-tatsaechlichen-hintergruende-des-klimawandels/). Dort ist die folgende Abbildung zu sehen, die zeigt, wie sehr die variable Sonne allein und auf kurzen Zeitskalen das Klima auf der Erde für die letzten 30 Jahre bestimmte. Zur Erinnerung, der Hauptsonnenzyklus hatte in 2003 sein 200-jähriges Maximum und seinen Anstieg parallel zum leichten Temperaturanstieg auf der Erde.

Auszug:

Abbildung 11 oben zeigt die Temperaturdatenreihe UAH (Satellitendaten). Die kleine Abbildung zeigt die atmosphärische CO2-Entwicklung nach Mauna Loa, die übrigens keinerlei Übereinstimmung mit dem Temperaturgang aufweist. Die Abbildung darunter zeigt die El Niño-Anomalien (El Niño 3.4) der Wasseroberflächentemperaturen. Jede globale Temperaturspitze in den letzten 30 Jahren fällt mit einem El-Niño-Ereignis exakt zusammen und das bei 8 Ereignissen im Betrachtungszeitraum (grüne Pfeile und Blockpfeil). Die schwarzen Linien dienen zur zeitlichen Justierung der Datenreihen.

Abbildung 12 zeigt den El Niño 3.4, der z.B. von der NOAA zur Betrachtung von El Niño-/La Niña-Ereignissen herangezogen wird (ganz oben). Die mittlere Datenreihe, die solare Aktivität nach Angaben der PMOD (Physikalisch-Meteorologisches Observatorium Davos) und die untere Datenreihe die Koronatemperatur der Sonne (http://rst.gsfc.nasa.gov/Sect20/A5a.html). Die blauen Linien dienen zur Zeitausrichtung der Kurven, die rote Linie zeigt den „Sprung“ der Koronatemperatur von 1 Million auf annähernd 2 Millionen Kelvin. Das blaue Rechteck die verstrichene Zeit vom Sonnenminimum, welches von der PMOD durch einen senkrechten Strich gekennzeichnet ist und das rote Rechteck die Zeitspanne vom Einschalten der „Koronaturboheizung“ bis zum El Niño-Maximum. Zu sehen ist, dass nach jedem Einschalten der Koronazusatzheizung (untere Datenreihe) ein El Niño ausgelöst wird (rote Rechtecke) und zwar innerhalb eines festen Zeitraumes und weiter, nach ca. 11 Monaten der El Niño sein Maximum erreicht. Darüber hinaus zeigt Abbildung 12 die magnetische solare Aktivität (zweite Datenreihe von oben, Quelle: Max Planck Gesellschaft (http://www.mps.mpg.de/projects/solar-mhd/research_new.html). Wie unschwer festzustellen, wird nach jedem Maximum im Schwabe-Zyklus ebenfalls ein El Niño-Ereignis ausgelöst. Auch hier wird das Maximum im El Niño-Ereignis nach einer exakt festen Zeitspanne erreicht (graue Rechtecke).

Die beiden Abbildungen legen den Schluss nahe, dass die Erdtemperaturen im Betrachtungszeitraum El-Niño-gesteuert sind (Abbildung 11, zum dominanten Einfluss auf die Erdtemperaturen, siehe auch die Arbeiten von Prof. Brönnimann, ETH, “Pazifik ließ Europa frieren“, Spektrum der Wissenschaft 03/05) und jeder El Niño wiederum, durch die Sonnenparameter gesteuert wird. Die Sonne bestimmt demnach ganz allein den Temperaturgang auf der Erde, oder wie Herr Dr. Gunter Tiersch am 09.11.2011 in seiner Wettervorhersage so trefflich bemerkte: „Ohne die Sonne geht gar nichts“. Irgendwelche Treibhausgase spielen erkennbar keine Rolle, so dass anhand der solaren Aktivität auch eine Aussage getroffen werden kann, wohin sich die Erdtemperaturen bewegen werden (http://www.eike-klima-energie.eu/climategate-anzeige/teil-8-dynamisches-sonnensystem-die-tatsaechlichen-hintergruende-des-klimawandels/).

Wie plausibel sind nun die auf „Klimafakten“ vorgebrachten „Fakten“, also „Wahrheiten“, die einen anthropogenen THE belegen sollen, denn, ein Grundgesetz der Quantentheorie lautet, dass es Energiequanten immer nur für gebundene Bewegungen gibt. Im Bohr´schen Atommodell sind dies die Elektronenbahnen. In einem Molekül (z.B. CO2) sind jedoch noch andere Bewegungen und mit ihnen, andere Energiezustände möglich: Drehung (um den Schwerpunkt), sowie Schwingung der Atome gegeneinander. Daraus ergeben sich eine Vielzahl von Energieniveaus und damit Energiespektren, die aus Rotationsenergie und Schwingungsenergie, sowie der Elektronenenergie bestehen. Lediglich letztere führt zur Emission von IR-Strahlung. Wie sich aus Berechnungen ergeben, liegen die Abstände der Stufen für die Elektronenenergien, für die Oszillationsenergien, als auch für die Rotationsenergien bei Molekülen (CO2) um Größenordnungen auseinander, wobei die kleinsten Energiequanten die Rotationsquanten sind, deren Linien am dichtesten zueinander sind. Man spricht hier von Rotationsquantenzahlen. Deshalb können diese absorbiert werden, ohne das Schwingungs- oder Elektronenzustand sich ändern.

Rotationsquantenzahl

Die Rotationsquantenzahl bestimmt dabei die Rotations-Schwingungsübergänge bei einem Absorptionsexperiment und beschreibt die Drehungen um die Molekülachse. Absorbiert ein Molekül dabei Strahlung, geht es von einem, durch die Rotationsquantenzahl J beschriebenen Zustand in den nächst höheren, durch J + 1 beschriebenen über. J = 0 gibt den nicht rotierenden Molekülzustand und J = 1 den langsamst möglichen rotierenden Zustand wieder. Nach der Quantenmechanik sind nicht alle denkbaren Übergänge zwischen den Energieniveaus erlaubt, sondern nur die mit einer sog. „Auswahlregel“. Die Auswahlregel für Rotationsübergänge bei 2-atomigen Molekülen lautet denn: Δ J = ± 1. Dies bedeutet nichts anderes, als dass nach der Bohr’schen Frequenzbedingung nur bestimmte Frequenzen absorbiert werden können.

Aus der Kenntnis der Rotationsspektren lässt sich übrigens auch nachweisen, warum N2 und O2-Moleküle nicht strahlen können. Damit elektromagnetische Wellen abgestrahlt werden können, muss eine periodisch bewegte elektrische Ladung vorhanden sein. Damit durch Änderung des Rotationszustandes eines Moleküls Ausstrahlung hervorgerufen wird, muss demnach während der Umdrehung auch elektrische Ladung bewegt werden. Nun fallen aber bei (symmetrischen) O2/N2-Molekülen die Schwerpunkte von positiver und negativer Ladung zusammen und liegen wegen der Massensymmetrie immer in der Rotationsachse. Daher haben solche dipollosen Moleküle kein Rotationsspektrum. Voraussetzung für das Auftreten von Rotationsspektren ist also, dass ein Dipolmoment während der Rotation seine Lage im Raum ändert.

Während niederenergetische Anregungen keine höher energetischen Anregungen hervorrufen können, ist dies im umgekehrten Fall stets gegeben. Die häufig im sichtbaren (zwischen 0,8 μm bis 0,4 μm) liegenden Elektronenspektren enthalten immer auch Änderungen des Oszillations- und des Rotationszustandes eines Moleküls. Demnach lässt sich das Spektrum eines Moleküls in drei Hauptbereiche unterteilen:

a) nur Änderung der Rotationsenergie, λ > 20 μm (langwelliges Infrarot)

b) zusätzliche Änderung der Schwingungsenergie, λ = 20 μm bis 1 μm (Infrarot)

c) zusätzliche Änderung der Elektronenenergie, λ < 1 μm (sichtbar bis ultraviolett)

Mit den Werten aus der Plank´schen Strahlungskurve und dem Wien´schen Verschiebungsgesetz: 6000 K etwa 0,5 μm, 300 K etwa 10 μm ergibt sich zwangsläufig, welche Prozesse in der Atmosphäre vorliegen können und welche nicht! Eine Gegenstrahlung gibt es daher nicht!

Im Bereich um 15 μm liegt demnach Oszillations- und Rotationsanregung vor und somit entsteht auch kein Strahlungs- oder Gegenstrahlungsfeld.

Dadurch wird deutlich, warum die durch den Erdboden erwärmte Atmosphäre stets kälter als dieser ist (Invasionswetterlagen ausgeschlossen, aber die werden nicht einmal von der IPCC als Beleg für den THE herangezogen) und den Erdboden nicht erwärmen kann, da Massen (Überwindung Trägheitsmoment) bewegt werden und somit die möglich abzugebende Energie immer kleiner als die aufgenommene ist. Zu Punkt c) müssen Energieniveaus überwunden werden, womit sich der Energiezustand eines Atoms ändert (z.B. durch Absorption). Bei der Rückkehr in den Grundzustand wird die vorher absorbierte Energie wieder in exakter Größe abgegeben, wonach das emittierte Photon natürlich zu groß sein müsste, als das vorher absorbierte. Nun „fallen“ Atome nicht direkt in ihren Grundzustand zurück, sondern dies geschieht über eine „Leiter“ zurück und nur ein Teil der „Energiewegstrecke“ ist durch Photonenemission(en) begleitet. Wie oben beschrieben, führen hochenergetische Anregungen, bei denen Photonen emittiert werden, immer auch zu niederenergetischen Anregungen, d.h. stets auch zu Molekülschwingungen und Rotationen, so dass das Energieniveau des emittierten Photons immer kleiner als das absorbierte ist. Abgesehen davon, dass bei 15 μm „lediglich“ Oszillations- und Rotationsanregung vorliegt.

Weiter hat Einstein einen Strahlungsansatz für Moleküle erarbeitet (1917), dessen Struktur mit dem Strahlungsgesetz vom Planck vereinbar ist. Einstein verwendete nicht nur Absorption von Molekülen, sondern auch die spontane Emission von Strahlung durch Moleküle und darüber hinaus auch noch die vom Strahlungsfeld induzierte Emission. Nur dadurch gelangte Einstein zur Struktur der Planckschen Strahlungsfunktion, wie sie Voraussetzung der Schwarzkörperstrahlerbetrachtung ist. Milne (1928) erweiterte die Arbeit Einsteins, damit eine seiner wesentlichen Annahmen überprüfbar ist. Dies ist die Gültigkeit des lokalen thermodynamischen Gleichgewichts. Wer nun behauptet, dass CO2 IR-Strahlung absorbiert und die absorbierte Energie wieder 1:1 an die Luft abgibt (Absorption also gleich Erwärmung ist), hat anscheinend Planck, Einstein und Milne nicht verstanden. Ob in diesen Gegebenheiten der Grund zu finden ist, warum der THE sich beharrlich seiner Überprüfung und Bestätigung im Versuch entzieht? Ohne experimentelle Überprüfung bleibt der THE eine wissenschaftliche These, jedoch kein wissenschaftlicher, bzw. physikalischer Effekt, der beispielsweise im Versuchsaufbau nachgestellt oder gar bestätigt werden könnte.

Dass der „Wissenschaftlichen Beirat“ sich weniger der Wissenschaft, als der, von dem IPCC vorgegebenen Linie widmet, zeigt weiter die folgende Passage:

Die beobachteten Temperaturveränderungen in der Atmosphäre ähneln jenen, die bei einem verstärkten Treibhauseffekt zu erwarten wären: So erwärmt sich zur Zeit die unterste Atmosphärenschicht (bis ca. zehn Kilometern Höhe) bei gleichzeitiger Abkühlung der oberen Atmosphärenschichten (über zehn Kilometern Höhe).“

Was der „Wissenschaftliche Beirat“ mit einem Treibhauseffekt verwechselt, ist nichts anderes, als das gewöhnliche Gegenläufigkeitsprinzip zwischen Troposphäre (<10 km) und Stratosphäre (>10 km). Auf der Internetseite Atmosphärenphysik der Uni Wuppertal ist folgendes festgehalten:

Tägliche Temperaturänderungen in der Stratosphäre sind nahezu regelmäßig denen in der Troposphäre entgegengesetzt mit etwa gleichen Beträgen. D.h. eine Erwärmung in der Troposphäre hat eine Abkühlung in der Stratosphäre zur Folge und umgekehrt. Dieses Verhalten ist als Gegenläufigkeitsprinzip bzw. stratosphärische Kompensation bekann. Die Temperaturkonstanz bzw. -zunahme hat ihre Ursache in der Strahlungskühlung durch den Wasserdampf in der oberen Troposphäre und Tropopausenregion und in der Erwärmung durch Absorption solarer Strahlung in der oberen Stratosphäre.“

Ein weiterer „Kalauer“, den der „Wissenschaftliche Beirat“ von „Klimafakten“ vorlegt:

“Direkte Strahlungsmessungen zeigen eine Zunahme der von der Erde ausgehenden langwelligen Wärmestrahlung (Harries 2001) und einen Anstieg der langwelligen Strahlung, die bei klarem Himmel aus der Atmosphäre auf die Erde einfällt und nur von Treibhausgasen stammen kann, da die Sonnenstrahlung kurzwellig ist. (Philipona 2005) – beides kann nur mit dem Treibhauseffekt erklärt werden.“

Diese Aussage sagt nichts anderes, als dass die Erde und damit THG*) eine Energiequelle ohne die Sonne sind und die Erde sich von sich selbst aus erwärmen würde, was gegen Grundprinzipien der Thermodynamik verstößt. Wie jeder weiß, wird darüber hinaus die kurzwellige Sonnenstrahlung durch die Atmosphäre selbst und die Bodenwärmeflüsse gewandelt. Vom PIK ist der Autor nichts Besseres gewohnt.

*) Sog. Treibhausgase, wie auch der postulierte Treibhauseffekt (THE), basieren auf vielleicht plausiblen (siehe Fazit) aber letztlich willkürlichen Annahmen und Festlegungen. Eine dieser willkürlichen Annahmen ist die Basis des THE, die sog. globale Temperatur der Erde ohne Atmosphäre von -18°C, anhand derer der sog natürliche THE berechnet wird. Anhand einer gemessenen und dann gemittelten globalen Oberflächentemperatur von +15°C läge der sog. natürliche THE bei 33°C (15°C – -18°C). An dem sog. natürlichen THE setzt der sog. anthropogene THE an. Stimmt der erstere nicht, so ist folglich auch der letztere falsch.

Berechnet wird die fiktive Temperatur der Erde ohne Atmosphäre anhand der Annahme eines Strahlungsgleichgewichts (eingehende Strahlung = ausgehende Strahlung) und nach S&B nach der Formel:

Während die „Solarkonstante“ recht gut ermittelt werden kann, wurde als planetarische Albedo einfach der gleiche Wert (0,3), wie für eine Erde mit Atmosphäre angesetzt, was nicht nur willkürlich (lässt sich nicht messen), sondern auch beliebig falsch ist. Nach Weichert (Fig. 25, S. 102) teilt sich die Albedo auf 0,21 (Wolkenanteil), 0,07 (Atmosphäre) und 0,02 (Boden). P. Kupfer/W. Kuttler (1998) definieren die Albedo als Rückstrahlung der Gesamtstrahlung (betrachten also das gesamte Strahlungsspektrum) und kommen ebenfalls auf einen Wert von 0,3 – 0,31 (in ihrer Arbeit auf S. 68). Sie teilen die Albedo auf, in 15,6% im sichtbaren Bereich, 10,8% Infrarotbereich und 4,2% im UV-Bereich. Bereits 1977 ging Michail Budyko in seinem Buch “Climatic Change“ von einer Albedo ohne Atmosphäre von 0,07 aus. Selbst die Vertreter der Deutsche Meteorologische Gesellschaft schreiben in einer Stellungnahme aus dem Jahre 1995 zu den “Grundlagen des Treibhauseffekts“ über die (fiktiven) -18°C: “Dabei ist eine planetare Albedo von 30 %, wie sie für das System Erde/Atmosphäre gilt, angenommen worden, d. h. die dem System zugeführte Sonnenenergie ist genauso groß wie in Wirklichkeit. Nimmt man eine realistische Albedo der Erdoberfläche von 15 % an, so ergibt sich für die mittlere Erdoberflächentemperatur ein Wert von -5,5° C.“

Selbst das IPCC gibt zu, dass die angesetzte Albedo von 0,3 für eine Erde ohne Atmosphäre falsch ist. Anhand der Energieflüsse von Trenberth (Abbildung 13), die als Grundlage für das Strahlungs(un)gleichgewicht der Erde dienen, ist die Albedo aufgeteilt in Boden und Atmosphäre, wobei der reflektierte Anteil der Atmosphäre mit 79 W/m2 deutlich über dem reflektierten Anteil den Bodens mit 23 W/m2 liegt. Wird dieser Wert in Relation gesetzt, so ergibt sich für eine Erde ohne Atmosphäre eine planetarische Albedo von 9,5%, was übrigens dem Wert der tatsächlichen Mondalbedo mit 0,11 (11%) sehr nahe kommt. Wird dieser realistische Wert in die obige Gleichung eingesetzt, so ergibt sich eine Temperatur für die Erde ohne Atmosphäre von 272 K, gleich -1°C. Der sog. natürliche THE von 33°C ist somit nach Trenberth auf nur noch 16°C zusammen geschrumpft. Mit diesem Wert, zugleich auch all die anderen vermuteten Werte, die die unterschiedlichen Treibhausgase am sog. postulierten THE haben sollen. Er basiert zudem auf Annahmen, die in der Realität auch nicht annähernd erfüllt sind**).

Abbildung 13 zeigt die Energieflüsse nach Trenberth, 2009.

**)

·    Die planetare Albedo von 0,3 gilt nur für eine Erde mit Atmosphäre

·    Das planetare Emissionsvermögen ist mit ca. 0,67 deutlich geringer als 1

·    Eine gleichförmig verteilte Oberflächentemperatur gibt es nicht

·    Die Rotation wird nicht berücksichtigt (dazu müsste eine Energiefluss-Bilanzgleichung für die Oberfläche eines jeden Gitterelements aufgestellt und gelöst werden)

·    Speicherung von Energie im Erdboden bleibt unberücksichtigt

Soviel zu den „Fakten“ („Wahrheiten“), den die Betreiber von „Klimafakten“ propagieren.

Die NASA als Weltraumbehörde, nicht das Goddard Institute for Space Studies, das sich vorrangig mit Klima-Computerspielen beschäftigt (siehe obige Aussage von Prof. Marotzke zu den Klimamodellen), der Teil der  NASA, der das Erbe von Werner von Braun angetreten hat, widerlegt m.E.n ganz eindeutig die These vom Treibhauseffekt und die obige Aussage („Direkte Strahlungsmessungen zeigen…“) der erhöhten langwelligen Wärmeabstrahlung, die auf THG basieren soll, wie Abbildung 14 zeigt.

Abbildung 14, Quelle: (http://isccp.giss.nasa.gov/projects/browse_fc.html) zeigt die sich ändernde Strahlungsabgabe der langwelligen IR-Strahlung (Variabilität, TOP = Top Of Atmosphere) der Erde im Zeitraum von 1984 – 2005. Der Hub zwischen Min. – Max. beträgt 7 W/m2. Die Abbildung ist übrigens ein eindeutiger Beweis, dass die globalen Temperaturreihen manipuliert (z.B.: über Auswahl – EIKE berichtete darüber) sind, weil diese zur langwelligen Abstrahlung (Wärmeabstrahlung) der Erde nicht passen (Abbildung 15).

Abbildung 15 zeigt den Vergleich der langwelligen Erdabstrahlung, die bekanntlich das Produkt (Resultat) der globalen Erdtemperaturen ist und der globalen Temperaturentwicklung selbst, linke Abbildung, Quelle: www.Klimafakten.de. Während die globalen Temperaturen seit 1975 stetig steigen (zumindest gibt die Zeitreihe dies vor), ist die longway IR-Abstrahlung bis ca. 1998 konstant und steigt erst ab 2001 erkennbar an. In jenen Jahren (bis 2003) hatte der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus sein Maximum.

Abbildung 16 links zeigt die Häufigkeit der solaren Neutronenströme pro Jahr als Maß solarer Aktivität, Quelle: Dr. Borchert (Uni Mainz), “Klima, Sonnenflecken und kosmische Strahlung“ im Vergleich der langwelligen IR-Abstrahlung, also Erderwärmung. Es ist überdeutlich das gleiche Muster (Fingerabdruck, grüne Kreise) zu erkennen, was zeigt, dass zum einen, die eingangs zitierte Aussage aus „Klimafakten“ unhaltbar ist und zum anderen, einzig die Sonne („Ohne die Sonne geht gar nichts.“ Dr. Tiersch) die Erdtemperaturen steuert. Weiter ist sehr transparent zu sehen, wie der Ausbruch des Pinatubo in 1991 (blauer Balken), der die Erdtemperaturen für 2 Jahre um ca. 0,8°C senkte, die langwellige Erdabstrahlung (abhängig von der Temperatur) ebenfalls ins Minus lenkt, obwohl die Neutronenströme und damit die solare Aktivität hoch ist.

Fazit:

Anspruch und Wirklichkeit passen nicht zusammen. Die Herausgeber der Netzseite „Klimafakten“ schreiben vollmundig:

Für den Klimaschutz gibt es keine Patentrezepte. Umso mehr kommt es in der Debatte über die besten Wege zum Klimaschutz auf eines an: dass die grundlegenden Fakten stimmen. Deshalb haben die Mitglieder des Wissenschaftlichen Beirats alle Texte auf dieser Website vor der Veröffentlichung überprüft. Darüber hinaus aktualisieren wir die Texte regelmäßig.“

Unser Artikel zeigt, dass „überprüfen“ (lesen), allein nicht ausreicht. Sachverstand und Wissen als Grundlage der Wissenschaft, und das kritische Hinterfragen, sind nun einmal durch nichts zu ersetzen.

Abschließen möchte der Autor mit einer Aussage von Prof. Dr. John S. Mattick aus S.d.W. 03/05, S. 62, die, wie der Autor meint, die derzeitige Auseinandersetzung zum sog. THE recht treffend beschreibt, auch wenn die Aussage ursprünglich aus dem Wissenschaftszweig der Molekularbiologie stammt: “Unbewiesene Annahmen entwickeln manchmal ein Eigenleben, was besonders in der Naturwissenschaft unangenehme Folgen haben kann. Am Anfang geht es gewöhnlich nur um eine plausible oder einfache Erklärung der Befunde. Wenn sie keine offensichtlichen Mängel aufweist und ihr Wahrheitsgehalt nicht unmittelbar überprüfbar ist, mutiert sie aber oft zum Glaubenssatz. Neue Beobachtungen werden dann passend interpretiert. Irgendwann aber muss das Dogma unter der Last eklatanter Widersprüche zusammenbrechen.“

Raimund Leistenschneider – EIKE




Die frohe Botschaft zum Fest: Eine gefährliche Erwärmung fand und findet nicht statt!

Nach wie vor ist das Feilschen um Zehntel Grade innerhalb der Alarmistengemeinde in vollem Gange. Während auf der Erde jahraus, jahrein real die lokalen Temperaturen um bis zu +70 °C bis – 90 ° schwanken, während auf unserer Erde die Mitteltemperaturen wohl definierter Klimazonen von + 30 °C bis – 35 °C liegen, also eine Spanne von gut 65 ° C überdecken, vergleicht der Chef des Potsdam Instituts für Klimafolgenforschung PIK -in diversen Nebenjobs Commander des britischen Empires, Friedensnobelpreisträger und noch vieles mehr- Prof. Dr. Schellnhuber, ebenso eindrucksvoll wie falsch, die Erde mit einem Menschen der Fieber kriegt. "Bei 2 ° mehr sind sie schon sehr krank, bei 6 ° mehr sind sie tot". Und der verblüffte Interviewer ist beeindruckt ob dieser Metapher und widerspricht diesem Vergleich von Äpfeln und Kürbissen mit keinem Wort. Sehen Sie selbst:

Warum seit über 150 Jahren keine gefährliche globale Erwärmung stattgefunden hat !!

Ein Video zusammengestellt von R. Hoffmann von Solarkritik. Der Autor bemerkt dazu:

Bitte beachten Sie:
Dieses Recherche-Video verwendet zu 100% Medienzitate mit der Argumentation zur angeblich "globalen Erwärmung" auf Basis der offiziellen Klimawissenschaft und verwendet bewusst KEINE kritischen Argumente der sog. "Klimaskeptiker".

Es kann deshalb niemand sagen, es sei ein Video mit klimakritischen Argumenten. Denn das besondere "klimakritische Argument" haben die angeblichen Klimawissenschaftler selbst geliefert !!

Wegen des wärmenden Effektes der salbungsvollen Worte des ZDF "Klimaexperten" Dr. Claus Kleber  vom ZDF in der Sendung "Burnout – der erschöpfte Planet" bringen wir ergänzend auch diese Ausschnitte zu 

"Klebers-Burnout"

Der Klimaschwindel von Claus Kleber in der ZDF-"Burnout"-Woche:

http://solarresearch.org/sk2010/co2klima/klimavideos/790-014.html

Mit Dank an R. Hoffmann,

Die Redaktion wünscht allen Lesern ein angstfreies frohes Fest




Wie das IPCC die Öffentlichkeit in die Irre führt, die negativen Auswirkungen der Klimaänderung übertreibt und die Vorteile wirtschaftlichen Wachstums ignoriert

Es wird immer wieder behauptet, dass die Klimaänderung verheerende Konsequenzen für arme Länder hat. Tatsächlich wird diese Behauptung vom IPCC und anderen Organisationen als eine wesentliche Rechtfertigung angeführt, den menschlichen Treibhausgasemissionen Restriktionen aufzuerlegen.

Aber es gibt einen inneren Widerspruch in den Behauptungen des IPCC selbst. Tatsächlich heißt es in dem gleichen sehr einflussreichen IPCC-Bericht einmal, dass es armen Ländern einerseits schlecht und andererseits in Zukunft viel besser gehen wird als heute. Also was denn nun? Der offensichtliche Widerspruch ergibt sich aus der Inkonsistenz, mit der das IPCC die Auswirkungen abschätzt. Am Beginn des Prozesses stehen verschiedene Szenarien künftiger Emissionen.

Diese Szenarien basieren selbst auch nur auf gewissen Annahmen über die Rate wirtschaftlichen Wachstums und der damit zusammenhängenden technologischen Entwicklung. Dem Szenario des größten Wachstums vom IPCC zufolge soll das Pro-Kopf-Einkommen in armen Ländern im Jahre 2100 doppelt so hoch sein, wie in den USA im Jahr 2006, selbst wenn man irgendwelche negativen Effekte der Klimaänderung berücksichtigt. (Bis 2200 wird es dreimal so hoch sein). Andererseits handelt es sich dabei um genau das gleiche Szenario, das zum größtmöglichen Temperaturanstieg führt – und es ist eines, mit dem man Ängste aller Art über den Einfluss der Klimaänderung auf die Armen geschürt hat. Unter dem Szenario der größten CO2-Zunahme (bekannt als A1FI) werden die Armen logischerweise neue Technologien übernommen haben, so dass sie viel besser als heute in der Lage sind, sich an das zukünftige Klima anzupassen. Aber diese Fortschritte der Anpassungsfähigkeit werden bei den meisten Abschätzungen über die Auswirkungen des Klimawandels nahezu vollständig ignoriert. Als Konsequenz überschätzen die Annahmen der „Auswirkungen“ seitens des IPCC systematisch die negativen Folgen und unterschätzen die positiven Auswirkungen. Mehr noch, in diesen Abschätzungen der „Auswirkungen” wird größtenteils nicht erwartet, dass die globale Erwärmung in Zukunft neue Probleme aufwirft; vielmehr wird angenommen, dass sie einige bestehende Probleme verschärft (im besonderen Hunger, Krankheiten und Extremereignisse), während sich andere Probleme abschwächen (wie Verluste von Wohnraum und Wasserknappheit an einigen Orten).

Die Reduktion von Treibhausgasen, die jeden Erwärmungseffekt reduzieren würden, egal ob der nun gut oder schlecht ist, ist nur ein Mittel, um mit den Konsequenzen der Erwärmung umzugehen. Und es wird vermutlich sehr teuer. Tatsächlich dürfte die Reduktion der Emissionen ärmeren Ländern kaum helfen, mit den Problemen umzugehen, die sie jetzt schon haben oder in Zukunft haben werden. Hinsichtlich der Sterblichkeit durch Hunger, Malaria und Extremereignisse zum Beispiel wird angenommen, dass die globale Erwärmung 2085 nur einen Beitrag von etwa 13% ergeben wird.

Ein anderer Weg, die Auswirkungen der globalen Erwärmung zu begrenzen wäre es, die klimasensitiven Probleme der Armut durch „konzentrierte Anpassung“ [„focused adaption“] zu reduzieren. Dies könnte beispielsweise wesentliche Investitionen im Frühwarnsysteme, die Entwicklung neuer Erntetechniken und Investitionen in die Gesundheitsvorsorge einschließen. Konzentrierte Anpassung würde es der Gesellschaft ermöglichen, klimasensitive Probleme zu lösen, die die globale Erwärmung verschlimmern würden. Zum Beispiel würden Emissionsreduktionen höchstens die Sterblichkeit durch Hunger, Malaria und Extremwetterereignisse um lediglich 13% verringern, während die konzentrierte Anpassung diese Gründe der Sterblichkeit nahezu beseitigen könnte.

Ein dritter Weg könnte sein, die Wurzel auszureißen, wegen der die Entwicklungsländer so anfällig sind, nämlich Armut. Stärkeres wirtschaftliches Wachstum würde nahezu alle Probleme der Armut zu bekämpfen helfen, wie es das Beispiel der entwickelten Länder zeigt, und nicht nur die Probleme durch die globale Erwärmung. Noch viel sicherer ist es, dass deutliches wirtschaftliches Wachstum größere Vorteile bringt als die Reduktion von Emissionen: während es keinen Zweifel gibt, dass Armut zu Krankheit und Tod führt, gibt es grundlegende Zweifel an der Realität und der Größenordnung der negativen Einflüsse durch die globale Erwärmung. Dies gilt vor allem, weil Annahmen oftmals Verbesserungen der Anpassungsfähigkeit ignorieren. Von diesen drei Wegen ist es die deutliche wirtschaftliche Entwicklung, die das menschliche Wohlergehen in ärmeren Ländern am meisten fördern würde. Emissionsreduktionen würden dazu am wenigsten beitragen. Außerdem wird wirtschaftliche Entwicklung wegen der Trägheit des Klimasystems schneller Früchte tragen als jedwede Emissionsreduktion.

Auch für reichere Länder wird erwartet, dass das Bruttoinlandsprodukt trotz jedweder Klimaänderung in Zukunft viel höher sein wird als heute. Folglich sollten sich alle Länder auf deutliches wirtschaftliches Wachstum konzentrieren. Diese Maßnahmen würden nicht nur alle derzeitigen Probleme bekämpfen, die sich in Zukunft verschlimmern könnten, sondern würde es auch der Menschheit ermöglichen, viel effektiver mit anderen Problemen umzugehen, egal ob sie mit dem Klima oder anderen Ursachen in Verbindung stehen.

Das IPCC sieht die ärmeren Länder durch die globale Erwärmung einem größeren Risiko ausgesetzt als reiche Länder, weil erstere weniger in der Lage sind, Ressourcen zu mobilisieren, die sie für Technologien brauchen, um mit den Folgen der globalen Erwärmung fertig zu werden. Das heißt, ihre „konzentrierte Anpassung“ ist klein.

Das IPCC behauptet auch, dass die globale Erwärmung viele Probleme verschärfen wird – wie z. B. Malaria und andere Krankheiten, Hunger, Wasserknappheit, Verwundbarkeit durch Extremwetterereignisse und Überschwemmungen – denen die armen Länder derzeit gegenüber stehen und mit denen fertig zu werden sie Schwierigkeiten haben. Aber basieren sie alle im Grunde nicht auf dem Fehlen wirtschaftlichen Wachstums?

Basierend auf der Behauptung, dass die gegenwärtige Anpassungsfähigkeit der armen Länder niedrig ist, behaupten das IPCC und andere, dass die globale Erwärmung auch ihre nachhaltige Entwicklung verhindert. Andere behaupten, dass die Auswirkung der globalen Erwärmung schwache oder arme Regierungen überwältigen könnte, was zu wirtschaftlicher und politischer Instabilität führt. Und das wiederum könnte Terrorismus und Konflikte fördern mit der Folge eines Massenexodus’ in Richtung reichere Länder.

Diese Studie versucht abzuschätzen, ob diese Annahmen gerechtfertigt sind. Es fängt an bei einer Diskussion, die Licht auf die Hauptfaktoren wirft, die die Trends klimasensitiver Indikatoren menschlichen Wohlergehens beeinflussen. Die Diskussion erkennt die Rolle fossiler Treibstoffe bei der wirtschaftlichen und technologischen Entwicklung an.

Als Nächstes untersucht sie die Behauptung – unter Einschluss der Ansicht, dass arme Länder durch die künftige Auswirkung der globalen Erwärmung hinweg gespült werden – dass ihre Anpassungsfähigkeit auch in Zukunft niedrig bleibt. Sie untersucht besonders, ob diese Sicht im Lichte ökonomischer Annahmen gerechtfertigt ist, die in den IPCC-Szenarien entworfen werden.

Diese wirtschaftlichen Annahmen sind unter den wesentlichen Treibern der IPCC-Projektionen zur Klimaänderung und werden dann benutzt, um den zukünftigen Einfluss der Globalen Erwärmung (einschließlich spezieller Schäden) abzuschätzen. Sie sind also für Schätzungen der Größenordnung und der Richtung der globalen Erwärmung fundamental. Die Studie macht sich ferner Gedanken über die Prämisse, dass höhere wirtschaftliche Wachstumsraten nicht nur zu größeren klimabezogenen Auswirkungen führen, sondern auch zu höherer Anpassungsfähigkeit. Da erhebt sich die Frage, ob die wirtschaftliche Entwicklung und damit verbundene technologische Änderungen den Schaden durch die globale Erwärmung in den IPCC-Szenarien stärker vergrößern als die Zunahme der Anpassungsfähigkeit und als Konsequenz nachhaltige Entwicklungen verhindern. Genauso erhebt sich die Frage, ob eine unzureichende wirtschaftliche und technologische Entwicklung die Fähigkeit, mit der künftigen globalen Erwärmung fertig zu werden, behindern würde.

Indur Goklany

Link: http://reason.org/studies/show/how-the-ipcc-climate-change-reports

Übersetzt von Chris Frey für EIKE




Der Skandal des B.U.N.D

Grund waren Artenschutzbedenken des Juchtenkäfers wegen, einer Daumennagel großen, seltenen Käferart aus der Unterfamilie der Rosenkäfer (hier). Wer konsequenter Naturschützer ist (der Autor zählt sich dazu), wird diesem Richterspruch vielleicht gerade noch zustimmen. Allerdings kann die Klage des BUND schwerlich aus Artenschutzgründen erfolgt sein, man darf politisch-ideologische Motive vermuten. Beleg dafür ist die Haltung des BUND zu Windrädern, deren massive Tötung von Fledermäusen und Vögeln unbestritten ist und jeden ehrlichen Tierschützer auf die Barrikaden treibt. Zum Schutz von Lebewesen gegen Windräder schweigt der BUND indes nicht nur, im Gegenteil, er wirbt sogar auf seiner Webseite für Windradanlagen und stellt diesen tiermordenden Ungetümen auch noch einen „Persilschein“ aus. Wir lesen

Bei der Umweltbewertung der Windenergie hat sich gezeigt, dass bis auf wenige besondere Orte und wenige besonders gefährdete Vogelarten die Konflikte mit dem Vogelschutz sehr gering sind. Der BUND hat sich in seiner Position Windenergie klar für den Ausbau der Stromproduktion aus Windenergie ausgesprochen und Anforderungen formuliert, wie bei diesem Ausbau der Umwelt- und Naturschutz berücksichtigt werden soll.

Die massive Gefährdung und Tötung durch* Windräder zumindest für Vögel und Fledermäuse ist auf der anderen Seite sogar Gegenstand einer Studie, die das Ministerium für Umwelt, Naturschutz und Reaktorsicherheit in Auftrag gegeben hat und an der sich auch der Naturschutzbund Deutschland NABU beteiligt. Auch der NABU äußert sich zu Windrädern (hier), allerdings wesentlich kritischer als der BUND, man liest

Rotmilane verunglückten im Vergleich zu anderen Greifvögeln bisher besonders häufig an Windkraftanlagen. Das Bundesumweltministerium hat nun die Förderung des mehrjährigen Verbundprojektes bewilligt, in dem den Ursachen der Kollisionen auf den Grund gegangen werden soll. Dazu sind eine Reihe verschiedener Untersuchungen geplant. Unter anderem werden Rotmilane, Seeadler und Wiesenweihen in verschiedenen Teilen Deutschlands mit kleinen Sendern ausgestattet. So können ihre Flugbewegungen in der Nähe von Windkraftanlagen genau untersucht werden. Auch sind experimentelle Veränderungen an Windkraftanlagen vorgesehen.
„Wir hoffen durch unsere Untersuchungen dazu beizutragen, die Kollisionsraten von Greifvögeln an Windkraftanlagen zu senken und so die Konflikte zwischen Windkraftnutzung und Naturschutz weiter zu verkleinern“, sagte Dr. Hermann Hötker, Leiter des Michael-Otto-Instituts im NABU. Durch die Förderung des Bundesumweltministeriums ist es gelungen, die Institute und Einrichtungen mit den größten Erfahrungen in diesem Metier aus verschiedenen Teilen Deutschland zusammenzubringen. Mit von der Partie sind außerdem die Arbeitsgemeinschaft Biologischer Umweltschutz in Bad Sassendorf, der Förderverein Greifvogelmonitoring und die Firma Ökotop in Halle/S. sowie die Staatliche Vogelschutzwarte im Landesumweltamt Brandenburg.

Das Statement des NABU klingt verhalten, und einen konsequenten, vom „Zeitgeist“ freien, mutigen Naturschutz – dazu gehört insbesondere auch der Landschaftsschutz und der Schutz von menschlichen Windradanrainern – kann man daraus leider nicht ableiten.

Was den BUND angeht, ist EIKE der Meinung, dass er seine satzungsgemäß verordneten Naturschutzziele in grober Verfehlung bewusst ignoriert und, vorrangig grün-ideologisch gesteuert, kein Naturschutzverein ist, der diese Bezeichnung überhaupt verdient. Wir möchten mit unserem Beitrag alle Naturschützer und insbesondere ideologiefreie Mitglieder des BUND auf diesen Skandal  aufmerksam machen.

Prof. Dr. Horst-Joachim Lüdecke

(EIKE-Pressesprecher)

* korrigiert. Dank an Leser Kosenday

Lesen Sie dazu auch den neuen „Windräder töten Vögel“ Bericht des Biologen Dr. Friedrich Buer im Anhang

Aus dem letzten Absatz daraus:

Anfang September treffen sich auf Einladung von Hubert Weinzierl, des Präsidenten des Deutschen Naturschutzringes (DNR), der Dachorganisation von rund 100Umweltschutzverbänden, der Vorsitzende des Landesbundes für Vogelschutz in Bayern, Ludwig Sothmann, sowie Sebastian Schönauer vom Bund Naturschutz in Bayern gemeinsam mit dem Bayerischen Umweltminister, Markus Söder, bei einem neuen 3-Megawatt-Windrad im mittelfränkischen Emskirchen, das mitten in einen Wald betoniert wurde. Künftig wird das Wummern dieser Industrieanlage kilometerweit zu hören sein und den Wald entwerten.

 

Hier kündigt Söder 1.000 weitere Windräder in Bayern vorzugsweise in Wäldern an. Dazu sollen die Genehmigungen verkürzt und nur noch drei Monate dauern. Lärmgutachten sollen stark eingeschränkt werden und die Behörden sollen die Bestimmungen für den Naturschutz nicht mehr so streng nehmen. Der Artenschutz soll abgespeckt werden und auch in Landschaftsschutzgebieten und Naturparks dürfen bald Windräder stehen. Und wie reagieren die Spitzenfunktionäre des Natur- und Umweltschutzes? „Die Politik bewegt sich endlich“ betont Sebastian Schönauer vom Bund Naturschutz. Von einem „großen Sprung“ spricht der oberste Vogelschützer Ludwig Sothmann. Und Hubert Weinzierl schwärmt: „Die Energiewende ist ein Geschenk. Konflikte um Windräder werden minimiert“. Man wolle „zeigen, dass Windkraft auch im Wald genutzt werden kann“. Eindringlicher kann das Fukushima des Natur- und Umweltschutzes von seinen Spitzenfunktionären nicht vorgeführt werden. Arme Anwohner, arme Tiere und armer Wald!

Related Files




Sonne verbrannt

Solar Millenium An. der Redaktion) Gläubigerschutz beantragt hat, deutet darauf hin, dass das erste Entweichen der Luft aus dem lustigen grünen Subventionsgiganten zu einem großen Vakuum-Blowout geworden ist. Die vielen verschiedenen, nach Wohlstand schreienden Organisationen, die den Sektor der Erneuerbaren überrannt haben, werden nicht einfach oder gnädig aufgeben, aber der Heißluftballon der Grünwirtschaftler verliert rasch die öffentliche ga-ga-Unterstützung, den er während des vergangenen Jahrzehnts gehabt hatte.

Der Verlust des politischen Rückhalts, massive übermäßige Ausbreitung unter dem Schub von Subventionen plus die Erkenntnis, dass die erneuerbare Energie mit Abermilliarden Dollar an Kosten für Verbraucher und/oder Steuerzahler daherkommt, all das bedeutet für Solar- und Windenergie, Biotreibstoffe und andere Quellen grüner Energie Schwierigkeiten.

Dem Risiko, beschädigt zu werden, international und in Kanada, sind auch einige auf Risiko spielende Kapitalisten und finanzielle Schwergewichte ausgesetzt, die die Angst vor der globalen Klimaänderung für jeden Dollar an Subvention, den sie bekommen können, vorangetrieben hatten. In den Nachrichten war zu hören, dass sich [die Firma] Solon, die seit Monaten die Kosten und die Belegschaft drastisch reduziert, einem Bank-Ultimatum gegenüber sah und jetzt Gläubigerschutz für eine 375-Millionen-Dollar schwere Anleihe von der Deutschen Bank AG braucht, dem globalen Bank-Giganten. Die Deutsche Bank hat während der letzten Jahre grüne Energie massiv gefördert, indem sie eine internationale Kampagne lancierte mit der drohenden Klimakatastrophe, falls die Regierungen keine Einspeisetarife und andere Subventionen sowie Garantien für Erneuerbare-Energie-Firmen auf den Weg bringen würden, wofür die Deutsche Bank Geld verleihen würde.

Heute ist es fast unmöglich, alle Solarfirmen, die in Schwierigkeiten oder bankrott sind, oder die längst nicht mehr ohne Stützung durch den Steuerzahler in Betrieb wären, aufzulisten. Auch die Spur des Geldes zu verfolgen ist ein Problem. Die bekannteste ‚ausgebrannte‘ Firma vor Solon war Solyndra, die Firma in den USA, die nach einer Zuwendung von 535 Millionen US-Dollar von der Regierung der USA zusammengebrochen war. Es gibt Dutzende weiterer gescheiterter oder in Schwierigkeiten steckender Unternehmen.

Im US-Bundesstaat Oregon erhielt der berüchtigte Windpark Shepherds Flat, der größte der Welt, vor zwei Wochen eine positive Beurteilung der Rating-Agentur Fitch, jedoch mit negativen Aussichten, über Anleihen von 1,2 Milliarden Dollar. Diese Anleihen wurden vom früheren Wirtschaftsberater des Präsidenten Larry Summers im vorigen Jahr ausgewählt. Das Shepherds Flat – Projekt erfordert 1,9 Milliarden Dollar für die Installation von Turbinen der Firma General Electric, zusammen mit 1,2 Milliarden Dollar an Subventionen und Kreditgarantien. Fitch sagt, dass diese Operation „vom Bankrott geschützt [bankruptcy remote]“ ist, weil die Regierungen für die Anleihen garantiert. Aber es fügte eine Warnung vor negativen Aussichten an, weil die US-Regierung negative Aussichten [hinsichtlich der Finanzierung] bietet.

Fitch hat nicht gesagt, dass die US-Regierung negative Aussichten bietet, weil sie Geld für Dinge wie Wind- und Solarenergie ausgibt. Seit seiner Verabschiedung im Rahmen des Förderprogramms von Präsident Obama im Jahre 2009 hat die erneuerbare Energie 9,6 Milliarden Dollar verschlungen, eine Summe, von der das Magazin Time sagt, sie sei dreimal so hoch gewesen wie der Kongress erwartet hatte.

Am Mittwoch wurden in Washington Lobbyisten der erneuerbaren Energien – Wind, Biotreibstoffe, Solar – beim Finanzkomitee des US-Senats vorstellig und haben auf eine Erhöhung der Subventionen für ihre Firmen gedrängt. Biodiesel ist abhängig von einem Kredit von 1 Dollar pro Gallone [ca. 4 Liter], der am 31. Dezember ausläuft. Mit der Unterstützung für Ethanol, die zum gleichen Zeitpunkt ausläuft, wird erwartet, dass Biodiesel das gleiche Schicksal ereilen wird. Ein Kredit aus Steuergeldern für Windenergie, etwa 2,2 US-Cent pro Kilowattstunde Windenergie, wird Ende nächsten Jahres auslaufen.

Die subventionierten Industrien bringen die üblichen Argumente hervor, nämlich dass ihre Unternehmen Arbeitsplätze schaffen und saubere Energie erzeugen. Das langsame Aushauchen von Kyoto und die langfristigen Aussichten der Klimapolitik nach Durban bestärken das Gefühl, dass grün sein nicht länger einfach ist.

Die wirtschaftliche Basis für diese Arbeitsplätze wird durch zahlreiche Berichte und Studien unterminiert, die zeigen, dass die Kosten der Subventionen und für die Steuerzahler mindestens so viele Jobs zerstört wie neu geschaffen werden. Der Bericht eines Komitees des US-Repräsentantenhauses (dominiert von den Republikanern) warnte, dass die USA „die heimischen Kohle-Ressourcen auf dem Altar des vom Unglück verfolgten ‚grüne-Energie-Experiments‘ opfere“, so dass fehlgeleitete Dollarmilliarden für diese Industrien im Sand versickern.

In Ontario, Heimat für Milliarden schwere Subventionen für Einspeisetarife, scheint die Regierung auf dem Wege zu sein, den Wert dieser Tarife in zukünftigen Verträgen zu reduzieren. In einem vor Kurzem erschienenen Bericht vom Generalauditor der Provinz wurde ein düsteres Bild einer Regierung gezeichnet, die Milliarden Dollar von Steuer- und Ratenzahlern verbrennt, um Energie zu erzeugen, die die Provinz gar nicht braucht.

Kürzungen der Subventionen sind unvermeidlich. Aus Furcht davor haben die Hauptnutznießer der Tarife – 13,5 Cent pro Kilowattstunde Wind-, bis 80 Cent pro Kilowattstunde Solarenergie – eine Kampagne gestartet, mit der sie ihre industriellen Gegner angreifen. Mittels ihrer Lobbyorganisation, der Ontario Sustainable Energy Association, haben die Erzeuger erneuerbarer Energie in der vorigen Woche die Kernkraftproduzenten wegen ihrer Subventionen angegriffen.

Eine große Schlammschlacht unter subventionshungrigen Industrien erzeugt eine wenig erquickliche Vision. Aber es ist genau das, was man tun muss, wenn die Blase platzt und man Unterstützung und Logistik als Industrie verliert.

Terence Corcoran

Link: http://opinion.financialpost.com/2011/12/14/terence-corcoran-sun-burned/

Übersetzt von Chris Frey für EIKE




Überall Zweifel – Neues Klimabuch: Die kalte Sonne – Warum die Klimakatastrophe nicht stattfindet

Dirk Maxeiner von ACHGUT beschreibt es so:

.. und jetzt sagt es auch in Deutschland jemand von Gewicht.“Die Kalte Sonne. Warum die Klimakatastrophe nicht stattfindet.” Das neue Buch zum Klimawandel dürfte nun auch in Deutschland das Momentum für eine offene Diskussion erzeugen. Schließlich äußert da nicht irgendwer Zweifel am herrschenden Dogma, sondern Fritz Vahrenholt, der schon einmal mit einem Buch für Furore sorgte: Seveso ist überallVahrenholts Buch erscheint Anfang 2012, wer sich schon mal in die Materie einlesen will, dem empfehle ich zur Vorbereitung das hier.

Details hier und hier, Vorbestellung hier