1

El Hierro – 100 % Erneuerbare? Kann das funktionieren?

Betriebsstrategien für El Hierro ?

Das Programm (Bild rechts) ist in 5 logische Funktionen aufgeteilt, wie die Bedienoberfläche auch zeigt.

Von oben nach unten :

1.              Die Erzeugung

2.              Die Belastung

3.              Der Speichermanager

4.              Die Speicherfüllung

5.              Die Frequenz

6.              Die Leistungsverteilung

Zu 1:  Die Erzeugung

Die Erzeugung besteht aus drei Komponenten. Es ist in erster  Linie die Windkraftanlage bestehend aus 5  Anlagen je 2,3 MW. Für die Simulation werden beim Programmstart alle WKAs als einsetzbar angesehen, wenn die Checkbox WKA-Betrieb  gesetzt ist.

Mit den Commandfeldern + und kann man die Anzahl per Hand einstellen. Die Checkbox WKA-Betrieb kann nur gesetzt werden  wenn entweder die Checkbox Wasserturbine-Betrieb, die Checkbox Diesel-Betrieb oder beide gesetzt sind  Das bedeutet, dass mindestens die Wasserturbine oder die Dieselmaschine ans Netz synchronisiert ist und die Netzfrequenz  im Regelbereich liegt. Eine von beiden Anlagen muss laufen und die Netzfrequenz und Netzspannung diktieren. Mit dem Scrollbar Windkraftanlage kann man die Leistung, der vom zufälligen Wind abhängigen  Stromerzeugung, für Versuche in dieser Simulation einstellen. Die Leistung und die Anzahl der WKA kann man in den beiden Textfeldern sehen. Die Oberwelligkeit der Stromerzeugung und ungünstige Windströmungsverhältnisse am WKA-Standort sind mir bekannt, werden aber in dieser Arbeit, ebenso wie Wirkungsgrade, nicht weiter berücksichtigt

Durch Anwahl der Checkbox Wasserturbine-Betrieb teilt man dem Programm mit, dass die Wasserturbinen ans Netz geschaltet sind und zur Regelung bereitstehen. Mit dem Scrollbar Wasserturbine kann man den Drehzahlsollwert einstellen und damit die Frequenz/Leistung der Maschine bestimmen. Im großen oberen Textfeld wird die Leistung der Maschinen angezeigt In den kleinen Textfeldern wird links der Frequenzeinfluß des Drehzahlreglers und rechts der Windeinfluß des Speichermanagers angezeigt. Die Summe der maximalen Leistung der vier Wasserturbinen beträgt 11,32 MW.

Durch Anwahl der Checkbox Diesel-Betrieb teilt man dem Sytem mit, dass das Dieselkraftwerk ans Netz  geschaltet  ist und zur Regelung bereitsteht. Ich nehme an es handelt sich um mehrere Synchrongeneratoren mit einer Leistung von insgesamt 11,5 MW. Mit dem Scrollbar Dieselkraftwerk kann man den Drehzahlsollwert einstellen und damit die Frequenz/Leistung der Maschine bestimmen. Im großen oberen Textfeld wird die Leistung des Werkes angezeigt . In dem kleinen Textfeld wird Frequenzeinfluß des Drehzahlreglers angezeigt.

Im grossen Textfeld rechts wird die Gesamtleistung der Erzeugeranlagen angezeigt

Zu 2: Die Belastung

Die Belastung der Erzeugeranlagen wird von der Netzlast, den Speicherpumpen mit Festdrehzahl und den leistungsregelbaren Speicherpumpen  gebildet.

Mit dem Scrollbar Netzlast wird die Leistung des Verteilernetzes eingestellt und auf dem Textfeld angezeigt.

Die Speicherpumpen mit Festdrehzahl kann man mit Checkbox Pumpe 1 bis 5 anwählen. Jede Pumpe hat eine Leistung von 0,5 MW. Die Summe wird im großen Textfeld angezeigt. Wann Pumpen zu- oder abzuschalten sind  zeigt ein Textfeld mit begleitendem BEEP an. Zugeschaltet werden soll, wenn die Leistung der regelbaren Speicherpumpen 1,5 MW überschreitet. Abgeschaltet werden soll, wenn die Leistung der regelbaren Speicherpumpen 0,5 MW unterschreitet. Damit soll die Belastung durch Frequenzumrichter so gering wie möglich gehalten werden.

Die zwei regelbaren Speicherpumpen von je 1,5 MW werden vom Programm als beide Pumpen in Betrieb aufgefaßt. Ihre Leistung wird im Handbetrieb mit Scollbar Speicherpumpe eingestellt. Die aktuelle Leistung  wird im großen Textfeld angezeigt. Die Summe der Pumpleistung ergibt sich aus der Addition der Leistung von Festdrehzahlpumpen plus Regeldrehzahlpumpen. Die Überschreitung von 3 MW für die regelbaren Pumpen wird verhindert und durch rote Hintergrundfärbung im Textfeld angezeigt. Die Pumpleistung wird von Speichermanager bestimmt, sofern die Option Windeinfluß Laden/entladen angewählt ist. Im linken kleinen Textfeld wird der Windeinfluß des Speichermanagers angezeigt. Im rechten kleinen Textfeld wird der Frequenzeinfluß angezeigt, wenn diese Betriebsstruktur durch die Checkbox  Frequenzeinfluß gewählt ist. Mit dem Scrollbar Speicherpumpe Frequenzeinfluß kann man den Sollwert zwischen 47.5 Hz und  50 Hz einstellen, wenn man wieder 50 Hz im Netz wieder erreichen will. Im grossen Textfeld rechts oben wird die Gesamtleistung der Belastungen angezeigt

Zu 3: Der Speichermanager

Der Speichermanager hat die Aufgabe das Einspeichern und Ausspeichern von Windenergie in/aus dem Höhenspeicher zu steuern. Ziel ist es die Energiegewinnung aus Windenergie zu vergleichmäßigen. Dazu ist die Ermittlung der mittleren Windleistung der letzten 7 Tage und eine Vorausschau für den aktuellen Tag  nötig. Dies kann nicht Teil dieser Simulation sein. Ein fiktiver Wert kann mit dem Scrollbar Speichermanager eingestellt werden. Der Wert wird im grossen Textfeld rechts angezeigt. Überschreitet die Windleistung diesen Wert, dann wird die Leistung, die über diesem Wert liegt, mit den Speicherpumpen eingespeichert. Liegt die Windleistung unter dem Grenzwert, dann wird die Turbinenleistung vom Speichermanager so erhöht, dass die Summe aus Windleistung + Turbinenleistung dem Grenzwert entspricht. Dazu muss mit der Checkbox Windeinfluß Laden/Entladen diese Funktion eingeschaltet werden.

Eine weitere Funktion des Speichermanagers ist die Begrenzung der Windleistung bei steigender Füllung des Speichers. Dazu nimmt der Speichermanager steigend ab 260 MWh  proportional  WKA ausser Betrieb und verhindert damit eine Überfüllung des Speicher. Diese Funktion wird mit Checkbox  Speicherniveaueinfluß aktiviert.

Bei fallendem Füllstand des Speichers  wird die Turbinenleistung,beginnend  bei 21 MWh Speicherfüllstand proportional gesenkt, bis sie bei 0 MWh  den Nullpunkt erreicht. Diese Funktion wird ebenfalls mit der Checkbox  Speicherniveaueinfluß aktiviert. Der Eingriff auf die aktuelle Turbinenleistung wird mit der Meldung  Diesel zuschalten und begleitendem BEEP angezeigt.

Zu 4: Die Speicherfüllung

Die Speicherfüllung ist mit dem Scrollbar  Füllstand im Bereich 0 bis 270 MWh für Versuche einstellbar Beim Programmstart steht der Wert auf  135 MWh. Die Veränderung des Füllstandes, es handelt sich um ein integrales System, ergibt sich aus der Differenz  der Textfelder SummeLeistung ungeregelt + Leistung geregelt der Speicherpumpen und LeistungTurbine  der Erzeuger.

Zu 5: Die Frequenz

Die Frequenz des Versorgungssystem ist das wichtigste Kriterium zur Beurteilung der Netzstabilität. Es handelt sich um ein  System mit integralem Verhalten. Bei Leistungsüberschuss steigt die Frequenz, bei Leistungsmangel fällt die Frequenz kontinuierlich. Die Frequenz ergibt sich aus der Integration der Differenz  aus Summe der Erzeugerleistung  minus Summe der Netzlast. Das zeitliche Verhalten der Frequenz ist im Simulator gestreckt um etwa den Faktor 10. Sonst ist für den Operator nicht zu sehen, was da passiert. Zulässig ist eine Frequenz zwischen 47,5 Hz und 52,5 Hz . Wird dieser Bereich verlassen so wird  „Schutzaus“ ausgelöst. Das wird durch ein  rotes Textfeld mit Aufschrift „Schwarzfall“ angezeigt. Der weitere Verlauf der Simulation wird angehalten, damit man den Vorfall analysieren kann.. Weiter geht es mit Abwahl  und Neustart des Programms.

Zu 6: Die Belastungsverteilung

Im rechten Teil des Fenster ist eine graphische Darstellung der Leistungsverteilung für Erzeugung auf der linken Seite und Belastung auf der rechten Seite. Die Höhe der Säulen ist proportional den Leistungen. Die Farben entsprechen der Klassifizierung der linken Fensterseite.

Betrachtungen zur Netzstabilität.

Der Betrieb von Windkraftanlagen ist nur in Kombination mit drehzahlgeregelten Erzeugern möglich, da eine WKA nicht zur Frequenzregelung fähgig ist. Weil das so ist, hat man sich für El Hierro etwas ausgedacht :

http://infoscience.epfl.ch/record/198519/files/1-s2.0-S0960148114000755-main.pdf[..]

Man will eine Wasserturbine ans Netz synchronisieren und dann das Arbeitswasser abstellen. Die läuft dann weiter wie ein Synchronmotor. Man stellt sich vor, man hätte dann einen rotierenden Speicher durch die Masse der rotierenden  Maschinenteile und der würde die Frequenz stabilisieren. Aber das Ergebnis wird sein :

Maschine läuft als Synchronmotor

Maschine braucht Antriebsleistung

Maschine geht über Rückwatt vom Netz.

Hier einige Worte zu Rückwatt. Es ist der Kraftwerksausdruck für den Fall, dass eine Erzeugereinheit vom Netz Leistung aufnimmt und motorisch läuft. Die dabei auftretende Leistung nennt man Schleppleistung. Sie tritt auf, wenn man zB. einer Wasserturbine das Arbeitsmittel abstellt.

Hier nochmal der Beitrag von Horst Maler #32:

die Rotationsenergie eines Turbosatzes können Sie bei Lastanstieg nur im Bereich zwischen 50 Hz und 47.5 Hz nutzen. Dann erfolgt "Schutz aus". Bei 49,8 Hz beginnt spätestens der Einsatz der Primärregelung.

Bei Lastausfall im Bereich 50 Hz bis 52,5 Hz.

E_rot= (47,5 / 50) ** 2 = 0.9025

100 % – 90,25% = 9,75 %.

9,75 % der im Turbosatz enthaltenen Rotationsenergie können Sie nutzen. Das ist sehr wenig. Vergessen Sie Rotationsenergie !

Die Generatorspannung ist abhängig von der Drehzahl der Maschine und vom Erregerstrom, der von einem Spannungsregler durch eine Erregeranlage geführt wird. 

Das hat er sehr richtig erkannt und hier bekannt gemacht. Wie die Spanier auf diese Idee kamen ist mir ein Rätsel.

In der angegebenen Maschinenanordnung  ist es nicht möglich nur mit Windkraftanlagen zu versorgen. Es muss immer die Wasserturbine (Abhängigkeit vom Speicher)  und/oder der Diesel laufen, um die Frequenz und die Spannung  zu diktieren.

Größtes Risiko bei  einer Inselanlage ist der teilweise oder komplette Netzausfall oder der plötzliche Windleistungsanstieg (Böe) , denn beide müssen entweder von der Dieselanlage und/oder der Wasserturbine abgeworfen werden können. Dazu müssen die Erzeugeranlagen aber  Leistung haben die sie abwerfen können.

Das die Speicherpumpen einen Frequenzeinfluß haben ist mir nicht bekannt, wäre auch sehr ungewöhnlich, aber eine großartige Idee. Das gibt es nur in dieser Simulation. Man könnte dann  die positive Leistungsdifferenz, die zum Frequenzanstieg führt und letztlich zum Schwarzfall, per Frequenzeinfluß auf die Speicherpumpen umlegen. In meiner Simulation ist das möglich. Für die Speicherpumpen kann mit Checkbox Frequenzeinfluß diese Struktur für die regelbaren Speicherpumpen gewählt werden.

Der Speichermanager kann die Windleistung die grösser als der Windleistungsgrenzwert ist auf die Speicherpumpen umlegen.  Ist die Windleistung kleiner als der Windleistungsgrenzwert dann wird die fehlende Leistung auf die Wasserturbinen umgelegt.  Dazu ist im Speichermanager die Checkbox Windeinfluß Laden Entladen zu aktivieren. Die Leistung der Erzeuger Wasser + Diesel muß immer grösser sein als die maximal mögliche Störung durch Teilnetzausfall oder Windleistungsanstieg (Böe).

Der aufmerksame Leser wird bemerken, dass immer, wenn die Speicherpumpen laufen, auch die Wasserturbinen laufen. Die Speicherpumpen stellen ja für das Netz eine Belastung dar. Das ergibt dann eine Art Kreisverkehr des Energiefluß. Ein Teil der Pumpleistung geht gleich wieder zur Wasserturbine. Das ist leider alternativlos. Um mal diesen schönen Satz zu benutzen.

Wir kommen jetzt zu einem Thema, das meistens nicht zur Sprache kommt. Windanlagen speisen ihren Strom über netzsynchronisierte Wechselrichter in das Netz ein. Die Sinusform des Stroms wird durch Modulation des Impuls-/Pauseverhältnisses der Hochstromschalter erreicht. Trotz nachfolgender Filterung ergeben sich trotzdem Oberwellen in der Netzspannung. Je mehr WKA in Betrieb sind desto stärker die Oberwellen. Die Oberwellen im Netz gefährden die ordnungsgemäße Funktion von Geräten im öffentlichen Netz und müssen so gering wie möglich gehalten werden, was bei Landanlagen im Verbundnetz leichter gelingt als bei Inselanlagen.

Dazu kommt, dass man für die geregelten Speicherpumpen nicht Voithgetriebe sondern Frequenzumrichter einsetzt. Diese sind prinzipiell ähnlich den Wechselrichtern. Sie haben in der steuerbaren Ausgangsfrequenz ebenso Oberwellen wie die WKA, da die Sinusform des Stroms durch Modulation des Impuls-/Pauseverhältnisses der Hochstromschalter erreicht wird. Hier begrenzt sich die Schädlichkeit auf die Antriebsmotore der Speicherpumpen, die dann eine höhere Wärmeabfuhr erfordern, also eventuell ein Kühlgebläse oder größere Motorauslegung. Die Schädlichkeit für das Netz ergibt sich aus der Gleichrichtung des Drehstroms zur Ladung des Zwischenkreises. Der Ladestrom ist nicht sinusförmig und daher oberwellig. Beide, also WKA plus FU  zusammen, ergeben in dem kleinen Inselnetz eine unheilvolle Mischung, der man nur mit Begrenzung der Pumpleistung entgegnen kann. Nun wird man sagen Voithgetriebe seien nicht Stand der Technik und man könnte große Motore mit 1,5 MW nicht im Inselnetz einschalten. Dem ist aber entgegenzuhalten, dass man einen solchen Motor von einem kleinen Anwurfmotor auf Drehzahl bringen kann und dann erst einschaltet. Die Lastfreiheit des Motors kann man durch Einfahren des Ölringschöpfrohres ins Voithgetriebe garantieren. Dann ergibt sich keine Oberwelligkeit im Netz durch diesen Antrieb.

Jetzt die Praxis. Nur eine Einführung !

Wir starten das Simulationsprogramm „Hierro.exe“

Sie finden es hier  bzw. hier

Achtung ! Zahlensystem : Englisch (USA) Visualbasic für Windows 6.0

F          Netzfrequenz

WE      Windeinfluß von Speichermanager auf Turbine

FE        Frequenzeinfluß Drehzahlregler Turbine

PT       Turbinenleistung

PW      Windleistung

PP        Pumpleistung

Auf die Leistungsverteilung achten.

Wir fahren jetzt die Anlage an. Wasserturbine Betrieb                   F=50 Hz

Wir fahren die Netzlast hoch auf 3 MW.                                        F=49,348 Hz  WE=0.0 MW FE=3,0 MW

                                                                                             PT=3 MW

Wir schalten den  Speichermanager ein. Windeinfluß Laden/Entladen

Wir schalten den Frequenzeinfluß auf die Speicherpumpen ein. Frequenzeinfluß

Wir steigern die Netzleistung auf 4 MW                                       F=49,783 Hz WE=3,0 MW FE=1,0 MW

Wir stellen den Turbinendrehzahlsollwert auf 3013,1 U/min             F=50 Hz WE=3,0 MW FE=1,0 MW

                                                                                             PT=4 MW

Wir fahren jetzt die Windanlage an. WKA-Betrieb

Wir fahren die Windanlage auf 3 MW.                                          F=50 Hz WE=0,0 MW FE=1,0 MW

                                                                                             PT=1 MW PW=3 MW

Wir fahren die Windanlage langsam auf 8,5 MW                            F=50 Hz WE=0,0 MW FE=1,0 MW

                                                                                             PT=1 MW PW=8,5 MW PP=5,5 MW

Wir sind jetzt an der oberen Grenze der Netzbelastung  bei 4 MW Netzlast angekommen. Alle Pumpen laufen. Die geregelten Pumpen sind auf 3 MW (rote Warnung). Wenn jetzt eine Böe die Windleistung auf  9,5 MW erhöht dann ist Not angesagt. Die Turbine wirft dann 1 MW ab und hat dann Leistung 0 MW. Die Pumpen können nicht mehr höher. Nichts regelt mehr die Frequenz.

Wir fahren die Windanlage auf 9,5 MW                                        F=50,218 Hz WE=0 MW FE=0,0 MW

                                                                                             PT=0 MW PW=9,5 MW PP=5,5 MW

Jetzt aber in letzter Not eine WKA abwerfen. Wir sind gerettet. Wenn wir nicht eine WKA abwerfen folgt vielleicht folgendes. Das Netz verliert 0,5 MW Last durch den Ausfall einer Speicherpumpe.

Die Netzlast auf  fällt auf 9,0 MW                                                F=52,518 Hz WE=0 MW FE=-10,44 MW

                                                                                             PT=0 MW PW=9,5 MW PP=5,0 MW

Wir haben den Schwarzfall.

Weitere Versuche können jetzt alle Interessierten selbst vornehmen. Aber bitte bekommen Sie keinen Nervenzusammenbruch.

In der Dateianlage zu dieser Arbeit befinden sich die folgende Dateien :

setup.exe     hier                 Das Windows-Installationsprogramm

ElHierro.CAB    hier          Die Programmdatei zur Installation

Beide bitte in ein neues Verzeichnis herunterladen und dann setup.exe starten.




Seit 30 Jahren erfolgt laut DWD- Daten die Forsythienblüte in Hamburg immer später.

Bild rechts: Blütenbeginn im Ostalbkreis erst am 5.April. Foto Kowatsch

Die Forsythie ist eine vom Deutschen Wetterdienst benutzte Zeigerpflanze für den Erstfrühlingsbeginn im März Eigentlich ist die Forsythie nicht besonders geeignet als Erstblütenbetrachtung, der DWD hat sie auch nicht ausgesucht, denn er erhielt mehr zufällig die lange Datenreihe. Und mit schöner Regelmäßigkeit behauptet die politisch besetzte Führungsriege des Deutschen Wetterdienstes einen früheren Frühlingsbeginn der Forsythienblüte an der Lombardsbrücke inmitten der großen Wärmeinsel Hamburg. Der immer frühere Beginn sei ein eindeutiger Beweis der Klimaerwärmung, die wiederum ausschließlich CO2 bedingt wäre.

Wir sind der Sache nachgegangen und haben uns zeitraubend die Daten seit 1980 aus einem Diagramm des Hamburger Bildungsservers besorgt. Die vielen uns angebotenen links in das DWD-Archiv endeten im Nichts bzw. auf der ersten Seite der Homepage. Eine einfache telefonische oder mail-Übermittelung beim DWD oder direkt beim Phänologen fand trotz mehrmaliger Anfrage auch nicht statt. Die Daten der letzten vier Jahre mussten wir uns einzeln aus den Tageszeitungen besorgen, wo man jedesmal auch lesen konnte, dass der Blütenbeginn sich verfrüht hätte. 2016 erhielten wir erst nach langem Suchen durch den Hinweis eines EIKE-Lesers.

Abb. 1: Vorsicht, nicht verwechseln, die violette Trendlinie steigt, das bedeutet aber nicht Erwärmung. Auf der linken senkrechten y-Achse sind nicht die Temperaturen aufgetragen, sondern die Kalendertage nach Neujahr. Je mehr Kalendertage, desto später der Forsythien-Blütenbeginn.

Die Überraschung ist groß. Die Hamburger Daten zeigen eine Verspätung seit 1987 und nicht die stets in allen Medien behauptete Verfrühung. Können die weniger naturwissenschaftlich ausgebildeten Reporter der Medien die Diagramme nicht lesen? Eine mögliche Erklärung des Sachverhaltes geben wir am Schluss des Artikels.

Wir stellen hier nur fest: Obwohl die Beobachtungsreihe mitten in der großen Wärmeinsel Hamburg aufgenommen wurde, und damit gar nicht die Bedingungen einer objektiven Beobachtung erfüllt, ist der Blütenbeginn genauso wie wir es bei anderen Frühblühern der freien Fläche beschrieben haben: http://www.eike-klima-energie.eu/news-cache/fruehlingsbeginn-in-deutschland-zeitiger-oder-leicht-verspaetet/

Seit 30 Jahren kommt das Frühjahr mit seinen Erstblühern etwas später und nicht früher, freilich bei sehr großer Streuung. Der Blütenbeginn der Forsythie verzögert sich sogar in der großen Wärmeinsel Hamburg.

Der Grund ist einleuchtend und logisch: Die Forsythienblüte verzögert sich, weil die Temperaturen der beiden Vorfrühlingsmonate laut DWD leicht fallend sind. Das zeigt das nächste Diagramm.

Abb. 2: Das Diagramm zeigt den Durchschnitt des Monates Februar und März. Im Spätwinter/Vorfrühling (Februar und März) blieb die von den „Klimamodellen“ vorhergesagte Erwärmung in Deutschland bislang aus. Die zusammengefasste Trendlinie beider Monate ist leicht fallend (nicht signifikant; sehr große Streuung!), sie deutet ein leichtes Kälter werden in den letzten 30 Jahren an.

Sinkende Temperaturen führen in aller Regel zu einem verspäteten Frühlingsbeginn.

Erg: Die vom DWD beobachtete Forsythienblüte der Stadt Hamburg zeigt seit 1987 einen deutlich verspäteten Frühlingsbeginn. Alle Veröffentlichungen in den Medien, dass just dieser Strauch an der Lombardsbrücke immer früher dran wäre, sind falsch.

Zur Vergewisserung suchten wir nach einer weiteren Forsythienreihe und wurden fündig. Der Phänologe Georg von Petersdorff-Campen in Seesen/Kirchberg schickte uns gerne seine eigenen Beobachtungsdaten der Forsythienblüte zu. Der Ortsteil Kirchberg hat 550 Einwohner und liegt südwestlich vom Harz. Bei der folgenden Grafik wieder beachten: Nach oben sind die Tage nach Neujahr aufgetragen. Je höher der Ausschlag, desto später der Blühbeginn. Eine steigende Trendlinie heißt Verspätung des Frühlingsbeginns.

Abb. 3: Seit 30 Jahren erfolgt die Forsythienblüte auch in Seesen/Kirchberg immer später, obwohl die letzten 3 Winter relativ mild waren. Die Beobachtung stimmt mit der Verspätung der Forsythienblüte in Hamburg überein. Wie zu erwarten ist der Blütenbeginn im eher ländlichen Kirchberg gegenüber der großen Wärmeinsel Hamburg allgemein um gut eine Woche später. Datenquelle: Phänologe Georg v. Petersdorff-Campen.

Ergebnis: Auch die Forsythienblüte in Seesen/Harz ist seit 30 Jahren verspätet, ganz wie dies nach dem Temperaturdiagramm 2 der beiden Vorfrühlingsmonate zu erwarten ist.

Ebenso mitbestimmend sind der Photoperiodismus (Tageslänge!) sowie die Sonnenscheindauer und der UV- Anteil im Sonnenlicht (wirkt blühhemmend!), Feuchtigkeit und Nachtfröste sowie trohische Faktoren (Nährstoff- Versorgung im weitesten Sinne). Auch die gestiegene CO2-Konzentration der Luft dürfte in den letzten 3 Jahrzehnten bei Gehölzen die Blühwilligkeit gefördert haben; was indirekt nach den Gesetzen der Wahrscheinlichkeit in Richtung einer leichten Verfrühung wirkt. In einem weiteren Frühlingsartikel, dessen Erscheinen für Ende April/Anfang Mai geplant ist, werden wir die Ursachen der Temperaturänderungen im Erst- und Vollfrühlingsmonat April erklären. Wir werden darin auch erklären, warum die Natur wegen sehr milder Winter nicht zwangsläufig aus dem Takt gerät, und warum eine Erwärmung viel mehr Vor- als Nachteile für Flora und Fauna hätte.

Ergebnis: Der Erstfrühling beginnt in Deutschland seit 30 Jahren etwas später. Alle Märzblüher wie Forsythien, Märzenveilchen, Buschwindröschen sind leicht verspätet. Wir führen das hauptsächlich auf die seit 30 Jahren insgesamt etwas kälter werdenden Monate Januar, vor allem aber Februar und den März zurück.

Teil II:

Wie kommt der DWD zu den gegenteiligen Behauptungen bei den Forsythien?

Im Gegensatz zu uns behauptet die Führungsriege und vor allem die Pressesprecher des Deutschen Wetterdienstes das genaue Gegenteil. Der DWD bietet auf seiner Homepage die folgende Grafik für Deutschland an. Das Diagramm beginnt 1951. Die Daten Deutschlands unterscheiden sich geringfügig vom Standort Hamburg/Lombardsbrücke.

Abb. 4: Seit 1951 verfrüht sich die Forsythienblüte in Deutschland. Quelle: http://tinyurl.com/Phaenologische-Jahreszeiten.

Anzumerken ist, dass es seit 1951 keine Beobachtungsreihen von Forsythien in Deutschland gibt, außer einer, nämlich dem Standort Hamburg/Lombardsbrücke. Der DWD hat obige Datenreihe auch durch eine Homogenisierung der Hamburg-Daten auf ganz Deutschland und aus neuzeitlichen Ergänzungen vieler anderer Standorte erhalten.

Kann man insbesondere aus den Hamburger Daten auf einen verfrühten Frühlingsbeginn seit 1951 und auf eine Klimaerwärmung schließen so wie die politische Führungsregie des DWD das stets behauptet? Selbst der DWD-Forsythien-Phänologe Jens Iska-Holtz, der die Hamburg-Daten erstellt, sieht das skeptischer.  Am 4. 3. 2012 hat er gegenüber einem Reporter von "Die Welt" erklärt: "…Dieser Trend zum Immer-früher-blühen (seit 1951) dürfe allerdings nicht allgemein als Zeichen des Klimawandels angesehen werden, sondern sei eine Besonderheit des urbanen Standorts, der andere Bedingungen für die Blüten schaffe. Die Umwelt‘ dieses urbanen Standortes wird ganz wesentlich durch die Stadt und ihre Temperaturen bestimmt…“ http://www.welt.de/print/wams/vermischtes/article13901980/Fruehling-ist-wenn-die-Forsythien-bluehen.html .

Hier zeigt sich erneut, dass die Sachkenner die Daten oft anders beurteilen als die politische DWD-Führungsriege, die ständig Beweise einer CO2-erwärmung finden wollen.

Nicht nur die Wärmeinsel Hamburg verfälscht die Datenreihen, sondern auch das Startjahr 1951 in der DWD-Grafik ist entscheidend. Wir haben beschrieben, dass die deutschen Temperaturen der letzten 100 Jahre einen sinusähnlichen Schwingungsverlauf zeigen mit einer Kältedelle in der Mitte des letzten Jahrhunderts. Und dieses Kälteloch zieht der DWD gerne für seine Betrachtungen heran. So auch bei der Forsythienblüte inmitten der Großstadt Hamburg. Nicht nur die Wärmeinsel Hamburg treibt den Blütenbeginn zeitlich nach vorne wie der DWD-Phänologe zu bedenken gibt, sondern auch das kalte Startjahr 1951 mit den kalten Folgejahren. Die Temperaturen sind heute höher als inmitten des Kältelochs 1951, sie waren es aber auch zu Beginn des 20 Jahrhunderts. Das zeigt uns das nächste Diagramm der beiden Vorfrühlingsmonate Februar und März.

Abb. 5: Aufgetragen ist der Durchschnitt der beiden Monate Febr./März=Vorfrühling. Um die Mitte des letzten Jahrhunderts verhielten sich die beiden Vorfrühlingsmonate genauso wie die anderen Monate. Sie waren kälter als heute, aber auch kälter als zu Beginn des Jahrhunderts. Der Verlauf ist nach den Originaldaten des Deutschen Wetterdienstes gezeichnet, also nicht einmal wärmeinselbereinigt.

Verlassen wir das Kälteloch als Betrachtungsbeginn. Es wurde wärmer, aber seit über einem Jahrzehnt auch wieder kälter. Der neuzeitliche Wärmehöhepunkt ist überschritten. Wir wollen wissen, seit wann die Forsythienblüte in Hamburg stagniert. Zur Info: der Standort Lombardsbrücke markiert den alten Verlauf der Stadtmauern Hamburgs und ist ein zentraler Ort der heutigen Stadt.

Abb. 6: Seit 1982, also seit 35 Jahren bereits haben wir bei der Forsythienblüte inmitten der Stadt Hamburg eine Stagnation. Der geringe Anstieg der Trendlinie=sehr leichte Verspätung ist nicht signifikant. Nächstes Jahr werden es aber 36 Jahre Stagnation sein. Im Schnitt erfolgt die Forsythienblüte inmitten der Großstadt Hamburg am 79.ten Tag nach Neujahr, das entspricht außer in Schaltjahren dem 20. März.

(Anmerkung: Der Blühtermin für 2016 ist von uns aufgrund Vergleichen mit anderen Beobachtungen auf den 22. März=82 Tage taxiert.)

Es ist bedauerlich, dass eine seriöse Behörde wie der Deutsche Wetterdienst durch eine fehlgeleitete Führungsriege die Deutsche Bevölkerung, aber wohl auch die Medien falsch informiert.

Denn wie in www.wetterspiegel.de, in einem Artikel vom 2.März 2016 über „Die Sprache der Pflanzen –Phänologie“ liest man nahezu überall diese Falschnachricht: „Tatsächlich gibt es bei den jahrelangen Beobachtungen der Blütenentwicklungen einen Trend, der zu einer deutlich früheren Blütenbildung tendiert. Grund dafür sind die milden Winter der letzten Jahre.“

Tatsache ist: Es gibt in den Phänologiedatenreihen der Forsythie auch beim DWD keinen Trend zur früheren Blütenbildung in den letzten Jahren, sondern seit gut 30 Jahren einen Trend zur späteren Blühentwicklung. Durch die drei letzten milden Winter wurde der Trend zur späteren Blüte nur etwas abgebremst.

Gesamt:

  1. 1) Seit 35 Jahren gibt es keine Verfrühung der Forsythienblüte in Hamburg mehr. Seit 35 Jahren ist die Trendlinie eben und zeigt keine signifikante Veränderung. Seit 35 Jahren argumentieren die Pressesprecher des Deutschen Wetterdienstes gegen die eigenen Daten, indem sie stets aufs Neue behaupten, dass die Erstblüte der Forsythie immer früher wäre und der Trend zur weiteren Erwärmung wäre ungebrochen.

2) Bei der kleinen Klimabetrachtungseinheit von 30 Jahren haben wir sogar eine nach oben steigende Trendlinie, die zeigt, dass sich seit 30 Jahren die Forsythienblüte auch in der Stadt Hamburg verspätet hat.

3) Bei einer Betrachtung seit 1951 müsste die richtige Antwort des DWD an die Medien lauten: Der Blütenbeginn des Forsythienstrauches in Hamburg hat sich bis 1980 verfrüht, seit 35/36 Jahren zeigt er eine Stagnation.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimawissenschaftler

Stefan Kämpfe, Naturbeobachter und unabhängiger Klimawissenschaftler.




Klima-Sozialismus – Eine Buch-Rezension

Dient das alles nur der offensichtlich beabsichtigten Reduzierung von Leben auf dieser Erde oder ist es gar ein von langer Hand geplanter Völkermord verrückt gewordener, selbsternannter Gutmenschen?

Die beiden Autoren Gerhard Breunig und Dieter Ber führen den Kampf gegen die Mär der drohenden, vom Menschen verursachten Klimakatastrophe faktenreich fort. Sie legen schlüssig dar, dass die Schauermärchen nur einer kleinen Machtelite und den davon – vor allem – profitierenden NGOs nützen und zeigen auf, wie notwendig es ist, sich gegen den modernen „großen Sprung nach vorn“ zu wehren. Denn tun wir das nicht, ist der Weg in eine ungeahnte Armut für Millionen von Menschen nur noch eine Frage der Zeit.“

So wird das Buch „Klimasozialismus“ auf der Homepage des Verlages beschrieben – und wenn man die Lektüre der in der Tat verstörenden Fakten und Hintergründe gelesen hat, dann kann man den beiden Autoren nur zustimmen.

Das Buch von Gerhard Breunig und Dieter Ber zeichnet sich insbesondere dadurch aus, dass dem „Klima-Laien“ und dem interessierten Leser, der noch nicht so tief in den „Dschungel des Wahnsinns“ eingedrungen ist, vermeintlich komplizierte Zusammenhänge einfach und verständlich näher gebracht werden. Es macht dem nicht wissenschaftlich „vorbelasteten“ Leser (auf auch erheiternde Weise) klar, dass der Klima-Schwindel nur einer kleinen Gruppe von vermeintlichen Klima-Gutmenschen nützlich ist – in Form von Milliardengewinnen und allerlei Auszeichnungen und Ehrungen, die den narzisstischen Selbstbeweihräucherern nur allzu gut zu Gesicht stehen.

Lassen Sie sich nicht täuschen vom angeblichen menschengemachten Klimawandel. Nachdem Sie dieses Buch gelesen haben, haben Sie die Grundlagen, um den Schwindel zu entlarven. 

Gerhard Breunig, Dieter Ber "Klimasozialismus; Massenarmut – Millionen Tote – Niedergang der Kulturen. Was bezweckt der weltweite CO2-Schwindel wirklich? 294 Seiten als Hardcover erschienen im Juwelenverlag unter der ISBN Nr, 978 3 945822-38-8

Druckversion hier

E-Book Version hier




Ohne Energie keine Zivilisation Deutschland: Mit Vollgas in die Steinzeit

Bild rechts: Fortschritt 2050: Ultramoderne, rostfreie, garantiert carbonfrei hergestellte Messerklinge Marke „Flintstone“

Bei früheren Kreuzzügen ging es vorgeblich darum, das heilige Land von „den Heiden“ zu befreien. Heutzutage sind wir moderner. Die „Heiden“ werden mit Gummibärchen und Selfies willkommen geheißen, als Beelzebub haben wir stattdessen das CO2 ausgemacht, von dem die Welt und ihr Klima befreit werden müssen. Letzteres wurde im Dezember 2015 auf der denkwürdigen „Welt-Klimakonferenz“ COP21 in Paris beschlossen. Die Bundesregierung will dabei den Vorreiter geben und hat deshalb am 9. März 2016 der Unterzeichnung dieses „Klimaschutzabkommens“ zugestimmt. Die Unterzeichnungszeremonie soll am 22. April 2016, dem „Tag der Erde“, in New York stattfinden. Umweltministerin Barbara Hendricks betont, dass Deutschland damit zu den Erstunterzeichnern gehören werde. Schon am 19. März 2016 präsentierte sie der Nation einen Katalog von 89 Maßnahmenvorschlägen für den deutschen „Klimaschutzplan 2050“ und kündigte den weiteren „klimafreundlichen Umbau von Wirtschaft und Gesellschaft“ mit dem Ziel der „Treibhausgasneutralität“ an. Worin unterscheidet sich dies von gesellschaftspolitischen Ansätzen früherer Jahrtausende?

Ohne Energie keine Zivilisation

In der Geschichte der Menschheit haben nur wenige Herrscher bewusst auf eine Verelendung des eigenen Volkes hingearbeitet. Es gab natürlich jede Menge unfähiger Fürsten und Könige, doch hat kaum jemand von diesen ernsthaft versucht, einmal erreichte zivilisatorische Errungenschaften für seine eigenen Leute rückgängig zu machen. Im Gegenteil: Sieht man sich die Geschichte von Hochzivilisationen an, so sind Fortschritte für die Masse der Bevölkerung untrennbar mit der Verfügbarkeit von zusätzlicher Nahrung und Energie verbunden. Das Große an Karl dem Großen war nicht das Massaker an den Sachsen, sondern die Einführung der Dreifelderwirtschaft. Das dadurch verbesserte Nahrungsangebot kam letztlich allen zugute, und das war das entscheidende. Den herrschenden Klassen ging es nämlich auch schon vor Jahrtausenden gut, wie das Sterbealter  ägyptischer Pharaonenmumien oder die Grabinschriften römischer Patrizier unschwer beweisen. Die weit überwiegende Masse der Bevölkerung jedoch fristete selbst noch im 16. Jahrhundert ein kärgliches Dasein, das von Mühsal, Entbehrungen, Siechtum und frühem Tod geprägt war. Eltern mussten oft vier von fünf Kindern begraben, die durchschnittliche Lebenserwartung lag bis 1700 auch in Deutschland bei 30 Jahren, teilweise sogar noch darunter. Als einzige Energiequellen standen Reit- und Zugtiere sowie in geringem Umfang Wind- und Wassermühlen zur Verfügung.

Den Anstoß zu einer modernen Zivilisation, welche auch der Bevölkerung in ihrer Breite merklich zugute kam, gaben erst die Kohlegewinnung und die damit verknüpfte Einführung der Dampfmaschine ab etwa 1720. Damit erschloss sich die Menschheit den Zugriff auf thermische, mechanische und schließlich auch elektrische Energie in einem Ausmaß, das sich vorher niemand hatte vorstellen können. Dokumentieren lässt sich dies an zwei entscheidenden Kenngrößen: Der Zunahme des Ausstoßes an CO2 durch Verbrennung von fossilen Rohstoffen einerseits und der Zunahme der Lebenserwartung der breiten Bevölkerung andererseits, Bild 1. Nur die reichliche Verfügbarkeit von Energie ermöglichte die Entwicklung unserer modernen technischen Zivilisation mit den Errungenschaften für die gesamte Bevölkerung, die wir heute kennen und als selbstverständlich empfinden.


Bild 1. Erst die Verfügbarkeit von reichlicher und bezahlbarer Energie ermöglichte die Entwicklung der modernen technischen Zivilisation, wie wir sie heute kennen. Vereinfachte linearisierte Darstellung. Daten: [CDIA, LEBE, BPB] (Grafik: eigene Berechnungen)

Weltweit gelten diese Gesetzmäßigkeiten übrigens auch heute noch. Nach wie vor verfügen Millionen von Menschen nicht über die Energieressourcen, die ihnen unseren Lebensstandard ermöglichen würden. Das zeigt sich beispielsweise, wenn man die Lebenserwartung in verschiedenen Ländern mit dem jeweiligen Pro-Kopf-Ausstoß an CO2 in einem Diagramm aufträgt, Bild 2.

 

Bild 2. Zusammenhang zwischen Verfügbarkeit von Energie, ausgedrückt durch den nationalen Pro-Kopf-Ausstoß an CO2, und der durchschnittlichen Lebenserwartung. Daten: [CDIA, LEBE] (Grafik: eigene Berechnungen) 

Zivilisatorisches Niveau, ausgedrückt durch die mittlere Lebenserwartung, und die Verfügbarkeit von (fossiler) Energie sind daher nach wie vor eng verknüpft. Bei den CO2-Ausreißern nach oben handelt es sich meist um Länder mit überreichlichen Ressourcen an Öl und Gas sowie vergleichsweise geringer Bevölkerungszahl wie Katar, Brunei, Oman oder Trinidad und Tobago. In anderen Fällen dürfte es sich um kleine Inselnationen mit weit überdurchschnittlichem Flugverkehrsaufkommen durch Tourismus handeln. Deutschland liegt ebenso wie die meisten seiner Nachbarländer im Bereich zwischen 7-11 t CO2/Kopf und Jahr.

 

Energieverweigerung bedeutet Massenmord

Allen politischen Akteure, die heute publikumswirksam den weitgehenden oder vollständigen Verzicht auf die Verbrennung fossiler Rohstoffe predigen, müsste eigentlich klar sein, dass es nicht darum gehen darf, der Menschheit die Verfügbarkeit von Energie zu verwehren. Das liefe auf Massenmord in einem Ausmaß hinaus, wie es in der ganzen Menschheitsgeschichte bisher nicht dagewesen ist. Betroffen wären nicht nur die Länder der 3. Welt, sondern auch die Industrienationen, denn deren Infrastruktur und auch die gesundheitliche Robustheit der Bevölkerung sind viel empfindlicher als in Ländern der 3.Welt. Mit dem Technologieniveau des 16. Jahrhunderts könnte Deutschland nicht einmal die Hälfte seiner heutigen Bevölkerung ernähren. Wir hätten „Bio“ für die Reichen und Hungertod für die Massen. Ganz wie früher.

Diejenigen, die uns den Verzicht auf fossile Ressourcen predigen, müssen daher die Frage beantworten, welche Alternativen sie der Menschheit als Ersatz anbieten wollen. Die vielfach angepriesenen „erneuerbaren“ Energien wie Solar- und Windenergie sind hierzu untauglich [ELHI, IVAN, TASM], nicht zuletzt auch deshalb, weil es derzeit keine technisch wie wirtschaftlich vertretbaren Lösungen für die erforderliche Energiespeicherung gibt. Alle derzeit propagierten Konzepte stecken in den Kinderschuhen. Keine einzige hat sich bisher als ausreichend praxistauglich erwiesen, im Gegenteil: Diverse hochgelobte Inselprojekte wie El Hierro, Tasmanien oder die eine oder andere Nordseeinsel haben sich bisher stets als teure Flops erwiesen.

Als einzige andere Alternative bliebe dann noch die Kernenergie. Diese wird jedoch im Augenblick von den meisten selbst ernannten „progressiven Kräften“ mit aller Leidenschaft bekämpft. „Alternativloser“ Verzicht, wie er teilweise propagiert wird, hätte gerade bei den Ärmsten der Armen katastrophale Auswirkungen. Letztlich ist es egal, ob jemand umweltpolitisch oder kirchlich ausgerichtet ist oder schlicht und undifferenziert gegen „Sozialkapitalismus“ wettert: Er sollte sich hier und jetzt klarmachen, dass er der Weltbevölkerung von aktuell rund 7,4 Mrd. Menschen Wege anbieten muss, an günstige Energie zu gelangen, sonst gibt es mehr Opfer ideologischer Verblendung als jemals zuvor in der Geschichte.

 

Die Utopie einer deutschen „Treibhausgasneutralität“

Bis vor einigen Monaten verfolgte die Bundesregierung noch vorrangig das Ziel, die deutschen CO2-Emissionen bis zum Jahr 2020 auf 625 Mio. Tonnen/Jahr zu senken. Dieses wurde insbesondere im Rahmen von EU-Vereinbarungen propagiert. Ein Blick auf die tatsächliche Entwicklung zeigt jedoch, dass der Rückgang bereits weit oberhalb dieser Zielmarke zum Stillstand gekommen ist, Bild 3.

Bild 3. Der Rückgang der deutschen CO2-Emissionen ist faktisch zum Stillstand gekommen. Das für 2020 angestrebte Ziel dürfte um rund 190 Mio. t/a verfehlt werden. Daten: [STAT], eigene Berechnungen. 

Betrachtet man die Trendlinie, so dürfte das Ziel sogar um rund 190 Mio. t CO2/a verfehlt werden. Das entspricht glatten 30 %. Hierbei muss man noch ins Kalkül ziehen, dass wir in 2014 und 2015 zwei vergleichsweise milde Jahre in Folge hatten, was eine entsprechende Verringerung der heizungsbedingten CO2-Emissionen zur Folge hatte [AGEV]. Während man in ökopolitischen Kreisen lautstark über die „Verhagelung“ der CO2-Bilanz aufgrund des „zu kalten“ Jahres 2015 klagte, zeigt der Blick auf das langjährige Mittel 1981-2010, dass nicht nur das extrem milde Jahr 2014 mit 2453 sogenannten Gradtagen (was das ist? hier), sondern auch das angeblich zu kalte Jahr 2015 mit 2852 Gradtagen immer noch unterhalb des Durchschnitts von 2.993 Gradtagen lagen. Zudem war das Jahr 2015 außergewöhnlich sonnen- und windreich, was zu einem massiven Anstieg vor allem beim Windstrom (+ 50 % !) wie auch bei der Fotovoltaik (+ 7%) führte. All dies zusammen hatte entsprechende Auswirkungen auf die CO2-Emissionen. Realistisch betrachtet waren 2014 und 2015 also Ausnahmejahre mit außergewöhnlich niedrigen CO2-Emissionen.

Bei nüchterner Betrachtung der Zahlen zur Entwicklung der deutschen CO2-Emissionen kommt man zu dem Schluss, dass schon die bisherige Politik der Bundesregierung bezüglich der Verringerung der deutschen CO2-Emissionen gescheitert ist. Mit den üblichen Mitteln politischer und wirtschaftlicher Lenkung und Anreizbildung steckt man hier offensichtlich in der Sackgasse. Normalerweise müsste die Politik in einer solchen Situation einen Rückzieher machen. Im heute „alternativlos“gewordenen Deutschland ist die Reaktion jedoch eine andere.

 

Die Vision einer deutschen „Treibhausgasneutralität“

Doch beflügelt vom erfolgreichen Verlauf des großen Klimarettungs-Jamborees in Paris hat sich die Bundesregierung in Person der Ministerin Hendricks stattdessen jetzt noch viel ambitioniertere Ziele gesteckt. Zwar sind konkrete Zahlenwerke noch nicht veröffentlicht, doch sollen schon bis Mitte 2016 gesetzliche Vorgaben erarbeitet werden, welche den CO2-Ausstoss Deutschlands bis zum Jahre 2050 um rund 85 % drücken sollen. Wichtige Eckpunkte des „Klimaschutzplans 2050“ sind bereits bekannt [EIKE] und lassen Schlimmes befürchten.

So soll im Autoland Deutschland, wo etwa jeder siebte Industriearbeitsplatz direkt oder indirekt am Automobil hängt, der Verkauf von Verbrennungsmotoren für den Einsatz bei Transport und Verkehr schon ab 2030 verboten werden. Da die Modellpolitik der Hersteller über lange Zeiträume geplant werden muss, bedeutet dies mehr oder weniger das Aus für wesentliche Teile der Branche innerhalb der nächsten paar Jahre. Hausbesitzer sollen durch „Straf-Grundsteuern“ und eine Umstellungspflicht auf „EE-Heizungen“ zu unrentablen Investitionen in angebliche „Energiesparmaßnahmen“ gezwungen werden. Zusätzlich flankiert werden soll dies durch Brennstoffsteuern auf Öl- und Gasheizungen. Innerorts soll das Verkehrstempo grundsätzlich auf 30 km/h begrenzt werden, für Autobahnen sollen 120 km/h gelten. Die Stromproduktion soll verringert werden. Ein besonderes „Schmankerl“ ist hierbei die beabsichtigte Beendigung des Kohleeinsatzes in Kraftwerken bereits ab 2035. Da die Kernenergie sogar noch früher, nämlich bis 2022 auslaufen soll, wäre Deutschland bezüglich seiner Stromversorgung dann weitgehend auf Windmühlen, Solarpaneele, Biomasse und etwas Wasserkraft beschränkt. Zur Stabilisierung der Netze stünde lediglich noch ein wenig Erdgas zur Verfügung Die Blaupause hierfür liefert unter anderem ein jetzt bereits verabschiedetes Gesetz für das Land Berlin [EWBE, EWB2], siehe Bild 4.

Bild 4. Die vom Land Berlin im Rahmen seiner Klimaschutzgesetzgebung festgelegten Maßnahmen sehen bis 2050 eine Reduzierung der CO2- Emissionen um 85 % vor (Grafik: [KLNB])

 

Utopische Vorstellungen beim Strom

Unterzieht man die bis jetzt bekannten Eckdaten der Politik beispielsweise bezüglich der Stromerzeugung einem Plausibilitätstest, so stellt man schnell fest, dass es sich hier um politische Vorgaben handelt, die in der Realität gar nicht umsetzbar wären. Das beginnt bereits mit der aktuell von verschiedenen Quellen erwarteten Verringerung der Stromproduktion von rund 10 % seit 1990 bis zum Jahr 2050, Bild 5.


Bild 5. Laut aktuellen Daten von AGEB und Prognosen von Statista wird eine Rückgang der Stromproduktion von 1990 bis 2050 um ca. 10 % erwartet (Daten: [AGE2, STA2] 

Als Begründung für die allgemein erwarteten Reduzierungen bei der Stromerzeugung werden u.a. Effizienzsteigerungen und der Einsatz „smarter“ Energieverteilungstechnologien angeführt. „Smarte“ Netze sollen dafür sorgen, dass Strom vorrangig dann genutzt wird, wenn er aufgrund geeigneter Wetterlagen reichlicher vorhanden und damit billiger ist. Das ist so weltfremd, dass man sich fragen muss, welchen Leuten man denn da das Steuerrad für das Land übergeben hat. Bei einigermaßen realistischer Betrachtung gibt es nämlich weder im privaten noch im gewerblichen Bereich viele Möglichkeit, zeitlich „flexibel“ auf ein erratisch schwankendes Stromangebot zu reagieren. Im Privatbereich ist es der Lebensrhythmus der Bewohner, der festlegt, wann gebadet, gekocht oder der Fernseher eingeschaltet wird, und es ist schlechterdings kaum vorstellbar, dass ein Bundesligaspiel oder ein Boxwettkampf um eine Stunde verzögert würden, weil dann billigerer Windstrom zur Verfügung stünde. Auch im gewerblichen Bereich mit seinen synchronisierten Abläufen ist die Vorstellung, tausende Mitarbeiter Däumchen drehen zu lassen, weil bei den Windmühlen gerade Flaute herrscht, so aberwitzig, dass man darüber gar nicht zu diskutieren braucht. Dass dennoch selbst große Unternehmen der Energiebranche in teuren Werbekampagnen suggerieren, in Zukunft werde sich der Verbrauch anders als bisher nach dem Angebot richten, sollte eigentlich strafrechtliche Konsequenzen nach sich ziehen.

 

Hinweg mit den fossilen Energien?

Der Gesamtenergieverbrauch Deutschlands im Jahre 2015 erreichte 13.306 Petajoule (PJ) [AGEB], was in etwa 3.700 TWh entspricht. Hiervon stammten lediglich 1670 PJ bzw. ca. 460 TWh (12,5 %) aus „erneuerbarer“ Energieerzeugung, der Rest von 3.240 TWh aus fossilen Energien bzw. aus Kernkraftwerken. Geht man davon aus, dass die Bundesregierung vorhat, den CO2-Ausstoss aus der Verbrennung fossiler Rohstoffe um 85 % zu reduzieren, so dürften im Jahre 2050 nur noch rund 158 Mio. Tonnen CO2 emittiert werden, siehe Bild 3. Bei der Verbrennung von Erdgas entstehen rund 219 g CO2/kWh [VDS]. Rechnet man diese Werte entsprechend um, so dürften 2050 noch maximal 2.600 PJ Energie aus Erdgas gewonnen werden. Erdgas wäre die einzige noch sinnvoll nutzbare Quelle, denn Kohle und Erdöl kämen wegen ihrer deutlich schlechteren CO2-Bilanz nicht infrage, Bild 6. Verglichen mit dem heutigen Gesamt-Energiebedarf der Nation müssten also zusätzliche 9.040 PJ bzw. 2.510 TWh allein durch Strom aus „sauberer EE-Erzeugung“ zur Verfügung gestellt werden, um auch nur den aktuellen Stand der Energieversorgung aufrechtzuerhalten. Hierfür kämen ausschließlich zwei Technologien infrage: Wind und Fotovoltaik. Alle anderen „EE“-Technologien sind faktisch bereits ausgereizt und können keine wesentlich höheren Beiträge als bisher liefern. Zusammen haben Wind und FV 2015 insgesamt 124,5 TWh Strom geliefert. Um auch noch den Rest zu erzeugen, müsste ihre Kapazität demnach um den Faktor 20 gesteigert werden. Da uns die „Energiewende“ bisher bereits mehr als eine halbe Billion € gekostet hat, kämen demnach Kosten von mehr als 10 Billionen € auf uns zu, nur um unseren heutigen Status im Bereich der Energieversorgung zu erhalten. Und das noch ohne Berücksichtigung der zusätzlich erforderlichen Investitionen in Infrastruktur.


Bild 6. Im Vergleich zu anderen fossilen Rohstoffen weist Erdgas die geringsten CO2-Emissionen auf (Grafik: [VDS])

 

Der „vergessene“ Strombedarf

Noch grotesker werden die Vorstellungen der Politik, wenn man sich ansieht, welcher zusätzliche Strombedarf allein schon durch die Umstellung einiger wichtiger Bereiche wie Verkehr und Heizung in Zukunft entstehen würde. Während die Politik und die „grünlinken“ Lobbyverbände und Thinktanks von einer Verringerung der Stromproduktion fabulieren, sähe die Realität ganz anders aus. Allein die Umstellung des PKW-Verkehrs auf E-Mobile würde einen zusätzlichen Strombedarf von mindestens 135 TWh bedingen, das sind gut 20 % der derzeitigen Jahresproduktion von 647 TWh [AGE2]. Hinzu kommt der gewerbliche Verkehr, denn man müsste ja auch LKW, Busse und evtl. Schiffe auf E-Antriebe umstellen. Hierfür müssten jährlich weitere 64 TWh Strom bereitgestellt werden. Vom Flugverkehr wollen wir in diesem Zusammenhang gar nicht erst reden.

Der eigentliche 400-Pfund-Gorilla des künftigen Stromverbrauchs lauert aber in den Bereichen Heizung, Warmwasser und industrieller Prozesswärme. Will man diese CO2-frei gestalten, so muss man von Gas oder Öl auf Elektrizität umstellen. Insgesamt benötigte Deutschland im Jahre 2015 866 Terawattstunden (TWh) an Erdgas [AGEB]. Hiervon wurden 384 TWh in Haushalten und Kleingewerben eingesetzt, 360 TWh in der Industrie und 110 TWh in Kraftwerken und Heizanlagen [AGEB]. Durch Strom ersetzbar sind etwa 66 % des Anteils der Haushalte. (Der Einsatz von Wärmepumpen ist nur im Bereich von Niedertemperaturanwendungen wie Heizung und Warmwasser sinnvoll). Der Energiebedarf einer Wärmepumpenheizung liegt bei rund 1/3 dessen, den die bisherige Heizung benötigte [FAWA]. Der zusätzliche Bedarf an elektrischer Energie für die Wärmepumpen kann in etwa auf jährlich rund 200 TWh geschätzt werden (Erdgas und Erdöl zusammen). Bei den industriellen Anwendungen lassen sich wegen des meist deutlich höheren Temperaturniveaus grob geschätzt nicht mehr als 20 % einsparen, so dass hier wiederum ein zusätzlicher jährlicher Strombedarf von 290 TWh erforderlich wäre. Noch außen vorgelassen wurden bei dieser Betrachtung das leichte Heizöl in der Industrie sowie der Einsatz von Kohle bzw. Koks in der Stahlerzeugung.

Zählt man diesen zusätzlichen Strombedarf einmal zusammen, so landet man bei insgesamt 690 TWh/ a. Zusammen mit den bereits jetzt erzeugten 647 TWh/a müsste unser Kraftwerkspark daher 2050 insgesamt 1.340 TWh bereitstellen, das sind über200 % mehr als heute. Die Differenz zu den „offiziös“ verbreiteten Planzahlen ist auf gut Deutsch erschreckend.

 

Großangriff auf die Hausbesitzer

Hinzu kommt die Frage, welche Kosten denn zusätzlich noch auf unsere Bevölkerung zukämen, beispielsweise durch die Umstellung der Heizsysteme. Wie Bild 7 zeigt, haben unsere Häuslebauer in den letzten Jahren in erster Linie auf Erdgas- und daneben auf Erdölheizungen gesetzt.


Bild 7. Bei den Heizungen dominieren mit deutlichem Abstand Erdgas und Erdöl (Grafik: [AGEV]) 

Der Einsatz von Fernwärme dürfte wegen des gesetzlichen Drucks zur Reduzierung von CO2-Emissionen in den nächsten Jahren drastisch zurückgehen. Fernwärme- und Heizkraftwerke funktionieren nur mit Verbrennungsprozessen, und die Ressourcen an Pellets und Biomasse sind bereits heute nahezu ausgereizt. Man mag sich gar nicht vorstellen, was es bedeutet, wenn der Staat darangeht, die Besitzer von rund 29 Mio. bestens funktionierender und teils sogar hochmoderner Heizungsanlagen (19 Mio. Erdgas-, 10 Mio. Ölheizungen, Zahlen nach [AGEV]) zu zwingen, für schätzungsweise kumulierte 700-750 Mrd. € auf elektrisch betriebene Wärmepumpensysteme umzustellen [HEIZ, HEI2]. Hinzu kommen noch weitere staatlich verordnete „energetische Sanierungsmaßnahmen“. Wenn dann auch noch die Zinsen anziehen, dürfte so mancher Häuslebauer aufgeben müssen. Industriebetriebe dürften in Scharen abwandern. Auf Deutschland werden wohl noch sehr „interessante Zeiten“ zukommen.

Fred F. Mueller

 

Quellen

[AGEB] Energieverbrauch in Deutschland im Jahr 2015. ageb_jahresbericht2015_20160317_final

[AGE2] http://www.ag-energiebilanzen.de/index.php?article_id=29&fileName=20160128_brd_stromerzeugung1990-2015.pdf

[AGEV] Energieverbrauch in Deutschland. Daten für das 1.- 4. Quartal 2015. Arbeitsgemeinschaft Energiebilanzen e.V.

[BPB] http://www.bpb.de/politik/grundfragen/deutsche-verhaeltnisse-eine-sozialkunde/138003/historischer-rueckblick?p=all

[BURN] http://www.welt.de/politik/deutschland/article122939590/Die-Frau-die-bei-der-CDU-Burning-Barbara-heisst.html

[CDIA] http://cdiac.ornl.gov/trends/emis/meth_reg.html

[EWBE] Senatsverwaltung für Stadtentwicklung und Umwelt. Entwurf eines Gesetzes zur Umsetzung der Energiewende und zur Förderung des Klimaschutzes in Berlin (Berliner Energiewendegesetz – EWG Bln)

[EWB2] http://www.berliner-e-agentur.de/news/land-berlin-beschliesst-energiewendegesetz

[HEIZ] http://www.heizsparer.de/heizung/heizungssysteme/heizungsvergleich/heizungsvergleich-einfamilienhaus

[HEI2] http://www.co2-emissionen-vergleichen.de/Heizungsvergleich/CO2-Vergleich-Heizung.html

[KLNB] http://www.stadtentwicklung.berlin.de/umwelt/klimaschutz/studie_klimaneutrales_berlin/

[EIKE] http://www.eike-klima-energie.eu/news-cache/klimaschutzplan-2050-morgenthauplan-20/

[ELHI] http://www.eike-klima-energie.eu/energie-anzeige/100-ee-millionengrab-el-hierro-windenergie-unreif-fuer-die-insel/

[IVAN] http://www.eike-klima-energie.eu/news-cache/ivanpah-das-groesste-us-solarprojekt-koennte-gezwungen-werden-abzuschalten/

[LEBE] http://www.lebenserwartung.info/index-Dateien/ledeu.htm

[STAT] http://de.statista.com/statistik/daten/studie/2275/umfrage/hoehe-der-co2-emissionen-in-deutschland-seit-1990/

[STA2] http://de.statista.com/statistik/daten/studie/182020/umfrage/prognose-zur-bruttostromerzeugung-in-deutschland-bis-2050/

[TASM] http://www.eike-klima-energie.eu/news-cache/inseln-sind-mit-dem-versuch-gescheitert-sich-zu-100-mit-gruener-energie-zu-versorgen-und-kehrten-zurueck-zu-diesel/

[VDS] http://www.erdgas.ch/erdgas/umwelt/emissionswerte/

 




DeConto und Pollard – ein Antarktisches Science-(Fiction)-Theater?

Es gibt einen Vorgang, den Klimawissenschaftler aller Couleur und Ausrichtung als die totale Katastrophe ansehen: ein plötzliches und dramatisches Abschmelzen von Inlandseis, was den Meeresspiegel in einem Jahrhundert um 3 Meter oder so steigen lassen würde.

Vor drei Jahren schien es so, als hätte man dieses Monster schlafen gelegt: nämlich als das Team um die dänische Wissenschaftlerin Dorthe Dahl-Jensen einen Eisbohrkern aus dem Grönlandeis bis hinunter zum Felsgrund zog, in dem zum ersten Mal zuverlässige Daten über die vermutlich wärmste Periode in geologischer Historie erfasst wurden. Die Periode ist bekannt als Eemian-Warmzeit. Sie fand heraus, dass sechstausend Jahre lang (in etwa von vor 122.000 bis vor 128.000 Jahren) die Sommertemperaturen in Nordwestgrönland, wo der Eisbohrkern gezogen worden war, um atemberaubende 11°F [ca. 6°C] höher lagen als im Mittel des 20. Jahrhunderts.

Bemerkenswerterweise schätze sie, dass Grönland nach sechs Jahrtausenden nur etwa 30% seiner Eismasse verloren hatte. Die Wärme, der die Eisbedeckung während dieser 6000 Jahre ausgesetzt war, war grob geschätzt zwanzig mal so hoch wie die Menschen durch Treibhausgase innerhalb von 500 Jahren erzeugen könnten. Darum wird die Grönland-Apokalypse schlicht nicht eintreten.

Dahl-Jensen betonte ein seltsames Mysterium, das durch ihre Arbeit aufgekommen war. Man weiß aus einer Reihe unabhängiger Quellen, dass der Meeresspiegel zur Eemian-Zeit um etwa 20 Fuß [ca. 6 m] höher lag als heute. Der Eisverlust, den es in Grönland ihrer Schätzung nach gegeben hatte, kann den Meeresspiegel nur um etwa ein Drittel dieser Höhe angehoben haben. Der Rest musste von der einzigen anderen potentiellen Quelle stammen, der Antarktis.

Das Narrativ eines alarmierenden Anstiegs der Ozeane seitdem war immer schwierig aufrecht zu erhalten gewesen. Es ist wirklich kalt dort, und das Abschmelzen sollte viel Zeit in Anspruch nehmen – tausende von Jahren – um merkliche Auswirkungen zu zeitigen.

Das hat sich gerade geändert. Oder zumindest hat es sich gerade geändert in einer komplexen und heiklen Simulation von Robert DeConto (University of Massachusetts) und Davil Pollard (Penn State). Diese Simulation schaffte es sogar auf die Titelseite der New York Times vom 31. März. Es scheint, dass sie die Zeit, in der die Antarktis zu über 10 Fuß [ca. 3 m] pro Jahrhundert steigendem Meeresspiegel beitragen könnte, aus etwa dem 50. Jahrhundert auf das 22. Jahrhundert (!) vorgezogen haben.

Bevor nun die Welt hierüber durchdreht, sollte man schauen, ob sich vielleicht einige Teufel in den Details der Studie verstecken. Tatsächlich gibt es einen ganzen Zwinger voller dicker Hunde in der konzentrierten, aber präzisen Prosa, die in Nature veröffentlicht wurde.

Für jede prophezeite Klimakatastrophe muss es irgendeine Art Klimamodell geben, dass zukünftige Temperaturen projiziert. Die Autoren führen zwei davon an (eines für den Ozean und das andere für das Festland). Ersteres ist ein allgemein herangezogenes general circulation model (GCM) vom National Center for Atmospheric Research in Boulder. Das zweite ist ein weniger gebräuchliches Modell in kleinerem Scale mit der Bezeichnung „Regional Climate Model” (RCM), das auf das Festland angewendet wurde. Diese wurden dann in Modelle der Eisdynamik eingefüttert einschließlich eines neuen Modells, dass die Regenmenge berücksichtigte (tatsächlich regnet es derzeit in der Antarktis nicht). Dann wurde es auf die gewaltigen Gletscher des Kontinents losgelassen, was gigantische Spalten in das Eis riss, wodurch wirkliche Riesen-Eisberge in den Ozean glitten. Das neue Eisdynamik-Modell reagiert extrem empfindlich auf die große Vielfalt von Möglichkeiten, steuernd einzugreifen – was man hier nur raten kann, weil die Physik, auf der das Modell beruht, nicht sehr weit entwickelt ist.

Und eine prophezeite Katastrophe ist nur so zuverlässig wie die Modelle, die sie simulieren.

Das Eisdynamik-Modell steckt noch in den Kinderschuhen, und die Klimamodelle zur Prophezeiung der Temperaturen rund um die Antarktis weisen diese als zu hoch aus. Viel zu hoch.

Andrew Monaghan von Ohio State schrieb in den Geophysical Research Letters: „Die jährlichen Temperaturtrends in der Antarktis in den GCMs sind etwa 2,5 bis 5 mal höher als beobachtet“. Er fügte die folgende Warnung hinzu: „Solange diese Dinge nicht geklärt sind, sollte man die IPCC-Projektionen für das 21. Jahrhundert der Temperatur in der Antarktis mit großer Vorsicht betrachten“. Es scheint, dass die Presse diese Aussage nicht mitbekommen hat.

Fast begraben am Ende des begleitenden Materials, dass an Nature übermittelt worden ist, kann man sehen, dass die Erwärmungs-Überproduktion der Klimamodelle auch die Studie von DeConto und Pollard infiziert. Den Autoren zufolge sollten sich große Gebiete des Kontinents (und nicht nur die wohlbekannte Erwärmung der winzigen Antarktischen Halbinsel) bis heute um etwa 7 bis 15°F [ca. 4 bis 8°C] erwärmt haben (Abbildung 1 links).

Das war nicht der Fall. Ryan O’Donnell und Anderen zufolge, die sich im Jahre 2010 im Journal of Climate geäußert hatten, sind die Temperaturen seit dem Vorliegen zuverlässiger Aufzeichnungen, die im Internationalen Geophysikalischen Jahr 1957 ihren Anfang genommen hatten, nur um etwa 5 bis 10% so stark gestiegen, wie es dem RCM zufolge an vielen Stellen eigentlich sein sollte (Abbildung 1 rechts).

Abbildung 1 (links): Gesamt-Temperaturänderung zwischen vorindustriellen Bedingungen und heute vom Klimamodell nach DeConto und Pollard; (rechts): beobachteter/gemessener Trend in °C pro Dekade von 1957 bis 2006 nach O’Donnell et al. (2011). Man multipliziere Letzteres mit 5, um eine Ahnung von der Gesamt-Temperaturänderung seit 1957 zu bekommen.

Eine gute Klimakatastrophe muss auch einige Pi-mal-Daumen-Schätzungen enthalten, um wie viel der Kohlendioxidgehalt in der Zukunft zunehmen muss. Die pikantesten davon in der neuen Studie nehmen atmosphärische Konzentrationen an, bei denen selbst die UN von substantiellen Ausreißern sprechen. Und die Studie lässt den Gehalt um das Achtfache über den Hintergrund des 19. Jahrhunderts zunehmen. Soweit wir wissen, hat bisher niemand jemals eine derartige Zunahme zur Grundlage zukünftiger Klima-Szenarien gemacht (gegenwärtig sind wir bei etwa vier Zehntel einer Verdoppelung angekommen).

Es gibt auch ein Szenario mit einer langsameren und realistischeren CO2-Zunahme, wodurch – man ahnt es schon – das Ende der Welt um viele Jahrhunderte nach hinten geschoben wird.

Wie auch immer, man drücke die „Enter“-Taste und werfe all diese Modelle in den Computer. Dann vergleiche man mit dem, was (unserer Ansicht nach) in der Eemian-Zeit passiert ist. Es ist für alle in Abbildung 3a der Studie ersichtlich (unsere Abbildung 2): Der gigantische Anstieg des Meeresspiegels hätte sich etwa 1000 Jahre vor der tatsächlichen Beobachtung ereignen müssen.

Da haben wir es. Roger Pielke Sr. twitterte als Erwiderung auf die Studie:

Bildinschrift: Beispiel einer Fehlfunktion in der Klimawissenschaft: man reiche eine HYPOTHESE als Beitrag ein → suche nach stützenden Artikeln und Begutachtungen → veröffentliche es in Nature → stelle es in der NYT groß heraus. [Ist das nicht genau das, was die „Süddeutsche Zeitung“ seit Jahr und Tag bei diesem Thema macht? Anm. d. Übers.]

Vielleicht ist es dies, was passiert, wenn man hypersensitive Modelle mit unrealistischen Daten füttert.

References:

DeConto, R.M., and D. Pollard. 2016. Contribution of Antarctica to past and future sea-level rise. Nature, 531, 591-597, doi:10.1038/nature17145. http://www.nature.com/nature/journal/v531/n7596/full/nature17145.html

Monaghan, A. J., D. H. Bromwich, and David P. Schneider, 2008. Twentieth century Antarctic air temperature and snowfall simulations by IPCC climate models. Geophysical Research Letters, 35, L07502, doi:10.1029/2007GL032630.

O’Donnell, R., N. Lewis, S. McIntyre, and J. Condon, 2011. Improved Methods for PCA-Based Reconstructions: Case Study Using the Steig et al. (2009) Antarctic Temperature Reconstruction. Journal of Climate, 24, 2099-2115.

Link: http://wattsupwiththat.com/2016/03/31/deconto-and-pollard-an-antarctic-science-fiction-disaster-2/

Übersetzt von Chris Frey EIKE

Anmerkung: Helmut Kuntz hat diesen Beitrag im Original bereits in seinem EIKE-Beitrag hier verlinkt.




Beim „Klimaschutz“ wird die Freiheit der Wissenschaft an den Universitäten missachtet.

Sehr geehrter Herr Limburg, 

ich habe das Interview mit Ihnen zu Ihrem Promotionsvorhaben gelesen. Das Verhalten der Universität Leipzig ist in der Tat skandalös, würde an anderen Universitäten jedoch ähnlich ablaufen. Die von Ihnen beschriebene kritiklose Einheitsmeinung zahlreicher Wissenschaftler und Fakultäten und den Versuch, jeglichen Kritiker mundtot zu machen, kann ich aus meiner Erfahrung an der Universität XYZ leider bestätigen. In meiner Fachgruppe ist unter den Kollegen das Thema "CO2 bedingter Klimawandel" ein Axiom, über das jegliche Diskussion abgeblockt wird und bei der ein Ausscheren aus der Einheitsmeinung die vollständige Marginalisierung zur Folge hat. Da ich aus geologischer Sicht keine unterstützende Argumente für die von den Kollegen (unter denen freilich wenige Meteorologe sind, der Rest eine bunte Mischung von Geowissenschaftlern, die alle beim Thema Klimawandel aber keine Zweifel haben) vertretene Einheitsmeinung habe, sondern aus der Erdgeschichte eher widersprechende Sachverhalte kenne, werde ich bei der Kommissionsauswahl für Promotionen und Berufungen vollständig übergangen.

Dass der Versuch der Gleichschaltung der Meinungen derart gut funktioniert, liegt vor allem an dem Dressurakt, der bei der Bewilligung von Drittmitteln ausgeübt wird: fehlt in DFG-Projekten der obligatorische Hinweis auf Klimawandel und das entsprechende Glaubensbekenntnis, dann ist der Antrag chancenlos. Ich stelle daher seit Jahren keine DFG-Anträge mehr. Wir leben ganz offensichtlich in einer Phase der „Normalwissenschaft“, wie Thomas Kuhn dies bezeichnet, in der Ergebnisse schon vor der Forschung feststehen. Forschung zum Thema Klimawandel ist gewissermassen zum „cargo-cult“ geworden, bei dem bislang die Geldmittel noch reichlich fliessen. Mich tröstet der Umstand, dass der Paradigmenwechsel irgendwann stattfinden wird. 

Beste Grüsse,

Ihr XYZ

Geologe




Das weltgrößte Grüne Energie Unternehmen geht Pleite entgegen

Information durch REUTERS / Carlos Barria

SunEdison, welches sich selbst als das größte grüne Energie-Unternehmen der Welt bezeichnet, könnte bald Gläubigerschutz beantragen, nach einer kürzlichen Notiz der Securities and Exchange Commission SEC [US-Börsenaufsichtsbehörde für die Kontrolle des Wertpapierhandels], da das Unternehmen "Liquiditätsschwierigkeiten" trotz Millionen an erhaltenen staatlichen Subventionen entgegensieht.

Fragestellung auf The Daily Caller

Ein SEC Bericht über TerraForm Global, einer Einheit von SunEdison, erklärt "der Liquiditätsschwierigkeiten SunEdison‘s wegen, besteht ein erhebliches Risiko, dass SunEdison bald Gläubigerschutz benötigen wird." Sowohl SunEdison als auch TerraForm sind mit ihrem Jahresfinanzbericht an die SEC in Verzug.

Nachrichten über die bei SunEdison bevorstehende Insolvenz kamen, nachdem die Aktien des Unternehmens um 95 Prozent in den letzten 12 Monaten fielen, diese werden jetzt das erste Mal, seitdem das grüne Energie-Unternehmen im Jahr 1995 an die Börse ging, für weniger als 1$ gehandelt. Der Marktwert von SunEdison fiel von 10 Mrd. $ im Juli 2015 auf rund $ 400 Mio. $ heute.

Die Nachricht kam, nachdem SEC angekündigte, es wird eine Untersuchung über die Publizitätspflicht von SunEdison an ihre Aktionäre starten, in Bezug auf die Liquidität des Unternehmens. Nach Bericht des Wall Street Journals untersuchen Vollziehungsbeamten der SEC, ob SunEdison seine Liquidität im vergangenen Herbst zu hoch angesetzt hatte, als sie den Investoren sagten, es hätte mehr als $ 1 Milliarde in bar.

SunEdison baut "fortschrittliche Solartechnik und entwickelt, finanziert, installiert und betreibt verteilte Solarstromanlagen", nach der Website des Unternehmens. Aber das Solarunternehmen hat Millionen Dollar von US-Steuerzahlern bekommen.

Die Pro-Gewerkschaft Gruppe „Good Jobs First“ [Gute Jobs zuerst] berichtete im vergangenen Jahr, dass SunEdison und ihre Tochtergesellschaften seit dem Jahr 2000 von der Bundesregierung in Subventionen und Steuergutschriften fast 650 Millionen Dollar bekam. Es war bei den am stärksten subventionierten Unternehmen an 13ter Stelle in Amerika.

Dazu gehören fast $ 4,6 Mio. Subventionen aus dem Energie- und dem Finanzministerium. Watchdog.org berichtete im Oktober 2015, dass SunEdison fast 4,6 Mio. $ von der Obama-Regierung erhalten hatte, einschließlich die Finanzierung um Halbleiter zu bauen. Ein SunEdison Konkurs, könnte den Steuerzahler am Ende mit mehr als 2 Milliarden Dollar zurücklassen.

SunEdison ist nicht die einzige grüne Energieunternehmen, dass nach großzügiger Unterstützung der Steuerzahler versagt. Abengoa, eine spanische grüne Firma, war seit Monaten in Geldnot und bekam vor kurzem von einem spanischen Konkursrichter eine 7-Monats-Frist seine Finanzen zu richten.

Insgesamt bekam Abengoa mehr als 605 Millionen Dollar an Unterstützung der Steuerzahler, nach Good Jobs First.

Die kultigsten grünen Energieausfälle, Solyndra und Abound Solar, kosten die US-Steuerzahler Hunderte von Millionen von Dollar.

 

Solyndra bekam 535 Millionen Dollar $ als Kreditgarantien von der Obama Regierung, hat aber im Jahr 2011 Konkurs angemeldet. Abound Solar hat im Jahr 2012 Insolvenz angemeldet, nachdem es noch $ 70 Millionen seiner 400 Millionen $ Kreditgarantie der Bundesregierung gezogen hat.

Eine Untersuchung des Daily Caller auf Basis von internen Dokumenten und Zeugenaussagen von Quellen innerhalb Abound Solar, verkaufte das Unternehmen wissentlich ein defektes, leistungsschwaches Produkt und täuschte seine Kreditgeber, um sich über Wasser zu halten.

Das Unternehmen wusste, dass seine Solarzellen zu fehlerhaft waren, um Steuergelder zu erhalten, verkaufte sie aber, um die Ziele des Energieministeriums für ihre $ 400 Millionen Bürgschaft zu erfüllen.

Erschienen am 29. März 2016 auf dem The Daily Caller

Übersetzt durch Andreas Demmig
http://dailycaller.com/2016/03/29/the-worlds-largest-green-energy-company-is-facing-bankruptcy/




Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

Inhaltlich ist dies Publizierung eine Abrundung zur Darstellung der aktuellen Pegelverläufe in der Reihe:

[6] „Gehen die Südseeinseln wirklich wegen des Klimawandels unter?.

und Ergänzung zur Analyse der entsprechenden Temperaturwerte

[11]„Rekonstruierte Temperaturverläufe der letzten zwei Jahrtausende“

Wer schon immer einmal (nach-)sehen wollte, wie Daten zum historischen und vor-historischen Pegelverlauf aussehen, kann es durch diese Recherche in kompakter Form erfahren. Gesichtet wird in diesem Artikel grob der Zeitraum von 6.000, 3.000 und 2.000 Jahren vor heute (BP), also der Bereich des schon auslaufenden Pegelanstiegs.

Eiszeiten als Treiber des Meeresspiegels

Zuerst die Darstellung was die Natur an Klimavariabilität bietet und wie konsequent sie diese durchführt. Das Bild 1 zeigt den Meerespegel, die Temperatur verläuft also gegensätzlich. Ab Age 120 … 140 (kyr) begann die letzte Eiszeit und hatte ihren Höhepunkt vor ca. 20.000 Jahren. Aktuell beginnt eine Neue! – oder die Nächste fällt ganz aus wie es Prof. Schellnhuber vom PIK vorhersagt „Fällt die nächste Eiszeit aus?“ .

Bild 1 [25] 0.1 Zyklische Wiederholung von Eiszeiten (vom Autor ergänzt)

Der gelbe Ausschnitt von Bild 1 nun im Detail. Nach dem Ende (Time 20 (kyr b2k)) der letzten Eiszeit beginnt langsam das Zeitalter des Holozän (grüner Pfeil im gelb umrandeten Bereich, WIKIPEDIA: Holozän, Beginn genau vor 11.700 +-99 Jahren vor dem Jahr 2.000) in welchem sich die Menschheit aktuell befindet.

Bild 2 [9] Verlauf des Meeresspiegels seit ca. 140.000 Jahren. Grüner Pfeil: Beginn Holozän-Zeitalter (Bild vom Autor ergänzt)

Zeitraum letzte Eiszeit und Holozän

Nach der letzten Eiszeit gab es erwartungsgemäß einen Anstieg der Pegel (Bild 3). Zum Glück fiel dieser gewaltige Anstieg in die Zeit vor dem Bau großer Städte direkt an den Küsten, obwohl die in den damaligen Küstenregionen und niedrig gelegenen Weltgegenden wohnenden Steinzeitmenschen sicher auch stark davon betroffen waren. Seit den letzten 7 … 6.000 Jahren verläuft der Pegel flach mit geringfügigen Änderungen, aber eben auch mit stetigem leichten (Rest?-)Anstieg.

Bild 3 Anstieg des Meeresspiegels nach der letzten Eiszeit. Zufügung: Grün: Beginn Holozän, Rot: betrachtete Zeiträume

Quelle: Wikipedia. Urheber: Robert A. Rohde / Lizenz: GNU-Lizenz für freie Dokumentation, Version 1.2 oder eine spätere Version

Vergessen wird oft, dass das Wasser irgendwo herkommen muss. Wie sich dies darstellt, zeigt das folgende Bild 4. Auch wenn es durch den dargestellten langen Zeitraum den aktuellen nicht mehr auflöst, kann man ahnen, dass alleine aus natürlichen Gründen eine leichte weitere Eisvolumens-Abnahme und damit rein natürlich bedingte Pegelzunahme der Weltmeere denkbar wäre. Der Eis-Volumens-Maßstab ist bereits bei 0, was zeigt, dass sich die Erde aktuell in einem Minimum an Erdeisvolumen befindet. Das Schmelzen seit 20.000 Jahren ging über 7.000 Jahre als natürlicher Klimavorgang mit unglaublicher Geschwindigkeit (ca. 14,3 mm/pa) vor sich und verläuft derzeit fast horizontal mit einem kläglichen Restvolumen. Man könnte vermuten, dass dieses kleine Restvolumen für natürliche, kurze Schwankungen immer anfälliger wird.

Auffällig ist, wie wenig die Antarktis zu dieser extremen Veränderung beigetragen hat (Bild 4). Ihr Eis ist gegenüber dem der Nordhalbkugel wesentlich stabiler, was sich aus ihrer Kälte und durch die Lage auf Festland erklärt (das wesentliche heutige Eisvolumen der Nordhemisphäre konzentriert sich auf den Landsockel von Grönland).

Auffällig in Bild 4 sind die eingetragenen Simulationen NAWI-A1 / -A2. Die Rück-Simulation des Antarktis-Eisvolumens funktioniert demnach nicht, bzw. führt abhängig vom Verfahren zu eklatanten Abweichungen.

Bild 4 [21] Verlauf der Erd-Eisvoluminas. Anm.: Das maximale Eisvolumen von 4.7841·1016m3 entspricht einer uniformen Meeresspiegelabsenkung von 117.41m [16]. Das Ende der letzten Eiszeit war vor ca. 20.000 Jahren

Bildtext: Figure 4.2: Total ice-mass change for the Pleistocene load modls NAWI-A1 and NAWIA2. The northern hemisphere contributes 120 m ESL, the southern hemisphere (i. e. the AIS) 12 m ESL to the global mean sea-level change since the LGM. The northern hemisphere glaciation starts at 120 ka BP, reaches its maximum at 20 ka BP and is identical for both load models. The last glaciation of the southern hemisphere starts at 120 ka BP (NAWI -A1) or 50 ka B P (NAWI-A2) and reaches its maximum at 15 ka BP. The previous glacial cycle (only modeled for the southern hemisphere) has the same temp oral evolution and terminates at 120 ka BP (not shown).

Die Zukunftsprojektion im nächsten Bild 5 betrachte man deshalb mit der nötigen Skepsis. Wenn die Klimasimulationen richtig rechnen (könnten), würde der Mensch mit seinem CO2-Beitrag die sicher kommende nächste Eiszeit etwas verzögern „Fällt die nächste Eiszeit aus?“ – Eigentlich eine grandiose Vorstellung zur Weltrettung durch anthropogenes CO2. Denn wohl nichts dürfte schlimmer sein als die nach der Zyklik mit Sicherheit kommende nächste Eiszeit.

Können wir die nächste Eiszeit überleben?

Wie schnell die Eiszeiten einsetzen, sieht man an den Spitzen von wenigen Tausend Jahren. Und einige Tausend davon können ja schon vorbei sein. Eine dann ausschließlich EEG-versorgte Energielandschaft mit verschneiten und vereisten Solar- und Windkraftanlagen sowie bis auf den Grund zugefrorenen Speicherseen dürfte die dann (er-)frierende Menschheit kaum mit der erforderlichen Wärme versorgen können. Ein Maisanbau in beheizten Gewächshäusern für Biogasanlagen dürfte auch nicht für die „Rettung“ sorgen können.

Überspitzt lässt sich daraus ableiten:

Deutschland macht das Falscheste, was man in einer solchen kritischen Klima-Situation überhaupt veranlassen kann:

– Kein CO2-emittieren (und damit den Start der mit Sicherheit kommenden Eiszeit beschleunigen)

– Auf EEG-Energie umbauen (um mit Sicherheit in dieser Eiszeit zu erfrieren)

Fazit daraus: Deutschland scheint beim „Retten“ der Welt vor irgend etwas einfach immer nur glücklos zu sein.

Der Autor könnte sich jedenfalls vorstellen, dass die ganz zukünftigen Generationen lieber in den roten als den grün- / blauen Temperaturkurven von Bild 5 leben würden. Denn darauf, dass die grüne Kurve (Verlauf ohne weitere CO2-Emission) wirklich so lange wie gezeichnet stabil bleibt und nicht wie in den letzten Millionen Jahren immer konsequent doch schnell wieder steil abfällt, sollte die Menscheit nicht vertrauen.

Gerade die Kirche welche doch in ganz anderen Zeiträumen denkt sollte sich das durch den Kopf gehen lassen.

Bild 5 [22] Verlauf der letzten Eiszeiten und Zukunftsprojektionen. Beachten: Time -100 = -100.000 Jahre, 0 = Jahr 1950

Bildtext: Abbildung 4. Auswirkungen von CO2 aus fossilen Brennstoffen auf die zukünftige Entwicklung der mittleren, globalen Temperatur. In grün der Verlauf ohne CO2 Emissionen, blau stellt den Verlauf bei Ausstoss von 300 Giga-Tonnen Kohlenstoff, orange 1000 Giga-Tonnen und rot 5000 Giga-Tonnen dar (Archer 2005) (mit Ergänzungen durch den Autor)

Nach dieser Abschweifung zur Zukunft zurück zum Thema.

Meerespegelverlauf in geschichtlicher Zeit

Dieser Zeitraum ist wichtig, weil er zur Kalibrierung und Belegung der Zukunftssimulationen dient. Wenn man – wie das PIK – „sicher ist“, dass die nächste Eiszeit in 60.000 Jahren* ausfallen wird „Fällt die nächste Eiszeit aus?“ und genaue Projektionen des weiteren Verlaufs vorlegt, muss man die entsprechenden Zukunftssimulationen anhand der Daten der Vergangenheit sehr genau kalibrieren und auch verifizieren.

*Die Eiszeit ist in dieser Zeit bereits in vollem Gange. Begonnen hat sie nach der Zyklik schon. Anm.: Wie beim Klima üblich, haben die Experten dazu jedoch vollkommen gegensätzliche Ansichten.

Was sagt der IPCC im AR5 (letzter IPCC Sachstandsbericht von 2013)

Im AR5 Hauptbericht findet sich eine Grafik (Bild 6) und dazu der folgende Erklärungstext:

IPCC AR5 [2] 13.2.1.4 The Late Holocene: Based on local sea level records spanning the last 2000 years, there is medium confience that flctuations in GMSL during this interval have not exceeded ~ ±0.25 m on time scales of a few hundred years (Section 5.6.3, Figure 13.3a).

Diese Angabe strotz nicht gerade vor Präzision und Sicherheit. Im Bild selbst ist eine Spannweite der Proxis über die letzten 3.000 und 2.000 Jahre von ca. 100 cm ausgewiesen.

Bild 6 [2] IPCC Proxibild der vergangenen 3000 Jahre (gestrichelte Linien durch den Autor ergänzt). 0 = Jahr 1950

Bildtext: Figure 13.3 (a) Paleo sea level data for the last 3000 years from Northern and Southern Hemisphere sites. The effects of glacial isostatic adjustment (GIA) have been removed from these records. Light green = Iceland (Gehrels et al., 2006), purple = Nova Scotia (Gehrels et al., 2005), bright blue = Connecticut (Donnelly et al., 2004), blue = Nova Scotia (Gehrels et al., 2005), red = United Kingdom (Gehrels et al., 2011), green = North Carolina (Kemp et al., 2011), brown = New Zealand (Gehrels et al., 2008), grey = mid-Pacific Ocean (Woodroffe et al., 2012).

Aufgrund der mangelnden Auskunftsfreudigkeit des IPCC-AR5 muss man sich die passenden Studien direkt ansehen.

Was sagen Studien über den Pegelverlauf

Übersicht

Es gibt eine von mehreren Instituten verfasste Studie [15] in welcher Pegelverläufe rund um die Welt gesammelt hinterlegt sind. Daraus zuerst die Proxybilder.

Bild 7 [15] Sammlung Pegelproxys

Bildtext (Auszug): Fig. 3 Selected relative sea-level (RSL) reconstructions from Southern
Disko Bugt, Greenland [54, 56], Northwest Georgia Strait, Canada [49], Southern Maine, USA [71], New Jersey, USA [43], Louisiana, USA [74], California, USA [49], St. Croix [99], Suriname and Guyana [100 ], Rio Grande do Norte State, Brazil [102], and South Shetland Islands, Antarctica [112, 114]. All y-axes are RSL (meters to present)

Bild 8 [15] Sammlung Pegelproxis Weiterführung

Bildtext (Auszug): Fig. 4 Selected relative sea-level reconstructions from Arisaig, Scotland [121], Baltic Coast of Sweden [122], Rotterdam, Netherlands [123], Southern France [138], Tunisia [138], Nile, Egypt [141], Langebaan Lagoon, South Africa [42], West Guongdong, China [166], Singapore [160], and North Queensland, Australia [181], and New South Wales,
Australia [182] shown as in Fig. 3

Der Autor hat sich die Mühe gemacht, die Daten der Bilder 7 und 8 in einer Tabelle zu listen und auszuwerten. Die Pegeldifferenz zum Jahr 8000 wurde vom Autor aus den Proxibildern abgeleitet, die Pegel-Änderungswerte (mm / pa) sind der Tabelle 1 der Studie [15] entnommen (dort: m / ka), die absoluten Pegeländerungen der letzen 2000 Jahre sind vom Autor aus den Werten der 2 ka Spalte (aus Tabelle 1 der Studie) zugefügt. Die Daten in der Studie vom Mittelmeer wurden nicht übernommen, da diese für die Weltmeere nicht repräsentativ sind.

Bild 9 [15] Meerespegel Verlaufsrekonstruktionen aus den Bildern 5 und 6 tabelliert (ohne Pegel Mittelmeer)

Auswertung

Diese Studie ermittelte für den Zeitraum der letzten 2.000 Jahre eine Pegel-Änderungsspannweite von absolut 4,6 m (AR5: 1 m). Anm.: Mit dem Pegelwert Antarktis (Bild J der Studie, nicht in Bild 9 übernommen) beträgt die Spannweite sogar 13,6 m.

Im Histogramm kann man die Verteilung der Pegel-Änderungswerte der letzten zwei Jahrtausende sehen. Nun sind die Pegelproxis nicht statistisch über die Welt verteilt und erfüllen somit die Anforderungen einer Stichprobe nicht. Trotzdem lässt sich gut die große Streuung erkennen und eben auch, dass solche Proxysammlungen keinen repräsentativen Globalpegel abbilden.

Bild 10 [15] Meerespegel Änderungsgeschwindigkeiten in mm / pa vom Jahr 0 bis 2000 (ohne Pegel Mittelmeer und ohne dem Pegelwert Antarktis von -5,2 mm / pa) aus Bild 7

Wären alle Pegelverläufe seit dem Jahr 0 bis heute linear, ergäbe sich rund um die Welt für die letzten 2000 Jahre daraus das folgende Bild der auf das Jahr 2000 normierten Pegeländerungen (in m).

Bild 11 [15] Meerespegel Verlaufsrekonstruktionen vom Jahr 0 bis zum Jahr 2000 aus den Werten von Bild 9, normiert auf das Jahr 2000 (ohne Pegel Mittelmeer)

Fazit

Diese Studie weist zu den Angaben des IPCC AR5 mit ca. 100 cm Pegelspanne eine erhebliche Diskrepanz bezüglich der Größe von Pegeländerungen der letzten 2000 Jahre auf.

Zudem ist es bei Weitem nicht so, dass sich rund um die Erde die Pegel gleichmäßig und in eine Richtung verändern würden. Das Ableiten globaler Trends gestaltet sich damit schwierig.

Antarktis

Wie man schon anhand der vorherigen Studie sehen konnte, macht die Südhalbkugel beim Ermitteln (weit) größere Probleme.

Im folgenden Bild dazu die Streuungen einer solchen Proxiermittlung, welche im Mittelwert dann „ganz gerade“ erscheinen.

Bild 12 [23] Pegelproxi im Raum der Antarktis

Bildtext: Figure 5. Observed sea level variations and predictions based on the ice models of ANT4 and ICE-3G. The red solid circles represent the past mean sea level determined by organic materials such as fossil shells. The green solid and open circles indicate the upper and lower bounds of the sea level evidence dated by, for example, penguin and elephant seal bone.In these calculations, we employ a viscosity model assuming that the upper and lower mantle viscosities are 5 1020 and 1022 Pa s, respectively. The lithospheric thickness (effective elastic thickness): The models used here are 100 km and 50 km.

Fazit:

Es besteht eine sehr große Diskrepanz zwischen den niedrigen Änderungswerten des Bildes im AR5 und ermittelten Werten anderer Autoren.

Sichtung anhand detaillierterer Pegelproxis

Nachdem die Studie [15] erheblich größere absolute Pegeldifferenzen als der AR5 ausweist, geht es im folgenden darum, was von der Angabe im AR5 zu halten ist, dass während der letzten 2000 Jahre mit mittlerer Sicherheit innerhalb von einigen hundert Jahren die Pegeländerungen +-0,25 m nicht überstiegen.

Verlauf eines Proxis der Malediven, indischer Ozean.

Bild 13 [3] Fig. 1. Sea level curve for the last 5000 years for the Maldives.

Verlauf eines Proxis der Nordsee.

Bild 14 [10] Meeresspiegelentwicklung an der südlichen Nordsee in den letzten 7500 Jahren. Aus Behre (2004)

Verlauf eines Proxis der Marshall-Inseln im westlichen Pazifik.

Bild 15 [14] Meeresspiegelentwicklung auf den Marschallinseln während der vergangenen 6000 Jahre. Quelle: Kench et al. 2014

Weitere Proxis aus dem pazifischen Raum

Bild 16 [19] Verschiedene Pegelproxis Süd-Pazifik. Age 0 ist das Jahr 2.000

Verlauf Island.

Bild 17 [7] Pegelproxy Island

Verlauf Brasilien

Bild 18 [20] Brasilien

In der folgenden Tabelle sind die Daten aus den vorherigen, detaillierteren Proxigrafiken zusammengefasst.

Bild 19 Zusammenfassung von Beispiel- Pegel-Änderungen in historischer Zeit (ohne die Daten aus Bild 9). Bezug Jahr 2.000 nach Chr.

Fazit

In diesen Proxis sind die Spannweiten der Pegel der letzten 2.000 Jahre deutlich niedriger als in der Studie [14], mit bis zu 3m aber immer noch wesentlich höher als im IPCC AR5 mit 1 m.

Und in diesen detaillierteren Proxis zeigt sich, dass sehr wohl davon ausgegangen werden muss, dass kurzfristige Pegeländerungen von (weit) mehr als +-25 cm während der letzten 2000 Jahre innerhalb vergleichseise kurzer Zeiträume geschehen sind.

Weiter sieht man dass die absoluten Angaben erheblich differieren und die Trendaussagen gegensätzlich sind. Kurzfristige Pegeländerungen nehmen zu, sind in den verschiedenen Studie aber unterschiedlich ausgeprägt enthalten.

Exemplarische Vergleiche verschiedener Proxiquellen mit dem AR5

Um einen direkten Vergleich durchzuführen, wurden die verfolgbaren Proxis aus dem AR5, Figure 13.3 (Bild 20) vom Autor nachgezeichnet und auf das Jahr 2.000 B.P. normiert (Bild 20).

Bild 20 [2] Verlauf einiger IPCC Proxis von Bild 6 (vom Autor nachgezeichnet und auf das Jahr 2000 B.P. normiert)

Vergleich Raum Island

Die Rekonstruktionen der gleichen Insel (Island) unterscheiden sich fundamental (Bild 21). Nimmt man als Vergleich noch aus der Studie [15] das in der Nähe liegende Schottland mit -3,2 m (Bild11) erhält man zusätzlich einen gegenteiligen Verlauf. Der AR5 zeigt die geringsten Änderungen.

Bild 21 Verlauf auf das Jahr 2000 B.P. normierte Pegel Island aus Bild 21 (AR5) (hellgrün), Bild 18 [7] (schwarz), Schottland aus Bild 17 [15] (blau)

Vergleich Raum Südpazifik

Auch der Vergleich von Proxis im südpazifischen Raum zeig erhebliche Abweichungen untereinander, wobei wieder der Verlauf aus dem AR5 der mit den geringsten Änderungen ist. In den Verläufen mit eingetragenen Proxiwerten erkennt man deutlich die in den Mittelwertkurven verschwundenen Variabilitäten. Bezogen auf die Normierung um das Jahr 0 ergeben sich in diesem Raum immerhin über 100 cm Proxiabweichungen.

Bild 22 Pegelrekonstruktionen Bereich Süd-Pazifik, vom Autor auf das Jahr 2000 B.P. (so weit möglich) normiert

Vergleich Raum Malediven

Für die Malediven wurden eine grob und eine hoch auflösende Proxy übereinander gelegt und dazu noch eine hoch auflösende aus Süd-Australien (welche natürlich nicht den Pegel Malediven abbildet). Das Bild soll zeigen, wie stark die Pegeländerungen von der Auflösung abhängen.

Hier beträgt die Pegelspannweite der letzten 2.000 Jahre ca. 3 m mit deutlichen, schnellen Änderungen.

Bild 23 Proxi Malediven aus Bild 13 grau, Proxy Malediven aus Studie [16] rot gestrichelt, Proxi Port Piri Südaustralien aus Studie [16] hellbraun. Anm.: Der rote und hellbraune Proxyverlauf wurden vom Autor anhand der Werte aus der Datentabelle gezeichnet.

Fazit

Die direkten Vergleiche durch Übereinander-Legen von Proxis aus ähnlichen Gegenden zeigt ergänzend zum vorherigen Kapitel die Unsicherheiten bei der Ermittlung bzw. Festlegung und bestätigt die Zweifel an der Aussage im AR5, dass höhere kurzfristige Pegeländerungen während der letzten 2000 Jahre noch nie vorkamen:

AR5: there is medium confience that flctuations in GMSL during this interval have not exceeded ~ ±0.25 m on time scales of a few hundred years

Vergleich im AR5

Es lässt sich einwenden dass man zu Allem eine andere Aussage finden kann, jedoch die in IPCC-Paper übernommenen so gut geprüft sind, dass daran nicht zu rütteln wäre.

Sehen wir uns deshalb dazu eine Proxy aus dem IPCC AR5 im Detail an:

— Im Bild 6, AR5 Figure 13.3 ist die Proxy: green = North Carolina (Kemp et al., 2011) enthalten.

Diese Proxi sieht in der Originalstudie wie folgt aus (Bild 24):

Bild 24 [26] Pegelverlauf NorthCarolinea im Original-Paper Kemp at al. 2011, hinterlegt im AR5 Figure 13.3 (vom Autor ergänzt)

Bildtext Fig. 2. (A) Composite EIV global land plus ocean global temperature reconstruction (1), smoothed with a 30-year LOESS low-pass filter (blue). Data since AD 1850 (red) are HADCrutv3 instrumental temperatures. Values are relative to a preindustrial average for AD 1400–1800 (B) RSL reconstructions at Sand Point and Tump Point since BC 100. Boxes represent sample-specific age and sea-level uncertainties (2σ). Inset is a comparison with nearby tide-gauge data. (C) GIA-adjusted sea level at Sand Point and Tump Point expressed relative to a preindustrial average for AD 1400–1800. Sea-level data points are represented by parallelograms because of distortion caused by GIA, which has a larger effect on the older edge of a data point than on the younger edge. Times of changes in the rate of sea-level rise (95% confidence change-point intervals) are shown. Pink envelope is a nine degree polynomial to visually summarize the North Carolina sea-level reconstruction.

Was lässt sich anhand der Originalstudie [26] ermitteln

Neben dem Umstand, dass der Pegel im Originalbild der Studie (Bild 24) vom Jahr 1000 bis ca. 1500, also immerhin über 500 Jahre gegensätzlich zur während dieser Zeit deutlich fallenden Temperatur ansteigt, findet sich genau zu dieser Studie auch ein massiver, substantieller Einwand.

Ein Forscherteam um Aslak Grinsted [27] analysierte die Studie und ist der Überzeugung, dass die Pegelableitungen aufgrund methodisch fragwürdiger Höhenkorrekturen falsch ist und die (niedrigen) Angaben zu den Toleranzen der rekonstruierten Pegelkurve in Wirklichkeit wesentlich höher angenommen müssen.

Ihre Aussage ist deutlich:

[27] Wir wissen auch nicht wie der Verlauf genau ist (das gelingt mit den unsicheren Proxidaten nicht), aber wir wissen dass die Ableitungen und Toleranzangaben von Kemp et al. nicht stimmen. Im Gegensatz zu Kemp et al. geben wird das aber offen zu.

Eine Rekonstruktion könnte damit in etwa aussehen wie im folgenden Bild 25 (Fig. 1 aus der Studie [27]) gezeigt.

Bild 25 [27] Neu rekonstruierter Pegelverlauf der Proxi [26] (mit Zufügungen durch den Autor)

Bildtext: Fig. 1. Comparison of the North Carolina sea level reconstruction corrected for two different GIA adjustments (red lines) and global sea level hind-casts from semiempirical models (thin solid lines). The choice of GIA has a large impact on the adjusted North Carolina sea level. Semiempirical hind-casts of global sea level deviate slowly from the adjusted NCRSL curve, but confidence intervals overlap for more than a millennium. Illustrative 5% to 95% confidence intervals are shown by the shaded regions colored for the appropriate curves. A 50-y smoothing has been applied to NCRSL.

Fazit

Auch in den AR5 übernommene Daten spiegeln die in den vorherigen Kapiteln aufgezeigte Problematik direkt wieder. Es ist nicht erkennbarr, dass die Datenlage darin verlässlich besser wäre. Jedoch wird dies im AR5 nicht erwähnt, sondern Aussagen mit Vertrauensbereichen abgeleitet, welche bezeifelt werden dürfen.

Fazit zum Pegelverlauf der letzten zwei Jahrtausende

Es ergibt sich das gleiche Bild wie schon bei der Recherche der Temperaturproxis [11] “Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende”: Eine verlässliche Datenbasis liegt nicht vor. Von einer hohen Sicherheit über die wirklichen Pegelverläufe (mit der erforderlichen Genauigkeit) kann keine Rede sein.

Und es fällt wieder auf, dass es in historischer Zeit mit ziemlicher Sicherheit erheblich größere und auch schnellere Schwankungen gegeben hat, als es die Verläufe im AR5 zeigen. Der Verdacht einer unzulässigen Glättung, vergleichbar der Hockeystick-Darstellung zur Temperatur drängt sich geradezu auf [11].

Die einzige mögliche Folgerung daraus ist:

Mit einer so widersprüchlichen bzw. ungenauen Datenbasis ist keine Zukunfts-Pegelsimulation auch nur im Ansatz glaubhaft kalibrierbar oder verifizierbar! Auch eine Aussage, ob die aktuelle Schwankung nicht doch natürlich sein kann ist nicht möglich. Was aktuell von der Klima-“Wissenschaft” an Zukunft simuliert wird, ist eher ein Würfelspiel welches nur auf immer teureren Rechnern durchgeführt wird.

Und damit ist es auch kein Wunder, dass “Jeder” beim Simulieren etwas Anderes ausgespuckt bekommt.

Bild 26 [23] Pegel-Zukunfts-Vermutungen zweier deutscher PIK Klimawissenschaftler und vom Rest der Welt

Es ist auch nicht möglich, durch Mitteln oder statistischen „Kunstgriffen“ daraus „den richtigen Verlauf“ zu erzeugen. Das Einsetzen leistungsfähigerer Computer kann an den Mängeln der Datenbasis nichts ändern, das falsche Ergebnis wird lediglich schneller ausgespuckt.

Was sagen Infoportale dazu

Wie „immer“ der Blick zu Klimaretter.Info, dem von Professoren(-innen) und Doktores betriebenem Portal für sicher AGW-klimatreue Information und Betreiber eines „Klima-Lügendetektors“. Auch dort wurde schon über die Pegelverläufe seit der letzten Eiszeit informiert. Zuletzt durch Publizierung einer Studie [16].

Klimaretter.Info, 15. Oktober 2014:

Meeresspiegel-Rekord in 6000 Jahren

6.000 Jahre lang hatte sich der Meeresspiegel kaum verändert, seit dem 20. Jahrhundert stieg er aber bis zu 20 Zentimeter an und hat damit ein historisches Hoch erreicht.

Die Forscher haben die Veränderungen des Meeresspiegels während und nach der letzten Eiszeit untersucht. Mithilfe von rund 1.000 Sedimentproben aus Australien und Asien konnten die Forscher die Entwicklung des Meeresspiegels der vergangenen 35.000 Jahre nachvollziehen und damit einen Zeitraum, der die vergangene Eiszeit miteinbezieht. Demnach ist der Meeresspiegel seit dem Schmelzen der Eisberge nach der Eiszeit konstant geblieben und erst innerhalb der vergangenen 100 bis 150 Jahre angestiegen – ein historischer Sonderfall.

Kimaretter.info hat diese Angaben bestimmt sorgfältig geprüft, wie es eben nur Professoren(-innen) können die im Rampenlicht des Klimawandels stehen und parallel noch das Wissen haben, Klimalügen sicher aufdecken und anprangern zu können.

Sehen wir zum Abschluss deshalb auch noch diese Studie [16] genauer an

Die Text-Statements der Studie [16] sind mit den darin gezeigten Bildern (Bild 27) nicht verifizierbar. So zeigt der kleine Bildausschnitt bei „A“ beim Nachsehen eine erhebliche Streuung, die bei „B“ vollkommen verschwunden ist.

Bild 27 [16] Bildauszug: Proxi mit Pegelverlauf seit Ende der letzten Eiszeit (gestrichelte rote Linien mit Kommentaren durch den Autor ergänzt)

Doch sind die verwendeten Proxis in einem Ergänzungsdokument gelistet. Im folgenden Bild 28 sind mit Normierung auf das Jahr 2.000 zwei Pegelproxis daraus und die Kurve der Malediven von Prof. Mörner übereinander gelegt:

– Malediven [16] (rot gestrichelt), Anm.: Die Spline-Funktion zwischen den roten Proxipunkten hat der Autor über Excel zugefügt und ist nicht statistisch belegt.

– Südaustralien [16] (hellbraun)

– Malediven [3] (grau), Studie Prof. A. Mörner

Man sieht deutlich:

Nimmt die Auflösung zu, zeigen sich auch in den Proxis dieser Studie[16] sowohl lang- wie auch kurzfristige, erhebliche Pegelschwankungen wie sie schon Prof Mörner (und andere Proxis) gezeigt haben.

Bild 28 Proxy Malediven aus Studie [16] rot gestrichelt, Proxi Port Piri Südaustralien aus Studie [16] hellbraun, Proxi Malediven [3] aus Bild 15 grau

Die Proxis aus der Studie [16]

In der Studie gibt es eing komplette Liste aller Proxidaten (in Summe 968 Werte).

Davon weisen z.B. die von Kiritimati (Christmas-Inseln) von 5.255 bis 0.090 trotz relativ hoher Auflösung nur eine Pegelspanne von -30 … +20 cm aus, absolut als 50 cm. Bild 15 listet für diesen pazifischen Raum dagegen eine Spanne von 1,2 m.

In der Regel stellen sich die Proxis in der Studie jedoch wie im Beispiel des folgenden Tabellenausschnitts dar (Bild 29). Die vier Zeitwerte dieses Proxis HAINAN liegen bei 912, 1119, 5059, 6835 Jahren, sind also weder fein auflösend noch gut verteilt. Doch innerhalb von 207 Jahren hat sich der Pegel plotzlich um 1,2 m!! verändert. Man beachte auch die Standardabweichung von
1 m. Zwei mal Standardabweichung (bedeutet ein Vertrauen von ca. 95 % wie es das IPCC gerne ausweist) bedeuten bei diesem Proxy eine Pegeldifferenz von +-2 m als Unsicherheit.

Bild 29 [16] Auszug der Proxitabelle S1 (data supplement) RSL: relative sea level, Sig.RSL stands for Sigma RSL, the estimated error of the observed relative Sea Level

Aufgrund dieser Datensichtung traut sich der Autor deshalb an einer (von Klimaretter.Info kritiklos übernommenen) Kernaussage der Studie erhebliche Zweifel anzumelden:

In der Studie steht:

[16] “after which ocean volumes remained nearly constant until the renewed sea-level rise at 100–150 y ago, with no evidence of oscillations exceeding 15–20 cm in time intervals ≥200 y from 6 to 0.15 ka BP

Das hat Klimaretter.Info natürlich wörtlich übernommen:

6.000 Jahre lang hatte sich der Meeresspiegel kaum verändert, seit dem 20. Jahrhundert stieg er aber bis zu 20 Zentimeter an und hat damit ein historisches Hoch erreicht.

Demnach ist der Meeresspiegel seit dem Schmelzen der Eisberge nach der Eiszeit konstant geblieben und erst innerhalb der vergangenen 100 bis 150 Jahre angestiegen – ein historischer Sonderfall.

Beim Betrachten der hinterlegten Daten sieht man jedoch, dass Proxis aus dieser Studie eher das Gegenteil aussagen. Man hat den Eindruck, das publizierte Ergebnis basierte mehr auf einem vorgegebenen Wunsch als auf den Fakten, Klimaretter.Info eingeschlossen.

Beispiel zur Problematik bei der rückwirkenden Ermittlung der wirklichen absoluten Pegel während des Holozän

In der Studie [4] steht, welche Unterschiede bereits im kleinräumigen Bereich der USA-Westküste bezüglich der Landhebungen während des Holozän bestehen. Der eine Pegel war früher bis zu 200 m höher während der andere in Noramerika 150 m tiefer lag.

[4] Sea-level history since the Last Glacial Maximum on the Pacific margin of North America is complex and heterogeneous owing to regional differences in crustal deformation (neotectonics), changes in global ocean volumes (eustasy) and the depression and rebound of the Earth’s crust in response to ice sheets on
land (isostasy). At the Last Glacial Maximum, the Cordilleran Ice Sheet depressed the crust over which it formed and created a raised forebulge along peripheral areas offshore. This, combined with different tectonic settings along the coast, resulted in divergent relative sea-level responses during the Holocene.
For example, sea level was
up to 200 m higher than present in the lower Fraser Valley region of southwest British Columbia, due largely to isostatic depression. At the same time, sea level was 150 m lower than present in Haida Gwaii, on the northern coast of British Columbia, due to the combined effects of the forebulge raising the land and lower eustatic sea level.

Fazit

Die Aussagen des IPCC im AR5 zum Pegelverlauf im Holozän sind eher nicht richtig als richtig.

Es gibt oft zum gleichen Meeresgebiet vollkommen gegensätzliche Proxis. Heraus zu finden, welche die “Wahren” oder “Wahreren” sind, ist fast unmöglich (es zu versuchen, bzw auch Fehler in Studien zu zu korrigieren ist Inhalt vieler Nachfolge-Studien).

In verschiedenen Proxis finden sich im Gegensatz zur Angabe im AR5 sehr wohl auch höhere, kurzfristige Pegelschwankungen. Es ist daher eher unwahrscheinlich, dass die Aktuelle ausschließlich vom Menschen verursacht sein muss.

In den “offiziellen” Publikationen werden Proxis (und Studien) welche niedrige Schwankungen ausweisen anscheinend massiv bevorzugt. Das “muss” so sein, denn sonst ließe sich überhaupt nicht (mehr) argumentieren, dass damit Zukunftsprojektionen kalibriert werden könnten.

Es wird immer wahrscheinlicher, dass sich die AGW Klimawandel-orientierte „Wissenschaft“ verrannt hat und daraus nicht mehr herausfindet, weil das Ziel Beleg der politischen Vorgaben und weniger der Wahrheit ist. Es werden inzwischen zu Hunderten Studien produziert, die nicht Neues generieren, sondern versuchen durch „Zurechtbiegen“ ungeeigneter Daten das „Erforderliche“ zu belegen. Dass in den Studien selbst (wie auch im AR5) inzwischen immer mehr Referenzstudien gelistet werden (oft 100 St und mehr) ist kein Beweis besserer Qualität, sondern vom gegenseitigen Abschreiben der Mängel.

Dazu ist es auch so, dass die Wissenschaftler reihum neue Autorenteams zusammensetzen. Dadurch können die immer gleichen Wissenschaftler das ähnliche Ergebnis in weiteren Studien (mit-)helfen zu bestätigen, ohne dass es sehr auffällt. Denn in den Quellenhinweisen wird meistens nur der Leitautor angegeben.

Was wird vermittelt

Kaltesonne brachte es gerade auf den Punkt: “James Hansen drückt Klimaalarmpaper mit Gewalt durch. Gutachter: Hansens apokalyptische Vision ist so wahrscheinlich wie Millionen-Lotteriegewinn“ und bereits früher [8].

Doch das Portal Klimaretter.Info meldete es sofort als Bestätigung: 23. März 2016 „Bestätigt: Meeresspiegel steigt schneller

und konnten diese Studie gar nicht genug loben.

Klimaretter.Info: Der US-Klimaforscher James Hansen und 18 Kollegen hatten schon im vergangenen Juli eine Untersuchung im Fachmagazin Atmospheric Chemistry and Physics veröffentlicht, die einen Meeresspiegelanstieg von mehreren Metern noch für dieses Jahrhundert prognostiziert – wenn die globalen Treibhausgasemissionen nicht drastisch zurückgefahren werden.

Dass diese Apokalypse des inzwischen zum Klimaaktivisten mutierten Herrn Hansen,

Klimaretter.Info: Seither hat er (Anm.: James Hansen) sich in der Klimabewegung engagiert und ist etwa Botschafter der Organisation 350.org. 2008 forderte Hansen, Manager von Öl- und Bergbaufirmen wegen "Hochverrats gegen Mensch und Natur" anzuklagen. Mehrfach wurde er bei Protestaktionen verhaftet.

wieder ausschließlich auf Simulations-Spielereien beruht und die angeneommenen Parameter – der Golfstrom schwächt sich ab und Grönland und Antarktis schmelzen noch wesentlich schneller als es sogar der IPCC annimmt – vollkommen unwahrscheinlich sind, wird nicht erwähnt.

Abschluss und Zusammenfassung

Mit dieser Publizerung ist die vom Autor über mehrere EIKE-Artikel verteilte Sichtung von Klimadaten und lang- bis kurzfristigen Pegeldaten abgeschlossen.

Alleine anhand der Sichtungen wurde gezeigt, auf welch fragwürdiger und teils gegensätzlicher Datenbasis wesentliche Aussagen der AGW-Theorie basieren und dass dies in der AGW-Wissenschaft (bisher) eher unterdrückt als kritisch beachtet wird.

Jeder Leser möge sich selbst ein Bild dazu machen. Der Autor kommt jedoch zu den folgenden Aussagen:

Der Meerespegel ist seit Beginn der Industrialisierung (seit ca. 1850) um ganze 25 cm gestiegen. Bei Betrachtung historischer Verläufe ist das keinesfalls „unnatürlich“. Womit die Begründung, dies könne ausschließlich vom Menschen verursacht sein stark bezweifelt werden darf.

Weder im langfristigen, noch kurzfristigen historischen Verlauf lässt eine über längere Zeit bestehende Korrelation zwischen CO2 und Pegelverlauf erkennen. Damit sind alle Klimamodelle sehr fragwürdig.

Die Pegelrekonstruktionen und Varianten an Verläufen differieren so extrem, dass es nicht möglich ist mit solchen Daten Klimasimulationen zu kalibrieren oder zu verifizieren.

Wie stark der der Pegel bis 2100 wirklich steigen oder fallen wird, steht eher in den Sternen, als in Simulationsprogrammen. Der Autor weist nur darauf hin dass für Szenarien, welche einen exzessiven Anstieg vorhersagen keinerlei Begründungen – sondern nur Annahmen – vorliegen, während nach der Zyklik eher sogar eine Abschwächung möglich ist.

Quellen

[1]

PIK Pressemeldung vom 10.03.2016: Meeresspiegelanstieg: Zu groß zum Wegpumpen

https://www.pik-potsdam.de/aktuelles/pressemitteilungen/meeresspiegelanstieg-zu-gross-zum-wegpumpen

[2]

IPCC WG1 AR5 All Final 2013: Climate Change 2013 The Physical Science Basis

[3]

Nils-Axel Mörner: SETTING THE FRAMES OF EXPECTED FUTURE SEA LEVEL CHANGES BY EXPLORING PAST GEOLOGICAL SEA LEVEL RECORDS

[4]

Dan H. Shugar at al. 13. Juni 2014: Post-glacial sea-level change along the Pacifi c coast of North America

[6]

EIKE 14.12.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang

http://www.eike-klima-energie.eu/news-cache/gehen-die-suedseeinseln-wirklich-wegen-des-klimawandels-unter-teil-3-die-marshall-inselgruppe-kein-beispiel-fuer-einen-untergang/

Teil 1 und 2 sind im Teil 3 verlinkt

[7]

RUTGERS TODAY February 22, 2016: Sea-level Rise in 20th Century Was Fastest in 3,000 Years, Rutgers-led Study Finds

Studie: Temperature-driven global sea-level variability in the Common Era

[8]

kaltesonne 30. Mai 2013: Europäisches Forschungskonsortium verwirft extreme Meeresspiegelprognosen

http://www.kaltesonne.de/?p=10644

Studie: From Ice to High Seas: Sea-level rise and European coastlines, The ice2sea Consortium, Cambridge, United Kingdom, (2013).

[9]

James Hansen et al, 22 March 2016: Ice melt, sea level rise and superstorms: evidence from paleoclimate data, climate modeling, and modern observations that 2 C global warming could be dangerous

James Hansen1,

[10]

kaltesonne, 14. März 2012: Der Meeresspiegel steigt! Seit 15.000 Jahren

Studie: Niedersächsisches Institut für historische Küstenforschung, Wilhelmshaven, 2004, Prof. Karl-Ernst Behre: Die Schwankungen des mittleren Tidehochwassers an der deutschen Nordseeküste in den letzten 3000 Jahren nach archäologischen Daten

[11]

EIKE 26.03.2016: Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende. Eine Literatursichtung von 1990 bis ganz aktuell

http://www.eike-klima-energie.eu/news-cache/rekonstruierte-temperaturverlaeufe-der-vergangenen-zwei-jahrtausende-eine-literatursichtung-von-1990-bis-ganz-aktuell/

[15]

Curr Clim Change Rep (12 November 2015) 1:247–262, Nicole S. Khan et al.: Holocene Relative Sea-Level Changes from Near-, Intermediate-,and Far-Field Locations

[16]

Kurt Lambeck et al., September 12, 2014: Sea level and global ice volumes from the Last Glacial Maximum to the Holocene

Ergänzungsdokument: Supporting Information

[17]

PIC 2007, Wilfried Endlicher, Friedlich-Wilhelm Gerstengrabe: Der Klimawandel

[18]

GeoForschungsZentrum Potsdam 2005, Dissertation: Glaziale Isostasie und rezente Meeresspiegeländerung

[19]

15.07.2014, Rashid, R. at al.: Constraining mid to late Holocene relative sea level change in the southern equatorial Pacific Ocean relative to the Society Islands, French Polynesia, Geochem. Geophys.

[20]

Instituto de Geociências, Universidade de São Paulo, Kenitiro Suguio at al., 16 September 2013: Indicators of Holocene sea level changes along the coast of the states of Pernambuco and Paraíba, Brazil

[21]

GeoForschungsZentrum Potsdam,Scientific, Technical Report STR 07/05, Ingo Sasgen et al.: Glacial-isostatic adju stment and sea-level change near Berkner Island, A ntarctica

[22]

ScepticalScience: Sind wir auf dem Weg zu einer neuen kleinen Eiszeit?

[23]

PIC 2007, Wilfried Endlicher, Friedlich-Wilhelm Gerstengrabe: Der Klimawandel

[25]

Universität Bremen Geowissenschaften, Diss.: Modeling oxygen isotopes in ice sheets linked to Quarternary ice-volumen variations

[26]

Kemp et al., 2011: Climate related sea-level variations over the past two millennia

http://www.pnas.org/content/108/27/11017.full

[27]

Aslak Grinsted at al.: Comment on the subsidence adjustment applied to the Kemp et al. proxy of North Carolina relative sea level




CO2 in der Atmosphäre durch Verbrennung verdoppeln? Kann man total vergessen!

Hier der Link zu dem im Aufmacher angesprochenen Thread auf WUWT.

Eine verlinkte Grafik aus dem IPCC AR5 Bericht der Arbeitsgruppe 1, Kapitel 6

ORIGINAL UNTERTITEL: Abbildung 6.1 | Vereinfachtes Schema des globalen Kohlenstoffkreislauf. Die Zahlen stellen das Reservoir [d.h. die gespeicherte] Masse dar, auch "Kohlenstoffspeicher" genannt in Peta Gramm C (1 PgC = 10 ^ 15 * C) und die jährlichen Kohlenstoff Austauschflüsse (in PgC yr-1). Schwarze Zahlen und Pfeile zeigen Reservoir Masse und Austauschflüsse für die Zeit vor dem Industriezeitalter geschätzt, etwa 1750 (siehe Abschnitt 6.1.1.1 für Referenzen). Vorräte an fossilen Brennstoffen sind von GEA (2006) und stehen im Einklang mit den Zahlen der IPCC WGIII für zukünftige Szenarien. Die Sediment Lagerung ist eine Summe von 150 PgC des organischen Kohlenstoff in der Mischschicht (Emerson and Hedges, 1988) und 1600 PGC der Tiefsee CaCO3 Sedimente verfügbar um das CO2 der fossilen Brennstoffe zu neutralisieren (Archer et al., 1998).

Rote Pfeile und Zahlen zeigen jährliche "anthropogene" Flüsse über den Zeitraum 2000-2009 gemittelt. Diese Flüsse sind eine Störung des Kohlenstoffkreislaufs während des Industriezeitalters nach 1750. Diese Flüsse (rote Pfeile) sind: Fossile Brennstoffe und Zement CO2-Emissionen (Abschnitt 6.3.1), Nettoänderungen der Landnutzung (Abschnitt 6.3.2) und der durchschnittliche atmosphärische Anstieg von CO2 in der Atmosphäre, auch CO2-Wachstumsrate genannt (Abschnitt 6.3). Die Aufnahme von anthropogenen CO2 durch den Ozean und durch terrestrische Ökosysteme, oft als "Kohlenstoffsenken" benannt, sind die roten Pfeile als Teil des Nettoflusses von Land und Ozean. Rote Zahlen in den Reservoirs bezeichnen kumulative Veränderungen des anthropogenen Kohlenstoffs über dem Industriezeitraum 1750-2011 (Spalte 2 in Tabelle 6.1). Vereinbarungsgemäß bedeutet eine positive kumulative Änderung, dass ein Reservoir Kohlenstoff seit 1750 zugenommen hat…

Es gibt es viele interessante Dinge in dieser Grafik, aber was mich besonders interessiert, waren ihre Schätzungen der Gesamt Reserven an fossilen Brennstoffen. Einschließlich Gas, Öl und Kohle, schätzen sie insgesamt für fossile Brennstoffe eine Reserve von 650 bis 1580 Gigatonnen Kohlenstoff (GtC). Ich beschloss, diese Zahlen sowohl für das Bern Modell als auch für das einfache exponentielle Zerfall-Modell zu verwenden.

Das Bern-Modell und das einfache exponentielle Modell sind beide exponentielle Zerfall-Modelle. Der Unterschied besteht darin, dass das einfache exponentielle Zerfall Modell einen Wert für die Halbwertszeit der CO2-Emissionen verwendet. Auf der anderen Seite, das Berner Modell verwendet drei verschiedene Halbwertzeiten für drei verschiedene Fraktionen der CO2-Emissionen, plus 15% des emittierten CO2 sollen nur über Tausende von Jahren zerfallen.

Mein Interesse war herauszufinden, was würde nach den beiden CO2-Modellen geschehen, wenn wir alle fossilen Brennstoffe bis 2100 verbrennen. Für den kleineren Fall mit 640 GtC bis zum Jahr 2100, impliziert das eine Rate irgendwo um die aktuellen Emissionen, das sind ein bisschen mehr als 7,5 GtC pro Jahr für die nächsten 85 Jahre.

Die größere Schätzung mit 1580 GtC impliziert eine Rate, die sich jedes Jahr um 1,1% erhöht. Wenn das passiert, dann würden wir bis zum Ende dieses Jahrhunderts 1580 Gigatonnen Kohlenstoff verbrannt haben.

Gibt man diese Annahmen in die beiden Modelle, wie würde sich dies im Hinblick auf die atmosphärische Konzentration von CO2 auswirken? Abbildung 2 zeigt die Ergebnisse:

 

Abbildung 2. CO2-Projektionen des Bern-Modell (rot und blau) und einem einzigen exponentiellen Abfall-Modell (lila und hellgrün ). Das single-exponentielle Zerfall-Modell verwendet eine Zeitkonstante tau von 33 Jahren

Nun gibt es einige Dinge von Interesse. Erstens können Sie sehen, dass wir leider noch nicht genügend Informationen haben, um zu unterscheiden, ob das Modell Bern oder das einzige exponentielle Zerfall Modell genauer ist.

Als nächstes scheinen die beiden oberen Werte unwahrscheinlich, da sie ein anhaltendes exponentielles Wachstum über 85 Jahre annehmen. Diese Art von Langzeit-exponentiellem Wachstum ist im wirklichen Leben selten.

Schließlich, ist das hier der Grund, warum ich diesen Beitrag geschrieben habe. In diesem Jahr ist der atmosphärische CO2-Gehalt um 400 ppm. Ihn zu verdoppeln, hätte [der Anteil] auf 800 ppm gehen müssen … und selbst wenn wir ein exponentielles Wachstum für die nächsten acht Jahrzehnte halten könnten und wir jeden Tropfen der 1580 Gigatonnen-High-End-Schätzung der fossilen Reserven verbrennen würden, würde der CO2-Gehalt immer noch nicht doppelt so hoch wie heute sein.

Und in der Tat, auch ein fünfzig Prozent Anstieg der CO2-Konzentration in 2100 scheint unwahrscheinlich. Das wären 600 ppm … möglich, aber zweifelhaft nach der Grafik oben.

Kurzversion? Laut IPCC, gibt es nicht genügend fossile Brennstoffe (Öl, Gas und Kohle) um auf dem Planeten die atmosphärische CO2-Konzentration von seinem aktuellen Wert aus zu verdoppeln.

Beste Grüße an alle Leser

Willis Eschenbach

Meine Übliche Ansage: Fehlwahrnehmungen sind der Fluch der Internets. Wenn Sie mit mir oder jemand nicht einverstanden sind, schreiben Sie bitte die genauen Worte, denen Sie nicht zustimmen. Meine eigenen Worte kann ich verteidigen. Ich kann jedoch nicht jemand anderes Interpretation einiger nicht identifizierter Worte verteidigen.

Meine andere Ansage: Wenn Sie glauben, dass Ich z.B. die falsche Methode auf den falschen Datensatz verwende, demonstrieren Sie mir und anderen bitte die ordnungsgemäße Verwendung der richtigen Methode auf den richtigen Datensatz. Einfach zu behaupten, ich liege falsch, bringt die Diskussion nicht voran.

Modelle: Das Bern Modell wird hier beschrieben und die im Modell verwendete Berechnungsmethode wird hier beschrieben

Erschienen auf WUWT am 27. März 2016, update vom 28.03. eingearbeitet

Übersetzt durch Andreas Demmig

http://wattsupwiththat.com/2016/03/27/double-the-atmospheric-co2-fuggeddaboutit/

Hinweis: Bezüglich der Bezeichnung „Bern Modell“ bin ich mir nicht sicher, ob es sich um das Modell des Herrn bzw. den Eigennamen „Bern“ handelt oder um ein „Berner“ Modell. Die Fachleute unter unseren Lesern werden wissen was gemeint ist; der Übersetzer

Kommentar zum update:

Hinweis: W. Eschenbach hatte ursprünglich fälschlicherweise Werte von 900 GtC und 2000 GtC angenommen. Leser „LarryB  March 28, 2016 at 8:36 am  „ wies ihn auf die korrekten Werte hin, im Text setzt er nun 640 GtC und 1580 GtC ein. Das stützt seine Aussage, es gibt nicht genügend fossile Brennstoffe, noch mehr – warum sollen wir also fossile Brennstoffe wegen CO2 Anstieg vermeiden?

Original Kommentar s.u. 

LarryB March 28, 2016 at 8:36 am 

Two questions, (1) arithmetic: Willis says “…. they estimate a total fossil fuel reserve of nine hundred to two thousand gigatonnes of carbon…” If you add the fossil carbon reserve numbers in the IPCC figure, you get 1002-1940 GtC (=PgC). Where does Willis get his 900 GtC? (2) IPCC figure legend says black numbers are reserves in 1750 & red numbers are extractions from 1750-2011. If you subtract the extractions from the 1750 reserves, you get current reserves of 637-1575 GtC. Aren’t these the numbers to use as starting points for model calculations?

LarryB

Reply  Willis Eschenbach March 28, 2016 at 10:35 am 

Dang … good catches both. I’ll revise the head post. Actually, makes my argument stronger.

w.




Licht am Ende des Tunnels? AfD bekennt sich als erste politische Kraft zur Bekämpfung des Unsinns vom Klimaschutz

Die AfD ist seit ihren sensationellen Wahlerfolgen wieder in aller Munde. Fast immer, wenn sie in den Medien erwähnt werden muss – totschweigen hat leider nicht geholfen- wird ihr das als Schmähung gedachte Beiwort „rechtspopulistisch“ angeheftet. Außerdem wird sie – in den Augen fast aller Medien und deren Stichwortgeber aus der Politik immer und abwertend gemeint- als Einthemenpartei vorgestellt. Wobei das Einthema öfter mal wechselte, ohne, dass es den Kollegen von der veröffentlichten Meinung auffiel, oder es war ihnen egal. Nach dem Motto: „Was interessiert mich mein Geschwätz von gestern?“ wie Konrad Adenauer   einmal gesagt haben soll.

So auch hier. War das Einthema zu Beginn der Euro, ist es bis vor kurzem die „Flüchtlings-(besser Migranten)-krise. Damit ließ sich trefflich Stimmung machen, so jedenfalls die Absicht . Und das stimmte auch. Zwar nicht im Sinne der Medien, aber im Sinne der AfD. Sie wächst und wächst in der Wählergunst.

Und nun plötzlich stimmt auch das Zerrbild von der  Einthemenpartei plötzlich und für jeden sichtbar nicht mehr. Denn die AfD, die schon von Anfang an ein Mehrthemen- Programm hatte, es wurde nur medial unter den Tisch gekehrt, will sich nun ein breiteres Parteiprogramm  geben, welches Ende April auf einem speziellen Parteitag diskutiert und beschlossen werden soll. Es soll Antworten auf brennendsten Fragen dieses Landes geben, zumindest wie sich die AfD deren Beantwortung vorstellt.

Was steht im Programmentwurf?

Und dazu gehört auch die Frage wie mit dem „Klimaschutz“ und der Energiewende umzugehen sei. Dieses Programm ist nun öffentlich abrufbar, und -weil die AfD so erfolgreich war- mussten die Medien es diesmal auch zu Kenntnis nehmen und darüber berichten.

Im Programmentwurf findet man die folgenden mutigen Sätze

KLIMASCHUTZPOLITIK: IRRWEG BEENDEN, UMWELT SCHÜTZEN

„Das Klima wandelt sich, solange die Erde existiert. Die Klimaschutzpolitik beruht auf untauglichen Computer‐Modellen des IPCC („Weltklimarat“). Kohlendioxid (CO2) ist kein Schadstoff,  sondern ein unverzichtbarer Bestandteil allen Lebens.  Der IPCC versucht nachzuweisen, dass die Menschen gemachten CO2‐Emissionen zu einer globalen Erwärmung mit schwerwiegenden Folgen für die Menschheit führen. Hierzu beruft man sich auf Computermodelle, deren Aussagen durch Messungen oder Beobachtungen nicht bestätigt werden. Solange die Erde eine Atmosphäre hat, gibt es Kalt‐ und Warmzeiten. Wir leben heute in einer Warmzeit mit Temperaturen ähnlich der mittelalterlichen und der römischen Warmzeit. Die IPCC‐Computermodelle können diese Klimaänderungen nicht erklären. Im 20. Jahrhundert stieg die globale Mitteltemperatur um etwa 0,8 Grad. Seit über 18 Jahren gibt es jedoch im Widerspruch zu den IPCC‐Prognosen keinen Anstieg, obwohl in diesem Zeitraum die CO2‐Emission stärker denn je gestiegen ist. IPCC und deutsche Regierung unterschlagen die positive Wirkung des CO2 auf das Pflanzenwachstum und damit auf die Welternährung. Je mehr es davon in der Atmosphäre gibt, umso kräftiger fällt das Pflanzenwachstum aus“.

Und die Medien berichteten darüber auf breiter Front. Fast immer mit Unglauben, manchmal sogar Abscheu. Oft stellten sie dabei mit wohligem Schauer fest, dass die AfD auch auf dem Klima- und Energiegebiet eine Alternative zur Einheit der Altparteien sein will und daher -für die Medien und Politik jedenfalls-  Unerhörtes auf- bzw. nieder geschrieben hat.

Was berichten die Medien?

Ungläubig fragen sich viele Journalisten: Ja, dürfen die das?. Das Klima solle sich wandeln und evtl. sogar ohne zutun des Menschen?  Ist das erlaubt?, wo doch „Koryphäen“ wie der Chef des Potsdam Institutes für Klimafolgenforschung Prof. Dr. Schellnhuber sagen, der Mensch sei am Klimawandel schuld und das Ende wäre entsetzlich,  wenn nicht sofort Sühne und Umkehr gelobt würde. Wofür er seit über zwanzig Jahren fleißig wirbt und ebenso lange schiebt sich das Ende weiter und weiter hinaus.

Auch das ZDF –immer für einäugige Berichterstattung gut (mit dem Zweiten sieht man besser!)- glaubte sich im falschen Film. Und beschloss einen Vertreter des Bundesvorstands schwer investigativ und fast schon inquisitorisch zu diesen Ungeheuerlichkeiten zu befragen.

Videoausschnitt heute direkt vom 3.4.16  mit Thomas Walde als Interviewer und AfD Vorstand  Georg Pazderski.

Man wählte dazu die Paradesendung „Berlin direkt“ zur Primtime am Sonntag dem 3.4.16 direkt im Anschluss an die vielgesehene 19:00 Uhr heute Sendung und als Inquisitor Interviewer durfte Thomas Walde auftreten.

Zuschauer werden zunächst mal eingestimmt

Doch zuvor wurde der Zuschauer auf diese Ungeheuerlichkeiten eingestimmt. Ein Trailer berichtet aus dem Programm und zeigt dazu zunächst Kühltürme eines Kraftwerkes mit riesigen Wolken aus kondensiertem Wasserdampf (Wrasen). Sie sollten wohl, in üblicher Verdrehung der Tatsachen, riesige CO2 Wolken darstellen und die Stimme aus dem Off vermeldet dazu:… „CO2 sei gar kein Schadstoff, eine dadurch erzeugte Erwärmung gebe es nicht“

Und noch schlimmer: „Windräder zerstörten unsere Landschaften .. Atomkraftwerke sollten erst mal weiter betrieben werden.“

Schellnhuber sagt mal wieder das Weltende voraus

Dann durfte „Koryphäe“ (so nannte ihn voller Ehrfurcht Thomas Walde später im Clip) Prof. Schellnhuber –sozusagen als unumstößlich letzte Instanz – seine Sicht der Dinge darlegen und befand, das ..“die AfD nicht daran glaube das CO2 das wichtigste Treibhausgas sei und eine entscheidende Rolle im Klimageschehen spiele, aber .. da liegen die komplett falsch“. Und weiter: „..das ist zwar Spinnerei, aber nicht harmlos“.  Um gleich darauf zu warnen, dass, wenn sich die AfD und -noch schlimmer- Donald Trump durchsetzen  würden, dann gäbe es „..für das Weltklima keine Rettung mehr!“ Nun weiß sicher auch Prof. Schellnhuber, dass es ein Weltklima nicht gibt, als rein statistisches Produkt auch nicht geben kann, aber – so glaubt er vermutlich- warum sich vor Laien mit solchen Lappalien abgeben. Auf die Wirkung kommt es an.  Immer schön der Devise von Prof Stephen Schneider [1] folgend:

„Deshalb müssen wir Schrecken einjagende Szenarien ankündigen, vereinfachende, dramatische Statements machen und wenig Erwähnung irgendwelcher Zweifel, die wir haben mögen.  Um Aufmerksamkeit zu erregen, brauchen wir dramatische Statements und keine Zweifel am Gesagten.  Jeder von uns Forschern muß entscheiden,  wie weit er eher ehrlich  oder eher effektiv sein will.“

Nach diesen schicksalhaften Warnungen interviewte dann Thomas Walde den AfD Vertreter Georg Pazderski. In schon inquisitorischer  Manier fragte er gerade heraus, sich dabei seht mutig vorkommend: Wie gefährlich ist Ihr Programm?

AfD Bundesvorstand Pazderski bleibt gelassen und stellt richtig

Eine Unterstellung die Pazderski gelassen zurückwies. Das gefiel aber Herrn Walde überhaupt nicht und so fragte er ungläubig nach: „Wollen Sie bestreiten, dass die Erderwärmung menschengemacht und mit  CO2 zu tun hat, so steht es in Ihrem Programm?

Nun, Pazderski wies korrekterweise darauf hin, dass das so nicht im Programm stünde und erklärte -wieder sehr ruhig- das was im Programm steht. Was im Programm steht,  hatte also Herr Walde trotz gegenteiliger Beteuerung nicht gelesen.

Wenn die Herren Schellnhuber (die Koryphäe) und Herr Walde (der Journalist) das Programm nämlich wirklich gelesen hätten, dann hätten sie erkennen müssen, dass zur Klimawirkung des CO2 – gar des anthropogen erzeugten CO2 – nichts aber auch gar nichts im Text zu lesen ist. Es werden lediglich objektiv Tatsachen festgestellt, die jeder, der sich ehrlich mit diesen Themen beschäftigt, bestätigen muss. Die Herren  zogen natürlich die Schlussfolgerungen, die ihnen ihre Voreingenommenheit  diktierte. Eine echte psychologische Projektionsleistung. Mit dem Text selber haben sie bedingt zu tun.

Obwohl ein Journalist schon vom Rundfunkgesetz her zur Objektivität verpflichtet ist, wissen wir, dass diese Verpflichtung gerade bei den Öffentlich Rechtlichen regelmäßig nicht eingehalten wird. Für einen Wissenschaftler, gar als Koryphäe, als der Prof. Dr. H.J. Schellnhuber in weiten Kreisen immer noch gilt, ist diese Voreingenommenheit jedoch völlig daneben. Allerdings sind wir derartiges  bei ihm schon lange gewöhnt. Advokatorische Aussagen, als Wissenschaft getarnt, wie die im Video oben, gibt es von Herrn Schellnhuber seit Jahren und zuhauf. Die dicksten Schnitzer hat das Team vom Heiligenrother Manifest in mühsamer Kleinarbeit zusammen getragen.

Krauses vom Klimawissenschaftler Prof. Dr. H.J. Schellnhuber

Videotrailer der 10 Folgen der besonderen Klimawissenschaftlichen Erkenntnise des PIK Direktors Prof. Dr. H.J.Schellnhuber

Man muss gar nicht erst einen anderen Hauptvertreter der IPCC Klimalinie dem Leitautor Kevin Ternberth[2] zitieren, der keinen Zweifel an der Untauglichkeit der Modelle lässt (mit Dank an Spürnase Urbahn)

None of the models used by IPCC are initialized to the observed state and none of the climate states in the models correspond even remotely to the current observed climate. In particular, the state of the oceans, sea ice, and soil moisture has no relationship to the observed state at any recent time in any of the IPCC models. There is neither an El Niño sequence nor any Pacific Decadal Oscillation that replicates the recent past; yet these are critical modes of variability that affect Pacific rim countries and beyond. The Atlantic Multidecadal Oscillation, that may depend on the thermohaline circulation and thus ocean currents in the Atlantic, is not set up to match today’s state, but it is a critical component of the Atlantic hurricanes and it undoubtedly affects forecasts for the next decade from Brazil to Europe. Moreover, the starting climate state in several of the models may depart significantly from the real climate owing to model errors. I postulate that regional climate change is impossible to deal with properly unless the models are initialized.

Zu Deutsch

Keines der Modelle die vom IPCC verwendet werden, sin für den beobachteten Zustand initialisiert und keiner der Klimazustände in den Modellen entspricht auch nur annähernd dem  aktuell beobachteten Klima. Insbesondere steht in keinem der IPCC-Modelle der Zustand der Ozeane, des Meereises und der Bodenfeuchtigkeit in keinem Verhältnis zum beobachteten Zustand der letzten Zeit. Es gibt weder eine El Niño-Sequenz noch eine Pazifische Dekadische-Oszillation, die die jüngste Vergangenheit repliziert; doch sind dies kritische Modi der Variabilität, die die Länder des pazifischen Raums und darüber hinaus beeinflussen. Der Atlantische Multidekadische-Oszillation, von der die thermohaline Zirkulation und damit die Meeresströmungen im Atlantik abhängen können, ist nicht so eingerichtet das sie dem heutigen Zustand entspricht, aber es ist ein wichtiger Bestandteil der atlantischen Hurrikane und es wirkt sich zweifellos auf Prognosen aus für das nächste Jahrzehnt für Brasilien nach Europa. Darüber hinaus, der Klimastartzustand in mehreren der Modelle weicht deutlich vom realen Klima ab, dies ist dem Modellfehlern geschuldet. Ich postuliere, dass es unmöglich ist den regionalen Klimawandel richtig zu behandeln, bis die Modelle korrekt initialisiert werden.

Mit diesem mutigen Programmentwurf hat die AfD sich einmal mehr als wahre Forschrittspartei gezeigt, die sich ganz zu Anfang ihrer kurzen Geschichte das Leitmotiv gab

„Mut zur Wahrheit“

Ein Licht am Ende des Tunnels. Es bleibt zu hoffen, dass die Teilnehmer des Parteitages vor soviel Mut nicht erschrecken und den Entwurf in ganzer Klarheit billigen. Das wäre dann ein weiteres Alleinstellungsmerkmal der AfD. Die Wähler würden diesen Mut honorieren, sogar in Deutschland. Und wenn das so eintritt, werden andere Parteien folgen. Soviel ist sicher!


[1] Prof. Dr. H. Stephen Schneider – Lead Author in Working Group I of the IPCC sagte 1989, Zitate aus: Bachmann, H.: Die Lüge von der Klima-Katastrophe, 4.Aufl., Frieling-Vlg. Berlin, 2008, S.9

[2] Aus Predictions of climate nature.com http://blogs.nature.com/climatefeedback/2007/06/predictions_of_climate.html




Einhaltung des Pressekodex? – Nicht bei der Süddeutschen Zeitung im Pamphlet von Christoph Behrens gegen die AfD

Im ersten Abschnitt seines Pamphlets (Original hier) schreibt Behrens: "mittlerweile hat sich die Beziehung der AfD zu Wissenschaft und Wahrheit aber vollständig ins Gegenteil verkehrt". Nun trifft dies, wie wir sofort sehen werden, exakt auf die Ausführungen von Behrens selber zu. Sichtbar wird dies bereits in der schon zitierten Überschrift 

"Die AfD macht das Leugnen des Klimawandels zum festen Bestandteil ihrer Politik. Dahinter steckt eine gefährliche Strategie" 

Diese Behauptung ist allein schon deswegen kompletter Unsinn und zugleich eine dreiste Falschaussage, weil niemand den Klimawandel leugnet. Das Klima aller Erdzonen in allen Erdteilen hat sich stets geändert und wird dies auch zukünftig tun. Dies ist praktisch ein Naturgesetz. Konstantes Klima ist unmöglich. Das weiß jeder gebildete Zeitgenosse und natürlich auch die AfD, Herr Behrens und die SZ wissen es etwa nicht?

Dann schiebt Behrens im zweiten Abschnitt die Haupt-Falschaussage nach. Ihm war vermutlich klar, dass seine Behauptung "Leugnen des Klimawandels" im Extremfall klagebewehrte Abmahnungen nach sich ziehen könnte, daher fügt er korrigierend den Zusatz "durch den Menschen" ein und schreibt etwas später: " So erklärt die Partei in ihrem Bundesprogrammentwurf, der im Internet auftauchte, den durch Menschen verursachten Klimawandel für nicht vorhanden".

Nun steht im Originaltext des AfD-Leitantrags zum Grundsatzprogramm nichts dergleichen. Schauen wir ihn uns dazu an:

"Das Klima wandelt sich, solange die Erde existiert. Die Klimaschutzpolitik beruht auf untauglichen Computer‐Modellen des IPCC („Weltklimarat“). Kohlendioxid (CO2) ist kein Schadstoff,  sondern ein unverzichtbarer Bestandteil allen Lebens.  Der IPCC versucht nachzuweisen, dass die Menschen gemachten CO2‐Emissionen zu einer globalen Erwärmung mit schwerwiegenden Folgen für die Menschheit führen. Hierzu beruft man sich auf Computermodelle, deren Aussagen durch Messungen oder Beobachtungen nicht bestätigt werden. Solange die Erde eine Atmosphäre hat, gibt es Kalt‐ und Warmzeiten. Wir leben heute in einer Warmzeit mit Temperaturen ähnlich der mittelalterlichen und der römischen Warmzeit. Die IPCC‐Computermodelle können diese Klimaänderungen nicht erklären. Im 20. Jahrhundert stieg die globale Mitteltemperatur um etwa 0,8 Grad. Seit über 18 Jahren gibt es jedoch im Widerspruch zu den IPCC‐Prognosen keinen Anstieg, obwohl in diesem Zeitraum die CO2‐Emission stärker denn je gestiegen ist. IPCC und deutsche Regierung unterschlagen die positive Wirkung des CO2 auf das Pflanzenwachstum und damit auf die Welternährung. Je mehr es davon in der Atmosphäre gibt, umso kräftiger fällt das Pflanzenwachstum aus".

Hier ist absolut nichts von der Behauptung Herrn Behrens‘ zu finden! Als fachzuständiger Physiker – inzwischen mit 6 begutachteten Veröffentlichungen in wissenschaftlichen Klimafachzeitschriften bewehrt – erlaube ich mir die oben zitierten Feststellungen des AfD-Parteiprogrammentwurfs sachlich uneingeschränkt zu bestätigen. Sie enthalten nur das, was jedem Fachmann bekannt ist und entsprechen Eins zu Eins der Realität. Die Bemerkung sei gestattet, dass diese Sätze aktuell ein Alleinstellungsmerkmal an wissenschaftspolitischer Redlichkeit aufweisen, verglichen mit allen anderen mir bekannten Parteiprogrammen.

Völlig "durchgeknallt" ist dann Behrens bzw. die SZ, wenn auch noch die absurde Behauptung aufgestellt wird, die AfD wolle Wissenschaft instrumentalisieren und politisieren. Wer der deutschen Sprache mächtig ist, sieht unschwer, dass das genaue Gegenteil von der AfD in ihrem Programmentwurf angestrebt wird! Behrens dagegen: "Hinter all dem steckt eine gefährliche Strategie: Wissenschaft selbst soll instrumentalisiert und politisiert werden".

Der Wunsch ist also bei Behrens und der SZ der Vater des Gedanken. Seine Aussage ist Musterbeispiel für das berühmte "Haltet den Dieb". Denn von so gut wie allen deutschen Parteien, den deutschen Medien und einer kleinen Gruppe durch Medien und Politik hochgepäppelter Advokatenforscher der IPCC-Linie wird in der Tat die Klima-Wissenschaft instrumentalisiert und politisiert. Bislang nur die AfD und meines Wissens auch noch die Splitterpartei PDV (gibt es die noch?) wollen damit ein Ende machen und wieder der wissenschaftlichen Redlichkeit den höchsten Stellenwert in ihrer Politik einräumen.

Der oben zitierte Originaltext des AfD Programms kann wohl nur mit extremer Dummheit oder Böswilligkeit ins Gegenteil verdreht werden. Die FDP, die ja, wie auch die AfD, löblicherweise das unselige EEG abschaffen will, sollte sich vielleicht besinnen und in der Klimapolitik ebenfalls anfangen klarer zu denken bzw. zu positionieren – dies ein persönlicher Tip an Herrn Lindner. 

Belege für die allgemeine Politisierung der Klimawissenschaft gefällig? Die deutschen Medien bieten ausschließlich den Klima-Alarmisten eine Plattform. Je schlimmer die fiktiven Klimakatastrophen, je beliebter sind die dem inzwischen gähnenden Publikum angedienten Angsttrompeter. Keine durchs Dorf getriebene Sau ist den Medien zu schade. Erst war es der Schnee, den es in Deutschland nicht mehr geben sollte, dann der aussterbende Knuth (sooo.. putzig), dann das Absaufen der Malediven, dann die Meeresversauerung, dann die viel zu warmen Winter, dann ein abrutschender Rieseneisblock unter Wasser am Rande der Antarktis in vielleicht tausend Jahren, der die Welt überschwemmen lässt, dann der jüngste Wirbelsturm als Ankündigung der Klima-Apokalypse und so weiter und so weiter. Der Klimakatastrophen-Quatsch nimmt kein Ende. Er hat sich freilich schon mächtig abgenutzt, denn kaum jemand hört noch hin. "Ca pourrit" sagt man dazu in Frankreich.

In der Regel sind die beiden Advokaten-Forscher und Klima-Alarmisten Prof. Hans-Joachim Schellnhuber und Prof. Mojib Latif die von den Medien gesuchten Mütter aller Klimakatastrophen. Der eigentlich zugehörige Dritte im Bunde, Prof. Rahmstorf, ist wegen seiner zu rüden Methoden gegen einige widerspenstige Journalisten bei den Journalisten-Kollegen allerdings in Ungnade gefallen. Rüpel mögen die Medienleute nicht.

Die überaus zahlreichen Klimafachexperten, die dem IPCC widersprechen, existieren für die deutschen Medien nicht, und daher kennt sie hierzulande auch niemand – die EIKE-Leser ausgenommen. Hat man jemals in deutschen Zeitungen, im Radio oder TV etwas von den Manifesten und Petitionen Tausender weltbekannter Fachwissenschaftler gegen den Klima-Alarmismus des IPCC gehört?

Hat man gar schon einmal etwas über einschlägige Anti-IPCC-Manifeste oder -Deklarationen in Deutschland selber gehört, so etwas über die Heidelberger oder die Leipziger Deklaration? Hier kann man nachlesen (hier), (hier), leider nur in Englisch, dazu gleich mehr. Wer im Internet nach "Heidelberger Manifest" oder "Leipzig Deklaration" googelt, wird nichts finden – merkwürdig, oder nicht? Nur "Heidelberg Appeal" bzw. "Leipzig Declaration" führen zum Erfolg. Der Grund: Im deutschen Wikipedia herrscht Klima-Zensur, im US-Wikipedia (noch) nicht!

Gegenmeinungen zur IPCC-Alarmtrompeterei gibt es also nicht, dies ist die Devise der deutschen Medien und Politik. Pinocchio-Presse, Lügenpresse und weitere Bezeichnungen als Folge dieses Mangels sind zwar äußerst unschöne Anwürfe, aber zumindest beim Klima- und Energiethema leider absolut zutreffend. Dieser der ehemaligen DDR-Berichterstattung würdige Zustand in den deutschen Medien wird sich dank der AfD wohl nicht mehr ewig halten lassen. Hier schon einmal stellvertretend einige Internet-Links (hier), (hier), (hier), (hier) als Hilfestellung für Journalisten, die auch beim Klimathema endlich eine freie Berichterstattung wagen mögen. Aber Vorsicht, man verliert mit journalistischer Ehrlichkeit hierzulande schnell seinen Arbeitsplatz!

Die letzten Sätze im letzten Abschnitt des Artikels von Behrens verkehren die realen Verhältnisse dann derart ins Gegenteil, dass einem die sprichwörtliche Spucke wegbleibt. Behrens schreibt zwar in den Einzelpunkten korrekt, konstruiert daraus aber Zusammenhänge von nicht mehr zu toppender Absurdität. So schreibt er: "Der Klimawandel ist keine Erfindung linker Ideologen – vielmehr ist die Anerkennung empirischer Fakten die Basis für Fortschritt und technische Innovationen. Untergräbt man dieses Fundament, so gerät auch der Wohlstand in Gefahr, dessen Sicherung die AfD gerne fordert".

Natürlich ist der Klimawandel keine Erfindung linker Ideologen, sondern schlicht Teil der Natur. Und natürlich ist die Anerkennung empirischer Fakten die Basis für Fortschritt und technische Innovationen. Reine Erfindung linker Ideologen ist aber in der Tat, dass der industrialisierte Mensch für einen gefährlichen Klimawandel verantwortlich sei. Oder anders gesagt: der gefährliche anthropogene Klimawandel ist eindeutig politisch "links" und damit natürlich zutreffend und unantastbar.

Eine kleine zugehörige Abschweifung sei erlaubt, ohne sich auf irgend welche parteipolitischen Erörterungen einzulassen. Alles was auch nur geringfügig politisch rechts von links liegt, wird im heutigen Deutschland der rechtspopulistischen oder gar braunen Ecke zugeordnet. Das ist absurd. Niemandem fällt zudem auf, dass die Beseitigung aller politischen Meinungen bzw. Parteien, die rechts von "links" stehen, zwangsweise in einem diktatorischen linken Einheitsblock enden. Demokratie bildet notwendigerweise das gesamte Parteienspektrum ab, sonst hat der Wähler keine Wahl und Demokratie gibt es nicht mehr.

Zurück zum "Klimaschutz" und den wissenschaftlichen Fakten! Bis heute konnte noch nicht einmal ein ungewöhnlicher aktueller Klimawandel festgestellt werden – von "gefährlich"  ganz zu schweigen. Die klimahistorisch geringfügige globale Erwärmung der letzten 100 Jahre vermochte noch keine begutachtete wissenschaftliche Studie schlüssig auf den Menschen zurückzuführen. Das ist auch kein Wunder, denn sie liegt bequem im Bereich der natürlichen Klimafluktuationen. Basis dieser Erkenntnis sind ironischerweise die von Behrens beschworenen empirischen Fakten (Messungen). Nur fiktive Klimamodelle, die die Realität noch niemals beschreiben konnten, bringen das Kunststück der anthropogenen Erwärmung fertig. Die jüngste, geringe und ganz natürliche globale Erwärmung brachte der Menschheit im Übrigen ausschließlich Vorteile – dies zu ihrem praktischen Stellenwert.

Und nun zu "technische Innovation sowie Fortschritt durch Klimaschutz" des Herrn Behrens! Hier hilft nur Humor weiter, denn die deutschen Strompreise schießen in den Himmel, es findet über die Strompreise eine extrem unsoziale Vermögensumverteilung vom wirtschaftlich schlechter gestellten Teil der Bevölkerung hinauf zu den Energiewendeprofiteuren statt, letztere sind oft kaum noch normale Unternehmer sondern bedienen sich zunehmend mafiöser Durchstechereien, energieintensive Industrien wandern aus Deutschland ab,  25.000 Windradungetüme als mittelalterliche Methoden der Energieerzeugung, die aktuell trotz bereits extremer Verspargelung unserer Natur gerade einmal knapp 2% der deutschen Primärenergie erzeugen, zerstören Wälder, töten Hekatomben von Flugtieren und treiben Anrainer durch Infraschall und Schattenwurf zur Verzweiflung usw. usw. Innovation und Fortschritt?? "Erneuerbare" sind naturgesetzlich leider Methoden, die sich durch technisch unbrauchbare Strom-Fluktuation und geringste Energiedichten auszeichnen.

Fachleute, nicht zuletzt Prof. Hans-Werner Sinn, gebrauchen für die deutsche Energiewende, die auf den von Behrens beschworenen "innovativen" und "fortschrittlichen" Methoden basiert, das Synonym "Deindustrialisierung Deutschlands". In welchem Paralleluniversum leben Herr Behrens und die Süddeutsche Zeitung eigentlich?

EIKE behält sich beim deutschen Presserat eine Beschwerde vor – über die journalistischen Falschaussagen von Herrn Behrens in der SZ wider besseres Wissen. Man sollte der AfD eine Verleumdungsklage empfehlen, denn es gibt rote Linien im Journalismus, die nicht überschritten werden dürfen. Der Pressekodex (hier) erscheint EIKE zumindest in den Punkten 1, 2 und 9 massiv verletzt. Aus Erfahrung wissen wir freilich, dass Beschwerden der bekannt fragwürdigen Unabhängigkeit des Presserats wegen wenig nützen. 




Wir [in UK] folgen Deutschland in eine Energie-Katastrophe

Ein weit dunklerer Schatten als der Kollaps unserer Stahlindustrie hängt über UK. Wir dürften nicht überrascht sein, dass unsere Ministerin für Energie und Klimawandel Amber Rudd als Schwester einer führenden Figur der Kampagne, UK in der EU zu halten, davor gewarnt hat, dass ein „Brexit“ unsere Energierechnungen um 500 Millionen Pfund pro Jahr steigen lassen würde (hier). Ihr Bruder Roland kann als Hintergrund-Stratege der Bewegung Stronger in Europe beschrieben werden kann als „der Rudd, der nicht möchte, dass wir das sinkende Schiff verlassen“.

Aber mit dieser Behauptung von „einer halben Milliarde pro Jahr“ muss Ms. Rudd hoffen, dass wir uns nicht an jene Zahlen erinnern vom Office for Budget Responsibility [etwa: Büro für Budget-Verantwortlichkeit], welches projiziert, dass wir innerhalb von vier Jahren – ausschließlich aufgrund der Politik ihrer eigenen Regierung – 13,6 Milliarden Pfund pro Jahr an Abgaben bzgl. Klimawandel zahlen müssen, das sind weitere 7,6 Milliarden Pfund mehr als im vorigen Jahr.

Aber selbst das ist nur ein kleiner Teil des Desasters, in das Ms. Rudd uns zu führen dabei ist, will sie doch unsere Wirtschaft „dekarbonisieren“, indem sie alle mit fossilen Treibstoffen betriebenen Kraftwerke schließen will, obwohl diese bis jetzt zwei Drittel unseres gesamten Stromes erzeugt haben. Sie sollen ersetzt werden durch immer noch mehr „Erneuerbare“ sowie jene Kernkraftwerke, die einfach nicht gebaut werden.

Wohin uns eine solche Politik führt, wie ich schon vor fünf Jahren vorhergesagt habe, kann man erkennen mit einem Blick auf das Land, dass im Rennen zum Klippenrand immer noch vor uns liegt. Ein langer Artikel im Handelsblatt (Deutschland), dem führenden Industrie-Journal, zeichnet ein verheerendes Bild des Chaos‘, dass sich immer mehr manifestiert aufgrund einer „grünen“ Energiepolitik, die der unseren bemerkenswert ähnlich ist (mit der Ausnahme, dass nach Fukushima die 17 Kernkraftwerke des Landes noch schneller abgeschaltet werden als unsere).

Schon 77 Kern- und Fossilkraftwerke sind abgeschaltet worden. Die größten Energieunternehmen, RWE und E.On, haben Schulden in Höhe von 43 Milliarden Pfund angehäuft. Und nachdem 170 Milliarden Pfund in „grüne Subventionen“ geflossen sind, was zur höchsten Anzahl von Windmühlen in Europa (26.000) geführt hatte, was wiederum massive Probleme für das Stromnetz des Landes auslöste, wenn der Wind nicht weht, sind die Strompreise in Deutschland auf ein Niveau gestiegen, bei dem im vorigen Jahr 350.000 Verbrauchern der Strom abgedreht wurde, weil sie sich die Stromrechnungen nicht mehr leisten können.

Dank dieser in den Himmel schießenden Energiekosten verlagern viele der größten Firmen Deutschlands wie z. B. Siemens und BASF, ihre Produktionskapazitäten ins Ausland, was mit dem Verlust hunderttausender Arbeitsplätze einhergeht. Diese Arbeitsplätze entstehen neu nicht zuletzt in den USA, wo die Energiekosten weniger als halb so hoch sind wie in Deutschland (hier). Der gleiche Effekt ist hier in UK zu beobachten, wo unsere „Kohlenstoff-Steuer“, die die energieintensiven Industrien verkrüppelt, inzwischen viermal höher ist als irgendwo sonst auf der Welt.

Und doch liegt die Ironie darin, dass Deutschlands „Kohlenstoff-Emissionen“ tatsächlich gestiegen sind, und zwar wegen der gestiegenen Nachfrage für Heizung und dem Verbrennen von „schmutziger“ billiger Kohle zur Kostenminderung. Ms. Rudd mag behaupten, dass ihre „Energiepolitik ein Beispiel“ für die Welt setzt. Aber falls sie wissen will, was als nächstes geschieht, auch noch bevor die Lichter bei uns ausgehen, sollte sie auf das Beispiel Deutschlands schauen.

[Booker sieht also die Katastrophe in Deutschland bereits als besiegelt an. Mal sehen, ob und wann Michel das merkt! Anm. d. Übers.]

Link: http://www.thegwpf.com/christopher-booker-were-following-germany-to-an-energy-disaster/

Übersetzt von Chris Frey EIKE




CO2 Lebensspender und Rohstofflieferant statt Klimakiller

Modell Erderwärmung

Die offizielle Klimapolitik will die anthropogenen CO2-Emissionen verringern, damit die Erde für uns Menschen bewohnbar bleibt. Dass diese Emissionen die Erderwärmung verursachen, ist zwar nicht be­wiesen, soll sich aber aus Klimasimulationsmodellen ergeben. Wie hat sich das Modell vom menschen-gemach­ten Klimawandel entwickeln können?

Vom Umweltschutz zum Klimaschutz

Die 1972 auf der Umweltkonferenz von Stockholm definierte Verpflichtung zum Umwelt­schutz wurde in die Notwendigkeit zum Klimaschutz umfunk­tioniert – und nicht nur aus wirklicher Sorge um das Klima.

Es gibt inzwischen eine umfangreiche Literatur in der behandelt wird, wie das Modell von der menschen­gemachten Erderwärmung entstanden ist, und wie es weltweit so verbreitet wurde, dass Medien und Poli­tik unter Zuarbeitung eines Teiles der Wissenschaft dieses Modell zu einem beherrschenden Zeitgeist entwickeln konnten. In diesem Kurzbericht können zur Begründung dieser Beurteilung nur einige Zitate von Helmut Bachmann [1] und Zbigniew Jaworowski [2] erwähnt werden. 

Aus [1]:   Die Idee, dass aus Deutschland stammende Wort Klimakatastrophe zu kommerzialisieren wurde 1986 in den USA geboren. Eine sich nähernde Katastrophe erzeugt Angst………. Um Ängste zu beseitigen, sind Menschen bereit alles zu tun. Dies war den Erfindern der Idee bekannt, das Wort Klimakatastrophe zu kommerzialisieren und zu einem lange andauernden Geschäft zu entwickeln. Um ein weltweites Geschäft mit der Angst aufzubauen, wurde eine Organisation benötigt. Dies wurde das IPCC“.

Aus [1]:  Prof. Dr. H. Stephen Schneider (Lead Author in Working Group of the IPCC) sagte 1989: „Deshalb müssen wir Schrecken einjagende Szenarien ankündigen, vereinfachende dramatische Sta­tements machen und wenig Erwähnung irgendwelcher Zweifel, die wir haben mögen, entlassen. Um Aufmerksamkeit zu erregen, brauchen wir dramatische Statements und keine Zweifel am Gesagten. Je­der von uns Forschern muss entscheiden wie weit er eher ehrlich oder effektiv sein will.“

Aus [2]:  Mau­rice Strong, der Pate der modernen Umweltschutzbewegung und früherer Chefberater von UN-Ge­neralsekretär Kofi Annan hat offen von einer Verschwörungstheorie gesprochen. Strong war 1972 Generalsekretär der UN-Umweltkonferenz in Stockholm, auf der die weltweite Umweltbe­wegung begründet wurde, und er hat eine zentrale Rolle bei der Globalisierung ge­spielt. 20 Jahre spä­ter war Strong Generalsekretär des ‚Erdgipfels’ in Rio de Janeiro, wo auf sein Betreiben die Grund­lage für das Kioto-Protokoll gelegt wurde.  In einem Interview hat Strong  seine Denkweise offengelegt: „Was wäre, wenn eine kleine Gruppe von Weltführern zu dem Schluss kommen sollte, dass die Haupt­gefahr für die Erde von dem Ver­halten der reichen Länder ausginge? Und wenn die Welt überleben soll, müssten die reichen Länder ein Abkommen unter­zeichnen, um ihre eigene Umweltbelastung zu redu­zieren.  Wer­den sie dem zustimmen? Die Gruppe kommt zu dem Schluss: Nein! Die reichen Län­der wer­den nicht zustimmen. Sie wollen sich nicht verändern. Um den Planeten zu retten, beschließt die Gruppe: Besteht nicht die einzige Hoffnung für den Planeten darin, dass die industriali­sierten Zi­vilisationen kollabieren? Ist es nicht unsere Verantwortung, das zu bewir­ken? Die Gruppe von Welt­führern bildet eine Geheim­gesellschaft, um einen Wirtschaftszu­sammen­bruch herbeizuführen“. (Wood 1990)

Aus [1]:  Als das IPCC fertig konstruiert war, wurden alle entwickelten Staaten zu einem ‚Klima-Meeting’ durch die UNO nach Kyoto eingeladen. Dort wurde die menschengemachte  „Weltklima-                               katastrophe verkündet“.

Aus [2]:  Die Klimafrage wurde auch zu einer moralischen Frage. Gro Harlem Brundtland, die Sonderbeauftragte des UN-Generalsekretär für Klimawandel, sagte 2007 vor der UN Generalver­sammlung: „Es ist unverantwortlich, rücksichtslos und zutiefst unmoralisch, die Schwere der realen Gefahr des Klimawandels in Frage zu stellen.“!

Anthropogene Erderwärmung als Pseudoreligion

Das Modell eines anthropogenen Klimawandels infolge unserer CO2-Emissionen wurde weltweit von Medien und Politik einschließlich UNO und nachgeordneten Dienststellen so propagiert, dass seine Rich­tigkeit nicht mehr bezweifelt sondern allgemein anerkannt wird. Das gilt auch für Teile der Fachwissen­schaft, denn die dem IPCC gestellte Aufgabe lautete: „…..die weltweit vorgelegte wissenschaftliche ……..Literatur zu sichten, die für das Verständnis des Risikos eines vom Menschen herbeigeführten Kli­mawandels ……. bedeutsam ist.“  D.h. es war zu untersuchen, wie dieser Klimawandel wirkt, nicht je­doch, ob es ihn überhaupt gibt. Auch in Deutschland wird diese einseitige Beurteilung praktiziert, wie folgendes Beispiel demonstriert: Ulrich Berner und Hans-Jörg Streif  haben als Heraus­geber für die Bun­desanstalt für Geowissenschaften und Roh­stoffe (BGR),  das Niedersächsische Landesamt für Bodenfor­schung (NLfB) und das Institut für Geowissenschaftliche Gemeinschaftsaufgaben  (GGA), in dem Buch „Klimafakten, der Rückblick – ein Schlüs­sel für die Zukunft“ die Klimaent­wicklung von der geologischen Vergangenheit bis zur Gegenwart wis­senschaftlich analysiert. Sie haben an Hand der Fakten bewiesen, dass die angeblich von uns Men­schen verursachte Erderwärmung infolge unserer CO2-Emissionen nicht stattfindet. Diese amtlichen For­schungsergebnisse blieben unberücksichtigt. Und es ist weiterhin das Ziel der offiziellen Klimapolitik, unsere Emissionen von CO2 zu reduzieren, weil sonst unser Fortbestand ge­fährdet wäre.

Klimawandel !  Statt Computersimulationen, was wurde gemessen?

Die Umlaufbahn der Erde um die Sonne ändert sich und auch die Wärmestrahlung der Sonne ist nicht konstant. Deshalb kann das Klima der Erde nicht konstant sein, sondern ändert sich ebenso. Beispiels­weise bewirken die kurzperiodischen Sonnenfleckenzyklen im Rhythmus von Jahrzehnten wechselnde Abkühlungs- und Erwärmungsphasen, während langfristige Zyklen Eiszeiten verursachen. Klima­wandel sind folglich eine irdische Normalität. 

Bald nach der Erfindung des Thermometers wurde mit regelmäßi­gen Messungen begonnen, in England ab 1659, auf dem Kontinent ab 1700. Die Messwerte werden gra­phisch als ‚Ganglinie’ aufgetragen, so dass man die zeitliche Entwicklung der Temperatur leicht erkennt, und ebenso die kurzzeitigen Wechsel von Erwärmungs- und Abkühlungsphasen, wie das Beispiel der Station De Bilt  illustriert.

Zwischen 1706 und 2008 (=302 Jahre) hat diese Station insgesamt eine Erwärmung von 0,0047°C/a´302 = 1,42°C erfahren. Sie wurde durch die Rück-Erwärmung nach der Kleinen Eiszeit verursacht, die in den 63 Jahren zwischen 1805 und 1868 einen Anstieg von 0,0677°C/a erreicht hat, insgesamt also 4,27°C. Danach haben sich zwei Kalt- und zwei Warmphasen abgewechselt, wobei insgesamt eine leichte Ab­kühlung überwog, denn wärmer ist es bis 2008 nicht mehr geworden – trotz der um 1950 beginnenden verstärkten anthropo­genen CO2-Emissionen.

Die De-Bilt-Ganglinie zeigt auch, dass für eine sachgerechte Beurteilung der Klimaentwicklung keine kurzen Zeiträume zugrunde gelegt werden dürfen, denn sie können kein repräsentatives Bild ergeben. Wie der folgende Vergleich von vier Ganglinien sehr ungleicher Dauer demonstriert, sind die naturbe­ding­ten Wechsel von Erwärmungs- und Abkühlungsphasen erst bei einer Beobachtungszeit von einigen Jahr­zehnten zu erkennen:

1.) Ganglinie für 9000 Jahre: 4 größere Wechsel, dazwischen viele mittlere Wechsel

2.) Ganglinie für 1100 Jahre: Rückerwärmung nach Kleiner Eiszeit mit 4 mittleren Wechseln

3.) Ganglinie für 130 Jahre: zwischen 1880 und 2010 Wechsel von 4 Kaltphasen und 3 Warmphasen

4.) Daten für 33 Jahre von UAH MSU, RSS MSU, GISS, .NCDC, HadCRUT3: leichte Erwärmung                      

      bis 1909, danach leichte Abkühlung

Fazit: Warmphasen vor den CO2-Emissionen, Kaltphasen trotz der Emissionen; kein Einfluss der CO2-Emissionen erkennbar. 

CO2-Verbrauch

In der Ur-Atmosphäre hatte CO2 am Luftgemisch der Atmosphäre einen Anteil von ca. 10%, heute ist es nur noch mit 0,04% (= 400 ppm) beteiligt. Damit ist es zum Spurengas ge­worden. Wo sind die fehlenden 99,96% geblieben? Und nicht nur die, denn schon immer haben zusätzlich Vulkane und untermeerische Schlote CO2 gefördert; auch diese Mengen sind verschwunden. Beispielsweise emittiert der Ätna z.Zt. 35.000 t  täglich.

Die Natur hat CO2 sowohl für die Photosynthese der Pflanzen und damit als Baustoff der Biomasse als auch für die Bildung der anorganischen Sedimente gebraucht. Das CO2 wurde in der Kohle, im Erdöl und im Erdgas gebunden. Es diente außerdem als Rohstoff für die Herstellung von Se­dimentengesteinen, bei­spielsweise Kalkstein. Bei der Bildung von Kalkstein wurden sogar zwei Wege beschritten: Viele in den Ozeanen lebende Tierarten brauchten das CO2 zum Aufbau ihrer Körper und ihrer Skelette, und außerdem vereinigte sich das im Wasser gelöste CO2 mit dem im Wasser gelösten Kalzium zu Kalziumkarbonat. Wegen seiner geringen Löslichkeit sedimentierte es und wurde später zum Kalkstein. Die Natur hat also Sedimentgesteine und fossile Brennstoffe aus CO2 hergestellt, das damit dem CO2-Kreislauf entzogen wurde.

Mit der Bildung der Naturprodukte ging fast alles CO2 dem irdischen Kreislauf verloren – bis auf den kleinen Rest von gegenwärtig 0,04% als Anteil an der Atmosphäre, sowie dem Anteil, der im Wasser der Ozeane gelöst ist. Dieser Verbrauch ist immer noch wirksam und setzt sich fort, was zum Problem der Biosphäre werden kann: die Pflanzen brauchen zum Wachstum mindestens 150 ppm, wie die folgende TRCS–Grafik zeigt [3]. Beim Unterschreiten des Minimums können sich die Pflanzen nicht mehr ernäh­ren und der Tierwelt fehlt das Futter. Diese Entwicklung würde die Biosphäre negativ verändern.

Folgerungen

Der für die Bildung der Biomasse und der Sedimente benötigte naturbedingte Verbrauch des CO2 wird sich fortsetzen. Deshalb besteht die Gefahr, dass das für das Wachstum der Pflanzen erforderliche CO2-Minimum erreicht und unterschritten wird.  

Es ist gesicherte Tatsache, dass der CO2-Gehalt der Atmo­sphäre in der geologischen Vergangenheit sehr viel größer war als heute. Dies hat der Biosphäre nicht geschadet sondern genutzt, aber auch Eiszeiten mit ausgedehnten Vergletscherungen nicht verhindert.

Aus den Fakten ist zu folgern, dass die von der offiziellen Klimapolitik ge­forderte Be­grenzung der CO2-Emissio­nen kontrapro­duktiv ist. 

[1]  Helmut Bachmann: Interview in der Züricher Weltwoche vom 01.07.2009 

[2]  Zbigniew Jaworowski: „Nicht der Mensch, sondern die Sonne bestimmt unser Klima“, Fusion, H.1, 2010, S. 24-44

[3]  TRCS:  Hal Doiron, presentation on ICCC10 (Panel 13: “The Right Climate Stuff”)                                     

       ICCC10:  International Conference on Climate Change #10 in Washington DC, June 11-12, 2015 




Wie der Deutsche Wetterdienst seine Daten einseitig auswertet

Doch in diesem Artikel soll nicht die Höhe der Wärmeinselbereinigung um Vergleichbarkeit herzustellen im Vordergrund stehen, sondern die real vom DWD veröffentlichten Temperaturdaten. Aus diesen Daten liest die Führungsspitze einen Beweis für die angeblich C02-menschengemachte Klimaerwärmung heraus, so auch vor kurzem bei der Presseerklärung am 7. März. Wie das geschieht, soll hier erklärt werden.

Als Beispiel wählen wir die Jahreszeit Winter, zunächst über einen längeren Zeitraum

Grafik 1: Im Diagramm sind die letzten 107 Winter aufgetragen. Es wurde keinesfalls immer wärmer wie der DWD das in seinen Presseerklärungen suggeriert, sondern der Winter hatte zu Beginn des letzten Jahrhunderts einen Höhepunkt, fiel dann kurz nach der Mitte – von 1945 bis 1965- in eine Kältedelle, um sich dann daraus wieder emporzuarbeiten. Momentan sind wir wieder auf einem Höhepunkt, bzw. hinter einem Wendepunkt angelangt.

Eine Frage zur Anregung an den Leser sei erlaubt: Was sind nun die „normalen“ deutschen Wintertemperaturen?

Grundsätzlich ist der Temperaturverlauf aller Jahreszeiten und Monate in den deutschen Temperaturdaten ähnlich. Auch der erste Frühlingsmonat März verhält sich ähnlich, die Kältedelle beginnt nur etwas früher.

Grafik 2: Monat März im gleichen Betrachtungsraum. Auch der März zeigt in den letzten 100 Jahren zwei Temperaturhöhepunkte und eine Kältedelle. Da die Kältedelle etwa fünf Jahre früher war wie bei den drei Wintermonaten, haben wir auch den Wendepunkt in der Gegenwart schon überschritten, die polynome Trendlinie zeigt bereits am Schluss nach unten.

Im Wesentlichen verhalten sich die Deutschlandtemperaturen nach einer sinusähnlihcen Schwingung. Die Kältedelle, also der untere Wendepunkt der Sinusschwingung lag in der Mitte des letzten Jahrhunderts bei manchen Monaten etwas früher, bei anderen wie beim April (hier nicht aufgeführt) etwas später.

Diese Grafik 2 zeigt, dass die stetig zunehmende CO2-Konzentration in der Luft von damals (1920) 0,03% auf heute 0,04% keinen statistischen Zusammenhang zeigt mit dem vom Deutschen Wetterdienst gemessenen Temperaturverlauf. Die leichte CO2-Zunahme kann nicht bis 1960 die Temperaturen erniedrigen, und dann wieder ansteigen lassen. Betrachtet man das Deutsche Jahresmittel ab dem Beginn der 2000er Jahre, also den Zeitraum, in dem die CO2- Konzentration besonders stark gestiegen ist, so zeigt sich praktisch keine Temperaturzunahme mehr:

Grafik 3: Seit dem Beginn der 2000er Jahre stagnieren in Deutschland die Temperaturen- trotz stark steigender CO2- Werte.

Der Trick der CO2-Erwärmungsverkünder

Um das Märchen der sich ständig fortsetzenden und stetig steigenden Erwärmung den Medien und damit den Deutschen zu verkaufen, betreibt die Führungsriege des DWD ein ausgesprochenes Cherry-picking.

  1. Der wahre vom DWD ermittelte Temperaturverlauf wie oben aus den Grafiken ersichtlich, wird nicht erwähnt. Der Sinusverlauf der Temperaturen wird verschwiegen.

  2. Als Startpunkt der Betrachtung nimmt der DWD entweder die Jahrhundertmitte oder die Kältedelle vor 1900 und veröffentlicht dann die linear steigende Trendlinie bis zur Gegenwart. (siehe Grafik 4)

Mit dem international gültigen Vergleichszeitraum von 1961 bis 1990 steht dem DWD derzeit auch noch das Definitionsglück zur Seite, was der DWD als Vergleich nehmen darf. Der Großteil des international gültigen Betrachtungszeitraumes befindet sich noch in der Kältedelle. Bei diesem gewählten Betrachtungsansatz ist diese Aussage vom 7.März dieses Jahres –siehe DWD homepage- „In Deutschland waren 23 der insgesamt 25 Jahre seit 1991 zu warm“ sogar richtig, wobei der Ausdruck „zu warm“ bewusst falsch gewählt ist. Dann müsste man die Kältedelle nämlich als Normaltemperatur für Deutschland ansehen, womit bestimmt niemand einverstanden sein kann.

Diesen Betrachtungstrick des DWD erklären wir nun an einem Beispiel: Mit einem gewählten Startbetrachtungsjahr 1954 in der Kältedelle und einer linearen Trendlinie erscheint dann folgendes Diagramm, aus welchem der DWD und die anderen CO2-Erwärmungsanhänger weitere Prognosetricks ableiten:

Grafik 4: Mit 1954, dem Startjahr der Betrachtung haben wir ein Jahr in der Kältedelle gewählt, die Trendlinie zeigt eine stetige Fortsetzung der Erwärmung. Dabei verschweigt der DWD nicht nur die Kältedelle, sondern er manipuliert auch noch die Zukunftsbetrachtung.

Trick 4: Das Diagramm ist nur eine Momentaufnahme für den gewählten Zeitraum. Die steigende Trendlinie besagt lediglich, dass es in der Gegenwart wärmer ist als in der Jahrhundertmitte.

Trick 5: Der DWD behauptet nun wie alle C02-Erwärmungsgläubigen, dass diese steigende Trendlinie ein Beweis der Zunahme der Kohlendioxidkonzentration in der Luft wäre. Zufällig gleich laufende Trendlinien sind wissenschaftlich aber kein Beweis. Erst durch einen Bestätigungsversuch muss wissenschaftlich eine kausale Beziehung bewiesen werden.

Trick 6: Es wird behauptet, dass sich die Trendlinie auch in den nächsten Jahrzehnten ungebremst fortsetzen würde. Dabei wird meist noch orakelt, dass es auch viel schlimmer kommen könne. Reine Softwarespielereien sollen diese Zufallsbehauptungen dann bestätigen und die Menschen ängstigen.

Dabei weiß jeder Statistiker, dass die Trendlinie nur für den Zeitraum gilt, der im Diagramm ausgewiesen ist. Eine Trendlinie beschreibt somit die Vergangenheit und keine Zukunft. Doch welcher Reporter unserer ideologisierten Medien weiß das schon?

Jede Trendlinie beschreibt einen Zeitraum der Vergangenheit. Da wir schon erklärt haben, dass die Deutschlandtemperaturen über die letzten 110 Jahre nach einer Sinusschwingung verlaufen und wir momentan den jüngsten Wendepunkt bereits überschritten haben, fragen wir uns stets, bei welchem Zeitpunkt vor dem Wendpunkt wir inzwischen wieder angelangt sind.

Wir wollen also wissen, seit wann die Temperaturen auf diesem neuzeitlichen Wendepunkt der sinusähnlichen Temperaturschwingung stagnieren.

Grafik 5: Die Wintertemperaturen stagnieren seit 30 Jahren, obwohl die letzten 3 Winter relativ mild waren. Nächstes Jahr werden es dann 31 Jahre Stagnation sein.

Diese Stagnation, die jeder Monat zeigt –siehe nächste Grafik- wird von der Führungsriege des DWD sogar bestritten und entgegen den eigenen Daten behauptet, der Trend zur Erwärmung sei ungebrochen. Diese Aussage, die erst jüngst in einer persönlichen mail des Pressesprechers Gerhard Lux einem der Autoren gegenüber gemacht wurde, muss man eigentlich als eine glatte Lüge bezeichnen. Wir möchten aber nicht so hart ins Gericht gehen, es könnte sich auch lediglich um einen Mangel an naturwissenschaftlicher Ausbildung handeln.

Ergebnis: Es gibt keine 60jährige kontinuierliche Erwärmung der deutschen Winter, sondern lediglich einen 30jährigen Anstieg aus der Kältedelle heraus und einen 30jährigen Stillstand.

Seit wann stagnieren die Frühlingstemperaturen?

Antwort: seit 27 Jahren, das zeigt die nächste Grafik. Da wir uns mitten im Frühling befinden, kann der Leser dann selbst mitverfolgen wo sich der Frühling 2016 einreihen wird. Das Ergebnis Ende Mai wird mit ziemlicher Sicherheit lauten: Die Frühlingstemperaturen Deutschlands stagnieren seit 28 Jahren.

Grafik 6: Die Frühlingsmonate stagnieren seit 27 Jahren. Zwar stagnieren März und Mai auch seit 30 Jahren, aber der April hatte seine Kältedelle nicht um die Jahrhundertmitte, sondern über 10 Jahre später. Auch der Temperatur-Wendepunkt der Gegenwart war dann gute 10 Jahre später.

Fazit: Die weniger naturwissenschaftlich ausgebildete Führungsriege des DWD muss als Unterorganisation des Verkehrsministeriums und damit der Bundesregierung Beweise für die gegenüber der Bevölkerung behauptete stetige Erwärmung aufgrund einer CO2-Zunahme abliefern. Das ist der eigentliche Grund, weshalb die seit fast drei Jahrzehnten andauernde Temperaturstagnation der Winter- und Frühlingstemperaturen in Deutschland verschwiegen wird.

Wir möchten zum Schluss nochmals betonen, dass alle Daten die Originaldaten des Deutschen Wetterdienstes sind, und damit nicht wärmeinselbereinigt. Sonst wäre die Stagnation je nach Monat oder Jahreszeit um ein bis zwei Jahre länger. Die zunehmenden Wärmeinseleffekte in den deutschen Temperaturreihen erklären auch, weshalb der neuzeitliche Wendepunkt der sinusähnlichen Temperaturschwingung vor etwa 15 Jahren etwas höher liegt als der Wendepunkt vor 100 Jahren.

Kurze Antwort auf unsere Artikelüberschrift:

Der DWD geht bei Temperaturbetrachtungen immer von den beiden Kältedellen um die Jahrhundertmitte des letzten oder gar des vorletzten Jahrhunderts aus.

Die Temperaturdaten des DWD sind nicht wärmeinselbereinigt.

Josef Kowatsch, Naturbeobachter und neutraler Klimaforscher

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher




Deutschlands erneuerbare Energie in Nöten

Was also ist Energiewende? Es ist ein Konglomerat verschiedener politischer Maßnahmen, die man mit folgendem Plan umschreiben kann: man steige aus der Kernenergie aus, während man Wind und Solar einen Schub verleiht, indem man den Erzeugern langfristig weit über dem Marktpreis liegende Einspeisetarife garantiert. Es war ein Plan, der von Anfang an ungeprüft allen Glaubensmaximen der modernen grünen Bewegung gefolgt ist – und bei jedem Schritt gab es massive Probleme.

Die Einspeisetarife dienen als Gesamtsubvention zur Unterstützung der Energiewende, und die Ausweitung erneuerbarer Energien im Jahre 2014 kostete etwa 24 Milliarden Euro. Für das Jahr 2015 wurden Kosten um 27 Milliarden Euro projiziert.

Und trotz all dem zeigen die CO2-Emissionen von Deutschland während der letzten 7 Jahre einen leichten Aufwärtstrend einschließlich eines Anstiegs um 1% im Jahre 2015.

Dies wurde als „ein Schlag gegen die Behauptungen des Landes, Führer in punkto Klima zu sein“ bezeichnet. Verbraucher, die einst gedacht hatten, dass es nicht viel kosten würde, zahlen inzwischen mit die höchsten Strompreise weltweit. Hunderttausenden Haushalten wurde mittlerweile der Strom abgestellt, weil diese nicht mehr in der Lage waren, die Rechnung zu zahlen (1).

Deutschlands Stromnetz ist jetzt instabiler als während vieler Jahrzehnte zuvor. Diese Tatsache zusammen mit den hohen Strompreisen vertreibt immer mehr die Industrie.

Und es könnte noch schlimmer kommen! Im Zuge der pathetischen Erklärungen der Paris-Konferenz, die globalen CO2-Emissionen zurückzufahren, war eine ganze Anzahl von hochrangigen Bürokraten im Umweltministerium der deutschen Regierung eifrig dabei, sich ein ,radikales Gesetz‘ unter der Bezeichnung ,Klimaschutz 2050′ auszudenken, um Deutschland bis zum Jahr 2050 nahezu frei von Kohlenstoff zu machen. Aber schon jetzt ist dieses Gesetz unter schwerem Beschuss ob seines Extremismus‘ und seiner zunehmenden Realitätsferne.

Sollte der Entwurf in Kraft gesetzt werden, würde es höhere Mietpreise für Appartements und höhere Steuern bedeuten. Außerdem würden Hausbesitzern gesetzlich Renovierungen vorgeschrieben, es würde Geschwindigkeitsbegrenzungen und massive Kostensprünge für industrielle Unternehmungen bedeuten, berichtete Daniel Wetzel. Das Gesetz verlangt außerdem, bis zum Jahr 2050 Verbrennungsmotoren in Fahrzeugen zu verbieten, was bedeutet, dass nach dem Jahr 2030 keine solche Fahrzeuge mehr verkauft werden würden.Bereits heute ist der deutsche Plan, bis zum Jahr 2020 eine Million [Elektro-]Autos auf die Straße zu bringen, erst zu etwa 2% erfüllt, da es kaum Interessenten für diese Fahrzeuge gibt (3).

Dann sind da noch Dinge wie Korruption, Korrosion und technische Pannen.

Eine hitzige Debatte über Windparks kocht gerade in Nordwestdeutschland hoch. Anwälte fangen jetzt mit Ermittlungen gegen die Profiteure von Big Wind an, gegen Energie-Gelder und wie Windparks Kommunen teilen (4).

Offshore-Windturbinen in Nord- und Ostsee müssen 25 Jahre in Betrieb bleiben, bevor sie profitabel werden, aber sie sind anfällig für eine viel kürzere Lebensdauer infolge der rauen Meeresumgebung. Als Folge davon benötigen die installierten Windturbinen zusätzliche und sehr kostspielige Wartungen um sicherzustellen, dass sie lange genug in Betrieb bleiben. Diese Wartungs- und Reparaturkosten addieren sich zu hundert mal die Kosten für die neue Turbine selbst (5).

In einem anderen Fall kämpft ein großer Windpark mit massiven technischen Problemen und wird daher kaum in der Lage sein, demnächst Strom in das Netz einzuspeisen. Das gigantische Offshore-Windfeld Riffgat hat seit November vorigen Jahres keinerlei Strom mehr erzeugt, berichtet Pierre Gosselin (6).

Mit dem Gesetz zu Einspeisetarifen für erneuerbare Energie und mit den sehr volatilen Quellen Wind und Sonne wurde [die Sicherung des] deutschen Stromnetzes inzwischen zu einem prekären Balanceakt, und es infolge wilder Fluktuationen vom Kollaps fernzuhalten, ist zu einer echten Herausforderung geworden. Im Jahre 2014 gab es über 3500 Notfall-Eingriffe in das Netz. Die Häufigkeit dieser Eingriffe ist explosionsartig gestiegen, nachdem erneuerbare Energien online gekommen sind. Mehr als nur ein paar Tage mit einem Blackout wären eine nationale Katastrophe (7).

Aber es ist nicht nur Deutschland. Die einst weltführende saubere Technologie in Europa befindet sich im rasanten Sinkflug, wobei Investitionen in Low-Carbon-Energie auf das niedrigste Niveau seit Jahrzehnten gefallen sind. Noch im Jahre 2010 machten die europäischen Investitionen 45% der globalen Investitionen in saubere Energie aus. Nach einem Spitzenwert von 132 Milliarden Dollar im Jahre 2011 ist dieser Anteil im Jahre 2015 um über die Hälfte auf 18% gefallen, oder auf 58 Milliarden Dollar (8).

Die europäischen Produzenten haben durch diesen massiven Absturz ebenfalls gelitten. War die EU zu Beginn dieses Jahrtausends noch weltführend bei der Herstellung von Solarpaneelen, befindet sich jetzt kein einziges Unternehmen der EU mehr unter den Top 10. Im vorigen Jahr avancierte das chinesische Unternehmen Goldwind zum weltgrößten Hersteller von Windturbinen und ließ die europäischen Unternehmen weit hinter sich.

References

1. P. Gosselin, “Grand debacle: Germany’s renewable energy effort turning into a colossal costly and senseless failure,” notrickszone.com, March 17, 2016
2. “Germany’s Energiewende finds the sour spot,” the-american-interest.com, June 30, 2015
3. P. Gosselin, “Paris fallout,” notrickszone.com, March 21,2016
4. P. Gosselin, “German authorities open investigation into wind energy corruption,” notrickszone.com, February 9, 2016
5. P. Gosselin, “Offshore wind turbine maintenance cost fiasco: 100 times more expensive than a new turbine itself,” notrickszone.com, February 2, 2016
6. P. Gosselin, “Unreliable power: major technical failure sidelines another offshore wind park, adding to the exploding costs,” notrickszone.com, February 4, 2016
7. P. Gosselin, “German power grid more vulnerable than over….on the brink of widespread blackouts,” notrickszone.com, September 24, 2014
8. Fiona Harvey, “European clean tech industry falls into rapid decline,” the guardian.com, March 23, 2016

Link: http://canadafreepress.com/article/germanys-renewable-energy-woes

Übersetzt von Chris Frey EIKE