1

Wo bleibt der Meeres-Anstieg ? Verlangsamung statt Beschleunigung !

Siehe auch Video zum Meeresspiegel in Kirbati, Tuvalu und anderen Inseln am Ende dieses Beitrages

(1)  Neues von den Nordsee-Pegeln:

      Keine säkulare Beschleunigung !

Im September 2013 ist in Earth-Science-Reviews eine Arbeit [6] erschienen, in der ein internationales Autoren-Team die Meeres-Spiegel-Trends von Nordsee-Pegeln auswertete. 

                                                         Abbildung 1

          Karte und Chronologie der Nordsee-Pegel [6]

Analysiert wurden rund um die Nordsee-Küsten die Aufzeichnungen von 30 Pegeln, von denen einige bis zu 200 Jahre zurück reichen, die Mehrzahl zumindest um die 100 Jahre – eine belastbare Daten-Basis.

Bei regionalen Untersuchungen und Aussagen zu Pegel-Trends wie hier in der Nordsee ist es wichtig, auch die isostatischen und eustatischen Trends der Küsten-Regionen einzubeziehen, um die absoluten Trends (AMSL) von den relativen Trends (RMSL) zu unterscheiden. Dieses wurde in der Studie berücksichtigt: "Furthermore, advanced models and geodetic techniques now allow a more accurate separation of AMSL and RMSL changes." Auf verbleibende Unsicherheiten wird dabei hingewiesen.

Das zusammengefaßte Ergebnis:

"The long-term geocentric mean sea level trend for the 1900 to 2011 period is estimated to be 1.5 ± 0.1 mm/yr for the entire North Sea region." Folglich: Der aktuelle Trend beträgt 15 cm in 100 Jahren.

 

Abbildung 2

                   Säkulare Registrierungen der Nordsee-Pegel [6]

                                                          Abbildung 3

        Pegel-Registrierungen: Vergleich von Nordsee und Weltmeeren [6]

Die Abbildung 3 zeigt:

"Long-term sea level trends in the North Sea are similar to global long-term trends …".

….u n d  etwas differenzierter:

"In summary the long term trends in the North Sea are not significantly different from global sea level trends, while the inter-annual and decadal variability are much bigger in the North Sea and hardly comparable to those derived from the global sea level reconstruction considered here."

 Mit anderen Worten:

Die Variationen der Pegel über Jahre und Dekaden sind in der Nordsee größer als auf den Welt-Meeren, aber der Trend unterscheidet sich nicht: Weder die Anstiegsraten noch der Anstieg selber zeigen eine Beschleunigung.

 Für die alarmistischen Meeres-Szenarien im Rahmen der Klima-Debatte ist das Ergebnis nahezu ein Desaster, denn es wird festgestellt, daß es überhaupt keinen Trend zu einer Beschleunigung des Anstieges gibt, weder säkular noch in den letzten Dekaden:

"The recent rates of sea level rise (i.e. over the last two to three decades) are high compared to the long-term average, but are comparable to those which have been observed at other times in the late 19th and 20th century."

 Folglich:  Es gibt Variationen, aber keine säkulare Beschleunigung !!!

Desweiteren werden in der hier besprochenen Arbeit verschiedene mögliche Ursachen für die säkularen Variationen des Meeresspiegels diskutiert, wie z.B. meteorologische Effekte, variable Meeres-Ströme, eine "quasi 60-year-oscillation in global mean sea level"  – aber abschließend heißt es: "However, the question what are the driving factors of such fluctuations remains unanswered."

Dabei bleiben für AGW-Klima-Spekulationen "Räume", aber keine Beweise, noch nicht einmal Korrelationen.

Die Ergebnisse stehen in völliger Übereinstimmung mit früheren Studien zu den Nordsee-Pegel, z.B. (nachzitiert a.a.O.):

"The last detailed regional study was by Shennan and Woodworth [7]. They used tide gauge and geological data from sites around the North Sea to infer 20th century and late Holocene secular trends in MSL. They concluded that a systematic offset of 1.0 ± 0.15 mm/yr in the tide gauge trends compared to those derived from the geological data could be interpreted as the regional geocentric rate of MSL change in the 20th century. They also constructed a sea level index to represent the coherent part of sea level variability in the region and found no evidence for a statistically significant acceleration in the rates of SLR over the 20th century. These results were in agreement with those of Woodworth (1990), who found a significant acceleration in the order of 0.4 mm/yr per century when focusing on time scales longer than a century (up to 300 years) but not for the 20th century.

Mit anderen Worten:

Wenn es überhaupt eine Beschleunigung gab, dann in früheren Jahrhunderten, jedoch nicht in der Zeit des 20. Jahrhunderts, in welcher der angeblich anthropogen verursachte Klima-Wandel begonnen haben soll ! Eine Klatsche für die Alarmisten!

Die Federführung des internationalen Autoren-Teams um Thomas Wahl lag bei der Universität Siegen, die dazu im Juli 2013 eine Presse-Mitteilung heraus gab [8]. Darin redet der Projekt-Leiter der Arbeit, Prof. Dr. Jürgen Jensen, Leiter des Forschungsinstituts Wasser und Umwelt (fwu) im Department Bauingenieurwesen an der Universität Siegen, Klartext:

 "Es gibt ein relativ konstantes Anstiegsverhalten des Mittleren Meeres-Spiegels seit Beginn des 20. Jahrhunderts, aber keinen außergewöhnlichen Anstieg in den letzten Jahrzehnten, den wir direkt dem Klimawandel zuschreiben könnten.“

(2)  Pegel in der Deutschen Bucht

 Schon 2011 sind von WAHL [9]  et al. Auswertungen von Nordsee-Pegeln publiziert worden, und zwar für die Deutsche Bucht (Abb. 4) :

                                                      Abbildung 4

Auswertung von Küsten-Pegeln in der Deutschen Bucht (Daten [9])

Auch in dieser Auswertung ergibt sich:

Es wird in den zum Teil bis 160 Jahre zurück reichenden Pegeln keine Beschleunigung des Meeres-Anstieges beobachtet, eher eine leichte Abschwächung, wie das Polynom beweist.

(3)  Globale Messungen

Auswertungen und Zusammenstellungen globaler langer Pegel-Messungen zeigen immer wieder das gleiche Ergebnis  [10]:

"Die verfügbaren Pegel zeigen global im 20. Jahrhundert einen Anstieg von etwa 16 bis 18 cm, deutlich weniger als in den Jahrhunderten davor. Eine Beschleunigung des Anstieges ist nicht erkennbar, bei der überwiegenden Zahl der Auswertungen zeigt sich eher eine Abschwächung. Ein anthropogenes Signal des Meeresspiegel-Anstieges ist nicht zu finden!"

Seit etwa 20 Jahren wird der Meeres-Anstieg von Satelliten aus mit Altimetern gemessen: 

                          Abbildung 5

                       Auswertung von Satelliten-Altimetern ; Daten: [11]

Selbst in diesen zwei jüngsten Dekaden ist keine Beschleunigung zu erkennen, sondern eine Abschwächung (Abb. 5).

Zum gleichen Ergebnis kommt eine andere Auswertung (Abb. 6):

Abbildung 6

Auswertung von Satelliten-Altimetern ; Daten: [12]

Dazu werden international renommierte Institute zitiert [13]:

"Die höheren Anstiegsraten seit 1993 seien nichts Außergewöhnliches, meint Guy Wöppelmann von der Université de La Rochelle in Frankreich. Im 20. Jahrhundert habe sich der Meeresspiegel-Anstieg zuvor schon mal ähnlich beschleunigt; doch dann verlangsamte er sich wieder. Ähnliches geschehe nun wieder, sagt Eduardo Zorita vom GKSS-Institut für Küstenforschung:

In den vergangenen acht Jahren habe sich der Anstieg der Ozeane abgeschwächt; wie es weitergehe, sei ungewiss."

Noch deutlicher wird die  "Entschleunigung" des Meeres-Anstieges in jüngerer Zeit, wenn man – zeitlich aufeinander folgend und übergreifend gemittelt – die Anstiegsraten betrachtet (Abb. 7) :

Abbildung 7

                  Anstiegs-Raten 1993-2011 [14]

(4)  GRACE-Satelliten bestätigen Pegel-Messungen

Schwerkraft-Messungen mit Satelliten [15] bestätigen die Pegel-Messungen:

"Eine neue Studie, erstellt mit den GRACE-Daten (Gravity Recovery And Climate Experiment) zeigt, dass der Meeresspiegel während der letzten 9 Jahre mit einer Rate von nur 1,7 mm pro Jahr gestiegen ist. Das ergibt ein Äquivalent von 6,7 Inches (fast 17 cm) pro Jahrhundert. Dies passt gut zu Messungen an Pegeln. Die Studie bestätigt das Sea-Level-Budget von NOAA 2012 [16], dem zufolge der Meeresspiegel nur um 1,1 bis 1,3 mm pro Jahr während der vergangenen 7 Jahre von 2005 bis 2012 gestiegen ist. Sie bestätigt auch die Ergebnisse einer Studie von Chambers et al. [17], dass nämlich "der Meeresspiegel im Mittel während der letzten 110 Jahre um 1,7 mm pro Jahr gestiegen ist“.

(5)  Satelliten-Daten TOPEX+JASON

      versus Pegel-Messungen

Die weltweiten Pegel-Messungen (Abb. 2 – 7 ; und weitere [18]) sowie die Schwerkraft-Messungen (GRACE) zeigen einen mittleren jährlichen Anstieg von 1,5 – 1,7 mm pro Jahr, also säkular 15-17 cm.

Demgegenüber ergeben die Satelliten-Daten mit 3,2 mm pro Jahr (Abb.8) nahezu doppelt so hohe Werte. 

Das ist widersprüchlich und grotesk. Untersuchungen dazu kommen zu diesem  Ergebnis [19]:

"Dabei ging er insbesondere der Frage nach, warum Pegelmessungen nur einen Anstiegswert von etwa 2,0 mm pro Jahr oder weniger zeigen (…), während Satellitendaten mit 2,8 mm/Jahr fast einen Millimeter höhere Wert anzeigen. Homewood überprüfte dazu eine Reihe von Küstenpegelmessungen und kam zu folgendem Ergebnis:

„Meine Analyse ergab keinen Hinweis auf eine kürzliche Beschleunigung der langjährigen Meeresspiegel-Anstiegsrate. Die Anstiegsrate beträgt noch immer 2 mm pro Jahr oder sogar weniger.".

Und an anderer Stelle [20]:

"…wurden an den Küsten der Erde Messlatten eingerammt (Anm.: Pegel) , die seit vielen Jahrzehnten regelmäßig abgelesen werden. Die Daten sprechen eine klare Sprache. Seit mehr als 50 Jahren steigt der Meeresspiegel im globalen Durchschnitt um knapp 2 mm pro Jahr an. Eine Beschleunigung dieses Anstiegs ist jedoch nicht verzeichnet worden, trotz der jetzt um einige Zehntelgrade höheren Temperaturen."

Es gibt aber noch einen anderen Aspekt zu den "seltsamen" systematischen Unterschieden zwischen den Satelliten-Messungen (ca. 3 mm/Jahr) und den globalen Pegel-Messungen (unter 2 mm/Jahr) :

Die Satelliten-Daten wurden mehrfach "nach oben hin korrigiert", nachdem diese Daten ab 1992 und auch noch später zunächst sogar niedrigere Werte anzeigten als die globalen Pegel.

In einer Untersuchung dazu [21] heißt es: 

"Der “Environmental Satellite” (Envisat) ist so etwas wie das Prunkstück der European Space Agency (ESA). …  Der von Envisat gemessene Anstieg des Meeresspiegels betrug im Zeitraum von Ende 2003 bis Ende 2011 lediglich 0,48 mm/Jahr, was 4,8 cm in 100 Jahren entsprechen würde. Die Messungen des Jason-1 Satelliten haben für den gleichen Zeitraum einen Anstieg von 2,05 mm pro Jahr gefunden. Um diesem Umstand zu begegnen wurden bei der ESA bereits im letzten Jahr Methoden diskutiert, wie man die Envisat Daten rechnerisch an die Ergebnisse der Messungen der Jason Satelliten angleichen kann. Diese Anpassung wurde jetzt beim Umstellen auf die neueste Version der Envisat Daten (Version 2.1) offensichtlich vorgenommen. Aus dem bisherigen minimalen Anstieg von 0,48 mm/Jahr wurde dadurch quasi über Nacht ein Anstieg von 2,32 mm/Jahr  

Anpassungen dieser Art sind in der noch jungen Geschichte der Satelliten-Altimetrie nichts Ungewöhnliches. Wobei man sich im jeweiligen Fall durchaus die Frage stellen muss, ob die vorgenommenen Korrekturen nun die Wirklichkeit besser widerspiegeln, oder ob sie vorgenommen werden, damit die Ergebnisse besser zu einer vorgefertigten Meinung passen." 

Eine andere Recherche kommt zu diesem Ergebnis [22]:

"Wenn man die Entwicklung der Trends bei den Satellitendaten in den letzten 10 Jahren betrachtet, dann drängt sich einem der Eindruck auf, es soll nach Kräften verhindert werden, dass die publizierten Daten unter einen Wert fallen, der dann nicht mehr als besorgniserregend wahrgenommen würde.

Kaum anders ist es zu erklären, dass die Satellitenmessungen der University of Colorado trotz des seit mittlerweile fast 7 Jahre andauernden Rückgangs des Anstiegs unvermindert hohe Werte von über 3 mm Anstieg pro Jahr angeben. Und auch die aktuell bei den Daten des europäischen Envisat-Projektes vorgenommenen Korrekturen folgen nicht nur dem altbekannten Schema, dass diese Maßnahmen ausnahmslos in eine Richtung weisen, und zwar zu höheren Werten. Auch die Begründung, welche die Wissenschaftler anbieten trägt mehr zur Verschleierung bei, als dazu aufzuklären, warum ein so fundamentaler Eingriff in die Daten vorgenommen werden musste. 

Was bleibt ist der Eindruck, dass hier Daten systematisch “schöngerechnet” werden. Schließlich steht der nächste Zustandsbericht des Weltklimarates (IPCC) für das Jahr 2014 an. Und dieser kann seine volle Wirkung nur entfalten, wenn alles sich noch viel schlimmer darstellt, als man im letzten Report 2007 bereits gesichert wusste. Ein seit Jahren langsamer werdender Anstieg des Meeresspiegels wäre hierzu ganz sicher nicht hilfreich." 

In einer Graphik lässt sich das so zusammen fassen (Abb. 8) :

                       Abbildung 8

Messungen von globalen Küsten-Pegeln gegenüber Satelliten

([23] ;Textfelder ergänzt) 

Die erhebliche Diskrepanz zwischen Sat-Daten und Pegeln ist bis heute u.E. nicht geklärt [24]:

"Trotz der neuen Satellitenmessungen wurden die Pegelmessungen natürlich weitergeführt. Und die ließen sich nicht beirren und blieben stur bei ihrem alten Kurs von deutlich unter 2 mm/Jahr. Anstatt die Satellitendaten nun an die real am Boden gemessenen Daten anzupassen und nach unten zu korrigieren, besteht die Diskrepanz zwischen Pegel- und Satellitenmessungen aber leider bis heute weiter. Und es scheint irgendwie auch niemanden zu stören. Ein mysteriöser Fall."

(6)  SPIEGEL: "Feilschen wie auf dem Basar"

Bemerkenswert ist u.E. noch, was DER SPIEGEL [25] unter dem Titel "Klimarat feilscht um Daten zum Meeresspiegel-Anstieg" über die Art und Weise der "Entstehung" von Meeres-Spiegel-Prognosen beim IPCC von einer diesbezüglichen Tagung  der Meeresspiegel-Forscher (Juli 2011) berichtet :

"Viele Milliarden Euro stehen auf dem Spiel: Ein Uno-Gremium entscheidet über die Prognose zum Anstieg der Ozeane – sie bestimmt, wie viel Steuergeld  die Staaten in den Küstenschutz pumpen müssen. Hunderte Studien werden verhandelt, es geht zu wie auf einem Basar."

Und weiter a.a.O. :

"Das Feilschen um die Ergebnisse gleicht dem Handel auf einem Basar:

Auf der einen Seite haben Forscher alarmierende Meeresspiegel-Prognosen veröffentlicht, die die Angaben des letzten Uno-Klimareports weit übertreffen.

Demgegenüber stehen tatsächliche Messungen des Meeresspiegels: Sie lassen bislang keinen extremen Anstieg erkennen.""4000 Experten diskutierten auf der IUGG-Tagung von Ozeanforschern im australischen Melbourne ihre Ergebnisse. Mitunter lautet dabei die Maxime: "Wer bietet mehr?" "Der Klimaforscher James Hansen von der Nasa zum Beispiel warnt in einem aktuellen Papier vor einem Anstieg der Meere um fünf Meter in den nächsten 90 Jahren – er verneunfacht damit die Schätzung des Höchstszenarios aus dem letzten Uno-Klimareport. Der Nasa-Forscher riskiere mit der Extremprognose seine Glaubwürdigkeit, meinen manche Klimatologen." 

Bei dieser Art von "BASAR" gibt es allerdings auch nüchterne sachliche Stimmen (a,a,O.):

"Die höheren Anstiegsraten seit 1993 seien nichts Außergewöhnliches, meint Guy Wöppelmann von der Université de La Rochelle in Frankreich. Im 20. Jahrhundert habe sich der Meeresspiegel-Anstieg zuvor schon mal ähnlich beschleunigt; doch dann verlangsamte er sich wieder. Ähnliches geschehe nun wieder, sagt Eduardo Zorita vom GKSS-Institut für Küstenforschung: In den vergangenen acht Jahren habe sich der Anstieg der Ozeane abgeschwächt; wie es weitergehe, sei ungewiss."

Dieses alles hat den Klimarat nicht davon abgebracht, gegen alle früheren und aktuellen Meßdaten nun im IPCC-Bericht 2013/14 eine weitere Beschleunigung des Meeres-Anstieges für die nächsten 100 Jahre zu prognostizieren, nachdem man in den Berichten davor Schritt um Schritt eine weitgehende Anpassung an die Meß-Realität vorgenommen hatte (Abb. 9) :

Abbildung 9

IPCC-Prognosen zum Meeres-Anstieg 

(7)  Vertrauens-Krise der IPCC-Institute

       auch beim Meeres-Spiegel 

Mit dem "Climate-Gate-Skandal" begann 2009 eine schwere Vertrauens-Krise [26] des IPCC, die bis heute anhält.

Dieser Vertrauens-Verlust in die IPCC-Prognosen zeigt sich immer wieder auch bei den von einigen Instituten verbreiteten Phantastereien zu gigantischen Meeresspiegel-Anstiegen, wovon DER SPIEGEL berichtet [27]:

"4000 Experten diskutierten auf der IUGG-Tagung von Ozeanforschern im australischen Melbourne ihre Ergebnisse. Mitunter lautet dabei die Maxime: "Wer bietet mehr?"

Der Klimaforscher James Hansen von der Nasa zum Beispiel warnt in einem aktuellen Papier vor einem Anstieg der Meere um fünf Meter in den nächsten 90 Jahren – er verneunfacht damit die Schätzung des Höchstszenarios aus dem letzten Uno-Klimareport. Der Nasa-Forscher riskiere mit der Extremprognose seine Glaubwürdigkeit, meinen manche Klimatologen."

…und weiter a.a.O.:

"Diese Woche eskalierte die Diskussion. Die Geoforscher Jim Houston vom Engineer Research Center in Vicksburg und Bob Dean von der University of Florida in Gainsville in den USA legten im Fachblatt "Journal of Coastal Research" überraschend dar, dass der Meeresspiegel während des vergangenen Jahrhunderts ziemlich gleichbleibend angestiegen sei – eine Beschleunigung sei nicht zu erkennen."

So kann es nicht verwundern, daß Planer beim Küstenschutz derartigen Prophezeiungen keinen Glauben mehr schenken. Daher werden auch Stefan Rahmstorf und das PIK mit derartigen Extrem-Prognosen zum Meeres-Spiegel international kaum noch ernst genommen [28]:

"Unter sorgfältiger Abwägung aller verfügbaren Informationen entschied der Senat von North Carolina im Juni 2012 mit 35 zu 12 Stimmen, dass bei Küstenschutzplanungen zukünftig mit der historisch gut dokumentierten Meeresspiegel-Anstiegsrate kalkuliert werden muss. Eine Beschleunigung wie sie von der Rahmstorf-Gruppe für die Zukunft postuliert wird, soll nicht eingerechnet werden. (Siehe Berichte auf junkscience, Climatewire, WUWT, John Droz Jr.).

Das Gesetz wurde Anfang Juli 2012 auch vom Repräsentantenhaus von North Carolina abgesegnet. … Die republikanische Politikerin Pat McElraft hatte sich für die beschlossene Regelung eingesetzt und erklärte, dass sie eine zukünftige starke Beschleunigung des Meeresspiegelanstiegs als unrealistisch ansieht und dies lediglich Vermutungen darstellen."

Die Vertrauenskrise des IPCC ist mittlerweile auch in den deutschen Medien [29] angelangt:

"Wenn bald über die Verlierer des Jahres nachgedacht wird, stehen die Klimaforscher auf vielen Listen si­cher weit oben. … Stocker [30] war schon einige Wochen vorher bei der Vorstellung seines IPCC-Berichts prak­tisch baden gegangen, weil er der Öf­fentlichkeit und Politik vergeblich zu vermitteln versuchte, dass die jahrelan­ge Quasi-Stagnation der Welttempera­tur, der „Hiatus“, von der Klimapolitik ausgeklammert werden sollte. … Die Lo­gik der Politik ist aber eine andere:  Wenn die Klimaforschung schon so gravierende Schwankungen der Gegen­wart nicht auf ihrer Rechnung hat, wie sollen wir ihr dann die Prognosen für die nächsten hundert Jahre abneh­men ?"

DER SPIEGEL [31] macht bereits einen "Abgesang" auf den Klimarat:

"Der Ehrentag des Klimarats der Vereinten Nationen (IPCC) wurde am Freitag mit einer spärlich besuchten Pressekonferenz in der georgischen Stadt Batumi (Anm.: 18.10.2013) begangen … Zum 25. Geburtstag kamen kaum Gäste, es wurde nur Wasser gereicht … Es wirkte wie ein Abgesang auf jene Organisation, die 2007 immerhin mit dem Friedensnobelpreis geehrt wurde.  Einen weiteren großen Klimareport wird es womöglich nicht mehr geben."

F a z i t :
Die ständigen Alarm-Meldungen zu angeblich dramatischen Meeres-Spiegel-Anstiegen in Gegenwart und Zukunft können durch Messungen nicht bestätigt werden, sondern sind durch die Datenlage sogar zu widerlegen. Weltweit zeigen weder die Pegel-Daten noch die Satelliten-Daten eine Beschleunigung des Meeres-Spiegel-Anstieges, statt dessen eine Abschwächung. Das steht in krassem Widerspruch zu früheren und derzeitigen Aussagen von etlichen Klima-Instituten, der Klima-Modelle sowie des Klimarates IPCC. Darüber hinaus gibt es Anhalts-Punkte dafür, daß die Satelliten-Daten zu höheren Beträgen hin "über-korrigiert" wurden. 

Klaus-Eckart Puls,  EIKE

Weil es thematisch so gut passt, zeigen wir im Folgenden ein Video von Rainer Hoffmann. Es dokumentiert in knapp 32 Minuten, dass weder Klimawandel und/oder Meeresspiegelanstieg noch ein Tsunami für die Zerstörung des Dorfes auf einer Kiribati Insel im Jahr 2004 verantwortlich war, sondern die Zerstörung des Dorfes auf einen historischen Eingriff der Inselbewohner von Abaiang vor ca. 70 Jahren zurückzuführen ist.

Das Video dokumentiert auch, mit welchen abenteuerlichen Behauptungen und wider besseres Wissen manche "Journalisten" durch die Medienlandschaft geistern  um ihre Ideen von der "Klimaschuld" der Industrieländer an den Mann zu bringen. Ferner zeigt es am Schluss auf, dass auf den Inseln wie den Malediven, Tuvalu und diversen anderen, seit einigen Jahrzehnten, kein Anstieg des Meeresspiegels zu verzeichnen war.

Q u e l l e n :

[1] DER SPIEGEL, Nr. 25, 17. Juni 2013, S.108-110, SPIEGEL-GESPRÄCH mit Hans von STORCH, "Wir stehen vor einem Rätsel: Seit 15 Jahren steigen die Temperaturen nicht mehr an"

[2] "Aktuell zur Durban-UN-Klimakonferenz Neuer IPCC Bericht: Zunahme von Extremwetterlagen?" 23.11.2011; http://www.eike-klima-energie.eu/news-cache/aktuell-zur-durban-unklimakonferenz-neuer-ipcc-bericht-zunahme-von-extremwetterlagen/

[3] "So viel Meereis in der Antarktis wie seit 30 Jahren nicht mehr" ; 26. Oktober 2013 ; http://www.kaltesonne.de/?p=13913

[4] "Wo bleibt denn nur die Arktis-Schmelze ?" ; 01.10.2013 ; http://www.eike-klima-energie.eu/news-cache/wo-bleibt-denn-nur-die-arktis-schmelze/

[5] SPIEGEL: KLIMA – Ratloses Orakel; 21.09.2013; http://www.spiegel.de/spiegel/print/d-113750868.html

[6] T. Wahla, et al.: "Observed mean sea level changes around the North Sea coastline from 1800 to present" ; Earth-Science Reviews ; Volume 124, September 2013, Pages 51–67; http://www.sciencedirect.com/science/article/pii/S0012825213000937

[7] Shennan, I., Woodworth, P.L., 1992. A comparison of late Holocene and twentieth century sea-level trends from the UK and North Sea region. Geophys. J. Int. 109, 96–105.

[8] "Die Ergebnisse geben uns eine gewisse Planungssicherheit für den Küstenschutz"; Aktualisiert via XIMS am 18.07.2013, von K.Knoche;  http://www.unisiegen.de/start/news/forschung/536040.html

[9] (1) Albrecht, F., T. Wahl, J. Jensen and R.Weisse (2011); Determinig sea level change in the German Bight, Ocean Dynamics, doi:2010.1007/s10236-011-0462-z

(2) Wahl, T., Jensen J., Frank, T. and Haigh, I.D. ; (2011) Improved escmates of mean sea level changes in the German Bight over the last 166 years, Volume 61, Number 5, 701-705

[10] “Anthropogener“ Meeresspiegelanstieg – vom Konstrukt zur Panik?" Naturw. Rdsch. 61 (2008), H.11, S. 566-574

[11] http://sealevel.colorado.edu/

[12] http://www.aviso.oceanobs.com/en/news/ocean-indicators/mean-sea-level/

[13] SPIEGEL: "Klimarat feilscht um Daten zum Meeresspiegel-Anstieg" ; 14.07.2011 ;  http://www.spiegel.de/wissenschaft/natur/0,1518,774312,00.html

[14] http://wattsupwiththat.com/2012/09/13/sea-level-acceleration-not-so-fast-recently/#more-70961 ; 13.09.2012 ; data available from http://sealevel.colorado.edu/

[15] Paulson, A., Zhong, S. and Wahr, J. 2007. Inference of mantle viscosity from GRACE and relative sea level data. Geophysical Journal International 171: 497-508 ; und :

http://www.eike-klima-energie.eu/news-cache/neue-studie-mittels-grace-daten-meeresspiegel-steigt-um-weniger-als-17-cm-pro-jahrhundert/ ; 09.07.2013

[16] http://hockeyschtick.blogspot.de/2012/12/noaa-2012-report-finds-sea-levels.html

[17] http://www.agu.org/pubs/crossref/pip/2012GL052885.shtml

[18] (1) http://wattsupwiththat.com/2012/05/16/is-sea-level-rise-accelerating/ und:

        (2) http://www.kaltesonne.de/?p=4429

[19] nachzitiert nach http://www.kaltesonne.de/?p=4429

[20]  http://www.kaltesonne.de/?p=4544

[21]  http://www.science-skeptical.de/blog/was-nicht-passt-wird-passend-gemacht-esa-korigiert-daten-zum-meeresspiegel/007386/

[22]  http://www.kaltesonne.de/?p=4544

[23]  http://climatesanity.wordpress.com/2011/06/06/deception-from-nasa-satellites-are-true-cause-of-sea-level-rise/

[24] http://www.kaltesonne.de/?p=4544 ; 14. Juli 2012

[25] SPIEGEL: "Klimarat feilscht um Daten zum Meeresspiegel-Anstieg" ; 14.07.2011 ; http://www.spiegel.de/wissenschaft/natur/0,1518,774312,00.html

[26] http://laufpass.com/ausgaben/eBook/eBook_0210/flash.html ; Nr.24 (2010), S. 8-13 ;    u n d  

http://www.eike-klima-energie.eu/climategate-anzeige/vertrauen-in-welt-klima-rat-im-freien-fall-die-irrungen-wirrungen-und-manipulationen-des-ipcc-ein-update/ ; 08.06.2010

[27] http://www.spiegel.de/wissenschaft/natur/0,1518,774312,00.html ; "Klimarat feilscht um Daten zum Meeresspiegel-Anstieg" ; 14.07.2011

[28] http://www.kaltesonne.de/?p=4506 ; 12. Juli 2012

[29] FAZ, 27.11.2013, "Durchhaltemodelle"

[30] Thomas Stocker, Sitzungsleiter des Klimara­tes auf der IPCC-Tagung in Stockholm, Sept. 2013

[31] SPIEGEL: Uno-Forscher wollen große Klimaberichte abschaffen ; 18.10.2013 ; http://www.spiegel.de/wissenschaft/natur/umbau-des-uno-klimarats-klimabericht-des-ipcc-arbeitsgruppe-2-a-928717.html

 Artikel als PDF : 

Anhang ggf. runter laden

Related Files




„Deutschlands Zukunft gestalten?“ Der Koalitionsvertrag verspielt sie stattdessen. Eine energiepolitischen Analyse der Vorstellungen der Schwarz-Roten Koalition

Die energiepolitischen Vorstellungen der Schwarz-Roten Koalition

eine Analyse

Auf den Seiten 49 bis 61 des Koalitionsvertrags formulieren die Koalitionäre ihre Vorstellungen zur aktuellen Energiepolitik. Die ersten Sätze lauten:

„Die Energiewende ist ein richtiger und notwendiger Schritt auf dem Weg in eine Industriegesellschaft, die dem Gedanken der Nachhaltigkeit und der Bewahrung der Schöpfung verpflichtet ist. Sie schützt Umwelt und Klima, macht uns unabhängiger von Importen, sichert Arbeitsplätze und Wertschöpfung in Deutschland. Eine der Hauptaufgaben der Großen Koalition ist es deshalb, engagierten Klimaschutz zum Fortschrittsmotor zu entwickeln und dabei Wohlstand und Wettbewerbsfähigkeit zu stärken.“

Diese Formulierung wirft eine Reihe von Fragen auf, die hier nachfolgend zur Diskussion gestellt werden sollen.

Es wird also eine Industriegesellschaft angestrebt, die den Gedanken der Nachhaltigkeit und der Bewahrung der Schöpfung in den Vordergrund stellt. Weiter heißt es, das deshalb engagierter Klimaschutz zum „Fortschrittsmotor“ entwickelt werden soll und dabei (gewissermaßen als Nebenprodukt) Wohlstand und Wettbewerbsfähigkeit gestärkt werden sollen. An sich sollte man von einem Regierungsprogramm erwarten, dass die letzteren Punkte im Vordergrund stehen und auf dem Weg dahin, so wie es etwa in den 50iger Jahren galt, der Umweltschutz in Bezug auf Wasser- und Luftreinhaltung eine große Bedeutung haben muss.

Bemerkenswerter Weise ist in dem ganzen Dokument von diesem jedermann als für die Lebensqualität wichtigen, ursprünglichen  Umweltschutzgedanken keine Rede mehr. An die Stelle dieses auf den Menschen bezogenen Umweltschutzes tritt jetzt der Gedanke an die „Bewahrung der Schöpfung“, zu der der Mensch angeblich durch von ihm einzufordernde Opfer für einen globalen Klimaschutz beitragen muss. Die hier für die Energiepolitik formulierten Ziele lesen sich mehr wie ein Glaubensbekenntnis statt einer technisch-wirtschaftspolitischen Leitlinie. Inwieweit Klimaschutz durch technisch-wirtschaftliche Entwicklungen überhaupt machbar ist und was unter „Klimaschutz“ überhaupt verstanden werden kann, wird überhaupt nicht mehr hinterfragt.

Eine zentrale Rolle spielt dabei auch der schwammige Begriff der „Nachhaltigkeit“ [1]

Dieser stammt ursprünglich aus der Forstwirtschaft und bedeutet, dass durch Holzeinschlag in einer bestimmten Zeit nicht mehr entnommen werden soll, als im gleichen Zeitraum nachwachsen kann. Dies ist ein vernünftiges Prinzip, dass wohl jedem einleuchtet, der Wald aus wirtschaftlichen oder idealistischen Erwägungen erhalten will. Der den Text des Koalitionsvertrags durchziehende Nachhaltigkeitsbegriff orientiert sich aber an den von der Brundtland Kommission definierten Vorstellungen. Bei dieser von den UN eingesetzten Weltkommission für Umwelt und Entwicklung sollten langfristige Entwicklungen aufgezeigt werden, die zugleich umweltschonend sind. Dieses Prinzip ist bis heute zu einer, alle anderen Kriterien zur Beurteilung technisch-wirtschaftlicher Entwicklungen aushebelnden, Totschlagsargumentation entartet.

In der Energiepolitik ist daraus für die Erzeugung von Elektroenergie die Forderung nach einer sogenannten „Decarbonisierung“ geworden. Das in der Atmosphäre zu 0,04% (4 Moleküle auf 10000 Luftmoleküle) vorkommende Gas  CO2  wird als die für den Wärmehaushalt der Troposphäre entscheidende Komponente beschrieben. Die nicht nachhaltige Energieproduktion aus fossilen Kohle- und Ölvorräten führt angeblich zu einem die Menschheit bedrohenden Anstieg der Globaltemperatur und muss innerhalb eines kurzen Zeitfensters praktisch vollkommen beendet werden, wenn der Temperaturanstieg auf 2 Grad begrenzt werden soll (das sogenannte 2 Grad-Ziel). Dies gilt als gerade noch erträgliche Obergrenze und ist als Zielvorstellung allen energiepolitischen Strategien übergeordnet. Diese Vorstellung zieht sich auch wie ein roter Faden durch die Formulierungen des Koalitionsvertrags.

In diesem Text erkennt man unübersehbar die Handschrift des „Wissenschaftlichen Beirat der Bundesregierung Globale Umweltveränderungen“ WBGU. Dieses Gremium wurde 1992 im Vorfeld des Klimagipfels von Rio zur wissenschaftlichen Politikberatung gegründet. Zu seinen Aufgabenstellungen gehört unter anderem: „globale Umwelt- und Entwicklungsprobleme zu analysieren und darüber in Gutachten zu berichten“.

In der Selbstdarstellung des WBGU heißt es: „Die Eingriffe des Menschen in die natürliche Umwelt haben ein globales Ausmaß erreicht. Besonders der Klimawandel, der Verlust biologischer Vielfalt,…. Zählen zu den voranschreitenden kritischen Veränderungen der natürlichen Umwelt. Diese Veränderungen werden durch die Ausbreitung nicht nachhaltiger Lebensstile und Produktionsweisen sowie steigende Energie-und Ressourcennachfrage verursacht und beschleunigt.“

Weiter heißt es in der Selbstdarstellung: “…WBGU bietet den politischen Entscheidungsträgern  Orientierung. … und schlägt ökologische und sozioökonomische „Leitplanken“ vor,..“

Diese Leitplanken sind in dem gesamten energiepolitischen Text des Koalitionvertrags deutlich erkennbar. Es wird als Faktum unterstellt, dass die bisherigen Methoden der Energieversorgung die Schöpfung infolge einer dadurch verursachten Klimaänderung bedrohen.

Von Interesse ist in diesem Zusammenhang, dass dem WBGU durchaus bewusst ist, dass die geforderte Umstellung auf Erneuerbare Energien keineswegs mit einem kurzfristig zu erwartenden Mangel an fossilen Energieträgern zu begründen ist. Ein Argument, dass von grünen Aktivisten      in Anlehnung an die zur Zeit wieder aufgegriffenen Prognosen des Club of Rom neuerlich wieder mehr betont wird.

Den Ideologen des WBGU ist bekannt, dass die Vorräte an Kohle und Öl durchaus noch für Jahrhunderte reichen würden. Sie behaupten aber, dass diese wegen der CO2 Problematik zur Einhaltung des von ihnen erfundenen 2 Grad Ziels nur noch zu einem geringen Prozentsatz ausgebeutet werden dürfen. Die dadurch künstlich geschaffene Mangelsituation wird als Argument genutzt um eine völligen Neuentwurf  der sozialen Strukturen der Menschheit zu fordern, genannt „Gesellschaftsvertrag für eine große Transformation“ [2]! In einem Zeitraum von ca. 30 Jahren soll im Rahmen dieser Neuordnung der Welt der Übergang zu einer klimaverträglichen Gesellschaft vollzogen werden. Eine zentrale Rolle spielt dabei der gestaltende Staat, der sein Handeln an der Nachhaltigkeit ausrichtet und die Bürger verstärkt an Entscheidungen beteiligt.

Wie solche Ideologen von Deutschland ausgehend (einer der Wortführer ist der Leiter des PIK (Potsdam Institut für Klimafolgenforschung) und offizieller Kanzlerin Berater Joachim Schellnhuber)  inzwischen auch in der EU und UN nach dem verlustreichen Untergang der Volksdemokratien mit ihren millionenfachen Opfern wieder an Einfluss gewinnen konnten, ist ein beängstigendes Rätsel.

Der aus dem gleichen Umfeld kommende Ökonom Ottmar Edenhofer sagte auf dem Weltklimagipfel 2010 in Cancun:

„Zunächst mal haben wir Industrieländer die Atmosphäre der Weltgemeinschaft quasi enteignet. Aber man muss klar sagen: Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch, fast nichts mehr zu tun.“

Es ist natürlich das Recht und die Pflicht der Politik sich in komplexen technisch-wissenschaftlichen Fragen durch Fachleute beraten zu lassen. Umgekehrt haben  diese Fachgremien aber nicht die Aufgabe, selbst politische Strategien (Leitplanken) zu entwickeln. Insbesondere haben sie die in der Wissenschaft früher selbstverständliche Pflicht, Beweise für Ihre Beratungsergebnisse vorzulegen und auf Irrtumsrisiken hinzuweisen. Dazu gehört vor allem, auch andere Forschungsergebnisse objektiv und ohne Bewertungen darzustellen.

Nichts derartiges findet sich im Text des Koalitionsvertrags. Der von einer sehr großen Zahl kompetenter Wissenschaftler  auf der Basis grundlegender physikalischer Prinzipien vorgelegte Beweis, dass  CO2  kein die Troposphäre aufheizendes Treibhausgas ist, wird komplett ignoriert. Auch, dass alle von den „Klimaexperten“ in den letzten 15 Jahren vorgelegten Prognosen falsch waren, wird nicht berücksichtigt. Ebenso die selbst vom IPCC nicht bestrittene Tatsache, dass eine Erwärmung der Erde in den letzten 15 Jahren trotz einer deutlichen Steigerung der CO2  Konzentration ausgeblieben ist, berührt die Verfasser des Koalitionstextes nicht.

Statt dessen heißt es auf Seite 50 des Vertragstexts: „Wir halten daran fest, dem Klimaschutz einen zentralen Stellenwert in der Energiepolitik zuzumessen. National wollen wir die Treibhausgas-Emissionen bis 2020 um mindestens 40 Prozent gegenüber dem Stand von 1990 reduzieren.“ Innerhalb der EU setzt man sich dieses Reduktionsziel um 40% als Teil einer „Zieltrias aus Treibhausgasreduktion, Ausbau der Erneuerbare Energien und Energieeffizienz“ bis 2030.  Bis 2050 soll dann ein Zielwert von 80 bis 95 Prozent erreicht werden!! Der weitere Ausbau der Erneuerbaren Energien soll dafür in einem gesetzlich festgelegten (!) „Ausbaukorridor“ erfolgen, der Anteile von 40 bis 45 Prozent im Jahr 2025 und 55 bis 60 Prozent im Jahr 2035 vorsieht (Seite 51). Und da gibt es in Deutschland Leute, denen das noch nicht weit genug geht!

Die energiepolitischen Vorstellungen des Koalitionsvertrags befassen sich schwerpunktmäßig, wie auch die bisherige öffentliche Diskussion mit der Elektrizitätsversorgung.  Diese Problematik steht auch hier in der anschließenden Diskussion von Details im Vordergrund. Es sei aber erwähnt, dass man auch den für eine erfolgreiche Energiewende mitentscheidenden Wärmemarkt nicht übersehen hat. Man formuliert daher als Zielvorstellung bis zum Jahr 2050 einen „nahezu klimaneutralen Gebäudebestand“. Besitzer ältere Einfamilienhäuser und Bewohner von Miethäusern sollten dies durchaus als Drohung registrieren. Ihr Beitrag zur Errettung der Welt wird in steigenden Betriebskosten, sich nie amortisierenden Investitionen in Isolationsmaßnahmen und steigenden Mieten  bemerkbar werden!

Den Verfassern war wohl klar, dass dies alles teuer zu werden verspricht. Daher werden einige Beruhigungspillen verordnet. Der im Rahmen des Ausbaukorridors  grundsätzlich weiter geförderte Zubau von Photovoltaik bekommt einen „atmenden Deckel“  soll heißen: weiter so aber etwas langsamer! Für die Biomasse-Anlagen sollen Konkurrenzen mit dem Arten- und Naturschutz entschärft werden. Bei Onshore Windkraft soll Überförderung an windstarken Standorten durch Senkung der Fördersätze abgebaut werden aber andererseits durch Weiterentwicklung des „Referenzertragsmodells“ die guten Standorte wirtschaftlich genutzt werden. Im Baugesetzbuch (BauGB) sollen länderspezifisch Mindestabstände zur Wohnbebauung festgelegt werden können. Mit anderen Worten der Windenergielobby werden ungeahnte Freiräume geschaffen! Das gilt noch mehr für die Off-Shore Windenergie. Hier sollen „kurzfristig notwendige Maßnahmen“ getroffen werden, um anstehende Investitionen mit langen Vorlaufzeiten nicht zu gefährden! Insgesamt soll mit einem Zubau von durchschnittlich 2 Windparks pro Jahr ein Ausbau auf 15 GW bis 2030 erreicht werden!

Da den Verfassern vermutlich durchaus klar ist, dass eine derart drastische (und äußerst kostspielige) CO2 Reduktion allein in Deutschland die Welt nicht retten wird, soll für eine 2015 in Paris geplante Konferenz ein europäische Ziele beschreibender „Klimaschutzplan“ erarbeitet werden.

Trotz dieser hochtrabenden Ziele wird aber im Rahmen eines sogenannten Energiepolitischen Dreiecks (Wo Begriffe fehlen, stellt zur rechten Zeit ein Wort sich ein, wie schon Goethe feststellte) Versorgungssicherheit und Bezahlbarkeit gewährleistet werden.

Mit der Technik Vertraute werden gespannt sein, wie diese Dreieck gehandhabt werden soll. Vorsichtshalber steht aber auch auf Seite 53: „Die Energiewende ist nicht zum Nulltarif zu haben. Und weiter: „Private und gewerbliche Stromkunden müssen erhebliche Lasten tragen. … wollen wir Ausmaß und Geschwindigkeit des Kostenanstiegs spürbar bremsen.“

Das sollten sich die Bürger einprägen. Eine Senkung der jetzt schon extrem hohen deutschen Strompreise wird nicht beabsichtigt. Nur die Anstiegsgeschwindigkeit soll gebremst werden!

Energieeffizienz anzustreben ist seit jeher ein selbstverständliches Ziel in der Technik. Besonders in der Elektrotechnik hat man dabei sehr große Erfolge errungen, wenn man bedenkt, dass elektrische Maschinen wie z.B. Motoren schon lange Wirkungsgrade von über 90% erreichen, fragt man sich, wo auf diesem Gebiet noch große Spielräume durch „Steigerung der Energieeffizienz“ sein sollen.

Dies herauszufinden, wird Aufgabe einer von der Bundesregierung zu beschließenden „unabhängigen Expertenkommission“ sein, die 2014 in einem „Nationalen Aktionsplan Energieeffizienz“ in einem jährlichen Monitoring die Ziele und Verantwortung der einzelnen Akteure zusammenfasst. Die dafür vorgesehenen Mittel werden durch Haushaltsumschichtung erwirtschaftet. Konkret ist in diesem Zusammenhang u.a. von kostenloser Energieberatung für Haushalte mit niedrigem Einkommen die Rede und auf europäischer Ebene von der Setzung von „dynamischen und anspruchsvolleren Standards für energierelevante Produkte im Rahmen der Ökodesign-Richtlinie (Verankerung des Top-Runner-Prinzips)“.

Hinter diesem Wortgeschwafel wird nicht nur die Weltrettung durch bessere Waschmaschinen für Arme propagiert, sondern hier drohen bürokratische Eingriffe in unseren Lebensalltag, gegen die das Glühlampenverbot und die Überwachung der Ölkännchenhygiene nur erste Warnsignale sind.

Für alle Fälle sagt sich die Koalition aber offenbar, dass die Industrie zu Wundern fähig ist, wenn man sie nur gehörig unter Druck setzt. Diesem Ziel soll der Emissionshandel dienen, der Emittenten zwingt, sich bei Überschreitung ihnen zugemessener Mengen von CO2 Emissionen durch Erwerb von Zertifikaten freizukaufen. Dieses Instrument hat bisher die Erwartungen nicht erfüllt, weshalb geplant wird, solche Zertifikate durch entsprechende Regulierungsmaßnahmen zu verteuern!

Dass andererseits die hohen Strompreise die Wettbewerbsfähigkeit stromintensiver Betriebe gefährden wird anerkannt, so dass hier geschaffenen Ausgleichsregelungen erhalten bleiben sollen. Diese sollen europarechtlich abgesichert werden, um „das EEG dauerhaft auf eine stabile Grundlage“ zu stellen. Die Privilegierung  einzelner Branchen soll dafür „vorrangig anhand objektiver, europarechtskonformer Kriterien“ überprüft werden. Dafür ist vorgesehen,  Zitat:

„die begünstigten Unternehmen nicht nur ein Energiemanagementsystem einführen, sondern auch wirtschaftlich sinnvolle und technologisch machbare Fortschritte bei der Energieeffizienz erzielt werden. Dabei werden bereits erreichte Erfolge (early actions) berücksichtigt.“

Wer wird, wer kann das kontrollieren? Wer gewisse Einblicke in die Industrie der DDR hatte, dem kommt beim  Lesen solcher Phrasen in Erinnerung, dass in allen Großbetrieben Stasi Leute saßen, die die Konformität der Produktionsabläufe mit der staatlichen Planung überprüften.

Immerhin ist den Koalitionären bewusst, dass zeitweilig kein Wind weht und auch selbst im Sommer die Sonne nur am Tag scheint, die Verfügbarkeit der erneuerbaren Energien also starken Schwankungen unterliegt. Damit sind große Stabilitätsprobleme der Netze verknüpft zu deren Überwindung der mit dem EEG verbundenen absolute Abnahmevorrang etwas flexibler gestaltet werden soll und damit eine „virtuelle Grundlastfähigkeit“ geschaffen werden soll (Seite 55).

Zur Rolle der konventionellen Kraftwerke (Braunkohle, Steinkohle, Gas) als Teil des nationalen Energiemixes wird zugestanden, dass diese auf absehbare Zeit unverzichtbar sind (Seit 56). Diese müssen in Zukunft hocheffizient und flexibel sein. Zitat: „Solange keine anderen Möglichkeiten (wie z,B. Speicher oder Nachfragemanagement) ausreichend und kostengünstig zur Verfügung stehen, kann Stromerzeugung aus Wind- und Sonnenenergie nicht entscheidend zur Versorgungssicherheit beitragen. Daraus ergibt sich das Erfordernis einer ausreichenden Deckung der Residuallast.“

Was auch immer eine „Residuallast“ sein mag. Hier werden die Erneuerbaren konsequent zum alleinigen Auslegungskriterium aller zukünftigen Kraftwerke gemacht. Und wenn das nicht geht, so hat sich die Nachfrage dem Angebot anzupassen!! Hatten wir nicht einmal eine Marktwirtschaft? !

Im Zusammenhang damit werden im weiteren Text Flexibilitätsoptionen diskutiert. Dazu gehören Lastmanagement, power-to-heat und Speicher. Unter unter dem englischen power-to-heat sind vermutlich die bisher verpönten Elektro-Speicherheizungen zu verstehen. Weiter heißt es: „Bei einem hohen Anteil an Erneuerbaren Energien brauchen wir auch Langzeitspeicher, die saisonale Schwankungen ausgleichen können, wie z.B. power-to-gas. Zitat: „Mit den aktuellen Demonstrationsprojekten werden wir die Technologie Schritt für Schritt weiterentwickeln, optimieren und zur Marktreife bringen. Das bereits angelegte  Forschungsprogramm wird fortgeführt.“

Da fällt einem der alte Spruch ein: Unmögliches erledigen wir sofort, Wunder brauchen etwas länger.

Man fragt sich, ob die Institute, die für so etwas Geld kassieren, nicht um ihren Ruf bangen, wenn sie Demonstrationsanlagen bauen, deren Sinnlosigkeit sie ja auch auf einem DIN A4 Blatt mit einem Bleistift demonstrieren können müssten.

Interessanter Weise findet sich in dem Papier kein einziges Wort zum Thema Fracking. Wir werden also unser Gas teuer aus power-to-gas Anlagen holen, während unsere polnischen Nachbarn es billig aus der Erde holen.

Zu guter Letzt wird im Plan nicht übersehen, dass es auch leistungsfähigere Netze braucht, deren Ausbau zur Zeit auf heftigen Widerstand der Bürger stößt. „…ist eine breite Akzeptanz der Bevölkerung notwendig, die heute noch in vielen Fällen nicht gegeben ist“. Hier hat man wohl noch keine endgültigen Lösungsansätze und schwafelt ein wenig von investitionsfreundlichen Rahmenbedingungen, Anreizregulierung, intelligenten Messsystemen für Verbraucher, Rekommunalisierung und finanziell attraktiver Beteiligung von betroffenen Bürgern.

Abschließend wird noch pflichtschuldigst erwähnt, dass man natürlich am Ausstieg aus der Kernenergie festhält. Zitat: „In Europa wird Deutschland aktiv daran mitwirken, die Sicherheit der Kernkraftwerke zu erhöhen“. Was für eine Impertinenz! Es unterstellt, dass die entsprechenden Anlagen zur Zeit nicht sicher sind und ausgerechnet Deutschland will unsere Nachbarländer bei der Weiterentwicklung und den zahlreichen im Bau und in der Planung befindlichen Anlagen Ratschläge erteilen!

Fazit

Die Koalitionäre legen für die deutsche Energiepolitik ein von einer längst widerlegten Klimaschutz Ideologie geprägtes Papier vor. Zitat Seite 49: „Hauptaufgabe der Großen Koalition ist es deshalb, engagierten Klimaschutz zum Fortschrittsmotor zu entwickeln und dabei Wohlstand und Wettbewerbsfähigkeit zu stärken. Eine Energieversorgung ohne Atomenergie mit einem stetig wachsenden Anteil Erneuerbarer Energien soll konsequent und planvoll fortgeführt werden“.

Dazu werden eine Anzahl von Absichtserklärungen und Wunschvorstellungen aufgelistet, die jeglichen technischen-wissenschaftlichen Sachverstand vermissen lassen, ja teilweise offensichtlich technischer Unsinn sind wie z.B. Power-to-gas als Methode einer saisonalen Stromspeichertechnik.

Man fragt sich irritiert, wie in einem Volk, dass so große Beiträge zur Entwicklung der Naturwissenschaften und der Technik geleistet hat, eine Führungselite Opfer einer von fanatischen Ideologen erfundenen Wahnvorstellung werden konnte.

In den letzten Jahren sind so zahlreiche detaillierte Daten vorgelegt wurden, die ganz klar zeigen, dass es in der Erdgeschichte immer Klimawandlungen gegeben hat und es dabei häufig beträchtlich wärmer oder kälter war als heute, jeweils unterschiedlich korreliert mit dem Kohlendioxydgehalt der Atmosphäre.  Alle Daten zeigen, dass soweit überhaupt eine meist schlechte Korrelation zwischen Globaltemperatur und CO2 Konzentration bestand, immer die Temperaturänderungen der Änderung des  CO2  Gehalts voraus lief.

Im Gegensatz zu der aus physikalischen Gründen leicht widerlegbaren Behauptung, dass das harmlose, unser Leben überhaupt erst möglich machende Gas Kohlendioxyd eine Ursache für eine Temperaturerhöhung der Troposphäre sein könnte, lässt sich  für die umgekehrte Ursache-Wirkungskette eine Begründung finden. Das ist die Temperaturabhängigkeit der Wasserlöslichkeit des  CO2 . Wenn die Ozeane sich erwärmen, Gasen sie Kohlendioxyd aus, bei Abkühlung geht es verstärkt in Lösung.

Der aktuell beobachtbare Anstieg der CO2 Gehalts der Atmosphäre mag zu einem kleinen Teil auch eine auf menschliche Aktivitäten zurückführbare Ursache haben. Auf das Klima hat dies aber keinen Einfluss. Dies erkennt man ja auch daran, dass die Atmosphäre seit 15 Jahren eher eine leichte Abkühlung zeigt. Treibhausgase gibt es aus physikalischen Gründen nicht. Eine Wärmeübertragung aus der kalten Atmosphäre auf den warmen Erdboden widerspricht dem seit 200 Jahren bewährten 2. Hauptsatz der Thermodynamik. Es ist eine unfassbare Perversion, im Zusammenhang mit dem für das irdische Leben unverzichtbaren Gas Kohlendioxyd von Verschmutzung zu reden!

Das Ergebnis dieser Analyse lautet daher:

„Die Energiewende ist kein richtiger und notwendiger Schritt auf dem Weg in eine Industriegesellschaft….“

Sie gehört vielmehr so schnell wie möglich als die Wirtschaft und Freiheit unserer Gesellschaft bedrohende Fehlentwicklung beendet!


[1]   Hier drängt sich ein Blick auf die heute im Vordergrund stehende Windenergie auf. Eine WKA vom off-shore Typ BARD hat eine Nennleistung von 5 MW und unter günstigen Verhältnissen eine äquivalente Dauerleistung von 40% entsprechend 2 MW. Allein Mast, Gondel, Generator und Turbinenblätter haben eine Masse von 1375 [t].

     (www.en.wind-models.com ) Im Generator wird 1[ t] des seltenen Erdmetalls Neodym verarbeitet. Die Leistung entspricht etwa einem kleineren Schiffsdiesel, den man bequem in sein Wohnzimmer stellen könnte. Ein verantwortungsbewusster Ingenieur, der eine solche Maschine konstruieren muss, muss sich fragen, wie man bei diesen Daten von einer nachhaltigen Technik sprechen kann.

[2]   WBGU Hauptgutachten 2011: Welt im Wandel: Gesellschaftsvertrag für eine große Transformation.  

von Dr.-Ing. Normann Treinies EIKE   

Über den Autor:

Dr.-Ing. Normann Treinies absolvierte ein Studium Maschinenbau Fachrichtung Flugtechnik an der TU Berlin. Dann Promotion an der RWTH Aachen über Anwendung der Fast-Fourier-Transformation in der aerodynamischen Messtechnik im Über- und Hyperschallbereich.

Langjährige Arbeit an Überschall-Windkanälen und entsprechende Kenntnisse in Aero-Thermodynamik.

Danach Tätigkeit in der Forschungsplanung der damaligen DFVLR (heute DLR) sowie Leitung von Forschungsprojekten unter anderem im Bereich der Wiedereintrittstechnolgie von Weltraumtransportern und über Solarenergiesatelliten. 

Mitarbeit an Studien im Auftrag des "Büro für Technikfolgenabschätzung des Deutschen Bundestags" und für den "Roundtable of European Industrialists".




Der Energie-Imperativ

Die Entwicklung der Landwirtschaft erlaubte die Bildung größerer Siedlungen, obwohl die Nahrungsmittelsicherheit keineswegs garantiert war. Selbst heute noch: obwohl zum ersten Mal in der Geschichte eine enorme Vielfalt von Nahrungsmitteln angeboten wird, jedenfalls für den größten Teil der Bevölkerung in der entwickelten Welt, sind etwa 1 Milliarde Menschen – vor allem in Südasien und Afrika südlich der Sahara – chronisch unterernährt.

Sollten wir daraus schließen, dass Nahrungsmittelsicherheit in der heutigen Welt das größte Problem ist? Für die restlichen Jäger und Sammler ist es mit Sicherheit der Schlüsselpunkt ihrer Existenz. Aber die große Mehrheit derjenigen, die hungrig zu Bett gehen und sich nicht auf Tiere oder Wildpflanzen verlassen können – bei ihnen handelt es sich entweder um Landwirte, die für den Eigenbedarf produzieren, oder um die Armen in der Stadt. Erstere sind abhängig vom Erfolg ihrer eigenen Ernten. Sie haben nicht genug Geld, um Nahrungsmittel dazu zu kaufen (oder es fehlt ihnen vielfach auch die Gelegenheit dazu). Für die Armen der Stadt ist das Problem einfach und allein das fehlende Geld.

Obwohl also Nahrung weiterhin ganz oben auf der Liste der Bedürfnisse steht, sollten wir uns ernsthaft aber etwas anderes überlegen, nämlich was nötig ist, um entweder mehr Nahrungsmittel anzubauen oder um wohlhabend genug zu werden, um in der Lage zu sein, diese Nahrungsmittel auch zu kaufen. Und die Antwort lautet: Energie! Nahrung für sich genommen ist Energie für den menschlichen Körper. Für diejenigen von uns, die das Glück haben, in der industrialisierten Welt zu leben (und für eine Minderheit von Kleptokraten in ärmeren Ländern) ist ausreichend und vielfältige Nahrung eines der Vergnügen des Lebens, wobei ganze Industrien entstanden sind, um unsere Bedürfnisse zu befriedigen (Hersteller von Nahrungsmitteln, Händler, Restaurants etc.) Aber ultimativ essen wir, um gesund weiter zu leben und um in der Lage zu sein, mehr Nahrungsmittel anzubauen oder das Geld für deren Erwerb zu verdienen.

Landwirte für den Eigenbedarf haben lediglich ihre eigene Muskelkraft und die von irgendwelchen Tieren als Hilfen beim Ackerbau. Das ist eine wesentliche Strapaze sowohl für das Landgebiet, das sie bearbeiten, als auch für die Ernte, die man dabei erwarten kann. Der Ertrag ist darüber hinaus begrenzt durch die Verfügbarkeit von Grundnährstoffen: vor allem Stickstoff, aber auch Kalium und Phosphor. So war es auch in Europa vor der industriellen Ära.

Dann kam die Dampfkraft, und damit begann ein immer mehr sich fortentwickelnder Prozess, in dem Pferd und Ochse (die selbst schon den kümmerlichen Menschen einen deutlichen Vorteil verschafften) durch den Traktor ersetzt wurden. Die Erfindung des Haber-Bosch-Prozesses und dessen erste kommerzielle Umsetzung vor einhundert Jahren machte Stickstoffdünger weit verbreitet verfügbar, was zu einer großen Verbesserung der Ernten auf dem bearbeiteten Land geführt hat.

Heutzutage reicht relativ eine Handvoll Menschen aus, um viel mehr Nahrungsmittel zu erzeugen, als zu jener Zeit, als die Mehrheit der Menschen auf dem Lande gearbeitet hat. Die rapide Verstädterung in Entwicklungsländern wird in nicht allzu ferner Zukunft dazu führen, dass die Landwirtschaft nur noch einen geringen Anteil an der Gesamtwirtschaft eines jeden Landes hat. Bislang ist sie noch einer der größten Faktoren in weiten Gebieten von Afrika südlich der Sahara sowie Süd- und Südostasien. Aber dieser scheinbar nicht aufzuhaltende Prozess kann nur weitergehen, wenn es genügend zuverlässige und preiswerte Energie gibt, um die Muskelkraft zu ersetzen.

Dies ist auch der Grund, dass China nicht aufhören wird, in naher Zukunft immer neue Kraftwerke zu bauen – trotz seines Engagements in dem herum reisenden Zirkus der stattfindenden Verhandlungen zum Thema Klimaänderung. Manche weisen darauf hin, dass das Land viele Windparks und Solarpaneele installiert, aber in einem Land mit einem so hohen Energiebedarf ist das praktisch bedeutungslos im Vergleich mit der installierten Kohle und Kernkraft.

Einem kürzlich veröffentlichten Artikel zufolge (ChinaFAQs: Renewable Energy in China – An Overview) erzeugt das Land etwa 8% seiner Gesamt-Primärenergie aus nicht fossilen Quellen. Allerdings ist vieles davon Wasserkraft: Es gibt dort fast 230 GW installierter Kapazität (die größte im Vergleich zu allen anderen Ländern). Im Vergleich dazu beträgt die Kapazität von Windkraft 75 GW und die von Solarpaneelen nur 7 GW. China mag der größte Produzent von Photovoltaik-Zellen sein (von denen viele exportiert werden) und plant den Bau weiterer Windparks, aber dies bedeutet keineswegs eine Abkehr von fossilen Treibstoffen.

Ein Ende des vorigen Jahres im Guardian erschienener Artikel bringt es auf den Punkt: More than 1,000 new coal plants planned worldwide, figures show. Das World Resources Institute hat ermittelt, dass 1200 Kohlekraftwerke in Planung sind, zwei Drittel davon in China und Indien. Einige Kohlekraftwerke in Peking wurden durch Gaskraftwerke ersetzt, um das notorische Problem der Luftverschmutzung in dieser Stadt in den Griff zu bekommen, aber es scheint eindeutig, dass China und Indien während der nächsten Jahrzehnte auf das Wachstum von Kohlekraft setzen werden.

Der größte Wettbewerbsvorteil Chinas sind die niedrigen Produktionskosten, und das wird man nicht unnötig durch steigende Energiepreise aufs Spiel setzen. Indien mit seiner weniger dynamischen Wirtschaft als sein nördlicher Nachbar kann sein Wachstum nur durch ähnliche Vorteile bei den Produktionskosten beschleunigen. Nur eine wachsende Wirtschaft wird in der Lage sein, das erschreckend hohe Niveau der Mangelernährung im ganzen Land zu reduzieren.

Billige und sichere Energie ist der Schlüssel zu wirtschaftlichem Wachstum und produktiver Landwirtschaft. Sie ist ultimativ auch die Antwort auf das wachsende Problem der Trinkwasserknappheit. Wasser als solches ist keine begrenzte Ressource, aber häufig befindet es sich an der falschen Stelle oder ist zu salzhaltig für den Gebrauch. Eine sichere und erweiterbare Energieversorgung ermöglicht es, via Osmose Salzwasser in Trinkwasser zu verwandeln und auch die Entwicklung intelligenterer Bewässerungssysteme.

Die globale Erwärmung kann später in diesem Jahrhundert zu einem Problem werden oder auch nicht, aber eine wohlhabende und gut ernährte Bevölkerung wird viel besser in der Lage sein, damit umzugehen als eine Welt, in der eine Milliarde Menschen unterernährt ist. Energiesicherheit ist das heutige Imperativ!

Link: http://www.scientific-alliance.org/scientific-alliance-newsletter/energy-imperative

Übersetzt von Chris Frey EIKE




Neue Studie: Extremwetterereignisse nehmen nicht zu

Die ganze Arbeit ist 32 Seiten lang, der Link zum pdf steht unten. Übersetzt wird deshalb nur die Einführung. A. d. Übers.

Einführung

Die globale Erwärmung ist die Zunahme der Mitteltemperatur der Erde infolge menschlicher Aktivitäten und im Besonderen durch menschliche Emissionen von Kohlendioxid in die Atmosphäre. Die gegenwärtige Debatte um die Wissenschaft der globalen Erwärmung könnte mit einer grundlegenden Studie von Revelle und Suess (1956) begonnen haben, in der postuliert worden ist:

„…die Menschen führen ein großräumiges geophysikalisches Experiment durch, und zwar mit der weltweiten menschlichen Aktivität mit der Folge einer Ansammlung von atmosphärischem Kohlendioxid, die größer sein könnte als die Rate der Ausgasung von Kohlendioxid durch Vulkane“.

Revelle und Suess schätzten die Rate, mit der die Menschen das CO2 in der Atmosphäre zunehmen lassen und drückten ihre Sorge aus, dass diese Ansammlung das Erdklima in der Zukunft irreversibel  beeinflussen könnte. Revelle, ein bedeutender amerikanischer Geophysiker, war Initiator der Errichtung der ersten CO2-Meßstation auf dem Mauna Loa in Hawaii im Jahre 1956. Eine weitere CO2-Meßstation wurde später in der Antarktis aufgebaut, und heute gibt es viele Dutzend auf der ganzen Welt. Basierend auf den Daten dieser Stationen ist jetzt nachgewiesen, dass die CO2-Konzentration von 330 PPMV im Jahre 1956 auf heute über 390 ppmv zugenommen hat. Allerdings muss dabei beachtet werden, dass die Erdatmosphäre hauptsächlich aus Stickstoff (ca. 78%), Sauerstoff (ca. 21%) und Argon (ca. 0,93%) besteht. Das CO2 hat darin nur einen Anteil von 0,03% aller atmosphärischen Gase. Außerdem beträgt der CO2-Austausch zwischen Atmosphäre und Ozean etwa 150 Milliarden Tonnen auf einer jährlichen Basis. Die menschlichen Emissionen werden dagegen nur auf 15 bis 20 Milliarden Tonnen pro Jahr geschätzt oder 10 bis 15% des gesamt-CO2-Austausches zwischen Atmosphäre und Ozean.

Die Studie von Revelle und Suess hat während der letzten 30 Jahre zu einer Anzahl von computerbasierten Modellstudien geführt. Diese haben versucht. Die Erwärmung der Erde durch die zunehmende Konzentration von Kohlendioxid zu simulieren, und viele kamen zu dem Ergebnis einer mittleren Temperaturzunahme von 1,4°C bis 4,4°C bis Ende des Jahres 2100. Eine Studie von Knutti (2008) untersuchte eine Folge von Klimamodellen und erhielt als beste Schätzung [best estimate] einen Wert von 2,8°C mit einer Bandbreite von 1,7°C bis 4,4°C für die Zunahme der mittleren Temperatur bis zum Ende des 21. Jahrhunderts. Viele Klimamodellierer konzentrieren sich jetzt auf die mögliche Erwärmung bei einer Verdoppelung der CO2-Konzentrationen verglichen mit denen der vorindustriellen Zeit. Dieser Wert wurde ‚Klimasensitivität‘ genannt. Die von den meisten Modellen berechnete Klimasensitivität liegt bei 3°C oder höher. Allerdings haben einige Studien aus jüngerer Zeit (Lindzen 2007, Schwartz 2011) Werte unter 1°C erhalten; und Lindzen und Choi (2011) haben dokumentiert, wie die Wasserdampf-Rückkopplung in den meisten Modellen unzureichend enthalten ist, was zu höheren Werten der Sensitivität führt.

Die gegenwärtige Debatte ist abhängig von der Übernahme einer Strategie zur Emission von Treibhausgasen, die den Temperaturanstieg unter 2°C halten soll, um die widrigen Auswirkungen einer zukünftigen Klimaänderung zu vermeiden. Unter diesen möglichen widrigen Auswirkungen sind dem IPCC zufolge mehr Hitzewellen, Überschwemmungen (durch intensiveren Niederschlag), Dürren, mehr schädliche Hurrikane, ein eskalierender Anstieg des Meeresspiegels, küstennahe Erosion usw. Das jüngste IPCC-Statement bzgl. Extremwetter, das weiter unten besprochen wird, wiederholt die Schlussfolgerungen, wenn auch mit verschiedenen Vertrauensniveaus für jede einzelne.

http://www.thegwpf.org/content/uploads/2013/11/Khandekar-Extreme-Weather.pdf

Übersetzt von Chris Frey EIKE




Windpolitik wird auf dem Meer gemacht

Bild rechts: Gescheitert: Die Auswirkungen von Wetter und Salzkorrosion werden dem Strom-Output schwer zusetzen. Photo: ALAMY

Allerdings ist es jetzt schon ein Jahr her, dass in einem Bericht von Prof. Gordon Hughes, einem ehemaligen Energieberater der Weltbank, für die Renewable Energy Foundation etwas stand, dass eine weitere riesige Bombe in der Energiedebatte hätte sein sollen.

Unter Verwendung offizieller Daten aus Dänemark und UK zeigte Prof. Hughes, dass wir bis jetzt schon so viel Erfahrung bei der Errichtung von Turbinen gesammelt haben, dass die erzeugte Strommenge mit den Jahren sehr dramatisch zurückgeht infolge der Abnutzung der Maschine und der Rotorblätter. Eine Turbine, die anfangs im Mittel 25% ihrer „Kapazität“ Strom erzeugt, kann so weit korrodieren, dass sie nach 15 Jahren lediglich noch 5% erzeugt. Bei Offshore-Windturbinen sind die Auswirkungen von Wetter und Salzkorrosion so gewaltig, dass der Output von 45% auf kaum 12% zurückgeht.

Laut Prof. Hughes bedeutet das, dass wir entweder noch viel mehr Windturbinen errichten müssen als die Regierung erlaubt, um unsere Verpflichtung gegenüber der EU zu erfüllen, bis zum Jahr 2020 32% unseres Stromes aus Erneuerbaren zu erzeugen; oder wir müssen innerhalb eines Jahrzehnts mehrere zehn Milliarden Pfund zahlen, um die meisten dieser Turbinen zu ersetzen.

Ich vermute, dass Prof. Hughes seine Forschungen David McKay vorgelegt hat, dem leitenden wissenschaftlichen Berater des Department of Energy and Climate Change DECC, das seine Forschungen nicht anzweifeln konnte. Daraus folgt, dass dem DECC das verheerende Scheitern seiner Projektionen in vollem Umfang bewusst ist. Und doch treibt es seine wahnhafte Politik voran.

Link: http://www.thegwpf.org/christopher-booker-wind-turbines-policy-sea/

Übersetzt von Chris Frey EIKE




„XAVER“ – ein herbstliches Orkantief wie andere auch : Mißbrauch durch die Klima-Alarmisten von der Natur widerlegt!

(1)  Schon im Vorfeld: Die mediale Katastrophe

Schon Vorfeld von XAVER ging es in den "Katastrophen-süchtigen" Medien mal wieder rund (05.12.2013) [1]:

"+++ 13.18 Uhr: Wetteronline hat keine guten Nachrichten: Der Orkan "entwickelt sich weiterhin noch stärker als die Wettermodelle berechnet haben."

…und falls es noch Leute geben sollte, denen das noch nicht genug Angst macht, so haben wir ja noch das Mittelalter (a.a.O.):

 "++ 13.35 Uhr: In Erinnerung an eine Katastrophe vor mehr als 800 Jahren. Die historische Nikolausflut überschwemmte am 6. Dezember 1196 weite Gebiete von Nord-Holland bis Ostfriesland."

…und ab 20 Uhr beginnt Sylt unter zu gehen (a.a.O.):  "+++ 20.29 Uhr: Sylt verliert an Boden: Laut "Wetter Online" ist die Lage auf der legendären Insel lokal angespannt. Der Orkan hat demnach an besonders exponierten Stellen Teile der Dünen weggerissen."

Auch die Süddeutsche Zeitung – in sicherer Küsten-Distanz – trägt kräftig auf  [2]:

"Orkan über Norddeutschland: Wie ‚Xaver‘ in der Nacht getobt hat" … "Böen stoppen Bahn- und Flugverkehr: Scheitel der Sturmflut erreicht ostfriesische Inseln +++ Bundesliga-Spiel gefährdet +++ Verletzte in Niedersachsen +++ Amtliche Gefahrenmeldung der Hamburger Innenbehörde: Hochwasser 6,10 Meter über Normalnull +++ Windstärke zwölf auf Helgoland, Sylt und in Kiel +++ Tote und Vermisste in Großbritannien, Dänemark und Schweden +++ Massive Behinderungen im Schiffs-, Bahn- und Flugverkehr…"

FOCUS [3]  setzt noch einen drauf :

"Orkan ‚Xaver‘ wird zum Schneesturm: Es ist fast wie ein Blizzard".

 Und natürlich dürfen auch sofortige Hinweise auf die Klima-Katastrophe nicht fehlen [4]:

"Wie stürmisch wird die Zukunft? Hier fallen die Prognosen aus Geesthacht [5] schon deutlicher aus. Bis Ende des Jahrhunderts wird die jährliche Sturmhäufigkeit im Norden um bis 20 Prozent steigen, vor allem bedingt durch den Ausstoß von Treibhausgasen und damit den Klimawandel. Das veränderte Weltklima sorgt nicht nur für mehr, sondern auch stärkere Stürme. Die Windgeschwindigkeiten könnten sich bis zum Ende des Jahrhunderts um bis zu 13 Prozent steigern."

Und da will natürlich auch ein Grüner Umweltminister nicht zurück stehen:

6. Dezember 2013 +++ 7.43 Uhr [1]:

Einerseits: "Nach Einschätzung von Schleswig-Holsteins Umwelt- und Küstenschutzminister Robert Habeck ist die Gefahr durch das Orkantief "Xaver" für die deutsche Küste vorüber."

Andererseits: Diese Entwarnung hat Habeck nicht daran gehindert, im DLF-Interview [6] am Morgen des 6. Dezember  dann doch wenigstens für die Zukunft die Katastrophe an die Wand zu malen (Zitat sinngem.): ‚   ….die beiden schweren Stürme Christian und Xaver geben uns einen Vorgeschmack auf das, was wir im Rahmen des Klima-Wandels in den nächsten Jahrzehnten zu erwarten haben….‘. 

Die mediale Hysterie-formende Wirkung erreichte schon am Abend des 5. Dezember einen gewissen Höhepunkt [1] :    "+++ 10.05 Uhr: Das Interesse der Deutschen an Orkan "Xaver" ist groß: Meistgesehene Sendung des gestrigen Tages war mit 7,71 Millionen Zuschauern (Marktanteil 23,9 ) der "Brennpunkt: Orkan über Norddeutschland" des NDR. Das "ZDF spezial" um 19.20 Uhr zu dem Sturm erreichte 5,22 Millionen Menschen (19,3 Prozent)."

(2)  IPCC-Bericht 2013 nimmt Sturm-Prognosen raus !

Bereits an dieser Stelle sei darauf hingewiesen, daß der Klimarat IPCC soeben seine – zuvor ebenfalls über nahezu zwei Jahrzehnte verbreiteten – Sturm-Prognosen eingestampft hat [7]:

"Warnungen aus dem letzten Report vor zunehmenden Extrem-Ereignissen wie Hurrikanen, Tornados oder Stürmen etwa wurden mittlerweile als "wenig vertrauenswürdig" eingestuft –  und in der neuen Zusammenfassung des Reports nicht mehr erwähnt."

Und an anderer Stelle [8]:  "Die Warnung vor einer Häufung gefährlicher Hurrikane wurde im neuen Bericht (Anm.: IPCC 2013) gestrichen."

Und  [9]:   "Die Prognosen über Stürme sind so unzuverlässig, das der Uno-Klimarat sie nicht mit aufgenommen hat in seine Zusammenfassung."

Folglich: Die IPCC-Aussagen sind eindeutig, es gibt keine auch nur annähernd vertrauenswürdigen Sturm-Prognosen. Das ist mittlerweile weitgehend bekannt, nur eben etlichen deutschen Medien und Politikern nicht !?

(3)  Keine Signale für einen säkularen Sturm-Trend

  

                                 Abb. 1 : Stürme und Sturmfluten (Quellen in d.Abb.)

Die Abbildung 1 beweist:

Es gibt keinen Trend zu mehr Stürmen und Sturmfluten, in den letzten zwei Jahrzehnten eher eine Abnahme.

Das wissen und sagen auch die zuständigen Deutschen Institutionen:

Deutscher Wetterdienst [10]:

“Es lässt sich für Mittel- und Westeuropa bisher keine langzeitliche Zunahme von Stürmen an Stärke und/oder Häufigkeit nachweisen“;

BSH Hamburg [11]:

 “Ein generell steigender Trend bei der Häufigkeit und Intensität von Sturmfluten als Vorbote des globalen Klimawandels ist gegenwärtig  nicht erkennbar … Schon jetzt sind Küstenschutz und Deiche so ausgelegt, dass sie auch höheren Sturmfluten Stand halten als den bisher eingetretenen“

Und [12]:  "Treten Stürme in Norddeutschland heute bereits häufiger auf?
 In der Vergangenheit ist aufgrund starker Schwankungen von Jahr zu Jahr kein signifikanter Trend in der Sturmhäufigkeit zu erkennen. Betrachtet man die letzten 60 Jahre, so gibt es heute in Norddeutschland zwar im Vergleich zu den 50er Jahren etwa drei bis vier zusätzliche Sturmtage. Jedoch sind diese nicht auf die Folgen menschengemachter Treibhausgas-Emissionen zurückzuführen, sondern natürlichen Schwankungen zu zuordnen."

Und [13]:  "Anders als oft behauptet wurde jedoch weder bei der mittleren Windgeschwindigkeit noch bei den Stürmen ein Langzeittrend festgestellt".

Und [14]:   "Messungen von Luftdruck und Wind seit Mitte des 19. Jahrhunderts zeigen keine Zunahme von Stürmen an der Nordsee. Die vergangenen Jahre verliefen in der Region sogar eher windarm. Die Schwankungen von Jahr zu Jahr sind aber hoch, einen Trend in der Sturmhäufigkeit können Wissenschaftler dabei nicht erkennen."

(4) XAVER und seine Brüder

Atlantische Sturmtiefs entstehen infolge eines Temperatur-Gegensatzes in der unteren Atmosphäre, in der so genannten Troposphäre. Dabei stehen warmen Luftmassen in südlicheren Breiten (z.B. Azoren-Biskaya) kalten Luftmassen in arktischen und subarktischen Breiten (z.B. Grönland-Island-Skandinavien) gegenüber. Daraus ergibt sich in der Troposphäre ein Luftdruck-Gegensatz (NAO), zunächst aus thermischen Gründen. Dieser hat in höheren Luftschichten eine anfangs Süd-Nord gerichtete Ausgleichs-Strömung zu Folge, die sofort durch die Erdrotation (Coriolis-Kraft) in eine West-Ost-Strömung umgelenkt wird. Dabei kommt es aus strömungs-dynamischen Gründen (Divergenzen) frühzeitig zu einer Verstärkung mit Wirbel-Bildung: Die Tiefdruckgebiete der nordatlantischen Frontalzone entstehen. Die Intensität dieser Sturm-Entwicklungen hängt vom o.a. Temperatur-Gefälle ab. Dieses ist besonders stark im Herbst und Frühwinter.

Einerseits: Zu dieser Zeit hat das Oberflächenwasser des Nordatlantik seine höchsten Werte, weil sich die Erwärmung des Wassers durch die Sonne (Strahlung)  und die Luft (fühlbare Wärme) aufgrund der großen Unterschiede der spezifischen Wärmen zwischen Luft und Wasser (bezogen auf die Volumen-Einheit: 1:3000) gegenüber den meteorologischen Jahreszeiten um mehre Monate verzögert.

Andererseits: Vom Nordpol nach Süden hin schreitet nach dem 22. September die Polarnacht voran, und es bildet sich sehr rasch arktische Kaltluft über den Nordmeeren, welche den Temperatur-Gegensatz über dem Nordatlantik verstärkt – die meteorologische Frontal-Zone entsteht. Das ist der Grund für die besonders stark ausgeprägten Stürme im Herbst und Frühwinter. Das Kind einer solcher Situation ist/war XAVER.

Das zeigen die Wetter-Karten vom 6. Dezember 2013 sehr schön: 

                            Abb. 2 : Höhen-Wetterkarte vom 06.12.13 06 GMT [15]

 

                        Abb. 3 : Boden-Wetterkarte vom 06.12.13 00 GMT [DWD]

 

                                                Abb. 4 : Satelliten-Bild vom 06.12.13 [16]

Sehr anschaulich zeigt das Satellitenbild mit einer mehr als 2000 km langen "Wolkenstraße", wie die Schauer- und Gewitter-Wolken (Cumulus congestus und Cumulonimbus) vom Polarmeer ausgehend über das skandinavische Nordmeer und über die Nordsee bis zu den Alpen heran rauschen. Dabei bilden sich im Lee von Inseln wie Jan Mayen Strömungs-Wirbel (KARMAN-Wirbel) – ein optisches Vergnügen für das meteorologisch geschulte Auge!

(5) Wie "extrem" war XAVER ?

 Die erste Wetterkarte in Deutschland wurde 1876 an der Seewarte in Hamburg gedruckt.  Seit dieser Zeit werden auch die Stürme dokumentiert, und ihre Intensitäten – wobei der tiefste Luftdruck (Kerndruck) die wichtigste Orientierung ist. So wurden seit mehr als 100 Jahren immer wieder atlantische Tiefs mit Kerndrucken von unter  940 und sogar unter 920 hPa beobachtet. Extreme Beispiele aus "jüngerer Zeit" sind der Orkan vom 10.01.1993 mit 915 hPa Kerndruck, sowie am 15.12.1986 mit 910 hPa.

Bei dem Sturmtief vom 13.11.1972 wurden beim Seewetteramt HH 955 hPa gemessen, was noch nicht einmal dem Kerndruck entsprach.

Gegenüber alledem sieht XAVER mit etwa 960 hPa Kerndruck über Skandinavien (Abb. 3) noch recht zahm aus.

Gleichermaßen verhält es sich mit den Sturmstärken [17]:

"Xaver war nicht so heftig wie der Orkan "Christian" Ende Oktober, aber er erreichte ebenfalls extreme Windstärken, dauerte außergewöhnlich lange und betraf ein besonders großes Gebiet. Einige der höchsten Windgeschwindigkeiten in der Nacht auf Freitag wurden laut Deutschem Wetterdienst (DWD) an der Ostseeküste Schleswig-Holsteins gemessen. In Glücksburg mit 158 Kilometern pro Stunde, am Kieler Leuchtturm mit 144 km/h. Auch auf dem Brocken (155 km/h), in List auf der Nordseeinsel Sylt (174) und in Büsum (137) wurden hohe Werte registriert."

Und [1] : "Auf dem höchsten Berg Norddeutschlands, dem Brocken im Harz, hat Orkantief "Xaver" am Donnerstag eine Spitzengeschwindigkeit von 155 Stundenkilometern erreicht. Doch man bleibt gelassen. "Das ist nichts Besonderes für unsere Verhältnisse", hieß es bei der Wetterstation auf dem Berg."

"Nichts Besonderes für einen Orkan" –  so war es landauf-landab bei den gemessenen XAVER-Windstärken.

In Erinnerung ist manch einem noch Tief "LOTHAR" vom 26.12.1999, der z.B. im Bergland Windspitzen von über 200 km/h erreichte.

In "jüngerer" Erinnerung ist auch noch eine ganze Serie von fünf Orkanen innerhalb weniger Wochen zwischen dem 25.01. und dem 28.02.1990, die als "VIVIAN, WIEBKE + Co." in die Wettergeschichte eingingen. Dabei wurden in ganz Deutschland verbreitet Spitzenwerte um die 150 km/h gemessen, sogar 265 km/h auf dem Wendelstein.

Wie dem auch sein – die bei XAVER gemessenen Werte um die 150 km/h sind in Europa und Deutschland für einen Sturm historisch nichts Besonderes.

(6) XAVER: Keine Rekord-Sturmflut

 Zunächst  [17] : "Am Pegel Husum wurden 3,27 Meter verzeichnet, in Glückstadt 3,73 Meter. ‚Damit würde diese Sturmflut Platz sechs der Sturmfluten seit 1962 einnehmen‘, sagte Johannes Oelerich, Direktor des Landesbetriebs für Küstenschutz Schleswig-Holstein. In Hamburg wurden die zweithöchsten Wasserstände seit Beginn der Aufzeichnungen gemessen; nur 1976 stiegen die Pegel höher. Mitte der neunziger Jahre stiegen die Pegel zweimal fast so hoch wie diesmal."

Am 24.11.1981 lief die Sturmflut in Hamburg zu 3,90 m ü.MHW auf, was Xaver fast den 2. Platz (3,96 m) hinter 1976 (4,76 m) gekostet hätte.

An andere Stelle [1] :  "+++ 5.33 Uhr: Bereits in der Nacht hat der Scheitel der Sturmflut die ostfriesischen Inseln erreicht, wie der Leiter für Sturmwarnungen beim Bundesamt für Seeschifffahrt und Hydrographie (BSH) in Hamburg, Sylvin Müller-Navarra, der Nachrichtenagentur AFP sagte. Bei Cuxhaven wurde der Höchststand mit 3,11 Meter über dem örtlichen mittleren Hochwasser gegen 2.30 Uhr erreicht. Wilhemshaven meldete demnach 3,30 Meter. Auf Borkum wurden gegen ein Uhr 2,66 Meter erreicht, im nordfriesischen Büsum waren es gegen drei Uhr drei Meter."

Eine ganze Serie von sechs(!) schweren Sturmfluten mit Pegelständen von jeweils mehr als 3 Metern über Mittel-Hoch-Wasser (ü.MHW) in Hamburg gab es im Zeitraum 13.11.-17.12.1973 innerhalb von nur fünf Wochen – was nun schon 40 Jahre zurück liegt.

Diese wie auch die Sturm- und Sturmflut-Serie von 1990 (vgl.w.o.) wurden seinerzeit als das angesehen, was sie sind: "Meteorologisches Rauschen" im variablen Wetter-Geschehen. Niemand wäre sz. auf die Idee gekommen, diese "Serien" irgend einer "Klima-Katastrophe" zu zuordnen.

Andererseits: man stelle sich auch nur eine einzige solche Serie heutzutage vor – die Klima-Alarmisten würden sich "überschlagen". 

Wo also ist das "Klima-Signal" von XAVER ??  Das gibt es nicht.

Das bestätigt auch der Deutsche Wetterdienst, in mehrfacher Hinsicht:

"In manchen Regionen etwa im mittleren Niedersachsen blieben die Windböen unter den vorhergesagten, räumt der Deutsche Wetterdienst ein…" [18].  u n d:

"+++ 13.13 Uhr: Auch wenn mit "Christian" und "Xaver" in diesem Herbst schon zwei Orkane über Deutschland gefegt sind, sehen Experten darin kein Zeichen des Klimawandels. "Das, was wir jetzt erleben, sind Einzelereignisse", betonte Gerhard Lux, Meteorologe beim Deutschen Wetterdienst in Offenbach, am Donnerstag." [1]

(7)  XAVER:  Schäden "in Grenzen"

Xaver verursachte in Europa Tote und Verletzte, und auch bemerkenswerte Sach-Schäden. So kann eine Wertung immer nur relativ sein.

Wenn man jedoch die nahezu hysterische mediale Vorgeschichte betrachtet, dann ist dem gegenüber das Ergebnis glücklicherweise moderat [19]: "Kreis CUXHAVEN/BREMERHAVEN … Trotz einiger Verletzter und Millionenschäden fällt die erste Bilanz nach dem Orkan "XAVER" glimpflicher aus als befürchtet."

… u n d [17] : "Was die Folgen des Windes angeht, sei die Sturmnacht aber weniger dramatisch verlaufen als bei Orkan "Christian", teilte die Feuerwehr Schleswig-Holstein mit."  

TAZ [20] :  "Der Orkan sorgt in Norddeutschland für Überflutungen. Größere Schäden blieben bisher aus…"

SPON [18] :  "Gleichwohl hätte es schlimmer kommen können. ‚Wir haben mit Stand Freitagmittag im Vergleich zu Orkantief "Christian" nur ein Zehntel so viele Schadensfälle‘, sagte ein Sprecher von der Versicherung Provinzial Nord Brandkasse."

NRW (WDR2, 06.12.13) [21] :  "Das Sturmtief "Xaver" ist über NRW hinweg gezogen, ohne größere Schäden zu hinterlassen" … "Die Nacht sei verhältnismäßig ruhig geblieben, sagte ein Polizeisprecher im NRW-Lagezentrum in Düsseldorf am Freitagmorgen".

Belgien [1] :  "Nach dem Durchzug des Orkans "Xaver" sind die befürchteten Überschwemmungen an der belgischen Küste ausgeblieben. Ein regionaler Katastrophenplan wurde wieder aufgehoben, berichtete der öffentlich-rechtliche Radiosender RTBF am Freitag"

Neederland [1]  :  "Xaver" hat in den Niederlanden keine großen Schäden hinterlassen. Das teilten die Behörden am Freitag mit."

F a z i t  [22] :
"Insgesamt lief das Unwetter aber glimpflich ab!"

Bei alledem sind selbstverständlich zwei Dinge anzumerken:

Die Sicherheit der Deiche ist eine ganz andere als z.B. noch 1962, und das Katastrophen-Management ist im Laufe der letzten Jahrzehnte immer besser geworden.

Klaus-Eckart Puls, EIKE

Ergänzender Hinweis der Redaktion:

Auch manchen Medien fiel nachträglich auf, dass ihre "Spezials", Sondermeldungen und ganzseitigen Berichterstattungen dem eigentlichen Anlass – ein etwas stärkerer aber ziemlich gewöhnlicher Wintersturm, mit dem schönen Namen Xaver- nicht gerecht wurden und brachten auch einige wenige kritische Berichte. Darunter der des unübertroffenen Hans Zippert mit "Zippert zappt" in der Welt vom 7.12.13

Hier ein Auszug:

Der Wetterdienst hat seine Warnungen teilweise aufgehoben. Die gefährlichsten Live-Ticker der Fernsehsender flauen ab, ohne größere Schäden anzurichten. Die nach unten offene Sack-Skala zeigte Werte von bis zu 40 Sack Reis pro Stunde, die irgendwo in Deutschland umgefallen sind. Im Garten von Schloss Bellevue fiel der Weihnachtsbaum um. Es wird darüber spekuliert, ob Gauck deshalb zurücktreten oder eine Rede halten muss. In Berlin wurden mehrere Seiten aus dem Koalitionsvertrag weggeweht. Helmut Schmidt, der schon bei der Sturmflut 1962 Hamburg vor dem Schlimmsten bewahrt hatte, versuchte vergeblich, sich auf dem Balkon eine Zigarette anzuzünden. Er konnte aber unversehrt ins Haus zurückgeschoben werden.

Q u e l l e n :

[1] http://www.rp-online.de/panorama/deutschland/orkan-xaver-sturmfluten-drohen-der-sturm-laesst-fluege-zuege-ausfallen-aid-1.3866302

[2] http://www.sueddeutsche.de/panorama/orkan-xaver-hamburger-behoerde-warnt-vor-sehr-schwerer-sturmflut-1.1836032 ; 6. Dezember 2013 05:51

[3] http://www.focus.de/panorama/wetter-aktuell/sturm-xaver-im-live-ticker-sturm-xaver-im-wetter-ticker-orkan-xaver-bedroht-hamburg-berlin-bremen-bremerhaven-kiel-rostock-sylt-unwetter-kueste-sturmflut-norddeutschland_id_3456501.html ; 06.12.2013, 15:12 Uhr

[4] http://green.wiwo.de/supersturm-xaver-fuenf-wichtigsten-fragen-zum-orkan/ ; 05.12.2013, 11:22h

[5] Helmholtz-Zentrum für Küstenforschung, HH-Geesthacht

[6] DLF, 06.12.13, "Informationen am Morgen"

[7] SPIEGEL-ol, 06.10.2013: Widersprüchliche Prognosen: Forscher entdecken Unstimmigkeiten im Uno-Klimabericht; http://www.spiegel.de/wissenschaft/natur/vorhersagen-im-5-ipcc-bericht-2013-kritik-am-uno-klimareport-a-926348.html

[8] Die Weltwoche, 25.09.2013, Ade, KlimakatastropheSPIEGEL-ol, 06.10.2013: Widersprüchliche Prognosen: Forscher entdecken Unstimmigkeiten im Uno-Klimabericht; http://www.spiegel.de/wissenschaft/natur/vorhersagen-im-5-ipcc-bericht-2013-kritik-am-uno-klimareport-a-926348.html

[9] SPIEGEL-ol ; 27.09.2013 Welt-Klimareport: Fünf große Sorgen, fünf große Fragen ;  http://www.spiegel.de/wissenschaft/natur/bilanz-des-5-ipcc-uno-klimareports-in-stockholm-2013-a-924791.html

[10] G.ROSENHAGEN: Zur Entwicklung der Sturmaktivität in Mittel- und Westeuropa,  promet, Nr.1/2, 2008, S.60

[11] Bundesamt für Schifffahrt und Hydrographie, Presse-Mitt. 26.09.2007

[12] IDW Pressemeldung vom 04.12.2013 ; Helmholtz-Zentrum Geesthacht – Zentrum für Material- und Küstenforschung

[13] H.v.Storch, J.Doerffer, U.Kreis : Metropol-Region Hamburg, Klimabericht, KlimaCampus Univ. HH, 2010, Auszug, S.21

[14] http://www.spiegel.de/panorama/sturm-und-sturmflut-fragen-und-antworten-zu-orkan-xaver-a-937583.html ; SPON 06.12.2013, 14:35 Uhr

[15] http://www.wetter3.de/

[16] http://www.wetterzentrale.de/topkarten/fssatms1.html

[17] http://www.spiegel.de/panorama/sturm-und-sturmflut-fragen-und-antworten-zu-orkan-xaver-a-937583.html ; SPON 06.12.2013, 14:35 Uhr

[18] http://www.spiegel.de/wissenschaft/natur/bilanz-von-orkan-xaver-sturmflut-warnung-vor-sturm-und-hochwasser-a-937664.html    06.12.2013 ; 20:48 Uhr

[19] Nordsee-Z., 07.12.2013, S.1

[20] http://www.taz.de/Sturm-Xaver-erreicht-Deutschland/!128831/ ; 05. 12. 2013

[21]  http://www1.wdr.de/themen/panorama/wetter1198.html

[22] DLF, 07.12.2013, 08.45h, Informationen am Morgen

===============================================

PDF "Puls.XAVER" zum runter laden:

siehe unten

Related Files




Herbstwitterung 2013 in Deutschland- eher unspektakulär

Der September 2013 bescherte uns letztmalig ein paar Sommertage, doch schon ab dem 9. setzte der herbstliche Temperaturrückgang ein. Über 2 Wochen dominierte feucht- kalte Witterung, ehe sich- wie üblich- im letzten Monatsdrittel eine Schönwetterphase einstellte, die zur Freude der Späturlauber bis zum 4. Oktober andauerte. Allerdings verlief diese als „Altweibersommer“ bekannte Singularität diesmal recht kühl, denn es gab mehrfach und verbreitet schon Boden- und vereinzelt auch erste Luftfröste, und die Tagestemperaturen blieben trotz der Herbstsonne wegen des unangenehmen, kalten Nordostwindes meist schon weit unter der 20- Grad- Marke, so dass es eher ein „Kaltweibersommer“ war. Bis Mitte Oktober herrschte nass- kaltes Regenwetter vor, ehe ein Wärmerückfall aus Südwest zwar wechselhaftes, aber sehr mildes Wetter einleitete, das bis fast zum Monatsende andauerte und an einzelnen Tagen noch Höchstwerte über 20, in Süddeutschland vereinzelt sogar über 25°C, brachte. Auch in der ersten Novemberdekade waren vielerorts noch zweistellige Tagesmaxima zu beobachten. Ab der Monatsmitte sanken die Temperaturen auf Spätherbstniveau mit schon häufigen Nachtfrösten, und im letzten Monatsdrittel kündigte sich schon der Winter mit vorübergehenden Schneefällen bis ins Flachland an. Wegen der zeitigen Septemberkälte fiel das Laub relativ schnell, zumal einige Stürme in der letzten Oktober- und der ersten Novemberdekade den Blattfall beschleunigten.

Die kurzfristige Entwicklung der Herbsttemperaturen

Die folgende Grafik verdeutlicht, dass bei Betrachtung der letzten 15 Jahre (ein sehr kurzer Zeitraum, aber immerhin schon eine halbe Klimanormalperiode) kein Anstieg der Herbsttemperaturen erfolgte, sondern eher ein (keinesfalls signifikanter!) geringer Rückgang.

Die Station in Erfurt ist fast identisch im Temperturverhalten der letzten 15 Jahre mit den Herbsttemperaturen Deutschlands: Die CO2-Konzentrationen sind gestiegen (kleine eingeblendete Grafik), die Wirkung von CO2 scheint in den letzten 15 Jahren Herbst in Deutschland aber ausgesetzt zu haben.

 

Betrachtet man die einzelnen Herbstmonate, so zeigen September und Oktober Stagnation bis Abkühlung, während im November eine unbedeutende Erwärmung stattfand. (siehe Grafiken am Ende des Artikels)

Die langfristige Entwicklung der Herbsttemperaturen in Deutschland und deren mögliche Ursachen

Die folgenden zwei schematischen Grafiken verdeutlichen, wie sich die Herbsttemperaturen (jeweils rötliche, zweite Kurve von oben) im Vergleich zu den anderen Jahreszeiten seit 1761 entwickelt haben. Um etwas über den deutschen „Tellerrand“ hinauszuschauen, sind in der unteren Grafik die Mittelwerte von Zentralengland (CET = Central England Temperature Records) dargestellt. Man erkennt einen erheblichen, in beiden Messreihen sehr ähnlichen, kräftigen Anstieg der Herbst- und Frühjahrstemperaturen, während die Wintertemperaturen in Deutschland stärkere, periodische Schwankungen als in England aufweisen und neuerdings in Deutschland seit über 20 Jahren wieder fallend sind. Außerdem zeigt sich in England seit kurzem ein Nachlassen des sommerlichen Temperaturanstiegs, während in Deutschland die Sommerwerte im Vergleich zu 1761 noch steigen und erst die letzten 15 Jahre eine Stagnation zeigen, die aber in der langfristigen Trendlinie noch nicht angezeigt wird.

Neben Schwankungen der Sonnenaktivität (die jeweiligen Maxima des etwa 210- jährigen Hauptsonnenzyklus bilden sich in den insgesamt relativ hohen Temperaturen zum Ende des 18. und des 20. Jahrhunderts ab) sind zunehmende Erwärmungseffekte durch Besiedlung, Bautätigkeit und geänderte Landnutzung ein wesentlicher Treiber des Temperaturanstiegs gewesen. Man beachte, dass die in den obigen Grafiken gezeigten Messreihen nicht um diesen Effekt bereinigt wurden! Für Deutschland hatten KOWATSCH/LEISTENSCHNEIDER diesen Effekt für den Zeitraum 1891 bis 2012 untersucht und ihre Ergebnisse in folgender Grafik zusammengefasst:

 

Nach diesen Untersuchungen geht der in Deutschland beobachtete Temperaturanstieg fast gänzlich auf das Konto der verschiedenen, nutzungsbedingten Erwärmungseffekte (hier der Vereinfachung halber „Wärmeinseleffekt“ genannt). Allerdings wurden bislang nur Jahreswerte untersucht. Vertiefende Untersuchungen zu den einzelnen Jahreszeiten stehen noch aus, so dass momentan noch keine Aussagen getroffen werden können, wie stark sich der Wärmeinseleffekt auf die Herbsttemperaturen auswirkte. Eine vertiefende Studie von KÄMPFE/LEISTENSCHNEIDER/KOWATSCH (2013) wies nach, dass Stationen ähnlicher Breiten- und Höhenlage immer dann deutlich wärmer waren, wenn sie nahe bei oder gar in Großstädten lagen:

Die hier zwischen einer (mit knapp über 100.000 Einwohnern nicht einmal sehr bevölkerungsreichen) Großstadt sowie ländlichen Stationen ähnlicher Breiten- und Höhenlage ermittelten Temperaturunterschiede von bis zu fast 1K erhärten den Verdacht, dass wesentliche Anteile des beobachteten Temperaturanstieges in Deutschland vermutlich in allen Jahreszeiten, auf das Konto der Stationen bei Großstädten und/oder an Flughäfen gehen. Und neuerdings gibt es besonders im ländlichen Raum eine rasant anwachsende Wärmequelle, deren erwärmende Wirkung noch einer näheren Untersuchung bedarf- die „Erneuerbaren Energien“. Der massive Ausbau der Windkraftanlagen bremst den Wind und vermindert damit auch die kühlend wirkende Verdunstung sowie den Abtransport warmer Luft in Bodennähe. Die Solarpaneele (mittlerweile nehmen sogenannte „Solarparks“ beispielsweise in Thüringen riesige Flächen ein) verringern mit ihrer sehr dunklen Oberfläche die sogenannte Albedo, also die Reflexion auftreffender Sonnenstrahlung in das Weltall. Etwa 10% der auftreffenden Sonnenstrahlung werden in elektrischen Strom verwandelt, während der große Rest die Paneele regelrecht aufheizt, während hingegen reife, helle Kornfelder durch ihre höhere Albedo, gewachsener Boden und Vegetationsflächen hauptsächlich durch Verdunstung und Transpiration, deutlich kühler bleiben.

 

Was für Thüringen gilt, gilt natürlich auch für andere städtische Wärmeinseln in Deutschland. Düsseldorf ist immer etwas wärmer als die Station in einem Vorort von Bochum. Und wenn der DWD auf seiner homepage neue zukünftige Temperaturrekorde im Sommer ankündigt, dann gelten solche Vorhersagen immer für Städte. z.B. für München

Bleiben wir aber beim Herbst. Nun bleibt noch die Frage nach möglichen Ursachen des rhythmischen Temperaturverlaufs, welcher sich auch bei den Herbsttemperaturen sowohl in Deutschland als auch in England zeigt. KÄMPFE wies 2013 nach, dass das Häufigkeitsverhalten der Großwetterlagen das Temperaturverhalten in Deutschland wesentlich mitbestimmt. Als eine mögliche Ursache für das Häufigkeitsverhalten der Großwetterlagen erwies sich die Atlantische Mehrzehnjährige Oszillation (AMO). Die nächste Grafik zeigt anhand der Werte der Säkularstation Potsdam (Quelle: PIK), dass die Häufigkeit von Großwetterlagen mit südlichem Strömungsanteil (unterste, rote Kurve), die Sonnenscheindauer (gelb), die Herbsttemperaturen in Potsdam (braun) und die AMO (grün) während der vergangenen 120 Jahre einen ähnlichen Verlauf aufwiesen; allerdings bedarf es dazu noch vertiefender Untersuchungen:

Man erkennt eine deutliche Zunahme der Großwetterlagen mit Südanteil. Und genau diese waren auch die Hauptursache für den milden Oktober 2013, der insgesamt recht sonnenscheinarm ausfiel. Im Jahresverlauf war der Einfluss der Großwetterlagen mit Südanteil auf die Lufttemperaturen in Deutschland im Oktober am größten:

Als letzte mögliche Ursache der insgesamt gestiegenen Herbsttemperaturen bliebe noch die Sonnenscheindauer zu betrachten, welche während der vergangenen 30 Jahre in allen Jahreszeiten mehr oder weniger deutlich zunahm. In den strahlungsreichen Jahreszeiten (Frühling und Sommer) beeinflusste sie das Temperaturverhalten in Deutschland mit Bestimmtheitsmaßen von 30 bis 70% ganz wesentlich- je länger die Sonne schien, desto wärmer wurde es. Im Herbst lässt jedoch der positive Einfluss der Sonnenscheindauer  auf die Lufttemperaturen stark nach; lediglich die Septembertemperaturen werden noch relativ deutlich von der Sonnenscheindauer beeinflusst (nächste 3 Grafiken; Datenquelle PIK):

 

  

Betrachtet man den Herbst (September, Oktober und November) insgesamt, so ergibt sich ein Bestimmtheitsmaß von 20%.

Alle verwendeten Temperaturwerte haben wir vom Deutschen Wetterdienst in Offenbach und vom PIK Potsdam erhalten.

September:

Der September in Deutschland zeigt einen ähnlichen Verlauf wie die Jahrestemperaturen in Deutschland. Es hat sich eigentlich nicht viel getan im letzten Vierteljahrhundert. Allerdings zeigt dieser Monat keine Sommerverlängerung mehr in den Herbst hinein wie man noch vor einigen Jahren hätte glauben können, die Temperaturen vom September sinken in Deutschland in den letzten Jahren. Der Leser möge die kleine eingeblendete Grafik beachten, hierin sind die steigenden CO2-Konzentrationen der letzten 25 Jahre zum Vergleich abgebildet. Keinesfalls hat nun die behauptete Erwärmungswirkung von CO2 im September ausgesetzt, diese gibt es schlichtweg nicht. Die Korrelation ist Null.

 

Auch der Oktober zeigt in Deutschland einen ähnlichen Verlauf wie der September. Nur der diesjährige Oktober 2013 war etwas milder als die letzten sechs Oktober der vergangenen Jahre. Deshalb ist die Polynomkurve am Schluss kaum fallend. Im ganzen Zeitraum der letzten 25 Jahre sind die CO2-Konzentration natürlich kontinuierlich angestiegen, ohne jede Wirkung auf die Temperaturen.

Ein klein wenig abweichend zeigt sich der November der letzten 25 Jahre in Deutschland.

Der November ist einer der wenigen Monate in Deutschland, der in den letzten zweieinhalb Jahrzehnten etwas milder geworden ist. Das zeigt sich  in der leicht steigenden Polynomkurve der letzten 25 Jahre. So richtig winterlich kalte November gab es in den letzten 10, 12 Jahren kaum mehr, allerdings in den letzten vier Jahren auch keinen Trend zu einer weiteren Erwärmung.

Fazit: September und Oktober sind über die letzten 25 Jahre gleich geblieben, wobei die letzten 12 Jahre sogar leicht fallend sind.

Der November zeigt über die letzten 25 Jahre einen leichten Temperaturanstieg, die letzten 12 Jahre sind stagnierend. Über den ganzen Zeitraum sind die Kohlendioxidkonzentrationen jedoch kontinuierlich angestiegen.

Alle drei Monate zusammen bilden den Herbst ab.

 

Zusammenfassend lässt sich sagen, dass eine aktivere Sonne, zunehmende Wärmeinseleffekte in der Umgebung der Messstationen, eine steigende Häufigkeit von Großwetterlagen mit südlichem Strömungsanteil sowie zu einem geringen Teil auch eine längere Sonnenscheindauer (nicht 2013) im Wesentlichen den beobachteten langfristigen, wenn auch sehr geringen Temperaturanstieg im Herbst verursachten,  der  im letzten Vierteljahrhundert hauptsächlich durch den milder gewordenen Novembers verursacht wurde. Von einer panikartigen Klimaerwärmung aufgrund steigender CO2-Konzentrationen kann aber keine Rede sein. 

Josef Kowatsch, Hüttlingen

Stefan Kämpfe, Weimar




Rahmstorfs falscher Alarm – Zwischenruf aus Pilsen

Molekül-Anstreicher und Eis-Genosse verdoppeln Erwärmungstrend seit 1997

von Lubos Motl, Pilsen

…und die Real Climate–Gruppe unterstützt das sofort…

Es ist zum Lachen. Jahrelang haben wir von sogenannten „Forschern“ gehört, dass man Klimatologe sein muss (ein String-Theoretiker mit Spitzennoten in allen akademischen naturwissenschaftlichen Fächern war nie gut genug dafür), um vom Klimatologen-Establishment ernst genommen zu werden. Wie dem auch sei, Stefan Rahmstorf hat kürzlich einen Text veröffentlicht mit der Überschrift

Global Warming Since 1997 Underestimated by Half (Globale Erwärmung seit 1997 um die Hälfte unterschätzt)

Und darin lobt er ein neues Papier aus dem Quarterly Journal of the Royal Meteorological Society mit dem Titel
Coverage bias in the HadCRUT4 temperature series and its impact on recent temperature trends

von Kevin Cowtan, York, und Robert Way, Ottawa.

Die Klima-Alarmschläger mögen es gar nicht, dass die Leute immer mehr erfahren über die “in der globalen Erwärmung eingelegte Pause” – das ist ein weiterer der unzähligen Belege, dass sie Pseudo-Wissenschaftler sind. Deshalb musste eine Studie her, die die “Pause” auf jeden Fall erklärt. Man könnte meinen, die Retter seien Klimatologen.

Wenn man aber auf die Namen klickt, erfährt man, dass Cowtan Fachmann für das Programmieren von Software zur farblichen Darstellung von Protein-Molekülen ist und der Student der Geographie Robert Way ein Grünschnabel auf dem Gebiet der Wissenschaft von der Cryosphäre, der gerne mit dem Permafrost herumspielt, zugleich Dauer-Assistent und Herold auf allen Veranstaltungen für John Cook auf dem in doppelter Ironie so genannten "Skeptical Science" Server.

Um es kurz zu machen: die beiden haben beschlossen, dass HadCRUT4 nicht stimmen kann, wenn dort zu wenig Erwärmung seit 1997/98 gezeigt wird. Also muss ein Fehler in HadCRUT4 gefunden werden. Sie beschlossen, dass das Problem in den Lücken der Temperaturaufzeichnungen liegen müsste, und dass man dieses Problem angehen müsste.

Und so haben sie es gemacht: Sie dachten sich eine neue Methode aus, um die von einigen Wetterstationen fehlenden oder zeitlich lückenhaften Temperaturen „abzuschätzen“, indem sie Daten von Satelliten heranzogen. Das Ergebnis passte, es schien geeignet, die fehlenden Zahlen zu berechnen – ganz besonders, weil der Erwärmungstrend seit den späten 1990ern um ungefähr 0,5 °C pro Jahrhundert höher wurde. Das bedeutet eine Verdoppelung oder Verdreifachung gegenüber der „statistischen Null“, die von HadCRUT4 kam.

Aus vielerlei Gründen halte ich es für äußerst schwachsinnig, wenn sich ein Alarmist plötzlich auf so etwas beruft.

Um Missverständnissen vorzubeugen: Die fehlenden Daten sind ein Problem für die Integrität der auf Wetterstationen beruhenden Daten. Aber damit hat man sich schon auseinandergesetzt. Richard Muller, Leiter der nach seiner Aussage besten und neutralen Forschergruppe names BEST (Berkeley Earth Surface Temperature), hat sich darangemacht, genau dieses Problem des Auffüllens der Lücken im denkbar besten mathematischen Sinne zu lösen.

(Ich habe mit den geografischen Lücken auch herumgespielt, z. B. nachdem ich herausfand, dass 30% der Wetterstationen in ihren Aufzeichnungen, die durchschnittlich 80 Jahre überdecken, einen Abkühlungstrend zeigten. Doch ich wollte nicht in Konkurrenz zu Muller et al. treten, weil diese Arbeit wirklich mehrere unabhängige Köpfe, Zeit und Geld braucht, wenn etwas daraus werden soll.)

Schließlich meinten Muller et al., dass es Sinn mache, sich die Temperaturen aus der ersten Hälfte des 19. Jh und des 20. Jh. vorzunehmen: Die bestätigten sehr gut alles, was HadCRUT und GISS behaupteten.

Jetzt aber erscheinen ein Molekül-Buntfärber aus York, England, und ein kanadischer Kryosphären-Grünschnabel aus Ottawa auf der Bildfläche, und sie „zeigen“, dass alle diese Zahlen falsch gewesen wären.

Wahrscheinlich haben Cowtan und Way keinen „dummen numerischen Fehler“ gemacht, obgleich ich natürlich ihren Code nicht überprüft habe. Sie haben eine auf den ersten Blick richtige Logik angewendet und sie haben ein Ergebnis erzeugt. Das Ergebnis erhöhte die Erwärmung  – durch eine Koinzidenz – und deshalb stiegen ihr Wunsch und ihre Chance für eine Veröffentlichung des Papiers.

Da müssen wir uns aber fragen: Gibt es irgendeinen Grund für einen solchen “hybriden” Datensatz, dass dieser uns genauere Informationen über den Trend der globalen Erwärmung liefern sollte, als “nicht-hybride” Datensätze?

Ich bin überzeugt, die Antwort ist NEIN. Eine paradoxe Eigenart der Cowtan/Way-Schlussfolgerungen ist, dass sie Satelliten-Daten benutzt haben, um den (kleinen) Erwärmungstrend zu verstärken, wie in HadCRUT gezeigt – und dies, obwohl die Satelliten-Daten seit 1997/98 einen Abkühlungstrend zeigen. Ironie, könnte man sagen. Und warum eigentlich die Satelliten-Daten nicht für die gesamte Erde nehmen?

Mit dem Anstücken von Daten aus unterschiedlichen Datensätzen muss man äußerst vorsichtig sein. Mir scheint, die beiden verfügen über keine Vorstellung über die Fehlerbereiche (besonders über die verschiedenen Arten von systematischen Fehlern), die sie durch ihre Hybridisierungsmethode eingebracht haben. Sie haben ein Computer-Spiel programmiert – eine Software-Simulation – die sah gut für sie aus, aber sie haben keine wirklich wissenschaftliche Beurteilung der Genauigkeit und Zweckmäßigkeit ihrer Methode gemacht. Die Fehlerbereiche können sehr wohl viel größer sein, als wenn sie nur einen Datensatz benutzt hätten.

Und außerdem: Lücken mit Daten aus einer völlig anderen unabhängigen Datenquelle zu füllen, könnte brauchbar sein zur Beschreibung von lokalen und zeitlichen Schwankungen von Temperaturen. Aber es ist das Schlimmste, was man der Auswertung eines übergeordneten, langzeitlichen, globalen Trends antun kann, genau deswegen, weil jedes Anstücken einen neuen Fehler aus der jeweiligen Kalibrierung einbringen kann.

Folgendes Beispiel: die Lücken könnten meist für die Winter in den jüngsten vergangenen Jahren zutreffen, und auf die Sommer in älteren Jahren (zumindest die jeweiligen Proportionen könnten unterschiedlich sein). Wenn man also die Temperaturen aus einem Datensatz mit den Temperaturen aus einem anderen Datensatz mit kleineren Variationen ersetzt (das könnte der Fall bei den Satelliten-Daten sein), dann bedeutet das, dass die jüngeren Daten verstärkt werden und die älteren abgeschwächt. Man würde dabei fälschlicherweise den Erwärmungstrend erhöhen (oder man würde den Abkühlungstrend in einen Erwärmungstrend umkehren).

Wenn man sich vor Augen führt, wie groß die Unterschiede zwischen Winter- und Sommertemperaturen sind, kann man sehen, dass der Effekt auf den errechneten Trend erheblich ist, sogar wenn die lokalen, zeitlichen Temperaturschwankungen recht gut rekonstruiert sein mögen. Ich sehe überhaupt kein Anzeichen, dass die beiden ihre Trendberechnungen gegen dieses augenscheinliche Problem abgesichert haben. Sie scheinen in diesen Fragen völlig naiv zu sein.

Aus vielerlei Gründen, die ich oben skizziert habe, glaube ich nicht, dass die Methodologie der Beiden genauere Schätzungen der globalen Mitteltemperaturen erbrachte als z. B. Muller in BEST.

Ich finde nur die abartige gesellschaftliche Dimension solcher “Ergebnisse” bemerkenswert. Nach so vielen Jahren der Behauptung, dass der Erwärmungstrend mit Sicherheit bekannt ist usw., wird er nun ganz einfach um 0,5 °C pro Jahrhundert verändert – sogar für die jüngeren Jahrzehnte, für die wir die am besten überprüfbaren Rohdaten haben. Ein halbes Grad pro Jahrhundert ist fast der gesamte Erwärmungstrend, den wir gewöhnlich dem 20. Jh zuschreiben! Wenn also ein Programmierer für Computergrafik und ein Kryosphären-Grünschnabel diesen Wert um 150% über Nacht verändern dürfen, und Deutschlands wichtigster Alarmist im Lebensalter unter 50 Jahren sofort Beifall klatscht, dann müsste doch auch erlaubt sein, den Trend in die umgekehrte Richtung zu verändern und die Erwärmung für das 20 Jh. wäre weg, nicht wahr?

Die Rolle der Zensur oder einer künstlich erzeugten Zustimmung für Papiere dieser Art käme an erster Stelle, nicht die Wissenschaft – vermutlich von der Politik und vorgegebenen Zielsetzungen beeinflusst.

Damit es klar ist, ich glaube nicht, dass es eine hohe Ungewissheit über den Erwärmungstrend im 20. Jh. gibt. Der Erwärmungstrend von 1901 bis 2000, der mit irgendwelchen linearen Regressionen aus irgendwelchen hypothetisch „exakten globalen Temperaturdaten“ errechnet wurde, ist 0,7 ± 0,2 °C, würde ich sagen. Wenn man ihn um 0,5 °C verändert, ist das eine 2,5-Sigma Änderung, ein ziemlich unwahrscheinliches Ereignis. Die Wahrscheinlichkeit, dass die Zahl 0.7 ± 0.2 °C negativ ist, gleicht 3,5-Sigma Standardabweichungen – etwas um 1 in 3.000. Es kann nicht “gänzlich ausgeschlossen werden”, aber es ist sehr unwahrscheinlich, dass der tatsächliche Erwärmungstrend in Wahrheit negativ war.

Die Bereitschaft von Herrn Rahmstorf bereitwillig auf verlorenem Posten zu kämpfen ist grenzenlos. Seine Unterstützung für das Papier ist ein Fall für psychiatrische Hilfe (falls jemand behaupten würde, eine dreimal so hohe Erwärmung lauere, würden Rahmstorf und seine Gesinnungsgenossen nicht eine Sekunde zögern, auch diesen Mist zu verkaufen). Ich kann Ihnen versichern, dass alle diese (theoretisch) radikalen Veränderungen der Klimadaten keine Konsequenzen für das praktische Leben haben.

Eine Veränderung des Trends um 0,5 °C pro Jahrhundert können Sie nicht wahrnehmen – noch nicht einmal, wenn Sie 100 Jahre warten würden und sich genau erinnern könnten, wie Sie sich gefühlt haben, bevor Sie mit dem Abwarten angefangen haben. 😉

Und ich muss nicht eigens erklären, dass solche Temperatur-Veränderungen nicht gefährlich sein können – eine Temperaturveränderung kann nur gefährlich werden, wenn sie mindestens 10 mal größer ist, als wir wahrnehmen können. Da lauert nirgendwo eine Gefahr.

http://motls.blogspot.de/2013/11/molecule-painter-doubles-warming-trend.html/ more

Übersetzung: Helmut Jäger, EIKE




UN-Klimafanatiker

Zufälligerweise waren diese beiden UN-Institutionen die Eltern einer dritten UN-Institution, nämlich des IPCC. Ban Ki-Moon hat das in seiner Rede erwähnt. Tatsächlich ging er so weit, der versammelten UN-Mannschaft zu versichern: „Während die UN noch vor wenigen Jahren wegen der Klimaskeptiker besorgt waren, hat der jüngste IPCC-Bericht all dem ein Ende gemacht“.

Seinen Worten zufolge gibt es jetzt „viel mehr Klarheit“. Es ist eine „wissenschaftliche Tatsache“, dass die Menschheit an der Klimaänderung schuld ist.

Immer wenn sich die Führer der UN versammelt, erzählen sie sich genau das untereinander. Offensichtlich ist es auch das, woran sie glauben.

Sie halten sich selbst zum Narren, wenn sie dem hoch politisierten IPCC die Aufgabe überlassen, wissenschaftliche Fakten von Fiktionen zu trennen. Trotz der immer weiter zunehmenden Berichte, Blogbeiträge und Bücher, die das Gegenteil belegen, halten sie die Fahne des IPCC immer noch universell sehr hoch. Mehr noch, sie fantasieren, dass ein UN-Dokument die Macht hat, alle Kritiker zum Schweigen zu bringen, alle Zweifel zu ersticken.

Trotz der Ergebnisse eigener Umfragen, denen zufolge die Klimaänderung der unterste Punkt der öffentlichen Probleme weltweit ist, sind die UN-Funktionäre unbeeindruckt. Sie sind die Gesalbten. Sie sind auf einer Mission. Verdammt, schließlich ist der Planet in Gefahr!

Wie jedermann auch sind sie ihren Wahnvorstellungen verpflichtet. Sie beanspruchen, dass jede auffällige Weltsicht für sie arbeitet. Das Problem ist, dass sie versuchen, diese Weltsicht uns allen überzustülpen.

Bei einer anderen Gelegenheit hat Ban Ki-Moon kürzlich von „einer umfassenden Transformation, die zur Stabilisierung des Klimas notwendig ist“ gesprochen – einer Transformation, die zu begrüßen man von uns erwartet. Er sprach von der Notwendigkeit eines „ambitionierten globalen Abkommens“ – ein Abkommen, von dem von uns erwartet wird, dass wir uns danach richten.

Finanzierung und finanzielle Verpflichtungen spielen in seinen Reden eine große Rolle. „Gegenwärtige Zusagen sind einfach unzureichend“, erklärt er. Sein Kreuzzug ist hinter unserem Geld her.

Wenn man aufhört, darüber nachzudenken, ist das alles ziemlich unglaublich. Das Ignorieren der öffentlichen Meinung und die Erklärung, dass Minderheiten, mit denen man nicht übereinstimmt, nicht mehr existieren, sind unklug. Solches Verhalten ist absolut respektlos. Es ist antidemokratisch.

Warum sollten die Menschen und Völker, die die UN so schäbig behandeln, auch nur das geringste Interesse daran haben, die UN-Aktivitäten zu finanzieren?

Link: http://nofrakkingconsensus.com/2013/11/29/un-climate-fanatics/

Übersetzt von Chris Frey EIKE




Scheitern einer Prophetie

Vor mehr als fünf Jahren, im Mai 2008, erschien factum mit der Titelgeschichte «Die überhitzte Prognose – Fakten und Meinungen rund um den Klimawandel». Die Interviews und Berichte waren eine kritische Bestandsaufnahme der damaligen Berichterstattungin den Medien: Inwieweit entsprach die Behandlung des Themas der journalistischen Verpflichtung zur Wahrhaftigkeit?

Die Bilanz fiel ernüchternd aus. Wissenschaftliche Fakten und Ereignisse, die gegen einen anthropogenen (von Menschen verursachten) Klimawandel sprechen, wurden ausgeblendet.

Sie wurden schlicht nicht berichtet. Fast alle Medien, auch die Politik, vermittelten den Eindruck, in der Wissenschaft bestünde Einigkeit darüber, dass es eine dramatische Klimaerwärmung gäbe – ja, dass eine globale Katastrophe schier unausweichlich sei.

Die erste Aussage erwies sich damals (wie auch heute) als falsch. Die Medienwissenschaftler Prof. Mathias Kepplinger und Senja Post hatten im Rahmen einer Studie alle 239 professionellen Klimaforscher Deutschlands im Range eines Professors befragt, wie sie zu dem Thema stehen. Ergebnis: Nur eine Minderheit der Klimaforscher glaubte 2008 an einen von Menschen verursachten Klimawandel [1]. Als Mediennutzer musste man zu einem anderen, einem ganz falschen Eindruck kommen. Die Meinung der Mehrheit der Forscherfand in den Medien keinen Widerhall. 2008 gab es praktisch keine Berichterstattung über Aussagen von Wissenschaftlern, darunter viele Nobelpreisträger, die dem Mainstream widersprachen.

Das hat sich inzwischen geändert, seit der Klimarat einräumen musste, dass die Temperatur der Erde seit 15 Jahren unverändert ist. Und doch herrscht in der Öffentlichkeit noch immer ein falsches Bild von vielen Fakten, vor allem, weil Medien auf Übertreibung und Katastrophismus getrimmt sind. So glauben heute wie damals die meisten, dass es ein dramatisches globales Abschmelzen von Gletschern gäbe.

Für diese Behauptung fehlt aber jede wissenschaftliche Grundlage: Nur ein winziger Bruchteil der Gletscher, im Promillebereich, wird überhaupt untersucht. Von weltweit 160 000 Gletschern liegen gerade einmal von 120 Daten vor, berichtet der Gletscherforscher Jonathan Bember. Und keinesfalls alle Gletscher, über die Informationen vorliegen, schmelzen. Manche wachsen, manche werden kleiner.

Ebenso sind die meisten Menschen der Meinung, es bestehe ein ursächlicher Zusammenhang zwischen dem Rückgang von Gletschern und der postulierten Erwärmung durch menschliche Einflüsse. Tatsache ist aber, dass es auch in früherer Zeit starke Gletscherschmelzen (und auch erneutes Wachstum) gab. Vor allem ist zu bedenken, dass der gegenwärtige Rückgang von Alpengletschern bereits 1860 begann, zu einer Zeit also, als menschliches Verhalten schwerlich der Grund gewesen sein konnte.

Medien sind süchtig nach der Katastrophe und dem Skandal, weil ihre Nutzer genau dies nachfragen. Dass der Nordpol aktuell einen Zuwachs von 1,6 Millionen Quadratkilometern Eisfläche hat (60 Prozent mehr als im Spätsommer 2012) stand in kaum einer Zeitung. Auch wurde kaum vermeldet, dass der Südpol 2012 so viel Eisfläche hatte wie noch nie seit Beginn der Messungen. Hingegen stand die Rekordschmelze des Nordpols von 2012 auf jedem Titel.

Die Einstellung der Bevölkerung wird von veröffentlichter Meinung geprägt, nicht von Tatsachen.

Aus wissenschaftlicher Sicht kann man sich auch fragen, welchen Sinn es hat, CO2 zu einer Art Grunderkrankung des Erdballs zu erklären. Ohne CO2 gäbe es kein Leben auf der Erde. Steigende Werte bewirken eine Vitalisierung alles Lebendigen. Pflanzen wachsen schneller, sind robuster und ertragreicher. Schweizer Forscher stellten fest, dass höhere CO2-Werte die Biodiversität im Alpenraum erhöhen. Schwankende CO2-Werte sind kein Phänomen unserer Zeit. Es gab sie immer. Wie es dazu kam, dass der industrielle Ausstoss von CO2 zum wichtigsten klimarelevanten Stoff deklariert wurde, hat der ehemalige Greenpeace-Aktivist Jeremy Leggett in dem Buch «The Carbon War» in erstaunlicher Offenheit geschildert. Es war eine politische Entscheidung, keine wissenschaftliche.

In der Februar-Ausgabe der «Prodeecings of the National Academy of Sciences», einem der weltweit angesehensten wissenschaftlichen Magazine, kommen Forscher der Universität von Washington in Seattle zu dem Ergebnis, dass der anthropogene Anteil an der globalen Erwärmung in der zweiten Hälfte des 20. Jahrhunderts masslos überschätzt werde. Kollegen der Universität Oslo kommen in einer aktuellen Studie zu einem ähnlichen Ergebnis. Sogar eine Verdopplung des CO2-Ausstosses hätte demnach bei Weitem nicht die behauptete dramatischen Auswirkung.

Darauf, dass die Wirkung von CO2 auf die Erdtemperatur überschätzt wird, weist sogar dessen aktueller Bericht hin: Trotz einem Anstieg von CO2 blieb die Erwärmung aus. Der postulierte Zusammenhang fehlt offenbar. Auch im vergangenen Jahrhundert verlief das Auf und Ab der CO2-Werte nicht synchron mit dem Temperaturverlauf. Ungeachtet der Fakten hält der Klimarat nicht nur an der Erwärmung fest, sondern behauptet zudem, jetzt stehe «mit 95-prozentiger Sicherheit» fest, dass der Mensch schuld sei. Aufgrund welcher Fakten, an welcher Erwärmung?

Nüchtern betrachtet wirken auch die Daten von 1951 bis 1998 wenig dramatisch, geschweige denn katastrophal: 0,12 Grad Erwärmung in einer Dekade. Seither der Stillstand mit 0,05 Grad. Dabei muss man noch wissen, dass eine solche Temperaturmessung eine Wissenschaft für sich ist und dass es sich beim Klima der Erde um ein gigantisches und unendlich komplexes System handelt, welches zudem zu annähernd 100 Prozent von kosmischen Faktoren bestimmt wird, vor allem von der Sonne. Die Vorstellung, die Erdtemperatur sei nur bei 0,000 Grad Veränderung «gesund», 0,05 Grad Veränderung sei katastrophal, ist unsinnig. Ist überhaupt vorstellbar, dass die Parameter eines so gigantischen, interdependenten und komplexen, quasi lebendigen Systems sich statisch verhalten, unverändert bleiben?

Die gegenwärtige Entwicklung ist keine Erwärmung. Das war von 950 bis 1250 n. Chr., als die Wikinger ins grüne Grönland zogen und Ackerbau betrieben – und erst recht beim Klimaoptimum in biblischer Zeit – anders. Klimaerwärmung und -Abkühlung sind normale Phänomene. Höhere Temperaturen waren immer zum Wohl der Menschen wie der ökologischen Systeme. Klima ist Wandel.

Auf Messergebnisse kann der Weltklimarat seine Bedeutung nicht gründen – weil die Wirklichkeit diese Daten nicht hergibt. Er versucht, durch möglichst erschreckende, ja apokalyptische Aussagen die Menschen zu einer Folgsamkeit aus Furcht zu führen. Sein politisches Gewicht, seine Macht gründet auf seinen Zukunftsvorhersagen, nicht auf objektiven Messungen. Völlig zu Unrecht erweckt er den Anschein, einwissenschaftliches Gremium zu sein.

Aber ebenso wie der Weltklimarat kein wissenschaftliches, sondern ein politisches Gremium ist, so ist auch dessen Bericht kein wissenschaftliches, sondern ein politisches Dokument. Politiker und Verbandsvertreter feilschen um die Formulierungen. So versuchten deutsche Politiker die ausbleibende Erwärmung der vergangenen anderthalb Jahrzehnte in der Zusammenfassung des Berichts unter den Tisch fallen zu lassen.

Mit dem Klimarat ist die Wissenschaft in die Hände der Politik geraten. Es entstand eine Art bürokratisch-politischer Komplex, der Zugang zu den Geldtöpfen nationaler und internationaler Behörden und Institutionen und zu den Medien gefunden hat. Seine Haupttätigkeit besteht darin, Öffentlichkeitsarbeit für seine eigene Existenzberechtigung zu machen. Die Aussagen des IPPC widersprechen empirischen Erkenntnissen. Das scheitert jetzt und das musste auch scheitern. Langsam dreht sich der Wind.

Kein Mensch kann die Zukunft vorhersagen und es gibt auch keine wissenschaftliche Methode, die dies leisten könnte. Eine aktuelle, in der Fachzeitschrift «Nature Climate Change» publizierte Studie hat 117 der Prognosen zur Entwicklung der Welttemperatur überprüft. Die Trefferquote ist praktisch bei Null. Die Prophetien lagen fast alle (114) falsch und überschätzten die Temperatur. Prophetische Aussagen taugen nur zur Verifizierung einer Theorie und stärken nur dann die Autorität des Propheten, wenn sie eintreffen. Das ist hier nicht der Fall.

Am Beginn des Medienereignisses Klimawandel stand zuerst die Festlegung, dass es einen solchen (menschengemacht und katastrophal) unzweifelhaft gibt und danach begann die «wissenschaftliche» Arbeit: Bestehende und neue Daten wurden anschliessend in das bestehende, nicht mehr hinterfragte Paradigma eingebaut. Das ist vergleichbar mit dem Paradigma von den «geologischen Zeiträumen», die unzweifelhaft Millionen Jahre alt seien.

Zuerst wurde diese Feststellung getroffen, anschliessend wurden die gesammelten Daten in dieses Modell integriert. Den Wissenschaftlern macht das zunehmend Mühe. Früher ging man davon aus, dass es hunderte von Millionen Jahre dauert, bis eine auch nur millimeterdünne Gesteinsschicht entsteht. Heute weiss man, weil es vielfach bei Naturkatastrophen beobachtet wurde, dass sogar dicke Schichtfolgen in kürzester Zeit entstehen können. Da dies mit dem Paradigma von den unendlich langen Zeiträumen kollidiert, postulieren Geologen jetzt, die langen Zeiträume lägen nicht in den sichtbaren Schichten, sondern sie lägen zwischen den Schichten.

So ist es mit dem Klimawandel, hier postuliert schon das Wort die Unanzweifelbarkeit des Sachverhaltes. Dabei ist es absolut unwissenschaftlich, von der Unanzweifelbarkeit auszugehen. Es kann sich, aus wissenschaftlicher Sicht, nur um eine Theorie handeln. Darauf weist auch der Physik-Nobelpreisträger Prof. Ivar Giaver hin: «Die Aussage, ein menschen-gemachter Klimawandel sei ‹unwiderlegbar›, ist unwissenschaftlich und unhaltbar.»

Der ehemalige britische Finanzminister Lord Nigel Lawson hat dazu bemerkt: «Der Glaube an einen menschengemachten Klimawandel trägt religiöse Züge: Dies erklärt auch, warum er in Europa, wo sich die Kirchen leeren, wesentlich stärker ist als etwa in den USA.»

Mit dem postulierten direkten Zusammenhang von CO2 und Erdtemperatur verliert die Klimapolitik ihre Grundlage. Wer übernimmt dafür die Verantwortung? Die wirtschaftlichen Folgen dieser Verschwendung öffentlicher Gelder sind immens. Die Folgen tragen vor allem die ärmeren Bevölkerungsschichten.

Die ökologischen Folgen der Klimapolitik sind schwerwiegend: Dazu zählen, neben vielem anderen, die Brandrodung riesiger Urwälder in Indonesien, um aus Nahrungsmitteln «Biosprit» zu machen. Kaum eine Zeitung interessiert sich für diese Naturzerstörung oder für die Klagen von Ornithologen und Vogelschützern über die Tausende Vögel und Fledermäuse, die durch Windräder jämmerlich verenden. Eine im Wildlife Society Bulletin veröffentlichte Studie nennt die Zahl von 573 000 Vögeln, die jedes Jahr getötet werden, davon 83 000 Greifvögel.

Das christliche Hilfswerk «Brot für die Welt» beklagt die verheerenden Folgen der buchstäblich menschenverachtenden, ja menschenopfernden Energiewende: Nur noch knapp die Hälfte (47 Prozent) der weltweiten Getreideernte dient der menschlichen Ernährung.

Der Anteil, der zu Sprit verarbeitet wird, steigt ständig. Praktisch die ganze amerikanische Maisernte wird verflüssigt. Auch in Europa werden die Flächen zum Anbau von Getreide, aus dem Sprit gemacht wird, ständig ausgedehnt. Gewaltige Mengen, ein Drittel der benötigten Energiepflanzen, wird importiert, um die halbe Welt transportiert, vor allem aus Südamerika und Indonesien, wo Bauern von ihrem Land vertrieben werden und für Hungerlöhne arbeiten müssen. Der Ernährungsexperte von «Brot für die Welt», Bernhard Walter, sagt: «Hunger und Armut sind die Folgen.» Weder aus ökologischer noch aus christlicher Sicht ist es zu vertreten, aus Nahrungsmitteln Treibstoff herzustellen.

Die Theorie vom Klimawandel ist längst milliardenschwere Politik geworden. Sie wird nicht so schnell vergehen wie jene zur Bewahrung vor dem in den 90er-Jahren prophezeiten Waldsterben. Zu sehr konnte sie sich schon global in den Institutionen implementieren. Sie ist Teil eines Systems geworden, welches mit der Notwendigkeit, die Welt zu retten, eine alternativlose «Weltinnenpolitik», eine Weltregierung, anstrebt. Und doch: Mit der Glaubwürdigkeit verliert die Klimatheorie auch als Angstszenario an Kraft.

Viel Geld wurde verschwendet, um das prophezeite Waldsterben abzuwenden. Unimogs quälten sich durch das Unterholz und sprühten hunderttausende Tonnen Kalk in den Wald. Förster, die den Unsinn nicht mitmachen wollten, konnten froh sein, wenn sie nicht strafversetzt wurden. Viele Menschen waren verunsichert, geängstigt durch die schrecklichen Aussichten. Die Schriftstellerin Zoë Jenny erinnert sich an ihre Schulzeit: «Monatelang stand das Thema Waldsterben auf der Tagesordnung. Mit neun Jahren war ich überzeugt, dass es irgendwann, wenn ich gross bin, auf dieser Welt keine Bäume mehr geben wird. Warum konnte man uns nicht auf die Schönheiten der Natur hinweisen und uns auf diese Weise Respekt vor der Umwelt beibringen?»

Mit dem Alarmruf «Waldsterben» war die für die Medien bis dato wenig interessante Forstwissenschaft plötzlich en vogue. «Kritische» Forstwissenschaftler wurden zu gefragten Gästen von Sondersendungen. Deren Modellrechnungen über den Gesundheitszustand von Bäumen waren der «Beweis» für eine katastrophale Entwicklung. Die Meinungen besonnener Forstwirte konnte kein Journalist für seine Story brauchen – allenfalls als Beleg dafür, dass auch im aufgeklärten Zeitalter im Dunkel des sterbenden Waldes noch immer Hinterwäldler hausen. Kein Politiker hätte es sich leisten können, nicht auf den Zug aufzuspringen, Betroffenheit zu zeigen und Gelder zu bewilligen. Heute geht es dem Wald bestens, der Flächenzuwachs in Deutschland, der Schweiz und Österreich ist enorm und der Wald wird immer naturnaher.

Andere Drohgebäude werden den Klimawandel ersetzen. Es wird, und muss, wieder ein globales Bedrohungsszenario sein. Die Theorie von der angeblichen Versauerung der Meere bietet sich als Projektionsfläche an. Das ist dann die Neuauflage der Theorie von der Versauerung der Wälder – diesmal im globalen Massstab.

Schneller kann man kein gutes Gewissen bekommen als durch den Glauben an derlei Katastrophismus. Die Handlungen, die er einem abverlangt, sind leicht zu erfüllen. Der postmoderne Vorteil dieses Glaubens ist, dass er durch solche religiösen Ersatzhandlungen von der Notwendigkeit zu befreien scheint, tatsächlich auf sein Gewissen zu hören. Denn ein Merkmal haben alle Untergangsszenarien gemeinsam: Sie kollektivieren die Schuld und sie begründen eine starke politische, (welt-)zentrale Macht, die entschlossen, notfalls undemokratisch handeln muss, weil ja «Gefahr im Verzuge» ist. Sie verlagern also politische Macht nach oben und gewähren dafür dem zustimmungswilligen Fussvolk die Absolution des guten Gewissens.

Aber: Schuld ist immer persönlich, jeder trägt allein an seiner Schuld und muss – seinem echten Gewissen folgend, das Richtige tun. Das gilt für ein tatsächlich ökologisch verantwortetes Handeln (welches die Natur schützt) genauso wie für die Fragen nach persönlicher Schuld und Erlösung.

[1] Senja Post: «Klimakatastrophe oder Katastrophenklima? Die Berichterstattung über den Klimawandel aus Sicht der Klimaforscher». Medien Skripten, Bd. 51, Verlag Reinhard Fischer, 2008.

EIKE Redaktion zum Artikel:

Der vorstehende Artikel ist erschienen in „factum“, 8 (2013), S. 24-26;  Monatszeitschrift mit aktuellen Themen aus den Bereichen Wissenschaft und Natur, Gesellschaft, Glaube, Literatur und Politik.

EIKE dankt der factum-Redaktion für die Genehmigung des ungekürzten Nachdrucks.

(1)  Link zu factum (hier)

Related Files




Klimaschutz passé – Gott sei Dank! Impressionen von der UNFCCC-Klimakonferenz in Warschau im November 2013

Schon vor Beginn der Konferenz war einiges passiert. Die Presseabteilungen der UN und der ihnen zuarbeitenden sogenannten Umweltschutzorganisationen arbeiteten seit Monaten auf Hochtouren. Im September hatte das IPCC den ersten Teil des neuen Klimasachstandsberichtes vorgestellt, von dem überall behauptet wurde, er bestätige die katastrophalen Klimaszenarien der Vergangenheit. Darauf hatte EIKE mit der Präsentation des skeptischen NIPCC-Berichts (Leitautoren: Prof. S. Fred Singer, Prof. Bob Carter) in Berlin geantwortet.  Als der Taifun Haiyan („Sturmschwalbe“) am 7. November einige Regionen der Philippinen verwüstete, wurde seitens der UN behauptet, daß dies Resultat einer mangelhaften „Klimaschutzpolitik“ sei. Dabei wurde übersehen, daß sich dieser Sturm immer noch im Rahmen des dort in der Taifun-Saison üblichen bewegte, die Sturmintensität in den letzten Jahren abnahm und das größte Problem des neuen IPCC-Berichts bekanntlich in der mangelhaften Prognosefähigkeit besteht. Die Schere zwischen Messungen und Prognosen öffnete sich in den letzten Jahren immer weiter. Auch gibt es mittlerweile keine Parallelität zwischen dem Anstieg der Kohlendioxid-Werte in der Atmosphäre und den stagnierenden bzw. leicht sinkenden Globaltemperaturen mehr – so es sie denn jemals gegeben hat.

Vieles an dieser 19. Weltklimakonferenz erinnerte an frühere Konferenzen. Einiges war neu: So war unübersehbar, daß die polnische anders als die deutsche Regierung keinesfalls hinter den UN-Klimazielen steht. Warschau scheint klar zu sein, daß ein Umschwenken auf die unzuverlässigen und teuren alternativen Energiequellen zu einer Vervielfachung der Energiepreise führen würde, mit entsprechenden negativen Folgen für Wirtschaft und Verbraucher. Außerdem steigen in jedem Land, das in Wind und Solar investiert, die Abhängigkeiten von ausländischen Erdgasimporten. Es ist genau diese Abhängigkeit von Rußland, die die polnische Regierung um jeden Preis vermeiden will. Gespräche mit Vertretern katholischer Organisationen zeigten immer wieder, daß die Klimaschutzpolitik in Polen auch deshalb abgelehnt wird, weil sie nicht im christlichen Menschenbild verwurzelt ist, sondern eher im Widerspruch zur Gottesebenbildlichkeit der Menschen und der menschlichen Würde steht. Abstrakte Kategorien wie „Umwelt“ oder „Natur“ würden nämlich von vielen mittlerweile neben oder über das Wohl des Menschen gestellt. Anderslautende Positionen der deutschen Kirchen werden in Polen durchaus rezipiert, aber als Anbiederung an den „öko-sozialistischen Zeitgeist“ abgelehnt. Neu war im übrigen auch der Stand von BMW, an dem (gegen Obolus an die UNFCCC?) sicherlich ganz uneigennützig der neue E-BMW beworben wurde.

Entsprechend gering fiel das Interesse der polnischen Öffentlichkeit aus: Selten hat man eine Bevölkerung gesehen, die die Idee eines wie immer gearteten Klimaschutzes derart stark ablehnte, wie die polnische. Ein „Anti-Klimagipfel“ der konservativen Opposition im Stadtzentrum Warschaus zog Hunderte Teilnehmer an. Amerikanische Klimaskeptiker wurden eingeladen, am polnischen Unabhängigkeitstag vor 50.000 Demonstranten über die Sinnlosigkeit der UN-Konferenz zu sprechen. Dagegen beteiligten sich am traditionellen Klimamarsch von Greenpeace, WWF & Co. nur wenige Hundert Teilnehmer, davon die Hälfte aus Deutschland und skandinavischen Ländern. In Gesprächen mit diesen Teilnehmern, aber auch mit anderen jungen Klimaaktivisten während der Konferenz, stellte sich heraus, daß deren Reisekosten komplett übernommen worden waren. Zum Teil scheinen dafür Fraktionsmittel zweckentfremdet worden sein, was zumindest nach deutschen Recht äußerst fragwürdig wäre. Doch wo kein Kläger, da auch kein Richter!

Diese Jungaktivisten hatte man offenbar handverlesen: Stellte man solchen Teilnehmern die „falschen“ Fragen, etwa einer Gruppe von vier ca. 20jährigen Studenten aus Dänemark und Schweden, bekam man schnell Antworten wie: „Wer die Klimawirkung von CO2 abstreitet, mit dem rede ich nicht.“ Oder auf die Frage, warum sie eigentlich die Klimakonferenz besuchten: „Wir besuchen die Konferenz im Namen der hier nicht repräsentierten 1,2 Mrd Armen dieser Welt!“

Parallel zur Weltklimakonferenz fand auch der International Coal & Climate Summit der Kohleindustrie statt, was bereits vorher für wütenden Proteste gesorgt hatte. Am Tag der Veranstaltung entrollte Greenpeace ein riesiges Banner an der Vorderseite des polnischen Wirtschaftsministeriums, in dem die Konferenz stattfand. Dazu vor dem Haus drei Dutzend protestierende Klima-Hysteriker mit Atemschutzmasken. Anscheinend glauben diese immer noch, daß man Kohlendioxid mit einem Staubfilter beseitigen kann. Auffallend war auch hier die organisatorische Rolle der deutschen Greenpeace-Sektion: Selbst die Drehleiter stammte von einem Hamburger Unternehmen! Deutsche Aktivisten, die polnische Ministerien besetzen, kamen natürlich in Warschau nicht besonders gut an. Anders als hierzulande üblich wurden alle Beteiligten auch für einige Tage in U-Haft genommen.

Auf dem International Coal & Climate Summit kam es gleich zu Beginn zu einem Showdown zwischen Veranstaltern und grünen Aktivisten, die sich mithilfe von Journalistenausweisen Zugang verschafft hatten, z.T. mit halbversteckter Körperkamera. Die eingeschüchterten Vertreter der Kohleindustrie wurden sogar genötigt, sich eine Rede der UNFCCC-Executive Secretary Cristiana Figueres über die Notwendigkeit der Abschaffung der Kohle anzuhören. Doch auch Klimarealisten meldeten sich in der Diskussion zu Wort, darunter auch EIKE-Vertreter, die fragten, wie es sein könne, daß sich eine wichtige Industrie derartig vorführen lasse. Und ob man sich nicht besser auf die eigene Kernkompetenz, die Herstellung preiswerter Energie, konzentrieren sollte, statt mit der Propagierung eines angeblichen „Clean Coal“-Konzeptes nur von der drohenden Energiearmut abzulenken. Ansonsten sah man an diesem Tage viele VIP-Fahrten mit Blaulicht, was die Beliebtheit der Klimafunktionäre bei den staugeplagten Warschauern weiter sinken ließ ließ. 

Bemerkenswert auch der Ablauf der beiden EIKE-Veranstaltungen. Bei einem Expertenworkshop diskutierten die Teilnehmer intensiv mit den Referenten. Von „grüner“ Seite wurde dieses Gesprächsangebot ignoriert. Gerade jungen Aktivisten wurde damit eine Chance vorenthalten, echte Wissenschaft kennenzulernen. Mehr als dieses Angebot zu machen kann die Skteptikerseite natürlich nicht tun Hineingespielt in die Diskussionen hatte natürlich auch die Entlassung des polnischen Umweltministers, gleichzeitig COP/MOP-(IPCC-) Konferenz-Präsident, im Rahmen einer Regierungsumbildung. Angeblich war der dem Premierminister zu „grün“ (u. a. gegen Fracking). Außerdem erfolgte der Ausmarsch Chinas und 132 „armer“ Länder aus dem Konferenzzentrum aufgrund eines Streits um die Finanzierung.

Am 21. November führte EIKE gemeinsam mit Partnern eine größere Klima- und Energiekonferenz mit ca. 300 polnischen Studenten und anderen Teilnehmern im Auditorium Maximum der Katholischen Kardinal-Wyszynski-Universität (19.000 Studenten) durch. Dazu gab es einen Informationsstand, an dem sich die Teilnehmer mit klimarealistischer Literatur eindecken konnten.

Referenten waren Marc Morano, ClimateDepot, USA („Manipulation vs. Realität – Der Erfolgsdruck der UN“), Walt Cunningham, NASA, Apollo-VII-Astronaut, USA („Menschengemacht oder Natürlich? Die Klimadebatte in der NASA“), Prof. em. Dr. Niels Axel Mörner, Department of Paleogeophysics & Geodynamics, Universität Stockholm, Schweden („Meeresspiegelanstieg – Fakt und Fiktion“), Michael Limburg, EIKE-Vizepräsident, Potsdam („Die Energiewende und ihre Kosten für die Verbraucher“), Prof. Dr. Leszek Marks, Institut für Geologie, Staatliche Universität, Warschau („Climate Change in the Geological Past“) und Dr. Bolesław Jankowski, Vizepräsident, Systems Research EnergySys Ltd., Breslau („Die Katastrophe der UN Klima- und Energiepolitik“).

Die gleichen Referenten hatten bereits am EIKE-Expertengespräch teilgenommen. Dazu kam noch Donna Laframboise aus Kanada vom Blog nofrakkingconsensus.com, Autorin des IPCC-Exposé „Von einem Jugendstraftäter, der mit dem besten Klimaexperten der Welt verwechselt wurde“ („Der UN-Klimarat: Eine Schande für die Wissenschaft“).

Am Folgetag konnte man noch beobachten, wie die UN-Weltklimakonferenz an inneren Widerprüchen scheiterte. Auffällig war besonders, wie beharrlich man sich dem wissenschaftlichen Diskurs verweigerte und daß man inzwischen zu einer reinen Umverteilungsdebatte übergegangen ist. Hunderte Milliarde Dollar soll von den Steuerzahlern der Industrieländer aufgebracht werden, um angebliche Klimaschäden der Vergangenheit und der Zukunft zu beheben. Das sind zumeist Schäden, deren Zusammenhang mit Klimaentwicklungen zweifelhaft ist, auch nach der Lesart des der UN zuarbeitenden IPCC. Das alles soll in einem Weltklimavertrag festgeschrieben werden, der 2015 in Paris beschlossen werden soll. Dazwischen wird es noch Dutzende weiterer Konferenzen geben, darunter 2014 eine weitere Weltklimakonferenz in Lima (Peru). Nach dem Ausstieg der meisten außereuropäischen Industrieländer wie Australien, Japan oder Kanada aus dem internationalen Klimaschutz – auch das wurde in Warschau bekannt – besteht jetzt auf Seiten der EU großer Handlungsbedarf, denn selbst wenn die UN mit ihren düsteren Weltuntergangsszenarien recht hätte, wird es dem europäischen Steuerzahler schlicht unmöglich sein, etwaige finanzielle Lasten aus einem internationalen Klimaabkommen vor den Hintergrund der weiter schwelenden Euro-Krise allein zu schultern. Je eher hier ein Umdenken einsetzt, desto besser für alle.

Über den Autor:

Dr. Holger Thuss ist promovierter Historiker, Gründungsmitglied und Präsident von EIKE, sowie Verleger und Publizist.

Zur EIKE Delegation in Warschau gehörten neben Dr. Holger Thuss, EIKE Vizepräsident Michael Limburg und EIKE Generalsekretär Wolfgang Müller. Marc Morano von CFACT wurde übrigens von den Zeit Reporterinnen Anita Blasberg und Kerstin Kohlenberg im schlampig recherchierten Artikel „Die Klimakrieger“, einem Stück aus der „Zeit“, als der Oberschurke dargestellt, obwohl sie ihn nie getroffen hatten. Entgegem ihren Behauptungen hatten Sie alles über Morano dem Internet entnommen. Wohl deswegen wurde Ihnen soeben der deutsche Reporterpreis verliehen. Wegen exzellenter Recherche! Ulli Kulke nennt dies eklatante Fehlentscheidung:

Zitat Kulke:

Was den Oberschurken angeht, namens Morano, suggerieren die Autorinnen einen Besuch bei ihm, schreiben aber am Schluss, quasi im Kleingedruckten, dass alle Zitate von ihm von einer Website stammen. Wo bleibt da noch die “exzellente” Recherche?




Horch & Guck sind zurück Stasi 2.0 –Smartmeter werden Pflicht

Elektrizität ist nicht gleich Elektrizität

Es gibt kein Windrad, das bei Flaute elektrische Energie produziert und es gibt keinen Sonnenkollektor, der bei Dunkelheit Strom fließen läßt. So einfach ist das und so unumstößlich, wie zwei und zwei vier ist. Jedes Kind im Vorschulalter kann das nachvollziehen. Warum versuchen uns also täglich Politiker und Medien für dumm zu verkaufen? Es geht nicht um Umweltschutz oder Energieversorgung, sondern um Gesellschaftsveränderung. Kein Politiker und kein Kombinatsleiter glaubt an eine Stromversorgung ausschließlich durch „Erneuerbare Energien“. Schon allein dieses Neusprechwort läßt jeden halbwegs gebildete Menschen erschauern. So, als hätte es die Thermodynamik nie gegeben.

Was wir alle kennen, den „Strom aus der Steckdose“ ist ein völlig anderes Produkt, als das, was nach Lust und Laune der Natur aus Windrädern und Sonnenkollektoren kommt. Man könnte sogar sagen, es ist das genaue Gegenteil: Lassen wir es uns daher nicht länger gefallen, daß man uns Äpfel für Birnen verkaufen will. „Erneuerbare Energien“ haben so viel mit dem derzeitigen „Strom aus der Steckdose“ gemeinsam, wie Malzkaffee mit Bohnenkaffee. Es ist bloß ein neuer Ersatzstoff aus der Trickkiste sozialistischer Mangelwirtschaft.

Langsam dämmert es auch mancher Politikerin: Leistung ist nicht gleich Energie, da steckt irgendwo auch noch die Zeit drin! Man kann so viel Megawatt Photovoltaik auf die Dächer pflanzen und Windmühlen in die Landschaft pflanzen wie man will, aber es gelingt trotzdem nicht, auf konventionelle Kraftwerke zu verzichten. Eigentlich ist auch das, ganz einfach zu verstehen: Will man eine bestimmte Energiemenge erzeugen — z. B. den Jahresstromverbrauch von Deutschland — muß man diesen durch die installierte Leistung — z. B. alle installierten Windräder und Sonnenkollektoren — teilen. Man erhält die Zeitdauer, in der die Anlagen — ihrem Typenschild gemäß — laufen müssen. Da es aber zumindest nachts dunkel ist und auch der Wind nicht ständig mit voller Kraft weht, braucht man hierfür gigantische Leistungen. Wenn aber der Wind dummerweise weht und die Sonne strahlt, produzieren diese Anlagen notgedrungen mehr Strom, als das Netz verkraften kann: Man müßte die Anlagen teilweise abstellen. Wenn man sie aber abstellt, produzieren sie übers Jahr gerechnet, noch weniger Energie oder anders ausgedrückt, ihre Vollbenutzungsstunden werden noch geringer.  Ein Rennen, wie das berühmt berüchtigte, zwischen Hase und Igel. Sagen wir es noch einmal ganz einfach und für jeden verständlich: Eine Vollversorgung durch „Erneuerbare“ ist physikalisch unmöglich!

Eigentlich wäre alles ganz einfach. Lasst uns zugeben, daß die „Energiewende“ eine Schnapsidee war und lasst uns ganz schnell aufhören mit dem Geld verbrennen. Aber leider haben wir ja keine Irrtumskultur in Deutschland. Wir gründen lieber einen Volkssturm oder faseln von einer Mauer, die noch hundert Jahre stehen würde, wenn sie bereits einstürzt. Hauptsache: Die Partei hat immer recht, die Partei kann sich nicht irren! Bis zum endgültigen Zusammenbruch, lassen wir uns gerne durch das Gesäusel von Wunderwaffen einlullen. Um die Wunderwaffe Speicher ist es zur Zeit etwas still geworden. Es lassen sich kaum noch Zeugen finden. Zu gering, sind die Fortschritte, die man vorzeigen könnte. Das Dilemma zwischen dem Abkassieren von Forschungsgeldern und dem nötigen schnellen Erfolg ist zu groß geworden. Auch für geübte Schlangenölverkäufer ist der Spagat zwischen dem „wir brauchen noch einige Jahre und natürlich viele Milliarden Subventionen“ und „Energiespeicherung ist überhaupt kein Problem“ zu groß geworden.

Das „smarte“ Netz

Für Hausfrauen, vom Schlage von Frau Professor Claudia Kemfert (Leiterin der Abteilung Energie, Verkehr und Umwelt am Deutschen Institut für Wirtschaftsforschung) ist die Sache ganz einfach: Wenn man zu viel Strom hat, muß man mehr verbrauchen und wenn das Angebot der Natur zu klein ist, eben weniger. So einfach geht Energiewende, jedenfalls für deutsche „Wirtschaftswissenschaftlerinnen“. Ihr Rat von Frau zu Frau: Warum die Wäsche nicht nachts waschen, wenn der Wind nachts weht? Damit läßt sich trefflich in jeder „Talkrunde“ brillieren, in der noch keiner in einer Sozialbau-Wohnung gelebt hat oder jemals eine Waschmaschine, die schon Stunden vor sich her „gemüffelt“ hat, selbst entleerte. Mit der Waschmaschine und dem Trockner (sofern überhaupt vorhanden!) sind die variablen „Großverbraucher“ im Haushalt schon erschöpft. Der üblicherweise größte Einzelverbraucher Kühlschrank/Gefrierer sollte wohl besser nicht abgestellt werden. Man kann aber keinesfalls das Licht ausschalten, nur weil gerade die Sonne nicht scheint. Ist im Haushalt die Stromrationierung schon absurd, ist sie in Industrie und Gewerbe reiner Selbstmord. Wer das nicht glauben mag, sollte einmal Unternehmer über revolvierende Stromabschaltungen in den sog. Entwicklungsländern befragen.

Damit kein Mißverständnis entsteht: Es ist nichts gegen gestaffelte Tarife einzuwenden. Allerdings ist die Flexibilität selbst im Haushalt so gering, daß Aufwand und Kosteneinsparung in keinem Verhältnis zueinander stehen. Sie sind seit Jahren Realität (Optimierung der Spitzenleistung, Nachtspeicher etc.) und wirtschaftlich ausgereizt. Für all die Methoden haben konventionelle Zähler und Rundsteueranlagen vollkommen ausgereicht. Bei der Rundsteuertechnik werden durch das Stromnetz Nachrichten gesendet, die jeder empfangen und nutzen kann. Solche Nachrichten können beim Kunden den Stromtarif wechseln oder auch Geräte an- und abschalten. Entscheidend unter den Gesichtspunkten des Datenschutzes ist, daß das System wie beim Rundfunk die Nachrichten an alle versendet, jeder aber frei entscheiden kann, ob er sie auch nutzt. Es gibt auch keinen Rückkanal. Insofern ist eine Überwachung der Kunden nur „zweckdienlich“ möglich. Beispielsweise kann man bei einer Nachtspeicherheizung mit Rundsteuerung zwar feststellen, ob der Kunde in der Heizperiode viel oder wenig verbraucht hat (Zählerstand) aber nicht, ob er gern länger schläft oder in der Weihnachtswoche Besuch hatte und deshalb das Gästezimmer stärker als sonst üblich geheizt hat.

Kein „Smart Meter“ wird je in der Lage sein, den Verlauf der Sonne zu steuern oder das Wetter zu beeinflussen. Auch ein „Smart Meter“ ist nichts anderes, als die moderne Version der Lebensmittelkarte. Es kann nur den Mangel nach politisch/gesellschaftlichen Kriterien in engen Grenzen verwalten. Wir benötigen nachts elektrisches Licht, weil es nachts dunkel ist. Wenn die Sonnenkollektoren gerade dann keinen Strom produzieren, sollte das weiterhin das Problem der Energieversorger bleiben. Wenn die Windräder mehr Strom produzieren, als das Netz aufnehmen kann, müssen sie gedrosselt werden. Es gibt jedenfalls keinen Grund, das Mittagessen in die Nacht zu verlegen, nur damit der Profit des Windparkbetreibers, wie in den Prospekten versprochen, ausfällt. Ein bischen unternehmerisches Risiko sollte schon bleiben.

Das vermeintliche Milliardengeschäft

„Smart Meter“ sind die Kopfgeburt von den gleichen Kombinatsleitern, die auch so peinliche Werbekampagnen wie „Vorweggehen“ starten. Wobei, eigentlich „Vorweggehen“? Bei der Kapitalvernichtung, beim Abbau von Arbeitsplätzen und der Transformation Deutschlands in ein Agrarland.

Natürlich, ist es weit aus kuscheliger, wenn man Milliardenumsätze mit zwangsverordneten „Smart Metern“ machen könnte, als in international umkämpften Märkten (Computertechnik, Mobiltelefone, Kraftwerksbau etc.) immer wieder gezeigt zu bekommen, daß man längst nicht mehr erfolgreich in der ersten Liga mitspielen kann. Schließlich sind deutsche Konzerne immer gut gefahren, wenn sie an den Lippen der jeweiligen Politiker geklebt haben. Die eigenen Pensionsansprüche konnten noch immer über die (absehbaren) Zusammenbrüche der unterschiedlichen „Reiche“ hinweg gerettet werden.

Die totale Überwachung

Das eigentlich empörende an dem „Smart Meter“ Konzept ist jedoch, daß der Schnüffelstaat nun endgültig in unsere Wohnungen dauerhaft einziehen will. Das „Smart Meter“ ist weit aus weniger ein Stromzähler, als vielmehr der „Vollautomatische Stasi-Chef Mielke“. Es handelt sich um eine Messeinrichtung mit Mikroprozessor und Speichereinheit nebst Rückkanal. Mit dem Stromzähler im Keller (bei großen Mietshäusern im zentralen Zählerraum) hat das so viel zu tun, wie ein Küchenmesser mit einem Maschinengewehr. Im Sinne von Datenschutz und Überwachung sollte sich der technische Laie dieses System eher wie einen Computer mit stets eingeschaltetem Mikrofon in jedem Raum vorstellen, der alle Aktivitäten aufzeichnet und per Internet zu der Überwachungszentrale zur (beliebigen und unkontrollierbaren) Auswertung schickt. Mag ja sein, daß der freundliche Computer einen nur darauf aufmerksam machen will, daß man wieder vergessen hat, das Licht auszuschalten. Kann aber auch sein, daß die Polizei die Daten zur Überprüfung eines Alibis nutzt. Selbstverständlich nur bei schwersten Straftaten! Vielleicht nutzt aber auch irgendein Geheimdienst das System zur Überwachung von geheimen Treffen irgendwelcher Terroristen. Man wird es selbstverständlich nie erfahren. Die schöne neue Welt der Öko-Sozialisten, ist halt viel mehr, als nur „Vogel-Häcksler“ und Dächer im Einheitsblau.

Wer glaubt, das alles sei übertrieben, der hat nicht die geringste Ahnung, was bereits heute Stand der Technik in der Netzleittechnik ist. Wie ausgefuchst bereits heute die statistischen Methoden und Datenmodelle sind. Und nicht vergessen: Ausweichen ist nicht! Auf das Internet oder (stets als Bewegungsmelder eingeschaltete) Mobiltelefon kann man verzichten, aber wer kann und will schon auf eine Wohnung verzichten?

Zuerst veröffentlicht bei NukeKlaus hier 




Buchbesprechung: Sven Plöger, Frank Böttcher: KLIMAFAKTEN,

Das Buch ist gut lesbar geschrieben, wendet sich an „Lehrer und Schüler“, um sie „ideologiefrei“ zu informieren. Nein, ideologiefrei ist es nicht, kann es nicht und will es auch nicht sein. Dies liegt schlicht und einfach an der Definition von „Klima“. „Klima“ ist ein Abstraktum, ihm fehlt die Realität.  Jede Bildung eines Klimawertes setzt langjährige Wetterbeobachtungen voraus. Mittleres Wetter gibt es nicht. Dies sagt Plöger selbst: „Klima kann man nicht fühlen!“ Eine Mitteltemperatur kann man weder lokal noch regional geschweige denn global fühlen, messen, spüren. Die mittlere globale Luftdruckverteilung erzeugt keinen fühlbaren Wind, schon gar keinen Orkan. Was soll eine Schüler an Erkenntnisgewinn ziehen aus dem Satz,  „dass das Wetter in einer Region etwas ganz anderes ist als das globale Klima“? Da werden Äpfel mit Pflaumen verglichen!

Je mehr man sich als Kollege in das Buch vertieft, umso deutlicher offenbart sich sein Zweck: es dient der politischen Klimapflege. Klimapolitik ist Gesellschaftspolitik und ist ein „Generationenprojekt“, eine „politische Mammutaufgabe“. Das ganze Buch besteht aus Suggestivfragen, auf die plausibel erscheinende Suggestivantworten gegeben werden. Dies schädigt zwar den fachlichen Ruf, aber dafür genießen die Autoren die Sonne des Zeitgeistes und gelten als Musterschüler politischer Korrektheit. Hauptthema ist die „Energiewende“, denn „die Chinesen wollen wieder besser atmen können.“ Hört sich gut an, ist aber falsch, denn Menschen atmen Sauerstoff ein und Kohlendioxid als Produkt der Nahrungsverbrennung im Körper aus. Mehr Menschen brauchen mehr Pflanzen, denn die produzieren Sauerstoff und atmen CO2 als Nahrungsbaustoff ein. Wer CO2 als „Klimakiller“ den Kampf ansagt, es pauschal als „Umweltgift“ verteufelt, vernichtet in seinem Klimaschutzwahn die Lebensgrundlage der grünen Pflanzen, setzt die Axt an die „Schöpfung“.

Das Buch ist alles andere als „ideologiefrei“ und das ist sein Grundübel. Es ist höchst ideologisch und gehört nicht in die Hände von Schülern. Eine Probe? Wenn die globale Temperatur nun nicht weiter ansteigt, dann weil die überschüssige Wärme den Ozeanen zugeführt wird an Orte, die die Wärme über Absinkprozesse in große Tiefen befördern. Die Ozeane puffern auf diese Weise den Klimawandel. Das ist ideologisch und nicht logisch, denn wie soll leichtes warmes Oberflächenwasser in kaltes dichtes Tiefenwasser abtauchen, dort in Wartestellung verharren, um eines Tages wieder aufzusteigen und die „Klimakatastrophe“ zu vollenden. Können Sie sich meine Enttäuschung fühlen, wenn ein synoptischer Meteorologe sich der Klimawahrsagerei und Spökenkiekerei hingibt?

Klimafakten erschienen in Frankfurt/M. 2013, 12,99 €, ISBN 978-3-86489-048-2

Oppenheim,Dr. Wolfgang Thüne




Die Blackout-Koalition! Sicherheit der Stromversorgung bleibt auf der Strecke

Die Energiewende soll noch einmal beschleunigt werden, so die aktuelle Meldungslage zur großen Koalition [SPI1, SPI2]. Statt der bisher angestrebten 35 % sollen bis zum Jahr 2025 sogar 40-45 % Strom aus sogenannten Erneuerbaren Energien erzeugt werden. Der Schwerpunkt dürfte dabei auf der Windenergie liegen, insbesondere an den „guten“ küstennahen Standorten in Norddeutschland, und die Kapazität der Offshore-Windenergie soll von derzeit wenigen 100 MW auf 6500 MW vervielfacht werden. Dies dürfte vor allem zu Lasten der konventionellen Kraftwerke gehen, denen man – soweit sie fossil befeuert werden – zusätzlich auch noch die CO2-Zertifikate verteuern will [CO2]. Als Antwort auf den überbordenden Preisanstieg bei den EE-Energien will man lediglich die Förderung in einigen Bereichen nach unten anpassen oder gar deckeln. Falls dies so umgesetzt wird, könnte sich der Anteil der Windenergie an der deutschen Stromerzeugung, der im Jahre 2012 noch bei 7,3 % lag, bis zum Jahr 2025 mehr als verdreifachen und auf über 22 % anwachsen. Für Solarenergie kann von einem Anwachsen von 4,6 auf bis zu 7 % ausgegangen werden, während das Wachstum bei Wasser, Biomasse und Müll gedrosselt werden dürfte. Für Deutschlands Energieversorgung bedeutet diese Entwicklung eine Katastrophe. Grund ist, dass im Netz im Prinzip kaum Strom gespeichert werden kann. Produktion und Verbrauch müssen deshalb stets im Gleichgewicht gehalten werden. Erzeuger wie Wind und Sonne, die nicht stabil einspeisen, stören dieses Gleichgewicht. Zur Stabilisierung müssen die Netzbetreiber dabei vor allem auf die konventionellen Kraftwerke zurückgreifen. Und genau die dürften zu den Leidtragenden der Koalitionsvereinbarungen gehören.

Wind und Sonne bieten weder Versorgungssicherheit…

Ursache der Probleme ist die Unzuverlässigkeit der Energielieferungen aus Sonne und Wind. Die moderne Industrienation Deutschland benötigt an Werktagen im Winter bis zu 80000 MW an elektrischer Leistung. Da Wind und Sonne selbst zusammen manchmal nur wenige 100 MW liefern können (Bild 1), muss die Differenz – also nahezu die gesamte erforderliche Leistung von bis zu 80000 MW – durch konventionelle Kraftwerke abgesichert werden.

Bild 1. Am 22.8.2013 lag die gesamte EE-Stromproduktion aus Wind und Sonne in der Zeit von 05:00 und 07:00 Uhr bei weniger als 600 MW. Ganz rechts die installierten Gesamtkapazitäten (Datenquelle: EEX)

Um dies zu gewährleisten, wird in Deutschland eine sogenannte gesicherte Kraftwerksleistung bereitgehalten, die zurzeit bei 85000 MW liegt [ENLE]. Diese kann faktisch nur von konventionellen Kraftwerken inklusive Kernkraftwerken erbracht werden. Zwar wird im Prinzip auch Windrädern ein gewisser Beitrag von 6 % ihrer Nennleistung zugesprochen, doch zeigt Bild 1 deutlich, dass dies eher eine ideologisch motivierte Wunschvorstellung ist: Bei einer installierten Windkapazität von knapp 32000 MW hätten mehr als 1900 MW zur Verfügung stehen müssen, tatsächlich waren es zeitweise weniger als 600 MW. Versorgungssicherheit sieht anders aus.

…noch Vorhersagbarkeit

Von den Befürwortern der EE-Energien wird oft behauptet, dank moderner Methoden zur Wettervorhersage sei das Aufkommen an Wind- und Solarenergie inzwischen so gut vorhersagbar, dass man den Fahrplan der konventionellen Kraftwerke problemlos an das zu erwartende Leistungsprofil anpassen könne. Leider ist dies jedoch nichts anderes als eine ideologisch motivierte Lüge, die an den harten Fakten der Realität zerbricht. Trotz modernster Computersysteme liegen die Prognosen manchmal schon im 24-h-Bereich grausam daneben, wie Bild 2 anschaulich zeigt.

Bild 2. Verlauf von Windenergieprognose, tatsächlicher Stromerzeugung und des resultierenden Prognosefehlers am 11.10.2013, ergänzt um die entsprechenden Werte bei gleichem Wettergeschehen unter Annahme einer verdreifachten Windenergiekapazität im Jahre 2025 (Datenquelle: EEX)

Der Blick auf Bild 2 zeigt, wie das Windenergieaufkommen im Verlauf des Vormittags mehr und mehr von der Prognose abweicht. Um die Mittagszeit herum lag die Differenz zwischen Vorhersage und Ist-Werten bei bis zu 12500 MW, das entspricht der Leistung von 12 Großkraftwerken der 1000-MW-Klasse. Zu diesem Zeitpunkt erreichte die Windenergieleistung 22000 bis 23000 MW. Besonders interessant wird die Darstellung, wenn man sie um eine Projektion für das Jahr 2025 mit einer verdreifachten Windenergiekapazität bei Annahme einer gleichen Wetterlage ergänzt. Man kommt dann auf einen Prognosefehler von knapp 38.000 MW bei einer maximalen Windenergieleistung von 68000 MW. Da die EE-Erzeugung Vorrang vor allen anderen Stromanbietern hat, müssten dann faktisch alle konventionellen Kraftwerke vom Netz genommen werden.

Ähnlich groß sind solche Abweichungen auch im Bereich der Solarenergie. So kam es im Zeitraum zwischen dem 4. und dem 6. April zu einem Prognosefehler von mehr als 8800 MW. Beim Netzbetreiber 50 Hz war die Lage dadurch zeitweilig äußerst kritisch [ZFK].

….noch Stabilität

Ein weiteres Problem insbesondere der Windenergie sind die teilweise extremen, kurzfristig im Viertelstunden-Rhythmus auftretenden Schwankungen der Einspeisung. Ungeachtet gegenteiliger Behauptungen der Windkraftlobby ändert daran auch die großräumig verteilte Aufstellung der Windräder kaum etwas. Bild 3. zeigt die kurzfristigen Sprünge der Windenergieleistung am 11. Oktober 2013. Solche Schwankungen „rütteln“ ganz erheblich an der Netzstabilität und zwingen die Netzbetreiber, von den konventionellen Kraftwerken teure Regelenergie abzurufen, um das Gleichgewicht aufrechtzuerhalten. Bei den verärgerten Mitarbeitern der entsprechenden Schaltwarten setzen sich für den Strom aus Wind und Sonne daher inzwischen Ausdrücke wie „Zappelstrom“ oder „Neue Instabile Energie“ (NIE) immer mehr durch. Die Folgen sind fatal.

Bild 3. Kurzfristige Schwankungen des Aufkommens an Windenergie im Viertelstundenabstand um bis zu + 3000/ -2500 MW/h am 11.10.2013 (blau). Bei der entsprechenden Projektion für das Jahr 2025 (rot) zeigen sich Gradienten von bis zu + 10000/ -6500 MW/h (Datenquelle: EEX)

Konventionelle Kraftwerke als Lückenbüßer missbraucht

Je höher der Anteil der sogenannten EE-Stromerzeugung im Netz ist, desto unzuverlässiger und schwankender ist das Stromaufkommen im Netz. Da dieser Strom aufgrund des Erneuerbare-Energien-Gesetzes jedoch Vorrang hat, müssen die konventionellen Kraftwerke ihre Leistung immer häufiger stark reduzieren oder gar ganz vom Netz gehen, ohne jedoch abschalten zu können, weil sie dennoch dringend gebraucht werden: Zum einen müssen sie einspringen, wenn Sonne und Wind gerade mal wieder keine Lust zur Arbeit haben, zum anderen müssen sie ständig dafür sorgen, dass die Schwankungen der EE-Erzeuger ausgeglichen werden. Statt kontinuierlich arbeiten zu können, wofür sie eigentlich ausgelegt sind, müssen sie zunehmend in einem Stop-and-Go-Modus agieren, der für sie sowohl technisch als auch wirtschaftlich desaströs ist. So muss beispielsweise auch im sogenannten „Hot Standby“, bei dem ein Kohlekraftwerk seinen Kessel auf Betriebsdruck und -temperatur hält, in erheblichem Maße Kohle verbrannt werden. Zusammen mit der Tatsache, dass auch die Belegschaft weiterhin präsent sein muss, bedingt dies erhebliche Kosten, ohne dass auch nur ein Cent verdient werden kann. Unter dem erzwungenen Stillstand leidet auch die Fähigkeit der Kraftwerke zu schneller Reaktion auf plötzlich auftretende Bedarfsspitzen, denn sie können bei stillstehenden Generatoren keine Rotationsenergie zur Netzstabilisierung bereitstellen.

Bild 4. Großkraftwerke wie das 2575-MW-Braunkohlekraftwerk Boxberg kann man nicht einfach an- und abschalten wie ein Auto (Foto: Kohlekraftwerke.de)

Reaktionsfähigkeit von Großkraftwerken

Konventionelle Kraftwerke kann man nicht einfach wie einen Automotor betreiben, den man mal eben mit dem Zündschlüssel anwirft, um sofort losfahren zu können. Große, dampfbetriebene Kraftwerke (Bild 4) sind riesige Anlagen mit gewaltigen Massen. Sie müssen zunächst auf Temperatur gebracht werden, bevor sie Leistung liefern können, denn allein im Kessel müssen mehrere 1000 Tonnen Wasser in superheißen Dampf verwandelt werden. Bei den wirklich großen Grundlastkraftwerken mit Leistungen im Bereich ab 1000 MW kann es bis zu einer Woche dauern, bevor sie nach längerem Kaltstillstand wieder ans Netz gehen können [WIDA]. Die typischen Hochlaufzeiten von Kohlekraftwerken – diese werden häufig für den reaktionsschnellen Mittellastbetrieb eingesetzt – liegen zwischen 6-7 Stunden bei einem Kaltstart und immerhin noch 2 Stunden bei einem sogenannten Heißstart, worunter ein Stillstand von weniger als 8 h zu verstehen ist [WIKO]. Zwingt man solche Kraftwerke also zum Stop-and-Go-Betrieb, so nimmt man ihnen gleichzeitig die Fähigkeit, im Notfall rasch Energie liefern zu können. Das hat nachteilige Auswirkung auf die Versorgungssicherheit.

Stabilität in Gefahr

Das entscheidende Problem für die Aufrechterhaltung der Netzstabilität ist, dass sich einerseits aufgrund des Anwachsens von Zappelstrom-Erzeugung der Bedarf an Regelenergie erheblich erhöht, während gleichzeitig aufgrund der zunehmenden Stillsetzung konventioneller Kraftwerke deren Verfügbarkeit zurückgeht. Um bei einem größeren Ausfall wie z.B. einer Kraftwerksstörung sofort gegensteuern zu können, benötigen die Netzbetreiber zuverlässige Kraftwerke, von denen sie kurzfristig gestaffelt die benötigte Regelenergie abrufen können, Bild 5.

 

Bild 5. Schema des zeitlichen Einsatzes der unterschiedlichen Regelleistungsarten (Grafik: DF5GO/ Wikimedia Commons)

Hierfür eignen sich nur konventionelle Kraftwerke oder Wasserspeicherkraftwerke. Am wichtigsten sind hierbei die augenblicklich wirksame Trägheitsreserve – hierfür sorgt der Schwungradeffekt der riesigen Turbinen und Generatoren – sowie die Primärregelleistung, die innerhalb von Sekunden zur Verfügung gestellt werden muss. Für beides braucht man Großkraftwerke. Damit die einzelnen liefernden Kraftwerke dabei nicht selbst überlastet werden, wird hierfür pro Einheit nur 2,5 % der Anlagenleistung herangezogen. Für Deutschland wird aktuell eine jederzeit verfügbare Primärregeleistung von 700 MW für erforderlich gehalten. Somit kann eine ständige Präsenz von 28000 MW primärregelfähiger Leistung von konventionellen Kraftwerken als Untergrenze der Netzstabilität angesetzt werden. An Wochenenden liegt die Netzlast jedoch manchmal nur bei 30000 bis 40000 MW. Bereits jetzt kommen dann manchmal 20000 MW an Windleistung und ebensoviel Solarleistung dazu, so dass es nahezu unmöglich wird, die erforderliche Präsenz an konventionellen Kraftwerken zu gewährleisten. Wenn in zwölf Jahren 40 % statt wie derzeit 22 % EE ins Netz eingespeist werden sollen, ist die Stabilität der Netze nicht mehr zu gewährleisten.

Hinzu kommt eine Tatsache, über die sich kaum jemand Gedanken zu machen scheint. Jedes „Zappeln“ von Zufallsstrom im Netz muss durch entsprechende Zufuhr von Regelenergie der zweiten und dritten Ebene kompensiert werden. Dazu muss jedoch entsprechende Kraftwerksleistung von konventionellen Kraftwerken abrufbar bereitstehen. Zurzeit werden in Deutschland insgesamt 7000 Megawatt positiver Regelleistung und 5500 Megawatt negativer Regelleistung vorgehalten [WIKI]. Die Kosten dafür betragen etwa 40 Prozent des gesamten Übertragungsnetzentgeltes. Sie werden im Netzentgelt versteckt, obwohl sie eigentlich durch die “Erneuerbaren” verursacht werden. Bereits im Jahr 2006 wurde geschätzt, dass es hierbei um etwa 300 bis 600 Mio. Euro ging [CARE]. Inzwischen dürfte die Milliardengrenze längst überschritten sein.

Das eigentliche Problem ist jedoch, dass für den Ausgleich der „Zappelei“ künftig immer noch mehr an Regelleistung bereitgehalten werden muss, während der Marktanteil der konventionellen Kraftwerke gleichzeitig zurückgedrängt werden soll. Von den Verantwortlichen scheint sich kaum jemand darüber Gedanken zu machen, woher denn bei dieser gegenläufigen Entwicklung die künftig benötigte Regelenergie kommen soll. Mit Gaskraftwerken allein ist das nicht zu stemmen, nicht nur aufgrund der Kosten, sondern auch weil im Stillstand befindliche Gasturbinen weder Trägheitsreserve vorhalten noch schnell genug hochgefahren können, um in nennenswertem Umfang Primärregelenergie bereitstellen zu können. Sie sind zwar Schnellstarter, aber es dauert dennoch eher Minuten als Sekunden, bis sie wirklich hohe Leistungen abgeben können.

Konventionelle Kraftwerke verschwinden vom Markt

Nach der Aufstellung der deutschen Strombörse umfasst der konventionelle Kraftwerksbestand derzeit Anlagen mit einer Gesamt-Erzeugungskapazität von knapp 110000 MW. Für eine Projektion bis zum Jahre 2020 (bzw. 2022) muss man hiervon noch rund 8000 MW Pumpspeicherkapazität abziehen, da Pumpspeicher ja selbst keine Energie erzeugen, sondern sie lediglich zwischenspeichern. Außerdem muss man bedenken, dass bis 2022 rund 12000 MW an Kernkraftkapazität zur Stilllegung anstehen. Ab 2022 verbleiben also rund 90000 MW, doch will man diesen ein um 18 % kleineres Marktsegment zugestehen als bisher. Zudem werden sie mehr und mehr zu unwirtschaftlichem Teillastbetrieb gezwungen. Schon heute ist die Situation für viele Betreiber kritisch, wie die aktuellen Pläne von RWE und E.ON zur Stilllegung von Kraftwerken und Freistellung von Mitarbeitern belegen. Auch immer mehr Stadtwerke haben mit ihren Kraftwerken Schwierigkeiten. In den nächsten Jahren ist damit zu rechnen, dass zahlreiche weitere der zurzeit noch existierenden Kraftwerke stillgelegt werden. Planungen für neue Kraftwerke sind mittlerweile nahezu zum Erliegen gekommen. Bei Bauzeiten von bis zu 15 Jahren ist dies eine bedenkliche Situation.

Bild 6. Die Politik wird weiterhin daran festhalten, im Namen des angeblichen Umwelt- und Klimaschutzes unsere Natur zu schädigen

Welche Entwicklung ist zu erwarten?

Nachdem noch vor kurzem Stellungnahmen des NRW-Wirtschaftsministers Garrelt Duin sowie von NRW-Chefin H. Kraft Hoffnungen geweckt hatten, dass bei den Koalitionsverhandlungen die Bedenken der Industrie zumindest ansatzweise Berücksichtigung finden könnten, zeigt der derzeit kommunizierte Verhandlungsstand, dass man seitens der Politik weiterhin unbeirrt in die falsche Richtung marschieren wird, Bild 6. Im Prinzip hat man sich völlig verfahren. Es gibt keinerlei strategische Planung, stattdessen scheint man nur noch zu versuchen, sich im Widerstreit zwischen den Interessengruppen mit den für Politiker üblichen „Formelkompromissen“ weiter durchzumogeln. Zurzeit wird zwar noch behauptet, man wolle das Tempo des EE-Ausbaus weiter steigern, dabei jedoch gleichzeitig an der Kostenschraube drehen und allzu üppige Vergütungszahlungen zurückschneiden. Gleichzeitig hält man die konventionellen Kohlekraftwerke wegen ihres CO2-Ausstosses weiterhin auf der Abschussliste und will sie durch Verknappung von CO2-Zertifikaten bestrafen. Vermutlich erhofft man sich dadurch eine Besserung der Wettbewerbssituation der notleidenden Gaskraftwerke. Diese will man offensichtlich als flexible Schnellstarter verfügbar halten, damit sie als Ausputzer für die Eskapaden der EE-Erzeuger einspringen können. Augenscheinlich war bei den Verhandlungen niemand dabei, der auch nur ein klein wenig Ahnung davon hatte, warum wir auf unsere Großkraftwerke und ihre entscheidende Fähigkeit, das Netz in den ersten entscheidenden Sekunden(bruchteilen) einer Störung zu stabilisieren, umso weniger verzichten können, je mehr Zappelstrom ohne Sinn und Verstand in die Netze gedrückt wird.

Bild 7. Egal wie solide ein (Energieversorgungs)-Gebäude auch gebaut sein mag – man kann es viel schneller kaputtmachen als wieder aufbauen

 Nicht bedacht wird zudem, dass bis 2022 mit den zur Stilllegung verurteilten Kernkraftwerken weitere 12000 MW Großkraftwerksleistung vom Netz gehen werden, deren Funktion durch Gaskraftwerke nicht zu ersetzen ist. Unsere Energiepolitik steuert daher so oder so unbeirrt auf einen massiven Crash zu (Bild 7), langdauernde Blackouts eingeschlossen. Denk ich an Deutschland in der Nacht…

Fred F. Mueller

Quellen

[CARE] http://www.care-energy-online.de/index.php/stromgas/strom/oekostrom.html?showall=&start=19

[ENLE] http://www.energie-lexikon.info/jahreshoechstlast.html

[SPI1] http://www.spiegel.de/politik/deutschland/energiewende-koalition-will-windrad-schwemme-bremsen-a-932599.html

[SPI2] http://www.spiegel.de/wirtschaft/soziales/arbeitsgruppe-union-und-spd-wollen-energiewende-billiger-machen-a-932733.html

[CO2] http://www.spiegel.de/wissenschaft/natur/emissionshandel-eu-staaten-wollen-co2-ausstoss-teurer-machen-a-932575.html

[WIDA] http://de.wikipedia.org/wiki/Dampfturbine

[WIKI] http://de.wikipedia.org/wiki/Regelleistung_(Stromnetz)

[WIKO] http://de.wikipedia.org/wiki/Kohlekraftwerk

[ZFK] http://www.zfk.de/strom/artikel/prognosefehler-von-8800-mw.html




Klima: Konkurs der Modelle

Beispielsweise ist es, bei großzügigem Vertrauen in die Messgenauigkeiten, zutreffend, für die 47 Jahre von 1951 bis 1998 von einer Phase –moderater- Klimaerwärmung zu sprechen. In dieser Periode hat sich die weltweit gemessene und auf Jahres-Durchschnittswerte geglättete Temperatur der boden- bzw. meeresnahen Luft um 0,12 Grad Celsius pro Jahrzehnt, insgesamt also um etwa 0,6 Grad Celsius erhöht.

Auf diesem gegenüber der Mitte des letzten Jahrhunderts leicht erhöhten Niveau ist nun seit 1998, also seit 15 Jahren kein anhaltender Erwärmungstrend mehr erkennbar. Sollte dieser Stillstand noch weitere fünf Jahre andauern, ist davon zu sprechen, dass die vorangehende Phase einer moderaten weltweiten Klimaerwärmung etwa seit der Jahrtausendwende abgelöst wurde von der aktuellen Phase eines weitgehend konstanten weltweiten Durchschnittsklimas. (1.)

Einflüsse und wechselseitige Abhängigkeiten

Die für den Menschen und das menschliche Leben wichtigsten Wettermerkmale sind Temperatur, Niederschlag und Wind. Diese „finalen“ Wettermerkmale stehen zueinander in komplexen wechselseitigen Zusammenhängen.

Hinzu kommen die „kausalen“ Wettermerkmale wie beispielsweise Sonneneinfall, Luftdruck, relative Luftfeuchtigkeit und Wolkenbildung. Diese kausalen Wettermerkmale sind ebenfalls wechselseitig verflochten, also „interdependent“; und zwar sowohl mit den finalen wie mit den übrigen kausalen Wettermerkmalen.

(1.) Der SPIEGEL, Nr. 25 / 17. Juni 2013: “ Wenn das so weitergehen sollte,müssten wir uns spätestens in fünf Jahren   eingestehen, dass mit den Klimamodellen etwas fundamental nicht stimmt. Aber bereits heute passt der reale Temperaturtrend nur noch schwer zu unseren Erwartungen.“

      GESPRÄCH mit Hans von STORCH: "Wir stehen vor einem Rätsel“

  

Schließlich gibt es die dritte, für das Wetter und damit für das Klima wichtige Gruppe der „Infrastrukturgrößen“. Zu diesen infrastrukturellen Wetter- und Klimabedingungen zählen zum Beispiel der Wärme- bzw. Energiegehalt der Luft, die Einstrahlung von der Sonne hin zur Erde, die Rückstrahlung und die Reflektion von der Erde in Richtung Orbit, die –ebenfalls beidseitige- Isolationswirkung von Wasserdampf bzw. Wolken oder der Wärme-, Energie- und Strahlungsaustausch zwischen Wasser, Eis, Luft, Biosphäre und Lithosspähre.

Wie leicht einzusehen ist, befinden sich auch die infrastrukturellen Wetter- bzw. Klimagrößen sowohl zueinander als auch zu den Größen der beiden erstgenannten Gruppen in komplexen und gleichzeitigen Wechselbeziehungen. Sie weisen also wiederum nicht-lineare und simultane Interdependenzen auf.

Modelle: Instabil bis zur „Explosion“

Mit der derart grob skizzierten „Ausgangslage“ ist die Aufgabe der Autoren von Klimamodellen umrissen:

Sie müssen das Funktions- oder Gleichungssystem der miteinander verknüpften Wettergrößen bilden und mit den Parametern für die vielfältigen Verflechtungen dieser Größen derart bestücken, dass die vergangene wie vor allem die künftige vieljährige Wetter- und damit die Klimawirklichkeit zutreffend wiedergegeben werden.

Diese Aufgabe trägt den Grund dafür in sich, dass die Klimaprognostik zum Scheitern verurteilt ist. Er ist mathematischer Natur:

Nicht-lineare, nur simultan lösbare Gleichungssysteme mit achtzig, neunzig, oder sogar mit über einhundert Größen (Variablen) und Verknüpfungsfaktoren (Parametern) sind in höchstem Maße instabil. Sie neigen zur „Explosion“ bzw. zur „Implosition“.

Besonders dann, wenn sie über mehrere Jahre (Perioden) Jahr für Jahr sukzessive fortgerechnet werden, zeigen „freie“, also ausschließlich dem mathematischen Kalkül überlassene Modelle unvorhersehbare extreme und in sich widersprüchliche Ausschläge in den Rechenergebnissen für zentrale Größen.

Beispielsweise kann ein- und dasselbe Modell in ein- und demselben Rechenlauf stark sinkende Meeresspiegel bei gleichzeitig stark abschmelzenden Polarkappen „berechnen“.

Zurück auf Null: Einbau der „Intuition“

Um derartige „Explosionen“ der ansonsten wegen ihrer enormen Komplexität und Datenmassen völlig unbeherrschbaren Modelle zu verhindern, hilft den Modellautoren nur der Rückgriff auf die „a priorische Intuition“ – oder, wenn es noch schlimmer kommt: „a priorische Intention“.

Dazu werden so lange und so viele Ergebnisschranken eingebaut und Parameteränderungen vorgenommen, bis die Rechenergebnisse im „plausiblen“ oder gar „gewünschten“ Rahmen liegen. Die mit enormem Aufwand gebildeten Modelle, die eigentlich die unwissenschaftliche Intuition durch ein wissenschaftliches Gleichungssystem ersetzen sollen, werden eben nicht von der Intuition abgekoppelt. Im Gegenteil: Sie werden bereits im Enstehungsprozess „intuitiv kastriert“.

Das Vertrauen in die eigene Modellkonstruktion wird überlagert von völlig modellfremden „Überlegungen“, „Plausibilitäten“, „Intuitionen“ oder „Intentionen“ dazu, welche Ergebnisse „akzeptabel“ sind und welche Ergebnisse eine Modellkorrektur erfordern.

„Ja, zwei Grad oder mehr werden wir wohl kriegen – bis Ende des Jahrhunderts wohlgemerkt. Das sagt mir mein Instinkt, weil ich ja nicht weiß, wie sich die Emissionen entwickeln werden. Andere Klimaforscher haben möglicherweise einen anderen Instinkt. In unsere Modelle gehen nun einmal viele Annahmen ein, die höchst subjektiv sind. Mehr als Laien sich das vorstellen, ist Naturwissenschaft auch ein sozialer, vom Zeitgeist geprägter Prozess. Rechnen Sie also ruhig mit weiteren Überraschungen." (2)

Der Schwanz (Intuition/Intention/Zielvorstellung/Zielvorgabe) wackelt so lange mit dem Hund (Modell), bis die Modellergebnisse „passen“. Vor die Wahl gestellt, ob sie Vertrauen haben sollten auch in unerwartete, schwer erklärbare, unerwünschte oder extreme Prognoseergebnis ihres sorgsamst erbauten, mit ungeheuren Datenmengen gefütterten und aufwändig an die Vergangenheitsentwicklung angepassten Klima-Modells, oder doch lieber ihrer Intuition, ihren groben Erwartungen, ihren Plausibilitäten folgen sollten, ob sie gar politische Erwartungen antizipieren, politische Vorgaben erfüllen sollten, werden die Modellautoren stets Letzteres tun. Sie werden daModell „anpassen“, sie werden nach dem Motto arbeiten:

 „Read input, write output.“

Wissenschaftliches Instrument – Politische Wunderwaffe

Die enormen mathematischen Anstrengungen und die immense Datenhuberei, die zwischen Input und Output liegen, haben eben nicht den Zweck, von der Intuition oder Intention unabhängige wissenschaftliche Ergebnisse zu liefern.

Sie haben einzig den Zweck, den a priorischen Intuitionen oder gar Intentionen, also den Ergebnisvorgaben in einer den Modellen hilflos ausgesetzten „Alltagswelt“ möglichst großes Gewicht zu verleihen.

Diese „Mutation“ der Klimamodelle vom wissenschaftlichen Instrument zur politischen Waffe wird überdeutlich am jüngsten Bericht des „International Panel on Climate Change“ (IPCC) der Vereinten Nationen.

Im Widerspruch zu den tatsächlich gemessenen Werten und entgegen den zwingenden wissenschaftlichen Vorgaben der statistischen Methodenlehre wird „aus Gründen der Plausibilität“ an einer engen Korrelation zwischen menschenverursachtem CO2 einerseits sowie künftiger durchschnittlicher Lufttemperatur (Klima) andererseits festgehalten. Statt die nunmehr 15-jährige „Null-Korrelation“ zwischen menschenverursachter CO2-Emission (steigt kontinuierlich) und durchschnittlicher Lufttemperatur (bleibt konstant) zur Kenntnis zu nehmen und in die Modelle zu integrieren, wird die These vom „anthropogenen Klimawandel“ aufrechterhalten.

(2) DER SPIEGEL, Nr. 25 vom 17. Juni 2013, GESPRÄCH mit Hans von STORCH ;

 "Wir stehen vor einem Rätsel“  

In den Modellen wird eben nicht der Koeffizient für das Maß der Abhängigkeit der Lufttemperatur vom –menschenverursachten- CO2-Gehalt der Luft verändert. Vielmehr wird über einen „wissenschaftlichen Taschenspielertrick“  ein „Plausibilitäts-Ausweg“ konstruiert:

Während der letzten Jahre haben laut IPCC „vermutlich die Ozeane der Luft größere als die bisher angenommenen Wärmemengen entzogen und in großen Tiefen gespeichert.“

Modell-Katastrophen wider jede Vernunft

Aber dieser „rettende“ Entzugseffekt wird bald sein Ende haben.

Und dann endlich wird die Klimaerwärmung –mit 95-prozentiger Sicherheit!- wieder einsetzen.

Und dann endlich wird sie ganz schlimme Ausmaße annehmen.

Und dann endlich wird die zwar schon lange vorhergesagte, aber bisher von der Realität widerlegte endgültige Abschmelze des Arktiseises einsetzen; von dem auf Rekord-Niveau gestiegenen Antarktis-Eis ganz zu schweigen! 

Und dann endlich wird der bisher überaus moderate und über Jahrhunderte kaum veränderte Anstieg der Ozeane in Höhe von etwa 1,7 cm pro Jahrzehnt einer dramatischen Meeresflut weichen.

Und dann endlich werden sich schlimmste Extremwetterereignisse wie Stürme, Dürren oder Regenfluten in bisher unbekanntem Ausmaß häufen und große Teile der Erde verwüsten.

So sagen es die Modelle.

Und sie sagen es so, weil sie es nach den Vorgaben der katastrophensüchtigen Modellautoren so sagen müssen.

Dr. Dirk Beckerhoff 

Über den Autor

Dirk Beckerhoff (Jahrgang 1942, ist promovierter Dipl. Volkswirt (Wirtschftswachstum durch Ausbildung und Forschung, Bonn 1969)) ist Freier Publizist und hat gearbeitet als  Wissenschaftler (Ökonometrie), Leiter des Planungsstabes im Bundesministerium für Bildung und Wissenschaft, Mittelständischer Unternehmer (Maschinen- u. Anlagenbau) und Politik- sowie Unternehmensberater. 

 Weiterführender Link: 

ZAMG Temperatur-Hiatus: Klimamodelle erfassen Temperaturverlauf unzureichend