1

Statistisch gesehen, begann der leicht wärmende Klimawandel erst mit dem Ende des kalten Krieges signifikant zu werden

Man versucht, diesem Problem inzwischen mit verfeinerten statistischen Methoden wie der trendbeseitigenden Fluktuationsanalyse (DFA)[3] zu begegnen. Doch auch damit ist das wirkliche Basisproblem der ungenauen, historischen Daten nicht lösbar, schlimmer noch, gerade diese Methode ist auf genaue Vergangenheitsdaten angewiesen.

Video (leider nur in Englisch) von Pat Frank (Juli 10, 2016, Omaha, Nebraska.) als Ergänzung zu den im Beitrag behandelten immensen Unsicherheiten, die den historischen Temperaturdaten zwangsläufig und unabänderlich innewohnen. (Details dazu u. hier und hier und hier) Im Video zeigt der Vortragende unmissverständlich und unwiderlegbar auf, dass bei Anwendung der Fehlertheorie mit ihrem Fehlerforpflanzungsgesetz jegliche Klima-Modellaussage völlig bedeutungslos wird. Weil ihre berechneten Änderungen z.B. der Temperatur, z:B. allein auf Grund der ungenauen Kenntnis der Wolkenbedeckung 140 mal kleiner ist als die unvermeidbare Unsicherheit, die aufgrund des Gesetzes der Fehlerforpflanzung zwangsläufig entsteht. Und der Fehler durch die Wolkenbedeckung ist nur einer von vielen Fehlern.

Hinweis: Wer sich konkreter über diese statistische (DFA) Methode informieren möchte, findet in [6] und vor allem [4] gut erklärende Basisinformation. In [4] sind zudem zwei Temperaturmessreihen in Asien als Beispiele detailliert analysiert und dabei gezeigt, wie weit Trendaussagen abhängig von der verwendeten statistischen Methode differieren können (Anm.: dieses Beispiel aus [4] ist in der Dissertation [8] aufgegriffen und mit Zusatzinformation ergänzt) .
Trotzdem sind die Ergebnisse interessant, da sie die enormen – und wesentlich größer als bisher angenommenen – statistischen Unsicherheiten der Temperaturreihen aufzeigen.

Beispiel Messreihe von Bajtyk (Mongolei).
[4] Tab. 3; 1915-2001: Bajtyk

– Lineare Trendanalyse: 0,7°C auf 100 Jahre;

– DFA-basiertes Verfahren: 0,0 – 0,5°C auf 100 Jahre
Zusätzlich ist dort auch gezeigt, dass die zwei nur 320 km weit entfernte Temperaturstationen Karakol eine deutlich abweichende Trendaussage liefert. Dort beträgt der Trend:
Station Karakol: +1 °C +-0,2 in 100 Jahren

Nach der DFA-Trendanalyse begann der Klimawandel – wenn man ganz sicher sein will – erst nach 1990

In der Dissertation [8] wurde nach der DFA Methodik errechnet, ab wann ein von der Vergangenheit unabhängiger, neuer Temperaturtrend sicher besteht. Er beginnt mit dem Jahr 1990.

[8] In diesem Fall hat man für die näher diskutierten Rekonstruktionen Detektionsjahre id im Bereich von 1990 (Mann1999), 1993 (Briffa2000), 1994 (McIntyre2003) und 1995 (Esper2002) bis 1998 (Moberg2005) und 2002 (Jones1998).

Die Dissertation zeigt aber auch die mit der verbesserten Statistik nicht gelöste Problematik der historischen Ungenauigkeiten, denn Rekonstruktionsanalysen mit „geraden“ historischen Verläufen führen natürlich auch zum früheren „Beleg“ eines Klimawandel-Trends.

[8] Diese Analyse zeigt auch, wie wichtig es ist, über präzise Rekonstruktionen zu verfugen. Denn nur auf ihrer Basis kann die gegenwärtige Klimaerwärmung untersucht werden.

Was gerade global berechnet wurde, zeigt sich ebenfalls deutlich an den Temperaturverläufen in Deutschland (Bild 1) und auch von England (Bild 2). Erst ab dem Jahr 1990 beginnt der wirklich steile Temperaturanstieg. Dies gilt sowohl für die Globaltemperatur (Bild 1), wie auch im Detailverlauf der Station Potsdam (Bild 3), die wegen ihrer seltenen, langen Zeitreihe für Analysen gerne verwendet wird..
Um zu zeigen, über welche großen Zeitintervalle der Temperaturverlauf nicht mit dem anthropogenen CO2-Eintrag korreliert, ist auch dies anhand der Temperaturreihen von Deutschland und England dargestellt (Bild 2).


Bild 1 Bild 1 Temperaturverlauf Deutschland 1750 – 2016, Jahreswerte (blau, linke Temperaturskala), gleitender 30-Jahre Mittelwert (rot, rechte, gedehnte Temperaturskala). Vom Autor anhand der DWD Daten erstellt

Bild 2 Temperaturverlauf Deutschland (dunkelgrün) und Zentralengland (gelb) gleitende 30-Jahre Mittelwerte. Startwert Deutschland auf das Jahr 1783 mit dem Wert von England normiert. Die rechte Temperaturachse gilt für England, der Wert von Deutschland liegt um 1,33 Grad niedriger. Darüber eine Verlaufsgrafik des anthropogenen CO2-Eintrags (schwarz) kopiert. Grafik vom Autor erstellt.

Die Temperaturreihe von Potsdam

In globalen Kurven sind solche Artefakte aufgrund der vielen Mittelungen stark „verwischt“, in Einzelkurven zeigen sie sich deshalb deutlicher.
Das folgende Bild 3 zeigt den Temperaturverlauf der Station Potsdam (Anm.: Der Verlauf der Station Berlin Dahlem ist praktisch identisch). Genau mit der Wiedervereinigung 1989 zeigt sich nach einer langen, horizontalen Stagnation der Beginn eines deutlichen Trends, den auch sowohl der Verlauf von Deutschland und auch von England in Bild 2 aufweisen.


Bild 3 Temperaturverlauf Messstation Potsdam 1883 – 2015 (DWD-Stations-ID 3987) vom Autor aus den Daten erstellt.
Jahresmittel (schwarz), gleitendes Jahresmittel (gelb), gleitendes 30-Jahre Mittel (rot, Hinweis: rechte Temperaturachse),
+-0,5 °C Mittelwerttoleranz (grüner Doppelpfeil)

Um zu zeigen, wie unspektakulär sich dies ohne gedehnte Temperaturachsen darstellt, sind die gleichen Verläufe im Bild 4 bezogen auf die 0-Grad Achse gezeigt. Jeder Leser versuche einmal, die der Welt noch zugestandenen +0,6 Grad Temperaturerhöhung (sind dann +1,5 Grad seit Beginn der Industrialisierung) darin als Problem zu entdecken, wie es unserm Bundestag mit der einstimmigen Verabschiedung des Klimaschutzgesetzes am 22.09.2016 gelang.


Bild 4 Gleiche Daten wie Bild 1, aber bezogen auf 0 Grad und einheitliche Skalierung

In einer statistischen Studie [7] wurde der Fehlerbereich des Mittelwertes der Temperaturreihe Potsdam berechnet und mit +-0,5 °C angegeben.

[7] If the Potsdam anomalies were identically independently distributed data, this error would be about 0.07◦C. For AR(1) data with the given auto-correlation time, it would be about 0.2°C, for a pure long range correlated data set it would be about 0.3°C, and for the model which fits best the data it is 0.5°C.
As particular results, we found that the 95% confidence intervals for 30-year averages of the Potsdam temperatures (Darwin temperatures) are almost as large as (even larger than) the whole warming effect of the past 100 (50) years. Although the physical con sequences of increasing greenhouse gas concentrations are undebatable, this work shows that a quantitative assessment of climate change from observed data is still challenging.
The results shown for Potsdam and Darwin admit with low but finite probability both the absence of climate change as well as a warming of already much more than 1 °C, and without the past 5 years of data, the same analysis shows much less significance for warming.

[Übersetzung von Chris Frey: Falls die Anomalien von Potsdam identische unabhängig verteilte Daten wären, läge dieser Fehler bei etwa 0,07°C. Für die Daten im AR 1 mit der gegebenen Autokorrelationszeit wäre er etwa 0,2°C, für einen reinen, langfristig korrelierten Datensatz etwa 0,3°C und für das Modell, das am besten zu den Daten passt, wäre er 0,5°C.

Im Einzelnen fanden wir, dass die 95%-Vertrauensintervalle für 30-jährige Mittelwerte der Temperaturen von Potsdam (und der von Darwin) fast genauso groß (sogar noch größer) sind als der gesamte Erwärmungseffekt der letzten 100 (50) Jahre. Obwohl die physikalischen Konsequenzen zunehmender Treibhausgas-Konzentrationen nicht zur Debatte stehen, zeigt diese Arbeit, dass eine quantitative Abschätzung des Klimawandels aus Messdaten immer noch eine Herausforderung ist.

Die Ergebnisse für Potsdam und Darwin räumen mit geringer, aber eindeutiger Möglichkeit ein, dass sowohl das Fehlen eines Klimawandels als auch eine Erwärmung von schon jetzt mehr als 1°C abgeleitet werden kann, und ohne die Daten der letzten 5 Jahre würde die Analyse viel weniger Signifikanz für eine Erwärmung zeigen.]

Danach wäre der 30-Jahre Mittelwert der Station Potsdam erst in den letzten Jahren gerade eben aus dem statistischen Fehlerbereich einer horizontalen Verlaufslinie herausgekommen und die Wahrscheinlichkeit, dort wieder hineinzulaufen sehr hoch (sofern wie angenommen die jüngsten Temperaturspitzen zyklisch bedingt sind).

Fazit

Genauere statistische Trendanalysen zeigen, dass die Fehlerbänder der Temperaturkurven wesentlich größer sind als bisher (aus der Stichprobenstatistik berechnet) angenommen. Sie zeigen zudem, dass der belegbare Beginn der Warmphase erst mit den 90er Jahren des letzten Jahrhunderts wirklich begann und man kann zeigen, dass eine starke Korrelation des warmen Klimawandel-Beginns mit dem Ende des kalten Krieges besteht (sowie wie auch mit dem Steigen der US-Postgebühren). Ein gutes Beispiel, wie viel Unsinn selbst starke Korrelationen über die wirklichen Zusammenhänge aussagen können, allerdings auch eine Tatsache, die zum Grübeln über die AGW-Theorie Anlass gibt.

Wer sich schon immer gewundert hat (wie der Autor), wie zu offensichtlich mindestens ungenauen Proxi- und Temperaturverläufen extrem enge Vertrauensbereichs-Bänder hinterlegt sind (weil sie der Computer so berechnet hat, der von statistisch einwandfreien Daten ausging) mit der Wirklichkeit nicht überein stimmen können, findet sich hier bestätigt.

Anm.: Das Thema der Temperaturstufen wurde in [2] bereits mit vielen Beispielen dargestellt.

Nachtrag

Zum Verlauf von globalen Temperaturkurven ein Anhang.
Die Temperaturstationen werden laufend ausgetauscht (wie im ersten Absatz beschrieben) und verändert. Anfang der 70er Jahre des letzten Jahrhunderts begann man jedoch, die Stationszahl extrem auszudünnen und zwar vor allem in ländlichen (also kühleren!) Gebieten[10]. Die Auswirkungen auf die Temperatur korrelieren erkennbar deutlich und ist besonders um das Jahr 1990 auffallend. Dies könnte manche Erklärungen für den „sonderbaren“ Verlauf von Temperaturkurven liefern.

Bild 5 NASA GISS Globaltemperatur (Screenshot der GISS Animation) und vom Autor darüber kopiert die Grafik mit Anzahl und Art der Temperaturstationen aus [10]. Hinweis: die Verlängerungen der Stationsanzahl mit den dunkelgrün gestrichelten Linien sind vom Autor ohne Datenhintergrund rein fiktiv zugefügt.

Bild 6 NASA Giss US Landdaten (Screenshot der Giss Animation) und vom Autor darüber kopiert die Grafik mit Anzahl und Art der Temperaturstationen aus [10]. Hinweis: die Verlängerungen der Stationsanzahl mit den dunkelgrün gestrichelten Linien sind vom Autor ohne Datenhintergrund rein fiktiv zugefügt.

Quellen

[1] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k
http://www.eike-klima-energie.eu/news-cache/die-problematik-der-temperaturrekonstruktion-eine-beispielhafte-sichtung-dazu-anhand-des-projektes-pages-2k/

[2] EIKE 06.11.2015: Langfrist-Temperaturverläufe Deutschlands: Das Phänomen der „Temperaturstufen“
http://www.eike-klima-energie.eu/news-cache/langfrist-temperaturverlaeufe-deutschlands-das-phaenomen-der-temperaturstufen/

[3] EIKE 23.09.2016:Konfidenz-Intervalle für zeitliche Mittelwerte bei langfristigen Korrelationen: eine Fallstudie zu Anomalien der Temperatur auf der Erde
http://www.eike-klima-energie.eu/news-cache/konfidenz-intervalle-fuer-zeitliche-mittelwerte-bei-langfristigen-korrelationen-eine-fallstudie-zu-anomalien-der-temperatur-auf-der-erde/

[4] Zentrum für internationale Entwicklungs- und Umweltforschung der Justus-Liebig-Universität Gießen
Discussion Paper Ivo Mossig* und Diego Rybski 2005: Die Erwärmung bodennaher Luftschichten in Zentralasien Zur Problematik der Bestimmung von Trends und Langzeitkorrelationen

[5] EIKE 09.09.2016: Hat die barbusige Dame um 1830 gegen den Klimawandel gekämpft? Eine ganz aktuelle Studie legt es nahe
http://www.eike-klima-energie.eu/news-cache/hat-die-barbusige-dame-um-1830-gegen-den-klimawandel-gekaempft-eine-ganz-aktuelle-studie-legt-es-nahe/

[6] Horst-Joachim Lüdecke 26.Feb. 2013: Klimatrends in Temperaturreihen

[7] Max Planck Institute for the Physics of complex SystemsM. Massah, H. Kantz 2016: Confidence intervals for time averages in the presence of long range correlations, a case study on earth surface temperature anomalies

[8] Institut für Theoretische Physik Gießen, Diego Rybski Dissertation 2006: Untersuchung von Korrelationen, Trends und
synchronem Verhalten in Klimazeitreihen

[9] EIKE: US Klimainstitut (GISS) verfälscht rückwirkend Temperaturdaten!
http://www.eike-klima-energie.eu/klima-anzeige/us-klimainstitut-giss-verfaelscht-rueckwirkend-temperaturdaten/
[10] WUWT 2009: How bad is the global temperature data?

How bad is the global temperature data?




Vom Klimawandel zur Energiewende – Eine umfassende Prüfung der zugrundeliegenden Annahmen“ (Autor: Klaus-Peter Dahm).

In nüchterner Sprache und in einer Art Bestandsaufnahme werden auf 257 Seiten die aktuellen Daten zum Klimawandel und zur Energiewende mit den Hypothesen, Prognosen und politischen Versprechungen verglichen. Der Vergleich fällt ernüchternd bis vernichtend zu Lasten der Hypothesen, Prognosen und politischen Versprechungen aus. So gut wie nichts von dem, was oft unter großem medialen Getöse, in der Öffentlichkeit zu den genannten Themen behauptet wird, hält einer kritischen Überprüfung stand.

Das zeigen der Autor mit seinen Ko-Autoren in vielfältiger Weise und nüchterner unaufgeregter Sprache auf. Besonders hervorzuheben ist dabei die große Anzahl belastbarer Quellen die am Ende eines jeden Kapitels angegeben sind. Damit wird das Buch schnell zu einer Art Nachschlagewerk für Leser die das eine oder andere zwar erinnern, aber nicht so recht die Einzelheiten wissen

Hier eine kurze Inhaltangabe

Der heutige Klimawandel ist eine Tatsache. Aber wird dieser Klimawandel wirklich durch uns Menschen verursacht? Das Klima ändert sich ja nicht erst heute, sondern Klimaschwankungen − z. T. deutlich stärker und auch schneller als heute − existieren schon seit mindestens 2.300 Millionen Jahren. Der Autor Dr. sc. nat. Klaus-Peter Dahm, der die Diskussion um den Klimawandel schon länger intensiv verfolgt, prüft das Modell von der menschlich verursachten globalen Erwärmung auf streng wissenschaftlicher Basis nach dem heute üblichen Verfahren der Falsifikation und kommt zu überraschenden Ergebnissen. Im zweiten Teil geht der Autor auf die Energiewende in Deutschland ein und unterzieht auch hier die zugrundeliegenden Annahmen einer intensiven wissenschaftlichen Prüfung. Das Ergebnis ist wenig schmeichelhaft für unsere Energiepolitik.

Wer sich kritisch mit der Thematik „Klima und Energie“ auseinandersetzen möchte und nach einer sachlichen und klaren Analyse dieser komplizierten Materie sucht, wird sie in diesem Buch finden. Es ist auch für den Laien verständlich, aber mit dem notwendigen wissenschaftlichen Anspruch geschrieben. Die Recherche beruht auf zahlreichen seriösen Quellen, welche nach jedem Kapitel angegeben werden. Insgesamt 69 Abbildungen, davon 30 farbig, und 7 Tabellen erleichtern das Verständnis des Textes.

Über die Autoren

Der Autor ist Geochemiker und Rohstoffexperte. Nach der Wende war er 10 Jahre als kommunaler Spitzenbeamter tätig. 2015 ist von Dr. Klaus-Peter Dahm, zusammen mit Prof. Wolfgang Merbach und Dr. Detlef Laves, erschienen: „Der heutige Klimawandel – eine kritische Analyse des Modells von der menschlich verursachten globalen Erwärmung“.

Erschienen im Verlag Dr. Köster Berlin, Preis 24,95 € zu beziehen hier

ISBN 978-3-89574-909-4




Ethik-Kommission „Windkraft-Ausstieg“ – Ergänzung

Mir erschien das als technischer Wunderglaube und unrealistisch.

Herr Fritz hat die Beweise.

Die folgenden Ausführungen im ersten Teil stützen sich stark auf seine Veröffentlichungen, die er für die Bürgerinitiative BNB Buocher Höhe (Rems-Murr-Kreis, Baden-Württemberg) erarbeitet hat (1, 2). Im Anschluss stelle ich die Frage nach dem „danach“, also nach dem Betriebsende der Windräder.

Die schlechte Bilanz der Windstromerzeugung

Mit den bekannten statistischen Wind(stärke)-Verteilungen sowie mit den öffentlich verfügbaren Windgutachten kann man die Verteilung des gesamten Stromertrags über das Jahr bestimmen.

Die Bilanz ist – gemessen an dem ungeheuren getriebenen Aufwand für die Überflutung des Landes mit Windrädern – eher deprimierend.

– Im Binnenland werden innerhalb von 245 Tagen (aufsummiert also in 8 Monaten) gerade einmal 20% des gesamten Jahresertrages erbracht. In dieser Zeit können nur wenige, bei Windstille gar keine Haushalte mit der erforderlichen Versorgungssicherheit durch Windstrom versorgt werden. Dies wird dann fast ausschließlich durch Kohle- und Kernkraftstrom; zunehmend auch durch Importe realisiert.  Dass es keine Möglichkeit gibt, Erzeugungslücken durch andere Windparks in Deutschland oder auch Mitteleuropa auszugleichen, wurde im Artikel erläutert.

Video: Dieser Film zeigt die Leistung der Wind- und Solareinspeisung in Deutschland für den Monat Oktober 2015 gegenüber dem tatsächlichen Bedarf (hellere braune Kurve). Das erste Bild zeigt die realen Daten (1/4 h Werte). Für die kommenden 9 Bilder wurde die installierte Nennleistung der Windkraftanlagen in Schritten verdoppelt, verdreifacht usw. bis verzehnfacht, während die Solarkapazität bei 50 GW gedeckelt wurde. Man sieht deutlich:

1. Dass die EE-Einspeisung im MIttel zu keinem Zeitpunkt trotz einer maßlosen Erhöhung der Kapazität auf ca. 480 GW den Bedarf decken konnte.

2. Dass die Minimaleinspeisung zu keiner Zeit auch nur den annähernde den minimalen Bedarf decken konnten. Damit ist die Behauptung, Wind wehe immer irgendwo, als falsch entlarvt.

3. Dass die Spitzenwerte der EE-Einspeisung überproportional ansteigen, und dabei den Bedarf um bis das 2,3-fache übertreffen, allerdings auch dann nie die installierte Nennleistung in Höhe von rd. 480 GW auch nur annähernd erreichen. Dieser Strom kann nicht verbraucht werden und muss entweder abgeregelt oder ins Ausland zu u.U. Negativpreisen – also per Zuzahlung – entsorgt werden.

– Der mit 80% weit überwiegende Teil des Jahresertrags wird in aufsummiert 4 Starkwindmonaten erbracht. In dieser Zeit wird jedoch von den WKA zu viel Strom erzeugt, der in Deutschland weder gespeichert noch verbraucht werden kann. Weil allein vom Wetter bedingt, ist nichts davon planbar. Dieser Strom wird „entsorgt“, indem man ihn in das benachbarte Ausland exportiert, wofür man dann allerdings gar keinen Erlös erhält, sondern im Gegenteil noch Zuzahlungen leisten muss. Dieses hauptsächlich in den Wintermonaten praktizierte skandalöse Verfahren hat die beschönigende Bezeichnung „negative Preise“. Auch diese Mehrkosten tragen  die Verbraucher. Dieser entsorgte Überschußstrom müsste im Grunde von der Jahresproduktion der deutschen WKA subtrahiert werden, was natürlich nicht geschieht.

– Berechnungen haben längst ergeben, dass selbst eine Verzehnfachung der WKA-Anzahl in Deutschland an dieser Situation nahezu nichts verändern könnte. Dennoch geht nach dem Willen der Bundesregierung der Windkraft-Ausbau unverändert weiter.

Der Referenzertrag: Die einzige aussagekräftige Vergleichsmöglichkeit

Im EEG wurde der Referenzertrag in den Kernaussagen wie folgt definiert:

Der Referenzertrag ist die für jeden Typ einer WKA…bestimmte Strommenge, die dieser Typ bei Errichtung an dem Referenzstandort rechnerisch auf Basis einer vermessenen Leistungskennlinie in 5 Betriebsjahren erbringen würde.

Der Referenzstandort ist ein Standort der bestimmt wird durch eine Rayleigh-Verteilung (d.h. die Häufigkeitsverteilung der mittleren Windgeschwindigkeiten) mit einer mittleren Windgeschwindigkeit von 5,5 Metern je Sekunde in einer Höhe von 39 m über Grund…

Dieser Referenzertrag wird für jeden WKA-Typ ermittelt und von den Herstellern angegeben – für die gängigsten Anlagen ist er im Internet abrufbar.

Somit ist auch für die o.e. Schwachwindanlagen der Referenzertrag bekannt – und er kennzeichnet deren wahre Leistung, ohne die hier irreführenden Volllaststunden zu verwenden. 

Durch den Vergleich des erwarteten und auch des tatsächlich erbrachten Ertrages mit dem Referenzertrag des betr. WKA-Typs kann die Qualität eines Standortes beurteilt werden. Entsprechend den unterschiedlichen Standortverhältnissen liegen daher die Referenzerträge errichteter Anlagen in Schleswig-Holstein über 100% und in Baden-Württemberg weit unterhalb von 100%.

Mehrfach wird eine Mindestschwelle von 60% empfohlen; Banken und Investoren – inzwischen gebrannte Kinder – verlangen jedoch 80%.

Vom Verwaltungsgericht Stuttgart wurde in einer Beschlußsache bestätigt, dass ausschließlich der Referenzertrags-Anteil das Kriterium zur Beurteilung der Standortqualität sei.

Genutzt hat es bisher nicht viel, was am immer weiter gehenden Zubau von Windrädern in den besonders windarmen südlichen Bundesländern zu beobachten ist. 

Der Referenzertrag wird  von Landesregierungen grundsätzlich als Kriterium für die Rentabilität betrachtet und betreffende Zahlen – so z.B. 60% in Baden-Württemberg – wurden bis Ende 2012 gefordert, um überhaupt eine erhöhte EEG-Vergütung zu erhalten. Aus den statistischen Daten des Landes B.-W. ergibt sich allerdings, dass es im Lande nur ganz wenige Gebiete gibt, in denen mehr als 60% des Referenzbetrages erreicht wurde. Die allermeisten dortigen WKA produzieren folglich Verluste. Dass sie trotzdem überhaupt errichtet worden sind, lag an zu optimistischen – also falschen – Windgutachten, mit denen die Investoren gewonnen wurden und an fehlenden Kontrollen der Länder bezüglich der sich daraus ergebenden Fehlentscheidungen.

Tatsächlich wurden die störenden Referenzertragsdaten nicht beachtet, um auf jeden Fall einen Zubau an Windkraftanlagen zu erreichen.

Dieses Problem war bundesweit zu beobachten.

Mit den attraktiv hohen, aber irrelevanten Volllaststunden der Schwachwindanlagen, deren Referenzertragsanteil nur unwesentlich höher als der von üblichen WKA ist, wird jetzt von den Anbietern versucht, die Zustimmung zu ihrem Bau zu bekommen.

Schwachwindanlagen – so täuscht man Investoren

Für Anlagen, die normalerweise niemand an windschwachen Standorten bauen und betreiben würde, gibt es nun Dank der Industrie Lösungen, die im Zusammenhang mit der buchstäblich schwachsinnigen besonders hohen EEG-Förderung für Schwachwindstandorte interessant werden: Die Industrie entwickelte jetzt spezielle Windturbinen, die beispielsweise der Hersteller Enercon wie folgt bewirbt:

„Die E-92 ist auch speziell für windschwächere Standorte geeignet“; „Die E-101…ist mit variablen Nabenhöhen bis 149 m auch für Standorte mit weniger intensiver Windentwicklung geeignet“ und „,,,garantiert die E-82 auch im Binnenland optimale Ertragswerte“.

Die Vergleichsrechnung von W. Fritz (s.u.) belegt allerdings etwas anderes.

So lange die Subventionierung ausreichend dimensioniert ist, steht damit Dank dieser bewunderungswürdigen deutschen Ingenieursleistung der totalen „Verspargelung“ Deutschlands zumindest technisch nichts im Wege. 

Es gibt heute Anlagen, die selbst bei einer mittleren Windgeschwindigkeit von nur 5,3 m/sec erstaunliche 2400 Volllaststunden erreichen. Da kommt selbst Schleswig-Holstein nicht mit.

Der Trick dabei: Die Leistung, die ein Windrad der Windströmung entnimmt, hängt linear von der Fläche ab, die vom Rotorkreis gebildet wird. Mit größeren Rotoren kann man dank dieser dann größeren Fläche auch bei geringerer Windstärke dennoch mehr Leistung und Ertrag erhalten, als es eine übliche WKA bei diesen Verhältnissen erbringen würde. Weil die im Binnenland vorherrschenden Windgeschwindigkeiten von unter 7 m/sec sowieso keine hohe Nennleistung der Anlage erfordern, kombiniert man also riesige Rotoren mit relativ leistungsschwachen Generatoren, die dann bei stärkerem Wind häufiger bis zu ihrer geringeren Maximalleistung in die Begrenzung hochlaufen – und damit rechnerisch eine hohe Volllaststundenzahl erreichen. Einfach ausgedrückt: Sie leisten in Bezug auf ihre Stromerzeugung nur geringfügig mehr, diese Stromerzeugung zieht sich aber über einen längeren Zeitraum im Jahr hin, wobei natürlich die vielen typischen Erzeugungslücken bleiben.

Und das führt zu höheren und werbewirksameren VLH, als es bei den normalen Anlagen der Fall ist.

Dipl-Ing. Willy Fritz hat dazu einen Vergleich zwischen einer „Normal-WKA“ und einer Schwachwindanlage berechnet:

Betrachtet werden Anlagen des gleichen Herstellers Enercon:

– Die E-101 mit 140m Nabenhöhe, 101m Rotordurchmesser und 3 MW-Generator, Kosten 5,2 Mio €;

– und die E-115, eine Weiterentwicklung der E-101 und als Schwachwindanlage bezeichnet, mit 115m Rotordurchmesser und 2,5 MW-Generator. Kosten: 5,7 Mio €.

Mit einer angenommenen Windgeschwindigkeit von 5,3 m/sec (Buocher Höhe in B.-W.) wurde  eine Ertragsberechnung durchgeführt, die folgende Komponenten enthielt:

– Jahresertrag in GWh

– Jahreserlös abzüglich 27,5% Betriebskosten

– Referenzertrags-Anteil (%)

– Volllaststunden

– Investitionskosten

– Kapitalkosten (8% von Investitionskosten)

– Unter- bzw. Überdeckung (Netto-Jahreserlös minus Kapitalkosten).

Das Ergebnis:

E-101                                   E-115

Ertrag                                5,2 GWh                             5,8 GWh

Referenzertrags-Anteil         55%                                     61%

VLH                                    1700 h                                  2340 h

Unter-/Überdeckung       – 80.470 €                            – 81.755 €

Die Schwachwindanlage E-115 erzeugt einen um 11,5% höheren Stromertrag als die E-101, erfordert dafür aber 10% höhere Investitionskosten.

Beide Anlagen erbringen die gleiche Unterdeckung; von einer Rentabilität kann nicht die Rede sein – und die hohen Volllaststunden der Schwachwindanlage, die eine starke Zunahme der Wirtschaftlichkeit suggerieren, sind irreführend.

Je geringer die Generatorleistung der Schwachwindanlage, umso höher werden rechnerisch die VLH. Es wäre nicht verwunderlich, wenn demnächst auf diese Weise Anlagen mit über 3000 Stunden VLH angepriesen werden.

Was in dieser Berechnung noch nicht berücksichtigt wurde: Die riesigen Rotoren werden bei dem klar beabsichtigten Bau dieser Anlagen in Wäldern noch mehr Platzbedarf für ihren Transport verursachen, also werden noch breitere Schneisen durch den Wald geschlagen als jetzt schon.

 

Daraus folgt eine Warnung: Der bisher stets benutzte Vergleich der in den verschiedenen Bundesländern erzielten Volllaststunden hat nur einen Sinn, wenn Anlagen der bisherigen Bauart, also WKA für höhere und mittlere Windstärken betrachtet werden. Das ist bei der  Darstellung in Abb.1 der Fall, also kann man daraus (noch) vernünftige Schlussfolgerungen ableiten.

Bei den neuerdings speziell für das windarme Binnenland entwickelten Schwachwindanlagen mit sehr großen Rotoren und eher schwächeren Generatoren ergeben sich rechnerisch erstaunlich hohe VLH, die jedoch als Maß für die tatsächliche, wegen des mageren Windangebots kaum steigerungsfähige Stromerzeugung nicht mehr zu gebrauchen sind. Diese VLH dienen dann nur der Vortäuschung von Effizienz und sollen ahnungslose Investoren beeindrucken.

Brauchbar für eine Beurteilung sämtlicher WKA ist allein deren Ertrag im Verhältnis zu einem sog. 100-Prozent-Referenzertrag – das ist ein Normertrag, den eine WKA unter genau definierten Testbedingungen erbringen muss(s.o.).

 Abb.1 zeigt die Volllaststunden (VLH) aller deutschen WKA über 26 Jahre (rechte Skala) – und ebenfalls die Stromerzeugung in TWh (Milliarden kWh) als blaue Säulen sowie die Gesamt-Maximalleistung der WKA als rote Säulen (linke Skala). Man erkennt, dass der Zubau an WKA, der sich in der steigenden Gesamtleistung zeigt, keineswegs immer mit einer Erhöhung der Stromproduktion einhergeht – wie in den „schlechten Windjahren“ 2009 und 2010. Umgekehrt gilt: In einem guten Windjahr wie 2015 steigt die Erzeugung deutlich stärker als der Zubau. Da die VLH-Kurve im Mittel konstant bleibt, gab es keine technischen Fortschritte mehr in Bezug auf die Erhöhung des Wirkungsgrades. Die Anlagen wurden nur immer größer. Dies wird sich jedoch bei einem signifikanten Anstieg des Anteils an sog. Schwachwindanlagen evtl. in den kommenden Jahren verändern. Dann werden die VLH-Mittelwerte verfälscht und jede Vergleichbarkeit über die VLH fällt weg. Quelle: BMWi , Darstellung: Rolf Schuster

In dieser Ergänzung benutze ich die Gelegenheit, noch ein Thema anzusprechen, das bisher kaum betrachtet wird:

Wie lange „leben“ Windräder – und was passiert danach ?

Windkraftanlagen sind besonders hohen dynamischen Beanspruchungen ausgesetzt. Über die Höhe und die Breite der Rotorebene bestehen bereits erhebliche Unterschiede in der Windstärke. Stoßweise Böenkräfte und Vibrationen belasten die gesamte Konstruktion; die sich von den Rotoren ablösenden Turbulenzen erschüttern den Turm (Quelle des Körperschalls – s.o.) und das Fundament. Dies betrifft vor allem das Binnenland mit seinen stark böigen Winden. Eine die Lebensdauer verlängernde Überdimensionierung aller hochbelasteten Bauteile – eine gängige Praxis im Maschinenbau – verbietet sich aus Gewichtsgründen. Ob damit die immer genannte Lebensdauer von 20 Jahren im Durchschnitt tatsächlich erreicht werden kann, werden die Betreiber sehen. 

Sehr oft werden die in der zweiten Dekade ansteigenden Reparatur- und Wartungskosten unterschätzt, wie Werner Daldorf vom Bundesverband der Deutschen Windindustrie feststellte (3). Bei den neuen Riesenwindrädern gibt es noch keine Erfahrungen über deren Reparaturanfälligkeit. Experten gehen von einer eher nur 16-jährigen Betriebszeit aus (1). 

Und was kommt danach  ?

Dafür gibt es mehrere Möglichkeiten:

  1. „Repowering“, d.h. der Ersatz der alten WKA durch eine neue am gleichen Standort. Das setzt voraus, dass sich die Investoren davon eine Rendite erhoffen – und eine Genehmigung erhalten. Das wiederum hängt aber von mehreren in der Zwischenzeit eingetretenen Veränderungen der Randbedingungen ab, so z.B. Gesetzesänderungen (andere Fördersätze – oder deren Wegfall, Naturschutzbelange, Mindestabstände), aber auch Widerstand der Anrainer.
  1. Abriss und Verschrottung. Voraussetzung ist deren Finanzierung, wozu die heute mancherorts verlangte Bankbürgschaft in vielen Fällen nicht reichen wird. Der Erlös für den Windradschrott reicht nicht für eine ordentliche Entsorgung. Was in keinem Fall entsorgt werden kann, sind die riesigen Stahlbetonfundamente, die für die Ewigkeit im Boden verbleiben müssen, weil die niemand mehr heraus bekommt. Die Hinterlassenschaften des 3. Reichs an Stahlbetonbunkern und Panzersperren, die uns und unseren Nachbarländern noch sehr lange erhalten bleiben, sind dagegen geringfügig.
  1. Abriss und Verschrottung wären eigentlich fällig, aber es ist dafür kein Geld mehr da. Die Verantwortlichen können es nicht bezahlen. Dann bleiben die Riesenwindräder einfach stehen; irgendwann fallen die Rotorblätter ab. Streit gibt es dann darüber, wer die immer noch nötige Befeuerung mit roten Warnlichtern weiterhin bezahlen muss.
  1. Sprengen und Liegenlassen wäre die optische Billigvariante von Lösung Nr.3, die zumindest die hohen Türme aus dem Landschaftsbild verschwinden lassen und auch die Befeuerungsfrage lösen würde.

Die wahrscheinlichste Variante ist wohl die Nr.4.

Es ist nicht bekannt, ob sich darüber jemand im Umweltministerium Gedanken macht.

Den Beitrag „Ethik-Kommission Windkraftausstieg“ finden Sie hier

Quellen:

1.   Willy Fritz:  „Fehleinschätzungen der Windstromerzeugung“ (BNB Info Report 22.10.2014);

http://www.bnb-buocher-hoehe.de/images/dokumente/2014-10-22-Fehleinschaetzung%20der%20Windstromerzeugung-V2.pdf

BNB = Bürgerinitiative BNB Buocher Höhe (Rems-Murr-Kreis, Baden-Württ.)

2.   Wlly Fritz: „Die Zahlenkosmetik der Schwachwindanlagen“ ,

http://www.bnb-buocher-hoehe.de/images/fachbeitraege/2016-01-2016-05-Die%20Zahlenkosmetik%20der%20Schwachwindanlagen.pdf

3.   W. Daldorf, R. Ernst, H. Feddersen, Chr. Herz, H. Visel, J. Bonorden, J. Vry:

„Ratgeber für Windpark-Anleger“, Bundesverband Windenergie, Version 18.3.2011;

http://www.energieverbraucher.de/files_db/1300471869_4207_12.pdf

www.welt.de/wirtschaft/energie/article137970641/Macht-der-Infraschall-von-windkraftanlagen-krank.html

 




Aus dem Lehrbuch zur Erzeugung von Klimaalarm Teil 1 Kapitel: Wie macht man 13,1 Millionen Amerikaner zu Klima-Betroffenen

Bild rechts: Klima-Lügendetektor auf den Klimaretter.Info verweist
Nachdem sich wohl wegen der bevor stehenden Klimakonferenz in Marokko am 18. November die medialen Einschläge des Klimakampfes häufen, nimmt dies der Autor um Anlass, anhand einer dieser typischen Zeitungsmeldungen zu zeigen, welche wirklichen Informationen hinter solchen alarmistischen Meldungen verborgen sind.

Leider kommt diese Information für unsere Berliner Abgeordneten zu spät, da diese der Ratifizierung des Klimavertrags im Parlament bereits zugestimmt haben: SPIEGEL ONLINE „Bundestag billig Weltklimavertrag“. Aber man soll die Hoffnung nie aufgeben, dass trotz Klimawahn wenigstens im Nachspann welchen dämmern könnte, für welches künftige Klimawandel-Betrugsspiel (vorwiegend auf Kosten der Deutschen Bürger) sie ihre Stimme abgegeben haben.

Die Zeitungsmeldung

Das Hamburger Abendblatt und viele andere unserer investigativen Medien brachten kürzlich einen Artikel der dpa, welcher über neue – schlimme – Auswirkungen des Klimawandels in den USA berichtete:

(Kurzer Auszug): [1][2] Klimawandel bedroht US-Küsten: Millionen Menschen betroffen (dpa)
… Steigende Meeresspiegel könnten bis Ende des Jahrhunderts Millionen US-Amerikaner zwingen, ihre Heimat an den Küsten zu verlassen. Grund: die Erderwärmung, das zeigt eine aktuelle Studie.
Washington. Überflutungen, Küstenerosion, extreme Stürme – der Klimawandel kann zu einem ernsten Problem auch für die amerikanische Bevölkerung werden.
13,1 Millionen US-Amerikaner sollen bis Ende des Jahrhunderts unmittelbar vom Anstieg des Meeresspiegels betroffen sein, prognostiziert Geograf Mathew Hauer von der Universität Georgia mit seiner Forschungsgruppe in einer aktuellen Studie. …
Das Informationsportal der Klimaberaterin C. Kemfert wusste es bereits Monate früher und berichtete damals ebenfalls, wie oft, mit zugefügten, weiteren Apokalypsen:

Klimaretter.Info 15. März 2016: [3] USA: Meeresanstieg bedroht Millionen
Der Meeresspiegelanstieg könnte in den USA zu einem wahren Exodus der Küstenbewohner führen. … Den neuen Ergebnissen zufolge dürften deshalb weitaus mehr Menschen von den steigenden Ozeanen betroffen sein als bislang gedacht – dreimal mehr.
Diese Ergebnisse legen nahe, dass das Fehlen von Schutzmaßnahmen zu einer Bevölkerungswanderung in den USA führen könnte in der Größenordnung der Great Migration der Afroamerikaner im 20. Jahrhundert", schreiben die Studien-Autoren um Mathew Hauer von der Universität von Georgia.

Hinweis: In diesem Teil wir nur die These der angeblich 13,1 Millionen betroffener Amerikaner analysiert. Die vielen, weiteren Klimawandel-Problemmeldungen in der dpa-Information werden in einem späteren, 2. Teil dargestellt.

Die 13,1 Millionen Klima-Betroffenen

Der dpa-Zeitungsartikel (und Klimaretter.Info) beziehen sich auf die folgende Präsentation:
[5] Mathew E. Hauer at al.: Population Projections and Risk of Inundation from SLR for the United States in 2100
… welche in Präsentationsform das „Summary“ einer Studie der gleichen Autoren [4] darstellt.

In der Präsentation und der Studie steht sinngemäß:
[5]… bisherige Studien zur Ermittlung der von einem aufgrund des Klimawandels möglichen Anstiegs der Küstenpegel betroffenen US-Einwohner haben versäumt, den künftigen Bevölkerungszuwachs (bis zur Überflutung!) in die Berechnungen mit ein zu beziehen, weshalb alle bisherigen Schätzungen viel zu niedrige Werte ergeben. Die Autoren gehen davon aus, dass sich in den betroffenen Küstenregionen die Bevölkerung (bis zur Überflutung) im Jahr 2100 ungefähr um den Faktor 3 vermehren wird (was bisherige Studien fälschlicher Weise nicht angenommen haben). Von diesen, neuen Zahlen ausgehend, wurden bei einem angenommenen Pegelanstieg von 0m, 0.3m (1 feed), 0.9m (3 feet), und 1.8m (6 feet) die betroffenen Personen neu berechnet.
Dabei errechneten sich bei einem Pegelanstieg von 1,8 m und Verdreifachung der Bevölkerung 13,1 Millionen betroffene Personen.
Studie: [4] We find that in the continental United States approximately 13.1 million people are at risk under the 1.8m scenario (Figure 1)

In der Studienpräsentation [5] zeigt die folgende Grafik (Bild 1) die Auswirkungen eines Küstenpegel-Anstiegs auf die Küstenpopulation. Der Autor hat darin eingezeichnet, wie die 13,1 Millionen Betroffenen zustande kommen.

Bild1 [5] Studienpräsentation Figure 1, Anstieg des US Küstenpegels und betroffene US-Bürger. Die rote Linie kennzeichnet +1,8 m Anstieg und 13,1 Millionen Betroffene (rote Einträge vom Autor ergänzt)
Anmerkung: In der Studie ist das gleiche Bild ebenfalls als Figure 1 enthalten. Dort allerdings um eine dritte Linie mit dem niedrigen IPCC-Pegelwert von ca. 0,3 m ergänzt)

Diskussion: Wie hoch wird der wahrscheinlichere Meerespegel-Anstieg

Wie weit wird der Meeresspiegel bis zum Jahr 2100 steigen? Dazu findet sich praktisch jeder Wert zwischen 0 und mindestens 2 m.
Der Grund ist, dass man einen beliebigen Anstieg simulieren kann, indem man einfach verschiedene CO2-Szenarien und verstärkende Faktoren annimmt. Für hohe Pegel ist es erforderlich, dass das innere Grönlandeis schmilzt und die Antarktisgletscher ins Meer rutschen. Das ist in der von Menschen belebten Erdgeschichte (wahrscheinlich noch weit länger) zwar immer nur in der umgekehrten Richtung zu Eiszeiten hin geschehen, aber vom Menschen programmierte Computerprogramme ermitteln, es wäre möglich, dass es in den nächsten 84 Jahren dazu kommt, weil der Mensch eine Jahrmillionen dauernde Klimafolge aus dem Takt gebracht hat.
Auf dieser Basis lässt das IPCC simulieren und kam im letzten Sachstandsbericht zu den folgenden Ergebnissen:
IPCC AR5: Meeresspiegel: Bis Ende des 21. Jahrhunderts sind Anstiege um weitere 26 bis 55 cm zu erwarten(Mittelwert. ca.
40 cm), wie es im Bild 2 dargestellt ist.

Bild 2 IPCC AR5 2013: TFE.2, Figure 2 Scenarien Meerespegel (schwarze, gestrichelte lineare Regressionslinie und gestrichelte Scenarienpegel vom Autor zugefügt)

Das Deutsche Klima-Rechenzentrum ist konservativer (oder aktueller) und gibt auf seiner Homepage die Daten von Bild 3 an. Darin ist der Wert des extremen RCP8.5 Szenarios von dem im AR5 angegebenen 0,6 m (Mittelwert) auf 0,3 m gesunken, der Wert für das „normale“ Szenario RCP2.6 von 0,4 m auf 0,1 m. Als Bandbreite gibt das DKRZ an:
DKRZ Homepage: Gegenüber dem vorindustriellen Wert wäre nach dieser Simulation bis 2100 mit einem Anstieg von etwa 20 bis 40 cm zu rechnen – je nach ausgewähltem Szenario.

was einer Anstiegsrate zwischen 2,35 … 4,7 mm pa entspricht, wobei das „normale“ RCP2.6 Szenario dort nur +0,1m Anstieg aufweist.

Bild 3 Simulierte Meerespegel-Anstiege bis zum Jahr 2300 (vom Autor ergänzt). Quelle: Deutsches Klima-Rechenzentrum DKRZ

Im folgenden Bild 4 sind Pegelangaben verschiedener Quellen gelistet. In diesem ist die 1,8 m Angabe von Herrn Prof. Rahmstorf, welche in der Studie [5] angezogen wurde nicht enthalten.

Bild 4 [6] Pegel-Zukunfts-Vermutungen zweier deutscher PIK Klimawissenschaftler und vom Rest der Welt (Bild vom Autor mit Zusatzangaben ergänzt)

In der Studie wird von einem Anstieg bis +1,8 m berechnet: [4] Sea level rise (SLR) is widely recognized as one of the most likely and socially disruptive consequences of future climate change 6. Scenarios of future SLR at the year 2100 range from a low of 0.3 meters to a high scenario of 2.0 meters associated with collapse of polar ice sheets 7.

Die Fußnote 7 verweist dabei auf ein Paper mit Prof. Rahmstorf (PIK) vom Jahr 2009, in welcher als Maximalwert die 1,8 m projiziert werden.

Langfristiger Pegelverlauf USA

Anhand von Pegelbildern wirklicher Messstationen lässt sich abschätzen, welche Spanne für die US-Küsten eine realistische Wahrscheinlichkeit hat.

Bild 5 zeigt den Verlauf des Pegels von San Franzisco, der zeitlich längsten Tidenreihe aller USA-Pegelstationen. Die Regressionsgerade weist den typischen Wert um 2 mm pa aus und läge im Jahr 2100 bei +20 cm. Damit jeder Leser abschätzen kann, ob der in der Studie angenommene Wert von +1,8 m eine Wahrscheinlichkeit hat, ist er mit eingezeichnet.
Bild 6 zeigt die Änderung des Pegelanstiegs der zweit-längsten Pegelmessreihe der USA, diesmal an der Ostküste. Schön zu erkennen ist, dass seit Beginn der Messreihe keine Änderung der Anstiegsrate eingetreten ist. Eine Erhöhung der Änderungsrate ist auch nicht im Entferntesten erkennbar. Man sieht aber auch, dass eine Spanne der Änderungsrate zwischen 2 … 4 mm / pa – also von 100 % – historisch normal ist und somit keinerlei Beleg für einen Klimawandel-Einfluss darstellt.
Damit jeder Leser abschätzen kann, ob der in der Studie angegeben Wert von +22 mm / pa Pegel-Änderungsgeschwindigkeit – welcher zwischenzeitlich schon hätte eintreten müssen – eine Wahrscheinlichkeit hat, ist er im Bild 5 mit eingezeichnet.

Bild 5 In den Pegelverlauf von San Franzisco (1850 … 2005) eingezeichnete Pegel im Jahr 2100 (grün: lineare Weiterführung; rot: Prof. Rahmstorf, PIK)

Bild 6 Ab sofort erforderliche Erhöhung der Pegeländerung von San Franzisco, um im Jahr 2100 +1,8 m Pegel zu erreichen

Aktueller und zukünftiger Pegelverlauf USA

Anhand der wahren Pegeldaten wird man mit der Annahme nicht sehr falsch liegen, dass – da sich bisher kein Hinweis auf eine Änderung zeigt – eine Pegelzunahme bis zum Jahr 2100 von etwa + 20 … 30 cm einstellen könnte. Dass in den kommenden 84 Jahren die riesigen Antarktisgletscher ins Meer rutschen (wie es Simulationen erzeugen können), dürfte jeder mit Realitätssinn versehene Bürger ins Reich der PIK-Fabeln verweisen.

Das IPCC liegt von diesen Werten nicht weit weg. Es hat ein Problem damit, dass die Tidenpegel- und Satellitenpegel-Änderungen deutlich differieren. Aber die Küste interessiert der Satellitenpegel nicht (dort messen die Satelliten zudem ungenau), sondern, das, was am Land wirklich „ankommt“.
Dazu Auszüge aus dem letzten IPCC Sachstandsbericht AR5:

IPCC AR5 über Pegeländerungen:
It is very likely that the long-term trend estimate in GMSL is 1.7 [1.5 to 1.9] mm yr–1 between 1901 and 2010 for a total sea level rise of 0.19 [0.17 to 0.21] m (Figure 13.3c).
Satellitendaten: a GMSL rate of 3.2 [2.8 to 3.6] mm yr
–1over 1993–2012 is found by the different altimetry data processing groups.

Bild 7(b) zeigt, dass die Änderungsgeschwindigkeit seit 1910 global irgendwo zwischen 0 … 4 mm / pa schwankt und sich derzeit mehr am oberen Bereichsende befindet. Am Bild 7(a) (Pegel-Änderungsverlauf) sieht man einen Teil der Zyklik, die man im Bild 6 ebenfalls schon sah. Damit soll gesagt werden, dass es überhaupt nicht so sicher ist, dass der aktuelle, leichte Anstieg zu immer höheren Werten führen muss.

Bild 7 Globale Pegeländerungen vom Jahr 1900 … 2005. Quelle: AR5 Figure 13.7 (Auszug)

Auch jüngste Studien belegen, dass der den von Klimaaktivisten unisono postulierte „sich immer mehr beschleunigende Pegelanstieg“ ein typisches (nur in Simulationen erzeugtes) eher ein Klimaalarm-Märchen sein könnte (wie es die Pegelstationen ausweisen).

kaltesonne, 21. September 2016: Landgewinn trotz Meeresspiegelanstieg: Küsten haben sich in den vergangenen 30 Jahren um 13.500 Quadratkilometer ins Meer vorgebaut

Am 25. August 2016 gab es in Nature Climate Change ein kleines Wunder zu bestaunen. Eine Forschergruppe um Gennadii Donchyts vom niederländischen Deltares Research Institute veröffentlichte eine Statistik zu Landgewinnen und -verlusten in den Küstenzonen der Erde. Angesichts des steigenden Meeresspiegels war ein gewisser Landverlust zu erwarten. Umso größer die Überraschung, als nun die offiziellen Zahlen präsentiert wurden: Die Küstenzonen sind nicht etwa geschrumpft, sondern es wurden in den vergangenen 30 Jahren sogar 13,565 km2 neu geschaffen. Eine echte Sensation. Die deutsche Presse zog es allerdings leider vor, dazu zu schweigen. Unbequeme Daten, die man der Bevölkerung lieber nicht zumuten wollte. In der Publikation heißt es:
Earth’s surface gained 115,000 km2 of water and 173,000 km2 of land over the past 30 years, including 20,135 km2 of water and 33,700 km2 of land in coastal areas. Here, we analyse the gains and losses through the Deltares Aqua Monitor — an open tool that detects land and water changes around the globe.

Und so wurden die 13,1 Millionen betroffenen US-Bürger berechnet

Mit den Angaben des vorherigen Kapitels (aus der Studie [5]) lässt sich nachvollziehen, wie die 13,1 Millionen Betroffenen US-Bürger berechnet wurden:

-Es wird nicht der wahrscheinliche Pegelanstieg von 20 … bis maximal 40 cm angenommen, sondern ein einsamer Extremwert des PIK von 1,8 m, was einem vollkommen unrealistischen Pegelanstieg von ab sofort 21 mm / pa (aktuell ca. 2,1 mm / pa.) entspricht.
-Es wurde angenommen, dass ausgerechnet in den „sicher“ bereits in den nächsten 85 Jahren überschwemmten Gebieten die Bevölkerung weit überproportional noch um das 3-fache anwächst.
Anm.: Die jährliche Zunahme an US-Einwohnern beträgt aktuell +0,7 % / pa (Quelle: Weltbank) mit leicht abnehmender Tendenz. Wenn es bei den 0,7 % bliebe, ergäbe dies bis zum Jahr 2100 eine Zunahme von +81 % und nicht + 200 %, wie in der Studie berechnet. Sicher nicht zufällig hatte eine solch hohe Zunahme bisher auch noch keine Studie angenommen.
-Und es wurde angenommen, dass keinerlei Maßnahmen gegen einen steigenden Meerespegel vorgenommen würden.

Nur sofern alle diese vollkommen unhaltbaren Annahmen gleichzeitig eintreffen würden, sind im Jahr 2100 ca. 13,1 Millionen Bürger betroffen

Nimmt man dagegen realistisch an:
– Der Pegel steigt um den typischen, vom IPCC angegebenen (und den aktuellen Pegelverläufen in etwa gedeckten) Wert von ca. 0,3 m
– Die Population in den ausgewiesenen Flutgebieten wächst nicht mit dem Faktor 3, sondern wird auf dem heutigen Stand eingefroren, da weitere Besiedlungen in den ausgewiesen Flut-gefährdeten Gebieten nicht zugelassen werden
(Anmerkung: Eigentlich müssten die Bewohner in so „sicher“ überfluteten Gebieten ja eher umgesiedelt werden)
dann sind ca. 330.000 Personen in den USA betroffen. Das wären im Jahr 2100 dann 0,023 % der US-Einwohner
(Anmerkung: Lt. der Studie hat sich bis dahin die übrige Einwohnerzahl der USA ja angeblich verdreifacht).

Nimmt man realistisch an, dass es den USA geling, in den nächsten 85 Jahren Küsten-Schutzmaßnahmen gegen einen um ca. 30 cm steigenden Meerespegel durchzuführen, dann bleibt auch davon nur noch ein kleiner Teil an Betroffenen übrig.

Dieses realistische Szenario ist für die USA ganz bestimmt kein Problem und wäre nicht einmal eine Meldung (außer eine Ab-Meldung) wert.

Von der dpa wurde jedoch der unter vollkommen irren Annahmen berechnete Maximalwert von 13,1 Millionen übernommen und mit ihrer Meldung an die deutschen Medien weiter geleitet – und Klimaretter.Info verstärkt die Meldung noch mit der Ergänzung „ … zu einer Bevölkerungswanderung in den USA führen könnte in der Größenordnung der Great Migration der Afroamerikaner im 20. Jahrhundert"

Die extra Erwähnung bei Klimaretter.Info: „… dreimal mehr …“
Ist mit Kenntnis des Hintergrundes schon nicht mehr erheiternd. Die Klimaberaterin hat keinerlei Scheu davor, diese Information ohne die Hintergrundinformation zu bringen, dass diese Verdreifachung (gegenüber bisherigen, bereits mit zu hohen Pegelanstiegen rechnenden Simulationen) ausschließlich dadurch zustande kommt, weil die Autoren zusätzlich simulierten, in den (angeblichen) Flutgebieten würde sich die Bewohnerzahl in den nächsten 85 Jahren zusätzlich überproportional noch verdreifachen.

Fazit

Ein typisches Beispiel, wie willfährige Klimawissenschaftler bewusst einen Alarmheader publizieren, der von der dpa dann „reingewaschen“ und als „Wahrheit“ an die Medien verteilt wird*. Allerdings auch wieder ein Beispiel, wie die (Des-)Informationsseite der Klimaberaterin C. Kemfert dieses „Klima-Alarmspiel“ konsequent unterstützt.

Der Autor stellt an Klimaretter.Info hiermit den Antrag, ihren Beitrag vom 15. März 2016: [3] USA: Meeresanstieg bedroht Millionen, als Lehrbeispiel für bewusste Desinformation in den eigenen KLIMA-LÜGENDETEKTOR aufzunehmen.

*Publizierungen von offiziellen Presseagenturen brauchen von den Zeitungsredakteuren nicht mehr auf Wahrheitsgehalt geprüft werden.

Nachtrag

An ein bereits früher berichtetes Beispiel aus dem „Lehrbuch für Klimaapokalypsen“ sei hiermit erinnert:
Wie man den Meerespegel-Verlauf in die richtige Richtung dreht

Quellen

[1] N24 Welt 12.09.2016: So stark wird der Klimawandel die US-Küsten treffen
http://www.n24.de/n24/Wissen/Mensch-Natur/d/9124902/so-stark-wird-der-klimawandel-die-us-kuesten-treffen.html

[2] Hamburger Abendblatt, 11.09.16: Klimawandel bedroht US-Küsten: Millionen Menschen betroffen
http://www.abendblatt.de/ratgeber/wissen/article208220367/Klimawandel-bedroht-US-Kuesten-Millionen-Menschen-betroffen.html

[3] Klimaretter.Info 15. März 2016: USA: Meeresanstieg bedroht Millionen
http://www.klimaretter.info/forschung/nachricht/20851-usa-meeresspiegelanstieg-bedroht-millionen

[4] Mathew E. Hauer, Jason M. Evans: Millions projected at risk of displacement from sea level rise in the Continental United States (Anm.: Studie)

[5] Mathew E. Hauer, Jason M. Evans, Deepak Mishra: Population Projections and Risk of Inundation from SLR for the United States in 2100 (Anm.: Präsentationsdarstellung)

[6] EIKE: PIK-Alarmmeldung: „Meeresspiegelanstieg: Zu groß zum Wegpumpen“, er könnte bis 2100 um 1,3 m steigen
http://www.eike-klima-energie.eu/news-cache/pik-alarmmeldung-meeresspiegelanstieg-zu-gross-zum-wegpumpen-er-koennte-bis-2100-um-13-m-steigen/




Kraftvolle Länder, reiche Menschen!

Die zwei installierten Lichter sowie Motorsägen und Bohrer. Ihre Produktivität vervierfachte sich. Sie stellten lokale Arbeiter ein, um noch mehr Tische und Stühle von noch besserer Qualität zu höheren Preisen herzustellen und diese zu verschiffen an lokale und weit entfernt wohnende Kunden. Die Arbeiter konnten mehr Geld ausgeben, so dass weitere Familien davon profitierten.

Der Lebensstandard stieg, konnten die Familien sich doch jetzt Lampen, Kühlschränke, Fernseher, Computer und andere elektronische Geräte kaufen, die viele Amerikaner und Europäer einfach als gegeben hinnehmen. Die Gemeinde wurde in die moderne Zeit katapultiert, unternehmerischer Geist entfaltete sich, neue Industrien öffneten und seit Neuem hatten Familien Zugang zu Beschäftigung und zur globalen Wirtschaft.

Selbst am äußersten Rand des elektrifizierten Gebietes profitierten die Menschen noch. Bheki Vilakazi eröffnete einen kleinen Laden, so dass die Menschen ihre Handys aufladen konnten, bevor sie sich in das Veld aufmachten, wo rasche Kommunikation im Falle eines Unfalles über Leben und Tod entscheiden kann, oder wenn Autos liegen blieben oder wilden Tieren gegenüber standen.

200 Meilen entfernt, nahe Tzaneen, erkannten andere Unternehmer, dass ihr Boden und das tropische Klima Bananen ausgezeichneter Qualität hervorbrachte. Nachdem ihr ländliches Gebiet an die Stromversorgung angeschlossen worden war, richteten sie die Du Roi Nursery und das banana cloning laboratory ein, in dem Wissenschaftler überragende Qualität entwickelten – Saatgut frei von Krankheiten, eingebettet in eine Schutzschicht und verschifft nach ganz Afrika und zu anderen Gebieten der Welt.

Jane Ramothwala besuchte nur bis zur zehnten Klasse eine ländliche Schule und war ein Zimmermädchen in einem Hotel, bevor sie eine general nursery-Arbeiterin in dem Unternehmen wurde. Während der folgenden Jahrzehnte arbeitete sie hart, um sich mit jeder Facette von Geschäftsoperationen vertraut zu machen, brachte sich selbst Englisch bei und absolvierte viele Kurse der Erwachsenenbildung – wollte sie doch zur Managerin des Pflanzenlabors des Unternehmens werden.

Derzeit verdient sie fünf mal so viel Geld als zuvor. Während jener Zeit vermehrten sich die Pflanzen von 800.000 auf 10 Millionen, und heute arbeiten im Laboratorium, im Vertrieb und in der Aufzucht viele College-Absolventen und 45 Arbeiter mit geringer Ausbildung. Deren Leben haben sich grundlegend verändert, viele haben moderne Wohnungen eingerichtet, und deren Kinder stehen vor einer viel besseren Zukunft als irgendjemand nur eine Generation zuvor zu träumen gewagt hatte.

Zugang zu Strom, sagt Jane, „hatte einen gewaltigen Einfluss auf die Lebensqualität vieler Familien in ländlichen Gebieten der Provinz Limpopo“. Ihre Lebensqualität sowie die ihrer Nachbarn hat sich verbessert. Es gibt viel mehr Chancen und Zugang zu Nachrichten von überall her.

Diese Szenarien wiederholen sich auf der ganzen Welt, von Nigeria und Kenia über Chile, Peru, China, Indien, Indonesien bis hin zu Dutzenden anderer Länder. Tausende anderer Gemeinden, Millionen andere Familien wollen die gleichen Chancen haben. Aber derzeit müssen Viele weiter ohne Strom leben, oder sie haben Strom nur sporadisch oder unvorhersagbar nur ein paar Stunden pro Woche.

Verteilt über den Globus fehlt es fast drei Milliarden Menschen – fast der Hälfte der Weltbevölkerung – immer noch an regelmäßig und zuverlässig verfügbarem Strom. Fast 1,3 Milliarden Menschen haben gar keinen Zugang zu Strom.

In Afrika südlich der Sahara haben 600 Millionen Menschen – fast doppelt so viele, wie die USA Einwohner haben, und 70% der Bevölkerung in jenem Gebiet – immer noch gar keinen Zugang zu Strom, oder dieser fließt nur begrenzt und sporadisch (hier). Über 80% der Bewohner sind immer noch abhängig von Holz, Dung und Holzkohle zum Heizen oder Kochen, was zu extensiver Rauchbildung und Luftverschmutzung in ihren Wohnungen und Dörfern führt.

In Indien haben über 300 Millionen Menschen (fast so viele, wie in den USA und Mexiko leben) immer noch überhaupt keinen Strom; zehn Millionen weitere Menschen haben ihn höchstens für wenige Stunden am Tag.

Unzählige Menschen in diesen Gemeinden leben in erbärmlicher Armut, oftmals lediglich von ein paar Dollars pro Tag. Das Pro-Kopf-Einkommen in Afrika südlich der Sahara beträgt grob etwa 1 Dollar pro Tag, schreibt der in Sambia geborene Ökonom Dambisa Moyo. Damit gibt es dort den höchsten Anteil armer Familien weltweit.

Mütter in diesen Gemeinden bringen jeden Tag Stunden über offenem Feuer gebeugt zu, ihre Babys auf ihrem Rücken, und atmen giftigen Rauch Tag für Tag. Viele müssen sich hinlegen wegen schwächender und oftmals tödlicher Lungenkrankheiten. Ihren Wohnungen, Schulen und Krankenhäusern fehlt es an den grundlegendsten, auf Strom basierenden Geräten: Lampen, Kühlschränke, Radios, Fernseher, Computer und Trinkwasser. [Auf das alles sollen wir ja unseren Politikern und Medien zufolge hierzulande auch verzichten, wenn der Wind nicht weht und die Sonne nicht scheint! Gute Nacht, Deutschland! Anm. d. Übers.]

Ihre Häuser aus Lehm und Stroh sowie anderen traditionellen Baustoffen bieten ideale Brutstätten für Fliegen und Mücken, die ihre Opfer mit Malaria und anderen tödlichen Krankheiten infizieren. Frauen und Kinder müssen meilenweit laufen, um Krüge mit unbehandeltem Wasser zu schleppen, in dem es von Bakterien und Parasiten wimmelt, die zu Cholera, Durchfälle und Flussblindheit führen. Ungekühlte Nahrungsmittel verderben schnell, was weitere Darmkrankheiten zur Folge hat.

Hunderte Millionen werden ernsthaft krank, und fünf Millionen sterben jedes Jahr durch Lungen- und Darmkrankheiten. Ursache sind das Einatmen von Rauch offener Feuer und das Fehlen von Kühlschränken, sauberem Wasser und sicherer Nahrungsmittel.

Wenn die Sonne untergeht, endet ihr Alltag, es sei denn, sie können bei Kerzen- oder Taschenlampenlicht oder Ölfunzeln arbeiten.

Die Umweltkosten sind genauso hoch. Die Gorilla-Habitate in Ruanda werden zu Holzkohle verarbeitet, um Kochfeuer anzuzünden. In Sambia und anderswo fällen Unternehmer Bäume zu Tausenden entlang Autobahnen und verwandeln Waldhabitate in Grasland. Dann verkaufen sie Brennholz an Autofahrer, die zurück zu ihren nicht elektrifizierten Wohnungen in ländlichen Gebieten oder sogar ganzen Stadtteilen eilen.

Genauso schnell wie Wohlfahrtsorganisationen in reichen Ländern Baumpflanz-Kampagnen anzetteln, fällen die Menschen auf der ganzen Welt Bäume, um grundlegenden Bedürfnissen wie Kochen und Heizen zu genügen.

Solange es keine zuverlässige und bezahlbare Stromversorgung gibt, wird dies noch viele Jahrzehnte so weitergehen. Schritt für Schritt, Hektar für Hektar werden Wälder zu Grasland, die dann einfach hinweg gespült werden durch Wind und Regen. Und die Menschen werden in ihrer Armut gefangen bleiben, in Elend, Krankheiten und frühzeitigem Sterben.

Diese nicht nachhaltige menschliche und ökologische Zerstörung kann aber umgekehrt werden, genau wie es in den USA der Fall war. Einen vitalen Anteil daran haben Kraftwerke, die mit stetig verbesserter Verschmutzungs-Kontrolle ausgestattet sind – und die Kohle oder Erdgas verbrennen, welches Hunderte Male mehr Energie pro Pfund liefert als Holz, Dung oder Biotreibstoffe auf Pflanzengrundlage.

„Zugang zu den Vorteilen, die eine ausreichende Energieversorgung mit sich bringt, wiegt viel schwerer als deren geringer Beitrag zu Treibhausgas-Emissionen“, schreibt der Kolumnist bei der New York Times Andrew Revkin auf seinem DotEarth Blog. Afrika sitzt auf riesigen Lagerstätten von Kohle, Erdgas und flüssigen Kondensaten, die weitgehend ignoriert werden oder einfach als unerwünschte Nebenprodukte verbrannt werden, wenn Unternehmen Rohöl fördern. Kann nicht mal irgendjemand ein Geschäftsmodell erfinden, welches diese „neben-Treibstoffe“ auffängt anstatt sie zu verbrennen, fragte er sich.

Ultimativ geht es bei den Debatten um Energie, Umwelt, Klimawandel und Ökonomie um zwei Dinge:

1) Werden die Armen der Welt ihren ordnungsgemäßen Platz einnehmen unter den gesunden und wohlhabenden Menschen auf der Erde – oder müssen sie ihre Hoffnungen und Träume aufgeben wegen deplatzierter Gesundheits- und Umweltbedenken?

2) Werden arme Länder, Gemeinden und Familien ihre eigene Zukunft bestimmen – oder werden ihnen diese Entscheidungen abgenommen durch Politiker und Aktivisten, die verlogene Behauptungen über Umweltkatastrophen ausstoßen, um Verträge, Gesetze, Vorschriften und politische Maßnahmen zu rechtfertigen, die diesen Menschen den Zugang zu sicherer und bezahlbarer Stromversorgung und anderen modernen, lebensrettenden Technologien verwehren – und sie dadurch zu ewiger Armut, Krankheit und frühzeitigem Tod zu verurteilen.

Der ganze Artikel steht hier: https://www.masterresource.org/developing-countries/powering-countries-empowering-people-part-i/

Link: https://wattsupwiththat.com/2016/09/23/powering-countries-empowering-people/

Zu diesem Beitrag passt die folgende Meldung von Reuters:

Führende chinesische Kohleproduzenten haben begonnen, ihre Produktion zu steigern, berichtete das China Securities Journal vor ein paar Tagen. Damit werden potentiell 11 Millionen Tonnen neuer Vorräte jeden Monat auf den Markt geworfen, was den kometenhaften Preisanstieg in Asien stoppen soll (siehe Graphik unten). Der Beschluss folgte einem Treffen zu Beginn dieses Monats, einen Entwurf zu erarbeiten, der es den Bergbauern erlaubt, ihren täglichen Output um 500.000 Tonnen zu steigern, falls die Preise zwei Wochen lang auf 500 Yuan (74,94 Dollar) pro Tonne steigen. Der größte chinesische Kohleerzeuger Shenhua Group hat grünes Licht bekommen, seinen Output um 2,79 Millionen Tonnen pro Monat zu steigern, hieß es in dem Journal.

Reuters, 23 September 2016

Übersetzt von Chris Frey EIKE




Hungrige Polarbären belagern Polarforscher: Eine der dümmsten Nachrichten zum Klimawandel

(Bild rechts: Aktivisten einer BN Kreisgruppe bei einer (Originaltext) „Eisbärenaktion“ zum letzten Klimagipfel Herbst 2015
EIKE: [2] Der Eisbär vermehrt sich stetig – aber sein Aussterben simulieren darf man doch (2)
… und es auch bekannt wurde, dass sie keinesfalls nur Robben fressen würden:
kaltesonne:
Studie: Eisbären können ihre Fressgewohnheiten den Umweltbedingungen anpassen
Eisbären-Statistik-Gruppe räumt ein: Veröffentlichte Eisbärenzahlen sind lediglich eine “qualitative Vermutung mit dem Ziel das öffentliche Interesse zu befriedigen”
… was dazu führte, das die USA den Schutz aufgaben:
ocean care 04.05.2016: Vergangene Woche erklärten die USA, nicht mehr für ein internationales Verbot des Handels mit Eisbär-Körperteilen und -Produkten aufzutreten.

… war anzunehmen, dass es bei den vielen NGOs dagegen massiven Widerstand geben wird. Denn was macht man nun mit den vielen, teuren Eisbärkostümen im Fundus und mit welchem, neuen Kostüm könnte man alternativ so possierlich demonstrieren? Auch, was macht ein bisher immer mit fester Überzeugung trotz Hitze im Eisbärkostüm schwitzender Aktivist danach? Verlangt er vielleicht eine kostenpflichtige, psychologische Eisbär-Traumata Betreuung?
Fragen, denen sich ein NGO stellen muss.

Jedenfalls war abzusehen, dass es bald eine Studie geben würde, die diesem leidigen Problem ein Ende setzt, und sie ist endlich da:
Klimaretter.Info 18. September 2016: [1] Eisbären schmilzt die Eis-Zeit weg
… Die Wissenschaftler haben dazu die Lebensumstände aller 19 Eisbär-Unterpopulationen in der Arktis untersucht und zunächst festgestellt, dass in allen Regionen das Leben der Tiere vom ausreichenden Vorhandensein des Meereises abhängt – als Basis fürs Umherziehen, für die Jagd sowie zur Fortpflanzung.
Setzt sich der gegenwärtige Trend weiter fort, werden die Eisbären nach den Prognosen der Forscher bis 2050 weitere sechs bis sieben weitere Wochen von ihrer Jagdsaison verlieren.
Schaut man in die genannte Studie „Sea-ice indicators of polar bear habitat“ , dann steht darin viel über Eis drin, aber nichts über die wirklichen Auswirkung auf die Bären. Die Studie rechnet wie jemand, der mitteilt: Durch den Klimawandel gibt es immer mehr Vegetarier. Begründung: Die Winter werden immer wärmer und dadurch die Vegetationsperiode länger.

Auch erklärt die Studie nicht, wie die Eisbären die mittelalterliche und römische Warmzeit überstanden haben. Wie sie die aktuelle überstehen und sich (ohne Abschuss) fast explosiv vermehren (würden), hat der Autor in seiner Recherche [2] allerdings gezeigt und in einem Bild dargestellt


Bild [2] Eisbärpopulation mit Bejagung von 1.000 Eisbären pa (keine Nachkommen eingerechnet) und Population ohne Bejagung (grüne Linie)

Aber Klimaretter.Info meldet einen Beleg für die Theorie:
Klimaretter.Info: [1] … Das kann sogar für Polarforscher gefährlich werden, wie jetzt fünf russische Wissenschaftler erfahren mussten: Auf der Insel Trojnoj in der Karasee werden sie laut Presseberichten seit zwei Wochen von hungrigen Eisbären belagert und können nicht einmal ihre Messgeräte ablesen.

Das sind originäre Auswirkungen des Klimawandels: Das größte und unberechenbarste Raubtier der Erde (es hat keine Physiognomie) war sonst dem Menschen gegenüber immer friedlich (weshalb Arktisforscher auf Spitzbergen nur mit einem scharf geladenen Gewehr und vorherigen Schießübungen in die Natur gehen dürfen „AWI: Polarforscher bereiten sich auf Eisbären vor“) und erst der Klimawandel hat es gefährlich gemacht.
Der genannte Artikel „belegt“ es:

russland.NEWS 14. September 2016: Polarstation von Eisbären belagert
Vor etwa zwei Wochen begannen sich Eisbären für die menschliche Behausung zu interessieren und machen seitdem die Arbeit auf „Iswetij ZIK“ nahezu unmöglich. Anscheinend haben die Tiere auch nicht groß vor, mit den Menschen zu kooperieren.

Auf den Geschmack gekommen

Anfangs schlichen sie ja nur um die Anlage herum, drei ausgewachsene Tiere mit ihrem Nachwuchs, und inspizierten ihr mögliches neues Schlaraffenland. Dann jedoch haben sie ernst gemacht und fielen über das Lebensmittellager der Menschen her. Der Jahresvorrat an Lebensmitteln sei akut gefährdet, hieß es aus den Reihen der Forscher. Vertreiben ließen sich die Bären auch nicht, die Schreckschuss-Munition, die die Tiere vertreiben hätte sollen, ist sowieso schon längst aufgebraucht und einer der beiden Hunde aufgefressen worden.

Normalerweise leben hier auf der kleinen Insel während der eisfreien Zeit meist drei bis vier Eisbären, erklären die Meteorologen der Messstation. Diesen Polarsommer jedoch seien es mindestens zehn ausgewachsene Exemplare und mehrere Jungtiere, die Trojnoj besiedeln. Es steht somit zu befürchten, dass sich noch weitere der rund 500 Kilogramm schweren und bis zu drei Meter großen Raubtiere zu dem Stelldichein hinzugesellen werden.

Biologen haben errechnet, dass diese Bärengattung bis zum Jahr 2025 ganz von dem Planeten verschwunden sein wird, sofern nicht schleunigst etwas dagegen unternommen wird.

Der Artikel ist eindeutig:
Eine Polarstation lagert ihren Essensvorrat für Eisbären zugänglich. Das soll wegen der Bären kein Wanderer in Kanada machen, aber dessen Zelt ist auch keine Polarstation. Jedenfalls gefällt es den Eisbären, wohl weil sie sich zur rechten Zeit daran erinnert haben, dass es Studien ihnen „erlauben“ auch etwas anderes als Robben zu fressen. Verjagen lassen sie sich nicht, weil ein Abschussverbot besteht (Eisbären sind nicht ganz dumm und bemerken, wenn sie nicht tot umfallen), was sie gleich ausnutzen und so nebenbei einen Lagerhund mit verputzen (war wohl angeleint und konnte nicht fliehen).
Nun sind es anstelle der üblichen drei Bären gleich zehn (auch auf Spitzbergen werden die „aussterbenden“ Bären zu Plage). Und diese Vermehrung führt dazu, dass Biologen errechnen, es würde im Jahr 2025 keine mehr geben. Anmerkung: Eine wohl vom einem Wahrheitsministerium erzwungene Zufügung, damit der Artikel in Deutschland erscheinen darf.

Viel dümmer können Klimaalarmartikel eigentlich nicht mehr sein – denkt man. Es werden noch viel dümmere kommen! Die 17 Redakteure von Klimaretter.Info haben viel mehr Möglichkeiten des Aufspürens von Klimaunsinn als der Autor, und vor allem bis auf einen nicht im Ansatz eine Ausbildung in Klima oder Energie, dafür aber alle konsequent in Agitation. Wenn der nächste Artikel mit Anwartschaft zur „Klimazitrone“ kommt – erscheint auf EIKE die nächste Glosse dazu. Der Autor bleibt dran.

Quellen

[1] Klimaretter.Info 18. September 2016: Eisbären schmilzt die Eis-Zeit weg
http://www.klimaretter.info/forschung/nachricht/21940-eisbaeren-schmilzt-die-eis-zeit-weg
[2] EIKE: Der Eisbär vermehrt sich stetig – aber sein Aussterben simulieren darf man doch (2)
http://www.eike-klima-energie.eu/news-cache/der-eisbaer-vermehrt-sich-stetig-aber-sein-aussterben-simulieren-darf-man-doch-2/
Ergänzung: Ten dire polar bear predictions that have failed as global population hits 20-31k

https://wattsupwiththat.com/2016/02/25/ten-dire-polar-bear-predictions-that-have-failed-as-global-population-hits-20-31k/

[3] EIKE: Der Eisbär vermehrt sich stetig – aber sein Aussterben simulieren darf man doch (1)
Wie der Münchner Tierpark mit Klimapropaganda Werbung macht und Eisbären Thriller schreiben. Eine umfassende Analyse Teil 1
http://www.eike-klima-energie.eu/news-cache/der-eisbaer-vermehrt-sich-stetig-aber-sein-aussterben-simulieren-darf-man-doch-1/




EIKE 10.internationale Klima – und Energiekonferenz (IKEK 10)

Programm

"Schwerpunkt: Natürliche Einflußfaktoren auf das Klima 200 Jahre nach Tambora"

Freitag, 11. November

8.30 Uhr     Registrierung der Teilnehmer 

10.00 Uhr   "Einführung: Tambora und das Jahr ohne Sommer"

                 Warum diese Themen und speziell die Politik jeden betreffen

                 Dr. Holger Thuß im Gespräch mit n.n. Präsident, Europäisches Institut für Klima und Energie (EIKE)

10.30 Uhr   Brexit – Großbritanniens Abschied von der europäischen Klimapolitik? 

Dr. Benny Peiser Direktor, Global Warming Policy Forum

11.15 Uhr   Die Klimaübereinkunft von Paris! Was bedeutet sie wirklich?

– Für die Welt und für Deutschland?

Michael Limburg Vizepräsident, Europäisches Institut für Klima und Energie (EIKE)

Messen statt modellieren

12.00 Uhr   

Die Achillesferse der Klima-Modelle: Wasserdampf-Verstärkung

Dipl.-Meteorologe Klaus-Eckart Puls Ehemaliger Leiter der Wetterämter Essen und Leipzig

12.45 Uhr – 14.15 Uhr     Mittagspause – Gemeinsames Mittagessen

14.15 Uhr   2016- Der heißeste Sommer seit Aufzeichnung?“

   Ein Faktencheck

   NN


14.45 Uhr   Vulkane, die schwarzen Schwäne der Evolution

Dr. Sebastian Lüning Geologe und Autor von Die Kalte Sonne

15.30 Uhr   Das Experiment – Teil I 

                 Start des 2-tägigen „Al-Gore Experiments“ im Konferenzraum

                 Experimentelle Überprüfung der CO2-Treibhausthese

Prof. em. Jan-Erik Solheim  University of Oslo, Institute of Theoretical Astrophysics, Wissenschaftlicher Berater Klimarealistene

16.00 Uhr – 16.30 Uhr Pause       

16.30 Uhr   Sonne, Planeten und Vulkane und die Veränderungen der Eisschilde

Prof. em. Jan-Erik Solheim  University of Oslo, Institute of Theoretical Astrophysics, Wissenschaftlicher Berater Klimarealistene 

17.15 Uhr   CO2-induzierte Erwärmung vs. gesteigertem Pflanzenwachstum

                 Prof. em. Dr. Francois Gervais Université François Rabelais, de Tours, où il enseignait la physique et la science des matériaux 

20.00 Uhr   Abendveranstaltung – Gemeinsames Abendessen mit Tischrede

                 n.n.

                 n.n.

Samstag, 12. November

  

9.00 Uhr     Klimawissenschaft in EIKE: Jüngste Forschungsergebnisse zu Klimazyklen

                 Prof. Dr. Horst Lüdecke Pressesprecher, Europäisches Institut für Klima und Energie (EIKE)

9.30 Uhr            Multi-Frequenz Spektralkoherenz zwischen planetaren und globalen Oberflächentemperaturschwankungen

Prof. Dr. Nicola Scafetta Università di Napoli Federico II, Dipartimento di Scienze della Terra 

10.30 Uhr – 11.00 Uhr  Pause

11.00 Uhr   Veränderungen im Meeresspiegel der Iberischen Halbinsel

                 Prof. Dr. Maria da Assunção Araújo’s Universidade do Porto, Departamento de Geografia 

11.45 Uhr   Die unterschätzte Abhängigkeit von fossilen Brennstoffen: Die Zukunft sichern

Steffen Henne Head of Research, Center for Industrial Progress

James Taylor President, The Spark of Freedom Foundation

12.30 Uhr   – 14.00 Uhr Mittagspause – Gemeinsames Mittagessen 

14.00 Uhr   Das Experiment – Teil II 

                 Auswertung des 2-tägigen „Al-Gore Experiment“ im Konferenzraum zur experimentellen Überprüfung der CO2-Treibhausthese

Prof. Dr. em. Jan-Erik Solheim  University of Oslo, Institute of Theoretical Astrophysics, Wissenschaftlicher Berater Klimarealistene 

14.30 Uhr   Schlusswort

                 Wolfgang Müller  Generalsekretär, Europäisches Institut für Klima und Energie (EIKE)

anschließend      Sektempfang und Ende der Veranstaltung

Der Veranstalter behält sich das Recht auf kurzfristige Programmänderungen vor.

Die Konferenz, mit Ausnahme der Tischrede, wird simultan Deutsch-Englisch / Englisch-Deutsch gedolmetscht.

Veranstaltungsort       Marriot Hotel

                                   Inge-Beisheim-Platz 1

                                   10785 Berlin, Germany

direkt neben dem Potsdamer Platz

                                                                                          

Anmeldung:

Online hier 

Offline

Mit vollem Namen, Anschrift und Institution an EIKE e.V.

Email info@eike.pw  Fax 03641 – 3279 8589    

Brief

EIKE e.V., Unstrutweg 2, 07743 Jena

Related Files




Hinweise auf Klimaeinfluss der Sonne verdichten sich weiter

Aus dem März 2016 stammt eine Arbeit von Yamakawa et al. in Quaternary International, in der die Autoren den solaren Klimaeinfluss über die Stratosphäre und die Meeresoberfläche beschreiben:

Ü Beziehungen zwischen der Sonnenaktivität und Variationen der Wassertemperatur sowie der atmosphärischen Zirkulation in Troposphäre und Stratosphäre

Beziehungen zwischen Sonnenaktivität und Variationen sowohl der Wassertemperatur als auch der atmosphärischen Zirkulation zu Zeiten des solaren Maximums werden in dieser Studie aufgezeigt.

Die globale Verteilung von Korrelations-Koeffizienten zwischen den jährlichen relativen Sonnenfleckenzahlen (SSN) und der Wassertemperatur (SST) von Juli bis Dezember wurde über einen Zeitraum von 111 Jahren (1901 bis 2011) untersucht. Gebiete mit einer signifikant positiven Korrelation machten 11,7% der globalen Wasseroberfläche im Dezember aus, hauptsächlich in drei Regionen im Pazifik. Der Einfluss der Sonnenaktivität auf Variationen des globalen Luftdrucks und die Zirkulationen während Jahren des Maximums wurden ebenfalls analysiert, und zwar von 1979 bis 2011. Die Ergebnisse zeigten, dass größere Geopotential-Anomalien die Tendenz hatten, in Stratosphäre und Troposphäre auf der Nordhemisphäre zu erscheinen. Diese zentrierten sich im Gebiet um den Hawaii-Archipel im November und Dezember im zweiten Jahr des solaren Maximums. Die Verteilung der SST im Pazifik mit starken Hochdruckgebieten über dem Nord- bzw. Südpazifik erzeugten eine Verteilung, welche ähnlich aussahen wie die Pazifische Dekadische Oszillation (PDO) und dem El Niño oder El Niño Modoki (ENM). Dies legt nahe, dass die Sonnenaktivität die Troposphäre nicht nur via Stratosphäre beeinflusst, sondern auch via Wassertemperatur.

Im Dezember 2015 war der Klimaeinfluss des solaren 11- Jahreszyklus Thema im AGU-Mitgliederblatt Eos:

(…) Der Einfluss der Sonne auf das Klima ist ein hitziges und verworrenes Thema. Zunehmende Beweise zeigen, dass der 11-Jahre-Sonnenzyklus Klima und Temperaturen beeinflusst – das berühmteste Beispiel hierfür ist die Kleine Eiszeit, als die Sonne durch mehrere nahezu sonnenfleckenfreie Zyklen gelaufen war von 1645 bis 1715. (…) Im Verlauf des 11-Jahre-Zyklus‘ dreht die Rotation der Sonne ihr Magnetfeld langsam zu Knoten, was dunkle Sonnenflecken hervorruft. Obwohl die Helligkeit der Sonne insgesamt nur um 0,1% variiert, können die verknoteten Bündel magnetischer Energie die ultraviolette Strahlung um 4% bis 8% während des solaren Maximums steigen lassen. Diese starken UV-Strahlen lösen in der Stratosphäre chemische Reaktionen aus, die Sauerstoffatome und -moleküle binden und Ozon bilden. Da das Ozon selbst ein guter Absorber von UV-Strahlung ist, kann dieses die Stratosphäre nahe des Äquators erwärmen. Dies wiederum wirkt sich auf die den Globus umwehenden Winde aus.

Ganzen Artikel in Eos lesen.

Eine Gruppe um Willie Soon publizierte im November 2015 in Earth Science Reviews zur Klimawirkung der Sonne im Rahmen der Erwärmung der letzten 150 Jahre:

Ü Re-Evaluierung der Rolle der solaren Variabilität bei nordhemisphärischen Temperaturtrends seit dem 19. Jahrhundert
Die Debatte, welchen Einfluss die solare Variabilität auf Temperaturtrends seit dem 19. Jahrhundert hat (falls überhaupt einen), war kontrovers. In dieser Studie betrachten wir zwei Faktoren, die zu dieser Kontroverse beigetragen haben könnten:
1. Es existieren viele unterschiedliche Datensätze zur solaren Variabilität. Während jeder einzelne dieser Datensätze auf einer plausiblen Grundlage beruht, implizieren sie oftmals sich widersprechende Schätzungen der Trends der solaren Aktivität seit dem 19. Jahrhundert.

2. Obwohl Versuche unternommen worden waren, nicht klimatischen Verzerrungen in früheren Schätzungen der Temperaturtrends Rechnung zu tragen, haben jüngste Forschungen von zwei der Autoren gezeigt, dass gegenwärtige Schätzungen wahrscheinlich immer noch durch nicht klimatische Verzerrungen beeinflusst sind, vor allem urbanisierte Gebiete.

Hiermit im Hinterkopf beleuchten wir zunächst die Debatte um die solare Variabilität. Wir fassen die Punkte mit allgemeiner Übereinstimmung zwischen den meisten Gruppen zusammen, ebenso wie die Aspekte, die immer noch kontrovers sind. Wir diskutieren mögliche zukünftige Forschungen, die helfen können, die Kontroverse um diese Aspekte aufzulösen. Danach stellen wir eine neue Schätzung der Temperaturtrends seit 1881 zusammen, um dem Problem der Verstädterung Rechnung zu tragen. Dabei ziehen wir Aufzeichnungen von vorherrschend ländlichen Stationen im monatlichen Datensatz des Global Historical Climatology Network GHCN heran. Wie frühere Schätzungen auf der Grundlage von Wetterstationen zeigt unsere neue Schätzung, dass die Temperaturen von 1880 bis 1940 und dann wieder von 1980 bis 2000 gestiegen sind. Allerdings zeigt die neue Schätzung, dass diese beiden Perioden mit Erwärmung von einer ausgeprägten Periode mit Abkühlung unterbrochen waren, die von 1950 bis 1970 dauerte, und dass die relative Wärme der Warmzeit um die Mitte des 20. Jahrhunderts vergleichbar ist mit der jüngsten Warmzeit.

Dann vergleichen wir die Schätzung unseres auf Wetterstationen basierenden Temperaturtrends mit vielen anderen Schätzungen unabhängig davon. Diese neue Aufzeichnung hat sich als Konsistent erwiesen mit Schätzungen der Trends der Wassertemperatur auf der Nordhemisphäre ebenso wie mit auf Proxys basierenden Temperatur-Schätzungen, die abgeleitet worden sind aus Aufzeichnungen der Länge von Gletschern und von Baumringen. Allerdings waren die gemittelten Ergebnisse der CMIP5-Klimamodelle in der Nachhersage unfähig, die neue Schätzung angemessen zu reproduzieren – obwohl die Modellierung bestimmter vulkanischer Eruptionen scheinbar gut reproduziert worden war.

Und schließlich vergleichen wir unser neues Komposit mit einem der Datensätze der solaren Variabilität, der von den CMIP5-Klimamodellen nicht berücksichtigt worden war, d. h. die Aktualisierung von Scafetta und Willson 2014 des Datensatzes von Hoyt und Schatten 1993. Eine starke Korrelation fand sich zwischen diesen beiden Datensätzen, was impliziert, dass die solare Variabilität den dominanten Einfluss auf Temperaturtrends der Nordhemisphäre hatte seit mindestens 1881. Wir diskutieren die Bedeutung dieser offensichtlichen Korrelation sowie die Implikationen auf Studien, die stattdessen einen steigenden atmosphärischen Gehalt von Kohlendioxid als den dominanten Einfluss ausgemacht hatten.

Von 2015 stammt auch ein Buch von Olavi Kärner mit dem Titel “Towards a New Climate Representation: Analysis of Forcing and Response Time Series“. Aus der Beschreibung:

Dieses Buch bietet eine wechselseitige [mutual] Analyse der zeitweiligen Variabilität der Gesamt-Sonneneinstrahlung (TSI) an der Obergrenze der Atmosphäre TOA und mehreren Temperatur-Zeitreihen. Im ersten Teil geht es um Erkundungsstudien der täglichen Reihen, um diese an ein statistisches Modell zur Repräsentation ihrer langzeitlichen Variabilität anzupassen. Im zweiten Teil geht es um die klimatologische Interpretation des angepassten [fitted] Modells. Die Ergebnisse zeigen grundlegend unterschiedliche temporäre Variabilitäts-Strukturen als die, welche von der Theorie der anthropogenen globalen Erwärmung prophezeit werden.

Weiter mit einer Publikation aus dem Oktober 2015 in Advances in Space Research. Alexander Ruzmaikin und Joan Feynman dokumentieren darin den klimatischen Einfluss des solaren Gleissberg-Zyklus, der eine Periode von 90 Jahren besitzt:

Ü Das Klima der Erde zu Zeiten der Minima des hundertjährigen Gleissberg-Zyklus‘

Das jüngste ausgedehnte, große Minimum der Sonnenaktivität und die langen Minima im 19. und 20. Jahrhundert (1810 bis 1830 bzw. 1900 bis 1920) sind konsistent mit Minima des hundertjährigen Gleissberg-Zyklus‘ CGC), also einer 90- bis 100-jährigen Variation der Amplitude des 11-jährigen Sonnenflecken-Zyklus‘, der auf der Sonne und der Erde beobachtet wurde. Die Reaktion des Klimas der Erde auf diese verlängerte geringe solare Einstrahlung involviert Wärmetransfer in die Tiefsee, was zu einer Zeitverzögerung länger als ein Jahrzehnt führt. Die räumliche Verteilung dieser Klimareaktion, welche es gestattet, den CGC-Antrieb von anderen Klima-Antrieben zu unterscheiden, wird dominiert von der Pacific North American pattern (PNA). Die CGC-Minima, manchmal zufällig zusammenfallend mit vulkanischem Antrieb, sind verbunden mit Extremwetter-Ereignissen. Folglich führte das CGC-Minimum des 19. Jahrhunderts neben Vulkanausbrüchen zu besonders kalten Bedingungen in den USA, Kanada und Westeuropa.

Im Mai 2016 veröffentlichten Al-Tameemi & Chukin im Journal of Atmospheric and Solar-Terrestrial Physics eine Analyse zum globalen Wasserzyklus. Interessanterweise fanden die Autoren eine deutliche Beeinflussung der globalen Verdunstung und des Wasserhaushaltes durch solare Aktivitätsschwankungen:

Ü Globaler Wasserkreislauf und Variationen der Sonnenaktivität

Der Wasserkreislauf ist die aktivste und wichtigste Komponente der Zirkulation von globaler Masse und Energie im System Erde. Außerdem spielen Parameter des Wasserkreislaufs wie Verdunstung, Niederschlag und niederschlagbares Wasser (ppw) eine Hauptrolle beim globalen Klimawandel. In dieser Arbeit versuchen wir, den Einfluss der Sonnenaktivität auf den globalen Wasserkreislauf zu bestimmen, indem wir die globalen monatlichen ppw-Werte, Niederschlag und das Potential solarer Modulation von 1983 bis 2008 analysieren. Das erste Objekt dieser Studie war die Berechnung der globalen Verdunstung im Zeitraum 1983 bis 2008. Hierfür bestimmten wir die Wasserkreislauf-Rate aus Satellitendaten sowie die Beziehung zwischen Niederschlag und Verdunstung von 10 Jahren Modelldaten des Planet Simulator [?]. Das zweite Objekt unserer Studie war die Untersuchung der Beziehung zwischen dem Solaren Modulations-Potential (solarer Aktivitäts-Index) und der Verdunstung von 1983 bis 2008. Die Ergebnisse zeigten, dass es eine Relation zwischen dem solaren Modulations-Potential und der Verdunstung im untersuchten Zeitraum gibt. Daher ist davon auszugehen, dass die Sonnenaktivität Einfluss auf den globalen Wasserkreislauf ausübt.

Im Februar 2016 erschien eine Arbeit von Kunihiko Kodera unter Beteiligung der Geomar-Forscherin Katja Matthes. Die Wissenschaftler beschreiben eine Erwärmung in mittleren Breiten durch den solaren Zyklus. Das Klimasignal wird dabei in der Stratosphäre durch die Sonne generiert und dann in die Troposphäre nach unten weiter gegeben:

Ü Wie müssen wir das Signal der Solarzyklen auf der Erdoberfläche verstehen?

Um die Signale des Solarzyklus‘ auf der Erdoberfläche zu verstehen und die dafür verantwortlichen physikalischen Prozesse zu identifizieren, werden Temperaturvariationen aus Beobachtungen ebenso wie Klimamodelldaten analysiert, um deren räumliche Struktur zu charakterisieren. Das solare Signal in der jährlichen mittleren Temperatur ist charakterisiert durch 1) Erwärmung in Mittleren Breiten und 2) keiner Erwärmung in den Tropen. Die Erwärmung in Mittleren Breiten während solarer Maxima in beiden Hemisphären geht einher mit einem abwärts gerichteten Vordringen zonaler mittlerer Zonalwind-Anomalien aus der oberen Stratosphäre im Winter. Während des nordhemisphärischen Winters manifestiert sich dies in einer Modulation des Jet-Streams während der Polarnacht, während auf der Südhemisphäre der subtropische Jet Stream die Hauptrolle spielt. Erwärmungssignale treten besonders hervor auf dem eurasischen Kontinent und den ozeanischen Frontalzonen einschließlich einer zuvor beschriebenen verzögerten Reaktion im Nordatlantik. In den Tropen kommt es zu lokaler Erwärmung über dem Indischen und dem Zentralpazifischen Ozean während hoher solarer Aktivität.

Allerdings steht dieser Erwärmung eine Abkühlung über den Kaltwasserzonen im südöstlichen Pazifik und den Südatlantik gegenüber, was zu einem sehr schwachen, zonal gemittelten tropischen Signal führt. Die Abkühlung in den Ozeanbecken ist verbunden mit stärkeren, den Äquator kreuzenden Winden, was zu einer Nordverschiebung des absinkenden Astes der Hadley-Zirkulation während solarer Maxima führt. Um die komplexen Prozesse des solaren Signal-Transfers zu verstehen, werden die Ergebnisse eines idealisierten gekoppelten Modells Atmosphäre – Ozean zum Einfluss von Änderungen der Zonalwinde in der Stratosphäre verglichen mit solaren Signalen in Messungen. Die Modellergebnisse zeigen, dass sowohl tropische als auch außertropische solare Signale auf der Erde aus Zirkulationsänderungen resultieren können in der oberen Stratosphäre, 1) durch sich nach unten durchsetzende Wechselwirkungen des zonalen mittleren Stromes und 2) durch Änderungen der mittleren meridionalen Zirkulation in der Stratosphäre. Dieser Experimente stützen frühere Beweise eines indirekten solaren Einflusses aus der Stratosphäre.

Weitere Beiträge zum Thema Sonne/Klima von Javier und Stefan Kämpfe.

Angesichts der Vielzahl von Belegen zur starken Klimawirkung der Sonne wird es für die Sonnen-Gegner nun eng. Im Rahmen des Forschungsnetzwerks TOSCA haben sich einige Forscher zusammengeschlossen, um die Sonne klimatisch abzuschalten. In einer Pressemitteilung vom 29. August 2016 behaupten sie, dass die Sonne nichts mit der globalen Erwärmung des 20. Jahrhunderts zu tun habe. Ironischerweise schreiben sie dann aber gleich im nächsten Satz, dass die Sonne sehr wohl im Jahrhundertmaßstab klimatische Wirkung entfaltet:

Ü Sich ändernde Sonne – sich änderndes Klima?

(…) Mittels Vergleich jüngster Messungen mit Ergebnissen neuer Modelle wird die lange debattierte Hypothese in Frage gestellt, dass die leichte Änderung der Sonnenstrahlung zu einer Änderung des Klimas auf der Erde führen könnte. Sie fanden Prozesse, durch welche die solare Variation die Klimavariabilität regional verändern kann, aber keine, die eine globale Erwärmung auslösen würden. Betrachtete man Zeiträume länger als ein Jahrhundert, ist der Einfluss der solaren Variabilität auf Klimawandel nicht zu übersehen, aber die Auswirkungen von Treibhausgasen haben sich kurzfristig als viel stärker erwiesen. Allerdings gibt es immer noch viele Fragen hinter der Verbindung Sonne-Erde, von denen einige TOSCA beantworten half. Mittels der Untersuchung der unterschiedlichen Phänomene, welche den solaren Einfluss auf das Klima allgemein definieren, hat das Team viele subtile Phänomene aufgezeigt, die einen bedeutenden Einfluss haben können, oftmals lokal. Beispiel: UV-Strahlung macht lediglich 7% der Solarenergie aus, aber deren Variation erzeugt Änderungen in der Stratosphäre nahe des Äquators bis hin zu den Polargebieten, welche das Klima beherrschen. Dies bedeutet, dass die Winter in Europa nasser und milder werden oder andererseits trockener und kälter, abhängig vom Zustand der Sonne. Sie fanden außerdem, dass Ströme von Elektronen und Protonen, bekannt als Sonnenwind, das globale elektrische Feld der Erde beeinflussen, was zu Änderungen bei der Bildung von Aerosolen führt, welche wiederum ultimativ die Regenmenge beeinflussen. Diese Auswirkungen, bislang weitgehend ignoriert, werden jetzt in viele Klimamodelle eingehen, um ein vollständigeres Bild zu erhalten.

Einer der Leiter des TOSCA-Programms ist Benjamin Laken, der sich bereits in der Vergangenheit mit Kritik an Svensmark und seinem solaren Wolkenmodell profilierte. Seltsamerweise hatte Laken in früheren Arbeiten die Svensmark-Modelle noch unterstützt. Hin- und hergerissen zwischen solarem PRO und CONTRA geht es hier vielleicht aber auch um die wissenschaftspolitische Eignung für eine Institutsdauerstelle, wobei Sonnenkritik unabdingbar ist. In der Pressemitteilung heißt es:

Dr. Benjamin Laken spielte eine führende Rolle in einer der Ausbildungsstätten von TOSCA: „Ich zeigte den Gebrauch von Python für Datenanalytiker und führte auch ein kleines Team von Studenten durch ein unabhängiges Forschungsprojekt. Dies half, den Studenten – vielen zum ersten Mal – kritische Verfahren nahe zu bringen, die relevant sind für ihre Entwicklung bzgl. Forschung. TOSCA ermöglichte es mir, die größten Wissenslücken zu erkennen, zu deren Schließung ich persönlich beitragen konnte, und sah, wie meine Ergebnisse effektiv mit einer interdisziplinären Gemeinschaft kommuniziert wurden. Dank des Netzwerkes konnte ich mich als Forscher bewähren während einer kritischen Zeit meiner Karriere“.

Link: http://www.kaltesonne.de/klimaeinfluss-der-sonne-erhartet-sich-weiter/

Übersetzung der englischen Passagen von Chris Frey EIKE




Der Krieg des Klimas gegen die Menschheit

[1] "Wir sind im Krieg. Gegen den Klimawandel"

Vor ein paar Monaten entfachte unser Feind eine Feuersbrunst in Kanada, die uns zur Evakuierung einer 90.000-Einwohner-Stadt zwang. … Eine seiner Fluten bedrohte Kunstschätze von unermesslichem Wert im Louvre. Der Feind setzt sogar Bio-Waffen ein, um psychologischen Terror zu verbreiten: Der Zika-Virus lässt auf einem ganzen Kontinent die Köpfe von Neugeborenen schrumpfen."

Diese Frontberichterstattung zum Klimakrieg stammt vom lt. WIKIPEDIA wohl berühmtesten Klimaaktivisten der Welt, Bill McKibben, im Original nachzulesen bei: [3] World War III is well and truly underway. And we are losing.
Bill McKibben ist Inhaber des alternativen Nobelpreises „Alternativer Nobelpreis für Bill McKibben“ und gehört zu den 100 Vordenkern der Welt: WIKIPEDIA:  Das Magazin „Foreign Policy“ führt ihn in der Liste der 100 wichtigsten globalen Vordenker und MSN zählt ihn zu einem der einflussreichsten Menschen des Jahres 2009.

Wer so berühmt ist, dessen Aktionen werden auch in Deutschland von investigativen Klima-Alarmseiten befürwortet und hofiert.

Klimafakten.de: [1] … Die Idee selbst ist nicht neu. Schon mehrfach erklärten Klimaschützer, für den notwendigen Umbau von Wirtschaft und Gesellschaft brauche es eine "Mobilisierung wie in Kriegszeiten" – zuletzt fand die Metapher zum Beispiel Eingang ins Wahlprogramm der demokratischen Präsidentschaftskandidatin Hillary Clinton.
In seinem Essay zieht der 55-Jährige das Gedankenspiel konsequent durch und stellt den Kampf gegen den Klimawandel als Dritten Weltkrieg dar, der eigentlich längst begonnen habe. Wie einst in den 1930er Jahren gegen Hitler-Deutschland versuche es die Menschheit bisher mit eher zögerlichen Schritten und einer Appeasement-Politik. Der Klimavertrag von Paris sei so etwas wie
das Münchner Abkommen. Teilweise sehr detailliert vergleicht McKibben die rasante Aufrüstung der USA im Zweiten Weltkrieg mit dem, was heute erforderlich wäre für eine Energiewende – und neben den Hunderten von Panzerfabriken, Schiffswerften, Fallschirmnähereien etc., die einst unter Franklin D. Roosevelt aus dem Boden gestampft wurden, erscheint die notwendige Zahl von Solar- und Windrad-Fabriken plötzlich gar nicht mehr so entmutigend groß…

Und wenn es um bedingungslose, faktenresistente Unterstützung von Klimaalarm geht, ist wie eigentlich immer auch die Infoseite der Klima-Regierungsberaterin C. Kemfert zur Stelle. Ein beispielhaft wohlwollendes Interview mit McKibben anbei zum Einlesen: Klimaretter.Info 24. Oktober 2013: "Amerika steckt den Kopf in den Sand"

Rezension

Erstaunlich ist, dass reine Agitation und vollkommen unkritische Reflexion ausreichen, um zu den 100 globalen Vordenkern der Welt zu zählen und einen (alternativen) Nobelpreis zu bekommt.
Greenpeace Magazin: Die Jury begründete die Wahl mit der „erfolgreichen Mobilisierung einer wachsenden zivilgesellschaftlichen Bewegung gegen den Klimawandel“.
Anm.: Bei Al Gore mit seinem Klimakatastrophenfilm wurde bewiesen, dass das „richtige“ Nobelpreiskomitee dazu keinen Unterschied macht.

Nach diesen Kriterien fällt jeder erfolgreiche Agitator / Diktator darunter (was in der Geschichte auch geschehen ist). Weshalb jedoch ein „Vordenken“ damit verbunden sein soll, erschließt sich wohl nur dem „Entscheidungsteam“ und entspringt wahrscheinlich der Amerikanischen Pilgerväter-Tradition, wonach Erfolg ein untrügliches Merkmal für Gottes Wohlwollen sei und deshalb das wirklich wichtige Bewertungskriterium eines Menschen darstellt. Doch gilt dies nicht nur für die Amerikanische Pilgervätertradition, sondern auch für beide christlichen Hauptkirchen. Alles was ein „Zeichen der Zeit“, also Mehrheitsmeinung geworden ist, ist automatisch auch Gottes Wille, siehe dazu: Kirche und Klimawandel.

Zufügung: Nach der Editierung dieses Artikels entstand aus ähnlichem Anlass einer über die deutsche „Klimaprophetin“, Frau Umweltministerin Dr. Hendricks [15]Frau Hendricks im Klimawahn“, der dann jedoch vorgezogen wurde. Beide Artikel ergänzen sich mit ihren Darstellungen.

Bill McKibben


Gesichtet wird hier nur, was die Öffentlichkeit und Medien aus seinen vielen Publikationen und Mitteilungen extrahieren. Danach ist sein großer Verdienst Leistungen als Organisator von Massenbewegungen:

Klimaretter.Info: Alternativer Nobelpreis für Bill McKibben
Dem Magazin The New Yorker sagte McKibben anlässlich des Ban-Ki-Moon-Gipfels in dieser Woche, dass es zwar schon lange eine "gute, strukturierte Bewegung" aus Klimaforschern und Umweltlobbyisten gebe, aber die Bevölkerung lange Zeit nicht Teil der weltweiten Klimaschutzbewegung gewesen sei. Deshalb habe er 2008 die Kampagne 350.org mitgegründet. Der Name leitet sich aus der geforderten maximalen CO2-Konzentration der Erdatmosphäre von 350 ppm her – der aktuelle Wert liegt bei 400 ppm.
Die Bewegung müsse eine Gegenmacht zur fossilen Industrie aufbauen, so McKibben gegenüber dem New Yorker. Die weltweiten
People’s-March-Veranstaltungen am vergangenen Samstag und die größte Klimademo aller Zeiten am Sonntag in New York seien nur der "Warm-up" für das nächste Jahr, wenn es um das Aushandeln eines neuen Klimavertrages in Paris geht.
2007 startete McKibben mit der landesweiten Kampagne
stepitup2007, um Druck auf die US-Regierung für mehr Engagement im Klimaschutz zu machen. Seine aktuelle Kampagne 350.org ist mittlerweile eine weltweite Bewegung und nach eigenen Angaben in 188 Ländern aktiv. Die Klimaaktivisten von 350.org organisieren weltweite Aktionen wie den People’s March oder Kampagnen gegen fossile Investitionen, aber auch lokalen Protest gegen Kohlekraftwerke oder Teersand-Pipelines.
2009 erlangte McKibben internationale Bekanntheit, als er
5.200 Demonstrationen am selben Tag in 181 Ländern organisierte.

Wenige, eingängige Statements reichen

Seine Argumentationen beschränkt Bill McKibbben als Klimaaktivist auf wenige, eingängige Statements. Seine einfachen Kernthesen lauten:

-Es ist bereits zu viel CO2 in der Atmosphäre
-Die Welt ist eigentlich schon nicht mehr zu retten – wenn überhaupt, dann nur noch mittels Extremmaßnahmen
-Schuld ist die Verbrennung fossiler Stoffe wie Kohle, Erdöl, Gas
-Die Förderung fossiler Stoffe muss verboten werden
-Jeder Weg zur Verhinderung der Förderung ist zulässig
Als Belege bietet er dazu fast durchgängig (für Klimaskeptiker) hanebüchene Ableitungen. Kein Wunder, eine seiner wesentlichen „Belegquellen“ ist wohl Herr James Hansen (Publizierer des Hockey-Stick).

Greenpeace Magazin (über McKibben):
Inzwischen wird der Klimawandel an immer mehr Orten zur spürbaren Wirklichkeit. In New York hat Hurrikan Sandy U-Bahnstationen mit Salzwasser gefüllt. Viele Menschen haben Fluten und Dürren erlebt und fangen an zu verstehen, was tatsächlich mit dem Klima passiert. Selbst dort, wo die Bewohner bisher nur wenig beeinträchtigt wurden, bleibt die simple Mathematik des Klimawandels: Es ist bereits jetzt zu viel Kohlendioxid in der Atmosphäre – der Name 350.org bringt das auf den Punkt.


Erklären Sie uns bitte diese Zahl.
Wissenschaftler sagen uns, dass wir den Kohlendioxidgehalt in der Atmosphäre wieder auf 350 ppm (parts per million) reduzieren müssen, damit der Planet bewohnbar bleibt. Wir sind aber schon bei 400 ppm. Um den Temperaturanstieg unter zwei Grad zu halten, hätten wir schon vor einigen Jahren aufhören sollen, CO2 in die Atmosphäre zu pumpen.


Was sind Ihre zentralen Strategien im Kampf für den Klimaschutz?
Es gibt mindestens zwei Stränge, an denen wir tätig sind. Zunächst geht es darum, sich bei jedem Bauvorhaben für neue Öl-, Kohle- oder Gas-Infrastruktur einzumischen. Das können wir an vielen Orten tun, da weiterhin neue Projekte wie Pipelines, Ölfelder oder Kraftwerke geplant sind. Wir versuchen, diese Vorhaben zu verhindern. Da spielen wir in der Defensive und es klappt gut. Der zweite Strang ist die Divest-Kampagne, sozusagen unser Offensivspiel. Seit 2012 haben sich tausende Institutionen, Kommunen und Einzelpersonen dazu verpflichtet, ihre Gelder aus der fossilen Industrie abzuziehen. Sie repräsentieren gemeinsam ein Vermögen in Höhe von rund 50 Milliarden US-Dollar. Neben hochrangigen Persönlichkeiten wie Bischof Desmond Tutu und dem Weltbankpräsident Jim Yong Kim setzen sich beispielsweise auch die Rockefeller Brothers Stiftung und der Britische Ärzteverband für dieses Ziel ein. So sorgen wir für Unruhe in der Rohstoffindustrie.


2014 war weltweit das heißeste Jahr seit Beginn der Aufzeichnungen. Können wir den Klimawandel wirklich noch stoppen?
Ihn zu stoppen ist keine Option mehr. Das Klima heizt sich auf und es wird wohl weiterhin wärmer werden. Die Frage ist, wie sehr und wie schnell das passiert. Selbst die Zwei-Grad-Grenze, die bisher als rote Linie beschrieben wurde, ist viel zu hoch angesetzt. Schon bei einem Grad schmilzt die Arktis, und es ist eine schlichtweg idiotische Idee, noch darauf zu warten, was bei zwei Grad Erwärmung passiert.

co2Online (unterstützt vom BMUB): Seine wichtigste Botschaft: Schon heute haben wir mit 387 ppm zu viel CO2 in der Erdatmosphäre. Um eine Destabiliserung des Klimas zu vermeiden, müssen wir so schnell wie möglich auf maximal 350 ppm zurück – das zeigen die neuesten Erkenntnisse der Klimawissenschaft eindeutig. Diese Tatsache wird bisher jedoch von den Entscheidungsträgern der Welt weitgehend mißachtet. Daher benötigen wir so viele Menschen wie möglich, die über den neuesten Stand der Wissenschaft informiert sind und dementsprechend handeln.

Dass es sich dabei um reine Agitation eines sich selbst ernannten Weltverbesserers handelt, sei anhand einiger seiner „Belege“ gezeigt:

McKibbens wesentliche Thesen
Der Zika-Virus lässt auf einem ganzen Kontinent die Köpfe von Neugeborenen schrumpfen

McKibben: [1]Der Feind setzt sogar Bio-Waffen ein, um psychologischen Terror zu verbreiten: Der Zika-Virus lässt auf einem ganzen Kontinent die Köpfe von Neugeborenen schrumpfen
[4] Wie stark sich die Welt verändert, zeige aktuell die Verbreitung des Zika-Virus: “Die Moskitos, die die Krankheit übertragen, mögen das warme Klima, das wir zunehmend verbreiten”. Die Krankheit ist der Grund, warum Regierungen in Lateinamerika und der Karibik ihren Bürgerinnen offiziell empfehlen, nicht schwanger zu werden. “Wir haben es so weit kommen lassen, dass Kinder bekommen – die schönste und grundlegendste Sache der Menschheit – vom Klimawandel in Frage gestellt wird. Das kann ich einfach nicht fassen”.

Googeln nach dem Virus bringt natürlich eine Unmenge an Fundstellen hervor. In fast allen wird der Klimawandel als möglich, neue Verbreitungs-Ursache genannt. Das liegt aber nicht an der angeblichen Tatsache (meistens steht ja „mögliche“ Ursache), sondern alleine am Multiplizieren der Ur-Nachrichten. Generell lautet die Argumentation: Wenn es wärmer wird, verbreitet sich die Mücke weiter – und deshalb ist der Klimawandel schuld. Dass es diese Mücke schon lange in einem großen Verbreitungsgürtel rund um die Welt gibt und alleine der Verdacht auf Schädelmissbildung bei Neugeborenen (ausschließlich in Brasilien) überhaupt Aufmerksamkeit erregt hat, wird unterschlagen. Aber mit einer Aussage: „Der Zika-Virus lässt auf einem ganzen Kontinent die Köpfe von Neugeborenen schrumpfen“, lassen sich Massen bewegen.
Wie die Aussage: „.. ein ganzer Kontinent … „ ohne Agitation in Zahlen ungefähr aussieht, lässt sich in einem (lesenswerten) Zeitungsbeitrag sehen.

ZEIT ONLINE 29. Januar 2016: [8] Zika-Virus: Das Märchen von den 4.000 geschädigten Babys
Bei den verbleibenden 270 Meldungen besteht aufgrund von Ultraschall-, Röntgen- oder Laboruntersuchungen der begründete Verdacht auf eine Verkleinerung des Schädels oder eine infektiöse Schädigung des Nervensystems. Bei sechs dieser Fälle wurde das Zika-Virus nachgewiesen.

 Dass das Zika-Virus neben den anderen, von dieser Mücke übertragbaren Krankheiten das wohl kleinste Problem ist, lässt sich auch nachlesen. Aber diese tödlichen Krankheiten kennt man als „alltägliche Tropenkrankheiten“, weshalb man dagegen keine Massen mobilisieren kann. Vor allem müsste man Grundlegendes dagegen tun und das ist weit schwieriger, als Protestmärsche gegen CO2 und Kohleförderung zu organisieren.

[8] Zika war in den Lehrbüchern bislang höchstens im Kleingedruckten zu finden. In den Jahren 2013-14 aber rückte das Virus ins Visier professioneller Seuchenjäger: In Französisch-Polynesien gab es den bis dahin größten Ausbruch mit wahrscheinlich mehr als 10.000 Erkrankten. Die WHO und die Gesundheitsbehörden in Südamerika waren also gewarnt, als im Mai 2015 die ersten Zika-Infektionen in Brasilien auftraten. Doch Brasilien kämpft bereits seit Jahrzehnten erfolglos gegen die Gelbfiebermücke, Aedes aegypti. Die Mücke ist für über 1,6 Millionen Dengue-Erkrankungen jährlich verantwortlich, von denen im letzten Jahr nach offiziellen Berichten 843 zum Tode führten. Die Dunkelziffer der Todesfälle dürfte weit höher sein.
Aedes aegypti hat sich an die Großstätte Lateinamerikas perfekt angepasst. Während der Malaria-Überträger Anopheles nur auf besonders sauberen Naturgewässern brütet, liebt Aedes schmutzige Pfützen in alten Autoreifen, vergammelten Blumentöpfen und weggeworfenen Coladosen. Als echter Großstädter ist Aedes tag- und nachtaktiv und so nervenstark, dass ihn auch verzweifeltes Wedeln und Schütteln kaum vertreiben kann. Das Versprühen von Insektiziden, das vor der Karnevalszeit an den touristisch wichtigen Punkten wie ein Ritual zelebriert wird, bringt langfristig nichts, solange die Nistplätze in den Favelas unbehelligt bleiben. Gegen die Aedes-Plage in Brasiliens Metropolen gibt es nur ein wirksames Mittel: gründlich Aufräumen. Doch mit den entsprechenden Aufrufen sind bereits mehrere Regierungen gescheitert.

Jede Woche verlieren wir 22.000 Quadratmeilen arktischen Eises

McKibben: [1] jede Woche verlieren wir 22.000 Quadratmeilen arktischen Eises
Dazu der aktuelle Bedeckungsstatus der Arktis (Bild 1). Seit dem Jahr 2007 stagniert der Eisrückgang und die Vorhersage von Al Gore ist ebenfalls nicht eingetroffen.


Bild 1 Aktuelle Eisbedeckung Arktis (in etwa mit diesjährigem Minimum, da ab Mitte Sept das Eis wieder zu nimmt, wie Bild 1.1, welches aktuellere Daten hat zeigt)


Bild 1.1 Eisbedec
kung Arktis Detailsicht, Stand 14.09.2016. Quelle: meereisportal.de

Dass sich beim Meereis nicht nur Al Gore getäuscht hat, sondern auch das AWI, welches gerne seine klimapolitisch korrekte Forschung publiziert, zeigt die Meldung vom Frühjahr:

NDR.de 21.04.2016: Arktis droht Rekord-Schmelze: "Ein klares Signal"
Es sind keine guten Neuigkeiten, die Wissenschaftler des Alfred-Wegener-Institut (AWI) Bremerhaven am Donnerstag über die Arktis bekannt gegeben haben. Denn sie erwarten in diesem Sommer eine neue Rekordschmelze des Meereises in der Arktis. … "Aber die aktuelle Entwicklung bestätigt den Trend der globalen Erwärmung und ist ein klares Klimasignal."

Wie rasend sich beim AWI die Erkenntnisse ändern und wie publiziert wird, dass die Vorhersage nicht eintraf, zeigen die folgenden Meldungen:


13. September 2016: Meereis in der Arktis steuert stark auf sommerliches Minimum zu

14. September 2016: Sommerliches Meereisminimum in der Arktis durchschritten – Das Jahr 2016 zeigt die zweitniedrigste jemals gemessene Meereisausdehnung

Anm.: Die Aussage “jemals gemessen” bedeutet natürlich nur, dass man erst seit der Satellitenära, welche um 1976 begann diese Daten hat. Es bedeutet damit nr: “Seit den gerade einmal 40 Jahren Messzeitraum wurde (sofern man die Fehler der Messungen nicht berücksichtigt) das zweit-niedrigste Sommerminimum gemessen. Die von Al Gore vorher-gesagte, totale Sommerauflösung des Eises spätestens im Jahr 2013 ist bei Weitem nicht eingetroffen”.

Zurück zu McGibben
Unklar ist, woher die 22.000 Quadratmeilen / Woche abgeleitet sind, welche laut der „Schlachtmeldung“ wöchentlich an den Klimawandel verloren werden.

Die Differenz des Arktischen Sommereis-Minimums seit 1979 (davor sind keine verlässlichen Daten verfügbar) beträgt:
-1979: Sommereis-Minimum ca. 7 Mio km2
-2015: Sommereis-Minimum ca. 4,5 Mio km2
-Differenz innerhalb der  36 Jahre Messzeitraum durch Satelliten: ca. 2,5 Mio km2
Umgerechnet sind das ca. 965.250 Quadratmeilen / 1872 Wochen = 516 Quadratmeilen / Woche, seit dem Jahr 1979 also 2,35 % der von McKibben gemeldeten, wöchentlichen Abnahme. Vielleicht weiß ein Blogleser woher McKibbens mehr als hoffnungslos überzogene Angaben resultieren. Seriöse Berichterstattung sieht jedenfalls anders aus.

Dass auf der Südhälfte der Erde davon weiterhin rein gar nichts zu sehen ist, zeigt das folgende Bild der Antarktis. Ist es vorstellbar, dass CO2 nur auf der Nordhalbkugel einen „Klimakrieg“ entfacht hat und die Südhälfte „verschont“?

 

Bild 2 Aktuelle Eisbedeckung Antarktis

Vor ein paar Monaten entfachte unser Feind eine Feuersbrunst in Kanada

McKibben: [1] Vor ein paar Monaten entfachte unser Feind eine Feuersbrunst in Kanada

Wenn man dazu googelt, erscheinen wieder viele Seiten, welche zu wissen meinen, dass Feuer durch den Klimawandel zunehmen. Sieht man sich die wirklichen Daten an, lässt sich auch dies nicht entdecken. Ausgerechnet in Kanada nimmt die Anzahl von Großfeuer-Ereignissen in der Natur seit Beginn der Grafik um 1990 stetig ab. Davor waren sie niedriger. Das dürfte aber wohl an der damals zu geringen Beobachtungsdichte gelegen haben.

Sogar der SPIEGEL hat sich des Themas vor kurzem angenommen: [9] SPIEGEL ONLINE 11.05.2016: Katastrophe in Kanada: Die Mär von den Klimawandel-Waldbränden

 

Bild 3 Feuer-Ereignisse in Kanada. Quelle: Kanada National Forest Database, abgerufen am 31.08.2016

Dazu noch ein Bild für die gesamte USA. Auch dort ist keine Zunahme erkennbar.


Bild 4 [14] Feuerereignisse in den USA, abgerufen am 31.08.2016

Eine seiner Fluten bedrohte Kunstschätze von unermesslichem Wert im Louvre

McKibben: [1] Eine seiner Fluten bedrohte Kunstschätze von unermesslichem Wert im Louvre

Gerade zu den jüngsten Überschwemmungen welche auch Paris getroffen haben, gibt es genügend Analysen welche belegen, dass diese weder durch einen Klimawandel bedingt, noch dass sie einzigartig waren. Und auch die Seine ist in einer Analyse gezeigt:

EIKE 19.06.2016: Ein 106 Jahre altes Foto lässt Alarmisten über die Pariser Überschwemmung „alt aussehen“
Während die einen die
globale Erwärmung als Schuldigen herausstellen, war auf WuWT ein Bericht zu lesen, dass die "Große Flut von Paris im Jahre 1910 Wasserstände auf mehr als 20 Fuß (ca. 8,6 m) über dem normalen ansteigen sah, lange bevor die globale Erwärmung ein Problem war.
"Vor mehr als 100 Jahren stieg die Seine auf einen Rekord von mehr 8,6 m (ca. 20 Fuß) über dem üblichen Niveau, und verursachte eine Katastrophe die als die große Flut von Paris 1910 bekannt wurde." Schrieb Kristine Mitchell in einem
Beitrag für mymodernmet.com am Juni 6.

Es ist zudem gegen die Klimawandel-Theorie, im Sommer mehr Überschwemmungen zu erwarten, weil nach dieser die Sommerniederschläge abnehmen müssen.
Und immer neu muss man zeigen, wann die wirklich schlimmen Überschwemmungen waren – vor dem Klimawandel:


Bild 5[11] Hochwassermarken des Mains bei Würzburg seit dem Mittelalter bis 2013


Bild 6 [11] Hochwasserpegel Köln 1784 – 2013 lt. Daten der Stadtentwässerungsbetriebe Köln AöR (Grafik vom Autor erstellt). Y-Achse: Rheinpegel (m)

Im Artikel Der Klimawandel bedroht die Wüste Namib glaubt Deutschlandradio Kultur“ ist ein weiteres Beispiel früherer Sintfluten ausgeführt.

Und immer wieder trifft der Klimawandel die Korallen

McKibben: [1] … Im Pazifik gelang dem Feind dieses Frühjahr auf Tausenden von Meilen ein großer Durchbruch, als er einen vollen Angriff auf die Korallenriffe startete.

Im Original steht:
In the Pacific this spring, the enemy staged a daring breakout across thousands of miles of ocean, waging a full-scale assault on the region’s coral reefs. In a matter of months, long stretches of formations like the Great Barrier Reef—dating back past the start of human civilization and visible from space—were reduced to white bone-yards.

Gerade die Korallen müssen regelmäßig für den Klimawandel sterben. Doch gibt es auch dazu in der realen Natur wenig Anlass:

kaltesonne 6. Januar 2015: Unerwartete Wendung: Korallen sind viel Wärmestress-resistenter als vormals befürchtet.

So berichtete eine Forschergruppe um Peter Bell von der University of Queensland im April 2014 im Fachjournal AMBIO, dass der Hauptgrund des langfristigen Korallensterbens im Great Barrier Reef in der lokalen Wasserverschmutzung, also der Eutrophierung, zu suchen ist. Kein Wort zur hitzegetriebenen Korallenbleiche oder Ozeanversauerung.

Hier die Kurzfassung der Arbeit im Original:

Long-term monitoring data show that hard coral cover on the Great Barrier Reef (GBR) has reduced by >70 % over the past century. Although authorities and many marine scientists were in denial for many years, it is now widely accepted that this reduction is largely attributable to the chronic state of eutrophication that exists throughout most of the GBR. Some reefs in the far northern GBR where the annual mean chlorophyll a (Chl a) is in the lower range of the proposed Eutrophication Threshold Concentration for Chl a (~0.2–0.3 mg m−3) show little or no evidence of degradation over the past century. However, the available evidence suggests that coral diseases and the crown-of-thorns starfish will proliferate in such waters and hence the mandated eutrophication Trigger values for Chl a (~0.4–0.45 mg m−3) will need to be decreased to ~0.2 mg m−3 for sustaining coral reef communities.

Die Arbeit von Bell und Kollegen blieb von der deutschsprachigen Presse unberücksichtigt. Was der Frankfurter Rundschau ebenfalls entgangen ist: Walter Strack führte eine genauere Überprüfung der alarmistischen PNAS-Great Barrier Reef-Arbeit durch und förderte größere Ungereimtheiten an den Tag (siehe Details auf WUWT).

Auf Arte kam gerade eine Reportage: 07. September 2016 Grenzenloses Frankreich: Neukaledonien

Diese Inselgruppe liegt auf der gleichen Höhe wie das Barriere-Riff und ist auch nicht allzu weit davon entfernt. Wie „üblich“, kam eine Meeresbiologin zu Wort, welche das inzwischen rund um die Welt notwendige „Klimamonitoring“ durchführt, ohne das unsere Erde wohl täglich unbemerkt untergehen könnte. Und diese Beobachterin berichtete im Interview, dass die Korallen um Neukaledonien in einem erstaunlich gutem Zustand sind.

Weiter ist dem Autor eine ZDF- Reportage über die Korallenbleiche in Erinnerung geblieben.

ZDF-Film vom 30.10.2015: „Die geheime Welt der Ozeane, Rotes Meer“
(Passagen-Skizze des Autors): In der Reportage präsentiert sich Phillip Coustou mit durchgängiger Penetranz als der Korallenretter der Weltmeere. Den ganzen Film über erzählt er, dass die steigende Meerestemperatur alle Korallen der Weltmeere unwiederbringlich töten wird, er aber zur Rettung bereit steht. Zum Schluss erreicht die Expedition die Küste vor Eritrea. Dort ist das Meerwasser so heiß, dass lt. Coustou alle Korallen gestorben sein müssen. Der lokale, eritreische Meeresbiologe erzählt ihm jedoch, dass die in geringem Umfang hier zu beobachtende Korallenbleiche sich sehr schnell erholt.
Coustou sieht bei den Tauchgängen selbst, dass die Korallen überhaupt keine Notiz von seinen vorhergesagten Temperaturtod nehmen und trotz der hohen Wassertemperatur prächtig gedeihen. Er ist erkennbar entsetzt – aber (vom eritreischen Meeresbiologen) nicht von seiner falschen Theorie zu überzeugen. Leider endet der Film danach und geht nicht weiter darauf ein.

Auf JoanNova dazu ebenfalls eine erhellende Reportage: Great Barrier Reef: 5% bleached, not 93% says new report “discrepancy phenomenal”

In ihr wird beschreiben, wie Medien aus 7 % „nicht gebleichten Korallen“ 93 % beschädigte (damaged) Korallen machen. Da diese die Tourismusindustrie massiv beeinflusst, wird eine neue Untersuchung initiiert. Diese findet an den als besonders geschädigt gemeldeten Abschnitten (300 km Untersuchungslänge) nur 5 % geschädigten Korallenanteil und keine negative Veränderung zum Zustand einer Untersuchung welche vor 20 Jahren stattgefunden hat:

Cairns Post: Reef right, not white
REEF tourism operators have found less than five per cent of coral has died off — compared to the 50 to 60 per cent estimated by scientists — under “extreme” coral bleaching on the northern Great Barrier Reef.
Ganz aktuell auch auf WUWT: Inconvenient: Giant Coral Reef That ‘Died’ In 2003 Teeming With Life Again

Gerade eben dies  auch auf EIKE erschienen: Lagen die Wissenschaftler falsch? Das Great Barrier Reef ist relativ unbeeinflusst durch die globale Erwärmung

Fazit: Die einfache und gängige „Korallen sterben bei mehr Wärme“ Hypothese erweist sich einfach als falsch.

Weitere Argumentationsschnipsel des „Vordenkers“ der Welt

Klimaretter.Info 03. Mai 2013:[6] Klimawandel: Es geht um Mathematik

McKibben: Die einfache Botschaft lautet: "Mehr als 350 ppm Kohlendioxid in der Luft sind nicht vereinbar mit dem Leben auf der Erde." Für die nächsten Tage oder Wochen wird aber mit einem Wert von 400 ppm (parts per million, Millionsteln) gerechnet.
Es geht einfach um Mathematik. Die Rechnung an diesem Punkt des Klimawandels ist, dass es viel mehr Reserven an fossilen Brennstoffen gibt, als verbrannt werden dürfen. So ziemlich jedes Land auf der Welt stimmt damit überein, dass wir das Zwei-Grad-Limit nicht überschreiten dürfen. Aber die Ölindustrie hat drei- oder viermal mehr Reserven, als wir je verbrennen dürfen. Wir müssen das Bewusstsein dafür verankern, dass es nicht okay ist, in diese Firmen zu investieren, dass sie nicht wie normale Unternehmen behandelt werden dürfen.
Was wir erreichen wollen, ist, dass aus diesen Unternehmen deinvestiert wird und kräftig in erneuerbare Energien investiert wird.
Interviewer: Dann gibt es noch ein großes Speicherproblem bei den Erneuerbaren.
Ja, das stimmt. Mehr und mehr kommt aber der Gedanke auf, dass man an unerwarteten Orten speichern kann, beispielsweise sind Autobatterien ein idealer Speicherplatz, der überall im Netz zur Verfügung stehen kann.
Sie meinen also, wir können darauf vertrauen, dass die Ingenieure eine Lösung finden werden?
Nun, ich glaube, sie sind schon dabei. Schauen Sie, als ich vor 25 Jahren das erste Buch über all dies schrieb, hatten wir keine Idee, wie wir das alles bewerkstelligen würden. Und heute zeigt ein Land wie Deutschland, dass man einen großen Teil einer modernen Wirtschaft mit erneuerbarer Energie versorgen kann.

Mit dieser festen Überzeugung ist McKibben nicht allein.
Klima-Regierungsberater Prof. Schellnhuber hat die gleiche Überzeugung. Nur fehlt ihm vollkommen die messianische Aura, neben „politischer Intelligenz“ auch Massen mobilisieren zu können.

Kaltesonne, 29. August 2016: Nun wird es ernst: Kanzlerinnenberater Schellnhuber fordert bedingungslose Zerstörung der fossilen Brennstoffindustrie
Der Direktor des Potsdam-Instituts für Klimafolgenforschung, Hans-Joachim Schellnhuber, plant eine Revolution. Als Co-Autor des Papers “The biggest gamble of the world” forderte er am 24. August 2016 im Fachblatt Earth’s Future den Zusammenbruch der Industrie, die fossile Brennstoffe verwendet. Erreichen möchte Schellnhuber dies durch eine Zerstörung der Finanzierung, der Technologie und des Konsumverhaltens. Auf Seite 11 des Artikels schreiben die Autoren:
“ Only an induced implosion of the fossil fuelled business as usual through disruptive changes in investment dynamics, technology and consumer behavior could move those scenarios closer to reality”.
Auf Seite 14:
“Eine Weltregierung soll eingesetzt werden aus Akteuren der Wissenschaft, aus dem privaten Sektor und der Zivilgesellschaft” (“This strengthened global governance should be consolidated by an alliance of multiple stakeholders, including academia, the private sector, and civil society.”
S.14)
Das Ganze natürlich sofort und ohne Rücksicht auf die Kosten. 100 Mrd. $ jährlich müssen in einen Klimafonds für die Entwicklungsländer fließen, schreiben Schellnhuber und Kollegen auf Seite 5. Wahrlich das größte Spiel der Welt!

Fazit

Weiter lohnt es sich nicht, Herrn McKibbens Thesen zu analysieren (rein persönliche Meinung des Autors). Sie sind offensichtlich unseriös und zeigen nur den messianischen (und nicht brotlosen) Eifer eines Klimapropheten, der nur deshalb, weil er seine Agitation extrem skrupellos betreibt und damit Erfolg hat, von den Medien hofiert wird.

Das wirklich Erschütternde ist jedoch, welche Preise man damit einheimsen kann und dass auch ihm so viele Menschen (inclusive Deutsche Klimaberater(-innen) folgen. Beides ist aber keine neue Erscheinung in der Geschichte und wiederholt sich regelmäßig.
Das Thema wäre ganz bestimmt eine tiefenpsychologisch / massen-soziologische Betrachtung und Vergleich mit theologischen Mechanismen wert. Dem Autor als Techniker fehlen dazu aber die notwendigen, fachspezifischen Begriffe, um es soziologisch ausreichend unverständlich umschreiben zu können.

Was sagt das IPCC dazu? Dieser nimmt natürlich nicht zum „Klimakrieg“ Stellung, bietet dafür aber einen globalen Überblick.

IPCC Aussagen

Hinweis: Die Detailtexte zu diesen IPCC-Aussagen sind vollständig im EIKE Artikel: [15] „Frau Hendricks im Klimawahn“ enthalten, bei Interesse dort nachlesen.

Quellen (Anm.: Alle Aussagen sind im letzten IPCC-Klimareport, dem AR5 Langebericht hinterlegt, sie sind im Summary nicht zu in dieser Form nicht zu finden): [12][13]
-Tropische Stürme und Hurrikane: keine signifikanten Trends
-Tropische Zyklone: keine signifikanten Trends
-Außer-tropischeZyklone: keine signifikanten Trends
-Dürren: keine signifikanten Trends
-Überflutungen: keine signifikanten Trends
-Hagel und Gewitter: keine signifikanten Trends

IPCC Zusammenfassung

IPCC 2013, AR5, WGI, Kapitel 2, Seite 219: “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”

Übersetzung: “Es gibt [nur] begrenzte Anhaltspunkte zu Änderungen bei Extremereignissen, die mit anderen Klimavariablen seit der Mitte des 20. Jahrhunderts verbunden sind.“

Fazit

Was bleibt von den Thesen übrig? Wohl eine kleine Erwärmung der Welt-Mitteltemperatur seit der letzten Kaltzeit. Das ist normal – sonst wäre die Temperatur der Erde ja „eingefroren“, was unwahrscheinlich ist. Es geht nur darum, ob dies vom Menschen, oder von der Natur verursacht wurde. Der Beleg (für die anthropogene Ursache) seien unter anderem die „nicht mehr natürlich erklärbare Anstiegs-Geschwindigkeit“ und der angebliche Beginn mit der Industrialisierung. Beides lässt sich nach Überzeugung des Autors nicht belegen. Begründung: Die Datenlage ist viel zu ungenau: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

Nach den vielen erschütternden Kampfberichten zum Abschluss noch ein Bild, welches belegen könnte, dass ein Wandel des Klimas doch mit der Industrialisierung angefangen hat. Etwas weiter gesponnen, könnten weitsichtige Neubürger belegen, dass die nächste Eiszeit bald kommen wird.


Bild 7 Bildquelle: Klimanotizen.de

Quellen

[1]
Klimafakten.de 18.08.2016: "Wir sind im Krieg. Gegen den Klimawandel"
https://www.klimafakten.de/meldung/wir-sind-im-krieg-gegen-den-klimawandel

[2]
Frankfurter Rundschau:
Regierung empfiehlt Notvorrat
http://www.fr-online.de/panorama/sicherheit–regierung-empfiehlt-notvorrat-,1472782,34657538.html

[3]
NEW REPUBLIC: A WORLD AT WAR
https://newrepublic.com/article/135684/declare-war-climate-change-mobilize-wwii

[4]
ze.tt: Umweltaktivist Bill McKibben im Interview: „Der Kampf gegen die Ölfirmen geht weiter“

http://ze.tt/umweltaktivist-bill-mckibben-im-interview-der-kampf-gegen-die-oelfirmen-geht-weiter/

[5]
Klimaretter.Info 24. Oktober 2013: "Amerika steckt den Kopf in den Sand"
http://www.klimaretter.info/protest/hintergrund/14875-qamerika-steckt-den-kopf-in-den-sandq

[6]
Klimaretter.Info 03. Mai 2013: Klimawandel: Es geht um Mathematik

[7]
Kaltesonne, 29. August 2016: Nun wird es ernst: Kanzlerinnenberater Schellnhuber fordert bedingungslose Zerstörung der fossilen Brennstoffindustrie

http://www.kaltesonne.de/nun-wird-es-ernst-kanzlerinnenberater-schellnhuber-fordert-bedingungslose-zerstorung-der-fossilen-brennstoffindustrie/

[8]
ZEIT ONLINE 29. Januar 2016: Zika-Virus: Das Märchen von den 4.000 geschädigten Babys
http://www.zeit.de/wissen/gesundheit/2016-01/zika-virus-who-gesundheitsnotfall-angst/komplettansicht

[9]
SPIEGEL ONLINE 11.05.2016: Katastrophe in Kanada: Die Mär von den Klimawandel-Waldbränden

http://www.spiegel.de/wissenschaft/natur/kanada-werden-waldbraende-vom-klimawandel-ausgeloest-a-1091833.html

[10]
Climate Central 2015: THE AGE OF ALASKAN WILDFIRES

[11]
EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

http://www.eike-klima-energie.eu/news-cache/die-bayerische-umweltministerin-frau-scharf-extremwetter-extrem-hochwasser-und-die-unberechenbarkeit-des-wetters-nehmen-zu-doch-stimmt-das-wirklich/

[12]
Quelle der Übersetzungen: EIKE 09.12.2015: Pinocchiopresse? Lügenpresse? Die deutschen Medien und ihre "Klimakatastrophen"
http://eike-klima-energie.eu/climategate-anzeige/pinocchiopresse-luegenpresse-die-deutschen-medien-und-ihre-klimakatastrophen/

[13]
IPCC AR5 Langfassung: Fifth Assessment Report CLIMATE CHANGE 2013 The Physical Science Basis
http://www.climatechange2013.org/images/report/WG1AR5_ALL_FINAL.pdf

[14]
US National Interagency Coordination Center Wildland Fire Summary and Statistics Annual Report 2015  http://www.nifc.gov/fireInfo/nfn.htm

[15]
EIKE 14.09.2016: Frau Hendricks glaubt im Klimawahn, Klimapäpstin geworden zu sein und den Irrglauben ihrer Bürger verdammen zu dürfen Zu ihrem Gastbeitrag „Weit verbreiteter Irrglaube“ im Handelsblatt[1]
http://www.eike-klima-energie.eu/news-cache/stop-es-kommt-aenderung-frau-hendricks-glaubt-im-klimawahn-klimapaepstin-geworden-zu-sein-und-den-irrglauben-ihrer-buerger-verdammen-zu-duerfen-zu-ihrem-gastbeitrag-weit-verbreiteter-irrglaube-im-handelsblatt1/#postentry




Neue USGS-Studie*: Hitze speichernder Beton und Asphalt beeinträchtigen US-Klimastationen immer mehr

Bild rechts: Die USHCN-Station der University of Arozona Tucson mitten auf einem Parkplatz. Wenige Monate, nachdem dieses Photo bei WUWT erschienen war, wurde die Station geschlossen. Man beachte die undurchlässige Oberfläche rings um die Station.

Das Wichtigste an dieser Studie ist, dass sie die Prozentzahl von Stationen quantifiziert, die Schauplatz immer weiterer Bodenversieglung mit undurchlässigen Oberflächen um sie herum waren. Wie ich schon vor längerer Zeit erläutert habe, agieren derartige Oberflächen als Wärmesenken, was zu höheren Nachttemperaturen führt, wenn diese Oberflächen die gespeicherte Energie von der Sonne als Infrarot wieder abgeben. Dies wärmt die Luft um die Thermometer herum und verzerrt die Tiefsttemperatur aufwärts.

In dieser Studie belegen die Autoren, dass sie über 32% aller USHCN-Stationen gefunden haben, um die herum undurchlässige Oberflächen (ISA) zwischen 2001 und 2011 um über 20% zugenommen haben. Als der 1000 m-Radius, für welches Gebiet jede Station repräsentativ sein soll, der Stationen untersucht worden ist, ergab sich bei über der Hälfte aller Stationen (52%; über 600) eine Zunahme von ISA von mehr als 20% innerhalb mindestens 1% der Gitterpunkte innerhalb dieses Radius‘.

Dies zeigt, dass in Städten wie Las Vegas, wo es während der letzten 50 Jahre eine gravierende Infrastruktur-Zunahme gegeben hatte, die Minimum-Temperatur immer wärmer wird (hier), was die Mitteltemperatur, die zum Auffinden des „Signals der globalen Erwärmung“ herangezogen wird, nach oben verzerrt. Die NOAA wäre gut beraten, diese Stationen auszusondern, die auf diese Weise beeinträchtigt worden sind. Aber man hält stur an diesen falschen Daten fest und besteht darauf, dass man diese „adjustieren“ kann, damit sie genau werden. Dazu sage ich: Blödsinn! Da die USA so dicht mit tausenden Wetterstationen überzogen sind, ist es weitaus besser, Rausch- und nicht perfekte Daten auszusondern und nur jene Stationen heranziehen, die nicht durch zunehmende Infrastruktur verzerrte Werte aufweisen, also nur die besten Stationen mit tadellosen Daten.

Wenn man genau das tut, findet man einen statistisch signifikanten niedrigeren 30-Jahre-Trend:

Die neue Studie:

Änderungen der aus Satellitenbildern abgeleiteten Ausbreitung undurchlässiger Oberflächen bei Stationen des US Historical Climatology Network USHCN

Kevin Gallo,  George Xian

Abstract

Der Unterschied zwischen einer undurchlässigen, [30 m gridded] Oberfläche (ISA) zwischen 2001 und 2011 wurde evaluiert innerhalb von Radien von 100 bzw. 1000 m um die Stationen, die das USHCN ausmachen. Die Größe der Gebiete im Zusammenhang mit den beobachteten Zunahmen der ISA über bestimmte Grenzen hinaus wurde für die Klimastationen dokumentiert. Über 32% der USHCN-Stationen waren Schauplatz einer Zunahme der ISA von ⩾20% zwischen 2001 und 2011 in mindestens 1% der Gitterboxen innerhalb eines Radius‘ von 100 m um die Station. Während jedoch das erforderliche Gebiet in Verbindung mit ISA-Änderungen von ⩾1% auf ⩾10% zunahm, ist die Anzahl der Stationen, die eine ISA-Zunahme von ⩾20% aufwiesen, zwischen 2001 und 2011 auf 119 gesunken (9% der Stationen). Die Untersuchung des 1000 m-Radius‘ um jede Station ergab, dass über 52% (über 600) Stationen Schauplatz einer ISA-Zunahme von ⩾20% innerhalb mindestens 1% der Gitterboxen innerhalb jenes Radius‘. Da jedoch das erforderliche Gebiet im Zusammenhang mit ISA-Änderungen auf ⩾10% zugenommen hatte, sank die Anzahl der Stationen, bei denen man eine ISA-Zunahme von ⩾20% beobachtet hatte, zwischen 2001 und 2011 auf 35 (weniger als 3% der Stationen). Die gridded ISA-Daten bieten eine Gelegenheit, die Umgebung von Klimastationen zu charakterisieren mittels eines konsistent gemessenen Indikators einer Oberfläche. Periodische Evaluationen von ISA-Änderungen bei USHCN-Stationen und anderen Netzwerken mit Stationen werden gefordert um sicherzustellen, dass die lokale Umgebung um die Stationen sich nicht signifikant geändert hat dergestalt, dass die Messungen an der Station beeinflusst werden.

Link: https://wattsupwiththat.com/2016/09/22/new-usgs-study-shows-heat-retaining-concrete-and-asphalt-have-encroached-upon-us-climate-stations/

Übersetzt von Chris Frey EIKE




Umweltaktivismus als eine Religion

Crichton schreibt:

Es gibt kein Eden. Das gab es nie. Was war jenes Eden der wundervollen mythischen Vergangenheit? Ist das die Zeit, in der die Kindersterblichkeit bei 80% lag, als vier von fünf Kindern vor ihrem fünften Lebensjahr an Krankheiten starben? Als eine von sechs Frauen im Kindbett starb? Als die mittlere Lebensspanne 40 Jahre betragen hatte, wie es in Amerika noch vor einem Jahrhundert der Fall war? Als Plagen den Planeten überzogen, wobei Millionen in einem Zug starben? Ist es das, was Eden war?

Und was ist mit den eingeborenen Völkern, die in einem Zustand der Harmonie in einer Eden-artigen Umwelt leben? Nun, das haben sie nie. Auf diesem Kontinent sorgten Neuankömmlinge fast augenblicklich dafür, dass Hunderte Spezies großer Tiere ausgelöscht wurden – und sie taten dies viele tausend Jahre bevor der weiße Mann die Bühne betrat … Und wie waren die Lebensbedingungen? Liebenswert, friedlich, harmonisch? Wohl kaum! Die frühen Völker der Neuen Welt lebten in einem konstanten Kriegszustand … Die Kiegerbanden dieses Kontinents sind berühmt: die Comanche, Sioux, Apachen, Mohawks, Azteken, Tolteken, Inkas. Einige davon praktizierten Kindstötungen und Menschenopfer. Und jene Völker, die nicht so kriegerisch veranlagt waren, wurden gnadenlos ausgelöscht…

Umweltaktivisten sind schrecklich in ihren Prophezeiungen. Uns ist nicht das Öl ausgegangen, es sind keine Millionen verhungert wegen Überbevölkerung, die Hälfte aller Spezies ist nicht ausgestorben, Temperaturen sind seit 18 Jahren nicht mehr gestiegen, die Gesamt-Eismenge um die Antarktis und in der Arktis nimmt zu – und so weiter und so fort. Aber es ist eine Religion – Fakten spielen keine Rolle. Der bärtige Idiot auf der Straße legt sein „Das Ende der Welt ist nahe!“ nicht beiseite, nur weil das Datum, bis zu dem wir alle ausgestorben sein sollten, verstrichen ist. Er verlegt einfach das Datum weiter in die Zukunft und macht immer weiter.

Wie Dr. Crichton erklärt, ist DDT kein Krebserreger (hier), es hat keine Vögel getötet, und die Menschen, die diesen Stoff verboten haben (hier), wussten das genau. Aber sie haben es trotzdem geächtet, und als Folge davon starben Millionen armer Menschen, zumeist Kinder. Dies war die Folge von Religion, nicht Wissenschaft.

Die „Kirche der Globalen Erwärmung“ ist vermutlich die schlimmste Sekte. Während der letzten 135 Jahre ist es auf der Welt um 0,8 K wärmer geworden, von 288 K auf 288,8 K – und überhaupt nicht wärmer geworden ist es seit dem Jahr 2002, jedenfalls den UAH-Satellitendaten zufolge. Dies ist die unbedeutende und ganz normale Variabilität. Die Welt ist grüner, die Ernteerträge besser und größer denn je, weniger Menschen leiden Hunger oder leben in Armut, die Lebenserwartung ist länger denn je, und wir haben mehr urbares Land. Es gibt keinerlei Beweise dafür, dass die globale Erwärmung vom Menschen verursacht oder gefährlich ist, und es gibt keinerlei Beweise dafür, dass Kohlendioxid der einzige Grund der minimalen Erwärmung ist, die es gegeben hat, oder auch nur der dominante Grund. Wir können zeigen, dass es ein Treibhausgas ist wie Wasserdampf, aber das ist alles.

Wir müssen die Religion aus dem Umweltaktivismus entfernen. Wir müssen diesen wieder auf eine wissenschaftliche Grundlage stellen. Zu viele Organisationen lügen einfach, schlicht und ergreifend. Es begann mit DDT und ist seitdem immer schlimmer geworden. Wissenschaft, besonders Umweltwissenschaft, wird mehr und mehr politisiert, und dies kann katastrophale Konsequenzen nach sich ziehen.

Link: https://wattsupwiththat.com/2016/09/14/environmentalism-as-a-religion/

Übersetzt von Chris Frey EIKE




Viele Leute trauen sich nicht zu sagen, was sie denken

Immer wieder habe ich dieses Phänomen erlebt, nachdem ich einen Vortrag vor (meist) im Ruhestand befindlichen Fachleuten aus verschiedenen Disziplinen gehalten habe. Im privaten Gespräch näherten sie sich mir, mit Aussagen wie "voll mit Ihnen einverstanden, aber ich habe Angst, das aus zusprechen." Zu wenige äußern sich öffentlich – wenn, dann äußern sie ihre Ansichten indirekt an der Wahlurne.

Doch die Zeiten ändern sich langsam. Viele Menschen sind mit den Berichten der Mainstream-Medien nicht mehr zufrieden und heute eher bereit, sich gegen irreführende Werbung, destruktive Politik und schnell steigende Kosten zu wenden. In meiner Wahrnehmung, war die jüngste Brexit Abstimmung ein Vorbote von mehr solcher kommenden "Rebellionen", wahrscheinlich werden einige ebenso überraschend sein.

Überbordende Bürokratie ist nur ein Aspekt der weit verbreiteten Unzufriedenheit; Müll und Unwahrheiten sind weitere.

Das United Kingdom (in orange) stimmte ab, sich aus der Europäischen Union zu lösen (in blau) – gegen die Erwartungen der "Eliten".
(By Furfur (This file was derived from  EU Single Market.svg:) [GFDL (http://www.gnu.org/copyleft/fdl.html) or CC BY-SA 4.0 (http://creativecommons.org/licenses/by-sa/4.0)], via Wikimedia Commons)

Müll und Lügen

Die Verschwendung von Steuergeldern für alternative Energien verblasst im Verhältnis zu den tatsächlichen Kosten der völlig verfehlten Energiepolitik, die man in einer Vielzahl von Ländern findet, sowohl hier in Kanada als auch im Ausland. Die meisten dieser verschwenderischen Projekte drehen sich um eine (FALSCHE!) Idee, nämlich, dass das atmosphärische Kohlendioxid (CO2) ein Treiber des Klimas auf der Erde wäre.

Die CO2-Klima Idee kam fast zweihundert Jahren auf (eine Hypothese, zu damaliger Zeit) und wurde bereits vor hundert Jahren als nicht korrekt angezeigt. Allerdings macht es immer noch „die Runde", wegen drei einfacher Gründe:

  • • Für viele Wissenschaftler die Forschungsmittel erhalten wollen, ist es ziemlich sinnlos, wenn ihr Vorschlag keinen Hinweis darauf enthält, wie "schlecht" das CO2 ist.
  • • Viele „Politiker" (reale oder Möchtegern ist egal) „schwimmen“ einfach mit dem Strom, nach dem Weg des geringsten Widerstandes und stoßen damit in das gleiche CO2-Klima-Horn.
  • • Es gibt so fast so gut wie keine Verantwortung für die Bürokraten oder Politiker.

Müll – wen kümmert‘s; unabhängige Gedanken – wer braucht die denn und in jedem Fall wird erwartet, dass die Wähler bis zur nächsten Wahl alle schlechten Taten vergessen haben.

Aber es sind nicht nur Geld und Ressourcen, die bei der vergeblichen Verfolgung von CO2 und Klimaanlagen wegen dem proklamierten, globalen Übel verloren gehen. Es gibt noch schlimmere Konsequenzen für die Menschheit; eine davon ist, das die Zeit wirklich verloren ist, um das Wohlergehen der Menschheit zu fördern.

Verlorene Zeit

Verlorene Zeit ist für immer weg. Keine Raumzeit-Technologie oder Pokemons wurden erfunden, um Zeit zurückbringen. Die geschätzten Billionen [10^12] US-Dollar, die in den letzten Jahrzehnten weltweit für „alternative" Energiequellen wie Wind, Sonne und Biokraftstoffe investiert wurden, haben auf den globalen Verbrauch von fossilen Brennstoffen (Kohle, Erdöl und Erdgas) nahezu keinerlei Auswirkungen gehabt. Zur gleichen Zeit und trotz der (völlig vermeidbaren) Katastrophen von Tschernobyl und Fukushima, werden heute in vielen Ländern auf der ganzen Welt neue Kernkraftwerke gebaut, zum Beispiel auch in der Wasserkraft reichen Schweiz.

Sogar in Japan werden viele der Kernkraftwerke, die nach dem Fukushima Tsunami stillgelegt wurden, neu gestartet. China, Indien und Russland sind eifrig dabei, ihre nukleare Stromerzeugung massiv zu erweitern. Während diese Länder Lippenbekenntnisse zum Klimaabkommen von Paris 2015 abgeben, haben diese Projekte absolut nichts mit irgendwelchen wahrgenommenen Klima Bedrohungen durch CO2 zu tun, die von den Vereinten Nationen IPCC oder US-Präsident Obama verkündet wurden. Sie sind einfach weise in der Diversifizierung ihrer Energieressourcen [Diversifizierung ist die Aufnahme neuer und andersartiger Produkte in das Programm zur Risikostreuung und/oder Realisierung von Wachstumschancen; Wirtschaftslexikon24].

Im Gegensatz dazu ist Deutschland auf dem Weg zu einem "grünen" Energie – Almosenempfänger zu werden und das alles des CO2-Klimaschwindels wegen.

“Grünes” Deutschland

Eines der krassesten Beispiele der Verschwendung von Zeit und Ressourcen muss Deutschland sein. Das Land hatte viele große Entwicklungen zu seinem Vorteil in der Zeit von etwa 1960 bis 1990. Diese Zeit wurde das deutsche „Wirtschaftswunder" genannt, eine Zeit in der Wissenschaft, Technik und Technologie sprunghaft wuchsen, war Energie gleichermaßen für Verbraucher und Industrie bezahlbar. Kohle und Kernkraftwerke produzierten genügend Strom und staatliche Vorschriften förderten Wettbewerb und Effizienz im ganzen Land.

Anti-Atom Proteste gegen das Endlager in Gorleben in Norddeutschland, am 8. November, 2008 (By Paula Schramm (Politprominenz) [CC BY-SA 2.0 (http://creativecommons.org/licenses/by-sa/2.0)], via Wikimedia Commons)

Anstatt jedoch auf dem entwickelten Know-how aufzubauen und den neuen Generationen von Wissenschaftlern und Ingenieuren den Handel damit zu lehren, überredeten „grüner Strom" Aktivisten und Politiker die Menschen, dass Biokraftstoffe, Sonne und Wind alles wären, was nötig sei. Inzwischen ist die Generation von Menschen, die fähig waren komplexe Atomanlagen zu planen, zu bauen und in Betrieb zu halten, meist im Ruhestand, ausgewandert oder verstorben. Es wird wahrscheinlich eine weitere Generation benötigen, um die Expertise nur auf den Stand von 1975 zu bringen.

Zum Beispiel ist das neueste Kernkraftwerk, das in Deutschland noch in Betrieb ist, um 1985 gebaut, und seitdem wurde keine einzige neue Anlage gebaut, gar nur in Betracht gezogen. Im Gegenteil wird in wenigen Jahren davon nichts mehr übrig bleiben. Alle noch in Betrieb befindlichen Anlagen werden durch Dekret der Regierung geschlossen werden, die letzten in 2022. Ähnliche Aktionen sind für die restlichen Kohle- und Erdgas befeuerten Kraftwerke geplant. Von da an sind die deutschen Haushalte und Industrie weitgehend dann von den Launen der Sonne, Wind und den Importen aus den nahe gelegenen Ländern wie Tschechien und Frankreich abhängig, wenn von dort Energie überhaupt verfügbar ist. Diese Ideologie ist als „Energiewende" beschlossen.

Verfügbarkeit von elektrischer Energie

Die Verfügbarkeit von elektrischer Energie, die sofort und bedarfsgerecht benötigt wird, nimmt immer mehr ab und ist immer weniger garantiert. Daher die jüngsten Ideen der deutschen Regierung, lokale Stromerzeugungs-Genossenschaften zu fördern, um damit die Verantwortung auf kommunaler Ebene in Richtung Endverbraucher zu schieben. Und oha, das alles arbeitet mit „smarten“ Systemen, die vermutlich auf dem Prinzip der biblischen Lieferung von Wein wie bei der Hochzeit zu Kana beruhen [Die Hochzeit zu Kana ist eine Wundererzählung aus der Bibel, die davon berichtet, wie Jesus von Nazaret als Gast einer Hochzeitsfeier Wasser in Wein verwandelt; Wikipedia]

Eigentlich, wenn ich Nachrichten zum gepriesenen „intelligenten" Stromnetz und der Küchentechnik lese (zum Beispiel wie bei neuen smarten Kühlschränke), so scheint es, dass der „smart" Teil es eher nicht gewährleistet, dass sie mit geringerem Stromverbrauch laufen. Aber sie schalten die Verbraucher (Haushalte) ab, wenn die Sonne nicht scheint, der Wind nicht bläst oder jemand Sie ganz aus der Stromversorgung streichen will. Es könnte das politisch korrekte Denken fördern und Sie werden glücklich sein zu wissen, dass Sie immer noch für „Lieferung" eine Rechnung bekommen, selbst wenn es zu Spannungsabfall oder Stromausfällen kommt.

Brazo Wind Park in den Präriegebieten von West Texas (auf einem Prospekt (own work) [CC BY-SA 3.0 (http://creativecommons.org/licenses/by-sa/3.0)], via Wikimedia Commons)

In diesem Zusammenhang eine interessante E-Mail (Kopie), die ich vor kurzem aus dem Ausland erhielt, geschrieben an einem bekannten Befürworter der Solarenergie, (paraphrasiert) wie folgt:

Als Energieexperte machten Sie die interessante Entdeckung, dass die Sonne keine Rechnung schickt. Ich verstand nicht ganz warum, trotz des vorhergesagten, dass mehrere hunderttausend Haushalte nicht in der Lage sind, ihre Stromrechnungen zu bezahlen und ganze Industrien auswandern, der hohen Stromkosten wegen. Warum sind die Stromkosten in Ländern, die weniger Sonnenenergie nutzen, viel niedriger?

Vorteile – Was für Vorteile?

Tatsächlich, wo oder was sind die Vorteile und wer profitiert von dieser Entwicklung alternativer Energien? Es können nicht die Verbraucher sein, deren Energierechnungen schneller steigen als die Inflation. Wahrscheinlich sind es nicht einmal die Betreiber von Wind- und Solarkraftanlagen, trotz hoher Einspeisevergütungen und andere vorgeschriebener „Goodies". Dass lässt nur die Hersteller solcher Geräte übrig und – wer hätte das gedacht, die Regierungen selbst. Das ist auch aus jüngsten Schritten in einigen Ländern zu entnehmen, den Verbrauch an Strom aus eigenem Photovoltaik-Panel zu besteuern.

Die Welt wird mit günstigem Erdgas überschwemmt, Rohöl und Kohle (mit den Minen in den westlichen Ländern) werden auf Kulturerbe-Status degradiert, wer braucht den sehr teuren und intermittierenden Strom aus Wind und Sonne?

Wenn Sie eine Antwort wissen, schicken mir bitte eine Mail.

Erschienen auf Fairfax Free Citizen (FxFC), ein online News Paper, gestartet im Januar 2013

Übersetzt durch Andreas Demmig

http://fairfaxfreecitizen.com/2016/08/20/many-people-think-what-few-dare-to-say/

Über den Author

Dr. Klaus L.E. Kaiser ist professioneller Wissenschaftler mit einem Dr. in Chemie der Technischen Universität, München. Er arbeitete mehr als 30 Jahre als Forscher und Projektleiter an Kanadas Umweltzentrum für Trinkwasser und ist zur Zeit Leiter der Forschung bei TerraBase Inc.




Deutschlands Energiewende: Eine Politik zum Chaos

Beitrag übernommen von The Economistvom 13. August 2016

Das wichtigste Instrument in diesem Übergang ist eine Politik, die erneuerbare Energien subventioniert. Deutschland garantiert Investoren in grüner Energie, das ihr Strom bevorzugt in das Stromnetz gespeist wird und zwar zu hohen Preisen die für 20 Jahre festgelegt sind. Dank dieser Unterstützung ist der Anteil der erneuerbaren Energien in der deutschen Stromerzeugung von 3,6% im Jahr 1990 auf 30% im letzten Jahr hoch gegangen. Aber obwohl grüne Energie auch in den meisten EU-Ländern und Amerika subventioniert wird, sind Deutschlands Bemühungen ungewöhnlich großzügig. Die Verbraucher zahlen den Preis für die Subventionen mit mehr als 20 Milliarden Euro jährlich, Tendenz steigend, durch ihre Stromrechnung. Deutsche zahlen mehr für Strom als alle anderen Europäer außer den Dänen (die deutsche Industrie ist von einem Teil der Last befreit).

Es ist nicht leicht, grün zu sein: Auch mit neuen Reformen, bleiben Zweifel an Deutschland Energiewende

Als Ergebnis, ist Deutschlands Erneuerbare Energien Gesetz schon seit langem reformbedürftig gewesen. Im Juli, nach langem Tauziehen, änderte das deutsche Parlament es schließlich. Die Regierung wird weiterhin den Zubau an erneuerbaren Energien bestimmen, um zu versuchen, den Klimawandel zu verlangsamen. Das Ziel der Regierung ist es, bis zum Jahr 2025 etwa 40-45% des Stroms aus erneuerbaren Energien einzuspeisen, bis zum Jahr 2035 sollen es dann 55-60% sein, im Endausbau dann mindestens 80% bis zum Jahr 2050.

Aber ab dem nächsten Jahr wird die feste Einspeisevergütung für alle erneuerbaren Energien durch Auktionen ersetzt, in denen die Anleger verschlossene Gebote abgeben, um neue Wind- oder Solarparks zu bauen. Diejenigen, die das für den niedrigsten Preis tun, werden gewinnen und nur sie werden für die Energie, die sie liefern, bezahlt werden [sonst Strombörse, der Übersetzer]. (Kleine Installationen von Solaranlagen auf Dächern und dergleichen, bleiben im alten System.)

Diese Reform ist ein wichtiger Schritt in Richtung Marktwirtschaft, sagt Patrick Graichen von Agora Energiewende, einem Think-Tank. Aber Probleme bleiben. Lokale Politiker, vor allem in Bayern, nehmen eine „nicht neben meinem Garten“ Haltung zu Stromleitungen an, die gebaut werden müssen, um Elektrizität aus dem windigen Norden in den industriellen Süden zu bringen. Diese Stromleitungen müssen jetzt im Boden verlegt werden, was sie viel teurer [und wesentlich unzuverlässiger] macht.

Außerdem befasst sich die neue Reform nicht mit grundlegenden Mängeln der Energiewende. Das erste ist, dass zwar der Anteil der erneuerbaren Energien an der Stromerzeugung steigt, die Gesamtproduktion bisher aber nicht sauberer geworden ist, wie die gemessenen Emissionen zeigen. Ein Grund dafür ist die schnelle Entscheidung von Angela Merkel, aufgrund der Flut-Katastrophe von Fukushima im Jahr 2011, die Kernkraft bis zum Jahr 2022 auslaufen zu lassen (welche keine Treibhausgase emittiert).

Während erneuerbare Energien diese fehlende nukleare Kapazität an windigen und sonnigen Tagen leicht kompensieren können, werden andere Energiequellen für den Rest benötigt, wenn kein Wind weht und keine Sonne scheint. Umweltfreundliche Gaskraftwerke wären die nächste beste Option, aber sie sind im Betrieb teurer als Kohlekraftwerke [und daher nicht wirtschaftlich]. Und daher verlässt sich Deutschland weiterhin auf die so behauptete, schmutzige Braunkohle und auf die nur etwas weniger schmutzige Steinkohle. Dies gibt der Energiewende ein „Glaubwürdigkeitsproblem", sagt Claudia Kemfert vom Deutschen Institut für Wirtschaftsforschung.

Daneben hat sich die Energiewende bisher fast ausschließlich auf die Stromerzeugung konzentriert. Aber Strom macht nur etwa 21% der Energie aus, die in Deutschland verbraucht wird. Der Rest wird für Autos und Lastwagen verwendet und um Häuser zu heizen. Erneuerbare Quellen spielen kaum eine Rolle in diesen Bereichen. Elektrofahrzeuge bleiben eher ein Marketing-Traum(a) als das sie Realität werden. Zu wenige Deutsche kaufen sie [und fahren sie auch], um die Luft sauberer zu machen, obwohl sich dies im Zuge des Volkswagen Dieselemissionen Skandal im vergangenen Jahr geändert haben könnte.

Die Politik der Energiewende, sagt Clemens Fuest des Ifo Instituts, einem Think-Tank in München, hatte drei Ziele: Die Energieversorgung zuverlässig zu halten; die Energie erschwinglich machen; und die Erzeugung sauberer zu machen, um die Umwelt zu retten, mit dem Ziel, die Emissionen um 95% zwischen 1990 und 2050 zu beschneiden. „Alle drei Ziele werden verpasst, so dass Deutschlands Energiewende“ ein internationales Beispiel für schlechte Politik ist".

Das mag ein bisschen hart sein. Deutschland Politik hat dazu beigetragen, die Kosten für Solarkollektoren und Windtechnik zu senken(?) Aber um die Revolution zu bekommen, die die Regierung in Deutschland wirklich will, sind weit drastischere Reformen erforderlich.

 Bild: stopthesethings.files.wordpress.com/2013/05/angry-german-kid.jpg

Beitrag gefunden auf Stopthesethings vom 20.09.2016

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2016/09/20/germanys-wind-powered-transition-a-policy-in-chaos/




Die heißeste Temperatur Deutschlands war nur ein Wärmeinseleffekt: Ein Klimaprofessor plaudert aus seinem „Nähkästchen für Temperatur“

(Bild rechts: Kitzingen am Main. Bild: TiM Caspary  / pixelio.de )

MAIN POST 07. September 2016: [2] Kitzingen stellt erneut Hitzerekord auf
Das zweite Jahr in Folge ist es in Kitzingen heißer als an allen anderen Orten in Bayern. Warum ist das so? Kitzingen habe einen Spezialeffekt, sagt ein Klimatologe.
Paeth präzisiert: Die Stadt liege nicht nur tief, sondern durch das Maintal zudem in einem Kessel, in dem sich die Hitze sammle.
Außerdem seien die Temperaturen in Städten immer höher als auf dem Land – „je dichter bebaut eine Stadt ist, desto höher ist das Hitzerisiko“. Warum aber die unterfränkische Kreisstadt, mainaufwärts knapp 20 Kilometer östlich von Würzburg gelegen – warum ist es immer da so heiß? „Tja, das fragt sich die ganze Meteorologenwelt“, sagt Heiko Paeth. Er ist Professor für Klimatologie an der Universität Würzburg.
Schließlich, sagt Paeth, gebe es noch einen Spezialeffekt. „Wir haben in Deutschland häufig Westwindlagen“ – auch in Kitzingen komme die kühlende Frischluft hauptsächlich von Westen. Genau im Westen der Stadt habe aber seinerzeit die Wehrmacht eine große Kaserne errichtet. 61 Jahre lang war das Gelände dann amerikanische Garnison, heute ist es ein Gewerbepark.
Ein Hindernis für die Luftzufuhr blieb es. Die Stadt habe sich ihre Frischluftschneise zugebaut, konstatiert Paeth. „Für die Hitze könnte das eine Erklärung sein.“

Wenn dieser Wärmeinseleffekt die Ursache der „gemessenen“ +0,1 °C Temperaturerhöhung der letzten 32 Jahren in Deutschland war, stellt sich die angebliche Klimawandel-Erhitzung der Welt wie folgt dar:
Listung aus: „Weltweiter Temperaturrekord gemessen?
– Seit 103 Jahren ist es global nicht mehr heißer geworden
– Seit 74 Jahren hat sich an der globalen Grenztemperatur überhaupt nichts verändert
– In den letzten 32 Jahren ist es in Deutschland nicht heißer geworden (alternativ um nicht messbare +0,1 °C)
– würde man die „verworfenen“, älteren Messungen mit einbeziehen, wäre es früher weit wärmer gewesen als aktuell

Quellen

[1] EIKE 28.07.2015: 5. Juli 2015, der bisher heißeste Tag Deutschlands?

http://www.eike-klima-energie.eu/klima-anzeige/5-juli-2015-der-bisher-heisseste-tag-deutschlands/

[2] MAIN POST 07. September 2016: Kitzingen stellt erneut Hitzerekord auf

http://www.mainpost.de/regional/kitzingen/Klimatologen-Rekorde;art773,9338651




Die Septemberkapriolen 2016 – eine Ursachenforschung

Bild rechts: Septemberwolken und beginnende Laubfärbung. Foto: Stefan Kämpfe

Die langfristige Entwicklung der Septembertemperaturen in Deutschland

Zunächst lohnt ein Blick auf die langfristige Entwicklung der Septembertemperaturen und deren Ursachen. Von 1881 bis 2015 erwärmte sich der September in Deutschland lediglich um etwa 0,9 Kelvin (1Kelvin = 1°C) und damit weit weniger stark, als die meisten anderen Monate. Zwei mögliche Erwärmungsursachen, eine leichte Häufigkeitszunahme der Großwetterlagen mit südlichem Strömungsanteil sowie die insgesamt gestiegenen AMO- Werte (ein Indexwert für die Wassertemperaturen im zentralen Nordatlantik), zeigt die folgende Grafik gleich mit. Eine dritte mögliche Ursache, die Verstädterung sowie die geänderte Landnutzung („Wärmeinseleffekte“ im weitesten Sinne) wurde hier bei EIKE schon oft erläutert und soll bloß erwähnt werden.

Abb. 1: Höhere Septembertemperaturen traten in Deutschland besonders während der AMO- Warmphasen zur Mitte des 20. Jahrhunderts und gegenwärtig auf. Die momentanen Werte erreichen aber bislang nur knapp das Niveau der vorigen Jahrhundertmitte. Außerdem nahm die Häufigkeit der Großwetterlagen mit Südanteil tendenziell mit den AMO- Werten zu, wobei Spitzenwerte bevorzugt am Ende der AMO- Warmphasen auftraten.

KOWATSCH hat das Temperaturverhalten in verschiedenen Zeitabschnitten genauer untersucht. Der größte Teil der bescheidenen Septembererwärmung fand bis etwa 1920 statt. Seit 1945, dem etwaigen Höhepunkt der vergangenen AMO- Warmphase, zeigt sich keinerlei Erwärmung:

Abb. 2: Keine Septembererwärmung in Deutschland seit über 70 Jahren. In diesem Zeitraum nahm die CO2- Konzentration in der Atmosphäre um etwa 90ppm zu; das entspricht einer Steigerung um etwa 30%. Man achte auf die sehr warmen September 1947, 1949 und 1961. Erst 1999 und 2006 wurden deren Werte wieder erreicht beziehungsweise knapp übertroffen.

Die „Septemberhitze“ 2016

Die astronomisch mögliche Sonnenscheindauer und die Sonnenstandshöhe fallen im Septemberverlauf vom Niveau Mitte April auf das von Mitte März zurück. Wenn es so spät im Jahr über viele Tage noch hochsommerlich heiß werden soll, müssen stets drei Voraussetzungen zugleich erfüllt sein, die auch 2016 gegeben waren; nämlich eine maximale Sonnenscheindauer von 10 bis fast 13 Stunden pro Tag, dazu eine Hochdruckwetterlage, bei der die Luftmasse absinkt und sich adiabatisch erwärmt (ein ähnlicher Effekt wie das warm werdende Ventil beim Aufpumpen eines Reifens), und eine Luftströmung mit Südanteil, welche eine subtropische oder gar tropische Luftmasse nach Deutschland führt. Der September ist der letzte Monat im Jahresverlauf, bei dem die Sonnenscheindauer das Verhalten der Lufttemperaturen wesentlich (signifikant) mitbestimmt:

Abb. 3: Die Varianz der Septembertemperaturen wird zu einem guten Drittel von der Sonnenscheindauer bestimmt. Der Zusammenhang ist schwächer als im Spätfrühling und Sommer, aber dennoch signifikant. Das PIK gibt die Sonnenscheindauer nicht als Monatssumme in Stunden, sondern als Stundenmittel je Tag, bezogen auf den ganzen Monat, an. Ein Stundenmittel von 8 (sehr sonnenscheinreich) entspricht einer Monatssumme von 240 Sonnenstunden.

Seit 1893 wird in Potsdam- Telegrafenberg die Sonnenscheindauer erfasst. Sie nahm etwas zu, was eine vierte Ursache für die leichte Septembererwärmung in Deutschland ist:

Abb. 4: Leicht zunehmende Sonnenscheindauer im September in Potsdam. Für ganz Deutschland fehlen leider langfristige Aufzeichnungen, doch dürfte auch im ganzen Land der September etwas sonniger geworden sein.

Die Sonnenscheindauer im September verhielt sich ähnlich wie die AMO (folgende Grafik):

Abb. 5: Nahezu Gleichklang von AMO, Sonnenscheindauer und Lufttemperaturen in Potsdam: Der September war zur Mitte des 20. Jahrhunderts und in den 2000er Jahren etwas sonniger und wärmer als um 1900 und um 1980.

Ein Blick in historische und aktuelle Wetterkarten: Septemberhitze und herbstliche Temperaturstürze sind nichts Neues

Schon zur Monatsmitte hatte der September 2016 mit etwa 80% sein durchschnittliches Monatssoll der Sonnenscheindauer fast erfüllt; doch wie sah es mit den anderen zwei erforderlichen „Zutaten“ für die Septemberhitze aus? Die folgende Wetterkarte zeigt einen leichten Hochdruckeinfluss und eine südöstliche Strömung über Deutschland am 14. September:

Abb. 6: Am 14. September 2016 herrschte mit einer südöstlichen Strömung am Rande einer von Skandinavien zum Balkan reichenden Hochdruckzone noch perfektes, heißes Spätsommerwetter über Deutschland. Über der Bretagne lag bereits ein Tief, welches ostwärts zog und ab 16. September einen jähen Temperatursturz mit starken Regenfällen einleitete.

Aber noch viel später im September, nämlich am 26.09.1982, wurden in Erfurt- Bindersleben 31°C erreicht. Stellvertretend für viele andere ähnliche Hitze- Lagen der Jahre 1947, 1949, 1961, 1999 und 2006 sei nur diese Wetterkarte gezeigt:

Abb. 7: Am 26.09.1982 herrschte eine der Situation von Mitte September 2016 vergleichbare Situation. Man erkennt wieder die Hochdruckzone Skandinavien/Balkan und ein kräftiges Tief, diesmal westlich von Irland. Über Deutschland wehte eine Südwind.

Und dass der Sommer spätestens im September jäh endet, ergibt sich schon aus der herbstlichen Jahreszeit. Über Nordeuropa bildet sich bereits wieder Kaltluft, die bei Winddrehung auf Nord rasch nach Deutschland gelangt und sich hier dann kaum noch erwärmt, so geschehen auch um den 20.September 2016.

Der „Klimawandel“ findet im September nur bei den Häufigkeitsverhältnissen der Großwetterlagen statt

„Klimawandel“ war erdgeschichtlich stets die Regel, auch kurzfristig (siehe Abbildungen 1 und 5). Die Septembertemperaturen stiegen seit 1881 in Deutschland nur unwesentlich und seit gut 70 Jahren überhaupt nicht. Insgesamt dominieren in einem „normalen“ September West- und Zentralhochlagen. Diese nur 6 Großwetterlagen von insgesamt 30 nach der HESS/BREZOWSKY- Klassifikation herrschen im Langjährigen Mittel an fast 50% aller Septembertage; ähnliche Verhältnisse finden sich von Juli bis Februar, während im Frühling und Frühsommer meridionale Lagen (solche mit vorherrschender Nord-, Süd- oder Ostströmung) häufiger sind. Oft ist der September dreigeteilt: Im ersten Monatsdrittel dominieren Hochdruckgebiete über Mitteleuropa (Spätsommer), zur Monatsmitte folgt eine Tiefdruckphase mit Westwetter, danach der viel gerühmte „Altweibersommer“ mit erneuten Hochdruckgebieten über Mitteleuropa. Nicht zufällig beginnen die meisten „Oktoberfeste“, so auch das in München, bereits tief im September, um den häufigen „Altweibersommer“ auszukosten. Auch 2016 war diese Dreiteilung, auf die keinesfalls stets Verlass ist, durchaus gut erkennbar- mit einem Unterschied: Die sie verursachenden Großwetterlagen waren viel stärker meridional ausgerichtet (erst eine südliche, dann eine nördliche Anströmrichtung), während westliche Strömungen zu selten auftraten. Seit etwa 25 Jahren scheinen sich diese für den September eigentlich weniger typischen Extremlagen mit markanten Warm- und/oder Kaltphasen und/oder extremen Niederschlagsverhältnissen zu häufen (1993, 1995, 1996, 1998, 2000, 2002, 2006, 2008, 2009, 2010, 2013, 2014, 2015 und 2016). Bislang waren die wenigen West- und die Zentralhochlagen in ihrer Summe im Langjährigen Mittel meist häufiger als die vielen meridionalen (neuerdings auch kürzer meridiane Lagen genannt), erst in den letzten Jahren wurden sie von letzteren überflügelt. Die folgende Abbildung zeigt die Häufigkeitsentwicklung dieser beiden Wetterlagengruppen (Cluster) und auch eine mögliche Ursache für deren geändertes Häufigkeitsverhalten- die Sonnenaktivität. Denn in Phasen mit höherer Sonnenaktivität, grob gekennzeichnet durch eine größere Anzahl von Sonnenflecken, werden West- und Zentralhochlagen begünstigt, während bei geringerer Sonnenaktivität Meridionale Lagen häufiger auftreten:

Abb. 8: Man achte besonders auf das spiegelbildliche Verhalten der jährlichen Sonnenaktivität (obere, gelbe Kurve) und der Häufigkeit der zu Extremwetter neigenden „meridianen“ oder „meridionalen“ Lagen im September (untere, graue Kurve). Die für den September eigentlich typischen, gemäßigten West- und Zentralhochlagen werden neuerdings hingegen seltener; ob sich dieser Trend fortsetzt, bleibt abzuwarten. Hinweis: Die Sonnenfleckenanzahl bildet die eigentliche Sonnenaktivität (Magnetismus, UV- und Röntgenstrahlung, Radiostrahlung und „Sonnenwind“) nur grob ab; sie ist jedoch als einzige Größe über lange Beobachtungszeiträume sicher verfügbar.

Bislang führte die „Meridionalisierung“ der Strömungsverhältnisse zwar zu mehr Extremwetter im September, aber noch nicht zu einer Abkühlung, weil dank der AMO- Warmphase Südwetterlagen begünstigt werden. Sollte die AMO- Warmphase enden, was man für die nahe Zukunft vermuten, aber nicht sicher vorhersagen kann, so könnte es zu einer Abkühlung kommen. Die von den meisten Solarphysikern für die kommenden Jahrzehnte vorhergesagte geringe Sonnenaktivität macht wenig Hoffnung auf eine baldige, anhaltende Rückkehr der „normalen“ Witterungsverhältnisse im September. In einzelnen Jahren oder Phasen dürfte es trotzdem ganz normale Witterungsabläufe geben; es ändern sich nur die Häufigkeitsverhältnisse.

Nachtrag: Am Tage der Fertigstellung dieses Beitrages, dem 19. September 2016, sollte in den Thüringer Weingütern Weimar und Bad Sulza die Lese beginnen. Sie musste bei kalten 10 bis 12 Grad und Dauerregen abgebrochen werden. Vor kaum einer Woche wurden dort bei knalliger Sonne noch 30 bis 33 Grad gemessen… .

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher