1

„Trump-Effekt“ unterminiert die Unterstützung grüner Energie in Deutschland

Mother Jones glaubt, dass die US-Wahlen so hohe Wellen geschlagen haben, dass diese bis nach Deutschland geschwappt sind. Diese Wellen helfen dem Aufstieg der AfD in Deutschland und unterminieren die Unterstützung für Grüne Energie. Aber vielleicht hat die Arbeiterklasse einfach nur die Nase voll von elitären Links-Politikern und Institutionen, die die Prioritäten er Arbeiterklasse ignorieren.

Wie der „Trump-Effekt“ die Saubere Energie-Revolution in Deutschland unterminiert

Aaron Wiener, 29. Dezember 2016

Bei den Wahlen in Deutschland hat die Rechte eine bekannte Anti-Immigranten und Pro-Kohle-Agenda.

Die weltweit am weitesten fortgeschrittene Energie-Revolution ist auf ein Hindernis gestoßen: Den Trump-Effekt.

Deutschland war lange Zeit ein Pionier bzgl. sauberer Energie. Trotz der Tatsache, dass die Sonne dort kaum scheint, war das Land der Weltführer bei installierter Solar-Kapazität, bis es im vorigen Jahr von China überholt worden ist, einem viel größeren und sonnigeren Land. Bis zum Jahr 2050 peilt Deutschland an, bis zu 80% seines Stromes aus erneuerbaren Quellen zu erzeugen und die Emissionen von Treibhausgasen um bis zu 95% zu senken. Gegenwärtig stammt ein Fünftel der Energie aus Wind und Solar (und ein Drittel insgesamt aus Erneuerbaren) im Vergleich zu 5% in den USA. Obwohl diese dramatische Energiewende zu höheren Stromkosten der Haushalte beigetragen hat, sagen 90% der Deutschen, dass sie dahinter stehen.

Seit Jahren standen die politischen Parteien des Mainstreams in Deutschland hinter sauberer Energie. Aber dieser breite Konsens könnte bald vor einem bedeutenden Test stehen, ein weiteres mögliches Opfer des Wiederauflebens rechter, nativistischer Politik in der gesamten Westlichen Welt. Anders als in vielen seiner Nachbarländer gab es in Deutschland keine Rechtspartei mit Abgeordneten im Parlament seit dem Zweiten Weltkrieg. Aber das wird sich dieses Jahr fast mit Sicherheit ändern, wenn Bundestags-Wahlen die Alternative für Deutschland AfD zur zweit- oder drittstärksten Kraft machen, falls sich die Umfragewerte stabilisieren. Die Partei, die als euroskeptische Bewegung anfing, begründet ihren Erfolg auf einer stringenten Opposition gegen Einwanderung und Erlaubnis für Flüchtlinge – und auf einer Rhetorik, die wie ein Echo der Kampagne von Donald Trump daherkommt.

Die AfD ist auch gegen die Politik bzgl. sauberer Energie in Deutschland. Sie fordert ein Ende des Gesetzes hinter der Energiewende [EEG] und stellt sogar einen vom Menschen induzierten Klimawandel in Frage, heißt es doch auf deren Website: „Wissenschaftliche Forschung der langzeitlichen Entwicklung des Klimas aufgrund menschlicher CO2-Emissionen steckt voller Unsicherheiten“* In dem Bemühen, den rapiden Aufstieg der AfD zu bremsen, könnten sich die Mainstream-Parteien des Landes gezwungen sehen, im Kampf gegen die globale Erwärmung einen Schritt rückwärts zu gehen.

[*Rückübersetzung aus dem Englischen. Ich habe den Original-Wortlaut nicht gefunden. Anm. d. Übers.]

Mehr: http://www.motherjones.com/environment/2016/12/germany-clean-energy-coal-trump-effect

Ich selbst stamme aus der Arbeiterklasse, und viele meiner Freunde gehören der Arbeiterklasse an. Mit den Jahren habe ich verfolgt, wie verschiedene Linksparteien wie Labor und Demokraten zum Spielball der urbanen Eliten und zu Champagner-Sozialisten wurden. Ich habe die wachsende Betroffenheit und den wachsenden Ärger verfolgt, weil links-elitäre Politiker in Mode stehende grüne Bemühungen unterstützten, die Preise von Energie in die Höhe zu treiben und die westlichen Länder mit billiger Immigranten Arbeit zu überschwemmen, ohne Rücksicht auf die Schmerzen, die diese Bemühungen ihren zunehmend desillusionierten Unterstützern aus der Arbeiterklasse zufügte.

Trump hat die Wut der Arbeiterklasse nicht ausgelöst, sondern er hat einfach eine Lösung für ihre Probleme angeboten, eine neue Richtung. Die AfD hat nicht die Wut der deutschen Arbeiterklasse ausgelöst, sondern einfach die Probleme beim Namen genannt und versprochen, sie anzupacken. Der „Trump-Effekt“ ist einfach das Ende der Geduld der Arbeiterklasse mit privilegierten Linkspolitikern, die keine Ahnung hinsichtlich der Schäden haben, die ihre ignoranten internationalistischen grünen Träume den Menschen zugefügt haben, die zu fördern sie behaupten im Sinn zu haben.

Für Deutschland zeichnete sich so etwas schon lange vor Trump ab, wie dieses urkomische Video aus dem Jahr 2014 zeigt:

Video nicht mehr verfügbar

Link: https://wattsupwiththat.com/2016/12/31/mother-jones-trump-effect-undermining-support-for-german-green-energy/

Übersetzt von Chris Frey EIKE




Dezember­rückblick: Christmonat neuerdings ohne Erwärmungs­geschenke

Und der Dezember 2016 ordnete sich wieder ein in die lange Reihe durchschnittlicher Dezembermonate mit teilweise kalten Nächten, aber tagsüber auch angenehmen Temperaturen. Wie erwartet, fiel mitunter auch Schnee, der aber im Flachland nicht beständig war. Der Deutsche Wetterdienst gibt diesen Dezember mit 2,1 °C im Schnitt an.

Im Folgenden wollen wir untersuchen, wie sich dieser Dezember in eine längere Vergleichsreihe einordnet und wie der Monat sich über die letzten drei Jahrzehnte, seitdem es den Weltklimarat gibt, verhalten hat. In diesen drei Jahrzehnten ist der CO2-Gehalt der Atmosphäre bekanntlich stark gestiegen, sagt der Weltklimarat und das sagen wir auch. Und es wird von den Erwärmungsgläubigen behauptet, dass die Winter und damit auch der Dezember immer wärmer würden.

Zur Überprüfung dieser postfaktischen Aussagen der Erwärmungsgläubigen nehmen wir zunächst einen über hundertjährigen Zeitraum: Auf der y-Achse sind die Temperaturen, auf der x-Achse die Jahre aufgetragen. Die einzelnen Dezembertemperaturen sind der Schnitt aus den DWD-Messstationen über ganz Deutschland verteilt. Allerdings hatten wir zu Beginn des 20. Jahrhunderts ein ganz anderes Deutschland als heute. Man lebte im wilhelminischen Kaiserreich Ein kurzer Blick in den Atlas genügt, die Stationen standen an ganz anderen Plätzen, vor allem mit viel weniger Einwohnern.

Abb. 1: In den letzten 107 Jahren ist der Monat Dezember laut Deutschem Wetterdienst kaum wärmer geworden, obwohl in diesem Zeitraum die CO2-Konzentrationen von 280 ppm auf 400 ppm gestiegen sind. Die Durchschnittstemperatur des Dezembers beträgt 1,1 C seit 1909

Der Monat Dezember zeigt einen ähnlichen Verlauf wie die anderen Monate. Zu Beginn des letzten Jahrhunderts wurde es zunächst bis über die Jahrhundertmitte hinaus kälter, erst danach wurde der Monat wieder wärmer, und er erreichte 2015 mit 6,5 C seinen Höchststand. Natürlich ist zu beachten, dass wir vor über 100 Jahren ein ganz anderes Deutschland hatten, die Wetterstationen standen noch an ganz anderen Plätzen als heute. Unbeheizte Klöster, Forststationen am Waldrand, Köhlereien im Wald oder Fischteiche vor den Toren der Städte gibt es nicht mehr und die Städte selbst waren kleiner und weniger beheizt als heute. Der Energieverbrauch – eigentlich eine Energieumwandlung in Wärme – war ungleich geringer als heute. Aber für diese gesellschaftlichen Änderungen, die letztlich zu einer schwierigen Vergleichbarkeit geführt haben, ist der Deutsche Wetterdienst nicht verantwortlich. Der DWD sollte bei Presseveröffentlichungen nur stets erwähnen, dass die Temperaturwerte nur mit Vorsicht zu vergleichen sind, und dass es für eine Aussage, dass diese in Grafik 1 dargestellte unbedeutende Dezembererwärmung allein der anthropogenen CO2-Zunahme geschuldet sei, überhaupt keine Beweise gibt. Schließlich wisse man ja nicht wie der tatsächliche Kurvenverlauf wäre, hätte sich Deutschland seit 100 Jahren überhaupt nicht verändert und würden alle Messstationen noch am gleichen kalten Ort stehen.

Doch betrachten wir im folgenden kürzere Zeitabschnitte, in denen die menschengemachte Änderung der Natur und Umwelt Deutschlands, die Versiegelung der Erdoberfläche, die Bebauung und der wärmende Einfluss auf die DWD-Messstationen weniger zum Tragen kommt.

Abb.2: Keinesfalls hat die Erwärmung stärker zugenommen bei den letzten 43 Dezembermonaten seit 1974. Im Gegenteil der Trendlinienanstieg fällt moderat aus, was auch schon aus Grafik 1 ersichtlich ist. Lediglich der „warme Ausreißer“, der Dezember 2015 fällt auf.

Und diese Tendenz der Temperaturstagnation setzt sich fort, wenn wir schließlich einen noch geringeren Zeitraum betrachten: Die Dezembermonate seit 1985:

Abb.3: Die Temperaturen in den letzten 32 Dezembermonaten sind nahezu gleich geblieben. Die Trendlinie zeigt einen unbedeutenden nicht signifikanten Dezemberanstieg.

Die nach 1945 weggefallenen Wetterstationen aus dem Osten des Deutschen Reiches wurden nach 1945 durch ähnliche im Westen ersetzt. Eine davon ist Schneifelforsthaus an der belgischen Grenze. Die Station liegt in der Eifel an einer Kreuzung zweier großer Straßen, aber sonst mit geringer Umgebungsänderung während der letzten Jahrzehnte. Es ist also eine ländliche wärmeinselarme Station.

Abb.4: Die braun gezeichneten Deutschlandtemperaturen liegen etwas höher als die blauviolette Trendlinie der ländlichen Station Schneifelforsthaus. Die Temperaturunterschiede jedoch blieben in den letzten 32 Jahren fast gleich. Das zeigen die Trendlinien. Die DWD-Stationen haben einen nicht signifikanten Erwärmungstrend und Schneifelforsthaus blieb unverändert, so dass sich die beiden Enden der Trendlinien nur unmerklich öffnen.

In manch anderen Regionen der Nordhalbkugel verlief die Entwicklung ähnlich, so auch in Nordjapan:

Abb. 5: Kaum Dezember- Erwärmung seit 30 Jahren (klimatisch relevanter Zeitraum) in der ehemaligen Winterolympiastadt Sapporo.

Die Ergebnisse der beiden letzten Abbildungen entsprechen unseren früheren Veröffentlichungen und den Aussagen, dass die Entwicklung der Wärmeinselunterschiede im Winter kleiner ist als im Sommer. Siehe Grafiken 2 und 3 bei: http://www.eike-klima-energie.eu/2016/12/21/auch-in-den-usa-ist-der-waermeinseleffekt-wi-nachweisbar/

Der Winter fand im Dezember 2016 woanders statt

Eine riesige, nur selten unterbrochene Hochdruckzone über Mittel- und Südosteuropa sorgte in Deutschland für teils eisige Nächte, sonnig- milde Tage, fehlenden Schnee sowie einen neuen Monatsmittelrekord des Luftdrucks. Doch Kaltluft strömte dafür nach Kleinasien, in den westlichen Mittelmeerraum und teils nach Nordafrika. Im Folgenden 2 typische Wetterlagen und einige Fotos, welche belegen, dass dieser Dezember nicht überall so mild war, wie in Großbritannien, Norddeutschland und in Teilen Skandinaviens:

Abb. 6 bis 8: Ein Hoch über Südosteuropa lenkt Kaltluft nach Kleinasien (Quelle: DWD). Dezemberkälte in Anatolien und abendliches Schneetreiben im normalerweise milden Istanbul (Quelle: wetteronline/anatolien 86 und Burak Boztepe.

Um den 20.12. sorgte ein Mittelmeer-Tief für starke Schneefälle in Norditalien, und sogar in der algerischen Sahara fiel erstmals seit 37 Jahren kurzzeitig Schnee:

Abb. 9 bis 11: Wetterlage am 21.12.2016 (Quelle: Metoffice); nächtliches Schneegestöber in Norditalien (Quelle: Marco Kaschuba/wetteronline), und algerischer Wüstenschnee (Quelle: Journal Alternative Medien).

Und wer hierzulande bislang den Winter vermisst hat, braucht vermutlich nicht mehr lange zu warten. Der Januar 2017 könnte zeitweise überraschend kalt und gebietsweise schneereich ausfallen.

Schlussbemerkung: Dieser Beitrag ist eine Ergänzung des kürzlich auf diesem Blog erschienenen Beitrags von Stefan Kämpfe. In diesem hat Kämpfe mehr das Wettergeschehen im Dezember 2016 im Blick gehabt sowie eine Vorschau aus statistischer Sicht über den weiteren Verlauf dieses Winters, während es in diesem Beitrag mehr um die Temperatur im Dezember geht.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Hat Kolumbus versehentlich die kleine Eiszeit angestoßen? So mancher Professor ist davon überzeugt

        Die kleine Eiszeit

Es handelt sich dabei um die Abkühlungsperiode nach der mittelalterlichen Warmzeit, welche mit dem Beginn des AGW-Klimawandels endete. Wie immer beim Klimawandel, sind viele Daten dazu umstritten, deshalb nur der Versuch einer kleinen, informativen Darstellung.

WIKIPEDIA: Die Kleine Eiszeit war eine Periode relativ kühlen Klimas von Anfang des 15. Jahrhunderts bis in das 19. Jahrhundert hinein. Sie gilt in der heutigen Klimadiskussion als das klassische Beispiel einer durch kurzfristige Schwankungen geprägten natürlichen Klimavariation.
Auch
während der Kleinen Eiszeit gab es erhebliche Klimaschwankungen; zum Beispiel waren die Zeiträume von 1570 bis 1630 und von 1675 bis 1715 besonders kalte Zeitabschnitte
Der Kleinen Eiszeit ging eine Periode voraus, die als mittelalterliche Warmzeit bezeichnet wird; sie ist inzwischen weltweit nachgewiesen. Regional und zeitlich unterschiedlich gewichtet lagen die Temperaturen während der Kleinen Eiszeit global um bis zu 0,8 K niedriger als während der vorangegangenen Jahrhunderte, in einigen europäischen Regionen auch 1 bis 2 K. Während der Mittelalterlichen Warmzeit zog sich zum Beispiel im nördlichen Atlantik das Packeis nach Norden zurück, und die Landgletscher verschwanden teilweise. Diese Erwärmung erlaubte es den Wikingern, Island (seit etwa 870) und Küstenbereiche von Grönland (seit 986) zu besiedeln.
Die Kleine Eiszeit war eine Erdabkühlung, die mit regionalen und zeitlichen Schwerpunkten weltweit auftrat und für Europa,
Nordamerika, Russland und China und auch für Arktis und Antarktis (in letzterer durch polare Eisbohrkerne) nachgewiesen ist. … Das Gletscherwachstum während der sogenannten „Kleinen Eiszeit“ war das stärkste seit der langandauernden Vereisung der letzten Eiszeit

Wie immer beim Klimawandel, schwanken die Angaben erheblich. Beim wiki Bildunggserver steht dazu:
Kleine Eiszeit
Die genaue Datierung der kleinen Eiszeit ist unter Forschern zwar nicht einheitlich, es steht jedoch fest, dass etwa zwischen 1300 und 1900 n. Chr. insgesamt kühlere Umweltbedingungen herrschten …
Den Beginn der kleinen Eiszeit stellt eine abrupte Abkühlung der Sommer im Zeitraum 1275-1300 dar … Von 1430-1455 intensivierte sich der Kälteeinbruch weiter und die Temperaturen in ganz Europa nahmen weiter ab… Der kälteste Abschnitt der kleinen Eiszeit wurde etwa um 1550 erreicht

Wer oder was verursachte die kleine Eiszeit

WIKIPEDIA:
Als Ursachen für die Kleine Eiszeit gelten hauptsächlich eine geringere Aktivität der Sonne sowie ein verstärkter Vulkanismus. Für Wiederbewaldung, die durch Bevölkerungsrückgang oder durch regionale Klimaänderungen hervorgerufen worden sein könnte, sowie veränderte Meeresströmungen wird eine verstärkende Rolle vermutet. Zusätzlich zu diesen über Zeiträume von Jahrzehnten wirkenden Einflüssen gab es einen geringen, über Jahrtausende reichenden Abkühlungstrend, der durch Änderungen der Erdumlaufbahn bewirkt wurde.
Wiederbewaldung infolge von Bevölkerungsrückgang
Ruddiman (2003)
schlug die Hypothese vor, dass massiver Bevölkerungsrückgang zu einer Wiederbewaldung geführt haben könnte. Diese hätten genug Kohlenstoff aus der Luft gebunden, um durch die daraus resultierende Verringerung der CO2-Konzentrationen die kleine Eiszeit auszulösen. Ruddiman vermutet speziell die Pestepidemien des späten Mittelalters als Auslöser. Es wurde auch vermutet, dass durch den massiven Bevölkerungsschwund auf den amerikanischen Kontinenten, ausgelöst durch von Europäern eingeschleppte Krankheiten, die zuvor genannten Ursachen noch verstärkt wurden.
Nach der Dezimierung der Bevölkerung in Amerika um ca. 95 % wurden große Teile von zuvor mit Feuer gerodeten Ackerflächen wiederbewaldet, wodurch Schätzungen zufolge
2 bis 5 Gigatonnen Kohlenstoff aus der Atmosphäre gebunden worden sein könnten. Das entspricht ca. 4 bis 14 % eines Rückgangs der CO2-Konzentrationen um 7 ppm, der in den Zeitraum 1550–1750 fällt. Der daraus resultierende verringerte Treibhauseffekt hätte zu der 0,1 K kühleren Periode in dem Zeitraum geführt.

Die „Indianer-Hypothese“

Eine Quelle für die „Indianer-Hypothese“ ist beispielsweise:
SCIENCE NEWS, October 13, 2011, Devin Powell: [2] Columbus‘ arrival linked to carbon dioxide drop, Depopulation of Americas may have cooled climate

Trees returned, reforesting an area at least the size of California, Nevle estimated. This new growth could have soaked up between 2 billion and 17 billion metric tons of carbon dioxide from the air.

Ice cores from Antarctica contain air bubbles that show a drop in carbon dioxide around this time. These bubbles suggest that levels of the greenhouse gas decreased by 6 to 10 parts per million between 1525 and the early 1600s.

Ein Artikel darüber erschien in:
TELEPOLIS, 18. Oktober 2011, Peter Mühlbauer: [4] Kleine Eiszeit“ durch Bevölkerungsschwund in Amerika?
Der Geochemiker Richard Nevle sieht im Regenwaldwachstum nach der Conquista einen möglichen Grund für die häufigen Missernten, die Europa zwischen 1550 und 1850 verbuchte.
Bisher wird diese Kleine Eiszeit unter anderem mit einem Rückgang der Sonnenaktivität, einer Verdunkelung durch Vulkanausbrüche und Veränderungen in Meeresströmungen erklärt. Nevle geht davon aus, dass durch die natürliche Wiederaufforstung zwischen 2 und 17 Milliarden Tonnen Kohlendioxid gebunden wurden, was seiner Ansicht nach ausgereicht haben könnte, um den Rückgang des Kohlendioxidanteils um sechs bis zehn Teile pro Million zu erklären, der sich zwischen 1525 und 1600 in eingefrorenen Luftblasen im Antarktiseis feststellen lässt. Dieser Rückgang des Kohlendioxidanteils könnte Nevle zufolge den Treibhauseffekt spürbar vermindert und damit maßgeblich zur Abkühlung der Erde beigetragen haben.

Der Verlauf der kleinen Eiszeit

Im Bild 1 kann man die kleine Eiszeit sehen. Diese geringe Temperaturverringerung (schwarze Linie) verursachte katastrophale Missernten – ein deutlicher Hinweis, dass eher Kälte als Wärme für die Welt ein Ernten-Ertragsproblem darstellt. Bild 2 zeigt dazu den CO2-Verlauf der Atmosphäre. Dieser ist als rote Linie in das Bild 2 hineingezeichnet.

Die rot gestrichelten Zeit-Begrenzungen kennzeichnen die Zeitspanne des „Indianer-Klima-Einflusses“.

Bild 1 Temperaturproxis Klimaverlauf Jahr 1 – 2000, Quelle: IPCC AR5 von 2013, Figure 5.7 (Bildausschnitt), vom Autor angegraut. Temperaturverläufe verschiedener Rekonstruktionen der Nordhemisphäre von 700 – 2000. Quelle: IPCC AR4 2007: Figure 1. Die globale Mittelwertkurve aus der Darstellung IPCC AR5, Land und See global wurde vom Autor verstärkt dargestellt (dicke, schwarze Verlaufskurve). Die zwei rot gestichelten, vertikalen Linien kennzeichnen den Zeitraum von 1525 – 1700. Die dicke, rote Verlaufskurve zeigt den CO2-Verlauf (maßstabslos) von 1000 – 2000 (vom Autor aus Bild 2 entnommen)

Bild 2 Verlauf des CO2-Anteils in der Atmosphäre von 1000 – 2000.Quelle: [4] WUWT, Text: this citation in Wikipedia: Law Dome ice cores show lower levels of CO2 mixing ratios during 1550-1800 AD, leading investigators Etheridge and Steele to conjecture “probably as a result of colder global climate”.

Wiederholung: Die „Indianer-Einfluss“ Hypothesen

Anmerkung: Auf WIKIPEDIA wird auch über die Hypothese der Europäischen Bevölkerungsdezimierung berichtet (Ruddimann). Aus bestimmten Gründen wird hier jedoch nur auf die Hypothese des amerikanischen Kontinents eingegangen.

WIKIPDIA:
… wodurch Schätzungen zufolge 2 bis 5 Gigatonnen Kohlenstoff aus der Atmosphäre gebunden worden sein könnten. Das entspricht ca. 4 bis 14 % eines Rückgangs der CO2-Konzentrationen um 7 ppm, der in den Zeitraum 1550–1750 fällt. Der daraus resultierende verringerte Treibhauseffekt hätte zu der 0,1 K kühleren Periode in dem Zeitraum geführt.
(SCIENCE NEWS) TELEPOLIS:
… zwischen 2 und 17 Milliarden Tonnen Kohlendioxid gebunden wurden, … um den Rückgang des Kohlendioxidanteils um sechs bis zehn Teile pro Million zu erklären, der sich zwischen 1525 und 1600 in eingefrorenen Luftblasen im Antarktiseis feststellen lässt.

Sichtung der Hypothese, die Reduzierung der Indianerpopulation hat die kleine Eiszeit mitverursacht

WIKIPEDIA

Bereits auf WIKIPEDIA werden gleich nach der Listung der Hypothesen diese wieder eingeschränkt:

WIKIPEDIA:
Der Rückgang an Bränden in Amerika begann jedoch bereits ab 1350, der stärkste Rückgang an verbrannter Biomasse wurde gerade in Regionen Amerikas mit geringer Bevölkerungsdichte und spätem Kontakt zu den Europäern lokalisiert. Gefundene Kohlereste korrelieren dagegen gut mit den zeitlich und räumlich uneinheitlichen Klimaschwankungen der Kleinen Eiszeit.
Daraus schließen andere Autoren, dass nicht der Bevölkerungsschwund, sondern lokale Klimaschwankungen Hauptursache für die Wiederbewaldung waren. Insgesamt gibt es im Holozän global keine hohe Korrelation zwischen Bränden und CO
2-Konzentrationen. Der Rückgang der CO2-Konzentrationen werde anderen Forschern zufolge eher durch die CO2-Aufnahme in Mooren und Ablagerung von Calciumcarbonat in flachen Gewässern erklärt.

CO2-Daten

Es ist festzustellen, dass die Angaben je nach Autor stark schwanken, sowohl in der Zeitangabe, wie auch beim CO2-Entzug der Atmosphäre.
Obwohl in beiden Fundstellen ca. 7 ppm CO2-Änderung gelistet werden, sind die Angaben zum äquivalenten CO2 nicht stimmig und vor allem auch nicht plausibel.

Abschätzung zur CO2-Konzentration:
Lt. WIKIPEDIA verursacht ein anthropogener Eintrag von 36,3 Gt CO2 / pa eine Erhöhung von 1,4 ppm.
Eine Differenz von 7 ppm benötigt somit ca. 181 Gt CO2-Änderung.
Angegeben sind dafür jedoch:
Bei „TELEPOLIS“ 2 … 17 Gt CO2, also weit weniger als ein Zehntel des benötigten Emissionsgewichtes!
Bei WIKIPEDIA: Die angegebenen 2 bis 5 Gigatonnen Kohlenstoff entsprechen umgerechnet 7,3 … 18,4 Gt CO2.
Kohlendioxid in der Atmosphäre: 1 t Kohlenstoff entspricht 3,67 t Kohlendioxid.

In den folgenden Betrachtungen wird diese enorme Datendiskrepanz (welche die Hypothese von vornherein ausschließen würde) nicht berücksichtigt, sondern angenommen, der anthropogen verursachte CO2-Entzug von 7 ppm Differenz würde stimmen.

Der Einfluss der 7 ppm CO2-Minderung

Als (mit-) verursachend für die Kleine Eiszeit wir eine CO2-Reduzierung um 7 ppm (Basis: 280 ppm) angegeben. Das ergäbe eine Temperatur-Veränderung (bei sprunghafter Reduzierung!) von ca. 0,11 Grad nach IPCC-Forcing (3 Grad / Verdopplung), wie bei WIKIPEDIA angegeben. Bei realistischem Forcing (maximal 1 Grad / Verdopplung) allerdings nur von 0,035 Grad. Der verschwindend geringe Einfluss ist damit schon rechnerisch erkennbar. Die (eher unwahrscheinlichen) 0,1 Grad sind im Bild 1 und Bild 3 eingezeichnet, um die Größenordnung zu zeigen.

Dabei muss aber berücksichtigt werden, dass die +7 ppm CO2-Reduzierung nicht auf einmal als Impuls entstanden, sondern über den Zeitraum von ca. 150 Jahren. In diesem Zeitraum ist jedoch ein erheblicher Anteil schon wieder natürlich ausgeglichen, da CO2 in der Atmosphäre eine Verweilzeit von ca. 100 Jahren hat (Anmerkung: Herr Lesch gibt die 100 Jahre CO2-Verweildauer in einem seiner Videos ebenfalls an).

Eine überschlägige Abschätzung ergibt dann jedoch die folgenden Einfluss-Daten.
Annahmen:
-Die CO2-Reduzierung erfolgt linear fallend über den 150 Jahre-Zeitraum (erst nach 150 Jahren sind -7 ppm erreicht),
-in jedem Folgejahr wird wieder ein 100tel des Vorjahreswertes ausgeglichen.
Dann beträge die verbleibende CO2-Reduzierung nach 150 Jahren lediglich ca. -2 ppm und der richtige Temperaturbeitrag zwischen: -0,03 … -0,01 °C.
Die Temperaturveränderung kann also maximal zwischen -0,01 … -0,1 °C, mit sicherer Tendenz zum niedrigeren Wert betragen haben. Die Annahme, es waren maximal um die – 0,01 … 0,03 °C, dürfte eher richtig sein, als die 0,1 Grad-Hypothese. In den Publizierungen wird dies jedoch nicht berücksichtigt.
Anmerkung: Dass die 7 ppm Änderung nach den Gewichtsangaben sich auf nur 0,7 ppm reduzieren, sich der Temperatureinfluss damit nochmals auf 1/10tel reduzieren könnte, sei dahingestellt.

Der zeitliche Verlauf

Bild 1 (und Bild 3) zeigen, dass angegebenen Zeit 1525 laut dem CO2-Proxi das CO2 schnell reduziert, die Temperatur aber je nach Rekonstruktion zuvor oder kurz danach zunimmt. Auch der CO2-Gehalt verhält sich nicht wie in der Hypothese angegeben, er nimmt nämlich mit dem Jahr 1600 ebenfalls wieder zu und nicht erst nach 1750.
Auch erfolgt die CO2-Reduzierung praktisch als Impuls, was mit der „Indianertheorie“ aber nicht erklärbar ist.

Bild 3 [7] Rekonstruktionen verschiedener Atmosphärengase vom Jahr 0 – ca. 1800

Genauigkeit der historischen CO2-Rekonstruktion

Ob man dazu die CO2-ppm Wert-Verläufe von damals wirklich mit ausreichender Genauigkeit rekonstruieren kann, um die 7 ppm CO2-Veränderung festzustellen und zeitlich zuzuordnen, bleibt fraglich, Begründung:
EIKE:[5] Eisbohrkerne und Pflanzenstomata: Der historische CO2 Gehalt der Atmosphäre war oft deutlich höher als 280 ppm! (Anmerkung: Ein auch heute immer noch lesenswerter Beitrag)
Bild 4 zeigt daraus verschiedene CO2-Rekonstruktionen über den relevanten Zeitraum. Der CO2-Wert hängt von der Rekonstruktionsart ab. Die (übliche) Rekonstruktion durch Eisbohrkerne neigt danach mindestens zum starken Mitteln und zur Anzeige niedriger Werte.

Bild 4 [5] Verschiedene CO2-Rekonstruktionen. Weiße Linien kennzeichnen ca. -7 ppm Differenz. Die gelben, vertikalen Linien kennzeichnen den Zeitraum von 1575 – 1700

Genauigkeit historischer Temperatur-Rekonstruktion

Es ist wieder auffallend, welche unglaubliche Datenpräzision angegeben wird:
Der daraus resultierende verringerte Treibhauseffekt hätte zu der 0,1 K kühleren Periode in dem Zeitraum geführt“.
Im Bild 3 ist schon erkennbar, wie weit sich alleine die zwei Rekonstruktionen (blaue-, grüne-Kurve) im Zeitraum 1000 (mittelalterliche Warmzeit) bis 1600 (Minimum der Temperatur) unterscheiden:
Rekonstruktion „Mann …“: -0,9 Grad,
Rekonstruktion „Moberg at al.“: Ca. -0,3 Grad

Es ist nicht möglich, daraus eine Temperaturdifferenz zwischen 0,01 … 0,1 Grad zu detektieren und einer Ursache zuzuordnen.

Wie (un-) genau misst man heute

Genauigkeit der aktuell gemessenen Globaltemperatur
Eine super-moderne, sorgfältig geeichte und eingerichtete Temperaturmessstation misst auf +-0,2 °C genau. Trotzdem listen die heutigen Globaltemperatur-Angaben der verschiedenen Institute für das Jahr 2015:
GISS: 0,86 °C;
HadCRUT: 0,727 °C;
NOAA: 0,9 °C.
Spanne: 0,173 °C.

Genauigkeit der Temperaturangaben um die Zeit der kleinen Eiszeit

In einer Publizierung wurden dazu einst einiges an Beispielen zusammengetragen:
EIKE [6] Die Problematik der Temperaturrekonstruktion.

Daraus Beispiele, wie es mit den Daten um 1500, während der relevanten Zeit in der kleinen Eiszeit aussieht.

Die Rekonstruktionen Nordamerika und Südamerika des aktuellsten und größten internationalen Proxi-Rechercheprojektes, Pages2k sehen wie folgt aus:

Bild 5 Proxis Nordamerika. Quelle: Active viewer for the Pages2K proxies

 

Bild 6 Proxis Südamerika. Quelle: Active viewer for the Pages2K proxies

Leider ist im Pages2k-Viewer keine absolute Temperaturdimension angegeben. Aber alleine aus den Verlaufsrekonstruktionen versuche man abzulesen, dass zwischen 1550 und 1700 sich die Temperatur aufgrund eines neu auftretenden Einflusses nochmals verringert hat. Da die verursachende Quelle in Amerika gewesen sein soll, sollte es sich dort ja am ehesten im Temperaturverlauf zeigen.

Im Bild 7 nochmals die Darstellung der IPCC-Rekonstruktion „Nordhemisphere“ mit Temperaturachse. Auch darin versuchen, eine (zum normalen Temperaturverlauf) zusätzliche Verringerung um weniger als 0,1 °C ab 1550 zu detektieren. Computer können das (auch nicht). Aber niemanden stört es, wenn es behauptet wird.

Bild 7 Temperaturverläufe verschiedener Rekonstruktionen der Nordhemisphäre. Quelle: IPCC AR4 2007: Figure 1

Kann man der „Indianer-Hypothese“ damit glauben

Bei der „Indianerhypothese“ passt wirklich überhaupt nichts zusammen. Weder die Größenordnung des Forcings, bzw. der Temperaturveränderung, die Zeiten, noch die Verläufe und deren Korrelation. Tatsache ist: Alle Daten widersprechen ihr. Trotzdem wurde es publiziert und weiterhin zitiert.

Wie so oft, wenn man in den AGW-Klimawandel „hineinsticht“: (fast) nichts ist genau bekannt, es gibt aber viele Vermutungen trotz unplausibelster Daten, die aber regelmäßig zitiert werden und mit häufigerem Zitieren dann immer mehr zur „Wahrheit“ mutieren.

Das ist auch auf WUWT aufgefallen. Dort wurde die Veröffentlichung damals diskutiert:
WUWT: [4] New science field: “paleoblameatology
Some days you just have to shake your head and say to yourself that there’s irrational fixation on CO2 that has deep roots in the psyche when we see things like this. The 10:10 video was proof enough, but now we have “paleoblameatology” entering the picture to explain the Little Ice Age.
Meet Christopher Columbus, who had his day this week, but who has gone in the same week from being lauded explorer to destroyer of Europe’s climate by being a catalyst. From Stanford via
Science News, of all places.
It boggles the mind
[2]

Eine Vermutung geht dem Autor nicht aus dem Sinn: Die Professoren hatten ihr Publikationssoll vielleicht nicht erfüllt, weshalb sie unbedingt noch schnell etwas veröffentlichen mussten. Das machten sie auch. Um die Fachkollegen aber darauf hinzuweisen, dass diese „Vermutungshypothesen“ nur zur Erfüllung der Publikationszahl dienen, aber bitte nicht verwendet werden sollen, mit so falschen und übertriebenen Angaben, dass jeder – der mitdenkt – es sofort erkennen muss, die Administration es jedoch nicht bemerkt.
Leider funktioniert dies beim Klimawandel nicht. Denn wenn es den vom Menschen gemachten Einfluss bestätigt, kann nichts hanebüchen genug sein, um nicht von Gläubigen sofort aufgenommen und zitiert zu werden.

Herr Professor Lesch ist überzeugt, dass es die Ursache gewesen ist

Man kann solche hypothetischen und allen Daten widersprechenden „Erklärungen“ kritisch rezensieren, um auf die eklatant mangelhafte Qualität vieler Klimastudien und -Hypothesen – in denen teils reinste Vermutungen und Visionen als „belegbar“ in den Raum gestellt werden – hinzuweisen.
Aber solche als von einem Fachmann geprüfte Wahrheit dem staunenden Publikum erzählen, trauen sich wohl nur wenige.

Einer davon ist der Bayerische Klimawandel-Prophet und Klimaberater der Bayerischen Landesregierung, Prof. Harald Lesch.
In seinem Video, Link: Frag den Lesch – Steht uns eine kleine Eiszeit bevor?, kann man es nachhören.

Bild 8 Screenshot (Auszug) Video: Frag den Lesch – Steht uns eine kleine Eiszeit bevor? .Quelle YouTube, veröffentlicht 26.10.2015

Video, H. Lesch (etwas Grammatik und Zeichensetzung vom Autor zugefügt): [1] … es gab sicherlich andere Gründe, weshalb es zu einer allmählichen Abkühlung gekommen ist. Unter anderem sogar sind das Vorgänge, die sich in Nordamerika abgespielt haben. Durch die ziemlich dramatische Veränderung der Bevölkerung in Nord- und Südamerika ist es zu einem Rückgang von Kohlendioxyd in der Atmosphäre gekommen. Ja, weil sich immer mehr und mehr Wälder gebildet haben denn die Indianerstämme sind von den Entdeckern ziemlich dezimiert worden, teilweise durch Krankheiten, teilweise durch Gewalt. Das hat dann dazu geführt dass ehemals landwirtschaftlich genutzte Fläche immer mehr und mehr von Wäldern übernommen wurde. Daraufhin wurde mehr und mehr Kohlenstoff in den Wäldern eingelagert und das führte zu einer Abkühlung, zusammen mit einigen Vulkanausbrüchen die damals ebenfalls zu einer allgemeinen Abkühlung geführt haben. Und dann war sozusagen eine Lawine angetreten. Wenn nämlich sich mehr Schneefelder bilden im Winter … die werden ja dann eben auch mehr Strahlung von der Sonne zu reflektieren. Das führt dazu, dass wieder mehr Strahlung im Universum landet, nicht auf der Erde, was wiederum zu einer Abkühlung führt. Und so gab es einen Kreislauf, der ungefähr bis Mitte des 19. Jahrhunderts dann durch unseren menschlichen Einfluss dann völlig konterkariert wurde. Seitdem wir richtig industrialisieren, beziehungsweise richtig fossile Brennstoffe verbrennen, haben wir eine … gibts da kein Halten mehr … haben wir jede Menge Entkopplung zwischen den natürlichen Zyklen, die wir schon lange kennen, haben wir alle längst abgelöst …

Fazit:

Wer will, frage weiterhin „den Lesch“. Aber glauben sollte man ihm nicht so einfach, zumindest wenn es um Klimathemen geht.
Man gewinnt den Eindruck, dass Herr Lesch den typischen Anfängerfehler macht und beim AGW-Klimawandel wirklich jeden – des in immensen Mengen, auch von Professorenkollegen hemmungslos publizierten Unsinns – für bare Münze nimmt und brühwarm weiter erzählt, wenn es nur seine immer erkennbarere Klimahysterie unterstützt.
Weitere Beispiele dazu:
EIKE 01.01.2016: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann
EIKE 27.12.2016: Harald Lesch, die Claudia Roth des Klimawandels: Glaubt einfach, was ich erzähle – Nachprüfen schadet nur!
EIKE 24.08.2016: Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?

Doch damit wird man eben Klimaberater, wenigstens der Bayerischen Landesregierung. Es bleibt abzuwarten, wann eine gute Position in einem bestimmt bald kommenden, bayerischen Klimainstitut dabei herausspringt. Das schützt die Bayerische Umweltministerin davor, mit zu viel Fachkompetenz konfrontiert zu werden. Der Bund macht es ja vor.

Quellen

[1] Video: Frag den Lesch – Steht uns eine kleine Eiszeit bevor? .Quelle YouTube

[2] SCIENCE NEWS, October 13, 2011, Devin Powell: Columbus‘ arrival linked to carbon dioxide drop, Depopulation of Americas may have cooled climate

[3] Energy & Environment, 18.2/2007, Ernst-Georg Beck: 180 Jahre atmosphärischer CO2-Gasanalyse mittels chemischer Methoden

[4] TELEPOLIS, 18. Oktober 2011, Peter Mühlbauer: „Kleine Eiszeit“ durch Bevölkerungsschwund in Amerika?
[4] WUWT October 14, 2011: New science field: “paleoblameatology

[5] EIKE 06. Januar 2011: Eisbohrkerne und Pflanzenstomata: Der historische CO2 Gehalt der Atmosphäre war oft deutlich höher als 280 ppm!
http://www.eike-klima-energie.eu/2011/01/06/eisbohrkerne-und-pflanzenstomata-der-historische-co2-gehalt-der-atmosphaere-war-oft-deutlich-hoeher-als-280-ppm/

[6] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

[7] C. M. F. Meure at al.: Law Dome CO2, CH4 and N2O ice core records extended to 2000 years BP

Mit dem Verlauf soll auch gezeigt werden, wie Angaben: „Begann zu Anfang des 15. Jahrhunderts“ und „global um bis zu 0,8 Grad niedriger“ bewertet werden müssen. Geht man nach der globalen Temperaturkurve, wurde es bereits ab dem Jahr 1000 kälter, und die Temperaturproxis reichen von +2 … – 2 K Differenz. Erst die Mittelung aus der Spaghettikurve der Proxis engt die hohen Temperatur-Spannen ein. Ob sie den Verlauf wirklich repräsentiert, sei dahingestellt.




Rundbrief der GWPF vom 30. 12. 2016

1) Skeptische Klimawissenschaftler kommen herein aus der Kälte

In der Welt der Klimawissenschaft kommen die Skeptiker aus der Kälte herein. Forscher, die die globale Erwärmung als eine geringere Sache betrachten als eine den Planeten zerstörende Kalamität glauben, dass die ins Amt tretende Trump-Regierung zulässt, dass sich ihre Ansichten entwickeln und sie gehört werden. Unter der Obama-Regierung war dies nicht der Fall, hat diese doch schlicht geleugnet, dass es überhaupt eine Debatte gibt. Jetzt, so sagen manche Wissenschaftler, könnte eine ehrlichere Annäherung vor der Tür stehen – und die Milliarden Dollar Steuergeld, die es unterstützen könnten. – James Varney, RealClearInvestigations, 30. Dezember 2016

2) Republikanische Staatsanwälte brennen darauf, Obamas Klima-Agenda abzuwickeln

Sobald der designierte Präsident Trump am 20.Januar sein Amt antritt, werden Staatsanwälte der Republikaner, die während der vergangenen acht Jahre die Klimawandel-Agenda der Obama-Regierung bekämpft hatten, eine neue Rolle spielen: nämlich die komplexen juristischen Bemühungen des republikanischen Präsidenten zu unterstützen, eben jene Agenda abzuwickeln. – Ben Wolfgang, The Washington Times, 26. Dezember 2016

3) Trump legt Maßnahmen bzgl. globaler Erwärmung auf Eis

Auf besonders festem Boden steht Trump beim Thema Klimawandel. Globale-Erwärmung-Alarmisten proklamieren, dass ihre düsteren Szenarien mit Sicherheit eintreffen werden, und sie hätten auch vollkommen recht, wenn das einzige die Temperaturen betreffende Kriterium Kohlendioxid-Emissionen wären. Aber viele andere Kriterien wirken auch auf das Klima (z. B. die Sonne), und die Wechselwirkungen zwischen diesen sowie deren unterschiedliche Auswirkungen sind noch nicht voll verstanden, wie das Scheitern der Modelle der Klimawissenschaftler beim Nachvollziehen von Beobachtungen aus der Vergangenheit zeigt. Das Vernünftigste, was jetzt kommen muss, ist mehr über Klimawandel in Erfahrung zu bringen, Forschungen zu finanzieren (und nicht lediglich die Gläubigen der alarmistischen Religion) sowie ernsthaft darüber nachzudenken, wie man möglichen schlimmen Auswirkungen begegnen – und Vorteile aus den möglichen guten Auswirkungen ziehen könnte. In der Zwischenzeit werden wir uns nicht dem Pariser Klima-Abkommen unterwerfen, und wir werden nicht fossile Treibstoffe auf das Abstellgleis schieben. Wir werden sogar aufhören, „Häretiker“ und „Leugner“ zu schikanieren – zumindest während der nächsten vier Jahre. – Michael Barone, National Review, 27. Dezember 2016

4) Kanada strebt nach Gemeinsamkeiten mit den USA bzgl. Energie

Der Energieminister von Kanada sagt, er könne Gemeinsamkeiten finden mit dem designierten Präsidenten Donald Trump bzgl. Öl-Pipelines und Energie-Infrastruktur. „Wir werden sehr zurückhaltend sein bei der Beurteilung dieser Regierung von irgendetwas anderem als dem, was sie tut. Und was sie tut, wird nach dem 20. Januar viel klarer“, sagte Jim Carr, der kanadische Minister für Natur-Ressourcen. Carr brachte auch die Möglichkeit ins Spiel, „Felder gemeinsamer Interessen“ mit der kommenden Trump-Regierung finden zu können. – Chris White, The Daily Caller, 28 December 2016

5) Klimawissenschaft und die Illusion des Wissens

Nichtwissenschaftler verfügen nicht über das notwendige Wissen, um sich eine angemessene Meinung zur Klimawissenschaft zu bilden. Was wir gewöhnlich tun ist, nur die eine Seite der Debatte zu hören, die andere Seite zu ignorieren und einen Bestätigungs-Bias zu gebrauchen, um unsere Illusion sicher zu sein zu erhärten. So funktionieren normale Denkapparate. Falls Sie also sowohl normal sind und eine feste Meinung zur Klimawissenschaft haben, kann ich mit Sicherheit sagen, dass Sie hinsichtlich der Sicherheit Ihrer Meinung einer Halluzination unterliegen. Ich kenne nicht die der Klimawissenschaft zugrunde liegende Wahrheit. Aber ich weiß eine Menge über Beeinflussung. Und ich kann mit absoluter Sicherheit sagen, dass falls Sie ein Nichtwissenschaftler sind und Sicherheit bzgl. Ihrer Meinung zu Klimawissenschaft haben, Sie hinsichtlich der Kapazität Ihres eigenen Gehirns einer Halluzination unterliegen. – Scott Adam, 30. Dezember 2016

6) David S. D’Amato: Die wahren Freunde der Umwelt sind die Libertären [Liberalen?]

Die libertäre [liberale?] Bewegung sollte die natürliche Heimat des Umweltaktivismus‘ sein. Feste, gut definierte Eigentumsrechte sowie ein gegenseitig vorteilhafter Austausch in einem echten freien Markt erzeugen starke Anreize zur Bewahrung der Umwelt und lassen die Arten umweltlicher Degradierung verschwindend klein werden, welche nur allzu oft unter dem Status Quo allgemein waren, definiert durch allgegenwärtige Vorschriften, einer plumpen Bürokratie und demzufolge häufigen Katastrophen. Die Regierung selbst ist der schlimmste Verschmutzer; sie ist mehr verantwortlich für schwerere Umweltschäden als jeder andere Einzelakteur. Die Regierung verschwendet und zerstört ihre eigenen Besitztümer, weil es an Anreizen der wirklichen Besitzer fehlt, isoliert wie sie sind von den zugehörigen Kosten. – David S. D’Amato, Foundation for Economic Education, September 2016

Übersetzt von Chris Frey EIKE




Harald Lesch trägt vor den GRÜNEN zum Klima­wandel vor: Der Klima­wandel ist kein Thema, das man ernsthaft bezweifeln kann

Immerhin ist Prof. Lesch Klimaberater der Bayerischen Umweltministerin. Seine Beratung kann also Auswirkungen auf Maßnahmen und Ausgaben mindestens der Bayerischen Landesregierung haben.
Es lohnt sich, den Vortrag anzuhören. Er ist eine Lehrstunde in schlimmster „Oberlehrermanie“ und elitärem Überlegenheitsdünkel (H. Lesch: „Ich unterrichte auch Philosophie“), leider auch verbunden mit mehr als indirekter Drohung gegen die moderne Landwirtschaft und „Konzerne, welche den Globus kaputt machen“. Den GRÜNEN Zuhörern scheint es aber gefallen zu haben.

Die Rezension recht lang geworden. Sie soll aber nicht nur eine Linksammlung, sondern auch die Daten der kritischen Argumentation bringen. Es ist zudem eine Illusion zu glauben, das Für und Wider ließe sich in Talkshow-manier in einer kurzen Abhandlung mit wenigen, dafür immer „wahreren“ Statements „berufener Diskutanten“ darlegen, vielleicht sogar klären.
Oft liegt die Wahrheit auch mehr in der Mitte. Diese Mitte wird von Herrn Lesch jedoch nicht vermittelt.

Der Vortrag vor den GRÜNEN

Hier zunächst das Video: Harald Lesch fordert endlich Konsequenzen aus dem Wissen um den Klimawandel zu ziehen. Quelle: YouTube, Veröffentlicht am 21.11.2016 [1]

Seit einigen tausend Jahren befeuert der Mensch die Atmosphäre mit Kohlenstoff

H. Lesch: Dass wir schon lange den Planeten Erde beeinflussen, vor allem durch unsere Landwirtschaft. Das ging schon vor ein paar tausend Jahren los … Man kann es heute nachweisen, wie die natürlichen Rhythmen bei der Emission von Treibhausgasen systematisch entkoppelt werden von dem was wir anstellen. Wir sind das, was der Fall ist.
Und das zieht sich schon ziemlich lange hin. Wenn man diese Daten tatsächlich etwas genauer analysiert dann stellt man fest, dass wir natürlich über die letzten 10.000 Jahre immer mehr und mehr und mehr Fläche von diesem Planeten benutzen und man kann hier auch sehen, wie also dann
wirklich vor einigen tausend Jahren es systematisch losgeht, das wir die Atmosphäre befeuern mit Kohlenstoff. Es hilft nichts, das ist so, schlicht und ergreifend.
Das kann man zusammenfassen: Wir nehmen alles was wir kriegen können und tun das in einem Ausmaß wie man sich das noch vor wenigen Jahrzehnten überhaupt nicht hat vorstellen können. Die Lage ist echt katastrophal, also nicht nur ein bisschen,
sondern so richtig schlecht, so richtig schlecht..
...Ist ihnen klar, dass die Kenntnis davon, dass die Welt aus Atomen, bzw. Molekülen und so weiter besteht, uns überhaupt erst in die Lage versetzt hat, Natur so stark zu manipulieren wie sie es heute tun. Wären wir noch in dem Wissensstand von dem Jahre 1900 oder 1800, hätten wir gar nicht die Möglichkeit die Erde so zu verhunzen wie wir es momentan tun.

Kritische Anmerkungen dazu

Herr Lesch muss einen wahren Hass auf die Moderne und auf die moderne Landwirtschaft haben – und die feste Überzeugung, als einer der Wenigen die absolute Wahrheit zu kennen. Er bringt (auch im ganzen weiteren Vortrag) keine Lösung für die Probleme der Menschheit, doch hat man den Eindruck, die Vergangenheit würde ihm generell besser gefallen.
Allerdings entzieht es sich jeglicher Logik, weshalb er sagt: „ … wirklich vor einigen tausend Jahren es systematisch losgeht, das wir die Atmosphäre befeuern mit Kohlenstoff“.
Diese Darlegung ist bezüglich eines auch nur entfernt denkbaren Klimaeinflusses vor-historischer CO2-Verfeuerung absurd überzogen. Zudem stellt sich die Frage, was er damit aussagen will. Möchte er wirklich die Menschheit seit der Steinzeit verantwortlich machen, mit ihren Feuerstellen das Klima kaputt gemacht zu haben? Welche Alternative hätte er sich dazu vorgestellt? … Noch öfter zu erfrieren und zu verhungern? Oder will er damit für die Ökokirche eine „Klima-Erbsünde“ konstruieren?

Zum Klimawandel gibt es keinen Dissens

H. Lesch: Und dabei (meint die Erderwärmung) handelt es sich vor allen Dingen um einen Vorgang der uns massiv Probleme macht, … über den überhaupt kein wirklicher Dissens mehr besteht, auch wenn heute der mächtigste Mann der Welt behauptet, die globale Erwärmung sei ohnehin eine Erfindung der Chinesen.
… Man sollte ihm vielleicht einmal sagen, dem blonden Lord … dass die Chinesen momentan was die erneuerbaren Energien betrifft ganz ganz ganz weit vorne
sind. … wir heizen die Atmosphäre auf … eine erhitzte Atmosphäre ist das, was über unseren Köpfen passiert… und das ist gesichert… ich nehme an, dass hier im Saal wohl niemand ist, der an der globalen Erwärmung zweifelt …es gibt die gesicherten Erkenntnisse zur Klimaforschung
… Wir sind der soziale Meteoriteneinschlag. ... Und zwar namentlich die Art und Weise wie wir im Westen mit dem umgehen, was um uns herum ist und dass das kein Thema ist was man ernsthaft bezweifeln kann, das sehen sie hier (zeigt Bild 3)
33.700 Autoren von peer-reviewed Artikeln sind eindeutig der Meinung dass der Klimawandel menschengemacht ist. Nur 34 …also wir reden hier
(Anmerkung: Bei den nicht-Zustimmenden) über einen Promilleanteil…. also es ist absolut klar, was hier passiert …. es wird immer wärmer und wärmer und wärmer.

Bild 3 [1] Screenshot Bild-Ausschnitt aus dem Vortrag. (Rote Unterstreichungen vom Autor zugefügt). Quelle YouTube Video

Kritische Anmerkungen dazu

Konsens beim Klimawandel

Nachdem es immer noch keinen messtechnischen Beleg für den CO2-menschengemachten Klimawandeleinfluss gibt, sucht man seit langem nach anderen Belegführungen. Und dafür gilt auch die Auswertung der „wissenschaftlichen“ Meinung. Angeblich verhält sich das Klima nach Abstimmungsergebnissen und Anzahl der Veröffentlichungen.
Generell wäre dagegen – zumindest zur Meinungsunterstützung – nicht einmal so viel einzuwenden, wenn beim anthropogenen Klimawandel wirklich eine freie und offene Meinungsbildung herrschen würde. Wer sich aber heute traut, als Klimawissenschaftler gegen den AGW-Klimawandel zu publizieren, hat seine Karriere alleine dadurch verwirkt. Und das gilt nicht nur für Forscher:
SOTT, 04 Nov 2015: Französischer Meteorologe verliert seinen Job wegen Zweifel am Klimawandel

Konsensstudien

Es ist vergleichbar, als wenn man zur Zeit der Hexenverfolgung die Publikationen zu Hexen gezählt und darauf die Wissenschaftlichkeit des Hexenglaubens begründet hätte, mit besonderer Berücksichtigung, dass große Hexenjäger, also wirkliche Fachpersonen, besonders oft zustimmend publizieren (wie es bereits damals indirekt auch so begründet wurde).
Der Deutsche Bundestagsbeschluss mit 100 % Zustimmung aller Parteien ohne Enthaltung oder ungültige Stimmzettel, also „sicherer“ als DDR-Volkskammerwahlen, zum Klimavertrag ist ebenfalls ein passendes Beispiel: Wurde der Klimawandel dadurch wirklich auch zu genau 100 % belegt?
Die DDR Volkskammer hatte zur letzten Wahlperiode (1986) 99,94 % Ja-Stimmen bei 0,06 ungültigen Stimmen, also auch 100 % Zustimmung. Trotzdem gab es diesen „zu 100 % bestätigten“ Staat am Ende der Wahlperiode nicht mehr. Soweit zum Wahrheitsgehalt und Beständigkeit welche auf Abstimmungsergebnissen basiert.
Doch das Vorgehen wiederholt sich:

In der jüngsten Konsensusstudie:
JohnCook at al.: [5] Consensus on consensus,
sind von 1991 bis 2014 alleine 14 Konsensusumfragen gelistet. Die Zustimmungswerte ([5] Table1. Estimates of consensus on human-caused global warming among climate experts) reichen von 40 … 91,9 % sofern man alles einbezieht und von 67 … 97,2 %, wenn nur „Sub-sample of publishing climatologists“ berücksichtigt werden.

Die Zahlenangaben im Vortrag beziehen sich aber wohl auf die Untersuchung eines Herrn Powell, der es ganz genau herausfand und zum folgenden Ergebnis kam:
[6] Powell wählte für seine Analyse die umgekehrte Vorgehensweise wie Doran/Zimmermann/Cook und andere und suchte nach Fachartikeln, die “anthropogenic global warming” (AGW) ausdrücklich ablehnen – und fand einen Anteil von 0,0058 Prozent.
Um als kritisch eingestellter Wissenschaftler nach Herrn Powell und Herrn Lesch zu gelten, muss man also in einer peer-reviewten Studie (wer traut sich, im Review der These zuzustimmen?) einen möglichen AGW-Klimaeinfluss vollkommen ablehnen. Wer sagt (wie wohl die meisten Kritiker): Es kann einen Einfluss geben, doch ist dieser bei Weitem nicht so stark, wie vom IPCC angenommen und damit kein wirkliches Problem, welches die überzogenen CO2-Reduktions-Maßnahmen rechtfertigt, stimmt der AGW-These statistisch betrachtet, voll zu.

Doch wie immer beim Klimawandel, gibt es nicht einmal über die Konsensstudien Konsens:
Spiegel Online,
23.09.2014:[3] Missglückter Forscher-Aufruf zum Uno-Klimagipfel Die 97-Prozent-Falle
Ruhrkultour: [8] Die fabelhaften 97 % – der Mythos vom Klima-Konsens der Wissenschaftler

Von den rund 12.000 Veröffentlichungen bestätigte nur rund ein Drittel der Wissenschaftler, 32,6 Prozent, die Ansicht, dass die globale Erwärmung durch Menschen verursacht sei (Anthropogenic Global Warming-AGW), 97 Prozent dieses Drittels, nicht der Gesamtmenge, hielt “die jüngste Erwärmung vor allem von Menschen gemacht”. Die Mehrheit der Wissenschaftler, 66,4 Prozent, bezog keine Position zum AGW. Aber die Zahl 97 machte weltweit die Runde. Noch am selben Tag der Veröffentlichung des IOP twitterte der Präsident der USA, Barack Obama: (Bild 4)

Bild 4 [8] Tweet von B. Obama zur Konsensstudie
In einer Anlage am Artikelende ist eine inhaltliche Darstellung dieser „97% Studie“ (ist wohl die am häufigsten zitierte Konsensstudie) hinterlegt.

Es gibt auch Konsens gegen Konsensstudien

Nicht gelistet sind in diesen Studien und Blogs gegensätzliche Meinungen:
Natural News, August 31, 2016: [7] Over 37,000 Scientists Sign On Against Man-Made Global Warming Fraud!
The Petition Project Site also includes a petition to the US Congress. The wording of the petition is:
We urge the United States government to reject the global warming agreement that was written in Kyoto, Japan in December, 1997, and any other similar proposals. The proposed limits on greenhouse gases would harm the environment, hinder the advance of science and technology, and damage the health and welfare of mankind.
There is no convincing scientific evidence that human release of carbon dioxide, methane, or other greenhouse gasses is causing or will, in the foreseeable future, cause catastrophic heating of the Earth’s atmosphere and disruption of the Earth’s climate. Moreover, there is substantial scientific evidence that increases in atmospheric carbon dioxide produce many beneficial effects upon the natural plant and animal environments of the Earth.

Given the fact that over 17,200 scientists have signed this petition, I would have to say that there certainly is no consensus among scientists that global warming is real or that it is man made.

kaltesonne 24. April 2013: Größte unabhängige Forschungsorganisation Norwegens: Es gibt keinen wissenschaftlichen Konsens in den Klimawissenschaften
Die größte unabhängige Forschungsorganisation Norwegens, die SINTEF, gab Mitte April 2013 einen neuen Bericht mit dem Titel “Konsensus und Kontroverse” heraus, in dem die wissenschaftliche Klimadebatte kritisch analysiert wurde. Der Bericht ist im Internet als pdf frei verfügbar. … In der Kurzfassung der lesenswerten Studie fasst SINTEF zusammen:
Dieser Bericht lehnt das Konzept ab, dass es einen einstimmigen wissenschaftlichen Konsensus zur Frage der anthropogenen Klimaerwärmung gäbe und dass die wissenschaftlichen Grundlagen heute vollständig bekannt wären. Der Bericht schlußfolgert, dass eine bedeutende kritische wissenschaftliche Diskussion in den Klimawissenschaften existiert. In dieser Diskussion einen Konsensus herbeiführen zu wollen entspricht einem politisierten und unwissenschaftlichen Glauben an die Forschung, welcher mit dem Ethos der traditionellen Wissenschaft unvereinbar ist.
… Zunächst kann festgestellt werden, dass die Behauptung schlichtweg falsch ist, dass jegliche Zweifel in der Klimadebatte ausgeräumt wären. Trotz eines hohes Maßes an Übereinstimmung in der wissenschaftlichen Literatur darüber, dass eine menschengemachte Klimaerwärmung prinzipiell existiert, gibt es in der Diskussion eine Vielzahl von abweichenden Meinungen, offene Fragen und gegenteilige Ansichten, sowohl in der wissenschaftlichen Debatte als auch in der öffentlichen Meinung. Die Behauptung “alle Zweifel sind heute ausgeräumt” ist daher unhaltbar.

Und es gibt begutachtete Studien mit klimakritischen Inhalten

Peer-reviewte Studien mit klimakritischem Inhalt sind inzwischen auch in größerer Zahl zu finden, man muss nur nach der Information suchen. Doch so, wie es dem Autor beim Anhören von Lesch-Klimahysterie-Videos geht, wird es wohl Herrn Lesch beim Ansehen Klimawandel-kritischer Infoseiten gehen:
NoTricksZone: Reader Kenneth Richard presents 282 peer-reviewed papers published in 2015 supporting the skeptical position that natural factors are in fact a dominant climate driver. Feel free to send this list to a political leader.
NoTricksZone: 2016 Highlights: Tsunami Of Skeptic Papers And Desperate Attempts To Silence Dissenters.
Summary With the huge tsunami of NEW papers disputing the claims of rapid, man-made global warming and the shock election of Donald Trump as President, things are looking awfully desperate for the junk-science fuelled climate alarmism industry. We could all but bury it in 2017.

Es ist bezeichnend, dass im Vortrag von Herrn Lesch genau – und vor allem ausschließlich – das extremste Extrembeispiel gezeigt wurde (man höre sich seine „Erklärung“ dazu an). Doch Zweifel darf und kann es nach H. Lesch zum Klimawandel sowieso nicht geben.

Ich nehme an, dass hier im Saal wohl niemand ist, der an der globalen Erwärmung zweifelt

Beim Vortrag hat sich dazu wohl kein Zweifler gemeldet. Wohl ein Beleg, dass GRÜNE nicht bei EIKE vorbeisehen, oder es (wie auf alten, sozialistischen Parteitagen) tunlichst vermeiden, zu unpassender Gelegenheit „hervorzustechen“, um nicht einen Kopf kürzer zu werden.
Chruschtschow soll einen solchen Test auf einem Parteitag auch einmal gemacht haben. Als sich auf seine Frage zu einer abweichenden Meinung niemand meldete, sagte er dann sinngemäß: Genau wegen der gleichen Angst haben wir (seine Generation) unter Stalin auch keine gegensätzliche Meinung gehabt.
Jedenfalls nimmt der Autor diese Rezension zum Anlass, weiterhin seine Zweifel anhand von (schon oft in Artikeln gebrachten) Fakten zu outen.

Wie sicher ist der Klimawandel belegbar?

Eine Korrelation zwischen anthropogenem CO2-Eintrag und einer Temperaturerhöhung lässt sich erst seit ca. 1950 bildhaft zeigen. Statistisch signifikant ist eine Korrelation jedoch erst seit 1990 (was aber kein Beleg für einen ausreichenden Klimaeinfluss ist). Behauptungen, es wäre seit ca. 1830 belegbar, sind Märchen. Und für die Zeit davor ist es reinster Unsinn.
EIKE 30.09.2016: Statistisch gesehen, begann der leicht wärmende Klimawandel erst mit dem Ende des kalten Krieges signifikant zu werden

EIKE 09.09.2016: Hat die barbusige Dame um 1830 gegen den Klimawandel gekämpft? Eine ganz aktuelle Studie legt es nahe
In einer Zusammenfassung kann man einen Teil der vielen, sich widersprechenden und nicht eingetroffenen Aussagen prominenter AGW-Klimaforscher nachlesen:
ScienceScepticalBlog: [2] Die Top 5 Lügenmärchen der Klimaforscher

Die vielen Widersprüche sind kein Zufall. Entgegen der öffentlich verkündeten Darstellung ist die klimahistorische Datenlage im vollkommenen Gegensatz so unglaublich schlecht und chaotisch, dass damit gar kein Beleg möglich ist:
EIKE: Wettbewerb um Nachweis, dass Klimawandel mehr als natürliche Variation ist – gescheitert!
Dazu Bilder von Proxisammlungen (Bilder 5, 6). Bitte versuchen zu belegen, dass die Temperaturveränderung seit dem Jahr 1880 (offizieller Beginn des Klimawandels) keine natürlichen Ursachen haben kann, weil eine solche steile Änderung in der Vergangenheit noch nie vorgekommen sei. Computer können das (auch nicht). Da diese jedoch nicht mitdenken, spucken sie Ergebnisse mit vielen Stellen nach dem Komma aus.
Vor allem zeichnen sie aus beliebigem Datenchaos und Rauschen durch Mitteln eine dünne, genaue „Wahrheitslinie“, ergänzt um einen Vertrauensbereich. Der Mittelwert-Vertrauensbereich wird dabei stur einfach durch Erhöhen der Anzahl verwendeter Proxis mit Wurzel (n) immer „enger“. Nur stimmen die erforderlichen statistischen Basisbedingungen für die Grundgesamtheit und Stichproben nicht, weshalb die daraus abgeleiteten Ergebnisse schlichtweg falsch sind. Doch darauf nimmt ein Computer keine Rücksicht – und die, welche die Daten verwenden auch nicht.

Das Ergebnis solcher „Statistik“ lässt sich anhand von Bild 5 betrachten. In die „Proxispaghetti“ ist der Hockey-Stick und die aktuell (angeblich) genauste Globaltemperatur-Rekonstruktion von Pages2k kopiert (Quelle: Klimalounge – Blog von Herrn Rahmstorf). Die fast waagerechte, grüne Linie ist laut Statistik der genaue Temperaturverlauf (Pages2k-Projekt), die blaue der Hockey-Stick, und die grauen Felder der Vertrauensbereich.
Mittelwertberechnungen sind einfach geduldig. Jedenfalls leitet aus dieser Kurve die ganze Klimawelt ab, dass es trotz der Datenspaghetties mit ihren riesigen Temperaturspannen noch nie einen so unnatürlichen Anstieg wie den aktuellen gegeben hat.

Bild 5 Proxirekonstruktionen der Temperatur der letzten 1200 Jahre. Quelle: Frank Lansner: Holocene, historic and recent global temperatures from temperature proxies. Darüber gelegt die Kurven Hockey-Stick (grün) und Pages 2k(blau), Vertrauensbereich (grau). Quelle: Klimalounge

Bild 6 Proxirekonstruktionen der Temperatur der letzten 12.000 Jahre. Quelle: Frank Lansner: Holocene, historic and recent global temperatures from temperature proxies

Zum Hockey-Stick noch die Anmerkung, dass der rote, steile Teil am Ende nicht anhand der sonst verwendeten Proxidaten gezeichnet wurde, sondern eine Weiterführung durch die modernen Thermometermessungen ist. Der Grund war: Die Proxis gaben keinen großen Anstieg „her“, beziehungsweise zeigten am nicht mit den Thermometerdaten übereinstimmenden Verlauf überdeutlich ihre Fehler.

Manchem wird zwischen Bild 5 und 6 schon auffallen, dass selbst darin die Proxidaten nicht übereinstimmen. Die Temperaturspannen im Bild 5 reichen bis +-2,5 °C. Im Bild 6 ist die Spanne in diesem Bereich erheblich niedriger.

Bild 6.1 [13] Historischer Klimaverlauf. Quelle: AR5 von 2013, Figure 5.7 (Bildausschnitt), vom Autor ergänzt
Der Autor leitet aus den Datenspaghetties sogar ab, dass sich das Klima bereits weit vor Beginn der Industrialisierung gewandelt hat, also auf einem natürlichen Vorgang basiert [11][12]. Ein Proxibild aus dem IPCC AR5 Langebericht soll das verdeutlichen:

Die Erde in den letzten 65 Millionen Jahren

H. Lesch: dass wir jetzt in einem Zustand sind, den die Erde in den letzten 800.000 Jahren sicherlich nicht gehabt hat, neueste Daten führen darauf zurück, dass wir es in den letzten25 Millionen Jahren nicht gehabt haben und möglicherweise sogar in den letzten 65 Millionen Jahren.

Kritische Anmerkungen dazu

Es ist ein starkes Stück, das bisschen aktuelle Erwärmung seit einer Kaltzeit als „eventuell seit 65 Millionen Jahren einmalig“ darzustellen. Nicht einmal für die angeblich sicheren, letzten 800.000 Jahre kann es der Autor feststellen. Dazu ein Bild der letzten 1 Millionen Jahre. Erkennbar befindet sich die Erde (zum Glück!) in einer der im Vergleich zur Dauer der Kaltzeit sehr kurzen, zyklischen Zwischenwarmzeit. Nichts „unnatürliches“ ist daran erkennbar.

Bild 7 [9] Eiszeiten der letzten 1 Millionen Jahre. Die rote Linie kennzeichnet die aktuelle Temperatur
Noch unheimlicher wird es, wenn man die letzten 65 Millionen Jahre betrachtet. Die Temperatur lag ungefähr +6 Grad höher und der CO2-Gehalt bei 800 ppm, dazwischen sogar bei 1600 ppm. Was der Weg dorthin zurück mit der vergleichsweise „mickrigen“ Klimaänderung der letzten 150 Jahre zu tun haben soll, kann wohl nur ein Klimaprophet erahnen. Zudem die Erde sich trotz der aktuellen „Warmzeit“ in einem Kältezustand befindet, die allseits beschworene „Überhitzungsgefahr“ demnach ein rein fiktives Ergebnis Menschen-gemachter Simulationen darstellt, während die Gefahr einer weiteren Abkühlung mit wirklich tödlichen Folgen sich wesentlich realer darstellt:

EIKE: Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein

Man betrachte in Bild 9 auch den Verlauf von CO2 und Temperatur – es findet sich zwischen beiden keine Korrelation.

Bild 8 Temperatur und CO2 über die letzten 65 Millionen Jahre. Quelle: WUWT Paleoclimate Page

Das Wort „Starkregen“ war früher nicht gebräuchlich, ein Beleg, dass es früher nicht so stark geregnet hat

H. Lesch: .Und ich habe mich immer gewundert … warum die welche dies bezweifeln, nicht mal mit Landwirten reden. … (die) wissen wie sich ihr Land entwickelt und wissen wie sich die Niederschläge verändert haben, wie sich die Dürreperioden vergrößern, wie Starkregenereignisse auf einmal alles niederwälzen und so weiter … und wo selbst 90-jährige sagen: das hab ich noch nie erlebt, das gabs noch nie. Man sieht es auch am Sprachgebrauch. das Wort Starkregen ist in Deutschland noch nicht so lange …. also wir können es direkt vor unseren Augen sehen.

Kritische Anmerkungen dazu

Es ist beim Klimawandel üblich, als Beleg lokale „Betroffene“ zu Wort kommen zu lassen, welche in aller Regel dann erzählen, „ …dass sie ein so schlimmes Wetter, Stürme, Fluten …. wie derzeit“ noch nie erlebt hätten. In aller Regel kann man das durch historische Analysen schnell entkräften.
Zum Beispiel auch bezüglich des extra angegebenen Starkregenereignisses wie in Simbach im Frühsommer 2016. Dort haben sich solche Niederschläge selbst zu Lebzeiten Geschädigter mehrfach wiederholt. Nur brach eben der Talübergang vor dem Ort zufällig nicht – doch diesmal brach er: Nicht wegen des vielen Regens, sondern wegen Verstopfung des Abflusses. Das ist aber menschliches Versagen und kein Klimawandel, nachzulesen in:
EIKE: An den Unwettern ist der Mensch eher nicht schuld – aber ganz sicher an deren Folgen

Die Begründung, das Wort „Starkregen“ hätte man früher wenig gebraucht, weshalb es früher weniger stark geregnet hätte, ist dazu einfach hanebüchen. Die wirklichen Überschwemmungen in Deutschland, von der Nordseeküste bis zu den Alpen sind (bis auf eine einzige Hochwassermarke in Passau) alle historisch, wie man an den Pegelmarken leicht nachsehen kann:
EIKE 21.11.2015: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu . Doch stimmt das wirklich?

Weiter ausgeführt, will Herr Lesch damit vielleicht auch noch mitteilen, dass es deshalb früher keinen Klimawandel gegeben haben kann, weil der Begriff „menschengemachter Klimawandel“ in der historischen Literatur nicht vorkommt?
Und immer wieder muss man betonen: Das IPCC nahm im letzten Bericht AR5 seine schlimmen Extremereignis-Prognosen des Vorgängerberichtes zurück und musste zugeben, dass sich nichts davon belegen lässt. Die Listung der IPCC-AR5-Aussagen mit Übersetzung ist als Anlage am Artikelende beigefügt.

Wenn die Antarktis alles Eis verliert, steht Niedersachsen unter Wasser

H. Lesch: .und ich hab jetzt unlängst eine Nachricht bekommen, das finde ich wirklich granatenmäßig, der Hautptort von Spitzbergen im Polarmeer … musste jetzt evakuiert werden, Teile davon, weil es geschüttet hat wie aus Kübeln … dort liegen die Novembertemperaturen um 15 Grad über dem langjährigen Mittel, 15 Grad! Wenn Trump weiterhin der Meinung ist, der Klimawandel wäre eine Erfindung der Chinesen, möge er nach Alaska fahren. Da wird den Menschen der Boden unter den Füssen weggezogen durch das Auftauen des Permafrosts. Und was das langfristig bedeutet … Nehmen wir einmal an, die Antarktis würde tatsächlich alles Eis verlieren, was würde das für Deutschland bedeuten ….weil nämlich Niedersachsen komplett unter Wasser wäre, wär einfach weg (dazu wurde Bild 9 gezeigt).

Bild 9 [1] Screenshot aus dem Vortrag. Quelle YouTube Video

Kritische Anmerkungen dazu:

Auch auf Spitzbergen ist (nicht) alles Klimawandel

Dass Herr Lesch die Novemberwärme auf Spitzbergen als ein Klimawandel-Menetekel darstellt, pass genau zu seiner agitatorischen Art, hat mit Klimawissenschaft aber wenig zu tun. Solche Wetterkapriolen kommen gerade in der Arktis vor.

ZEIT ONLINE: [3] Ist der Klimawandel Schuld an der aktuellen Wärme über dem Nordpol?
Friedrich: Das Extremtief hat mit dem Klimawandel direkt nichts zu tun. Denn der läuft schleichend über sehr lange Zeiträume ab. Tief Eckard ist zufällig entstanden. Eine Laune der Atmosphäre. Solche Sturmtiefs bilden sich ja, wenn Luftmassen von sehr unterschiedlicher Temperatur aufeinandertreffen.
Nach heutigem Stand der Klimamodelle werden sie aber nicht häufiger, wenn sich die Erde im Durchschnitt erwärmt.

Die Evakuierung von Teilen der Hauptstadt erfolgte auch vorsichtshalber, weil die Stadt in einem Talkessel liegt und bei dem gefrorenen Boden bei Regen sehr gefährdet ist.
wetter.tv: Überflutungen auf Spitzbergen
Nun jedoch wurden Teile der Hauptstadt aus Sicherheitsgründen evakuiert, die Behörden sahen sich angesichts der enormen Regenmengen und der daraus resultierenden Überflutungs- und Erdrutschgefahr dazu gezwungen.
Die Unwetter mit Sturm und heftigem Regen sind in diesen Stunden bereits wieder überstanden. Longyearbyen hatte Glück, bis jetzt gab es zwar eine Mure (Hangrutschung), aber noch keine gröberen Überflutungen. Somit dürfte die Hauptgefahr bereits wieder großteils gebannt sein.
Was führte zu diesen enormen Regenmengen?
Kurz und bündig gesagt, eine milde Südwestströmung. Diese stellte sich zwischen einem Hoch über Nordskandinavien und Tiefdruckgebieten westlich von Island ein. Dabei war die Luftdruckverteilung über dem gesamten Nordatlantik so ausgerichtet, dass Luftmassen aus dem Bereich der Karibik es bis in den hohen Norden geschafft haben. Natürlich kommt diese auf Spitzbergen nicht mit derselben Temperatur an, da sie auf ihrem Weg abkühlt, dennoch lagen die Temperaturen um 10 bis 15 Grad über den Normalwerten. Nach dazu ist diese Luft aus tropischen Gefilden gespickt voll mit Feuchtigkeit, es hatte sich also ein regelrechtes Feuchte-Förderband eingestellt. Die Schneefallgrenze stieg auf über 500 m Seehöhe an und in Kombination mit stürmischem Südwestwind wurde das gesamte Wasser der unteren Atmosphäre an den Westflanken der Gebirge Spitzbergens förmlich ausgepresst.

Auf Spitzbergen regnet es während der Polarnacht öfter

Spitzbergens Südteil wird noch von einem Ausläufer des Golfstroms erreicht. Deshalb sind die Temperaturen dort wärmer, als man aufgrund der Lage erwartet.

wettertopia: Klima in Spitzbergen
Spitzbergen ist eine Inselgruppe im Nordatlantik … Der Westspitzbergenstrom … ein Ausläufer des Golfstroms transportiert entlang der Westküste relativ warmes Wasser, so dass auch Winter trotz der nördlichen Lage mild ausfallen …
Im Winter liegt die Temperatur zwischen -25 und +5 Grad Celsius.
Spitzbergen: Klima
… Am kältesten wird es im Februar mit -14°C, im Winter sind die Temperaturschwankungen stärker. Mit Temperaturen bis zu -30°C, im Einzelfall noch tiefer, muss man rechnen,
aber es gibt auch Warmlufteinbrüche mit Tauwetter und Regen in der Polarnacht.

Das war schon im Jahr 2002 so:
Reisebericht 2002: Ein Jahr auf Spitzbergen
Im Herbst liegen die Temperaturen bei ca. 0 bis -20°C, wobei wir in den Genuss einer rekord-verdächtigen, einwöchigen Tauperiode Anfang Dezember mit Regen und Plusgraden kamen und sich alle Straßen und Wege in spiegelglatte Eisbahnen verwandelten. … Eine goldene Regel besagt, dass es auf Spitzbergen erst dann richtig kalt wird, wenn die Sonne wiederkehrt. So verzeichneten auch wir im April mit -35°C die tiefsten Temperaturen
.

Bereits im Jahr 1922 wurde von Spitzbergen schlimmster Klimawandel berichtet

Eine solche Wetterkapriole wurde auf Spitzbergen bereits im Jahr 1922 entsetzt berichtet und auch, dass es früher viel besser war:
Quelle: Alles Schall und Rauch: Bericht einer Polarexpedition aus Spitzbergen im Jahr 1922:
… Die Arktis scheint sich zu erwärmen. Berichte von Fischern, Robbenjägern und Forschern welche das Meer um Spitzbergen und den östlichen Teil der Arktis befahren, zeigen alle auf eine radikale Änderung der klimatischen Bedingungen und bis dato gänzlich unbekannten hohen Temperaturen in diesem Teil der Welt
. Er wies daraufhin, das Wasser um Spitzbergen hatte sonst eine gleichbleibende Temperatur im Sommer von 3°C. Dieses Jahr wurden Temperaturen von bis zu 15°C gemessen und letzten Winter ist das Meer nicht mal an der Nordküste von Spitzbergen zugefroren.“
Viele Landschaften haben sich so verändert, sie sind nicht mehr erkennbar. Wo vorher grosse Eismassen sich befanden, sind jetzt oft Moränen, Ansammlungen von Erde und Steinen. An vielen Orten wo früher Gletscher weit ins Meer ragten, sind sie komplett verschwunden.
Die Temperaturveränderung, sagt Kapitän Ingebrigtsen, hat auch die Flora und Fauna in der Arktis verändert. Diesen Sommer suchte er nach Weissfisch in den Gewässern um Spitzbergen. Früher gab es grosse Schwärme davon. Dieses Jahr sah er keine, obwohl er alle seine alten Fischgründe absuchte.
Es gab wenige Robben in den Gewässern um Spitzbergen dieses Jahr und der Fang war weit unter dem Durchschnitt.

Der Bericht aus dem Jahr 1922 könnte heute ohne etwas ändern zu müssen erscheinen und es würde niemandem auffallen.

Dazu ein Bild aus dem EIKE-Artikel über den Temperaturverlauf zu dieser Jahreszeit auf Spitzbergen (Bild 10) und eines vom GISS über den Globalverlauf auf Spitzbergen seit dem Jahr 1910 (Bild 11). Dieses Bild ist anhand der Datensätze der zwei dort im Viewer auf Spitzbergen hinterlegten Stationen zusammengesetzt. Die dritte (mittlere) Kurve einer Station nahe Spitzbergen wurde zugefügt, um zu testen, ob die zwei getrennten Temperaturkurven von Spitzbergen plausibel aneinander koppeln.
Fazit: Die Temperatur auf Spitzbergen hatte 2015 den Stand von ca. 1920. Eine alarmierende Erwärmung, welche die empörende – „granatenmäßig“ – Aussage von Herrn Lesch rechtfertigen würde, stellt man sich wohl anders vor.
Man sehe sich die Temperaturverläufe an und höre dazu den im Oberlehrerton gehaltenen, gehässigen Kommentar von Herrn Lesch im Video. Unverkennbar, dass kein Interesse an einer ehrlichen Wissensvermittlung bestand.

Bild 10 Station 5140, NY-ALESUND, Spitzbergen. Verlauf der September- und Novemberwerte (Sept bis 2016, November bis 2015). Datenquelle: ECA&D project http://eca.knmi.nl). Grafik vom Autor aus den Datensätzen generiert

63401008000 SVALBARD LUFT

Bild 11 Aus drei Datensätzen zusammengestellte Temperatur von Spitzbergen seit 1910. GISS Temperaturdatensätze Spitzbergen Isfjord Radio (1910 – 1980) und Svalbard (1975 – 2015), ergänzt mit dem Verlauf Bjornoya (74.52N, 19.02E) von 1975 – 2015. Grafik vom Autor aus den GISS Viewer-Bildern im richtigen Maßstab zusammengesetzt

Diese Darstellungen werden auch in einem kaltesonne-Artikel bestätigt.

Die Arktistemperaturen schwankten schon immer und waren früher wärmer

Auf kaltesonne.de sind Informationen zu Spitzbergen und der Arktis hinterlegt.
kaltesonne, 15. Mai 2015: Temperaturen auf Spitzbergen seit Beginn der Messungen vor 20 Jahren dramatisch gestiegen – allerdings nur auf das Niveau von 1930
Zwar hat sich Spitzbergen von 1970 bis 2000 kräftig erwärmt, allerdings lediglich auf dasselbe Niveau, das das arktische Inselarchipel bereits in den 1930er Jahren besaß. Hier scheint eine zyklische Entwicklung vorzuliegen, die glatt verschwiegen wird. Eine ähnlich starke Erwärmung hat es bereits Anfang des 20. Jahrhunderts gegeben, als CO2 noch keine große Rolle spielte. Zu allem Überfluss scheint die Erwärmung in den letzten 15 Jahren auch noch zum Erliegen gekommen sein. Unter diesem Hintergrund bekommt Ministerin Wankas Aussage auf epo online eine schon fast karnevalistische Note:
“Nirgendwo sonst ist der Klimawandel so sichtbar wie in der Arktis. Dies macht die Bedeutung unseres Forschungsengagements deutlich”, sagte Wanka. […] Gleichzeitig zeigen die Temperaturaufzeichnungen der letzten Jahrzehnte: Die Arktis erwärmt sich doppelt so schnell wie andere Regionen der Welt. Denn das komplexe Zusammenspiel von Ozean, Meereis und Atmosphäre führt zu Rückkopplungseffekten, welche die Erwärmung verstärken. Wissenschaftler sprechen von der sogenannten “ Arctic Amplification”.
Wäre Wanka vor 50 Jahren im Amt gewesen, hätte sie sich vermutlich Sorgen um eine bevorstehende Eiszeit gemacht. Eine langfristig doppelt so schnelle Erwärmung der Arktis ist Quatsch.

Die Arktis erlebte zu Anfang des letzten Jahrhunderts bereits eine Wärmephase

Nun die Information aus kaltesonne zum historischen Verlauf der Arktis-Temperaturen
kaltesonne: Arktische Turboerwärmung auf dem Prüfstand: Ein Konzept auf wackeligen Beinen“.

Bild 12 Temperaturentwicklung der Arktis nach HadCRUT4-Daten von 1920 – 2014 mit 3-Jahres-Mittelwert. Quelle: Climate4you.

kaltesonne: Fallstudien aus verschiedenen Teilen der Arktis bestätigen die Wärmephase. Für Grönland sei z.B. auf unseren Artikel „Luftbilder-Fund im Keller des dänischen Katasteramts: Rapide grönländische Gletscherschmelze in den 1930er Jahren“ verwiesen. Aus der sibirischen Arktis liegt eine Studie des Alfred Wegener Instituts von Opel et al. vor, die im Oktober 2013 im Fachjournal Climate of the Past erschienen war. In der Temperaturrekonstruktion für die Arktisinsel Sewernaja Semlja ist eine deutliche Wärmespitze in den 1930er und 40er Jahren zu erkennen, die die heutigen Temperaturen klar überragt …. Die Autoren weisen in der Kurzfassung ihrer Arbeit zudem darauf hin, dass in der Arktis ein erhebliches Maß an natürlichen Klimaschwankungen zu verzeichnen sei.

Aus dem arktischen Nordatlantik ist die Erwärmung im ersten Drittel des 20. Jahrhunderts schon länger bekannt, wie George Rose in einer Arbeit aus dem Jahr 2005 eindrucksvoll dokumentierte hatte. In der Studie heißt es:
From approximately 1920 to 1940, North Atlantic Waters from Greenland to Norway warmed significantly, by as much as 3–4°C (Tåning, 1948). Although the causes of this event are not well understood, there is no doubt of its authenticity or widespread occurrence in temperature records.
kaltesonne: Interessanterweise räumt mittlerweile sogar der IPCC in seinem neuesten, 5. Klimazustandsbericht die Existenz dieser frühen Erwärmungsphase ein. Im Bericht steht in überraschender Klarheit in Kapitel 10 der physikalischen Grundlagen:
Arctic temperature anomalies in the 1930s were apparently as large as those in the 1990s and 2000s. There is still considerable discussion of the ultimate causes of the warm temperature anomalies that occurred in the Arctic in the 1920s and 1930s

Bild 13 Temperaturrekonstruktionen für das nördliche Skandinavien seit 400 n.Ch. Quelle: Rinne et al. 2014.

Dazu immer wieder die Hinweise auf die katastrophale Datenlage für das Arktische Klima der Vergangenheit, aus der die Klimasimulierer aber bedenkenlos die Zukunft und „dass es früher ganz sicher noch nie vorkam“ vorhersagen wollen.

kaltesonne: Im August 2014 wagte ein elfköpfiges Forscherteam um Judah Cohen in Nature Geoscience eine Bestandsaufnahme der polaren Verstärkerproblematik. Das Fazit der Wissenschaftler fällt ernüchternd aus: Schlechte Datenlage, große Unsicherheiten, unzureichende Modelle. Die Klimaforschung ist noch weit davon entfernt, die Vorgänge in der Arktis in den Griff zu bekommen. Interessanterweise ist einer der Koautoren des Papers Dim Coumou vom Potsdam-Institut für Klimafolgenforschung (PIK), einem Institut das in der Vergangenheit stets behauptet hatte, es würden nur noch i-Tüpfelchen in den Klimamodellen fehlen.
Wie sich die Arktis eventuell seit dem Mittelalter abgekühlt hat und aktuell erst wieder etwas an Wärme nachholt, ist auch im Artikel: EIKE: Jede Tonne emittiertes CO2 führt zu einem Abschmelzen des Arktiseises um drei Quadratmeter
gezeigt.

Fazit

Das „granatenmäßige“, auf Spitzbergen häufiger vorkommende Wärme-Wetterereignis im Winter ist kein Klimawandel-Menetekel, wie es Herr Lesch vor dem staunenden Publikum messianisch inspiriert darstellt.

Während Spitzbergen schwitzt, frieren andere

Klar, dass von H. Lesch auch nicht erwähnt wurde, wo parallel-große Kälte herrscht. Spitzbergen ist eben Klima und der Rest der Welt normales Wetter:
Kölner Stadtanzeiger, 22.12.2016: In der Sahara liegt Schnee!
In dem algerischen Ort Ain Sefra in der Nähe zur marokkanischen Grenze bedecken weiße Flocken die roten Dünen… Zuletzt hat man die weiße Pracht demnach vor 37 Jahren dort zu Gesicht bekommen
wetteronlind.de, 16. November 2016: Außergewöhnliche Kälte in Sibirien
Während diese Woche in Mitteleuropa und Skandinavien bis fünf Grad wärmer als im Klimamittel wird, liegen die Temperaturen östlich vom Ural gut zwanzig Grad unter dem Mittel.
Neue Zürcher Zeitung, 24.11.2016: Wintereinbruch in Japan, Erster November-Schnee in Tokio seit Jahrzehnten. In Tokio hat es am Donnerstag zum ersten Mal seit 54 Jahren in einem November geschneit.
EIKE, 23. Dezember 2016: Extreme Kälte in Teilen der USA – Dauerhoch in Mitteleuropa
Nach den beiden extrem kalten letzten Wintern in den zentralen und östlichen Teilen der USA scheint es dieses Mal dort zum dritten Mal nacheinander extreme Kältewellen zu geben
kaltesonne, 3. März 2016: in Vietnam 300 km südlich von Hanoi auf 18° nördlicher Breite hat es zum ersten Mal seit Beginn der modernen Klimaaufzeichnungen geschneit, und das gleich 20 cm.

Und immer neu taut auch der Permafrost

Zuerst eine kurze Rückschau zu den Eskimos, denen „der Boden unter den Füssen weggezogen wird“:
EIKE 26.08.2016: Ein Inuit-Inseldorf in Alaska beschloss aus Furcht vor dem Klimawandel aufs Festland zu ziehen – sofern es andere bezahlen,
EIKE 29.09.2016: Aus dem Lehrbuch zur Erzeugung von Klimaalarm Teil 1 Kapitel: Wie macht man 13,1 Millionen Amerikaner zu Klima-Betroffenen

In beiden Artikeln sind auch die Probleme der Eskimos beschrieben. Diese haben wirklich welche – allerdings schon immer gehabt und durch die behördlich erzwungene Sesshaftwerdung in den 50er Jahren des letzten Jahrhunderts zusätzlich auch davor nicht gekannte.
Zur mittelalterlichen Warmzeit muss es dort jedoch mindestens genau so warm wie heute gewesen sein (siehe vorhergehendes Kapitel).
Der angeblich nur wegen des Klimawandels stetig weiter tauende Permafrost am Rande der Arktis ist ein „beliebtes“ AGW-Totschlagargument. Und zwar deshalb, weil dadurch gebundenes Methan freigesetzt wird, welches aufgrund des größeren Forcings erheblich „klimaschädlicher“ als CO2 ist. Es gibt kaum noch einen Bericht (in den „Öffentlichen“) über Alaska oder die Arktis, in dem nicht ein Klimaaktivist, oder –Wissenschaftler vor dem tauenden Permafrost warnt und den Klimauntergang prophezeit.

Wie immer beim Klimawandel, gibt es auch hierzu unterschiedliche Aussagen:
kaltesonne: Spektrum der Wissenschaft: Klimagefahr durch auftauenden Permafrostboden wurde überschätzt
Immer wieder tauchen in der Klimadiskussion die Permafrostböden auf, deren allmählicher Rückgang im Zuge der Erderwärmung einige Zeitgenossen zu apokalyptischen Visionen inspirierte. Permafrostböden sind ab einer gewissen Tiefe das ganze Jahr hindurch gefroren. Sie bilden sich dort, wo die Jahresdurchschnittstemperatur −1 °C und der Jahresniederschlag 1000 Millimeter nicht übersteigt. Die großen Permafrostareale der Erde befinden sich in den arktischen und antarktischen Tundren, in großen Teilen der borealen Nadelwaldgebiete, aber auch in sämtlichen Gebieten, die die Voraussetzungen für Permafrost erfüllen, wie etwa Hochgebirge.
Ein schönes Beispiel für die Permafrostboden-Hysterie konnte man am 28. November 2012 in der Tageszeitung
Die Welt bewundern:
Wenn Permafrostböden tauen, droht der Klima-Gau
UN-Experten warnen eindringlich vor Gefahr, die Folgen der auftauenden Dauerfrostböden weiter zu ignorieren: Durch die Schmelze heizen künftig riesige Mengen Kohlendioxid und Methangas dem Klima ein.
Natürlich war das ein schönes Thema, das auch das Potsdam-Institut für Klimafolgenforschung (PIK) nur zu gerne befeuerte. Am 13. Februar 2013 brachte das Institut eine Pressemitteilung mit dem folgenden Titel:
Das Auftauen von Permafrost-Böden beschleunigt den Klimawandel – trotz mehr Pflanzenwachstum
Kritik an den klimatischen Katastrophenszenarien zum Permafrost war selbstverständlich unerwünscht. Der größte Teil der Presse spielte das Spiel lange Jahre mit und verbreitete ungefiltert die attraktiven populärwissenschaftlichen Gruselgeschichten. Umso größeren Respekt gebührt daher nun Spektrum der Wissenschaft, das sich in seiner März-Ausgabe 2015 mit der Thematik ausführlich und in kritischer Weise beschäftigt hat. Der Berliner Wissenschaftsjournalist Gert Lange beginnt seinen gut recherchierten 11-seitigen Artikel wie folgt:
Permafrost die große Unbekannte im Klimawandel
Die Erderwärmung lässt dauerhaft gefrorene Böden in der Arktis tauen. Weil die dadurch freigesetzten Treibhausgase den Klimawandel beschleunigen, befürchteten manche Umweltschützer einen verhängnisvollen Teufelskreis. Genauere Untersuchungen in jüngster Zeit bestätigen zwar den Effekt, sprechen aber gegen eine drohende Katastrophe.
Keine Permafrost-Katastrophe! Eine gute Nachricht. In der Zusammenfassung zu seinem Beitrag schreibt Lange:
GEFAHR ÜBERSCHÄTZT?
1. Noch bis vor Kurzem geäußerte Warnungen vor einer drastischen Zunahme der Erderwärmung durch das Tauen von Permafrostböden beruhten auf qualitativen Überlegungen, groben Abschätzungen und punktuellen Beobachtungen.
2. Genauere Messungen aus den letzten Jahren, die insbesondere an einer deutsch-russischen Forschungsstation in Sibirien durchgeführt wurden, relativieren das Bild teils erheblich.
3. So sind weite Flächen der Permafrostböden seit dem Ende der letzten Eiszeit schon aufgetaut, und erhebliche Teile des enthaltenen organischen Kohlenstoffs wurden bereits bakteriell abgebaut und als Gas in die Atmosphäre freigesetzt.
4. Außerdem ist die sommerliche Auftauschicht, in der die Mikroben aktiv sind, trotz Erderwärmung nicht dicker geworden. Ob die Treibhausgasemissionen wesentlich zugenommen haben, erscheint deshalb fraglich.
5. Auch die bisherigen Versuche, diese Emissionen großräumig zu erfassen 
– was sehr schwierig ist –, ergaben keine dramatischen Steigerungen.

Und noch ein Infolink.

kaltesonne: Ist der Permafrostboden in Gefahr? Vielleicht in ein paar tausend Jahren
… Es ist auch bei weitem nicht so, dass die Folgen eines Auftauens des Permafrostes noch nie untersucht worden wären, der eisige Boden ist – umstrittener – Forschungsgegenstand seit vielen Jahrzehnten. Ich erinnere mich an ein Seminar in Bad Honnef im Frühjahr 2008, bei dem der Geoforscher und Permafrostexperte Georg Delisle aus Hannover seine Forschungen darlegte. Er hatte Zeiträume aus den letzten zehntausend Jahren untersucht, in denen die globale Temperatur mehrere tausend Jahre lang um bis zu sechs Grad wärmer war als heute. Eisbohrkerne, die er aus der Antarktis und aus Grönland gezogen hatte, gaben ihm genaue Auskunft über die Zusammensetzung der Atmosphäre während dieser Warmzeiten. Sein Resume: „Die Eiskerne sowohl vom grönländischen Eisschild wie auch aus der Antarktis ergeben keinerlei Hinweise auf eine erhöhte Freisetzung von Treibhausgasen zu jener Zeit, obwohl damals zwingend ein tiefgründigeres Auftauen des Permafrostes im Vergleich zu heute gegeben war.“ So stand es damals auf dem Poster für seinen Vortrag.

Offenbar sind CO2 und Methan stabiler im Boden verhaftet, auch wenn er auftaut. Delisle, damals bei der Bundesanstalt für Geowissenschaften und Rohstoffe angestellt, bezeichnete es obendrein als heillosen „Blödsinn“, anzunehmen, der gesamte Permafrost könne bis zum Ende des Jahrhunderts aufgetaut sein. Soetwas würde Jahrtausende dauern. Seine Studie („Near-surface permafrost degradation: How severe during the 21st century?“), die dem Vortrag zugrunde lag, war nach allen Regeln geprüft („peer reviewed“), und sie ist nach meiner Kenntnis bis heute nicht widerlegt.

Nehmen wir einmal an, die Antarktis würde tatsächlich alles Eis verlieren

Der Hinweis von Herrn Lesch: „Nehmen wir einmal an, die Antarktis würde tatsächlich alles Eis verlieren“ zeigt wieder reine Demagogie. Jedoch ist er damit nicht alleine, denn diese Annahme ist auch ein beliebtes „Simulationsspiel“ des PIK, da sich nur damit hohe Meerespegel-Anstiege „erzeugen“ lassen.
In den letzten 1 Millionen Jahre ist es allerdings trotz höherer Temperaturen nicht passiert und würde bei einer Durchschnittstemperatur von -55 °C (Quelle:
Umweltbundesamt) auch eine gewaltige, vollkommen unrealistische Temperaturerhöhung benötigen. Aber das PIK kann es trotzdem simulieren:
WELT N24, 11.09.2016:
So bringen wir die Antarktis ganz zum Schmelzen
Wenn wir alle fossilen Brennstoffe verfeuern, schmilzt auf lange Sicht die ganze Antarktis, haben Forscher ausgerechnet … „Über einen Zeitraum von 10.000 Jahren kann die Antarktis eisfrei werden, wenn wir unsere fossilen Ressourcen vollständig verfeuern“.

Damit es nicht etwa vergessen wird, wird es vom PIK regelmäßig neu publiziert und von unseren Qualitätsmedien dankend angenommen:
EIKE, 23. Dezember 2016: Klimawandel: „Dann wird es Hamburg nicht mehr geben
Am 17. 12. 2016 um 15:28 Uhr gab der SPIEGEL unter obiger Überschrift die Warnung heraus „Hamburg in Gefahr“! Anders als im August 1986, als der Kölner Dom „unter Wasser“ gesetzt wurde ob des Schmelzens des arktischen Eises, wird nun als Quelle die Antarktis bemüht, deren „Mitteltemperatur“ unter -30 °C liegt. Quelle ist der PIK-Professor Anders Levermann.

Auch das Umweltbundesamt schlägt in diese Kerbe und verkündet die Antarktis als vom Klimawandel beeinflusst: Jedoch ist auch die Antarktis vom globalen Klimawandel betroffen und erwärmt sich vor allem im Bereich der antarktischen Halbinsel stärker als der Rest der Welt
Wie wenig sich die Gegend um die Antarktis erwärmt, zeigt das folgende Bild 14 der Satellitendaten. Und was selten erwähnt wird: Das „Anhängsel “antarktische Halbinsel“ gehört klimatisch eigentlich gar nicht mehr zur Antarktis, sondern schon eher zu Südamerika, dem es gegenüber liegt. Es ist aber eine der wenigen Gegenden dieses riesigen Kontinents, an welcher wenigstens im Ansatz so etwas wie „Klimawandeleinfluss“ gemessen werden kann.
Denn selbst fleißige Jungforscher können den Klimawandel in der zentralen Antarktis nicht finden:
kaltesonne: Unerwartete Entdeckung im Rahmen einer Doktorarbeit an der Universität Bremen: In der Zentralantarktis besitzt der CO2-Treibhauseffekt offenbar keine erwärmende Wirkung

Bild 14 RSS TLT Satellitendaten untere Troposphäre, Werte Südpolar 1979 – Nov. 2016 (Hinweis: RSS-Südpolar ist der Rand der Arktis, die Zentraltemperaturen werden von den Satelliten nicht erfasst)

Dort wird nämlich nichts mehr wachsen

H. Lesch: … und natürlich weiß man inzwischen längst wie das Reduktionspotenzial aussehen muss … was man machen muss, um der Welt tatsächlich zu helfen .. und ich kann eigentlich nur … darauf hinweisen dass wir es bis jetzt nicht geschafft haben, aus all diesem Wissen was wir haben tatsächlich Konsequenzen zu ziehen was wir machen sollen.
Was passieren wird, wenn wir so weitermachen wie bisher können sie hier sehen
(leider wird das Bild im Video nicht gezeigt). Europa wird durchaus profitieren wenn die Zwei Grad Grenze erreicht wird, aber weite Teile der Welt werden das nicht. Und genau da wo die Bevölkerung wächst, werden wir uns auf ein riesiges Problem einzustellen haben … dort wird nämlich nichts mehr wachsen. Also, wir können es direkt vor unseren Augen sehen.

Kritische Anmerkungen dazu

Man kann als Gegen-Argumentation immer nur neu die Darstellungen bringen, was alleine die geringfügige Erwärmung seit der letzten, kleinen Kaltzeit – in Verbindung mit moderner Landwirtschaft – für einen Segen für den Globus brachte. Genau das, was Herr Lesch vorschlägt: auf eine vor-Industrielle Agrarwirtschaft zurück zu gehen, wäre eine Katastrophe und Verarmungsszenario.

Bild 15 Weltweite Produktionen von Kornprodukten. Quelle: kaltesonne: Weshalb steigt die globale Weizenernte immer weiter an, obwohl der Weizen doch angeblich vom Klimawandel bedroht ist?

Nachlesen kann man es detaillierter in den folgenden Publizierungen:

EIKE 19.09.2016: Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht
EIKE 26.11.2016: Forscher des Weltklimarates IPCC rechnen, dass die globale Erwärmung 10 bis 50 % der jährlichen Ernte bedroht – Was steckt dahinter?
EIKE 30.06.2015: Ernteerträge und Klimawandel

Afrika zeigt aber auch, wohin ein Verbleib in kleinbäuerlicher Landwirtschaft mit ihren mickrigen Erträgen führt: Die Erträge reichen nicht einmal für die Zuwachsraten der eigenen Familien aus, an Überschüsse ist gar nicht zu denken.

Man kann es natürlich machen wie in Simbabwe, wo die „industriell“ produzierenden Farmer verjagt wurden und aus einer ehemaligen Kornkammer eines der typischen, sozialistischen Armenhäuser entstand. Jeder hat eben verschiedene Vorstellungen von der richtigen Zukunft. Nur müsste man das dann zu Ende denken – und auch ehrlich vermitteln: Wollt ihr mit uns den Weg zurück in weltrettende, frühere Armut gehen?!, so wie es große Denker der Kirche bereits machen:
EIKE 18.04.2016: Kirche und Klimawandel
[11] Hans-Peter Gensichen, Armut wird uns retten:
These 10 (Ein gemeinsamer Wohlstand): Südliche Theorie der Befreiung aus der Armut und Nördliche Theorie der Befreiung zur Armut und aus dem Reichtum heraus sind verwandt, allerdings über Kreuz. Eine akzeptierte und gestaltete Süd-Nord-Annäherung der Entwicklungsniveaus drückt diese Verwandtschaft aus: Eine dortige Befreiung aus der Armut und eine hiesige Befreiung in die Armut haben ein gemeinsames Ziel: Einen globalen Wohlstand etwa auf dem Niveau von Chile bzw. Slowenien.

Moderne Propheten sind heute oft verbeamtet. Damit ist man von den Auswirkungen der eigenen Versprechungen und Wünsche schon einmal sicher verschont.

Und gerade der von Dürren – auch in vor-Industriellen Zeiten – gebeutelte Sahel bekommt durch die Erwärmung inzwischen mehr Feuchte, da Monsunausläufer wieder (wie zur Römischen Warmzeit, als Nordafrika eine Kornkammer war) weiter ins Land kommen.
WIKIPEDIA: In den 1970er und frühen 1980er Jahren fielen diese Werte, sodass sich die Sahara immer weiter in Richtung Sahel ausbreitete. Mitte der 80er drehte sich dieser Trend, seitdem nehmen die Niederschlagsmengen zu. Im Vergleich zu 1980 ist die Sahelzone heute deutlich grüner.
Beim Ansehen von Bild 16 erkennt man eine deutliche Zyklik, aber keinen Klimawandel.

Bild 16 Sahel-Niederschlagsindex. Quelle: WIKIPEDIA

Nur nutzt das dem Sahel nichts. Seine Bevölkerung wächst weit schneller (und die Viehherden als Statussymbol ebenfalls), als das Grün nachwachsen kann.

Wer also vor hat, die Welt wenigstens noch eine Zeit lang ernähren zu können, sollte sich das mit dem Verteufeln industrialisierter Landwirtschaft gut überlegen. Ein Bio-gedüngtes Urban-Gardening, oder komfortabler, das eigene Vorgärtchen, reichen dazu nicht aus. Biolandwirtschaft ebenfalls nicht:
EIKE: Biobauern sind die größten Lebensmittel-Vernichter

Die Forderung, die Pflanzennahrung CO2 zu reduzieren, obwohl die Atmosphäre davon zu wenig hat, wir bestimmt einmal als „kollektiver Generationenschwachsinn“ in die Geschichte eingehen.

Es gibt keine schlechten Regierungen mehr, es gibt nur noch den schlimmen Klimawandel

Im folgenden Bild 17 ist es nochmals am Beispiel der einstigen Kornkammer Simbabwe gezeigt, was landwirtschaftliche Erträge wirklich beeinflusst.
oneworld.at: Simbabwe war einst als „Brotkorb Afrikas“ bekannt und exportierte seinen Überschuss an Getreide in die Nachbarländer. Heute kann der Staat seine eigene Bevölkerung nur noch schwer ernähren. Getreide und die meisten Früchte werden größtenteils aus dem angrenzenden Sambia eingeführt, dessen Landwirtschaft blüht.

Die Daten dazu:
Simbabwe (Quelle: fact fish):
1960: Einwohner: 3,792 Millionen, Erntemenge Getreide: ca. 1,266 Mt
2010: Einwohner: 13 Millionen (+242 %), Erntemenge Getreide: ca. 1,405 Mt (-11 % gegenüber 1960)
1996: Höchste Getreideproduktion: 3,13 Mt, Reduzierung im Jahr 2010: Auf 45 % vom Maximalwert

Bild 17 Simbabwe Ertrag Getreide gesamt von 1961 – 2014 (hellblau) und Bevölkerungsentwicklung (violette, gestrichelte Linie), dazu der weltweite Weizenertrag. Beachten: Die Vertikalachsen-Maßstäbe sind vollkommen unterschiedlich. Quellen: fact fish

Erklärungen sind so einfach geworden, seitdem wir Klimawandel haben

Um das eklatant erkennbare Ernährungsproblem (welches eindeutig nicht Klimawandel-bedingte Ursachen hat) in Simbabwe zu lösen, müsste man natürlich anderes und weit Schwierigeres tun, als Deutschland zu dekarbonisieren und Gebühren auf CO2 zu erheben. Da Mugabe von unseren Linken aber einst in den höchsten Tönen gefeiert wurde, erklärt man dem staunenden Bürge jedoch:
E+Z Entwicklung und Zusammenarbeit: Landwirtschaft in Gefahr
In Simbabwe haben die Menschen nicht nur mit der schwierigen politischen Situation zu kämpfen, im Alltag stehen sie noch anderen Problemen gegenüber: Der Klimawandel macht ganze Landstriche unfruchtbar und könnte die Ernteerträge bis 2020 halbieren

Im vorigen Absatz stand in der Quelle „oneworld.at“, dass im direkt benachbarten Sambia (mit ähnlichen klimatischen Bedingungen) die Landwirtschaft blüht. Wie das aussieht, zeigt das folgende Bild. Es wäre interessant zu erfahren, was die Klimawandel-Ernte-Zukunfts-Simulationsprogramme dort ermittelt haben und welche Ausrede für den Ertragsunterschied trotz ähnlichem Klimat vorliegt.

Bild 18 Getreideertrag Sambia 1961 – 2014. Quelle: fact fish

Aber so sieht Qualitätsinformation für den Bürger eben aus. Schließlich will Deutschland nach mehreren misslungenen Versuchen endlich doch noch die ganze Welt erretten und dazu auch ein Vorreiter an Geldtransfers in den Klimawandel-Hilfsfonds sein. Seitdem gibt es nach „offizieller“ Berichterstattung in Dritte-Welt Ländern keine politisch verursachten Probleme mehr, sondern nur noch den Klimawandel.

Wir müssen gegen Unternehmen vorgehen, die das Klima schädigen

H. Lesch: wir kriegen es nicht hin, dass Unternehmen, die nachweislich die gesamte Menschheit schädigen, einen Shitstorm erleben. Das kriegen wir nicht hin … aber wir schaffen es nicht, diesen großen Unternehmen wirklich klar und deutlich zu sagen: jetzt ist Schluss … dass wir gegen solche Unternehmen… offenbar vorgehen müssen … aber unsere Gesellschaft kriegt kein komisches Gefühl im Nacken …

Kritische Anmerkungen dazu

Das Beispiel der Hexenverfolgung lässt sich wiederholen. Auch diese wurden damals nicht verurteilt, weil sie Hexen waren, sondern weil ihr Tun die Allgemeinheit durch Schadzauber schädige. Die Klimareligion macht davon keine Ausnahme und hat das Verfahren wiederbelebt. Und so ist es inzwischen üblich geworden, auf virtuellen (von Computern simulierten) Schaden zu verklagen. Und es wird von unserer „Intelligenz“ teils vorbehaltlos unterstützt und von den Medien hofiert.
Klimafakten:
Neue Kommunikationsstrategie: „Ey, ich verklag‘ Dich auf Klimaschutz“
Gerichtsprozesse sind eine Aktionsform, die bei Klimaschützern im Trend liegt. Das Motiv ist naheliegend: Unternehmen werden verklagt, weil sie Treibhausgase ausstoßen und dadurch die Erderwärmung antreiben. Und Regierungen werden verklagt, weil sie die Unternehmen nicht daran hindern. USA, Pakistan, Schweiz, die Niederlande – Klimaklagen rund um den Globus
EIKE 15.06.2016: Staaten für mehr Klimaschutz verklagen ist cool
EIKE 20.05.2016: Berichterstattung von Klimaretter.Info über die am Pfingstwochenende durchgeführten Agitationen im Braunkohlerevier

Im Mittelalter täuschte man sich (über Jahrhunderte), was inzwischen von der Kirche (notgedrungen, Aussage eines verärgerten Regionalbischofs dazu: „ … aus heutiger Sicht gesehen war das damals falsch“) „eingesehen“ wird. Die heutige „Intelligenz“ weiss aber inzwischen dank Computer(-Simulationen) ganz sicher, welches wirkliche Hexen sind. Und solche darf – nein muss – man verfolgen. Zumindest unsere „Intelligenz“ ist wieder dieser Überzeugung: Beim Klimawandel und natürlich auch sonstiger, von Fachpersonen erkannter, falscher Meinungen.
Achgut:
Morgen, Kinder, wird’s was geben! Ein Abwehrzentrum gegen Desinformation

Ruhrkultour: Das US-Ministerium für Wahrheit wurde am 23. Dezember 2016 offiziell geboren (lesenswert)

Fazit

Jede Regierungsform hat ihre Berater. Früher „hielt“ man sich oft einen Mönch oder Prälaten, heutzutage hält man sich modernere Propheten, die mit dem Computer besser umgehen können, weil diese angeblich im Vorhersagen genauer sind.

Die Linken bis Hardcore-Kommunisten (welche sich inzwischen großteils in „bürgerlichen“ Parteien nach oben schubsten) verspotteten einst die dummen C-Bürger, weil diese zu den Kirchentagen pilgern und sich dort Verkündigungen anhören. Heute sind diese Verspotter meist ins GRÜNE Lager gewechselt. Dort brauchen sie nicht zu einem Kirchentag zu pilgern, sondern können sich Verkündigungen gleich auf ihren Parteitagen anhören.

Leider ergibt sich daraus eine wirklich schlimme Konsequenz: Diese CO2-Verteufelungs-Generation verbaut der Welt jegliche vernünftigen Lösungen für die vielen, wirklich vorhandenen und noch kommenden Probleme.

Wer weitere Rezensionen zu Vorträgen von Herrn Lesch lesen möchte, wird hier fündig:
EIKE: Harald Lesch, die Claudia Roth des Klimawandels: Glaubt einfach, was ich erzähle – Nachprüfen schadet nur!
EIKE: Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?
EIKE: Bei Harald Lesch sind Hopfen (und Malz) verloren

Anlagen

IPCC-Aussagen zu Extremereignissen im AR5 Langbericht

Statements zu Extremereignissen aus dem aktuellen IPCC-Bericht: IPCC AR5 Langfassung
Tropische Stürme und Hurrikane
IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin.”
Übersetzung: “Keine robusten Trends bei den jährlichen Zahlen von tropischen Stürmen, Hurrikans und Stark-Hurrikans konnten in den letzten 100 Jahren im Nordatlantischen Becken ausgemacht werden.

Tropische Zyklone
IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”
Übersetzung: “Aktuelle Datensätze zeigen keine signifikanten beobachteten Trends bei der weltweiten tropischen Wirbelsturmfrequenz während des letzten Jahrhunderts und es ist ungewiss, ob ein berichteter langfristiger Anstieg der tropischen Wirbelsturm-Frequenz robust ist, nach Berücksichtigung der letzten Änderungen in den Beobachtungs-Möglichkeiten.“

AußertropischeZyklonen
IPCC 2013, AR5, WGI, Kapitel 2, Seite 220: “In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”
Übersetzung: “Zusammenfassend ist das Vertrauen in große Änderungen in der Intensität extremer aussertropischer Zyklone seit 1900 gering. Es gibt auch [nur] ein geringes Vertrauen für einen klaren Trend bei Sturm-Proxies wegen Inkonsistenzen zwischen den Studien oder wegen dem Fehlen von Langzeitdaten des letzten Jahrhunderts in einigen Teilen der Welt (vor allem auf der Südhemisphäre). Ebenso ist das Vertrauen in Trends in extreme Winde niedrig, wegen der Qualität und wegen Konsistenz-Problemen mit den analysierten Daten.“

Dürren
IPCC 2013, AR5, WGI, Technical Summery, Seite 50: ”There is low confidence in a global-scale observed trend in drought or dryness (lack of rainfall), owing to lack of direct observations, dependencies of inferred trends on the index choice and geographical inconsistencies in the trends.”
Übersetzung: “Es besteht ein geringes Vertrauen im globalen Maßstab beobachteten Trend an Dürre oder Trockenheit (Mangel an Niederschlag), aus Mangel an direkten Beobachtungen, Abhängigkeiten von abgeleiteten Trends auf der Indexauswahl und wegen geographischer Unstimmigkeiten in den Trends.“
sowie
IPCC 2013, AR5, WGI, Kapitel 2, Seite 215: “In summary, the current assessment concludes that there is not enough evidence at present to suggest more than low confidence in a global scale observed trend in drought ordryness (lack of rainfall) since the middle of the 20th century, owing to lack of direct observations, geographical inconsistencies in the trends, and dependencies of inferred trends on the index choice. Based on updated studies, AR4 conclusions regarding global increasing trends in drought since the 1970s were probably overstated. However, it is likely that the frequency and intensity of drought has increased in the Mediterranean and West Africa and decreased in central North America and north-west Australia since 1950.”
Übersetzung: „Zusammenfassend kommt die aktuelle Bewertung zu dem Schluss, dass es zur Zeit nicht genug Hinweise und [nur] ein geringes Vertrauen in einen beobachteten globalen Trend an Dürre oder Trockenheit (Mangel an Niederschlägen) gibt, aus Mangel an direkten Beobachtungen in der Mitte des 20. Jahrhunderts, geographischen Inkonsistenzen in den Trends und Abhängigkeiten der abgeleiteten Trends auf der Indexauswahl. Auf Basis aktualisierter Studien waren die AR4-Schlußfolgerungen bezüglich global zunehmender Trends an Dürre seit den 1970er Jahren wahrscheinlich übertrieben. Es ist jedoch wahrscheinlich, dass die Häufigkeit und Intensität von Dürre im Mittelmeerraum und Westafrika sich erhöhen könnte und im Zentrum von Nordamerika und Nordwest-Australien seit 1950 abnehmen könnte.“

Überflutungen
IPCC 2013, AR5, WGI, Technical Summery, Seite 112: ”There continues to be a lack of evidence and thus low confidence regarding the sign of trend in the magnitude and/or frequency of floods on a global scale over the instrumental record.”
Übersetzung: “Es besteht weiterhin ein Mangel an Beweisen und deshalb ein geringes Vertrauen in Bezug auf Trend-Anzeichen in Bezug auf Größe und / oder Häufigkeit von Überschwemmungen auf globaler Ebene der Instrumenten-Aufzeichnungen.“

Hagel und Gewitter
IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems.”
Übersetzung: „Zusammenfassend gibt es [nur] ein geringes Vertrauen in beobachtete Trends bei den Unwetter-Erscheinungen wie Hagel und Gewitter wegen historischen Daten-Inhomogenitäten und Unzulänglichkeiten bei der Systemüberwachung.“

IPCC Zusammenfassung
IPCC 2013, AR5, WGI, Kapitel 2, Seite 219: “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”
Übersetzung: “Es gibt [nur] begrenzte Anhaltspunkte zu Änderungen bei Extremereignissen, die mit anderen Klimavariablen seit der Mitte des 20. Jahrhunderts verbunden sind.“

Nachtrag
Es ist bemerkenswert, dass alle diese Zitate und Aussagen in der 28-seitigen deutschen Fassung des Summary for policymakers (hier) fehlen!

Klimakonsens

Der Konsens wurde erstmalig 2009 erwähnt. Der Dozent P.T. Doran und die Studentin M.K. Zimmermann von der Uni Chicago führten im Auftrag der AGU (American Geophysik Union) eine Umfrage durch um zu klären wie weit in der Wissenschaft Konsens über die Klimafrage herrscht.
Studie: http://www.thegwpf.org/content/uploads/2014/09/Warming-consensus-and-it-critics.pdf
Dazu versendeten sie an 10 257 US-Naturwissenschaftler einen Fragebogen, der im Kern nur zwei simple Fragen enthielt.
1. Glauben Sie, dass die mittlere Temperatur im Vergleich mit dem Niveau vor 1800 allgemein gestiegen, gefallen oder gleich geblieben ist?
2. Glauben Sie, dass menschliche Aktivitäten ein wesentlicher Faktor sind, die zur Änderung der mittleren Temperatur beitragen?

Wen wundert es, dass so ein lächerlicher Fragebogen sofort von 7107 Wissenschaftlern in den Papierkorb geworfen wurde und nur 3146 ihn zurückschickten.
Leider aber waren die eingegangenen Antworten dem AGU nicht genehm, und so wurde nachträglich entschieden, dass nur Fragebögen von wirklich kompetenten Klimawissenschaftlern zu bewerten seien. Als kompetent wurden jene ausgesucht, die mindestens 50% ihrer Veröffentlichungen dem Thema Klima gewidmet hatten. Nun ist bekannt dass die Klimafachpresse zu jener Zeit grundsätzlich keine Beiträge von Klimaskeptikern veröffentlichte.
Von den 3146 beantworteten Fragebögen blieben bei diesem Verfahren nur ganze 77 übrig von denen 75% (97,48%) zustimmten. Damit hatten AGU und IPCC das gewünschte Ergebnis von 97 %, das sie freudig in die Welt hinausposaunten und das auch flugs von willfährigen Medien, insbesondere in Deutschland triumphierend verbreitet wurde.

Im gleichen Jahr 2009 schrieben 31 478 US- Naturwissenschaftler eine Petition an den US- Präsidenten, in der sie ihn baten unter keinen Umständen in der Politik dem CO2 Dogma vom durch Menschen verursachten Klimawandel zuzustimmen.
Quellen

[1] Video: Harald Lesch fordert endlich Konsequenzen aus dem Wissen um den Klimawandel zu ziehen. Quelle: YouTube, Veröffentlicht am 21.11.2016

[2] ScienceScepticalBlog: Die Top 5 Lügenmärchen der Klimaforscher
http://www.science-skeptical.de/klimawandel/die-top-5-luegenmaerchen-der-klimaforscher/0015719/

[3] Spiegel Online, 23.09.2014: Missglückter Forscher-Aufruf zum Uno-Klimagipfel Die 97-Prozent-Falle
http://www.spiegel.de/wissenschaft/natur/klimawandel-97-prozent-konsens-bei-klimaforschern-in-der-kritik-a-992213.html

[4] Klimaretter.Info, 16. April 2016: Klimawandel: „97-Prozent-Studie“ bestätigt
http://www.klimaretter.info/forschung/nachricht/21052-klimawandel-97-prozent-studie-bestaetigt

[5] IOP science, 13April2016, JohnCook at al.: Consensus on consensus: a synthesis of consensus estimates on human-caused global warming

[6] GWUP, 1. Mai 2016: Globale Erwärmung: Der Mythos von der 97-Prozent-Zustimmung der Klimaforscher
http://blog.gwup.net/2016/05/01/globale-erwarmung-der-mythos-von-der-97-prozent-zustimmung-der-klimaforscher/

[7] Natural News, August 31, 2016: Over 37,000 Scientists Sign On Against Man-Made Global Warming Fraud!
http://www.kickthemallout.info/article.php/Story-The_Petition_Project/print

[8] Ruhrkultour: Die fabelhaften 97 % – der Mythos vom Klima-Konsens der Wissenschaftler
http://ruhrkultour.de/die-fabelhaften-97-der-mythos-vom-klima-konsens-der-wissenschaftler/

[9] ScienceSkepticalBlog: Der Klimaberater der Kanzlerin HJ Schellnhuber verkündet, die nächste Eiszeit in 60.000 Jahren fällt durch Menschenhand aus
http://www.science-skeptical.de/klimawandel/der-klimaberater-der-kanzlerin-hj-schellnhuber-verkuendet-die-naechste-eiszeit-in-60-000-jahren-faellt-durch-menschenhand-aus/0014656/

[10] WEB-Animation: Alley, R.B. 2004 GISP2 Ice Core Temperature and Accumulation Data. IGBP Pagges/World Data Center for Paleoclimatology, Boulder CO, USA
https://wattsupwiththat.files.wordpress.com/2009/12/noaa_gisp2_icecore_anim_hi-def3.gif

[11] Publik Forum Edition, Oberursel 2009. Hans-Peter Gensichen: Armut wird uns retten Geteilter Wohlstand in einer Gesellschaft des Weniger

[12] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k
http://www.eike-klima-energie.eu/news-cache/die-problematik-der-temperaturrekonstruktion-eine-beispielhafte-sichtung-dazu-anhand-des-projektes-pages-2k/
[13] EIKE 09.09.2016: Hat die barbusige Dame um 1830 gegen den Klimawandel gekämpft? Eine ganz aktuelle Studie legt es nahe

http://www.eike-klima-energie.eu/news-cache/hat-die-barbusige-dame-um-1830-gegen-den-klimawandel-gekaempft-eine-ganz-aktuelle-studie-legt-es-nahe/
[14] IPCC AR5 WG1, 2013. Climate Change 2013, The Physical Science Basis




Jahreswechsel 2017 – Politik-, Wetter-, Klimaregime-Änderung?

Heute (Silvester 2016) hat der offensichtlich bevorstehende Witterungs(!)-Wechsel deutliche Konturen angenommen. Zum ersten Mal seit mehreren Jahren scheint der große atlantische Langwellentrog seine Position aufzugeben. Die bisherige Position war für die ewigen Südwestlagen bei uns verantwortlich, von denen ja Kämpfe sowie Kämpfe & Kowatsch (2016) eine Häufung während der letzten Jahre nachgewiesen haben.

Das sich wohl ganz grundlegend etwas ändert, mag zunächst die Graphik oben belegen:

Sie zeigt das Ensemble-Mittel für 240 Stunden (= 10 Tage) im Voraus. Dazu folgende allgemeine Bemerkungen: Bei der Quelle www.wetterzentrale.de gibt es auch unter dem Menüpunkt „ENS“ einen Spaghetti-Plot, der auf den ersten Blick sehr wirr aussieht. Kurzwellige Wettersysteme mitteln sich bei der Mittelung heraus, so dass ein stark verallgemeinertes Bild übrig bleibt. Üblicherweise zeigt sich im Mittel eine mehr oder weniger (meist weniger) mäandrierende Westströmung.

Obige Graphik weist jedoch einen markanten Hochkeil über dem Atlantik auf. Eine so deutliche Struktur bei einem Ensemble-Mittel ist sehr ungewöhnlich und zeugt davon, dass die Simulation eines solchen Hochkeils dort für 10 Tage im Voraus außerordentlich zuverlässig ist. Wie gesagt, einen solchen Vorgang hat man während mindestens der letzten drei Winter vergeblich gesucht. Die ewigen Südwestlagen dürften damit vorläufig beendet sein.

Bis dahin sieht es aus heutiger Sicht so aus, dass sich bereits in der Woche nach Neujahr ein erster Vorstoß von Meereskaltluft bis zu den Alpen durchsetzen soll. Danach folgen ein paar Sturmtiefs, die aber schon nicht mehr wie bisher üblich eine Südwest-, sondern eine West- bis Nordwestströmung erzeugen. Im Flachland wird sich dabei erst einmal nasskaltes Wetter einstellen, wobei Niederschläge zwar häufig als Schnee fallen, der aber noch nicht liegen bleibt. Für die Berge bedeutet das jedoch ein Ende des bisher gravierenden Schneemangels.

Am kommenden Wochenende sowie der darauf folgenden Woche hat sich dann das Hochdruckgebiet über dem Atlantik voll ausgebildet, und die Strömung dreht bei uns auf Nord bis Nordost.

So viel zur aktuellen Lage bei uns. Wie aber kann man diesen Vorgang statistisch-synoptisch bewerten? Nun, eine so gravierende und seit Jahren nicht mehr beobachtete Umstellung ist natürlich nicht auf ein bestimmtes Gebiet beschränkt, sondern erfolgt hemisphärisch. Außerdem ist es für mich als Wetterfreak immer faszinierend, wenn sich ein langwelliges Wellenmuster auf der Nordhemisphäre, das Wochen und Monate, ja mit kurzen Unterbrechungen Jahre lang etabliert war, praktisch von einer Woche zur anderen vollständig umstellt. Das sich neu einstellende Muster hat dann wieder einige Zeit Bestand. Soll heißen: der offenbar bevor stehende Wintereinbruch scheint keine kurzfristige Angelegenheit zu sein. Das jedoch bleibt abzuwarten, denn schon eine Vorhersage bzw. Simulation von 10 Tagen im Voraus ist üblicherweise mit immer größeren Unsicherheiten behaftet. Jedenfalls nehmen wir Synoptiker nicht für uns in Anspruch, in der Lage zu sein, das Wetter für 50 oder sogar 100 JAHRE im Voraus vorhersagen zu können!

Philosophisch angehauchte Naturen wie zum Beispiel unser Übersetzer Chris Frey haben dazu noch ganz andere Gedanken. Zum Einen: einen Jahreswechsel gibt es jedes Jahr (ach?), aber einen so drastischen Witterungswechsel genau zum Jahreswechsel schon erheblich seltener, wenn überhaupt schon mal. Aber auch anderswo gibt es drastische Wechsel, die nichts mit Wetter oder Klima zu tun haben: In der Politik beispielsweise in den USA. Der designierte Präsident Trump hat ja schon verlauten lassen, dass er nicht den Mensch als Verursacher von Klimawandel sieht, den es schon seit Urzeiten gab (in den Medien oft als „den Klimawandel leugnend“ diffamiert), und dass er demzufolge die Axt an sämtliche diesbezüglichen Maßnahmen der Obama-Regierung legen wird. Fast scheint es so, als ob das Wetter selbst auf Trumps Seite steht.

Nun ja, als Wissenschaftler halte ich diese Koinzidenz natürlich für völlig unwissenschaftlich. Aber wer weiß? Haben nicht schon viele klimarealistische Autoren und vor allem Astronomen darauf hingewiesen, dass wegen der schwächelnden Sonnenaktivität eine neue Abkühlungsphase bevorsteht? Hat vielleicht nur der El Nino zum vorigen Jahreswechsel das Eintreten einer solchen Abkühlungsphase nur verzögert?

Und könnte es sein, dass sich die Berichterstattung zu diesem Thema auch langsam zu ändern beginnt? Unter Anderem bei WUWT hier beschreibt der Autor Kip Hansen erste Tendenzen in diese Richtung. Was für ein Jahreswechsel!

Aber noch einmal zurück zur Statistik. Die sorgfältig und sicher sehr zeitaufwändig recherchierten Beiträge von Kämpfe und Kowatsch sind ja allesamt statistischer Natur. Statistik heißt aber immer, dass eine bestimmte feste Basis vorhanden sein muss, in diesem Falle also ein bestimmtes Klimaregime. Zur Mittelalterlichen Warmzeit, aber auch während der Kleinen Eiszeit herrschte sicher ein anderes Klimaregime als im vorigen Jahrhundert. Daher steht die nicht beantwortbare Frage im Raum, ob die von den beiden Autoren genannten Statistiken auch in einem anderen Klimaregime als dem im vorigen Jahrhundert gelten. Andererseits darf man auf keinen Fall einen direkten Zusammenhang herstellen zwischen einer eher zufälligen Witterungsumstellung innerhalb von ein paar Wochen einerseits mit einem sich neu einstellenden Klimaregime im Zeitmaßstab von Jahrzehnten oder Jahrhunderten andererseits.

Für mich als Beobachter wird es spannend sein zu sehen, ob auch im kommenden Sommer die ewigen und sehr unwetterträchtigen Südwestlagen ein Ende haben.

Dipl.-Met. Hans-Dieter Schmidt


Aktualisierung vom 1. Januar 2017: So schnell kann das gehen! Mit dem heutigen Modelllauf von 00 UTC ist nichts, aber auch gar nichts merh von irgendeinem Wintereinbruch in der zweiten Woche dieses Jahres zu sehen. Nach vorübergehend etwas kälterem Wetter in dieser Woche mit Schnee bis ins Flachland (der vielfach noch nicht einmal liegen bleiben dürfte), soll sich nun in der Woche ab dem 9.1 wieder mildes Westwindwetter einstellen.

Nun ja, daraus lassen sich aber indirekt wieder ein paar Erkenntnisse  erzielen (weshalb ich die Redaktion auch nicht gebeten habe, diesen Beitrag zu entfernen). Es bestätigt sich nämlich eine Erfahrung bzgl. Modellvorhersagen, die ich schon seit den achtziger Jahren beobachte: Immer wenn die Modelle den Übergang zu kaltem Wetter simulieren, liegen sie sehr häufig daneben (etwa 70% bis 80% aller Fälle). Simulieren sie dagegen den Übergang zu milder Witterung bzw. deren rascher Wiederherstellung, sind sie stets richtig (über 90%). Dies scheint für alle Modelle zu gelten, denn alle einschlägigen Modelle weltweit zeigen diesen Vorgang. Das heißt im Klartext: Winterfreaks werden wohl weiter auf richtiges Winterwetter warten müssen. Immerhin ist eine Westlage aber für Schnee auf den Bergen gut.

Ich halte also die neuesten Modellläufe für absolut zuverlässig. Sollte es nun aber doch in der zweiten Woche dieses Jahres kalt werden, darf man gerne entsprechende Kommentare posten!

Hans-Dieter Schmidt




100% der Erwärmung in den USA gehen auf Daten­manipulationen der NOAA zurück

Zunächst noch Anmerkung zur Übersetzung: Es tauchen naturgemäß immer wieder die Begriffe „mild – warm – hot“ auf. Anders als bei anderen Übersetzungen bleibe ich hier bei der direkten Übersetzung zu „mild – warm – heiß“. Außerdem werden viele Temperaturangaben in Grad Fahreinheit genannt. Den Celsius-Wert setze ich in eckigen Klammern daneben. Differenzwerte in Grad Fahrenheit werden zur Basis 32°F = 0°C berechnet. – Chris Frey

Auf der Website von ClimateCentral.org erschien jüngst folgende Meldung, welche die Washington Post sofort aufgriff. Es wird behauptet, dass das Jahr 2016 in den USA ein „überwältigend heißes Jahr“ gewesen ist und dass die Temperaturen seit dem 19. Jahrhundert um 1,5°F [ca. 0,8°C] gestiegen seien:

In den USA war es dieses Jahr überwältigend heiß. Quelle: Climate Central

Das erste Problem ihrer Analyse besteht darin, dass es in den USA im Jahre 2016 kaum heißes Wetter gegeben hatte. Der Prozentsatz heißer Tage lag unter dem Mittelwert und liegt für das Jahr an 80. Stelle seit 1895. Nur 4,4% aller Tage wiesen eine Temperatur über 95°F [ca. 35°C] auf im Vergleich zum vieljährigen Mittel von 4,9%. Bei Climate Central bläht man milde Temperaturen mit heißen Temperaturen auf.

Man behauptet dort auch, dass die US-Temperaturen um 1,5°F [ca. 0,8°C] gestiegen seien

Klima auf einen Blick. Quelle: National Centers for Environmental Information (NCEI)

Das Problem bei der NOAA-Graphik ist, dass es geschummelte Daten sind [fake data]. Die NOAA erzeugt den Erwärmungstrend mittels Veränderung der Daten. Die Rohdaten der NOAA zeigen im vorigen Jahrhundert keine Erwärmung.

Die „Korrekturen“ ergeben fast genau 1,5°F, also genau die in dem Artikel behauptete Erwärmung.

Die Adjustierungen korrelieren fast perfekt mit atmosphärischem CO2. Die NOAA [die Abkürzung steht für National Oceanic and Atmospheric Administration. Anm. d. Übers.] adjustiert die Daten dergestalt, dass sie zur Theorie der globalen Erwärmung passen. Dies ist bekannt unter der Bezeichnung PBEM (Policy Based Evidence Making.) [etwa: Auf Politik beruhende Herstellung von Beweisen].

Der Hockeyschläger von Adjustierungen seit dem Jahr 1970 geht fast ausschließlich auf die Phantasiewerte der NOAA zurück, mit denen sie fehlende Stationsdaten ersetzte. Im Jahre 2016 fehlten über 42% der monatlichen Daten ihrer Stationen, also hat man die Werte dort einfach erfunden. Das lässt sich auch leicht feststellen, hat man doch fabrizierte Temperaturen in der Datenbasis mit einem „E“ gekennzeichnet.

Als ich meine Behauptungen über den Betrug der NOAA präsentierte, reagierte die NOAA wie üblich und wischte die Behauptungen mit diesen beiden Aussagen vom Tisch:

1. NOAA hat Gitterpunkts-Daten verwendet Gitterpunkts-Daten und ich reale Daten [un-gridded data].

2. Man „musste“ die Daten adjustieren, um einem Bias wegen des Beobachtungszeitpunktes und Stationsverlagerungen Rechnung zu tragen.

Beide Behauptungen lassen sich leicht widerlegen. Der einzige Effekt, den Gitterpunkte haben ist, dass Temperaturen geringfügig erniedrigt werden.Der Trend der Gitterpunkts-Daten ist fast identisch mit dem Trend der realen Daten.

Der Beobachtungszeit-Bias [Time of Observation Bias (TOBS)] ist ein reales Problem, allerdings nur ein sehr kleines. TOBS fußt auf dem Gedanken, dass falls man ein Min/Max-Thermometer zu nahe dem nachmittäglichen Maximum neu einstellt, warme Temperaturen doppelt zählen (und umgekehrt bei Neueinstellung am Morgen). Ihre Behauptung lautet, dass während der heißen dreißiger Jahre an den meisten Stationen die Thermometer zu früh, also am Nachmittag eingestellt wurden.

Das lässt sich leicht überprüfen mittels Verwendung nur der Stationsdaten, die ihre Thermometer während der dreißiger Jahr nicht neu eingestellt hatten. Das Bild ist nahezu identisch mit dem aller Stationen. Keine Erwärmung im vorigen Jahrhundert. Man beachte, dass der Graph unten dazu neigt, zu viel Erwärmung zu zeigen wegen TOBS am Morgen.

Die eigenen Dokumente der NOAA zeigen, dass die TOBS-Adjustierung gering ist (0,3°F) und nach 1990 flach verläuft.

https://www.ncdc.noaa.gov/img/climate/research/ushcn/ts.ushcn_anom25_diffs_pg.gif

Gavin Schmidt von der NASA erklärt sehr eindeutig, warum die US-Temperaturaufzeichnungen nicht adjustiert werden müssen:

Man kann 50% der Stationsdaten oder mehr aussortieren, und man bekommt im Grunde die gleichen Antworten.

Eine der neuesten Innovationen ist das Erstellen eines Klima-Referenz-Netzwerkes parallel zu den gegenwärtigen Stationen, so dass man nach potentiell ernsten Dingen in großem Maßstab suchen kann – und sie haben bisher keine solchen Dinge gefunden.

Ausführlicher:

NASA – NASA Climatologist Gavin Schmidt Discusses the Surface Temperature Record

Die NOAA hat immer gewusst, dass es in den USA nicht wärmer wird:

US-Daten zeigen seit 1895 keinen Erwärmungstrend – NYTimes.com

Sämtliche Behauptungen im Climate Central-Artikel sind betrügerisch. In den USA wird es nicht wärmer, und 2016 war kein heißes Jahr. Es war ein sehr mildes Jahr.

Link: http://realclimatescience.com/2016/12/100-of-us-warming-is-due-to-noaa-data-tampering/

Übersetzt von Chris Frey EIKE

Bemerkung zu den letzten beiden Graphiken: Es ist mir nicht gelungen, sie lesbarer darzustellen. Wer nachlesen möchte, klicke bitte auf den Link zum Original.




Die Zahltage des EEG beginnen ihren vorher­gesagten Lauf

Zum Muttertag geschah es:
EIKE 04.06.2016 : Muttertag war EEG-Geschenktag auf Kosten der nicht privilegierten Stromkunden,
und nun wieder über Weihnachten (dazwischen auch, aber nicht in so großem Maßstab):
Vom 24. – 26.12.2016 wurden 582.426 MWh elektrische Energie mit (leicht abgerundet) 19,907 Millionen EUR Zuzahlung von der Strombörse an willige Abnehmer „verhökert“*.
Das klingt nach nicht einmal so viel. Schließlich ist man in Deutschland inzwischen weit höhere Kosten für verschiedensten politischen Unsinn längst gewöhnt.
Doch in Summe beträgt die Erlösdifferenz zur EEG-Zwangszahlung für den Überschussstrom (wieder leicht abgerundet) 207,881 Millionen EUR*. Ein Betrag, den die privaten, deutschen Stromkunden an die gelobten „Ökostrom-Energieernter“ ohne jegliche Gegenleistung löhnen mussten.
Und leider bekam vorwiegend das Ausland den Strom, zusätzlich versüßt mit Zuzahlungen für die Freundlichkeit, ihn abzunehmen. Kleine Probleme scheinen demnach noch in der grandiosen Wende zu stecken. Aber das sollte sich bestimmt noch lösen lassen – zumindest wenn das EEG erst einmal vollständig ausgebaut ist.

Bis es aber so weit ist, soll einmal nachgesehen werden, warum das EEG-Wunder über Weihnachten das Ausland und nicht die deutschen Stromkunden so reich beschenkt hat und warum es allen Beteuerungen zum Trotz damit immer schlimmer werden wird.

Bild 1 Verlauf von Verbrauch, Strompreis und Ökostromerzeugung vom 17. – 28. Dezember. Quelle: Agorameter

Aus Bild 1 kann man (stark vereinfacht) folgendes herauslesen:

– Bis zum 23. Dezember mussten die konventionellen Kraftwerke den wesentlichen Stromanteil erzeugen, weil die Öko-Energieernter nicht im Ansatz ausreichend Energie liefern konnten. Von den 38 % Strombedarf, den sie angeblich decken [1], ist über viele Tage nichts zu sehen.
– Dann kam Wind auf und die Windmüller drückten ihren Strom in die Leitungen, während wegen Weihnachten gleichzeitig der Verbrauch deutlich sank.
– Trotzdem reichte der Ökostrom nicht aus und konventionelle Kraftwerke mussten weiter unterstützen.

Jedoch war es nicht möglich, diese Energiedifferenz immer auszugleichen, heißt konventionelle Erzeugung so schnell hin- und her zu fahren, wie der Ökostrom schwankte, mit der Konsequenz, dass zeitweise (kann auch in Teilnetzen gewesen sein) Überangebot vorlag, was sich mit einem negativen Strompreis äußerte.

In den folgenden Bildern kann man dazu die Details betrachten.
Solar (Bild 2), obwohl es am EEG einen Kostenanteil von ca. 40 % hat (WIKIPEDIA, Stand 2013), lieferte praktisch nichts!
Erzählt wird von „Fachinstituten“ dazu folgendes:
Fraunhofer ISE, Aktuelle Fakten zur Photovoltaik in Deutschland [1]: Liefert PV bereits relevante Beiträge zur Stromversorgung? … An sonnigen Werktagen kann PV-Strom zeitweise bis zu 35%, an Sonn- und Feiertagen bis zu 50% unseres momentanen Stromverbrauchs abdecken
Fazit: Wer sich auf solche Fachinstitute verlässt, ist auch mal ganz schnell (von Energie) verlassen.

Bild 2 Verlauf von Verbrauch und Solareinspeisung vom 17. – 28. Dezember. Quelle: Agorameter

Die Windenergie (Bild 3) ist etwas besser, kann, was immer wieder bestritten wird, aber auch für längere Zeitspannen fast auf Null sinken, womit immer neu bewiesen ist, dass sie nicht grundlastfähig ist, obwohl auch dies von „Fachpersonen“ behauptet wird:

EIKE 28.01.2016: Ein EEG-Märchen wird zum Öko-Dogma – Offshore Windkraft sei grundlastfähig
dpa: [2] Weil der Wind auf dem Meer stetiger und häufiger weht als an Land, liefern Windräder auf See mehr Strom und sind besser ausgelastet. Sie gelten wie Atom- und Kohlekraftwerke als „grundlastfähig“, können also den Versorgungssockel absichern.
Die Münchner Stadtwerke behaupten es
[3] Christian Vogt, Leiter des Beteiligungsmanagements der Stadtwerke München: … Bis 2025 wollen wir so viel Ökostrom erzeugen, wie ganz München verbraucht. Eine ganz wesentliche Bedeutung bei der Umsetzung hat die Windkraft, insbesondere Offshore. Sie hat das größte Potenzial und ist sogar grundlastfähig.

Bild 3 Verlauf von Verbrauch und Windstromeinspeisung vom 17. – 28. Dezember. Quelle: Agorameter

Warum führte dies über Weihnachten zu negativen Strompreisen?

Elektrischer Strom verhält sich immer noch stur nach physikalischen Gesetzten und nicht nach den Wünschen der Ökopolitiker und denen von Frau C. Kemfert. Er muss weiterhin sekundengenau immer in der Verbrauchsmenge erzeugt werden. Herrscht Überangebot, muss er „verschwinden“, sonst steigt die Netzspannung zwangsweise an mit Folgen, die bis zur Netzzerstörung – und der Verbraucher -reichen.

Um die Energie „verschwinden“ zu lassen, gibt es nur wenige Möglichkeiten:
– jemand hat genügend Last und kann ihn abnehmen (wie geschehen, ist das oft noch das Ausland),
– er wird gespeichert (dazu fehlen bisher und auch in weiterer Zukunft vollkommen die Möglichkeiten im erforderlichen Großmaßstab),
– er wird beim Entstehen abgeregelt (bedeutet: nicht eingespeist, aber trotzdem voll vergütet).

Allen Lösungen ist aber eines gemeinsam: Der private, deutsche Stromkunde muss den zu viel erzeugten EEG-Strom gesetzlich gezwungen immer voll bezahlen, egal wohin und wie er verschleudert oder gar abgeregelt wird.
Warum ist das so: Weil die Ökostrom-Vorrangeinspeisung festgelegt hat, dass Ökostrom in beliebiger Menge und vollkommen unabhängig vom Bedarf oder Netzlast erzeugt werden darf und grundsätzlich beim Entstehen vergütet wird.

Nun soll diese unsinnige Art der Stromerzeugung ja zur 100 %-Versorgung ausgebaut werden, was ungefähr den 4 – 6fachen Zubau erfordert. Für den ersten Schritt dahin, den 3-fachen Zubau ist in Bild 4 ganz grob eingezeichnet, wie die Ganglinien dann verlaufen (Hinweis: der Unterschied beim Schwellwert des Börsen-Strompreises in Bild 4 gegenüber Bild 3 hat die Ursache, dass in Bild 3 auch Wasserkraft und Biogasstrom enthalten sind, die beide im Bild 4 fehlen).
Eine Grundlast ist weiterhin nicht im Ansatz vorhanden, das zeitweise Überangebot schnellt aber in ganz neue Dimensionen. Die Verbraucher werden es am sichersten bemerken, denn die daraus für ihn zwangsweise resultierende Kostenlawine wird gewaltig.

Bild 4 Verlauf von Verbrauch und Einspeisung Wind + Solar vom 17. – 28. Dezember. Quelle: Agorameter. Vom Autor ergänzt (grobe Skizzierung): 3-fache Einspeisung, Schwelle für negative Strompreise (unter der rot gestichelten Linie)

Was sagt die Klima- und Energieberaterin unserer Bundesregierung, Prof. C. Kemfer dazu:
[4] VDI Nachrichten 29. April 2016: DIW-Expertin Claudia Kemfert, „Energiewende gefährdet:
Prof. C. Kemfert: Derzeit haben wir einen Stromangebotsüberschuss und verkaufen diesen in unsere Nachbarländer. Der Strompreis an der Börse ist so niedrig wie nie. Wir könnten problemlos die ineffizienten Kohlekraftwerke abschalten. In Folge würde sich nicht nur das vorherrschende Überangebot vermindern, sondern es wären auch die Stromnetze weniger belastet.
Prof. C. Kemfert: Der Preis für Privatpersonen hängt vor allem daran, dass der niedrige Börsenstrompreis nicht bei ihnen ankommt. Nur energieintensive Unternehmen, die von Steuern und Umlagen befreit sind, profitieren davon. Sobald Kohle- und Kernenergie verschwinden, steigt zwar der Börsenstrompreis, aber die EEG-Umlage sinkt. Dann würden voraussichtlich auch Privatpersonen weniger bezahlen müssen.

Beim Durchlesen dieses Unsinns wird verständlich, warum es diese Professorin bis in das Beratergremium in Berlin geschafft hat. Unsere Politiker mögen keine ehrlichen Antworten mehr, sondern erwarten Zustimmung zu ihren Beschlüssen, natürlich mit passenden Begründungen.

Man hätte sich gewünscht, der Fachredakteur der VDI-Zeitschrift hätte im Interview im Bild 4 oder Bild 5 virtuell die konventionellen Kraftwerke abgeschaltet und dann in der Dunkelheit gefragt, wo Frau Kemfert nun problemlos die fehlende Ökoenergie aus dem angeblich vorherrschenden Überangebot herbekommen möchte. So etwas Gehässiges macht ein Fachredakteur des VDI aber nicht.
Zum von Frau Kemfert unisono gebrachte Beispiel, der billige Börsenstrompreis käme nur nicht beim Privatkunden an, gibt es ebenfalls viele Gegenargumentationen. Sie basieren immer darauf, dass dieser Strom immer! bereits von ihm voll vergütet werden musste und für ihn deshalb erst kostenneutral ist, wenn er an der Börse mindestens für die Einspeisevergütung (zuzüglich der Zuschläge) verkauft werden kann.
Es ist so, als wenn der Kunde seine Verpflegung beim Discounter zu bezahlen hat, aber an einer Tafel abholen muss und die „Verpflegungsmangelfachpersonen“ dann erklären, man solle sich als Kunde über diese Errungenschaft doch freuen, weil es an der Tafel an ihn kostenlos ausgegeben wurde. Mit der Ergänzung, dass es nun auch nichts aus mache, wenn die Discounter jetzt gesetzlich gezwungen werden, beliebige Produktions- und Ernteüberschüsse zu einem weit über dem Marktpreis liegenden Obulus abzunehmen und notfalls vor dem Verderben zu verschenken. Diesen Obulus habe der Kunde selbstverständlich auch über eine Umlage voll zu bezahlen, aber bitte wieder freuen, an der Tafel kann sich jeder auch diesen Überschuss umsonst abholen. Sofern es dort wegen der Übermengen keine Abholer gibt, geht der Überschuss mit einer Zuzahlung ins arme Ausland, oder wird gleich vernichtet (abgeregelt). Man wird aber einsehen, dass diese Zuzahlungen an das arme Ausland auch wieder über eine Umlage von ihm eingefordert werden müssen.
Solche Mechanismen kannten schon die ehemalige DDR und Auswüchse der EU Agrarsubventionierungen. Politische Lösungen wiederholen sich schier unendlich.

Bild 5 Verlauf von Verbrauch und Einspeisung Ökostomerzeugung im Jahr 2016 (bis 29.12.). Quelle: Agorameter

Die Führungskräfte in den Fachfirmen, wie Versorger und Netzbetreiber wissen von den Problemen und steuern dagegen – sollte man meinen. Aber gerade diese unterstützen den Weg in dieses EEG-Verderben, weil es ihnen – und nur ihnen – Vorteile bringt und es eben politischer Beschluss ist, den man pflichtgetreu (da im Vorstand in aller Regel auch hochrangige Politikvertreter sitzen) umzusetzen hat:

[5] Die N-ERGIE betrachtet es als ihre Aufgabe, die politischen Vorgaben entsprechend des geltenden gesetzlichen Handlungsrahmens möglichst effizient umzusetzen. Dies ist die Vorgabe des EnWG.
Gesellschaftliches und politisches Ziel in Deutschland ist die Entwicklung einer vieldimensional nachhaltigen Energiewirtschaft auf der Grundlage der Zieltrias aus Versorgungssicherheit, Wirtschaftlichkeit und Umweltverträglichkeit. Der notwendige Beitrag regenerativer Energiequellen zur Stromerzeugung steigt nach dem deutschen Energiekonzept sukzessive auf bis zu 80 % im Jahr 2050; fossile Energieträger werden nur mehr ergänzende Funktion im zukünftigen Energiesystem einnehmen. Dies ist die aktuelle Vorgabe der Politik.
Der gesellschaftliche Grundkonsens der deutschen Energiewende mit ihren neuen Strukturen, Rollen, Vorgehensweisen, Geschäftsmodellen und Märkten gründet in der Erkenntnis, dass die Energieversorgung im Strom nahezu vollständig dekarbonisiert werden muss und hierzu die Kernenergie keine akzeptable Option für Deutschland darstellt . Dazu bekennt sich die N-ERGIE.
[6] VBEW Vorstandvorsitzender beim Überreichen der Plakette „Gestalter der Energiewende“:
„Wir freuen uns sehr über diese Auszeichnung. Unser Verband wird sich mit allen Mitgliedern weiterhin für das Gelingen der Energiewende engagieren“

Für ihre Kunden bieten sie dann frappierende Lösungen:
EIKE 02.11.2016: Verwundert, weil ihr Stadtteil dank EEG zeitweise keinen Strom bekommt? Auf unserer Homepage wurde doch darüber informiert!
Jedoch gibt es Politiker, die kurze Momente der Energie-Erleuchtung haben:
[6] In einer Publizierung der SEN AG Energie der CSU steht:
Nicht vorhandene Reservekraftwerke und die Netzunsicherheit der Nachbarländer gefährden die Stromversorgung in Bayern zusätzlich. Bei unseren Nachbarn gibt es Hinweise auf einen Rückgang der Kraftwerksleistung und eine Erhöhung des eigenen Strombedarfs.
Die Sicherheit der Stromversorgung in Bezug auf Haltung von Frequenz, Spannung und Stabilität ist nicht ausreichend gewährleistet. Nach den neuesten Zahlen der Bundesnetzagentur sind deutschlandweit bis dato 50 Kraftwerke zur Abschaltung angemeldet. Die Lage wird dramatisch.
Doch die es verfasst haben, sind ja Politik-Senioren. Und die haben noch nicht mitbekommen, dass der Strom inzwischen nicht mehr nach veralteten Physikbüchern fließt, sondern viel moderner übers Internet kommt – auf jedem PAD kann man ihn schließlich in einer App fließen sehen – und durch Wischen an der Steckdose erscheint.

Eines ist aber sicher: Das EEG wird noch viel Stoff für Publizierungen liefern.
EIKE 30.11.2016: Ökostrom verschieben zur Lösung der EEG-Blockade Ein lokaler Versorger ist innovativ und löst das Speicherproblem – Koste es was es wolle
EIKE 22.11.2016: Energieversorger helfen ihren Kunden gegen teuren EEG-Strom! Aktion lokaler Versorger in Bayern: Energiewende bezahlbar

EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten
EIKE 12.09.2016: Der Geheimplan: Die Schweiz bereitet sich auf das Scheitern ihrer Energiewende vor
EIKE 02.09.2016: Weltweit einzigartiger Stromspeicher im Pilotversuch: Der Naturstromspeicher – die von Berlin geförderte EEG-Naturvernichtung
EIKE 02.07.2015: Der Wind bläst stetig – die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus

*Die Daten wurden freundlicher Weise von Herrn R. Schuster zur Verfügung gestellt

Quellen

[1] Fraunhofer ISE: Aktuelle Fakten zur Photovoltaik in Deutschland, Fassung vom 14.10.2016

[2] Kölnische Rundschau 18.01.2016: Rekordjahr für Windparks auf See

[3] VATTENFALL Pressemeldungen 08-07-2015: Baustart auf See für Offshore-Windpark „Sandbank“

[4] EIKE 05.06.2016: Eine Professorin klärt den VDI auf, wie das EEG „wirklich“ funktioniert

[5] EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten
[6] EIKE 02.07.2015: Der Wind bläst stetig – die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus




Dezember­rückblick 2016, Hochwinter­ausblick 2017

1. Die langfristige Entwicklung der Dezembertemperaturen und der „CO2- bedingte Klimawandel“

Der 2015er, frühlingshafte Dezember mit ersten Frühblühern wurde oft als Vorbote der „Klimaerwärmung“ gedeutet. Doch sehr milde Dezember gab es auch vor mehr als 40 Jahren schon, beispielsweise 1974. Betrachtet man den Temperaturverlauf seit jenem Dezember in Erfurt-Weimar (offizielle Station des Deutschen Wetterdienstes DWD), so erlebt man eine Überraschung:

Den geringen (nicht signifikanten) Temperaturanstieg erkennt man kaum, und das, obwohl der 2015er Dezember deutlich wärmer als der 1974er ausfiel. Zumindest im letzten Monat des Jahres fand also der „CO2- bedingte Klimawandel“ bislang nicht statt, denn die Erfurter Werte sind nicht wärmeinselbereinigt (am Flughafen Erfurt- Weimar nahmen Verkehr und bebaute Flächen seit den 1970er Jahren zu, was zumindest leicht erwärmend wirkte und vermutlich neben einer geringfügigen Zunahme der Tage mit Südwestlagen und einer erhöhten Sonnenscheindauer um etwa 17 Stunden seit 1974 die Ursache der Mini- Dezember- Erwärmung ist). Ein nahezu identisches Bild zeigt sich übrigens in Zentralengland, auch dort blieben die Dezembertemperaturen seit 1974 nahezu unverändert. Nun mögen Kritiker bemängeln, es habe sich aber seit 1881, dem Beginn vertrauenswürdiger Messungen in Deutschland, deutlich erwärmt. Das ist korrekt und soll keinesfalls verschwiegen werden, doch jenseits des Atlantiks finden sich Stationen, welche sich schon seit 1881 so gut wie gar nicht erwärmten; ein Beispiel von der US- Ostküste möge das belegen:

2. Besonderheiten der Dezemberwitterung 2016- Die Praxis widerlegt die Theorie der CO2- bedingten Erwärmung

Beim täglichen Blick auf das Barometer fiel der fast stets deutlich zu hohe Luftdruck auf. Wahrscheinlich gab es einen neuen Rekord des Dezember- Luftdruckmittelwertes, was aber erst nach Vorliegen aller Werte endgültig feststehen wird. In Potsdam wurde der bislang höchste Dezembermittelwert 1972 mit 1013,35 hPa (in Barometerhöhe, nicht auf NN reduziert) gemessen. Aber der hohe Luftdruck, der zwischen West-, Mittel- und Südosteuropa pendelte, ging mit fehlender Kaltluftzufuhr, meist schwachem Wind, gebietsweise viel Sonne und zu wenigen Niederschlagstagen einher; trotzdem gab es einige beachtlich kalte Nächte. Die Luftmasse, meist eine im Winter recht milde maritime Subpolarluft (mP), wandelte sich direkt über Mitteleuropa bodennah in gealterte Subpolarluft (xPs oder die trockenere cPs) um, während in der Höhe Warmluftadvektion herrschte, welche den Höhenkeil und das riesige Bodenhoch immer wieder aufbaute. In den klaren, windschwachen Nächten kühlte die Luft bodennah trotz der hohen CO2- Konzentration (im Mittel schon über 400 ppm) und der Höhen- Warmluft stark aus. Zeitweise entstand eine kräftige Inversion (Temperaturumkehr) zwischen dem Thüringer Becken oder dem Werratal (dort sammelte sich die schwere Kaltluft mit teilweise zweistelligen Minusgraden) und den Mittelgebirgsgipfeln mit Temperaturen um 0°C. Die folgende Abbildung zeigt die Wetterlage am Morgen des 05.12.2016:

Das umfangreiche, kräftige Hochdruckgebiet über Südosteuropa reichte bis nach Mitteleuropa. Das Luftdruckgefälle und folglich auch der Wind waren über Mitteleuropa nur sehr schwach (großer Abstand der Isobaren). Die nächste Abbildung mit wenigen Temperaturmeldungen in °C illustriert die enormen Temperaturunterschiede über Mitteldeutschland am Morgen des 5. Dezember, welche allein durch die starke nächtliche Ausstrahlung entstanden waren:

Am 20. Dezember entstand dann erneut ein umfangreiches, mit Nebel gefülltes Kaltluftreservoir im Thüringer Becken und dem südlichen Sachsen- Anhalt. In der Weimarer Mulde schien ab dem späten Vormittag bei +1°C zwar die Sonne, doch der Druck der am Ettersberg aufgestauten Kaltluft war so groß, dass Nebel noch nach 13 Uhr die nördlichen Ortsteile Weimar- Waldstadt und Schöndorf zeitweise einhüllte, sich beim Absinken mit nordöstlichem Wind Richtung Ilmtal auflösend (ganz schwacher Nordföhn). Aber kaum wurde die Sonne schwächer, überflutete der gefrierende Nebel (Zeichen ww49 nach WMO- Schlüssel) ab 14.45 Uhr den gesamten Großraum Erfurt/Weimar und verschwand erst in der zweiten Nachthälfte aus dem Ilmtal. Dieses Beispiel verdeutlicht, wie dominant Sonnenscheindauer, Bewölkungs- und Windverhältnisse die Temperaturen beeinflussen. Weil mehrfach Vorstöße milderer Luft aus SW bis NW, darunter das berüchtigte „Weihnachtstauwetter“, diese markanten Abkühlungsphasen unterbrachen, wenngleich viel schwächer als 2015, fiel der Dezember 2016 insgesamt etwas zu mild aus.

3. Allen Unkenrufen zum Trotz- das arktische Meereis wuchs im Dezember zeitweise stark

Im Spätherbst (Oktober/November) nahm das arktische Meereis die bislang geringste Fläche seit der Einführung der satellitengestützten Überwachung im Jahre 1979 ein. Das rief sogleich die Alarmisten und Katastrophisten auf den Plan. So schrieb das links- grüne Kampfblatt „DIE ZEIT“ am 8. Dezember unter der Rubrik Wissen: „Das Eis schwindet. Das ist kein ästhetisches, sondern ein existenzielles Problem.“ Leider übersahen die ZEIT- Redakteure einige Fakten. Erstens ist der Zeitraum seit 1979 sehr gering; sein Beginn fällt mit der Abkühlungsphase der 1970er zusammen. Auch in früheren Zeiten, für die aber nur sehr ungenaue Daten vorliegen, wich das Eis stark zurück, so in den 1930er Jahren. Und seit Mitte November dehnte sich die Eisfläche zeitweise stark aus, was auch die folgende Abbildung verdeutlicht (Quelle http://nsidc.org/arcticseaicenews/ ):

Die Eisbedeckung wies in der letzten Dezemberdekade einige Besonderheiten auf. Während eine ungewöhnlich große eisfreie „Kerbe“ bis weit in das Seegebiet nördlich von Westsibirien reichte, war die Eisbedeckung in allen anderen Gebieten fast normal. Dieser Umstand ist vermutlich den in diesem Spätherbst/Frühwinter rekordverdächtig hohen AMO- Werten geschuldet. Über die letzten Golfstrom- Ausläufer gelangt das (noch!) zu warme Atlantikwasser weit nach Nordosten. Von einem „katastrophalen“ Eisschwund kann keine Rede sein. Diese frühwinterliche Ausdehnung des Meereises ist eine mögliche Ursache für die Häufung der Westlagen in dieser Jahreszeit; sicher hat sie auch diesmal das Auftreten des schon immer sehr häufigen „Weihnachtstauwetters“ begünstigt. Auffällig umfangreich war auch die Schneedecke Eurasiens schon Ende November; sie hatte mit 24,03 Millionen Km² den bisherigen 1993er Novemberrekord (24,13 Mio. Km²) nur knapp verfehlt; für Dezember liegen noch keine Werte vor.

4. Ausblick in den Januar- was die mittelfristigen Modelle vorhersehen

Die Ensemble- Vorhersagekarte des NOAA (USA- Wetterdienst) vom 26.12. für den 10.01.2017 zeigte eine diffuse Hochdruckzone von den Azoren über Mittel- bis nach Osteuropa und tiefen Luftdruck westlich von Island (Quelle: NOAA). Sollte das so eintreten (noch sehr unsicher), so wäre es in Deutschland weder extrem mild, noch extrem kalt:

Bei den Modellen entstehen in derart langen Vorhersagezeiträumen aber oft Differenzen der einzelnen, gerechneten Läufe, ganz oben das amerikanische GFS von 26.12., 00 UTC, Mitte ENS, unten ECMWF, jeweils für den 05. Januar 2017, 00 UTC, berechnet (Quelle: http://www.wetterzentrale.de/topkarten/ ). Während GFS und ENS eher antizyklonales Westwetter vorhersahen, berechnete das ECMWF einen Trog über Mitteleuropa mit einem Mittelmeer- Tief, was starke Schneefälle in Ost- und Süddeutschland auslösen könnte:

Die Unsicherheit bleibt also groß, doch deutet sich wohl ein Januar an, der etwas kälter und vor allem niederschlagsreicher als der Dezember ausfallen könnte.

5. Die Nordatlantische Oszillation (NAO), die AMO, die QBO, der Polarwirbel, die markante Kaltwasserinsel im zentralen Nordatlantik und die Sonnenaktivität

Die NAO „drehte“ nach Mitte Dezember wieder auffallend markant in den Positivmodus, was mildes Westwetter förderte und so das „Weihnachtstauwetter“ begünstigt hat. Die AMO- Werte blieben auch im November ungewöhnlich hoch. AMO- Warmphasen erhöhen die Wahrscheinlichkeit für einen kalten Winter leicht, weil diese Konstellation kalte, nordöstliche Strömungen („Wintermonsun“) begünstigen könnte. Und die QBO (Windverhältnisse in der unteren Stratosphäre der Tropen, die etwa alle 2,2 Jahre zwischen West und Ost wechseln) dreht momentan in der unteren Stratosphäre in die Westwindphase, was eher milde Winter bevorteilt. Ein Polarwirbelsplitting, welches die Westdrift schwächen und kalte Nord- bis Ostlagen über Europa fördern könnte, kündigte sich in den Modellvorhersagen des französischen Wetterdienstes, welche gut 2 Wochen in die Zukunft reichen, bislang noch nicht eindeutig an.

Die lange Zeit auffällig beständige „Kaltwasserinsel“ im zentralen Nordatlantik zwischen Großbritannien/Westeuropa und den USA war auch im Dezember 2016 meist gut erkennbar. Im Dezember 2016 nahm die Sonnenaktivität weiter ab; zeitweise war die Sonne völlig fleckenlos, was nach eigenen Untersuchungen meridionale Strömungsmuster, darunter besonders Nord- und Ostlagen, im Hochwinter 2017 etwas wahrscheinlicher werden lässt.

6. Analogfälle (ähnliche Witterung wie 2016)

Die wahrscheinliche (trotzdem sehr unsichere) Luftdruckverteilung über Europa (Quelle: langfristwetter.com) sieht für die Hochwintermonate nun doch etwas anders aus, als noch im November erwartet:

Im Januar 2017 (oberes Bild) nur noch eine leicht geschwächte Westwind- Zirkulation (positive Luftdruck- Anomalien in hpa auf Meeresspiegelniveau, gelbe und rötliche Linien über Nordosteuropa und zu tiefer Luftdruck blau- violett auf dem zentralen Nordatlantik). Das kann zumindest gelegentlich Kälte in Mitteleuropa begünstigen. Im Februar (unteres Bild) soll nun etwas zu tiefer Luftdruck über West- und Nordwesteuropa herrschen. Einem Dezember mit auffallend zu hohem Luftdruck über Mitteleuropa folgten in der Vergangenheit häufiger normale bis milde, als zu kalte Januare. Einzelne, sehr milde oder zu kalte Phasen sind jedoch nicht ausgeschlossen.

7. Die „Siebenschläfer- Regel“ des Winters

Neben der im Novemberbericht bei EIKE ausführlich erläuterten „2- K- Septemberregel“ (der Winter und auch der Hochwinter fallen mit sehr hoher Wahrscheinlichkeit zu mild aus, wenn der vorangehende September in Deutschland um mindestens 2 Kelvin zu warm war), gibt es für die Abschätzung der Hochwinterwitterung noch weitere Regeln, so etwa „War der Dezember gelind, bleibt auch der Winterrest ein Kind.“ Oder „Bricht gar ein Spatz im Dezember- Eis ein, wird ein milder Januar sein.“ Bei Verknüpfung der Dezember- und Septemberregel gilt folgende Aussage: „Waren September und Dezember insgesamt zu mild, so erhöht das die Wahrscheinlichkeit für einen zu milden Januar deutlich“.

Am wichtigsten ist aber die sogenannte „Dreikönigs- Regel“: „War bis Dreikönige (06.01.) kein richtiger Winter, so folgt meist auch kein strenger mehr dahinter.“ Sie funktioniert ähnlich wie die Siebenschläfer- Regel. Kurz nach dem Sonnenhöchst- und Tiefststand hat sich die Atmosphäre meist für ein bestimmtes Strömungsmuster entschieden. Die markanten Keile und Tröge sowie der unser Wetter steuernde Strahlstrom haben eine bestimmte Position eingenommen und behalten diese dann meist für weitere 2 bis etwa 7 Wochen mit nur leichten Variationen bei („Persistenz“). Freilich lässt auch diese Regel Ausnahmen zu, und der „Entscheidungszeitraum“ reicht etwa vom 20.12. bis fast Mitte Januar. Einem Dezember mit auffallend hohem Luftdruck folgten bislang häufiger zu milde als zu kalte Januare. Weil sich der hohe Luftdruck und die milde Witterung auch bis zum Jahreswechsel 2016/17 noch hielten, könnte auch der Januar zeitweise ähnlich verlaufen; gelegentliche Kälteeinbrüche oder zumindest endlich zeitweise Schnee bis ins Flachland bleiben trotzdem möglich. In den Wintern 2011/12 und 2012/13 folgte milden Dezembern sogar noch entweder ein sehr kalter Februar (2012) oder 2013 ein bis in den April dauernder schneereicher Winter, der erst nach dem 10. Januar so richtig begann. Näheres und Interessantes zur Problematik der großräumigen Zirkulationsverhältnisse und deren Auswirkungen auf die winterlichen Temperaturverhältnisse finden Sie im Beitrag von Hans-Dieter Schmidt vom 23.12.2016 unter http://www.eike-klima-energie.eu/2016/12/23/extreme-kaelte-in-teilen-der-usa-dauerhoch-in-mitteleuropa/ . Fasst man alle Prognosesignale zusammen, so kündigt sich am wahrscheinlichsten ein wechselhafter, eher unspektakulärer Januar 2017 an, der weder extrem mild noch extrem kalt ausfällt, eher nasskalt, und einen Wechsel von zyklonalen und antizyklonalen Phasen aufweist.

8. Die Langfrist- Vorhersagen: Viele Institute korrigierten ihre Prognosen vom November 2016

Der britische Wetterdienst (UKMO) sieht nun eine leicht erhöhte Wahrscheinlichkeit für einen milden Winter in ganz Deutschland, allerdings unter Einbeziehung des März:

Anmerkung: Hier wird nur die erste UKMO- Karte gezeigt. Es gibt zwei weitere, eine mit der Probability (Wahrscheinlichkeit) für einen normalen Winter und eine für einen zu kalten. Die aktuellen Karten jederzeit unter http://www.metoffice.gov.uk/research/climate/seasonal-to-decadal/gpc-outlooks/glob-seas-prob

Meteo Schweiz bezieht nun ebenfalls den März ein und erhöht dabei die Wahrscheinlichkeitsaussage für einen milden Winter:

LARS THIEME (langfristwetter.com) sagt in seiner Dezemberausgabe nun einen zu milden Januar und einen normalen Februar vorher.

Das IRI bleibt bei seiner Novemberprognose eines mit leicht erhöhter Wahrscheinlichkeit zu milden Winters.

Der DWD (Offenbach) sieht nun eine deutlich erhöhte Wahrscheinlichkeit für einen normalen Winter:

Die NASA (US- Weltraumbehörde) schwenkt komplett um und kündigt nun einen zu kalten Januar und einen etwas zu kalten Februar an (hier wird nur der Januar gezeigt, Europa liegt ganz links oben in der Karte):

Und das CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 2 Abbildungen, Eingabezeitraum 16. bis 25.12.2016): Januar (oben) eher normal, nur in Teilen des Alpenraumes etwas zu mild und in Südosteuropa zu kalt; Februar (unten) überall viel zu mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Die fast täglich aktualisierten, aber leider oft falschen Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum):

Die Mehrzahl dieser Langfristprognosen deutet also weiterhin einen normalen bis etwas zu milden Hochwinter 2017 an.

Fazit: Die Prognosesignale sowie die Vorhersagen der Wetterdienste und Institute bleiben sehr widersprüchlich. Es deuten sich aber zumindest einige merklich kältere Phasen im Hochwinter 2017 an, besonders im Januar, zeitweise auch mit nördlichen Strömungsanteilen eher nasskalt; doch insgesamt fällt dieser mit erhöhter Wahrscheinlichkeit normal bis etwas zu mild aus, wenngleich etwas weniger, als in den Vorjahren. Zumindest in den Mittelgebirgen (über 600 Meter) könnte ab Anfang Januar für längere Zeit gut Wintersport möglich sein und auch im Tiefland öfter mal Frost und Schnee herrschen. Geschätzte Januar-Monatsmitteltemperatur 2017 für Erfurt-Bindersleben (Mittel 1981- 2010 minus 0,3°C) -1,5 bis +2,5°C (etwas zu kalt bis deutlich zu mild). Für Feb. 2017 lässt sich noch kein Temperaturbereich schätzen, doch ist ein zu milder Februar momentan noch wahrscheinlicher, als ein zu kalter.

Eine Bewertung der ursprünglichen Winterprognosen (Stand November) erfolgt im Laufe des Monats März.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 27.12. 2016




Aufhebung von Obamas 11-Stunden-Bohrverbot

Bei seinen Vorbereitungen zur Räumung seines Büros konnte Präsident Obama nicht einem „Parthian Shot“ widerstehen gegen die das Amt übernehmende Trump-Regierung, indem er Bohrungen verbot in großen Bereichen des amerikanischen Arktis-Sektors und vor der atlantischen Küste.

Grüne Gruppen behaupten, dass dieses Gesetz von Dauer ist, während Energiestrategen behaupten, dass Präsident Trump dieses Gesetz per Rechtsverfügung aufheben kann.

Auf unserer Website CFACT.org posteten wir einen Beitrag des Energie-Analysten Michael Bastasch hierzu:

„Obama ordnete an, dass sein Bohrverbot ,alle fünf Jahre überprüft werden soll mittels einer auf Klima- und Meereswissenschaft basierenden Abschätzung des Lebenszyklus‘. Im Hinterkopf hatte er dabei wohl, dass ein Klimatest von Offshore-Bohrungen immer einen schädlichen Einfluss auf die Umwelt herausbekommen wird. Umweltaktivisten haben ihn seit Monaten gedrängt, von Abschnitt 12(a) des Outer Continental Shelf Lands Act aus dem Jahr 1953 Gebrauch zu machen, um Offshore-Bohrungen zu blockieren“.

Das gesamte Gesetz kann auf unserer Website hier eingesehen werden.

Die Lektüre des Gesetzes zeigt aber, dass die Klima-Campaigner zu vertrauensselig sind.

Als der Kongress einem Gesetz zustimmte, welches den äußeren Kontinentalschelf der USA betrifft, wurde eindeutig dem Sinn des Gesetzes Ausdruck verliehen:

„Der Äußere Kontinentalschelf ist eine vitale nationale Ressource, die die Regierung für die Öffentlichkeit verwaltet. Er sollte zugänglich gemacht werden für Expeditionen und eine geordnete Entwicklung sowie Gegenstand von Umweltschutzmaßnahmen sein auf eine Art und Weise, die konsistent ist mit der Wahrung von Wettbewerb und anderer nationaler Erfordernisse“.

Der Kongress erkannte die Bedeutung der Ressourcen vor der amerikanischen Küste. Die Absicht des Kongresses war es, Energie und andere Ressourcen für die US-Wirtschaft verfügbar zu machen. Die Umwelt-Vorbehalte bestehen, um eine sichere und verantwortungsvolle Ausbeutung sicherzustellen.

Der Kongress glaubte auch, dass einige empfindliche Gebiete geschützt werden sollten, weshalb die Klausel verankert worden ist, dass „der Präsident der Vereinigten Staaten von Zeit zu Zeit nicht vermietete Gebiete im Äußeren Kontinentalschelf von der Nutzung ausschließen kann“.

Präsident Eisenhower befolgte diese Vorgabe wie geplant, als er ein Gebiet der Florida Keys von der Entwicklung ausnahm.

Nachfolgende Präsidenten erkannten die Weisheit in der Entscheidung von Ike und ließen sie bestehen. Allerdings waren andere präsidiale „Ausschlüsse“ keineswegs „permanent“. Sie wurden von nachfolgenden Präsidenten aufgehoben.

Das Atlanta Journal Constitution berichtet, dass „Präsident Bill Clinton im Jahre 1998 ein Offshore-Bohrverbot bis zum Jahr 2012 verlängerte, welches ursprünglich von Präsident George H. W. Bush in Kraft gesetzt worden war – aber im Jahre 2008 hob Präsident George W. Bush jene Clinton-Proklamation vier Jahre vorher auf“.

Präsident Obama, der prominent mit der Bemerkung „Ich habe einen Stift, und ich habe ein Telefon“ seine Absicht bekundet hatte, den Kongress zu umgehen, gab dem designierten Präsidenten Trump den Rat, sich nicht zu sehr auf präsidiale Verfügungen zu stützen. Gleichzeitig verordnete er das Bohrverbot.

Präsident Trump sollte dieses unkluge Bohrverbot aufheben. Wenn es zu den unvermeidlichen juristischen Klagen kommt, sollte jedes neutrale Gericht die Verordnung der Absicht des Kongresses folgend auslegen.

For nature and people too,

Craig Rucker, executive director

———————————————

In dem oben erwähnten Beitrag von Michael Bastasch beschreibt dieser noch einmal die näheren Umstände. Präsident Trump kann jederzeit mit Hilfe des von Republikanern beherrschten Kongresses dieses Verbot aufheben. Verschiedene Präsidenten zuvor haben bereits von dem gesetz aus dem Jahr 1953 Gebrauch gemacht, und jeweils nachfolgende Präsidenten haben entsprechende Verordnungen wieder aufgehoben.

Bastasch weist aber noch auf einen anderen Aspekt hin (hier): Die Fracking-Technologie ist inzwischen noch kostengünstiger zu betreiben als teure Bohrungen Offshore und in der Arktis. Es kann also gut sein, dass die „Umweltschützer“ ganz umsonst Zeter und Mordio schreien.

Chris Frey, Übersetzer für das EIKE




Die Kontroll- und Kommando­zentrale des Klima-Alarmismus‘

Zunächst von Jennifer Hadden, Networks in Contention: The Divisive Politics of Climate Change (2015) [etwa: Netzwerke im Wettstreit: Die entzweiende Politik zu Klimawandel]:

Wie mir ein Interviewter erklärte hinsichtlich der Strategie der internationalen Klima-Koalition: ,Wir arbeiten ziemlich viel zusammen. Aber wir wissen, dass wir alle für unterschiedliche Dinge stehen, darum müssen wir sorgfältig den Eindruck erwecken, dass wir nicht die ganze Zeit zusammenarbeiten‘ (Interview, WWF European Policy Office 2008).”

Ein Umweltaktivist erklärte mir: „Klimawandel ist nicht länger ein Thema unter anderen, es ist DAS Thema, ein Mega-Thema für alles, an dem wir arbeiten“ (Interview, Danish 92 Group, 2009).

Im Jahre 1989 kamen diese Organisationen erstmals zusammen, um eine Koalition zu bilden: The Climate Action Network (CAN). Das CAN wurde gegründet als der Motor einer transnationalen Koordinierung von 63 Organisationen … Viele Bemühungen des CAN bestanden in der Unterstützung der Arbeit des IPCC, und es half, dessen zentrale Rolle im internationalen Klimaregime zu etablieren … Tatsächlich konsolidierte das CAN seine Koalitions-Struktur während dieses Zeitraumes (neunziger Jahre), in dem es eine hochrangige politische Gruppe ins Leben rief, um Politik und strategische Koordinierung unter den Mitgliedsgruppen zu fördern.

Im Mittelpunkt des Treibens des CAN stand der Gedanke, dass die Mitgliedsorganisationen „mit einer Stimme“ sprechen müssen, um die internationalen Verhandlungen zu beeinflussen.

Das CAN hat einen großen Einfluss auf die Art der Strategien, zu welchen die Organisationen greifen: „Es scheint, dass viele der großen Gruppen die Richtung vorgeben, und wir alle neigen dazu, dieser zu folgen. Aber wenn wir vor Ort arbeiten, dürfen wir das nicht immer unter die Leute bringen, weshalb wir andere Dinge tun sollten“ (Interview, Greenpeace Germany 2010).

mit den großen internationalen Nicht-Regierungs-Organisationen NGOs – WWF, FOE (vor 2008), Oxfam und Greenpeace – werden extensive Beratungen durchgeführt, bevor Vorschläge erarbeitet werden. Die meisten Mitglieder erkennen an, dass die großen Gruppen de facto über CAN-Positionen das Vetorecht haben. Falls diese Gruppen einem Vorschlag zustimmen, wird dieser allen Mitgliedern zugeleitet …

Das CAN (1) prahlt damit, über 1100 Mitgliedsorganisationen zu vertreten. Hadden zufolge wird das CAN geleitet durch eine hochrangige politische Gruppe, geführt von den Vier Apokalyptischen Reitern: WWF, Greenpeace (1), FOE (1), möglicherweise vor 2008) und Oxfam (möglicherweise unter Ausschluss des USA-Ablegers). Sie geben Befehle, und alle Mitglieder folgen diesen Befehlen, während „sie sorgfältig den Eindruck erwecken, nicht zusammenzuarbeiten“. Jahrzehnte lang war es ihr Ziel, ein internationales Klimaregime zu etablieren, dem sich Amerika unterzuordnen hätte. Die Mitgliedsorganisationen (oder Einheiten) „können sich anderen Dingen zuwenden“ – mit anderen Worten, sie werden angehalten, die Initiative zu ergreifen, die Absichten des Kommandeurs auszuführen. So wird eine gute Armee geführt, nicht eine Bewegung oder ein Netzwerk. Sie verfügen auch über ungeheure finanzielle Macht: Der WWF allein hat ein jährliches Einkommen nahe 1 Milliarde Dollar, welches Geld er nach Belieben verwenden kann.

Ebenso sind die Mitglieder nach dem Top-Down-System organisiert wie militärische Einheiten und nicht wie ehrenamtliche Organisationen. Man betrachte diese Aussagen von Thomas Lyon, Good Cop/Bad Cop: Environmental NGOs and Their Strategies toward Business (2012):

Jüngere nationale Gruppen, die verwurzelt sind in der Umweltbewegung Ende der sechziger und Anfang der siebziger Jahre wie etwa der Natural Resources Defense Council und der Environmental Defense Fund, neigen dazu, ein sich selbst erneuerndes Gremium von Direktoren zu haben … eine Tendenz, konzentriert Entscheidungen für die Gruppe zu treffen und Demokratie innerhalb der Organisation zu umgehen. Am bemerkenswertesten: brauchbare Wahlverfahren sind selten. … Leider sind Studenten, die Zeit damit verbracht haben, die Rolle von Wahlen und demokratischen Prozessen in NGOs zu untersuchen, typischerweise enttäuscht worden. Was sie erkannt haben ist das Fehlen von klassischen demokratischen Prozessen … obwohl viele NGOs demokratische Verfahren in ihren Statuten haben, sind diese Gruppen in der Praxis fast immer oligarchisch.

das politische System in den USA scheint angesichts der gegebenen Gewaltenteilung und schwacher politischer Parteien (man beachte das Fehlen einer existenzfähigen Grünen Partei) wie geschaffen für den Einfluss (transnationaler Umwelt-) Gruppen auf Entscheidungen der Regierung.

Amerika ist im Besonderen Ziel, und der neue Feind erkennt unser verfassungsmäßiges politisches System mit seiner „Gewaltenteilung und schwachen politischen Parteien“ als eine Schwäche, die ausgebeutet werden kann, wobei offenbar die Fehler der Feinde Amerikas aus der Vergangenheit wiederholt werden.

Weitere Aussagen von diesen und anderen Autoren finden sich in meinem Beitrag Climate Alarmism Command auf meiner Website.

I. „Single-Voice-Prinzip“

Auf der Grundlage dieser Belege ist der Klima-Alarmismus das Erzeugnis eines sehr großen, sehr gut koordinierten und zentral kontrollierten Unternehmens. Dies erklärt dessen Fähigkeit, gewaltsam perfekt synchronisierte Botschaften zu verbreiten, trotz der internen Inkonsistenzen, trotz Widersprüchen zur Hochschulwissenschaft und trotz häufiger Flip-Flops als Reaktion auf sich ändernde politische Allianzen sowie focus group research results [?].

Ein Beispiel dafür ist die beispiellose Überschwemmung der Massenmedien mit eindeutig falschen Statements wie „97% aller Wissenschaftler stimmen überein“. Im Idealfall würden die Medien die ganze Zeit über die Wahrheit berichten. In der Vergangenheit (was inzwischen wie eine legendäre Vergangenheit aussieht) berichteten die Main-Stream-Medien Fakten zumeist zutreffend, sogar wenn sie diese mit einem liberalen Bias interpretierten. Gelegentlich machten sie Fehler oder stellten sogar Falschbehauptungen auf. Journalisten neigen dazu, voneinander abzuschreiben, und so könnten die gleichen Fake News in allen Zeitungen und TV-Kanälen erschienen sein, aber nur für sehr kurze Zeit. Die „97%-Lüge“ dagegen durchzieht die Medien konstant seit dessen Einführung durch Naomi Oreskes im Jahre 2004! Diese Zahl ist schon sehr oft explizit widerlegt worden und ist offensichtlich absurd: Es sieht mehr wie ein Wahlergebnis in einem kommunistischen Land aus als eine ,Umfrage‘ nach den Meinungen der Wissenschaftler! Vermeintlich ist es durch multiple Studien „bestätigt“ worden – etwas, das eine geringere Wahrscheinlichkeit aufweist als der Gewinn des Lotto-Jackpots zwei Jahre hintereinander. Und doch konnte diese Ente seit nunmehr 12 Jahren überleben.

Im Bereich des Klima-Alarmismus‘ gibt es andere magische Zahlen, die völlig sinnlos sind, wie etwa 350 ppm oder 2 Grad (später ersetzt durch 1,5 Grad). Aber sie haben eine enorme Überlebenskraft. Zusätzlich zu dem unnatürlich synchronisierten Vorgehen gibt es ein höchst anomales Fehlen von Abweichungen unter den Reihen der Klima-Alarmisten. Dies ist besonders auffällig angesichts der Kehrtwendungen, die das CAG hinsichtlich vieler politischer Dinge vollzogen hatte, wie etwa Emissionen von China und der Verbrauch von Erdgas. Sogar die Kommunistische Partei der USA, eine Marionette der Sowjets seit 1933, kroch zu Kreuze, nachdem ihr befohlen worden war, von Anti-Nazi zu Pro-Nazi zu wechseln nach dem Molotow-Ribbentrop-Pakt von 1939. Nichts dergleichen geschah in den heimischen Klima-Alarmisten-Gruppen, als die CAG seine Forderung von globaler Reduktion von CO2-Emissionen zu einseitiger Reduktion durch den Westen änderte und China, Japan, Russland und der Rest der Welt ihre Emissionen nach Belieben zunehmen lassen dürfen. Diese Fakten beweisen über alle Zweifel erhaben, dass es eine zentrale Kontrolle des Klima-Alarmismus‘ gibt.

II. Front Groups

Die Existenz von front groups, die oftmals aus dem Nichts erscheinen und in den Brennpunkt der Medien-Aufmerksamkeit katapultiert werden, ist ein weiteres verräterisches Anzeichen. Beispiel: InsideClimate News führte ein Nischendasein als Projekt innerhalb der Gedärme einer obskuren linksextremen Brutstätte Public Interest Projects (jetzt NEO Philanthropy) seit 2007. Im Jahre 2011 hatte sie sechs Mitarbeiter. Plötzlich wurde sie mit Beifall überhäuft einschließlich des einst renommierten Pulitzer-Preises für besondere Berichterstattung im Jahre 2013. Schon bald heimste sie Dutzende journalistischer Auszeichnungen ein, einschließlich eines weiteren Pulitzer-Preises, und dessen Fake News wurden zu „Beweisen“ in dem berüchtigten Versuch der „Attorneys General United for Clean Power” [etwa: Staatsanwälte vereint für saubere Energie], durch Vollmachten bestimmte Sprechweisen zu unterdrücken (hier). Exxon, dem obersten Protagonisten der Verschwörungstheorie, der zufolge Klimarealisten durch „fossile Treibstoffe“ finanziert werden, wurde diese Vollmacht genehmigt. InsideClimate News wurde gegründet von der Ford Foundation (1), RBF (1)/RFF (Rockefeller Brothers Fund / Rockefeller Family Fund), the Park Foundation, the Marisla Foundation, the Knight Foundation, the Grantham Foundation und weiteren üblichen Verdächtigen. Fast alle die Geldgeber sind offen Mitglieder der EGA (1) (Environmental Grantmakers Association), welche von RBF/RFF gegründet worden war und in der gleichen Etage sein Büro hat. (Übrigens ist die RBF/RFF separat von der größeren Rockefeller Foundation). 350.org ist ein weiteres Beispiel einer hochgejubelten front group.

III. Entwicklung der CAG

Die CAG ist im Jahre 1989 gegründet worden, aber es dauerte fast eineinhalb Jahrzehnte, bis Klima-Alarmismus zum ideologischen Hauptthema für multiple transnationale und internationale Gruppen geworden ist. Dementsprechend ist auch die Konsolidierung der Macht in den Händen einiger Weniger graduell erfolgt. Folglich hat sich die Climate Alarmism Governance entwickelt anstatt von einer Person oder einer kleinen Gruppe erschaffen worden zu sein. ENGOs und ehrgeizige UN-Politiker arbeiteten seit den siebziger Jahren Hand in Hand miteinander, um ihre Macht zu erweitern. Die Einführung dieses Vorgehens wird häufig Maurice Strong zugeschrieben. UN-Agenturen und Politiker können sich nicht offen und direkt in die inneren Angelegenheiten der meisten Länder einmischen. Also nutzen sie NGOs für diesen Zweck. CAN und ihre Mitglieder WWF, Greenpeace, Oxfam, EDF und NRDC haben beim IPCC offiziell den Status von Beobachtern und agieren als dessen de-facto-Sprecher, korrumpieren die IPCC-Forschung noch mehr und schmücken die ohnehin schon verzerrten IPCC-Berichte aus (ein ehemaliger Greenpeace-Führer nannte es „dramatisieren“). CAN-Mitglieder leisten Lobbyarbeit für die Delegationen bei den COPs des UNFCCC und bei anderen internationalen Zusammenkünften, manipulieren die wissenschaftliche Arbeit des IPCC von innen heraus (hier) und gehen finanzielle Deals mit deren Funktionären ein. Das Climate Action Network vermeidet zwar die Verbindung mit Gruppen, die Gewalt unterstützen, kooperiert aber mit diesen. Sie schürt Hass zwischen Europa und Amerika und will Rache („Gerechtigkeit“) für wirkliche oder imaginäre Angriffe in der Vergangenheit. Die Führer verschiedener transnationaler NGOs (nicht nur CAN-Mitglieder) treffen sich regelmäßig persönlich, um gemeinsame Ziele und Strategien festzulegen. Zwischen derartigen Treffen bleiben sie via elektronischer Medien in Kontakt.

Ein weiterer Stützpfeiler der CAG ist die UN-Organisation, wo die USA lediglich eine Stimme von über 190 weiteren haben (aber den Löwenanteil der Finanzierung tragen). Bequemerweise sind einige der Umwelt-„Markenzeichen“ bei den UN akkreditiert und nehmen offiziell an Treffen vieler UN-Agenturen teil. Inoffiziell bestechen oder manipulieren sie Vertreter auswärtiger Regierungen und der UN nach ihren Wünschen (siehe hier, Abschnitte 3.2 und 3.8). Die relevanteste Gruppe der UN-Abteilung Klima-Alarmismus ist das IPCC, ins Leben gerufen durch UNEP und WMO. Ich habe die genaue Zusammensetzung und die Beziehungen an der Spitze der CAG oder die Rolle der europäischen Grünen Parteien nicht untersucht.

IV. Finanzielle Beziehungen zwischen einigen Klimaalarm-Einheiten und der Korruption von ehemaligen Mainstream-Institutionen

Die zentralisierte Finanzierung des Klima-Alarmismus‘ geht Hand in Hand mit der zentralisierten Befehlsgebung und Kontrolle. Heute kommt das meiste Geld für den Klima-Alarmismus von der öffentlichen Hand der USA und der EU. In der Vergangenheit war die EGA ein großer Faktor. Geld von den Primärquellen wird gewaschen und zwischen Klimaalarm-Gruppen auf verschiedenen Wegen hin- und hergeschoben. Die folgenden Tabellen stammen von einer offiziellen Klage in 5:16-cv-211-C, verifiziert unter der Strafe für Meineid.

Tabelle 1: Matrix der Finanzbeziehungen zwischen einigen CAG-Unternehmen

„R“ bedeutet, dass das in der Zeile genannte Unternehmen („Markenzeichen“) direkt von dem Unternehmen in der Spalte finanziert wird. „D“ bedeutet, dass das Unternehmen in der Zeile direkt Gelder an das Unternehmen in der Spalte gegeben hat. Nur Geld-Transfers, über die von 2003 bis 2014-2015 in bestimmten Steuerformularen berichtet worden war, sind erfasst. „Freundschafts“-Dienste, Zahlungen an nahestehende Parteien, Geldtransfers mittels Dritter und Transfers außerhalb der Bücher sind nicht erfasst. Alle Finanzierungs-Ereignisse sind substantiell (manchmal Millionen Dollar stark und mit Sicherheit über 10.000 Dollar).

Tabelle 2: Finanzierung des Center for American Progress und einiger front groups durch einige CAG-Unternehmen.

Tabelle 3: „Spenden“ an einige ehemals respektierte Organisationen seitens einiger CAG-Unternehmen.

NAS ist die National Academy of Sciences, welche einmal die höchste wissenschaftliche Einrichtung der Nation war. AAAS steht für die American Association for the Advancement of Science, dem Herausgeber des Journals Science. Die New York Times Company (NYT) ist eine kommerzielle Körperschaft, was „Spenden“ sogar noch seltsamer macht. (2)

(1) Diese Organisationen stehen im Verdacht, mit kriminellen Machenschaften in Verbindung zu stehen oder an diesen teilzuhaben, wie es definiert ist im The Racketeer Influenced and Corrupt Organizations Act (“RICO”), 18 U.S.C. § 1961-1963. Der Autor ist Kläger in einem Zivilprozess gegen diese Organisation (5:16-cv-211-C Goldstein v. Climate Action Network et al.).

(2) Man darf nicht vergessen: die große Mehrheit von Individuen, die der CAG unwissentlich geholfen haben, sind unschuldig.

Link: https://wattsupwiththat.com/2016/12/23/the-command-control-center-of-climate-alarmism/

Übersetzt von Chris Frey EIKE




Harald Lesch, die Claudia Roth des Klima­wandels: Glaubt einfach, was ich erzähle – Nach­prüfen schadet nur!

Wie die bekannte Claudia Roth der GRÜNEN appelliert er, anstelle Belege zu bringen, vorwiegend an die „Betroffenheit“, die seine „unbezweifelbaren“ Aussagen erzeugen sollen, weshalb man ihn inzwischen synonym als klimatisches Pedant der GRÜNEN-Politikerin bezeichnen kann, obwohl ihm der bei den GRÜNEN sonst oft übliche (bei Frau Roth vorhandene) Studienabbruch fehlt.

Der Autor hat sich (wieder) die Mühe gemacht, Beispiele seiner inzwischen oft schon abstrus überzogenen Thesen zu sichten und darzustellen, dass Vieles einer Nachprüfung nicht Stand hält, oder zumindest wesentlich Klimawandel-unkritischer betrachtet werden kann.

Video: Frag den Lesch – Neues aus der Klimaküche

https://www.youtube.com/watch?v=mfALmgAwPKQ&feature=youtu.be

Video: [2] Frag den Lesch – Neues aus der Klimaküche 

Im Video geht es angeblich über das Neueste vom Klimawandel. Zumindest wird es in der Lesch-typischen, stammelnden und auslassungsreichen Vortragsweise so erzählt.

Einleitung

H. Lesch: … Neuigkeiten von den Klimamodellen … Klimawandel, das stimmt ja sowieso nicht …. denn dass der Mensch einen Einfluss auf das Klima hat, auf den Klimawandel, das ist eindeutig, übereindeutig. … in den 90er Jahren dachte man, da könnte noch eine gewisse Unsicherheit sein, das ist aber vorbei … die neuesten Entdeckungen, muss man leider sagen, aber auch Bestätigungen muss man leider noch mehr sagen, die zeigen ganz klar – wir sind dran schuld.

Und dann wird über eine ganz neue Entdeckung erzählt,

Biofilme auf Gletschern:

H. Lesch: … Neu herausgekommen ist ein Effekt … eine ganz neue Entdeckung …. warum schmelzen die Gletscher so viel schneller… Ruß und andere Staubteilchen regnen auf die Gletscher … diese bilden Biofilme aus .. dadurch, dass die unsichtbaren Biofilme auf der Oberfläche der Gletscher sind, wird ne ganze Menge Energie in den Biofilmen deponiert und dadurch schmelzen die Gletscher schneller. Die Biofilme sind etwas, das man vorher nicht kannte, aber jetzt weiß, aha das verstärkt nochmal den Effekt des Klimawandels, also der Erwärmung.

Der Autor ist dieser wichtigen Entdeckung, welche den Treibhauseffekt zusätzlich verstärkt, nachgegangen. Bei der Max Planck Gesellschaft findet sich dazu eine Pressemitteilung:

Bakterien heizen Gletschereis auf
Mikroorganismen siedeln sich auf dem Eis an Staubteilchen aus der Atmosphäre und lassen den Gletscher dadurch schneller schmelzen… Mikroben leben von Kohlenstoff aus Gletschern
Das nutzt auch der Klimaforschung, denn ein besseres Verständnis des Kohlenstoffspeichers in Gletschern und des Transports von Kohlenstoff in andere Ökosysteme kann dazu beitragen, aktuelle Klimamodelle zu verbessern. Es ist schon lange bekannt, dass organischer Kohlenstoff, der für Jahrtausende in Gletschern gespeichert war, beim Abschmelzen freigesetzt wird und Mikroorganismen als Nahrung dient. Die nun vorliegende Studie zeigt, dass auch durch die Fixierung von anorganischem Kohlenstoff durch Mikroorganismen auf Gletschern organischer Kohlenstoff entsteht, der rasch von benachbarten Organismen verbraucht wird.

Zur Pressemitteilung ist die Studie genannt, welche wohl auf einer Dissertationsarbeit beruht:
Heidi J: Smith et al.: [3] Biofilms on glacial surfaces: hotspots for biological activity
Leider steht in dieser Studie nirgends auch nur ein vager Hinweis zum quantitativen Einfluss auf das Klima oder die Gletscherschmelze. Auf Nachfrage des Autors beim Max Planck Institut kam dazu die folgende Antwort: … Tatsächlich gibt es bisher noch keine quantitativen Daten zu dieser Studie. Das wird sicher Gegenstand weiterer Untersuchungen sein.

Was sagte Herr Lesch

Und nun vergleiche man diese Antwort mit Herrn Leschs Darstellung:

H. Lesch: „ … Die Biofilme sind etwas, das man vorher nicht kannte, aber jetzt weiß, aha, das verstärkt nochmal den Effekt des Klimawandels, also der Erwärmung… „.

Prognosen von Klimamodellen

Weiter geht es im Video:
H. Lesch: Es gibt jetzt klare Prognosen dafür, dass die Prognosen von Klimamodellen eintreten … Eine Vorhersage war in der Tat, dass durch die allgemeine Erwärmung sich die Wolkenbänder systematisch vom Äquator hinaus in Richtung nach Norden und nach Süden bewegen müssten. Und genau das ist nun entdeckt worden. Und eine weitere Vorhersage der Klimamodelle ist eingetreten: Sobald die Atmosphäre eine bestimmte Temperatur überschreitet, schießen die Wolken weiter nach oben … aber inzwischen sind nicht nur Gewitterwolken davon betroffen, sondern die gesamte Dynamik ist davon betroffen.

Wieder muss man Datenquellen raten. Doch könnte sich die Aussage auf die folgende Studie beziehen:

Juli 2016, [4] Evidence for climate change in the satellite cloud record,
deren Pressemitteilung vorwiegend im Englischsprachigen Raum publiziert wurde.
Doch WELT N24 hat auch darüber berichtet: Wegen des Klimawandels haben wir weniger Wolken
… Unklar waren bislang auch die Auswirkungen der globalen Erwärmung auf den Wolken-Bedeckungsgrad. Das lag vor allem daran, dass Wettersatelliten die Veränderungen nur teilweise zuverlässig wiedergeben, unter anderem wegen verschiedener Umlaufbahnen, unterschiedlicher Kalibrierung und Veränderungen der Sensorenempfindlichkeit im Laufe der Zeit. Das Forscherteam analysierte nun die Datenreihen verschiedener Satelliten und rechnete störende Einflüsse heraus.
Die Auswertung über 27 Jahre zeigt, dass der Bedeckungsgrad vor allem der mittleren Breiten abnimmt – weil sich der subtropische Hochdruckgürtel ausdehnt und sich die Tiefdruckzone der mittleren Breiten – insbesondere über dem nördlichen Atlantik – polwärts verlagert. Dagegen stieg der Bedeckungsgrad etwa über dem Atlantik und Pazifik nördlich des Äquators. Zudem berichten die Forscher, dass die oberste Wolkenschicht höher reicht als früher.

Seit dem Jahr 1984 gibt es ein ISCCP Cloud-Cover Daten-Projekt. Und Studien, welche die Veränderungen der Wolken-Bedeckungsgrade über die verschiedenen Breiten analysieren und versuchen, mit den Simulationsergebnissen in Einklang zu bringen, gibt es wie Sand am Meer. Allerdings oft mit ernüchternden Ergebnissen, zum Beispiel,

dass zwischen Messungen und Simulationsergebnissen nicht nur große Abweichungen bestehen, sondern die Effekte schlichtweg noch nicht ausreichend verstanden sind. Dazu kommt, dass beispielsweise ein Projekt beim CERN ermittelte, dass die Wolkenbedeckung viel stärker als bisher angenommen von natürlichen Einflüssen abhängt, somit im vor-industriellen Zeitalter eventuell viel größer als bisher angenommen war und das aktuelle Verhalten somit weit mehr (als bisher angenommen) von natürlichem und weniger (als bisher angenommen) vom CO2-Forcing abhängt

Theorien und Annahmen gibt es also viele und die Ergebnisse erscheinen insgesamt etwas chaotisch, weshalb die Klimamodellierer bezüglich der Wolken immer noch ziemlich hilflos sind:
M. Calisto at al., 2014: Cloud radiative forcing intercomparison between fully coupled CMIP5 models and CERES satellite data (Anmerkung: CMIP5 „Coupled Model Intercomparison Project 5“ sind neue Klimamodellierungen)

We have found that none of the models are consistent with the CERES data for all four variables considered….
we can say that despite consistent improvements in complexity and resolution of the models, none of the CMIP5 models presented here fits perfectly to the satellite data. Most of the models show a large bias in sea-ice regions, the tropical Pacific, and subtropical stratocumulus regions (Figs. 5 and 6). An accurate representation of clouds and their radiative effects still remains a challenge for global climate modeling.

[Übersetzung von Chris Frey: Wir sind zu dem Ergebnis gekommen, dass keines der Modelle konsistent ist mit den CERES-Daten für alle betrachteten Variablen … wir können sagen, dass trotz konsistenter Verbesserungen hinsichtlich Komplexität und Auflösung der Modelle keines der hier präsentierten CMIP5-Modelle genau zu den Satellitendaten passt. Die meisten Modelle zeigen einen großen Bias in Gebieten mit Meereis, dem tropischen Pazifik und subtropischen Stratocumulus-Regionen. Eine genaue Repräsentation von Wolken und deren Strahlungs-Auswirkungen bleibt nach wie vor eine große Herausforderung für die globale Klima-Modellierung.

Ende Übersetzung]

The Daily Star, May 27, 2016 : Scientists make news clouds which may lessen global warming
… Nobody knows just how cloudy skies were in the old days. Scientists have figured there were far fewer clouds than now, Kirkby said. But the discovery of a new natural route to cloud formation suggests that cloud cover was in fact greater than scientists had assumed.

If so, the way these simulations work, it would mean that greenhouse gases haven’t been quite as potent in producing warming so far as scientists thought. So, ton for ton, they may not be quite as potent in producing future warming either.
A new discovery about how clouds form may scale back some of the more dire predictions about temperature increases caused by man-made global warming. That’s because it implies that a key assumption for making such predictions is a bit off. „What this will do is slightly reduce and sharpen the projections for temperature during the 21st century,“ said researcher Jasper Kirkby.

[Übersetzung von Chris Frey: … Niemand weiß, wie wolkig es während der alten Tage war. Wissenschaftler haben herausgefunden, dass es weit weniger Wolken gegeben hatte als jetzt, sagte Kirkby. Aber die Entdeckung eines neuen natürlichen Weges der Wolkenbildung zeigt, dass die Wolkenbedeckung tatsächlich höher war als die Wissenschaftler vermutet hatten.

Falls das so ist, die Funktionsweise dieser Simulationen, würde das bedeuten, dass Treibhausgase nicht in der Lage gewesen wären, eine den Vermutungen der Wissenschaftler entsprechende Erwärmung zu erzeugen. Eine neue Entdeckung darüber, wie sich Wolken bilden, kann einige der düsteren Prophezeiungen hinsichtlich der vom Menschen verursachten Erwärmung abschwächen. Und zwar deswegen, weil es impliziert, dass eine grundlegende Hypothese für derartige Prophezeiungen ein wenig abwegig ist. „Das Ergebnis hiervon wird sein, dass die Projektionen der Temperaturen im 21. Jahrhundert etwas reduziert werden“, sagte der Forscher Jasper Kirkby.

Ende Übersetzung]

Einer Studie, der es auf einmal gelang, aus längst bekannten, teilweise aber ungeeigneten Satellitendaten
[4] „this is because observational systems originally designed for monitoring weather have lacked sufficient stability to detect cloud changes reliably over decades unless they have been corrected to remove artefacts ,
durch „Herausrechnen störender Einflüsse“ plötzlich einen „genauen“ Wolkenverlauf zu rekonstruieren und dann durch geeignet angepasste
[4] „Here we show that several independent, empirically corrected satellite records exhibit large-scale patterns of cloud change between the 1980s and the 2000s that are similar to those produced by model simulations of climate with recent historical external radiative forcing
Simulationsläufe nachzuvollziehen, ist jedenfalls mit äußerster Vorsicht zu betrachten. Es entsteht leicht der Eindruck der typischen “Beweisführung” in der Klimakunst: Nachträglich Messdaten zu “erzeugen”, dann Simulationen so lange anzupassen (es wurden wohl die CO2- und Aerosol-Forcinwerte so lange verändert, bis die zurückgerechneten Kurvenverläufe ungefähr passten), bis diese Daten wenigstens im Ansatz in einer Rücksimulation herauskommen und dann zu behaupten, damit ist die Qualität der Simulationen belegt (die das Ergebnis allerdings weder vorhersagen, noch ohne nachträgliche “Anpassung” zurückrechnen konnten).

Auf kaltesonne kam dazu jüngst eine größere Zusammenfassung:
kaltesonne, 27. August 2016: Wolken – die großen Unbekannten im Klimasystem
Lange Zeit hatten uns die Klimawissenschaftler vorgegaukelt, es gäbe nur noch i-Punkte in den Klimagleichungen zu setzen. Heute wissen wir, dass dies ein schwerer Fehler war. Noch immer gibt es viele große Unbekannte in den Klimamodellen. Im Februar 2015 räumte das Deutsche Klimakonsortium (DKK) ein:
Wolken – die großen Unbekannten im Klimasystem
[…] Wolken sind für systematische Messungen nicht nur schwer zugänglich, sie unterliegen auch ständiger und schneller Veränderung, sind in Form, Entstehung, Zusammensetzung und Höhenvorkommen unterschiedlich und haben deshalb verschiedene Auswirkung auf die Energiebilanz in der Atmosphäre. So wirken Wolken in tieferen Atmosphärenschichten kühlend, weil sie Sonnenstrahlen reflektieren und weniger Energie die Erdoberfläche erreicht. Hohe Eiswolken, Zirren genannt, wirken hingegen eher wärmend, da sie die Wärmeabstrahlung der Erde nicht in die Atmosphäre entlassen, sondern wieder Richtung Erdoberfläche reflektieren. […] Frank Stratmann untersucht im weltweit einzigartigen Leipziger Wolkensimulator (Leipzig Aerosol Cloud Interaction Simulator, LACIS) die Wechselwirkungen zwischen Aerosolpartikeln und Wolkentropfen: Im Kleinen wird die Wolkenbildung simuliert, die sich normalerweise bis zu einer Höhe von 15 km über der Erdoberfläche abspielt. […]
In Stratmanns Vortrag heißt es:
Was ist der Stand:
Wolken in Klimamodellen werden in der Regel nicht im Detail modelliert weil:
a) es teilweise an grundlegendem physikalischem Verständnis mangelt
b) eine Prozessmodellierung numerisch zu aufwändig ist
c) es ein grundsätzliches Skalenproblem gibt
(Wolken – Kilometerskala, Modellauflösung – Hundertkilometerskala)
d) Wolken werden in parametrisierter Form behandelt
Klimamodelle müssen anhand von Messwerten validiert werden
kaltesonne: Im Mai 2015 brachte auch proplanta.de Klimarealimus:
Forscher nehmen Wolken ins Visier
Wie beeinflussen die Wolken den weltweiten Klimawandel? Forscher haben darauf noch keine umfassenden Antworten.
Klar sei nur eines, sagt Professor Thomas Leisner, Klimaforscher am Karlsruher Institut für Technologie (KIT): «Wenn sich das Klima ändert, ändern sich auch die Wolken – und umgekehrt». Doch in welchem Maße? Und in welche Richtung? In der deutschlandweit einzigartigen Wolkenkammer «Aida» versuchen Leisner und seine Mitarbeiter, Antworten zu finden. Zwei zentrale Fragen stellen sich:
Werden die Wolken im Klimawandel mehr kühlend oder mehr erwärmend wirken?

Das Max Plank Institut umschreibt die Problematik recht umständlich, aber mit ähnlichem Ergebnis: Wo liegen die Grenzen der Vorhersagbarkeit des Erdsystems?
… Anderes ist jetzt erst möglich geworden, wie etwa das Ersetzen der Wolkenparametrisierung durch konvektionsauflösende Modelle, wodurch die Simulationen eine deutlich stabilere konzeptuelle Grundlage erhalten.
Um unsere Modelle zu evaluieren und zu initialisieren, benutzen wir in zunehmendem Maße Beobachtungsdatensätze, aus denen wir grundlegende,
neue Einsichten in das sich ändernde Erdsystem gewinnen: von der Vertikalstruktur der Wolken über die zunehmende Wärmeaufnahme des Ozeans bis hin zu den immer genauer werdenden Beschreibungen der Landbiosphäre. Die globalen Beobachtungen werden durch eine neue Generation von Messkampagnen ergänzt, zum Beispiel für die Wolkendynamik in den Subtropen oder die meridionale Umwälzbewegung im Ozean.

Was sagte Herr Lesch

Die Aussage: „ H. Lesch: Es gibt jetzt klare Prognosen dafür, dass die Prognosen von Klimamodellen eintreten.“
ist damit auf jeden Fall nicht belegt und entspringt eher einem Wunschdenken. Zudem ist eine solche Aussage auch Unsinn, doch trotzdem entlarvend typisch „ … es gibt Prognosen, dass die Prognosen eintreten …“.
Beim Klima-Simulieren werden viele verschieden parametrierte Simulations-Läufe gemacht und dann „ermittelt“, welcher der „richtigste“ sein könnte. Irgend eine Prognose tritt dadurch irgendwann immer ein. Nur ist in der Regel vorher nicht bekannt, welche es werden wird. Anders herum werden die Simulationen rückwirkend den wahren Verläufen angepasst und dazu verkündet: „hätte man es damals so parametriert, wären die heutigen Ergebnisse herausgekommen“.
Wer die himmelschreienden Ungenauigkeiten nicht glaubt, sehe sich das in den vielen Vulnerabilitätsstudien mit ihren Simulationsläufen an:
EIKE: Der Himmel fällt uns auf den Kopf und ohne die Glaskugel im Computer würden wir es nie erfahren

Wie schwierig es ist, Ursache und Wirkung zu unterscheiden, lässt sich am folgenden Verlaufsbild der tropischen Wolkenbedeckung ahnen.

Bild 3 Tropische Wolkenbedeckung und Temperatur seit 1983 (Wolken: ISCCP) Quelle: WUWT, Blogbeitrag

Meeresspiegel

Weiter geht es bei Herrn Lesch mit dem Meeresspiegel:
H. Lesch: … und warmes Wasser braucht mehr Platz … und schon ist man beim Meeresspiegelanstieg: Da gibt es ebenfalls neue Daten und die sagen uns ebenfalls nichts Gutes. … Zumal sich eben auch die Kontinente noch anheben z.B. genau dann wenn die Gletscher verschwinden die … wenn das Eis verschwindet …
Wie hoch ist tatsächlich der Meeresspiegelanstieg … Man hat Modelle benutzt und hat lokale Messstationen deren Wasseranstieg, deren Meeresanstieg zu rekonstruieren. Dann macht man das mit zwei, drei, vieren . ist eine Evolution von Modellen. … auf diese Art und Weise ist es gelungen, eine klipp und klare Aussage darüber zu machen, dass die Meere in den letzten 100 Jahren so stark angestiegen sind wie in den letzten 3000 Jahren nicht mehr …
und das ist klar, klipp und klar

Wieder muss man Datenquellen raten, aber es finden sich dazu passende Fundstellen, wie:
[1] Temperature-driven global sea-level variability in the Common Era
Wie so oft, hat ein Studienteam ganz neu festgestellt, dass man die Daten der Vergangenheit bisher falsch interpretiert hat und mit den „richtigen“, statistischen Methoden berechnet, die Zukunft viel schlimmer (als bisher publiziert) werden wird. Und wie so oft, wenn eine schlimme Klimaapokalypse zu verkünden ist, war auch Herr Rahmstorf (PIK) im Team dabei.
Die Studie kommt auch im EIKE-Artikel: Anstieg des Meeresspiegels: Nur Fakten, vor, doch soll hier auf eine Besprechung auf scinexx eingegangen werden.
scinexx.de:
[6] Meeresspiegel: Schnellster Anstieg seit 3.000 Jahren Bisher vollständigste Berechnung der klimabedingten Veränderungen des globalen Meeresspiegels
Jetzt ist es amtlich: Der globale Meeresspiegel ist im 20. Jahrhundert schneller angestiegen als jemals zuvor in den letzten 3.000 Jahren. Von 1900 bis 2000 stiegen die weltweiten Pegel um 14 Zentimeter. Gäbe es dagegen den anthropogenen Klimawandel nicht, wäre der Meeresspiegel vielleicht sogar gleichgeblieben, wie Forscher im Fachmagazin „Proceedings of the National Academy of Sciences“ berichten. Zudem wären allein den US-Küsten 4.000 Überschwemmungen seit 1950 erspart geblieben.
Dass die Meeresspiegel durch die globale Erwärmung ansteigen, ist mittlerweile sattsam bekannt. Unter anderem deshalb prognostizieren Klimaforscher zunehmende Überschwemmungen und selbst in den USA gehen schon die ersten Inseln unter.
Zudem wurde lange Zeit mit
falschen Basiswerten gerechnet, so dass sich erst kürzlich herausstellte, dass der Anstieg doch steiler ist als gedacht.
„Eine statistische Herausforderung“
Robert Kopp von der Rutgers University und seine Kollegen haben es nun dank komplexer Analysen erstmals geschafft, die Entwicklung des Meeresspiegels in den letzten 3.000 Jahren zu rekonstruieren. „Kein lokaler Pegelstand liefert uns den globalen Meeresspiegel“, erklärt Kopp. „Denn an jedem Standort wird der Wert von zahlreichen Prozessen beeinflusst, die ihn vom globalen Mittel abweichen lassen. Hieraus das globale Signal zu isolieren – das ist die statistische Herausforderung“
Wie sensibel der Ozean auf Klimaveränderungen reagiert, zeigt ein weiteres Ergebnis:
Zwischen den Jahren 1000 und 14000 sank der Meeresspiegel um rund acht Zentimeter ab, wie die Forscher feststellten. Diese Entwicklung trifft mit einer Phase zusammen, in der sich globale Klima um 0,2 Grad Celsius abkühlte. „Es ist erstaunlich, dass wir diese Pegelveränderungen sogar bei einer so schwachen Abkühlung sehen“, sagt Kopp.

Selbst allerschlimmste Fehler fallen einer Fachredaktion nicht auf

Im scinexx-Artikel steht (hier extra als screenshot, damit man es glaubt, sofern es doch noch von der Redaktion korrigiert werden sollte), dass der Meeresspiegel zwischen den Jahren 1.000 und 14.000 um rund 8 cm sank:

Bild 4 Screenshot aus dem scinexx Artikel [6] zur Studie [1]
Diese Textstelle liest sich in der Studie allerdings wie folgt:

[1] „ … with a notable decline over 10001400 CE coinciding with 0.2 °C of global cooling

Der Redakteur hat (sicher versehentlich) aus den richtigen 1.400 CE in der Studie falsche 14.000 CE getippt. Das kann jedem mal passieren. Nur lag der Meerespegel vor 14.000 Jahren wie allgemein bekannt um 80 m (und nicht 8 cm) tiefer und die Temperatur ebenfalls um fast 20 Grad (und nicht 0,2 Grad). Dass dieser – fast schon jedem Klimalaien sofort ins Auge springende – Fehler niemandem in der Redaktion aufgefallen ist (und keinen Leser zur Reklamation veranlasste), zeigt, welcher krasse Unsinn beim Klimawandel publiziert werden kann, ohne „anzuecken“.

Bild 5 Pegel- und Temperaturverlauf seit ca. 25.000 Jahren. Quelle: Zentralanstalt für Meteorologie und Geodynamik, ZAMG

Im Studienteam müssen wahre Rekonstruktionsgenies gewesen sein

Im scinexx Artikel steht: „Der globale Meeresspiegel ist im 20. Jahrhundert schneller angestiegen als jemals zuvor in den letzten 3.000 Jahren“. In der Studie selbst findet sich dazu das folgende Bild:

Bild 6 Die erste (angeblich) wirklich genaue Rekonstruktion des Meeresspiegelverlaufs seit 2400 Jahren. Quelle: [1]
Dieser „endlich ganz genaue berechnete Verlauf“ zeigt seit den letzten 2400 Jahren (bis ca. 1900) eine Spanne von gerade einmal ca. 15 cm.

Nun hat der Autor historische Pegelrekonstruktionen schon einmal in einer kleinen Analyse gesichtet und ist dabei zum Ergebnis gekommen, dass die Pegel-Änderungsspanne um Dimensionen höher ist, und schlimmer, aufgrund der katastrophalen Proxi-Ungenauigkeiten gar kein „wirklicher“ Global-Verlauf mit brauchbarer Genauigkeit rekonstruiert werden kann:
EIKE 07.04.2016: [5] Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

Daraus eine Proxy_Rekonstruktion (Bild 7), welche dem IPCC AR5 entstammt. Die Proxys überstreichen in diesem Zeitraum eine Spanne von mindestens 100 cm. Vor allem aber sind sie regellos verteilt (Verdacht, dass sie teils Zufallswerte darstellen). Jedenfalls lässt sich kein „wahrscheinlicher“ mittlerer Kurvenverlauf daraus berechnen, weil die notwendigen, statistischen Basisannahmen nicht erfüllt sind. Natürlich kommt im Rechner immer eine Mittelwert-Kurve heraus – nur stimmt sie nicht.

Bild 7 IPCC Proxibild der vergangenen 3000 Jahre (gestrichelte Linien durch den Autor ergänzt). 0 = Jahr 1950

Original-Bildtext: Figure 13.3 (a) Paleo sea level data for the last 3000 years from Northern and Southern Hemisphere sites

Der folgende Verlauf eines Proxys der Malediven, indischer Ozean (Bild 8) soll zeigen, wie leicht die Annahme, einen so steilen Pegelanstieg wie aktuell hätte es die letzten 3000 Jahre noch nie gegeben, auch falsch sein kann. Es fällt aber kaum auf, da die schnellen Änderungen in den vielen Mittelungen verschwinden.

Bild 8 [5] Fig. 1. Sea level curve for the last 5000 years for the Maldives.
Nun eine Tabelle mit den Pegeländerungen weltweit verteilter Proxis aus dem EIKE-Artikel (Bild 9). Die Pegel-Spannweiten der letzten 2000 Jahre liegen zwischen -1,4 … +3,2 m. Laut der ganz neuen Studie will man daraus mittels ganz moderner Statistik heraus bekommen haben, dass der globale Mittelwert in diesem Zeitraum um nicht mehr als 15 cm geschwankt hätte. Das ist mehr als absolut unglaubwürdig. Bei den katastrophal streuenden Daten lässt sich auch mit noch so viel „Statistik“ kein wahrer Mittelwertverlauf mit dieser Genauigkeit bestimmen, beziehungsweise belegen.

Bild 9 [5] Meerespegel-Verlaufsrekonstruktionen aus weltweit verteilten Pegelproxys (ohne Pegel Mittelmeer)
Zum angeblich so alarmistischen, jüngeren Pegelanstieg noch ein Link:

EIKE: Anstieg des Meeresspiegels: Nur Fakten
Nur weil der Meerespegel eben nicht alarmistisch ansteigt, wird mit immer neuen „bahnbrechenden, statistischen Analysen“ versucht, einen zu konstruieren.

Was sagte Herr Lesch

Die Aussage: H. Lesch: „ … auf diese Art und Weise ist es gelungen, eine klipp und klare Aussage darüber zu machen, dass die Meere in den letzten 100 Jahren so stark angestiegen sind wie in den letzten 3000 Jahren nicht mehr … und das ist klar, klipp und klar,
darf man bedenkenlos anzweifeln, da sie sich auf eine Studie bezieht, welche unseriöse und vielen anderen Analysen deutlich widersprechende Ergebnisse präsentiert. Klipp und klar ist nur, dass damit gar nichts klar ist.

Fazit

Herr Lesch hat inzwischen mehrere Vorträge zum Klimawandel „gedreht“. Es ist (für jemand dazu kritisch eingestellten) wirklich eine Qual, sich seine Darstellungen dazu anzusehen und zu hören. Man merkt dabei auch, wie wenig „Wissenschaftsvorträge“ nutzten, wenn keine Quellen bekannt gegeben werden.
Im Kern sind seine Vorträge dazu inzwischen zur reinen Agitation und Kanzelpredigt, moderner: Vermittlung einer Message, verkommen. Mit „Wahrheitsvermittlung“ haben sie jedenfalls rein gar nichts mehr zu tun. Vor Kurzem verkündet er inzwischen, beim Klimawandel gäbe es überhaupt keine Zweifel, was die (alarmistischen) Studien schreiben, wäre einfach „wahr“ und somit gäbe es dazu auch keinen Dissens mehr (die Rezension zu einem seiner Videos, in welchem er vor großem Publikum genau dies konkret sagt, erscheint noch).
Es fragt sich nur: Was treibt einen Professor dazu, sich sein Renommee selbst so konsequent kaputt zu machen? – Und, warum unsere Fernsehanstalten solche Ökokirchen-Predigersendungen als „Wissenschaft“ bringen.

Quellen

[1] R. E. Kopp et al. (mit S. Rahmstorf): Temperature-driven global sea-level variability in the Common Era

[2] ZDFHD, Video: Frag den Lesch – Neues aus der Klimaküche Quelle: YouTube, Veröffentlicht am 28.11.2016

[3] npj, Heidi J Smith at al., 8 June 2016: Biofilms on glacial surfaces: hotspots for biological activity

[4] Joel R. Norris at al., 11 July 2016: Evidence for climate change in the satellite cloud record

[5] EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

[6] scinexx.de: Meeresspiegel: Schnellster Anstieg seit 3.000 Jahren

[7] ScienceScepticalBlog: Die Top 5 Lügenmärchen der Klimaforscher
http://www.science-skeptical.de/klimawandel/die-top-5-luegenmaerchen-der-klimaforscher/0015719/




Obsolete Klimawissenschaft zu CO2

Greenstone und Sunstein haben ein großes Interesse in diesem Spiel: Während ihrer Jahre in der ersten Obama-Regierung riefen sie eine inter-ministerielle Arbeitsgruppe IWG ins Leben, deren Mitglieder aus verschiedenen Regierungsagenturen berufen wurden, die sich mit den sozialen Kosten von Kohlenstoff (SCC) befasst hatten – oder den marginalen Kosten der Freisetzung einer Tonne CO2 in die Atmosphäre. Diese IWG befand, dass man die Kosten mit 36 Dollar pro Tonne schätzen sollte (für 2015). Man lege diese Zahl zugrunde, und man hat viel Rechtfertigung für wesentliche politische Schritte, um die CO2-Emissionen zu kappen. Greenstone und Sunstein hofften, dass die Arbeitsgruppe sich auf die „jüngsten Forschungen in Wissenschaft und Ökonomie“ stützen und die behaupteten Kosten belegen würden mit der „Berückichtigung der Zerstörungen von Eigentum durch Stürme und Überschwemmungen, abnehmende landwirtschaftliche und industrielle Produktivität, steigende Sterblichkeit und mehr“.

Ihre Mühe sollte als grandioses Scheitern betrachtet werden sowie als ein Affront gegen das wissenschaftliche Verfahren, das in ihren Studien anzuwenden sie vorgeben. Der erste Fehler ist ein Verfahrensfehler. Der schlechteste Weg, einen grundlegenden Meinungsaustausch zum komplexen Thema Klimawandel zu bekommen ist es, die IWG ausschließlich mit Mitgliedern der Obama-Regierung zu besetzen, alle sorgfältig ausgewählt, weil sie die übertriebenen Bedenken des Präsidenten bzgl. globaler Erwärmung teilen. Der einzige Weg, ein vollständiges und genaues Bild der Lage zu erhalten ist, den Abweichlern zum Thema globale Erwärmung genauso zuzuhören wie den Befürwortern. Das ist jedoch niemals geschehen. Denn schließlich, wer sollte schon einem „Leugner“ zuhören?

Diese herablassende Haltung ist fatal für eine unabhängige Untersuchung. Egal wie oft der Präsident behauptet, die Wissenschaft sei felsenfest – die Vielfalt von Beweisen aus jüngster Zeit lassen immer mehr ein sehr unterschiedliches Bild entstehen, welches den zügellosen Pessimismus hinsichtlich Klimawandel unterminiert, der vor etwa 10 Jahren groß in Mode war. Die im Rahmen der Obama-Regierung zusammen gerufene Gruppe hat niemals die Akkumulation von Beweisen der anderen Seite untersucht, geschweige denn widerlegt. Tatsächlich sind nahezu alle Berichte der IWG bemerkenswert hinsichtlich ihrer Weigerung, überhaupt irgendwelche Daten zu berücksichtigen. Stattdessen beruft man sich durchgängig auf Modelle, die von anderen entwickelt wurden, als das solide Fundament der Arbeit der Gruppe, ohne auch nur ein einziges Wort zu hinterfragen, welches die Modelle sagen.

Der zweite grundlegende Fehler der regierungsamtlichen Studien ist die Art und Weise, mit der sie die sozialen Kosten von Kohlenstoff (SCC) ausarbeiten. Wie alle Experten einer Kosten/Nutzen-Analyse wissen, ist es ein Fehler, die Kosten isoliert vom Nutzen zu betrachten, oder den Nutzen isoliert von den Kosten. Und doch scheint man genau dies in den Berichten getan zu haben. Als Reaktion auf die zahlreichen Beanstandungen zu den Berichten hat die IWG in einer Antwort im Juli 2015 geschrieben, dass „einige Kommentatoren den Eindruck hatten, dass die SCC-Schätzungen den Wert der Vorteile und die Dienstleistungen für die Gesellschaft einschließen sollten im Zusammenhang mit CO2-Emissionen“. Man muss deren Antwort in Gänze lesen, um das glauben zu können: „Eine rigorose Evaluierung der Vorteile und Kosten ist ein Eckpfeiler des Vorschriften gebenden Prozesses. Die IWG stimmt darin überein, dass dies wichtige Themen sind, die bei der Abschätzung der Auswirkungen einer Politik relevant sein können, die zur CO2-Reduktion führt. Allerdings sind diese Themen nicht relevant für die SCC selbst. Die SCC sind eine Schätzung der gesamtwirtschaftlichen Schäden aufgrund von CO2-Emissionen und werden daher herangezogen, um die Vorteile der Reduktion dieser Emissionen abzuschätzen“.

Im Wesentlichen werden die Vorteile derzeitiger oder zukünftiger CO2-Emissionen gar nicht angesprochen. Und doch muss eine wirklich neutrale Betrachtung des Problems vorbereitet werden, um zu der Schlussfolgerung zu kommen, dass gesteigerte Niveaus von CO2-Emissionen insgesamt vorteilhaft für die Gesellschaft sein, wie die Carbon Dioxide Coalition argumentiert hat, wenn man eine umfassendere Untersuchung durchführen würde. Der gesamte Prozess der Ausweitung von EPA-Vorschriften und anderer Maßnahmen der Obama-Regierung halten nur diese unrichtige grundlegende Schätzung am Leben. Das atemberaubendste Eingeständnis der Unsinnigkeit des gesamten EPA-Projektes stammt von der EPA-Chefin Gina McCarthy, die gesagt hatte, dass sie eine Temperaturabnahme um ein Hundertstel Grad als enorm vorteilhaft ansehen würde, unbeschadet der hohen Kosten, weil dieser Symbolismus „globale Maßnahmen auslösen“ könnte. Keine Kosten/Nutzen-Analyse würde verschwendete Ausgaben allein aus symbolischen Gründen rechtfertigen. Schließlich würde die menschliche Entwicklung bzgl. globaler Erwärmung nur dann Schaden nehmen, falls andere Nationen unseren falschen Sirenengesängen bzgl. CO2-Emissionen folgen, während die gewaltige Verschmutzung ignoriert wird, die Begleiterscheinung großer Bevölkerungszentren sind wie etwa Delhi und Peking.

Unglücklicherweise beruht die Unterstützung für Vorschriften bzgl. CO2-Emissionen unzulässig auf einer amtlichen Auswirkungs-Analyse, die nicht mehr wert ist als die falschen Hypothesen, auf denen die Modelle beruhen. Darunter ist auch der gewaltig komplizierte Clean Power Plan, der zeitweise vom Obersten US-Gerichtshof untersagt worden war und der ebenfalls auf den betrügerischen Schätzungen der sozialen Kosten von Kohlenstoff beruht.

Die Schwäche des EPA-Verfahrens wird offensichtlich durch die Daten, die Greenstone und Sunstein anführen, um die Behauptung zu stützen, dass die globale Erwärmung bereits ein gefährliches Niveau erreicht hat. Sie beziehen sich beispielsweise auf einen Geophysical Research Letter aus dem Jahr 2014, in dem es um den Rückzug von Eis in der Westantarktis zwischen 1992 und 2011 geht. Aber dieses eine Ergebnis muss in den richtigen Zusammenhang gestellt werden, wie es im State of the Climate Report aus diesem Jahr 2016 der Fall war. Dieses Dokument wurde vom Committee for a Constructive Tomorrow (CFACT) erstellt und der UN-Klimakonferenz in Marokko zugeleitet. In diesem vollständigeren Bericht wird belegt, dass der Massenzuwachs in der Ostantarktis im Mittel 200 Milliarden Tonnen pro Jahr betragen habe, verglichen mit den 65 Milliarden Tonnen Massenverlust, welche vom Zuwachs in der Ostantarktis weit überkompensiert worden waren. Damit ergibt sich ein Eiszuwachs in der gesamten Antarktis von grob geschätzt 82 Milliarden Tonnen pro Jahr zwischen 2003 und 2008. Fazit: „Die gute Nachricht lautet, dass die Antarktis gegenwärtig nicht zum Anstieg des Meeresspiegels beiträgt, sondern diesen um 0,23 Millimeter pro Jahr verlangsamt“. Alles in allem war die Temperatur in der Antarktis während der letzten 35 Jahre konstant geblieben.

Keine Analyse, die nur auf die Negativa schaut, kann es sich leisten, die viel größeren Positiva zu ignorieren, um ihre Glaubwürdigkeit zu erhalten. Tatsächlich belegt der CFACT-Bericht, dass die Eismasse in der Arktis derzeit um 22% größer ist als während der minimalen Ausdehnung im Jahre 2012. Diese Tatsache hilft zu erklären, warum es jüngst zu keiner Änderung der Rate des Meeresspiegel-Anstiegs gekommen war und mit Sicherheit zu keinem Anstieg, der irgendwie der relativ moderaten Erwärmung der letzten 100 Jahre zuzuordnen ist. Jüngste Trends zeigen, dass sich die Anstiegsrate der Ozeane während der letzten 18 Jahre immer mehr verlangsamt hat, während einer Zeit also, in der es eine substantielle Zunahme des CO2-Niveaus gegeben hatte. Und doch zeigen alle 102 verschiedenen, vom IPCC herangezogenen Modelle sehr hohe Schätzungen, und zwar um etwa das Vierfache zu hoch. Wie im CFACT-Bericht 2016 dokumentiert, hat sich die Temperatur während der letzten 18 Jahre kaum geändert, und die berichteten rekordhohen Werte beruhen auf Abweichungen bei den Messungen, die noch innerhalb der Messgenauigkeit liegen. Und doch folgt die Regierung der Methode, ausschließlich auf die Modelle zu schauen und die Daten zu ignorieren.

Genau dies wurde auch getan bei den inzwischen anachronistischen Endangerment Findings der EPA aus dem Jahr 2009, wo von der insgesamten Abnahme des arktischen Eises die Rede und die Behauptung aufgestellt worden war, dass die „erhöhten CO2-Niveaus“ „geringe vorteilhafte Auswirkungen auf die Ernteerträge“ erwarten ließen. Die gute Nachricht zu diesem Punkt scheint zu sein, dass die CO2-Zunahme während der letzten 30 Jahre zu einer Zunahme der grünen Vegetation auf der Erde um 14 Prozent geführt hat. Dies berichtet Matt Ridley in einem Vortrag im Jahre 2016. Es ist die beste aller möglichen CO2-Welten, wenn die Fläche urbaren Landes zunimmt bei geringen Temperaturänderungen und kaum wahrnehmbaren Änderungen des Meeresspiegels. Führt man all diese Zahlen zusammen, muss eine Überarbeitung der SCC erfolgen, denn wie es jetzt scheint, sind die Gesamtkosten von Kohlenstoff negativ. Außerdem haben die überarbeiteten Projektionen nur die viel niedrigen Schätzungen der globalen Erwärmung infolge eines höheren CO2-Niveaus untermauert.

Dieses grundlegende Ergebnis wird durch andere, leicht zugängliche Daten gestützt, die andere Bedenken im Artikel von Greenstone und Sunstein betreffen. Für Neulinge in dieser Diskussion: Es gab keine Zunahme von Stürmen und Überschwemmungen oder auch der Schäden, die diesen Ereignissen in die Schuhe geschoben werden. Im Gegenteil, die Trendlinie war eindeutig sehr günstig, hat doch die Anzahl von Extremereignissen wie Fluten und Stürme stetig während der letzten 100 Jahre abgenommen. Tatsächlich war das letzte schwere Unwetter in den USA der Hurrikan Katrina im Jahre 2005, gefolgt von elf Jahren relativer Ruhe in den USA und auf der ganzen Welt. Dieser Punkt ist zentral, weil eine der konstantesten Behauptungen zum globalen Klimawandel lautet, dass die systemweite Instabilität diese Extremereignisse hat zunehmen lassen, sogar dann noch, falls das Temperaturniveau insgesamt konstant geblieben ist.

Das Gesamtbild hinsichtlich der SCC ist daher das genaue Gegenteil dessen, was von Greenstone und Sunstein beschrieben worden ist, und diese Änderung der Richtung hat eine ernste Auswirkung auf den Erfolg zahlreicher juristischer Klagen. Greenstone und Sunstein schreiben, dass einem Urteil aus dem Jahr 2008 zufolge das Ignorieren der SCC eine regierungsamtliche Vorschrift „willkürlich und unberechenbar“ ist und dass daher eine Umformulierung seitens der betreffenden Agentur erfolgen muss. Sie erwähnen auch eine andere Entscheidung aus dem Jahr 2016, welche eine administrative Entscheidung des Energieministeriums aufrecht erhielt unter explizitem Bezug auf die SCC. Aber diese juristischen Entscheidungen sind umgeben von einer surrealistischen Aura. Eckpunkt dieser Fälle das Energy Policy and Conservation-Gesetz aus dem Jahr 2016 (EPCA). Dieses wurde in der Folge des Ölembargos des Nahen Ostens im Jahre 1973 in Kraft gesetzt. Das Hauptergebnis von EPCA war „die fundamentale Realität, dass diese Nation in eine neue Ära eingetreten ist, in der Energieressourcen, die früher ergiebig waren, immer weiter schrumpfen, was unser eigenes Wachstum verzögert und eine Änderung unserer Lebensgewohnheiten und -erwartungen erforderlich macht“.

Es war die Stärke dieses 41 Jahre alten Statuts, die den Gerichtshof im Jahre 2008 dazu veranlasste, von der National Highway Traffic Safety Administration zu verlangen, ihre Vorschriften bzgl. Treibstoffersparnis für Kleinlaster zu überarbeiten, weil sie die SCC nicht berücksichtigt hatte. Heutzutage ist diese Gesetzgebung vollkommen anachronistisch, weil die Revolution der Energie-Technologie die gesamte faktische Grundlage zerschlagen hat, auf der die Vorschriften bzgl. Treibstoffersparnis fußen. Angesichts Fracking ist Energie ergiebig. Folglich müssen die SCC neu bewertet werden im Lichte der Beweise, die außerhalb der EPA zusammengetragen und oben zusammengefasst worden waren. Kein einziger dieser Beweise ist berücksichtigt worden bei der Arbeit im geschlossenen Universum des gegenwärtigen Bündels von Umwelt- und Energiegesetzen. Derzeit scheint es so, dass praktisch alle EPA-Vorschriften auf überholter Wissenschaft beruhen.

Greenstone und Sunstein stehen nicht allein mit ihrer Weigerung, Beweise in Betracht zu ziehen, die ihre Behauptungen widerlegen. Aber falls die SCC negativ aussehen, sollte die Trump-Regierung tätig werden und die gegenwärtige Gefahrenbehauptung bzgl. CO2 eliminieren. Sie sollte den Vorschriften gebenden Apparat auflösen, der auf der hoch fragwürdigen Schätzung der hohen Werte der SCC beruht. Die traurige Wahrheit ist, dass die EPA und das Gesetzgebungsverfahren der Obama-Regierung keinen Respekt zeigt für die wissenschaftliche Methode, auf die zu bauen sie doch so sehr behaupten.

Link: http://www.hoover.org/research/obsolete-climate-science?utm_content=bufferefd7e&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer




Jede Tonne emit­tiertes CO2 führt zu einem Abschmelzen des Arktis­eises um drei Quadrat­meter

Klimaretter.Info: Arktis-Eisabdruck beim Autofahren
Einen direkten Zusammenhang zwischen dem Ausstoß von Treibhausgasen und der Eisschmelze in der Arktis stellt eine jetzt in der Zeitschrift Science veröffentlichte Studie her. Danach führt jede Tonne emittiertes CO2 zu einem Abschmelzen des Arktiseises um drei Quadratmeter mit einer Unschärfe von plus/minus 0,3 Quadratmetern. Sollten weitere 1.000 Gigatonnen CO2 in die Atmosphäre gelangen, sagt die Untersuchung voraus, werde dann im September – zum Ende des arktischen Sommers – die Arktis eisfrei sein.
Die Studienautoren Dirk Notz, Leiter der Max-Planck-Forschungsgruppe „Meereis im Erdsystem“, und Julienne Stroeve vom National Snow and Ice Data Center in den USA schlossen aus den bisherigen Emissionen und dem Eisrückgang seit 1953 auf den Wert von drei Quadratmetern Eis pro Tonne CO2.

Die Süddeutsche Zeitung wollte auf diese Information selbstverständlich ebenfalls nicht verzichten:
Mein Haus, mein Auto, meine Eisscholle
Bezogen sind die Meldungen auf die Studie:
[1]„Observed Arctic sea-ice loss directly follows anthropogenic CO2 emission”, Abstract

Arctic sea ice is retreating rapidly, raising prospects of a future ice-free Arctic Ocean during summer. Since climate-model simulations of the sea-ice loss differ substantially, we here use a robust linear relationship between monthly-mean September sea-ice area and cumulative CO2 emissions to infer the future evolution of Arctic summer sea ice directly from the observational record. The observed linear relationship implies a sustained loss of 3 ± 0.3 m2 of September sea-ice area per metric ton of CO2 emission. Based on this sensitivity, Arctic sea-ice will be lost throughout September for an additional 1000 Gt of CO2 emissions. Most models show a lower sensitivity, which is possibly linked to an underestimation of the modeled increase in incoming longwave radiation and of the modeled Transient Climate Response.
Sehr frei übersetzt lautet das:
Das arktische Meereis zieht sich rasch zurück, wodurch die Aussichten auf einen künftigen eisfreien Arktischen Ozean im Sommer zunehmen. Da sich Klimamodell-Simulationen des Meereisverlusts erheblich unterscheiden, verwenden wir hier eine robuste lineare Beziehung zwischen dem monatlichen September-Meereisbereich und den kumulativen CO2-Emissionen, um die künftige Entwicklung des arktischen Sommermeereises direkt aus den Beobachtungsdaten abzuleiten. Die beobachtete lineare Beziehung impliziert einen anhaltenden Verlust von 3 ± 0,3 m2 September-Meereisfläche pro Tonne CO2-Emission. Auf der Grundlage dieser Sensitivität wird das Arktische Meereis im September bei weiteren 1000 Gt CO2-Emissionen verschwinden Die meisten Modelle zeigen eine geringere Sensitivität, was möglicherweise mit einer Unterschätzung der modellierten Zunahme der eingehenden Langwellenstrahlung und der modellierten TCR* zusammenhängt.
*
TCR: WIKIPEDIA: TCR ist definiert als der Temperaturanstieg, der zum Zeitpunkt einer Verdoppelung der CO2-Konzentration in einem Szenario beobachtet wird, bei dem diese pro Jahr um 1 % anwächst. Der wahrscheinlichste Wert für die TCR liegt bei ca. 2 Grad nach 70 Jahren.

Endlich ist die persönliche Klimaschuld mit einem Meterstab absteckbar

Mit dieser Studie wollten die Autoren wohl ein großes Wissensloch schließen, um den ominösen Klimawandel greifbarer zu machen. Während man bisher eine nicht sichtbare Tonne CO2 in EUROs aufwiegen musste, kann nun jeder mit einem Meterstab seine persönliche Scholle Eis abstecken, die er durch eine klimaschädliche Tat schmelzen ließ, oder durch eine gute zufrieren lassen konnte. Wie in der katholischen Kirche, wo der Ablasshandel erst richtig florierte, als man die zu bezahlende Minderung der Höllentage abzählbar verbrieft bekam, steht dieser Marketingzwang dank dieser Studie nun auch der Ökokirche vollständig zur Verfügung.

Der Leitautor der angezogenen Studie [1], Dr. Dirk Notz, arbeitet beim Max-Planck-Institut für Meteorologie. Dort forscht er wohl vorwiegend über die Klimasimulation von Arktiseis (Institutsinfo):
-Meereis im Klimasystem
-Repräsentation von Meereis in gekoppelten Klimamodellen
-Eis-Ozean-Atmosphäre Wechselwirkungen
-Sensitivitätsstudien von Meereis mit Adjointmodellen
Als konform klimaalarmistisch hat er sich bereits in der Vergangenheit positioniert:
kaltesonne: „Hamburger Max-Planck-Institut mit fragwürdiger Beweisführung zum arktischen Meereis“. Seine Mitautorin, Julienne Stroeve, ist ebenfalls äußerst klimaalarmistisch eingestellt und eng mit Greenpeace verbunden (WUWT).

Gerade noch rechtzeitig zum Klimagipfel gelang der „Beleg“ dass es 1,5 Grad sein müssen

Neben der Erkenntnis zur Schmelzfläche des Arktiseises haben Herr Dr. Notz und seine Co-Autorin auch gleich mit herausgefunden, dass nur die Dekarbonisierung auf 1,5 Grad das Arktiseis (im Sommer) retten kann.
Diese Korrelation eines wichtigen Termins mit Bekanntgabe der Daten dürfte damit genau so signifikant sein, wie die technischen Ableitungen in der Studie. Aber die Ableitung – es geht wohl um Forschungsgelder und entsprechende Anbiederung durch politisch korrekte Daten – hat mit höherer Wahrscheinlichkeit mehr Wahrheitsgehalt.

Eine Studie ohne Angabe des Vertrauensbereiches geht nicht – ob der Inhalt stimmt, ist eher nebensächlich

In einer Studie ist es äußerst wichtig, dass eine Fehlerband-Angabe vorhanden ist. In diesem Fall ist es die Toleranz der Korrelation von 3 m2 +-0,3 m2 pro Tonne CO2-Emission. Ob die Aussage: Es sei anthropogener CO2-Einfluss, der sich linear in die Zukunft weiterführen lässt, überhaupt stimmt, ist allerdings vollkommen unwichtig.
Bevor die Studie abschließend rezensiert wird, der wichtige Blick zu den Polen, vor allem natürlich zum Arktiseis.

Wie steht es um das Meereis der Polkappen?

Global gesehen hat sich wenig verändert (Bild 1, oberste Linie „Globl sea ice area“). In Summe ist die Eisbedeckung seit dem Beginn der Satellitenmessungen im Jahr 1979 fast gleich geblieben. Demnach wäre es keiner besonderen Erwähnung wert, wenn nicht eine Unsymmetrie bestände und das Arktiseis weniger wird, während das der Antarktiseis aktuell horizontal verläuft und das Inlandeis langfristig zu nimmt (Bild 12).

Bild 1 zeigt die Eis-Ausdehnungsverläufe global (Arktis und Antarktis), Arktis, Antarktis in Monatsauflösung. Im Bild 2 sind die Verläufe von Arktis und Antarktis im gleichen Maßstab übereinander kopiert.

Bild 1 Globaler-, arktischer- und antarktischer- Meereisverlauf seit den Messungen durch Satelliten. Quelle: hidethedecline

Erkennbar ist, dass das Arktiseis abgenommen hat, während das Antarktiseis eine horizontale Linie bildet (Bild 2). Zudem zeigt sich, dass das Arktiseis seit ca. 10 Jahren nicht mehr abnimmt, was wegen des kurzen Zeitraums natürlich nicht signifikant ist.

Bild 2 Arktischer- und antarktischer- Meereisverlauf von Bild 1 (1979 – Okt. 2016), vom Autor übereinander kopiert. Der Y-Maßstab ist gleich, der Nullpunkt Antarktis ist verschoben

Die Abnahme des Arktis-Sommerminimums erfolgt nicht „linear“ (wie in der Studie [1] angegeben) sondern in Stufen, welche aus einem Zyklus resultieren (Bild 3 und 3.1).

Bild 3 Arktischer Meereisverlauf des sommerlichen Minimalwertes (1979 – Okt. 2016), vom Autor ergänzt. Quelle: meteo.plus

 

 

Bild 3.1 Arktischer Meereisverlauf des sommerlichen Minimalwertes, Regressions-Abschnitte (1979 – 2014). Quelle: Climategrog: on identifying inter-decadal variation in NH sea ice

Wie verlief die historische Eisausdehnung der Arktis

Einen interessanten und wohl wenig bekannten Aspekt bietet die Betrachtung des längerfristigen Verlaufs der arktischen Meereisbedeckung (Bild 4 und Bild 11) und ergänzend die der damaligen Temperaturen (Folgebildreihe). Auf einmal ergibt der Verlauf einen Zusammenhang und wird in Verbindung mit den Temperaturproxis begreiflich. Allerdings widerspricht die Aussage allen AGW-Klimaalarm-Informationen.

Bild 4 [3] Arktische Meereisbedeckung 1600 -2000 (Bildausschnitt, vom Autor um die gestrichelten Begrenzungslinien ergänzt). Linke Achse: Nordischer Multiproxi Mio km2.
Originaltext: Abbildung 2: Das Schmelzen des Meereises in den letzten Jahrhunderten wurde durch einen langfristigen Anstieg der Temperatur, der Sonnenaktivität und des Meeresspiegels begleitet. Der CO2-Gehalt der Atmosphäre erhöhte sich erst ab dem späten 19. Jahrhundert (aus: Die kalte Sonne, S. 64, hier auch die Literaturquellen der Kurven. Meereisbedeckung nach Polyak et al. 2010).

Die historische Eisbedeckung passt zum Temperaturverlauf

Das folgende Bild 5 zeigt eine Rekonstruktion der Grönlandtemperatur. Dazu das aktuelle Temperaturniveau („present temp“, grün eingekreist).Die aktuell gemeldeten „Wahnsinnstemperaturen“ in der Arktis verlieren dabei vollkommen ihren AGW-Schrecken, was nicht davon abhält, dass er verkündet wird:
Klimaretter.Info: Warnung vor 19 Kipppunkten in der Arktis, welche sich auf die Studie [13] Arctic Resilience Report 2016
bezieht. In dieser „Studie“ mit 240 Seiten Umfang findet sich keinerlei Darlegung zum historischen Temperaturkontext. Es reicht den Verfassern, dass es „allgemeines Wissen“ ist:
[13] Arctic Resilience Report 2016: The fact that the Arctic is changing fast is well known: The extent of sea ice, the condition of the Greenland ice sheet, the unusually warm temperatures are all widely reported – as are the new shipping routes opening up, and the oil exploration effrts. Less prominent, but also reported, are the stories of Indigenous Peoples whose livelihoods are disappearing, or whose villages are becoming uninhabitable.
Auch das „Wahrheitsministerium“ dpa meint, die Erde hätte erst um 1889 mit einem Klima begonnen.
dpa, 25. November 2016: Forscher registrieren Hitzewelle am Nordpol
Der Klimawandel wird auf der norwegischen Inselgruppe Spitzbergen immer stärker spürbar. «2016 wird dort das wärmste Jahr seit Beginn der Messungen 1889»

Geht man jedenfalls etwas weiter in der Historie zurück, zeigen sich die aktuellen Temperaturen als vollkommen normal. Doch welches Medium will das „erfahren“.

Bild 5 [11] (Bildausschnitt) Figure 1. (top) Reconstructed Greenland snow surface temperatures for the past 4000 years and air temperature over the past 170 years (1840–2010) from three records. The thick blue line and blue band represents the reconstructed Greenland temperature and 1 s error, respectively (this study). Hinweis: Rote, gestrichelte Begrenzungslinien vom Autor ergänzt
Bild 5 [11] (Bildausschnitt) Figure 1. (top) Reconstructed Greenland snow surface temperatures for the past 4000 years and air temperature over the past 170 years (1840–2010) from three records. The thick blue line and blue band represents the reconstructed Greenland temperature and 1 s error, respectively (this study). Hinweis: Rote, gestrichelte Begrenzungslinien vom Autor ergänzt

Bild 5.1 Rekonstruktion der Sommertemperatur Arctis. Quelle: NOAA, Shi, F., B. Yang, F.C. Ljungqvist, and F. Yang. 2012. Multi-proxy reconstruction of Arctic summer temperatures over the past 1400 years. Climate Research, Vol. 54 (2), pp. 113-128. Grafik vom Autor aus dem Datensatz erzeugt und mit Linien ergänzt

Bild 5.1 Rekonstruktion der Sommertemperatur Arctis. Quelle: NOAA, Shi, F., B. Yang, F.C. Ljungqvist, and F. Yang. 2012. Multi-proxy reconstruction of Arctic summer temperatures over the past 1400 years. Climate Research, Vol. 54 (2), pp. 113-128. Grafik vom Autor aus dem Datensatz erzeugt und mit Linien ergänzt

Auch die Europatemperaturen (Sommerwerte) ab Bild 6 zeigen es deutlich: Der ominöse Klimawandel begann niemals erst mit der Industrialisierung, bzw. genau dem Jahr 1880, sondern spätestens bereits um 1600 (Bild 6), wie es vom Autor schon mehrmals anhand von Studienanalysen gezeigt wurde:
EIKE: Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende. Eine Literatursichtung von 1990 bis ganz aktuell, und
EIKE: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

Bild 6 [9] Rekonstruierter Verlauf der sommerlichen Maximaltemperaturen Europa.
Original-Bildtext: Figure 3. Simulated and reconstructed European summer land temperature anomalies (with respect to 15001850 CE)for the last1200 yr, smoothed with a 31 yr moving average filter. BHM(CPS) reconstructed temperatures are shown in blue (red)over the spread of model runs. Simulations are distinguished by solar forcing: stronger (SUN WIDE , purple; TSI change from the LMM to present > 0.23%) and weaker (SUN NARROW, green; TSI change from the LMM to present <0.1%). The ensemble mean (heavy line)and the two bands accounting for 50% and 80% (shading)of the spread are shown for the model ensemble (see SOM for further details).

Bild 7 [9] Verlauf der Kältemaximas von 800 – 2000 als 51-Jahre Mittelwert des dargestellten Gebietes. Um 1600 war es am kältesten.
Bild 8 [9] Verlauf der Wärmemaximas von 800 – 2000 als 51-Jahre Mittelwert des dargestellten Gebietes. Deutlich erkennbar die mittelalterlichen Warmzeiten.
Auch für die Antarktis wurde ein ähnlicher Verlauf ermittelt. Dort wurde es im Gegensatz zur Nordhalbkugel allerdings bisher nicht mehr wärmer.

Bild 8.1 Figure S2 Proxy temperaturereconstructions for the seven regions of the PAGES 2k Network, Y-Achse: °C.

Quelle: PAGES 2k Consortium: Supplementary Information Continental-scale temperature variability during the last two millennia (vom Autor ergänzt und nachbearbeitet)

Warum so viele Rekonstruktionen diese Daten nicht zeigen, liegt (unter anderem) daran, dass die Temperaturvariabilität nicht richtig abgebildet wurde:
kaltesonne: Universität Gießen findet eklatante Unterschiede zwischen realer und simulierter Temperaturentwicklung während der letzten 2000 Jahre in Europa: Klimamodelle müssen auf den Prüfstand

Our reconstructions compare well with independent instrumental and proxy-based temperature estimates, but suggest a larger amplitude in summer temperature variability than previously reported. Both CPS and BHM reconstructions indicate that the mean 20th century European summer temperature was not significantly different from some earlier centuries, including the 1st, 2nd, 8th and 10th centuries CE. The 1st century (in BHM also the 10th century) may even have been slightly warmer than the 20th century

Anm.: Das ursprüngliche Bild 9 ist entfallen.

Zurück zur arktischen Eisbedeckung

Auch kurzfristiger betrachtet sind die Kenntnisse über den Eis-Ausdehnungsverlauf nicht so eindeutig, wie es oft suggeriert wird. In einer Studie zur Rekonstruktion des Sommereises [6] wird festgestellt, dass die größten Reduktionen vor 1920 stattgefunden haben (Bild 10) und der aktuelle Minimalstand keinesfalls so „unnatürlich“ ist, wie man offiziell berichtet.

Bild 10 [6] Abb. 8: 10jähriger gleitender Median des Sommermittels mit deutlichen Maxima um 1790, 1840, 1895 und 1950. Beeindruckend ist das Maximum zwischen 1893 und 1900 und der rasche Rückgang danach. Die Spitze des Medians in der Datenlücke hat ihre Ursache in dieser, ist also nicht wirklich vorhanden. In der Datenlücke 1803-1819 wurden konstante Werte in dieser Darstellung angenommen, da dies die Medianausreißer um 1802 verhindert

Es lohnt sich, die Aussagen in dieser Studie genauer zu lesen, denn sie widerspricht den „Erkenntnissen“ der „Korrelations-Trendanalysten“, wie Herrn Dr. Notz.

Studie (Auszüge, Hervorhebungen durch den Autor): [6] Veränderungen der Eisverhältnisse an der Südspitze Grönlands von 1777 bis 2002

Die jeweiligen Monatszeitreihen und das Sommermittel des KFI geben die Eisverhältnisse an der Südspitze Grönlands über einen 226jährigen Zeitraum hinweg an, nämlich von 1777 bis 2002.
Betrachtet man den Trend genauer, stellt man fest, dass ein Großteil der Eismengenreduktion zwischen 1900 und 1930 stattfand – über 50 %.
Dies spricht gegen die Berechnung eines linearen Trends. Die Trendanalyse zeigt allerdings auch, dass es unzureichend ist, bei der Betrachtung der Veränderung der Eisverhältnisse nur einen sehr kurzen Zeitraum zu verwenden, da die langfristigen Schwankungen die kurzfristigen doch erheblich überlagern. Betrachtete man den Zeitraum, in dem gemessene Klimadaten zur Verfügung stehen, so ergibt sich – durch die Maximal-Periode um 1900 – eine drastische Verringerung der Eismengen. Das Hinzunehmen des Zeitraumes davor zeigt, dass es sich bei dem Zeitraum 1865-1900 um ein Maximum handelte, das als Startpunkt einer linearen Trendanalyse ungeeignet ist. Es zeigt sich aber auch, dass alle Zeitreihen auf ein Minimum hinsteuern, offenbar sogar noch geringer werdend im jüngsten Zeitraum. Es wäre überzogen, aus dieser Untersuchung den anthropogenen Treibhauseffekt als Ursache zu identifizieren, doch liegt diese Vermutung nahe.
Die stärkste Eismengenreduzierung findet deutlich vor 1920 statt, je nach Zeitreihe sogar noch früher. Die Reduktion der Eismenge setzt sich auch nach 1920 fort, jedoch weniger stark, liegt dafür aber deutlich unter dem Niveau des 19. Jahrhunderts. Da sich dieses Muster des Eismengenverlusts in allen Zeitreihen wiederfindet, ist davon auszugehen, dass es sich um ein generelles Klimaphänomen der Nordhemisphäre handelt. Zwar sind die rekonstruierten Meereiszeitreihen sicherlich mehr oder weniger großen Fehlern unterworfen, sie geben aber einen generellen Überblick über die Stärke der Vereisung im Bereich des Ostgrönlandstromes. Somit stellt die KFI-Zeitreihe eine weitere Möglichkeit zum Vergleich von Klimadaten dar, die als Qualitätsstütze für andere Zeitreihen dienen können, sofern sie mit dieser in Relation stehen. Ob die starke Reduktion der Eisverhältnisse im 20. Jahrhundert ein kurzer Trend ist oder sich für die Zukunft eine weitere Reduktion erwarten lässt, lässt sich hier genau so wenig beantworten wie die Frage, ob der Mensch für diese Veränderung verantwortlich zeichnet. Letztlich handelt es sich bei dem Eistransport um einen Ausdruck des Klimageschehens, der atmosphärischen und ozeanischen Zirkulation. Wie sich dadurch die Eisverhältnisse an der Südspitze Grönlands weiter entwickeln werden, lässt sich nicht eindeutig prognostizieren. Die generelle Ähnlichkeit der Trends in den Zeitreihen belegt unzweifelhaft, dass die Eismenge über einen langen Zeitraum hinweg tatsächlich weniger geworden ist, insbesondere in der zweiten Hälfte des 20. Jahrhunderts gegenüber den belegbaren Zeiträumen zuvor. Es ist allerdings auch deutlich zu erkennen, dass um die Jahrhundertwende zum 20. Jahrhundert ein Maximum vorlag. Bisherige lange Eiszeitreihen beginnen überwiegend in oder nach ihm. Sie können diese Maximumstruktur daher nicht erkennen und registrieren stattdessen nur eine mehr oder weniger kontinuierlich rückläufige Tendenz. Die vorliegende Studie zeigt, dass die größte Eismengenreduktion der Arktis im 20. Jahrhundert bereits in dessen erstem Drittel stattfand.

Bild 11 [7] Historischer Verlauf der Eisbedeckung aus verschiedenen Rekonstruktionen. Die Begrenzungslinien der obersten Proxireihe (rot gestrichelt und violett) sind vom Autor ergänzt. Wie im Bild 4 zeigt sich auch hier die bereits im Mittelalter beginnende Abnahme der Eisbedeckung

Herr Dr. Notz sieht dagegen einen vollkommen anderen Verlauf als „richtungsweisender“ an (Bild 12). Allerdings entstammt dieser Verlauf nicht der Wirklichkeit, sondern seinen Simulationen, eine in der „Klimawissenschaft“ inzwischen gebräuchliche Methode, fehlende Daten durch „Wunschwerte“ zu ersetzen, auch wenn diese offensichtlich falsch, zumindest nicht verifizierbar sind.

Bild 12 [8] Abb. 5.2-1: Simulation der Ausdehnung des Meereises im September für den Zeitraum 800 bis 2100. Für die Vergangenheit wurde das entsprechende Modell mit Messdaten der äußeren Antriebe betrieben, für die Zukunft wurde angenommen, dass sich die Treibhausgasemissionen nur wenig verringern werden (vgl. Jungclaus et al. 2010).

Im Artikel: “Oktoberrückschau die 2.: Klimawandel, wohin bist du verschwunden“, wurde (eigentlich mehr zufällig) ein Satz zur Schneebedeckung der Nordhemisphäre ergänzt. Anbei nun eine Grafik, wie es damit seit dem Jahr 1970 aussieht (Bild 13). Der Verlauf wird viele Leser verblüffen, vor allem jedoch die Grünen und Umweltverbände, welche dem Wintersport jegliche Zukunft absprechen.

meteo.plus: Die Schneefläche in der Nordhemisphäre ändert sich infolge der Jahreszeiten gravierend. Während sie im Sommer nahezu verschwinden kann, nimmt sie im Winter in weiten Teilen Nordamerikas, Grönlands, Europas und Asiens auf mehr als 45 Millionen Quadratkilometer zu. Infolge der Klimaerwärmung hat sich in den letzten Jahrzehnten jedoch kaum etwas an der Ausdehnung der Schneefläche geändert. Die Trends deuten seit den 1990er Jahren eher wieder auf eine Zunahme der Schneebedeckung hin.

Bild 13 Jährliche Schneebedeckung der Nordhemisphäre Quelle: meteo.plus (Datenquelle: Rutgers University Global Snow Lab (NOAA)

Bild 14 Früher Wintereinbruch im Allgäu (13.11.2016). Quelle: BR-Homepage

Neue Zürcher Zeitung, 24.11.2016: Wintereinbruch in Japan, Erster November-Schnee in Tokio seit Jahrzehnten

In Tokio hat es am Donnerstag zum ersten Mal seit 54 Jahren in einem November geschneit.

Die (Un-)Genauigkeiten bisheriger Arktiseis-Vorhersagen

kaltesonne: [10] Warum ist die arktische Eisbedeckung immer noch nicht verschwunden – trotz der zahlreichen Ankündigungen? Von Dr. Dietrich E. Koelle
Die  Ankündigungen, dass die arktische Eisfläche bald ganz verschwunden sein wird, gehört zu den beliebtesten Übungen von publizitätsbewussten Klimatologen als auch von amerikanischen Politikern. Demnach dürfte es heute kein arktisches Eis mehr geben:
(1) M. Murphy, New Scientist, 1960: “Der arktische Ozean wird über das ganze Jahr offen sein noch vor dem Ende des 20.Jahrhunderts” (d.h. dem Jahr 2000),
(2) “Arktis-Spezialist Bernt Balchen 1972:  “Der Erwärmungstrend kann einen eisfreien arktischen Ozean  bis zum Jahr 2000 erzeugen”.
(3) Jay Zwally (NASA) sagte im Dez.2007 : “Der arktische Ozean könnte im Sommer 2012 fast eisfrei sein” (Natl.Geographic)
(4) Louis Fortier (Arctic Net, Kanada) 2007: “Die Arktis könnte im Sommer eisfrei sein bis 2010 oder 2015”
(5) David Barber (Univ.of Manitoba), 2008: “Der Nordpol könnte dieses Jahr erstmals eisfrei sein” : Juni 2008 (2) (3)
(6) Prof. W. Maslowski (US Naval Postgraduate School), 2008: “Im Sommer 2013 haben wir eine eisfreie Arktis”.
(7) M. Serreze, NSIDC (National Snow and Ice Data Centre, Colorado, USA) in 2008: “die Arktis könnte 2012 eisfrei sein”
(8) Al Gore, ehem.US-Vizepräsident bei der Klimakonferenz 2009 in Kopenhagen: “Arktis ist eisfrei in 5 Jahren” = 2014.
(9) US-Senator John Kerry 2009: “Die Arktis wird im Sommer  2013 eisfrei sein”
(10) Prof. P. Wadhams (Cambridge University), 2007: das arktische Eis ist in einer Todesspirale”, und 2011: “das Eis kann in vier Jahren alles verschwunden sein”, d.h. 2015.
Zufügung des Autors: Radio Bremen, 21. April 2016: Wissenschaftler erwarten dünneres Eis in der Arktis
Der vergangene Winter war relativ warm – auch am Nordpol. Forscher des Alfred-Wegener-Institutes (AWI) in Bremerhaven rechnen damit, dass das Meereis im Arktischen Ozean im Sommer so dünn sein könnte wie im Negativrekordjahr 2012. Die Wissenschaftler beobachten schon seit einiger Zeit, dass die Arktis sich zunehmend erwärmt.

Der historische Temperaturverlauf der Arktis ist durch Zyklen und nicht durch CO2 geprägt

Zur Aussage des AWI: „ … beobachten schon seit einiger Zeit, dass die Arktis sich zunehmend erwärmt“ lässt sich mit dem folgenden Bild 15, welches den stark zyklisch geprägten Temperaturverlauf der Arktis zeigt schön darstellen, was eine solche, angeblich „wissenschaftliche“ Aussage wirklich wert ist und welche Tendenzinformation dahinter steckt. Auf keinen Fall ist sie seriös und für Entscheidungen zu Klimamaßnahmen auch nicht hilfreich.

Bild 15 [10] Temperatur-Entwicklung in der Arktis, 1860-2000
Original-Bildtext: [10] BILD 3 (Anm.: Hier Bild 10) zeigt die Temperaturentwicklung von 1860 bis 2000 die sowohl global wie auch in der Arktis durch einen deutlich erkennbaren 60-Jahresszyklus  mit Temperatur-Schwankungen zwischen 0,2 und 1,2°C gekennzeichnet ist. Der russische Autor Frolov zeigt in Bild 4 einen ähnlichen Verlauf für die Barentsee (70-90° N) und wagt eine Extrapolation für die kommenden 50 Jahre. Demnach ist ein Temperaturabfall um ca. 1,5°C zu erwarten. Auch in einem ein neuen GEOMAR-Papier von 2014 mit den Ergebnissen eines neuen Klimamodells, das den NAO-Einfluss einbezieht, ist das Ergebnis eine kommende Temperatur-Abkühlung im Nordatlantik-Bereich.

Damit ist ziemlich sicher – das Arktiseis schmilzt nicht linear und eine seriöse Vorschau ist damit nicht möglich. Die Studie dient nur zur Darstellung der „Political Correctness“

Erinnerung: Herr Dr. Notz und seine Co-Autorin verkünden als Kernbotschaft: [1] we here use a robust linear relationship between monthly-mean September sea-ice area and cumulative CO2 emissions to infer the future evolution of Arctic summer sea ice directly from the observational record. The observed linear relationship implies a sustained loss of 3 ± 0.3 m2 of September sea-ice area per metric ton of CO2 emission. Based on this sensitivity, Arctic sea-ice will be lost throughout September for an additional 1000 Gt of CO2 emissions.

Diese Aussage und die Herleitung mittels einer einfachen Korrelationsbetrachtung, dazu über einen relativ kurzen (und problematischen) Zeitraum ist höchst unwissenschaftlich, wenn nicht unseriös. Man kann mit recht guter Sicherheit annehmen, dass diese Aussage falsch ist; und zwar sowohl was den linearen Trend betrifft, als auch den gemeldeten, linearen CO2-Einfluss. Den Studienautoren dürfte das bestimmt bewusst sein – was sie aber nicht an einer Publizierung hinderte, um Daten präsentieren zu können, welche den politischen Vorgaben entsprechen.

Die “Studie” hat damit jedoch nicht mehr “Wahrheitsgehalt”, als die ebenfalls aufgrund der Korrelation inclusive genauer Fehlerberechnung tätigbare Aussage von Bild 16.

 

Bild 16 Zeitreihen der Höhe der US Postgebühren von 1900 – 2000 (blau), der globalen Mitteltemperatur (orange) und der CP2 Konzentration (weiß). Wie deutlich erkennbar ist, folgt die Kurve der US Postgebühren der Entwicklung der globalen Mitteltemperatur wesentlich besser als die CO2 Kurve. Die Korrelation ist deutlich enger. Quelle: EIKE: Levermanns Märchenstunde – PIK Forscher verkauft Spekulationen als wissenschaftliche Wahrheiten

In der Klimawandel- “Wissenschaft” macht so etwas aber nichts aus. Da darf das “wissenschaftliche” Niveau ruhig beliebig weit unter dem von “Jugend Forscht” liegen – sofern das Ergebnis AGW-Klimawandel-bejahend ausfällt. Die vorbehaltlose Zustimmung der (Des-)Informationsseite von C. Kemfert (und der “üblichen” Medien) ist dann jedenfalls schon gesichert.

Mehr war aber auch wohl nicht gewollt, als sich der betont klimalarmistisch gebende Deutsche “Wissenschaftler” und die Greenpeace nahe stehende CO-Autorin für eine Studie zur Ermittlung des gewünschten Klimazusammenhanges fanden. Bezahlen muss es sowieso der Steuerzahler. Dass das Max Plank-Institut sich seinen Ruf ruinieren lässt, scheint es nicht zu stören – schließlich geht es ja um ein gutes Klima-Werk.

Wie seriösere Forscher das Thema darstellen, lässt sich auch nachlesen:

PolarNEWS, Oktober 25, 2016: Wie ist ein „eisfreier“ arktischen Sommer definiert? Wissenschaftler sprechen in der Regel von einer „eisfreien Arktis“, wenn weniger als 1 Millionen Quadratkilometern von Eis bedeckt sind. Das bedeutet, dass der Arktische Ozean praktisch eisfrei ist, während einige Gebiete im nördlichen Kanada und Grönland weiterhin eisbedeckt sind. … „Wenn es um die Vorhersage des Zeitpunktes einer eisfreien Arktis geht, zeigen verschiedene Klimamodelle eine große Bandbreite von über 100 Jahren. … Insgesamt zeigen unsere Ergebnisse, dass man vorsichtig sein muss, wenn man die langfristigen Meereisvorhersagen von Klimamodellen eingrenzen will“.

So schlimm war die Arktiserwärmung noch nie, die Folgen sind nicht absehbar – schrieb man im Jahr 1922

Zum Ende hin eine kleine Zugabe zum Arktisklima und wie sich Apokalypsen wiederholen.
Quelle: Alles Schall und Rauch:
Bericht von einer Expedition nach Spitzbergen unter der Führung von Dr. Adolf Hoel im Auftrag des norwegischen Wirtschaftsministeriums, verfasst im Jahr 1922: Die Veränderung der Arktis
Die Arktis scheint sich zu erwärmen. Berichte von Fischern, Robbenjägern und Forschern welche das Meer um Spitzbergen und den östlichen Teil der Arktis befahren, zeigen alle auf eine radikale Änderung der klimatischen Bedingungen und bis dato gänzlich unbekannten hohen Temperaturen in diesem Teil der Welt.
Die Meeresbeobachtungen sind aber noch interessanter. Die Eisbedingungen waren aussergewöhnlich. Tatsache ist, so wenig Eis hat man noch nie vorher notiert. Die Expedition hat praktisch einen neuen Rekord aufgestellt, in dem sie so weit nördlich segelten bis 81° 29’ in eisfreien Wasser. Das ist der nördlichste Punkt der jemals mit moderner ozeanografischen Geräten erreichte wurde.
Die Eigenschaft des Wassers im grossen Polarbecken war bisher unbekannt. Dr. Hoel berichtet, dass er einen Querschnitt des Golfstrom auf 81° nördlicher Breite gemacht und Tiefen von 3’100 Meter gemässen hätte. Diese zeigen den Golfstrom als sehr warm und er kann als Oberflächenstrom nach dem 81° Parallel verfolgt werden. Die Wärme des Wassers macht es wahrscheinlich, dass günstige Eisbedingungen für einige Zeit weitergehen.
Viele Landschaften haben sich so verändert, sie sind nicht mehr erkennbar. Wo vorher grosse Eismassen sich befanden, sind jetzt oft Moränen, Ansammlungen von Erde und Steinen. An vielen Orten wo früher Gletscher weit ins Meer ragten, sind sie komplett verschwunden.
Die Temperaturveränderung, sagt Kapitän Ingebrigtsen, hat auch die Flora und Fauna in der Arktis verändert. Diesen Sommer suchte er nach Weissfisch in den Gewässern um Spitzbergen. Früher gab es grosse Schwärme davon. Dieses Jahr sah er keine, obwohl er alle seine alten Fischgründe absuchte.
Es gab wenige Robben in den Gewässern um Spitzbergen dieses Jahr und der Fang war weit unter dem Durchschnitt. Das hat aber den Kapitän nicht überrascht. Er wies daraufhin, das Wasser um Spitzbergen hatte sonst eine gleichbleibende Temperatur im Sommer von 3°C. Dieses Jahr wurden Temperaturen von bis zu 15°C gemässen und letzten Winter ist das Meer nicht mal an der Nordküste von Spitzbergen zugefroren.“

Im Jahr 1975 folgte die große Kälte

Alles Schall und Rauch: Am 28. April 1975 erschien ein Artikel im Nachrichtenmagazin <Newsweek>, in dem Wissenschaftler in dramatischen Worten vor einer drohenden Eiszeit warnten. Die globalen Temperaturen wären stark gefallen und die Fläche der Polkappen würden zunehmen. Sie schlugen der amerikanischen Regierung vor, die ganze Eisfläche des Nordpols mit schwarzem Ruß zu bedecken, damit die Sonne diese schmilzt, um eine gefährliche Klimaabkühlung zu verhindern.

Das Eis der Antarktis

Auf der Südpolseite, der Antarktis, lässt sich kein Klimawandel feststellen. Das ist bekannt und führt dazu, dass zur „Erzeugung“ eines Klimawandel-Effektes vehement das Abrutschen von Festlandsgletschern ins Meer simuliert wird, worin das PIK wohl eine Vorreiterrolle innehat. Selbstverständlich finden sich für jede Argumentation viele belegende Studien.
Auf kaltesonne kam zur Antarktis einmal eine recht umfassende Darstellung:
kaltesonne, 17. Juni 2015: Klimamodellierer haben ein riesiges Problem: Modelle können Zunahme des antarktischen Meereises nicht reproduzieren
Die offiziellen Satellitendaten lassen keinen Raum für Spekulationen. Das antarktische Meereis wächst und wächst, und das seit 35 Jahren.

Eine weitere findet sich auf Ruhrkultour: NASA-Studie: Der antarktische Eisschild wächst
Ein neue Analyse von Satellitendaten der NASA, die am 30. Oktober 2015 veröffentlicht und am 18. August 2016 aktualisiert wurde, kommt zu dem Ergebnis, dass der antarktische Eisschild von 1992 bis 2001 einen Nettogewinn von 112 Milliarden Tonnen Eis pro Jahr aufweist. Der Nettogewinn des Eises hat sich zwischen 2003 und 2008 auf 82 Milliarden Tonnen Eis pro Jahr allerdings verlangsamt.
Die Antarktis enthält 90 Prozent des Eises der Erde. Wenn der antarktische Eisschild wächst, würde das nicht bedeuten, dass mehr als 90 Prozent der Gletscher der Welt wachsen?
Eine kleine Verdickung des Eises in der Ost-Antarktis und im Inneren der Westantarktis um durchschnittlich 0,7 Zoll (1,7 Zentimeter) pro Jahr wirkt sich nachhaltig über Tausende von Jahren aus. Sie entspreche einem sehr großen Gewinn von Eis – genug, um die Verluste aus schnell fließenden Gletschern in anderen Teilen des Kontinents zu überwiegen und den globalen Anstieg des Meeresspiegels zu reduzieren, sagen die NASA-Forscher.

Quellen

[1] Dirk Notz, Julienne Stroeve: served Arctic sea-ice loss directly follows anthropogenic CO2 emission

[2] Max Plank Gesellschaft, November 04, 2016, MPI-Met/PH: My contribution to Arctic sea ice melt
https://www.mpg.de/10817029/my-contribution-to-arctic-sea-ice-melt

[3] kaltesonne 12. Mai 2012: Hamburger Max-Planck-Institut mit fragwürdiger Beweisführung zum arktischen Meereis
http://www.kaltesonne.de/hamburger-max-planck-institut-mit-fragwurdiger-beweisfuhrung-zum-arktischen-meereis/

[4] NCAR December 8, 2015: NCAR develops method to predict sea ice changes years in advance Amid long-term retreat, winter sea ice could hold steady in the next several years
Zitat: “But we are predicting that the rate will taper off for several years in the future before resuming.

[5] Danish Meteorological Institute Scientific Report 05-02, 2005, Knud Lassen and Peter Thejll: Multi-decadal variation of the East Greenland Sea-Ice Extent: AD 1500-2000

[6] Institut für Geographie, Universität Hamburg, 2007, Börge Pflüger: Veränderungen der Eisverhältnisse an der Südspitze Grönlands von 1777 bis 2002

[7] Jochen Halfar at al.: Arctic sea-ice decline archived by multicentury annual-resolution record from crustose coralline algal proxy
GEOMAR: 650 Jahre arktische Eisbedeckung rekonstruiert. Forscher aus Deutschland, den USA und Kanada nutzen Rotalgen als Klimaarchiv
http://www.geomar.de/news/article/650-jahre-arktische-eisbedeckung-rekonstruiert/

[8] Notz, D. (2015): Historische und zukünftige Entwicklung des Arktischen Meereises. In: Lozán, J.L., H.Grassl, D.Kasang, D.Notz & H.Escher­Vetter (Hrsg.). Warnsignal Klima: Das Eis der Erde. pp. 194­198. Online: www.klima­warnsignale. uni­hamburg.de. doi:10.2312/warnsignal.klima.eis­der­erde.29

[9] Luterbacher et al, 29.01.2016: European summer temperatures since Roman times

[10] kaltesonne, 5. Januar 2016: Warum ist die arktische Eisbedeckung immer noch nicht verschwunden – trotz der zahlreichen Ankündigungen?

[11] Takuro Kobashi at al, 10. Nov. 2011: High variability of Greenland surface temperature over the past 4000 years estimated from trapped air in an ice core

[12] B. Christiansen and F. C. Ljungqvist, 18 April 2012: The extra-tropical Northern Hemisphere temperature in the last two millennia: reconstructions of low-frequency variability

[13] Arctic Council (2016). Arctic Resilience Report. M. Carson and G. Peterson (eds). Stockholm Environment Institute and Stockholm Resilience Centre, Stockholm




Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein

FOCUS ONLINE: Menschgemachter Klimawandel Einmalig in der Erdgeschichte: Fällt die nächste Eiszeit aus?
Für die Forscher des Instituts für Klimafolgenforschung in Potsdam ist klar: Der Mensch ist zu einer geologischen Kraft geworden – und diese kann den Beginn der nächsten Eiszeit unterdrücken. Denn trotz geringer Sommer-Sonneneinstrahlung kündigt sich keine neue Eiszeit an. Daher untersuchten die Potsdamer Wissenschaftler die Mechanismen, die die letzten Eiszeitzyklen angetrieben haben.
Das Ergebnis: Die letzten acht Eiszyklen lassen sich durch die Sonneneinstrahlung auf die Erde und die CO2-Konzentration in der Atmosphäre erklären. Die Wissenschaftler kommen zum Schluss, dass die Störung des natürlichen Kohlenstoffhaushalts durch den Menschen die nächste Eiszeit um 100.000 Jahre verschieben könnte – was bedeuten würde, dass wir einen kompletten Eiszeitzyklus überspringen. Die gegenwärtige Warmphase währt ohnehin schon lange.
Den Beginn einer neuen Eiszeit erwarten Forscher in etwa 50.000 Jahren – das allein ist schon eine ungewöhnlich lange Phase zwischen zwei Eiszeiten. Und diese könnte durch zusätzliche CO2-Emissionen aus der Verbrennung von Öl, Kohle und Gas sogar nochmals um 50.000 Jahre verlängert werden.

In der „Eiszeit“-Literatur wird zwar überall festgestellt, dass man die Eiszeitzyklen immer noch nicht ganz versteht. Man glaubt zwar, eine Haupt-Ursache zu kennen (Milanković-Zyklen), doch trotzdem bleibt noch vieles ungeklärt. Vor allem der Zyklen-Zeitsprung vor ca. 900.000 Jahren, der Pegelsprung vor ca. 400.000 Jahren und viele Einzeleffekte, welche immer neu zeigen, dass viele Theorien zwar Teilaspekte erklären können, aber keine das gesamte Eiszeit-Erscheinungsbild abdeckt.
Doch dem PIK gelang plötzlich das „Erkenntniswunder“:
PIK: [4] Menschgemachter Klimawandel unterdrückt die nächste Eiszeit
Mit einem ausgeklügelten Computermodell des Erdsystems, in dem die Dynamik von Atmosphäre, Ozean, Eisschilden und der globale Kohlenstoffzyklus simuliert werden, haben die Wissenschaftler den Effekt menschgemachter CO2-Emissionen auf das Eisvolumen der Nordhalbkugel untersucht. „Weil Kohlendioxid in der Atmosphäre extrem langlebig ist, haben vergangene wie künftige Emissionen großen Einfluss darauf, wann ein neuer Eiszeitzyklus beginnt“, sagt Ko-Autorin Ricarda Winkelmann. „Unsere Analyse zeigt, dass schon geringe zusätzliche Kohlenstoff-Emissionen die Entwicklung der Eisbedeckung auf der Nordhalbkugel wohl auf zehntausende Jahre beeinflussen würde, während künftige CO2-Emissionen von 1.000 oder 1.500 Gigatonnen Kohlenstoff die nächste Eiszeit um mindestens 100.000 Jahre verschieben könnten.“

So löst heutige (AGW-)Klima-Wissenschaft bisher unklärbare Fragen im Handumdrehen: Man nehme ein Simulationsprogramm (von denen keines das Wetter in 14 Tagen vorhersagen kann) und schon sind die Geheimnisse der letzten 2,6 Millionen Jahre gelöst – und das sogar noch rechtzeitig vor einem Klimagipfel. Und den Wissensbürgern wird es auch sofort als eine „Wahrheit“ dargestellt.

wiki Bildungsserver: Eiszeitalter
Die Warmzeiten dauerten zwischen 10 000 und 30 000 Jahre. Dazwischen lagen verschiedene Kaltzeiten wie die Weichsel-, die Saale- oder die Elster-Kaltzeit (Benennungen nach der norddeutschen Nomenklatur). Eine besonders lange Warmzeit von ca. 30 000 Jahren gab es vor etwa 400 000 Jahren. Auch für die jetzige Warmzeit ist unter natürlichen CO2-Bedingungen eine ähnliche Dauer berechnet worden. Bleibt der jetzige Kohlendioxidgehalt der Atmosphäre über viele Tausend Jahre erhalten oder steigt sogar noch weiter an, könnte die nächste Kaltzeit ausfallen und das seit 2,6 Millionen Jahren andauernde Eiszeitalter beendet sein. Die Menschheit hätte dann möglicherweise eine neue Klimaepoche eingeleitet, das „Anthropozän„.

Klimaretter.Info war auch sofort davon begeistert, nur „kaltesonne“ brachte eine Kritik und wies auf eine große Ungereimtheit der Parametrierung hin: CO2 in der Atmosphäre ist nicht so extrem langlebig. Setzt man die Verweilzeit jedoch realistisch ein, „verpufft“ die „Eiszeit-Ausfall-Illusion“.
kaltesonne: „PIK warnt vor Ausfall der nächsten Eiszeit. Mojib Latif cool: “100 Jahre bleibt CO2 in der Luft

Die Eiszeiten ganz kurz gefasst

„Die Eiszeiten“ kennt jeder, die Daten dazu und was diese für die Zukunft bedeuten haben aber wohl wenige parat, deshalb anbei eine kurze Darstellung.

Zitat: Eiszeit – Zyklen dauern etwa 100 bis 125.000 Jahre, dazwischen liegende Interglaziale bzw. Warmzeiten nur etwa 15 bis 20.000 Jahre. Die letzte Eem-Warmzeit dauerte jedoch nur 11.000 Jahre. Der letzte Eiszeit-Zyklus ist vor etwa 11.500 Jahren zu Ende gegangen.
Wann waren Eiszeiten

WISSEN DIGITAL: Eiszeiten
Donau-Kaltzeit vor mehr als 600.000 Jahren – Günz-Kaltzeit um 550.000 – Günz-Mindel-Warmzeit um 500.000 – Mindel-Kaltzeit um 400.000 – Mindel-Riss-Warmzeit um 300.000 v.Chr. – Riss-Kaltzeit um 200.000 – Riss-Würm-Warmzeit um 100.000 – Würm-Kaltzeit um 80.000, mit zwei Erwärmungsperioden um 60.000 und 40.000 v.Chr. Ende der Eiszeit, von Süden nach Norden abklingend, um 15.000-12.000 v.Chr. Nach stärkerem Wärmevorstoß (Alleröd-Schwankung um 10.000 v.Chr.) erfolgte der Durchbruch zu gemäßigtem Klima um 8.000 v.Chr. (Boreal), doch wurde eine vorübergehende Warmperiode (Atlantikum) noch um 6.000 v.Chr. verzeichnet.

Das hört sich einfach an. Doch die Eiszeiten traten regional unterschiedlich und mit Zeitversatz auf. Selbst wenn sie zur gleichen Zeit waren, haben sie dann unterschiedliche Namen, die teilweise auch noch „veralten“ und durch neue ersetzt wurden. So hat Norddeutschland zum Beispiel drei „Kern-Eiszeiten“, während Süddeutschland (mit den Alpen) in der gleichen Zeit deren vier ausweist. Dazu kommen noch die „Kleinen“ von „Zwischendurch“. Will man eine Zeitzuordnung vornehmen, stellt man fest, dass diese zwischen den Publikationen ebenfalls deutlich voneinander abweichen.
Fazit: Will man sich mit solchen Datendifferenzen eine Zeittabelle (zum Rechnen) zusammenstellen, kann man verzweifeln.
Ein Auszug der letzten Großen Eiszeiten alleine für Deutschland sieht wie folgt aus:

Bild 1 [2] Die jüngeren Eiszeiten in Deutschland (Bildausschnitt), ©Institut für Länderkunde 2002Um es anschaulicher zu machen, hat der Autor im folgenden Bild des Temperaturverlaufs der letzten 450.000 Jahre die vier großen Eiszeiten der Alpen eingetragen. Dabei musste er feststellen, dass in der Literatur zwischen den Datierungsangaben Zeitdifferenzen von 50.000 – 100.000 Jahren „normal“ sind, die Zeiten selbst teils aber fast auf das Jahrtausend genau angegeben werden, Beispiele:

Lexikon der Geowissenschaften: Holstein Interglazial: … Entsprechend unsicher ist die Datierung. Es kommt bei einer Dauer von ca. 15.000 Jahre eine Zeitspanne von 180.000 bis 400.000 Jahre in Frage. In diesem Zeitraum hat es mehrere Interglaziale gegeben, so daß auch vom Holstein-Komplex gesprochen wird.
Universität Tübingen Geographisches Institut, M. Mattes: Das Holstein-Interglazial
Der Beginn des Holstein-Interglazials wird auf etwa 425.000 v. h. (= vor heute) datiert mit dem Höhepunkt um ca. 406.000 vor heute… weist das Holstein-Interglazial eine Dauer von rund 25.000 bis 30.000 Jahren auf …

Man beachte: Alleine zwischen diesen zwei Publizierungen ergibt sich eine Zeitspanne der Dauer des „Holstein-Interglazials“ zwischen 15.000 … 30.000 Jahren, von der Datierung, wann sie begann, gar nicht zu reden. Dabei ist gerade diese Warmzeit die wichtigste.
Der Autor ist sich somit nicht sicher ist, ob seine Zuordnungen stimmen. Da die Benennungen für die folgenden Betrachtungen unwichtig sind, wurde das Datierungsproblem jedoch nicht weiter vertieft.

Bild 2 Temperaturverlauf der letzten 450.000 Jahre. Quelle: climate4you.com – Ole Humlum – Professor, University of Oslo Department of Geosciences. Vom Autor um Angaben zu den letzten vier Eiszeiten der Alpen ergänzt

Bild 2 zeigt nur einen Ausschnitt der viel längeren Eiszeitgeschichte. Deshalb das folgende Bild inclusive der davor liegenden und unerklärlicher Weise nicht so warmen Zwischenzeiten. Was man zudem an diesem Bild bei genauerem Hinsehen zuätzlich sieht ist, dass die Warmzeitlängen deutlich von den verwendeten Rekonstruktionsproxis abhängen (im Bild sind es vier verschiedene).

Bild 3 [3] Eiszeiten der letzten 1 Millionen Jahre. Die rote Linie kennzeichnet die aktuelle Temperatur
Um einen ganz kleinen Eindruck der Zeit-Differenzen aufzuzeigen, hat der Autor aus Bild 2 und 3 Daten tabelliert:

Bild 4 Vom Autor aus den Bildern 2 und 3 entnommene Daten

Wann die aktuelle Warmzeit enden wird, weiß niemand

Daraus ergibt sich für die aktuelle Warmzeit in der wir uns befinden: Bei zyklischer Betrachtung kann der Zenit bereits überschritten sein. Und da die kommende Kaltzeit auch lokal begrenzt beginnen kann, ist ein Start (irgendo auf dem Nordteil des Globus) jederzeit möglich.

Mittelbayerische Zeitung: Warmzeit in der Eiszeit Nächste Kaltzeit in 10.000 bis 20.000 Jahren
… Wann genau die nächste Kaltzeit einsetzen wird, sei „sehr, sehr unsicher“, räumt Klages ein. Zu komplex ist das Gefüge und Zusammenspiel möglicher Ursachen für Kalt- und Warmzeiten …

Allerdings gibt es parallel die Theorie, dass man nach Ähnlichkeiten verfahren muss. Die aktuelle Warmzeit passt danach am besten zu der des Holstein-Interglazials vor über 400.000 Jahren, Beispiel:
Eberhard-Karls-Universität Tübingen Geographisches Institut, M. Mattes:
Das Holstein-Interglazial
Das besondere an der Holstein-Warmzeit ist, das zu dieser Zeit dieselben Orbitalparameter geherrscht haben wie heute. Deshalb ist sie am besten geeignet um Anhaltspunkte über die Dauer und den natürlichen Temperaturverlauf des jetzigen Interglazials zu erhalten (Wilson 2000, S. 156f). Im Gegensatz zur üblichen Dauer der Interglaziale von rund 11.000 Jahren (Wilson 2000, S.156) weist das Holstein-Interglazial eine Dauer von rund 25.000 bis 30.000 Jahren auf (Klotz 2005, S.41). Sollte also das Holozän analog zur Holstein-Warmzeit verlaufen, so würde das Holozän noch für einige Tausend Jahre andauern.
Allerdings ist unklar, ob der menschliche Einfluss auf das Klima nicht doch stark genug ist um eine „Neuausrichtung“ des Klimas, entgegen des „natürlichen“ Verlaufs zu bewirken (Wilson 2000, S. 156ff). Der Beginn des Holstein-Interglazials wird auf etwa 425.000 v. h. (= vor heute) datiert mit dem Höhepunkt um ca. 406.000 vor heute. Charakterisiert wird das Klima der Hostein-Warmzeit durch hohe Temperaturen der Oberfächenwasser, einer stabilen thermohalinen Zirkulation und einem um 20 m höher Meeresspiegel.
… Aus diesem System an Faktoren genaue Wirkungsbeziehungen herauszulesen, welche nicht nur die Klimaänderungen der Vergangenheit erklären, sondern auch zukünftige Klimaentwicklungen zuverlässig prognostizieren können ist sehr schwierig und die Forschung hat hier immer noch viel zu tun.

Daraus leiten diese Forscher ab, dass die aktuelle Warmzeit ebenfalls länger dauert, eventuell sogar ausfallen könnte.
Uni Heidelberg, Foliensatz Max Camenzind 3.2016:
Das Klima der Erde II. Paläoklima & Klimazyklen
Kernaussagen 1: Keine Eiszeit in den nächsten 100.000 Jahren, Auch ohne antropogene Einflüsse war das Klima in vergangenen Warmzeiten bis zu 8° C wärmer (!) und der Meeresspiegel bis zu 5m höher Schwingungen um die Gleichgewichtslage „Warmzeit“ arktisches Eis war geschmolzen! antarktisches nicht.

Andere sehen “nur” eine Verlängerung zwischen 20.000 … 50.000 Jahren, Expertenzitat: Dann könnte es so sein, weil die Situation heute ähnlich ist, dass wir auch eine lange Warmzeit haben.

Wie beim Klima üblich, nicht alle Experten sind der gleichen Meinung. Andere sagen, es könnte unter Bedingungen auch ganz anders kommen:
Nature Geoscience Tzedakis et al. 09 January 2012: Determining the natural length of the current interglacial
Assuming that ice growth mainly responds to insolation and CO2 forcing, this analogy suggests that the end of the current interglacial would occur within the next 1500 years, if atmospheric CO2 concentrations did not exceed 240±5 ppmv.
Man beachte den in der Klimawissenschaft nie fehlenden Vertrauensbereich. Zwar hat man den Eiszeitmechanismus noch nicht entschlüsselt (weshalb man mehrere in Kombinationen annimmt), die Simulation kann aber trotzdem auf +-5ppmv genau die Auswirkung berechnen. Ein Beleg für die Leistungsfähigkeit moderner Computer und deren Programmierer, eine Schande für die Statistiker, die solche Angaben ungeprüft verwenden.

Getroffen werden diese Aussagen trotz großer Streuungen der Datierungen (15.000 … 30.000 Jahre für das Holstein-Interglazial) und einen Zeitbereich der anderen Warmzeiten zwischen 1.500 … 15.400 Jahre. Man kann sich aber schon einmal merken: Wenn die Hypothese mit der Ähnlichkeitsbetrachtung falsch ist, kann die aktuelle Warmzeit anhand der Zyklik auch schon zu Ende sein.

Das PIK hat nun mit dem CO2-Forcing die Lösungsformel gefunden

Wiederholung:
PIK: [4] Menschgemachter Klimawandel unterdrückt die nächste Eiszeit
Mit einem ausgeklügelten Computermodell des Erdsystems, in dem die Dynamik von Atmosphäre, Ozean, Eisschilden und der globale Kohlenstoffzyklus simuliert werden, haben die Wissenschaftler den Effekt menschgemachter CO2-Emissionen auf das Eisvolumen der Nordhalbkugel untersucht. „Weil Kohlendioxid in der Atmosphäre extrem langlebig ist, haben vergangene wie künftige Emissionen großen Einfluss darauf, wann ein neuer Eiszeitzyklus beginnt“, sagt Ko-Autorin Ricarda Winkelmann. „Unsere Analyse zeigt, dass schon geringe zusätzliche Kohlenstoff-Emissionen die Entwicklung der Eisbedeckung auf der Nordhalbkugel wohl auf zehntausende Jahre beeinflussen würde, während künftige CO2-Emissionen von 1.000 oder 1.500 Gigatonnen Kohlenstoff die nächste Eiszeit um mindestens 100.000 Jahre verschieben könnten.“

Dieses Institut stellt damit eine neue, zusätzliche These auf, indem es sich sicher ist, alleine mit dem CO2-(Simulations-) Verhalten eine Warmzeitzukunft berechnen zu können, womit die Dabatte der Warmzeiten gelöst sei.
Weil dies eine überaus positive Nachricht ist (zumindest der Autor würde ungern die Kälte einer Eiszeit durchleben müssen, auch wenn es den Neandertalern mehrmals gelang) sollte man diese Theorie zumindest als Laie nicht anzweifeln, sondern allerhöchstens grob plausibilisieren.

Gibt es in der AGW-Klimawissenschaft auch nur eine Hypothese, in der Einigkeit besteht oder ein eindeutiger Nachweis gelingt? Kaum. Und so ist es auch bei dieser (simulierten) Hypothese. Wie so oft: Würde das Eine stimmen (CO2 ist der Antrieb der Eiszeiten), widerspricht es den “sicheren” Angaben, dass der CO2-Anteil in der Atmosphäre zu vorindustriellen Zeiten noch nie so hoch war wie aktuell:
kaltesonne:
Die tatsächliche Klimawirksamkeit von CO2 liegt deutlich unter 1,0 Grad pro Verdoppelung des atmosphärischen CO2-Gehaltes
Ein natürlicher CO2-Antrieb für den Temperaturverlauf des Paläoklimas hätte also mindestens eine Schwankung des atmosphärischen CO2-Gehaltes zwischen etwa 65 und 460 ppm erfordert, was die gemessenen CO2-Gehalte der Paläoatmosphäre mit etwa 180 bis 300 ppm CO2 aber nicht abbilden; plausiblere Werte für die Klimasensitivität von CO2 unter 4,5 [°C/2xCO2] würden die erforderliche Schwankungsbreite für einen rechnerischen CO2-Klimaantrieb sogar noch deutlich erhöhen.

Damit kann also CO2 eindeutig nicht der natürliche Paläo-Klimaantrieb sein, wie uns die politisierte Klimawissenschaft ständig einzureden versucht.

Wieviel Einfluss könnte der Mensch auf die Eiszeiten haben

Nach dem PIk bestimmt er diese. Allerdings musste dessen Computer(Programm) diese Vorhersagefähigkeit noch nie belegen. Sehen wir an, wie viel der Mensch bisher wirklich am Klima “drehen” konnte. Auf WUWT gibt es dazu eine kleine Animation, anbei Screenshots daraus.

Bild 5.1 Globaltemperatur seit 1400 n. Chr. Animationsbild. Quelle: [5]
Bild 5.2 Globaltemperatur seit 800 n. Chr. Animationsbild. Quelle: [5]
Bild 5.3 Globaltemperatur seit 8000 v. Chr. Animationsbild. Quelle: [5]

Bild 5.4 Verlauf der bisherigen Warmzeit (seit ca. 17.000 Jahren). Quelle: C3 Headlines Climate Conservative Consumer

Bild 5.5 Globaltemperatur seit ca. 45.000 Jahren. Animationsbild. Quelle: [5]
Bild 5.6 Zeitbereich der jüngeren Eiszeiten. Animationsbild. Quelle: [5]
Wenn man sich diese Änderungsverhältnisse ansieht, kommen vielleicht auch manchem Leser Zweifel, ob es den Simulationen (und damit den Menschen) wirklich gelingen wird, die seit mehreren Millionen Jahren eisern ablaufenden Eiszeitzyklen auszuhebeln.

Ein dazu immer wieder vorgetragenes Argument ist die „Einmaligkeit“ der aktuellen Situation:
PIK, Rahmstorf: [6] ... Wir kennen in der Erdgeschichte auch keine so rasche globale Erwärmung wie die, die wir derzeit verursachen. Bei der Erwärmung aus der letzten Eiszeit stieg die globale Temperatur um ca. 5 °C innerhalb von 5.000 Jahren, das sind 0,1 °C pro Jahrhundert. Wir reden jetzt von 2, 3 oder 4 °C im 21. Jahrhundert, je nach Erfolg der Klimapolitik.
Diese Argumentation sollte man jedoch mit den gezeigten Bildern vergleichen und bewerten. Das „Hockey-Stickchen“ geht im Rauschen unter. Aber nicht nur in den bisherigen Bildern, sondern auch im Datenchaos der Temperatur-Rekonstruktionsversuche. Weil man mit diesen Daten nichts wirklich anfangen kann, geht man inzwischen so weit, diese zu simulieren und zu behaupten, damit die „richtigen“ ermitteln zu können! – mit Algorithmen, welche anhand der Chaosdaten „kalibriert“ wurden.

Bild 6 Proxirekonstruktionen der Temperatur der letzten 1200 Jahre. Quelle: Frank Lansner: Holocene, historic and recent global temperatures from temperature proxies

Bild 7 Proxirekonstruktionen der Temperatur der letzten 12.000 Jahre. Quelle: Frank Lansner: Holocene, historic and recent global temperatures from temperature proxies


Bild 7 Proxirekonstruktionen der Temperatur der letzten 12.000 Jahre. Quelle: Frank Lansner: Holocene, historic and recent global temperatures from temperature proxies

Beten, damit die Kälte früher kommt

Unter diesen Gesichtspunkten ist es fast schon unheimlich, wie massiv sich die Kirche vom AGW-Klimawandel vereinnamen lässt, anstelle ein neutrale Position einzunehmen, zumindest, bis die Klimawissenschaft wieder zu einem wissenschaftlichen Charakter zurückgefunden hat.
EIKE: Papst warnt Trump: Ziehen Sie sich nicht aus dem UN-Klima-Pakt zurück – ruft eine ,Krise des Klimawandels‘ aus
… Der Papst verlangt nach Gebeten zur Annahme des UN-Klimavertrages! Er drängt die Gläubigen „Gott um ein positives Ergebnis“ für das Paris-Abkommen zu bitten .
William M. Briggs: The Pope Is Wrong About Global Warming
Man stelle sich vor, der Globus und die Kreisbahnzyklen setzen sich doch weiter durch, die neuen Hypothesen basieren auf Datenfehlern, und die Gebete beschleunigen damit zusätzlich den Weg in die nächste Eiszeit.
Gar nicht so selten In der Geschichte haben „verwirrte“ Gläubig versehentlich ihren eigenen Untergang „herbeigebetet“, natürlich in der festen Überzeugung, das Richtige zu tun. Vom Papst wurde es bisher nicht
„ex cathedra“ (unfehlbar) ausgesprochen, womit es nicht mehr Gewicht als das jedes sonstigen (Klima-)Laien hat. Falls der Papst sich darin als Privatmann täuscht (er hat es als Privatmann ausgesprochen, also ohne göttliche Eingebung), bleibt es nur eine der vielen Fußnoten in der Kirchengeschichte, würde aber ein großes Problem für die Menschheit.

Fazit

Was wurde gelernt: Die eisigen Zeiten sind das Normale und die darin nur für eine verdammt kurze Zeit heraus ragenden Warmzeiten das Seltene. Und gegen diese nur für eine kurze Zeit gegönnte Wärme kämpft die Menschheit in einem kollektiven „Untergangswahn“ an, alleine mit der Begründung, Computersimulationen hätten dies angeordnet.

Es wird spannend werden, wer Recht behält: Der seit 2,6 Millionen Jahre währende Zyklus oder die speziellen CO2-Rechenmodelle des PIK.
Der Autor ist inzwischen aber auch in der Lage, eine präzise Aussage zur nächsten Eiszeit zu tätigen: Sie beginnt bereits aktuell, oder zwischen den nächsten 1.500 … 50.000 Jahren, dass sie ganz ausfällt, glaubt er persönlich nicht.

In ca. 50.000 Jahren weiss man dann ziemlich sicher, wer heute recht hat. Entweder ist dann der kälteste Zeitpunkt der Eiszeit erreicht, oder sie ist ausgefallen. Leider wird es keiner mehr erleben, selbst wenn die nächste Eiszeit vielleicht doch schon begonnen hätte. Da der Weg in die Kälte nicht ganz so steil (wie der in die Wärme) verläuft, wird man den Beginn lange Zeit gar nicht bemerken, sondern mit Freude als Ergebnis der CO2-Vermeidung feiern.
Was wieder auffällig ist:
Die moderne Klimawissenschaft behauptet (anhand ihrer Ergebnisse), dass selbst katastrophalste Ungenauigkeiten bezüglich der Datierungen für ihre Simulation(-Erkenntnisse) kein Problem darstellen. Und sie behauptet, dass diese damalige Warmzeit unserer aktuellen so ähnlich sei, dass sie als Korrelationspaar dienen könne, obwohl der Meeresspiegel 20 m höher lag und heute um Zehntel mm / pa jährlichem Anstieg gerungen wird.
Es passt argumentativ einfach zu Vieles nicht zusammen.

Quellen

[1] EIKE 17.10.2015: Fällt die nächste Eiszeit aus? PIK Chef Schellnhuber behauptet: Ja, so sicher wie das Amen in der Kirche!

http://www.eike-klima-energie.eu/news-cache/faellt-die-naechste-eiszeit-aus-pik-chef-schellnhuber-behauotet-ja-so-sicher-wie-das-amen-in-der-kirche/

[2] Herbert Liedtke: Deutschland zur letzten Eiszeit
[3] ScienceSkepticalBlog: Der Klimaberater der Kanzlerin HJ Schellnhuber verkündet, die nächste Eiszeit in 60.000 Jahren fällt durch Menschenhand aus
http://www.science-skeptical.de/klimawandel/der-klimaberater-der-kanzlerin-hj-schellnhuber-verkuendet-die-naechste-eiszeit-in-60-000-jahren-faellt-durch-menschenhand-aus/0014656/

[4] PIK: Menschgemachter Klimawandel unterdrückt die nächste Eiszeit
https://www.pik-potsdam.de/aktuelles/pressemitteilungen/menschgemachter-klimawandel-unterdrueckt-die-naechste-eiszeit

[5] WEB-Animation: Alley, R.B. 2004 GISP2 Ice Core Temperature and Accumulation Data. IGBP Pagges/World Data Center for Paleoclimatology, Boulder CO, USA
https://wattsupwiththat.files.wordpress.com/2009/12/noaa_gisp2_icecore_anim_hi-def3.gif

[6] EIKE: Das Golfstromsystem. Rahmstorf vs. Krüger. Und er versiegt doch!
http://www.eike-klima-energie.eu/2016/12/12/das-golfstromsystem-rahmstorf-vs-krueger-und-er-versiegt-doch/