1

Warum die Lämmer schweigen – sie sind einfach noch viel zu satt

Aber sind wir tatsächlich wegen einer menschengemachten Klimakatastrophe gezwungen, unsere westlichen Volkswirtschaften und damit unseren Lebensstandard durch eine Aufgabe unserer gegenwärtigen technologischen Basis zu zerstören? Der Mainstream der Klimawissenschaft verdächtigt Kohlenstoffdioxid (CO2) aus dem industriellen Verbrauch von fossilen Energieträgern, den natürlichen Treibhauseffekt soweit zu verstärken, dass die Erde schließlich unbewohnbar wird. Legionen von Klimaalarmisten, weltweit bezahlt mit Milliarden von Euros aus staatlichen Forschungsmitteln, von privaten Stiftungen und ökologischen NGOs, stützen die Wahrnehmung einer angeblichen Klimakatastrophe in der Bevölkerung und behaupten, ihre AGW-Theorie sei gesicherte Wissenschaft. In einer abartigen Verzerrung wissenschaftlicher Ideale fordern sie ein Ende der Klimadebatte und werden dabei von einer ideologisierten Mehrheit der Massenmedien unterstützt.

Unprofitable Wissenschaftszweige drängen sich an die Tröge des Klimawahns, Psychologen und Historiker publizieren eine wachsende Zahl von Veröffentlichungen, in denen der häretische Einfluss von unabhängigen Klimawissenschaftlern, sogenannten „Klimaleugnern“, auf die öffentliche Wahrnehmung einer Klimakatastrophe gegeißelt wird. Gegenwärtig wird von einigen Politikern sogar gefordert, die wissenschaftlichen Standpunkte solcher „Klimaleugner“ unter Strafandrohung zu stellen, um diese in der öffentlichen Diskussion mundtot zu machen.

Solche unabhängigen Klimawissenschaftler, mit abweichenden wissenschaftlichen Ergebnissen zum angeblich menschengemachten Klimawandel, arbeiten meist mit spärlichen Forschungsmitteln oder sogar ehrenamtlich. Aber anstelle einer offenen und fairen wissenschaftlichen Diskussion über ihre Erkenntnisse  werden sie üblicherweise persönlich diskeditiert, und der Klimamainstream versucht, sie aus der wissenschaftlichen Gemeinschaft herauszumobben.
Es sieht so aus, als wären der klimawissenschaftliche Mainstream und seine politischen Unterstützer vom Virus einer Gutmenschen-Korruption befallen, die von einem ökologischen kohlenstoff-freien Paradies auf Erden träumt.

Im Angesicht der geplanten Dekarbonisierung unserer Welt sollten wir nicht vergessen, dass sich im Laufe der kulturellen Evolution des Menschen die verfügbare pro-Kopf Energiemenge mehrfach drastisch erhöht hatte und unseren heutigen Lebensstandard erst ermöglicht:

  • Steinzeit (= kleine dörfliche Gemeinschaften):
    Die verfügbare pro-Kopf Energiemenge betrug etwa das 3 bis 6-fache des Grundbedarfs.
  • Zeitalter des Ackerbaus (=fortgeschrittene regionale Kulturen):
    Die verfügbare pro-Kopf Energiemenge betrug etwa das 18 bis 24-fache des Grundbedarfs.
  • Industriezeitalter (=globalisierte Welt):
    Die verfügbare pro-Kopf Energiemenge beträgt etwa das 70 bis 80-fache des Grundbedarfs.

Der industrielle Gebrauch von fossilen Energieträgern seit Beginn der Industrialisierung hat das Gesundheitswesen, die individuelle Lebenserwartung, unseren Lebensstandard, die Verfügbarkeit und die Qualität von Lebensmitteln, das Transportwesen, die Kommunikation und den allgemeinen technologischen Standard für jedermann nachhaltig verbessert.
Im Umkehrschluss heißt dass, unser gegenwärtiger Lebensstandard beruht zwingend auf der Nutzung fossiler Energieträger.

Das Prinzip der menschengemachten Klimakatastrophe kann jeder Laie ganz einfach verstehen: Je höher der atmosphärische CO2-Anteil steigt, umso höher wird die globale Durchschnittstemperatur. Folglich glaubt eine überwältigende Mehrheit der Bevölkerung in den Industrienationen, der Verbrauch fossiler Energieträger würde durch den verursachten CO2-Ausstoß zu einer Klimakatastrophe führen. Aber ist diese direkte Abhängigkeit zwischen Temperatur und atmosphärischem CO2-Gehalt wissenschaftlich wirklich bewiesen?

Die AGW-Theorie steht in fundamentalem Widerspruch zu diversen wissenschaftlichen und wirtschaftlichen Fakten:

(1) Die gegenwärtigen Klimamodelle können die tatsächliche Klimahistorie gar nicht abbilden: Aktuelle Klimamodelle sind nicht einmal in der Lage, den historisch gemessenen Temperaturverlauf bis zum Jahr 1850 korrekt zurückzurechnen. Diese Schwäche der Klimamodelle beweist, dass weder alle klimarelevanten Parameter, noch ihr tatsächlicher Klimaeinfluss und schon gar nicht die Interaktion dieser Parameter miteinander korrekt in die aktuellen Klimamodelle eingeflossen sind. Mit solchen Klimamodellen wird dann aber das zukünftige Klima bis weit in die Zukunft hinein hochgerechnet und die Politik beruft sich bei der vorgesehenen globalen Dekarbonisierung auf solche Modellergebnisse.

(2) Die Klimawissenschaften sind bis heute nicht in der Lage, den natürlichen und den angeblich menschengemachten Klimaantrieb zu trennen. Bis heute wurde eine solche quantitative Trennung beider Effekte nirgendwo veröffentlicht. Die meteorologischen Temperaturmessungen begannen um 1850, am Ende der „Kleinen Eiszeit“ und zu Beginn der Industrialisierung. Der Temperaturanstieg von der „Kleinen Eiszeit“ muss eine natürliche Ursache gehabt haben, denn diese „Kleine Eiszeit“ endete ohne jeden menschlichen Einfluss. Aber im Gegenteil, die Klimawissenschaft rechnet diesen Anstieg der menschengemachten Klimaerwärmung zu, obwohl der Temperaturanstieg viel schneller verlaufen ist, als die Entwicklung der Industrialisierung.

(3) Klimamodelle ignorieren den Einfluss von natürlichen solaren Zyklen auf das Klima. Die bekannten Zyklen (Schwabe, Hale, Yoshimura, Gleißberg, Seuss-de-Vries, Dansgaard-Oeschger, and Hallstatt)mit Perioden von 11 bis mehr als 2.000 Jahre sind in den computerbasierten Klimamodellen nicht enthalten. Die Klimawissenschaft argumentiert mit der geringen Veränderung der Solarkonstanten über solche Zyklen. Aber diese Zyklen waren vor der Industrialisierung die einzige Ursache für natürliche Klimaschwankungen in unserer aktuellen Warmzeit. Die Klimawissenschaft ignoriert die Ergebnisse von Svensmark, dass nämlich die Kerne zur Wolkenbildung aus der kosmischen Strahlung geliefert werden, die wiederum vom Magnetfeld der Sonne gesteuert wird. Dieser Effekt stellt eine natürliche Verstärkung der Strahlungsschwankungen unserer Sonne dar. Bei einer schwachen Sonne kann vermehrt kosmische Strahlung in die Erdatmosphäre eindringen und führt über eine verstärkte Wolkenbildung zu einer weiteren Abkühlung. Das CLOUD-Experiment am Züricher CERN Institut hat das herkömmliche Aerosolmodell für die Wolkenbildung in Klimamodellen um einen Faktor von einem Zehntel  bis einem Tausendstel reduziert und gleichzeitig die Wirksamkeit des Svensmark-Effekts bis zum Zehnfachen bestätigt.

(4) Die historisch gut dokumentierte Mittelalterliche Warmzeit (MWP), die der “Kleinen Eiszeit” vorausgegangen war, wurde im dritten Bericht des  IPCC (TAR 2001) von der Mann’schen „Hockeystick-Kurve“ unterdrückt, offenbar, um zur Stützung der AGW-Theorie ein konstantes vorindustrielles Klima auf dem Niveau der „Kleinen Eiszeit“ nachzuweisen. Diese „Hockeystickkurve“ wurde inzwischen zwar wissenschaftlich widerlegt, dient aber Klimaalarmisten immer noch als Argument für den menschengemachten Klimawandel, während die Mittelalterliche Wärme Periode von der Klimawissenschaft auf ein europäisches Phänomen herabgestuft worden ist.
Aber das Gegenteil ist der Fall: Die Auswertung von hunderten von wissenschaftlichen Veröffentlichungen weltweit  durch Lüning und Vahrenholt beweist, dass die mittelalterliche Wärmeperiode ein globales Ereignis war, das durch die Variabilität der Sonneneinstrahlung verursacht worden ist. Dadurch wird aber die Theorie vom menschengemachten Klimawandel existenziell in Frage gestellt. Online Atlas von Lüning/Vahrenholt.

(5) Die Klimawissenschaft verleugnet in ihren Klimamodellen die natürlichen Bahnschwankungen unserer Erde um die Sonne(Milanković-Zyklen), um ihren eingängigen linearen Zusammenhang zwischen Globaltemperatur und CO2-Gehalt der Atmosphäre aufrecht zu erhalten. Inzwischen reduziert die Klimawissenschaft die historische Klimaentwicklung sogar auf die zweite Hälfte des vergangenen Jahrhunderts, nur um CO2 als den angeblichen Hauptklimaantrieb zu stützen. Bereits im Jahre 1924 hatten Wladimir Köppen und Alfred Wegener, der Vater der modernen Plattentektonik, die orbitalen Milanković-Zyklen als Ursache der paläoklimatischen Schwankungen der vergangenen Eiszeitalter identifiziert und nachgewiesen.
Reprint des Buches “Die Klimate der geologischen Vorzeit” (Bornträger 1924) mit englischer Übersetzung.

(6) Eine wachsende Versauerung der Ozeane durch den vom Menschen verursachten CO2-Aussoß soll in Zukunft zu einer Einschränkung des marinen Artenreichtums führen. Erstens kann eine bestimmte Menge an CO2 entweder als klimaaktives Gas in der Atmosphäre wirken oder, gelöst in Meerwasser, zu einer Versauerung der Ozeane führen, aber nicht beides zur gleichen Zeit. Üblicherweise werden aber beide Effekte für sich mit dem gesamten anthropogenen CO2-Aussoß berechnet.
Zweitens sinkt die Lösungsfähigkeit von CO2 mit steigender Wassertemperatur. Je wärmer also das Meerwasser wird, umso weniger CO2 kann es aufnehmen und versauern. Der verzögerte Anstieg von atmosphärischem CO2 nach paleoklimatischen Temperaturanstiegen beweist diesen Zusammenhang und wird von Eiskernanalysen bestätigt.

(7) Ein globaler Meeresspiegelanstieg durch eine vom Menschen verursachte  Klimaerwärmung soll zu einem Verschwinden der pazifischen Inseln führen und Tieflandgebiete und Hafenstädte in aller Welt überfluten. Ein dramatischer Meeresspiegelanstieg von mehr als einhundert Metern ist ein natürliches Phänomen zu Beginn aller Warmzeiten. Die Existenz mariner Eismassen wird offenbar allein durch die Meerwassertemperatur bestimmt, während landgebundene Eismassen auf eine Veränderung der vertikalen geographischen Klimazonen reagieren. Die Durchschnittstemperaturen in zwischeneiszeitlichen Warmperioden schwanken üblicherweise um einige Grade und terrestrische Gletscher reagieren darauf mit natürlichen Vorstößen und Rückzügen. Aus den Alpen ist bekannt, dass Gletscher beim gegenwärtigen Abschmelzen Bäume aus der Mittelalterlichen Warmzeit freigeben, die damals dort natürlich gewachsen waren.
Was wir heute auf Grönland und der antarktischen Halbinsel beobachten, ist ein Gletscherrückzug in größere Höhenlagen, während die Eismassen auf dem antarktischen Kontinent weiter anwachsen. Satellitenmessungen der Meeresspiegelschwankungen im offenen Ozean sind sehr viel anfälliger für Fehler bei der Gezeitenkorrektur, Meeresströmungen, zusätzlichen  windgetriebenen Wassermassen und Meereswellen als feste Pegel an den Küsten. Diese konventionellen Pegelmessungen zeigen aber seit vorindustriellen Zeiten einen konstanten Meeresspiegelanstieg von einigen Millimetern pro Jahr. Ohne zielgerichtete Adjustierung historischer Messwerte wird sich dieser Trend sicherlich auch in Zukunft weiterhin so fortsetzen.

(8) Der „Stillstand“ des globalen Temperaturanstiegs, der inzwischen etwa 20 Jahre andauert, hat bereits mehrfach zu Korrekturen an den historischen Temperaturmessungen geführt. Verbesserte Klimamodelle verlagern diese „fehlende Wärme“ jetzt in die Tiefen der Ozeane. Offensichtlich hatten die Klimamodelle diesen Stillstand des globalen Temperaturanstiegs nicht abgebildet. Aber anstatt nun die Eingangsbedingungen der zugrundeliegenden Gleichungssysteme zu korrigieren, um die Modelle mit den aktuellen Messwerten in Übereinstimmung zu bringen, werden die Ergebnisse aktueller Klimamodelle dahingehend angepasst, dass sie zu den Vorhersagen veralteter Modellrechnungen passen.
Es bleibt die Frage offen, wie die „fehlende Wärme“ in tiefere Lagen der Ozeane entweichen konnte, ohne von dem weltumspannenden Messbojennetz ARGO bemerkt worden zu sein.

(9) Die Klimawissenschaften reduzieren die Auswirkungen einer globalen Klimaerwärmung auf dessen negative Folgen und veröffentlichen Horrorszenarien über einen Temperaturanstieg von 3 Grad bis zum Jahre 2100, während in jedem Winter tausende Menschen erfrieren. Für das Jahr 2014 wurde allein in Europa von etwa 40.000 Kältetoten berichtet, einfach weil diese Menschen ihre Stromrechnungen nicht mehr bezahlen konnten.

(10) Die Klimawissenschaft nimmt für sich in Anspruch, sie würde das Vorsorgeprinzip für die gesamte Menschheit verfolgen, indem sie den angeblich menschengemachten Klimawandel bekämpft. Die letzte große Klimaprophezeiung wurde von den wohlversorgten Propheten der Apokalypse rechtzeitig zum Pariser COP21-Klimagipfel veröffentlicht:
Der menschliche CO2-Ausstoß wird die nächste Eiszeit verhindern – in 50.000 Jahren! Ist es wirklich das Vorsorgeprinzip, eine gefährdete Eiszeit in 50.000 Jahren vor dem Menschen zu retten? Nein, das ist wahrhaftige Science-Fiction, wenn die Klimawissenschaft gesichertes paläoklimatisches Wissen über hunderttausende von Jahren ignoriert und auf der Datenbasis eines halben Jahrhunderts Spekulationen über eine in 50.000 Jahren ausfallende Eiszeit verbreitet. Mit dem Vorhaben, die Welt von ihren natürlichen Klimaschwankungen zu befreien, zerstören wir unsere Wirtschaft und die Zukunft unserer Kinder und Enkel. Und was ist mit den tatsächlichen Gefahren, die in Zukunft die Existenz der Menschheit bedrohen könnten, was ist mit Supervulkan-Eruptionen, Asteroideneinschlägen und der Abschwächung des Erdmagnetfeldes, was ist das Vorsorgeprinzip gegen diese sehr realen Bedrohungen?

(11) Erneuerbare Energien aus Sonnenstrahlung und Wind sollen die konventionelle Energieerzeugung ersetzen, um eine Klimaerwärmung durch CO2 zu vermeiden. Bisher kann solche erneuerbare Energie aber nur mit hohen Subventionen erzeugt werden, die direkt vom Verbraucher eingezogen werden, der wiederum einen Lebensunterhalt in einer mit konventioneller Energie betriebenen Industriegesellschaft verdient. Um unseren Lebensstandard zu erhalten, muss also nach einer globalen Dekarbonisierung der globale Energieverbrauch vollständig durch erneuerbare Energien gedeckt werden. Es werden in den Medien Zahlen verbreitet, die besagen, eine solche Dekarbonisierung sei bezahlbar und bis zum Jahre 2100 umsetzbar.
Aber diese publizierten Zahlen schließen nicht einmal die Kosten für die lebensnotwendigen Energiespeicher und die neuen Verteilungsnetzwerke ein, um bei nächtlicher Windstille die Versorgungssicherheit zu garantieren; und ebenfalls fehlen dort die steigenden Herstellungskosten für nahezu alle Produkte des täglichen Lebens. Durch diese steigenden Kosten, bei möglicherweise sinkenden Stückzahlen, werden durch fallende Löhne oder gar insgesamt weniger Beschäftigte die globalen Bruttoinlandsprodukte sinken. Die Frage ist, wer dann die steigenden Subventionen für erneuerbare Energien bezahlen soll.

(12) Der Landschaftsverbrauch in naturnahen Gebieten durch die Erzeugung von Solar- und Windenergie ist etwa 1.000- bis 10.000-mal höher als der Flächenverbrauch für konventionelle Kraftwerke. Es fragt sich, was die Dekarbonisierung der Welt aus unseren naturnahen Landschaften und den natürlichen Ressourcen unserer Erde machen wird.

(13) Gleichzeitig wird Druck auf die industrielle Landwirtschaft ausgeübt, sich auf eine ökologische Produktion ohne Kunstdünger und chemischen Pflanzenschutz umzustellen. Die landwirtschaftliche Erzeugung von Nahrungsmitteln steht bereits in Konkurrenz mit der Landnutzung für erneuerbare Energien. Durch die Einführung von Öko-Kraftstoffen, Stichwort E10, hat sich die weltweite Anbaufläche für Nahrungsmittel bereits verringert und Millionen Menschen zusätzlich leiden unter Unterernährung und Hunger. Die beabsichtigte globale ökologische Nahrungsmittelproduktion geht mit einem geringeren spezifischen Flächenertrag einher und dürfte daher den Ansprüchen einer wachsenden Weltbevölkerung in keiner Weise genügen.

Diese Zusammenstellung legt nahe, dass die Theorie vom menschengemachten Klimawandel auf falschen wissenschaftlichen Annahmen und wirtschaftlichen Spekulationen aufbaut.

Trotzdem verbreiten die Propheten des Weltuntergangs mit sehr unterschiedlichen persönlichen Motiven weiterhin ihre Weltuntergangs-Spekulationen und befeuern damit eine Massenhysterie gegen unser gegenwärtiges Wirtschaftssystem, das allein auf der Nutzung fossiler Energien basiert. Der religiöse Glaube an eine vom Menschen verursachte Klimaerwärmung ist ihre Waffe, um unsere gegenwärtige technische Zivilisation zu zerstören und die Menschheit in eine schöne neue kohlenstoff-freie Welt zu führen. Wir leben heute in einer neuen kulturellen Epoche, dem Anthropozän, in dem sich die fundamentalen Unterschiede zwischen wissenschaftlichen Fakten, persönlichen Meinungen und religiösen Gewissheiten zunehmend verwischen, während übersättigte Menschen ernsthaft glauben, sie könnten ihre Kuh schlachten und weiterhin deren Milch trinken. 

Das wirkliche Problem der Menschheit bleibt eine ständig wachsende Weltbevölkerung und deren ausreichende Versorgung mit Nahrungsmitteln und Energie sowie der Erhalt natürlicher Lebensräume, die das Erbe der gesamten Menschheit darstellen.

Die Armut in der Dritten Welt ist aber eine direkte Folge von Energiemangel und fehlender demokratischer Beteiligung. Der einzige Weg, der aus diesem Dilemma herausführt, ist eine Demokratisierung und wirtschaftliche Entwicklung dieser Gesellschaften. Eine solche Entwicklung würde ein weiteres Wachstum der Weltbevölkerung eindämmen, wie es der demographische Wandel in den Industrienationen im vergangenen Jahrhundert bewiesen hat. Während einer solchen Entwicklung kann der Verbrauch fossiler Energien in den Industrieländern unter Beibehaltung des gegenwärtigen Lebensstandards minimiert und der Schutz der weltweiten natürlichen Ressourcen sukzessive ausgeweitet werden.

Aber mit dem religiösen Glauben an eine menschengemachte Klimakatastrophe haben sich nun die gewählten und nicht gewählten politischen Führer dieser Welt, unterstützt von wissenschaftlichen Wahrsagern, indoktrinierten Massenmedien, religiösen Führern, mißgeleiteten ökologischen NGOs und malthusianischen Stiftungen entschieden, die Menschheit genau in die entgegengesetzte Richtung zu führen.

Ihr Fahrplan für die herbeigesehnte Dekarbonisierung der Welt bis zum Jahre 2100 wird eher über den Niedergang demokratischer Rechte in den Industrienationen zu einer nachhaltigen globalen Energieverknappung führen, die uns malthusianische Perspektiven für eine Globale Dritte Welt von ökologischen Biokleinbauern eröffnen mag. Oder um es weniger verklausuliert zu formulieren, in einer dekarbonisierten Welt werden die Menschen, unabhängig wie groß deren Zahl am Ende noch sein mag, zwölf Stunden am Tag in der Landwirtschaft arbeiten, um ein Viertel der gegenwärtig verfügbaren pro-Kopf Energiemenge zu erzeugen – gerade so viel wie einstmals in vorgeblich glücklicheren ökologisch-vorindustriellen Zeiten.

Und nun, während in Vorbereitung einer globalen Dekarbonisierung die Klimaideologen bereits weltweit ihre Messer wetzen, um die Menschheit aus diesem fossil befeuerten Paradies zu vertreiben, schauen die übersättigten Lämmer in den westlichen Industrienationen diesem Unterfangen gelassen wiederkäuend zu, als ginge sie das Ganze überhaupt nichts an…

Uli Weber ist Autor des Buches Klimahysterie ist keine Lösung.

Übernommen vom Die kalte Sonne Blog




Teil 2 des Faktenchecks Vortrag von Prof. Thomas Stocker Vaduz 10.5.16

Teil 2

Die Pause

Nicht nur EIKE Leser wissen, dass die Erwärmung seit langem, beginnend irgendwo zwischen 1995 bis 1998, eine Pause eingelegt hat. Das wissen auch die Kollegen von Stocker und suchen verzweifelt nach Erklärungen dafür. Hier haben wir die ersten 66 davon zusammengetragen. Nur Stocker sieht die Pause nicht und versucht mit spitzfindigen Hinweisen auf Feinheiten der Trendbestimmung den Eindruck zu erwecken, dass es „die Pause „ gar nicht gibt.

Daher hier ein paar Kostproben seiner Einlassungen dazu:

Min 8:35 … es kommt sehr darauf an, wann sie beginnen die  15 Jahre zu berücksichtigen…Min 9:45 von 1998 bis 2012 kriegen Sie einen Trend von 0,05 pro Jahrzehnt … …Min 10:16 …das sollte genügend Hinweis sein, dass man nicht 15 Jahre nehmen darf um einen Klimatrend festzustellen. Min 10:41 nicht nur 2015 war ein Rekordjahr sondern auch 2014 war schon wärmer als alle Jahre zuvor – Anmerkung des Verfassers Widerspruch zu Minute 08:55   ….und zuvor nicht jedes Jahr ist wärmer, nicht jedes Jahrzehnt ist wärmer ….. Min 10:50– ich sage nicht, dass wir den Klimawandel beweisen mit 2015, das geht nicht….. es geht nicht einmal mit nur 15 Jahren. Wie ich zuvor ausgeführt habe… sie müssen die Trends genau ausrechnen aus genügend langen Zeitreihen (11:07)…

Video als Audio incl. aller Folien des Vortrages von Prof. Thomas Stocker am 10.5.16 in Vaduz

Nun hat niemand von den Skeptikern behauptet, dass 15 Jahre für sich die Bestimmung eines Klimatrends erlaubten, d.i. eine Beachtung wissenschaftlicher Prinzipien, denen sich die Alarmisten um Stocker und Gefährten allerdings nicht verpflichtet fühlen, denn sie  ordnen ungerührt jeden Starkregen, jede Hitzewelle, jeden Sturm oder Tornado, jede Überschwemmung regelmäßig dem „Klimawandel“ á la IPCC zu. Div. Äußerungen zu den jüngsten Regenfällen und Überschwemmungen (Siehe auch Video des Teams von „Klimamanifest von Heiligenroth) dokumentieren das vielfach.  

Doch hier geht es um die „Pause“, also den Stopp weiterer Erwärmung trotz ständig steigenden CO2 Emissionen.  Und alle offiziellen Datenreihen zeigen sie. Mit einer Ausnahme, das ist die jüngste Datenreihe des Goddard Institute for Space Sciences kurz GISS.

Robert Brown  von der DUKE Universität hat sich deshalb die Zeitreihen daraufhin genau angesehen und  Werner Brozek und Walter Dnes haben sie in Auszügen veröffentlicht[11].

Dort finden wir: Zusammenfassung

For UAH[12]: There is no statistically significant warming since May 1993

For RSS: There is no statistically significant warming since October 1993

For Hadsst3: There is no statistically significant warming since July 1996.

For GISS: The warming is significant for all periods above a year.

Interessant dabei: RSS und UAH greifen auf denselben Datensatz zu, in diesem Fall von Satelliten erfasst, wie auch HadCrut[13] und GISS auf den terrestrisch erhobenen Datensatz

Da die Auswertungen von Hadcrut und GISS stark voneinander abweichen, aber nicht beide gleichzeitig richtig sein können, ist es möglich stundenlag darüber zu streiten welche der beiden richtig ist. Das GISS ist seit längerem  dafür bekannt, seine Datenreihen ständig in Richtung Erwärmung zu „adjustieren“[14]. Daher empfiehlt es sich der Vernunft zu folgen und die Satelliten-Werte von RSS und UAH als Schiedsrichter zu verwenden.

Und damit erkennen wir den Beginn der „Pause“ 

irgendwo zwischen 1993 bis 1996 und dauert bis heute

d.h die „Pause“ dauert nun schon zwischen 20 bis 23 Jahre!

Sie beginnt also deutlich vor der Stocker´schen Angabe von 1998

Rückgang der Gletscher

Stocker fährt fort die Auswirkungen des „Klimawandels“ nach IPCC Regeln in den schwärzesten  Tönen zu malen. Zunächst kommt der Rückgang der Gletscher und „Eiskörper“ dran.


Min 12:04
…der große Aletschgletscher, … der sehr stark zurückgegangen ist …Min  12:08 sicher eine Kombination der natürlichen Klimavariabilität und eine erste Reaktion von Eisköpern und Gletschern auf die Erwärmung

 

Abbildung 8 Folie von Stocker der Rückgänge einiger Alpengletscher seit 1880. Er führt sie auf eine Kombination von „natürlicher Klimavariabilität“ und (menschgemachter) Erwärmung zurück

 

Kleine Eiszeit vs. Aletschgletscher

Mehr bringt Stocker zu diesem Thema nicht, kann er sich doch sicher sein, dass in der Alpenrepublik Schweiz und dem eingelagerte Fürstentum Liechtenstein jede Erwähnung des Rückganges der Gletscher  als große Bedrohung empfunden wird.

Er erwähnt auch mit keinem Wort die „kleine Eiszeit“, also die Zeit vor der jüngsten Klimaphase, die in allen vorhandenen Berichten als sehr schlechte Zeit für Mensch und Tier beschrieben wurde und immerhin um die 500 Jahre dauerte. Auf dieses Manko von mir angesprochen weicht er aus und verweist fälschlich auf seine Aussagen zum Aletschgletscher

Doch die Gletscher-Geschichte hat mit der Erwärmung durch den „Klimawandel“ á la Stockers IPCC und anders als dieser behauptet, nichts Erkennbares zu tun.

Der inzwischen emeritierte Glaziologe  der Universität Innsbruck Prof. em. Gernot Patzelt, kommt daher auf eine ganz andere Erklärung. Seinen intensiven Gletscherforschungen nach, ist die momentane Erwärmung nichts Besonderes. So gab es sehr, sehr häufig in den letzten 10.000 Jahren sowohl wesentlich höhere Temperaturen, aber auch steilere Rückgänge als heute,. In mehr als 66 % der Zeit, lag die Sommertemperatur der Alpen z.T. deutlich über der heutigen.

Abbildung 9 Temperaturverlauf (Sommertemperaturen) der Alpen und in Grönland der letzten 10.000 Jahre. Es ist klar erkennbar, dass mehr als 2/3 der Zeit die Temperaturen deutlich höhere Temperaturen zu beobachten waren als heute. Grafik und Daten Gernot Patzelt. Aus Wald- und Gletscherentwicklung  in den Alpen in den letzten 10.000 Jahren, zur 9.IKEK 11.12 Essen

Video Teil 1 des Faktenchecks den das Team von Klimamanifest von Heiligenroth mit z.T. anderen Schwerpunkten angefertigt hat

Extremereignisse

Dann wurde vom Vortragenden vom  allgemeinen „Klimawandel“ ins Besondere übergegangen. Doch auch hier nur Schreckensbotschaften.

O-Ton Stocker Min 15:14 Der Klimawandel manifestiert sich nicht nur in der Temperatur (Bild Meerespiegelanstieg) es sind viele Größen, die sich verändern u.a. der Meeresspiegel (Bild der Msp ist seit 1900 um 19 cm angestiegen)

 Abbildung 10: zeigte   die Stocker Folie „nach verschiedenen unabhängigen Daten“ des Meerespiegelanstiegs von  1900 bis 2012 

Und….Min 15:40 Meereisbedeckung hat sich verändert (Bild Arktis) …und so gibt es viele Messungen …viel Größen im (16:15) Klimasystem  dann folgt (Min 16:17 ohne weitere Erklärung)… aus dem Synthesereport

… sie zeigt die Ursache des Klimawandels

Abbildung 11: zeigt die Ursachen  des Klimawandels  „nach genauen Messungen“ von  1850 bis 2013

…dann folgen Zahlen über den Anstieg.. (Tonstörung) von CO2, CH4 etc. Min 18:10 Bild: Die mensch-verursachten Emissionen sind die höchsten der Geschichte

(Anmerkung erst seit 1956 werden sie hinreichend genau gemessen, davor nur sehr ungenaue Messungen aus Eisbohrkernen)

…Der (globale) Meeresspiegel steigt…

Schauen wir uns zunächst den (globalen) Meeresspiegel an.  Zunächst einmal sollten wir fragen, ob es den denn gibt? Jeder weiß, oder glaubt zu wissen, dass es ihn gibt. Aber gibt es den globalen Meeresspiegel überhaupt? Und was macht die Erwärmung für seinen Anstieg aus? Weiß doch jeder, dass sich Wasser bei Erwärmung ausdehnt.

…durch Erwärmung…

Zunächst sollte man sich die Frage stellen: Kann eine äußerst geringe – und nur um die handelt es sich hier – und auch nur vermutete- Erwärmung der Luft, um 0,8 bis 1,0 C die Riesenwassermenge der Ozeane wirklich so schnell erwärmen? Wer das einfach so glaubt, möge bitte nur ein paar überschlägige Berechnungen mit Wissen aus der frühen Oberstufe vornehmen.

…gerade einmal um 3cm –pro Jahrhundert!

Hierzu ein Beispiel:

Erwärmt[15] sich eine durchgängig 15 Grad warme und 3.700 m lange Meeressäule um 1 Grad, wächst sie um 55 cm. Es muss aber noch eingerechnet werden, dass die Temperatur mit zunehmender Tiefe und der Ausdehnungskoeffizient mit sinkender Temperatur rapide sinken, dann reduziert sich der Anstieg auf gerade mal 3 cm. d.h. die wenn sich die gesamte Erwärmung des letzten Jahrhunderts auf das Meerwasser übertragen hätte, wäre das gerade mal um 3 cm, zwar mit großer Verzögerung, aber insgesamt gestiegen. Mehr geht nicht. Doch auch diese Annahme ist unrealistisch denn…

…Es wird allgemein geglaubt und verkündet, dass sich das Meer erwärmt, weil die Luft darüber wärmer wird. Wer das verinnerlichen möchte, der möge sich vor eine mit kaltem Wasser gefüllte Badewanne hocken und so lange mit seinen Atem über die Oberfläche blasen, bis das Wasser die Nähe von 37 Grad erreicht. Die Gesetze der Wärmeübertragung besagen, dass kaum die Luft, sondern überwiegend die Strahlung zur Erwärmung führt, und die wird durch die Wolkenbedeckung bestimmt.

Und was liefern die Gletscher?

Würde das gesamte Eis Grönlands schmelzen, wird der Meeresspiegel um circa 6 m steigen. Würde sich die gegenwärtige Abschmelzrate von 250 km^3 auf angenommen üppige 500 km^3 erhöhen, dann würde das komplette Abschmelzen ca. 6.000 Jahre dauern, d.h. es gäbe einen Anstieg um ca. 10 cm in einem Jahrhundert.

Nur, die weitaus größte Eismenge von über 90 % ist in der Antarktis gebunden. Doch die Antarktis denkt nicht daran zu schmelzen, was sie früher, als es dort deutlich wärmer war als heute – besser gesagt : deutlich weniger kalt als heute- auch nicht tat. Wie eine neue Studie herausfand[16] war die Antarktis häufiger in den letzten 8000 Jahren wärmer als heute. Ganz ohne anthropogenes CO2.

Nur in Grönland, das weitere 9 % der Eismasse beherbergt, tauen die Ränder. Die von Stocker als Beispiel gezeigte schmelzende Arktis taugt hingegen nicht dazu, denn es handelt sich um Meereis, dessen Schmelzen keinen Einfluss auf den Meeresspiegel hat.

Und dass das Schmelzen der Alpengletscher oder anderswo einen messbaren Einfluss auf den Meeresspiegel hat, glaubt Stocker sicher selber nicht.

Globaler Meeresspiegel

Und damit sind wir wieder bei der Frage gibt es ihn, oder gibt es ihn nicht. Man braucht ja nur an die Küste fahren, auf endlose Meer blicken, sich an die Schulphysik, mit der Sache von den kommunizierenden Röhren erinnern und schon ist klar, dass es

a) einen globalen Meeresspiegel gibt und

b) dass dieser – glaubt man Stocker und dem Rest des IPCC- steigt durch die globale Erwärmung.

Doch an diesen beiden Aussagen ist fast alles falsch. Es gibt den globalen Meeresspiegel ebenso wenig wie die globale Mitteltemperatur, sondern viele verschiedene Meeresspiegel, die an manchen Standorten[17] an der Küste seit vielen Jahrzehnten eher weniger als mehr genau – per Pegelmessung- gemessen werden. Und alle sind verschieden und verhalten sich auch sehr verschieden. Insgesamt definiert die Forschung ca. 15 Einflussgrößen, welche auf den Meeresspiegel wirken. Die thermische und der Zufluss von Gletscherwasser gehören zu den kleinsten.

Die lokalen Pegelstände werden – zwar nicht vollständig- seit 1933 in der PSMSL Datenbank erfasst und stehen dort der Forschung zu Verfügung Die dort abrufbaren  lokalen Pegelmessungen können allerdings nicht direkt zur Berechnung des GMSL herangezogen werden. Sie müssen, wie die lokalen Temperaturdaten, einer Fülle von Anpassungen und Korrekturen unterzogen werden, um verwendet werden zu können. Man versucht dazu aus den relativ wenigen vorhandenen Langzeitbeobachtungen der Pegelhöhe von div. Küstenorten, die Veränderungen des Pegels auf den gedachten Meeresspiegel zu beziehen, d.h. herauszurechnen. Das ist mindestens so schwierig wie die Temperaturbestimmung. Manche meinen, es sei noch schwieriger, weil die Datenbasis noch viel dünner ist und es keinen absoluten Bezugspunkt gibt.

Abbildung 12:Anstieg des globalen Meeresspiegels seit dem Ende der Eiszeit. Deutlich zu erkennen, dass dieser seit ca 9.000 Jahren nur noch moderat und seit ca. 6000 Jahren sehr moderat ansteigt. (Weitere Details dazu u.a. hier ) Einen wunderbaren Überblick über den gegenwärtigen Stand der Meerespiegelforschung hatte zuletzt EIKE Autor Kuntz[18] zusammengetragen. Er untersuchte viele Forschungsergebnisse, welche die letzen 10.000 Jahre (Holozän) abdecken

Sein Fazit lässt an Deutlichkeit nicht zu wünschen übrig:

Auch in den AR5 übernommene Daten spiegeln die in den vorherigen Kapiteln aufgezeigte Problematik direkt wieder. Es ist nicht erkennbar, dass die Datenlage darin verlässlich besser wäre. Jedoch wird dies im AR5 nicht erwähnt, sondern Aussagen mit Vertrauensbereichen abgeleitet, welche bezweifelt werden dürfen.

Fazit zum Pegelverlauf der letzten zwei Jahrtausende

Es ergibt sich das gleiche Bild wie schon bei der Recherche der Temperaturproxis [11] “Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende”: Eine verlässliche Datenbasis liegt nicht vor. Von einer hohen Sicherheit über die wirklichen Pegelverläufe (mit der erforderlichen Genauigkeit) kann keine Rede sein.

Und es fällt wieder auf, dass es in historischer Zeit mit ziemlicher Sicherheit erheblich größere und auch schnellere Schwankungen gegeben hat, als es die Verläufe im AR5 zeigen. Der Verdacht einer unzulässigen Glättung, vergleichbar der Hockeystick-Darstellung zur Temperatur drängt sich geradezu auf [11].

Die einzige mögliche Folgerung daraus ist:

Mit einer so widersprüchlichen bzw. ungenauen Datenbasis ist keine Zukunfts-Pegelsimulation auch nur im Ansatz glaubhaft kalibrierbar oder verifizierbar! Auch eine Aussage, ob die aktuelle Schwankung nicht doch natürlich sein kann ist nicht möglich. Was aktuell von der Klima-“Wissenschaft” an Zukunft simuliert wird, ist eher ein Würfelspiel welches nur auf immer teureren Rechnern durchgeführt wird.

Und damit ist es auch kein Wunder, dass “Jeder” beim Simulieren etwas Anderes ausgespuckt bekommt.

Wer nun richtig liegt, Stocker oder der kritische Ingenieur Kuntz, mag sich der Leser aussuchen. Es bleibt die Frage, wie Stocker und Kollegen auf ihre spektakuläre Aussage vom gefährlich ansteigenden Meeresspiegel kommen? Dies ist nicht recht ersichtlich, dient aber dem Alarmismus.

Fazit:

Die Ausführungen von Stocker sind zwar IPCC konform, in der Sache aber völlig unbestimmbar und daher spekulativ übertrieben. Ihre Zuordnung zur Ursache ist daher rein alarmistisch und durch nichts begründbar

Hitzewellen und Starkniederschläge

Im Vortrag (etwa um Minute 30) und später zu meinem Kommentar (ca. Minute 49:00) äußerte sich Stocker auch zur Zunahme der Extremereignisse, namentlich von „Hitzewellen und Starkniederschlägen,  die als einzige dem Klimawandel zugeordnet werden können“.

Trotz Widerspruchs beharrte Stocker auf dieser Behauptung. Ich bat ihn daher in einer Mail zur Klärung der Fakten diese zu belegen. Diese Klärung erfolgte leider nicht.

Warum?

Weil  40 Jahre Klimawandel à la IPCC diese Erhöhung der Extremwetter bisher nicht erkennen lassen. Im Gegenteil, viele Extrem-Wetterphänomene wurden weniger und manche sogar schwächer. Im den IPCC Bericht zu „Extremereignissen“ zu lesen wir dazu:

Über tropische Stürme und Hurrikane [IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “No robust trends in annual numbers…“

Über tropische Zyklone

[IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “Current datasets indicate no significant observed trends….”

Über außer-tropischeZyklone[IPCC 2013, AR5, WGI, Kapitel 2, Seite 220]:  “In summary, confidence in large scale changes in the intensity of extreme extra tropical cyclones is low …“

Über Dürren [IPCC 2013, AR5, WGI, Technical Summery,

Seite 50]:”There is low confidence in a global-scale observed trend in drought or dryness …“.[IPCC 2013, AR5, WGI, Kapitel 2, Seite 215]: “In summary, the current assessment concludes that there is not enough evidence at present…“

Zu Überflutungen

[IPCC 2013, AR5, WGI, Technical Summery, Seite 112]: ”There continues to be a lack of evidence and thus low confidence …“

Über Hagel und Gewitter (Starkniederschläge)_ [IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “In summary, there is low confidence in observed trends in small-scale ..“

Zusammenfassung des_[IPCC 2013, AR5, WGI, Kapitel 2, Seite 219]:

“There is limited evidence of changes in extremes  associated with other climate variables since the mid-20th century.”

Fazit:

Extremwetterzunahmen im jüngeren Klimazeitraum sind von den Wetterdiensten nicht auffindbar.

Zur kleinen Eiszeit bzw. der Rückerwärmung danach

Als ich dann in der Diskussionsrunde erwähnte, dass er die kleine Eiszeit in seinem Vortrag und die (u.E.n. völlig natürliche) Rückerwärmung danach nicht erwähnte, korrigierte Stocker mich und verwies auf Ihre Ausführungen zum Aletsch-Gletscher. Doch auch da erwähnten er die kleine Eiszeit mit keinem Wort – er stellte nur fest, dass der Rückzug des Aletsch „..sicher eine Kombination der natürlichen Klimavariabilität …und der ersten Reaktion von Gletschern und Eiskörpern auf die Erwärmung, die stattgefunden hat…..ist“.

Wieder zeigten er allein Klima-Phänomene, aber lieferte keinerlei Beleg für seine „wirkliche Realität“, (O-Ton Stocker) dass das CO2 ursächlich daran schuld sei. 

Zum Carbon Budget

Mit dem Aufzeigen des sog. Carbonbudget kam Stocker zum eigentlichen Ziel seines Vortrages. Nach den Schrecken des Klimawandels – ausgelöst durch das anthropogene CO2- und umgerechnet auf die seiner Meinung gerade noch zulässige Erzeugung desselben (wenn man das 2 ° Ziel noch halten will), forderte er dann die vollständige  

Dekarbonisierung der Wirtschaft.

Dazu zeigte er eine Folie mit der er das sog.  Carbonbudget einführte. Sie zeigt dessen Veränderung seit Beginn der Industrialisierung (was immer das heißen mag), sowie das, was nach Meinung „der Wissenschaft“ noch zulässig emittierbar wäre.  Ausdrücklich deklarierte Stocker das dort Gezeigte mit viel Nachdruck als „wissenschaftlich“ und damit als unabweisbar und wahr.

Abbildung 13:Bereits verbrauchtes  und noch zulässiges „Budget“ an Kohlenstoff Äquivalent  nach Stocker

Dann berichteten er kurz über die Idee des Budgets an Emissionen -je nach zulässiger Erhöhung um 2°, 3° oder gar 4,7 °- CO2. Doch wie er zu dieser Budget-Berechnung überhaupt gekommen waren (ab Min 32:25), erklärte er – auch auf Mail-Nachfrage- nicht.

Seine Konsequenz ist, dass für das 2° Ziel noch 195 Mio t Cequiv (Anmerkung: Ceqiv ist die Menge an Kohlenstoff C die im CO2 gebunden ist, sowie die aus anderen Treibhausgasen umfguerechnete CO2 Menge, bzw. deren Ceqiv) an Emissionen zur Verfügung stünden, dann wäre das „Budget“ von 790 Mio t Cequiv erreicht. 

Abgesehen von der nicht unwichtigen Frage, warum er dem Publikum den erheblichen Unterschied zwischen Emissionen und atmosphärischer CO­2 Konzentration und die Tatsache, das es einen um knapp zwei Potenzen größeren natürlichen CO2-Kreislauf gibt, nicht einmal im Ansatz zu erklären versuchte, bleibt auch offen, was ihn zu dieser Behauptung gebracht hat.

Ich vermute, dass er sich zur Berechnung des Budget im Wesentlichen der (Equilibrium) Climate Sensitivity (CS oder ECS) bediente. Die gibt an, um wieviel die Temperatur rechnerisch bei Verdopplung der Treibhausgaskonzentration ansteigt. Das Problem mit diesem rein hypothetischer Rechenwert  ist jedoch, dass er als Wert sich -bisher jedenfalls – jeder genauen Bestimmung entzogen hat. Das mussten auch seine Kollegen einsehen, welche die Summary für Policymakers  (SPM) schrieben bzw . redigierten, denn dort steht– wenn auch in einer Fußnote versteckt – auf S.16:

No best estimate for equlibrium climate sensitivity can now be given because of lack of agreement on values across assessed lines of evidence and studies“.

Doch in seinem Vortrag ignorierte Stocker nicht nur dieses IPCC Eingeständnis, er beschäftigte sich nicht einmal mit dieser wichtigen Frage,  sondern stellte einfach die o.a. Behauptungen in den Raum.

Wir wollten versuchen dem Geheimnis auf die Spur zu kommen und baten Stocker um Aufklärung. Doch die kam nicht. Daher können wir nur vermuten, dass er mit großer Wahrscheinlichkeit den politisch „offiziellen“ IPCC Wert von 3 °C für seine Berechnungen einsetzte. Anders kommen die von ihm genannten Zahlen auch nicht zustande.

Also per THG Verdopplung ergibt sich eine Temperaturerhöhung von 3 °C.  

Thomas Stocker müsste jedoch wissen – und weiß es sicher auch – dass ein ECS mit 3 °C nach heutigem Wissen völlig unhaltbar ist, weil sich gerade in jüngster Zeit die Studien häufen, welche diesen Wert auf unter 1 °C verorten, manche gehen sogar bis auf 0,45 °C ± 30 % und noch weiter herunter.

Wendet man diese Werte an, dann erledigt sich das „Problem Klimaerwärmung“ von selbst. Auch deswegen, weil selbst bei Verwendung des sog. Berner Modells zur Berechnung der CO2 Konzentration aus den Emissionen, (ein Modell, welches erlauben soll, die Zunahme der CO2 Konzentration aus den anthropogenen Emissionen zu bestimmen – an dessen Definition Stocker vielleicht sogar beteiligt war- mit 3 verschiedenen Halbwertzeiten für den „Zerfall“ des CO2 in der Atmosphäre,) die Berechnungen zeigen, dass, selbst wenn man ein exponentielles Wirtschafts-Wachstum für die nächsten acht Jahrzehnte annimmt und man dafür jeden Tropfen der 1580 Gigatonnen-High-End-Schätzung der fossilen Reserven verbrennen würde,  der CO2-Gehalt immer noch nicht doppelt so hoch wäre wie heute.[19]

Auch die 600 ppm Marke, also eine Verdopplung gegenüber dem -auch nur vermuteten- vorindustriellen Wert, würde schwerlich erreicht werden. All diese wichtigen Ergänzungen fehlten leider in Stockers Vortrag.

Und last but not least ließ er auch die – im Gegensatz zur Klimahypothese- eindeutig belegte positive Wirkung des CO2 Anstiegs auf den Pflanzenwuchs und damit auf die Welternährung völlig unberücksichtigt. 

Angeblich fehlende Mitwirkung Skeptiker

Am Ende seiner Ausführungen sagte Stocker die folgenden Sätze

Min 50:45 ..Sie haben 3 x Gelegenheit gehabt unseren Bericht zu begutachten. Drei mal!… wir haben insgesamt 54.677 Kommentare erhalten,  …wir haben auf jeden Kommentar schriftlich reagiert…im Internet verfügbar…Ich hatte eigentlich gehofft als Vorsitzender der Arbeitsgruppe 1, als ich das Amt übernommen hatte..in einer turbulenten Zeit wie Sie sich erinnern können, dass ich sehr viele intelligente Kommentare von Klimaskeptikern kriege, die wir dann Punkt für Punkt adressieren können….leider hat es sich dann herausgestellt, dass niemand von diesen Leuten, die in den Blogs(?) sehr aktiv waren, bei uns beigetragen haben. Tut mir Leid! Wir konnten auf diese Expertise nicht zurückgreifen. (Zwischenruf Limburg) Das stimmt nicht

Und es stimmt auch nicht. Bspw. hat Dr. Vincent Gray aus Neuseeland überschlägig ca. 800 Kommentare eingereicht, ebenso reichten, um nur einige weitere zu nennen, Prof Singer und Lord Monckton viele tlw. umfangreiche Kommentare ein, aber erhielten nie eine Antwort.

Auf meine spätere Nachfrage räumte Stocker dies auch ein, hielt es aber nicht für angebracht sich für seine öffentliche Falschinformation zu entschuldigen. Er  sandte mir aber eine pdf Datei mit allen Kommentaren von V. Gray und deren Behandlung seitens seiner  Arbeitsgruppe. Nach erster Sichtung wurden die allermeisten Kommentare „rejected“.

Ob dies aus objektiven oder subjektiven Gründen geschah, ist für diese Thematik eigentlich jetzt nicht relevant. Denn Tatsache bleibt, dass entgegen seiner klaren Ansage vor dem LIFE Auditorium, die „Klimaskeptiker“ hätten „trotz dreimaliger Gelegenheit“ zu diesen 54.677 Kommentaren nichts dazu mit „ihrer Expertise“ beigetragen, falsch ist. Und, da er es besser wusste, sogar vorsätzlich falsch.  Auch die umfangreichen Kommentare von S.F. Singer und Ch Monckton räumte Stocker nachträglich ein, verwies jedoch nur auf die IPCC Website um sie zu finden. Das ist uns bis heute nicht gelungen.

Fazit:

Ab Min 42:20, wies Stocker auf die so wichtige Glaubwürdigkeit hin

  „Das Grundlegende was wir in dieser komplexen Situation tun können ist unsere Glaubwürdigkeit pflegen…damit die Entscheidungsträger nicht auf irgendwelchen Halbwahrheiten oder Partikular Interessen entscheiden müssen sondern auf den Fakten die die Wissenschaft zur Verfügung stellt.“

Prof. Thomas Stocker hat also seine Aussagen bei klarem Bewusstsein, klarer einfacher Sprache, ohne jeden Zweifel und im Brustton des ehrlichen Wissenschaftlers vorgetragen.

Und er hat damit die Zuhörer überzeugt.

Nach seinen Worten gibt es keinen Zweifel, dass der „Klimawandel“ menschgemacht ist und fürchterlich für diesen Planeten wird, wenn wir nicht durch „Dekarbonisierung“ massiv und unverzüglich  gegensteuern.

Als Ergebnis dieses Gegensteuerns mittels Dekarbonisierung schildert er -wieder ohne jeden Zweifel- als zukünftiges Paradies, mit einer Energieversorgung aus „Erneuerbaren“!

Die Fragwürdigkeit von Stockers Behauptungen und „Beweisen“.

Auf den vorigen vielen Seiten – kürzer ging leider mal wieder nicht, wofür ich mich entschuldige- habe ich versucht die ganze Fragwürdigkeit, der mir am wichtigsten erscheinenden Behauptungen und Beweisführungen Stockers aufzuzeigen.  Nun dürfte das alles auch Stocker gut bekannt sein, aber wenn er trotzdem so berichtet wie er berichtet, dann kommt es ihm allein auf die Wirkung der Botschaft an sich an. Und damit verlässt er die Position des neutralen und ehrlichen Wissenschaftlers – obwohl er sie immer und immer wieder für sich beansprucht- und wird zum Aktivisten mit eigener Agenda. Er wäre in der Riege der bekannten alarmistischen Klimaforscher bei weitem nicht der einzige. Was die Sache nur schlechter und nicht besser macht.

In Würdigung dessen, drängt sich mir deshalb als sachkundigem Chronisten der Verdacht auf, dass Thomas Stocker ein würdiger Schüler des bereits verstorbenen Klimaforschers und (ebenfalls)– Aktivisten Stephen Schneider ist, der, seinerzeit Leitautor des IPCC seine Kollegen eindringlich zu folgendem Verhalten in der Öffentlichkeit ermahnte:  

„Deshalb müssen wir Schrecken  einjagende Szenarien ankündigen. Um Aufmerksamkeit zu erregen, brauchen wir dramatische Statements und kein Zweifel am Gesagten. Jeder von uns Forschern muss entscheiden, wie weit er ehrlich oder effektiv sein will.“

An dramatischen Statements fehlt es in Stockers Vortrag nicht, ebenso erlaubte er sich und dem Publikum keinerlei Zweifel am Gesagten.

Daher bleibt Ihnen liebe Leser überlassen, zu entscheiden, ob Thomas Stocker eher ehrlich oder effektiv war.

Teil 1 finden Sie hier


[1] Zitat aus einem Stocker Interview in der Sonntagszeitung (Schweiz) vom 12.6.2016

[2]Quelle ist die IPCC- Webseite 2009 in About IPCC:  http://www.ipcc.ch/about/index.htmIts role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change

[3] Aus einer Rück-Mail T. Stockers an den Verfasser, als der ihn darum bat zu erklären, welche Daten mit welcher Qualität er für seine Aussagen und Graphen verwendet hätte.

[4] Ab Minute 43:42 fragt Stocker.. wie soll es mit dem Planeten weiter gehen und zeigt dazu eine Grafik mit Temperaturzeitreihen ab 1950 (aus Daten errechnet) und Prognosen ab ca. 2005 nach Modellen. Beide Versionen sind von leichtem Schleier umgeben, die man als Unsicherheitsbänder deuten kann. Verwiesen wurde darauf nicht .

[5] Quelle: Global Historical Climatology Network (GHCN) hier, ausgewertet über die GISS Seite (hier) von Friedrich Karl Ewert Details dazu hier

[6] Siehe auch die Auswertugnen von J. D´aleo und A, Watts in SURFACE TEMPERATURE RECORDS:

POLICY DRIVEN DECEPTION? Seite 14

[7] NEW SYSTEMATIC ERRORS IN ANOMALIES OF GLOBAL MEAN TEMPERATURE TIME-SERIES; Michael Limburg (Germany) ENERGY & ENVIRONMENT VOLUME 25  No. 1 2014

[8] P.  Frank,  “Uncertainty  in  the  Global  Average  Surface  Air  Temperature  Index:  A Representative Lower Limit,”  Energy & Environment , vol. 21 , no. 8, pp. 969-989, 2010

[9] P.  Frank,  “Imposed  and  Neglected  Uncertainty  in  the  Global  Average  Surface  Air Temperature Index,”  Energy & Environment · , vol. Vol. 22, N, pp. 407-424, 2011.

[10] Details dazu z.B. hier http://www.eike-klima-energie.eu/climategate-anzeige/eike-9-ikek-prof-ewert-erderwaermung-was-wurde-gemessen-und-wie-wurde-ausgewertet/

[11] Quelle „Can Both GISS and HadCRUT4 be Correct? (Now Includes April and May Data) hier

[12] UAH steht für Satellitenauswertung der Erdmitteltemperatur der Universität von Alabama Huntsville, RSS steht für Remote Sensing Systems eine zweite unabhängige Einheit die  ebenfalls mit der Satellitenauswertung der Erdmitteltemperatur befasst ist. HadCrut steht für Hadley Center und Climate Research Unit der Universität von East Anglia die offiziell die terrestrischen und seegestützten Daten auswerten 

[13] Vermutlich auf Grund dieser klaren Erkenntnis – was nicht ist, was nicht sein darf-  hat das Hadley Center die Datensätze noch mal einer kosmetischen Behandlung unterzogen und veröffentlicht die unter HadCrut 4: Die zeigen: „There is no statistically significant warming since March 2005“.  Erfreulicherweise kann man aber immer noch die Daten von HadCrut 3 herunterladen.

[14] Details dazu z.B. hier NASA-GISS ändert rückwirkend die Temperaturdaten – warum ? von Friedrich-Karl Ewert

 URL http://www.eike-klima-energie.eu/climategate-anzeige/nasa-giss-aendert-rueckwirkend-die-temperaturdaten-warum/

[15] Dieses schöne Beispiel ist dem Aufsatz von  Gerhard Kühn „Atlantis- Was geschah vor 10.000 Jahren“ entnommen. Quelle EIKE hier

[16] The Antarctic Has Been Warmer Than Now For Most Of The Last 8000 Years, aus Geophysical Newsletters:

The Antarctic Has Been Warmer Than Now For Most Of The Last 8000 Years

[17] Von um die 10 Stationen nur auf der Nordhalbkugel um 1880 stieg die Zahl bis 1985 auf ca. 300 auf der NH und ca. 60 auf der SH an, um dann auf insgesamt ca. 160 zurückzufallen. (Quelle IPCC AR4, Ch5)

[18] Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren hier http://www.eike-klima-energie.eu/climategate-anzeige/der-verlauf-des-meeresspiegels-im-holozaen-und-seit-2000-jahren/

[19] Details dazu hier Willis Eschenbach : CO2 in der Atmosphäre durch Verbrennung verdoppeln? Kann man total vergessen!

http://www.eike-klima-energie.eu/climategate-anzeige/co2-in-der-atmosphaere-durch-verbrennung-verdoppeln-kann-man-total-vergessen/




Deutschland im 21. Jahrhundert – Von der Industriegesellschaft zum Ökosozialismus

Was für ein Vorhaben! Was für eine Hybris! Seit Bestehen der Erde ist ihre Atmosphäre von teils drastischen Klimaänderungen betroffen. Und jetzt sollen Änderungen der weltweit unterschiedli­chen Lufttemperaturen, die ja wesentliche Elemente des Klimas sind, vertraglich festgelegt werden, so etwa wie die Einstellung des Thermostaten an einer Zentralheizung. Dies ist angeblich möglich durch die als „Dekarbonisierung“ bezeichnete Beendigung aller durch die heutige Lebensweise (In­dustrie, Verkehr, Wohnen) verursachten Emissionen des Gases Kohlendioxid ( CO2).

Eine Wettervorhersage über mehr als drei Tage ist kaum möglich. Und jetzt wird behauptet, dass sich die langfristigen Mittel­werte dieses komplexen Geschehens durch Einflussnahme auf winzige Änderungen eines einzigen Parameters, der CO2 Konzentration nachhaltig regeln lassen.

Dennoch wurde dieses absurde Vorhaben auf der Klimakonferenz von 195 Ländern plus der EU be­schlossen.

Die auf Grund der Kli­maänderung beschworenen angeblichen Gefahren treffen hauptsächlich unter­entwickelte Länder, die kaum Beiträge zur CO2 Emission leisten und damit von der kostspieligen Dekarbonisierung ih­rer Lebensumstände kaum betroffen sind, an der ja angeblich die Industrielän­der „Schuld“ sind. Daraus wird ein Anspruch dieser Länder gegen die entwickelte Welt abgeleitet. Diesem Anspruch soll durch Gründung eines UN Klimaschutzfonds genüge geleistet werden, in den die Industrielän­der soviel einzahlen, dass daraus jährlich 100 Mrd. $ an die ärmeren Länder verteilt werden können, um diesen zu ermöglichen sich gegen die „Gefahren“ des Klimawandels rüsten zu können. Das wird diese anregen, irgendwelche Projekte zu erfinden, für die sie dann Geld beanspru­chen können. Was veranlasst die Geberländer bei dieser gigantischen Vermögensumverteilungs-Ma­schinerie mit zu machen?

Unerklärlicher Weise gehört das führende Industrieland Deutschland zu den aktivsten Verfechtern dieser Dekarbonisierungsstrategie. Die Angst vor einer die Menschheit bedrohenden Erderwärmung wird vor allem auch durch die links-grün dominierte deutsche Regierung Merkel geschürt.  Bereits auf der ersten Weltklimakonferenz COP 1 1995 in Berlin versprach die damalige Umweltministerin Angela Merkel, sich dafür einzusetzen, dass Deutschland stets den höchsten Beitrag aller Industrie­länder für den „Klimaschutz“ aufbringen soll. Dies ist eine der wenigen Konstanten in ihrer Politik. Merkel 2007: „Ein weiter so gibt es nicht. Der Klimaschutz ist die größ­te Herausforderung des Jahr­hunderts“. Und bei der G7 Konferenz in Elmau erneut ein Bekenntnis zum Zweigrad-Ziel: „Wir wissen, dass wir dafür tiefe Einschnitte bei weltweiten Treibhausgas-Emissionen brauchen und ha­ben uns deshalb dazu bekannt, dass wir im Laufe dieses Jahrhunderts eine Dekarbonisierung der Weltwirtschaft brauchen“.(Pressekonferenz Sender Phoenix, 8.6.2015)

Die Umweltministerin Frau Hendricks propagiert das Auslaufen der Produktion von Verbrennungs­motoren bis Mitte des Jahrhunderts.  Das Elektroauto soll dann offenbar die Basis für den Indivi­dualverkehr  werden. Eine abenteu­erlich Vorstellung. Ein teures Fahrzeug, mit dem man ohne Kli­maanlage jeweils ca. 100 km fahren kann, bis man an einer hoffentlich freien Ladestation in einer halben Stunde Energie für die nächs­ten 100 km laden kann. Ein solches Vehikel, dass selbstver­ständlich in einer Marktwirtschaft prak­tisch unverkäuflich ist, soll nun durch eine von der Allge­meinheit aufzubringende Subvention von 4000 € gefördert werden. Ein Fahrzeug, das keinen steu­erlichen Beitrag zu Ausbau und Erhalt der Verkehrsinfrastruktur leistet. Die technologischen Defizi­te sollen durch staatlich geförderte Ent­wicklungen überwunden werden, für die es aber derzeit über­haupt keinen erfolgversprechenden An­satz gibt.

Als naturwissenschaftlich ausgebildeter Ingenieur steht man diesen politischen Abenteuern fas­sungslos gegenüber und sucht nach einer Erklärung für eine solche de facto Selbstmord-Strategie.

Das von Angela Merkel auf der Vorkonferenz in Elmau maßgeblich konzipierte Programm der  COP 21 in Paris, bedeutet praktisch: 40.000 „Revolutionäre“ beschließen einen neuen Morgenthau­plan! 

Der Morgenthauplan war bekanntlich der nach Ende des zweiten Weltkriegs 1944 vom US Finanz­minister Mor­genthau entworfene Plan einer vollständigen Deindustrialisierung Deutschlands, das auf den Status eines Agrarlands zurückentwickelt werden sollte. Insbesondere sollte die Montanin­dustrie an Ruhr und Saar total beendet werden. Das Wort „Dekarbonisierung“ gab es damals noch nicht, aber es beschreibt genau das!

Exkurs

zu den naturwissenschaftlichen Grundlagen der Hypothese von der menschlich verursachten globa­len Erwärmung kurz AGW-Hypothese (Anthropogenic Global Warming).

Zur Begründung wurde  ein Gedanke herangezogen, den zuerst Jean Babtiste Fourier im Jahr 1824 beschrieben hat. Einfallendes Licht erwärmt den Erdboden, die vom Erdboden dadurch emittierte Wärmestrah­lung wird aber in der Atmosphäre irgendwie absorbiert und erwärmt (Fourier kannte die Strahlungsei­genschaften der Gase noch nicht).

Ausgehend von diesen Ideen beschrieb John Tyndall 1862 einen auf den Strahlungseigenschaften der Gase beruhenden Treibhauseffekt. Er erkannte, dass dafür im wesentlichen der Wasserdampf verantwortlich ist, aber auch CO2 eine Rolle spielt. Auf diesen Ideen aufbauend leitete der Physiko- Chemiker Svante Arrhenius (1859 – 1927) im Jahr 1896 ein Klimamodell ab, mit dem er versuchte, die Eiszeiten zu erklären.

Diese Thesen hatten nur ein kurzes Leben. Sie wurden bereits von den berühmten Physikern Gustav Kirchhoff (1824 – 1887) und Robert Bunsen (1811 – 1899) widerlegt. Kirchhoff und Bun­sen wie­sen anhand der von ihnen aufgestellten und noch heute Bestandteil des elementaren Physikunter­richts bildenden Grundlagen der Wärmeübertragung durch Strahlung nach, dass die Erdatmo­sphäre als offenes System nicht mit einem Treibhaus verglichen werden darf. Ein strahlender, annähernd schwarzer Körper kann von keiner nur selektiv Strahlung absorbierenden Schicht an seiner Abküh­lung gegen einen kalten Hintergrund behindert werden. Insbesondere ist auch eine Wärmeübertra­gung aus der kalten Hochatmosphär­e auf den warmen Erd­boden weder durch eine „Gegenstrahlung“ noch durch sonst einen Me­chanismus möglich, da dies dem 2. Hauptsatz der Thermodynamik widerspricht!

Die Erde kann nicht mit einem Treibhaus verglichen werden, da das für die Funktion eines Treib­hauses entscheidende Bauelement eines Glasdachs fehlt. Der reale Treibhauseffekt beruht nicht auf Strahlungswirkung sondern auf der Behinderung des konvektiven Wärmeaustauschs mit der Umge­bung. 1906 lieferte der amerikanische Physiker William R. Wood dafür auch einen experi­mentellen Beweis durch Vergleich zweier Treibhausmodelle mit ei­nem für Wärmestrahlung durchlässigen und einem undurchlässigen Glasdach. Beide erwärmen sich ungefähr gleich. Die Strahlung spielt keine Rolle.

Mehr ist dazu nicht zu sagen. So funktioniert Naturwissenschaft: Neue Ideen werden geboren und müssen ei­ner Prüfung anhand erprobter Gesetze, Messungen und Beobachtungen standhalten oder werden verworfenen. Das ist die naturwissen­schaftliche Methode, wie sie von dem bedeutenden Philoso­phen Karl Popper[1] in „Conjectures und Refutations“ beschrieben ist. Die letzte Instanz für die Ent­scheidung, ob eine The­se Anerkennung findet oder verworfen werden muss, ist immer die Beobach­tung.

Die klarste Antwort gibt in diesem Fall die Paläoklimatologie: Selbst unter Beachtung der Tatsache, dass derartige über Jahrmillionen gehende und auf verschiedene Proxydaten zugreifende Darstellun­gen eine vielleicht relativ große Unsicherheit aufweisen, zeigt das Diagramm eindeutig: Es gab und gibt keine Steuerung der globalen Temperatur der Troposphäre durch ihren CO2-Gehalt!

Abbildung 1. Verlauf der CO2 Konzentration und er globalen Mitteltemperatur über geologische Zeiträume.

Beide Größen zeigen aber extreme Werte, die weit über die aktuellen, alarmistisch diskutierten Wer­te hinausgehen. Insbesondere mit CO2 -Gehalten die mehr als 10 fach über den heutigen Werten lie­gen ohne dass lebensbedrohliche Temperaturen erreicht wurden.

Siehe Bild oben

Ausgangspunkt des gegenwärtig einen großen Teil der Industrieländer gefährdenden Ökowahns war wahrscheinlich die vom Club of Rom in die Vorstellung der Massen gerückte malthusianistische[2] Vorstellung von den Grenzen des Wachstums, die insbesondere der kapitalisti­schen Wirtschaft ein Ende bereiten werden. Dies ist der Vorläufer, der heute von der Umweltbewegung entwickelten Hy­pothese des „Ökologischen Fußabdrucks“[3].

Nach dieser in Deutschland vor allem durch Ernst Ulrich von Weizsäcker vertretenen These gibt es in den Industrieländern große „Nachhaltigkeitsdefizite“ gegenüber den Entwicklungsländern. Die Daten werden vom Global Footprint Network erhoben. Dabei wird die für einem Menschen durch­schnittlich verfügbare Land- und Wasserfläche (die sogenannte „Biokapazität“) der von diesem Menschen in Anspruch genommenen Fläche gegenüber gestellt. Die von den Bürgern der Industrie­länder in Anspruch genommene Fläche ist dabei im Vergleich zu der in den Entwicklungsländern pro Kopf verfügbaren Fläche zu groß.  Slogan: Wollten alle Menschen die von den Bewohnern der Industrie­länder beansprucht Fläche nutzen, brauchte man eine zweite Erde!

In diese Berechnungen werden nicht nur die reinen Produktionsflächen, etwa für die Lebensmittel­produktion  einbezogen, sondern z.B. auch Ansätze für die Müllentsorgung. Einen großen Teil nimmt die Energiewirtschaft ein, bei der etwa die Waldfläche berechnet wird, die not­wendig ist, um die auf eine Person entfallende Kohlendioxidemmission zu neutralisieren. Wie man leicht erkennt, bietet das Konzept eine große Anzahl von willkürlich anwendbaren Stellschrauben, die letztlich je­des gewünschte Ergebnis einstellbar machen.

Das Konzept ist sehr gut und einprägsam zu veranschaulichen. Das Global Footprint Network be­rechnet z.B. jährlich den „Earth Overshoot Day“, ab dem die von der Menschheit konsumierten Ressourcen die Kapazität der Erde übersteigen. Im Jahr 2012 war dies der 22.August!

Im Jahr 2009 wurden auf Grund dieser Konzepte von einem 28 köpfigen Wissenschaftlerteam soge­nannte „Planetary Bounderies“ als ökologische Grenzen der Erde definiert, die von einer künftigen Menschheit nicht überschritten werden dürfen. Zu diesem Team gehörte, man könnte fast sagen selbstverständlich, auch Hans-Joachim Schellnhuber vom Potsdam Institut für Klimafolgenfor­schung (PIK), der die Verbindung der malthusianistischen Ressourcenerschöpfungs-Theorie mit der Klimapolitik herstellte.  Auch die Atmosphäre wird zu einem knappen Gut. Die Treibhaus­gas-Hypothese wird wiederbelebt und behauptet, es dürften nur noch sehr begrenzte Mengen von CO2 in der Atmosphäre „abgelagert“ werden.

Dies wurde sehr offen bereits in dem oft zitierten Statement des Geschäftsführers des PIK[4], Otmar Edenhofer ausgesprochen.  Er sagte 2010 auf der Klimakonferenz in Cancun:

Der Klimagipfel ist keine Klimakonferenz, sondern eine der größten Wirtschaftskonferenzen seit dem zweiten Weltkrieg. Warum? Weil wir noch 11.000 Gigatonnen Kohlenstoff ..unter unseren Füßen haben..und wir dürfen nur noch 400 Gigatonnen in der Atmosphäre ablagern, wenn wir das Zweigrad-Ziel einhalten wol­len.“ Und weiter: „Zunächst haben wir Industrieländer die Atmosphäre der Weltgesellschaft quasi enteignet. Aber man muss klar sagen: Wir verteilen durch die Klimapolitik de facto das Weltvermö­gen  um“.

Er unterstellt damit, dass es den bereits widerlegten Zusammenhang zwischen Klima und CO2 Ge­halt der Troposphäre gibt und dass er sogar die diesbezüglichen quantitativen Verhältnisse kennt.

Hier wird jetzt eine der Quellen sichtbar, die zu dem gegenwärtigen allumfassenden Klimawahn ge­führt hat.

Es kann als gesichert gelten, dass  eine Gruppe von Aktivisten um den damaligen US Präsident­schaftskandidat Al Gore auf dieser Grundlage eine Geschäftsidee entwickelte.

Ein Maximalgehalt der Erdatmosphäre  an CO2 wird zu einer begrenzten Ressource definiert und damit zum Gegenstand einer Mangelverwaltung mit Hilfe von Kohlenstoffsteuern. Der „Spiegel“ (Heft 33, 1986) erscheint mit dem Titelbild des im Meer versinkenden Kölner Doms und der Unter­schrift: „Die Klimakatastrophe“. Durch die Rationierung der Erlaubnis Kohlendioxid zu emittieren wird ein neues knappes Gut erschaffen, das bezahlt werden muss.  ( Hartmut Bachmann, Die Lüge der Klimakatastrophe, 6. Auflage 2010). Durch die sehr guten Verbindungen dieser Clique findet diese Idee den Weg in den US-Senat und in die große Politik. AGW ist bei der UN angekommen.

Hier vermählt sich die Geschäftsidee mit der in den 70iger Jahren auf der oben beschriebenen Mal­thusianistischen Ideen allseits um sich greifenden antikapitalistischen Ideologie.

Als Hauptakteur fungierte James Hansen, bis 2013 Head of NASA Goddard Institute for Space Stu­dies und Freund Al Gores. Hansen war es, der das AGW-Konzept über den US-Senat zum Gegen­stand der UN machte, was zur Gründung des UNFCCC[5] und des IPCC[6] führte.

Eine weitere Zentralfigur war  der US Klimatologen Michael Mann[7], der aus Baumringdaten für die letzten 2000 Jahre nachzuweisen versuchte, dass allein menschliche CO2 Emissionen des letzten Viertels des 20. Jahrhunderts einen dramatischen Anstieg der Globaltemperatur verursacht haben.

In dieser Kurve zeigt er eine über die letzten 2000 Jahre gleichmäßige Temperatur in der Tropo­sphäre mit einem plötzlichen steilen Anstieg in dem letzten Quartal des 20. Jahrhunderts,  (die soge­nannte Hockeystick-Kurve).  Diese  Kurve unterschlägt die seit langem bekannten Perioden der „Mittelalterlichen Warmzeit“ und der „Kleinen Eiszeit“ .Sie  ist eine Fälschung[8]  wie von Steven McIntyre und Ross McKitrick (Universtiy of Guelpf) in einer detaillierten Analyse der von Mann benutzten statis­tischen Verfahren bewiesen wurde. Dieser Betrug war den Akteuren durchaus be­wusst, wie später aus dem gehackten Server der University of East Anglia öffentlich zugänglich ge­wordenen E-Mail­verkehr zwischen den Beteiligten hervorgeht.  Es handelt sich um den vielleicht größten Wis­senschaftsskandal der Neuzeit, der inzwischen als „Climate Gate“ in die Wissenschafts­geschichte ein­gegangen ist.

Die zweite, heute die Diskussion dominierende Quelle des allgemeinen Klimawahns ist vermutlich die oben geschilderte, vom Club of Rom wiederbelebte, Debatte über eine drohende Verknappung vieler Ressourcen,  eine Verteilungsgerechtigkeitsdebatte entsteht mit der Tendenz zu einer neuen Art von Sozialismus.

Ziel ist die Vernichtung der kapitalistischen Marktwirtschaft zugunsten einer angeblich gerechteren Welt. Ideologische Basis ist die angebliche Bedrohung der Welt durch eine von der menschlichen Industriegesellschaft verursachte, gefährliche, weltweite Erwärmung durch zu hohe Emissionen von Kohlendioxid CO2 .  Die AGW Hypothese wird nun zunehmend mit einem keine Diskussion dulden­den  Absolutheitsanspruch vom UNFCCC[9] vertreten. Sie hat inzwischen religionsartige Züge ange­nommen und den Status eines nicht mehr hin­terfragbaren Dogmas erreicht.

Die derzeitige Vorsitzende des UNFCCC, Christiana Figueres,

Zitat: „Das ist das erste Mal in der Geschichte der Menschheit, dass wir es uns absichtlich zur Aufgabe gemacht haben ,innerhalb ei­ner festgelegten Zeitspanne das seit der industriellen Revolution für mindestens 150 Jahre vorherr­schende Leitbild der wirtschaftlichen Entwicklung zu ändern“. Und weiter: “Dies ist wahrschein­lich die schwierigste Aufgabe, die wir uns je gegeben haben. Absichtlich das Leitbild der wirt­schaftlichen Entwicklung zu transformieren …“.  

Dazu bedient sich die UNFCCC u.a. der jeweils für politische Zwecke erstellten Zusammenfassun­gen der Berichte des IPCC[10],  dem oft als wis­senschaftliche Organisation missverstan­denen Weltkli­marat. Dieser wurde 1988 vom Umweltprogramm der vereinten Nationen (UNEP) und der Weltor­ganisation für Meteorologie (WMO) als zwischenstaatliche Organisation ins Leben gerufen, um für politische Entscheidungsträger den Stand der wissenschaftlichen Forschung zusammen zu fassen. Die „Rechtmäßigkeit der wissenschaftlichen Inhalte“ von IPCC Berichten erkennen Regie­rungen durch die Verabschiedung der jeweiligen „Zusammenfassung für politische Entscheidungs­träger“ an (Siehe z.B. Wikipedia).

Auftragsgemäß und allen anerkannten wissenschaftlichen Gepflogenheiten widersprechend wird da­bei die AGW These nicht auf ihre Gültigkeit geprüft, sondern es werden nur die These eventuell stützende Argumente gesammelt und flächendeckend in die öffentliche Mei­nung transportiert.

Wie oben bereits erläutert ist aus paläoklimatologischen Daten über Millionen von Jahren leicht nachweisbar, dass das in der Troposphäre vorhandene Kohlendioxid nie einen steuernden Einfluss auf die Temperatur gehabt hat.

Die AGW-Hypothese ist aber gegen auf naturwissenschaftlicher Basis vorgebrachte Argumente im­munisiert, da es den Vertretern dieser These erfolgreich gelungen ist, die Beweislast umzukehren.

Seit den bahnbrechende Arbeiten Sir Karl Poppers zur Theorie der Naturwissenschaften wissen wir, dass die Gültigkeit naturwissenschaftlicher Aussagen nicht beweisbar sondern nur gegebenenfalls falsifizierbar ist.

Es ist daher nicht Aufgabe der etablierten meteorologischen Wissenschaft zu beweisen, dass die Be­hauptungen des IPCC falsch sind, sondern es wäre Aufgabe des IPCC zu beweisen, dass die auf vie­len Beobachtungsdaten beruhende Nullhypothese: „CO2 hat keinen Einfluss auf das Klima“ falsch ist. Diesen Nachweis hat das IPCC in bisher 5 umfangreichen Berichten nicht geführt und letztlich nicht einmal ernsthaft versucht.

Speziell für die Beratung der deutschen Regierung wurde ein weiteres Gremium, der WBGU[11], ge­schaffen. Es wird nicht überraschen, dass der Vorsitzende auch hier der Gottvater der Klimareligion Hans-Joachim Schellnhuber ist. Dieser Rat wurde 1992 vor dem sogenannten „Erdgipfel von Rio“ als „unabhängiges“ Beratergremium gegründet, das von der Bundesregierung mit der Erstellung von Sondergutachten beauftragt werden kann. Die Mitglieder werden vom Bundeskabinett berufen (wodurch garantiert ist, dass der jeweilige Rat das gewünschte Ergebnis liefert).  Der Rat legt der Bundesregierung jährlich ein Hauptgutachten vor zum Thema „Welt im Wandel“.

Welche konkreten Vorstellungen Angela Merkels Berater dabei im Auge haben ist  beschrieben im   Hauptgutachten 2011 unter dem Titel:

„Gesellschaftsvertrag für eine Große Transformation“. In der Einführung heißt es: „Dieser Be­richt begründet die dringende Notwendigkeit einer post-fossilen Wirtschaftsweise, zeigt zugleich die Machbarkeit der Wende zur Nachhaltigkeit auf und präsentiert zehn konkrete Maßnahmenbün­del zur Beschleunigung des erfor­derlichen Umbaus. … Damit die Transformation tatsächlich gelin­gen kann, muss ein Gesellschaftsvertrag zur Innovation durch einen neuartigen Diskurs zwischen Regierungen und Bürgern innerhalb und außerhalb des Nationalstaats geschlossen werden.“

Und weiter:

„ …dass dies nur gelingen kann, wenn Staaten, Unternehmen und die gesamte Zivilge­sellschaft gemeinsam die richtigen Weichen stellen und alle Mittel der regionalen und globalen Zu­sammenarbeit ausschöpfen.“

Welche Weichen richtig sind entscheidet der WBGU zusammen mit dem Sekretariat der Klimarah­menkonvention der Vereinten Nationen UNFCCC. Für den noch unter dem Nationalsozialismus aufgewachsenen Autor klingt dies in Sprache und Diktion wie ein Auszug aus einem Kompilat von „Mein Kampf“ und dem „Kommunistischen Manifest“. Dieser Stil setzt sich dann auch in den hier speziell diskutierten Ausführungen zur Klima- und Energiepolitik fort.

Das in der gesamten Öffentlichkeit gefeierte Ergebnis der COP 21 in Paris war, dass man sich geei­nigt habe, den unterstellten Anstieg der Globaltemperatur bis 2050 auf deutlich unter 2° zu begren­zen und Anstrengungen zu unternehmen für eine Begrenzung auf 1,5°. Für Deutschland wird dazu ein klarer Auftrag abgeleitet, einen „konsequenten und ambitionierten Klimaschutzpfad einzu­schlagen“. Dieser muss gemäß den Autoren des WBGU einen Rückgang der Treibhausgas Emissionen gegenüber 1990 um mindestens 95% bis 2050 erreichen, Schlagwort: Dekarboni­sierung!

Man sollte erwarten, dass bei einem derart konkret formulierten Ziel eine klare Vorstellung zu Grunde liegt, wie viel CO2 das denn ist, was da eingespart werden muss und welchen Beitrag zur Vermeidung eines gefährlichen Temperaturanstiegs das denn bringt.  Das heißt, es müsste eine Kau­salfunktion der Abhängigkeit der Globaltemperatur vom CO2 Gehalt der Atmosphäre existieren in der Form:  delta TGlobal = f (CO2 Gehalt).

Eine mögliche Quelle, die hier Auskunft geben müsste, ist das 2014 erschienene Sondergutachten des WBGU: „Klimaschutz als Weltbürgerbewegung“.  Ein gewaltiger pseudo­wissenschaftlicher Schwulst im Auftrag des Bundesministeriums für Bildung und Forschung und des Bundesministeri­ums für Umwelt, Naturschutz, Bau- und Reaktorsicherheit. Dort heißt es auf Seite 1 (Hervorhebun­gen durch den Autor):

„Der 5. Sachstandsbericht des Weltklimarates (IPCC) macht unmissverständlich klar: Inakzeptable Klimafolgen, die sich jenseits der 2°C Leitplanke häufen dürften, können nur vermieden werden, wenn der weitere Anstieg der Treibhausgaskonzentration so bald wie möglich gestoppt wird. Der WBGU empfiehlt daher, die CO2 Emissionen aus fossilen Energieträgern  bis spätestens 2070 auf Null zu senken“. 

Und weiter:

„Der Weltgesellschaft als Ganzes steht ein eng begrenztes Kohlenstoffbudget zur Verfügung, so dass der Scheitelpunkt der Emissionen möglichst bis 2020, auf alle Fälle aber in der dritten Dekade er­reicht werden sollte.“

Als Begründung für diese, den Selbstmord des Industriestandorts Deutschland bedeuten würdenden Forderungen heißt es noch auf Seite 1:

„Die Aussagen des 5. IPCC Sachstandsberichts sind ein­deutig: Der Klimawandel findet statt und der Einfluss des Menschen ist unstrittig. Die Beweis­lage zur globalen Erwärmung ist überwältigend. Bei ungebremster Treibhausgasemission könnte bis Ende des Jahrhunderts ein globaler Temperaturanstieg von mehr 4°C erfolgen.“

Sucht man im Bericht nun nach den angeblichen Beweisen, findet man zunächst (Seite 5) ohne ir­gend eine über einen Hinweis auf das IPCC hinausgehende Quellenangabe die übliche bereits viel­fach widerlegte Behauptung:

„Es besteht kein Zweifel mehr: das Klimasystem erwärmt sich. Beobachtungen von Atmosphäre, Ozean und Eis zeigen eine fortschreitende Erwärmung der Erde…“.

Auf Seite 6 heißt es dann aber interessanter Weise:

„Der globale Temperaturtrend unterliegt einer starken Variabilität, die auf natürliche interne Schwankungen des Klimasystems zurückzuführen ist, z.B. auf Phänomene wie El Nino / südliche Oszillation (ENSO) oder die Pazifische Dekadische Os­zillation (PDO). Diese interne Variabilität des Klimasystems kann den langfristigen Klimatrend für kurze Zeit verstärken, abschwächen oder sogar umkehren. Solche Variationen sind häufig in Beob­achtungen zu finden, aber auch Klimamodelle sind in der Lage, solche Fälle zu simulieren. Aller­dings erlauben die Modelle keine genaue zeitliche Vorhersage von solchen Variationen auf einer Zeitskala von wenigen Jahren.“.

Nach diesen durchaus kritischen Feststellungen diskutiert der Bericht dann ausführlich viele teils sehr vage Vorstellungen, wo denn die glaubensgemäß ständig weiter zugeführte aber real nicht nachweisbare Wärme wohl ge­blieben sein könnte. Die Schwierigkeiten der Modellbildung werden erörtert, aber ein ständiger Fortschritt dabei festgestellt, der die neueren Modelle in die Lage ver­setzt zuverlässige Szenerien der Klimaentwicklung zu erstellen mit den geschilderten bedrohlichen Konsequenzen für die Erde.

Abbildung 2: "Nicht ganz perfekte" Klimamodelle im Vergleich zur Realität. Die Abweichung zwischen den Satelliten Mitteln und der Modell Mittel liegen heute bei ca. 0,5 K. Das ist mehr als die Hälfte des gesamten Anstiegs des letzten Jahrhunderts.

Auf Seite 11 heißt es:

„Obwohl sie noch nicht perfekt sind, gehören Klimamodelle sicherlich zu den besten Werkzeugen unserer Gesellschaft, um bestimmte Aspekte der Zukunft zu projizieren. Damit stellen sie eine solide Basis für Entscheidungsprozesse dar.

Die Basis sieht dann wie folgt aus:

Mit den laufend fortentwickelten Modellen wurden Szenarien erstellt, sogenannte „Representative Concentration Pathways (RCPs). Ausgehend von vorgegebenen von der Konzentration von Treib-h­ausgasen abhängigen „Strahlungsantrieben“ von 2.6, 4.5, 6.0 und 8.5 W/m² wurden Er­wärmungsszenarien gerechnet. Die niedrigste (RCP 2.6) hält die 2° Leitplanke mit 66% Wahr­scheinlichkeit ein. Mit den Klimamodellen wurden „die Antwortmuster des Klimasystems auf ver­schiedene indivi­duelle externe Anregungen“ untersucht. „Aus dem Vergleich dieser Experimente geht eindeutig her­vor, dass die beobachtete Erwärmung der letzten 50 Jahre weder durch interne Va­riabilität noch durch natürlich, externe Anregung zustande kommt, sondern nur durch den durch an­thropogene Emission erzeugten Anstieg im CO2 – Gehalt der Atmosphäre erklärt werden kann“ .

Daraus resul­tiert auch die Aussage im 5. IPCC Sachstandsbericht:

„Dass es „extrem wahrscheinlich (> 95%)ist, dass mehr als die Hälfte des beobachteten Anstiegs der Oberflächentemperatur der Erde von 1951 bis 2010 durch menschliche Aktivitäten zustand gekommen ist.“

Die Klimasensitivität wird definiert als die Änderung der Oberflächentemperatur der Erde bei einer Verdoppelung des CO2 Gehalts nachdem der Gleichgewichtszustand erreicht ist.

Abbildung 3:Entwicklung des CS Wertes gem. verschiedener Studien. Trend: Je jünger desto geringer. Zuletzt Harde [1] CS = 0.45K ± 30 %, andere 0,3 bis 1 K. Das IPCC schreibt dazu in der Summary for Policymakers, SPM auf Seite 16, aber nur als Fußnote"No best estimate for equilibrum climate sensitivity; d.h der Wert ist unbekannt, aber deutlich kleiner als 3 K

WBGU:

„Nach neuen, besser fundierten Abschätzungen durch den IPCC (Collins et. all) liegt der Wert mit > 66% Wahr­scheinlichkeit zwischen 1,5° und 4,5° C“.

Es wimmelt von Konjunktiven und „Wahrschein­lichkeiten“.

 

Wie man sofort sieht, sind diese Aussagen widersprüchlich in sich. Die gemäß AGW-These eindeu­tig und unstrittig auf die menschlichen CO2 Emissionen zurückführbaren Änderungen des Klimas werden mit Wahrscheinlichkeitsaussagen präzisiert.  Der dabei verwendete Wahrscheinlichkeitsbe­griff ist darüber hinaus falsch!

In der mathematischen Statistik versteht man unter Wahrscheinlichkeit die Häufigkeit, mit der ein bestimmtes Ereignis eintritt, als Ergebnis von Experimenten oder Beobachtungen mit verschiedenen prinzipiell nicht vorhersagbaren Ergebnissen. Als Beispiel dient oft der Wurf von Würfeln, bei dem die Wahrscheinlichkeit des Auftretens einer bestimmten Augenzahl angegeben wird.

Ein mit dieser Definition vergleichbarer Vorgang liegt aber hier nicht vor.  Es werden ja ausdrück­lich „Experimente“ mit Computermodellen beschrieben. Computersimulationen sind aber grund­sätzlich deterministisch und zeigen bei gleichen Eingaben immer die gleichen Ergebnisse. Den glei­chen elementaren Fehler machen die Studienautoren im Zusammenhang mit der sogenannten Kli­masensitivität. Auch dies ist definitionsgemäß keine stochastische Variable sondern eine determinis­tische Größe. Die Angabe einer Wahrscheinlichkeit, mit der diese Größe einen bestimmten Erwar­tungswert annimmt ist daher sinnlos. Die Temperaturzunahme, die von einer gegebenen Erhö­hung des CO2-Gehalts verursacht wird, sollte definitionsgemäß ein physikalischer Prozess sein. Dass die­se Größe schwer be­stimmbar ist, liegt an der Komplexität des Systems und nicht an einer prinzipiel­len Unbestimmbar­keit wie etwa beim Würfelspiel.

Die in Paris beschlossenen Maßnahmen zu einem vollständigen mit einer gigantischen Kapi­talvernichtung einhergehenden Umbau der gesamten Weltwirtschaft auf Basis letztlich völlig irrelevanter Computerspiele müssen daher als ein Gipfel der Inkompetenz und Verantwor­tungslosigkeit der daran beteiligten Regierungen angesehen werden.

Welche Ziele Angela Merkel eigentlich umtreiben, soll hier nicht im einzelnen analysiert werden. Klares Kennzeichen ihrer Politik ist, dass sie an einer an ordoliberalen Prinzipien orientierten Marktwirtschaft ebenso wenig interessiert ist, wie an einem Schutz privaten Kapitals oder verant­wortungsvollem Umgang mit Steuergeldern.

Ihren ersten offenbar aus einer Mischung von Macht- und Umweltpolitik motivierten Vernichtungs­schlag führt sie gegen die deutsche Atomindustrie. Es gelingt ihr das entsprechende entschädigungs­lose Enteignungs­verfahren mit offensichtlich fadenscheinigen Begründungen innerhalb weniger Tage durch den in­zwischen zu einer oppositionsfreien Volkskammer entarteten Bundestag zu drücken. Sie hat die Chuzpe sich diese bis dahin größte Vernichtung privaten Kapitals von einem Ethikausschuss ohne große Fachkenntnisse absegnen zu lassen. Das ist Mittelalter, vergleichbar mit der seinerzeitigen Ablehnung der Erbauung des Panamakanals, weil es Gott nicht wollen könne, dass die amerikani­schen Kontinente getrennt werden.

Dieser erste Eingriff in die Privatwirtschaft wird seither übertroffen durch die Folgen der mit dem Atomausstieg gleichzeitig eingeführten Gesetze zur Umstellung auf „erneuerbare Energie“.  Die jährlich den privaten Haushalten zugunsten einiger Profiteure entzogenen Mittel überschreiten in­zwischen 24 Mrd: EUR und die auf den Haushalten in diesem Zusammenhang lastenden Verbind­lichkeiten überschreiten 300 Mrd. EUR.

Dies alles sind die bereits eingetretenen Auswirkungen der aktuellen, am Klimawahn ausgerichteten Politik. Die derzeitigen Akteure können nicht mehr zur Verantwortung gezogen werden, wenn das jetzt für die Zukunft entworfenen Weltbild eines dekarbonisierten Deutschland Wirklichkeit werden sollte. Eine Zeit, nachdem die letzte Dampf­turbine aufgehört hat, sich zu drehen, die letzte Tankstel­le abgerissen wurde, der letzte Hochofen ausgegangen ist und die Tore des letzten Stahlwerks für immer geschlossen wurden. Der letzte Ferienflieger hat abgehoben. Die Hausfrau oder der Haus­mann besteigen ihr Lastenfahrrad, um den Einkauf in ihr kaltes Haus zu bringen ehe der Smartzäh­ler im Haus den ohnehin zu warm eingestellten Kühlschrank abschaltet.

Soll das wirklich die Welt sein, die wir unseren Kindern hinterlassen wollen? Wo bleibt die von Kant beschworene Vernunft. Gibt es wirklich in Politik und Wirtschaft nur noch angepasste Mitläu­fer auf dem Weg in den Untergang dieses einst erfolgreichen Landes?

Wie es scheint, ist die AfD die einzige politische Kraft, die sich diesem  Wahnsinnsvorhaben entge­genstellt. Wird sie stark genug sein, Deutschland von diesem Selbstmordprogramm abzubringen?


[1]   Sir Karl Popper * 1902 in Wien, gest. 1994 London. Einer der bedeutendsten Philosophen des 20. Jahrhunderts. Be­gründer der modernen Wissenschaftstheorie. In seinem Buch „Conjectures and Refutations, The Growth of Scienti­fic Knowledge“ erklärt er, wie naturwissenschaftlicher Fortschritt durch Versuch und Irrtum entsteht.

[2]   Thomas Robert Malthus, * 1766 bei Dorking, Grafschaft Surray, gest. 1834. Britischer Ökonom. Verfasste mehrere Werke zur Bevölkerungstheorie, nach der biologischen Gesetzen folgend die Bevölkerungszahl exponentiell zu­nimmt, während die natürlichen Ressourcen nur in arithmetischer Progression zunehmen und schließlich überhaupt nicht mehr erweiterbar sind.

[3]   Ökologischer Fußabdruck: 1994 von Mathis Wackernagel und William Rees entwickeltes Konzept der Berechnung des Flächenanteils der Erdoberfläche, die ein Mensch unter heutigen Produktionsbedingungen dauerhaft braucht, um seinen Lebensstil aufrecht zu erhalten. Die Daten werden vom 2003 gegründeten Global Footprint Network in Hektar pro Person und Jahr angegeben.

[4]   Potsdam Institut für Klimafolgenforschung PIK. 1992 unter Leitung von Hans-Joachim Schellnhuber gegründetes Institut zur Untersuchung von Fragen im Bereich Nachhaltige Entwicklung und Klimawandel als Grundlage für Ent­scheidungen im Bereich Politik, Wirtschaft und Zivilgesellschaft. Unter A. Merkel auf 300 Mitarbeiter aufgepäppelt.

[5]   United Nations Framework Conventionon Climate Change UNFCCC. Gegründet 1992 derzeitiger Sitz des Sekreta­riats ist Bonn. Veranstalter der jährlichen „Parteitage“, der Klimakonferenzen (Conference of the Parties (COP)). Auftraggeber für das IPCC.).

[6]   IPCC Intergovernmental Panel on Climate Change, der sogenannte Weltklimarat. Keine Wissenschaftseinrichtung also sondern eine Lobby. Herausgeber sogenannter Sachstandsberichte, die die Existenz eines vom Menschen verur­sachten Klimawandels nachweisen sollen.

[7]   Michael E. Mann, Professor of Meteorology, Director Earth System Science Center, Pensylvenia State University

[8]   Ross McKitrick, University of Guelph Ontario. Member of Global Warming Policy Foundation zeigte, dass Mann’s Darstellung grundlegende Fehler in der Datenbehandlung aufwies und letztlich bei Eingabe beliebiger Daten immer das gleiche Ergebnis zeitigte.

[9]   UNFCCC:  UNITED Nations framework Convention on climate change.

[10] IPCC = Intergovernmentel Panel on climate change. Eine Lobby also, keine wissenschaftliche Institution.

[11] WBGU = Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen. Lokalisiert beim PIK. 

[12] Hermann Harde  Was trägt CO2 wirklich zur globalen Erwärmung bei




Zum Schieflachen: Klimaalarmistischer Diskussionsleitfaden “Ungewissheit gekonnt vermitteln”

Nun ist guter Rat natürlich teuer. Angesichts der kippenden wissenschaftlichen Faktenlage sehen sich die Klima-Lobbyisten immer stärkerer Kritik ausgesetzt. Die Klimaaktivistenplattform SkepticalScience hat nun für seine Anhänger einen Leitfaden zur Diskussion mit Andersdenkenden herausgegegeben, deren Lektüre zum mitleidigen Schmunzeln anregt:

Ungewissheit gekonnt vermitteln 
Hatten Sie schon irgendwann einmal Probleme damit, die Unsicherheiten beim Thema Klimawandel zu vermitteln? Sind sie frustriert über die Klima-Zweifler, die diese – in jedem komplexen wissenschaftlichen Gebiet vorkommende – Ungewissheit als Rechtfertigung ausnutzen, um politische Antworten hinauszuzögern? Dann ist “Ungewissheit gekonnt vermitteln” der richtige Ratgeber für Sie.

Nochmals: Dies ist kein Witz. Dies ist die Einleitung einer realen auf SkepticalScience vorgestellten Broschüre, auf die uns Leser Mr.U. dankenswerterweise hinwies. Mitverfasser der Handlungsanweisung ist der Hardcore Aktivist und experimentelle Psychologieprofessor Stephan Lewandowsky. Hier die Zehn – Verzeihung, Zwölf – Gebote der ungewissen Klimadiskussionsgesprächsführung:

1. Steuern Sie die Erwartungen Ihrer Zielgruppe

Soll heißen: Stellen Sie sicher, dass die Diskussionspartner nicht merken, wie wackelig das ganze Klimakatastrophengebäude ist. Am besten wäre es, wenn sie schon bei der bloßen Erwähnung eines heißen Sommertages Klimaalarmkrämpfe bekämen.

2. Beginnen Sie mit dem, was Sie wissen, nicht mit dem, was Sie nicht wissen

Problematisch, denn für die meisten klimaalarmistisch Diskutierenden wäre dann nämlich die Diskussion ziemlich schnell zuende. Testdiskussionen auf der Klimaretter-Webplattform zeigen dies in erschreckender Weise.

3. Stellen Sie den wissenschaftlichen Konsens deutlich heraus

Oder andersherum: Vermeiden Sie es tunlichst, die vielen Diskrepanzen und Probleme des klimaalarmistischen Konzepts zu erwähnen. Versuchen Sie Ihre Gesprächspartner vom Elefanten im Raum abzulenken. 

4. Verlagern Sie den Schwerpunkt von “Ungewissheit” zu “Risiko”’

Erstellen Sie ein totgefährliches Alarmszenario, das die gesamte Erde auslöscht, auch wenn das Risiko nur 0,03 Promille beträgt. Für etliche Zeitgenossen ist dies schon genug, ihr Leben vollkommen umzukrempeln. Vermeiden Sie dabei auf jeden Fall, andere nichtklimatische Probleme zu erwähnen, die bereits heute real existieren, also ein 100%-’Risiko’ darstellen. Die dem Klimawandel zugedachten Gelder fehlen der Bekämpfung der aktuellen Missstände. Stichworte sauberes Trinkwasser, Bildung, Diskriminierung, schlechte Staatsführung, Umweltverpestung durch Abrennen von tropischem Regenwald zum Anbau von Palmöl, etc. etc.

5. Machen Sie deutlich, über welche Art von Ungewissheit Sie reden
Eine häufige Strategie derjeniger, die den wissenschaftlichen Konsens ablehnen, ist es, absichtlich Verwirrung zu stiften und verschiedene Arten der Ungewissheit in einen Topf zu werfen. Es ist deshalb entscheidend, dass Sie deutlich machen, über welche Art von Ungewissheit Sie reden – Ursachen, Auswirkungen, Politik oder Lösungen – und die jeweils passende Sprache einzusetzen.

Was ist das für ein Unsinn?

6. Verstehen Sie, was die Meinungen der Leute zum Klimawandel beeinflusst
Die Ungewissheit über den Klimawandel ist bei Personen höher, die bei ihren politischen Werten nach rechts tendieren. Es gibt mittlerweile jedoch eine zunehmende Zahl von Forschungsergebnissen, die Wege aufzeigen, wie über den Klimawandel so berichtet werden kann, ohne dass das konservative Wertesystem bedroht wird, oder das eine Sprache verwendet wird, die bei Personen, die von Werten rechts der Mitte geprägt sind, Anklang findet.

Trick 17

7. Die wichtigste Frage zu Auswirkungen des Klimawandels ist “wann” und nicht “ob”

Falsch. Die wichtigste Frage ist “wieviel”. Welchen Wert hat die CO2-Klimasensibilität?

8. Verwenden Sie Bilder und Geschichten

Eines Tages ging Tante Trixi mit Hund Bello einkaufen. Auf dem Weg zum Kaufmannsladen wurden sie von einer Dürre überrascht. Schuld daran waren all die bösen Nachbarn von Tante Trixi, die mit dem Auto zur Arbeit fuhren und damit das Klima auf dem Gewissen hatten. Daraufhin beschloss sie, Klimaaktivistin zu werden. In unregelmäßigen Abständen stoch sie seither Autoreifen auf, um die Leute vom klimaschädlichen Autofahren abzuhalten. Anlässlich der Weihnachtsfeier erhielt Trixi die Große Klimaauszeichnung am grünen Bande.

9. Heben Sie die “positiven” Seiten der Ungewissheit hervor

Wieso sollte es positiv sein, wenn auf dieser wackeligen Basis weitreichende gesellschaftliche Veränderungen begründet werden?

10. Kommunizieren Sie effektiv über die Auswirkungen des Klimawandels

Dürfte schwierig sein, wenn die wissenschaftlichen Fakten so uneindeutig sind.

11. Führen Sie eine Unterhaltung und kein Streitgespräch
Trotz der überproportionalen Aufmerksamkeit, die “Skeptikern” in den Medien eingeräumt wird, reden oder denken die meisten Menschen vergleichsweise wenig über den Klimawandel nach. Dies bedeutet, dass schon alleine eine Unterhaltung über den Klimawandel – aber kein Streitgespräch oder eine simple Wiederholung eines Slogans – eine wirksame Methode hin zu mehr Engagement sein kann.

Der pure Hohn. Die Medien sind noch immer fest in der Hand der Klimaalarmisten. Meist verwehren sich die Aktivisten sogar einer Diskussion. Ist das wirklich alles, was die Aktivistenseite zu bieten hat? Aufforderung zur “simplen Wiederholung eines Slogans“?

12. Erzählen Sie eine menschliche Geschichte und keine wissenschaftliche

Warum? Weil die Wissenschaft den Klimaalarm nicht mehr deckt. Daher muss jetzt Tante Trixi ran.

Übernommen von Die kalte Sonne hier




Wie der von SPIEGEL-Online im Interview mit Hans v. Storch veröffentlichte sachliche Unsinn keine Grenzen mehr kennt.

Prof. Hans von Storch ist ein bekannter Klimaforscher, dessen berufliche Heimat das  Helmholtz-Zentrum Geesthacht – Zentrum für Material- und Küstenforschung (GKSS) war, wo er seit 1995 als Leiter des Instituts für Küstenforschung wirkte. Zudem ist er Professor am  Institut für Meteorologie der Universität Hamburg.

Das GKSS  war ursprünglich als Institut zur Erforschung von kerntechnischen Antrieben für die Seeschifffahrt gegründet. Nachdem aber die Forschung von kerntechnischen Anlagen keine öffentliche und vor allem keine finanzielle Unterstützung mehr erhielt, suchte man ein neues Aufgabengebiet für die dort versammelten Forscher. Weil Küste und Wetter eng zusammen gehören und die Meteorologie schon immer zu den – wenn auch Neben – Aufgaben der Geesthachter gehörten, sattelte man dort schnell auf die mit der Meteorologie eng verwandte Klimaforschung um. Diese ist bekanntlich sehr gut mit Geld ausgestattet und steht vor allem positiv im Brennpunkt der medialen Aufmerksamkeit. Jedenfalls solange, wie sie die politische Klimadoktrin nicht in Frage stellt. 

In-Frage-stellen war v. Storch´s Sache nie, wenn er sich auch gelegentlich mit scheinbar rebellischen, aber nicht wirklich neuen Äußerungen zur Klimadogmatik äußerte. Sein mutiges „die Hockeystick Kurve ist Quatsch“ sorgte für Furore, obwohl schon leichte Verwirrtheit und/oder Ignoranz nötig ist, um diese dreiste wissenschaftliche Fälschung des alarmistischen Klimaforschers M. Mann ernst zu nehmen. Diese Kurve wurde – sozusagen als smoking gun – immerhin noch im 3. IPCC Bericht (TAR) als endgültiger Beweis für die Schuld des Menschen an der kommenden Klimakatastrophe herangezogen. Zweifellos ein schöner Beleg dafür, was es mit diesem fragwürdigen Verein namens IPCC auf sich hat.

Ansonsten aber käut v. Storch brav die öffentliche Meinung vom anthropogen herbeigeführten Klimawandel wieder und lobt dabei u.a. Scheinbeweise aus Klimamodellen über den grünen Klee. Man will seine Forschungsmittel schließlich nicht gefährden. Als Haupt-Standortnutzer der Klimagroßcomputer, mit öffentlichen Geldern für Geesthacht erworben, verfährt man hier bestens gemäß bekannter Volksmundsweisheit – wes Brot ich ess des Lied ich sing.

V. Storchs Erhebung über alle Niedrigkeiten der Klima-Debatte machte ihn, neben den inzwischen an medialer Beliebtheit stark abnehmenden Fundamentalisten der Klimakirche, Mojib Latif und Hans-Joachim Schellnhuber, schnell zum Liebling derjenigen Medien, die sich als seriös gerieren. Die letztgenannten beiden Fundamentalisten sind freilich nur noch fürs Grobe gut – sozusagen für die wissenschaftliche Version der BILD-zeitung. Denn Selbstverbrennung bei nicht einmal 1 °C globaler Temperatursteigerung in 100 Jahren erzeugt schon mehr als leichtes Naserümpfen, viele zweifelen bereits am Verstand des Verfassers solcher Verbrennungs-Schmäh.

V. Storch pflegt und genießt dagegen den Ruf scheinbarer Seriosität. In demonstrativer Gewissenhaftigkeit berücksichtigt er sogar Unsicherheiten der Forschungserkenntnisse (na Donnerwetter, gibt es die in der Klimaforschung denn? Da ist man doch tatsächlich sprachlos). Nur so und im Besitz eines über allem erhabenen Fachwissens ist er dann als einzig Zuständiger befugt, die folgenschwere Entscheidung zu treffen: "Der aktuelle Klimawandel: Es ist der Mensch". "Hier stehe ich, ich kann nicht anders" unseres berühmten Reformators der Kirche ist nur ein laues Lüftchen gegen diese Demonstration wissenschaftlichen Sachverstands.

Hans v. Storch wurde nun vom Spiegel Redakteur Axel Bojanowski zu seiner „Verwandtschaft“ mit der AfD Europaabgeordneten – und Bundesvorstandsmitglied Beatrix von Storch befragt, aber natürlich ging es vorrangig um den Klimaprogrammentwurf der AfD, der am 30.4 und 1.5 in Stuttgart diskutiert und verabschiedet werden soll. Und der enthält einigen Zündstoff. Jedenfalls für die Medien.  Sie werden spätestens bei diesem Thema, wenn sie das nicht schon längst aus anderen Gründen getan haben, in Schnappatmung verfallen.

Und Zündstoff enthält es offensichtlich auch für unseren Scheinrebellen Hans v. Storch. Und wie es sich für einen v. Storch gehört, teilte er dabei kräftig aus.  Zuvor ließ er es aber zu, dass Bojanowski ihm in seiner Ahnungslosigkeit über Verwandtschaftsverhältnisse Frau v. Storch als „Verwandte“ unterschob, was sie keineswegs ist, sondern nur eine „Verschwägerte“. Dieser kleine Fehler war noch der geringste Problem des ganzen Interviews, wie wir gleich sehen werden.

Was zuvörderst im Interview peinlich auffällt, ist die bräsige Selbstgefälligkeit ja Arroganz des Hans v. Storch. Viele Zeitgenossen, die persönlich einmal mit ihm zu tun hatten, bestätigen diese Züge. Sein Urteil – so sieht er sich offenbar am liebsten – ist eben unumstößlich wahr, basta. Jeder Widerspruch fordert seinen Zorn heraus. Er beliebt über allen Lagern zu stehen – Pardon – zu schweben. Er genießt es sich in seinem Blog auszuleben, dessen ausgewählte Zuträger und Kommentatoren an die ehrerbietigen Postillenverfasser ehemaliger Höflinge unter Ludwig XIV erinnern.

Gegen unliebsame Kollegen, wie beispielsweise Prof. Vahrenholt, befleißigt er sich dagegen eines akademisch-pöbelhaften Benehmens, das früher (heute wohl nicht mehr) im Wissenschaftsbereich unbekannt war. Diskussionsverweigerung gehört in andere Sparten als die der Wissenschaft. Arroganz, Selbstgefälligkeit und schlechte Manieren aber nun mal beseite: Wie steht es um die Ehrlichkeit, Wahrhaftigkeit und Originalität seiner Aussagen im Interview?

Zitieren wir dazu erst einmal die Kernfrage von SPON und schauen uns dann den Sachgehalt der Antwort von v. Storch an.

SPONJetzt greift die AfD aber auch noch in Ihr Fachgebiet ein, in die Klimaforschung. In einem AfD-Programmentwurf wird der menschengemachte Klimawandel als Märchen abgetan, das Treibhausgas CO2 als nützlicher Pflanzendünger bezeichnet, die Klimaprognose-Modelle als Unfug und Klimaschutz als gesellschaftsschädlich.

v. StorchWas die AfD da zum Klimawandel schreibt, ist pure Ideologie. Mich erinnert es an das Gedicht "Die unmögliche Tatsache" von Christian Morgenstern.

Dieser Kommentar des Klimaforschers von Storch zeigt zunächst mal nur, dass er den Entwurf nicht gelesen hat, nicht gelesen haben kann. Jedenfalls findet sich nichts von Ideologie im Entwurf, es sei denn, eigene Vorurteile machen faktenblind. Um dem starkem Tobak des v. Storch auf den Grund zu gehen, ist deshalb zuerst der Wortlaut aus dem AfD-Programmentwurf von Nutzen. Er ist:

"Das Klima wandelt sich, solange die Erde existiert. Die Klimaschutzpolitik beruht auf untauglichen Computer‐Modellen des IPCC („Weltklimarat“). Kohlendioxid (CO2) ist kein Schadstoff,  sondern ein unverzichtbarer Bestandteil allen Lebens.  Der IPCC versucht nachzuweisen, dass die Menschen gemachten CO2‐Emissionen zu einer globalen Erwärmung mit schwerwiegenden Folgen für die Menschheit führen. Hierzu beruft man sich auf Computermodelle, deren Aussagen durch Messungen oder Beobachtungen nicht bestätigt werden. Solange die Erde eine Atmosphäre hat, gibt es Kalt‐ und Warmzeiten. Wir leben heute in einer Warmzeit mit Temperaturen ähnlich der mittelalterlichen und der römischen Warmzeit. Die IPCC‐Computermodelle können diese Klimaänderungen nicht erklären. Im 20. Jahrhundert stieg die globale Mitteltemperatur um etwa 0,8 Grad. Seit über 18 Jahren gibt es jedoch im Widerspruch zu den IPCC‐Prognosen keinen Anstieg, obwohl in diesem Zeitraum die CO2‐Emission stärker denn je gestiegen ist. IPCC und deutsche Regierung unterschlagen die positive Wirkung des CO2 auf das Pflanzenwachstum und damit auf die Welternährung. Je mehr es davon in der Atmosphäre gibt, umso kräftiger fällt das Pflanzenwachstum aus". 

Gehen wir diesen Entwurf, zu welchem dem großen Hans v.Storch nur die Abfälligkeit "pure Ideologie" einfiel, einmal Punkt für Punkt durch:

1) AfD: das Klima wandelt sich, solange die Erde besteht. Solange die Erde eine Atmosphäre hat, gibt es Kalt‐ und Warmzeiten.  Wir leben heute in einer Warmzeit mit Temperaturen ähnlich der mittelalterlichen und der römischen Warmzeit.

EIKE-Kommentar: Gibt es jemanden, der diese, jedem aufgeweckten Gymnasiasten bekannten Fakten abstreitet? Dies erscheint uns unmöglich. Konstantes Klima gab es noch nie.

  

2) AfD: Kohlendioxid (CO2) ist kein Schadstoff,  sondern ein unverzichtbarer Bestandteil allen Lebens.  

EIKE-Kommentar: Auch dies elementares Schul- und Lehrbuchwissen, von Ideologie keine Spur.

3) AfD: Die IPCC‐Computermodelle können diese Klimaänderungen nicht erklären.

EIKE- Kommentar: Dies ist zwar nur in Fachkreisen bekannt, aber dennoch unwiderlegte Tatsache. Nur die Modellierer und die Politik behaupten das Gegenteil. Beweise dafür sind sie bis heute schuldig geblieben. Klimamodelle können – je nachdem, was man an fiktiven Voraussetzungen in sie hineinsteckt – selbstverständlich alles erklären. Trotzdem gibt bis heute keine seriösen Modelle, die zumindest die Klimavergangenheit wiedergeben können oder gar den nächsten El Nino zuverlässig vorherzusagen in der Lage sind. Aber die Klimaentwicklung in allen Zonen der Erde über 100 Jahre vorhersagen, dass "können sie natürlich". Zudem ist es leider Fakt, dass es bis heute so gut wie keine belastbaren Erklärungen für Klimaänderungen gibt, von sehr wenigen Ausnahmen, etwa den sehr langfristigen Milankovitch-Zyklen, abgesehen. Aber selbst dort gibt es noch maßgebende ungelöste Fragen (welches sind die Gründe, warum die Eiszeiten zu bestimmten Zeiten abrupt aufhörten?). Wenn man keine schlüssigen physikalischen Erklärungen für Phänomene hat, sind ordentliche Modelle für diese Phänomene unmöglich.

4) AfD: Im 20. Jahrhundert stieg die globale Mitteltemperatur um etwa 0,8 Grad. Seit über 18 Jahren gibt es jedoch im Widerspruch zu den IPCC‐Prognosen keinen Anstieg, obwohl in diesem Zeitraum die CO2‐Emission stärker denn je gestiegen ist.

EIKE-Kommentar:  Das trifft zu, die Messwerte sind veröffentlicht, in Fachpublikationen und sogar im Internet für jedermann einsehbar. Seit wann sind Fakten Ideologie?

5) AfD: IPCC und deutsche Regierung unterschlagen die positive Wirkung des CO2 auf das Pflanzenwachstum und damit auf die Welternährung. Je mehr es davon in der Atmosphäre gibt, umso kräftiger fällt das Pflanzenwachstum aus".

EIKE-Kommentar: Zur "Unterschlagung" von IPCC und deutscher Regierung wollen wir hier besser nichts sagen. Zumindest ist uns vom Umweltministerium keine Verlautbarung über die fördernde Wirkung des CO2 für den Wuchs von Pflanzen (auch Nahrungspflanzen) bekannt.  Vielleicht hat ja auch der große Klimaforscher v.Storch für solche biologischen Petitessen kein Interesse, von ihnen keine Ahnung oder er hat einfach seinen Schulstoff vergessen. Zu seiner Erinnerung stellvertretend einige wissenschaftliche Publikationen dazu (hier, hier, hier).

Wir erlauben uns nach diesem kurzen Faktencheck die Bemerkung, dass wir trotz erheblicher Bemühungen keine Ideologie bei der AfD in ihrer Klima-Programmaussage feststellen können – alles sind schlichte Tatsachen. Vielleicht hilft uns Herr v. Storch ja auf die Sprünge, wir danken schon einmal im voraus.

Unser Résumé: Das SPON-Interview ist eine erbärmliche journalistische Fingerübung, um dem links-grünen Mainstream zu gefallen, zu dessen Speerspitze sich der SPIEGEL seit langem zählt. Konsequent abstürzende Auflagen danken es ihm. Und noch etwas scheint uns wichtig: Ein Wissenschaftler gibt seine Integrität auf, wenn er bei diesem Spielchen mit folgender Peinlichkeit mitmacht 

"Nein, die Argumente der AfD in Sachen Klimawandel beruhen nicht auf Wissenschaft. Es sind eher Stammtischparolen der Achtziger- und Neunzigerjahre."

Die befremdliche Argumentation des Herrn v.Storch "Die AfD schreibt, Klimamodelle seien falsch, weshalb der Klimawandel nicht bewiesen sei – das ist eine erschreckend ahnungslose Haltung" lässt die Frage aufkommen, warum er der ahnungslosen Haltung keine Fakten gegenüberstellt. Nur Vollidioten behaupten, der Klimawandel sei nicht bewiesen oder es gäbe ihn nicht. Zumindest die AfD sagt so etwas jedenfalls nicht. Wir gehen hier mal davon aus, dass v.Storch den menschgemachten Klimawandel meint und das Qualitätsmedium SPON salopp-implizit daraus "Klimawandelleugner" bastelte.

Aber, lieber Herr v.Storch: Wo sind denn nun Klimamodellrechnungen erfolgreich gewesen?

Uns ist da leider nichts bekannt, von unwesentlichen Details abgesehen, die in der Fachliteratur bis zum "Geht-Nicht-Mehr" hin- und her interpretiert werden. Wenn Modelle, die die Realität nicht wiedergeben können, für milliardenschwere Ausgaben politisch instrumentalisiert werden (Energiewende), so ist GENAU DIES pure Ideologie, oder volksnäher, eine Sauerei. Aus dem natürlichen Klimawandel kann man im Übrigen jede Art von Indizien herauslesen, sogar die für einen menschgemachten Klimawandel.

Am Ende – da ist er wieder ganz der Scheinrebell – wird v. Storch kleinlaut: "Einerseits haben die Modelle zwar Mängel, sie sind ja nur ein reduziertes Abbild der Realität, doch sie liefern brauchbare Ergebnisse. Zudem gibt es viele andere Indizien für einen menschengemachten Klimawandel, die von der AfD ignoriert werden." Dunnerlüttchen, "Mängel" hat v. Storch gesagt. Ist ja unglaublich! Übersetzen wir jetzt diese Bemerkung des v. Storch einfach einmal ins Deutsche: "Klimamodelle sind interessante intellektuelle Turnübungen, aber irgend einen Nachweis ihrer Treffsicherheit konnten sie bis heute definitiv nicht erbringen".

Dazu müsste noch unendlich viel passieren. Sie sind, gemessen an der Klimarealität, schlicht falsch. Schöner als v.Storch kann man sich eigentlich nicht selber widersprechen, größeren sachlichen Unsinn nicht von sich geben. Klimamodelle liefern also "nur ein reduziertes Abbild der Realität", so v. Storch. Aber die Komplexität und bekannte Sprunghaftigkeit des Klimageschehens können Sie dennoch befriedigend wiedergeben? Also jeder, der noch Substanz zwischen den Ohren hat, folgert zutreffend: Klimamodelle sind eben NICHT BRAUCHBAR. Bestes Beispiel lieferte sein verehrter Modellierungs-Kollege Mojib Latif, der im Jahre 2000 nichts besseres zu tun hatte, als auf der Basis seiner Modellrechnungen für die nächsten Jahre schneefreie Winter zu verkünden (hier).

Nun gibt es ja einschlägigere wissenschaftliche Persönlichkeiten als v. Storch, M. Laif, H.-J. Schellnhuber, S. Rahmstorf und wie sie so weiter. Wir nennen nur mal die beiden Physik-Nobelpreisträger Ivan Giaever und Robert Laughlin, beides erklärte Gegner und Zweifler einer menschgemachten Erwärmung (hier). Und wir wollen auch nicht den inzwischen über 90-jährigen Freeman Dyson vergessen, einer der einflussreichsten Physiker des 20. Jahrhunderts. Was Dyson von Klimamodellen hält, kann man (hier, hier, hier) nachlesen.

Zurück zu v. Storch mit " Tatsächlich geht es der AfD ja um eine Rückkehr zu vorgeblich guten alten Zeiten von Friede, Freude, Eierkuchen, wo Dinge nicht dauernd hinterfragt werden – und wo das Wetter ist, wie es ist." So dumm kann niemand sein, selbst v.Storch nicht, dies wirklich ernst zu meinen. Der AfD geht es unübersehbar darum, eine Sine-Effectu-Aktion (CO2-Vermeidung), deren wissenschaftliche Begründung zum Himmel stinkt und welche die deutsche Industrie und den Wohlstand der Bevölkerung nachhaltig schädigt (Energiewende), den Boden zu entziehen. Und genau HINTERFRAGEN will die AfD, kann v. Storch nicht lesen? Man mag von der AfD denken, was man mag, in ihrer Klimaaussage jedenfalls kann man sie nur nachhaltig unterstützen.    

Und der SPON bzw. sein Redakteur Axel Bojanowski? Augen zu und vergessen, das hat nichts mehr mit dem früheren SPIEGEL zu tun sondern ist zu einer rot-grün angestrichenen medialen Propaganda-Abteilung verkommen. War der SPIEGEL einstmals "Schreiben was ist", so wird nun geschreibselt was der – vermutlich ungeschriebene – Kodex von der Redaktion verlangt. Verständlich, denn ehrliche, sorgfältig recherchierende und neutral berichtende Journalisten "überleben" in den deutschen Medien nicht lange.

Wo aber bleibt das Positive? Zumindest zwei Zusammenhänge werden aus dieser abstrusen SPON-v.Storch-Interview-Schmonzette deutlich. Wer nicht ganz auf den Kopf gefallen ist, kann nach dem "investigativen" Artikel des SPON jetzt endlich etwas ganz Konkretes mit dem Begriff "Lügenpresse" verbinden. Zum zweiten kann er etwas mit den jüngsten Wahlergebnissen  der AfD anfangen, einer Partei, die ja gemäß deutschen Medien sämtlich nur aus "Stammtischmitgliedern der Achtziger- und Neunzigerjahre", wenn nicht gar noch schlimmeren Leuten besteht. Glücklicherweise sind die Wähler nicht so naiv, wie es sich die Medien im Allgemeinen, der SPON im Besonderen und Hans v. Storch in deren Schlepptau gerne wünschen.  

Man sollte der AfD bei ihrer Klima-Aufklärung die Daumen drücken. Sie wird damit weiteren politischen Erfolg ernten – vorausgesetzt, sie hält ihre ehrliche, schonungslose und kompromisslose Linie konsequent bei.




Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

Inhaltlich ist dies Publizierung eine Abrundung zur Darstellung der aktuellen Pegelverläufe in der Reihe:

[6] „Gehen die Südseeinseln wirklich wegen des Klimawandels unter?.

und Ergänzung zur Analyse der entsprechenden Temperaturwerte

[11]„Rekonstruierte Temperaturverläufe der letzten zwei Jahrtausende“

Wer schon immer einmal (nach-)sehen wollte, wie Daten zum historischen und vor-historischen Pegelverlauf aussehen, kann es durch diese Recherche in kompakter Form erfahren. Gesichtet wird in diesem Artikel grob der Zeitraum von 6.000, 3.000 und 2.000 Jahren vor heute (BP), also der Bereich des schon auslaufenden Pegelanstiegs.

Eiszeiten als Treiber des Meeresspiegels

Zuerst die Darstellung was die Natur an Klimavariabilität bietet und wie konsequent sie diese durchführt. Das Bild 1 zeigt den Meerespegel, die Temperatur verläuft also gegensätzlich. Ab Age 120 … 140 (kyr) begann die letzte Eiszeit und hatte ihren Höhepunkt vor ca. 20.000 Jahren. Aktuell beginnt eine Neue! – oder die Nächste fällt ganz aus wie es Prof. Schellnhuber vom PIK vorhersagt „Fällt die nächste Eiszeit aus?“ .

Bild 1 [25] 0.1 Zyklische Wiederholung von Eiszeiten (vom Autor ergänzt)

Der gelbe Ausschnitt von Bild 1 nun im Detail. Nach dem Ende (Time 20 (kyr b2k)) der letzten Eiszeit beginnt langsam das Zeitalter des Holozän (grüner Pfeil im gelb umrandeten Bereich, WIKIPEDIA: Holozän, Beginn genau vor 11.700 +-99 Jahren vor dem Jahr 2.000) in welchem sich die Menschheit aktuell befindet.

Bild 2 [9] Verlauf des Meeresspiegels seit ca. 140.000 Jahren. Grüner Pfeil: Beginn Holozän-Zeitalter (Bild vom Autor ergänzt)

Zeitraum letzte Eiszeit und Holozän

Nach der letzten Eiszeit gab es erwartungsgemäß einen Anstieg der Pegel (Bild 3). Zum Glück fiel dieser gewaltige Anstieg in die Zeit vor dem Bau großer Städte direkt an den Küsten, obwohl die in den damaligen Küstenregionen und niedrig gelegenen Weltgegenden wohnenden Steinzeitmenschen sicher auch stark davon betroffen waren. Seit den letzten 7 … 6.000 Jahren verläuft der Pegel flach mit geringfügigen Änderungen, aber eben auch mit stetigem leichten (Rest?-)Anstieg.

Bild 3 Anstieg des Meeresspiegels nach der letzten Eiszeit. Zufügung: Grün: Beginn Holozän, Rot: betrachtete Zeiträume

Quelle: Wikipedia. Urheber: Robert A. Rohde / Lizenz: GNU-Lizenz für freie Dokumentation, Version 1.2 oder eine spätere Version

Vergessen wird oft, dass das Wasser irgendwo herkommen muss. Wie sich dies darstellt, zeigt das folgende Bild 4. Auch wenn es durch den dargestellten langen Zeitraum den aktuellen nicht mehr auflöst, kann man ahnen, dass alleine aus natürlichen Gründen eine leichte weitere Eisvolumens-Abnahme und damit rein natürlich bedingte Pegelzunahme der Weltmeere denkbar wäre. Der Eis-Volumens-Maßstab ist bereits bei 0, was zeigt, dass sich die Erde aktuell in einem Minimum an Erdeisvolumen befindet. Das Schmelzen seit 20.000 Jahren ging über 7.000 Jahre als natürlicher Klimavorgang mit unglaublicher Geschwindigkeit (ca. 14,3 mm/pa) vor sich und verläuft derzeit fast horizontal mit einem kläglichen Restvolumen. Man könnte vermuten, dass dieses kleine Restvolumen für natürliche, kurze Schwankungen immer anfälliger wird.

Auffällig ist, wie wenig die Antarktis zu dieser extremen Veränderung beigetragen hat (Bild 4). Ihr Eis ist gegenüber dem der Nordhalbkugel wesentlich stabiler, was sich aus ihrer Kälte und durch die Lage auf Festland erklärt (das wesentliche heutige Eisvolumen der Nordhemisphäre konzentriert sich auf den Landsockel von Grönland).

Auffällig in Bild 4 sind die eingetragenen Simulationen NAWI-A1 / -A2. Die Rück-Simulation des Antarktis-Eisvolumens funktioniert demnach nicht, bzw. führt abhängig vom Verfahren zu eklatanten Abweichungen.

Bild 4 [21] Verlauf der Erd-Eisvoluminas. Anm.: Das maximale Eisvolumen von 4.7841·1016m3 entspricht einer uniformen Meeresspiegelabsenkung von 117.41m [16]. Das Ende der letzten Eiszeit war vor ca. 20.000 Jahren

Bildtext: Figure 4.2: Total ice-mass change for the Pleistocene load modls NAWI-A1 and NAWIA2. The northern hemisphere contributes 120 m ESL, the southern hemisphere (i. e. the AIS) 12 m ESL to the global mean sea-level change since the LGM. The northern hemisphere glaciation starts at 120 ka BP, reaches its maximum at 20 ka BP and is identical for both load models. The last glaciation of the southern hemisphere starts at 120 ka BP (NAWI -A1) or 50 ka B P (NAWI-A2) and reaches its maximum at 15 ka BP. The previous glacial cycle (only modeled for the southern hemisphere) has the same temp oral evolution and terminates at 120 ka BP (not shown).

Die Zukunftsprojektion im nächsten Bild 5 betrachte man deshalb mit der nötigen Skepsis. Wenn die Klimasimulationen richtig rechnen (könnten), würde der Mensch mit seinem CO2-Beitrag die sicher kommende nächste Eiszeit etwas verzögern „Fällt die nächste Eiszeit aus?“ – Eigentlich eine grandiose Vorstellung zur Weltrettung durch anthropogenes CO2. Denn wohl nichts dürfte schlimmer sein als die nach der Zyklik mit Sicherheit kommende nächste Eiszeit.

Können wir die nächste Eiszeit überleben?

Wie schnell die Eiszeiten einsetzen, sieht man an den Spitzen von wenigen Tausend Jahren. Und einige Tausend davon können ja schon vorbei sein. Eine dann ausschließlich EEG-versorgte Energielandschaft mit verschneiten und vereisten Solar- und Windkraftanlagen sowie bis auf den Grund zugefrorenen Speicherseen dürfte die dann (er-)frierende Menschheit kaum mit der erforderlichen Wärme versorgen können. Ein Maisanbau in beheizten Gewächshäusern für Biogasanlagen dürfte auch nicht für die „Rettung“ sorgen können.

Überspitzt lässt sich daraus ableiten:

Deutschland macht das Falscheste, was man in einer solchen kritischen Klima-Situation überhaupt veranlassen kann:

– Kein CO2-emittieren (und damit den Start der mit Sicherheit kommenden Eiszeit beschleunigen)

– Auf EEG-Energie umbauen (um mit Sicherheit in dieser Eiszeit zu erfrieren)

Fazit daraus: Deutschland scheint beim „Retten“ der Welt vor irgend etwas einfach immer nur glücklos zu sein.

Der Autor könnte sich jedenfalls vorstellen, dass die ganz zukünftigen Generationen lieber in den roten als den grün- / blauen Temperaturkurven von Bild 5 leben würden. Denn darauf, dass die grüne Kurve (Verlauf ohne weitere CO2-Emission) wirklich so lange wie gezeichnet stabil bleibt und nicht wie in den letzten Millionen Jahren immer konsequent doch schnell wieder steil abfällt, sollte die Menscheit nicht vertrauen.

Gerade die Kirche welche doch in ganz anderen Zeiträumen denkt sollte sich das durch den Kopf gehen lassen.

Bild 5 [22] Verlauf der letzten Eiszeiten und Zukunftsprojektionen. Beachten: Time -100 = -100.000 Jahre, 0 = Jahr 1950

Bildtext: Abbildung 4. Auswirkungen von CO2 aus fossilen Brennstoffen auf die zukünftige Entwicklung der mittleren, globalen Temperatur. In grün der Verlauf ohne CO2 Emissionen, blau stellt den Verlauf bei Ausstoss von 300 Giga-Tonnen Kohlenstoff, orange 1000 Giga-Tonnen und rot 5000 Giga-Tonnen dar (Archer 2005) (mit Ergänzungen durch den Autor)

Nach dieser Abschweifung zur Zukunft zurück zum Thema.

Meerespegelverlauf in geschichtlicher Zeit

Dieser Zeitraum ist wichtig, weil er zur Kalibrierung und Belegung der Zukunftssimulationen dient. Wenn man – wie das PIK – „sicher ist“, dass die nächste Eiszeit in 60.000 Jahren* ausfallen wird „Fällt die nächste Eiszeit aus?“ und genaue Projektionen des weiteren Verlaufs vorlegt, muss man die entsprechenden Zukunftssimulationen anhand der Daten der Vergangenheit sehr genau kalibrieren und auch verifizieren.

*Die Eiszeit ist in dieser Zeit bereits in vollem Gange. Begonnen hat sie nach der Zyklik schon. Anm.: Wie beim Klima üblich, haben die Experten dazu jedoch vollkommen gegensätzliche Ansichten.

Was sagt der IPCC im AR5 (letzter IPCC Sachstandsbericht von 2013)

Im AR5 Hauptbericht findet sich eine Grafik (Bild 6) und dazu der folgende Erklärungstext:

IPCC AR5 [2] 13.2.1.4 The Late Holocene: Based on local sea level records spanning the last 2000 years, there is medium confience that flctuations in GMSL during this interval have not exceeded ~ ±0.25 m on time scales of a few hundred years (Section 5.6.3, Figure 13.3a).

Diese Angabe strotz nicht gerade vor Präzision und Sicherheit. Im Bild selbst ist eine Spannweite der Proxis über die letzten 3.000 und 2.000 Jahre von ca. 100 cm ausgewiesen.

Bild 6 [2] IPCC Proxibild der vergangenen 3000 Jahre (gestrichelte Linien durch den Autor ergänzt). 0 = Jahr 1950

Bildtext: Figure 13.3 (a) Paleo sea level data for the last 3000 years from Northern and Southern Hemisphere sites. The effects of glacial isostatic adjustment (GIA) have been removed from these records. Light green = Iceland (Gehrels et al., 2006), purple = Nova Scotia (Gehrels et al., 2005), bright blue = Connecticut (Donnelly et al., 2004), blue = Nova Scotia (Gehrels et al., 2005), red = United Kingdom (Gehrels et al., 2011), green = North Carolina (Kemp et al., 2011), brown = New Zealand (Gehrels et al., 2008), grey = mid-Pacific Ocean (Woodroffe et al., 2012).

Aufgrund der mangelnden Auskunftsfreudigkeit des IPCC-AR5 muss man sich die passenden Studien direkt ansehen.

Was sagen Studien über den Pegelverlauf

Übersicht

Es gibt eine von mehreren Instituten verfasste Studie [15] in welcher Pegelverläufe rund um die Welt gesammelt hinterlegt sind. Daraus zuerst die Proxybilder.

Bild 7 [15] Sammlung Pegelproxys

Bildtext (Auszug): Fig. 3 Selected relative sea-level (RSL) reconstructions from Southern
Disko Bugt, Greenland [54, 56], Northwest Georgia Strait, Canada [49], Southern Maine, USA [71], New Jersey, USA [43], Louisiana, USA [74], California, USA [49], St. Croix [99], Suriname and Guyana [100 ], Rio Grande do Norte State, Brazil [102], and South Shetland Islands, Antarctica [112, 114]. All y-axes are RSL (meters to present)

Bild 8 [15] Sammlung Pegelproxis Weiterführung

Bildtext (Auszug): Fig. 4 Selected relative sea-level reconstructions from Arisaig, Scotland [121], Baltic Coast of Sweden [122], Rotterdam, Netherlands [123], Southern France [138], Tunisia [138], Nile, Egypt [141], Langebaan Lagoon, South Africa [42], West Guongdong, China [166], Singapore [160], and North Queensland, Australia [181], and New South Wales,
Australia [182] shown as in Fig. 3

Der Autor hat sich die Mühe gemacht, die Daten der Bilder 7 und 8 in einer Tabelle zu listen und auszuwerten. Die Pegeldifferenz zum Jahr 8000 wurde vom Autor aus den Proxibildern abgeleitet, die Pegel-Änderungswerte (mm / pa) sind der Tabelle 1 der Studie [15] entnommen (dort: m / ka), die absoluten Pegeländerungen der letzen 2000 Jahre sind vom Autor aus den Werten der 2 ka Spalte (aus Tabelle 1 der Studie) zugefügt. Die Daten in der Studie vom Mittelmeer wurden nicht übernommen, da diese für die Weltmeere nicht repräsentativ sind.

Bild 9 [15] Meerespegel Verlaufsrekonstruktionen aus den Bildern 5 und 6 tabelliert (ohne Pegel Mittelmeer)

Auswertung

Diese Studie ermittelte für den Zeitraum der letzten 2.000 Jahre eine Pegel-Änderungsspannweite von absolut 4,6 m (AR5: 1 m). Anm.: Mit dem Pegelwert Antarktis (Bild J der Studie, nicht in Bild 9 übernommen) beträgt die Spannweite sogar 13,6 m.

Im Histogramm kann man die Verteilung der Pegel-Änderungswerte der letzten zwei Jahrtausende sehen. Nun sind die Pegelproxis nicht statistisch über die Welt verteilt und erfüllen somit die Anforderungen einer Stichprobe nicht. Trotzdem lässt sich gut die große Streuung erkennen und eben auch, dass solche Proxysammlungen keinen repräsentativen Globalpegel abbilden.

Bild 10 [15] Meerespegel Änderungsgeschwindigkeiten in mm / pa vom Jahr 0 bis 2000 (ohne Pegel Mittelmeer und ohne dem Pegelwert Antarktis von -5,2 mm / pa) aus Bild 7

Wären alle Pegelverläufe seit dem Jahr 0 bis heute linear, ergäbe sich rund um die Welt für die letzten 2000 Jahre daraus das folgende Bild der auf das Jahr 2000 normierten Pegeländerungen (in m).

Bild 11 [15] Meerespegel Verlaufsrekonstruktionen vom Jahr 0 bis zum Jahr 2000 aus den Werten von Bild 9, normiert auf das Jahr 2000 (ohne Pegel Mittelmeer)

Fazit

Diese Studie weist zu den Angaben des IPCC AR5 mit ca. 100 cm Pegelspanne eine erhebliche Diskrepanz bezüglich der Größe von Pegeländerungen der letzten 2000 Jahre auf.

Zudem ist es bei Weitem nicht so, dass sich rund um die Erde die Pegel gleichmäßig und in eine Richtung verändern würden. Das Ableiten globaler Trends gestaltet sich damit schwierig.

Antarktis

Wie man schon anhand der vorherigen Studie sehen konnte, macht die Südhalbkugel beim Ermitteln (weit) größere Probleme.

Im folgenden Bild dazu die Streuungen einer solchen Proxiermittlung, welche im Mittelwert dann „ganz gerade“ erscheinen.

Bild 12 [23] Pegelproxi im Raum der Antarktis

Bildtext: Figure 5. Observed sea level variations and predictions based on the ice models of ANT4 and ICE-3G. The red solid circles represent the past mean sea level determined by organic materials such as fossil shells. The green solid and open circles indicate the upper and lower bounds of the sea level evidence dated by, for example, penguin and elephant seal bone.In these calculations, we employ a viscosity model assuming that the upper and lower mantle viscosities are 5 1020 and 1022 Pa s, respectively. The lithospheric thickness (effective elastic thickness): The models used here are 100 km and 50 km.

Fazit:

Es besteht eine sehr große Diskrepanz zwischen den niedrigen Änderungswerten des Bildes im AR5 und ermittelten Werten anderer Autoren.

Sichtung anhand detaillierterer Pegelproxis

Nachdem die Studie [15] erheblich größere absolute Pegeldifferenzen als der AR5 ausweist, geht es im folgenden darum, was von der Angabe im AR5 zu halten ist, dass während der letzten 2000 Jahre mit mittlerer Sicherheit innerhalb von einigen hundert Jahren die Pegeländerungen +-0,25 m nicht überstiegen.

Verlauf eines Proxis der Malediven, indischer Ozean.

Bild 13 [3] Fig. 1. Sea level curve for the last 5000 years for the Maldives.

Verlauf eines Proxis der Nordsee.

Bild 14 [10] Meeresspiegelentwicklung an der südlichen Nordsee in den letzten 7500 Jahren. Aus Behre (2004)

Verlauf eines Proxis der Marshall-Inseln im westlichen Pazifik.

Bild 15 [14] Meeresspiegelentwicklung auf den Marschallinseln während der vergangenen 6000 Jahre. Quelle: Kench et al. 2014

Weitere Proxis aus dem pazifischen Raum

Bild 16 [19] Verschiedene Pegelproxis Süd-Pazifik. Age 0 ist das Jahr 2.000

Verlauf Island.

Bild 17 [7] Pegelproxy Island

Verlauf Brasilien

Bild 18 [20] Brasilien

In der folgenden Tabelle sind die Daten aus den vorherigen, detaillierteren Proxigrafiken zusammengefasst.

Bild 19 Zusammenfassung von Beispiel- Pegel-Änderungen in historischer Zeit (ohne die Daten aus Bild 9). Bezug Jahr 2.000 nach Chr.

Fazit

In diesen Proxis sind die Spannweiten der Pegel der letzten 2.000 Jahre deutlich niedriger als in der Studie [14], mit bis zu 3m aber immer noch wesentlich höher als im IPCC AR5 mit 1 m.

Und in diesen detaillierteren Proxis zeigt sich, dass sehr wohl davon ausgegangen werden muss, dass kurzfristige Pegeländerungen von (weit) mehr als +-25 cm während der letzten 2000 Jahre innerhalb vergleichseise kurzer Zeiträume geschehen sind.

Weiter sieht man dass die absoluten Angaben erheblich differieren und die Trendaussagen gegensätzlich sind. Kurzfristige Pegeländerungen nehmen zu, sind in den verschiedenen Studie aber unterschiedlich ausgeprägt enthalten.

Exemplarische Vergleiche verschiedener Proxiquellen mit dem AR5

Um einen direkten Vergleich durchzuführen, wurden die verfolgbaren Proxis aus dem AR5, Figure 13.3 (Bild 20) vom Autor nachgezeichnet und auf das Jahr 2.000 B.P. normiert (Bild 20).

Bild 20 [2] Verlauf einiger IPCC Proxis von Bild 6 (vom Autor nachgezeichnet und auf das Jahr 2000 B.P. normiert)

Vergleich Raum Island

Die Rekonstruktionen der gleichen Insel (Island) unterscheiden sich fundamental (Bild 21). Nimmt man als Vergleich noch aus der Studie [15] das in der Nähe liegende Schottland mit -3,2 m (Bild11) erhält man zusätzlich einen gegenteiligen Verlauf. Der AR5 zeigt die geringsten Änderungen.

Bild 21 Verlauf auf das Jahr 2000 B.P. normierte Pegel Island aus Bild 21 (AR5) (hellgrün), Bild 18 [7] (schwarz), Schottland aus Bild 17 [15] (blau)

Vergleich Raum Südpazifik

Auch der Vergleich von Proxis im südpazifischen Raum zeig erhebliche Abweichungen untereinander, wobei wieder der Verlauf aus dem AR5 der mit den geringsten Änderungen ist. In den Verläufen mit eingetragenen Proxiwerten erkennt man deutlich die in den Mittelwertkurven verschwundenen Variabilitäten. Bezogen auf die Normierung um das Jahr 0 ergeben sich in diesem Raum immerhin über 100 cm Proxiabweichungen.

Bild 22 Pegelrekonstruktionen Bereich Süd-Pazifik, vom Autor auf das Jahr 2000 B.P. (so weit möglich) normiert

Vergleich Raum Malediven

Für die Malediven wurden eine grob und eine hoch auflösende Proxy übereinander gelegt und dazu noch eine hoch auflösende aus Süd-Australien (welche natürlich nicht den Pegel Malediven abbildet). Das Bild soll zeigen, wie stark die Pegeländerungen von der Auflösung abhängen.

Hier beträgt die Pegelspannweite der letzten 2.000 Jahre ca. 3 m mit deutlichen, schnellen Änderungen.

Bild 23 Proxi Malediven aus Bild 13 grau, Proxy Malediven aus Studie [16] rot gestrichelt, Proxi Port Piri Südaustralien aus Studie [16] hellbraun. Anm.: Der rote und hellbraune Proxyverlauf wurden vom Autor anhand der Werte aus der Datentabelle gezeichnet.

Fazit

Die direkten Vergleiche durch Übereinander-Legen von Proxis aus ähnlichen Gegenden zeigt ergänzend zum vorherigen Kapitel die Unsicherheiten bei der Ermittlung bzw. Festlegung und bestätigt die Zweifel an der Aussage im AR5, dass höhere kurzfristige Pegeländerungen während der letzten 2000 Jahre noch nie vorkamen:

AR5: there is medium confience that flctuations in GMSL during this interval have not exceeded ~ ±0.25 m on time scales of a few hundred years

Vergleich im AR5

Es lässt sich einwenden dass man zu Allem eine andere Aussage finden kann, jedoch die in IPCC-Paper übernommenen so gut geprüft sind, dass daran nicht zu rütteln wäre.

Sehen wir uns deshalb dazu eine Proxy aus dem IPCC AR5 im Detail an:

— Im Bild 6, AR5 Figure 13.3 ist die Proxy: green = North Carolina (Kemp et al., 2011) enthalten.

Diese Proxi sieht in der Originalstudie wie folgt aus (Bild 24):

Bild 24 [26] Pegelverlauf NorthCarolinea im Original-Paper Kemp at al. 2011, hinterlegt im AR5 Figure 13.3 (vom Autor ergänzt)

Bildtext Fig. 2. (A) Composite EIV global land plus ocean global temperature reconstruction (1), smoothed with a 30-year LOESS low-pass filter (blue). Data since AD 1850 (red) are HADCrutv3 instrumental temperatures. Values are relative to a preindustrial average for AD 1400–1800 (B) RSL reconstructions at Sand Point and Tump Point since BC 100. Boxes represent sample-specific age and sea-level uncertainties (2σ). Inset is a comparison with nearby tide-gauge data. (C) GIA-adjusted sea level at Sand Point and Tump Point expressed relative to a preindustrial average for AD 1400–1800. Sea-level data points are represented by parallelograms because of distortion caused by GIA, which has a larger effect on the older edge of a data point than on the younger edge. Times of changes in the rate of sea-level rise (95% confidence change-point intervals) are shown. Pink envelope is a nine degree polynomial to visually summarize the North Carolina sea-level reconstruction.

Was lässt sich anhand der Originalstudie [26] ermitteln

Neben dem Umstand, dass der Pegel im Originalbild der Studie (Bild 24) vom Jahr 1000 bis ca. 1500, also immerhin über 500 Jahre gegensätzlich zur während dieser Zeit deutlich fallenden Temperatur ansteigt, findet sich genau zu dieser Studie auch ein massiver, substantieller Einwand.

Ein Forscherteam um Aslak Grinsted [27] analysierte die Studie und ist der Überzeugung, dass die Pegelableitungen aufgrund methodisch fragwürdiger Höhenkorrekturen falsch ist und die (niedrigen) Angaben zu den Toleranzen der rekonstruierten Pegelkurve in Wirklichkeit wesentlich höher angenommen müssen.

Ihre Aussage ist deutlich:

[27] Wir wissen auch nicht wie der Verlauf genau ist (das gelingt mit den unsicheren Proxidaten nicht), aber wir wissen dass die Ableitungen und Toleranzangaben von Kemp et al. nicht stimmen. Im Gegensatz zu Kemp et al. geben wird das aber offen zu.

Eine Rekonstruktion könnte damit in etwa aussehen wie im folgenden Bild 25 (Fig. 1 aus der Studie [27]) gezeigt.

Bild 25 [27] Neu rekonstruierter Pegelverlauf der Proxi [26] (mit Zufügungen durch den Autor)

Bildtext: Fig. 1. Comparison of the North Carolina sea level reconstruction corrected for two different GIA adjustments (red lines) and global sea level hind-casts from semiempirical models (thin solid lines). The choice of GIA has a large impact on the adjusted North Carolina sea level. Semiempirical hind-casts of global sea level deviate slowly from the adjusted NCRSL curve, but confidence intervals overlap for more than a millennium. Illustrative 5% to 95% confidence intervals are shown by the shaded regions colored for the appropriate curves. A 50-y smoothing has been applied to NCRSL.

Fazit

Auch in den AR5 übernommene Daten spiegeln die in den vorherigen Kapiteln aufgezeigte Problematik direkt wieder. Es ist nicht erkennbarr, dass die Datenlage darin verlässlich besser wäre. Jedoch wird dies im AR5 nicht erwähnt, sondern Aussagen mit Vertrauensbereichen abgeleitet, welche bezeifelt werden dürfen.

Fazit zum Pegelverlauf der letzten zwei Jahrtausende

Es ergibt sich das gleiche Bild wie schon bei der Recherche der Temperaturproxis [11] “Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende”: Eine verlässliche Datenbasis liegt nicht vor. Von einer hohen Sicherheit über die wirklichen Pegelverläufe (mit der erforderlichen Genauigkeit) kann keine Rede sein.

Und es fällt wieder auf, dass es in historischer Zeit mit ziemlicher Sicherheit erheblich größere und auch schnellere Schwankungen gegeben hat, als es die Verläufe im AR5 zeigen. Der Verdacht einer unzulässigen Glättung, vergleichbar der Hockeystick-Darstellung zur Temperatur drängt sich geradezu auf [11].

Die einzige mögliche Folgerung daraus ist:

Mit einer so widersprüchlichen bzw. ungenauen Datenbasis ist keine Zukunfts-Pegelsimulation auch nur im Ansatz glaubhaft kalibrierbar oder verifizierbar! Auch eine Aussage, ob die aktuelle Schwankung nicht doch natürlich sein kann ist nicht möglich. Was aktuell von der Klima-“Wissenschaft” an Zukunft simuliert wird, ist eher ein Würfelspiel welches nur auf immer teureren Rechnern durchgeführt wird.

Und damit ist es auch kein Wunder, dass “Jeder” beim Simulieren etwas Anderes ausgespuckt bekommt.

Bild 26 [23] Pegel-Zukunfts-Vermutungen zweier deutscher PIK Klimawissenschaftler und vom Rest der Welt

Es ist auch nicht möglich, durch Mitteln oder statistischen „Kunstgriffen“ daraus „den richtigen Verlauf“ zu erzeugen. Das Einsetzen leistungsfähigerer Computer kann an den Mängeln der Datenbasis nichts ändern, das falsche Ergebnis wird lediglich schneller ausgespuckt.

Was sagen Infoportale dazu

Wie „immer“ der Blick zu Klimaretter.Info, dem von Professoren(-innen) und Doktores betriebenem Portal für sicher AGW-klimatreue Information und Betreiber eines „Klima-Lügendetektors“. Auch dort wurde schon über die Pegelverläufe seit der letzten Eiszeit informiert. Zuletzt durch Publizierung einer Studie [16].

Klimaretter.Info, 15. Oktober 2014:

Meeresspiegel-Rekord in 6000 Jahren

6.000 Jahre lang hatte sich der Meeresspiegel kaum verändert, seit dem 20. Jahrhundert stieg er aber bis zu 20 Zentimeter an und hat damit ein historisches Hoch erreicht.

Die Forscher haben die Veränderungen des Meeresspiegels während und nach der letzten Eiszeit untersucht. Mithilfe von rund 1.000 Sedimentproben aus Australien und Asien konnten die Forscher die Entwicklung des Meeresspiegels der vergangenen 35.000 Jahre nachvollziehen und damit einen Zeitraum, der die vergangene Eiszeit miteinbezieht. Demnach ist der Meeresspiegel seit dem Schmelzen der Eisberge nach der Eiszeit konstant geblieben und erst innerhalb der vergangenen 100 bis 150 Jahre angestiegen – ein historischer Sonderfall.

Kimaretter.info hat diese Angaben bestimmt sorgfältig geprüft, wie es eben nur Professoren(-innen) können die im Rampenlicht des Klimawandels stehen und parallel noch das Wissen haben, Klimalügen sicher aufdecken und anprangern zu können.

Sehen wir zum Abschluss deshalb auch noch diese Studie [16] genauer an

Die Text-Statements der Studie [16] sind mit den darin gezeigten Bildern (Bild 27) nicht verifizierbar. So zeigt der kleine Bildausschnitt bei „A“ beim Nachsehen eine erhebliche Streuung, die bei „B“ vollkommen verschwunden ist.

Bild 27 [16] Bildauszug: Proxi mit Pegelverlauf seit Ende der letzten Eiszeit (gestrichelte rote Linien mit Kommentaren durch den Autor ergänzt)

Doch sind die verwendeten Proxis in einem Ergänzungsdokument gelistet. Im folgenden Bild 28 sind mit Normierung auf das Jahr 2.000 zwei Pegelproxis daraus und die Kurve der Malediven von Prof. Mörner übereinander gelegt:

– Malediven [16] (rot gestrichelt), Anm.: Die Spline-Funktion zwischen den roten Proxipunkten hat der Autor über Excel zugefügt und ist nicht statistisch belegt.

– Südaustralien [16] (hellbraun)

– Malediven [3] (grau), Studie Prof. A. Mörner

Man sieht deutlich:

Nimmt die Auflösung zu, zeigen sich auch in den Proxis dieser Studie[16] sowohl lang- wie auch kurzfristige, erhebliche Pegelschwankungen wie sie schon Prof Mörner (und andere Proxis) gezeigt haben.

Bild 28 Proxy Malediven aus Studie [16] rot gestrichelt, Proxi Port Piri Südaustralien aus Studie [16] hellbraun, Proxi Malediven [3] aus Bild 15 grau

Die Proxis aus der Studie [16]

In der Studie gibt es eing komplette Liste aller Proxidaten (in Summe 968 Werte).

Davon weisen z.B. die von Kiritimati (Christmas-Inseln) von 5.255 bis 0.090 trotz relativ hoher Auflösung nur eine Pegelspanne von -30 … +20 cm aus, absolut als 50 cm. Bild 15 listet für diesen pazifischen Raum dagegen eine Spanne von 1,2 m.

In der Regel stellen sich die Proxis in der Studie jedoch wie im Beispiel des folgenden Tabellenausschnitts dar (Bild 29). Die vier Zeitwerte dieses Proxis HAINAN liegen bei 912, 1119, 5059, 6835 Jahren, sind also weder fein auflösend noch gut verteilt. Doch innerhalb von 207 Jahren hat sich der Pegel plotzlich um 1,2 m!! verändert. Man beachte auch die Standardabweichung von
1 m. Zwei mal Standardabweichung (bedeutet ein Vertrauen von ca. 95 % wie es das IPCC gerne ausweist) bedeuten bei diesem Proxy eine Pegeldifferenz von +-2 m als Unsicherheit.

Bild 29 [16] Auszug der Proxitabelle S1 (data supplement) RSL: relative sea level, Sig.RSL stands for Sigma RSL, the estimated error of the observed relative Sea Level

Aufgrund dieser Datensichtung traut sich der Autor deshalb an einer (von Klimaretter.Info kritiklos übernommenen) Kernaussage der Studie erhebliche Zweifel anzumelden:

In der Studie steht:

[16] “after which ocean volumes remained nearly constant until the renewed sea-level rise at 100–150 y ago, with no evidence of oscillations exceeding 15–20 cm in time intervals ≥200 y from 6 to 0.15 ka BP

Das hat Klimaretter.Info natürlich wörtlich übernommen:

6.000 Jahre lang hatte sich der Meeresspiegel kaum verändert, seit dem 20. Jahrhundert stieg er aber bis zu 20 Zentimeter an und hat damit ein historisches Hoch erreicht.

Demnach ist der Meeresspiegel seit dem Schmelzen der Eisberge nach der Eiszeit konstant geblieben und erst innerhalb der vergangenen 100 bis 150 Jahre angestiegen – ein historischer Sonderfall.

Beim Betrachten der hinterlegten Daten sieht man jedoch, dass Proxis aus dieser Studie eher das Gegenteil aussagen. Man hat den Eindruck, das publizierte Ergebnis basierte mehr auf einem vorgegebenen Wunsch als auf den Fakten, Klimaretter.Info eingeschlossen.

Beispiel zur Problematik bei der rückwirkenden Ermittlung der wirklichen absoluten Pegel während des Holozän

In der Studie [4] steht, welche Unterschiede bereits im kleinräumigen Bereich der USA-Westküste bezüglich der Landhebungen während des Holozän bestehen. Der eine Pegel war früher bis zu 200 m höher während der andere in Noramerika 150 m tiefer lag.

[4] Sea-level history since the Last Glacial Maximum on the Pacific margin of North America is complex and heterogeneous owing to regional differences in crustal deformation (neotectonics), changes in global ocean volumes (eustasy) and the depression and rebound of the Earth’s crust in response to ice sheets on
land (isostasy). At the Last Glacial Maximum, the Cordilleran Ice Sheet depressed the crust over which it formed and created a raised forebulge along peripheral areas offshore. This, combined with different tectonic settings along the coast, resulted in divergent relative sea-level responses during the Holocene.
For example, sea level was
up to 200 m higher than present in the lower Fraser Valley region of southwest British Columbia, due largely to isostatic depression. At the same time, sea level was 150 m lower than present in Haida Gwaii, on the northern coast of British Columbia, due to the combined effects of the forebulge raising the land and lower eustatic sea level.

Fazit

Die Aussagen des IPCC im AR5 zum Pegelverlauf im Holozän sind eher nicht richtig als richtig.

Es gibt oft zum gleichen Meeresgebiet vollkommen gegensätzliche Proxis. Heraus zu finden, welche die “Wahren” oder “Wahreren” sind, ist fast unmöglich (es zu versuchen, bzw auch Fehler in Studien zu zu korrigieren ist Inhalt vieler Nachfolge-Studien).

In verschiedenen Proxis finden sich im Gegensatz zur Angabe im AR5 sehr wohl auch höhere, kurzfristige Pegelschwankungen. Es ist daher eher unwahrscheinlich, dass die Aktuelle ausschließlich vom Menschen verursacht sein muss.

In den “offiziellen” Publikationen werden Proxis (und Studien) welche niedrige Schwankungen ausweisen anscheinend massiv bevorzugt. Das “muss” so sein, denn sonst ließe sich überhaupt nicht (mehr) argumentieren, dass damit Zukunftsprojektionen kalibriert werden könnten.

Es wird immer wahrscheinlicher, dass sich die AGW Klimawandel-orientierte „Wissenschaft“ verrannt hat und daraus nicht mehr herausfindet, weil das Ziel Beleg der politischen Vorgaben und weniger der Wahrheit ist. Es werden inzwischen zu Hunderten Studien produziert, die nicht Neues generieren, sondern versuchen durch „Zurechtbiegen“ ungeeigneter Daten das „Erforderliche“ zu belegen. Dass in den Studien selbst (wie auch im AR5) inzwischen immer mehr Referenzstudien gelistet werden (oft 100 St und mehr) ist kein Beweis besserer Qualität, sondern vom gegenseitigen Abschreiben der Mängel.

Dazu ist es auch so, dass die Wissenschaftler reihum neue Autorenteams zusammensetzen. Dadurch können die immer gleichen Wissenschaftler das ähnliche Ergebnis in weiteren Studien (mit-)helfen zu bestätigen, ohne dass es sehr auffällt. Denn in den Quellenhinweisen wird meistens nur der Leitautor angegeben.

Was wird vermittelt

Kaltesonne brachte es gerade auf den Punkt: “James Hansen drückt Klimaalarmpaper mit Gewalt durch. Gutachter: Hansens apokalyptische Vision ist so wahrscheinlich wie Millionen-Lotteriegewinn“ und bereits früher [8].

Doch das Portal Klimaretter.Info meldete es sofort als Bestätigung: 23. März 2016 „Bestätigt: Meeresspiegel steigt schneller

und konnten diese Studie gar nicht genug loben.

Klimaretter.Info: Der US-Klimaforscher James Hansen und 18 Kollegen hatten schon im vergangenen Juli eine Untersuchung im Fachmagazin Atmospheric Chemistry and Physics veröffentlicht, die einen Meeresspiegelanstieg von mehreren Metern noch für dieses Jahrhundert prognostiziert – wenn die globalen Treibhausgasemissionen nicht drastisch zurückgefahren werden.

Dass diese Apokalypse des inzwischen zum Klimaaktivisten mutierten Herrn Hansen,

Klimaretter.Info: Seither hat er (Anm.: James Hansen) sich in der Klimabewegung engagiert und ist etwa Botschafter der Organisation 350.org. 2008 forderte Hansen, Manager von Öl- und Bergbaufirmen wegen "Hochverrats gegen Mensch und Natur" anzuklagen. Mehrfach wurde er bei Protestaktionen verhaftet.

wieder ausschließlich auf Simulations-Spielereien beruht und die angeneommenen Parameter – der Golfstrom schwächt sich ab und Grönland und Antarktis schmelzen noch wesentlich schneller als es sogar der IPCC annimmt – vollkommen unwahrscheinlich sind, wird nicht erwähnt.

Abschluss und Zusammenfassung

Mit dieser Publizerung ist die vom Autor über mehrere EIKE-Artikel verteilte Sichtung von Klimadaten und lang- bis kurzfristigen Pegeldaten abgeschlossen.

Alleine anhand der Sichtungen wurde gezeigt, auf welch fragwürdiger und teils gegensätzlicher Datenbasis wesentliche Aussagen der AGW-Theorie basieren und dass dies in der AGW-Wissenschaft (bisher) eher unterdrückt als kritisch beachtet wird.

Jeder Leser möge sich selbst ein Bild dazu machen. Der Autor kommt jedoch zu den folgenden Aussagen:

Der Meerespegel ist seit Beginn der Industrialisierung (seit ca. 1850) um ganze 25 cm gestiegen. Bei Betrachtung historischer Verläufe ist das keinesfalls „unnatürlich“. Womit die Begründung, dies könne ausschließlich vom Menschen verursacht sein stark bezweifelt werden darf.

Weder im langfristigen, noch kurzfristigen historischen Verlauf lässt eine über längere Zeit bestehende Korrelation zwischen CO2 und Pegelverlauf erkennen. Damit sind alle Klimamodelle sehr fragwürdig.

Die Pegelrekonstruktionen und Varianten an Verläufen differieren so extrem, dass es nicht möglich ist mit solchen Daten Klimasimulationen zu kalibrieren oder zu verifizieren.

Wie stark der der Pegel bis 2100 wirklich steigen oder fallen wird, steht eher in den Sternen, als in Simulationsprogrammen. Der Autor weist nur darauf hin dass für Szenarien, welche einen exzessiven Anstieg vorhersagen keinerlei Begründungen – sondern nur Annahmen – vorliegen, während nach der Zyklik eher sogar eine Abschwächung möglich ist.

Quellen

[1]

PIK Pressemeldung vom 10.03.2016: Meeresspiegelanstieg: Zu groß zum Wegpumpen

https://www.pik-potsdam.de/aktuelles/pressemitteilungen/meeresspiegelanstieg-zu-gross-zum-wegpumpen

[2]

IPCC WG1 AR5 All Final 2013: Climate Change 2013 The Physical Science Basis

[3]

Nils-Axel Mörner: SETTING THE FRAMES OF EXPECTED FUTURE SEA LEVEL CHANGES BY EXPLORING PAST GEOLOGICAL SEA LEVEL RECORDS

[4]

Dan H. Shugar at al. 13. Juni 2014: Post-glacial sea-level change along the Pacifi c coast of North America

[6]

EIKE 14.12.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang

http://www.eike-klima-energie.eu/news-cache/gehen-die-suedseeinseln-wirklich-wegen-des-klimawandels-unter-teil-3-die-marshall-inselgruppe-kein-beispiel-fuer-einen-untergang/

Teil 1 und 2 sind im Teil 3 verlinkt

[7]

RUTGERS TODAY February 22, 2016: Sea-level Rise in 20th Century Was Fastest in 3,000 Years, Rutgers-led Study Finds

Studie: Temperature-driven global sea-level variability in the Common Era

[8]

kaltesonne 30. Mai 2013: Europäisches Forschungskonsortium verwirft extreme Meeresspiegelprognosen

http://www.kaltesonne.de/?p=10644

Studie: From Ice to High Seas: Sea-level rise and European coastlines, The ice2sea Consortium, Cambridge, United Kingdom, (2013).

[9]

James Hansen et al, 22 March 2016: Ice melt, sea level rise and superstorms: evidence from paleoclimate data, climate modeling, and modern observations that 2 C global warming could be dangerous

James Hansen1,

[10]

kaltesonne, 14. März 2012: Der Meeresspiegel steigt! Seit 15.000 Jahren

Studie: Niedersächsisches Institut für historische Küstenforschung, Wilhelmshaven, 2004, Prof. Karl-Ernst Behre: Die Schwankungen des mittleren Tidehochwassers an der deutschen Nordseeküste in den letzten 3000 Jahren nach archäologischen Daten

[11]

EIKE 26.03.2016: Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende. Eine Literatursichtung von 1990 bis ganz aktuell

http://www.eike-klima-energie.eu/news-cache/rekonstruierte-temperaturverlaeufe-der-vergangenen-zwei-jahrtausende-eine-literatursichtung-von-1990-bis-ganz-aktuell/

[15]

Curr Clim Change Rep (12 November 2015) 1:247–262, Nicole S. Khan et al.: Holocene Relative Sea-Level Changes from Near-, Intermediate-,and Far-Field Locations

[16]

Kurt Lambeck et al., September 12, 2014: Sea level and global ice volumes from the Last Glacial Maximum to the Holocene

Ergänzungsdokument: Supporting Information

[17]

PIC 2007, Wilfried Endlicher, Friedlich-Wilhelm Gerstengrabe: Der Klimawandel

[18]

GeoForschungsZentrum Potsdam 2005, Dissertation: Glaziale Isostasie und rezente Meeresspiegeländerung

[19]

15.07.2014, Rashid, R. at al.: Constraining mid to late Holocene relative sea level change in the southern equatorial Pacific Ocean relative to the Society Islands, French Polynesia, Geochem. Geophys.

[20]

Instituto de Geociências, Universidade de São Paulo, Kenitiro Suguio at al., 16 September 2013: Indicators of Holocene sea level changes along the coast of the states of Pernambuco and Paraíba, Brazil

[21]

GeoForschungsZentrum Potsdam,Scientific, Technical Report STR 07/05, Ingo Sasgen et al.: Glacial-isostatic adju stment and sea-level change near Berkner Island, A ntarctica

[22]

ScepticalScience: Sind wir auf dem Weg zu einer neuen kleinen Eiszeit?

[23]

PIC 2007, Wilfried Endlicher, Friedlich-Wilhelm Gerstengrabe: Der Klimawandel

[25]

Universität Bremen Geowissenschaften, Diss.: Modeling oxygen isotopes in ice sheets linked to Quarternary ice-volumen variations

[26]

Kemp et al., 2011: Climate related sea-level variations over the past two millennia

http://www.pnas.org/content/108/27/11017.full

[27]

Aslak Grinsted at al.: Comment on the subsidence adjustment applied to the Kemp et al. proxy of North Carolina relative sea level




Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende. Eine Literatursichtung von 1990 bis ganz aktuell

Warum ist die mittelalterliche Warmzeit (um ca. 1000 nach Chr.) so wichtig? Weil damit der Klimaalarm teilweise begründet wird. Nach der „politisch korrekten Klimalehre“ darf es damals nicht wärmer als derzeit gewesen sein. Übersteigen die heutigen Temperaturen die damaligen, sei dies ein Beleg für den anthropogen bedingten Wandel, da diese eine natürliche Variation angeblich niemals „erzeugen“ könnte. Weiter begann danach auch die aktuelle Warmzeit erst mit dem Beginn der Industrialisierung um ca. 1820 … 1850 vorwiegend durch das dadurch emittierte anthropogene CO2.

Wo befindet sich die aktuelle Erdtemperatur

Nicht jeder Leser ist fit in der Klimahistorie. Deshalb anbei die Darstellung, wo sich das Klima aktuell befindet. Bild 1 zeigt den Verlauf seit dem Ende der letzten Eiszeit. Im Artikel selbst geht es um den rot eingegrenzten Bereich der vergangenen zwei Jahrtausende.

Bild 1 Bodennahe nordhemisphärische Mitteltemperaturen der letzten 11.000 Jahre nach Dansgaard (1969) und Schönwiese (1995), (aus KIHZ, 2000)

Welche Studie zeigt das richtige Klima der vergangenen 2000 Jahre

Wirklich weiß das wohl niemand. Die folgenden Darstellungen sollen zeigen, welche Unterschiede bestehen und dass sich das „Wissen“ und damit die Aussagen darüber regelmäßig ändern. als Konsequenz bedeutet dies allerdings auch, dass man durch Wahl der „geeigneten“ Darstellung inzwischen jede (gewünschte) Aussage problemlos mit Studien „belegen“ kann.

Um eine grobe Einstufung zu erhalten wurde versucht, in den im Artikel exemplarisch gezeigten Klima-Rekonstruktionsverläufen die Temperaturdifferenz vom Mittelwert der mittelalterlichen Warmzeit bis zum Jahr 1950 zu ermitteln. Die Versuche sind in den Bildern zugefügt und somit nachvollziehbar (sowie zusätzlich am Ende in einer Tabelle zusammengefasst). In vielen Kurven ist das allerdings nur recht ungenau möglich, weshalb diese Auswertung nur grobe Anhaltswerte zur Orientierung liefert. Das Schlussjahr 1950 wurde gewählt, da viele Rekonstruktionen knapp danach enden. Wer den Vergleich mit der ganz aktuellen Temperatur ergänzen möchte, muss also die Differenz seit dem Jahr 1950 dazu addieren.

Gelistet sind die Klimastudien ungefähr nach Publizierdatum, beginnend mit dem AR1 des IPCC von 1990 bis zu ganz aktuellen.

Listung von Klimarekonstruktionen der vergangenen 2000 Jahre

IPCC Report AR1 von 1990

 

Bild 2 [6]  IPCC Report AR1 von 1990 Figure 7.1 (letztes von drei Bildern)

Bildtext: Schematic diagrams of global temperature variations since the Pleistocene on three time scales (a) the last million years (b) the last ten thousand years and (c) the last thousand years The dotted line nominally represents conditions near the beginning of the twentieth century

IPCC Report AR3 von 2001

Dieser Report zeigt die berühmte Hockeystick-Kurve. Die mittelalterliche Warmzeit ist fast verschwunden. Die aktuelle Warmperiode beginnt um 1900. Die Mittelwertbildung verschleiert den breiten (grauen) Unsicherheitsbereich.

  

Bild 3 [7]  IPCC Report AR3 von 2001 Figure 1: Variations of the Earth’s surface temperature over the last millennium.

  

IPCC AR4 von 2007

Die Darstellung im AR4 zeigt exemplarisch die Variabilitäten verschiedener Proxyrekonstruktionen. Dieses „Spaghetti-Durcheinander“ wird durch Mittelwert-Bildung meistens „verschleiert“. Aus den verschiedenen Verläufen kann man sich jede Differenz heraussuchen, indem man die passende Gegend auswählt.

Gerade diese Grafik ist gut geeignet zur Darstellung des „Klimarettungsproblems“. Nach der IPCC-Lehre und dem letzten Klimagipfel darf sich die Erde bis 2100 maximal um 0,6 Grad erhöhen „Paris COP21 Verpflichtung“. Das kostet Deutschland Unsummen von Milliarden EUR durch die erzwungene CO2 Vermeidung. In der Grafik kann man erkennen, was 0,6 Grad (eingezeichnete) Veränderung bei der typischen Klimavariabilität bedeuten – nämlich nichts -, sowie dass es innerhalb von 100 Jahreszeiträumen regelmäßig natürlich bedingte Veränderungen größer 0,6 Grad gab.

 

Bild 4 [11] IPCC AR4 2007: Figure 1.

Bildtext: The heterogeneous nature of climate during the ‘Medieval Warm Period’ is illustrated by the wide spread of values exhibited by the individual records that have been used to reconstruct NH mean temperature. These consist of individual, or small regional averages of, proxy records collated from those used by Mann and Jones (2003), Esper et al. (2002) and Luckman and Wilson (2005), but exclude shorter series or those with no evidence of sensitivity to local temperature. These records have not been calibrated here, but each has been smoothed with a 20-year filter and scaled to have zero mean and unit standard deviation over the period 1001 to 1980.

Weiter finden sich darin auch Rekonstruktionen zur Südhalbkugel (Tasmanien und Neuseeland). Diese scheint die Zyklen der Nordhalbkugel nicht durchlaufen zu haben. Anm.: „kaltesonne“ ist aktuell dabei dies anhand einer Recherche zu widerlegen.

Man beachte, dass es auf Neuseeland bereits um 1600 begann stetig wärmer zu werden.

 

Bild 5 [11] IPCC AR4 von 2007.Figure 6.12.

Bildtext: Temperature reconstructions for regions in the SH: two annual temperature series from South American tree ring data (Villalba et al., 2003); annual temperature estimates from borehole inversions for southern Africa and Australia (Huang et al, 2000); summer temperature series from Tasmania and New Zealand tree ring data (Cook et al., 2000, 2002a). The black curves show summer or annual instrumental temperatures for each region. All tree ring and instrumental series were smoothed with a 25-year filter and represent anomalies (°C) from the 1961 to 1990 mean (indicated by the horizontal lines).

Loehle at al 2008

Nach dieser Studie war die mittelalterliche Warmzeit deutlich wärmer und die aktuelle Warmzeit beginnt eindeutig um 1600.

Bild 6 [9] Globaler historischer Klimaverlauf Jahr 0 … 1935

Bildtext: The Medieval Warming Period (MWP) was significantly warmer than the bimillennial average during most of the period 820 – 1040 AD. The Little Ice Age was significantly cooler than the average during most of 1440 – 1740 AD. The warmest tridecade of the MWP was warmer than the most recent tridecade, but not significantly so.

IPCC AR5 2013

Gegenüber dem AR4 zeigt die Darstellung nichts wirklich Neues, doch sind Mittelwerte enthalten. Weiterhin sieht man die vielen stark voneinander abweichenden  Rekonstruktionsverläufe.

Bild 7 [8]  Historischer Klimaverlauf. Quelle: AR5, Figure 5.7

Bildtext: Reconstructed (a) Northern Hemisphere and (b) Southern Hemisphere, and (c) global annual temperatures during the last 2000 years. Individual reconstructions (see Appendix 5.A.1 for further information about each one) are shown as indicated in the legends, grouped by colour according to their spatial representation (red: land-only all latitudes; orange: land-only extratropical latitudes; light blue: land and sea extra-tropical latitudes; dark blue: land and sea all latitudes) and instrumental temperatures shown in black (Hadley Centre/ Climatic Research Unit (CRU) gridded surface temperature-4 data set (HadCRUT4) land and sea, and CRU Gridded Dataset of Global Historical Near-Surface Air TEMperature Anomalies Over Land version 4 (CRUTEM4) land-only; Morice et al., 2012). All series represent anomalies (°C) from the 1881–1980 mean (horizontal dashed line) and have been smoothed with a fiter that reduces variations on time scales less than about 50 years.

 Horst-Joachim Lüdecke, Sept. 2011

 Das Besondere an dieser Publikation ist die Einbeziehung der Rekonstruktion von Tropfsteinanalysen des Professors Mangini der Uni Heidelberg (blaue Linien). Tropfsteinanalysen haben gegenüber den üblichen, auf biologischen Materialien basierenden wie Baumringanalysen (z.B. beim Hockeystick) den Vorteil, die Temperatur ganzjährig zu referenzieren und auch nicht Verzerrungen durch „Wetterstress“ oder Schädlinge abzubilden. Dieser Professor war unter den ersten, welche sich trauten öffentlich zu verkünden dass die mittelalterliche Warmzeit wärmer gewesen ist, als vom IPCC angegeben. Zusatzinformation lässt sich bei [15] nachlesen.

Auch diese Rekonstruktionen zeigen zudem den Beginn der aktuellen Warmzeit spätestens um 1600.

Bild 8 [13] Fig. 5. Temperaturrekonstruktionen aus Tropfsteinen (Blau) und biologichen Materialien (Grün)

Bildtext: (Color online) Reconstructed long-range annual records, SPA12 (blue) from a stalagmite and MOB (green) from a stack of tree rings in the northern hemisphere and further biological proxies (as an anomaly). The variance of MOB is roughly seven times smaller than for SPA12. In both records, the medieval warm period and the Maunder Minimum can be clearly identified.

ESPER et al, 2014: Northern European summer temperature variations

 Auch diese Studie zeigt eine deutlich wärmere mittelalterliche Warmzeit. Man beachte die im Bereich von 4 °C liegende Spannweite der Temperaturen und die Extremwerte (mit Jahreszahlen gekennzeichnet). Zudem steht in der Studie:

 [4] The reconstruction has centennial-scale variations superimposed on this trend, indicating conditions during Medieval and Roman times were probably warmer than in the late 20th century.

 

Bild 9 [4] Figure 5 (Auszug) Rekonstruierter Temperaturverlauf der letzten 2000 Jahre der nordeuropäischen Sommertemperatur

Bildtext: N-Eur temperature reconstruction at annual resolution (black) and after smoothing using a 100-year filter (white). Green curve is a linear regression fit to the annually resolved data over the 17 BC to AD 2006 period. Grey area indicates the smoothed standard error (2SE) of the calibration model, using variable chronology replicated error estimates (from B). Dates indicate the three coldest and warmest years over the past two millennia. This figure is available in colour online at wileyonlinelibrary.com.

Buentgen et al. 2016

Dies ist eine ganz aktuelle Studie.

Auffallend ist die große Temperaturvariabilität der Jahreswerte um mehrere Grad. Man beachte, dass die Sommertemperatur der Alpen von 1700 bis aktuell deutlich vom „typischen“ Klimaverlauf abweicht.

Bild 10 [12] Figure 2, vom Autor ergänzt

Bildtext: Eurasian summer temperature variability. a,b, Reconstructed temperatures from the Russian Altai (a) and the European Alps5 (b), with blue and red squares indicating (51/47) positive and (53/57) negative annual extremes (>2 standard deviations), respectively. Grey background shadings denote reconstruction uncertainty after 80-year low-pass filtering (Supplementary Fig. 9). c,d, Ice-core-derived global estimates of volcanic14 (GVF; dark grey; c) and total solar irradiance17 (TSI; light dashed grey; d) forcing. Black dashed lines refer to the long-term reconstruction mean of the Common Era.

Luterbacher et al, 29.01.2016: European summer temperatures since Roman times

Diese ebenfalls ganz aktuelle Studie ist aus mehreren Gründen interessant. Es steht darin, dass selbst die aktuellen mittleren Sommertemperaturen die der historischen Warmzeiten nicht übersteigt, zumindest nicht statistisch signifikant.

 [3] Our reconstructions compare well with independent instrumental and proxy-based temperature estimates, but suggest a larger amplitude in summer temperature variability than previously reported. Both CPS and BHM reconstructions indicate that the mean 20th century European summer temperature was not significantly different from some earlier centuries, including the 1st, 2nd, 8th and 10th centuries CE. The 1st century(in BHM also the 10th century) may even have been slightly warmer than the 20th century, but the difference is not statistically significant.

… The warmest century in both the CPS and BHM reconstructions is the 1st century CE (for BHM also the 10th century).

 Allerdings wird dazu dann eine Einschränkung gemacht, dass die 30-Jahresmittel dagegen früher nicht wärmer waren.

[3] Comparing each 50 yr period with the 19512000 period reveals a similar pattern. Recent summers, however, have been unusually warm in the context of the last two millennia and there are no 30 yr periods in either reconstruction that exceed the mean average European summer temperature of the last 3 decades (19862015 CE).

Weiter steht in der Studie, dass die Klimamodelle die Verläufe nicht ausreichend genau simulieren können – also stark mängelbehaftet sind. Und etwas zusätzlich Interessantes: Die Sommertemperaturen waren früher weit variabler, als man bisher annahm.

[3] Our BHM-based reconstruction shows more pronounced changes in mean summer temperatures over Europe than previously reported

  

Bild 11 [3] Verlauf der sommerlichen Maximaltemperaturen Europa.  BHM (Dunkelblau) und CPS (Rot): rekonstruierter Temperaturverlauf. Andere Farben: rückwirkende Simulationstests.

 Bildtext: Simulated and reconstructed European summer land temperature anomalies (with respect to 15001850 CE) for the last 1200 yr, smoothed with a 31 yr moving average filter. BHM (CPS) reconstructed temperatures are shown in blue (red) over the spread of model runs. Simulations are distinguished by solar forcing: stronger (SUNWIDE, purple; TSI change from the LMM to present >0.23%) and weaker (SUNNARROW, green; TSI change from the LMM to present <0.1%). The ensemble mean (heavy line) and the two bands accounting for 50% and 80% (shading) of the spread are shown for the model ensemble (see SOM for further details).

 Die zwei Darstellungen in der Studie zur historischen Temperatur (es ist heute nicht wärmer als früher, aber es war früher doch wärmer sofern man anders mittelt) führen zur Möglichkeit unterschiedlicher Interpretationen. Die Pressemitteilung der Uni hat sie voll genutzt und daraus einen Klimaalarm generiert:

Justus-Liebig-Universität Giessen. 29. Januar 2016 Pressemitteilung [2]:

Europäische Sommer so heiß wie seit über 2000 Jahren nicht

Klimaretter.Info, das Portal für ökopolitisch korrekte Darstellungen nahm dies sofort auf und  informierte ebenfalls alarmistisch:

 [14] Klimaretter.Info. Benjamin von Brackel (Anm.: Politikwissenschaftler), 29. Januar 2016:

Selbst die Römer hatten’s nicht so warm

Unsere Sommer sind die wärmsten seit 2.000 Jahren in Europa. Das zeigen neue Baumring-Analysen. Die Temperaturrekorde ließen sich nicht mehr mit natürlichen Schwankungen erklären, folgern Forscher, sondern nur mit dem menschengemachten Klimawandel.*

*Anmerkung des Autors: Diese letzte Aussage ist in der Studie selbst nirgends auch nur im Ansatz hinterlegt. Man hat den Eindruck, bei Klimaretter.Info hat niemand die Studie selbst eingesehen.

„kaltesonne“ hat die Studie ebenfalls rezensiert. Dort wurde sie aber wirklich durchgesehen und detailliert berichtet.  Es lohnt sich, diese Rezension selbst zu lesen: „Universität Gießen findet eklatante Unterschiede zwischen realer und simulierter Temperaturentwicklung während der letzten 2000 Jahre in Europa: Klimamodelle müssen auf den Prüfstand“.

kaltesonne – Rezension (Auszug)[1]:

Zu den Autoren der Studie gehören neben Luterbacher u.a. auch Fredrik Ljungqvist, Ulf Büntgen und Jan Esper, die sich in der Vergangenheit sehr um eine seriösere Richtung in den Klimawisenschaften verdient gemacht haben. Daher verwundert der reißerische Titel der Pressemitteilung und die krampfhaft in den Text eingesprenkelten Klimaalarm-Floskeln schon. War das Buckeln vor dem IPCC und der verkrampfte Hinweis auf die angeblich (vollständig) vom Menschen herbeigeführte aktuelle Erwärmung wirklich notwendig? Waren diese Stil-Elemente quasi als wissenschaftliche Lebensversicherung notwendig, um überhaupt mit dieser Studie in die Öffentlichkeit gehen zu können, ohne von IPCC-Hardlinern abgestraft zu werden?

Wir begeben uns auf Spurensuche. Was ist dran am Hitzewellenalarm? Zunächst fällt auf, dass der Titel der Publikation im Gegensatz zur Pressemitteilung auffällig neutral gewählt wurde:

European summer temperatures since Roman times

An dieser Stelle sollten wir uns die Hauptabbildung aus Pressemitteilung näher anschauen. Interessanterweise taucht die Abbildung in der Arbeit selber gar nicht auf, weder im Haupttext, noch im Datensupplement. Zu erkennen ist die in der Pressemeldung angeführte starke natürliche Variabilität der Temperaturen. Die bekannte Abfolge der Römischen Wärmeperiode, Kälteperiode der Völkerwanderungszeit, Mittelalterlichen Wärmeperiode, Kleinen Eiszeit und Modernen Wärmeperiode ist gut zu erkennen. Aus irgendeinem Grund bleiben die Begriffe jedoch in der Pressemitteilung unerwähnt.

Auffällig ist weiterhin die überlagerte knallig-rote Linie, welche die Entwicklung der letzten Jahrzehnte besonders bedrohlich erscheinen läßt. Eine fragwürdige Suggestivmethode. Das Ende der blauen 30-Jahres-Mittelwertlinie ist vom rot so stark überstrahlt, dass man es gar nicht richtig erkennt. Erst wenn man ganz genau hinschaut, wird deutlich, dass die blaue Linie lediglich das Niveau der Mittelalterlichen Wärmeperiode um 1200 n.Chr. und der Römischen Wärmephase um 50 n. Chr. erreicht.

 

Bild 12  [3]  Grafik: CC BY-SA 4.0 J.P. Werner/EuroMed2k Members.

Und genau dies steht dann wenig überraschend auch in der Kurzfassung der Arbeit:

In der Realität fand die Gruppe um Luterbacher also das genaue Gegenteil von dem was in ihrer eigenen Pressemitteilung behauptet wird. Die Temperaturen des 20. Jahrhundert unterscheiden sich nicht von den vorangegangenen Wärmephasen. Die Römische Wärmeperiode könnte sogar noch einen Tick wärmer gewesen sein, konzedieren Luterbacher und Kollegen.

Zusammenfassung der Klimarekonstruktionen

 In der folgenden Tabelle sind die Ergebnisse der gezeigten Studien / Berichte zusammengefasst:

   

Bild 13 Zusammenfassung der bisher dargestellten Klimarekonstruktionen

Beim Betrachten der Kurven fällt auf, dass sich bereits in der Vergangenheit in kurzen Zeiträumen gewaltige Temperaturschwankungen ereignet haben.  Ob die Aktuelle daraus als „einmalig“ hervorsticht, hängt von der verwendeten Publizierung und oft auch vom Maßstab ab.

Je mehr man sich die Klimakurven ansieht, umso stärker wird allerdings der Verdacht, dass sich die Genauigkeit der Proxirekonstruktionen über die Jahrzehnte nicht wirklich verbessert hat. Zumindest reicht sie nicht aus, um die Frage, ob es zur mittelalterlichen Warmzeit wärmer oder kälter war damit sicher zu beantworten. 

Dies ist auch verständlich. Eine moderne, sauber geeichte elektronische Wetterstation misst in idealer Umgebung gerade einmal auf +-0,2 °C genau. Eine Rekonstruktion über 1.000 – 2.000 Jahre zurück welche noch zusätzlich eine Proxi-Kalibrierung benötigt, soll dann großflächig Temperaturdifferenzen auf 0,2 … 0,5 Grad genau bestimmen. Das ist nicht möglich. Indem man aber Computer stur rechnen lässt, werden solche Ergebnisse präsentiert.

Auch die Zeitzuordnung scheint überaus problematisch zu sein, wie man an den vielen teils erheblichen Zeit-Verschiebungen zwischen den Kurven sehen kann. Wenn aber Temperatur und Zeitzuordnung nicht stimmen, entstehen beim Berechnen der Regressionen echte mathematische Fehler „Über die unsachgemäße Anwendung der Regression kleinster Quadrate“. Auch die Summenkurve kann dann natürlich nicht mehr stimmen.

Ein weiteres Thema bei den jüngeren Publizierungen ist die rückwirkende Simulationsprüfung. Immer öfter wird erkannt (Bsp. [3]), dass die Rückprojektionen der Klimamodelle falsche Ergebnisse liefern. Damit ist aber auch klar, dass sie die Zukunft genau so falsch projizieren (werden).

Diskussion der Klimarekonstruktion CL12loc aus dem AR5

 Betrachten wir noch einmal das Bild aus dem IPCC AR5 Bericht von 2013.

 

 Bild 14 [8]  Historischer Klimaverlauf. Quelle: AR5 von 2013, Figure 5.7

In dieser beispielhaften „Spaghettisammlung“ verschiedener (möglicher) Klimaverläufe sticht die hellblaue Rekonstruktion durch ihre enorme Variabilität hervor. Diese Rekonstruktion CL12loc stammt aus der Studie*:

 [10]*: Christiansen and Ljungqvist, 18.04.2012: The extra-tropical Northern Hemisphere temperature in the last two millennia: reconstructions of low-frequency variability

 *Im AR5 wird über die Bildinfo CL12oc auf eine Quelle „Christiansen and Ljungqvist (2012)“ verweisen. Der Autor hat in allen (für ihn einsehbaren) Studien dieser Autoren keine Kurve mit der gleichen Temperatur im Jahr 1460 und 1630 gefunden wie sie die hellblaue Kurve ausweist. Deshalb wir in den weiteren Ausführungen auf die Darstellungen aus Studien beider Autoren von 2012 und 2010 Bezug genommen. Die Unterschiede haben keinen Einfluss auf das Interpretationsergebnis.

Eine Anfrage beim deutschen IPCC-Büro zur Quelle dieser Klimarekonstruktion läuft, ist aber noch nicht beantwortet.

  

In der besagten Studie wurden anhand umfangreichen Proximaterials die Klimaverläufe der letzten 2000 und der letzten 500 Jahre rekonstruiert.

Die wichtigen Ergebnisse draus sind:

 Die mittelalterliche Warmzeit war um 0,6 Grad wärmer als bisher angenommen und die nach-mittelalterliche Kaltzeit um -1 Grad kälter:

 [10] The two-millennia long reconstruction shows a well defined Medieval Warm Period, with a peak warming

ca. 950–1050 AD reaching 0.6 C relative to the reference period 1880–1960 AD.

The 500-yr long reconstruction confirms previous results obtained with the LOC method applied to a smaller proxy compilation; in particular it shows the Little Ice Age cumulating in 1580–1720 AD with a temperature minimum of −1.0 ◦C below the reference period.

Nachdem damit ersichtlich ist, dass niemand genau weiß, wie warm die mittelalterliche Warmzeit genau war, sie aber nach den aktuellen Erkenntnissen sicher wärmer war als  in der Hockeystick-Kurve angegeben, kommt ein zweiter Aspekt zum Tragen, der Beginn der aktuellen Warmzeit.

Nach der neueren Klimarekonstruktion hat die aktuelle Warmzeit spätestens um 1650 also mindestens 200 Jahre früher als die Industrialisierung begonnen

CO2 kann damit als „Starter“ der aktuellen Warmzeit ausgeschlossen werden

Im folgenden Bild Nr. 15 sieht man die Rekonstruktionen nochmals im Detail im Vergleich mit älteren Klimakurven. Neben dem dass die nach-mittelalterliche Kaltzeit erheblich kälter war als bisher angenommen, fällt auf dass danach die aktuelle Warmzeit bereits um 1650 beginn und nicht erst gegen 1850. Dadurch sehen die Verläufe – Beginn der mittelalterlichen Warmzeit und der aktuellen – sehr ähnlich aus und ein menschlicher Einfluss ist weder erforderlich noch ersichtlich.

Anm.: im Bild 14 (AR5) ist die Minimaltemperatur bereits um 1460, also fast 200 Jahre früher erreicht worden. Die in der Veröffentlichung [10] hinterlegten Grafiken weichen vom IPCC-Bild an einigen Stellen deutlich ab. Z.B. sind die ausgeprägten Minimas um ca. 550 und 1460 darin nicht in der Größenordnung zu finden. Nach Bild 14 würde die aktuelle Warmzeit bereits um 1460, also nochmals fast 200 Jahre früher (in Summe um 400 Jahre)  beginnen.

 

Bild 15 [10] Vergleich der neuen Klimarekonstruktionen (LOC 2k und LOC 500y) mit anderen Rekonstruktionen aus dem AR5

Bildtext: Fig. 6. Some previous temperature reconstructions, (Hegerl et al., 2007; Loehle and McCulloch, 2008; Huang et al., 2008; Mann
et al., 2008, 2009; Ljungqvist, 2010; Christiansen and Ljungqvist, 2011) published subsequently to the IPCC Fourth Assessment Report (Solomon et al., 2007) shown together with the LOC reconstructions of the present paper. All reconstructions are centered
to zero mean in the 1880–1960 AD period and have been 50-yr smoothed with a Gaussian filter. The confidence intervals of the
LOC reconstructions of the present paper (from Figs. 5 and 8) are also shown (dashed curves).

Noch deutlicher zeigt sich dies anhand eines Proxis der Alpen im folgenden Bild.

 

Bild 16 [15]  Proxi der Alpen aus FIG. 8. Local temperature reconstructions (K) based on the proxies in Table 1 and HadCRUT2v, calibration period AD 1880–1960

Diese Aussage findet sich aber nicht nur in [10], sondern parallel in anderen Rekonstruktionen sowie auch in der Haupt-Mittelwertlinie des AR5 selbst:

Klimarekonstruktionen mit einem früheren Beginn der aktuellen Warmzeit:

·         Bild 8:  ca. 1550 und 1650 (violette Pfeile)

·         Bild 11: 1600  (violetter Pfeil)

·         Bild 12: ca. 1450 und 1600 ((violette Pfeile)

·         Bild 14: 1450 und 1600 (rote Pfeile) in der Hauptlinie des AR5 für Land und See global (siehe dazu auch Bild (17)

Wird die Klimageschichte umgeschrieben?

 Wenn die Verfasser der Studie [10] damit recht haben dass die bisherige Methodik der Proxiauswertung falsche Ergebnisse lieferte  (und der Verlauf LOC 2k der wirklich richtige ist), was sich auch anhand der Verläufe anderer Rekonstruktionen in der Listung des vorhergehenden Absatzes „Klimarekonstruktionen mit einer Verschiebung des Beginns der aktuellen Warmzeit“ bestätigt,  muss die anthropogene Beeinflussung der Klimageschichte umgeschrieben werden.

Allerdings findet sich dazu noch kaum eine Diskussion, obwohl es sogar im AR5 offensichtlich ist wie Bild 17 zeigt. Der Autor hat darin den relevanten Teil der Hockeystick-Kurve (Bild 3) mit der Mittelwert-Linie „Land und See global“ aus dem AR5 (Bild 14) überlagert. Die Begründung, dass die aktuelle Warmzeit ausschließlich durch anthropogenes CO2 nach 1800 (Bild 18) gestartet wurde ist demnach bereits im AR5 selbst widerlegt.

  

Bild 17 Auszug der Hockeystick-Kurve mit vom Autor zugefügtem Verlauf (hellbraune Linien) der Rekonstruktion „Land und See global“ aus dem AR5

Noch offensichtlicher wird die Diskrepanz, wenn man den Hockeystick im gleichen Maßstab zu den neueren Proxianalysen kopiert (Bild 17). Dass dieser durch neuere Proxis endgültig überholt ist, wird offensichtlich. Der Hockeystick wurde zwar 2009 vom Ersteller deutlich korrigiert (Man et al 2009) ist aber auch damit noch weit entfernt von denen der aktuellen Rekonstruktionen.

 

Bild 17.1 Hockeystick (Bild 3) und neuere Proxis (Bild 15) im gleichen Maßstab überlagert

Nun weiss man natürlich nicht, welches die alleine richtige Kurve ist. Aber die drastischen Unterschiede belegen, dass das Thema nicht entfernt „gesettelt“ ist, sondern dringend einer neuen Diskussion bedarf, auch wenn das PIC eine solche für absolut unnötig hält (siehe Zitierung von Prof. Rahmstorf am Ende des Artikels). Explosiv ist das Thema allemal. Die schöne, glatte Verlaufskurve des Hockeystick war (neben dem Beginn der Erwärmung ab der Industrialisierung) auch der Beleg, dass das Klima keine Sprünge gemacht hätte und die aktuelle, starke  Erwärmung somit unnatürlich sein muss. Wenn von dieser schön geraden Temperaturlinie jedoch nichts mehr übrig bleibt, ist auch diese Hypothese hinfällig.   

  

Bild 18  CO2-Emissionen (Bildauszug). Quelle: AR5 Climate Change 2014 Synthesis Report

Bildtext (Auszug): Figure 1.5 |  Annual global anthropogenic carbon dioxide (CO2) emissions (gigatonne of CO2-equivalent per year, GtCO2/yr) from fossil fuel combustion, cement production and flaring, and forestry and other land use (FOLU), 1750–2011.

Dass die anthropogene CO2-Klimatheorie damit schnell in den Mülleimer der Geschichte wandert, wird allerdings kaum passieren. Zu viele Reputationen und vor allem Geld werden es noch lange Zeit verhindern. Aber aufhalten wird man es nicht mehr können.

Klimazukunft

Klimamodelle werden aufgrund der Proxis parametriert. Wenn schon die Vergangenheit praktisch nicht (in der erforderlichen Genauigkeit) rekonstruierbar ist, kann auch die Zukunft daraus nicht richtig berechnet werden. Wer es sehen will, kann es im Bild 18 erkennen. Wer würde ahnen dass es sich dabei um eine Originalgrafik aus dem IPCC AR5 handelt. 

Bild 19  Projektionskurven. Quelle: AR5 2013 Figure TS.14. Seite 87

Unser Bundesministerium für Bildung und Forschung zeigt da lieber die politisch „richtige“ Darstellung (Bild 20).  Aktuell kann man dort immer noch eine Broschüre „Herausforderung Klimawandel“ laden. Im Begleittext steht dazu:

„Das numerische Experiment zeigt, dass das Klimamodell die so rekonstruierte globale Klimaentwicklung (Abb. 16) und insbesondere das Phänomen der sogenannten „Kleinen Eiszeit” in Europa recht realistisch zu simulieren vermag“.

 Dass inzwischen viele neue Studien aufzeigen, dass diese Aussage  „realistisch zu simulieren vermag“ überhaupt nicht stimmt sowie die aktuellen Rekonstruktionen der Temperaturen im Mittelalter inzwischen deutlich anders aussehen, soll der Bürger wohl nicht über ein für Bildung und  Forschung zuständiges Ministerium erfahren.

Bild 20   Bundesministerium für Bildung und Forschung, Broschüre: Herausforderung Klimawandel, Abbildung 16

Das Portal für streng klimatreue Information – Klimaretter.info – sieht auch keinerlei Handlungsbedarf und lobt zudem weiterhin die Hockeystickkurve und deren Autor „Paris ist die wahrscheinlich letzte Chance“.

Und damit liegt klimaretter.info haargenau auf der Linie des PIK.

SciLogs Klimalounge

Paläoklima: Die letzten 2000 Jahre

15. Mai 2013 von Stefan Rahmstorf in Paläoklima (Besprechung des Pages 2k Projektes)

Stefan Rahmstorf : Paläoklima: Die letzten 2000 Jahre – Im globalen Durchschnitt gleicht die neue Rekonstruktion fast aufs Haar dem bekannten „Hockeyschläger“, der vor fünfzehn Jahren erstellten ersten derartigen Rekonstruktion.

Nachspann

Beispiele von Klimaproxis

Um Lesern welche sich mit der Thematik weniger auskennen ein Gefühl zu geben, wie Klimaproxis aussehen, anbei ein Auszug solcher Proxis aus  [10]. Nur die Mittelwertbildung macht daraus die bekannten scharfen Linien – und der Computer berechnet auch treu dazu den „Vertrauensbereich“. Und beim Klimagipfel (er-)finden daraus 40.000 „Fachleute“ durch Diskussionen und Abstimmen die wahre Temperatur. Man muss nur fest daran glauben, dass Masse (und Computerprogramme) immer die Wahrheit (er-)kennen.

  

Bild 21 [10] Beispiele von Proxis (Auszug aus Fig. 3 der Studie)

 Quellen

 [1]

kaltesonne 08.03.2016: Universität Gießen findet eklatante Unterschiede zwischen realer und simulierter Temperaturentwicklung während der letzten 2000 Jahre in Europa: Klimamodelle müssen auf den Prüfstand

[2]

Justus Liebig Universität Giessen, Pressemitteilung: Europäische Sommer so heiß wie seit über 2000 Jahren nicht

https://www.uni-giessen.de/ueber-uns/pressestelle/pm/pm19-16

[3]

Luterbacher et al, 29.01.2016: European summer temperatures since Roman times

[4]

JOURNAL OF QUATERNARY SCIENCE (2014) 29(5) 487–494, ESPER et al: Northern European summer temperature variations
over the Common Era from integrated tree-ring density records

[5]

TU Berlin. Erläuterung zur Vorlesung TWK an der TU-Berlin Inst. für Ökologie: Rekonstruktion der mittleren Temperatur auf der Nord-Halbkugel in den vergangenen 1.000 bis 2.000 Jahren.

http://lv-twk.oekosys.tu-berlin.de//project/lv-twk/002-holozaen-2000jahre.htm

[6]

IPCC Report AR 1, 1990

[7]

IPCC AR 3 WG 1, 2001. Climate Change 2001 THE SCIENTIFIC BASIS

[8]

IPCC AR5 WG1, 2013. Climate Change 2013, The Physical Science Basis

[9]

Loehle at al:Correction to: A 2000-YEAR GLOBAL TEMPERATURE RECONSTRUCTION BASED ON NON-TREE RING PROXIES ENERGY & ENVIRONMENT VOLUME 19 No. 1 2008

[10]

Clim. Past, 8, 765–786, 2012. Christiansen and Ljungqvist, 18.04.2012: The extra-tropical Northern Hemisphere temperature in the last two millennia: reconstructions of low-frequency variability

[11]

IPCC AR4 WG 1, 2007: The Physical Science Basis: Hemispheric Temperatures in the ‘Medieval Warm Period’

[12]

Buentgen et al.2016_NatureGS: Cooling and societal change during the Late Antique Little Ice Age from 536 to around 660 AD

[13]

Horst-Joachim Lüdecke Sept. 2011: Long-Term Instrumental and Reconstructed Temperature Records Contradict Anthropogenic Global Warming, Energy & Environment 22, 6, 2011, arxiv.org/PS_cache/arxiv/pdf/1110/1110.1841v1.pdf

[14]

klimaretter.info, 29. Januar 2016: Selbst die Römer hatten’s nicht so warm

http://www.klimaretter.info/forschung/hintergrund/20549-selbst-die-roemer-hattens-nicht-so-warm

[15]

CHRISTIANSEN AND LJUNGQVIST DECEMBER 2011: Reconstruction of the Extratropical NH Mean Temperature over the Last Millennium with a Method that Preserves Low-Frequency Variability




Die große Dekarbonisierungslüge – Teil 1: Halbwahrheiten und Unterschlagungen

In den Kalkgesteinen der Erde stecken zwischen 60 und 100 Billiarden Tonnen Kohlenstoff [MOOR]. Entstanden sind sie überwiegend durch die Umwandlung von atmosphärischem CO2 zu Kalkschalen und Skeletten von Meerestieren

Die Wissenschaft, so behaupten es die Vertreter der Theorie vom menschengemachten Klimawandel (Anthropogenous Global Warming, AGW), sei sich in der Frage des Klimawandels weitgehend einig: Der Mensch sei dabei, das Klima in katastrophaler Weise zu destabilisieren. Die Anhänger dieser oft mit quasireligiösem Eifer verfochtenen Lehre sehen als Hauptursache hierfür die Verbrennung fossiler Rohstoffe, welche das als „Treibhausgas“ bezeichnete CO2 freisetzt [WICC, WICO]. Dadurch werde der eigentlich stabile CO2-Kreislauf unseres Planeten in nahezu irreparabler Weise gestört.

Bild 1. Nach Auffassung der Klimawandel-Anhänger hat erst die industrielle Revolution einen dramatischen Anstieg der CO2-Konzentration in der Atmosphäre verursacht (Grafik: Global Warming Art, Creative Commons)

Im Wesentlichen wird von Seiten der Klimaalarmisten behauptet, dass sich die Freisetzung von CO2 aus organischer Materie und seine erneute Bindung durch Fotosynthese seit hunderttausenden von Jahren mehr oder weniger im Gleichgewicht befanden, Bild 1. Diese Balance werde erst jetzt durch den vom Menschen verursachten CO2-Anstieg gefährdet. Besonders pointiert formuliert dies Prof. Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung (PIK), der als Warner vor der sogenannten Klimakatastrophe zum Medienliebling avancierte. In einem Focus-Artikel sagte er: „Die CO2-Konzentration in der Atmosphäre war jahrtausendelang praktisch konstant und steigt erst an, seit wir dem System riesige Mengen an zusätzlichem Kohlenstoff aus fossilen Lagerstätten zuführen [FORA]“. Bei den vom Menschen verursachten Emissionen handele es sich um Milliarden Tonnen Kohlenstoffdioxid, die dem eigentlich stabilen Kohlenstoffkreislauf netto hinzugefügt würden. Ähnliche Auffassungen vertreten auch zahlreiche weitere Klimaforscher, so auch der bekannte Klimakatastrophen-Apologet Michael E. Mann mit seiner „Hockeystick-Kurve“ (Bild 2) [IP31]. Am drastischsten aber formulierte es der US-Politiker Al Gore anlässlich der Auszeichnung mit dem Nobelpreis: „Wir Menschen haben es mit einem globalen Notfall zu tun. Die Erde hat jetzt Fieber. Und das Fieber steigt“ [FOAL]. Am Rande sei übrigens vermerkt, dass Gore bei seinen diesbezüglichen Aktivitäten ein Vermögen von geschätzt mehr als 100 Mio. US-$ ansammeln konnte.

Bild 2. Die inzwischen diskreditierte „Hockeystick-Kurve“: Rekonstruierte Temperatur (blau) und Thermometerdaten (rot), die Fehlergrenzen sind in grau gezeigt (Grafik: Michael E. Mann, Raymond S. Bradley und Malcolm K. Hughes, IPCC/ Wikimedia Creative Commons)

Zweifel sind angebracht

Zum Leidwesen der Klimakatastrophen-Prediger stimmt ihre Theorie mit den leicht nachprüfbaren Fakten nicht so richtig überein. Erste Zweifel sollten aufkommen, wenn man die Entwicklung der nach heutigem Stand der Klimaforschung bestimmten CO2-Konzentrationen in der Atmosphäre [NOAA] mit den gut dokumentierten Emissionen aus der Verbrennung fossiler Brennstoffe [CDIA] in den letzten ca. 260 Jahren im gleichen Diagramm aufträgt, Bild 3.

Bild 3: Theoretisch aufgrund der kumulierten menschlichen Emissionen [CDIA] zu erwartender CO2-Anstieg seit 1751 (rot) sowie Messwerte von Eisbohrkernen sowie vom Mauna Loa [CDIA,CDI2, NOAA] (grün)

Die Berechnung der theoretisch zu erwartenden Zunahme des CO2-Gehalts aufgrund der seit 1751 durch Verbrennung fossiler Rohstoffe akkumulierten CO2-Emissionen führt zu einem Wert von 383 Mrd. t Kohlenstoffäquivalent (bei dieser Berechnungsart wird nur der reine Kohlenstoffanteil im CO2 gewertet), was 189 ppm CO2-Zunahme entspricht (1 Mrd. t = 1 Gt (Gigatonne)). Ausgehend von dem behaupteten vorindustriellen CO2-Pegel von ca. 280 ppm und einem Anstieg von etwas weniger als 0,5 ppm pro Mrd. t zusätzlich eingebrachten C-Äquivalents müsste der CO2-Gehalt der Atmosphäre daher inzwischen bereits auf rund 469 ppm angestiegen sein. Die Diskrepanzen zum gemessenen CO2-Anstieg der Atmosphäre auf derzeit 400 ppm sind zudem nicht nur quantitativ. Auch die völlig unterschiedliche Charakteristik der Kurven fällt sofort ins Auge. So simpel, wie es uns die Klimaalarmisten einreden wollen, sind die Zusammenhänge also offensichtlich nicht.

Die Sache mit den Reservoirs

Die in Bild 3 verdeutlichte Diskrepanz ist natürlich auch den AGW-Vertretern bekannt. Also musste man sich mit der Tatsache beschäftigen, dass CO2 nicht nur in der Atmosphäre vorkommt und es auf der Erde schon seit jeher natürliche Kreisläufe gibt, welche CO2 zwischen verschiedenen Speicherorten hin- und hertransportieren und dabei auch zu anderen Verbindungen wie pflanzlichem oder tierischem Gewebe umsetzen. Hinzu kommen noch die Zerfallsprodukte nach dem Tod dieser Lebewesen in Form von z.B. Böden, Humus oder Torf.

Die wichtigste Reaktion zur Entfernung des CO2 aus der Atmosphäre ist aus Sicht des IPCC (International Panel on Climate Change der UN bzw. „Uno-Klimarat“) die Fotosynthese der Pflanzen. Mit ihrer Hilfe spalten Grünpflanzen CO2 aus der Luft in Kohlenstoff und Sauerstoff auf. Den Kohlenstoff bauen sie in ihr Gewebe ein, während ein Teil des Sauerstoffs an die Atmosphäre abgegeben wird. Über die Nahrungskette hinweg dienen sowohl der Kohlenstoff als auch der Sauerstoff als Grundstoffe des Lebens. Da ein gewisser Anteil von Lebewesen nach dem Tod nicht sofort verwest, sondern zumindest teilweise im Erdboden eingeschlossen wird, enthalten auch die Böden Kohlenstoff. Als stellvertretend für die Modellvorstellungen, die der Öffentlichkeit hierzu präsentiert werden, kann die bei Wikipedia gezeigte Grafik angeführt werden, Bild 4.

Bild 4. Diagramm des Kohlenstoffkreislaufs. Schwarze Zahlen: Inhalt der verschiedenen Reservoire in Mrd Tonnen Kohlenstoff (Gt C), blaue Zahlen: Austausch von Kohlenstoff in Gt Tonnen Kohlenstoff/ Jahr (Quelle: Wikipedia, [KOKR])

Die Märchenstunde der Klimaalarmisten…

Bild 4, das in verschiedensten Varianten in zahlreichen AGW-Veröffentlichungen weite Verbreitung gefunden hat, beinhaltet mehrere grundsätzliche Falschinformationen. Diese sollen die These stützen, dass die Zunahme des CO2-Gehalts der Atmosphäre nahezu ausschließlich auf menschliche Einwirkung zurückzuführen ist und dass das CO2 dort auch auf sehr lange Zeit verbleiben soll, weil nur sehr wenig dauerhaft entfernt werde. Als Ursache des CO2-Anstiegs werden neben der Verbrennung fossiler Rohstoffe noch die Zementherstellung und die Abholzung von Wäldern aufgeführt.

Sieht man sich die Zahlen des Bildes 4 genauer an, so fällt zunächst auf, dass eine wesentliche natürliche Quelle von CO2-Emissionen komplett weggelassen wurde: Der Vulkanismus. Im Weltbild der Klimawarner spielt er eine so unbedeutende Rolle, dass man ihn hier schlicht unterschlagen hat. Dieses Vorgehen ist grob unwissenschaftlich. Hierauf wird in einer weiteren Folge dieses Artikels noch näher eingegangen.

Eine weitere bewusste Falschinformation betrifft die Darstellung des CO2-Austauschs sowohl mit den Ozeanen als auch innerhalb dieser selbst. Die intelligenteren unter den AGW-Vertretern wissen, dass sie hier schummeln, aber sie sind dazu gezwungen, weil man das „Verschwinden“ von rund 55 % der vom Menschen verursachten CO2-Emissionen aus der Atmosphäre nicht mit den Austauschvorgängen mit den Pflanzen und den Böden an Land erklären kann. Deshalb wird verkündet, dass der Rest vom Ozean aufgenommen wird. Da sich dabei z.T. H2CO3 (Kohlensäure) bildet, würden die Meere „versauern“ [KIES], Bild 5.

Bild 5. Eine von AGW-Vertretern gern verwendete Grafik zur Darstellung der angeblichen Ozeanversauerung durch CO2. Die gebildete Säure H2CO3 soll Muscheln, Korallen etc. daran hindern, gesunde Kalkschalen auszubilden (Quelle: [OZEA])

In Bild 4 wird diesem „Verschwinden“ dadurch Rechnung getragen, dass man behauptet, dass 92 Gt C als CO2 vom Ozean aufgenommen werden, während das Meer lediglich 90 Gt C wieder abgibt. Ansonsten werden Kreisläufe innerhalb verschiedener Schichten des Ozeans dargestellt, welche das CO2 im Wesentlichen nur hin und her bewegen. Von den aufgenommenen 2 Gt C landen nach dieser Darstellung lediglich 0,2 Gt nach dem Absterben und Absinken der entsprechenden Lebewesen endgültig als Sediment am Meeresboden, ein auffälliger Unterschied zu den 121,3 Gt C, welche an Land jedes Jahr durch Pflanzen aufgenommen und teils in lebender Biomasse, teils im Boden abgespeichert werden.

Als „Präzisierung“ für die 0,2 Gt C, welche nach Bild 4 am Meeresboden verbleiben, werden vor allem Kieselalgen genannt, weil diese aufgrund des Gewichts ihrer Schalen schnell absinken würden [KIES]. Mit dieser Erläuterung wird das Thema Kalkschalenbildung elegant umgangen und somit verschwiegen. Urheber dieser Irreführung ist ausgerechnet „Wissenschaft im Dialog“, eine gemeinnützige GmbH, hinter der alle großen deutschen Wissenschaftsorganisationen stehen. Ein Musterbeispiel für einen „Konsens der Wissenschaft“ im Interesse des Klimaalarmismus.

Vor allem mit dieser vorgeblich geringen Abspeicherungsrate von CO2 im Meeressediment wird die behauptete lange Verweildauer von CO2 in der Erdatmosphäre begründet [DEEP]). Der Rest der Jahr für Jahr aufgenommenen 2 Gt – also 1,8 Gt C – werde einfach nur im Wasser gelöst und somit reversibel eingespeichert. Die resultierende allmähliche Akkumulation von CO2 im Meerwasser und die daraus gebildete Kohlensäure wird als Ursache für eine zunehmende „Versauerung“ der Meere gesehen, welche letztlich auch dort zu einer katastrophalen Entwicklung mit abnehmenden Erträgen der Fischerei führen werde [OZEA].

Weiterer auffallender Unterschied gegenüber der Situation an Land ist die vergleichsweise recht geringe Masse an Kohlenstoff, die in den Meeressedimenten insgesamt weggespeichert worden sein sollen. Während man davon ausgeht, dass in den Böden an Land 1.580 Gt Kohlenstoff gespeichert seien, wird behauptet, dass in den Meeressedimenten insgesamt lediglich 150 Gt C stecken. Das entspräche insgesamt nur 750 Jahresraten Abspeicherung zu je 0,2 Gt, eine angesichts des Alters unseres Planeten und seiner Meere doch ziemlich bescheidene Menge. Dabei haben die Meere und damit auch der Meeresboden einen wesentlich größeren Flächenanteil (71 %) als das Land, was die Diskrepanz zwischen den behaupteten Größen der beiden Reservoire umso größer macht.

und die dabei unterschlagenen Fakten

Zu diesen Zahlen kann man nur eines sagen: Sie stimmen nicht. Man hat die wichtigste Reaktion im Meer schlicht „übersehen“, man könnte auch sagen bewusst unterschlagen: Die Abbindung von CO2 bei der Bildung der Kalkschalen von Meerestieren wie Muscheln, Schnecken, einzelligen Algen oder Korallen, Bild 6. Kalk ist nichts anderes als Calciumcarbonat (CaCO3) [KALK]. Jedes seiner Moleküle enthält demnach ein komplettes CO2-Molekül, das in steinhartem Material fest gebunden ist. Das Meer wimmelt geradezu von Lebewesen, welche diese Umwandlung vollziehen, wie jeder Besuch an einem beliebigen Meeresstrand sofort beweist. Und diese Schalen sind nicht leicht vergänglich, sondern überdauern den Tod besagter Lebewesen teilweise um hunderte Millionen von Jahren, wie die geradezu ungeheuren Mengen Kalkgestein auf unserem Planeten beweisen.

Bild 6. Die Dekarbonisierung der Atmosphäre aufgrund der Abbindung von atmosphärischem CO2 durch Lebewesen zu Kalkschalen und -skeletten erfolgt in riesigen Mengen

Kalkbildung – die gern unterschlagene CO2-Senke

Und diese Kalkbildung, die schon seit Urzeiten vor allem in den Meeren stattfindet, geht auch heute ungebremst weiter. Auch die Gesamtmenge des in Sedimenten am Meeresboden eingelagerten Kalks bzw. des darin gebundenen Kohlenstoffs ist um ein Vielfaches höher als die von den AGW-Vertretern angegebenen 150 Gt. Nachzulesen ist dies in einer 2003 veröffentlichten Untersuchung des renommierten amerikanischen Professors Wallace Smith Broecker über den CaCO3-Zyklus in den Ozeanen [SEDI]. Dort kommt er zu folgenden Schlussfolgerungen: „Die hoch CaCO3-haltigen Sedimente, welche die ozeanischen Höhenzüge und Plateaus bedecken, haben typischerweise einen CaCO3-Gehalt von 90 % und eine Trockensubstanzdichte von 1 g/cm3. Da rund ein Viertel des Meeresbodens von diesen calcitreichen Sedimenten bedeckt ist, liegt die Gesamtmasse des darin enthaltenen Calcits bei rund 6.3 1019 g CaCO3“. Das entspricht einem Kohlenstoffinventar von rund 7.560 Gt C. Man vergleiche diese Aussagen mit dem Wert von 150 Gt C, den die AGW-Propheten des IPCC für Meeressedimente angeben. Es handelt sich um einen Unterschied um den Faktor 50 (!). Dabei bezieht sich Broecker lediglich auf die obersten 8 cm Sediment. Je nach Meeresregion erreicht die tatsächliche Dicke der Sedimente jedoch Werte im Kilometerbereich.

Interessant sind in diesem Zusammenhang auch umfassende Messungen zur Geschwindigkeit, mit der beispielsweise Cyanobakterien CO2 aus Meerwasser zu Oshenite-Aragonit (ebenfalls ein CaCO3-Mineral) abbinden können [OSHE]. Bei entsprechenden Witterungsbedingungen werden bei der Bildung dieser für tropische Flachwasserzonen typischen „whitings“ Abbindungsraten von bis zu mehr als 100 t C pro Quadratkilometer und Jahr erreicht. Das wiederum entspricht in diesen Bereichen einem kompletten Umschlag des CO2-Inventars des Oberflächenwassers innerhalb weniger Stunden, was darauf hinweist, dass die in der Literatur aufgeführten Übergangszeiten (einige Jahre, s.u.) bei entsprechender organischer Aktivität um etliche Größenordnungen unterschritten werden können. Angesichts der Fläche der Ozeane von ca. 396 Mio. km2 käme man selbst dann, wenn man eine Rate der CO2-Abbindung zu Kalk im Mittel annimmt, die um den Faktor 10.000 niedriger liegt, immer noch auf 4,3 Gt C/ Jahr. Zu beachten ist hierbei, dass unabhängig von den „whitings“ genannten CaCO3-Ausfällungen auch die Kalkbildung durch Muscheln, Korallen, Seeigel, Algen sowie weitere Lebewesen ständig weiterläuft. Die Annahme des IPCC, dass insgesamt pro Jahr nur 0,2 Gt C im Ozeansediment landen, ist vor diesem Hintergrund wohl kaum zu rechtfertigen.

Dichtung und Wahrheit zu CO2-Verweildauern in der Atmosphäre

Aus der gleichen Betrachtung heraus kann man auch sofort Aussagen über die angeblich jahrhunderte- oder gar jahrtausendelange Verweildauer neu in die Atmosphäre eingetragener CO2-Moleküle [IPCC, SKEP, ARCH] als wohl kaum zutreffend bezeichnen. Die Geschwindigkeit, mit der CO2 von der Atmosphäre in die Ozeane übergeht, wurde schon seit den 1950er Jahren dokumentiert. Eine eingehende Recherche von T. V. Segalstad umfasst neben eigenen Untersuchungen auch eine Auswertung von rund 35 Quellen aus den 50er bis 90er Jahren des vorigen Jahrhunderts [SEGA]. Er kommt auf eine Verweildauer von 5,4 Jahren bei einer Spanne von 1 bis 25 Jahren. Auf rund 5 Jahre kommt auch C. Starr [STAR]. Interessanterweise geht auch der Blog „Skeptical Science“, bekannt als Plattform für besonders aggressive AGW-Positionen, von einer Verweildauer des CO2 in der Atmosphäre von lediglich 5 Jahren aus [SKEP]. Um dennoch ihre Theorie von der langen Verweildauer zu stützen, wird von AGW-Seite behauptet, dass es meist lediglich zu einem wechselseitigen Austausch von CO2-Molekülen zwischen Ozean und Atmosphäre komme. Der von der oberen Schicht des Ozeans gebildete Puffer, welcher zunächst das CO2 aus der Luft aufnehme, laufe schnell voll. Platz für die Aufnahme von weiterem CO2 erfordere einen Abtransport durch Strömungsaustausch mit den tieferen Schichten des Ozeans. Dieser Strömungsaustausch erfolge sehr langsam mit Umlaufzeiten von 500 Jahren bis hin zu tausenden von Jahren. Aus diesem Grund sei die Annahme, dass einmal in die Atmosphäre eingebrachtes CO2 dort für bis zu 500 Jahre verbleibe, realistisch. Bei dieser Betrachtungsweise wird die oben beschriebene Abspeicherung von CO2 in Kalksedimenten schlicht ignoriert. Man kann angesichts der hier dargelegten Fakten nur staunen, was heutzutage als vom „Konsens der Wissenschaft getragen“ verbreitet wird.

 
Der CO2-Austausch mit den Meeren ist eine große Unbekannte

Wie sieht es nun tatsächlich mit dem CO2-Austausch zwischen Atmosphäre und Ozeanen aus? Dass sich CO2 in Wasser lösen und auch wieder daraus entweichen kann, beweisen uns täglich kohlensäurehaltige Getränke von Mineralwasser über Limonaden bis Bier und Sekt, wenn sie beim Öffnen sprudeln. In ihnen wurde CO2 unter hohem Druck gelöst, das beim Absinken des Drucks beim Öffnen wieder entweicht. Nach den Gesetzen der physikalischen Chemie bildet sich zwischen dem CO2-Gehalt der Luft und demjenigen des im Wasser gelösten Kohlenstoffdioxids ein Gleichgewicht, das durch die Parameter (Partial)-Druck und Temperatur gesteuert wird, Bild 7.

Bild 7. Mit steigender Wassertemperatur nimmt die Löslichkeit von CO2 erheblich ab [LOES]

Was bei Flaschengetränken durch starken CO2-Überdruck erreicht wird, funktioniert im System Ozean-Atmosphäre lautlos und automatisch in beide Richtungen: Zwischen den jeweiligen CO2-Gehalten bildet sich ein Gleichgewicht. Kommt mehr CO2 in die Atmosphäre, dann nimmt der Ozean solange CO2 auf, bis das Gleichgewicht wiederhergestellt ist. Steigt dagegen die Temperatur des Wassers, so sinkt seine Löslichkeit für das Gas und es wird teilweise in die Atmosphäre entweichen.

Soweit die Theorie. In der Praxis stellen sich die Dinge allerdings sehr viel komplizierter dar. Während für die Atmosphäre kein temperaturabhängiger Grenzwert der CO2-Aufnahme existiert und die Durchmischung aufgrund der Turbulenz der Luftströmungen äusserst schnell erfolgt, weisen die Ozeane sehr komplexe und noch dazu dreidimensionale Temperaturverteilungs- und Strömungsmuster auf. Während vor allem kalte polnahe Ozeanbereiche CO2 aufnehmen, wird es in wärmeren Regionen wieder abgegeben. Zudem erfolgt der CO2-Austausch zwischen verschiedenen Tiefen über meist sehr langsame Strömungen. Zu all diesen Vorgängen gibt es allerdings nur bruchstückhafte Daten. Für umfassende quantitative Aussagen sind die Ozeane viel zu riesig, die Vorgänge viel zu komplex und die Zahl der Messdaten viel zu gering, siehe auch Bild 8 [ESCH].

Die chaotische Realität des CO2-Austauschs zwischen Ozean und Atmosphäre. Dargestellt sind die Unterschiede zwischen dem CO2-Partialdruck der Atmosphäre (damals 321 ppmv) und demjenigen im Meerwasser bei verschiedenen Oberflächentemperaturen (Grafik: W. Eschenbach [ESCH]

Die Daten zu Bild 8 stammen von verschiedenen Messkampagnen des Scripps-Instituts (USA) aus den Jahren 1957 bis 1963. Die Abweichungen vom Gleichgewicht zwischen Meer und Atmosphäre erreichen teilweise an die 100 ppm!

Weiteres Handicap ist, dass man im Ozean – im Unterschied zu meteorologischen Stationen an Land – so gut wie gar nicht ortsfest messen kann. Die IPCC-Zahlen aus Bild 4 sind auch aus diesem Grund nichts weiter als äußerst grobe Schätzwerte aufgrund bruchstückhafter Daten. Zudem werden, wie weiter oben nachgewiesen, wesentliche Einflussgrößen einfach ausgeblendet.

Andererseits ist der Austausch des CO2 zwischen Atmosphäre und dem gigantischen Speicher, den die Ozeane darstellen, entscheidend für die Annahmen zu künftigen CO2-Gehalten der Atmosphäre. Da alle Klimamodelle mit diesen Annahmen arbeiten, sind ihre Ergebnisse demnach samt und sonders grob fehlerbehaftet. Die damit errechneten Aussagen können keinen Anspruch auf Korrektheit erheben.

Fred F. Mueller

Quellen

[ARCH] David Archer & Victor Brovkin The millennial atmospheric lifetime of anthropogenic CO2. Climatic Change (2008) 90:283–297, DOI 10.1007/s10584-008-9413-1

[CDIA] http://cdiac.ornl.gov/trends/emis/overview.html    abgerufen am 29.6.2013

[CDI2] http://cdiac.ornl.gov/ftp/trends/co2/lawdome.combined.dat…. abgerufen 6.10.2015

[ESCH] http://wattsupwiththat.com/2013/11/27/co2-in-the-air-co2-in-the-seawater/

[FOAL] http://www.focus.de/politik/zitate/zitat_aid_228903.html    abgerufen am 2.5.2013

[FORA] Klimawaage außer Balance, FOCUS Magazin http://www.focus.de/wissen/klima/tid-8638/diskussion_aid_234323.html    abgerufen am 21.4.2013

[IPCC] https://www.ipcc.ch/ipccreports/far/wg_I/ipcc_far_wg_I_chapter_01.pdf

[IP31] Fig. 2.20 des dritten Berichts des Intergovernmental Panel on Climate Change (IPCC) der UNO

[KALK] Kalk – ein Rohstoff aus Schalen und Knochen, http://www.kalk.de/index.php?id=35    abgerufen am 20.4.2013

[KOKR] https://de.wikipedia.org/wiki/Kohlenstoffzyklus#/media/File:Carbon_cycle-cute_diagram-german.png

[LOES] http://www.uni-muenster.de/imperia/md/content/didaktik_der_chemie/kernpraktikumfriese/loeslichkeit_von_gasen_in_wasser__kohlenstoffdioxid_.pdf

[MIAT] Kalkgesteine, Mineralienatlas, https://www.mineralienatlas.de/lexikon/index.php/Mineralienportrait/Calcit/Kalkgesteine  abgerufen am 26.9.2015

[MOOR] http://www.eike-klima-energie.eu/news-cache/greenpeace-gruender-haelt-eine-grosse-rede-und-lobt-kohlendioxid/

[NOAA] http://www.esrl.noaa.gov/gmd/ccgg/trends/

[OSHE] Robbins, L.L.; Yates, K. K.: Direct Measurement of CO2 Fluxes in Marine Whitings. Contract No. DE-AI26-99FT40596, U.S. Geological Survey, Center for Coastal and Regional Marine Studies, 600 Fourth Street South, St Petersburg, Florida 33701

[OZEA] https://fmss12ucheme.wordpress.com/2013/05/05/ocean-acidification-2/

[SEGA] Segalstad, T.V.: Carbon cycle modelling and the residence time of natural and anthropogenic atmospheric CO2: on the construction of the "Greenhouse Effect Global Warming" dogma. In “Global Warming: The Continuing Debate", European Science and Environment Forum (ESEF), Cambridge, England (ISBN 0-9527734-2-2), pages 184-219, 1998.

[SKEP] http://www.skepticalscience.com/co2-residence-time.htm

[STAR] Starr, C.: Atmospheric CO2 residence time and the carbon cycle. 1992 EPRI/SIO Symposium on Global Warming. Energy, Vol. Volume 18, Issue 12, December 1993, Pages 1297–1310, doi:10.1016/0360-5442(93)90017-8

[WICC] Kohlenstoffzyklus, Wikipedia, http://de.wikipedia.org/wiki/Kohlenstoffzyklus    abgerufen 21.4.2013

[WICO] Kohlenstoffdioxid, Wikipedia, http://de.wikipedia.org/wiki/Kohlenstoffdioxid    abgerufen 21.4.2013




„Der heutige Klimawandel. Eine kritische Analyse des Modells von der menschlich verursachten globalen Erwärmung“ – Eine Rezension

Klaus-Peter Dahm, Detlev Laves, Wolfgang Merbach:

„Der heutige Klimawandel. Eine kritische Analyse des Modells von der menschlich verursachten globalen Erwärmung“

(Verlag Dr. Köster, Berlin 2015. 162 Seiten. ISBN 978-3-89574-879-0)

Die Autoren, die Geowissenschaftler Dr. Klaus-Peter Dahm und Dr. Detlev Laves sowie der Agrarwissenschaftler Prof. Dr. Wolfgang Merbach, werteten dabei einerseits vor allem die Sachstandsberichte des IPCC und weitere Veröffentlichungen zum AGW-Modell aus. Andererseits prüften sie ein Großteil der Literatur der letzten Jahre, in der dieses Modell abgelehnt oder erhebliche Zweifel daran zum Ausdruck gebracht werden. Insgesamt 190 Quellen wurden ausgewertet.

Es wurden grundlegende Fragen der Klimawissenschaft beleuchtet und dabei Fragen aufgeworfen, die von der Klimapolitik, wie sie gegenwärtig – nicht nur in Deutschland – als „politisch unkorrekt“ oder gar „unerwünscht“ angesehen werden. Konkret: Sie suchen nach Beweisen dafür, dass Klimaveränderungen durch den Menschen, durch seine Kohlendioxid-Emissionen, ausgelöst werden – und fanden sie nicht!

In insgesamt 9 Kapiteln werden brisante Fragen aufgeworfen und mit wissenschaftlicher Gründlichkeit und Sachlichkeit beantwortet, wie:

–       „Ist die heutige globale Erwärmung dramatisch und beispiellos?“ Antwort: Nein.

–       „Wie bedrohlich sind der Anstieg des Meeresspiegels und andere Klimaphänomene?“ (u. a. Eisschmelze, Extremwetter-Ereignisse, „Versauerung“ der Ozeane) Antwort: Es ergeben sich daraus  keine Bedrohungen für das Leben auf der Erde.

–       „Ist Kohlendioxid die Hauptursache des gegenwärtigen Klimawandels?“ (hier u. a. eine gründliche Auseinandersetzung mit dem Treibhauseffekt) Antwort: Nein, Kohlendioxid hat überhaupt keinen nachweisbaren Einfluss auf die Klimaentwicklung.

–       „Treibt die Sonne unser Klima an?“ Antwort: Ja.

Die Autoren erklären das AGW-Modell als nicht verifizierbar und lehnen es ab. Dagegen favorisieren sie ein Sonnenmodell mit den Ozeanen als Kopplungselement. „Danach wird die globale Temperatur direkt von den oszillierenden Temperaturschwankungen  der Ozeane und indirekt von der Solarstrahlung beeinflusst.“ (S. 144)

Besonders wertvoll wird diese Schrift durch die ausführliche Darstellung der biologischen Bedeutung des Kohlendioxids. Aus ihr geht hervor, dass dieses Gas neben dem Wasser die für das Leben auf der Erde wichtigste Substanz ist, eben kein „Schadstoff“, zu dem es gegenwärtig von Politik und Medien erklärt wird – wider besseren Wissens, denn alle haben einst Unterricht in Biologie und Chemie genossen! Es wird festgehalten, dass ein Kohlendioxidgehalt der Luft von etwa 1000 ppm für die meisten Pflanzen optimal ist. Der gegenwärtige Gehalt von 400 ppm ist „viel zu niedrig, um eine optimale Entfaltung des Lebens (z. B. ein optimales Pflanzenwachstum und damit eine maximale Produktion von Nahrungsmitteln) zu erreichen. Ein Klimaschutz durch Verringerung des CO2 der Luft (Dekarbonisierung) ist nicht nur wirkungslos und extrem kostenintensiv, sondern auch lebensfeindlich.“ (S. 111)

Intensiv beschäftigen sich die Autoren mit der paläoklimatischen Entwicklung, wobei sie sich u. a. auf die seinerzeitigen Untersuchungen der Bundesanstalt für Geowissenschaften und Rohstoffe Hannover, veröffentlicht in den „Klimafakten“ von  Berner und Streif, stützen. Sie vermitteln, dass es Klimaänderungen auf der Erde schon seit mindestens 2,3 Milliarden Jahren gibt. In dieser Zeit  herrschten Temperaturen, die zeitweise um 10 bis 20 Grad von den heutigen abwichen, und die sich  sehr deutlich schneller als heute – mit 0,85 Grad/Jahrhundert – änderten. Die CO2-Konzentrationen der Luft  waren in langen Zeiten deutlich höher als heute – trotzdem traten auch Kaltzeiten mit starken Vereisungen ein.

Das heute favorisierte AGW-Modell ist nicht in der Lage, Erklärungen  für die Klimaentwicklung dieser Zeit zu geben. Es versucht den gegenwärtigen Klimawandel zu beschreiben, der aber umfasst nur 0,0001 % der gesamten Klimageschichte! Auch der vor einigen Jahren unternommene Versuch des IPCC, mit Hilfe der (als wissenschaftliche Fälschungen entlarvten) „Hockeystick-Kurve“ den Betrachtungszeitraum etwas auszudehnen, scheiterte bekanntlich. Schon aufgrund derartiger Überlegungen wird deutlich, dass das AGW-Modell nicht geeignet ist, die bisherige Klimaentwicklung zu erklären, viel weniger, Prognosen zur künftigen Klimaentwicklung anzustellen.

Bemerkenswert sind die Ausführungen über die „Versauerung der Ozeane“, vor der das IPCC warnt. Der pH-Wert der Meere sank seit 1990 durchschnittlich von 8,12 auf 8,08 und ist damit deutlich im alkalischen Bereich. Von einer „Versauerung“ – ab pH = 7 – kann daher keine Rede sein, auch nicht 2100, wenn die IPCC-Prophezeiungen über die CO2-Emissionen eintreten sollten! Das kann schon deshalb nicht geschehen, weil vom IPCC die bekannte Abhängigkeit der CO2-Löslichkeit von der Temperatur völlig unberücksichtigt gelassen wird: Je wärmer das Meerwasser ist, desto weniger CO2 kann darin gelöst sein! Wussten das die IPCC-Autoren wirklich nicht? Trotz dieser Tatsache wird von Politikern und Journalisten unentwegt von einer künftigen „lebensfeindlichen Meeresversauerung“ gewarnt!

Es ist nicht Aufgabe dieser Rezension, auf weitere Schwerpunkte dieser verdienstvollen Arbeit einzugehen. Es sei aber nachdrücklich darauf hingewiesen, dass es sich bei dieser Studie einerseits um eine streng wissenschaftliche Arbeit handelt, die sich aber gleichzeitig dadurch auszeichnet, dass sie auch von Lesern verstanden werden kann, die über keine solchen wissenschaftlichen Spezialkenntnisse wie die Verfasser verfügen. Das Lesen und Verstehen wird durch viele zumeist farbige Grafiken (insgesamt 59) sowie durch regelmäßige Fazite am Endes eines jeden Abschnittes und Zusammenfassungen jeweils am Kapitelende wesentlich unterstützt. 

Nicht nur wegen ihrer klaren und leicht verständlichen Schreibweise, sondern vor allem wegen ihres herausragenden Inhaltes verdient die Broschüre eine weite Verbreitung. Sie gehört zu den wenigen Schriften in Deutschland, die mit wissenschaftlicher Konsequenz die herrschende Klimapolitik an den Pranger stellen. Sie entlarvt die Ignoranz von „Klimawissenschaftlern“ und führt die „Klimapolitik“ ad absurdum. Es ist daher besonders zu begrüßen, dass sie jetzt – kurz vor der Klimakonferenz von Paris – erschienen ist. Gerade im Zusammenhang mit den gegenwärtigen Versuchen von Politikern, dieser schon heute als misslungen anzusehenden und völlig überflüssigen Konferenz im Vorfeld doch noch etwas Auftrieb zu verleihen, ist es notwendig, deren angeblich wissenschaftlichen Hintergründe bloßzulegen. Damit werden zugleich ihre verhängnisvollen wirtschaftspolitischen Zielstellungen sichtbar. Die vorliegende Schrift liefert umfangreiches Faktenmaterial dazu, in einer Gründlichkeit und zugleich Übersichtlichkeit wie bisher kaum verfügbar. 

Auch wenn die Klimakonferenz von Paris etwas anderes behaupten wird: Durch CO2-Reduzierung oder gar durch „Dekarbonisierung“ (á la G7-Gipfel von Elmau) wird das Klima absolut nicht beeinflusst! Der Menschheit werden jedoch wertvolle Ressourcen entzogen, die zur Lösung wirklicher Probleme dringend gebraucht werden. Ein Blick in die Weltpolitik zeigt außerdem überdeutlich, dass die Welt vor weitaus schwerwiegenderen Fragen als einem „Klimawandel“ steht! 

„Der heutige Klimawandel“ sollte daher zur Pflichtlektüre aller unserer Politiker werden. Und jeder Lehrer – nicht nur der für Naturwissenschaften, denn nahezu alle Pädagogen halten es für notwendig, ihre Schülern vor den „Gefahren des Klimawandels“ zu warnen – sollte die Schrift gründlich lesen und verinnerlichen. Schließlich sollte sich jeder Journalist, der über Klima- und Energiepolitik schreiben oder reden will, mit dem Inhalt des Buches auseinandersetzen – und sich erst danach an die Öffentlichkeit wenden!

Es wäre daher höchst wünschenswert, wenn der Erstauflage noch weitere folgen würden. Übersetzungen, nicht nur ins Englische, sind in Erwägung zu ziehen. Diese Arbeit verdient es!

Abschließend soll auf „eine persönliche Bemerkung“ aufmerksam gemacht werden, die die Verfasser ans Ende ihrer Schrift stellten: „Für die vorstehende Analyse haben wir weder von der Kohle- oder Ölindustrie noch von der Atomindustrie eine Zuwendung bekommen. Es ist tatsächlich so, dass wir diese Analyse aus freien Stücken gemacht und die Publikation selbst finanziert haben.“ – Dass Klaus-Peter Dahm, Detlef Laves und Wolfgang Merbach es für nötig hielten, eine solche „Offenbarung“ zu machen, wirft ein bezeichnendes Licht auf die Zustände im „Wissenschaftsstandort“ Deutschland im Allgemeinen und auf die Situation in der „Klimaforschung“ im Besonderen!

Das Buch kann z.B. hier bezogen werden 

Dr. Dietmar Ufer      

        

            




Fakten zu Gletscherschwund und Co. – und wie Ideologie unsere Natur zerstört

Frau Umweltministerin Hendriks Glaube an den menschengemachten Klimawandel ist so unerschütterlich, dass Sie im Eifer schon mal Tsunamis durch Klimawandel entstehen lässt [1] und ihn auch „täglich spürt“ [36], obwohl es seit ca. 20 Jahren nicht mehr wärmer wird. Kritik an der offiziellen Klimadoktrin duldet Sie gar nicht und kann dann schon mal richtig böse werden[30].

Der bayerische Ableger, Frau Umweltministerin Scharf steht dem wenig nach. Sie lässt ihr Ministerium verkünden:

[31] „Der vom Menschen verursachte Klimawandel ist wahrscheinlich die größte Herausforderung der Menschheit“.

Sie hat einen Klimamarathon zur Weltklimakonferenz in Paris gestartet und kämpft nun mit Einsatz dafür, Bayern klimasicher zu machen[26].

Da außer echten Fachpersonen wohl niemand so genau weiß, was man unter „klimasicher“ zu verstehen hat, werden erst einmal Forschungsgelder losgetreten, um wichtige, ohne Klimawandel-geschulte Forschungszentren bisher im Technologieland Bayern nicht lösbare Probleme anzugehen. Darunter sind dann auch:

[27] „Schutz der Beschäftigten vor Hitze und Sonneneinstrahlung. Maßnahmen des vorbeugenden Arbeitsschutzes, Klimatisierungen oder neue Arbeitszeitmodelle,“

[32] Angehen der Problematik: „Sand und andere Feinsedimente aus Flüssen können das Seewasser trüben. Dadurch erhalten Unterwasserpflanzen weniger Licht zum Wachsen.“

[33] Renaturierung von Mooren zur CO2-Senkung.

Der Verfasser wird den Verdacht einfach nicht los, dass „der Klimawandel“ im Kern nur eine verschleierte, gigantische Arbeits-Beschaffungsmaßnahme für die Akademikerschwemme darstellt.

Die Klimawissenschaftler welche auf der Zugspitze forschen wissen auch, wer für ihr Forschungsbudget sorgt und nutzten die Gunst der Stunde. Spontan brachten sie ihre tiefe Bestürzung ums Klima zum Ausdruck, dabei nicht vergessend zu erwähnen wie viel Forschungsaufwand noch erforderlich ist. Vorsichtshalber wurde dazu das nötige Schreckensszenario gelistet:

[1]: "Der Gletscher schmilzt, die Baumgrenze wandert nach oben, Steinschläge drohen“

"…steigt aber auch die Waldbrandgefahr, und sie kann in Monaten auftreten, die bislang völlig ungefährlich waren.“

"Der Pollenkalender muss umgeschrieben werden", sagt Menzel. Und: Die Pollen sind heute aggressiver und damit gefährlicher für die Gesundheit“.

● „…Es drohen Steinschläge und Hangrutsche. Wo der Permafrost verschwindet, stehen auch die Stützen für Skilifte und Berggondeln nicht mehr sicher – was wirtschaftliche Folgen für den Tourismus hätte.“

● [2]:"Forscher Ralf Sussmann : Wasserdampf sagt er, spiele bei der Klimaerwärmung eine sehr viel stärkere Rolle als angenommen ….„Dass die verwendeten Klimamodelle diesen Faktor viel zu niedrig einrechneten“.

Ökoklimatologin Annette Menzel: „Wir haben hier oben ein Stethoskop, mit dem wir sie (die grüne Lunge unter uns) sehr gut abhören können. Das, was sie da hört, gefällt ihr gar nicht. Seit Jahrzehnten steigt die Durchschnittstemperatur kontinuierlich an. …dass mit den häufiger auftretenden Hitzewelle nicht nur die Waldbrandgefahr steigt, sondern auch die Zahl der Hitzetoten. Und dass mit dem warmen Klima auch Mücken und Zecken kommen, die Krankheiten übertragen.

Zuerst einmal sehen wir uns die Infos der Klimaforscher an, welche der Redakteur und scheinbar auch die zwei Fachpersonen willig und unreflektiert aufnahmen, um zu sehen, was der Zwang zur Fremdfinanzierung bewirkt:

"Der Pollenkalender muss umgeschrieben werden",

Der Uba-Klima-Monitoringbericht 2015 listet dazu[3]:

Belastung mit Ambrosiapollen

Die Ausbreitung und Etablierung der Beifuß-Ambrosie wird vermutlich durch den Klimawandel begünstigt. Noch zeigen die Ergebnisse der Pollenmessungen aber keine signifikanten Trends.

Weiter kommt zu Pollen nichts, außer dass Pollen-Apps verstärkt angeboten und abgerufen werden.

Anmerkung zu den Bildern dieses Blogartikels. Kein Bild ist vom Autor inhaltlich verändert. In einigen sind aber zum besseren Verständnis Erklärungstexte / Zahlen und Hinweispfeile zugefügt. Diese sind immer an der schwarzen Farbe und anderen Schriftart erkennbar. Es wurde aber darauf verzichtet, auf solche Ergänzungen hinzuweisen.

Bild 1: Belastung mit den stark allergenen Ambrosiapollen. Seit 2006 Abnahme erkennbar.

"steigt aber auch die Waldbrandgefahr, und sie kann in Monaten auftreten, die bislang völlig ungefährlich waren.“

Der Uba-Klima-Monitoringbericht 2015 listet dazu, dass sowohl Anzahl als auch die Fläche von Waldbränden abgenommen hat:

[3]:Trotz zunehmender Waldbrandgefahr nicht mehr Waldbrände…

Bild 2: Abnahme der Anzahl und Fläche von Waldbränden

● ….Und dass mit dem warmen Klima auch Mücken und Zecken kommen, die Krankheiten übertragen.

Der Uba-Klima-Monitoringbericht 2015 listet dazu:

[3]:Es wird befürchtet, dass in Deutschland unter künftig veränderten Klimabedingungen sowohl für die tierischen Überträger wie beispielsweise Stechmücken oder Zecken als auch für die Erreger selbst günstigere Bedingungen herrschen und infolge dessen auch das Infektionsrisiko für den Menschen steigt.

Man hat also die üblichen – vorsorglichen – Klimawandel-Befürchtungen, aber keine Belege.

In einer vergleichbaren Landesstudie steht dazu deshalb auch ganz lapidar:

[8] Die Chance, dass die Erwärmung die Malaria zurückbringen würde, schätzen die Autoren als äußerst gering ein.

● …dass mit den häufiger auftretenden Hitzewellen nicht nur die Waldbrandgefahr steigt, sondern auch die Zahl der Hitzetoten.

Das Märchen der Klimawandel-Hitzetoten ist also auch schon auf der Zugspitze angekommen. Demnach ziehen die US-Rentner die es sich leisten können wohl zum Suizid nach Florida in die Wärme und die Deutschen aus dem gleichen Grund nach Spanien.

In einer Studie kam man vor Jahren zu einem ganz anderen Ergebnis

[8] Eine Studie der britischen Regierung zieht positive Bilanz der sonnigeren letzten drei Jahrzehnte.

"Von Kälte verursachte Sterblichkeit ist erheblich größer als die auf Hitze zurückzuführende, sowohl in Großbritannien als auch im übrigen Europa", heißt es in der Studie.

Der Uba Monitoringbericht zeigt, dass seit dem Hitzejahr 2003 die Hitzetage stetig abnehmen und inzwischen auf den Stand von 1976 zurückgekommen sind.

Bild 3: Grafik der Hitzeextreme aus dem Uba-Bericht 2015[3].

Und bezüglich der „Klimawandel-Hitzetoten“ ist der Bericht ebenfalls s ganz unspektakulär. Zudem ist die Datenlage dazu gravierend schlecht, womit gar keine fundierte Aussage möglich ist.

Bild 4[3]: Darstellung des Uba-Berichtes 2015 zum Thema „Hitzetote“

Diesen Zustand konnte das Uba nicht auf sich sitzen lassen und hat ganz aktuell eine DWD-Studie dazu publiziert, die das Gegenteil belegen soll[17]. Doch auch diese weist in Wirklichkeit nur aus, dass die „Klimawandel-Hitzetoten“ im Mortalitätsrauschen verschwinden und bezüglich der Mortalität die Vorteile der Gesamterwärmung bei weitem überwiegen. Details dazu kann man in meinem EIKE Blogbeitrag[35] nachlesen.

● „Wasserdampf sagt er, spiele bei der Klimaerwärmung eine sehr viel stärkere Rolle als angenommen ….Dass die verwendeten Klimamodelle diesen Faktor viel zu niedrig einrechneten“.

Der Durchbruch für die Forcingtheorie. CO2 alleine bewirkt viel zu wenig und benötigt deshalb zwingend einen Wirkungsverstärker, der im Wasserdampf gefunden wurde. Ist aber dessen Verstärkung zu gering, bricht das Forcing in sich zusammen. Und genau diese Gefahr besteht. Das musste selbst das IPCC erkennen und reduziert (langsam) den Forcing-Vertrauensbereich zu niedrigen Werten. Auf der Zugspitze erklärt nun ein Forscher, dass das IPCC die Forcing-Geschichte wieder zurückdrehen darf. Obwohl die IPCC Klimamodelle bereits mit den niedrigeren Werten heute völlig daneben – weil zu hoch – liegen[34].

Auch die Betreiber des Blogs „www.kaltesonne.de“ werden sich nun umsehen müssen. Hatten sie doch beschrieben, dass der IPCC das Wasserdampf-Forcing noch viel zu hoch ansetzt [11].

Für den der weiß, dass der Klimafachmann auf der Zugspitze ein neues, lasergestütztes Messgerät zur Wasserdampfanalyse der Atmosphäre bekommen hat, relativiert sich die Aussage. Irgendwie muss man die Investition vor einem so honorigen Besuch ja begründen.

● „…Seit Jahrzehnten steigt die Durchschnittstemperatur kontinuierlich an.“

Dass es seit ca. 2 Jahrzehnten nicht mehr wärmer wird, aber schon seit 150 Jahren kontinuierlich anstieg, „vergaß“ man zu erwähnen.

Der Autor hat die Temperaturdaten der Messstation Zugspitze vom DWD geladen und graphisch dargestellt. Er findet darin (als Nichtfachmann) keinen (signifikanten) menschengemachten Klimaeinfluss. Auch sieht man eine erkennbare, Jahrzehnte-lange Zyklik, die beim stetigen Anstieg des CO2 zumindest verwundert. Eigentlich findet er die Kurven insgesamt vollkommen unspektakulär und wüsste nicht, was der Mensch daran ändern sollte. Aber im Blog finden sich bestimmt Fachleute, die erklären können, wo sich darin der Klimawandel versteckt hält.

Bild 5: Selbst erstellte Grafik der Zugspitztemperatur-Monatswerte seit 1901 anhand der DWD-Monatsdaten

Bild 6: Selbst erstellte Grafik der Zugspitztemperatur Monats Max / Min-Werte seit 1901 anhand der DWD-Daten

So weit also zu den von den Experten dargestellten Schrecken, welche das nicht mehr so kalte Klima verursacht und aus der Zugspitzhöhe besonderst scharf sichtbar sein sollen.

Zurück zum Thema Gletscher.

Es ist unbezweifelbar, dass die Alpengletscher massiv geschrumpft sind und eventuell noch weiter schrumpfen. Es ist aber nicht sicher, ob es das noch nie gab und es vom Menschen verursacht sein muss. Im Folgenden wird jedoch nicht auf die Diskussionen zu Gletscher-Rückzugstheorien eingegangen, sonder nur aus Publizierungen gelistet, die am signifikanten menschlichen Einfluss zweifeln lassen.

Vorab dazu die Info, dass es nach Sichtung der Publizierungen im Wesentlichen zwei Richtungen gibt:

● Eine „Standardrichtung“, welche davon ausgeht, dass bis ca. 1980 aller Gletscherschwund „natürlich“ war, ab dann jedoch der Mensch der wesentliche „Gletschertöter“ ist. Verbunden mit der Aussage, dass die Alpen ohne Gletscher „unnatürlich“ wären und der Mensch dagegen vorgehen muss.

● Eine kleine „Protestgemeinde“, welche darauf hinweist, dass es bereits zu früheren Zeiten massiven Gletscherschwund, schlimmer noch – insgesamt wesentlich weniger Gletscher gegeben hat – und der aktuelle Schwund keinesfalls erheblichen, menschengemachten Charakter trägt.

Im vom Bayerischen Umweltministerium herausgegebenen Statusbericht Gletscher werden diese prosaisch beschrieben:

[9] Gletscher faszinieren den Menschen seit jeher. Gletscher sind unberührte Naturwunder, sensible Ökosysteme, Wasserspeicher, Orte der Schönheit und der Magie, der Beständigkeit und des Wandels zugleich. Diese Werke der Schöpfung und Evolution gilt es zu bewahren und zu schützen.

Der Schreiberling dieser Prosa hat wohl viel romantische Literatur gelesen. Ob er jedoch auch nur eine Spur Ahnung über die Auswirkungen der Gletscher auf die Menschen hat, die darunter leben mussten kann man bezweifeln.

Welche Schrecken stellte das kalte Klima dar? Gehen wir in der Geschichte zurück zu den Zeiten, als die „Orte der Schönheit und Magie“ – noch groß und mächtig waren und sich der Mensch davor verzweifelt zu schützen versuchte.

[6] Es ist in der neueren Literatur mehrfach und immer wieder bestätigt, daß gerade in der sogenannten „Kleinen Eiszeit“, die von etwa 1590 bis 1850 dauerte, eine rasante Zunahme des Hexenwesens vermeldet wird. Die in dieser Zeit sich dramatisch häufenden Naturereignisse, besonders die in den stark vergletscherten Regionen der Alpen häufigen Gletschersee-Ausbrüche und Extrem-Wasserschäden wurden diesen „Wettermachern“ und „Hexern“ zugeschrieben.

[4] Bei Hochständen endete der Fieschergletscher in zwei Gletscherzungen, die nahe an die Weiler Brucheren und Unnerbärg heranreichten. Es ist deshalb verständlich, dass sich die Fieschertaler bedroht fühlten.

Um die Gletschergefahr abzuwenden, machten die Fieschertaler der Sage nach das Gelübde, sich an den Samstagen von der Vesper an jeglicher knechtlicher Arbeit zu enthalten. Eine Ausnahme war das Einlegen von dürrem Heu und Getreide. Als der Fieschergletscher 1652 vorstiess, unternahmen die Talbewohner eine gletscherbannende Prozession unter der Leitung eines Geistlichen und beschworen das „Gespenst“ im Fieschergletscher. Der Gletscher soll daraufhin nicht mehr weiter vorgerückt sein.

Im Jahr 1676 ersuchten die Talbewohner Papst Innozens XI., das Gelübde umwandeln zu dürfen, da sich nicht alle Fieschertaler an dieses hielten. Dies geschah dann auch im Jahr 1678. Die Fieschertaler mussten unter anderem versprechen, keine verborgenen Tänze zu veranstalten und die Frauen keine roten Schürzen mehr tragen zu lassen. Im Jahr 1860 drohte wiederum Gefahr, weil der Fieschergletscher erneut zu einem Hochstand vorgestossen ist. Die Fieschertaler machten erneut ein Gelöbnis, nämlich alljährlich eine Bittprozession zur Kapelle im Ernerwald durchzuführen, eine Kerze in der Kirche an Sonn- und Feiertagen zu unterhalten und jährlich eine Messe zu lesen. 

[5]: Als man barhaupt den Grossen Aletschgletscher bannen wollte

Angelangt am Sitze des Übels wird vorab das hl. Messopfer gefeiert, dann eine kurze Predigt gehalten, hierauf mit dem Allerheiligsten der Segen erteilt, um den sich schlängelnden Gletscher einzudämmen und demselben Zügel anzulegen, auf dass er nicht weiter mehr sich ausdehne. Es werden die feierlichen Beschwörungen der Kirche in Anwendung gebracht und der äusserste Teil des Gletscherberges mit Wasser, geweiht im Namen unseres hl. Vaters (St. Ignatius), besprengt. Überdies wurde daselbst eine Säule aufgerichtet, auf der sich das Bildnis ebendesselben hl. Patriarchen befand, gleichsam das Bild eines Jupiter, der nicht flüchtigen Soldaten, sondern dem gefrässigen Gletscher Stillstand gebietet. Um diese Zuversicht auf die Verdienste des Heiligen blieb nicht ohne Frucht. Er hat den Gletscher zum Stehen gebracht, so dass er von nun an sich nicht weiter ausdehnte. Im Monat September 1653.»

Unterhalb des Aletschgletschers beten fromme Menschen über 3 Jahrhunderte für den Rückgang dieser Gletscher-Bedrohung (“Der kalte Tod”).
“… Es gab eine Zeit, in der der Aletschgletscher wuchs und wuchs. Er rückte bedrohlich nahe ans Dorf heran. Dazu kamen die Ausbrüche des Märjelensees. 35 Mal brach der Eisstausee im 17. Jahrhundert oberhalb von Fiesch aus.

1678 legten die Bewohner von Fiesch und vom Fierschertal ein Gelübte ab, in dem sie vor Gott und der Welt kund taten, fortan tugendhaft zu leben und brav zu beten, dass der Gletscher sein Wachstum einstelle. Sie hielten einmal pro Jahr eine mehrstündige Prozession im Ernerwald ab, um gegen das Wachstum des Gletschers zu beten. Die Prozession fand am Tag des Gründers des Jesuitenordens, dem Heiligen Ignatius von Loyola, am 31. Juli statt.

Pfarrer Johann Joseph Volken, ein Vorfahre des heutigen Regierungsstatthalters Herbert Volken leitete 1678 das Gelübde seiner Gemeinde an die nächste kirchliche Instanz weiter, den Bischof von Sitten. Von dort aus gelangte es an den Nuntius der römisch-katholischen Kirche der Schweiz in Bern, der es dem Vatikan zur Absegnung unterbreitete. Papst Innozenz segnete das Gelübde ab

[6] Berühmt und zugleich berüchtigt ist seit über 400 Jahren zum Beispiel der Vernagtferner in den Ötztaler Alpen. Aus einem Seitental ist der Gletscher in den Jahren 1600, 1676, 1678, 1771, 1772 und dann wieder 1845 und 1848 in das Rofental vorgestoßen und hat, mit dem Guslarferner vereinigt, hinter der Zwerchwand eine Eismauer gebildet, weit über 100 Meter hoch. Dahinter wurde ein See gestaut, der ca. 1300 Meter lang war. Dieser See ist mehrmals durch die teilweise poröse Eismauer durchgebrochen und hat im ganzen Ötztal große Schäden angerichtet. Die Wassermassen von geschätzten 1 ½ bis 3 Millionen Kubikmeter sind dann binnen einer Stunde oder eineinhalb Stunden ausgebrochen. Der einem Dammbruch vergleichbare Durchbruch war bis dato keine menschlichen Eingriffe und technischen Maßnahmen verhinderbar.

Daß der durch den Vernagtferner hinter Rofen gestaute See im Jahre 1678 ausgebrochen ist und große Schäden durch das ganze Ötztal hinaus, ja bis ins mehr als 120 km entfernte Innsbruck angerichtet hat, wird nach der Überlieferung und – inzwischen aktenkundig gemacht – einem herumziehenden „Malefiz- Buben“, einem „Wettermacher“ zugeschrieben. Es ist dies der namentlich bekannte Thomann Jöchl aus dem Zillertal, der in Meran bei einem Prozeß im Jahre 1679 mit 12 anderen Angeklagten verurteilt und hingerichtet wurde. Dieser „Hexenmeister“ habe auch den Ausbruch des Fischbaches im Jahre 1678 in Längenfeld verursacht. Der Pflegsverwalter von Petersberg tritt als Zeuge auf und meldet, „daß ein gottloser pue anno 1678 durch das etzthal gehend, von vorgedachten Valtin Kuprian zu Prugg, allwo er übernachtet, nicht nach verlangen traktiert worden, durch zauberei und des teifels hilf den ferner den ausbruch und in lengenfelder thal ein wetter gemacht“.

Örtliche Chronisten wie Johann und Benedikt Kuen sowie Franz Stippler berichten von bescheidenen „Maßnahmen“ der Bevölkerung und der Verwaltung.

Aus gnädiger Lizenz Ihro fürstlichen Gnaden Herrn Paulin Bischof zu Brixen, ist von drei Priestern und Curaten im Özthal auf dem obersten Berg des Ferner- Anfangs, dann auch zuunterst auf dem Eis als auf einer Ring Mauren das Hl. Meßopfer samt einer eifrigen Predigt in Gegenwart der Procession von 2 Communitaten als Lengenfeld und Sölden verrichtet worden, worbey sich sehr viele Personen von den äußeren Kirchspielen eifrig und andächtig eingefunden. Es sind auch zwei ehrwürdige Herrn Capuciner von Imst etliche Wochen lang zu Vent verblieben, welche täglich das Hl. Meßopfer um dieser Gefahr Abwendung verrichtet, item sind zu unterschiedlichen Orten andächtige Kreuzzüge angeordnet, auch insonderheit durch die kleinen Kinder gehalten worden…“.

Und heute (Zitat, leider ist mir der Verfasser nicht mehr bekannt):

In unserer Zeit werden nun von angeblichen Klimaforschern die Werte menschlichen Denkens und Empfindens ins Gegenteil verkehrt. Statt dankbar zu sein, wollen die Katastrophentrommler jetzt für mehr Kälte und Gletscherschäden sorgen. Wieso soll denn eine zähflüssige Eis-Lava wünschenswerter sein als blühende Alpenwiesen? Die Bewohner früherer Tage würden sagen: „Gott hat unsere Gebete gehört, wir haben es jetzt besser.“
Die Fotos aus den Tälern beweisen: Die Gletscherschmelze hinterlässt wieder blühende Landschaften. Die Anzahl der wild lebenden Tiere, z.B. Murmeltiere, Vögel, in den Alpen nimmt zu und nicht ab, genauso die Vegetation und die Vielfalt der Pflanzen.

Fazit: Kälte ist lebensfeindlich, Wärme ist lebensfreundlich. Das warme Mittelalter wäre der wünschenswerte Klimazustand und nicht die kleine Eiszeit. Doch leider gehen die Temperaturen seit 10 Jahren wieder zurück, das Poleis nimmt zu. Die kurze, 20jährige Wärmeperiode von 1980 bis zur Jahrtausendwende scheint vorbei zu sein.

Wie wird der Gletscherrückgang aktuell dargestellt

Wieder Zitate aus der Publikation des bayerischen Staatsministeriums für Umwelt und Gesundheit.

[9] Gletscher sind aber auch Mahnmale des Klimawandels. Sie reagieren in beispiellosem Tempo auf die Veränderung des globalen Klimasystems, das durch die Emission von Treibhausgasen aufgrund menschlicher Aktivitäten zunehmend erwärmt wird. Überall auf der Erde schmelzen Gletscher ab und ziehen sich in größere Höhen zurück. Der Klimawandel ist eine der größten Bedrohungen der Alpen und ihrer Gletscher.

Unsere Gletscher sind markante Zeichen der Bayerischen Alpen, insbesondere der Berchtesgadener Alpen und des Wettersteingebirges. Sie tragen zur Attraktivität der Gebiete bei. Helfen Sie mit, damit auch die nachfolgenden Generationen die Schönheit der Alpen bewundern und genießen können!

[9] Gletscherrückgang – eine dramatische Folgereaktion des Klimawandels in den Alpen

Sowohl Ausmaß und Geschwindigkeit der globalen Erderwärmung als auch die vom Menschen emittierten Treibhausgase als wesentliche Ursache des Klimawandels sind unbestritten.

Die wichtigsten Ursachen des Gletscherrückgangs:

Frühlings- und Sommermonate mit intensiver Sonneneinstrahlung

wenig Schneezuwachs im Winter (Massenumsatz)

erhöhte Lufttemperaturen

sommerliche Regenereignisse bis in große Höhen

. sich seit etwa 1980 die Gletscherflächen in Bayern aufgrund des Klimawandels dramatisch verringert haben. Der südliche Schneeferner verlor 84 % seiner Fläche. Der nördliche Schneeferner (-32 %) und der Höllentalferner (-18 %) mussten dagegen moderate Flächenverluste hinnehmen;

seit etwa 2000 der Flächenverlust aller bayerischen Gletscher eine rapide, klimabedingte Beschleunigung erfahren hat, der einzig der Höllentalferner aufgrund seiner Muldenlage noch widerstehen kann.

Sieht man sich die im vorhergehenden Kapitel gezeigten Bilder 5 und 6 mit den Temperaturverläufen an, so stellt man fest, dass das mit dem „Menschengemacht“ bei den Gletschern stark angezweifelt werden darf. Auch dass die Gletscher sich erst seit 1980 vom Menschen verursacht verringern, will einem nicht unbedingt einleuchten. Schließlich verringern sie sich definitiv bereits vereinzelt seit 1820 [12] und in Summe spätestens seit 1860. Auch fordert die Klimawandeltheorie, dass die Winter mehr Niederschläge bekommen und die Sommer weniger (IPCC 2007 und[13]). Genau wegen des umgekehrten Wetterverhaltens sollen die Gletscher aber schrumpfen[9]. Und dass die Sommer entgegen allen Verlautbarungen nicht heißer geworden sind, zeigen sowohl die DWD-Daten der Zugspitzstation, Publizierung [15] für den Alpenraum als auch global die folgende Grafik aus [10]:

Bild 7: Verlauf der Sommertemperaturen von 1751 bis ca. 2000[10]

Wie verliefen das Klima und die Gletscherstände früher. Hat es solche Schwunde und Temperaturschwankungen wirklich noch nie gegeben?

Auf EIKE kamen dazu schon Blogartikel [18] [7].

In [7] machte Professor Dr. Gernot Patzelt vom Institut für Hochgebirgsforschung der Universität Innsbruck zentrale Aussagen:

[7]:Die gegenwärtige Gletscher-und Klimaentwicklung zeigt keine Verhältnisse, die es in der Vergangenheit ohne menschlichen Einfluss nicht schon mehrfach und lange andauernd gegeben hat. Der gegenwärtige Rückgang der Alpengletscher kann nicht als Bestätigung für die Hypothese eines anthropogen verursachten Klimawandels dienen.

Gletscherschwundperioden dieser Art gab es in der Vergangenheit mehrfach und auch in deutlich stärkerem Ausmaß. Die Rekonstruktion der Gletscherentwicklung erlaubt die Aussage, dass in rund 65 % der letzten 10.000 Jahre die Gletscher kleiner waren und die Sommertemperaturen daher so hoch oder höher lagen als heute.

Bild 8: [7] Standort und Wachstumsperioden von Waldbäumen, die durch den gegenwärtigen Rückgang des Gepatschferners – des zweitgrößten Gletschers der österreichischen Alpen – eisfrei geworden sind.

Dazu Bilder aus [18] mit der Darstellung, wie der Steinlimigletscher (Kanton Bern, Schweiz) zur Römerzeit vor 2000 Jahren und um 1993 aussah.

Bild 9: [18] Der Steinlimigletscher (Schweiz) zur Römerzeit

Bild 10: [18] Der Steinlimigletscher (Schweiz) 1993 mit den Ausbreitungslinien von 1856 (obere) und 1913 (untere)

Und wer es immer noch nicht glauben will dass die Alpen in historischer Zeit weitgehend gletscherfrei waren kann es immer neu an der Pasterze (Großglockner) erleben. Im Juni 2015 wurden zwei Teile eines insgesamt 7,9 m langen Baumstammes aus der Seitenmoräne über dem heutigen Gletscherende geborgen[19].

[19] Damit ist belegt, dass dass in den Bereichen wo heute Eis, Schutt, Sand und Wasser regieren, vor 9.000 und auch zwischen 7.000 und 3.500 Jahren teils hochstämmige, alte Zirben wachsen konnten – eine unglaubliche Vorstellung!

Seit Beginn der Nacheiszeit vor etwa 11.500 Jahren war die Pasterze nie größer als beim letzten Hochstand von 1852 bis 1856, jedoch schon öfters deutlich kleiner als heute.

Bild 11: Aufnahme einer Stammhälfte mit Blick von der Fundstelle auf den Gletscher

„Pasterze“ heißt in der damaligen Sprache so viel wie „Weideland“. Also erlebten Menschen noch, dass im Bereich des heutigen Gletscherursprungs der Gletscher nicht nur fehlte, sondern die Umgegend sogar fürs Vieh genutzt werden konnte (und wie aktuell belegt, sogar Hochstammbäume wuchsen).

Eine Rekonstruktion der Baumgrenzen in den Alpen sieht wie folgt aus:

Bild 12: [15] Die höhenmäßige Verteilung von dendrochronologisch bzw. 14C-datierten Holzproben aus dem inneren Kaunertal, Westtirol, für den Zeitraum der letzten 9000 Jahre. Die Balken belegen jeweils einzelne Proben bzw.

Gruppen von Proben mit gleicher Standorthöhe, die Balkenlänge zeigt die zeitliche Erstreckung der Jahrringserie einer Einzelprobe bzw. einer Standortmittelkurve an (Nicolussi et al. 2005, ergänzt).

Der Rückzug der Gletscher seit Beginn des Gletscherschwundes um ca. 1850

In den folgenden Bildern ist erkennbar, dass die Gletscher vom Beginn des Rückzugs an relativ konstant schrumpfen. Eine Beschleunigung aufgrund immer höheren CO2-Atmosphärenanteils sieht man nicht wirklich.

Bild 13: [14]

Bild 14: [15] Verlauf der Gletscherrückzuge in den Alpen seit 1890

Fazit

Bild 13 und 14 zeigen, dass der Gletscherschwund von Beginn an relativ stetig verläuft. Dass er wie in Bild 13 inzwischen zunimmt, liegt einmal an der Erfassungsmethodik und natürlich auch daran, dass mit geringerem
Volumen / Fläche eine Beschleunigung eintreten muss. Bild 14, welches ein größeres Gletscher-Ensemble betrachtet zeigt, dass es hohe Schwankungen gibt und die Darstellung, bis 1980 war alle Gletscherschmelze natürlich und danach menschengemacht, angezweifelt werden kann.

Die Klimarekonstruktion der Alpen

Wie sie aussieht, hängt davon ab, welcher „Klima- Glaubensrichtung“ der / die jeweiligen Verfasser angehören.

Zuerst ein Bild aus [13]: Variation der globalen Jahresmitteltemperatur von 1000–2100. Quelle: IPCC (2001)

Bild15: Klimadarstellung nach IPCC

EIKE Lesern ist diese Kurve und die Problematik bekannt. Anderen zur Wiederholung ein Kommentar dazu:

[23] Die Klimarekonstruktionen des Weltklimarats (IPCC) beruhen maßgeblich auf den Untersuchungen von Baumringen. Zahlreiche Veröffentlichungen lassen jedoch vermuten, dass die Variabilität des Klimas im Winter deutlich höher ist als im Sommer. Da die Bäume im Winter ruhen, zeichnen sie diese Veränderungen nicht auf. Das führt dazu, dass die Prognosen des IPCC die natürliche Klimavariabilität unterschätzen.

Deshalb andere, realistische Darstellungen

Es ist anzumerken, dass die Klimaverläufe des Holozän-Zeitalters(also bis vor ca. 10.000 Jahren je nach verwendeten Proxies und Autor weit voneinander abweichen. Damit wird aber auch deutlich, zu welch unterschliedlichen Ergebnissen eben verschiedene Methoden und Proxis führen und dass eine „Einheitskurve“ eine Illussion bleibt. Der Trend ist aber immer gleich: früher war es oft deutlich wärmer als heute und schnelle Klimaschwankungen gab es bereits früher regelmäßig. Unsere aktuelle Temperatur und die Beschleunigung ist damit überhaupt nicht zwingend „unnatürlich“ und einzigartig, wie es vom IPCC und dem Klima-Mainstream suggeriert wird.

Zuerst der (mögliche) Verlauf des Nord-Europäischen Klimas aus [20]

Bild 16: Rekonstruierter Klimaverlauf Nordeuropas aus Baumdichtemessungen

Dazu steht als Erklärung:

[20] Vulkanausbrüche, Effekte der Landnutzung und Veränderungen der Treibhauskonzentrationen in der Atmosphäre scheinen jedoch im Vergleich zur Sonneneinstrahlung einen geringeren, eher kurzfristigen Effekt auf die Klimaabkühlung zu haben. Sie lassen sich in den Rekonstruktionen der sehr langfristigen Temperaturtrends kaum abbilden. 

Bisherige Klimarekonstruktionen unterschätzten diesen Einfluss der natürlichen Klimavariabilität. Nach den Messungen der Wissenschaftler ist der Kühlungs-Effekt – über die letzten 2000 gerechnet – etwa viermal so groß wie die Auswirkungen des anthropogenen Klimawandels seit 1750. Dabei gibt es jedoch erhebliche Schwankungen je nach Zeitraum, Region und Jahreszeit. 

Großräumige Klimamodelle, die z.B. auch der internationale Klimarat IPCC verwendet, scheinen diesen natürlichen Abkühlungseffekt bisher zu wenig berücksichtigt, so die Forscher. 

Nun die Klimarekonstruktion (COMNISPA-Kurve) der Uni Heidelberg [21] [22] aus Tropfstein-Isotopenuntersuchungen. Diese Klimarekonstruktion wird selbst nicht angezweifelt, Es wird aber behauptet, sie gelte nur für Europa und gegenüber den „Hockeystickkurve“ nicht global. Da sie aber vorwiegend aus Tropfsteinen von Alpenhöhlen rekonstruiert ist, muss sie den Klimaverlauf der Alpen auf jeden Fall richtig wiedergeben. Deutlich sind die extremen Klimaschwankungen in der Vergangenheit, welche die aktuelle vollkommen relativieren.

Das folgende Bild zeigt den relativen Temperaturverlauf des Holozän für Europa aus Tropfstein-Rekonstruktionen (schwarzer Verlauf). Bildtext: Rekonstruktion des Klimas: Die Auswertung der Proben aus drei hochalpinen Stalagmiten und der Vergleich mit Holz- und Torffunden aus Schweizer Gletschern erlauben es, eine Klimakurve für die letzten 9000 Jahre zu erstellen.

Bild 17: COMNISPA-Kurve[21]

Und zuletzt eine Rekonstruktion aus [16]

Bild 18: [16] Schwankungen der mittleren Sommertemperaturen im Holozän bis heute.

Dazu der Verlauf von Klima und CO2 aus [24], sowie der Text der Einleitung daraus:

[24] Klima zeichnet sich immer durch Wandel aus und die heutige Klimaänderung ist verglichen mit denen der Vergangenheit in ihrem Ausmaß noch sehr moderat und nicht ungewöhnlich.

Kohlendioxid war und ist ein wichtiges Treibhausgas, aber es war nicht allentscheidend für die Klimawandel der Vergangenheit. Die bisherigen Untersuchungen liefern Argumente dafür, dass die Sonne einen deutlichen lenkenden Einfluss auf das Klima ausgeübt hat. Auch wenn die menschliche Gesellschaft durch Emissionsminderung nicht korrigierend auf klimatische Veränderungen einwirken kann – dies zeigen Modellrechnungen sehr deutlich – so ist Ressourcenschutz, vernünftiges Verhalten und nachhaltiges Wirtschaften keineswegs überflüssig, da unsere fossilen Energieträger endlich sind.

Die bisherigen Untersuchungen liefern also viele Argumente dafür, dass die atmosphärischen Treibhausgase in den vergangenen 1000 Jahren nicht die Auslöser und Hauptfaktoren von dokumentierten und rekonstruierten Klimaänderungen gewesen sein können, sondern dass die Sonne einen deutlichen lenkenden Einfluss auf das Klima ausgeübt hat. Kohlendioxid war und ist ein wichtiges Treibhausgas, aber es war nicht allentscheidend für die Klimawandel der Vergangenheit.

Bild 19: [24]

Im Bild 19 ist der CO2-Verlauf „IPCC-gerecht“ eingetragen. Damit ein unbedarfter Leser aber nicht denkt, der historische Verlauf und Messung des CO2 sei unumstritten, anbei eine andere Rekonstruktion. Die rote Kurve sind Werte historischer Originalmessungen und die graue Linie Eisbohrkern-Rekonstruktionen. Man ahnt es. Die graue Linie gilt als „wahr“ und die historischen Messkurven wurden vom IPCC als falsch „verworfen“. Bilddetails und ausführliche Darlegungen dazu kann man in [28] nachlesen. Anbei nur ein Zentralkommentar daraus:

[28]. Wegen vermeintlich fehlender Meßdaten vor 1958 wurde die Keelingkurve mit CO2-Rekonstruktionsdaten aus Eisbohrkernen kombiniert, so daß sich eine Art exponentielle Kurve der CO2-Konzentration der Welt ergab. Diese Kurve ist die Grundlage aller Berichte des Weltklimarates 1990, 1995, 2001 und 2007.

Bild 20: [28]

Fazit

Praktisch allen nicht „IPCC-gerechten“ Klimarekonstruktionen ist gemeinsam:

● dass es früher sehr wohl wärmere Zeiten als aktuell gegeben hat,

● schnelle Klimaschwankungen auch früher in teilweise extremerem Ausmaß und Geschwindigkeit stattfanden,

● das Klima ausgeprägte Zyklen aufweist,

● der aktuelle Verlauf überhaupt nicht „unnatürlich“ sein muss

● CO2 auf den Klimaverlauf – wenn überhaupt – einen relativ geringen Einfluss hat

● Zusätzlich: Der wirkliche CO2-Verlauf vor Beginn der Mauna Loa-Messungen strittig ist

Damit man sieht, wie viel mehr Angst wir davor haben sollten, in eine neue Eiszeit zu schlittern, anbei eine Rekonstruktion dazu.

Bild 21: [21] Eiszeit-Zyklen

Abschluss-Statement

Der Verfasser hofft, mit diesem Blogartikel etwas über die Problematik der anthropogenen CO2-Klimawandeltheorie am Beispiel der Gletscherschmelze informiert zu haben. Jeder kann sich darauf aufbauend selbst Gedanken machen, ob die Dogmen der Ökokirche genügend stichhaltig sind, dass es sich lohnt, nur zur CO2-Reduzierung Billiarden EUROs auszugeben.

Im Mittelalter haben die Ausgaben (an die Kirche) zur Bannung des Klimas den damaligen Menschen gar nichts genutzt, aber wenigstens Kunstwerke übriggelassen die man noch heute bestaunt. Die heutigen Ausgaben zur Bannung des Klimas durch CO2-Reduzierung könnten ähnlich sinnlos verlaufen. Ob man die dazu errichteten EEG-Energiekunstwerke dereinst aber bestaunen wird?

Dazu eine Bildfolge zum Nachdenken. Die Windkraftbilder stammen alle von [29]. Dort lässt sich eine ganze Präsentation laden und ein Link zu einem entsprechenden youtube-Film.

Bild 22: Menschenfeindliche, aber von Touristen „geforderte“ Landschaft

Bild 23: Gleiche, aber menschen- und naturfreundliche Landschaft, die angeblich keine Touristen mehr „anzieht“

Man stelle sich nun vor, zur Römerzeit vor dieser grünen Berg-Weidelandschaft zu stehen und ein Priester sagt:

„Weil die Menschen nicht ausreichend dem Gott Jupiter geopfert haben, wird er zur Strafe diese blühende Landschaft in eine zerstörerische und lebensfeindliche Gletscher-und Steinwüste verwandeln“.

So kommt es und 2.000 Jahre später dichtet dann jemand dazu (Bild 22): „Orte der Schönheit und der Magie, der Beständigkeit und des Wandels zugleich. Diese Werke der Schöpfung und Evolution gilt es zu bewahren und zu schützen“. Ergänzt mit der Behauptung, die Landschaft wie sie zur Römerzeit war kann man künftigen Generationen nicht zumuten.

Oder zeigen Sie einem BUND-Aktivisten Bild 23 und sagen: Diese freundliche Landschaft haben wir schon überall und wirkt einfach nur langweilig. Unseren Event-Touristen müssen wir aber etwas Besonderes bieten wie Sommer- Schilaufen und Eisklettern. Deshalb werden wir die Almen vereisen, unwirtlich machen und verschottern, wie es das Planungsbild 22 zeigt. Wir bitten dazu um Zustimmung.

Was nun folgt sind EEG-Klimarettungs-Kunstwerke und CO2-neutrale Landschaften

Dafür, dass man in Zukunft nur noch unter solchen EEG-Alleen wandert, werden uns unsere Enkel laut offizieller Klimalehre bestaunen und für den bald ganz Deutschland umfassenden, nachhaltigen Klima-Kulturlandschaftsumbau loben.

Sind wir nicht irgendwie verrückt geworden?

Zu den folgenden Bildern: Die Bilder mit Windrädern sind original. Bei den „vorher“-Ansichten wurden die Windräder wegretuschiert!

Bild 24: Naturnahe Landschaft vorher

Bild 25: Gleiche Landschaft zum Kampf gegen den Klimawandel hochgerüstet

Bild 26: Naturnahe Landschaft vorher

Bild 27: Gleiche Landschaft zum Kampf gegen den Klimawandel hochgerüstet

Bild 28: Naturnahe Landschaft vorher

Bild 29: Gleiche Landschaft zum Kampf gegen den Klimawandel hochgerüstet

Bild 30: Naturnahe Landschaft vorher

Bild 31: Gleiche Landschaft zum Kampf gegen den Klimawandel hochgerüstet

Quellen

[1] 07.07.15 Artikel: Hendricks inspiziert den Gipfel des Klimawandels

http://www.welt.de/politik/deutschland/article143706476/Hendricks-inspiziert-den-Gipfel-des-Klimawandels.html

[2] Aus dem entsprechenden Artikel in „meiner“ Lokalzeitung.

[3] Umweltbundesamt: Klimamonitoringbericht 2015

[4] Hanspeter Holzhauser . Ein Gelübde im Wandel der Zeit.

http://www.myswissalps.ch/story/615

[5] Hanspeter Holzhauser . Als man barhaupt den Grossen Aletschgletscher bannen wollte.

http://www.myswissalps.ch/story/615

[6] Hans Haid, Sölden. Über Gletscherbannungen, Bittgänge, scharfe Gelübde, Kinderprozessionen zum Ferner usw.

alpine space – man & environment, vol. 4: Ist es der Sindtfluss?

[7] EIKE 07.01.2010: Klimawandel und die Gletscher in den österreichischen Alpen als Zeitzeugen!

[8] DIE WELT 15.02.08: Klimaerwärmung verlängert das Leben. Eine Studie der britischen Regierung zieht positive Bilanz der sonnigeren letzten drei Jahrzehnte.

http://www.welt.de/wissenschaft/article1677009/Klimaerwaermung-verlaengert-das-Leben.html

[9] Bayerisches Staatsministerium für Umwelt und Gesundheit: Bayerische Gletscher im Klimawandel – ein Statusbericht

[10] A. Hoy: Veränderung langjähriger Temperaturreihen in Mitteleuropa und weltweit.

[11] Klaus-Eckart Puls und Sebastian Lüning 17. März 2013: Alles nur Schall und Rauch? Der Wasserdampf-Verstärker als Achillesferse in der Klimamodellierung

[12] E. Richter (Graz):Geschichte der Schwankungen der Alpengletscher.

[13] M. Zemp et al. Jahrbuch Oekologie08_2007: Europäische Alpen bald ohne Gletscher?

[14] Bayerische Akademie der Wissenschaften. Markus Weber: Der „Magersucht“ eines Alpengletschers auf der Spur.

[15] alpine_space_vol6. Roland Psenner at al: Klimawandel in Österreich. Die letzten 20.000Jahren …und ein Blick voraus

[16] Wissenschaftliche Mitteilungen aus dem Nationalpark Hohe Tauern Bd. 4 (1998): 225-240 Heinz Slupetzky et al: Hinweise auf kleinere Gletscherstände der Pasterze

[17] Uba Juli 2015: Klimawandel könnte künftig mehr Hitzetote fordern. Hitzewellen erhöhen das Sterblichkeitsrisiko von Herzkranken um bis zu 15 Prozent. Das ergab eine Studie des Deutschen Wetterdienstes (DWD) für das Umweltbundesamt (UBA). http://www.dwd.de/klimawandel

[18] EIKE 30.07.2012: Die Römer kannten keine Gletscher – Studie zur Klimaerwärmung. Die Erde hat sich in den letzten 2000 Jahren abgekühlt – Studie widerlegt gängige Meinung zur Klimaerwärmung.

[19] 24.06.2015. Pasterze gibt nach tausenden von Jahren einen meterlangen Baumstamm frei.

Nationalpark Hohe Tauern und Österreichischer Alpenverein bergen mit fachlicher Unterstützung der Universität Graz einen sensationellen Gletscherfund am Fuße des Großglockners und machen ihn für wissenschaftliche Untersuchungen und in Folge für die Öffentlichkeit zugänglich.

In einer spektakulären Bergung konnte die – in zwei Teile zerbrochene – Zirbe am 24. Juni 2015 mit Hilfe eines Hubschraubers erfolgreich aus dem Gletschervorfeld der Pasterze geborgen werden. Beide Teile zusammen haben insgesamt eine Länge von 7,9 m und das stattliche Gewicht von 1.700 kg.

http://www.hohetauern.at/de/aktuelles/8-aktuelles/2575-pasterze-gibt-nach-tausenden-von-jahren-einen-meterlangen-baumstamm-frei.html

[20] Jan Esper et. al (2012): Orbital forcing of tree-ring data. Nature Climate Change, 8.7.2012, doi:10.1038/nclimate1589

Kurzbeschreibung dazu bei Redaktion Pflanzenforschung.de unter: Fossile Kiefern als Klimazeugen http://www.pflanzenforschung.de/index.php?cID=5454

[21] Uni Heidelberg, Anne Wackerbarth 25.01.2007. Präsentations-Foliensatz „Das Klima des Holozäns“

[22] EIKE 10.04.2009. Die unterschlagene historische COMNISPA-Temperaturkurve!

[23] Uni Heidelberg. Nicole Vollweiler und Augusto Mangini Blättern im Buch der Klimageschichte. Stalagmiten zeugen vom Klima der letzten Jahrtausende http://www.uni-heidelberg.de/presse/ruca/ruca07-3/klima.html

[24] Dr. U. Berner et al, Hannover: Klimawandel und CO2 aus geowissenschaftlicher Sicht

[25] 12.3.2015 beim Besuch einer Schule:

http://www.nwzonline.de/politik/die-unschuldigen-sind-die-leidtragenden_a_25,0,413070643.html

[26] Bayerisches Umweltministerium 12. April 2015. Scharf: 2015 wird Jahr des Klimas / Bayern soll klimasicher werden

[27] EIKE Blogartikel: In Deutschland kein Klimawandel in Sicht – das kann die SZ nicht auf sich sitzen lassen

[28] Energy & Environment Volume 19 No. 7 2008. Ernst-Georg Beck 2008: 50 Jahre kontinuierliche CO2- Messung auf Mauna Loa

[29] http://www.rtf-radmarathon.de/VB/pages/landschaftszerstoerung.php

[30] The European 01.06.2015. Barbara Hendricks vs. Björn Lomborg http://www.theeuropean.de/thilo-spahl/10196-streit-um-kosten-und-nutzen-deutscher-klimapolitik

[31] Bayerisches Staatsministerium für Umwelt und Verbraucherschutz. Rubrik: Klimaforschung in Bayern:

Der vom Menschen verursachte Klimawandel ist wahrscheinlich die größte Herausforderung der Menschheit. Wissenschaftler rechnen bei einem "weiter-so-wie-bisher" mit der Gefahr, dass bis 2100 ein Anstieg von 3 bis 5 Grad im Sommer und 4 bis 6 Grad im Winter in den Alpen erreicht wird. Dies hätte dramatische Auswirkungen auf das einzigartige alpine Ökosystem und seine Leistungen als Wasserspeicher, Erholungsraum und Lebensraum.

http://www.stmuv.bayern.de/umwelt/klimaschutz/forschung/index.htm

Auswirkungen des Klimawandels auf die Wirtschaft

An dem Projekt nahmen insgesamt sieben bayerische Unternehmen teil.
Die Fallstudien zeigen, dass sich für Klimaanpassungsstrategien zentrale Handlungsfelder herauskristallisieren:

● Schutz der Beschäftigten vor Hitze und Sonneneinstrahlung. Maßnahmen des vorbeugenden Arbeitsschutzes, Klimatisierungen oder neue Arbeitszeitmodelle,

[32] Bayerisches Staatsministerium für Umwelt und Verbraucherschutz 04.05.2015: PRESSEMITTEILUNG Nr. 74/15

[33] Bayerisches Staatsministerium für Umwelt und Verbraucherschutz: Bayerische Klima-Anpassungsstrategie (BayKLAS)

[34] EIKE Blogartikel: Roy W. Spencer, Ph. D. 95% aller Klimamodelle stimmen überein: Die Beobachtungen/Messungen müssen falsch sein! http://www.eike-klima-energie.eu/news-cache/95-aller-klimamodelle-stimmen-ueberein-die-beobachtungenmessungen-muessen-falsch-sein/

[35] EIKE Blogbeitrag 21.7.14: Ruhestand im Süden kann Tödlich sein. Analyse der Uba und DWD Studie zur Mortalitätserhöhung durch Klimawandel. http://www.eike-klima-energie.eu/news-cache/ruhestand-im-sueden-kann-toedlich-sein-wetterdienst-glaubt-klimawandel-toetet-alte-menschen/

[36] EIKE 01.04.2014. Kein Aprilscherz- O-Ton Umweltministerin Hendricks: "Klimawandel findet täglich statt!" http://www.eike-klima-energie.eu/climategate-anzeige/kein-aprilscherz-o-ton-umweltministerin-hendricks-klimawandel-findet-taeglich-statt/




Nassim Taleb schlägt wieder zu – Der schwarze Schwan der Messfehler

Abstract: Dem allgemeinen Gefühl zufolge hat das Hinzufügen von kleinen Variablen mit begrenzter Varianz eine lineare, sublineare oder asymptotische Auswirkung auf die Gesamtheit, und zwar von der Additivität der Varianz, was zu einer Konvergenz von Mittelwerten führt. Allerdings werden dabei nicht die meisten winzigen Modellfehler oder Ungenauigkeiten bei der Messung der Wahrscheinlichkeit berücksichtigt. Wir zeigen, wie das Hinzufügen von Zufallsvariablen aus irgendeiner Verteilung dazu führt, dass der Gesamtfehler (von der initialen Messung der Wahrscheinlichkeit) divergiert; er wächst auf konvexe Art. Es gibt einen Punkt, an dem das Hinzufügen einer einzigen Variablen den Gesamtfehler verdoppelt. Wir zeigen den Effekt bei der Wahrscheinlichkeit (via copulas [?]) und payoff space (via Sums of r. v.)

Höherdimensionale Systeme werden eventuell total unvorhersagbar beim Auftreten des geringsten Fehlers bei den Messungen, unabhängig von der Wahrscheinlichkeits-Verteilung der individuellen Komponenten.

Die hier gezeigten Ergebnisse sind frei von Verteilung und gelten für jedwede kontinuierliche Wahrscheinlichkeits-Verteilung mit Unterstützung in R.

Und schließlich bieten wir einen Rahmen an, um den Ausgleich zwischen hinzugefügter Dimension und Fehler zu kalibrieren (oder abzuschätzen, welche Reduktion des Fehlers auf dem Niveau der Wahrscheinlichkeit notwendig ist für hinzugefügte Dimensionen).

Mann! All das Gerede über Alarmismus, das ist furchterregendes Zeug. Hier folgt ein Zitat:

Tatsächlich sind Fehler so konvex, dass der Beitrag einer einzigen zusätzlichen Variablen den Gesamtfehler größer machen kann als diejenige zuvor. Die n-te Variable bringt mehr Fehler ein als zuvor die n-1 Variablen!

Dieser Punkt ist von einiger Bedeutung für die „Vorhersage“ in komplexen Gebieten wie Ökologie oder in irgendwelchen höherdimensionalen Problemen (Ökonomie). Aber es konterkariert die Vorhersagbarkeit in Domänen, die als „klassisch“ angesehen werden und nicht als komplex bei einer Vergrößerung des Raumes der Variablen.

Man lese die Studie. Selbst ohne Verständnis der darin enthaltenen Mathematik sind die Schlussfolgerungen verstörend.

Link: http://wattsupwiththat.com/2015/07/11/nassim-taleb-strikes-again/

Anthony Watts führt diesen Beitrag von Willis Eschenbach noch weiter umfassend aus:

,Robuste‘ Analyse ist nicht das, was es sein sollte: die besten 10 Wege, die Wissenschaft vor ihrem statistischen Selbst zu retten

Anthony Watts

Als Folge der jüngsten Ausführungen von Willis Eschenbach zu Nassim Taleb mit seiner Aussage „Tatsächlich sind Fehler so konvex, dass der Beitrag einer einzigen zusätzlichen Variablen den Gesamtfehler größer machen kann als diejenige zuvor“ habe ich mir gedacht, dass es angebracht ist, diese Zerschlagung der Über-Zuverlässigkeit statistischer Verfahren in der Wissenschaft weiter auszuführen; vor allem, da unsere globale Temperaturaufzeichnung vollständig eine statistische Konstruktion ist.

Auszüge aus dem Artikel von Tom Siegfried in Science News:

Wissenschaft ist heldenhaft. Sie befeuert die Wirtschaft, füttert die Welt und bekämpft Krankheiten. Sicher, sie führt auch zu manchem Unangenehmen – Wissen ist Macht für das Schlechte ebenso wie für das Gute – aber insgesamt gebührt der Wissenschaft Dank für die Schaffung der Grundlage des Komforts und der Bequemlichkeiten der modernen Zivilisation.

Aber trotz all dieser heroischen Errungenschaften weist Wissenschaft ein tragisches Manko auf: Sie richtet sich nicht immer nach dem Image, das sie von sich selbst erschaffen hat. Gemeiniglich steht Wissenschaft für Loyalität gegenüber Ursachen, strikter Logik und der Suche nach Wahrheit frei von den Dogmen der Autoritäten. In der Praxis ist Wissenschaft jedoch großenteils unterwürfig gegenüber der Autorität von Zeitschriften-Herausgebern; durchsetzt mit Dogma und sich nicht bewusst der logischen Fehler bei den primären Verfahren zu Untersuchungen: statistische Analysen experimenteller Daten zum Testen von Hypothesen. Als Folge sind wissenschaftliche Studien nicht so zuverlässig wie sie von sich behaupten. Dogmatische Ergebenheit gegenüber traditionellen statistischen Verfahren ist eine Achillesferse, die anzuerkennen die Wissenschaft sich weigert, womit sie ihren heldenhaften Status in der Gesellschaft aufs Spiel setzt.

Noch nachdrücklicher: Eine in psychologischen Journalen veröffentlichte Analyse von 100 Ergebnissen zeigt, dass die meisten dieser Ergebnisse einfach verpuffen, wenn die gleiche Studie erneut durchgeführt worden ist. Dies schrieb kürzlich das Journal Nature. Und dann gibt es da das Fiasko über sich ändernde Haltungen zu gleichgeschlechtlichen Hochzeiten, was in einer (inzwischen zurück gezogenen)Studie zu lesen war, die ganz offensichtlich auf fabrizierten Daten basierte.

Aber Betrug ist nicht das prominenteste Problem. Noch öfter können unschuldige Faktoren konspirieren, um ein wissenschaftliches Ergebnis schwierig zu reproduzieren zu machen, wie meine Kollegin Tina Hesman Saey kürzlich in Science News dokumentiert hat. Und selbst unabhängig von diesen praktischen Problemen garantieren statistische Schwächen, dass sich viele Ergebnisse als unecht herausstellen. Wie ich schon bei vielen Gelegenheiten erwähnt habe, die Standardmethoden in Statistik zur Evaluierung von Beweisen werden gewöhnlich missbraucht, fast immer falsch interpretiert. Außerdem sind sie nicht sehr informativ, selbst dann, wenn sie korrekt verwendet und interpretiert werden.

Niemand in der wissenschaftlichen Welt hat diese Dinge deutlicher beim Namen genannt als der Psychologe Gerd Gigerenzer vom Max-Planck-Institut für Bildungsforschung in Berlin. In einer jüngst erschienenen Studie (hier), die er zusammen mit Julian Marewski von der University of Lausanne durchgeführt hatte, vertiefte sich Gigerenzer in einige der Gründe für diese beklagenswerte Situation.

Trotz allem besteht ihrer Analyse zufolge das Problem, weil das Streben nach „statistischer Signifikanz“ sinnlos ist. „Die Bestimmung der Signifikanz ist zu einem Ersatz für gute Forschung geworden“, schreiben Gigerenzer und Marewski in der Februar-Ausgabe des Journal of Management. In vielen wissenschaftlichen Zirkeln wurde „statistische Signifikanz“ zu einem Idol, zu dem man pilgern musste auf dem Weg zur Wahrheit. „Angesehen als das einzige verfügbare Mittel vor Ort wird dieses Streben praktiziert auf eine gewohnheitsmäßige, mechanische Weise – ohne danach zu fragen, ob das sinnvoll ist oder nicht“.

Normalerweise wird statistische Signifikanz beurteilt durch die Berechnung eines Wertes P, also der Wahrscheinlichkeit, dass die beobachteten Ergebnisse (oder extremere Ergebnisse) erzielt werden würden, falls kein wirklicher Unterschied besteht zwischen den getesteten Faktoren (zum Beispiel wie bei einem Medikament oder einem Placebo zur Behandlung von Krankheiten). Aber es gibt andere Verfahren. Oftmals wollen Forscher Vertrauensintervalle berechnen – Bandbreiten, die sehr der Fehlerbandbreite in öffentlichen Meinungsumfragen ähneln. In einigen Fällen könnten verfeinerte statistische Tests angewendet werden. Eine Lehrmeinung bevorzugt das Bayesianische Verfahren, seit Langem Rivale der Standardmethode.

Warum unternehmen Wissenschaftler nichts gegen diese Probleme? Konträre Motivationen! In einem der wenigen populären Bücher, die sich mit diesen statistischen Dingen eingehend befassen, zeigt der Physiker und Statistiker Alex Reinhart, dass es sich kaum für Wissenschaftler auszahlt, dem gegenwärtigen statistischen System Widerstand zu leisten.

„Unglückliche Anreize … zwingen Wissenschaftler, rasch kleine Studien mit schlampigen statistischen Verfahren zu veröffentlichen“, schreibt Reinhard in Statistics Done Wrong. „Promotionen, Beschäftigungsverhältnisse, Finanzierung und Job-Angebote sind allesamt abhängig davon, eine lange Lise mit Veröffentlichungen in prestigeträchtigen Journalen vorweisen zu können. Daher gibt es einen starken Anreiz, vielversprechende Ergebnisse so schnell wie möglich zu veröffentlichen“.

Und die Veröffentlichung von Studien erfordert es, die von den Herausgebern der Journale festgelegten Spielregeln einzuhalten.

„Herausgeber von Journalen versuchen zu beurteilen, welche Studien die größten Auswirkungen haben und das größte Interesse erregen, und wählen konsequenterweise jene mit den überraschendsten, kontroversesten oder neuesten Ergebnissen“, führt Reinhart aus. „Dies ist ein Rezept für Inflation von Wahrheit“.

Wissenschaftliche Veröffentlichungen sind daher durchsetzt mit Falschheiten.

Read all of part 1 here

Wertlos: Ein Wert P ist die Wahrscheinlichkeit, dass ein Ergebnis genauso extrem oder noch extremer ist als die beobachteten Daten, falls es de facto gar keine Auswirkung hat. P-Werte sind keine zuverlässige Maßzahlen von Beweisen.

Auszüge als Teil 2:

Statistik ist in der Wissenschaft das, was Steroide für Baseball sind. Suchterzeugendes Gift. Aber zumindest hat Baseball versucht, dem Problem zu begegnen. Die Wissenschaft leugnet dieses Problem zumeist.

Sicher, nicht jeder Gebrauch von Statistik in der Wissenschaft ist des Teufels, genauso wie Steroide manchmal geeignete Medizin ist. Aber ein spezielles statistisches Verfahren, nämlich das Testen von Null-Hypothesen, verdient das gleiche Schicksal wie Pete Rose im Baseball: Verbannung.

[Anmerkung des Übersetzers: Es würde zu weit führen, den nicht mit der US-Sportart Baseball vertrauten Lesern diesen Vergleich zu erläutern. Pete Rose war eine Baseball-Berühmtheit, bevor er aus irgendwelchen Gründen in der Versenkung verschwand.]

Zahlreiche Experten haben das statistische Austesten von Null-Hypothesen – das Grundverfahren wissenschaftlicher Methodik – als den Hauptschuldigen ausgemacht, der viele Forschungsergebnisse unreproduzierbar und vielleicht – eher mehr als weniger – irrig macht. Viele Faktoren tragen zu dieser abgründigen Lage bei. In den Biowissenschaften beispielsweise sind Probleme mit biologischen Mitteln und Referenzmaterialien eine wesentliche Quelle unreproduzierbarer Ergebnisse. Das zeigt ein neuer Bericht in PLOS Biology. Aber Schwierigkeiten mit „Datenanalyse und Berichterstattung“ werden ebenfalls angesprochen. Wie die Statistikerin Victoria Stodden kürzlich dokumentierte, führt eine Reihe statistischer Dinge zu Unreproduzierbarkeit. Und viele dieser Dinge drehen sich um Tests der Null-Hypothese. Anstatt wissenschaftliches Verständnis zu vertiefen, garantiert das Testen von Null-Hypothesen häufig falsche Schlussfolgerungen.

10. Verbanne P-Werte

9. Empfehle Schätzung

8. Überdenke Vertrauensintervalle

7. Verbessere Meta-Analysen

6. Rufe ein Journal of Statistical Shame ins Leben

5. Bessere Leitlinien für Wissenschaftler und Herausgeber von Journalen

4. Verlange Vorab-Registrierung von Studien-Designs

3. Setze dich für bessere Lehrbücher ein

2. Verändere Strukturen für Anreize

1. Überdenke die Berichterstattung über Wissenschaft in den Medien.

Noch mehr Gründe hinter dieser Liste in Teil 2 hier.

Ich würde dieser Top-10-Liste noch einen Punkt hinzufügen:

0.Verbanne den Gebrauch des Wortes ,robust‘ aus wissenschaftlichen Studien.

Angesichts dessen, was wir gerade hier und von Nassim Taleb gelesen haben, und da vor allem die Klimawissenschaft dieses Wort in Studien zu lieben scheint, denke ich, dass es nicht mehr ist als eine Projektion des Egos des/der Autor/en vieler klimawissenschaftlicher Studien ist und nicht ein unterstützenswertes Statement bzgl. statistischen Vertrauens.

Ein weiterer Punkt; ein Absatz aus Teil 1 von Tom Siegfried liest sich so:

Es ist langfristig für die Wissenschaft immer noch die oberste Strategie, umfassendes Wissen über die Natur zu etablieren. Mit der Zeit trennen akkumulierende wissenschaftliche Beweise im Allgemeinen das Gute vom Schlechten. (Mit anderen Worten, Klimawissenschafts-Leugner und Impfverweigerer werden durch heilloses statistisches Durcheinander in individuellen Studien nicht gerechtfertigt). Nichtsdestotrotz sind zu viele individuelle Studien in begutachteten Journalen nicht zuverlässiger als Meinungsumfragen vor Wahlen in UK.

Dieses hässliche Etikett über Klimaskeptiker beschädigt einen sonst exzellenten Artikel über Wissenschaft. Es zeigt auch, dass Mr. Siegfried sich nicht wirklich diesem Thema (d. h. Skeptizismus) genauso sorgfältig angenommen hat wie er es hinsichtlich des Missbrauchs der Wissenschaft getan hat.

Sollte Mr. Siegfried dies lesen, möchte ich ihm klarmachen, dass viele Klimaskeptiker zu Klimaskeptikern geworden sind, seit wir einmal damit angefangen haben, einige der schäbigen statistischen Verfahren zu untersuchen, die in wissenschaftlichen Studien verwendet oder sogar eingeführt worden sind. Die fragwürdige statistische Arbeit von Michael Mann allein (in Kombination mit dem Hype in den nicht nachfragenden Medien) hat Legionen von Klimaskeptikern hervorgebracht. Vielleicht sollte Mr. Siegfried doch etwas Zeit dafür aufbringen, die statistischen Kritiken von Stephen MyIntyre zu lesen und uns dann zu sagen, wie Dinge wie eine einzige Baumring-Stichprobe (hier) oder verkehrt herum präsentierte Daten (hier) oder vorab festgelegte Daten (hier) „robuste“ Klimawissenschaft erzeugen, bevor er das Etikett „Klimaleugner“ noch einmal in den Mund nimmt.

Link: http://wattsupwiththat.com/2015/07/12/robust-analysis-isnt-what-it-is-cracked-up-to-be-top-10-ways-to-save-science-from-its-statistical-self/

Übersetzt von Chris Frey EIKE




Päpste unter sich – Sonne kühlt ab: Droht uns die kleine Eiszeit?

HJS: „Vor mehr als zehn Jahren hat die Pontifikalakademie schon einmal eine Veranstaltung zum Klimawandel gemacht. Damals war auch eine Riege prominenter ‚Skeptiker’ eingeladen, die Haltung des Vatikan seinerzeit war eine ganz andere als heute…Es war ein hartes Stück Arbeit, die Erkenntnisse der Wissenschaft so aufzubereiten, dass im Vatikan das Klimaproblem jetzt so viel besser verstanden wird.“ Der wesentliche Fortschritt des Vatikan liegt laut Schellnhuber nämlich darin, dass die Kirche in der von ihm beeinflussten Neuauflage der Debatte jede Kontroverse ausgeschlossen hatte.
„Die Skeptiker waren da auch noch eingeladen?“, fragt die FAZ bang.

Schellnhuber: „Nein.Allerdings hat es ein britischer Politiker, Lord Monckton, geschafft, sich bei einer Veranstaltung in diesem Jahr einzuschleichen. Er ist leider hoffnungslos eingesponnen in Verschwörungstheorien. In Rom saß er mit seinem iPhone hinter mir, hat alles eifrig aufgezeichnet, und hinterher macht er sich in einem Blog darüber lustig, wie er die Schweizer Garde genarrt hat. Ein Auftritt wie im Tiroler Bauerntheater.“

Jetzt weiß man immerhin ziemlich genau, wie sich Schellnhuber die Führung von Debatten vorstellt, wenn seine Große Transformation irgendwann erfolgreich beendet sein sollte. Welchen Verschwörungstheorien hängt aber ketzerische Einschleicher Christopher Monckton an? Lesen wir ihn in seinen eigenen Worten: “Yes, there is a greenhouse effect. Yes, CO2 contributes to it. Yes, it causes warming. Yes, we emit CO2. Yes, warming will result. But not a lot.” 

Auf Deutsch: Monckton teilt die grundsätzliche Ansicht nahezu aller Klimawissenschaftler, veranschlagt aber den Grad der Erwärmung geringer als die Alarmisten. Und der faktische globale Temperaturverlauf seit dem Jahr 2000 bestätigt ihn auch noch, ebenso der schwache Meeresspiegelanstieg und die Rekordausdehnung des antarktischen Eisschildes.Hätte sich Michael Manns wissenschaftlich längst deskreditierte Hockeyschlägerkurve für die Klimaerwärmung als korrekt erwiesen, dann dürfte Schellnhuber mit Leuten vom Schlag Moncktons überhaupt kein Problem haben. Im Gegenteil.

Aber so, wie die Dinge liegen, könnte die Potsdamer Heiligkeit versucht sein, ein paar römische Praktiken auch in Deutschland zu etablieren. Eine Erwärmungsglaubenskongregation strikter Observanz und mit verbindlichem Auslegungsrecht wäre schon hilfreich, um einmal den Begriff einer prominenten Politikerin zu bemühen. Und sollten Wissenschaftler 

Übernommen von ACHGUT

Lesen Sie dazu auch:

Sonne kühlt ab: Droht uns die kleine Eiszeit?

Die Sonne ist der Stern, der unsere Erde mit Wärme versorgt. Doch Wissenschaftler haben Anzeichen dafür gefunden, dass sich das Zentrum unseres Planetensystems für die nächsten 40 Jahre abkühlen könnte. Droht uns jetzt eine „kleine Eiszeit“?

UK Met Office: Fastest decline in solar activity since the last ice age




Neue Golfstrom-Publikation des PIK fällt in der Fachwelt glatt durch

[Aufmacherbild: Passt doch zum Golfstrom genauso gut wie Dr. Mann zu Klimaforschung? Anm. d. Übers.]

Golfstromsystem verliert an Kraft – Klimawandel im Verdacht
Wie eine gewaltige Umwälzpumpe transportieren Strömungen des Atlantiks warmes Wasser in den Norden und kaltes Wasser in den Süden. Teil dieses Strömungssystems ist auch der Golfstrom, der für das meist milde Klima im Nordwesten Europas sorgt. Jetzt haben Forscher Belege dafür entdeckt, dass diese riesige Meeresströmung schwächer wird. Beobachtungen weisen darauf hin, dass die Umwälzung in den letzten Jahrzehnten langsamer war als jemals zuvor im vergangenen Jahrhundert, wahrscheinlich sogar im vergangenen Jahrtausend. Zu dieser Abschwächung hat offenbar die zunehmende Eisschmelze auf Grönland beigetragen, die durch den mensch-gemachten Klimawandel verursacht wird. Eine weitere Verlangsamung der Strömung könnte nicht nur Folgen haben für marine Ökosysteme, sondern auch für den Meeresspiegel und das Wetter in den USA und Europa. „Verblüffenderweise hat sich trotz fortschreitender globaler Erwärmung ein Teil des nördlichen Atlantik in den letzten hundert Jahren abgekühlt“, sagt Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung, Leit-Autor der in Nature Climate Change erscheinenden Studie. Frühere Forschung hatte bereits Hinweise darauf gegeben, dass eine Abschwächung der großen Umwälzströmung im Atlantik, die so genannte Atlantic Meridional Overturning Circulation, hierfür verantwortlich sein könnte. „Jetzt haben wir starke Belege dafür gefunden, dass dieses atlantische Förderband sich in den vergangenen hundert Jahren tatsächlich verlangsamt hat, besonders seit 1970“, so Rahmstorf. […] Wenn die Strömung zu schwach wird, könnte sie sogar vollständig zusammenbrechen – die atlantische Umwälzung wird schon lange als mögliches Kipp-Element im Erdsystem betrachtet.

Neben dem schillernden Rahmstorf gehört zu den Coautoren auch der umstrittene Michael Mann, bekannt als Erfinder der mittlerweile diskreditierten Hockeystick-Kurve. Bei dieser Besetzung lohnt es sich durchaus, etwas genauer hinzuschauen. Wie plausibel ist die vom PIK vorgebrachte Geschichte? Erst vor wenigen Monaten hatte ein Team bestehend aus Forschern der Universität Heidelberg, Geomar, ETH Zürich und der Universität Bern das glatte Gegenteil herausgefunden und in Nature publiziert (Böhm et al. 2015). Die Universität Heidlberg gab hierzu am 15. Dezember 2014 eine Pressemitteilung heraus:

Klimawandel: Ozeanzirkulation im Atlantik war stabiler als erwartet
Die Ozeanzirkulation im Atlantik, die einen entscheidenden Einfluss auf das Erdklima hat, ist stabiler als bislang angenommen. Das zeigen Untersuchungen eines internationalen Forscherteams, an dem Wissenschaftler der Universität Heidelberg beteiligt sind. Die Forscher analysierten die nordatlantische Tiefenwasserzirkulation der vergangenen 140.000 Jahre und konnten zeigen, dass der aktuelle atlantische „warm“-Zirkulationsmodus entgegen bisheriger Annahmen selbst während der letzten Kaltzeit der Erde bestimmend war. Nach den Worten von Dr. Evelyn Böhm vom Institut für Umweltphysik lässt dies den Rückschluss zu, dass die derzeitige Zirkulation so stabil ist, dass ihr Zusammenbruch etwa durch Schmelzwasser von verstärkt abtauendem Grönlandeis extrem unwahrscheinlich ist. Daher sei nicht mit einem plötzlichen extremen Temperatursturz in Europa zu rechnen. […] Entgegen bisheriger Annahmen der Forscher zeigte sich, dass der „warm“-Modus nicht nur in Warmzeiten, sondern auch in der letzten Kaltzeit vorherrschend war. „Wir konnten lediglich während der Höhepunkte der letzten beiden Kaltzeiten das Zirkulationsmuster des ‚kalt‘-Modus beobachten“, erklärt Dr. Marcus Gutjahr vom GEOMAR in Kiel. „Die Ergebnisse zeigen daher, dass der ‚warm‘-Modus, dem auch das heutige Zirkulationsmuster entspricht, stabiler ist als bisher angenommen“, ergänzt Gutjahrs Kollege Prof. Dr. Martin Frank. Nach Angaben der Wissenschaftler führen in diesem Zirkulationsmuster große Mengen Süßwasser durch abschmelzende Eismassen nur zu einer kurzen Abschwächung, aber nicht zu einem vollständigen Abbruch der nordatlantischen Tiefenwasserbildung. Erst als die Eismassen während der Höhepunkte der Kaltzeiten maximal ausgedehnt waren, bewirkten solche Süßwassereinträge einen Kollaps der Tiefenwasserbildung im Nordatlantik über mehrere hundert Jahre mit der Folge eines weiteren Absinkens der Durchschnittstemperaturen auf der Nordhemisphäre.

Zwei Pressemitteilungen zum selben Thema. Die eine mit Klimaalarm, die andere entwarnend. Die Auswertung der Medienreaktionen ist dabei hoch aufschlussreich. Während die PIK-Meldung in fast jeder deutschsprachigen Zeitung gelaufen ist, sucht man nach der Heidelberger Studie nahezu vergeblich, und das obwohl neben der Universität Heidelberg auch das Geomar eine Pressemitteilung herausgegegeben hatte. FAZ, Sächsische Zeitung, Rheinische Post, Spiegel, Deutsche Welle, Deutschlandfunk, NTV, Klimaretter – sie alle lieben den Klimaschauder des PIK, blieben aber im Dezember 2014 stumm, als die Heidelberger ihre hochinteressanten Ergebnisse präsentierten.

Allein die österreichische Tageszeitung Der Standard berichtete über beide Studien (Artikel zur Heidelberger Studie hier). Vielleicht ist dies auch der Grund, weshalb der Standard berechtigte Zweifel an der Berichterstattung über die PIK-Ergebnisse anklingen lässt:

Forscher konstatieren Abschwächung der Meeresströmung im Atlantik
Starke Veränderungen im 20. Jahrhundert könnten dem Klimawandel geschuldet sein, schreiben Forscher aus Potsdam – Kollegen melden allerdings Zweifel an. […] Der Klimaforscher Martin Visbeck vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel sieht Rahmstorfs Deutung der Ergebnisse kritisch: “Die Konzentration der Studie auf den subpolaren Teil des Atlantiks und die spektrale Analyse sind interessant”, sagt er. Aber es gebe auch andere Schätzungen der AMOC, die auf einen ganz anderen Verlauf hindeuteten. Die Arbeit biete keine starken Hinweise auf die Entwicklung der AMOC während der letzen 50 Jahre.

Der Spiegel reagierte auf das PIK-Modell sogar mit noch stärkerer Skepsis:

Umstrittene Studie: Schwächelt der Golfstrom?
Droht Europa eine Abkühlung? Der Golfstrom hat in den vergangenen Jahrzehnten deutlich an Kraft verloren, behaupten Forscher. Die Ursache sei der Klimawandel. Andere Experten geben sich skeptisch.
[…] Allerdings zeigen die Daten aus der Studie von Rahmstorf und seinen Kollegen auch, dass es offenbar keinen einfachen Zusammenhang zwischen steigenden Temperaturen und schwächer werdender Amoc gibt. Denn seit 1990 hat die Zirkulation wieder einen Teil ihrer Kraft zurückerlangt – obwohl die Eisschmelze in der Arktis im gleichen Zeitraum ungebremst vorangeschritten ist. Klimaforscher Martin Visbeck vom Helmholtz-Zentrum für Ozeanforschung Kiel (Geomar) zieht gleich Rahmstorfs gesamte Deutung der Ergebnisse in Zweifel: “Die Konzentration der Studie auf den subpolaren Teil des Atlantiks und die spektrale Analyse sind interessant”, sagt er. Die Arbeit aber biete keine starken Hinweise auf die Entwicklung der Amoc während der vergangenen 50 Jahre. Die meisten Studien gingen gar von einem Erstarken der Strömung aus. Auch Michael Hofstätter von der Zentralanstalt für Meteorologie und Geodynamik (ZAMG) in Wien bewertet die Rahmstorf-Studie skeptisch. Die Temperaturschwankungen könnten auch eine “vorübergehende natürliche Variation” sein, sagte Hofstätter dem Onlinedienst des ORF. Die Messungen deckten einen zu kurzen Zeitraum ab, um konkrete Vorhersagen zu treffen.

Auch in der internationalen Fachwelt stieß die neue PIK-Veröffentlichung bei vielen Kollegen auf Ablehnung. Neben den Heidelbergern sehen auch US-Kollegen die Situation gänzlich anders. Bereits im Januar 2014 hatte ein Forscherteam um Thomas Rossby von der University of Rhode Island in den Geophysical Research Letters Projektergebnisse veröffentlicht, die im Gegensatz zur PIK-Behauptung eine große Stabilität des Golfstroms in den letzten 20 Jahren belegen (im Folgenden die Kurfassung der Publikation):

Zur langzeitlichen Stabilität des Golfstrom-Transportes auf der Grundlage 20 Jahre langer direkter Messungen

Im Gegensatz zu jüngsten Behauptungen über eine Verlangsamung des Golfstromes, zeigen zwei Dekaden mit der direkt gemessenen Geschwindigkeit quer zu der Strömung keine Beweise für eine Abnahme derselben. Mittels einer gut durchdachten [well-constrained] Definition der Breite des Golfstromes ergibt die lineare Anpassung [fit] kleinster Quadrate eine mittlere Transportgeschwindigkeit an der Oberfläche von 1,35 X 10↑5 m²/s* mit einem negativen Trend von 0,13% pro Jahr. Unter der Annahme geostrophischer Verhältnisse [?] korrespondiert dies mit einer mittleren Differenz der Höhe des Meeresspiegels quer zur Strömung von 1,17 m, welche während dieser 20 Jahre um 0,03 m abgenommen hat. Das ist innerhalb des 95%-Vertrauensniveaus nicht signifikant und liegt um einen Faktor 2 bis 4 unter den vermeintlichen beschleunigten Anstieg des Meeresspiegels entlang der US-Küste nördlich vom Kap Hatteras. Teilweise kann diese Disparität auf die räumliche Komplexität der altimetrischen Meeresspiegel-Trends während des gleichen Zeitraumes zurückgeführt werden.

[*Mit dieser Einheit kann ich absolut nichts anfangen. Eine Geschwindigkeit kann es nicht sein, aber was dann? Weiß jemand eine Erklärung? Anm. d. Übers.]

In einer Pressemitteilung seiner Universität aus dem März 2014 ließ Rossby keinen Zweifel daran, dass die harten Messdaten eine klare Sprache sprechen und keinerlei Abschwächung des Golfstroms zeigen:

Während der letzten 20 Jahre haben er und seine Kollegen den Golfstrom vermessen mittels eines akustischen Doppler-Strömungs-Profilers (ADCP), der auf dem Frachter Oleander montiert war. Dieser Frachter verkehrt wöchentlich zwischen New Jersey und Bermuda. Das Instrument misst die Geschwindigkeit, mit der das Wasser unter dem Schiff vorbei strömt bis zu einer Tiefe von 600 m und hat einige tausend Messwerte des Golfstromes gesammelt seit seiner Installation Ende 1992. „Das ADCP misst Strömungen mit sehr großer Genauigkeit, und so haben wir durch wiederholte Messungen Jahr für Jahr ein sehr aussagekräftiges Tool, um die Stärke der Strömung zu überwachen“, sagte Rossby. „Es gibt Variationen mit der Zeit, die natürlichen Ursprungs sind – und ja, diese müssen wir noch besser verstehen – aber wir finden absolut keine Beweise, die nahelegen, dass sich der Golfstrom verlangsamt“.

Zur gleichen Schlusssfolgerung war auch die NASA bereits vor einigen Jahren gekommen. In einer Pressemitteilung vom 25. März 2010 gab die Behörde bekannt:

NASA-Studie: Atlantisches ,Fließband‘ [conveyor belt] verlangsamt sich nicht

Neue Messungen der NASA der Atlantic Meridional Overturning Circulation, Teil der globalen Meeresströme, der hilft, das Klima rund um den Nordatlantik zu bestimmen, zeigen während der letzten 15 Jahre keine signifikante Verlangsamung. Die Daten zeigen, dass sich die Zirkulation während der jüngsten Vergangenheit sogar etwas beschleunigt haben könnte. Die Ergebnisse stammen von einem neuen Überwachungsverfahren, das von dem Ozeanographen Josh Willis vom Jet Propulsion Laboratory der NASA in Pasadena entwickelt worden ist. Dabei werden Messungen von die Ozeane überwachenden Satelliten und Messbojen verwendet. Die Ergebnisse werden in der Ausgabe der Geophysical Research Letters vom 25. März veröffentlicht. … Bislang jedoch gibt es keine Anzeichen für eine Verlangsamung der Zirkulation. „Die von uns beobachteten Änderungen sind vermutlich Teil eines natürlichen Zyklus’“, sagte Willis. „Die leichte Zunahme des Overturning seit 1993 fällt zusammen mit einer Jahrzehnte langen natürlichen Abfolge von Erwärmung und Abkühlung des Atlantiks“.

Die renommierte Klimawissenschaftlerin Judith Curry bringt es in ihrem Blog am 25. März 2015 auf den Punkt. Sie misstraut den Klimaproxies der Rahmstorf/Mann-Gruppe und vermutet, dass die Forscher auf die natürliche Klimavariabilität hereingefallen sind. Was PIK & Co. als anthropogenen Klimawandel verkaufen, sind in Wirklichkeit ganz normale Klimaschwankungen im Zusammenhang mit quasi-periodischen Ozeanzyklen, die sie einfach nicht wahrhaben wollen. Curry schreibt:

Nun, wenn es etwas gibt, dem ich noch mehr misstraue als Klimamodellsimulationen von Meeresströmen im Zeitmaßstab von Jahrzehnten bis zu Jahrhunderten und deren interner Variabilität, sind es deren Proxy-Analysen von Michael Mann. Man tut so, als ob Grannenkiefern und Tiljander-Sedimente uns etwas über die Flussraten des Golfstromes sagen können ebenso wie etwas über die globalen Temperaturen. Bemerkenswert. … Wem also soll man glauben? Klimamodellen und Mann’schen Proxys oder direkten Messungen der Ozean-Zirkulation der Satelliten? … Was wir in den hohen Breiten des Nordatlantik sehen, ist natürliche Variabilität, vorherrschend assoziiert mit der Atlantic Multidecadal Oscillation. Auf der Grundlage analysierter Messungen gibt es keine Anzeichen einer Verlangsamung des Golfstromes oder der Atlantic Meridional Overturning Circulation.

Auch der Klimastatistiker Steve McIntyre, der bereits Michael Manns Hockeystick zu Fall brachte, war entsetzt. Für ihn war es ein schwerer Schlag zu sehen, dass die Rahmstorf/Mann-Gruppe im aktuellen Golfstrom-Paper erneut hochumstrittene und bereits von der Fachwelt für unbrauchbar eingestufte Klimaproxies verwendet hat. (Eine deutsche Übersetzung von McIntyres Kritik gibt es auf EIKE). Zudem wurden erneut Datenreihen nach Belieben gekürzt, offenbar damit favorisierte Trends besser zur Geltung kommen. Ein anderer Forscher bemängelte, dass im Rahmstorf/Mann-Paper noch immer eine Hockeystick-Variante von 2008 als Grundlage verwendet wird, obwohl es mittlerweile viel realistischere Klimarekonstruktionen gibt.

Nun ist Rahmstorfs Golfstrom-Thema alles andere als neu. Michael Krüger stellt im Science Skeptical Blog in seinem Artikel “Und täglich grüßt das Murmeltier: Stefan Rahmstorf und der ‘versiegende’ Golfstrom” die facettereiche Geschichte des Themas dar. Darin geht es um Behauptungen, Dementis, und Dementis von Dementis. Lesenswert. Außerdem bietet Krüger auch eine interessante Erklärung für die von Rahmstorf zum anthropogenen Klimawandel-Beweis hochstilisierten Kälteanomalie im Nordatlantik.

Angesichts der massiven Welle von Kritik mutet es bizarr an, dass das PIK am selben Tag, ebenfalls am 24. März 2015, eine zweite Pressemitteilung herausgab:

Bestnoten für das PIK: Senat der Leibniz-Gemeinschaft bestätigt Exzellenz 
Der Senat der Leibniz-Gemeinschaft, die mehr als 80 wissenschaftliche Einrichtungen vereint, hat am gestrigen Montag mit seiner Stellungnahme die Evaluation des PIK abgeschlossen. Die Arbeitsergebnisse des Institut seien „hervorragend“, heißt es hierin. Die Bewertung basiert auf einer nur alle sieben Jahre stattfindenden Begutachtung durch ein Team internationaler Spitzenforscher. Nach dem Urteil der Gutachter hat sich das PIK zu einem der weltweit führenden Institute für Klimawissenschaft entwickelt. Hervorgehoben wurde dabei neben der Forschungsleistung auch die wichtige Rolle des Instituts in der wissenschaftlichen Politikberatung.

Ein guter Witz.

Link: http://www.kaltesonne.de/neue-golfstrom-publkation-des-pik-fallt-in-der-fachwelt-glatt-durch/

Dieser Beitrag war zu erst im Blog „Die Kalte Sonne“ erschienen. Übersetzung der englischen Passagen darin von Chris Frey EIKE




Seth Borenstein von AP bauscht wieder einmal antarktische Schmelz-Ängste auf

Vorbemerkung des Übersetzers: In diesem Beitrag wird eine Fülle von Links genannt, wobei teilweise ganze Passagen mit den entsprechenden Hyperlinks hinterlegt sind. Der Einfachheit halber habe ich diese Passagen übersetzt und im Anschluss mit ,(hier)‘ den Hyperlink genannt .

Im Einzelnen wurden diese Behauptungen hier aufgestellt:

2014: Achtung: Die Fernsehstation WUSA 9 DC stellt bzgl. antarktischer Schmelz-Ängste Bilder von Bauwerken in Washington DC als unter Wasser stehend dar. ,Wir haben in der Hand, wie stark der Meeresspiegel steigt‘ – wir kontrollieren den Anstieg des Meeresspiegels? Achtung: lokale Nachrichten aus DC bringen einen Schund-Report aus der Antarktis und zum Anstieg des Meeresspiegels (hier).

1990: Rückblick auf den 11. Januar 1990: Die Today Show von NBC sendet die Warnung von Paul Ehrlich vor den Auswirkungen einer antarktischen Eisschmelze: ,Sie können Ihr Boot am Washington Monument festbinden‘ (hier).

1979: NYT: ,Boote können von den unteren Stufen des Capitol in DC ablegen (hier). Experten erklären, wie das Eis der Antarktis weit verbreitete Überschwemmungen auslösen könnte – unter dem Eisschild befindet sich matschiges Eis‘

1922: ,Eisberg für Eisberg (aus der Antarktis) wird in das Meer fallen und von den Strömungen nach Norden verfrachtet werden und schmelzen. Die Folge wird, jedoch mit einer viel stärkeren Rate, die Bedrohung sein, dass das Meer große küstennahe Landflächen verschlingt infolge des auf historische Höhen steigenden Meeresspiegels (hier) – The Mail Adelaide, 29 April 1922

1901: ,London an der Schwelle zum Untergang: Verschlungen von einer riesigen Welle‘ Queanbeyan Age, 10. August 1901 (hier). – Auszug: „Geologen glauben, dass dieser große Eisfresser das Stadium der Perfektion erreicht hat, wenn er die Antarktis wieder aufbrechen will. Dies würde gigantische Wassermengen freisetzen, die sich über beide Hemisphären ausbreiten. Sie werden tief liegende Gebiete von Europa, Asien und Nordamerika vollständig überschwemmen“.

#

Associated Press (AP) und Seth Borenstein sind wieder einmal dabei: Der Artikel von Seth Borenstein und Luis Andres Henao mit dem Titel ,Glacial Melting In Antarctica Makes Continent The ‘Ground Zero Of Global Climate Change‚ [etwa: Gletscherschmelze in der Antarktis macht den Kontinent zu ,Ground Zero‘ des globalen Klimawandels] wurde am 27. Februar 2014 veröffentlicht.

AP hat dabei aber wesentliche Dinge ausgelassen: Begutachtete Studien, die das Gegenteil zeigen sowie unbequeme Daten und Trends, die dem Narrativ ,schlimmer als wir dachten‘ in dem Artikel deutlich widersprechen. AP zeichnet ein irriges Bild eines potentiellen Anstiegs des Meeresspiegels, verschweigt potentielle vulkanische Ursachen irgendwelcher Schmelzvorgänge, den gegenwärtigen Zustand der Antarktis sowie die geologische Geschichte des Kontinents.

Warum hat AP nicht einige Eis-Spezialisten mit abweichenden Ansichten befragt? Z. B. prominenter Wissenschaftler widerspricht: Ein renommierter Glaziologe erklärt, dass die globale Erwärmung ,zu einem dicken Plus‘ werden wird – befürchtet eine ,ängstigende‘ Abkühlung – warnt vor Wissenschaftlern, die ihre ,W issenschaft prostituieren‘ (hier). Dr. Hughes ist ein international anerkannter Glaziologe (hier).Er war Urheber vieler der Fragen, die gegenwärtig in diesem Bereich untersucht werden. Dr. Hughes war seit 1968 zehn mal in die Arktis und 13 mal in die Antarktis gereist, zumeist als Forschungsleiter glaziologischer, vom NSF finanzierten Forschungen.

Natürlich war dies keine Überraschung angesichts des Umstands, dass Seth Borenstein dabei Ko-Autor war, dessen jüngste Äußerungen zu den Behauptungen des ,wärmsten Jahres jemals‘ korrigiert werden mussten. Siehe auch hier.

Borenstein hat ein langes Register der lautstarken Propagierung von Ängsten vor der globalen Erwärmung auf Kosten der journalistischen Ethik. Siehe: [übersetzt] die lange, traurige Geschichte von AP-Reporter Seth Borenstein und seinen Berichten über die furchtbare globale Erwärmung hier. Mehr zu Borenstein hier.

Analyse von Climate Depot:

Erstens: es gibt in dem Bericht keinerlei Hinweise auf die Rekord-Meereisausdehnung um die Antarktis jemals [seit mindestens den siebziger Jahren]. Siehe: Feds: Im Januar größte Meereisausdehnung um die Antarktis jemals (hier). – NCDC: ,Antarktisches Meereis während des Januars hatte eine Ausdehnung von 890.000 Quadratmeilen [über 2,3 Millionen km²] und lag damit um 44,6% über dem Mittel der Jahre 1981 bis 2010. Dies war die größte antarktische Meereisausdehnung im Januar jemals und hatte den 2008 gesetzten Rekord von 220.000 Quadratmeilen [ca. 570.000 km²] übertroffen. Außerdem: NSIDC: Eisausdehungsrekord während jeweils der letzten drei Jahre hintereinander! Die meiste Zeit im Jahr 2014 war die Eisausdehnung größer denn je seit Beginn der Satelliten-Ära (hier).

Und ja doch, Seth Borenstein von der AP hat zuvor versucht zu behaupten, dass mehr antarktisches Meereis durch die globale Erwärmung verursacht ist. Siehe ,Seth Borenstein von AP wieder einmal! Er behauptet: globale Erwärmung bedeutet mehr Eis um die Antarktis – es lebe der neue Konsens, das Gegenteil des alten Konsens‘ (hier)

Natürlich werden mit dieser Behauptung Daten ignoriert, die das Gegenteil zeigen. Siehe: Brian Gunter: Antarktischer Kontinent hat sich während der letzten 50 Jahre nicht erwärmt – Null-Temperaturtrend für die allermeisten Gebiete des antarktischen Kontinents (hier).

Und wenn man sich nur auf die kleineren Eisschilde der Westantarktis konzentriert, scheint AP seine Leser absichtlich in die Irre zu führen, wenn die Bedingungen im großen Rest der Antarktis ignoriert werden. Siehe: 2013: Neue Studie zeigt, dass die Mehrzahl der ostantarktischen Gletscher seit dem Jahr 1990 immer weiter gewachsen ist (hier). Neue, in Nature veröffentlichte Studie.

Punkt-für-Punkt-Widerlegung von Climate Depot der jüngsten Ängste bzgl. einer antarktischen Eisschmelze:

AP behauptet: Im Worst-Case-Scenario könnte die Eisschmelze in der Antarktis den Meeresspiegel weltweit in ein oder zwei Jahrhunderten um 3 Meter steigen lassen … Wissenschaftler schätzen, dass es zwischen 200 und 1000 Jahre dauern wird, um genug Eis zu schmelzen, um den Meeresspiegel um zehn Fuß [ca. 3 m] steigen zu lassen; vielleicht sogar nur 100 Jahre in einem Worst-Case-Scenario.

Climate Depot Erwiderung: Das ist reine Spekulation – unbewiesene Prophezeiungen, aufgepeppt mit extremen Szenarien und nicht auf der Grundlage der gegenwärtigen Klimarealität. Dem AP-Artikel zufolge hat sich die Schmelzrate verlangsamt. Siehe: Blog Sunshine Hours: die Antarktis verliert 130 Gigatonnen Eis pro Jahr (im vorigen Jahr waren es 159 Gigatonnen pro Jahr) (hier und hier). In fast allen Schmelzgebieten gibt es unter dem Eis Vulkane.

NSIDC: „Der antarktische Eisschild enthält 30 Millionen km³ Eis“. Eine Gigatonne Eis entspricht etwa einem Kubikkilometer Eis.

Das heißt … bei 130 Gigatonnen pro Jahr, wie lange dauert es, bis die Antarktis geschmolzen ist? Das heißt, 30 Millionen geteilt durch 130.

Die Antwort: es würde 230.000 Jahre dauern!

Warum hat Borenstein von AP das nicht erwähnt?

Dies ist nicht das erste Mal, dass Borenstein diese Art irreführende Berichterstattung betrieben hat. Im Jahre 2008 wurde Borenstein von Wissenschaftlern wegen ähnlicher journalistischer Tricks kritisiert.

Aus dem Bericht von 2008: Der Klimawissenschaftler Ben Herman, früher Direktor am Institute of Atmospheric Physics und ehemaliger Leiter des Department of Atmospheric Sciences an der University of Arizona, stellte fest: „Es ist interessant, dass es in allen AGW-Storys bzgl. der Antarktis immer nur um die Vorgänge um die (westliche) Halbinsel geht, welche die einzige Stelle in der gesamten Antarktis zu sein scheint, die Erwärmung zeigte. Aber was ist mit ,keiner Änderung‘ oder ,Abkühlung‘ insgesamt im restlichen Kontinent, der etwa 95% der Landmasse ausmacht? Und was ist mit der jüngsten Rekord-Ausdehnung des Meereises um die Antarktis?“

#

Behauptung von AP: 130 Milliarden Tonnen Eis (118 Milliarden metrische Tonnen) Eisverlust pro Jahr während des vergangenen Jahrzehnts, wie aus NASA-Satelliten-Berechnungen hervorgeht. Das ist ein Gewicht, das 356.000 mal größer ist als das des Empire State Building und reicht aus, um über 1,3 Millionen olympische Schwimmbäder zu füllen.

Erwiderung von Climate Depot: Das klingt richtig ängstigend, oder? Nun, das ist genau das, was die AP-Reporter wollen: Angstmache. Aber wie alarmierend ist diese Schmelzrate? AP beantwortet diese Frage viele Absätze später.

„Mit der gegenwärtigen Schmelzrate wäre der Anstieg des Meeresspiegels au der Welt durch die Eisschmelze in der Antarktis kaum wahrnehmbar, nämlich etwa ein Drittel Millimeter pro Jahr. Die Ozeane sind so groß“.

Fazit: All die Analogien mit dem Empire State Building und olympischen Schwimmbädern laufen auf ,kaum wahrnehmbar‘ hinaus. Natürlich ist die Rate des Meeresspiegel-Anstiegs überhaupt nichts Ungewöhnliches in der Antarktis. Selbst das IPCC räumt ein, dass es keinen signifikanten anthropogenen Einfluss auf das Klima vor 1950 gegeben hat. Folglich kann die Menschheit nicht verantwortlich sein für den Anstieg, der am Ende der Kleinen Eiszeit vor 150 bis 200 Jahren begonnen hatte.

Vom Blog The Hockey Schtick: Der Meeresspiegel-Anstieg während der vergangenen 200 Jahre zeigt keine Hinweise, dass er sich beschleunigt (hier), was aber erforderlich wäre, um einen menschlichen Einfluss nahe zu legen. Stattdessen hat sich der Anstieg des Meeresspiegels im 20. Jahrhundert verlangsamt (hier), und zwar um 31% seit 2002 (hier) und um 44% seit 2004 (hier) auf 7 Inches pro Jahrhundert [ca. 18 cm]. Es gibt keinen Beweis für eine Beschleunigung dieses Anstiegs (hier) und daher auch keinen Beweis irgendwelcher Auswirkungen menschlicher Aktivitäten auf den Meeresspiegel. Der Anstieg des Meeresspiegels ist primär ein lokales Phänomen und hängt zusammen mit dem Absinken von Landmassen und nicht mit dem CO2-Niveau (hier). Folglich weisen Gebiete mit Grundwasser-Absenkungen und Absinken von Landmassen viel höhere relative Raten des Meeresspiegel-Anstiegs auf, aber dies hat absolut nichts mit anthropogenem CO2 zu tun.

Wissenschaftler treten dem ,Kollaps‘ des antarktischen Eisschildes entgegen: „Das ging dort seit vielen tausend Jahren so, und es ist weder neu noch vom Menschen verursacht (hier).

Einige Perspektiven zu den Schlagzeilen bzgl. Trends des Eisverlustes in der Antarktis (hier): Die Berichterstattung in der Presse zu diesem Thema zielt darauf ab, es nach Alarm klingen zu lassen. So posaunte die Washington Post hinaus: „Diese Region in der Westantarktis verliert alle zwei Jahre eine Eismenge äquivalent zur Masse des Mount Everest“. Wow! Das klingt nach massenhaft. Aber wie sich zeigt, ist das falsch. Die globalen Ozeane sind riesig. Lässt man eine „der Masse des Mount Everest äquivalente Eismasse“ dort alle zwei Jahre hineinplumpsen, würde sich ein Meeresspiegelanstieg um 0,02 Inches pro Jahr ergeben [<1 mm].

Der Klimatologe Dr. Pat Michaels macht sich über die Klimabehauptungen lustig: „Der Meeresspiegel ist seit dem Ende der letzten Eiszeit gestiegen, also schon etwa 11.600 Jahre vor der industriellen Revolution“ (hier).

#

AP-Behauptung: „Das Schicksal der Welt hängt von der Frage ab, wie schnell das Eis schmilzt“

Erwiderung von Climate Depot: Höherer Schwachsinn, der in keiner Weise auf wissenschaftlichen Beweisen beruht.

#

AP-Behauptung: „Ich war hier vor zehn Jahren schon einmal“, sagte Convey während einer der seltenen sonnigen Tage auf der Insel mit Temperaturen etwas über Null Grad Celsius. „Und falls man vergleicht, was ich damals gesehen habe, gibt es aufgrund von Erwärmung einen grundlegenden Unterschied. Die Flecken ewigen Schnees und Eises sind kleiner. Sie liegen immer noch dort hinter mir, aber sie sind kleiner als zuvor“.

Erwiderung von Climate Depot: Dies ist lediglich ein anekdotischer Beweis, der auf persönlichen Eindrücken beruht sowie auf einem extrem kurzen Zeitfenster von 10 Jahren. Dieses sagt uns nichts über Klima-Zeitskalen von 20, 50 oder 100 Jahren oder noch länger. Der Hype um den Eisverlust in der Antarktis ist irreführend: „Das Festlandseis der Antarktis ist seit dem Ende der Eiszeit vor etwa 18.000 Jahren stetig kleiner geworden (hier). – Ihre neue Überprüfung überdeckt lediglich drei Jahre bis 2013. Der Zeitraum zuvor, mit dem sie Vergleiche anstellen, war von 2005 bis 2011. Würde irgendein seriöser Wissenschaftler solche kurzen Zeiträume heranziehen, um Behauptungen über Trends aufzustellen?“

Außerdem hat es AP in dem Artikel versäumt darauf hinzuweisen, dass Klima keine Einbahnstraße ist. Andere Variablen können zu einem Absinken des Meeresspiegels beitragen. Siehe die beiden Studien hierzu ,Studie prophezeit, dass zunehmender Niederschlag in der Antarktis den Anstieg des Meeresspiegels um über 1 mm pro Jahr verlangsamen wird (hier) und Neue Studie zeigt: Der ostantarktische Eisschild wird einen negativen Beitrag leisten zum Meeresspiegel während der nächsten 200 Jahre (hier).

Warum hat AP wissenschaftlich begutachtete Studien verschwiegen, die hinsichtlich ihres Narrativs ,schlimmer als wir dachten‘ unbequem sind? Siehe die Studie [übersetzt] „Menschheit nicht verantwortlich für den Kollaps der westantarktischen Gletscher: Erwärmung und Abkühlung am Südpol steht in guter Übereinstimmung mit historischen Trends, die tausende von Jahren zurückreichen“ (hier) und „Studie der British Antarctic Survey vom letzten Jahr zeigte, dass das gegenwärtige Schmelzen in der westlichen Antarktis innerhalb der ,natürlichen Bandbreite der Klimavariabilität‘ der letzten 300 Jahre liegt“ [kein Link angegeben].

Und außerdem, warum hat AP Studien nicht erwähnt, die enthüllen, dass die gegenwärtigen Temperaturen in der Antarktis nicht ,beispiellos‘ sind. Siehe die Studie mit dem Titel [übersetzt] „Jüngste Forschungen: In der Antarktis war es während der Mittelalterlichen Warmzeit wärmer als heute“ (hier).

In einer anderen, in Nature Climate Change veröffentlichten Studie aus jüngerer Zeit werden die Temperaturen in Südamerika und der Antarktis während der letzten 1000 Jahre rekonstruiert. Dabei zeigt sich, dass es sich in den meisten Gebieten der Antarktis während der letzten 1000 Jahre abgekühlt hat (hier).

Und sogar noch weiter zurück: Palmen in der Antarktis vor 52 Millionen Jahren: Neue Studie in Nature zeigt: während des frühen Eozäns herrschte auf dem antarktischen Kontinent persistent fast tropische Wärme (hier). Analyse: „Wenn dieses Ergebnis stimmt, beweist es, dass alle derzeit existierenden Klimamodelle komplett Müll sind, weil sie offensichtlich in keiner Weise zulassen, dass sich kontinentale Temperaturen aus natürlichen Gründen so stark ändern können“.

#

AP-Behauptung: „Jetzt verwenden Wissenschaftler in zwei unabhängigen Studien die Wörter ,irreversibel‘ und ,unaufhaltsam‘, wenn sie von der Schmelze in der Westantarktis sprechen.

Erwiderung von Climate Depot: AP sagt, dass diese apokalyptischen Termini „jetzt“ benutzt werden, als ob die Schmelzängste bzgl. der antarktischen Eisschilde etwas Neues oder so seien. Nichts fälscher als das! Borenstein ist nicht der Erste, der diesen Hype um die gleichen antarktischen Schmelz-Ängste pflegt. Praktisch genau die gleichen Behauptungen und der Hype wurden in den Jahren 2014, 1990, 1979, 1922 und sogar 1901 aufgestellt! Ja wirklich, der gleiche Hype um antarktische Eisschmelze und Meeresspiegelanstieg sowie die Angstmache hierzu gab es bereits seit dem Jahr 1901!

Schauen wir mal:

2014: Beginnen wir mit dem Jahr 2014: Rückblick: Die Fernsehstation WUSA 9 DC TV zeigt in einer Sendung über Ängste bzgl. der antarktischen Eisschmelze Bilder des Washington Monuments unter Wasser: „Wir haben in der Hand, wie stark der Meeresspiegel steigt‘ – wir kontrollieren den Anstieg des Meeresspiegels? Achtung: lokale Nachrichten aus DC bringen einen Schund-Report aus der Antarktis und zum Anstieg des Meeresspiegels“ (hier). – Wir haben es in der Hand, wie schnell der Meeresspiegel steigt, und das gibt uns Zeit, uns vorzubereiten und unsere Gemeinden auf smarte Weise zu schützen. – Brenda Ekwurzel, Union of Concerned Scientists.

Die gleichen Behauptungen zur antarktischen Schmelze und die Bilder aus Washington DC gab es im Jahre 1990:

1990: Rückblick auf den 11. Januar 1990: Die Today Show von NBC sendet die Warnung von Paul Ehrlich vor den Auswirkungen einer antarktischen Eisschmelze: ,Sie können Ihr Boot am Washington Monument festbinden‘ (hier). – Paul Ehrlich: „Die steigenden globalen Temperaturen können dazu führen, dass der westantarktische Eisschild schneller abgleitet. Dann werden wir nicht einen Meeresspiegelanstieg von 1 bis 3 Fuß [ca. 30 bis 90 cm] erleben, sondern einen solchen von 10 bis 20 Fuß [ca. 3 bis 6 m] in deutlich kürzerer Zeit. Der Supreme Court würde unter Wasser stehen. Man könnte sein Boot am Washington Monument festbinden. Sturmfluten würden das Capitol unbrauchbar machen“. Für [die Sendung] Today Paul Ehrlich in Washington, DC zur zukünftigen Küstenlinie der Chesapeake Bay.

Und auch im Jahre 1979 gab es das schon:

1979: NYT: ,Boote können von den unteren Stufen des Capitol in DC ablegen (hier). Experten erklären, wie das Eis der Antarktis weit verbreitete Überschwemmungen auslösen könnte – unter dem Eisschild befindet sich matschiges Eis‘

1922: Und wieder die gleiche Geschichte wurde im Jahre 1922 aufgetischt, verbunden mit der Warnung vor einer ,biblischen Sintflut‘ und einer ,weltweiten Überschwemmung‘ infolge einer potentiell abschmelzenden Antarktis: „Die heutige Angstmache des Tages lautet, dass die Antarktis kollabieren und uns alle ertränken wird – in etwa 1000 Jahren“ (hier).The Mail Adelaide, 29. April 1922. Hier ein Auszug aus diesem Artikel: Man glaubt, dass wir uns derzeit langsam einer weiteren Warmzeit nähern, die – falls sie allgemein auftritt – beide Hemisphären gleichermaßen betreffen wird. Das Eis wird erneut schmelzen, und der Meeresspiegel wird auf seinen historischen Stand steigen und das unter Wasser setzen, was heute trockenes und dicht besiedeltes Land ist. Einer anderen Ansicht zufolge könnte das Schmelzen des Eises und der Anstieg des Meeresspiegels vergleichsweise viel plötzlicher erfolgen, anstatt dass es ein sehr gradueller Prozess ist, der sich über mehrere Jahrhunderte einstellt … Eisberg für Eisberg (aus der Antarktis) wird in das Meer fallen und von den Strömungen nach Norden verfrachtet werden und schmelzen. Die Folge wird, jedoch mit einer viel stärkeren Rate, die Bedrohung sein, dass das Meer große küstennahe Landflächen verschlingt infolge des auf historische Höhen steigenden Meeresspiegels.

Und selbst im Jahre 1901 gab es schon diesen Hype um schmelzendes antarktisches Eis:

1901: ,London an der Schwelle zum Untergang: Verschlungen von einer riesigen Welle‘ Queanbeyan Age, 10. August 1901 (hier). – Auszug: „Einer neuen Theorie von einigen Geologen zufolge befindet sich London am Rande der Zerstörung, wobei der zerstörende Engel die große antarktische Eiskappe ist. Sie hat sich über viele Jahrhunderte gebildet und hält derzeit alle Gewässer fest, die aus der Nordhemisphäre dorthin geflossen sind. Geologen glauben, dass diese große Eismaschine einen kritischen Zustand erreicht, bei dem er zusammenbrechen und all sein Wasser über beide Hemisphären verteilen wird. Damit würden die tief liegenden Gebiete von Europa, Asien und Nordamerika vollständig überschwemmt. Sollte dies der Fall sein, wird London von der Landkarte verschwinden in kürzerer Zeit, als man berechnen kann, durch diese gigantische, eine Meile hohe Wasserwand mit gewaltigen Eisblöcken, die hier und dort und überall herumschwimmen.

Wissenschaftlich gibt es auch hier nichts Neues: ,Eisverluste in der Westantarktis hat es seit Jahrhunderten gegeben‘ (hier).

Und die zuvor aufgestellten Behauptungen bzgl. einer sich beschleunigenden Eisschmelze wurden in Frage gestellt: ,Die Klimaalarmisten haben sich einen groben Schnitzer geleistet bei den Ergebnissen von Untersuchungen schmelzenden Eises in der Antarktis: Gesamt-Eisverlust ist der jüngsten Studie zufolge ,konsistent mit‘ und nicht ,doppelt so hoch wie‘ in früheren Studien‘ (hier).

Selbst die New York Times zuckt angesichts dieser Art alarmistischer Ausdrücke über die Antarktis zusammen: Revkin von der NYT zur ängstigenden Antarktis-Studie bzgl. des Meeresspiegels: „furchtbarer Missbrauch des Wortes ,Kollaps‘ in Schlagzeilen über Jahrhunderte lange Eisverluste in der Westantarktis“ (hier).

,Irreversibler Kollaps des Klimaalarmismus‘ – Behauptungen zur Antarktis und zum Meeresspiegel – und schon wieder eine Nicht-Krise-Krise – Die Wahrheit wird auf dem Altar der Sensationslust geopfert (hier).

#

AP-Behauptung: Was da passiert, ist simple Physik. Warmes Wasser nagt von unten am Eis. Danach ist mehr Eis dem Wasser ausgesetzt, das ebenfalls schmilzt. Und schließlich kollabiert das Eis oberhalb des Wassers und schmilzt ebenfalls.

Erwiderung von Climate Depot: ,Simple Physik‘? Hat man sie bei AP noch alle? Was ist mit den simplen Daten, die ihrer ,simplem Propaganda‘ einfach widersprechen? Siehe die Studie „Keine Erwärmung der Antarktis während der Satelliten-Ära – seit 1979 (hier). Dabei sollten es der Treibhausgas-Theorie zufolge die Pole sein, die sich am stärksten erwärmen. Offensichtlich hat das niemand dem Südpol mitgeteilt.

Wissenschaftler am MIT bestätigen, dass sich die Antarktis abkühlt – und nicht nur das, sie hat auch in letzter Zeit an Eismenge zugenommen (hier). Auszug aus dem Abstract: „Die östliche Antarktis und das antarktische Plateau haben sich abgekühlt, vor allem im Sommer, während Erwärmung über der Antarktischen Halbinsel und Patagonien beobachtet wird“.

Antarktis: Keine Erwärmung seit 1979:

Abkühlung der Wassertemperatur im Südlichen Ozean:

NOAA Data Show Southern Oceans Getting Colder…Contributing To Rapid South Polar Sea Ice Expansion

#

AP-Behauptung: Bei der NASA sagte der Eiswissenschaftler Eric Rignot, dass das Schmelzen „viel schneller vonstatten gehe als irgendjemand gedacht hatte. Es ist eine Art rote Flagge“.

Erwiderung von Climate Depot: Da ist sie wieder, diese Ente ,schneller als irgendjemand gedacht hatte‘. Wer ist ,irgendjemand‘ und wie ,schnell‘ sollte das Schmelzen ihrer Ansicht nach gehen? Alles klingt sehr unwissenschaftlich und mehr nach einer politischen Kampagne als nach Wissenschaft, die leidenschaftlich nach Beweisen sucht.

#

AP-Behauptung: Rignot von der NASA: „Wir müssen es stoppen oder zumindest so stark verlangsamen, wie wir können“.

Erwiderung von Climate Depot: Wir müssen ,das Schmelzen stoppen‘? Wie denn? Durch EPA-Vorschriften? UN-Verträge? Was ist mit den zahlreichen wissenschaftlich begutachteten Forschungen, die die Behauptungen widerlegen, dass die Schmelze in der Westantarktis menschlichen Aktivitäten geschuldet ist? Siehe folgende Studien, die allesamt Schmelzvorgänge von unten durch vulkanische Aktivitäten zum Thema haben: hier, hier, hier und hier.

Studien zeigen, dass ein Kollaps des westantarktischen Eisschildes typisch für Zwischeneiszeiten ist (hier): Folglich ist der vollständige Zusammenbruch und das Verschwinden des gesamten westantarktischen Eisschildes typisch für Zwischeneiszeiten. Es gibt keine Beweise dafür, dass der Mensch irgendetwas damit zu tun hat oder dass man dieses Phänomen stoppen kann durch die Vermeidung des Verbrennens fossiler Treibstoffe.

Was ist mit der übrigen Antarktis? Eine neue Studie zeigt: überraschend dickes antarktisches Meereis – veröffentlicht im Journal Nature Geoscience (hier).

AP hat begutachtete Studien, die das Gegenteil beweisen, einfach ausgelassen, ebenso wie Daten und Trends, die den Behauptungen im Artikel widersprechen und ernsten Zweifeln sogar von Warmisten, dass man irgendwelches potentielles Abschmelzen menschlichen Ursachen zuordnen kann. Siehe hier. – „Ich habe ein Problem mit der weit verbreiteten Implikation (in der populären Presse), dass der westantarktische Kollaps dem anthropogenen Klimawandel zugeordnet werden kann“, sagte Mike Wolovik, ein Graduierten-Forscher bei Lamont-Doherty, der die Dynamik von Eisschilden untersucht. „Die Instabilität maritimer Eisschilde ist inhärent Teil der Eisschild-Dynamik, wobei man keinerlei menschlichen Antrieb braucht. Wenn die Studien zeigen, dass der Kollaps im Gange ist und wahrscheinlich noch Hunderte von Jahren dauern wird, ist das eine vernünftige und plausible Schlussfolgerung“.

Geochemiker William D. Balgord: Weg mit der Hysterie um die schmelzende Antarktis: Dem Tauen von Gletschern folgte in historischer Zeit grundsätzlich ein erneutes Gefrieren (hier). „Die Erosion der antarktischen Gletscher ist seit dem Ende der letzten Eiszeit ohne Abschwächung erfolgt und hat sich während des gesamten vorigen Jahrhunderts bis zum heutigen Tag fortgesetzt. Es würde noch sehr viel mehr Zeit brauchen, selbst Jahrtausende, bevor genug Eis geschmolzen ist, um den Meeresspiegel um die 12 bis 13 Fuß [ca. 3 bis 4m] steigen zu lassen, wie es in jüngsten Nachrichten gemeldet worden ist unter der Voraussetzung, dass die gegenwärtige Rate von 7 Inches pro Jahrhundert [ca. 18 cm] konstant bleibt. … Aussagen, denen zufolge das anthropogene CO2 die hohen zirkumpolaren Winde irgendwie antreibt, sind spekulativ für ein Gebiet, das ohnehin durch hohe Windgeschwindigkeiten und raue See gekennzeichnet ist. Aber der Link zwischen CO2-Niveau und dem Eisverlust in der Westantarktis ,ist sehr dünn‘. Das Aufwallen wärmeren Wassers, welches das Eis schmilzt, steht im Zusammenhang mit stärkeren Westwinden um die Antarktis, was wiederum verbunden ist mit einer höheren Luftdruckdifferenz zwischen polaren und mittleren Breiten, was wiederum mit der globalen Erwärmung verbunden ist.

AGW: noch mehr Unsinn und heiße Luft: ;Das mit Abstand größte Stück Müll aus dem Alarmisten-Camp war die Veröffentlichung einer neuen Studie über die Winde in der Antarktis (hier). Bei dieser Studie war Matthew England Ko-Autor. England hat andere Studien zum Thema Wind durchgeführt. Seine früheren Studien beschrieben, wie Wind die fehlende Wärme auf den Grund der Ozeane getrieben hat, was den Stillstand erklärt. Die Absurdität dieser Aussage wird hier zur Spache gebracht.

Weitere Links in diesem Zusammenhang:

Video: Morano widerlegt bei Fox News eine Studie, in der ein ,unaufhaltsames‘ Abschmelzen der Antarktis und damit ein Anstieg des Meeresspiegels behauptet wird: „Wenn gegenwärtig die Realität bei diesem Alarm nicht mitspielt, machen sie einen Haufen ängstigender Prophezeiungen“ (hier).

Wir kontrollieren den Anstieg des Meeresspiegels? Video: Lokalnachrichten in Washington DC berichten Schund zur Antarktis und dem Meeresspiegelanstieg: ,wir haben es in der Hand, wie schnell der Meeresspiegel steigt‘ (hier). – WUSA, Ch. 9, DC: ,Wir haben es in der Hand, wie schnell die See steigt, und das gibt uns Zeit, uns vorzubereiten und unsere Gemeinden auf smarte Weise zu schützen‘ – Brenda Ekwurzel, Union of Concerned [= besorgt] Scientists. – Analyse von Junk Science: wir haben einen Präsidenten, der sagte, dass er das Meer daran hindern könne zu steigen, und jetzt haben wir auch einen Concerned Scientist der sagt, dass wir es in der Hand haben (hier).

Der Atmosphären-Physiker Dr. S. Fred Singer zu den Behauptungen über die schmelzende Antarktis: Alter Hut, neue Panik (hier).

Real Science: ,Auf der Spur des Antarktis-Betrugs‘ (hier)

Rückblende ins Jahr 1929: ,Primitive Völker‘ hatten und haben immer Mythen zu Sintfluten (hier): Die Story mit der schmelzenden Antarktis, die uns alle ertränken wird, war ein nützliches Werkzeug, um Forschungsgelder locker zu machen – solange die Antarktis den Forschern bekannt ist‘.

NYT im Jahre 2014: Irgendwann in 200 bis 900 Jahren von heute an könnte die Eisverlust-Rate dieses Gletschers ein Volumen erreichen, das ausreicht, um den Meeresspiegel um 100 Millimeter pro Jahrhundert steigen zu lassen (hier). An diesem Punkt, heißt es in der Studie, könnte der Eisverlust Fahrt aufnehmen mit großen Verlusten innerhalb von Jahrzehnten. Aber in einem Telefongespräch sagte Joughin, dass die Modellierung nicht zuverlässig genug sei, um zu sagen wie viel und wie schnell. „Kollaps ist ein guter wissenschaftlicher Ausdruck“, sagte er mir, „aber vielleicht ist es ein schlechter Ausdruck im Zusammenhang mit Nachrichten“. Zu dieser Arbeit gibt es noch mehr in einer gut geschriebenen Nachrichten-Verlautbarung von Joughins Universität (hier).Wir sprechen über einen Rückgang, der unaufhaltsam ist, weil wir glauben genug Beweise zu haben zu sagen, dass diese Gletscher sich weitere Jahrzehnte und sogar Jahrhunderte lang zurückziehen … Wir sprechen über eine allmähliche Verschlechterung des Eises in diesem Teil der Antarktis. Verstörenderweise kann man bis zum Jahr 2009 zurückverfolgen, wie ein ähnliches Aufblitzen des „Kollaps’“ um die Veröffentlichung zweier Studien in Nature auftaucht, sogar dann noch, als die Wissenschaft ebenfalls über Meeresspiegeländerungen im Maßstab von Jahrtausenden sprach. Man klicke noch einmal auf die Studie ,Schmelze in der Westantarktis ist eine langsame Sache‘ (hier) für ein wenig déjà vu.

Noch weitere Links zur Übersicht:

Flashback 2009: Study finds West Antarctic Ice Sheet May Not Be Losing Ice As Fast As Once Thought

New study: Antarctic ice shelves showing no sign of global warming – June 2009

Scientists: ‘Why the Greenland and Antarctic Ice Sheets are Not Collapsing’

Shock: Real Climate touted Steig et al ‘Antarctica is warming’ study ‘falsified’ — ‘the paper’s premise has been falsified’ ]

Study finds: West Antarctic Ice Sheet May Not Be Losing Ice As Fast As Once Thought – October 19, 2009 – University of Texas at Austin Press Release

Flashback: Gore’s ‘melting’ Antarctic claims refuted by reality — Climate Depot counters Gore’s claims

Link zum Original dieses Beitrags: http://www.climatedepot.com/2015/02/28/aps-seth-borenstein-at-it-again-hyping-antarctic-melt-fears-climate-depots-point-by-point-rebuttal/

Übersetzt von Chris Frey EIKE




Wärmer oder kälter? AWI-Studie zur Klimageschichte Sibiriens der letzten 7000 Jahre gibt Rätsel auf

Die Ergebnisse der Untersuchungen gab das AWI am 26. Januar 2015 per Pressemitteilung bekannt:

Winter in sibirischen Permafrostregionen werden seit Jahrtausenden wärmer
Wissenschaftlern des Alfred-Wegener-Institutes, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) ist es erstmals gelungen, mit einer geochemischen Methode aus der Gletscherforschung Klimadaten aus Jahrtausende altem Permafrost-Grundeis zu entschlüsseln und die Wintertemperatur-Entwicklung im russischen Lena-Delta zu rekonstruieren. Ihr Fazit: In den zurückliegenden 7000 Jahren ist die Wintertemperatur in den sibirischen Permafrostregionen langfristig gestiegen. Als Grund für diese Erwärmung nennen die Forscher eine sich ändernde Stellung der Erde zur Sonne, verstärkt durch den steigenden Ausstoß von Treibhausgasen seit Beginn der Industrialisierung. Die Studie erscheint als Titelgeschichte der Februar-Ausgabe des Fachmagazins Nature Geoscience und heute vorab schon einmal online.

Was bedeuten diese Resultate? Zugegeben handelt es sich um eine für Laien komplexe Thematik. Es geht um schwierige geochemische Methoden, schwer fassbare lange Zeiträume, eine behauptete Verknüpfung mit der anthropogenen Klimaerwärmung sowie Milankovic-Zyklik. All das spielt im fernen Sibirien, das vermutlich kaum einer der Leser genauer kennt. Hängenbleiben wird beim ersten Überfliegen der Pressemitteilung „Klimaerwärmung seit tausenden von Jahren, Industrialisierung, Treibhausgase“. Seht her, da ist ein weiterer Beweis für unser frevelhaftes Tun und die unaufhaltbare Klimakatastrophe in Zeitlupe. Aber nicht so schnell. Lassen Sie uns die Komponenten der Studie einzeln diskutieren und auf ihre Gültigkeit und Bedeutung überprüfen.

Langfristige Erwärmung der Winter im Verlauf der letzten 7000 Jahre

Ein übraus interessantes Resultat: Eine langfristige, natürliche Erwärmung der Winter im Untersuchungsgebiet in den letzten Jahrtausenden. Exakte Temperaturwerte können die AWI-Forscher nicht angeben, wie das AWI in seiner Pressemitteilung erläutert:

Um wie viel Grad Celsius genau die arktischen Winter wärmer geworden sind, können die Wissenschaftler nicht in absoluten Zahlen sagen: „Das Ergebnis der Sauerstoff-Isotopenanalyse verrät uns zunächst nur, ob und wie sich das Isotopenverhältnis verändert hat. Steigt es, sprechen wir von einer relativen Erwärmung. Wie groß diese allerdings genau ausgefallen ist, können wir noch nicht ohne Weiteres sagen“, erklärt Thomas Opel.

Aber es wäre sicher ganz nett gewesen, wenn eine ungefähre Temperaturabschätzung erwähnt worden wäre. Die heutigen Wintertemperaturen betragen im Lenadelta minus 30 Grad bis minus 40 Grad, wie die Encyclopaedia Brittanica weiß:

The climatic features of the Lena River basin are determined by its location, with its upper course well inside the continent and its lower course in the Arctic. In winter the powerful Siberian anticyclone (high-pressure system) forms and dominates all of eastern Siberia. Because of the anticyclone, the winter is notable for its clear skies and lack of wind. Temperatures fall as low as −60 to −70 °C, with average air temperature in January ranging from −30 to −40 °C. In July averages range between 10 and 20 °C.

Nun war es laut AWI vor ein paar tausend Jahren also noch etwas kälter, sagen wir einfach mal minus 45 Grad, nur um einen Wert zu haben. Es geht also in der ganzen Geschichte um eine Winter-„Erwärmung“ die sich von „sehr, sehr super saukalt“ hin zu „immer noch sehr super saukalt“ entwickelt hat. Bei Nennung dieser Temperaturen hätte vielleicht dem einen oder anderen Leser die Idee kommen können, dass die Winter-Erwärmung der Gegend zweitrangig ist und möglicherweise sogar ganz gut getan hätte.

Nun könnte man sagen, ja, im Winter ist die Entwicklung wohl eher weniger interessant. Wie sieht es denn im Sommer aus, wo laut Encyclopaedia Brittanica heute mit bis zu 20°C zu rechnen ist? Müssen wir hier Angst vor einer „arktischen Turboerwärmung“ haben? Die AWI-Pressemitteilung erklärt etwas verklausuliert, dass Rekonstruktionen der Sommertemperaturen eine gegenteilige Entwicklung anzeigen: In den letzten Jahrtausenden ist es in Sibirien immer kälter geworden:

Die neuen Daten sind die ersten eindeutig datierten Wintertemperaturdaten aus der sibirischen Permafrostregion und zeigen einen klaren Trend: „In den zurückliegenden 7000 Jahren sind die Winter im Lena-Delta kontinuierlich wärmer geworden – eine Entwicklung, die wir so bisher aus kaum einem anderen arktischen Klimaarchiv kennen“, sagt Hanno Meyer. Denn: „Bisher wurden vor allem fossile Pollen, Kieselalgen oder Baumringe aus der Arktis genutzt, um das Klima der Vergangenheit zu rekonstruieren. Sie aber speichern vor allem Temperaturinformationen aus dem Sommer, wenn die Pflanzen wachsen und blühen. Die Eiskeile stellen eines der wenigen Archive dar, in denen reine Winterdaten gespeichert werden“, erklärt der Permafrost-Experte.  Mit den neuen Daten schließen die Wissenschaftler zudem eine wichtige Lücke: „Die meisten Klimamodelle zeigen für die zurückliegenden 7000 Jahre in der Arktis eine langfristige Abkühlung im Sommer sowie eine langfristige Erwärmung im Winter an. Für letztere aber gab es bisher keine Temperaturdaten, eben weil die meisten Klimaarchive hauptsächlich Sommerinformationen speichern. Jetzt können wir zum ersten Mal zeigen, dass Eiskeile ähnliche Winterinformationen enthalten wie sie von den Klimamodellen simuliert werden“, so AWI-Modellierer und Ko-Autor Dr. Thomas Laepple.

Noch klarer wird es in der offiziellen Kurzfassung der Arbeit (Auszug):

Relative to the past 2,000 years12, the Arctic region has warmed significantly over the past few decades. However, the evolution of Arctic temperatures during the rest of the Holocene is less clear. Proxy reconstructions, suggest a long-term cooling trend throughout the mid- to late Holocene345, whereas climate model simulations show only minor changes or even warming67,8

Bei den genannten Literaturzitate 3 bis 5 handelt es sich um:

3. Marcott, S. A., Shakun, J. D., Clark, P. U. & Mix, A. C. A reconstruction of regional and global temperature for the past 11,300 years. Science 339, 1198_1201 (2013).

4. Vinther, B. M. et al. Holocene thinning of the Greenland ice sheet. Nature 461, 385_388 (2009).

5. Wanner, H. et al. Mid- to Late Holocene climate change: An overview. Quat. Sci. Rev. 27, 1791_1828 (2008).

Gerne hätte an dieser Stelle auch einer Arbeit einer internationalen Forschergruppe um Benoit Lecavalier von der University of Ottawa aus dem März 2013 in den Quaternary Science Reviews erwähnt werden können. Die Forscher fanden, dass sich Grönland in den letzten 8000 Jahren um etwa 2,5°C abgekühlt hat (siehe „Ein Thema das die Medien meiden wie der Teufel das Weihwasser: Vor 5000 Jahren war es in Grönland zwei bis drei Grad wärmer als heute”).

Die Sommer wurden in den letzten 7000 Jahren kälter und die Winter wärmer. So kann man den aktuellen Erkenntnisstand zusammenfassen. Ursache für diesen Langzeittrend sind die Milankovic-Zyklen, die auf Veränderungen der Erdbahnparameter zurückzuführen sind. Dies sind langfristige Zyklen im Bereich von 20.000 bis 100.000 Jahre, die für die aktuelle Klimadiskussion keine große Rolle spielen. Sie sind auch die Ursache für das sogenannte mittelholozäne Klimaoptimum, als die globalen Temperaturen vor 7000 Jahren um zwei Grad höher lagen als heute.

Während die Hauptstory, nämlich die Erwärmung der sibirischen Winter in den letzten Jahrtausenden, durchaus plausibel erscheint, muss man sich doch wundern, weshalb die zeitgleiche Sommer-Abkühlung nicht besser in der AWI-Pressemitteilung herausgearbeitet wurde. Letztendlich geht es neben den Jahreszeiten doch auch darum, wie sich der Jahresmittelwert entwickelt hat. Dazu kein Kommentar vom AWI.

Zu klären wäre auch, weshalb die AWI-Presseabteilung nicht schon einige Monate zuvor aktiv geworden ist, als ein ebenfalls von Hanno Meyer angeführtes Forscherteam im September 2014 im Fachblatt Global and Planetary Change eine Studie zu Kamschatka publizierte. Die Forscher rekonstruierten die Temperaturen in der Region für die vergangenen 5000 Jahren und fanden interessanterweise einen langfristigen Abkühlungstrend. Über lange Zeiten war Kamschatka während der letzten Jahrtausende offenbar wärmer als heute, eine überraschende Erkenntnis (eine genaue Besprechung der Arbeit gibt es auf The Hockey Schtick). Das wäre eine schöne Schlagzeile geworden:

Kamschatka hat sich in den letzten 5000 Jahren abgekühlt.

Aber offenbar war dem AWI diese Schlagzeile zu heiß. Beim weiteren Stöbern wird man das böse Gefühl nicht los, dass man in der AWI-Pressestelle bewusst Studien ausspart, die nicht so recht in die Klimakatastrophengeschichte zu passen scheinen. Bereits im Mai 2013 waren erste Ergebnisse zum Kamschatka-Projekt in den Quaternary Science Reviews publiziert worden, zu denen die Öffentlichkeitsabteilung des AWI keinen Mucks machte (siehe unseren Blogbeitrag „Überraschende Forschungsergebnisse des AWI aus dem subarktischen Kamtschatka: In den letzten 4500 Jahren war es bis zu 4 Grad wärmer als heute”). Die unheimliche Serie setzte sich im September 2013 fort, als im Fachmagazin Palaeogeography, Palaeoclimatology, Palaeoecology  eine AWI-Studie eines internationalen Forscherteams um Juliane Klemm erschien. Auch diese Forschergruppe hatte Unerhörtes herausgefunden, etwas was man auf keinen Fall mit der Presse teilen wollte (siehe unseren Blogbeitrag: „Neue AWI-Studie: Heutige Sommertemperaturen in der sibirischen Arktis unterscheiden sich kaum von denen der letzten Jahrtausende”).

Was hat nun die Klimakatastrophe mit all dem zu tun?

Zurück zum aktuellen Paper über das Lena-Delta. Die Erwärmung der Wintertemperaturen in den letzten 7000 Jahre mag interessant sein, ist aber lediglich die Hinleitung zur eigentlichen „Pointe“ der Studie, nämlich, dass der menschengemachte Klimawandel der letzten 150 Jahre die Wintertemperaturen im Studiengebiet nach oben gejagt hätte. In der AWI-Pressemitteilung liest sich das so:

Deutliche Hinweise fanden die Wissenschaftler bei der Suche nach den Ursachen der Erwärmung. Hanno Meyer: „Wir sehen in unserer Kurve eine klare Zweiteilung. Bis zum Beginn der Industrialisierung um das Jahr 1850 können wir die Entwicklung auf eine sich ändernde Position der Erde zur Sonne zurückführen. Das heißt, damals haben die Dauer und Intensität der Sonneneinstrahlung von Winter zu Winter zugenommen und auf diese Weise zum Temperaturanstieg geführt. Mit dem Beginn der Industrialisierung und dem zunehmenden Ausstoß von Treibhausgasen wie Kohlendioxid aber kam dann noch der vom Menschen verursachte Treibhauseffekt hinzu. Unsere Datenkurve zeigt ab diesem Zeitpunkt einen deutlichen Anstieg, der sich wesentlich von der vorgegangenen langfristigen Erwärmung unterscheidet.“

Leider versäumt es das AWI, der Pressemitteilung die Temperaturkurve bzw. die Isotopen-Proxy-Kurve beizufügen. Wie muss man sich diesen „deutlichen Anstieg“ im Detail vorstellen? Stattdessen werden der Presse stimmungsvolle Expeditionsfotos angeboten. Das schönste hiervon wollen wir auch hier im Blog nicht vorenthalten (Abbildung 1).

Abbildung 1rechts oben:. Die Wissenschaftler Alexander Dereviagin, Dr. Thomas Opel und Dr. Hanno Meyer (v.l.) machen eine kurze Mittagspause. Foto: Volkmar Kochan/rbb. Quelle: AWI.

Wirklich ein schönes Foto. Aber trotzdem wäre die Kurve doch um einiges informativer gewesen. Wir schauen daher in die Originalpublikation, wo die gesuchte Kurve abgedruckt ist (Abbildung 2).

Abbildung 2: Winter-Temperaturentwicklung des sibirischen Lena-Deltas während der letzten 8000 Jahre auf Basis von Sauerstoffisotopenmesssungen an Eiskeilen. Abbildung aus Meyer et al. 2015.

Der langfristige Winter-Erwärmungstrend ist gut erkennbar. Ganz am Ende der Kurve, in der industriellen Phase ab 1850, springen die letzten drei Datenpunkte steil nach oben. Offensichtlich handelt es sich um einen Nachfahren der berühmten Hockeystick-Kurve. Nie waren die Sauerstoff-Isotopenwerte höher als in den letzten anderthalb Jahrhunderten.

Es drängen sich sogleich einige wichtige Fragen auf:

–Spiegelt die Isotopenkurve tatsächlich die Temperaturen wieder? Isotopenverschiebungen können vielerlei Gründe haben und müssen nicht unbedingt Temperaturen abbilden. In vielen Fällen sind Niederschlagsänderungen Hauptkontrollfaktor für Veränderungen der Sauerstoffisotopen.

–Gibt es andere Winter-Temperaturrekonstruktionen aus der Region, die den behaupteten Verlauf mit anderen Methodiken betätigen könnten?

– Wie sehen die real gemessenen Winter-Temperaturen sowie Jahresmittelwerte des Lena-Delta-Gebiets für die letzten 150 Jahre aus?

Schauen wir uns hierzu die GISS-Temperaturkarte des New Scientist an, in welcher der Temperaturverlauf in der Lenadelta-Region für die vergangenen 130 Jahre angegeben ist (Abbildung 3). Fazit: Ja es ist wärmer geworden, so wie in fast allen Teilen der Erde nach Beendigung der Kleinen Eiszeit. Dabei fiel die Wiedererwärmung in den arktischen Gebieten stärker aus als zum Beispiel in den Tropen. Soweit ist das Resultat also nachvollziehbar.

Abbildung 3: GISS-Temperaturverlauf der Lenadelta-Region für die vergangenen 130 Jahre. Quelle: New Scientist.

Nun wissen wir aber leider auch, dass die GISS-Datenbank lange vom bekennenden Klimaaktivisten James Hansen geführt wurde und die Temperaturrohdaten arg nachbearbeitet wurden. Daher schauen wir lieber auf einen Rohdatensatz des Ortes Tiksi, der seit 1936 Messdaten liefert. Die Daten stammen aus dem BEST-Projekt der University of California in Berkeley, sollten also relativ vertrauenswürdig sein (Abbildung 4). Der Ort Tiksi ist auf der Landkarte in Abbildung 3 eingezeichnet.

Die Überraschung ist groß: Der im GISS-Datensatz dargestellte starke Erwärmungstrend ist in den Originaldaten kaum zu erkennen. Anstatt einer GISS-Erwärmung von 2 Grad pro Jahrhundert verzeichnet BEST lediglich eine Erwärmungsrate von etwa 0,5 Grad nach Qualitätsüberprüfung.

Abbildung 4: Temperaturdaten der Wetterstation Tiksi im Lena-Delta laut BEST-Projekt.

Die wirkliche Frage muss jedoch sein, auf welchem Niveau sich die Temperaturen während der Mittelalterlichen Wärmeperiode (MWP) im Lena-Delta bewegten. In einer zusammenfassenden Darstellung zur MWP für den asiatischen Teil Russlands auf co2science.org stoßen wir bei unseren Recherchen auf eine Veröffentlichung von Matul et al., die 2007 im Fachblatt Oceanology erschien. CO2 Science fasst die Ergebnisse der Arbeit wie folgt zusammen:

What was done
The authors studied the distributions of different species of siliceous microflora (diatoms), calcareous microfauna (foraminifers) and spore-pollen assemblages found in sediment cores retrieved from 21 sites on the inner shelf of the southern and eastern Laptev Sea, starting from the Lena River delta and moving seaward between about 130 and 134°E and stretching from approximately 71 to 78°N, which cores were acquired by a Russian-French Expedition during the cruise of R/V Yakov Smirnitsky in 1991.

What was learned
In the words of the five Russian researchers, this endeavor revealed “(1) the warming at the beginning of the Common Era (terminal epoch of the Roman Empire) during ~1600-1900 years BP; (2) the multiple, although low-amplitude, coolingepisodes at the beginning of the Middle Ages, 1100-1600 years BP; (3) the Medieval Warm Period, ~600-1100 years BP; (4) the Little Ice Age, ~100-600 years BP, with the cooling maximum, ~150-450 years BP; and (5) the ‘industrial’ warming during the last 100 years.”

What it means
“Judging from the increased diversity and abundance of the benthic foraminifers, the appearance of moderately thermophilic diatom species, and the presence of forest tundra (instead of tundra) pollen,” Matul et al. conclude that “the Medieval warming exceeded the recent ‘industrial’ one,” and that “the warming in the Laptev Sea during the period of ~5100-6200 years BP corresponding to the Holocene climatic optimum could be even more significant as compared with the Medieval Warm Period.” Once again, therefore, we have another example of a paleoclimate study that challenges the contention of Hansen et al. (2006) that “probably the planet as a whole” is “approximately as warm now as at the Holocene maximum.”

Die Autoren um Matul rekonstruierten also mithilfe von Mikroorganismen die holozäne Klimageschichte des Lena-Deltas und der vorgelagerten Laptevsee. Matul und Kollege fanden dabei für die vergangenen 2000 Jahre die bekannte Millenniumszyklik bestehend aus Römischer Wärmeperiode, Kälteperiode der Völkerwanderungszeit, Mittelalterlicher Wärmeperiode, Kleiner Eiszeit und Moderner Wärmeperiode. Interessanterweise war die Mittelalterliche Wärmeperiode offenbar deutlich wärmer als heute. Zudem war das mittelholozäne Klimaoptimum im Untersuchungsgebiet vor 6000 Jahren sogar noch wärmer.

Nun wundert es doch sehr, dass die AWI-Gruppe diese wichtige Arbeit in ihrer neuen Lena-Delta Arbeit mit keiner Silbe erwähnt. Selbst wenn Matul et al. wohl überwiegend Sommertemperaturen rekonstruiert haben, hätte die Arbeit doch auf jeden Fall Berücksichtigung finden müssen. Sind die Sommertemperaturen nicht vielleicht viel wichtiger als die sowieso unterkühlten Winterwerte?

Bill Illis konnte in einer Diskussion zum AWI-Paper auf WUWT zeigen, dass die AWI-Autoren zwei möglicherweise wichtige Datenpunkte aus der Betrachtung ausschlossen (Abbildung 5). Einer davon zeigte während der Römischen Wärmeperiode eine bedeutende Winter-Erwärmung an, die sich etwa auf heutigem Temperaturniveau bewegte. Der Wert wurde unter Hinweis auf „oberflächennahe Kontaminierung“ aus dem Rennen geschmissen und in der Auswertung ignoriert.

Abbildung 5: Plot der Temperatur-Proxy-Wert aus Meyer et al. 2015, mit zwei zusätzlichen Werten, die die Autoren wegen „möglicher Kontaminierung“ verworfen hatten. Plot: Bill Illis/WUWT.

Unterm Strich

Was bleibt unterm Strich? Eine paläoklimatologische Studie findet eine unerwartete Entwicklung, die sogleich als Beleg für die drohende Klimakatastrophe missbraucht wird. Wichtige anderslautende Befunde aus der gleichen Region sowie andere AWI-Arbeiten werden totgeschwiegen. Der auffällige Hockeyschläger-Charakter der approximierten Temperaturentwicklung lässt die Alarmglocken schrillen: Ist die verwendete Methodik zuverlässig? Weshalb wurden möglicherweise wichtige Datenpunkte bei der Bearbeitung ignoriert? Wie wichtig ist die ultrakalte Wintertemperaturentwicklung wirklich im Vergleich zum Sommerverlauf? Weshalb können andere Messreihen und Temperaturrekonstruktionen den rasanten Hockeyschläger-Anstieg nicht reproduzieren? Immerhin geben sich die AWI-Forscher ergebnisoffen, wie sie in der Pressemitteilung betonen:

In einem nächsten Schritt wollen die Forscher nun überprüfen, ob dieselben Anzeichen für eine langfristige Winter-Erwärmung der Arktis auch in anderen Permafrostregionen der Welt zu finden sind. Thomas Opel: „Wir haben Daten aus einem Gebiet 500 Kilometer östlich des Lena-Deltas, die unsere Ergebnisse stützen. Wir wissen allerdings nicht, wie es zum Beispiel in der kanadischen Arktis aussieht. Wir vermuten, dass die Entwicklung dort ähnlich ist, belegen aber können wir diese Annahme noch nicht.“

Siehe auch den Blog-Beitrag „Arktische Turboerwärmung auf dem Prüfstand: Ein Konzept auf wackeligen Beinen

Zuerst erschienen bei "Die kalte Sonne" hier