1

Lichtblick: European Association of Geoscientists & Engineers (EAGE) veröffentlicht Kritik am Klimaalarmismus

Siehe unsere Zusammenfassung “Pioniere des Klimarealismus: Die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR)“.

Zur gleichen Zeit glaubte auch ein Heidelberger Klimawissenschaftler an die Überzeugungskraft von harten Fakten und wagte es doch tatsächlich, die starke natürliche Variabilität der vorindustriellen Zeit und die erkannten Muster in die Diskussion einzubringen. Wiederum wurden die Kampfhunde losgelassen und eine mediale Vernichtungskampagne initiiert. Der Fall Mangini wurde schnell erledigt (siehe “Prof. Augusto Mangini – Ein Pionier des Klimarealismus“), der Querulant aus dem Weg geschafft.

Ähnlich erging es dem Bochumer Geochemiker Jan Veizer. Wikipedia fasst Veizers Beitrag wie folgt zusammen:

Zusammen mit anderen Wissenschaftlern verglich Veizer die rekonstruierten historischen Meereswassertemperaturen der letzten 545 Millionen Jahre mit der Variabilität der kosmischen Strahlung, die die Erde erreicht, sowie den historischen CO2-Konzentrationen in der Erdatmosphäre. Nach einem vorsichtig formulierten Artikel in Nature im Jahr 2000,[4] den er zusammen mit Yves Godderis und Louis M. François verfasste, können die Resultate in Übereinstimmung gebracht werden, wenn die CO2-Konzentration in der Erdatmosphäre nicht die Haupttreiber des Klimawandels in geologisch relevanten Zeiträumen sind, zumindest für ein Drittel der phanerozoischen Periode, es sei denn, die rekonstruierten CO2-Konzentrationen seien nicht zuverlässig. 2003 publizierte Veizer zusammen mit dem israelischen Astrophysiker Nir J. Shaviv einen Artikel in der Zeitschrift Geological Society of America.[5] Darin bekräftigt Veizer einen reduzierten (gekappten) Einfluss von CO2 auf den Klimawandel und schreibt der kosmischen Strahlung eine größere Bedeutung zu. Obwohl der Mechanismus noch nicht voll verstanden sei, zeigten die empirischen Daten eine geeignete Übereinstimmung. Der Artikel wurde, unter anderem von Vertretern des Potsdamer Instituts für Klimafolgenforschung scharf kritisiert.[6] Veizer and Shaviv betonten die Anwendbarkeit ihrer Forschung auf das heutige Klima wie auch ihren Respekt für Forscher, die sich auf der Linie des IPCC befinden. Veizer und Shaviv erhalten als Wert für die Klimasensitivität einen Wert von 1,5 °C; das IPCC hält dagegen Werte zwischen 2 und 4,5° für wahrscheinlich, mit einem besten Schätzwert von 3°.

Dies ist übrigens genau die CO2-Klimasensitivität, die auch wir 2012 in unserem Buch “Die kalte Sonne” annahmen, wofür auch wir vom Klimaestablishment seinerzeit heftig abgestraft wurden. Zwei Jahre später wurde Sebastian Lüning von einem Vorstandsmitglied einer großen deutschen geowissenschaftlichen Organisation aufgefordert, seine Thesen in einem Artikel für die Mitgliederzeitschrift vorzustellen. Lüning erstellte das eingeladene Manuskript – und wartete. Und wartete und wartete. Die vormals so emailfreudige Kontaktperson aus der Verbandsleitung schaltete plötzlich auf stumm. Nachfragen zwecklos. Schließlich veröffentlichten wir den Artikel einfach hier im Blog (“Klimawandel in Deutschland: Eine geowissenschaftliche Betrachtung“). Zu gerne hätten wir gewusst, was hier hinter den Kulissen passiert ist. Wer hat sich hier quer gestellt? Gab es politischen Druck, vielleicht Drohungen hinsichtlich der weiteren Karriereentwicklung der Beteiligten? Man weiß es nicht.

Im November 2015 gab es jedoch Grund zur kurzzeitigen Freude. Die 19.000 Mitglieder starke europäische geowissenschaftliche Vereinigung EAGE (European Association of Geoscientists & Engineers) veröffentlichte in ihrer Mitgliederzeitschrift First Break einen Beitrag ihres Mitglieds Bob Heath: Hier der erste Absatz (der Rest des Beitrags leider nur für Mitglieder bzw. hinter einer 30 Euro schweren Paywall):

,Unsettled‘ Wissenschaft

Die wissenschaftliche Methode und Kohlenwasserstoff-Manie.

Die wissenschaftliche Methode ist vielleicht die größte Errungenschaft der Menschheit. Sie legte den Grundstein für die industrielle Revolution, die für so Manchen den Lebensstandard auf zuvor unvorstellbare Niveaus verbessert hat. Es führte zur Ausbeutung fossiler Treibstoffe, die weitaus mehr Energie für eine Einzelperson zur Verfügung stellten als jemals zuvor, was sich sehr förderlich auf den Wohlstand auswirkte. Es gibt direkte Relationen zwischen Pro-Kopf-CO2-Output und Indizes des Lebensstandards, als da wären Kindersterblichkeit/Lebenserwartung sowie verfügbare Mittel für den Umweltschutz. Fast jeder soziale Fortschritt basierte auf Strom, der mittels fossiler Treibstoffe erzeugt worden war, die aufzufinden unsere Aufgabe ist, und trotz der kostspieligen Bemühungen hin zu Erneuerbaren stammen etwa 87% der Weltenergie aus Kohlenwasserstoffen. Seit 150 Jahren geistern Behauptungen durch den Raum, dass fossile Treibstoffe ihren Höhepunkt überschritten hätten. William Jevons prophezeite in den sechziger Jahren des 19. Jahrhunderts, dass UK sehr schnell die Kohle ausgehen würde, was ihn folgern ließ, dass die seinerzeit glücklichen Lebensumstände des Landes nur von kurzer Dauer sein würden. Aber zum großen Teil dank der Geowissenschaftler gibt es immer noch Vorräte im Überfluss. Trotz der Dämonisierung seitens der Umweltaktivisten wird die Zivilisation in absehbarer Zukunft zum allergrößten Teil von Kohlenwasserstoffen abhängig bleiben, was uns weiterhin von den Malthusianischen Grenzen fernhält. Man stelle sich eine Welt vor, in der Jevons recht gehabt hätte und uns die Kohlenwasserstoffe während der Regierungszeit von Queen Victoria ausgegangen wären. Würde sich der Lebensstandard dann auch immer weiter verbessert haben, und wie hätte in diesem Falle die Umwelt gelitten?

In dem erfrischenden achtseitigen Artikel legt Heath die bekannten klimaskeptischen Argumente vor. Interessant auf Seite 101 der Hinweis auf Mauscheleien im 2. IPCC-Bericht (SAR):

Im Zweiten Zustandsbericht wurden viele zentrale wissenschaftliche Abschnitte gelöscht, z. B. die Aussage, dass „bis heute keine Studie (die beobachtete Klimaänderung) teilweise oder ganz anthropogenen Gründen positiv zugeordnet hat“. Das IPCC hat diese Löschungen nicht bestritten, sondern gesagt, dass es unter Druck der Regierungen stand. Am Schluss hieß es: „die Beweise alles in allem zeigen einen erkennbaren menschlichen Einfluss auf das globale Klima“. Prof. Frederick Seiz schrieb: Während meiner über 60 Jahre als Mitglied der amerikanischen wissenschaftlichen Gemeinschaft einschließlich meiner Tätigkeit als Präsident sowohl der National Academy of Sciences als auch der American Physical Society habe ich niemals eine schlimmere Kaperung des Begutachtungs-Prozesses erlebt als das, was zu diesem IPCC-Bericht führte“.

Heath empfiehlt die Lektüre der IPCC-Broschüre von 1997

“AN INTRODUCTION TO SIMPLE CLIMATE MODELS USED IN THE IPCC SECONDASSESSMENT REPORT”

[Übersetzung des Titels: Eine Einführung in im Zweiten Zustandsbericht verwendeten einfache Klimamodelle]

Er schreibt weiter:

Aber im AR3 wurde eingeräumt, dass „wir es mit einem gekoppelten nichtlinearen chaotischen System zu tun haben. Daher sind langfristige Prophezeiungen der Zustände des Klimas nicht möglich“. Dabei wurde die aberwitzige Hypothese aufgestellt, dass die natürliche Variation vollständig geklärt ist.

Nachzulesen im Original des 3. IPCC-Berichts in Kapitel 14.2.2.2. Natürlich hatte sich die EAGE vor Publikation des Beitrags abgesichert und dem Artikel einen Disclaimer vorangestellt:

EAGE möchte klarstellen, dass in dieser Studie geäußerte Meinungen jene des Autors sind und nicht die Haltung der Association zum Klimawandel reflektieren“.

Es ist vermutlich nicht falsch anzunehmen, dass ein großer Teil der EAGE-Mitglieder sich trotzdem mit dem Artikel von Heath identifizieren konnte. Man kann weiter annehmen, dass es eine große Anzahl von Leserbriefen zum Thema gegeben haben muss, die jedoch bis auf zwei Zuschriften in First Break 1/2016 nicht abgedruckt wurden. Hierzu gehört auch ein Leserbrief des Hamburger Geophysikers Uli Weber, der folgendes an die EAGE schrieb:

Sehr geehrter Herausgeber,

vielen Dank an Bob Heath und das für die Veröffentlichung verantwortliche Team bei der EAGE für den brillanten Artikel über Klimawandel in First Break 11-2015. Als ein Erkundungs-Geophysiker in der E&P-Industrie habe ich in den achtziger Jahren an die wissenschaftliche Vorgehensweise im Bereich Klimawissenschaft geglaubt und den Medienhype für das übliche Verhalten beim Beschreiben extremer Ergebnisse gehalten. In den neunziger Jahren habe ich das Fehlen fundierten paläoklimatischen Wissens in der Medien-Repräsentation bedauert, als man der Öffentlichkeit die befürchtete Klimakatastrophe vortrug. Und nach dem Jahr 2000 musste ich erkennen, dass in den Klimawissenschaften erwiesene paläoklimatische Fakten geleugnet wurden und das „Ende der Diskussion“ für ihre „settled Wissenschaft“ zum Klimawandel proklamiert wurde. Dies brachte mich dazu, nach meinem Rückzug ein Buch zu schreiben über die Verbindung zwischen Geologie und der Abfolge des Klimas, was, ehrlich gesagt, niemand lesen wollte.

Während meiner gesamten Profi-Tätigkeit in der Industrie war das Märchen von der zukünftigen Klimakatastrophe eine permanente Quelle von Gelächter unter den Geowissenschaftlern. Aber dieses Gelächter wurde nicht der geängstigten Öffentlichkeit vermittelt. Im Gegenteil, im Zuge der wachsenden Panik in der Öffentlichkeit über die zukünftige Klimaentwicklung fühlten sich die Geowissenschaftler mit ihren wissenschaftlichen Argumenten zunehmend isoliert, sogar in ihrem privaten Umfeld. Heute wurden politische Maßnahmen bereits umgesetzt, Milliarden Dollar sind ausgegeben worden für abartige Computermodelle, und Organisationen haben sich manifestiert, um die angepeilte Dekarbonisierung der Welt durchzusetzen. Angesichts der zukünftigen Zerschlagung unserer Industrie durch Klimaalarmisten sind wir im Zweifel, ob wir unser wissenschaftliches Wissen über das Paläoklima angemessen einer verängstigten Bevölkerung erklärt haben.

Freundliche Grüße

Ulrich O. Weber

Link: http://www.kaltesonne.de/lichtblick-european-association-of-geoscientists-engineers-eage-veroffentlicht-kritik-am-klimaalarmismus/

Anmerkung: Dieser Beitrag ist zuerst auf dem Blog „Die Kalte Sonne“ hier erschienen. Übersetzung der englischen Passagen von Chris Frey EIKE




Sonne macht Klima: Neues aus Europa

Die Wissenschaftler fanden charakteristische Zyklizitäten, darunter die bekannten solaren Eddy- (1000 Jahre), Suess-de Vries- (200 Jahre) und Gleissberg- (90 Jahre) Zyklen:

Auswirkungen des solaren Antriebs und der Nordatlantischen Oszillation auf das Klima im kontinentalen Skandinavien während des Holozäns

Sedimentablagerungen aus den Nautajärvi and Korttajärvi-Seen in Finnland, die die letzten 10.000 Jahre abdecken, zeigen Beweise für Klima- und Umweltoszillationen im Zeitbereich von vielen Jahrzehnten bis zu Jahrtausenden. Wir haben zwei unabhängige Verfahren angewendet, um periodische Erscheinungen aus diesen Zeitreihen zu extrahieren und ihre statistische Zuverlässigkeit abzuschätzen. Analysen zeigten, dass jahreszeitliche Sedimentflüsse mit Umweltveränderungen korrespondieren sowie mit statistisch signifikanten Periodizitäten von 1500 bis 1800, 1000, 600 bis 800, fast 300, fast 200, 150 bis 170, fast 90 und 47 Jahren. Sie zeigen eine variable Kohärenz mit verschiedenen klimatreibenden Faktoren und anderen Paläo-Proxyaufzeichnungen auf der Nordhemisphäre. Die Ergebnisse zeigen, dass das Winterklima im Holozän im kontinentalen Skandinavien durch eine Kombination vieler Faktoren getrieben worden ist, zumindest durch die Sonnenaktivität und von atmosphärischen Zirkulationsmustern im Bereich Nordatlantik-Europa, wobei die Einflüsse mit der Zeit variieren.

Insbesondere der 1000-Jahres-Zyklus tritt hervor. In der Discussion schreiben die Autoren:

Die Identifizierung des 1000-Jahre-Zyklus‘ zeigt, dass der solare Antrieb möglicherweise klimatische und umweltliche Fluktuationen im kontinentalen Skandinavien während des Holozäns ausgelöst hat.

Auch im Bereich der Nordsee gibt es neue Hinweise auf eine solare Klimabeeinflussung. Im Juli 2014 veröffentlichte eine Forschergruppe der Universität Mainz bestehend aus Hilmar Holland, Bernd Schöne, Constanze Lipowsky und Jan Esper im Fachblatt The Holocene eine Klimastudie auf Basis von Anwachsstreifen in Muschelschalen. Dabei deckten die Wissenschaftler die vergangenen 1000 Jahre ab. Holland und Kollegen fanden, dass das Klima immer dann besonders stark schwankte, wenn die Sonnenaktivität auf Minimalwerte absank. Dies gilt insbesondere für die solaren Maunder- und Spörer-Minima während der Kleinen Eiszeit. Hier die Kurzfassung der Arbeit:

Dekadische Klimavariabilität der Nordsee während des letzten Jahrtausends, rekonstruiert mittels bestimmter Muschelschalen auf arktischen Inseln (von der Gemeinen Islandmuschel)

Ununterbrochene und jährlich aufgelöste Aufzeichnungen des Paläoklimas sind von grundlegender Bedeutung, um die gegenwärtigen globalen Änderungen in einen Zusammenhang zu stellen. Derartige Informationen sind besonders relevant für den europäischen Bereich, wo Wetter- und Klimaprojektion immer noch eine große Herausforderung darstellen, wenn sie nicht sogar unmöglich sind. Diese Studie präsentiert die ersten genau datierten, jährlich aufgelösten und multiregionalen Chronologien aus den Schalen der Gemeinen Islandmuschel aus der Nordsee. Sie überdecken den Zeitraum 1040 bis 2010 und enthalten wichtige Informationen über supra-regionale Klimabedingungen (Wassertemperatur, ozeanische Produktivität, Wind). Das Wachstum der Muscheln variierte periodisch in Zeiträumen von 3 bis 8, 12 bis 16, 28 bis 36, 50 bis 80 und 120 bis 140 Jahren. Möglicherweise zeigt dies eine enge Verbindung mit der Nordatlantischen Oszillation, ozean-internen Zyklen im Nordatlantik, kontrolliert durch Ozean-Atmosphäre-Kopplungen sowie der Atlantischen Multidekadischen Oszillation. Zunehmende Klima-Instabilität, das heißt eine stärkere quasi-dekadische Variabilität, scheint verbunden mit dem Vorherrschen atmosphärischer Antriebe und signifikant geringeren Einstrahlungs-Phasen (d. h. Spörer- und Maunder-Minima). Eine gesteigerte klimatische Variabilität über kürzere Zeiträume wurde ebenfalls beobachtet, und zwar während besonders warmer Phasen oder Verschiebungen (z. B. während der ,Mittelalterlichen Klimaanomalie‘ [?] und seit etwa 1970). Stabilere Klimabedingungen, das heißt verlängerte Warm- oder Kaltphasen (Mittelalterliche Klimaanomalie, Kleine Eiszeit) fielen jedoch zusammen mit einem Vorherrschen multidekadischer ozeanischer Zyklen. Ob die Anzahl von Sonnenflecken und eine höhere Klimavariabilität ursächlich zusammenhängen und welche Prozesse und Abläufe dem zugrunde liegen, ist nicht Gegenstand dieser Studie.

Gehen wir nun einige hundert Kilometer nach Osten, nach Polen. Ein Team um Ivan Hernández-Almeida nahm sich im Nordosten des Landes ebenfalls die Klimageschichte des letzten Jahrtausends vor. In einem Artikel, der Mitte August 2015 in den Quaternary Science Reviews erschien, berichteten die Wissenschaftler von starken natürlichen Klimaschwankungen und einer deutlichen solaren Beeinflussung. Hernández-Almeida fanden eine klare Gliederung in Mittelalterliche Wärmeperiode, Kleine Eiszeit und Moderne Wärmeperiode. Dabei fielen die Winter vor 1000 Jahren während der Mittelalterlichen Wärmeperiode sogar milder aus als heute (Abbildung 1). In den letzten 50 Jahren ist im Datensatz zudem eine Verschärfung der polnischen Winter zu erkennen. Im Folgenden die Kurzfassung der Arbeit:

Eine auf den Goldbraunen Algen basierende quantitative Rekonstruktion der Strenge von Wintern aus Tonsedimenten in Seen in Nordostpolen während des letzten Jahrtausends sowie deren Beziehung zur natürlichen Klimavariabilität

Zellen von Algen werden als starke Proxys zur Bestimmung der Temperatur in der kalten Jahreszeit angesehen. In dieser Studie betrachten wir die Beziehung zwischen Algen-Ansammlungen und der Anzahl von Tagen mit einer Temperatur unter 4°C (DB4°C) im Epilimnion* eines Sees in Nordpolen, um eine Transfer-Funktion zu entwickeln und die Strenge der Winter in Polen für das letzte Jahrtausend zu rekonstruieren. DB4°C ist eine Klimavariable abhängig von der Länge des Winters. Bestimmte Verfahren [Multivariate ordination techniques]wurden angewendet, um die Verteilung von Algen in Sedimenten von 37 Flachlandseen zu studieren, verteilt entlang einer Vielzahl umweltlicher und klimatischer Gradienten in Nordpolen. Von allen gemessenen Umweltvariablen, stufenweiser Auswahl der Variablen und individuellen Freisetzungs-Analysen (RDA) ergab die Variable DB4°C als die wichtigste Variable für Algen … . Eine quantitative Transferfunktion wurde erzeugt, um DB4°C aus Sedimentablagerungen zu schätzen mittels der partiellen Regression kleinster Quadrate. Das Zwei-Komponenten-Modell (PLS-2)enthielt einen Koeffizienten der Bestimmung von Rcross = 0,58 mit der Wurzel aus dem mittleren quadratischen Fehler der Vorhersage (RMSEP) von 3,41 Tagen (auf der Grundlage von ,einen auslassen‘). [?] Die sich daraus ergebende Transfer-Funktion wurde angewendet auf einen jährlich unterteilten Sediment-Bohrkern aus dem Lake Żabińskie. Er erlaubte eine neue, sub-dekadische Rekonstruktion von DB4°C mit hoher chronologischer Genauigkeit für den Zeitraum vom Jahr 1000 bis 2010. Während des Mittelalters (Jahre 1180 bis 1440) waren die Winter allgemein kürzer (wärmer) außer während einer Dekade mit sehr langen und kalten Wintern um das Jahrzehnt von 1260 bis 1270 (im Anschluss an den Vulkanausbruch im Jahre 1258). Im 16. und 17 Jahrhundert sowie zu Beginn des 19. Jahrhunderts war es zu sehr langen und strengen Wintern gekommen. Der Vergleich mit anderen Rekonstruktionen der kalten Jahreszeit in Europa sowie atmosphärische Indizes hier zeigen, dass ein großer Teil der Winter-Variabilität (rekonstruierte DB4°C) dem Wechselspiel geschuldet ist zwischen den Oszillationen der zonalen Strömungen, die von der North Atlantic Oscillation (NAO) gesteuert werden, sowie dem Einfluss kontinentaler Antizyklonen (Sibirisches Hoch, Bedingungen Ostatlantik/Westrussland). Unterschiede zu anderen europäischen Aufzeichnungen werden geographischen klimatologischen Unterschieden zugeordnet zwischen Polen und Westeuropa (tief liegende Länder; Alpen). Der erstaunliche Gleichlauf zwischen der Kombination vulkanischer und solarer Antriebe sowie die DB4°C-Rekonstruktion vor dem 20. Jahrhundert zeigen, dass das Winterklima in Polen hauptsächlich auf eine natürlich angetriebene Variabilität reagiert (vulkanisch und solar). Der Einfluss von Variabilität ohne Antrieb ist gering.

[*Das Wort habe ich noch nie gehört. Bei WIKIPEDIA steht erläutert, was das ist: Das Epilimnion (Epilimnial) nennt man in der physikalischen Limnologie die obere erwärmte und stark bewegte Wasserschicht in einem geschichteten stehenden Gewässer. Das Epilimnion ist durch die Sprungschicht, das Metalimnion, von der unteren Wasserschicht, dem Hypolimnion getrennt. Quelle und Weiteres. Anm. d. Übers.]

Abbildung 1: Schwankungen in der Härte der polnischen Winter während der letzten 1000 Jahre. Aufgetragen ist die Anzahl der Tage mit Temperaturen unter 4°C. Ausschlag nach unten zeigte strenge Winter, Ausschlag nach oben milde Winter an. Aus: Hernández-Almeida et al. 2015.

Auf unserem europäischen Streifzug durch die aktuelle Literatur zur Klimawirkung der Sonne geht es jetzt an den Südwestzipfel des Kontinents. In Portugal untersuchte eine Forschergruppe um Santos et al. die Temperaturgeschichte der letzten 400 Jahre. Zum Wissenschaftlerteam gehört unter anderem auch Eduardo Zorita vom Helmholtz-Zentrum in Geesthacht. Im Fachblatt Climate of the Past berichten Santos und Kollegen über klare klimatische Auswirkungen der solaren Maunder und Dalton Minima auf das Temperaturgeschehen:

Neue Erkenntnisse aus der rekonstruierten Temperatur in Portugal während der letzten 400 Jahre

Die Konsistenz einer bestehenden rekonstruierten jährlichen Temperaturreihe (Dezember bis November) für das Gebiet um Lissabon ab dem Jahr 1600 basiert auf einer europaweiten Rekonstruktion, erzeugt aus: 1) fünf lokalen Tiefenprofilen der Temperatur aus Bohrlöchern, 2) synthetische Temperatur-Tiefenprofile, erzeugt sowohl aus rekonstruierten Temperaturen als auch zwei regionalen Paläoklima-Simulationen in Portugal, 3) instrumentellen Datenquellen im 20. Jahrhundert und 4) Temperaturindizes aus dokumentarischen Quellen zum Ende des Maunder-Minimums (1675 bis 1715). Die geringe Variabilität der rekonstruierten Temperatur in Portugal ist nicht ganz konsistent mit lokalen Tiefen-Temperaturprofilen aus Bohrlöchern und mit der simulierten Reaktion der Temperatur in zwei regionalen Paläoklima-Rekonstruktionen, getrieben durch Rekonstruktionen verschiedener Klimatreiber. … Weitere Kalibrierungen zeigen die klaren Fußabdrücke des Maunder- und des Dalton-Minimums, die allgemein mit Änderungen der Sonnenaktivität in Verbindung gebracht werden sowie mit explosiven Vulkanausbrüchen. …

Schließlich sei noch auf einen Artikel aus Österreich von Auer und Kollegen hingewiesen, der im Februar 2015 in Climate of the Past erschien. Die Forscher untersuchten eine 17 Millionen Jahre alte Sedimentabfolge in den Alpen. Dabei stießen sie im Rahmen einer hochauflösenden paläoklimatischen Untersuchung auf eine stark ausgeprägte natürliche Klimavariabilität und charakteristische solare Zyklen des Gleissberg und Suess-de Vries Typs. Auer und Kollegen schlussfolgern, dass das Klima des Miozäns maßgeblich durch solare Aktivitätsschwankungen gesteuert wurde. Im Folgenden die Kurzfassung der Studie:

Zwei ausgeprägte dekadische und jahrhundertliche Zyklizitäten trieben die Intensität maritimer Auftriebe von Tiefenwasser sowie den Niederschlag zum Ende des Frühen Miozäns in Mitteleuropa.

Innerhalb einer 5,5 Meter dicken Aufeinanderfolge von Sedimenten aus den Karpaten im nordalpinen Voralpenland (NAFB; Österreich), datiert zur CNP-Zone NN4, wurde kontinuierlich ein hoch aufgelöster Bereich aufgezeichnet. Einhundert Testmengen wurden mit einer Auflösung von etwa 10 mm (= etwa 17 Jahre) pro Schicht gezogen und analysiert mittels eines integrierten Multiproxy-Verfahrens. Frühere Analysen der Geochemie und Kalkablagerungen deuten auf kleinräumige, kurzzeitige Variationen der Umweltbedingungen in Paläo-Zeiten wie etwa Schichtenbildung in Wassersäulen, primäre Produktivität, Flüsse organischen Materials, Sauerstoffanreicherung tieferer Wasserschichten, Süßwasser-Zufluss und Änderungen des relativen Meeresspiegels. Die Ergebnisse zeigen eine hochdynamische dünne maritime Schicht, die Gegenstand häufiger Umweltänderungen im Zeitmaßstab von Jahrzehnten und Jahrhunderten war. Zeitreihen-Analysen von neun verschiedenen Proxy-Datensätzen wurden einer REDFIT-Analyse unterzogen, um eine möglicherweise zyklische Natur dieser Variationen zu erkennen. Die Analysen zeigten, dass unterschiedliche Proxys für Niederschlag, Intensität von Tiefenwasser-Aufwallung und Gesamt-Produktivität wahrscheinlich von unterschiedlichen Zyklizitäten getrieben werden. Eine Best-Fit-Adjustierung der wahrscheinlichen Sedimentations-Raten innerhalb des hoch aufgelösten Bereiches führte zu Periodizitäten, die gut zum niedrigeren (ca. 65 Jahre) und höheren (ca. 113 Jahre) Gleissberg-Zyklus ebenso wie zum Suess/deVries-Zyklus (ca. 211 Jahre) passen. Der Abschnitt überdeckt einen Zeitraum von etwa 1190 Jahren auf der Grundlage der Korrelation mit solaren Zyklen, was zu einer geschätzten Sedimentationsrate von 575 mm pro 1000 Jahre führte. Zum ersten Mal sind kurzfristige Klima-Variabilitäten im dekadischen bis jahrhundertlichen Zeitmaßstab aufgelöst in dünnen maritimen Sedimenten. Die Ergebnisse deuten auf eine enge Relation zwischen Klima-Variabilität und solarem Antrieb während der Zeit des Late Burdigalian. Außerdem, wenn man akzeptiert, dass diese Zyklizitäten wirklich solaren Ursprungs sind, würde dies zeigen, dass der Niederschlag von den beiden Gleissberg-Zyklen getrieben wurde, während das Aufwallen vom Suess-Zyklus getrieben wurde. Außerdem wurden Proxys der primären Produktivität durch beide Zyklen beeinflusst.

Beitrag zuerst erschienen bei der „Kalten Sonne“ hier. Übersetzung der englischen Passagen von Chris Frey EIKE

Anmerkung EIKE Redaktion: Die kalte Sonne hatte bereits am 20.August 2015 (hier) die EIKE-News vom 12.August 2015 (hier) über eine Publikation von Lüdecke, Weiss, Hempelmann abgedruckt. Diese Arbeit erschien in der Fachzeitschrift "Climate of the Past Discussion" der Europäischen Geophysikalischen Union (egu) (hier). In ihr wurde der Klimaeinfluss des De Vries /Suess Sonnenzyklus untersucht. Diese Arbeit ist in der obigen Zusammenfassung der neuesten Publikationen zum Klimaeinfluss der Sonne leider nicht mit aufgeführt.




Was gibt es Neues von der Sonne? Eine Übersicht zu aktuellen Arbeiten im Themenkomplex Sonne-Klima

Mit etwas Abstand ist dem einen oder anderen IPCC-Klimakämpfer die überzogene Reaktion vielleicht sogar peinlich geworden. Mittlerweile wird immer klarer, dass man die klimatische Rolle der Sonne wohl lange Zeit unterschätzt hatte. Hierauf weisen auch aktuelle Studien hin, die wir in den kommenden Tagen hier im Blog zusammenfassen möchten. Was gibt es eigentlich Neues von der Sonne?

Erste Anlaufstelle zur Literaturrecherche ist die Webseite „Club de Soleil“ die vom Klimaforscher Maarten Blaauw von der Queen’s University of Belfast betrieben wird. Allein für 2015 hat Blaauw bis jetzt 23 Arbeiten vorgestellt, und ein Drittel des Jahres steht sogar noch aus. Hochaktuell sind auch zwei zusammenfassende Arbeiten von David Douglass und Robert Knox, die im April 2015 in Physics Letters A erschienen sind. Die Autoren fanden ein klares solares Signal in den Ozeantemperaturen:

Teil 1:

Die Sonne ist der Klima-Schrittmacher I: Wassertemperatur des tropischen Pazifiks

Zeitreihen der Wassertemperatur im tropischen Pazifik enthalten Segmente, die sowohl ein jährliches Signal als auch ein solches von zwei oder drei Jahren zeigen. Beide sind verbunden mit dem jährlichen Sonnenzyklus. Drei solche Segmente gab es zwischen 1990 und 2014. Es wird vermutet, dass diese einem solaren Antrieb geschuldet sind mit einer Frequenz von 1,0 pro Jahr. Diese periodischen Features findet man auch in globalen Klimadaten (folgende Studie). Die Analyse nutzt einen zwölf-Monats-Filter, der eindeutig jahreszeitliche Effekte aus den Daten separiert. Dies ist wichtig zum Verständnis des Phänomens El Niño/La Niña.

Teil 2:

Die Sonne ist der Klima-Schrittmacher II: globale Ozean-Wassertemperatur

In Teil I war vom äquatorialen Pazifik und seiner Wassertemperatur die Rede, hier soll es jetzt um die globalen Ozeane gehen mit einem Vertikalprofil von 0 bis 700 m bzw. o bis 2000 m Tiefe. Der El Niño/La Niña-Effekt diffundiert in den Weltozeanen mit einer Verzögerung von etwa zwei Monaten.

Siehe auch Besprechung der Arbeiten auf WUWT.

Im April 2014 wies der Blog The Hockey Schtick darauf hin, dass eine zeitliche Aufsummierung der Sonnenaktivität möglicherweise ein viel besserer Ansatz für den Vergleich mit der Temperaturentwicklung darstellt. Begründet werden kann dies durch die große Trägheit des Klimasystems. Plotten Sie es hier einmal selber. Das Ergebnis ist erstaunlich.

Interessant ist auch eine chinesische Arbeit aus dem Juni 2014 über das Science China Press die folgende Pressemitteilung herausgab:

Beeinflusst die Sonnenaktivität die globale Erwärmung der Erde?

Eine neue Studie demonstriert die Existenz signifikanter Resonanz-Zyklen sowie hohe Korrelationen zwischen Sonnenaktivität und der gemittelten Temperatur an der Erdoberfläche über Jahrhunderte. Dies bietet einen neuen Weg zur Ergründung des Phänomens der globalen Erwärmung während der letzten Jahre.

Interessant ist auch eine chinesische Arbeit aus dem Juni 2014 über das Science China Press die folgende Pressemitteilung herausgab:

Die Studie mit dem Titel „Periodicities of solar activity and the surface temperature variation of the Earth and their correlations” wurde auf chinesisch im Chinese Science Bulletin im Jahre 2014 veröffentlicht mit Dr. Zhao Xinhua und Dr. Feng Xueshang von der Chinese Academy of Sciences als Mitautoren. Dabei wird das Verfahren der Kleine-Welle-Analyse [?] und das Verfahren der cross correlation method [?] angewendet, um die Periodizitäten der Sonnenaktivität und der Erdtemperatur zu untersuchen, ebenso wie deren Korrelationen während der vergangenen Jahrhunderte.

Die globale Erwärmung ist derzeit eines der am heißesten diskutierten Themen. Das IPCC behauptete, dass die Freisetzung anthropogener Treibhausgase zu 90% oder mehr für die beobachteten gestiegenen globalen mittleren Temperaturen der letzten 50 Jahre verantwortlich war. Allerdings hört die Debatte um die Gründe der globalen Erwärmung niemals auf. Forschungen zeigen, dass die gegenwärtige Erwärmung nicht über die natürlichen Klimafluktuationen hinausgeht. Die Klimamodelle des IPCC scheinen den Einfluss natürlicher Faktoren zu unterschätzen, während sie denjenigen menschlicher Aktivitäten überschätzen. Die Sonnenaktivität ist ein wichtiger Bestandteil der natürlichen Klimatreiber. Daher ist es wichtig, den Einfluss der Solarvariabilität auf das Erdklima im langfristigen Zeitscale zu untersuchen.

Diese innovative Studie kombiniert die gemessenen Daten mit den rekonstruierten Daten, um die Periodizitäten der Sonnenaktivität im Verlauf von Jahrhunderten hervorzuheben sowie deren Korrelationen mit der Temperatur der Erde. Die erzielten Ergebnisse zeigen, dass die Sonnenaktivität und die Temperatur der Erde signifikante Resonanzzyklen aufweisen, und dass die Temperatur der Erde periodische Variationen ähnlich denen der Sonnenaktivität durchläuft. Diese Studie impliziert auch, dass das „moderne Maximum“ der Sonnenaktivität sehr gut mit der jüngsten globalen Erwärmung der Erde korreliert. … Einer der Begutachter drückte es so aus: „diese Arbeit bietet eine mögliche Erklärung für die globale Erwärmung“.

ZHAO X H, FENG X S. Periodicities of solar activity and the surface temperature variation of the Earth and their correlations (in Chinese). Chin Sci Bull (Chin Ver), 2014, 59: 1284, doi: 10.1360/972013-1089 http://csb.scichina.com:8080/kxtb/CN/abstract/abstract514043.shtml

Maliniemi und Kollegen beschrieben im August 2014 im Journal of Geophysical Research einen Zusammenhang der Wintertemperaturen auf der Nordhemisphäre mit dem Sonnenfleckenzyklus:

Räumliche Verteilung der Wintertemperaturen auf der Nordhemisphäre während verschiedener Phasen des Sonnenzyklus‘

Viele Studien der letzten Zeit haben die Variabilität des Winterklimas auf der Nordhemisphäre als zusammenhängend mit verschiedenen Parametern der Sonnenaktivität gefunden. Während diese Ergebnisse immer wieder irgendeine Art und Weise belegen, mit der die Sonne die Zirkulation in der Troposphäre und der Stratosphäre sowie die Temperaturen an der Oberfläche moduliert, gehen die Meinungen hinsichtlich des genauen Ablaufs dieses Phänomens sowie den solaren Antrieb auseinander. Unter den angeführten Treibern sind u. A. die gesamte solare Einstrahlung TSI, die solare UV-Strahlung, galaktische kosmische Strahlen und energetische Partikel der Magnetosphäre. Während einige dieser Treiber nur schwer von der sehr ähnlichen Variation eines solaren Zyklus‘ zu unterscheiden sind, zeigen andere angenommene Treiber klare Unterschiede bzgl. ihres Verlaufs während eines Sonnenzyklus‘. Zum Beispiel erreichen die geomagnetische Aktivität und Flüsse von Partikeln der Magnetosphäre einen Spitzenwert während der abnehmenden Phase eines Sonnenfleckenzyklus‘. Dies steht im Unterschied zu TSI und UV-Strahlung, die enger dem Verlauf der Sonnenflecken folgen. Durch Betrachtung von 13 solaren Zyklen (1869 bis 2009) studieren wir die Temperaturen an der Oberfläche im Winter und die Nordatlantische Oszillation NAO, und zwar während vier unterschiedlicher Phasen des Sonnenfleckenzyklus‘: Minimum, Anstieg, Maximum und Abnahme. Wir finden signifikante Unterschiede der Temperaturverteilung, was eine Modulation der Wintertemperaturen an der Oberfläche durch einen Sonnenzyklus belegt. Allerdings findet sich die eindeutigste Verteilung nicht während des Sonnenflecken-Maximums bzw. -minimums, sondern während der abnehmenden Phase, wenn die Temperaturverteilung eng mit der Verteilung während einer positiven NAO zu finden ist. Außerdem finden wir die gleiche Verteilung während der geringen Sonnenfleckenaktivität vor 100 Jahren. Dies zeigt, dass die Verteilung weitgehend unabhängig ist vom Gesamtniveau der Sonnenaktivität.

Und schließlich wollen wir noch ein Paper von Nicola Scafetta vorstellen, das im November 2014 in der Elsevier-Zeitschrift Physica A: Statistical Mechanics and its Applications erschienen ist. Es handelt sich um eine Diskussion einer Arbeit von Gil-Alana et al., in der die Autoren behauptet hatten, Sonnenaktivitätsschwankungen hätten keinen Einfluss auf das Klima. Scafetta zeigt, dass es durchaus einen Zusammenhang gibt, der jedoch komplexer ist als von Gil-Alana und Kollegen angenommen. Hier der Abstract von Scafetta‘s Diskussion:

Globale Temperatur und Anzahl der Sonnenflecken: Gibt es eine Beziehung? Ja, aber sie ist nicht linear. Eine Erwiderung auf Gil-Alana et al. 2014

Jüngst haben Gil-Alana et al. (2014) die Aufzeichnung der Sonnenfleckenzahl und die Temperaturaufzeichnung miteinander verglichen und herausgefunden, dass diese sich unterscheiden: Die Anzahl der Sonnenflecken ist charakterisiert durch einen dominanten 11-Jahre-Zyklus, während die Temperaturaufzeichnung charakterisiert zu sein scheint durch eine „Singularität“ oder einen „Pol“ in der spektralen Dichte-Funktion bei der „Null“-Frequenz. Sie zogen hieraus die Konsequenz, dass beide Aufzeichnungen charakterisiert sind durch substantiell unterschiedliche statistische fraktionale Modelle, und sie wiesen die Hypothese zurück, dass die Sonne die globalen Temperaturen signifikant beeinflusst. Ich zeige hier, 1) dass die „Singularität“ oder der „Pol“ in der spektralen Dichte-Funktion bei der „Null“-Frequenz nicht existiert – die beobachtete Verteilung leitet sich aus dem Erwärmungstrend der Temperatur nach dem Jahr 1880 ab und ist eine typische Fehlinterpretation, zu der diskrete Energiespektren nicht-stationärer Signale verleiten können; 2) dass angemessene kontinuierliche Periodogramme [?] die Angelegenheit klären und auch eine Signatur des 11-Jahre-Zyklus‘ der Sonne zeigen (Amplitude ≤0.1°C), welche seit dem Jahr 1850 eine mittlere Periode von etwa 10,4 Jahren aufweist, ebenso wie Signaturen vieler anderer natürlicher Oszillationen; 3) dass die solare Signatur in den Aufzeichnungen der Bodentemperatur nur erkannt werden kann mittels spezifischer Analyseverfahren, die die Nicht-Linearität berücksichtigen sowie die Filterung der multiplen Klimawandel-Beiträge: 4) dass der Temperatur-Erwärmungstrend nach 1880 nicht mit der Aufzeichnung der Sonnenflecken und deren 11-jährigem Zyklus verglichen oder untersucht werden kann, sondern dass dies solare Proxy-Modelle erfordert, die die kurz- und langfristigen Oszillationen plus den Beitrag der anthropogenen Antriebe zeigen, wie es in der Literatur gemacht wird. Vielfältige Belege zeigen, dass die globale Temperatur und die Anzahl der Sonnenflecken ziemlich miteinander in Beziehung stehen während verschiedener Zeiträume. Folglich werden sie charakterisiert durch zyklische fraktionale Modelle. Allerdings stehen die solaren und die Klima-Indizes durch komplexe und nicht lineare Prozesse miteinander in Beziehung. Und schließlich zeige ich, dass die Vorhersage eines semi-empirischen Modells der globalen Temperatur auf der Grundlage astronomischer Oszillationen und anthropogener Antriebe, wie sie von Scafetta seit 2009 durchgeführt werden, bislang erfolgreich waren.

Dieser Beitrag war zuerst erschienen im Blog „Die Kalte Sonne“. Der Link: http://www.kaltesonne.de/was-gibt-es-neues-von-der-sonne-eine-ubersicht-zu-aktuellen-arbeiten-im-themenkomplex-sonne-klima/

Übersetzung der englischen Passagen von Chris Frey EIKE




Rekordeisschmelze auf der antarktischen Halbinsel? Forscher haben offenbar Schwankungen in den Schneefallmengen übersehen

Ein starkes Stück. Gerade erst hat sogar das Potsdam-Institut für Klimafolgenforschung prognostiziert, dass die antarktische Gesamteismasse in den kommenden Jahrzehnten wohl anwachsen wird (“Potsdam-Institut für Klimafolgenforschung: Antarktisches Inlandeis wird im Zuge der Erderwärmung anwachsen“), da verfällt die Stuttgarter Zeitung schon wieder in altüberholte Muster. Wundert es, dass Knauer es versäumt hatte, über die PIK-Studie und das überraschende Resultat zu berichten? Stattdessen stürzt sich der Journalist auf einen Minibereich des siebten Kontinents, wo das Eis in der Tat noch schmilzt. Immerhin räumt der AWI-Mann im Artikel der Stuttgarter Zeitung auch sofort ein, dass es sich quantitativ um keine nennenswerten Massen handelt:

In Teilen der Antarktis schmilzt das Eis seit 2010 erheblich schneller als in den ersten Jahren des 21. Jahrhunderts. Geophysiker und Eisbedeckungsspezialisten wie Veit Helm vom Alfred-Wegener-Institut (AWI) in Bremerhaven wissen zwar, dass der Klimawandel die Temperaturen im Norden der Antarktischen Halbinsel rasch steigen lässt, und registrieren dort auch hohe Schmelzraten. „Dort sind aber verhältnismäßig kleine Eismassen betroffen“, erklärt der AWI-Forscher.

Haben Sie es auch bemerkt: Es wird das Jahr 2010 mit dem Beginn der 2000er Jahre verglichen. Klimatisch hat dies wenig Wert, da dies ein sehr kurzer Zeitraum ist. Natürliche Schwankungen dominieren auf diesen kurzen Zeitskalen. Knauer behauptet, die Temperaturen im Norden der Antarktischen Halbinsel würden rasch ansteigen.Das wollen wir gerne etwas genauer wissen und schauen uns die Messdaten der Faraday-Station an. Die Überraschung ist groß: In den letzten 30 Jahren ist keine größere Erwärmung zu erkennen (Abbildung 1). Wo hat Knauer seine Informationen nur her? Es würde sich für ihn wirklich einmal lohnen in die realen Daten hineinzuschauen, anstatt Behauptungen von irgendwo ungeprüft abzuschreiben.

Abbildung 1: Temperaturentwicklung auf der Antarktischen Halbinsel, gemessen an der Faraday-Station. Quelle: GISS.

Zudem versäumt die Stuttgarter Zeitung zu erwähnen, dass die nacheiszeitlichen Temperaturen der antarktischen Halbinsel 7000 Jahre lang auf dem heutigen Niveau lagen. Überrascht?

Mittlerweile wird Kritik an der alarmistischen Studie laut, selbst aus Reihen des Weltklimarats selber. So kritisierte der IPCC-Autor Andrew Shepherd von der Leeds University, dass die Autoren offenbar Änderungen in den Schneefallmengen übersehen hätten. In den irischen RTE News heißt es dazu:

Aber Andy Shepherd, ein Direktor des Centre for Polar Observation and Modelling an der University of Leeds sagte, dass ihre Berechnungen Veränderungen der Schneefälle übersehen haben könnten. „Ich glaube, dass die neue Schätzung von Eisverlusten (berechnet aus der Verdünnung des Eises) viel zu hoch sind, weil die Gletscher in diesem Bereich einfach nicht so viel schneller geworden sind“, sagte er.

Siehe auch Beitrag im Examiner. [Dieser hoch interessante Beitrag wird demnächst für das EIKE übersetzt! – Chris Frey]

————————————–

Dieser Beitrag war zuerst bei der „Kalten Sonne“ hier erschienen. Übersetzung des (kurzen) englischen Absatzes von Chris Frey EIKE.

————————————–

In diesem Zusammenhang weist das EIKE auf eine Anfrage an den AWI-Mann Helm vom 10. Juni 2015 hin, und zwar hier:http://www.eike-klima-energie.eu/klima-anzeige/awi-wissenschaftler-sieht-kuestenstaedte-durch-antarktischen-schelfeisabbruch-bedroht-verweigert-aber-antworten-auf-simple-fragen/. Die Anfrage ist bis heute nicht beantwortet worden!




Großer städtischer Wärmeinseleffekt – kleine Wirkung? Wir fragen beim Deutschen Wetterdienst nach

Abbildung 1 (rechts): Mittelwerte maximaler Temperaturdifferenzen zwischen Stadt und Umland in Europa. Quelle: klett.de.

Tim Staeger von der ARD-Wetterredaktion beschrieb in einem Beitrag vom 6. Juni 2014 sogar eine maximale Temperaturdifferenz in Berlin von bis zu 14°C (Abbildung 2):

Die Erwärmung ist umso ausgeprägter, desto näher man sich am Stadtzentrum befindet und natürlich desto größer die Stadt ist. In kleineren Siedlungen unter zehntausend Einwohnern beträgt der maximale Temperaturunterschied zwischen Innenstadt und Umland etwa 2 bis 5 Grad, bei Städten bis hunderttausend Einwohnern kann diese Differenz schon bis 8 Grad betragen und in großen Metropolen wie Berlin wurden sogar schon maximale Unterschiede von fast 14 Grad gemessen! Das sind natürlich Spitzenwerte, die vor allem in Sommernächten auftreten, nachdem sich die Innenstädte nach einer Hitzewelle bereits mehrere Tage aufheizen konnten.

Abbildung 2: Maximaler Temperaturunterscied zwischen Innenstadt und Umland. Quelle: ARD-Wetterredaktion.

Der städtische Wärmeinseleffekt (UHI) kann also enorme Ausmaße annehmen, gerade im dicht bebauten Deutschland. Da stellt sich natürlich die Frage, ob der UHI-Effekt in den offiziellen Temperaturstatistiken korrigiert bzw. abgezogen wird. Wie geht der Deutsche Wetterdienst mit diesem künstlichen, temperatursteigernden Effekt um? Einen ersten Hinweis finden wir in einem Artikel von Josef Kowatsch, der am 27. Januar 2011 auf wahrheiten.org erschien:

Der [Wärmeinseleffekt] WI ist keine konstante Größe, er ist vielmehr jahreszeitenabhängig, streng genommen sogar jeden Tag unterschiedlich, weil er zudem temperatur- und wetterabhängig ist. Außerdem ist er tags anders als nachts. Deshalb verzichtet man beim Deutschen Wetterdienst auf die Bestimmung und mathematische Berechnung des WI. Die Leiter der einzelnen Wetterstationen kennen ihren speziellen Wärmeinseleffekt auch nicht. Daher werden immer die gemessenen Temperaturen ohne Korrekturen nach Offenbach zur Zentrale des Deutschen Wetterdienstes (DWD) weitergegeben und daraus die Mittelwerte für Deutschland errechnet. […] Der WI-Anteil ist bei den vom Deutschen Wetterdienst gemessenen Jahresmittelwerten der letzten zwölf Jahre nicht berücksichtigt.

Das will nicht so recht einleuchten: Überhitzte Stadtregionen „verunreinigen“ die deutschlandweite Temperaturstatistik, und der DWD lässt diese Daten ohne mit der Wimper zu zucken einfach unkorrigiert einfließen? Das ist schwer zu glauben.

Nachgefragt beim Deutschen Wetterdienst

Auf der Suche nach Antworten finden wir auf der Webseite des Deutschen Wetterdienstes eine aufschlussreiche Beschreibung des Problems:

Voraussetzung für die Fähigkeit das Klima zu überwachen ist die – auch zukünftige – Verfügbarkeit langer Zeitreihen meteorologischer Größen, die möglichst ungestört, d.h. ausschließlich von Klimaeinflüssen, aber nicht durch messtechnische Änderungen bestimmt sind. Dies ist nicht trivial, erhöht sich doch in unseren Breiten z.B. die Temperatur, wenn eine Messstation im Laufe der Jahre von neu entstandenen Gebäuden umzingelt wird. Diese Erhöhung ist als Wärmeinseleffekt der Städte bekannt, muss aber von einem eventuell vorhandenen globalen Trend unterschieden werden können. Das heißt messen alleine genügt nicht. Man muss auch erhebliche Anstrengungen in die Sicherstellung der bestmöglichen Qualität der Messungen investieren. Und das beginnt bei der Auswahl und Pflege der Messstation selbst und reicht über die Kontrolle der Messinstrumente bis zur langfristigen und sicheren Archivierung der Daten. Ebenso wichtig sind die sogenannten Metadaten, also Informationen, welche die eigentlichen Messgrößen beschreiben. Wenn etwa unbekannt ist, wo genau eine Messung vorgenommen wurde und welche Randbedingungen herrschten, sind ernsthafte Aussagen nicht möglich.

Die deutschen Städte wachsen und wachsen – und mit ihnen der städtische Wärmeinseleffekt (UHI). Wie kann man den UHI nun von einer überregionalen Klimaerwärmung unterscheiden? Am besten wäre es doch, nur noch Messstationen in rein ländlichen Gebieten einzusetzen und alle auch nur ansatzweise vom UHI beeinflussten Stationen für die Deutschland-Klimastatistik zu ignorieren. Da auf der DWD-Webseite keine weiteren Hinweise zur Lösung des Problems zu finden sind, wenden wir uns per Email an den DWD und fragen am 29. Januar 2015 konkret nach:

Sehr geehrter DWD,

Ich interessiere mich für den Wärmeinseleffekt (WI) der Städte und habe hierzu eine Frage. Ich habe gelesen, dass die Temperaturmesswerte der einzelnen Wetterstationen an Ihre Zentrale nach Offenbach im Original unkorrigiert gemeldet werden. Ich würde gerne verstehen, inwieweit diese Messwerte in Offenbach noch hinsichtlich des Wärmeinseleffekts korrigiert werden, bevor sie in den offiziellen Statistiken und Mittelwertbildungen verwendet werden. Konkret: wird die Temperatur von städtischen Wetterstationen nach unten korrigiert oder bleibt der WI-Effekt unberücksichtigt?

Über eine Antwort würde ich mich freuen. Vielen Dank im voraus.

Mit besten Grüßen

Sebastian Lüning

Der DWD zeigt sich kooperativ und antwortet schon wenige Tage später am 2. Februar 2015:

Sehr geehrter Herr Lüning,

Vielen Dank für Ihre Nachricht. Die Temperaturwerte werden unkorrigiert, also ohne Berücksichtigung des Wärmeinseleffekts verwendet.

Mit freundlichen Grüßen

[DWD-Diplom-Meteorologin]

Eine unerwartete Einlassung: Der UHI bleibt in allen deutschen Temperaturstatistiken vollständig unberücksichtigt! Ein mulmiges Bauchgefühl erfasst uns: Wurde uns nicht gerade ein neuer Deutscher Temperaturrekord für 2014 präsentiert? Wieviel UHI steckt darin verborgen? Weshalb wurde der UHI-Aspekt in keinem der unzähligen Medienbeiträge zum Thema angesprochen? Ist der Ansatz des DWD zulässig? Wie gehen andere Wetterdienste und Temperaturdatenbanken mit diesem Problem um? Auf der IPCC-nahen Webseite von Skeptical Science erfahren wir, wie die NASA mit dem verfährt:

Korrektur des städtischen Wärmeinsel-Effektes

Bei der Zusammenstellung der Temperaturaufzeichnungen, gibt sich das GISS der NASA große Mühe, jedwede möglichen Einflüsse des städtischen Wärmeinseleffektes zu entfernen. Man vergleicht langzeitliche städtische Trends mit solchen in der näheren ländlichen Umgebung. Dann werden die städtischen Aufzeichnungen so korrigiert, dass sie zu den Werten aus ländlicher Umgebung passen. Der Prozess wird detailliert bei Hansen 2001 beschrieben. In den meisten Fällen stellte sich heraus, dass die städtische Erwärmung gering war und innerhalb der Unsicherheits-Bandbreite lag. Überraschenderweise sind 42% der Stadt-Trends relativ zu ihrer ländlichen Umgebung kühler, da Wetterstationen oftmals auf kühlen Inseln innerhalb der Stadt stehen (z. B. einer Parkanlage). Der Punkt ist, dass man sich des UHI-Problems bewusst ist und rigoros Korrekturen vornimmt bei der Analyse der Temperaturaufzeichnungen.

Im Gegensatz zum DWD nimmt die NASA also UHI-Korrekturen vor. Allerdings sollen die korrigierten Abweichungen nahezu vernachlässigbar sein, heißt es. Letztendlich kommt es also aufs Gleiche raus: Keine bedeutende UHI-Korrektur. Wie kann dies angesichts der enormen gemessenen und anerkannten UHI-Effekte sein? Wir wenden uns am 4. Februar 2015 erneut an den DWD und bitten um Aufklärung:

Sehr geehrte Frau […],

[…] Könnten Sie mir eventuell noch einen Hinweis darauf geben, wie die Verteilung der deutschen Wetterstationen hinsichtlich Stadt und Land ist? Lässt sich sagen, wie hoch der Wärmeinselanteil an der Erwärmung Deutschlands in den letzten 100 Jahren war?

Beste Grüße

Und wieder brauchten wir nicht allzu lange auf Antwort warten. Am 18. Februar 2015 schrieb uns der DWD:

Sehr geehrter Herr Lüning,

damit gemäß WMO-Anforderungen die freie Exposition der Messstationen gegenüber den meteorologischen Einflussgrößen gewährleistet wird, befindet sich der überwiegende Anteil der Wetter- und Klimastationen außerhalb von Städten, gelegentlich auch am Stadtrand. Nur einige wenige Stationen befinden sich in Stadtzentren, wie z.B. in München oder in Jena. Unsere Klimauntersuchungen zu Frankfurt am Main (siehe http://nbn-resolving.de/urn:nbn:de:101:1-201106095249 ) zeigen, dass – die Lufttemperatur in Innenstadt und Umland nahezu gleichermaßen ansteigt, wenn man von den Einflüssen kleinerer Stationsverlegungen absieht, – die Erwärmung durch den Klimawandel ein Überlagerungseffekt ist, d. h., dass der projizierte Anstieg der Lufttemperatur über Städten im Vergleich zu ihrem Umland keine statistisch signifikanten Unterschiede aufweist.

Mit freundlichen Grüßen […]

Wir erfahren vom DWD also zwei wichtige Dinge:

1) Der überwiegende Teil der deutschen Wetterstationen liegt laut DWD außerhalb der überhitzten Stadtkerne, so dass die wenigen UHI-beeinflussten Stationen statistisch kaum ins Gewicht fallen.

2) Die Erwärmungsrate ist in Stadt und Umland ähnlich. Der einzige Unterschied wäre, dass sich die Erwärmung der Stadt auf einem höheren UHI-bedingten Temperaturniveau abspielt.

Diese beiden wichtigen Punkte wollen wir näher beleuchten:

Zu 1) Stimmt es wirklich, dass die große Mehrheit aller DWD-Stationen außerhalb von UHI-beeinflussten Gebieten liegt? Haben sich nicht die Städte in den letzten 50 Jahren immer weiter ausgebreitet, so dass sich der UHI langsam aber stetig in das stadtnahe Umland vorgearbeitet und immer mehr Wetterstationen vom UHI immer stärker beeinflusst werden? Ein erster Schritt wäre es, die in der deutschen Temperaturstatistik verwendeten Wetterstationen auf Google Maps zu lokalisieren und hinsichtlich ihrer Lage zu klassifizieren. Gibt es vielleicht bereits eine genauere Klassifizierung der Stationen hinsichtlich Stadt/Land?

Zu 2) Eine ähnliche Erwärmungsrate in Stadt und Land, das sollte sich relativ leicht überprüfen lassen. Gilt dies nur für die letzten Jahrzehnte, als die Städte bereits ihren vollen UHI-Effekt erreicht haben? Wie sieht es mit den letzten 100 Jahren aus, während der sich die Städte enorm ausbreiteten und der UHI stark anwuchs? Ein Teil der langfristigen Erwärmung großer Städte müsste doch eigentlich dem UHI-Zuwachs zugerechnet werden, oder? Wenn es heute in Berlin und Umland Temperaturunterschiede von bis zu 14°C gibt, dann waren es vor 100 Jahren doch vielleicht nur 5°C. Das sollte sich in der Gesamt-Temperaturstatistik Berlins bemerkbar machen und kann nicht der „globalen“ Erwärmung zugeschlagen werden. Der DWD räumt dieses Problem selber auf seiner Webseite ein (siehe oben).

Die Fragen behalten wir erst einmal im Hinterkopf. Im Laufe unserer aktuellen UHI-Artikelserie und im Rahmen von Projekten der KFI versuchen wir sie dann zu klären.

Das sagt BEST

Schauen wir uns nun an, welche Ansichten das BEST-Temperaturprojekt der University of California in Berkeley zum Thema UHI vertritt. Im März 2013 veröffentlichte das BEST-Team auf SciTechnol ein Paper von Wickham et al., an dem auch Projektleiter Richard Muller und Judith Curry beteiligt sind. Judith Curry erklärte allerdings zwischenzeitlich, dass sie zwar Co-Autorin des Wickham-Papers ist, jedoch kaum in die Datenbearbeitung involviert gewesen sei. Die Forscher klassifizierten globale Wetterstationen an der Erdoberfläche hinsichtlich ihrer städtischen oder ländlichen Lage, wobei sie Satellitenbilder als Klassifikationshilfe heranzogen. Dabei isolierten sie eine ländliche Untergruppe der Wetterstationen, bei der ein größerer UHI-Effekt ausgeschlossen werden kann. Interessanterweise entsprach die Erwärmungsrate dieser ländlichen Stationen in den letzten 60 Jahren ziemlich genau der durchschnittlichen globalen Erwärmung, in den auch UHI-beeinflusste Stationen einfließen. Im Folgenden die Kurzfassung der Arbeit:

Einfluss von Stadtwärme auf das globale Festlands-Temperaturmittel mittels ländlicher Standorte nach der Klassifikation von MODIS

Die Auswirkung von Stadtwärme auf Schätzungen der globalen mittleren Festlands-Temperatur wird untersucht mittels Anwendung einer Klassifikation städtisch – ländlich nach MODIS-Satellitendaten in der Zusammenstellung des Temperatur-Datensatzes von Berkeley Earth. Dieser Datensatz enthält Werte von 36.869 Messpunkten aus 15 verschiedenen, öffentlich zugänglichen Quellen. Wir vergleichen die Verteilung linearer Temperaturtrends für eine ländliche Untergruppe von 15.594 Messpunkten, die entfernt von allen nach MODIS identifizierten städtischen Gebieten liegen. Während die Trendverteilungen umfassend sind, wobei ein Drittel der Stationen in den USA und weltweit einen negativen Trend aufweisen, zeigen beide Verteilungen signifikante Erwärmung. Zeitreihen der mittleren Festlands-Temperatur der Erde werden geschätzt mittels des Berkeley Earth-Verfahrens, das auf den gesamten Datensatz und die ländliche Untergruppe angewendet wird: Die Differenz zwischen diesen ist konsistent mit keiner Auswirkung eines städtischen Heizeffektes während des Zeitraumes von 1950 bis 2010 mit einer Neigung von -0,10 ± 0.24 pro Jahrhundert (95% Vertrauensintervall).

Abbildung 3: Vergleich der globalen Temperaturentwicklung auf Basis von rein ländlichen Wetterstationen (blau) und der gesamten Anzahl der Wetterstationen (rot). Quelle: Wickham et al. 2013. Es ist kein bedeutender Unterschied erkennbar.

Auf der BEST-Webseite wird folglich geschlussfolgert, der UHI hätte in statistischer Hinsicht keine große Bedeutung und könne daher vernachlässigt werden:

Ist der städtische Wärmeinseleffekt (UHI) real?

Der städtische Wärmeinseleffekt (UHI) ist real. Die Analyse von Berkeley konzentrierte sich auf die Frage, ob dieser Effekt das globale Festlands-Mittel verzerrt. Unsere diesen Punkt analysierende UHI-Studie zeigt, dass der städtische Wärmeinseleffekt hinsichtlich unserer globalen Schätzung der Festlands-Temperaturen ununterscheidbar ist von Null.

Entsprechend äußerte sich auch Richard Muller im Jahr 2012 auf The Carbon Brief:

Ich glaube, dass die Schlussfolgerung, dass der Beitrag des städtischen Wärmeinseleffektes zur Erwärmung im Wesentlichen Null ist, auf sehr soliden Füßen steht.

Nach dieser Untersuchung könnte man den Eindruck bekommen, das UHI-Mysteriosum wäre nun endgültig geklärt und der Fall könnte zu den Akten gelegt werden. Allerdings muss man dazu wissen, dass die verwendeten BEST-Temperaturdaten nicht etwa den gemessenen Rohdaten entsprechen, sondern bereits nachbearbeitet sind. Im Zuge dieser Daten-Nachbearbeitung geschehen bekanntlich wundersame Dinge, wie wir an dieser Stelle berichtet haben (siehe unsere Blogartikel „Die wunderbare Welt der Temperaturdaten-Korrekturen: Und plötzlich hatte sich der Trend ins Gegenteil verkehrt…“ und „Neues aus der wunderbaren Welt der Temperaturdaten-Korrekturen“). Insofern ist die Beweisführung der BEST-Gruppe wenig vertrauensstiftend. Tim Ball kommentierte das BEST-Datenproblem wie folgt:

Die Verwendung des Terminus‘ „Rohdaten der Temperatur“ ist irreführend. Was alle Gruppen mit diesem Terminus meinen, sind die Daten, die von individuellen Staaten an eine zentrale Agentur übermittelt werden. Unter der Schirmherrschaft der WMO ist jede Nation verantwortlich für die Einrichtung und den Betrieb von Wetterstationen unterschiedlicher Kategorien. Die von diesen Stationen gemessenen Daten sind die Rohdaten. Allerdings werden diese dann durch individuelle nationale Agenturen adjustiert, bevor sie an die zentrale Aufzeichnungsstelle übermittelt werden. (…) BEST hat diese Daten adjustiert, aber sie sind nur genauso gültig wie die Rohdaten. Beispiel: die ,offiziellen‘ Rohdaten für Neuseeland werden erzeugt von NIWA, und diese ,adjustierten‘ die ,Rohdaten‘. Den Unterschied zeigt Abbildung 4. Welchen Datensatz hat BEST herangezogen? Viele Nationen haben ähnliche Adjustierungen vorgenommen.

Abbildung 4: Temperaturentwicklung Neuseelands während der vergangenen 100 Jahre. Vergleich von Rohdaten (grün) und „korrigierten“ Daten. Quelle: Tim Ball.

Zwischenfazit

Laut DWD und BEST spielt der städtische Wärmeinseleffekt für die landes- und weltweiten Temperaturstatistiken keine große Rolle. Wir haben in diesem Artikel eine Reihe von Fragen formuliert, denen wir detailliert nachgehen wollen und die uns bei der Bewertung des DWD-/BEST-Ansatzes helfen sollen. Wir wollen dies in einer ergebnisoffenen Form tun und allein der wissenschaftlichen Logik folgen. Die übergeordnete Frage lautet: Wie können sich enorme UHI-Effekte – wie in Berlin dokumentiert – plötzlich in Luft auflösen?

Link: http://www.kaltesonne.de/groser-stadtischer-warmeinseleffekt-kleine-wirkung-wir-fragen-beim-deutschen-wetterdienst-nach/

Artikel zuerst erschienen auf dem Blog Die Kalte Sonne. Übersetzung der englischen Passagen durch Chris Frey EIKE




Studien aus 2014 geben Hoffnung: Erwärmungswirkung des CO2 wohl doch deutlich überschätzt. Offizielle Korrektur steht bevor

Im heutigen Beitrag wollen wir eine kleine Übersicht über die neuen Studien des vergangenen Jahres (2014) geben. Wer ist mit welchem Wert aktuell im Rennen? Bevor wir beginnen, sollte jedoch noch kurz erwähnt sein, dass es zwei verschiedene Typen der Klimasensitivität gibt, die nicht verwechselt werden dürfen, die ECS und die TCR. Hier sollte man peinlichst darauf achten, um welchen Wert es in der entsprechenden Arbeit geht, ansonsten vergleicht man Äpfel mit Birnen. Wikipedia erklärt uns den Unterschied:

ECS und TCR

Aufgrund der thermischen Trägheit der Weltmeere reagiert das globale Klimasystem grundsätzlich nur langsam auf Veränderungen des Strahlungsantriebs. Man unterscheidet daher zwischen der Equilibrium Climate Sensitivity, (ECS) und der Transient Climate Response (TCR). Die ECS beschreibt den Temperaturanstieg, der zu beobachten ist, nachdem das Klimasystem nach einer Veränderung des Strahlungsantriebs den neuen Gleichgewichtszustand erreicht hat, wofür Jahrtausende nötig sind. Um den Einfluss des Menschen auf das Klima zu quantifizieren, ist die Transient Climate Response besser geeignet. Diese ist definiert als der Temperaturanstieg, der zum Zeitpunkt einer Verdoppelung der CO2-Konzentration in einem Szenario beobachtet wird, bei dem diese pro Jahr um 1% anwächst.

Laut dem fünften Klimazustandsbericht des IPCC (AR5) liegt die ECS irgendwo zwischen 1.5°C bis 4.5°C. Der IPCC hat sich diesmal aus taktischen Gründen geweigert, einen offiziellen Mittelwert anzugeben. Nehmen wir daher einen Wert von 3°C an, den hatte der IPCC in seinem vierten Klimabericht (AR4) verwendet und nach eigenen Angaben habe sich vom vierten auf den fünften Bericht nicht viel geändert. Überhaupt geht der IPCC in allen seinen bisherigen Berichten seit 1990 stets von der gleichen Wertespanne aus (Abbildung 1).

Die kurzfristigere TCR sieht der IPCC in ihrem aktuellen AR5-Bericht zwischen 1,0°C und 2,5°C (siehe Seite 14 hier).

Abbildung 1: Übersicht der in den IPCC-Berichten angegebenen CO2-Klimasensitivitäten. Aus Lewis & Crok (2014).

ECS – Die Equilibrium Climate Sensitivity [Gleichgewichts-Klimasensitivität]

Beginnen wollen wir unseren wissenschaftlichen Streifzug mit Studien zum Langfrist-Wert, der ECS. Dabei arbeiten wir uns von den hohen zu den niedrigen ECS-Werten.

Im April 2014 erschien im Fachblatt Climate Dynamics eine Arbeit von Troy Masters. Er kommt auf eine Wertespanne für die ECS von 1,5-2,9°C, eliminiert also einen Großteil der überhitzten IPCC-Szenarien. Als ECS-Mittelwert gibt Master 2,2° C an, was knapp ein Grad kälter ist, als der IPCC-Wert.

Fünf Monate später, im September 2014, kamen von der Heydt und Kollegen in einer Studie in den Geophysical Research Letters auf einen recht ähnlichen Wert, nämlich 2,26°C. Die Forscher untersuchten hierzu das Paläoklima der letzten 800.000 Jahre. Aus der Kurzfassung:

Wendet man ein neues Verfahren an, um die Abhängigkeit vom Hintergrundzustand [background state dependency] zu berücksichtigen, kommt man zu dem Ergebnis Sa=0.61±0.07 K (W/ m²)-1 (±1σ) unter Verwendung einer Rekonstruktion der Abkühlung zum letzten glazialen Maximum (LGM) um -4,0 K und eine deutlich geringere Klimasensitivität während glazialer Klimate.

(Hinweis: Der dort angegebene Wert von Sa=0,61±0,07 K (W m−2)−1 muss mit 3,7 W/m2 multipliziert werden, um auf die ECS pro CO2-Verdopplung zu gelangen.)

In einer Modellierungsstudie ermittelte Crag Loehle vom US-amerikanischen National Council for Air and Stream Improvement eine ECS von 1,99°C. Die Ergebnisse präsentierte er im März 2014 im begutachteten Fachblatt Ecological Modelling.

Im selben Monat erschien im Fachjournal Earth System Dynamics eine Arbeit von Skeie et al., die auf eine ECS von 1,8°C kommen. Zum exakt gleichen Ergebnis gelangte auch Jeff L. in einem Beitrag auf WUWT , der dort am 13. Februar 2014 gepostet wurde.

Bereits im Juni 2010 beschrieb Roy Spencer auf seiner Webseite eine ECS von 1,7°C:

Unter dem Strich stützt meine Analyse eine Best-Estimate-Klimasensitivität von 1,7°C, was etwas mehr ist als die Hälfte von dem, was Tung & Camp (3,0°C) gefunden haben, und es nähert sich der unteren Grenze dessen, was das IPCC als wahrscheinlich behauptet (1,5°C).

Nur einen Tick niedriger verorteten Nicholas Lewis und Judith Curry die ECS. In ihrer im September 2014 im Fachblatt Climate Dynamics publizierten Arbeit kamen die Autoren auf einen Wert von 1,64°C. Lewis präsentierte in einem Beitrag im Blog Climate Audit zudem eine detaillierte Gesamttabelle mit ECS-Spannen für verschiedene Zeitfenster sowie Vergleichswerte anderer Arbeiten (Abbildung 2):

Abbildung 2: Klimasensitivitäten nach Lewis & Curry (2014) sowie weitere Vergleichswerte aus der Literatur. Quelle: Climate Audit.

Bemerkenswert ist auch eine Arbeit von Spencer & Braswell die im Februar 2014 im Asia-Pacific Journal of Atmospheric Sciences herauskam. Die beiden Autoren integrierten die natürliche ENSO-Variabilität in ihr Modell und kamen auf eine ECS von 1,3°C, was ziemlich genau zwischen den beiden in unserem Buch „Die kalte Sonne“ präsentierten Szenarien liegt.

Einige Autoren sehen sogar die Möglichkeit von ECS-Werten unterhalb von 1,0°C. So stellte im November 2014 Hermann Harde von der Hamburger Helmut-Schmidt-Universität im Journal of Atmospheric and Climate Change ein Modell mit einer ECS von 0,6°C vor.

Und schließlich sei noch eine Arbeit erwähnt, die im Oktober 2014 auf der Webseite der Stockholm-Initiative erschien. Magnus Cederlöf beschreibt dort eine ECS von 0,28°C.

Der generelle Trend in der Wissenschaft hin zu niedrigeren ECS-Klimasensitivitäten ist mittlerweile unübersehbar und stürzt den IPCC und die beteiligten Forscher in ein Dilemma. Viele der Arbeiten erschienen nach Redaktionsschluss des AR5-Klimaberichts und konnten daher nicht mehr in den Bericht eingearbeitet werden. Überhaupt gleichen die IPCC-Klimaberichte einem schweren Supertanker, der etliche Jahre benötigt um seinen Kurs auch nur geringfügig zu ändern. Das Herzstück des AR5 bilden aufwendige Computer-Klimamodellierungen, die noch von einer veralteten, überhöhten ECS ausgingen. Im Prinzip hätte man nun die Modellierungsresultate verwerfen und erneut zu rechnen beginnen müssen. Dafür gab es nun aber keine Zeit mehr und die Veröffentlichung des AR5 wäre um mehrere Jahre verzögert worden. Offenbar entschied man sich für die Methode „Augen zu und durch“, in der Hoffnung, dass die Unzulänglichkeiten hoffentlich keinem auffallen. Da der Großteil der Medienlandschaft die IPCC-Ergebnisse sowieso generell ungeprüft übernimmt, hat dies auch ziemlich gut funktioniert.

Im Februar 2014 thematisierten Nicholas Lewis und Marcel Crok das IPCC-Dilemma bezüglich der Klimasensitivität in einem lesenswerten Bericht, der als GWPF Report 12 erschienen ist:

Auszug aus der Zusammenfassung:

Erst während der letzten Jahre ist es möglich geworden, gute empirische Schätzungen der Klimasensitivität vorzunehmen aus gemessenen Daten wie Temperatur und ozeanischen Wärmerekorden. Diese Schätzungen, publiziert in führenden wissenschaftlichen Journalen, zeigen bei einer Verdoppelung des CO2-Gehaltes zumeist eine Klimasensitivität, die zu einer langfristigen Erwärmung unter 2°C führt und unter 1,5°C während einer Periode von 70 Jahren. Dies zeigt eindeutig, dass die Modelle eine zu hohe Sensitivität bzgl. Kohlendioxid annehmen und in fast allen Fällen die wahrscheinliche globale Erwärmung übertreiben. … Gute empirische Schätzungen sowohl langfristig als auch über Zeiträume von 70 Jahren implizieren jetzt sehr unterschiedliche Erwartungen hinsichtlich einer zukünftigen Erwärmung verglichen mit den Klimamodellen – etwa 40% bis 50% niedriger bis zum Zeitraum 2018 bis 2100. Dies ist fast mit Sicherheit das wichtigste Ergebnis der Klimawissenschaft während der letzten Jahre, vor allem weil es gute Gründe gibt, die Zuverlässigkeit der Klimamodell-Vorhersagen anzuzweifeln. Allerdings geht das IPCC in seinem Bericht auf diesen Punkt nur indirekt ein. Mehr noch, anstatt die Best Estimate der Klimasensitivität im Licht der neuen empirischen Schätzungen zu reduzieren hat es einfach die untere Grenze der Unsicherheits-Bandbreite tiefer gelegt und es versäumt, eine Best Estimate zu geben ohne angemessen zu erklären, warum dies zu tun erforderlich war. Erst in der im Januar 2014 veröffentlichten Endfassung wurde in der Technical Summary ein Absatz mit etwas mehr Erklärung hinzugefügt. Die neue Information zur Klimasensitivität zeigt, dass das Zwei-Grad-Ziel der Regierung selbst bei relativ hohen Emissionen wahrscheinlich erst zum Ende des Jahrhunderts erreicht wird.

Eine gute graphische Übersicht von 14 wichtigen Arbeiten der vergangenen vier Jahre haben Patrick Michaels und Paul Knappenberger am 25. September 2014 auf WUWT zusammengestellt (Abbildung 3):


Abbildung 3: Übersicht der ECS-Klimasensitivität aus bedeutenden Arbeiten der vergangenen vier Jahre. Quelle: Patrick Michaels und Paul Knappenberger, WUWT.

Eine noch umfangreichere Auflistung gibt es auf The Hockeyschtick. Hier werden gleich 40 wissenschaftliche Studien vorgestellt, die eine ECS von 2,0°C oder weniger postulieren.

TCR – kurzlebige Reaktionen des Klimas [Transient Climate Response]

Schauen wir jetzt noch kurz in die kurzfristigere TCR. Der IPCC interpretiert in seinem aktuellen 5. Bericht eine TCR zwischen 1,0°C und 2,5°C. Ein Mittelwert ist erneut nicht angegeben, würde aber 1,75°C entsprechen.

Auch hier kommen neuere Studien auf deutlich niedrigere Werte. So reichten van der Werf und Dolman im Mai 2014 eine Arbeit im Fachblatt Earth System Dynamics ein, in dem sie eine TCR von 1,3°C darstellen. Das hat den IPCC-Torwächtern natürlich gar nicht gefallen. Im Begutachtungsverfahren „überzeugte“ man die Autoren, die TCR auf 1,6°C hochzusetzen, so dass die finale Version des Artikels aus dem Oktober 2014 jetzt diesen Wert enthält.

Da waren Nicholas Lewis und Judith Curry deutlich standfester. In ihrer im September 2014 in Climate Dynamics erschienenen Arbeit berichten sie eine TCR in Höhe von 1,33°C, was am unteren Ende des vom IPCC im AR5 verbreiteten Möglichkeitsspektrums liegt.

Craig Loehle geht mit einer TCR von 1,09°C sogar fast an den untersten Rand der IPCC-Werte. Diese Arbeit erschien wie bereits berichtet im März 2014 im Fachblatt Ecological Modelling.

Ein Forscherteam um Krasting und Kollegen ging im April 2014 in den Geophysical Research Letters sogar von noch niedrigeren TCR-Werten aus, nämlich einem Bereich zwischen 0,76 und 1,04°C.

Weitere neuere Erkenntnisse

Neben den harten ECS/TCR-Werten gab es auch noch andere Erkenntnisgewinne. So räumte Kim Cobb im April 2014 im IPCC-nahen Fachblatt Nature Climate Change ein, dass die Klimasensitivität wohl doch insgesamt niedriger ist als gedacht. Man habe die natürliche Klimavariabilität auf der Südhalbkugel wohl unterschätzt.

Im Dezember 2014 berichteten Winton et al. in den Geophysical Research Letters dass man wohl die AMOC-Ozeanzyklik zu wenig auf der Rechnung hatte und die TCR-Abschätzungen deshalb wohl in der Vergangenheit zu hoch ausgefallen sind.

Einen interessanten Einblick in die Denkweise von IPCC-nahen Wissenschaftlern gab es im April 2014 in den Geophysical Research Letters. Dort gestanden Kummer & Dessler ein, dass die historischen Temperaturdaten des 20. Jahrhunderts lediglich eine ECS von 2,3°C rechtfertigen würden, was krass von den 3°C der theoretischen IPCC-Modelle abweicht. Im Paper fangen sie dann an laut zu denken. Wie konnte dies nur passieren, wie kriegen wir diesen unbequemen Umstand möglichst elegant und leise vom Tisch? In ihrer Verzweiflung fangen sie dann an, Gründen für die zu schwache Erwärmung der letzten 150 Jahre zu ersinnen. Dabei greifen sie letztendlich auf den bereits in unserem Buch „Die kalte Sonne“ ausführlich beschriebenen Trick zurück und erhöhen einfach die kühlende Wirkung der Aerosole, der Schwebteilchen in der Atmosphäre. Zur Linderung der Modellierungsschmerzen muss auch das Ozon seinen Beitrag leisten. Nach Anwendung von Trick 17 und Trick 18 ist dann die reale Welt an die wunderbare Computerwelt angepasst und alle können wieder beruhigt ihrem alarmistischen Tagesgeschäft nachgehen. Im Folgenden die Kurzfassung der Arbeit:

Schätzungen der Gleichgewichts-Klimasensitivität der Erde (ECS) aus Beobachtungen im 20. Jahrhundert sagen eine niedrigere ECS vorher als Schätzungen der Klimamodelle, paläoklimatische Daten und Variabilität von Jahr zu Jahr. Hier zeigen wir, dass Schätzungen der ECS aus Beobachtungen im 20. Jahrhundert hinsichtlich der vermuteten Wirksamkeit von Aerosol- und Ozon-Antrieb sensitiv sind (Wirksamkeit eines Antriebs ist die Größe der Erwärmung pro Einheit globaler mittlerer Antrieb dividiert durch die Erwärmung pro Antriebseinheit aus CO2). Frühere Schätzungen der ECS auf der Grundlage von Beobachtungen im 20. Jahrhundert haben nahe gelegt, dass die Wirksamkeit einheitlich ist, wobei sich in unserer Studie eine ECS von 2,3 K ergibt (5% bis 95% Bandbreite von 1,6 bis 4,1 K), was dicht an der unteren Grenze der vom IPCC angebotenen Bandbreite von 1,5 bis 4,5 K liegt. Eine Zunahme der Aerosol- und Ozon-Wirksamkeit auf 1,33 lässt die ECS steigen auf 3,0 K (1,9 bis 6,8 K), ein Wert, der in ausgezeichneter Übereinstimmung mit anderen Schätzungen steht. Die Wirksamkeit von Antrieben bietet daher einen Weg, den Graben zwischen verschiedenen ECS-Schätzungen zu überbrücken.

Eine mysteriöse Geschichte gab es am 3. Dezember 2014 auf der Webseite von Bild der Wissenschaft zu lesen:

Klima: Schnell aufgeheizt und lange warm
Die Treibhauswirkung von Kohlendioxid ist längst unstrittig: Das Gas hält Wärme in der Atmosphäre fest und trägt damit zum Klimawandel bei. Wie schnell sich aber eine Emission von CO<sub>2</sub> tatsächlich am globalen Thermometer bemerkbar macht, das war bisher unklar. Zwei US-Forscher haben diese Unsicherheit nun beseitigt. Ihre Modellsimulationen zeigen, dass das Klimasystem deutlich schneller auf das CO<sub>2</sub> reagiert als gedacht: Schon zehn Jahre nach einer CO<sub>2</sub>-Emission tritt die dadurch verursachte Erwärmung ein – diese Klimawirkung hält dann allerdings über mehr als ein Jahrhundert an. Für die Klimaverhandlungen in Lima sollte das eine Mahnung sein. […] Das Ergebnis: Es dauert im Mittel 10,1 Jahre, bis eine Dosis freigesetzten Kohlendioxids ihre maximale Treibhauswirkung entfaltet. Der CO<sub>2</sub>-Gehalt der Atmosphäre steigt dabei schon deutlich schneller an. Aber vor allem die thermische Trägheit der Ozeane bremst die dadurch erzeugte Erwärmung ab, so dass sie sich erst nach rund einem Jahrzehnt bemerkbar macht, wie die Forscher erklären. 

Im Prinzip heißt dies nichts anderes, als dass ECS und TCR viel näher aneinander liegen könnten als gedacht. Nach 10 Jahren wäre die volle Wärmewirkung erreicht, lautet das Ergebnis der Modellierung. In der Realität sieht es leider anders aus: Seit nunmehr 16 Jahren verharrt die globale Temperatur auf einem Plateauwert, und das obwohl der CO2-Gehalt in der gleichen Zeit munter weiter angestiegen ist. Nach deutlich mehr als 10,1 Jahren hat es das CO2 offenbar immer noch nicht geschafft, die ihm zugeschriebene starke Erwärmungswirkung zu entfalten. Ist das CO2 vielleicht doch nicht so klimatreibend wie gedacht? Oder ist die natürliche Variabilität viel stärker als vom IPCC vorgeschlagen? Fakt ist, dass die angeblich so schnell auf das CO2 reagierende Atmosphäre noch immer voll und ganz durch die natürlichen Prozesse dominiert wird. Weshalb diskutiert Bild der Wissenschaft diese Fragen nicht?

Angesichts der mageren Temperatursteigerung im 20. Jahrhundert und der fehlenden Erwärmung der letzten 16 Jahre fragen sich die Wissenschaftler, wann wohl genug Daten vorliegen könnten, so dass man die wahre CO2-Klimasensitivität endlich festnageln und genau eingrenzen könnte. Ein Forscherteam um Nathan Urban hat im April 2014 in den Geophysical Research Letters versucht, einen Entscheidungshorizont abzuschätzen. Vermutlich wird es erst 2030 möglich sein, zu erkennen, ob die ECS eher 1,5°C oder 3,0°C beträgt. Im Falle noch höherer ECS-Wert würde dies sogar noch länger dauern. Allerdings sind höhere ECS-Beträge angesichts der neueren Arbeiten eher unwahrscheinlich. Auszug aus der Kurzfassung:

Wir zeigen, dass eine Klimasensitivität von 1,5°C statistisch unterschieden werden kann von 3°C bis 2030, 3°C von 4,5°C bis 2040 und 4,5°C von 6°C bis 2065. Das Erkennen von Raten ist am langsamsten in den größte Bedenken hervorrufenden Szenarien (hohe Sensitivitäten) infolge einer längeren Zeit der ozeanischen Reaktionen bei der Abwägung zwischen Abwarten und vorsorglicher Abschwächungspolitik.

Wer sich noch tiefer in das Thema einarbeiten möchte, dem sei der Climate Dialogue aus dem Mai 2014 „Climate Sensitivity and Transient Climate Response“ mit James Annan, John Fasullo und Nic Lewis empfohlen. Eine gute Übersicht zum Thema gibt es auch von Chip Knappenberger, die am 19. März 2012 auf WUWT erschien. Und schließlich greifen auch Frank Bosse und Fritz Vahrenholt in ihrer monatlichen Sonnenkolumne immer wieder das Thema der CO2-Klimasensitiität auf (z.B. hier, hier, hier).

Link: http://www.kaltesonne.de/studien-aus-2014-geben-hoffnung-erwarmungswirkung-des-co2-wohl-doch-deutlich-uberschatzt-und-muss-nach-unten-korrgiert-werden/

Dieser Artikel ist zuerst bei „Die Kalte Sonne“ erschienen (siehe Link). Übersetzungen der englischen Passagen durch Chris Frey EIKE




GWPF mit Analyse zur klimatischen ‘Gehirnwäsche’ an britischen Schulen

Bild rechts: Beispiel, wie das Verständnis von Grundschulkindern der anthropogenen globalen Erwärmung erzeugt werden soll. Quelle: Collace Primary School (Wensite perth & Kinross)

Im Folgenden die Kurzfassung der Analyse:

Executive summary

Wir haben Beispiele schwerer Fehler gefunden sowie irreführende Behauptungen und Verzerrungen durch die unzureichende Behandlung von Klimathemen in Lehrmaterialien für Schulen. Darunter sind viele verbreitet genutzte Lehrbücher, Lehrer unterstützende Ressourcen und Schülerprojekte. Wir finden Beispiele von Ökoaktivismus, den man sich an Schulen frei entfalten lässt, und die Schulen ermutigen ihre Schüler dabei mitzumachen. In jedem untersuchten Teilaspekt liegt der Schwerpunkt auf Angsterzeugung und auf zunehmende Befürchtungen, gefolgt von gezielten Anweisungen, wie Schüler leben sollten und auch dazu, was sie denken sollen. In einigen Fällen fanden wir die Ermutigung, „kleine politische Aktivisten“ in Schulen zu werden, was ihnen eine schwere Last von Verantwortung auferlegt für ihre Aktionen zur ,Rettung des Planeten‘, nicht zuletzt dadurch, dass man Druck auf deren Eltern ausübt. Das National Curriculum wurde kürzlich durch die Regierung begutachtet, aber die vorgeschlagenen Änderungen scheinen nicht geeignet, derartige Praktiken zu unterbinden. Umfragen zeigen, dass viele Kinder wütend oder ängstlich sind durch das, was man ihnen bzgl. des Klimageschehens einredet. Lehrer und Administratoren haben weitgehend freie Hand bei der Auswahl der Lehrbücher, anderen Materialien, Referenten von außerhalb und Schülerreisen für Schüler unter der Voraussetzung, dass diese sich entsprechend der auf Linie liegenden Ziele verhalten. Dadurch erhebt sich das Risiko, dass Einige alarmierende und politisch befrachtete Quellen auswählen, um die Kinder für das ,Umweltproblem‘ zu gewinnen. Dieses ,Problem‘ wird oftmals präsentiert durch den Begriff ,Nachhaltigkeit‘, ein kaum definiertes Schlagwort, mit dem politische und persönliche Aktionen gerechtfertigt werden, an denen kaum fundamental Kritik geübt wird. Viele Kampagnen von NGOs und anderer Organisationen mit Interessen wie Energieunternehmen bieten Lehrmaterialien und andere Quellen für den Gebrauch an Schulen an. Einige davon werden vermutlich auch genutzt. Es gibt eindeutig in dieser Hinsicht sehr ernste Bedenken. Wir appellieren daher an den Minister für Bildung in UK sowie an deren Kollegen in Schrottland, Wales und Nordirland, dringende Untersuchungen vorzunehmen hinsichtlich der Klimabildung an unseren Schulen. Nur eine systematische Evaluierung dessen, was da vor sich geht, kann das Ausmaß der Indoktrination erfassen ebenso wie die emotionalen Schäden und Bildungslücken der Schüler, zu denen es zweifellos dadurch kommt.

———————————-

Apropos “The Hockey Stick Illusion”. Ein wichtiges Element der Hockeyschläger-Affäre waren Baumringe, die in kreativer Weise in fragwürdige Klimasignale umgesetzt wurden. Ein Forscherteam um Matthew Salzer von der University of Arizona hat nun eine weitere Bestätigung gefunden, dass die damals verwendeten Baumringdaten krass von der Temperaturentwicklung abwichen. Alles schön nachzulesen in WUWT, Climate Audit und JoNova basierend auf Salzer et al.. Hier die Kurzfassung der Arbeit aus den Enviromental Research Letters, die dort im November 2014 erschien:

Sich ändernde Klimareaktion in Baumringen von Grannenkiefern mit Höhe und Aussehen

In den White Mountains in Kalifornien wurden acht Chronologien aus der Dicke von Baumringen in Grannenkiefern (Pinus longaeva) entwickelt, und zwar von Bäumen an der oberen Baumgrenze und unmittelbar unter der oberen Baumgrenze entlang nach Norden bzw. Süden weisender Querschnitte von der Baumgrenze bis etwa 90 m darunter. Es gibt Beweise für eine auf das Klima reagierende Schicht zwischen etwa 60 und 80 Metern unterhalb der Baumgrenze. Über dieser haben die Bäume bzgl. ihres Wachstums auf die Temperatur reagiert, darunter aber nicht. Chronologien von 80 m oder mehr unter der Baumgrenze zeigen eine Änderung bei den Reaktionen auf das Klima und korrelieren nicht stark mit temperatursensitiven Chronologien, die entwickelt wurden aus Bäumen an der oberen Baumgrenze. Vielmehr spiegeln sie mehr von Niederschlag abhängige Chronologien weiter unten. An den höchsten Stellen wachsen die Bäume auf Südhängen schneller als auf Nordhängen. Hohe Wachstumsraten im Bereich der Baumgrenze auf Südhängen haben seit Mitte der neunziger Jahre abgenommen. Dies zeigt die Möglichkeit, dass die Klimareaktion der höchsten, nach Süden zeigenden Bäume sich geändert haben könnten und dass die Temperatur nicht länger der Hauptfaktor hinsichtlich des Wachstums an Südhängen sein könnte. Diese Ergebnisse zeigen, dass zunehmende Wärme zu einer Divergenz zwischen Wachstum der Bäume und Temperatur führen kann, und zwar an zuvor temperatur-limitierten Stellen.

———————————-

Ein Musikfestival in Würzburg springt auf den Klimwandelzug auf, um seine Existenz zu retten. Im Jahr 2013 wurden die Musikanten vom Hochwasser geschädigt, einem Wetterereignis. Da es für Wetter derzeit kaum Verständnis gibt, wurde das Missgeschick schnell als Klimaschaden umbetitelt und dadurch kräftig Spendengelder eingesammelt. Die Welt berichtete am 5. Dezember 2014:

Der Klimawandel macht dem Würzburger Africa Festival zu schaffen: 2013 wurde es von Hochwasser überrascht, musste abgebrochen werden und herbe Verluste verkraften. Um künftig im Fall von Naturkatastrophen und ähnlichen Notfällen finanziell abgesichert zu sein, hat der Veranstalter nun eine Stiftung gegründet. «Das Wetter wird leider nicht besser, sondern schlechter. Wir müssen uns auf den Klimawandel einstellen», betonte Festivalleiter Stefan Oschmann am Freitag in Würzburg.

Sicher macht es Sinn, ein Musikfestival gegen Wetterrisiken abzusichern. Die hat es immer gegeben und werden auch in Zukunft ihr Unwesen treiben. Aus klimatischer Sicht ist es jedoch ärgerlich, dass hier mit falschen Karten gespielt wird. Siehe unseren Blogbeitrag “Was waren die wahren Hintergründe der mitteleuropäischen Flut 2013?“.

———————————-

Nochmal Die Welt, diesmal vom 7. Dezember 2014:

Greenpeace: Stürme auf Philippinen zeigen Gefahren durch Klimawandel
Die heftigen Stürme auf den Philippinen verdeutlichen nach Ansicht der Umweltschutzorganisation Greenpeace die Bedrohungen durch den Klimawandel. “Die Natur verhandelt nicht”, sagte Greenpeace-Chef Kumi Naidoo am Sonntag bei einem Besuch in dem Land. “Wir müssen einsehen, dass uns die Zeit davon läuft”, ergänzte er.

Tja, da merkt man, dass Naidoo kein Naturwissenschaftler ist, sondern Politikwissenschaften studiert hat. Denn seriöse Forscher erteilen der Behauptung eine Absage und finden keinen Bezug zwischen Taifun Haiyan und dem Klimawandel. Siehe unseren Blogbeitrag “Klimaaktivisten missbrauchen Taifun Haiyan für eigene Zwecke: Studien fanden für die vergangenen Jahrzehnte keine Zunahme der Taifunaktivität“.

———————————-

Ein Lob an die grösste Schweizer Konsumentenzeitschrift, das Migros-Magazin. In einem Gletscherartikel werden im Text Zweifel an der unumkehrbaren IPCC-Schmelzhypothese zugelassen. Es ist schön, dass man Prof. Christian Schlüchter zu Wort kommen ließ, was heutzutage schon als grosser Fortschritt gewertet werden kann. Hier der entsprechende Auszug aus dem Artikel “Im ewigen Eis”, der am 8. Dezember 2014 in Migros erschien:

Obwohl [der Langgletscher] der grösste Gletscher der Alpen ist, könnte er aufgrund der Klimaerwärmung in gut 100 Jahren bereits verschwunden sein. Diese Meinung hat der Glaziologe Martin Funk von der ETH Zürich jedenfalls 2006 gegenüber «10 vor 10» vertreten. Er prognostizierte, dass es in rund 100 Jahren, wenn überhaupt, Gletscher nur noch auf Höhen über 4000 Metern geben könnte. Andere wiederum weisen darauf hin, dass es vorübergehende Gletscherschwunde schon immer gegeben habe. Dazu zählt etwa der Berner Geologe Christian Schlüchter, der im SAC-Magazin «Alpen» kürzlich die These konstatierte, dass es seit dem Ende der letzten Eiszeit vor 12 000 Jahren in den Alpen zwölf Phasen gegeben hätte, in denen die Gletscher deutlich kleiner waren als heute. Hansueli nimmts fatalistisch: «Uns Bergführern bleibt derzeit nichts anderes übrig, als uns den Gegebenheiten anzupassen.»

Das dort angesprochene Interview von Prof. Schlüchter in der SAC-Zeitschrift “Die Alpen” (Nr. 4/2014) ist für Mitglieder per Web abrufbar.

Link: http://www.kaltesonne.de/klimanews5-3/

Beitrag zuerst erschienen auf „Die Kalte Sonne“. Übersetzung der englsichen Passagen von Chris Frey EIKE




Ertappt: Geomar verschweigt in Pressemitteilung bedeutende Schmelzphase des arktischen Meereises in den 1960er Jahren

Bild rechts: Offiziell lieber Gras über die Sache wachsen lassen! Bild: Denise / pixelio.de

Damals kam die Welt gerade aus der Kleinen Eiszeit heraus. Man freute sich über die Wiedererwärmung. Warm war gut. Noch gab es keinen IPCC. So konnte man in der neuseeländischen Zeitung „The Press“ am 8. November 1887 auf Seite 6 doch tatsächlich über die Wikingerfahrten und das stark geschrumpfte Meereis lesen, heute unvorstellbar (mit Dank an Spürfuchs Steve Goddard):

Übersetzung des Textes: Im Gegenteil, die Eisbildung nimmt jährlich zu, falls die Winter streng, lang und dunkel sind.Die Umkehrung dieses Zustandes wurde gefunden durch Berechnungen für das Jahr 1122, und genau zu dieser Zeit fuhren, wie wir wissen, Dänen und andere Skandinavier durch die offenen Gewässer des Arktischen Ozeans.

Sie haben Kolonien gebaut in den nördlichsten Gebieten von Grönland und dem nördlichen Teil Nordamerikas, und zwar lange, bevor Christoph Columbus einen südlicher gelegenen Teil des gleichen Kontinents erreicht hatte. Aber diese Kolonien waren dem Untergang geweiht infolge der wieder zunehmenden Kälte. Im 14. Jahrhundert fand man die Gewässer wieder geschlossen vor, selbst im Sommer. Das Große Nördliche Eisfeld (banquise) nimmt täglich zu, die arktischen Kolonisten sind gezwungen, sich weiter nach Süden zurückzuziehen, und die Kälte nahm wieder Besitz von Gebieten, die einige Jahre lang im 12. Jahrhundert frei waren. Die Überreste jener arktischen Dörfer tauchen jetzt auf bei – wie ich sagen möchte – jeder Arktis-Expedition. Das immer kälter werdende Klima von Island beweist, dass der Zustand der Erde im Verlauf von Jahrhunderten variiert, regelmäßig obiger Theorie folgend.

Aber man muss gar nicht so weit zurückgehen. Auch zwischen 1920 und 1940 ereignete sich eine starke Schmelzphase im Nordpolarmeer. Der ehemalige Hamburger Max-Planck-Direktor Lennart Bengtsson fasste 2004 im Journal of Climate das Wissen über die Warmphase zusammen. Schon damals stellte er den Zusammenhang mit Ozeanzyklen her, die im 60-Jahres-Takt das Klimageschehen beeinflussen. Im Folgenden die Kurzfassung der Arbeit:

Die Erwärmung der Arktis Anfang des 20.Jahrhunderts – ein möglicher Mechanismus

Die gewaltige Erwärmung der Arktis, die Anfang der zwanziger Jahre begonnen hatte und fast zwei Jahrzehnte dauerte, ist eines der spektakulärsten Klimaereignisse des 20.Jahrhunderts. Während der Spitzenperiode 1930-40 stieg die Anomalie der jährlich gemittelten Temperatur zwischen 60°N und 90°N auf etwa 1,7°C. Ob dieses Ereignis ein Beispiel interner Klimaverschiebungen oder extern getrieben ist wie etwa verstärkter solarer Effekte, wird gegenwärtig debattiert. Diese Studie zeigt, dass die natürliche Variabilität ein wahrscheinlicher Grund ist, wobei eine verringerte Meereisbedeckung für die Erwärmung ausschlaggebend war. Eine belastbare Beziehung zwischen Lufttemperatur und Meereis wurde durch einen Satz von vier Simulationen gezeigt mit dem atmosphärischen ECHAM-Modell, berechnet mit gemessenen Wassertemperaturdaten und Meereis-Konzentrationen. Eine Analyse der räumlichen Charakteristika der beobachteten Lufttemperatur Anfang des 20. Jahrhunderts enthüllte, dass diese mit ähnlichen Meereis-Variationen assoziiert war. Weitere Untersuchungen der Variabilität der Lufttemperatur in der Arktis und der Meereisbedeckung wurden durchgeführt mittels Analysen der Daten aus einem gekoppelten Ozean-Atmosphäre-Modell. Durch Analysen von Klimaanomalien in dem Modell, die ähnlich jenen sind, die Anfang des 20.Jahrhunderts auftraten, ergab sich, dass die simulierte Temperaturzunahme in der Arktis verbunden war mit einem verstärkten, durch Wind getriebenen Eindringen von Meerwasser in die Barents-See und einem daran gekoppelten Rückzug des Meereises. Die Größenordnung des Eindringens ist abhängig von der Stärke der Westwindströmung in die Barents-See. Diese Studie zeigt einen Mechanismus, der die verstärkten Westwinde durch eine zyklonale atmosphärische Zirkulation in der Barents-See aufrecht erhält. Auslöser für diese Zirkulation war ein starker oberflächennaher Wärmefluss über den eisfreien Gebieten. Messdaten zeigen eine ähnliche Abfolge von Ereignissen während der Erwärmung der Arktis Anfang des 20. Jahrhunderts, einschließlich verstärkter Westwinde zwischen Spitzbergen und Norwegen, reduzierter Meereisbedeckung und verstärkter zyklonaler Aktivität über der Barents-See. Gleichzeitig hatte sich die nordatlantische Oszillation abgeschwächt.

In der Presse liest man über diese Schmelzphase heute recht wenig. IPCC-nahe Wissenschaftler wollen uns glauben lassen, dass es in den letzten 150 Jahren angeblich nur einen einzigen Trend gibt, nämlich den stetig-schleichenden Tod des arktischen Meereises. So erschien im Dezember 2013 im Fachmagazin PNAS eine Rekonstruktion der arktischen Meereisbedeckung für die vergangenen 650 Jahre mithilfe von arktischen Algen. Die Studie wurde angeführt von Jochen Halfar von der University of Toronto. Auch das Kieler Geomar war in Person von Steffen Hetzinger an der Arbeit mit beteiligt. Bereits am 19. November 2013 gab daher das Geomar im Rahmen einer Pressemitteilung bekannt:

Seit dem Ende der Eiszeit um 1850 herum zeigt das Archiv der Rotalge einen kontinuierlichen Rückgang der Eisschicht, der bis heute andauert. Dieser Rückgang ist stärker, als wir jemals zuvor in der 650 Jahre langen Rotalgen-Zeit beobachten konnten.“

Der österreichische Standard fing den Klimaalarm-Ball sogleich auf und informierte seine Leser:

Ein Team von internationalen Forschern hat erstmals die Entwicklung des Meereises in der Arktis bis ins Mittelalter zurück verfolgt. Dabei fanden die Wissenschafter von der Universität Göttingen unter anderem heraus, dass die Eisdecke seit Mitte des 19. Jahrhunderts kontinuierlich schmilzt. Geholfen haben ihnen dabei Rotalgen, die die Klimageschichte der letzten Jahrhunderte gleichsam konservierten. Bislang reichten die Daten von Satelliten über die Arktis nur bis in die späten 1970er-Jahre zurück.

Unter dem Wort „kontinuierlich“ stellt man sich vor, dass das Eis immer weiter abschmilzt, ohne größere zwischengeschaltete Wachstumsphasen des Eises. Nun werden sich die wenigsten Leser die Mühe gemacht haben, die Originalarbeit durchzulesen. Die Autoren werden in ihrer Pressemitteilung doch sicher nur die Wahrheit und nichts als die Wahrheit berichtet haben, oder? Der Blick in die Publikation bringt dann jedoch eine bittere Enttäuschung. In Abbildung 2b der Arbeit ist nämlich die Entwicklung der Meereiskurve für Neufundland für die vergangenen 150 Jahre detailliert dargestellt (Abbildung 1). Das Ergebnis: In den 1960er Jahren in der Vor-Satellitenzeit war das Meereis schon einmal so stark geschrumpft war wie heute. In der Pressemitteilung wird dieser unbequeme Umstand doch glatt verschwiegen.

Abbildung 1: Die blaue Kurve gibt die Entwicklung des Meereises vor Neufundland für die vergangenen 150 Jahre wieder. Ausschlag nach oben markiert Schrumpfen, Ausschlag nach unten Zuwachs. Quelle: Halfar et al 2013.

In der Arbeit selber erklären die Autoren die Entwicklung sogar korrekterweise mit dem Einfluss der atlantischen Ozeanzyklen:

Modellstudien haben gezeigt, dass die NAO einen Einfluss auf die räumliche Verteilung winterlichen Meereises ausübt mittels windgetriebener Anomalien der Meereis-Geschwindigkeit, vertikalem Wärmefluss von der Oberfläche und möglicherweise einem horizontalen ozeanischen Wärmefluss. Es gibt starke Beweise aus Beobachtungen, dass die Meereisverteilung in der Arktis verbunden ist mit dem positiven NAO-Trend von den sechziger bis Anfang der neunziger Jahre.

In der Geomar-Pressemitteilung wird die zyklische Natur des Meereises ebenfalls mit keinem Wort erwähnt. Eine bewusste Irreführung der Öffentlichkeit. Weder schrumpfte das Eis „kontinuierlich“, noch spielt CO2 die einzige Rolle, wie die Forscher uns weismachen wollen. Ob Steffen Hetzinger weiß, was er da tut? Er ist ein junger Kerl, der vermutlich noch eine Dauerstelle benötigt und daher das Klimapanik-Spiel mitspielen muss. Hat ihm das Geomar diese Pressemitteilung aufgezwungen oder war es seine eigene Idee, mit dem Klimaalarm kräftig zu punkten? Mit sauberer Wissenschaft hat dies nichts mehr zu tun. Kein guter Start in das Arbeitsleben.

Wie würde die Meereisdiskussion heute aussehen, wenn schon um 1960 mit der systematischen satellitengestützten Vermessung der Meereisdecken begonnen wurde? Bekanntlich starteten die Messungen erst im Jahr 1979. Im ersten IPCC-Bericht von 1990 war man noch naiv-ehrlich und verriet doch glatt, das kurz vor Beginn der Satellitenmessära offenbar deutlich weniger arktisches Meereis existierte als während der späteren Messphase ab 1979 (Abbildung 2). In den späteren IPCC-Berichten ließ man den Beginn der Graphik dann geschmeidig unter den Tisch gleiten.

Abbildung 2: Entwicklung des arktischen Meereises von 1973-1990. Quelle: 1. IPCC-Klimabericht (1990).

Angesichts der oben angeführten Schmelzphase in den 1960er/70er Jahren wundert es doch sehr, dass das Umweltbundesamt mit einer fragwürdigen IPCC-Graphik den Klimaalarm bewirbt, in dem die Schmelze kaum erkennbar ist (Abbildung 3).

Abbildung 3: IPCC-Graphik, die das Umweltbundesamt auf seiner Webseite zur Illustration der arktischen Meereisentwicklung verwendet. Dargestellt ist angeblich die „beobachtete mittlere Ausdehnung des arktischen Sommer-Meereises (Juli-September)“. Originalquelle: IPCC.

Sehr unrecht muss dem Umweltbundesamt sicher die Wiederentdeckung von alten Nimbus-Satellitenbildern gewesen sein, die für die 1960er Jahre große Löcher im arktischen Meereis dokumentieren. Spiegel Online meldete am 4. November 2014:

Bereits am 21. Oktober 2014 hatte Mashable über die unerwarteten Löcher im Nordpolarmeereis berichtet:

Die NIMBUS-Daten bieten die früheste bekannte Sicht auf das Meereis um die Antarktis, was jüngst Schlagzeilen gemacht hat bzgl. eines neuen Rekords hinsichtlich der Eisausdehnung. Gleichzeitig wurden große Brüche im Meereis der Arktis entdeckt an Stellen, an denen man zuvor deren Auftreten nicht erwartet hätte. Die moderne Satellitenaufzeichnung der Eisverhältnisse in Arktis und Antarktis beginnt im Jahre 1979, so dass die hinzugefügten Daten den Wissenschaftlern längerfristige Übersichten vermittelte, die für das Verständnis der derzeitigen Vorgänge wichtig sind … Die Meereisausdehnung in der Arktis war in den sechziger Jahren viel größer als heute, sagte Gallaher, was konsistent ist mit der durch die globale Erwärmung ausgelösten Abnahme des arktischen Meereises. Und doch, selbst in Jahren mit größeren Eisvolumina ortete der Satellit eisfreie Gebiete nahe dem Nordpol mit einem Durchmesser von 200 bis 300 Meilen [ca. 320 bis 480 km]. „Wir fanden Löcher im Eis des Nordpols, die zu finden wir nicht erwartet hatten“, sagte er. „Es ist ein großes Loch“, sagte Garrett Campbell, der auch am NIMBUS-Projekt des NSIDC arbeitet.

Artikel zuerst erschienen bei der „Kalten Sonne“ hier. Übersetzung der englischen Passagen von Chris Frey EIKE




Woher stammen die Gelder der European Science Foundation? Ausschuss des US-Senats beklagt fragwürdige Einflussnahme durch umweltaktivistischen Milliardärsclub

In den USA haben die U.S Environment and Public Works (EPW) Committee Republicans Ende Juli 2014 die Ergebnisse einer Untersuchung veröffentlicht, in der die Geldströme der links-extremen Umweltbewegung recherchiert wurden. Das Resultat ist erschütternd: Angeblich unabhängige Umweltorganisationen entpuppten sich als von Milliardären gesteuerte Marionetten. Zudem flossen enorme staatliche Zuwendungen in Aktivistengruppierungen. Ähnlich wie in Deutschland ist das US-amerikanische Bundesumweltamt in erschreckender Weise eng mit der links-extremen Umweltbewegung verbandelt. Den Gesamtbericht finden Sie als pdf hier. Auszug aus der Pressemitteilung:

The Chain of Environmental Command

Zentrale Punkte des Berichtes u. A.:

Der „Milliardärs-Club“, eine exklusive Gruppe von wohlhabenden Individuen dirigiert die Linksaußen-Umweltbewegung. Die Mitglieder dieses elitären liberalen Clubs kanalisieren ihre Schicksale durch private Stiftungen, um ihre persönliche politische Agenda durchzusetzen, in deren Mittelpunkt die Beschränkung der Verwendung fossiler Treibstoffe in den USA steht.

Öffentliche Wohlfahrtsverbände versuchen, das maximale Maß an Bevorzugung für ihre Spender durch steuerliche Förderung zu sichern. Es sind aber rechtlich bedenkliche Innovationen, die auch nur von linker Seite kommen. Wobei aber diese Wohlfahrtsverbände ihren gemeinnützigen Status einer Gruppe tatsächlich gegen eine Gebühr verkaufen.

Öffentliche Wohlfahrts-Aktivistengruppen propagieren die falsche Vorstellung, dass sie unabhängig sind und als von Bürgern finanzierte Gruppen uneigennützig arbeiten. In Wirklichkeit arbeiten sie eng zusammen mit wohlhabenden Spendern, um die Höhe der steuerbefreiten Spenden zu maximieren. Sie sprechen sich ab hinsichtlich ihrer kombinierten Ressourcen zur Einflussnahme auf Wahlen und politische Entscheidungen mit dem Schwerpunkt auf der EPA

Die Environmental Grantmakers Association EGA ist eine Stelle, an der sich wohlhabende Spender treffen und die Verteilung der Zuwendungen koordinieren, um die Umweltbewegung zu fördern. Die EGA ermutigt zum Gebrauch vorgeschriebener Zuwendungen [EGA encourages the use of prescriptive grantmaking]. Es ist eine verschwiegene Organisation, die es ablehnt, ihre Mitgliederliste dem Kongress vorzulegen

Die Obama-Administration hat unverfroren eine sich grün drehende Tür [a green-revolving door] unter leitenden EPA-Funktionären installiert, welche zu einem wertvollen Aktivposten für die Umweltbewegung und deren wohlhabende Spender geworden ist.

Ehemalige für die EPA arbeitende Umweltaktivisten kanalisieren Geld in Gestalt von Zuwendungen an ihren früheren Arbeitgeber und ihre früheren Kollegen.

Unter Präsident Obama hat die EPA über 27 Millionen Dollar an steuerfinanzierten Zuwendungen an bedeutende Umweltgruppen gezahlt. Im Einzelnen haben der Natural Resources Defense Council (NRDC) und der Environmental Defense Fund (EDF) – zwei zentrale Aktivistengruppen mit bedeutenden Verbindungen zu leitenden EPA-Funktionären – jeweils über 1 Million Dollar an Zuwendung erhalten.

Die EPA fördert auch weniger bekannte Gruppen. Zum Beispiel erhielt die Louisiana Bucket Brigade hunderttausende Dollar unter der ehemaligen Administratorin Lisa Jackson, obwohl staatliche Kontrolleure den Gebrauch derartiger Zuwendungen bereits in Frage gestellt hatten.

In New York und Colorado hat eine Pseudo-Initiative Bemühungen zur Verhinderung von hydraulischem Brechen mit massiven Zuwendungen seitens der in New York ansässigen Park Foundation finanziert, ebenso wie die in Kalifornien ansässigen Schmidt Family Foundation und Tides Foundation.

Nebraska ist ein weiteres Beispiel künstlich geschaffener Basisgruppen, wo eine angeblich lokale Organisation in Wirklichkeit ein Arm des Milliardärs-Clubs ist. Diese Gruppen sind nichts weiter als ein Schutzschild für wohlhabende und nichts mit Nebraska zu tun habende Interessen, die danach trachten, eine politische Agenda voranzubringen, ohne auf die Tatsache aufmerksam zu machen, dass sie ebenfalls Außenstehende sind, die kaum Verbindungen zu diesem US-Bundesstaat haben.

Die Umstände der Geldflüsse von 501(c)(3) und 501(c)(4)-Gruppen und die Wahrscheinlichkeit einer laxen Aufsicht werfen die Frage auf, ob nicht-profitorientierte Foundations und Wohlfahrtsverbände indirekt politische Aktivitäten finanzieren.

Der Green Tech Action Fund erhält Millionen Dollar von grünen Organisationen und verteilt diese Gelder an andere Gruppen, die dann für politische Kampagnen spenden.

Der Milliardärs-Club arbeitet wissentlich mit fragwürdigen Finanziers der Offshore-Aktivitäten zusammen, um die Unterstützung für die Linksaußen-Umweltbewegung zu maximieren.

In Europa wird die links-extreme Klimabewegung durch die European Climate Foundation (ECF) gesteuert. Laut eigenem Jahresabschlussbericht (S. 42), hatte die ECF im Jahr 2013 üppige 23,2 Millionen Euro zur Verfügung. 15,3 Millionen Euro gingen an Aktivisten und Projekte. Woher kommen bloß diese enormen Gelder? Bei der kalten Sonne beläuft sich das Jahresbudget auf etwa 25 Euro.  Die ECF hat also ca. eine Millionen mal mehr Gelder für ihre Aktionen zur Verfügung als unser Blog.

Die ECF führt auf ihrer Webseite sechs Hauptsponsoren für 2013 auf: The Children’s Investment Fund Foundation, ClimateWorks Foundation, McCall Macbain Foundation, Oak Foundation, Velux Fonden und die Nationale Postcode Loterij. Das hört sich zum Teil ziemlich amerikanisch an. Lesen wir daher im EPW-Bericht auf Seite 47 etwas näher nach:

Aktivisten-Organisationen dienen als Passier-Organe, die zusätzlichen Einfluss durchsetzen, während sie diverse Unterstützungen erzeugen.

Die Energy Foundation ist ein primäres Beispiel eines öffentlichen „Durchreich“-Wohlfahrtsverbandes, welcher massive Zuwendungen von privaten Foundations erhält. Die Energy Foundation fördert dann eine ganze Palette von Aktivisten-Organisationen. Im Gegensatz zu einem Geldgeber, der eine Abgabe zum Geldsammeln bewertet im Namen unerkannter Gruppen, verteilt eine „Durchreich“-Foundation Geld an bekannte Wohlfahrtsverbände. Die Energy Foundation wurde gegründet als als eine solche Passier-Organisation mit einer Aussteuer von 20 Millionen Dollar, gespendet von den Pew Charitable Trusts, der Rockefeller-Foundation und der John D. & Catherine T. MacArthur Foundation. Gegenwärtig werden auf der Website der Energy Foundation die folgenden Partner gelistet: ClimateWorks Foundation, Children’s Investment Fund Foundation, David and Lucile Packard Foundation, Grantham Foundation, Lakeshore Foundation, The McKnight Foundation, Oak Foundation, Pisces Foundation, Robertson Foundation, Schmidt Family Foundation, Tilia Fund, TomKat Fund, TOSA Foundation, The William and Flora Hewlett Foundation und Yellow Chair Foundation.

In den USA dient die ‘Energy Foundation’ als Geldsammel- und Durchreicheplatz. Von Milliardären kontrollierte kleinere Stiftungen pumpen Geld in die Foundation, von wo die Mittel dann an die Aktivistenprojekte verteilt werden. Auf dem alten Kontinent wurde mit der European Climate Foundation offenbar nun ein europäisches Pendant zur Energy Foundation geschaffen. Gleich drei US-Stiftungen sind bei der ECF als Hauptsponsoren aktiv, ClimateWorks Foundation, Children’s Investment Fund Foundation und Oak Foundation. Offensichtlich wollte man hier von den USA ausgehend ein weltweites Klimaaktivisten-Netzwerk schaffen, um die globale Energiepolitik zu beeinflussen.

Wo gehen die vielen ECF-Gelder eigentlich konkret hin? Auf der ECF-Webseite heißt es dazu:

Beispiele für geförderte Projekte
Mehr in kürze!

Das ist schon etwas dürftig und geheimnisvoll, wenn man bedenkt, dass die ECF bereits 2008 gegründet wurde, also vor 6 Jahren. An anderer Stelle der Webseite lässt man die Katze dann doch ein Stück weit aus dem Sack:

Die ECF fördert in Deutschland eine Vielzahl an zivilgesellschaftlichen Akteuren, zum Beispiel den WWF, den Naturschutzbund (NABU), die Deutsche Umwelthilfe (DUH), Germanwatch, das Forum Ökologisch-Soziale Marktwirtschaft und die Klima-Allianz. Außerdem unterstützen wir progressiv eingestellte Unternehmensorganisationen, wie etwa die Stiftung 2° und die Deutsche Unternehmensinitiative Energieeffizienz e. V. (DENEFF).

Der WWF stellt bekanntlich eines der Hauptprobleme in der transparenten Klimaberichterstattung des IPCC dar, hatte es die Organisation doch in der Vergangenheit geschafft, eine Vielzahl von WWF-Aktivisten in das IPCC-Autorenteam einzuschleusen. Anstatt ergebnisoffen die wischenschaftliche Faktenlage zu berichten, ging es dem WWF-Team vor allem darum, eine Gefahrenkulisse aufzubauen, um das Ziel der Eliminierung der Kohlenwasserstoff-Energieträger durchzuknüppeln. Die kanadische Journalistin Donna Lafromboise beschrieb das ganze Ausmaß der IPCC-Unterwanderung durch Umweltaktivisten in einem Beitrag im September 2013 im Wall Street Journal:

Das Problem ist, dass viele IPCC-Mitarbeiter Verbindungen zu Umweltgruppen haben, von denen viele durch den vermeintlichen Hype um die Gefahr der Klimaänderung Geld einsammeln. Diese Beziehungen wirft die legitime Frage nach ihrer Objektivität auf. Die Beispiele sind eine Legion. Donald Wuebbles, einer der beiden Leitautoren des einführenden ersten Kapitels der Arbeitsgruppe 1, hatte ein Jahrzehnt lang Alarmstimmung erzeugende Berichte zur Klimaänderung für die aktivistische Union of Concerned Scientists geschrieben. Ein weiteres Kapitel des Gesamt-IPCC-Berichtes über „offene Ozeane“ wird geleitet durch den australischen Meeresbiologen Ove Hoegh-Guldberg, der eine Reihe von Berichten geschrieben hat mit Überschriften wie „Pazifik in Gefahr“ für Greenpeace und den World Wildlife Fund WWF.

Der Astrophysiker Michael Oppenheimer, verantwortlich für ein anderes Kapitel im IPCC-Bericht über „steigende Risiken und Schlüssel-Verwundbarkeiten“, berät den Environmental Defense Fund (nachdem er über zwei Jahrzehnte lang auf dessen Gehaltsliste stand). Der Wissenschaftler Richard Moss von der University of Maryland ist ein ehemaliger Vollzeit-Vizepräsident des WWF, während Jennifer Morgan die leitende WWF-Sprecherin bzgl. Klimawandel ist. Beide sind gegenwärtig IPCC-Herausgeber von Begutachtungen – eine Position, die eigentlich sicherstellen soll, dass Feedbacks von externen Begutachtern angemessen berücksichtigt werden. Meine eigene Untersuchung des IPCC-Berichtes 2007 ergab, dass unter den Autoren von zwei Dritteln der 44 Kapitel darin zumindest ein Autor mit Verbindungen zum WWF war. Einige waren ehemalige Mitarbeiter oder sind es noch, andere waren Mitglied des Beratungsgremiums beim WWF, dessen Ziel es war, den Sinn für Dringlichkeit in der Öffentlichkeit um die Klimaänderung zu erhöhen.

Letztendlich fördert die ECF auch diese dubiosen Aktivitäten, obwohl die Aufgabe des IPCC eigentlich eine neutrale wissenschaftliche Darstellung und Abwägung sein sollten, unabhängig von der politischen Sichtweise. Es verwundert kaum, dass auch Projekte beim Potsdamer PIK-Institut durch die ECF gefördert wurden, wie der Förderliste zu entnehmen ist. An einer wirklichen wissenschaftlichen Aufarbeitung des Klimaproblems scheint man bei der ECF nicht interessiert zu sein. Ansonsten hätte sich die Stiftung wohl bereits beim kalten-Sonne-Team gemeldet, um dort wegen Förderung von Projekten zu natürlichen Klimafaktoren wie Ozeanzyklen und solaren Aktivitätsschwankungen anzufragen. Unser Kontaktformular ist übrigens hier.

Link: http://www.kaltesonne.de/?p=20772

Bericht zuerst erschienen bei www.kaltesonne.de. Übersetzung der englischen Auszüge (kursiv) von Chris Frey EIKE




Neue Studie der State University of New York bestätigt Svensmark-Effekt: Wolkenkondensationsskeime durch solare Aktivitätsschwankungen beeinflusst

Dem IPCC und seinen Anhängern schmeckte dies natürlich gar nicht. Man ignorierte die Ergebnisse so gut man konnte, sperrte Fördermittelströme ab und schrieb fleißig Gegenstudien, in denen das angebliche Fehlen des Svensmark-Zusammenhangs belegt werden sollte. Über die Gegenstudien wird in der Presse gelegentlich berichtet. So schrieb der Journalist und IPCC-Freund Christopher Schrader im Oktober 2013 in der Süddeutschen Zeitung einen Artikel mit dem mutigen Titel “Kosmische Strahlung beeinflusst Klima kaum“. Allerdings hatte Schrader da die eine oder andere Kleinigkeit übersehen.

Im April 2014 erschien nun in den Environmental Research Letters ein Fachartikel, der wichtige Hinweise auf die Gültigkeit des Svensmark-Effekts liefert. Fangqun Yu und Gan Luo vom Atmospheric Sciences Research Center der State University of New York fanden dabei jedoch auch, dass sich die Wolkenkondensationskeime in der Reaktion auf die komische Strahlung bzw. Sonnenaktivitätsschwankungen stark differenziert verhielten, je nach atmosphärischem Höhenstockwerk, Erdhalbkugel und Jahreszeit. Zudem ist der Effekt wohl sehr viel stärker als in früheren Studien behauptet. Hier die Kurzfassung der Arbeit:

Auswirkungen solarer Variationen auf die Bildung von Partikeln und Wolken-Kondensationskernen

Der Einfluss solarer Variationen auf die Bildung von Partikeln und Kondensationskernen für Wolken (CCN), einem kritischen Schritt für einen der möglichen indirekten Klimaantriebe durch die Sonne, wird hier untersucht mit einem globalen Aerosol-Modell, optimiert für die Simulation detaillierter Partikelbildung und deren Wachstum. Der Einfluss der Temperaturänderung infolge Verstärkung des solaren Zyklus‘ hinsichtlich des CCN-Signals wird hier zum ersten Mal untersucht. Unsere globalen Simulationen zeigen, dass eine Abnahme der Ionisierungs-Rate im Zusammenhang mit Änderungen des Flusses galaktischer Strahlung vom solaren Minimum zum solaren Maximum die mittlere jährliche Kernbildungsraten reduziert. Das gilt auch für die Anzahl der Kondensationskerne größer als 10 nm und die Konzentration von CCN bei einem Wasser-Übersättigungs-Verhältnis von 0,8% (CCN0,8) und 0,2% (CCN0,2) in der unteren Troposphäre jeweils von 6,8%, 1,36%, 0,74% und 0,43%. Die Einbeziehung eines Temperaturanstiegs von 0,2°C verstärkt die solaren CCN-Signale um etwa 50%. Die jährlichen mittleren solaren CCN-Signale weisen große räumliche und jahreszeitliche Schwankungen auf: (1) sie sind stärker in der unteren Troposphäre, wo sich warme Wolken bilden, (2) sie sind auf der Nordhemisphäre um etwa 50% größer als auf der Südhemisphäre und (3) sie sind um etwa einen Faktor 2 größer während der korrespondierenden Sommer-Jahreszeiten. Die Auswirkung der Durchdringung des solaren Zyklus‘ auf CCN0,2, auf der diese Studie basiert, ist generell höher als in Studien zuvor angegeben, und zwar bis zu einer Größenordnung.

Link: http://www.kaltesonne.de/?p=18111

Englischer Abschnitt übersetzt von Chris Frey EIKE.

Der Original-Artikel war erstmals bei der kalten Sonne  erschienen.




Tausend Jahre Dürregeschichte der USA: …

Im Sommer 2012 schlug in den USA eine heftige Dürre zu. Der Focus griff das Thema damals auf und sprach mit dem Greenpeace-„Experten“ Karsten Smid über die Dürre. Der Untertitel des Beitrags gibt zunächst Hoffnung:

Dürren gab es schon immer in den USA oder Südeuropa.

Sollte Greenpeace wirklich seine Hausaufgaben gemacht haben und den historischen Dürrekontext endlich in die Argumentation aufgenommen haben? Leider nein. Gleich im ersten Satz des Beitrags enttäuschen der Focus und Greenpeace:

Dürren gab es schon immer in den USA oder Südeuropa. Nicht aber so oft.

Das ist nachweislich falsch. Im gestrigen Beitrag analysierten wir die US-Dürregeschichte der letzten 100 Jahre, in der keine Anstieg der Dürrehäufigkeit zu erkennen ist. Focus und Greenpeace liegen falsch. Vermutlich wissen sie dies sogar und hoffen, dass es die Leser nicht merken. Dazu passt auch die klimareligiöse Wortwahl im Haupttitel des Beitrags:

,,Die Prophezeiungen bewahrheiten sich“

Was sagt die seriöse Wissenschaft dazu? Als das US-Dürrejahr 2012 vorbei war, veröffentlichten Cook et al. im Journal auf Climate eine Studie, die man dem Focus gerne als Lektüre empfehlen würde. Die Forscher zeigen in ihrem Artikel, dass es während der Mittelalterlichen Wärmeperiode in den südlichen USA gehäuft zu Mega-Dürren gekommen ist, die sich über mehrere Jahrzehnte hinzogen. Hier die Kurzfassung:

Regionale Dürren treten in Nordamerika immer wieder auf, aber Dürren, die sich über den gesamten Kontinent und viele Gebiete erstrecken einschließlich der Dürre des Jahres 2012, sind relativ zu Einzelereignissen selten. Hier wird der aus Baumringen abgeleitete nordamerikanische Dürre-Atlas verwendet, um die Variabilität von Dürren in vier Regionen im vorigen Jahrtausend zu untersuchen mit dem Schwerpunkt auf pan-kontinentalen Dürren. Während der Mittelalterlichen Klima-Anomalie (MCA) gab es in den Ebenen des Mittleren Westens (CP), im Südwesten (SW) und Südosten (SE) trockenere Bedingungen und ein gehäuftes Auftreten von Dürren. Dem gegenüber gab es im Nordwesten (NW) viele verstärkte Regenzeiten [Pluviale]. Eine verstärkte MCA-Aridität im SW und in den CP manifestierte sich als multidekadische Mega-Dürre. Mega-Dürren in diesen Regionen unterschieden sich merklich hinsichtlich Timing und Dauer. Dies zeigt, dass sie regionale Ereignisse repräsentieren, beeinflusst durch lokale Dynamik und nicht so sehr durch ein einheitliches Phänomen im kontinentalen Maßstab. Es gibt keinen Trend im Auftreten von pan-kontinentalen Dürren, die definiert sind als gleichzeitige Dürren in drei oder mehr Regionen. Dürren in SW+CP+SE sind am häufigsten. Sie kommen in 12% aller Jahre vor und erreichten hinsichtlich des Auftretens im 12. und 13. Jahrhundert ein Maximum. Bezieht man noch drei andere Regionen mit ein, kommt es in 8% aller Jahre zu Dürren. Positive Werte des Southern Oscillation Index SOI (La Niña-Bedingungen) stehen in Beziehung zu Dürren in SW+CP+SE sowie in SW+CP+NW. Dürren in CP+NW+SE hingegen sind verbunden mit positiven Werten der Pacific Decadal Oscillation PDO und der Atlantic Decadal Oscillation AMO. Während relativ seltene pan-kontinentale Dürren in Paläo-Aufzeichnungen erkennbar und mit definierten Zuständen der Klima-Variabilität verbunden sind, implizieren sie das Potential für jahreszeitliche Vorhersagbarkeit. Unter der Annahme stabiler Dürre-Querverbindungen werden diese Ereignisse ein wichtiges Feature des zukünftigen Hydroklimas in Nordamerika bleiben, möglicherweise in ihrer Intensität im Gleichschritt mit anderen erwarteten Folgen für das Hydroklima infolge eines zunehmenden Antriebs durch Treibhausgase.

Das Fachmagazin Nature fand die Studie so interessant, dass auch sie über die Arbeit im Konkurrenzblatt berichtete.

Eine weitere Studie zur nordamerikanischen Dürregeschichte erschien Mitte 2013 in PNAS von Asmerom et al. Interessanterweise beschreiben diese Autoren eine langanhaltende Mega-Dürre, die sich über drei Jahrhunderte in der Kleinen Eiszeit abspielte. Yemane Asmerom und Kollegen sehen einen Zusammenhang mit der geringen Sonnenaktivität zu dieser Zeit, die den Monsun verändert habe. Hier die Kurzfassung:

Das Klima des späten Holozäns im westlichen Nordamerika war gekennzeichnet durch Perioden verstärkter Aridität, Mega-Dürren genannt. Diese Dürren standen in Zusammenhang mit niedrigen Wassertemperaturen im östlichen tropischen Pazifik. Hier zeigen wir sowohl die kurz- als auch die langfristige Variabilität des Klimas während der letzte 1500 Jahre, abgeleitet aus der jährlichen Bandbreite und stabiler Isotopen-Daten. Viele Mega-Dürren treten hervor, einschließlich eine über mehrere Jahrhunderte, und zwar etwa von 1350 bis 1650, hiernach als Super-Dürre bezeichnet. Sie war gerade in der kältesten Phase der Kleinen Eiszeit aufgetreten. Synchronizität zwischen dem südwestlichen Nordamerika, dem Niederschlag im chinesischen und westafrikanischen Monsun zeigt, dass die Mega-Dürren der Größenordnung nach hemisphärisch aufgetreten waren. Die Stärke des nordhemisphärischen Monsuns während des vorigen Jahrtausends ist positiv korreliert mit der Temperatur der Nordhemisphäre und der Wassertemperatur im Nordatlantik. Die Mega-Dürren traten bei einer Wassertemperatur und bei einer Temperatur der Nordhemisphäre auf, die kälter als im Mittel waren. Außerdem korrelieren die Mega-Dürren einschließlich der Super-Dürre mit Minima der solaren Einstrahlung. Dies zeigt, dass der solare Antrieb der Wasser- und der atmosphärischen Temperaturen Variationen der Stärke von Monsunen auf der Nordhemisphäre auslösen kann. Unsere Ergebnisse scheinen zu belegen, dass stärkere (nassere) nordhemisphärische Monsune mit zunehmender Erwärmung auftreten.

Im März 2013 war in den Geophysical Research Letters zudem eine Arbeit von Griffin et al. erschienen, in der anhand von Baumringen die Dürreentwicklung in den südwestlichen USA untersucht wurde. Ähnlich wie Asmerom et al. fanden auch Daniel Griffin und sein Team in den letzten 5 Jahrhunderten etliche Dürreperioden, die sich jeweils über mehrere Jahrzehnte hinzogen. Sowohl der sommerliche Monsunregen als auch der Winterniederschlag war damals zurückgegangen, schreiben die Autoren. Die historischen Dürren aus der Kleinen Eiszeit waren dabei heftiger als sämtliche Dürren der heutigen modernen Mess-Ära. Hier die Kurzfassung der Arbeit (siehe auch dazugehörige Pressemitteilung):

Der nordamerikanische Monsun ist ein wesentlicher Brennpunkt moderner und paläoklimatischer Forschung, aber über zwischenjährliche Änderungen bzw. solchen von Jahrzehnt zu Jahrzehnt der Monsun-Feuchtigkeit, also über die Variabilität in vorinstrumenteller Zeit ist wenig bekannt. Diese Studie basiert auf einem neuen Netzwerk von Baumring-Chronologien und zeigt eine 470-jährige Rekonstruktion des Monsun-Niederschlags (Juni bis August) standardisiert für das südwestliche Nordamerika. Ein Vergleich mit einer unabhängigen Rekonstruktion während der kalten Jahreszeit (Oktober bis April) hinsichtlich standardisierter Niederschlagsmengen zeigt, dass dekadische Dürren im Südwesten während der letzten fünf Jahrhunderte nicht nur durch Niederschlagsdefizite während der kalten Jahreszeit charakterisiert waren, sondern auch durch eine gleichzeitige Abschwächung des Sommermonsuns. In der Vergangenheit identifizierte Monsun-Dürren waren stärker und persistenter als zu jeder Zeit in der Instrumenten-Ära. Die Relation zwischen Winter- und Sommerniederschlag ist schwach und zeitlich nicht stabil. Jahre mit jahreszeitlichen Niederschlagsanomalien mit entgegengesetztem Vorzeichen traten, wie schon in anderen Studien erwähnt, ungewöhnlich häufig von Mitte bis Ende des 20. Jahrhunderts auf.

Einige Monate später publizierte dieselbe Forschergruppe im Fachblatt Climatic Change eine weitere Dürrestudie, die sich diesmal auf das nordöstliche Arizona beschränkte. Das Autorenteam um Faulstich et al. 2013 zeigte erneut, dass die Dürren aus der vorindustriellen Phase um einiges schlimmer ausfielen als in den letzten Jahrzehnten. Die Dürre des letzten Jahrzehnts im Reservat der Hopi und Navajo Indianer muss aus wissenschaftlicher Sicht in diesem langfristigen Kontext gesehen werden, sagen die Autoren. Hier die Kurzfassung der Arbeit:

Seit über einem Jahrzehnt haben die Hopi- und die Navajo-Indianer im Nordosten Arizonas die Auswirkungen persistenter Dürrebedingungen gespürt. Schwere Trockenzeiten haben natürliche Ökosysteme auf kritische Weise beeinflusst, ebenso Wasservorräte und die regionalen Lebensgrundlagen einschließlich von Ackerbau und Viehzucht auf Trockenland. Die Dürreplanungen sowie das Management der Ressourcen in der Region basieren größtenteils auf Aufzeichnungen während der Instrumenten-Ära, in der es nur eine begrenzte Anzahl schwerer, nachhaltiger Dürren gab. In dieser Studie bietet ein neues Netzwerk feuchte-sensitiver Baumring-Chronologien die Basis für eine Evaluierung längerzeitlicher temporärer Variabilität des Niederschlags im Gebiet Four Corners [mehr zum Gebiet Four Corners siehe hier]. Mittels Analysen der Jungholz- und Altholz-Komponenten innerhalb jedes Jahresringes waren wir in der Lage, separate, Jahrhunderte lange Rekonstruktionen des Niederschlags sowohl in der warmen als auch in der kalten Jahreszeit zu erstellen. Diese Proxy-Aufzeichnungen bieten neue Einsichten in die jahreszeitlichen Charakteristiken von Dürren und zeigen, dass es während der Instrumenten-Ära nicht möglich war, die Variabilität des Niederschlags während der letzten 400 Jahre angemessen zu repräsentieren. Durch die Methode der Verwendung zweier unterschiedlicher Analysen identifizieren wir Dürreereignisse im Jahre und Jahrzehnte langen Maßstab, die schlimmer waren als in der modernen Ära. Außerdem zeigen die Rekonstruktionen, dass viele der historisch signifikanten Dürren in der Vergangenheit (z. B. die Pueblo-Dürre im 17. Jahrhundert) nicht nur Winterphänomene waren, sondern auch über den Sommer hinweg andauerten. Indem wir diese Proxy-Aufzeichnungen mit historischen Dokumenten verglichen, waren wir auch in der Lage, die Rekonstruktionen unabhängig zu evaluieren und die sozio-ökonomische und umweltliche Bedeutung der Klima-Anomalien in der Vergangenheit für die Stämme im nordöstlichen Arizona besser zu verstehen.

Stöbern wir weiter in der umfangreichen Literatur zur nordamerikanischen Dürrehistorie, die den deutschen Medienvertretern offenbar gänzlich unbekannt ist. Im Jahr 2012 erschien in den Environmental Research Letters eine Dürrstudie von Pederson et al., in der das Geschehen für den Südosten der USA für die vergangenen 400 Jahre auf Basis von Baumringen rekonstruiert wird. Auch diese Gruppe fand lang anhaltende Dürren während der Kleinen Eiszeit, wobei das späte 20. und frühe 21. Jahrhundert zu den feuchtesten Episoden der letzten vier Jahrhunderte gehörten. Hier die Kurzfassung der Arbeit:

Die Intensität der Dürre im humiden Südosten der USA von 2006 bis 2009 hat viele städtische Gebiete nur mit Wasservorräten über 60 bis 120 Tage zurück gelassen. Um die Dürre-Variabilität dieses Gebietes in eine langzeitliche Perspektive einzubinden, wird ein dichtes und diverse Bäume umfassendes Netzwerk von Baumringdaten verwendet – einschließlich der ersten Aufzeichnungen im Apalachicola-Chattahoochee-Flint River-Becken – um Dürren von 1665 bis 2010 zu rekonstruieren. Das Netzwerk erfasst bis zu 58,1% der jährlichen Varianz von Dürren in der warmen Jahreszeit während des 20. Jahrhunderts und umfasst auch nasse Zeiten zur Mitte und zum Ende des 20. Jahrhunderts. Die Rekonstruktion zeigt, dass die gegenwärtigen Dürren während der letzten 346 Jahre keine Ausnahme sind. Tatsächlich war es zwischen 1696 und 1820 häufiger zu deutlich längeren Dürren gekommen. Unsere Ergebnisse zeigen, dass der Zeitraum, in dem lokale und staatliche Entscheidungen zur Wasserversorgung entwickelt worden waren, während der Instrumenten-Ära zu den nassesten Zeiten seit mindestens 1665 gehört. Angesichts des fortgesetzten Wachstums und der daraus folgenden industriellen, landwirtschaftlichen und städtischen Entwicklung im gesamten Südosten zeigen die Resultate des Paläo-Hydroklimas, dass die Bedrohung durch Wasser betreffende Konflikte in der Region das Potential hat, während der folgenden Jahrzehnte intensiver zu werden.

Weiter geht‘s mit Woodhouse et al. 2013 im Fachblatt Water Resources Research. Mithilfe von Baumringen wird in dieser Arbeit die Dürregeschichte des Rio Grande Beckens in den südlichen USA rekonstruiert. Wiederum werden langanhaltende Dürren aus der Kleinen Eiszeit berichtet. Die Autoren zeigen, dass die Dürre der letzten 12 Jahre im Rio Grande Becken Neumexikos in diesem historischen Kontext keineswegs ungewöhnlich sei. Hier die Kurzfassung der Arbeit:

Landwirtschaft und Viehzucht in semiariden Gebieten hängt oftmals von lokalem Niederschlag während der Wachstumsphase und von Abflüssen aus entfernt liegenden natürlichen Reservoiren ab. Wo Schneedecke und Speicherung wichtig sind, führen diese Bedingungen zu Verwundbarkeit während einer Dürre über mehrere Jahreszeiten. Das Becken des unteren Rio Grande in New Mexico, das hier für eine Fallstudie herangezogen wurde, litt während der letzten 12 Jahre unter Dürre-Bedingungen, charakterisiert sowohl durch geringen sommerlichen Monsun-Niederschlag und durch reduzierten Oberflächen-Wasserabfluss aus dem oberen Rio Grande. Um diese Dürre in einen langzeitlichen Zusammenhang zu stellen, evaluieren wir die Ko-Variabilität der lokalen warmen Jahreszeit und dem Hydroklima der kalten Jahreszeit sowohl in moderner Zeit als auch während vergangener Jahrhunderte. Wir beziehen uns auf ein jüngst entwickeltes Netzwerk von Baumringdaten, das es uns erlaubt, die Variationen des Niederschlags während der warmen Jahreszeit in der vorinstrumentellen Ära im Südwesten abzuschätzen. Sowohl instrumentelle als auch paläoklimatische Daten zeigen, dass ein geringer Abfluss, gefolgt von einem trockenen Monsun, nicht ungewöhnlich ist, obwohl im gesamten Zeitraum der Rekonstruktion (1659 bis 2008) Jahre mit trockenen bzw. nassen Bedingungen in beiden Jahreszeiten nicht signifikant öfter aufgetreten sind als mit entgegengesetztem Vorzeichen. Niedrige Abflüsse mit einem nachfolgenden trockenen Monsun traten am häufigsten in den siebziger und achtziger Jahren des 18. Jahrhunderts auf. Andere der Aufmerksamkeit würdige Perioden mit Dürren in beiden Jahreszeiten gab es in den sechziger Jahren des 17. Jahrhunderts und in den fünfziger Jahren des vorigen Jahrhunderts. Die jüngste Dürre scheint noch nicht ungewöhnlich ernst zu sein, weder im instrumentellen noch im paläoklimatischen Zusammenhang.

Anhand von Seensedimenten untersuchten Lascu et al. 2012 die Dürren der letzten 1000 Jahre in Minnesota. Die Arbeit erschien in Palaeogeography, Palaeoclimatology, Palaeoecology. Ioan Lascu und Kollegen fanden eine Reihe von Dürrephasen, die schwerste und langanhaltendste davon während der späten Kleinen Eiszeit. Hier die Kurzfassung der Arbeit:

Dürren sind wiederkehrende Ereignisse in Sediment-Aufzeichnungen an Präriewäldern in den nördlichen USA. Es ist daher wichtig, die Dauer dieser Ereignisse zu verstehen ebenso wie ihre Schwere und die Konsequenzen jenseits der Instrumenten-Aufzeichnungen seit 100 Jahren. Die bestehenden Dürre-Aufzeichnungen können vervollständigt werden mit zusätzlichen Proxys, die klar die Wechselwirkungen dokumentieren zwischen externen Faktoren und der Umgebung der Ablagerungen. Hier versuchen wir, die Dürre-Historie des Deming-Sees während des vorigen Jahrtausends zu rekonstruieren, einem kleinen See in den Wäldern Minnesotas, und zwar mittels Sediment-Magnetismus. Im Einzelnen ermöglicht es uns dieses Vorgehen, die Wechselwirkungen zu erforschen zwischen dem See und der Umgebung; und auch die Hypothese zu testen, dass Perioden moderater Aridität zu einem abnehmenden Sediment-Transport aus dem Einzugsgebiet zum See führen als Konsequenz reduzierter Erosion und dem reduzierten Abfluss über Land. Übereinstimmend dazu fanden wir heraus, dass die Massenanteile organischer, im See gewachsener Materie und biogenische magnetische Partikel während trockener Perioden zunehmen relativ zu biotopfremden Anteilen. Wir identifizieren viele Perioden von Trockenheit am Deming-See, die konsistent sind mit bestehenden regionalen Dürre-Rekonstruktionen. Die längste Dürreperiode trat zum Ende der Kleinen Eiszeit auf, was zeigt, dass die zweite Hälfte dieser Kaltzeit trockener war als ursprünglich gedacht.

Nun zu Booth et al. 2012 im Fachblatt Ecology der Ecological Society of America. Die Autoren gingen der Frage nach, wie sich die Mittelalterliche Wärmperiode auf das Dürregeschehen an den Großen Seen Nordamerikas auswirkte. Robert Booth und Kollege fanden für diese Zeit signifikante Dürreepisoden, die damals massive ökologische Schäden in der Region anrichteten. Hier die Kurzfassung der Arbeit:

Die Klimavariabilität, vor allem die Häufigkeit von Extremereignissen, wird wahrscheinlich während der nächsten Jahrzehnte zunehmen mit kaum verstandenen Konsequenzen für terrestrische Ökosysteme. Hydroklimatische Variationen der Mittelalterlichen Klimaanomalie (MCA) bieten die Gelegenheit, ökologische Auswirkungen der derzeitigen Klimavariabilität zu studieren in Größenordnungen und Zeiträumen, die vergleichbar mit den Erwartungen für die kommenden Jahrhunderte sind. Wir untersuchten die Auswirkung der MCA auf Wälder in dem humiden Gebiet der westlichen Großen Seen unter Verwendung von Proxy-Aufzeichnungen der Vegetation, von Bränden und dem Hydroklima. Die multidekadische Variabilität der Feuchtigkeit während der MCA war verbunden mit einem weit verbreiteten Rückgang der Buchen. Räumliche Verteilungen von Dürren und Änderungen des Waldes waren stimmig mit einem Rückgang der Buchen-Population nur in den Gebieten, in denen Proxy-Klimadaten zeigten, dass es während der MCA zu schweren Dürren gekommen war. Das Auftreten weit verbreiteter, dürre-induzierter ökologischer Änderungen im Gebiet der Großen Seen zeigt, dass Ökosysteme in humiden Gebieten anfällig für rapide Änderungen von Dürren in Größenordnung und Häufigkeit sind.

Laird et al. untersuchten die Mittelalterliche Wärmeperiode in Ontario. Das Paper erschien 2012 in Global Change Biology. Kathleen Laird und Kollegen fanden für diese Zeit 900-1400 n. Chr. schwere und langanhaltende Dürreserien. Hier die Kurzfassung der Arbeit:

Veränderungen der effektiven Feuchtigkeit in der Größenordnung von mehreren Jahrzehnten bis zu einem Jahrhundert während der letzten beiden Jahrtausende wurden abgeleitet aus Sediment-Aufzeichnungen aus sechs Seen in einem Gebiet von etwa 250 km in Nordwest-Ontario. Dies ist die erste regionale Anwendung einer Technik, entwickelt zur Rekonstruktion von Dürren aus der Abflussmenge aus den Seen. Dieses regionale Netzwerk von Proxy-Aufzeichnungen zu Dürren basiert auf individuellen Kalibrierungs-Modellen innerhalb der Seen, entwickelt unter Verwendung der Ablagerungen von Kieselalgen. … Die Analyse der Kieselalgen-Ablagerungen in den Sedimenten zeigte die Verschiebung der ökologischen Grenze zwischen verschiedenen Ablagerungen. … Diese Änderungen hängen  großenteils von klimagetriebenen Einflüssen ab und können eine sensitive Aufzeichnung vergangener Dürren sein. Unsere Sedimentaufzeichnungen aus den Seen zeigen zwei Perioden mit synchronen Signalen, was auf einen allgemeinen großräumigen Klimaantrieb hinweist. Die erste ist eine Periode verlängerter Aridität während der MCA von 900 bis 1400). Die Dokumentation der Aridität im gesamten Gebiet erstreckt sich über die bekannte räumliche Ausdehnung der MCA-Mega-Dürre in ein Gebiet, das historisch bislang nicht Schauplatz extremer Dürren wie im zentralen und westlichen Nordamerika war. Die zweite synchrone Periode ist das jüngste Signal der letzten 100 Jahre, die eine Änderung hin zu mehr effektiver Feuchtigkeit zeigt, dass mit einem anthropogenen Antrieb auf das Klima zusammenhängen könnte. Dieses Vorgehen hat das Potential, regionale Lücken zu füllen, wo zuvor die Methoden relativ ungenau waren. Durch das Auffüllen regionaler Lücken bekommt man ein besseres Verständnis räumlicher Verteilungen von Dürren in der Vergangenheit. Damit kann man Sensitivität und Realismus der Klimamodell-Projektionen zukünftiger Klimaänderungen abschätzen. Diese Art Daten ist besonders wichtig für die Validierung einer hohen räumlichen Auflösung regionaler Klimamodelle.

Steinman et al. untersuchten die Dürregeschichte der nordwestlichen USA an der Pazifikküste für die vergangenen 1500 Jahre mithilfe von Isotopen in Seensedimenten. Die Studie erschien 2012 in PNAS, zudem gibt es eine Pressemitteilung. Fazit: Die Mittelalterliche Wärmeperiode war feucht, während sich die Dürren während der Kleinen Eiszeit häuften. Zudem zeigten die Autoren einige Diskrepanzen mit Daten aus Baumringen aus der gleichen Region auf, denen nachgegangen werden sollte. Hier die Kurzfassung der Arbeit (siehe auch Beitrag auf Terra Daily):

Multiple paläoklimatische Proxies sind erforderlich, um vergangene hydroklimatische Bedingungen zuverlässig abzuschätzen. Gegenwärtig basieren Schätzungen der Dürre-Variabilität während der letzten mehreren tausend Jahre weitestgehend auf Baumringdaten. Wir haben eine 1500 Jahre umfassende Aufzeichnung winterlicher Niederschläge im Nordwesten am Pazifik erzeugt mittels einer physikalischen modellbasierten Analyse von Sauerstoff-Isotopen in See-Sedimenten. Unsere Ergebnisse zeigen, dass während der MCA der Nordwesten am Pazifik außerordentlich viel Niederschlag im Winter abbekommen hatte und dass die Bedingungen während der Kleinen Eiszeit deutlich trockener waren. Dies steht im Gegensatz zu hydroklimatischen Anomalien in den Wüsten im Südwesten und ist konsistent mit der Klimadynamik, die im Zusammenhang steht mit der El Niño Southern Oscillation (ENSO) und der pazifischen dekadischen Oszillation (PDO). Diese Ergebnisse passen irgendwie nicht zu Dürreaufzeichnungen aus Baumringen. Das bedeutet, dass Unterschiede der jahreszeitlichen Sensitivität zwischen den beiden Proxys ein vollständigeres Verständnis des Klimasystems erlauben und wahrscheinliche Missverhältnisse der Klimatrends in Zeiträumen von Jahrhunderten zeigen.

Zwei Jahre später ergänzen Steinman et al. 2014 in den Geophysical Research Letters ihre Ergebnisse und erhärten die bereits zuvor geäußerte Schlussfolgerung: Die Mittelalterliche Wärmeperiode war in den nordwestlichen USA feucht, während die Kleine Eiszeit trocken ausfiel. Hier die Kurzfassung der Arbeit:

Die Rekonstruktion der Variabilität des Hydroklimas im Zeitraum von Jahrhunderten während des späten Holozäns ist besonders wichtig, um die großräumigen Verteilungen von Dürren und ihrer Beziehung zur Klimadynamik zu verstehen. Wir präsentieren Aufzeichnungen von Sauerstoffisotopen in Sedimenten aus 10 Seen, die die letzten beiden Jahrtausende umfassen ebenso wie Klimamodell-Simulationen. Sie zeigen, dass die Kleine Eiszeit relativ zur Mittelalterlichen Klimaanomalie trocken war, und zwar in weiten Gebieten des Nordwestens am Pazifik. Diese Verteilung ist konsistent mit beobachteten Verbindungen zwischen der ENSO, der Northern Annular Mode [?] und Dürren ebenso wie mit auf Proxys basierenden Rekonstruktionen der Ozean-Atmosphäre-Variationen des Atlantiks und des Pazifiks während der letzten 1000 Jahre. Die große Amplitude im Maßstab eines Jahrhunderts durch die Daten aus den Seen zeigt, dass das regionale Hydroklima charakterisiert wird durch längerzeitliche Verschiebungen der ENSO-artigen Dynamik und dass ein besseres Verständnis der zeitlichen Beziehung zwischen externen Antrieben und Dürren notwendig ist, um zukünftige hydroklimatische Bedingungen im westlichen Nordamerika zu projizieren.

Link: http://www.kaltesonne.de/?p=18032

Anmerkung: Dieser Text war zuerst auf der “Kalten Sonne” hier erschienen, jedoch mit den Zitaten im Original. Dieser Text wurde hier übernommen, jedoch mit den Originalausschnitten in deutscher Übersetzung.

Zitate übersetzt von Chris Frey EIKE