1

G20 Klimafakten ohne Hysterie betrachtet Teil 1(4)

Und deshalb gab es am 6. Juli 2017 in Hamburg die Pressekonferenz einer hochkarätigen G20-Klimainitiative:

Bild 1-1 [2] G20 Klima Initiativ-Mitglieder
und dazu eine Faktenbroschüre: [2] Klimawandel – eine Faktenliste zum Stand der Forschung

G20-Broschüre Klimawandel – eine Faktenliste zum Stand der Forschung

Klimafakten – oder doch nur wieder Klimaalarm?

Anhand der folgenden, vierteiligen Artikelserie wird gesichtet, ob diese Klimainitiative in ihrer Faktenbroschüre Wert darauf gelegt hat, neutral zu informieren. Wie immer, sind die wichtigen Daten direkt enthalten und nicht nur als Linksammlung hinterlegt. Dadurch ist die Ausarbeitung lang geworden, bietet aber einen guten Querschnitt und macht das teils etwas sperrige Thema für „Anfängern“ sicher lesbarer und interessanter.

Nachdem der Autor die Rezension schon fertig geschrieben hat, kann er das Ergebnis seiner Sichtung bereits verkünden: Dieses „Klimakonsortium“ wollte eines auf gar keinen Fall: Neutrale, zum (Nach)Denken anregende Information über das Klima vermitteln. Der einzige Sinn bestand darin, den Klimaalarmismus zu stärken.

Alles was uns am Wetter nicht gefällt, kann doch Klimawandel sein

Schon beim orientierenden Querlesen fällt auf, dass die Broschüre an allen „Ecken und Enden“ der Klimadaten einen Alarm, mindestens tiefe Besorgnis zu entdecken meint. Dabei ist es nicht so, dass die Daten in der Broschüre nicht richtig wären. Es ist oft unglaublich, wie wechselhaft das Klima und das Wetter sein können. Entsprechend zeigen die Daten dazu oft schlimme – kurzfristige, oder vermeintliche -Trendmuster an.
In der G20-„Faktenliste“ werden jedoch fast alle, auch kurzfristigen Ereignissen, als unnatürlich dargestellt und mindestens vorsichtshalber mit einem Alarm versehen. Geradezu desorientierend ist, dass selten eine Hintergrundinformation beigelegt ist, welche eine Einstufung ermöglichen würde.

Deshalb sah sich der Autor veranlasst, so wie die „Klimaintelligenz“ ihre Klimahysterie mit dieser Broschüre wieder auffrischt, damit diese nicht etwa verblassen möge, zu zeigen, dass die gleichen Daten neutral und mit Hintergrundwissen betrachtet, meistens überhaupt keinen Anlass zu einem Alarm geben.

Hinweis: Nach der Editierung dieser Rezension erschien genau dazu ein Beitrag auf EIKE (die Abstimmung der privaten Autoren gelingt halt nicht, so dass manchmal fleißig parallel am gleichen Thema getippeifert wird):
EIKE
22. Juli 2017: Deutscher Wetterdienst (DWD) im „Klima-Wahn
Der Beitrag ist jedoch erheblich kürzer und lässt viele Themen fast aus. Diese Langfassung ist deshalb eine gute Ergänzung der dortigen, kurzen Einführung.

GLOBAL Temperatur

G20-Klimawandel-Faktenliste: [2] … Die Luft an der Erdoberfläche hat sich bereits deutlich erwärmt.
Im Jahr 2016 lag die mittlere globale oberflächennahe Lufttemperatur um rund 0,94°C höher als das Mittel im 20. Jahrhunderts. Dies teilte die NOAA Anfang 2017 auf der Basis dreier unabhängiger Datenreihen mit. Damit war 2016 das wärmste Jahr seit Beginn der Auswertungen und übertraf die vorherigen Rekordjahre 2015 und 2014 … drei Rekordjahre in Folge wurden noch nie seit Beginn der Wetteraufzeichnung registriert.

Bild 1-2 Anomalie der Globaltemperatur. Quelle: G20–Klimawandel-Faktenliste [2]

Global-Temperatur-Betrachtung ohne Hysterie

Die Temperatur-Anomaliebilder (Bild 1-2) mit ihren starken Achsendehnungen und der tief-roten Einfärbung aller Temperaturen über dem Mittelwert der Kältephase im letzten Jahrhundert sehen immer ganz schlimm aus – wie geschaffen, um eine Alarmstimmung zu erzeugen.
Doch Klima gibt es schon länger als seit dem Jahr 1880. Und damit bleibt die Frage, ob die aktuell immer gemeldeten „Rekorde“ wirklich unnatürlich sind, und damit eine Warnung sein müssen.

Wie genau und sicher wird die Globaltemperatur ermittelt?

Zuerst muss man immer wieder anmerken, dass die Globaltemperatur-Ermittlung und Ausweisung aus verschiedenen Gründen höchst fragwürdig ist. Nicht allen ist geläufig, dass die Stations-Messdaten nicht direkt verwendet werden, sondern eine teils erhebliche Nachbearbeitung erfolgt. Auch wurde die Anzahl der Messstationen ab den 80er Jahren des letzten Jahrhunderts drastisch reduziert. Und zwar nicht die an Wärmeinseln gelegenen Stadt- und Flugplatz-nahen Stationen, sondern ausgerechnet die kälteren auf dem Land und in höheren Lagen.

Bild 1-3 Anzahl der weltweit verwendeten Temperaturmessstationen seit 1880. Schwarze Linie: Grafik aus [1], blaue Linie Grafik der NASA: Station Data
Einer Manipulation der Daten ist damit Tür und Tor geöffnet und die Diskussion darüber eine unerschöpfliche Fundquelle:
-Dr. James P. Wallace at al., June 2017: [7] On the Validity of NOAA, NASA and Hadley CRU Global Average Surface Temperature

-EIKE, 10. Juli 2017: [5] Brandaktuelle Studie: Temperatur-Adjustierungen machen „fast die gesamte Erwärmung“ in den Klimadaten der Regierung aus

-EIKE, 20. Februar 2017: [6] Weitere Daten-Manipulationen seitens NOAA, NASA, HadCRUT … Vergangenheit kälter, Gegenwart wärmer gemacht

Es mag deshalb kein Zufall sein, dass ausgerechnet ab diesem Zeitpunkt der drastischen Stations-Reduzierung die “Globaltemperatur” wieder anstieg, wie es das Bild der USA-Landtemperatur (Bild 1-4) deutlich zeigt.

Bild 1-4 Temperatur US-Festland seit 1880. Quelle: NASA, GISS Viewer

Trotzdem steigt in den USA die Anzahl der heißen Tage nicht

Regelmäßig liest man bei uns, wie die USA fast immer irgendwo an einer „Überhitzung“ leiden müssen (wenn sie wieder wegen einer extremen Kältewelle und Schneemenge fast erfrieren – weil dann auch oft der Strom ausfällt – liest man das kaum).

Dazu die Daten zu Hitzetagen in den USA. Obwohl die USA-Festlandsdaten einen erheblichen Temperaturanstieg „ausweisen“, nimmt die Anzahl der heißen Tage nicht zu.

Bild 1-5 Anzahl der heißen Tage über 32,22 °C in den USA. Quelle: [7]

Bild 1-6 Mittlere Sommer-Maximaltemperaturen (in Fahrenheit) im USA Korn- und Sojabohnen-Anbaugebiet seit 1900. Quelle: [7]

Messwert-Adjustierungen

Erdstationen

Dass es eine solch große Diskrepanz zwischen dem angeblich stetig steigenden „Globalwert“ und anderen Temperaturparametern hat, liegt sicher an vielen, kleinen „Drehungen“ der Parameter. Ein weiterer ist das „Bereinigen“ der Stationsmesswerte von „Fehlern“. Solche werden zum Beispiel angenommen, wenn eine Station Messwerte liefert, die „dort nicht sein dürfen“.

Welche teils drastischen Ausmaße Temperatur-Adjustierungen haben, sei an ein paar Beispielen gezeigt. Man verliert beim Sichten das Vertrauen in die weltweiten Messstationen und das daraus ermittelte Globalergebnis, nachdem die Stationen (angeblich) solch drastische Fehler liefern.

Bild 1-7 Temperaturdaten Station Capetown Südafrika. Verlauf vor der Homogenisierung (Unadjusted) vom Autor in rot nachgezeichnet

Bild 1-8 Robore (Bolivien). Verlauf vor der Homogenisierung (Unadjusted) vom Autor in rot nachgezeichnet

Bild 1-9 Asuncion Flughafen (Paraguay Südamerika). Verlauf vor der Homogenisierung (Unadjusted) vom Autor in rot nachgezeichnet

Auf See gibt es keine festen Messstationen. Da wurde und wird von Schiffen aus gemessen (heute auch mit Messbojen). Selbstverständlich wurden auch deren Ergebnisse Adjustiert. Wie? Früher wurde natürlich zu warm gemessen:
DER TAGESSPIEGEL, 04.06.2015: Klimawandel : Die Pause bei der Erderwärmung ist auf einmal weg

Weiteres dazu lässt sich nachlesen:
kaltesonne, 26. September 2014: Neues aus der wunderbaren Welt der Temperaturdaten-Korrekturen
Achgut, 18.11.2015: Sind die Klimadaten manipuliert?

Satellitendaten

Auch die „unbestechlichen“ Satellitendaten sind nicht vor unterschiedlichsten Interpretationen sicher.

Im Artikel:
WUWT, Christopher Monckton of Brenchley, July 7, 2017: [8] How They airbrushed out the Inconvenient Pause
ist dargestellt, wie schnell sich Trends drastisch ändern können, ohne dass sich in der Natur wirklich viel verändert.
Bis zum Jahr 2015 zeigten die Messreihen keine Erwärmung an.

Bild 1-10 RSS V3.3 Satellitendaten von 1997 bis 2015 mit Regressionsgerade. Quelle: [8] The least-squares linear-regression trend on the RSS version 3.3 satellite monthly global mean surface temperature anomaly dataset
Ein Jahr später war die „erforderliche“ Erwärmung plötzlich da, die Regressionsgerade zeigt eine Erwärmung von +1,29 Grad / Jahrhundert an.

Bild 1-11 RSS V4.0 Satellitendaten von 1997 bis 2016 mit Regressionsgerade. Quelle: [8]
Dass es sich dabei jedoch im Wesentlichen um den Einfluss des letzten, starken el Nino und nicht um eine sich verstetigende Erwärmung handelt, sieht man anhand der aktuellen Werte.

Bild 1-12 RSS V4.0 Satellitendaten von 1997 bis 5.2017. Quelle: Bild 1-11, vom Autor in rot darüber gelegt die aktuellen Daten des rechten Bildes

Womit es dabei bleibt, dass die Ableitung aus den Stationsmessungen und die Messungen der Satelliten im Trend gewaltig differieren und die Mängel und Ungenauigkeit, eigentlich fast Unbrauchbarkeit von Erdstations-ermittelten Globalwerten zeigen.

Wie genau und sicher ist die historische Globaltemperatur bekannt?

Wer die bisherigen Publizierungen des Autors kennt, weiß es schon: Die wirklichen, historischen Global-Temperaturen weiß niemand. Da mögen die „Klimawissenschaftler“ noch so oft das Gegenteil behaupten. Warum, und wie ungenau die Rekonstruierung derTempreraturhistorie ist, lässt sich zusammengefasst in einer Recherche nachlesen:
EIKE 11.05.2016: [9] Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

Das folgende Bild mag es verdeutlichen. Auch die „beste“ Statistik kann aus einem Proxi-Datensalat wie zum Beispiel dem der riesigen, asiatische Landfläche keinen „wirklichen“ Temperaturverlauf zaubern.

Bild 1-13 Alle Proxis Asien übereinander. Quelle: PAGES2k Viewer

Allerdings führt die „Statistik“ dazu, dass immer die berüchtigte, Angst einflößende Hockeystick-Kurve (Bild 1-17) herauskommt. Das „Rauschen“ der Proxis wird grundsätzlich fast zu einer Geraden gemittelt. So ab 1900, wenn die Proxis die aktuelle, „geforderte“ Erwärmung nicht zeigen, werden die Werte durch Messwerte ersetzt, die natürlich steil nach oben reichen.

Was wäre, wenn Temperatur-Proxirekonstruktionen stimmen

Nehmen wir einmal an, die Uni Giessen liegt mit ihrer Proxianalyse richtig. Dann befindet sich zumindest das Klima in Nordeuropa am Ende einer seit mehreren tausend Jahre langen Temperatur-Verringerung und die Warmzeiten dazwischen hat es wirklich gegeben (was die AGW-Klimawandelvertreter leugnen).
Universität Giessen, 9. Juli 2012: [4] Klima in Nord-Europa während der letzten 2.000 Jahre rekonstruiert: Abkühlungstrend erstmalig präzise berechnet

Römerzeit und Mittelalter waren wärmer als bisher angenommen: Unter Beteiligung der Justus-Liebig-Universität Gießen hat ein internationales Forschungsteam jetzt eine 2.000-jährige Klimarekonstruktion für Nord-Europa anhand von Baumjahrringen vorgestellt. Unter Federführung der Universität Mainz kombinierte die Gießener Gruppe um Prof. Jürg Luterbacher, PhD, vom Institut für Geographie Jahrring-Dichtemessungen fossiler Kiefernbäume aus dem finnischen Lappland zu einer Zeitreihe, die bis in die Zeit 138 v. Chr. zurückreicht. Dabei hat das internationale Team erstmalig einen langfristigen Abkühlungstrend über die letzten Jahrtausende präzise berechnet [3]. „Wir konnten zeigen, dass die historischen Temperaturen zur Römerzeit und im Mittelalter als zu kühl eingeschätzt wurden“, so Professor Luterbacher. „Diese Befunde sind auch insofern von klimapolitischer Bedeutung, da sie die Beurteilung des aktuellen Klimawandels im Vergleich zu den historischen Warmphasen beeinflussen.“

Bild 1-14 Rekonstruktion Sommertemperatur seit ca. Chr. Geburt [3]
Bild 1-15 Temperaturtrend seit ca. 7000 Jahren in nördlichen Breitengraden [3]. Bildtext: Figure S1. Temperature trends recorded over the past 4000-7000 years in high latitude proxy and CGCM data. Multi-millennial TRW records from Sweden 1, Finland2, and Russia3 (all in grey) together with reconstructions of the glacier equilibrium line in Norway4,5 (blue), northern treeline in Russia3,6 (green), and JJA temperatures in the 60-70°N European/Siberian sector from orbitally forced ECHO-G7,8 (red) and ECHAM5/MPIOM9 (orange) CGCM runs10. All records, except for the treeline data (in km) were normalized relative to the AD 1500-2000 period. Resolution of model and TRW data were reduced (to ~ 30 years) to match the glacier data.
Natürlich ist die Uni Gießen nicht die einzige, welche so etwas ermittelt hat. Auch von Afrika wird so etwas seriös berichtet:
EIKE 07.01.2017:[10] Drei-Königs Sternsinger Aktion 2017 gegen Klimawandel-Auswirkungen in Kenia: Seit 5000 Jahren besteht dort ein ununterbrochener Trend zum heutigen Klima, doch seit Kurzem ist der Westen daran schuld

Danach wurde auch dort das Klima über mehrere tausend Jahre kälter und dadurch trockener. Eine Vielzahl von Rekonstruktionen unterstützt dies jedenfalls.

Bild 1-16 Proxirekonstruktionen der Temperatur der letzten 12.000 Jahre. Quelle: Frank Lansner: Holocene, historic and recent global temperatures from temperature proxies

NoTricksZone, Kenneth Richard on 20. July 2017 : The ‘Real Proxy’ Temperature Record  Hints Near-Global Cooling Has Begun Scientists Find At Least 75% Of The Earth Has Not Warmed In Recent Decades

Alternative Globaltemperatur-Bestimmung

Der „berühmte“ Hokeystick von M. Mann at al., plakativer Auslöser der Klimahysterie, zeigt einen recht langen, fast geraden, historischen Temperaturtrend und dann den berüchtigten, steilen (angeblich nur anthropogen verursachten) Anstieg.

Bild 1-17 „Hockeystick“, historischer und aktuelle Temperaturverlauf nach M. Mann at al. Quelle: WIKIPEDIA: The original northern hemisphere hockey stick graph of Mann, Bradley & Hughes 1999, smoothed curve shown in blue with its uncertainty range in light blue, overlaid with green dots showing the 30-year global average of the PAGES 2k Consortium 2013 reconstruction. The red curve shows measured global mean temperature, according to HadCRUT4 data from 1850 to 2013.

Anmerkung: Inzwischen hat M. Mann seine Darstellung stark überarbeitet und die ursprünglich ignorierte, mittelalterliche Warmzeit nachträglich wieder entstehen lassen.

Dieser Kurvenverlauf entsteht immer und unvermeidbar, wenn Proxispaghetti (Bild 1.13) mit gemessenen Temperaturen ergänzt werden. Einmal, weil der Mittelwert der „Proxispaghetti“ durch Mitteln immer eine Gerade erzeugt und auch, weil Proxis die wirklichen, teil extremen Temperaturvariabilitäten nicht abbilden. Die gemessenen Temperaturen bilden diese aber mindestens teilweise ab. Als Konsequenz werden die historischen Variabilitäten unterdrückt und die aktuellen überbewertet.

Dies führte zur Überlegung, dass zur richtigen Weiterführung der historischen Temperaturen auch die aktuellen Werte durch Proxis gebildet werden müssen. Auch unter der Annahme, dass diese die Globaltemperatur „richtiger“ abbilden als die problematischen 2m-Stationsmesswerte mit ihren Flächenmittelungs-Versuchen.

Das Ergebnis daraus ist jedenfalls interessant: Es gibt dann keinen Hockeystick mehr und die Erde kühlt sich inzwischen ab.
NoTricksZone, 2017 / July / 20: [30] Scientists Find At Least 75% Of The Earth Has Not Warmed In Recent Decades
… As a new scientific paper (Turney et al., 2017) indicates, the Southern Ocean encompasses 14% of the Earth’s surface. And according to regional temperature measurements that have apparently not been subjected to warming “corrections” by data adjusters, the Southern Ocean has been cooling in recent decades.
The
Northern Hemisphere embodies the top half (50%) of the world’s surface. And according to many scientists’ temperature reconstructions using proxy evidence (ice cores, tree rings, etc.) from numerous locations North of the equator, there has been no net warming in the Northern Hemisphere since the 1940s.
Antarctica (2.7%) and the Indian Ocean (14.4%) together represent about 17% of the Earth’s surface.  Neither Antarctica nor the Indian Ocean have been observed to have warmed since the 1970s, with Antarctica exhibiting a cooling trend.

Just these regions of the globe alone represent more than 75% of the Earth’s surface. A net non-warming (cooling) trend in these regions in recent decades is highly inconsistent with commonly accepted instrumental data sets (such as NOAA, NASA, and HadCRUT) which show an abrupt recent warming trend – especially since the 1980s.

Bild 1-18 [30] Temperaturvergleich Proxirekonstrukton / Messdaten
Bild 1-19 [30] Proxi-Temperaturrekonstruktion Nordhemisphere
Bild 1-20 [30] Proxi-Temperaturrekonstruktion Antarktis

Hitzerekorde

Weil die letzten drei Jahre etwas Besonderes zeigen (sollen):
G20-Klimawandel-Faktenliste: [2] „ … die drei Rekordjahre in Folge wurden noch nie seit Beginn der Wetteraufzeichnung registriert … „

muss auch dazu erwähnt werden, dass es dadurch immer noch nicht heißer geworden ist.
EIKE 30.07.2016: [11] Weltweiter Temperaturrekord gemessen?
Die Daten
-Seit 103 Jahren ist es global nicht mehr heißer geworden
-Seit 74 Jahren hat sich an der globalen Grenztemperatur überhaupt nichts verändert
-In 32 Jahren ist es in Deutschland (vielleicht, da nicht signifikant messbar) um 0,1 °C heißer geworden
[12]
– würde man die „verworfenen“ Messungen einbeziehen, wäre es früher weit wärmer gewesen als aktuell
– auch Australien (NSW) hatte seinen Hitzerekord mit 44.06 Grad am 14. Januar 1939.

 

Bild 1-21 [11] Globale Temperatur-Extremwerte (Anm.: Rot: „sichere“ Werte; Gold: „unsichere bis zweifelhafte“ Werte
Stimmt natürlich nicht ganz. Deutschland hat nach 35 Jahren eine „Überhitzung“ von angeblich 0,1 °C „durchlitten“ [12]. Selbst das ist jedoch zweifelhaft. Neben dem, dass es wegen der Messtoleranzen schon nicht entfernt signifikant ist, ist die Messstation auch nicht wärmeinselfrei. Und diese Korrektur wurde auf jeden Fall (bewusst) nicht vorgenommen.
EIKE 24.09.2016: [13] Die heißeste Temperatur Deutschlands war nur ein Wärmeinseleffekt: Ein Klimaprofessor plaudert aus seinem „Nähkästchen für Temperatur“

Wie weit „darf“ sich die Temperatur noch naturbelassen erhöhen?

Um das abzuschätzen, braucht man nur die letzten 1 Millionen Jahre Temperaturverlauf anzusehen:
EIKE 25.12.2016: [15] Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein

Bild 1-22 [15] Eiszeiten der letzten 1 Millionen Jahre. Die rote Linie kennzeichnet die aktuelle Temperatur
Daran sieht man, dass die Temperatur noch ruhig drei bis fünf °C höher werden kann, ohne eine „Überhitzung“ anzuzeigen. Trotz dieser zusätzlichen Erwärmung in früheren Zeiten hat das Klima danach immer in die lange Kälteperiode zurück gefunden.
Die Behauptung, dass bei +2 oder gar +1,5 Grad Erhöhung ein Kipppunkt zur nicht mehr stoppbaren Überhitzung erreicht sein muss, widerspricht somit der „Erdklima-Erfahrung“ der letzten 1 Millionen Jahre.

Wieder ist es so, dass es den Kipppunkt ausschließlich in von Menschen programmierten Klimasimulationen gibt. Dass ein Programmierer das Klimaverhalten besser weiß, als die Erde seit einer Millionen Jahre, muss man dazu dann glauben.

Natürlich hat solcher Glaube eine „wissenschaftliche“ Begründung:
PIK: Menschgemachter Klimawandel unterdrückt die nächste Eiszeit
Mit einem ausgeklügelten Computermodell des Erdsystems, in dem die Dynamik von Atmosphäre, Ozean, Eisschilden und der globale Kohlenstoffzyklus simuliert werden, haben die Wissenschaftler den Effekt menschgemachter CO2-Emissionen auf das Eisvolumen der Nordhalbkugel untersucht. „Weil Kohlendioxid in der Atmosphäre extrem langlebig ist, haben vergangene wie künftige Emissionen großen Einfluss darauf, wann ein neuer Eiszeitzyklus beginnt“, sagt Ko-Autorin Ricarda Winkelmann. „Unsere Analyse zeigt, dass schon geringe zusätzliche Kohlenstoff-Emissionen die Entwicklung der Eisbedeckung auf der Nordhalbkugel wohl auf zehntausende Jahre beeinflussen würde, während künftige CO2-Emissionen von 1.000 oder 1.500 Gigatonnen Kohlenstoff die nächste Eiszeit um mindestens 100.000 Jahre verschieben könnten.“

Neben dem, dass bisher kein Computermodell das Erdsystem wirklich erfasst – schon gar nicht die Eiszeitzyklen, deren Entstehung bisher nur als Hypothesen „erklärt“ sind, stimmt bei der PIK-Behauptung auch nicht, dass das anthropogenen CO2 in der Atmosphäre extrem langlebig wäre. Eine grobe Einigkeit besagt eine Verweildauer von ca. 100 Jahren (einige vermuten noch viel weniger). Damit ist das anthropogene Zusatz-CO2-Budget alle 100 Jahre neu auffüllbar. Das resultierende CO2 Forcing-Ergebnis reicht für solche (simulierten) Effekte dann einfach nicht aus. Neben dem, dass das wirkliche CO2-Forcing inzwischen eher bei ca. 1 Grad / Verdopplung und nicht den vom IPCC noch angegebenen 3 Grad pro Verdopplung liegt. Ein Überhitzungs-Kipppunkt durch anthropogenes CO2 ist danach überhaupt nicht mehr möglich.

Es lässt sich auch zeigen, dass die Erde sich seit der messbaren Erdgeschichte am untersten Temperaturniveau befindet. Die Menschheit muss demnach mehr Angst vor der vollkommenen Vereisung haben und davor, dass der lebensnotwendige Pflanzendünger CO2 in der Atmosphäre noch weiter abnimmt und damit kein Wachstum von Grünpflanzen mehr möglich wäre.

Bild1-23 Verlauf Temperatur (blau) und CO2 (schwarz) seit 600 Millionen Jahren

Leser*innen, welchen im Bild 1-19 auffällt, dass zwischen CO2 und Erdtemperatur überhaupt keine Korrelation besteht und deshalb noch wissen wollen, wie wenig CO2 und Temperaturverlauf auch in jüngerer Zeit korrelieren, seien zum Weiterlesen auf den folgenden Artikel verwiesen:
WUWT David Middleton / December 7, 2012: A Brief History of Atmospheric Carbon Dioxide Record-Breaking

Wer dann noch sehen möchte, wie das Umfallen des berühmten Sack Reises in China, hier der übliche Abbruch von Schelfeis in der Antarktis – medial zu einem Katstrophenszenario aufgebauscht wird, lese:
EIKE 13. Juli 2017: Zerbricht der Südpol? Riesiger Antarktis-Schelfeis-Abbruch ein ganz normaler Vorgang – dabei wird die Antarktis seit 30 Jahren kälter

kaltesonne, 22. Januar 2017: Kein Klimawandel: Vom antarktischen Larsen-C-Schelfeis droht ein großer Eisberg abzubrechen

Fazit

Die Schlussfolgerung, ob sich die Erde global oder lokal wirklich in einem unnatürlichen Überhitzungsmodus oder alternativ im Zeitalter eines der größten Wissenschaftsbetrügereien dieses Jahrhunderts befindet, sei jedem Leser*in selbst überlassen.

Quellen

[1] EIKE: Der dürregebeutelte Sahel wird grün – ein schlimmes Anzeichen des Klimawandels

[2] Klimawandel – eine Faktenliste zum Stand der Forschung Pressekonferenz in Hamburg 6. Juli 2017

[3] Johannes Gutenberg University, 55099 Mainz, Jan Esper at al, 8 JULY 2012: Orbital forcing of tree-ring data

[4] Universität Giessen, 9. Juli 2012: Klima in Nord-Europa während der letzten 2.000 Jahre rekonstruiert: Abkühlungstrend erstmalig präzise berechnet

[5] EIKE, 10. Juli 2017: Brandaktuelle Studie: Temperatur-Adjustierungen machen „fast die gesamte Erwärmung“ in den Klimadaten der Regierung aus

[6] EIKE, 20. Februar 2017: [6] Weitere Daten-Manipulationen seitens NOAA, NASA, HadCRUT … Vergangenheit kälter, Gegenwart wärmer gemacht

[7] Dr. James P. Wallace at al., June 2017: On the Validity of NOAA, NASA and Hadley CRU Global Average Surface Temperature Data & The Validity of EPA’s CO2 Endangerment Finding Abridged Research Report

[8] WUWT, Christopher Monckton of Brenchley, July 7, 2017: How They airbrushed out the Inconvenient Pause

[9] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

[10] EIKE 07.01.2017: Drei-Königs Sternsinger Aktion 2017 gegen Klimawandel-Auswirkungen in Kenia: Seit 5000 Jahren besteht dort ein ununterbrochener Trend zum heutigen Klima, doch seit Kurzem ist der Westen daran schuld

[11] EIKE 30.07.2016: Weltweiter Temperaturrekord gemessen?

[12] EIKE 28.07.2015: 5. Juli 2015, der bisher heißeste Tag Deutschlands?

[13] EIKE 24.09.2016: Die heißeste Temperatur Deutschlands war nur ein Wärmeinseleffekt: Ein Klimaprofessor plaudert aus seinem „Nähkästchen für Temperatur“

[14] EIKE 17.07.2016: Wie man den Meerespegel-Verlauf in die richtige Richtung dreht Aus dem Lehrbuch für (Klima-) Statistikbetrug

[15] EIKE 25.12.2016: Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein

[16] EIKE, 8. Juli 2014 Klaus-eckart Puls: Säkularer und Aktueller Meeres-Anstieg: Pegel (1.6 mm/Jahr) oder SAT-Altimeter (3.2 mm/Jahr) – WAS ist richtig ?

[17] EIKE 14.12.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang

[18] EIKE 26.11.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 2

[19] RMIT University, Bundoora, VIC, Australia. A. Parker, 23/Jul/2014: Problems and reliability of the satellite altimeter based Global Mean Sea Level computation

[20] EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

[21] EIKE, 26. Dezember 2014: Schummeleien überall: Jetzt zur Versauerung der Ozeane

[22] ScienceScepticalBlog, 22. Oktober 2014: Versauerung” der Meere: Reale Bedrohung, oder nicht mehr als Panikmache?

[23] Vinje, T. 2001. Anomalies and Trends of Sea-Ice Extent and Atmospheric Circulation in the Nordic Seas during the period 1864-1998. Journal of Climate, February 2001, 255-267.

[24] EIKE 01.06.2017: Der Meerespegel steigt drei Mal so stark an – ohne dass sich an dessen Verlauf etwas verändert hat

[25] ScienceScepticalBlog 2012: Was nicht passt wird passend gemacht – ESA korrigiert Daten zum Meeresspiegel

[26] Forst BW Waldzustandsbericht 2016 für Baden-Württemberg

[27] kaltesonne, 18. Juli 2017: Der Bauer und sein Klima: Film ist jetzt im Internet verfügbar

[28] WUWT, David Middleton, July 20, 2017: More Fun With Sea Level

[29] Uba Juli 2015: Klimawandel könnte künftig mehr Hitzetote fordern. Hitzewellen erhöhen das Sterblichkeitsrisiko von Herzkranken um bis zu 15 Prozent. Das ergab eine Studie des Deutschen Wetterdienstes (DWD) für das Umweltbundesamt (UBA). WEB: http://www.dwd.de/klimawandel

[30] NoTricksZone, 2017 / July / 20, Kenneth Richard: Scientists Find At Least 75% Of The Earth Has Not Warmed In Recent Decades




Zerbröselnder „Konsens“: 500 im Jahre 2016 veröffent­lichte Studien stützen eine skeptische Haltung bzgl. Klima-Alarm

Beispiel: Man sagt uns, dass Extremwetter (Hurrikane, Dürren, Überschwemmungen, Stürme) an Häufigkeit und Intensität seit etwa 1950 zugenommen haben, hauptsächlich infolge des dramatischen Anstiegs anthropogener CO2-Emissionen seitdem (hier). Die Menschen schmelzen die Gletscher und die Eisschilde ab, gleiches gilt für das Meereis in der Arktis mit einer sich alarmierend beschleunigenden Rate – mit der Suggestion einer unmittelbar bevorstehenden „Todesspirale“. Die Menschen heizen und versauern jetzt die Ozeane bis zu tausenden Metern Tiefe wegen der Verbrennung fossiler Treibstoffe. Die Menschen betreiben jetzt den Anstieg des Meeresspiegels, so dass dieser um katastrophale 10 Fuß [ca. 3 m] während der nächsten 50 Jahre steigen wird (hier). Infolge unserer CO2-Emissionen gefährden die Menschen jetzt das langfristige Überleben hunderttausender Tierarten (vor allem Eisbären), und den Klimamodellen zufolge werden wir während der nächsten 33 Jahre eine Million Spezies mit unseren CO2-Emissionen zum Aussterben bringen (hier). Die Erde dreht sich sogar langsamer oder schneller, nein, langsamer – ach wo, doch schneller – wegen menschlicher Aktivitäten. Noch einmal: dies alles ist settled Wissenschaft! Nur jene, die die Verwegenheit haben, diese Wissenschaft zu leugnen („Klimaleugner“) würden dem nicht zustimmen oder es ablehnen, das zu glauben.

Aber was ist, wenn Vieles von dem, was man uns zu glauben nahe gelegt hat, gar nicht stimmt? Was ist, wenn Wissenschaftler nicht mit überwältigender Mehrheit zustimmen, dass die Menschen Wetter- und Klimaänderungen seit etwa 1950 dominiert haben (mit einem Beitrag ~110% ), wie es uns das IPCC der UN gesagt hat (hier)? Was ist, wenn Wissenschaftler nicht mit überwältigender Mehrheit zustimmen, dass natürliche Kräfte effektiv keinen Einfluss mehr auf Wetter- und Klimaänderungen haben – wenn doch jetzt die Menschen diese Rolle übernommen haben?

Dies sind zwingende Fragen. Vor allem vor dem Hintergrund, dass allein im Jahre 2016 500 begutachtete wissenschaftliche Studien in Fachjournalen veröffentlicht worden sind, in denen ernsthaft in Frage gestellt wird, wie settled die „Konsens“-Wissenschaft wirklich ist, der zufolge der anthropogene CO2-Antrieb jetzt Wetter- und Klimaänderungen dominiert und nicht-anthropogenen (natürlichen) Kräften kaum noch eine Bedeutung zumisst.

Anstatt die „Konsens“-Wissenschaft zu unterstützen muss man jetzt glauben (um nicht als „Klimaleugner“ gebrandmarkt zu werden), dass diese 500 Studien die Position untermauern, dass es bedeutende Grenzen und Unsicherheiten inhärent bei der Klimamodellierung gibt und dass Prophezeiung zukünftiger Klimakatastrophen mit anthropogenem Antrieb verknüpft sind. Außerdem zeigen diese wissenschaftlichen Studien sehr deutlich, dass natürliche Faktoren (die Sonne, multidekadische ozeanische Oszillationen { NAO, AMO/PDO, ENSO}, Variationen von Wolken- und Aerosol-Albedo) sowohl in der Vergangenheit als auch in der Gegenwart einen bedeutenden oder dominanten Einfluss auf Wetter- und Klimaänderungen ausgeübt haben. Das bedeutet, dass ein anthropogenes Signal viel schwieriger aufzufinden ist im Zusammenhang mit einer derartig großen natürlichen Variabilität. Studien, welche den „Konsens“-Standpunkt zu Paläoklima (Mittelalterliche Warmzeit), Ozean-Versauerung, Gletscherschmelze, Anstieg des Meeresspiegels, Extremwetterereignisse, Klima-Antriebe der Vergangenheit, Klimasensitivität bzgl. CO2 usw. in Frage stellen (und unterminieren) sind in dieser Sammlung enthalten.

Wegen der enormen Anzahl neuer verfügbarer Studien, die eine skeptische Haltung zum anthropogenen Klima-Alarm stützen, wurde die Liste der 500 Studien in drei Bereiche aufgegliedert, jeder mit einer eigenen Website (Part 1, Part 2, Part 3). Es gibt 68 Graphiken darin, von denen die meisten belegen sollen, dass „Hockeyschläger“-Rekonstruktionen von Temperaturen und Meeresspiegel in der Vergangenheit im Verhältnis zu heute nicht durch verfügbare Beweise gestützt werden.

Trotz des großen Umfanges wird diese Liste hoffentlich nutzerfreundlich daherkommen und als Referenz leicht zu durchforsten sein wegen der klar umrissenen (unten) und organisierten Kategorisierung. Jede Studie ist mit einem Link versehen unter dem Namen des/der Autoren.

Und schließlich, es gibt 132 Studien, die einen Zusammenhang zwischen Sonnenaktivität einerseits sowie Wetter- und Klimaänderungen andererseits belegen (zusätzlich zu rund 90 Studien, die natürliche ozeanische bzw. atmosphärische Oszillationen {ENSO, NAO usw.}, Wolken, Vulkanismus … und Klimawandel in Verbindung bringen). Dies ist besonders hervorzuheben, weil das IPCC seit seiner Einführung darauf bestanden hat, dass solare Faktoren fast gar keine Rolle spielen hinsichtlich des derzeitigen Klimawandels. Offensichtlich stimmen immer weniger Wissenschaftler diesem „Konsens“ zu.

———————————–

Click any of the 3 links below

Part 1. Natural Mechanisms Of Weather, Climate Change (236 papers)

Part 2. Natural Climate Change Observation, Reconstruction (152 papers) 

Part 3. Unsettled Science, Ineffective Climate Modeling (112 papers)

Part 1. Natural Mechanisms Of Weather, Climate Change

I. Solar Influence On Climate (132)
II. Natural Oceanic/Atmospheric Oscillation (ENSO, NAO, AMO, PDO, AMOC) Influence On Climate (45)
III. Natural Ozone Variability and Climate (3)
IV. A Questionable To Weak Influence Of Humans, CO2 On Climate (11)
V. Low CO2 Climate Sensitivity (4)
VI. Modern Climate In Phase With Natural Variability (17)
VII. Cloud/Aerosol Climate Influence (14)
VII. Volcanic/Tectonic Climate Forcing (9)

Part 2. Natural Climate Change Observation, Reconstruction

I. Lack Of Anthropogenic/CO2 Signal In Sea Level Rise/Mid-Holocene Sea Levels Meters Higher (34)
II. Warmer Holocene Climate, Non-Hockey Sticks (40)
III. No Net Regional Warming Since Early- Mid-20th Century (15)
IV. Abrupt, Degrees-Per-Decade Natural Global Warming (D-O Events) (8)
V. The Uncooperative Cryosphere: Polar Ice Sheets, Sea Ice (34)
VI. Ocean Acidification? (14)
VII. Natural Climate Catastrophes – Without CO2 Changes (4)
VIII. Recent Cooling In The North Atlantic (3)

Part 3. Unsettled Science, Ineffective Climate Modeling

I. Failing/Failed Renewable Energy, Climate Policies (10)
II. Climate Model Unreliability/Biases and the Pause (34)
III. Elevated CO2 Greens Planet, Raises Crop Yields (10)
IV. Wind Turbines, Solar Utilities Endangering Wildlife (7)
V. Less Extreme, Unstable Weather With Warming (15)
VI. Heat Not Hazardous To Polar Bears, Humans (3)
VII. No Increasing Trends In Intense Hurricanes (3)
VIII. No Increasing Trends In Drought Frequency, Severity (7)
IX. Urban Surfaces Cause (Artificial) Warming (4)
X. ‘Settled’ Science Dismantled (3)
XI. Natural CO2, Methane Sources Out-Emit Humans (3)
XII. Fires, Anthropogenic Climate Change Disconnect (5)
XIII. Miscellaneous (4)
XIV. Scientists: We Don’t Know (4)

Link: http://notrickszone.com/2017/01/02/crumbling-consensus-500-scientific-papers-published-in-2016-support-a-skeptical-position-on-climate-alarm/#sthash.UrKUfGSi.dpbs

Übersetzt von Chris Frey EIKE




Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

Glaubt man den „offiziellen“ Informationen, so ist das Klima der Vergangenheit genau bekannt. Schaut man sich jedoch die zugrunde liegenden Daten an, kann man feststellen, dass diese ganz andere Bilder zeigen. Konkret: Sie sind so ungenau, dass man darauf basierend praktisch beliebige Klimaverläufe rekonstruieren kann!

Proxidaten und statistische Methoden

Im EIKE Beitrag „Rekontruierte Temperaturverläufe der letzten zwei Jahrtausende“ wurde bereits angesprochen wie unterschiedlich viele Proxidaten sind und anhand des folgenden Bildes aus einem IPCC Bericht gezeigt, zu welchen „Spaghettimustern“ dies führt.

Bild 1 Temperaturverläufe verschiedener Rekonstruktionen der Nordhemisphäre. Quelle: IPCC AR4 2007: Figure 1

Diese „Spaghettimuster“ zeigen signifikante Probleme auf:

— Drastische Zeitverschiebungen der Temperaturextreme zwischen Rekonstruktionen der gleichen Gegend

— Teilweise gegensätzliche Max- / Min-Kurvenverläufe

— Wie im Artikel gezeigt wird den Verdacht, dass viele Proxis mehr Rauschen als Daten beinhalten

Es stellt sich die Frage, ob eine statistische Weiterverarbeitung solch chaotischen Datenmaterials überhaupt zulässig ist. Solche Verläufe können nicht wie zwingend erforderlich aus gleichwertigem und vor allem homogenen Datenmaterial stammen und es ist auch zu bezweifeln, ob sie den Verlauf der Temperaturen ausreichend repräsentieren.

Alternativaussage: Oder der Klimaverlauf wäre wirklich so lokal begrenzt wie es verschieden Proxis angeben – womit es dann aber nirgends einen globalen, nicht einmal einen großflächig einheitlichen Klimaverlauf geben würde.

Das Ergebnis wird bei der Hockey Stick Kurve (Bild 2) erkennbar.

Obwohl eine hohe Spannweite (graue Schatten) besteht, ergibt sich eine „ruhige“ Mittelwertkurve mit angeblich geringer Varianz. Diese hat nur einen Mangel: Sie repräsentiert nicht einen wahrscheinlichen Temperaturverlauf, sondern die Fehler des Datenmaterials.

Allerdings wird es anders verkündet:

WIKIPEDIA Hockeyschläger-Diagramm:

Das Hockeyschläger-Diagramm wurde von verschiedenen Seiten mehrfach auf Fehler überprüft. Die Ergebnisse von Mann et al. wurden damit mehrfach bestätigt.

Prof. Rahmstorf PIK:

[9] Von der Wissenschaft glänzend bestätigt, von der “Klimaskeptiker”-Lobby verunglimpft

In der Fachwelt gelten die Arbeiten von Mann et al. als hoch respektierte Pionierleistung (die Forscher erhielten eine Reihe von Preisen, Mann und Bradley z.B. beide die Oeschger-Medaille der European Geosciences Union).

Bild 2 Hockey Stick-Kurve

Quelle: IPCC Report AR2 von 2001, Figure 1: Variations of the Earth’s surface temperature over the last millennium.

Warum der Autor trotz solcher immer wiederholten Darstellungen bekannter und hoch gelobter Wissenschaftler bei seiner gegensätzlichen Ansicht bleibt, versucht er mit diesem Beitrag zu begründen.

Probleme der Proxi-Temperaturrekonstruktionen

Anbei ohne viel Mathematik anschaulich darstellbare Problematiken.

Zeitverschiebungen

Bild 3 zeigt, wie alleine durch Verschiebungen oder Fehler der Zeitdatierung zweier Proxis aus einer Warmzeit durch Mitteln eine Kaltzeit wird. Gleiches passiert, falls Weltgegenden Klimaveränderungen zeitlich verschoben „erleben“, wie es sein könnte falls z.B. die mittelalterliche Warmzeit als eine „Welle“ um die Welt ging und nicht zeitgleich überall auftrat. Dieser mathematische Effekt ist sicher einigen vom Drehstrom bekannt. Obwohl in allen drei Drehstrom-Phasenleitungen Strom fließt, ist der arithmetische Mittelwert des Summenstromes im Mittelpunktsleiter null, da sich die Phasenverschiebungen aufheben. Nach den AGW-Rechenregeln dürfte aus der Drehstromsteckdose somit keine Energie fließen.

Bild 3[4] Darstellung wie durch Zeitversatz zweier Proxis aus einer Warmzeit (Kurven: dunkelblau, grün) durch Mittelung eine Kaltzeit wird (Kurve: Globally Cooler, hellblau)

Wie extrem Zeitverschiebungen in Proxis enthalten sind, ist in Bild 21 gezeigt.

Problem Temperaturrekonstruktion

In der Hockeystick-Kurve ist die Temperatur in 0,1 Grad Schritten aufgeteilt und so dargestellt, als wäre die Mittelwertkurve mit ihrer Verlaufsspanne von ca. +- 0,25 Grad sicher ermittelt.

Jedoch: Eine moderne, sorgfältig geeichte elektronische Temperatur-Messstation misst die Temperatur auf +- 0,2 Grad genau. Diese werden seit ca. 1990 … 2000 verwendet. Vorher las man vom Thermometer ab. Es wird angenommen, dass die absolute Messgenauigkeit vor 1980 ungefähr ±1°C betrug und aktuell auch nicht viel besser als ca. +- 0,6 Grad ist [5]. Und dies gilt nur für den gleichen Mess-Standort – nicht für Flächenbetrachtungen.

Proxis müssen immer kalibriert werden. Schon dadurch kann das Ergebnis nicht genauer werden als der des Kalibrierwertes, in der Regel noch mit Temperaturwerten vor 1980 durchgeführt. Dazu kommen noch die Fehler der Kalibrierkette.

Es ist deshalb vollkommen unglaubwürdig, Temperaturen der Vergangenheit im Bereich von +-0,1 Grad bestimmen zu können. Solche systematischen Fehler lassen sich auch nicht durch Mittelung beseitigen, da die dazu nötign Anforderungen an die Datenbasis nicht eingehalten werden.

Um die Problematik zu zeigen, hat der Autor die Hockey-Stick-Kurve und PAGES 2k Projektion auf ein Proxi von Deutschland[6] gelegt (Bild 4). Die Temperaturvariabilität unterscheidet sich mit einem Faktor nahe 10 um eine ganze Größenordnung. Man beachte auch den Unterschied im Jahr 2000.

Proxi Deutschland, Moschen at al[6].

— Spannweite Temperatur: > 10 Grad

— Spannweite Mittelwertkurve ca. 6 Grad

Hockey-Stick (Zeitraum vor 1850):

— Spannweite Temperatur: ca. 1,5 Grad

— Spannweite Mittelwertkurve: ca. 0,4 Grad

Bild 4 Ein Proxi von Deutschland und den Hockey-Stick-Verlauf übereinander gelegt

Quellen: Proxi Deutschland: Moschen at al. 2011, Temperature variability at Durres Maar[6], Hockey-Stick: [9]

Der Verlauf Deutschland und auch der Stand zum Jahr 2000 sind nicht so exotisch wie man meinen könnte. Eine Proxirekonstruktion aus Island und Japan zeigen einen ähnlichen Verlauf. Erkennbar sind jedoch bei diesen beiden Proxis eklatante Zeitverschiebungen und gegensätzliche Max / Min-Verläufe (Bild 5). Gemeinsam ist ihnen eine große Temperaturspanne und das vollkommene Fehlen des Hockey-Stick-Endes.

Bild 5, Proxiverläufe Island [7] und Japan[8]

Quellen: [7] Sicre at al. 2008: Decadal variability of sea surface temperatures off North Iceland over the last 2000 years. Earth and Planetary Science Letters 268: 137-142. Quelle: Co2Science. [8] Kitagawa at al., Japan, Quelle: Co2Science.

Problem Jahreszeiten- Abhängigkeit

Viele Proxis stammen von Pollen und Baumringen. Sie bilden das Jahr deshalb nicht vollständig ab. Welche enormen Unterschiede sich für das Jahresmittel daraus ergeben können sei indirekt an der folgenden Proxidarstellung welche Sommer und Winter getrennt ausweist gezeigt.

Anmerkung: Diese Rekonstruktion (so sie stimmen sollte) zeigt auch, dass die aktuelle Erwärmung fast vollständig durch wärmere Winter erzeugt wird (die zum Schluss sogar wärmer als die Sommer werden!) – ein eklatanter Widerspruch zur CO2-Theorie. Anmerkung: Dieses Phänomen ist in der Publizierung Das Phänomen der „Temperaturstufen“ [14] ebenfalls gezeigt.

Bild 6[12] Rekonstruktionsverlauf Mitteleuropa getrennt für Sommer, Jahreswert, Winter (vom Autor mit den gestrichelten Linien ergänzt)

Bildtext: Abb. 5.5.: Multi-Proxy-Reihe für Mitteleuropa. Die Reihe ist 31-jährig geglättet. Die grau hinterlegt Fläche zeigt den Fehler, welcher aus der Unsicherheit bei der Indexbildung resultiert. Der Vergleich mit dem Mittel der Sommer und Wintertemperaturen des GMD zeigt eine hohe Übereinstimmung (r=0.9).

Erklärung zum Bild (in der Dissertation):

[12]Bei Betrachtung des Verlaufs der rekonstruierten Temperaturen fällt der Gegensatz zwischen Sommer- und Wintertemperaturen auf. Die Sommertemperaturen weisen eine hohe und konstante mittelfristige Variabilität auf, welche auch in den letzten 50 Jahren keinen auffälligen positiven Trend zeigt. Hingegen weisen die Wintertemperaturen deutlichere Unterschiede sowohl in der Stabilität der Variabilität als auch im langfristigen Verlauf auf

Problem Rauschanteil

Ein weiteres, großes Problem ist der deutlich erkennbare Rauschanteil von Proxiverläufen (Bilder 10 und 11). Dieser ist jedoch schwer zu klassifizieren und in den Auswirkungen zu berechnen, weshalb er – obwohl sehr signifikant – als Einflussgröße nur gestreift wird.

Das Projekt PAGES 2k

Zwischenzeitlich wird eine neue, groß angelegte Rekonstruktion des Temperaturverlaufs der Nordhemisphäre durchgeführt (PAGES 2k-Projekt ) (Bild 7). Diese hat laut den Studienautoren den Hockey Stick neu bestätigt. Prof. Rahmstorf vom PIK berichtete darüber:

Prof. Rahmstorf Paläoklima: Die Hockeyschläger-Debatte:

Vorige Woche haben wir hier die neue Klimarekonstruktion des PAGES 2k-Projekts besprochen, die einmal mehr den Hockeyschläger-Verlauf der Klimageschichte der letzten tausend Jahre bestätigt hat.

Bild 7[9], Hockey-Stick und PAGES 2 k Rekonstruktion

Bildtext: Grüne Punkte zeigen die 30-Jahresmittel (flächengewichteter Mittelwert über die Kontinente) der neuen PAGES 2k-Rekonstruktion. Die rote Kurve zeigt die globale Mitteltemperatur laut HadCRUT4 Messdaten ab 1850 (mit einem 30-Jahresfenster geglättet). Dazu in blau der ursprüngliche hockey stick von Mann, Bradley und Hughes (1999) mit seinem Unsicherheitsbereich (hellblau). Grafik: Klaus Bittermann.

Komischerweise zeigt das PAGES 2k Ergebnis einen noch geraderen Verlauf des Mittelwertes als der Hockey-Stick.

Bei diesem Ergebnis stellt sich die Frage: Ist der Verlauf mit neuen, viel besseren – bedeutet sicher statistisch auswertbaren Daten – generiert und damit genauer, oder wurden die Fehler der Vergangenheit nur wiederholt?

Eine kleine Sichtung soll zeigen, was wahrscheinlicher ist.

Die Urdaten des PAGES 2k-Projektes sind in Excel verfügbar. Der Autor hat daraus örtlich konzentrierte Datensätze zweier Erdteile (Nordeuropa, Südamerika) herausgezogen und gesichtet. Leider sind die Temperaturwerte in den Daten nicht in Grad, sondern unterschiedlichsten Dimensionen angegeben, weshalb nur die Verläufe, aber nicht die Absolutwerte vergleichbar sind.

PAGES 2k Proxivergleich Raum Norwegen, Schweden, Finnland

Aus der Arktis sind die Proxis: ARC_55; 38¸26; 13 dargestellt (Bild 8). Diese repräsentieren einen begrenzten räumlichen Bereich und man sollte erwarten, dass sie deshalb ähnliche Verläufe zeigen.

Bild 8 Proxis Bereich Arctic ARC_55; 38¸26; 13 des PAGES 2k Datensatzes vom Autor übereinander gelegt. Zeitachse genau, die Vertikalachsen sind nicht in vergleichbaren Maßstäben.

Jedoch erkennt man in Bild 8 stattdessen deutliche Zeitverschiebungen und teils gegensätzliche Verläufe, zudem große Streuungen. Bildet man die Mittelwerte, sind natürlich die Streuungen verschwunden. Dafür werden die anderen Probleme deutlicher (Bild 9).

Ersichtlich ist, dass über erhebliche Zeitabschnitte keine vernünftige Korrelation besteht. Das kann man sich bei Datensätzen aus der gleichen Gegend aber schwer vorstellen.

Bild 9, Mittelwerte aus Bild 8 (Proxis des Projekt PAGES 2k Datensatzes ARC_55; 38¸26; 13) vom Autor übereinander kopiert. Zeitachse genau, die Vertikalachsen sind nicht in vergleichbaren Maßstäben und wurden vom Autor verschoben.

Detailsichtung der Datensätze Arktik ARc_34 und ARc_36 aus der gleichen Gegend von Grönland

Die Datensätze ARc_34 und ARc_36 (Eisbohrkern-Daten) wurden vom Autor auf gleiche Spannweite und den Endwert 0 (im Jahr 1973) normiert. Bild 10 zeigt die sich ergebenden Proxiverläufe.

Bild 10 Proxi ARc_34 (blau) und ARc_36 (rot) (beides Eisbohrkern-Daten) des PAGES 2k Datensatzes. Normiert auf gleiche Spannweite und Endwert 0 im Jahr 1973

Im folgenden Bild sind normalverteilte Zufallszahlen dargestellt. Die Ähnlichkeit mit den vorhergehenden Proxi-Bildern ist verblüffend.

Bild 11 Bild normalverteilter Zufallszahlen

Bild 12 zeigt zusätzlich die Mittelwerte und Regressionsgeraden. Im Bild sieht man, dass die Kalibrierungen zum Jahr 1973 nicht übereinstimmen, denn die Mittelwertkurven und Regressionsgeraden haben zueinander einen erheblichen Offset. Die zugefügte Mittelwertkurve aus den Zufallswerten von Bild 11 (braun) zeigt eine fast identische Verlaufscharakteristik (vor allem zur blauen Proxikurve), womit die Wahrscheinlichkeit dass die Proxis im Wesentlichen Rauschen darstellen erhärtet wird.

Bild 12 30-Jahre Mittelwerte der Proxis ARc_34 (blau) und ARc_36 (rot) des PAGES 2k Datensatzes. Normiert auf gleiche Spannweite und Endwert 0 im Jahr 1973. Zugefügt eine Mittelwertkurve normalverteilter Zufallswerte (braun) mit gleicher Auflösung und entsprechend der blauen Kurve schief gestellt

Doch auch die Übereinstimmung der Mittelwertverläufe selbst ist desaströs (Bild 13). Eine Übereinstimmung welche einen Münzwurf überschreitet (K >= +0,5) besteht nur für 42 % des Zeitraums, eine vollständig negative Korrelation (K < 0) besteht für 27 % des Zeitraumes.

Bild 13 Korrelationsverlauf der 30-Jahre Mittelwerte der Proxis ARc_34 und ARc_36 (Bild 9.2) des PAGES 2k Datensatzes vom Jahr 613 – 1973

Aussagen des Korrelationskoeffizienten:

Koeffizient = +1: Übereinstimmung

Koeffizient = +0,5: Übereinstimmung entspricht einem Münzwurf (50 %)

Koeffizient = 0: Keinerlei Übereinstimmung

Koeffizient = -1: genau entgegengesetzte Übereinstimmung

Beispiele Kontinental-globaler Proxisammlungen

Bevor noch weitere Detailsichtungen erfolgen, eine Übersicht wie es aussieht wenn alle Proxiverläufe eines Kontinentes gemeinsam dargestellt sind.

Über einen WEB-Viewer „Aktive viewer for the Pages 2K Proxis“ lassen sich die PAGES 2k Daten direkt ansehen. Daraus beispielhaft der Proxiverlauf der gesamten Arktis (Bild 14) und Nordamerika (Bild 14.1). Man sieht auch ohne Statistik, dass diese Bilder keinen globalen Klimaverlauf sondern ein Chaos durch Proximängel zeigen.

Dazu die einfache Frage: Welche Statistik soll daraus den wirklichen Verlauf extrahieren? Ein stur berechneter Mittelwert erzeugt jedoch immer einen mehr oder weniger geraden Strich. Und dieser Strich wird um so „gerader“, je mehr solch unbrauchbare Datensätze „zusammen gepackt“ werden. Durch das Erhöhen der Anzahl Proxis wird rechnerisch der Mittelwert immer genauer (die Vier-fache Probenmenge verdoppelt die Genauigkeit), wie es viele Rekonstruktionen stolz ausweisen – in Wirklichkeit wird es aber schlechter, weil die fehlende Datenintegrität nur Rauschen zufügt und das „Wissen“ über die Grundgesamtheit nicht verbessert, sondern „verwässert“.

Bild 14 Alle Proxis Arctic des Projekt PAGES 2k Datensatzes. Quelle: Active viewer for the Pages 2K Proxis

Nun der „Spaghettiverlauf“ von Nord-Amerika. Auch hier das identische Problem (Bild 11).

Bild 14.1 Alle Proxis Arctic NAmericaTR des Projekt PAGES 2k Datensatzes. Quelle: Active viewer for the Pages 2K Proxis

Bild 14.2 Liste aller Proxis Arctic NAmericaTR des Projekt PAGES 2k Datensatzes. Quelle: Active viewer for the Pages 2K Proxis

PAGES 2k Proxivergleich Raum Südamerika Westküste

Das Vorgehen zur orientierenden Analyse von Arktisdaten nun wiederholt für Proxis aus Süd-Amerika. Die ausgewählten drei Samples stammen alle aus dem mittleren Bereich der südamerikanischen Westküste. Die Datensätze SAm_1;_2 stammen sogar vom gleichen Eisfeld. Die Klimaverläufe (SAm_1;_2) wurden jedoch nach unterschiedlichen Verfahren ermittelt.

SAm_1 Quelccaya Peru Ice-Core, Verfahren accumulation

SAm_2 Quelccaya Peru Ice-Core, Verfahren δ180

SAm_3 Laguna Aculeo Chile, Verfahren Lake sediment

Bild 15 Proxis Bereich Südamerika SAM_1, SAM_2¸ SAM_3 des PAGES 2k Datensatzes vom Autor übereinander gelegt. Zeitachse genau, die Vertikalachsen sind nicht in vergleichbaren Maßstäben.

Wieder zeigen sich erhebliche Zeitverschiebungen, teils gegensätzliche Verläufe und große Streuungen. Im übereinander gelegten Verlaufsbild der Mittelwerte (Bild 16) erkennt man es noch deutlicher.

Bild 16 Proxis des PAGES 2k Datensatzes SAM_1; 2¸ 3 vom Autor übereinander kopiert. Mittelwerte (von Bild 15), Zeitachse genau, die Vertikalachsen sind in den Originalen nicht in vergleichbaren Maßstäben und wurden vom Autor deshalb auf eine ungefähr gleich große Spanne verschoben.

Bild 17 zeigt den Datensatz SAm_2 im Original ohne verbindende Linien. Wieder besteht der große Verdacht, dass der Datensatz im Wesentlichen aus Rauschen besteht.

Bild 17 Proxi SAm_2 des PAGES 2k Datensatzes

Detailsichtung der Datensätze Südamerika SAm_1 und SAm_2 vom gleichen Eisfeld

Die Datensätze SAm_1 und SAm_2 wurden vom Autor auf gleiche Spannweite und den Endwert 0 (im Jahr 1995) normiert. Bild 18 zeigt die sich ergebenden Mittelwertverläufe und Regressionsgeraden.

Es zeigt sich:

— Die Mittelwerte verlaufen teils über mehrere Hundert Jahre gegensätzlich

— Die Regressionsgeraden ergeben für SAm_1 (schwarz) einen minimalen Anstieg , für SAm_2 (rot) einen deutlichen Temperaturabfall.

Bild 18 Mittelwert (n = 30 Jahre) SAm_1 (schwarz) SAm_2 (rot). Regressionsgeraden SAm_1 (schwarz) SAm_2 (rot)

Die Korrelationskurven der beiden Mittelwertverläufe zeigt Bild 19. Zwischen den beiden Kurven besteht weder im 30 Jahre noch im 100-Jahre-Intervall und nicht einmal in der jüngeren Zeit eine längere Korrelation über dem „Münzwurfwert“ + 0,5. Für über 50 % der Zeit besteht sogar ein gegensätzlicher Verlauf.

Korrelationen innerhalb des 30-Jahre Intervalls (Bild 19):

K >= 0,5 16 % des Zeitraums

K < 0 53 % des Zeitraums

Es besteht deshalb mehr als der Verdacht, dass die Proxis im Wesentlichen nur Rauschen darstellen.

Bild 19 Korrelation der 30-Jahre Mittelwertkurven von SAm_1 / SAm_2 über die Zeitabschnitte 30 Jahre (grün) und 100 Jahre (braun).

Zuletzt noch das Gesamtbild aller Proxis Südamerika (Bild 20). Auch darin sind wieder vollkommen gegensätzliche Verläufe und Zeitverschiebungen erkennbar.

Bild 20 Alle Proxis SAmerica des Projekt PAGES 2k Datensatzes. Quelle: Active viewer for the Pages 2K Proxis

Damit wiederholend die Feststellung:

Entweder gab es auch in diesem begrenzten Bereich von Südamerika kein einheitliches Klima – was unwahrscheinlich erscheint – oder die Proxis spiegeln es einfach nicht wieder.

Auch in dieser Gegend kann man leicht belegen, dass Proxis der gleichen Gegend (hier sogar vom gleichen Eisfeld) vollkommen gegensätzliche Klimaverläufe anzeigen und extrem fehlerbehaftet sein müssen – sich sogar die Frage stellt, ob sie überhaupt einen Klimaverlauf wiederspiegeln.

Zwei Proxis aus der gleichen Höhle in Afrika

als ein Beispiel für eklatante Proxi-Zeitfehler.

In zwei Studien welche im MWP-Projekt von CO2SCIENCE verwendet (und gemittelt) wurden:

[2] Tyson at al., Cold Air Cave, Makapansgat Valley, South Africa und

[1] Holmgren at al. Cold Air Cave, Makapansgat Valley, South Africa

ist jeweils eine Proxirekonstruktion aus der gleichen Höhle gelistet. Legt man diese zwei Rekonstruktionen aus den Studien übereinander zeigt sich das Bild 21. Man könnte meinen, die Höhle hat gleichzeitig zwei vollkommen verschiedene Klimate erlebt. Auf jeden Fall wird das Ergebnis durch Mitteln (was in dem Projekt erfolgte) niemals richtig.

Bild 21 Zwei Proxis [1][2] aus der Höhle Makapansgat Valley, South Africa vom Autor im angegebenen Zeitmaßstab übereinander platziert

Komprimiert man allerdings die Zeitachse der Proxirekonstruktion aus [2] um ca. 300 Jahre!, dann werden beide Verläufe deckungsgleich (Bild 22). Ein exemplarisches Beispiel für teils extreme Probleme der Zeitzuordnungen und leider dem extrem laschen (eher sträflichen) Umgang damit.

Bild 22 Proxis [1][2] von Bild 16. Proxi [2] vom Autor zeitlich komprimiert und dadurch mit [1] in Deckung gebracht

Dazu bedenke man, dass im Projekt aus den Daten von Bild 21 durch Mitteln ein „wahrscheinlicher Verlauf“ „ermittelt“ wurde – der wie gezeigt jedoch vollkommen falsch ist. Und solche Verschiebungs- Konstellationen sind ein häufiger Fall.

Fazit PAGES 2k Projekt

Es ist erkennbar, warum das Projekt PAGES 2k die Hockeystick-Kurve bestätigen muss. Es wurden auch bei der Wiederholung gleich ungeeignete Datensätze und statistische Verfahren verwenden. Damit muss das gleiche Ergebnis – eine ziemlich linear verlaufende Mittelwertkurve – herauskommen. Da nutzt es nichts, dass zum Projekt 79 Haupt-Autoren gelistet sind.

Auch die Darstellung bei RealClimate dazu kann der Autor nicht teilen und würde anstelle des dort zustimmenden „ … forward“ ganz konkret ein desaströßes „ … backward“ sagen:

RealClimate: The PAGES-2k synthesis, Guest commentary by Darrell Kaufman (N. Arizona U.)

…In a major step forward in proxy data synthesis, the PAst Global Changes (PAGES) 2k Consortium has just published a suite of continental scale reconstructions of temperature for the past two millennia in Nature Geoscience.“

Dazu ein leicht angepasster Statistikseminar-Einsteigerwitz:

Patient steht mit einem Fuß in kochendem Wasser und mit dem anderen im Trocken-Eis. Der Computer berechnet mit höchster Signifikanz, dass sich der Patient im Mittel pudelwohl fühlt und die Standardabweichung dazu sehr gering sei. Kurz darauf stirbt der Patient. Ein Klimawissenschaftler folgert nun: Die Standardabweichung war noch zu groß. Mit mehr Probanden wird sie aber kleiner und sie fühlen sich immer signifikanter pudelwohl.

Merkt das niemand?

Doch, natürlich. Aber es wird ignoriert – da man keine Lösung hat. Die richtige Lösung: Zugeben, dass man falsch angefangen hat und unbedingt neu aufsetzen müsste – ist politisch derzeit nicht vorstellbar. Es wäre auch ein schlimmes Desaster – nicht nur für die beteiligten Wissenschaftler.

Man geht da doch lieber in die Offensive und verkauft weiterhin sogar solche offensichtlichen Mängel und Fehler als Erfolg und heftet sich (noch kurz vor dem Untergang?) möglichst viele Orden an die Brust, Nobelpreis-Aspiranz gleich inbegriffen, Beispiele:

Prof Rahmstorf mit seinem uneingeschränkten Lob zum PAGES 2k Ergebnis „Paläoklima: Die Hockeyschläger-Debatte“ und Klimaretter.Info „Einen Nobelpreis für James Hansen!

Prof Rahmstorf in „Paläoklima: Die Hockeyschläger-Debatte“: In der Fachwelt gelten die Arbeiten von Mann et al. als hoch respektierte Pionierleistung (die Forscher erhielten eine Reihe von Preisen, Mann und Bradley z.B. beide die Oeschger-Medaille der European Geosciences Union).

Nur selten werden Hinweise auf Probleme publiziert. Ein positives Beispiel ist die zu einer Studie des Alfred Wegener Instituts – deren Kommentierung jedoch schon fast einer Bankrotterklärung entspricht:

[11] NEUE STUDIE ZEIGT ERHEBLICHE DIFFERENZEN ZWISCHEN KLIMAARCHIVEN UND KLIMAMODELLENDas Klima der Erde scheint in den letzten 7000 Jahren sehr viel unbeständiger gewesen zu sein als bisher gedacht.

Über Zeiträume von Jahren und Jahrzehnten stimmten Mess- bzw. Klimaarchivdaten und Modellläufe recht gut überein. Doch je länger die Zeitskalen, desto größer wurde die Diskrepanz – am stärksten in tropischen Meeresregionen. Auf tausendjähriger Zeitskala unterschätzten gängige Klimamodelle die aus den Klimaarchiven rekonstruierten Schwankungen der Meeresoberflächentemperaturen um den Faktor 50.

Theoretisch gibt es nun zwei denkbare Erklärungen“, so Thomas Laepple. „Entweder liefern die Klimaarchive keine verlässlichen Temperaturdaten, oder die Klimamodelle unterschätzen die Variabilität des Klimas. Vielleicht stimmt auch beides ein bisschen.

Ein Kommentar aus einem Blog zum PAGES 2k Datensatz zeigt, dass nicht nur der Autor (und vielleicht ein paar politisch nicht ausreichend umgeschulte Forscher des AWI) die Datensätze und das statistische Vorgehen als ungeeignet betrachten:

Blog: RealClimate, The PAGES-2k synthesis

Kommentar

To my eye, flipping between the proxies from a given region shows there to be lots of noise both within a given series and between any pair of series. This is very evident for the various ‘CAN composite’ series, which from Nick’s map appear to be geographically close together. When I spend some time flipping between these it is really impossible for me to say with any confidence that they are measures of the same thing – whatever that thing might be – and that if they are then the signal to noise ratio is miniscule.

If I had a student who brought data like this to me along with a statistical analysis I would send him back to the lab to get better data. Paleoclimate studies can’t do this, of course, but I’m wondering if it would at least be worthwhile to calculate correlations between proxies absent any underlying assumptions in order to assess whether the data has any value.

For example, wouldn’t one expect all the geographically close ‘CAN composite’ series to be more similar to each other than they are to, say central Asia? Shouldn’t it be a requirement that this be true before going ahead and throwing it into the mix? Otherwise it seems to me that garbage is being mixed with what is already a very small signal and I can’t see any good coming of that.

If I had to give an overall impression of the state of progress of paleoclimate reconstructions over the past 15 years I would say that it largely consists of taking more and more data and dumping it into ever more elaborate statistical procedures in the hope that a silk purse will emerge. It’s not at all clear to me that we wouldn’t be better off going back a step and trying to improve the data.

[Übersetzung von Chris Frey: Meiner Ansicht nach zeigt das Hin- und Herschwingen zwischen Proxys einer bestimmten Regioneine Menge Rauschen erzeugt, sowohl in einer gegebenen Einzelreihe als auch in jedwedem Satz von Reihen. Dies ist sehr offensichtlich bei den verschiedenen ,CAN-Komposit-Reihen‘ der Fall, welche Nicks Graphik zufolge geographisch nahe beieinander zu liegen scheinen. Wenn ich eine Weile zwischen diesen hin- und herschalte, ist es mir wirklich unmöglich, mit einiger Sicherheit zu sagen, dass es Messungen der gleichen Sache sind – was auch immer diese Sache sein mag – und falls das so ist, dann ist das Signal im Verhältnis zum Rauschen minimal.

Falls mir ein Student mit einer Analyse wie dieser unterkommen würde, , würde ich ihn in sein Laboratorium zurückschicken, um bessere Daten zu bekommen. Mit paläoklimatischen Studien geht das nicht, aber ich frage mich, ob es nicht zumindest wert ist, Korrelationen zu berechnen zwischen Proxys, denen jedwede zugrunde liegende Hypothese fehlt, um abzuschätzen, ob die Daten überhaupt von Wert sind. Beispiel: Würde man nicht erwarten, dass alle geographisch benachbarten ,CAN-Reihen‘ miteinander ähnlicher sind als beispielsweise mit Zentralasien? Sollte nicht die Notwendigkeit bestehen, bevor man weitergeht und alles in den Mix hineinwirft? Anderenfalls scheint mir , dass Müll mit etwas vermischt wird, dass bereits nur ein sehr geringes Signal ist, und ich kann daran nichts Gutes finden.

Falls ich einen Gesamteindruck des Status‘ des Fortschritts bei paläoklimatischen Rekonstruktionen während der letzten 15 jahre geben müsste, würde ich sagen, dass dieser Status im Wesentlichen gekennzeichnet ist durch das Sammeln von immer noch mehr Daten und diese mit immer weiteren statistischen Verfahren zu bearbeiten – in der Hoffnung, dass sich irgendetwas zeigt. Mir ist in keiner Weise eingängig, warum es nicht besser wäre, einen Schritt zurückzugehen und bessere Daten zu bekommen versuchen.]

Antwort des Admin

[Response: And what specific suggestions for “improving the data” do you have in mind? It is worth noting that in my experience, the correlation among weather station data is no higher than among similarly spaced paleoclimate data. To me, this says that the paleoclimate data quality if just fine– and that the noise is in regional vs global climate, not the quality of the proxies themselves. In short, we need more data, not “better” data (though better is fine, obviously). Getting more data, of course, it exacty what the authors of the PAGES 2k paper are trying to do.–eric]

[Übersetzung von Chris Frey: Erwiderung: Und welche spezifischen Vorschläge zur „Verbesserung der Daten“ schweben Ihnen vor? Man muss sagen, dass meiner Erfahrung nach die Korrelation unter den Daten von Wetterstationen nicht höher ist als unter ähnlich gelagerten paläoklimatischen Daten. Ich schließe daraus, dass die Qualität der paläoklimatischen Daten einfach gut ist – und dass das Rauschen dem Unterschied zwischen regionalem und globalem Klima geschuldet ist und nicht der Qualität der Proxys selbst. Kurz gesagt, wir brauchen mehr Daten, nicht „bessere“ Daten (obwohl natürlich ,besser‘ sehr schön wäre). Und mehr Daten zu erhalten ist natürlich genau das, was die Autoren der PAGES 2k-Studie versuchen.]

Kommentierung

Bei der Antwort des Admin bleibt einem wirklich „die Spucke weg“. Weil die Daten von Temperatur-Messstationen genau so wenig übereinstimmen (wie Proxidaten) müssen es Proxidaten auch nicht. Dazu die Aussage, nicht die Daten müssen genauer werden, sondern man benötigt eben mehr (schlechte). Und die Bestätigung, dass dies das Vorgehen im Projekt PAGES 2k bestimmt (hat).

Dabei macht der Admin genau den im Artikel angesprochenen Fehler:

— Bei den Temperaturmessungen hat man eine Genauigkeit, bei der eine größere Abdeckung durch mehr Messstellen die bisherige Ungenauigkeit globaler Kurven verringert.

— Bei den Temperaturproxis ist die erforderliche Basisgenauigkeit, Datenhomogenität, Zeitzuordnung und Rauschfreiheit nicht gegeben, so dass mehr Proxis kein besseres Ergebnis, sondern nur eine immer geradere, falsche Kurve liefern können.

Nachtrag

Als Bonmot noch eine Darstellung, was jemand der für die CRU-Datensammlung eingesetzt wurde über die Datenqualität in Mails sagte. Es könnte vom Autor stammen, dem es bei seinen Recherchen ganz genau so geht. Denn es ist wirklich so: Die Datenqualität – ob Temperaturdaten, Proxis oder Meeresspiegel – ist weltweit einfach nur grottenschlecht. Entsprechend sind es auch die Zukunfts-Projezierungen „Rezension: UBA Studie 24/2015 Die Vulnerabilität Deutschlands gegenüber dem Klimawandel“

Es wäre alles kein Problem – wenn diese Mängel und offensichtlichen Fehler nicht das Geld der Bürger kosten würden.

CRU: Datensammlung oder Datenmüll?

Quelle: ScienceSkepticalBlog, 16. Januar 2010: Ilmastogate – Finnische Doku zu Klimagate mit deutscher Übersetzung

Eine wichtige Aufgabe der CRU ist die Pflege der Daten und des Computer-Codes zur Berechnung der globalen Durchschnittstemperatur. Es ist dieses Material, dass Jones so standhaft vor externer Überprüfung geschützt hat. Die bekannt gewordenen Dokumente enthüllen jetzt einen möglichen Grund für die Geheimhaltung. Die wissenschaftlichen Daten und der Computer-Code im Zentrum der Weltpolitik sind in einem Zustand, dass sie nicht einmal für Leute zu entschlüsseln sind, die verantwortlich für die Pflege der Daten sind. Vor kurzem wurde junger Computer Programmierer, genannt Harry, eingestellt um das Chaos in Ordnung zu bringen. Harrys genervte Anmerkungen sind jetzt für die Öffentlichkeit verfügbar (Anm.: Der im Original hier eingestellte Link verweist nicht mehr auf die richtige Fundstelle).

OH VERF****. Es ist Sonntag Abend, ich habe das gesamte Wochenende gearbeitet, und gerade als ich dachte, ich wäre fertig, finde ich schon wieder ein neues Problem. Es gibt keine einheitliche Datenintegrität. Es ist eine einzige Ansammlung von Problemen die anwachsen sobald man sie gefunden hat.“

Es ist genau ebendiese Datenbank, welche Harry so verflucht, mit der die Welt-Mitteltemperatur ermittelt wird, die im 20. Jahrhundert um 0,7 °C angestiegen sein soll. Diese Daten sind auch wichtig für die Zukunft. Die Computermodelle zur Vorhersage eines zukünftigen Anstiegs der Globaltemperatur werden mit Hilfe dieser CRU-Statistik getestet und kalibriert. Wenn sie in der Lage sind, den Anstieg im letzten Jahrhundert zu reproduzieren, wie er von der CRU konstruiert worden ist, sollen sie angeblich in der Lage sein, das Klima bis zum Ende des 21. Jahrhunderts vorhersagen zu können.

Quellen

[1] Holmgren, K., Tyson, P.D., Moberg, A. and Svanered, O. 2001. A preliminary 3000-year regional temperature reconstruction for South Africa. South African Journal of Science 97: 49-51.

[2] Tyson, P.D., Karlen, W., Holmgren, K. and Heiss, G.A. 2000. The Little Ice Age and medieval warming in South Africa.  South African Journal of Science 96: 121-126.

[3] ScienceScepticalBlog, 12. Oktober 2013 : Der Hockeystick: Rise and Fall des Symbols für den menschgemachten Klimawandel

http://www.science-skeptical.de/klimawandel/der-hockeystick-rise-and-fall-des-symbols-fuer-den-menschgemachten-klimawandel/0010940/

[4] itsnotnova: Nova’s Warm Period https://itsnotnova.wordpress.com/2012/09/03/novas-warm-period/

[5] EIKE, 26.04.2016: Systematischer Fehler bei Klimamessungen: Die Aufzeichnung der Lufttemperatur an der Erdoberfläche

http://www.eike-klima-energie.eu/news-cache/systematischer-fehler-bei-klimamessungen-die-aufzeichnung-der-lufttemperatur-an-der-erdoberflaeche/

[6] Moschen at al. 2011, Temperature variability at Durres Maar

Moschen et al. present "a high resolution reconstruction of local growing season temperature anomalies at Durres Maar, Germany [50°52’N, 6°53’E], spanning the last two millennia

[7] Sicre at al. 2008: Decadal variability of sea surface temperatures off North Iceland over the last 2000 years. Earth and Planetary Science Letters 268: 137-142. Quelle: Co2Science

[8] Kitagawa at al. 1995: Climatic implications of δ13C variations in a Japanese cedar (Cryptomeria japonica) during the last two millennia. Geophysical Research Letters 22: 2155-2158. Bildquelle: Co2Science.

[9] SciLogs 23. Mai 2013 von Stefan Rahmstorf in Klimadaten: Paläoklima: Die Hockeyschläger-Debatte

http://www.scilogs.de/klimalounge/palaeoklima-die-hockeyschlaeger-debatte/

[10] ScienceSkepticalBlog, 16. Januar 2010: Ilmastogate – Finnische Doku zu Klimagate mit deutscher Übersetzung

[11] kaltesonne 22. November 2014: Neue AWI-Studie warnt: Klimamodelle unterschätzen natürliche Schwankungen der Meeresoberflächentemperaturen um den Faktor 50

http://www.kaltesonne.de/neue-awi-studie-zeigt-erhebliche-differenzen-zwischen-klimaarchiven-und-klimamodellen/

[12] Riemann, Dirk 2010, Dissertation: Methoden zur Klimarekonstruktion aus historischen Quellen am Beispiel Mitteleuropas

[13] SciLogs, Prof. Rahmstorf 17. Juni 2013: Paläoklima: Das ganze Holozän

[14] EIKE 06.11.2015: Langfrist-Temperaturverläufe Deutschlands: Das Phänomen der „Temperaturstufen“

http://www.eike-klima-energie.eu/news-cache/langfrist-temperaturverlaeufe-deutschlands-das-phaenomen-der-temperaturstufen/




Wärmer, noch wärmer, am wärmsten – NOAA und NASA erwischt mit der Manipulation der Aufzeichnungen

Zusammenfassung

·        Nach den Daten der NOAA Website war 1997 war wirklich das heißeste Jahr der Aufzeichnung mit 16,9°C (62.45°F). Die globale Durchschnittstemperatur in 2015 betrug 14,78°C (58.62°F) oder 2,12K (3.83F) unter der Temperatur von 1997.

·        Nach den Daten der NOAA Website, haben die Temperaturen, wie beispielsweise die Durchschnittstemperatur des 20. Jahrhunderts und jährliche Temperaturanomalien, die festgelegt [fixed] werden mussten, unterschiedliche Werte in den jährlichen globalen Analysen.

·        NOAA und NASA korrigierten historische Temperaturdaten und stellten Temperaturdaten in Gebieten ohne Temperaturaufzeichnung systematisch her, unidirektional in Richtung "kühlerer" Vergangenheit, in dem Versuch, einen steigenden Temperaturtrend zu beweisen.

·        NOAA und die NASA haben Anstrengungen unternommen, ihre eigenen Satellitendaten zu diskreditieren – welche im Einklang mit dem Ballon Daten sind – weil diese eine globale Erwärmung Pause seit 1998 zeigen, was im Widerspruch mit der von NOAA und der NASA bevorzugten Erzählung steht.

·        NOAA und NASA haben sich geweigert, die durch das US-Repräsentantenhaus für Wissenschaft, Weltraum und Technologie angeforderten Daten und Informationen heraus zugeben. Es gibt keinen Grund für sie die Daten und Informationen, die öffentlich zugänglich sind, zurückzuhalten, es sei denn, sie haben etwas zu verbergen.

Die Schlagzeile: „letztes Jahr war das heißeste der Aufzeichnungen, dieses Jahr ist heißer als letztes Jahr und nächstes Jahr könnte heißer als dieses Jahr werden” wird Jahr für Jahr widerholt bis die Finanzierung des Klimawechsels aufhört!

Einführung

Wie seit April 2015 [1-9] monatlich behauptet, gaben die Mainstream-Medien heute bekannt, dass: "Es ist offiziell: 2015 war das wärmste Jahr der Aufzeichnung" [10-13]. Dieses "heißen Neuigkeiten" wurde sofort veröffentlicht, nachdem das „National Centers for Environmental Information“ (NCEI) der „National Oceanic and Atmospheric Administration“ (NOAA) seine "Globale Analyse – Annual 2015" [14] geliefert hatte. Nach dieser 2015er globalen Analyse: "… die globale Durchschnittstemperatur der Oberflächenbereiche über Land und Ozean für das Jahr 2015 betrug 0,90° C (1,62 ° F) über dem Durchschnitt von 13,9° C (57,0 ° F) im 20. Jahrhunderts und schlug den bisherigen Wärmerekord von 2014 um 0,16° C (0,29° F)", um das heißeste Jahr der Aufzeichnungen zu werden. "Wir sehen wirklich einen langfristigen Trend und das ist ein Symptom für einen langfristigen Trend" und „wenn 2016 sich als so warm erweist, wie wir erwarten, wäre das beispiellos in unserem Buch der Rekorde", sagte Gavin Schmidt, Direktor des Goddard Institute for Space Studies (GISS) der National Aeronautics and Space Administration (NASA) [10,15]. Das überrascht nicht, weil ein zuvor vom britischen Met Office veröffentlichter Bericht behauptet, dass " nächste Jahr [2016] wird wahrscheinlich das wärmste dank El-Niño und fortschreitenden Klimawandel sein" [16].

Allerdings gibt es Hinweise darauf, dass die von NOAA und der NASA berechneten durchschnittlichen globalen Temperaturen ungenau, unzuverlässig und vor allem nicht mit den Satelliten-Temperaturdaten konsistent zu sein scheinen. Dieser Bericht ist ein Versuch zu verstehen, warum [bereits] seit langer Zeit, die von der NOAA und der NASA berechneten durchschnittlichen globalen Temperaturen durch "skeptische" Wissenschaftler und Meteorologen als Betrug betrachtet werden oder diplomatischer – unwissenschaftlich!

Unbestreitbare Beweise

Bedenken in Bezug auf die Genauigkeit und Zuverlässigkeit der von NOAA und der NASA berechneten durchschnittlichen globalen Temperaturen waren nicht gegeben und erfuhren keine besondere Aufmerksamkeit, bis die NASA erklärte: „dass die Temperatursteigerung des Planeten aus dem langfristigen Durchschnitt von 1,04 Celsius im Oktober [2015] die größte eines Monats überhaupt ist, die von der NASA aufgenommen wurde. Es war das erste Mal das eine monatliche Temperaturanomalie von 1 Grad Celsius in den Aufzeichnungen aus dem Jahr 1880 übertroffen wurde. Die bisherige größte Anomalie betrug 0,97 Celsius im Januar 2007 "[17] Seitdem wurden viele Beweise [, dass das falsch ist,] aufgedeckt und im Internet veröffentlicht.

Welches Jahr war das wärmste Jahr der Aufzeichnungen?

In der NOAA Globalen Analyse – Annual 2015 [14] heißt es "… die globale Durchschnittstemperatur der Oberflächenbereiche über Land und Ozean für das Jahr 2015 betrug 0,90 ° C (1,62 ° F) über dem Durchschnitt von 13,9 ° C (57.0 ° F) im 20. Jahrhundert und schlug den bisherigen Wärmerekord des Jahres 2014 um 0,16K (0.29 F)". Als Folge errechnet sich die globale Durchschnittstemperatur für das Jahr 2015 über Land und Ozean mit 14,80 °C (58.62°F). In der NOAA Global Analysis – Annual 1997 [18] heißt es: "Die globale Durchschnittstemperatur von 62.45 Grad Fahrenheit [16,9°C} im Jahr 1997 war das wärmste Jahr der Aufzeichnung und übertraf damit den bisherigen Rekord im Jahr 1995 um 0.15 Grad Fahrenheit (0,08K)."

Basierend auf diesen globalen Analysen der NOAA, war die globale Durchschnittstemperatur für das Jahr 1997, mit 16,92°C (62.45°F) höher als die für das Jahr 2015, von 14,80°C (58.62°F), mit 2,12K (3.83F). Daher war 1997 eigentlich das wärmste Jahr der Aufzeichnung und übertraf damit alle nachfolgenden Jahre einschließlich 2015!

Konstante Parameter mit unterschiedlichen Werten

Einige Temperaturparameter, die konstant sein müssen, werden mit unterschiedlichen Werten in den NOAA globalen Analysen gezeigt. Ohne besondere Aufmerksamkeit sind sie schwer zu erkennen, da sie in Einzelanalysen versteckt sind.

Der erste Parameter, der direkte Auswirkungen auf die NOAA Einschätzung hat, ist der Durschnitt des 20. Jahrhundert. In den jährlichen globalen Analysen vor 2010, wird der Mittelwert des 20. Jahrhunderts, mit 56,9°F oder 13,9 °C ausgewiesen (eigentlich müsste es 13,83°C sein). Sein Wert wird mit 57,0°F oder 13,9 °C ab dem Jahr 2010 bis jetzt dargestellt [19].

Zusätzlich in der globalen Analyse – August 2015 [20], berichtet NOAA: "Die kombinierte Durchschnittstemperatur über globalen Land- und Ozeanoberflächen für August 2015 betrug 0,88 K (1.58 F) über dem Durchschnitt von 15,6 °C (60.1 °F) des 20. Jahrhunderts und war der höchste Augustwert in der 136-jährigen Aufzeichnung". Die Veränderung des Wertes für den Durchschnitt des 20. Jahrhunderts wird von NOAA und der NASA nicht erklärt.

 

Tabelle 1 – Unterschiedliche Werte von Jahres Anomalien

Der zweite Parameter ist die jährliche Anomalie, das heißt die Differenz zwischen der jährlichen globalen Durchschnittstemperatur und der mittleren des 20. Jahrhunderts. Der Wert dieses Parameters, der eine Konstante sein muss, variiert von Analyse zu Analyse. Zum Beispiel die 2010er-Anomalie – gezeigt mit 0,62K ( 1.12F) in der globalen Analyse – Annual 2010 – steigt auf 0,83K (1.15F) in der 2011 Analyse und 0,66K (1.19F) in den 2012 und 2013 Analysen, verringert sich auf 0,94K (1.17F) in der 2014er Analyse und erhöht sich dann wieder in der 2015er Analyse, wie in Tabelle 1 gezeigt.

Korrigierte und hergestellte Temperaturdaten

Fragen in Bezug auf die Zuverlässigkeit, Genauigkeit und Angemessenheit der Temperaturdaten die von NOAA und der NASA verwendet werden, um die globale Durchschnittstemperatur zu berechnen, wurden von Joseph D’Aleo gestellt, dem ersten Direktor der Meteorologie und Mitbegründer des Kabel-TV Weather Channel und von Anthony Watts, ein 25-Jahre-Broadcast Meteorologie Veteran und derzeit ein Meteorologe für KPAY-AM-Radio und den vom Wissenschaft & Public Policy Institute (SPPI) im Jahr 2010  veröffentlichten Bericht [21].

Im Anschluss an eine integrative Beurteilung der Aufzeichnungen der Oberflächentemperaturen der Climatic Research Unit (CRU) der East Anglia University in Großbritannien und NASA‘s GISS und NOAA National Climatic Data Center (NCDC), schlossen die Autoren, dass "Instrumentale Temperaturdaten für die Vor-Satelliten-Ära (1850-1980) wurden so umfangreich, systematisch und unidirektional verfälscht, dass sie nicht glaubwürdig geltend machen können, dass es eine signifikante "globale Erwärmung" im 20. Jahrhundert gegeben hat … globale terrestrische Temperaturdaten wurden beeinträchtigt, weil mehr als drei Viertel der 6.000 Stationen, die [früher] einmal erfasst wurden, nun nicht mehr in den Trendanalysen verwendet werden … zu den Ozeanen fehlen Daten und die Unsicherheiten sind beträchtlich. Veränderungen in Datensätzen führten zu einer schrittweisen Erwärmung im Jahr 2009. "

Das D’Aleo‘s und Watt‘s Bericht ermutigt zusätzliche Bewertungen durch andere Wissenschaftler, Anpassungen oder Herstellung von Temperaturdaten in den NCDC und CRU-Datenbanken genau zu prüfen. Diese zusätzlichen Bewertungen bestätigen, dass NOAA und der NASA systematisch und umfangreich, historische Daten verändert und Temperaturdaten in Bereichen ohne Messungen hergestellt haben [22-35], um "die Vergangenheit zu kühlen", damit ein zunehmender globaler Temperaturtrend gezeigt werden kann, wie von NOAA und NASA interpretiert (siehe Abbildung 1).

 

Abbildung 1 – NASA "kühlt" die Vergangenheit, um den globalen Erwärmungstrend zu beweisen [22]

Diskreditierung der Satellitendaten

Seit 1978 hat NOAA Wettersatelliten verwendet, um die Temperatur der Erdatmosphäre zu überwachen. Laut einer Studie, die von der NASA im Jahr 1990 [36] durchgeführt wurde, „haben mehrere Regierungs- und Universitäts Meteorologen auf der ganzen Welt festgestellt, dass die durchschnittliche Oberflächentemperatur in den letzten Jahren zugenommen hat“, der Autor dieses Berichts schrieb, dass ihre Satelliten-Analyse der oberen Atmosphäre viel genauer ist und als der normale Weg übernommen werden sollte, um globale Temperaturänderungen zu überwachen."

Abbildung 2 – Satelliten Temperaturanomalien der globalen unteren Atmosphäre [37]

Abbildung 3 – NASA, globale Land und Meer Temperaturanomalien [38]

Satellitendaten von 1979 (Abbildung 2) zeigen, dass die Temperatur der globalen unteren Atmosphäre seit 1998 nicht gestiegen ist, im Widerspruch mit dem steigenden Trend der NASA, wie in Abbildung 3 zu sehen. Aus diesem Grund, haben NOAA und NASA Anstrengungen unternommen, um die durch ihre eigenen Satelliten gesammelten Temperaturdaten zu diskreditieren.

Der erste Versuch war eine Studie von Thomas R. Karl, Direktor des NOAA National Centers for Environmental Information (NCEI), und seinen NOAA Kollegen. Die Studie, online in der Zeitschrift Science [39] veröffentlicht, kommt zu dem Schluss, dass: "Viele Studien wurden den möglichen Ursachen für eine scheinbare Abnahme des Aufwärtstrend der globalen Oberflächentemperatur seit 1998 gewidmet, ein Phänomen, das die globale Erwärmungs- "Pause" überspielt hat. Hier präsentieren wir eine aktualisierte globale Oberflächentemperatur-Analyse, die zeigt, dass globale Trends höher sind als die vom IPCC gemeldeten, vor allem in den letzten Jahrzehnten, und dass die zentrale Schätzung für die Erwärmungsrate während den ersten 15 Jahre des 21. Jahrhunderts mindestens so groß ist wie in der letzten Hälfte des 20. Jahrhunderts [4]. Diese Ergebnisse stützen die Vorstellung von einem "Rückgang" in der Zunahme der globalen Oberflächentemperatur nicht."

Abbildung 4 – NOAA’s globale Temperaturtrend Analysen [Internet]

Die zweite Anstrengung war ein Propaganda-Video, an dem der "berühmte Klimaforscher" Michael Mann (der Autor von "The Hockey Stick") beteiligt war, Kevin Trenberth (zugebend, dass "es ein Hohn ist, dass wir nicht auf die im Moment fehlende Erwärmung zählen können") und Ben Santer. Das Video wurde von einer Stiftung für Klima-Aktivisten finanziert, um Zweifel an den Satellitendaten [40] zu streuen. Aber dieses Video scheint ein Schuss in den Ofen zu sein, weil (1) die Satellitendaten durch die unabhängigen Ballondaten (Abbildung 5) verifiziert werden, während die von NOAA und der NASA berechneten Temperaturdaten nicht bestätigt werden, (2) die Verwendung von Satelliten für Überwachung der globalen Temperaturänderungen war von der NASA empfohlen und (3) Jason-3 – der neueste in den Orbit gestartete Wettersatellit – ist eine internationale Mission, in der NOAA in Partnerschaft ist mit der NASA, dem Centre Nationale de’Études Spatiales (CNES), der Französischen Weltraumorganisation und der Europäischen Organisation für die Nutzung meteorologischer Satelliten (EUMETSAT)) [41].

Abbildung 5 – Satelliten- durch Ballon-Daten verifiziert [40]

Verbergen von Daten und Methoden die für wissenschaftliche Untersuchungen verwendet werden

Im Juli 2015, um die wissenschaftliche Integrität der NOAA-Studie zu "keine Pause in der globalen Erwärmung" zu beweisen, fragten der Republikaner Lamar Smith (R-Texas), der Ausschussvorsitzende im US-Repräsentantenhaus für Wissenschaft, Raumfahrt und Technologie, die NOAA um Daten und Dokumente an, die mit der Studie verbunden sind. Obwohl Rep. Smith Anfrage legitim und die angeforderten Informationen öffentlich sind, weigerte sich NOAA dem Ausschuss die angeforderten Daten und Informationen zu geben, weil "es ist eine langjährige Praxis in der wissenschaftlichen Gemeinschaft, die Vertraulichkeit der beratenden wissenschaftlichen Diskussionen zu schützen" [42]. Warum verweigert NOAA diesen Antrag? "Es gibt absolut keinen Grund für die NOAA, ihre Informationen zurückzuhalten, außer sie haben etwas zu verbergen. Und als Bundesbehörde ist es ihre Pflicht, mit dem Kongress zu kooperieren "[42].

NOAA weigerte sich weiterhin, die angeforderten Daten und Informationen zu geben, bis die Überwachung der Justiz am 2. Dezember 2015 eine Klage eingereichte, zur Vorlage der gleichen Unterlagen, die der Ausschuss anforderte. Das Department of Commerce (DOC) wurde wegen fehlender Reaktion auf die Anfrage nach dem Freedom of Information Act (FOIA) [ist in US Gesetz; der Übers.] verklagt, weil NOAA eine Komponente des DOC ist. Am 15. Dezember 2015 begann NOAA die angeforderten Dokumente an den Kongress [43] zu übermitteln.

Die Tiefe der Probleme in NOAA’s Praktiken wurde wahrscheinlich zum ersten Mal im Jahr 2007 aufgedeckt, als Klimaforscher Roger Pielke und Meteorologe Anthony Watts ernsthafte Probleme mit dem US-Oberflächentemperatur-Messnetz fanden, welches vom National Climatic Data Center (NCDC) verwaltet wurde, ein Zweig der NOAA. Sie bemühten sich, dieses Netzwerk zu validieren, aber ‚das NCDC entfernte alle Website Zugänge zu Stationsstandorten unter Berufung auf  ‚Bedenken hinsichtlich der Privatsphäre.‘ Ohne diese Daten (die seit Jahren öffentlich sind), wurden Validierungsbemühungen blockiert" [44].

FAZIT

Wie so häufig von den Mainstream-Medien seit April 2015 wiederholt, erklärten NOAA und NASA offiziell, dass 2015 heißer als 2014 war, das alte wärmste Jahr der Aufzeichnungen und "versprechen", dass 2016 heißer als 2015 sein könnte! Jedoch, unleugbare Beweise zeigen, dass die von NOAA und der NASA berechneten durchschnittlichen globalen Temperaturen ungenau, unzuverlässig und nicht mit den Satellitendaten konsistent erscheinen.

Laut Daten der NOAA Website, war 1997 wirklich das heißeste Jahr der Aufzeichnung mit 16,9°C (62.45°F). Die globale Durchschnittstemperatur im Jahr 2015 betrug 14,8°C (58.62°F) oder 2,12K (3.83F) von unter der Temperatur 1997.  [… und unter der „Normal“ Temperatur von 15°C gemäß PIK u.ä., der Übersetzer]

Nach den Daten der NOAA Website, haben die Parameter wie beispielsweise die Durchschnittstemperatur des 20. Jahrhunderts und der jährlichen Temperaturanomalien, die konstant sein müssten, unterschiedliche Werte in den jährlichen globalen Analysen.

NOAA und NASA korrigierten historische Temperaturdaten und stellten Temperaturdaten in Gebieten ohne Temperaturaufzeichnung systematisch her, weit verbreitet und unidirektional zum „kühlen“ der Vergangenheit, in dem Versuch, einen steigenden Temperaturtrend zu beweisen.

NOAA und der NASA haben Anstrengungen unternommen, um ihre eigenen Satellitendaten zu diskreditieren – die im Einklang mit dem Ballon Daten sind – weil eine globale Erwärmung Pause seit 1998 im Widerspruch mit der von NOAA und der NASA bevorzugten Behauptung steht.

NOAA und NASA haben sich geweigert, die durch das US-Repräsentantenhaus für Wissenschaft, Weltraum und Technologie angeforderten Daten und Informationen heraus zugeben. Es gibt keinen Grund für sie die Daten und Informationen, die öffentlich zugänglich sind, zurückzuhalten, es sei denn, sie haben etwas zu verbergen.

 Bild WUWT

Die Schlagzeile: „letztes Jahr war das heißeste der Aufzeichnungen, dieses Jahr ist heißer als letztes Jahr und nächstes Jahr könnte heißer als dieses Jahr werden” wird Jahr für Jahr widerholt bis die Finanzierung des Klimawechsels aufhört!

Erschienen auf WUWT am 2. Februar 2016

Übersetzt durch Andreas Demmig

www.wattsupwiththat.com/2016/02/02/2014-was-the-hottest-year-on-record-but-2015-is-hotter-than-2014-and-2016-could-be-hotter-than-2015

Referenzen

[1] Andrea Thompson. April 17, 2015. “2015 Hottest Year to Date, Could Top 2014 Record.” Climate Central. http://www.climatecentral.org/news/2015-hottest-year-to-date-18895

[2] Jay Michaelson. May 16, 2015. “2015 Is the Hottest Year On Record.” The Daily Beast. http://www.thedailybeast.com/articles/2015/05/16/2015-is-the-hottest-year-on-record.html

[3] Jon Edrman. Jun 18, 2015. “2015 Still On Pace as Hottest Year On Record.” The Weather Channel. http://www.weather.com/news/climate/news/earth-warmest-january-may-2015

[4] Brian Clark Howard. July 24, 2015. “See Why 2015 May Be the Hottest Year Ever.” National Geographic. http://news.nationalgeographic.com/2015/07/071524-this-year-may-be-hottest-ever/

[5] Andrea Thompson. August 20, 2015. “2015 May Just Be Hottest Year on record.” Scientific American. http://www.scientificamerican.com/article/2015-may-just-be-hottest-year-on-record/

[6] Adam Vaughan. September 17, 2015. “US science agency says 2015 is 97% likely to be the hottest year on record.” The Guardian. http://www.theguardian.com/us-news/2015/sep/17/2015-hottest-year-on-record-noaa

[7] Justin Gillis. October 21, 2015. “2015 Likely to Be Hottest Year Ever Recorded.” The New York Times. http://www.nytimes.com/2015/10/22/science/2015-likely-to-be-hottest-year-ever-recorded.html?_r=0

[8] WMO. 25 November 2015. “WMO: 2015 likely to be Warmest on Record, 2011-2015 Warmest Five Year Period.” WMO. https://www.wmo.int/media/content/wmo-2015-likely-be-warmest-record-2011-2015-warmest-five-year-period

[9] Tom Randall. December 17, 2015. « A White-Hot Christmas Wraps Up Earth’s Hottest Year on Record.” Bloomberg Business. http://www.bloomberg.com/news/features/2015-12-17/a-white-hot-christmas-wraps-up-earth-s-hottest-year-on-record

[10] Jason Plautz. January 20, 2016. “It’s Official: 2015 Was Hottest Year on Record.” National Journal. http://www.nationaljournal.com/s/399249/its-official-2015-was-hottest-year-record?mref=scroll

[11] Brandon Miller. January 20, 2016. “2015 is warmest year on record, NOAA and NASA say.” CNN. http://www.cnn.com/2016/01/20/us/noaa-2015-warmest-year/

[12] Alyssa Newcomb. January 20, 2016. “Earth Had Its Hottest Year on Record in 2015, Says NASA, NOAA.” ABC News. http://abcnews.go.com/Technology/earth-hottest-year-record-2015-nasa-noaa/story?id=36400929

[13] Justin Gillis. January 20, 2016. “2015 Was Hottest Year in Historical Record, Scientists Say.” The New York Times. http://www.nytimes.com/2016/01/21/science/earth/2015-hottest-year-global-warming.html

[14] National Centers for Environmental Information. Retrieved January 20, 2016. “Global Analysis – Annual 2015.” NOAA. http://www.ncdc.noaa.gov/sotc/global/201513

[15] Deborah Netburn. January 20, 2016. “2015 was the hottest year on record, and the forecast for 2016 is warmer yet.” The Los Angeles Times. http://www.latimes.com/science/sciencenow/la-sci-sn-2015-hottest-year-20160119-story.html

[16] Justin Worland. December 17, 2015. “2016 Expected to Be the Warmest Year on record, Report Says.” Time. http://time.com/4154331/warmest-year-2016-climate-change-el-nino/

[17] Jason Samenow. November 17, 2015. “Record-crushing October keeps Earth on track for hottest year in 2015.” The Washington Post. https://www.washingtonpost.com/news/capital-weather-gang/wp/2015/11/17/record-crushing-october-keeps-earth-on-track-for-hottest-year-in-2015/

[18] NOAA National Climatic Data Center, State of the Climate: Global Analysis for Annual 1997, published online January 1998, retrieved on May 4, 2015 from http://www.ncdc.noaa.gov/sotc/global/199713

[19] National Centers for Environmental Information. “State of the Climate: Global Analysis.” NOAA. http://www.ncdc.noaa.gov/sotc

[20] NOAA National Centers for Environmental Information, State of the Climate: Global Analysis for August 2015, published online September 2015, retrieved on January 22, 2016. http://www.ncdc.noaa.gov/sotc/global/201508

[21] Joseph D’Aleo and Anthony Watts. August 27, 2010. Surface Temperature Records: Policy-Driven Deception? Science & Public Policy Institute.http://scienceandpublicpolicy.org/images/stories/papers/originals/surface_temp.pdf

[22] Paul Homewood. January 29, 2015. “Temperature Adjustments Around the World.” Not A Lot of People Know That. https://notalotofpeopleknowthat.wordpress.com/2015/01/29/temperature-adjustments-around-the-world/

[23] Christopher Booker. February 7, 2015. “The fiddling with temperature data is the biggest science scandal ever.” The Telegraph. http://www.telegraph.co.uk/news/earth/environment/globalwarming/11395516/The-fiddling-with-temperature-data-is-the-biggest-science-scandal-ever.html

[24] Selwyn Duke. February 9, 2015. “Global Conning: temperature Data Cooked in ‘Biggest Science Scandal Ever’.” The New American. http://www.thenewamerican.com/usnews/item/20081-global-conning-temperature-data-cooked-in-biggest-science-scandal-ever?

[25] James Delingpole. February 7, 2015. “’Breathtaking’ Adjustments to Arctic Temperature Record. Is There Any ‘Global Warming’ We Can Trust?” Breitbart. http://www.breitbart.com/london/2015/02/07/breathtaking-adjustments-to-arctic-temperature-record-is-there-any-global-warming-we-can-trust/

[26] John Hinderaker. May 5, 2015. “NOAA Caught Rewriting US Temperature History (Again).” Powerline. http://www.powerlineblog.com/archives/2015/05/noaa-caught-rewriting-us-temperature-history-again.php

[27] Paul Homewood. July 20, 2015. “NOAA Tampering Exposed.” Not A Lot of People Know That. https://notalotofpeopleknowthat.wordpress.com/2015/07/20/noaa-tampering-exposed/

[28] John Hinderaker. September 27, 2015. “Almost All US Temperature Data used in Global Warming Models Is Estimated or Altered.” Powerline. http://www.powerlineblog.com/archives/2015/09/almost-all-us-temperature-data-used-in-global-warming-models-is-estimated-or-altered.php

[29] John Goetz. September 27, 2015. “Approximately 92% (or 99%) of USHCN surface temperature data consists of estimated values.” Watts Up With That. http://wattsupwiththat.com/2015/09/27/approximately-92-or-99-of-ushcn-surface-temperature-data-consists-of-estimated-values/

[30] Larry Bell. November 17, 2015. “Data Tweaking heats up climate hype.” CFACT. http://www.cfact.org/2015/11/17/data-tweaking-heats-up-climate-hype/

[31] Tony Heller. November 19, 2015. “Record Crushing Fraud From NOAA And NASA Ahead of Paris.” The Real Climate Science. http://realclimatescience.com/2015/11/record-crushing-fraud-from-noaa-and-nasa-ahead-of-paris/

[32] Judith Curry. November 5, 2015. “Is the government tinkering with global warming data?” Fox News. http://www.foxnews.com/opinion/2015/11/05/is-government-tinkering-with-global-warming-data.html

[33] Paul Homewood. November 21, 2015. “NOAA’s Fabricated ‘Record Temperatures’.” Not A Lot People Know That. https://notalotofpeopleknowthat.wordpress.com/2015/11/21/noaas-fabricated-record-temperatures/

[34] P Gosselin. November 20, 2015. “’Massive Altered’… German Professor Examines NASA GISS Temperature Datasets.” NoTricksZone. http://notrickszone.com/2015/11/20/german-professor-examines-nasa-giss-temperature-datasets-finds-they-have-been-massively-altered/#sthash.lEDY4hkl.TeBUOeAB.dpbs

[35] Steven Goddard. November 22, 2015. “NOAA Data Tampering – Much Worse Than It Seems.” Real Science. https://stevengoddard.wordpress.com/2015/11/22/noaa-data-tampering-much-worse-than-it-seems/

[36] Steven Goddard. January 7, 2014. “NASA 1990: No Global Warming – Surface Temperature Record Should Be Replaced by More Accurate Satellites.” Real Science. https://stevengoddard.wordpress.com/2014/01/07/nasa-1990-no-global-warming-surface-temperature-record-should-be-replaced-by-more-accurate-satellites/

[37] Barbara Hollingsworth. January 21, 2016. “NASA/NOAA: 2015 ‘Warmest Year on Record’ – Except Earth’s Lower Atmosphere.” CNSNews. http://www.cnsnews.com/news/article/barbara-hollingsworth/nasanoaa-2015-warmest-year-record-except-earths-lower-atmosphere

[38] Goddard Institute for Space Studies. Retrieved on January 23, 2016. “GISS Surface temperature Analysis.” NOAA. http://data.giss.nasa.gov/gistemp/graphs_v3/

[39] Thomas R. Karl, et al. June 26, 2015. ”Possible artifacts of data biases in the recent global surface warming hiatus.” Science, Vol. 348, Issue 6242. http://science.sciencemag.org/content/sci/348/6242/1469.full.pdf

[40] Ronald Bailey. January 15, 2016. “Global Temperature Trend Propaganda Video: Who Needs Pier Review?” Reason.com. http://reason.com/blog/2016/01/15/global-temperature-trend-propaganda-vide

[41] Satellite and Information Service. January 17, 2016. “Jason-3 Officially Reaches Orbit!” NOAA. http://www.nesdis.noaa.gov/jason-3/

[42] Jeff Dunetz. October 28, 2015. “Why Is NOAA Hiding its Climate Data from Congress?” The Lid. http://lidblog.com/why-is-noaa-hiding-its-climate-data-from-congress/#

[43] Judicial Watch. December 22, 2015. “Judicial Watch Sues for Documents Withheld From Congress in New Climate Data Scandal.” Judicial Watch. http://www.judicialwatch.org/press-room/press-releases/judicial-watch-sues-for-documents-withheld-from-congress-in-new-climate-data-scandal/

[44] Michael Asher. August 7, 2007. “New Scandal Erupts over NOAA Climate Data.” Daily Tech. http://www.dailytech.com/New+Scandal+Erupts+over+NOAA+Climate+Data/article8347.htm




Einwände von Klimaskeptikern führen zu keinem sokratischen Fortschritt, deshalb sind sie unproduktiv und destruktiv. Philosophen erklären, warum am Klimawandel nicht gezweifelt werden darf.

Nun darf ein Herr Schrader schreiben was er will – nur fragt man sich, warum die SZ noch damit wirbt, ihre  Leser zu informieren.

Der Artikel selbst lohnt (für Skeptiker) kaum eine grundlegende, inhaltliche Betrachtung. Doch ist es vorsichtig formuliert  befremdlich zu erfahren, dass die Redaktion einer überregionalen  Zeitung eine so bewusst einseitige und zudem diffamierende  Betrachtung zulässt, die nicht im Ansatz das geringste Interesse an Ausgewogenheit zeigt. 

Beschrieben wird anhand von klimaaktivistisch tätigen Wissenschaftlern die sich durch die Einwände von Skeptikern verfolgt fühlen und seelisch sehr darunter leiden, den anthropogenen Klimawandel argumentieren zu müssen die Forderung, Klimaskepsis zu brandmarken und als schädlich darzustellen, da diese angeblich die wahre Erkenntnis verhindern. Dabei werden typische Mechanismen benutzt und gut geheißen, welche in der Geschichte regelmäßig zur Verfolgung anderst Denkender geführt haben: Wir sind die Vertreter der absoluten Wahrheit die alleine das Wohlergehen sicherstellt. Wer diese Wahrheit auch nur in Frage stellt, gefährdet das Wohlergehen der anderen. Deshalb müssen die Anderen durch uns  vor den verderbenden Skeptikern geschützt werden.

So stehen einem die Haare zu Berge bei der idealisierenden Darstellung über Michael Mann mit seiner hochumstrittenen Hockeystick-Projektion, Phil Jones mit seinen kompromittierenden Klimamails sowie zum Kommentar von Herrn Marotzke über Klimaskeptiker.

Deutlich zeigt der Artikel auch, dass  zunehmend Politologen und Geisteswissenschaftler das Thema an sich ziehen.  Sachliche Fragen dürfen damit keine Rolle mehr spielen und werden deshalb rigoros unterdrückt – ein Mechanismus, der darauf hinweist, dass man (in der Ökokirche) die Dogmenbildung als abgeschlossen betrachtet und zur Gewissensdiktatur übergeht.

Zitiert aus dem SZ-Artikel[1]  (es wird aber empfohlen, den SZ-Artikel zu lesen):

„Wissenschaftler sehen sich Attacken von Lobbygruppen der Öl- oder Kohleindustrie und durch Privatleute ausgesetzt, die sich vernetzt haben. Sie greifen die akademische Arbeit und Qualifikation der Forscher und oft genug auch ihren Charakter an.“

Doch zugleich … "können Einwände und Kritik die Produktion weiteren Wissens behindern, also schädlich sein". Das passiere zum Beispiel, wenn Forscher, um nicht als Alarmisten gebrandmarkt zu werden, ihre Ergebnisse herunterspielen. "Das ist selbst beim Weltklimarat IPCC geschehen, der das CO-Niveau und den Anstieg des Meeresspiegels konsistent zu niedrig angegeben hat."

Das könnte auch helfen, den sogenannten Klimaskeptikern das Wort Skepsis wieder zu entwinden. Die Menschen und ihre Lobbyvereine, die reflexhaft Ergebnisse der Klimaforschung infrage stellen, beanspruchen dieses Etikett. Es gesteht den so Bezeichneten eine wissenschaftliche Kerntugend zu. "’Klimaspektiker‘ zu sagen, ist eigentlich eine unzulässige Aufwertung dieser Leute", sagt Jochem Marotzke, Direktor am Max-Planck-Institut für Meteorologie in Hamburg.

Michael Mann von der Pennsylvania State University, der sich für seine Rekonstruktion des Klimas vergangener Jahrhunderte vor einem Kongress-Ausschuss in bester McCarthy-Manier rechtfertigen musste, beschreibt das in seinem Buch "The Hockey Stick and the Climate Wars" als "die bestfinanzierte, am sorgfältigsten orchestrierte Attacke auf die Wissenschaft, die die Welt je erlebt hat". Sein Kollege Phil Jones von der University of East Anglia, von dessen Computern 2009 Tausende E-Mails gestohlen und veröffentlicht wurden, ging durch ein Feuerbad von Pressekampagnen und Untersuchungskommissionen. Er berichtete von Morddrohungen und Suizidgedanken.

Dieser Vierschritt ist erkennbar an den Streit angelehnt, den die Kritiker der Klimaforschung angezettelt haben. In dieser Debatte sind gravierende Folgen zu erwarten, sollte die Welt die Warnungen der Wissenschaft in den Wind schlagen. Die Gefahr für die Öffentlichkeit besteht im Verlust elementarer Lebensbedingungen, während betroffene Unternehmen auf Profit verzichten müssten. Und nur Letzteres ist für konservative amerikanische Thinktanks inakzeptabel, während sie die Bedrohung für arme Bauern in Afrika oder Küstenbewohner in Florida als bedauernswerte Folge natürlicher Prozesse abtun.

Quellen

[1]

Süddeutsche Zeitung 23. November 2015: Wie Klimaskeptiker Forscher attackieren

http://www.sueddeutsche.de/wissen/klimaforschung-wie-klimaskeptiker-forscher-attackieren-1.2746285




Die traurigen Geschichten der Wikipedia Bande im Krieg gegen WUWT – ‚gruselig und ein wenig beaengstigend „

Lesen Sie hier mehr: The-ClintonObama-War-The-Battle-of-Wikipedia [Der-Clinton-Obama-Krieg: Die-Schlacht-in-Wikipedia]

Dies veranschaulicht die grundlegenden Probleme mit der Zuverlässigkeit von Wikipedia in einem Eintrag, in denen die Meinung der Menschen beteiligt ist. Es gibt umherziehende Banden (und manchmal Menschen, die Banden-artig erscheinen aufgrund ihres Output-levels, wie der in Ungnade gefallene Wikipedia-Editor William Connolley, der ohne Zweifel wehklagen wird über diese Anmerkung, [hier und hier und hier] , und dann fortfahren wird mit dem posten der üblichen Verunglimpfungen auf seinem „Stoat Blog, den Naturwissenschaften an die Gurgel“) [Staot: Hermelin, Anspielung auf einen selbsternannten König] und Personen, die als Hüter der eigenen Vision von “ Wahrheit „handeln, unabhängig davon, ob diese Wahrheit richtig ist oder nicht. Einige dieser Leute werden einfach als Politarbeiter bezahlt. Andere sind Eiferer, die den Glauben haben, dass sie Teil einer „gerechten Sache“ sind, etwas, das wir aus Climate Gate als “noble cause corruption“ kennen [der Zweck heiligt die Mittel, … Selbstjustiz].

Viele der beteiligten Personen verwenden nicht einmal ihren richtigen Namen, und verstecken sich natürlich hinter dieser Anonymität. Meiner Meinung nach, ist es wirklich eine verantwortungslose und feige Art und Weise, um „Wahrheit“ zu definieren ohne Verantwortung für Ihr Handeln aufzubringen.

Gerade jetzt herrscht ein Krieg über WUWTs Eintrag auf Wikipedia, mit der klaren Absicht eine Schmutzkampagne loszutreten. Ich habe dazu eine große Menge von E-Mail bekommen. Hier einige Beispiele:

Nur eine Vorwarnung, dass eine gemeinsame Anstrengung im Gange ist, um Sie und WUWT als „ein Blog den Klimawandel Leugnern gewidmet“ zu kennzeichnen (erste Zeile in der Anzeige, WUWT Artikel) und vom Klimatologen Michael E. Mann in „Der Hockey-Stick und die Klimakriege“ beschrieben als: „überholt Climate Audit als führender Klimawandel Lügner-Blog“. (letzte Zeile in Ihrem Wikibio).[1] Ein Doppelangebot! Seufz.

Es ist eine bestimmte Gruppe, und die Dinge (wie Sie sich erinnern können) werden durch Kopf-Zählungen entschieden. „Sie“ haben mehr Köpfe als wir ….

Von einem anderen betroffenen Leser

Ich habe gerade versucht es richtig zu stellen und wurde lahmgelegt. Jene Leute kümmern sich wirklich mehr um „Informationsregulation“ der Öffentlichkeit als nur die Tatsachen zu berichten. Es ist gruselig und ein wenig beängstigend. Ein bisschen wie Doppelzüngigkeit. Das Spiel scheint zu sein, die Suche nach einer „Quelle“, die ihren eigenen Standpunkt vertritt und dann dieser Quelle „hohe Glaubwürdigkeit“ zuerkennen, während alles andere verunglimpft wird. Ich bin über den Klimawandel tatsächlich ambivalent und irgendwo in der Mitte, es ist ein großes Problem. So viel ist unbekannt, wenn es um die Naturwissenschaften geht. Aber wenn ich das oben beschriebene Verhalten sehe, macht mich das richtig, richtig krank, unabhängig davon, um welche Seite es geht. Wie auch immer, ich wollte nur dieses nur zu Ihrer Aufmerksamkeit bringen, für den Fall Sie würden es nicht bereits kennen.

Und das noch:

Anthony, ich weiß nicht, ob Sie es sich bewusst sind, bei der Suche nach WUWT mit Bing [2] erscheint ein Profil am rechten Rand, von dem der erste Satz lautet: “Watts Up With That? is a blog dedicated to climate change denial created in 2006 by Anthony Watts” [ .. ist ein Blog, dem Leugnen des Klimawandels gewidmet …]

[Bing.com funktioniert von einem deutschen PC nur mit deutschen Text, Verweis auf Wikipedia.org, hier der aktuelle, deutsche Text:

„Watts Up With That (abgekürzt WUWT) ist ein Blog, der im November 2006 vom früheren TV-Wetterkommentator Anthony Watts begonnen wurde und sich aus einer klimaskeptischen Position heraus mit der Kontroverse um die globale Erwärmung beschäftigt.“]

Ich habe ihr Feedback Formular genutzt um darauf zu protestieren, aber ohne Zweifel wird es ignoriert. Keine Möglichkeit, darauf zu reagieren.

Natürlich bin ich nicht berechtigt, Änderungen selbst zu machen, denn die Wikipedia-Regeln verhindern solche Dinge wegen möglicher „Voreingenommenheit“. (Hinweis: In einigen Fällen wird sogar die Wikipedia Verwaltung nicht einmal versuchen, Unwahrheiten zu korrigieren, die einen öffentlichen Aufruf erfordern, wie dieser Offener Brief an Wikipedia.

Aber seltsamerweise sind wir für Menschen, die ein absichtliches Vorurteil gegen mich und WUWT haben, Freiwild für solche Änderungen. Die Zitate Liste auf der WUWT Wikipedia-Seite liest sich wie ein „Who is Who“ der Hasser.

Für die Aufzeichnung:

Ich streite Klimawandel oder globale Erwärmung „nicht ab“, es ist mir klar, dass die Erde sich im letzten Jahrhundert erwärmt hat, das ist unbestritten. Ich glaube auch, dass zunehmende Mengen von CO2 in Erdatmosphäre Bestandteil dieser Erwärmung sind, aber das CO2 ist nicht der einzige Treiber des Klimas, wie manche uns glauben machen wollen. Jedoch, was umstritten ist (und von der Mainstream-Klimawissenschaft in Frage gestellt) ist sowohl die Klimasensitivität von CO2 als auch die Lücke in der globalen Erwärmung, auch als „Pause“ bekannt. Da ich die Idee der Erwärmung annehme und CO2 ein Faktor ist, zusammen mit anderen Treibern, einschließlich natürlicher Variabilität, ist das Label „Lügner“ rein für die Verunglimpfung angewendet und reflektiert meine Position in Bezug auf das Klima nicht.

Der Absatz oben, sollte als eigener Eintrag in den Wikipedia Zitaten stehen.

Da es sich um ein Spiel mit Zahlen handelt und weil jeder Wikipedia-Artikel bearbeiten kann, frage ich WUWT Leser in dieser Angelegenheit zu helfen. Hier sind einige Anweisungen wie dies zu tun ist, einschließlich der offiziellen Wikipedia Tutorials. Nachdem Sie ein Konto erstellt haben, können Sie Änderungen vornehmen.

Wenn Sie mitmachen, halten Sie sich bitte an Tatsachen, nicht an Meinungen. Vielen Dank für Ihre Aufmerksamkeit

Erschienen am 25. Mai 2015 auf WUWT

http://wattsupwiththat.com/2015/05/25/the-sad-tales-of-the-wikipedia-gang-war-regarding-wuwt-creepy-and-a-little-scary/

Übersetzt durch Andreas Demmig

Recherche des Übersetzers:

[1] Wiki siehe hier: Jump up to: a b c d e Mann, Michael (1 October 2013). The Hockey Stick and the Climate Wars: Dispatches from the Front Lines. Columbia University Press. pp. 27, 72, 222. „Since then, a number of other amateur climate change denial bloggers have arrived on the scene. Most prominent among them is Anthony Watts, a meteorologist…and founder of the site „Watts Up with That?“ which has overtaken climate audit as the leading climate change denial blog.“

[2] Ich habe mal u.g. Suchmaschinen getestet:

Bing.com; Google.de; Yahoo.com; T-Online.de; AOL.de; Search.com; ASK.de

„WUWT“ an erster Stelle, Wiki-WUWT an 2. und 3.;
Bing außerdem rechtes extra Feld Wiki-WUWT
Nur Ask bietet keinen Wiki Hinweis

„Eike“ an erster Stelle, Wiki-Eike an 2. Und / bzw. 3. Stelle
Ask und Search erstmal viele Eike-Namen, unten dann Eike.eu, kein Wiki Hinweis.

Obwohl also nur die Abkürzungen „WUWT“ und „EIKE“ eingeben werden, erhält der Suchende auch Artikel „in Wikipedia“, das ist etwas anderes als „Eike“ Namensanzeigen.

Normal 0 21 false false false DE X-NONE X-NONE




Deja Vu auf dem World Economic Forum – Katastrophen Al (Gore) darf wieder Katastrophen predigen und die Erlösung gleich mitliefern.

Derzeit verbringen die Führer der Welt, oder die sich dafür halten, ihre Zeit beim World  Economic Forum, der pfiffigen PR Veranstaltung des  „Who is Who“ der Welt, organisiert vom genialen PR-Vermarkter und Wirtschaftsprofessor Klaus Schwab. Nicht nur der in Deutschland schmählich gescheiterte ehemalige FDP Chef und Wirtschaftsminister Rösler darf dort „liefern“, sondern auch der ebenso politisch gescheiterte ehemalige Vizepräsident der Vereinigten Staaten  Al Gore.

Video des Vortrags von Al Gore auf dem World Economic Forum 2015, mit Dank an Spürnase R. Hoffmann

Und der haut bei seinem Vortrag vor illustrem Publikum in bekannter Manier -und in Breitwand- immer wieder auf dieselbe Pauke. Dabei geht ihm nicht um die Wahrheit, es geht ihm allein ums Geschäft. Doch das verkauft er geschickt als Erlösung vom Übel. Jede Katastrophe weltweit, ist ihm gerade gut genug, um seine Mär von der vom anthropogenen CO2 induzierten Erwärmung zu unterstützen. Kein Wort vom nunmehr bereits 18 jährigen Stillstand der globalen Mitteltemperatur. Trotz steig steigender CO2 Konzentration. Kein Wort von der deutlichen Abnahme schwerer Stürme in den letzten Jahrzehnten.

Im Gegenteil alles wird furchtbar wärmer und immer schlimmer. Sämtliche Wetterextreme der letzten Jahre werden von ihm systematisch zu Klimaänderungen umdefiniert, garniert mit schrecklichen Bildern ertrinkender Menschen.

Die Luftverschmutzung in Beijing ist für ihn Folge des Klimawandels, alle Überschwemmungen sind Folgen des Klimawandels, Waldbrände sind Folgen des Klimawandels, kurz alle Katastrophen, alles Schlechte auf dieser Welt ist Folge des Klimawandels. Des menschgemachten versteht sich. Selbst die zigfach als grobe Fälschung (1) entlarvte Mannsche Hockeyschägerkurve zerrt er vom Müllhaufen der Geschichte um seine Behauptungen zu unterstützen.

Und er macht es gut. Denn das Publikum der Weltführer hängt offensichtlich gebannt an seinen Lippen.

Doch Gore wäre nicht Gore, gelernter Polit-Prediger der er ist, wenn er nicht nach all den gezeigten Katastrophen auch den Weg zur Erlösung aufzeigen würde:

Es ist die „grüne Wirtschaft“ angetrieben von „grüner Energie“ . Überall auf dieser Welt – so Gore in seinem Vortrag- siegen die „Erneuerbaren! – zumindest will er es uns so  glauben machen. Und zwar deswegen weil sie so gut sind und die Erlösung bringen.

Leider bestätigt sich auch hier wieder die zeitlose Wahrheit die der große Denker Ale­xis de To­qu­e­ville so formulierte:

„Das Pub­li­kum wird eher die ein­fa­che Lüge, als die kom­pli­zier­te Wahr­heit glau­ben“,

Und das gilt für die Führer dieser Welt ebenso wie für die Medienvertreter die uns all das täglich vermitteln.

Über sie sagte John Swinton damals  He­raus­ge­ber New York Ti­mes in sei­ner Ab­schieds­re­de 1880. Jhh. Details hier

„So et­was wie eine freie Pres­se gibt es nicht. Sie wis­sen es, und ich weiß es“, Und fuhr fort: „Nicht ei­ner un­ter Ih­nen wür­de sich trau­en, sei­ne ehr­li­che Mei­nung zu sa­gen. Die ei­gent­li­che Auf­ga­be des Jour­na­lis­ten bes­teht da­rin, die Wahr­heit zu zer­stö­ren, faust­di­cke Lü­gen zu er­zäh­len, die Din­ge zu ver­dre­hen und sich selbst, sein Land und sei­ne Ras­se für sein täg­li­ches Brot zu ver­kau­fen. Wir sind Werk­zeu­ge und Ma­ri­o­net­ten der Rei­chen, die hin­ter den Ku­lis­sen die Fä­den in der Hand hal­ten. Sie spie­len die Me­lo­die, nach der wir tan­zen. Un­se­re Ta­len­te, un­se­re Mög­lich­kei­ten und un­ser Le­ben be­fin­den sich in den Hän­den die­ser Leu­te. – Wir sind nichts wei­ter als in­tel­lek­tu­el­le Prosti­tu­ier­te.“

Hat sich bis heute irgendetwas daran geändert? Eher nicht, schauen Sie mal hier rein!

(1) Übernommen von Die kalte Sonne: Apropos “The Hockey Stick Illusion”.

Ein wichtiges Element der Hockeyschläger-Affäre waren Baumringe, die in kreativer Weise in fragwürdige Klimasignale umgesetzt wurden. Ein Forscherteam um Matthew Salzer von der University of Arizona hat nun eine weitere Bestätigung gefunden, dass die damals verwendeten Baumringdaten krass von der Temperaturentwicklung abwichen. Alles schön nachzulesen in WUWT,Climate Audit und JoNova basierend auf Salzer et al.. Hier die Kurzfassung der Arbeit aus den Enviromental Research Letters, die dort im November 2014 erschien:

Changing climate response in near-treeline bristlecone pine with elevation and aspect
In the White Mountains of California, eight bristlecone pine (Pinus longaeva) tree-ring width chronologies were developed from trees at upper treeline and just below upper treeline along North- and South-facing elevational transects from treeline to ~90 m below. There is evidence for a climate-response threshold between approximately 60–80 vertical m below treeline, above which trees have shown a positive growth-response to temperature and below which they do not. Chronologies from 80 m or more below treeline show a change in climate response and do not correlate strongly with temperature-sensitive chronologies developed from trees growing at upper treeline. Rather, they more closely resemble lower elevationprecipitation-sensitive chronologies. At the highest sites, trees on South-facing slopes grow faster than trees on North-facing slopes. High growth rates in the treeline South-facing trees have declined since the mid-1990s. This suggests the possibility that the climate-response of the highest South-facing trees may have changed and that temperature may no longer be the main limiting factor for growth on the South aspect. These results indicate that increasing warmth may lead to a divergence between tree growth and temperature at previously temperature-limited sites.

 




Klimawissenschaft: Fehler von Fehlverhalten trennen

In einem kürzlich bei Climate Audit erschienenen Artikel wird untersucht, ob eine Graphik absichtlich oder unabsichtlich verkehrt herum dargestellt worden ist. In der Einleitung wird gefragt:

Spielt es eine Rolle, ob Proxys verkehrt herum verwendet werden oder nicht?

Vielleicht nicht in der Welt von Michael Mann (in der er als Erwiderung auf unsere Kritik bei PNAS behauptete, dass es für ihn unmöglich sei, Reihen verkehrt herum zu verwenden). Aber anders als Mann räumt Darrell Kaufman die Verantwortung ein, Proxy-Reihen in der richtigen Reihenfolge zu verwenden. Unglücklicherweise scheinen er und die PAGES2K-Autoren nicht sehr erpicht darauf zu sein sicherzustellen, dass sie das auch so machen.

Diese Story läuft parallel zur Tijander-Graphik, einer früheren Verkehrt-Herum-Präsentation in dem Debakel um den „Hockeyschläger“, der dazu erdacht worden ist, die Klima-Historie umzuschreiben dergestalt, dass die Mittelalterliche Warmzeit MWP aus den Statistiken eliminiert wird. Bei Climate Audit hat man sich auch die Tijander-Graphik vorgenommen und erschöpfend untersucht.

McIntyre und McKitrick (M&M) kommt der Verdienst zu, die von Mann et al. angewendeten ungeeigneten statistischen Methoden bloßgestellt zu haben, mit denen die Hockeyschlägergraphik erstellt worden ist. Diese hat ja den Missbrauch der Klimawissenschaft seitens des IPCC an das Tageslicht gebracht. Allerdings hat der große australische Skeptiker John Daly das größere Problem erkannt, bevor M&M die falschen Methoden bloßgestellt hatten. Ich empfehle dringend allen Menschen Dalys bemerkenswerte Analyse in seinem Artikel „The ‘Hockey Stick’: A New Low in Climate Science” zu lesen. Man beachte, dass dieser Artikel vor M&M erschienen war, findet sich doch darin keinerlei Querverweis auf deren Arbeit. Stattdessen handelt es sich dabei um eine synoptische Klimaanalyse dessen, was falsch ist.

Ich verstehe es so, dass McIntiyre den „Hockeyschläger“ auf einer Konferenz gesehen und ohne zu wissen, dass es eine Darstellung der globalen Temperatur sein sollte, aus seiner Erfahrung mit Statistik heraus sofort erkannt hat, dass es sich um eine potentiell manipulierte Darstellung handelt. Aus der Analyse von M&M geht klar hervor, mit welchen spezifischen Mitteln diese Graphik erzeugt worden ist. Eine Zeitlang kritisierten Kommentatoren auf der Website von McIntyre, dass dieser unwillig war zu sagen, dass Manns Aktionen absichtlich irreführend waren. Korrekterweise billigte ihm McIntyre zunächst das Recht auf Zweifel zu und ging davon aus, dass es bei ihm fehlendes Wissen und Verständnis war. Ethisch gibt es einen Unterschied zwischen einem Fehler und einem vorsätzlichen Fehler. Dies war Thema meiner Präsentation auf der 6. Heartland-Klimakonferenz in Washington D.C., aber dort kam das Argument, dass der gesamte IPCC-Prozess vorsätzlich war ebenso wie die Ergebnisse ihrer Computermodelle.

Der Missbrauch spezialisierter Methoden und Verfahren ist ein fundamentales Problem wegen der allgemeinen wissenschaftlichen Natur der Klimatologie. Die meisten sind Spezialisten nur in einer einzelnen Hinsicht und nennen sich dann fälschlich Klimawissenschaftler. Wenn sie versuchen, Stücke des riesigen Systems zusammenzufügen, müssen sie unvermeidlich zu unvertrauten Methoden und Verfahren greifen. Die Wahrscheinlichkeit eines Fehlers ist hoch. Dies ist höchst problematisch für Computer-Modellierer.

Das IPCC hat solche Spezialisten zusammengebracht und sie damit beauftragt, die Hypothese zu beweisen (anstatt sie zu widerlegen), dass die Menschen Grund für die globale Erwärmung (AGW) sind. Es war eine unheilige Allianz, die ein Umfeld von Missbrauch schuf. Sie fabrizierten wissenschaftliche Beweise in Fachbereichen, von denen sie kaum Ahnung hatten, und zwar mit Methoden und Verfahren, von denen sie sogar noch weniger Ahnung hatten. Mit massiven Finanzzuwendungen und politischer Unterstützung wurde dies zu einem Rezept für Katastrophen, wie es in den durchgesickerten E-Mails der Climate Research Unit (CRU) offenbar geworden ist. Das Ergebnis rechtfertigt die Mittel: man tue alles, was immer notwendig ist, um zu zeigen, dass menschliches CO2 die Ursache der globalen Erwärmung ist und dass die derzeitigen Temperaturen die höchsten jemals waren. CRU war eine kleine Gruppe und ein klassisches Beispiel von Gruppendenken, befeuert durch die Politik, wie ich seinerzeit hier erklärt habe.

Irving Janis erklärt das Konzept von Gruppendenken, welches Einmütigkeit erfordert auf Kosten von Entscheidungen hinsichtlich der Qualität. Ein kürzlich bei WUWT erschienener Beitrag befasste sich mit dem Problem des Gruppendenkens im Gebiet der Physik (hier):

Vom Gruppendenken betroffene Gruppen ignorieren Alternativen und tendieren dazu, irrationale Aktionen durchzuführen, die andere Gruppen entseelen. Eine Gruppe ist besonders verwundbar durch Gruppendenken, wenn deren Mitglieder einen ähnlichen Hintergrund haben, wenn die Gruppe abgeschirmt ist von externen Meinungen und wenn es keine klaren Regeln für die Entscheidungsfindung gibt.

Lubos Motl berichtete über den Kommentar von Benjamin Santer vom 25. April, in dem er sagte:

Ich schaute mir Einiges von dem Zeug bei Climate Audit an. Ich hatte wirklich das Gefühl, dass ich mal mit einigen dieser „Auditoren“ in einer dunklen Ecke reden sollte.

Dies ist der gleiche Santer, der als Leitautor einen zuvor abgesegneten IPCC-Bericht noch verändert hat. Avery und Singer schrieben im Jahre 2006:

Santer hat im Alleingang die ,Klimawissenschaft‘ des gesamten IPCC-Berichtes auf den Kopf gestellt und damit auch den politischen Prozess bzgl. der globalen Erwärmung! Der vom IPCC proklamierte vermeintliche ,erkennbare menschliche Einfluss‘ wurde tausende Male in Medien auf der ganzen Welt zitiert und war der ,Stopper‘ in Millionen Diskussionen unter Nichtwissenschaftlern“.

Es ist kaum vorstellbar, dass Santer nicht wusste, was er tat. Als seine Änderungen öffentlich gemacht worden waren, wurde eine rapide Antwort erzeugt, die eine Vertuschung zu sein scheint. Zu den diesbezüglichen Aktionen folgt hier noch einmal mit kleinen Änderungen, was ich seinerzeit dazu geschrieben habe:

Am 4. Juli 1996, kurz nach der Enthüllung, wartete das offensichtlich willfährige Journal Nature mit einem Artikel auf unter der Überschrift A Search for Human Influences On the Thermal Structure of the Atmosphere”. Mitgeliefert wurde eine nur allzu bekannte Liste von Autoren – Santer, Wigley, Mitchell, Oort und Stouffer. Er bot beobachtbare Beweise, die zeigten, dass die Modelle akkurat waren. Eine Graphik ist so viel wert wie tausend Worte, wie Manns „Hockeyschläger“ zeigte, und genauso war es mit Santers ,erkennbarem menschlichen Einfluss‚. John Daly reproduzierte die Graphik von Santer et al. (Abbildung 1) mit dem aufwärts gerichteten Temperaturtrend in der oberen Atmosphäre:

Abbildung 1

Dann erstellte Daly eine Graphik mit dem größeren Datensatz in Abbildung 2 und erklärte: „Wir erkennen, dass die in Santers Version erkennbare Erwärmung einfach das Ergebnis der ausgewählten Daten ist“ (Fettdruck von Daly):

Abbildung 2

Fast sofort wurden Fehler entdeckt, aber Nature hat sich mit der Veröffentlichung der Widerlegungen 5 Monate Zeit gelassen (bis zum 12. Dezember 1996), nachdem der oben besprochene Artikel veröffentlicht worden war. Einer erkannte die Rosinenpickerei, ein anderer stellte eine natürliche Erklärung für das Phänomen vor. Allerdings war zu jener Zeit die PR-Verschleierung bereits im Gange. Am 25. Juli 1996 sandte die American Meteorological Society AMS eine Brief der Verteidigung an Santer. Der Brief scheint den CRU-Einfluss zu beweisen und ist ein PR-Meisterstück. Es hieß darin, dass es zwei Fragen gebe, die Wissenschaft und was die Gesellschaft hinsichtlich der wissenschaftlichen Ergebnisse und der Debatte tun muss, die sie ausgelöst haben. Wissenschaft sollte nur in wissenschaftlich begutachteten Fachjournalen besprochen werden und nicht in den Medien. Dies war die in einer durchgesickerten E-Mail bestätigte Strategie von Mann. „Das war die Gefahr, die Skeptiker immer zu kritisieren, weil sie nichts in der ,begutachteten Literatur‘ veröffentlichen“. Darauf schrieb die AMS: Was zählt, ist wissenschaftliche Information und wie diese in politischen Debatten interpretiert wird. Das ist ein wichtiger Teil unserer Aufgaben. Das sind schließlich die wirklichen Gründe für die Vermischung von Wissenschaft und Politik im IPCC. Daly nannte das zu Recht „Wissenschaftismus“ [scientism].

Die Zurückweisung scheint zu belegen, dass Santer wusste, was er tat mit seinen Original-Änderungen des IPCC-Berichtes. Er wusste eindeutig um den willkürlich gewählten Start- und Endzeitpunkt der Graphik. Jeder Graph muss einen Start- und einen Endzeitpunkt haben, aber dieses Beispiel fand sich in einem Artikel, der geschrieben worden war, um die Bloßstellung seiner Umformulierungen zu verwerten.

Die Verteidigung von Santer erfolgte offensichtlich konzertiert und folgte einem Muster, das immer dann zur Anwendung kam, wenn Fehlverhalten ans Tageslicht gekommen war. Das Einspannen offizieller Agenturen zur Abdeckung des Fehlverhaltens erklärt vieles, warum das immer weiter betrieben wurde. Es erklärt auch, warum die Täter weiterhin glauben, dass sie nichts Falsches getan haben.

Phil Jones hat nach der Veröffentlichung der E-Mails die Polizei gerufen. Um die Behauptung eines Hacker-Angriffs zu stützen, musste er zugeben, dass sie echt waren. Die Ergebnisse waren bedeutungslos, weil sich die Untersuchung hinzog, bis das Statute of Limitations [?] ausgelaufen war. In einer dem widersprechenden Schlussfolgerung sagte die Polizei:

Besonders die internationale Dimension, das World Wide Web zu untersuchen, hat sich als extreme Herausforderung erwiesen … Als Ergebnis unserer Ermittlungen können wir jedoch sagen, dass der Datendiebstahl das Ergebnis eines ausgeklügelten und sorgfältig orchestrierten Angriffs auf die Datensätze der CRU war, durchgeführt via Internet“.

Das ist einfach unglaubwürdig angesichts des Ausmaßes, mit dem gewöhnliche Bürger ausspioniert werden, und angesichts des Ausmaßes an Wissen, das erforderlich ist, um aus 220.000 E-Mails 1000 herauszufiltern. Es gibt drei Möglichkeiten: Sie sind inkompetent, absichtlich irreführend oder beides. Wie auch immer, es war zu langsam, um dem Glaubwürdigkeitsverlust der gesamten IPCC-Operation zu begegnen.

Als Folge wurden blitzartig fünf kontrollierte Untersuchungen initiiert, alle orchestriert, um irrezuführen und abzulenken. Hans von Storch schrieb über die 3 Untersuchungen in UK:

Wir müssen uns selbstkritisch fragen, was da geschehen ist. Nichts darf unter den Teppich gekehrt werden. Einige der Untersuchungen wie in UK haben genau das getan. Sie haben eine Gelegenheit, Vertrauen wiederherzustellen, verpasst“*

[*Rückübersetzung aus dem Englischen].

Lord Oxburgh wurde berufen, eine der Untersuchungen zu leiten.

Oxburgh war kompromittiert, weil er ein Mitglied der Royal Society ist. Wichtiger aber ist, dass er leitender Direktor der Carbon Capture and Storage Association und Vorsitzender of Falck Renewable Resources ist, die sehr von der Behauptung profitieren, dass menschliches CO2 Erwärmung verursacht. Er befürwortete auch die Erwärmungs-Behauptung als Vizevorsitzender von GLOBE International in UK, einem Konsortium von Industrie, NGOs und der Regierung, die für die Politik zur globalen Erwärmung Lobbyarbeit leistet.

Es folgt eine Liste der Probleme bei der Oxburgh-Untersuchung:

Die Oxburgh-Untersuchung sollte die CRU-Wissenschaft untersuchen, aber um das zu tun, gab es a) keine öffentlichen Anhörungen und b) keine Anforderung von Beweisen.

Nur 11 akademische Studien wurden untersucht, eine Liste, die von Phil Jones unter die Lupe genommen worden war. Er war Direktor der CRU, also der Agentur, die untersucht werden sollte.

Interviews mit CRU-Mitarbeitern wurden nur hinter verschlossenen Türen durchgeführt.

Es gab keine Zusammenkunft mit CRU-Kritikern.

Die UEA hatte die effektive Kontrolle über die gesamte Untersuchung.

Das Select Committee des Unterhauses in UK hat Oxburgh hinsichtlich der Oberflächlichkeit seiner Studie und seines Berichtes sowie seiner versprochenen Begutachtung der Wissenschaft in die Mangel genommen.

Mehr Informationen hierzu gibt es in der detaillierten Zusammenfassung der Grenzen aller Untersuchungen bei Andrew Montford. Die Untersuchung von Muir Russell war so schlecht, dass selbst Guardian’s Fred Pearce schrieb:

Geheimniskrämerei stand bei der CRU auf der Tagesordnung. Wir fanden, dass es dort ein konsistentes Verhalten gab, nicht dem gebotenen Grad an Offenheit zu folgen, heißt es in dem Bericht. Diese Kritik richtet sich nicht nur an Jones und sein Team an der CRU. Sie richtet sich genauso an die Universität selbst, die empört sein könnte, sich selbst genauso im Schlamassel zu finden wie die Wissenschaftler, über die zu richten Russell beauftragt worden war“.

Jeder macht Fehler in der Wissenschaft, aber normalerweise werden diese im idealerweise unpersönlichen und professionellen Begutachtungsprozess gefunden. In Santers Fall haben seine Mitautoren die Begutachtung durchgeführt. Er hat beschlossen, deren Bedenken beiseite zu schieben und wurde erwischt. Der Artikel zum Hockeyschläger war begutachtet, aber wie Prof. Wegman in seinem Bericht an ein Komitee des Kongresses schrieb:

In unserer weiteren Erkundung des Netzwerkes der Autoren der Temperatur-Rekonstruktion fanden wir, dass mindestens 43 Autoren direkte Verbindungen zu Dr. Mann haben, und zwar in Gestalt der Mitautorenschaft seiner Studien. Unsere Ergebnisse dieser Analyse zeigen, dass Autoren im Fachgebiet Paläoklima eng verbandelt sind und dass daher ,unabhängige Studien‘ nicht so unabhängig sein könnten, wie sie an der Oberfläche aussehen.

Dieses Ergebnis wurde durch die durchgesickerten CRU-E-Mails bestätigt. Die Korruption dieses Prozesses seitens der CRU bedeutete Fehler, die absichtlich oder unabsichtlich Eingang in die wissenschaftliche Aufzeichnung fanden. Außerdem wurde die Verschleierung und die Ablehnung der Veröffentlichung von Daten zum Standard. Wegman dazu:

Es ist nicht klar, dass Mann und seine Verbündeten den Fehler in ihrer Verfahrensweise zur Zeit der Veröffentlichung erkannt haben. Infolge fehlender vollständiger Dokumentation ihrer Daten und Computer-Codes waren wir nicht in der Lage, ihre Forschungen nachzuvollziehen. Wir haben jedoch bei der Reproduktion der Verfahren von M&M ähnliche Ergebnisse wie diese erzielt. Dieses Nachvollziehen stützt die Kritik der MBH98-Methoden, wo der Offset* des mittleren Wertes eine künstlich große Abweichung vom gewünschten mittleren Wert Null erzeugt.

[*Original: „as the offset of the mean value creates an artificially large deviation from the desired mean value of zero“. Das habe ich inhaltlich nicht verstanden. Im LEO werden für ,offset‘ so viele Bedeutungen angezeigt, dass ich deswegen da ratlos war. Anm. d. Übers.]

Sie wussten, warum man die Daten in Erfahrung bringen wollte. Phil Jones antwortete am 21. Februar 2005 auf die Datenanforderung von Warwick Hughes so:

Wir haben etwa 25 Jahre in die Arbeit gesteckt. Warum sollte ich Ihnen die Daten zugänglich machen, wenn es Ihr Ziel ist zu versuchen, Fehler darin zu finden?“

Später sagte Jones dass er die Daten verloren habe. Werden auch andere Daten im Nirwana verschwinden?

Bedeutsam ist hier die Natur des Fehlers. Falls er entscheidend war für eine These oder eine wissenschaftliche Schlussfolgerung, wurde der Fehler aus Inkompetenz oder mit Absicht gemacht. Wie auch immer, die dafür verantwortliche Person ist auf seiner Position wegen seiner Behauptungen fehl am Platze.

Entscheidend für die IPCC-Objetive war die Notwendigkeit zu beweisen, dass die menschliche Erzeugung von CO2 zu Temperaturzunahmen führte und Temperaturen zeitigte, die in der gesamten Historie höher denn je lagen. Ist es Zufall, dass dies die Bereiche sind, wo die Wissenschaft geschaffen wurde, um das vorbestimmte Ergebnis zu bekommen? Es scheint, dass sich eine Verteilung von Fehlern heraus kristallisiert, die Fehlverhalten beweisen. Unglücklicherweise weiß ich nicht um die Verantwortlichkeiten, aber dies ist allgemein die Lage mit den verbundenen Punkten des Fehlverhaltens in der heutigen Gesellschaft.

Link: http://wattsupwiththat.com/2014/10/12/climate-science-separating-mistakes-from-malfeasance/

Übersetzt von Chris Frey EIKE




Wissenschaft im Dienst der Ideologie

Die Karriere des Trofim Lyssenko

Trofim Denissowitsch Lyssenko (russisch Трофим Денисович Лысенко, wiss. Transliteration Trofim Denisovič Lysenko; * 17. Septemberjul./ 29. September 1898greg. in Karlowka, Russisches Kaiserreich; † 20. November 1976 in Moskau) war ein sowjetischer Biologe und Agronom, der unter Josef Stalin großen politischen Einfluss erlangte. Seine Theorie des Lyssenkoismus, nach der Erbeigenschaften durch Umweltbedingungen bestimmt werden, war wissenschaftlich unhaltbar und widersprach den bereits zu Lyssenkos Zeiten bekannten Grundlagen der Genetik. Einige seiner Forschungsergebnisse wurden als Fälschung entlarvt.

Wikipedia

Lyssenko wäre unter anderen Umständen ein unbekannter Agronom geblieben, der allenfalls in Fachkreisen eine gewisse Reputation für die züchterische Verbesserung von Feldfrüchten und Nutztieren erlangt hätte.
Doch die Sowjetunion war im Würgegriff einer totalitären Ideologie, die in alle Lebensbereiche eingriff, auch in die Landwirtschaft. Die politisch motivierte Kollektivierung führte nicht zum erhofften und versprochenem Resultat einer Leistungssteigerung, sondern geradewegs in den Niedergang und damit verbunden zu Hungersnöten.

Da Ideologen niemals zugeben, dass sie etwa selbst an Problemen schuld sein könnten, war die Kollektivierungsmaßnahme jedoch trotz ihres offensichtlichen Mißerfolgs unantastbar. Der Hunger erforderte jedoch schnelle und durchgreifende Maßnahmen.
Im Jahr 1931 beschloß daher das Zentralkomitee der KPdSU, dass das Getreide an den Mißernten schuld sei: Schnellstens sollten neue Sorten gezüchtet werden, die besser angepasst höhere und zuverlässigere Ernten erbringen sollten. Doch bahnbrechende Fortschritte in der Pflanzenzucht brauchten damals, vor der Entdeckung der Hybridisierung und der Gentechnik, viel Zeit. Zeit stand aber nicht zur Verfügung. Die Ideologie war an eine unüberwindliche Grenze gestoßen. Besser gesagt: Das Zentralkomitee verlangte nichts weniger als ein Wunder.

Und genau hier kam der ehrgeizige Lyssenko ins Spiel.

Schon vorher war er einer unkritischen und sensationslüsternen Presse aufgefallen:
1927 erzählte er einem Reporter der ‘Pravda’, er könne Felder ohne Düngemittel und Mineralien fruchtbar machen. Das ist natürlich unwissenschaftlicher Unfug; seit Liebig ab dem Jahr 1840 die Agrochemie begründete, wissen wir unzweifelhaft, dass Pflanzen sich von Mineralsalzen, CO2, Licht und Wasser ernähren und dass keine dieser Komponenten ersetzbar ist und dass keine weiteren Komponenten gebraucht werden oder einen tatsächlichen physiologischen Nutzen hätten.

Doch Lyssenko passte ins Schema, er war ‘barfüssig’ (bäuerlicher Herkunft im Gegensatz zu den etablierten Wissenschaftlern die damals noch aus dem ‘bourgeoisen’ Milieu stammten), er versprach eine ‘Revolution’ im revolutionären Rußland und er fand offenbar den richtigen ‘sozialistischen’ Ton.

 

Lyssenko, der Liebling der Medien.
Biologen, die ihm widersprachen, waren „Fliegen-Liebhaber und Menschenhasser“

Und so wurde ein ‘Experte’ geboren, dem die Presse gierig an den Lippen hing.

Mit diesem Ruf trat er nun auf und versprach, das vom Zentralkomitee geforderte Wunder zu vollbringen. Er selbst glaubte natürlich an sich und ein Liebling der Presse war er ohnehin. Die Funktionäre glaubten ihm, weil sie glauben wollten und als selbst Stalin an ihn glaubte, war sein Aufstieg sicher. Für alle Beteiligten war es eine Win-Situation und ein selbstverstärkender Prozess nahm seinen Lauf, der Trofim Lyssenko ganz an die Spitze spülte: Er wurde zum führenden Biologen der Sowjetunion, Präsident der Akademie der Landwirtschaftswissenschaften, Leninpreisträger, Stalinpreisträger, Mitglied des Obersten Sowjet etc. etc.

Gegen diese politisch-propagandistische Karriere und Machtübernahme hatten die konventionellen Wissenschaftler, obwohl international angesehen, keine Chance. Ihnen fehle ganz einfach das Talent und der Wille, sich auf diese Art Gehör zu verschaffen. Es ist ja bekannt: Ein Scharlatan kann in einer Stunde mehr Postulate aufstellen als ein Wissenschaftler in einem ganze Leben widerlegen kann. Die wissenschaftliche Diskussion versagt regelmässig wenn der Scharlatan sich nicht an die Spielregeln hält, in der öffentlichen Meinung gewinnt der geschicktere Demagoge.

Natürlich blieben die praktischen Mißerfolge der unsinnigen Thesen nicht aus; sobald Lyssenko die Macht hatte, seine Ideen auch real anzuwenden, stand er vor einem Richter, der sich durch Demagogie nicht beirren lässt: Den nackten Produktionszahlen.
Doch die landwirtschaftlichen Erträge sind von vielen Faktoren abhängig, sie sind so zufällig wie das Wetter, von dem sie in erster Linie abhängen. Entsprechend breit sind die Möglichkeiten zur selektiven Wahrnehmung und zur Manipulation. So lange die Stimmung positiv ist, ist die Presse nur zu gerne bereit, zufällig günstige Ereignisse aufzublähen und schlechte zu ignorieren und das Publikum ist nur zu gerne bereit, sich in seinem einmal geweckten Glauben bestätigen zu lassen und auch die Regierenden sind dann zufrieden, da für sie die Stimmung, von der ihre Macht ja ausschliesslich abhängt, weitaus wichtiger ist als materielle Ergebnisse. Das gilt sogar für intelligente und kritische Politiker, ihre Währung ist nun einmal nicht, wie bei einem Manager, der buchhalterische Ertrag, sondern die Gunst der Öffentlichkeit.
Von dieser Woge getragen steigerte sich Lyssenkos Wahn, im Stakkato verkündete er immer neue Erfolge: Frostresistenter Weizen, dürreresistente Kartoffeln, Verdreifachung der Ernten, Wunderkühe mit beispielloser Milchleistung. Das atemlose Publikum wurde durch diese immer neuen Meldungen nicht nur in seinem Glauben bedient, sondern es fand vor allem keine Zeit, danach zu fragen, was denn nun wirklich an handfesten praktischen Ergebnissen vorliegt.
Da sah es nämlich gar nicht gut aus. Es kam immer wieder zu schlechten bis katastrophalen Ernteausfällen, großangelegte Experimente scheiterten völlig. Aber es war so gut wie unmöglich geworden, den Kurs zu wechseln, alle saßen in einem Boot, Lyssenko, die Presse und Stalin selbst. Ein Scheitern zuzugeben, wäre einfach zu blamabel gewesen. Deshalb war niemals Lyssenko schuld an den Misserfolgen, sondern, falls sie überhaupt zur Sprache kamen, ‘Saboteure’.

Widerstand aus den Reihen der etablierten Wissenschaft machte Lyssenko mit politischen Mitteln mundtot: Er forderte in der Akademie der Wissenschaften eine ‘Einheitsfront’ und wer sich dem Lyssenkoismus nicht anschloß, geriet ins Visier des NKWD und notfalls ins Straflager.

Erst eine Veränderung der politischen Landschaft – Stalins Tod und Chrustschows Machtübernahme – beendete diese bemerkenswerte Karriere, allerdings zu sehr auskömmlichen Bedingungen; Lyssenko wurde nicht erschossen, sondern ins zweite Glied zurückversetzt und durfte sich weiter Pflanzenzüchtungen widmen.

Sein Werk aber hatte nicht nur die Biologie als Wissenschaft in der Sowjetunion und den WP-Blockstaaten auf Jahrzehnte vergiftet. sondern Millionen Menschen das Leben gekostet, nicht zuletzt in Maos China, wo seine Ideen noch fanatischer zur Staatsdoktrin erhoben wurden und mit dazu beitrugen, die verheerendsten Hungersnöte in der Geschichte der Menschheit auszulösen.

Der Lyssenkoismus

 

Wissenschaft im Dienst der Politik: Lyssenko und sein Schutzherr Stalin

Der Lyssenkoismus war ein Auswuchs des Umstandes, dass ein pseudowissenschaftlicher Ansatz aus ideologischen Gründen in einer totalitären Diktatur mit allen Mitteln gefördert wurde. (Wiki)

Diese Definition greift zu kurz! Sie ist zu bequem und zu selbstsicher. Lyssenkoismus ist nicht auf Lyssenko und nicht auf stalinistische Diktaturen als Nährboden beschränkt. Es handelt sich vielmehr um ein geradezu universelles Phänomen, das sowohl zeitlos wie unabhängig von der Gesellschaftsform ist.

Die Definition des englischen Wiki kommt dem näher:
Lysenkoism is used metaphorically to describe the manipulation or distortion of the scientific process as a way to reach a predetermined conclusion as dictated by an ideological bias, often related to social or political objectives

Lyssenkoismus ist eine Methapher für die Manipulation oder Entstellung/Verzerrung des wissenschaftlichen Findungsprozesses um zu einem vordefinierten Ergebnis zu kommen welches durch ideologische Voreingenommenheit diktiert wird und oft soziale oder politische Ziele verfolgt.

Ein frühes, eklatantes Beispiel war die Temperenzbewegung, die in die grosse Alkoholprohibition mündete:
Dabei wurden bereits alle Register gezogen, die uns heute so gut bekannt sind; das Publikum wurde mit ‘wissenschaftlichen’ Beweisen und Prognosen geradezu überschüttet, eigens gegründete Fachzeitschriften sorgten für die notwendige Seriosität der maßlosen ‘Studien’ und der Konsens für die faktische Alleinschuld des Alkohols an sozialen Problemen, Kriminalität und Krankheit war scheinbar überwältigend.
Überflüssig zu erwähnen, dass die Prohibition in einer Katastrophe endete, deren Nachwehen (z.B. in Form der dadurch ausgelösten Nutzung von Heroin als Rauschmittel) bis heute nachwirken.

Vor einigen Jahren wurde dann nach dem gleichen Muster der Tabak als die Wurzel allen Übels propagiert und wer diese Kampagne interessiert verfolgte, konnte nur den Kopf schütteln über all den peudowissenschaftlichen Unfug der da über den ‘Passivrauch’ verbreitet wurde und der von Dummheit bis zur offenen, bewussten Fälschung im Namen der ‘guten Sache’ reichte.
Dabei machte vor allem eine Frau Pötschke-Langer von sich reden, die bewusst zu einer in der Presse allgegenwärtigen ‘wissenschaftlichen’ Galionsfigur aufgebaut wurde, obwohl sie ausser einem gewöhnlichen Medizinstudium und etwas Journalistik eigentlich nichts vorzuweisen hatte und die heute wieder in völlige Bedeutungslosigkeit versunken ist – eine typische Lyssenko-Karriere.

Doch das wohl bemerkenswerteste Beispiel der jüngeren Vergangenheit ist

Das Waldsterben

 

“Erst stirbt der Wald, dann der Mensch!” Tatsächlich – und glücklicherweise! – ist nur die Hysterie gestorben.

Heute wissen wir: Es war eine Massenhysterie die praktisch jeglicher Grundlage entbehrte, aber dennoch scharenweise ‘Wissenschaftler’ hervorbrachte, die sich in Schreckensmeldungen und fürchterlichen Prognosen überboten, um auf der Woge mitzuschwimmen und sie zu verstärken.

Eine kurze Rekapitulation:

In den 1970er Jahren war das Klima ungünstig für den Wald: Strenge Fröste und Trockenheit setzten ihm zu.

Der Wald sah nicht so gut wie gewohnt aus, aber das war ein völlig natürlicher Vorgang. Zusätzlich gab es an einigen wenigen Extremstandorten Waldschäden durch Industrieabgase, insbesonders an der Grenze zu Tschechien verstärkte ‘saurer Regen’ das Schadbild und es wirkten auch waldbauliche Fehler mit, insbesonders durch den Anbau von Nadelholz-Monokulturen.

Der Lyssenko des Waldsterbens war Bernhard Ulrich. Für ihn waren industrielle Luftverschmutzungen die Ursache und er propagierte, dass “die ersten Wälder schon in fünf Jahren sterben”. Wie so viele einfache Erklärungen fand das dankbare Resonanz beim Publikum.

Es war ein gefundenes Fressen für die Medien (‘Schlechte Nachrichten sind gute Nachrichten’) und noch mehr bei diversen Politikern; die These bediente nämlich geradezu ideal deren Bedürfnisse und wurde daher nur zu gern zur Wahrheit erklärt:

  • Es gab einen Sündenbock, die Industrie bzw. ‘das Kapital’, das ja bei vielen sowieso für alles böse auf der Welt verantwortlich ist.
  • Es schien, als sei das einfache Problem auch mit einfachen und leicht erklärbaren Maßnahmen bekämpfbar, nämlich schärferen Emissionsbestimmungen. Damit hatte es erhebliches Erfolgspotential und gleichzeitig konnte man sich als ‘Macher’ profilieren, als Feldherr im Kampf gegen das Böse und damit in der Traumrolle jedes Politikers.
  • Zudem schuf es Angriffsmöglichkeiten zur Verunglimpfung politischer Gegner, da es hervorragende Voraussetzungen zur Polarisierung und Radikalisierung bot. Maßvolle Stimmen hatten angesichts der schrecklichen Gefahren keine Chance, sich Gehör zu verschaffen. Schon allein das Wort ‘Waldsterben’ war von höchster Dramatik, ideal geeignet zur Emotionalisierung: “Erst stirbt der Wald, dann der Mensch!”.

Wohlgemerkt: Es gab keinen Plan, keine Verschwörung, sondern nur einen selbstverstärkenden Effekt unter günstigen allgemeinen Bedingungen.

  • Herr Ulrich glaubte an seine Forschungsergebnisse, weil er glauben wollte.
  • Die Medien glaubten Herrn Ulrich, weil sie glauben wollten.
  • Die Politiker glaubten den Medien, weil sie den Trend der öffentlichen Meinung erkannten und eine Möglichkeit zur Popularität sahen.
  • Das Volk glaubte den Medien und Politikern, weil die Erklärung so wunderbar einfach war und vor allem weil klar erkennbare Sündenböcke die Schuld trugen.

Und so nahm die Hysterie ihren Lauf, eine Massenpsychose griff um sich, die sich immer mehr steigerte und geradezu religiöse Züge annahm. Durch die von der Politik großzügig verteilten Forschungsmittel fehlte es vor allem nicht an ‘wissenschaftlichen’ Hypothesen, Erkenntnissen und Beweisen, die allesamt in die gleiche Kerbe hieben, denn allesamt lebten sie von Geld, das explizit für den Zweck der ‘Waldschadensforschung’ bewilligt worden war.
Wie hätte einer der Forscher es dann wagen können, das Waldsterben anzuzweifeln? Welche Glaubwürdigkeit hätte er denn erlangt? Er wäre geächtet worden, von den Kollegen, von den Geldgebern und vom gläubigen Volk.

Nur der Wald weigerte sich leider zu sterben. Diese Tatsache brauchte sehr lange, bis sie das Bewusstsein allmählich immer mehr durchdrang. Einzelne, von den Medien boykottierte und daher öffentlich nicht wahrgenommene Fachleute zweifelten schon 1987 an der These, da sich einfach keine handfesten Beweise finden liessen.
Doch Stimmen aus der echten Wissenschaft, die Entwarnung gaben wurden mit Entrüstung abgeschmettert:
Besseres Wachstum der europäischen Wälder?
Das ist erstens gelogen, der Wissenschaftler, der das behauptet, ist ein Lobbyist der Holzindustrie und wenn überhaupt, dann ich dieses bessere Wachstum ‘krankhaft’ und sonst nichts! So tönten Medien, Naturschutzverbände und grüne Politiker im Chor. ‘Vorwärts immer, Rückwärts nimmer’ ist ein parteiübergreifender Wahlspruch aller Ideologen, nicht nur der SED.

1996, als selbst Ulrich zugab, dass er mit seinen Prognosen wohl falsch gelegen habe (Rund zehn Jahre nach dem Termin, ab dem die Wälder seiner ersten Aussage zufolge verschwinden würden), spaltete sich dann die politische und öffentliche Meinung. Die konservativen rückten langsam und vorsichtig ab, doch die Grünen und sonstigen politischen Nutzniesser verteidigten die liebgewonnen Hysterie noch lange, unterstützt von den Medien, die nur sehr langsam und mehr auf den Druck der Öffentlichkeit hin als aus eigener Einsicht heraus umschwenkten, da die Waldschadensberichte vom Volk immer zynischer kommentiert wurden.
Doch erst im Jahr 2003 war es der grünen Umweltministerin Renate Künast vorbehalten, das Waldsterben offiziell zu beenden:

Das Waldsterben in Deutschland ist nach Ansicht von Bundeslandwirtschaftsministerin Renate Künast (Grüne) gestoppt. “Wir haben den Trend umgekehrt”, sagte Künast der Zeitung “Welt am Sonntag”. “Der Wald wächst wieder gesünder, die Flächen nehmen zu, die Holzwirtschaft hat in Deutschland eine gute Zukunft. Unsere Wälder sind schöner geworden. Ich kann nur dringend empfehlen, am Sonntag einen Waldspaziergang zu unternehmen.” Nach Ansicht des Bundes für Umwelt und Naturschutz ist in Deutschland “eine neue Waldpolitik sichtbar”. (Welt, 14.03.2003)

Der Wald ist nie gestorben und er ist nie gesundet. Waldschäden sind so normal wie Schnupfen.

Der letzte Satz ist besonders bemerkenswert. Eine neue Wald-POLITIK! Kein neuer Wald. Der war und blieb stets völlig unverändert und er ‘stirbt’ bis heute:

Besonders lustig ist dabei, dass Frau Künast das ausgerechnet zu Beginn des Dürrejahrs 2003 sagte, denn zwangsläufig war der Waldzustandsbericht des Jahre 2004 der katastrophalste aller Zeiten. Doch was noch wenige Jahre vorher zu einem panischen Aufheulen geführt hätte – ganz besonders bei Frau Künast! – wurde nun trocken so kommentiert:

Die Hauptursache für das beschleunigte Waldsterben sei der extreme Sommer 2003, sagte Künast bei der Vorstellung des Waldzustandsberichtes in Berlin.

Womit sie zum ersten mal etwas Wahres über das Waldsterben gesagt hat.

Das ‘Waldsterben’ ist ein Lehrstück über den Lyssenkoismus, der Vorteil des Beispiels ist, dass die Massenpsychose abgeklungen ist und nun ein objektiver und weitgehend emotionsloser Blick zurück möglich ist.

In einer anderen Psychose sind wir aber noch mitten drin:

Der Klimawandel

Ist dieser Klimawandel Wissenschaft oder Lyssenkoismus?

Ganz zweifellos steht die Theorie des anthropogen verursachten Klimawandels in einer Symbiose mit politischen Gruppen und Ideologien.

Dazu muss man nur einmal das Positionspapier des WGU betrachten:
“Welt im Wandel – Gesellschaftsvertrag für eine Große Transformation” http://www.wbgu.de/hauptgutachten/hg-2011-transformation/

Die darin propagierten 10 ‘Maßnahmebündel’

  1. Den gestaltenden Staat mit erweiterten Partizipationsmöglichkeiten ausbauen
  2. CO2-Bepreisung global voranbringen
  3. Europäisierung der Energiepolitik ausweiten und vertiefen
  4. Ausbau erneuerbarer Energien durch Einspeisevergütungen international beschleunigen
  5. Nachhaltige Energiedienstleistungen in Entwicklungs- und Schwellenländern fördern
  6. Rasante Urbanisierung nachhaltig gestalten
  7. Klimaverträgliche Landnutzung voranbringen
  8. Investitionen in eine klimaverträgliche Zukunft unterstützen und beschleunigen
  9. Internationale Klima- und Energiepolitik
  10. Internationale Kooperationsrevolution anstreben

haben mit Wissenschaft schlicht und einfach nichts zu tun, sie sind rein politisch und sie können aus der Theorie des anthropogenen Klimawandels keineswegs abgeleitet werden, das sie rein auf Vermeidung abgestimmt sind und eine Strategie der Anpassung überhaupt nicht in Erwägung ziehen. Sie sind daher unwissenschaftlich, selbst dann, wenn man davon absieht, dass ein Klimaforscher ganz bestimmt keine Kompetenz in solchen Fragen der Politik, Wirtschaft und Energieproduktion hat.

Auch die einseitige Empfehlung der Vermeidung von CO2 durch ‘Erneuerbare Energien’ hat mit dem Klimawandel nichts zu tun und lässt sich nicht daraus ableiten, da z. B. Kernenergie mindestens ein gleichwertiges Potential hat.

Genau so wenig ist zu erkennen, warum eine ‘Urbanisierung’ gelenkt und wie man sie ‘nachhaltig’ gestalten könnte.

Höchst gefährlich erscheint es sogar, wenn ein ‘gestaltender Staat’ gefordert wird, was zumindest als ein Euphemismus für den bestimmenden, sich überall einmischenden, planwirtschaftlich und totalitär herrschenden oder kurz ‘undemokratischen’ Staat verstanden werden kann. Auch das ist keinesfalls in einem strukturellen Zusammenhang mit der Klimawandel-Theorie und ganz grundsätzlich eine Frage, die ausschliesslich politisch beantwortet werden kann und darf.

Noch deutlicher wird dies im Einleitungs-Statement:

“Damit die Transformation tatsächlich gelingen kann, muss ein Gesellschaftsvertrag zur Innovation durch einen neuartigen Diskurs zwischen Regierungen und Bürgern innerhalb und außerhalb der Grenzen des Nationalstaats geschlossen werden.”

Der Euphemismus ‘neuartiger Diskurs zwischen Regierungen und Bürgern’ ist ein kaum verhüllter Angriff auf die demokratische Rechtsordnung und legt den dringenden Verdacht verfassungsfeindlicher Bestrebungen nahe. Auf jeden Fall ist so eine Formulierung ganz bestimmt nicht ‘wissenschaftlich’.

Die Prämissen der Klimaprognostik sind unwissenschaftlich, sie widersprechen etablierten und gesicherten Erkenntnissen:

Lyssenko leugnete die Genetik, er behauptete, Vererbung habe nichts mit Genen zu tun, sondern würde durch Umwelteinflüsse imprägniert. Ein ‘Beweis’ dafür war, dass er Weizen in einem ungünstigen Gebiet aussäte und im nächsten Jahr Roggenpflanzen vorfand. Dass sein Weizen schlicht verkümmert war und Roggen aus benachbarten Feldern und älteren Aussaaten keimte, kam ihm nicht in den Sinn.

Die Klimamodelle, auf denen die ganzen Prognosen und darauf wieder die geforderten politischen ‘Maßnahmen’ beruhen, sind ganz einfach unwissenschaftlich, denn sie verleugnen grundlegende physikalische und mathematische Prinzipien. Das Wetter und das Klima der Erde sind ein hochkomplexes, rückgekoppeltes und daher chaotisches System. Es ist aber erwiesen und allgemeiner wissenschaftlicher Konsens, dass das zukünftige Verhalten eines chaotischen Systems mittel- und langfristig grundsätzlich unvorhersehbar ist, selbst wenn alle Einzelmechanismen bekannt sind. Wir sind jedoch noch sehr weit davon entfernt, auch nur annähernd genau zu wissen, wie ‘Klima’ überhaupt funktioniert, so dass Prognosen für das Jahr 2100 und sogar weiter ganz einfach Kaffeesatzleserei und unwissenschaftliche Scharlatanerie sind.

Ironischerweise beweist gerade die Klimaforschung selbst durch immer neue Erkenntnisse, die eifrig publiziert werden, wie mangelhaft unser Wissen um grundlegende Mechanismen noch ist.

Und da seit den ersten Prognosen inzwischen einige Jahre verstrichen sind, wissen wir inzwischen auch, dass die Globaltemperatur schon jetzt ausserhalb des Prognosefensters liegt. Dass aber eine Prognose, die nicht einmal die unmittelbare Zukunft auch nur annähernd richtig vorhersagen kann, schon gar keinen Wert für die fernere Zukunft haben kann, ist offensichtlich: Wer nicht mal das Wetter für morgen vorhersagen konnte, aber dennoch behauptet, er wüsste ganz genau wie das Wetter in 14 Tagen sein wird, ist ein Scharlatan – das zu wissen benötigt nicht einmal Wissenschaft, sondern nur praktischen, gesunden Menschenverstand.

Die ‘Klimaforschung’ interpretiert Daten mit deutlichem Bias und da ihre Aussagen in einer fernen Zukunft liegen ist eine wissenschaftlich-experimentelle Prüfung nicht möglich

Dass alle Wetterereignisse, die nicht in das Schema des Klimalarmismus passen, ignoriert oder als ‘nur Wetter’ abgetan werden, während jedes Wetterereignis, das scheinbar die Prognosen zu stützen vermag, als ‘Beweis für den Klimawandel’ hinausposaunt wird, ist schon zum Dauerwitz verkommen, darauf braucht man nicht weiter einzugehen, der Vorwurf des Bias (Voreingenommenheit bzw. selektive Wahrnehmung) ist nur zu offensichtlich gerechtfertigt.

Noch schwerer wiegt aber die grundsätzliche Unmöglichkeit, Prognosen, die weit in er Zukunft liegen, irgendwie zu verifizieren. Damit begibt sich die Theorie der anthropogenen Klimaerwärmung auf das Niveau einer Prophezeiung, und verlangt unreflektierten Glauben, wie eine Religion. Mit Wissenschaft hat so etwas nichts zu tun, sondern eher mit Glaskugeln auf Jahrmärkten oder Weltuntergangsterminen diverser Sekten.

Gibt es für diese Einschätzung ein klareres Beispiel als den Klimawahrsager Mojib Latif, unsterblich geworden durch seine Prophezeiung “Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben”? Ein Einzelfall? Nein, denn wer hat ihm denn damals im Jahr 2000, auf dem Höhepunkt der Hysterie, widersprochen? Niemand. Die anderen Klimaalarmisten haben sich nur klugerweise nicht so weit aus dem Fenster gelehnt, aber keiner wies Latif zurecht und sagte dass so etwas unseriös sei; es war ganz in ihrem Sinn.

Abgesehen von diesen grundsätzlichen Überlegungen zur Verquickung von Politik und Pseudowissenschaft ist es gut, sich einige konkrete Phänomene anzusehen:

Ist DAS Wissenschaft?

Al Gore ist den Klimaalarmisten längst peinlich, viel zu offensichtlich vermischte er Pseudowissenschaft mit dem Gehabe eines Staubsaugervertreters zu seinem persönlichen Vorteil. Besonders beschämend war sein letzter Versuch eines Comebacks mit einer 24-stündigen weltweiten Fernsehshow.

Aber er nutzte nur die vorhandene Munition! Doch was davon ist glaubwürdig? Einige Beispiele:

Naturkatastrophen nehmen zu?

“Hier sehen wir die Folgen der Klimaerwärmung auf die Entstehung von Hurricans. Es gab…KEINE VERÄNDERUNG!! Waaas?”

Stürme, Dürren, Fluten, jedes nur denkbare Unglück soll angeblich über uns hereinbrechen, wenn wir nicht tun, was die Propheten uns befehlen. Aber ihre Vorhersagen bewahrheiten sich nicht!

Es klang sehr plausibel: Hurricans entstehen über warmem Wasser. Je wärmer, desto mehr Stürme. Doch in einem chaotischen System sind solche simplen Ursache-Wirkungs-Vorhersagen einfach nur dumm. Unvorhergesehene Effekte (‘Scherwinde’) neutralisierten die Wirkung.

Prognosen sind schwierig, vor allem, wenn sie die Zukunft betreffen…

Aus Mücken werden Elefanten

Und was ist mit dem arktischen Seeeis? JAAAA! Ein Rekordtief! Aber warum sieht diese Grafik so harmlos aus?

Viele ‘Beweise’ werden künstlich aufgebläht, Daten, die sich innerhalb des Grundrauschens der natürlichen Variabilität verändern, werden groß herausgestellt, WENN sie die These stützen. Dabei hat so etwas gar nichts zu bedeuten, es gibt hunderte von Variablen und wer sucht, findet leicht auch zufällige Beweise für das Gegenteil: Das Antarktische Eis hat beispielsweise zugenommen. Droht also eine neue Eiszeit?

Natürlich nicht. Das ist nur Voreingenommenheit; man sieht, was man sehen will. Aber das ist keine Wissenschaft!

Kommt die Sintflut?

OK, vergessen wir mal dieses Meereis. Schauen wir lieber nach dem Meeresanstieg! Oh, SUPER! meine Strandvilla ist ja gar nicht in Gefahr.

Die Prophezeiung einer Sintflut als Strafe Gottes für die, die nicht den Befehlen der Propheten gehorchen, ist uns allen kulturell eingeimpft und wird von den neuen Propheten schamlos ausgenutzt. Nur das Meer macht nicht mit. Das weigert sich nämlich, besonders schnell zu steigen und nicht einmal das kleinste Inselchen ist in Gefahr. Wie denn auch: das Meer steigt schon immer seit der letzten Eiszeit, davon können die Holländer ein Lied singen. Doch es steigt so langsam, dass es für die Menschen keine Rolle spielt, nicht einmal für die Malediven, denn Koralleninseln wachsen nach oben, manche seit ihrer Entstehung schon mehrere hundert Meter und das werden sie auch weiterhin tun.

Die Angst vor der Sintflut ist also besonders primitive Bauernfängerei.

Ein Druck auf die Tränendrüse oder: Sind Teddies nicht süß?

Jetzt eine traurige Geschichte! Ich rettete Theo, den Eisbären, vor dem Ertrinken. Er ist der letzte seiner Art!
Nein, du hast mich nicht gerettet! Ich habe auch noch 25.000 Freunde auf Facebook und das sind alles Verwandte von mir!

Das Märchen von den angeblich aussterbenden Eisbären die durch den menschengemachten Klimawandel zum Tod verurteilt werden, ist besonders verlogen und besonders primitiv.
Tatsächlich wächst die Eisbärpopulation nämlich im Rekordtempo!

Na schön, mag man sagen, aber für solche übertriebene Propaganda können doch die Wissenschaftler nichts!
Wirklich nicht? Sie müssen das doch bemerken, klug und engagiert wie sie sind. Warum hat noch kein einziger der IPCC-hörigen Klima-Päpste dagegen protestiert, dass mit ihrer Arbeit so ein Schindluder betrieben wird und dass sie für so primitive Propaganda missbraucht werden? Die Antwort kann sich jeder selbst denken: Sie sind nicht Opfer, sondern Komplizen.

Aber es WIRD doch wärmer!?

NEEEIIIIN! Es wird wärmer! ich will das nicht sehen…

Trotz aller Ausreden und Ausflüchte ist es einfach eine Tatsache, dass es nun schon über ein Jahrzehnt nicht wärmer wird und dass die Klimaalarmisten deshalb selbst schon intern heftig zweifeln; nicht erst seit heute, sondern schon seit Climategate im Jahr 2009, denn da fragte bereits der Klimatologe Kevin Trenberth: “The fact is that we can’t account for the lack of warming at the moment and it is a travesty that we can’t” – “Es ist einfach eine Tatsache dass wir keine Ahnung haben, warum es im Moment nicht wärmer wird und es ist ein Hohn dass wir nicht wissen warum” und keiner widersprach ihm.

Eine klare, unmissverständliche Bankrotterklärung von einem Insider, vertraulich im inneren Zirkel geäussert und ganz einfach wahr, da gibt es nichts zu deuteln: Die Scharlatane WUSSTEN, dass sie Scharlatane sind – Keine mildernden Umstände, keine Ausrede, kein Leugnen kann das vertuschen.

Der Hockeystick: Eine plumpe Fälschung

Jeder weiss, wie man in der Klimawissenschaft eine Kurve malt: ‘Irgendwelches Zeug’ wird mit der Zeit stets zu einem Hockeystick, der den Klimaalarmismus beweist.

Michael Manns berüchtigter ‘Hockeystick’ ist eine so offensichtliche Fälschung, dass jeder, der das abstreiten oder relativieren will, sich selbst als Komplize entlarvt.

Und so ging Michael Mann vor: Aus den vielen möglichen indirekten Temperaturzeigern (‘Proxies’) wird ein einziger ausgewählt, nämlich Baumringe aus einem ganz bestimmtem Gebiet, die das bestätigen, was Mann ‘beweisen’ will und aus dieser völlig absurden, nicht repräsentativen, voreingenommenen und – man kann das ohne weiteres sagen – vorsätzlich zum Zweck der Fälschung ausgewählten – Daten wird dann rotzfrech eine globale(!) Temperaturkurve abgeleitet.

So simpel das Rezept klingt, war Manns Fälschungsmethode jedoch alles andere als primitiv, sondern im Gegenteil recht raffiniert. Es bedurfte langer detektivischer Arbeit, bis Steven McIntyre und Ross McKitrick der Nachweis der Fälschung gelang:

Offiziell benutzte Michael Mann sehr viele verschiedene Proxies aus der ganzen Welt, die ‘gemittelt’ eine tatsächliche globale Durchschnittstemperatur ergeben sollten. Die von ihm benutzten, höchst ungewöhnlichen und selbst entwickelten Algorithmen bevorzugten jedoch durch Gewichtungsfaktoren Datensätze, die ‘hockeystickartig’ verliefen. Ein ‘Hockeystick’-Datensatz konnte so mehrere hundert mal mehr Gewicht haben als ein Datensatz, der nicht zur Vorgabe passte. Das hatte zur Folge, dass seine ‘globale’ Temperatur praktisch ausschliesslich auf einem einzigen Datensatz beruhte, der den gewünschten Verlauf hatte.

Doch es kommt noch schlimmer: Bei ihrer Arbeit stiessen McIntyre und McKitrick auf einen Ordner auf Manns Datenserver, dessen Inhalt bewies, dass Mann ganz genau den selben Versuch, mit dem sie beweisen konnten, dass sein Hockeystick falsch ist, ebenfalls gemacht hatte und WUSSTE, dass seine Hockeystick-Kurve nur Artefakt der mathematischen Algorithmen und daher falsch war: Der klassische ‘rauchende Colt’ war gefunden, der beweist, dass Michael Mann kein Dummkopf war, dem ein Fehler unterlief, sondern dass er vorsätzlich gehandelt hat.

Der Hockeystick des Michael Mann beruhte auf einem einzigen Datensatz, der Dicke von Baumringen einiger Borstenkiefern an einem Berg in Colorado. Nimmt man ihn weg, zeigen die anderen Proxies, dass der derzeitige Temperaturanstieg etwas historisch ganz normales ist.

Das ist einer der wirklich klassischen Fälle von Wissenschaftsbetrug. Doch noch schwerer wiegt, dass Michael Mann bis heute gedeckt wird, denn damit beweist die Kamarilla der Klimaalarmisten, dass innerhalb ihrer Ränge alle Regeln der wissenschaftlichen Selbstkontrolle ausser Kraft sind und dass folgerichtig Michael Mann nicht nur ein schwarzes Schaf in einer ansonsten makellosen Herde ist, sondern dass Betrug und Fälschung innerhalb dieser Community zu den anerkannten Mitteln der Propaganda gehören. Mit Wissenschaft hat dies allerdings nichts mehr zu tun.

———————

Exemplarisch genügt das für ein Fazit: Es ist unbenommen, dass auch sehr viel echte Wissenschaft in den Bemühungen steckt, aber es ist zweifellos richtig, dass die Wissenschaften im Dienst des Klimaalarmismus ideologisch missbraucht und politisch gesteuert werden und dass sich in den Reihen der Wissenschaftler nur allzuleicht willige Lyssenkos finden, die genau das abliefern, was von ihnen erwartet wird.

Der Lohn besteht aus Medienaufmerksamkeit, Fördergeldern und, wie weiland in der Sowjetunion, aus imposanten Titeln und Orden.

Die Strafen sind Missachtung, Verbannung, Zerstörung von Karrieren und Rufmord.

Eines der gewöhnlichsten Mittel, den Gegner zu diskreditieren, ist der Vorwurf, ein ‘Lobbyist’ zu sein, für irgendwelche obskuren, auf jeden Hall aber feindlichen und volksschädlichen Organisationen zu handeln und von diesen bezahlt zu werden. ‘Lobbyist’ hat also die gleiche Bedeutung und den gleichen Grad der Verächtlichmachung wie der Vorwurf der Sabotage unter Stalin: Es werden kriminelle Machenschaften unterstellt.

Diese finstere Seite des Lyssenkoismus ist also heute auch so lebendig wie je.

Moderner und historischer Lyssenkoismus

Lyssenkos sind überall anzutreffen und sie finden überall einen Nährboden, im Stalinismus wie im Kapitalismus und im Ökologismus.
Sie sind sowohl Auslöser als auch Marionetten im dynamischen Verlauf einer Massenpyschose.

Es gibt keinen Schutz vor ihnen ausser dem kritischen Verstand.
Klingende Titel, ehrwürdige Institutionen, eine wohlwollende Presse, selbst ein Konsens der Wissenschaftsgemeinde und Peer Reviews sind keine hinreichenden Qualitätsmerkmale für ‘echte’ Wissenschaft, denn alle wurden bereits nachweislich manipuliert, infiltriert und sogar bewusst zu Hilfsmitteln umfunktioniert, um Scharlatanen den Schein der Glaubwürdigkeit zu verleihen.

Lyssenkoismus hat eine sehr, sehr lange Geschichte, die noch älter ist als der mittelalterliche Hexenwahn, der seinen Lyssenko in Gestalt von Heinrich Institoris hatte, dem Autor des ‘Hexenhammers’, dem ‘wissenschaftlichen’ Beweis für die reale Existenz von Hexen und Teufelswerk.
Und jetzt glaube keiner, wir wären andere Menschen als die des Mittelalters, wie wären ‘erwachsener’ als sie und immun gegen dergleichen. Die Gesellschaftskatastrophen der Moderne beweisen das Gegenteil und die Aufklärung hat nie wirklich die Gesellschaft durchdrungen, sondern die Masse ist vom Glauben, aber nicht vom Wissen beseelt. Sie glaubte einst den Theologen als wissenschaftlichen Welterklärern genau so wie heute den pseudowissenschaftlichen Lyssenkos.

Im Grund sind auch scheinbar ganz andere Phänomene eng damit verknüpft, Rassenwahn beispielsweise, oder Spekulationsblasen an der Börse.

Allen gemeinsam ist der feste Glaube an propagierte ‘Wahrheiten’, die sich jedoch dem wirklich objektiven Beweis entziehen. Doch obwohl die Gesellschaften immer wieder von einer Massenpsychose in die nächste taumeln und obwohl ganz sicherlich jeder von uns auch irgendwann und irgendwie schon Opfer war oder immer noch ist, kann man sich zumindest individuell weitestgehend geistig gesund erhalten.
Und manchmal kann man sogar viel mehr bewirken: Friedrich Spee stellte sich allein mit kluger Kritik und objektiver Logik gegen den gesellschaftlich fest verankerten und scheinbar wissenschaftlich erwiesenen Hexenwahn und besiegte ihn mit den Worten der ‘Cautio Criminalis’.

Dieser Glaube an eine Unmenge von Hexen in unserem Lande wird aus zwei wichtigen Quellen genährt:
Deren erste heißt Unwissenheit und Aberglauben des Volkes.
Die zweite Quelle des Glaubens an die unzähligen Hexen heißt Neid und Mißgunst des Volkes.

(Friedrich Spee)

Tritium

Anhänge und Quellen:

Lyssenko:
Wiki: Trofim Denissowitsch Lyssenko
Wiki: Lyssenkoismus
Trofim Lysenko: Ideology, Power, and the Destruction of Science
Historischer Rückblick: die gen-freie Landwirtschaft in der UdSSR

Nachträge zum Lyssenkoismus
LYSSENKO – Wie der Herrgott
»Von der Sowjetunion lernen …« — Lyssenko und Schellnhuber
Reality Check – Über Politik und Wissenschaft
Climategate:
NY Times, 2009-11-21: Hacked E-Mail Is New Fodder for Climate Dispute
Hockeystick:
The rise and fall of the Hockey Stick
Stephen McIntyre, Ross McKitrick: CORRECTIONS TO THE MANN et. al. (1998) PROXY DATA BASE AND NORTHERN HEMISPHERIC AVERAGE TEMPERATURE SERIES

Junk Science:
Wiki: Betrug und Fälschung in der Wissenschaft
Steve Milloy: Science Without Sense: The Risky Business of Public Health Research
Waldsterben:
Die Zeit 51/2004: Chronik einer Panik, von Günter Keil – Ein ganz hervorragender Artikel, so gut, umfassend, informiert und klar, dass mir gar nichts anderes übrig blieb als zu plagiieren – Herr Keil hat damit das Standardwerk zum Waldsterben geschaffen. Es ist ein Muß, ihn im Original zu lesen!
Sonstiges:
Friedrich Spee: Cautio criminalis oder rechtliches Bedenken wegen der Hexenprozesse

Der Beitrag erschien zuerst auf Science Sceptical  




Stefan Rahmstorfs Klage „Droh- und Schmähbriefe gehören leider zum Alltag von Klimaforschern“

In dem Blog-Artikel von Stefan Rahmstorf geht es zunächst um Prof. Michael Mann, der von weiten Teilen der Klimafachwelt als ehemaliger wissenschaftlicher Betrüger angesehen wird. Wie zumindest die Statistiker Steve McIntyre und Ross McKitrick an Hand detaillierter Untersuchungen und Belege in begutachteten Fachzeitschriften nachwiesen (ihre beiden Arbeiten sind hier als pdf angehängt), hat M. Mann bei der Erstellung seiner Kurve nicht die wissenschaftlich verbindlichen Regeln eingehalten. Zur Herausgabe seiner Daten war gemäß A.W. Montford (s. weiter unten) sogar ein Gerichtsbeschluss erforderlich.

Wer sich über die "Akte M. Mann" detailliert informieren möchte, dem sei das Buch von  A.W. Montford „The Hockeystick Illusion“ empfohlen. Eine ausführliche Übersicht über den Vorgang in etwas kürzerer Form ist bei Anthony Watts mit zahlreichen Beiträgen auf seinem Blog WUWT zu finden (hier). Die Zahl der WUWT-Artikel zur M.Mann-Affaire ist zu groß, um sie hier alle zu zitieren: Wir bitten daher interessierte Leser, in der Suchfunktion von WUWT den Suchbegriff „M. Mann inquiry“ einzugeben und dann selber die ihnen am interessantesten erscheinenden Artikel herauszugreifen.

All dies ist inzwischen Vergangenheit, denn M. Mann hat seine im IPCC-Bericht von 2001 veröffentlichte Hockeystick-Kurve inzwischen zahlreichen, nur noch schwer überschaubaren Revisionen unterzogen und damit dem heutigen Stand bzw. der Realität Tribut gezollt (grüne Kurve in Bild 1). Entschuldigt hat er sich nach Kenntnis des Autors freilich nicht. Ob hier von Läuterung und Rückkehr zur wissenschaftlichen Ehrlichkeit gesprochen werden darf, kann nicht entschieden werden. Wir wollen es zu seinen Gunsten einfach einmal annehmen.

Für Rahmstorf ist dagegen M. Mann ein „hochrespektierter“ Klimaforscher ohne jedweden Tadel und mit fast beliebig vielen Verdiensten und Ehrungen, kurz, ein lupenreines Unschuldslamm. Hiermit werden angesichts der oben angeführten fragwürdigen Vorgänge viele seiner Fachkollegen nicht ganz einverstanden sein. Der Autor möchte die etwas ungewöhnliche Sicht von Rahmstorf in Sachen M. Mann nicht weiter kommentieren. Immerhin hat sein prominenter Fachkollege Prof. Hans von Storch im SPIEGEL über die ursprüngliche, im IPCC-Bericht von 2001 instrumentalisierte Mann’sche Hockeystickkurve knapp und zutreffend gesagt: „Die Kurve ist Quatsch“ (hier).

Mächtig überrascht dann Rahmstorfs Behauptung, eine jüngste Fachveröffentlichung des PAGES 2k Konsortiums (hier) würde den Hockeystick von M. Mann BESTÄTIGEN. Dies können wir nicht nachvollziehen. Die vom PAGES 2k Konsortium gelieferten Proxy-Daten zeigen nämlich zumindest in der heute wohl besten Temperaturrekonstruktion der Nordhemisphäre von Christiansen und Ljungqvist (die Kurve ist aus 91 Proxy-Datensätzen erstellt), dass das mittelalterliche Klimaoptimum dem aktuellen Optimum gegen Ende des 20. Jh. in etwa gleichkam oder es sogar übertraf. Die rote Kurve in Bild 1 ist aus solchen und weiteren in der PAGES 2k Arbeit angegebenen Rekonstruktionen, an denen der Autor Ljungqvist beteiligt war, erstellt. Alle in Bild 1 veröffentlichten Temperaturganglinien, inklusive einer von M. Mann angepassten neuen Kurve (grün), bezeugen, dass von einer Bestätigung der ursprüglichen Kurve von M. Mann (Bild 2) wohl nicht gesprochen werden kann.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/PAGES.jpg

Bild 1:Bildausschnittt aus Fig. 4 der Publikation des PAGES 2k Konsortiums

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Hockeystick.jpg

Bild 2: Die ursprüngliche Hockey Stick Kurve von M. Mann. Quelle: IPCC-Bericht des Jahres 2001

In der ursprünglichen Hockeystickkurve von M. Mann, die Rahmstorf in seinem Blog-Artikel gleich in Abb. 1 zeigt und um die es ihm daher offensichtlich geht, ist die Sonderstellung des mittelalterlichen Klimaoptimums nicht zu erkennen, auch nicht das tiefe Minimum der kleinen Eiszeit. Der lange Griff des Hockeysticks ist bemerkenswert gerade und unstrukturiert, nur das Schlägerblatt zeigt dann steil nach oben. Allenfalls der meist übersehene, blau schattierte Unsicherheitsbereich erscheint m.E. realistisch. Die beiden Darstellungen in Bild1 und Bild 2 lassen wenig Ähnlichkeit zwischen der ursprünglichen Hockeystickkurve von M. Mann und den Ergebnissen des PAGES 2k Konsortiums erkennen.

Bei den Schmähungen Rahmstorfs (das Wort "Schmähungen" sei hier als Erinnerung an seinen eigenen Vorwurf gewählt), sind zunächst Prof. Hans von Storch und Dr. Eduard Zorita an der Reihe. Rahmstorf zitiert als Beleg für deren angeblich wissenschaftlichen Unzulänglichkeiten eine Internet-Blog Realclimate. In diesem Blog wird begutachtete Fachliteratur salopp mit technischen Kommentaren (technical comments, hier) durcheinandergeworfen, was durch die Betonung "important comment" noch skurriler wird. Vielleicht schwingt bei "Realclimate" ja ein wenig die Hoffnung mit, der Leser als Laie schaue sich ohnehin die so zahlreich-imponierend zitierten Quellen nicht an und falls doch, dann sei er beispielsweise von „Science“ so beeindruckt, dass er den dort veröffentlichten technischen Kommentar mit einer peer review Publikation verwechselt. Einen technischen Kommentar kann jeder schreiben, mit Peer Review hat dies nichts zu tun. Falls man die kuriosen Belege und Ausführungen von Rahmstorf überhaupt ernst nimmt, sollte man die angegebenen Quellen näher ansehen. 

Die weiteren Abschnitte des Blog-Artikels von Rahmstorf sind mit „Politischer Druck auf Forscher“, „Griff in die Mottenkiste“ und "PAGEAS 2k im SPIEGEL" getitelt. Insbesondere der „Griff in die Mottenkiste“ trifft Rahmstorfs eigenen Artikel erstaunlich genau, wenn er die von allen AGW-Polemikern regelmäßig bemühte Nähe von Forscherkollegen zur Erdölindustrie hervorholt. Man kann hier übrigens umgekehrt auch einmal nach der Nähe von Rahmstorf zur Versicherungswirtschaft fragen. Eine im Ton peinlichen Fachkollegenschelte und ein abschließender Verriss derjenigen deutschen Medien, die die von Rahmstorf angedienten Fragwürdigkeiten durchschaut haben, rundet seine Philippika ab.

In „Ergänzende Anmerkungen“ bekommt schließlich auch noch der Autor sein "Fett weg". Seine und seiner Mitautoren Publikation (hier) in „climate of the past“ wird von Rahmstorf als „methodisch unsinnig“ bezeichnet. Zum Beleg dieser Beurteilung heißt es, die Darstellung einer Kurve mittels Fourier-Transformation sei mit jeder Kurve möglich. Dies ist jedem Physikanfänger geläufig und zweifellos völlig korrekt, aber als Sachkritik ebenso wertvoll wie die ebenfalls korrekte Anmerkung „Die Anwendung des Satzes von Pythagoras ist mit jedem rechtwinkligen Dreieck möglich“. Trivialaussagen verhindern bekanntlich nicht die sinnvolle Anwendung mathematischer Werkzeuge oder machen diese gar wertlos. Mit der in Rede stehenden Publikation hat die daneben liegende Anmerkung von Rahmstorf nichts zu tun. Es darf infolgedessen vermutet werden, dass Rahmstorf die Arbeit überhaupt nicht gelesen hat.

Als weitergehenden Beleg seiner Kritik führt Rahmstorf einen "Science Blog" an, der von dem AGW-Aktivisten Georg Hoffmann mit bewundernswert unterhaltsamer Polemik betrieben wird (hier). Man lese selber, Entertainment ist garantiert, denn der Blog ist buchstäblich filmreif. Jedem Wissenschaftshistoriker sei seine Lektüre empfohlen und dies leider nicht nur zum Amüsement. Es gibt kaum eine bessere Dokumentation, wie AGW-Alarmisten ticken (unter den Kommentatoren sind sogar mehrere Autoren von peer review Publikationen aufzufinden), welche Methoden sie Wissenschaftlern anderer Auffassung gegenüber anwenden und welche Querverbindungen zwischen Teilen der Klimaforschung und den fragwürdigen Betreibern solcher Blogs bestehen.

Bedenklich ist dann der von Rahmstorf in seinem Artikel veröffentlichte Kommentar von Dr. M. Mudelsee

„One may speculate about (I exaggerate for clarity) the hijacking of CP for promoting ‘skeptical’ climate views.“

Eine wissenschaftliche Arbeit, deren Themensetzung das anthropogene CO2 nicht einmal berührt, deren Ergebnisse aber zufällig und unübersehbar keinen oder zumindest einen lediglich vernachlässigbaren Einfluss des anthropogenen CO2 nahelegen (nicht beweisen), wird als hijacking = Piraterie einer Wissenschaftszeitschrift bezeichnet. Offenbar verwechselt Mudelsee den wissenschaftlichen Betrieb in der Europäischen geophysikalischen Union mit dem des piratenverseuchten Somalia.

Die im Hoffmann-Blog zahlreich vertretenen Kommentatoren der AGW-Fraktion mit wissenschaftlichem Hintergrund haben mit Kräften versucht, die Publikation des Autors im Vorfeld der „open discussion“ des cp zu verhindern, man sehe sich dazu ihre Kommentare an (hier). Dies ist natürlich ihr gutes Recht und wird hier ausdrücklich nicht kritisiert. Schließlich hat die bei cp vorgeschriebene öffentliche peer review Phase ihren guten Grund. Zahlreiche, fachlich einschlägige Kritiker sehen mehr als zwei oder drei Peer Reviewer und erlauben es daher, die Qualität einer bei cp eingereichten Arbeit zu verbessern. Dies war auch hier der Fall. Nicht zuletzt deswegen hat cp einen so hohen "citation index".

Freilich waren die Sachargumente der Teilnehmer am Science Blog offensichtlich nicht ausreichend, um die neutralen wissenschaftlichen Kritiker und die Peer Reviewer zu überzeugen. Warum nicht auch Rahmstorf selber eine vernünftige Fachkritik bei cp äußerte, ist angesichts seiner abwertenden Beurteilung unverständlich und bedauerlich. Er dürfte seitens G. Hoffmann über die Veröffentlichung in der cp Diskussionsphase informiert worden sein.

Der letzte Abschnitt der Blog-Arbeit von Rahmstorf darf als implizite Drohung (die Bezeichnung "Drohung" wieder in Erinnerung an den Vorwurf von Rahmstorf) aufgefasst werden, die gegen die Wissenschaftszeitschrift cp der Europäischen geophysikalischen Union und ihren verantwortlichen Editor, Dr. Eduardo Zorita zielt. Der betreffende Passus aus dem Blog-Artikel von Rahmstorf sei seiner Unverschämtheit gegen eine renommierten Fachzeitschrift und deren Editor wegen wörtlich zitiert:

Lüdecke ist Pressesprecher des Klimaskeptiker-Vereins EIKE. Der für die Publikation seines kuriosen Artikels verantwortliche Editor ist Eduardo Zorita. Man kann nur hoffen, dass dies bei dem an sich reputierten Journal ein Einzelfall bleibt.

"Man kann nur hoffen" und "Einzelfall" drückt den Wunsch aus, jeden zukünftig bei cp eingereichten Artikel des Autors ungeprüft abzulehnen und den verantwortlichen Editor E. Zorita abzulösen. Rahmstorf unterstellt implizit, dass das peer review Verfahren bei cp nicht ordentlich abläuft. Öffentlich publizierte Anmerkungen dieser Art sind nicht hinnehmbar und einem Professor einer deutschen Universität sind sie schon gar nicht angemessen.

Es soll schlussendlich daran erinnert werden, dass jede wissenschaftliche Arbeit, die nicht nur Bekanntes bestätigt, Neuland betritt. SACHLICHE Kritik ist hier unabdingbar und stets willkommen. Diese erfolgte hier nicht nur in der öffentlichen Diskussionsphase von cp, sondern mit weltweiter Resonanz auch im australischen Blog von Joanne Nova (hier) und im Blog WUWT von Anthony Watts (hier). In diesen Blogs wurde das gesamte Meinungsspektrum thematisiert, angefangen von Zustimmung, über Missverständnisse wegen nicht ausreichenden Lesens und Unverständnisses der Arbeit, bis hin zu sehr interessanter, substantieller Fachkritik. Grundlegende Mängel der Arbeit stellten sich nicht heraus. Der Autor wird in Kürze auf den sachlichen Inhalt seiner und seiner Mitautoren Arbeit unter Berücksichtigung der wichtigsten Einwände in einer separaten EIKE-News eingehen. Sachliche Kritik, auch seitens von Rahmstorf ist dabei immer willkommen.

Wissenschaftliche Meinungsverschiedenheiten müssen ausschließlich sachbezogen ausgetragen werden. Sie dürfen nicht in Diffamierungen gegen Fachkollegen ausarten, deren Forschungsergebnisse den verschrobenen Weltbildern der Diffamierenden widersprechen.

Related Files




Die falschen Klimathesen des Professors Mojib Latif

Wenn man schon nach einem Leugner des Klimawandels suchen sollte, dann findet man diesen bei den AGW-Vertretern. Für einige hundert Jahre hat Michael Mann mit seiner berühmt-berüchtigten gleich mehrfach manipulierten Hockeyschlägerkurve[1] ein nahezu konstantes Klima erfunden.

Von 1000 bis 1900 ändert sich die Temperaturanomalie um knappe 0.2°C. Hierzu mussten aber durch statistische Tricks die kleine Eiszeit und das mittelalterliche Temperaturoptimum abhanden kommen.

These 1: Der Mensch ist unschuldig. Klimaschwankungen gab es immer schon.

Falsch. Es gab zwar immer schon natürliche Klimaschwankungen. Aber wenn wir so weitermachen wie bisher, bekommen wir eine Klimaerwärmung, die es in der Geschichte der Menschheit noch nicht gegeben hat.

Da es nicht eindeutig ist, was Prof. Latif (PL) meint, schauen wir uns sowohl die absolute Temperatur und die Temperaturanomalie an.

1. Absolute Temperatur

Der IPCC nimmt hierfür 288K oder 15°C an. Dieser Wert  ist aus zwei Gründen von geringer Aussage, da man mittels der Thermodynamik zeigen kann, dass es keinen Mittelwert geben kann und weil er (trotzdem) vom IPCC mittels des Stefan-Boltzmann-Gesetzes, , mit ε = 1, als ob die Erde ein schwarzer Körper sei, berechnet wird.

Um einen Vergleich zu ermöglichen, nehmen wir temporär trotzdem an, dass eine mittlere Temperatur gemessen werden kann. Die folgende Graphik zeigt die CO2-Konzentration und die Temperatur im Verlauf der Erdgeschichte.

Man erkennt drei wichtige Fakten. Erstens war es schon des Öfteren viel wärmer als heute und es gab durchaus Zeiten, wo die Temperatur stieg, aber die CO2-Konzentration abnahm. Und drittens, wir leben in einer Zeit der minimalen CO2-Konzentration und Konzentrationen die 3- bis 5mal so hoch waren wie derzeit führten zu keinem Klimakollaps. Die absolute Temperatur kann PL also nicht gemeint haben.

2. Der Temperaturanstieg

Im 20. Jahrhundert stieg die mittlere Temperatur um 0.7-0.8°C an. Dass es selbst daran beträchtliche Zweifel gibt wegen der permanenten Manipulationen der Messreihen, sei einmal übersehen (Details dazu im Bericht „Das Temperaturdilemma“). Die nächste Graphik zeigt die Dansgaard-Oeschger-Oszillationen.  Eine detaillierte Inspektion offenbart Schwankungen von mehr als Grad 10°C innerhalb weniger Jahrzehnte. Also war der Anstieg mindestens zehnmal stärker als der so dramatisierte im letzten Jahrhundert.

Man könnte noch spitzfindig bemerken, dass von der Geschichte der Menschheit gesprochen wurde. Wenn es aber erstens dramatischere Änderungen ohne von den Menschen erzeugtes CO2 gab, warum soll er für einen sehr moderaten Wandel in der Neuzeit „schuldig“ sein. Zweitens lebten und überlebten unsere Vorfahren während der extremen Dansgaard-Oeschger-Oszillationen. Oder zählen sie nicht mehr zur Menschheit?

These 2: Die Erwärmung wird nur von der Sonne bewirkt.

Falsch. Drei Viertel der Erwärmung ist vom Menschen gemacht, nur ein Viertel geht auf natürliche Ursachen zurück, insbesondere die Sonne. Aber der Sonneneinfluss passierte in der ersten Hälfte des 20. Jahrhunderts.

Die These suggeriert die Antwort, aber diesmal ist der Fragesteller in die eigene Falle getappt, denn die Antwort lautet ganz klar Ja. Die Sonne ist nun einmal die einzige uns zur Verfügung stehende Energiequelle, wenn man von dem vernachlässigbaren Beitrag der Erdwärme absieht.

Die Verteilung der eingestrahlten und abgestrahlten Energie auf der Erde und die dadurch bewirkten lokalen Temperaturen hängen auch von anderen Größen ab.

Nehmen wir an, dass dies in der These gemeint sei.

Die Behauptung „drei Viertel der Erwärmung ist vom Menschen gemacht“ erscheint nach der Diskussion der ersten These schon etwas abstrus, denn wie konnten unsere zahlenmäßig geringen Vorfahren solch drastische Temperaturänderungen produzieren, da sie ja nicht einmal Autos hatten.

Die nächste Graphik vergleicht die Temperaturanomalie mit der Länge des Sonnenzyklus und der Änderung der CO2-Konzentration.

 

Wenn es nach PL eine Korrelation zwischen der Sonnenaktivität und der Temperaturanomalie  vor 1950 gab, dann ist es anhand der Graphik schwer verständlich, warum dies danach nicht mehr gelten soll. Richtig würde PL liegen, wenn er die Korrelation zwischen der Temperaturanomalie und der CO2-Konzentration in Frage stellen würde, denn die ist erbärmlich. Der Standardeinwand lautet hier, dass die Schwankung der solaren Einstrahlung zu gering ist. Dies mag für den integralen Wert richtig sein, aber im UV-Bereich liegt die Variation z. B. im Bereich von 10%. Des Weiteren hat das Cloud-Experiment in CERN eindeutig gezeigt, dass eine Verstärkung der kosmischen Strahlung die Wolkenbildung fördert, wie Svensmark[2] zuerst postuliert hat. Die Intensität der in die Atmosphäre eintretenden kosmischen Strahlung ist aber von der magnetischen Aktivität der Sonne abhängig. Ein Maß für diese Aktivität ist der ap-Index und für die kosmische Strahlung sind dies die gemessene Anzahl der Neutronen auf der Oberfläche der Erde. Umso mehr Neutronen gemessen werden umso stärker ist die kosmische Strahlung und umso geringer das solare Magnetfeld.

Dieser Zusammenhang wird durch die nächste Graphik, die die Variation des ap-Indexes mit der invertierten Änderung des Neutronenflusses vergleicht, eindrucksvoll belegt.

  Die folgende Graphik zeigt zweifelsfrei, dass es eine enge Korrelation zwischen der kosmischen Strahlung und der Wolkenbildung gibt. Mehr Wolken bedeuten geringere Einstrahlung und sinkende Temperaturen und vice versa.

Fazit: Die Behauptung, dass der Einfluss der Sonne nur für die erste Hälfte des Jahrhunderts verantwortlich ist, steht auf sehr tönernen Füßen.

Aber lassen wir doch PL selbst zu Worte kommen. Am 16.11.09 stand in der „Bild“:

Jetzt macht der Klimawandel Pause. Ausgerechnet vor dem Klimagipfel der Vereinten Nationen in Kopenhagen, bei dem Forschung und Wirtschaft im Dezember über milliardenschwere Programme zum Schutz unserer Erde beraten wollen. Wie passt das zusammen?

Meteorologe Mojib Latif vom Kieler Leibniz-Institut für Meereswissenschaften: „Derzeit hat die Erdwärmung Pause.“

WAS SIND DIE GRÜNDE?

Unklar! Der Klimawandel stellt die Wissenschaftler mal wieder vor ein Rätsel. Jedoch nennen sie im „Spiegel“ zwei mögliche Gründe.

• Die Sonne schwächelt. (Endete nicht der Einfluss der Sonne 1950?) Weltraum-Forschern der Nasa fiel die geringe Zahl der Sonnenflecken auf, ein Zeichen für geringe Strahlungsaktivität. Das gab es so ausgeprägt seit Hunderten Jahren nicht.

• Im Pazifik steigt am Äquator kaltes Tiefenwasser nach oben („Pazifische Dekaden-Oszillation“). Mojib Latif meint, dass die Erdatmosphäre dadurch abgekühlt werde.

Beides sind Phänomene, die nur einige Jahre andauern. Danach gehe der Klimawandel weiter, sagt Latif: „Tatsächlich sind Phasen der Stagnation oder gar Abkühlung normal.“

Richtig Herr Prof. Latif ist, dass sich das Klima immer änderte und ändern wird. Erklären müssten Sie uns aber, warum eine Stagnation und eine Abkühlung normal sind, aber eine Erwärmung ungewöhnlich und menschengemacht ist.

These 3: CO2 hat keinen Anteil an der Erderwärmung, Wasserdampf  ist schuld.

Falsch. Wer das behauptet, verwechselt den natürlichen mit dem vom Menschen gemachten Treibhauseffekt. Wasserdampf hat einen Anteil von gut 60 Prozent am natürlichen Treibhauseffekt, der unsere Erdoberfläche warm (15 Grad) hält. Hätten wir ihn nicht, wäre unser Planet eine Eiswüste mit minus 18 Grad. Wir pusten gigantische Mengen CO2 in die Luft, das verstärkt den Treibhauseffekt.

Richtig ist dass der Wasserdampf den überwiegenden Beitrag liefert. Der vom CO2 kann aus der folgenden Graphik abgelesen werden inklusive des Effektes einer Steigerung des CO2-Gehaltes in der Atmosphäre.

 

Prof. R S Lindzen[3] vom MIT hat abgeschätzt, dass die Temperatur um 0.3-0.5°C steigt bei einer Verdopplung des CO2-Gehaltes. Dies ist die relevante Zahl! Die vom IPCC und von PL prognostizierten Anstiege von einigen Grad implizieren eine positive Rückkopplung des Temperaturanstieges mit dem ausgehenden Strahlungsfluss. Dies ist ein charakteristisches Merkmal aller Klimamodelle. Satellitenmessungen zeigen aber exakt das Gegenteil. Es gibt eine negative Rückkopplung. Alarmistische Meldungen beruhen demnach auf falschen Prämissen.

Wenn also der gigantische Effekt des CO2 mickrige 0.3-0.5°C Temperaturanstieg, bei einer nach Prof. T V Segalstadt (Geologe) aus Mangel an fossilen Rohstoffen nicht möglichen Verdopplung des CO2-Gehaltes, bedeutet, dann braucht sich niemand darüber zu sorgen. Im Gegenteil, es wäre sogar gut so, da diese sehr moderate Änderung zusammen mit einem höheren CO2-Gehalt die Produktion der Biomasse deutlich erhöhen würde.

These 4: Zusätzliches CO2 in der Atmosphäre hat keinen Einfluss aufs Klima.

Falsch. Die Skeptiker verstehen nicht, warum CO2 überhaupt klimawirksam ist. Die Atmosphäre ist wie ein riesiges Treibhaus, wobei das CO2 die Rolle des Glases übernimmt – es lässt die Wärme nicht entweichen. Je mehr CO2, desto dichter oder dicker das Glas und umso größer die Erwärmung.

Den Skeptikern Unverständnis zu unterstellen und dabei selbst solch physikalischen Unsinn zu erzählen ist die schiere Unverschämtheit. Die Atmosphäre, ein System mit freier Teilchenkonvektion, mit einem Treibhaus, bei dem gerade diese Konvektion durch das Glas unterbrochen wird, zu vergleichen, zeugt von nicht verstandener Physik. Schon vor mehr als hundert Jahren hat Prof. R W Wood experimentell gezeigt, dass die Temperatur in einem Treibhaus steigt, weil die Luftzirkulation unterbunden und nicht weil die IR-Strahlung von dem Glas absorbiert wird. Das Experiment wurde kürzlich von E Loock (2008) und N S Nahle (2011) verifiziert. Selbst jeder Laie kennt diesen Effekt von dem Auto in der Sonne. Obwohl viel weniger Strahlung in das Auto eintritt als die Umgebung erhält, ist es im Wagen viel wärmer, weil die Konvektion sowohl durch die steigende Temperatur als auch durch das beschränkte Luftvolumen unterdrückt wird. Die Situation wird sofort verbessert, wenn man die Fenster einen Spalt weit öffnet, obwohl dies fast nichts am Strahlungsaustausch ändert.

Noch eine Frage an PL und die AGW-Sympathisanten: Die Marsatmosphäre besteht zu 95% aus CO2. Warum gibt es trotzdem auf dem Mars keinen Treibhauseffekt?

Übrigens ist auf dem Mars in den letzten Dekaden des 20. Jahrhundert die Temperatur gestiegen[4]. Dies geschah gerade in dem Zeitraum in dem die Sonne nach PL keinen Einfluss auf den Temperaturanstieg auf der Erde hatte. Also auf der Erde bewirkte die Sonnenaktivität nichts, während sie gleichzeitig die Temperatur auf dem Mars steigen ließ.

These 5: Das CO2 produzieren nicht wir Menschen, sondern die Weltmeere.

Falsch. Das von uns Menschen produzierte CO2 hat ganz bestimmte Merkmale, die sich vom natürlichen CO2 eindeutig unterscheiden. Dieses kann man messen.

Unsinn, die Ozeane produzieren kein CO2. Sie binden es und zwar mehr mit abnehmender Temperatur.  

Richtig ist, dass es Kohlenstoff als 12C und 13C gibt. Das Mischungsverhältnis ist fix in CaCO3 (Referenzsystem), wogegen durch die Photosynthese in organischen Materialien 13C verringert wird. Das Isotopenverhältnis bestimmt man mit der folgenden Formel

 

Es ist bekannt, dass dieser Wert für fossile Brennstoffe und biologisches Material

δ13C = -26‰ beträgt. Der natürliche Gehalt in der Atmosphäre ist δ13C =-7‰. Gemäß dem IPCC wurden 27% des CO2 (350ppm 1990) durch die Menschheit hinzugefügt. Demnach muss das Isotopenverhältnis δ13C =-12‰ betragen (-[27·26 + 73·7]/100).

Keeling et al.[5] haben 1978 für das Verhältnis -7.489‰ gemessen und 1988 -7.801‰, was weit entfernt von dem vom IPCC und dessen Jüngern angegeben Wert von -12‰ ist.

These 6: Die Klimamodelle der Forscher stimmen nicht.

Falsch. Die Erwärmung entwickelt sich genau wie vorhergesagt. Die Modelle wurden auch an vergangenen Klimaänderungen getestet. Es gibt keinen Grund, den Modellen zu misstrauen.

Falsch, es gibt keinen Grund den Modellen zu trauen. Ausführlich wurde dies in dem Bericht „Klimamodelle – wie verlässlich sind sie?“ untersucht.

Wer dies trotzdem anhand der folgenden Graphik behauptet leidet entweder unter Realitätsverlust oder betrachtet die Menschen als beschränkt.

 

Nun noch ein paar Aussagen von namhaften Wissenschaftlern:

Prof. Freeman Dyson–one of the world’s most eminent physicists says the models used to justify global warming alarmism are "full of fudge factors" and "do not begin to describe the real world."

Prof. Antonino Zichichi–one of the world’s foremost physicists, former president of the European Physical Society, who discovered nuclear antimatter–calls global warming models "incoherent and invalid."

Prof. Richard Lindzen–Professor of Meteorology at M.I.T., member of the National Research  Council Board on Atmospheric Sciences and Climate, says

”It isn’t just that the alarmists are trumpeting model results that we know must be wrong. It is that they are trumpeting catastrophes that couldn’t happen even if models were right.”

Dr. Kanya Kusano is Program Director and Group Leader for the Earth Simulator at the Japan Agency for Marine-Earth Science & Technology (JAMSTEC)

Climate science is ‘ancient astrology’.

Zum Schluss noch ein erstaunliches Zitat vom “Godfather” der AGW-Jünger, James Hansen:

„In my opinion, the IPCC calculations, epitomized by the Wild et al. result, omit the most important physics, especially the nonlinear effects of meltwater and secondarily the effects of black carbon”

Was bewegte Hansen alles in Grund und Boden zu stampfen?

Nun Wild et al. hatten mit einem „ausgeklügelten“ Klimamodell berechnet, dass das Eis von Grönland und der Antarktis bei Verdoppelung des CO2 wächst.

Solcher Frevel verdient natürlich die Schelte des Herrn.

Fassen wir zusammen:

These 1: Klimaerwärmung, die es in der Geschichte der Menschheit noch nicht gegeben hat.

Im letzten Jahrhundert betrug die Temperaturanomalie 0.7-0.8°C. Bei den Dansgaard-Oeschger-Oszillationen gab es Sprünge von mehr als 10°C in weniger als 100 Jahre.  

These 2: Der Sonneneinfluss passierte in der ersten Hälfte des 20. Jahrhunderts.

Das Ende der Erwärmung im 21. Jahrhundert wird von NASA-Forschern durch das Schwächeln der Sonne erklärt. Die Überaktivität der Sonne im 20. Jahrhundert hatte dagegen keinen Einfluss. Was für eine Logik!

These 3: Wir pusten gigantische Mengen CO2 in die Luft, das verstärkt den Treibhauseffekt.

Einer theoretischen Verdopplung des CO2 steht ein möglicher Anstieg von 0.3-0.5°C gegenüber. Höhere Werte stammen von unglaubwürdigen Klimamodellen (siehe letzte These).

These 4: Die Atmosphäre ist wie ein riesiges Treibhaus, wobei das CO2 die Rolle des Glases übernimmt.

Purer Unsinn.

These 5: Das von uns Menschen produzierte CO2 hat ganz bestimmte Merkmal, die man messen kann.

Richtig, das Ergebnis der Messung verschweigt aber PL aus gutem Grund.

These 6: Es gibt keinen Grund, den Modellen zu misstrauen.

Im Gegenteil es gibt keinen Grund ihnen und den Aussagen von Prof. Latif zu trauen.

Dr. B. Hüttner für EIKE


[1] Dies ist detailliert dargelegt und bewiesen von A W Montford in “The Hockey Stick Illusion”

[2] H Svensmark – PHYSICAL REVIEW LETTERS 81 (1998) 5027

[3] Lindzen – Proc. Natl. Acad. Sci. USA 94 (1997)

[4] Fenton et al. – NATURE online April (2007)

[5] In: Peterson, D.H. (Ed.): Aspects of climate variability in the Pacific and the Western Americas. American Geophysical Union, Geophysical Monograph 55, 165-236




Fallstudien aus aller Welt belegen: Keine Beschleunigung des Meeresspiegelanstiegs während der letzten 30 Jahre

Bereits im Jahr 2009 hatte sich eine internationale Forschergruppe aus Frankreich, Spanien und Großbritannien um Guy Wöppelmann mit der Frage beschäftigt, welchen Einfluss Land-Hebungen und -Senkungen auf Meeresspiegelmessdaten von Küstenpegeln haben. In der in den Geophysical Research Letters erschienenen Studie untersuchten die Wissenschaftler weltweit 227 Stationen deren Höhe im Rahmen eines globalen Netzwerks mithilfe des satellitengestützten Global Positioning Systems (GPS) genau erfasst wurde. 160 dieser Stationen liegen in einer Entfernung von höchstens 15 km von Küstenpegeln. Auf diese Weise konnten die Forscher vertikale Bewegungen der Pegel bestimmen und die Meeresspiegeldaten der Pegel entsprechend korrigieren. Für das letzte Jahrhundert konnte auf diese Weise ein mittlerer globaler Meeresspiegelanstieg von 1,61 mm pro Jahr ermittelt werden. Von 1900 bis 1940 stieg der Meeresspiegel etwas langsamer an (Abbildung 1). Um 1940 schaltete der Meeresspiegelanstieg dann auf eine höhere Geschwindigkeitsstufe, die bis heute relativ stabil beibehalten wurde. Eine weitere Beschleunigung war während der letzten 70 Jahre nicht zu verzeichnen. Die Beschleunigung in der ersten Hälfte des 20. Jahrhunderts war dabei zu erwarten und ist in den Übergang von der Kleinen Eiszeit in die Moderne Wärmeperiode einzuordnen (siehe unser Blogartikel „Der Meeresspiegel steigt! Seit 15.000 Jahren“).

Abbildung 1: Meeresspiegelentwicklung der letzten 100 Jahre für Nordeuropa (oben) und Nordwest Amerika (unten) auf Basis von Küstenpegeln. Landhebungen und -Senkungen wurden für die untersuchten Stationen mit GPS bestimmt und bei der Erstellung der Meeresspiegelkurve berücksichtigt. Seit 1940 ist keine Beschleunigung des Anstiegs mehr zu verzeichnen. Quelle: Wöppelmann et al. (2009).

Ein weiteres bedeutendes Paper zur Meeresspiegelentwicklung erschien Ende Juni 2012 in den Geophysical Research Letters. Ein internationales Wissenschaftlerteam um Olivier Henry vom Centre National de la Recherche Scientifique in Toulouse führte für die vergangenen 60 Jahre eine Untersuchung an 62 Küstenpegeln an den arktischen Küsten Norwegens und Russlands durch. Zunächst korrigierten die Forscher Hebungs- und Senkungsbewegungen im Zusammenhang mit der letzten Eiszeit sowie andere Effekte. Die auf diese Weise rekonstruierte Meeresspiegelkurve des Arktischen Ozeans zeigt einige überraschende Merkmale. Zunächst einmal blieb der Meeresspiegel ab 1950 für drei Jahrzehnte relativ stabil und verharrte auf einem Plateau (Abbildung 2). Erst ab 1980 stieg der Meeresspiegel schließlich an und erreichte um 1990 seinen Höhepunkt, der bis heute nicht mehr übertroffen wurde. Im Laufe der 1990er Jahre fiel der Meeresspiegel wieder. Ab 1995 stieg er dann wieder an, erreicht aber nicht mehr das Meeresspiegelniveau von 1990. Von 1995 bis 2009 errechneten die Autoren eine mittlere Meeresspiegelanstiegsrate von 4 mm/Jahr.

Der Meeresspiegelverlauf entwickelte sich dabei über fast den gesamten Untersuchungszeitraum synchron zur Arktischen Oszillation (AO), einem bedeutenden Ozeanzyklus in der Region (Abbildungen 2 und 3). Erst in den letzten 10 Jahren scheint sich der Zusammenhang etwas zu entkoppeln, obwohl die Zeitspanne wohl noch zu kurz ist, um dies mit Sicherheit – auch mit Blick in die Zukunft – sagen zu können. Der synchrone Absturz von Meeresspiegel und Arktischer Oszillation 2009 zeigt, dass die AO wohl auch in Zukunft einen maßgeblichen Einfluss auf das Meeresspiegelgeschehen in der Arktis nehmen wird. 

Ähnlich wie bei der Temperaturentwicklung müssen auch bei der Meeresspiegelinterpretation in einigen Regionen der Erde auf jeden Fall Ozeanzyklen berücksichtigt werden. Ozeanzyklen können den Meeresspiegel nach oben und nach unten drücken, Anstiege beschleunigen, verlangsamen und sogar ins Negative umschlagen lassen. Eine generelle und belastbare Beschleunigung des Meeresspiegelanstiegs durch schmelzende Eismassen während der letzten drei Jahrzehnte lässt sich im Arktischen Ozean nicht belegen.

Abbildung 2: Meeresspiegelentwicklung in der Arktis für die vergangenen 60 Jahre (rote Kurve). Von 1950 bis 2000 verlaufen die Meeresspiegeländerungen weitgehend synchron zur Arktischen Oszillation (AO, schwarze Kurve), einem bedeutenden Ozeanzyklus in der Region. Abbildung aus Henry et al (2012).

 

Abbildung 3: Arktischer Oszillations-Index (Quelle: Wikipedia).

Gehen wir nun auf die andere Seite der Erde, nach Neuseeland. In Neuseeland und anderen Gebieten der südlichen Hemisphäre gibt es nur wenige Küstenpegelmessungen die bis 1900 zurückreichen. Die beiden neuseeländischen Forscher John Hannah und Robert Bell von der University of Otago bzw. dem National Institute of Water and Atmospheric Research veröffentlichten im Januar 2012 im Journal of Geophysical Research zusätzliche historische Pegelmessreihen aus Neuseeland. In den neuen Kurven lässt sich eine zweigeteilte Entwicklung erkennen, wobei sich die Anstiegsgeschwindigkeit um 1940 leicht erhöhte und seitdem stabil blieb (Abbildung 4). Die neuseeländische Entwicklung ähnelt dabei der globalen Situation, wie sie in der zuvor besprochenen Studie der Wöppelmann-Gruppe erarbeitet wurde. Der in Neuseeland ermittelte Langzeittrend von 1,7 mm Meeresspiegelanstieg pro Jahr entspricht dabei in etwa dem globalen Wert. Auch in Neuseeland ist keinerlei Beschleunigung des Meeresspiegelanstiegs in den letzten 30 Jahren zu erkennen.

Abbildung 4: Meeresspiegelentwicklung an vier neuseeländischen Küstenpegeln. Eine Beschleunigung des Anstiegs ist für die vergangenen 70 Jahre nicht zu erkennen. Abbildung aus Hannah & Bell (2012).

Bemerkenswert an der Studie von Hannah und Bell ist auch, dass die neuseeländische Meeresspiegelentwicklung durch Zyklen im Jahrzehnt-Maßstab geprägt ist. Der Meeresspiegel stieg und sank dabei im Takt der pazifischen Meereszyklen (Southern Oscillation Index, SOI und andere) (Abbildung 5).

Siehe auch Bericht vom NIPCC.

Abbildung 5: Dargestellt sind vier neuseeländische Meeresspiegel-Pegelmessreihen (dünne graue, schwarze und blaue Linien), die mit dem Südlichen Oszillationsindex, einem pazifischen Ozeanzyklus (SOI, fette schwarze Linie), verglichen werden. Es besteht eine gute Übereinstimmung zwischen Meeresspiegel und Meereszyklus. Der Meeresspiegel stieg und sank dabei im Takt der pazifischen Meereszyklen. Abbildungsquelle: Hannah & Bell (2012).

Nicht weit davon entfernt forschte ein internationales Team um Roland Gehrels von der University of Plymouth. Im Januar 2012 veröffentlichte die Gruppe in den Earth and Planetary Science Letters eine neue Studie der Meeresspiegelgeschichte Tasmaniens (einer Insel vor der Küste Südost-Australiens) und Neuseelands. Anhand von Salzmarschablagerungen konnten die Wissenschaftler die Meeresspiegelentwicklung für die vergangen 6000 Jahre rekonstruieren. Besonderes Augenmerk schenkten sie dabei den letzten 200 Jahren. Zur Altersdatierung verwendeten Gehrels und Kollegen Radiokarbonalter sowie andere Isotopenmethoden auf Basis von Cäsium und Blei. Der Meeresspiegel wurde anhand von fossilen Einzellern, sogenannten Foraminiferen bestimmt.

Die Studie zeigte, dass sich der Meeresspiegel während der letzten 6000 Jahre innerhalb eines Bereichs von etwa einem halben Meter bewegte. Zwischen 1900 und 1950 stieg der Meeresspiegel mit einer Rate von 4,2 mm pro Jahr an (Abbildung 6). Während der zweiten Hälfte des 20. Jahrhunderts verlangsamte sich der Meeresspiegelanstieg jedoch hingegen merklich und erreichte im Durchschnitt nur noch 0,7 mm pro Jahr. Ähnliche Resultate ergaben sich für das südliche Neuseeland. Eine Beschleunigung des Meeresspiegelanstiegs in den letzten Jahrzehnten ist im australisch-neuseeländischen Studiengebiet nicht zu erkennen. Vielmehr ist das Gegenteil der Fall. Der Meeresspiegelanstieg hat sich sogar gegenüber der ersten Hälfte des 2. Jahrhunderts verlangsamt.

Abbildung 6: Meeresspiegelentwicklung von Tasmanien während der vergangenen 200 Jahre. Zwischen 1900 und 1950 stieg der Meeresspiegel mit einer Rate von 4,2 mm pro Jahr an. Während der zweiten Hälfte des 20. Jahrhunderts verlangsamte sich der Meeresspiegelanstieg hingegen merklich und erreicht im Durchschnitt nur noch 0,7 mm pro Jahr. Abbildungsquelle: Gehrels et al. (2012).

Auch terradaily berichtete über die Tasmanien-Publikation. Jedoch scheint es den Autor des Terradaily-Berichts kaum zu interessieren, dass die Meeresspiegelanstiegsrate in der zweiten Hälfte des 20. Jahrhunderts so dramatisch abgenommen hat, obwohl doch der CO2-Austoß zeitgleich stetig anstieg. Stattdessen wird auf einen angeblichen anthropogenen Einfluss in den 1990er Jahren verwiesen, der jedoch in den Originaldaten kaum erkennbar ist.

Bleiben wir noch kurz im Pazifik und reisen wir nun im Rahmen unserer Urlaubs-Meeresspiegel-Serie weiter auf das Tarawa Atoll, das Teil der Republik Kiribati ist. Das Atoll ist eines dieser Gebiete, von denen immer gesagt wird, dass der Untergang wegen des unerbittlichen Meeresspiegelanstiegs nur noch eine Frage der Zeit sei. Umweltaktivisten-Organisatione wie Greenpeace verwenden die Kiribati-Atolle gerne, um die angeblich dramatischen Folgen des Meeresspiegelanstiegs zu verdeutlichen, unter anderem auf dem Klimagipfel von Kopenhagen vor einigen Jahren. Nun hat sich Simon Donner von der University of British Columbia die

Meeresspiegelentwicklung des kiribatischen Tarawa-Atolls für die vergangenen 20 Jahre einmal näher angeschaut. Die Ergebnisse hat er im April 2012 in der Fachpublikation Eos veröffentlicht. Und nun halten Sie sich bitte fest: Pegelmessungen zeigen, dass der Meeresspiegel um Tarawa in dieser Zeit überhaupt gar nicht angestiegen ist (Abbildung 7).

Die in der Kurve enthaltenen Schwankungen gehen überwiegend auf El Nino-Effekte zurück. So fiel 1998 der Meeresspiegel um satte 45 cm, im Übergang von einem starken El Nino zu einem La Nina. Meeresspiegelanstiege von bis zu 15 cm ereigneten sich in Tarawa im Zusammenhang mit den El Nino-Ereignissen 2002-2003, 2004-2005 und 2009-2010 (Abbildung 7). Donner weist zudem darauf hin, dass auf Tawara Landgewinnungs- und andere Küstenbaumaßnahmen

stattgefunden haben, die an einigen Stellen des Atolls zu verstärkter Erosion und vermehrten Überflutungen geführt haben. Zudem werden an den Stränden und Korallenriffen der Atolle von den Einheimischen traditionell Baumaterialien gewonnen, was ebenfalls das Überflutungsrisiko erhöht. Donner schreibt in seinem Artikel:

„Das Ignorieren von Meeresspiegelbeiträgen aus der natürlichen Variabilität sowie aus direkten menschengemachten Veränderungen an der Küste kann dazu führen, dass bestimmte Überflutungsereignisse und Küstenveränderungen fälschlicherweise dem Meeresspiegelanstieg zugerechnet werden. Tarawa ist das am leichtesten zu erreichende Atoll der Kiribati-Inselgruppe und stellt ein von Journalisten und Aktivisten gern besuchtes Reiseziel dar, um von dort über die Folgen des Meeresspiegelanstiegs für flache Inseln zu berichten. […] Die Medien verwenden dabei Bilder von überfluteten Häusern und über Dämme spülenden Wellen, welche jedoch während seltener, nicht repräsentativer Ereignisse an einem flutgefährdeten Flecken gemacht wurden, teilweise verursacht durch menschliche Baumaßnahmen. Dies Bilder können den falschen Eindruck erwecken, das Tarawa einer dauerhaften Überflutungsgefahr durch einen steigenden Meeresspiegel ausgesetzt wäre. Das Zuordnungsproblem wird durch die politische Situation weiter verschärft. Die Regierung von Kiribati sieht sich der schwierigen Herausforderung gegenüber, internationale Beachtung für lokale Klimaschäden auf sich zu ziehen, um Hilfe bei Anpassung und Schadensminderung zu erhalten. Die Interpretation der Gründe von Küstenveränderungen und Überflutungsereignissen, sowie die Vorhersage von Folgen des Meeresspiegelanstiegs ist schwierig für ein solches Entwicklungsland mit nur begrenzten Ressourcen für wissenschaftliche Untersuchungen.“ 

Siehe auch Artikel von Mark Lynas und Roger Pielke Sr.

Abbildung 7: Meeresspiegelentwicklung des Tarawa-Atolls in der zentralpazifischen Republik Kiribati auf Basis einer Pegelmessreihe. Schwankungen gehen überwiegend auf El Nino-Effekte zurück. Langfristig ist der Meeresspiegel konstant geblieben. Ein Anstieg ist nicht zu erkennen. Abbildungsquelle: Donner (2012).

Kehren wir nun zurück in heimische europäische Gefilde. Im Mai 2012 erschien in den Quaternary Science Reviews eine Studie eines internationalen Forscherteams um Eduardo Leorri von der East Carolina University. Die Gruppe untersuchte die Meeresspiegelgeschichte in der Bucht von Biskaya während der letzten 10.000 Jahre anhand von Bohrungen. Den Meeresspiegel rekonstruierten die Wissenschaftler auf Basis von Fossilinhalt, Sandgehalt und anderen geologischen Merkmalen.

Die Entwicklung lässt sich in zwei Phasen unterteilen. Ein schneller Meeresspiegelanstieg fand von 10.000 bis 7000 Jahre vor heute statt (Abbildung 8). Der Meeresspiegel stieg damals um etwa 22m an, was einem mittleren Anstieg von über 7 mm pro Jahr entspricht. Vor 7000 Jahren verlangsamte sich dann der Anstieg.

Abbildung 8: Meeresspiegelgeschichte der Bucht von Biskaya. Abbildungsquelle: Leorri et al. (2012).

Die Ergebnisse verglichen Eduardo Leorri und seine Kollegen mit Küstenpegelmessungen der vergangenen 200 Jahre aus der Region. Wie nicht anders zu erwarten, stieg der Meeresspiegel während der Kleinen Eiszeit kaum an, fiel zum Teil sogar. Dies betrifft in der Bucht von Biskaya die Zeit zwischen 1800 und 1900 (Abbildung 9). Eiskappen und Gletscher waren in der Kleinen Eiszeit stabil und wuchsen zum Teil sogar an. Erst zu Beginn des 20. Jahrhunderts, als das Eisschmelzen allmählich wieder begann, zog dann auch der Meeresspiegelanstieg wieder an (Abbildung 9). Eine außergewöhnliche Beschleunigung des Anstiegs während der letzten drei Jahrzehnte ist in den Meeresspiegeldaten aus der Bucht von Biskaya nicht zu erkennen.

Abbildung 9: Küstenpegelmessungen aus der Bucht von Biskaya. Wie auch in anderen Studien ist ab ca. 1900 eine Beschleunigung des Anstiegs zu erkennen, welche den Übergangsbereich der Kleinen Eiszeit zur Modernen Wärmeperiode markiert. Abbildungsquelle: Leorri et al. (2012).

Es ist wahrscheinlich, dass sich der Meeresspiegel während der letzten tausenden von Jahren in Wellen entwickelte, die weitgehend parallel zu den Klima- bzw. Temperaturzyklen abliefen. Während der Kälteperioden wie etwa der Kleinen Eiszeit stagnierte bzw. fiel der Meeresspiegel, während der Wärmeperioden wie etwa der Römischen Wärmeperiode, Mittelalterlichen Wärmeperiode und Modernen Wärmeperiode zog die Anstiegsgeschwindigkeit dann wieder an. Eine umfangreiche Darstellung dieser vorindustriellen Meeresspiegelentwicklung liegt von Tony Brown vor, der seine Ergebnisse auf Judith Curry’s Blog veröffentlicht (Blogartikel, ausführliche pdf-Version). Eilige Leser seien auf die Seiten 23-26 des pdf verwiesen, wo Brown interessante Überlegungen zum Meeresspiegel der letzten 2000 Jahre anstellt. Unter Bezugnahme auf eine Arbeit eines Teams um Aslak Grinsted von der University of Lapland von 2010 im Journal Climate Dynamics wird diskutiert, ob der höchste Meeresspiegel der Nacheiszeit möglicherweise zur Zeit der Mittelalterlichen Wärmeperiode herrschte (Abbildung 10). Danach wäre der Meeresspiegel während der Kleinen Eiszeit wieder abgefallen, um dann im Übergang zur Modernen Wärmeperiode wieder anzusteigen. Möglicherweise wurde das mittelalterliche Niveau heute noch gar nicht wieder erreicht. Ein interessanter Gedanke. Auf jeden Fall müssen diese Effekte bei der Zuordnung von natürlichen und anthropogenen Ursachen des aktuellen Meeresspiegelanstiegs berücksichtigt werden, was leider noch viel zu wenig geschieht. Ähnlich zur Hockey Stick Episode zeigt der historisch-geologische Kontext, dass auch die Meeresspiegelentwicklung keineswegs so ereignislos und monoton war wie von einigen Klimadiskutanten angenommen.

Abbildung 10: Modell der Meeresspiegelentwicklung der letzten 2000 Jahre. Die dicke schwarze Kurve ab 1700 entspricht einer geologischen Rekonstruktion von Jevrejeva et al. (2006). Verändert nach Grinsted et al. (2010).

Eine interessante Diskussion der Frage, ob sich der globale Meeresspiegelanstieg im letzten Jahrzehnt gegenüber dem letzten Jahrhundert beschleunigt hat, führte Paul Homewood im Mai 2012 auf WUWT. Dabei ging er insbesondere der Frage nach, warum Pegelmessungen nur einen Anstiegswert von etwa 2,0 mm pro Jahr oder weniger zeigen (z.B. wie in einer Studie von Douglas), während Satellitendaten mit 2,8 mm/Jahr fast einen Millimeter höhere Wert anzeigen. Homewood überprüfte dazu eine Reihe von Küstenpegelmessungen und kam zu folgendem Ergebnis:

„Meine Analyse ergab keinen Hinweis auf eine kürzliche Beschleunigung der langjährigen Meeresspiegelanstiegsrate. Die Anstiegsrate beträgt noch immer 2 mm pro Jahr oder sogar weniger. Zusätzlich zeigt die Auswertung von Daten aus der südlichen Hemisphäre an, dass sich der Anstieg sogar möglicherweise verlangsamt hat. Die untersuchten Datenserien sind zwar in beiden Fällen statistisch klein und besitzen eine ungenügende geographische Abdeckung. Trotzdem besitzen sie eine ähnliche Datendichte wie die Original-Arbeit von Douglas [mit der Homewood seine Ergebnisse vergleicht], einer Arbeit die allgemein als sorgfältige Abschätzung des Meeresspiegelanstiegs im 20. Jahrhundert angesehen wird (z.B. verwendet der IPCC einen Wert von 1,7 mm/Jahr).  

Die Abweichung der Satellitendaten kann aus logischen Gesichtspunkten nur auf einen oder mehrere der folgenden Gründe zurückgehen: 

1)    Die Original-Douglas Studie könnte auf nicht repräsentativen oder fehlerhaften Daten basieren. Falls dies der Fall wäre, würde die in der Douglas-Studie ermittelte Anstiegsrate von 1,85 mm pro Jahr für das 20. Jahrhundert den wahren Wert signifikant unterschätzen.

2)    Die Satellitenmessungen könnten falsch sein.

3)    Der Zeitraum für den Satellitendaten zur Verfügung stehen (20 Jahre) könnte zu kurz sein, um einen verlässlichen Langzeittrend abzubilden, insbesondere weil der Beginn der Datenreihe an einem Tiefpunkt eines Zyklus liegt.

4)    Der Ausschluss von 11 Meßstationen aus der Rekonstruktion [von Homewood] könnte die Rate des Meeresspiegelanstiegs reduziert haben. Allerdings scheint es unwahrscheinlich, dass diese 11 Stationen einen starken Beschleunigungstrend besitzen, während die 12 verbliebenen keinen Trendwechsel anzeigen. Dies konnte zudem für die Südhemisphäre bestätigt werden.“

Unsere kleine Meeresspiegel-Weltreise war wenig ergiebig – oder sogar äußerst ergiebig, je nachdem wie man es sieht. Anzeichen für eine Beschleunigung des Meeresspiegels während der letzten 30 Jahre haben wir in keiner der Studien gefunden. Es sieht nicht gut aus für die Fans der Beschleunigung.

Dr. Sebastian Lüning; zuerst erschienen auf Kalte Sonne  

english version here at notrickszone




Wie es um den Wahrheitsgehalt der Aussagen von IPCC-Leitautoren steht

Im Dezember 2011 veröffentlichte der Biologe Prof. Andreas Fischlin von der ETH Zürich im Magazin schweizer monat eine Kritik an den Klimathesen des US-amerikanischen Atmosphärenphysikers Prof. Fred Singer. Fischlin war am zweiten und vierten IPCC Bericht jeweils als Leitautor beteiligt und verteidigt in seinem Text die Arbeit des Weltklimarats vehement. Sein Artikel ist dabei in einem hochemotionalen, teilweise aggressiven Stil abgefasst, der eine fruchtbare wissenschaftliche Diskussion eher behindert.

Wir haben uns einmal erlaubt, Fischlins Argumentation einem Faktencheck zu unterziehen. Sind seine harten Vorwürfe gegen Singer wirklich gerechtfertigt? Das Ergebnis der wissenschaftlichen Überprüfung von Fischlins Beweisführung ist ernüchternd. Alles deutet darauf hin, dass sich der ehemalige IPCC-Autor kräftig verrannt hat. Im Folgenden bringen wir eine detaillierte Analyse ausgewählter Passagen aus Fischlins Schmähschrift.

Nr. 1: Passage im Artikel von Andreas Fischlin;

Ich schicke an dieser Stelle bereits voraus, dass Herr Singer erstens kein aktiver Klimaforscher ist […]

Nr. 1: Fakten-Check

Prof. Fred Singer ist ein US-amerikanischer Atmosphärenphysiker. Im Jahre 1948 schloss er seine Promotion in Physik an der Princeton University ab. 1953 wurde er Professor für Physik an der University of Maryland und Direktor des dortigen Zentrums für Atmosphären- und Weltraumphysik. 1962 wechselte er als Direktor in die Abteilung für Wettersatelliten im US-Handelsministerium (heute bei NOAA) und kehrte 1964 in die Wissenschaft zurück als Gründungsdekan des Fachbereichs Umwelt- und Planetenwissenschaft an der University of Miami. Von 1967 bis 1971 arbeitete er erneut in der Bundesadministration, bis 1970 im US-Innenministerium als Deputy Assistent Secretary in der Abteilung für Wasserversorgung, die damals auch für die Atmosphären- und Ozeanographie-Aktivitäten zuständig war. 1970 bis 1971 war er Deputy Assistant Administrator (Policy) an der US-Bundes-Umweltbehörde. 1971 übernahm er die Professur für Umwelt-Wissenschaften an der University of Virginia wo er 1994 emeritierte (Quelle: Wikipedia). Eine von Singers neuesten Publikationen ist z.B. Singer (2011). Fischlin ist Biologe. Seine Forschungsinteressen sind die Modellierung von Ökosystemen. Die Frage sei erlaubt: Welcher der beiden Wissenschaftler hat wohl gemäß seiner Ausbildung und Berufserfahrung die größere Erfahrung im Themenkomplex Atmosphäre, Ozeanographie, Wetter und physikalische Klimamechanismen? Einen weiteren Punkt gilt es unbedingt zu beachten: Aufgrund der zahlreichen offensichtlichen Widersprüche und Probleme in den Klimawissenschaften, ist eine Evaluierung durch externe Auditoren dringend angezeigt. Da die in diesem Bereich „aktiven Klimaforscher“ durch vielfältige Kooperationen, Institutionszugehörigkeiten und andere Abhängigkeiten im Zuge von Fördermittbeantragungen und -bewilligungen miteinander eng verflochten sind, kann eine solche Überprüfung nur durch außenstehende Naturwissenschaftler erfolgen. Aus diesem Grund sowie wegen der großen gesellschaftlichen Bedeutung des Problems ist dem Fach dringend anzuraten, Kritiken von Personen außerhalb des Expertenzirkels ernst zu nehmen.

Nr. 2: Passage im Artikel von Andreas Fischlin

[…] und es, zweitens, gerade mit der «Ehrlichkeit und der Redlichkeit» nicht besonders genau nimmt.

Nr. 2: Fakten-Check

Starker Tobak. Um diese Frage werden wir uns am Abschluss des Faktenchecks etwas genauer kümmern. Welche Belege führt Fischlin für diese starke Behauptung an?

Nr. 3: Passage im Artikel von Andreas Fischlin

Singer behauptet, die Hockeyschlägerkurve aus dem IPCC-Bericht von 2001 sei mittlerweile von Statistikern widerlegt worden. Das ist mir nicht bekannt, und ich zweifle, dass Herr Singer hierfür irgendeinen Beleg hat. […] An der Hockeykurve waren bloss geringfügige Korrekturen erforderlich.

Nr. 3: Fakten-Check

Hier irrt Fischlin. Die Hockeyschlägerkurve ist heute in der Tat vollständig diskreditiert. Neuere Temperaturrekonstruktionen durch Michael Mann und Kollegen zeigen nun wieder deutlich die Mittelalterliche Wärmeperiode sowie die Kleine Eiszeit. Diese charakteristischen Temperaturanomalien wurden kürzlich auch von Fredrik Ljungqvist bestätigt (Ljungqvist 2010, Ljungqvist et al. 2012). Dringender Buchtip: The Hockey Stick Illusion(von Andrew Montford).Der IPCC täte gut daran, den offensichtlichen Hockeyschläger-Irrweg endlich offen einzuräumen, um einen Teil der Glaubwürdigkeit dieses Gremiums wieder herzustellen.

Nr. 4: Passage im Artikel von Andreas Fischlin

Die wesentlichen Erkenntnisse, die der Hockey Stick illustriert, sind jedoch korrekt. Sie zeigen, dass erstens die schon vor zehn Jahren messbare Erwärmung sich deutlich aus dem Bereich der langfristigen natürlichen Schwankungen heraus bewegte, und zweitens, dass die heutigen Temperaturen diejenigen vergangener, warmer Epochen – auch die der mittelalterlichen Warmzeit, mit der Herr Singer gern argumentiert – übersteigen

Nr. 4: Fakten-Check

Dies ist nicht richtig. Die Mittelalterliche Wärmeperiode (MWP) hatte ein ähnlich hohes Niveau wie die aktuelle Moderne Wärmeperiode. Was meint Fischlin nur mit „vor zehn Jahren messbare Erwärmung“? Die globale Durchschnittstemperatur ist bekanntlich seit mehr als zehn Jahren, also seit 2000, nicht mehr angestiegen! Anmerkung EIKE: Insbesondere die Proxy-Daten des Stalagmiten SPA12 zeigen, dass die MWP höhere Temperaturen aufwies, als die des 20. Jahrhunderts, s. hierzu auch die Veröffentlichungen hier und hier.

Nr. 5: Passage im Artikel von Andreas Fischlin

Relevant ist hingegen, dass ohne wirksamen Klimaschutz die Spitze des Schlägers für das Jahr 2100 Temperaturen aufweist, die auf diesem Planeten letztmals vor 3 oder 40 Millionen Jahren herrschten!

Nr. 5: Fakten-Check

Die zitierte starke Erwärmung bis 2100 basiert auf IPCC-Klimamodellen, die zu hinterfragen sind (siehe unten).

Nr. 6: Passage im Artikel von Andreas Fischlin

Herr Singer behauptet, dass Klimamodelle als Mittel zur Abschätzung zukünftiger Temperaturen nichts taugten, da sie nicht genügend überprüft seien und nicht einmal vergangene Temperaturänderungen nachrechnen könnten. Beides sind unzutreffende Behauptungen: Klimamodelle basieren auf physikalischen Gesetzen, und ihre Berechnung hat eine lange Tradition

Nr. 6: Fakten-Check

Die hier verwendeten Modelle sind nicht in der Lage, die deutlichen Klimaschwankungen (z.B. Bond-Zyklen) der letzten 10.000 Jahre zu reproduzieren. Diese Klimaschwankungen verliefen weitgehend synchron zu Änderungen der Sonnenaktivität. Laut aktuellen IPCC-Klimamodellen soll die Sonne jedoch angeblich nur eine fast zu vernachlässigend geringe Klimawirkung haben. Diese Annahme steht im krassen Gegensatz zu den geologischen Daten der nacheiszeitlichen Klimaentwicklung. Es ist davon auszugehen, dass ein signifikanter Teil der Erwärmung der letzten 150 Jahre seit Ende der Kleinen Eiszeit auf die Klimawirkung der Sonne zurückzuführen ist, ein Effekt der bislang fälschlicherweise teilweise dem CO2 zugeschlagen wurde. Auch CO2 trug zu der genannten Erwärmung bei, jedoch in einem weit geringeren Maße als von Fischlin und IPCC vorgeschlagen. Klimamodelle die die Vergangenheit nicht abbilden können, sind auch nicht in der Lage, die zukünftige Klimaentwicklung zuverlässig vorherzusagen. Es liegt ein grober Ansatzfehler vor, der dringend korrigiert werden muss.

Anmerkung EIKE:Noch im IPCC-Bericht 2001, Sec. 14.2.2.2., S. 774 heißt es „...we are dealing with a couped non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible„. Der Bearbeiter ist der Auffassung, dass zuverlässige Klimamodelle andere Eigenschaften aufweisen müssten. Den schlimmsten Missgriff leisten sich Klimamodelle immer noch, indem sie den sog. Hot Spot vorhersagen, der in zehntausenden Ballonmessungen bis heute nicht auffindbar ist.

Nr. 7: Passage im Artikel von Andreas Fischlin

[…] den städtischen Wärmeinseleffekt gibt es zwar, er ist aber vernachlässigbar (unterhalb 0.006°C pro Dekade) und kann die globalen Trends nicht erklären.

Nr. 7: Fakten-Check

Lokal spielt der städtische Wärmeinseleffekt (UHI) eine große Rolle. Aufgrund der weiten, unbesiedelten Flächen auf der Erde könnte er auf globaler Ebene vielleicht wirklich nur eine eher untergeordnete Rolle spielen. Dies suggerieren Eregbnisse der sogenannten BEST-Studie. Zusätzliche Untersuchungen hierzu sind im Gange. Die beobachtete Erwärmung der Erde seit 1850 war auf jeden Fall zu erwarten, da sie den seit 10.000 Jahren pulsierenden Temperaturzyklus fortsetzt. Immer wenn die Sonne sehr aktiv war, erwärmte sich die Erde, und wenn die Sonne schwächer wurde, kühlte die Erde ab. Die letzten Jahrzehnte gehörten zu den solar aktivsten der letzten 10.000 Jahre, wie Solanki et al. (2004)in einem Nature-Artikel zeigen konnte. Das Sonnenmagnetfeld als Maß der Sonnenaktivität hat sich in den letzten 100 Jahren mehr als verdoppelt. Obwohl die beobachtete Temperaturentwicklung der letzten 160 Jahre allgemein gut in das natürliche Grundmuster der Temperaturdynamik passt, hat wohl auch CO2den Erwärmungstrend weiter verstärkt. Hauptaufgabe der Klimawissenschaften sollte es sein, diesen anthropogenen Beitrag in realistischer Weise näher zu quantifizieren. Hierzu muss jedoch zunächst die nacheiszeitliche Klimageschichte korrekt modelliert werden.

Ergänzung von EIKE: In der Publikation wird die Wirkung des UHI quantitativ belegt.

Nr. 8: Passage im Artikel von Andreas Fischlin

Im Zeitraum zwischen der Inbetriebnahme erster mit Koks betriebener Hochöfen und der Erfindung des «iPhone» wurde eine Erhöhung der mittleren Erdtemperatur um 0.74°C gemessen, was gut mit den Erwartungen übereinstimmt, die sich also durch den CO2-Anstieg mittels Treibhauseffekt ergeben – den Herr Singer ja nicht bestreitet. Hierbei haben Schwankungen der Sonnenaktivität lediglich einen Beitrag von 7 Prozent geleistet – seit Ende der 80er-Jahre zeigt sich sogar ein gegenteiliger Effekt, die Sonnenaktivität schwächt sich ab. All das zeigt: die Sonne kann als natürliche Ursache für die beobachtete Erwärmung nicht verantwortlich gemacht werden

Nr. 8: Fakten-Check

Fischlins Annahme, dass die Sonne nur einen einstelligen Prozentanteil an der seit 1850 beobachteten Erwärmung besitzt, basiert auf theoretischen Klimamodellen, welche die Klimageschichte der vergangenen 10.000 Jahre nicht reproduzieren können (siehe oben). Die solar-synchrone Temperaturentwicklung der Nacheiszeit zeigt eindeutig, dass der vom IPCC für die Sonne angesetzte Strahlungsantrieb viel zu gering ist. Im Gegenzug ist der für das CO2angenommene Strahlungsantrieb viel zu hoch. Der Hinweis auf eine angebliche Abschwächung  der Sonnenaktivität seit den 1980er Jahren ist grob irreführend. Der 21. Und 22. Sonnenzyklus in den 1980er und 1990er Jahren bewegte sich auf einem sehr hohen Aktivitätsniveau. Wie berichtet, konnte Solanki et al. (2004) zeigen, dass die Sonnenaktivität der letzten Jahrzehnte insgesamt zu den solar aktivsten Phasen der vergangenen 10.000 Jahre zählte. Eine Bezugnahme auf Trends von wenigen Dekaden ist dabei weder zulässig noch sinnvoll. Zum einen unterschreitet es die 30-Jahres-Klima-Definition. Zum anderen müssen deutlich längere Entwicklungen von 100-200 Jahren betrachtet werden, da das Klimasystem durch die Trägheit der Ozeane nur mit starker Verzögerung vollständig auf Impulse reagiert. Es dauert mitunter mehrere Dekaden bis Gleichgewichte aufgebaut sind, teilweise sogar länger. Leider versäumt Fischlin darauf hinzuweisen, dass die Sonnenaktivität seit der Kleinen Eiszeit vor 300 Jahren stark angestiegen ist. Allein in den letzten 100 Jahren hat sich das Sonnenmagnetfeld mehr als verdoppelt. Aufgrund der empirisch bewiesenen starken Kopplung von Sonnenaktivität und Temperaturentwicklung muss von der Existenz von solaren Verstärkermechanismen ausgegangen werden, auch wenn der genaue physikalische Mechanismus noch nicht ausreichend bekannt ist. Derzeit wird an mehreren solcher Mechanismen geforscht. Die vorläufigen Ergebnisse hierzu werden regelmäßig in internationalen, begutachteten Fachzeitschriften veröffentlicht. Das Verschweigen all dieser Umstände in Fischlins Artikel könnte man – mit seinen eigenen Worten – als unredlich, pseudowissenschaftlich, verzerrend, unseriös, rosinenklauberisch oder unehrlich bezeichnen. Da wir uns hier jedoch auf die Diskussion der wissenschaftlichen Inhalte beschränken, wollen wir hierauf verzichten. Interessanterweise musste auch Alfred Wegener eine ähnlich heftige und unfaire Reaktion des wissenschaftlichen Establishments damals über sich ergehen lassen (siehe unser Blogartikel „Kontinentalverschiebung und Klimawandel: Die wundersame Wiederholung der Wissenschaftsgeschichte“). Es scheint zum guten Ton in der Wissenschaft zu gehören, Vertreter alternativer Interpretationen heftig und persönlich anzufeinden. Dies ist in höchstem Maße unethisch und einer modernen, aufgeklärten Wissenschaft unwürdig.

Nr. 9: Passage im Artikel von Andreas Fischlin

Auch in der von Singer erwähnten Arbeit von Mangini wird unzulässigerweise von einer Punktbeobachtung in einer Tropfsteinhöhle auf das Weltklima geschlossen und damit keineswegs ein Beweis für die Sonne als Ursache der heutigen Erwärmung beigebracht.

Nr. 9: Fakten-Check

Fischlin reduziert hier in unzulässigerweise die wichtigen Beobachtungen der Mangini-Gruppe auf ein angeblich lokales Phänomen. Ganz offensichtlich fehlt Fischlin hier der Überblick über die geologische Literatur. Mittlerweile gibt es eine große Anzahl von Publikationen aus den verschiedensten Teilen der Erde, in denen die solar-bedingten, synchronen Klimazyklen bestätigt wurden (siehe zum Beispiel S. 68-74 in „Die kalte Sonne“ oder unser Blogartikel-Übersichtzu diesem Thema). Neben den Ergebnissen der Mangini-Gruppe sind hier auch die Bond-Zyklen zu nennen, welche zuerst von Bond et al. (2001) beschrieben wurden. Fast im Monatstakt erscheinen heute neue Publikationen, die die Klimawirkung der Sonne im Bond-Takt bestätigen. Da die Bond-Zyklen offensichtlich nicht in Fischlins vorgefasstes Weltbild passen, spricht er unbeirrt von „Punktbeobachtungen“, was nur möglich ist, wenn man die eindeutige wissenschaftliche Faktenlage in erschreckender Weise ignoriert.

Ergänzung von EIKE: bevor man als fachfremder Biologe fragwürdige Behauptungen in die Welt entlässt, sollte man sich über den Stand der Fachliteratur informieren. Zur MWP gibt es eine sehr ausführliche Zusammenstellung, aus der hervorgeht, dass die MWP sehr wohl ein globales und kein lokales Ereignis war.

Nr. 10: Passage im Artikel von Andreas Fischlin

Schliesslich zeigt die durch Singer selbst erwähnte Abkühlung der oberen Luftschichten, dass der Treibhauseffekt wirksam ist. Nur der Anstieg der CO2-Konzentration kann erklären, wieso am Boden eine Erwärmung und in der Stratosphäre eine Abkühlung stattfindet. Wäre die Sonne verantwortlich, so müsste sich die ganze Atmosphäre gleichmässig erwärmen.

Nr. 10: Fakten-Check

Ähnlich wie Mojib Latif, unterliegt Fischlin offenbar dem Irrglauben, die Temperaturentwicklung der Stratosphäre könnte als Beweis für eine starke Klimawirkung des CO2 herangezogen werden. Dies ist aber nicht der Fall wie wir in unserem Blog-Beitrag „CO2-Fingerabdruck löst sich in Luft auf: Neue Studie belegt Ozonwirkung auf Temperatur in der mittleren Atmosphäre“ zeigen konnten. Eine neue Studie von Dr. Uwe Berger und Prof. Franz-Josef Lübken vom Leibniz-Institut für Atmosphären-Physik in Kühlungsborn belegte nun, dass der Abkühlungstrend in der hohen Atmosphäre überwiegend durch die Abnahme des stratosphärischen Ozongehalts verursacht wurde.

Nr. 11: Passage im Artikel von Andreas Fischlin

Bei der Behauptung Singers, die Erde reagiere weit weniger empfindlich auf die Verdoppelung des CO2 als durch die Klimamodelle «angenommen», übersieht er, dass diese sogenannte Klimasensitivität auch zu vergangenen Klimaänderungen passen sollte. Errechnet man ohne Klimamodelle den Zusammenhang zwischen CO2 und Gleichgewichtstemperaturen für die letzten 420 Millionen Jahre, so ergibt sich ein Wert von 2.8°C. Diese Zahl liegt nahe beim sich auf viele andere wissenschaftliche Arbeiten abstützenden, besten Schätzwert des IPCC von 3°C.

Nr. 11: Fakten-Check

Fischlin scheint übersehen zu haben, dass in der Erdgeschichte gar keine klare Korrelation zwischen CO2 und Temperatur ausgebildet war. Zudem ist unklar, in welchen Fällen die CO2-Dynamik Folge – und nicht Ursache – der Temperaturentwicklung war. Eine Berechnung der CO2-Klimasensitivität aufgrund der erdgeschichtlichen Entwicklung der letzten 420 Millionen Jahre ist daher weder sinnvoll noch möglich.

Nr. 12: Passage im Artikel von Andreas Fischlin

Ich möchte klarstellen: am letzten IPCC-Bericht haben 1369 Autoren mitgeschrieben, mehr als 2500 Gutachter haben die Texte überprüft, Zehntausende wissenschaftlicher Originalarbeiten von Zehntausenden Forschern sind berücksichtigt worden. Beim angeblichen Gegenbericht, dem NIPCC-Bericht, den Fred Singer mit Craig Idso geschrieben hat, sind es ganze 37 Personen, inklusive Gutachtern und Sekretärinnen, die mitgewirkt haben. Dieser Bericht kopiert in vermutlich bewusst verwirrender Absicht das Erscheinungsbild des letzten IPCC-Berichts, ist durch die Wiederholungen immergleicher Zitate unnötig aufgebläht, und argumentiert durchwegs rosinenklauberisch. Er genügt wissenschaftlichen Anforderungen nicht und ist aus oben genannten Gründen als pseudowissenschaftliches Machwerk zu bezeichnen.

Nr. 12: Fakten-Check

Die Kritik richtet sich nicht gegen die 1369 Autoren, sondern die kleine Gruppe von Forschern, die aus der großen Vielzahl der Daten und Interpretationsmöglichkeiten die letztendliche IPCC-Sichtweise herausarbeitet. An dieser Synthese sind nur relativ wenige Personen beteiligt, und genau an dieser Stelle werden die im Hauptteil des IPCC-Berichts durchaus erwähnten klaren Hinweise auf eine signifikante Beteiligung natürlicher Klimafaktoren wie der Sonne und Ozeanzyklen marginalisiert und kleingeredet. Entsprechend werden diese Sichtweisen auch nicht ausreichend in den Klimamodellen berücksichtigt. Solarverstärker sind in den Modellen nicht eingebaut, obwohl nur sie die Vergangenheit erklären können. Donna Laframboise konnte in ihrem wichtigen IPCC-kritischen Buch „The Delinquent Teenager Who Was Mistaken for the World’s Top Climate Expert” zeigen, dass etwa ein Drittel der 34 Autoren des IPCC Summary Reports mit dem WWF und Greenpeaceverbandelt sind. Die angeblich unabhängigen IPCC-Gutachter begutachten zum Teil ihre eigenen Arbeiten für den Bericht. Interessenskonflikte sind hier vorprogrammiert.

Der NIPCC-Bericht als Gegenentwurf zum IPCC-Bericht betont gezielt die Rolle der natürlichen Klimafaktoren, da diese in der IPCC-Synthese drastisch unterschätzt wurden. Der Weltklimarat täte gut daran, den NIPCC-Bericht als konstruktiven Denkanstoß ernst zu nehmen, anstatt ihn reflexhaft als unerwünschtes Konkurrenzprodukt zu bekämpfen. Die Frage des Klimawandels ist gesellschaftlich zu wichtig, als dass hier auf dem Rücken der Bevölkerung Fehden beleidigter Autoren ausgefochten werden könnten.

Anmerkung EIKE: Wissenschaftliche Erkenntnisse sind in der Regel nicht das Ergebnis von Mehrheitsmeinungen.

Nr. 13: Passage im Artikel von Andreas Fischlin

Da Forschung höchsten wissenschaftlichen Standards genügen muss, werden Gesuche durch unabhängige Gutachter beurteilt, also von potentiellen Konkurrenten um die begrenzten Mittel. Wie wahrscheinlich ist es, dass dabei jahrzehntelang unredliche Wissenschaft nicht aufgedeckt würde?

Nr. 13: Fakten-Check

Es geht dabei nicht um Unredlichkeit, sondern um das Phänomen „Groupthink“, wobei sich eine eng verbandelte wissenschaftliche Gruppe zu sehr auf eine Richtung festgelegt hat. Gutachter prüfen dabei vor allem, ob ein Ergebnis mit der vorherrschenden IPCC-Denkweise kompatibel ist. Andere fachliche Interpretationen werden dabei blockiert bzw. auf Randschauplätze abgedrängt. Common Sense spielt nur eine untergeordnete Rolle. Es fehlt die ergebnisoffene Bewertung nach den Regeln der Logik und maximalen Plausibilität. Siehe auch unseren kürzlichen Blogartikel „Groupthink und Klimareligion: Die Psychologie der Klimadebatte“.

Anmerkung EIKE: Immerhin wurde die IPCC-Mär vom Abschmelzen der Himalaya Gletscher lange Zeit nicht nur nicht aufgedeckt, sondern von dem Gremium IPCC mit höchsten Gutachter-Standards (so Fischlin) auch noch so lange verteidigt, bis es endgültig peinlich wurde.

Nr. 14: Passage im Artikel von Andreas Fischlin

Auch behauptet Herr Singer, dass der IPCC durch eine handvoll Wissenschafter kontrolliert werde. Denkt er allen Ernstes, alle Regierungen dieser Welt liessen sich so auf der Nase herumtanzen?

Nr. 14: Fakten-Check

Das Entscheidungsgremium des IPCC ist in der Tat auf eine überschaubare Anzahl von Personen beschränkt. Erneut der Hinweis auf Donna Laframboise’s Buch „The Delinquent Teenager Who Was Mistaken for the World’s Top Climate Expert“.

Anmerkung EIKE. Nicht alle Regierungen dieser Welt, denn es gibt nur noch die EU, Australien und Neuseeland, die beim „Klimaschutz“ mitmachen. Geht man daher von den weltweiten Kopfzahlen aus, ist die Menschheit also doch nicht so dumm, wie es uns Herr Fischlin weismachen möchte.

Nr. 15: Passage im Artikel von Andreas Fischlin

Er verschweigt auch hier, dass im Verlauf der Jahre den meisten seiner Behauptungen belegte Gegenargumente entgegengehalten wurden.

Nr. 15: Fakten-Check

Zwar wurden Gegenargumente vorgelegt, diese waren jedoch in der Regel nicht stichhaltig. Vielmehr wurden unbequeme Kritiker durch mediale Ächtung, Fördermittelentzug und persönliche Kampagnen aus der Klimadiskussion herausgedrängt (z.B. deutsche Bundesanstalt für Geowissenschaften und Rohstoffe, Prof. Mangini, Prof. Veizer), so dass es am Ende erschien, als hätte die IPCC-Seite durch Argumente überzeugen können. Viele der von früheren Klimaskeptikern vorgebrachten Argumente sind heute aktueller denn je und weiter gültig. Siehe z.B. FAQ unserer Webseite sowie die Kommentierung der Presseartikel zu unserem Buch „Die kalte Sonne“).

Anmerkung EIKE: Wir erlauben uns in aller Bescheidenheit, in diesem Zusammenhang auch auf die Bemühungen unserer Webseite hinzuweisen.

Nr. 16: Passage im Artikel von Andreas Fischlin

Wer angesichts dieser Sachlage unbeirrt an vorgefassten Resultaten festhält, wer wissenschaftliche Ergebnisse aus seriöser Forschung – weil nicht ins Weltbild passend – ausklammert, verschweigt, verzerrt, und haltlose Unterstellungen macht, was die mir bekannten Tätigkeiten und Veröffentlichungen von Herrn Singer seit Jahrzehnten wie ein roter Faden durchzieht, kann nicht in Anspruch nehmen ein redlicher und ehrlicher Wissenschafter zu sein.

Nr. 16: Fakten-Check

Fischlins Argumentation enthält zahlreiche schwerwiegende Fehler und Auslassungen (siehe oben). Die pauschale Abqualifizierung von Singer erscheint daher in keinster Weise gerechtfertigt. Fischlin sollte sich ernsthaft mit den vorgebrachten Argumenten auseinandersetzen und hierauf eine Antwort verfassen. Zudem sollte er in Erwägung ziehen, sich bei Fred Singer für die Entgleisungen in seinem Artikel im schweizer monat zu entschuldigen.

Anmerkung EIKE zu dieser letzten Passage von Fischlin: keine! Auch das ist ein Kommentar, denn mit solch haltlosem Unsinn disqualifiziert sich der Biologe Fischlin ganz von selber.

EIKE-Bearbeitung von

Prof. Dr. Horst-Joachim Lüdecke

(EIKE-Pressesprecher)




Baumring-Temperaturbestimmung: Die Summe von Yamal ist größer als die Einzelteile

Und im Mittelpunkt der neuesten Story steht einer der Klimagate-Wissenschaftler: Keith Briffa, ein Experte bei der Rekonstruktion historischer Temperaturverläufe anhand von Baumringdaten. Im Einzelnen involviert der jüngste Skandal eine Baumringaufzeichnung, die Briffa für eine abseits gelegene Region in Nordrussland aufbereitet hat. Der Name dieser Region: Yamal.

Viele Jahre lang haben Wissenschaftler Baumringdaten ausgewertet um zu versuchen, Temperaturen aus sehr viel früheren Zeiten zu messen, aber das Verfahren ist aus sich selbst heraus problematisch. Warum? Weil Baumringdaten neben der Temperatur auch viele andere Variablen reflektieren. Das Wachstum von Bäumen in Russland reflektiert ebenso wie alle Bäume weltweit auch Änderungen der Feuchtigkeit, des Niederschlags, der Nährstoffe, des Wettbewerbs um Ressourcen neben anderen Bäumen und Pflanzen, im Verhalten von Tieren sowie von Erosion und Bewölkung, und so weiter und so fort. Aber nehmen wir für den Moment einmal an, und sei es nur um des Arguments Willen, dass wir die mittlere Temperatur vor 1000 Jahren oder mehr zuverlässig aus Baumringdaten in einer entfernt gelegenen Gegend in Russland bestimmen können. Die zentrale Frage, die sich hier stellt, lautet: Wie wählt man die Bäume aus?

Es war die Art und Weise, mit der Briffa die Bäume ausgewählt hat, deren Daten Eingang in seine Analyse gefunden hatten, die das Interesse von Steve McIntyre erregte, einem Außenseiter-Amateurklimatologen aus Kanada. Die Klimagate-E-Mails haben klar gemacht, dass McIntyre den öffentlichen Zorn der mächtigsten UN-Klimawissenschaftler auf sich gezogen hatte, einschließlich James Hansen, Michael Mann und Phil Jones, während er insgeheim gleichzeitig deren Furcht und Respekt erhielt.

McIntyre waren ein paar Probleme bei der Art und Weise aufgefallen, wie Briffa die Beispiele der russischen Bäume ausgewählt hat, und er hat an Briffa geschrieben und von ihm die Daten verlangt, die Briffa in seiner veröffentlichten Baumringstudie verwendet hatte. Briffa lehnte das ab. Und so begann eine vier Jahre dauernde Saga, die viele begutachtete Journale, Hinter-den-Kulissen-Aktionen von Briffa und seinen Vertrauten sowie eine Anforderung nach dem Freedom of Information Act auf McIntyres Seite einschloss. Diese Anforderung McIntyres scheint am Rande der Genehmigung zu stehen. Aber selbst ohne den finalen Datensatz hat McIntyre über jeden Zweifel erhaben gezeigt, das Briffa eine der schlimmsten Sünden der Wissenschaft begangen haben könnte, wenn nicht sogar die Schlimmste im Bereich Klimatologie – nämlich die, Daten willkürlich ausgewählt zu haben – als er seinen Datensatz zusammen gefügt hatte, die seine Gesinnungsgenossen und sehr mächtigen Fachkollegen ebenfalls in einer Studie nach der anderen verwendet hatten.

Bekannt war bereits, dass die Yamal-Reihe eine lächerlich geringe Datenmenge umfasste. Schon dies allein führte zu einer Reihe von Fragen: Warum hat Briffa nur die Hälfte der Baumbohrkerne benutzt, die die angenehme Mittelalterliche Warmzeit abdecken, die ein anderer Wissenschaftler gesammelt hatte, einer, mit dem Briffa bekannt war? Und warum gab es in Briffas 20. Jahrhundert nur so wenige Baumbohrkerne? Bis 1988 waren nur zwölf Bohrkerne in einem Jahr benutzt worden, eine erstaunlich kleine Zahl aus einer Zeit, in der man am einfachsten Daten hätte sammeln können. Bis 1990 waren es nur noch zehn, bis 1995 nur noch fünf. Ohne jede Erklärung, wie diese seltsame Datensammlung zustande gekommen war, drängte sich der Verdacht der willkürlichen Auswahl förmlich auf, vor allem seit der scharfe Aufwärtsknick im 20. Jahrhundert fast ausschließlich auf einem einzigen Baum beruhte.

Der Datensatz aus zehn Baumbohrkernen von 1990. Erkennbar ist der Kern YAD061, dargestellt in gelb, der eine einflussreichste Baum der Welt.

Das alles wurde noch verdächtiger, als eine der Klimagate-E-Mails enthüllte, dass Briffa bereits im Jahr 2006 einen viel umfassenderen und damit verlässlicheren Datensatz aus dem Yamal-Gebiet präpariert hatte. Aber seltsamerweise hat er sich entschlossen, diesen Datensatz beiseite zu legen und stattdessen den viel schwächer besetzten Datensatz zu verwenden.

Die Yamal-Frage tauchte genau dann auf, als Briffa von Klimagate-Ermittlern befragt worden ist. Er sagte ihnen, dass er niemals daran gedacht hätte, eine umfangreichere Sammlung zu verwenden als die, welche er dann schließlich untersucht hatte, weil er nicht genug Zeit für eine umfangreichere Untersuchung gehabt hätte. Allerdings scheint das spezielle Thema der beiseite geschobenen Aufzeichnungen von dem Ausschuss weitgehend übergangen und wie so viele andere Antworten auf die Klimagate-Untersuchungen ohne Gegenfrage akzeptiert worden zu sein.

Aber der Trick wurde mittlerweile zu Krümeln zerrieben, und zwar durch den kürzlichen Beschluss des UK-information commissioner, dass Briffa die Liste der Orte nicht länger zurückhalten darf, die er in seiner beiseite geschobenen Regionalaufzeichnung für das Yamal-Gebiet verwendet hatte. Die Bekanntgabe dieser Stellen hat es McIntyre ermöglicht zu berechnen, wie die umfangreichere Reihe ausgesehen hätte, wenn Briffa diese zur Veröffentlichung ausgewählt hätte. Er hat gezeigt, dass sich darin keine Spur einer Hockeyschläger-Kurve befand, wie es aus Briffas willkürlich ausgewählten Daten hervorgegangen war.

McIntyres jüngste Graphik. Die willkürlich ausgewählte Reihe ist rot und zeigt die Form eines Hockeyschlägers. Die grüne, mit mehr Daten aktualisierte Reihe zeigt kein solches Aussehen.

Briffas Entscheidung, eine alarmistische, aber unzuverlässige Version der Yamal-Reihe zu veröffentlichen – anstatt einer verlässlicheren und durchaus wenig bemerkenswerten Reihe – war Gesprächsthema der Klima-Blogosphäre, mit vielen Kommentatoren, die offen das Wort Unehrlichkeit in den Mund genommen hatten.

Zweieinhalb Jahre nach der ersten Enthüllung der Klimagate-E-Mails tauchen immer neue Kontroversen seitens des Teils der Wissenschaftler und der Ermittler auf. Viele der Beteiligten versuchen verzweifelt, den Skandal unter den Teppich zu kehren. Allerdings bestand ihr einziger Erfolg darin, dass ihrer fragwürdigen Wissenschaft neue Aufmerksamkeit zuteil wurde, ebenso wie Schwindeleien hinter den Kulissen, die die Hoffnung beflügeln, dass vollständigere und unabhängigere Ermittlungen – auf beiden Seiten des Atlantiks – durchgeführt werden.

Climategate Continues

Von Andrew Montford und Harold Ambler

Andrew Montford is the author of The Hockey Stick Illusion and the proprietor of the Bishop Hill blog. Harold Ambler is the author of Don’t Sell Your Coat and the operator of the blog talkingabouttheweather.com.

Link: http://wattsupwiththat.com/2012/05/24/the-sum-of-yamal-of-greater-than-its-parts/#more-64217

Übersetzt von Chris Frey EIKE




Nature -Studie befördert CO2 mit Statistiktricks vom Trittbrettfahrer zum Steuermann. Wie dem CO2 das Ende der Eiszeit angedichtet wird!

Genau das hat man auch gemacht. Vor mehr als 10 Jahren veröffentlichte ein schweizerisch-französisches Forscherteam in der Zeitschrift Science eine Untersuchung eines Antarktis-Kerns. Mit dabei war übrigens auch der heutige Vorsitzende der Arbeitsgruppe “Wissenschaftliche Grundlagen” des Weltklimarats IPCC, Thomas Stocker. Die Wissenschaftler konnten zeigen, dass das CO2 der Temperaturentwicklung um ca. 800 Jahre hinterherhinkt. Berücksichtigt man diesen wichtigen zeitlichen Zusammenhang, so wird klar, dass die CO2-Entwicklung während dieser Zeit wohl eher eine Reaktion auf die Temperatur darstellt und keineswegs die Ursache der Klimaänderungen sein kann. Aus den Eiskerndaten eine bedeutende Klimapotenz des CO2 abzuleiten ist daher abwegig. Einen plausiblen Mechanismus für die beobachtete Entwicklung gibt es übrigens auch: In warmem Wasser kann sich nämlich weniger CO2 lösen. Da sprudelt das freiwerdende Kohlendioxid zu Beginn der Warmzeit einfach aus dem Meer heraus und sammelt sich in der Atmosphäre. Wenn es dann zu Beginn einer neuen Eiszeit kälter wird, kann sich dieser CO2-Überschuss im nun aufnahmebereiten Meerwasser wieder lösen und die CO2-Konzentration der Atmosphäre sinkt. 

Die verzögerte CO2-Entwicklung versuchten einige bekannte Akteure der Klimadiskussion in der Vergangenheit gerne zu verschleiern, darunter auch Al Gore in seinem Oscar-prämierten Film „Eine unbequeme Wahrheit“. Der Fehlschluss ist Mitgrund dafür, dass der Film laut Gerichtsbeschluss an britischen Schulen nicht mehr unkommentiert gezeigt werden darf. Auch Hartmut Graßl wandte den Trick in seinem Buch „Klimawandel – Was stimmt? Die wichtigsten Antworten“ nur allzu gerne an. 

 

Abbildung 1: Die Temperaturkurve hat gegenüber dem CO2 einen Vorlauf von durchschnittlich 800 Jahren, ist also hier Auslöser und nicht Folge der CO2-Veränderungen. Abbildung ergänzt nach Monnin et al. 2001.

Dem Weltklimarat passte die unbequeme zeitliche Abfolge der Ereignisse natürlich so gar nicht ins Konzept. Vielfach wurde argumentiert, dass die Temperatur zwar den Startschuss zur CO2-Erhöhung gegeben hat, danach aber das CO2 als Haupt-Wärmetreiber übernommen hätte. Dies lässt sich jedoch leicht widerlegen, da die Verzögerung von 800 Jahren hartnäckig über den gesamten Verlauf der Eiskernkurven aufrechterhalten blieb. Wenn CO2 auf dem Chefsessel gewesen wäre, hätte das CO2 die Temperatur an irgendeiner Stelle doch überholen oder zumindest gleichziehen müssen, was jedoch nicht passiert ist. 

Gerade entsteht der neue IPCC- Bericht und es wäre doch schön, wenn man dieses lästige Problem noch schnell irgendwie loswerden könnte. Da kam dem Weltklimarat eine neue Publikation in nature gerade recht, die den zeitlichen Verzug des CO2 in einen zeitlichen Vorsprung umwandeln wollte. Erstautor der Studie ist der frisch promovierte Jeremy Shakun. Interessant ist jedoch, dass sein Co-Autor und Doktorvater Peter Clark koordinierender Leitautor im neuen IPCC-Bericht ist. Und auch die Co-Autorin Bette Otto-Bliesner ist Leitautorin im neuen Werk des Weltklimarats. Aufgabe des IPCC ist eine neutrale Sichtung und Bewertung der wissenschaftlichen Literatur. Wie kann diese Neutralität gewährleistet sein, wenn letztendlich IPCC-Mitglieder über ihre eigenen Arbeiten gutachten? 

Worum geht es nun in der neuen Publikation eigentlich? Das Forscherteam um Jeremy Shakun wusste natürlich, dass das CO2 der Temperatur im antarktischen Eiskern um 800 Jahre der Temperatur hinterherhinkt. Dies wäre jedoch nicht weiter schlimm, sagen sie, denn es handelte sich hier lediglich um eine lokale antarktische Temperaturentwicklung. Daher stellten die Forscher Temperaturkurven aus zahlreichen anderen Teilen der Erde zusammen, leiteten daraus einen Mittelwert ab – und voilà – plötzlich hinkte die global gemittelte Temperatur der CO2-Entwicklung hinterher. Die Temperatur der Antarktis hatte einfach zu früh „gezuckt“ und wäre nicht repräsentativ. Irgendwie muss die Antarktis schon geahnt haben, dass 800 Jahre später das CO2 ansteigen wird und hat sich in vorauseilendem Gehorsam bereits erwärmt. In Wirklichkeit ist die Erwärmung der Südhalbkugel (Antarktis) und der Nordhalbkugel (Grönland) sehr oft durch einen zeitlichen Verzug gekennzeichnet (siehe z.B.Steig & Alley 2002). Für den Untersuchungszeitraum gegen Ende der letzten Eiszeit hat sich zunächst die Südhalbkugel (Antarktis) erwärmt. Daauf der Südhalbkugel der größte Teil der Ozeane beheimatet ist, entgaste hier während dieser Phase sehr viel CO2. Die Erwärmung der Nordhalbkugel erfolgte durch den typischen Zeitverzug später, hat jedoch im Kern nichts mit der passiven CO2-Entgasung zuvor zu tun. Shakun und Kollegen begehen nun den Fehler und interpretieren einen ursächlichen Zusammenhang zwischen CO2-Anstieg und Erwärmung der Nordhemisphäre.  Aufgrund der neuen, fehlinterpretierten zeitlichen Abfolge lasten sie die globale Erwärmung gegen Ende der letzten Eiszeit zu einem großen Teil dem CO2 an. In Zahlen ausgedrückt: Die Kohlendioxid-Konzentration in der Atmosphäre schnellte damals um 40 Prozent in die Höhe, was laut der Shakun-Gruppe zu einer Erwärmung von rund 3,5 Grad Celsius geführt hätte. Große Zufriedenheit beim IPCC über diese außerordentlich hohe Klimawirkung des CO2. Aber auch einige interessierte Medienvertreter atmeten wohl tief durch, da ihnen die liebgewonnene Klimakatastrophe auf diese Weise noch weiter erhalten bleibt. Sogleich wurde die freudige Nachricht ungefiltert und ungeprüft der Welt verkündet (Spiegel Onlineweb.deStern).  

Faktencheck

Es wäre alles schön und gut, wenn nicht mal jemand nachgeschaut hätte, was die Shakun-Truppe in ihrer Studie eigentlich genau gemacht hat. Das Ergebnis ist erschreckend. 

Willis Eschenbach hat sich die Mühe gemacht, die im Nature-Paper verwendeten Temperaturkurven der verschiedensten Regionen der Erde separat aufzutragen. Die Kurven hat er feinsäuberlich in seiner Analyse auf WUWT abgebildet. Die Überraschung: Er fand riesige regionale Unterschiede. Der Erwärmungsbeginn unterscheidet sich um bis zu 10.000 Jahre. Wie man aus dieser riesigen Datenstreuung ein globales Hinterherhinken der Temperatur gegenüber dem CO2 ableiten soll, wie im Titel der Shakun-Arbeit behauptet wird („Global warming preceded by increasing carbon dioxide concentrations during the last deglaciation“), ist ein echtes Rätsel (siehe Abbildung 2).

 

Abbildung 2: Gesamtdarstellung der von Shakun et al. (2012) verwendeten Temperaturdaten (in grün). CO2-Kurve aus der Antarktis als schwarze Kreise. Ein konsistenter Vorlauf des CO2 gegenüber der globalen Temperaturentwicklung ist nicht zu erkennen. Die Streuung ist einfach zu groß. Zusatzfrage: Wie würde eigentlich die CO2-Kurve nach 5000 v. Chr. weitergehen? Die Eiskerne reichen doch bis zur Heutezeit!? (die Auflösung gibt es in Abbildung 4) Abbildungsquelle: Willis Eschenbach auf WUWT.

In der Nature-Arbeit selbst werden lediglich schön geglättete Kurven gezeigt, die jedoch wenig mit der Realität zu tun haben (Abbildung 3). Warum haben sich die Gutachter der Zeitschrift Nature bei diesem sensitiven Thema nicht die Zeit genommen, die Datenbearbeitung zu überprüfen? Die Autoren hatten die Daten mit dem Manuskript lobenswerterweise zur Verfügung gestellt. Wie konnte die eklatante Fehlinterpretation durch das Nature-Gutachtersystem flutschen? Wer waren überhaupt die anonym-gebliebenen Gutachter? Möglicherweise IPCC-Kollegen? Wäre diese Information nicht vielleicht wichtig im Sinne der Transparenz?

 

Abbildung 3: Das haben Jeremy Shakun und seine Kollegen aus der stark streuenden Punktwolke gemacht (rot: Temperatur Antarktis; gelbe Punkte: CO2-Messwerte Antarktis-Eiskern; blau: angebliche globale Temperatur) . Offensichtlich wurde „mit geeigneten statistischen Verfahren“ den Daten ein fragwürdiges Signal entlockt, das der kritischen Überprüfung jedoch nicht standhält (siehe Darstellung der realen Datenbasis in Abbildung 2). Abbildung aus Shakun et al. 2012

Eschenbach hat zwischenzeitlich noch einmal nachgebohrt und eine weitere interessante Beobachtung gemacht (siehe sein WUWT-Artikel „Shakun Redux: Master tricksed us! I told you he was tricksy!“). Die Kurven in der Shakun-Arbeit beschränken sich auf die Zeit bis 7000 Jahre vor heute, das entspricht 5000 vor Christus. Dies gilt auch für die antarktischen CO2-Daten der Wissenschaftlergruppe. Die mitgelieferten Temperaturdaten gehen jedoch weiter bis in die Heutezeit. Eschenbach hat nun die CO2-Datenlücke mit anderen Eiskerndaten geschlossen und machte eine interessante Beobachtung. Während die Shakun-Temperaturwolke in den letzten 700 Jahren leicht nach unten abknickt, die Temperaturen also offenbar im Durchschnitt abgesunken sind, stieg das CO2 weiter an (siehe Abbildung 4). Wie passt eigentlich mit der postulierten starken Klimawirkung des CO2 zusammen? Offensichtlich gar nicht. Man muss davon ausgehen, dass der Shakun-Truppe diese Entwicklung ebenfalls nicht entgangen sein kann. Wie redlich ist es eigentlich, diese wichtige Beobachtung und ihre Konsequenzen in der Publikation nicht anzusprechen? 

 

Abbildung 4: Willis Eschenbach hat die Lücke in der CO2-Kurve nach 5000 v. Chr. mit Daten aus anderen Untersuchungen gefüllt. Wie seltsam: Das CO2 steigt weiter an, obwohl die Temperatur leicht absinkt. Wie kann dies sein? Das passte wohl Shakun et al. 2012 nicht ins Konzept, wurde daher weggeschnitten. Abbildungsquelle: Willis Eschenbach auf WUWT.

Es stellen sich weitere fachliche Fragen, die Don Easterbrook in einem kürzlichen Artikel auf WUWT zusammengestellt hat. 

Man kann sich des Eindrucks nicht erwehren, dass es sich um einen erneuten, verzweifelten Versuch handelt, das geliebte CO2-Katastrophenmodell doch noch zu retten. Bereits im Fall der legendären Hockey Stick Kurve wurde mit statistischen Tricks die Wirklichkeit ad absurdum geführt. Nachdem dies gescheitert ist, versuchen IPCC-nahe Forscher derzeit die Kleine Eiszeit fast ausschließlich mit Vulkanausbrüchen zu erklären. Die Shakun-Arbeit setzt diese Reihe fort. Es zeigt zudem noch einmal deutlich, dass Richter (lies: IPCC-Berichtautoren) nicht über ihre eigenen Taten (lies: wissenschaftliche Arbeiten) richten sollten. Was im Rechtswesen selbstverständlich ist, wird in den politisch sensitiven Klimawissenschaften nicht einmal hinterfragt. Verwundert kratzt man sich am Kopf und staunt. 

Und es gibt eine weitere interessante Parallel zur Hockey Stick Saga. Michael Mann erhielt damals seinen Doktortitel für seine Hockey-Stick-Forschung, wurde danach rasend schnell zum Professor und ins IPCC-Management befördert. Auch Jeremey Shaku führte die jetzt in Nature publizierte Arbeit als Teil seiner Doktorarbeit durch, die er 2010 einreichte (siehe S. 64 in der Doktorarbeit bzw. S. 80 des pdf). Ursprünglich war die Arbeit wohl zur Publikation in Science gedacht. Wurde sie dort eingereicht, möglicherweise abgelehnt und hatte dann bei nature mehr Glück? Und was wird jetzt aus Jeremey Shakun? Wird er eine ähnlich steile Karriere hinlegen wie Mann?

Dr. Sebastian Lüning

zuerst erschienen auf "Die kalte Sonne" 

Statistik-Trick befördert CO2 vom Beifahrer zum Chauffeur: Fragwürdiger neuer Shakun-Artikel in Nature

 Weiterführende links

Shakun The Last, I Hope 

Die Diskussionen zu dieser Arbeit werden weitergehen. Wir werden die Entwicklung aufmerksam verfolgen und diesen Artikel entsprechend aktualisieren.