1

Gletscherrückgang in den Alpen – Außergewöhnliche Bedrohung oder natürliche Schwankung?

Wer kennt sie nicht, die Meldungen und Hiobsbotschaften über die alpinen Gletscherrückgänge, wodurch ganze Ökosysteme vom Untergang bedroht wären, die Wasserversorgung von abertausenden von Menschen in Frage gestellt wird und dem Touristikzweig der Wirtschaft, den Garaus machen würde. Meist wird als Vergleich des Gletscherrückgangs die Gletscherausdehnung von 1850, oder 1970 herangezogen (wenn, wie bei den Himalaya-Gletschern traurige Gewissheit wurde, nicht gänzlich schlampig gearbeitet wird). Dies nicht ohne Grund. 1850 lag am Ende der kältesten Epoche der letzten 2.000 Jahre, die in der Wissenschaft unter dem Namen “Kleine Eiszeit“ bekannt ist. Sie begann im 15. Jahrhundert und dauerte bis zur Mitte des 19. Jahrhunderts. Für unser kulturelles Leben hat sie eine Vielzahl von Highlights in der Dichtung (Fallersleben), Malerei (Bruegel) und Musik hervorgebracht. So verdankt die Außergewöhnlichkeit der Stradivarigeige der “Kleinen Eiszeit“ ihre Existenz. Aufgrund der kalten Jahreszeiten hatte das Holz eine andere Wachstumscharakteristik, was ihm andere Eigenschaften verlieh und den Musikinstrumenten ihre Einzigartigkeit gab. Da heute dieses Holz nicht mehr in der gleichen Art wächst, lässt sich eine Stradivarigeige auch nicht nachbauen.

Die Abbildung 1 zeigt exemplarisch zwei Gemälde, in denen die Künstler die Kleine Eiszeit festhielten.

 

„Winterlandschaft“, Pieter Bruegel der Ältere 1565 und rechts, A. Hondius, Thames-1677, London Museum

Zurück zur Gegenwart, die folgende Abbildung zeigt den alpinen Gletscherrückgang, bezogen auf die Vergleichsjahre 1850 und 1970. Es ist schon bemerkenswert, mit welchen Tricks vorgegangen wird, um eine überproportionale Gletscherschmelze zu belegen. Wie bereits geschildert, lag 1850 maximale Eisentwicklung für die letzten Jahrtausende vor und auch 1970 lag in einer Kaltphase mit ausgiebiger Gletscherentwicklung, wie die Abbildung 3 belegt. Die Älteren unserer Leser kennen noch aus den 1970-Jahren den wissenschaftlichen und politischen Wirbel um die anstehende drohende Eiszeit. Sie haben richtig gehört, damals glaubte Politik, Wissenschaft und Medien (http://www.mcculloughsite.net/stingray/photos/the_cooling_world_newsweek_2-thumb-500×646.jpg) nicht an eine drohende Erwärmung, sondern an eine drohende Eiszeit für die nächsten Jahrzehnte und teilweise die selben Wissenschaftler, die heute die Tageszeitungen mit ihren Horrorszenarien schmücken, warnten damals vor der drohenden Eiszeit.

Die Abbildung 2 zeigt den prozentualen alpinen Gletscherrückgang für die Jahre 1970 und 2000, bezogen auf das Jahr 1850, Quelle: Geographisches Institut der Universität Zürich, Dr. Michael Zemp, 2006.

Anmerkung:

Vielfach wird angenommen, dass die heutigen Gletscher der Alpen oder Skandinaviens Überbleibsel der letzten Eiszeit sind. Dies ist aber falsch. Europa war auf dem Höhepunkt der Nacheiszeit (Holozän) vor ca. 7.000 Jahren völlig eisfrei. Die meisten europäischen Gletscher sind erst danach entstanden und somit ziemlich jung und höchstens 6.000 Jahre alt. Ihr Umfang schwankte in den letzten Jahrtausenden zudem stark.

Und dazu die Temperaturentwicklung der letzten 1.100 Jahre.

Die Abbildung 3 zeigt den Temperaturverlauf der letzten 1.100 Jahre, ergänzt nach Sunday Telegraph (Lord Christopher Monckton) vom 05.11.2006.

Die Schwankungen der Temperatur lassen erwarten, dass auch die alpine Gletscherentwicklung zyklischen, natürlichen Schwankungen unterliegt und genau dies, hat der Gletscherforscher, Prof. Slupetzky (Uni Salzburg) durch seine Untersuchungen der österreichischen Gletscher herausgefunden, was die Abbildung 4 belegt. Zu dessen Untersuchungsergebnis habe ich Ihnen die zyklischen Schwankungen der AMO (Atlantic Multidecadal Oscillation), einer Schwankung der atlantischen Oberflächentemperaturen, durch die unser Wetter in Mitteleuropa maßgeblich bestimmt wird, weil sie u.a. die Verdunstungsrate über dem Atlantik und den Energietransport bestimmt, aufgetragen, sowie die atmosphärische CO2-Entwicklung nach Mauna Loa.

Die Abbildung 4 zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2002. Es ist gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß*) folgt und das es in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen gab, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild).

*) Bevor hier anhand einzelner Gletscher eingewendet wird, diese wären seit 100 Jahren kontinuierlich geschrumpft – alpine Gletscher werden in vier Kategorien eingeteilt:

A: >10 km

B: 5 bis <10 km

C: 1 bis  5 km

D < 1km

Die Gletscher Kategorie D sind relativ stationär. Es gibt zwar Jahre, in denen sie Verluste erleiden, sie stoßen aber immer wieder vor und behalten ihre Größe bei. Würden die IPCC-Vorhersagen zutreffen, müsste sie zuerst verschwinden. Es ist deshalb auch unsinnig, von einem alpinen Gletschersterben zu sprechen. Dieses findet nicht statt.

Gletscher der Kategorie A, wie z.B. der sehr gut untersuchte Großer Aletsch in der Schweiz, folgen auf Grund Ihrer Größen- also Massenträgheit zeitverzögert Warm- bzw. Kaltphasen („glätten“ sozusagen Dekaden-Warm-, bzw. Kaltphasen) und zeigen somit seit Beginn der wärmeren Periode ab dem Ende der Kleinen Eiszeit um 1850 eine schrumpfende Tendenz, während die massenärmeren Gletscher Temperaturentwicklungen schneller folgen. Aber auch bei Gletschern der Kategorie A ist der Gletscherschwund im 20. Jahrhundert nichts Außergewöhnliches, wie die Untersuchungen von Wilfried Haeberli und Hanspeter Holzhauser (Uni Zürich) zeigen.

Die Abbildung 5 zeigt die Gletscherentwicklung Großer Aletsch für die letzten 2.000 Jahre. Erklärung: Rote Balken stehen für Rückzug und blaue für Vorstoß. Unten = Rückzug, Oben = Vorstoß. Die rechte Skala zeigt die Gletscherbewegung in Metern und die linke die zugehörigen Jahreszahlen des aktuellen Gletscherrückgangs. Geglättet wurde über 50 Jahre. Deutlich ist zu erkennen, dass es Zyklen gibt, in denen der Gletscher wächst und schrumpft. So gab es in den letzten 2.000 Jahren drei in etwa gleich starke Minima: Heute, im 8. und im 1. Jahrhundert (dieses gar noch stärker als heute). Der heutige Rückzug begann um 1850.

Zurück zur Abbildung 4

Da die AMO in direkter Weise von der Sonnenaktivität abhängt, ist es nicht verwunderlich, dass die alpine Gletscherentwicklung der Intensität der Sonneneinstrahlung folgt. Zu diesem Ergebnis kamen Forscher der ETH Zürich, die die Arbeiten von Prof. Slupetzky, 2005 untermauern (http://www.ethlife.ethz.ch/archive_articles/091214_gletscherschwund_su). “Rasante Gletscherschmelze in den 1940ern“. Die Untersuchungen zeigen, dass in den 1940-Jahren die Schweizer Gletscher stärker schmolzen, als dies gegenwärtig der Fall ist. Als Datenquelle dienten den Forschern die seit fast 100 Jahren (die Messungen begannen im Jahr 1914) vorliegenden durchgehenden Messungen an den Gletschern, Claridenfirn, Großer Aletsch und dem Silvretta.

In ihrer Studie geben die Forscher der Sonneneinstrahlung den maßgeblichen Anteil am Gletscherrückgang. Dabei dienten ihnen die seit 1934 vorliegenden Messungen der Sonneneinstrahlung in Davos. Während die ETH-Wissenschaftler die verstärkte Sonneneinstrahlung auf die alpinen Gletscher auf die geringere Aerosolkonzentration der Atmosphäre zurückführen (Aerosole reflektieren direkt das Sonnenlicht, bzw. dienen über chemische Reaktionen als Kondensationskeime für Wassertropfen und beeinflussen somit maßgeblich die Wolkenbildung), sind direkte solare Aktivitätssteigerungen und damit verbundener geänderter Wetterlagen und höherer Temperaturen ebenso ausschlaggebend für die Periode der Gletscherrückgänge, die die vorherige Abbildung zeigt.

Die ETH-Forscher ermittelten eine um 18 W/m2 höhere solare Einstrahlung als in den vergangenen 10 Jahren bis heute, was, angesichts dem Strahlungsantrieb von ca. 1,5 W/m2, welcher das IPCC dem CO2 in seinen Klimamodellen zubilligt, ganz enorm ist. Die erhöhte Sonneneinstrahlung in den 1940-Jahren deckt sich mit den Messungen der Globalstrahlung auf der “Säkularstation Potsdam Telegrafenberg“ und in Stockholm. Es war demnach in weiteren Teilen Europas eine erhöhte Solarstrahlung zu messen.

Die Abbildung 6 (http://wattsupwiththat.com/2009/06/) zeigt die bodennahe solare Einstrahlung in Stockholm seit 1923. Die blaue Linie die geglättete 5-Jahreskurve.

Die Abbildung 7 zeigt die Änderung der Globalstrahlung auf der “Säkularstation Potsdam Telegrafenberg“ seit 1940. Der Rückgang ist verbunden mit der Phase des Global Cooling und der Wiederanstieg in den 1980-Jahren mit dem Anstieg der bodennahen Temperaturen. Seit 1980, dem Zeitpunkt, als die Temperaturen zu steigen begannen, ist demnach ein 10%iger-Anstieg der Globalstrahlung zu verzeichnen.

Anhand der Abbildung 8 möchte ich Ihnen die solare Aktivität im Vergleichzeitraum, sowie die Durchlässigkeit der Atmosphäre zeigen.

Die Abbildung 8 links, Quelle: British Geological Survey, zeigt die magnetische- und Fleckenaktivität der Sonne im Zeitraum von 1867 – 2007. Im Zeitraum von 1930 – 1960 (grün hinterlegt) ist ein deutlicher Anstieg in der magnetischen, als auch in der Fleckenaktivität der Sonne erkennbar, was mit dem Zeitraum der positiven AMO und des mit ihr in Verbindung stehenden Gletscherrückgangs (Abbildung 4, übereinstimmt. Die Abbildung 8 rechts zeigt den SO2-Aerosolgehalt in der Atmosphäre im Zeitraum von 1880 bis 2000, Quelle: David Ian Stern, Australian National University, Centre for Resource and Environmental Studies.

Für die atmosphärische Aerosolentwicklung ist der atmosphärische Schwefeldioxid-, bzw. Sulfat-Gehalt (bildet sich über Wasser und SO2) wesentlich. Der unter dem Begriff “Global Cooling“ bekannte Temperaturrückgang durch zusätzliche Partikel in der Atmosphäre basiert auf SO2 und Rußpartikel. Den Einfluss von SO2 auf die globalen Temperaturen zeigen die Auswirkungen des Vulkanausbruchs Pinatubo in 1991, durch den große Mengen SO2 in die Atmosphäre gelangten, wodurch die globalen Temperaturen für 2 Jahre um ca. 0,6°C zurückgingen.

In der Abbildung 8 rechts ist darüber hinaus die Epoche des Global Cooling (rot umrundet) festgehalten – Anstieg der Aerosolpartikel (vorrangig SO2 und Rußpartikel) mit deutlich zurückgehender Sonnenaktivität – einem schwachen solaren 20. Zyklus. Auch in der Phase des Global Cooling, die Prof. Stern in die Zeitspanne von 1940 – 1980 definierte, wurde der Abkühlung durch die beiden starken solaren Zyklen 18 und 19, gegen Ende der 1940- und 1950-Jahre gegen gewirkt, wie die Abbildung 9 zeigt.

Die Abbildung 9 zeigt die aus Baumringdaten rekonstruierte Tempe

raturkurve bis zum Ende des 20. Jahrhunderts, nach den Daten von Briffa, in der archivierten und publizierten (abgeschnittenen) ­Version (schwarz) und der komplette Datensatz (rot). Es ist die Temperaturreihe, die durch die Manipulationen von Jones (Climategate) Berühmtheit erlangte. Hier in der ungekürzten Fassung. Man erkennt deutlich den Temperaturrückgang, der versteckt werden sollte, Quelle: Rudolf Kipp – EIKE. Deutlich ist erkennbar, dass die starken solaren Zyklen 18 und 19 (blaue Linien, vgl. mit Abbildung 7 links) einen Temperaturpeak nach oben auslösten und dem um ca. 1940 beginnenden Rückgang der Temperaturen entgegenwirkten.

Auch hier, wie beim Temperaturanstieg mit der verbundenen Gletscherschmelze, setzte der Temperaturrückgang erst in Verbindung mit der Sonnenaktivität ein und zwar mit der deutlich nachlassenden Sonnenaktivität im 20. Sonnenzyklus, als in den 1970-Jahren das Gespenst der drohenden Eiszeit umherging und dieselben Forscher, die seinerzeit grandios danebenlagen, wie z.B. Prof. Stephen Schneider (Schneider S. & Rasool S., „Atmospheric Carbon Dioxide and Aerosols – Effects of Large Increases on Global Climate“, Science, vol.173, 9 July 1971, p.138-141), heute einer der einflussreichsten IPCC-Leadautoren, die passend zur solaren Temperaturentwicklung, wieder die abenteuerlichsten Hypothesen aufstellen, diesmal in Verbindung mit anthropogenen Treibhausgasen, die eine Erwärmung herbeiführen würden. Seinerzeit gingen die Herren der These nach, es gäbe eine globale Abkühlung – es drohe eine kommende Eiszeit!

Erst als die solare Aktivität in den 1960-Jahren zurückging und in den 1970-Jahren niedrig blieb, „rauschten“ die Temperaturen deutlich in den Keller, um mit Beginn der solaren Aktivität um 1980 (hoher 21. Sonnenzyklus), erneut anzusteigen. Wie wir heute wissen, dauerte der Temperaturanstieg bis ca. 2003, synchron zur solaren Aktivität. In 2003 hatte der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus sein Maximum (http://wetterjournal.wordpress.com/2009/07/14/). Die Presse war seinerzeit voll mit Meldungen über sog. Hitzetote.

Einige werden einwenden, dass anhand einschlägiger Sonnenaktivitätskurven die Sonnenaktivität in den letzten 30 Jahren nicht zugenommen hätte. Dies ist jedoch falsch. So meldete z.B. die Max Planck-Gesellschaft in 2004 “Sonne seit über 8.000 Jahren nicht mehr so aktiv wie heute.“ Für die solare Aktivität wird international meist der sog. TSI (Total Solar Irradiance) herangezogen (Abbildung 10).

Die Abbildung 10 zeigt den TSI im Zeitraum 1979 bis Januar 2010 (Quelle: http://www.pmodwrc.ch/pmod.php?topic=tsi/composite/SolarConstant). In der Zeile oben sind die verschiedenen Messsysteme, mit denen der TSI aufgenommen wird (wurde) genannt. So steht z.B. ACRIM für Active Cavity Radiometer Irradiance Monitor. Es ist zu sehen, dass im Messbereich des TSI keine Aktivitätssteigerung der Sonne im Betrachtungszeitraum erkennbar ist, wohl aber in der Abbildung 11 und der Abbildung 8 links.

Beim TSI handelt es sich denn auch um eine Mogelpackung, bzw. um eine irreführende Bezeichnung, da das Messsystem des Satelliten, mit dem der TSI aufgenommen wird, lediglich den Wellenlängenbereich des solaren Energiespektrums von 200 nm – 2.000 nm, also UVB – Infrarot aufnimmt (dafür sensibilisiert ist). Von “Tatal“ kann also keine Rede sein! Der überwiegende spektrale Sonnenanteil wird gar nicht aufgezeichnet, insbesondere nicht der Anteil, der zwischen solarem Minimum und solarem Maximum am meisten variiert. So variiert die solare Aktivität im sichtbarem Bereich lediglich um <1%, im UVB-Bereich (205 nm) um ca. 7%, bei 150 nm bereits um 15%, im EVU (<150 nm) sogar um 35% und im Röntgenbereich gar um das 100-fache. Über die kosmische Strahlung*) (Svensmark-Effekt) und die Stratosphäre, übt die Sonne jedoch auch in dem nicht aufgezeichneten Energiebereich indirekt, bzw. direkt Einfluss auf das irdische Wettergeschehen und somit auf das Klima.

*) Die solare Aktivität im Hauptsonnenzyklus, dem de Vries/Suess-Zyklus lässt sich denn auch nicht im TSI erkennen, sondern am 14C-Gehalt der Pflanzen (Abbildung 11).

Die Abbildung 11 zeigt über die letzten 1.200 Jahre den de Vries/Suess-Zyklus und die mittelalterliche Warmperiode, sowie die Kleine Eiszeit mit dem Wolf- Spörer- und Maunder-Minimum, Quelle: (http://www.co2science.org/articles/V11/N23/EDIT.php).

In der Abbildung 12 habe ich Ihnen die Maxima im de Vries/Suess-Zyklus zu der aus 14C gewonnenen Proxy-Temperaturkurve eingetragen.

Die Abbildung 12 zeigt die Kälteperioden der letzten 1.100 Jahre (ergänzt nach Quelle: United States Geological Survey). Die Maxima der Warmperioden fallen jeweils mit dem Maximum des de Vries/Suess-Zyklus zusammen und die Kälteperioden, wie z.B. das Spörer Minimum mit dessen Minimum.

Nicht nur die Gletscherentwicklung der Alpen, sondern auch die arktische Eisbedeckung wird durch den Hauptsonnenzyklus, den de Vries/Suess-Zyklus moderiert, wie die Abbildung 13 zeigt.

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt die Abbildung 13, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“ (http://www.solidaritaet.com/fusion/2008/1/fus0801-klima.pdf). Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries/Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries/Suess-Zyklus. Bei Sonnenminima erlebten Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen.

Hohe solare Aktivität, verbunden mit geringer Aerosolbildung (klare Luft) sind demnach die Ursachen für den starken Gletscherrückgang in den 1940-Jahren. Da die Gletscher im Zeitraum davor wuchsen und die Luft noch klarer war, bleibt für den Gletscherrückgang in den 1940-Jahren einzig (in Bezug der davor herrschenden Gletscherausdehnung) die starke solare Aktivität übrig, sowie wir dies bis zu den letzten Jahren ebenfalls hatten.

Wie bereits eingangs erwähnt, waren die Alpen in früheren Jahren weitgehend eisfrei. Dies belegen Holzfunde in heutigen Gletscherregionen der Alpen von Dr. Christian Schlüchter. Dr. Schlüchter ist Professor für Quartär- und Umweltgeologie an der Universität Bern und Lehrbeauftragter der ETH Zürich.

Er fand in den Hochflutablagerungen eines Gletscherbaches im unmittelbaren Vorfeld des Unteraargletschers im Berner Oberland 30 bis 60 Zentimeter dicke Holzstücke und Überbleibsel eines Moors. Baumreste wurden einem Arvenstamm (alpenländischer Nadelbaum) zugeordnet und auf 4.920 ± 60 Jahre vor heute datiert. Die Moorreste datieren auf 2.100 ± 50 Jahre vor heute. Die Fundstücke sind außergewöhnlich, da es Bäume und insbesondere ein Moor nur an Stellen gegeben haben kann, wo kein dauerhaftes Eis vorhanden ist und die Baumgrenze deutlich höher lag als heute. Aus den vorgenommenen Datierungen ergab sich, dass in den letzten Jahrtausenden etwas mehr als 50% der Zeitspanne die Gletscher deutlich kürzer als waren als heute.

Prof. Schlüchter: “Vor 1900 bis 2300 Jahren lagen die Gletscherzungen mindestens 300 Meter höher als heute. So wurden in der Römerzeit die Gletscher kaum als solche erlebt, aus dem einfachen Grund, weil sie weitab von den damals benutzten Alpenübergängen lagen und somit auch nicht als Hindernis empfunden wurden.“ Dies erklärt auch, warum in den sonst sehr detaillierten Beschreibungen der römischen Chronisten kaum ein Wort über die Gletscher zu finden ist. Als Hannibal 218 v.Chr. mit seinen Kriegselefanten (im Winter!!) die Alpen überquerte und ins römische Kernland einfiel, waren die Alpenpässe weitgehend eisfrei. Es war die Zeit des römischen Klimaoptimums. Die Abbildung 14 links zeigt, wie es nach Rekonstruktionen seinerzeit dort ausgesehen hat.

 

Die Abbildung 14 links zeigt den Sustenpass (Passhöhe 2.224 ü. d. M.), wie er nach den Untersuchungen von Schlüchter zur Römerzeit vor etwa 2.000 Jahren ausgesehen hat. Der Steigletscher hat sich auf die Höhe der Tierberglihütte (2.795 m) zurückgezogen, die Baumgrenze lag deutlich höher als heute. Quelle „Die Alpen“/ Zeichnung Atelier Thomas Richner nach Vorlage Christoph Schlüchter. Kopiert aus ETH-Zürich, Grüne Alpen statt ewiges Eis“, 14.02.2005 (http://archiv.ethlife.ethz.ch/articles/tages/gruenealpen.html). Die rechte Abbildung zeigt den Gletscher um 1993 und seine Ausdehnung 1856 (nach der “Kleinen Eiszeit“) und 1922.

Anhand der Abbildung 15 wird deutlich, dass die Torf- und Holzfunde mit der Temperaturentwicklung im Holozän (bezeichnet die Zeitspanne seit ca. 11.000 Jahren, kleine Abbildung) synchron verlaufen und es Zeiten gab, in denen es wesentlich wärmer war als heute, Quelle: (http://klimakatastrophe.files.wordpress.com/2008/09/gletscherfunde2.jpg) nach Joerin et al. 2006 (Uni Bern).

Die beiden folgenden Bilder in der Abbildung 16 zeigen, wie ein Alpendorf im 19. Jahrhundert von sich ausbreitenden Eismassen begraben wird, dass Klima davor also zyklisch milder war (vgl. mit Abbildung 4), Quelle: ZDF, „Klima – Das Risiko“, Joachim Bublath, 22.10.2003 (http://www.solarresearch.org/zdf_bublath_20031022.htm).

 

Zusammenfassend ist festzustellen, dass der heutige Gletscherrückgang in den Alpen nichts Außergewöhnliches darstellt und die Gletscherentwicklung zyklischen Phasen unterliegt, die von der Sonne gesteuert werden. Ein Einfluss von Treibhausgasen wie z.B. CO2 oder menschliche Einflüsse sind nicht vorhanden.

Raimund Leistenschneider – EIKE

Related Files




ClimateGate 20: Auch Herr Schellnhuber wusste von nichts….

Video 3-Sat Zusammenfassung eines Interviews mit Prof. Dr. Schellnhuber z.T. Verschwinden der Himalya Gletscher. Aufgezeichnet von Solarkritik

Dabei spielt der deutsche Multi-Funktionär und politische Kader-Schmied Schellnhuber in IPCC- und Climategate-Kreisen eine herausragende Rolle. Sollte er tatsächlich nicht gemerkt haben, dass Hiobsbotschaften über das baldige Verschwinden der Himalaya-Gletscher auf einem reinen Gerücht basierten? Wenn das so sein sollte, so wirft das kein gutes Licht auf die Forschung, die da angeblich in Potsdam betrieben wird. Fest steht jedenfalls, dass Schellnhuber sich das Himalaya-Märchen begeistert zu eigen machte. Zitat: ”Wir sind in der Lage, mit Modellen zu erkennen, dass bei fortschreitender Erwärmung in 100 Jahren alle Himalaya-Gletscher verschwunden sein dürften.” *

Welche Modelle sollen das denn sein? Diese Berechnungen würde man jetzt mal gerne sehen. Wie sich inzwischen herausgestellt hat, ist es für Glaziologen auf den ersten Blick völlig ausgeschlossen, das so etwas passiert. Danke an den Kollegen Rolf Degen für den Hinweis auf das Zitat.

Aus ACHGUT von Dirk Maxeiner

* Diese Aussage unterstützt der forsche Forscher Schellnhuber kürzlich im Bayerischen Rundfunk (BR5) und schiebt dieses "katastrophale" Abschmelzen auf den Rußausstoss chinesischer Kohle-Kraftwerke. Siehe Audiodatei im Anhang

Was es mit den Fähigkeiten zu wissenschaftlicher Arbeit des Prof. Schellnhuber noch so auf sich hat sehen Sie hier!

Lesen Sie auch weitere Details zum Werdegang der Himalya Gletscher Ente hier

Related Files




ClimateGate 19: Sind auch die Temperaturdaten der USA gefälscht?

Das Ergebnis seiner Analysen ist dann auch eindeutig nicht dazu geeignet, uns in Sicherheit zu wiegen. Ganz im Gegenteil. In der am letzten Donnerstag veröffentlichten Presseerklärung heißt es, dass 2009 das bisher zweitwärmste Jahr seit Beginn der Temperaturaufzeichnung sei. Wärmer wäre nur 2005 gewesen. Auch sei das vergangene Jahrzehnt das bislang wärmste seit Beginn der regelmäßigen Messungen.

GISS-Direktor Hansen will auch trotz der seit etwa 10 Jahren stagnierenden bis fallenden Globaltemperaturen nichts von einem Stoppen der Erderwärmung wissen. Schließlich genügt bereits ein einfacher statistischer Trick, um diese Phase aus den Daten verschwinden zu lassen:

“Wenn wir die Temperatur über 5 oder 10 Jahre mitteln, um die Variabilität zu minimieren, finden wir dass die globale Erwärmung unvermindert weitergeht.”

“When we average temperature over five or ten years to minimize that variability, we find global warming is continuing unabated.”

Wobei man erwähnen muss, dass die Analyse des GISS sich nicht mit denen anderer Institute deckt. So war das vergangene Jahr nach Daten des National Climate Data Centers (DCDC) das 5.-wärmste. Die Satellitenmessungen von UAH und RSS sahen 2009 nur auf Rang 6 beziehungsweise Rang 7. Daher mag man sich fragen, woher diese Unterschiede stammen, und wie verlässlich die Methoden zur Ermittlung der Globaltemperatur überhaupt sind.

Genau diese Frage haben sich in den USA ein Computerprogrammierer und ein zertifizierter Meteorologe auch gestellt. Über deren Ergebnisse berichtete der US-Wettermann John Coleman in seiner bemerkenswerten Sondersendung “Global Warming: The Other Side“. Sehen Sie hier den vierten Teil der Reportage mit deutschen Untertiteln:

Global Warming: The Other Side – Teil 4 from Science Skeptical on Vimeo.

Die Vorwürfe der beiden GISS-Kritiker, des Programmierers E. Michael Smith und des Meteorologen Josph D’Aleo, lassen sich in vier Punkten zusammenfassen.

  1. Die Computerprogramme zur Berechnung der Durchschnittstemperaturen wurden massiv verändert. Dadurch ist das Endergebnis nicht mehr der Durchschnitt von wirklichen Temperaturen an realen Orten. Stattdessen nutzen die Forscher Daten von Orten, die hunderte Kilometer entfernt sein können und wenden sie auf ein anderes Gebiet an.
  2. Die Anzahl der Messstationen ist dramatisch reduziert worden, von etwa 6000 bis in die späten 80er Jahre auf heute etwas mehr als 1000.
  3. Dabei sind vor allem solche Stationen eliminiert worden, die in kühleren Gegenden, in höheren Breiten oder höheren Höhen lagen, also solche, deren Temperatur niedriger ist.
  4. Die Temperaturen selbst wurden durch sogenannte Homogenisierung verändert, einem Prozess, der fast ausschließlich zu höheren Temperaturen zu führen scheint.

Joseph D’Aleo hat eine ausführliche Analyse der Ergebnisse seiner Studien zusammengestellt. Sie können sie auf seiner Homepage Icecap.us herunterladen. Weiters Details dazu bringt die kanadische National Post hier. Eine sehr guten Artikel über Klimagate von Joseph D’Aleo finden Sie hier.

In dem äußerst empfehlenswerten Blog von E. Michael Smith gibt es viele weiter Details zu den Methoden, mit denen die Nasa die Temperaturdaten auf Erwärmung trimmt.

In den deutschen Medien hat dieser Skandal bisher kaum stattgefunden. Lediglich beim immer gut und aktuell informierenden Dirk Maxeiner auf der Achse des Guten und im Zeit-Leserartikel-Blog von “Schneefan” wurde bisher darüber berichtet.

Die Ergebnisse der Studien von Smith und D’Aleo sind zu umfangreich, um sie hier in wenigen Worten hinreichend zu behandeln. Wir werden daher in den nächsten Tagen einen mehr detaillierten Artikel zu der Affäre um die Temperaturdaten der Nasa schreiben. Bis dahin möchten wir Ihnen die Empfehlung von US-Wettermann und Begründer des “Weather Chanel”, John Coleman, mit auf den Weg geben: :

“Wenn Sie eine Nachricht hören, dass herausgefunden wurde, dass ein bestimmter Monat oder eine Jahreszeit die wärmste in der Geschichte war,  oder dass fünf der wärmsten Jahre seit Beginn der Aufzeichnung im letzten Jahrzehnt lagen – glauben Sie es nicht.”

 Rudolf Kipp (zuerst erschienen in Science Sceptipal Blog)

Nachtrag: Gerade berichtet die Welt:

UMWELTPROGNOSEN

Weltklimarat gerät erneut ins Zwielicht

25. Januar 2010, 10:04 Uhr

Gerade erst musste der UN-Ausschuss peinliche Fehler bei der Prognose zum Abschmelzen der Himalaya-Gletscher eingestehen, da gerät er erneut in Erklärungsnot: Trotz wissenschaftlicher Zweifel hatte er bereits im Jahr 2007 behauptet, dass die steigenden Kosten durch Naturkatastrophen mit dem Klimawandel zusammenhängen. Details hier.…….

ÄHNLICHE BEITRÄGE (BETA):




ClimateGate 18: Die Probleme in den Modellen zur globalen Erwärmung!

So werden wir beispielsweise – obgleich es überzeugende Anzeichen dafür zu geben scheint – nicht von anpasserischen Politikern, sich selbst bedienenden Lobbyisten, fanatischen Umweltaktivisten und gierigen Wallstreet-Manipulatoren geführt. Das ist eine Illusion.

Doch es gibt einen noch stärkeren (aber kaum sichtbaren) Antreiber hinter dem Anschein. Dieser Unsichtbare ist der Computer-Programmierer. Und wie im Märchen vom „Zauberer von Oz“ soll niemand diesem wirklichen Schicksalslenker auf die Finger schauen.

Als Computer-Programmierer will ich hier alles über den „Zauberer“ ausplaudern. Auch wenn mich das vermutlich meine Mitgliedschaft im Club (auch als Physiker und Umweltaktivist) kosten wird.

Der erste Hinweis auf Probleme wird schon deutlich in der Wikipedia-Erklärung über Computer-Programmierer gegeben: 

Dieses Fach unterscheidet sich von vielen anderen technischen Berufen darin, daß Programmierer im allgemeinen weder Zulassungsprüfungen bestehen noch irgendwelche anderen standardisierten (oder amtlichen) Befähigungsnachweise erbringen müssen, um sich „Programmierer“ oder sogar „Software-Ingenieur“ nennen zu können.

Hmmm. 

Als Laie kann ich mir das nur so erklären, dass die ganze Computer-Programmiererei darin besteht, Annahmen zu treffen und diese in mathematische Gleichungen umzusetzen.

Die ganz große Frage lautet: Kann man wirklich komplexe Lagen aus der wirklichen Welt genau in Einsen und Nullen übersetzen? HAL [Anm. d. Ü.: die Computerstimme aus dem Film „Odyssee im Weltraum“] mag das glauben, doch höher verarbeitende Gehirne sagen Nein. Trotzdem wird es immer wieder mit sehr begrenztem Erfolg versucht. Schauen wir ein wenig genauer hin.

Fangen wir mit einem Beispiel an, wie Annahmen in einem Modell getroffen werden.

Ich habe ein Computer-Programm für Schuldeneintreiber geschrieben. Eine typischer Hergang war, dass dem Schuldner ein Termin für eine Zahlung genannt worden wäre und die Inkasso-Gesellschaft diese nicht rechtzeitig erhalten hätte. Welche Reaktion ist daraufhin angemessen?

In dieser Situation kontaktiert das Computer-Programm automatisch den Schuldner. (Man bedenke, dass es bei den Inkasso-Firmen Tausende von Schuldnern gibt und dass es aus Zeitgründen einfach unmöglich ist, durch persönliche Intervention jeden einzelnen Fall zu prüfen und zu verfolgen.)

Was soll also im Computerbrief an den Schuldner stehen? Nun, es hängt von den Annahmen des Computer-Programmierers ab.

Solche Situationen versucht der Programmierer auf mathematische Optionen zu vereinfachen.

Wie entscheidet der Programmierer (im Modell) über „Ja“ oder „Nein“? Also, da werden andere Hinweise benutzt (z. B. ob frühere Zahlungen rechtzeitig geleistet wurden), um eine statistische Wahrscheinlichkeit zu erzeugen. 

In einer komplexen Lage (z. B. Schuldeneintreibung, Klimawandel, Finanz-Derivate) kann leicht ein ganzes Hundert solcher Wahlmöglichkeiten entstehen, das zu behandeln ist.

Um die Implikationen zu verstehen, soll nur der Fall betrachtet werden, wo es zehn derartige Entscheidungspunkte gibt – jeder mit einer möglichen „Ja-“ oder „Nein-“ Entscheidung. Am Ende des Ablaufs stehen 210  (d. h. 1024) mögliche Antworten. Das bedeutet eine ganze Menge von möglichen Schlussfolgerungen.

Leider gibt es aber noch viel mehr Möglichkeiten! Die Annahme, dass diese Schuldner-Situation auf eine „Ja“ oder „Nein“-Antwort verdichtet werden könnte, trifft nicht zu. Denn es gibt viele weitere reale Lagen, die sich einem „Ja“ oder „Nein“ entziehen.

Zum Beispiel: Was ist, wenn der Schuldner niemals zu Anfang eine Nachricht erhalten hätte, dass die Zahlung zu dem Termin fällig war, den das Inkasso-Unternehmen überwachte? Oder: Was, wenn der Schuldner das Geld überwiesen hätte und die Zahlung fehlgeleitet wurde? Oder: Was, wenn der Schuldner die Zahlung an den ursprünglichen Gläubiger geleistet hätte, anstelle an das Inkasso-Unternehmen? Oder: Was, wenn der Schuldner das Geld rechtzeitig überwiesen und das Inkasso-Unternehmen fälschlicherweise die Gutschrift nicht rechtzeitig bewirkt hätte? Usw., usw.

In einem korrekten Computer-Modell müssen alle derartigen Lagen richtig behandelt werden (gesetzlich, zeitlich usw.). Erkennen Sie nun die Komplexität anhand dieses ganz einfachen Beispiels einer nicht fristgerechten Zahlung?

Aber da gibt es noch einen bisher nicht erwähnten weiteren wichtigen Faktor (jetzt schon Nr. 4).  Was ist, wenn der Schuldner nicht bezahlt hat, dies aber darauf zurückzuführen ist, dass sein Kind multiple Sklerose hat und er nicht krankenversichert ist? Wie schreibt ein Computer-Programmierer den Code für so abstrakte Vorstellungen wie „Fairness“? Anders gesagt, können „Einsen“ und „Nullen“ so angeordnet werden, dass sie Nicht-Anfassbares darstellen? Ich denke nein.

Daher steht unter dem Strich die Frage: Kann ein Computer-Programm überhaupt alle Möglichkeiten der realen Welt richtig behandeln – bereits schon in diesem einfachen Fall der Schuldeneintreibung? Die Antwort ist Nein.

Wir haben schon beachtliche Schwierigkeiten beim Übersetzen einer relativ einfachen Sache wie der Sprache – z. B. von griechischen biblischen Texten ins Englische. Wie viele Versionen der Bibel gibt es? Warum nicht nur eine?

Können wir möglicherweise hoffen, einen Vorgang zu übersetzen, der viel komplizierter als Wörter ist? Wir können es versuchen, aber die klare Antwort ist, dass beim Übersetzen jeder komplexen Lage (Schuldner, Energie-Leistung usw.) in mathematische Gleichungen und Computer-Code eine ganze Menge verloren geht.

Manche uninformierte Gruppen glauben, dass der Computernutzer alle Variablen beherrscht und dass er von Hand (und mit Genauigkeit) die Lagen ändern kann. Das stimmt nicht, weil die vom Computernutzer beherrschten Elemente nur einen kleinen Bruchteil der tatsächlichen Faktoren ausmachen, die in ein Computer-Modell eingebaut sind.

Ein ähnlicher Fehler ist, etwa so zu denken: „wir kennen die Annahmen, die die Programmierer trafen, und wir berücksichtigen sie“. Das ist falsch.

Beim Schreiben eines Computer-Programms mit Komplexität werden buchstäblich Hunderte von Annahmen getroffen. Der Computer-Programmierer enthüllt seinem Kunden diese nicht alle, aus dem gleichen Grund, aus dem ein Steuerberater seinem Kunden nicht alle Annahmen bei der Erstellung einer Steuererklärung mitteilt. Er erwähnt nur einige Grundannahmen und sagt dann: „Unterschreiben Sie hier“.

Ja, dieses Beispiel bringt mich auf eine weitere Hauptvariable (Nr. 7): auf die Daten, die der Programmierer als Grundlage bei der Programmerstellung benutzt.

So, wie auch die Erstellung einer Steuererklärung auf der Zusammenarbeit zweier Parteien beruht, so ist auch das Schreiben eines Computer-Modells eine Zusammenarbeit zwischen Wissenschaftler und Programmierer. Wenn der Steuerpflichtige dem Steuerberater unvollständige oder unrichtige Angaben macht, wird das Ergebnis falsch. Das Beunruhigende ist, dass in vielen Fällen keine der Parteien erkennt, dass die Ergebnisse falsch sind.

Gleichermaßen wird das Ergebnis falsch sein, wenn ein Wissenschaftler (unabsichtlich) unvollständige oder ungenaue Daten dem Programmierer für dessen Arbeit gibt. Und keine Partei wird es merken.

Es gibt eine noch bedeutendere Variable (Nr. 8) zu berücksichtigen. Nach der Fertigstellung eines Computer-Modells wird ein „Dolmetscher“ (z. B. das IPCC) die „Ergebnisse“ für Politiker und die Öffentlichkeit (z. B. die Medien) übersetzen.

Und da erleben wir eine Überraschung: Diese Übersetzungen werden von politischen, religiösen, umweltbezogenen, finanziellen und wissenschaftlichen Meinungen beeinflusst. Erklären die Dolmetscher in ihren öffentlichen Äußerungen alle ihre unterschwelligen Vorurteile? Man weiß jetzt die Antwort: ganz gewiss nicht.

Wenn alle diese Faktoren in die Gleichungen eingeführt werden, sind wir offensichtlich schon so weit von den wissenschaftlichen Tatsachen abgewichen, dass diese gar nicht mehr sichtbar sind.

Daher müssen wir sehr sorgfältig nachdenken, bevor wir große Aktionen starten, die fast ausschließlich auf Computer-Modellen beruhen (z. B. viele Billionen Dollar ausgeben wegen der Klimaprognosen, für die Nutzung der Windenergie usw.) 

Was ist zu tun? Alle Computer-Modelle einfach müllen?

Nein, da würden wir ins andere Extrem verfallen. Computer-Modelle haben ihre Verdienste – doch der Schwanz sollte nicht mit dem Hund wedeln.

Wir sollten realistischerweise Computer-Modelle als das sehen, was sie sind: Hilfsmittel beim Ordnen unserer Gedanken und Erzeuger von sehr subjektiven Ergebnissen, die am Anfang von wirklich wissenschaftlicher Analyse stehen sollten.

Alle Computer-Modelle sollten mit einem sehr gesunden Grad von Skepsis betrachtet werden wegen ihrer innewohnenden Begrenzungen (die ich hier nur angerissen habe).

Und um die angemessene Integrität zu gewährleisten, sollten alle Computer-Modelle für wichtige Angelegenheiten der strengen wissenschaftlichen Methodologie unterworfen werden.

Wenn sie nicht genau und ständig die Beobachtungen aus der wirklichen Welt reproduzieren können, dann sollten sie verworfen werden.

Unglücklicherweise geschieht das nicht. 

Wir sind derart süchtig nach der Illusion geworden, dass diese Programme stimmen – und einige Leute lassen sich von politischen Zielen antreiben. Und wir passen schon die Beobachtungen aus der wirklichen Welt an oder stellen sie gar in Abrede, wenn sie nicht mit dem Modell übereinstimmen. Das ist verrückt.

Wenn ein Modell nicht an der vollen Abbildung der Wirklichkeit erprobt worden ist, dann hat es nur sehr begrenzten Nutzen und sollte mit dem gleichen Grad von Berücksichtigung bedacht werden, wie man sie vielleicht einem Horoskop zuerkennt.

John Droz, Jr. ist Naturwissenschaftler und Anwalt. 

Den Originalartikel finden Sie hier: 

Die Übersetzung besorgte Helmut Jäger für EIKE




Kommentar zu …Rahmstorf zitiert NASA : 2009 wärmstes Jahr !

Achtung: Diese News wurde ergänzt, (s. u.) 

Um mir selbst ein Bild zu machen, und da wir gewohnt sind, uns auf Beobachtungen zu verlassen, statt auf Prognosen, habe ich vor etwa einem Jahr die in Wetterzentrale.de gespeicherten und um 1700 beginnenden Temperaturmessungen ausgewertet. Die Erarbeitung von ca. 300 Temperaturganglinien hat viele Kenntnisse aus meiner jahrzehntelangen Hydrogeologen-Zeit bestätigt. 

 Auf der Grundlage meiner Beschäftigung mit Temperaturganglinien möchte ich zu der NASA-Grafik, die Sie in Ihrem Artikel NASA: 2009 auf Rang 2 vom 18.1.2010, kommentiert haben, anmerken, dass man diese Temperaturganglinie in Analogie zu anderen Klimaentwicklungen anders interpretieren sollte, nämlich so, wie ich sie zusätzlich eingezeichnet habe. Sie stimmt dann in ihrer Aussage auch recht gut mit den Ganglinien anderer Institute überein. Selbst wenn 2009 das zweitwärmste Jahr gewesen sein sollte – man wird ja unsicher, welchen Daten man noch trauen kann –, ist daraus nicht zu folgern, dass die Erwärmung weiter geht. Warten wir doch ein paar Jahre ab!

 

Glück auf!  F.-K. Ewert EIKE

25.23.10

Sehr geehrte Kommentatoren,

Das Originalzitat von Herrn Rahmstorf finden Sie unter dem von mir angegebenen Link NASA: 2009 auf Rang 2.

Sie haben um Beispiele für analoge Klimaentwicklungen gebeten. Ich habe bei meiner Auswertung  der Temperaturdaten aus www.wetterzentrale.de dafür viele Beispiele gefunden. Eines füge ich bei; alle anderen werden im Rahmen einer umfassenden Ausarbeitung demnächst hier zu sehen sein. 

Man kann in die Temperaturganglinie die Trendlinie als gerade Linie einzeichnen, weil Einzelheiten unberücksichtigt bleiben sollen – oder müssen. Man kann aber auch die Einzelabschnitte betrachten, um damit – beispielsweise – eine städtebauliche Entwicklung zum Ausdruck zu bringen, die man natürlich kennen muss. Letzteres macht mehr Arbeit, lohnt sich aber, denn man  entdeckt dabei, wie gut die Temperaturganglinie die Stadtentwicklung reflektiert. Die Station New York, Central Park, zeigt das nahezu perfekt:

  • 1820 – 1900 rot: bei  üblichen Schwankungen weder Erwärmung noch Abkühlung, gleichbleibend, städtische Normalbebauung aus 19. Jahrhundert.
  • 1900 – 1950 grün: Bau von Hochhäusern, auch in der Umgebung des Central Parks, verändert das Mikroklima.
  • 1950 – 1990, orange: nach Stabilisierung auf ca. 2°C höheren Niveau etwa gleichbleibende Temperatur.
  • 1990 – 2005 dunkelgelb: Beginn einer leichten Abkühlungsphase, die mangels weiterer Daten hier nicht abschließend beurteilt werden kann.  

 

 Das Verfahren der Einzelabschnittanalyse funktioniert gut; deshalb habe ich es angewendet, und zwar nicht nur in diesem Fall.

Apropos „…– man wird ja unsicher, welchen Daten man noch trauen kann – …..“: Die Zuverlässigkeit der NASA-Daten habe ich damit nicht bezweifelt. Wenn man allerdings Herrn Rahmstorfs Interpretation der NASA-Kurve folgt – die Erwärmung setzt sich fort – dann widerspricht sie der Hadley-Kurve, die eine Abkühlung anzeigt. Den Widerspruch kann man auf zweierlei Weise auflösen:

  • Wenn Herrn Rahmstorfs Interpretation stimmt, ist die Hadley-Kurve falsch – oder umgekehrt.
  • Wenn man die Einzelabschnittanalyse anwendet, stimmen beide Kurven sehr wahrscheinlich mindestens tendenziell überein (Überprüfung des Maßstabes vorbehalten!), dann würde jedoch um 2000 die Erwärmungsphase durch eine Abkühlungsphase abgelöst worden sein.

Glück auf!  F.-K. Ewert

 




Wahrheit & Basis von wissenschaftlichen Erkenntnissen: Auf der Suche nach Antworten !

Was ist die Wahrheit, war die Frage aller Fragen in der Geschichte. Pontius Pilatus wollte mit den drei Wörtern auf seine Unfähigkeit eine Antwort auf diese Frage geben zu können, hindeuten. Quid est veritas? Etwa 100 Jahre nach den Ereignissen von Jerusalem entwickelte Claudius Ptolemäus in Alexandrien das damalige Weltbild, das fast 1500 Jahre Gültigkeit besaß. Dieses Weltbild platzierte die Erde als Mittelpunkt des Weltalls, wo sich alle anderen Himmelskörper auf angesehenen Bahnen um die Erde bewegten. Um die bekannten Beobachtungen in Einklang zu bringen, entwickelte er die Epizyeltheorie, die, gemessen an heutigen Maßstäben, eine sehr hohe Genauigkeit besaß. Johannes Kepler stürzte gegen den Willen der herrschenden Kleriker dieses Weltbild etwa um 1600. Heute weiß man, dass viele Messungen von Ptolemäus fingiert und gefälscht waren und ferner an die Beobachtungen angepasst waren, um seine Theorie zu unterstützen. Somit stürzte nach 1500 Jahren das Lügengebäude und als Folge beschleunigte  sich sogar der gesellschaftlich Erneuerungsprozess, der etwa um 1500 mit dem Renaissance begonnen hatte.

In moderner Zeit, in der die Welt wissenschaftlich technologisch geprägt ist, wurden auch immer wieder Verfälschungen und Lügen entdeckt, jedoch erst nach vielen Jahren, nachdem sie Schaden eingerichtet hatten. Die Spitze des Eisbergs war die Affäre Hendrik Schön in den Jahren 2002/2003. Hendrik Schön, Absolvent von Universität Konstanz, hatte die Daten seiner Arbeiten über „Bahnbrechende Ergebnisse für die Entwicklung von Computer-Chips jenseits der heutigen Silizium-Technologie“ gefälscht. Er veröffentlichte unter dem strengen „Peer Review“ Prozess mehrere seiner Artikel in Science und Nature und galt bereits als Nobelpreis-Kandidat. Schließlich als die Lüge nach Jahren aufflog, wurde er von Bell Laboratories, USA sofort entlassen und erst im Jahre 2009 sein Doktortitel gerichtlich aberkannt.

Im Folgenden wird versucht zu zeigen, wie Fälschungen bewusst oder unwissentlich den Weg auch in den heutigen aktuellen Themen, wie der Klimaforschung Fuß gefasst haben.

Eine kritische Betrachtung der Klimaforschung

Die Klimadiskussion, die in den Medien seit den 80er Jahren geführt und insbesondere seit der Rio Konferenz [1] im Jahre 1992 sehr stark politisiert wird, hat dazu geführt, dass maßgebliche Institutionen den Menschen die Wichtigkeit der globalen Erwärmung zu zeigen, indem sie immer wieder versucht haben, den Klimawandel als eine katastrophale Folge der menschlichen industriell technischen Lebensweise darzustellen.

Zwei Parameter wurden immer wieder in den Nachrichten, aber auch in der gängigen wissenschaftlichen Literatur der Bevölkerung präsentiert, um die Menschheit letztendlich durch eine so genannte Klimaabgabe finanziell in die Verantwortung zu ziehen. Diese beiden Parameter sind die Erhöhung des CO2 in der Atmosphäre, das seit etwa 1958 durch ein neues Verfahren auf einer Höhe von 4000 Metern in Hawaii gemessen wird und die global gemittelte Temperaturerhöhung seit 1880. Die Messwerte von CO2 im Mauna Loa Observatorium in Hawaii [2], die seit 1958 existieren, wurden im Rahmen dieser Aktionen durch die Messwerte, gewonnen aus antarktischen Eisbohrkernen, bis zurück in die 400 000 Jahre Vergangenheit extrapoliert. Wissenschaftliche Arbeiten, die dieses Vorgehen kritisch bewertet haben, wurden dabei [3] nicht in Betracht gezogen. Wenn man jetzt den Parameter globale Temperatur betrachtet, wird auch klar, dass diese Größe rein statistischer Natur ist. Eine Mittelung von verschiedenen Temperaturen  in einem Raum kann man zwar einfach durchführen, aber die Aussagefähigkeit dieser Größe ist sehr problematisch. Dennoch, nimmt man die so gemittelten Temperaturdaten seit 1880, fällt sehr schnell auf, dass die Mess-Stationen in der Vergangenheit sehr spärlich waren und zudem die meisten von denen in der Nordhalbkugel akkumuliert waren. Deshalb sind die älteren Daten sehr mit Vorsicht zu genießen. Nimmt man die aktuell veröffentlichten Daten und trägt man diese in einem Diagramm, wie es in Abb. 1 gemacht wurde, sieht man, dass global gemittelt innerhalb der letzten 100 Jahre rechnerisch eine Temperaturerhöhung von 0.61°C erfolgt ist. Diese Daten basieren auf einer Sammlung der NASA [4] und die willkürlich gewählte Null Linie ist hier die mittlere Temperatur zwischen 1951 und 1980. Die lineare Regressionsanalyse mit einem Regressionskoeffizienten von R2 ~ 65 %, ist sehr niedrig und zeigt, dass man statistisch so eine Datensammlung zwar analysieren kann, jedoch mit der Aussage sehr vorsichtig sein soll. Auf diesem Diagramm sieht man folgenden Trends, die weitaus wichtiger sind. Nach einer leichten Erwärmung von 1880 bis 1938 folgte eine stärkere Abkühlungsperiode, die bis 1970 dauerte. Danach stiegen die Temperaturen bis 1998 global an, und seit 1998 bis heute sieht man eine Periode des Stillstands. Sogar bei näherer Analyse kann auch eine leichte Abkühlung in den letzten 10 Jahren statistisch festgestellt werden.

Abb.1 Global gemittelte Temperaturdaten der Erdoberfläche seit 1880 bis 2009, entnommen aus NASA GISS Quelle. Das Diagramm wird in der Literatur als Temperatur Anomalie Diagramm bezeichnet [4]. Die Basis- Temperatur  ist willkürlich gewählt und ist der Mittelwert zwischen 1951 und 1980.

Die Erde war und ist in seiner Geschichte stets mit klimatischen Änderungen konfrontiert. Die an mehreren Orten wie in Antarktis oder Grönland durchgeführten Eisbohrkern-Untersuchungen zeigen diese Phänomene. Mehr noch, diese Daten zeigen auch, dass abrupte Klimaänderungen eher die Regel waren als die Ausnahme. Gesammelte Daten in der Zentrale von NOAA World data center of Paleoclimatology, Boulder, USA [5] sind im Rahmen dieser Arbeit unten (Abb. 2) dargestellt. Diese Daten stammen aus dem zentralen Grönland von Eisbohrkernen, die bis 49000 Jahren vor unserer Zeit zurückdatiert werden können. Laut dieser Untersuchung sind die Daten etwa 1% genau. Abb.2 zeigt den gesamten Temperaturablauf in Grönland (Zentralgrönland) von 1920 bis 49000 Jahren vor unserer Zeit.

 

Abb.2 Temperaturdaten von Zentralgrönland, rekonstruiert aus Eisbohrkerndaten [5] zeigen die abrupten Klimaänderungen der Erdoberfläche.  Die etwa vor 10 000 Jahren einsetzende rapide Erwärmung der Erde endete etwa vor 8000 Jahren. Erstaunlich ist es auch, dass sich die Hochzivilisationen erst ab dieser Zeit begannen zu entwickeln. 

Der vergrößerte Abschnitt in Abb. 3 zeigt die Verhältnisse bis 5000 Jahre vor unserer Zeit. Es ist klar ersichtlich, dass sich das Klima in schnellen Abfolgen auf und ab bewegte.

Abb.3 Temperaturdaten von Zentralgrönland, rekonstruiert aus Eisbohrkerndaten, zeigen die abrupten Änderungen der Erdoberfläche bis vor 7000 Jahren. Mehreren so genannten Klimaoptima folgten dann rapide Abkühlungsphasen. 

Weiterhin ist in der geschichtlichen Neuzeit das sich einsetzende Klimaoptimum um 1000 nach Christus sehr klar ersichtlich. In dieser Zeit wurde Grönland in den Küstenregionen von den Wikingern kolonisiert und nach der Abkühlung in den Jahren nach 1300 wieder entvölkert. Abbildung 4 zeigt die Zusammenstellung dieser Daten in einem Diagramm.

 

Abb.4 Temperaturdaten von Zentralgrönland rekonstruiert, aus Eisbohrkerndaten, zeigt das Klimaoptimum um 1000 nach Christus.  Ferner sind hier die Maunder, Dalton Minima und die kleine Eiszeit um 1700 auch gut erkennbar. Diese Minima korrelieren mit den Sonnenflecken Aktivitäten. In den Minima war die Anzahl der Sonnenflecken  auch sehr gering oder fehlten fast.

Abb.5 Temperaturdaten von Zentralgrönland, rekonstruiert aus Eisbohrkerndaten, zeigen die letzten wichtigen Ereignisse der Erdgeschichte. Um 1815 war der gewaltige Vulkanausbruch von Tambora, der kurz danach zu einer weltweiten Erdabkühlung führte. Ebenso löste der Vulkanausbruch Krakatau im Jahr 1883 eine kleine Abkühlungsphase der Erde aus und stoppte die Erwärmung kurzzeitig. 

Betrachtet man die Abb. 5, die sich dem letzten Abschnitt der Grönland-Temperatur- Rekonstruktion widmet, ist ersichtlich, dass weit entfernte Ereignisse mit einer kleinen Zeitverzögerung auf das Klima wirken. Die beiden Vulkaneruptionen Tambora und Krakatau in weiten Indonesien [6, 7] stoppten den Erwärmungstrend der Erde kurzzeitig für mehrere Jahre und sogar kühlte die Erde in dieser Zeit beträchtlich.

Fälschung in Namen der Klimaforschung: Die Erderwärmung zwischen 1880 und 2000, hervorgerufen durch menschlichen Einflüssen

Laut IPCC, die gerne und oft die Abbildung 1 als Beweis der anthropogen bedingten Erwärmung der Erde ausführt, ist diese Erklärung eine Unwahrheit oder in milder Form benannt nicht mehr als eine Hypothese. Wenn IPCC und die dazugehörigen unzähligen Organe die Erderwärmung als Beweisstück zeigen wollten, dann warum nicht den ganzen Kurvenzug, nämlich die erdgeschichtlichen Ereignisse seit 1800 wo die Erde nach einer Abkühlungsperiode sich wieder zu erholen begann. Da jedoch die industrielle Revolution nach 1900 einsetzte, wird dieser Teil des Kurvenzugs von IPCC als Beweis des anthropogenen Einflusses auf das Erdklima ausgeführt. Laut Abb. 3 ist die Erde heute etwa noch mehr als 1.2°C kühler, als in der Zeitspanne des Klimaoptimums um 1000 nach Christus, wo sich auf der Erde bestimmt keine industriellen Einrichtungen befanden. 

Fälschung in Namen der Klimaforschung: „Hockey stick“ Kurvenschlag als Beweis der enorm hohen Erwärmung in unserem Jahrhundert

Der nächste Skandal der vom Hause IPCC kam, ist der so  genannte „smoking gun“, Michael Mann’s Hockey Stick Beweis [8]. In 2001 wurde dieses Diagramm als letztes und wichtigstes Beweismittel gegen die Menschen gemachte Erderwärmung in dem IPCC Bericht eingeführt. Nach heftigen Einwänden und mit statistischen Beweisen von Stephen McIntyre and Ross McKitrick [9] konnte dieses entkräftet werden. Die Autoren Mann, Bradley, Hughes hatten bewusst die Daten [10] in ihrem Sinne manipuliert. Das besagte Diagramm wurde dann von IPCC in 2007 entfernt.

Fälschung in Namen der Klimaforschung: Entwendung von Daten und tausende Emails von CRU, Hadley Center, East Anglia University „Climategate“

In November 2009 wurden 61 MByte Daten aus dem  CRU Hadley Center in East Anglia University von Unbekannten entwendet und diese frei erhältlich ins Internet gestellt. Diese Daten enthielten etwa 1079 Emails und 72 Dokumente, manche von Ihnen hochbrisant, und zeigten, wozu die so genannten Wissenschaftler fähig waren, um die Klima-erwärmungshypothese zu beweisen,. Einige Fakten sind wie folgt:

  • Die heimliche Freude über den Tod von John Daly im Jahre 2004, einem Wissenschaftler aus Tasmanien, der stets bemüht war, den Klimawandel richtig zu interpretieren, wurde schriftlich in einer Email festgehalten. Ein wichtiger Kritiker weniger passte wohl in dieses Schemata.
  • Diskussionen über die Anwendung von Methoden, wie die ermittelten Daten, die eine Temperaturabnahme zeigten, in den Kurven versteckt werden können.
  • Diskussion darüber, wie man das Mittelalterliche Optimum von der Erdgeschichte wegdiskutiert werden könnte. 
  • Die von Zeitschriften als „peer review“ geforderten Wissenschaftler, die ihre Funktion als unabhängige Referee wahrnehmen sollen, wurden bewusst unter den Gesichtspunkten ausgewählt, um kritische Beiträge zu blockieren.

Diese Datenentwendung zeigte wieder, dass die Wahrheitsfindung keine Rolle spielt, wenn finanzielle und politische Interessen im Vordergrund stehen.

Fälschung in Namen der Klimaforschung: Falsche Daten über die Himalaya Gletscher finden Eingang im politischen IPCC Bericht

Im Januar 2010 wurde die Weltgemeinschaft mit einer Meldung überrascht, dass das angekündigte Verschwinden des Himalaya Gletschers von IPCC großenteils eine Fälschung war. Natürlich kann in einer Arbeit, auch in einem wissenschaftlichen Bericht, immer eine Zahl falsch sein. Das steht außer Frage, jedoch muss man dann dazu stehen und die Gründe der falschen Aussage revidieren und nicht alle Hebel in Bewegung setzen und sich verteidigen. Die Vorgeschichte begann bereits in August 2009 in Indien durch die Veröffentlichung eines umfangreichen Berichtes von V. K. Rayna, dem früheren Direktor des staatlichen geologischen Instituts in Indien [11]. In November 2009 bereits begann eine sehr scharfe Diskussion zwischen dem indischen Umweltminister und dem Nobelpreis-geschmückten früheren Eisenbahningenieur der TATA Company  und jetzigen IPCC Leiter Rajandra Pachauri. Die Inder waren über die Aussage in dem IPCC-Bericht sehr erstaunt, dass die Himalaya-Gletscher von bis zu 80 % im Jahre 2030 verschwinden würden. Bei der Diskussion warf sogar Pachauri dem indischen Umweltminister vor, dass er arrogant wäre und die Arbeiten von seriösen Wissenschaftlern nicht berücksichtige.

Nun was war geschehen? Die ganze Geschichte geht zurück auf das Jahr 1996 als der russische Gletscherforscher V. M. Kotlyakov einen umfangreichen Bericht für Unesco geschrieben hatte [12].  In diesem Bericht auf der Seite 66 hatte der Forscher seine Hypothese beschrieben, dass durch die Erderwärmung die Himalaya-Gletscher bis zu 80 % im Jahre 2350 zusammenschrumpfen würden. Diese Zahl 2350 wurde ohne Kritik von WWF (World Wildlife Fund) genommen und bewusst oder fälschlich als 2030 an das IPCC weitergegeben. Diese Zahl steht jetzt in dem IPCC Bericht und natürlich schlugen die Wellen hoch. Bemerkenswert in diesem Zusammenhang ist es auch, dass Kotlyakov im Jahre 2008 die Komplexität der Klimaforschung detailliert ausführte und begann, sich von seiner damaligen Hypothese langsam zu entfernen [13].  

 Dr. Armand Nyilas* für EIKE

*Der Verfasser dieses Schriftstücks ist freischaffender Wissenschaftler und erklärt eidesstattlich, dass er bisher weder von Kerntechnik, noch von Öl- oder Kohleindustrie finanzielle Hilfen erhalten hat.

 

Literaturstellen

 

1.     Lexikon der Nachhaltigkeit: http://alt.nachhaltigkeit.info/6000/Geschichte.htm

2.     Mauna Loa Observatory: http://co2now.org/index.php/Current-CO2/CO2-Now/current-data-atmospheric-co2.html

3.     Ernst Georg Beck, “180 Years of atmospheric CO2 gas analysis by chemical methods”, Energy and Environment, Vol. 18 No. 2 2007

4.    

GLOBAL Temperature Anomalies in 0.01 degrees Celsius base period: 1951-1980, NASA: http://data.giss.nasa.gov/gistemp/tabledata/GLB.Ts.txt#http://data.giss.nasa.gov/gistemp/tabledata/GLB.Ts.txt

5.     Alley, R.B..  2004. GISP2 Ice Core Temperature and Accumulation Data. IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series #2004-013. NOAA/NGDC Paleoclimatology Program, Boulder CO, USA. ftp://ftp.ncdc.noaa.gov/pub/data/paleo/icecore/greenland/summit/gisp2/isotopes/gisp2_temp_accum_alley2000.txt

6.     Tambora: http://www.geology.sdsu.edu/how_volcanoes_work/climate_effects.html

7.     Krakatau: http://www.drgeorgepc.com/Volcano1883Krakatoa.html

8.     Michael Mann: http://www.global-warming-and-the-climate.com/mann’s-hockey-stick-climate-graph.htm

9.     http://en.wikipedia.org/wiki/Hockey_stick_controversy

10.   http://www.examiner.com/x-28973-Essex-County-Conservative-Examiner~y2009m11d22-The-Hockey-Stick-was-never-accurateand-CRU-knew-it

11.   V. K Raina, Ex Deputy Director General, Geological Survey India, http://moef.nic.in/downloads/public-information/MoEF%20Discussion%20Paper%20_him.pdf

12.   V. M. Kotlyakov, “Variation of snow and ice in the past and at present on a global and regional scale”, Int. Hydrological Programme IHP-IV Project H-4.1, UNESCO Paris 1996 http://unesdoc.unesco.org/images/0010/001065/106523E.pdf

13.  V.M. Kotlyakov,   http://www.un.org:80/wcm/content/site/chronicle/lang/en/home/archive/Issues2009/pid/5085

 

Related Files




Gott Globus – Umweltschutz als neue Weltreligion

 In einem Anflug von bisher ungekannter Offenheit berichteten SpiegelStern und Welt darüber, dass das IPCC sich bei seinen Angaben über das erwartete Schmelzen der Gletscher im Himalaja wohl auf falsche Angaben gestützt hatte. Anstatt sich auf wissenschaftliche Literatur zu verlassen, die einem Peer-Review unterzogen wurde, wie es eigentlich Aufgabe des IPCC sein sollte, wurden Zahlen aus einer Studie des WWF ungeprüft übernommen. Angesichts dieser Erkenntnisse erscheinen die Anschuldigungen des indischen Umweltministers Jairam Ramesh an den Vorsitzenden des IPCC,  den Inder Rajendra Pachauri, in einem völlig neuen Licht.

Ramesh hatte bei der Vorstellung einer indischen Studie zur Gletscherschmelze (wir berichteten) das IPCC der Übertreibung bei seinen Aussagen zur Gletscherschmelze im Himalaja bezichtigt und damit die Glaubwürdigkeit des IPCC selber in Frage gestellt. Woraufhin Pachauri die Verlautbarungen Rameshs als “extrem arrogant”  bezeichnete. Vor dem Hintergrund dieser neuen Enthüllungen ist es wohl eher Pachauri, dem man Arroganz vorwerfen muss.

Zwar hat diese Meldung es bisher noch nicht in die Redaktionsstuben unser TV- und Radiosender geschafft, aber auch hier sind jetzt zunehmend Stimmen zu hören, die das Dogma des Menschen als Umweltzerstörer und Klimakiller mehr und mehr in Zweifel ziehen. Gestern Abend konnte man ind der 3sat Kulturzeit einen Bemerkenswerten Beitrag mit dem Titel “Gott Globus” sehen. Darin wurde folgende ketzerische Frage gestellt:

Biblische Plagen wie Hungersnöte und Sintfluten gelten nicht mehr als gottgewollt, sondern vom Menschen gemacht. Ist der Umweltschutz die neue Weltreligion?

Gott Globus – Umweltschutz als neue Weltreligion from Science Skeptical on Vimeo.

Darin sagt der Soziologe Norbert Bolz:

Der Glaube an den Klimawandel bringt uns Aug´in Aug´mit einer absehbaren Katastrophe, das heißt wir können wieder religiös empfinden, ohne an einen Gott glauben zu müssen. Das ist offenbar für eine atheistische Gesellschaft wie die unsere ein fast unwiderstehliches Glaubensangebot…

Al Gore ist der erste Politiker, der es wieder gewagt hat, zumindest in der westlichen Welt, als Prophet aufzutreten. Und man könnte sagen, er hat an seine gescheiterte Politikerdkarriere eine sehr erfolgreiche Prophetenkarriere angeschlossen.  Und das interessanterweise mit dem Material scheinbar avantgardistischer Wissenschaft. Das ist eine, wie ich finde, sehr unheilvolle Mischung…

Selten waren wir in den letzten Jahrzehnten weiter entfernt von Liberalität und einer Art Massenaufklärung als heute. Ganz im Gegenteil, wir sind wieder in die Hände von Propheten geraten.

Eins scheint sicher zu sein – der Damm ist gebrochen. Es ist somit zu hoffen, dass sich in nächster Zeit wieder mehr Journalisten auf das besinnen, was ihre eigentliche Aufgabe ist. Nämlich nach der Wahrheit zu suchen, und nicht das zu verkünden, was sie für die Wahrheit halten.

von Rudolf Kipp; zuerst erschienen bei Science Sceptical Blog 

ÄHNLICHE BEITRÄGE: 

Related Files




Nur 0,0004712 Prozent!! BUND Aktivist weiss nicht wieviel CO2 von Deutschland in die Luft abgegeben wird!

Oben: Lord Monckton im Gespräch mit einer Greenpeace Aktivistin am 4.12.09 in Berlin.

Der Leser Dr. Ing. Urban Cleve aus Dortmund beschreibt darin eine Begegnung mit einem Mitarbeiter des Bundes Umwelt und Naturschutz Deutschland (BUND) wie folgt:

„Ich wurde kürzlich auf dem Westenhellweg an einem Stand des „BUND" von einem Mitarbeiter auf CO2 angesprochen.

Danach folgte folgendes Gespräch:

‚Wie hoch ist denn der Anteil des CO2 in der Luft?’

Antwort: ‚Hoch’.

‚Wie hoch denn?’

‚Sehr hoch.’

‚Wie viel Prozent?’

‚Weiß ich nicht.’

‚Was ist denn sonst noch in der Luft?’

Keine Antwort, nur ein staunendes Gesicht.

‚Haben Sie schon mal etwas von Sauerstoff gehört?’

‚Ja, sicher, Sauerstoff ist in der Luft.’

‚Wieviel Prozent denn?’

‚Weiß ich nicht.’

Meine Antwort: ‚21 Prozent.’

Das erschien ihm glaubhaft.

Neue Frage: ‚Was ist denn sonst noch in der Luft? Haben Sie schon mal etwas von Stickstoff gehört?’

‚Ach ja, sicher Stickstoff ist auch noch in der Luft.’ ‚Wieviel Prozent?’

‚Weiß ich nicht."

Meine Erläuterung: ‚Etwa 78 Prozent.’

Mein Gesprächspartner drehte sich um und sagte: ‚Das glaube ich Ihnen nicht, das kann nicht stimmen, denn dann bleibt ja für CO2 nichts mehr übrig’, drehte sich um und ging.

Er hatte diesmal fast recht. Es sind nur 0,038 Prozent CO2 in der Luft.

Wer noch rechnen möchte:

Also 0,038 Prozent CO2 sind in der Luft; davon produziert die Natur 96 Prozent, den Rest, also vier Prozent, der Mensch*. Das sind dann vier Prozent von 0,038 Prozent also 0,00152 Prozent. Der Anteil Deutschlands hieran ist 3,1 Prozent. Damit beeinflusst Deutschland 0,0004712 Prozent des CO2 in der Luft. Damit wollen wir die Führungsrolle in der Welt übernehmen, was uns jährlich an Steuern und Belastungen etwa 50 Milliarden Euro kostet.“

Die Informationspflicht dem Zeitgeist geopfert

Warum erfahren FAZ-Leser eine solche entscheidende Information nur über einen Leserbrief, nicht aber in der überaus umfänglichen Berichterstattung und Kommentierung über Klimawandel und Klimaschutz durch die Redakteure und Korrespondenten selbst? Gelegenheit und Verpflichtung dazu wäre spätestens vor, während und nach der bombastischen „Klimaschutzkonferenz“ der Vereinten Nationen vom 7. bis 18. Dezember 2009 in Kopenhagen gewesen. Andere Medien haben sich damit ebenfalls nicht hervorgetan und einen wesentlichen Teil ihrer Informationspflicht lieber dem politischen Zeitgeist geopfert.

Wie gut, dass es andere Informationsmöglichkeiten gibt, vor allem im Internet. Dazu gehört auch dieser Blog. Er verschafft Ihnen, verehrte Leser, immerhin einen Informationsvorsprung.

Die Kopenhagen-Konferenz ist mit ihrem Ziel erfreulicherweise gescheitert (siehe meinen Beitrag vom 20. Dezember 2009). Und Sie wenigstens wissen, warum ich das für erfreulich halte.

x) Es sind nicht nur drei Nullen hinter dem Komma, sondern sogar vier. Ein anderer FAZ-Leser hat nachgerechnet und kommt auf 0,00004712 Prozent (FAZ vom 20.1.2010).

Sehen Sie hier ein vergleichbares Frage & Antwortspiel mit einer Greenpeace Aktivistin

Mit Dank an Autor Dr. Krause "Junge Freiheit" und FAZ Leserbriefschreiber Dr. Cleve

* Anmerkung der Redaktion: Es gibt für viele Leute Probleme Emissionen und Konzentration auseinander  zu halten. Der genaue Anteil des antropogenen CO2 an der atmosphärischen Konzentration ist unbekannt. Dr. Cleve schätzt hier 4 %. (Das IPCC schätzt 3 %) Tatsache ist, dass es auch nur sehr grobe Schätzungen zum Anteil des Menschen an den Emissionen gibt. Das UBA schätzt diesen Anteil auf 1,2 % (ja, so genau sind die). Andere Experten schätzen ihn auf 3-4 %. Wohlgemerkt, an den Emissionen! Wieviel davon in der Atmosphäre verbleibt, weiss wiederum keiner, da die möglichen Quellen und Senken weder genau bekannt sind, noch hinreichend genau quantifziert werden können. Für Leser, die an Details interessiert sind, lohnt es sich hier nachzuschauen: http://tinyurl.com/yjfgmsp




ClimateGate Update 17: ‘KALTE’ WETTERSTATIONEN VON KLIMADATEN AUSGESCHLOSSEN

Die einzige Aufgabe von IPCC ist es, nachzuweisen, dass die von Menschen verursachten Emissionen von Kohlendioxid die Ursache einer globalen Erwärmung sind (AGW). Skeptische Wissenschaftler haben das massenhafte Aussondern von „kalten“ Stationen als eine Schande und einen zynischen Versuch die Welttemperaturaufzeichnungen nach oben zu verbiegen gebrandmarkt. Mehr als 50 Milliarden Dollar sind in derselben Periode für die Klimaforschung ausgegeben worden. Da kann es keinen guten finanziellen Grund dafür geben, mit einem solch gewaltigen internationalen Klima-Budget (bezahlt durch weltweite Steuerzahler) irgendwelche bodennahe Thermometer-Stationen auszuschließen. Am Schluß dieses Artikels listen wir die 800+ Thermometer-Stationen auf, welche in letzter Zeit von den Aufzeichnungen der Klimatologen entfernt worden sind.Das IPCC ist auch schon von innen wegen der Abzweigung von Geldern in unzuverlässige Computer-Modelle kritisiert worden, die eigentlich für die Temperaturmessungen vorgesehen waren. In allen vier der hauptsächlichen IPCC-Bewertungsberichte (AR) wurde den „synthetischen“ Daten von Computern eine größere Bedeutung beigemessen als der Erfassung von Daten der „realen Welt“. Professor Richard Lindzen vom MIT (Massachusetts Institute of Technology) und einst ein führender Autor für das IPCC ist einer der stärksten Kritiker einer solchen Politik eines übermäßigen Vertrauens in Computermodelle gewesen.

Für die Zwecke dieses Artikels haben wir uns zunächst einmal genau angeschaut, was mit den Aufzeichnungen der bodennahen Wetterstationen quer durch die Vereinigten Staaten geschehen ist. Was wir gefunden haben ist nichts weniger als skandalös. Von einer Spitzenzahl von 1850 Thermometer-Stationen im Jahre 1968 hat bis jetzt nur eine lumpige Zahl von 136 Amerikanischen Stationen bis Dezember 2009 überlebt.

Was wir ebenfalls beobachtet haben ist, dass es ein Muster dabei gibt, welche Arten von Wetterstationen geschlossen werden; und es stellte sich heraus, dass die meisten in ländlichen Gebieten liegen, die vom so genannten „städtischen Wärmeinsel-Effekt“ nicht beeinflusst werden. Mit anderen Worten, die fehlenden Stationen tendierten dazu, „kältere“ Temperatur-Ablesungen zu liefern. Unsere Tatsachenfeststellungen sind in sehr großer Übereinstimmung mit jenen des Moskauer Instituts für Wirtschaftsanalyse (IEA), das vor kurzem die IPCC-Berichte der Wissenschaftler durchgesehen hat. Die Analyse der Russen fand heraus, dass  die aus UN-Mitteln bezahlten Klimatologen Daten aus einem Gebiet, das mehr als 40 Prozent von Russland ausmacht, unberücksichtigt gelassen haben. Sie stellte auch fest, dass fast alle davon in „kühleren“ ländlichen Gebieten waren. Die Klimaberichte des IPCC hatten öffentlich verkündet, dass der größte Anstieg bei den globalen bodennahen Temperaturen in Russland aufgetreten sei. Aber entsprechend der jetzt vom IEA revidierten Zahlen ist dies eine nachweisbare Lüge. Russland war für die Klimatologen besonders signifikant, weil es das flächenmäßig größte Land der Welt ist und 12,5 Prozent der Landmasse ausmacht.

Bei der Zusammenstellung dieses Artikels sind wir nicht in der Lage gewesen, irgendeine Erklärung seitens der Vereinten Nationen oder der US-Regierung auf die Frage zu finden, warum es notwendig gewesen sei, 1714 Thermometer-Stationen einzumotten. Skeptische Forscher, solche wie Andrew Watts mit seiner Homepage WUWT (Watts Up With That), haben dies als eine Tragödie bezeichnet, welche die reichsten Nation auf dem Planeten in Verruf gebracht hat.

Besorgte Wissenschaftler haben die Tatsache beklagt, dass bei einer globalen Erwärmung als ein solch heißes Problem und mit Milliarden von in die Klimaforschung investierten Dollars, es der Logik widerspricht, zu wünschen weniger Daten zu haben, wenn gleichzeitig die Steuerzahler von den Regierungen wegen der Notwendigkeit „den Planeten vor Erwärmung zu retten“ zur Zustimmung von Billionen Dollar für „Cap and Trade“-Steuern verleitet werden. Was sogar noch mehr das öffentliche Verständnis beleidigt, sind die beklagenswerten  Widersprüchlichkeiten, die unter diesen bodennahen Stationen zu existieren scheinen, welche noch nicht in den Abfalleimer geworfen worden sind. Watts und seine Nachforscher haben einen umfassenden Katalog dieser nicht ausgesonderten bodennahen Thermometer-Stationen,  zusammengestellt und dabei herausgefunden, dass die meisten völlig unverlässlich sind. Watts argumentiert, dass die Daten von urbanen (in bewohnten Gebieten befindlichen) Stationen häufig durch eine lokale „Wärme-Insel“ beeinflusst sind, eine Wärmestrahlung, für welche Städte und Siedlungen bekannt sind, dass sie im Ergebnis der seit Jahrzehnten erfolgenden zunehmenden Verstädterung immer weiter zunimmt.

Steve McIntyre, ein gut bekannter exakter Prüfer der offiziellen Klimadaten, hat dabei ebenfalls zahlreiche Entdeckungen gemacht, von denen einige sagen, dass diese einen Betrug durch die von der Regierung bezahlten „Erwärmungs-Wissenschaftler“ beweisen. McIntyre hat es klargemacht, dass er keine Geldmittel von den Ölmultis („big oil“) empfängt, sondern ein Ruheständler ist, der von seiner Gartenlaube aus arbeitet. So erfolgreich ist Steve bei dem Aufdecken solch raffinierter Verfahren gewesen, dass es eine offizielle Revision der US-Temperatur-Aufzeichnungen gab, wodurch gezeigt wurde, dass die 1930er Jahre das wärmste Jahrzehnt des 20. Jahrhunderts war – und nicht die 1990er Jahre wie die NASA zu behaupten versuchte . Seit dem „Climategate“-Skandal  ist die Welt über die Möglichkeit aufgeweckt worden, dass viele Klimatologen in ihren Methoden nicht immer vollständig ehrlich gewesen sind. In den vergangenen Wochen hat es ernste Bedenken gegeben, dass auch die Datensätze für andere Länder einschließlich Australien und Neu-Seeland unethisch verbogen worden sind, um wärmere Temperaturen zu zeigen, als tatsächlich existierten, (man sehe hier)

Nicht-IPCC-Wissenschaftler, die den Temperaturaufzeichnungen von Bodenstationen nicht länger vertrauen, haben sich zunehmend anderen Methoden der Klimadatenerfassung zugewandt wie z.B. Satellitendaten und ozeanografische Kalibrierungen. Das Argos-Projekt ermittelt beispielsweise die globalen Meerestemperaturen und hat dabei keinerlei globalen Temperaturanstieg festgestellt, sondern nur Rückgänge, seit es im Jahre 2004 in Betrieb genommen wurde. Auch die Satelliten-Daten sind eindeutig: „Satelliten-Daten zeigen keine Erwärmung vor 1997. Die Änderungen haben keinen Bezug zu CO2“

Es gibt, wenn man die Zahlen von Satelliten und von den Ozeanen eng miteinander vergleicht, eine ständig zunehmende Anomalie im Trend der Bodenstationen, welche die IPCC gern als „homogenisiert“ oder „wertberichtigt“ bezeichnet, bevor sie den politischen Führungskräften und der Öffentlichkeit übergeben wurden. Hier sieht man, wie das Verfahren der Homogenisierung funktioniert:man sehe hier bei WattsUp

Die größte Unstimmigkeit ist der Trend der „Erwärmung“, der von den Bodenstationen im Zeitraum 1975 bis 2007 gezeigt wird. Riecht schon jemand die volle Duftwolke von Rinderexkrementen?

Einige Skeptiker stellten fest, dass seit dem Fallout aus den „Climategate“- Offenbarungen nunmehr eine Schadensbegrenzungsübung stattfindet, um die Auswirkungen von weiteren derartigen Enthüllungen zu minimieren. Einige argumentieren, dass sie nun versuchen, eine Wiederholung der Debatte über den IPCC-Klimatologen Michael Mann zu vermeiden, dessen „Hokeyschläger“-Temperaturkurve sowohl von Al Gore in seinem Film „Eine Unbequeme Wahrheit“ als auch im IPCC-Bericht 2001 groß herausgebracht wurde. Als Ergebnis dieser Debatte ist die Temperaturdarstellung von Mann geräuschlos aus dem IPCC-Bericht 2007 verschwunden. Mann war gezwungen, im Jahre 2004 in der Zeitschrift  Nature eine Korrektur zu veröffentlichen (McIntyre & McKitrick, 2005).

Jedoch der vierte IPCC-Bericht besteht immer noch darauf, dass die letzte Hälfte des 20. Jahrhunderts die wärmste Periode in den vergangenen 1300 Jahren gewesen sei (IPCC, 2007).

Der Vorsitzende des UN-Klimarates (IPCC) ist Dr. Pachauri. Pachauri ist der „höchste Klimabeamte“ der Welt, der mit der Aufsicht über die Verwaltung der Klimawissenschaft betraut wurde. Jedoch wurde in einem kürzlich erschienenen Artikel in dem Londoner „Daily Telegraph“ Pachauri dafür kritisiert,  dass er eine ganze Reihe von Spitzenpositionen bei Banken, Universitäten und anderen Institutionen einnimmt, welche von der riesigen weltweiten Industrie Nutzen ziehen, die auf Maßnahmen zum Aufhalten der Klimaänderung spezialisiert sind. Man sehe hier.

Die Kritiker haben argumentiert, dass es einen Interessenkonflikt darin gibt, dass die UN (die Vereinten Nationen) sowohl als Richter (IPCC) als auch als Advokat (Kyoto Protokoll, Kopenhagen) in der sich aufheizenden Klimadebatte auftreten. Dies ist noch eine weitere jener „Unbequemen Wahrheiten“, für die vielleicht endlich die Zeit dafür gekommen ist, sich von diesem Debattenlärm zu befreien  und dafür objektive, transparente öffentliche Klimakommissionen einzuberufen. Aufgrund meiner eigenen Ermittlungen bin ich davon überzeugt, dass das Vertrauen der Steuerzahler nur wiederhergestellt wird, wenn wir die Auslagerung der Klimawissenschaft an die offensichtlich korrupten Vereinten Nationen, die allzu sehr durch private Geldgeber beeinflusst sind, nicht weiter fortsetzen.

Unterdessen haben wegen der Regierungsuntätigkeit in dieser Frage einige Skeptiker schon begonnen, Zivilprozesse anzustrengen, um im Gerichtssaal die Aufdeckung und Transparenz über den Missbrauch der Steuerzahlergelder  zu erzwingen. Dank solcher unabhängiger Forscher wie McIntyre und Watts hat die Öffentlichkeit das offensichtliche Fehlen der Transparenz und die Beeinflussung durch so genannte Klimaexperten spitz gekriegt.

Verschwörungstheoretiker sind ebenfalls schnell dabei gewesen zu behaupten, dass es eine verdeckte Agenda gibt, nicht nur die Taschen der reichen Finanziers, die Milliarden aus dem Kohlenstoffhandel zu gewinnen trachten, zu füllen, sondern dass auch durch die Furcht vor einer globalen Erwärmung der Weg erleichtert würde für eine Unmenge „grüner“ Steuern, die unter einer neuen Eine-Welt-Regierung erhoben würden. Die Massenmedien haben versucht, solche Sorgen einzudämmen, und entschieden, solche nachteilige Geschichten nicht zu veröffentlichen.

Liste der fehlenden Temperaturstationen (Dank an ‚chiefio @):

 John OSullivan mit Dank an Horst Veit, der die Übersetzung besorgte.

den Originalartikel finden Sie hier und im Anhang

John O Sullivan biete übrigens eine Belohnung zur Aufdeckung der Hintermänner des Klimaschwindels an. 

Related Files




Klimawandel: CIA-Studie sagte neue Eiszeit voraus!

Im Jahre 1977 erschien in den Vereinigten Staaten das SachbuchThe Weather Conspiracy: The Coming of the New Ice Age. Darin behaupteten 18 Autoren, innerhalb von vier bis fünf Jahrzehnten werde sich die Erde deutlich abkühlen. Im Anhang des Buches fanden sich zwei komplette CIA-Studien über die prognostizierte künftige Abkühlung der Erde (die CIA-Studien wurden im Jahre 1974 erstellt und 1977 veröffentlicht).

In einer der beiden CIA-Studien hieß es: »The weather we call normal is in fact highly abnormal. … There is growing consensus among leading climatologists that the world is undergoing a cooling trend … excellent historical evidence exists from areas on the European plains …« Vorausgesagt wurde ein Trend der »klimatischen Abkühlung«.

Auch die Zeitung Washington Post berichtete in den siebziger Jahren unter der Überschrift »U.S. Scientist Sees New Ice Age Coming« über die kommende Erdakühlung. In dem Artikel bestätigte der NASA-Wissenschaftler James E. Hansen, der am Institute for Space Studies(Goddard Space Flight CenterNational Aeronautics and Space Administration) arbeitet, dass die Menschheit wegen der Treibhausgase nur noch wenige Jahre Zeit haben werde, um eine Erdabkühlung zu verhindern – die Schadstoffe würden die Sonneneinstrahlung verringern. Und dann werde es eiskalt. Um bis zu 6 Grad werde die Durchschnittstemperatur auf der Erde bis 2021 fallen.  Nochmals: James E. Hansen sprach in den siebziger Jahren ausdrücklich im Namen des zur NASA gehörenden Goddard Institute for Space Studies. Fast vier Jahrzehnte später propagiert das gleiche Goddard Institute for Space Studies nun den gegenteiligen Kurs – und zwar den von der Regierung vorgegebenen Kurs der drohenden Erderwärmung.

Nun weiß man nicht so recht, was und wem man Glauben schenken kann: Der CIA-Studie aus den siebziger Jahren? Oder der NASA – und dann entweder mit den damaligen oder vielleicht doch besser mit den heutigen  Aussagen?

Joe Bastradi ist einer der bekanntesten Meteorologen der Vereinigten Staaten. Er hat nun passend zur neuen aktuellen, weltweiten Kältewelle ein Video ins Web gestellt, in dem er die Zuschauer völlig verwirrt: Der Mann prognostiziert der Erde … eine neue Eiszeit … Sehen Sie es selbst …

Das Klima der Welt hat sich schon immer im Wandel befunden. Eine gleichmäßige und längere Entwicklung des Weltklimas hat es nie gegeben. Die Welt hat immer wieder Eiszeiten durchgemacht. Von den großen und kleinen Eiszeiten haben wir alle als Schüler gehört. Auch von den Dinosauriern und Mammuts, die heute nicht mehr existieren.

 

Jene amerikanische Behörde, die weltweit die Schneehöhen und die Dicke des Eises misst (US National Snow and Ice Data Centre in Colorado) hat gerade erst bekannt gegeben, dass das Eis der Arktis seit 2007 um 26 Prozent zugenommen hat. Jene, die behauptet hatten, der Nordpol werde spätestens 2013 eisfrei sein, können schon jetzt damit beginnen, sich zu schämen. Denn die führenden Wissenschaftler der Welt auf dem Gebiet der Klimakunde sagen uns derzeit für die nächsten 20 bis 30 Jahre eine Abkühlung der Jahresdurchschnittstemperaturen voraus, Sie können es hier nachlesen. Es ist genau das, was die CIA schon in den siebziger Jahren voraussagte.

Paul Watson, Mitbegründer von Greenpeace, hat einmal gesagt: »Es spielt überhaupt keine Rolle, was die Wahrheit ist, wichtig ist nur, was die Leute glauben, dass es wahr ist.«

Und in Deutschland passiert jetzt was? Die GRÜNEN fordern öffentlich einen verstärkten Kampf gegen die Erderwärmung …

von Udo Ulfkotte mit freundlicher Genehmigung des Kopp Verlages. Das Original finden Sie hier.




ClimateGate 16:Finnische Doku zu Klimagate mit deutscher Übersetzung

Ilmastogate – Klimagate from Science Skeptical on Vimeo.

Transkript zur Sendung (Die Sendung selbst sehen Sie hier und hier als Vimeo Video zum vollständigen Herunterladen geeignet ): Am Donnerstag, den 19. November, wurden Dateien und E-Mails von der britischen Climate Research Unit (CRU) auf einen russischen Internet Server hochgeladen. Der bislang unbekannte Hacker oder Insider erklärte sein Handeln in folgender Botschaft (the Air Vent):

“Wir glauben, dass die Klimawissenschaft in der momentanen Situation zu wichtig ist, als dass man Sie geheim halten sollte. Hiermit veröffentlichen wir eine zufällige Auswahl an Korrespondenz, Codes und Dokumenten. Hoffentlich ergibt sich daraus ein Einblick in die Wissenschaft und die Menschen dahinter.”

“We feel that climate science is, in the current situation, too important to be kept under wraps. We hereby release a random selection of correspondence, code, and documents. Hopefully it will give some insight into the science and the people behind it. This is a limited time offer, download now: http://ftp.tomcity.ru/incoming/free/FOI2009.zip “

Die Daten geben einen Einblick darüber, wie die CRU intern arbeitet, einer wissenschaftlichen Bastion des IPCC, des Weltklimarates. Sie enthüllten Geheimhaltung, Feindschaft, Intrigen und die Manipulation von Forschungsergebnissen hinter der Fassade von Klimawissenschaft.
Die Aufdeckung hat auch die Frage aufgeworfen, ob die Führer der Welt, die sich in Kopenhagen versammelt hatten, von den Wissenschaftlern in die Irre geführt worden waren. Professor Phil Jones, der Direktor der Climate Research Unit CRU der University of East Anglia, lehnte unsere Anfrage für ein Interview ab und wollte auch keine schriftlichen Fragen beantworten. Die Pressestelle der Universität teilte uns mit, dass man uns keine Antworten geben könne.
Aus diesem Grund hat MOT mit finnischen Professoren gesprochen.

Atte Korhola, Professor für Umweltveränderungen an der Universität Helsinki:
“…ziemlich verwunderlich…”

Kalevi Mursula, Professor für Astrophysik an der Universität von Oulu:
“…irgendwie verdächtig…”

Antero Järvinen, Professor für Biologie an der Universität Helsinki:
“…ich wundere mich…”

Juha Pekka Lunkka, Professor für Geologie und Paläontologie an der Universität von Oulu:
“…ich bin sprachlos…”

Aber zurück zur CRU. Die Person, welche die Dokumente gehackt oder durchsickern lassen hat, nutzte einen Dateinamen, der direkt Bezug nimmt zum britischen Gesetz zur öffentlichen Freigabe von Informationen (FOIA). CRU Direktor Jones und seine Kollegen haben dieses Gesetz seit mehr als 4 Jahren unterwandert. Jetzt müssen sie ihr Handel vor Untersuchungskommissionen und der Polizei erklären. Diese Kerngruppe der CRU und ihre Kollegen in den USA und Deutschland bestimmten praktisch, was Klimawissenschaft ist und was nicht. Welche Wissenschaftler für IPCC-Berichte zugelassen werden und welche nicht.

Das Hockey-Team

In diesem Programm nennen wir diese Gruppe das “Hockey-Team” CRU hat Statistiken zusammengestellt für die mittlere Temperatur der Erde seit 1850. Diese Zeitreihe zeigt eine Erwärmung von etwa 0,7 °C über das letzte Jahrhundert. Die Kurve ist das Ergebnis der Vereinigung von Daten von Wetterstationen aus der ganzen Welt und der Berechnung von Mittelwerten – mit geheimgehaltenen Methoden.
Der Anstieg der Temperaturen hat die Führer der Welt beängstigt und Maßnahmen zur Reduktion von Treibhausgasen ergreifen lassen. Viele Forscher haben die CRU gebeten, die Messdaten und die Computer Codes öffentlich zugänglich zu machen. Die Antwort von CRU Direktor Phil Jones war kühl:

“Wir haben 25 Jahre Arbeit investiert. Warum sollte ich ihnen Daten schicken wenn es Ihr einziges Ziel ist etwas falsches darin zu finden? Das ist eine sehr unwissenschaftliche Aussage.”

“We have twenty-five years invested in this, why should I send the data to you when your only objective is to find anything wrong with it?”
Die Führung der CRU hat die Globaltemperatur als ihren Privatbesitz angesehen, aber nun ist ein Teil der Daten und des Codes öffentlich verfügbar.
Atte Korhola:
“Die E-Mails geben wieder, dass manche Leute regelrecht Panik davor hatten was passiert, wenn die Natur sich nicht so verhält, wie die Modelle und Theorien vorhersagen.”

Ein Problem für die CRU-verbundenen Wissenschaftler war die Mittelalterliche Warmzeit zu Beginn des zweiten Jahrtausends. Es ist seit langem bekannt, dass diese wärmer war als die heutige Zeit.
Juha Pekka Lunkka:
“Ich muss ehrlich zugeben, dass wir noch nicht die Aussage machen können, die Mittelalterliche Warmzeit hätte nicht existiert. Die verfügbaren Proxydaten, jedenfalls von der nördlichen Hemisphere, speziell aus Westeuropa, wo wir die meisten Daten haben, zeigen ganz deutlich, dass die Temperaturen genauso warm oder wärmer waren als heutzutage.“

In den späten 90er Jahren publizierten Wissenschaftler die dem CRU nahe stehen diese Kurve, bekannt als “Hockeyschläger” im Magazin Nature. Sie zeigt die globale Durchschnittstemperatur der letzten 1000 Jahre. Ihr starker Anstieg im 20. Jahrhundert zeigt 1998 als das wärmste Jahr des Millenniums, und der leicht absteigende “Schaft” versteckte die wohl bekannte Mittelalterliche Warmzeit.
Der kanadische Mathematiker Steve McIntyre untersuchte den Hockeyschläger genauer. Weder Manns Methoden noch seine Daten bestanden eine genau Überprüfung. Auf Geheiß des US-Kongresses untersuchten die US National Academy of Science und das Statistik Komitee des nationalen Wissenschaftsrates McIntyres Anschuldigungen und fanden, dass Mann übertriebene Behauptungen aufgestellt hatte. Der Hockeyschläger war zerbrochen.

Hide the Decline

1999 produzierte das Hockey-Team ein Bild des Hockeyschlägers für die Titelseite einer Publikation der WMO. Eine E-Mail von CRU-Direktor Phil Jones zu dieser Grafik war unter den E-Mails in den Climategate Daten. Darin stand (942777075.txt):

“Ich habe gerade Mikes Nature-Trick angewendet und die realen Temperaturdaten für die letzten 20 Jahre eingesetzt – um den Rückgang zu verstecken.”

“I’ve just completed Mike’s Nature trick of adding in the real temps to each series for the last 20 years (ie from 1981 onwards) amd from 1961 for Keith’s to hide the decline.“

Welchen Rückgang? Temperaturschätzungen von tausend Jahren werden mit Hilfe indirekter Messungen, Proxies genannt, vorgenommen. Vergangene Temperaturen werden zum Beispiel aus Sedimenten und aus Baumringen ermittelt. Zu ihrem Leidwesen hat das Hockey-Team festgestellt, dass die Temperaturen aus den Bauringen einen starken Rückgang in den letzten Dekaden des 20. Jahrhunderts zeigten. Aber die Thermometer zeigten, dass die Erde sich erwärmt hatte. Wie war also mit dieser Divergenz umzugehen?
In der Wissenschaft wird es allgemein als unangebracht angesehen, dass man Messungen mit unterschiedlichen Methoden in einem Diagramm zusammenfügt. Das Problem ist, dass Thermometer und Baumringe teilweise unterschiedliche Dinge messen. Es wurde vermutet, dass das Hockey Team einfach Thermometer-Messungen auf die Baumring-Messungen aufgepfropft hatte. Der Erfinder des Original Hockeyschlägers, Michael Mann, reagierte auf die Anschuldigungen mit beleidigtem Tonfall (Real Climate):

“Keine Forscher auf diesem Gebiet haben jemals, so weit wir wissen, Thermometer-Messungen zu irgendwelchen Rekonstruktionen hinzugefügt. Es ist irgendwie enttäuschend, diese fadenscheinige Anschuldigung zu sehen, welche wir üblicherweise von Industrie-finanzierten Klima-Desinformations Webseiten erhalten, die in diesem Forum auftreten.”

“No researchers in this field have ever, to our knowledge, “grafted the thermometer record onto” any reconstruction. It is somewhat disappointing to find this specious claim (which we usually find originating from industry-funded climate disinformation websites) appearing in this forum.“

Nur war dies exakt das, was Mann und die CRU-Forscher getan hatten. Als ihre Baumringdaten nach unten zeigten, wie hier

versteckte die CRU den Rückgang durch das Einsetzen von Thermometer-Messungen an das Ende der Kurve, wie hier.

Ohne diesen “Trick” irgendwo zu erwähnen. Mit diesem Trick war es Jones´ Team möglich einen Hockeyschläger mit einer mächtigen “Kelle” zu fabrizieren.
“Mann´s Nature Trick” hat durchaus für Erstaunen unter den Wissenschaftlern gesorgt.
Atte Korhola:
“Dieses Vorgehen wurde streng kritisiert – sie hätten das niemals machen dürfen.”

Das Hockey-Team nahm sich nicht die Zeit herauszufinden, warum ihre Interpretation der Baumringe nicht die erwartete Erwärmung zeigte. Stattdessen beschlossen sie, das Problem zu verstecken. Aber wenn Baumringe nicht in der Lage sind, die heutige Erwärmung zu zeigen, sind sie auch nicht verlässlich zur Abschätzung vergangener Temperaturen. Und dadurch könnte der Gebrauch von Baumringen zur Temperaturbestimmung in der Klimawissenschaft komplett infrage gestellt werden.
Jarl Ahlbeck (Dozent für Umwelttechnologie an der Abo Akademie)
“Das bedeutet, dass eine Messung falsch ist. Wenn die Baumringe keine Erwärmung zeigen, die Thermometer aber doch, ist eine der Methoden falsch. Sie können nicht beide Recht haben.”

Die Divergenz zwischen den Baumring- und Thermometer-Daten wurde versteckt, auch in dem IPCC-Bericht von 2001. Der Ergänzungsteil enthielt diese Daten, zeigte sie aber nicht (der rote Teil der Kurve).

Steve McIntyre war einer der Gutachter des Reports von 2007. In einem seiner Kommentare sprach er das verstecken des Rückgangs an (Climate Audit).
“Zeigen Sie die Briffa- Rekonstruktion bis zum Ende. Stoppen Sie nicht bei 1960. Dann kommentieren Sie das ‘Divergenzproblem’ und stellen sich ihm, wenn Sie müssen. Verdecken Sie nicht das Abschneiden dieser Grafik. Das wurde im vorherigen Report (IPCC TAR) gemacht und war irreführend.”

“Show the Briffa et al reconstruction through to its end; don’t stop in 1960. Then comment and deal with the “divergence problem” if you need to. Don’t cover up the divergence by truncating this graphic. This was done in IPCC TAR; this was misleading“
Das IPCC antwortete MCIntyre dass es als unangebracht angesehen wurde, den letzten Teil von Briffas Daten zu zeigen. In seiner E-Mail hat Professor Jones zugegeben, dass er diesen “Versteck-Trick” angewendet hatte. Er hat jetzt die Wortwahl bereut, streitet aber ab, dass er mit dem Wort “Trick” etwas betrügerisches gemeint habe.
Atte Korhola:
“Was hier aus meiner Sicht besorgniserregend ist, ist dass viele dieser E-Mails darauf hinweisen, dass der Autor eine Person mit einer großen Mission ist und mit dem Glauben ausgestattet, das richtige zu tun und dass dies irgendwie rechtfertigt, Ausnahmen zu machen von der in der Wissenschaft sonst üblichen Praxis wie Peer-Review oder Offenheit, Selbstkritik und ähnlichem. Grundelementen der Wissenschaft also.”

Feindschaft unter Forschern

Das durchgesickerte CRU Material enthält 3000 E-Mail-Botschaften mit Korrespondenz zwischen Forschern. Sie zeigen eine aggressive Atmosphäre, in welcher Wissenschaftler Kollegen mit abweichender Meinung als ihre Feinde betrachten, welche mit allen Mitteln bekämpft werden müssen.
Ben Santer, einer der weltweit bekanntesten Klimawissenschaftler, schreibt in einer seiner E-Mails an Jones er fühle sich in Versuchung – in starker Versuchung – “Den Scheiß” aus seinem älteren Kollegen Pat Michals herauszuprügeln, weil dieser zu den Skeptikern gehört (1255100876.txt).

“Next time I see Pat Michaels at a scientific meeting, I’ll be tempted to beat the crap out of him. Very tempted.“

Gleicher Santer drückte in einer anderen Nachricht das Verlangen aus, mit Steve McIntyre und seinen Kollegen

“in einer dunklen Gasse zu sprechen” (1177534709.txt).

“I’d really like to talk to a few of these “Auditors” in a dark alley.“

CRU Direktor Phil Jones bezeichnete abweichende Kollegen wiederholt als “völlige Trottel” (1233245601.txt).
“Also I see Pielke Snr has submitted a comment on Sherwood’s work. He is a prat.“

Als der finnische Skeptiker Timo Hämeranta in einer Botschaft den Tod des australischen Skeptiker-Veterans Jon Daly bedauerte, schrieb Jones seinem inneren Kreis, dass er diese Information als “erheiternde Neuigkeit” ansehe (1075403821.txt).

Mike, In an odd way this is cheering news!“

Versteckspiel mit Daten

Die Informationen offenbarten das systematische schützen von Daten der CRU vor einer externen Überprüfung. Professor Jones behandelte die globalen Temperaturdaten, als wären sie sein Privatbesitz und hat Anfragen abgelehnt, sie zu veröffentlichen. Aber Jones war besorgt, dass Britanniens neues Gesetz zur Offenlegung von Daten auch auf seine Daten angewandt werden könnte. 2005 schrieb er an Michael Mann (1107454306.txt):

“McIntyre und McKitrick sind seit Jahren hinter den CRU-Stationsdaten her. Wenn sie jemals mitbekommen, dass wir hier ein Gesetz zur Freigabe von Daten haben, werde ich die Daten eher vernichten, als sie irgendwem zu schicken.”

“The two MMs have been after the CRU station data for years. If they ever hear there is a Freedom of Information Act now in the UK, I think I’ll delete the file rather than send to anyone.“
Bald darauf offenbarte Jones seine Frustration seinen engsten Kollegen (1109021312.txt):

“Ich werde von ein paar Leuten bedrängt, die CRU-Stationsdaten herauszugeben. Niemand von Euch dreien darf verraten, dass wir in Britannien ein Gesetz zur Herausgabe der Daten haben!”

“I’m getting hassled by a couple of people to release the CRU station temperature data. Don’t any of you three tell anybody that the UK has a Freedom of Information Act!”
Trotzdem nahm der Druck, die Daten herauszugeben, ständig zu. Im Frühjahr 2008 wurde deutlich, dass selbst der E-Mail Verkehr zwischen den Forschern als zu veröffentlichen angesehen werden könnte (1212073451.txt).

“Mike, kannst Du sämtliche E-Mails vernichten, welche Du mit Keith bezüglich des IPCC AR4 hattest? Keith wird das ebenfalls machen. Kannst Du ebenfalls Gene anschreiben und ihn auffordern gleiches zu tun. Wir werden Caspar anweisen, genauso zu verfahren. Danke, Phil.”

“Mike, Can you delete any emails you may have had with Keith re AR4? Keith will do likewise. He’s not in at the moment – minor family crisis. Can you also email Gene and get him to do the same?“
Alle Empfänger diese Auftrags zur Löschung haben zusammen an Studien gearbeitet, in denen “unabhängig” die wissenschaftliche Robustheit von Manns ursprünglichen Hockeyschläger gezeigt werden sollte. Im August 2008 kam Jones mit einer neuerlichen Ausrede, die Offenlegung der Daten abzulehnen. Er schrieb an Gavin Schmidt von der NASA (1219239172.txt):

“Die Aussage, welche wir alle benutzen, ist dass das IPCC von nationalen Regelungen ausgenommen ist. Das haben wir so den Skeptikern erzählt.”

“The FOI line we’re all using is this. IPCC is exempt from any countries FOI – the skeptics have been told this.“
Vor einem Jahr schrieb Jones an Santer (1228330629.txt):

“Ich habe vor etwa 2 Monaten große Mengen an E-Mails vernichtet. Also haben sie kaum etwas, wenn überhaupt.”

“About 2 months ago I deleted loads of emails, so have very little – if anything at all.”
Bald nachdem der Klimagate Skandal im letzten November aufflog, erklärte Jones dem Guardian:

“Wir haben nie irgendwelche Daten oder E-Mails hier am CRU gelöscht.”

„We’ve not deleted any emails or data here at CRU. I would never manipulate the data one bit – I would categorically deny that.“
Politisierte Wissenschaft

Atte Korhola:
“…Es werden schwarze Listen geführt mit Wissenschaftlern, deren Arbeiten man nicht in wissenschaftlichen Veröffentlichungen sehen wollte. Es wurden Boykotts von wissenschaftlichen Magazinen vorgeschlagen, wenn diese kritische Meinungen veröffentlichten.”

CRU und deren Top-Forscher üben gewaltigen Einfluss aus, um den Konsens darüber zusammen zu bringen, wie der momentane Zustand des Klimas gesehen wird. Sie können die IPCC-Reports beeinflussen und damit maßgeblich die öffentliche Meinung beeinflussen.

Professor Lunkka:
“Sagen wir es einmal so: weil die IPCC Politik – und es ist Politik – es liefert Munition für Politiker um Entscheidungen zu fällen, und daher haben wir verschiedene Gruppen innerhalb des IPCC die in eine bestimmte Richtung tendieren. Ich könnte diesen Standpunkt unterschreiben. Sagen wir Briffa, Overpeck und dieser Jones, die sind sehr starke Spieler und exzellente Wissenschaftler, kein Zweifel, aber auf der anderen Seite muss man sich fragen ob da nicht auch eine politische Agenda involviert ist.”

Professor Mursula:
“Ja, das Ganze ist auf eine sehr schnelle Art politisiert worden, und wurde zu einem völligen Dogma. Letztendlich geht es um eine Sache, die wissenschaftlich in keiner Weise gesichert ist. Zumindest bisher nicht.”

2003 war das Hockey-Team unzufrieden mit dem Climate Research Magazine, welches die Publikationen von Leuten erlaubte, die als Skeptiker klassifiziert worden waren. Michael Mann schrieb an Jones im März 2003 (1047388489.txt):

“Das war die Gefahr, wenn man die Skeptiker immer dafür kritisiert, dass sie nicht in Peer-review Magazinen publizieren. Offensichtlich haben sie eine Lösung dafür gefunden – die Übernahme eines Journals! Was unternehmen wir also? Ich denke wir sollten damit aufhören, ‘Climate Research’ als ein legitimes wissenschaftliches Journal anzusehen. Und wir sollten unsere Kollegen in der Klimawissenschaft dazu ermutigen, nicht mehr länger Artikel in diesem Journal zu veröffentlichen oder zu zitieren.”

„This was the danger of always criticising the skeptics for not publishing in the ‘peer-reviewed literature’. Obviously, they found a solution to that–take over a journal! So what do we do about this? I think we have to stop considering ‘Climate Research’ as a legitimate peer-reviewed journal. Perhaps we should encourage our colleagues in the climate research community to no longer submit to, or cite papers in, this journal.“

Die Sünde, welche ‘Climate Research’ begangen hatte, war die Publikation einer kontroversen Studie. Der innere Kreis der CRU wollte den Herausgeber dafür bestrafen.
Jones´ enger Vertrauter Tom Wigley schrieb an Timothy Carter, der den Klimawandel für die finnische Regierung untersucht, Herausgeber Hans von Storch publiziere “Mist-Wissenschaft” nur um die Debatte anzuheizen (1051190249.txt).

“…wir müssen auch von Storch loswerden.”

“Note that I am copying this view only to Mike Hulme and Phil Jones. Mike’s idea to get editorial board members to resign will probably not work — must get rid of von Storch too, otherwise holes will eventually fill up with people like Legates, Balling, Lindzen, Michaels, Singer, etc.“


Kontrolle des Peer-Review Prozesses

Das Hockey-Team hat ein leidenschaftliches Interesse entwickelt den Peer-Review-Prozess zu kontrollieren. Im Juli 2004 war Mann ärgerlich wegen zwei Studien, die nach seiner Sicht nicht im nächsten IPCC Bericht zitiert werden sollten. Jones schrieb, um ihn zu beruhigen (1089318616.txt):

“Ich kann nicht sehen, dass eine von diesen Studien in den nächsten IPCC-Report kommt. Kevin und ich werden sie irgendwie draußen halten – selbst wenn wir dafür neu definieren müssen, was Peer-Review bedeutet.”

“I can’t see either of these papers being in the next IPCC report. Kevin and I will keep them out somehow – even if we have to redefine what the peer-review literature is!“
2005 geriet ein weiteres Magazin ins Fadenkreuz des Teams, die Geophysical Research Letters. Der Herausgeber James Saiers wurde ebenfalls verdächtigt, ein Skeptiker zu sein. Wigley und Mann in einem E-Mail Austausch (1106322460.txt):

“Wenn Du glaubst, dass Saiers zur Gruppe der Klimaskeptiker gehört, wenn wir dafür dokumentierte Belege finden, könnten wir offizielle AGU-Kanäle benutzen, um ihn aus dem Amt zu verdrängen…
Es ist eine Sache, ‘Climate research’ zu verlieren, aber wir können uns nicht erlauben GLR zu verlieren. Ich denke es wäre hilfreich, wenn wir beginnen unsere Erfahrungen mit Saiers zu dokumentieren…
Sie haben bei Weitem zu viele fehlerhafte konträre Studien im letzten Jahr oder so publiziert. Die waren alle Mist.“

„If you think that Saiers is in the greenhouse skeptics camp, then, if we can find documentary evidence of this, we could go through official AGU channels to get him ousted…
It’s one thing to lose “Climate Research”. We can’t afford to lose GRL. I think it would be useful if people begin to record their experiences w/ both Saiers and potentially Mackwell…They have published far too many deeply flawed contrarian papers in the past year or so. There is no possible excuse for them publishing all 3 Douglass papers and the Soon et al paper. These were all pure crap. “

Jones´ vertraute Kollegen begutachteten gegenseitig ihre Arbeiten. Forscher mit weniger Beziehungen fragten daher Jones, wen er als Gutachter empfehlen konnte. Letzten August empfahl er neun Namen und beendete die Liste mit der Anmerkung (1249503274.txt):

“All diese wissen die richtigen Worte zu finden über unsere Kommentare und das furchtbare Original, ohne dass man sie darauf hinweisen müsste.”

„All of them know the sorts of things to say – about our comment and the awful original, without any prompting.“

Uneinigkeit über Konsens

Es wird in der Öffentlichkeit immer wieder behauptet, 3000 Forscher des IPCC wären alle einer Meinung. Dieser sogenannte Konsens besagt, dass sich die Erde weiter erwärmt und das menschliche Treibhausgas-Emissionen die Bedrohung einer Klimakatastrophe geschaffen haben. Aber die Klimagate-Dokumente zeigen, dass selbst das Hockey-Team, diese kleine Elite der Klimaforscher, weit entfernt ist von Einigkeit in ihrer Meinung. Ein Grund für Streitigkeiten war das Ausbleiben der Erwärmung in diesem Jahrzehnt (1255352257.txt).

“Fakt ist, wir können im Moment das fehlen der Erwärmung nicht erklären, und es ist eine Tragödie dass wir es nicht können.”

„The fact is that we can’t account for the lack of warming at the moment and it is a travesty that we can’t.“

So drückte der amerikanische Top-Klimaforscher Kevin Trenberg seine Probleme mit den Daten seinen Kollegen gegenüber aus. Er fuhr mit seinen abweichlerischen Gedanken fort (1255530325.txt):

“Wie kommt es, dass Ihr nicht mit der Aussage übereinstimmt, dass wir nirgends auch nur annähernd wissen, wohin die Energie verschwindet oder warum Wolken sich verändern und den Planeten heller machen. Wir sind nicht einmal nah daran, das Energiebudget zu verstehen. Die Tatsache, dass wir nicht berechnen können, was im Klimasystem passiert…”

„How come you do not agree with a statement that says we are no where close to knowing where energy is going or whether clouds are changing to make the planet brighter. We are not close to balancing the energy budget. The fact that we can not account for what is happening in the climate system makes any consideration of geoengineering quite hopeless as we will never be able to tell if it is successful or not! It is a travesty!“

CRU: Datensammlung oder Datenmüll?

Eine wichtige Aufgabe der CRU ist die Pflege der Daten und des Computer-Codes zur Berechnung der globalen Durchschnittstemperatur. Es ist dieses Material, dass Jones so standhaft vor externer Überprüfung geschützt hat. Die bekannt gewordenen Dokumente enthüllen jetzt einen möglichen Grund für die Geheimhaltung.Die wissenschaftlichen Daten und der Computer-Code im Zentrum der Weltpolitik sind in einem Zustand, dass sie nicht einmal für Leute zu entschlüsseln sind, die verantwortlich für die Pflege der Daten sind. Vor kurzem wurde junger Computer Programmierer, genannt Harry, eingestellt um das Chaos in Ordnung zu bringen. Harrys genervte Anmerkungen sind jetzt für die Öffentlichkeit verfügbar (Harry Read Me File):

„OH VERF****. Es ist Sonntag Abend, ich habe das gesamte Wochenende gearbeitet, und gerade als ich dachte, ich wäre fertig, finde ich schon wieder ein neues Problem. Es gibt keine einheitliche Datenintegrität. Es ist eine einzige Ansammlung von Problemen die anwachsen sobald man sie gefunden hat.“

„OH FUCK THIS. It’s Sunday evening, I’ve worked all weekend, and just when I thought it was done I’m hitting yet another problem that’s based on the hopeless state of our databases. There is no uniform data integrity, it’s just a catalogue of issues that continues to grow as they’re found.“

Es ist genau ebendiese Datenbank, welche Harry so verflucht, mit der die Welt-Mitteltemperatur ermittelt wird, die im 20. Jahrhundert um 0,7 °C angestiegen sein soll. Diese Daten sind auch wichtig für die Zukunft. Die Computermodelle zur Vorhersage eines zukünftigen Anstiegs der Globaltemperatur werden mit Hilfe dieser CRU-Statistik getestet und kalibriert. Wenn sie in der Lage sind, den Anstieg im letzten Jahrhundert zu reproduzieren, wie er von der CRU konstruiert worden ist, sollen sie angeblich in der Lage sein, das Klima bis zum Ende des 21. Jahrhunderts vorhersagen zu können.

Urbane Wärmeinseln

Viele Forscher haben in Frage gestellt, ob das so genannte Phänomen der urbanen Wärmeinseln bei der Konstruktion der Globaltemperatur hinreichend berücksichtigt worden ist.
Jarl Ahlbeck:
“Ich habe Phil Jones viele Male per E-Mail gefragt, mit welcher Methode die Daten für urbane Regionen angepasst werden. Ich habe nie eine Antwort erhalten.”

Urbane Wärme bedeutet die erhöhte Temperatur, die man in stark bewohnten Gegenden im Vergleich zu der wenig besiedelten Umgebung misst. Der hohe Energieverbrauch ist ein Grund für diesen Effekt.

Ahlbeck:
“Hier ist die Temperaturkurve für Bratsk (Russland). Die Messungen zeigen einen ziemlich flachen Verlauf bis in den 70ern eine große Zellstofffabrik eröffnet wurde. Und hier kann man die Erwärmung sehen, die durch die Papiermühle verursacht wurde. Die Temperatur in Brask ist deswegen dramatisch angestiegen.“

Im Norden Russlands und in Sibirien gibt es viele Orte, an denen Urbane Wärmeinseln eine große Rolle spielen. Während der langen und kalten Winter wurde Energie unbekümmert in großen Mengen verbraucht. Die Jährlichen Durchschnittstemperaturen in den urbanen Zentren sind bis zu drei Grad höher als in der umgebenden Wildnis.
Ahlbeck:
“Hier in Jakutsk, das bis in die 60er Jahre eine Gulag Stadt ohne große Industrie war, begann dann eine Entwicklung, welche man hier sehen kann. Der Effekt der urbanen Wärmeinsel ist bei der Erwärmung von Jakutsk sehr gut zu sehen.”

Dieses Phänomen wiederholt sich auch in den anderen Städten im Norden Russlands. Mächtige Hockeyschläger Graphen in den Daten der letzten 50 Jahre. Wenn man sich jedoch die Daten der ländlichen Gegenden ansieht, ändert sich das Bild.


Dzardzan – warme 30er, warm heute, kälter in der Zwischenzeit.


Ostrov Dikson im arktischen Meer – keine signifikante Erwärmung, mit den 30ern deutlich wärmer als heute.


Dudinka – das gleiche Muster.


Das nördliche Finnland ähnelt Sibirien.

Profeesor Antero Järvinen ist der Direktor der Kilpisjärvi Forschungsstation in Lappland. Er untersucht die Natur in der Arktis seit 40 Jahren. Neben Langzeit-Serien der Temperatur hat er das Knospen von Birken und auch den Nestbau der Trauerschnäpper beobachtet.
“Diese Indikatoren sprechen kaum für überhaupt eine Erwärmung, und genauso wenig gibt es eine Abkühlung. Das ist mehr oder weniger der Status Quo, den wir seit mehreren Dekaden haben. Wir können nichts dramatisches feststellen, und das Gleiche gilt auch für zum Beispiel Spitzbergen. Auch dort passiert nichts großartiges.“


An den Wetterstationen im Norden der russischen Wildnis wiederholt sich das Muster, dass man auch in Sodankylä, Lappland, beobachten kann. Warme 30er, danach eine Abkühlung, und ab den 70ern wieder eine Erwärmung. Allerdings nicht so stark wie im Jahrzehnt vor dem 2. Weltkrieg. Nur haben die urbanen Wärmeinseln die Temperaturmessungen für Russland stark verfälscht. Gleiches gilt für China.
Wie haben Professor Jones und die CRU dies bei der Berechnung der Globaltemperatur berücksichtigt? Fast überhaupt nicht. Unter den bekannt gewordenen Nachrichten ist eine E-Mail von Jones, wo er erklärt, dass die einzige Korrektur für den Wärmeinsel-Effekt das völlige Entfernen von Stationen ist, die diesen Effekt zeigen(1184779319.txt). Nach Jones´ E-Mail wurden von der CRU nur 38 von vielleicht 2700 Stationen entfernt. 31 davon waren in Nordamerika und 7 in Europa.
Die Stationsliste der CRU enthält nach wie vor mehr als 200 nicht korrigierte Stationen aus Russland, darunter sämtliche großen Industriezentren.
Ahlbeck:
“Das bedeutet, dass Jones´ globale Kurve fehlerhaft ist. Sie stellt nicht das Klima dar, sondern irgendetwas anderes.”

Selbst das IPCC hat zugegeben, dass ein großer Teil der 0,7 °C Erwärmung im letzten Jahrhundert durch natürliche Variabilität verursacht wurde. Menschliche Aktivität hat vielleicht einen Beitrag zur Hälfte dessen geleistet, aber beachtet man den Effekt der urbanen Wärmeinseln, beträgt der Anteil der Treibhausgase vielleicht nur wenige Zehntel.

Kosmische Einflüsse auf das Klima

Das CO2 selbst hat vielleicht einen so kleinen Einfluss auf die Erwärmung, dass dieser in der Fehlerstreuung der Messung komplett verschwindet. Es ist gut möglich, dass der Klimawandel vom Einfluss der Sonne dominiert wird, auch wenn die direkte Einstrahlung nicht ausreicht um solche Veränderungen hervorzurufen.
Professor Mursula:
“Es wird interessant sein zu sehen, ob Klimaeffekte durch den Sonnenwind sich als die einflussreichsten Antreiber des Klimas erweisen. Es wäre eine große Überraschung für die Klimawissenschaft, aber es ist sehr gut möglich. Und in diesem Fall wäre der Klimawandel auf entscheidende Weise von der Sonne beeinflusst."

Die abschließende Wahrheit über ein Datenleck bei der CRU oder einen Datendiebstahl kommt vielleicht bis zum nächsten Frühling ans Licht, wenn die unabhängige Untersuchung abgeschlossen ist. Der Fall wird auch von der Polizei von Norfolk bearbeitet. Ein Teil der Affäre ist auch herauszufinden, ob Professor Jones gegen das Gesetz zur Offenlegung der Daten verstoßen hat. Jones hat sich von Seinem Posten zurückgezogen, solange die Ergebnisse der Untersuchungen offen sind.
In den USA hat der Klimagate-Skandal dazu geführt, dass eine interne Untersuchung an der Penn State University herausfinden soll, was deren weltbekannter Professor Michael Mann mit der Affäre zu tun hat. Der Skandal könnte eventuell einen Beitrag leisten für Offenheit in der Klimawissenschaft und deren angeschlagenen Ruf wiederherstellen.
Mursula:
“Nun, wir sollten abwarten und sehen, was bei der Untersuchung herauskommt und welche Konsequenzen dies für das IPCC hat. Ich bin sehr der Meinung, dass der Bereich des IPCC ausgeweitet werden sollte, indem Spezialisten in der Weltraumforschung hinzugezogen werden. Es ist entscheidend, dass wir alle möglichen Mechanismen untersuchen, wie die Sonne und der Weltraum im allgemeinen Einfluss auf das Klima nehmen können. Die Interaktion zwischen neutralen und geladenen Teilchen in der Atmosphäre ist sehr wichtig, und wie bereits gesagt, könnten sie einen großen Einfluss auf den Klimawandel haben.“Phil

Jones (1120593115.txt):
„Wenn überhaupt, so möchte ich sehen, dass der Klimawandel passiert, damit sich herausstellt, dass die Wissenschaft Recht hatte, unabhängig von den Konsequenzen.”

„If anything, I would like to see the climate change happen, so the science could be proved right, regardless of the consequences. This isn’t being political, it is being selfish.“

Links:

Homepage des Senders YLE mit einem englischen Transkript

Die Daten aus FOI2009.zip

Climategate – Das Musikvideo! Hide the Decline

Die Übersetzung besorgte Rudolf Kipp hier auf Science-Sceptical 

ÄHNLICHE BEITRÄGE (BETA):




ClimateGate Update 15: Es ist an der Zeit die gefälschte CO2 Wissenschaft zu überarbeiten.

Die Klimawissenschaft ist eine ergiebige Einnahmequelle mit Nobelpreisen, einem Oscar, Milliarden Forschungsgeldern, massiven Steuereinnahmen und Wohlstand für die Ausbeuter.

Das Andauern dieser Aktivitäten bestätigt teilweise die Behauptung, die offen gelegten Dateien aus der Climatic Research Unit (CRU) der University of East Anglia (UEA) hätten eine geringe Bedeutung.

Wie ich schon früher geschrieben habe lenkt der Skandal der CRU (Climategate) vom tatsächlichen Skandal ab, nämlich der Behauptung, CO2 ruft eine Erwärmung und einen Klimawandel hervor.

Climategate ist der größte inszenierte Betrug in der Wissenschaftsgeschichte, jedoch die Behauptungen um CO2 sind die größte Täuschung. Climategate verhindert, daß die Leute, die wissen was wirklich geht als Verschwörungstheoretiker in Vergessenheit geraten.

Jeder spricht fälschlicherweise von Kohlenstoff und meint CO2, was ursprünglich der Kern der Behauptung war, die industriellen Aktivitäten des Menschen verursachen Global Warming. Es wird angenommen CO2 sei ein Treibhausgas, das die Wärmeabfuhr in den Weltraum behindere. Wenn CO2 zunimmt erhöht sich die Temperatur und dies soll durch unsere Industrie geschehen. Das wurde schnell ein Faktum und Wissenschaftler, die das bezweifelten lies man links liegen. Das geschah meist durch gehässige Angriffe derjenigen, die Datenreihen fälschten, historische Daten umdefinierten, verzerrten und die Wissenschaft und Statistik missbrauchten. Dies zeigen die an die Öffentlichkeit gelangten CRU Emails. Nun arbeiten sie und ihre Unterstützer und Profiteure daran, den Betrug aufrecht zu erhalten.

Selektierte Daten und falsche Befunde

Zwar wurden Teile dieses Artikels schon 2008 veröffentlicht, durch die CRU Enthülllungen jedoch drängt sich eine Neubewertung auf. Alles was das IPCC an Material zusammengetragen hat diente nur dazu sein Ziel zu erreichen. Man erinnere sich an die CRU Email-Kommentare, um wissenschaftliche Artikel auszuschließen oder zu verwenden die genehm waren.

Einige Behauptungen , die heute als falsch erwiesen sind; waren

  • * Ein Ansteigen des CO2 geschieht vor einem Temperaturanstieg;
  • * Die gegenwärtigen atmosphärischen CO2 Konzentrationen sind die höchsten der jüngeren Geschichte;
  • * und vorindustrielle CO2 Levels sind ca. 100 ppm niedriger als die gegenwärtigen 385 ppm.

Die letzte Behauptung ist die Grundlage dessen, daß der Mensch die Erwärmung verursacht und das Klima sich durch ein Ansteigen des atmosphärischen CO2 verändert.

In einem Artikel das dem Ausschuß für Handel, Wissenschaft und Transport des US Senats zugeleitet wurde erklärt Professor Zbigniew Jaworowski: “Die Grundlage der meisten Schlußfolgerungen des IPCC bezüglich der Folgen des menschengemachten Klimawandels ist die Annahme eines niedrigen CO2 Levels in der vorindustriellen Atmosphäre. Diese Annahme, basierend auf glaziologischen Studien ist falsch.” Dies gewinnt mehr an Bedeutung, wenn man weiß, daß Tom Wigley, der der Kopf der CRU-Clique ist, die Zahl 280 ppm 1983 in die wissenschaftliche Gemeinde mit einem Artikel eingeführt hat mit dem Titel:, “Die vorindustrielle Kohlenstoffdioxid Konzentration.” (Climatic Change 5, 315-320). Grundlage seiner Arbeit waren Studien von G. S. Callendar (1938) mit tausenden direkter Messungen des CO2 der Atmosphäre seit 1812. Callendar verwarf die meisten Daten einschließlich 69% der Daten des 19. Jahrhunderts und wählte nur solche aus, die die 280 ppm als vorindustrielle Konzentration bestätigten. Nachfolgend eine Grafik mit den von Callendar ausgewählten Daten eingekreist.

Abbildung 1: Darstellung der CO2 Gehalte der Luft im 19. Jahrhundert
Quelle: Jaworowski, NZCPR Research, 20. September 2008, S.20

Die Auswahl änderte den Trendverlauf von abfallend zu ansteigend. Jaworowski bemerkt dazu, “Die Vorstellung einer niedrigen vorindustriellen CO2- Konzentration der Luft basierend auf derart unsicheren Erkenntnissen wurde zum allgemein anerkannten Heiligen Gral der Klimaerwärmungsmodelle. Die Modellierer ignorierten die Belege aus direkten Messungen der Luft, die eine mittlere Konzentration von 335 ppm für das 19. Jahrhundert ergaben.”

Eisbohrkerne liefern die historischen Daten und Mauna Loa die gegenwärtigen. Beide sind rigoros geglättet und zeigen so keine Variabilität. Dies hat man deshalb gemacht, um an die vorindustriellen Werte anzuknüpfen. Ernst Beck bestätigte in einem Artikel 2008 in Energy and Environment Jaworowskis Erkenntnisse und bestätigte die Richtigkeit der CO2- Daten des 19. Jahrhunderts. Beck schreibt als vernichtende Schlußfolgerung, “Die moderne Treibhausgashypothese basiert auf der Arbeit von G.S. Callendar und C.D. Keeling, die den Ansichten von S. Arrhenius folgten, so hat es das IPCC veröffentlicht. Aufgrund der Begutachtung der verfügbaren Literatur erhebt sich die Frage ob diese Autoren nicht die eine große Zahl an Fachartikeln und historischen CO2-Bestimmungen systematisch ignoriert haben, weil sie nicht zu ihrer Hypothese passten? Offensichtlich benutzten sie nur wenige ausgewählte Werte der alten Literatur die ausnahmslos mit ihrer Hypothese des CO2 Anstiegs durch Verbrennung von fossilen Treibstoffen übereinstimmten.”

Die vorindustriellen CO2 Level waren um 50 ppm höher als in den IPCC Computermodellen verwendet. Ebenfalls nehmen die Modelle irrtümlich eine gleichmäßige Verteilung in der Luft  an und lassen praktisch keine Variabilität von Jahr zu Jahr zu. Beck fand dazu heraus: “Seit 1812 hat die CO2 Konzentration in der Luft der Nordhemisphäre stark geschwankt mit hohen Konzentrationen um 1825, 1857 and 194, letzteres Maximum mit über 400 ppm.” Die nachfolgende Grafik von Beck vergleicht den Verlauf im 19. Jahrhundert mit dem aus Eisbohrkernen und Mauna Loa.

 

Abbildung 2: Becks gemischte Abbildung.
Quelle: Energy and Environment, September 2008.

Die Unterschiede in der Variabilität der Daten des 19. Jahrhunderts im Vergleich zu den Eisbohrkernen und Mauna Loa sind offensichtlich. Die Eisbohrkerndaten zeigen eine 70 jährige Glättung, was einen großen Teil der Information "wegglättet". Die Mauna Loa Kurve umfasst zum Beispiel 50 Jahre (1958 – 2009), nicht genug für eine einzige Station. Die Glättung höherer Werte macht den Datenverlust noch größer. Bei allen Verläufen ändert sich die Temperatur ca. 5 Jahre vor der CO2-Änderung.

Bei Mauna Loa hat man Daten weggelassen, obwohl eine tägliche Variation von bis zu 600 ppm vorliegt. Beck erklärt wie Charles Keeling die Mauna Loa Werte durch die niedrigsten Tageswerte am Nachmittag begründete. Er ignorierte natürliche CO2-Quellen, eine Vorgehensweise die sich bis heute fortsetzt. Beck vermutet, daß Keeling sich entschloß eine Station auf dem 4000 m hohen Vulkan Mauna Loa zu errichten, um diese niedrigen natürlichen Quellen zu umgehen. Er schreibt: “Mauna Loa repräsentiert nicht den typischen CO2-Gehalt der Luft an unterschiedlichen Orten der Welt sondern ist nur typisch für diesen Vulkan in ozeanischer Umgebung auf 4000 m Höhe an diesem Breitengrad.” (Beck, 2008, “50 Years of Continuous Measurement of CO2 on Mauna Loa” Energy and Environment, Vol. 19, No.7.) Keelings Sohn  führt die Arbeit seines Vaters  auf Mauna Loa fort und wie Beck schreibt, “hat das globale Monopol der Eichung aller CO2 Messungen.” Da Keeling Mitautor der IPCC Berichte war, akzeptierte man Mauna Loa ohne Nachfragen.

Die Eisbohrkerndaten

Jaworowski schätzt, daß die CO2 Werte der Eisbohrkerne mindestens um 20 % zu niedrig sind, was sich aus den CO2 Gehalten der Luft aus den 600 Millionen Jahre alten geologischen Erkenntnissen ergibt.

Abbildung 3: CO2 – und Temperaturverlauf in 600 Millionen Jahren. Der aktuelle Wert 385 ppm rechts in der Abbildung 3 ist der niedrigste der gesamten Datenreihe. Nur in einer Periode zwischen 315 und 270 Millionen Jahre war er ähnlich.

Weitere Hinweise auf eine statistische Glättung  und künstlich niedrige Werte kommen aus der Stomataforschung. Stomata sind kleine Öffnungen auf der Blattunterseite von Pflanzen, die sich mit dem Gehalt des CO2 der Luft verändern. Ein Vergleich der Stomatadaten mit den Eisbohrkernen über einen Zeitraum von 2000 Jahren verdeutlicht dies.

 

Abbildung 4: CO2 Gehalte aus Eisbohrkernen verglichen mit Stomata über 2000 Jahre.

Die Stomatadaten rechts zeigen einen höheren Verlauf und eine Variabilität als die intensiv gegelätteten Eisbohrkernkonzentrationen links. Die Stomatadaten sind ähnlich den Messungen die Jaworowski und Beck im 19. Jahrhundert auflisten. Eine dänische Stomata-Datenreihe zeigt vor 9400 Jahren 333 ppm und 348 ppm vor 9600 Jahren.

Die EPA (Umweltbehörde der USA) bezeichnet CO2 als eine giftige Substanz und ein Umweltgift. Die Regierungen bereiten Gesetze zur Kohlenstoffbesteuerung vor mit drakonischen Einschränkungen für die Volkswirtschaften, die diese wegen eines nicht existierenden Problems lähmen. Trotz falscher Prognosen, fehlerhafter Annahmen und falscher Daten wird eine irrsinnige Politik weitergeführt. Climategate hat das Ausmaß der Korruption offen gelegt, so daß mehr Menschen die Vergehen und Irrtümer verstehen, die sonst nur Experten genau kennen und deren man sie verdächtigt. Dabei ist wichtig zu erkennen, dass man sie nicht als Verschwörungsthoretiker ablehnt. Die Glaubwürdigkeit ist dahin aber die politische Kontrolle und der Wahnsinn dauert an – mindenstens noch ein Weilchen.

Von Dr. Tim Ball Copyright © 2010 CFP; Den Originalartikel finden Sie hier
Übersetzung ins Deutsche: Ernst-Georg Beck Januar 2010

Dr. Tim Ball ist ein anerkannter Umweltexperte und ehemaliger Professor für Klimatologie an der University of Winnipeg. Dr. Ball hat umfassender Erfahrung in Klimatologie und anderen Bereichen als Berater der International Climate Science Coalition, Friends of Science und der Frontier Centre for Public Policy.”




EIKE redet Klartext: Klima-Talkrunde im mdr!

aktueller Einschub: Lesen Sie hierzu auch Peter Hellers Essay zu diesen TV Sendungen und den unangreifbaren Rückzugsgebiet der Alarmisten: Dem Vorsorgeprinzip.

…..Damit aber das Ganze nicht zu deutlich gegen das Mantra von der anthropogenen Erwärmung lief, bat der mdr zwei ausgewiesene Alarmisten als Gäste ins Studio. Zwei gegen einen, ist immer noch die sichere Strategie, wenn man befürchten muss, weil man die schwächeren Argumente hat, gegen den einzelnen im Rededuell zu unterliegen. Außerdem dient es der offensichtlich erforderlichen politischen Korrektheit.

Nur, was waren das für Vertreter der Kirche von der globalen Erwärmung? Da wurde der Rostocker Professor für Umweltrecht und Rechtsphilosophie an der Universität Rostock und Leiter der Forschungsgruppe Nachhaltigkeit und Klimapolitik Felix Ekardt als Studiogast hinzugebeten, sowie der Meteorologe und Wettermoderator Sven Plöger von Meteomedia.

Ekardt, nach eigenem Bekunden Jurist, hatte als Rechtsphilosoph zwar keinerlei Kenntnis von den naturwissenschaftlichen Fakten zum Klima, trumpfte dafür aber umso lauter mit angelesenem Halbwissen über Klima-Konsens und Technik sowie Verfügbarkeit der sog. Erneuerbaren auf. Dafür kannte er die Verzichtsforderungen von Greenpeace und BUND umso besser und drohte unterschwellig mit einer Ökodiktatur, wenn der unmündige Bürger nicht seinen strengen Vorgaben folgen wolle. Das nannte er dann Politikberatung. Der Moderator ließ ihn seine Parolen schwafeln.

Plöger – immerhin Wetterfrosch bei der ARD und studierter Meteorologe – brachte es zwar selten über sich gut alte Höflichkeitsregeln zu beachten und sein Gegenüber ausreden zu lassen. Allerdings verwechselte er wenigstens nicht Wetter mit Klima, auch wenn er dem lebensnotwendigen Gas CO2 den Mantel eines grau, schwarzen Klima-Giftes umhängen wollte. Bei seinem pausenlosen Reden hätte er allerdings – dank seines ausgeatmeten CO2 – bald in einer schwarzen Wolke gestanden und wäre nicht mehr zu erkennen gewesen. So war es auch für ihn besser dass CO2 nicht nur farblos ist, sondern dazu auch noch ungiftig und chemisch fast inaktiv. Und von Klimawirksamkeit keine Rede sein kann.

Die Disziplin des pausenlosen Ins-Wort Fallens beherrschten beide Vertreter der Kirche der Klimaerwärmung allerdings perfekt. Und der Moderator Dr. Menzel schaute wohlgefällig zu und unterbrach seinerseits den Physiker Lüdecke bei jeder etwas ausführlicheren Antwort.

Zur Belustigung trug dann die Interview-Schalte zu einem Außenposten der Jenaer auf einer weit nach Norden ragenden Halbinsel der Antarktis bei. Mitten im antarktischen Sommer beklagte der interviewte Forscher einen Rückgang des Eises dort. Na sowas!

Besonders heftig wurden beide Alarmisten, der Vegetarier Ekardt und der Schnellredner Plöger, bei dem von beiden immer wieder vorgetragenen, uneingeschränkten Lob der Energiewende, die unabdingbar sei. Auch die dazu von beiden eingeworfenen Behauptungen zeichneten sich erneut durch keinerlei Sachkenntnis getrübt aus.

Trotzdem: Die Sendung war ein Erfolg. Lüdecke behauptete sich wacker und hatte die Sympathien der Zuschauer auf seiner Seite.

Sicherlich kann man sich jetzt über die Unausgewogenheit der Moderation beschweren, wichtiger war jedoch, dass die Klimarealisten ein Forum haten, in dem sie Ihre Position darstellen konnten. Und ohne etwas schönreden zu wollen, dass das öffentlich rechtliche Fernsehen diese Veranstaltung wie gestern sendet, stellt vom Trend her eine positive Entwicklung dar.

Michael Limburg EIKE

Die einen Tag später ausgestrahlten Sendung von ntv finden Sie hier und die entlarvende Aussage zum Kneifen der "Klimapäpste" Schellnhuber und Co finden Sie hier. Den TV-Hinweis mit Kommentar zur n-TV-Sendung hier.

Zum Herunterladen klicken sie

n-tv (201 MB)

und mdr (223 MB)




ClimateGate Update 14: Extremismus-Sondereinheit ermittelt gegen Klima-Verräter

Waren es Hacker? Oder war es ein Insider? Oder ging die Email-Chose aus Versehen oder Schlamperei nach draußen (wofür es inzwischen durchaus Anhaltspunkte gibt). Den Stein ins Rollen brachte jedenfalls, wie so oft, ein kleiner Blog mit Namen The Air Vent. Da sind wir aber gespannt, was die Extremismus-Fahndung bringt (auf jeden Fall schon mal Befugnisse, die “normale” Fahnder nicht haben). Die Untersuchungen gegen Phil Jones vom CRU und Michael Mann, den Erfinder der Hockeystickkurve, werden von Universitätsgremien durchgeführt. Mal sehen wie unabhängig der Geist dieser Untersuchungen ist, oder ob ein für die Poilitik genehmer Persilschein herauskommt. Es gibt allerdings ein kleines Problem: Amerikanische Anwälte und professionelle Betrugsfahnder haben Witterung aufgenommen – und diese Spezies möchte man nicht unbedingt am Hals haben. 

Mit Dank an Dirk Maxeiner bei ACHGUT




Klima, Vorsicht und Vorsorge! Zum überstrapazierten Allerweltswort: Vorsorgeprinzip.

Das Wesen des Vorsorge-Prinzips wird weitgehend missverstanden. Fangen wir mit der Entstehung des Vorsorge-Prinzips an (es wird in der Folge mit VP abgekürzt), wie es von der Umwelterklärung der UN (1992) stammt. Hier die Originalversion:

Zum Schutz der Umwelt soll weitgehend ein Vorsorgeansatz gewählt werden, so wie es im Vermögen der Staaten steht. Bei drohender Gefahr ernsthaften oder irreversiblen Schadens soll der Mangel voller wissenschaftlicher Gewissheit nicht als Ausrede dienen, kosteneffiziente Maßnahmen zur Verhinderung der Umweltzerstörung zu verschieben.

Das ist eine ausgezeichnete Formulierung des VP, da es von solchen Angelegenheiten abgrenzt, wie dem Mitführen von Regenschirmen, der Verweigerung von Bankkrediten, der Zustimmung zum Kyoto-Protokoll, der Invasion Afghanistans oder dem Gebrauch von Sitzgurten.

Die drei Schlüsselkriterien des VP (Hervorhebung durch den Verfasser) sind:

1) Schwerer oder irreversibler Schaden droht. 

2) Keine wissenschaftliche Gewissheit (in anderen Worten, es existieren teilweise wissenschaftlichen Beweise aber keine sicheren).

3) Die Verfügbarkeit kosteneffizienter Maßnahmen, von denen wir wissen, dass sie das Problem beheben werden.

Hier sind ein paar Beispiele, was aus diesen Schlüsselkriterien des VP in der Praxis gemacht wird.

Wir haben die gesicherte wissenschaftliche Gewißheit, dass Sitzgurte Leben retten und dass die Benutzung von Regenschirmen uns trocken hält. Sie zu benutzen ist daher kein Beispiel für das VP, es ist einfach vernünftiges Handeln auf der Basis von Grundsätzen die wir für wissenschaftlich gesichert halten. 

Für die Frage der Invasion von Afghanistan gibt es keine Grundsätze oder Beweise, also können wir das VP hier nicht anwenden.

Bankkredite sind weder ernsthafte Gefahren noch irreversibel noch werden sie teilweise wissenschaftlich verstanden, also eignen sie sich nicht für das VP. 

Das Kyoto-Protokoll ist lächerlich weit von einer Kosteneffizienz entfernt. Das VP kann als eine Art von Versicherungspolice verstanden werden. Niemand würde $200.000 für eine Versicherungspolice zahlen, wenn die Leistung im Schadensfalle nur $20 betragen würde. Aber derart ist das Kosten/Leistungs-Verhältnis, das sich aus dem Kyoto-Protokoll ergibt. Sogar seine Befürworter sagen, dass es die Temperatur nur um ein Zehntel Grad in 50 Jahren vermindern würde, falls die beteiligten Staaten ihre Ziele erfüllen würden … kein gutes Risiko/Schadensersatzhältnis.

Schließlich betrachte man CO2. Man behauptet, dass wir es in 50 Jahren bedauern würden, wenn wir nicht jetzt den CO2-Ausstoß stoppen würden. Wir wissen aber nicht, ob CO2 überhaupt einen Schaden in fünfzig Jahren anrichten wird, und noch weniger, ob es ernsthaften oder irreversiblen Schaden stiftet. Wir haben nur wenig Belege, dass CO2 „gefährliche“ Erwärmung verursacht, anders als die phantasiereichen Prognosen aus ungetesteten, nicht verifizierten, unvalidierten Klima-Modellen lauten, die überhaupt keiner Software-Qualitätssicherung unterworfen wurden. Wir haben keine Beweise, ob eine wärmere Welt eine schlechtere Welt wäre, es könnte ja auch eine bessere Welt sein. Die Kosten der vorgeschlagenen Abhilfen werden in der Größenordnung von einer Trillion Dollar pro Jahr geschätzt … kaum kosteneffizient nach keiner Analyse. Auch haben wir gar keine Gewissheit, ob die vorgeschlagenen Abhilfen das vorhergesehene Problem verhindern könnten. Also erfüllt die CO2-Verminderung keines der drei Kriterien des VP.

Auf der anderen Seite der Gleichung ist ein gutes Beispiel für die Anwendung des VP das regionale Artensterben. Unser wissenschaftliches Verständnis ist ziemlich gut, dass wir die Dinge schlimm durcheinander bringen, wenn wir ein an der Spitze der Nahrungskette stehendes Raubtier aus einem Ökosystem entfernen. Wenn die Berglöwen getötet werden, gerät das Rotwild außer Kontrolle, die Grünflächen werden abgegrast,  der Boden erodiert, Insektenpopulationen kommen aus dem Gleichgewicht, und so geht immer weiter nach unten in der Kette.

Wenn wir aber ein neues Ökosystem betrachten, das noch nicht wissenschaftlich erforscht worden ist, haben wir keine wissenschaftliche Gewissheit, dass die Entfernung des Raubtiers von der Spitze tatsächlich das Ökosystem ernsthaft oder irreversibel schädigen würde. Wenn es aber eine kosteneffiziente Methode gibt, mit der die Entfernung des Spitzenraubtiers vermieden wird, fordert das VP, dass wir diese Methode anwenden sollten. Das erfüllt die drei Forderungen des VP – die Gefahr ernsthafter oder irreversibler Schäden besteht, wir haben teilweise wissenschaftliche Gewissheit und eine kostenwirksame Lösung existiert. Also sollten wir handeln.

Weil ich diese Ansicht über die Nicht-Anwendbarkeit des VP auf das CO2 habe, werde ich oft beschuldigt, dass ich gar nichts gegen eine möglichen Gefahr tun möchte. Man sagt, ich würde etwas ignorieren, was in der Zukunft Probleme machen könnte. Das ist nicht der Fall. Ich spreche nicht für das Nicht-Handeln. Ich spreche für das Vorgehen zur Abwehr einer möglichen Gefahr, das wir später vielleicht nicht bedauern müssen. 

Die Regel für die Anwendung des „nicht-bedauerlichen“ Vorgehens ist sehr einfach – tue Dinge, die echte, sofortige, kostengünstige, greifbare Vorteile bringen, gleichgültig ob die Gefahr tatsächlich existiert. Auf diese Art wird man sein Vorgehen später nicht bedauern müssen.

Hier sind einige Beispiele von „nicht-bedauerlichen“ Antworten auf die vorhergesagten CO2-Gefahren. In Peru sind die Elendsquartiere an den Hängen oberhalb Lima sehr trocken. Dieses Problem wird vermutlich schlimmer werden, wenn die Welt wärmer wird. Als Antwort auf das Problem installieren die Leute „Nebelnetze“ (http://www.alimon.org/5.htm). Diese Netze fangen das Wasser aus dem Nebel auf und versorgen so die Bewohner mit Frischwasser. In der indischen Region Ladakh gibt es das gleiche Problem, Wassermangel. Dort hat man begonnen, „künstliche Gletscher“ anzulegen. Das sind flache, billige Teiche, wo hinein man das Wasser zur Winterzeit leitet. Das Wasser gefriert und wird dann langsam wieder frei gegeben, wenn der „Gletscher“ im Laufe der nachfolgenden Wachstumsperiode schmilzt.

Dies sind beste Antworten auf eine mögliche Gefahr durch CO2. Sie sind nicht teuer, sie lösen ein echtes Problem heute und nicht erst in einem halben Jahrhundert. Und sie helfen den Armen der Welt.

Die Antworten enthüllen auch, was ich das “schmutzige Geheimnis” der „In-fünfzig Jahren-werden-wir-alle-an-CO2-sterben“ – Meute nenne. Das schmutzige Geheimnis ihrer Prognosen schweren drohenden Unheils ist, dass alle ihre prognostizierten Katastrophen schon heute geschehen.

Alle die unterschiedlichen Arten von klimabezogener Zerstörung in fünfzig Jahren, vor denen die Leute sich sorgen, sind ja schon heute da. Dürren? Haben wir. Überschwemmungen? Gibt es genug. Steigender Meeresspiegel? Prüfen Sie das mal. Insektenübertragene Krankheiten? Welche möchten Sie? Tornados und extreme Stürme? Haben wir immer. Menschen, die verhungern? Wie viele sollen’s denn sein? Alle biblischen Plagen Ägyptens? Möchten Sie das Ungeziefer an den Hals haben?

Denkt nicht an das, was in fünfzig Jahren geschehen wird. Jede nur mögliche Klimakatastrophe ereignet sich auch heute, und das ist schon seit Jahrhunderten so.

Wer sich also wirklich um diese Probleme kümmern will, soll es heute tun. Spenden Sie für Organisationen, die salz-resistente Ernten entwickeln, stecken Sie Geld in die Ausbildung zur Dürre-Vermeidung in Afrika. Unterstützen Sie den Einsatz von mikro-hydroelektrischen Pflanzen zur dörflichen Energieversorgung. Es gibt endlos viele Möglichkeiten.

Auf diese Weise werden die Menschen besser darauf vorbereitet und kenntnisreicher mit den Problemen umgehen, die von den unangenehmen Klimalaunen herrühren, gleichgültig, ob nun die Weltuntergangspropheten Recht oder Unrecht haben mit dem was in fünfzig Jahren passieren wird. CO2 zu bekämpfen ist gigantisch teuer, ist bislang unwirksam gewesen, wird zerstörerisch auf das Leben der Ärmsten wirken und erzeugt keine Sicherheit auf die versprochenen Ergebnisse. Das ist eine sehr schlechte Kombination.

Ich persönlich glaube nicht, dass CO2 die Weltuntergangsszenarien verursacht. Das aber gilt nur für mich. Ich habe mich früher auch schon mal geirrt. Falls Sie sich Sorgen über CO2 machen und es für das Übel halten, sollten Sie sich als Befürworter Ihrer „nicht-bedauernswerten“ Option zeigen. Wenn Sie das tun, können Sie sicher sein, nicht einfach nur Geld mit geringer Erfolgsaussicht in ein bodenloses Loch zu schütten, ganz gleich ob CO2 eine Gefahr darstellt, wie die Leute behaupten, oder nicht. Das ist das richtige Vorsorge-Prinzip.

Gastbeitrag von Willis Eschenbach erschienen am 31.12.09 bei Whatts up with this

Die Übersetzung besorgte dankenswerterweise Helmut Jäger für EIKE