1

4. IKEK München: Donna Laframboise kommt nach München!

Veranstaltungshinweis

IV. Internationale Klima- und Energiekonferenz IKEK München, 25./26. 11. 2011

Das private Europäische Institut für Klima und Energie (EIKE) lädt für das letzte November-Wochenende zu seiner IV. Internationalen Energie- und Klimakon­ferenz ein. Mit Prof. Nir Shaviv (Israel), Prof. Jan Veizer (Kanada, aus Deutschland rausgeekelt) und Prof. Henrik Svensmark (Dänemark, „Svensmark-Effekt“) haben die Veranstalter drei absolute Stars gewinnen können.

Ein weiterer prominenter Referent ist der US-Anwalt und Sachbuchautor Christopher Horner (Competitive Enterprise Institute), der als Beteiligter über die rechtlichen Schritte berichten wird, die gegen die orientierungslose Energiepolitik der Obama-Regierung (Stichwort: Solyndra-Pleite) unternommen werden.

Die Münchener Konferenz wird kurz vor dem UN-Kli­ma­gipfel in Durban stattfinden, wo erneut versucht werden soll, auf der Basis mehrfach widerlegter, aber politisch erwünschter Klima-Modelle doch noch ein neues, bindendes internatio­nales Klimaabkommen („Kyoto II“) auszuhandeln. Dieses Abkommen wäre ein weiterer Sargnagel für die Freiheit.

Weitere Informationen zu den Anmeldemodalitäten finden sich hier

Quelle: Pressetext, EIKE e. V. (Julian Fischer)




Antworten auf Fragen zum Meeresspiegelanstieg!

1.    Wie lange Forschen Sie bereits an diesem Thema?

Das Thema Klimawandel und dessen Ursachen und Folgen beschäftigen mich schon seit vielen Jahren. Allerdings hat sich seit etwa 2007 mein Blickwinkel deutlich verändert. Sie erinnern sich vielleicht, damals wurde der 4. Sachstandsbericht des Weltklimarates (IPCC) publiziert und die Medien waren voll mit allen möglich Weltuntergangsszenarien.

 Ich war zu dem Zeitpunkt noch einigermaßen überzeugt, dass an den Geschichten vom drohenden Weltuntergang durch die Freisetzung von CO2 etwas dran sein müsste. Ich war auch viele Jahre Lang Wähler der Grünen Partei in Deutschland.

Der Medienrummel im Jahr 2007 brachte mich dazu, mich daran zu erinnern dass ich als Chemiker, der sich einige Jahre mit der Forschung im Bereich CO2-Spektroskopie beschäftigt hatte, einmal einen genaueren Blick auf die Wissenschaft zur Erderwärmung werfen sollte.

Nun betreibe ich selbst keine Forschungsarbeit auf diesem Gebiet und würde meine Tätigkeit eher als Journalistisch bezeichnen. Allerdings liegt mein Interesse darin, Forschungsergebnisse auf ihre Konsistenz hin zu überprüfen. Ich habe schließlich eine wissenschaftliche Ausbildung genossen und einige Jahre selbst aktiv in der Forschung gearbeitet. Der kritische Blick den man dabei auf Forschungsergebnisse entwickelt bleibt einem fürs Leben.

Der globale Meeresspiegelanstieg nach Satellitenmessungen

Um es kurz auf dem Punkt zu bringen: Die Wissenschaft hinter den Aussagen eines uns bevorstehenden dramatischen Klimawandels hat sich als deutlich weniger eindeutig erwiesen, als es die Pressemeldungen und auch die Aussagen vieler Klimawissenschaftler vermuten ließen. Wenn man genauer hinschaut stellt sich heraus, dass die ganzen Untergangs-Szenarien nicht auf Daten aus der realen Welt beruhen, sondern lediglich in Computermodellen stattfinden.

Dies wird gerade bei dem Punkt am deutlichsten, welcher gerne als das Schreckgespenst bei den Folgen der globalen Erwärmung in den Mittelpunkt gerückt wird – dem globalen Meeresspiegelanstieg. Wenn man nämlich etwas genauer in die Daten der weltweit verfügbaren Meeresspiegel-Pegelmessungen (hier als Plugin für Google Earth) schaut, oder die Ergebnisse von Satellitenmessungen ansieht, dann erkennt man den oft propagierten beschleunigten Anstieg der Meeresspiegel gerade nicht. Ganz im Gegenteil, seit 2005 nimmt die Geschwindigkeit, mit der der Meeresspiegel steigt sogar ab.

2.    Was ist Ihre Motivation und Ihr Ziel dahinter?

 Es war die Neugier, etwas mehr über die wirkliche Datenlage zu erfahren. Ich wollte nicht darauf angewiesen sein, meine Informationen nur aus zweiter oder dritter Hand zu beziehen. Ich wollte mir meine eigene Meinung bilden. Die österreichische Schriftstellerin Marie von Ebner Eschenbach hat das einmal ganz treffend auf auf den Punkt gebracht: „Wer nichts weiß, muss alles glauben.“ Oder wie es der deutsche Physiker und Kabarettist Vince Ebert formuliert: „Denken Sie selbst, sonst tun es andere für Sie.“

3.    Wie sind Sie zu diesem Forschungsbereich gekommen?

 Wie gesagt, ich bin selbst kein Forscher in dem Sinne, dass ich selber Daten aufnehme und auswerte. Ich habe einige Jahre in der Forschung gearbeitet und bin daher ganz gut in der Lage Forschungsergebnisse auszuwerten und zu beurteilen. Und das mache ich bei allen Themen die mich interessieren.

4.    Wohin werden Ihre Resultate weitergeleitet?

Ich publiziere meine Arbeiten an verschiedenen Stellen. Das ist zum einen der von mir gegründete und in Zusammenarbeit mit anderen Autoren, darunter einigen Wissenschaftlern und Ingenieuren, betriebene Science Skeptical Blog. Außerdem publiziere ich regelmäßig Texte in bei Readers Edition, einer Plattform für Bürgerjournalismus, und im Debattenmagazin NOVO Argumente, dass als gedruckte Zeitschrift erscheint und dessen Inhalte teilweise auch im Internet verfügbar sind.

Ich mag es besonders, dass man sich dort einer öffentlichen Diskussion stellen muss. Das verlangt, dass man sich intensiv mit der Materie auseinandersetzt und nur Behauptungen aufstellt, die auch einer Überprüfung durch andere Experten standhält.

5.    Mit welchen Methoden und Mitteln arbeiten Sie? Alleine oder in einem Team?

Ich arbeite zumeist mit Hilfe von Daten die frei im Internet verfügbar sind (hier eine kleine Sammlung). Dabei überprüfe ich statistische Auswertungen in Forschungsarbeiten oder setzte mich kritisch mit wissenschaftlichen Publikationen oder auch mit Pressemitteilungen von Forschungsinstituten, aber auch mit Artikeln die in den Medien wie etwa dem Spiegel oder Rundfunkberichten auseinander. Ich stehe dabei oft in Kontakt mit anderen Autoren, Ingenieuren und Wissenschaftlern. Das stellt sicher, dass man keine einseitige Sicht der Dinge bekommt und erhöht somit die Qualität der eigenen Arbeit. Ich nehme auch an wissenschaftlichen Konferenzen teil, sowohl von Forschern die von einem starken Einfluss des Menschen auf das Klima überzeugt sind, als auch an solchen von Wissenschaftlern, die eine andere Meinung vertreten.

6.    Wie sicher sind die Resultate?

Ich halte mich bei meinen Arbeiten ausschließlich an Messergebnisse aus der realen Welt. Also Daten zur Temperaturentwicklung, zur Wolkenbedeckung oder zum Anstieg des Meeresspiegels. Viele Klimaforscher verlassen sich heute bei Ihren Projektionen in denen sie das Klima und damit auch den Meeresspiegelanstieg für die Zukunft vorhersagen möchten auf komplexe Computermodelle. Ich halte dieses Vorgehen für problematisch, weil man weder die Einflussgrößen hierfür bislang hinreichend verstanden hat, noch weiß, wie sich bestimmte Parameter in der Zukunft verändern werden. Der Weltklimarat (IPCC) hat das in seinem 3. Sachstandsbericht (TAR, 2001, Kapitel 14, Seite 771) auch noch sehr offen zugegeben (allerdings eher im „Kleingedruckten“. Unsere Politiker bekamen diese Aussage in der „Summary for Policy Makers“ nicht zu Gesicht.):

„The climate system is a coupled non-linear chaotic system, and therefore the long-term prediction of future climate states is not possible.“

„Das Klima-System ist ein gekoppeltes, nichtlineares chaotisches System; dadurch ist eine langfristige Voraussage des Klimas in der Zukunft nicht möglich.“

Im vierten Sachstandsbericht (AR4) fehlt dieser Hinweis. Obwohl sich an dieser grundlegenden Tatsache nichts geändert hat.

Grundsätzlich muss man anmerken, dass wissenschaftliche Ergebnisse immer nur eine Momentaufnahme darstellen können. Als Wissenschaftler muss man bereit sein, sich bei neuen Ergebnissen auch von liebgewonnenen Erkenntnissen zu verabschieden. Man muss bereit sein bei veränderter Faktenlage auch seine Meinung zu ändern. Man muss sein Leben lang skeptisch bleiben. Eine Geisteshaltung, die jeder denkende Mensch sein Leben lang bewahren sollte.

7.    Was verursacht eine Meeresspiegelansteigung? (eventuell andere Gründe als Eis, welches schmilzt)

Ursachen und Ablauf der postglazialen Landhebung

Für einen Meeresspiegelanstieg gibt es verschieden Ursachen. Ein Hauptgrund dabei ist in der Tat die wechselnde Eisbedeckung der Kontinente. So lag der globale Meeresspiegel am Ende der letzten Eiszeit, bis vor ungefähr 10.000 Jahren, 120 Meter unter dem heutigen Niveau. Als dann die großen Eispanzer über Europa, Asien und Nordamerika geschmolzen sind, führte das zu einem Anstieg der Meeresspiegel. Die Auswirkungen davon erleben wir noch heute. Das führt unter anderem zu der etwas paradox anmutenden Situation, dass wir an manchen Stellen der Erde auch fallende Meeresspiegel beobachten, wie etwa in Skandinavien oder dem Norden von Großbritannien. Ursache dafür ist, dass die Gletscher der Eiszeit allein durch ihr Gewicht die Erdplatten in den Erdmantel gedrückt haben und diese auch heute noch „auftauchen“ und in eine gewisse „Schaukelbewegung“ geraten sind. Während der Norden der britischen Hauptinsel sich hebt (fallende Meeresspiegel) senkt sich der Südteil (steigende Meeresspiegel). Man nennt diesen Vorgang auchpostglaziale Landhebung.

Ein weiterer Grund, warum Meeresspiegel steigen können, ist die thermische Ausdehnung des Wassers (Bei Erwärmung nimmt das Volumen zu). Seit dem Ende der kleinen Eiszeit (etwa 1500-1850) erleben wir daher einen Meeresspiegelanstieg von 20-30 cm in 100 Jahren. Die Schwankungen der Meeresspiegel in den letzten Jahrhunderten (Abbildung 3 hier), ist nach Ansicht vieler Wissenschaftler zum großen Teil auf diesen Effekt zurückzuführen.

In den letzten Jahren wird der Fokus gerne auf den Rückgang der Eisbedeckung in der Arktis gelegt. Das imarktischen Meer treibende Packeis geht in der Tat seit dem Beginn der präzisen Messung mit Satelliten im Jahr 1978 zurück. Diese Eisschmelze leistet allerdings praktisch keinen Beitrag zur Entwicklung der Meeresspiegel. Dabei sollte man auch anmerken, dass die Eisbedeckung in der Antarktis sich im gleichen Zeitraum vergrößert hat, so dass die globale Eisbedeckung in diesem Zeitraum in etwa konstant geblieben ist. Aber wie gesagt, auf den Meeresspiegel hat dieses Eis so gut wie keine Auswirkung.

Auch die seit dem Ende der kleinen Eiszeit schmelzenden Gletscher in den Alpen oder im Himalaja haben auf der Entwicklung der Meeresspiegel nur einen sehr geringen Einfluss.

8.    Wie schnell kann der Meeresspiegel ansteigen? Und wie viele Meter in welcher Zeit?

In der Erdgeschichte ist der Meeresspiegel immer in Bewegung – aufwärts und abwärts. Auf dem Höhepunkt der letzten

Regressionen und Transgressionen an der südlichen Nordseeküste

Eiszeit (vor ca. 20.000 Jahren) lag der Meeresspiegel um ca. 140 Meter unter dem heutigen Niveau. Seither und bis heute ist er im Wesentlichen angestiegen, allerdings insbesondere in den letzten 3000 Jahren immer wieder unterbrochen von kurzzeitigem Zurückweichen. Der Anstieg in der Zeit zwischen 7000 und 5000 vor Christus lag der Anstieg etwa bei 12,5 Meter in 1000 Jahren. 12.000-10.000 Jahre vor unserer Zeit vermutlich sogar bei 15 Metern in 1000 Jahren.

Diese Entwicklung ist z.B. für die deutsche Nordseeküste anhand von Sedimenten (Torfmoore) und archäologischen Daten wissenschaftlich detailliert untersucht worden (Abbildung 2 und 3 hier). Seit 1600 bis heute ist die Nordsee um 135 cm gestiegen. Das sind im Mittel 34 cm/Jh. Somit liegt der Anstieg des Cuxhavener Pegels von 1900 bis 2000 mit 25 cm eher im unteren Randbereich der naturgegebenen Schwankungen (Abbildung 4 hier).

9.    Welches sind die historischen Hintergründe? (Seit wann beschäftigt man sich damit?)

Das Thema Fluten und steigende Wasserspiegel zieht sich durch die gesamte Menschheitsgeschichte. So ist in der Bibel und auch schon im wesentlich älteren babylonischen Gilgamesch Epos wird von Sintfluten berichtet, welche dort die Gottheiten den Menschen als Strafe schicken. Inwieweit diese Geschichten mit wirklichen historischen Flutereignissen in Zusammenhang stehen ist unter Historikern umstritten.

Der Pegel der Station Cuxhaven wird seit 1843 gemessen

Die am längsten messende Station der PSML-Stations liegt im französischen Brest. Dort wird der Meeresspiegel seit 1807 mit wenigen Unterbrechungen gemessen. Die älteste Messstation in Deutschland liegt in Cuxhaven und liefert seit 1847 ununterbrochen Messwerte.

Eine neue Ära der Messung des globalen Meeresspiegels begann 1992, als mit dem Topex Satelliten erstmals der Meeresspiegel aus dem Weltraum gemessen werden konnte. Seit 2002 werden die Messungen von Jason-1 und Jason-2 unternommen.

Seit 2004 werden solche Daten auch vom Europäischen Envisat Programm gemessen. Die Messdaten kann manhier herunterladen, eine Grafik findet sich hier.

10. Sind eventuell schon Städte wegen des Anstiegs des Meeresspiegels untergegangen, oder Beschädigt worden?

 Soweit ich weiß gibt es keine Belege dafür, dass in historischer Zeit Städte wegen steigender Meeresspiegel verschwunden sind. In der Zeit der stärksten Anstiege (bis ca. 5.000 Jahre vor der heutigen Zeit) gab es auch kaum größere Siedlungen.

In historischem Zeitraum sind durch Sturmfluten immer wieder ganze Landstriche verwüstet worden. So vielen etwa der ersten Marcellusflut am 16. Januar 1219 in Norddeutschland und den Niederlanden etwa 36.000 Menschen zum Opfer. Die sogenannte Grote Mandränke im Januar 1362 hat bis zu 100.000 Opfer an der deutschen und niederländischen Küste gefordert. Solche Ereignisse sind heutzutage aufgrund von Deichbau und anderen Küstenschutz Maßnahmen zum Glück nicht mehr zu erwarten.

11. Welche Gefahren stellt der Anstieg des Meeresspiegels dar?

Ein Anstieg der Meeresspiegel der Größenordnung die wir heute beobachten (10-30 cm in 100 Jahren) stellt keine Gefahr dar. Beim Deichbau etwa in Deutschland wird diese Entwicklung seit langem berücksichtigt. Auch die vom Weltklimarat im letzten Bericht (AR4) prognostizierten Werte von 18-59 cm in 100 Jahren sind absolut beherrschbar.

Und auch die vielfach beschworenen Gefahren für Korallen-Inseln wie etwa Tuvalu oder die Malediven sind bei näherer Betrachtung so nicht vorhanden. Wie Forschungen in jüngster Zeit gezeigt haben, wachsen Koralleninseln bei steigenden Meeresspiegeln einfach mit. Nur so haben sie schließlich den Anstieg in den letzten Jahrtausenden überstehen können.

12. Was passiert mit den naheliegenden Städten bzw. Gebäuden? (Evtl. Verschiebung des Fundaments, Abtrennung der Stadt, Untergang, …)

Bei dem aus heutiger Sicht zu erwartenden Anstieg und der Möglichkeit sich durch Deichbaumaßnahmen anzupassen – nichts.

13. Was passiert, wenn sich das Gegenteil beweist, also einen sinkenden Meeresspiegel?

Auch hier gilt: Eine dramatische Veränderung ist in näherer und auch in mittelfristiger Zukunft nicht in Sicht. Daher wäre hier jede Aussage unbegründete Spekulation.

Temperaturschwankungen der letzten 415.000 Jahre

Langfristig könnte der Fall etwas anders liegen. DieMessdaten aus Eisbohrkernen in der Antarktis zeigen uns, dass wir uns seit etwa 10.000 Jahren in einem Interglazial (=Zwischeneiszeit) also einer relativ warmen Periode innerhalb einer Eiszeit befinden, die seit etwa 2,7 Millionen Jahren andauert. Was man vor allem aus den Eisbohrkernen ablesen kann ist, dass die Zwischeneiszeit bisher immer wieder in Eiszeiten umgeschlagen sind. Manche Interglaziale dauerten kaum länger als 10.000 Jahre. Es liegt also nahe, dass wir in Zukunft wieder einen Zustand des Klimas bekommen, bei dem große Teile der nördlichen Hemisphäre von riesigen Eisschilden bedeckt sind. Das würde dann wieder mit fallenden Meeresspiegeln verbunden sein. Allerdings wäre bei solch dramatischen Klimaveränderungen ein fallender Meeresspiegel nur eines von vielen Problemen.

14. Denken Sie dass die Menschheit überhaupt noch im Stande ist, gegen die Erderwärmung anzukämpfen?

Die Entwicklung der Globaltemperatur seit 2000 (Quelle: HadCRUT)

Wie oben beschrieben, halte ich die Aussagen mancher Klimaforscher, dass das Klima hauptsächlich durch Schwankungen im CO2-Gehalt in der Atmosphäre bestimmt würde, für wissenschaftlich nicht haltbar. Auch die Tatsache, dass es seit mehr als 10 Jahren nicht mehr wärmer wird nicht gerade für einen sehr großen CO2-Einfuss auf das Klima.

Und auch wenn man an einen großen Einfluss durch CO2 auf das Klima glaubt, sind die bisher getroffenen Maßnahmen (wie etwa das Kyoto-Protokoll) nicht in der Lage die befürchtete Erwärmung maßgeblich zu beeinflussen. Der Dänische Statistikprofessor Björn Lomborg, ein früheres Mitglied bei Greenpeace, hat in seinem Buch „The sceptical Environmentolist“ (auf DeutschApokalypse No!) dargelegt, dass selbst eine vollständige Umsetzung des Kyoto-Protokolls die vom IPCC prognostizierte globale Erwärmung lediglich um 6 Jahre nach hinten verschieben würde (Hier ein Vortrag von Lomborg mit deutschen Untertiteln).

Stattdessen plädiert Lomborg dafür, die gigantischen Summen die bislang zur Vermeidung eines Klimawandels eingesetzt werden (es geht dabei um hunderte Milliarden Euro), für Anpassungsmaßnahmen zu verwenden und vor allem in die Bekämpfung der wirklich akuten heutigen Probleme der Menschheit zu investieren. Um die drängendsten Probleme zu ermitteln hat er eigens den Kopenhagen Konsensus ins Leben gerufen, bei dem versucht wird auf der Basis von ökonomischen Kosten-Nutzen-Analysen Prioritäten zu setzen für die wichtigsten Herausforderungen der Menschheit. Oben auf der Liste landeten dabei die Versorgung von Kindern mit Mikronärstoffen, Impfungen für Kinder, Verbesserung des Schulunterrichts für Mädchen, Unterstützung von Frauen bei Familienplanung und Mutterschaft, oder Malaria-Prävention und Behandlung.

15. Was denken Sie, sind sich die Bewohner solcher Städte der Gefahr bewusst?

Wie dargelegt bin ich der Überzeugung, dass auf absehbare Zeit der Anstieg des Meeres keine Gefahr darstellt. Das sehen die meisten Menschen auf der Welt ähnlich. In Staaten wir Großbritannien oder den USA ist die Zahl derer, die einen menschgemachten Klimawandel für bedrohlich halten, seit Jahren rückläufig.

Und in vielen Städten auf der Welt haben die Menschen tagtäglich mit realen und wesentlich existenzielleren Problemen zu kämpfen. Die Sorge um eine mögliche Veränderung des Klimas in 100 Jahren ist global gesehen beschränkt auf reiche und satte Menschen in westlichen Ländern.

16. Denken Sie das Interesse der Bevölkerung eines gefährdeten Landes/Stadt sind sich der Tatsache bewusster und interessierter als der Bevölkerung eines unbetroffenen Landes/Stadt?

Diese Frage ist in der Form eigentlich nicht zu beantworten. Schließlich gibt es bislang kein Land auf der Welt, dass belegbar unter den Folgen eines menschengemachten Klimawandels zu leiden hätte. Natürlich haben wir es auch heute mit Naturkatastrophen zu tun, denen immer wieder tausende Menschen zum Opfer fallen.

Das war in der Vergangenheit so und wird auch in Zukunft so sein. Auch ist bei diesen Naturkatastrophen, wie etwa Wirbelstürmen oder Überschwemmungen, kein Trend erkennbar, der auf eine Zunahme durch menschliches Handeln schließen ließe. Die Zahl und Energie der Wirbelstürme (Hurrikans, Taifune) etwa ist momentan auf einem der niedrigsten Stände der letzten Jahre.

Lediglich die Berichterstattung in den Medien hat sich deutlich gewandelt. Heute neigen die Nachrichtenschaffenden gerne dazu, jeden starken Sturm, jeden warmen Sommer und teilweise auch strenge Winter auf eine menschengemachte globale Erwärmung zurückzuführen. Das hat aber mit Wissenschaft nichts zu tun. Das ist Propaganda.

17. Wenn Sie der Präsident einer solchen Stadt wären, welche Massnahmen würden Sie ergreifen um Ihre Stadt zu schützen?

(Die hier zuvor gezeigte Karte "Landgewinnung in den Niederlanden" wurde aus urheberrechtlichen Gründen entfernt; Die Redaktion 12.2.16) 

Für einen Präsidenten eines Küsten- oder Inselstaates sollte der Küstenschutz seit je her eine sehr hohe Priorität genießen. Und außerdem kann man durch Landgewinnungsmaßnahmen sogar noch Flächen dazu gewinnen. Die Niederländer machen seit Jahrhunderten sehr erfolgreich vor, wie das geht. Und so sind es auch niederländische Deichbau-Ingenieure, die Bangladesch heute dabei helfen, durch passende Dämme die Fläche des Landes zu vergrößern.

Natürlich könnte man auch den Weg gehen, den etwa der Präsident der Malediven, Mohamed Anni Nasheed, eingeschlagen hat. Dieser nutzt den Rummel um die angeblich dramatisch steigenden Meeresspiegel, um daraus politisches Kapital zu schlagen. Etwa indem er Ausgleichszahlungen von den Industrieländern fordert, oder die florierende Tourismusindustrie in seinem Land mit Sonderabgaben belegen will – vorgeblich um damit irgendwann eine neue Heimat in Indien oder Australien für seine vom Untergang bedrohten Landsleute zu erwerben.

18. Mit welchen Maßnahmen schützen Sie die Umwelt?

Um die Umwelt wirklich sinnvoll zu schützen bedarf es aus meiner Sicht etwas mehr, als was ein einzelner zu bewegen imstande ist. Einfache Maßnahmen, wie etwa keinen Müll in die Landschaft zu werfen oder Gefahrstoffe der richtigen Verwertung zuzuführen. Dass ich nicht unnötig mit dem Auto durch die Gegen fahre, nicht das Licht brennen lasse wenn ich es nicht brauche oder nicht unnötig heize, dazu entscheide ich mich ganz freiwillig, allein schon aus Kostengründen.

Heutzutage werden Umweltschutz und Klimaschutz gerne gleichgestellt. Wobei bei näherem Hinsehen Klimaschutz dem Umweltschutz häufig direkt widerspricht. Windräder sollen gut für das Klima sein und werden mittlerweile auch in Naturschutzgebieten aufgestellt. In Deutschland werden riesige Flächen in Mais-Monokulturen umgewandelt, damit man daraus Biogas gewinnen kann. Die (zwangs-)Beimischung von Biosprit in unseren Kraftstoffen führt dazu, dass Urwälder in Palmölplantagen umgewandelt werden und gleichzeitig die Nahrung für die Ärmsten Menschen knapp und teuer wird. Energiesparlampen belasten bei der Herstellung und der Entsorgung Mensch und Umwelt mit giftigen Quecksilberdämpfen. Diese Liste ließe sich beliebig fortsetzen.

Windkraftanlagen in Nissenshörn in Schleswig-Holstein

Diesen Umstand, dass die Umweltschutzbewegung sich über den Klimaschutz immer weiter von den eigenen Idealen wegbewegt, hat der deutsche Publizist und Autor Michael Miersch sehr treffend auf den Punkt gebracht:

„Das grüne Trauerspiel erinnert an die Geschichte einer anderen Weltanschauung. Kaum war der Sozialismus an der Macht, passierte das exakte Gegenteil dessen, was seine Propheten einst gepredigt hatten: Die Arbeiter wurden immer ärmer, und sie hatten weniger demokratische Rechte. Was den Sozialisten die Arbeiterklasse, ist den Grünen die Umwelt.“

19. Was müsste passieren, damit sich die Bevölkerung der Folgen bewusst wird?

Der Folgen wessen? Der Folgen eines Klimawandels, der bislang nur in den Großrechnern stattfindet und in 100 Jahren in die Katastrophe führen soll, weswegen wir heute immense Summen für wenig wirksamen und teilweise äußerst umweltschädliche Maßnahmen stecken?

Mittel, die uns an anderer Stelle fehlen, damit wir die heute drängenden Probleme, wie den Hunger auf der Welt, eine unzureichende Versorgung mit sauberem Wasser oder eine katastrophale medizinische Versorgung in den Entwicklungsländern lösen können.

Oder fragen Sie was passieren müsste, damit sich die Bevölkerung der Folgen einer sogenannten Umweltschutzpolitik bewusst wird, die über das Vehikel Klimaschutz den Schutz der Umwelt schon lange aus dem Fokus verloren hat? Hier würde ich mir wünschen, dass die Medien, welche sich schließlich als vierte Macht im Staate ansehen, ihrer Verantwortung gerecht würden und politische Entscheidungen vor allem im Bereich „Klimaschutz“ mehr zu hinterfragen. Eine Aufgabe, der die Medien, vor allem im deutschsprachigen Raum, bislang noch sehr unzureichend nachkommen.

Rudolf Kipp zuerst erschienen bei Science Sceptical

ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):

Hockeystick zum Meeresspiegelanstieg entzweit Forschergemeinde

Wird es in Grönland wärmer? Nein – kälter

Meeresspiegelanstieg stetig nachlassend – PIK-Propaganda im Abseits




Die Statistiker D.J. Keenan und Willam Briggs begutachten die BEST Methoden!

Wir müssen einem ausführlichen Zitieren widerstehen, außer der Bemerkung, dass Keenan die Aufmerksamkeit des Leitautors dieser Studie  Richard Muller selbst errungen hat, vor allem wegen eines Disputs darüber, was das einer Analyse vorausgehende Glätten einer Zeitreihe für deren Zuverlässigkeit bedeutet (das Glätten lässt sie übermäßig steigen). Muller sagt, dass es „mit Sicherheit Statistiker gibt, die dieser Art der Annäherung vehement widersprechen, aber es gab auch führende Statistiker, die dem Verfahren zugestimmt haben“.

Vehement dagegen bin auch ich! Die Gründe hierfür werden von Keenan und mir in den Links dargestellt, die Keenan in seinem Beitrag (hier, demnächst auf Deutsch bei EIKE) erwähnt hat. Außer dass ich Keenans Kritik zustimme – und diese ist umfangreich und fundamental – sage ich hier nichts weiter dazu. Stattdessen präsentiere ich meinen eigenen Kommentar zu der Studie „Berkeley Earth emperature averaging process.” Dieser Kommentar ist kein Duplikat von Keenans Kritik. Ich strebe keine Einfachheit oder erschöpfende Tiefe an.

Meine Kritik1

Ich stimme Keenan zu und sage, dass die Unsicherheitsbreite viel zu eng ist, während der generelle Punkt möglicherweise grob im Ungefähren liegt, mehr oder weniger, plus oder minus.

Die Autoren benutzen die Funktion

      T(x,t) = θ(t) + C(x) + W(x,t).

Dabei ist x der Vektor der Temperaturen an Orten in der Fläche, t die Zeit,  &theta() eine Trendfunktion, C() das räumliche Klima [the spatial climate], (integriert über die Erdoberfläche zu 0) und W() die Abweichung [the departure] von C() (integriert zu 0 über die Oberfläche oder die Zeit). Sie wird nur auf Landstationen angewendet. Nicht das gesamte Land, aber das meiste davon. Das Modell wird probabilistisch, wenn man betrachtet, wie eine individuelle Messung d(t) von einem Trend θ(), W(), einer „Messbasis“ plus einem „Fehler“ abhängt. Damit meinen sie nicht Messfehler, sondern die Restgröße des Standardmodells. Eigentliche Messfehler werden in diesem Teil des Modells nicht berücksichtigt.

Das Modell berücksichtigt eine räumliche Korrelation (wird als Nächstes beschrieben), ignoriert aber die Korrelation mit der Zeit. Es berücksichtigt die Höhe über NN, aber keine anderen geographischen Eigenheiten. Hinsichtlich des Zeitaspektes ist es ein einzelnes naives Modell. Die Korrelation mit der Zeit ist im wirklichen Leben wichtig und kann nicht ignoriert werden; daher wissen wir jetzt schon, dass die Ergebnisse des BEST-Modells zu sicher sein dürften. Das heißt, der Effekt, die Korrelation mit der Zeit zu ignorieren, erzeugt eine zu enge Bandbreite der Ungewissheiten. Wie sehr zu eng hängt von der (räumlichen) Natur der Zeitkorrelation ab. Je stärker diese in Wirklichkeit ist, umso mehr geht das Modell in die Irre.

Das Kriging-Verfahren (ein Standardverfahren, welches mit seinem eigenen Satz Standardkritiken kommt und von dem ich vermute, dass es dem Leser bekannt ist) wird benutzt, um nicht beobachtete räumliche Orte zu modellieren. Seine Korrelationsfunktion ist ein Abstandspolynom der 4. Ordnung (Gleichung 14). Vierte Ordnung, ja. Das stinkt nach einer handfesten Jagd, um dieses merkwürdige Wesen zu entdecken. Seine mittlere Passform zur Masse der blauen Punkte (Abb. 2) erscheint gut genug. Aber man höre auf, diese Punkte zu betrachten. Die Ungewissheit um die Passform ist gewaltig. Update, Korrektur: Ich meinte exponentiell eines Polynoms 4. Ordnung. Die übrige Kritik bleibt bestehen.

Das ist wichtig, weil die Autoren eine feste Korrelationsfunktion mit bestimmten Schätzungen verwendet haben. Sie sagen (S. 12), dass „weitere Feinheiten der Korrelationsfunktion wahrscheinlich Gegen­stand zukünftiger Forschungen sind“. Das Problem ist, dass ihre über-sichere Schätzung dazu führt, dass die Gewissheit der finalen Modellergebnisse überschätzt wird. Keine Baysenianischen Techniken wurden während der Erzeugung dieses Modells verletzt, aber es wäre besser gewesen, wenn dies doch der Fall gewesen wäre.² Die Ungewissheit in dieser Korrelation muss absolut berücksichtigt werden. Da die Masse der blauen Punkte (Abb. 2) so enorm weit verteilt ist, ist die Ungewissheit sicherlich nicht insignifikant. Halten wir hier an und verstehen: Von dieser Korrelationsfunktion wurde angenommen, dass sie überall die gleiche ist, an jedem Punkt der Erdoberfläche, eine Hypothese, die mit Sicherheit falsch ist.

Update: Korrektur: Ich möchte diese letzte Feststellung als eine hauptsächlichen Kritikpunkt verstanden wissen. Wenn Sie eine Mine haben, in der an verschiedenen Stellen Mineralien gefunden werden und Sie deren Konzentration an Stellen schätzen möchten, an denen Sie bisher nicht gesucht haben, die aber innerhalb der Grenzen der Stellen liegen, die Sie untersucht haben, ist das Kriging-Verfahren das Ding. Ihre Mine ist wahrscheinlich irgendwie homogen. Die Landoberfläche der Erde ist nicht homogen. Zumindest ist sie durch riesige wassergefüllte Lücken unterbrochen, durch Berge und Wüsten und so weiter. Die gleiche Kriging-Funktion überall anzuwenden ist zu viel der Vereinfachung (was zu einer Über-Sicherheit führt).

Bezüglich der Messfehler (S. 15) wiederholen die Autoren die allgemeine falsche Auffassung, „dass die am breitesten diskutierte Auswirkung auf das Mikroklima das Potential für ‚städtische Wärmeinseln’ ist, was fälschlicherweise zu große Temperaturtrends an Stellen in Regionen führt, in denen eine städtische Entwicklung stattgefunden hat.“ Das ist keine reine Statistik, sondern schlechte Physik. Geht man davon aus, dass die Ausrüstung an den Stationen ordnungsgemäß funktioniert, sind diese Trends nicht „fälschlich“. Sie deuten auf die aktuelle ermittelte Temperatur hin. Als solche sollten diese Temperaturen nicht „korrigiert“ werden. Man schaue sich zur Erklärung diese Reihe an.

Um einen Aspekt eines geschätzten Messfehlers zu berücksichtigen, entwickeln die Autoren ein Verfahren, dem sie einen großen Namen geben: das „Skalpell“.

Unsere Methode besteht aus zwei Komponenten: 1) Aufteilung der Zeitreihe in unabhängige Fragmente zu den Zeitpunkten, wo es Beweise für eine abrupte Diskontinuität gibt und 2) die Wichtungen innerhalb der Anpassungsgleichungen zu justieren, um Unterschiede der Verlässlichkeit zu berücksichtigen. Der erste Schritt, die Aufzeichnungen zu Zeitpunkten offensichtlicher Diskontinuitäten zu unterbrechen, ist eine natürliche Erweiterung unserer Anpassungsprozedur, die die relativen Abstände zwischen Stationen bestimmt, eingerahmt von &bcirc [?] als eigentlichem Teil unserer Analyse.

Es ist unklar, inwieweit sich die Unsicherheiten in diesem Prozess durch die Analyse ziehen (gar nicht, so weit ich das sagen kann). Aber der Schritt zum Auseinanderbrechen ist weniger kontrovers als die Bewertungstechnik für „Ausreißer“. Ein Austauschfehler zum Beispiel bedeutet falsche Daten. Die Umkehrung des Vorzeichens eines Temperaturwertes bedeutet falsche Daten. Sehr große oder kleine Beobachtungen in den Daten können falsche Daten bedeuten oder auch nicht. Es gibt eine riesige Zahl von Aufzeichnungen, die ohne substantielle Kosten nicht alle von Hand untersucht werden können. Ein Prozess zur Abschätzung, ob eine Aufzeichnung falsch ist, ist wünschenswert: die verdächtig erscheinenden Punkte können von Hand gecheckt werden. Natürlich ist kein Verfahren perfekt, vor allem, wenn dieser Prozess mit historischen Temperaturmessungen durchgeführt wird.

Update Eine Veränderung des Stationsortes bringt keinen „Bias“ in die Aufzeichnungen dieser Station. Es wird daraus eine neue Station! Siehe auch die Reihen zur Homogenisierung der Temperatur hier, um hierzu mehr zu erfahren. Die Autoren haben ein paar Checks tatsächlich durchgeführt, z. B. haben sie wirklich merkwürdige Werte (alle Nullen usw.) entfernt, aber diese Säuberung scheint minimal. Stattdessen haben sie die Temperatur modelliert (wie oben) und die Beobachtung mit dem Modell verglichen. Jene Beobachtungen, die große Abweichungen vom Modell erkennen lassen, wurden herab gestuft und das Modell dann noch einmal gerechnet. Das Potential des Schummelns hier ist offensichtlich und auch der Hauptgrund für Verdächtigungen des Begriffes „Ausreißer“. Wenn die Daten nicht zum Modell passen, wirf sie raus! Am Ende bleiben nur die passenden Daten, welche – muss ich das wirklich sagen? – nicht die Gültigkeit des Modells beweisen. Egal wie, diese Prozedur wird die Unsicherheitsgrenzen des Modells verkleinern. Die Autoren behaupten, dass „erwartet“ worden ist, dass dieser Prozess etwa 1,25 bis 2,9% der Daten beeinflussen wird.

Der nächste Schritt zur „Korrektur” der Daten ist noch verdächtiger. Sie sagen: „In diesem Falle bewerten wir die generelle ‚Verlässigkeit’ der Aufzeichnung, indem wir die mittlere Übereinstimmung jeder Aufzeichnung mit dem erwarteten Feld &Tcirc;(&xtilde; , t) an der gleichen Stelle messen“. Zumindest die Verlässlichkeit wird mit beängstigenden Quoten benutzt. Und wieder hat dies die direkte Auswirkung, dass die aktuellen Beobachtungen in die Richtung des Modells gezogen werden, was die Ergebnisse zu sicher macht.

Zeigen die Ergebnisse auf den Seiten 24 und 25 alle aktuellen Änderungen? Das ist unklar. Liebe Autoren: Welcher Prozentsatz der Daten war betroffen von Entfernung von Rohdaten, Skalpell, das Herabstufen von Ausreißern und dessen Verlässlichkeit? 5%, 10% oder mehr? Und für welche Zeiträume waren diese Prozesse vorherrschend?

In Abschnitt 9, statistische Unsicherheit, bin ich ratlos. Sie nehmen jede Station und teilen sie wahllos in eine von 5 Gruppen ein, n = 1, 2, …, 5, und sagen: „ Dies führt zu einem neuen Satz von Temperaturzeitreihen hat-θn(tj)…. Da jede dieser neuen zeitreihen aus einem vollständig unabhängigen Stationsnetz erzeugt worden ist, können wir zu Recht deren Ergebnisse als statistisch unabhängig behandeln.“ Ich habe keine Ahnung, was das bedeutet. Die fünf Reihen sind mit Sicherheit nicht unabhängig im statistischen Sinne (weder räumlich noch zeitlich noch als Fallzahlen).

Die Prozedur versucht, die Unsicherheit der Schätzung abzuschätzen mit hat-θn(tj)— d. h. den Parameter und nicht die aktuelle Temperatur. Das behandeln der Fälle als unabhängig führt dazu, diese Unsicherheit zu unterschätzen. Aber schieben wir das alles mal beiseite und wenden uns dem zu, was wirklich zählt, die Unsicherheit in den Endergebnissen des Modells.

Abbildung 4b ist etwas irreführend – gut, dass es Abbildung 4a gibt – in der, sagen wir, im Jahre 1950 85% der Erdoberfläche nicht mit Thermometern bestückt waren. Dies ist eine Abdeckung in der Größenordnung einer Modellierung, nicht einer physikalischen Verteilung. Dies wird durch Abbildung 4a bewiesen, die zeigt, dass die physische Abdeckung der Räume abgenommen hat. Aber lassen wir das beiseite. Abbildung 5 ist der Schlüssel.

Dies ist nicht der Plot einer aktuellen Temperatur und es ist nicht ein Plot der Ungewissheit der aktuellen Temperatur. Es ist stattdessen ein Plot des Parameters hat-θn(tj) und der Unsicherheiten, die aus den oben beschriebenen Methoden herrühren. User von Statistiken haben die schlechte, um nicht zu sagen berüchtigte Angewohnheit, über Parameter zu sprechen, als ob sie über aktuelle Beobachtungsergebnisse sprechen. Die Sicherheit über den Wert eines Parameters ist aber nicht übertragbar auf die Sicherheit der Beobachtung. Lesen Sie diesen letzten Satz bitte noch einmal!

Abbildung 5: Ergebnis der Berkelely-Mittelungs-Methode nach Anwendung auf die monatlichen Daten des GHCN. Der obere Plot zeigt ein 12-Monats-Mittel nur von Landstationen und einer damit verbundenen Unsicherheit von 95% durch statistische und räumliche Faktoren. Der untere Plot zeigt das korrespondierende 10-Jahres-Mittel nur über Land und einer Unsicherheit von 95%. Dieser Plot korrespondiert mit dem Parameter  in Gleichung 5. Unsere Plot-Konvention ist es, jeden Wert in die Mitte des Zeitintervalls zu legen, das er repräsentiert. Zum Beispiel wird das Mittel 1991 bis 2000 im dekadischen Plot bei 1995,5 gezeigt.

Von Seite 26:

Wenn man die hier beschriebenen Verfahren anwendet, finden wir, dass die mittlere Landtemperatur von Januar 1950 bis Dezember 1959 8,849 +/- 0,041°C betragen hatte, und dass die Mitteltemperatur der jüngsten Dekade (Januar 2000 bis Dezember 2009) bei 9,760 +/- 0,096°C gelegen hatte. Die Trendlinie für das 20. Jahrhundert wird berechnet zu 0,733 +/- 0,096°C pro Jahrhundert. Dies liegt deutlich unter den 2,76 +/- 0,16°C pro Jahrhundert der globalen Erwärmungsrate über Land, die wir von Januar 1970 bis August 2011 beobachtet haben. (Alle hier und weiter unten erwähnten Unsicherheiten sind 95%-Intervalle für die kombinierte statistische und räumliche Unsicherheit). {Um HTML-Diskrepanzen zu vermeiden, habe ich das mathematische Symbol „+/-“ verwendet, so dass es lesbar bleibt}.

Man beachte, dass sie das Wort „Temperatur“ brauchen bei „wir finden, dass die mittlere Temperatur über Land…“ usw., obwohl sie hätten schreiben müssen „Modellparameter“. Von 1950 bis 1959 schätzen sie die Parameter „8,849 +/- 0,041°C“. Frage an die Autoren: Seid ihr sicher, dass ihr nicht 8,848 +/- 0,033°C gemeint habt? Wo liegt der Sinn in einer solchen dummen Überpräzision? Egal, von 2000 bis 2009 schätzen sie den Parameter als 9,760 +/- 0,041°C, ein Anstieg um 0,911 +/- 0,042°C“. Update: Diese Kritik wird den meisten unbekannt sein, selbst vielen Statistikern. Es ist eine Hauptquelle für Fehler (in der Interpretation); halten Sie inne, um das zu erkennen. Siehe dieses Beispiel hier!

Akzeptieren wir das für den Augenblick. Die Frage lautet dann, warum sie die fünfziger Jahre als Vergleich wählten und nicht die vierziger Jahre, als es wärmer war? Mögliche Antwort: weil der Vergleich mit den fünfziger Jahren die Änderung unterstreicht. Aber wir wollen hier nicht in die Politik abgleiten, also nichts für ungut, und ignorieren Sie auch die Hyperpräzision. Konzentrieren wir uns stattdessen auf die „+/- 0,033°C“, von dem wir inzwischen wissen, dass es nicht die Unsicherheit der aktuellen Temperaturmessung ist, sondern diejenige eines Modellparameters.

Falls alle Quellen der Über-Gewissheit, die ich (und Keenan) erwähnt haben, berücksichtigt werden, denke ich, dass diese Grenze der Unsicherheit mindestens doppelt so groß wäre. Dies würde eine Unsicherheit von mindestens +/- 0,66°C zur Folge haben, na und? Das ist immer noch wenig im Vergleich zu den 8,849°C (Intervall 8,783 – 8,915°C; und für 2000 bis 2009 beträgt es 9,678 – 9,842°C). Immer noch ein Sprung.

Aber wenn wir hierzu die Unsicherheit im Parameter addieren, so dass unsere Unsicherheitsgrenze bei der aktuellen Temperatur liegt, müssen wir erneut die Grenzen mit 5 bis 7³ multiplizieren. Dies bewirkt, dass die Grenze von 1950 bis 1959 bei mindestens 0,132, die für 2000 bis 2010 bei mindestens 0,410 beträgt. Die Intervalle betragen dann 8,519 – 9,179°C für die fünfziger Jahre und 9,350 – 10,170 jetzt. Immer noch eine Änderung, aber eine, die jetzt wesentlich weniger unsicher ist.

Da die Änderung immer noch nicht signifikant ist, könnte man sagen „na und?” Ich bin froh über diese Frage: man schaue auf die Grenzen der Jahre vor 1940, vor allem diejenigen vor 1900. Die Anwendung der oben erläuterten Änderungen verschieben diese Grenzen bis jenseits von gut und böse, was bedeutet, dass wir nicht mit irgendeinem Grad an Sicherheit sagen können, ob es jetzt wärmer oder kälter ist als vor 1940 und besonders vor 1900. Lesen Sie diesen Satz ebenfalls noch einmal bitte!

Und selbst wenn Sie bockig sein wollen und auf die Perfektion des Modells bestehen und Sie glauben, dass die Parameter real sind, decken schon viele der Unsicherheitsgrenzen vor 1880 gegenwärtige Temperaturen ab. Die Jahre um 1830 sind schon nicht „statistisch unterschiedlich“ zum Jahr 2008.

Einfacher ist es, hierzu Abbildung 9 zu betrachten, in welcher versucht wird, den Grad der Unsicherheit mit der Zeit zu zeigen. Alle Zahlen in diesem Plot sollten mit mindestens 5 bis 10 multipliziert werden. Und selbst danach haben wir immer noch nicht die größte Quelle der Unsicherheit berücksichtigt: das Modell selbst.

Statistiker sowie jene, die Statistiken verwenden, sprechen selten oder niemals von der Modellunsicherheit (das gleiche gilt für Klimatologen). Der Grund hierfür ist einfach: es gibt keine Kochrezepte, die automatische Messungen dieser Unsicherheit ergeben. Das kann auch nicht sein, weil der Wahrheitsgehalt eines Modells nur von außerhalb bewertet werden kann.

Und doch sind alle Ergebnisse abhängig vom Wahrheitsgehalt des Modells. Die Erfahrungen mit statistischen Modellen zeigen, dass sie oftmals zu sicher sind, vor allem, wenn sie komplex sind, wie es beim BEST-Modell der Fall ist (und welches annimmt, dass die Temperatur so sanft mit der geographischen Breite variiert). Nein, das kann ich nicht beweisen. Aber ich habe gute Gründe angegeben, warum man daran zweifeln sollte, dass das stimmt. Sie können auch weiterhin an die Gewissheit des Modells glauben, aber dies wäre nur ein weiteres Beispiel, dass Hoffnung über die Erfahrung triumphiert. Um wie viel, weiß ich nicht.

Update Weder in der BEST-Studie noch in meiner Kritik findet sich auch nur ein Wort dazu, warum sich die Temperaturen geändert haben. Niemand diskutiert nirgends, dass sie sich verändert haben. Siehe die Diskussion hier!

——————————————————————————————

1„Sagen Sie, Briggs, Sie sind immer dagegen. Sie sind doch so klug, warum führen Sie nicht Ihre eigene Analyse durch und enthüllen das alles?“ Gute Frage. Im Unterschied zu den Leuten beim BEST und anderen wie meinem Freund Gay habe ich keine Kontakte zu Big Green und auch keinen Sekretär, keine Juniorkollegen, keine Diplomanden, keine IT-Leute, Computerressourcen, Drucker, Kopierer, Büroutensilien Zugang zu einer Bibliothek, Zuwendungen für Reisen zu Konferenzen, Geld für Gebühren, Multimillionen Dollar Förderung, Multitausend Dollar Förderung, nicht einmal Multi Dollar Förderung. Alle meine Arbeit, die ich jemals im Bereich Klimatologie gemacht habe, war ehrenamtlich. Ich habe einfach keine Zeit und keine Ressourcen, um monatelange Anstrengungen zu unternehmen, die der Mühe wert sind.

²Die Autoren haben nur klassische Verfahren benutzt, einschließlich des Jackknife. Sie könnten, wenn sie dieser Philosophie folgen, die Ergebnisse durch erneutes Anbringen dieser Korrelationsfunktion urladen. *

[Diesen Satz habe ich inhaltlich nicht verstanden! A. d. Übers.]

³Dies ist, wie die Erfahrung zeigt, der Unterschied in vielen Modellen. Um den aktuellen Multiplikator zu ermitteln, müssten wir die ganze Arbeit noch einmal machen. Siehe hierzu Anmerkung 1!

Die Statistiken der BEST-Studie wurden mit Assistenz des bedeutenden (kein Sarkasmus) David Brillinger erstellt, obwohl er nicht als Ko-Autor in Erscheinung tritt. Charlotte Wickham war die Statistikerin und war Studentin bei Brillinger. „Charlotte Wickham ist Assistenzprofessorin im Department of Statistics an der Oregon State University. Sie legte 2011 ihre PhD-Prüfung in Statistik an der University of Berkeley ab”.

Weitere Veröffentlichungen des Autors William M. Briggs hier

Link zum Artikel (BEST), auf den sich diese Kritik bezieht: hier

Link zum Artikel von Keenan: hier

Übersetzt von Chris Frey für EIKE

Link zum Original: http://wmbriggs.com/blog/?p=4530




Großbritannien zieht den Stecker aus den Solarsubventionen

Endlich: Großbritannien zieht den Stecker aus dem grünen Energiebetrug

Die Regierung hat es gegeben, die Regierung hat es genommen – berühmtes grünes Sprichwort

Minister wurden angeklagt, 25.000 Arbeitsplätze vernichtet und „eine ganze Industrie in den Bankrott“ getrieben zu haben, nachdem die britische Regierung Pläne enthüllt hatte, Subventionen für grüne Energie drastisch zu kürzen. Hunderte von Solarfirmen werden bis Weihnachten vermutlich pleite gehen, nachdem das Department for Energy and Climate Change DECC bestätigt hatte, dass es plant, die Subventionen für neue Paneele zu halbieren. –Rowena Mason, The Daily Telegraph, 1 November 2011

Der Aufruhr um die Solarsubventionen ist die jüngste Erscheinungsform einer langen und erbitterten Schlacht innerhalb der Regierung, genauer zwischen Chris Huhnes vom DECC und Schatzminister George Osborne über die Rolle grünen Wachstums in der Phase der wirtschaftlichen Erholung in UK, die sich besonders durch rasant steigende Stromkosten für die Haushalte bemerkbar macht. „Wir könnten uns von der Solarlobby abkoppeln, aber wir werden uns nicht von den Stromrechnungen abkoppeln“, erklärte Barker am Montag vor dem Parlament. –Damian Carrington, The Guardian, 31 October 2011

In einer Zeit, in der die Haushalte darum kämpfen, 0,5% Zinsen auf ein Sparkonto mit direktem Zugriff zu bekommen, garantieren einige dieser Subventionen für erneuerbare Energien – in Form von großzügigen Zahlungen für den produzierten Strom, sog. Einspeisevergütungen – jährliche Renditen von 10%. Es ist einer der größten Umverteilungen von Wohlstand – von Millionen hart arbeitender Steuerzahler hin zu einigen hundert der wohlhabensten Personen – in der britischen Geschichte. Das ist erschütternd unfair und nach immer breiterer Überzeugung von vielen total unsinnig. –Benny Peiser, Daily Mail, 9 June 2011

Die rechte ehrwürdige Lady [Rowena Mason] sagt, dass wir abgekoppelt sind. Wir können von der Solarlobby abgekoppelt sein, aber wir koppeln uns nicht von den Stromzahlern ab. Sie sagt, dass sie unter einer Preissteigerung von £ 175 stöhnen, aber sie möchte das erhöhen. Wenn wir nicht sofort etwas dagegen tun, werden die Verbraucher massive Steigerungen der Energiekosten erleben. –Gregory Barker, Minister im Department of Energy and Climate Change, Unterhaus, 31 October 2011

Das Szenario grünen Strebertums von Silicon Valley, welches wir zeitlich etwa von 2005 bis 2009 datieren können, wird gerade in der Toilettenschüssel der Geschichte hinunter gespült. Seine elitären und total irrealen Ideen extrem teurer Elektroautos für nette Leute, die den Planeten retten wollen und für Designer von Niedrigenergiehäusern für die gleichen netten Leute, und niemanden sonst, sind im Abflussrohr verschwunden. –Andrew McKillop, The Global Warming Policy Foundation, 31 October 2011

Die Beakon Power Corp. erklärte am Sonntag ihren Bankrott, gerade mal ein Jahr, nachdem die Kompanie zur Energiespeicherung 43 Millionen Dollar Kreditgarantien aus einem kontroversen Programm des Department of Energy empfangen hatte. Der Bankrott kommt etwa zwei Monate nach Solyndra – einem Hersteller von Solarpaneelen mit einer Kreditgarantie in Höhe von 535 Millionen Dollar – und verursachte politische Probleme für die Administration von Präsident Barack Obama, der diese Garantien als ein Weg bezeichnet hatte, „grüne Arbeitsplätze“ zu schaffen.  –Reuters, 31 October 2011

Und hier kommt der Knüller: Energieerzeugung, die dem freien Markt überlassen wird, reduziert den CO2-Ausstoß in den USA um mehrere Tonnen mehr als durch Wind und Solar – selbst mit den Milliarden Dollar an Subventionen.  Die Energieerzeugung durch Erdgas wuchs von 15,8 Prozent der Stromerzeugung in Amerika im Jahre 2000 auf 24,1 Prozent in der jüngsten 12-Monats-Abrechnung der Energy Information Administration. Diese Zunahme um 8,3 Prozent reicht aus, um den CO2-Ausstoß um 120 Millionen metrische Tonnen CO2 pro Jahr im Vergleich zu Kohle zu verringern. Während des gleichen Zeitraumes wuchs die durch Sonne und Wind erzeugte Energie auf 2,75 Prozent der Gesamtenergieerzeugung. Dies würde den CO2-Ausstoß um 108 Millionen metrische Tonnen pro Jahr im Vergleich zu Kohle verringern. Daraus folgt, während des vergangenen Jahrzehnts haben die gewaltigen Subventionen für Wind- und Sonnenenergie weniger zur Verringerung des CO2-Ausstoßes geleistet als die vom Markt getriebene Erdgasproduktion ganz ohne Subventionen. –-David Kreutzer, The Foundry, 25 October 2011

In UK ist die Regierung, einst die Vorhut von Aktivitäten gegen die Klimaänderung, dabei, die Investitionen in grüne Energie zurückzuschrauben… Niemand rechnet mit einem UN-Klimaabkommen in Durban in diesem Jahr – auch nicht im nächsten oder übernächsten Jahr. Aber während dessen brennt die Kohle weiter. Industrieanalytiker nehmen an, dass die globale Produktion im kommenden Jahrzehnt um 35 Prozent zunehmen wird. Die billigste, am meisten verfügbare und schmutzigste aller fossilen Treibstoffe weitet ihren Griff auf das weltweite System der Energieversorgung aus. Und nirgendwo stärker als ausgerechnet die Küste von Durban hinauf. –Fred Pearce, The Guardian, 31 October 2011

Wir müssen Schiefer in den Zusammenhang mit anderen Energiequellen stellen, um eine vergleichbare Analyse der Umwelteinflüsse zu erhalten. Die Leute vergessen die Kosten des Kohleabbaus oder der Ölförderung; Kernenergie hat ihre eigenen Risiken. Erdgas ist eine Energieform, die in die Kategorie geringes Risiko fällt. Kann die grüne Lobby die Debatte um Schiefergas mit Hinweisen auf Schäden für die Umwelt gewinnen? Das glaube ich nicht. Vor 10 oder 20 Jahren könnten sie gewonnen haben, als die Regierungen willig waren, Millionen zu verbrennen, aber das wirtschaftliche Klima hat sich verändert, wir sind mit der größten Krise seit Jahrzehnten konfrontiert. Keine Regierung der Welt würde diese Gelegenheit aufgeben, nicht einmal die Britische, obwohl die nun wirklich sehr grün ist. –Benny Peiser, Natural Gas Europe, 25 October 2011

Link: http://wattsupwiththat.com/2011/11/01/britain-pulls-the-plug-on-solar-subsidies/

Übersetzt von Chris Frey für EIKE

Angesprochen wird dieses Thema wie oben erwähnt auch hier: http://www.klimaskeptiker.info/index.php?seite=einzelmeldung.php?nachrichtid=1990




Die Ausflüchte der Klimakatastrophen-Wissenschaftler

Provoked scientists try to explain lag in global warming

Es gibt einige interessante Aussagen von Klimawissenschaftlern in dem Artikel, die einen großen Grad an Unsicherheit hinsichtlich des Klimasystems zeigen, sowie der menschlichen Rolle dabei, selbst unter den Klimawissenschaftlern, die eng mit dem IPCC verflochten sind. Der lange Artikel konzentriert sich auf die Frage:

 „Warum ist der Temperaturanstieg des Planeten während des letzten Jahrzehnts trotz stetig steigenden CO2-Gehaltes zum Stillstand gekommen?”

Interessante Zitate und Texte (neu arrangiert, um die zitierten Personen in eine Reihe zu beklommen; man sollte den ganzen Artikel lesen [hier nicht übersetzt]) schließen ein (Hervorhebungen von Paul Voosen):

Von John Barnes

(Sein Spezialgebiet ist die Messung des stratosphärischen Aerosols):

Schaut man auf das vergangene Jahrzehnt und die globale Temperatur, so ist diese nicht gestiegen, sagte Barnes. „Es gibt eine große Streuung dabei. Aber die (Klima-)Modelle gehen nach oben. Und das muss erklärt werden! Warum ist es nicht wärmer geworden?

Barnes hat 20 Jahre lang einsame Wache geschoben (am Mauna Loa-Observatorium in Hawaii). Er fuhr Abend für Abend die kurvenreiche, mit Schlaglöchern übersäte Straße hinauf in sein von der Regierung betriebenes Büro und wartete auf das große Ereignis [the big one]. Seine Spezialität sind Messungen des stratosphärischen Aerosols, reflektierende Partikel aus Vulkanausbrüchen, von denen man weiß, dass sie den Planeten kurzzeitig abkühlen. Nur die gewaltigsten Vulkanausbrüche sind imstande, Emissionen über die Wolken hinaus zu blasen, dachten die Wissenschaftler, und so wartete Barnes auf seine Zeit, nachdem er den Laser errichtet hatte.

Bis auf den heutigen Tag hat es seit 1991 keinen großen Vulkanausbruch mehr gegeben! 1991 erfolgte der Ausbruch des Pinatubo auf den Philippinen, was zu einer Abkühlung der Erde um ein halbes Grad während einiger Jahre führte. Doch Barnes dokumentierte diese Ruhe unablässig und konnte so das Hintergrundniveau der Partikel in der Stratosphäre identifizieren. Und dann, als er vor vier Jahren in seinem Labor saß, nicht weit von dem Ort entfernt, wo Charles Keeling zuerst Messungen des steigenden atmosphärischen CO2-Gehaltes durchführte, fand Barnes etwas Komisches in seinen Aufzeichnungen zum Aerosol.

Barnes beklagt sich über die verwirrende Komplexität, all die kleinen Antriebe des Klimas voneinander zu trennen. Es machte Carles Keelings sorgfältige Arbeit, den steigenden CO2-Gehalt zu identifizieren, vergleichsweise zu einer sehr einfachen Angelegenheit.

 „Es ist wirklich subtil”, sagte er. „Es ist schwierig zu bestimmen, wie viel von den Ozeanen aufgenommen wird, weil die Ozeane Einiges von der Wärme aufsaugen. Und an vielen Orten sind die Messungen einfach nicht genau genug. Wir haben Satelliten, die den Energiehaushalt messen können, und doch gibt es hier noch Hypothesen. Es gibt Hypothesen über die Ozeane, weil wir keine Vielfalt von Messungen von den Ozeanen haben“.

Von Jean-Paul  Vernier

Vor fünf Jahren veränderte ein Ballonaufstieg über dem Sand der Sahara das Leben von Jean-Paul Vernier.

Der Ballon stieg über dem in der Hitze gebackenen Sand von Niger auf, ausgerüstet um Aerosole einzufangen, das Gemisch aus natürlichen und anthropogenen Partikeln, die in die Atmosphäre entwichen waren. Der Ballon stieg über die Wolken und in die Stratosphäre. Dort erwartete Vernier klaren Himmel zu finden; schließlich hatte es seit mehr als einem Jahrzehnt keine Eruption wie vom Pinatubo mehr gegeben. Aber er lag falsch. In einer Höhe von 12 Meilen [ ca. 19 km] fand der Ballon eine Ladung [a lode = im Bergbau eine Ader oder ein Flöz. Eine andere Übersetzung konnte ich nicht finden. A. d. Übers.] von Aerosolen.

Vernier hatte eine Scheibe des Trends gefunden, den Barnes auf dem Mauna Loa in Hawaii entdeckt hatte. Es war erstaunlich. Woher könnten diese Wärme reflektierenden Aerosole stammen? Vernier war sich nicht sicher, aber Barnes und sein Team wagten eine Vermutung, als sie ihr Ergebnis verkündeten. Es war ihrem Vorschlag zufolge die rapide zunehmende Industrialisierung in China, die sie so hatte zunehmen lassen.

Ein französischer Wissenschaftler, der am Langley Research Center der NASA in Virginia arbeitete, um Aerosole zu studieren, nämlich Vernier, bediente sich wie Barnes eines Lasers, um die Existenz dieser blöden Aerosole zu verstehen. Aber er verwendete keinen auf dem Erdboden installierten Laser, sondern einen aus dem Weltraum.

Im gleichen Jahr wie die Ballon-Messkampagne in Niger hat die NASA einen mit Laser ausgestatteten Satelliten gestartet mit dem Ziel, Aerosole über den Wolken zu messen. Vernier und seine Kollegen vermuteten mit einer Portion Scharfsinn, dass sie den Laser mit der Bezeichnung CALYPSO dazu bringen könnten, auch klare Angaben zur Stratosphäre zu liefern. Die Datenlawine des Satelliten war chaotisch – zu viel Rauschen nach Barnes’ Geschmack, als er sich das ansah – aber viele Jahre später konnte Vernier sie deuten. Er hatte eine Antwort gefunden.

Zuallermeist schienen die Aerosole nicht aus China zu kommen!

Von Kevin Trenberth

Die Lücke (in der Erwärmung) kam nicht unerwartet. Variabilität beim Klima kann steigende Temperaturen vorübergehend unterdrücken, wobei jedoch vor dieser Dekade die Wissenschaftler nicht genau wussten, wie lange solche Pausen dauern könnten. In jedem Fall ist eine Dekade ein zu kurzer Zeitraum, um etwas über menschliche Auswirkungen auf das Klima zu sagen. In einem demnächst veröffentlichten Papier sind 17 Jahre das Mindeste.

Einigen Wissenschaftlern reichte es, die Lücke der natürlichen Variabilität des Planeten zuzuschreiben. Die Temperatur wird bald wieder steigen. Getrieben durch das immer dicker werdende Tuch, das durch die Treibhausgase über die Erde geworfen wird. Die Leute werden das vergessen.

Aber für andere war diese einfache Antwort ein Fehlschlag. Falls die Wissenschaftler den Stillstand auf die natürliche Variabilität zurückführen, stehen sie vor dem Problem, präzise zu erklären, wie diese Variationen funktionieren. Ohne Beweise sind ihre Statements nicht besser als die unbegründeten Theorien der Skeptiker im Internet.

 „Das hat mich immer bewegt“, sagte Kevin Trenberth, Leiter der Abteilung Klimaanalyse am National Center for Atmospheric Research. „Natürliche Variabilität ist kein Grund. Man muss sagen, welcher Aspekt der natürlichen Variabilität“.

Bis zum Jahre 2003 gab es unter den Wissenschaftlern ein tragbares Verständnis darüber, wohin die gefangene Wärme der Sonne ging; sie wurde reflektiert durch steigende Meeresspiegel und steigende Temperaturen. Seitdem hat die Wärme in den oberen Schichten der Ozeane jedoch kaum zugenommen, und der Meeresspiegelanstieg hat sich verlangsamt, während Satellitendaten über Ein- und Ausstrahlung – dem Energiehaushalt der Erde – ergaben, dass jede zunehmende Menge an Energie von außen auf dem Planeten eingefangen werden müsste. (Einige Wissenschaftler stellen in Frage, sich zu sehr auf die Satellitendaten zu verlassen, seit die beobachtete Energie drastisch nach unten korrigiert werden muss, vorgegeben durch die Klimamodelle). Unter der Voraussetzung, dass dieser Haushalt angeblich solare Zyklen und Aerosole berücksichtigt, fehlte etwas.

Wohin war die Wärme gegangen? Trenberth hat diese Frage immer wieder wiederholt.

Vor kurzem, in Zusammenarbeit mit Gerald Meehl und anderen, schlug Trenberth eine Antwort vor. In einer im September veröffentlichten Studie stellten sie ein Klimamodell vor, das Jahrzehnte lange Pausen beim Temperaturanstieg simulierte, und die damit verbundene fehlende Energie könnte damit zusammenhängen, dass die Wärme in die tiefen, kalten Ozeane sinkt, bis über eine Tiefe von 2000 Fuß [ca. 600 m] hinaus. Das Team verwendete ein neues Modell, das für den nächsten UN-Bericht zum Klima erstellt worden ist. Anders als die Modelle in der Vergangenheit kommt die Variabilität im Pazifik gut zum Ausdruck, was „wichtig zu sein scheint“, sagte Trenberth.

Während eines La Niña-Ereignisses bedeuten die kälteren Wassertemperaturen im Pazifik geringere konvektive Aktivität – weniger tropische Stürme usw., weniger Wolken und damit mehr Sonne“, sagte er. „Die Wärme verschwindet im Ozean, wird aber durch die Meeresströmungen weilweit verteilt. Damit tragen ironischerweise kältere Bedingungen zu größerer Wärmeabscheidung bei“.

Es ist eine überzeugende Illustration, wie die natürliche Variabilität, zumindest in diesem Modell, den Einfluss der zunehmenden Treibhausgase für ein Jahrzehnt oder länger überkompensieren kann, sagen mehrere Wissenschaftler. Jedoch ist die Suche nach einer Antwort einem prominenten Forscher zufolge – Hansen von der NASA – überflüssig.

Und zwar weil es nach Hansen keine fehlende Energie gibt.

Trenberth stellt in Frage, ob die ARGO-Messungen stabil genug sind, um definitiv zu bestätigen, was Hansen entwirft. Er hatte viele Diskrepanzen unter den Datenanalysen gesehen, und es gibt immer noch „fehlende und irrige Daten und Anpassungen“, sagte er. Die ARGO-Messungen sind wertvoll, fügte er hinzu, aber sie sind noch nicht da.

Von Susan Solomon 

co-chairs der Working Group 1 of the Intergovernmental Panel on Climate Change.[2

„Das Faszinierendste für mich an dieser vergangenen Zehn-Jahres-Periode war, dass es die Leute nachdenklich gemacht hat hinsichtlich der dekadischen Variabilität, und zwar viel mehr als vorher”, sagte Susan Solomon, eine Atmosphärenchemikerin und frühere Leitautorin eines Berichtes der UN zum Klima während einem kürzliche Besuch am MIT. „Und das kann nur gut sein. Es gibt keine silberne Kugel. In diesem Falle sind es vier oder fünf Stückchen einer Silber-Schrotladung“.

Solomon hat gezeigt, dass die Menge an Wasserdampf in der Stratosphäre zwischen 2000 und 2009 um 10 Prozent abgenommen hat. Dieser Rückgang, entweder hervorgerufen durch natürliche Variabilität – möglicherweise im Zusammenhang mit El Niño – oder als Rückkopplung der Klimaänderung, hielt vermutlich 25% der Erwärmung durch Treibhausgase zurück, die es sonst gegeben hätte. (Einige Wissenschaftler haben angemerkt, dass diese Schätzung sehr hoch ist). Jetzt scheint eine andere Dynamik die Hauptrolle über den Wolken zu übernehmen.

In einer in diesem Sommer veröffentlichten Studie haben Solomon, Vernier und andere aus diesen unterschiedlichen Fakten gefolgert, dass diese Aerosole einen Abkühlungstrend um 0,07°C während der letzten Dekade gebracht haben. Ähnlich wie beim Wasserdampf gibt es keine einzelne Antwort, sondern es war nur ein kleiner Mitspieler. Dies ist die Art von geringen Einflüssen, die in künftigen Klimamodellen mit berechnet werden muss, sagt Santer von Livermore.

Solomon war überrascht, Verniers Arbeit zu sehen. Sie erinnerte sich an den Ausbruch des Soufrière und dachte bei sich, „dass dieser es niemals bis in die Stratosphäre schaffen würde“. Mit dem neuen Wissen änderte sich diese Erkenntnis rasch. „Man kann sehen, das all diese kleinen Eruptionen, von denen wir angenommen hatten, dass sie keine Rolle spielen, eben doch von Bedeutung sind“, sagte sie.

Von Jim Hansen

Diese Entdeckungen sorgen dafür, dass die größten Namen unter den Wissenschaftlern ihre Meinung ändern.

"Tatsächlich könnte die größte Ausbeute der Jagd nach der Energie darin bestehen, dass die Forscher den reflektiven Effekt der Luftverschmutzung chronisch unterschätzen, sagte Jim Hansen von der NASA, Leiter des GISS.

Jüngste Daten haben ihn gezwungen, seine Ansichten über die Menge der von der Sonne kommenden, in den Ozeanen gespeicherten Energie zu ändern, die den Planeten erwärmt. Stattdessen, sagt er, hat die Luftverschmutzung aus der Verbrennung fossiler Treibstoffe direkt und indirekt die Treibhauserwärmung maskiert, und zwar mehr, als jeder gedacht hatte.

Es war in „keiner Weise beeinflusst durch die unsinnigen Behauptungen der Gegner”, sagte Hansen. „Dies sind fundamentale Dinge, auf die sich die Wissenschaft immer konzentriert hat. Das Problem bestand im Fehlen (wissenschaftlicher) Beobachtungen“.

Hansen von der NASA bestreitet, dass die Einwände der Skeptiker die Klimawissenschaftler dazu gebracht hat, den Einfluss der Sonne auf das Klima zu ignorieren. Sein Team, sagt er, „hat immer den solaren Antrieb basierend auf Beobachtungen und Judiths Schätzungen für die Zeit vor genauen Messungen mit einbezogen“.

 „Dies hier macht die Sonne noch etwas wichtiger, weil die solare Variabilität das Ungleichgewicht in der planetarischen Wärmebilanz moduliert”, sagte Hansen. „Aber der solare Antrieb ist zu schwach, das Ungleichgewicht negativ zu machen, d. h. solare Variationen werden keine globale Abkühlung verursachen“.

„Unglücklicherweise ändern sich der solare Antrieb und der stratosphärische Wasserdampfgehalt, wenn wir uns auf das vulkanische Aerosol konzentrieren, es handelt sich um einen Fall, einen Schlüssel im Licht von Straßenlampen zu suchen“, sagte Hansen. „Was wir tun müssen ist, auf den Antrieb des troposphärischen Aerosols zu schauen, aber das liegt nicht unter der Straßenbeleuchtung.“

 „Ich habe den Verdacht, dass es eine Zunahme des Aerosols im Zuge eines rasch steigenden Kohleverbrauchs während der letzten 5 Jahre oder so gegeben hat”, sagte er. „In den Gebieten, wo man das erwartet, gibt es semi-quantitative Beweise dafür. Unglücklicherweise besteht das Problem darin, dass wir das Aerosol nicht genau genug messen können um zu bestimmen, wie es wirkt und wie es sich verändert.“

Noch grundlegender, die ARGO-Daten haben Hansen veranlasst, sein Verständnis darüber, wie das Klima funktioniert, auf grundlegende Weise zu ändern, eine Änderung, die er in einer bestimmt kontrovers aufgenommenen Studie ausführt, die später in diesem Jahr veröffentlicht werden soll.

Seit Jahrzehnten ist den Wissenschaftlern bekannt, dass der größte Anteil der durch die Treibhausgase zurück gehaltenen Wärme in die Ozean geht, nicht in die Atmosphäre. Als Ergebnis, sagen sie, würde sich die Erde selbst dann erwärmen, wenn die Emissionen morgen gestoppt werden könnten, weil die Atmosphäre danach trachtet, den Ausgleich mit der Wärme im Ozean zu suchen. Oder, wie Hansen einwarf, diese Extraerwärmung würde „in der Pipeline“ stecken mit Auswirkungen, die Jahre über Jahre auf der Lauer liegen. Aber wie viel Wärme genau in der Pipeline ist, hängt davon ab, wie effektiv die Wärme in den Ozeanen durchmischt wird.

Hansen glaubt, jetzt eine Antwort zu haben: Im Vergleich zu den ARGO-Daten und einer Studie zu den Spuren, die demnächst durch mehrere NASA-Wissenschaftler veröffentlicht werden wird, haben alle diese Klimamodelle übertrieben, wie effizient die Ozeane die Wärme verteilen. Diese Einhelligkeit dieser effizienten Durchmischung könnte aufgrund verschiedener Abstammungen in ihrem Code herrühren. Wie auch immer, es bedeutet, dass die Klimamodelle die Energiemenge beim Klima überschätzt haben, und zwar in ihrem Trachten danach, die stattfindende Erwärmung mit effizienten Ozeanen passend zu machen. Sie haben ein Problem gelöst, das gar nicht existiert.

Auf den ersten Blick kann dies leicht wie eine gute Nachricht klingen, aber das ist es nicht.

Eine weniger effiziente Durchmischung würde unter gleichen Bedingungen bedeuten, dass weniger Wärme ‚in der Pipeline’ steckt“, sagte Hansen. „Aber es impliziert auch, dass der negative Antrieb durch das Aerosol möglicherweise größer ist, als viele Modelle annehmen. Also ist der faustische Aerosolhandel möglicherweise ein größeres Problem als ursprünglich angenommen.“

Von John Daniel

(ein Forscher am Earth System Research Lab der NOAA)

Als der Rekord 1998 aufgetreten war, kamen die Wissenschaftler ins Stocken. Das passiert oft angesichts hoher Temperaturen. Sie interpretieren zu viel da hinein, sagte John Daniel, ein Forscher am Earth System Research Lab der NOAA.

„Wir machen einen Fehler, jedes Mal, wenn die Temperatur steigt, implizieren wir, dass es an der globalen Erwärmung liegt”, sagte er. „Wenn man jedes Mal dabei eine große Sache daraus macht, sollte man auch jedes Mal eine große Sache daraus machen, wenn die Temperatur zurück geht.“

Von Ben Santer

Seit einer Dekade ist es genau das, was passiert. Skeptiker machen übertriebene Behauptungen über die „globale Abkühlung“ und meinen seit 1998. (Als ein repräsentatives Beispiel, vor zwei Jahren nannte der Kolumnist George Will 1998 den „Gipfel“ der Erwärmung). Wissenschaftler mussten die Verteidiger spielen, sagte Ben Santer, ein Klimamodellierer am Lawrence Livermore National Laboratory.

"Diese Diskussion über die Nicht-Erwärmung seit 1998 hat die Leute denken lassen, über das warum nachzudenken und das warum zu verstehen“, sagte Santer. „Aber es brachte die Leute auch dazu, diese falschen Behauptungen zu korrigieren“.

Susans Zeug ist besonders wichtig”, sagte Santer. „selbst wenn man das hypothetisch perfekte Modell hat, wenn man die falschen Antriebe eingibt, wird man eine falsche Antwort bekommen!“

Von Judith Lean

Die Antwort auf die Lücke liegt Judith Lean zufolge komplett in den Sternen. Oder besser, in einem Stern.

Erst vor Kurzem haben sich Klimamodellierer gefragt, wie die 0,1 Prozent das Weltklima über Dekaden lange Zeiträume beeinflussen kann. (Den besten Schätzungen zufolge führt das zu Temperaturänderungen von 0,1°C). Davor, um den Komiker Rodney Dangerfield zu zitieren, hat Lean zufolge die Sonne keinerlei Aufmerksamkeit erfahren. …

Klimamodelle haben bei der Abbildung des zyklischen Einflusses der Sonne auf das Klima versagt, und das „hat zu dem Gefühl geführt, dass die Sonne außen vor ist“, sagte Lean. „Und sie müssen absolut beweisen, dass sie außen vor ist“.

Lean zufolge ist die Kombination von vielen La Niñas und dem solaren Minimum, das ausgehend von einem Maximum 2001 im Jahre 2008 ungewöhnlich lange dauerte, alles, was gebraucht wird, um die zunehmende Erwärmung durch steigende Treibhausgaskonzentrationen zu kompensieren. Da die Sonne inzwischen aber wieder aktiver geworden ist, nimmt Lean an, dass die Temperaturen parallel zur Sonnenaktivität steigen mit einem Maximum 2014.

Dieser konsistente Trend hat Lean veranlasst, einen für einen Klimawissenschaftler seltenen Schritt zu tun: Sie machte eine Kurzfristvorhersage. Bis 2014 nimmt sie einen Anstieg der globalen Temperatur um 0,14°C an, getrieben durch den menschlichen Einfluss und die Sonne.

Von Graeme Stephens

Während der vergangenen Dekade hatten Wissenschaftler zum ersten Mal Zugang zu verlässlichen Messungen der ozeanischen Tiefenwärme, bis hinab zu 5000 Fuß [ca. 1500 m] unter dem Meeresspiegel, und zwar durch das ARGO-Beobachtungsnetz, einer Sammlung tausender automatischer Bojen, die alle paar Tage in der Wassersäule auf und ab schwimmen. Dies brachte Hansen zu der Schlussfolgerung, dass die Energiebilanz, um kurz technisch zu werden, 0,6 Watt pro Quadratmeter betragen würde und nicht 1 Watt pro Quadratmeter, wie einige angeführt haben.

 (Vor kurzem hat die Satellitengruppe, die die Energiebilanz misst, das Bild revidiert zu jetzt 0,6 Watt, was Graeme zufolge mit Hansens Schätzung übereinstimmt.) Graeme ist Leiter der Cloudsat-Mission bei der NASA. Es legt nahe, dass es keine fehlende Energie gibt. Trenberth widerspricht dieser Analyse, und es ist wahrscheinlich eine Frage der im Gange befindlichen Debatte).

Von Robert Kaufmann

Im vergangenen Sommer hat Robert Kaufmann, ein BU-Geograph, Wellen geschlagen, als er eine Modellstudie veröffentlicht hat, in der es hieß, dass die fehlende Erwärmung vollständig auf El Niño und den zunehmenden Ausstoß von Sulfaten durch Kohleverbrennung in China zurückgeführt werden kann. Während die von Kaufmann benutzten Graphiken auf der Kohleverbrennung des Landes basieren und nicht auf aktuellen Emissionen – ein großer Punkt der Ungewissheit – erkannten viele Wissenschaftler einen gewissen Wahrheitsgehalt in seinen Hypothesen.

Von Martin Wild

Während der achtziger und neunziger Jahre dominierte die rasche Abnahme der Luftverschmutzung in den USA und Europa die Trends der weltweiten Aerosole. Während diese Emissionen im Westen weiter abnehmen, hat die Kohleverbrennung in Asien stark zugenommen. Die Welt wird dadurch nicht dunkler, sondern es ist so, dass sie nicht noch heller wird.

„Es ist kein allgemeiner Trend mehr”, sagt Martin Wild, ein leitender Autor der nächsten UN-Beschreibung des Klimazustands am Swiss Federal Institute of Technology, Zürich. Aber, fügt er hinzu, „es passt sehr gut zu der Energieerzeugung mit Kohle. Für mich ist es ziemlich erhellend, dass es so gut passt. Aber es kann immer noch Zufall sein“.

Von Daniel Jacobs

Die Ergebnisse von Kaufmann könnten nicht mehr lange relevant sein. Seit 2006 hat China begonnen, Filter in seine Kohlekraftwerke einzubauen, obwohl es jedoch unsicher ist, wie oft diese Filter  funktionieren, selbst nachdem sie installiert worden sind. Aber die Veränderung kommt, sagte Daniel Wild, ein Atmosphärenchemiker an der Harvard University.

„Die Sulfatquellen haben sich eingependelt, weil sie begonnen haben, ernstzunehmende Emissionskontrollen in ihren Kraftwerken einzuführen“, sagte Jacob. „Das ist interessant! Schaut man auf künftige Emissionsszenarien des (nächsten UN-Klimaberichtes), sieht man die So2-Emissionen fallen wie ein Stein, selbst in den kommenden Jahrzehnten. Hauptsächlich deshalb, weil China etwas gegen das Problem der beeinträchtigten öffentlichen Gesundheit unternehmen muss“.

Am Ende des Artikels wird die sich entwickelnde Debatte selbst unter diesen Wissenschaftlern beleuchtet.

…Viele der Wissenschaftler, die sich mit der Erwärmungslücke befassen, haben gegensätzliche Ansichten – und tauschen sie in einer kameradschaftlichen und gelehrten Art und Weise aus. Judith Lean, die Solarwissenschaftlerin, findet Kaufmanns Arbeit nicht überzeugend und missbilligt die unnötige Kritik an China. Kaufmann moniert in Solomons Studien zur Stratosphäre fehlende Beweise. Hansen und Trenberth können sich nicht über einen Haushalt einigen.

Es erscheint atemberaubend, dass in einigen Jahren ein neuer Konsens für den nächsten UN-Bericht zur Klimaänderung zustande kommt. Aber er wird zustande kommen, und unter der Oberfläche werden wie immer die aufwühlenden Theorien und Rivalitäten lauern, die Fragen, das Wasser auf die Mühlen des wissenschaftlichen Lebens.

Kann also am Ende irgendjemand explizit benennen, was zu der Erwärmungspause geführt hat?

 „Alle diese Dinge tragen zu der relativ gedämpften Erwärmung bei“, sagt Santer in Livermore. „Die Schwierigkeit besteht darin, den Anteil der verschiedenen Beiträge herauszufinden. Das kann man nicht ohne systematisches Modellieren und Experimentieren tun. Ich hoffe, dass jemand das macht“.

Barnes für seinen Teil würde es gefallen herauszufinden, ob einige der Aerosole, die er in der Stratosphäre gefunden hatte, tatsächlich von der chinesischen Kohleverbrennung stammen. Es ist schwierig, das herauszufinden, aber er hofft, dass es geschehen könnte.

“Vielleicht, können wir es herausfinden, wenn sich die Kohleverbrennung verdreifacht”.

Autor Paul Voosen:

Link zum ausführlichen Artikel: http://www.eenews.net/public/Greenwire/2011/10/25/1

Link zu diesem Artikel im Original: http://www.klimaskeptiker.info/index.php?seite=einzelmeldung.php?nachrichtid=1987

Übersetzt von Chris Frey für EIKE




BEST Studie erneut widerlegt: Wie natürlich war die globale Erwärmung des 20. Jahrhunderts?

Update 2.11.11 Immer mehr Experten bezweifeln die Aussagekraft und Methoden der BEST Studie. (siehe ganz unten)

Lüdecke, Link und Ewert (im Folgenden LLE) verfolgen die gleichen Zielsetzung wie die Autoren von BEST und verwenden dafür sogar die gleichen Daten, die wohl auch in BEST einflossen, nämlich die des "Goddard Institute for Space Studies" (GISS) der NASA. GISS stellt weltweit insgesamt etwa 7500 Temperatur-Stationsdaten im Netz zur Verfügung, die meist Ende des 18. Jahrhunderts beginnen und im aktuellen Jahr enden. Dabei werden nicht nur die Jahresmittelwerte, sondern auch die Monatsmittelwerte, die für die hier besprochene Arbeit unabdingbar sind, angegeben. Von diesen 7500 Reihen sind auf Grund zu großer Datenlücken (oft fehlen ganze Jahrzehnte) nur die in der Überschrift des Aufsatzes von LLE genannte Anzahl von 2249 Reihen brauchbar. Es handelt sich um 1129 über 100 Jahre durchgehende Reihen der Jahre 1906 bis 2005 und weitere über 50 Jahre durchgehende, separate Reihen der Jahre 1906-1955 und 1956 bis 2005. Vermutlich enthält der GISS Pool, von Ausnahmen abgesehen, sogar alle existierenden, durchgehenden Monatsreihen der genannten Perioden. Die in BEST verwendeten über 30.000 Reihen sind wohl (die betr. paper stehen noch nicht zur Verfügung, so dass eine endgültige Bewertung bzw. Aussage noch nicht getroffen werden kann) wesentlich kürzere Datenstücke, die dann in der BEST-Globalkurve quasi im "patchwork"-Verfahren zu einer Globalreihe destilliert wurden.

In der Analyse von LLE werden dagegen ausschließlich lokale, nicht homogenisierte und durchgehende Temperaturreihen verwendet. Gemäß Expertenmeinung von international anerkannten Statistikern ist dies die einzige verlässliche Methode, denn alle Homogenisierungs-, Grid- und sonstigen Verfahren um Globalreihen zu erstellen, sind nach Aussagen dieser Fachleute fragwürdig. LLE verwenden neben der "klassischen" Auswertung mittels linearer Regression die bereits besprochenen  Verfahren der Autokorrelationsanalyse. Wir legen die Arbeit von LLE als pdf bei, es ist eine gemäß "copy right" des IJMPC zugelassene eigene Version, die sich, abgesehen von geringen Änderungen in der Gestaltung, nicht vom Originalaufsatz unterscheidet. 

Zuammengefasst die Ergebnisse des LLE Aufsatzes:

1. Für den Zeitraum von 1906-2005 wird im Mittel aller Stationen eine globale Erwärmung von 0.58 °C nachgewiesen. Insgesamt ein Viertel aller Stationen zeigt Abkühlung statt Erwärmung.  

2. Berücksichtigt man nur die Stationen mit weniger als max. 1000 Einwohnern, reduziert sich dieser Wert auf 0.52 °C. Damit ist der Urban Heat Island Effect (UHI) eindeutig belegt. Er wird in der Arbeit im Übrigen noch auf 2 weitere unabhängige Arten bestätigt.

3. Ein bisher im wes. unbekannter Erwärmungseffekt bei zunehmender Stationshöhe führt dazu, dass die globale Erwärmung nochmals auf 0.41 °C sinkt, wenn in den Stationen unter 1000 Einwohnern auch noch die unter 800 müNN verwendet werden.

4. Die Stationen sind im Wesentlichen auf den Breitengradbereich zwischen 20° und 70° konzentriert. Die leider viel zu wenigen Stationen der Südhemisphäre zeigen generell eine stärkere Abkühlungstendenz als ihre nordhemisphärischen Gegenstücke. 

5. Da Temperaturreihen je nach Persistenzgrad eine starke zufällige Erwärmung oder auch Abkühlung über längere Zeit aufweisen können, wurde mit Hilfe einer erst seit wenigen Jahren bekannten Analysemethode die Trennung von natürlichem Anteil und Trendanteil für jede der 2249 Reihen durchgeführt. Daraus ließ sich schließlich bestimmen, zu welchem Grad die globale Erwärmung des 20. Jahrhunderts (hier 1906-2005) eine natürliche Fluktuation war. Für diese Wahrscheinlichkeit wurden Werte von 40% bis 90% gefunden, die davon abhängen, welche Charakteristika (z.B. weniger oder mehr als 1000 Einwohner etc.)  die jeweils betrachtete Stationsgruppe aufweist.

Fazit der Arbeit von LLE ist, dass die globale Erwärmung des 20. Jahrhunderts als überwiegend natürliches Phänomen angesehen werden muss. Wie bereits erwähnt, wurden im „unnatürlichen“ Rest eindeutig der UHI und eine Erwärmung mit zunehmender Stationshöhe, deren Ursachen im Dunkeln liegen, dingfest gemacht. Über die Natur dessen, was dann noch an Erwärmung übrig bleibt, kann das verwendete Analyseverfahren keine Auskunft geben. Kandidaten sind der langfristige Einfluss des Sonnemagnetfeldes (über Aerosol- bzw. Wolkenbildung durch variierende kosmische Strahlung), massive bauliche und sonstige Änderungen der Messtationen in den 70-er Jahren, die sich vorwiegend in Richtung einer scheinbaren Erwärmung auswirken und schlussendlich auch die Erwärmungswirkung des anthropogenen CO2. Letztere kann gemäß den Ergebnissen nicht sehr bedeutend sein, von Verstärkungseffekten ist ohnehin nichts zu bemerken. Es ist zu betonen, dass die aufgefundene globale Erwärmung vermutlich noch kleiner ausfällt, wenn die Stationsüberdeckung in der Südhemisphäre größer wäre.

Für fachlich näher Interessierte sei darauf hingewiesen, dass die Problematik der Erstellung und Verwendung von Globalreihen (BEST ist eine Globalreihe) im Aufsatz von LLE behandelt wird. Es zeigt sich, dass die Algorithmen zur Erstellung von Globalreihen an einem nicht zu beseitigenden Mangel kranken, der sie für die Autokorrelationsanalyse unbrauchbar macht. Globalreihen zeigen nämlich grundsätzlich andere Autokorrelationseigenschaften als lokale Reihen. Allein aus diesem Grunde erscheint das Verfahren der Globalreihenbildung fragwürdig.

Abschließend und mit Hinblick auf die jüngsten Irritationen im Autorenteam von BEST (Judith Curry vs. R. Muller), die die jüngste globale Abkühlung betrifft, noch das folgende Teilergebnis:

LLE fanden in der Gesamtheit aller Ihnen zur Verfügung stehenden 1386 Reihen weltweit (von denen jede in den nachfolgend genannten Zeiträumen keine einzige Datenlücke aufweist) eine mittlere globale Abkühlung von -0.34 °C im Zeitraum 1998 bis 2010 und von -0.15 °C im Zeitraum von 2000 bis 2010.

Michael Limburg    

Update 2.11.11

Immer öfter werden die Aussagen und Methoden – auch wg. unveröffentlichter Daten"  der BEST Studie von Experten in Zweifel gezogen. War alles nur ein PR Gag eines unverbesserlichen Klimaalarmisten? 

So stellt der bekannte Statistiker Steven McIntyre auf Climate Audit soeben fest, dass 649 von der Berkeley Studie verwendeten Stationen wohl keine bekannte Heimat haben.

BREAKING: (http://tinyurl.com/69sdqmn) Steven McIntyre reports that “649 Berkeley stations lack information on latitude and longitude, including 145 BOGUS stations. 453 stations lack not only latitude and longitude, but even a name. Many such stations are located in the country “[Missing]“, but a large fraction are located in “United States”. 

Steve says: “I’m pondering how one goes about calculating spatial autocorrelation between two BOGUS stations with unknown locations.”

Willis Eschenbach beschreibt hier ausführlich welch merkwürdiges, z.T. unethische Verhalten Dr. Rich Muller an den Tag legte, um ja in die Schlagzeilen zu kommen:

So let me stick to the facts. I fear I lost all respect for the man when he broke a confidentiality agreement with Anthony Watts, not just in casual conversation, but in testimony before Congress. So there’s your first fact….

Joanne Nova zeigt auf, dass Dr. Richard Muller von je her zu den Alarmisten gehörte aber außer heißer Luft bisher wenig geboten hat.  "BEST statistics show hot air doesn’t rise off concrete!" Auszüge:

The BEST media hit continues to pump-PR around the world. The Australian repeats the old-fake-news “Climate sceptic Muller won over by warming”.  This o-so-manufactured media blitz shows how desperate and shameless the pro-scare team is in their sliding descent. There are no scientists switching from skeptical to alarmist, though thousands are switching the other way.

The sad fact that so many news publications fell for the fakery, without doing a ten minute google, says something about the quality of our news. How is it headline material when someone who was never a skeptic pretends to be “converted” by a result that told us something we all knew anyway (o-look the world is warming)?

The five points every skeptic needs to know about the BEST saga:

1.  Muller was never a skeptic

Here he is in 2003:

“carbon dioxide from burning of fossil fuels will prove to be the greatest pollutant of human history.” [kudos to Ethicalarms]

And with Grist in 2008:

“The bottom line is that there is a consensus and the president needs to know what the IPCC says”.

2. BEST broke basic text-book rules of statistics

They statistically analyzed smoothed time series! Douglass Keenan quotes the guru’s “you never, ever, for no reason, under no threat, SMOOTH the series! ” (because smoothing injects noise into the data). BEST did, thus invalidating their results…..

Related Files