1

Antwort eines Mathematikers auf die BEST Studie

Keenan (siehe Foto rechts) schreibt:

The Economist forderte mich auf, vier Forschungsstudien des BEST-Projektes zu kommentieren. Die vier Studien, die nicht veröffentlicht sind, haben folgende Titel:

Es folgt Einiges der Korrespondenz, die wir hatten (man beachte: meine Kommentare wurden unter Zeitdruck geschrieben und sind nicht überarbeitet).

From: D.J. Keenan
To: Richard Muller [BEST Scientific Director]; Charlotte Wickham [BEST Statistical Scientist]
Cc: James Astill; Elizabeth Muller
Sent: 17 October 2011, 17:16
Subject: BEST papers
Anhang: Roe_FeedbacksRev_08.pdf; Cowpertwait & Metcalfe, 2009, sect 2-6-3.pdf; EmailtoDKeenan12Aug2011.pdf

Charlotte und Richard,

James Astill, Redakteur für Energie & Umwelt bei The Economist, fragte Liz Muller, ob es in Ordnung gehe, mir die BEST-Studien zu zeigen, und sie stimmte zu. Bislang habe ich zwei der Studien gelesen:

Decadal Variations in the Global Atmospheric Land Temperatures

  • Influence of Urban Heating on the Global Temperature Land Average Using Rural Sites Identified from MODIS Classifications

Es folgen dazu einige Bemerkungen.

In der ersten Studie werden verschiedene Reihen verglichen und analysiert. Die Reihen wurden jedoch manchmal durch gleitende Mittelbildung geglättet. Geglättete Reihen können in den meisten statistischen Analysen nicht benutzt werden. Für einige Bemerkungen hierzu, die lediglich ein wenig statistisches Hintergrundwissen erfordern, sei hier auf die Blogbeiträge des Mathematikers (und Statistikers) Matt Briggs hingewiesen:

Do not smooth times series, you hockey puck!
Do NOT smooth time series before computing forecast skill

Hier folgt ein Auszug daraus (Hervorhebung im Original):

Sofern die Daten nicht mit einem Fehler gemessen werden, wird man die Reihen niemals, niemals unter keinen Umständen GLÄTTEN! Falls man sie aus irgendwelchen bizarren Gründen doch glättet, benutzt man diese geglätteten Reihen absolut NIEMALS als Input für andere Analysen! Wird doch mit einem Fehler gemessen, kann man versuchen, sie zu modellieren (das heißt zu glätten), um vielleicht den Fehler abzuschätzen, aber selbst in diesen seltenen Fällen muss man eine Schätzung von außerhalb haben, d. h. die Abschätzung darf nicht aufgrund der aktuellen Daten erfolgen.

Falls man in einem Anfall von Schwachsinn die Daten von Zeitreihen doch glättet und sie dann doch als Eingangswerte für andere Analysen nimmt, steigt die Wahrscheinlichkeit, sich selbst zum Narren zu halten, dramatisch! Und zwar weil das Glätten Spurensignale erzeugt – Signale, die für andere analytische Methoden real aussehen.

Es scheint, dass dieses Problem vieles der statistischen Analyse in eurer Studie ungültig macht.

Es gibt noch ein weiteres, größeres Problem bei Ihren Studien. In statistischen Analysen zieht man Folgerungen nicht direkt aus den Daten. Vielmehr wird ein statistisches Modell in die Daten eingepasst, und die Folgerungen ergeben sich aus dem Modell. Wir sehen manchmal Aussagen wie „Die Daten nehmen signifikant zu“, aber das ist eine leere Phrase. Daten können nicht signifikant zunehmen, nur ein Trend in einem statistischen Modell kann das.

Ein statistisches Modell sollte sowohl hinsichtlich der Statistik als auch der zugrunde liegenden Wissenschaft plausibel sein. Die statistische Basis schließt in der Regel ein, das Modell mit anderen plausiblen Modellen oder die beobachteten Werte mit dem vom Modell vorhergesagten Werten zu vergleichen. Die Diskussion auf wissenschaftlicher Basis wird zum größten Teil aus den Texten in der Statistik kommen (weil die Texte die Statistiken erläutern), aber nichtsdestotrotz ist es unabdingbar, dass ein Modell wissenschaftlich plausibel ist. Falls die statistische und die wissenschaftliche Basis eines Modells in einer Analyse oder aus dem Zusammenhang nicht klar hervorgeht, dann sollte man Folgerungen aus dem Modell als unbegründet betrachten.

Das statistische Modell, das in den meisten Analysen klimatologischer Zeitserien angewandt wird, ist eine gerade Linie (normalerweise steigend) mit Rauschen (d. h. Störungen), die AR(1) sind [AR steht hier also NICHT für Assessment Report! A. d. Übers.]. AR(1) steht kurz für „Autoregression erster Ordnung“, was grob gesagt bedeutet, dass (allein) dieses Jahr eine direkte Auswirkung auf das nächste Jahr hat; ist zum Beispiel dieses Jahr sehr kalt, wird das nächste Jahr eine Tendenz in Richtung kälter als im Mittel aufweisen.

Dieses Modell – eine gerade Linie mit AR(1)-Rauschen – ist das beim IPCC angewandte Modell (siehe AR4: §I.3.A). Ebenso wurde dieses Modell durch das U.S. Climate Change Science Program benutzt (welches dem Kongress Rechenschaft ablegt) in seiner Analyse „Statistische Hinweise in Bezug auf Trends“ (hier). Und so weiter. Ein auf AR(1) basierendes Modell wurde außerdem auf zahlreiche klimatologische Zeitreihen von anderen Größen als der globalen Temperatur angewandt. Zum Beispiel auf die Pazifische Dekadische Oszillation, die in Ihrer Studie untersucht worden ist: Siehe das Begutachtungspapier von Roe (2008) im Anhang.

Obwohl ein auf AR(1) basierendes Modell verbreitet Anwendung fand, enthält es nichtsdestotrotz doch gravierende Probleme. Diese sind eigentlich so grundlegend, dass sie in einigen untergeordneten Texten über Zeitreihen diskutiert werden – zum Beispiel in Time Series Analysis and Its Applications (third edition, 2011) by R.H. Shumway & D.S. Stoffer (see Example 2.5; set exercises 3.33 and 5.3 elaborate).

In Australien beauftragte die Regierung die Garnaut Review, über die Klimaänderung zu berichten. Die Garnaut Review befragte Spezialisten für die Analyse von Zeitreihen, um die globalen Temperaturreihen zu analysieren. Unter Berücksichtigung des Berichtes dieser Spezialisten wie z. B. Shumway & Stoffer wurde das auf AR(1) basierende statistische Modell verworfen. Die statistische Analyse zeigt, dass dieses Modell zu einfach gestrickt ist, um mit der Komplexität globaler Temperaturreihen umzugehen.

Außerdem haben einige führende Klimatologen auf wissenschaftlicher Basis vehement darauf hingewiesen, dass das auf AR(1) basierende Modell unrealistisch und zu einfach ist (Foster et al., GRL, 2008).

Zusammenfassend muss man sagen, dass die meiste Forschung zur globalen Erwärmung auf einem statistischen Modell basiert, das man nicht verwenden sollte. Dies macht viele Analysen zur globalen Erwärmung ungültig. Ich habe ein op-ed piece im Wall Street Journal veröffentlicht, in dem ich diese Dinge erkläre, in einfachem Englisch, in diesem Jahr.

Das größte Zentrum zur Erforschung der globalen Erwärmung in UK ist das Hadley Centre. Dort arbeitet ein Statistiker, Doug McNeall. Nachdem mein op-ed piece erschienen war, gab es zwischen Doug McNeall und mir darüber einen Austausch von e-mails. Eine Kopie von einer seiner Botschaften findet sich im Anhang. Darin stellt er fest, dass das statistische Modell – eine gerade Linie mit AR(1)-Rauschen – „einfach ungeeignet“ ist. (Er glaubt immer noch, dass sich die Welt erwärmt, hauptsächlich aufgrund von Computersimulationen des globalen Klimasystems).

Obwohl man vom AR(1)-basierten Modell inzwischen weiß, dass es ungeeignet ist, weiß niemand, welches statistische Modell man benutzen sollte. Es gab verschiedene Studien hierzu in der wissenschaftlich begutachteten Literatur, in denen mögliche Lösungen vorgeschlagen worden sind, aber bisher hat kein Alternativmodell viel Akzeptanz erfahren.

Als ich vom BEST-Projekt erfuhr, hatte ich den Eindruck, dass es darin um statistische Dinge geht. Also war ich extrem neugierig zu sehen, welches statistische Modell verwendet wurde. Ich hatte angenommen, dass eine grundlegende statistische Expertise in das Projekt eingebracht worden ist, und ich hatte das Vertrauen dass zumindest eine große Verbesserung des AR(1)-basierten Modelles herauskommen würde. Tatsächlich habe ich das in einem Interview mit The Register im Juni gesagt.

BEST hat sich aber weder des AR(1)-basierten Modells angenommen; noch hat es ein Modell verwendet, das mit einigen der Komplexitäten rechnet, an denen AR(1) gescheitert ist. Statt dessen hat BEST ein Modell verwendet, das sogar noch einfacher gestrickt ist als AR(1), ein Modell, das im Wesentlichen keine Strukturen in Zeitreihen zulässt. Im Einzelnen vermutet das bei BEST verwendete Modell, dass dieses Jahr keine Auswirkungen auf das nächste Jahr hat. Klimatologisch ist diese Vermutung ganz klar ungültig. Wie man einfach sehen kann, gilt es auch nicht in statistischer Hinsicht. Also sind die Schlussfolgerungen der beim BEST durchgeführten statistischen Analyse ohne Grundlage.

All dies geschah, obwohl zum Verständnis der entscheidenden Frage – welches statistische Modell sollte man verwenden? – lediglich ein einführendes Niveau zum Verstehen von Zeitreihen erforderlich ist. Die Frage ist so grundlegend, dass sie in der Einführung bei Shumway & Stoffer enthalten ist, siehe obigen Auszug. Ein weiterer Text, der das auf ähnliche Weise versucht, ist die Introductory Time Series with R von P.S.P. Cowpertwait & A.V. Metcalfe (2009); ein Abschnitt dieses Textes ist im Anhang. (Der Abschnitt sagt aus, dass aus statistischer Perspektive ein reines AR(4)-Modell für globale Temperaturen geeignet ist). Weder Shumway & Stoffer noch Cowpertwait & Metcalfe haben meines Wissens eine Agenda zur globalen Erwärmung. Vielmehr schreiben sie einführende Texte über Zeitreihen und geben Studenten praktische Beispiele; jeder Text schließt eine Reihe globaler Temperaturen als ein Beispiel ein.

Es gibt auch Bücher, die sich der statistischen Analyse von Klimadaten verschrieben haben und in denen das Modellieren von Zeitreihen im Detail beschrieben wird. Mein Bücherschrank enthält diese hier:

Climate Time Series Analysis (Mudelsee, 2010)
Statistical Analysis in Climate Research (von Storch & Zwiers, 2003)
Statistical Methods in the Atmospheric Sciences (Wilks, 2005)
Univariate Time Series in Geosciences (Gilgen, 2006)

Betrachtet man die zweite Studie über den Wärmeinseleffekt lautet die Schlussfolgerung, dass es eine gewisse städtische Abkühlung gegeben hat. Diese Schlussfolgerung widerspricht einem Jahrhundert Forschung ebenso wie der allgemeinen Erfahrung. Sie ist fast mit Sicherheit falsch. Und falls eine solche unerwartete Schlussfolgerung korrekt ist, dann sollten alle denkbaren Anstrengungen unternommen werden, um dem Leser zu zeigen, dass sie richtig sein muss.

Ich schlage eine alternative Erklärung vor. Machen Sie sich zunächst klar, dass in Ihrer Analyse als „sehr ländlich“ beschriebene Stationen tatsächlich einfach „Orte sind, die nicht durch eine bebaute Umgebung dominiert werden“. Mit anderen Worten, es könnte auch – und vermutlich ist das auch so – eine substantielle Urbanisation an jenen Stationen geben. Zweitens, nehmen Sie zur Kenntnis, dass Roy Spencer Beweise präsentiert hat, dass die Auswirkungen der Urbanisation hinsichtlich der Temperatur exponentiell mit steigender Bevölkerungszahl wachsen (hier)

Fasst man diese beiden Dinge zusammen, können wir erwarten, dass der UHI-Effekt an „sehr ländlich“ klassifizierten Stationen größer ist als an „städtisch“ klassifizierten. Und das ist tatsächlich das, was Ihre Analyse zeigt. Natürlich, sollte diese alternative Erklärung korrekt sein, können wir keinerlei Aussagen über die Größe des UHI-Effektes auf die Messung der mittleren Temperatur machen, wenn man die Annäherung in Ihrer Studie benutzt.

Es gibt noch andere, kleinere Probleme mit ihrer Studie. Im Einzelnen stellt der Abschnitt mit der Diskussion Folgendes fest:

Wir beobachten das Gegenteil eines städtischen Erwärmungseffektes während der Zeitspanne von 1950 bis 2010 mit einer Neigung von -0.19 ± 0.19 °C/100 Jahre. Dies ist statistisch nicht konsistent mit früheren Schätzungen, aber es zeigt, dass der Effekt sehr klein ist…

Falls die beiden Schätzungen nicht konsistent sind, widersprechen sie einander. Mit anderen Worten, zumindest eine von ihnen muss falsch sein. Also kann die eine Schätzung nicht benutzt werden, um eine Folgerung aus der anderen zu „verifizieren“. Das hat nichts mit Statistik zu tun. Es ist logisch!

Sincerely, Doug
* * * * * * * * * * * *
Douglas J. Keenan
http://www.informath.org


From: Richard Muller
To: James Astill
Cc: Elizabeth Muller
Sent: 17 October 2011, 23:33
Subject: Re: BEST papers

Hallo James,

Sie haben die Kopie einer e-mail empfangen, die DJ Keenan an mich und Charlotte geschrieben hat. Er spricht darin eine Menge Dinge an, die eine Antwort erfordern. Einige spiegeln Missverständnisse, andere spiegeln einfach Meinungsverschiedenheiten unter Experten im Bereich der Statistik. Da diese Dinge wieder und immer wieder aufkommen dürften, bereiten wir einen Menüpunkt FAQ vor, den wir auf unserer Website platzieren.

Keenan sagt, dass er unsere lange Studie zu statistischen Methoden noch nicht gelesen hat. Ich denke, wenn er sie liest, wird er mehr bereit sein, die Erfahrenheit und die Sorgfalt  anzuerkennen, die wir für diese Analyse aufgewendet haben. David Brillinger, unser leitender Berater zu Statistiken, warnte uns davor, dass wir bei Vermeidung des Jargons der Statistik andere Statistiker in die Irre führen können, indem sie denken könnten, wir hätten eine naive Annäherung durchgeführt. Aber wir haben uns entschlossen, in einem beiläufigen Stil zu schreiben, speziell um es uns zu ermöglichen die größere Welt der Geophysiker und Klimawissenschaftler zu erreichen, die den Jargon nicht verstehen. Falls Keenan die Methoden der Studie liest, wird er mehr anerkennen, was wir getan haben.

Auch ist es wichtig zu erkennen, dass wir kein neues Feld der Wissenschaft erzeugen, sondern etwas zu einem solchen Feld hinzufügen, das eine lange Geschichte hat. In der Vergangenheit habe ich Folgendes entdeckt: wenn man es vermeidet, Methoden aus der Vergangenheit anzuwenden, verstehen die Schlüsselwissenschaftler im Feld nicht, was man gemacht hat. Als mein liebstes Beispiel zitiere ich eine Studie von mir, in der ich geschrieben habe, dass ich Daten genutzt habe, die ungleich in der Zeit verteilt waren; also führte ich ein Lomb periodogramm [?] durch. Die Studie wurde durch Schiedsrichter zurückgewiesen, die argumentierten, dass ich eine „obskure“ Annäherung benutzt habe und einfach die traditionelle Interpolation hätte durchführen sollen, gefolgt von einer Blackman-Tukey-Analyse. In Zukunft werde ich es so machen, immer mit der Vorsicht, auch eine Lomb-Analyse durchzuführen, um sicherzustellen, dass sich keine Unterschiede ergeben.

In seinem Eingangskommentar geht es um das Glätten von Daten. Es gibt sicherlich Statistiker, die diesem Vorgehen vehement widersprechen, aber es gab auch Spitzenstatistiker, die es unterstützen. Hierzu gehören David Brillinger und sein Mentor, der große John Tukey. Tukey revolutioniert das Feld der Datenanalyse für die Wissenschaft, und seine Methoden dominieren viele Bereiche der physikalischen Wissenschaft.

Tukey argumentierte, dass dieses Glätten eine Version von “Vorab-Weißwäsche” war, ein nützliches Verfahren, um reale, aber uninteressante Eigenheiten aus den Daten zu entfernen. Er zeigte, dass diese Vorab-Weißwäsche zu einem robusteren Ergebnis führt. Dies ist im Endeffekt das, was er in seiner Studie zu dekadischen Variationen gemacht hatte. Die langen Änderungen der Zeiträume standen nicht im Brennpunkt unserer Studie, also haben wir eine Anpassung der größten Wahrscheinlichkeit durchgeführt, sie entfernt und dann die übrigen Daten untersucht.

Zitat von Keenan: „Falls man in einem Anfall von Schwachsinn die Daten von Zeitreihen doch glättet und sie dann doch als Eingangswerte für andere Analysen nimmt, steigt die Wahrscheinlichkeit, sich selbst zum Narren zu halten, dramatisch! Und zwar weil das Glätten Spurensignale erzeugt – Signale, die für andere analytische Methoden real aussehen.“ Dann zieht er ein Fazit, das nicht aus diesem Zitat abgeleitet ist; er sagt: „Dieses Problem scheint Vieles der statistischen Analyse in Ihrer Studie ungültig zu machen“.

Natürlich ist das unlogisch. Nur weil die Glättung die Wahrscheinlichkeit zunehmen lässt, dass wir uns selbst betrügen, heißt das noch lange nicht, dass wir das auch tun. Es gibt einen echten Wert geglätteter Daten, und ja, man muss sich vor den Fallen in Acht nehmen. Wenn Sie das tun, gibt es einen echten Vorteil der Glättung. In meinem Buch zum Thema “Ice Ages and Astronomical Causes” habe ich das detailliert beschrieben. Der größte Teil dieses Buches handelt von den Fallen und Fallgruben, in die andere bereits gefallen sind.

Keenan fährt fort: „In statistischen Analysen werden keine Folgerungen aus den Daten direkt abgeleitet. Vielmehr wird ein statistisches Modell an die Daten angepasst, und Folgerungen werden aus dem Modell gezogen“. Dem stimme ich von ganzem Herzen zu! Er könnte durcheinander gekommen sein, weil wir die Sprache der Physik und Geophysik benutzt haben und nicht die der Statistik. Er sagt weiter: „Dies macht vieles von den Analysen zur globalen Erwärmung ungültig.“ Wenn wir weiterkommen wollen, ist es nicht gut, einfach das meiste der früheren Arbeiten schlecht zu machen. Also haben wir sorgfältiger gearbeitet und gültige statistische Methoden angewandt, aber unsere Studie schreiben wir so, dass frühere Bearbeiter auf diesem Gebiet verstehen, was wir sagen. Unsere Hoffnung ist es teilweise, die Methoden allgemein voranzubringen.

Unglücklicherweise lautet Keenans Schlussfolgerung, dass es praktisch keine gültigen Arbeiten im Bereich Klima gegeben hatte, dass man ein besseres Modell braucht, ohne dass er aber weiß, wie dieses Modell aussehen könnte. Er sagt: „Zusammenfassend muss man sagen, dass die meiste Forschung zur globalen Erwärmung auf einem statistischen Modell basiert, das man nicht verwenden sollte. Dies macht viele Analysen zur globalen Erwärmung ungültig. Ich habe ein op-ed piece im Wall Street Journal veröffentlicht, in dem ich diese Dinge erkläre, in einfachem Englisch, in diesem Jahr.“

Hier folgt dieses Zitat, in dem er im Grunde ausdrückt, dass keine Analyse bzgl. der globalen Erwärmung unter seinen statistischen Standards gültig ist: „Obwohl man vom AR(1)-basierten Modell inzwischen weiß, dass es ungeeignet ist, weiß niemand, welches statistische Modell man benutzen sollte. Es gab verschiedene Studien hierzu in der wissenschaftlich begutachteten Literatur, in denen mögliche Lösungen vorgeschlagen worden sind, aber bisher hat kein Alternativmodell viel Akzeptanz erfahren.“

Was er sagt ist, dass statistische Modelle nicht geeignet sind, um zu zeigen, ob es eine globale Erwärmung oder Abkühlung oder was auch immer gibt. Das ist eine sehr starke Schlussfolgerung, und sie spiegelt meiner Meinung nach seine übertriebene Pedanterie statistischer Methoden. Er kann und wird jede Studie in der Vergangenheit und in der Zukunft aus den gleichen Gründen kritisieren. Wir könnten genauso gut unsere Versuche aufgeben, die globale Erwärmung zu evaluieren, bis wir ein „Modell“ finden, dem Keenan zustimmt – aber er hilft uns nicht dabei, ein solches Modell zu finden.

Tatsächlich zeigt ein schneller Blick auf seine Website, dass es in der Liste seiner Veröffentlichungen fast ausschließlich um Analysen geht, die zeigen, dass die anderen Studien falsch sind. Ich habe den starken Verdacht, dass Keenan jedes Modell ablehnt, das wir benutzt haben.

Er gibt einigen Klagen klaren Ausdruck. Er zitiert aus unserer Studie, wo wir sagen: „Wir beobachten das Gegenteil eines städtischen Erwärmungseffektes während der Zeitspanne von 1950 bis 2010 mit einer Neigung von -0.19 ± 0.19 °C/100 Jahre. Dies ist statistisch nicht konsistent mit früheren Schätzungen, aber es zeigt, dass der Effekt sehr klein ist…“

Dann beklagt er sich: Wenn die beiden Schätzungen nicht konsistent sind, widersprechen sie einander. Mit anderen Worten, mindestens eine von ihnen muss falsch sein. Also kann es nicht benutzt werden, um die Ergebnisse des anderen Modells zu „verifizieren“. Das hat nichts mit Statistik zu tun. Das ist logisch!

Er interpretiert unsere Aussage falsch. Unsere Schlussfolgerung basiert auf unserer Analyse. Wir glauben, dass diese korrekt ist. Die Tatsache, dass sie mit früheren Schätzungen inkonsistent ist, schließt ein, dass eine davon falsch ist. Natürlich glauben wir dies von den früheren Schätzungen. Wir glauben nicht, dass die früheren Schätzungen mehr waren als „Rateschätzungen“ [unübersetzbares Wortspiel: statt „estimates“ steht im Original „guestimates“. A. d. Übers.], und darum gibt es keinen „statistischen“ Widerspruch.

Er beklagt sich: Betrachtet man die zweite Studie über den Wärmeinseleffekt lautet die Schlussfolgerung, dass es eine gewisse städtische Abkühlung gegeben hat. Diese Schlussfolgerung widerspricht einem Jahrhundert Forschung ebenso wie der allgemeinen Erfahrung. Sie ist fast mit Sicherheit falsch. Und falls eine solche unerwartete Schlussfolgerung korrekt ist, dann sollten alle denkbaren Anstrengungen unternommen werden, um dem Leser zu zeigen, dass sie richtig sein muss.

Er zieht eine starke Schlussfolgerung aus einem Effekt, der nur bei einer Standardabweichung signifikant ist. Er hätte uns niemals behaupten lassen, dass -0,19 +/-0,19°C pro Jahrhundert auf eine städtische Abkühlung hinweist. Ich bin überrascht, dass ein Statistiker argumentiert, dass ein statistisch so insignifikanter Effekt auf Abkühlung hinweist.

Bitte seien Sie vorsichtig, wem Sie diese e-mail zeigen. Wir sind wirklich daran interessiert, besser zu sein als alle anderen Analysten in diesem Bereich, und ich befürchte, wenn Teile dieser Mail aus dem Zusammenhang gerissen gelesen werden, dass man diese falsch interpretieren könnte.

Rich


From: D.J. Keenan
To: James Astill
Sent: 18 October, 2011 17:53
Subject: Re: BEST papers

James,

Um auf den Kern der Sache zu kommen, es sieht so aus, als ob Rich [Richard Mullen] und ich in Übereinstimmung sind. Hier folgt ein Auszug aus seiner Antwort.

Keenan: „In statistischen Analysen werden keine Folgerungen aus den Daten direkt abgeleitet. Vielmehr wird ein statistisches Modell an die Daten angepasst, und Folgerungen werden aus dem Modell gezogen“. Dem stimme ich von ganzem Herzen zu!

Und daher lautet die Frage: War das statistische Modell, das für die Analyse benutzt worden ist, eine gute Wahl? Falls nicht – da ihre Schlussfolgerungen auf diesem Modell basieren – müssen ihre Schlussfolgerungen unbegründet sein.

Tatsächlich wurde das von ihnen verwendete statistische Modell von nahezu jedem abgelehnt. Im Besonderen wurde es sowohl vom IPCC als auch vom CCSP abgelehnt, wie ich schon vorher sagte. Ich kenne keine Arbeit, die ihre Wahl des Modells unterstützt: sie haben das Modell einfach übernommen, ohne zu versuchen zu ergründen, ob es gerechtfertigt ist, was mit Sicherheit falsch ist.

 (Es ist seit Jahrzehnten bekannt, dass das statistische Modell, das sie verwendet haben, nicht benutzt werden sollte. Obwohl die statistischen Probleme mit diesem Modell seit langem eindeutig waren, kannte niemand den physikalischen Grund dafür. Dann hat Klaus Hasselmann im Jahre 1976 eine Studie veröffentlicht, in der er den Grund erklärt. Die Studie ist berühmt und wurde seitdem über 1000 mal zitiert.)

Man kann darüber streiten, welches statistische Modell man benutzen kann. Gewiss ist jedoch, dass das Modell, das BEST benutzt hat, abgelehnt werden sollte. Daraus folgt, dass die Schlussfolgerungen unbegründet sind.

Hinsichtlich der Glättung erfordert die Situation hier nur wenig Statistik, um sie zu verstehen. Man betrachte das Beispiel, das Matt Briggs hier vorgestellt hat. Wir nehmen zwei Reihen, jede vollständig abgeschlossen. Wir berechnet die Korrelation der beiden Reihen: Das wird zu einer Korrelation um 0 tendieren. Dann glätten wir beide Reihen und berechnen die Korrelation der beiden geglätteten Reihen: Sie wird größer sein als zuvor. Je mehr wir die beiden Reihen glätten, umso größer wird die Korrelation. Und doch haben wir mit zwei vollständig abgeschlossenen Reihen begonnen. Das ist keine Meinungssache, es ist faktisch. Und doch berechnet BEST die Korrelation geglätteter Reihen.

Die Antwort nutzt rhetorische Techniken, um zu vermeiden (Zitat) „Nur weil die Glättung die Wahrscheinlichkeit zunehmen lässt, dass wir uns selbst betrügen, heißt noch lange nicht, dass wir das auch tun.“ Diese Feststellung stimmt, stellt aber nicht den obigen Punkt in Frage.

Hinsichtlich der Studie zum UHI enthielt meine Botschaft auch das Folgende.

Es gibt andere, kleinere Probleme mit Ihrer Studie. Im Einzelnen wird im Abschnitt über die Diskussion das Folgende gesagt.

Wir beobachten das Gegenteil eines städtischen Erwärmungseffektes während der Zeitspanne von 1950 bis 2010 mit einer Neigung von -0.19 ± 0.19 °C/100 Jahre. Dies ist statistisch nicht konsistent mit früheren Schätzungen, aber es zeigt, dass der Effekt sehr klein ist…

Wenn die zwei Schätzungen nicht konsistent sind, dann widersprechen sie einander. Mit anderen Worten, mindestens eines von ihnen muss falsch sein. Also kann man nicht eine Schätzung benutzen, um eine Folgerung aus der anderen zu „verifizieren“. Das hat nichts mit Statistik zu tun. Es ist logisch!

In der Antwort wird behauptet: “Die Tatsache, dass (die Schlussfolgerung der Studie) inkonsistent mit früheren Schätzungen ist schließt ein, dass eine falsch ist“. Die Behauptung ist offensichtlich absurd.

In der Antwort werde ich auch dafür kritisiert, dass ich „eine starke Schlussfolgerung aus einem Effekt gezogen habe, der nur für eine Standardabweichung signifikant ist“. Diese Schlussfolgerung habe ich nicht gezogen, sondern in ihrer Studie wurde mir das in den Mund gelegt, und zwar indem sie sagt, dass der Effekt „im Gegensatz zum Erwarteten steht, wenn der UHI anomale Erwärmung hinzufügen würde“, und dass „natürliche Erklärungen irgendeine aktuelle Form der ‚urbanen Abkühlung’ erforderlich machen“, um dann mögliche Gründe zu beschreiben wie z. B. „Wenn eine Asphaltoberfläche durch Beton ersetzt wird, können wir erwarten, dass die Absorption von Sonnenwärme abnimmt, was insgesamt zu einem Abkühlungseffekt führt“.

Man beachte, dass die Antwort nicht die alternative Erklärung erwähnt, die meine Botschaft hinsichtlich der UHI-Ergebnisse vorgeschlagen hatte. Diese Erklärung, die auf einer Analyse von Roy Spencer basiert (den ich in meiner Botschaft erwähnt hatte), impliziert, dass wir keine Folgerung über die Größe des UHI-Effektes auf die Messung der mittleren Temperatur ableiten können, wenn man die Annäherung in ihrer Studie zur Hand nimmt.

Ich habe rasch die Methoden ihrer Studie überflogen. Sie betrifft keinen meiner Kritikpunkte.

Rich nennt auch sein Buch über die Gründe der Eiszeiten. Lesen Sie bitte mein op-ed piece im Wall Street Journal, und beachten Sie vor allem die Diskussion zu den Abbildungen 6 und 7. Sein Buch behauptet, die Daten in Abbildung 6 zu analysieren: das Ziel des Buches ist es zu erklären, warum die Ähnlichkeit der zwei Linien so schwach ist. Um den Mechanismus zu verstehen, ist es tatsächlich nur notwendig, eine einfache Subtraktion durchzuführen – wie ich in meinem  op-ed piece erkläre. Kurz gesagt, die Analyse in seinem Buch ist außerordentlich inkompetent – und man muss nur Subtraktion verstehen, um das zu sehen.

Die Person, die die Datenanalyse in jenem Buch durchgeführt hat, ist die gleiche Person, die für die Datenanalyse beim BEST verantwortlich ist. Die Datenanalyse in den BEST-Studien würde einen Grundkurs über statistische Zeitreihen im dritten Studienjahr nicht überstehen.

Zu guter letzt, ein Kommentar zu Temperaturaufzeichnungen am Boden wäre angebracht. Wir haben Satellitenaufzeichnungen für die letzten Jahrzehnte, und die stimmen gut mit den Bodenaufzeichnungen überein. Wir haben auch gute Beweise, dass die Welt vor 100 bis 150 Jahren kälter war als heute. Hauptsächlich aus diesen Gründen glaube ich, dass die Temperaturaufzeichnungen – von NASA, NOAA, Hadley/CRU und jetzt BEST – möglicherweise im Großen und Ganzen richtig sind.

Cheers, Doug


From: James Astill
To: D.J. Keenan
Sent: 18 October 2011, 17:57
Subject: Re: BEST papers

Hallo Doug

Vielen Dank! Heißt das, Sie misstrauen der BEST-Methodik in hohem Maße, stimmen aber ihrer wichtigsten Schlussfolgerung zu, d. h. der Temperaturaufzeichnung am Boden?

best
James

James Astill
Energy & Environment Editor


From: D.J. Keenan
To: James Astill
Sent: 18 October 2011, 18:41
Subject: Re: BEST papers

James,

Ja, ich stimme zu, dass die BEST-Temperaturaufzeichnungen sehr wahrscheinlich grob richtig sind, zumindest während der letzten 120 Jahre oder so. Dies gilt für das allgemeine Aussehen ihrer Kurve, nicht aber für ihre Abschätzung der Unsicherheiten.

Cheers, Doug


From: D.J. Keenan
To: James Astill
Sent: 20 October, 2011 13:11
Subject: Re: BEST papers

James,

Irgendjemand hat mir gerade die BEST-Presseerklärung zugesandt und mich nach meinem Kommentar dazu gefragt. Die Presseerklärung beginnt mit dem folgenden Statement:

Die globale Erwärmung ist einer heute veröffentlichten grundlegenden Studie zufolge real. Trotz Einwänden von Skeptikern der Klimaänderung findet die BEST-Studie verlässliche Beweise für einen Anstieg der globalen Mitteltemperatur an der Erdoberfläche von etwa 1°C seit Mitte der fünfziger Jahre.

Der zweite Satz könnte zutreffen. Der erste Satz jedoch ist weder implizit im zweiten Satz enthalten, noch folgt er aus den Analysen in den Forschungsunterlagen.

Zu zeigen, dass die „globale Erwärmung real” ist, erfordert viel mehr als zu zeigen, dass die mittlere globale Temperatur auf dem Festland seit Mitte der fünfziger Jahre um 1°C gestiegen ist. Zur Illustration, die Temperatur 2010 lag höher als 2009, aber das für sich allein ist kein Beweis für die globale Erwärmung: Die Temperaturzunahme könnte offensichtlich auf Änderungen der Randbedingungen zurückzuführen sein. Ähnlich kann auch die Temperaturzunahme seit den fünfziger Jahren auf Änderungen der Randbedingungen zurückzuführen sein.

Um zu zeigen, dass die Zunahme der Temperaturen seit den fünfziger Jahren nicht auf derartige Fluktuationen zurückzuführen ist, ist eine gültige statistische Analyse der Temperaturen erforderlich. Das BEST-Team hat dies nicht getan.

Ich möchte etwas betonen. Nehmen wir an, jemand sagt „2+2=5“. Dann ist es nicht bloß meine Meinung, dass das, was dieser Jemand sagt, falsch ist; sondern vielmehr ist es falsch, was er gesagt hat. Ganz ähnlich ist es nicht nur meine Meinung, dass die statistische Analyse vom BEST ernsthaft ungültig ist; sondern vielmehr, die statistische Analyse vom BEST ist ungültig.

Cheers, Doug


From: James Astill
To: D.J. Keenan
Sent: 20 October 2011, 13:19
Subject: Re: BEST papers

Hallo Doug

Vielen Dank für Ihre Gedanken dazu. Es wird interessant sein zu beobachten, wie die BEST-Studien durch den Prozess der Begutachtung kommen. Bitte halten Sie mich auf dem Laufenden!

best

james
James Astill
Energy & Environment Editor


Ein Artikel über das BEST wurde in der Ausgabe von The Economist am 22. Oktober veröffentlicht. Der Artikel, autorisiert von James Astill, erwähnt die oben genannten Punkte nicht. Die Unterschlagzeile lautet: „eine neue Studie zu Temperaturaufzeichnungen lässt wenig Raum für Zweifler. Die Welt erwärmt sich.“ Der Einführungssatz lautet: „ Für jene, die noch in Frage stellen, ob die Welt sich wirklich erwärmt, ist es nötig zu glauben, dass die instrumentellen Aufzeichnungen falsch sind“.

Douglas J. Keenan

Übersetzt von Chris Frey für EIKE




Schlechte Kosten-Bilanz für Erneuerbare Energien!

Deshalb benötigt man relativ viel Material, Platz und mithin Naturraum, um jene Menge an Wind-, oder Sonnenenergie zu ernten, die es braucht, um ein Kilo Kohle, einen Liter Erdöl, oder gar ein Kilo Atombrennstoff zu ersetzen. Auch die landwirtschaftliche Erzeugung von Biokraftstoffen aus Raps, Mais, oder Ölpalmen ist sehr flächenintensiv und auf pflegeintensive Monokulturen angewiesen und dabei aufgrund von Lachgasemissionen – einem starken Klimagas – keineswegs “klimaneutral”. Wie die Flächen-Bilanzen und Kosten-Bilanzen im einzelnen aussehen, wird im Folgenden dargelegt.

Zunächst ein Vergleich der Leistungsdichten der unterschiedlichen Energieträger

 

Die Leistungsdichte eines Energieträgers gibt an, wie viel Leistung in Watt pro Flächeneinheit in Quadratmeter umgesetzt wird. Je höher dieser Wert, desto kleiner kann z.B. ein Kraftwerk ausgelegt werden. Geringe Leistungsdichte bedeutet umgekehrt einen höheren Materialaufwand.

Leistungsdichten im Vergleich: Energiequelle, Leistungsdichte in kW pro

 

Erdwärme 0,00006

Gezeitenströmung (Mittel) 0,002

Windströmung (Windgeschwindigkeit 6 m/s, Luftdruck 1000 hPa, Temperatur 20 °C) 0,128

Sonnenstrahlung (Solarkonstante) weniger als 1,37 (Mittel BRD 0,11)

Öl (Heizkessel) 20 – 30

Wasserströmung (6 m/s, Dichte 1.000 kg/m³) 108

Kohle (im Dampferzeuger-Brennraum eines Kraftwerkes) 500

Uran (am Brennelement-Hüllrohr) 650

 

Die EE haben die geringsten Leistungsdichten. Das bedeutet, ein hoher Materialaufwand/ Flächenbedarf ist zur Energieproduktion aus EE erforderlich.

Kommen wir zu den Flächenbilanzen der EE

Die Flächen-Bilanz für Biokraftstoffe/ Rapsöl

 

Rund 5% des primären Energieverbrauchs in Deutschland werden derzeit durch Biomasse gedeckt. Was wäre notwendig, um den Primärenergieverbrauch zu 100% aus Biomasse – wie z.B. Rapsöl – zu decken?

 

Antwort: Eine Anbaufläche, die in etwa acht mal so groß ist wie die Fläche Deutschlands wäre notwendig, um den Primärenergieverbrauch in Deutschland komplett über Rapsöl zu decken.

Die Flächen-Bilanz für die Windkraft

 

Rund 1% des primären Energieverbrauchs und rund 1,5% des Endenergieverbrauches in Deutschland werden derzeit durch Windkraft gedeckt. Der Endenergieverbrauch ergibt sich aus dem Primärenergieverbrauch, abzüglich der Verluste, die bei der Erzeugung der Endenergie aus der Primärenergie auftreten. Was wäre notwendig, um den Endenergieverbrauch zu 100% aus Windkraft zu decken?

 

Antwort: Ca. 26% der Fläche Deutschlands wären notwendig, weit mehr, als die Fläche Bayerns, (mit in etwa 145.000 Offshore-Windkraftanlagen der 5 MW-Klasse) natürlich offshore, um den Endenergieverbrauch in Deutschland komplett (d.h. im Jahresdurchschnitt) aus Windkraft zu decken.

Die Flächen-Bilanz für Photovoltaikstrom

 

Rund 0,2% des primären Energieverbrauchs und des Endenergieverbrauches in Deutschland werden derzeit durch Photovoltaikstrom gedeckt. Was wäre notwendig, um den Endergieverbrauch zu 100% aus Photovoltaikstrom zu decken?

 

Antwort: In etwa 7% der Fläche Deutschlands, oder nahezu die gesamte Fläche Brandenburgs wäre notwendig, (ca. 26.000 Quadratkilometer Fläche) um den Endenergieverbrauch in Deutschland komplett (d.h. im Jahresdurchschnitt) über Photovoltaikstrom zu decken.

 

Die Berechnungen für die einzelnen Flächenbilanzen gehen direkt aus dem Vorgängerartikel “Schlechte Flächen-Bilanz für Erneuerbare Energien” hervor. Dabei zu berücksichtigen ist, dass eine Vollversorgung durch eine der aufgeführten EE alleine nicht möglich ist, sondern eine Kombination der EE das Mittel der Wahl ist. Entsprechend ist bei der Abschätzung den Kosten-Bilanzen vorzugehen.

Kommen wir nun zur entscheidenden Frage: Was kostet eine Umstellung der Energieversorgung auf eine 100%ige Versorgung aus Erneuerbaren Energien in Deutschland?

Die Kosten-Bilanz für Biokraftstoffe/ Rapsöl

 

Aus der Flächenbilanz geht hervor: Eine Anbaufläche, die in etwa acht mal so groß ist wie die Fläche Deutschlands wäre notwendig, um den Primärenergieverbrauch in Deutschland komplett über Rapsöl zu decken. Die Basisdaten: Netto ergibt sich ein Ertrag von ca. 1.290 Liter Rapsöl pro Hektar, bzw. 129.000 Liter pro km². Die Gesamtfläche Deutschland beträgt ca. 360.000 km². Um den Primärenergieverbrauch in Deutschland komplett über Rapsöl zu decken wären also ca. 129.000 x 360.000 x 8 = 371.520.000.000 (371,52 Milliarden) Liter Rapsöl pro Jahr erforderlich. Zwischen 50 und 60 Cent kostet der Liter Rapsöl. D.h. ca. 205 Milliarden Euro pro Jahr würde es kosten, um den Primärenergieverbrauch in Deutschland komplett über Rapsöl zu decken.

 

Alternativberechnung: In Deutschland beläuft sich der Primärenergieverbrauch auf rund 4 Mio. GWh/Jahr. Der Heizwert von Rapsöl beträgt  9,7 kWh/L = 0,0000097 GWh/L. Somit wären ca. 412.371.134.000 (412,37 Milliarden) Liter Rapsöl pro Jahr erforderlich um den Primärenergieverbrauch in Deutschland zu decken. Zwischen 50 und 60 Cent kostet der Liter Rapsöl. D.h. ca. 225 Milliarden Euro pro Jahr würde es kosten, um den Primärenergieverbrauch in Deutschland komplett über Rapsöl zu decken.

 

Die ca. 200 Milliarden Euro wären nur der jährliche Materialeinsatz (Unkostenbeitrag) der zur Bereitstellung des Brennstoffes Rapsöl notwendig wäre. Externe Kosten zur Energieerzeugung über Kraftwerke, etc. würden dann noch hinzu kommen.

Die Kosten-Bilanz für die Windkraft

 

Aus der Flächenbilanz geht hervor: Ca. 26% der Fläche Deutschlands wären notwendig, weit mehr, als die Fläche Bayerns, (mit in etwa 145.000 Offshore-Windkraftanlagen der 5 MW-Klasse) natürlich offshore, um den Endenergieverbrauch in Deutschland komplett (d.h. im Jahresdurchschnitt) aus Windkraft zu decken. Eine Offshore-Windkraftanlage der 5 MW-Klasse kostet ca. 15 Mio. € (bei einer veranschlagten Lebensdauer von 20 Jahren). (Zum Vergleich: Baukosten Alpha Ventus mit 12 Anlagen ca. 250 Mio. Euro und Baukosten Bard Offshore 1 mit 80 Anlagen ca. 1.200 Mio. Euro). D.h. der Bau der 145.000 Offshore-Windkraftanlagen würde rund 2.175 Milliarden Euro kosten und das veranschlagt auf eine Lebensdauer von 20 Jahren. Macht 109 Milliarden Euro Kosten pro Jahr alleine für die Aufrechterhaltung der Windparks. Hinzu kommen die Betriebs- und Wartungskosten der Anlagen und Demontage- und Entsorgungskosten nach 20 Jahren Betriebszeit.

Die Kosten-Bilanz für Photovoltaikstrom

 

Aus der Flächenbilanz geht hervor: In etwa 7% der Fläche Deutschlands, oder nahezu die gesamte Fläche Brandenburgs wäre notwendig, (ca. 26.000 Quadratkilometer Fläche) um den Endenergieverbrauch in Deutschland komplett (d.h. im Jahresdurchschnitt) über Photovoltaikstrom zu decken. Die Lebenszeit von Photovoltaikmodulen beträgt in etwa 25 Jahre. Danach bringen sie nur noch ein Teil ihrer Leistung, werden wartungsintensiv und müssen durch neue Module ersetzt werden. Der Quadratmeter Photovoltaikmodul kostet ca. 200 EURO (ebay-Preis, ohne Montage). 26.000 Quadratkilometer (Mio. Quadratmeter) Fläche mit Photovoltaikmodulen auszustatten würde also ca. 5.200 Milliarden Euro kosten und das veranschlagt auf eine Lebensdauer von 25 Jahren. Macht 208 Milliarden Euro Kosten pro Jahr alleine an Modulkosten für die Aufrechterhaltung. Hinzu kommen die Montage-, Betriebs-, Wartungskosten der Anlagen und Demontage- und Entsorgungskosten nach 25 Jahren Betriebszeit.

 

Das Fazit

 

Um eine Erstinfrastruktur aus 100% EE hier in Deutschland aufzubauen sind Material- und Baukosten zwischen ca. 2.000 – 5.000 Milliarden Euro erforderlich. Die Kosten um die Erstinfrastruktur zu erneuern/ aufrecht zu erhalten belaufen sich auf mindestens 100 – 200 Milliarden Euro pro Jahr. Hinzu kommen die Betriebs-, Wartungs, Demontage- und Entsorgungskosten der Anlagen. Außerdem zu berücksichtigen sind der nötige Ausbau der Stromnetze und die Errichtung von Energiespeichern, welche notwendig sind, um die unstetige Windkraft und den Tages- und Jahresgang im Solarstrom auszugleichen. Denn bei Flaute gibt es keinen Windstrom und in der Nacht und im Winter wenig bis gar keinen Solarstrom. Der Energiebedarf in Winter ist aber besonders groß. Um das auszugleichen sind gigantische Energiespeicher und ein entsprechendes Stromnetz, welches den Strom nach Bedarf verteilen kann, erforderlich. Somit werden sich die oben genannten Kosten leicht verdoppeln bis verdreifachen. Abschließend noch zum Vergleich: Die privaten Haushalte gaben 2005 für Energie und Kraftstoffe rund 98 Milliarden Euro aus. Die Gesamtausgaben für Energie einschließlich Kraftstoffen in Deutschland beliefen sich 2005 auf 212 Mrd. €.

Michael Krüger zuerst erschienen bei Readers Edition am 26.10.11

Geowissenschaftler u.a. tätig gewesen am AWI




BEST Studie: Das wissenschaftliche Ergebnis, das die Debatte um die Klimaänderung nicht beendet

Sehr geehrte Herausgeber von Nature:

Was für ein merkwürdiges Editorial – und wie aufschlussreich Sie Ihren Bias enthüllen!

http://www.nature.com/nature/journal/v478/n7370/full/478428a.html?WT.ec_id=NATURE-20111027

Scientific climate.  Nature 478, 428, (27 October 2011)  doi:10.1038/478428a  Published online           26 October 2011.
„Ergebnisse, die die Klimaänderung bestätigen, sind willkommen, selbst wenn sie vor der wissenschaftlichen Begutachtung veröffentlicht werden” (Hervorhebung hinzugefügt)

Sie implizieren, dass entgegen gesetzte Ergebnisse bei Nature nicht willkommen sind. Aber das ist schon seit vielen Jahren offensichtlich.

Warum bejubeln Sie die Ergebnisse des Berkeley Climate Project so enthusiastisch, dass Sie sich kaum fassen können? Was glauben Sie wird dadurch bewiesen? Sie haben mit Sicherheit nur wenig zur gegenwärtigen Debatte um den Mensch als Ursache der Klimaänderung beigetragen.

Sie schließen Daten von den gleichen Wetterstationen ein, die auch die Climategate-Leute benutzt haben, von denen jedoch ein Drittel eine Abkühlung zeigte – keine Erwärmung. Sie überdeckten das gleiche Landgebiet – weniger als 30% der Erdoberfläche – Beobachtungsstationen mit spärlicher Verteilung, vor allem in den USA und Westeuropa. Sie stellen fest, dass 70% der Stationen in den USA schlecht platziert sind und nicht den von der Regierung festgelegten Standards entsprechen; in der übrigen Welt ist es vermutlich noch schlimmer.

Aber anders als die Landoberfläche hat die Atmosphäre keinen Erwärmungstrend gezeigt, weder über Land noch über dem Ozean – jedenfalls nach Satellitenbeobachtungen und unabhängigen Daten von Wetterballonen. Dies bedeutet für mich, dass irgendetwas bei den Daten der Landstationen sehr erheblich nicht stimmt. Und haben Sie gewusst, dass Klimamodelle, gerechnet auf Supercomputern, alle darauf bestehen, dass sich die Atmosphäre schneller erwärmt als die Oberfläche? Und das tut auch die Theorie.

Und schließlich haben wir auch die nicht an Thermometern gemessenen Temperaturdaten aus den sog. „Proxies“: Baumringe, Eisbohrkerne, Sedimente in den Ozeanen, Stalagmiten. Sie alle zeigen keinerlei globale Erwärmung seit 1940!

Die Ergebnisse von BEST (Berkeley Earth Surface Temperature) bestätigen in keiner Weise den wissenschaftlich diskreditierten Hockeyschläger, der so begeistert von den Klimaalarmisten übernommen worden war. Tatsächlich haben die Autoren des Hockeyschlägers niemals Temperaturen nach 1978 in ihrer Studie von 1998 in Nature veröffentlicht – und auch nicht danach. Gründe, diese zu verheimlichen? Es ist wahrscheinlich, dass auch diese Proxy-Daten keine Erwärmung zeigen. Warum fragen Sie sie nicht?

Noch ein Wort zum Schluss: Sie haben ganz offensichtlich die vier wissenschaftlichen, zur wissenschaftlichen Begutachtung eingereichten BEST-Studien nicht gelesen. Darin streiten die Berkeley-Wissenschaftler ab, den Grund für die von ihrem Projekt herausgestellte Temperaturzunahme zu kennen. Ich empfehle sie für ihre Ehrlichkeit und ihren Skeptizismus.

********************************************************************
S. Fred Singer ist emeritierter Professor an der University of Virginia und Leiter des Science & Environmental Policy Project. Er ist leitendes Mitglied am Heartland Institute und am Independent Institute. Seine Spezialgebiete sind atmosphärische und Weltraumphysik. Als Experte der Fernerkundung und von Satelliten diente er als Gründungsdirektor des US Weather Satellite Service und kürzlich als Vizevorsitzender des US National Committee on Oceans & Atmosphere. Er ist Mitautor von Climate Change Reconsidered [2009 and 2011] und Unstoppable Global Warming [2007].

Übersetzt und mit einer Einführung versehen von Chris Frey für EIKE




Falsche Klimaprognosen: Langzeitbeobachtungen des Klimas und Klimamodelle des IPCC im Vergleich!

Gerade erschien die BEST Studie, die angibt, dass es auf der Landfläche der Erde im letzten Jahrhundert eine Erwärmung um 0,9 °C gegeben hätte. Die Landfläche der Erde macht gerade mal 29 % der Oberfläche aus. Mit einem deutlichen Übergewicht auf der Nordhalbkugel. (ca. 40 % der Fläche). Zur Ursache der Erwärmung äußert sich das BEST Team bisher nicht. Projektleiter Dr. Richard Muller sagte aber kürzlich sybillinisch: "Der anthropogene Anteil erschiene ihm als etwas überbewertet (durch das IPCC)".

Für diese Studie hat das BEST Team die Daten von nahezu 39.000 landbasierten Temperaturmessstationen über die letzten 200 Jahre (sofern vorhanden und brauchbar) nach einem neuen statistischen Ansatz ausgewertet.

Interessanterweise deckt sich der ermittelte Trend zu einem großen Teil mit den der CRU-Hadley und dem NOAA-GISS.

Abb. 1 (mit Dank an Willis Eschenbach): Vergleich der Trendlinien nach BEST, Satelliten UAH & RSS gemittelt, GISS, CRU und GHCN. Details zum obigen Vergleich hier

Allerdings zeigen die jahrzehntelangen Satellitenmessungen und die Millionen von Wetterballonsdaten diesen Trend nicht. Irgendetwas muss also an den Daten aus den Wetterstationen anders sein, da sie einen Anstieg -speziell in den 80er und 90er Jahren des vorigen Jhh zeigen- während dies weder Satelliten noch die Wetterballons tun. Immerhin tasten Satelliten ca. 90 % der Planetenoberfläche ab, mit mehr als 60.000 Messungen pro Tag. Auf diesen bemerkenswerten Unterrschied geht die neue Broschüre von Fred Singer ein.

Abb. 2 (mit Dank an Willis Eschenbach) BEST Trendschätzung mit Fehlerbalken (graue) bei 95 Vertrauensbereich für jeden Datenpunkt.Details zur obigen Darstellung hier 


Die BEST-Studie selbst versucht auch die unvermeidliche Unsicherheit neu einzugrenzen, auch wenn sie nur zwei Arten von Fehlern ("statistische (?)" und "ungenügende Abdeckung") und dazu noch nur modellhaft  -nicht nach realen Messfehlern, sondern nach ihren Modellvorstellungen- behandelt. Auch deswegen steht der verwendete statistische Ansatz derzeit unter massiver Kritik von fachkundigen Statistikern wie z.B. W. Brigg (Universität Ithaca USA) und D. Keenan (London).

Wird fortgesetzt

Michael Limburg EIKE




Rupert Wyndhams Kritik an BBC – IPCC aufs Engste mit dem WWF verwoben!

Auslöser des Briefwechsel war eine Rundfunk-Sendung der BBC ONE PLANET – Redaktion vom 23. September mit dem Titel: "On the Frakking Frontline". Das Radio-Feature befasste sich mit einigen Problemen der Schiefergasförderung in den USA. In 18 Minuten wurden Aspekte der Schiefergasförderung, der Umweltverschmutzung in China und Ungarn, des Klimawandels und des effizienten Autofahrens zusammengemischt. Außer manierierter Sprache, bedeutungsschwanger gesetzten Akzenten und nichtssagenden Interviews enthielt der Beitrag keine Informationen, über die es lohnen würde zu diskutieren. Es war deutlich, dass der verantwortliche Redakteur seine vorgegebenen 18-Minuten mal eben "locker-vom-Hocker" produzierte – ein nichtssagendes und oberflächliches Radio-Feature. 

Vielsagend ist aber der daraus folgende Dialog Rupert Wyndhams mit der BBC ONE PLANET Redaktion.

Rupert Wyndham kritisiert die BBC

Rupert Wyndham schrieb am 28. September an die BBC ONE PLANET Redaktion.

Betreff: Ganz vorne beim Fracking, 26. 9. 2011. [On the frakking frontline]

Herr Williams, Sie bitten um Kommentare. Sehr gut!

Unter der endlosen Menge von Programmen ist dieses ein weiteres Beispiel für die systembe­dingte Einseitigkeit der BBC, genauer gesagt, in bezug auf die sogenannte Umwelt-Berichter­stattung. Aber nicht nur da. Die Parteilichkeit der BBC und ihre Einseitigkeit zeigt sich über das gesamte Spektrum ihrer journalistischen Sendungen deutlich. Die Vorstellung von BBC-Journalisten, die so berichten, dass nicht der Eindruck einer Meinungsmache aufgrund per­sönlicher Vorurteile entsteht, scheint von Gestern zu sein …

Es ist doch ganz offensichtlich, dass die Berichterstattung/Kommentierung nicht mehr eine Aufgabe des leidenschaftslosen, und … sorgfältig geprüften Darstellens der aktuellen Themen ist. Die Nachrichtenbearbeitung durch die BBC unterscheidet sich kaum noch von der Arbeit der lächerlicherweise so genannten "Reality-TV-Journalisten"; die machen sich gar nicht mehr die Mühe, Tatsachen für die Zuhörer/Zuschauer so zu präsentieren, dass diese sich ihr eige­nes Bild machen können. Ganz im Gegenteil: Sie halten das Missionieren für ihre Pflicht. Das tun sie oft auch noch unter … Nichtbeachtung der einfachsten Höflichkeitsformen des zivili­sierten Umgangs miteinander. So halten sie die freche Unterbrechung von Interviewpartnern für ein Kennzeichen unabhängigen Denkens und harter Befragungstechnik. Diese Vorgehens­weise zeigt eine Uniformität, die den Stempel BBC-interner Ausrichtung trägt. Mit wenigen Ausnahmen … soll einer Sendung durch übertriebene Gestikulierung und überspannte Körpersprache der Anschein von Autorität verliehen werden, die tatsächlich aber nur oberflächlich ist. Beim Rundfunk gibt es die entsprechenden Techniken zur Erreichen des gleichen Ziels: besonders das häufige Unterbrechen. Die Benutzung einer … hochnäsig wirken­den Sprechweise verstärkt den Eindruck der Flachheit, um nicht von berufsmäßiger Dummheit zu sprechen. Natürlich wissen wir, dass vieles von diesem Geblubber nur der Aufguss von Presseveröffentlichungen linker Pressure-Gruppen und verdeckter Interessen ist – so bei­spielsweise von Pseudo-Umweltorganisationen wie Greenpeace, Friends of the Earth, World­wide Fund for Nature, National Trust.

Aber so irritierend diese Art von abkupfernder, nachahmender Berichterstattung ist, so ist sie aber auch Symptom einer tiefergehenden und gefährlicheren Krankheit: der vorsätzlichen Verweigerung der Objektivität. Was soll denn zu wessen Gunsten verleugnet werden? Warum eignet man sich zur Selbstvergewisserung von "emotionalen Wahrheiten" eine fadenscheinige und alberne Ausdrucksweise an? …

Es ist doch so, dass klare Gegenbeweise ganz einfach ignoriert oder vorsätzlich falsch darge­stellt werden. Daten werden zynisch in Computern manipuliert. Die sind wiederum so pro­grammiert, dass sie die vorbestimmten Ergebnisse liefern. Die Ergebnisse werden so angeordnet, dass alle … Phänomene aus der realen Welt verkehrt und als Bestätigung einer erfundenen und pervertierten Orthodoxie verstanden werden müssen. Damit übertrumpft die Compu­ter-Modellierung die tatsächliche Beobachtung. Und die BBC leiht diesem Müll das Gewicht ihrer Autorität. Die Gebühren bezahlt natürlich der Zuschauer. Was Wahrheit ist, bestimmt der Konsens!

Der sogenannte "Klimawandel" wird dem CO2 zugeschrieben, vor allem dem vom Menschen erzeugten. Das wird nicht als unbewiesene Behauptung gebracht, sondern als anerkannte Tatsache. … Die Tatsache, dass Wissenschaftler zu Tausenden, viele davon mit hohen Verdiensten und von untadeligem Ruf, den Klimawandel für eine betrügerische Ver­schwörung halten, wird ganz einfach ignoriert, wie alle damit verbundenen Täuschungsmanö­ver verschwiegen werden.

In der Sendung unterstrichen wiederholte Verweise auf "Kohlenstoff" die ansonsten nicht deutlich hervortre­tende BBC-Parteinahme. Schamlos wurde an die "emotionale Wahrheit" appelliert, indem eine mögliche Verbindung zwischen CO2-Emissionen … zusammenhanglos mit hausgemachten Verschmutzungen in China und Ungarn z. B. hergestellt wurde. Es ist bemerkenswert, dass ONE PLANET sich bisher nicht um die massive Verschmutzung in China geschert hat …. in  Folge schriller westlicher pseudo-umweltschützerischer Forderungen nach Batterie-betriebe­nen Fahrzeugen. Dazu aber meint man, Wohlergehen und Lebensbedingungen der Menschen in der Dritten Welt auf dem Altar der Klimawandel-Religiosität opfern zu dürfen.

Wie die meisten Beiträge der BBC zu Wissenschaft und Umwelt war auch diese Sendung ver­logen und heuchlerisch.

Rupert Wyndham

*******************************************

Auf diese Zuschrift reagierte die ONE PLANET Redaktion am 12. 10. mit folgender Antwort:

Hallo, Robert,
danke für Ihre Email. Ich war ein wenig verwirrt über das, was Sie sagen wollten, aber ich kann erkennen, dass Sie über die BBC-Berichterstattung im Allgemeinen einschließlich des ONE PLANET Programms nicht glücklich sind. Neben Ihrem Ärger über moderne Interview-Techniken freue ich mich über Ihre Meinung, dass die BBC beim Thema Klimawandel die Dinge nicht genug hinterfragt.

Eines möchte ich allerdings erwähnen: Das Produktionsteam hier besteht aus Journalisten, nicht aus Atmosphären-Wissenschaftlern. Wir berichten über das, was uns die Wissenschaft­ler sagen und, obgleich eine Minderheit von Atmosphären-Wissenschaftlern nicht an einen Zusammenhang zwischen CO2-Emissionen und dem Anstieg der globalen Temperaturen glaubt, hält die Mehrheit der Atmosphären-Wissenschaftler daran fest. So haben alle großen nationalen Akademien der Wissenschaften den aktuellen Bericht des IPCC unterstützt. Ich meine, wir wären ziemlich arrogant, – dies wäre auch kein guter Dienst an unseren Hörern -, wenn wir vorgäben, mehr über die Atmosphäre zu wissen als die Wissenschaftler.

Dennoch sehe ich, dass es einige sehr angesehene Atmosphären-Wissenschaftler gibt, die nicht an den Zusammenhang glauben. Davon hatten wir eine ganze Menge schon hier. Sie repräsentieren aber nicht die Mehrheitsmeinung – deshalb stehen sie auch nicht für die vor­wiegende Meinung bei ONE PLANET.

Danke für die Zuschrift,
Steven

PS: Über Umweltverschmutzung in China und Ungarn haben wir schon viele Male berichtet.

Steven Duke
Editor, ONE PLANET
BBC World Service
*******************************************

Am 12.10. antwortete Rupert Wyndham:

Herr Williams,

… Ihre Antwort entspricht der üblichen lügenhaften Linie, die von der BBC verfolgt wird. Es gibt keinen Konsens der Klima-Wissenschaftler. Den hat es auch nie gegeben. Das wird nur behauptet. Es sind die unsäglichen 2.500 globalen Spitzenwissenschafter, Herr Gore kommt noch dazu. Sie sind vermutlich kein Atmosphären-Physiker, Sie bezeichnen sich aber als Journa­list – von dem anzunehmen ist, dass er Urteilsvermögen besitzt, um Fakten zu prüfen und Werturteile zu fällen über das, was wahr ist, oder zumindest auf den ersten Blick plausibel zu sein scheint. Nichts davon tun Sie. Und es ist nicht so, dass die Fakten etwa nicht überprüfbar oder unzugänglich wären. Jedermann mit gutem Willen kann sie sehen.

Sie behaupten, dass die überwiegende Anzahl der nationalen Wissenschaftsakademien die Theorie der anthropogenen Erwärmung unterstützte. Das stimmt. Es stimmt aber auch, dass es immense Aufstände innerhalb der nationalen Gremien gegeben hat, so protestierten Aka­demie-Mitglieder aller Ebenen und Grade gegen die Mätzchen einer kleinen Intrigantengruppe bei der Royal Society. … Die Ansichten der dreiundvierzig [Abweichler in der Royal Society gegen den Klimawandel-Konsens] werden auch von Anderen geteilt. Das kann weltweit ver­breitet werden und führt zum Kern der Dinge, nicht wahr?

Kurz gesagt: Was auch immer der behauptete Konsens sein mag, es gibt Grundlegendes, das von jedem aufrichtigen Journalisten angesprochen werden muss, von Wissenschaftlern sowieso.

1. Wissenschaft gründet nicht auf Konsens. Wenn das so wäre, hätten wir immer noch das Ptolemäische Weltbild.

2. Es gibt keine langfristige Zunahme der globalen Temperaturen. Stattdessen sind sie in den letzten 15 Jahren nicht angestiegen, trotz zunehmender CO2-Konzentration. Die Temperatur an der Meeresoberfläche (sie bedeckt 70 Prozent der Erde) sinkt.

3. Nichts davon ist einmalig.

4. Das Ausmaß der gegenwärtigen Veränderungen ist sehr gering.

5. In Bezug auf die CO2-Hypothese stützen die Beobachtungen weder die Theorie noch die Behauptungen.

6. Es ist darüber hinaus bekannt, dass die AGW-’Wissenschaft’ systematisch Daten gefälscht und vorsätz­lich Beweise falsch dargestellt hat.

Das sollte fürs Erste genügen. Sie behaupten nur, ein Journalist zu sein. Sie sind jedoch keiner. Wie Sie selber zugeben, "berichten wir, was die Wissenschaftler uns sagen." Die Frage ist doch: Welche Wissenschaftler? Anders gesagt, Sie handeln nur mit Presseverlautbarungen von ver­deckt operierenden Interessenvertretern und daran haben Sie ein eigenes verdecktes Inter­esse, denn Ihr nichtsnutziger Job hängt daran, dass Sie die vorgegebene Linie vertreten, oder etwa nicht? Kurz gesagt, Sie sind bestenfalls ein Scharlatan, schlimmstenfalls ein Betrüger und Schwindler.

Was den behaupteten Konsens angeht: Ist Ihnen je bewusst geworden, dass Quantität weni­ger wichtig sein könnte als Qualität, und dass Erkenntnis, aus authentischem Wissen geboren, aus lebenslangem Lernen, Urteilskraft und Erfahrung gewonnen, tausend Mal mehr wert sein könnte als der Quark aus den Computer-Modellen und die gewissenlose Verfolgung des eige­nen Vorteils, der ausnahmslos von fast allen zweit- und drittklassigen Wissensvertretern betrieben wird? Zweifeln Sie daran? Schön, dann schauen Sie mal auf die Liste der IPCC-Redakteure, die vermutlich derzeit am Auswertebericht 5 (AR5) arbeiten, der 2013 heraus­kommen soll, und die auch vom WWF (weitere Details dazu hier) bezahlt werden oder ihm Gefolgschaft schulden.

Belassen wir es dabei. Die Beweislage zeigt, dass Sie eine angeborene Unfähigkeit zur Erledi­gung ehrlicher Arbeit haben. Ich schließe eine Liste an. … kopiert aus einem Brief, den ich kürzlich dem Vizekanzler der Universität Oxford geschickt habe.

Mit Ausnahme des nun verstorbenen Stephen Schneider enthalten die Namen auf der anson­sten nichtssagenden Liste die Namen des wissenschaftlichen Beirats des WWF. Die arbeiten also auch für das IPCC. Was unmittelbar ins Auge fällt ist zweierlei:

(1) das Fehlen von wissenschaftlicher Reputation. Einer davon, Ghislain Dubois, scheint noch nicht einmal ein Wissenschaftler zu sein sondern Sprecher des französischen Tourismus.

(2) Die Tatsache, dass diese, die angeblich 2.500 Welt-Spitzenwissenschaftler repräsentieren­den Menschen, genau diejenigen sind, die sich für das IPCC aussprechen und die den men­schenverursachten Klimawandel für eine Tatsache erklären.

Man mag die Frage verzeihen, warum angeblich unabhängige Wissenschaftler, die mit der Erstellung der IPCC AR5 Veröffentlichung beauftragt sind, gleichfalls mit einer bekannterma­ßen propagandistischen Lobby-Organisation wie dem WWF verbandelt sind.

Immerhin stehen auf der rasch überfliegbaren Liste nicht weniger als dreiundzwanzig Koordi­nierende Leitautoren zum Schlaumachen für die vom IPCC eingesetzten Verantwortlichen für die Kapitel.

*******************************************
Die Liste

[Anm. d. Ü: Anhand der Namen ist manchmal nicht entscheidbar, wer männlichen oder weiblichen Geschlechts ist. Wegen möglicher Fehler bei geschlechtsspezifischen Suffixen im Deutschen wird um Entschuldigung gebeten!]

Abdelkader Allali – 2007: Prüflektor mit vier weiteren Aufgaben im 2007er Bericht.

Oleg Anisimov – 2007: Koordinierender Leitautor, Beiträge zu zwei Zusammenfassungen und nun wieder Koordinierender Leitautor.

Peter Ambenje – Working Group 1 Mitarbeiter beim 2007er Bericht.

Vincenzo Artale – 2007: Leitautor.

Rizaldi Boer – 2007: Leitautor.

Jim Bruce – 2007: Wissenschaftlicher Fachgutachter.

Osvaldo Canziani – stv. Leiter der Working Group 2 beim 2001er Bericht, stv. Leiter der Working Group 2 beim 2007er Bericht.

Ulisses Confalonieri – koordinierender Leitautor des 2007er Kapitels zur Gesundheit, derzeit als Prüflektor tätig.

Declan Conway – 2007: Wissenschaftlicher Fachredakteur.

Sophie des Clers – Beitragender Autor bei zwei Kapiteln des 2007er Berichts.

Mike Demuth – 2007: Beitragender Autor.

Ghislain Dubois – 2007: Beitragender Autor und Wissenschaftlicher Fachgutachter.

Paul Epstein – Wissenschaftlicher Fachgutachter in der Working Group 2, zugleich für den Zusammenfassenden Bericht der 2007er Klima-Bibel.

Lin Erda – 2007: Leitautor, nun Koordinierender Leitautor.

Philip Fearnside – 2007: Prüflektor und Wissenschaftlicher Fachgutachter.

Andreas Fischlin – Koordinierender Leitautor mit Beiträgen zu zwei Zusammenfassungen, zugleich Wissenschaftlicher Fachgutachter beim 2007er Bericht. Er ist derzeit Prüflektor.

Chris Furgal – 2007: Leitautor.

Carlos Gay García – 2007: Koordinierender Leitautor, derzeit Leitautor.

Christos Giannakopoulos – 2007: Leitautor.

Brij Gopal – 2007: Leitautor und Wissenschaftlicher Fachgutachter.

Antoine Guisan – Beitragender Autor bei zwei Kapiteln des 2007er Berichts.

Ren Guoyu – 2007: Wissenschaftlicher Fachgutachter beim Working Group 1 Bericht und beim Zusammenfassenden Bericht.

Hideo Harasawa – zwei Aufgaben im 2007er Bericht, zusätzlich Koordinierender Leitautor des Kapitels, wo der Himalaya-Gletscher-Fehler passierte.

Ove Hoegh-Guldberg – 2007: Beitragender Autor, derzeit Koordinierender Leitautor.

Lesley Hughes – Leitautor, Beitragender Autor und Wissenschaftlicher Fachgutachter beim 2007er Bericht. Sie ist wieder Leitautorin.

Saleemul Huq – Koordinierender Leitautor, der beim 2007er Bericht vier weitere Aufgaben wahrnahm und nun wieder Koordinierender Leitautor ist.

Erik Jeppesen – 2007: Beitragender Autor.

Roger Jones – Koordinierender Leitautor beim 2007er Bericht, wieder Koordinierender Leit­Autor.

David Karoly – Leitautor mit fünf weiteren Aufgaben beim 2007er Bericht und derzeit Prüflek­tor.

Manmohan Kapshe – 2007: Leitautor und Wissenschaftlicher Fachgutachter.

Gavin Kenny – 2007: Beitragender Autor und Wissenschaftlicher Fachgutachter.

Christian Körner – 2007: Beitragender Autor.

Paul Kovacs – 2007: Leitautor, erneut Leitautor.

K. Krishna Kumar – derzeit Koordinierender Leitautor.

Zbigniew Kundzewicz – 2007: Koordinierender Leitautor mit drei weiteren Aufgaben.

Murari Lal – vier Aufgaben beim 2007er Bericht, zusätzlich Koordinierender Leitautor für das Kapitel, wo der Himalaya-Gletscher-Fehler passierte.

Rodel Lasco – Koordinierender Leitautor, half auch beim Schreiben zweier Zusammenfas­sungen im 2007er Bericht, derzeit Leitautor.

Rik Leemans – 2007: Leitautor, diesmal Prüflektor.

Michael MacCracken – 2007: Beitragender Autor, Prüflektor und Wissenschaftlicher Fach­gutachter in drei unterschiedlichen Disziplinen beim 2007er Bericht.

Dena P. MacMynowski – 2007: Beitragender Autor bei zwei Kapiteln und Wissenschaftlicher Fachgutachter.

José Marengo – 2007: Leitautor, diesmal Prüflektor.

Eric Martin – 2007: Leitautor und Wissenschaftlicher Fachgutachter, diesmal Leitautor.

Mahmoud Medany – 2007: Koordinierender Leitautor, zugleich auch Leitautor.

Claudio Guillermo Menéndez – Leitautor beim 2007er Bericht.

Annette Menzel – 2007: Leitautor.

Guy Midgley – 2007: Koordinierender Leitautor mit Beiträgen zu Zusammenfassungen und erneut Koordinierender Leitautor.

Charles Kenneth Minns – 2007: Beitragender Autor.

Monirul Qader Mirza – 2007: Koordinierender Leitautor mit vier weiteren Aufgaben beim 2007er Bericht, diesmal wieder Leitautor.

Alison Misselhorn – 2007: Beitragender Autor.

Ana Rosa Moreno – 2007: Leitautor, diesmal Prüflektor.

Mark New – Leitautor beim 2007er Bericht.

Shuzo Nishioka – 2007: Prüflektor.

Carlos Nobre – 2007: Leitautor, diesmal Koordinierender Leitautor.

Patrick Nunn – Leitautor.

Leonard Nurse – Koordinierender Leitautor mit fünf weiteren Aufgaben beim 2007er Bericht, wieder Koordinierender Leitautor.

Mark Nuttal – 2007: Leitautor und Wissenschaftlicher Fachgutachter.

Anthony Nyong – Koordinierender Leitautor mit vier weiteren Aufgabe beim 2007er Bericht.

Govind Ballabh Pant – 2007: Prüflektor.

Barrie Pittock – 2007: Leitautor und Wissenschaftlicher Fachgutachter.

Batimaa Punsalmaa – Leitautor für zwei Kapitel beim 2007er Bericht.

N.H. Ravindranath – 2007: Leitautor und Wissenschaftlicher Fachgutachter, diesmal wieder Leitautor.

George Rose – 2007: Leitautor.

Joyashree Roy – Koordinierender Leitautor mit vier weiteren Aufgaben beim 2007er Bericht, diesmal wieder Koordinierender Leitautor.

Victor Magaña Rueda – 2007: Leitautor und Wissenschaftlicher Fachgutachter.

Stephen Schneider – 2007: Koordinierender Leitautor mit vier weiteren Aufgaben. Vor sei­nem Tod 2010 war er erneut als Koordinierender Leitautor benannt worden.

Mohamed Senouci – 2007: Prüflektor.

Anond Snidvongs – 2007: Wissenschaftlicher Fachgutachter, diesmal Leitautor.

Daithi Stone – mit sieben Aufgaben bei der 2007er Klima-Bibel, darunter Leitautor und Wis­senschaftlicher Fachgutachter beim Zusammenfassenden Bericht – diesmal wieder Leitau­tor. In Veröffentlichungen taucht er oft als D.A. Stone auf.

John Sweeney – 2007: Prüflektor, Beitragender Autor, Wissenschaftlicher Fachgutachter für Working Group 1 und 2.

Piotr Tryjanowski – 2007: Leitautor.

John Turner – 2007: Wissenschaftlicher Fachgutachter.

Riccardo Valentini – Koordinierender Leitautor.

Jef Vandenberghe – 2007: Leitautor und Wissenschaftlicher Fachgutachter.

Richard Washington – 2007: Beitragender Autor.

Poh Poh Wong – Koordinierender Leitautor mit drei zusätzlichen Aufgaben beim 2007er Bericht, erneut Koordinierender Leitautor.

Gary Yohe – Koordinierender Leitautor mit vier zusätzlichen Aufgaben beim 2007er Bericht, erneut Koordinierender Leitautor.

Zong-Ci Zhao – 2007: Leitautor, diesmal Prüflektor.

Gina Ziervogel – 2007: Beitragende Autorin und Wissenschaftliche Fachgutachterin.

Nein, Sie (und Ihresgleichen) sind keine Journalisten. Sie sind Witzfiguren, aber sehr teure, und deshalb ist das überhaupt nicht witzig.

PS: Sie werden mich zweifelsohne für sehr ungehobelt halten. Das hoffe ich; ich bekenne mich zu Oscar Wilde’s Vorstellung, dass ein Gentleman nur ungehobelt ist, wenn er es beab­sichtigt.

Rupert Wyndham

*******************************************

Abdruck und Bearbeitung mit freundlicher Genehmigung von Rupert Wyndham.
Übersetzung: Helmut Jäger, EIKE




Risiken der finanziellen Beteiligung an Windkraftanlagen

Wir legen hier einen Auszug des Anschreibens vor, das uns Herr Eckhard Raabe zur Veröffentlichung seiner kleinen Studie über die finanziellen Risiken der Windkraftinvestitionen zugesandt hat:

"Zu unserem Hintergrund: Wir sind ein Kreis von betroffenen Bürgern vorwiegend im Odenwaldkreis/Hessen, der vor allem der Windkraft  und der Photovoltaik als Energiequellen skeptisch gegenübersteht. Unsere Stärke besteht darin, dass in ihm ausgewiesene Fachleute, u.a. Ingenieure, vertreten sind. Bei dem Text über die Beteiligungsmodelle ist mein Beitrag vor allem redaktioneller Natur. Ich bin aber von den Beteiligten autorisiert worden, ihn mit meinem Namen zu zeichnen und im Namen des Arbeitskreises zu verbreiten."

Eike meint ergänzend zur Studie von Herrn Raabe:

1. Fonds und Finanzmodelle aller Art, d.h. Anlagen, auf die ein Investor keinen unmittelbaren Einfluss und Zugriff hat, neigen generell dazu, dass Gewinne in die Taschen der verantwortlichen Inhaber fließen, die Anteilseigner dagegen mit allfälligen Verlusten belastet werden. Das ist eine, jedem Fachmann geläufige Erfahrung.

2. Investitionen in Anlageformen, die nicht nachhaltig sind – auf dem freien Markt hätten erneuerbare Energien ihrer Unwirtschaftlichkeit wegen nicht den Hauch einer Chance, sie überleben nur auf Grund massiver staatlicher Subventionen – laufen große Gefahr, früher oder später zu platzen („Ökoblase“).

Die Redaktion

Related Files




Klimawandelspekulationsproduktion auf Hochtouren

Wer die Überzeugung hegt, dass CO2 als „Klimakiller“ bekämpft, aus der Atmosphäre verbannt und mit Milliardenaufwand sequestriert (unterirdisch eingesperrt) werden muss, wie eine Monstranz vor sich herträgt und fest daran glaubt, der muss den bisherigen Kurs weiter verfolgen und kann nur mit geänderten Szenarien spielen, auch über das Jahr 2300 hinaus. Da ohne jeglichen Beweis jedem CO2-Molekül ein Strahlungsantrieb (radiative forcing) vorgegeben wird, kann man ohne Ende mit stets variierenden Emissionsszenarien spielen und jede gewünschte Erwärmung oder auch Abschwächung der Erwärmung angeblich „prognostizieren“. Die Politik hat sich dann danach zu richten, was sie zu Lasten der Gesellschaft gerne tut, denn sie finanziert mit Steuergeldern diese ganze Spielerei, die wissenschaftlich ohne jeglichen Wert ist. 

Damit ist heute schon bombensicher, dass das gänzlich utopische Ziel, den Anstieg der Globaltemperatur auf unter 2-Grad-Celsius zu begrenzen, auf jeden Fall eingehalten wird, egal was geschieht. Doch vorher müssen wir für unsere Sünden am Klima noch kräftig büßen. Zum 20. Jubiläum des Wuppertal Institutes für Klima, Umwelt, Energie (WI) forderte dessen Präsident, Uwe Schneidewind, forsch und schnittig: „Wir brauchen eine intelligente Ökosteuer“. Die von Kanzler Gerhard Schröder unter Druck von Joschka Fischer am 1. April 1999 eingeführten Ökosteuern, das Datum verrät es, waren wohl nicht sehr intelligent, vor allem nicht effizient, einnahmeträchtig genug. Daher fordert Schneidewind eine neue intelligente ökologische Steuerreform, um die Energiewende zu beschleunigen. Die Energie soll jedes Jahr um ein bis zwei Prozent teurer werden. „Die Einnahmen sollen genutzt werden, um die Lohnnebenkosten zu senken“. Demnach scheinen die Renten sicher zu sein, denn in deren leere Kassen flossen die 99er-April-Ökosteuern. 

Doch was haben die Sicherung der Renten wie die Senkung der Lohnnebenkosten mit dem Klima zu tun, das doch vom Wetter und sonst nichts abhängt? Darüber verliert die Politik, verlieren die staatlich angestellten Klimaexperten kein Wort. Angeblich wollen sie doch die Wetterextreme verringern, die Wetterkatastrophen abschwächen. Das Wetter soll sich gefügig in ruhigen Bahnen bewegen und keine Kapriolen mehr schlagen. Doch solange die Ökosteuer-Milliarden nicht in den Wetterschutz, also den Schutz des Wetters, fließen, wird sich das Wetter nicht veranlasst sehen, sein Verhalten zu ändern und sich den Wünschen des Menschen unter zu ordnen. Vielleicht will sich das Wetter gar nicht schützen lassen und frei bleiben, das zu tun, was ihm behagt. Und da sind wir an einem heiklen Punkt, bei der Kardinalfrage: Was ist Klima und kann man es überhaupt schützen?

Der chinesische Denker Konfuzius warnte schon vor gut 2500 Jahren: „Wenn die Begriffe nicht stimmen, stimmen die Worte nicht; … stimmen die Worte nicht, kommt das Staatswesen in Unordnung, dann entsteht Chaos.“ Diese Erkenntnis trifft insbesondere auf mein Thema zu, bei dem insbesondere auf die Doppeldeutigkeit von Begriffen wie deren Interpretationsspielraum geachtet werden sollte. 

Seit Jahrzehnten werden wir mit der Warnung vor der drohenden Klimakatastrophe in Angst und Schrecken versetzt. Dass das Wetter keineswegs immer ruhig ist und unseren Wünschen entspricht, das wissen wir. Bisweilen kann Wetter extrem, ja katastrophal sein. Doch kann Klima extrem sein, Katastrophen auslösen? Gibt es überhaupt Klima als einen Naturvorgang, den wir beobachten und fühlen können? Das Wort „Klima“ kommt aus dem Griechischen und heißt „Neigung“. Das Wort „Klima“ ist aber auch ein Begriff, der vom Wetter abgeleitet ist: „Klima“ ist Ausdruck des mittleren Wettergeschehens an einem Ort über eine Zeitspanne von 30 Jahren. „Klima“ ist etwas statistisch Errechnetes und kann erst nach 30jähriger Beobachtungszeit errechnet werden. Wort und Begriff haben nichts miteinander zu tun. Das Finanz- und Börsenklima sind ganz vom Wetter unabhängig!

Die Warnung vor der Klimakatastrophe beruht nun auf zwei Hypothesen. Die erste ist, dass die Erde einem Treibhaus, dem allen bekannten Gewächshaus, entspricht. Die Erde ist zwar nicht von einer starren Glashülle umgeben, sondern von einer beweglichen Gashülle, aber deren Funktion sollen „Treibhausgase“ übernehmen. Diese „Treibhausgase“ sollen die Wärmestrahlung der Erdoberfläche in Höhe des gedachten Glasdaches von 6 km absorbieren, dann als „Gegenstrahlung“ zur Erde zurückschicken und somit die Erde erwärmen. Je mehr Kohlenstoffdioxid (CO2) in die Atmosphäre emittiert wird, umso stärker ist die zu befürchtende Erwärmung. 

Ist diese Hypothese richtig oder schlicht eine Lüge? Das ist die Zentralfrage, die, wenn man sich mit der Rolle des CO2 im Naturhaushalt und seinen biologischen wie physikalischen Eigenschaften befasst, leicht zu beantworten ist. Jeder gebildete Mensch weiß, dass CO2 für Pflanzen ein Grundnahrungsmittel ist. Ohne CO2 gäbe es kein Pflanzenwachstum, gäbe es keine Nahrung, keinen Sauerstoff, kein höheres Leben auf Erden. Es ist schon frevelhaft, CO2 als „Umweltgift“ zu bezeichnen, das am besten tief im Boden vergraben und eingesperrt werden sollte. Jeder Gewächshausbetreiber weiß um die Notwendigkeit von genügend CO2 im Gewächshaus. Er düngt sein Gewächshaus mit ihm, damit die Pflanzen besser wachsen. Zudem klimatisiert er sein künstliches Gewächshaus ganz nach den Bedürfnissen der angebauten Gewächse.

Wie jedes Haus ist auch das Gewächshaus ein schließbarer Raum, in dem die erwärmte Luft nicht gleich zum Himmel aufsteigen oder vom Winde verweht werden kann. Setzt die Heizung in einem erwärmten Gewächshaus aus, dann wird es darin recht schnell kalt. Im Winter können sich gar Eisblumen an den Fenstern bilden. Wenn schon eine Glasscheibe nicht verhindern kann, dass Wärme aus einem Gewächshaus entweicht, wie soll eine Gashülle um die Erde eine Erwärmung durch „Gegenstrahlung“ aus eiskalten Höhen bewirken? In 6 km Höhe herrschen mittlere Temperaturen von -18° Celsius. Die Erde ist kein Treibhaus, das Bild ist falsch. Darin ist die Lüge verborgen.

Auch im Physikunterricht lernt jeder Schüler, dass es feste, flüssige und gasförmige Körper gibt. Jeder Körper sendet unentwegt Strahlung ab, deren Intensität und Wellenlängen von seiner Temperatur abhängen. Feste und flüssige Körper senden ihre Strahlung in einem kontinuierlichen Spektrum ab, dagegen können Gase nur Strahlung ganz bestimmter Wellenlängen absorbieren und emittieren. Es war die große Leistung von Kirchhoff und Bunsen im Jahr 1858 die Spektralanalyse begründet und nachgewiesen zu haben, dass man Gase anhand der Absorptionslinien charakterisieren und bestimmen kann, wie einen Menschen anhand seines Fingerabdrucks. CO2 kann nur Strahlung in den Bereichen 4,3 und 15 Mikrometer absorbieren. Hätte die Erdoberfläche eine Temperatur von einheitlich 15°C, dann läge das Maximum der abgestrahlten Energie bei 10 Mikrometer. 

Fasst man alle Treibhausgase, also auch den Wasserdampf, zusammen und zeichnet die Absorptionslinien ein, so bleibt ein offener Bereich zwischen etwa 7 und 13 Mikrometern, in dem keinerlei Strahlung absorbiert wird. Man nennt diesen Bereich das „stets offene atmosphärische Strahlungsfenster“. Es war offen, ist offen und wird immer offen bleiben. Es ist die Überlebensgarantie für die Erde. Nur dadurch kann es in den Nachtstunden abkühlen, bevor am nächsten Tag wieder die Sonne der Erde hochwertige Arbeitsenergie zuführt, sie aufheizt. Gäbe es den „Treibhauseffekt“, dann wären keine „Eisheiligen“ möglich, könnte man morgens im taunassen Gras keine Kneipp‘schen Anwendungen machen, gäbe es keine Bodennebel. 

Die Erde muss minderwertige, nicht mehr arbeitsfähige Energie ins Weltall entsorgen können, um nicht einen Hitze-Tod erleiden zu müssen. Das Bild der Erde als „Treibhaus“ ist falsch, ein bewusster Schwindel. Und vor der Klimakatastrophe braucht auch keiner Angst zu haben, da es in der Natur gar kein Klima gibt, schon gar kein weltumspannendes einheitliches Globalklima. Die Tatsache, dass man aus tausend oder auch fünftausend gemessenen Temperaturwerten eine Mitteltemperatur berechnen kann, besagt längst nicht, dass dieser Mitteltemperatur ein „Globalklima“ entspricht. Die Einteilung der Erde in verschiedene Klimazonen, jedem Schulatlas kann man die Karten entnehmen, ist nichts als ein Abbild der Vielfalt unterschiedlicher Wetterzonen. Das Wetter bestimmt das Klima und nicht umgekehrt. 

Und was macht der Staat, wenn die Gesellschaft nicht gehorchen will? In diesem Fall empfiehlt der WI-Chef Schneidewind schneidig: „Doch insgesamt kann man nicht warten, bis alle Bürger das richtige Öko-Bewusstsein haben. Die Politik muss dem Verbraucher schon helfen, damit er aus der Routine herauskommt und sich richtig verhält“. Das ist eine sanfte Umschreibung für die kommende Öko-Diktatur!

Dr. Wolfgang Thüne, Dipl.-Meteorologe

 

In eigener Sache:

EIKE gibt allen Meinungen Platz. Um Missverständnisse zu vermeiden, weisen wir aber darauf hin, dass die Auffassung von Herrn Thüne über die" Physik des Treibhauseffekts" eine Privathypothese darstellt, die von keiner Fraktion der Klimawissenschaft geteilt wird – weder vom IPCC, noch von den Klima-Wissenschaftlern, die gegen das IPCC bzw. die AGW-Hypothese publizieren (von wenigen Ausnahmen abgesehen). Auch die Mitglieder des Fachbeirats von EIKE stimmen in diesem Punkt mit Herrn Thüne nicht überein.

Prof. Dr. Horst-Joachim Lüdecke

EIKE-Pressesprecher




Energiewende? Ein neues Kohle-Zeitalter zieht auf!

Wie die Zeiten sich ändern. Vor nur drei Jahren, genau Ende August 2008, erklärte Angela Merkel bei der Grundsteinlegung für ein neues Kohlekraftwerk des Stromriesen RWE in Hamm/Westfalen: „Die Energieversorgung ist eine zentrale Frage des Industriestandortes Deutschland. Wir brauchen eine Initiative der Vernunft. Die Ablehnung neuer Kohlekraftwerke ist umwelt- und klimapolitisch kontraproduktiv. Wir dürfen nicht abhängig werden von ausländischen Stromlieferungen.“ Inzwischen hat die Bundeskanzlerin durch den überstürzten Ausstieg aus der Kernkraft selbst dafür gesorgt, dass genau das eingetreten ist. Nach der Abschaltung der Hälfte der deutschen Kernkraftwerke ist die deutsche Stromversorgung „auf Kante genäht“, wie man so schön sagt. Eine Kältewelle oder der plötzliche Ausfall von zwei, drei Großkraftwerken würden genügen, um bei uns für Tage die Lichter ausgehen zu lassen. Die deutsche Netzagentur gibt das unumwunden zu und hat nun für die Winterzeit ältere Kohlekraftswerksblöcke als „Kaltreserve“ eingeplant. Damit bestätigt die Netzagentur, was unabhängige Fachleute schon bei der Verkündigung der „Energiewende“ durch Angela Merkel voraussagten: Statt zum Aufbruch in das von den Grünen verheißene „Zeitalter erneuerbarer Energien“ wird der Atomausstieg zu einer Renaissance von Kohle und (in geringerem Umfang) Gas führen. Beim grünen Fußvolk führt das zu wachsender kognitiver Dissonanz, zumal inzwischen ausgerechnet die linksliberale „New York Times“ auf die stark negative Öko-Bilanz „grüner“ Energieträger wie Biosprit hingewiesen hat.

Es spricht ohnehin einiges dafür, dass das Zeitalter der Kohle als Rohstoff der Elektrizitätserzeugung nun erst richtig beginnt. Nach dem jüngsten Statistical Review of World Energy des Ölkonzerns BP, einer der verlässlichsten Quellen für weltweite Energiemarktdaten, ist der Kohleverbrauch in den letzten zehn Jahren fast um 50 Prozent gestiegen. Eine solch rasche Steigerung hat es zuvor noch nie gegeben. Zu 90 Prozent sind China und Indien für diesen Zuwachs verantwortlich. Der Anteil der Kohle an der weltweiten Primärenergieerzeugung erreicht fast 30 Prozent und ist damit wieder so hoch wie zuletzt im Jahre 1970. Mit 48,2 Prozent entfällt fast die Hälfte des Welt-Kohleverbrauchs auf China. Die Pläne der chinesischen Führung sehen bis 2035 einen Ausbau der Kohlekraftwerkskapazität auf 600 Gigawatt vor. Auch in den westlichen Ländern ist der Kohleeinsatz im Jahre 2010 mit 5,2 Prozent so stark gewachsen wie zuletzt im Jahre 1979.

Diese Entwicklung kam durchaus nicht überraschend, sondern entspricht marktwirtschaftlicher Logik. Denn die bekannten Kohlevorräte sind auf der Welt relativ gleichmäßig verteilt und reichen noch für etliche Jahrhunderte. Die Schätzungen reichen bis zu tausend Jahren und mehr. Zudem ist die Kohle, im Unterschied zu flüssigen oder gasförmigen Energieträgern, problemlos transport- und lagerfähig. Mit ihrer Hilfe ist also das heikle Problem der Energiespeicherung leicht lösbar. Die Kohlepreise sind zwar in diesem Jahr wegen der Überflutung australischer Kohleminen im letzten Winter vorübergehend auf 90 bis 120 Euro je Tonne angestiegen. Doch noch immer gehört die Kohle zu den preiswertesten Energieträgern. Sie ist daher für aufstrebende  Schwellenländer wie China und Indien die Energiequelle der Wahl. Leider bleiben die Kraftwerke dort, was das Ausfiltern von Schadstoffen angeht, noch immer weit hinter dem westlichen Stand der Technik zurück.

In der EU (außer in Polen) wird die Kohle jedoch von den Grünen aller Parteien grundsätzlich verteufelt, weil bei ihrer Verbrennung Kohlenstoffdioxid (CO2) entsteht. Dieses unsichtbare, geruchlose und ungiftige Gas wird für die globale Erwärmung verantwortlich gemacht. Neue Kohlekraftwerke sollen deshalb nach dem Willen der EU-Kommission nur noch genehmigt werden, wenn sie das CO2 aus den Rauchgasen abscheiden und in tiefe Gesteinschichten verpressen. Das würde im Verein mit dem vorgeschriebenen Erwerb von CO2-Lizenzen über das europäische Emissionshandelssystem ETS allerdings die Kostenvorteile der Kohle weitgehend zunichte machen.

Darin besteht wohl auch der Hauptzweck der europäischen „Klimapolitik“. Diese stützt sich auf die 1896 vom schwedischen Chemiker Svante Arrhenius formulierte Hypothese vom „Treibhaus Erde“, die schon vor über hundert Jahren vom amerikanischen Physiker Robert William Wood als Fiktion entlarvt wurde. Wood konnte mithilfe eines einfachen Experiments zeigen, dass nicht einmal ein richtiges Gewächshaus so funktioniert, wie das „Treibhaus Erde“ angeblich funktionieren soll. Heute kann sich jeder selbst davon überzeugen, dass es zwischen der Kohleverbrennung und der Entwicklung der Durchschnittstemperatur auf der Erde keinen Zusammenhang gibt: Der starke Zuwachs des Kohleverbrauchs in den letzten zehn Jahren hat nicht zu einer nachweisbaren Erwärmung der Erde geführt. Im Gegenteil ist die Durchschnittstemperatur leicht gesunken.

Was die meisten nicht wissen: Arrhenius’ widerlegte Hypothese wurde schon zu Beginn der 1980er Jahre von führenden Köpfen der sozialistischen Internationale um Olof Palme und Gro Harlem Brundtland aus der Versenkung geholt, um die damals unrentabel gewordene Förderung von Erdgas in Russland und in der Nordsee durch die Einführung einer CO2-Steuer gegenüber der billigen Kohle wieder wettbewerbsfähig zu machen. Zwar konnten die Sozialisten bis heute keine direkte CO2-Steuer durchsetzen. Aber der CO2-Emissionshandel wirkt wie eine indirekte Steuer. Doch konnten die Sozialisten damit die Renaissance der Kohle nicht verhindern. Nun wäre es an der Zeit, sich vom Treibhaus-Schwindel zu verabschieden.  

Edgar Gärtner EIKE

Brandaktuell Roland Tichy in der Wirtschaftswoche "Blackout in Berlin"

Weil der Energie-Murks nicht länger zu vertuschen ist, hat die Bundesregierung vergangene Woche noch eine Expertenkommission eingerichtet. Glück auf!

Weiteres im Internet:

Merkel wirbt für den Neubau von Kohlekraftwerken

Statistical Review of World Energy

‚Serious’ Error Found in Carbon Savings for Biofuels




Skeptische Berkeley-Wissenschaftler: „Die menschliche Komponente der globalen Erwärmung könnte etwas überbetont sein!”

In einer Presseerklärung (hier) des Projektes (hier) heißt es „die globale Erwärmung ist real“. Hinzugefügt wird, dass keine Beweise für einen Wärmeinseleffekt gefunden werden konnten, und dass selbst Wetterstationen, deren Qualität zweifelhaft erscheint, eine relative Erwärmung in der fraglichen Periode von 1950 bis 2010 zeigen.

Während diese Ergebnisse keine Überraschung darstellen, wurden die Forschungsergebnisse von Einigen benutzt, um über die Natur des Klimaskeptizismus zu reden, wobei man im Kopf behalten muss, dass der Anstoß zu der Berkeley-Initiative (hier) von sich selbst so bezeichnenden skeptischen Wissenschaftlern gekommen war. Aber die Ergebnisse und die Art und Weise, wie sie präsentiert worden sind, sagt auch etwas aus über die Natur der heutigen Umweltberichterstattung. Im Besonderen wird enthüllt, wie verengt der Blickwinkel heute ist, indem man Skeptiker scharf zurechtweist auf Kosten der echten Wissenschaft in ihren richtigen Zusammenhängen.

Der Guardian ist nicht wegen seiner Aussagen angesehen, sondern wegen dem, was er nicht sagt. Der Artikel dort hat einen viel zu engen Blickwinkel und steht in keinem allgemeinen Zusammenhang. Es wird nicht einmal erwähnt, dass die Forscher in Berkeley selbst sagen, dass sie nicht bestimmen können, warum es auf der Welt wärmer geworden ist. Es gibt keinerlei Hinweise darauf, dass der Skeptiker nur wenige sind, die bezweifeln, dass es auf der Welt wärmer wird, und dass es eine weit verbreitete und respektable Gruppe von Wissenschaftlern gibt, die sich in wissenschaftlich begutachteten Journalen über die relative Mischung der die Erwärmung beeinflussenden Faktoren austauschen.

Der Guardian räumt auch James Hansen Raum ein, den Skeptizismus zu verunglimpfen und ungestraft damit davonzukommen. Er sagt: „Wie ich früher schon gesagt habe, die Leugner, oder Gegner, wenn Sie so wollen, verhalten sich nicht wie Wissenschaftler, sondern wie Rechtsanwälte… sobald sie Beweise gegen ihre Klientel sehen (die Industrie fossiler Treibstoffe und jene Leute, die Geld mit dem Business-as-usual verdienen), verwerfen sie diese Beweise und bringen hervor, was immer sie an Häppchen finden können, um den Richter und die Jury zu verunsichern“. Die Anzahl der im Artikel erwähnten Skeptiker ist Null.

Der Artikel im Economist (nach meiner Meinung nicht gerade bekannt dafür, vertiefend über die Klimawissenschaft zu berichten) wurde ganz klar von jemandem geschrieben, dem das Projekt unbekannt war. Wie im Guardian wurde auch hier diese Forschung nicht im richtigen Zusammenhang dargestellt. Die Anzahl der im Artikel erwähnten Skeptiker ist Null.

Der Bericht in Nature war meiner Ansicht nach um Einiges besser, weil tatsächlich Kommentare der Skeptiker angefügt worden sind. In einem davon kommt Steve McIntyre zu Wort, der schreibt, dass er ein paar Probleme in der Berkeley-Forschung gefunden habe. Betrachtet man McIntyres Reputation, ist dies beachtenswert. Das Berkeley-Team stellt ihre Rohdaten ins Netz, und zweifellos werden sich statistisch bewanderte Blogger an die Arbeit machen (für mich war eines der wesentlichen Ergebnisse aus „Climategate“, dass einige Professoren der Klimawissenschaft sich nicht in der gleichen Liga befanden wie einige andere im Web, wenn es um statistische Analysen ging.) Die Anzahl der in Nature zu Wort kommenden Skeptiker ist: einer.

New Scientist hat gute Arbeit geleistet, denn sie beschrieben die Perspektive für die Forschung, indem sie hervor gehoben haben, wie irrelevant die Ergebnisse aus Berkeley für viele der heutigen skeptischen Fragen waren. Die Skeptiker-Anzahl im New Scientist 3.

Aber der schlimmste Bericht hierzu kam für mich von Forbes. In diesem boshaften Artikel hieß es, dass die wissenschaftliche Gemeinschaft seit Jahrzehnten gesagt hatte, dass die Erde sich erwärmt. Das sehe ich nicht so. Es heißt weiter:

 „Tatsächlich haben sich inzwischen selbst die letzten Skeptiker und Leugner der Klimaänderung davon verabschiedet zu sagen, dass es keine Erwärmung gibt. Jetzt ist ihr wesentlicher Punkt, dass die Erwärmung nicht vom Menschen verursacht ist, oder nur ganz wenig, oder dass das nichts Schlechtes wäre, oder dass wir das nicht beeinflussen können, oder… Leugnung ist ein bewegliches Ziel“.

Dieser mit Vorurteilen gespickte, intolerante und ungenaue Artikel missinterpretiert vollständig skeptische Ansichten und ist ein gutes Beispiel dafür, welchem Problem sich die Diskussion um die Klimawissenschaft gegenüber sieht, und zwar innerhalb und außerhalb der wissenschaftlichen Gemeinschaft. Wir müssen uns eindeutig über solche spaltenden und ätzenden Kommentare erheben, die in der wissenschaftlichen Welt keinen Platz haben. Der Autor ist ein altes, steriles Paradigma, inhärent antiwissenschaftlich und schafft mehr Probleme als jemand am äußersten Ende des Klimaskeptizismus.

Triviale Schlagzeilen

Es gibt nur sehr wenige Menschen, die nicht daran glauben, dass sich die Erde in verschiedenen Episoden seit dem Beginn instrumenteller Aufzeichnungen vor etwa 150 Jahren erwärmt hat. Es ist heute wärmer als zur Zeit der Kleinen Eiszeit, wärmer als in der viktorianischen Epoche, tatsächlich auch wärmer als während der siebziger Jahre. Die vernünftige Frage lautet natürlich, warum? Das Berkeley-Team hat dazu keinerlei Lösungen.

Also sind alle Schlagzeilen des Inhalts, dass die Skeptiker in die Schranken gewiesen wurden, weil die Welt sich wirklich erwärmt, trivial. Das Berkeley-Team untermauert das, was schon in drei anderen Datensätzen erkennbar war und bei dem „beide Seiten“ der Debatte schon übereinstimmen. Ich könnte sagen, „na und?“ oder „ist das eine Neuigkeit?“. Nun, neu ist, was die Reporter drucken.

Allerdings gibt es hinsichtlich dieser Forschung noch wichtige Fragen. Anthony Watts und Steve McIntyre sagen, dass sie einige ernste Dinge gefunden haben, die zweifellos früher oder später ans Licht kommen werden.

Die rund 39 000 Wetterstationen überdecken 29% des Planeten, und ein Drittel von ihnen zeigte in der betrachteten 60-jährigen Periode keine Erwärmung, sondern in Wirklichkeit eine Abkühlung. Wie passt die Verteilung dieser zwei Untergruppen von Datensätzen zusammen? Man würde nicht erwarten, dass die globale Erwärmung gleichmäßig den ganzen Globus erfasst (tatsächlich scheint es die stärkste Erwärmung in der Arktis zu geben), aber falls die Stationen mit Abkühlung gut vermischt inmitten der Stationen mit einer Erwärmung liegen, dann wäre das sehr interessant. Die Berkeley-Forscher interpolieren die Temperaturen zwischen Stationen, und ich frage mich, ob die Stationen mit Abkühlung in diese Interpolation passen. Tatsächlich wäre vielleicht ein Weg, diese Daten zu betrachten, dass nur ein Drittel der Wetterstationen (die Differenz zwischen den Stationen mit Erwärmung und jenen mit Abkühlung) zum Fazit beitragen. Nach meiner Meinung ist dies ein großer Unterschied zu der Aussage, dass zwei Drittel der Temperaturstationen eine Erwärmung zeigen.

Ein anderes aus diesen Daten  ablesbares Phänomen ist die Bestätigung, dass der [Temperatur-]Datensatz von NASA GISS anomal hoch ist im Vergleich mit den Daten anderer Stationen vor allem während des vergangenen Jahrzehnts. Wie ich früher schon sagte, man sollte also vorsichtig sein, Temperaturrekorde allein auf der Datenbasis von NASA GISS zu proklamieren.

Die Daten bestätigen auch den Stillstand [der Temperatur] nach dem Jahr 2000; Nigel Calder hat das angemerkt. Wenn ich  mir die Daten so ansehe, bestreite ich, dass der jüngste Stillstand nicht in den Daten präsent ist (hier).

Der wissenschaftliche Chefberater der Britischen Regierung, Professor Sir John Beddington, betont, dass die Studie wissenschaftlich begutachtet werden muss, bevor sie in die Debatte geworfen wird, aber falls sie als korrekt eingestuft wird, würde es mit Arbeiten bei der NASA und der NOAA und derjenigen von Phil Jones und seinen Kollegen am UK Headley Center-UEA Climatic Research Unit konform gehen. „Diese Studie ist ein weiterer Beweis dafür, wie die Klimaänderung vonstatten geht“, sagte er.

Eigentlich sagen die Wissenschaftler, dass sie nicht sagen können, wie die globale Erwärmung vonstatten geht, sondern nur, dass sie im Gange ist, jedoch könnte man menschenfreundlich sein und sagen, dass Sir Johns Kommentare darüber, wie die globale Erwärmung vonstatten geht, auf räumliche Daten zurückgehen, aber schauen Sie auf meine früheren Kommentare hierzu.

Professor Sir Brian Hoskins, Direktor am Grantham Institute for Climate Change, gab seiner Hoffnung Ausdruck, dass – falls die Studie  nach der Begutachtung veröffentlicht worden wäre – das sich das Hauptaugenmerk verlagert zu den „Implikationen dieser Erwärmung in der Zukunft anstatt bei der Frage zu verharren, ob diese Erwärmung nun stattfindet oder nicht“.  

Ich hoffe nicht! Die Implikationen in der Zukunft müssen in den Zusammenhang unseres Verständnisses dessen, was tatsächlich passiert, eingebettet werden. Das sollte als Nächstes im Fokus stehen.

Aber es gibt einen wirklich wichtigen Punkt in einem der vier vom Berkeley-Team veröffentlichten Studien, und es ist eine beachtliche Ironie, dass alle Reporter und Kommentatoren das übersehen haben.

Falls Sie etwas tun, was die meisten Reporter nicht getan haben und normalerweise auch nie tun, nämlich die Studie selbst zu lesen (warum sollten sie das tun, wenn es doch eine Presseerklärung dazu gibt), werden Sie etwas Bemerkenswertes finden.

„Menschliche Komponente überbetont”

Die Ergebnisse des BEST-Projektes sind wichtig, weil sie die wachsende Realisierung unterstreichen, dass die Wissenschaft das Unbekannte und die Unsicherheiten bzgl. des Beitrags der aktuellen Klimaänderung zu wenig berücksichtigt hat. Zweifellos stellen die vom BEST-Team gesammelten Daten und die durchgeführten Analysen eindeutig einen Beweis dar, dass die ursächlichen Gründe der globalen Erwärmung kaum verstanden sind.

Die Forscher fanden eine starke Korrelation zwischen Jahrzehnte dauernden nordatlantischen Temperaturzyklen und der globalen Temperatur auf dem Festland. Sie geben zu, dass der Einfluss ozeanischer Temperaturzyklen während der letzten Jahrzehnte nicht beachtet worden war und die meiste, wenn nicht die gesamte globale Erwärmung erklären können, und stellen die Möglichkeit heraus, dass die „menschliche Komponente der globalen Erwärmung überbetont worden ist“.

Da ist die Schlagzeile, die alle übersehen haben: Wissenschaftler sagen, dass die menschliche Komponente der globalen Erwärmung überbetont sein könnte.

Warum redet davon niemand? Sie ist genauso gültig wie die tatsächlich benutzten Schlagzeilen, wissenschaftlich viel interessanter und journalistisch um Lichtjahre besser als das, worüber berichtet worden ist.

Die BBC hat den Aspekt der nordatlantischen dekadischen Oszillation mit den Worten erwähnt „Die Berkeley-Gruppe sagt, dass sie auch Beweise gefunden hätte, dass die sich ändernden Wassertemperaturen im Nordatlantik ein wesentlicher Grund dafür sein könnten, dass sich die Temperatur der Erde global von Jahr zu Jahr ändert“. Aber dann versagen sie bei der Erklärung, was das bedeutet, flüchten sich in Verdrehungen und erwähnen nicht die Schlussfolgerungen der Berkeley-Forscher.

Nun, das ist die Ironie: Das Berkeley-Team besteht eigentlich aus Skeptikern über die wirkliche Frage – die Frage des Verhältnisses zwischen natürlichen und menschlichen Beiträgen zur jüngsten Erwärmung. Und warum ist kein einziger „Reporter“ darauf eingegangen?

Warum wurde dieser Baustein übersehen oder ignoriert? Weil die Umweltreporter zu sehr davon besessen sind, auf die Skeptiker einzuschlagen, und weil sie lieber über Presseerklärungen als über echte Wissenschaft berichten.

Dr. David Whitehouse

Posted on October 21, 2011 by Anthony Watts

From Dr. Benny Peiser and the Global Warming Policy Foundation via email.

The Observatory, 21 October 2011

Feedback: david.whitehouse@thegwpf.org

Link zum Original: hier

Übersetzt von Chris Frey für EIKE




Die Berkeley-Temperaturkurve BEST oder „Des Kaisers neue Kleider“

In unserer Kritik konzentrieren wir uns auf zwei Punkte, auf die Temperaturentwicklung im 19. Jahrhundert und auf die Standardabweichung der BEST Kurve.

Bis zurück Ende des 18. Jahrhunderts gibt es nur eine Handvoll verlässlicher Thermometerreihen als Monatsmittelwerte. Der Rest der zugänglichen Datenreihen weist sehr große Lücken auf, ist oft nicht lokal und liegt in der Regel nur in Form von Jahresmittelwerten vor. Vor allem gab es aber instrumentelle Temperaturdaten im 19. Jahrhundert nur in der Nordhemisphäre. Aber eines haben alle Messdaten des 19. Jahrhunderts gemeinsam: sie zeigen einen deutlichen Temperaturabstieg. Dies widerspricht der BEST Kurve, die umgekehrt im gleichen Zeitraum einen Anstieg zeigt.

In der Veröffentlichung von H.-J. Lüdecke vom Sept. 2011 (als pdf beigelegt) werden die 5 qualitativ besten Langzeitreihen Hohenpeissenberg, Prag, Wien, München und Paris, alle Monatsmittelwerte, analysiert. Von einem Temperaturanstieg im 19. Jahrhundert keine Spur! Es ist undenkbar, wie aus diesen lokalen Reihen und auch allen anderen Reihen schlechterer Qualität, die im Prinzip aber immer noch das Gleiche zeigen, schließlich eine globaler Temperaturanstieg herbeigezaubert werden kann. Man darf daher auf die Original-Publikationen zu BEST, wenn sie denn den Peer-Review-Prozess überstehen, gespannt sein. Zur möglichen Entschuldigung der Berkeley Autoren kann vielleicht angeführt werden, dass die in der Arbeit von Lüdecke verwendeten Langzeitreihen zumindest im GISS Datenpool, der zurück etwa 1890 endet, nicht vorkommt. Vielleicht waren diese Reihen den Autoren ja unbekannt, was allerdings nur schlecht vorstellbar ist.

Die zweite Merkwürdigkeit betrifft die Standardabweichung der BEST Kurve – anschaulich ihre Schwankungsbreite. Sie ist zu Beginn, also um 1800, am größten und verschwindet praktisch im Jahre 2000. Solch eine massive Abnahme ist mit an Sicherheit grenzender Wahrscheinlichkeit schlichter Unsinn. Zwar lassen die gemessenen Reihen in Abb. 1 und Abb. 2 der Publikation von Lüdecke eine leicht geringere Standardabweichung im 20. Jh., verglichen mit dem 19. Jh., erkennen, die Standardabweichung kann aber natürlich nicht verschwinden. Es soll in diesem Zusammenhang daran erinnert werden, dass für die moderne Trendanalyse der Quotient D/s maßgebend ist – mit D als der Temperaturänderung der Regressionsgeraden und s als der Standardabweichung um die Temperaturkurve herum. Wird s zu klein, ergeben sich unrealistische Trends.

Generell verfälscht jeder Prozess, der aus lokalen Einzelreihen eine Globalkurve erstellt, die Standardabweichung zu kleineren Werten hin. Der Grund ist, dass die Mittelung von unkorrelierten Einzelreihen Maxima und Minima wegglättet. Alle Trendanalysen, die Globalreihen verwenden, neigen infolgedessen dazu, externe Trends überzubetonen – um es vorsichtig auszudrücken.

Überflüssig zu erwähnen, dass auch die jüngste Arbeit der Autoren Lüdecke, Link und Ewert „How natural is the recent centennial warming: An analysis of 2249 surface temperature records“, die Ende Oktober Im International Journal of Modern Physics C; Vol. 22, No. 10 erscheint, den weiteren Verlauf der BEST Kurve im 20. Jahrhundert nicht bestätigt. Die Autoren finden im Bereich der Jahre 1906-2005 eine globale Erwärmung von nur rd. 0,5 °C. Pikant ist, dass in dieser Arbeit die gleichen Daten von GISS/NASA zur Verwendung kamen, die auch in die BEST Kurve einflossen. Vielleicht stammt aber die BEST Kurve vom Mars, oder Michael Mann ist Mitautor (Sie wissen schon, der Erfinder des Hockey-Sticks). Letzteres würde alles erklären, und wir könnten wieder beruhigt zur Tagesordnung übergehen.

Prof. Dr. Horst-Joachim Lüdecke

EIKE-Pressesprecher

Related Files




Deutsche Journalisten verstellen sich! Isländischer Genforscher berichtet über seine Erfahrungen

Neugierig sein, heißt auch hartnäckig sein. Beispielsweise um ein Interview mit dem isländischen Genforscher Kári Stefánsson zu bekommen. Denn der hat von deutschen Journalisten die Nase gestrichen voll. Mit gutem Grund. Das Interview hier für Achgut-Leser als kleiner Appetitmacher auf das Neugier.de Island-Heft, das Sie hier bestellen können. Darin gibts noch viel mehr für Freunde unkonventionellen Denkens. Ein weiteres streitbares Interview mit dem isländischen Walfänger Kristiján Loftsson und eine Fotoreportage vom (live erlebten) Ausbruch des Vulkans Grimsvötn. Schriftsteller Bernhard Lassahn begab sich mit Käptn Blaubär auf eine Island-Kreuzfahrt und der Architekt Einar þorsteinn Ásgeirsson erklärt das Gehemnis seiner Kugelhäuser.

Und hier das Interview von Henryk Broder mit Kári Stefánsson über seine Erfahrungen mit deutschen Journalisten, die Genforschung und den Lieben Gott.

Pieces of Shit

Neugier.de : Kári, Sie können deutsche Journalisten nicht ausstehen. Trotzdem sprechen Sie mit uns, was wir wirklich zu schätzen wissen. Warum ist Ihnen unsere Truppe so unsympathisch?

Kári Stefánsson: Das liegt einfach daran, dass sie offensichtlich andere Anstandsregelnhaben als die Journalisten im Rest der Welt. Deutsche Journalisten verstellen sich. Sie haben keine Skrupel zu täuschen und zu verschleiern, auf was sie in Wahrheit hinauswollen. Das widerspricht völlig den ethischen Grundsätzen des professionellen Journalismus. Wenn Sie mit einem angelsächsischen oder einem skandinavischen Journalisten sprechen, wird er Ihnen immer klar sagen, was er wissen will, worauf er hinaus will, was der Fokus seiner Geschichte ist. Deutsche Journalisten sind leider in kultureller Hinsicht ignorant. Ihre Geschichten sind immer sehr germano-zentrisch und sie machen ihre deutsche Weltsicht zum alleinigen Maßstab für die Beurteilung von Sachverhalten. Ich erinnere mich an einen Artikel, den einer Ihrer deutschen Journalisten-Kollegen über Island geschrieben hat. Er trug den Titel „Peepshow im Land der Wikinger“. Doch wo war die Peepshow? Die Leidenschaft der Isländer in Sachen Genealogie wurde kurzerhand zur Peepshow gemacht. Island führt einen Stammbaum der ganzen Nation – und dies wurde als Peepshow abqualifiziert. Aus der Tatsache, dass unsere Nation es in Ordnung findet, zu wissen, wer mit wem verwandt ist, wurde eine exhibitionistische Zurschaustellung gemacht. In meiner Erfahrung mit deutschen Journalisten gab es leider keine einzige Ausnahme. Ich habe mit Journalisten aller großen deutschen Tageszeitungen und fast aller Fernsehsender gesprochen. Und wirklich jeder einzelne von ihnen verhielt sich gleich.

Sie wissen wenig und wissen dabei alles besser?

Ich will mir kein Urteil über das Fachwissen deutscher Journalisten erlauben. Ich möchte nur sagen, dass sie alle ohne Ausnahme Arschlöcher („Pieces of shit“) sind. Vielleicht sind sie sehr gebildete Arschlöcher, aber das ist mir gleich.

Und Ihnen ist noch nie jemand begegnet …

Ich habe noch keinen anständigen deutschen Journalisten kennengelernt! Das ist wirklich seltsam …

Könnte das etwas mit dem deutschen Nationalcharakter zu tun haben?

Es ist eigenartig. Wenn Sie die deutsche Kultur betrachten – wir haben ihr so viel zu verdanken. Wir haben ihr unsere Weltanschauung zu verdanken. Wenn wir die erste Hälfte des vergangenen Jahrhunderts betrachten – da gab es diese ungeheuere Kreativität in den Wissenschaften. Im Grunde haben die Deutschen unser heutiges Weltbild erschaffen. Ihnen haben wir einen großen Teil der musikalischen Werke zu verdanken und einiges an guter Literatur. Deutschland hat viel Gutes hervorgebracht. Natürlich gab es auch einige weniger glückliche, von Arroganz und Selbstgerechtigkeit geprägte Beiträge zu unserer Kultur, einige Weltkriege zum Beispiel. Heute gibt es viel Positives in Deutschland. Die Kunstszene in Berlin. Berlin ist die Kunsthauptstadt der Welt geworden und hat damit New York und London abgelöst. Ihr seid also nicht ohne Vorzüge. Obwohl mir die Welt ohne Euch besser gefallen würde.

Na toll. Gibt es noch was Gutes über die Deutschen zu sagen?

Die Deutschen haben sehr viel isländische Literatur übersetzt. Sie sind sehr angetan von unserer Literatur. Und in Deutschland gibt es ebenso viele Islandponys wie in Island. Vielleicht sogar mehr. Wenn man sich eine Nation wie die Deutschen ansieht – eine sehr gebildete Nation relativ kluger Menschen –, so lebt sie immer noch im Schatten des zweiten Weltkrieges. Deshalb ist jeder so bemüht, sich politisch korrekt zu verhalten. Sie möchten der Welt zeigen, dass sie eigentlich nicht das Volk waren, das die Juden ausrotten wollte, dass sie eigentlich nicht das Volk  waren, das in Polen einmarschiert ist, dass sie eigentlich nicht das Volk waren, das so gewaltsam vorging. Deswegen wirkt das Verhalten der Deutschen in vielerlei Hinsicht so unnatürlich. Sie sind katholischer als der Papst und ziemlich verklemmt. Adolf hat sie immer noch fest im Griff. Es ist interessant zu sehen, wie die schönen Künste es auf verschiedene Art und Weise schaffen können, die Menschen aus dieser Misere zu befreien.

Hat diese Einstellung auch einen Einfluss auf die Wissenschaft in Deutschland?

Eigentlich hat die Wissenschaft in Deutschland ihre Krise überwunden. Lange Zeit konnte gerade in meiner Disziplin, der Genetik, nicht gearbeitet werden, weil Genetik ein Schimpfwort war. Jahrelang haben die Deutschen Ethikkonferenzen abgehalten, die einzig und allein dazu dienten, mich einzuladen und dann mit faulen Eiern zu bewerfen. Aber jetzt sind sie bereit und beginnen, im Bereich Humangenetik zu forschen. Trotzdem belastet sie dieses Thema immer noch. Und das ist eigentlich merkwürdig, weil Humangenetik im Prinzip eine rein deskriptive Disziplin ist. Man verändert nichts, man beschreibt nur, wie der Mensch aufgebaut ist – basierend auf den Informationen, die im Genom enthalten sind. Trotzdem furchten sich die Deutschen immer noch ein wenig vor diesem Thema. Es gibt fünf, sechs verschiedene Forschergruppen in Deutschland, die vernünftige Arbeit leisten.

Manche nennen Sie den Einstein des 21. Jahrhunderts. Andere behaupten, Sie wären kein Einstein, sondern Frankenstein. Wie sehen Sie sich selbst?

Das meiste davon hat nichts mit mir zu tun. Es hat mit den Kontroversen um das Thema Genetik zu tun. Während man vor 14, 15 Jahren darüber stritt, ob man Populationsgenetik betreiben soll, haben wir einfach begonnen, auf diesem Gebiet zu forschen. Ich habe vorgeschlagen, Populationsgenetik in einer Großstudie zu erforschen. Das hat vorher außer uns noch keiner getan und seitdem auch nicht.

Ist niemand in Ihre Fußstapfen getreten?

Jetzt versuchen es viele – auf der ganzen Welt versuchen sie zu reproduzieren, was wir hier geleistet haben. Aber als ich das Projekt vorschlug, hielten es die Leute für eine Zukunftsvision von George Orwell. Man befürchtete, dass Menschen ausgebeutet würden, dass Menschen damit geschadet werden könnte, dass wir die Privatsphäre von Menschen ausspionieren und sie ausnutzen würden. Nichts davon hat sich in den letzten 15 Jahren bewahrheitet. Im Gegenteil, die Hälfte aller wichtigen Erkenntnisse in der Humangenetik stammt aus dieser Zeit und unser Beitrag ist wahrscheinlich so groß wie der des Rests der Welt zusammengenommen. Deshalb fangen die Leute an, unsere Arbeit jetzt als eine sehr produktive Sache zu betrachten, die relativ harmlos ist.

Wie viele Menschen haben an der Studie teilgenommen?

Ungefähr 130.000 Menschen – ein Grossteil der isländischen Erwachsenen. 95 Prozent der Personen, die wir zur Teilnahme eingeladen hatten. Wir haben ausreichend Material für unsere Untersuchungen gewonnen. Wir sammeln keine Moleküle, sondern Informationen über das menschliche Leben. Wir betreiben solide Forschung. Wir sind einfach Wissenschaftler. Und eines dürfen Sie nicht vergessen: Wissenschaft floriert eher im Chaos und nicht durch rationale Überlegungen. Sie hängt eher von Intuition als von logischer Analyse ab.

Haben Sie herausgefunden, warum es uns gibt?

Nein. Ich bin weit davon entfernt, das zu begreifen. Es bereitet mir schweres Kopfzerbrechen, herauszufinden, warum wir existieren. Ich könnte Ihnen viele Gründe nennen, warum es uns nicht geben sollte … Bedenken Sie einmal: Was Ihnen die Fähigkeit zu denken verleiht, sind heute, 65 Jahre nach Ihrer Geburt, die Informationen, die zusammengefügt wurden, als die Eizelle Ihrer Mutter mit Hilfe Ihres Vaters befruchtet wurde und dieses neue Genom, diese neue Konstellation 
von Chromosomen entstand. Das ist der Grund, warum Sie sind, wer Sie sind. Was könnte also wichtiger sein, als herauszufinden, wie diese Informationen uns zu dem machen, was wir sind.

Welchen Einfluss hat die Erziehung, die Umwelt …

Die Art und Weise, wie Sie auf Ihre Umwelt reagieren, wird von Ihren Genen gesteuert. Natürlich hat die Umwelt einen Einfluss auf Sie. Aber wie Umfeld A sich auf Mensch B auswirkt – im Gegensatz zu der Wirkung von Umfeld C auf Mensch D –, liegt am Unterschied in den Genomen. Man kann nicht vor sich selbst fliehen. Die Tatsache, dass Ihr Leben nicht vorhersehbar ist, bedeutet aber nicht, dass es Willensfreiheit gibt.

Das bedeutet?

Wenn Sie das genetische Profil eines Menschen im Kindesalter analysieren, können Sie im Prinzip auf dieser Basis ein personalisiertes Gesundheitsvorsorge- Programm erstellen, das darauf abzielt, zu verhindern, dass eine wahrscheinliche Krankheit tatsächlich ausbricht.

Sie arbeiten mit …

Wir arbeiten mit ungefähr 150 Universitäten weltweit, wir haben Mitarbeiter in jeder Großstadt in Europa, wir haben eine bedeutende Anzahl von Kooperationen in Deutschland, für die Erforschung von allen möglichen Krankheiten, unsere Forschungspartner sind die Universitäten.

Wie sieht es mit Designer-Babys aus?

Das ist ein extrem kompliziertes Thema, weil es hier um Selektion geht. Es geht um die Frage, ob es richtig ist, eine Meinung darüber zu haben, wie Menschen zu sein oder nicht zu sein haben. Wir sind sehr zielstrebig darin, wie wir die Umwelt nutzen wollen, damit sie einen Einfluss auf die Entwicklung von Menschen hat. Deshalb können wir nicht behaupten, dass wir keine Meinung dazu haben, wie unsere Kinder werden sollen. Aber der Gedanke, Erkenntnisse aus der Genforschung zur Verbesserung von Menschen einzusetzen, beunruhigt uns. Der Begriff der Eugenik wurde von Galton geprägt, der ein Schüler Darwins war. Dann kam Herr Adolf daher und veränderte die Art und Weise, wie man diesen Begriff betrachtete. Ich finde die „Zucht“ von Menschen geschmacklos. Und ich denke, dass es gewisse biologische Gründe dafür gibt, keine an die heutige Welt hervorragend angepasste Herrenrasse zu züchten – weil sich die Welt verändert. Einmal angenommen wir würden den perfekten Menschen definieren …

… einen Allzweckmenschen, in Einheitsgrösse …

Ja, das gab es schon. Es ist klar, dass man den perfekten Menschen über die Umwelt, wie sie heute ist, definieren würde. Ein Mensch, der in der heutigen Umwelt funktionieren und überleben könnte. Und dann würde es so einen Vulkanausbruch geben, der alles verändert. Wenn alle Menschen gleich wären, dann wären wir schlecht auf die nächste Katastrophe vorbereitet. Weil man Katastrophen nicht vorhersagen kann. Der beste Weg, uns Menschen, unsere Spezies, auf das Überleben der nächsten Katastrophe vorzubereiten, ist, uns auf dem gesamten Globus zu verteilen. Uns so vielen verschiedenen Umweltbedingungen wie möglich auszusetzen. Wenn man an das Überleben der Gattung Mensch denkt, sollte man davon absehen, den perfekten Menschen definieren zu wollen. Und wir sollten alle Versuche vermeiden, den perfekten Menschen zu erschaffen und aus allen Menschen dieses perfekte Wesen machen zu wollen. Um die Wahrscheinlichkeit zu erhöhen, die nächste Katastrophe zu überleben, sollten wir so viel Vielfalt wie möglich schaffen. Der perfekte Mensch würde eine unglaublich langweilige Welt hervorbringen. Stellen Sie sich einmal vor, alle Menschen wären so wie Sie, das wäre die Hölle! Aber wir sollten alle uns zur Verfügung stehenden Mittel nutzen, um die Wahrscheinlichkeit zu erhöhen, ein langes Leben in Gesundheit zu führen.

Glauben Sie an Gott?

An Gott zu glauben, ist keine Lösung für mich. Wenn ich durch den Glauben an Gott eine Antwort auf die Frage nach dem Ursprung hätte – das wäre natürlich sehr praktisch. Selbst wenn ich einer der Glücklichen wäre, die an Gott glauben, die glauben, dass Gott das Universum erschaffen hat, dann würde es mir trotzdem nicht bei der Beantwortung der Frage helfen, wer Gott erschaffen hat. Woher wir kommen und wohin wir gehen, das sind sehr schwierige Fragen, auf die es keine Antworten gibt. Die Frage, wie alles anfing, ist ein erkenntnistheoretischer Albtraum. 
Wir können uns das Nichts nicht vorstellen. Wir können uns nicht vorstellen, wie aus Nichts etwas werden konnte. Deshalb ziehe ich es vor, im Rahmen meiner Arbeit das Leben zu erforschen, nachdem es entstanden ist und nicht zu untersuchen, was geschehen ist, bevor Leben entstand oder, wenn Sie an Gott glauben, bevor das Leben erschaffen wurde.

Warum sind Sie nach Island zurückgekehrt, nachdem Sie lange Zeit in den USA gearbeitet und geforscht haben?

Meine Familie lebt seit 1.100 Jahren hier. Und meine Familie ist einigermaßen gut 
an diesen Ort angepasst. Das bedeutet nicht unbedingt, dass ich diesen Ort liebe. 
Ich gehöre einfach hierher. Ich könnte Ihnen lang und breit erklären, was mir an 
Island alles missfällt. Dies ist eine popelige, kleine Nation.

Auch nicht popeliger als größere Nationen. 
Durch die Nähe zueinander kann man sich schlecht verstecken. Und es ist sehr 
schwer, über gewisse Dinge hinwegzusehen, wenn man so dicht beieinander lebt.

Auszug aus der Zeitschrift “Neugier.de” (http://www.neugier.de), ein Projekt des Autoren-Blogs “Die Achse des Guten” (http://www.achgut.com ) unter anderen mit Henryk M. Broder, Dirk Maxeiner und Michael Miersch. Neugier.de wurde soeben mit dem renommierten internationalen red dot-Designpreis als “best of the best” ausgezeichnet. Die jüngste Ausgabe „Made in Iceland“ wurde auf dem Island-Pavillon der Frankfurter Buchmesse präsentiert. 

Mit freundlicher Genehmigung. Der Beitrag erschien zuerst auf ACHGUT

Nachtrag – aus eigener Erfahrung:

Nach einem Telefoninterview mit einer gewissen Frau Jeanne Rubner von der Süddeutschen Zeitung erschien von ihr der Artikel

http://www.sueddeutsche.de/wissen/klimaskeptiker-wir-brauchen-keine-klimaforscher-1.6518

Überflüssig darauf einzugehen, was in dieser journalistischen Jauche meinen tatsächlichen Antworten am Telefon entsprach. Die nicht stubenreine Bezeichnung von Kári Stefánsson "piece of …" wird von mir zwar in Erinnerung an eine gute Kinderstube nicht gebilligt, ist aber verständlich. Eine ähnliche Erfahrung machte ich mit dem ZEIT-Journalisten Reuter, der nach vielen sehr freundlichen und höflichen Kontakten den gehässigen Artikel 

http://www.zeit.de/2010/48/U-Klimaskeptiker

verfasste. Dieser Beitrag hatte wenigstens einen hübschen Stil und war kein plump-dummes Machwerk. Darum sei ihm vergeben, einem guten Stil lasse ich fast alles durchgehen. Man macht schon so seine lehrreichen menschlichen Erfahrungen als Anfangsopfer von Schreiberlingen – allerdings nicht lange.

Prof. Dr. Horst-Joachim Lüdecke

EIKE-Pressesprecher




Das menschliche Geschlechterverhältnis nach den Atombombentests in der Atmosphäre, nach Tschernobyl und in der Umgebung von Kernkraftwerken: ein Kommentar

Einführung und Zusammenfassung

Dieser Kommentar bezieht sich auf ein vor Kurzem veröffentlichtes Papier von Scherb und Voigt (2011), und die darin aufgestellten Behauptungen stellen eine Kausalrelation her zwischen ionisierender Strahlung und sekundärem Geschlechterverhältnis her. Während es statistische Hinterzimmergewerbler gibt, hauptsächlich in Deutschland, welche Dutzende Blätter Papier zu diesem Thema hinauswerfen, ist keine dieser Behauptungen haltbar, wenn man sie ohne Vorurteile und sorgfältige Statistiken überprüft. Zunächst einmal, die heran gezogenen Beispiele – Nähe zu Kernkraftwerken, Zeitzeugen nuklearer Atomversuche [in der Atmosphäre] und die Tschernobyl-Katastrophe – sind ziemlich ungenaue Messorte der menschlichen Exposition zu ionisierender Strahlung. Im Besonderen ist die menschlich erzeugte Strahlung in den meisten Regionen der Erde winzig im Vergleich zu natürlichen Quellen wie kosmische Strahlen, Gammastrahlung aus der Erde, Zerfallsprodukte von Radon in der Luft und verschiedene Radionukleide, die man im Essen und Trinken findet. (Wissenschaftliches Komitee zu den Auswirkungen atomarer Strahlung der UN – UNSCEAR 2000: „Für die meisten Individuen ist diese natürliche Strahlungsbelastung größer als alle menschlichen Quellen zusammen“; S. 84).

Und selbst wenn man anthropogen erzeugte Strahlung als den Übeltäter sieht, medizinische Röntgenstrahlen sind sicher stärker als der nukleare Fallout von Atombombentests oder Strahlung aus Kernkraftwerken bei normalem Betrieb. Wenn also jemand ernsthaft daran interessiert sein sollte, einen kausalen Zusammenhang zwischen dieser Exposition und den Geschlechtseigenheiten bei der Geburt zu finden, sollte man vielleicht ermitteln, wie oft sich die Eltern vor der Empfängnis einer Röntgenuntersuchung unterzogen haben oder berufsbedingt stärkerer Strahlung ausgesetzt sind: Es ist wohlbekannt, dass Verkehrspiloten einer fortgesetzten höheren Strahlungsbelastung ausgesetzt sind, und es wäre sicher von Interesse zu ermitteln, ob diese Belastung Auswirkungen auf das Geschlecht ihrer Kinder hat.

Dann gibt es eine eindrucksvolle Liste von Faktoren, von welchen tatsächlich Auswirkungen auf Geschlechtseigenheiten bei der Geburt bekannt sind (siehe z. B. Jacobsen et al. 1999 oder Mathews and Hamilton 2005, sowie viele andere): Volkszugehörigkeit und das Einkommen der Eltern, die Reihenfolge bei der Geburt, das Alter der Mutter, Altersunterschiede der Eltern, Essgewohnheiten der Eltern, Körpertemperatur zur Zeit der Empfängnis und so weiter. All diese Dinge nicht zu betrachten macht eine solche Statistik von vornherein ungültig. Zum Beispiel, gab es je schon mal für die hier betrachteten Daten eine Untersuchung darüber, ob das mittlere Alter der Mütter konstant mit Zeit und Gebiet war?

Das Scheitern, diese beitragenden Faktoren zu berücksichtigen wird erweitert durch verschiedene, den Statistiken innewohnende Abkürzungen und Inkonsistenzen in der Literatur, die vor einigen Jahren dazu übergegangen ist, wie es der schottische Poet Andrew Lang ausdrückte – Statistiken zu benutzen wie ein Betrunkener Laternenpfähle – zur Unterstützung und nicht zur Erhellung. In einer kürzlichen Studie (Krämer und Arminger 2011) habe ich gezeigt, dass die populäre Behauptung, in der Nähe von Kernkraftwerken sei die Leukämie bei Kindern deutlich vermehrt, andere wichtige beitragende Faktoren vollständig ausgeblendet. Tatsächlich und ceteris paribus scheint es so zu sein, dass in einigen Ländern die Leukämiefälle bei Kindern in der Nähe von Kernkraftwerken geringer sind als im übrigen Land. Und dieser Kommentar argumentiert, dass die Behauptung von Scherb und Voigt (2011) über nachteilige Auswirkungen von anthropogen erzeugter Strahlung nicht von den Daten gestützt wird, wenn man erst einige Verzerrungen bei der Datenmodellierung entfernt.

Zunächst haben Scherb und Voigt (2011) die Ergebnisse von Signifikanztests falsch interpretiert. Ein Signifikanztest bedeutet: Falls die Null-Hypothese stimmen würde – ein großes ‚falls’ – würde die Wahrscheinlichkeit des beobachteten Ereignisses geringer sein als ein vorab gewähltes Signifikanzlevel. Und diese ziemlich gemäßigte Behauptung wird sogar durch die extreme Abhängigkeit von der Größe und der Herstellung des Datensatzes sowie durch die verbreitete Praxis, die Ergebnisse multipler Tests zu verschleiern, noch weiter abgeschwächt. Das heißt, es werden eine Menge Tests durchgeführt, aber berichtet wird nur von den „signifikantesten“ Ergebnissen und der Untertreibung der Fehlerwahrscheinlichkeit der ersten Art. Dies wird in Abschnitt 2 unten weiter ausgeführt. Siehe auch Ziliak und McCloskey (2008) oder Krämer (2011).

Noch wichtiger ist, was ich anderswo (Krämer 2011) einen Fehler der dritten Art genannt habe. Damit meine ich, dass eine nicht bestätigte Null als Beweis missbraucht wird, dass das Gegenteil richtig ist. „Der Fallout durch die atmosphärischen Atombombentests beeinflusst die menschlichen Geschlechtseigenheiten bei der Geburt überall, und der Fallout aus Tschernobyl hatte einen vergleichbaren Einfluss in Europa und Teilen von Asien“ (S. 698). Eine derartige Behauptung kann niemals einfach auf einem statistischen Signifikanztest aufbauen!

Mein Hauptpunkt ist jedoch einer, der nicht einmal in der statistischen Signifikanz enthalten ist. Im Einzelnen sind die eindrucksvollen p-Werte bei Scherb und Voigt (2011) alle falsch. Man nehme den „signifikanten“ Abwärtstrend des Geschlechterverhältnisses in den USA vor dem vertraglichen Verbot solcher Tests im Jahr 1963. Anders als Scherb und Voigt behaupten, ist dieser Trend nicht „uniform“, und die Neigung des Graphen der Schätzzahlen basiert nicht auf Millionen von Datenpunkten, sondern auf genau 13. Und warum sollte man den Datensatz auf die Jahre 1950 bis 1963 dagegen abgrenzen? Atmosphärische Kernwaffentests gingen noch bis 1974 (Frankreich) und 1980 (China). Nimmt man alternative Unterperioden zur Hand, kann sogar ein positiver Trend gewonnen werden, wie ich in Abschnitt 2 zeige.

Der zweite von Scherb und Voigt analysierte Datensatz überdeckt 39 europäische Länder von 1975 bis 2007. Und wieder, wenn man eine Null-Hypothese wählt, die jeder gleich zurückweisen würde, können viele statistische „Effekte“ mit hoher Signifikanz gezeigt werden. Nimmt man Tabelle 1 bei Scherb und Voigt (2011, S. 702) als Startpunkt, gibt es zum Beispiel einen stark positiven Effekt, wenn man an den Küsten des Mittelmeeres lebt, unabhängig von jeder Exposition ionisierter Strahlung: Das mittlere Geschlechterverhältnis liegt hier bei 1,070, was hoch signifikant größer ist als anderswo (<0,01). Andererseits ergibt die Regression des Geschlechterverhältnisses im Vergleich zur Anzahl der Buchstaben im Namen des Landes ein negativer Effekt, und so weiter. Tatsächlich scheint es überhaupt keine natürliche Grenze hinsichtlich der Anzahl von Effekten zu geben, die mit ausreichenden Bemühungen und unter Verwendung des gleichen Datensatzes ans Licht gebracht werden können.

Schlussfolgerung

Der statistische Beweis bei Scherb und Voigt (2011), um ihre Behauptung zu stützen, das anthropogen erzeugte ionisierte Strahlung das Geschlechterverhältnis bei der Geburt beeinflusst, ist nicht überzeugend. Vielmehr scheint es so zu sein, dass Standards der statistischen Nachweise verzerrt worden sind, um die Daten zur vorher geäußerten Hypothese passend zu machen.

Die gesamte Arbeit kann hier heruntergeladen werden.

Ebenso ein Beitrag desselben Autors über "Piercing ist riskanter als Kernkraft" aus dem FOCUS 

Prof. Walter Krämer; Department of Statistics, TU Dortmund D-44221 Dortmund

Übersetzt von Chris Frey für EIKE.

Bemerkung des Übersetzers: bei dieser Übersetzung handelt es sich um eine Rückübersetzung eines vordem deutschen Textes, dessen Original jedoch nicht mehr aufzufinden war. Ich bin ziemlich sicher, dass der Autor mit einem Internet-Übersetzer gearbeitet hat.

Grundsätzlich gilt aber für diesen Text und für alle anderen, für EIKE übersetzten Texte von mir, dass ich prinzipiell niemals einen solchen Übersetzer verwende, sondern allenfalls ab und zu nach bestimmten Vokabeln suche.

Chris Frey

Related Files




Brandneu: Offenbar hat das IPCC eine Nebelkerze gezündet, um Beratungen des IPCC vor dem FOIA zu verstecken

UPDATE:

Die Anfrage von FOI wurde veröffentlicht, von der unten ein Link gepostet ist.

CEI bekam Kenntnis von einem UN-Plan, der kürzlich eingeführt worden ist, um die offizielle Korrespondenz mit Nicht-Regierungsorganisationen zu verstecken. Ein regierungsamtlicher Generalinspekteur hat bereits bestätigt, dass diese Korrespondenz Gegenstand einer Anfrage des FOIA ist. Dieser ‚Nebel’ soll als Sargnagel dienen, um keine Gründe für Diskussionen unter Mitarbeitern der US-Regierung zu liefern, und zwar hinsichtlich des nächsten Berichts vom skandalgebeutelten IPCC, welcher mit Millionen von US-Steuergeldern gefördert wird.

[*Abkürzungen:  CEI = Competitive Enterprise Institute, ein Blog, der sich den freien Wettbewerb auf die Fahnen geschrieben hat. FOIA: Freedom Of Information Act, ein Gesetz, das offizielle Institutionen zur Freigabe von Informationen verpflichtet.]

Text: 

Nicht nur, dass dieses Vorgehen zu jeder Zeit schäbig und ungesetzlich ist, sondern auch, dass das Timing denkbar schlecht gewesen ist. Oder auch gutes Timing, je nachdem, von welcher Seite man es betrachtet.

Gerade als in einem brandneuen Buch [die Machenschaften des] IPCC weiter offen gelegt wurden (was ich hier und mit noch mehr verstörenden Details hier analysiert habe), und auf den Spuren der Wochenend-Überraschung eines Memo aus dem Jahr 2005, in dem Präsident Obamas Erwärmungs-/Abkühlungseiferer und ‚Wissenschaftszar’ John Holdren die Art von Menschen ist, an die sich Mitt Romney wendet, um seine ‚Umwelt’-Politik zu entwickeln, haben wir offen gelegt, dass die Obama-Administration und das IPCC kooperiert haben, um die US-Gesetze zur Transparenz zu unterlaufen, was intern aus Holdrens Büro im Weißen Haus nach außen gedrungen war.

Mit der Anforderung des FOIA muss die erforderliche Erklärung damit beginnen, dem Steuerzahler gewisse Aufzeichnungen zugänglich zu machen – einschließlich, aber nicht beschränkt auf, Username und Passwort – um den Nebel zu lichten, der die Beratungen des IPCC vor dem FOIA verschleiern soll.

Sie erinnern sich, das IPCC hat 2007 zusammen mit Al Gore den Friedensnobelpreis erhalten. Und der Gegenstand zahlreicher Skandale einschließlich frisierter und verdrehter Daten; von Thesen, die einfach von irgendwelchen Sudenten und aus Presseveröffentlichungen grüner Gruppen übernommen worden waren; und natürlich des infamen „hide the decline“ bei der Temperatur. Allerdings ist dies hier nicht einfach nur ein weiterer Skandal.

Hier folgen Auszüge aus der Anforderung des FOI:

CEI bekam Kenntnis von einem UN-Plan, der kürzlich eingeführt worden ist, um die offizielle Korrespondenz mit Nicht-Regierungsorganisationen zu verstecken. Ein regierungsamtlicher Generalinspekteur hat bereits bestätigt, dass diese Korrespondenz Gegen­stand einer Anfrage des FOIA ist. Dieser ‚Nebel’ soll als Sargnagel dienen, um keine Gründe für Diskussionen unter Mitarbeitern der US-Regierung zu liefern, und zwar hinsichtlich des nächsten Berichts vom skandalgebeutelten IPCC, welcher mit Millionen von US-Steuergeldern gefördert wird.

Wie unsere Anforderung im Rahmen des FOIA auflistet, haben die UN Teilnehmer darüber informiert, dass dies durch die Bekanntmachung früherer empörender Diskussionen (unter denen „Klimagate“ eine Schlüsselposition eingenommen hatte) ausgelöst worden ist, und um das Problem zu umgehen, dass nationale Gesetze zur Transparenz Druck auf die Gruppe ausüben.

Das CEI erinnert das OSTP [Office of Science and Technology Policy, ein amerikanisches Regierungsbüro, Quelle: hier  A. d. Übers.] daran, dass diese Praxis beschrieben wurde als „Nicht-Regierungs-Positionen für offizielle Zwecke“, „Nutzung von regierungsfremden Haushaltsmitteln, um  eine Aufzeichnung der Gespräche zu verhindern“, und zwar in einer kürzlichen analogen Situation um den Lobbyisten Jack Abramoff. Das CEI erwartet einen ähnlichen Aufschrei im Kongress und in den Medien zu dieser ähnlichen Praxis zur Umgehung der anzuwendenden Gesetze zur Aufzeichnung.

Diese Bemühungen wurden offenbar mit Teilnahme – und damit direkter Assistenz und Ermöglichung – durch das Weiße Haus Obamas vorgenommen, der kurz nach seinem Amtsantritt die führende Rolle für Holdren für die Arbeit des IPCC aus dem Wirtschaftsministerium beanspruchte. Danach wurde der Plan, im Geheimen eine FOIA-freie Zone zu bilden implementiert.

Dies bedeutet, dass die Politik dem IPCC dabei hilft, es den Bürokraten von UN, EU und USA sowie deren Erfüllungsgehilfen zu ermöglichen, offizielle Kanäle für spezifische Informationen trotz des hohen öffentlichen Interesses zu meiden,  auch wenn diese Informationen zu Bürozeiten und mit Hilfe regierungsamtlicher Computer ausgetauscht werden – also weg von den Argusaugen zunehmend skeptischer werdender Steuerzahler.

Das CEI erinnert das OSTP auch an eine ähnliche und immer noch stattfindende Bemühung zu behaupten, dass Aufzeichnungen auf Computern der US-Regierung dem IPCC gehören und daher nicht in der Zuständigkeit des FOIA liegen. Diese Praxis wurde früher in diesem Jahr in einem Bericht des Generalinspektors im Wirtschaftsministerium (hier) bestätigt.

Wenn im nächsten Monat die Gespräche zum Schmieden eines Nachfolgers des gescheiterten Kyoto-Protokolls wieder aufgenommen werden, erwartet das CEI, dass das OSTP diese ungesetzlichen Aktivitäten zurücknimmt und den sofortigen Zugang zu den verlangten Aufzeichnungen ermöglicht, so dass der Steuerzahler erfährt, was sie und das IPCC vorhaben.

Also haben wir heute Vormittag alle relevanten Aufzeichnungen unter dem FOIA angefordert, die sich auf jenem Server befinden, so wie sie den Beschäftigten der US-Regierung für offizielle Zwecke zugänglich gemacht worden waren. Sie wurden auf OSTP-Kanälen von dem umstrittenen ‚Wissenschaftszaren’ und, wie wir jetzt wissen, früheren ‚Klima’-Berater von Mitt Romney John Holdren versandt. Der Steuerzahler hat ein Anrecht darauf zu erfahren, wie diese koordinierten Bemühungen zwischen OSTP und IPCC zu den US-Gesetzen passen.

Möglicherweise wird ein republikanischer [Präsidentschafts-]Kandidat als nächstes ein Ende der US-Zuwendungen an das IPCC fordern, von dem jetzt bekannt ist, dass es (zusammen mit dem Weißen Haus Obamas) die US-Gesetze umgehen will. Genug ist genug ist genug! Vielleicht könnte Gov. Romney Holdren und das IPCC verteidigen.

Inzwischen schauen wir auf den Republikaner Henry Waxman und seine Empörung über Abramoff, um zu beweisen, dass die Forderung nach Erhaltung der Aufzeichnungen, die drohenden Vorladungen, überhaupt die ganzen Machenschaften auch nicht politischer Natur waren. Er ging hart ins Gericht mit dieser Praxis (hier). Mit unserer Forderung haben wir genau das auch getan, und wir begrüßen die Unterstützung. Du auch, NPR [NPR = eine amerikanische Medienorganisation. Auch das Anklicken des Links gab keinen Aufschluss, für was die Abkürzung steht. A. d. Übers.]

Natürlich könnten die Medien daran kein Interesse haben, weil lediglich ungesetzliche Händel enthüllt werden, um Bemühungen zu verschleiern, die unsere gesamte Wirtschaft beeinflussen, und die Voraussetzung für jene „fundamentale Transformation“ von Amerika sind, mit den UN als dem schändlichen Organ zur Ausführung dieser Lobbyarbeiten. Wir warten auf die Antwort des OSTP und erhoffen das Beste vom [Capitol] Hill und den republikanischen Kandidaten.

Christopher Horner

Link zum Original: hier

Übersetzt von Chris Frey für EIKE




Update: In eigener Sache: Fragen & Antworten zur Problematik globaler Lufttemperaturmessungen.

Update 22.10.11

Aus der soeben veröffentlichten  BEST Studie   (Berkeley Earth Surface Temperature) erläutert ihr Inititator der Physiker Richard Muller soeben im Wall Street Journal: 

Auszüge: 

Die Qualität der Temperatur-Mess-Stationen ist weitgehend schrecklich. Die wichtigsten Stationen in den USA sind in der Energie-Ministeriums GHCN (Global Historical Climate Network) aufgenommen. Eine sorgfältige Untersuchung dieser Stationen durch ein Team von Meteorologen Anthony Watts geführt hat gezeigt, dass 70% dieser Stationen eine derart schlechten Standort habe, nach Standards wie sie die US-Regierung selbst aufstellte um zu messen, dass sie zu Unsicherheiten bei der Temperatur Messung zwischen zwei und fünf Grad Celsius oder mehr führen müssen. Wir wissen nicht, um wie viel schlimmer die Stationen in der Dritten Welt sind…..Anhand der Daten aus all diesen schlechten Stationen, schätzt das UN Intergovernmental Panel on Climate Change IPCC einen durchschnittlichen globalen Temperaturanstieg in den letzten 50 Jahren von 0,64°C , "der größte Teil davon", wie das IPCC sagt, ist durch den Menschen verursacht. Doch die Fehlerquote für diese Stationen ist mindestens dreimal größer als die geschätzte Erwärmung.

Ergänzung: Weitere Details und einige Kritik aus Sicht eines Statistikers finden Sie hier. (Wird fortgesetzt). Bevor einige Leser jubeln, dass Muller feststellt: "Global Warming is real" sei hier angemerkt, dass das niemand bestritten hat. Seit der kleinen Eiszeit ist die Erde an vielen Stellen zum Glück etwas wärmer geworden.

Ich will daher ihre Fragen versuchen zu beantworten. Aufgrund der Bedeutung dieser Fragen für das Verständnis der Ermittlung der globalen Mitteltemperatur und deren Bewertung und den beschränkten Auszeichnungsmitteln die im Kommentarbereich verfügbar sind, widme ich diesen Fragen & Antworten einen eigenen Beitrag. Auf die Gegeneinreden des Multibloggers Nico Baecker lohnt es sich nicht einzugehen. Sie tragen nicht zur Aufklärung bei  

Vorab sei festgestellt, dass es in diesem Beitrag nicht um die Sinn- oder Unsinnhaftigkeit einer globalen Mitteltemperatur bzw. deren Trendverlauf geht. An anderer Stelle habe ich diese Größe – der Vergleich stammt allerdings nicht von mir-  mit der Durchschnittstelefonnummer von Berlin verglichen. Auch die kann – wahrscheinlich viel genauer als die globale Durchschnittstemperatur- ermittelt werden, aber ob aus ihr vernünftige Erkenntnisse gewonnen werden können, ist nicht mal zweifelhaft. Ähnlich sieht es m.E.n. mit der globalen Durchschnittstemperatur aus, die aus völlig heterogenen Gebieten und Jahreszeiten der unterschiedlichsten Klimate -dazu noch höchst unvollständig und mit hoher Unsicherheit behaftet – gewonnen wird, und auch als Trendverlauf mehr verdeckt, als an Erkenntnisgewinn verspricht. Wenn die Mitteltemperaturen der definierten Klimazonen zwischen +30 °C und -35 °C liegen, also eine Spanne von ca. 65 °C abdecken, mit Extremen von + 70 ° und – 90 ° C, dann muss die Frage erlaubt sein, was dann eine Änderung von winzigen 0,7 °C im letzten Jahrhundert, die überdies – nicht nur meiner Meinung nach- völlig im Rauschen verschwindet, für einen Bedeutung habe sollte. Sehen Sie im Anhang dazu als pdf eine hübsche Erläuterung zu diesem Phantom globale Mitteltemperatur: "Does a Global Temperature Exist?"

Nun zu den Fragen/Kommentaren:

Leser Zuber schreibt:

Als die einfachste Methode, den ganzen AGW Hokuspokus zu beenden erscheint mit Ihr Approach, die Methode der Errechnung einer "globalen Mitteltemperatur" ins grelle Licht zu zerren und dabei wirklich allen (IPPClern, Klimarealisten, Medien, Politikern, Bevölkerung) klar zu machen, welch unvorstellbare methodische Luderei bei der Errechnung der globalen Mitteltemperaturen der Jahre 1850, 1851, 1852, 1853, 1854, 1855, 1856, 1857, 1858, 1859, 1860, 1861, …….1986, 1987, 1988, 1989, 1990, 1991, 1992, 1993, 1994, 1995, 1996, 1997, 1998, 1999, 2000, 2001, 2002, 2003, 2004, 2005, 2006, 2007, 2008, 2009, 2010, und 2011 angewendet wurde.

Antwort: Das war – wenn auch vornehmer formuliert- meine Erwartung. Es war mir dabei von Anfang an völlig klar, dass die wenigen vorhanden Messdaten dieser Zeitspanne in Nachhinein nicht mehr verbessert werden konnten. Also mussten irgendwelche Methoden oder andere Verfahren eingesetzt worden sein, die es erlauben zu behaupten (meine Basis war 2009, inzwischen sind die nach Brohan 06 angegebenen Unsicherheitsbereiche etwas vergrößert worden), dass der Vertrauensbereich für den berechneten Mittelwert (nach [Brohan et al. 2006])  von 95 % für die Unsicherheit der gezeigten Hauptkurve von -0,09 bis +0,11 °C 1905 bis ± 0,08 °C bis 2005 liegen.  Meine Aufgabe war nun diese Verfahren zu überprüfen, mit den Rohdaten und ihren Unsicherheiten – vorzugsweise systematischer Art- zu vergleichen und zu bewerten, inwieweit die dokumentierte Unsicherheit sich unter Anwendung objektiver Methoden und nach den anerkannten Regeln der Messtechnik und Fehlerstatistik erreichen lässt.

Update: Leser Hader bemerkt dazu:

An anderer Stelle heisst es, das Problem, die globale Mitteltemperatur zu ermitteln, ist nicht lösbar. Aber auch hier vermisst man eine genauere Betrachtung, was man überhaupt lösen will. Also was will man eigentlich erreichen? Vermutlich sind erstmal die Randbedingungen wichtig, in welcher Höhe vom Erdboden man messen möchte, welche geographischen und landschaftlichen Aspekte berücksicht werden sollen, Stadtgebiete, Waldgebiete, offenes Feld, Seen, Meere usw….

Antwort:
Dies ist korrekt, es ist nicht lösbar! Siehe dazu auch im Detail hier „The Elusive Absolute Surface Air Temperature (SAT)“[1]
 
Nach guter wissenschaftlicher Praxis sollte man erst mal definieren, wonach man eigentlich sucht. Die Meteorologen suchen zuerst eine Lufttemperatur, die als Maß für die physikalischen Eigenschaften der Atmosphäre dienen kann. Assmann auf  Seite 120 (6) [Assmann, 1892]  der Erfinder des Standardthermometers schreibt dazu in seinem Aufsatz Das Aspirations-Psychrometer; Ein Apparat zur Ermittlung der wahren Temperatur und Feuchtigkeit der Luft“Koeppen [Köppen, 1913] dagegen sagt in seiner Abhandlung »Studien über die Bestimmung der Lufttemperatur und des Luftdrucks« auf S. I: »Was ist Lufttemperatur ? Die Antwort lautet einfach: Die Temperatur der Luft, zunächst derjenigen, welche wir unmittelbar der Prüfung unterwerfen und weiterhin die Temperatur anderer, größerer Luftmassen, als deren Repräsentantin die erstere dienen kann«. Wie man sieht, ist Koeppens Definition die weitere, von einer Höhenangabe über dem Erdboden gänzlich absehende, während Sprung’s Definition dem für die beobachtende Meteorologie allerdings wesentlich maßgebenden Begriffe der »klimatischen Temperatur« nahe kommt.  Koeppen unterscheidet aber ferner gewissermaßen zwei verschiedene Arten der Lufttemperatur, deren erste man die physikalische nennen könnte, während die letztere auf das praktische Bedürfnis klimatologischer Untersuchungen Rücksicht nimmt…Man könnte deshalb vielleicht auch sagen, dass wir als Lufttemperatur diejenige Temperatur anzusehen haben, welche eine beliebige, der Untersuchung unterworfene Luftmenge unter dem Zusammenwirken der jeweiligen sie treffenden Einflüsse der Ein- und Ausstrahlung direkter wie reflektirter Wärme jeder Wellenlänge, ferner der Leitung und Konvektion von Wärme wirklich besitzt. …….Der Einzelapparat selbst aber kann nur Angaben liefern, welchen die Definitition der physikalischen Lufttemperatur« zu Grunde gelegt wird.

Und Weischet [Weischet, 1995] S115 – S 109 ff  schreibt zur Temperaturerfassung für diesen Zweck:

„Das international verwendete Standardinstrument ist das Assmannsche Aspirationpsychrometer. Psychrometer deshalb, weil neben einem normalen noch ein sog. feuchtes Thermometer eingebaut ist… Die  Aspiration wird durch einen kleinen Uhrwerksmotor besorgt, der einen Luftstrom mit 2,5 m/s an dem Thermometergefäss vorbeisaugt. Die aus dem Wärmeleitungsgleichgewicht mit strahlungsgeschützten Thermometern gewonnenen Temperaturangaben für die Luft werden als" wahre Lufttemperatur" bezeichnet. Mit den reinen Messvorkehrungen allein ist es aber noch nicht getan. Um die Vergleichbarkeit von Angaben der wahren Lufttemperatur untereinander zu gewährleisten, müssen noch andere international vereinbarte Normen beachtet werden, die je nach dem Verwendungsziel der Angaben verschieden sein können.“  

Hinter diesen klaren Worten verbirgt sich ein weiteres Problem. Die Meteorologen messen niemals die „wahre“ Lufttemperatur im Freien. Sie definieren deshalb lt. WMO die Hütteninnentemperatur als „wahre“ Temperatur. Damit umgehen sie – qua Definition- das Problem für die Meteorologen, aber nicht für die Klimatologen. Denn die Hüttentemepratur ist – von sehr wenigen Ausnahmen abgesehen-  fast immer zu hoch. Die Schätzungen liegen im Mittel bei ca. 0,5 bis mehrere Grad- Meine Schätzung liegt bei 1,0 bis 1,5 K. Das hat zur Folge- da man das nicht korrigiert hat-  dass die auf irgendeine Weise geschätzte globale Mitteltemperatur, um diesen Wert zu hoch ist.  Und beeinflusst damit die Energiebilanz erheblich.

Sehen Sie hierzu ein interessantes Video, dass die Irnisse & Wirnisse der aktuellen globalen Mitteltemperatur benennt. Mit Dank an R. Hoffmann.

Die Klimatologen hingegen, zuvorderst die Modellierer, suchen die Temperatur u.a. am oberen Rand der Atmosphäre (TOA Top of Atmosphäre), die Sie zur Berechnung des „Strahlungsgleichgewichtes“ benötigen, oder direkt an der Oberfläche des Wassers um Energieaustausch zwischen Ozeanen und Luft zu bestimmen.

Das sind also mehrere paar Schuhe!

Eine Definition der Randbedingungen -verbindlich für alle- existiert auch bisher nicht. Es besteht wohl das Bestreben dies zu vereinheitlichen aber bezüglich der historischen Daten geht das nicht mehr. Dort findet man einen unglaublichen Wildwuchs. Auch die WMO hat es bis heute nicht geschafft einheitliche Bedingungen allein für die Konstruktion der Messhütten, der Art der Sensoren, ihre Anbringung (z.B. die Höhe über Grund) und Pflege, sowie Eichung und Ableseregime, weltweit in allen bereichen zu definieren. Man behilft sich mit Spannen, die zulässig sind. Z.B. die Sensorhöhe in einer irgendwie gestalteten Messhütte soll heutzutage zwischen 1,5 bis 2 m über Grund liegen. Aber das nur für die meteorologisch interessante Lufttemperatur an Land.

Leser Hader schreibt weiter

… Aber was ich aus Sicht der Statistik und Datenanalyse viel interessanter finde ist, kann man nicht empirisch ermitteln, wie hoch diese Temperaturunterschiede bei unterschiedlichen Höhen sind, unter Berücksichtigung natürlich der Boden- und Windverhältnisse? Und eine weitere Frage quasi vom interessierten Laien an den Experten gerechnet, stellen die unterschiedlichen Höhen tatsächlich ein Problem dar, wenn man eigentlich nur die Anomalien ermitteln will, d.h. Differenzen zu einem Referenzwert? Kann man nicht mit diesen unterschiedlichen Bedingungen leben? Denn wenn global eine Klimaerwärmung stattfindet, dann sicher nicht nur auf einer Bodenhöhe von 2 Meter, sondern sicher auch bei 1m oder 5m.

Antwort: Dazu gibt es nur wenige Untersuchungen, z.B. Assman 1892, Hellmann/Potsdam 1922;  Ramanathan/Agra 1929, Nawa/Obanazawa 1965 Über Schneedecke 30 bis 150 cm dick

sie alle zeigen eine starken Einfluss der Höhe über Grund, sehr unterschiedlich je nach Wetterlage und Klimazone.  Hier die Ergebnisse eine Feldversuches von Assmann 1989.

Abbildung 1 

Hüttenvergleich nach Assman mit 10 minütiger Messfolge am 31.8.1889, Ort Berlin Lichterfelde. Man erkennt deutlich für diesen Strahlungstag in recht nördlicher Breite (52°) die starke Abweichung trotz sonst gleicher Bedingungen von rd. 1,5 °C zwischen wahrer Lufttemperatur (blau, No. 210) und Hüttentemperatur (No 554a grün). Außerdem kann auch gut die Höhendifferenz der Lufttemperatur zwischen 1,5 m (no. 239, rot) und 1,9 m (No 210, blau) von bis zu 0,6 °C beobachtet werden.

Update: Leser Hader bemerkte weiter:

Aber angenommen man hätte das alles mal festgelegt, ist auch die Frage, wie genau soll der Wert sein. Sieht man die Bestimmung der Durchschnittstemperatur als gescheitert an, wenn man sie in einer Genauigkeit von sagen wir mal 0,1°C angibt. Oder ist das schon ausreichend, um vernünftige Aussagen bzgl. klimatologischen Entwicklungen geben zu können?..

..Herr Limburg schreibt, dass es sich bei den Meßfehlern um "oft völlig unbekannten systematischen Fehler" handeln würde. Zuvor wurde allerdings aufgelistet, wie diese Fehler entstehen können. Also soooo unbekannt scheinen die Fehlerarten nicht zu sein.

Antwort: Dies ist nicht korrekt. Nichts war festgelegt. Das macht es ja im Nachhinein auch so schwierig. Ich selbst habe eine Liste von 40 systematischen Fehlern aufgestellt, kleinen wie großen, die ständig, oder sporadisch, schleichend oder sprunghaft auftreten. Nur ein Bruchteil davon ist untersucht (tlw. zusammengefasst z.B. u.a. bei Brohan 06) und ein weiteren Bruchteil hat man versucht zu korrigieren. Darunter den UHI mit läppischen 0,05 K.

Zudem muss  eine globale Mitteltemperatur zuvor mit ihren Randbedingungen definiert werden, bevor man den Versuch unternehmen kann, sie aus Messdaten zu bestimmen. Diese Definition der Randbedingungen existieren auch bisher nicht. Selbst die WMO hat es bis heute nicht geschafft, einheitliche Bedingungen allein für die Konstruktion der Messhütten, der Art der Sensoren, ihre Anbringung (z.B. die Höhe über Grund) und Pflege, sowie Eichung und Ableseregime, weltweit in allen Bereichen zu definieren. Man behilft sich mit Spannen, die zulässig sind. Z.B. die Sensorhöhe in einer irgendwie gestalteten Messhütte soll heutzutage zwischen 1,5 bis 2 m über Grund liegen. Dies hat aber direkt und auch kräftige Auswirkungen auf die Messwerte. Es gibt einige wenige Untersuchungen darüber.  Bei deren Verdichtung der Messwerte zu Mitteln und Bestimmung der Anomalien hat das auch auf diese [2],[3]  unmittelbaren Einfluss.  

Zudem ist die erzielbare Genauigkeit, wie schon des öfteren ausgeführt, durch unvermeidbare und vor allem unkorrigierbare systematische Fehler wesentlich geringer als bisher angegeben.  Frank hat zwei dieser Unsicherheiten bei 2 σ mit minimal ± 0,98 K bestimmt. Meiner Erhebung nach – ebenso geschätzt, wie bei allen anderen- kommt mindestens nochmals derselbe Wert, auf Grund der anderen Fehler hinzu.

Wie soll bei ± 1 bis 2 k Unsicherheit eine Änderung von 0,7 K sicher erkennbar sein? Sie verschwindet zwangsläufig in diesem Band zumal auch der gesuchte Trend nicht immer mittig liegen kann.

Seetemperaturen:

Regelrecht düster sieht es auf See aus. Da werden 3 Arten von Temperaturen sehr  ungenau und dürftig über die Seefläche verteilt, gemessen. Die MAT Marine Air Temperature, die NMAT die Night Marine Air Temperature und die SST SeaSurface temperature. Die ersten beiden wurden auf Schiffen (nur wenige fest verankert) bestimmt, wo die Wetterhütte, oft ein Stevenson Screen auf der Brücke steht.  Also sind Ort und Messhöhe ständig veränderlich. Das bekommt der Verwertbarkeit nicht, abgesehen davon, dass der Prozess aus ortsveränderlichen Temperaturbestimmungen genaue Vergleichswerte zu gewinnen, seine eigenen Tücken hat. Sie sind daher sehr erratisch und werden deshalb vom MetOffice nur zu bestimmten Vergleichszwecken herangezogen. Statt ihrer verwendet man das Surrogat oder Proxy der SST SeaSurface temperature. Diese soll, so ist die Vermutung, zumindest in den eisfreien Gegenden der Meere, ein guter Ersatz und wg. der thermischen  Trägheit des Wassers,  auch wesentlich stabiler reagieren, als die Lufttemperatur. Sie soll so jedenfalls glaubt es Jones, in etwa der Lufttemperatur in 10 m Höhe entsprechen. Beweise dafür gibt es wenige und nur von ausgesuchten Orten, genauso wie es Gegenbeweise gibt.  Über SST und deren Unsicherheiten, darüber wie man damit umgeht, gibt es eine umfangreiche Literatur [4]. Aber mit mehreren Schönheitsfehlern – u. a. dem – dass nirgendwo erläutert wird, wie denn das Tagesmittel von dem alles ausgeht, bestimmt wird.

Die Unsicherheit  der grundlegenden Einzelmessungen (vermutlich für 1 σ) wird angegeben:

A single SST measurement from a ship has a typical uncertainty of around 1-1.5K. (Kent and Challenor (2006), 1.2±0.4K or 1.3±0.3K; Kent et al. (1999), 1.5±0.1K; Kent and Berry (2005), 1.3±0.1K and 1.2±0.1K; Reynolds et al. (2002), 1.3K; Kennedy et al. (2011a), 1.0K; Kent and Berry (2008) 1.1K. These analyses are based on the more modern portion of the record. No studies have been done to see if there are systematic changes in the size of these errors through time. It should also be noted that not all measurements are of identical quality. Some ships and buoys take much higher quality measurements than others.

Hinzu kommt in ungelöstes und für die Vergangenheit auch unlösbar bleibendes Problem dürftigen Abddeckung der Seeoberfläche durch Messung. Obwohl hunderte  von Millionen Messdaten vorliegen sind sie fast alle auf die Hauptschifffahrtsrouten konzentriert und decken damit nur wenige % der Seefläche ab.

Abbildung 2: Darstellung der gemeldeten SST´s für die Woche vom 2. bis 8. Januar 2000. Sie zeigt die dünne messtechnische Abdeckung der Wasserfläche der Erde. Frühere Abdeckungen der Wasserfläche sind mit großer Wahrscheinlichkeit noch deutlich schlechter gewesen. Aus [REYNOLDS, R. W. & RAYNER,, 2002] Seite 1611

Update: Leser Hader bemerkte weiter:

Soweit ich das überschaue, beruft sich Herr Limburg auf die hohe Unsicherheit, aus den bisherigen Meßergebnissen absolut gesehen, den korrekten globalen Durchschnittswert zu ermitteln. Also quasi ob nun 15,1°C oder 15,7°C oder sonstwas vorliegt. Aber mal ganz "ketzterisch" gefragt, ist das wirklich entscheidend? Wenn die Klimatologen letztendlich mit Temperaturdifferenzen weiterarbeiten, dann wäre ein Sensor ausreichend, der diese Differenzen sehr genau mißt. Ich selbst habe mich bisher mit Temperaturmessung nie beschäftigt, aber aus Sicht der Datenanalyse ist das ein interessantes Feld. Und da denke ich, dass der absolute Meßwert gar nicht entscheidend ist, sondern der relative (bezogen auf einen Referenzwert). Wichtig ist, dass die Messung 14,7°C im Jahr 1961 auch dasselbe bedeutet, wie die 14,7°C im Jahr 2011. Okay, das wirklich nur mal ein paar angerissene Gedanken, zu dem Thema.

Antwort: Dazu hatte ich bereits  Stellung genommen. Einmal geht es um die Bestimmung (irgend-) einer  globalen Mitteltemperatur der Luft. Diese ist in ihren Randbedingungen bisher nicht sauber definiert und für die Vergangenheit schon gar nicht.  GISS schätzt sie zudem auf irgendwo zwischen 12.8 und 14.4 °C. Allein diese Differenz hat eine stärkere Wirkung auf die Energiebilanz als alles CO2. Aber selbst die ist nirgendwo einigermaßen sicher greifbar.

Frage Leser Zuber:

Haben sie in Ihrer Dissertation für jedes dieser Jahre die exakte Anzahl der zugrunde liegenden Messstationen, deren Messhäufigkeiten pro Tag, Angaben über systematische Messfehler, Standortewechsel über die Jahre, Thermometerwechsel über die Jahre, Heat Island Entwicklungen an den Standorten (Flugplätze, zubetonierte Städte, etc.)  erhoben?

Ganz einfach gefragt, kann man denn die Methoden zur Errechnung eines "globalen Mittelwerts" zum Beispiel der Jahre 1892, 1942, 1991, 2005 sinnvoll vergleichen?

Antwort: Ich hatte anfangs die Erwartung, dies in größerem Umfang tun zu müssen, durfte dann aber im Laufe der Arbeit schnell feststellen, dass die Fülle der verfügbaren Daten samt Literatur, in Bezug auf Messverfahren, -Algorithmen, zufällige und systematische Fehler, incl, Standort-  und Messinstrumentenwechsel, aber auch Wechsel des Anstrichs der Wetterhütten, Einfluss des UHI (Urban Heat Island Effekt) völlig ausreichend ist, diese herauszuziehen und einer neuen methodischen aber kritischen Bewertung zu unterziehen. Dabei bin ich einem „Bottom Up“ Prinzip gefolgt, habe also bei den Grundlagen begonnen. Was ist Temperatur, was wird gemessen, wie wird gemessen, wo wird gemessen, wie oft wird gemessen, etc. etc. Besonders auffällig war dabei die Erkenntnis, dass alle Autoren sich der vielfältigen Qualitätsmängel ihrer Rohdaten sehr bewusst waren.  Und obwohl diese Daten in jeder Hinsicht überaus lückenhaft und mit großen Fehlern behaftet waren, wurde und wird – wenn auch „highly sophisticated- fast immer bei der Bestimmung der Unsicherheiten mit unüberprüfbaren Annahmen gearbeitet. Die so gewonnenen Erkenntnisse sind dann eben auch „Annahmen“!

Besonders hilfreich in Bezug auf die Bestimmung der Qualität terrestrischer Daten war die Arbeit von Anthony Watts und seiner Freiwilligen Truppe zur Untersuchung des  US-amerikanischen  Klimanetzwerkes „Surface Station Project“ . Dies wurde bis zu Watts als Inbegriff eines qualitativ hochwertigen Netzwerkes gesehen. Zum Beispiel schreiben  Peterson  et. al [Peterson, 1997] in ihrer Bewertung der US- amerikanischen Messstationen auf S. 2845 „…One thousand two hundred twenty-one homogeneity adjusted stations in the United States were computed using a different technique. These are high quality rural stations taken directly from the U.S. Historical Climatology Network (U.S. HCN; Easterling et al.1996a), a sister project to GHCN. These data were adjusted using a metadata approach as part of the creation of the U.S. HCN and their adjusted time series were directly incorporated into GHCN. For climate analysis confined to the United States, the U.S. HCN is the preferred dataset because its stations are well distributed, mostly rural stations that were selected based upon their location and their station history metadata.“ (Hervorhebungen vom Autor)

Diese Aussagen haben sich nach den Untersuchungen von Watts leider als völlig falsch erwiesen. Es handelt sich in der großen Mehrzahl weder um „high quality rural stations“, noch können sie „homogeneity adjusted“ sein. Wie stark sich die oben  geschilderten Fehlermöglichkeiten auf die Messergebnisse auswirken, zeigt Watts [Watts, 2009] sehr ausführlich. Da diese Stationen sozusagen als „Goldstandard“ der Klimatologen angesehen wurden, konnte der Rest der Welt – von einigen wenigen Ausnahmen in Europa, Australien und Japans nur schlechter sein.

Frage Leser Zuber:

Gibt es bei der Berechnung einer "globalen Mitteltemperatur" nicht das Problem, dass es beinahe unendlich viele Punkte auf der Erdoberfläche gibt, bei deren Lufttemperaturmessung 2m über der Oberfläche im gleichen Augenblick unterschiedliche Werte zustande kommen? (Nur schon in meinem Garten könnte ich Hunderttausende unterschiedliche Thermometerstandorte definieren)

Ändert sich denn nicht auch an einem konkreten Thermometerstandort in jeder Sekunde die Temperatur, und was bedeutet dies hinsichtlich einer Mittelwertserrechnung? 

Antwort: Dieses Problem gibt es und es ist auch nicht gelöst. Das Goddard Institute of Space Science (GISS)[5]  z.B. umgeht die Bestimmung der Mitteltemperatur aus Messwerten und verweist nur auf Modelle. Es  schreibt dazu. „The Elusive Absolute Surface Air Temperature (SAT)“ in deutsch:“ Die schwer fassbare absloute Oberflächentemperatur“… „For the global mean, the most trusted models produce a value of roughly 14 Celsius, i.e. 57.2 F, but it may easily be anywhere between 56 and 58 F (12.8ºC to 14.4ºC ) and regionally, let alone locally, the situation is even worse.“

Dem ist nicht viel hinzufügen. Jones [6] hat zwar auch versucht eine absolute globale Mitteltemperatur zu berechnen, aber wie er die o.a. Schwierigkeiten vermieden hat, vermochte ich nicht zu erkennen.

Aber darum geht es erst in zweiter Linie, nämlich dann, wenn man die so errechnete Globaltemperatur zur Bestimmung von Energiebilanzen einsetzen will, was allerdings eine unabdingbare Voraussetzung bei allen Modellen ist.

In erster Linie suchen die Klimatologen nicht die absolute Temperatur zu ermitteln, sondern so früh wie möglich eine Temperaturdifferenz, zu einer von der WMO definierten Normaltemperatur der jeweiligen Station zu ermitteln. Diese Differenz wird nach statistischem Sprachgebrauch als "Anomalie" bezeichnet und durch Differenzbildung der zuvor errechneten absoluten Jahres- auch Monatstemperatur mit dem fest definierten Stationsnormal  – das ist derzeit die mittlere Temperatur dieser Station über die Jahre von 1961 -1990-  gebildet. Und nur mit diesen Anomalien wird weitergearbeitet.  

Der Grund dafür ist einleuchtend. Die Anomalien auch entfernter Stationen ändern sich sehr häufig -aber eben nicht immer und überall- im Gleichklang. Wird es im Frühjahr in London wärmer, kann man das vielfach auch in Paris oder Berlin beobachten. Die Anomalien sind also viel weniger den erratischen Schwankungen des jeweiligen Wetters am Messort unterworfen, als die absoluten Temperaturen. Dies muss auch bei der Bestimmung der Unsicherheiten berücksichtigt werden.  Die Anomalien sind dann aber keine Temperaturen im physikalischen Sinne mehr. Sondern irgendwelche Indizes.

Auch gleicht die Mittelwertberechnung einen großen Teil der täglichen, wie saisonalen Schwankungen aus, allerdings nicht die systematischen Unsicherheiten der Messungen, oder anderen Einflussgrößen, wie die verwendeten Messregime etc. wie oft von diesen Leuten fälschlich angenommen wird.

Frage Leser Zuber:

Wie gross sind die Temperaturunterschiede, wenn man genau am Boden einer Messstation misst, verglichen mit der Temperatur in 2m Höhe am genau gleichen Standort?

Antwort: Dies ist nur eine aus einer Riesenfülle von Fehler- oder Unsicherheitsquellen, die zwar punktuell in der Literatur untersucht wurden, aber nicht systematisch behoben werden können.

Zur Frage selber: So schreibt die WMO einen Thermometerstandort in einer Wetterhütte zwischen 1,5 m bis 2,0 m vor. Historische Tatsache aber ist, die DWD Messnetze haben Messfühler in 2 m Höhe über dem Boden;  der international verbreitete Stevenson Screen mit Ableitungen [SPARKS, 1972] zeigt(e) Höhen von 1,1 m (Ghana, 1,25 m India, 1,41 m Madagaskar), 1,5 bis 2 m hat Wild´sche Hütte sogar bis 4,5 m (frühe ehemalige Sowjetunion) später dann 2,0 m. Auf Schiffen reicht die Hüttenaufstellung von wenigen Metern über Meeresspiegel bis > 30 m.

Die höhenbedingte Abweichung der Temperaturmessungen zu Lande, auf Grund verschieden hoher Messhütten, bei unbeeinflusster windstiller Lage, folgt, nach Geiger [GEIGER, 1950] (und K. Brocks) einem doppelt logarithmischen Gradienten. In Mitteleuropa kann er, für sich allein genommen, je nach Mittelwert- und Anomalienbildung, ein Differenz von ca. -0,05 bis -0,5 °C erzeugen. Je tiefer eine Messstation, bezogen auf den Boden, liegt, desto höher i.A. die Temperatur. Jedoch ist er zusätzlich stark von der sich u.U. schleichend verändernden, meist gegenläufig wirkenden Bodenbeschaffenheit abhängig und kann deshalb leicht einen Wert von + 1K und darüber haben.  

Auf See ist er von der lokalen Höhe der Messstation abhängig. Anders als bei Landstationen ist diese nicht fest, sondern von der Schiffsgröße und -Beladung abhängig. Bei nicht ungewöhnlichen 20 m Brückenhöhe betrüge er dann ca. -0,1 °C. Über die Brückenhöhe sagen die verfügbaren Metadaten wenig bis nichts aus.  Messhöhen von 20 m und her sind heute keine Seltenheit mehr. Die fast ausschließliche  Verwendung der SST (Sea Surface Temperature) als Proxy für die gesuchte Lufttemperatur, verschiebt diesen Fehler im Durchschnitt weiter ins Positive, weil die SST im Mittel etwa 0,2 °C wärmer sein sollte als die Luft. Bei Lufttemperaturen unter -2°C, normal bei (den wenigen) Wintertemperaturmessungen in höherer nördlicher und südlicher Breite, liefert die SST deutlich zu hohe Werte (evtl. ein Grund für den Anstieg der SST). Das heißt bei Verwendung der SST werden die Temperaturwerte ins Positive verschoben.

Frage Leser Zuber:

Wenn die AGWler schon Hundertstel Grad Erwärmung als "Signal" eines anthropogenen CO2 Einflusses postulieren: geben die Temperaturmessmethoden der Vergangenheit, die Anzahl und Verteilung der Thermometer über allen Teilen der Erdoberfläche diese geforderte Genauigkeit zur Feststellung eines CO2 Effekts überhaupt her (unter der sowieso irrigen Annahme, dass alle übrigen Faktoren, die die Temperaturen der Luft bestimmen, besonders der Bewölkung an einem konkreten Ort, und der Entwicklung der Bewölkung an all den Thermometerstandorten über die letzten 160 Jahre, gleich geblieben sind).

Kurze Antwort: Nein! Meine Ergebnisse zeigen deutlich, dass die nicht korrigierbaren, weil in ihrer Verbreitung und Größe, oft völlig unbekannten systematischen Fehler, das Unsicherheitsband der globalen Mittel-Temperatur, welches jede gerechnete Anomalie und deren Trend umgeben muss, ein Vielfaches der am Anfang erwähnten Grenzen bedeuten. Damit verliert sich die gesamte Änderung des letzten Jahrhunderts im Rauschen und lässt keinerlei Ursachenzuordnung zu. Alle Angaben dazu sind demnach spekulativ!

Es ist deshalb nicht möglich, die Aussage (Abbildung 3) aufrecht zu halten, dass die Zeitreihe  der Globaltemperatur nach Hadley (und IPCC) mit einer Genauigkeit, ausgedrückt als Rest-Unsicherheit im 95 % Bereich, bei nur ± 0, 1 °C (von -0,09 bis +0,11 °C, bis Jahr 1905  bis ± 0,08 °C  bis Jahr 2005) liegt. Viel wahrscheinlicher ist ein Fehler von mindestens der Größenordnung des gesamten Temperaturanstiegs, also ca. 0,5 – 0,7 °C. Es spricht sehr viel dafür, dass er sogar noch deutlich größer ist.

Am Beginn der Zeitreihe dürfte der Fehler wiederum noch deutlich höher liegen, um dann in Richtung heutiger Zeit leicht abzunehmen. Diese Fehlerspanne wird noch dadurch vergrößert, dass die Korrekturen, die z.B. die NASA auf Grund ihrer Beobachtungen der beschriebenen systematischen Fehler durchgeführt hat, überwiegend nach oben, also in Richtung größerer Erwärmung [7], wirkten. Sie waren aber bereits vorher zu hoch. Richtig wäre deshalb eine Korrektur  nach unten gewesen[8].

Auch ist nicht zu erwarten, wegen der erfolgten Richtungsänderungen einiger grober und systematischer Fehler über die Zeitreihe,  dass die wahrscheinlichste Globaltemperatur T* immer mittig im Fehlerband liegt. Sie kann sehr wohl sowohl nach oben, als auch nach unten verschoben verlaufen. 

Frage Zuber:

Hat denn das IPCC auch nur eine einzige der oben gestellten Fragen in den IPCC Berichten mit der nötigen Detailliebe und Kritik der Methodologie der "Gobalen Mitteltemperaturerrechnung" zur Diskussion gestellt?

Antwort: In der von mir untersuchten Literatur, sie ist überwiegend vom IPCC angegeben, sind diese Fragen oft sehr gründlich behandelt worden. Als Referenz beim Metoffice wird dazu jedoch immer Brohan 06[4] genannt. Auch dort sind viele dieser Fragen ausführlich behandelt worden. Manche Schlussfolgerungen darin sind jedoch falsch, insbesondere die Hauptaussage der engen Fehlergrenzen, weil dazu Annahmen gemacht wurden, die nicht haltbar sind. Siehe u.a. dazu auch meine Beiträge zu den  Arbeiten von Pat Frank [9], [10].

Die Messungen der Temperatur über See – immerhin 71 % der Erdoberfläche bedeckend – und damit dominant für jede Berechnung einer Globaltemperatur, ist dazu noch ein Extra-Kapitel für sich.  Dort sind die Daten noch sehr viel schlechter und von der Abdeckung noch wesentlich dünner. Vergleichbares gilt für den globalen Meeresspiegel. Vielleicht gehe ich bei passender Gelegenheit mal darauf ein.

Michael Limburg EIKE 21.10.11


[1] http://data.giss.nasa.gov/gistemp/abs_temp.html

[2] http://www.eike-klima-energie.eu/news-anzeige/von-korrelationen-trends-und-anomalien/

[3] http://www.eike-klima-energie.eu/news-anzeige/wie-falsch-sind-die-ipcc-temperaturberechnungen-gleicht-die-bildung-von-differenzen-anomalien-systematische-fehler-aus/

[4] http://www.metoffice.gov.uk/hadobs/hadsst3/uncertainty.html

[5] http://data.giss.nasa.gov/gistemp/abs_temp.html

[6] [Jones et al. (1999) report the 1961-1990 reference period means for the globe, northern hemisphere, and southern hemisphere as 14.0°C, 14.6°C, and 13.4°C, respectively.]

[7] Siehe auch: Positive and Negative Urban Adjustments by Steve McIntyre on March 1st, 2008, http://www.climateaudit.org/?p=2815

[8] Die verantworliche CRU verweigerte den Zugriff externer Wissenschaftler auf seine Daten und Methoden mit der offiziellen Begründung: Some of the information was provided to Professor Jones on the strict understanding by the data providers that this station data must not be publicly released and it cannot be determined which countries or stations data were given in confidence as records were not kept. Und einer privat nachgeschobenen Begründung von P. Jones an W. Hughes: .. Even if WMO agrees, I will still not pass on the data. We have 25 or so years invested in the work. Why should I make the data available to you, when your aim is to try and find something wrong with it.“ Quelle: http://wattsupwiththat.com/2009/07/24/uk-met-office-and-dr-phil-jones-pay-no-attention-to-that-man-behind-the-curtain/#more-9546. Inzwischen hat man sich aber bereit erklärt, ausgewählte „Subsets“ dieser Daten zur Verfügung zu stellen.

[9] http://www.eike-klima-energie.eu/news-anzeige/teil-ii-globaltemperatur-grob-fehlerhaft-neue-begutachtete-studien-enthuellen-fehler-deutlich-groesser-als-gesamte-aenderung-im-letzten-jahrhundert/

[10] http://www.eike-klima-energie.eu/news-cache/teil-i-globaltemperatur-grob-fehlerhaft-neue-begutachtete-studien-enthuellen-fehler-deutlich-groesser-als-gesamte-aenderung-im-letzten-jahrhundert/

Related Files




Gas – Wind: Ein Vergleich

Die Energie, die sie innerhalb von zehn Jahren erzeugen können, gleicht sich: Acht Windturbinen mit 2,5 Megawatt (die mit grob geschätzt 25% ihrer Kapazität arbeiten) erzeugen in den ersten zehn Jahren in etwa genauso viel Energie wie die Erbohrung eines mittleren Schiefergasvorkommens in Pennsylvania (übertragen auf Strom mit einer Effizienz von 50%).

Fällt Ihnen die Wahl schwer? Lassen Sie es mich einfacher machen! Der Bohrturm der Schiefergas-Bohrung kann in einer Senke oder hinter einer Hecke verborgen werden. Die acht Windturbinen müssen auf Hügelkuppen stehen, weil nur dort der Wind richtig weht, und sind bis zu 40 Meilen [ca. 64 km] weit sichtbar. Und sie erfordern den Bau neuer Überlandleitungen in die Städte; das Gas aus dem Bohrloch wird in einer unterirdischen Pipeline transportiert.

Noch nicht überredet? Windturbinen zerschmettern jedes Jahr tausende Raubvögel, einschließlich Seeadlern in Norwegen, Steinadler in Kalifornien und Keilschwanzadler in Tasmanien. Auf YouTube gibt es ein Video, wie ein Gänsegeier in Kreta in einer Windturbine erschlagen wird. Einer Studie aus Pennsylvania zufolge würde ein Windpark mit acht Windturbinen etwa 200 Fledermäuse pro Jahr töten. Die Druckwelle eines vorbei sausenden Rotorblatts lässt einfach die Lungen dieser kleinen Lebewesen implodieren. Sie und ich können für die Jagd auf Fledermäuse oder Adler ins Gefängnis kommen; die Betreiber von Windturbinen sind dagegen immun.

Können Sie sich immer noch nicht entscheiden? Der Windpark erfordert acht Tonnen eines Elementes mit der Bezeichnung Neodymium, welches nur in der Inneren Mongolei angetroffen wird, und zwar durch das Kochen von Erz in Säure, was Seen radioaktiver Hinterlassenschaften erzeugt, so giftig, dass kein Lebewesen auch nur in die Nähe kommt.

Nicht überzeugt? Die Gasbohrung erfordert keine Subventionen – tatsächlich bringt es der Regierung saftige Steuereinnahmen – während Windturbinen für Sie substantielle Zusatzkosten zu Ihrer Stromrechnung verursachen, wovon ein Teil an reiche Grundbesitzer geht, auf deren Land die Turbinen stehen. Windstrom kostet dreimal so viel wie aus Gas erzeugter Strom. Machen Sie daraus neunmal mehr, wenn sich der Windpark auf See befindet. Hinzu kommt noch, dass die Kosten der Außerbetriebnahme des Windparks Ihren Kindern aufgebürdet werden – nur wenige werden sich länger als 25 Jahre drehen.

Haben Sie sich entschieden? Ich habe noch etwas vergessen. Wenn Sie sich für die Gasbohrung entscheiden, das ist es, Sie können sie haben. Wenn Sie sich für den Windpark entscheiden, brauchen Sie das Gas immer noch. Und zwar weil Sie eine Backup-Stromerzeugung für eine verlässlichere Stromquelle brauchen, wenn der Wind mal nicht weht. Aber der Kerl, der Gasturbinen baut, ist nicht glücklich, wenn sie nur bei schwachem Wind läuft, und ruft nun ebenfalls nach Subventionen.

Was sagen Sie? Die Gasvorräte gehen zur Neige? Haben Sie keine Nachrichten gehört? Das stimmt nicht! Bis vor fünf Jahren glaubte jeder, dass Gas als erster fossiler Treibstoff zu Ende gehen würde, noch vor Kohle und Öl. In Amerika machte man sich so große Sorgen, dass selbst Alan Greenspan den USA gesagt hat, dass sie Terminals für den Gasimport bauen sollten, was sie auch getan haben. Sie werden jetzt wieder eingemottet oder in Export-Terminals verwandelt.

Ein Typ namens George Mitchell hat die Gasindustrie auf den Kopf gestellt. Indem er die richtige Kombination horizontaler Bohrungen und hydraulischem Brechen (fracking) nutzte – beides ausgereifte Technologien – fand er heraus, wie man das Gas aus dem Schiefer holt, und zwar dort, wo es am meisten vorhanden ist, und nicht dort, wo es sich in (konventionell) porösem Gestein manchmal sammelt. Das Barnett-Feld mit Schiefer in Texas, auf dem Mitchell arbeitete, wurde zu einer der größten Gasreserven in Amerika. Dann wurde es vom Haynesville-Feld in Louisiana noch weit in den Schatten gestellt. Als noch größer erwies sich das Marcellus-Schieferfeld in Pennsylvania, wo man mit unglaublichen 500 Trillionen Kubikfuß Gas rechnet, größer als jedes bisher gefundene Ölfeld und auf der Schwelle zum größten Markt der Welt.

Die Auswirkungen von Schiefergas in Amerika sind schon jetzt erheblich. Gaspreise haben sich von den Ölpreisen abgekoppelt und liegen nur noch etwa halb so hoch wie in Europa. Chemische Industrien, die Gas als Ausgangsmaterial nutzen, eilen vom Persischen Golf zurück zum Golf von Mexiko. Städte rüsten ihre Busse auf Gasbetrieb um. Kohlebasierte Projekte werden auf das Abstellgleis geschoben, kernkraftbasierte Projekte werden abgebrochen.

Das ländliche Pennsylvania wird von den Abgaben durch das Schiefergas umgestaltet (Lancashire, pass auf!). Die Bohrstelle, die ich besucht habe, lag versteckt in einer Waldlichtung, unsichtbar bis zu dem Punkt, an dem ich um die letzte Ecke gebogen war, wo eine Horde wilder Truthähne die Straße überquerte. Bohrutensilien gab es an der Stelle fünf Wochen lang, gefolgt einige Wochen später von Lastwagen mit den Fracking-Werkzeugen. Als sie alle wieder weg waren, waren als einziges ein „Weihnachtsbaum“-Bohrturm und ein paar Speichertanks übrig geblieben.

Die Internationale Energieagentur EIA rechnet vor, dass es weltweit Vorräte von billigem Schiefergas für ein Viertel des Milleniums gibt. Eine Firma namens Cuadrilla hat ein Loch in Blackpool gebohrt in der Hoffnung, einige Trillionen Kubikfuß Gas zu finden. Im vorigen Monat gab sie den Fund von 200 Trillionen Kubikfuß bekannt, fast halb so viel wie im gigantischen Marcellus-Gasfeld. Das reicht, um die gesamte britische Wirtschaft mehrere Jahrzehnte lang am Laufen zu halten. Und es war gerade mal das erste Feld, das erbohrt worden war.

Jesse Ausubel ist ein akademischer Ökologe an der Rockefeller University in New York, der die sanften Töne liebt und der jeder Übertreibung abhold ist. Als ich ihn nach der Zukunft von Gas fragte, war ich überrascht durch den Nachdruck seiner Antwort. „Sie ist unendlich“, sagt er einfach. Gas, sagt er, wird der dominante Treibstoff des nächsten Jahrhunderts auf der ganzen Welt sein [wohl mit Ausnahme von Deutschland, A. d. Übers.]. Kohle und Erneuerbare werden dem weichen müssen, während Öl hauptsächlich für Transportzwecke gebraucht wird. Selbst Kernenergie könnte in den Startlöchern noch warten müssen.

Und er spricht nicht hauptsächlich über Schiefergas. Er erkennt eine womöglich noch größere Sache, die darauf wartet, bekannt zu werden, nämlich das Offshore-Gas aus den so genannten cold seeps [etwa: Austrittslöchern von Erdgas] rund um die Kontinentalsockel. In Israel hat man gerade ein riesiges Vorkommen entdeckt, und man plant den Bau einer Pipeline nach Griechenland, sehr zur Irritation der Türkei. Die Brasilianer werden plötzlich reich. Der Golf von Guinea ist ein heißer Favorit. Selbst unser eigenes Rockall-Ufer sieht vielversprechend aus. Asubel glaubt, dass viel von diesem Gas nicht einmal „fossiles“ Gas ist, sondern ursprüngliches Methan aus dem Weltall, dass tief im irdischen Gestein eingefangen worden war – ähnlich den Methanseen auf dem Saturnmond Titan.

Das Beste am billigen Gas ist jedoch zu betrachten, wen das ärgert. Die Russen und die Iraner hassen es, weil sie gehofft hatten, während der nächsten Jahrzehnte im Brennpunkt des Gasmarktes zu stehen. Die Grünen hassen es, weil es ihre Argumentation zunichte macht, dass fossile Treibstoffe immer teurer werden, bis selbst Wind- und Solarenergie damit wettbewerbsfähig sind. Dies gilt auch für die Nuklearindustrie. Die Kohleindustrie wird ein großer Verlierer sein (als jemand, der ein gewisses Einkommen aus Kohle bezieht, erkläre ich hiermit, dass das Schreiben dieses Artikels gegen meine berechtigten Interessen ist).

So ist es kein Wunder, dass heftige Attacken auf den Ruf von Schiefergas im Gange sind, getrieben durch eine unheilige Allianz von big green, big coal, big nuclear und Erzeuger von konventionellem Gas. Die Umweltbedenken gegen Schiefergas sind auf fast schon komische Weise gefälscht oder übertrieben. Hydraulisches Brechen oder Fracking verbraucht zu 99, 86% Wasser und Sand. Der Rest ist eine verdünnte Lösung von ein paar Chemikalien von der Art, die man auch unter dem Abwaschbecken in der Küche findet.

Staatliche Begutachter in Alaska, Colorado, Indiana, Louisiana, Michigan, Oklahoma, Pennsylvania, South Dakota, Texas und Wyoming haben übereinstimmend festgestellt, dass es keinerlei verifizierte oder dokumentierte Fälle einer Grundwasserverseuchung als Folge des hydraulischen Fracking gegeben hatte. Diese flammenden Austrittslöcher in dem Film „Gasland“ hatten buchstäblich nichts mit Bohrungen nach Schiefergas zu tun, und der Filmemacher wusste das auch, bevor er das Drehbuch geschrieben hatte. Die Behauptung, dass die Gasproduktion mehr Treibhausgase erzeugt als Kohle basiert auf falsch verstandenen Hypothesen über die Rate von Gaslecks und auf bewusst gewählten Zeiträumen, um den Einfluss der Treibhausgase zu errechnen.

Genau wie die japanischen Soldaten, die sich noch Jahrzehnte nach Kriegsende im Dschungel versteckt hatten, haben unsere politischen Führer die Nachrichten offensichtlich nicht gehört. David Cameron und Chris Huhne bestehen immer noch darauf, dass die Zukunft den Erneuerbaren gehört. Sie unterschreiben immer noch Verträge, die den Landbesitzern und Stromgesellschaften auf Ihre Kosten riesige Einnahmen garantieren und die damit einhergehend Landschaften zerstören und Arbeitsplätze vernichten. Die „grünen“ Subventionen der Regierung kosten einem mittleren kleinen Betrieb etwa 250 000 Pfund pro Jahr. Das sind zehn Arbeitsplätze pro Firma. Die Verbilligung von Energie ist – wie die industrielle Revolution bewiesen hatte – der schnellste Weg, Arbeitsplätze zu schaffen; die Verteuerung von Energie ist der schnellste Weg, diese Arbeitsplätze wieder zu verlieren.

Erneuerbare sind nicht nur erheblich teurer, unzuverlässiger und Ressourcen fressender (die Erfordernis von Stahl und Beton ist gigantisch) als Gas, sondern sie schädigen auch in erheblich größerem Maß die Umwelt, weil sie so landhungrig sind. Windräder töten Vögel und verderben Landschaften; Solarpaneele bedecken Wüsten; Tidenkraftwerke löschen die Ökosysteme von Zugvögeln aus; Biodiesel macht die Armen immer hungriger und zerstört den Regenwald, Wasserkraftwerke unterbrechen die Wanderung von Fischen. Wenn Sie das nächste Mal von irgendjemandem hören, dass all das „saubere“ Energie ist, lassen Sie ihm das nicht durchgehen!

Die Windkraft kann nicht einmal helfen, Kohlenstoffemissionen zu reduzieren, weil sie Kohlekraftwerke als Backup braucht, was verschwenderisch ineffizient ist, wenn die Kraftwerke hoch- und herunter gefahren werden (Kernkraftwerke können nicht so ohne Weiteres hoch- und herunter gefahren werden). Selbst Deutschland und Dänemark sind damit gescheitert, ihre Kohlenstoffemissionen durch die Errichtung großer Windparks zu verringern.

Das Hinwenden zu Gas würde die Dekarbonisation dagegen sehr beschleunigen. In einer kombinierten Turbine wird Gas mit höherer Effizienz in Strom verwandelt als andere fossile Treibstoffe. Und wenn man Gas verbrennt, oxidiert man vier Wasserstoffatome für jedes Kohlenstoffatom. Das ist ein besseres Verhältnis als bei Öl, viel besser als bei Kohle und sehr viel besser als bei Holz. Ausubel berechnet, dass wir dank des Gases unaufhaltsam von Kohlenstoff zum Wasserstoff als unsere Energiequelle kommen, ohne die Erneuerbaren zu brauchen.

Das Bestehen auf einer Politik, die subventionierte erneuerbare Energie mitten in einer schlimmen Rezession zu einer Zeit, in der plötzlich riesige Mengen billigen und kohlenstoffarmen Gases verfügbar sind, weiter zu verfolgen ist so pervers, dass es schon an Geisteskrankheit grenzt. Nichts als bürokratische Trägheit und erworbenes Recht kann dies erklären.

Matt Ridley

Link: http://www.rationaloptimist.com/blog/gas-against-wind

Übersetzt von Chris Frey für EIKE