1

Sensationelle Wende: Klimawandel bekommt auf dem nächsten G20 Gipfel keine Priorität mehr!

Ban sagte, er wolle den Klimawandel als Mittelpunkt auf der Tagesordnung, wenn Kanada  im kommenden Monat in Toronto Gastgeber des G20-Gipfels sein wird. Ban forderte auch die derzeit regierenden Konservativen auf mit den Treibhausgas-Reduktionszielen für Kanada im Rahmen des Kyoto-Protokolls zu leben. 

Kanada wies jedoch das Ansinnen von Ban Ki Moon zurück, den Klimawandel auf die Agenda zu heben. Details hier The Canadian Press, 13 May 2010.

Mit Dank an Dr. Benny Peiser von The Global Warming Policy Foundation




Ein Team von Wissenschaftlern widerspricht einem Bericht der US-Regierung: ‘Der AGW-Alarm wird sich als falsch erweisen’ – Die Befürchtungen basieren auf ‚fehlerhaften Vorhersagemethoden’

Unsere Forschungen kommen zu anderen Ergebnissen als die grundlegenden Annahmen im fünften U.S. Climate Action Report (CAR 2010), herausgegeben vom State Department. Die alarmierenden Vorhersagen einer gefährlichen anthropogenen Erderwärmung beruhen nicht auf Fakten und sauberen wissenschaftlichen Vorhersagemethoden. Die Behauptung, dass sie trotzdem für die Prognose geeignet sind, wurde nie einer Plausibilitätsuntersuchung unterzogen. Folglich sind diese Vorhersagen nichts weiter als die persönlichen Meinungen einiger Wissenschaftler. Das Weltklima ist hoch komplex und längst noch nicht verstanden. Vor diesem Hintergrund ist es unwahrscheinlich, dass diese Meinungen genauer sind als die Aussage, dass sich die Temperatur im Vergleich zu den vergangenen Jahren kaum ändert. Wir haben für diese Studie einwandfreie, auf wissenschaftlichen Prinzipien beruhende Vorhersagemethoden verwendet und kommen zu dem Schluss, dass sich der AGW-Alarmismus als falsch herausstellen wird, und dass die Maßnahmen der Regierung, diesem Alarmismus zu begegnen, sehr viel Schaden anrichten dürften.

Ob sich das Klima im 21. Jahrhundert ändert, wie stark, in welche Richtung mit welchen Auswirkungen und was die Menschen tun könnten und sollten wegen dieser Veränderungen sind alles Komplexe, die auf Vorhersagen beruhen. Politiker haben gegenwärtig keinen Zugang zu wissenschaftlichen Prognosen zu keinem dieser Komplexe. Daher ist es sehr wahrscheinlich, dass die vorgeschlagenen politischen Maßnahmen gegen die vermeintlich gefährliche, anthropogen verursachte Erderwärmung, wie sie im CAR 2010 in den Kapiteln 4 bis 7 beschrieben werden, großen und völlig unnötigen Schaden anrichten.

In diesem Kommentar zum CAR 2010 fassen wir die Ergebnisse unserer Forschungen zur Klimavorhersage zusammen. Viele unserer Ergebnisse wurden in der von Experten begutachteten (peer reviewed) Literatur veröffentlicht und durchweg auf wissenschaftlichen Tagungen vorgestellt. Sie können leicht im Internet eingesehen werden mit Hilfe der Links, die wir angeben.

1. Es gibt keine wissenschaftliche Grundlage für Vorhersagen einer gefährlichen globalen Erwärmung im 21. Jahrhundert.

a)    Fehlerhafte Auswahl von Methoden der Vorhersage

Die einfachste wissenschaftliche Vorhersage des Klimas im 21. Jahrhundert wäre die trendfreie Extrapolation. Wegen der substantiellen Unsicherheiten bzgl. des Klimas ist es derzeit nicht einmal möglich, das Vorzeichen einer Änderung abzuschätzen. Deshalb sollte man auf dieser Basis auch keine Änderungen vorhersagen. Die wissenschaftliche Erforschung von Vorhersagemethoden legt eine nicht intuitive Vorgehensweise nahe, nämlich in komplexen Strukturen mit sehr vielen Unsicherheiten mit möglichst einfachen und bewährten Methoden zu arbeiten (Armstrong 1985; Armstrong 2001).

Während man aus den Klimamodellen sehr viele Schlüsse gezogen hat, die die Vorhersage der gefährlichen anthropogenen Erderwärmung stützen, hat man sie tatsächlich nur als Werkzeuge benutzt, um die Vorhersagen zu präsentieren. Die eigentliche Beurteilung wurde dagegen ohne jede Unterstützung von Vorhersageprinzipien vorgenommen. In den o. g. Forschungen zu den Vorhersagemethoden hat sich gezeigt, dass eine Vorhersage ohne wissenschaftlichen Hintergrund in komplexen Systemen mit großen Unsicherheiten grundsätzlich nicht möglich ist (Armstrong 1980; Tetlock 2005). Beim Klima handelt es sich aber zweifellos um ein solches System.

Anders gesagt: Wenn man die besten Klimawissenschaftler der Welt heranziehen würde und ihnen Zugang zu allen bekannten Fakten bzgl. des Klimas gäbe, und unter der Voraussetzung, dass alle diese Fakten zuverlässig und genau sind, könnten diese Experten keine besseren Vorhersagen erstellen als Leute mit nur geringer Erfahrung. Und ihre Vorhersagen dürften noch weniger genau sein als solche, die auf einem simplen heuristischen Prinzip beruhen.

b)    Fehler bei der Anwendung der Vorhersagemethoden

Die im 4. FAR des IPCC beschriebenen Vorhersageverfahren verstoßen zu 81% gegen die 89 Grundsätze, die für die Vorhersage des Klimas relevant sind. Zum Beispiel wurden die Methoden und Rohdaten weder in vollem Umfang veröffentlicht, noch konnten unabhängige Forscher darauf zugreifen. Außerdem wurden keine angemessenen alternative Methoden untersucht, und Vorhersageperioden wurden nicht objektiv ausgewählt. (siehe “Global warming: Forecasts by scientists versus scientific forecasts”). Die für die Prognosen Verantwortlichen hatten keine Ausbildung und keine Erfahrung darin, wissenschaftliche Vorhersagemethoden richtig anzuwenden. Darüber hinaus konnten wir keinen einzigen Hinweis finden, dass nach Beweisen für die verwendeten Methoden  gesucht wurde. Daher ist es keine Überraschung, dass die Erstellung der Vorhersagen wissenschaftlich völlig unzureichend war.

c)    Versagen bei der Überprüfung der Ergebnisse

Die Vorhersagemethoden der AGW-Alarmisten wurden nie überprüft. Um dies zu verdeutlichen, haben wir eine Überprüfung der im Bericht des IPCC von 1992 geäußerten Annahme einer jährlichen Erwärmung um 0,03°C durchgeführt.

Wir untersuchten den Zeitraum von 1850 bis 2007, einer Periode der Industrialisierung und der exponentiellen Zunahme menschlicher CO2-Emissionen. In einem Vergleich von 10750 verschiedenen Vorhersageläufen waren die Fehler in den vom IPCC verwendeten Modellen bis zu 7 mal größer als bei Simulationen auf wissenschaftlicher Grundlage, und zwar den oben erwähnten einfachen Extrapolationen. Mehr noch: Die Fehler waren für die längerfristige Periode 12,6 mal größer. (Siehe auch  “Validity of climate change forecasting for public policy decision making.” )

2. Es gibt keinerlei wissenschaftliche Vorhersagen, die die von den AGW-Alarmisten geforderten Aktivitäten unterstützen.

a) Unsere Ergebnisse gelten nicht nur für die alarmistischen Vorhersagen einer gefährlichen anthropogen verursachten globalen Erwärmung, sondern auch für die haltlose Behauptung, dass die geforderten Maßnahmen (z. B. nur örtliche Produkte kaufen, CO2-Steuern, Subventionen für alternative Energiequellen usw.)  irgendeinen Nutzen haben.

Um die Auswirkungen irgendwelcher Maßnahmen richtig abzuschätzen, muss man sämtliche Vor- und Nachteile genau bewerten. Es gibt zum Beispiel die Behauptung, dass der Eisbär in Gefahr ist auszusterben und daher auf die Liste bedrohter Tierarten gesetzt werden sollte. Und dies trotz der erdrückenden Beweise, dass die Eisbärpopulation während der letzten Jahrzehnte deutlich zugenommen hat. (Siehe dazu “Polar bear population forecasts: A public-policy forecasting audit.” )

Hinsichtlich der Klimavorhersagen des IPCC fanden wir ebenfalls fehlerhafte Vorhersageverfahren. Tatsächlich wurden nur etwa 15% der relevanten Grundlagen für die Vorhersage korrekt angewandt. Ein Beispiel für ein solches fehlerhaftes Verhalten ist die Vorhersage der künftigen Eisbärpopulation für 45, 75 und 100 Jahre, die lediglich auf Daten der Polarbären und der Eisbedeckung der 5 Jahre von 2001 bis 2005 beruhen.

Wir beurteilen die so gewonnene Vorhersage der Eisbärpopulation als von politischen Vorgaben in eine bestimmte Richtung verschoben. Siehe hierzu auch Dr. Armstrongs Anhörung (  testimony ) vor einem Komitee des US-Senats im Januar 2008.

b) Die fehlende Kosten-/Nutzenanalyse

Für eine rationelle und verantwortungsvolle Politik ist es notwendig, Abschätzungen über alle in Frage kommenden Möglichkeiten zu erhalten. Eine Alternative wäre, gar nichts zu tun, eine andere, so lange zu warten, bis es wissenschaftliche Beweise für den Nutzen bestimmter Maßnahmen gibt. In dieser Hinsicht muss eine Kosten-/Nutzenanalyse auf wissenschaftlicher Basis durchgeführt werden: sinnvolle Alternativen müssen getestet werden, einfach um die Besten herauszufiltern.

3. Ein politisches Instrument, das “Vorsorgeprinzip”, wurde missbraucht, um ein wissenschaftliches Herangehen an die Klimavorhersage und daraus folgende Entscheidungen zu verhindern.

Das Ziel wissenschaftlicher Vorhersagen ist es, Unsicherheiten zu minimieren und das Treffen angemessener Entscheidungen zu vereinfachen. Das sog. Vorsorgeprinzip bedeutet in diesem Zusammenhang, dass Unsicherheiten ein Grund sind, dramatische Maßnahmen zu planen. Es führt zur Marginalisierung wissenschaftlicher Studien. Die Zurückweisung seriöser Wissenschaft bei Entscheidungen wurde schon von George Orwell in seinem Roman ‚1984’ ironisiert, und zwar mit einem der drei Slogans am Ministerium der Wahrheit, „Unwissenheit ist Stärke“. (Unser Aufsatz „Ungewissheit, das Vorsorgeprinzip und Klimaänderung “Uncertainty, the precautionary principle, and climate change” beschreibt die unwissenschaftliche Natur des „Vorsorgeprinzips“)

Bei Klimaänderungen in politisch relevanten Zeiträumen gibt es wenig Unklarheit. Saubere wissenschaftliche Vorhersagen sind äußerst genau. Das Klima verändert sich, aber unsere Studie der Verifikation, das globale Temperaturmittel des vergangenen Jahres einfach zu extrapolieren ergab einen Fehler, der lediglich bei 0,24°C für Vorhersagen über 50 Jahre im Voraus ergab. Es ist schwierig, sich vorzustellen, dass es verantwortlichen Politikern weitere Vorteile bringen würde, diesen Fehler noch weiter zu reduzieren, womöglich sogar bis 0,0°C.

4. Mit einer neuen, aber wissenschaftlich geprüften Vorhersagemethode, die als ‘strukturierte Analogien’ bekannt ist, kommen wir zu folgender Einschätzung: es wird sich herausstellen, dass die AGW-Bewegung falschen Alarm ausgelöst hat und für eine Flut von Entscheidungen verantwortlich ist, die den meisten Menschen langfristig schaden wird.

Wir untersuchen laufend frühere von Menschen konstruierte Katastrophenszenarien wie z. B. die Kampagne zur globalen Abkühlung in den 70-er Jahren oder die Umweltkampagne, die zum Verbot des DDT führte. Wir haben intensiv nach immer weiteren analogen Situationen gesucht, vor allem, wenn Entscheidungsträger verantwortlich für alarmierende Vorhersagen bzgl. der Erderwärmung waren. Damit wollten wir feststellen, ob sich irgendwann derartige weithin akzeptierten Vorhersagen als zutreffend herausgestellt haben oder ob solche angenommenen Katastrophen durch Maßnahmen der Regierung erfolgreich verhindert werden konnten.

Insgesamt haben wir 72 Situationen gefunden, von denen wir 26 als relevant einstufen. Eine Analyse dieser 26 Situationen von Alarmen mit schon bekanntem Ausgang ergab, dass keine von ihnen aus wissenschaftlichen Vorhersagemethoden abgeleitet wurde, und dass alle falsche Alarme waren. In 96% dieser Fälle gab es Maßnahmen der Regierung, und von diesen wiederum stellte sich heraus, dass 92% dieser Maßnahmen in 87% aller Fälle schädlich waren. (siehe auch „Auswirkungen und Ergebnisse des AGW-Alarms: Ein Vorhersageprojekt auf Basis der Methode der ‚strukturierten Analogien’“) (“Effects and outcomes of the global warming alarm: A forecasting project using the structured analogies method”).

Wir stellen alle unsere Ergebnisse auf  publicpolicyforecasting.com zur Verfügung und suchen ständig nach weiteren Beispielen. Dort gibt es auch einen Link zu unserem Global Warming Analogies Project , in dem wir eine Liste aller 26 Analogien zusammen gestellt haben. Mit weiteren Links haben wir einige davon genau beschrieben. Eine Aktualisierung unseres Projektes werden wir auf der 4. Internationalen Klimakonferenz am 18. Mai vorstellen. 4th International Conference on Climate Change .

Aufgrund unserer Studien lautet unsere Vorhersage, dass sich herausstellen wird, wie sehr die AGW-Bewegung falschen Alarm geschürt hat, und dass die negativen Folgen davon noch viele Jahre lang zu bemerken sein werden.

Schlussfolgerungen

Diejenigen, die die alarmistischen Vorhersagen einer gefährlichen anthropogenen Erderwärmung ausgegeben haben, beziehen sich auf das “Vorsorgeprinzip”, um die Anordnungen drastischer Maßnahmen zu rechtfertigen. Dieser Bezug soll den Unsicherheiten Rechnung tragen, wie und warum sich das Klima ändert. Wir haben nachgewiesen, dass die alarmistischen Prognosen nicht auf wissenschaftlichen Verfahren beruhen. Der Ruf nach schwerwiegenden Maßnahmen ist daher unverantwortlich und unlogisch. Es gibt keine wissenschaftliche Begründung dafür, Energie künstlich zu verteuern und die ökonomische Effizienz zu verringern. Falls die politischen Entscheidungsträger ihre Anti-Energie-Politik nicht einstellen, sagen wir voraus, dass die Menschheit noch lange unter den Folgen unnötig teurer Energie und unvorhergesehenen Konsequenzen der Politik bzgl. des Klimawandels leiden wird.

 AGW-Alarm basiert auf fehlerhaften Vorhersagemethoden: Bemerkungen zur 5. Ausgabe des U.S. Climate Action Report 2010

Vorgelegt von:

J. Scott Armstrong (Ph.D., MIT, 1968), Professor an der Wharton School of Management, University of Pennsylvania,  ist der Autor von  Langfristvorhersage,  hat die Site forecastingprinciples.com ins Netz gestellt, und ist Herausgeber von Grundlagen der Vorhersage (Kluwer 2001), eine auf Beweisen basierende Zusammenfassung aller bekannten Vorhersagemethoden. Er ist ein Mitbegründer des Journal of Forecasting, des International Journal of Forecasting, und des International Symposium on Forecasting, und er hat 50 Jahre lang solche Methoden erforscht und wirkte als Berater. (Armstrong@wharton.upenn.edu)

Kesten C. Green von der International Graduate School of Business an der University of South Australia ist Direktor des International Institute of Forecasters und außerdem zusammen mit Scott Armstrong Direktor der Site ‘Vorhersagegrundlagen für die Öffentlichkeit(ForPrin.com). Er hat maßgeblich zwei Vorhersagemethoden entwickelt, die Vorhersagen zu Verfügung stellen, die substantiell genauer sind als herkömmliche Methoden. (Kesten.Green@unisa.edu.au)

Willie Soon ist Astrophysiker und Geowissenschaftler am Solar, Stellar, and Planetary Sciences division of the Harvard-Smithsonian Center for Astrophysics. Außerdem ist er Chefredakteur für solare und stellare Physik  des Jorunals New astronomy. Er hat 20 Jahre lang auf dem Gebiet Klimaänderung geforscht und Ergebnisse veröffentlicht. Alles, was hier von ihm gesagt wird, ist ausschließlich seine eigene Meinung.  (vanlien@earthlink.net

Die Übersetzung besorgte dankenswerterweise Chris Frey EIKE

Literatur

Armstrong, J. S. (1978; 1985), Long-Range Forecasting: From Crystal Ball to Computer. New York: Wiley-Interscience, 1978; 2nd Edition, 1985.

Armstrong, J. S. (1980), “The Seer-Sucker Theory: The Value of Experts in Forecasting,” Technology Review, 83 (June/July), 18-24.

Armstrong, J. S., Green, K.C., & Soon, W. (2008), “Polar Bear Population Forecasts: A Public-Policy Forecasting Audit,” Interfaces, 38, No. 5, 382–405. [Includes commentary and response]

Green, K. C. & Armstrong, J. S. (2007), “Global Warming: Forecasts by Scientists versus Scientific Forecasts,” Energy and Environment, 18, No. 7+8, 995-1019.

Green, K. C. & Armstrong J. S. (2010), “Effects of the global warming alarm: A forecasting project using the structured analogies method,” Working Paper.

Green, K. C., Armstrong, J. S. & Soon W. (2009), “Validity of Climate Change Forecasting for Public Policy Decision Making,” International Journal of Forecasting, 25, 826-832.

Tetlock, P. E. (2005), Expert Political Judgment. Princeton, NJ: Princeton University Press.

Den Originalartikel finden Sie hier bei Climate Depot 




Das Greenwashing des deutschen Automobilclubs ADAC

Zum CO2-Marathon

In dem ADAC-Beitrag werden die CO2-Emissionen verschiedener Fahrzeuge bzw. Fahrzeugtypen miteinander verglichen. Eine Belegung der "Klimagefahr" durch Auto-CO2-Emissionen wird dabei sorgfältig vermieden und als naturgegeben vorausgesetzt.  Aber auch in der ADAC-Redaktion sitzen Ingenieure mit guten technisch-naturwissenschaftlichen Kenntnissen, denen die folgende kleine Rechnung geläufig sein dürfte, die von jedermann mit Internet-Anschluss und einem Taschenrechner leicht nachvollziehbar ist:

Schritt 1: Man liest in seinem Kfz-Schein nach, dass der PkW grob 150 g = 0,15 kg CO2 pro km ausstößt. Da man etwa 10.000 km im Jahr fährt, ergibt dies 1500 kg = 1,5 t CO2 im Jahr.

Schritt 2: Die Google Suchworte „Anzahl Pkw weltweit“ fördern zutage, dass es im Jahr 2010 weltweit 1 Milliarde Autos gibt. Über deren Jahreskilometer ist nichts zu erfahren (vielleicht weiß ein besser informierter Leser mehr?), wir ermitteln aus dem Internet lediglich die Jahreskilometer eines deutschen Autos der schon genannten 10.000 km und verwenden diese Zahl hilfsweise als repräsentativ für alle Autos dieser Welt (auf den genauen Wert kommt es nicht an). Somit erzeugt auch jedes Auto weltweit im Schnitt 1,5 t CO2 im Jahr.

Schritt 3: Die Google Suchworte „CO2 Atmung“ ergeben, dass jeder Mensch grob 0,4 t CO2 im Jahr beim Ausatmen erzeugt. Diese Menge ist nicht umweltneutral, denn wir ernähren uns nicht nur von Beeren, wilden Früchten und rohem Fleisch. Allein die Herstellung eines Laibs Brot benötigt die Energie eines Liters Brennöl, wovon der Bäcker bereits 0,7 Liter verheizt. Schlussendlich gibt es aktuell etwa 6 Milliarden Menschen auf der Erde.

Nun ist alles beisammen, und es kann folgende simple Rechnung aufgemacht werden: Die Menschheit erzeugt pro Jahr durch natürliche Atmung 0,4 x 6 = 2,4 Milliarden Tonnen CO2, alle Autos dieser Welt erzeugen 1,5 x 1 = 1,5 Milliarden Tonnen CO2. Das von allen Autos dieser Welt emittierte CO2 entspricht also in der Größenordnung dem CO2 aller Erdenbürger, wie sie es beim Ausatmen erzeugen.

Diese kleine Abschätzung könnte man dem Parlaments­vertreter seiner Partei unter die Nase halten und ihn befragen, wie er die CO2-Steuer sachlich zu begründen denkt! Dazu muss man vielleicht noch bedenken, dass die CO2-Erzeugung proportional dem Kraftstoffverbrauch folgt. CO2 fällt in fester stöchiometrischer Menge bei der Benzinverbrennung an. Die CO2-Steuer ist nichts anderes als eine Verbrauchssteuer, die mit der „Rettung der Welt vor dem Wärmetod“ nichts zu tun hat. Gegen eine Verbrauchssteuer ist nichts einzuwenden, der Anreiz zum Entwickeln verbrauchsarmer Autos ist grundsätzlich zu begrüßen, und der Staat braucht immer Geld. Allerdings sollte dies nicht über den Weg der Volksverdummung geschehen!

Der Autor bot bereits vor längerer Zeit der ADAC-Leitung an, über solche elementaren Fakten zum „Schadgas“ CO2 einen Beitrag in der ADAC Motorwelt zu verfassen. Dies wurde mit einem sehr freundlichen und verständnisvollen Brief vom 20.9.2009 negativ beschieden, von dem ein bemerkenswerter Abschnitt im Folgenden wörtlich zitiert sei:

In der Tat ist bisher nicht hundertprozentig nachgewiesen, dass sich der zunehmende CO2-Ausstoß unserer Industriegesellschaft negativ auf das Weltklima auswirkt. Bitte berücksichtigen Sie jedoch, dass wir es unseren Kindern, Enkelkindern und den nachfolgenden Generationen schuldig sind, präventiv zum Klimaschutz und zur Schonung der endlichen Ressourcen fossiler Energien beizutragen – und oder gerade wenn Ursache und Auswirkung nicht endgültig geklärt sind, sollte das Vorsorgeprinzip gelten

Man nimmt also im ADAC billigend hin, dass im Interesse von "Klimaschutz", dessen Wirkung eingestandenermaßen als ungewiss beurteilt wird, dennoch keine Fakten berichtet werden dürfen. Jeder Zeitgenosse mit historischen Kenntnissen erinnert sich, hmmm… war da nicht schon mal etwas in Deutschland in dieser Richtung? Ferner präferiert man beim ADAC politisch korrekt das Vorsorgeprinzip. In Ordnung, aber wenn die Vorsorge so teuer ist, dass durch sie echter Naturschutz nicht mehr finanziert werden kann? Vorsorge ist doch wohl nur dann sinnvoll, wenn wenigstens eine kleine Chance auf die "Klimakatastrophe" durch anthropogenes CO2 besteht. Wie EIKE, durch Fakten belegt, immer wieder nachweist, kann noch nicht einmal von dieser kleinen „Chance“ die Rede sein. Daher ist zu konstatieren:

"Klimaschutz" ist für die wiederauferstandenen Ideologen ein Kampfbegriff (das Proletariat wird nicht mehr ausgebeutet, es fliegt nach Mallorca, daher wird jetzt eben die Natur ausgebeutet), für "Gutmenschen" eine neue Religion und für naturwissenschaftlich Gebildete blanker Unsinn.

Dennoch, der Autor hat viel Verständnis für den ADAC, denn sein Vorstand möchte schließlich auch in der nächsten Periode wiedergewählt werden. Immerhin wird die oben aufgeführte kleine Berechnung als offener Leserbrief der ADAC-Redaktion zugeschickt. Es ist kaum zu erwarten, dass dieser Leserbrief veröffentlicht wird – 15 Millionen Leser, um Gotteswillen, das ist definitiv politisch zu brisant! Sollte die Nichtveröffentlichung erwartungsgemäß zutreffen, werden alle ADAC-Mitglieder, die diese News lesen, gebeten, dem ADAC per E-mail die Veröffentlichung anzumahnen. Nützen wird es natürlich nichts, denn auch dem ADAC dürften die Zahlenverhältnisse der inzwischen zwar sehr zahlreichen EIKE-Leser, aber den ungleich zahlreicheren Lesern seiner "Motorwelt" bekannt sein.

Zum Fahrbericht des Elektroautos Opel Ampera:

Bei allem „Greenwashing“, hier berichtet der ADAC zwar extrem vorsichtig, aber im Großen und Ganzen korrekt. Man muss schon eine rotgrüne Ökobrille aufsetzen, um die eindeutige Botschaft zwischen den Zeilen zu überlesen: Mit dem Elektroauto als alltagstauglichem PkW, das einem klassischen Benziner oder Diesel Konkurrenz macht, wird es nichts. Und man benötigt zu dieser Erkenntnis noch nicht einmal besondere technische Kenntnisse. Elektrische Energie ist nämlich praktisch nicht zu speichern, allenfalls nur großtechnisch über teure und verlustreiche Umwege, wie beispielsweise Pumpspeicherwerke. Nach einem ordentlichen Batteriekonzept wird bereits geforscht, solange es industrielle Elektrizität gibt. Dass hier in Zukunft noch entscheidende Durchbrüche erfolgen, würde an ein Wunder grenzen. Der Energie-Inhalt einer modernen Lithium-Ionen-Batterie, die von Gewicht und Kosten gerade noch für ein alltagstaugliches Auto tragbar ist, beträgt etwa 1/40 eines vollgefüllten Benzintanks, von den hohen Ladezeiten etc. ganz zu schweigen. Alle weiteren Erläuterungen zu diesem Thema sind eigentlich überflüssig, denn EIKE hat bereits mehrfach über das Thema berichtet, etwa hier.

Trotz offenkundiger Fakten bleibt die Klima- und Energiepolitik unserer Bundesregierung ungerührt. „Der Westen bezahlt seine eigene Abschaffung“ titelt „eigentümlich frei“ in seinem Beitrag „CO2-Kopfpauschale: Neue Schmierung für Merkels lahmenden Klimamotor“. Der ausgezeichnete Beitrag von eigentümlich frei (hier) spricht für sich und wird dem geneigten Leser wärmstens anempfohlen.

Prof. Dr. Horst-Joachim Lüdecke

EIKE-Pressesprecher

Nachtrag der Redaktion (25.5.10)

Der ADAC hat auf den Leserbrief von Prof. Lüdecke (s. Text unten) geantwortet. In  seiner Antwort erkennt er die Korrektheit der von jedermann nachvollziehbaren "Milchmädchenrechnung zur angeblichen CO2-Schädigung" durch das Auto an und beruft sich dennoch auf die Erkenntnisse des IPCC, die Gegenteiliges aussagen. Dieses Maß an intellektueller Selbstverleugnung ist nicht mehr zu übertreffen. Immer wieder wird heutzutage mit dem Blick auf unsere unselige deutsche Vergangenheit vor etwa 75 Jahren gefragt "wie konnte so etwas in einem Volk mit einem hohen Anteil an akademisch bestens Gebildeten eigentlich passieren?". Die hier veröffentlichte Antwort des ADAC gibt vielleicht eine  Antwort auf diese Frage.

Anwort des ADAC am 11.5.10 durch Frau Schmidt-Loebe
Betreff: ADAC – MN 064134230 – 06413423ME90131

Sehr geehrter Herr Professor,

vielen Dank fuer Ihre Mail. Wir bitten Sie um Verstaendnis dafuer, dass aufgrund der vielen Zuschriften nicht jedem Wunsch einer Veroeffentlichung als Leserbrief entsprochen werden kann.

Auch wir sind der Meinung, dass die Klimadiskussion mit Augenmass gefuehrt werden sollte. Jedoch kann der ADAC von seiner Vereinsidee her keine Klimaforschung betreiben, sondern ist Themen der individuellen Mobilitaet verpflichtet.

Deshalb koennen wir auch beim Thema CO2 nebst Klima-Implikation weder eine Klimageschichte der Erde in fundierter Breite liefern, noch uns tiefer auf das Fuer und Wider der derzeit gehandelten Klima-Theorien- und Prognosen einlassen. Unser Ansatz ist auf den aktuellen Report des Weltklimas gestuetzt und folgender:

Was kann der Autofahrer ganz persoenlich tun und was tut die Industrie, um der vom IPCC (Zwischenstaatlicher Ausschuss fuer Klimaaenderungen, auch als Weltklimarat bekannt) prognostizierten Klimaveraenderung zu begegnen? Denn wir finden, dass einer nachhaltigen Erwaermung der Atmosphaere begegnet werden muss, ganz gleich, ob dies einem jahrmillionenalten Auf und Ab entspricht oder nicht. Die zu erwartenden Auswirkungen auf unser direktes Leben und das unserer Nachfahren, koennen uns nicht egal sein. Von Schaden kann es jedenfalls nicht sein, wenn wir unsere Mobilitaet so gestalten, dass sie moeglichst wenig Folgen zeigt. Und dies wird in Zukunft nur mit alternativen Antrieben und Kraftstoffen moeglich sein.

Etwa 19 Prozent der anthropogenen – also vom Menschen beeinflussbaren – Kohlendioxydemissionen in Deutschland stammen aus dem Verkehr, rund 12 Prozent vom Pkw. Daher kann und sollte auch der Pkw-Verkehr einen Beitrag zur Reduktion des CO2-Ausstosses leisten. Der Schwerpunkt von Massnahmen muss aber naturgemaess in anderen Sektoren liegen, vor allem bei Kraftwerken und Industrieprozessen, Heizungs- und Klimaanlagen von Haeusern.

Bei dieser Gelegenheit bedanken wir uns ganz herzlich fuer Ihre jahrzehntelange Clubtreue und hoffen, dass Sie dem ADAC noch viele Jahre Ihr Vertrauen schenken werden.

Mit freundlichen Gruessen

Andrea Schmidt-Loebe

Allgemeiner Deutscher Automobil-Club e.V. (ADAC e.V.) 
Mitgliederservice (MBE) 
Mitgliedschaft + Versicherungen 
Tel.: 089 7676 2581 
Fax: 089 7676 6346 
http://www.adac.de/impressum




Wissenschaftliches Klimakolloqium in Karlshafen bei Göttingen!

Einladung 

16. Göttinger Colloquium am Samstag, 5. Juni 2010, 9:30 – 13.00 h 

in Bad Karlshafen a.d.Weser, Großer Saal im Kurzentrum 

unter der gastgebenden Schirmherrschaft von Bürgermeister Ulrich Otto  

Thema:        „Fakten zum Klimawandel“ 

                   – Ein Beitrag zu objektiver Orientierung – 

Referent:             Prof. Dr.rer.nat. Friedrich-Karl Ewert 

                           Diplom-Geologe / Universität Paderborn 

                           Europäisches Institut für Klima und Energie, Jena 

———————————– 

  9:45 h   o       Einleitung und Grußwort              Baurmeister / Bürgermeister Otto 

    

10:00 h   o       Vortrag                Ewert 

11:00 h   o        Erfrischungspause             ½ Std.  

11:30 h  o        Diskussion – Gedankenaustausch            Schmahl / Baurmeister 

12:30 h  o        Zusammenfassung der Ergebnisse           Harder 

12:45 h   o        Schlusswort 

13:00 h   o        Ende des Colloquiums 

                                          !  Pressegespräch !   

  

Wir laden Sie herzlich ein in unseren interdisziplinären Arbeitskreis Göttinger Naturwissenschaftler und  Ingenieure. Über Ihre Teilnahme an einem Gedankenaustausch – wofür insgesamt 3 Stunden vorgesehen sind – würden wir uns sehr freuen.  

Bitte beantworten Sie unsere Einladung bis spätestens 15. Mai 2010 per Fax 05276 – 323 oder per e-Mail an: joma-baur@t-online.de. Geben Sie bitte beim e-Mail als Betreff  bitte „Colloquium“  und in Ihrer Nachricht bitte Ihre Anschrift an.  Danke!  

Mit freundlichen Grüßen 

Dipl-Ing. Joachim Baurmeister  Prof. Dr. Dietrich Harder    Prof. Dr. Günther Schmahl 

VDE-VDI – Göttingen                Universität Göttingen       Universität Göttingen  

Göttinger Colloquium für ethische Fragen in Wissenschaft und Technik   

D-37085 Göttingen, Hainholzweg 2; Fax-Nr. : 05672 . 323 

Dipl.-Ing. Joachim Baurmeister (Sprecher) 




Katastrophaler Rückzug der Gletscher auf Spitzbergen! Brandheiße Meldung von: 1934!

Abschnitt 162

Die Wortwahl aus diesem Absatz von Seite 471 (oben) wirkt vertraut, nur die Jahresangabe 1934 nicht:

Katastrophaler Rückzug der Gletscher auf Spitzbergen

Nun, die Realisten wissen, wie warm 1934 war (nur Hansens GISS und die übrigen Leugner versuchen die Warmphase der 1930er Jahre und die anschließende Abkühlung abzustreiten).

In diesem Abschnitt werden temperaturanomalien von bis zu 10°C erwähnt:

Temperaturanomalien

Das Eis ist in großen Gebieten verschwunden:

Eisschwund

Wind scheint eine Rolle beim Verschwinden des Eises aus dem arktischen Becken gespielt zu haben:

Wind-Einfluß

Die Erwärmung ist nicht beendet:

Erwärmung

Hier ist der Buchtitel:

Buchtitel

All diese Mitteilungen über einen katastrophalen Eisschwund klingen vertraut, nur eben das Jahr der Veröffentlichung nicht:

vorwort

Ganz offensichtlich hat es in der Arktis schon immer ein Auf und Ab des Eises gegeben. Veränderung ist die Normalität, nicht – wie uns die Alarmisten etwa beim NSIDC oder Rahmstorf einreden wollen – ein absolut stabiler Zustand, der bis zum „Eingriff” durch den Menschen in Gestalt der „Treibhausgas-Emissionen” andauerte.

Von Klimaskeptikerinfo
externer Link Quelle (englisch, externer Link) 




500 Jahre nach Kolumbus: Klimamodelle betrachten die Erde als Scheibe!

Dieser Annahme zufolge wird die Erde als Scheibe betrachtet, die Sonne scheint Tag und Nacht mit gleichbleibender Stärke, und die Temperatur der Erdoberfläche ist konstant.

Alle Mengen auf der Grafik werden als richtig genähert bis auf Watt/m2 angegeben, doch im Papier werden die Zahlen als mit sehr hoher Ungenauigkeit behaftet und als nicht messbar be­zeichnet. Stattdessen müssten sie immer "qualitativ abgeschätzt" werden. Mit diesem Vorge­hen wäre es möglich, die Ungenauigkeiten bis auf die nötige Ebene anzuheben, um eine "ausgeglichene" Energiebilanz darzustellen. Die gesamte ankommende Energiemenge wird der abgehenden Energiemenge gleich gesetzt. Auf diese Art und Weise könnte man jetzt die Wirkung der zusätzlichen Treibhausgase errechnen. Falls es keinen Ausgleich gäbe oder der Ausgleich variieren würde, wäre es unmöglich, die Wirkung der zusätzlichen Treibhausgase  zu errechnen.

Jetzt hat es im folgendem Papier einen Sinneswandel gegeben.

Trenberth, K E, J T Fassulo, and J T Kiehl. 2009 Earth’s Global Energy Budget. Bull Am. Met. Soc. 90 311-323.

Dieses Papier führt doch tatsächlich eine vollständige Neubewertung der Zahlen aus dem er­sten Papier durch. Die korrigierte Version mit dem Mittelwert zwischen März 2000 und Mai 2004 zeigt nachfolgende Grafik.

Die Erde wurde nun gründlich abgeflacht, so als ob sie von einer kosmischen Dampfwalze überrollt worden wäre. Die meisten Zahlen sind verändert. Diejenigen für die einfallende und für die ausgehende Strahlung sind jetzt offensichtlich bis auf eine Dezimalstelle genau. Bei den übrigen gibt es Schwierigkeiten. Das Papier steckt voller Diskussionen, wie man die "qualitati­ven Schätzwerte"  der mit ihnen möglicherweise verbundenen Unsicherheit verbessern könn­te. Aber derzeit wird es für unmöglich befunden, ihre Abschätzfähigkeit genügend auszuweiten. Also ist sie [die Erde] im Zeitraum von 2000 – 2004 bis zu 0,9 Watt/m2 pro Jahr  aus dem Gleichgewicht.

Unglücklicherweise gibt es keinen Zweifel, dass die Erdtemperatur während dieser Periode abgekühlt ist. Das Papier ist daher ein sicherer Beweis, dass die ursprünglichen Konzepte hin­ter den Modellen falsch sind.

Das sollte doch ins Auge springen: Die Erde dreht sich. Die Sonne scheint nicht nachts. Die Temperatur ist nicht konstant. Jeder Teil der Erde hat eine unterschiedliche Energie-Einstrah­lung und Abstrahlung.

Es gibt eine korrekte mathematische Behandlung. Sie würde die Aufteilung der Erdoberfläche in eine große Zahl von winzigen Inkrementen umfassen und der Energie-Input und Output müsste für jedes einzelne berechnet werden, wobei die Veränderungen bei allen daran betei­ligten Faktoren einzuschließen wären. Sodann müsste eine riesige Integration aller dieser Re­sultate durchgeführt werden, um eine vollständige Energie-Bilanz der Erde zu erstellen. Erst wenn dieses wiederholt über einen langen Zeitraum durchgeführt worden wäre, könnte der Einfluss einer Zunahme von Treibhausgasen zu erkennen sein.

Für eine derartige Übung gibt es derzeit und wahrscheinlich auch in Zukunft keine Daten.

Bis dann müssen wir uns mit den von den Meteorologen während der vergangenen beiden Jahrhunderte entwickelten Methoden begnügen, und hoffen, dass diese zukünftig erweitert werden können, um uns das Werkzeug für die Beurteilung der klimatischen Auswirkungen von zusätzlichen Treibhausgasen an die Hand zu geben.

Die derzeit befürwortete Treibhausgas-Theorie ist tot und deren Folgemaßnahmen müssen schleunigst beseitigt werden.

"Es ist gut, einen Fehler zu beseitigen, und manchmal ist das besser, als eine neue Wahrheit oder neue Tatsache in die Welt zu setzen."
Charles Darwin

Vincent Gray*, Wellington

* Dr. Vincent Gray ist Chemiker, sowie IPCC Expert Reviewer seit 1991 und einer der fleißigsten dazu. Dr. Gray ist Mitbegründer der New Zealand Climate Science Coalition und arbeitet seit dieser Zeit ausschließlich an Klimafragen.




Drei Anmerkungen zum zwei Grad Ziel, z.B. Es gibt keine „mittlere globale Temperatur“

Es gibt keine „mittlere globale Temperatur“

Die uns umgebende Luft wird nicht von oben, von der Sonnenstrahlung erwärmt, sondern von unten, vom Boden aus. Denn diesen erreicht das Sonnenlicht fast ungehindert, um in Teilen absorbiert und als infrarote Wärmestrahlung wieder emittiert zu werden. Was man „Erderwärmung“ nennt, ist also lokal, je nach Beschaffenheit der Oberfläche, völlig unterschiedlich. Die Kugelgestalt der Erde, als deren Folge die einfallende Energiedichte pro Fläche in hohen Breiten im Mittel deutlich geringer als in äquatorialen Regionen ist, trägt das ihrige dazu bei. Zwei beliebige Thermometer an verschiedenen Orten auf diesem Planeten bzw. die sie umgebenden Luftreservoirs stehen daher nicht im thermischen Gleichgewicht miteinander (denn sie sind einem ständig differierenden Wärmezustrom ausgesetzt). Die Angabe eines mittleren Temperaturwertes zwischen diesen beiden Reservoirs ist also physikalisch sinnlos, sie entspricht keinem in der Realität feststellbaren Aspekt. Man kann es aber auch einfacher erläutern, angepaßt an die Möglichkeiten der Laien in der Politik und in den Medien.

Man betrachte zwei Menschen. Der eine habe eine Masse von 70 kg, der andere eine von 90 kg. Offensichtlich wiegen beide zusammen 160 kg. Eine Waage, auf die sich beide gleichzeitig stellen, würde das jedenfalls anzeigen. Und dieser Waage ist es nun gleich, ob sich diese beiden, oder zwei andere Personen mit jeweils einem Gewicht von 80 kg auf ihr tummeln. Es ist also sinnvoll, in diesem Beispiel von einer mittleren Masse von 80 kg zu sprechen. Nun habe der eine mit einer Körpertemperatur von 34° eine Unterkühlung. Der andere wiederum habe Fieber mit 40°. Haben beide zusammen eine Temperatur von 74°? Und welches Meßgerät könnte diesen Wert wiedergeben, welchen Effekt hätte dieser Wert also in der Realität? Wäre es zweitens nützlich, den Durchschnitt zu bilden? Sind ein Mensch mit einer Unterkühlung und einer mit Fieber äquivalent zu zwei anderen Menschen, die jeweils eine Körpertemperatur von 37° aufweisen und keiner Behandlung bedürfen?

Zwei Orte auf diesem Planeten mit Temperaturen von 10° und 20° entsprechen eben in ihrer Addition nicht einem Ort, an dem es kuschelige 30° hat. Und man kann sie auch nicht mit zwei anderen Orten mit jeweils 15° gleichsetzen. Aber genau dieser Unfug geschieht, wenn Klimaforscher Kurven der globalen Mittelwerte absoluter Temperaturen oder Temperaturanomalien berechnen. Natürlich, das mathematische Schema zur Berechnung eines Mittelwertes existiert. Ob seine Anwendung aber auch ein sinnvolles Resultat liefert, entscheidet die Physik, und nicht die Mathematik.

Und die Physik spricht hier ein klares Urteil: Die Temperatur ist eine innere Zustandsvariable eines Systems und sie darf nicht räumlich über mehrere getrennte Systeme hinweg gemittelt werden, die miteinander nicht im thermischen Gleichgewicht stehen. Es existiert daher weder ein globaler Mittelwert der Temperatur in bodennahen Schichten, noch ein solcher der Temperaturanomalie. Daß man ihn berechnen kann, ändert nichts an seiner Irrelevanz.

Es gibt kein qualitätsgesichertes und valides Meßverfahren

Aber seien wir gnädig und nehmen an, „globale Mittelwerte“ könnten zumindest ein valider Index für reale Vorgänge sein. Sie könnten es sein, gäbe es denn ein qualitätsgesichertes und standardisiertes Verfahren für die zugrundeliegenden Meßwerte. Und genau dieses existiert nicht. Vielmehr verfügt man über ein ungleich über die Landoberfläche verteiltes Sammelsurium von Thermometern unterschiedlichster Bauart. Die noch dazu von irgendwelchen Personen irgendwann und irgendwie abgelesen werden, ganz nach persönlicher Befindlichkeit. Gut, auf dem Land sind diese „Ableser“ in der Regel Meteorologen, von denen man Gewissenhaftigkeit und Seriosität bei der Erledigung ihrer Arbeit erwarten kann. Aber gemeinhin wurden ein Ortswechsel der Station selbst (und sei es nur um wenige hundert Meter wegen eines Bauvorhabens), eine Änderung der Instrumentierung, eine Änderung der Bodenbeschaffenheit und der Umfeldbebauung nicht ausreichend (wenn überhaupt) dokumentiert. Und die Bestimmung von Temperaturen auf den Meeren, die immerhin 2/3 der Erdoberfläche ausmachen, oblag und obliegt immer noch in großen Teilen meteorologischen Laien auf allerlei Schiffen und Booten, die mehr oder weniger zufallsgesteuert herumfahren und dabei kaum die gesamte Fläche der Ozeane gleichmäßig in Raum und Zeit erfassen. Natürlich, heute kann man Bojen verwenden, Satelliten und gar eine Roboterflotte, die im Meer treibt. Aber entscheidend zur Interpretation der Messungen sind nicht aktuelle Wert der vergangenen Jahre. Sondern die lange Zeitreihe der vergangenen 100-150 Jahre. Denn nur diese gestattet die Ableitung statistisch signifikanter Trends. Und die Ungenauigkeiten, denen man sich in der Vergangenheit schuldig gemacht hat, sind rückwirkend nicht mehr korrigierbar.

Obwohl genau dies versucht wird. All die vielen schönen Kurven stellen ja nicht wirklich gemessene Werte dar. Sondern Temperaturen, von denen die Forscher glauben, daß sie mit einem perfekten Netzwerk perfekter Stationen bei ordnungsgemäßer Ablesung gemessen worden wären. Die realen Werte gehen dazu in ein Computermodell ein, mit dem die verschiedenen Korrekturen angebracht werden. Nun wissen wir spätestens seit den Arbeiten von Anthony Watts, wie gering die Qualität der Messungen tatsächlich ist. Und wir wissen spätestens seit Climategate, wie wenig Sorgfalt auf die Rechenmodelle verwendet wurde. Nicht nur die Vernichtung von Rohdaten, auch die schlechte Programmierung und Dokumentierung der Analysesoftware, von der heute keiner mehr weiß, was sie eigentlich genau treibt, sind bemerkenswert.

Wir leben in einer Zeit, in der in industriellen Maßstäben Qualitätssicherung auf einem hohen Standard etabliert wurde.  Es gibt ein strukturiertes Umfeld von Zertifizierung, Validierung und Normung, in der jedes Produkt eine Vielzahl exakt dokumentierter und von Prüfbehörden ständig überwachter Tests und Messungen über sich ergehen lassen muß. Und in dieser Zeit glauben Politiker weitreichende Entscheidungen auf der Basis von Werten treffen zu können, die keinen solchen Standards unterliegen? Die in keiner Weise qualitätsgesichert und von unabhängigen Dritten überprüfbar sind?

Es gibt keine wissenschaftliche Grundlage

Wie ist eigentlich dieses strategische Ziel der Klimapolitik unter diesen Voraussetzungen zustande gekommen? Spätestens seit den offenen Worten Herrn Schellnhubers im Spiegel weiß man es ganz genau. Die “zwei Grad” beruhen nicht auf wissenschaftlichen Arbeiten, die bei einer Überschreitung dieser Grenze Katastrophen vorhersagen. Faktisch ist heute unklar, was die globale Erwärmung mit sich bringt. Denn auch die extremsten Wetterereignisse sind letztendlich Vorgänge auf lokaler Ebene und diese entziehen sich bislang den Möglichkeiten der Klimamodellierer und der Rechenkraft ihrer Supercomputer. Wenn aber Mikroklimata auf regionalen und lokalen Skalen nicht simuliert werden können, dann gibt es keine Rechtfertigung, von erheblichen, durch menschliches Verhalten minimierbaren Risiken auszugehen.

Nein, Schellnhuber und seine Kollegen haben es sich ausgedacht. Weil die Politik eine griffige Formel haben wollte, eine einfach kommunizierbare Zahl. Und so haben sich die Wissenschaftler einer simplen Schätzung bedient. Zu Zeiten der menschlichen Zivilisation, so ihre auf ebenfalls nicht qualitätsgesicherten Erkenntnissen basierende Annahme, habe sich die „mittlere globale Temperatur“ nie um mehr als 2 Grad nach oben bewegt. Allein diese verdrehte Logik schon ist es, die der Faustformel von den 2 Grad den Boden unter den Füßen wegzieht. Denn erstens hat sich die Menschheit aus einer Eiszeit erhoben und somit schon Temperaturdifferenzen weit größeren Ausmaßes überstanden. Und zweitens räumt Schellnhuber indirekt ein, auch durch natürliche Variabilitäten des Klimas könnte die gedachte Grenze erreicht werden. Und wer will heute behaupten, vom Menschen nicht beeinflußbare Klimaschwankungen könnten es nicht auch noch wärmer gestalten?

Zusammenfassend hat die deutsche Klimapolitik auf internationaler Ebene versucht eine strategische Vorgabe zu etablieren, die

  • physikalisch aussagelos ist,
  • nicht qualitätsgesichert ist und damit nicht valide überprüft werden kann,
  • nicht auf wissenschaftlichen Erkenntnissen, sondern auf wilden Spekulationen beruht.

Und dieses „Zwei Grad Ziel“ ist ausgerechnet dem Land der Dichter und Denker entsprungen, mit einer Physikerin als Regierungschefin. Es wird wirklich Zeit, diese Peinlichkeit zu beenden.

Eine ausführlichere Darstellung dieser Thematik meinerseits finden Sie in Novo Argumente, Ausgabe 103, 11/12-2009. Der dortige Artikel (“Diagnose Klimafieber”) wurde noch vor Climategate geschrieben und durch dieses nachträglich mehr als bestätigt.

Autor: Peter Heller, Science Sceptical, zuerst erschienen ebendort

ÄHNLICHE BEITRÄGE (BETA):




Das wissenschaftliche Ende der Klimakatastrophe – Fortsetzung

Insbesondere die ursprüngliche Arbeit von Lindzen et al., die inzwischen im Internet verfügbar ist und daher hier als pdf-File beigefügt werden darf, war unmittelbar nach ihrem Erscheinen heftiger Kritik ausgesetzt. So schrieb beispielsweise der dem IPCC nahe stehende Klimaforscher  Kevin Trenberth in http://www.realclimate.org/index.php/archives/2010/01/lindzen-and-choi-unraveled/:

–         die Arbeit sei nicht robust,

–         sie missinterpretiere die Luft-Wasser Interaktionen in den Tropen,

–         robustere Methoden zeigten keine Diskrepanzen zwischen IPCC-Modellen und Messungen,

–         die Arbeit hätte Messungen mit Modellen verglichen, die  unvollständige „Forcings“ aufwiesen und

–         die Arbeit würde die Klimasensitivität falsch berechnen.

Lindzen/Choi sahen sich mit dem offenen Eingeständnis, dass diese Kritik tatsächlich zu großen Teilen berechtigt ist, veranlasst, auf die Einwände von Trenberth im Detail einzugehen und eine Erwiderung/Ergänzung zu veröffentlichen, in der lückenlos auf alle Kritikpunkte eingegangen wird. Angesichts dieser Ergänzung darf indes ein in den inzwischen zahlreichen „Für-und-Wider-Blogs“ völlig übersehener Umstand nicht unerwähnt bleiben: die Arbeit von Paltridge, die leider nur als Abstract im Internet zugänglich ist, der hier als pdf-File angefügt ist und die auf Ballonmessungen der atmosphärischen Feuchte basiert, wurde bisher nicht kritisiert. Sie wies ebenso wie auch die Arbeit von Lindzen/Choi, aber auf einem anderen Wege, nach, dass Gegenkoppelungen überwiegen, konnte aber hierzu keine quantitativen Angaben machen. Aus diesem Grunde ist zumindest einmal zutreffend zu konstatieren:

Von einer gefährlichen Rückkoppelung, die die Klimasensitivität über die o.g. 1 Grad hinaustreibt, kann definitiv keine Rede mehr sein. Und da CO2-Verdoppelung grob mit dem Verbrennen aller fossilen Brennstoffressourcen der Erde gleichgesetzt werden kann, ist das Thema einer „globalen Klimakatastrophe infolge ansteigender anthropogener CO2-Emissionen“ wissenschaftlich jetzt wohl endgültig erledigt. Die Politik und industrielle Interessengruppen an einer gefährlichen globalen Erwärmung infolge anthropogener CO2-Emissionen werden sicher noch etwas länger brauchen, bis sie von dieser Wahrheit eingeholt werden.

Die Erwiderung/Korrektur von Lindzen und Choi liegt als pdf-File bei. Es erscheint wenig sinnvoll, auf die z.Teil sehr technischen Ausführungen hier in allen Einzelheiten näher einzugehen, der einschlägig klimawissenschaftlich gebildete Leser möge sich an die Originalarbeit halten. Nur das Wichtigste in Zusammenfassung:

–  die zu starke Glättung der 36-Tage Präzession des ERBE Satelliten  wurde durch eine bessere Auflösung ersetzt.

–  zu den Daten des ERBE Satelliten wurden nunmehr auch Daten des CERES Satelliten von 1985-1999 ergänzend hinzugezogen.

–  Rauschen der ausgehenden Strahlung sowie Strahlungsänderungen, die Oberflächen-Temperaturänderungen der Ozeane bewirken, wurden sorgfältig von den Strahlungsänderungen unterschieden, die durch Rückkoppelungseffekt infolge Änderungen der Oberflächen-Temperaturänderungen der Ozeane bewirkt werden.

–  Eine genauere Näherung für die Strahlungsbilanz ohne Rückkoppelungen wurde aufgestellt.

–  An der zulässigen Extrapolation der Ergebnisse von den Tropen auf gemäßigte Breiten wurde nicht abgegangen, da sie gemäß einer früheren Veröffentlichung des Autors (Lindzen, R.S., M.-D. Chou, and A.Y. Hou (20019, Does the Earth have an adaptive infrared iris?, Bull. Amr. Met. Soc., 82, 417-432) abgesichert ist.

Und um das Wichtigste nicht zu vergessen: Das Ergebnis der Erwiderung/Ergänzung von Lindzen/Choi unterscheidet sich um nichts von dem der ursprünglichen  Originalarbeit. Somit ist das wissenschaftliche Ende der anthropogenen Klimakatastrophe wiederholt und definitiv zu bestätigen. Wer jetzt noch von einem „Zwei Grad Ziel“ spricht, macht eine rein politische Aussage und nimmt dabei billigend die Unterschlagung wissenschaftlicher Erkenntnisse in Kauf.

Prof. Dr. Horst-Joachim Lüdecke, Physiker

EIKE-Pressesprecher

Dr. Rainer Link, Physiker

Related Files




Oxburgh Kommission: Warum Lord Oxburgh das Angebot, die Untersuchungen zum Verhalten der CRU zu leiten, nicht ausschlagen konnte

 

Zunächst etwas zum Hintergrund:

  1. Die von der CRU publizierten wissenschaftlichen Erkenntnisse sind eine wesentliche Grundlage für Entscheidungen der EU und der britischen Regierung, die Anlagen zur Erzeugung „grüner Energien” mit großen Beträgen zu subventionieren.
  2. Die Subventionen der „Erneuerbaren Energien” haben allein im Jahr 2008 insgesamt 50 Milliarden US-Dollar betragen (externer Link Quelle).
  3. Das Organisierte Verbrechen hat bereits damit begonnen, sich einen Teil der Subventionen zu sichern, deren Verwendung offenbar nicht gut genug gegen Missbrauch geschützt ist (Beispiel aus Spanien).
  4. Die Veröffentlichung der Klimagate-E-Mails hat beträchtlichen Schaden bei den Aktienkursen von Firmen verursacht, die sich mit „Erneuerbaren Energien” beschäftigen, besonders nach dem Scheitern von Kopenhagen, einem kalten Winter und den aufgedeckten Betrügereien mit Emissionszertifikaten.
  5. Die University of East Anglia hat eine eigene Kommission zur Untersuchung der Praktiken ihres Forschungsinstituts [CRU] eingesetzt und Lord Oxburgh gebeten, diese Kommission zu leiten.
  6. Lord Oxburgh ist gleichzeitig Vorstandvorsitzender von Falck Renewables, einem Hersteller von Windfarmen und zugleich britische Tochterfirma der  Falck Group, einem Hersteller mit Sitz in Mailand.
  7. Eine Schwesterfirma von Oxburghs Falck Renewables, Actelios, ist börsennotiert und hat nach ClimateGate usw. bedeutende Kursverluste erlitten.
  8. Lord Oxburghs Firma, deren Konzernmutter und mehr als eine Schwesterfirma übten  im Umfeld desErwerbs von Eigentum und bei der Errichtung von grünen Energiesystemen Aktivitäten des Organisierten Verbrechens aus.
  9. Die grüne Energie-Industrie, Oxburghs Firma, Investoren aus dem Organisierten Verbrechen, Falck Renewables, deren Konzernmutter und Schwesterfirmen konnten nur von einer Untersuchung profitieren, deren Befunde die „wissenschaftlichen Ergebnisse” der CRU nicht in Frage stellen würde.
  10. Der Oxburgh-Bericht war oberflächlich und umfaßte gerade einmal 5 Seiten. Die Kommission befragte niemanden von ausserhalb der Universität. Sie untersuchte 11 Papiere, die nicht Gegenstand der ClimateGate-Kontroverse waren. Diese Papiere waren entweder von der Universität oder von der Royal Society ausgewählt worden, deren Mitglied der CRU-Direktor Phil Jones ist.

Kann man glauben, dass der „Mob” die Untersuchung geleitet hat? Sicher nicht. Kann man glauben, dass Lord Oxburgh zusätzliche Gründe hatte, die Ergebnisse seiner Untersuchung zugunsten des Status Quo zu bewerten? Das ist gut möglich. Kann man meinen, dass Unterwelt-Verbindungen zu den Fördermitteln für Erneuerbare Energien fast jeder Entscheidung über diese Energien abträglich ist? Definitiv Ja. Kann man glauben, dass die Universität von East Anglia die falsche Person mit dem Vorsitz der Untersuchung beauftragt hat? Ganz bestimmt Ja.

Als man Lord Oxburgh den Vorsitz der Untersuchungskommission anbot, welche die wissenschaftlichen Praktiken der CRU, wo die Klimagate-Emails herkamen, beleuchten sollte, fragten sich viele, ob er überhaupt objektiv sein konnte. Und zwar hauptsächlich deswegen, weil er einer Firma vorstand, die Windparks im UK und in Europa baute. Vielleicht gab es auch noch andere Gründe, seine Objektivität in Frage zu stellen. Nach dem Klimagate-Skandal, dem Scheitern des Kopenhagener Klimagipfels und einem sehr kalten Winter in Europa und den USA, hat die Schwesterfirma von Falck Renewables, die öffentlich notierte Actelios, die Hälfte ihres Wertes verloren. Für Lord Oxburgh stand möglicherweise viel auf dem Spiel und er könnte das von seinem Gremium gefällte Urteil gut gebraucht haben..

Aber da könnte noch viel mehr sein. Genau wie im späten 19. Jahrhundert, als es viele Betrügereien und kriminelle Machenschaften bei der Entwicklung der Ölindustrie gegeben hatte, kommt es jetzt in großem Rahmen zu organisierter Kriminalität bei der Entwicklung der Erneuerbaren Energien. Entweder kann man den von der Mafia neu gefundenen Sinn für die Ökologie loben oder das laxe Herumwerfen mit Subventionen seitens der Regierung zur Kenntnis nehmen.

Lord Oxburgh ist der Vorsitzende von Falck Renewables, einem Hersteller von Windparks, dessen Mutterfirma die in Schwierigkeiten geratene Falck-Gruppe in Mailand, Italien ist. Die Projekte von Falck Renewables scheinen einem Muster zu folgen:

Ihr Projekt in La Muela, Spanien, war verstrickt in die Festnahme von 18 Personen, die im Verdacht der organisierten Kriminalität standen (was associated with the arrest of 18 people on organised crime issues ).

Mächtige Windturbinen rührten in der Luft über La Muela während der vergangenen Woche, aber der  echte Aufruhr entstand durch die Verhaftung des Bürgermeisters der kleinen aragonesischen Stadt sowie 18 anderer Personen wegen desVerdachts eines neuen spanischen Phänomens: Öko-Korruption.“

Ebenso beim Falck – Windpark in Buddosò – Alà di Sardi: „vier Personen verhaftet (Four people arrested,), Beschlagnahmen in sieben Windparks und 12 Firmen, das ist das Ergebnis der Operation ‚Vom Winde Verweht’ (gone with the wind), für die der Gerichtshof von Avellino Haftbefehle ausgeschrieben hat: für Oreste Vigorito, 62, Rechtsanwalt in Neapel, Präsident und Direktor vom Fußballclub IVPC Benevento Calcio; Vito Nicastro, 52, aus Alcamo, Ferdinand Renzulli, 42, aus Avellino und Vincent Dongorra, 46, aus Enna. Gegen weitere 11 Personen wurde in verschiedenen Fällen der Verantwortlichkeit wegen organisierten Betrugs ermittelt, mit dem man sich Zuwendungen der öffentlichen Hand zum Bau von Windparks erschleichen wollte. Neun der unter Verdacht stehenden Firmen befinden sich in Avellino, die restlichen in Sizilien.“

In Bezug auf Falcks Windpark in Minervino Murge habe wir am Freitag berichtet, dass der Anti-Mafia-Staatsanwalt in Trapani die Operation „Eolus“ gestartet hat. Dabei wurden 8 Haftbefehle erlassen gegen Personen mit Beziehungen zu lokalen „Familien“, Verwaltungsbeamten, städtischen Funktionsträgern und Unternehmern: wegen Begünstigung der mafiosen Vereinigung „La Cosa Nostra“, im Besonderen weil sie der mafiosen Familie von Mazara del Vallo die Befugnis übertragen hatten, wirtschaftlichen Aktivitäten zu steuern, Genehmigungen zu erteilen, Verträge und öffentliche Dienstleistungen bei der Herstellung von elektrischer Windenergie zu kontrollieren, wie auch wegen politisch-mafiosen Stimmenmissbrauchs.

Die Identifikation von Personen und Firmen bei der sizilianischen gerichtlichen Untersuchung enthüllte verstörende Verbindungen zur Herstellung von Windparks in Apulien: zu den Gemeinden Minervino Murge, Spinazzola und Poggiorsini, auf deren Gebiet einige Firmen Interesse bekundet haben und bereits in einigen Fällen mit Installationen ohne die erforderlichen Konzessione begonnen haben.

In Bezug auf den Windpark “Petralia Sottana” nahe Palermo: was haben Puglia, Sizilien, Mazara del Vallo-minervino Murge (Puglia, Sicily, Mazara del Vallo-Minervino Murge ) gemeinsam? Nichts außer dem Interesse an Windenergie. Firmen, die sich dafür interessieren, Windturbinen in Apulien zu errichten, sind mit ähnlichen Windparks in Sizilien verbunden, den gleichen, die in die Untersuchungen unter der Bezeichnung „Aeolus“ des hoch motivierten Mafia-Anklägers in Trapani verwickelt sind.

Die Subventionen Italiens und der EU für die Errichtung von Windparks und der welthöchsten garantierten Einspeisevergütung in Höhe von €ct 180 ($ct 240, p 160*) pro Kwh für den so gewonnenen Strom haben Süditalien in einen sehr attraktiven Markt verwandelt, der durch die organisierte Kriminalität ausgebeutet wird.

In der „Financial Times“ hieß es dazu 2009: „Multinationale Konzerne fangen an, etwas zu entdecken, das italienischen Investoren bereits bestens bekannt ist: dass nämlich unter dem freigiebigen  europäischen System der Förderungen – unterstützt durch Verschmutzungszertifikate (green credits), die industrielle Luftverschmutzer kaufen müssen – ein Netz von Korruption und dunkler Geschäfte existiert.

Rossana Interlandi, die kürzlich ernannte Vorsitzende des sizilianischen Umweltamtes, erklärt, dass die Projektentwickler – sie nennt diese ‚Spekulanten’ – ebenfalls durch ein Gesetz geködert wurden, die den italienischen Netzbetreiber verpflichtet, Zuwendungen an Windparkbetreiber selbst dann zu zahlen, wenn diese gar keinen Strom produzieren.

Die Anzahl italienischer Städte mit einem Windpark in der Nähe hat sich innerhalb eines Jahres dank der Zuwendungen der EU verdoppelt. Es wäre sehr erstaunlich, wenn die Mafia dabei nicht die Finger im Spiel hätte.

Die Lage in Italien verschlechterte sich mittlerweile bis zu einem Punkt, dass man auf Solarinstallationen von Anwohnern setzt, nur um den Einfluss der Mafia so gering wie möglich zu halten.

Windenergie ist inzwischen zu einer großen Industrie geworden, die weiter rasant wächst. Eine Menge dunkler Gestalten wird davon magisch angezogen, größtenteils wegen der öffentlichen Zuwendung sowohl für die Errichtung als auch die Vergütung des erzeugten grünen Stromes.

Der Mutterkonzern von Oxburgh’s Falck Renewables ist die Falck-Gruppe in Mailand. Wie in so vielen italienischen Geschäftsbereichen gibt es auch hier ein kompliziertes Wirrwarr von Querverbindungen und Überkreuz- Beteiligungen, dass es fast unmöglich ist, dieses System zu entschlüsseln. Immerhin war Falck’s Schwesterkonzern Actelios Gegen­stand einer Anti-Mafia-Untersuchung, wie in der letzten Woche berichtet.

Niemand von Falck Renewables oder der Muttergesellschaft wurde bisher verhaftet, obwohl Achille Colombo, der frühere Chef, von seinem Posten zurückgetreten ist und Berichte über neue, inzwischen abgesagte fragwürdige Geschäfte mit dem Betreiber einer sizilianischen Müllverbrennungsfirma bekannt wurden. Dieser Handel, der abgesagt wurde und immer noch untersucht wird, hatte einen Wert von etwa € 4 Milliarden. Die Falck-Gruppe ist eine in Mailand ansässige Firma, die Windparks in Kalabrien und Sizilien errichtet hat und gegen die wegen Verstrickungen mit der Mafia ermittelt wird. Einige dieser Windparks, einschließlich einer in der Nähe von Corleone, wurden schon vor einiger Zeit fertig gestellt, aber bis heute noch nicht an das Netz angeschlossen. Trotzdem flossen die EU-Subventionen sehr großzügig.

Falck’s Schwesterfirma Platani Energia Ambiente war ebenfalls Gegenstand von Anti-Mafia-Ermittlungen, und zwar in Bezug auf einen umstrittenen Grundstückshandel von 2002 bis 2007. Dies führte dazu, dass der Chefunterhändler, Gioacchino Genchi, gefeuert wurde.

Das Letzte, was diese Leute brauchten, waren Meldungen, dass die Windenergie für das Überleben des Planeten gar nicht von Belang wäre. Ebenso unwillkommen wären Meldungen, dass die Botschaft von der gegenwärtigen Erwärmung der Erde beispiellos in den letzten 1000 Jahren, wie von der CRU in die Welt hinein posaunt, möglicherweise gar nicht stimmte. Die Rezession hat die Börsennotierungen grüner Technologie schwer heruntergezogen. Das Scheitern des Kopenhagener Klimagipfels, der Kollaps des Handels mit CO2-Zertifikaten sowie zahlreiche Skandale waren auch nicht gerade hilfreich.

Eine Schnelluntersuchung durch ein Komitee, welchem eines der Ziele diente, und die sich auf internationale Interviews und ausgewählte Papiere (wie es scheint) konzentrierte, und die bezeichnenderweise keines der Papiere der Skeptiker begutachtete, ließ die CRU als duftende, aber etwas desorganisierte, dennoch engagierte’ Rose erscheinen.

Die Reaktion sowohl in den Hauptmedien sowie von den Regierungen auf den Oxburgh – Berichtes zeigen, dass deren Ergebnisse mehr als willkommen waren – sie könnten sogar notwendig gewesen sein, um die massive Umstellung hin zu grüner Energie weiter zu beflügeln.

Ich wiederhole hier, dass ich keine Beweise habe, dass Oxburgh oder seine Firma irgendwie mit der Mafia zusammen hängt. Aber nicht einmal seriöse Firmen können in Italien weit entfernt von der Mafia operieren, und sie können davon überrascht werden, plötzlich auch Gegenstand von Ermittlungen zu sein. Ich habe keinen der in diesem Bericht genannten Hauptakteure interviewt, was eigentlich an erster Stelle eines nachforschenden Reporters stehen sollte, der ich jedoch nicht bin. Ich kommentiere lediglich italienische Meldungen und Meinungen, habe ich doch sieben Jahre lang dort gelebt und verstehe zufälligerweise Italienisch.

Aber der Druck auf Lord Oxburghs Firma war enorm angesichts genereller finanzieller Bedingungen und der Verwicklung in rechtliche Schwierigkeiten in Italien, und so war es unvermeidlich, dass jemand die Frage stellte, ob er wirklich unparteiisch sein könnte.

Noch wichtiger ist, dass die Flut öffentlicher Gelder, neue Transaktionen und neue Partnerschaften mit Projekten in fernen Ländern es schwierig, wenn nicht unmöglich macht, mit der gebotenen Sorgfalt und vorzugehen. Das ist wie im Wilden Westen bei der Erzeugung erneuerbarer Energie und dem Handel mit CO2-Zertifikaten. Es gibt seit Jahren Skandale – und es wird weitere geben. Was hat man sich dabei gedacht, jemanden (selbst einen so angesehenen Mann wie Oxburgh) über Dinge urteilen zu lassen, die seine eigene Firma betrafen – sogar deren Überleben? Ich wiederhole, ich stelle nicht Lord Oxburghs Integrität in Frage, aber kann sich überhaupt irgendjemand aus dem Bereich der erneuerbaren Energien von derartigen Assoziationen frei machen? Allein im Jahre 2009 gab es in Spanien 19 Festnahmen im Zusammenhang mit Korruption beim Bau eines Windparks, es gab einen Skandal in Ungarn, wo CO2-Zertifikate mehrfach gehandelt wurden. In Maine erwarb ein Regulator Eigentumsrechte für   eine Firma , die er zubeaufsichtigen hatte und die er weiter führte, ein Washingtoner Biologe wird angeklagt, weil er Subventionen für einen Windpark in seinen eigenen non-profit Forschungsbereich umgeleitet hat, in Kanada wird ermittelt gegen ungesetzliche Lobbyarbeit grüner Lobbyisten – die Liste ließe sich endlos weiter fortsetzen.

Und jetzt kommt eine Firma daher, die in so viele Skandale und fragwürdige Machenschaften verstrickt ist, und ein Urteil wird gefällt, das den Erneuerbaren eine dringend benötigte Atempause im Allgemeinen verschafft und der eigenen eingschließlich der Schwesterfirmen  die Möglichkeit zum Durchstarten.

Es war wirklich ein höchst zweckmäßiges Ergebnis, diese Entlastung der CRU.

Ein Gastbeitrag von Thomas Fuller, San Francisco Environmental Examiner

Ins Netz gestellt von Anthony Watts am 25.4.2010

Weitere infos über Oxburghs Aktivitäten finden Sie hier:

 Lord Oxburgh  (ehemaligem Vorsitzendem des Shell UK der Rothschilds und hier)

Dankenswerterweise von C. Frey und H. Jäger für EIKE übersetzt

Weitere Details hier!

Related Files




Wie ein fehlendes M die Temperaturen nach oben treibt: Es ist schlimmer als gedacht

In meinem letzten Beitrag haben wir über eine merkwürdige Temperatur-Anomalie ge­sprochen, die Jean S. in den GISS-Daten vom März gefunden und an Climate Audit ge­schickt hatte.

Diese Anomalie über Finnland hat eine interessante Signatur und die vom GISS auf sei­ner Webseite veröffentlichte Korrektur bestätigt, was ich seit einigen Monaten suche.

Die Daten für den Zeitraum zwischen dem 13. und 15.4. beruhten auf Daten, die am 12.4. heruntergeladen worden waren und die einige Stationsmeldungen enthielten, bei denen das negative Vorzeichen verloren gegangen sein könnte.

Ich machte mir einige Arbeit vom vergangenen Dezember bis Januar und weil bei GISS die Bestätigung  "negative Vorzeichen fehlen" aufgestempelt wurde, kann ich jetzt zeigen, dass fehlende negative Vorzeichen kein gelegentliches Ereignis sind, sie fehlen mit Regelmäßigkeit und die Auswirkung ist sehr ausgeprägt, wenn das geschieht. Das zielt ins Herz der Datensammlungs-Integrität und beruht auf einfachem menschlichen Irrtum. Der Fehler liegt nicht beim GISS (obwohl man dort eine neue Qualitätssicherung braucht) sondern meist bei NOAA/NCDC, die die GHCN verwalten und die auch bessere Qualitätssicherung brauchen. Der Fehler entsteht am Flughafen, wahrscheinlich bei jemand, der im Kontrollturm sitzt. Leser, die Piloten sind, werden das verstehen, wenn sie sehen, worüber ich spreche.

Ich habe den Fehler überall in der Welt entdeckt. Lesen Sie bitte weiter, und ha­ben Sie Geduld. Da muss eine Menge von Einzelheiten besprochen werden, um die An­gelegenheit ordentlich zu behandeln. Ich muss ganz von vorne in der Kette der Klimadaten anfangen, da, wo sie entstehen, und mich nach oben arbeiten.

Zuerst eine Erläuterung zur Entstehung des Fehlers und zu den Unterschieden zwi­schen den Boden- und den Satelliten-Messdaten. Ich sollte erwähnen, dass im Satelli­tenbild von der Erdbeobachtung der NASA (NEO) der gleiche Fehler nicht auftaucht, wie in der GISTEMP-Karte oben.

NASA NEO March 1-31 2010 day satellite measured temp anomaly – click for larger image

Warum? Vielleicht wegen besserer Sensoren, aber meist hat es mit einer unterschied­lichen Datensammlungsmethode zu tun. Bei den Bodendatensätzen, einschließlich der Land- und Meeresdaten, wird fast jeder Datenpunkt von einer menschlichen Hand an­gefasst, sogar die von automatischen Flughafensensoren erfassten Flughafendaten werden manchmal manuell umgeschrieben (oft in Drittwelt- und technologisch unter­entwickelten Ländern.). Bei den Bodenmessdaten sind Tausende von Sensoren über die Erde verteilt, von unterschiedlicher Konstruktion, in unterschiedlicher Umgebung, von vielen unterschiedlichen Personen bedient mit unterschiedlichen Mess- und Meldestan­dards. Die Präzision, Genauigkeit und Kalibrierung des weitverbreiteten Bodenmess-Netzwerks ist unterschiedlich, besonders wenn eine breite Mischung von Instrumen­tenarten vorliegt. So unterscheidet sich auch die Ausstattung im Netzwerk der US – Kli­matologie-Geschichte erheblich.

 

Von Satelliten werden die Daten von einem einzigen Punkt aus gemessen mit einem einzigen Sensortyp, der an Bord mit Hilfe einer Präzisionsquelle kalibriert wird. An Bord sind redundante Platin-Widerstand-Thermometer (PRTs) auf die Satelliten-Radiometer gesetzt. Die PRTs werden einzeln in einem Laboratorium kalibriert, bevor sie in den Messinstrumenten installiert werden. Die Satellitendaten werden automatisch gemes­sen und gesendet. Im Gegensatz zu den Bodentemperaturmessungen geschieht kein menschlicher Eingriff beim Datenerfassen und beim Übermitteln. Die Satellitenda­tenerfassung ist viel homogener als der Mischmasch bei den Bodendaten.

Ich meine, dass man sicher sagen kann, dass das Risiko menschlicher Fehler bei den Bodenrohdaten mindestens um eine Größenordnung höher ist (vielleicht sogar um mehrere) als die Fehlermöglichkeit bei den Satellitenrohdaten. Die Verarbeitung nach der Erfassung ist ein weiterer Punkt, doch im Rahmen dieses Aufsatzes konzentriere ich mich nur auf die Rohdatenerfassung und Übertragung.

Wie schon im jüngst aktualisierten Kompendium über die Probleme mit den Bodenmessda­ten von Joe D’Aleo und mir erwähnt, gibt es eine Tendenz beim Globalen Historischen Klimato­logischen Netzwerk (GHCN), sich bei den Klimadaten immer mehr auf Flughäfen zu verlassen. Das ist meiner Meinung nach ein riesiger Fehler, weil zusätzlich zu unseren Problemen, wie E.M. Smith (auch bekannt als "Chiefio") berichtet, in GISS (GISS benutzt GHCN) weltweit eine kompletter Übergang zu Flughafenwetterdaten als Klimadaten­quelle erfolgt ist. Er sagte mir in einer Email vom 20. Jan. 2010:

Sehen Sie hier nach:

AGW GIStemp Measure Jet Age Airport Growth

Das ist eine recht gute Beschreibung der Probleme mit den Daten. Wir haben eine globale Darstellung für GHCN mit Stand von August. Mehr Einzelheiten stehen im Link, aber ich denke, Sie möchten über den "Jetzt"-Zustand etwas erfahren…..

Rest siehe pdf Anhang (20 Seiten) sowie Schluß unten

………………………………………..

………………………………………..

………………………………………..

Fehlendes "M" – Sofortige Polartemperaturverstärkung?

Man hat gesagt, dass sich die Signatur der globalen Erwärmung an den Polen zuerst zeigen wird. Die Polartemperaturverstärkung (polar amplification) wird definiert als:

"Die Polartemperaturverstärkung (stärkere Temperaturzunahme in der Arktis im Vergleich zur gesamten Erde) ist das Ergebnis der zusammenkommenden Rück­kopplungen und anderer Prozesse." Dies gilt nicht für die Antarktis, weil das südli­che Meer als Wärmesenke wirkt. Weit verbreitet ist diese Behauptung: "Klimamodelle sagen allgemein eine Verstärkung der Erwärmung in den Polregio­nen voraus", z. B. Doran et al. Jedoch sagen die Klimamodelle Temperaturverstär­kung für die Arktis, aber nur gemäßigte Erwärmung für die Antarktis voraus.

Interessanterweise hat der METAR-Codierfehler sein größtes Ausmaß an den Polen, weil die Unterschiede durch das Fehlen des Minuszeichens mit kälter werdender Tem­peratur größer werden. Heureka! NWT (North Western Territories) ist ein großartiges Beispiel, weil durch ein einziges fehlendes "M" die Temperatur von -43 Grad F auf +43 Grad F springt.

Am Äquator wird man keine METAR-Kodierfehler finden, weil die Temperatur dort niemals unter 0 Grad C fällt. Niemand wird dies dort codieren. In mittleren Breiten kann es vorkommen, aber eher jahreszeitlich bedingt und mit nicht so großem Unterschied.

Ein Beispiel:

Durch Änderung von M05/M08 auf 05/M08 wird die Temperatur von -5 Grad C auf +5 Grad C gesetzt, doch an Orten wie Boston, Chicago oder Denver, usw. kann eine +5 Grad C – Temperatur leicht in jedem Wintermonat vorkommen, in dem auch -5 Grad C. vorkommen. Deshalb verschwindet der Fehler im Rauschen des "Wetters" und wird wahrscheinlich niemals bemerkt. Aber er schiebt den Temperaturdurchschnitt ein we­nig nach oben, wenn er nicht korrigiert wird.

Aber in der Arktis und der Antarktis macht das fehlende M in einer M20/M25 METAR-Meldung einen Unterschied von 40 Grad C aus, wenn da +20 Grad C stehen. Und es scheint wenig wahrscheinlich, dass wir einen Wintermonat in Sibirien oder auf Antark­tika erleben, der normalerweise bis auf 20 Grad C hochgeht, daher wird der Fehler nicht im Wetterrauschen untergehen, sondern wird zu einem starken Signal, wenn er nicht korrigiert wird.

Die Neigung zur Bestätigung der Fehler aus der Erwartungshaltung der Polartemperaturverstär­kung heraus mag der Grund sein, warum bis dato niemand darauf hingewiesen hat. Darüber hinaus scheinen sich die Organisationen, die aus Bodentemperaturen abgelei­tete Klimadaten präsentieren (GISS, CRU), nur mit monatlichen und jährlichen Durch­schnitten zu beschäftigen. Tägliche oder stündliche Daten werden nicht präsentiert, soviel ich weiß, und wenn auf diese Zeiträume bezogene Fehler passieren, werden sie nicht bemerkt.

Seit das NASA GISS zugegeben hat, dass fehlende Minuszeichen zur heißen Anomalie über Finnland im März beigetragen haben, und anhand der vielen METAR-Codierfehler Vorkommnisse, die ich für andere Stationen auf der Erde nachgewiesen habe, scheint der Schluss vertretbar zu sein, dass unsere METAR-Daten von kalten Orten durch Codierfehler verfälscht sein könnten, die aus dem System herrühren.

Die gezeigten Daten zwischen dem 13. und 15. 4. beruhen auf Daten, die am 12. 4. heruntergeladen wurden. Darin enthalten sind einige Stationsmeldungen von Finn­land, wo das Minuszeichen unter den Tisch gefallen sein kann.

  4/15/10 http://data.giss.nasa.gov/gistemp/

Dieses verflixte fehlende M, oder ein zusätzliches Leerzeichen, oder nur ein "-", wenn ein "M" gemeint ist (das ist der grundlegenden mathematischen Vorstellung zuwider), alles zusammen scheinen eine Rolle zu spielen beim menschlichen Irrtum, der zu den Da­tenfehlern in unserer globalen Oberflächentemperatur beiträgt. Um die Größe des Pro­blems zu bestimmen, ist eine umfassende Überprüfung aller Daten nötig, von unten nach oben, von deren Entstehung bis zu den [daraus erzeugten] Ergebnissen. Bei NOAA/ NCDC muss angefangen werden, weil die für die Qualitätssicherung der Daten ver­antwortlich ist.

Man sagt, dass "der Mensch die globale Erwärmung verursacht". Ich meine, genauer wäre die Aussage: "Menschliche Fehler erzeugen die globale Erwärmung".

Anmerkung: In diesem Beitrag habe ich die Fehler vorgeführt. In einem folgenden Bei­trag hoffe ich, Datenanalysen mit den Zahlen durchzuführen, um zu sehen, welche Auswirkung die Fehler tatsächlich haben. Natürlich ist jeder willkommen, der das ma­chen will, Links auf Grafiken und Tabellen zu liefern.

– Anthony [Watts]. den Originalartikel finden Sie hier

Die angekündigten weiteren Beiträge von Watts dazu sind 

(2) http://wattsupwiththat.com/2010/04/22/dial-m-for-mangled-wikipedia-and-environment-canada-caught-with-temperature-data-errors/

und 

(3) http://wattsupwiththat.com/2010/04/24/inside-the-eureka-weather-station/

Die Übersetzung besorgte in dankenswerterweise und bewährter Manier Helmut Jäger für EIKE. 

Related Files




Deutsche Klimafolgenforscher starten das letzte Gefecht: Ein neuer Rettungsversuch für ein globales Klimaabkommen – Die Klima-Kopfpauschale!

Wenn selbst die Kanzlerin der als Klimastreber bekannten Deutschen sich öffentlich davon verabschiedet (auch hier), dürfte das (stille) internationale Begraben dieser Zielsetzung wohl nur noch eine Formsache sein. Die nächste große Klimakonferenz Ende dieses Jahres wird daher wohl wieder einmal viel Tamtam bringen und ansonsten ohne konkretes Ergebnis zu Ende gehen. Man sieht sich im nächsten Jahr.

Paradigmenwechsel in der deutschen Klimapolitik
Der Wechsel der Marschrichtung in der deutschen Politik kommt einem Paradigmenwechsel gleich. Und man muss kein Prophet sein, um zu folgern, dass damit auch ein Verlust des Einflusses der Klimaforscher auf die Politik in unserem Land einhergehen wird. Am meisten dürfte davon das Potsdamer Institut für Klimafolgenforschung (PIK) betroffen sein, welches bislang mit Stefan Rahmstorf und Institutsdirektor Hans Joachim Schellnhuber noch 2 der 8 Mitglieder des einflussreichenWissenschaftlichen Beirats der Bundesregierung Globale Umweltveränderungen (WBGU) stellt und mit knapp 200 Beschäftigten ein hohes Interesse daran hat, dass die Klimafurcht und alles was dazu gehört weiter geschürt wird.

Ungeachtet dieser Entwicklung, oder vielleicht gerade deswegen, also um noch einmal eine entscheidende “Duftmarke” zu setzen, hat das PIK jetzt ein Grundsatzpapier herausgegeben, in dem ein völlig neuer Weg vorgestellt wird, der doch noch den erhofften Durchbruch in der Klimapolitik bringen soll. Unter dem Titel “Neue Strategie zur Realisierung des 2°max Klimaziels” präsentieren die Forscher einen Lösungsansatz, den sie “Peak and Trade” nennen und hinter dem sich eine Art Klima-Kopfpauschale verbirgt. Nach den Vorstellungen der Wissenschaftler soll jedem Erdenbürger zunächst ein Kontingent von rund 5 Tonnen CO2 zugesprochen werden. Wird dieses überschritten, muss in einen Topf (eine neu zu schaffende “Weltklimabank”) gezahlt werden, bei Unterschreitung gibt es Geld aus diesem Topf. Morgen, am 29.4.10 wird dieses Papier mit großem TamTam von PIK Chef-Schellnhuber und Bundesumweltumweltminister Röttgen in den Räumen der Bundespressekonferenz in Bonn der Öffentlickeit (s. u.) vorgestellt. Wir können sicher sein, dass es wieder große mediale Aufmerksamkeit erfährt.

 

Pro Kopf CO2-Ausstoß nach Ländern. Die Größe des Kreises spiegelt den CO2-Ausstoß wider. Quelle: Gapminder World

Die Amerikaner hätten demnach mit 16,9 Tonnen pro Jahr und Einwohner einen mehr als 3 mal zu hohen Ausstoß, wir Deutschen mit 9,8 Tonnen einen fast doppelt zu hohen. In Westeuropa stehen Schweden und die Schweiz (je 5,6 Tonnen pro Einwohner) und Frankreich (6,3 Tonnen) besonders gut da. Erstere, weil sie sehr viel Strom aus Wasserkraft erzeugen, und letztere wegen der Stromerzeugung aus Kernkraft.

Kopfpauschale als Lockangebot für Schwellen- und Entwicklungsländer
Woher kommt die magische Grenze von rund 5 Tonnen pro Einwohner? Die Autoren der Studie begründen diese mit einem vermutlich im Jahr 2015 erreichten globalen CO2-Ausstoß von 35 Milliarden Tonnen. Und diese Zahl, geteilt durch eine Weltbevölkerung im Jahr 2010 von geschätzten 6,9 Milliarden Menschen, ergibt 5,1 Tonnen pro Erdenbewohner. Vergleicht man die CO2-Emissionen pro Kopf der Länder der Welt (klick auf die Infografik), dann kann einem aber auch eine ganz andere Vermutung kommen.

Das Scheitern der letzten Weltklimakonferenz in Kopenhagen lag zu einem nicht unerheblichen Teil am Widerstand der aufstrebenden Entwicklungs- und Schwellenländer, allen voran Brasilien, China und Indien. Und diese Länder liegen (Brasilien und Indien deutlich) unterhalb der magischen 5,1 Tonnen-Grenze, würden also von der jetzt vorgeschlagenen Regelung profitieren.  Mit diesen Maßnahmen, so könnte man mutmaßen, sollen die abtrünnigen Schwellenländer finanziell für eine Zustimmung geködert werden. Politisch korrekt nennt man das heute wohl “ins Boot holen”.

Kopfpauschale schafft Anreiz zum Bevölkerungswachstum
Profitieren von einer solchen Regelung würden vor allem bevölkerungsreiche Schwellen- und Entwicklungsländer. Je mehr Einwohner und je geringer der Entwicklungsstand, umso mehr Geld ist zu holen. Für solche Länder würde diese Regelung vor allem den Anreiz erhöhen, einen möglichst großen Anteil ihrer Bevölkerung von der Entwicklung auszuschließen, denn dadurch würde deren pro Kopf CO2 Verbrauch nachhaltig auf niedrigem Niveau gehalten werden. Von den Einnahmen, die für diese Länder durch die CO2-Karenz ihrer Bevölkerung generiert würden, bekäme diese wohl eher nichts zu sehen. Wie die Erfahrungen aus den zahlreichen Entwicklungshilfe-Programmen gerade für die ärmsten Länder in Afrika zeigen, fließen solche Gelder entweder in den Militäretat oder landen direkt auf den Schweizer Nummernkonten der Regierungsmitglieder.

[Update]
Welt 27. 04. – Klimaforscher fordern CO2-Höchstmenge pro Kopf
FAZ 28. 04. – Asyl für Klimasünder

ÄHNLICHE BEITRÄGE (BETA):

Rudolf Kipp EIKE; zuerst erschienen in abgewandelter Form bei Science Sceptical

Update 1:

15:00 Uhr     – NEU –
BPK BONN Klimapolitik nach Kopenhagen: Auf drei Ebenen zum Erfolg Der WGBU übergibt im Vorfeld des Petersberger Klimadialogs ein Politikpapier an die Bundesregierung
– BONNER TERMIN! – Veranstaltungsort: BPA, Dienstsitz Bonn, Welckerstraße 11, 53113 Bonn

  • Dr. Norbert Röttgen, Bundesminister für Umwelt, Naturschutz und Reaktorsicherheit
  • Prof. Dr. Hans-Joachim Schellnhuber, Vorsitzender des Wissenschaftlichen Beirats der Bundesregierung Globale Veränderungen (WBGU), Direktor des Postdam-Instituts für Klimafolgenforschung (PIK)
  • Prof. Dr. Dirk Messner, Stellv. Vorsitzender des Wissenschaftlichen Beitrats der Bundesregierung Globale Umweltveränderungen (WBGU), Direktor des Deutschen Institut für Entwicklungspolitik (DIE)
  • Update 2: FDP Kauch solidarisiert sich sofort mit dieser neue Botschaft:
  • ++ KAUCH: FDP unterstützt globalen CO2-Markt (29.04.2010)

    BERLIN. Zu den Vorschlägen für eine neue Klimaschutzstrategie, die der Wissenschaftliche Beirat für Globale Umweltfragen (WBGU) der Bundesregierung vorgelegt hat, erklärt der umweltpolitische Sprecher der FDP-Bundestagsfraktion Michael KAUCH: 

    Die Experten des WBGU vertreten die Strategie eines globalen CO2-Marktes.
    Die FDP-Bundestagsfraktion unterstützt dieses Konzept seit vielen Jahren. Die Liberalen haben das Ziel eines globalen Kohlenstoffmarktes auch im Koalitionsvertrag verankert. Dennoch bleibt die Frage, ob China und die USA, die bisher ein Kyoto-Nachfolgeabkommen verweigern, sich durch diesen Vorschlag einbinden lassen.

    Begrüßenswert ist der Ansatz des WBGU, jedem Menschen gleiche Emissionsmengen zuzugestehen. Das würde die "basarähnlichen" Verhandlungen auf den Klimakonferenzen über Reduktionsverpflichtungen und Ausgleichszahlungen durch einen objektiven Maßstab ersetzen. 
    Vernünftig ist die Doppelstrategie der Bundesregierung, sowohl auf ein neues Klimaschutzabkommen als auch auf praktische Klimaschutz-Kooperation mit Partnerländern zu setzen.

Die Redaktion mein: Dem ist nichts hinzufügen!




Die Klimakanzlerin war gestern – Merkel strebt kein global bindendes Abkommen zum CO2-Ausstoss mehr an

So sieht wohl ein geordneter Rückzug aus. Wie der Spiegel in seiner Online-Ausgabe heute berichtet, hat unsere Bundeskanzlerin das Ziel aufgegeben, einen weltweit verbindlichen Vertrag für CO2-Emissionen anzustreben:

Merkel rückt von Weltklimavertrag ab

Bundeskanzlerin Angela Merkel (CDU) will nach Informationen des Nachrichtenmagazins SPIEGEL verbindliche globale Grenzwerte für Treibhausgase vorerst nicht weiter verfolgen. Die Kanzlerin rückt damit von dem Ziel ab, die Erderwärmung durch einen Weltklimavertrag auf zwei Grad Celsius zu begrenzen…

Diese Entscheidung offenbart, dass Frau Merkel inzwischen wohl aufgegangen ist, dass ein solches Abkommen schlicht nicht durchsetzbar ist. Möglicherweise reagiert die Kanzlerin damit auch auf eine Umfrage des Spiegel, bei der herauskam, dass mittlerweile nur noch 42 Prozent der Deutschen Angst vor dem Klimawandel haben. Oder Frau Merkel hat irgendwie mitbekommen, dass das 2-Grad-Ziel gar keine wissenschaftliche Grundlage hat. Vielleicht ist sie damit auch auf den Wissenschaftlichen Beirat des Bundesfinanzministeriums gefolgt, der kürzlich festgestellt hat, dass Strebertum bei der Klimapolitik sich eher nicht lohnt.

Wer weiß? Jedenfalls ist diese Entscheidung als ein erster kleiner Schritt in die richtige Richtung sehr zu begrüßen.

Rudolf Kipp EIKE – zuerst veröffentlich bei Science Sceptical

ÄHNLICHE BEITRÄGE (BETA):




Forscher warnen: Globale Abkühlung wird Arktis-Rohstoffe unzugänglich machen!

Nach seinen Worten schwanken die Temperaturen auf der Erde in einem 60-jährigen Turnus. „Jetzt treten alle Komponenten des Klimasystems in eine negative Phase ein.“ Die Abkühlung werde in 15 Jahren ihren Höhepunkt erreichen, sagte der Forscher. Politiker, die auf eine globale Klimaerwärmung bauen, hätten auf das falsche Pferd gesetzt.

„Die Nordostpassage wird einfrieren und nur mit Eisbrechern passierbar sein“, sagte Pokrowski. Auch die angekündigte Erschließung des arktischen Schelfs könne auf schwere Probleme stoßen.

Der Weltklimarat IPCC, der eine Klimaerwärmung prophezeit, lässt laut Pokrowski viele Faktoren außer Acht. So befänden sich die meisten amerikanischen Wetterstationen in Städten, wo die Temperaturen immer höher seien. „Wir wissen nicht alles, was passiert. Das Klimasystem ist sehr kompliziert und der IPCC ist nicht die Wahrheit in letzter Instanz.“

Die Rivalität um die Arktis hat sich in den letzten Jahren deutlich verschärft. Um die reich gefüllte Naturschatzkammer buhlen Russland, die USA, Kanada, Großbritannien und andere Anrainerstaaten. Viele von ihnen kündigten die Aufstellung von Schiffsverbänden für Polfahrten an.

Quelle Nowosti SANKT PETERSBURG, 23. April (RIA Novosti)

Mehr Details dazu hier




Die Beiträge des USHCN und GISS zum Fehler der vieljährigen Temperaturaufzeichnung einer Wetterstation auf dem Lande

Wie Watts zeigt, gibt es viel zu viele von der Umgebung beeinflusste Wetterstationen und nur wenige, die sich in einer angemessenen Umgebung befinden. Die Untersuchung der Daten jener Stationen ergibt eine gute Basis, mit der man die Eigenheiten der von NCDC und GISS vorgenommenen Anpassungen zeigen kann.

Eine solche Station ist Dale Enterprise im US-Bundesstaat Virginia. Das Wetterbüro hat Rohdaten dieser Station sowie monatliche und jährliche Mittelwerte aufgezeichnet, und zwar schon seit dem Jahre 1891 bis heute, eine Reihe von 119 Jahren. In dem Zeitraum zwischen 1892 und 2008 fehlen nur ganze 9 Monate (von insgesamt 1041 Monaten), das ist eine Fehlrate von weniger als 0.64 Prozent. Die Analyse unten interpoliert diese fehlenden Daten folgendermaßen: Es wurde ein Mittelwert über 10 Jahre um den fehlenden Wert gebildet. Das erschien besser als die Daten anderer Stationen zu Hilfe zu nehmen. Diese Methode minimiert die Unsicherheiten,  die sich aus der Verwendung der Daten anderer Stationen ergeben, von denen nicht sicher ist, ob sie wirklich ‚sauber’ sind.

Die Station selbst liegt auf dem Feld eines Landgutes, weit weg von Gebäuden oder befestigten Flächen. Das ursprüngliche Thermometer wurde weiter benutzt, um die Messungen mit elektronischen Messfühlern seit 1994 zu vergleichen.

 

(Foto 1)

Die Station Dale Enterprise liegt in den sanften Hügeln östlich des Shenandoah – Tals, fast zwei Kilometer entfernt vom nächsten Dorf und über fünf Kilometer entfernt von der nächsten größeren Ortschaft Harrisonburg, einem Städtchen mit 44 000 Einwohnern.

 

(Foto 2)

Mit Ausnahme der Inbetriebnahme des elektronischen Sensors im Jahre 1994 und dem Interpolieren der fehlenden neun Monate gibt es keinerlei Gründe, die Rohdaten dieser Station irgendwie zu bearbeiten.

Die folgende Graphik zeigt den Temperaturverlauf aus den Rohdaten

(Bild 1: Aktueller Temperaturtrend: 0.24°C/Jahrhundert)

Es deutet sich ein stufenweiser Rückgang der Temperatur nach 1994 an. In Virginia stehen keine weiteren Stationen auf dem Lande zur Verfügung, die ebenfalls mit elektronischen Sensoren im Vergleich zu herkömmlichen Messungen mit Thermometern über eine längere Periode Werte zeigen. Der Vergleich mit urbanen Stationen ergibt eine potentiell große Abweichung zum Wärmeren während der 20 Jahre von 1984 bis 2004. Dies gilt besonders in Virginia, liegen doch diese urbanen Stationen typischerweise an Flughäfen, auf denen sich die Bebauung und die Flugbewegungen in dieser Periode erheblich verändert haben.

Bemerkenswerterweise haben weder NCDC noch GISS dieser Änderung in der Gewinnung der Daten Rechnung getragen. Daher ist jede Abweichung, die sich aus dieser Änderung eventuell ergeben hat, nach wie vor sowohl in den Originaldaten als auch in den bearbeiteten Daten enthalten.

Die Bearbeitung durch das NCDC 

Viele haben sich auf die Änderungen der Daten vom NCDC durch das GISS konzentriert, aber die ‚Homogenisierung’, die durch das NCDC selbst vorgenommen wurde, ist genauso interessant, wenn auch viel schwerer zu verstehen, wie in diesem Beispiel gezeigt wird.

NCDC sammelt die Originaldaten und passt sie ein in einen Datensatz, der zu einem Teil des historischen Klimanetzwerkes der USA wird (United States Historical Climatology Network USHCN) wird. Die meisten Forschungsinstitute, einschließlich GISS und HadCRU, beginnen mit dem Datensatz des USHCN. Bild 2 dokumentiert die vom NCDC vorgenommenen Änderungen der Originaldaten und legt nahe, dass man Untersuchungen mit den Originaldaten beginnen sollte.

(Bild 2, Dale Enterprise, Virginia Rohdaten im Vergleich zu bearbeiteten USHCN-Daten)

Die rote Linie in der Graphik zeigt die Änderungen, die an den Rohdaten vorgenommen wurden. Angesichts der Lage der Station Dale Enterprise und dem Fehlen jeglicher mikroklimatischen Verzerrung muss man sich fragen, warum das NCDC überhaupt Änderungen an diesen Rohdaten vornimmt. So, wie die rote Linie aussieht, hat man nicht den Eindruck, dass diese Änderungen nur deshalb vorgenommen wurden, um Datenlücken zu schließen oder andere offensichtlichen Verschiebungen zu korrigieren. Tatsächlich hat das NCDC in jedem Jahr Daten verändert, außer 1998 und 1999! [Beachte: wenn ein 62-jähriger promovierter Wissenschaftler ein Ausrufezeichen benutzt, sollte seine Äußerung mit außerordentlicher Aufmerksamkeit zur Kenntnis genommen werden.]

Aus der Graphik wird klar ersichtlich, dass man bei den USHCN – Daten den ‚reset’ – Button anklicken sollte. Nur anhand dieser einen Station lässt sich feststellen, dass die USHCN – Daten ungeeignet für jedwede weitere Untersuchungen sind, und das der Anspruch eines ‚Datensatzes mit hoher Qualität’ völlig unangebracht ist.

Die Bearbeitung durch das GISS

GISS beansprucht von sich, dass seine Anpassung der Daten die Effekte korrigieren soll, die der urbane Wärmeinseleffekt auf die Aufzeichnungen hat. (In theory, they adjust stations based on the night time luminosity of the area within which the station is located. Ich bekenne, diesen Satz kriege ich nicht sinnvoll übersetzt! Herr Jäger, haben Sie einen Vorschlag? A. d. Übers.) Diese grobe Annäherung ist schon angesichts der Werte der Station Dale Enterprise falsch. Es gibt keinen hinreichenden Grund, die Werte einer Station ohne jede mikroklimatische Verzerrungen zu überarbeiten; einer Station, die fast zwei Kilometer von der nächsten Ansiedlung, über 5 Kilometer von einer Kleinstadt und über 100 km von einer Ansiedlung mit über 50 000 Einwohnern, ab denen man definitionsgemäß von einer Stadt spricht, entfernt ist. Die nächst gelegene Stadt Harrisonburg hat einen einzigen großen Industriestandort, einen Steinbruch und eine mittelgroße Universität (die James Madison Universität JMU). Fraglos haben die Studenten der JMU nie gelernt, nachts das Licht auszuschalten. Nach meiner persönlichen Erfahrung bin ich nicht einmal sicher, ob sie überhaupt nachts ins Bett gehen. Daraus ergibt sich eine Abweichung, die wir die „Trinken – Party – college kids“ – Abweichung nennen können. Ob es möglich ist, eine solche Abweichung überhaupt zu korrigieren, überlasse ich anderen. Jedenfalls handelt es sich um eine typische amerikanische Kleinstadt, überwiegend bestehend aus Einfamilienhäusern und zwei oder drei Hochhäusern. Der eigentliche Stadtkern besteht aus sechs Häuserblöcken und neben dem Getreidesilo weniger als zehn Gebäuden mit mehr als 5 Stockwerken. Sogar innerhalb dieses Stadtkerns gibt es zahlreiche Parks. Das übrige Stadtgebiet besteht aus lockerer Wohnbebauung und der Universität mit ihren Freiflächen.

Obwohl es keinerlei Gründe gibt, die Daten der Station Dale Enterprise wegen irgendeines Wärmeinseleffektes zu verändern, hat das GISS die Daten bearbeitet, wie die nachfolgende Graphik (Bild 3) zeigt. Ich zeige diese Anpassungen, weil sie typisch sind für die grundsätzliche Natur der Art von Anpassungen, wie sie das GISS vornimmt, ohne Beachtung, wie sich diese Anpassungen auf die aktuelle Temperatur auswirken.

Bild 3

Hier sind lediglich die Daten des USHCN und GISS samt der zugehörigen Trendlinie geplottet. Eingezeichnet in blau ist aber auch die Trendlinie der Rohdaten.

Die Anpassungen der USHCN – Daten vom GISS auf die Werte der Station Dale Enterprise folgen einem wohlbekannten Muster. GISS zieht die früheren Werte nach unten und übernimmt die jüngeren Daten unverändert vom USHCN. Dadurch entsteht natürlich immer eine Verzerrung hin zu einer Erwärmung. Der Vergleich der Trendlinien in der Graphik ist jedoch etwas schwierig. Die Trends der Rohdaten, der USHCN- und der GISS – Daten sind: 0.24°C, -0.32°C und 0.43°C, pro Jahrhundert, versteht sich.

Wenn man annimmt, dass die USHCN – Daten einen „Datensatz von hoher Qualität“ darstellen, dann macht die Anpassung durch GISS viel mehr als eine Verstärkung der Erwärmung, es kehrt den Trend dieser „hohen Qualität“ der Daten um. Man beachte, dass das GISS den Erwärmungstrend im Vergleich zu den Rohdaten verdoppelt.

Diese Präsentation stellt den Beginn der Analyse von Temperaturaufzeichnungen in Virginia dar. Das ‚Center for Environmental Stewardship of the Thomas Jefferson Institute for Public Policy’ plant, sämtliche Daten aus Landgebieten in Virginia zu untersuchen, um herauszufinden, welche Landstationen am besten geeignet sind, langzeitliche Temperaturtrends abzuschätzen, egal ob lokal oder weltweit. Nur eine landesweite Verfolgung dieses Zieles kann zu einem wirklichen Datensatz „hoher Qualität“ führen, auf den sich die wissenschaftliche Gemeinschaft verlassen kann; egal ob man diese Daten für Modellrechnungen benutzt oder den Beitrag menschlicher Aktivitäten abschätzen will.

von David W. Schnare, Esq. Ph.D. Das Original erschien hier

Die Übersetzung besorgte dankenswerterweise Chris Frey für EIKE

The SPPI analysis of rural versus urban trends




Rekonstruktion des Klimawandels seit 1860 bzw. 1672 aufgrund solarer Aktivitätsänderungen !

Die Klimaanalysen auf allen räumlichen wie zeitlichen Klimaskalen haben gezeigt, dass beim langfristigen Klimawandel die Sonne der dominierende Klimafaktor ist und dass dem anthropogenen Treibhaus-/CO2-Effekt nur eine untergeordnete Rolle zukommen kann.

Im Sinne dieser Ergebnisse muss es folglich möglich sein, die Grundzüge des langfristigen Klimawandels der vergangenen Jahrhunderte in Abhängigkeit von der veränderten Sonnenaktivität zu rekonstruieren.

Einen mathematische Ansatz dazu bietet die (lineare) Methode der kleinsten quadratischen Abweichung. Dabei werden nur die beobachteten Mitteltemperaturen und die mittleren Sonnenfleckenzahlen der definierten Klimaperioden benötigt. Im

Sinne der Klimadefinition der WMO werden Periodenlängen von rund 30 Jahren, d.h. von 3 Sonnenfleckenzyklen (im Mittel 33 Jahre), betrachtet. Für jede Klimaperiode wird nach der Methode der kleinsten quadratischen Abweichung die beobachtete Mitteltemperatur durch einen berechneten Temperaturwert in Abhängigkeit von der mittleren Sonnenfleckenzahl approximiert.      

Ist y = T(SF), so gilt:   y = x0 + x1 * SFi ,

d.h. die berechnete Mitteltemperatur der Klimaperioden ist nur eine Funktion der Sonnenfleckenzahl SF. Der Schnittpunkt x0 der Geraden mit der y-Achse folgt aus:  x0 = Tm – x1 * SFm  

und der Anstieg x1 der Geraden aus:>

x1 =  Summe(SFi anom*Ti anom) / Summe(SFi anom)².

Die Anomalien (anom) sind die Abweichung der Einzelperioden vom Mittelwert über alle Perioden……

….- Die Klimaanalysen auf allen räumlichen wie zeitlichen Klimaskalen haben gezeigt, dass beim langfristigen Klimawandel die Sonne der dominierende Klimafaktor ist und dass dem anthropogenen Treibhaus-/CO2-Effekt nur eine untergeordnete Rolle zukommen kann. 

Ergebnisse und den ganzen Artikel finden Sie in der Dateianlage und unter Publikationen hier

Autor: Prof. Dr. Malberg

Related Files