1

Schon wieder: Der Vorsitzende des IPCC Pachauri im Konflikt!

Der Autor Dennis Ambler zeigt in Dr Rajendra Pachauri and the IPCC – No Fossil Fool, dass der UN Clean Development Mechanism (CDM) Energieunternehmen in Indien direkt unterstützt, mit denen Pachauri zu früheren Zeiten oder gegenwärtig Verbindungen unterhält, und damit einen sehr deutlichen Interessenskonflikt mit seiner Position als Leiter des IPCC demonstriert.

Das Intergovernmental Panel on Climate Change wurde 1988 gegründet, um die vorgegebene und umstrittene Feststellung zu untersuchen, dass anthropogene CO2-Emissionen eine beispiellose Erwärmung des Planeten verursachen. Das IPCC hat vier Prüfberichte über den Stand der Klimawissenschaft abgeliefert und bereitet zur Zeit einen weiteren, fünften Report vor. Die ersten drei Berichte wurden benutzt, um das politische Ziel des Handels mit CO2-Emissionsrechten sicherzustellen, das dann in das Kyoto Protokoll übertragen wurde, in dem die entwickelten Länder Verpflichtungen vereinbarten, ihre jeweiligen Emissionen bis 1990 zu reduzieren.

Das Protokoll läuft 2012 aus, was bedeutet, dass dann die gesetzliche Grundlage für den Handel mit CO2-Emissionsrechten enden würde, und lukrative CO2-Märkte wären verloren, bis ein Nachfolger existiert. Es bleibt der Druck, zu verhandeln und eine verbindliche Vereinbarung in Cancun, Mexico im Laufe des Jahres sicherzustellen.

Ambler berichtet, „auf dem Spiel steht die langfristige UN-Agenda des Wohlstandstransfers von den reichen Nationen zu den armen Nationen. Als eine der Hauptbegünstigten ist Indien in der glücklichen Lage, dass der Vorstand einer der bedeutenden Energie-Institutionen, Dr. Pachauri von TERI, die Hauptverantwortung beim IPCC hat, eine Position, die er seit den letzten acht Jahren bekleidet. Während seiner Amtszeit hat er sich aktiv für Gesetzgebungsverfahren zur Emissionskontrolle in westlichen Ländern eingesetzt, besonders in den USA. Gelegentlich fand das bei privaten Treffen mit US Gesetzgebern statt.“

Eine der vielen unakzeptablen Besonderheiten des CDM ist die Art und Weise, wie internationale Politikberater, oftmals Mitarbeiter des IPCC und oftmals frühere UN-Bürokraten, plötzlich als Berater für CO2 Emissionsrechte auftreten, um in bester Position von der Politik zu profitieren, für die sie sich eingesetzt haben. Ambler sagt, „in einer anderen Umgebung würde das als Insider-Handel bezeichnet.“

Dr Pachauri hat die jüngsten Kritiken überstanden und gelobt, bis zum Abschluss des fünften IPCC Reports im Jahre 2013 oder 2014 im Amt zu bleiben. Er hat zusätzliches Kapital von einer Million US-$ für das IPCC angefordert, um PR-Berater zu finanzieren, welche die Botschaft von UN/IPCC verkaufen sollen.

Ambler schlussfolgert: „Für die Öffentlichkeit wird es Zeit, festzustellen, dass sie in höchstem Maße getäuscht wird, und dass sie darauf besteht, dass ihre gesetzgebenden Organe aus einer Politik aussteigen, die keine Auswirkung auf das Klima hat, aber massive Auswirkungen auf ihre täglichen Lebensbedingungen.“

Science and Public Policy Institute




Saubere Arbeitsplätze, teure Arbeitsplätze? Warum Italien sich keine „Grüne Ökonomie“ leisten kann.

Die Kosten und den Nutzen ökologischer Politik zu verstehen, ist besonders wichtig für Italien, einem Land, das bereits mehr als seinen Anteil an Opfern für die Umweltreligion bezahlt hat, als es 1987 nach einer Volksbefragung seine vier Atomkraftwerke abschaltete. Daher müssen wir die Folgen bedenken, bevor noch mehr Steuergelder für Maßnahmen im Rahmen der Klimaübereinkunft der Europäischen Union zur vermeintlichen Rettung des Planeten ausgespuckt werden.

Zu diesem Zwecke haben wir eine Studie durchgeführt, um die Wirksamkeit von grüner Förderung zur Schaffung von Jobs zu beurteilen. Die zu beantwortende Frage lautete: Falls die derzeitigen zur Förderung Erneuerbarer Energien investierten Ressourcen in andere Wirtschaftssektoren investiert worden wären, hätten dann mehr oder weniger Menschen Arbeit?

Es wird häufig übersehen, dass die Schaffung von grünen Arbeitsplätzen durch Förderung und Regulierung gleichzeitig zur Vernichtung von Arbeitsplätzen in anderen Industrien führt. Das rührt daher, weil jegliche Ressource, die zwangsweise einem Wirtschaftssektor entnommen und aus politischen Gründen den Erneuerbaren Energien zugeführt wird, nur einmal investiert werden kann. In unserem Land [Italien] werden grüne Energien durch einen Aufpreis subventioniert, den jeder Verbraucher von elektrischer Energie mit seiner Stromrechnung bezahlt (etwa 4,3 % der durchschnittlichen Rechnung). Deshalb befinden sich Italiens Elektrizitätskosten unter den höchsten in Europa. Insbesondere bezahlen die großen Industrieverbraucher das Meiste für Elektrizität in Europa (mindestens 25 % über dem EU-Durchschnitt im Jahre 2008, laut Aussage der italienischen Energie-Regulierungs-Behörde).

Um die Nettobilanz für die italienische Beschäftigungslage zu beurteilen, haben wir die Anzahl der grünen Jobs geschätzt, von denen angenommen wird, dass sie durch die Förderung geschaffen wurden oder im Entstehen begriffen sind. Hierzu haben wir angenommen, dass um 2020 Italien sein Maximum zur Ausschöpfung der Wind- und Sonnenenergie erreicht haben wird, wie es von der italienischen Regierung 2007 definiert worden ist, als der grüne Parteiführer Alfonso Pecoraro Scanio gleichzeitig Umweltminister war. Wenn wir die unseres Erachtens aufgeblähten Schätzungen aus verschiedenen Quellen für bereits existierende grüne Jobs benutzen, kommen wir auf einen Ausgangspunkt von 9.000 bis 26.000 Jobs für Windkraft und 5.500 bis 14.500 für Fotovoltaik. Sodann haben wir berechnet, dass dank der von Rom versprochenen Förderungsgelder die Anzahl der in der grünen Ökonomie arbeitenden Menschen sich auf einen Gesamtbestand von 50.000 bis 112.000 im Jahre 2020 erhöhen wird. Die meisten dieser Jobs – mindestens 60% – werden aber auf Installateure und andere zeitweilige Arbeiten entfallen, die wieder verschwinden, wenn ein Solardach oder eine Windkraftanlage in Betrieb gehen……….. …………..

………Schließlich haben wir den akkumulierten Betrag öffentlicher Gelder berechnet, der für Wind- und Sonnenenergie bis 2035 und 2040 ausgegeben sein wird, wenn das jeweils letzte grüne Zertifikat für Windenergie und Einspeisevergütung für Sonnenenergie für die 2020 installierte Kapazität abgelaufen sein wird. Zwischen 2000 und 2040 wird die gesamte Förderung für Wind und Sonne rund € 63,6 Mrd. betragen. Daraus errechneten wir einen Durchschnittsbetrag zwischen € 566.000 und € 112.000, den der Verbraucher pro grünem Job finanzieren muss. Im Vergleich dazu beträgt laut italienischem Statistischen Institut der durchschnittliche „Kapitalstock“, auch „Kosten pro Arbeitsplatz“ genannt, in der Industrie € 112.500 und € 163.200 in der Gesamtwirtschaft.

Also kostet ein grüner Job durchschnittlich so viel wie 4,8 Jobs in der Gesamtwirtschaft, oder 6,9 Jobs in der Industrie. Mit dem gleichen bereits bezahlten oder zugesagtem Förderungsgeld hätten nahezu fünf mal so viele Jobs geschaffen werden können, wenn der Privatwirtschaft erlaubt worden wäre, dies in anderen Wirtschaftssektoren auszugeben.

Unser Ergebnis stimmt in weitem Bereich mit den Ergebnissen überein, die Professor Gabriel Calzada von der Universität Rey Juan Carlos für Spanien ermittelt hat, dass ein grüner Job im Durchschnitt so viel kostet wie 2,2 „schmutzige“ Jobs. Warum die italienische Zahl mehr als zweimal so hoch ist, rührt daher, dass Italien anders als Spanien Technologie-Importeur ist und kein Hersteller.

Unsere Zahlen scheinen nur zu bestätigen, was man ohnehin weiß: Die grüne Ökonomie kann sehr profitabel für die Empfänger der Förderung sein, aber sie ist vernichtend für die Gesamtwirtschaft. Umweltaktivisten und Politiker reden immer über die vermutete „doppelte Dividende“ der Erneuerbaren Energien. Die Förderung der grünen Energiequellen mag ja einen Umweltvorteil schaffen, aber unsere Studie deutet darauf hin, dass dieser mögliche Vorteil nicht umsonst ist.

Von Carlo Stagnaro und Luciano Lavecchia, Mailand für "The Wall Street Journal" OPINION EUROPE 11. Mai 2010 Der Originalartikel ist hier (gegen Gebühr) abrufbar

Die zugrunde liegende Studie "Are Green Jobs Real Jobs" kann hier abgerufen werden

Herr Lavecchia ist Forscher am Institut Bruno Leoni, einer italienischen Denkfabrik. Herr Stagnaro ist Direktor für Forschung und Studien am Institut Bruno Leoni.




Sensationelle Wende: Klimawandel bekommt auf dem nächsten G20 Gipfel keine Priorität mehr!

Ban sagte, er wolle den Klimawandel als Mittelpunkt auf der Tagesordnung, wenn Kanada  im kommenden Monat in Toronto Gastgeber des G20-Gipfels sein wird. Ban forderte auch die derzeit regierenden Konservativen auf mit den Treibhausgas-Reduktionszielen für Kanada im Rahmen des Kyoto-Protokolls zu leben. 

Kanada wies jedoch das Ansinnen von Ban Ki Moon zurück, den Klimawandel auf die Agenda zu heben. Details hier The Canadian Press, 13 May 2010.

Mit Dank an Dr. Benny Peiser von The Global Warming Policy Foundation




Ein Team von Wissenschaftlern widerspricht einem Bericht der US-Regierung: ‘Der AGW-Alarm wird sich als falsch erweisen’ – Die Befürchtungen basieren auf ‚fehlerhaften Vorhersagemethoden’

Unsere Forschungen kommen zu anderen Ergebnissen als die grundlegenden Annahmen im fünften U.S. Climate Action Report (CAR 2010), herausgegeben vom State Department. Die alarmierenden Vorhersagen einer gefährlichen anthropogenen Erderwärmung beruhen nicht auf Fakten und sauberen wissenschaftlichen Vorhersagemethoden. Die Behauptung, dass sie trotzdem für die Prognose geeignet sind, wurde nie einer Plausibilitätsuntersuchung unterzogen. Folglich sind diese Vorhersagen nichts weiter als die persönlichen Meinungen einiger Wissenschaftler. Das Weltklima ist hoch komplex und längst noch nicht verstanden. Vor diesem Hintergrund ist es unwahrscheinlich, dass diese Meinungen genauer sind als die Aussage, dass sich die Temperatur im Vergleich zu den vergangenen Jahren kaum ändert. Wir haben für diese Studie einwandfreie, auf wissenschaftlichen Prinzipien beruhende Vorhersagemethoden verwendet und kommen zu dem Schluss, dass sich der AGW-Alarmismus als falsch herausstellen wird, und dass die Maßnahmen der Regierung, diesem Alarmismus zu begegnen, sehr viel Schaden anrichten dürften.

Ob sich das Klima im 21. Jahrhundert ändert, wie stark, in welche Richtung mit welchen Auswirkungen und was die Menschen tun könnten und sollten wegen dieser Veränderungen sind alles Komplexe, die auf Vorhersagen beruhen. Politiker haben gegenwärtig keinen Zugang zu wissenschaftlichen Prognosen zu keinem dieser Komplexe. Daher ist es sehr wahrscheinlich, dass die vorgeschlagenen politischen Maßnahmen gegen die vermeintlich gefährliche, anthropogen verursachte Erderwärmung, wie sie im CAR 2010 in den Kapiteln 4 bis 7 beschrieben werden, großen und völlig unnötigen Schaden anrichten.

In diesem Kommentar zum CAR 2010 fassen wir die Ergebnisse unserer Forschungen zur Klimavorhersage zusammen. Viele unserer Ergebnisse wurden in der von Experten begutachteten (peer reviewed) Literatur veröffentlicht und durchweg auf wissenschaftlichen Tagungen vorgestellt. Sie können leicht im Internet eingesehen werden mit Hilfe der Links, die wir angeben.

1. Es gibt keine wissenschaftliche Grundlage für Vorhersagen einer gefährlichen globalen Erwärmung im 21. Jahrhundert.

a)    Fehlerhafte Auswahl von Methoden der Vorhersage

Die einfachste wissenschaftliche Vorhersage des Klimas im 21. Jahrhundert wäre die trendfreie Extrapolation. Wegen der substantiellen Unsicherheiten bzgl. des Klimas ist es derzeit nicht einmal möglich, das Vorzeichen einer Änderung abzuschätzen. Deshalb sollte man auf dieser Basis auch keine Änderungen vorhersagen. Die wissenschaftliche Erforschung von Vorhersagemethoden legt eine nicht intuitive Vorgehensweise nahe, nämlich in komplexen Strukturen mit sehr vielen Unsicherheiten mit möglichst einfachen und bewährten Methoden zu arbeiten (Armstrong 1985; Armstrong 2001).

Während man aus den Klimamodellen sehr viele Schlüsse gezogen hat, die die Vorhersage der gefährlichen anthropogenen Erderwärmung stützen, hat man sie tatsächlich nur als Werkzeuge benutzt, um die Vorhersagen zu präsentieren. Die eigentliche Beurteilung wurde dagegen ohne jede Unterstützung von Vorhersageprinzipien vorgenommen. In den o. g. Forschungen zu den Vorhersagemethoden hat sich gezeigt, dass eine Vorhersage ohne wissenschaftlichen Hintergrund in komplexen Systemen mit großen Unsicherheiten grundsätzlich nicht möglich ist (Armstrong 1980; Tetlock 2005). Beim Klima handelt es sich aber zweifellos um ein solches System.

Anders gesagt: Wenn man die besten Klimawissenschaftler der Welt heranziehen würde und ihnen Zugang zu allen bekannten Fakten bzgl. des Klimas gäbe, und unter der Voraussetzung, dass alle diese Fakten zuverlässig und genau sind, könnten diese Experten keine besseren Vorhersagen erstellen als Leute mit nur geringer Erfahrung. Und ihre Vorhersagen dürften noch weniger genau sein als solche, die auf einem simplen heuristischen Prinzip beruhen.

b)    Fehler bei der Anwendung der Vorhersagemethoden

Die im 4. FAR des IPCC beschriebenen Vorhersageverfahren verstoßen zu 81% gegen die 89 Grundsätze, die für die Vorhersage des Klimas relevant sind. Zum Beispiel wurden die Methoden und Rohdaten weder in vollem Umfang veröffentlicht, noch konnten unabhängige Forscher darauf zugreifen. Außerdem wurden keine angemessenen alternative Methoden untersucht, und Vorhersageperioden wurden nicht objektiv ausgewählt. (siehe “Global warming: Forecasts by scientists versus scientific forecasts”). Die für die Prognosen Verantwortlichen hatten keine Ausbildung und keine Erfahrung darin, wissenschaftliche Vorhersagemethoden richtig anzuwenden. Darüber hinaus konnten wir keinen einzigen Hinweis finden, dass nach Beweisen für die verwendeten Methoden  gesucht wurde. Daher ist es keine Überraschung, dass die Erstellung der Vorhersagen wissenschaftlich völlig unzureichend war.

c)    Versagen bei der Überprüfung der Ergebnisse

Die Vorhersagemethoden der AGW-Alarmisten wurden nie überprüft. Um dies zu verdeutlichen, haben wir eine Überprüfung der im Bericht des IPCC von 1992 geäußerten Annahme einer jährlichen Erwärmung um 0,03°C durchgeführt.

Wir untersuchten den Zeitraum von 1850 bis 2007, einer Periode der Industrialisierung und der exponentiellen Zunahme menschlicher CO2-Emissionen. In einem Vergleich von 10750 verschiedenen Vorhersageläufen waren die Fehler in den vom IPCC verwendeten Modellen bis zu 7 mal größer als bei Simulationen auf wissenschaftlicher Grundlage, und zwar den oben erwähnten einfachen Extrapolationen. Mehr noch: Die Fehler waren für die längerfristige Periode 12,6 mal größer. (Siehe auch  “Validity of climate change forecasting for public policy decision making.” )

2. Es gibt keinerlei wissenschaftliche Vorhersagen, die die von den AGW-Alarmisten geforderten Aktivitäten unterstützen.

a) Unsere Ergebnisse gelten nicht nur für die alarmistischen Vorhersagen einer gefährlichen anthropogen verursachten globalen Erwärmung, sondern auch für die haltlose Behauptung, dass die geforderten Maßnahmen (z. B. nur örtliche Produkte kaufen, CO2-Steuern, Subventionen für alternative Energiequellen usw.)  irgendeinen Nutzen haben.

Um die Auswirkungen irgendwelcher Maßnahmen richtig abzuschätzen, muss man sämtliche Vor- und Nachteile genau bewerten. Es gibt zum Beispiel die Behauptung, dass der Eisbär in Gefahr ist auszusterben und daher auf die Liste bedrohter Tierarten gesetzt werden sollte. Und dies trotz der erdrückenden Beweise, dass die Eisbärpopulation während der letzten Jahrzehnte deutlich zugenommen hat. (Siehe dazu “Polar bear population forecasts: A public-policy forecasting audit.” )

Hinsichtlich der Klimavorhersagen des IPCC fanden wir ebenfalls fehlerhafte Vorhersageverfahren. Tatsächlich wurden nur etwa 15% der relevanten Grundlagen für die Vorhersage korrekt angewandt. Ein Beispiel für ein solches fehlerhaftes Verhalten ist die Vorhersage der künftigen Eisbärpopulation für 45, 75 und 100 Jahre, die lediglich auf Daten der Polarbären und der Eisbedeckung der 5 Jahre von 2001 bis 2005 beruhen.

Wir beurteilen die so gewonnene Vorhersage der Eisbärpopulation als von politischen Vorgaben in eine bestimmte Richtung verschoben. Siehe hierzu auch Dr. Armstrongs Anhörung (  testimony ) vor einem Komitee des US-Senats im Januar 2008.

b) Die fehlende Kosten-/Nutzenanalyse

Für eine rationelle und verantwortungsvolle Politik ist es notwendig, Abschätzungen über alle in Frage kommenden Möglichkeiten zu erhalten. Eine Alternative wäre, gar nichts zu tun, eine andere, so lange zu warten, bis es wissenschaftliche Beweise für den Nutzen bestimmter Maßnahmen gibt. In dieser Hinsicht muss eine Kosten-/Nutzenanalyse auf wissenschaftlicher Basis durchgeführt werden: sinnvolle Alternativen müssen getestet werden, einfach um die Besten herauszufiltern.

3. Ein politisches Instrument, das “Vorsorgeprinzip”, wurde missbraucht, um ein wissenschaftliches Herangehen an die Klimavorhersage und daraus folgende Entscheidungen zu verhindern.

Das Ziel wissenschaftlicher Vorhersagen ist es, Unsicherheiten zu minimieren und das Treffen angemessener Entscheidungen zu vereinfachen. Das sog. Vorsorgeprinzip bedeutet in diesem Zusammenhang, dass Unsicherheiten ein Grund sind, dramatische Maßnahmen zu planen. Es führt zur Marginalisierung wissenschaftlicher Studien. Die Zurückweisung seriöser Wissenschaft bei Entscheidungen wurde schon von George Orwell in seinem Roman ‚1984’ ironisiert, und zwar mit einem der drei Slogans am Ministerium der Wahrheit, „Unwissenheit ist Stärke“. (Unser Aufsatz „Ungewissheit, das Vorsorgeprinzip und Klimaänderung “Uncertainty, the precautionary principle, and climate change” beschreibt die unwissenschaftliche Natur des „Vorsorgeprinzips“)

Bei Klimaänderungen in politisch relevanten Zeiträumen gibt es wenig Unklarheit. Saubere wissenschaftliche Vorhersagen sind äußerst genau. Das Klima verändert sich, aber unsere Studie der Verifikation, das globale Temperaturmittel des vergangenen Jahres einfach zu extrapolieren ergab einen Fehler, der lediglich bei 0,24°C für Vorhersagen über 50 Jahre im Voraus ergab. Es ist schwierig, sich vorzustellen, dass es verantwortlichen Politikern weitere Vorteile bringen würde, diesen Fehler noch weiter zu reduzieren, womöglich sogar bis 0,0°C.

4. Mit einer neuen, aber wissenschaftlich geprüften Vorhersagemethode, die als ‘strukturierte Analogien’ bekannt ist, kommen wir zu folgender Einschätzung: es wird sich herausstellen, dass die AGW-Bewegung falschen Alarm ausgelöst hat und für eine Flut von Entscheidungen verantwortlich ist, die den meisten Menschen langfristig schaden wird.

Wir untersuchen laufend frühere von Menschen konstruierte Katastrophenszenarien wie z. B. die Kampagne zur globalen Abkühlung in den 70-er Jahren oder die Umweltkampagne, die zum Verbot des DDT führte. Wir haben intensiv nach immer weiteren analogen Situationen gesucht, vor allem, wenn Entscheidungsträger verantwortlich für alarmierende Vorhersagen bzgl. der Erderwärmung waren. Damit wollten wir feststellen, ob sich irgendwann derartige weithin akzeptierten Vorhersagen als zutreffend herausgestellt haben oder ob solche angenommenen Katastrophen durch Maßnahmen der Regierung erfolgreich verhindert werden konnten.

Insgesamt haben wir 72 Situationen gefunden, von denen wir 26 als relevant einstufen. Eine Analyse dieser 26 Situationen von Alarmen mit schon bekanntem Ausgang ergab, dass keine von ihnen aus wissenschaftlichen Vorhersagemethoden abgeleitet wurde, und dass alle falsche Alarme waren. In 96% dieser Fälle gab es Maßnahmen der Regierung, und von diesen wiederum stellte sich heraus, dass 92% dieser Maßnahmen in 87% aller Fälle schädlich waren. (siehe auch „Auswirkungen und Ergebnisse des AGW-Alarms: Ein Vorhersageprojekt auf Basis der Methode der ‚strukturierten Analogien’“) (“Effects and outcomes of the global warming alarm: A forecasting project using the structured analogies method”).

Wir stellen alle unsere Ergebnisse auf  publicpolicyforecasting.com zur Verfügung und suchen ständig nach weiteren Beispielen. Dort gibt es auch einen Link zu unserem Global Warming Analogies Project , in dem wir eine Liste aller 26 Analogien zusammen gestellt haben. Mit weiteren Links haben wir einige davon genau beschrieben. Eine Aktualisierung unseres Projektes werden wir auf der 4. Internationalen Klimakonferenz am 18. Mai vorstellen. 4th International Conference on Climate Change .

Aufgrund unserer Studien lautet unsere Vorhersage, dass sich herausstellen wird, wie sehr die AGW-Bewegung falschen Alarm geschürt hat, und dass die negativen Folgen davon noch viele Jahre lang zu bemerken sein werden.

Schlussfolgerungen

Diejenigen, die die alarmistischen Vorhersagen einer gefährlichen anthropogenen Erderwärmung ausgegeben haben, beziehen sich auf das “Vorsorgeprinzip”, um die Anordnungen drastischer Maßnahmen zu rechtfertigen. Dieser Bezug soll den Unsicherheiten Rechnung tragen, wie und warum sich das Klima ändert. Wir haben nachgewiesen, dass die alarmistischen Prognosen nicht auf wissenschaftlichen Verfahren beruhen. Der Ruf nach schwerwiegenden Maßnahmen ist daher unverantwortlich und unlogisch. Es gibt keine wissenschaftliche Begründung dafür, Energie künstlich zu verteuern und die ökonomische Effizienz zu verringern. Falls die politischen Entscheidungsträger ihre Anti-Energie-Politik nicht einstellen, sagen wir voraus, dass die Menschheit noch lange unter den Folgen unnötig teurer Energie und unvorhergesehenen Konsequenzen der Politik bzgl. des Klimawandels leiden wird.

 AGW-Alarm basiert auf fehlerhaften Vorhersagemethoden: Bemerkungen zur 5. Ausgabe des U.S. Climate Action Report 2010

Vorgelegt von:

J. Scott Armstrong (Ph.D., MIT, 1968), Professor an der Wharton School of Management, University of Pennsylvania,  ist der Autor von  Langfristvorhersage,  hat die Site forecastingprinciples.com ins Netz gestellt, und ist Herausgeber von Grundlagen der Vorhersage (Kluwer 2001), eine auf Beweisen basierende Zusammenfassung aller bekannten Vorhersagemethoden. Er ist ein Mitbegründer des Journal of Forecasting, des International Journal of Forecasting, und des International Symposium on Forecasting, und er hat 50 Jahre lang solche Methoden erforscht und wirkte als Berater. (Armstrong@wharton.upenn.edu)

Kesten C. Green von der International Graduate School of Business an der University of South Australia ist Direktor des International Institute of Forecasters und außerdem zusammen mit Scott Armstrong Direktor der Site ‘Vorhersagegrundlagen für die Öffentlichkeit(ForPrin.com). Er hat maßgeblich zwei Vorhersagemethoden entwickelt, die Vorhersagen zu Verfügung stellen, die substantiell genauer sind als herkömmliche Methoden. (Kesten.Green@unisa.edu.au)

Willie Soon ist Astrophysiker und Geowissenschaftler am Solar, Stellar, and Planetary Sciences division of the Harvard-Smithsonian Center for Astrophysics. Außerdem ist er Chefredakteur für solare und stellare Physik  des Jorunals New astronomy. Er hat 20 Jahre lang auf dem Gebiet Klimaänderung geforscht und Ergebnisse veröffentlicht. Alles, was hier von ihm gesagt wird, ist ausschließlich seine eigene Meinung.  (vanlien@earthlink.net

Die Übersetzung besorgte dankenswerterweise Chris Frey EIKE

Literatur

Armstrong, J. S. (1978; 1985), Long-Range Forecasting: From Crystal Ball to Computer. New York: Wiley-Interscience, 1978; 2nd Edition, 1985.

Armstrong, J. S. (1980), “The Seer-Sucker Theory: The Value of Experts in Forecasting,” Technology Review, 83 (June/July), 18-24.

Armstrong, J. S., Green, K.C., & Soon, W. (2008), “Polar Bear Population Forecasts: A Public-Policy Forecasting Audit,” Interfaces, 38, No. 5, 382–405. [Includes commentary and response]

Green, K. C. & Armstrong, J. S. (2007), “Global Warming: Forecasts by Scientists versus Scientific Forecasts,” Energy and Environment, 18, No. 7+8, 995-1019.

Green, K. C. & Armstrong J. S. (2010), “Effects of the global warming alarm: A forecasting project using the structured analogies method,” Working Paper.

Green, K. C., Armstrong, J. S. & Soon W. (2009), “Validity of Climate Change Forecasting for Public Policy Decision Making,” International Journal of Forecasting, 25, 826-832.

Tetlock, P. E. (2005), Expert Political Judgment. Princeton, NJ: Princeton University Press.

Den Originalartikel finden Sie hier bei Climate Depot 




CO2-Kopfpauschale: Neue Schmierung für Merkels lahmenden Klimamotor! Der Westen bezahlt seine eigene Abschaffung

So geschmiert, jagen nun wieder die üblichen "Volksvertreter" in den Parteien los, das gewohnte scheindemokratische Kasperle-Theater abzuspulen. Bei der SPD ist es Ulrich Kelber; bei der FDP – wie gewohnt – Michael Kauch.

Im Hintergrund steht der Versuch, China und Indien mit der Idee der Kopfpauschale nun doch ins Boot einer verbindlichen CO2-Vereinbarung zu locken. Man spekuliert darauf, dass sich die bevölkerungsreichen Länder mit ihrem derzeit geringen CO2-Ausstoß das kostbare Geschenk nicht entgehen lassen werden. 

Die Antreiber und Nutznießer des CO2-Regimes sehen in China mit seinen 1,3 Milliarden Menschen den Markt der Zukunft. Im Bereich Mobilität ist die Verlockung gerade für die Chinesen besonders groß. China und Japan sind führend in der Batterietechnik und China ist obendrein beim Rohstoff Lithium im Vorteil. Was China fehlt, sind die Mittel für Förderprogramme zum Kaufanreiz, denn die Elektro-Autos des chinesischen Hersteller BYD (Build Your Dreams) sind etwa 4 x teurer als die herkömmlichen BYD-Modelle.

Über die CO2-Abgabe sollen den Armen dieser Welt die Mittel in die Hand gegeben werden, die erschlaffenden Gewinnmöglichkeiten auf den gesättigten westlichen Märkten zu ersetzen. Im Klartext heißt das, weil wir Bürger-Schafe hier nicht genug konsumieren, müssen wir neue Fresser heranfüttern.

Mit dem "Nationalen Entwicklungsplan Elektromobilität" will Merkel der ihr willfährigen Wirtschaft neues Futter beschaffen. Deutschland soll zum Leithersteller für Elektromobilität werden. Die Automobilbauer freut es, dass der deutsche Michel ihnen die Chinageschäfte möglich machen soll. 

Dass die Automobilwirtschaft in Gestalt des staatsnahen Autohersteller VW von Anfang an eine Rolle spielte bei der Umsetzung der CO2-Idee in politisches Handeln, ist CDU und FDP zu verdanken. 

Eduard Pestel, CDU, war unter den Gründern des Club of Rome im Jahre 1968. Pestel war ebenso Kuratoriumsvorsitzender der VW-Stiftung. Er initiierte Meadows "Grenzen des Wachstums" und beeinflußte das Werk konzeptionell. Die VW-Stiftung übernahm die finanzielle Förderung. 1972 wurde Meadows Werk dann herausgegeben.

Pestel gründete 1975 das "Institut für angewandte Systemforschung und Prognose e.V." in Hannover, das nach seinem Tod 1988 zum "Pestel-Institut" umbenannt wurde. Er war Vorstand des Haus Rissen, Hamburg, in diese Zeit fiel die Gründung der Deutschen Gesellschaft Club of Rome (DGCoR) im Jahre 1978, deren ersten Vorsitz er bis zu seinem Tod ebenfalls innehatte.

Passend dazu schuf Hans-Dietrich Genscher, FDP, als frischgebackener Innenminister der Regierung Brandt/Scheel 1969 mit der Umweltverwaltung den Apparat, der alle Widerstände aus dem Weg zu räumen hatte und die legislative Basis legen sollte für die große Transformation zur Unterordnung aller politischen Ziele unter das Endziel "Umweltschutz".

Im Hintergrund stand der Gedanke, wie die Beherrschung der Schlüsselindustrien zu erlangen sei. Deutschland mit seiner Untertanen-Mentalität und seinem Kaiser-Wilhelm-Geist wurde gelockt mit der Aussicht, Öko-Weltmacht zu werden. Und nun marschiert Deutschland stramm diesen Weg weiter unter dem Diktat der DDR-geschulten Marschällin Merkel.

Ihr neuer Angriffsplan setzt auf "Elektromobilität", die Bastionen "Stromerzeugung" sind bereits gefallen. Die Stromversorger machen inzwischen jeden technisch und wirtschaftlichen Irrsinn von Offshore bis DESERTEC mit, Hauptsache die Kasse stimmt und man bleibt nicht an den selbst verursachten Folgekosten hängen. Das Volk hat man eingenebelt mit dem trügerischen Glauben Gutes zu tun und mit ein paar Solarmodulen auf dem Dach selber auf der Seite der Gewinner zu sein.

Die Universitäten mit ihren beamteten Professoren spielen mit bei der Volksverdummung und dem Ausverkauf des Landes. Schon im Jahre 2004 schickte der Rektor der Albert-Ludwigs-Universität Freiburg seinen Ehemaligen mit der Einladung zum Alumni-Treffen ein Faltblatt mit dem Slogan "Lieber Zellen auf dem Dach, als Aktien im Keller" mit. Friedrich August von Hayek würde mächtig staunen über seine Universität.

Jürgen Trittin als ehemaliger Kommunist reibt sich die Hände vor Vergnügen, wie bürgerliche Parteien und Industrie sich gegenseitig schmieren, "Kapitalisten" und Politiker ihre verantwortungslose Fratze zeigen. Mehr und mehr wird das Volk diese korrupte Wirtschaft hassen, die käuflichen Parteien verachten – und grün und links wählen. Bei den Europawahlen und den Landtagswahlen in Niedersachsen zeigte sich schon das Zukunftsmodell an zwei Wahlkreisen in Hannover-Linden. Grüne und "Die Linke" zusammen erreichten mehr als 50 Prozent der Stimmen. 

Die Leute vom Club of Rome werden sich ebenfalls freuen, dass Kirchen und bürgerliche Parteien ihnen den Weg bereiten zu einer zentralen Weltensteuerung, in der es weder Nächstenliebe, weder rot noch schwarz noch gelb geben wird, weder rechts noch links, nur Befehl und Gehorsam – und Monopolwirtschaft mit Preisdiktaten.

Die Chinesen handeln längst nach dem Motto: "Egal welche Farbe die Katze hat, Hauptsache sie fängt Mäuse". IPCC-Gründer Maurice Strong, Freund der Rockefeller-Familie, "berät" schon jetzt die chinesische Regierung. Sie werden sich wohl eher gegenseitig beraten und lachen darüber, wie leicht sich der freie Westen auf die Matte legen läßt – und Merkel/Westerwelle Ihnen auch noch dabei helfen.

2 bis 5 Billionen US-Dollar jährlich wollen die neuen Weltenlenker in ihre eigene Tasche spülen. Griefahn-Ehemann Braungart ist dabei wie auch Gorbatschow – und natürlich der NASA-Klimaforscher James E. Hansen.

Von Hanna Thiele. Der Artikel erschien zuerst bei eigentümlich frei.

Internet:

Spendenliste des Deutschen Bundestages

PIK-Report Nr 116 Nach Kopenhagen – Neue Strategie zur Realisierung des 2 Max Klimazieles (PDF)

Nationaler Entwicklungsplan Elektromobilität der Bundesregierung(PDF)

Gorbatschow: Deutschland wird Öko-Weltmacht

Concerted Strategies to meet the Environmental and Economic Challenges of the 21st Century, National Bank of Austria, Vienna,16th – 17th April 2009  (PDF)

Programm, Club of Rome Versammlung in Amsterdam, 2009




Das Greenwashing des deutschen Automobilclubs ADAC

Zum CO2-Marathon

In dem ADAC-Beitrag werden die CO2-Emissionen verschiedener Fahrzeuge bzw. Fahrzeugtypen miteinander verglichen. Eine Belegung der "Klimagefahr" durch Auto-CO2-Emissionen wird dabei sorgfältig vermieden und als naturgegeben vorausgesetzt.  Aber auch in der ADAC-Redaktion sitzen Ingenieure mit guten technisch-naturwissenschaftlichen Kenntnissen, denen die folgende kleine Rechnung geläufig sein dürfte, die von jedermann mit Internet-Anschluss und einem Taschenrechner leicht nachvollziehbar ist:

Schritt 1: Man liest in seinem Kfz-Schein nach, dass der PkW grob 150 g = 0,15 kg CO2 pro km ausstößt. Da man etwa 10.000 km im Jahr fährt, ergibt dies 1500 kg = 1,5 t CO2 im Jahr.

Schritt 2: Die Google Suchworte „Anzahl Pkw weltweit“ fördern zutage, dass es im Jahr 2010 weltweit 1 Milliarde Autos gibt. Über deren Jahreskilometer ist nichts zu erfahren (vielleicht weiß ein besser informierter Leser mehr?), wir ermitteln aus dem Internet lediglich die Jahreskilometer eines deutschen Autos der schon genannten 10.000 km und verwenden diese Zahl hilfsweise als repräsentativ für alle Autos dieser Welt (auf den genauen Wert kommt es nicht an). Somit erzeugt auch jedes Auto weltweit im Schnitt 1,5 t CO2 im Jahr.

Schritt 3: Die Google Suchworte „CO2 Atmung“ ergeben, dass jeder Mensch grob 0,4 t CO2 im Jahr beim Ausatmen erzeugt. Diese Menge ist nicht umweltneutral, denn wir ernähren uns nicht nur von Beeren, wilden Früchten und rohem Fleisch. Allein die Herstellung eines Laibs Brot benötigt die Energie eines Liters Brennöl, wovon der Bäcker bereits 0,7 Liter verheizt. Schlussendlich gibt es aktuell etwa 6 Milliarden Menschen auf der Erde.

Nun ist alles beisammen, und es kann folgende simple Rechnung aufgemacht werden: Die Menschheit erzeugt pro Jahr durch natürliche Atmung 0,4 x 6 = 2,4 Milliarden Tonnen CO2, alle Autos dieser Welt erzeugen 1,5 x 1 = 1,5 Milliarden Tonnen CO2. Das von allen Autos dieser Welt emittierte CO2 entspricht also in der Größenordnung dem CO2 aller Erdenbürger, wie sie es beim Ausatmen erzeugen.

Diese kleine Abschätzung könnte man dem Parlaments­vertreter seiner Partei unter die Nase halten und ihn befragen, wie er die CO2-Steuer sachlich zu begründen denkt! Dazu muss man vielleicht noch bedenken, dass die CO2-Erzeugung proportional dem Kraftstoffverbrauch folgt. CO2 fällt in fester stöchiometrischer Menge bei der Benzinverbrennung an. Die CO2-Steuer ist nichts anderes als eine Verbrauchssteuer, die mit der „Rettung der Welt vor dem Wärmetod“ nichts zu tun hat. Gegen eine Verbrauchssteuer ist nichts einzuwenden, der Anreiz zum Entwickeln verbrauchsarmer Autos ist grundsätzlich zu begrüßen, und der Staat braucht immer Geld. Allerdings sollte dies nicht über den Weg der Volksverdummung geschehen!

Der Autor bot bereits vor längerer Zeit der ADAC-Leitung an, über solche elementaren Fakten zum „Schadgas“ CO2 einen Beitrag in der ADAC Motorwelt zu verfassen. Dies wurde mit einem sehr freundlichen und verständnisvollen Brief vom 20.9.2009 negativ beschieden, von dem ein bemerkenswerter Abschnitt im Folgenden wörtlich zitiert sei:

In der Tat ist bisher nicht hundertprozentig nachgewiesen, dass sich der zunehmende CO2-Ausstoß unserer Industriegesellschaft negativ auf das Weltklima auswirkt. Bitte berücksichtigen Sie jedoch, dass wir es unseren Kindern, Enkelkindern und den nachfolgenden Generationen schuldig sind, präventiv zum Klimaschutz und zur Schonung der endlichen Ressourcen fossiler Energien beizutragen – und oder gerade wenn Ursache und Auswirkung nicht endgültig geklärt sind, sollte das Vorsorgeprinzip gelten

Man nimmt also im ADAC billigend hin, dass im Interesse von "Klimaschutz", dessen Wirkung eingestandenermaßen als ungewiss beurteilt wird, dennoch keine Fakten berichtet werden dürfen. Jeder Zeitgenosse mit historischen Kenntnissen erinnert sich, hmmm… war da nicht schon mal etwas in Deutschland in dieser Richtung? Ferner präferiert man beim ADAC politisch korrekt das Vorsorgeprinzip. In Ordnung, aber wenn die Vorsorge so teuer ist, dass durch sie echter Naturschutz nicht mehr finanziert werden kann? Vorsorge ist doch wohl nur dann sinnvoll, wenn wenigstens eine kleine Chance auf die "Klimakatastrophe" durch anthropogenes CO2 besteht. Wie EIKE, durch Fakten belegt, immer wieder nachweist, kann noch nicht einmal von dieser kleinen „Chance“ die Rede sein. Daher ist zu konstatieren:

"Klimaschutz" ist für die wiederauferstandenen Ideologen ein Kampfbegriff (das Proletariat wird nicht mehr ausgebeutet, es fliegt nach Mallorca, daher wird jetzt eben die Natur ausgebeutet), für "Gutmenschen" eine neue Religion und für naturwissenschaftlich Gebildete blanker Unsinn.

Dennoch, der Autor hat viel Verständnis für den ADAC, denn sein Vorstand möchte schließlich auch in der nächsten Periode wiedergewählt werden. Immerhin wird die oben aufgeführte kleine Berechnung als offener Leserbrief der ADAC-Redaktion zugeschickt. Es ist kaum zu erwarten, dass dieser Leserbrief veröffentlicht wird – 15 Millionen Leser, um Gotteswillen, das ist definitiv politisch zu brisant! Sollte die Nichtveröffentlichung erwartungsgemäß zutreffen, werden alle ADAC-Mitglieder, die diese News lesen, gebeten, dem ADAC per E-mail die Veröffentlichung anzumahnen. Nützen wird es natürlich nichts, denn auch dem ADAC dürften die Zahlenverhältnisse der inzwischen zwar sehr zahlreichen EIKE-Leser, aber den ungleich zahlreicheren Lesern seiner "Motorwelt" bekannt sein.

Zum Fahrbericht des Elektroautos Opel Ampera:

Bei allem „Greenwashing“, hier berichtet der ADAC zwar extrem vorsichtig, aber im Großen und Ganzen korrekt. Man muss schon eine rotgrüne Ökobrille aufsetzen, um die eindeutige Botschaft zwischen den Zeilen zu überlesen: Mit dem Elektroauto als alltagstauglichem PkW, das einem klassischen Benziner oder Diesel Konkurrenz macht, wird es nichts. Und man benötigt zu dieser Erkenntnis noch nicht einmal besondere technische Kenntnisse. Elektrische Energie ist nämlich praktisch nicht zu speichern, allenfalls nur großtechnisch über teure und verlustreiche Umwege, wie beispielsweise Pumpspeicherwerke. Nach einem ordentlichen Batteriekonzept wird bereits geforscht, solange es industrielle Elektrizität gibt. Dass hier in Zukunft noch entscheidende Durchbrüche erfolgen, würde an ein Wunder grenzen. Der Energie-Inhalt einer modernen Lithium-Ionen-Batterie, die von Gewicht und Kosten gerade noch für ein alltagstaugliches Auto tragbar ist, beträgt etwa 1/40 eines vollgefüllten Benzintanks, von den hohen Ladezeiten etc. ganz zu schweigen. Alle weiteren Erläuterungen zu diesem Thema sind eigentlich überflüssig, denn EIKE hat bereits mehrfach über das Thema berichtet, etwa hier.

Trotz offenkundiger Fakten bleibt die Klima- und Energiepolitik unserer Bundesregierung ungerührt. „Der Westen bezahlt seine eigene Abschaffung“ titelt „eigentümlich frei“ in seinem Beitrag „CO2-Kopfpauschale: Neue Schmierung für Merkels lahmenden Klimamotor“. Der ausgezeichnete Beitrag von eigentümlich frei (hier) spricht für sich und wird dem geneigten Leser wärmstens anempfohlen.

Prof. Dr. Horst-Joachim Lüdecke

EIKE-Pressesprecher

Nachtrag der Redaktion (25.5.10)

Der ADAC hat auf den Leserbrief von Prof. Lüdecke (s. Text unten) geantwortet. In  seiner Antwort erkennt er die Korrektheit der von jedermann nachvollziehbaren "Milchmädchenrechnung zur angeblichen CO2-Schädigung" durch das Auto an und beruft sich dennoch auf die Erkenntnisse des IPCC, die Gegenteiliges aussagen. Dieses Maß an intellektueller Selbstverleugnung ist nicht mehr zu übertreffen. Immer wieder wird heutzutage mit dem Blick auf unsere unselige deutsche Vergangenheit vor etwa 75 Jahren gefragt "wie konnte so etwas in einem Volk mit einem hohen Anteil an akademisch bestens Gebildeten eigentlich passieren?". Die hier veröffentlichte Antwort des ADAC gibt vielleicht eine  Antwort auf diese Frage.

Anwort des ADAC am 11.5.10 durch Frau Schmidt-Loebe
Betreff: ADAC – MN 064134230 – 06413423ME90131

Sehr geehrter Herr Professor,

vielen Dank fuer Ihre Mail. Wir bitten Sie um Verstaendnis dafuer, dass aufgrund der vielen Zuschriften nicht jedem Wunsch einer Veroeffentlichung als Leserbrief entsprochen werden kann.

Auch wir sind der Meinung, dass die Klimadiskussion mit Augenmass gefuehrt werden sollte. Jedoch kann der ADAC von seiner Vereinsidee her keine Klimaforschung betreiben, sondern ist Themen der individuellen Mobilitaet verpflichtet.

Deshalb koennen wir auch beim Thema CO2 nebst Klima-Implikation weder eine Klimageschichte der Erde in fundierter Breite liefern, noch uns tiefer auf das Fuer und Wider der derzeit gehandelten Klima-Theorien- und Prognosen einlassen. Unser Ansatz ist auf den aktuellen Report des Weltklimas gestuetzt und folgender:

Was kann der Autofahrer ganz persoenlich tun und was tut die Industrie, um der vom IPCC (Zwischenstaatlicher Ausschuss fuer Klimaaenderungen, auch als Weltklimarat bekannt) prognostizierten Klimaveraenderung zu begegnen? Denn wir finden, dass einer nachhaltigen Erwaermung der Atmosphaere begegnet werden muss, ganz gleich, ob dies einem jahrmillionenalten Auf und Ab entspricht oder nicht. Die zu erwartenden Auswirkungen auf unser direktes Leben und das unserer Nachfahren, koennen uns nicht egal sein. Von Schaden kann es jedenfalls nicht sein, wenn wir unsere Mobilitaet so gestalten, dass sie moeglichst wenig Folgen zeigt. Und dies wird in Zukunft nur mit alternativen Antrieben und Kraftstoffen moeglich sein.

Etwa 19 Prozent der anthropogenen – also vom Menschen beeinflussbaren – Kohlendioxydemissionen in Deutschland stammen aus dem Verkehr, rund 12 Prozent vom Pkw. Daher kann und sollte auch der Pkw-Verkehr einen Beitrag zur Reduktion des CO2-Ausstosses leisten. Der Schwerpunkt von Massnahmen muss aber naturgemaess in anderen Sektoren liegen, vor allem bei Kraftwerken und Industrieprozessen, Heizungs- und Klimaanlagen von Haeusern.

Bei dieser Gelegenheit bedanken wir uns ganz herzlich fuer Ihre jahrzehntelange Clubtreue und hoffen, dass Sie dem ADAC noch viele Jahre Ihr Vertrauen schenken werden.

Mit freundlichen Gruessen

Andrea Schmidt-Loebe

Allgemeiner Deutscher Automobil-Club e.V. (ADAC e.V.) 
Mitgliederservice (MBE) 
Mitgliedschaft + Versicherungen 
Tel.: 089 7676 2581 
Fax: 089 7676 6346 
http://www.adac.de/impressum




Die Natur nicht menschliche Aktivität bestimmt das Klima!

*  Die IPCC – Modelle verwenden den Treibhaus-Effekt, um zu errechnen, was in der Zukunft  geschehen könnte bei einem Anstieg des CO2.  Aber die Modelle weisen große Variabilität  auf und können die Wirkung der Wolken nicht richtig handhaben: Wolken spielen aber eine  wichtige Rolle in der globalen Temperaturänderung.  Ferner ignorieren oder unterschätzen die Modelle den Einfluss der Sonnenaktivität auf das Klima.  Zudem können die Modelle das regionale Klima nicht genau vorhersagen: verschiedene Modelle geben sehr unterschiedliche Ergebnisse für das gleiche Gebiet.  

*  Äußerst wichtig ist, dass die „Fingerprint“-Methode ( Vergleich von beobachteten und modellierten Mustern der Temperatur-Trends) schlüssig zeigt, dass der Einfluss von Treibhausgasen auf den Klimawandel im Vergleich zu natürlichen Kräften nicht signifikant ist.  [Fig. 1] 

Es gibt viele, bekannte, natürliche Ursachen von Temperaturschwankungen: interne Effekte, wie z.B.die Nordatlantische Oszillation, die Atlantische, Multi-Dekadische Oszillation, die Pazifisch-Dekadische Oszillation und die El-Nino-Süd-Oszillation (ENSO).  Diese sind alle wesentlich, doch Klima-Modelle können sie nicht prognostizieren. 

Das IPCC hat auch die externen, natürlichen Wirkungen als trivial bewertet, wie z.B. die Sonnenaktivität und deren Einfluss auf die Wolken-Bedeckung.  Der IPCC Bericht hat die Grundlagenforschung in diesem Bereich nicht einmal richtig angesprochen oder gar diskutiert.  Doch der enge Zusammenhang zwischen Sonnenaktivität und Klima ergibt sich aus historischen Daten; die Ursache-Wirkungkette kann nur in einer Richtung laufen

Abgesehen von den Modellen, haben die von dem IPCC verwendeten Daten viele Probleme.  Daten zur Oberflächentemperatur der Erde erzeugen Probleme bei der Bewertung der städtischen Wärme-Insel-Effekte, die ungleichmäßige, geographische Verteilung der Mess-Stationen, die Veränderungen bei der Anzahl und der Orte der Stationen usw.  Die Methode für die Messung der Temperatur der Meeresoberfläche hat sich verändert: von früher überwiegend von Schiffen aus, zu heute überwiegend mit Bojen, und damit verbunden eine Veränderung der Wassertiefe für die Temperaturmessung.  Also nicht nur die Modelle sind unzuverlässig, die zugrunde liegenden Daten haben erhebliche Fehlermargen.  

Der Anstieg des Meeresspiegels ist ein beliebtes Katastrophen-Szenario für Prognosen der AGW-Gläubigen.  Aber in den vergangenen Jahrhunderten stieg der globale Meeresspiegel  um ca. 18 mm/Jahrzehnt — unabhängig davon, ob die Kühlung oder die Erwärmung dominierte.  Die maximalen IPCC-Projektionen für den Anstieg des Meeresspiegels haben sich in jedem der vier aufeinander folgenden Berichte verringert.  Die AGW-Fanatiker, darunter Al Gore, sagen dennoch nach wie vor katastrophale Überschwemmungen der Küsten  voraus. (Al Gore: Bis zu 6 Meter im Jahre 2100!!)   

Das IPCC geht a priori davon aus, dass erhöhtes CO2 schlecht ist, und ignoriert seine positiven Wirkungen.  Aber höhere CO2-Konzentrationen verbessern die Produktivität  und Trockenresistenz in der Landwirtschaft und in den Wäldern, und führen zu weniger  Wasser Gebrauch.   Also dazu, dass weniger Wasser eingesetzt werden muss.  Globale Erwärmung, so schätzen amerikanische  Wirtschaftsexperten, wird eine positive Wirkung auf die Wirtschaft haben.    

Zusammenfassung:  Das NIPCC zeigt, dass Kohlendioxid kein Schadstoff ist.  Deshalb  sind CO2 -Minderungsmaßnahmen sinnlos, und extrem teuer — und völlig uneeffektiv um zur der Verringerung der globalen Erwärmung beizutragen.  Katastrophen-Prognosen der globalen Erwärmung sind weder durch Daten noch durch  Modelle begründet.  Natürliche Ursachen, vor allem die Sonne, waren offensichtlich die  wichtigsten Triebkräfte der Klima-Schwankungen in der Vergangenheit und werden es auch in Zukunft sein.  Der Klimawandel ist natürlich und unaufhaltsam. Die beste Politik besteht darin die Anpassung an ein wärmeres oder kälteres Klima zu unterstützen. 

Lesen Sie die Zusammenfassung für politische Entscheider im Anhang (deutsch & englisch) oder auch den Hauptbericht des NIPCC "Climate Change Reconsidered" hier

Die Website des NIPCC mit allen Angaben finden Sie hier

Die Zusammenfassung für politische Entscheider ist in deutsch erschienen bei TvR Medien unter ISBN-10: 3940431087

Related Files




Wissenschaftliches Klimakolloqium in Karlshafen bei Göttingen!

Einladung 

16. Göttinger Colloquium am Samstag, 5. Juni 2010, 9:30 – 13.00 h 

in Bad Karlshafen a.d.Weser, Großer Saal im Kurzentrum 

unter der gastgebenden Schirmherrschaft von Bürgermeister Ulrich Otto  

Thema:        „Fakten zum Klimawandel“ 

                   – Ein Beitrag zu objektiver Orientierung – 

Referent:             Prof. Dr.rer.nat. Friedrich-Karl Ewert 

                           Diplom-Geologe / Universität Paderborn 

                           Europäisches Institut für Klima und Energie, Jena 

———————————– 

  9:45 h   o       Einleitung und Grußwort              Baurmeister / Bürgermeister Otto 

    

10:00 h   o       Vortrag                Ewert 

11:00 h   o        Erfrischungspause             ½ Std.  

11:30 h  o        Diskussion – Gedankenaustausch            Schmahl / Baurmeister 

12:30 h  o        Zusammenfassung der Ergebnisse           Harder 

12:45 h   o        Schlusswort 

13:00 h   o        Ende des Colloquiums 

                                          !  Pressegespräch !   

  

Wir laden Sie herzlich ein in unseren interdisziplinären Arbeitskreis Göttinger Naturwissenschaftler und  Ingenieure. Über Ihre Teilnahme an einem Gedankenaustausch – wofür insgesamt 3 Stunden vorgesehen sind – würden wir uns sehr freuen.  

Bitte beantworten Sie unsere Einladung bis spätestens 15. Mai 2010 per Fax 05276 – 323 oder per e-Mail an: joma-baur@t-online.de. Geben Sie bitte beim e-Mail als Betreff  bitte „Colloquium“  und in Ihrer Nachricht bitte Ihre Anschrift an.  Danke!  

Mit freundlichen Grüßen 

Dipl-Ing. Joachim Baurmeister  Prof. Dr. Dietrich Harder    Prof. Dr. Günther Schmahl 

VDE-VDI – Göttingen                Universität Göttingen       Universität Göttingen  

Göttinger Colloquium für ethische Fragen in Wissenschaft und Technik   

D-37085 Göttingen, Hainholzweg 2; Fax-Nr. : 05672 . 323 

Dipl.-Ing. Joachim Baurmeister (Sprecher) 




Katastrophaler Rückzug der Gletscher auf Spitzbergen! Brandheiße Meldung von: 1934!

Abschnitt 162

Die Wortwahl aus diesem Absatz von Seite 471 (oben) wirkt vertraut, nur die Jahresangabe 1934 nicht:

Katastrophaler Rückzug der Gletscher auf Spitzbergen

Nun, die Realisten wissen, wie warm 1934 war (nur Hansens GISS und die übrigen Leugner versuchen die Warmphase der 1930er Jahre und die anschließende Abkühlung abzustreiten).

In diesem Abschnitt werden temperaturanomalien von bis zu 10°C erwähnt:

Temperaturanomalien

Das Eis ist in großen Gebieten verschwunden:

Eisschwund

Wind scheint eine Rolle beim Verschwinden des Eises aus dem arktischen Becken gespielt zu haben:

Wind-Einfluß

Die Erwärmung ist nicht beendet:

Erwärmung

Hier ist der Buchtitel:

Buchtitel

All diese Mitteilungen über einen katastrophalen Eisschwund klingen vertraut, nur eben das Jahr der Veröffentlichung nicht:

vorwort

Ganz offensichtlich hat es in der Arktis schon immer ein Auf und Ab des Eises gegeben. Veränderung ist die Normalität, nicht – wie uns die Alarmisten etwa beim NSIDC oder Rahmstorf einreden wollen – ein absolut stabiler Zustand, der bis zum „Eingriff” durch den Menschen in Gestalt der „Treibhausgas-Emissionen” andauerte.

Von Klimaskeptikerinfo
externer Link Quelle (englisch, externer Link) 




500 Jahre nach Kolumbus: Klimamodelle betrachten die Erde als Scheibe!

Dieser Annahme zufolge wird die Erde als Scheibe betrachtet, die Sonne scheint Tag und Nacht mit gleichbleibender Stärke, und die Temperatur der Erdoberfläche ist konstant.

Alle Mengen auf der Grafik werden als richtig genähert bis auf Watt/m2 angegeben, doch im Papier werden die Zahlen als mit sehr hoher Ungenauigkeit behaftet und als nicht messbar be­zeichnet. Stattdessen müssten sie immer "qualitativ abgeschätzt" werden. Mit diesem Vorge­hen wäre es möglich, die Ungenauigkeiten bis auf die nötige Ebene anzuheben, um eine "ausgeglichene" Energiebilanz darzustellen. Die gesamte ankommende Energiemenge wird der abgehenden Energiemenge gleich gesetzt. Auf diese Art und Weise könnte man jetzt die Wirkung der zusätzlichen Treibhausgase errechnen. Falls es keinen Ausgleich gäbe oder der Ausgleich variieren würde, wäre es unmöglich, die Wirkung der zusätzlichen Treibhausgase  zu errechnen.

Jetzt hat es im folgendem Papier einen Sinneswandel gegeben.

Trenberth, K E, J T Fassulo, and J T Kiehl. 2009 Earth’s Global Energy Budget. Bull Am. Met. Soc. 90 311-323.

Dieses Papier führt doch tatsächlich eine vollständige Neubewertung der Zahlen aus dem er­sten Papier durch. Die korrigierte Version mit dem Mittelwert zwischen März 2000 und Mai 2004 zeigt nachfolgende Grafik.

Die Erde wurde nun gründlich abgeflacht, so als ob sie von einer kosmischen Dampfwalze überrollt worden wäre. Die meisten Zahlen sind verändert. Diejenigen für die einfallende und für die ausgehende Strahlung sind jetzt offensichtlich bis auf eine Dezimalstelle genau. Bei den übrigen gibt es Schwierigkeiten. Das Papier steckt voller Diskussionen, wie man die "qualitati­ven Schätzwerte"  der mit ihnen möglicherweise verbundenen Unsicherheit verbessern könn­te. Aber derzeit wird es für unmöglich befunden, ihre Abschätzfähigkeit genügend auszuweiten. Also ist sie [die Erde] im Zeitraum von 2000 – 2004 bis zu 0,9 Watt/m2 pro Jahr  aus dem Gleichgewicht.

Unglücklicherweise gibt es keinen Zweifel, dass die Erdtemperatur während dieser Periode abgekühlt ist. Das Papier ist daher ein sicherer Beweis, dass die ursprünglichen Konzepte hin­ter den Modellen falsch sind.

Das sollte doch ins Auge springen: Die Erde dreht sich. Die Sonne scheint nicht nachts. Die Temperatur ist nicht konstant. Jeder Teil der Erde hat eine unterschiedliche Energie-Einstrah­lung und Abstrahlung.

Es gibt eine korrekte mathematische Behandlung. Sie würde die Aufteilung der Erdoberfläche in eine große Zahl von winzigen Inkrementen umfassen und der Energie-Input und Output müsste für jedes einzelne berechnet werden, wobei die Veränderungen bei allen daran betei­ligten Faktoren einzuschließen wären. Sodann müsste eine riesige Integration aller dieser Re­sultate durchgeführt werden, um eine vollständige Energie-Bilanz der Erde zu erstellen. Erst wenn dieses wiederholt über einen langen Zeitraum durchgeführt worden wäre, könnte der Einfluss einer Zunahme von Treibhausgasen zu erkennen sein.

Für eine derartige Übung gibt es derzeit und wahrscheinlich auch in Zukunft keine Daten.

Bis dann müssen wir uns mit den von den Meteorologen während der vergangenen beiden Jahrhunderte entwickelten Methoden begnügen, und hoffen, dass diese zukünftig erweitert werden können, um uns das Werkzeug für die Beurteilung der klimatischen Auswirkungen von zusätzlichen Treibhausgasen an die Hand zu geben.

Die derzeit befürwortete Treibhausgas-Theorie ist tot und deren Folgemaßnahmen müssen schleunigst beseitigt werden.

"Es ist gut, einen Fehler zu beseitigen, und manchmal ist das besser, als eine neue Wahrheit oder neue Tatsache in die Welt zu setzen."
Charles Darwin

Vincent Gray*, Wellington

* Dr. Vincent Gray ist Chemiker, sowie IPCC Expert Reviewer seit 1991 und einer der fleißigsten dazu. Dr. Gray ist Mitbegründer der New Zealand Climate Science Coalition und arbeitet seit dieser Zeit ausschließlich an Klimafragen.




Anti-Windkraft-Demo in Berlin! Am 15.5. Gesamtdeutsche Anti-Windkraft Kundgebung am Brandenburger Tor – Pariser Platz

Mehr Information dazu hier!




Salzbergwerk „Asse“ ein Desaster – für wen eigentlich?

Im stillgelegten Salzbergwerk "Asse" bei Woifenbüttel wurden über Jahrzehnte, nachdem es dort kommerziell nichts mehr auszubeuten gab, Versuche zur Endlagerung von schwach- und mittelradioaktivem Abfall gemacht. Nun wurde die Offentlichkeit durch Fernsehberichte und Zeitungsartikel aufgeschreckt: ,,Asse stürzt ein", "Asse säuft ab", Asse verseucht das Grundwasser radioaktiv", "Asse als Endlager ungeeignet", "Asse – ein Atomdesaster" lauteten die Schlagzeilen und ich sagte, das will ich selbst sehen. Hier die Ergebnisse: 

> "Asse stürzt ein" – Falsch! Salzbergwerke wie die "Asse" können nicht einfach einstürzen. Salz verhält sich geologisch nämlich wie Knetmasse ("Viskoplastizität"), die verschoben werden kann, ohne dabei einzustürzen 

> "Asse säuft ab" – Falsch! Die Kaverne des Wassereintritts befindet sich in 658 m Tiefe. Die Flüssigkeit ist gesättigte Salzlauge. Es wird gesammelt und einmal pro Woche, nach "Freimessung zur Unbedenklichkeit" mit einem Tankwagen in die 100 Kilometer entfernte Grube "Maria Glück‘ gefahren. In Norddeutschland werden ausgebeutete Salzbergwerke oft durch Fluten mit Wasser still gelegt. Das Wasser macht sie geologisch stabil. Anfangs löst das Wasser noch etwas Salz auf, bis es gesättigt ist. Danach ist die gesättigte Lauge sogar weniger kompressibel als das etwas poröse Salzgestein. 

> "Asse verseucht das Grundwasser radioaktiv" – Falsch!

Das ist völlig absurd. Es wurde der bergmännische Begriff "Grundwasser" (Wasser am Grunde des Bergwerkes), mit dem hydrologischen Begriff "Grundwasser" verwechselt. Das hydrologische Grundwasser gehört nach EU Wasserrahmenrichtlinie zum Oberflächenwasser eines Flussbassins, nicht aber Tiefenwasser 638 m unter der Erde. 

> "Asse als Endlager ungeeignet" Falsch!

Der Abraum wurde nicht oberirdisch auf Halde gefahren, sondern unter Tage belassen, indem die ausgeräumten rechteckigen Kavernen ( 60x40x20 Meter) größtenteils gleich wieder mit Abraum verfüllt wurden. Um die "Bergmechanik" und die Eignung zur Endlagerung zu untersuchen, wurden dreizehn leere Kavernen mit radioaktivem Abfall gefüllt, eine in 490 Meter Tiefe mit mittelaktivem und zwölf in 7~ Meter Tiefe mit schwachaktivem. Alles wurde in 125000 Fässern von jeweils 200 Litern Inhalt angeliefert. Einmal stürzte eine Ladung Fässer vom Transporffahrzeug. Ein Teil davon platzte auf. Das kontaminierte Material hatte eine Radioaktivität von maximal 8000 Becquerel Cs-137/kg. Er war noch nicht einmal schwachaktiv, weil damals die Untergrenze für schwachaktiven Abfall bei 10000 Becquerel/kg lag. Heute liegt sie bei 1000 Becquerel/kg. Seinerzeit brauchte die Asse GmbH keine Genehmigung, um das Unfallmaterial in 1000 Meter Tiefe beim Wiederauffüllen der Forschungsstrecken zu verfüllen. 

> "Asse- ein Atomdesaster" – Falsch!

Die Kaverne mi t dem höchsten Dosiswert wurde genau beobachtet. Eine Schautafel zeigt den Verlauf ihrer Dosiswerte in den vergangenen Jahrzehnten. Sie nahmen erst jahrelang stark ab. Danach fielen sie viele Jahre linear ab und waren damit für die Zukunft voraus berechenbar. Deshalb wurden die Messungen eingestellt. Eine andere Kaverne wurde nur teilverfüllt und durch ein Eisengitter gesichert, damit Besucher noch etwas sehen und eigene Messungen machen können. Einmal hat ein Besucher mit seinem eigenen hochempfindlichen Geigerzähler tatsächlich vor dem Eisengitter erhöhte radioaktive Strahlung gemessen. 

Es zeigte sich aber, dass die Strahlung von Kobaltspuren (Co-60) im Eisengitter stammte. Hinter dem Gitter war nur die extrem schwache Strahlung (des K-40) vom Füllmaterial zu messen. Bezüglich der Grenzwerte sollte man wissen: Der deutsche Grenzwert für Milch mit der wissenschaftlichen Bewertung "absolut unbedenklich" ist 500 Becquerel Cs-137/l. Rheumapatienten im Wannenbad in Bad Schlema legen sich in Badewasser mit 2000 Becquerel Ra-222/l. Demgegenüber sind 8000 Becquerel Cs-137/kg Salzmasse noch nicht einmal radiotherapeutisch nutzbar, weil niemand einfach so ein paar Gramm Salz mit dem Löffel essen würde. Übrigens, kann jedermann, Kleinkinder und Schwangere ausgenommen, nach Anmeldung bei "Info Asse" in das Bergwerk einfahren, seine eigenen Messgeräte mitnehmen und sich vor Ort kundig machen. Um mit den Worten von Jacques Delors, französischer Sozialist und dreifacher Präsident der Europäischen Union, zu enden: "Angstmachen ist ein Verbrechen an der Demokratie." 

Dr. Gerhard Stehlik 

 

 

Related Files




Drei Anmerkungen zum zwei Grad Ziel, z.B. Es gibt keine „mittlere globale Temperatur“

Es gibt keine „mittlere globale Temperatur“

Die uns umgebende Luft wird nicht von oben, von der Sonnenstrahlung erwärmt, sondern von unten, vom Boden aus. Denn diesen erreicht das Sonnenlicht fast ungehindert, um in Teilen absorbiert und als infrarote Wärmestrahlung wieder emittiert zu werden. Was man „Erderwärmung“ nennt, ist also lokal, je nach Beschaffenheit der Oberfläche, völlig unterschiedlich. Die Kugelgestalt der Erde, als deren Folge die einfallende Energiedichte pro Fläche in hohen Breiten im Mittel deutlich geringer als in äquatorialen Regionen ist, trägt das ihrige dazu bei. Zwei beliebige Thermometer an verschiedenen Orten auf diesem Planeten bzw. die sie umgebenden Luftreservoirs stehen daher nicht im thermischen Gleichgewicht miteinander (denn sie sind einem ständig differierenden Wärmezustrom ausgesetzt). Die Angabe eines mittleren Temperaturwertes zwischen diesen beiden Reservoirs ist also physikalisch sinnlos, sie entspricht keinem in der Realität feststellbaren Aspekt. Man kann es aber auch einfacher erläutern, angepaßt an die Möglichkeiten der Laien in der Politik und in den Medien.

Man betrachte zwei Menschen. Der eine habe eine Masse von 70 kg, der andere eine von 90 kg. Offensichtlich wiegen beide zusammen 160 kg. Eine Waage, auf die sich beide gleichzeitig stellen, würde das jedenfalls anzeigen. Und dieser Waage ist es nun gleich, ob sich diese beiden, oder zwei andere Personen mit jeweils einem Gewicht von 80 kg auf ihr tummeln. Es ist also sinnvoll, in diesem Beispiel von einer mittleren Masse von 80 kg zu sprechen. Nun habe der eine mit einer Körpertemperatur von 34° eine Unterkühlung. Der andere wiederum habe Fieber mit 40°. Haben beide zusammen eine Temperatur von 74°? Und welches Meßgerät könnte diesen Wert wiedergeben, welchen Effekt hätte dieser Wert also in der Realität? Wäre es zweitens nützlich, den Durchschnitt zu bilden? Sind ein Mensch mit einer Unterkühlung und einer mit Fieber äquivalent zu zwei anderen Menschen, die jeweils eine Körpertemperatur von 37° aufweisen und keiner Behandlung bedürfen?

Zwei Orte auf diesem Planeten mit Temperaturen von 10° und 20° entsprechen eben in ihrer Addition nicht einem Ort, an dem es kuschelige 30° hat. Und man kann sie auch nicht mit zwei anderen Orten mit jeweils 15° gleichsetzen. Aber genau dieser Unfug geschieht, wenn Klimaforscher Kurven der globalen Mittelwerte absoluter Temperaturen oder Temperaturanomalien berechnen. Natürlich, das mathematische Schema zur Berechnung eines Mittelwertes existiert. Ob seine Anwendung aber auch ein sinnvolles Resultat liefert, entscheidet die Physik, und nicht die Mathematik.

Und die Physik spricht hier ein klares Urteil: Die Temperatur ist eine innere Zustandsvariable eines Systems und sie darf nicht räumlich über mehrere getrennte Systeme hinweg gemittelt werden, die miteinander nicht im thermischen Gleichgewicht stehen. Es existiert daher weder ein globaler Mittelwert der Temperatur in bodennahen Schichten, noch ein solcher der Temperaturanomalie. Daß man ihn berechnen kann, ändert nichts an seiner Irrelevanz.

Es gibt kein qualitätsgesichertes und valides Meßverfahren

Aber seien wir gnädig und nehmen an, „globale Mittelwerte“ könnten zumindest ein valider Index für reale Vorgänge sein. Sie könnten es sein, gäbe es denn ein qualitätsgesichertes und standardisiertes Verfahren für die zugrundeliegenden Meßwerte. Und genau dieses existiert nicht. Vielmehr verfügt man über ein ungleich über die Landoberfläche verteiltes Sammelsurium von Thermometern unterschiedlichster Bauart. Die noch dazu von irgendwelchen Personen irgendwann und irgendwie abgelesen werden, ganz nach persönlicher Befindlichkeit. Gut, auf dem Land sind diese „Ableser“ in der Regel Meteorologen, von denen man Gewissenhaftigkeit und Seriosität bei der Erledigung ihrer Arbeit erwarten kann. Aber gemeinhin wurden ein Ortswechsel der Station selbst (und sei es nur um wenige hundert Meter wegen eines Bauvorhabens), eine Änderung der Instrumentierung, eine Änderung der Bodenbeschaffenheit und der Umfeldbebauung nicht ausreichend (wenn überhaupt) dokumentiert. Und die Bestimmung von Temperaturen auf den Meeren, die immerhin 2/3 der Erdoberfläche ausmachen, oblag und obliegt immer noch in großen Teilen meteorologischen Laien auf allerlei Schiffen und Booten, die mehr oder weniger zufallsgesteuert herumfahren und dabei kaum die gesamte Fläche der Ozeane gleichmäßig in Raum und Zeit erfassen. Natürlich, heute kann man Bojen verwenden, Satelliten und gar eine Roboterflotte, die im Meer treibt. Aber entscheidend zur Interpretation der Messungen sind nicht aktuelle Wert der vergangenen Jahre. Sondern die lange Zeitreihe der vergangenen 100-150 Jahre. Denn nur diese gestattet die Ableitung statistisch signifikanter Trends. Und die Ungenauigkeiten, denen man sich in der Vergangenheit schuldig gemacht hat, sind rückwirkend nicht mehr korrigierbar.

Obwohl genau dies versucht wird. All die vielen schönen Kurven stellen ja nicht wirklich gemessene Werte dar. Sondern Temperaturen, von denen die Forscher glauben, daß sie mit einem perfekten Netzwerk perfekter Stationen bei ordnungsgemäßer Ablesung gemessen worden wären. Die realen Werte gehen dazu in ein Computermodell ein, mit dem die verschiedenen Korrekturen angebracht werden. Nun wissen wir spätestens seit den Arbeiten von Anthony Watts, wie gering die Qualität der Messungen tatsächlich ist. Und wir wissen spätestens seit Climategate, wie wenig Sorgfalt auf die Rechenmodelle verwendet wurde. Nicht nur die Vernichtung von Rohdaten, auch die schlechte Programmierung und Dokumentierung der Analysesoftware, von der heute keiner mehr weiß, was sie eigentlich genau treibt, sind bemerkenswert.

Wir leben in einer Zeit, in der in industriellen Maßstäben Qualitätssicherung auf einem hohen Standard etabliert wurde.  Es gibt ein strukturiertes Umfeld von Zertifizierung, Validierung und Normung, in der jedes Produkt eine Vielzahl exakt dokumentierter und von Prüfbehörden ständig überwachter Tests und Messungen über sich ergehen lassen muß. Und in dieser Zeit glauben Politiker weitreichende Entscheidungen auf der Basis von Werten treffen zu können, die keinen solchen Standards unterliegen? Die in keiner Weise qualitätsgesichert und von unabhängigen Dritten überprüfbar sind?

Es gibt keine wissenschaftliche Grundlage

Wie ist eigentlich dieses strategische Ziel der Klimapolitik unter diesen Voraussetzungen zustande gekommen? Spätestens seit den offenen Worten Herrn Schellnhubers im Spiegel weiß man es ganz genau. Die “zwei Grad” beruhen nicht auf wissenschaftlichen Arbeiten, die bei einer Überschreitung dieser Grenze Katastrophen vorhersagen. Faktisch ist heute unklar, was die globale Erwärmung mit sich bringt. Denn auch die extremsten Wetterereignisse sind letztendlich Vorgänge auf lokaler Ebene und diese entziehen sich bislang den Möglichkeiten der Klimamodellierer und der Rechenkraft ihrer Supercomputer. Wenn aber Mikroklimata auf regionalen und lokalen Skalen nicht simuliert werden können, dann gibt es keine Rechtfertigung, von erheblichen, durch menschliches Verhalten minimierbaren Risiken auszugehen.

Nein, Schellnhuber und seine Kollegen haben es sich ausgedacht. Weil die Politik eine griffige Formel haben wollte, eine einfach kommunizierbare Zahl. Und so haben sich die Wissenschaftler einer simplen Schätzung bedient. Zu Zeiten der menschlichen Zivilisation, so ihre auf ebenfalls nicht qualitätsgesicherten Erkenntnissen basierende Annahme, habe sich die „mittlere globale Temperatur“ nie um mehr als 2 Grad nach oben bewegt. Allein diese verdrehte Logik schon ist es, die der Faustformel von den 2 Grad den Boden unter den Füßen wegzieht. Denn erstens hat sich die Menschheit aus einer Eiszeit erhoben und somit schon Temperaturdifferenzen weit größeren Ausmaßes überstanden. Und zweitens räumt Schellnhuber indirekt ein, auch durch natürliche Variabilitäten des Klimas könnte die gedachte Grenze erreicht werden. Und wer will heute behaupten, vom Menschen nicht beeinflußbare Klimaschwankungen könnten es nicht auch noch wärmer gestalten?

Zusammenfassend hat die deutsche Klimapolitik auf internationaler Ebene versucht eine strategische Vorgabe zu etablieren, die

  • physikalisch aussagelos ist,
  • nicht qualitätsgesichert ist und damit nicht valide überprüft werden kann,
  • nicht auf wissenschaftlichen Erkenntnissen, sondern auf wilden Spekulationen beruht.

Und dieses „Zwei Grad Ziel“ ist ausgerechnet dem Land der Dichter und Denker entsprungen, mit einer Physikerin als Regierungschefin. Es wird wirklich Zeit, diese Peinlichkeit zu beenden.

Eine ausführlichere Darstellung dieser Thematik meinerseits finden Sie in Novo Argumente, Ausgabe 103, 11/12-2009. Der dortige Artikel (“Diagnose Klimafieber”) wurde noch vor Climategate geschrieben und durch dieses nachträglich mehr als bestätigt.

Autor: Peter Heller, Science Sceptical, zuerst erschienen ebendort

ÄHNLICHE BEITRÄGE (BETA):




Das wissenschaftliche Ende der Klimakatastrophe – Fortsetzung

Insbesondere die ursprüngliche Arbeit von Lindzen et al., die inzwischen im Internet verfügbar ist und daher hier als pdf-File beigefügt werden darf, war unmittelbar nach ihrem Erscheinen heftiger Kritik ausgesetzt. So schrieb beispielsweise der dem IPCC nahe stehende Klimaforscher  Kevin Trenberth in http://www.realclimate.org/index.php/archives/2010/01/lindzen-and-choi-unraveled/:

–         die Arbeit sei nicht robust,

–         sie missinterpretiere die Luft-Wasser Interaktionen in den Tropen,

–         robustere Methoden zeigten keine Diskrepanzen zwischen IPCC-Modellen und Messungen,

–         die Arbeit hätte Messungen mit Modellen verglichen, die  unvollständige „Forcings“ aufwiesen und

–         die Arbeit würde die Klimasensitivität falsch berechnen.

Lindzen/Choi sahen sich mit dem offenen Eingeständnis, dass diese Kritik tatsächlich zu großen Teilen berechtigt ist, veranlasst, auf die Einwände von Trenberth im Detail einzugehen und eine Erwiderung/Ergänzung zu veröffentlichen, in der lückenlos auf alle Kritikpunkte eingegangen wird. Angesichts dieser Ergänzung darf indes ein in den inzwischen zahlreichen „Für-und-Wider-Blogs“ völlig übersehener Umstand nicht unerwähnt bleiben: die Arbeit von Paltridge, die leider nur als Abstract im Internet zugänglich ist, der hier als pdf-File angefügt ist und die auf Ballonmessungen der atmosphärischen Feuchte basiert, wurde bisher nicht kritisiert. Sie wies ebenso wie auch die Arbeit von Lindzen/Choi, aber auf einem anderen Wege, nach, dass Gegenkoppelungen überwiegen, konnte aber hierzu keine quantitativen Angaben machen. Aus diesem Grunde ist zumindest einmal zutreffend zu konstatieren:

Von einer gefährlichen Rückkoppelung, die die Klimasensitivität über die o.g. 1 Grad hinaustreibt, kann definitiv keine Rede mehr sein. Und da CO2-Verdoppelung grob mit dem Verbrennen aller fossilen Brennstoffressourcen der Erde gleichgesetzt werden kann, ist das Thema einer „globalen Klimakatastrophe infolge ansteigender anthropogener CO2-Emissionen“ wissenschaftlich jetzt wohl endgültig erledigt. Die Politik und industrielle Interessengruppen an einer gefährlichen globalen Erwärmung infolge anthropogener CO2-Emissionen werden sicher noch etwas länger brauchen, bis sie von dieser Wahrheit eingeholt werden.

Die Erwiderung/Korrektur von Lindzen und Choi liegt als pdf-File bei. Es erscheint wenig sinnvoll, auf die z.Teil sehr technischen Ausführungen hier in allen Einzelheiten näher einzugehen, der einschlägig klimawissenschaftlich gebildete Leser möge sich an die Originalarbeit halten. Nur das Wichtigste in Zusammenfassung:

–  die zu starke Glättung der 36-Tage Präzession des ERBE Satelliten  wurde durch eine bessere Auflösung ersetzt.

–  zu den Daten des ERBE Satelliten wurden nunmehr auch Daten des CERES Satelliten von 1985-1999 ergänzend hinzugezogen.

–  Rauschen der ausgehenden Strahlung sowie Strahlungsänderungen, die Oberflächen-Temperaturänderungen der Ozeane bewirken, wurden sorgfältig von den Strahlungsänderungen unterschieden, die durch Rückkoppelungseffekt infolge Änderungen der Oberflächen-Temperaturänderungen der Ozeane bewirkt werden.

–  Eine genauere Näherung für die Strahlungsbilanz ohne Rückkoppelungen wurde aufgestellt.

–  An der zulässigen Extrapolation der Ergebnisse von den Tropen auf gemäßigte Breiten wurde nicht abgegangen, da sie gemäß einer früheren Veröffentlichung des Autors (Lindzen, R.S., M.-D. Chou, and A.Y. Hou (20019, Does the Earth have an adaptive infrared iris?, Bull. Amr. Met. Soc., 82, 417-432) abgesichert ist.

Und um das Wichtigste nicht zu vergessen: Das Ergebnis der Erwiderung/Ergänzung von Lindzen/Choi unterscheidet sich um nichts von dem der ursprünglichen  Originalarbeit. Somit ist das wissenschaftliche Ende der anthropogenen Klimakatastrophe wiederholt und definitiv zu bestätigen. Wer jetzt noch von einem „Zwei Grad Ziel“ spricht, macht eine rein politische Aussage und nimmt dabei billigend die Unterschlagung wissenschaftlicher Erkenntnisse in Kauf.

Prof. Dr. Horst-Joachim Lüdecke, Physiker

EIKE-Pressesprecher

Dr. Rainer Link, Physiker

Related Files




Wind”park” Alpha Ventus: Ohne Wärmekraftwerke läuft nichts!

Autor Manfred Knake vom Wattenrat.

Ohne ein stabiles Stromnetz kann keine Windkraftanlage Strom ins Netz einspeisen. Dieser Wind“park“ kann also nicht eine einzige Glühbirne erhellen, wenn kein oder nur wenig Wind weht. Der Geschäftsführer der „Deutschen Offshore-Testfeld und Infrastruktur-GmbH & Co. KG“ (DOTI) brachte es auf den Punkt: «Für jedes Megawatt Windstrom muss auch ein Megawatt an Land als Ausgleich bereit stehen» (dpa/lni vom 27. April 2010).

Dieser bemerkenswerte Satz wurde in der Jubel-Berichterstattung vieler Medien einfach unterschlagen, Selbstzensur ist möglich. Und dieser „Ausgleich“ wird von Gas-, Kohle-, und Atomkraftwerken geleistet; Wind- und Atomenergie sind also „heimliche Schwestern im Netz“, die Windkraft keine Alternativ- sondern eine sehr teure Additivenergie, für den imaginären „Klimaschutz“ also völlig untauglich.

Für die Finanzierung hat man die haushaltsneutrale Subventionierung aus der Zwangsabgabe für alle Stromkunden mit dem „Erneuerbaren Energiengesetz“ erfunden, eine Lizenz zum Gelddrucken für Windkraftbetreiber. Der Offshore Boom begann erst richtig im Jahre 2008,  als sich die Windlobby durch den Bundestag die Einspeisevergütung von 9ct  auf 15ct/kWh erhöhen ließ, nun erst rechnete sich das Geschäft (siehe auch “Investitionsruinen auf See”). Einer der Lobbyisten der innigen Verflechtungen von Politik und Wirtschaft  ist Wolfgang von Geldern (CDU), Vorsitzender des Wirtschaftsverbandes Windkraftwerke. Von Geldern war von 1983 bis 1991 Parlamentarischer Staatssekretär beim Bundesminister für Ernährung, Landwirtschaft und Forsten in der Regierung Kohl. Von 1998 bis 2008 war er  Vorstandsvorsitzender der Plambeck Neue Energien AG, ebenfalls ein Offshore-Betreiber.

„Umweltfreundlich”  ist diese Art der Stromerzeugung auf See ohnehin nicht. Bei den Seekabelverlegearbeiten 2008 entstanden erhebliche Schäden in einer Schutzzone des Nationalparks Niedersächsisches Wattenmeerzwischen der Insel Norderney und dem Festland.

Für ziehende Seevögel sind Offshore-Windparks gerade bei unsichtigem Wetter Todesfallen; diese künstlichen Riffe am stark befahrenen Verkehrstrennungsgebiet der südlichen Nordsee können auch zu Havarien mit Schiffen  und dann zu großflächigen Öleinträgen in die Nordsee und das Wattenmeer führen.

DOTI: Für die Realisierung des ersten deutschen Offshore-Windparks Alpha Ventus wurde 2006 die „Deutsche Offshore-Testfeld und Infrastruktur-GmbH & Co. KG“ (DOTI) gegründet. Die EWE AG ist mit 47,5 Prozent Führungsgesellschaft und realisiert das Projekt mit weiteren Partnern aus der Energiebranche. Unter der Bezeichnung „Borkum West“ hat DOTI die Genehmigungsrechte an dem Testfeld von der Stiftung der Deutschen Wirtschaft für die Nutzung und Erforschung der Windenergie auf See (Stiftung Offshore-Windenergie) gepachtet. Unternehmenssitz der DOTI GmbH ist Oldenburg.

Wir zitieren:

dpa/lni vom 27. April 2010

[…]Auch Minister Röttgen und die Chefs der drei beteiligten Energiekonzerne sind optimistisch: «Bis zum Jahr 2050 klimaneutrale
Stromerzeugung, also praktisch CO2-frei», gibt Röttgen das Ziel der Bundesregierung vor. Allein bis 2030 sollen bereits mehrere 1000 Anlagen mit einer Leistung von 25 000 Megawatt installiert sein. Die Hürden bis dahin sind noch hoch: Umweltfragen beim Bau sind noch ungelöst, und bei Flaute fließt kein Strom durch die Seekabel an Land. «Für jedes Megawatt Windstrom muss auch ein Megawatt an Land als Ausgleich bereit stehen», sagt Lamsbach. […]

stern.de vom 27. April 2010

Kritik von Umweltschützern

[…] Kritik gab es anfangs nach Schäden im Watt bei der Verlegung des tonnenschweren Seekabels. Es endet auf einem auf Stelzen gebauten Umspannwerk im Windpark, wo auch ein Hubschrauber landen kann.

Naturschützer wie der regionale Wattenrat in Ostfriesland sehen zudem Gefahren für Schweinswale und Zugvögel. Ein Untersuchungsbericht von der benachbarten Forschungsplattform Fino 1 zeigt eine hohe Gefährdung beim Vogelzug in der Nacht. Ornithologen hatten bereits während des Baus zum Schutz der Tiere und der Anlagen ein Frühwarnsystem in Kombination mit einem Beleuchtungs- und Abschaltkonzept vorgeschlagen. Denn bei schlechtem Wetter fliegen die Vögel niedrig und werden mangels anderer Rastplätze auf See durch beleuchtete Objekte angezogen. Die Beleuchtung wiederum ist aus Gründen der Schiffs- und Flugsicherheit vorgeschrieben.

Skeptiker befürchten aber auch Gefahren für die Schifffahrt, wenn sich weitere Windparks in der dicht befahrenen Deutschen Bucht drängeln.[…]

Handelsblatt, online, 28. April 2010

Offshore-Windpark: Brüssel prüft Zuschuss für Alpha Ventus

Der gerade eröffnete Offshore-Windpark Alpha Ventus könnte zum Zankapfel zwischen Bundesregierung und EU-Kommission werden. Brüssel blockiert einen Zuschuss in Höhe von 30 Millionen Euro für das Projekt.

NORDDEICH. Blauer Himmel, dazu eine leichte, aber stetige Brise: Die Bedingungen für die Eröffnung des ersten deutschen Offshore-Windparks schienen am Dienstag ideal. Doch aus Sicht des Unternehmenskonsortiums, das den Windpark Alpha Ventus 45 Kilometer nördlich von Borkum hochgezogen hat, ziehen dunkle Wolken auf: Die EU-Kommission blockiert einen Zuschuss für das Projekt. […]

Ähnliche Beiträge:

  1. Offshore-Windenergie: Vogelhäcksler auf See
  2. Windkraft im Wald? Günter Ratzbor und der Deutsche Naturschutzring dafür!
  3. Autor: Wattenrat

 Als Ergänzung eine überschlägige Kosten/Nutzen Rechnung von Michael Krüger Science Sceptical hier zu lesen