1

Neue Studie: Die jüngste anthropogene Erwärmung ist nur halb so groß

Diese Studie wird Öl in das Feuer jüngster Debatten über die Natur des globalen Erwärmungstrends gießen und ob sich dieser zuletzt stabilisiert hat oder nicht. Die Autoren schlussfolgern übrigens, dass er sich nicht stabilisiert hat. Ihre Hauptschlussfolgerung lautet jedoch:

Wenn man die AMO zusätzlich zu anderen erklärenden Variablen wie ENSO, vulkanische und solare Einflüsse mit berücksichtigt, die allgemein Eingang in eine multiple lineare Regressionsanalyse finden, reduzieren sich der jüngste 50-jährige und 32-jährige anthropogene Erwärmungstrend um mindestens den Faktor zwei. Es gibt weder statistischen Beweis für eine Verlangsamung noch für eine Beschleunigung der globalen Erwärmung seit Mitte des 20. Jahrhunderts.

Die Studie lehnt sich an Foster/Rahmstorf 2011 und Lean/Rind 2008 an (die versuchen, die globale Temperatur mit ENSO, solaren und vulkanischen Einflüssen zu korrigieren). Dann jedoch wird die Atlantische Multidekadische Oszillation zu ihrer multiplen linearen Regressionsanalyse hinzugefügt. Dies führt zu ihrer Abbildung 1. Was wir sehen, ist ein langzeitlicher Trend, der sich während des vorigen Jahrhunderts kaum verändert hat:

Wie immer kann dieses Ergebnis nun auf vielfältige Weise interpretiert werden. Der Jahrhunderttrend beträgt immer noch 0,68°C, was bedeutet, dass nur ein geringer Anteil des Gesamttrends von 0,8°C solaren und vulkanischen Einflüssen sowie ENSO und AMO zuzuordnen ist. Das ist es auch, was die Autoren zur Debatte stellen, wenn sie schreiben (Fettdruck von mir):

Die Schlussfolgerung, die wir ziehen können, lautet, dass während der letzten 100 Jahre der anthropogene Gesamttrend konstant bei etwa 0,08°C pro Dekade gelegen hat.

Also ist für sie alles, was nach dem Herausfiltern der natürlichen Antriebe und der natürlichen Variabilität übrig bleibt, einfach ‚anthropogen’. Für mich ist diese Schlussfolgerung ziemlich voreilig. Aber bevor ich erkläre, warum das so ist, wollen wir uns auf die von den Autoren gezeigten anderen Trendlinien konzentrieren. Genau wie Foster/Rahmstorf folgern sie, dass es in letzter Zeit keine Verlangsamung gegeben hat:

Es gibt keinen statistischen Beweis einer kürzlichen Verlangsamung der globalen Erwärmung.

Allerdings ist der von ihnen gefundene Trend der letzten 32 Jahre (0,07°C pro Dekade) deutlich geringer als der von Foster/Rahmstorf (0,17°C pro Dekade). Falls diese Vorgehensweise überhaupt irgendeine Gültigkeit hat, würde das zeigen, dass die AMO allein den Unterschied zwischen Zhou/Tung und Foster/Rahmstorf hinsichtlich des Trends erklärt.

Die Studie von Zhou behauptet, dass während der letzten 32 Jahre, dem Zeitraum, von dem man annimmt, dass Treibhausgase der dominante Antrieb sind, tatsächlich um die 60% (0,1°C des Gesamttrends von 0,17°C pro Dekade) als eine Kombination von ENSO, AMO, solaren und vulkanischen Antrieben ‚erklärt’ werden können. Folglich können 40% des Trends anderen Faktoren zugeordnet werden, von denen Treibhausgase natürlich ein logischer Kandidat sind.

Allerdings gibt es natürlich sehr wohl auch andere Kandidaten. Es gibt die immer noch stattfindende Debatte um die Örtlichkeiten der Temperaturmessungen an Land ebenso wie die Diskussion um den städtischen Wärmeinseleffekt UHI und andere sozial-ökonomische Einflüsse. In einer kontroversen und weithin bekannten Studie haben Michaels/McKitrick geschätzt, dass „sich bei Verwendung des Regressionsmodells, um die irrelevanten nichtklimatischen Auswirkungen zu filtern, der geschätzte Temperaturtrend von 1980 bis 2002 an Land um etwa die Hälfte reduziert“. Wenn das stimmt, kann sogar noch weniger des verbleibenden Trends auf Treibhausgase zurückgeführt werden.

Die Studie von Zhou könnte daher weit reichende Implikationen für unsere Schätzungen der Klimasensitivität haben. In der Studie findet sich dazu jedoch absolut nichts, ein Umstand, der Begutachtern hätte auffallen müssen.

Wie oben gesagt, nennen Zhou und Tung den verbleibenden Jahrhundert langen ‚zugrunde liegenden’ Trend ‚anthropogen’. Ob das stimmt, kann mit ihrer Abbildung 2 (unten) in Frage gestellt werden. Hier erkennt man, dass der anthropogene Antrieb (grüne Linie) den adjustierten Trend der Periode von 1889 bis 1970 zu unter- und danach zu überschätzen scheint. Dies bedeutet, dass eben noch nicht alle relevanten Faktoren (seien es nun natürliche oder anthropogene Antriebe oder die natürliche Variabilität) in die Regressionsanalyse eingehen. Die verbleibenden Linien in Abbildung 2b zeigen immer noch Trends, die es nicht geben würde, wenn die Regressionsanalyse perfekt wäre, schreiben Zhou und Tung.

Dies lässt genügend Spielraum, die Studie in jede, von jedem bevorzugte Richtung zu deuten.

Marcel Crok (von seinem Blog De staat van het klimaat)

======================================================

Deducing Multi-decadal Anthropogenic Global Warming Trends Using Multiple Regression Analysis

Jiansong Zhou and Ka-Kit TungDepartment of Applied Mathematics, University of Washington, Seattle, WA 98195, USA

Abstract

Um den anthropogenen Trend zur globalen Erwärmung aus den Klimadaten herauszuarbeiten, werden häufig multiple lineare Regressionsanalysen durchgeführt, um kurzzeitige Fluktuationen durch ENSO, vulkanische Aerosole und solare Antriebe herauszufiltern. Diese Fluktuationen sind hinsichtlich des abgeleiteten multidekadischen anthropogenen Trends unwichtig: ENSO und vulkanische Aerosole zeigen nur einen sehr kleinen multidekadischen Trend. Solare Variationen haben einen Langzeittrend, aber der ist sehr klein und unsicher. Was wichtig ist und in allen multiplen Regressionsanalysen zur globalen Erwärmung bisher fehlt, ist eine langzeitliche Oszillation mit der Bezeichnung Atlantische Multidekadische Oszillation AMO. Wenn der AMO-Index als Regressor (d. h. als erläuternde Variable) mit berücksichtigt wird, wird der abgeleitete multidekadische anthropogene globale Erwärmungstrend so stark beeinflusst, dass die zuvor abgeleiteten Raten der anthropogenen Erwärmungsraten substantiell überarbeitet werden müssen. Der abgeleitete anthropogene Gesamterwärmungstrend war bemerkenswert stetig und während der letzten 100 Jahre statistisch signifikant.

Link: http://wattsupwiththat.com/2012/10/17/new-paper-cuts-recent-anthropogenic-warming-trend-in-half/

Übersetzt von Chris Frey EIKE




Globale Verkohlung

Da haben wir es, bis auf die Tatsache, dass dies nur die halbe Wahrheit ist. Die andere Hälfte geht so: „Kohleära rollt auf Europa zu“, hieß es in Business Week. Bloomberg berichtet, dass „Merkels grüne Bewegung Deutschland zwingt, mehr Kohle zu verbrennen“. In einem anderen Bericht heißt es unter Hinweis auf das World Resources Institute, dass weltweit 1231 neue Kohlekraftwerke mit einer Gesamtkapazität von 1,4 Millionen Megawatt in Planung sind. Climate Wire berichtet: „hinter den größten Verbrauchern – China, Indien und die USA – besteht sehr starker Bedarf an Kohle in Russland, Vietnam, der Türkei und Südafrika. Die USA stehen mit 79 geplanten Kohlekraftwerken an vierter Stelle in dieser Kategorie“.

Diese zwei sich widersprechenden Sichtweisen auf Kohle können nicht lange nebeneinander bestehen, und ein Gambler könnte gut beraten sein, sein Geld in einen bevorstehenden Kohleboom zu stecken. Der Gedanke der sterbenden Kohle scheint zum größten Teil Wunschdenken grüner Aktivisten sowie einiger Politiker und Regulatoren in den USA und Teilen Kanadas zu sein. Ontario hat sich zum Ziel gesetzt, die schmutzige Kohleverstromung zu beenden, und zwar unter immensen Kosten für die Verbraucher, die schon jetzt einen hohen Preis für die vermeintlich sauberen Alternativen Wind und Sonne zahlen. In den USA wurden über die EPA Regeln eingeführt, von denen gesagt wird, dass sie die Kohleindustrie in eine „Sackgasse“ führen.

Aber zurück in die reale Welt. Der globale Verbrauch von Kohle ist einer statistischen Übersicht von BP zufolge im Jahr 2011 um 5,4% gestiegen. Damit ist Kohle der einzige fossile Energieträger mit einem übernormalen Wachstum und die am schnellsten wachsende Energieform außerhalb der Erneuerbaren. Asien führt das Rennen im Verbrauch an. Es scheint außerdem massenhaft Kohle zu geben mit Weltreserven, von denen gesagt wird, dass sie noch für 112 Jahre globaler Erzeugung ausreichen. Das ist das höchste Verhältnis zwischen Reserven und Produktion unter allen fossilen Treibstoffen.

Die Entwicklung riesiger neuer Gasressourcen weltweit könnte ein wesentlicher Konkurrent hinsichtlich Preis und Bedarf werden. Allerdings wäre es fahrlässig wenn nicht töricht zu versuchen, die Preisbewegungen oder Verfügbarkeit und Nachfrage nach fossilen Treibstoffen im Verhältnis zu alternativen Energiequellen vorherzusagen. Vielleicht wird Gas die Kohle auf einigen Märkten mit der Zeit bedrohen, aber das Verhalten der Investoren bzgl. Stromerzeugern und Regierungen legt nahe, dass Big Money nach wie vor in neue Kohlekraftwerke und die Kohleerzeugung fließt.

Selbst in Alberta, welches sich nominell den Anti-Kohle-Bemühungen der kanadischen Zentralregierung angeschlossen hat, werden neue Kohlekraftwerke gebaut. Aber der wirkliche Schub für die Kohle kommt aus Europa und Asien, den Treibhausgasemissionen sei Dank. „Die Wirtschaftlichkeit für Kohle liegt nahe dem Optimum der letzten fünf Jahre, sagte ein  europäischer Fondsmanager im vorigen Monat. Ein UBS-Analyst sagte Bloomberg, dass Betriebe zur Energieversorgung neue Kohlekraftwerke mit einer Kapazität bis zu 10 600 Megawatt in sieben europäische Staaten während der nächsten vier Jahre bauen werden, verglichen mit den 1600 Megawatt aus Gaskraftwerken. Jedes Kraftwerk, wurde mir gesagt, erzeugt das Äquivalent zu vielleicht 100 großen Windparks.

Angesichts all dieser Ausweitung von Kohle in massivem Maßstab in Europa und Asien, warum sollten die USA und Kanada – zumindest offiziell – versuchen, die Generation der Kohlekraftwerke zu schließen? Kohle, wenn man sie ordnungsgemäß und mit Hilfe neuester Technologie verbrennt, kann Energie liefern zu vernünftigen Preisen und minimalen Auswirkungen auf die Umwelt. Hinsichtlich Klimaänderung und Kohlenstoffemissionen wäre es dumm von Kanada [und von Deutschland, A. d. Übers.], Milliarden für die Abscheidung von Kohlenstoff auszugeben, während im Rest der Welt der Kohleverbrauch zunimmt und die Kohlenstoffemissionen steigen. Die globalen Bemühungen zur Kontrolle von Kohlenstoff sind auf allen Ebenen stecken geblieben, von den UN zur EU bis hin zu den USA und Kanada.

Die Präsidentin der WDA Consulting Inc. in Vancouver Aldyen Donnely sagt, dass Kohle für die großen Kohlewerke keinesfalls knapp wird, nicht einmal in den USA, wo es 27,6% der nachgewiesenen Kohlereserven der Welt gibt. In Russland sind es 18,2% und in China 13,3%. „Diese Nationen werden die Kohle als Kern in ihrem Energiemix als nationale Sicherheitsreserve erhalten“.

Kanada verfügt über eine winzige Reserve von weniger als 1% der Weltkohlevorräte, aber die Kohle ist immer noch eine große Sache. Alberta und Saskatchewan sind bzgl. Stromerzeugung von Kohle abhängig. Kohle aus British Columbia [B. C.] gewinnt Frau Donelly zufolge an Bedeutung als Exportartikel. Im Jahr 2002 waren metallurgische [?] Kohleexporte aus B. C. für 5% des Wertes aller Exportartikel verantwortlich, im Jahr 2011 waren es schon 22%. Für jeden Dollar Einnahmen für B. C. aus Gasexporten erhält es 3,72 Dollar für Kohleexporte.

Bleibt also aufgrund dieser Schnellübersicht nur eine Schlussfolgerung hinsichtlich Kohle: Weit davon entfernt, zu Ende zu gehen oder einen Peak zu erreichen, scheint die Inkohlung der Welt in vollem Gange zu sein.

Terence Corcoran

Financial Post, 11 October 2012

Link: http://www.thegwpf.org/terence-corcoran-global-%C2%ADcoalification/

Übersetzt von Chris Frey EIKE

* Im Original lautet der Begriff “Coalification”. Im Übersetzungsdienst LEO wird das mit „Inkohlung“ übersetzt. Im Forum von LEO fügt einer erläuternd hinzu: „Die Bildung von Kohle basiert auf der Anreicherung von Kohlenstoff (C) in den organischen Molekülen einer Pflanze. Man bezeichnet diesen Prozess als ‚Inkohlung’ …“ . Gerade wegen der möglichen Doppeldeutung haben wir ihn mit  „Verkohlung” übersetzt.




Zur Vermeidung von Kurzsichtigkeit bzgl. Kohlenstoff: Drei Überlegungen für Politiker über anthropogenes Kohlendioxid

Die vorgeschlagenen Regulationen wurden mit der vom (IPCC),[1] in Worte gekleideten betrügerischen Auffassung begründet, dass zunehmende atmosphärische CO2-Konzentrationen das Klima dramatisch verändern würden, was in der Folge zu wesentlichen ökologischen und ökonomischen Schäden führen würde.

Während viele Wissenschaftler einschließlich uns beiden einige Änderungen des Klimas beobachtet haben, sind die hypothetischen gefährlichen Konsequenzen des steigenden atmosphärischen CO2-Gehaltes zu spekulativ für eine verantwortbare Regulations-Politik. Bei der Analyse der Klimapolitik sollten die Entscheidungsträger drei Schlüsselüberlegungen durchführen hinsichtlich der Auswirkung des projizierten CO2-Anstiegs: (1) politische Entscheidungen werden wahrscheinlich keinen messbaren Effekt auf Extremwetterereignisse haben; (2) positive Auswirkungen auf Ökosysteme und die Biodiversität sind wahrscheinlich und sollten gegen die Negativa abgewogen werden; und (3) es ist unwahrscheinlich, dass Kohlenstoffhandels-Schemata (wie das in Kopenhagen so aufdringlich verkündete) zu einer Reduktion des CO2 in der Atmosphäre führen werden.

Mit diesen Überlegungen müssen politische Entscheidungsträger sorgfältig ihre Ziele und die potentiellen Auswirkungen einer Kohlenstoff-Emissionskontrolle abwägen, sowohl positiv als auch negativ. Sollte diese Regelung der Klimaänderung unbewertet weitergehen, wird es wahrscheinlich zu politischen Maßnahmen führen, die jeden Kontakt sowohl zur realen Welt als auch objektiver Wissenschaft verlieren. Außerdem werden wahrscheinlich der Gesellschaft horrende Kosten entstehen, von denen nur ein kleiner Kader von „Klimaunternehmern” profitiert und die keine bedeutsame Auswirkung auf das Klima der Erde haben werden.

Überlegung Nr. 1: Politiker müssen die Fähigkeit der Menschheit beurteilen, globale und regionale Klimaänderungen beeinflussen zu können

Es stimmt, das seine Fülle von Forschern die Änderungen der lokalen, regionalen und globalen Temperaturen untersucht haben, ebenso wie die Regenmenge, das Tier- und Pflanzenleben sowie den Meeresspiegel; und dass viele die Schlussfolgerung gezogen haben, dass der steigende Gehalt von Treibhausgasen (GHGs) bis zu einem gewissen Grad verantwortlich ist für die beobachteten und/oder für die Zukunft vorhergesagten Klimaänderungen. Politiker sollten jedoch nicht einfach auf diesen Zug aufspringen. Sie haben die Verpflichtung, die Grenzen dieser Studien sorgfältig zu bedenken, ebenso wie die Auswirkung von Faktoren außer dem vom Menschen erzeugten CO2. Es wäre falsch, alle beobachteten Auswirkungen mit der Klimaänderung in Zusammenhang zu bringen – das gilt noch mehr für Treibhausgase – oder gar den Anschein zu erwecken, dass die Menschen hier etwas kontrollieren können. Hier sehen wir die erste Überlegung für die Politiker: Dass der steigende CO2-Gehalt in der Atmosphäre nicht zu ungünstigem Wetter und Klimaänderungen führt, die über die natürlicher Variation hinausgehen.

Politiker sollten sich vor Augen führen, dass die Hypothesen des IPCC hinsichtlich zukünftiger Schäden durch den steigenden atmosphärischen CO2-Gehalt durch Beweise widerlegt sind, vor allem durch neueste Daten, die belegen, dass das Märchen von der „globalen Erwärmung“ als Klimaänderung ernstlich auf Betrug beruht [seriously flawed]. Zum Beispiel zeigen die jüngsten Daten der globalen Temperatur und des ozeanischen Wärmegehalts [2] das Gegenteil der Behauptungen über katastrophale Konsequenzen. Während Forscher oft bestimmte Zeitperioden auswählen, um ihre Hypothese der gefährlichen Erwärmung zu untermauern, ist inzwischen offensichtlich, dass Vorhersagen einer fortgesetzten Erwärmung und des Anwachsen des ozeanischen Wärmegehalts im Gegensatz zu Beobachtungen der letzten Dekade stehen [3]. Außerdem haben Computermodellierer Schwierigkeiten, die signifikanten Diskrepanzen zwischen der auf der Basis der gefährlichen CO2-Hypothese vorhergesagten Zunahme des ozeanischen Wärmegehaltes und der beobachteten Daten hierzu zu erklären [4].

Genauso vorsichtig sollte man sein, wenn man bestimmen will, ob andere Gründe als die GHGs für die beobachteten Effekte in Frage kommen. Von Küstenstationen in Grönland stammende Temperaturdaten aus der Arktis und Mittel über den arktischen Pazifik, den Nordatlantik, Grönland-Island und das gesamte Gebiet rings um die Arktis stehen nicht im Einklang mit dieser Hypothese der gefährlichen, vom Menschen verursachten Erwärmung [5]. Diese Daten zeigen abrupte Erwärmungen und Abkühlungen alle paar Jahrzehnte, die sehr gut zu den natürlichen Fluktuationen der Sonnenaktivität passen [6]. Im Gegensatz dazu erklärt der stetige Anstieg der atmosphärischen CO2-Konzentrationen während des vergangenen Jahrhunderts, einschließlich vor allem der letzten fünfzig Jahre nicht die Variabilität der Temperatur in und um die Arktis, was ein weiterer Beleg dafür ist, dass die Auswirkungen durch etwas Anderes als GHG2 verursacht worden sein könnten [7]. Genauso hat der Nachweis der Erwärmung in den Städten gezeigt, dass Erwärmung und hydrologische Änderungen das direkte Ergebnis des UHI und künstlichen Veränderungen der Landschaft sind, und nicht die atmosphärische CO2-Konzentration [8]. Als Konsequenz wären Politiker gut beraten, auch alternative Gründe für die beobachteten Effekte zu erwägen.

Während einige Forscher einschließlich uns beiden sagen, dass andere Gründe als die GHGs ausschlaggebend für beobachtete Klimaänderungen sind, tun viele dies nicht. Politiker brauchen die Ergebnisse beider Lager nicht zu akzeptieren, sollten aber diese alternativen Ansichten beachten und auch wirklich bedenken, wenn sie ihre Entscheidungen treffen.

Politiker müssen auch das Scheitern der Wissenschaftler, trotz der extensiven und objektiven Bewertung von Klimadaten aus der ganzen Welt während des vergangenen Jahrhunderts [9] ein Erwärmungssignal durch das CO2 zu finden, in Einklang bringen. Wir und andere Wissenschaftler haben eine sehr einfache Erklärung: atmosphärisches CO2 ist kein wichtiger Antrieb von Wetter und Klima [10]. Diese Hypothese steht in sehr scharfem Kontrast zu den Spekulationen der Computermodelle, welche sich durch eine starke Beziehung zwischen atmosphärischem CO2 und der Lufttemperatur auszeichnen [11]. Solche Ergebnisse zeigen, dass simulierte Computermodelle in ihrer Fähigkeit, akkurate Vorhersagen eines Systems vorherzusagen, das so komplex ist wie das Klimasystem, inhärent begrenzt sein könnten. Damit sagen wir nicht, dass Forschung per Computer per se trivial ist; sondern vielmehr, dass diese Simulation noch nicht weit genug entwickelt ist, um zuverlässige Prognosen für politische Entscheidungen zu liefern.

Politiker sind es ihren Wählern schuldig, Entscheidungen nur unter Berücksichtigung aller Informationen zu treffen und alle beobachteten Klimadaten einzubeziehen, anstatt sich auf Ergebnisse der künstlichen Welten von Computer-Klimamodellen zu verlassen.

Überlegung Nr. 2: Politiker müssen sowohl potentielle Vorteile als auch potentielle Kosten eines sich verändernden Klimas abwägen.

Kommentatoren und politische Aktivisten charakterisieren die Klimaänderung oft negativ als einen unnatürlichen Prozess, der nur zu Katastrophen führen könne. Unglücklicherweise haben einige dieser Charakterisierungen Eingang in rechtliche Entscheidungen und legislative Aktionen gefunden, was zu einem Missverständnis über die Natur der Klimaänderung geführt hat [12]. Um diese Schwachstellen in der nächsten Runde von Aktionen bzgl. des Klimawandels zu vermeiden, sollten vernünftige Politiker die Vorstellung zurückweisen, dass ein sich änderndes Klima etwas durchweg Einseitiges ist. Stattdessen sollten sie die bestmöglichen verfügbaren wissenschaftlichen Daten nutzen, um die potentiell positiven Auswirkungen der Klimaänderung gegen die negativen und die Kosten abwägen, um festzulegen, welchen Weg man einschlagen sollte. Folglich sollte bei der Evaluierung der chemischen und biologischen Einflüsse eines steigenden CO2-Gehaltes in der Atmosphäre unserer zweiten Überlegung für Politiker besondere Aufmerksamkeit zuteil werden: Dass die negativen Auswirkungen auf Ökosysteme und die Biodiversität durch den zunehmenden CO2-Gehalt genau gegen dessen Vorteile abgewogen werden.

Politiker müssen sorgfältig den Fehler vermeiden, wissenschaftlich ungenaue Definitionen in Gesetze und Regeln zu gießen. Im Jahr 2007 beispielsweise hat der Oberste Gerichtshof der USA geurteilt, dass Treibhausgase zur umfassenden Definition von „Luftverschmutzern“ im Rahmen des Clean Air Act gehören [13], was zu einer Definition führte, die nicht der Wissenschaft entspricht. Das atmosphärische CO2 ist kein „Luftverschmutzer“, sondern die Basis allen Lebens, genauer aller Photosynthese betreibenden Organismen: grüne Pflanzen, Algen in Süß- und Salzwasser sowie photosynthetische Bakterien [14]. Es bildet die Basis der meisten Nahrungsketten und ist für das biologische Leben unabdingbar. Legale Definitionen, die im Gegensatz zur Wissenschaft stehen, machen es schwierig, sinnvolle Politik in Gang zu setzen.

Ungenaue Beschreibungen können auch zu Übertreibungen hinsichtlich der Gefahren von CO2 führen, die Politiker dazu bringen können, die Dringlichkeit der Lage falsch zu beurteilen. Beispielsweise liegt das heutige CO2-Niveau bei etwa 390 ppm und ist damit nicht „gefährlich hoch“ aus der Perspektive photosynthetischer Organismen [15]. Tatsächlich liegen diese 390 ppm weit unterhalb der Nahrungssättigung für diese Organismen und auch unter dem optimalen Niveau für das Wachstum [16]. Dies bedeutet, dass ein Mehr an CO2 einige kritische Ökosysteme stärken kann; und doch sind es nur wenige Wissenschaftler, Politiker oder „Klima-Unternehmer“, die diese positiven Auswirkungen auf die Pflanzen betrachten. Unabhängig davon können manche maritimen Organismen tatsächlich besser gedeihen und produktiver sein als Folge der Versauerung der Ozeane durch die Lösung von CO2 im Meerwasser [17]. Als Konsequenz werden einige der sofortigen biologischen Reaktionen sehr wahrscheinlich das maritime Leben und die Erzeugung von Nahrung in den Ozeanen stimulieren – höchstwahrscheinlich sind dabei positive synergetische Wechselwirkungen zwischen den Änderungen der Temperatur, der Solarstrahlung und Bikarbonate involviert. Die Biologin und Ozeanographin Dr. Debora Iglesias-Rodriguez fasst die Ergebnisse ihrer Arbeit so zusammen:

Die Zunahme von CO2 in der Erdatmosphäre führt bei einigen mikroskopischen Ozeanpflanzen dazu, dass sie größere Mengen Kalziumkarbonat produzieren – mit potentiell weit reichenden Implikationen bei der Vorhersage des Kohlenstoffkreislaufs in den Ozeanen und die Modellierung des globalen Klimas … Unsere Forschung hat auch gezeigt, dass während der vergangenen 20 Jahre einzellige Algen und Phytoplankton jeweils um 40 Prozent größere Mengen Kalziumkarbonat gebildet haben. Diese Ergebnisse stimmen mit früheren Beobachtungen überein, dass diese Organismen während vergangener Perioden mit einer Versauerung der Ozeane überreichlich vorkamen, so wie es vor etwa 55 Millionen Jahren der Fall war [18].

Eine Untersuchung der Verfahren, die in Studien mit einem gegenteiligen Ergebnis hinsichtlich der Auswirkungen von CO2 auf maritime Organismen angewendet worden waren, hat gezeigt, dass sie ungerechtfertigt behauptet haben, den Säuregehalt der Ozeane durch Hinzufügen von Salzsäure zum Meerwasser zu bestimmen, anstatt sich die Mühe zu machen, CO2 durch das Wasser zu blasen, um natürliche Bedingungen viel besser zu simulieren. Das frühere Verfahren, Säuren oder Basen direkt in das Wasser zu geben, verpasst die Schlüsselwirkung von CO2 mit den Karbonaten und Bikarbonaten geochemischer Zyklen im Ozean, weshalb man zu einer entgegen gesetzten Schlussfolgerung kommt gegenüber Studien, die wirklich CO2 durch Wasser blasen. Es ist klar, dass es sowohl Verlierer als auch Gewinner bei der Versauerung der Ozeane gibt; und sich ausschließlich auf die negativen Effekte zu stürzen wäre ein armseliges Vorgehen für eine auf guten Informationen beruhende Politik.

Vor Kurzem haben einige Ökologen und Geologen vor den Gefahren der Kohlenstoff-Kurzsichtigkeit gewarnt – damit meinten sie, dass man nicht nur die vermeintlichen Gefahren eines steigenden CO2-Niveaus in der Atmosphäre betrachten soll, während man gleichzeitig die potentiell schädlichen Auswirkungen eines CO2-Managing ignoriert. Mehr noch, Putz und Redford haben davor gewarnt, dass die kohlenstoffbasierte Konservierung schlecht für die Biodiversität und schädlich für Pflanzen und Tiere sein kann [21]. Sie schreiben, dass die karbonbasierte Ungleichbehandlung [carbon based discrimination {?}] nicht verholzte Pflanzen [non-arboreal plants] nachteilig beeinflussen werde. Das Ergebnis wären kürzere Baum-Spezies, die Ökosysteme außerhalb von Wäldern [non-forested ecosystems] in Gefahr bringen [22]. Außerdem „könnte das Pflanzen von Bäumen unter Kohlenstoff-Investoren verkehrte Anreize erzeugen, die zu massiven Verlusten bei der Biodiversität führen“ [23].

[Diesen Abschnitt { ab „Sie schreiben…} habe ich inhaltlich nicht verstanden. Er lautet im Original so: „They note that carbon-based discrimination will adversely affect non-arboreal plants, result in shorter tree species, and put non-forested ecosystems at risk[22] and that “tree planting among carbon investors could create perverse incentives leading to major biodiversity losses.”[23] A. d. Übers.]

Neben einigen wenigen Spezies, die zur Bestäubung und für die Verbreitung der Samen gebraucht werden, sind die „meisten Wirbel- und andere Tiere in Wäldern, die für Kohlenstoff gemanagt werden, überflüssig, wenn nicht ein Ärgernis“, lautet die Schlussfolgerung von Putz und Redford [24]. Das bedeutet, dass Anreize, diese Spezies zu unterstützen und zu bewahren begrenzt sein werden, wenn sie sich nicht als nachteilig herausstellen, zumindest wenn sich die Politiker ausschließlich auf die Reduktion des atmosphärischen Kohlendioxids konzentrieren.

Natürlich wird es Gewinner und Verlierer bei einem sich verändernden Klima geben, aber die Politiker müssen die Kosten für die negativen Folgen (mit den Kosten des Versuchs, den jetzigen Status quo zu erhalten) mit den positiven Vorteilen abwägen. Nicht alle biologischen, chemischen und ökologischen Reaktionen auf den steigenden CO2-Gehalt bedeuten gleich den Untergang [portend gloom and doom]. Politiker sollten sich in ihren Diskussionen darauf konzentrieren, das Für und Wider auszubalancieren, anstatt eine einseitige Strategie zur CO2-Reduktion zu verfolgen.

Überlegung Nr. 3: Politiker müssen die Möglichkeit erkennen, dass Kohlenstoff-Handelsschemata nicht zu einer Reduktion des CO2 führen könnten

Jüngste Fehlschläge beim Kohlenstoffhandel, sowohl an der Chicago Climate Exchange als auch beim Emissionshandel in der EU, bestätigen die einfache, aber raue Realität, dass der Kohlenstoffhandel ein künstliches und nicht funktionierendes System ist, dass wahrscheinlich mehr schadet als nützt, einfach weil es zu viele Betrüger gibt, zu viele Möglichkeiten, zu betrügen und damit davonzukommen und zu viele Gelegenheiten, mit diesen Betrügereien große Profite zu machen. Professor Roger Pielke Jr. hat kritisch angemerkt, dass momentan „sehr komplexe politische Maßnahmen voller buchhalterischer Tricks, politischer Schweinereien [political pork] und falscher Politik“ [25] ausgearbeitet werden, um das falsche Versprechen einer internationalen Klimalösung zu erzeugen. Selbst das Magazin Science äußerte sich am 23. Oktober 2009 zustimmend, dass:

„Die derzeit stattfindende Buchführung, eine Einhaltung der vom  Kyoto- Protokoll festgelegten Kohlenstoff-Obergrenzen (http://unfccc.int/kyoto_protocol/items/2830.php) zu erreichen, und die Klima-Gesetzgebung enthalten einen weit reichenden, aber bestimmbaren Betrug, der ernsthaft die Ziele der Reduktion von Treibhausgasen unterminieren wird … Das Roden alter Wälder, um Holz zu verbrennen oder Energiepflanzen anzubauen wird als hundertprozentige Reduktion von Energie-Emissionen angesehen, obwohl dabei große Mengen von Kohlenstoff freigesetzt werden“ [26].

Dies leitet zu unserer dritten Überlegung für Politiker über: dass der Kohlenstoffhandel nicht direkt zu einer Reduktion des CO2-Gehaltes führen wird.

Derzeit kriecht eine gefährliche Lähmung in unsere moderne Ära, und zwar als Konsequenz einer unwissenschaftlichen Kohlenstoff-Kurzsichtigkeit. Diese Lähmung wird illustriert durch den Albtraum des Kohlenstoff-Budgets, bei dem das Abscheiden von Kohlendioxid-Emissionen durch zusätzliches Speichern und den Schutz von Kohlenstoff-Pools in menschlichen Siedlungen erreicht werden kann. Menschliche Siedlungen speichern Kohlenstoff in natürlichen Senken wie Vegetation und Erdboden, ebenso wie in anthropogenen Pools. Anthropogene Kohlenstoff-Pools umfassen Gebäude, bedruckte Materialien, Deponien, Kleidung und lebende Organismen [27].

Wer dem Handelspreis von Kohlenstoffemissionen an der Chicago Climate Exchange nicht gefolgt, ist, wird daran interessiert sein zu erfahren, dass der Kohlenstoffhandel im Januar 2004 mit dem bescheidenen Preis von 1 Dollar pro metrischer Tonne begonnen hatte [28]. Die Preise fluktuierten wild hin und her und erreichten im Mai/Juni 2008 einen Spitzenwert von 7 Dollar pro metrischer Tonne [29]. Als das öffentliche Interesse jedoch immer mehr schwand (sehr wahrscheinlich zumindest teilweise wegen des Fehlens einer Korrelation zwischen den verkündeten extremen Szenarien und Beobachtungen in der realen Welt), schwankte der Preis zwischen Oktober und Dezember 2009 nur noch zwischen 0,10 bis 0,20 Dollar pro metrischer Tonne [30].

Ein Investor der ersten Stunde in Reduktionen von Kohlenstoffemissionen im Januar 2004 hat inzwischen 90 Prozent seiner ursprünglichen Investition verloren, und zwar auf etwas, das zu einer Steuer auf eine gasförmige atmosphärische Komponente geworden ist, die unabdingbar für alles Leben ist – und auf die Kohlenwasserstoff-Energie, die 85 Prozent der US-Wirtschaft stärkt. Spekulanten, die dem Kohlenstoffmarkt am 30. Mai 2008 beigetreten sind, haben 98,6 Prozent ihrer Investitionen verloren.

In ganz ähnlicher Weise ist der Markt des Emissionshandels in der EU vollständig zusammen gebrochen. Der Handel erreichte einen Spitzenwert um 30 Euro im April 2006, fiel bis Februar 2007 auf  weniger als 1 Euro und danach wohl noch weiter auf 0,02 Euro im Dezember 2007 [31] – ein Rückgang auf 0,1 Prozent des Spitzenwertes. Ironischerweise liegt der Grund für diesen Rückgang zumindest teilweise darin, dass zu viele Kohlenstoff-Zertifikate relativ zu den tatsächlichen Emissionen vergeben worden waren. Mehr noch, die EU-Emissionen haben tatsächlich während der ersten Phase des Experiments mit dem Kohlenstoffhandel in der EU zugenommen – in einigen Ländern um 10 bis 54 Prozent [32]. Beispielsweise lagen die Emissionen Ende 2007 sowohl in Griechenland als auch in Irland um 25 Prozent über dem Niveau von 1990; die Emissionen in Portugal lagen um 38 und in Spanien um 54 Prozent darüber [33]. Dies waren natürlich genau die Ergebnisse, die der Kohlenstoffhandel verhindern sollte.

Die zweite Phase des Handels in der EU ist auch nicht vielversprechend, da neue Hindernisse und Fragen aufgetaucht sind. Dies wird illustriert durch die Entscheidung des Europäischen Gerichtshofes im September 2009, die sich gegen den Plan der Europäischen Kommission wandte, Polen und Estland Quoten für Emissionsreduktionen vorzuschreiben. Der Gerichtshof urteilte, dass die beiden Länder nicht gegen ihren Willen gezwungen werden können, den niedrigeren Emissions-Quoten zu folgen, die von der Europäischen Kommission als Folge der Akzeptanz des Kyoto-Protokolls festgelegt worden waren [34].

Als weiterer Beweis für die Trennung zwischen der Welt, die sich Politiker und Wissenschaftler vorstellen, die nach Kopenhagen geeilt sind, und der realen Welt, in der wir leben, steht der Vorschlag der australischen Regierung, mit Kohlenstoff unter einem eigenen Emissions-Handelsschema zu handeln, mit einem festgesetzten Preis von 10 australischen Dollar pro Tonne in jedem Jahr bis zum Juli 2012. Zu dieser Zeit sollen Kosten und Preise durch Marktkräfte bestimmt werden [35]. Wir wetten dass dieser Wert bis Dezember 2012 erheblich unter den 10 australischen Dollar liegen wird, falls man wirklich die Entwicklung eines freien Marktes zulässt.

Betrachtet man all diese mit den Systemen zum Kohlenstoffhandel in Zusammenhang stehenden Probleme – vor allem dem Potential und der Gelegenheit zu betrügen und dem steilen Wertverfall beim Kohlenstoffhandel – sollten sich die Politiker sorgfältig die Negativa überlegen, bevor sie Kohlenstoff-Handelssysteme auf den Weg bringen.

Schlussfolgerung

Umsichtige Politiker sollten nicht durch die Kurzsichtigkeit der alarmistischen Berichterstattung in den Medien über eine vom Menschen induzierte globale Erwärmung in Panik verfallen. Stattdessen sollten sie angesichts der potentiellen Kosten und Auswirkungen gegenüber den Befürwortern vorsichtig sein, die die Wissenschaft aus undurchsichtigen Gründen unterwandert haben [36]. Verständlicherweise könnte das Ausmaß der Ungewissheit hinsichtlich der Rolle und der Auswirkungen des steigenden CO2-Gehaltes für jene einen Schock bedeuten, die durch den Fanatismus angesteckt worden sind. Angesichts der involvierten Unsicherheit sollten Politiker die wissenschaftlichen Daten sorgfältig prüfen.

Entscheidungsträger sollten sich die folgenden Fragen stellen: Wollen wir wirklich eine Zukunft, die auf einem durch die Kohlenstoff-Kurzsichtigkeit erzeugten schweren Missverständnis basiert? Kann es sich die Menschheit wirklich leisten, den wirklichen Schaden zu ignorieren, der durch diese Trugschlüsse über Kohlenstoff entsteht? Wir müssen den Mut haben, uns gegen den Klimaalarmismus aufzulehnen und für eine rationale Verwaltung einzustehen, ebenso wie für eine zuverlässige, bezahlbare Energieversorgung. Wir drängen die politischen Führer der Welt, das Richtige zu machen und jeden Deal zurückzuweisen, der Kohlenstoff-Emissionen besteuern oder begrenzen würde. Nur auf diese Weise können sie Arbeitsplätze schützen, ebenso wie Gesundheit, Wohlergehen, wirtschaftliche Möglichkeiten, Umweltqualität, Lebensstandard und Zivilrechte, die so unabdingbar von Kohlenwasserstoff-Energie abhängen.

Willie Soon* and David R. Legates**


Dr. Soon ist ein Astrophysiker an der Solar, Stellar and Planetary Sciences Division am Harvard-Smithonian Center for Astrophysics. Dr. Soon hat viele Artikel ausschließlich über Themen über die Sonne, andere Sterne und das Klima geschrieben und begutachtet. Die Anscihten von Willie Soon sind strikt seine eigenen und reflektieren nicht notwendigerweise jene der Harvard University, der Smithonian Institution oder des Harvard-Smithsonian Center for Astrophysics.

Dr. Legates ist ein Mitarbeiter am College of Earth, Ocean, and Environment, University of Delaware, und seine Ansichten äußert er als Mitglied der Fakultät an der Universität im Rahmen der akademischen Freiheitsrechte. Er arbeitet auch als Klimatologe des US-Bundesstaates Delaware.

References

[1] See, e.g., Intergovernmental Panel on Climate Change, Climate Change 2007: The Physical Science Basis (Susan Solomon et al., eds. 2007).

[2] The phrase “global temperature” and “heat” are used here in laymen sense rather than in the correct manner as properly founded in physics.

[3] See, e.g., Kevin E. Trenberth, An Imperative for Climate Change Planning: Tracking Earth’s Global Energy, 1 Current Opinion in Envtl. Sustainability 19 (2009); see also Willie Soon & David Legates, Answering 3 Simple Questions, Quadrant Online, Aug. 3, 2009, at fig.1(plotting Hadley Centre/UEA air temperature data from 1995 to 2009 and atmospheric CO2).

[4] See Josh K. Willis et al., In Situ Data Biases and Recent Ocean Heat Content Variability, 26 J. Atmospheric & Oceanic Tech. 846, fig.4 (2009); David H. Douglass & Robert S. Knox, Ocean Heat Content and Earth’s Radiation Imbalance, 373 Physics Letters A 3296 (2009); see also Bob Tisdale, OHC Linear Trends and Recent Update of NODC OHC (0-700 Meters) Data, Feb. 5, 2010, at fig.2.

[5] For a more complete discussion of this issue, see Willie Soon, Solar Arctic-Mediated Climate Variation on Multidecadal to Centennial Timescales: Empirical Evidence, Mechanistic Explanation, and Testable Consequences, 30 Physical Geography 144 (2009).

[6] See Alexander Ruzmaikin & Joan Feynman, Solar Influence on a Major Mode of Atmospheric Variability, 30 J. Geophys. Res. 4209 (2002); Willie Soon, Variable Solar Irradiance as a Plausible Agent for Multidecadal Variations in the Arctic-Wide Surface Air Temperature Record of The Past 130 Years, 32 Geophys. Res. Lett. 16712 doi.10.1029/2005GL023429 (2005); Willie Soon, Solar Arctic-Mediated Climate Variation on Multidecadal to Centennial Timescales: Empirical Evidence, Mechanistic Explanation, and Testable Consequences, 30 Phys. Geo. 144 (2009).

[7] See Igor Polyakov et al., Observationally Based Assessment of Polar Amplification of Global Warming, 29 Geophys. Res. Lett. 1878 doi.10.1029/2001GL011111 (2002), Igor Polyakov et al., Variability and Trends of Air Temperature and Pressure in The Maritime Arctic, 1875-2000, 16 J. Climate 2067 (2003); Igor Polyakov et al., Arctic Ocean Freshwater Changes Over the Past 100 Years, 21 J. Climate 364 (2008).

[8] See Roger A. Pielke Sr. et al., Unresolved Issues With The Assessment of Mutidecadal Global Land Surface Temperature Trends, 112 J. Geophys. Res. D24S08 doi.10.1029/2006JD008229 (2007); Souleymane Fall et al., Impacts of Land Use Land Cover on Temperature Trends Over The Continental United States: Assessment Using the North American Regional Reanalysis, Int’l J. Climatol. doi.10.1002/joc.1996 (2009); Cynthia Rosenzweig et al., Mitigating New York City’s Heat Island: Integrating Stakeholder Perspectives and Scientific Evaluation, 90 Bull. Am. Meteorological Soc’y 1297 (2009); John R. Christy et al., Surface Temperature Variations In East Africa and Possible Causes, 22 J. Climate 3342 (2009); John R. Christy et al., Methodology and Results of Calculating Central California Surface Temperature Trends: Evidence of Human-Induced Climate Change?, 19 J. Climate 548 (2006).

[9] See Christopher Essex, What Do Climate Models Tell Us About Global Warming?, 135 Pure & Applied Geophysics 125 (1991); Willie Soon et al., Moderling Climatic Effects of Anthropogenic Carbon Dioxide Emissions: Unknowns and Uncertainties, 18 Climate Res. 259 (2001); Richard S. Lindzen, Taking GreenHouse Warming Seriously, 18 Energy & Env’t 937 (2007); David H. Douglass et al., A Comparison of Tropical Temperature Trends With Model Predictions, 28 Int’l J. Climatol.1693 (2008); Demetris Koutsoyiannis et al., On the Credibility of Climate Predictions, 53 Hydrological Sci. 671 (2008); Philip J. Klotzbach et al., An Alternative Explanation for Differential Temperature Trends at the Surface and in the Lower Troposphere, 114 J. Geophysical Res. doi.10.1029/2009JD011841 (2009).

[10] Id. For further discussion and evidence of the secondary role of atmospheric carbon dioxide and methane on the large glacial-interglacial climate transition of the past 1 to 2 million years, see Willie Soon, Implications of the Secondary Role of Carbon Dioxide and Methane Forcing In Climate Change: Past, Present, and Future, 28 Phys. Geo. 97 (2007).

[11] See Richard S. Lindzen & Yong-Sang Choi, On The Determination of Climate Feedbacks From ERBE Data, 36 Geophys. Res. Lett. doi.10.1029/2009GL039628 (2009) (explaining how climate feedbacks, rooted in the fast processes of hydrology and clouds in the tropics amplify the small warming from greenhouse effect of added atmospheric CO2, were incorrectly represented in frequently cited current climate models).

[12] Mass. v. EPA, 549 U.S. 497 (2007).

[13] Id. at 528–30.

[14] Sherwood B. Idso, Carbon Dioxide and Global Change: Earth in Transition 67–68 (1989); see also Adip Said, Carbon Dioxide and Life, Biology Cabinet, Jan. 13, 2007; Nasif Nahle, Carbon Dioxide and Health, Biology Cabinet, Jan. 13, 2007, available at http://biocab.org/Carbon_Dioxide_CO2.html.

[15] See, e.g., Arthur B. Robinson et al., Environmental Effects of Increased Atmospheric Carbon Dioxide, 12 J. Am. Physicians & Surgeons 79, fig.23 (2007) (republishing Keith Idso & Sherwood Idso, Plant Responese to Atmospheric CO2 Enrichment in the Fact of Environmental Constraints: A Review of The Past 10 years Research, 69 Agric. & Forest Meteorology 153, fig.6 (1994)). It should be noted that Stephen P. Long et al., Food for Thought: Lower-Than-Expected Crop Yield Stimulation with Rising CO2 Concentrations, 312 Sci. 1918 (2006) is often cited for his interpretation of Robertson’s data (shown in Robinson et al., supra note 15, at fig.23) indicating a negative plant response to CO2, which he hypothesized could be disastrous to crops. Francesco Tubiello et al., Crop Response to Elevated CO2 and World Food Supply: A Comment on “Food For Thought . . .” by Long et al., 26 Eur. J. Agronomy 215 (2007), have reconfirmed Robinson’s applicability, while suggesting Long’s findings grossly exaggerated. In recent literature, it is surprising to find Long et al. often cited without reference to the strong criticism offered by Tubiello et al. It should also be noted that Long et al. has not responded to this criticism.

[16] Tubiello, supra note 15.

[17] See, e.g., Frederic Bessat & D. Buigues, Two Centuries of Variation in Coral Growth in a Massive Porites Colony from Moorea (French Polynesia): A Response of Ocean-Atmosphere Variability from South Central Pacific, 175 Palaeogeography, Palaeoclimatology, Palaeoecology 381 (2001). The growing body of similar scholarship published after the 2007 UN IPCC report is also useful. See, e.g., M. Debora Iglesias-Rodriguez et al., Phytoplankton Calcification in a High-CO2 World, 320 Sci. 336 (2008); Herfort et al. 44 J. Phycology 91 (2008); Y. Feng et al., Interactive Effects of Increased pCO2, Temperature and Irradiance on the Marine Coccolithophore Emiliania Huxleyi, 43 Eur. J. Phycology 87 (2008); Philippe Tortell et al., CO2 Sensitivity of Southern Ocean Phytoplankton, 35 Geophys. Res. Lett. doi.10.1029/2007GL032583 (2008).

[18] Interview with M. Debora Iglesias-Rodriguez, ScienceWatch.com, April 2009http://sciencewatch.com/dr/fbp/2009/09aprfbp/09aprfbpRod/.

[19] Iglesias-Rodriguez et al., supra note 17, at 336 (observing that “[m]ost of these experiments used semi-continuous cultures, in which the carbonate system was modified by the addition of acid and/or base to control pH”); Elizabeth Pennisi, Calcification Rates Drop in Australian Reefs, 323 Sci. 27 (2009) (summarizing the research of Alina Szmant, a coral ecologist: “[Szmant] faults previous lab studies because they used hydrochloric acid, not carbon dioxide, to lower the pH of the water in the calcification studies”).

[20] See, e.g., Justin B. Ries et al., Marine Calcifiers Exhibit Mixed Responses to CO2 –Induced Ocean Acidification, 37 Geology 1131 (2009) (both negative and positive responses are found when a wide range of marine calcifiers were examined).

[21] Francis E. Putz & K.H. Redford, Dangers of Carbon-Based Conservation, 19 Global Envtl. Change 400 (2009).

[22] Id.

[23] Id.

[24] Id.

[25] Roger Pielke Jr., Understanding the Copenhagen Climate Deal: the Fix is In, 23 Bridges, Oct. 2009http://www.ostina.org/content/view/4458/1232/.

[26] Timothy D. Searchinger et al., Fixing a Critical Climate Accounting Error, 326 Sci. 527 (2009).

[27] Galina Churkina et al., Carbon Stored in Human Settlements: the Coterminous United States, 16 Global Change Bio. 135, 136 (2009).

[28] Chicago Climate Exchange, CCX Carbon Financial Instrument (CFI) Contracts Daily Report (last visited Jan. 25, 2009).

[29] Id.

[30] Id.

[31] See Henrik Hasselknippe, Carbon 2006 Towards a Truly Global Market, Point Carbon, Feb 28, 2006, at 25; Analyse van de CO2-markt (Analysis of Carbon Market), Emissierechten, Nov. 2007. Wikipedia also has a surprisingly robust discussion. European Union Emission Trading Scheme, Wikipedia (last visited Jan. 25, 2010).

[32] European Env’t Agency, Annual European Community Greenhouse Gas Inventory 1990–2007 and Inventory Report 2009: Submission to the UNFCCC Secretariat 9, tbl.ES.2 (2009).

[33] Id.

[34] See Cort Mortished, Court Delivers Severe Blow to EU Carbon Prices, The Australian, Sept. 24, 2009.

[35] See Ben Sharples, Australia’s Biggest Companies Lack Investment Plans for Carbon, Bloomberg, Oct. 7, 2009.

[36] See Richard Lindzen, Climate Science: Is It Currently Designed to Answer Questions?, paper prepared for meeting in San Marino from 29-31 Aug. 2008 (discussing the cultural, organizational, and political factors that influence objectivity in Climate Science grants and research).

Copyright 2009 Willie Soon and David R. Legates. All rights reserved.

[ back to top ]

Link: http://elq.typepad.com/currents/2010/02/currents37-0-soonlegates-2010-0226.html

Übersetzt von Chris Frey EIKE mit schriftlicher Genehmigung des Autors




Starker Temperaturanstieg seit 1979 in Erfurt- warum CO2 dabei nur eine unbedeutende Nebenrolle spielt! Teil 1

Abstract

Die hier durchgeführte Untersuchung zu den Erwärmungsursachen anhand amtlicher Messwerte der DWD- Station Erfurt- Bindersleben verdeutlicht die Schwierigkeiten bei der Abschätzung möglicher Erwärmungseffekte. Es konnte jedoch gezeigt werden, dass allein etwa die Hälfte des seit 1979 in Erfurt beobachteten Temperaturanstiegs auf eine bloße Zunahme der Sonnenscheindauer zurückführen lässt. Wegen der Kopplung der Wettersysteme (El Niño), muss davon ausgegangen werden, dass der solare Einfluss noch größer ist.

Einen wesentlichen, aber noch weiter zu untersuchenden Teil von etwa 0,6K, hat auch der „Urbanisierungs- und Flächenhafte Wärmeinseleffekt“ beigetragen. Weiterhin deuten sich zumindest leichte Erwärmungseffekte durch Zirkulationsänderungen an, besonders im Frühjahr. Auch hierzu sind noch tiefere Untersuchungen notwendig. Möglicherweise tritt der Zirkulationseffekt dann deutlicher hervor.

Anhand der gezeigten Korrelation am Langzeittrend, kann auch eine leichte Erwärmung durch „Treibhausgase“ nicht völlig ausgeschlossen werden. Deren Betrag fällt jedoch gegenüber den „Hauptakteuren“ Solar- und Wärmeinseleffekten sehr gering aus, sofern er überhaupt vorhanden ist, da keine Ursache-Wirkung besteht (Korrelation seit mehr als 10 Jahren divergierend, d.h. nicht vorhanden). So zeigt das folgende Diagramm die möglichen Einflüsse anhand der Korrelationsergebnisse. Es deutet grob an, wie sich die Erwärmung danach zusammensetzt. Außerdem sind weitere, hier nicht untersuchte scheinbare Erwärmungsursachen, wie etwa die Verfälschung der Tageswerte durch Umstellung auf stündliche Lufttemperaturmessungen seit 2001 und halbstündige seit 2009, nicht ausgeschlossen.

Teil 1: Vorstellung der Hauptakteure

Teil 2: „Trittbrettfahrer“ CO2 – Das Phantom der Klimawissenschaft

Teil 1 Vorstellung der Hauptakteure

 

Seit 1979 sind die Lufttemperaturen in Erfurt um etwa 1,3°C beziehungsweise 1,3 Kelvin (K) gestiegen- in nur 33 Jahren um fast das Doppelte der angeblich seit etwa 150 Jahren stattfindenden „Erderwärmung“ von etwa 0,8K. Da lohnt es sich, einmal genauer hinzuschauen- schließlich könnte sich ja die „globale Erwärmung, angeblich durch CO2 verursacht“, in Thüringen viel schlimmer auswirken, als bislang angenommen. Es könnte aber auch alles ganz anders sein. Die folgende Arbeit erhebt keinen Anspruch auf Vollständigkeit und soll vor allem zum unvoreingenommenen Nachdenken über mögliche Erwärmungsursachen anregen.  

Mehr Sonnenschein- Mehr Wärme!

Die folgenden zwei Abbildungen zeigen den Temperaturtrend (oben) und den Trend der Sonnenscheindauer (unten).

 

Abbildung 2. Die Ähnlichkeit beider Verläufe ist unverkennbar. Die höhere Sonnenscheindauer wirkt erwärmend. Eine Korrelationsberechnung zwischen jährlicher Sonnenscheindauer und den Jahresmitteltemperaturen bestätigt diesen Verdacht (folgende Abbildung).

Abbildung 3

Das Bestimmtheitsmaß von fast 47% sagt aus, dass knapp 47 Prozent der Variabilität der Lufttemperaturen im Betrachtungszeitraum von der Variabilität der Sonnenscheindauer verursacht wurden. Anmerkung: Eine positive Korrelation ist für sich allein zwar kein eindeutiger Beweis für den Zusammenhang zwischen beiden Faktoren. Dass jedoch eine längere Sonnenscheindauer mehr Energiezufuhr bedeutet, welche die Erdoberfläche und über diese dann auch die unteren Luftschichten stärker erwärmt, dürfte niemand anzweifeln.

Erstes Ergebnis: Mehr Sonnenstunden, mehr Wärme. Etwa zur Hälfte lässt sich der  Erwärmungstrend mit der seit 3 Jahrzehnten zunehmenden Sonnescheindauer erklären! Die Sonne scheint heute in Erfurt gut 200 Stunden länger pro Jahr, als noch Ende der 1970er Jahre, was in etwa der Sonnenscheindauer eines ganzen Sommermonats entspricht!

Untersuchungen anderer europäischer Stationen, unter anderem von Berlin- Dahlem, Potsdam, Horben (Schwarzwald), Observatorium Modena (Norditalien), sowie mehrerer Stationen aus der Schweiz, deuten in die gleiche Richtung. Seit etwa 2000 stagniert die Temperatur auf hohem Niveau.

Dieser Erwärmungseffekt durch längere und intensivere Besonnung ist wegen strenger Umweltauflagen (Luftreinhaltemaßnahmen) in Europa besonders deutlich ausgefallen und ist eine Erklärung, warum die Temperaturen hier so viel stärker als im „globalen Mittel“ angestiegen sind. Seit mehr als 10 Jahren stagnieren sie jedoch auf hohem Niveau oder sinken gar wieder leicht, zumal die „Luftreinhalteeffekte“ weitgehend ausgereizt sind. Außerdem lässt die Sonnenaktivität, welche ebenfalls wesentliche Einflüsse auf die Sonnenscheindauer und die Intensität der Einstrahlung hat (z.B. „Svensmark- und Aerosoleffekte“) aktuell stark nach.

Die folgende Abbildung zeigt, wie sich die globale Wolkenbedeckung, also nicht nur die von Städten, seit Beginn des Erwärmungstrends änderte.

Abbildung 4 links zeigt die globale Wolkenbedeckung von Juli 1983 – Juni 2005, nach Daten des ISCCP (International Satellite Cloud Climatology Project). Die Abbildung stammt aus der Arbeit von Evan et al. “Arguments against a physical long-term trend in global ISCCP cloud Amounts“. Bereits die linke Abbildung deutet auf eine periodische Schwingung von größer 18 Jahren (grüner Pfeil) hin. Dass Kurvenminimum liegt im Maximum des 23. Schwabe- Zyklus im Jahr 2000. Rechts ist der Kurvenverlauf an der gestrichelten Linie gespiegelt und ab 2005 (Datenende) angesetzt. Dabei wurde darauf geachtet, dass das Verhältnis zwischen Anstieg und Rückgang im Schwabe-Zyklus etwa 2 zu 3 beträgt (die Anstiegszeit eines solaren Zyklus ist nicht exakt fix, sondern davon abhängig, wie stark der kommende Zyklus ist – starker Zyklus = schnelle Anstiegszeit, schwacher Zyklus = langsame Anstiegszeit, insofern stellt das Verhältnis 2 zu 3 einen Mittelwert dar). Das Maximum der globalen Bewölkung folgt in eindeutiger Weise vom Hale-Zyklus (Polaritätszyklus der Sonne) und damit der Polarität des magnetischen Sonnenzyklusses. Weitere Untersuchungen sind notwendig, den komplexen Einfluss der Sonne auf unser Wetter/Klima, hier der Wolkenbildung, besser zu verstehen und die obigen Erkenntnisse abzusichern. Denn der Einfluss der Wolken auf die Wetter- und damit Temperaturverhältnisse sind elementar.

Nach Angaben des DLR (Deutsches Zentrum für Luft- und Raumfahrt) bedeutet eine Reduzierung des mittleren Wolkenbedeckungsgrades von wenigen Prozent, bereits eine globale Temperaturänderung, die einer Verdoppelung des CO2-Gehaltes nach den Modellvorstellungen des IPCC entspricht. Im obigen Chart beträgt die Reduzierung des Wolkenbedeckungsgrades ca. 6% bis zum Jahr 2000.

Anmerkungen: Es ist zu erwarten, dass durch die etwa 60%ige Abnahme der Luftschadstoffe seit 1980 („Aerosol- Effekt“) und die hohe Sonnenaktivität um 1990, eben auch die Intensität der Sonnenstrahlung deutlich zunahm, was zusätzlich erwärmend wirkt, da mehr direkte Sonnenstrahlung mit einem höheren (energiereicheren) Blauanteil die Erdoberfläche trifft, was aber hier nicht zum Ausdruck kommt, da ja nur der Einfluss der Sonnenscheindauer, nicht aber deren Intensität, untersucht wurde. So ist noch ein zusätzlicher Erwärmungseffekt durch die höhere Intensität der Sonnenstrahlung selbst (in der Literatur als „Solar brightening“ = Aufhellung der Sonnenstrahlung) zu erwarten, der sich ohne Strahlungsmessungen am Standort Erfurt aber nicht quantifizieren lässt. Mit sinkenden Luftschadstoffgehalten nahmen auch Dauer und Häufigkeit von Nebel (und womöglich auch der Bedeckungsgrad mit Tiefen Wolken) deutlich ab.

Weiterhin muss erwähnt werden, dass die monatliche Sonnenscheindauer im Sommerhalbjahr mit Bestimmtheitsmaßen von 35 bis über 70% die Monatsmitteltemperaturen wesentlich stärker beeinflusst als im Winterhalbjahr mit Bestimmtheitsmaßen von nur 6 bis kaum 14%. Kurzum- mehr als zwei Drittel der vergangenen Erwärmung in den Sommermonaten lassen sich aus der Sonnenscheindauer erklären, während besonders für das Winterhalbjahr nach weiteren Ursachen gesucht werden muss.

Bedingt durch die anthropogene (menschliche) Veränderung der Beschaffenheit der Erdoberfläche gibt es verschiedene Erwärmungseffekte; am bekanntesten ist der städtische („urbane“) „Wärmeinseleffekt“ (im Englischen mit UHI = Urban Heat Island Effect abgekürzt). Siedlungen und Städte sind aus folgenden Gründen wärmer als ihr Umland; hier sollen nur die wichtigsten aufgezählt werden:

Es gibt direkte Wärmequellen, und zwar

Verbrennungsmotoren (Verkehr im weitesten Sinne).

Heizungen, Klimaanlagen und Kühlschränke.

Beleuchtung (besonders Glühlampen) und Widerstandsverluste im Stromnetz.

Kanalisation und Müll (die darin enthaltenen Mikroorganismen erzeugen Wärme).

Viele Menschen und Haustiere auf engstem Raum (jeder Mensch erzeugt durch seinen Stoffwechsel in etwa soviel Wärme wie eine 100- Watt- Glühbirne).

Mindestens genauso wichtig, vielleicht sogar wichtiger, sind indirekte Erwärmungseffekte:

Einschränkung der stark kühlend wirkenden Verdunstung durch Bodenversiegelungen (Pflaster, Asphalt,  Beton) und Ableitung des Regenwassers aus der Stadt.

Fehlender oder geringerer Pflanzen- und Gehölzwuchs als im unbebauten Umland. Die Vegetation „kühlt“ durch Beschattung, durch Verdunstung sowie durch Aufnahme eines Teils der Sonnenenergie zur Photosynthese.

Die Stadt empfängt durch ihre höhere Rauhigkeit und besondere Bodenbeschaffenheit mehr Sonnenstrahlung als das Freiland (dunkler Asphalt, außerdem absorbieren Steildächer und senkrechte Hauswände besonders die Strahlung der tief stehenden Sonne, welche im Freiland kaum erwärmend wirkt). Besonders spätabends und nachts wirkt das deutlich erwärmend, weil die Baumaterialien dann die tagsüber gespeicherte Wärme an die Luft abgeben („Wärmespeicherkapazität der Straßen und Häuser).

Die Bebauung bremst den kühlend und belüftend wirkenden Wind. Ganz nebenbei: Wer Windräder aufstellt, um „das Klima zu schützen“ muss diesen Effekt ebenfalls in Kauf nehmen. Die Bremsung des Windes durch große „Windparks“ ist erheblich und trägt so ebenfalls zum Temperaturanstieg in Bodennähe auch außerhalb von Städten bei – willkommen in Absurdistan!

Horizonteinengungen und Mehrfachreflexionen behindern die nächtliche Ausstrahlung. Luftverschmutzungen (die berüchtigte „Dunstglocke“ aus Staub und Nebeltröpfchen) wirken nachts und daher besonders im Winterhalbjahr erwärmend, weil sie die Wärmeabstrahlung stärker zum Boden zurück reflektieren, als saubere Luft. Tagsüber mindern sie zwar die Intensität der Sonnenstrahlung und wirken dadurch kühlend, aber alle direkten, nur im urbanen Bereich konzentriert auftretenden Erwärmungsquellen können sie nicht überkompensieren.

Leider liegen zur genauen Entwicklung der Bebauung und Bodenversiegelung im Umfeld des Erfurter Flughafens keine genauen Angaben vor. Nach eigenen Beobachtungen nahmen diese besonders seit 1990 stark zu (mehr Flug- und Straßenverkehr, zahlreiche gewerbliche Neuansiedlungen und Wohnungsneubauten). Auch fehlen Messwerte einer vom Urbanisierungseffekt weniger beeinflussten Freilandstation, so dass man den Effekt der zunehmenden Verstädterung auf die Entwicklung der Temperaturen nur schwer ermitteln kann. Ein mögliches Verfahren zur Berechnung dieser Erwärmungseffekte hat einer der Autoren entwickelt und basiert auf dem Strahlungsgesetz nach Planck und dem Abkühlungsgesetz nach Newton.

Anhand dieser Berechnung beträgt der Urbanisierungs- und Flächenhafte Wärmeinseleffekt bei der vom DWD für Deutschland ausgewiesenen Erwärmung für die letzten 120 Jahre +1,1°C von +1,9°C, d.h. der größte Anteil der Erwärmung geht auf den WI zurück. Insbesondere in der ehemaligen DDR sind nach der Wende 1989/90 aus einstigen kleinen Wärmeinseln durch die Ausbreitung der Bebauung großflächige Wärmeregionen entstanden, und der Trend hält an. Das gilt auch für Erfurt. Die Wetterstation liegt heute am Flughafengelände Erfurt/Weimar, das nach der Wende erheblich erweitert wurde. Diese zusätzlichen erwärmenden Wirkungen der freien Fläche haben wir durch den Begriff flächenhafter Wärmeinseleffekt abgedeckt, den wir mit WI abkürzen.

Unsere Untersuchungen zeigen, dass im Schnitt der 2100 Stationen Deutschlands der Wärmeinseleffekt etwa 0,1 Grad pro Jahrzehnt über die letzten 120 Jahre beträgt. Jedoch betrug er anfangs weniger, in den letzten 30 Jahren aber das Doppelte. Das bedeutet, dass mindestens 0,6K des in Erfurt beobachteten Temperaturanstiegs seit 1979 auf das Konto der (noch immer andauernden) Urbanisierung (Verstädterung) und auf die Umgestaltung der einstigen freien Fläche gehen. Da Erfurt eine „Boomtown“, mit im Vergleich zu Gesamtdeutschland überdurchschnittlich zunehmender Bebauung ist, muss von einem noch etwas höheren Urbanisierungs- und Flächenhaften Wärmeinseleffekt als den 0,6K Temperaturzunahme ausgegangen werden, wobei der Urbanisierungseffekt dominant ist.

Die linearen, nach dem Jahr 2000 etwas fallenden Trendlinien von Deutschland und Bindersleben verhalten sich ähnlich (Abbildungen 5 und 6). Das Jahr 2000 war jeweils das wärmste Jahr. Der Temperaturrückgang der letzten 11 Jahre war in Bindersleben jedoch nicht so stark wie der Gesamtschnitt der deutschen Messstationen. In den letzten Jahren nähert sich Bindersleben langsam dem Deutschlandschnitt. Allerdings ist der betrachtete Zeitraum von 11 Jahren zu kurz für endgültige Schlussfolgerungen. Allgemein gilt jedoch: Urbanisierungs- und flächenhafte Wärmeinseleffekte wirken einer Abkühlung entgegen. Je mehr eine Station durch diese Effekte beeinflusst wird, desto weniger stark kühlt sie ab.

 

Abbildung 5

Abbildung 6

Weiter ist anzuführen, dass es in der verbleibenden freien Landschaft (beispielsweise durch Trockenlegung = Melioration, geänderte Anbaumethoden und die Umwandlung naturnaher Laubmischwälder in Fichten- oder Kiefernmonokulturen, aber auch durch Straßenneubau und Splittersiedlungen) weitere Erwärmungseffekte gibt, die ebenfalls unter den Begriff „Flächenhafter Wärmeinseleffekt“ fallen. Bei der Station Erfurt dürften allerdings Urbanisierungseffekte dominant sein, da hier vor allem Bebauung und Verkehr zunahmen. Außerdem ist zu beachten, dass die in den Städten erzeugte Wärme natürlich auch in die freie Landschaft „eingetragen“ wird und dort eine (mit wachsendem Abstand zur Stadt kleiner werdende) Erwärmung bewirkt.  

Zweites Ergebnis: Die Urbanisierungs- und Flächenhaften Wärmeinseleffekte bewirkten ebenfalls einen Teil des Temperaturanstiegs, der aber leider aufgrund des Fehlens vergleichbarer Zahlen für Erfurt nur geschätzt werden konnte und seit 1979 mindestens 0,6K, betragen dürfte. Unsere Untersuchungen legen jedoch den Schluss nahe, dass bei der Station Erfurt- Bindersleben die urbanen Erwärmungseffekte überwiegen.

Anmerkungen: Gerade bei der Quantifizierung der „Urbanisierungs- und Flächenhaften Wärmeinseleffekte“ ergibt sich ein weites Feld für die Forschung. Folgende Fragestellungen wären interessant:

  1. Wie stark tragen die verschiedenen Wärmequellen und Erwärmungseffekte im Einzelnen zur Erwärmung bei?
  2. Gibt es- ähnlich, wie bei der Sonnenscheindauer, jahreszeitliche Unterschiede? Zumindest bei den durch Insolation (Einstrahlung) und Verdunstungsminderung verursachten Effekten ist dies zu erwarten. Im Sommer dominieren die indirekten Erwärmungseffekte und im Winter die direkten Wärmequellen. Dadurch sind möglicherweise deren Beträge der Erwärmung im Sommer und Winter annähernd gleich. In Städten etwa vergleichbarer Größe und Struktur wächst außerdem der Erwärmungseffekt mit zunehmender geografischer Breite oder der Höhe über dem Meeresspiegel, weil aus dem Strahlungsgesetz nach PLANCK folgt, dass sich ein kühlerer Körper (damit auch eine kühlere Region) bei derselben Energiezufuhr pro Zeiteinheit stärker erwärmt, als ein wärmerer.
  3. Was passiert in Städten, die in den vergangenen Jahrzehnten eine gravierende Deindustrialisierung und einen massiven Bevölkerungsrückgang zu verzeichnen hatten (Ruhrgebiet, Eisenhüttenstadt, Suhl und andere)? Ist dort die Erwärmung durch den Wärmeinseleffekt geringer ausgefallen, vielleicht sogar ausgeblieben oder gar rückläufig? Dies dürfte auch von der Intensität und Qualität der Rückbaumaßnahmen abhängen (bei Konversion in intensive Grün- oder Wasserflächen ist der Kühleffekt am größten).

 

Abbildung 7 links entstammt einer Untersuchung aus den USA (Utah) und zeigt, wie sich die Erwärmungstrends mehrerer in Städten befindlicher Messstationen pro Jahrzehnt (linke, rotbraune Säule) von solchen in rein landwirtschaftlich genutzten Arealen (mittlere Säule) und von solchen in vom Menschen weitgehend unbeeinflussten („naturnahen) Arealen unterscheiden (rechte Säule).

Die Differenz der Höhen linke minus rechte Säule ist der Urbanisierungseffekt der Städte, hier in Fahrenheit dargestellt (0,4 Fahrenheit entsprechen etwa 0,22°C). Im Vergleich zu vom Menschen weitgehend unbeeinflussten Landschaften verlief die Erwärmung in den Städten also etwa doppelt so schnell (zusätzlich gut 0,1°C pro Jahrzehnt), was mit den erwähnten Wärmeeffekt- Berechnungen für Deutschland gut übereinstimmt. Die rechte Abbildung zeigt den Einfluss der Größe einer Siedlung auf deren bislang erfolgte zusätzliche Erwärmung in Kelvin (1K = 1°C). Allerdings hängt die Erwärmungsrate auch von der Besiedlungsdichte und der Art der Bebauung ab. Je dichter Bebauung und Besiedelung, desto höher ist die Erwärmungsrate. Gute Durchgrünung und Durchlüftungsschneisen mindern die Erwärmung.

3. Wirkten sich auch Änderungen in der Zirkulation aus?

     

Berühmt wurde der sogenannte „Klimasprung“ am Ende der 1980er Jahre, als es deutlich wärmer wurde. Auch in Erfurt ist dieser- wenngleich undeutlich- zu erkennen. Dem, mit Ausnahme der Jahre 1982 und 1983, recht kühlen Zeitraum von 1979 bis 1987 (7 Jahre mit weniger als 8°C Jahresmitteltemperatur), folgte ab 1988 eine regelrechte „Kleine Warmzeit“ mit einem ersten Höhepunkt 1989/90, den absoluten Höhepunkten 1994 und um 2000, danach gab es bei Stagnation weitere Höhepunkte 2007 und 2011, während die Einbrüche (1996, 2010) zwar sehr markant, aber nie von Dauer waren. Nun lohnt es sich, die 5 wärmsten und die 5 kältesten Jahre einmal etwas genauer unter die Lupe zu nehmen.

Die 5 wärmsten Jahre (2000, 1994, 2007, 2011, 1990) zeichneten sich durch eine Häufung kräftiger Westwetterlagen im Januar, Februar und im Dezember aus, während im Sommer ebenfalls wechselhaftes Westwetter überwog (lediglich im heißen Sommer 1994 dominierten Hochdruckwetterlagen). In den kältesten Jahren (1996, 1987, 1985, 1979 und 1980) gab es in den Wintermonaten markante Kälteeinbrüche aus Ost bis Nordost, die zumindest einige Wochen, mitunter gar über Monate (1996) dominierten, während alle Sommer dieser Jahre wechselhaft und mehr oder weniger zu kühl ausfielen. Es fällt auf, dass Jahre mit sehr warmen Sommern (1982, 1983, 1992, 1994, 2003, teilweise auch 1991, 1995, 2006 und 2010) nur einmal unter den „Extremjahren“ vertreten sind, was man so erklären kann, dass ihnen teilweise mäßig- kalte Winter oder Frühjahre vorausgingen, mitunter folgte auch ein zeitiger und kalter Herbst. Insgesamt scheinen sich „sommerwarme“ Jahre durch eine im Jahresmittel leicht geschwächte Westwindzirkulation auszuzeichnen. Nun ergibt sich die Frage, ob sich aus den Monats- und Jahresmittelwerten der standardisierten NAO (Nord- Atlantische Oszillation) eine Beziehung zur Jahresmitteltemperatur und zu den Mitteltemperaturen der Hauptjahreszeiten ableiten lässt? (Anmerkung: Hohe, positive NAO- Indizes drücken eine überdurchschnittlich kräftige westliche Strömung über dem Ostatlantik aus, während diese bei negativen Indizes abgeschwächt ist. Bei stark negativen Werten „tauschen“ Azorenhoch und Islandtief gar ihre Plätze. Die NAO wird maßgeblich durch die solare Aktivität moderiert, wie die folgenden Abbildungen belegen.

 

Abbildung 8 links zeigt den NAO-Winterindex von 1865 – 2000 (Quelle: Deutscher Wetterdienst). Deutlich ist in der Wellenform ein 10-Jahres-Zyklus abgebildet, der zeitlich exakt mit dem Schwabezyklus der Sonne korreliert. Hohe Indexwerte sind mit einer intensiven nordatlantischen Westdrift und damit milderen Temperaturen verbunden. Rechts ist der NAO-Winterindex von 1982 – 1998 abgebildet (ergänzt nach Quelle: American Meteorological Society Journal Online, Volume 13, Issue 5, März 2000).

Die kleine Abbildung ist hineinkopiert und zeigt den Schwabezyklus der Sonne im selben Zeitraum. Er stimmt exakt mit dem NAO-Winterindex überein. Dass die Sonne maßgeblich die NAO bestimmt, zeigt bereits die Arbeit ”Length of the solar cycle influence on the relationship NAO-Northern Hemisphere Temperature”, L. Torre, L. Gimeno, M. Tesouro, J. A. Añel, R. Nieto, P. Ribera, R. García, E. Hernández, Geophysical Research Abstracts, Vol. 5, 30-1-2003, European Geophysical Society.

Der NAO- Index wird täglich mit Hilfe der 00- UTC- 500- Hektopascal- Anomalien über der Nordhemisphäre berechnet). Der Zusammenhang zwischen den NAO- Indizes (Jahresmittelwerte) und den Jahresmitteltemperaturen ist aber allenfalls mäßig (Abbildung 9):

 

Abbildung 9

Ein Jahreszeitenvergleich zeigt, dass die NAO- Indizes im Winter einen deutlichen, im Sommer aber praktisch keinen Einfluss auf die Temperaturen haben (Abbildungen 10):

 

Abbildung 10

Man könnte nun den voreiligen Schluss ziehen, dass vielleicht zunehmende NAO- Werte für einen Teil des Temperaturanstiegs seit 1979 verantwortlich sind, denn auch zurzeit des „Klimasprungs“ um 1990 herrschten positive NAO- Werte vor. Dem ist aber nicht so, denn die NAO- Indizes zeigen (wie dargelegt, von der Sonnenaktivität moderiert), eine leicht fallende Tendenz:

 

Abbildung 11

Allerdings war der Rückgang im Winter weniger deutlich als im Sommer:

  

Abbildung 12

Auswertungen lassen den Schluss zu, dass die Häufung trocken- warmer Hochdruckwetterlagen zwischen Anfang April und Ende Mai, welche sich jedoch in den NAO- Werten kaum ausdrückt, ganz wesentlich zum Temperaturanstieg beigetragen haben. Weil der April den stärksten Temperaturanstieg aller Monate in Erfurt aufwies, wurde für ihn die Anzahl der Tage mit Hochdruckwetterlagen (alle vom Deutschen Wetterdienst als „antizyklonal“ eingestuften Großwetterlagentage plus die Tage mit den Großwetterlagen „Hochdruckgebiet über Mitteleuropa“ und „Hochdruckbrücke über Mitteleuropa“) ermittelt. Es ergibt sich eine deutliche Zunahme der Tage mit Hochdruckwetter seit 1979:

 

Abbildung 13

Es gibt momentan etwa 7 Tage mehr Hochdruckwetterlagen im April, als Ende der 1970er Jahre. Die Monatsmitteltemperaturen stiegen im April in Erfurt ebenfalls deutlich an:

 

Abbildung 14

Obwohl beide Trendlinien ähnlich verlaufen, ist der berechnete Zusammenhang mit r = 0,32 und dem daraus resultierenden Bestimmtheitsmaß von 10% alles andere als gut. Man muss allerdings bedenken, dass nicht alle Hochdruckwetterlagen im April „erwärmend“ wirken, denn bei nördlicher bis nordöstlicher Luftströmung kann selbst anhaltender Sonnenschein die heranwehende Kaltluft nicht immer ausreichend aufheizen. Möglicherweise nahmen aber auch andere, „erwärmend“ wirkende Wetterlagen zu, was noch einer genaueren Untersuchung bedarf. So erhöhte sich seit den 1960er Jahren die Häufigkeit der Westwetterlagen im Winterhalbjahr deutlich, dafür treten diese im Sommerhalbjahr seltener auf, was insgesamt ebenfalls erwärmend wirkt („Westwetter“ geht im Winter mit deutlich positiven, im Sommer mit leicht negativen Temperaturanomalien in Mitteleuropa einher).

Die genaue Quantifizierung dieser Erwärmungseffekte durch die Veränderung der Häufigkeiten der Großwetterlagen ist jedoch schwierig. Wie noch gezeigt wird, werden diese Zirkulationsänderungen von der Sonnenaktivität wesentlich beeinflusst und über die Schwankungen der NAO (Nordatlantische Oszillation der Luftdruckverteilung) und der AMO (Atlantische Multidekaden- Oszillation der Wassertemperaturen) direkt gesteuert. Damit wird klar, dass auch hier eine „Trendumkehr“ möglich ist. In den Wintern 2008/09 bis 2011/12 kam es- zumindest monatsweise- schon zu einer deutlichen Abschwächung der Westwetterlagen, was auf eine beginnende Trendumkehr hindeuten könnte. 

Drittes Ergebnis: Aus Zirkulationsänderungen lässt sich der Temperaturanstieg zumindest für Erfurt nicht zweifelsfrei erklären. Die Westwind- Zirkulation, deren Maß der NAO- Index ist, beschleunigte sich bis in die 1990er Jahre hinein, was den „Klimasprung“ um 1990 mit erklären kann. Danach ging sie besonders nach Beginn der 2000er Jahre zurück, so dass im Gesamtzeitraum ein negativer Trend überwiegt, der im Gegensatz zum positiven Temperaturtrend steht. Im Winter beeinflussen steigende NAO- Werte die Lufttemperaturen relativ deutlich positiv (von Westlagen dominierte Winter sind tendenziell milder), während im Sommer fast kein Zusammenhang zur NAO erkennbar ist.

Der Rückgang der NAO- Indizes ging hauptsächlich auf Kosten der Sommermonate. Eine gewisse, nicht in allen Jahreszeiten vorhandene Erwärmung durch häufiger auftretende Hochdruckwetterlagen, besonders im Frühling und mehr Westwetterlagen im Winter, dafür weniger Westwetterlagen im Sommer, deutet sich jedoch an. Insgesamt kann der Betrag des Erwärmungseffekts durch Zirkulationsänderungen nur grob geschätzt und in der Größenordnung von 0,1 bis höchstens 0,3K seit 1979 für Erfurt angesetzt werden.

Verfasst und zusammengestellt (2012) von

Stefan Kämpfe, Weimar

Josef Kowatsch, Hüttlingen

Raimund Leistenschneider, EIKE




Wind und Sonne: Ethische Investitionen unbedingt meiden

Investoren sollen Eneuerbare Energien meiden

Den “Erneuerbaren” gehört die Zukunft, sagen die Umwelt-Aktivisten. Aber für die „grünen“ und „ethischen“ Investoren sind sie ein Albtraum, die Hersteller von Wind- und Sonnenenergie-Systemen gehören zu den schlechtesten „Performern“ der vergangenen Jahre.

Nehmen Sie z. B. Vestas, den dänischen Windturbinenhersteller. Frühe Investoren haben sich über glänzende Gewinne gefreut. Die Aktien sprangen von 34 DKr im Jahre 2003 auf 698, und damit das Zwanzigfache im Jahre 2008. Doch dann verfiel der Kurs, geplagt vom Verlust der Regierungssubventionierung, durch Kostenüberschreitungen, durch Produktionsverzögerungen und dem Wettberwerb aus China. Heute wird die Aktie um die 35 Kronengehandelt – wer 2008 investierte, hat fast 95 Prozent seines Geldes verloren.

Im August teilte Vestas mit, dass man in die Verlustzone geraten und weitere 1.400 Arbeitsplätze abgebaut hätte. In den Sheerness Docks in Kent sei eine Produktionsstätte für die Herstellung von Tiefwasser-Windfarmen in der Nordsee geplant gewesen. Die wäre im Juni gestrichen worden.

Die Solarkollektoren-Hersteller haben die Investoren auch um viel Geld erleichtert. Man schaue sich nur SunTech an, den weltgrößten Hersteller von PV-Kollektoren, Firmensitz Wuxi, China. Die den Börsengang begleitenden Firmen (vor allem Goldman Sachs) haben mit dem Zehnfachen des eingesetzten Geldes ein Vermögen verdient, als SunTech 2005 an die New Yorker Börse gebrachte wurde. Verdient haben auch diejenigen, die bei der Börseneinführung kauften. Die Kurse schossen von $20 auf $79 Ende 2007 hoch. Und heute? Die Papiere werden für gerade mal 92 Cents weitergereicht. First Solar, ein anderer einstiger Börsenliebling an der Nasdaq, brach von $308 im April 2008 auf $23 in der vergangenen Woche ein. Die Solar-Industrie ist von der Überkapazität in China, fallenden Preisen und nachlassenenden Regierungssubventionen gekennzeichnet.

Auf Erneuerbare Energien spezialisierte Fonds sind entgegen den Erwartungen stark gefallen.  Impax Environmental, ein Investment Trust, hat 20% während der letzten fünf Jahre verloren, BlackRock New Energy ist es noch schlimmer ergangen, dort ging es seit 2007 um 49.9% abwärts. Es ist eine heilsame Erinnerung daran, dass man kurzlebige Trends und Blasen vermeiden soll.

Inzwischen haben viele der von ethischen Investoren ausgesonderten “böse” Aktien eine außergewöhnliche Performance hingelegt. Um die Jahrtausendwende, mitten in der Blase um Technologie, Medien und Telekommunikation, waren die Tabakfirmen der am meisten verabscheute Sektor. Anteile an British American Tobacco, Inhaber der Marken Dunhill, Kent, Lucky Strike and Pall Mall, wurden für 224p gehandelt. Heute stehen sie auf £31.93.

Original hier




Die grüne Katastrophe in Spanien ist eine Lektion für Amerika

Das grandiose Scheitern Spaniens

Einer der Staaten, die er als Beispiel für Amerikas Bemühungen um grüne Technologie anführte, war Spanien. Nun, Präsident Obama kann das spanische Technologieprogramm mögen, aber die Spanier – tun das nicht. In einer Studie wurde das grandiose Scheitern dieses Programms aufgezeigt.

Die Spanier haben vor Kurzem ihre sozialistische Regierung aus dem Amt gejagt, hauptsächlich wegen der verheerenden Wirtschafspolitik und einer Arbeitslosenquote von 22%.

Die grüne Technologie sollte Spaniens Weg zu mehr Arbeitsplätzen und einer saubereren und besseren Zukunft sein. Er war es nicht.

„Die Politiker haben uns vor einigen Jahren gesagt, dass sie einen neuen Weg gefunden hätten, öffentlich in einen neuen Sektor zu investieren, nämlich in die erneuerbaren Energien. Das würde einen ganz neuen Wirtschaftszweig erschaffen mit neuen Arbeitsplätzen, grünen Arbeitsplätzen, so genannten grünen Arbeitsplätzen“, sagte Dr. Gabriel Calzada Álvarez an der King Juan Carlos University in Madrid.

Aber was die Spanier stattdessen bekamen, war ein riesiges Debakel nach Art von Solyndra: Massenhaft Steuergelder aus dem Fenster geworfen und Arbeitsplätze, deren Schaffung ein Vermögen gekostet hat.

Ein Arbeitsplatz-Vernichter

Calzada, ein Wirtschaftswissenschaftler, hat das spanische grüne Technologie-Programm studiert und gefunden, dass jeder grüne geschaffene Arbeitsplatz den spanischen Steuerzahler 770 000 Dollar gekostet hat. Jeder Arbeitsplatz in der Windindustrie hat 1,3 Millionen Dollar gekostet.

„Als Präsident Zapatero an die Macht kam, sagte er, er wisse – ‚er wisse’ – dass die Solarenergie die Zukunft ist“, sagte Calzada. „Er ‚wusste’ das, also steckte er alle öffentliche Gelder und Investitionen in sein Modell“.

Aber Calzadas Studie zufolge gingen durch vier neu geschaffene Arbeitsplätze in Spaniens teurem grünen Technologie-Programm neun [andere] Arbeitsplätze verloren.

Der erzeugte Strom war so teuer, dass jedes ins Netz eingespeiste grüne „Megawatt“ fünf Arbeitsplätze in anderen Bereichen der Wirtschaft vernichtet hat, weil die Betriebskosten so stark gestiegen sind.

Unsichere Bedingungen

Marta Sabina lebt am Stadtrand von Barcelona in einem der neuen Appartementhäuser mit grüner Technologie. Es war für diese Mutter von drei kleinen Kindern ein Albtraum. Sie spülte ihre Toilette mit recyceltem Wasser, das Chemikalien enthielt. Sie sagt, dass es für ihre Kinder unsicher sei und oftmals nicht anders aussieht als das Wasser, mit dem noch nicht gespült wurde.

„Wie oft komme ich in das Badezimmer und spüle die ganze Zeit, weil das Wasser schmutzig ist und ich nicht weiß, ob es schmutzig ist, weil die Kinder nicht gespült haben oder weil es das Wasser selbst ist“, sagte Frau Sabina. „Manchmal riecht es sehr schlecht, und es ist sehr schmutzig und nichts für die Kinder“.

Auch musste sie das Warmwasser für ihre Familie auf dem Herd erhitzen, weil der Solar-Warmwasserbereiter des Gebäudes drei Jahre lang nicht funktioniert hat.

Die Bank besiegen

Der spanische Traum grüner Technologie hat den Staat mehr als 15 Milliarden Dollar pro Jahr gekostet, bevor die Regierung drastische Kürzungen durchführte, weil er gescheitert ist und Spanien bankrott zu gehen drohte.

Das Förderpaket der Obama-Administration aus dem Jahr 2007 enthielt unter Anderem 80 Milliarden Dollar für grüne Arbeitsplätze. „Grüne Energie ist als Hauptenergieträger nicht einsatzbereit“, sagte Seton Motley, der Präsident von Less Government. „Sie ist nicht einsatzbereit für die Erzeugung auf privater Basis“.

„Alles, was Regierungsgelder benötigt, bedeutet, dass es dafür keinen Markt gibt”, erklärte er. „Wenn es nämlich einen Markt dafür geben würde, würde es massenhaft privates Kapital geben, das darin investiert werden würde, und die Leute würden sagen ‚Weiter so!’“.

Der Markt mochte General Motors nicht, die vor dem Bankrott stand. Dann eilte Washington zur Rettung herbei. Onkel Sam kaufte 500 Millionen Anteile von General Motors, die seitdem 15 Milliarden Dollar an Wert verloren haben.

„Ich kann mir auf Anhieb keinen größeren Verlierer als GM vorstellen, wo das meiste Geld an eine Stelle gepackt wird, an der es im Abflussrohr verschwindet“, sagte Motley.

Die Spanier hätten den Amerikanern ein oder zwei Dinge beibringen können, wie man Regierungsgelder zum Fenster hinauswirft.

Spanien hat Milliarden für einen Umwelttraum ausgegeben, der ihre Wirtschaft schwer getroffen hat. Die ohnehin schon horrenden Schulden der zusammenbrechenden Regierung haben sich dadurch noch deutlich erhöht.

Und jetzt sieht es so aus, als würde sich Spanien den griechischen Verhältnissen annähern.

Dale Hurd

*Originally aired November 29, 2011.

Link: http://www.cbn.com/cbnnews/finance/2011/November/Spains-Green-Disaster-a-Lesson-for-America/

Übersetzt von Chris Frey EIKE




Eine klassische Geschichte über den Alarmismus der globalen Erwärmung

Der Zweck von Gillis’ Artikel ist es, Beobachtungen herunterzuspielen, wonach das Meereis um die Antarktis kürzlich einen neuen Rekord hinsichtlich der maximalen Ausdehnung erreicht hat (seit dem Beginn von Satellitenbeobachtungen im Jahr 1979).

Immer wenn das Meereis am Nordpol ein neues Rekord-Minimum erreicht (was im September 2012 der Fall war), wird es in der globalen Presse darüber sehr laut. Wenn hingegen ein neuer Eisausdehnungs-Rekord in der Antarktis verzeichnet wird, scheint niemand davon Kenntnis zu nehmen.

Gillis’ Artikel ist ein Versuch zu erklären, warum der Verlust des arktischen Eises so viel bedeutsamer ist als der Zuwachs des antarktischen Meereises. Und um seinen Standpunkt zu erhärten, greift er zurück auf eine erprobte Technik mathematischer Verschleierung – indem er Änderungen prozentual vergleicht oder auch das Verhältnis von Differenzen in Prozent, anstatt einfach die reinen Zahlen zu nennen – um die offensichtliche Größenordnung des Verlustes arktischen Meereises im Vergleich zum Zuwachs des antarktischen Meereises über die Maßen aufzublähen.

Man bedenke die Absurdität eines Vergleichs der Trends bei den sommerlichen Eisminima auf beiden Hemisphären.

Die Abbildung enthält die Darstellung der Meereis-Ausdehnung auf beiden Hemisphären. Der Nordpol ist vollständig von Wasser umgeben – bis hinunter auf 70° nördlicher Breite. Da kann Meereis schmelzen. Der Südpol ist vollständig von Festland umgeben – bis hinunter auf 70° südlicher Breite. Dort kann kein Meereis schmelzen, außer in dem Ring, der den Kontinent umgibt.

 

Abbildung: Satellitenbeobachtung des Meereises auf beiden Hemisphären (Quelle: Cryosphere Today).

In jedem Sommer schmilzt das antarktische Meereis bis zum Rand des Kontinents weitgehend ab, so dass man dort kaum einen Trend hinsichtlich des Minimums feststellen kann. Wenn man den Vergleich des Eisrückgangs in der Arktis und der Antarktis vergleicht, gleicht das der Division einer Zahl durch Null, was zu einer unendlichen Differenz führt.

Weil er dieses Dilemma erkannte, hat Gillis zwei Fünf-Jahres-Perioden zu Beginn und zum Ende einer jeden Aufzeichnung verglichen. Als statistisches Problemchen zeigt sich in den Daten ein geringer Unterschied in Antarktika.

Ein anderer Weg für so etwas besteht darin, sich die „Anomalien“ anzuschauen, oder die Abweichung von irgendwelchen langzeitlichen Mittelwerten der Eisbedeckung. Während die Eisausdehnung in der Antarktis um etwa 0,14 Millionen Quadratkilometer pro Dekade zunimmt, verliert der Norden Eis in einer Größenordnung von etwa 0,55 [Millionen] km²/Dekade. Das sind mittlere Raten während des gesamten Zeitraumes der Aufzeichnungen. Alles in allem verliert also die Arktis Eis mit einer vier mal größeren Rate als die Antarktis dazu gewinnt.

Gillis hat auf diese Weise bemerkenswerte 25 mal diese Differenz gefunden. Tatsächlich bearbeitete er die Daten so lange, bis er das gewünschte Ergebnis erzielt hatte.

Dabei ging er folgendermaßen vor:

Als erstes konvertierte er die beobachtete Meereisausdehnung in eine Prozentzahl des gesamten Ozeans, der von Eis bedeckt war. Wir wissen nicht, was damit repräsentiert werden soll. Wie schon erwähnt, ist der arktische Ozean von Festland umgeben, während der Südliche Ozean die Meeresgebiete des Pazifik, des Atlantik und des Indik südlich von 60 Grad südlicher Breite umfasst. Dies ist einfach eine willkürliche Definition eines Teils eines riesigen globalen Ozeans. Berechnet man also eine Prozentzahl der Eisbedeckung, erhält man eine ähnlich willkürliche Zahl. Und was hinsichtlich Gillis’ Berechnungen noch schlimmer ist, das Gebiet des Südlichen Ozeans (20,3 Millionen km²) ist etwa 6,2 km² größer als die Fläche des Arktischen Ozeans (14,1 Millionen km²). Das bedeutet, obwohl die mittlere jährliche Meereisausdehnung in der Arktis (11,8 Millionen km²) ein wenig kleiner ist als die mittlere jährliche Eisausdehnung in der Antarktis (12,0 Millionen km²) – wenn man das auf eine Prozentzahl der vom Eis bedeckten Fläche des Ozeans umrechnet, kommt für das arktische Eis eine größere Zahl heraus als für die Antarktis (84% zu 59%) – was nach Gillis’ Weltanschauung bedeutet, dass dort mehr Eis verloren gehen kann.

Als nächstes mittelt er die Prozentzahl des Meereises in den ersten 5 Jahren der Aufzeichnung in jedem Ozeanbecken und dann die letzten 5 Jahre der Aufzeichnung.

Für das Meereis zum Sommerende bekommt er auf diese Weise für den Zeitraum von 1979 bis 1983 eine Eisbedeckung von 51,1% heraus, von 2008 bis 2012 war dieser Wert auf 31,6% gefallen. Die Differenz zwischen diesen beiden Prozentzahlen (31,6 minus 51,1) beträgt -19,5%.

Seine ähnliche Berechnung der Eisausdehnung zum Ende des antarktischen Sommers ergibt eine Eisbedeckung von 13,8% von 1979 bis 1983 sowie 14,6% von 2008 bis 2012. Die Differenz zwischen diesen beiden Prozentzahlen beträgt also 0,8%.

Dann folgt der Gnadenstoß, wenn Gillis die Änderung der Prozentanteile hinsichtlich der arktischen Meereisausdehnung (-19,5%) durch die Änderung der Prozentanteile in der Antarktis dividiert (0,8%). So kommt er zu der Schlussfolgerung, dass „der Eisrückgang in der Arktis, ausgedrückt in Prozent der Bedeckung der Ozeane, fast 25 mal mehr ausmacht als die Zunahme in der Antarktis“.

In einer Welt, in der der tatsächliche Eisverlust des arktischen Meereises vier mal so groß ist wie die Zunahme der Fläche mit Meereisbedeckung in der Antarktis, berichtet Gillis mit Hilfe seiner physikalisch bedeutungslosen, aber hypersensitiven Maßnahme, dass sich das arktische Meereis 25 mal schneller zurückzieht als das antarktische Meereis hinzugewinnt.

Wenn die Neuigkeiten nicht so beschaffen sind, dass man sie drucken kann, gibt es Wege, die Nachrichten anzupassen. Wir glauben, dass jemand sich beim Hochkommissariat der UN über den Missbrauch von Daten beklagen sollte.

Erschienen im World Climate Report unter der Leitung von Prof. Pat Michaels und Robert C. Balling 

Link: http://www.worldclimatereport.com/index.php/2012/10/05/a-classic-tale-of-global-warming-alarmism/

Übersetzt von Chris Frey EIKE




Alarmisten der globalen Erwärmung gieren nach Macht, nicht nach Emissionsreduktionen

Bild rechts: Ein riesiger Ballon repräsentiert die mit einer Tonne Kohlendioxid angefüllte Erde (Image credit: AFP via @daylife)

Der Energy Information Administration EIA in den USA zufolge waren die CO2-Emissionen im ersten Quartal 2012 die niedrigsten seit 1992. Angesichts von immer mehr Kraftwerken, die von Kohle auf Erdgas umstellen, wird sich dieser Rückgang wahrscheinlich fortsetzen, und die Reduktionen werden wahrscheinlich permanent sein.

Der Rückgang der CO2-Emissionen in den USA ist beachtlich, wenn man den Emissionstrend in den USA mit den globalen Emissionstrends vergleicht.

Im Jahr 2000 lagen die Emissionen der USA bei 5,9 Milliarden metrischer Tonnen, während sich die globalen Emissionen auf insgesamt 23,7 Milliarden Tonnen beliefen. Das heißt, dass aus den USA 25 Prozent der globalen CO2-Emissionen kamen.

Bis zum Jahr 2010 gingen die USA-Emissionen auf 5,6 Milliarden Tonnen zurück, während global ein Anstieg auf 31,8 Milliarden Tonnen verzeichnet wurde. Das heißt, der Anteil der USA an den globalen Emissionen war auf 18 Prozent zurückgegangen.

Wenn sich der Rückgang der Emissionen ähnlich dem zu Anfang des Jahres fortsetzt, werden es nur noch 15 Prozent sein.

Bis zum Ende des Jahrzehnts werden die Emissionen der USA wahrscheinlich auf etwa 12 Prozent der globalen Emissionen sinken, oder auf weniger als die Hälfte des Anteils im Jahr 2000.

Wenn man bedenkt, dass die USA 23 Prozent des weltweiten Gross Domestic Product* erzeugen, ist ein Rückgang der Emissionen in den USA auf 12 bis 15 Prozent des weltweiten Ausstoßes ziemlich beeindruckend.

[*Gross Domestic Product = Bruttoinlandsprodukt – eigentlich. Aber wie nennt man das, wenn die ganze Welt gemeint ist? A. d. Übers.]

Diese Reduktionen der CO2-Emissionen in den USA ereignen sich ohne aufdringliche, von der Regierung der gesamten Wirtschaft aufgedrückte Restriktionen. Ja, die EPA-Regulierungen bestrafen Kohlekraftwerke und sind auf diese Weise irgendwie verantwortlich für den Übergang zu Erdgas, aber das gilt auch für technologische Fortschritte und neue Funde von Erdgas, die den Preis für Erdgas dramatisch haben zurückgehen lassen.

Wenn es tatsächlich das wirkliche Ziel der Alarmisten ist, die CO2-Emissionen signifikant zu reduzieren, würden sie das anerkennen und den andauernden Rückgang feiern. Stattdessen verdoppeln sie jedoch ihre Angriffe und ihre hasserfüllte Rhetorik.

Da ist beispielsweise die jüngste Kolumne von Bill Blakemore auf der ABC-Website News Nature and Environment. Unter Anderem schreibt Blakemore, dass „eine Anzahl Klimawissenschaftler einschließlich Jim Hansen von der NASA diesem Reporter gesagt hat, dass sie mit jenen übereinstimmen, die leitenden Direktoren den Gebrauch fossiler Treibstoffe zum Vorwurf machen und sagen, dass sie sich eines ‚Verbrechens gegen die Menschlichkeit’ schuldig machen’“. Die traditionelle Strafe für ‚Verbrechen gegen die Menschlichkeit’ ist die Hinrichtung.

Warum nur verstärken so viele Alarmisten ihre Angriffe und ihre Hasstiraden genau zu der Zeit, zu der die CO2-Emissionen der USA so rapide zurückgehen? Die Antwort lautet, dass die Alarmisten mehr von dem Wunsch beseelt sind, die Gesellschaft zu einem von der Regierung kontrollierten Modell zu machen, und nicht so sehr von dem Wunsch, die CO2-Emissionen zu reduzieren. Die Emissionen gehen rapide zurück, und doch verbleiben Geld und Macht großenteils beim Volk anstatt bei der Regierung. Folgerichtig verstärken die Alarmisten ihre hasserfüllte Rhetorik.

Für diejenigen, die sich wirklich um die Reduktion von CO2-Emissionen kümmern, ist es jetzt an der Zeit zu feiern. Für diejenigen, die sich wirklich darum bemühen, Geld und Macht der Regierung zu übertragen, ist es jetzt an der Zeit, ihre Angriffe zu intensivieren.

James Taylor CFACT.

Link: http://www.forbes.com/sites/jamestaylor/2012/09/12/global-warming-alarmists-seek-more-power-not-emissions-reductions/

Übersetzt von Chris Frey

Bemerkung des Übersetzers: Wie schon öfter werden in diesem Artikel wieder die Verhältnisse in den USA beschrieben. Ich vermag jedoch keinerlei Unterschiede zum Verhalten der Alarmisten bei uns zu erkennen, weshalb ich dies übersetzt habe.

C. F.




„Wer Wind sät“, von Nele Neuhaus; Eine Buchbesprechung

Gleich vorweg, das Buch ist höchst spannend und unterhaltsam geschrieben. Der Krimi gehört zu einer Serie von Lokalkrimis – Region Taunus – der Autorin Nele Neuhaus,  deren Hauptakteure auch in ihren anderen Krimis aktiv sind. Das heißt auch, es gibt keine (besonders) harte Action, das Alltagsleben kommt zu Wort, und es „menschelt“ halt ein bisschen. Was dem Buch eine Erwähnung auf EIKE einbringt, ist seine Geschichte, die sich um betrügerische Machenschaften rund um Windenergie, Klimawandel, Umweltschutz und Politik rankt.

Gut, solche Geschichten liest man jeden Tag auf EIKE, aber da ist es ja nur die Realität. Hier aber ist es echte Fiktion! Zwar sagt Neuhaus explizit, „Climategate“ als Anregung verwendet zu haben, aber dennoch versichert sie gleich zweimal, dass die „beteiligten Personen, Begebenheiten und Institutionen frei erfunden …“ sind. Ich konnte nicht umhin zu schmunzeln als ich diesen Haftungsausschluss las, denn so groß ist die Gruppe der in Frage kommenden Klimaaktivisten und Institutionen in Deutschland ja nicht, dass nicht doch sofort gewisse Assoziationen entstehen …

In der Geschichte erfährt der Leser alles, was die Polizei erfährt, und welche Schlüsse diese daraus zieht. Aber darüber hinaus auch noch, was bei den verschiedenen handelnden Personen und Gruppen passiert, und auch noch vielfach die Gedanken einzelner Personen. Der Leser ist der Polizei eigentlich voraus, und könnte eigentlich weit vor ihr die Lösung finden. Dennoch, es bleibt verwirrend und wohltuend spannend bis in späte Teile des Buches.

Als weiteres Stilmittel setzt Neuhaus eine Geschichte ein, die parallel zur Hauptgeschichte erzählt wird. Dies ist für den Leser anfangs völlig irritierend. Erst später ahnt man, wie diese beiden Geschichten konvergieren. Viel mehr kann man hier leider nicht sagen, ohne zu viel von dieser gelungenen Variante zu verraten, die zum Verständnis der Auflösung notwendig ist.

Üblicherweise sind es ja immer böse „Internationale Großkonzerne“, vor allem aus der Chemie und Ölbranche, die sich in den Büchern und Filmen an der Umwelt versündigen und zur Durchsetzung ihrer Interessen über Leichen gehen. Hier ist mal eine neue Perspektive gezeigt. Das einzig andere, mir bekannte Buch, welches Betrug und Terror im Öko-Umfeld zum Thema hat, ist Michael Crichtons ebenfalls höchst spannendes und lesenswertes „State of Fear“ (Deutsch: “Welt in Angst“). Während aber Crichtons Buch zu einem Aufschrei der Klimaaktivisten geführt hat, hatte ich bisher nichts derartiges zu diesem Neuhaus Buch gelesen. Dabei war es 2011 in den SPIEGEL Bestseller Listen, und hatte eine Auflage von mindestens 250 000! Der Betrug-im-Umweltschutz Aspekt dieses Buches scheint in Besprechungen aber häufig unter den Tisch gefallen zu sein.

Wie gesagt, sehr empfehlenswert als spannende (Urlaubs-)Lektüre. Man sollte aber Zeit haben, bis tief in die Nacht hinein zu lesen, denn es fällt schwer, das Buch zwischendurch zu schließen. Wer sich auf das Thema einstimmen möchte, kann just in der heutigen FAZ-online etwas zu Windparks und Geld lesen.

Dr. Ulrich Steiner

————————————————-

Die Links nochmal separat in Reihenfolge der Nennung:

http://www.neleneuhaus.de/meine_buecher.php

http://www.spiegel.de/kultur/literatur/taschenbuch-bestseller-mit-der-wurst-kamen-die-buecher-a-764366.html

http://www.faz.net/aktuell/politik/energiewende/buergerwindpark-die-den-wind-ernten-11922086.html




Grüne Erfolge:Umweltzonen führen Handwerker in die Pleite

Die deutschen Handwerker sind bekanntlich meist fleißig, zuverlässig und geduldig, doch jetzt sind sie mit ihrer Geduld am Ende, weil sie sich zunehmend in ihrer Existenz bedroht fühlen. Grund sind die Umweltzonen in den Städte, die einen Großteil der Betriebe aussperren. Ihre Fahrzeuge, besser gesagt. Auf die sind fast alle Handwerker angewiesen.

Immer mehr Kommunen weiten innerorts die Fahrverbote für Fahrzeuge aus, die mit roter und gelber Plakette unterwegs sind. Nach Vorbild der Bundeshauptstadt. In Berlin zum Beispiel sind seit Inkrafttreten der Plakettenverordnung 2008 innerhalb des S-Bahnrings nur Vehikel mit grünem Aufkleber erlaubt, das Fahrverbot trifft nicht nur private Dieselbesitzer, sondern vor allem das Handwerk….

….Wenn die Aussperrung der Transporter wenigstens der Umweltzuträglich wäre. Doch obwohl in immer mehr der inzwischen 54 deutschen Umweltzonen Fahrzeuge ohne grüne Plakette ausgesperrt werden,

stieg 2011 die Feinstaubbelastung weiter an und übertraf laut Umweltbundesamt (UBA) sogar den Durchschnittswert der vorangegangenen vier Jahre…

…Dudenhöffer: "Miserable Arbeit der Politiker"

Schon die offiziellen Messdaten des Umweltbundesamtes entlarven die Umweltzonen eindeutig als grandiosen Irrtum. Den nicht eingetroffenen ökologischen Visionen stehen volkswirtschaftliche Schäden in Milliardenhöhe gegenüber. Schon für 2008, das erste Jahr mit Umweltzonen, hatte Professor Ferdinand Dudenhöffer, Direktor des Center Automotive Research (CAR) der Universität Duisburg-Essen, für die betroffenen Autobesitzer einen volkswirtschaftlichen Gesamtschaden von mehr als 12 Milliarden Euro errechnet.

Durch die zunehmende Aussperrung von Fahrzeugen mit roter und gelber Plakette kamen inzwischen weitere Milliarden hinzu. "Dieser Schildbürgerstreich illustriert einmal mehr eindrucksvoll, wie Politiker durch miserable Arbeit Volksvermögen in beträchtlichem Umfang vernichten", so Dudenhöffers Fazit.

Aus Die Welt hier

Fazit der Redaktion:

Die grüne Politk aller Fraktionen und Parteien schafft keine wertschöpfenden Arbeitsplätze, sondern vernichtet sie reihenweise. Im Großen wie im Kleinen.

Mit Dank an Spürnase Tobias L.




Nordamerikas Reserven an unkonventionellem Gas knapp 100 Billionen Kubikmeter

Der Informationsdienst „Naturgas“ (NGI) berichtete:

In der vergangenen Woche wurden unabhängige Studien zweier kanadischer Firmen vorgelegt, welche die Vorräte an westkanadischen und US-amerikanischen Schiefergasreserven auf die Größenordnung von Trillionen Kubikfuß anhoben: auf 3,3 Quadrillionen Kubikfuß. [Anm. d. Ü.: Es handelt sich um amerikanische sogenannte ‚short scale’ Werte, d. h. eine Quadrillion entspricht 10^15, also unserer Billiarde. Auf europäische Werte umgerechnet und gerundet entspricht das Volumen ca. 93 Billionen Kubikmetern. Ein cbf entspricht dabei 0,028316 m^3)]

Die in Calgary ansässige Firma Sproule Associates, eine der ältesten und größten kanadischen Erdölberatungsfirmen kündigte vergangene Woche ihre Untersuchung an, dass bereits gerade mal fünf von fünfzig in Westkanada entdeckten Schiefergaslagerstätten bereits über geschätzte Vorkommen zwischen 0,809 und 2,2 Quadrillionen Kubikfuß verfügten [23 – 62 * 10^12 Kubikmeter].

Eine neue Analyse der ebenfalls in Calgary ansässigen ITG Investment Research mit dem Titel "No More Guessing: Hardcore IV" zeigt für die südlicheren U.S.- Bundesstaaten 1,1 Qcfe [31 * 10^12 Kubikmeter] förderbare Vorräte an 450.000 Bohrstandorten. Während die Gesamtmenge die Daten von 37 U.S. Schiefergaslagerstätten enthält, schätzt ITG die förderbaren Vorräte in gerade mal 10 zusammenhängenden Lagerstätten auf 900 Tcfe [25 * 10^12 Kubikmeter]. Zum Vergleich: In einer anderen aktuellen Studie der US-Energie-Informations-Behörde war für diese Lagerstätten ein Gesamtvorrat von 426 Tcfe [12 * 10^12 Kubikmeter] angegeben worden.

Zusammengenommen kommt man auf ein Potential von 3,3 Qcf [rund 93 * 10^12 Kubikmeter]. Die Untersuchung der kanadischen Vorräte durch die Firma Sproule ist spekulativer, weil dort weniger Probebohrungen und Erschließungen stattfanden. Der Bericht sagt, dass "unter den gegebenen Umständen der noch in den Anfängen steckenden Erschließung und der noch begrenzt verfügbaren Produktionsdaten aus diesen Lagerstätten eine Bandbreite für die Mengen anzugeben ist, weil noch ein hoher Grad an Unsicherheit existiert.“ Der Bericht der Firma wurde beim kanadischen National Energy Board vorgelegt zur Unterstützung für das bislang größte geplante  Flüssig-Naturgas-Export-Terminal an der nördlichen Pazifikküste in British Columbia: das LNG-Canada-Project von Shell Canada und Tochterunternehmen der Mitsubishi Corp., Korea Gas Corp., PetroChina Investment.

Obgleich die beiden Studien unterschiedliche Verfahren anwandten, ergibt eine Zusammenschau eine grobe Mengenabschätzung des im nördlichen Zweidrittel Nordamerikas verfügbaren Schiefergases.

Weitere Informationen auf ShaleDaily.com. Dort kann man sich für eine Probeperiode kostenfrei einschreiben und die beiden Studien lesen: "U.S. Has 1.1 Quadrillion Cubic Feet of Resource, Says Researcher" und "Report Puts Canadian Shale Gas Resource Base at Up to 2,222 Tcf."

Intelligence Press Inc., eine unabhängige Informationsfirma für die Energiewirtschaft seit 1981, informiert mit aktuellen Nachrichten und Preisvergleichen für Naturgasmärkte in ihren Publikationen: Natural Gas Intelligence, Daily Gas Price Index, Weekly Gas Price Index. Die neueste Publikation, NGI’s Shale Daily ist der erste tägliche Informationsdienst, der sich ausschließlich der aufblühenden Revolution bei Schiefergas und -Öl widmet, welche die Energiezukunft North Amerikas neu ausrichtet.

Weitere Infos hier.

Übersetzung: Helmut Jäger, EIKE




„Weltklimarat“ IPCC arbeitet intransparent und mogelt nach Kräften! Ein Insider packt aus.

Im kommenden Jahr soll der fünfte Sachstandsbericht des Weltklimarats (IPCC) veröffentlicht werden. Dann wird es auch wieder eine Debatte um die Seriosität dieses Reports geben. In der Vergangenheit hatten Manipulationsvorwürfe die Glaubwürdigkeit des Papiers als Ganzes in Mitleidenschaft gezogen.

Nun hat mit einem der Autoren des vierten IPCC-Berichts erstmals ein Insider aus dem Weltklimarat die Methoden enthüllt, unter denen der Bericht zustande kommt: Ross McKIttrick, Ökonomieprofessor an der Universität Guelph im kanadischen Bundesstaat Ontario.

McKIttrick ist am 17.9.12 in Berlin aufgetreten, und was er dort in einem minutiös detaillierten undefinedVortrag berichtete, untermauert die Zweifel an dem Hunderte von Seiten umfassenden Gesamtwerk. „Es ist sehr schwach und weit weg von akademischen Standards“, sagte McKittrick über den Inhalt der Studie, an der er 2005 und 2006 mitgearbeitet hat.

Großer Einfluß des WWF in allen Autorengruppen

Zum einen kritisiert er die Zusammensetzung des Autorengremiums. Es wird suggeriert, als wäre die Elite der Wissenschaft zusammen, um die Berichte des IPCC zu schreiben. In Wahrheit entsenden viele Länder gar keine Experten.

Jedes einzelne Hauptkapitel (gegliedert nach Arbeitsgebieten: hier "Working Group I", The Scientific Basis) nach wird von Autorengruppen, die wiederum die Unterkapitel bearbeiten.  McKIttrick war in der Working Group I und arbeitete an Entwürfen mit. Er mußte jedoch feststellen, daß seine Korrekturvorschläge ohne Begründung regelmäßig zurückgewiesen wurden. Nach Abschluß der Arbeit wurden zudem ohne Diskussion mit den Beteiligten gravierende Änderungen eingefügt. Im akademischen Bereich eine völlig inakzeptable Vorgehensweise, so McKIttrick.

Der Wissenschaftler weist zudem auf den Einfluß der Lobbygruppe World Wide Fund For Nature WWF (Details dazu hier im Vortrag von D. Lafromboise) hin.

28 von 44 Kapiteln seien von Gruppen verfaßt worden, in denen mindestens ein WWF-Mitglied saß. Auch die Führungsgruppen seien von WWF-Leuten dominiert.

McKittrick unterbreitet undefinedzehn Reformvorschläge. So rät er unter anderem dazu, die Berichte der Arbeitsgruppen immer gleich online zu stellen, um nachträglichen Manipulationen durch die IPCC-Strippenzieher einen Riegel vorzuschieben. Die Auswahlkriterien für die  Autoren sollten härter werden.

Vorschläge für eine Reform

1. Einführung eines objektiven und transparenten  Auswahlverfahren für die Lead Autoren.

2. Einführung eines transparente Ernennugnsprozesses der jeweiligen Fach-Autoren

3. Ernennung von Redakteurs-Aufsichtsräten und Identifizierung von potenziell kontroversen Abschnitte.

4. Explizite Zuordnung von beiden:  Autoren- und Gutachter Positionen. 

5. Einführung eines iterativen Prozess, um eine endgültige Fassung unter der gemeinsamen Aufsicht von Autoren, Gutachtern und Redakteuren zu erreichen.

6. Einführung eines Verfahrens für die Suche nach sachlich geeigneten Inhalten, wenn nötig von außerhalb der Liste der Autoren und Gutachter an der Assessment-Prozess.

7. Einführung eines "Due Diiligence"- (gebotene Sorgfalt) Verfahrens  in Bezug auf zentrale papers und die vollständige Offenlegung aller Daten und Methoden die die ursprünglichen IPCC Abbildungen und Tabellen zu erzeugen.

8. Sofortige Online-Veröffentlichung jedes vollständigen Berichts bei Abschluss desselben, noch vor der Erstellung der Zusammenfassung.

9. Erstellung der Zusammenfassung durch Ad-hoc-Arbeits-Gruppen des Gremiums, die auf Empfehlungen des Redakteurs-Aufsichtsrats (Editorial Advisory Board) basierend, ernannt werden.

10. Veröffentlichung aller Entwürfe, Review-Kommentaren, Antworten und Autoren-Korrespondenz samt Datensätzen innerhalb von 3 Monaten nach Online-Veröffentlichung des vollständigen Berichts.

Der Katalog von McKittrick endet mit der Forderung:

Dass die am IPCC beteiligten Nationen diese Reformen sofort starten, und, wenn ein solcher Reform-Prozess nicht eingeleitet werden kann, dann sollten sich die nationalen Regierungen, die wirklich an objektiver und fundierter Beratung zu Fragen des Klimawandels interessiert sein sollten, aus dem IPCC zurückziehen. Sie sollten dann den Prozess zum Aufbau einer neuen Institution beginnen, die frei von den oben genannten Mängeln ist.

Das Vorwort zu McKittricks Studie ( What is wrong with the IPCC?) hat der frühere australische Premierminister John Howard geschrieben, ein erklärter Gegner der gängigen Erderwärmungsthese. Der Report sei „gut recherchiert“ und seine Lektüre „notwendig“, um den IPCC-Bericht verstehen zu können, so Howard. (rg)

R. Gläser (Red. M.Limburg); zuerst erschienen auf Junge Freiheit




Bild-Umfrage: Bürger in großer Mehrheit für mehr Kernkraft, oder?

Das Thema gewinnt also an Fahrt, doch die Kanzlerin stellt sich unwissend:

„Kanzlerin Angela Merkel hat beim Arbeitgebertag ihr Unverständnis über teuren Strom zum Ausdruck gebracht.“

In wie weit ihr „Unverständnis“ berechtigt  ist, lesen Sie hier

Die Redaktion

Nachtrag 17.10.12

Die Bild-Umfrage zur Kernenergie endete am 16.10.12 um 0:00 mit 118.827 Teilnehmern und einem unveränderten Votum von 65 % Ja, und 35 % Nein Stimmen.




Der Hype um den Ökostrom folgt dem Niedergang beim Klimawandel-Die fünf Rechentricks der Ökobranche nebst einem Kommentar

Unter dem Titel “So rechnet die Ökobranche die Energiewende schön” zeigt Autor Daniel Wetzel in der „Welt am Sonntag“ eine überaus interessante Auflistung. Ich empfehle allen, den Artikel in gesamter Länge zu lesen. Hier sind die fünf Punkte, mit deren Hilfe die Ökobranche jetzt versucht, den Schwarzen Peter für die Erhöhung der EEG-Umlage wahlweise an die Industrie oder an die Politik weiterzugeben. Wobei der fünfte Punkt eigentlich eine Rechtfertigung für die hohen Preise ist, weil ohne “Ökostrom” alles schließlich noch viel teurer werden würde.

Die Fünf Punkte in Auszügen:

1. Sündenbockindustrie

Die Kostenrelativierer behaupten, dass die Befreiung der Industrie von der EEG-Umlage verantwortlich für den teureren Ökostrom sei. Denn alle übrigen Verbraucher haben entsprechend höhere Kosten zu schultern. Die In dustrie entziehe sich der Finanzierung des “nationalen Gemeinschaftswerks” Energiewende.

Daran ist zwar richtig, dass viele Betriebe von der EEG-Umlage befreit sind, die dieses Privileg gar nicht nötig haben. Doch das macht aus der Industrie nicht den schlimmsten Kostentreiber der Energiewende. Allein die EEG-Umlage zur Förderung des Solarstroms ist mit 1,77 Cent pro Kilowattstunde dreimal so hoch wie die “besondere Ausgleichsregelung” der Industrie, die nur 0,6 Cent beträgt.

2. Höheres Angebot

Der Bundesverband Erneuerbarer Energien (BEE) kritisiert, in der Höhe der EEG-Umlage spiegele sich nicht wider, dass Ökostrom den Großhandelspreis für Elektrizität senkt.

Richtig daran ist, dass die Einspeisung von Ökostrom das Gleichgewicht von Angebot und Nachfrage an der Strombörse verschiebt: Wenn der Wind stark weht, verdrängt Ökostrom dank seines gesetzlichen Einspeisevorrangs den Strom etwa aus relativ teuren Gaskraftwerken vom Markt. Allerdings bewirkt dieser sogenannte Merit-Order-Effekt nur eine Preissenkung um rund 0,5 Cent pro Kilowattstunde (Es ist zudem festzuhalten, das der an der Strombörse angebotene Strom aus „Eneuerbaren“ zuvor schon von den Netzbetreibern mit vollem Satz nach EEG Umlage bezahlt wurde, die „Preissenkung“ bis hin zu „negativen Preisen“ d.h. Zuschuss des Anbieters für den „Käufer“ damit dieser den Strom abnimmt- senkt nicht den realen Preis, sondern erhöht ihn zusätzlich. Anmerkung von M.L.)   .

(…) unterschlagen wird stets, dass der Merit-Order-Effekt nur kurzfristig wirkt: Wenn dauerhaft die noch auf lange Sicht unverzichtbaren konventionellen Kraftwerke abgehängt werden, macht das – erneut umlagefinanzierte – Reservekraftwerke notwendig. Deren Kosten dürften die preisdämpfende Wirkung des Merit-Order-Effekts aufzehren.

3. Preistreiber Fiskus

Der eigentliche Preistreiber beim Strom sei der Staat, nicht der Ökostrom, wird argumentiert. Schließlich mache der Anteil von Steuern und Abgaben mehr als 45 Prozent am Strompreis aus.

Das Argument ist nicht ganz falsch, verschleiert aber, dass die EEG-Umlage zur Förderung von Ökostrom der zweitgrößte staatlich veranlasste Preisbestandteil nach der Umsatzsteuer ist. Sie hatte 2011 einen Anteil von rund 14 Prozent am Strompreis.

4. Präzedenzfall Atom

Die Ökostromsubventionen werden oft mit dem Argument relativiert, Atom- und Kohlekraft hätten ebenfalls Staatsgelder bekommen. So rechnet etwa Greenpeace.

Das mag ja stimmen, nur bremst das Argument nicht die Kostenlawine durch erneuerbare Energien. Zudem werden bei den Subventionen für Atom- und Kohlestrom oft Summen zusammenfantasiert, die mit der Realität wenig zu tun haben. Eine Greenpeace-Studie zu den Staatsbeihilfen für die Atomkraft rechnete zum Beispiel auch die Gelder mit ein, mit denen sich Deutschland an der Sicherung der AKW-Ruine in Tschernobyl beteiligte.

5. Knappe Ressourcen

Stets wird argumentiert, es werde sich auszahlen, eigentlich unwirtschaftliche Ökostromquellen zu subventionieren, weil die Kosten für fossile Energieträger noch viel stärker steigen würden.

Dennoch bleibt fraglich, warum der Aufbau mit unausgereifter Technologie unter künstlichem Zeitdruck und Aufgabe aller marktwirtschaftlichen Prinzipien geschehen muss – obwohl er das Risiko der De-Industrialisierung mit dem sozialer Schieflagen kombiniert.

Dank neuer Fördertechniken und Funde sind in den vergangenen Jahrzehnten die bekannten Erdölreserven der Welt nicht geschrumpft, sondern größer geworden. Die Reichweite der Gasreserven wird auf knapp 500 Jahre geschätzt. Durch die Schiefergas-Revolution haben sich die USA sogar vom Importeur zum Exporteur von Erdgas gewandelt. Der US-Verbraucher zahlt seither vier Fünftel weniger für Strom und Gas als der deutsche. Für Zeitdruck in der Energiewende spricht das nicht.

Ein Punkt, der aus meiner Sicht in dieser Aufzählung fehlt ist eigentlich ein ganz zentraler. Und zwar der eigentliche Grund, warum im Jahr 2000 das “Gesetz zum Vorrang Erneuerbarer Energien” überhaupt eingeführt wurde.

Ziel des EEG: die Förderung des Ausbaus der erneuerbaren Energien zur Stromerzeugung als zentrales Element für Klimaschutz/ Umweltschutz/ nachhaltige Entwicklung (…)

Erinnert sich noch jemand? Es ging damals vorrangig darum die Erde vor einem unmittelbar drohenden katastrophalen Klimawandel zu retten. Die Tatsache, dass dieser zentrale Aspekt in der aktuellen Debatte um das EEG so gut wie keine Rolle mehr zu spielen scheint, spricht für sich schon Bände. Das Thema Klimaschutz ist in der Politik, in den Medien und auch in der Gesellschaft höchstens noch eine Randerscheinung. Wobei zwei Faktoren eine Rolle spielen.

Der erste ist, dass nach über zehn Jahren medialen Dauerfeuers das Interesse am Klimawandel in der Bevölkerung und Medien deutlich nachgelassen hat. (Info hier und hier) Eine Art Katastrophenmüdigkeit ist eingetreten.

Und der zweite und wohl entscheidende Faktor ist der Umstand, dass unser Planet sich, für die meisten Menschen offensichtlich, seit mehr als zehn Jahren beharrlich weigert die prophezeite Erwärmung zu zeigen. Eine Wahrnehmung, die von den Messdaten gestützt wird. Gerade heute wird berichtet, dass die globale Erwärmung nach Daten des britischen Met Office seit 16 Jahren zum Erliegen gekommen ist. Dieser Zeitraum ist inzwischen genauso lang, wie der der Erwärmung vorher.

Die Entwicklung um den Niedergang der globalen Erwärmung als Schreckgespenst kann uns einen Hinweis darauf geben, was dem Mantra “Die Erneuerbaren helfen, langfristig die Strompreise niedrig zu halten” droht. Denn das ist, wenn man die Fünf oben gezeigten Punkte liest, der zentrale Aspekt, auf den die Grünstrombranche jetzt hinaus will. Der Strom aus “Erneuerbaren” komme uns langfristig günstiger als ein Festhalten an fossilen Brennstoffen. Warum sonst sollte sich Deutschland schließlich auf ein so gewagtes Experiment wie die Energiewende einlassen, wenn die dadurch zu erreichenden Emissionsminderungen im weltweiten Vergleich absolut unbedeutend sind?

Mit der jetzt bekannten Erhöhung der EEG-Umlagevon 3,59 auf 5,3 Cent pro Kilowattstunde (zuzüglich MWst sind das 6,3 ct/kWh Anm. M.L.) wird der Glaube an den Kostensenker Grünstrom einen ganz empfindlichen Dämpfer hinnehmen müssen. Eventuell reicht dieser Preisschock sogar aus, um in Politik, Medien und Bevölkerung ein grundsätzliches Umdenken einzuleiten. Eine Abkehr von dem bisher als unumstößlich geltenden Glauben, dass das Heil Deutschlands in der Zukunft einzig in den “Erneuerbaren Energien” zu suchen wäre.

Quentin Quencher;  zuerst erschienen auf Science Sceptical

ÄHNLICHE BEITRÄGE :

•    Die Energiewende ist schon gescheitert;  hier als Buch zu beziehen

•    Der EEG-Wahnsinn

•    Wie der Fraunhofer Direktor in seinem Ferienhaus in Kalifornien Energie spart




Erneut offiziell bestätigt: Globale Erwärmung hörte vor 16 Jahren auf!

Neuen, während der vorigen Woche veröffentlichten, Daten zufolge, hat die Welt vor fast 16 Jahren aufgehört, sich weiter zu erwärmen.

Die Angaben, die unter Klimawissenschaftlern eine Debatte ausgelöst haben, enthüllen, dass es von Anfang 1997 bis August 2012 keinen nennenswerten Anstieg der globalen Temperaturen gegeben hat.

Dies bedeutet, dass das ‚Plateau’ oder die ‚Pause’ bereits genauso lange gedauert hat wie die vorhergehende Periode, während der die Temperaturen gestiegen sind, also von 1980 bis 1996. Davor waren die Temperaturen stabil oder sind etwa 40 Jahre lang leicht zurückgegangen.

Die neuen Daten, gesammelt von mehr als 3000 Messpunkten zu Land und zu Wasser, wurden in aller Stille im Internet veröffentlicht, ohne Medienfanfaren, und bis heute hat niemand davon berichtet.

Dies steht in scharfem Kontrast zur vorhergehenden Veröffentlichung von Zahlen vor sechs Monaten, die nur bis Ende 2010 gingen – einem sehr warmen Jahr.

Das Ende des Datensatzes damals bedeutet, dass man seit 1997 einen leichten Erwärmungstrend zeigen kann, aber im Jahr 2011 und in den ersten Monaten 2012 war es viel kälter. Folglich ist dieser Trend beseitigt worden.

Einige Klimawissenschaftler wie Phil Jones, Direktor der CRU an der University of East Anglia, haben die Bedeutung des Plateaus klein geredet mit der Begründung, dass 15 oder 16 Jahre eine zu kurze Periode seien, um daraus Schlussfolgerungen zu ziehen.

Andere widersprachen. Professor Judith Curry, Leiterin des Climate Science Department an der amerikanischen Eliteuniversität Georgia Tech, sagte der Mail on Sunday, dass es ganz klar sei, dass die zur Vorhersage der zukünftigen Erwärmung verwendeten Computermodelle ‚ein totaler Fehlschlag’ waren.

Selbst Phil Jones räumte ein, dass er und seine Kollegen den Einfluss der ‚natürlichen Variabilität’ nicht verstünden – Faktoren wie langzeitliche Zyklen der Wassertemperatur und Änderungen der Sonnenstrahlung. Allerdings sagte er auch, dass er immer noch davon überzeugt sei, dass die laufende Dekade signifikant wärmer ausfallen werde als die beiden zuvor.

 

Uneinigkeit: Professor Phil Jones (links) von der University of East Anglia, bestritt die Bedeutung des Plateaus. Professor Judith Curry (rechts) von der Georgia Tech University hebt die Bedeutung hervor und sagt, dass die zur Vorhersage der zukünftigen Erwärmung verwendeten Computermodelle ‚ein totaler Fehlschlag’ waren.

Der regulär erstellte Datensatz der globalen Temperatur hat die Bezeichnung Hadcrut 4, da er gemeinsam vom Hadley Centre des Met. Office und der CRU von Phil Jones veröffentlicht wird.

Seit 1880, dem Beginn der weltweiten Industrialisierung und dem Beginn der Datensammlung im globalen Maßstab hat sich die Welt um 0,75°C erwärmt.

Einige Wissenschaftler haben behauptet, dass diese Erwärmungsrate ohne drastische Einschnitte bei den Kohlendioxid-Emissionen erheblich zunehmen wird, was zu einer katastrophalen weiteren Erwärmung bis zu 5°C bis zum Ende dieses Jahrhunderts führen kann.

Die neuen Zahlen wurden zu der Zeit veröffentlicht, an der die Regierung klarstellte, dass es ihre eigenen Kohlendioxid-Verordnungen ‚verbiegen’ und neue Kraftwerke bauen werde, um drohenden Stromausfällen zu begegnen.

Auf der Konferenz der Conservative Party in der vorigen Woche hat der neue Energieminister John Hayes versprochen, dass ‚die hoch fliegenden Theorien von bourgoisen Linksakademikern nicht die Interessen der normalen Leute außer Acht lassen dürfen, die Treibstoff zum Heizen, sowie für Licht und Transporte brauchen – Energiepolitik für viele, nicht für wenige, kann man sagen – Ein Versprechen, dass die Wut grüner Aktivisten erregt hat, die Reduktionen der riesigen Subventionen für Windparks befürchten.

Betrügerische Wissenschaft kommt uns sehr teuer zu stehen

Hier folgen drei nicht so triviale Fragen, die Sie nicht im nächsten Quiz am Stammtisch finden werden. Erstens, um wie viel ist es auf der Welt wärmer geworden a) seit 1880 und b) seit 1997? Und was hat das mit Ihrer immer stärker steigenden Stromrechnung zu tun?

Die Antworten auf die ersten beiden Fragen könnten für Sie überraschend sein.

Seit 1880, dem Beginn fast weltweiter zuverlässiger Temperaturaufzeichnungen hat sich die Welt um etwa 0,75°C erwärmt.

Seit Anfang 1997 bis August 2012 ergibt sich jedoch aus den in der vorigen Woche veröffentlichten Daten ein Trend bei Null: Der Trend aus mehr als 3000 Stationen weltweit ist flach.

Überraschend: Die Nachricht, dass es auf der Welt seit 16 Jahren nicht mehr warmer geworden ist, kommt für Viele als eine Art Schock.

Nicht dass davon in den Medien in irgendeiner Form berichtet worden wäre, die sonst eifrig mit Klimadingen bei der Sache sind. Die Zahlen wurden ohne Aufhebens online gestellt, ohne begleitende Presseerklärung – anders als noch vor sechs Monaten, als sich noch ein leichter Erwärmungstrend gezeigt hat.

Die Antwort auf die dritte Frage ist vielleicht die Vertrauteste.

Ihre Rechnungen steigen, zumindest teilweise, wegen der ‚grünen’ Subventionen für die Industrie der erneuerbaren Energie, vor allem Wind.

Diese werden den normalen Haushalt etwa 100 Pfund in diesem Jahr kosten. Dieser Betrag dürfte stetig weiter steigen – und das, obwohl er nur aus einem einzigen Grund eingeführt worden ist:

wegen der weit verbreiteten Überzeugung, die von Politikern aller Couleur geteilt und schon den Grundschülern vermittelt wird, dass sich ohne drastische Einschnitte zur Reduktion von Kohlendioxid-Emissionen die globale Erwärmung mit Sicherheit bald erheblich beschleunigen und bis zum Ende dieses Jahrhunderts zu einer Katastrophe führen wird – könnte die Temperatur doch dann bis zu 5 Grad höher liegen.

Daher die Bedeutung der Antworten auf die ersten beiden Fragen. Die globale Industrialisierung während der letzten 130 Jahre hat nur einen relativ kleinen Unterschied gebracht.

Und für das durch das Parlament gepeitschte Gesetz, den CO2-Ausstoss des Landes bis zum Jahr 2050 um 80 Prozent zu senken, einem Projekt, dass Hunderte Milliarden kosten wird, ist die Nachricht von der seit 16 Jahren fehlenden Erwärmung so etwas wie ein Schock.

Damit stellt sich eine fundamentale Herausforderung der Hypothesen, die jedem Aspekt der Klimaänderungs- und Energiepolitik zugrunde liegen.

Dieses Plateau’ beim Temperaturanstieg bedeutet nicht, dass die globale Erwärmung an irgendeinem Zeitpunkt wieder einsetzen wird.

Abbildung: Die globale Erwärmung soll zum Teil durch das CO2-emittierende Verbrennen fossiler Treibstoffe verursacht worden sein. Diese Bild zeigt den Wrasen aus den Kühltürmen eines Kraftwerks. In den Medien oft und gern mit Rauch (die dünnen Rauchfahnen) aus den Schornsteinen verwechselt.

Aber einer zunehmenden Zahl von Klimawissenschaftlern zufolge zeigt es eher, dass die Computermodelle, die seit Jahren eine fortwährenden Untergang vorhergesagt haben und vom Met. Office und dem IPCC verwendet worden waren, falsch sind, und dass das Klima viel komplexer ist als die Modelle annehmen.

„Die neuen Daten bestätigen die Existenz einer Pause bei der globalen Erwärmung”, hat mir Professorin Judith Curry, Vorsitzende der School of Earth and Atmospheric Science at America’s Georgia Tech University gestern gesagt. Und weiter:

„Die Klimamodelle sind sehr komplex, aber sie sind nicht perfekt und unvollständig. Die natürliche Variabilität (der Einfluss von Faktoren wie langzeitlicher Temperaturzyklen in den Ozeanen und der Strahlungsfluss der Sonne) hatten erwiesenermaßen während der letzten zwei Dekaden eine Größenordnung, die den Treibhauseffekt übertrifft.

Es wird immer offensichtlicher, dass unser Beitrag zur Erwärmung seit 1980 sowie zukünftige Projektionen der Klimaänderung ein Überdenken der internen natürlichen Variabilität als Faktor von erheblicher Wichtigkeit erfordert“.

Von Professor Phil Jones, der sich vor drei Jahren im Zentrum des ClimateGate-Skandals wiederfand, wird normalerweise nicht erwartet, dass er ihr zustimmt. In zwei wichtigen Punkten hat er es aber doch getan.

Die Daten legen in der Tat ein Plateau nahe, räumte er ein, und ohne ein wesentliches El Nino-Ereignis – eine plötzliche dramatische Erwärmung des Südpazifik, welches unvorhersagbar auftritt und immer einen immensen Einfluss auf das globale Wetter hat – „könnte das auch noch eine Weile so weitergehen“.

Wie Prof. Curry räumt auch Prof. Jones des Weiteren ein, dass die Klimamodelle nicht perfekt waren: „Wir verstehen nicht vollständig, wie man Dinge wie Änderungen in den Ozeanen einbringt, und weil wir das nicht völlig verstehen, könnte man jetzt sagen, dass die natürliche Variabilität derzeit die Erwärmung unterdrückt. Wir wissen nicht, was die natürliche Variabilität macht“.

Und trotzdem besteht er darauf, dass 15 oder 16 Jahre keine signifikante Periode sind: Pausen derartiger Länge waren immer erwartet worden.

Dabei hat er schon im Jahr 2009 in einer durch ClimateGate bekannt gewordenen E-Mail an einen Kollegen gesagt: „Das Plateau, das sich bereits abzeichnet und von Wissenschaftlern diskutiert wird – unter dem Strich: der ‚Nicht-aufwärts-Trend’ muss insgesamt 15 Jahre andauern, bevor wir uns Sorgen machen“.

Aber obwohl dieser Zeitpunkt jetzt vorüber ist, hat er gesagt, dass er seine Meinung über die bedrohlichen Vorhersagen der Modelle nicht geändert hat: „Ich glaube immer noch, dass die gegenwärtige Dekade um 0,17 Grad wärmer ausfallen wird als die vorige, die wärmer war als die neunziger Jahre“.

Nur wenn das nicht der Fall sein sollte, würde er anfangen, sich ernstlich zu fragen, ob nicht irgendetwas noch Ausgeprägteres vor sich geht. Mit anderen Worten, aus der Periode von 15 Jahren, nach der er sich Sorgen machen würde, sind inzwischen 20 Jahre geworden.

Inzwischen ließen seine Kollegen am Met. Office nicht locker. Ein Sprecher sagte: „Die Wahl eines Start- oder Endpunktes im Kurzfristbereich kann sehr irreführend sein. Klimaänderung kann man nur aus multidekadischen Zeiträumen wegen der inhärenten Variabilität des Klimasystems ableiten“.

Er sagte, dass ein Andauern des Plateaus länger als 15 Jahre ‚unwahrscheinlich’ sei. Gefragt nach einer Vorhersage des Met. Office aus dem Jahr 2009 – dass drei von fünf aufeinander folgenden Jahren einen neuen Welttemperaturrekord erreichen würden – gab er keinen Kommentar. Da es keinerlei Anzeichen für einen starken El Nino im nächsten Jahr gibt, sind die Aussichten, dass dies so kommt, gering.

Warum all das von Belang ist, sollte offensichtlich sein. Jedes Quartal haben die Statistiken zur Wirtschaft und Modellaussagen zur zukünftigen Entwicklung massive Auswirkungen auf unser Leben. Sie lösen eine ganze Reihe politischer Reaktionen von der Bank of England und dem Schatzministerium aus, ebenso wie Myriaden von Entscheidungen durch private Industrien.

Und das, obwohl es seit dem Einbruch im Jahr 2008 offensichtlich geworden ist, dass sowohl die Statistiken als auch die Modellierung extrem unzuverlässig sind. Darum herum die Zukunft zu planen ist etwa genauso sinnvoll wie die Auswahl eines Hochzeitstermins drei Monate im Voraus nur aufgrund einer Wettervorhersage.

Nur wenige Menschen würden so dumm sein. Aber Entscheidungen mit weitaus größerer und teurerer Bedeutung aufgrund dieser Ergebnisse wurden und werden immer noch auf der Basis von Klimavorhersagen getroffen, nicht für drei Monate im Voraus, sondern für das ganze kommende Jahrhundert – und das trotz der Tatsache, dass Phil Jones und seine Kollegen jetzt zugeben, dass sie die Rolle der ‚natürlichen Variabilität’ nicht verstehen.

Das Deprimierendste an dieser Debatte ist, dass jeder, der das alarmistische Untergangsszenario in Frage stellt, automatisch als ‚Klimaleugner’ tituliert und angeklagt wird, die Zukunft der Menschheit aufs Spiel zu setzen.

Also nochmals zur Klarstellung: Ja, globale Erwärmung ist real und zumindest teilweise auf das durch fossile Treibstoffe emittierten CO2 zurückzuführen. Aber die beweise beginnen zu zeigen, dass sie viel langsamer vonstatten geht als die Katastrophisten behauptet haben – eine Schlussfolgerung mit enormen politischen Implikationen.

von David Rose;  das Original ist in der Daily Mail UK erschienen

Bei WUWT finden sich noch folgende Zusatzbemerkungen:

Betrachtet man die Bedeutung der Periode seit 1997, sollte man sich daran erinnern, dass Dr. Ben Santer behauptet hat, dass die erforderliche Periode 17 Jahre beträgt:

http://wattsupwiththat.com/2011/11/17/ben-santers-17-year-itch/

Sie finden, dass troposphärische Temperaturaufzeichnungen mindestens 17 Jahre lang sein müssen, um zwischen internem Klimarauschen und dem Signal von anthropogen verursachten Änderungen der chemischen Zusammensetzung der Atmosphäre zu unterscheiden.

Professor Richard Lindzen am MIT hat Ähnliches in einem Gastbeitrag auf WUWT geschrieben:

‚Es gab seit 1997 keinen Erwärmungstrend mehr und keine statistisch signifikante Erwärmung seit 1995’.

Bob Tisdale hat einen 17- und einen 30-Jahre-Trend verglichen hier.

Hier findet man den Datensatz von HADCRUT4.

Link: http://wattsupwiththat.com/2012/10/13/report-global-warming-stopped-16-years-ago/

Übersetzt von Chris Frey EIKE

Update 16.10.12 15:46 Uhr

Das Metoffice hat sich jetzt zu diesem Vorgang geäußert. Details samt Kommentaren (nur in Englisch) hier