1

Ein amerikanischer Triumph: Die Schiefer-Revolution bringt sauberere Umwelt zusammen mit Arbeitsplätzen und Wohlstand

Der top energy fact 2012 findet sich in einem Beitrag mit dem Titel „An American Triumph“ von John Hanger und gipfelt in der Darstellung oben rechts, welche das reale BIP der USA und jährliche CO2-Emissionen von 1986 bis 2012 zeigt, wobei Schätzungen aus dem vorigen Jahr auf Daten aus den ersten 9 Monaten für beide Reihen basieren. Während der 20-jährigen Periode von 1986 bis 2006 gab es eine stark positive Beziehung zwischen dem US-BIP und der Menge der CO2-Emissionen in jedem Jahr (eine Verteilung, die auch noch viel weiter zurück reicht). Viele Jahrzehnte lang haben die Aktivitäten im Zusammenhang mit der zunehmenden Wirtschaftsleistung [economic output] zu einem zunehmenden Ausstoß von Treibhausgasen geführt, wie aus der Graphik eindeutig hervorgeht.

Aber die historische positive Beziehung zwischen BIP und CO2-Emissionen wurde etwa im Jahr 2007 durchbrochen. Während der letzten fünf Jahre seit 2007, als die höchsten CO2-Emissionen der Geschichte aufgetreten waren (mehr als 6 Milliarden metrische Tonnen), stieg das reale BIP um 3,4%, während die CO2-Emissionen um etwa 12% zurückgegangen sind. Abhängig von den Berechnungen für das letzte Quartal könnten die CO2-Emissionen im Jahr 2012 auf das niedrigste Niveau seit 20 Jahren fallen, also seit 1992 (siehe Graphik). Zum ersten Mal in der jüngeren Geschichte waren die USA damit also in der Lage, die Wirtschaftsleistung während der letzten fünf Jahre zu steigern mit gleichzeitigen gewaltigen Reduktionen der CO2-Emissionen.

Wie ist das möglich? Während eine gestiegen Energieeffizienz und erneuerbare Energien eine gewisse Rolle bei der Reduktion von Treibhausgasen gespielt haben, trägt jedoch die Schiefergas-Revolution den Hauptanteil an dieser nie da gewesenen Reduktion. Sie begann im Jahr 2007 mit technologischen Durchbrüchen beim hydraulischen Brechen. John Hanger erklärt diesen „Amerikanischen Triumph“ folgendermaßen:

„Es ist ein wirklicher amerikanischer Triumph, dass energiebezogene Kohlendioxidemissionen 2012 um weitere 4% im Vergleich mit 2011 zurückgingen und vermutlich das Niveau von 1995 erreichen. Die Kohlendioxid Uhr wurde um 17 Jahre zurückgestellt, und die Emissionen 2012 werden sogar geringer sein als im Beinahe-Rezessionsjahr 2009.

Das US-BIP ist seit dem 1. Juli 2009 in jedem Quartal gestiegen, und heute ist unsere Wirtschaft größer als 2007, dem Jahr mit dem Spitzenwert des CO2-Ausstoßes. Und doch werden unsere Kohlendioxidwmissionen um 12% niedriger liegen als 2007, und das selbst mit einer Wirtschaft, die größer ist als 2007.

Das Rezept für den Kohlendioxid Erfolg in den USA enthält mehr als Erdgas, erneuerbare Energie und Energieeffizienz. Zentral und einmalig im US-Erfolg sind die massive Schiefergas-Erzeugung und die daraus resultierenden niedrigen Gaspreise, die zu einer substantiellen Verschiebung der Stromerzeugung hin zu Gas mit niedrigem Kohlendioxidausstoß und weg von Kohle und Öl geführt haben.

Viele andere Länder wie China investieren erheblich in erneuerbare Energie und Energieeffizienz, und diese Investitionen sind auch essentiell. Trotz dieser beeindruckenden Investitionen in saubere Energie sind der Kohleverbrauch und die Kohlendioxidemissionen in China und anderen Ländern gestiegen. Weltweit helfen Erneuerbare und Energieeffizienz, haben aber nicht ausgereicht, die Kohlendioxidemissionen für sich allein auch nur zu stabilisieren, geschweige denn sie zu reduzieren.

Nur in den USA gab es einen Schiefergas-Boom, und nur die USA haben ihren Kohlendioxidausstoß seit 2006 substantiell reduziert. In Kombination  mit steigendem Anteil an erneuerbarer Energie und Energieeffizienz hat der Schiefergas-Boom substantiell zu einem Rückgang der US-Kohlendioxidemissionen geführt. Mehr noch, die Strompreise sind 2012 in den USA kaum gestiegen, und die Preise für Erdgas sind abgestürzt. Sauberere und billigere Energie sind ein wirklicher amerikanischer Triumph und mein „Top Energy Fact“ 2012!“

Mark Perry: Soweit John Hanger. Wie ich schon früher kommentiert habe, ist es wirklich schwer, all die wichtigen Vorteile der Schiefergas-Revolution für die Wirtschaft in den USA während der letzten fünf Jahre zu übertreiben, und die signifikante Reduktion der Kohlendioxidemissionen seit 2007 ist nur ein Teil eines „wirklichen amerikanischen Triumphes“, wie John Hanger das nennt. Zusätzlich zu den bedeutenden Umweltvorteilen von Schiefergas hat die Revolution sowohl für Schiefergas als auch für Schieferöl einen gut zeitlich passenden Energie-Stimulus für die Wirtschaft seit 2007 gebracht, gerade als die Große Rezession und die Finanzkrise die Wirtschaft schwer bedrängt haben. Es ist ziemlich ernüchternd, daran zu denken, wo die US-Wirtschaft und die Lage am Arbeitsmarkt heute stehen würde, und um wie viel höher die CO2-Emissionen wären ohne die „Energie-Revolution“, die durch fortgeschrittene Bohrtechnologie ermöglicht worden ist.

Zusammenfassend:

Der große „Amerikanische Triumph” schafft Millionen Arbeitsplätze im gesamten US-Arbeitsmarkt, stimuliert die Wirtschaft mit Billionen [US trillions] von Dollar neuen Investment-Kapitals, reduziert die Energiekosten für private und kommerzielle Verbraucher und erbringt Milliarden Dollar Einsparungen; er lässt die US-Erdgaspreise auf das niedrigste Niveau der Welt fallen und verhilft zu eine Renaissance energieintensiver Produktion; er spült zusätzliche Milliarden Dollar für die Einnahmen von Bundes- und Staatsregierungen in die Kassen und erzeugt tausende neuer Millionäre durch Öl- und Gasgebühren, die an Farmer und Landbesitzer im ganzen Land gezahlt werden. Solange es keine wesentliche politische oder regulatorische Einmischung gibt, fangen die Auswirkungen der Energie-Revolution und der „wirkliche amerikanische Triumph“ jetzt erst an und sind einer der stärksten Gründe, optimistisch über die US-Wirtschaft, die Lage am Arbeitsmarkt und die Umwelt zu sein.

Mark J. Perry, AEIdeas

Link: http://www.thegwpf.org/american-triumph-shale-revolution-delivers-cleaner-environment-jobs-prosperity/

Übersetzt von Chris Frey EIKE

Bemerkungen des Übersetzers: Der Autor des Artikels geht offenbar fest von einem Zusammenhang zwischen CO2-Ausstoß und Klima aus. Offiziell ist das ja auch bei uns so. Darum geht es dem Autor aber nicht. Der Grund, warum ich diesen Artikel zur Übersetzung ausgesucht habe, ist Folgender: legt man die eigene offizielle Lesart bei uns zugrunde, sollte man hierzulande sehr genau zur Kenntnis nehmen, was in den USA möglich war! M. E. kommt die ganze Verlogenheit der grünen Argumentation bei uns zum Ausdruck, wenn einerseits eine Reduktion von „Treibhausgasen“ gefordert wird, gleichzeitig aber ein sehr geeigneter Weg, dies zu erreichen, so vehement abgelehnt wird. Dass die sog. „Erneuerbaren“ eben kein geeigneter Weg sind, hat der Autor am Rande ebenfalls erwähnt.

Die nationalistischen Töne von dem hier zitierten John Hanger scheinen etwas dick aufgetragen, doch kann ich den Stolz des Verfassers auf sein Land nachvollziehen.

C. F.




Die NYT verbreitet blödsinnige Behauptungen über „Extremwetter“, aber das öffentliche Interesse schwindet

Er beginnt seinen Beitrag mit einem Zitat von Tom Nelson:

Tom Nelson schreibt:

Schreiende Verrücktheiten in der New York Times: die globale Erwärmung wird für den kältesten Winter seit 30 Jahren in China ebenso wie für viele andere Kalt-Extremereignisse verantwortlich gemacht; die Story ziert ein Photo von eingeschneiten Palmen in Jerusalem: Extreme Weather Grows in Frequency and Intensity Around World – NYTimes.com

Angesichts all dieser jüngsten Berichte über „Extremwetter” in den ahnungslosen Main Stream-Medien (MSM) fragte ich mich, wie die Öffentlichkeit darauf reagiert. Offensichtlich ist die Häufigkeit der Verwendung dieses Ausdrucks dramatisch steigend und sieht tatsächlich wie ein Hockeyschläger aus:

Quelle: Google ngram viewer (Achtung: Daten stehen nur bis 2008 zur Verfügung)

Aber dann war ich echt überrascht von der öffentlichen Reaktion. Es scheint, dass die Öffentlichkeit einfach klüger ist als die MSM und die AGW-Untergangspropheten glauben; oder aber sie hat einfach von dem Hype die Nase voll. Die Suchergebnisse bei Google zeigen einen flachen Verlauf:

Quelle: Google Trends [Das war so im Original]

Es scheint, dass „Extremwetter” kein Zugpferd mehr ist. Ich bin sicher, die Untergangspropheten nennen das ein „Kommunikationsproblem“. Man vergleiche den Verlauf von dem Spitzenwert 2007 nach Al Gores Film „Eine unbequeme Wahrheit“. Alle Terme scheinen in einem Abschwung hinsichtlich ihrer Bedeutung zu sein.

Außerdem scheint es hauptsächlich eine Abweichung im englischen Sprachraum zu sein, in der übrigen Welt ist das Interesse offenbar noch geringer.

Man muss sich nun aber keine Sorgen machen, es ist immer noch genug Raum für ein neues Memo, sobald die MSM und die Untergangspropheten einmal herausgefunden haben, dass sich „Extremwetter“ als Kommunikationsobjekt tot gelaufen hat.

Anthony Watts

Link: http://wattsupwiththat.com/2013/01/11/nyt-pushes-crazy-claims-about-extreme-weather-but-public-interest-wanes/#more-77338

Übersetzt und mit einer Einführung versehen von Chris Frey EIKE




Schwedische Krimis gruselig? Dann kennen Sie noch nicht Drucksache 17/5672.

Großräumiger, langanhaltender Stromausfall? Das ist in Deutschland doch gar nicht möglich – könnte man meinen. Freilich war es im Winter 2011/2012 schon einmal fast so weit. Wie Fachleute dem Autor unter der Hand berichteten, hing in der betreffenden Gefahrenperiode jedes, auch noch das marodeste und kleinste fossile Kraftwerk am Netz. Hätte eine sprichwörtliche Maus zur dieser Zeit mit scharfem Zahn ein wichtiges Kabel durchgebissen, die  Drucksache 17/5672 wäre zur Realitätsbeschreibung geworden.

Und dabei sind die "Erneuerbaren" aktuell noch nicht einmal so "dick" dabei, wie es sich viele Leser(innen) vielleicht vorstellen. Im Jahre 2011 gegenüber dem Jahre 2000 wurde die deutsche Stromversorgung lediglich mit 7% weniger Kohle, 12% weniger Kernenergie und 1% weniger Wasserkraft betrieben. Der Ausgleich erfolgte mit 5% mehr Erdgas, 6% mehr Windstrom, 5% mehr Biomassenstrom und 3% mehr Sonnenstrom (alle Zahlen gerundet). Das reichte bereits für einen  Beinahezusammenbruch infolge ausbleibenden Wind- und Sonnenstroms.

Bis zum Jahre 2020 sieht der Plan der Bundesregierung (BMWi: Monitoring Bericht "Energie der Zukunft" von 2012, Referenzjahr ist 2008) unter vielen anderen Maßnahmen eine Reduktion von 10% des Stromverbrauchs, eine Anteilszunahme von Strom der "Erneuerbaren" von 35% und eine Steigerung von 6600 auf 1 Mio. Elektroautos vor. Die Fortsetzung dieser Vision bis zum Jahre 2050 ist dann nur noch ein Horrorszenario der Deindustrialisierung Deutschlands und der Nordkoreanisierung der Lebensverhältnisse im Privatsektor. Der Stromverbrauch soll um 25% abgenommen haben, der Stromanteil der "Erneuerbaren" auf 80% angestiegen, die Treibhausgasemissionen um 80% bis 95% reduziert worden sein. Um das Maß dieser Phantastereien voll zu machen, sollen auch noch 6 Mio. Elektrofahrzeuge auf unseren Straßen verkehren.

Es muss an dieser Stelle nicht noch einmal auf die technische Unmöglichkeit der BMWi-Pläne eingegangen werden, die Energierubrik der EIKE-Seite ist oft genug auf die betreffenden technischen Einzelheiten eingegangen. 80% grüner Strom bedeutet zwangsläufig eine vorzuhaltende, praktisch gleiche Stromerzeugungsmenge aus Schattenkraftwerken (in der Regel Gas). Damit hat man fast die doppelte Nennleistung an Stromquellen installiert, aber dennoch nur gelegentlich 80%-ge Versorgung mit den "Alternativen". Pumpspeicherwerke können aus topologischen Gründen hierzulande keine Lösung sein. Ringwallspeicher und alle weiteren "Visionen" sind Strom- und Geldvernichtungsanlagen, hierzu braucht man sich nur die Wirkungsgrade anzusehen. Kein realistisches Kostenszenario für Kohle, Gas oder Uran kann die BMWi-Pläne rechtfertigen. Schon jetzt laufen die Stromkosten aus dem Ruder und werden dem wehrlosen Verbraucher aufgesattelt. Irgend jemand muss schließlich die Schattenkraftwerke bauen, finanzieren und betreiben, irgend jemand muss riesige Überlandleitungen für den Nordseestrom von Nord- nach Süddeutschland bauen, irgend jemand muss schlussendlich den überflüssig gewordenen Beton- und Stahlschrott von Windturbinen in späteren Jahrzehnten wieder abbauen und entsorgen – eine Aufgabe, gegen die das Schleifen des vom "Dritten Reich" zurückgelassenen Atlantikwalls ein Kinderspiel war -, irgend jemand muss….. Es ist müßig, die Liste fortzusetzen.

Stellvertretend für die "Qualität" der BMWi-Pläne ein Wort zu den 6 Mio. Elektroautos in 2050. Die Physik lehrt uns, dass die Speicherung von Energie für den Autoantrieb in Form von Kohlenwasserstoffen (Benzin) die effizienteste und sicherste Methode ist. Sie wird es, weil Naturgesetze nun einemal unabänderlich sind, auch für alle Zukunft bleiben. Es gibt nichts besseres, es sei denn, man würde Autos mit Mini-Kernreaktoren akzeptieren. Man kann unschwer nachrechnen, dass unter Berücksichtigung der unterschiedlichen Wirkungsgrade von Benzinmotoren und Elektroantrieben ein Elektroauto auch mit modernster Lithium-Ionenbatterie nur etwa 6% der Energie eines Benzinautos zur Verfügung hat (s. die Abschätzung im Anhang). Mehr als eine innerstädtische Nischenlösung kann das Elektroauto daher niemals werden. Aber selbst dann: Welch ein neues Umweltproblem würde sich mit 6 Mio. regelmäßig zu entsorgender Lithium-Ionen-Batterien auftun! Und mit unserem 220 Volt – Netz ist eine Elektroautotankstelle von vielleicht 500 bis 1000 Fahrzeugen am Tag nicht zu betreiben. Sie braucht eine separate Hochspannungsleitung, einen Transformator zur Spannungsreduzierung (Batterien können nicht mit Hochspannung geladen werden), ein aufwendiges Kühlsystem für den Transformator usw. usw. Und wie lange dauert denn solch ein Tankvorgang?

Welcher "Fachmann" im BMWi hat sich wohl die Zahl von 6 Mio. Elektroautos ausgedacht? Die technische Deutungshoheit ist in Deutschland von den zuständigen Fachleuten unübersehbar auf ökoideologische Phantasten übergegangen. Die Fachleute sind nur noch dazu da, die sich ergebenden Visionen zu erdulden und auszubaden. Als einziger, sehr schwacher Trost verbleiben nur diejenigen Industrieunternehmen, die von dem Unsinn profitieren. Die Allgemeinheit, die Natur und die Volkswirtschaft insgesamt werden dagegen schwer geschädigt.

Dem Autor ist nur ein Land bekannt, das bereits schon einmal einen ähnlichen Selbstmordversuch, wie es die deutsche Energiewende ist, unternahm. Es war China mit dem "großen Sprung nach vorne" des Mao Zedong. Neben vielen anderen Plänen sollten damals chinesische Bauern in ihren eigenen Katen Stahlkocher betreiben. Millionen Hungertote und eine völlig zerrüttete Wirtschaft waren die Folge. Dem Autor ist freilich kein einziges Industrieland außer Deutschland bekannt, das bewusst und mutwillig eine vormals perfekte, völlig intakte und bestens funktionierende Strominfrastruktur zerstörte. Deutschland wäre, wenn die Energiewende nicht bald der Vernunftwende Platz macht, das erste Land dieser Welt, dem solches gelänge. Es gibt keine andere Nation, die ähnliches plant oder gar ausführt. Böse Menschen veranschaulichen Deutsch lernenden Ausländern inzwischen den grammatikalischen Komparativ als "Stuttgart 21 – Berliner Flughafen – Energiewende". Die Welt lacht. Leider ist es nicht lustig, die Vernunft in Deutschland trauert.

Prof. Dr. Horst-Joachim Lüdecke

EIKE Pressesprecher

Anhang: http://tinyurl.com/a9ymkky gibt an, dass 1 Liter Diesel 10 kWh und eine 30 kg Bleibatterie 1 kWh liefern. 1 Liter Diesel entspricht daher 300 kg Bleiakkugewicht. 50 Liter Tankinhalt 15 t. Lithium-Ionenbatterien weisen grob 20% Gewicht eines Bleiakkus auf, so dass aus den 50 Litern 3 t Gewichtsäquivalenz werden. Ein Automotor hat ca. 35%, Stromantrieb 95% Wirkungsgrad. Allerdings kann man einen Akku nicht bis auf Null entladen, es sollen hier vereinfacht 80% angenommen werden (weitere Einzelheiten siehe z.B. unter http://tinyurl.com/ay3nmdb). Aus den 3 t werden damit (3 / 0,8 ) x 0,35 / 0,95, also gerundete 1,5 t. Mit 200 kg Lith.-Ion.-Batteriegewicht als etwa dem wirtschaftlichen Maximum ergibt sich damit für das Elektroauto (gerundet) 15% der verfügbaren Energie im Vergleich zum Benziner bzw. Diesel. Nebenaspekte wurden bei dieser Grobabschätzung nicht berücksichtigt. So muss man in kalten Ländern auch noch heizen, was der Benzinmotor "umsonst" bietet. Auf der anderen Seite könnte die Batterie des Elektroautos beim Abbremsen oder Bergabfahren immer wieder ein wenig aufgeladen werden. Benzin steht bis zum letzten Tropfen voll zur Verfügung, die verfügbare Stromleistung eines Akkus hängt dagegen in komplizierter Weise von der Entnahme, der Restkapazität der Batterie und vom Alter der Batterie ab (s. die o.g. Links). Den Leistungsabfall durch Altern eines Akkus kennt jeder Laptop-Besitzer bestens.

Related Files




EEG & EnEV. Klimagerechte Zwangsmaßnahmen des Staates

In der langen Reihe der mit Angst begründeten politischen Entscheidungen der vergangenen Jahre steht den Bürgern bald mit der Novellierung des Erneuerbare-Energien-Wärmegesetzes ein neues Prachtexemplar der Klimaangst-begründeten Zwangs- und Schröpfungsmaßnahmen ins Haus. Das ist wörtlich zu nehmen, denn nun kommt zum bislang größten Abzocke-Instrument EEG-Umlage der Zwang für alle Hauseigentümer, endlich Anlagen der sogenannten Erneuerbaren Energien in ihr Haus einzubauen. Daß es teuer wird, ist den Planern im BMU klar. Deshalb soll zum Zwang auch die Gnade kommen: Etwaige Härtefälle könnten von dieser Pflicht ausgenommen werden.

Als die Ideologen die Gesetzesmaschinerie eroberten

Es wird vielen als Rätsel erscheinen, daß ausgerechnet die derzeitige Regierung aus CDU/CSU und FDP eine Politik betreibt, die man nur von einer von den GRÜNEN geführten Regierung erwarten könnte. Am deutlichsten wird das bei der Energiepolitik, die heute nur noch eine Untermenge einer Klima-Angstpolitik ist. Für diese äußerst merkwürdige Situation gibt es historische Gründe:

Die GRÜNEN bekamen 1998 als Juniorpartner der SPD mit der Zuständigkeit für das Bundesumweltministerium BMU die entscheidenden politischen Werkzeuge zur Umsetzung ihrer Politik in Form von staatlichen Gesetzen und Verordnungen  in die Hände.

Nach einer relativ kurzen Zeitspanne waren die meisten Fachbeamten des Ministeriums kaltgestellt, versetzt oder hinausgemobbt und durch ideologisch gefestigte Neuzugänge aus den verschiedenen Öko-Instituten ersetzt worden – und seither versorgen diese Leute ihre Minister mit „Sprechzetteln“ ,Leitungsvorlagen, Pressemeldungen und Gesetzesentwürfen.

Daran hat sich auch unter den späteren Ministern Gabriel, Röttgen und Altmeier,  die beiden letzteren immerhin von der CDU, absolut nichts geändert. Sie hätten die fachliche Kompetenz ihres Hauses durch wesentliche personelle Veränderungen wiederherstellen müssen – und sie taten nichts dergleichen. Die Bilanz eines völligen Versagens. Die Konsequenz dieses Versagens ist die vollständige Steuerung der selbst fachlich unbedarften BMU-Minister durch die grüne Beamtenschar. Es ist daher so, als ob immer noch Jürgen Trittin Minister wäre.

Geändert hat sich außerdem der Bereich der faktischen Zuständigkeit dieses grünen Ministeriums: Der für die Energiepolitik zuständige Wirtschaftsminister Rösler ließ sich anscheinend widerstandslos jegliche Initiative aus den Händen nehmen und heute ist das BMU das tatsächlich entscheidende Energieministerium – mit dem Wirtschaftsministerium als nur noch leise quengelndem Anhang.

Das alles geschah und geschieht allerdings mit Zustimmung und Duldung durch die Kanzlerin, die diesem Treiben leicht ein Ende setzen könnte – wenn sie es nicht genau so wollte.

Die Energiepolitik wird seither von den GRÜNEN bestimmt, und das wird sehr erfolgreich in enger Zusammenarbeit mit den ebenfalls sehr von Grünen besetzten Zeitungs- und TV-Redaktionen durchgeführt, die Druck auf das Parlament und die Regierung ausüben.

Deshalb besetzt allein das BMU auch das Thema Wärmeversorgung, bei dem die nächste Welle von Zwangsmaßnahmen vorbereitet wird und von dem weiter unten die Rede sein soll.

Politik mit der Angst

In der nun von Ideologen besetzten Umweltpolitik und in der von ihr vereinnahmten Energiepolitik wird seit Jahren das Prinzip der Angstverbreitung zusammen mit den dazu gehörenden staatlichen Regulierungs- und Zwangsmaßnahmen, die den Übeln abhelfen sollen, erfolgreich angewendet. Dazu eine Reihe von Beispielen.

Mit Umweltschutz begründete Maßnahmen:

Das Duale System der Mülltrennung, die Abgasmessung von Heizungsanlagen, die Abgasuntersuchung von PKW, die Feinstaubmessungen in Städten, Umweltzonen, Umweltplaketten für PKW, die Baumsatzungen in den Kommunen, Gesetze zur Einschränkung des Anbaus gentechnisch veränderter Pflanzen,  Flaschenpfand, Rauchverbot, Glühlampenverbot, ……….

Weitere in Deutschland verbreitete Ängste, die man für staatliche Maßnahmen nutzen kann:

Der Rinderwahnsinn, Chemikalienangst, Leukämiefälle im Umkreis von Kernkraftwerken, Handy-Strahlung, Hochfrequenzstrahlung von Mobilfunkantennen, Nanopartikel, elektromagnetische Strahlung von Hochspannungsleitungen, UV-Strahlung, Ozon, Uran im Trinkwasser, Röntgenstrahlung aus dem Fernseher, Infraschall in Klimaanlagen………

Und die beiden aktuellen großen Ängste:

1. Die Atomangst. 

Die Erdbebenkatastrophe in Japan und ihre  Konsequenzen allein in Deutschland  zeigten den dahinter stehenden politischen Mechanismus.  Das entscheidende Mittel für diesen Sieg der Grünen waren die Medien. Auf allen Fernsehkanälen, insbesondere bei ARD und ZDF, gab es in den ersten vier Tagen ausschließlich "Experten" von Greenpeace und den Ökoinstituten Wuppertal und Darmstadt zu sehen, die ihre Chance weidlich nutzten. Dazu kamen Mediziner, die über die Wirkung einer "Verstrahlung" berichteten. Weil die Fachleute der Reaktorsicherheitskommission nicht mitspielten, lieferte eine Ethik-Kommission der Regierung die gewünschten Argumente nach.

2. Die Klimaangst. 

In keinem anderen Land sind die wissenschaftlich umstrittenen Berichte und Forderungen des politischen UN-Gremiums IPCC über die angeblich vom Menschen verursachte Klimaerwärmung mit einer panischeren und rücksichtsloseren Politik in staatliche Maßnahmen umgesetzt worden. Diese wirken sich insbesondere bei der Energiepolitik aus, bei der die ausschlaggebende politische Begründung für die weltweit einmalige Zerstörung einer ehemals funktionierenden Energieversorgung durch die Zwangseinführung extrem teurer und zugleich ineffizienter sogenannter „Erneuerbare Energien“ die Klima-Angst ist.

Dieser angstbegründeten Energiepolitik sind von drei entscheidenden Voraussetzungen  – die Richtigkeit der IPCC-Voraussagen, der Sinn deutscher CO2-Einsparungen und die Glaubwürdigkeit – eine teilweise und die anderen zwei vollständig abhanden gekommen:

  • Seit 1998 hat es keine Erhöhung der globalen Durchschnittstemperatur mehr gegeben; die Temperatur stagniert mit leicht sinkender Tendenz. Die vom IPCC prognostizierten, immer weiter steigenden Werte liegen inzwischen deutlich darüber, was nur zeigt, daß diese Voraussagen nichts wert sind. Schon gar nicht, daß man deswegen  eine radikale CO2-Minderungspolitik betreiben müßte.
  • Falls aber dennoch etwas an diesen Prognosen dran wäre und deshalb alle großen CO2-Emittenten wie China, die USA, Indien, die EU, Russland gemeinsam ihre Emissionen verringern müssten, ist das jetzt nach der Klimakonferenz in Doha  gescheitert. Denn die größten Emittenten nehmen nicht an dem Kyoto-Prozess teil; der Kyoto-Vertrag deckt nur noch 15% der weltweiten Treibhausgas-Emissionen ab. Nur noch EU-Länder und wenige kleinere Staaten wollen sich künftig beteiligen. Die CO2-Emissionen werden deshalb weiterhin genauso stark steigen, wie schon bisher: Sie sollten gegenüber 1990 um 5% sinken, stiegen tatsächlich aber um 68%. Damit sind die teuren Anstrengungen der EU und insbesondere Deutschlands nichts anderes als kostspielige, sinnlose Symbolpolitik, da sie nichts an dieser Situation ändern.
  • Hinzu kommt, daß Deutschland mit seiner überheblich vorgetragenen Vorbildrolle seit der Abschaltung der 8 Kernkraftwerke 2011 jede Glaubwürdigkeit eingebüßt hat. Denn seitdem steigen seine CO2-Emissionen wieder an – und mit der Abschaltung der restlichen Kernkraftwerke und deren Ersatz durch Kohle- und Gaskraftwerke werden sie noch stärker steigen. Die deutsche Klimaschutzpolitik ist nun international als Lüge bloßgestellt.

Dieser völlige Verlust der Glaubwürdigkeit, den die deutsche Klimapolitik jetzt erlitten hat, änderte jedoch nichts an der weiteren Verwendung der Klimaangst für neue energiepolitische Maßnahmen. Und so kam es zum „Erfahrungsbericht zum Erneuerbare-Energien-Wärmegesetz – EEWärmeG“ vom 19.12.2012, der eben nicht vom Wirtschafts-, sondern vom Umweltministerium vorgelegt wurde 1).

Als Fernziel wird dort angegeben: „Zur Umsetzung der im Energiekonzept der Bundesregierung formulierten langfristigen Energie- und Klimaziele ist es notwendig, dass sich der Wärmemarkt zunehmend an dem Langfristziel des „nahezu klimaneutralen Gebäudebestandes“ und des Ziels von 60% erneuerbare Energien am gesamten Bruttoenergieverbrauch (alle Sektoren) in 2050 ausrichtet“.

Den Wert einer 37 Jahre in die Zukunft gerichteten Planung kann man angesichts der heute real gültigen Haltbarkeitsdauer von 6 bis 12 Monaten der von der gleichen Regierung vorgelegten Planungen für die Energiewende (z.B. Netzausbau, Solarstromförderung, Biogasförderung, Offshorewind-Pläne) leicht beurteilen 2).

Die Folterinstrumente werden vorbereitet

Zu den im Energiebereich bereits etablierten finanziellen Zusatzlasten und Zwängen plant die Regierung jetzt neue Zwangsmaßnahmen, die die Bürger zu unerwünschten und kostspieligen, angeblich dem Klimaschutz dienenden  Zusatzinvestitionen zwingen sollen.

Das EEWärmeG trat zum 1.1.2009 in Kraft. Es hat erstmals ein ordnungsrechtliches Instrument einer Nutzungsflicht für sog. Erneuerbare Energien im Gebäude-Neubau eingeführt. Seit Mai 2011 betrifft es auch bereits bestehende öffentliche Gebäude.

In Baden-Württemberg existiert bereits seit 2010 die Pflicht für Eigentümer auch älterer Häuser, bei einem Heizkessel-Austausch den Wärmebedarf anschließend zu mindestens

10 % durch erneuerbare Energien decken zu lassen – oder alternativ Ersatzmaßnahmen wie einen besseren Wärmeschutz zu ergreifen.

Im BMU-Bericht wird dazu die angeblich noch nicht geklärte Frage gestellt, ob nicht gerade   diese Regelung „zu einem dauerhaften Rückgang der Heizungsmodernisierung“ (!) geführt habe. Anscheinend hat diese logische Reaktion  die Erfinder der Zwangsmaßnahmen verwundert.

In dem Bericht wird außerdem auf ganz Deutschland bezogen zugegeben, daß „beim Austausch von Heizungen in Bestandsgebäuden (Altbauten) seit 2008 ein rückläufiger Trend zum Einsatz von erneuerbaren Energien zu beobachten ist“.

Aber eine solche Reaktion der Bürger veranlasst die Beamten im BMU nicht etwa zum Nachdenken über den Sinn derartiger Zwangsmaßnahmen. Im Gegenteil: Nun müssen eben neue staatliche Maßnahmen gefunden werden, mit denen dieser Widerstand gebrochen werden kann.  Die Entscheidungen der Hauseigentümer  müssen in ihr Gegenteil verkehrt werden – und angesichts ihrer offensichtlichen Renitenz  gegen die Erneuerbaren Energien in ihren Häusern muß eben Zwang her.

Und jetzt könnte man auch gleich die noch bestehende große Lücke im Wärmegesetz schließen: Es sollte auch der sogenannte Gebäudebestand – also alle Altbauten – in die „Nutzungspflicht“ erneuerbarer Wärmetechniken einbezogen  werden.

Mit seinem Erfahrungsbericht zum Erneuerbare-Energien-Wärmegesetz hat nun das BMU  die Katze aus dem Sack gelassen. Zur  bevorstehenden Novellierung dieses Gesetzes ließ es eine Liste von Folterinstrumenten ausarbeiten, mit denen alle Hausbesitzer, die nur einen Heizkessel austauschen wollen, zu Zusatzinvestitionen wie Solarkollektoren, Wärmepumpen oder Holzpelletheizungen gezwungen werden sollen. Die Autoren des Berichtes haben sich dazu eine ganze Reihe von Zwangsmaßnahmen ausgedacht.

Ein Knüppel dafür soll das Ordnungsrecht sein. Zitat: „Hierbei würden die Eigentümer von Altbauten, anknüpfend an einen Auslösetatbestand wie eine noch zu definierende Sanierung ihres Gebäudes, verpflichtet, mit der Verbesserung des energetischen Standards zugleich die Wärme- und Kälteversorgung des Gebäudes anteilig auf erneuerbare Energien umzustellen“. „Die Pflichtanteile für die Deckung des Wärme- und Kälteenergiebedarfs würden hierbei an die Prozentsätze bei Neubauten (§§5,7 EEWärmeG) angelehnt werden“.

Als eine andere ordnungsrechtliche Option wird eine abgemilderte Version mit einem geringeren Pflichtanteil der unerwünschten Investitionen diskutiert, die allerdings zu einer Mitfinanzierung durch das Marktanreizprogramm, also zu einer unerfreulichen Belastung des Staatshaushalts führen würde.

Die haushaltsunabhängige Förderung – oder: Die Bürger zahlen alles

Die im Bericht für eine weitere Option verwendete Bezeichnung „Haushaltsunabhängige Förderung“ ist im Grunde eine Verfälschung der Absichten. Denn es geht mitnichten um irgendeine Förderung. Es geht allein darum, die staatlichen Haushalte zu verschonen und alle mit der Zwangseinführung von erneuerbaren Wärmetechniken verbundenen Aufwendungen allein den Hauseigentümern aufzulasten. Zitat: „Eine solche Förderung, die auch vom Bundesrat für den Einsatz erneuerbarer Energien im Wärmemarkt gefordert worden ist, könnte Nachteile der unstetigen haushaltsabhängigen Förderung überwinden“.

Das trifft sicher zu: Eine  Schröpfung der Bürger kann viel stetiger angelegt werden, als es die Etats der Ministerien sind.

Bei diesem Verfahren, das eigentlich „Überwälzungsmethode“ heißen müßte,  „würde der Wärmesektor den Umbau von fossilen zu erneuerbaren Energien…zu weiten Teilen selbst finanzieren“.

So könnte man im sog. Portfoliomodell „die Brennstoffhändler fossiler Energien (– also Erdgas- und Heizöllieferanten –) verpflichten, eine Mindestquote erneuerbarer Energien in den Markt zu bringen“. Zur Kontrolle müsse ein zentrales Anlagenregister eingerichtet werden. Und „die Kosten der Verbreitung der Erneuerbaren Energien im Wärmemarkt (Anm.: der dann kein Markt mehr wäre) werden…zunächst von den Brennstoffhändlern getragen, welche sie ihrerseits auf die Brennstoffpreise umlegen können“.

In einer zweiten Variante dieses Verfahrens, im Prämienmodell,  würde den Endverbrauchern ein Investitionskostenzuschuss gewährt. „Die Kosten könnten in Form einer Umlage wie im Portfoliomodell auf die Brennstoffhändler umgelegt werden, welche die Kosten ihrerseits auf die Brennstoffpreise überwälzen können“.

Also müssen dann wieder die Bürger – Hauseigentümer, Mieter – die Kosten dieser Zwangsmaßnahmen tragen. Genau dieses Prinzip ist ja auch bereits beim EEG zur Finanzierung von Windrädern, Photovoltaikanlagen und Biogasanlagen angewandt worden. Die Folgen spüren die Stromverbraucher schmerzlich – und nun soll das auch bei den Heizkosten geschehen.

Das letzte Schlupfloch muss geschlossen werden

Der vermutete Verzicht vieler Hauseigentümer in Baden-Württemberg auf jegliche Heizungsmodernisierung als Reaktion auf die dortigen Zwangsmaßnahmen brachte die Autoren auf die Idee, diesen Weg durch eine Verschärfung „der Kriterien der Energieeffizienz und der Luftreinhaltung – z.B. stufenweise Erhöhung von Anforderungen an bestehende Heizungsanlagen“ – zu erreichen. So könnten z.B. „die immissionsschutzrechtlichen Abgasverlustgrenzwerte für Heizkessel schrittweise…..abgesenkt werden“. Abschließendes Zitat: „Im Ergebnis sieht diese Option vor, dass Eigentümer von ineffizienten Heizungskesseln, die die neuen Grenzwerte nicht mehr einhalten, diese austauschen und zugleich die Vorgaben des EEWärmeG (Anm.: also Zusatzinvestitionen in Erneuerbare) einhalten müssten“.

Man muß für den Klartext dankbar sein.

Die bisherigen Erfahrungen lassen erwarten und befürchten, daß die gegenwärtige Regierung diese Pläne ohne Bedenken realisiert. Das Bundeskabinett hat am 19.12.2012 diesen Bericht beschlossen. Das muß als eine Vorentscheidung im Sinne der angeführten Zwangsoptionen gewertet werden, aus denen nur noch die passenden auszuwählen sind.

In den „Empfehlungen an den Deutschen Bundestag“ heißt es im Bericht:

„Die beispielhaft dargestellten Handlungsoptionen (Anm.: siehe oben !) dürften sich grundsätzlich eignen, den Ausbau der erneuerbaren Energien im Wärmemarkt voranzubringen. Aufgrund der noch nicht abgeschlossenen fachlichen und rechtlichen Prüfung kann die Bundesregierung zum gegenwärtigen Zeitpunkt noch keine abschließende Empfehlung für bestimmte Handlungsoptionen aussprechen. Sie wird dies im Vorfeld der gesetzlichen Novellierung des EEWärmeG entscheiden“.

Die Verbände hatten im Oktober an 3 Tagen die Gelegenheit, zum Entwurf dieses Erfahrungsberichts Stellung zu nehmen. Laut Bericht „sind die Stellungnahmen der Verbände unmittelbar in die Arbeit des wissenschaftlichen Begleitvorhabens eingeflossen“. Diese Formulierung sagt nichts. Sie kann auch bedeuten, daß diese Stellungnahmen in Papierkörbe „eingeflossen“ sind.

Michael Limburg hatte am 19.11. als Vertreter von EIKE an einer dieser Anhörungen teilgenommen und berichtete u.a. folgendes:

„Im Auditorium saßen ca. 150 Verbandsvertreter, überwiegend aus dem Bau-Sanitär-Elektro- Bereich. Der Veranstaltungsleiter  ließ jeweils 3 bis 8 Wortmeldungen am Stück zu, und versprach dann jeweils gesammelt auf diesen Block einzugehen. Das fand aber nur wenige Male wirklich statt. Die meisten Wortmeldungen – so auch die meine- blieben unkommentiert.

Vom BMU wurde mitgeteilt, daß ein neues Wirtschaftlichkeitsgutachten eines Prof. Maaß abgewartet werden sollte, das einiges wieder in Frage stellen könnte. Weitere Verschärfungen könnten dann ab 2016 folgen.

Ca. 40 Verbandsvertreter erläuterten ihre Wünsche und Beschwerden gegen oder für die Novellierung. Mit Ausnahme eines Vertreters der Eigenheimbesitzer – der voraussagte, dass die Investitionen in Eigenheime weiter kräftig zurückgehen würden, weil die Maßnahmen zu teuer und damit unwirtschaftlich sein würden –  sprachen zwar alle anderen (Anm.: Die o.e. Zulieferer für Haustechnik !) vom "Markt" den sie begrüßen würden, verlangten aber im selben Atemzug eine Verschärfung der Regeln zu Gunsten ihrer jeweiligen  Klientel, bzw. die Berücksichtigung der Anbieter aus ihren Fachverbänden, die bisher von der Reglementierung zu wenig oder gar nicht profitiert hätten. Mehrmals  wurde an die Pflicht erinnert den CO2 Ausstoß zum Schutze des Klimas zu senken. Meine Wortmeldung, dass ich mir vorkäme wie das Kind in dem Märchen von des Kaisers neue Kleider – mit Erwähnung des den deutschen Anteils an den CO2 Emissionen, dem Verweis auf China mit der Eröffnung von täglich einem neuen Kohlekraftwerk und dem Stillstand der Globaltemperatur seit 16 Jahren – wurde zwar lächelnd angehört, aber weder beachtet noch kommentiert. 

Es ging dann normal im gleichen Rhythmus weiter. Besonders auffällig war der Vertreter von BUND oder NABU, der sich bitterlich darüber beklagte, dass das ganze Gesetz eine Farce sei, weil viel zu wenig Zwang auf die Verbraucher ausgeübt würde, es müsste viel mehr  sein.“

Es geht um die Umerziehung der Bürger

Hinter alledem steckt ein Prinzip. Es geht nur vordergründig um die Umwelt, was man daran sieht, daß beim Verschwinden eines Umweltproblems oder bei der Feststellung, daß es gar keins gab, dennoch verbissen an den Regularien und den Zwängen für die Bürger festgehalten wird. Denn es geht um Erziehung. Der Mensch soll durch das regelmäßige Absolvieren bestimmter Rituale sowie deren Bezahlung lernen, daß er ein Umweltsünder ist, der ständig Buße zu tun hat.  Da es kaum noch ernste Umweltprobleme in diesem Land gibt, muß man die Menschen zu unnötigen Umweltritualen zwingen, damit sie ihre Ängste nicht verlieren und bei der nächsten Wahl die richtigen Parteien wählen.

Die Rolle der Medien in diesem politischen Geschäft ist einfach: Angst verkauft sich gut, also unterdrückt man angstabbauende und verstärkt angsterzeugende Meldungen. Das kann dann über Wahlerfolge wirkungsvoll in politische Macht verwandelt werden. Der Publizist Günter Ederer hat in diesem Zusammenhang klar von Selbstzensur gesprochen.

Auf weitere erzieherische Zwangsmaßnahmen kann man warten; sie werden kommen. Und die als Basis für den Wohlstand des Landes stets gepriesene Marktwirtschaft soll in einem weiteren wichtigen Bereich der Wirtschaft durch Planwirtschaft ersetzt werden.

Dr. Günter Keil für EIKE

Quellen:

1.     BMU: „Erfahrungsbericht zum Erneuerbare-Energien-Wärmegesetz (EEWärmeG-Erfahrungsbericht)“,19.12.2012,   www.bmu.de/fileadmin/Daten_BMU/Download_PDF/eewaermeg_erfahrungsbericht.Pdf

2.     Günter Keil: „Die Energiewende ist schon gescheitert“, TVR-Medienverlag Verlag Jena, 2012,  ISBN 978-3-940431-32-5

Über den Autor: Dr. Ing. Günter Keil, hat bis zu seiner Pensionierung im Jahr 2002 in leitender Position im Bundesforschungsministerium gearbeitet. Er lebt und schreibt in St. Augustin bei Bonn




Brisante IPCC Unterlagen jetzt öffentlich zugänglich: Das geheime Nikolaus-Leck

Bild rechts: Siehe Postscript 2 am Ende des Beitrags

Eine Woche vor Weihnachten gelangte ich in den Besitz von drei USB-Sticks mit 661 Files, zusammen etwa 1 Gigabyte Material. Sie wurden vom IPCC erstellt, einer UN-Organisation, die gegenwärtig an einem hoch profilierten Bericht arbeitet.

Mit der geplanten abschnittsweisen Veröffentlichung im September wird dieser Bericht auf Pressekonferenzen der Regierungen über die ganze Welt verbreitet werden. Funktionäre werden auf die Ergebnisse deuten und weiterhin Milliarden für Maßnahmen gegen die Klimaänderung ausgeben.

Das IPCC besteht aus drei Arbeitsgruppen. Sie untersuchen jeweils die wissenschaftlichen Beweise in Bezug zur Klimaänderung, die Auswirkung auf Mensch und Natur sowie mögliche Reaktionen.

Diese Sticks wurden an das Personal der Arbeitsgruppe 2 ausgegeben – die über die Auswirkungen des Klimawandels schreiben. Der blaue Stick trägt die Bezeichnung „Working Group II AR5 LAM1“ und bezieht sich auf das erste Treffen ihrer Leitautoren im Januar 2011 in Japan. Der goldene Stick steht im Zusammenhang mit einem zweiten Treffen fast ein Jahr später in San Franzisko. Der grüne Stick stammt von ihrem dritten Treffen vor 10 Wochen in Buenos Aires.

Das IPCC hat die Authentizität der beispielhaften Dokumente auf diesen Sticks bestätigt. Heute bin ich dabei, diese massive Datensammlung (mit Kommentaren der Begutachter), die ich „Das geheime Nikolaus-leck“ nenne, zu veröffentlichen. Einige dieser Dokumente stehen bereits online. Viele andere wären vom IPCC wohl erst in Jahren veröffentlicht worden. Noch andere hat das IPCC dauerhaft zu verstecken beabsichtigt.

Es ist sehr viel Information darin, und bislang habe ich nur einen kleinen Teil davon untersucht. Erstens enthält dieses Leck – zusammen mit  demjenigen des vorigen Monats – Entwürfe des bevor stehenden IPCC-Berichtes, und zwar solche, die mehrheitlich öffentlich zugänglich gemacht werden sollen. 44 von 60 Kapiteln – 73% – stehen jetzt für eine Untersuchung zur Verfügung. Die Behauptung des IPCC-Vorsitzenden, dass das IPCC eine „absolut transparente” Organisation sei, und das alles, was das IPCC tut, „in jedem Stadium für genaueste Überprüfungen zur Verfügung steht“, ist näher an der Wahrheit als jemals zuvor.

Zweitens, das IPCC hat nicht ein bisschen aus dem Skandal um die Himalaya-Gletscher gelernt. Unter dem Deckmantel „wissenschaftlicher Experten-Begutachtung“ hat es kürzlich bei seinen Autoren aggressive Lobbyarbeit hinter den Kulissen durch WWF-Beschäftigte und andere Aktivisten zugelassen. Die Entwurfs-Version der Arbeitsgruppe 2 listet in den Referenzen am Ende des Kapitels derzeit Veröffentlichungen, die von WWF und Greenpeace erstellt worden sind.

Ich habe ein .zip-File des Inhalts jedes Sticks erstellt. Am Ende dieses Artikels stehen Torrent-Info und andere Optionen zum Herunterladen.

Blue data stick zipped, 26 mb – here or here
Gold data stick zipped, 140 mb –  here or here
Green data stick zipped, 675 mb – here or here

Mein 2011 erschienenes Buch The Delinquent Teenager Who Was Mistaken for the World’s Top Climate Expert [es liegt inzwischen auch auf Deutsch vor mit dem Titel „Von einem Jugendstraftäter, der mit dem besten Klimaexperten der Welt verwechselt wurde: Ein IPCC-Exposé“. A. d. Übers.] dokumentiert die zahlreichen Glaubwürdigkeitsprobleme des IPCC. Darunter ist der verstörende Einfluss grüner Aktivisten darauf, was ein rigoroser wissenschaftlicher Körper sein sollte.

Der Abschnitt der Arbeitsgruppe 2 des bevorstehenden IPCC-Berichtes enthält 30 Kapitel. Der dritte Entwurf dieser Kapitel (intern konfus als der zweite Entwurf) ist noch nicht geschrieben worden, aber zwei frühere Versionen befinden sich auf diesen Sticks. Der als erster Entwurf bekannte Abschnitt besteht aus 2465 Seiten und kann hier vollständig heruntergeladen werden oder getrennt nach Kapiteln (unten).

Als Teil der Erstellung dieses Berichtes lädt das IPCC Externe zum Feedback ein, die es als „wissenschaftliche Experten-Begutachter“ beschreibt. Die Namen dieser von der Arbeitsgruppe 2 auserwählten Personen sind hier gelistet. Deren Kommentare finden sich auf dem grünen Stick. Der Pfad lautet: Buenos Aires Documentaion>c_ExpertReviewFiles>Review Editor FOD Reports.

Die meisten dieser Kommentare scheinen konstruktiv zu sein und werden wahrscheinlich die Qualität des endgültigen Berichtes verbessern. Aber einige der Personen, die daran teilhatten, sind Aktivisten. Viele ihrer Vorschläge sind unverhohlene Versuche, aktivistisches Quellenmaterial – und aktivistische Perspektiven – in einem wissenschaftlichen Dokument unterzubringen.

Mit anderen Worten, unter dem Deckmantel „wissenschaftlicher Experten-Begutachtung“ hat das IPCC hinter den Kulissen aggressive Lobbyisten-Bemühungen gefördert.

WWF-Personal drängt das IPCC, sich auf Veröffentlichungen des WWF zu beziehen

Der letzte große IPCC-Bericht aus dem Jahr 2007 enthielt einen blamablen Fehler über die erwartete Abschmelzrate der Gletscher des Himalaya. Dieser Fehler war Anfang 2010 Gegen­stand weit verbreiteter Berichterstattung in den Medien, was in vielen prominenten  Zeitungen den Ruf nach dem Rücktritt des IPCC-Vorsitzenden laut werden ließ.

Es gibt nichts, das hinsichtlich des Himalaya-Debakels kompliziert wäre. Die damals verantwortlichen Autoren für das Kapitel 10 der Arbeitsgruppe 2 haben weniger alarmistische Schlussfolgerungen, die in begutachteten Fachzeitschriften veröffentlicht worden waren, missachtet und sich stattdessen entschlossen, sich auf Statements zu verlassen, die sich in der Veröffentlichung einer grünen Lobbygruppe fanden (siehe Seite 10 hier).

Die fragliche Gruppe war der WWF. In Nordamerika immer noch unter dem Originalnamen World Wildlife Fund bekannt, hat er sich anderswo umbenannt in World Wildlife Fund for Nature. Er ist wohl kaum eine kleine Anhängsel-Organisation, denn  der der WWF unterhält Büros in mehr als 60 Ländern und beschäftigt 5000 Personen.

Der WWF ist die Organisation, die uns jedes Jahr im März die Earth Hour beschert. Seit vier Jahrzehnten durch Zuwendungen von der Industrie fossiler Energie gefördert (die  erste Firmen-Sponsor war Shell Oil) glaubt der WWF jetzt, verarmte Nationen dazu bringen zu müssen, ihr fossiles Öl lieber in der Erde zu lassen, anstatt es zu nutzen für Licht, Wärme und Krankenhäuser für ihre Völker.

Mein Buch enthüllt, wie der WWF in der Vergangenheit den Prozess der Erstellung der IPCC-Berichte infiltriert hat. Zwei Drittel der Kapitel im Bericht 2007 wurde unter Teilnahme von mindestens einer Person erstellt, die mit dem WWF verbunden war. Ein Drittel der Kapitel wurde von einem mit dem WWF verbundenen Autor geleitet.

Weder das IPCC noch der WWF scheinen seitdem etwas über Umsicht gelernt zu haben.

Susan Evans arbeitet bei WWF Kanada. Sie hat einen Masterdiplom in Zoologie, aber viele der von ihr dem IPCC eingereichten Kommentare sind frei von wissenschaftlichen Inhalten. Zum Beispiel betrachtet sie diesen Bericht als eine Gelegenheit, „einen Sinn für Verwaltung und Verantwortung für das Ökosystem zu fördern“ (Kapitel 00/Kommentar 44).

Bei vier einzelnen Gelegenheiten rät Evans dem IPCC, ein 72 Seiten starkes Handbuch zu Rate zu ziehen, das vom Global Arctic Programme des WWF veröffentlicht worden ist (Kapitel 00/Kommentar 45, 2/727, 14/577, 15/367).

In einem anderen Fall drängt sie das IPCC dazu, ein 246 Seiten starkes WWF-Dokument mit dem Titel Buying Time in Betracht zu ziehen. Im Vorwort werden Leser dazu ermutigt, politische Aktivisten zu werden (14/406).

Bei drei Gelegenheiten hat Evans die Aufmerksamkeit des IPCC auf ein drittes WWF-Dokument gelenkt über die Pacific marine ecosystems (13/300, 26/260, 26/417). In drei weiteren Beispielen verweist sie auf einen vierten Bericht über Klimaänderung in Westkanada, bei dessen Erstellung der WWF geholfen hat (15/367, 15/370, 26/316). An anderen Stellen drängt sie das IPCC, ein fünftes WWF-Dokument zu konsultieren, und zwar eine 69-seitige Publikation über die Verwaltung der Wasserversorgung (15/455).

In einem längeren Kommentar zu Kapitel 20 lässt sich Evans über die Notwendigkeit aus, „unsere gegenwärtige Rate von Entwicklungs- und Verbrauchsverhalten signifikant zu reduzieren“. Dabei drängt sie das IPCC, den jüngsten Living Planet-Bericht des WWF zu konsultieren (20/16.1 und 16.2).

Über genau dieses Dokument habe ich unmittelbar nach dessen Veröffentlichung etwas geschrieben und darauf hingewiesen, dass die Ausdrücke Gleichheit und Ungleichheit (equality and inequality) 28 mal vorkommen. Mit anderen Worten, es handelt sich um ein politisches Traktat.

Evans Bemühungen, die WWF-Perspektiven im IPCC-Bericht unterzubringen, wurden von ihrer Kollegin Cassandra Brooke weiter vorangetrieben – laut IPCC leitet sie das WWF-Büro in der Schweiz. Eine formelle Biographie zu erhalten ist schwierig, aber laut einer solchen aus dem Jahr 2008 hält sie einen PhD in Geographie.

In ihrer Eigenschaft als Experten-Begutachterin glaubt Brooke, dass das IPCC dem gleichen Arktis-Handbuch Aufmerksamkeit schenken sollte, dass schon Evans zu vier Gelegenheiten empfohlen hatte (4/943).

Sie drängt die IPCC-Wissenschaftler, ihre Informationen über Mangroven und Klimaänderung von einer WWF-Website zu beziehen, und ist enttäuscht darüber, dass der IPCC-Bericht „nicht erkennt, dass kulturelle und spirituelle Werte eine Form des Ökosystem-Service“ sind (4/1011, 5/1204).

Aber es sind ihre Bemerkungen über das Aussterben bestimmter Spezies, die besonders entlarvend sind. Kapitel 19 ist ein Synthese-Kapitel. Sein Ziel ist es, die Ergebnisse der anderen 29 Kapitel der Arbeitsgruppe 2 zusammenzufassen. Der Job jener Autoren ist es also folglich, akkurat zu reflektieren, was anderswo geschrieben worden ist.

Brooke macht es in ihrem Kommentaren zu Kapitel 19 umgekehrt. Sie beobachtet, dass die Sprache in Kapitel 4 „sehr vage“ und „inkonsistent im Tonfall“ mit dem ist, was Kapitel 19 sagt. Ganz klar, sie glaubt, dass die Wortwahl in Kapitel 4 eher verschärft werden sollte als der abgeschwächte Tonfall in der Zusammenfassung.

Brooke ist bekümmert, weil Kapitel 4 „sich selbst von starken Statements distanziert“ hinsichtlich Klimaänderung und dem Aussterben von Spezies, was im IPCC-Bericht aus dem Jahr 2007 erschienen ist (4/664, 19/428). Aber dieser Rückzug ist eine gute Nachricht. Wie ich schon anderswo diskutiert habe, verlässt sich das IPCC auf eine einzige Studie, die bereits von anderen Wissenschaftlern verurteilt worden ist [demolished]. (Ein berühmter Biologe nannte sie „die schlimmste Studie, die ich je in einem wissenschaftlichen Magazin gesehen habe“). Das IPCC hat diese heftigen Zurückweisungen nicht nur nicht beachtet, sondern es sogar abgelehnt, die Leser davon in Kenntnis zu setzen, dass sie überhaupt existieren.

Man würde erwarten, dass wissenschaftliche Experten-Begutachter erfreut sein würden, dass sich das IPCC jetzt verantwortlicher verhält. Man würde erwarten, dass sie dem IPCC ob dessen Hinwendung zu mehr soliden Beweisen applaudieren würden.

Aber Brooke ist keine wirkliche Experten-Begutachterin. Sie ist Mitarbeiterin des WWF. Und das WWF mag Übertreibungen. Wie er auf seiner Haupt-Website erklärt: „Es ist fast unmöglich, die Bedrohung durch den Klimawandel zu überschätzen“.

Andere Aktivisten als „Experten-Begutachter“

Unter den anderen Organisationen, die versuchen, den wissenschaftlichen IPCC-Bericht via Experten-Begutachtung zu beeinflussen, finden wir die Alliance of Small Island States. Deren Website bekennt freimütig, dass es sich dabei um „eine ad-hoc-Lobby handelt und es eine Verhandlungs-Stimme sei“ für bestimmte politische Interessen. Hier sind noch ein paar andere:

Angela Andrade, eine bei Conservation International beschäftigte Anthropologin, drängt IPCC-Wissenschaftler gleich zweimal, ein von einem Dutzend Aktivistengruppen gemeinsam veröffentlichtes Diskussionspapier zu konsultieren (15/172, 16/120).

Bei zwei anderen Gelegenheiten weist sie sie auf ein Dokument mit dem Titel Building Resilience to Climate Change hin [etwa: Resistenzbildung gegen Klimawandel] (15/430, 16/123). Dieses war von der International Union for Conservation of Nature veröffentlicht worden, deren Website von „einer gerechten Welt“ spricht.

Aber Gerechtigkeit ist ein politisches Konzept. Vernünftige Leute stimmen nicht damit überein, wie Gerechtigkeit aussieht. Ist eine grüne Gruppe, die sich Gerechtigkeit auf die Fahnen geschrieben hat, eine verlässliche Informationsquelle? Das IPCC glaubt das offenbar. Der jetzige Entwurf der Arbeitsgruppe 2 erwähnt schon jetzt die Building Resilience-Veröffentlichung in den Kapiteln 5 und 9 (siehe Seiten 379, 402 und 813 des 2465-seitigen Entwurfs).

Ganz ähnlich macht sich die Aktivistengruppe Germanwatch Sorgen über die „globale Gleichheit“ und vertritt bevorzugt gewisse politische und ökonomische Gedanken. Sven Harmeling, der bei ihnen als Teamlader Klimapolitik fungiert, hat die IPCC-Autoren zweimal gedrängt, ein Diskussionspapier von WWF-Germanwatch zu Rate zu ziehen (14/555, 15/224).

Anderswo lenkt er die Aufmerksamkeit des IPCC auf ein zweites, zusammen mit dem WWF veröffentlichtes Dokument mit dem Titel Institutions for Adaptation (15/418). Um alles komplett zu machen, verweist er auf ein drittes Dokument, diesmal ein kurzes Informationspapier von seinem Arbeitgeber und zwei weiteren Organisationen (15/343).

Noch ein weiteres Beispiel ist das International Rivers-Netzwerk. Die Leute, die dort arbeiten, sehen sich selbst als „das Herz der globalen Anstrengungen, Flüsse zu schützen“. Eine Beschäftigte von ihnen, Katy Yan, beschreibt sich selbst auf Twitter als eine „Klima-Kämpferin“. Sie ist ebenfalls eine Experten-Begutachterin des IPCC.

Ähnlich wie die zuvor erwähnten Individuen glaubt Yan, dass die Veröffentlichungen ihrer eigenen Organisation es verdienen, in einem wissenschaftlichen Bericht erwähnt zu werden. Sie verlangt dies zweimal von einem Dokument mit dem Titel Before the Deluge [etwa: Vor der Sintflut]. Es wurde geschrieben vom geschäftsführenden Direktor von International Rivers – mit anderen Worten, von ihrem Chef (3/752, 3/766).

Zusätzlich verlangt Yan nach zwei NachrichtenBerichten, die auf der Website ihrer Organisation veröffentlicht worden sind, eine Online-Bibliographie von „wissenschaftlichen Schlüssel-Artikeln“, die von ihren Mit-Aktivisten ausgewählt worden sind, nämlich ein 90-seitiger Bericht über alternative Energie in Guatemala sowie zwei andere Dokumente über erneuerbare Energie in Chile. All dieses Material wurde von der Organisation erzeugt (3/869, 3/891, 27/339, 27/345).

Alles das ist also von Aktivisten erstellte graue Literatur – genau die Art von Geschehnissen, die den Kummer des IPCC in der Vergangenheit verursacht haben.

Was denkt das IPCC? Warum rollt es den roten Teppich für Aktivisten aus und erlaubt ihnen, direkt auf die IPCC-Autoren Einfluss zu nehmen?

Das ist nicht geeignet, ein weiteres Himalaya-Debakel zu vermeiden.

Literatur vom WWF und von Greenpeace

Schon vor dieser Lobbyisten-Parade listete der Entwurf der Arbeitsgruppe 2 schon die folgenden neun WWF- und zwei Greenpeace-Veröffentlichungen unter den Referenzen am Ende des Kapitels. (Die Seitenzahlen in Klammern beziehen sich auf diesen 2465-seitigen Entwurf):

  1. IUCN 2008: Ecosystem-based adaptation: An approach for building resilience and reducing risk for local communities and ecosystems. A submission by IUCN, The Nature Conservancy, WWF, Conservation International, BirdLife International, Indigenous Peoples of Africa Co-ordinating Committee, Practical Action, WILD Foundation, Wildlife Conservation Society, Fauna and Flora International and Wetlands International. Gland, Switzerland: IUNC. [p. 371]
  2. Fish, M.R. and C. Drews, 2009: Adaptation to Climate Change: Options for Marine Turtles. WWF. San Jose, CA, USA, 20 pp. [p. 514]
  3. Fish, M.R., A. Lombana and C. Drews, 2009: Climate Change and Marine Turtles in the Wider Caribbean: Regional Climate Projections. WWF, San Jose, CA, USA, 20 pp. [p. 514]
  4. Kollmuss, A., H. Zink, and C. Polycarp, 2008: Making sense of the voluntary carbon market: A comparison of carbon offset standards. WWF Germany. [p. 1067]
  5. Harmeling, S., S. Kreft, and S.C. Rai (2011) Institutions for adaptation: Towards an effective multi-level interplay. Germanwatch and WWF International, available at http://www.germanwatch.org/klima/ad-inst.htm [p. 1726]
  6. Sattler, P., M. Taylor, 2008: Building Australia’s Safety Net 2008: Progress on the directions for the National Reserve System. WWF-Australia, Sydney. [p. 2007; actual title is Building Nature’s Safety Net]
  7. Allianz and WWF, 2006: Climate Change and Insurance: An Agenda for Action in the United States, Allianz and WWF. [p. 2071]
  8. Constable, A.J. and S. Doust, 2009: Southern ocean sentinel  – an international program to assess climate change impacts on marine ecosystems: Report of an international workshop, Hobart, April 2009. ACE CRC, Commonwealth of Australia & WWF-Australia, pp. 81. [p. 2287]
  9. Experts Workshop on Bioregionalisation of the Southern Ocean (September 2006: Hobart), S. Grant Antarctic Climate, Ecosystems Cooperative Research Centre, WWF-Australia, Peregrin, S. Grant, A. Constable, B. Raymond, and S. Doust, 2006: Bioregionalisation of the southern ocean:  Report of the experts workshop (Hobart, September 2006), [report prepared by: Susie grant … [et al.]] Sydney: WWF-Australia Head Office. [pp. 2289-90]
  10. Richter, C., S. Teske, and R. Short, 2009: Concentrating solar power: global outlook 2009. SolarPaces, Greenpeace and ESTELA. [p. 879]
  11. Anisimov, O.A., M.A. Belolutskaya, M.N. Grigor’ev, A. Instanes, V.A. Kokorev, N.G. Oberman, S.A. Reneva, Y.G. Strelchenko, D. Streletsky, and N.I. Shiklomanov, 2010: Assessment Report: The Main Natural and Socioeconomic Consequences of Climate change in Permafrost Areas: A forecast Based upon a Synthesis of Observations and Modelling. Greenpeace, Russia. 40 pp. [p. 1892]

Wenn die den wissenschaftlichen IPCC-Bericht schreibenden Wissenschaftler keine Argumentationskette aufbauen können, ohne sich auf Aktivisten-Literatur zu beziehen, sollten sie diese Argumentation schon von Anfang an gar nicht übernehmen. Sollte man denken.

Deshalb handelt es sich hier um eine Organisation, die nicht ein bisschen aus seiner Erfahrung mit den Himalaya-Gletschern gelernt hat.

Das IPCC & Vertraulichkeit

Alle drei Daten-Sticks enthalten eine Kopie eines IPCC-Dokuments zur Vertraulichkeit (hier auch im Netz zugänglich). Obwohl es mit einer feierlichen Beteuerung beginnt, dass das „IPCC Vorbild für Offenheit“ ist, macht der Rest des Textes klar, dass diese Organisation das gleiche Verhältnis zu Transparenz hat wie Vampire zum Sonnenlicht.

Das IPCC sagt, dass Geheimniskrämerei zu einem „Produkt höchster Qualität“ führt. Es sagt, dass Beratungen hinter verschlossenen Türen einem effektiven Prozess gleichen. Es sagt, dass das IPCC von Vertraulichkeit abhängig ist, während der Bericht geschrieben wird.

Dies ist auf törichte Weise kurzsichtig. Das IPCC muss offen und ehrlich über jeden einzelnen Schritt Auskunft geben, mit denen es zu seinen Schlussfolgerungen kommt. Das Letzte, mit dem man gebildete Leute im 21. Jahrhundert überzeugen kann, ist eine Gruppe von Schatten-Experten, die uns lächelnd sagen, dass wir ihnen vertrauen sollen.

Geheimniskrämerei hat nichts mit Wissenschaft zu tun. Sie wird allerdings von jenen bewertet, die darauf brennen, die Botschaft zu durchleuchten. Geheimniskrämerei erlaubt es dem IPCC, seine Berichte konzertiert zu veröffentlichen, um große Medien-Fanfaren hervorzurufen. Sie erlaubt auch das Durchsickern weiterer Ausgaben an wohlwollende Journalisten.

Angesichts der Tatsache, dass eine Untersuchung „in jedem Schritt des Erstellungsprozesses signifikante Schwächen ans Licht gebracht hat“, ist es jetzt an der Zeit, Licht auf diese Organisation zu werfen.

Die Öffentlichkeit hat ein Recht darauf, jedes jemals von dieser UN-Organisation erstellte Papier genau zu untersuchen. Dies ist nicht nur in der Gegenwart wichtig, sondern auch für Wissenschaftler späterer Zeiten.

Wenn bei Lobbygruppen beschäftigte Aktivisten Entwürfe dieses Berichtes lesen können, kann die Öffentlichkeit das auch. Wir haben auch ein Recht darauf zu erfahren, und zwar in so kurzer Zeit wie möglich, welche Art Rückmeldungen diese Entwürfe erhalten – und zu beurteilen, wie gut oder schlecht das IPCC darauf reagiert.

Das Vertraulichkeits-Dokument enthält diese pathetische Feststellung:

Der Erstellungs-Prozess kann nicht effektiv sein, wenn während der Vorbereitung (des jetzigen Berichtes) Material der Entwürfe bekannt oder öffentlich diskutiert wird.

Aber das IPCC glaubt das nicht wirklich, und zwar aus folgenden Gründen:

Mitte Dezember sind Entwürfe der 14 Kapitel durchgesickert, die den Teil der Arbeitsgruppe 1 im kommenden IPCC-Bericht umfassen. Diese geheimen Nikolaus-Datensticks enthalten Entwürfe von weiteren 30 Kapiteln.

Dies bedeutet, dass inzwischen Entwürfe einer Mehrheit von Kapiteln im kommenden Bericht (44 von 60, oder 73%) in öffentlichem Besitz sind.

Wenn das Vertraulichkeits-Dokument das Papier wert ist, auf dem es geschrieben steht, müsste das IPCC die Arbeit an dem bevorstehenden Bericht sofort suspendieren. Es wird ankündigen, dass die extensive Natur dieser Lecks es unmöglicht macht weiterzuarbeiten.

Aber das Handtuch zu werfen ist das Letzte, was ich von dieser Bürokratie erwarte.

Postscripts:

1. Wir wissen noch nicht, wie viele mit dem WWF verbundene Leute gegenwärtig an diesem IPCC-Bericht arbeiten, weil die Namen aller beitragenden Autoren noch nicht bekannt gemacht worden sind. Aber wir wissen, dass Jennifer Morgan involviert ist, die sonst die Klima-Chef-Sprecherin beim WWF ist.

2. Eine hoch aufgelöste Version des Bildes oben rechts befindet sich hier. Medien und Blogger können alle Versionen dieses Bildes frei verwenden. Photo: Donna Laframboise

3. Falls irgendjemand die technischen Fähigkeiten hat, dass geheime Nikolaus-Leck zugänglich zu machen, wäre das wunderbar.

4. Die Personen der Arbeitsgruppen 1 und 2 werden hiermit herzlich eingeladen, dabei zu helfen, die Öffentlichkeit darüber zu informieren, was hinter verschlossenen Türen vor sich geht. Kontaktinfo hier.

5. Dieser Blog verfügt nicht über ein regelmäßiges Trinkgeld-Konto. … Wenn Sie glauben, dass es wichtig ist, wenn Journalisten das IPCC durchleuchten, bitte überlegen Sie sich eine kleine Spende.

2. Teil: Sind ein Drittel der IPCC-Begutachter MIA?

[MIA = Missing in Action]

Die Begutachter des IPCC sollten im September einen Bericht anfertigen. Ein Drittel von ihnen hat sich offensichtlich gar nicht damit befasst.

Das IPCC arbeitet derzeit an einem Bericht, der so wichtig ist, dass er als Klimabibel bekannt ist. Der IPCC-Vorsitzende Rajendra Pachauri hat immer behauptet, dass der Prozess, mit dem seine Organisation diese Berichte schreibt, ein offenes Buch sei.

In einem Interview für eine Zeitschrift im Jahr 2009 hätte er nicht deutlicher sein können: „Was immer wir tun, steht immer und bei jedem Schritt für eine genaue Untersuchung zur Verfügung“.

Aber ein Dokument unter den über 600 Files in der öffentlichen Domäne als Ergebnis des geheimen Nikolaus-Lecks erzählt eine andere Geschichte. Tatsächlich wird darin gewissen Mitarbeitern des IPCC versichert, dass manche Berichte, die sie schreiben, niemals ans Tageslicht kommen werden:

Alle diese Berichte sind nur für interne Zwecke bestimmt und werden nicht veröffentlicht… Den IPCC-Regeln und Prozeduren zufolge bekommen nur (Experten-Begutachter) und den Autoren Verantwortliche diese Berichte zu Gesicht (siehe hier).

Die fraglichen Berichte können auf dem grünen Stick gefunden werden. Der Pfad ist: Buenos Aires Documentaion>c_ExpertReviewFiles>Review Editor FOD Reports. Es ist unklar, warum das IPCC beabsichtigt hatte, sie für immer unter den Teppich zu kehren. Aufzeichnungen von US-Präsidenten beispielsweise werden der Öffentlichkeit 5 bis 12 Jahre nach dem Ende der Administration bekannt gemacht.

Die wichtigste Nachricht ist jedoch, dass ein Drittel des IPCC-Personals, das aufgefordert wurde, solche Berichte zu schreiben, dies offenbar nicht getan hat.

Das geheime Nikolaus-Leck berührt den Abschnitt der Arbeitsgruppe 2 des bevorstehenden IPCC-Berichtes. Jedes der 30 Kapitel hat eine Gruppe von Autoren, plus zwei oder drei Leute, die als Begutachtungs-Herausgeber [Review Editors, RE] fungieren.

Die Aufgabe der REs ist es sicherzustellen, dass Rückmeldungen von externen Begutachtern von den IPCC-Autoren beachtet und nicht missachtet werden. Ein RE muss nicht unbedingt gut Freund mit dem Autorenteam sein. Er oder sie sollte ein Vorgesetzter sein.

Die Rolle der REs ist einer der wenigen Übersichts-Mechanismen innerhalb des IPCC-Prozesses. Wenn ein Drittel der Übersichtler Missing in Action ist, dann ist irgendetwas ganz furchtbar schief gelaufen.

Das gleiche Dokument, in dem den REs die Geheimhaltung versichert wird, sagt ihnen auch, dass erwartet wird, dass sie ihren ersten Interimsbericht bis zum 24. September 2012 einreichen. Ihnen wird geraten, einen zweiseitigen Beispielbericht zu konsultieren. Und ihnen wird gesagt, dass es Ok für die REs ist, ein gemeinsames Dokument einzureichen, wenn sie am gleichen Kapitel arbeiten.

Von insgesamt 66 REs haben 29 Berichte selbst eingereicht, 16 einen gemeinsamen Bericht, und 21 scheinen überhaupt keinen Bericht geschrieben zu haben.

Diese Berichte waren dazu ausersehen, die „wesentlichen Sorgenbereiche“ zu beleuchten sowie „umstrittene und kontroverse Angelegenheiten“ zu identifizieren, und zwar vor einem Treffen der Leitautoren, das einen Monat später geplant war. Aber die Autoren mancher Kapitel waren offenbar mit ihren Werken allein gelassen worden.

In Kapitel 3 geht es um Frischwasser-Reserven. 950 einzelne Kommentare waren von Begutachtern eingereicht worden. Aber Berichte von REs dieses Kapitels befinden sich nicht auf dem Daten-Stick. Es scheint, dass weder Pavel Kabat (der beim IPCC die Niederlande repräsentiert) noch Zbigniew Kundzewicz (der polnische Vertreter) ihrer Pflicht nachgekommen sind.

In Kapitel 5, in dem es um Küstengebiete und tief liegende Gebiete geht, ist es ähnlich. Das IPCC hat fast 1400 Kommentare zum Entwurf dieses Kapitels erhalten. Aber weder Robert Nicholls (UK) noch Filipe Santos (Portugal) scheinen ihren Kapitel-Autoren irgendeinen Bericht abgeliefert zu haben.

Die Berichte folgender REs fehlen auch noch:

Mit anderen Worten, nur 13 von 30 Kapiteln erhalten die Überwachung, die sie erhalten sollten.

Ob die REs ihren Pflichten nachkommen oder nicht ist kein neues Problem. Ich habe schon früher von einem herbei phantasierten IPCC-RE namens Bubu Jallow  berichtet. Er repräsentierte Gambia während der Erstellung des letzten IPCC-Berichtes 2007.

Im November 2006 setzte Jallow seinen Namen unter ein bemerkenswertes Statement. „Ich kann bestätigen“, sagt er, dass das gesamte Feedback an die Autoren von Kapitel 3 „geeignete Beachtung geschenkt worden ist… in Übereinstimmung mit den IPCC-Prozeduren“.

Aber Jallow hatte gar keine Kenntnis von diesem Vorgang aus erster Hand. Einer der Leiter des Kapitels, Kevin Trenberth, machte dies unmissverständlich klar, als er in einer e-mail an IPCC-Funktionäre geschrieben hat:

Ich schreibe dies, um gegen die Nennung von Bubu Pateh Jallow als Review Editor unseres Kapitels zu protestieren. Er spielte keine wie auch immer geartete Rolle in unserem Kapitel. Er nahm an keinem Treffen teil, er hat keine E-Mail beantwortet und sollte NICHT aufgeführt werden (Hervorhebung hinzugefügt).

Das IPCC hat beschlossen, dass Jallow offiziell ohnehin ein Review Editor war. Sein Name findet sich am Ende der Seite der Online-Version von Kapitel 3 der Arbeitsgruppe 1 im Bericht von 2007. Sechs Jahre später wird der Öffentlichkeit immer noch weisgemacht, dass drei Review Editoren in diesem Beispiel verpflichtet worden waren.

Warum ist das so? Das IPCC ist eine UN-Organisation. Daher kümmert es sich intensiv um Dinge wie Diversität und regionale Präsenz. Die anderen beiden REs stammen aus UK und den USA – entwickelten Ländern. Jallows Name lässt das Kapitel mehr multi-regional und multikulturell erscheinen.

Es scheint, dass es den IPCC-Funktionären weitgehend egal ist, ob die REs ihrer Pflicht nachkommen oder nicht.

Postcripts:

1. Eine Untersuchung im Jahr 2010 im IPCC, durchgeführt vom InterAcademy Council-Komitee, kam zu der Schlussfolgerung, dass die REs eigentlich keine formelle Autorität haben. Wie es auf Seite 3 oben heißt: „Die Leitautoren haben das letzte Wort zum Inhalt ihres Kapitels“ – egal was ein RE dabei fühlen könnte. Mit anderen Worten, REs sind ein schwacher Begutachtungs-Mechanismus. Aber selbst dieser Mechanismus scheint bei den meisten Kapiteln der Arbeitsgruppe 2 nicht voll zu funktionieren.

2. Das Statement von Jallow ebenso wie die E-Mail von Trenberth sind Teil eines 7 mb .zip-files, der mir im November 2011 von David Holland zugesandt worden ist. Seinen Worten zufolge enthält der File Material, das von David Hoskins, einem weiteren RE zum Jallow-Kapitel, „nach Klimagate auf Druck vom Information Commissioner von UK“ veröffentlicht worden ist. Es kann hier oder hier heruntergeladen werden.

3. Bubu Jallow arbeitet jetzt bei den UN.

Donna Laframboise is a Canadian investigative journalist. She is the author of The Delinquent Teenager Who Was Mistaken for the World’s Top Climate Expert, an IPCC exposé. Recently translated into German, it is available in a variety of formats. Donna can be reached at NOconsensus.org AT gmail.com.

[Hervorhebung durch Fettdruck durch den Übersetzer im Original! Es ist schön, dass Donna selbst auf die Übersetzung ins Deutsche hinweist! A. d. Übers.]

http://nofrakkingconsensus.com/2013/01/08/the-secret-santa-leak/

Übersetzt von Chris Frey EIKE

Es folgen DOWNLOAD OPTIONS
Blue data stick zipped, 26 mb – here or here
Gold data stick zipped, 140 mb –  here or here
Green data stick zipped, 675 mb – here or here

Blue torrent: magnet:?xt=urn:btih:FE53DEE7870921017E63678647B78281F56F45A2&dn=blue.zip&tr=udp%3a%2f%2ftracker.openbittorrent.com%3a80%2fannounce&tr=udp%3a%2f%2ftracker.publicbt.com%3a80%2fannounce&tr=udp%3a%2f%2ffr33domtracker.h33t.com%3a3310%2fannounce

Gold torrent: magnet:?xt=urn:btih:A30CCD2FFEF70C354073D082938894B122870888&dn=gold.zip&tr=udp%3a%2f%2ffr33domtracker.h33t.com%3a3310%2fannounce&tr=udp%3a%2f%2ftracker.openbittorrent.com%3a80%2fannounce&tr=udp%3a%2f%2ftracker.publicbt.com%3a80%2fannounce

Green torrent: magnet:?xt=urn:btih:35BCE4E514069B62D39CFECD26F799E7C36BDA84&dn=green.zip&tr=udp%3a%2f%2ftracker.openbittorrent.com%3a80%2fannounce&tr=udp%3a%2f%2ftracker.publicbt.com%3a80%2fannounce&tr=udp%3a%2f%2ffr33domtracker.h33t.com%3a3310%2fannounce

First Order Draft torrent: magnet:?xt=urn:btih:FEABA896B40807B21E34138183CFE28C2962B248&dn=WGIIAR5_FODall.zip&tr=udp%3a%2f%2ftracker.openbittorrent.com%3a80%2fannounce&tr=udp%3a%2f%2ftracker.publicbt.com%3a80%2fannounce&tr=udp%3a%2f%2ffr33domtracker.h33t.com%3a3310%2fannounce

please leave your client open for a few hours to help speed up other downloads

First Order Draft, 2,465 pages – 125 mb here or here

Chapter 1: Point of Departurehere or here
Chapter 2: Foundations for Decisionmakinghere or here
Chapter 3: Freshwater Resourceshere or here

Chapter 4: Terrestrial and Inland Water Systemshere or here
Chapter 5: Coastal Systems and Low-lying Areashere or here
Chapter 6: Ocean Systemshere or here

Chapter 7: Food Production Systems and Food Securityhere or here
Chapter 8: Urban Areashere or here
Chapter 9: Rural Areashere or here

Chapter 10: Key Economic Sectors and Serviceshere or here
Chapter 11: Human Healthhere or here
Chapter 12: Human Societyhere or here

Chapter 13: Livelihoods and Povertyhere or here
Chapter 14: Adaptation: Needs and Optionshere or here
Chapter 15 – Adaptation Planning and Implementationhere or here

Chapter 16: Adaptation Opportunities, Constrains, and Limitshere or here
Chapter 17: Economics of Adaptation – here or here
Chapter 18: Detection and Attribution of Observed Impactshere or here

Chapter 19: Emergent Risks and Key Vulnerabilitieshere or here
Chapter 20: Climate-resilient Pathways: Adaption, Mitigation, and Sustainable Developmenthere or here
Chapter 21: Regional Contexthere or here

Chapter 22: Africahere or here
Chapter 23: Europehere or here
Chapter 24: Asiahere or here

Chapter 25: Australasiahere or here
Chapter 26: North Americahere or here
Chapter 27: Central and South Americahere or here

Chapter 28: Polar Regions here or here
Chapter 29: Small Islandshere or here
Chapter 30: Open Oceanshere or here




Geben ist seliger denn nehmen: Zu Weihnachten mußte zum Stromverkauf noch Geld dazugegeben werden!

Am ersten und zweiten Weihnachtstag wurden an der Strombörse in Leipzig in der Zeit ab Mitternacht bis 9 Uhr morgens auf dem PHELIX-Spotmarkt 689 Millionen kWh verkauft (verschenkt) und die Käufer (Beschenkten) erhielten aus Dank, dass diese den Strom abgenommen hatten, noch 74,88 Millionen Euro dazu geschenkt.

Da dieser – aus technischen Gründen überschüssige – Stromanteil der Windanlagenbetreiber aber von den ÜNB`s wie Amprion, Tennet, 50 Hertz und EnBW für rd. 70 Millionen € nach dem EEG im Netz aufgenommen, vergütet und an die Börse gebracht werden musste, gehen die insgesamt ent- standenen Kosten in Höhe von 144,88 Millionen € zu Lasten aller Stromverbraucher!

Schade, dass man als Familie an der Strombörse nicht handelsberechtigt ist, dann könnten die Stromverbraucher sich selbst dort ein Weihnachtsgeschenk abholen. Vielleicht sollten sich Hilfswer- ke wie „MISEREOR“ oder „Brot für die Welt“ um diese Handelsrechte bemühen und solche Chancen nutzen, dann könnten sogar die Kirchenglocken zu Weihnachten mit dem festlichen Geläut und dem zusätzlichen Stromverbrauch auch noch ei
nen schönen Gewinn als Spendenbeitrag
erwirtschaften.

.

Bild 1: Ausgewählte Preisverläufe der Strompreise an der Leipziger EEX vom 23.12. bis 30.12.12 

Das auf einen Haushalt herunter gebrochene Ergebnis – "es gibt rd. 40 Mio. Haushalt bei denen das schlussendlich ankommt " – wird man im nächsten Jahr direkt oder indirekt auf der Stromrech- nung wieder finden. Da macht das dann glücklicherweise nur noch 3,62 € für den Haushalt aus, was soll`s, ein kleines un- gewolltes Weihnachtsgeschenk an die Windanlagenbetreiber …..!

Visionäre und "Grüne" sagen nun, der Dank ist die CO2 Ersparnis, denn diese Emissionen seien von ganz großem Übel. Aber das stimmt nicht, weil Kernkraftwerke auch kein CO2 verursachen, aber die legen wir und haben wir still gelegt und ersetzen diese zu Zeiten in denen der Wind nicht weht oder die Sonne nicht scheint – das ist über 50 % der Zeit der Fall – durch CO2 emittierende Kohle- und Gaskraftwerke! 
Warum das an der Strombörse in Leipzig so war, können Sie aus der Anlage 123-13 ersehen, es war zu Weihnachten relativ viel Wind, der wegen starker Böen nicht gut vorhergesagt werden konnte. (siehe pdf Dateien im Anhang)

Helmut Alt; Aachen

Leser Johannes Waldmann kommentiert diese Situation so:

In den VDInachrichten erschienen, Quelle BDEW.

Bitte beachten Sie auch am Ende des Berichts den Hinweis auf die sog. Greenpeace-Studie :

Zitat : >>>…verringerte sich der Einkaufspreis für Großabnehmer an der deutschen Strombörse von Anfang 2008 bis Ende 2012 sogar um mehr als ein Fünftel. Im selben Zeitraum sei der Strom dort im Schnitt 7 % billiger als an den restlichen europäischen Energiebörsen gewesen.

Im Vergleich von 2011 und 2012 liegt der Industriestrompreis inklusive aller Steuern und Angaben auf konstantem Niveau.<<<

Die Gründe für diese Entwicklung werden nicht genannt. Sie finden Sie in dem Beitrag von Thomas Mock in den VIK Mitteilungen :

Siehe dort das Zitat aus dem eingefügten Beitrag von Mock

„VIK Mock EEG Systemfrage Nov.2012.A“ entnommene Zitat :

>>>“Die direkten EEG-Kosten stehen außerhalb dieses (EEX-)Systems und werden über die Stromrechnung separat abgerechnet. Sie wirken aber wiederum auf die EEX, indem der EEG-Strom systemimmanent mit 0 €/MWh an der EEX angeboten wird.“<<<

Related Files




Atommüll-Lagerung in der ASSE- eine unendliche Geschichte

Zu diesem Vorhaben stellen sich Fragen, die an die Parlamentarier zu stellen sind:

1.     Überall in der Welt werden schwach radioaktive Abfälle (das ist die überwiegende Menge der Abfälle in der ASSE) oberflächennah endgelagert, z.B. in Frankreich im Endlager „Centre de la Manche“. Nur in Deutschland gibt es ein tiefes Endlager dafür, weil dafür ein still gelegtes Bergwerk zur Verfügung stand.

 

Bild 1 (wie auch oben rechts): ANDRA, Agence Nationale Pour La Gestion Des Dechets Radioactifs, zur verfügung gestellt von Dr. H. Hinsch

Frage: Warum stellt die tiefe Endlagerung in Deutschland eine Gefahr dar, während in allen anderen Ländern der Erde die oberflächennahe Lagerung ausreichend ist?

2.     Wenn man die schwach radioaktiven Abfälle aus der ASSE herausholt, stände zu deren späterer Endlagerung nur Schacht KONRAD bereit. Dieser Schacht kann jedoch den Abfall aus der ASSE nicht zusätzlich aufnehmen, denn das genehmigte Hohlraumvolumen von KONRAD wird durch den schon vorhandenen und noch anfallenden schwach aktiven Abfall aufgefüllt werden.

Frage:
Man plant offenbar, die rückgeholten Abfälle in oberirdischen Bauten endzulagern [1]. Ist das sicherer als die Lagerung in der Tiefe?

3.     In der ASSE lagern als wesentliche Nuklide Uran und Thorium [2], das sind alpha-Strahler mit einer Reichweite von wenigen Hundertstel Millimeter im Gestein. Für Menschen können alpha-Strahler nur dann gefährlich werden, wenn sie in den Körper gelangen, also verspeist werden.

Frage:
Ist das Risiko des Verspeisens der Abfälle nicht als geringer einzuschätzen, wenn diese in der Tiefe verbleiben anstatt sie an die Oberfläche zurück zu holen?

4.     Der Fachverband Strahlenschutz – das ist der Zusammenschluß der im Strahlenschutz ausgebildeten Fachleute in Deutschland – hat gegen die Rückholung der Abfälle argumentiert, weil damit gegen den Grundsatz des Strahlenschutzes verstoßen wird, jede unnötige Exposition zu vermeiden [3].

Frage:
Warum ignoriert die Politik und das Bundesamt für Strahlenschutz den Rat der Fachleute?

5.     Ebenso wendet sich Michael Sailer, Sprecher der Geschäftsführung vom Öko-Institut Freiburg und Vorsitzender der Entsorgungskommission des Bundes seit längerem gegen die Rückholung der Abfälle, weil diese nicht machbar sei. Das ist eine lobenswert sachliche Bewertung von Seiten der Kernkraftgegner, zu denen Herr Sailer gezählt werden kann.

Frage:
Warum ignoriert die Politik und das Bundesamt für Strahlenschutz den guten Rat vom Öko-Institut?

6.     In die ASSE wurde durch die Abfälle ungefähr genauso viel Radioaktivität hinein gebracht (einige zehn hoch zwölf Becquerel), wie man zuvor durch den Bergbau durch Kali heraus geholt hatte (wenn man bei den Abfällen diejenigen mit kurzer Halbwertszeit außeracht lässt, weil diese schon in etwa 100 Jahren komplett zerfallen sind). Es also bezüglich der Menge von Radioaktivität in der ASSE nichts verändert worden, nur sind es dort anstatt Kalium-40 jetzt mit Uran und Thorium andere Nuklide.

Frage:
Der Mensch hat bezüglich der Menge von Radioaktivität durch die Abfalllagerung in der ASSE nichts verändert – warum soll jetzt durch Rückholung die Erde in über 500 Meter Tiefe frei von Radioaktivität gemacht werden?

7.     In der Landwirtschaft werden in Deutschland jedes Jahr einige zehn hoch zwölf Becquerel in Form von Kalidünger auf den Feldern verteilt. Eine ähnlich große Menge von Radioaktivität (K-40, C-14) wird von den Menschen in Deutschland mit der Nahrung verspeist.

Frage:
Warum ist das verspeisen von Radioaktivität mit der Nahrung gestattet, nicht hingegen die Endlagerung der gleich großen Menge von Radioaktivität in der Tiefe?

8. In der ASSE werden die Abfälle durch das Deckgebirge geschützt, in dem sich hundertmal so viel Radioaktivität wie in der Tiefe befindet [4], wenn man wiederum die in 100 Jahren verschwundenen Nuklide mit kurzer Halbwertszeit vernachlässigt, siehe Skizze (bei diesem Vergleich ist es belanglos, ob man die Radioaktivität in Bq oder in kg misst):

Frage: Wie können die Abfälle in der Tiefe eine Gefahr bedeuten, die 100-fache Menge an Radioaktivität im Deckgebirge darüber jedoch nicht?

9.     Es lässt sich berechnen, welche Menge an Uran die letale Strahlendosis ergibt; es müßten ca. 1 kg Uran verspeist werden. Die letale Dosis von Steinsalz liegt bei ca. 250g. Es ist also die Toxizität des Urans im Abfall geringer als diejenige vom umgebenden Steinsalz.

Frage:
Warum belässt das giftigere Steinsalz in der Tiefe und will das geringer giftige Uran aus dem Bergwerk herausholen?

Die ASSE wird vom Bundesamt für Strahlenschutz betreut, auch die Rückholung der Abfälle wird von dieser Behörde entgegen dem Rat von Fachgremien vorangetrieben. Es wird Werbung für dieses Vorhaben gemacht, das geschieht durch Berichte in vielen Zeitungen [5]. Dabei wird eine einfache Modellvorstellung beschrieben, die auf den ersten Blick für den Bürger einleuchtend ist und daher sofort geglaubt wird. Bei der ASSE ist es die Vorstellung vom Eindringen von Wasser in eine instabile Grube, das Rosten der Fässer, Auflösung des Inhalts, Verseuchung des Grundwassers. Dabei wird vieles falsch dargestellt:

Die Hohlräume der ASSE sind schon zu 90% wieder verfüllt worden, mit der Verfüllung wird das Grubengebäude immer stabiler. Brüchige Stollen und nachbrechendes Deckgebirge sind überall im Bergbau normal, nur bei Salz sehr gering. Für die Menschen im Ruhrgebiet ist es alltäglich, dass durch zusammenbrechende Stollen an der Oberfläche Vertiefungen entstehen, mit weitreichenden Folgen für Bebauung, Landwirtschaft, Infrastruktur, Natur. Für die ASSE wird es wegen der Verfüllung diese Dinge nicht geben. Es dringt kein Wasser ein, sondern Sole, die ist zu 100 % gesättigt mit Salz. Unterirdisch in 500 m Tiefe fließen keine Flüsse, es ist besser von einsickernder Feuchtigkeit zu sprechen. Der Zutritt von 12 Kubikmeter Flüssigkeit pro Tag ist unverändert seit 24 Jahren. Zum Absaufen des schon zu 90% verfüllten Grubengebäudes wären 76 Jahre erforderlich. Die Gefahren zum Absaufen oder für einen „großen Wassereintritt“ (wie das BfS sagt) sind gering. Mit der Verfüllung der Hohlräume wird das Einsickern von allein aufhören, denn nur in Hohlräume kann Feuchtigkeit einsickern. In der Sole ist fast nichts mehr löslich. Die Stahlfässer dürfen rosten, denn in den Fässern ist der Abfall in Beton eingebettet. Beton löst sich nicht in Wasser, noch weniger in Sole. Und auch die Abfälle in den Fässern sind im wesentlichen oxidischer Natur, damit kaum in Wasser löslich. Die Sole hat eine Dichte zwischen 1,2 und 1,3. Diese kann nicht nach oben durch höher liegendes Grundwasser mit der Dichte 1 steigen. Der Salzstock der ASSE ist 240 Millionen Jahre alt. Später im Tertiär war die norddeutsche Tiefebene viele Millionen Jahre vom Meer bedeckt, als sich die viel jüngeren Braunkohlelagerstätten bildeten – ohne Einfluß auf die viele Salzstöcke in Niedersachsen.

Sigmar Gabriel hat den ASSE-„Skandal“ im September 2008 erfunden. Er war zwar zuvor als Minister und als Ministerpräsident in Niedersachsen der zuständige Chef gewesen, aber zuvor war für ihn offensichtlich in der ASSE alles in Ordnung gewesen.

Das Vorgehen der Skandalisierung der ASSE war professionell, Bilder sind Hilfsmittel des Profis. So war in den Medienberichten immer das gleiche Bild zu sehen, nämlich ein Frontlader, der Fässer abkippt. Das sollte „Schlamperei“ bekunden und gelang, wie in vielen Internet-Blogs zu sehen war: Zorn und Emotionen wurden geweckt. Es gibt in der ASSE auch Kavernen mit sorgsam gestapelten Fässern, das wurde aber nicht gezeigt. Es wurde auch nicht gesagt, daß die gestapelten Fässer irgendwann vom sich absenkendem Gebirge zerdrückt werden, die auf einer schrägen Rampe abgekippten Fässern jedoch anschließend mit feinem Salz zugedeckt und wie in Beton für die Ewigkeit einbettet wurden.

Mit dem unsinnigen Gesetz zur Rückholung der Abfälle aus der ASSE macht sich Deutschland ein weiteres Mal vor den Augen der Welt lächerlich. Allerdings lachen nur die wenigen Fachleute mit Verständnis für die komplizierten Zusammenhänge zu Radioaktivität und Strahlung. Und diese Minderheit lacht nur insgeheim, denn sie wurde längst als „Lobbyist“ gebrandmarkt, wagt sich nicht mehr aus der Deckung. Die große Masse der Menschen wird in ihrer diffusen Strahlenangst bestärkt. Mit einfachen Dingen wird eine Massenhysterie erzeugt, ständig wiederholte Schlagworte wie „ungelöste Endlagerfrage“ gehören dazu [6].

Die Ideengeber der Kampagne bleiben unsichtbar. Multiplikatoren sind als „nützliche Idioten“ im Leninschen Sinne tätig, sie lenken bewusst oder unbewusst die Masse der Mitläufer – man sagt Gutmenschen – in die gewünschte Richtung. In der Geschichte wurden die Rezepte der Demagogie immer wieder benutzt, hier und heute zum Nachteil für Deutschland und alle anderen, die vielleicht dem falschen Vorbild folgen werden.

Dr. Lutz Niemann; EIKE

[1] „Asse_einblicke_17“, eine Informationsschrift des Bundesamtes für Strahlenschutz

[2] „ASSE, Ein Bergwerk wird geschlossen“ Info-Broschüre vom GSF-Forschungszentrum 2004

[3] „Rückholung der Abfälle aus der Schachtanlage ASSE II“ vom Fachverband Strahlenschutz v. 15.2.2011 und „Arbeitskreis des FS, Stellungnahme des AKE zur Schachtanlege ASSE II“ in StrahlenschutzPRAXIS 1/2009 Seite 93, 94

[4] berechnet mit der mittleren Häufigkeit der Elemente in der Erdkruste nach Periodensystem VCH, oder Merck: „Tabellen für das Labor“: U: 3ppm, Th: 12ppm, K: 2,4%.

[5] Zum Beispiel in Süddeutsche Zeitung v. 28.12.2012, „Am Ende wird es immer Widerstand geben“; DIE WELT v. 13.12.2012, „Kaffee, Kuchen, Asse“; Der Spiegel v. 22.9.2012 „Mission Impossible“; u.a.m.

[6] Andere Beispiele: „Risikotechnik Kernkraft“, „Gendreck weg“, „Reichtum für alle“, „Yes we can“, „Erst stirbt der Wald, dann stirbt der Mensch“, „Scheitert der EURO, dann scheitert Europa“.




Ein Sargnagel für AGW? Großstudie findet keine Abhängigkeit zwischen anthropogenem CO2 und Temperaturverlauf.

Im Folgenden ist der WUWT-Beitrag ins Deutsche übersetzt wiedergegeben. Er schildert die Originalarbeit in verkürzter Form. Da die verwendeten statistischen Methoden der Originalarbeit wohl nur den wenigsten Leser(inne)n vertraut sein dürften, hat der Bearbeiter der News (Horst-Joachim Lüdecke) eine Veranschaulichung ohne Zuhilfenahme von mathematischen Formeln versucht. Sie ist als pdf angefügt. Es wäre vielleicht sinnvoll, diese Veranschaulichung zuerst zu lesen, um der folgenden Übersetzung verständlich besser folgen zu können. Nun zur Übersetzung des Artikels von WUWT, die von Helmut Jäger vorgenommen wurde:

In der Fachzeitschrift “…Obgleich die anthropogenen Antriebe einen gemeinsamen stochastischen Trend haben, zeigen wir, dass dieser Trend empirisch unabhängig vom stochastischen Trend bei den Zeitreihen der Temperatur und der Sonneneinstrahlung ist. Deshalb weisen Treibhausgas-Antrieb, Aerosole, Sonneneinstrahlung keine polynomiale Kointegration mit der globalen Temperatur auf. Das bedeutet, dass die jüngste globale Erwärmung nicht statistisch signifikant auf einen anthropogenen Antrieb bezogen ist. Aber wir meinen auch, dass ein Antrieb durch Treibhausgase einen zeitweiligen Effekt auf die globale Temperatur gehabt haben könnte.”

Das Papier ist hochinteressant und möglicherweise ein Donnerschlag, weil die Verfasser wirklich alle einschlägigen Zeitreihen von Beobachtungsdaten (einschließlich GISS und BEST) benutzten, zusammen mit der Sonneneinstrahlung nach Lean und Rind, dazu CO2, CH4, N2O, Aerosole, ja sogar Wasserdampfdaten. Und sie haben [die Daten] statistischen Tests gegen die Antriebsgleichungen unterzogen (dabei auch Lucias bevorzugter Einheitswurzel). Erstaunlicherweise scheinen sie bei den Beobachtungsdaten einen anthropogenen Antrieb fast gänzlich auszuschließen, dies aber mit der Einschränkung, dass Irrtum möglich sei, wörtlich:

“…unsere Zurückweisung eines anthropogenen Klimawandels ist nicht absolut; es könnte ein „falsch positiv“ sein, aber wir können die Möglichkeit nicht ausschließen, dass die jüngste globale Erwärmung einen anthropogenen Stempel trägt. Diese Möglichkeit ist aber sehr klein und sie ist auf konventionellem Level nicht statistisch signifikant.“

Ich erwarte, dass Menschen wie Tamino (auch unter dem Namen Grant Foster bekannt) und weitere hitzköpfige Statistik-Besessene zum Angriff übergehen werden und die Prämissen und Tests in Frage stellen, aber gleichzeitig hoffe ich, dass sich auch weniger vorurteilsbefangene Statistiker engagieren und die Stichhaltigkeit prüfen. Ich habe die Vermutung, dass die Autoren von BEE sorgfältig darauf achteten, alle Möglichkeiten eigener Irrtümer auszuschließen. Ich schulde Dank an Andre Bijkerk und Joanna Ballard, die mich über Facebook auf dieses Papier aufmerksam machten.

Der Abstract und Auszüge aus dem Paper mit folgenden Autoren folgen.

M. Beenstock(1), Y. Reingewertz(2), and N. Paldor(3): Polynomial cointegration tests of anthropogenic impact on global warming, Earth Syst. Dynam., 3, 173-188, 2012
(1) Department of Economics, the Hebrew University of Jerusalem, Mount Scopus Campus, Jerusalem, Israel
(2) Fredy and Nadine Institute of Earth Sciences, the Hebrew University of Jerusalem, Edmond J. Safra campus, Givat Ram, Jerusalem, Israel

Abstract

Wir wenden statistische Methoden auf instationäre Zeitreihen an, um die Erklärungshypothese vom anthropogen verursachten Klimawandel (AGW) zu testen, wonach eine Zunahme der atmosphärischen Treibhausgaskonzentration die Globaltemperatur im 20. Jh. erhöht hätte. Im Besonderen benutzen wir das Verfahren der polynomialen Kointegration, um einen möglicherweise anthropogenen Klimawandel im Beobachtungszeitraum (1880–2007) zu testen. Die Globaltemperatur und die Sonneneinstrahlung sind stationär beim ersten Differenzieren, wohingegen die Treibhausgas- und Aerosol-Antriebe erst beim zweiten Differenzieren stationär sind. Wir zeigen, dass dieser Trend empirisch unabhängig vom stochastischen Trend bei der Temperatur und Sonneneinstrahlung ist, obwohl die anthropogenen Antriebe einen gemeinsamen stochastischen Trend aufweisen. Daher sind Treibhausgas-Antrieb, Aerosole, Sonneneinstrahlung und Globaltemperatur nicht polynomial kointegriert.

Das impliziert, dass die jüngste globale Erwärmung nicht statistisch signifikant auf einen anthropogenen Antrieb bezogen ist. Andererseits haben wir aber herausgefunden, dass ein Treibhausgas-Antrieb einen zeitlich begrenzten Effekt auf die Globaltemperatur gehabt haben könnte.

Einführung

Angesichts der Komplexität und der Verschiedenartigkeit der Prozesse, die das Erdklima beeinflussen, ist nicht überraschend, dass eine völlig zufriedenstellende und akzeptierte Erklärung (IPCC, AR4, 2007) für alle Veränderungen noch fehlt, die im vergangenen Jahrhundert stattgefunden haben (z.B. Temperaturänderungen im großen Gebiet der Tropen, Bilanz des CO2-Eintrags in die Atmosphäre, Änderungen in der Aerosol-Konzentration, Ausmaß und Veränderung der Sonnenstrahlung). Diese Studie beschäftigt sich insbesondere mit denjenigen Prozessen, die mit dem Treibhauseffekt zu tun haben, durch den ein Teil der von der Erde abgestrahlten langwelligen Emission von einigen Molekülen der Atmosphäre wieder absorbiert wird. Diese sind (in absteigender Wichtigkeit): Wasserdampf, Kohlendioxid, Methan und Stickoxide (IPCC, 2007). Obwohl Wasserdampf das wichtigste Treibhausgas ist, wird die Dynamik von dessen atmosphärischem Austausch durch Verdampfung, Kondensierung mit nachfolgendem Niederschlag noch nicht genügend verstanden, um gerade ihn exakt zu quantifizieren. Während sehr viel Ursachenforschung zur globalen Erwärmung unter Einsatz von kalibrierten allgemeinen Zirkulationsmodellen (calibrated general circulation models – GCMs) durchgeführt wird, hat sich seit 1997 ein neuer Zweig wissenschaftlicher Untersuchung entwickelt, in dem die Beobachtungen des Klimawandels statistisch mit der Kointegrationsmethode getestet werden (Kaufmann and Stern, 1997, 2002; Stern and Kaufmann, 1999, 2000; Kaufmann et al., 2006a,b; Liu and Ro- driguez, 2005; Mills, 2009). Die in den letzten Jahrzehnten des 20. Jahrhunderts entwickelte Methode der Kointegration wird eingesetzt, um unechte Regressionsphänomene in instationären Zeitreihen aufzuspüren (Phillips, 1986; Engle and Granger, 1987). Instationarität entsteht, wenn Stichproben-Kenngrößen aus einer Zeitreihe (Mittel, Varianz, Kovarianz) zeitabhängig sind. Regressionsbeziehungen sind dann „unecht“ [siehe Erläuterung Prof. Dr. Lüdecke], wenn unabhängige instationäre Zeitreihen scheinbar signifikant korrelieren, weil sie zufälligerweise zeitliche Trends haben.

Die Methode der Kointegration ist erfolgreich beim Aufspüren von unechten Beziehungen in Zeitreihen von Wirtschaftsdaten.

So ist die Kointegration zum ökonometrischen Standard-Werkzeug geworden, um Hypothesen mit instationären Daten zu testen (Maddala, 2001; Greene, 2012). Wie bereits erwähnt, benutzen auch Klimatologen die Kointegration, um instationäre Klimadaten zu analysieren (Kaufmann and Stern, 1997). Die Kointegrationstheorie beruht auf der einfachen Vorstellung, dass Zeitreihen hoch korreliert sein können, obwohl es keine Kausalitätsbeziehung zwischen ihnen gibt. Bei einer „echten“ Beziehung müssen die Ergebniswerte nach einer Regression zwischen den Zeitreihen stationär sein. In diesem Falle sind die Zeitreihen “kointegriert”. Weil die stationären Restwerte im Mittel gegen “null” gehen, muss eine echte Langzeitbeziehung zwischen den Zeitreihen existieren, die sich über der Zeit annähern, weil sie einen gemeinsamen Trend haben. Wenn andererseits die Restwerte instationär sind, dann gehen die Restwerte nicht gegen “null”, die Zeitreihen haben keinen gemeinsamen Trend und die Beziehung zwischen ihnen ist „unecht“, weil die Zeitreihen nicht kointegriert sind. So kann sogar das R2 aus einer Regression zwischen instationären Zeitreihen 0,99 betragen, und dennoch die Beziehung „unecht“ sein.

Die ursprünglich von Engle and Granger (1987) entwickelte Methode der Kointegration geht davon aus, dass instationäre Daten bei Veränderungen Stationarität zeigen, auch Erst-Differenzen genannt. So kann sich die Temperatur über der Zeit erhöhen, also instationär sein, aber ihre Veränderung selbst stationär. Während der 1990er Jahre wurde die Kointegrationstheorie erweitert auf den Fall, wo eine Anzahl von Variablen zweimal differenziert werden muss (i.e. die Zeitreihen der Änderungen der Veränderung) bevor Stationärität erreicht wird. Diese Erweiterung ist als „polynomiale Kointegration” bekannt.
Frühere Analysen der Instationarität von Klimadaten-Zeitreihen (z.B. Kaufmann and Stern, 2002; Kaufmann et al., 2006a; Stern and Kaufmann, 1999) zeigten, dass Globaltemperatur und Sonneneinstrahlung stationär in erster Differenzierung sind, während das für Treibhausgase (in der Folge THG genannt) erst in zweiter Differenzierung zutrifft.
In der vorliegenden Studie wenden wir die Methode der polynomialen Kointegration an, um die Hypothese von der Verursachung der globalen Erwärmung seit 1850 durch verschiedene anthropogene Phänomene zu testen. Unsere Ergebnisse zeigen, dass die THG-Antriebe und andere anthropogene Phänomene nicht mit der Globaltemperatur und der Sonneneinstrahlung polynomial kointegriert sind. Deshalb, und trotz der hohen Korrelation zwischen anthropogenen Antrieben, Sonneneinstrahlung und Globaltemperatur zeigt sich für einen menschenverursachten Klimawandel statistisch keine Signifikanz. Die erkennbare statistische Beziehung zwischen Temperatur und anthropogenen Antrieben ist daher ein „unechtes“ Regressionsphänomen.

Daten und Methoden

Wir benutzen Jahres-Daten (1850–2007) der Treibhausgas-Konzentrationen und Antriebe (CO2, CH4 and N2O), dazu Antriebe für Aerosole (Schwarzkohle, reflektive troposphärische Aerosole). Wir benutzen dazu Jahres-Daten (1880–2007) für Sonneneinstrahlung, Wasserdampf (1880–2003) und globale Durchschnittstemperaturen (Meer und Land zusammengefasst 1880–2007). Diese weithin benutzten Sekundärdaten kommen von NASA-GISS (Hansen et al., 1999, 2001). Zu Details über diese Daten siehe den Data Appendix.

Wir führen Robustheitsprüfungen durch, indem wir neue Rekonstruktionen der Sonneneinstrahlung von Lean and Rind (2009) benutzen, die global gemittelten Temperaturen nehmen wir von Mann et al. (2008), die globalen Temperaturdaten der Oberflächen über Land (1850–2007) von der Berkeley Earth Surface Temperature Study [BEST]. Die Haupt-Zeitreihen sind in Fig. 1 abgebildet. http://relaunch.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/12/Bee_Fig.1.jpg

Fig. 1. Zeitreihe der Veränderungen in mehreren Variablen, welche die Klimaänderungen im 20. Jahrhundert repräsentieren oder beeinflussen. a) Strahlungs-Antriebe (rf, in W m−2) von 1880 bis 2007 für CH4 (Methan) und CO2 (Kohlendioxid); (b) Gleicher Zeitraum wie in Abb. a, aber für Stickoxid (N2O); (c) Sonneneinstrahlung (linke Ordinate, in W m−2) und Jahresglobaltemperatur (rechte Ordinate, in C°) von 1880–2003.

Darin zeigen die Abb. a und b die Strahlungs-Antriebe für drei Haupt-THG, während Abb. c die Sonneneinstrahlung und Globaltemperatur zeigt. All diese Variablen haben positive zeitliche Trends. Die zeitlichen Trends in den Abb. a und b scheinen nichtlinearer zu sein als ihre Gegenstücke in Abb. c. Die nachher berichteten statistischen Tests enthüllen, dass die Trends in Abb. c linear sind, wohingegen die Trends in den Abb. a und b quadratisch sind. Der Trend in der Sonneneinstrahlung hat sich seit 1970 abgeschwächt, während der Temperaturtrend sich in den 1950ern und 1960ern zeitweilig abschwächte.

Die statistische Analyse instationärer Zeitreihen, wie z. B. die in Fig. 1, besteht aus zwei natürlichen Stufen. In der ersten werden Tests mit den Wurzeln der Einheiten gemacht, wobei die Daten nach Ordnung und Eigenschaft der Instationarität kategorisiert werden. Wenn die Daten instationär sind, sind die Kenngrößen der Stichprobenereignisse wie z. B. Varianzen, Ko-Varianzen zum Zeitpunkt der Stichprobe voneinander abhängig, dabei können die kleinsten Quadrate und die Abschätzungen der maximalen Wahrscheinlichkeiten der Parameter „unecht“ sein. In der zweiten Stufe werden diese instationären Daten benutzt um die Hypothesen anhand der Methode der Kointegration zu testen. Sie dient dazu, „echte“ von „unechten“ Beziehungen zwischen Zeitreihen unterscheiden zu können. Da die Leser von Earth System Dynamics vielleicht mit diesen Methoden nicht vertraut sind, geben wir eine Überblick über das Konzept und die Tests.

Ergebnisse

Eigenschaften der Zeitreihen der Daten

Eine rasche Betrachtung der Fig. 1 legt nahe, dass die Eigenschaften der Zeitreihen der  Treibhausgas-Antriebe (Abb. a and b) von denen der Temperatur und Sonneneinstrahlung (Abb. c) erkennbar abweichen. In Abb. a und b gibt es Hinweise auf Beschleunigung, wohingegen in Abb. c die beiden Zeitreihen stabiler zu sein scheinen.
In Fig. 2 plotten wir rfCO2 in erster Differenzierung, das bestätigt den Sichtbefund, dass rfCO2 nicht I (1) ist, besonders seit 1940.

http://relaunch.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/12/Bee_Fig.2.jpg

Fig. 2. Zeitreihen von rfCO2 in erster Differenzierung.

Ähnliche Darstellungen sind auch für andere Treibhausgas-Antriebe verfügbar. In diesem Abschnitt kommen wir zu dem wichtigen Befund, dass die Treibhausgas-Antriebe in erster Differenzierung nicht trend-frei sind, während die Unterschiede der Temperatur und Sonneneinstrahlung trend-frei sind. Das ist konsistent mit unserer Hauptbehauptung, dass anthropogene Antriebe [intergriert von der Ordnung] I (2) sind, während Temperatur und Sonneneinstrahlung I (1) sind. Was wir hier rasch erkennen, wird durch formale statistische Tests für die Variablen in Tabelle 1 bestätigt.

http://relaunch.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/12/Bee_Tab1.jpg

Obwohl die KPSS und DF-Typ Statistiken (ADF, PP und DF-GLS) unterschiedliche Null-Hypothesen testen, erhöhen wir nacheinander d bis sie geichlaufen. Wenn sie gleichlaufen, wenn d = 1 ist, dann typisieren wir die Variable als I (1), oder stationär hinsichtlich der Differenz. Bei den anthropogenen Variablen haben wir den Gleichlauf wenn d = 2. Weil die DF-Typ-Tests und die KPSS-Tests nicht zulassen, dass diese Variablen I (1) sind aber zulassen, dass sie I (2) sind, gibt es hier keinen unlösbaren Widerspruch. Die Sache hätte anders sein können, wenn gemäß der DF-Typ-Tests die anthropogenen Variablen I (1) gewesen wären, aber gemäß KPSS sind sie I (2).

Die erforderliche Anzahl von Erhöhungen für ADF ist irrelevant. Das häufig herangezogene Schwert-Kriterium benutzt eine Standardformel, die nur auf der Anzahl der Beobachtungen beruht, was wenig wenig hilfreich ist, weil dadurch Freiheitsgrade verloren gehen können. Wie schon gesagt, ziehen wir die Erhöhungen beim ADF-Test vor, solange bis die Restwerte seriell unabhängig werden, entsprechend einem La-Grange-Vervielfachungs-Test (LM). In den meisten Fällen werden 4 Erhöhungen gebraucht, bei  rfCO2, rfN2O und stratosphärischem H2O werden aber 8. Auf jeden Fall ist die Klassifizierung robust in Bezug auf Erhöhungen im Bereich von 2 bis 10. Deswegen glauben wir nicht, dass die Anzahl der Erhöhungen unsere Klassifikationen beeinflusst. Die KPSS- und Phillips-Perron-Statistiken benutzen die nichtparametrischen Standard-Newey-West Kriterien für die Berechnung von robusten Standardfehlern. Tatsächlich sehen wir, dass diese Statistiken etwa 4 Autokorrelationen benutzen, was unserem LM-Verfahren entspricht, um die Anzahl der Erhöhungen für ADF zu bestimmen.

Diskussion

We haben gezeigt, dass anthropogene Antriebe keine polynome Kointegration mit der Globaltemperatur und der Sonneneinstrahlung aufweisen. Daher stützen die Daten für den Zeitraum 1880-2007 nicht die Erklärung einer anthropogenen globalen Erwärmung in jenem Zeitraum. (Hervorhebung durch dieRedaktion) Dieses Hauptergebnis wird grafisch in Fig. 3 gezeigt, wo die senkrechte Achse die Komponente der Globaltemperatur misst, die nach unserer Einschätzung nicht durch die Sonneneinstrahlung erklärt werden kann.

http://relaunch.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/12/Bee_Fig.3.jpg

Fig. 3. Statistische Assoziation zwischen (Plot der Punktwolke) der anthropogenen Anomalie (Abszissen) und dem Netto-Temperatur-Effekt (d.h. Temperatur minus geschätztem Sonneneinstrahlungs-Effekt; Ordinaten). Abb. (a) – (c) stellen jeweils die Modell-Ergebnisse dar, wie jeweils in den Modellen 1 und 2 in Tabelle 3 und Gleichung (13). Die anthropogene Trend-Anomalie summiert die gewichteten Strahlungsantriebe der Treibhausgase (CO2, CH4 und N2O). Die Berechnung der Veränderung des Netto-Temperatur-Effekts (wie oben definiert) erfolgt durch Subtraktion: Von der beobachteten Temperatur in einem bestimmten Jahr wird das Produkt von Sonneneinstrahlung in jenem Jahr multipliziert mit dem Koeffizienten, der aus der Regression der jeweiligen Modell-Gleichung gewonnen wird, subtrahiert: 1,763 im Falle von Modell 1 (a); 1,806 im Falle von Modell 2 (b); und 1,508 im Falle von Gleichung (13) (c).

In Abb. a misst die horizontale Achse die Anomalie beim anthropogenen Trend, wenn letzterer aus Antrieben von Kohlendioxid, Methan und Stickoxid abgeleitet wird. In Abb. b misst die horizontale Achse diese anthropogene Anomalie getrennt von den Treibhausgas-Antrieben. Troposphärische Aerosole und Schwarzkohle sind eingeschlossen. Die Abb. a und b zeigen beide, dass keine Beziehung zwischen Temperatur und der anthropogenen Anomalie existiert, wenn der Erwärmungseffekt der Sonneneinstrahlung in die Betrachtung einbezogen wird.

Wir haben aber herausgefunden, dass Treibhausgas-Antriebe möglicherweise einen zeitweiligen Effekt auf die Globaltemperatur ausübten. Dieses Ergebnis wird in Abb. c der Fig. 3 dargestellt, wo die horizontale Achse die Veränderung im geschätzten anthropogenen Trend darstellt. Die Abb. c zeigt aber klar, dass eine positive Beziehung zwischen Temperatur und Veränderung der anthropogenen Anomalie besteht, wenn der Erwärmungseffekt der Sonneneinstrahlung in die Betrachtung einbezogen wird.

Derzeit werden die meisten Belege für die Stützung der Klimawandel-Theorie durch Kalibrierungs-Methoden und die Simulation von globalen Zirkulations-Modellen (GCM) gewonnen. Aus der Kalibrierung ergibt sich, z. B. bei Crowley (2000), dass zur Erklärung des Temperaturanstiegs im 20. Jahrhundert, und besonders seit 1970, ein genügend starker anthropogener Effekt bestimmt werden muss. Bei den Kalibrierern jedoch erfährt man nichts von Tests der statistischen Signifikanz dieses Effekts, sie überprüfen auch nicht, ob der Effekt vielleicht „unecht“ ist. Die Implikation unserer Ergebnisse ist, dass der Dauer-Effekt nicht statistisch signifikant ist. Trotzdem scheint es einen temporären anthropogenen Effekt gegeben zu haben. Wenn der Effekt eher temporär als permanent ist, würde eine Verdoppelung der Kohlenstoff-Emissionen keinen langfristigen Effekt auf die Erdtemperatur haben, aber für einige Jahrzehnte würde sie zeitweilig erhöht werden. Solcherart ist unseres Erachtens der Temperaturanstieg zwischen 1975-1995 und die nachfolgende Stabilität mit der Beschleunigung der Kohlenstoff-Emissionen während der zweiten Hälfte des 20th Jahrhunderts verknüpft (Fig. 2). Die Implikationen für die Politik sind erheblich, weil ein zeitlich begrenzter Effekt weniger ernst ist als ein permanenter.

Die Tatsache, dass seit der Mitte des 19. Jahrhunderts die Erdtemperatur nicht mit anthropogenen Antrieben verbunden ist, widerspricht nicht den Gesetzen der Thermodynamik, nicht der Treibhaustheorie, oder irgendeiner anderen physikalischen Theorie. Bei der Komplexität des Erdklimas und unserem unvollkommenen Verständnis davon, ist es schwer, die Hauptursache für die globale Erwärmung im 20. Jahrhundert den Kohlenstoff-Emissionen oder anderen anthropogenen Phänomenen zuzuschreiben. Dieses Argument ist kein physikalisches, sondern es bezieht sich auf die Daten-Interpretation. Stützen die Klimaentwicklungen in der jüngsten Vergangenheit die Interpretation, dass die globale Erwärmung in diesem Zeitraum durch menschliche Handlungen verursacht wurden? Wenn die Erdtemperatur im 20. Jahrhundert nicht zugenommen hätte, trotz der Zunahme der anthropogenen Antriebe (wie es in der zweiten Hälfte des 19. Jahrhunderts der Fall war), wäre dies kein Beweis gegen die Treibhaustheorie. Aber unsere Ergebnisse stellen die Daten-Interpretation in Frage, derzufolge die globale Erwärmung seit 1880 ein anthropogenes Phänomen sei.

Auch widerspricht die Tatsache, dass während jener Periode die anthropogenen Antriebe I (2) sind, also stationär in zweiter Differnzierung, während Erdtemperatur und Sonneneinstrahlung I (1) sind, also stationär in erster Differenzierung, keiner physikalischen Theorie. Aus Gründen der Physik kann erwartet werden, dass diese Variablen über die Jahrtausende die gleiche Intergrationsordnung aufweisen; sie sollten alle I (1) sein oder alle I (2), andernfalls gäbe es ein andauerndes Energie-Ungleichgewicht. Für die vergangenen 150 Jahre besteht aber kein physikalischer Grund, warum diese Variablen die gleiche Intergrationsordnung aufweisen sollten. Die Tatsache, dass sie in jenem Zeitraum nicht von gleicher Integrations-Ordnung sind, gemahnt Wissenschaftler zur Vorsicht, wenn sie überzeugende Interpretationen abgeben wollen von einer anthropogenen Verursachung der jüngsten globalen Erwärmung. Unsere polynomialen Kointegrationstests stehen im Widerspruch zu einer derartigen Interpretation der Daten.

Schlussendlich sind alle statistischen Tests probabilistisch und sie hängen von der Spezifikation des Modells ab. Der Typ-1-Fehler bezieht sich auf die Wahrscheinlichkeit der Zurückweisung einer Hypothese, wenn sie wahr ist (falsch positiv). Der Typ-2-Fehler bezieht sich auf die Nicht-Zurückweisung einer Hypothese wenn sie falsch ist (falsch negativ). In unserem Falle ist der Typ-1-Fehler sehr klein, weil der anthropogene Antrieb I (1) ist, mit einer sehr kleinen Wahrscheinlichkeit, und die Temperatur ist polynomial kointegriert, ebenfalls mit sehr kleiner Wahrscheinlichkeit.
Wir haben auch mit einer Anzahl von Modell-Spezifikationen und Schätzmethoden experimentiert. Das bedeutet aber, dass, wie bei allen Hypothesen, unsere Widerlegung des anthropogenen Klimawandels keine absolute ist; sie könnte auf „falsch positiv“ lauten, Auch können wir die Möglichkeit nicht ausschließen, dass die jüngste globale Erwärmung einen anthropogenen Stempel trägt. Doch diese Möglichkeit ist sehr klein und auf konventionellem Level statistisch nicht signifikant.

Daten-Appendix.

http://relaunch.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/12/Bee_Data_Appendix.jpg


Related Files




Wer einmal lügt …

Die Temperaturabnahme verbergen (Hide the decline)

von David M. Hoffer

In meinen beiden vorhergehenden Artikeln zum durchgesickerten Kapitel 11 des IPCC-Zustandsberichts 5 (AR5) habe ich mir die Vorbehalte angesehen, die das IPCC inzwischen für seine Projektionen nennt, auch die langen Ausführungen, zu denen man Zuflucht nimmt, um den alarmistischen Tenor beizubehalten. Die Vorbehalte gehen sehr weit: Da steht doch tatsächlich, dass die Wirklichkeit innerhalb, oberhalb oder unterhalb der Projektionen der Modelle bleiben könnte. DAS möge man mal falsifizieren! Zur Beibehaltung des Alarmismus bezeichnet man die rekordverdächtige Eisausdehnung in der Antarktis als “leichte Zunahme”, und man erwähnt in der “Kurzfassung für Entscheidungsträger” eine im langen Bericht vergrabene Projektion nicht, derzufolge die Häufigkeit tropischer Wirbelstürme bis 2100 um ein Drittel abnehmen können.

Wie steht es mit den Temperatur-Projektionen? Wird gesagt, wie hoch die Erwärmung in den nächsten Dekaden ausfällt? Ja, das wird gesagt.
Diese Projektionen sind aber die risikoreichsten für das IPCC, weil sie – anders als die meisten anderen Projektionen – innerhalb der Lebenszeit der meisten Leser falsifiziert werden können (oder auch nicht). Unter Einhaltung der Form werden die Temperatur-Vorhersagen mit Vorbehalten versehen und dabei wird mit einem interessanten Ansatz der alarmistische Tenor beibehalten.

Die Vorhersage lautet auf 0,4 bis 1,0 Grad Erwärmung für den Zeitraum von 2016-2035 im Vergleich zu 1986-2005. Nun erwartet man eigentlich die „beste Einschätzung“ in der Mitte der Spannweite, wie es das IPCC normalerweise tut. Doch sonderbar: Wir finden im Kapitel 11 diesen Satz:

[…] es ist eher wahrscheinlich als nicht, dass die tatsächliche Erwärmung näher zur unteren Grenze von 0,4 °C liegt als zur
oberen Grenze von 1,0 °C

Das IPCC kommt vom normalen Weg auch an anderen Stellen ab, wo behauptet wird, dass das wahrscheinlichste Ergebnis etwa bei 0,2 Grad pro Dekade läge. Wie rechtfertigt man da für 2035 (in kaum mehr als 2 Dekaden) eine obere Grenze, die um das 2,5-fache höher ist als im wahrscheinlichsten IPCC-Szenario? Nachfolgend die Grafik, die mit den Projektionen angegeben ist, vom Beginn der Referenzperiode (1986-2005) bis einschließlich 2050:

Figur 11.33: Zusammenfassung der zeitlich näher liegenden Projektionen der globalen Durchschnittstemperatur an der Erdoberfläche. [Grafik a – c von oben nach unten]

a) 4 Projektionen des globalen Durchschnitts, der jährlichen Durchschnittstemperatur an der Erdoberfläche (SAT) 1986–2050 (Anomalien bezogen auf 1986–2005) unter allen RCPs von den CMIP5 Modellen (graue und farbige Linien, ein Element der Kurvenschar pro Modell), mit vier Beobachtungs-Schätzungen (HadCRUT3: Brohan et al., 2006; ERA-Interim: Simmons et al., 2010; GISTEMP: Hansen et al., 2010; NOAA: Smith et al., 2008) für die Periode 1986–2011 (schwarze Linien);
b) wie a) aber mit der 5–95% Bandbreite für RCP4.5 (hellgrau shattiert, der Multi-Modell-Median weiss) und alle RCPs (dunkelgrau schattiert) von dekadischen Durchschnitts-CMIP5-Projektionen unter Benutzung von einem Element der Kurvenschar pro Modell, und dekadische Beobachtungs-Durchschnitts-Schätzungen (schwarze Linien). Die Maximum- und Minimum-Werte aus CMIP5 sind mit den grauen Linien dargestellt. Eine ausgewertete wahrscheinliche Bandbreite für die Durchschnitte der Periode 2016–2035 wird mit dem schwarzen durchgehenden Balken angezeigt. Die um „2 C° über präindustriell“ liegende Temperatur wird mit einer dünnen schwarzen Linie angezeigt, dabei wird eine Erwärmung der globalen Durchschnitts-SAT vor 1986–2005 von 0.6 C° angenommen.
c) Eine Zusammenstellung der Bandbreiten für die Durchschnitts-SAT für 2016–2035 aus SRES CMIP3, RCPs CMIP5, beobachtungsbegrenzten Projektionen (Stott et al., 2012; Rowlands et al., 2012; aktualisiert durch Weglassen von Simulationen mit zukünftigen großen vulkanischen Eruptionen), und eine Gesamtabschätzung. Der Kasten 1 und die Schlangenlinien stellen die wahrscheinlichen (66%) und sehr wahrscheinlichen (90%) Bandbreiten dar. Die Punkte für die CMIP3- und CMIP5-Schätzungen zeigen die Maximum- und Minimum-Werte in der Kurvenschar an. Der Median (oder Abschätzung der größten Wahrscheinlichkei für Rowlands et al., 2012) sind mit einem grauen Band dargestellt.

Ist die erste Grafik ernst zu nehmen? Können 154 Datenkurven, dazu noch alle zusammen dargestellt, überhaupt eine Bedeutung haben? Also habe ich mich mit der zweiten Grafik [mittlere] beschäftigt, die ist brauchbarer. Bei der Überprüfung merkte ich, dass etwas fehlt. Nehmen Sie sich 5 Minuten Zeit und schauen Sie, ob Sie es selbst entdecken!

Haben Sie es gefunden?

Die Abnahme [der Temperatur] ist unterschlagen!

In der ersten Grafik hören die Beobachtungsdaten etwa bei 2011 oder ‘12 auf, die zweite Grafik aber endet etwa bei 2007 oder ‘08. Vier oder fünf Jahre mit Beobachtungsdaten fehlen in der zweiten Grafik. Glücklicherweise sind beide Grafiken gleich skaliert, daher kann man leicht die Daten mit Hilfe des „Ausschneiden/Einfügen-Werkzeugs“ von der ersten Grafik in die zweite Grafik übertragen und sehen, wie sie aussehen müsste:

 

Na bitte! Nach der Aktualisierung der Beobachtungsdaten zeigt sich, dass wir uns derzeit in allen Szenarien unterhalb der Bandbreite der Modellrechnungen befinden, die ja immerhin innerhalb eines Vertrauensbandes von 5% bis 95% liegen, und das für alle Emissionsszenarien. Die hellgraue Schattierung ist für RCP 4,5 – für das Emissions-Szenario mit der höchsten Wahrscheinlichkeit. Wir liegen aber auch unterhalb des dunkelgrauen Bandes, welches für alle Emissionsszenarien für alle Modelle gilt, darin auch für diejenigen, die die globale Wirtschaft abwürgen würden.

Es kommt noch schlimmer

Ich habe ein bisschen mit der Hüllkurven-Mathematik ["Einhüllende“ – "Enveloppes"] gespielt und gerechnet (ja, ja, welche Kalkulationstabelle hat heute noch Funktionen für die Behandlung von „Einhüllenden“ ?). Dabei ging ich von einer linearen Erwärmung aus, beginnend mit dem aktuellen Datum. Dabei kam heraus, dass man 1,58 Grad oberhalb der Referenzperiode liegen müsste, um das durchschnittliche +1,0-Grad über der Referenzperiode zu erhalten. Wenn meine Rechnung stimmt, müsste eine extrapolierte Gerade durch die 1,6 Grad im Jahre 2035, ausgehend vom derzeitigen Beobachtungstand, gerade den oberen Rand der schwarzen Linie treffen, die die “wahrscheinliche Bandbreite“ in der Mitte der Grafik darstellt:

Ha, erwischt!

Und noch eins drauf!

Um die obere Grenze der vom IPCC geschätzten Bandbreite zu erreichen, würde man – ausgehend von einer Erwärmung, die selbst nach allen IPCC-Modellen und Daten noch unterhalb aller Projektionen liegt – einen plötzlichen Sprung auf eine höhere Rate benötigen, als alle Modelle und Emissionsszenarion vorsehen. Mit einfachen Worten: der obere Bereich der IPCC-Schätzungen kann nicht einmal mit Hilfe der IPCC-eigenen Daten und den IPCC-eigenen Modellen bestätigt werden.

Tatsächlich haben wir – und dies nur auf der IPCC-Grafik beruhend – weniger als 0,4 Grad während der vergangenen etwa 26 Jahre erlebt, weniger als 2 Grad pro Jahrhundert. Die braune von mir eingefügte Linie – [diese Linie kann auf einigen Bildschirmen auch als „rot“ erscheinen] – stellt einen Erwärmungstrend dar, der gerade jetzt beginnt und bis 2035 geht mit 6 Grad pro Jahrhundert, dreimal so hoch wie die jüngsten Raten. Und weil die Bandbreite der IPCC-Grafik bereits Szenarien mit drastischen Reduzierungen der Aerosole wie auch größere Zunahmen beim CO2 enthält, gäbe es eigentlich keine Rechtfertigung für eine Obergrenze von 1,0 Grad in den IPCC-Daten und in den IPCC-Modellen.

Ich will nicht sagen, das wäre unmöglich, nein, es ist möglich. Es ist aber auch möglich, dass ich morgen gleich zweimal von einem Blitz getroffen werde und überlebe, um dann in einem Flugzeugabsturz umzukommen, der zusätzlich noch unwahrscheinlicher wäre, weil ich morgen überhaupt nicht fliegen werde. Das Flugzeug müsste also zuerst zu mir kommen und mich finden. Weil ich ein Glückskind bin, wird der Lottoschein mit den sechs Richtigen in meiner Brieftasche gefunden werden, – nur um noch eins draufzusetzen.

Ist so etwas möglich? Klar doch! Ist es aber auch wahrscheinlich?

Nicht nach den IPCC-Daten und Modellen. Die derzeitige Version von IPCC AR5 Kapitel 11 erreicht bei der Täuschung (vorsätzlich oder nicht) eine neue Höhe. Erstens durch das Verbergen der Tatsache, dass die Beobachtungsdaten außerhalb des 95%-Vertrauensbereichs der IPCC-Modelle und liegen, und zweitens durch die Schätzung eines oberen Bereichs der Erwärmung, der selbst nach den IPCC-Modellen nahezu unmöglich erreicht werden kann.

#######################

Weitere einschlägige Artikel

IPCC AR5 Chapter 11 – Maintaining the Spin (wattsupwiththat.com)

IPCC Chapter 11 – Bankruptcy Protection (wattsupwiththat.com)

The real IPCC AR5 draft bombshell – plus a poll (wattsupwiththat.com)

An animated analysis of the IPCC AR5 graph shows ‘IPCC analysis methodology and computer Models are seriously flawed’ (wattsupwiththat.com)

Übersetzung: Helmut Jäger, EIKE.
Anmerkungen des Übersetzers in […]

Original hier.

Das Entwurfskapitel 11 des AR5 kann hier heruntergeladen werden.




Sonnenvorhersage für 2012: Eine Überprüfung!

An dem Tag, als jener Artikel geschrieben wurde, hatte es 5 aufeinander folgende Monate mit einer starken Zunahme der Sonnenaktivität gegeben. Während dieser Zeit hat sich die Sonnenfleckenzahl von 37 auf 97 nahezu verdreifacht. Sie sprang über das für den Zyklus 24 vorhergesagte Maximum von 90, das damals für Anfang 2013 erwartet worden war.

Seitdem hat sich eine Menge geändert. Die Überraschungen in der Sonnenphysik gehen immer weiter. Ihre Bedeutung hinsichtlich des globalen Klimas beginnen jetzt erst, sich zu klären.

Sonnenaktivität im Jahr 2012

Die beiden Bilder rechts zeigen die Veränderungen im Laufe des vergangenen Jahres. Sie entzogen sich immer noch der Prognose. In nur drei Monaten zu Beginn des Jahres 2012 ist die Sonnenfleckenzahl stärker zurück gegangen als sie in den fünf Monaten zuvor angestiegen war. Sie blieb seitdem immer niedrig. Heute ist klar, dass sich die Sonne merkwürdig oder merkwürdiger als vor einem Jahr verhält.

Komischerweise wird die Sonnenfleckenzahl im Jahr 2012 um 59,2 liegen, nur wenig mehr als 55,6 im Jahr zuvor. In beiden Jahren blieb sie den offiziellen Aufzeichnungen des Royal Observatorium of Belgium zufolge, die diese Zahl für die ganze Welt dokumentiert, immer noch unter dem bislang niedrigsten Spitzenwert seit 200 Jahren!

Der heutige Wert der Sonnenfleckenzahl beträgt müde 37.

Erkenntnisse des Jahres 2012

2012 hat die STEREO-Mission der NASA ein paar der besten 3D-Videos solarer CMEs überhaupt eingefangen:

Massive Filament Erupts on Sun

One of the Fastest CMEs on Record

Viele große Entdeckungen wurden 2012 gemacht. Eine davon ist der dramatische Sprung der Sonnenaktivität Ende 2011, welcher ein letzter absterbender Atemzug des Maximums der nördlichen Hemisphäre war, die ihr solares Maximum früher als erwartet erreicht hatte. Es wurde klar, dass die beiden Hemisphären der Sonne ihr Maximum zu unterschiedlichen Zeiten erreichen. Das Maximum der südlichen Hemisphäre könnte sich bis 2014 hinziehen.

Zyklus 24 beginnt, sehr dem Zyklus 14 zu ähneln, der vor 105 Jahren, also zwischen 1905 bis 1907, eine Doppelspitze aufwies. Einige Solarphysiker sagen auch diesmal einen Doppelgipfel voraus.

Sollte der Spitzenwert des Zyklus’ 24 unter einer Sonnenfleckenzahl von 60 liegen, wie es derzeit der Fall ist, wäre das das erste Mal seit dem Zyklus 6 im Jahr 1815 während des Dalton-Minimums.

Sonnenphysiker wie Leif Svalgaard, der sich gegen die vorherrschende Denkweise gewandt und eine sehr geringe Sonnenflecken-Aktivität bereits im Jahr 2005 vorhergesagt hatte, wurden 2012 in vollem Umfang bestätigt. Die geringe Sonnenflecken-Aktivität 2012 passt auch gut zu den Aufsehen erregenden Verlautbarungen [„bombshell announcements“] einer Konferenz in Las Cruces, Neu-Mexiko im Juli 2011.

Inzwischen sprechen Sonnenphysiker es laut aus … ein Grand Minimum der Sonnenaktivität ist im Entstehen und wird sich auf den nächsten und möglicherweise auch weitere Zyklen a

Schlussfolgerungen

Die Vorhersage einer Verschiebung des Paradigmas in unserem Verständnis der Sonne hat sich nicht bewahrheitet. Aber die Umkehrung der Sonnenaktivität 2012 bekräftigte dramatisch die überraschenden Ergebnisse der 2011 in Las Cruces verkündeten Entdeckungen.

Eine weitere überraschende Entdeckung 2012 fand sich in den aktualisierten Daten der Luft- und Wassertemperaturen weltweit von HadCRUT, dass nämlich die Temperatur der Erde seit 15 Jahren nicht mehr gestiegen ist.

Sowohl während des Dalton- als auch während des Maunder-Minimums war es kälter als heute. Die Frage ist, ob es auch beim kommenden Grand Minimum kälter sein wird.

Nahezu alle Sonnenphysiker glauben, dass das Maximum des gegenwärtigen Zyklus’ 24 außerordentlich ruhig verlaufen wird und dass im Zyklus 25 eher noch geringere Aktivität herrschen wird, wenn es einen solchen überhaupt noch geben sollte. Das letzte Mal geschah Vergleichbares während des Dalton-Minimums vor 200 Jahren und des Maunder-Minimums vor 400 Jahren.

Das IPCC glaubt nicht, dass es kälter wird, aber es bleibt die Tatsache, dass die gemessenen Temperaturen der Erde unter deren Projektionen liegen.

Was als Nächstes passiert, könnte für die kurzfristige Klimazukunft des Erdklimas sehr interessant sein.

azleader

Link: http://informthepundits.wordpress.com/2012/12/31/2012-sun-prediction-in-review/

Übersetzt von Chris Frey EIKE




Europa sucht nach Alternativen zu Russlands Erdgas

Bild rechts: Vom russisch-ukrainischen Gasstreit 2009 betroffene [affected] Länder

Europa ist derzeit zu einem Viertel seines Gasverbrauchs von Russland abhängig, eine Tatsache, die 2006 und 2009 grell ins Rampenlicht rückte, als der staatliche Gasriese Gazprom nach Streitigkeiten über den Preis die Gaslieferungen in die Ukraine stoppte, was die Lieferungen in andere europäische Länder in bitterkalten Wintern beschnitten hat. South Stream zielt teilweise darauf ab, etwas Ähnliches durch die Umgehung der Ukraine zu vermeiden.

Allerdings ist unklar, wie diese Strategie aussehen soll, wenn Länder in Mittel- und Osteuropa, die stark von russischem Gas abhängig sind, damit anfangen, ihre Versorgung auf viele Beine zu stellen.

Neue alternative Quellen lassen die globalen Preise sinken und ernste Fragen über Gazprom und seiner langfristigen Strategie aufkommen. Die Energielandschaft verändert sich selbst hier in der Ukraine, DEM Symbol der Energieabhängigkeit von Russland.

Zu den neuen Entwicklungen der Gasindustrie gehört, dass die Ausbeutung von Schiefergas in den USA den ehemaligen Importeur zu einem Exporteur macht, mit der unbeabsichtigten Nebenwirkung, Importe aus den Nahem Osten freizusetzen, genau zu der Zeit, in der die europäischen Länder diversifizieren wollen.

Gleichzeitig führt verflüssigtes Erdgas (LNG), das man rund um die Welt verschiffen kann, zu einem Boom auf dem sog. Spotmarkt in Europa.

„Die Gaspreise in den USA sind nur halb so hoch wie die Spotmarktpreise in Europa, und die Spotmarktpreise sind etwa halb so hoch wie die europäischen Preise von Gazprom”, sagt Anders Aslund vom Peterson Institute in Washington. „Das kann nicht so weitergehen. Vor allem Gazprom muss seine Preise senken“.

Angesichts dieser Gelegenheit trachten osteuropäische Länder danach, langzeitliche Verträge mit Gazprom zu revidieren, angestachelt von einer europäischen Prüfungskommission gegen die Festsetzung von Gaspreisen durch das russische Monopoly.

Die im September eingeleitete Untersuchung soll vermutete Versuche unter die Lupe nehmen, die Märkte in Bulgarien, Polen und anderen Ländern zu monopolisieren.

Auch Litauen hat Gazprom auf 2,5 Milliarden Dollar Schadenersatz verklagt, verursacht durch die vermuteten Preisverzerrungen von 2004 bis 2012.

Polen, welches zwei Drittel seines Gases aus Russland importiert, hat seinen Vertrag mit Gazprom neu verhandelt wegen eines geschätzten Abschlags um 15% im November, ein Jahr nach Einreichung einer Klage gegen das Unternehmen am Stockholmer Schiedsgericht.

Die polnische Position wurde durch die Entdeckung von Schiefergas mit geschätzten 350 bis 760 Milliarden Kubikmeter gestärkt, weit über dem jährlichen Gasverbrauch von 14 Milliarden Kubikmetern. Die Regierung stellt derzeit Förderungs-Lizenzen aus.

Diese Entwicklungen werden in der Ukraine, dem größten Einzelkunden von Gazprom, sorgfältig beobachtet. Das Land hat am meisten von der South Stream-Pipeline zu fürchten, weil ihm Transitgebühren verloren gehen. Gazprom hat bereits jetzt einige Gaslieferungen auf die North Stream-Pipeline umgeleitet, einer neuen Route, auf der russisches Gas direkt nach Deutschland gepumpt wird.

Die Wirtschaft der Ukraine wurde durch hohe Energiekosten schwer bedrängt, verschlimmert durch die niedrige Energieeffizienz – dem International Monetary Fund zufolge lediglich 60% des Mittelwertes in Europa.

Nicht in der Lage, ein neues Abkommen mit Gazprom zu erreichen, hat die Ukraine versprochen, den Verbrauch von Importgas im Jahr 2013 um mehr als die Hälfte zu reduzieren, trotz Warnungen aus Moskau, dass es Kiew 2 bis 3 Milliarden Dollar in Rechnung stellen will, zusammen mit einer Klausel im derzeitigen Abkommen, in dem Kiew verpflichtet wird, die vereinbarte Menge „zu kaufen oder abzunehmen“.

Russland hat gesagt, dass jedwede Abschläge Bedingung für den Verkauf ukrainischer Anteile an Pipelines und anderen Schlüsselbereichen der Energie-Infratruktur sind oder für den Beitritt des Landes zu einer Zollunion zwischen Russland, Weißrussland und Kasachstan.

Nichtsdestotrotz hat der ukrainische Präsident Janukowitsch vor Kurzem angekündigt, dass Kiew den staatlichen Verbrauch von 40 Milliarden Kubikmeter im Jahr 2011 auf 27 Milliarden 2012 und 18 Milliarden in 2013 reduzieren will.

„Unser einziges Mittel, die Situation zu beeinflussen, sind fortgesetzte Reduktionen des Volumens des russischen Gashandels”, sagte er.

Um dennoch hinzureichen trachtet die Ukraine nach unkonventionellen Quellen und dem Energieminister der Ukraine zufolge danach, russisches Gas durch Deutschland zu importieren, was 40 bis 70 Dollar pro 1000 Kubikmeter billiger wäre als die Versorgung direkt aus Russland.

Das Land arbeitet auch daran, Alternativen auszuweiten. Die staatliche Öl- und Gaskompanie Naftogaz unterschreibt Verträge, die potentiellen 0,8 bis 1,5 Billionen Kubikmeter reichen Schiefergas-Lagerstätten zu erkunden. Im vorigen Sommer hat Kiew Verträge mit ExxonMobil und Royal Dutch Shell unterzeichnet, um die Offshore-Ausbeutung zu beflügeln. Man möchte auch ein LNG-Terminal bauen.

Am Montag hat Naftogaz ein Abkommen bekannt gegeben, 3,7 Milliarden Euro von der China Bank Development Corporation zu leihen, um von Gas auf Kohle umzusteigen.

Russland hat aber immer noch mehr als nur ein paar Trümpfe im Ärmel. South Stream wird möglicherweise alle Hoffnungen der von der EU gesponserten Nabucco-Pipeline dämpfen, welche Zugang zu reichlichen Vorkommen in mittelasiatischen Lagerstätten versprach.

Das heißt aber nicht, dass sich South Stream auszahlt. Analysten stellen auch die Brauchbarkeit anderer Gazprom-Projekte in Frage, die ebenfalls als politisch motiviert angesehen werden – wie zum Beispiel Pläne, eine Pipeline durch Sibirien nach China zu bauen, das derzeit billigeres Gas aus Turkmenistan bevorzugt.

Missmanagement und die Unfähigkeit zu Innovationen haben zum Rückgang der Gazprom-Einnahmen beigetragen, während die Kosten weiterhin hoch sind. Dies führte teilweise zu einem Rückgang der Gazprom-Einnahmen um 50 Prozent im zweiten Quartal des Jahres, während der Marktwert des Unternehmens dreifach seit dem Spitzenwert im Jahr 2008 gesunken ist. Damals sah es so aus, als würde Gazprom zum größten Unternehmen weltweit werden.

Aslund glaubt, dass Korruption Gazprom vom profitabelsten Unternehmen in ein russisches Enron verwandelt hat, gerade als neue Technologien anfangen, den Einkommensstrom zu betreffen. Das wird nur den Hebel der europäischen Länder stärken, die ihre Versorgung diversifizieren wollen.

Jakub Parusinski, Alaska Dispatch

Link: http://www.thegwpf.org/europe-seeking-alternatives-russias-natural-gas/

Übersetzt von Chris Frey EIKE




Der täglich grüne Irrsinn: Spiegel TV Reporter Neubacher über den Ökofimmel!

Sehr lesenswert ist auch sein Buch „Der Ökofimmel“ z. B. hier zu erwerben. Die dafür verlangten 19,90 € sind gut angelegtes Geld und kommen beim Einkauf von Non-Bio Nahrung sehr schnell wieder rein. Auch wenn der Autor, nach wie vor, dem Glauben an den anthropogen induzierten Klimawandel anhängt und allen Belehrungsversuchen bisher erfolgreich widerstand, bleiben wir beim Prädikat „Sehr lesenswert“.

Video nicht mehr verfügbar

Spiegel tv Film „Der Ökofimmel“. Mit freundlicher Genehmigung des Autors 

Bitte direkt über den Link „Ökofimmel – Wer schützt die Umwelt vor den Umweltschützern?“ aufrufen.




„Grünes“ Debakel – US-Landschaft übersät mit tausenden von verlassenen Windkraftanlagen

Gigantische Windräder, die sprichwörtlichen Leuchttürme der Bewegung "Grüne Energie“, waren für die US-Regierung eine Form der erneuerbaren Energiegewinnung ihrer Wahl, und Milliarden Dollar von Steuergeldern sind zur Förderung ihrer Errichtung und Nutzung im ganzen Land aufgewendet worden.

Hohen Wartungskosten, hohe Ausfallraten und schwankende Wetterbedingungen – also Faktoren, welche die Energie-Produktion beeinflussen – machen Windkraftanlagen teuer und ineffizient, deshalb sind über 14.000 von ihnen seither aufgegeben worden.

Bevor staatliche Subventionen für die Metallkolosse in vielen Gegenden gekürzt oder vollständig zurückgezogen wurden, waren die Windparks ein boomendes Geschäft.

Aber in der Ära nach den Steuer-Subventionen übersteigen die Kosten für Wartung und Betrieb von Windenergieanlagen bei weitem die Erträge aus der erzeugten Energie, weshalb in vielen Gebieten der USA – die vorteilhaftesten für die Erzeugung von Windenergie – ein Flickenteppich von Windkraftanlagen-Friedhöfen hinterlassen worden ist.

"Tausende von verlassenen Windkraftanlagen übersähen die Landschaft der „drei großen Kalifornischen Standorte“ für Windenergie – Altamont Pass, Tehachapin und San Gorgonio – die auch zu den weltweit besten Gebieten für Windenergie gehören", schreibt Andrew Walden vom „American Thinker“.

"An den besten Wind-Spots auf der Erde wurden mehr als 14.000 Turbinen einfach aufgegeben. Sich drehender, post-industrieller Müll, die nichts erzeugt als tote Vögel."

Walden spricht natürlich auch über die Vögel, Fledermäuse und andere Geschöpfe der Lüfte, die sich in den Propellern der Windkraftanlagen verwickeln und getötet werden.

Und noch etwas zum Terminus "post-industriellen Müll"; auch wenn es zu viel kostet, die Maschinen laufen zu lassen, dann ist es definitiv zu teuer sie auszugraben und wieder zu entfernen.

Dieses ganze Durcheinander mit der Windenergie zeigt, wie das amerikanische Volk von ihren gewählten Vertretern ausgespielt wurde. Diese setzten auf die "globale Treibhauseffekt-Hysterie“, die in erster Linie der Aufhänger für das Ankurbeln der Windenergie war.

Und jetzt, da steuerliche Subventionen für die erneuerbaren Energien an manchen Orten allmählich zu Ende gehen, ist die wahre finanzielle und wirtschaftliche Lebensfähigkeit – oder deren Nichtvorhandensein – von Windenergie auf dem Display für die Welt zu sehen.

"Es geht einzig und allein um die steuerlichen Subventionen", schreibt Don Surber

            von „Charleston Daily Mail“.

 "Die Rotorblätter wirbeln, bis das Geld ausgeht. Wenn einmal eine ehrliche Geschichte über die Wende im 21. Jahrhundert geschrieben wird, wird sie ein langes und hartes Kapitel darüber beinhalten, wie die Ängste über die globale Erwärmung von Unternehmen für die Erzielung von Profiten genutzt wurden."

von Jonathan Benson November 2011

aus NaturalNews Webseite

Übersetzung von Kurt Mayr




Bis 2018 wird´s nicht mehr wärmer! Britisches Klimainstitut passt seine Modelle der Realität an.

Der britische Wetterdienst hat nun als eine der ersten wichtigen Organisationen die Reißleine gezogen und seine Erwärmungsprognose bis 2020 drastisch reduziert. Nach anderthalb Jahrzehnten Erwärmungsstopp wurden nun beim UK Met Office offensichtlich die Modelle überprüft und die Idee eines unmittelbar bevorstehenden globalen Hitzschubes aufgegeben (siehe Bericht auf Tallbloke’s Talkshop). Während in der alten Prognose bis zum Ende des Jahrzehnts noch fast ein halbes Grad dazukommen sollte, geht man nun davon aus, dass die Temperatur ziemlich stabil bleibt bzw. lediglich ein Zehntelgrad ansteigt 

 

Bild 1: Vergleich der Klima-Prognosen anhand der Endpunkte (2020 zu 2018) ; Met-Office-Graphik ergänzt

Bei genauem Hinsehen erkennt man sogar noch mehr:

Met-Office getraut sich mit seiner neuen Prognose nicht wie vorher bis an 2020 ran, sondern  "wagt sich" nur bis 2018. Das ist auch kein Wunder bei dem starken Abwärtstrend, den sie ab 2015 vorhersehen. Denn wenn man die blaue Prognosekurve bis 2020 extrapoliert, so wie es viele Klimaforscher vorhersagen, so landete man unweigerlich bei einer Prognosekorrektur von sogar  -0,6 Grad (Abb. 2), und das würde wahrlich ein noch schlechteres Bild auf die bisherigen Prognose-Techniken (Modelle) werfen. Auch wäre man innerhalb der Alarmisten-Zunft schnell als "Nestbeschmutzer" abgestempelt. Also versteckt man die heutige, für den Klima-Alarmismus vernichtende Prognose durch diesen kleinen Trick, indem man zwei verschieden große Prognose-Zeiträume wählt.

Bild 2: Vergleich der Klima-Prognosen anhand der Endpunkte (2020 zu 2020); Met-Office-Graphik ergänzt. 

Die rote Kurve im rechten Bild 2 ist um zwei Jahre bis 2020 extrapoliert, in Fortsetzung des im Original bereits bis 2018 nach unten abknickenden blau gezeichnete Trend. Eine gewisse Wahrscheinlichkeit für einen solchen fortgesetzten Trend ergibt sich aus dem derzeitigen Verhalten der solaren Aktivität, sowie von ENSO und PDO. (Vgl. dazu auch http://www.kaltesonne.de/?p=7884 ).

Einen schön animierten Vorher-Nachher-Vergleich hat Bob Tisdale erstellt (Abbildung 3). Wer’s genauer wissen will, findet hier auch eine detaillierte Diskussion der beiden Prognosen.

 

Abbildung 3: Vorher-Nachher-Vergleich der alten und neuen UK Met Office Temperaturprognose. Quelle: h i e r   Bob Tisdale

Hartmut Graßl, James Hansen, Hans-Hoachim Schellnhuber, Mojib Latif, etc. wie auch die "Stiftung 2°" des Michael Otto,  wird dies gar nicht gefallen. Ihre legendären Hitzeprognosen und Aktionspläne zur Umgestaltung der Gesellschaft verlieren damit weiter Rückhalt in der heutigen Wissenschaft

Doch Spiegel Online und DIE ZEIT titelten gestern sinngemäß 

##  Hitzerekord: 2012 war heißestes Jahr in der US-Geschichte  ## (2)

Das erinnert an den alten Witz vom Autorennen zwischen einem Ford und einem Skoda in der sozialistischen CSSR. Der Ford siegt mit Riesenvorsprung. Am nächsten Tag schreibt die Parteizeitung Rude Pravo: "Der sozialistische Skoda wurde zweiter, und demonstrierte damit die Überlegenheit des kommunistischen Systems, während de kapitalistische Ford es nur schaffte Vorletzter zu werden."

Klaus Puls, EIKE; unter Verwendung von Texten aus die Kalte Sonne und der Animation von Bob Tisdale. SPON Info von Leser K.E. Fischer und Witz & Redaktion von M. Limburg

(1) Ulli Kulke schreibt dazu in seinem Blog Donner & Doria

Wenn das Met Office diesen Schnitt zumindest für die kommenden Jahre vollzieht, ist dies alles andere als unbedeutend. Jenes Wetterbüro, Teil des britischen Hadley-Klimaforschungszentrums, arbeitet auch sehr eng zusammen mit den Klimaforschern der Universität von East Anglia (UEA), an dem Phil Jones tätig ist. Der langjährige bedeutende Mitarbeiter des Weltklimarates war vor drei Jahren im Zuge des Climategate-Skandals, bei dem der interne Email-Verkehr der IPCC-Forscher ans Licht der Öffentlichkeit kam, besonders stark unter Feuer gekommen. Äußerst unfaires Verhalten eines sichtlich eingeschworenen Kreises gegenüber kritischen Wissenschaftlern wurde durch die Veröffentlichung publik, und man darf sich schon wundern, welche Persilscheine ihnen von Wissenschaftler-Kollegen damals im Nachhinein ausgestellt wurden. Phil Jones musste im Zusammenhang mit Climategate gegenüber der BBC unter anderem eingestehen, dass der derzeitige Verlauf der globalen Temperaturen durchaus Ebenbilder haben könnte im vergangenen Jahrtausend.

(2) Die Erhöhung des Jahres 2012 zum wärmsten Jahr seit der Aufzeichnung erfolgte erst nach massiver Absenkung der Temperaturwerte früherer Jahre in vielen Stationen der Erde, besonders aber in den USA, durch das GISS. Wir bringen demnächst eine umfassende Untersuchung darüber. Zudem hat die amerikanscihe Wetterbehörde NOAA zur Berechnung dieses Vergleichswertes auch Stationen einbezogen, die in den 30er Jahren noch gar nicht existierten.

Stimmen dazu aus Climate Depot 

2012 Didn’t Crack The Top Ten For Record Maximums: ‚NOAA has inflated 2012 record maximum number by adding new stations which didn’t exist during the hot years of 1930s“ — ‚That is a completely illegitimate approach. An apples to apples comparison uses only the same stations. When that is done, 2012 doesn’t even crack the ten hottest years‘

Feds caught altering past temperature data: NOAA claims 1998 was previous ‚hottest on record‘ on record — But in 1999, the same year was only the 5th warmest before ‚adjustments‘ — ‚In an article which NASA published in 1999, Hansen showed that 1998 was only the fifth warmest year, after 1934, 1921, 1931 and 1953. In fact, 1998 was 0.6C cooler than 1934‘ — ‚Over the past decade, NASA and NOAA have continuously altered the temperature record to cool the past and warm the present. Their claims are straight out Orwell’s 1984, and have nothing to do with science‘

Siehe auch ausländische Meldungen zum Thema

Klima-Nachrichten für das Tal der Ahnungslosen

The Daily Telegraph: Global warming at a standstill, new Met Office figures show

The Times: Global warming is over for five years, says Met Office

BBC News: Climate model forecast is revised

Public Service: ‘’Expect zero increase in global warming’’

Und hier die Originalquelle: Met Office forecasts no global warming rise 




Die Kosten menschlicher Energie

Bild rechts: Vom Menschen angetriebener Schredder von Aluminium-Dosen, Burning Man 2012.

Im Zusammenhang mit der Diskussion über die Energiekosten wurde ich zum Nachdenken über diese Zahl angeregt, eine Kilowattstunde Strom nach einem langen Zehn-Stunden-Arbeitstag. Einige Leute glauben, dass steigende Energiekosten zur Verringerung des CO2-Ausstoßes eine gute Sache seien. Ich sage, dass steigende Energiekosten, um den CO2-Ausstoß zu verringern oder aus irgendwelchen anderen Gründen einen gewissen Verlust in der Gegenwart bedeutet für einen sehr zweifelhaften zukünftigen Gewinn. Als solches ist das ein extrem schlechter Gedanke, weil:

Die Existenz elektrischen Stromes ist vielleicht die Sache, die als Symbol für die menschliche Entwicklung steht. Mit Strom erreichen wir Kühlung, um Arzneien und Nahrungsmittel haltbar zu machen, Licht zur Verlängerung des Tages, elektrische Wärme, Strom um Betreiben von Maschinen – die Liste geht weiter und immer weiter. Nun können wir, wie ich oben erwähnt habe, jemanden anheuern, um Strom für uns zu erzeugen, und zwar mit einer Rate von einer Kilowattstunde für jeden Zehn-Stunden-Arbeitstag. Dort, wo ich lebe, besteht der Wert dieses Tages aus Sklavenarbeit, diese tausend Watt-Stunden Energie kosten mich die fürstliche Summe von dreizehn US-Cent. Ich kann mir einen elektrischen Sklaventag Arbeit für dreizehn Cent kaufen.

Darum geht es mir gut. Anstatt Sklaven zu halten wie im alten Rom kann ich mir einen Tag konstanter Sklavenarbeit für dreizehn lumpige Cent kaufen. Das ist es, woraus Entwicklung besteht, der Verbrauch von Strom und anderen Formen billiger Energie zusätzlich zu und stellvertretend für menschliche Energie.

Jetzt folgt das nächste Teil dieses Puzzles. An den äußeren Rändern der Gesellschaft, wo Menschen von einem Dollar pro Tag oder weniger leben, ist Strom viel teurer als da, wo ich lebe. Auf den Solomon-Inseln, wo ich vor meiner Rückkehr in die USA im Jahre 2009 gelebt habe, kostet Strom in der Hauptstadt 52 Cent pro Kilowattstunde, und noch mehr auf den äußeren Inseln.

Jetzt wollen wir uns einmal die menschlichen Kosten von der Art von „Cap and Trade“ oder „Kohlenstoff-Steuer“ oder Übereinkommen im Kyoto-Protokoll Gedanken machen. Alle diese Versuche, das CO2 zu verringern, haben die gleiche Auswirkung. Aber die Schwere dieser Änderung müssen nicht Leute wie ich ausbaden. Oh, merken tue ich das schon. Aber jemand, der z. B. 26,00 Dollar pro Stunde verdient, kann sich 200 Sklavenarbeitstage mit einem Stundenlohn kaufen. (26 Dollar pro Stunde geteilt durch 13 Cent pro kWh). Zweihundert Tage, die jemand zehn Stunden pro Tag arbeitet, erzeugen Energie für mehr als sechs Monate jemandes konstanter Arbeit … und ich kann mir das mit dem Lohn einer Stunde kaufen.

Am anderen Ende der Skala stelle man sich jemanden vor, der einen Dollar pro Tag verdient, gewöhnlich ein Zehn-Stunden-Tag. Das sind etwa zehn Cent pro Stunde an einem Ort, an dem Strom gut und gern 52 Cent pro Kilowattstunde kostet. Energiekosten sind für sie auch heute noch eine gewaltige Bedrohung. Ich kann mir sechs Monate Sklavenarbeit für eine Stunde meiner Arbeit kaufen. Sie können sich dafür ein paar Sklavenstunden kaufen, nicht Tage oder Monate, sondern Stunden, Sklavenarbeit für jede Stunde, die sie arbeiten.

Und als Ergebnis ist eine Zunahme der Energiekosten, die für mich ziemlich gering ist, für die Armen riesengroß. Jede Art von Steuer auf Energie, oder allgemein jede Politik, die zu einer Erhöhung der Energiekosten führt, ist eine der rückschrittlichsten Steuern für die Menschen. Sie erdrückt jene am niedrigsten Ende der Skala, und das Schlimmste ist, es gibt am Grund keine Erleichterung. Sie wissen, wie das mit der Einkommenssteuer ist – wenn Sie unter einer bestimmten Grenze liegen, zahlen sie überhaupt keine Steuern. Wenn Sie unter der Schwelle liegen, sind Sie von der Einkommenssteuer ausgenommen.

Aber Erhöhungen der Energiepreise wie Kohlenstoffsteuern haben nicht einmal diesen Effekt. Sie treffen umso härter, je weiter man die ökonomische Leiter hinabsteigt, bis zum bitteren Ende. Am härtesten trifft es die Ärmsten der Armen.

Wenn also James Hansen darüber lamentiert, welche Welt seine armen Enkelkinder in fünfzig Jahren vorfinden werden, boo-boo, schüttele ich erstaunt den Kopf. Seine Politik hat doch schon jetzt zu etwas geführt, von dem ich in meiner Kindheit noch nie etwas gehört habe: „Energiearmut“. Sie entsteht, weil die unmenschliche pseudo-grüne Energiepolitik, befürwortet von Hansen und anderen, die Energiepreise derart in die Höhe getrieben hat, dass Leute, die zuvor nicht arm waren, jetzt ihre Wohnungen im Winter nicht mehr heizen können … in UK beispielsweise ist das bereits erschreckend weit verbreitet.

Mit anderen Worten, wenn Hansen mit verweinten Augen darauf kommt, was eventuell seinen armen Enkelkindern in 50 Jahren passieren könnte, konzentriert er sich so sehr auf die Zukunft, dass er die hässlichen heutigen Ergebnisse seiner Politik übersieht, darunter die Großeltern, die in ihren Häusern zittern, weil sie sich die Heizung nicht länger leisten können…

Vielleicht gibt es einige Menschen, die mit gewissen, aktuell präsenten und messbaren Nachteilen für ihre Großeltern handeln wollen, um eine Chance zu haben, einen möglichen, weit von Sicherheit entfernten Nachteil in ferner Zukunft für ihre Enkelkinder zu vermeiden.

Ich nicht.

Ich sage, sorgen wir dafür, dass es die alten Knacker hier und jetzt warm haben, denn was soll’s, sie waren gut zu uns, meistens jedenfalls; und lassen Sie uns der Welt billige Energie zur Verfügung stellen, um so Industrie und Landwirtschaft in die Lage zu versetzen, die Menschen zu kleiden und zu ernähren, und lassen Sie unsere Enkelkinder sich mit der verdammten Zukunft befassen. Das haben unsere Großeltern jedenfalls getan. Sie sind nicht herumgewuselt, um zu versuchen, die Probleme herauszufinden, denen wir heute gegenüber stehen. Sie kümmerten sich um die Probleme ihrer Tage.

Im Übrigen, dem IPCC zufolge werden jene Kerle in 50 Jahren viele Male reicher sein als wir heute. Warum also sollte ich mir um Hansens und meine wahrscheinlich wohlhabenden Enkelkinder Sorgen machen, wenn es doch schon heute wirklich so viele arme Kinder gibt? Meinen Enkelkindern wird es einfach gut gehen. Vielleicht haben sie sogar dann die fliegenden Autos, die mir versprochen worden waren, also sollen sie sich darum kümmern. Wir haben viele Probleme der heutigen Armen, um die wir uns kümmern müssen. Wollen wir uns darauf konzentrieren und es der Zukunft überlassen, sich um die Armen der Zukunft zu kümmern.

Die wirkliche Ironie ist, dass Leute wie Hansen von sich behaupten, im Namen der Armen zu agieren, wenn sie behaupten, dass die Auswirkungen der globalen Erwärmung die Ärmsten am härtesten treffen werden. Ich habe niemals herausgefunden, wie das geschehen soll. Ich sage das, weil die Auswirkungen der globalen Erwärmung vermeintlich am stärksten in außertropischen Gebieten zu spüren sein sollen, im Winter, des nachts. Ich habe große Schwierigkeiten zu glauben, dass manche obdachlosen Menschen, die im Dezember auf dem Bürgersteig in New York übernachten, die Tatsache verfluchen werden, dass die eisigen Winternächte einen Grad wärmer werden … also welche Armen wollen sie retten, und von was?

Willis Eschenbach

Link: http://wattsupwiththat.com/2013/01/02/the-cost-in-human-energy/

Übersetzt von Chris Frey EIKE