1

EIKE erhält Verbraucherschutz Award 2012

Der Award zeichnet Personen und Organisationen aus, die sich in vorbildlicher Weise für Belange von Wohnungseigentümern und Mietern eingesetzt haben.

Der EIKE e.V. ist ein Zusammenschluss einer wachsenden Zahl von Natur-, Geistes- und Wirtschaftswissenschaftlern, Ingenieuren, Publizisten und Politikern, die die Behauptung eines „menschgemachten Klimawandels“ als naturwissenschaftlich nicht begründbar gegenüber der Bevölkerung ansehen. EIKE lehnt folglich jegliche „Klimapolitik“ als einen Vorwand ab, Wirtschaft und Bevölkerung zu bevormunden und das Volk deshalb mit Abgaben zu belasten.

Der Preisträger hat zu diesem Zweck Informationslücken im Bereich Klima und Energie mit einer beispiellosen Systematik geschlossen, Meinungen und Gegenmeinungen aus aller Welt von Fachleuten regelmäßig jetzt Jahre hinweg kostenfrei für Interessierte zur Verfügung gestellt, öffentliche Konferenzen organisiert und sich  dabei stets bemüht, auch Wohnungsinhaber vor überzogenen Kosten und unwirtschaftlichen Ausgaben zu schützen.

Der Verein wurde im Februar 2007 gegründet und  finanziert sich aus freiwilligen Beiträgen seiner Mitglieder sowie Spenden. Er ist gemeinnützig tätig. Der Verein veröffentlicht seine Berichte, Informationen und Gutachten regelmäßig im Internet unter www.eike-klima-energie.eu

Themen der letzten Wochen zur Aufklärung waren u.a.:

Ÿ Ölvorräte für 200 Jahre in einer einzigen Schieferformation.

Ÿ Die sich zuspitzenden Krise der europäischen Klimapolitik.

Ÿ Club of Rome will Demokratie abschaffen. Panikmache mit Angst- u. Schreckensszenarien.

Ÿ Klimakonsenz? Nein, stattdessen 97% frisierte Statistiken!

Ÿ Sonderweg Deutschland. Minister wollen keine billige Energie zulassen!

Ÿ Solarstrom über Pfingsten, die teuerste Stromeinspeisung, die es je gab (56 Mill. € extra)!

Ÿ Textilfirmen verweigern Ökostrom-Umlage wegen Verfassungswidrigkeit.

Der Verbraucherschutzpreis wurde auf der „Internationalen Klimakonferenz“ am 15.6.2012 in Berlin übergeben.

Die Arbeit des EIKE e.V. wurde als vorbildlich gewürdigt.

15.6.2012  –  Norbert Deul – 1. Vorstand

                     Hausgeld-Vergleich e.V.

Allen Lesern herzlichen Dank für Ihre Glückwünsche und Anerkennung

Die Redaktion




Der längste, am höchsten aufgelöste, unbequemste Paläoklima-Datensatz, der nicht veröffentlicht worden ist

Bild rechts: Links ist die Temperatur in °C aufgetragen, unten die Jahre von 0 bis 2000.

Derartige Bilder verkaufen sich nicht gut. Mit einer deutlichen Mittelelterlichen Warmzeit und ohne Hockeyschläger gibt es keinen Alarm, und keine $$ fließen für „weitere Studien“. Im Zuge der Gergis et al retraction merkt Steve McIntyre an, dass einer der „aussortierten“ Datensätze rein zufällig gerade derjenige ist, der die höchste Auflösung und die längste Dauer der Aufzeichnung zeigt – der Datensatz Law Dome Oxygen 18 (aus der Antarktis). Er schreibt:

Eine jährliche Version über zwei Millenien wurde Gergis übergeben (der sie aussortierte). del D und O18 hängen eng zusammen, und vermutlich sieht die nicht archivierte del D-Reihe ähnlich aus.

Wer nicht weiß, was diese Daten zeigen, folgt hier ein kurzer Auszug aus Wikipedia.

==============================================================

Zyklen des Verhältnisses von Sauerstoffisotopen sind zyklische Variationen des Gehalts von Sauerstoff mit einem Atomgewicht von 18 im Verhältnis zu Sauerstoff mit dem Atomgewicht 16 in einigen Substanzen, zum Beispiel Polareis oder Kalkspat in Bohrkernen von Sedimenten am Grund der Ozeane. Das Verhältnis ist abhängig von der Wassertemperatur historischer Ozeane, die wiederum historische Klimaverhältnisse spiegelt. Zyklen in diesem Verhältnis spiegeln Klimaänderungen in der geologischen Vergangenheit.

Zusammenhang zwischen Temperatur und Klima

Das Verhältnis O18 zu O16 stellt eine Aufzeichnung der historischen Wassertemperatur dar. Eine Wassertemperatur um 10 bis 15 °C Grad kälter als heute repräsentiert Vereisung. Breitet sich das kältere Wasser in Richtung Äquator aus, regnet sich mit O18 angereicherter Wasserdampf in niedrigen Breiten ab. Der verbleibende Wasserdampf mit dem folglich höheren O16–Gehalt [2] kondensiert in höheren Breiten. Niederschlag und daher auch Gletschereis enthält Wasser mit einem geringen O18-Anteil. Da große Mengen von Wasser mit O16 als Gletschereis zurück gehalten werden, ist der O18-Gehalt im Ozeanwasser hoch. Eine Wassertemperatur um 5°C über den heutigen Werten repräsentiert eine Zwischeneiszeit, wenn der O18-Gehalt im Ozeanwasser geringer ist. Ein Plot historischer Wassertemperaturen mit der Zeit weist darauf hin, dass sich das Klima zyklisch geändert hat, und zwar mit langen Zyklen und harmonischen Wellen oder kürzeren Zyklen, die den langzeitlichen Zyklen überlagert sind. Diese Methode war besonders nützlich, um eiszeitliche Maxima und Minima im Pleistozän zu identifizieren.

============================================================

McIntyre fügt hinzu:

Reihen mit Sauerstoffisotopen sind das Rückgrat zur Bestimmung des Paläoklimas. Der anerkannte, 800 000 Jahre lange Vergleich von CO2-Gehalt und Temperatur benutzt die O18 –Werte aus Wostok (Antarktis), um die Temperatur abzuschätzen. Für lange zurück liegende Zeiträume sind die O18 –Werte eine echte Erfolgsgeschichte: sie zeigen eindeutig Änderungen vom LGM zum Holozän, die mit Gletschermoränen zusammenhängen.

Die Law Dome-Aufzeichnung, die von Gergis und Karoly aussortiert worden war, ist eine außerordentlich wichtige Darstellung, weil sie meines Wissens nach die bisher längste Holozän-Reihe ist mit einer Auflösung, die fast 10 mal größer ist als die anerkannte Wostok-Aufzeichnung (Die Akkumulation hängt direkt mit der Auflösung zusammen: hohe Akkumulation ermöglicht hohe Auflösung). Die Graphik unten vergleicht die Gletscherdicke einiger prominenter Stellen in drei Zeiträumen: 1500 bis 2000, 1000 bis 1500 und 0 bis 1000. Die Auflösung während der letzten zwei Millenien ist fast doppelt so hoch wie die Auflösung der Bohrkerne GRIP und NGRIP aus Grönland, die Gegen­stand intensiver Forschung und Veröffentlichung waren.

Wegen der hohen Zuverlässigkeit der O18–Reihe in frühen Zeiten könnte man denken, dass die Paläoklimatologen extrem interessiert an einer Veröffentlichung der Law Dome O18–Daten interessiert sind und an dieser Stelle Druck auf Tas van Ommen ausüben.

Aber trotz dieser offensichtlichen Gelegenheit, die Law Dome bietet, gab es praktisch keine fachliche Veröffentlichung einer hoch aufgelösten O18- oder delD-Isotopen-Reihe.

Eine Klimagate-E-Mail zeigt, dass Phil Jones wegen des Weglassens der Law Dome Reihe im ersten Entwurf des AR4 nachgefragt hat. Ich stellte die gleiche Frage zum zweiten Entwurf des AR4. Sie erkannten, dass die Law Dome-Graphik eine deutliche Mittelalterliche Periode zeigt und folglich „die Botschaft verwässern“ und vielleicht den „Skeptikern Futter reichen“ würde, wenn man sie in die Graphik integrieren würde.

Der gesamte Bericht bei Climate Audit steht hier.

Das Team versucht weiterhin, dieses Zeug zu vergraben, und Climate Audit gräbt es weiterhin wieder aus:

Anthony Watts

Link: http://wattsupwiththat.com/2012/06/12/the-longest-most-high-resolution-most-inconvenient-paleoclimate-data-that-hasnt-been-published/

Übersetzt von Chris Frey EIKE




NASA Top-Klima-Forscher: James Hansen – Prognosen von 1988! Ein Vergleich!

–A : Zunahme der CO2-Emissionen um 1.5% pro Jahr


–B: Konstante Zunahme der CO2-Emissionen nach dem Jahr 2000


–C: Keine Zunahme der CO2-Emissions nach dem Jahr 2000

Die CO2-Emissionen sind seit dem Jahr 2000 um jährlich etwa 2,5 Prozent angestiegen, so dass wir gemäß dem Hansen-Paper einen Temperaturanstieg erwarten würden, der stärker als in Modell A ausfallen sollte. In Abbildung 1 sind die drei Hansen-Szenarien sowie die real gemessene globalen Temperaturkurve dargestellt. Der über Szenario A hinausragende Pfeil stellt den Temperaturwert dar, den das Hansen-Team auf Basis einer CO2-Erhöhung um 2,5% vorhergesagt hätte. Laut der Hansen-Prognose müsste die Temperatur gegenüber dem Vergleichsniveau in den 1970er Jahren um 1,5°C angestiegen sein. In Wahrheit hat sich die Temperatur jedoch lediglich um 0,6°C erhöht. 

Es ist ersichtlich, dass die von der Hansen-Gruppe 1988 modellierte Temperaturvorhersage um etwa 150% danebenliegt. Es ist überaus bedauerlich, dass genau diese Art von Modellierungen von unseren Politikern noch immer als verlässliche Klimavorhersage angesehen wird.

 
 

Abbildung 1: Temperaturprognose der Hansen-Gruppe aus dem Jahr 1988. Die verschiedenen Szenarien gehen von 1,5% CO2-Zunahme (blau), konstanter Zunahme der CO2-Emissionen (grün) und stagnierenden CO2-Emissionen (rot) aus. In der Realität stiegen die CO2-Emissionen um sogar 2,5% an, was einem Szenario oberhalb der blauen Kurve entsprechen würde. Die schwarze Kurve gibt die letztendlich real gemessen Temperatur an (gleitendes 5-Jahresmittel). Die Hansen-Modellierung überschätzt die Temperatur um 1,9°C und liegt damit um satte 150% daneben. Abbildung ergänzt nach Hansen et al. (1988).

———————————————————————————————————————–

English original version of the article:

James Hansen´s predictions versus observations

One of the most important papers in the history of the climate alarm is published by J. Hansen and collaborators in Journal of Geophysical Research (1988). The title is ”Global Climate Changes as Forecast by Goddard Institute for Space Studies”.

In this paper they present the GISS model II to simulate the global climate effects of time-dependent  variations of atmospheric trace gases and aerosols.  They demonstrate the effect of 3 scenarios:

–          A : Increase of 1.5% CO2 emissions per year

–          B: Approximate constant increase of CO2 emissions after 2000

–          C: No increase in CO2 emissions after the year 2000 

The CO2 emissions have since 2000 increased with 2.5%, which means that we should expect a more drastic temperature increase than in model A.   In the figure three scenarios are shown together with the observed  global temperature curve – all shown as 5 year running mean.  

The arrow above scenario A is what they may have predicted with a 2.5 % CO2 increase which is observed, instead of the 1.5% in scenario A. However, the observed temperature increase is about 0.6C, while the predicted increase is about 1.5C. 

We must conclude that the simulations of 1988 have failed 150%. The sorry state of affairs is that these simulations  are believed to be a true forecast by our politicians. 

Jan-Erik Solheim                                                      Oslo, Norway, June 10, 2012
Professor(emeritus)

zuerst veröffentlicht bei "Die kalte Sonne"




Über den Wahnsinn und die Gefahren des Europäischen Systems zur Kontrolle von Kohlenstoffemissionen

Während sich die selbst auferlegte Sparsamkeit in den europäischen Lebensstandard frisst und bei den Wahlen Revolten auslöst, ist „Wachstum“ zum Mantra der Politiker geworden. Aber um wettbewerbsfähig zu sein, benötigt Europa eine sichere, ausreichende Energieversorgung zu wettbewerbsfähigen Preisen. So lange Europa seine Besessenheit hinsichtlich der Kohlendioxid-Emissionen sowie die daraus sich ergebende Politik hin zu anti-fossilen Energieträgern nicht radikal überdenkt, wird Wachstum höchstwahrscheinlich flüchtig bleiben.

Die Gesetze der Europäischen Union legen fest, dass die 27 Mitgliedstaaten ihre CO2-Emissionen bis 2020 im Mittel um 20% kürzen müssen, verglichen mit dem Niveau von 1990. Das weitere Ziel ist eine Reduktion zwischen 80 und 95% bis zum Jahr 2050. Im Mai 2010 schätzte eine Studie des Energiekommissariats der EU, dass sich die Kosten für die Reduktion um 20% auf 48 Milliarden Euro pro Jahr belaufen würden. Der Entwurf der Energie-Roadmap dieses Kommissariats spricht Klartext: „Es gibt einen Zielkonflikt zwischen der Politik zur Klimaänderung und der Wettbewerbsfähigkeit.“

Den gibt es in der Tat. Das Beratungsbüro Verso Economics hat die Alternativkosten des Subventionssystems in UK für die Erneuerbaren berechnet und kam zu dem Ergebnis von 10 000 Arbeitsplätzen nur zwischen 2009 und 2010. Ein Bericht der Energy Intensive Users Group (EIUG, welche die energieintensiven britischen Industrien repräsentiert) und des Trades Union Congress nannte die Stahl- und Papierindustrie, Keramik, Zement, Klebstoff, Aluminium und basische anorganische Chemikalien, auf die bis zum Jahr 2020 bis zu 140% zusätzliche Kosten zukommen dürften, und zwar als Folge der Maßnahmen zur Reduktion von CO2-Emissionen. Der Direktor der EIUG, Jeremy Nicholson merkt an, dass „die gegenwärtige Politik anscheinend darauf abzielt, einen Markt für Wettbewerber aus Übersee zu kreieren.“

Die emissionsfreie Solar- und Windenergie, auf die sich UK seinen Plänen zufolge immer mehr verlassen will, sind teuer. Die Regierung schätzt, dass ein geplanter Offshore-Windpark 140 Milliarden Pfund [ca. 164 Mrd. Euro] oder 5600 Pfund [ca. knapp 7000 Euro] für jeden einzelnen Haushalt kosten würde. Konventionelle Energie könnte die gleiche Menge an Energie zu einem Preis bieten, der nur 5% davon ausmacht.

Das Department of Energy and Climate Change in UK hat einen Bericht in Auftrag gegeben (unter Leitung von Prof. John Hills von der London School of Economics), das Thema „Energiearmut“ zu untersuchen, die definitionsgemäß vorliegt, wenn mehr als 10% das Haushaltseinkommens für Energie aufgewendet werden muss. Es wurden vier Millionen von Englands 21,5 Millionen Haushalten gefunden, die in diese Kategorie fallen, und diese Zahl könnte sich noch auf 9,2 Millionen bis zum Jahr 2016 erhöhen (43% aller Haushalte in England). Einige der Schlüsselfaktoren sind grüne Steuern und Abgaben, die die Rechnungen bis zum Jahr 2020 um 200 Pfund [ca. 240 Euro] erhöhen dürften.

Die spanischen Erfahrungen mit der Subventionierung der Erneuerbaren waren schmerzhaft. Eine Studie der Universidad Rey Juan Carlos kam im Jahr 2009 zu dem Ergebnis, dass die Subventionen 3,45% der Steuerlast aller spanischen Haushalte ausmachten und zu einem Verlust von 110 500 Arbeitsplätzen führten. Eine interne Untersuchung der Regierung Zapatero war genauso düster. Darin wurde festgestellt, dass der Strompreis die Wettbewerbsfähigkeit der spanischen Industrie bestimmt, und der Preis war auf 17% über den europäischen Mittelwert gestiegen. Hauptgrund: die Subventionen der Regierung für Erneuerbare, die zwischen 2004 und 2010 um das Fünffache gestiegen sind.

Während die Solar-Investitionsblase in Spanien inzwischen geplatzt ist, fahren andere mit schlecht durchdachten Plänen fort. Dänemark hat jetzt schon die höchsten Energiepreise in Europa. Und doch hat die kürzlich gewählte dänische Regierung ihr Ziel zur CO2-Reduktion auf 40% bis zum Jahr 2020 angehoben und sich das weitere Ziel gesetzt, bis zum Jahr 2050 ganz von fossilen Energieträgern loszukommen.

Das Subventionssystem in Italien hat das Preisniveau für Windenergie um das Dreifache über das Marktniveau gehoben. Eine Studie des italienischen Instituto Bruno Leoni fand heraus, dass das Kapital zur Schaffung eines grünen Arbeitsplatzes ausgereicht hätte, um 6,9 Arbeitsplätze in der Industrie zu schaffen.

Selbst Deutschland, Europas gesündeste Wirtschaft, könnte vor einigen rüden Überraschungen stehen. Das Erneuerbare-Energien-Gesetz aus dem Jahr 2000 verlangt von allen Stromversorgern die Einspeisung von Erneuerbaren zu festgesetzten, exorbitanten Preisen, die für 20 Jahre garantiert sind. Eine deutsche Versorgungsinstitution hat festgestellt, dass die [Erzeugung von] Sonnenenergie in Deutschland etwa so sinnvoll ist wie der Anbau von Ananas in Grönland. Trotzdem verfügt Deutschland inzwischen über die Hälfte der weltweiten Photovoltaik-Kapazität.

Fritz Vahrenholt, der scheidende Leiter der Abteilung Erneuerbare Energie bei RWE Innogy und ein früherer Held der deutschen Umweltbewegung, sagt jetzt: „Wir zerstören die Grundlagen unseres Wohlstands. Wir stellen die Autoindustrie in Deutschland zur Disposition, die Stahl-, Kupfer-, Silikon- und chemische Industrie, was immer Sie wollen!“

In Frankreich gibt es wegen des großen Anteils der Kernkraft keine Emissionsprobleme. Aber der neue Präsident Francois Hollande hat versprochen, die Kernkraft um ein Drittel zu kürzen. Seine geschlagene sozialistische Rivalin Maxine Aubry hat versprochen, die Kernkraft insgesamt abzuschalten.

Ist die Energiequelle billig und reichlich vorhanden – und noch dazu mit geringem CO2-Ausstoß – möchte der größte Teil Europas davon nichts haben. Obwohl es in Europa riesige Schiefergas-Vorkommen gibt, hat Deutschland zur Ausbeutung von Schiefergas ein Moratorium verfügt, was in Frankreich bereits per Gesetz verboten ist.

Täglich gibt es immer mehr Beweise dafür, dass die vom Menschen verursachte globale Erwärmung eine verlogene Apokalypse ist, aber seine Auswirkung hinsichtlich der Beeinträchtigung des Lebensstandards ist nur zu real.

N. N.

Link: http://www.icecap.us/ vom 7. Juni, Spalte 1 „What’s New & Cool“

Übersetzt von Chris Frey EIKE




Kommentare zu den Änderungen der NOAA am Oceanic NINO Index ONI

(Einschub von Anthony Watts: Die folgende Abbildung zeigt die ONI-Werte im Vergleich zur Temperatur (Aqua Channel 5) von lukewarmplanet (nicht Tisdale). Damit soll illustriert werden, worüber Tisdale in seinem neuen Buch redet.

Darstellung der Anomalie zusammen mit dem „ONI“. In diesem Bild läuft der ONI den Channel 5-Daten um drei Monate voraus.

Ende Einschub)

Gerade bin ich mit der Besprechung der jüngsten Änderungen der NOAA an ihrem Oceanic NINO Index, auch als ONI bekannt, fertig geworden, und zwar im Kapitel über die ENSO-Indizes. Ich glaube, dass Sie das interessant finden. (Ich habe für die Abbildungen die Nummerierung so übernommen, wie sie gegenwärtig im Entwurf des Buches existieren).

Das Climate Prediction Center (CPC) der NOAA hat vor Kurzem ihren Oceanic NINO Index (ONI) modifiziert. Schauen sie auf die Website Description of Changes to Oceanic NINO Index, um dies vollständig zu sehen. Im ersten Abschnitt heißt es dort:

„Infolge eines signifikanten Erwärmungstrends in der Niño-3.4-Region seit 1950 zeigen El Niño und La Niña-Perioden, definiert durch einen einzelnen festen Zeitraum auf Basis von 30 Jahren (z. B. 1971 bis 2000) zunehmend auch längerzeitliche Trends, die nicht die ENSO-Variabilität von Jahr zu Jahr abbilden. Um diesen Erwärmungstrend zu entfernen, übernimmt CPC eine neue Strategie, um diese Basisperiode zu aktualisieren.“

NOAA ordnet den „signifikanten Erwärmungstrend” nicht anthropogenen Treibhausgasen zu, aber jedes Mal, wenn diese Phrase auftaucht, assoziieren viele Menschen das mit der vom Menschen verursachten Erwärmung. Unglücklicherweise ist das, was die NOAA tatsächlich mit ihren Änderungen gemacht hat, den Einfluss der Pazifischen Klimaverschiebung (Pacific Climate Shift) im Jahre 1976 auf die Wassertemperatur-Anomalien von NINO 3.4 zu minimieren.

Ich kann nicht verstehen, warum sie das tun, ist doch die Klimaverschiebung von 1976 Thema zahlreicher wissenschaftlicher Studien. Bei Google finden sich 176 Antworten zu “1976 climate shift”. Es ist ein akzeptiertes, gut dokumentiertes Phänomen.

Der Oceanic NINO Index basiert auf dem Datensatz NOAA ERSST.v3b der Wassertemperatur. Ups, das ist der Datensatz, den die NOAA 2008 mit Bias-korrigierten Satellitendaten eingeführt und danach rasch modifiziert und die satellitengestützten Daten entfernt hat,  als „User“ bei der NOAA entdeckt hatten, dass die Satellitendaten im Jahr 1998 eine um ein paar Hundertstel höhere Wassertemperatur gezeigt haben als im Jahr 2003. Siehe hierzu auch die Besprechung der Abbildung 2-23 in Kapitel 2.

Abbildung 4-21 illustriert die auf ERSST.v3b basierenden NINO 3,4-Anomalien der Wassertemperatur, auf denen der Oceanic NINO Index fußt. Die Daten zeigen in der Tat einen leicht positiven Trend von etwas weniger als 0,06°C pro Dekade. Man beachte, dass ich das Jahr 1976 hervor gehoben habe, um die Klimaverschiebung zu verdeutlichen.

Schauen wir uns also die Daten vor und nach der Klimaverschiebung an.

Die auf ERSST.v3b basierenden mittleren Anomalien der Wassertemperatur für das NINO 3.4-Gebiet von Januar 1950 bis Dezember 1975 sowie von Januar 1977 bis Mai 2012 zeigt Abbildung 4-22. Die mittleren Anomalien der Wassertemperatur nach der Klimaverschiebung von 1976 lagen danach um 0,3°C höher als davor. Übrigens zeigte sich diese Verschiebung im gesamten östlichen Pazifischen Ozean, nicht nur im östlichen äquatorialen Pazifik.

Und natürlich sind die linearen Trends vor und nach der Verschiebung negativ (Abbildung 4-23), und das impliziert, dass die Klimaverschiebung zu einem großen Teil verantwortlich ist für den insgesamt positiven linearen Trend von 1950 bis heute.

Um den teilweise von der Klimaverschiebung 1976 verursachten „signifikanten Erwärmungstrend” in den Wassertemperaturen der NINO 3,4-Region zu „entfernen“, benutzt die NOAA nicht länger einen einzelnen Datensatz (1971 bis 2000) für die Anomalien in ihrem Oceanic NINO Index. Sie benutzen jetzt eine Reihe von sich verändernden Basisjahren. Sie erklären:

„Die ONI-Werte von 1950 bis 1955 werden mit der Periode 1936 bis 1965 verglichen, die ONI-Werte von 1956 bis 1960 mit der Periode 1941 bis 1970, und so weiter und so fort.“

Das Ergebnis: Die NOAA hat den positiven Trend in etwas eliminiert, das ursprünglich die Anomalien der Wassertemperatur in der NINO 3.4-Region waren. Man kann sie mit den sich verändernden Basisperioden nicht einmal mehr Anomalien der Wassertemperatur nennen. Aber für jetzt wollen wir einmal so tun, als seien es Anomalien.

Mit diesen Änderungen hat die NOAA die Differenz der Periodenmittel der Wassertemperatur-„Anomalien“ vor und nach der Verschiebung 1976 minimiert. Basierend auf den „Rohdaten“ von ERSST.v3b führte die Klimaverschiebung zu einer Verschiebung der NINO 3.4-Wassertemperatur-Anomalien um 0,3°C, aber die „Korrekturen“ ließen diesen Anstieg auf etwa 0,04°C zurückgehen, wie Abbildung 2-25 zeigt.

Und die Änderungen bei der Methode, mit der die NOAA die Wassertemperatur-“Anomalien” für den Oceanic NINO Index berechnet, führten zu noch stärkeren negativen Trends vor und nach der Klimaverschiebung. Siehe Abbildung 4-26.

Ich werde nicht darüber spekulieren, warum die NOAA den Effekt der pazifischen Klimaverschiebung von 1976 minimieren wollte. Die angeführten Gründe für diese Änderungen erscheinen im besten Falle merkwürdig. Man überlege sich Folgendes: Es gibt wissenschaftliche Studien, in denen die Autoren die linearen Auswirkungen von ENSO auf die globale Temperatur entfernt haben, indem sie einfach einen ENSO-Index skaliert und von den globalen Temperaturen subtrahiert haben. Die Autoren behaupten dann fälschlicherweise, dass der verbleibende Trend der globalen Temperaturen das Ergebnis anthropogener globaler Erwärmung sei. Diese unsachgemäße Methode, die Auswirkungen von ENSO auf die globalen Temperaturen zu berechnen, wird in Abschnitt 6 noch näher beleuchtet. Weil die NOAA den ONI-Trend geglättet hat – falls jemand diesen Trend aus einer dieser irreführenden wissenschaftlichen Studien verwenden würde, wäre der verbleibende Trend der globalen Temperatur ein wenig höher als wenn man einen auf der Wassertemperatur basierenden ENSO-Index genommen hätte.

Zusammenfassend: Weil der ONI nicht mehr die Anomalien der Wassertemperatur im Vergleich zu einer einzelnen Basisperiode repräsentiert und weil die NOAA die Auswirkung der pazifischen Klimaverschiebung 1976 minimiert hat und weil diese Klimaverschiebung in allen Datensätzen der Wassertemperatur zum Ausdruck kommt, würde ich persönlich den ONI-Index nicht als einen ENSO-Index ansehen. Andererseits glaube ich auch nicht, dass es die NOAA in irgendeiner Weise interessiert, ob ich deren ONI-Index verwende.

Bob Tisdale

Bemerkung: Anthony Watts hat diesem von ihm geposteten Beitrag eine eigene Überschrift verpasst, die man etwa so übersetzen kann: Noch mehr Datenmanipulationen – diesmal in den ENSO-Daten der NOAA.

Link: http://wattsupwiththat.com/2012/06/05/more-data-fiddling-this-time-in-noaas-enso-data/

Übersetzt von Chris Frey EIKE




Wenn doch der Wind nur immer blasen würde

Das gilt jedoch nicht für das Intergovernmental Panel on Climate Change, also für die Leute, die uns den Schwindel um die globale Erwärmung eingebrockt haben, und zwar mit der Hypothese, dass Kohlendioxid, ein Gas, von dem alles Leben abhängt, die globale Temperatur steigen ließe – hauptsächlich wegen des Verbrennens von Kohle und Öl als Energiequellen.

Die Erde befindet sich jedoch seit 1998 in einem natürlichen Zyklus der Abkühlung, und die Befürworter „grüner Energie“ sind im Straucheln, in einer Todesspirale von ungeeigneter Möglichkeiten, Strom zu liefern und der Unfähigkeit, mit verlässlicheren, bezahlbaren und traditionellen Energiequellen mitzuhalten.

Um es klar zu sagen, Wind- und Solarenergie sind Träume von Narren und müssen fortwährend durch traditionelle Energiequellen gestützt werden, falls der Wind einmal nicht wehen sollte oder des nachts oder wenn die Sonne von Wolken verhüllt ist. Dann wird kaum Strom erzeugt. Nur ein Idiot kann es sich wünschen, eine verlässliche Energiequelle allein von Sonne und Wind abhängig zu machen.

Der Renewable Energy Industrial Index (RENIXX) spiegelt den Börsenwert von Wind- und Solarfirmen. Im Mai verkündete er (was Sie in dem Main Stream Medien bestimmt nicht gelesen haben), dass dreißig der größten Erzeuger erneuerbarer Energie auf einem „all-time low“ handeln und dass der Index „seit 2008 über 90% seines Wertes verloren hat“.

Natürlich brannte der Sierra Club darauf, mir über den Global Wind Day zu erzählen, und dass mein Heimatstaat New Jersey das „Potential habe, alle schmutzigen Kohle- und Gaskraftwerke im Staat zu ersetzen“. Der Abstand zwischen „Potential“ und Realität entspricht in etwa der Distanz zwischen New Jersey und dem Planeten Neptun.

Der Sierra Club (zusammen mit einer Schurkengalerie von Umweltorganisationen) führen Krieg gegen alle Formen von Energieerzeugung und –verbrauch. Sie drängten mich, „auf einem Strand in meiner Nähe an einer Drachenflug-Aktion und einer Feier zum Offshore-Windpotential von New Jersey“ teilzunehmen. Nicht nur, dass dies gegen den Verbrauch der riesigen Kohlevorkommen in Amerika gerichtet ist, sondern sie haben auch ein Programm mit der Bezeichnung „Beyond Natural Gas“ in der Hinterhand; eine andere große Energiequelle für die Nation.

Ich werde Sie nicht mit einer Liste von RENIXX-Firmen langweilen, die sich bankrott gemeldet haben, aber darunter sind die schlecht beleumdete Firma Solyndra sowie Beacon Power, Ener1 und andere, in die die Obama-Administration Milliarden von Steuergeldern „investiert“ und verloren hat. Dieses Geld hätte man auch für die Ausbesserung von Autobahnen und Brücken oder zur Wiederherstellung unserer schwächelnden militärischen Kraft ausgeben können. Weitere vierzehn Firmen werden „als am Rande des Bankrotts stehend“ gelistet.

Im Mai 2011 hat New Jersey’s Gouverneur Chris Christie den Staat aus der Mitgliedschaft in der Regional Greenhouse Gas Initiative (RGGI) herausgezogen, dem einzigen rechtsverbindlichen Programm zum Zertifikatehandel in den USA. Die RGGI hätte von New Jersey verlangt, seine Treibhausgasemissionen zu reduzieren (das für die Pflanzen überlebenswichtige Kohlendioxid). [Die US-Bundesstaaten] Maine und New Hampshire haben sich schon zuvor aus der früheren Koalition von 10 Staaten zurückgezogen, die ihre Kapazität zur Stromerzeugung  reduziert hätte.

Im Zuge dieser Maßnahme hat Gouverneur Christie 65 Millionen Dollar aus der RGGI abgezweigt und zum Ausgleich des Staatshaushaltes verwendet.

Es ist erwähnenswert, dass New Jersey 50% seines Stromes aus der Kernkraft erzeugt. Aus mir unverständlichen Gründen hat sich Gouverneur Christie einem Projekt angeschlossen, ein Netz von 96 Windturbinen 16 bis 20 Meilen vor unserer Küste zu errichten. Falls die Genehmigungsprozedur gestoppt werden könnte, würde die Küste New Jerseys nicht mit diesem scheußlichen Projekt und den erforderlichen Kabelkilometern verschandelt, die nötig sind, die paar Megawatt dieses „Potentials“ auf das Festland zu transportieren.

In Europa, führend bei der Gründung von Projekten zur Wind- und Sonnenstromerzeugung als Folge seiner Besessenheit mit Kohlendioxid-Emissionen, hat man inzwischen entdeckt, dass keine der beiden mit fossilen Treibstoffen oder der Kernkraft mithalten kann. Frankreich ist die Ausnahme, stammt doch die Energie dort zum größten Teil aus Kernkraftwerken. In England leiden die Bürger zunehmend unter der „Energiearmut“, da die Stromrechnung dank der Verfolgung von Wind- und Solarprojekten unvermindert in die Höhe schießt.

Der europäische Kontinent durchläuft wegen des Scheiterns, 27 souveräne Mitgliedsnationen zu gemeinsamem Handeln zu bringen, nicht nur eine finanzielle Krise, sondern steht auch vor einem Energiemangel zur Versorgung der industriellen Basis und dem Bedarf der Bevölkerung.

Also, gehen Sie am Global Wind Day ruhig zum Strand, aber erinnern Sie sich daran, dass es sich dabei um einen außerordentlich schlechten Weg handelt, Energie zu erzeugen.

Zweifellos wird das auch beim Rio+20-Gipfel im Juni auf der Agenda stehen, der sich selbst die Bezeichnung ‚der institutionelle Rahmen für nachhaltige Entwicklung; ein System globaler Steuerung’ verpasst hat, der darauf abzielt, den IPCC-Plan zu erreichen, die „Sozial-, Umwelt- und Wirtschaftspolitik“ der Welt zu kontrollieren.

Und Sie haben immer gedacht, bei Wind- und Solarenergie geht es nur um Strom.

© Alan Caruba, 2012

Link: http://www.nationalanxietycenter.blogspot.de/2012/06/only-if-wind-is-blowing.html

Übersetzt von Chris Frey EIKE




Der Witz des Jahres: PIK Meldung-Erheblicher Anstieg des Meeresspiegels in einer Welt mit zwei Grad Erwärmung

Weiter heißt es im verblüffend echt aufgemachten satirischen Text:

"Erstmals bietet diese Studie damit eine umfassende Projektion für einen derart langen Zeitraum. Sie stützt sich dabei auf den tatsächlich beobachteten Meeresspiegelanstieg im vergangenen Jahrtausend sowie auf Szenarien für künftige Treibhausgasemissionen.

„Der Anstieg des Meeresspiegels ist ein schwer bezifferbares, aber zugleich wichtiges Risiko des Klimawandels“, sagt der Leitautor der Studie, Michiel Schaeffer von Climate Analytics und der Universität Wageningen. „Weil die Eis- und Wassermassen der Welt sehr langsam auf die globale Erwärmung reagieren, bestimmen unsere Emissionen heute den Meeresspiegel für die künftigen Jahrhunderte.“

Würde die Erderwärmung begrenzt, könnte das den Meeresspiegelanstieg reduzieren
Während die Ergebnisse darauf schließen lassen, dass die Welt selbst bei einem vergleichsweise geringen Maß globaler Erwärmung mit einem deutlichen Meeresspiegelanstieg rechnen muss, verdeutlicht die Studie auch die Wirkung einer Reduktion von Treibhausgasemissionen. Eine Begrenzung der globalen Erwärmung auf unter 1,5 Grad Celsius und daran anschließende Temperaturreduktionen könnten den Meeresspiegelanstieg im Vergleich zu einem Zwei-Grad-Szenario bis 2300 halbieren. Stiegen die Temperaturen jedoch um drei Grad, so wäre laut der Studie mit einem Meeresspiegelanstieg um zwei bis fünf Meter zu rechnen, mit einem besten Schätzwert von 3,5 Metern.
Die möglichen Folgen sind erheblich. „Für New York City zum Beispiel wurde gezeigt, dass ein Anstieg des Meeresspiegels um einen Meter die Häufigkeit schwerer Überflutungen von einmal pro Jahrhundert auf einmal alle drei Jahre steigern könnte“, sagt Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung (PIK), Ko-Autor der Studie. Auch niedrig liegende Länder und Regionen mit ausgedehnten Flussdeltas wie in Bangladesh sowie kleine Inselstaaten wären wahrscheinlich erheblich betroffen.
Die Geschwindigkeit des Meeresspiegelanstiegs bestimmt die Zeit für Anpassung
Die Wissenschaftler haben auch die Geschwindigkeit des Meeresspiegelanstiegs berechnet. Je wärmer das Klima wird, desto schneller steigt auch der Meeresspiegel. „Die Menschen an den Küsten haben weniger Zeit sich anzupassen, wenn der Meeresspiegel schneller ansteigt“, sagt Rahmstorf.
„In unseren Projektionen bringt eine konstante Zwei-Grad-Erwärmung eine Geschwindigkeit des Meeresspiegelanstiegs mit sich, die zweimal höher liegt als heute, und das bis über das Jahr 2300 hinaus“, ergänzt Schaeffer. „Wesentlich stärkere Emissionsreduktionen scheinen jedoch eine starke Verlangsamung oder sogar Stabilisierung des Meeresspiegels über diese lange Zeitspanne zu erreichen.“
Daten aus der Vergangenheit als Basis
Bisherige Projektionen zum Meeresspiegelanstieg über mehrere Jahrhunderte, die vom Intergovernmental Panel on Climate Change (IPCC) aufgegriffen wurden, berücksichtigten nur den Anstieg durch die thermische Ausdehnung des Meerwassers. Diese könnte laut IPCC bis zum Jahr 2300 bis zu einen Meter erreichen. Diese Schätzungen bezogen den vermutlich größeren Anstieg aufgrund schmelzender Eismassen jedoch nicht ein. Die Forschung dazu ist in den letzten paar Jahren deutlich voran gekommen. Die neue Studie verwendet einen so genannten semi-empirischen Ansatz, der auf dem Zusammenhang zwischen beobachteter Temperatur und Meeresspiegel während der vergangenen Jahrhunderte basiert, um daraus Schätzungen für einen Meeresspiegelanstieg in Szenarien künftiger globaler Erwärmung abzuleiten und zu berechnen.
„Natürlich bleibt offen, inwieweit der für die Vergangenheit festgestellte enge Zusammenhang zwischen der globalen Temperatur und dem Meeresspiegelanstieg sich auch in Zukunft fortsetzt“, sagt Rahmstorf. „Trotz der Unsicherheit, die wir im Hinblick auf den künftigen Meeresspiegel weiterhin haben, bietet unser Ansatz für eine Risiko-Analyse zumindest plausible und relevante Schätzungen.“
Artikel: Schaeffer, M., Hare, W., Rahmstorf, S., Vermeer, M. (2012): Long-term sea-level rise implied by 1.5°C and 2°C warming levels. Nature Climate Change [10.1038/NCLIMATE158]  (Advance Online Publication)
Weblink zum Artikel, sobald er am 24.06. freigeschaltet wird: http://dx.doi.org/10.1038/NCLIMATE158  

Kontakt für weitere Informationen: Potsdam-Institut für Klimafolgenforschung, Pressestelle Telefon: +49 (0)331 288 2507; E-Mail: presse@pik-potsdam.de

Nachtrag der Redaktion vom 22.6.12

Für diese und andere Errungenschaften seines Institutes erhält der Gründer und Leiter des PIK Prof. Dr. H.J. Schellnhuber die Ehrendoktorwürde der TU Berlin. Die Welt meldet: TU-Ehrendoktorwürde für Klimaforscher Schellnhuber. Ob diese Verleihung Bedingung für die Erlangung der Exzellenzinitiative war wissen wir nicht.

Berlin – Für seine Verdienste bei der Erforschung des Weltklimas erhält der Physiker Hans Joachim Schellnhuber (62) die Ehrendoktorwürde. Die Technische Universität Berlin verleiht sie ihm am nächsten Mittwoch, wie es in einer Mitteilung vom Donnerstag heißt. Schellnhuber gründete 1991 das Potsdam-Institut für Klimafolgenforschung und leitet es seit 1993. Er ist auch Professor für Theoretische Physik an der Universität Potsdam. Geehrt wird der in Bayern geborene Klimaforscher auch für seine Politikberatung.




Das US National Climatic Data Center NCDC wurde bei der künstlichen Abkühlung der Vergangenheit ertappt,…

Diesmal stammt die Bestätigung aus einer recht ungewöhnlichen Quelle, nämlich von Dr. Jeff Masters von Weather Underground über seinen Mitarbeiter Christopher C. Burt. Ein Auszug daraus folgt hier:

Inkonsistenzen in der historischen NCDC-Temperaturanalyse

Jeff Masters und ich haben vor Kurzem eine interessante E-Mail von Ken Towe erhalten, der sich mit den historischen NCDC-Datensätzen der Temperatur befasst hatte und dabei auf einige verblüffende Inkonsistenzen gestoßen war. Vor allem war ihm aufgefallen, dass die Temperaturaufzeichnungen im Mittel der Staaten, die in der derzeitigen Trendanalyse vom NCDC benutzt werden, nicht mit den aktuellen veröffentlichten Aufzeichnungen übereinstimmen, wie sie in Monthly Weather Review und den Climatological Data Summaries in vergangenen Jahren erschienen waren. Hier folgen die Gründe dafür.

Beispiel einer Inkonsistenz

Hier folgt ein typisches Beispiel dessen, was Ken enthüllt hat. Die unten stehende Tabelle zeigt eine Kopie der Zusammenfassung der nationalen Wetterdaten im Februar 1934. Schauen wir zum Beispiel nach Arizona, sehen wir, dass die Temperatur gemittelt über diesen Staat 52,0°F betragen hatte (ca. 11,1°C).

Die Klimazusammenfassung der USA im Februar 1934, aufgelistet nach den Bundesstaaten. Es ist schwierig zu lesen, aber die mittlere Temperatur für den Bundesstaat Arizona im Februar 1934 wird mit 52,0°F angegeben. Quelle: Monthly Weather Review

Schauen wir nun jedoch auf die derzeitige NCDC-Temperaturanalyse (die Reihe reicht von 1895 bis zur Gegenwart), erkennt man, dass für den Bundesstaat Arizona im Februar 1934 eine Mitteltemperatur von 48,9°F (ca. 9,4°C) und nicht die ursprünglich veröffentlichte Originalangabe von 52,0°F gelistet ist:

Die Abbildung zeigt einen Screenshot der gegenwärtigen langzeitlichen NCDC-Temperaturanalyse für Arizona jeweils im Februar. Man beachte, dass in der Zeile unten für das Jahr 1934 eine Zahl 48,9°F gelistet ist.

Ken sah sich nun den gesamten Zeitraum der zwanziger und dreißiger Jahre in zahlreichen unterschiedlichen Staaten an und fand heraus, dass diese ‚Abkühlung’ der alten Daten ziemlich konstant überall stattgefunden hatte. Tatsächlich hat er auch ein paar Karten erstellt, die genau das zeigen. Hier folgt ein Beispiel für das ganze Jahr 1934 für den Bundesstaat Arizona:

Obige Abbildung zeigt die Stärke der Abkühlung jeder monatlichen Mitteltemperatur für den gesamten Bundesstaat Arizona im Jahr 1934, verglichen mit der gegenwärtigen NCDC-Datenbasis (d. h. verglichen mit den aktuellen monatlichen Temperaturen in den Climatological Data Summaries, veröffentlicht im Jahr 1934 durch das US-Weather Bureau USWB). Man beachte zum Beispiel, dass der Februar in der gegenwärtigen Datenbasis  um 3,1°F kälter als die historische Aufzeichnung erscheint. Tabelle erstellt von Ken Trowe.

Die ganze Geschichte steht hier: Inconsistencies in NCDC historical Temperature Analysis

================================================================

Die angebotene Erklärung lautet, dass man den ‚Traditional Climate Division Data Set’ (TCDD) in einen neuen ‚Gridded Divisional Dataset’ (GrDD)’ umgewandelt hat, der Inkonsistenzen im TCDD berücksichtigt“.

Und doch, wie wir wieder und immer wieder gesehen haben, führen alle „Adjustierungen, Verbesserungen und das Herumfummeln“ an den Daten seitens des NCDC und anderer Organisationen grundsätzlich zu einem zunehmenden Erwärmungstrend, sieht man einmal von der Korrektur um -0,05°C für den UHI ab (der leider beklagenswert unterrepräsentiert ist).

Ist das nun absichtliche Verlogenheit oder ein weiteres Beispiel für eine Verzerrung? Wie auch immer, ich glaube nicht, dass private Beobachter des NOAA’s Cooperative Observer Program, die jahrelang Zeit und Mühe aufgewendet haben, wirklich anerkennen, dass ihre harte Arbeit in Stücke gerissen und in die Klimadaten-Suppe gerührt und dann gewürzt wird, um eine neue Realität zu erschaffen, die sich von den tatsächlich gemachten Beobachtungen unterscheidet. Im Falle Arizonas und der sich ändernden Klimaabteilungen wäre das gleichbedeutend damit, die Grenzen der Bundesstaaten zu verändern mit dem Hinweis, dass 1934 weniger Menschen in Arizona lebten, weil wir heute die Grenzen verändert haben. Das würde nicht funktionieren, also warum sollte dies hier funktionieren?

Sicher gibt es alle möglichen „Rechtfertigungen” für diese vom NCDC und anderen veröffentlichten Dinge, aber die Grundlinie ist doch, dass hier nicht die echte, sondern eine bearbeitete Realität präsentiert wird.

h/t to Dr. Ryan Maue.

Aktualisierung:

Hier folgt ein Graph, der die Anpassungen an die USHCN-Daten akkumuliert zeigt, und zwar des gesamten COOP-Netzwerkes der Temperatur in den USA, erstellt von Zeke Hausfather und vor Kurzem auf Lucias Blackboard gepostet:

Dieser Graph zeigt die Subtraktion der USHCN-Rohdaten von den adjustierten USHCN-Daten auf jährlicher Basis. Das TOBS-Adjustment ist der Löwenanteil.

Jeff Masters, Christopher C. Burt

Link: http://wattsupwiththat.com/2012/06/06/noaas-national-climatic-data-center-caught-cooling-the-past-modern-processed-records-dont-match-paper-records/

Übersetzt von Chris Frey EIKE




Rio 20+ Die teuren Obsessionen des Öko-Jetsets – Verbohrt in Rio

Zehntausende Menschen werden sich demnächst zum Weltgipfel der Vereinten Nationen in Rio de Janeiro einfinden. Das von überdrüssigen Politikern bis zu hoch motivierten Aktivisten reichende Teilnehmerspektrum soll das Engagement für die Umwelt überall neu beleben. Leider wird dieser Gipfel wohl wieder zu einer vertanen Chance werden. Die UN präsentieren das verlockende Versprechen einer „grünen Ökonomie“, mit der man sich der Bekämpfung globaler Erwärmung widmet. In Wahrheit wird auf dem Gipfel aber das falsche Ziel anvisiert, denn die viel größeren ökologischen Probleme des überwiegenden Teils der Welt werden vernachlässigt. Die globale Erwärmung ist mitnichten unsere größte Umweltbedrohung. Selbst unter der – unsinnigen – Annahme, dass sie die Ursache aller Todesfälle infolge von Überschwemmungen, Dürren, Hitzewellen und Unwetter wäre, käme man bei dieser Berechnung auf lediglich 0,06 Prozent aller Todesfälle in den Entwicklungsländern. Im Vergleich dazu werden 13 Prozent aller Todesfälle in der Dritten Welt durch Wasser- und Luftverschmutzung verursacht. Auf jeden Menschen also, der womöglich an den Folgen der globalen Erwärmung stirbt, kommen ungefähr 210 Menschen, die ihr Leben verlieren, weil es an sauberem Trinkwasser und Sanitäranlagen mangelt und weil sie den bei der Verbrennung verunreinigter Brennstoffe (wie etwa getrockneten Tierdung) in geschlossenen Räumen entstehenden Rauch oder verschmutzte Luft im Freien einatmen. Diese konkreten Umweltverschmutzungsprobleme der armen Länder sind aber nicht trendig und ziehen engagierte Aktivisten, Medien und Regierungen auch nicht so in ihren Bann, wie dies der globalen Erwärmung gelingt.

Nirgends sind die fehlgeleiteten Prioritäten besser dargestellt als in der farbenfrohen offiziellen UN-Broschüre „Rio+20“. Darin bieten die UN in hilfreicher Weise eine allgemein verständliche Erklärung des Gipfels sowie Beispiele der von ihr ins Auge gefassten „grünen Ökonomie“. Wir sehen furchterregende Bilder ausgetrockneter Flussläufe (Folge der globalen Erwärmung) neben zahlreichen hübschen Lösungen wie Windkraftanlagen und Sonnenkollektoren.

Das Problem besteht darin, dass grüne Energie in den meisten Fällen noch immer viel teurer, weniger effektiv und diskontinuierlicher vorhanden ist als die Alternativen. Dennoch wird in der Literatur zum Gipfel behauptet, dass sie das Wirtschaftswachstum ankurbeln und die Armut eliminieren wird. Ernsthaft gefragt: Warum glauben wohlmeinende Menschen in der Ersten Welt, dass die Dritte Welt Energietechnologien haben sollte, die teurer, anfälliger und weniger verlässlich sind als ihre eigenen?

Ohne den Hauch von Ironie lautet das Motto der Broschüre „Die Zukunft, die wir wollen“. In einer Welt allerdings, wo eine Milliarde Menschen hungrig zu Bett gehen und wo jedes Jahr sechs Millionen Menschen aufgrund von Luft- und Wasserverschmutzung sterben, haben die meisten Menschen in den Entwicklungsländern wohl andere Prioritäten für ihre Zukunft.

In der Broschüre wird frohgemut behauptet, dass Chinas Hinwendung „zu einer CO2-armen Wachstumsstrategie auf Grundlage der Entwicklung erneuerbarer Energiequellen Arbeitsplätze, Einkommen und Einnahmen“ geschaffen hat. In Wahrheit hat China seine Emissionen in den letzten 25 Jahren vervierfacht. Obwohl China ungefähr die Hälfte aller Sonnenkollektoren der Welt produziert, werden 98 Prozent davon exportiert, um damit die großzügigen Subventionen auf den Märkten der reichen Welt einzustreichen. Lediglich 0,005 Prozent des chinesischen Energiebedarfs wird mit Sonnenenergie gedeckt. Durch die jahrzehntelange wirtschaftliche Expansion Chinas sind 600 Millionen Menschen der Armut entkommen, aber die aus diesem Aufschwung resultierende enorme Umweltverschmutzung passt nicht in das grüne Narrativ von Rio+20.

Überdies wird in der Broschüre erklärt, dass sich manche Bauern in Uganda der biologischen Landwirtschaft verschrieben hätten. Leider ist mittlerweile fast ganz Afrika biologisch – was zu geringen Ernteerträgen, Hunger und Abholzung führt. Afrika muss seine Ernten steigern, und das bedeutet, den Bauern den Einsatz moderner Nutzpflanzen, Düngemittel und Pestizide zu ermöglichen. Weniger Ernte unter höherem Aufwand zu produzieren mag auf wohlgenährte Bewohner der Ersten Welt einen Reiz ausüben, aber die Armen werden dadurch buchstäblich ausgehungert.

Weiter heißt es lobhudelnd, dass Frankreich 90.000 Arbeitsplätze in der grünen Ökonomie geschaffen hat. Die bittere Wahrheit wird allerdings verschwiegen: dass nämlich die durchschnittlichen Kosten für jeden grünen Job jährlich über 160.000 Euro, liegen und das können sich die französischen Steuerzahler ganz offenkundig nicht leisten. Außerdem geht aus volkswirtschaftlichen Modellen hervor, dass Frankreich aufgrund dieser Extrakosten für Subventionen genauso viele Arbeitsplätze eingebüßt hat.

Um dem Ganzen die Krone aufzusetzen, ist in der Broschüre auch ein schönes Foto abgebildet, das zeigt, wie Elektroautos das Ziel des sogenannten Zero Emissions Race in Genf erreichen. Die Tatsache allerdings, dass der größte Teil des Stroms noch immer aus der Verbrennung fossiler Brennstoffe stammt, lässt man unter den Tisch fallen. Die Autos fahren daher keineswegs mit „null“ Emissionen. Und noch wichtiger in diesem Zusammenhang ist die Tatsache, dass ein Großteil der Bewohner unseres Planeten noch immer von irgendeiner Form eines fahrbaren Untersatzes träumt – und das wird wohl kaum ein Elektrofahrzeug zum Preis von 40.000 Euro oder mehr sein.

In einer von gravierenden Problemen aufgrund der Luft- und Wasserverschmutzung geplagten Welt ist dieser lässige Schwerpunkt auf trendige Themen und unrealistische Lösungen zutiefst verstörend. Eine abgehobene globale Elite fliegt nach Rio, um den Armen dieser Welt mitzuteilen, dass sie einen Sonnenkollektor brauchen. Statt auf die fixen Ideen der Industrieländer einzugehen, könnte Rio+20 mehr für das Wohl der Menschheit – und des Planeten – erreichen, wenn man sich auf die wichtigsten Umweltprobleme und deren einfache Lösungen konzentrieren würde.

Björn Lomborg

Der Autor ist Leiter des Copenhagen Consensus Center

Aus dem Englischen von Helga Klinger-Groier.

© Project Syndicate, 2012

Mit Dank übernommen von „Die Welt“




Energiebuch und EIKE-News-Beitrag des ehemaligen BASF-Managers Dr. Jürgen Langeheine

Buchkritik

Das Buch von Langeheine titelt „Energiepolitik in Deutschland, das Geschäft mit der Angst“ und ist im AtheneMedia-Verlag erschienen. Schon beim ersten Durchblättern fällt die Handschrift des Physikers und Industriemanagers auf: knappe Schilderungen mit den hierzu erforderlichen Zahlenangaben und Wirtschaftlichkeitsberechnungen. Jeder, der einmal längere Zeit in der Industrie tätig war, erkennt hierin einen Stil wieder, dem der Zug zum Wesentlichen eigen ist. So zu schreiben hat natürlich Vor- und Nachteile. Für Leser, die es lieben, vor dem Schlafengehen noch einmal gefällig Dahinfließendes zu sich zu nehmen, um besser in den Schlummer zu fallen, werden nicht ganz so gut bedient. Langeheine fürchtet anscheinend auch nicht die bekannte Verlagsregel, dass jede Formel in einem Buch dessen Auflage um die Hälfte reduziert. Träfe diese Regel zu, stünde es schlecht um den Buchverkauf, denn an mathematischen Formeln – es kommen sogar waschechte Integrale vor – ist kein Mangel.

Als Gegenzug erhält der Leser dafür aber sehr viel detaillierte Einblicke und Informationen. So hat beispielsweise die Hauptsektion „Kernenergie-Chancen und Risiken“, die etwa ein Drittel des Buchs ausmacht,  dem Kritiker besonders gut gefallen. Ein weiteres Drittel nimmt „Klima, Energie und Politik“ ein. Das erste Drittel „Physik der Atmosphäre“ ist zwar, für sich genommen, interessant, weicht aber ein wenig vom Thema des Buchs ab. Dies ist dann auch das einzige Kapitel, dessen Ausführungen der Kritiker nicht in allen Punkten zustimmen kann. Die Abschnittsüberschrift „Treibhausmodell ade, was nun“ wird sicher manche Kommentatoren des EIKE-Blogs erfreuen und erneut an- bzw. aufregen, die Ausführungen Langeheines entsprechen hier aber nicht dem heutigen wissenschaftlichen Stand der Atmosphärenphysik. Dieser kleine Schwachpunkt täuscht allerdings keineswegs darüber hinweg, dass Langeheines Werk als weiterer Sargnagel einer komplett verfehlten deutschen Energiepolitik brauchbar ist.

Prof. Dr. Horst-Joachim Lüecke

EIKE-Pressesprecher

Und nun die Energie-News von Dr. Langeheine

Deutschland auf dem Weg in die De-Industrialisierung 

Trotz Staatsschulden von mehreren  Billionen Euro wird in Deutschland der sofortige Ausstieg aus der Kernenergie ohne tragfähige Alternativen vollzogen. Es werden alte und bewährte Energieversorgungssysteme verschrottet, und es wird billigend in Kauf genommen, dass durch die zwangsläufig nötigen doppelten Installationen von Versorgungsanlagen zur Absicherung einer stabilen Stromversorgung und Subventionen für neue technisch nicht ausgereifte, teurere Versorgungssysteme die Belastung der Bevölkerung  sowie die Staatsverschuldung weiter steigt. Die schon immer viel zu hohen deutschen Strompreise werden weiter steigen. Bis zum Jahr 2020 ist mit einer Verdoppelung der Stromkosten gegenüber 2004  zu rechnen. Dies wird an der deutschen Wirtschaft nicht spurlos vorüber gehen, der Verlust an Wettbewerbsfähigkeit und Arbeitsplätzen ist abzusehen. In der augenblicklich guten wirtschaftlichen Lage glaubt Deutschland, unabhängig von Entwicklungsprozessen in anderen Teilen der Erde einen ideologisch, fast religiös motivierten Alleingang in der Energiepolitik durchsetzen zu können.  Mittelfristig führt dieser Prozess jedoch zu einer De-Industrialisierung  des Landes mit unübersehbaren sozialen Verwerfungen.

Der weltweite  Energiebedarf steigt unaufhaltsam, wie die Darstellung (s. Titelbild) der Internationalen Energie Agentur aus dem Jahr 2000 zeigt. Er lag 1990 bei 330 EJ (EJ = Exajoule, 1EJ sind  278 Milliarden kWh), stieg bis 2000 auf 417 EJ und erreicht heute einen Wert von ca. 500 EJ pro Jahr. Die jährliche Steigerungsrate beträgt ca. 10 EJ pro Jahr. 2010 stammte die verbrauchte Energie zu 85% aus fossilen Rohstoffen, ca.180 EJ aus Öl, 120 EJ aus Gas, 120 EJ aus Kohle. Ca. 10% kamen aus der Kernenergie und 5% aus sog. erneuerbaren Energien. Die USA verbrauchten im Jahr 2000  97 EJ (23%), China 49 EJ (49%) und Deutschland 14,4, EJ (3,4%) der insgesamt weltweit verbrauchten Energie von 417 EJ. Dabei nehmen die USA mit einem pro- Kopf-Verbrauch von 273 GJ/Jahr die Spitzenstellung ein, während Deutschland und Japan im Mittelfeld bei ca. 180 GJ/Jahr liegen. Bemerkenswert ist der noch relativ geringe Pro-Kopf-Verbrauch von China (38 GJ/Jahr) und Indien (< 24 GJ/Jahr). Hier sind die größten Entwicklungspotenziale für die Zukunft zu erwarten. Wenn China z. B. mittelfristig nur die Hälfte des deutschen Pro-Kopf-Verbrauchs erreicht, erhöht allein China seinen Gesamtverbrauch auf ca. 100 EJ pro Jahr. Das bedeutet eine Verdoppelung des Chinesischen Energieverbrauchs.

Aus den vom Bundesinstitut für Bevölkerungsforschung herausgegebenen Daten ist ein Wachstum der Weltbevölkerung bis 2050 von heute knapp 7 auf 9 Milliarden Menschen zu erkennen. Der größte Zuwachs erfolgt in Asien, gefolgt von Afrika und (Süd-) Amerika. Die Bevölkerung von Europa bleibt danach weitgehend konstant. Zwischen 1990 und 2010 stieg die Weltbevölkerung um ca. 2 Milliarden Menschen. Für jede zusätzliche Milliarde Menschen kann mit einem zusätzlichen Energiebedarf von ca. 100 EJ/ Jahr gerechnet werden. Eine Steigerung der Erdbevölkerung auf 9 Milliarden Menschen im Jahr 2050 bedeutet dann einen Anstieg des Weltenergiebedarfs von jetzt 500 EJ/Jahr auf 800-900 EJ/Jahr. Entsprechend dem Entwicklungstrend werden dann ca.350 EJ aus Öl, 250 EJ aus Gas, 200 EJ aus Kohle kommen.

Der deutsche Investitionsbedarf für den Ersatz von 2,5 EJ durch erneuerbare Energien (18% von 14 EJ) bis zum Jahr 2020 wird vom Bundes-Umwelt-Ministerium und  Prognos-Institut auf ca. 200 Milliarden € geschätzt. Um weltweit die zusätzliche Energiemenge von ca. 400 EJ mit erneuerbaren Energien zu erzeugen, sind Investitionen in Höhe von ca. 32 Billionen € erforderlicch, eine Geldmenge, die dem weltweiten Bruttoinlandprodukt entspricht. Das sind gigantische Beträge, und es ist äußerst fragwürdig, ob dieses Geld mittelfristig in Deutschland bzw. weltweit bis zum Jahr 2050 zur Verfügung steht. Unter der Annahme, dass im Jahr 2020 Deutschland seinen gesamten Energieverbrauch nicht steigert, sinkt der deutsche Anteil am weltweiten Energieverbrauch auf 1,5%, ein unbedeutender Wert. Diese Relation allein verdeutlicht die wirtschaftliche Bedeutung der Umstellung auf alternative Energien. Vom deutschen Einfluss auf die weltweite Kohlendioxidemission, wie bedeutsam sie auch immer für das Klima sein mag, braucht man in diesem Zusammenhang nicht zu reden, er ist quasi Null. Eine Volkswirtschaft kann im globalen Wettbewerb nur bestehen, wenn sie über ausreichende und wettbewerbsfähige Energiequellen verfügt. Erneuerbare Energien können dazu mengen- und kostenmäßig keinen Beitrag leisten, wie die nachfolgenden Abschätzungen für unterschiedliche Formen grüner Energien zeigen.

Geothermie:

Der Anteil der elektrischen Stromerzeugung durch Geothermie betrug 2010 weltweit 90 Milliarden kWh. Damit wurden ca. 0,5 % (von ca. 20.000 Milliarden kWh) an  elektrischer Energie durch Geothermie erzeugt. In Deutschland lag dieser Beitrag bei 0,01% (60 Millionen kWh von insgesamt ca. 700 Milliarden kWh), also noch um den Faktor 50 unter dem weltweiten Durchschnitt. Allenfalls kann die Geothermie zum Ersatz fossiler Rohstoffe bei der Heizung beitragen, sie erreichte jedoch in dieser Form 2009 in Deutschland auch nur einen Wert von 0,017 EJ oder 0,12% des gesamten deutschen Energieverbrauchs. Geothermieanlagen erfordern besonders in Deutschland hohe Investititonen. Die Kosten für das Geothermiekraftwerk Landau betrugen 21 Mio € für eine abgabefähige Leistung von 3 MW, also ca. 7000 € pro kW. Damit werden pro Jahr ca. 21.000 MWh (Megawattstunden) an elektrischer Energie produziert. Eine Hochrechnung für den Ersatz der aus  Kernkraftwerken produzierten elektrischen Energie von ca. 150 TWh (Terawattstunden) führt auf eine Investitionssumme von ca. 150 Miliarden €.

Photovoltaik:

Im Bereich der Photovoltaik kostet heute ein 1 kWp – Modul (kWp = Kilowatt Peak Leistung) mit einer Fläche von 8-10 m² ca. 2000 Euro und erzeugt in Deutschland ca. 1000 kWh pro Jahr. Der Ersatz der Stromerzeugung aus Kernkraftwerken benötigt damit eine Fläche von der Größe des Saarlandes (2300 km²). Das ist ein rein rechnerischer Wert, da die Solarenergie nur ca. 1000 Stunden im Jahr zur Verfügung steht und daher für eine Grundlastversorgung nicht geeignet ist. Um eine kontinuierliche Stromversorgung sicherzustellen, sind langzeitstabile Zwischenspeicher erforderlich. Großtechnisch einsetzbare Speichermöglichkeiten, wie Pumpspeicherwerke fehlen, da in Deutschland aus topographischen Gründen nur eine Kapazität von ca. 40 Millionen kWh installiert ist, die noch dazu nur eine tägliche Nutzungsdauer von 4-8 Stunden erlaubt. Rein rechnerischer Natur ist auch die Investitionsabschätzung von 300 Milliarden € für den Ersatz der Stromerzeugung aus Kernenergie durch die Photovoltaik. Unberücksichtigt dabei ist der erforderliche  Ausbau der Pumpspeicherkapazität um einen dreistelligen Faktor! Die Investitionen für die Photovoltaik summierten sich für die Jahre 2000 bis 2010 auf ca. 25 Milliarden €, die Subventionszahlungen (für ca. 27 Milliarden kWh) auf ca. 13 Milliarden Euro. Das ergibt Gestehungskosten von ca. 50Cts/kWh gegenüber 3 Cts/kWh aus konventionellen Anlagen. Dem Steuerzahler wird diese  Verschwendungsorgie, die noch dazu extrem unsozial ist, langsam bewusst. Wer ein Hausdach oder eine Wiese besitzt, kann zusätzliche Einnahmen aus installierter Photovoltaik verbuchen, wer keines von beiden hat, muss zahlen. Bereits 600.000 Haushalten wurde der Strom abgeschaltet, weil sie ihre Rechnungen nicht mehr bezahlen konnten, Tendenz steigend. Photovoltaik lieferte 2010 mit ca. 0,1 EJ nur 0,02% des gesamten weltweiten Energieverbrauchs. In Deutschlande wurden 2010 8,3 Milliarden kWh Strom mit Hilfe der Solarenergie hergestellt, das sind 1,3% der gesamten Strommenge oder 0,2% des gesamten  Energieverbrauchs. Photovoltaik ist bedeutungslos, zu teuer und technisch problematisch für die Energieversorgung eines Industriestandortes wie Deutschland und birgt enormen sozialen Sprengstoff.

Windenergie:

Windenergie benötigt, wie die Photovoltaik, den Verbund mit anderen Energiequellen oder zusätzliche Speicher für eine konstante Energiebereitstellung. Die Kosten einer Windkraftanlage liegen derzeit bei 900.000 € / 1MW, die Auslastung liegt in Deutschland im Mittel bei 17%, so dass diese Anlage ca. 2000 MWh pro Jahr liefert. Der Ersatz der Strommenge aus der  Kernenergie durch Windkraft erfordert damit Investitionen von ca. 65 Millarden €, wieder nur rein rechnerisch, da die Kosten der Speicherwerke nicht eingerechnet wurden. Die weltweit installierte Windenergieleistung betrug 2010  194.400 MW. Bei üblicher 20%iger Auslastung produzieren diese Anlagen ca. 1,4 EJ. (0,3% des Weltenergiebedarfs). Der deutsche Beitrag (27.214 MW) entspricht 0,04% des Weltenergiebedarfs (1% des deutschen Bedarfs) oder mit ca. 40 Milliarden  kWh ca. 7% der gesamten jährlichen deutschen Stromerzeugung. In Deutschland sind bereits ca. 25 Milliarden € (900.000€ / 1MW) für diese Technologie investiert worden. Die Subventionszahlung durch die Steuerzahler nach dem Erneuerbaren Energie-Gesetz (EEG) beliefen sich in den Jahren zwischen 2000 und 2010 für ca. 300 Milliarden kWh aus Windenergie auf weitere 25 Milliarden €. Das ergibt Gestehungskosten von ca. 8 Cts/kWh gegenüber 3 Cts/kWh aus konventionellen Anlagen. Für deutsche Verhältnisse ist infolgedessen auch die Windenergie unwirtschaftlich und unterliegt bezüglich der Stabilität und Verfügbarkeit den gleichen Einschränkungen wie die Photovoltaik. Nach dem Abschalten von 8 Kernkraftwerken im Jahr 2011 setzte eine Hochkonjunktur für „fossile“ Back-up-Kraftwerke ein, die ältesten Dreckschleudern wurden als Back-up-Kaltreserve wieder in Betrieb genommen, um einen zeitweise drohenden Black-Out des Netzes zu verhindern. Umweltschutz gerät in den Hintergrund. Der Ausbau der Stromtrassen von der Nordsee nach Süden und die Verstärkung der lokalen Netze für veranschlagte 60 Milliarden Euro (wenn es dabei bleibt!) wird die Notwendigkeit einer Speicherung nicht ersetzen. Auch auf See weht der Wind nicht immer gleichmäßig.

Bioenergie:

Bioenergie ist die über Verbrennung oder Vergärung aus Biomasse (Holz, Mais, Zuckerrüben, Weizen und organische Abfallstoffe, wie Jauche, Mist etc.) gewonnene Energie und wird durch ihren Kohlenstoffgehalt charakterisiert. Die Verfügbarkeit einer Biogasanlage liegt bei 90%, die Investitionskosten für eine 500 kW Anlage betragen ca. 2 Millonen €. Der Ersatz der Strommenge aus der Kernenergie durch Bioenergie erfordert Investitionen von ca. 80 Millarden € und ist damit die kostengünstigste Alternative, da die Zusatzkosten für Speicherwerke entfallen. 2009 wurden in Deutschland 0,87 EJ über Biomasse und Biotreibstoffe erzeugt, das sind ca. 6% des deutschen Primärenergieverbrauchs. Bezüglich der verfügbaren Anbaufläche in Deutschland stößt die Bioenergieerzeugung jedoch an Grenzen. Bei Nutzung der gesamten deutschen Agrarfläche von 17 Mio. ha und einem Nettoenergieertrag von ca. 20 MWh/ha, könnten 1,2 EJ aus der Bioenergie erzeugt werden, das sind 8,3% des deutschen Gesamtenergieverbrauchs. Bioenergie kann aus diesem Grunde zur Versorgungssicherheit nur marginal beitragen, sie steht immer in Konkurrenz zur Nahrungsmittelerzeugung und ist damit ethisch äußerst problematisch. Der Ertrag pro ha für Getreide beträgt in Europa ca. 5000 kg mit einem Energieinhalt von ca. 21.000 kWh. Damit können ca. 25 Menschen ein Jahr lang vom Ertrag eines ha leben (Nahrungsbedarf des Menschen ca. 850 kWh/Jahr). Aus ca. 5000 kg Getreide können 635 l Bioethanol hergestellt werden, mit einem Energieinhalt von 4000 kWh. (6,3 kWh/l). Dies ist eine riesige Verschwendung, da nur ca. 20% des ursprünglichen Energieinhalts weiter einsetzbar sind.

Eine Tankfüllung von 70 l E 10 (7 l Ethanol) verbraucht damit die Nahrungsmittel eines Menschen für 1 Monat. Grüne Energiepolitik bedeutet im Endeffekt: Kein Brot für die Welt, aber Getreide für Sprit.

Zusammenfassend hat der deutsche Verbraucher im Zeitraum zwischen 2000 und 2010 für 450 Milliarden kWh (7% der gesamten Strommenge) 56 Milliarden € an zusätzlichen Vergütungen gezahlt. Das ergibt Gestehungskosten von ca. 12 Cts/kWh gegenüber 3 Cts/kWh aus konventionellen Anlagen. Entscheidend beeinflusst durch die Zusatzkosten des EEG sind die Strompreise für Kleinabnehmer auf 25,5 Cts/kWh gestiegen. 22,8% des Strompreises mit 5,57 Cts/kWh werden für die Netznutzung, 44,2% des Strompreises mit 11,23 Cts/kWh für Steuern und Abgaben und 33% werden für die Stromkosten und Marge der Stromerzeuger mit 8,4 Cts/kWh berechnet. Dabei sind in den 8,4 Cts/kWh Stromkosten und Marge, die in die Kalkulation eingehen, bereits 3,5 Ct/kWh allein auf das EEG zurückzuführen. Heute betragen die Steuern und Abgaben innerhalb des Strompreises damit bereits 135% der Stromkosten und führen zu Steuereinnahmen von privaten Verbrauchern (ca. 30%) von 20 Milliarden € pro Jahr. Die Bundesnetzagentur rechnet mit einer Steigerung der Netzkosten um ca. 1,5 Cts/kWh, einer Verteuerung der Stromkosten durch die erneuerbaren Energien um ca. 4 Cts/kWh in den nächsten 5 Jahren. Bleibt der Staat bei seinen 44,2% Steuern (wir erleben das ja z.Zt. bei den Kraftstoffpreisen), landet der Strompreis bei 35 Cts/kWh, und die Steuereinnahmen steigen auf ca. 30 Milliarden €.

Die Energieumstellung ist ein politisch motiviertes, nicht bis zu Ende geplantes Programm und vorerst ein gutes Geschäft für Spekulanten, Banken und mehr noch, eine hervorragende Möglichkeit, marode Staatshaushalte durch Umwelt- und andere Steuereinnahmen aufzubessern. Bluten müssen der einfache Verbraucher und die mittelständigen Betriebe. Großverbraucher können heute noch Reduktionen der EEG- Belastung beantragen. Ob diese Lastenverteilung noch lange aufrechterhalten werden kann, ist fraglich. Doch eines ist sicher: Weder Geothermie noch Photovoltaik, Windenergie oder Bioenergie können den weltweiten Energiebedarf zu vertretbaren Kosten- und Sozialbedingen decken und werden ohne massive Subvention nur in geographisch ausgefallenen Gebieten ihre Einsatzberechtigung haben. Für Industrienationen wie Deutschland führen sie zur immensen Verteuerung des wichtigsten Rohstoffes, der Energie.

Derzeit meldet die Ökobranche ca. 370.000 Mitarbeiter, davon sind in der Photovoltaik ca. 110.000 und der Windenergie ca. 100.000 Mitarbeiter beschäftigt, mit einem Umsatz von ca. 40 Milliarden Euro pro Jahr. Das sieht auf den ersten Blick wie eine Erfolgsgeschichte aus. Übersehen wird dabei, die Anzahl der Entlassenen und nicht neu Eingestellten sowie die Umsatzverluste dagegen zu rechnen, die in energieintensiven Betrieben weggefallen sind. Die augenblicklich gute gesamtwirtschaftliche Lage in Deutschland überspielt diese Probleme. Die 370.000 Mitarbeiter schaffen demnach einen Umsatz von ca. 100.000 € pro Jahr, eine wahrhaft magere Zahl im Vergleich zu anderen Bereichen der Wirtschaft, in denen das Doppelte dieses Wertes das untere Limit für die Existenz der Firma bedeutet. Spanische Untersuchungen zeigen, dass ein Arbeitsplatz im Erneuerbaren Energie Bereich 2,2 Arbeitsplätze im Privatsektor der Wirtschaft kostet. Nach diesen Untersuchungen hat Deutschland durch die massive Förderung der erneuerbaren Energien bereits 750.000 Arbeitsplätze in anderen Bereichen der Wirtschaft vernichtet. Der langfristig wirksame volkswirtschaftliche Schaden ist kaum zu beziffern. Ganz im Gegenteil zur weitverbreiteten Ansicht, ist die Ökoindustrie keineswegs ein Job-Motor sondern genau das Gegenteil.

Mittlerweile sind 8 weitestgehend kohlendioxidfreie Kernkraftwerke abgeschaltet und der ausfallende Strom wird durch Inbetriebnahme alter Kohle- und Gaskraftwerke, wie durch Importe von ausländischen Kernkraftwerken ersetzt. Statt die aus Gründen der Ressourcenschonung und aus Umweltschutzgründen sinnvolle Reduktion der Energieerzeugung aus fossilen Rohstoffen zu betreiben, werden Ersatzverfahren wie die Photovoltaik oder die Windenergie gewählt, die eine kontinuierliche Begleitung durch konventionelle Anlagen benötigen. Leider wurden diese technischen Randbedingungen der Energiewende von der Ethik-Kommission nicht berücksichtigt, und so kämpft die Bundes-Netzagentur, da wirksame Speichermöglichkeiten für elektrische Energie fehlen, unter Einsatz umweltverschmutzender Kohlendioxidschleudern um die Netzstabilität in Deutschland. Um bei fehlender Speichermöglichkeit die schwankende Leistungseinbringung erneuerbarer Energien auszugleichen, sind für einen Industriestandort wie Deutschland im Hintergrund laufende konventionelle Kraftwerke mit praktisch der gleichen Leistung nötig. Die wildesten Strategien bezüglich Stromspeicher treiben ihr Unwesen und fressen beachtliche Steuergelder, die für Batterieentwicklung, Wasserstoff-Methan-Erzeugung, Pumpspeicherwerke in aufgelassenen Bergwerken und ähnliche Übungen ausgegeben werden. Es sind Verfahren, die vielleicht im Kleinen funktionieren, in der benötigten Größenordnung jedoch nicht einsetzbar sind.

Ob nun zusätzliche Gaskraftwerke oder Pumpspeicherwerke zum Zuge kommen, die Pufferwirkung der stillgelegten Kernkraftwerke muss ersetzt werden. Doppelte Investitionen in die Stromerzeugung sind die Folgen der deutschen Energiewende in der heute aktuellen Festlegung. Damit werden sich die heute schon hohen Stromkosten in Deutschland auch ohne die Subventionen des Erneuerbaren Energie Gesetzes in Richtung Verdoppelung bewegen. Die kürzlich vorgestellte Studie des Karlsruher Instituts für Technologie (KIT) bestätigt diese Annahme. Entsprechende Folgen für den Industriestandort Deutschland sind abzusehen: Trotz wesentlicher Vergünstigungen energieintensiver Unternehmen bei den steigenden Stromkosten, die langfristig bei der gesamten Bevölkerung sicher nicht auf Verständnis stoßen werden, werden sich diese Unternehmen aus Deutschland verabschieden.

Die Energiewende beinhaltet sozialen Sprengstoff, da die Kostensteigerungen vor allem die sogenannten „kleinen Leute“ treffen werden. Angesichts schwindelerregender Schulden und einer globalen Wirtschaftskrise, ist es leichtsinnig und unverantwortlich, wie mit dem Wirtschaftsfaktor Energie in Deutschland umgegangen wird. Da sich Deutschland durch den Ausstieg aus der Kernenergie isoliert, ist es nur eine Frage der Zeit, wann unser Einfluss auf die europäische Energiepolitik verschwindet. Das Argument, erneuerbare Energien könnten sich zu einem maßgeblichen Wirtschaftsfaktor für Deutschland entwickeln und mittelfristig den Exportanteil der Automobilindustrie ersetzen, kehrt sich langsam ins Gegenteil um, wie die poltischen Aktivitäten in Zusammenhang mit der Solarenergie andeuten. Die Zäune um die Schutzzonen müssen erhöht werden, um die fernöstliche Konkurrenz abzuwehren. Quer durch alle Parteien werden diese Aspekte heruntergespielt. Die Wende zu den erneuerbaren Energien hat ihren Preis, und es wird an der Zeit, dass darüber ehrlich berichtet und diskutiert wird. In die gleiche Richtung geht die Frage nach den gesellschaftspolitischen Auswirkungen der Energiewende. Ohne Einschränkung der Mitwirkungsrechte der Bürger wird diese nicht zu erreichen sein. Bürgerbeteiligungen, wie von allen Parteien gefordert und die schnelle Energiewende passen nicht zusammen.

Naturwissenschaftliche und technisch-wirtschaftliche Grundgesetze lassen sich nicht  manipulieren, und so sind Umweltschutz/Klimaschutz und Energiewende nach den  Vorgaben der Bundesregierung unvereinbar. Trotz Staatsschulden in Billionenhöhe wird der sofortige Ausstieg aus der Kernenergie ohne tragfähige Alternativen vollzogen. Geschickt wird der Tod von 20.000 Japanern durch die Tsunamiwelle in den Hintergrund gedrängt. Eine einseitige Berichterstattung mit nicht zu übertreffenden Schreckensbildern eines zerstörten Kernreaktors dient dazu, den Menschen in Deutschland zu suggerieren, dass eine solche Katastrophe auch bei uns passieren kann und der Ausstieg nach dem Motto "Rette sich wer kann" sofort  erfolgen muss. Selbstverständlich birgt die Kernenergie Gefahren, die sich bei unüberlegtem Umgang mit dieser Technik verheerend auswirken können. Der Bau einer Kernkraftanlage mit Notstromversorgung auf Meeresniveau an der Küste eines Erdbeben- und Tsunami-gefährdeten Landes, wie es Japan nun einmal ist, ist in Deutschland undenkbar und war ein extrem leichtsinniger Umgang mit dieser Technik. Gerade Deutschland könnte mit seiner hervorragenden technischen Überwachungs-Organisation ein Vorbild für sichere Kernenergieversorgung liefern. Aber es wird entschieden, alte und  bewährte Energieversorgungssysteme zu verschrotten, und es wird billigend in Kauf genommen, dass durch die zwangsläufig nötigen Subventionen für neue technisch nicht ausgereifte und teurere Versorgungssysteme die Staatsverschuldung weiter steigt.

Da geringe Energiekosten einer der ausschlaggebenden Faktoren für eine langfristig erfolgreiche Wirtschaft sind, begibt sich Deutschland durch diese Entscheidung auf den Weg in die De-Industrialisierung mit allen damit verbundenen gesellschaftspolitischen Folgen. Betrachtet man unter diesen Gesichtspunkten die deutsche Energiepolitik, so kommt man zu dem Ergebnis, dass es unverantwortlich war, den schnellen Ausstieg aus der Kernenergie zu beschließen. In einigen Jahren wird man diese aus Angsteinflößung, Populismus, Wahltaktik und Geschäftemacherei geborene Entscheidung als Denkmal kollektiver Dummheit wahrnehmen.

Dr. Jürgen Langeheine für EIKE

Empfehlung der Redaktion:

Lesen Sie zum Thema Kernenergie auch das sachlich unaufgeregte Büchlein "Kernenergie – Gefahr oder Nutzen" von Dr. Helmut Böttcher erschienen in der Reihe Imhof – Zeitgeschichte im Michael Imhof Verlag. ISBN 978-3-86568-703-6




EIKE Konferenz „Klimapolitik im Zeichen der Nachhaltigkeit“ erfolgreich beendet.

In den Vorträgen beleuchtete der Wissenschaftsjournalist Edgar Gärtner die tieferen Gründe für die Ausrufung der als notwendig erachteten planwirtschaftlichen Rationierung, wie des CO2, als Spätfolgen eines schon lange ad absurdum geführten Malthusianismus.

Die von Malthus als naturgesetzlich beschriebene Knappheit an Nahrungsmitteln gegenüber der Bevölkerungsentwicklung entpuppte sich schon früh als gesellschaftlich gewollte oder ungewollte Fehlsteuerung durch Überstülpung von Zwängen, die zu Armut und Verelendung weiter Kreise der Bevölkerung führten. Erst mit der Aufhebung dieser Zwänge durch liberalen Freihandel– wie sie schon von Malthus Freund Ricardo gefordert und zuerst in weiten Teilen der westlichen Welt auch verwirklicht wurde- blühten die Gemeinwesen auf, die Menschen gelangten auf breiter Front zu Wohlstand und entrannen ihrem Elend. Trotzdem ist dieser tiefsitzende Wunsch nach Planwirtschaft zur vermeintlich „gerechten“ Verteilung endlicher Ressourcen immer noch eine starke Motivation bestimmter Eliten und wird daher immer wieder von Untergangspropheten als zweckmäßiges Mittel zur Errichtung einer (Öko-)Diktatur missbraucht.

Sonja Böhmer Christiansen berichtete -als an vorderster Front mitwirkende Zeitzeugin- über die vielfältigen Verbindungen zwischen Politik und Wissenschaft mit dem Ziel –von der Politik vorgegebene Ergebnisse – nachträglich „wissenschaftlich“ zu rechtfertigen. Damit bekämen diese den Absolutheitsanspruch, der es der Politik erleichtert, ihre Gängelungs- und  Besteuerungspolitik zu begründen. Gerade die Klimawissenschaft ist ein Paradebeispiel für diese unheilige Symbiose. Frau Böhmer Christiansen nannte dazu viele Beispiele.

Der bekannte Fernsehjournalist Günter Ederer und der kolumbianische Journalist, Anwalt, Ökonom und Mitgründer von Mundo Minero, Julio Cesár Belalcázar Santodomingo sprachen über praktische Auswirkungen der gängigen „Klimaschutz“- und Energiepolitik, in Kolumbien und in Deutschland. In Kolumbien herrscht jetzt nach jahrzehntelangem Kampf gegen die sozialistisch orientierte FARC endlich Sicherheit. Diese wiederum ermöglicht, unter der Regierung marktwirtschaftlich, liberaler Politiker, eine phänomenale Wirtschaftsentwicklung mit konstantem Wachstum zwischen 3 und 4 %. Basis dieses Wachstums ist die starke Minenindustrie mit Kohle und Gold als Hauptprodukten. Und dank dieses Wachstums geht die Verelendung weiter Teile der Bevölkerung in allen Gruppen rapide zurück. Auch Deutschland gehört zu den Hauptabnehmern der kolumbianischen Kohle trotz aller grüner Bemühungen den „unsauberen“ Kohlestrom zu verdrängen, würde dies auch nach Ansicht der  Teilnehmer so bleiben, wenn es Deutschland gelingt sich gegen mächtige Konkurrenten beim Import dieser Kohle  zu behaupten. Schon jetzt geht der Hauptstrom der kolumbianischen Kohle nach Asien d.h. nach China.

Günter Ederer hingegen konnte nur berichten welche starken antiliberalen Kräfte in allen Parteien erfolgreich daran arbeiten dank „Klimaschutz“ und „Energiewende“ den Strom maßlos – zur Weltrettung versteht sich- zu verteuern. Mit dem Ergebnis,  das bereits heute ca. 600.000 Haushalten ganz oder zeitweise der Strom abgestellt wird, weil diese ihn schon jetzt nicht mehr bezahlen können. Statt einzulenken oder gar umzukehren, überbieten sich die Parteien in neuen Umverteilungs- und planwirtschaftlichen Vorschlägen z.B. zur „Schaffung“ von „Kapazitätsmärkten“; begleitet von ungeheurem Zynismus. Er zitierte dazu den Kommentar einer grünen Politikerin zu einem seiner Feature über die bittere Armut einer alleinerziehenden Hartz IV Empfängerin, der der Strom bereits abgestellt war und die im Scheine von Teelichtern ihre Baby-Wäsche wusch: „ Es ist doch romantisch bei Kerzenlicht zu arbeiten. Was haben Sie gegen Romantik?“.

Der Unterschied zwischen den IPCC Klimaprognosen und der Realität wurde in einem furiosen Rundumschlag von Klaus Puls (Dipl. Meteorologe und Physiker) beleuchtet. Er zeigte auf, dass nach 20 Jahren Vorhersagetätigkeit anhand teurer Computermodelle immer noch die alte IT-GiGo Regel gilt, Garbage in, Garbage out (Müll rein, Müll raus). Nicht eine der Vorhersagen ist eingetroffen. Weder ist das Arktiseis dauerhaft geschmolzen, sondern pendelt im Rhythmus der von der Sonne getriebenen atlantischen Oszillationen, bzw. entsprechender Windsysteme, noch schmolz die Antarktis, von einigen klitze-kleinen Randgebieten abgesehen. Insgesamt wächst das Eisschild der Antarktis kräftig. Auch von den anderen Vorhersagen stimmte keine einzige. Weder beschleunigt sich der Anstieg des Meeresspiegels, nicht global und auch nicht in der deutschen Bucht, noch steigt die Zahl der Stürme, Hurrikane, Dürren oder Überschwemmungen: Auch die globale Mitteltemperatur  -was immer das ist- steigt seit 15 Jahren nicht mehr, sondern beginnt zu fallen. Obwohl die CO2 Konzentration ungebremst weiter ansteigt. Überdies zeigten weder die Satelliten- noch die Radioballonmessungen jemals diesen Anstieg.

Der Physiko-Chemiker Gerhard Stehlik stellte in seinem undefinedVortrag dem Modell der „heizenden Treibhausgase“ des IPCC sein Gegenmodell der „kühlenden“ Treibhausgase gegenüber. Er untermauert diese Ansicht durch einen umfassenden Vergleich der realen Materie der  Erde (Wasser, Wolken & Gestein & Pflanzen) gegenüber den idealisierten Vorstellungen der Treibhaustheorie mit einer Erde als schwarzem Körper.  Bei keiner dieser genannten Elemente kann die grundlegende Stefan-Boltzmann Näherungsgleichung der Temperaturbestimmung als Folge von Strahlungseinwirkung im Strahlungsgleichgewicht plausibel oder gar stimmig angewendet werden. Deswegen müssen die damit erzielten Resultate falsch sein. Hingegen haben die Hauptbestandteile der Atmosphäre, (zusammen rd. 99%)  nämlich Stickstoff und Sauerstoff keinerlei Absorptionslinien im Spektralbereich des sichtbaren und unsichtbaren Sonnenlichtes,  können also die per Konvektion aufgenommene Wärmeenergie nicht als Strahlung  wieder abführen. Ohne die wichtigsten Treibhausgase Wasserdampf und CO2 z.B. würde sich demnach die Atmosphäre stetig aufheizen. Da sie das nicht tut, sorgen die vorhandenen Treibhausgase mit ihrer Absorptions- und Emissionsfähigkeit für die notwendige Abkühlung.

Der Meteorologe Wolfgang Thüne zeigte in einem furiosen Vortrag die gesamte Hybris und Unlogik der auf Klimaschutz ausgerichteten Klimawissenschaft auf. Klima ist immer eine Vergangenheitsbetrachtung, weil Klima per Definition der Mittelwert lokalen Wettergeschehens über lange Zeiträume ist. Wer also das Klima (egal ob als Regenmacher oder Temperaturbegrenzer) beschützen, d.h. beeinflussen will, muss dies beim vergangenen Wetter tun. Das erweist sich sowohl logisch wie auch praktisch als unmöglich.

Er zitierte dazu die Antwort eines Hauptveranwortlichen des Deutschen Wetterdienstes DWD auf seine Frage, was sich denn beim Wetter ändern würde, wenn von heute auf morgen das CO2 (mit seinen jetzt knapp 0,04 %) aus der Atmosphäre verschwände. Die ehrliche Antwort lautete: Gar nichts!

Allerdings wäre dann allen Pflanzen dieser Erde und damit allen Lebens (mit Ausnahme einiger Lebewesen an den schwarzen Rauchern) die Ernährungsgrundlage entzogen. Leben wie wir es kennen wäre nicht mehr möglich.

Den Abschluss bildete ein überraschender Vortrag des Physikers und Statistikers Ekkehard Schulze. Dieser hatte sich darüber verwundert, dass in der „Bibel der Klimawissenschaft“ dem 4. IPCC Bericht AR4 munter Äpfel mit Birnen verglichen wurden, indem z.B zeitbezogene Emissionswerte des CO2 mit Absolutwerten verglichen wurden. Hier am Bespiel des geschätzten anthropogenen Anteils an der Zunahme der CO2 Konzentration. Um diese methodisch falsche Zuordnung richtig  zu stellen untersuchte Schulz die typischen Verhältnisse der Mischung der CO2 Isotopen (hier C13) bei den verschiedenen Emissionsquellen des CO2. Diese Verhältnisse – sozusagen die Fingerabdücke des CO2- müssten sich ja in der Veränderung der CO2 Konzentration wiederfinden. Der Vortrag wurde dann etwas komplizierter. Jedoch war sein Ergebnis eindeutig:

„Die IPCC These über einen Zusammenhang zwischen CO2 Emissionen aus fossiler Verbrennung und einer Abnahme der C13 Verhältnisse im atmosphärischen CO2 lässt sich nicht belegen“.

Denn im Zeitraum von 1980 bis 2010 ergibt sich ein Anteil (des fossilen CO2) von nur 6 % (3 ppm) an der Zunahme, von 1850 bis 2010 insgesamt ein solcher von nur 11% (11 ppm).

Das bedeutet, der Anteil des anthropogenen CO2 aus fossilen Quellen auf die CO2 Konzentration der Atmosphäre ist vernachlässigbar.

EIKE Präsident Holger Thuss verwies zum Abschluss auf die geplante große V. internationale Klima- und Energiekonferenz vom 30. 11 bis 1.12. 2012 in München. Und auf die soeben erschienenen EIKE Bücher  von Günter Keil „Die Energiewende ist schon gescheitert“ ) und von Edgar Gärtner „Öko-Nihilismus 2012 – Selbstmord in Grün“

Michael Limburg EIKE




Solarzellenproduktion und Treibhausgasbelastung: 23-tausendmal schlimmer als CO2

Photovoltaik rettet das Klima nicht

Ganz im Gegenteil. Bei der Produktion der schwarzen Solarzellen werden Spurengase in die Atmosphäre emittiert, die – wenn es dann stimmen würde mit der Klimawirksamkeit des CO2 – noch viel wärmewirksamer im globalen Maßstab sind, als das grün verteufelte und für das Leben auf der Erde unabdingbare Spurengas CO2.

In seinem neuen Buch: Green Illusions. The Dirty Secrets of Clean Energy and the Future of Environmentalism befaßt sich der Autor Ozzie Zehner mit einigen Mitgliedern aus der Gruppe der atmosphärischen Spurengase, die so unaussprechliche Namen haben wie: Hexafluorethan, Stickstofftrifluorid, Schwefelhexafluorid. Vielleicht sind sie schon wegen ihrer Namen bei den grünen Vorkämpfern für "saubere Energie" nicht gerne gesehen. Denn schmutzig sind sie alle drei, und das nicht so knapp.

Ozzie Zehner, der Autor, arbeitet derzeit an der University of California in Berkeley als Gastwissenschaftler. „Green Illusions” legt dar, wie die Solarindustrie zu einem der größten Atmosphärenverschmutzer mit Hexafluorethan (C2F6), Stickstofftrifluorid (NF3) und Schwefelhexafluorid (SF6) wurde. Angesichts dieser drei, bei der Solarzellenherstellung eingesetzten potenten Treibhausgase, sieht das menschengemachte CO2 harmlos aus.

Hexafluorethan hat eine zwölftausendmal höhere globale Erwärmungskraft als CO2, so das IPCC (Intergovernmental Panel on Climate Change). Es wird zu 100 Prozent vom Menschen erzeugt und hält sich zehntausend Jahre in der Atmosphäre. Stickstofftrifluorid ist 17-tausendmal stärker als CO2 und Schwefelhexafluorid, das schlimmste Treibhausgas, ist mehr als 23-tausendmal so bedrohlich.

Grafik: Anstieg der Sulfurhexafluoride in den vergangenen 14 Jahren. Die Y-Achse ist in ppt = Parts per Trillion skaliert.

(Anm. d. Ü: Mehr zu den Mauna Loa Messungen hier.)

Die PV-Industrie ist einer der am stärksten wachsenden Emitter dieser Gase, die sich nun messbar innerhalb der Atmosphäre ansammeln, wie die amerikanische National Oceanic and Atmospheric Administration (NOAA) mitteilte. Einer NOAA-Studie zufolge steigt die atmosphärische Konzentration von Schwefelhexafluorid exponentiell an. Ein anderes Papier aus dem fachbegutachteten Journal Geophysical Research Letters dokumentierte einen jährlichen 11-prozentigen Anstieg von Stickstofftrifluorid.

"Wenn die PV-Produktion ansteigt, steigen mit ihr auch die Nebenwirkungen," meinte Zehner. "Noch schlimmer ist, dass es kein Anzeichen dafür gibt, dass die Solarzellen in den USA fossile Treibstoffe ersetzen." Zehner behauptet zwar, dass der Einsatz von alternativen Energien die Endverbraucherpreise immer mehr nach unten drücke und damit die Nachfrage anheize. Aber "es ist ein Bumerang," meinte er, "je mehr wir alternative Energien ins Netz drücken, umso höher wird der Verbrauch und der fällt uns dann auf den Kopf. In der Vergangenheit haben wir den ansteigenden Verbrauch durch Zubau von fossil befeuerten Kraftwerken abgedeckt."

Zehner sprach sich stattdessen für eine höhere Energiebesteuerung und Energieeinsparung aus. Er meinte, dass selbst die teuersten Optionen der CO2-Abscheidung früher wettbewerbsfähig würden, als die heutige Solarzellen-Technik.

Weiter sagte er: „Wenn wir den CO2-Ausstoß begrenzen wollen, sollten wir unsere Zeit und unser Geld diesen Optionen zuerst widmen; auf Solarzellen zu setzen, scheint eine teuere und verschwenderische Strategie zu sein. Es ist kaum vorstellbar, dass die Erhebung von Steuern von der Arbeiterschicht gerechtfertigt sein könnte, damit der Aufbau von Steinzeit-PV-Anlagen in den Millionärsvorstädten von Arizona und Kalifornien bezahlt werden kann.“ http://GreenIllusions.org

“Green Illusions: The Dirty Secrets of Clean Energy and the Future of Environmentalism” (Grüne Illusionen: Die schmutzigen Geheimnisse der Sauberen Energie und die Zukunft des Umweltschutzes) ist ein "mutiger Blick in den Hinterhof der Grünen Technik und eine Sammlung von erfrischend einfachen Ersatzlösungen”, urteilte die Kirkus Reviews.

Das Wichtigste aus “Green Illusions” und die Biografie des Autors hier: http://GreenIllusions.org

Quelle: University of Nebraska Press

Ozzie Zehner: Green Illusions. The Dirty Secrets of Clean Energy and the Future of Environmentalism. University of Nebraska Press, Juni 2012
(Grüne Illusionen: Die schmutzigen Geheimnisse der Sauberen Energie und die Zukunft des Umweltschutzes)

University of Nebraska Press | ISBN: 978-0-8032-3775-9 | $29.95 | June, 2012 | 439 pages | 6×9 inches | Non-profit

Kontakt:
Ozzie Zehner, Author
(415) 501-0073
Acacia Gentrup, Publicity Manager
(402) 472-3581
University of Nebraska Press
zehner@greenillusions.org | agentrup2@unl.edu
http://GreenIllusions.org




Wissenschaft kontra AGW-Propaganda in North Carolina

Bild rechts: Das Staatssiegel von North Carolina (Photo credit: Wikipedia)

Der Streit dreht sich um eines der AGW-Hauptschlachtfelder: dem Anstieg des Meeresspiegels (Sea Level Rise SLR). Nun fügt es sich, dass NC über eine lange Küstenlinie verfügt, die inzwischen zum Epizentrum in den USA zu diesem Thema geworden ist.

Die Kurzversion lautet, dass dies vor vielen Jahren angefangen hat, als eine Staatliche Agentur (Coastal Resource Commission: CRC) ein 20 Köpfe starkes „wissenschaftliches Panel“ ausgewählt hat, um die Lage in NC hinsichtlich des SLR bis zum Jahr 2100 abzuschätzen. Dies hätte ein sehr nützliches Projekt sein können, wenn das Personal ausgewogen ausgewählt worden wäre und die Abschätzung des Panels wissenschaftlichen Standards gefolgt wäre. Bedauerlicherweise war beides nicht der Fall, und das Projekt sprang schon bald aus den Gleisen und landete in den Gräben der politischen Agenda.

In ihrem Bericht aus dem Jahr 2010 kam das Panel zu dem Ergebnis, dass NC einen Anstieg des Meeresspiegels um 39 inch [ca. 100 cm] bis zum Jahr 2100 erwarten könne. Ihre Ergebnisse fußten auf einer Studie von Stefan Rahmstorf aus dem Jahr 2007 und erwähnte nicht eine einzige Studie, die eine andere als die Rahmstorf’sche Sichtweise vertrat. Kurz nach Veröffentlichung des Berichtes begannen staatliche Agenturen damit, küstennahe Gemeinden zu bereisen und sie darauf hinzuweisen, dass sie GROSSE Änderungen vornehmen müssen (Erhöhung von Straßen und Brücken, Eigentum umwidmen, Flutkarten zu Versicherungszwecken neu zeichnen usw.)

Als unabhängiger Wissenschaftler wurde ich durch die Verwaltung meines an der Küste gelegenen Landkreises dringend gebeten, diesem Report eine wissenschaftliche Perspektive zu verleihen. Obwohl ich nicht einmal ein SLR-Experte war, erkannte ich sofort, dass dieses Dokument ein klassischer Fall von Confirmation Bias [etwa: Verzerrung durch Vorfeststellung] war, da darin viele wissenschaftliche Standards verletzt worden sind. Um aber mit der Materie vertrauter zu werden, bat ich etwa 40 internationale SLR-Experten (Ozeanographen usw.) um eine Stellungnahme.

Ich sammelte und ordnete ihre Antworten zu einer Antwort auf den Bericht des Panels, die ich eine Kritik nannte.

In diesem 33-seitigen Dokument wurde dargelegt, wie wirkliche Wissenschaft funktioniert. Danach ging ich durch das 16-seitige CRC-Dokument, Zeile für Zeile. Dabei fand ich zahlreiche fadenscheinige Behauptungen, unbelegte Vermutungen und fragwürdige Modelle. Es war nicht schön.

Es war während dieser Zeit, als ich ersucht worden bin, mit einer kleinen küstennahen Organisation zusammenzuarbeiten, die sich NC-20 nannte (es gibt 20 Küstenlandkreise in NC). Da man dort an wissenschaftlich fundierten Lösungen hinsichtlich der Küste von NC interessiert war (was ich auch vertrete), habe ich zugestimmt, deren wissenschaftlicher Berater und ein Mitglied zu werden (beides ehrenamtliche Tätigkeiten ohne Bezahlung).

Ursprünglich hatten wir Hoffnungen gehegt, dass der CRC-Bericht bestätigt werden könnte. Also trafen wir uns mit dem Vorsitzenden des CRC, erklärten ihm unsere Bedenken und übergaben ihm die Kritik. Es schien, als ob er dafür offen sei, und wir waren optimistisch, dass diese wichtige Angelegenheit in Ordnung gebracht werden könnte. Das erwies sich als Illusion, da keiner der Panel-Mitglieder uns je kontaktiert hatte, um über auch nur einen einzigen ihrer Fehler zu sprechen oder eine ausgewogenere Abschätzung vorzunehmen. Sie sollen sich schämen!

Danach forderten wir, unsere Kritik auf der SLR-Website der CRC zu posten, aber das haben sie abgelehnt. Soviel zur Präsentation von Fakten für die Einwohner von NC.

Auf der positiven Seite hat der Staat aufgrund unserer Einwände die Regeln und Verordnungen (jedenfalls vorübergehend) zurück genommen, mit denen der die Küstenlandkreise bedroht hatte. (BTW NC-20 bestreitet NICHT, dass es einen SLR geben wird. Die Höhe des Anstiegs in NC ist unbekannt, also sollte man auch keine ernst gemeinte wissenschaftliche Abschätzung der Lage in NC vornehmen. Was eine solche Einschätzung nach sich ziehen kann, wird im Abschnitt 1 der Kritik erläutert.)

Bei allen Auftritten des CRC erwecken die Mitglieder den Eindruck, dass das Prestige ihres wissenschaftlichen Panels den Tagessieg über den Emporkömmling NC-20 davontragen würde. Um hier nachzuhelfen haben sie eine intensive PR-Kampagne gestartet, um das Ganze in eine Wissenschaft-kontra-Objektentwickler-Angelegenheit zu verwandeln (mit der Wissenschaft natürlich auf ihrer Seite!) Hier steht ein Beispiel stellvertretend für viele erschienene Artikel, und hier ein Weiteres.

Es war während dieser Zeit, als ein Mitglied des CRC mir geschrieben und gesagt hat, dass sie der Kritik zustimmen und dass sie sich dafür entschuldigen, den Bericht des Panels abgesegnet zu haben. Das Mitglied stellte fest, dass das Panel durch ein paar Aktivisten angetrieben worden war, und dass alle anderen einfach mitgelaufen sind. Das war keine Überraschung, aber das eine Einzelperson den Mut hatte, sich zu entschuldigen, war erfrischend.

Wie auch immer, die Desinformationskampagne des CRC-Panels hat nicht funktioniert, da wir nicht locker ließen. Mehr noch, fast jeder, der unsere Kritik wirklich gelesen hatte, war danach auf unserer Seite. Ein Gesetzgeber, dem sie auch gefallen hat, hat uns aufgefordert, interessierten staatlichen Gesetzgebern im November 2011 eine Präsentation zukommen zu lassen. Diese Gelegenheit haben wir beim Schopf ergriffen, und die Entgegennahme war sehr positiv (siehe meinen Teil.)

Nicht lange danach hat das CRC-Panel seine Taktik geändert. Sie bestand jetzt darin, dem Bericht ein Addendum anzufügen und dann zu behaupten, dass man allen unseren Bedenken Rechnung getragen hätte. Wenn das doch nur so gewesen wäre! Ihr neunseitiges Dokument wurde mit Null Kontakt zu uns erstellt – was alles über den Ernst aussagt, den sie irgendeiner wissenschaftlichen Resolution zubilligen.

Ich machte darauf auf dem erfolgreichen früheren Weg weiter, übergab dieses neue Dokument an die internationalen SLR-Experten und bat um Kommentare. Wieder kamen diese Kommentare, so dass ich eine detaillierte 18-seitige Antwort zusammenstellen konnte, die ich Kommentar nannte. Auch diesen sandten wir direkt an den CRC mit der Aufforderung, es auf ihrer SLR-Website zu posten – was wir selbst auf unserer Website getan haben. (Es gab vom CRC keine Antwort, und wir warten immer noch darauf, dass sie es posten).

Das nächste, was geschah, war eine RIESIGE Überraschung!

Wir wurden darüber informiert, dass die staatlichen Gesetzgeber zutiefst verärgert waren, genau wie wir mit der Politisierung dieser technischen Einzelheiten – und dass sie vorhatten, die Antreiber der Agenda per Gesetz zu stoppen! Wow!

In diesem Fall war die SLR-Gesetzgebung von jemandem entworfen worden, der einen PhD in Ozeanographie hat. Der Hauptpunkt des Dokuments war, dass künftige SLR-Projektionen auf zuvor extrapolierten empirischen Daten basieren müssen. Mit anderen Worten, staatlichen Agenturen wird es nicht gestattet, eine Politik einzuführen, die auf Spekulationen über irgendeine mögliche Beschleunigung beruht!

Als Wissenschaftler mache ich mir immer Sorgen, wenn technische Angelegenheiten in ein Gesetz gezwungen werden. In diesem Falle jedoch ist ziemlich klar, dass gewisse NC-Agenturen kein wirkliches Interesse an echter Wissenschaft haben. Was war also zu tun? Ihnen die finanzielle Unterstützung zu entziehen ist eine Möglichkeit, aber damit könnte man das Kind mit dem Bade ausschütten. Der Austausch der problematischen Mutarbeiter bei der Agentur ist eine andere Option, aber dafür gab es keine praktische Logistik. Also wurden diesen Dogmatikern lediglich einige Beschränkungen auferlegt.

Es war nicht überraschend, dass der Gegenschlag auf dem Fuße folgte. Diese Evangelisten waren daran gewöhnt, dass es immer nach ihnen gegangen ist, und der Widerstand einiger Gesetzgeber gegen ihre Religion war eine unerwartete Entwicklung.

In ihrer Pein holten sie gegen jedermann aus, den sie für diese Blockade ihres Kreuzzuges verantwortlich machen konnten – einschließlich Sie und ich. Es gab zahlreiche Sprüche (einige davon national), in denen sich darüber beklagt wurde, dass „gute Wissenschaft“ durch ignorante Gesetzgeber torpediert wird. Sogar der Colbert Report hatte seinen Spaß damit.

Natürlich wurde kaum darüber berichtet, dass die Gesetzgeber tatsächlich versucht haben, die Einwohner von NC vor Akteuren zu schützen, die ihre Agenden als Wissenschaft maskieren. Das sind die Zeiten, in denen wir leben, wo das Gespräch billig ist und nur wenige verstehen, was Wissenschaft wirklich ist.

Schlimmer noch ist, dass tausende Wissenschaftler abseits stehen und kein Interesse daran haben, sich an wissenschaftliche Prinzipien oder Prozeduren zu halten. Die Lösung (meiner Ansicht nach) besteht darin, solchen Abweichlern ihre Grade abzuerkennen, genau wie ein Priester bei Verletzung seines Eids seines Amtes enthoben wird.

In jedem Falle folgt hier ein Auszug aus dem SLR-Gesetz von NC (H819), worin auch ein Link zum Download einer PDF-Version enthalten ist. Vorigen Freitag gab es eine kurze Anhörung vor dem Komitee (das interessante Video hier), bei dem diese Angelegenheit diskutiert und zur Abstimmung gebracht worden ist. Es wurde einstimmig verabschiedet.

So wie ich es verstehe, könnte der Senat von NC in Kürze über diese Sache abstimmen. Ich hoffe, dass sie nicht von ihrer wertvollen Objektivität abgebracht werden. Ich schreibe dieses (mit begrenzter Wortzahl und bearbeitet) Op-Ed, um einigen Desinformationen zu begegnen.

Einige nehmen an, dass diese Maßnahme durch den Prozess der Gesetzgebung kommt und dann von unserem Gouverneur durch Veto blockiert wird. Als Optimist hoffe ich, dass der Gouverneur nicht länger die grüne Konstitution füttern muss, und dass er stattdessen eine Botschaft aussenden kann, dass wirkliche Wissenschaft die Grundlage der Gesetzgebung des Staates sein sollte. Dies würde ihrer Gesetzgebung einen enormen positiven Schub verleihen.

John Droz, Jr. is a Physicist & Environmental Advocate; Morehead City, North Carolina

Link: http://wattsupwiththat.com/2012/06/11/science-vs-agw-advocacy-in-north-carolina/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Dies ist die Kurzfassung eines ausführlicheren Artikels hier. Dort steht am Ende auch etwas mehr über den Autor.




Energiewende ist politisch, nicht sachlich motiviert!

Als Folge davon bedurfte es nur noch eines Auslösers, um die Stimmung endgültig umschlagen zu lassen. Dieser war ein katastrophales Erdbeben mit nachfolgendem Tsunami in Japan. Zumindest das zweite Ereignis ist in Deutschland unmöglich. Die Zwanzigtausend Opfer dieser Naturkatastrophe waren den deutschen Medien kaum eine Erwähnung wert. Dagegen wurde die durch den Tsunami und unzureichende Sicherheitsvorkehrungen ausgelöste Havarie mehrerer Kernkraftwerksblöcke in Fukushima zu einem Ereignis stilisiert, das die deutsche Abkehr von der Stromerzeugung aus Kernkraft unabdingbar machen müsste.
Indessen ist bis heute in Fukushima kein einziges Menschenleben durch unzulässig hohe radioaktive Strahlung zu beklagen. Verantwortlich für die de finitive Entscheidung zur Aufgabe der Kernkraft hierzulande war schließlich eine von der Bundeskanzlerin Angela Merkel beauftragte Ethikkommission. Dieser gehörten ein Landes- und ein Erzbischof, sowie der Präsident des Zentralkomitees deutscher Katholiken an, aber kein einziger Energieexperte. Die Kommission befürwortete den internationalen Sonderweg Deutschlands hin zu einer elektrischen Energieerzeugung ausschließlich aus Wind und Sonne. Auf Grund der fachlichen Expertise der maßgebenden Kommissionsmitglieder darf hierbei von einem Schritt zurück in die Zeiten vor der Aufklärung gesprochen werden.
Die Aufgabe der deutschen Kernkraftnutzung ist sachlich nicht begründbar. Der Sicherheitsstandard deutscher Anlagen gehört weltweit zu den höchsten seiner Art. Die in Deutschland ausschließlich eingesetzten Leichtwasserreaktoren sind gegen eine Explosion (GAU) inhärent sicher, was der Öffentlichkeit unbekannt ist. Wir sind zudem unweit unserer Landesgrenzen von Kernkraftwerken benachbarter Nationen umgeben, so dass deutsche Sicherheitsvorkehrungen hier nicht mehr greifen. Von einem hypothetischen Störfall, der etwa vom französischen Kernkraftwerk Cattenom ausginge, wären sowohl das Saarland als auch das französische Lothringen gleichermaßen betro ffen.
Durch die Abkehr von der Kernenergie fehlt uns rund ein Viertel des bislang erzeugten Stroms. Wenn diese Menge wenigstens durch unverzüglichen Neubau von Kohlekraftwerken (Strom aus Gaskraftwerken ist zu kostspielig) ausgeglichen würde, ließe sich der durch das Abschalten von Kernkraftwerken entstandene volkswirtschaftliche Schaden noch in Grenzen halten. Dies ist aber von der derzeitigen Bundesregierung – zumindest offiziell – nicht vorgesehen. Hinzu kommen inzwischen Bürgerproteste gegen den Bau jedweder Art von neuen Kraftwerken. Der Neubau von Kohlekraftwerken wird allerdings kommen müssen, anderenfalls gehen hierzulande die Lichter aus und die Produktion wird zum Stillstand kommen. Mit Strom aus Wind, Sonne und Bioenergie ist die Versorgung einer Industrienation wie Deutschland grundsätzlich nicht möglich. Dennoch setzt die derzeitige Regierungskoalition mit der Energiewende auf diese alternativen Methoden der Stromerzeugung. Bis zu 80% Anteile und mehr an der Gesamtstromerzeugung soll mit grünem Strom in wenigen Jahrzehnten erreicht werden. Kann dies gelingen, wenn eine ganze Nation an einem Strang zieht?
Die Antwort lautet de finitiv nein, denn gemäß naturwissenschaftlichen Gesetzen und allen technischen Regeln sind Windräder, Photovoltaik und Biomasse für die Stromerzeugung einer Industrienation auf großer Skala grundsätzlich ungeeignet. Dieser Mangel ist mit keiner Art von technischem Fortschritt behebbar. Naturgesetze lassen sich nun einmal auch von der Politik nicht aus den Angeln heben.

Prof. Dr. Horst-Joachim Lüdecke, Dipl.-Physiker)

EIKE Pressesprecher

zuerst erschienen auf PI und dort in gesamtem Umfang zu lesen hier




Fotos aus den dreißiger Jahren: Grönland-Gletscher haben sich damals schneller zurück gezogen als heute…

Bild rechts: Wir machen uns keine Sorgen um den steigenden Meeresspiegel. Wir sitzen in einem Wasserflugzeug.

Die betreffenden Photos wurden auf der 7. Thule-Expedition nach Grönland unter Leitung von Dr. Knud Rasmussen im Jahre 1932 aufgenommen. Die Forscher waren mit einem Wasserflugzeug ausgerüstet, mit dem sie Luftaufnahmen von Gletschern entlang der arktischen Inseln machten.

Nach der Rückkehr der Expedition wurden die Photos genutzt, um Karten der Gegend zu zeichnen. Diese wurden dann in Dänemark archiviert und danach Jahrzehnte lang vergessen. Bis vor einigen Jahren internationale Forscher bei der Suche nach Informationen über die grönländische Geschichte über diese Karten gestolpert sind.

Fasst man die Bilder zusammen, zeigen sie Professor Jason Box zufolge eindeutig, dass die Gletscher in der Region in den dreißiger Jahren sogar schneller abgeschmolzen sind als heute. Box arbeitet am Byrd Polar Research Center an der Ohio State University.

Es besteht ein erhebliches wissenschaftliches Interesse am grönländischen Eisschild, da er im Gegensatz zur arktischen Eiskappe auf Land liegt: sollte er also schmelzen, könnte es zu einem ernsten Anstieg des Meeresspiegels kommen (obwohl jüngste Forschungen belegen, dass dies nicht auf der Agenda steht).

Es ist schwierig, genau zu beurteilen, was mit dem Grönlandeis insgesamt passiert, und in jüngster Zeit gab es sehr unterschiedliche Schätzungen. Allerdings sagt Professor Box, dass viele Gletscher an den Küsten im vergangenen Jahrzehnt begonnen haben, sich wieder zurückzuziehen.

Es sieht jetzt so aus, als hätten sich die Gletscher vor achtzig Jahren sogar noch schneller zurückgezogen: aber niemand hatte sich darum Sorgen gemacht, und nachfolgend hat sich das Eis regeneriert. Box theoretisierte, dass dies wahrscheinlich an der Schwefelverschmutzung der Atmosphäre durch die Menschheit liegt, vor allem durch das Verbrennen von Kohle und Treibstoff. Es ist bekannt, dass dies einen abkühlenden Effekt hat.

Unglücklicherweise führen atmosphärische Schwefelemissionen auch zu anderen Dingen wie saurem Regen, und als Folge gingen reichte westliche Nationen in den sechziger Jahren massiv gegen Sulfate vor. Prof. Box glaubt, dass dies zu einer Erwärmung seit 1970 geführt hat, was bis etwa zum Jahr 2000 zum Rückzug der Gletscher geführt hatte.

Andere Wissenschaftler haben jüngst gesagt, dass der Temperaturanstieg in der Arktis im späten 20. Jahrhundert seine Ursache zum großen Teil in der Gesetzgebung zu saubererer Luft hat, mit der der saure Regen bekämpft werden sollte: Einige gingen sogar so weit zu sagen, dass die rapide kohle- und dieselgestützte Industrialisierung in China derzeit die weitere Erwärmung verhindert.

Wieder andere Wissenschaftler haben im Gegensatz zu Prof. Box ein ganz anderes Bild der Temperaturen in der Arktis gezeichnet. Darin gab es Wärmespitzen in den dreißiger und fünfziger Jahren sowie Abkühlung bis zu den neunziger Jahren. Außerdem hatte das von Rasmussen beobachtete Abschmelzen bereits in den vierziger Jahren des 19. Jahrhunderts eingesetzt, also noch bevor die industrielle Revolution und die vom Menschen verursachten Kohlenstoffemissionen überhaupt begonnen hatten.

Wie auch immer, die neuen Informationen der alten dänischen Bilder fügen dem Gegen­stand ein paar weitere Daten hinzu. Die neue Studie von Box und seinen Mitautoren wird von Nature Geoscience hier veröffentlicht. ®

Lewis PageGet more from this author

Link: http://www.theregister.co.uk/2012/06/02/1930s_greenland_glacier_retreat/

Übersetzt von Chris Frey EIKE