1

Fast 400 ppm erreicht: Das böse Kohlendioxid – der Zerstörer allen Lebens?

Aber ich schweife ab. Tun wir mal so, als sei der CO2-Gehalt nicht nur am Vulkan „sehr“ hoch, sondern weltweit. Ach, waren das noch Zeiten, als ich zur Schule ging (lang, lang ist es her) und dort im Fach Biologie genauestens über die Photosynthese aufgeklärt worden bin! Komisch, ich erinnere mich noch an das Grundprinzip, dass nämlich die Pflanzen mit der Energiequelle Sonne das CO2 in der Luft aufgespalten haben. Den Kohlenstoff haben sie sich einverleibt und den Sauerstoff in die Atmosphäre geblasen. (Nebenbei: Die Pflanzen vergingen und liegen heute als Kohle in der Erde. Das Verbrennen von Kohle ist also grundsätzlich über einen kleinen Umweg die Erzeugung von Solarstrom pur! Anders gesagt, der perfekte Speicher für Sonnenenergie. Oder?)

Offenbar haben aber viele Zeitgenossen genau dieses Prinzip vergessen. Und die lautesten Schreihälse, wie es scheint, am ehesten, allen voran das Flaggschiff der Print-Medien aus Bayern. Was dieses linksideologische, zum Kampfblatt mutierte Druckerzeugnis heutzutage dazu von sich gibt, hätte bei jedem Pennäler, der so etwas in einer Bio-Klausur schreiben würde, sofort die Note 6 nach sich gezogen.

Immer diese Abschweifungen! Heute soll dieses CO2 den Medien zufolge das Klima so stark aufheizen, bis die Erde überkocht. Und es gibt ja noch andere Tollheiten! So sagt man ja indirekt, dass das CO2 nur zeitweise auf die Temperatur wirkt. Oder wie sonst ist erklärlich, dass der CO2-Gehalt so hoch steigt, die Temperatur aber seit der Jahrtausendwende gar nicht daran denkt, es dem CO2 gleich zu tun. Später soll der Effekt dann wieder wirken. Das verstehe, wer will! Das also soll Wissenschaft sein…

Viele Spezies sollen aussterben, heißt es, auch Pflanzen. Obwohl die das zusätzliche CO2 natürlich gut brauchen können! Sie schaffen mehr Photosynthese. Eigentlich müsste ihnen das doch bekommen. Hat man mal die Menschen in den Hungerländern gefragt, was es für sie bedeutet, wenn ihre durch ständige widrige Klimabedingungen behinderte Erzeugung pflanzlicher Nahrungsmittel durch zusätzliches CO2 etwas leichter wird? Und ausgerechnet diese Menschen sollen am stärksten die Emission dieses Lebenselixiers einschränken.

Aber ich schweife schon wieder ab. Zurück zur Meldung! Minutiös wird aufgelistet, was das zusätzliche CO2 direkt oder indirekt anrichten soll. Nirgends jedoch wird erwähnt, welch unabdingbare Voraussetzung dieses Spurengas in der Atmosphäre für uns alle ist. Fast scheint es, als sehnten sich die Alarmisten ihren und unseren Untergang herbei, nur um endlich bewiesen zu haben, dass sie recht haben. Frei nach der Devise: Operation gelungen – Patient tot.

Und dann kommt jetzt für diese Herrschaften eine verheerende Nachricht: Dem Internet zufolge soll der CO2-Gehalt nun doch nicht so hoch sein wie zuerst angegeben (Quelle). Oh Mann, was für ein Tollhaus!

Aber auch für mich ist das eine schlechte Nachricht. Ich wünschte mir noch mehr davon in der Luft – für noch besseres Pflanzenwachstum (so wie es in allen Gärtnereien der Welt in den Gewächshäusern auch gemacht wird), noch bessere Lebensbedingungen, noch

Vollends pervers wird es jedoch, wenn der steigende CO2-Anteil dazu genutzt wird, noch mehr Pflanzen zur Benzinherstellung anzubauen.

Alarmierend wie in der Meldung angegeben ist nicht der Anstieg des Kohlendioxids, sondern der geistige Niedergang des gesunden Menschenverstandes. Sehr alarmierend!

Schöne neue Klima-Energie-Welt!

© Chris Frey




Wie die Grünen Ihnen in die Tasche langen

Wir werden ausgeraubt, wenn die Regierung die Förderung und Extraktion von Energiequellen hintertreibt, die deren Kosten drastisch senken würde. Wir werden ausgeraubt, wenn die Regierung (in Gestalt der EPA) konspiriert, um Kohlekraftwerke durch exzessive Regulationen aus dem Geschäft zu drängen, oder wenn sie erklärt, dass Milch eine Form von „Öl“ ist, die man regulieren muss.

Eine besonders unerhörte Form des Raubs ist Äthanol. Im März hieß es in einem Editorial der Washington Times, dass „nur die Regierung mit einer Blase in einer Handelsware aufwarten kann, die rein spekulativ ist … erneuerbare Identifizierungs-Nummern sind Vorschüsse auf die Äthanol-Produktion, die von der Environmental Protection Agency EPA kreiert worden sind, um Unternehmen zu helfen, öffentliche Quoten für die Erzeugung eines Treibstoffes zu erreichen, der noch nicht einmal existiert“.

Nicht zufrieden mit der Einforderung des Abfalls eines grundlegenden Nahrungsmittels, Mais, erfordert diese andere vermeintliche Quelle Raffinerien, um mit einer „erneuerbaren Identifizierungs-Nummer zu handeln, damals zum Preis von 1,10 Dollar, 500% über den  drei Cent, die es vor ein paar Monaten gekostet haben würde. Diese Kosten werden an jeden weiter gereicht, der seinen Tank füllt.

Die Kosten des Mais’, der von den Esstischen genommen wird, liegt in den Milliarden und erzeugt weltweit Knappheit. Bevor der Renewable Fuel Standard eingeführt worden ist, lag der Preis für Mais zwischen 2 und 3 Dollar pro Bushel. Der Preis für Mais hat seitdem einen Spitzenwert bei 7 Dollar pro Bushel erreicht, und Sie zahlen dafür an der Zapfsäule und im Supermarkt, ist doch Mais ein integraler Bestandteil tausender Nahrungsmittel.

Äthanol wird gerechtfertigt, weil es CO2-Emissionen reduzieren hilft, aber in Wirklichkeit erzeugt es mehr davon bei der Verarbeitung, und es reduziert die Reichweite, die eine Gallone [= ca. 4 Liter] Benzin ermöglicht. Noch schlimmer, die Motoren aller neuen Autos und Lastwagen werden beschädigt. Es ist so korrosiv, dass man es nicht durch Pipelines jagen kann. Und die EPA möchte den Anteil im Benzin steigern, und zwar von zehn auf fünfzehn Prozent.

Nicht zufrieden damit, eine globale Erwärmung abzuwehren, die es während der letzten 16 Jahre gar nicht mehr gegeben hat, hat die EPA vor Kurzem eine “Tier 3” rule ins Spiel gebracht, um Schwefelgehalt im Benzin weiter zu reduzieren. Dies würde die Kosten für die Raffinierung von Benzin bis zu 9 Cent pro Gallone erhöhen.

David Rothbard und Craig Rucker, Mitbegründer von CFACT, haben kürzlich unter Hinweis auf die Politik der Obama-Administration angemerkt, dass „alles oben liegende“ zu oft bedeutet über Grund und wenig oder gar nichts unter der Erdoberfläche, also zum Beispiel viel Wind, Sonne, Biotreibstoffe und Holz – und wenig oder gar kein Öl, Gas, Kohle oder Uran. Tatsächlich benutzt die Obama-Administration in einem Ausmaß wie keine zuvor ihre gesetzgeberische Macht, um die konventionelle Energiegewinnung zu verzögern, zu behindern, überzuregulieren, zu bestrafen und in den Bankrott zu treiben, obwohl diese Energie nachgewiesenermaßen die Grundlage unseres modernen Lebensstandards ist.

Die Übervorteilung des amerikanischen Steuerzahlers sprengt jede Vorstellung. Das Institute for Energy Research berichtete vor Kurzem, dass Präsident Obama 11,45 Millionen Dollar für jeden neu geschaffenen „grünen Arbeitsplatz“ ausgegeben habe. Seit dem Jahr 2009, Obamas erstem Jahr im Amt, hat das 26 Milliarden Dollar-Programm des Department of Energy (DOE) gerade mal 2298 dauerhafte Arbeitsplätze geschaffen. Das DOE hat Milliarden verschwendet für so genannte grüne Unternehmen – Sonne und Wind – wobei sich herausgestellt hat, dass deren Investoren erhebliche Mittel für die politische Kampagne Obamas zur Verfügung gestellt hatten. Das grenzt an Kriminalität.

Seit dem Jahr 2008, nach dem Platzen der Immobilienblase und dem nachfolgenden gewaltigen wirtschaftlichen Abschwung, der schätzungsweise zu 26 Millionen Arbeitslosen führte, hat die Obama-Administration alle Öl- und Erdgas-Pachtverträge gestrichen, während sie gleichzeitig ein Embargo für neue Pachtverträge auf Ländereien im öffentlichen Besitz verhängt hat.

Der Regierung gehören etwa 28% des Landes, das meiste davon in den energiereichen westlichen US-Staaten. Sie kontrolliert auch die Pachtverträge zur Öl- und Erdgasförderung auf dem Kontinentalschelf, das Flachwassergebiet zwischen dem Festland und dem tiefen Ozean.

In scharfem Kontrast dazu hat sich das Bohren auf Ländereien in Privatbesitz als Goldgrube erwiesen. Falls die gesamte Kapazität der technisch verfügbaren Öl- und Erdgasvorräte gefördert werden, würden die USA nicht nur kein Öl mehr zu importieren brauchen, sondern würde zum Ölexporteur!

Den meisten Amerikanern ist in keiner Weise bewusst, was die Regierung da macht, aber alle werden davon betroffen, wenn die Kosten des Transportwesens und für Strom weiterhin aus keinem anderen Grund steigen, als infolge der Regierungspolitik und der Umweltpropaganda über „Klimaänderung“ und „Verschmutzung“.

Der griechische Mythos von Kassandra erzählt vom Gott Apollon und seinem Geschenk der Prophetengabe an Kassandra, um ihre Zuneigung zu gewinnen. Als sie sich ihm aber nicht zuwenden wollte, bestrafte er sie, indem er die Menschen dazu brachte, alle ihre Vorhersagen, obwohl grundsätzlich richtig, als Lügen anzusehen. Das Geschenk wurde zum Fluch.

Organisationen wie CFACT und Andere sagen den Amerikanern, wie es ist, aber zu viele sind dem gegenüber taub. Die Folge ist, dass unser Präsident die Wirtschaft torpediert und die Kosten für Energie und Versorgung erhöht mit der Begründung der Lügen, die die Grünen von sich geben.

© Alan Caruba, 2013

Link: http://www.nationalanxietycenter.blogspot.de/2013/05/how-greens-pick-your-pocket.html

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Autor Alan Caruba beschreibt hier die Verhältnisse in den USA. Die Parallelen zu uns hier in Deutschland sind aber nur zu offensichtlich. Daher habe ich diesen Text hier übersetzt.




Abschied: Klima-Katastrophe und CO2-Wahn im freien Fall – weltweit !

Daher  –   es ist Zeit für einen Fakten-Check :

(1)

Temperatur: Seit 15 Jahren Ende der Erderwärmung 

In den englisch-sprachigen Medien wird das schon seit einigen Jahren offen ausgesprochen, z.B.: "Global warming nonsense gets a true cold shoulder" schreibt The Daily Telegraph[2], oder: "Forget global warming" titelt Daily Mail[3].

Nun hat die skeptische Debatte auch die Medien in Deutschland erreicht[4], z.B. schreibt DER SPIEGEL[5]:

"…. Doch längst hat sich herumgesprochen, dass sich das Klima zuletzt anders entwickelt hat als vorhergesagt: Seit 15 Jahren stockt die Erwärmung, der Aufwärtstrend der globalen Durchschnittstemperatur hat sich seit 1998 nicht fortgesetzt. ‚Der Stillstand hat zu der Annahme geführt, die globale Erwärmung habe aufgehört‘, räumt die Nasa ein."

Oder an anderer Stelle[6]: "Jetzt offiziell:  Es gibt keine globale Erderwärmung".

Alle diese Aussagen basieren auf  den Temperatur-Auswertungen der IPCC-nahen Institute, wie z.B. in der Abbildung 1.

Abbildung 1

Globale Temperatur-Auswertungen des Britischen MetOffice[7] Die blaue Kurve zeigt den übergreifend gemittelten Trend der Temperatur-Kurve zu kühleren Werten, der eingefügte braune Pfeil den Trend der letzten 15 Jahre;

Dazu ist noch anzumerken: Die meteorologischen und klimatologischen Elemente zeigen von Natur aus starke Schwankungen, ein so genanntes "Rauschen". Daher sind auch Schlussfolgerungen zu Trends oder zu Trend-Umkehr statistisch mit einem "Signifikanz-Test" zu prüfen. Dazu wird in dem w.o. zitierten Aufsatz gesagt:

"Bislang meinten Wissenschaftler, vierzehn Jahre ohne weitere Erwärmung seien mit ihren Prognosen in Einklang zu bringen – nicht aber "15 Jahre oder mehr", wie Nasa-Forscher vor vier Jahren im Fachmagazin "Bulletin of the American Meteorological Society" konstatierten." Überträgt man diese NASA-Aussage auf die aktuelle Situation, so liegt die nunmehr seit 15 Jahren andauernde Phase des Erwärmungs-Stops außerhalb des "Rauschens" von Klima und  Klimamodellen. Damit wird zugleich die immer wieder propagierte Korrelation mit dem anhaltenden CO2-Anstieg und damit letztlich eine maßgeblich anthropogene Ursache der säkularen Erwärmung des 20. Jahrhunderts in Frage gestellt.

F a z i t:

Der Geophysiker Prof. Larry Bell[8] bringt es in einem Übersichts-Artikel auf den Punkt[9]:

"Das Klima weigert sich hartnäckig, mit den Erwärmungs-Alarmisten zusammen zu arbeiten".

(2)

Meeres-Spiegel: Stetige Verlangsamung des Anstieges

Abbildung 2

Meeres-Spiegel-Trend  global ; Satelliten-Messungen[10] 1993 – 2012

Der Anstieg verlangsamt sich (roter Pfeil);

Das in Abbildung 2 dargestellte Ergebnis ist eindeutig: Der seit der letzten Eiszeit schon Jahrtausende währende Meeresspiegel-Anstieg verlangsamt sich global.

Das gleiche Ergebnis zeigen für die Deutsche Nordseeküste die Daten der REKLIM-Studie[11] norddeutscher Forschungs-Institute: "Die Auswertung[12] zeigt: Auch bei den Pegeln gibt es einen zu den Satelliten-Daten vergleichbaren Trend zur Abschwächung des Meeres-Spiegel-Anstieges, und zwar mit einer statistisch recht "robusten" Datenreihe von ca. 160 Jahren ….".

So sagt auch die Landesregierung Niedersachsen[13]:

"Klimawandel nicht bemerkbar: Für einen steigenden Meeresspiegel an Niedersachsens Nordseeküste als Folge des Klimawandels sieht die Landesregierung keine Anzeichen.  …. Trend des Anstieges bei unverändert 25 cm je Jahrhundert. Ein schnellerer Anstieg sei nicht zu beobachten."

…und der Landesverband NLWKN[14] 

“Allen Diskussionen und Horrorszenarien zum Trotz : Einen wissenschaftlichen Beleg für einen massiven Anstieg des Meeresspiegels für den Zeitraum bis 2100 gibt es nicht.“

Gegen alle diese Fakten textet die regionale Presse[15] immer wieder Schlagzeilen solcher Art: "Versinkt Bremerhaven im Meer?" … untermalt mit einem Bild, auf dem in Bremerhaven gerade mal noch das Hafen-Hotel aus der Nordsee oben heraus schaut. Wo bleiben die Stimmen der etablierten Wissenschaftler, die sich gegen eine solche Hysterie-Formung der Bürger wenden, die so einen Unfug in der Zeitung richtig stellen ?!

(3)

Extremwetter: Weltklimarat IPCC[16] findet keine Trends

Einer "gläubigen" Öffentlichkeit wird von einigen Klima-Forschern, insbesondere aber von den Medien suggeriert[17]: "Die Zahl verheerender Stürme, Regenfälle und anderer wetterbedingter Naturkatastrophen hat sich in Deutschland seit den 1970er Jahren mehr als verdreifacht – und wird auch in Zukunft zunehmen …"

Das ganze Gegenteil zeigen die Messungen und Statistiken der Wetterdienste, in Deutschland wie auch weltweit! Schon der IPCC-Bericht von 2001 findet keine Trends zu mehr Extrem-Wetter[18]:

“Neue Analysen der Änderungen bei lokalen Unwettern (Tornados, Gewittertage, Blitze und Hagel) in einigen ausgewählten Regionen liefern keinen zwingenden Beweis für weitverbreitete systematische langfristige Änderungen“.

Zehn Jahre später, vor der Klima-Konferenz in Durban 2011, erstellte das IPCC sogar einen Sonderbericht (SREX) zum Thema Extrem-Wetter, mit dem gleichen Ergebnis[19]:

"… noch immer können die Forscher einzelne Extremereignisse nicht wirklich auf den menschlichen Einfluss zurückführen…"

Und a.a.O. gibt es eine Fülle weiterer Aussagen, die sehr zur Versachlichung der öffentlich vollkommen überzogenen Katastrophen-Debatte beitragen:

"Der Sonderbericht des IPCC spricht die Unsicherheiten recht klar aus und wird dafür von einigen Klima-Aktivisten bereits scharf angegriffen" … "Wir vergessen in der ganzen Treibhausgas-Debatte, dass Fluten, Stürme und Hitzewellen sich auch ohne den Klimawandel ereignen.“

In einer anderen Übersicht[20] dazu heißt es:

"Über die Entwicklung der meisten anderen Wetterextreme (Anm.: außer Hitze und Dürre) jedoch kann die Wissenschaft keine befriedigenden Aussagen treffen. … Die Einschätzungen beruhen auf Meinungsumfragen unter Experten, sie haben also keine harte wissenschaftliche Basis."  … und schließlich a.a.O. :

"Die eigentliche Botschaft lautet: Über die meisten Wetterkatastrophen wissen wir zu wenig, um die Entwicklung vorhersagen zu können." 

Es gibt zahlreiche weitere Zusammenstellungen und Übersichten zu Extremwetter-Statistiken, das Ergebnis sieht fast immer so aus[21]:

"Nach 100 Jahren Erderwärmung (bis 1998) finden die Wetterdienstes dieser Erde keine Trends zu mehr Extremwetter. Warum sollte sich das in den kommenden Jahrzehnten ändern, noch zu, wo es seit 14 Jahren nicht mehr wärmer wird? Über das Klima der nächsten 100 Jahre darf weiter spekuliert und auch phantasiert werden, die Natur macht schon jetzt etwas anderes als die Modelle!".

F a z i t :  

Es bedarf noch nicht einmal der Analysen der als "Skeptiker" verfemten kritischen Wissenschaftler, um zu erkennen: Es gibt keine Trends zu mehr Extremwetter. Die IPCC-Berichte selber belegen das! 

(4)

Stürme: Abnehmender Trend bei Hurrikanen und Sturmfluten

Nicht alle tropischen Stürme entwickeln sich zu Hurrikanen, jedoch: Für beide ist ein abnehmenden Trend seit fast einem halben Jahrhundert dokumentiert, wie die Abbildung 3 zeigt.

 

Abbildung 3

Trend bei Hurrikanen und Tropischen Stürmen[22] ;

Pfeile und Textfelder eingefügt

Dazu sagt der Forscher Ryan Maue von der Florida State University[23]: "Global Tropical Cyclone ACE does not show an upward trend in communion with global temperatures.”

Hurrikan SANDY wurde in den Medien zum Klima-Signal erklärt. Was jedoch nicht erwähnt wurde[24]: "…erreichte ‚Sandy‘ die Kategorie 2 auf der fünfteiligen Hurrikanskala…", folglich war SANDY ein Wirbelsturm der zweit-niedrigsten Klasse. Eine hohe zerstörerische Wirkung hatte SANDY lediglich dadurch, daß er die Städte der US-amerikanische Ostküste erreichte; etwa einer von zehn Hurrikanen nimmt diese Bahn.

Die Sturm-Frequenz über dem Nordatlantik und der Nordsee zeigt im Zusammenhang mit den Schwingungen der Nordatlantischen Luftdruck-Oszillation NAO eine seit mehr als 100 Jahren bekannte unregelmäßige und bis heute unvorhersagbare Schwingung. Seit etwa 20 Jahren gibt es einen abnehmenden Trend bei Stürmen und Sturmfluten:

 

Abbildung 4

Statistik der Sturmfluten in Cuxhaven[25]

(Trend-Pfeil eingefügt) 

Dazu schreibt das BSH  Hamburg[26]: “Ein generell steigender Trend bei der Häufigkeit und Intensität von Sturmfluten als Vorbote des globalen Klimawandels ist gegenwärtig nicht erkennbar“ … “Schon jetzt sind Küstenschutz und Deiche so ausgelegt, dass sie auch höheren Sturmfluten Stand halten als den bisher eingetretenen“.

… und der Deutsche Wetterdienst sagt[27]: “Es lässt sich für Mittel- und Westeuropa bisher keine langzeitliche Zunahme von Stürmen an Stärke und/oder Häufigkeit nachweisen“ 

(5)

Mehr Dürren? Nein – Die Wüsten schrumpfen!

Dazu schrieb das Magazin National Geographic[28] in einem Bericht: "Wüstenausdehnung, Trockenheit und Verzweiflung  –  das ist es, was die Erderwärmung bereit hält für die meisten Teile von Afrika  –  zumindest das, was wir hören. Die sichtbar werdenden Tatsachen zeichnen eine sehr viel differenzierteres Bild  – eines, in welchem steigende Temperaturen eine Wohltat sein kann für Millionen von Afrikanern in den trockensten Gebieten des Kontinents."

…und w.a.a.O.: "Wissenschaftler sehen jetzt Signale, daß die Sahara und die angrenzenden Regionen ergrünen aufgrund zunehmenden Regens."

Das Gleiche berichtet das ZDF in ‚Abenteuer Wissen‘[29] : “…gebräuchliche Vorstellung“ "… die Wüsten werden wachsen   …und die Menschen vor dieser lebensfeindlichen Umwelt fliehen …" …“ Doch dieses Szenario stimmt nicht … Die Sahara nämlich wird feuchter und damit grüner werden als sie heute ist. Beweise dafür liefert die Wüste selbst – mitten in Libyen.“                                                 

Soweit der Befund in der Nord-Sahara. Das gleiche positive Bild ergibt sich ganz aktuell in der Südsahara, in der SAHEL-Zone[30]:

"Machtwechsel in der Savanne – Bäume gewinnen die Oberhand über Gräser … Weite Teile der afrikanischen Savanne könnten bis 2100 zu Wäldern werden. Dies geht aus einer Studie des Biodiversität und Klima Forschungszentrums und der Goethe Universität Frankfurt hervor, die heute in ‚Nature‘ veröffentlicht wurde. Die Ergebnisse deuten darauf hin, dass die Düngung durch den steigenden Kohlendioxid-Gehalt in der Atmosphäre in ganz Afrika zu einer dichteren Bewaldung führt, wenn ein bestimmter CO2-Wert überschritten wird … Hierdurch sinkt das Risiko einer Erschütterung des Erdsystems durch einen abrupten Vegetationswandel."

Und nicht nur steigender atmosphärischer CO2-Gehalt wirkt sich über die Photosynthese positiv für das Pflanzenwachstum aus, sondern auch die Niederschläge nehmen in den Trockengebieten zu[31]:

"Die Wüste lebt auf: In den 1980er Jahren war dieser Bereich der Sahara im Nordwest-Sudan noch eine trockene lebensfeindliche Einöde … Der Landstrich ergrünte in diesem Jahrzehnt, weil es deutlich mehr regnete – höchst wahrscheinlich dank der Klima-Erwärmung."

Auch in Deutschland gibt es einen säkularen Trend mit +10% mehr Niederschlägen[32]. Daher ist es verantwortungslos, wenn auch in der regionalen Presse solcherart Schlagzeilen abgedruckt werden[33]"Mitteleuropa wird zur Wüste, Afrika trocknet völlig aus", und an anderer Stelle[34]"Aufgrund von Wasserknappheit und Trockenheit kann es zu erheblichen Ernteeinbußen kommen." …so wird von der Presse immer wieder ohne Nachprüfung gegen die Fakten kolportiert, hier der Deutsche Bauernverband. 

(6)

Die Arktis schmilzt, die Antarktis legt zu

Genau das wurde kürzlich vom AWI-Forscher Prof. Peter Lemke kurz und klar festgestellt[35]: "Es wurde gemessen, daß das Eis in der Arktis rapide abgenommen hat. Gleichzeitig hat das Eis in der Antarktis zugenommen und die größte Ausdehnung seit mindestens 40 Jahren erreicht."

Während man an den Polen die Fläche der Vereisung mit Satelliten recht genau bestimmen kann, ist die Messung des Eis-Volumens sehr viel schwieriger. Das hängt insbesondere damit zusammen, daß die Eispanzer auf Grönland eine Mächtigkeit von 3 km und auf dem antarktischen Kontinent von 4 km haben. Abschätzungen mit verschiedenen wissenschaftlichen Methoden kommen zu diesem Ergebnis: Das Grönland-Eis verliert an Masse, das Eis auf dem antarktischen Kontinent legt zu[36]:

"Von 2003 bis 2008 hat der Massenzugewinn des antarktischen Eisschildes durch Schneefall den Massenverlust durch Eisabfluss um 49 Gigatonnen pro Jahr (2,5% des Inputs) überstiegen, wie ICEsat Laser-Messungen der Höhe des Eisschildes zeigen konnten."   

Die globale Eis-Gesamtbilanz ist eher positiv, denn andernfalls müsste sich der schon Jahrtausende währende Meeres-Spiegel-Anstieg beschleunigen, dieser verlangsamt sich jedoch seit Jahrzehnten (vgl. dazu oben unter "Meeres-Spiegel").

  

Abbildung 5 / icesat[37]

Die Antarktis: ein riesiger Eisblock, speichert 95% des globalen Süßwassers –

Tendenz: zunehmend; die grünen Linien verbinden Meßpunkte des Satelliten

Neuere Untersuchungen zeigen, daß alle diese Prozesse sehr langsam verlaufen[38]:

"Unsere Daten zeigen, dass es während der Eem-Warmzeit (Anm.: vor 125.000 Jahren) in Nordgrönland bis zu acht Grad Celsius wärmer war als heute“, sagt Projektleiterin Prof. Dorthe Dahl-Jensen von der Universität Kopenhagen. Dass der grönländische Eispanzer auf diesen Temperaturanstieg nicht so empfindlich reagiert habe, wie bisher gedacht, sei die gute Nachricht der Studie." …und w.a.a.O.: "Diese neuen Erkenntnisse sind wirklich aufregend. Sie widerlegen nicht nur alle Schreckensszenarien, denen zufolge der grönländische Eispanzer im Zuge einer Warmzeit im Nu verschwindet. Sie bestätigen zudem Modellrechnungen, die schon vor über einem Jahrzehnt am Alfred-Wegener-Institut gemacht wurden“, sagt Prof. Heinrich Miller, Mitautor der Studie und Helmholtz-Professor für Glaziologie am Alfred-Wegener-Institut."

F a z i t :  

Die Arktis schmilzt, die Antarktis legt zu: Eine Katastrophe ist weder das Eine noch das Andere!

(7)

Modelle: Nicht CO2 "ist Schuld", sondern Wasserdampf !

Einige Klima-Institute und IPCC propagieren eine Erderwärmung von 2…5…8  Grad für eine CO2-Verdoppelung. Was jedoch in der Öffentlichkeit nahezu unbekannt ist: Das kann CO2 aus physikalischen Gründen gar nicht leisten, was genau so auch in den Berichten des Weltklima-Rates zu lesen ist[39]:

"Bei ausschließlicher Betrachtung der im Labor messbaren Strahlungswirkung von CO2 ergibt sich eine Klimasensitivität von 1,2 °C. Es existieren jedoch Rückkopplungs-Effekte, darunter im Wesentlichen die Wasserdampf-Rückkopplung, die Eis-Albedo-Rückkopplung und Wolken. Daher liegen die möglichen und als wahrscheinlich angenommenen Werte höher, ein Wert um 3° wird heute als am wahrscheinlichsten angenommen." 

Die vom IPCC verwendete Wortwahl "…die möglichen und wahrscheinlich angenommenen Werte…" sagt es ganz klar: Es gibt große Unsicherheiten bei dieser Art Temperatur-Prognosen mit "angenommenen" Verstärkungs-Prozessen  – es handelt sich um Hypothesen!

Das bestätigt z.B. der Direktor des Küstenforschungs-Institutes Hamburg, Hans von Storch[40]: "Wir Klimaforscher können nur mögliche Szenarien anbieten; es kann also auch ganz anders kommen"  …und von Storch an anderer Stelle[41]:“Klimaforschung ist derzeit in einer postnormalen Situation. Die inhärenten Unsicherheiten sind enorm.“

Genau das zeigen nun auch vorab bekannt gewordene Texte und Abbildungen aus dem neuen IPCC-Bericht 2013/14, was schon jetzt bei den Klima-Alarmisten für einige Aufregung sorgt[42]: "Der durchgesickerten Entwurf von Teilen des 5. Zustandsberichts des IPCC hat die Fachwelt wie auch engagierte Beobachter aufgeschreckt und aufgeweckt. Man sprach sogar von einer ‚Bombe‘."

Im Einzelnen wird dort erkennbar[43] zur Temperatur-Prognose:

"Temperature development depicted in the draft of the coming IPCC AR5….. It is clear to see that the current temperature development lies in the lower range of the IPCC scenarios and that the temperature increase has not accelerated over the last years."

 

Abbildung  6

IPCC-Temperatur-Prognosen

gegenüber der Realität[44]

…und a.a.O. zur Meeres-Spiegel-Entwicklung:

"Sea level development depicted in the draft of the upcoming IPCC AR 5: The overall range of the four previous IPCC reports is shown along with the actual observed sea level plot (…). Clearly the current sea level rise has not accelerated and is in the lower range of the IPCC scenarios."

(8)

Ernüchterung bei den Klima-Alarmisten

Es wird kein internationales Klima-Abkommen geben. Dabei wird stets unterstellt, daß die außer-europäischen Industrie-Staaten nicht mit machen, weil sie ihre Wirtschaft nicht schwächen wollen. Das spielt eine Rolle. Ein darüber hinaus gehender Aspekt ist jedoch, daß in den großen Wissenschafts-Nationen wie USA, China, Japan, Indien, Russland, Kanada auch Wissenschaftler mit einer klima-realistischen skeptischen Meinung Zugang als Regierungs-Berater haben:

Chinas[45] "… Chefunterhändler Xie Zhenhua sagte gar an Konferenzen: «Es gibt alternative Positionen, die den Klimawandel auf natürliche Prozesse zurückführen. Wir müssen offen bleiben.» …"

…und an anderer Stelle die Züricher WELTWOCHE[46]:

"Es ist Zeit, auf solche nutzlosen Konferenzen zu verzichten. … Es handelt sich um die letzten Zuckungen eines politischen Ansatzes. …. Beschwören viele Staaten dennoch den internationalen Klimaschutz, so nur deshalb, weil sie hoffen, von den in Aussicht gestellten Milliardenzahlungen ein Stückchen abzubekommen."

Realismus und Ernüchterung machen sich breit. Das zeigt auch der soeben in den Kinos angelaufene Film ClimateCrime, wozu es in einer Presse-Mitteilung[47] heißt:

"Eigentlich soll der Klimaschutz ja unsere Erde retten. Doch nun beschleunigt er stattdessen die Zerstörung der letzten Naturgebiete", u.w.a.a.O.: "Abseits großer Konferenzen und schöner Worte dominieren im Klimaschutz zerstörerische Großprojekte."…und w.a.a.O.: "Was derzeit im Namen nicht nur des Klimaschutzes, sondern auch des grünen Wachstums vonstatten geht, würde ich als eine Art Amoklauf gegen die Natur und damit auch gegen den letzten Rest an ökologischer Vernunft bezeichnen. (Niko Paech, Wirtschaftswissenschaftler)“.

(9)

Klima-Schutz = Umwelt-Schutz ??

NEIN ! Dazu sagt z.B. der ehemalige Direktor des Meteorologischen Instituts Berlin, Prof. Horst Malberg[48] : "Saubere Luft zu atmen, sauberes Wasser zu trinken, unbelastete Seen, Flüsse, Ozeane und Erdböden sowie ein intaktes Ökosystem gehören zu den Grundrechten des Menschen. Ein stabiles Klima gehört, wie die Klimageschichte lehrt, nicht dazu."

Noch deutlicher wird der AWI-Vizedirektor Prof. Heinrich Miller[49]:

“Wer von Klimaschutz redet, weckt Illusionen‘, mahnt Miller zu Bescheidenheit,                                                       ‚Klima lässt sich nicht schützen und auf einer Wunschtemperatur stabilisieren. Es hat sich auch ohne Einwirkungen des Menschen oft drastisch verändert.‘ Schlagworte wie Klimakollaps oder -katastrophe hält er für irreführend. ‚Das Klima kann nicht kollabieren, Natur kennt keine Katastrophen‘."

Dagegen suggerieren grüne Ideologen und Profiteure von Klimaschutz-Projekten und der Energie-Wende etwas ganz anderes[50]: "Die offensichtlich in Deutschland besonders stark ausgeprägte CO2-Klima-Hysterie wird … durch eine Interessen-Gemeinschaft von Profiteuren ideologisch und materiell vernetzt und durchgesetzt."

Aus diesem Grunde hört man auch fast nie, daß die IPCC-nahen Institute in Deutschland überzogene Katastrophen-Szenarien der Medien korrigieren und versachlichen; man lässt das laufen, es dient dem Geschäft.

Naturwissenschaftlich ist es schier absurd, durch ein paar Drehungen an irgendwelchen

CO2-Stellschrauben ‚ein schön angenehmes stabiles Klima‘ festhalten zu wollen. So ist auch das "2-Grad-Ziel" ist ein politisches Ziel[51]: "Gipfel in L’Aquila (2009) : … Die Staats- und Regierungschefs der acht größten Wirtschaftsmächte haben sich darauf verständigt, dass die Erderwärmung auf zwei Grad Celsius begrenzt werden soll." Fällt es eigentlich niemandem auf? Politiker beschließen, was das Klima zu tun hat! Dazu sagt der Mathematiker und Klimaforscher Prof. Hans von Storch in DIE ZEIT[52]: “Zwei Grad ist eine politische, eine sinnlose Zahl. Ich halte das für Verarschung“.

Hinzu kommt:

Auf eine irrationale Klima-Debatte wird aus politischen und ideologischen Gründen eine abenteuerliche und für die Bürger extrem preis-treibende Energie-Politik drauf gesattelt.

Die Strom-Preise "explodieren", in deren Folge auch andere Kosten und Preise.

Die Politik hat sich einer Pseudo-Wissenschaft namens "Klima-Schutz" bemächtigt. Nicht zu verwechseln damit: Klima-Forschung ist wichtig. Diese sollte aber nicht mit ungesicherten Erkenntnissen als politisch motivierte Basis zum Umbau ganzer Gesellschaften missbraucht werden.

(10)

Zusammenfassung:

Hier genügt es, die Zusammenfassung aus einem umfangreichen Übersichts-Artikel[53] zum Klima-Thema von dem Professor für Physik- und Energie-Forschung, Philip Lloyd[54] von der Universität Kapstadt zu zitieren :

"Die Welt ist etwas wärmer. Das Niveau des Kohlendioxidgehaltes der Atmosphäre nimmt zu. Pflanzen wachsen besser als zuvor wegen dieses höheren Gehalts an CO2 . Der Meeresspiegel steigt mit einer kaum messbaren Rate. Klimatische Katastrophen sind nicht schlimmer als früher. Das Tierreich wird durch das Wachstum einer einzigen Spezies bedrängt, nämlich uns, doch hat dies nichts mit der globalen Erwärmung zu tun. Und das sind die Gründe dafür, dass es ein Klima des Skeptizismus gibt."

Anmerkung:

Eine Kurzfassung dieses Aufsatzes ist im norddeutschen Kultur-Magazin LAUFPASS erschienen: http://laufpass.com/ausgaben/eBook/eBook_0213/flash.html ;

Diese Version ist hier als PDF zum Download angefügt, mit freundlicher Genehmigung des LAUFPASS-Verlages Bremerhaven.

[1] SPON, Report zum Extremwetter;18.11.2011 http://www.spiegel.de/wissenschaft/natur/0,1518,798406,00.html

[2] http://www.dailytelegraph.com.au/news/opinion/global-warming-nonsense-gets-a-true-cold-shoulder/story-e6frezz0-1226258756363 ; February 01, 2012

[3] http://www.dailymail.co.uk/sciencetech/article-2217286/Global-warming-stopped-16-years-ago-reveals-Met-Office-report-quietly-released–chart-prove-it.html#ixzz2EktdPXLP ; 16 October 2012

[4] http://www.eike-klima-energie.eu/news-cache/klima-skepsis-erreicht-auch-die-deutschen-medien/ ; 30.01.2013

[5] SPIEGEL-online

http://www.spiegel.de/wissenschaft/natur/stillstand-der-temperatur-erklaerungen-fuer-pause-der-klimaerwaermung-a-877941.html  ; 18.01.2013

[6] Deutsche Wirtschafts-Nachrichten, Umwelt, 08.01.2013

http://deutsche-wirtschafts-nachrichten.de/2013/01/08/jetzt-offiziell-es-gibt-keine-globale-erderwaermung/

[7] http://www.metoffice.gov.uk/hadobs/hadcrut3/diagnostics/global/nh+sh/

[8] http://blogs.forbes.com/people/larrybell/

[9] http://www.forbes.com/sites/larrybell/2013/02/05/in-their-own-words-climate-alarmists-debunk-their-science/

[10] http://sealevel.colorado.edu/

[11] REKLIM, Unser Klima (Hamburg, 2011), S.9, Abb. 2.4

[12] http://www.eike-klima-energie.eu/news-cache/die-meeres-spiegel-versteigerung-pik-institut-bietet-jetzt-1-m-und-mehr/ ; 05.12.2012

[13] NZ, 04.02.2010, S.4

[14] NLWKN, Jahresbericht 2005

[15] Nordsee-Z., 19.05.2012, S.17

[16] Intergovernmental Panel on Climat Change

[17] DIE ZEIT online, 20.03.2012; http://www.zeit.de/wissen/umwelt/2012-03/extremwetter-kongress

[18] IPCC, 2001, TAR-02-2, Chapt. 2.7.4., Summary, S.163-164

[19] DER SPIEGEL, 21.11.2011, Die Krux mit der Katastrophe, S. 156-158

[20] SPON, 18.11.2011, Report zum Extremwetter: Uno versagt bei Aufklärung über Klimawandel;

http://www.spiegel.de/wissenschaft/natur/0,1518,798406,00.html

[21] http://www.eike-klima-energie.eu/news-cache/klima-katastrophe-nun-schon-vor-2099-deutsche-behoerden-wissen-was-im-laufe-des-21-jahrhunderts-beim-extrem-wetter-los-ist/ ;  07.11.2012

[22] http://policlimate.com/tropical/index.html ;  (2013)

[23] http://policlimate.com/tropical/index.html

[24] http://www.naturgewalten.de/sandy.htm

[25] BSH HH, S. Müller-Navarra (2012)

[26] Bundesamt für Schifffahrt und Hydrographie, Presse-Mitt. 26.09.2007

[27] G. Rosenhagen: Zur Entwicklung der Sturmaktivität in Mittel- und Westeuropa,  promet, Nr.1/2 (2008) S.60

[28] Sahara Desert Greening Due to Climate Change? National Geographic News, July 31, 2009

[29] http://www.zdf.de/ZDFde/inhalt/1/0,1872,1020545_idDispatch:5236912,00.html ; 13.06 2007

[30] http://www.bik-f.de/root/index.php?page_id=32&ID=636 ; 28.06.2012

[31] FOCUS 48 / 2010

[32] www.dwd.de, Klima-Monitoring, lange Reihen

[33] Nordsee-Z., 03.04.2007, S.4

[34] Nordsee-Z., 21.11.2007

[35] NZ, 27.10.2012, S. 20: Seit 1992 waren wir nicht da

[36] http://www.kaltesonne.de/?p=6020 , 12.10.2012

[37] http://kaltesonne.de/wp-content/uploads/2012/09/antarctic_icesat_tracks-300×199.jpg

[38] Alfred-Wegener-Institut, Pressemitteilung , 24.01.2013

[39] WIKIPEDIA zu Wasserdampf-Verstärkung

[40] DER SPIEGEL, 11/2007, S.56

[41] STORCH von, H. ;  STEHR, N.: Klimaforschung und Klimapolitik, Nat.Rdsch. H.6 (2010), S. 301-307.

[42] http://www.eike-klima-energie.eu/news-cache/abkuehlung-der-klimakatastrophen-erwaermungs-angst-neues-zum-kommenden-ipcc-ar5/ ; 24.12.2012

[43] http://notrickszone.com/2012/12/22/first-charts-of-ipcc-5-ar-completely-refute-the-alarmist-scenarios-of-master-curve-designer-stefan-rahmstorf/ ; 22.12.2012

[44] http://www.dailymail.co.uk/news/article-2294560/The-great-green-1-The-hard-proof-finally-shows-global-warming-forecasts-costing-billions-WRONG-along.html

[45] WELTWOCHE Zürich, 04.10.2012, S. 41;

[46] WELTWOCHE,  01.12.2011, S. 12

[47] http://riverwatch.eu/allgemein/climate-crimes-in-deutschland21.01.2013

[48] H. MALBERG, Beiträge zur Berliner Wetterkarte, 03/11, SO 01/11, 5.1.2011

[49] Bohrer im Eis, DIE ZEIT, 06.06.2007 , S.40

[50] factum 3/2012, S.34, Schwengeler Verlag AG, CH-9442 Berneck

[51] http://www.spiegel.de/politik/ausland/0,1518,635136,00.html

[52] In: DIE ZEIT, 20.08.2009, S.29

[53] http://wattsupwiththat.com/2013/01/18/a-climate-of-scepticism/#more-77781  (18.01.2013) und deutsch:

http://www.eike-klima-energie.eu/news-cache/ein-klima-des-skeptizismus/  (01.02.2013)

[54] http://www.whoswho.co.za/philip-lloyd-3136

  

Related Files




Zur Verteidigung des Kohlendioxids

Von allen chemischen Verbindungen der Welt hat keine einen schlechteren Ruf als Kohlendioxid. Dank der Dämonisierung dieses natürlich auftretenden und essentiellen Gases durch niedere Geister unter den Regierungsbeamten zur Kontrolle der Energieerzeugung ist das konventionelle Wissen über Kohlendioxid das eines gefährlichen Verschmutzers. Das aber stimmt einfach nicht. Im Gegensatz zu dem, was einige uns glauben machen wollen, wird der zunehmende Kohlendioxidgehalt der Atmosphäre infolge zunehmender landwirtschaftlicher Produktivität vorteilhaft für die zunehmende Bevölkerung des Planeten sein.

Das Ende der beobachteten globalen Erwärmung im vergangenen Jahrzehnt oder so hat gezeigt, wie übertrieben die Vorhersagen der vom Menschen verursachten globalen Erwärmung seitens der NASA und der meisten Computervorhersagen gewesen sind – und wie wenig die Konzentrationen des atmosphärischen Kohlendioxids mit der Temperatur korrelieren. Viele Wissenschaftler haben darauf hingewiesen, dass Variationen der globalen Temperatur viel besser mit der Sonnenaktivität und mit komplizierten Zyklen in den Ozeanen und der Atmosphäre korrelieren. Es gibt nicht den kleinsten Beweis, dass mehr Kohlendioxid mehr extreme Wetterereignisse verursacht hat.

Das gegenwärtige Niveau von Kohlendioxid in der Erdatmosphäre, das sich derzeit 400 ppm nähert, ist niedrig im Vergleich zu Standards der evolutionären Entwicklung der Pflanzen und der geologischen Geschichte. Das Niveau lag bei 3000 ppm oder mehr, bis vor etwa 65 Millionen Jahren die Periode des Paläozän begonnen hat. Für die meisten Pflanzen und für die Tiere und Menschen, die sie nutzen, wäre mehr Kohlendioxid ein Vorteil – und ist weit davon entfernt, ein „Verschmutzer“ zu sein, den es zu reduzieren gilt.  Diese Erkenntnis ist bei Betreibern kommerzieller Treibhäuser bereits weit verbreitet, reichern sie doch die Luft in ihren Gewächshäusern künstlich mit Kohlendioxid an, etwa bis 1000 ppm, um Wachstum und Qualität ihrer Pflanzen zu verbessern.

Mit der Energie des Sonnenlichts – zusammen mit der katalytischen Reaktion eines uralten Enzyms namens Rubisco, dem am reichlichsten auf der Erde vorkommende Protein – wandeln die Pflanzen das Kohlendioxid aus der Luft in Kohlehydrate und andere nützliche Moleküle um. Rubisco katalysiert die Haftung eines Kohlendioxid-Moleküls an ein anderes Fünf-Kohlenstoff-Molekül und erzeugt so zwei Drei-Kohlenstoff-Moleküle, die nachfolgend in Kohlenhydrate umgewandelt werden*. (Da das nützliche Produkt aus dem Einfangen des Kohlendioxids drei-Kohlenstoff-Moleküle enthält, nennt man Pflanzen, die diesen einfachen Prozess umsetzen, C3-Pflanzen). C3-Pflanzen wie Weizen, Reis, Sojabohnen, Baumwolle und viele Futtermittel haben sich entwickelt, als es viel mehr Kohlendioxid in der Atmosphäre gab als heute. Folglich leiden diese landwirtschaftlichen Grundnahrungsmittel tatsächlich hinsichtlich des Kohlendioxids an Unterernährung im Vergleich zu ihren früheren Originalen.

[*Original: Rubisco catalyzes the attachment of a carbon-dioxide molecule to another five-carbon molecule to make two three-carbon molecules, which are subsequently converted into carbohydrates. – Das habe ich fachlich nicht verstanden. A. d. Übers.]

Beim gegenwärtigen geringen Niveau des atmosphärischen Kohlendioxids kann Rubisco in den C3-Pflanzen dazu führen, Kohlendioxidmoleküle durch Sauerstoffmoleküle zu ersetzen. Aber dabei reduziert sich die Effizienz der Photosynthese, vor allem bei hohen Temperaturen. Um dieses Problem zu umgehen, haben einige Pflanzen einen Weg gefunden, die Kohlendioxid-Konzentration um das Rubisco-Enzym anzureichern und die Sauerstoffkonzentration zu senken. Diese Pflanzen werden C4-Pflanzen genannt, weil sie ein Molekül mit vier Kohlenstoffatomen nutzen. Zu den Pflanzen, die sich dieses evolutionären Tricks bedienen, zählen Zuckerrohr, Mais und andere tropische Pflanzen.

Zwar haben sich C4-Pflanzen entwickelt, um mit niedrigen Niveaus von Kohlendioxid umgehen zu können, doch hat dies einen Preis, da es zusätzliche chemische Energie erfordert. Mit einem hohen CO2-Gehalt in der Atmosphäre sind C4-Pflanzen nicht so produktiv wie C3-Pflanzen, die nicht die Energie für das Kohlendioxid-Anreicherungs-System benötigen.

Das ist im Wesentlichen schon alles, was zu den Vorteilen des Kohlendioxids zu sagen ist. Derzeit zahlen die Pflanzen bei dem gegenwärtigen niedrigen Niveau von Kohlendioxid einen hohen Preis durch Wasserverbrauch. Ob es sich nun um C3 oder C4-Pflanzen handelt, die Art und Weise, mit der sie das Kohlendioxid aus der Luft holen, ist die Gleiche: Die Blätter der Pflanzen haben kleine Löcher, oder Stomata, durch die die Kohlendioxidmoleküle in das feuchte Innere der Pflanzen diffundieren können, damit die Pflanzen ihre photosynthetischen Zyklen durchführen können.

Die Dichte der Wassermoleküle innerhalb des Blattes ist typischerweise 60 mal größer als die Dichte von Kohlendioxid in der Luft, und die Diffusionsrate der Wassermoleküle ist größer als die der Kohlendioxidmoleküle.

Folglich diffundieren abhängig von Temperatur und Relativer Luftfeuchtigkeit 100 oder mehr Wassermoleküle aus dem Blatt für jedes Kohlendioxidmolekül, das hinein diffundiert. Und nicht jedes Kohlendioxidmolekül, das in das Blatt eindringt, wird in Kohlehydrate umgewandelt. Als Folge benötigen die Pflanzen viele hundert Gramm Wasser, um ein Gramm Biomasse zu erzeugen, hauptsächlich Kohlehydrate.

Getrieben durch die Notwendigkeit, Wasser zu sparen, erzeugen die Pflanzen weniger Stomata in ihren Blättern, wenn es mehr Kohlendioxid in der Luft gibt. Dies verringert die Wassermenge, die die Pflanze transpirieren muss mit der Folge, dass die Pflanze viel widerstandsfähiger gegen Trockenheit wird.

Die Ernteerträge in den jüngsten trockenen Jahren waren weniger durch Dürre betroffen als die Ernteerträge während der Staubschüssel-Dürre in den dreißiger Jahren, als der Kohlendioxidgehalt der Luft geringer war. Heutzutage im Zeitalter steigender Bevölkerungszahlen und Knappheit von Nahrung und Wasser in manchen Gebieten ist es schon verwunderlich, dass die Menschen nicht nach mehr atmosphärischem Kohlendioxid rufen. Stattdessen verdammen ihn Einige.

Wir wissen, dass der Kohlendioxidgehalt in der Erdatmosphäre in früheren Jahren viel höher war als heute, und geologische Aufzeichnungen zeigen, dass das Leben während jener Zeiten sowohl auf dem Land als auch in den Ozeanen viel reichlicher blühte als heute. Die unglaubliche Liste vermeintlicher Schrecken, die ein zunehmender Kohlendioxidgehalt mit sich bringen soll, ist reiner Glaube mit einem wissenschaftlichen Mäntelchen umhängt.

Schmitt ist Assistenzprofessor des Ingenieurwesens an der University of Wisconsin-Madison. Er war einst Astronaut bei Apollo 17 und US-Senator aus New Mexico.

Happer ist Physikprofessor an der Princeton University und war früher Direktor des Büros für Energieforschung am US-Energieministerium.

Link: http://icecap.us/index.php/go/joes-blog

Übersetzt von Chris Frey EIKE




NAEB Nachrichten vom 18. Mai 2013 in den EIKE-News

Die Themen

1. Smartgrid im realen Leben unter Anwendung des NAEB-Dreisatzes.

2. Vorstandsvorsitzender Dr. Bock von BASF hält meine Frage zur Deindustriealisierung für berechtigt.

3. Altmaiers EEG-Kosten-Deckelung (überflüssig und ineffizient) gescheitert

4. Warum sind sich Altmaier und Trittin beim Endlagersuchgesetz einig/Frankreichs Endlager

5. Voltaik-Enspeisesätze ab Mai 2013

6. Der Kampf gegen die Energiewende geht nur ausserparlamentarisch!

7. Mit Gerichtsentscheidungen ist der Kampf gegen die Energiewende nicht zu gewinnen

8. Die Zukunft der Deutschen Energieversorgung ist Kohle, Kohle, Kohle (und Gas)!

9. Stahlwerke-Exodus wegen Strompreis (Maxhütte)

10. Ein Toter durch Stromspeicher-Technik wie im Rahmen der Energiewende-Narretei propagiert

11. Eberharts Vers: Endlagersuche im Kloster

Der vollständige Nachrichtentext (hier).




Verhält sich das Umweltbundesamt (UBA) wie die Reichskulturkammer?

Eine Behörde erklärt die Klimadebatte für beendet

Das Umweltbundesamt beansprucht die Deutungshoheit beim Klimawandel für sich und stellt Journalisten in der Debatte an den Pranger. Ein solches Vorgehen erinnert an Reichskulturkammer und DDR-Regime. Von Henryk M. Broder

Man soll mit Vergleichen vorsichtig umgehen, vor allem, wenn das Dritte Reich als Kulisse herangezogen wird. Eine Hühnerfarm ist kein „KZ“, wie Peta-Aktivisten es sehen, die Auslandseinsätze der Bundeswehr sind keine Eroberungskriege, wie die Friedensbewegung gerne behauptet. Aber manchmal gibt es doch verblüffende Ähnlichkeiten oder Parallelen, die von einer erstaunlichen Kontinuität des Denkens und Handelns zeugen.

Es gab im Dritten Reich eine Reichsfilmkammer, die das deutsche Filmwesen kontrollierte. Nur Mitglieder der Reichsfilmkammer durften in Filmproduktionen beschäftigt werden. Alle anderen hatten Berufsverbot. Dieselbe Regelung galt für die Reichstheaterkammer, Reichspressekammer, Reichsschriftumskammer, Reichsrundfunkkammer, Reichsmusikkammer und die Reichskammer der bildenden Künste. Alle diese Kammern wirkten unter dem Dach der Reichskulturkammer (RKK), die vom Reichsminister für Volksaufklärung und Propaganda, Joseph Goebbels, ins Leben gerufen wurde….

…Tatsächlich ist die Klima-Frage umstritten

Und diese Kammer beziehungsweise dieses Amt hat vor Kurzem eine Broschüre herausgegeben („Und sie erwärmt sich doch – Was steckt hinter der Debatte um den Klimawandel?“), in der diejenigen „Klimaskeptiker“ angegangen werden, deren Ansichten „nicht mit dem Kenntnisstand der Klimawissenschaft übereinstimmen“.

Und was der letzte Kenntnisstand der Klimawissenschaft ist, das bestimmt die Bundesklimakammer alias das Umweltbundesamt. Ebenso, wer die „Klimaskeptiker“ sind, die an den Pranger gestellt werden: „die Journalisten und Publizisten Dirk Maxeiner und Michael Miersch“ und „der Filmemacher und Publizist Günter Ederer“…

….Wem die Analogie zur Reichskulturkammer zu weit geht, der wird trotzdem zugeben müssen, dass es so etwas schon mal gab: Im real existierenden Sozialismus, wo man nur „konstruktive Kritik“ an der Partei und der Regierung üben durfte und „destruktive Kritik“ zum Ausschluss der „negativen Elemente“ aus der Akademie der Wissenschaften, dem Schriftstellerverband und anderen gesellschaftlichen Organisationen führte.

Die Frage lautet also nicht: „Gibt es einen Klimawandel?“, sondern: „Sind wir auf dem Weg in eine zweite DDR, in der die Regierung auch für den Wetterbericht von heute und das Klima von übermorgen zuständig ist?“

Lesen Sie den ganzen Text hier.

Anmerkungen der Redaktion:

Zum fachlichen Inhalt der unsäglichen UBA Broschüre nehmen wir in Kürze gesondert Stellung.




Energiewende: Im Spargang an die Wand

Helmut Kohl gilt als Kanzler der Einheit, Gerhard Schröder als Reformkanzler. Und Angela Merkel? Wohl als Kanzlerin der Energiewende. Damit hat sie beste Chancen, als teuerster Bundeskanzler in die Geschichte Deutschlands einzugehen. Denn die Energiewende, ausgelöst durch einen schweren Industrieunfall in Japan, der allerdings nur ein Randereignis einer vieler größeren Katastrophe war, wird teuer: Allein die Rechnung für Bau, Anbindung und Betrieb von zehntausenden von Windrädern und Solarsammlern wird sich auf viele hundert Milliarden Euro belaufen. Auf Dauer wird das Land für die Energiewende noch einen weit höheren Preis zahlen müssen. Auf dem Spiel steht seine Zukunft als moderne Industrienation.

Im Kern bedeutet Energiewende den Ersatz eines vorhandenen effizienten Energiesystems durch ein ineffizientes. Das kann nicht funktionieren, nicht in einer Welt, wo Länder miteinander im Wettbewerb stehen. Entweder scheitert die Energiewende möglichst bald, oder sie ruiniert das Industrieland Deutschland. Das wird nicht krachend geschehen, sondern allmählich – so wie auch die ineffiziente Volkswirtschaft der DDR schleichend, aber unausweichlich zerfiel. Drei Jahrzehnte lang schützte die DDR ihre unproduktive Wirtschaft mit einer Mauer; die Energiewende überlebt nur aufgrund der EEG-Zwangsabgabe. Ohne diese Subventionen wäre die erneuerbaren Energie genauso rasch am Ende wie die DDR nach dem Mauerfall.

Zur Jahrtausendwende besaß Deutschland eine funktionierende Elektrizitätsversorgung. Preisgünstiger Strom war da, wenn man ihn brauchte. Die Haushalte mussten statt zuvor 17 nur noch 14 Cent/kWh zahlen. Kohle-, Gas- und Kernkraftwerke lieferten die großen Mengen an Strom, die eine Industriegesellschaft benötigt. Der größte Teil davon wurde an weniger als hundert Standorten, nahe der Verbrauchszentren, erzeugt. Der Flächen- und Naturverbrauch war gering. Die Stromversorgung war sicher, Netzzusammenbrüche extrem selten. In den letzten drei Jahrzehnten gab es in Deutschland keinen großflächigen Blackout.

Seit 2000 haben sich die Preise für Haushaltstrom auf 26 Cent/kWh fast verdoppelt; der Industriestrompreis liegt 20 Prozent über dem EU-Durchschnitt – Tendenz steigend. Windräder in Wäldern, Natur- und Landschaftsschutzgebieten sind inzwischen Normalität. Auf über zwei Millionen Hektar wachsen Mais und Getreide für Biosprit und Biostrom. Ökoenergie ist nicht mehr “sanft”, sondern wächst sich zu einem landfressenden Monster aus.

Ziel der Energiewende ist das Ende des “nuklear-fossilen Zeitalters”. So schreibt es der Globalrat der Bundesregierung (WBGU). Der Rat berät Merkel; sein Vorsitzender Joachim Schellnhuber ist prominentes Mitglied der globalen Ökobürokratie, die sich inzwischen um den Weltklimarat herausgebildet hat. Schellnhuber träumt von der “Großen Transformation” durch einen “gestaltenden Staat”, von “praktisch unerschöpflichen Gratisangeboten der Natur”, von einem “klimaneutralen Energiemix, der unsere Zivilisation durch viele Jahrtausende tragen würde”. [1] Schellnhuber ist, wie Merkel, Physiker. Beide sollten wissen, dass es in der Natur kein Freibier gibt. All ihre “Gratisangebote” – angefangen von Uran und Kohle bis zu Wind und Sonnenlicht – müssen mittels Technologie eingesammelt und in nützliche Form umgewandelt werden. Das kostet Geld und besonders viel bei Wind und Sonne.

Auch in der Ökonomie gibt es Gesetzmäßigkeiten, die sich nicht oder nur zeitweise aushebeln lassen, auch nicht über “große Transformationen” durch einen “gestaltenden Staat”. Staatswirtschaften wie die DDR sind damit kläglich gescheitert. Übergänge zu effizienterenEnergieformen benötigen keine oder nur geringe Gestaltung durch den Staat. Sie setzen sich evolutionär durch, weil sie billiger, zuverlässiger, besser handhabbar, kurzum nützlicher sind als die vorhandenen Energieträger. Das geht weder per Dekret noch im Hauruckverfahren wie bei Merkels Energiewende.

“Der Übergang von einer Primärenergie zur nächsten”, so schrieb Cesare Marchetti, italienischer Physiker und Systemanalytiker, vor fünfzehn Jahren, “ist an technologische und wirtschaftliche Impulse innerhalb einer Gesellschaft gekoppelt.” [2] Solche Impulse sind für Merkels Energiewende nicht auszumachen; technologisch bringen die Erneuerbaren nichts Neues und wirtschaftlich sind sie auch nicht. Sonst müssten sie nicht subventioniert werden.

Zu einem besseren, effizienteren Energiesystem führt die Wende nicht. Wohin dann? Wenn sie nichts Besseres an die Stelle des Vorhandenen setzt, kann es nur zu den “Naturenergien” des vorindustriellen Zeitalters zurückgehen und damit zurück in das Zeitalter der Energiearmut.

Die Menschheitsgeschichte ist eine Armutsgeschichte

Energiearmut beherrschte nahezu die gesamte menschliche Geschichte und ein großer Teil der Menschheit lebt immer noch unter diesen Bedingungen. Energiearmut hieß Hunger und Seuchen, hohe Kindersterblichkeit und geringe Lebenserwartung. Holz, tierische und menschliche Muskelkraft waren die wichtigste Energiequelle, Sklavenarbeit nichts Ungewöhnliches. Die Menschen lebten mit der Natur. Sie verhungerten bei Dürren und bei Missernten durch Kälte und zu viel Regen.

Der britische Ökonom Angus Maddison hat berechnet, dass das durchschnittliche Welteinkommen eines Menschen seit der Erfindung der Sprache bis etwa 1800 von einem auf drei Dollar pro Tag anstieg [3]. Eine Verdreifachung innerhalb von Jahrtausenden: Das war Stillstand auf elendem Niveau. Heute ist das tägliche Pro-Kopf-Einkommen in Ländern wie der Schweiz oder den USA dreißig- bis vierzigmal höher; im Weltdurchschnitt, also einschließlich der ärmsten Länder, ist es in den letzten 200 Jahren von drei Dollar auf etwa dreißig Dollar gestiegen. Das ist eine Verbesserung um den Faktor 10. Damit einher ging ein dramatischer Anstieg der Lebenserwartung von 24 Jahren im Jahr 1000 auf 66 Jahre heute. Ermöglicht hat dies die Befreiung des Menschen aus der Abhängigkeit von den “Naturenergien”.

Der stetige Energiefluss von der Sonne treibt die irdische Biosphäre an – einschließlich des Menschen. Die lebende Natur gibt ihm seit Jahrtausenden Nahrung, Werkstoffe, Energie. Alles erneuerbar, alles lieferte letztendlich die Sonne im “Online”-Betrieb. So, und das ist der grüne Traum, soll es bleiben bzw. wieder werden. Dieser Traum hat allerdings einen Haken: Der solare Energiefluss ist dünn und erlaubt keine großen Sprünge. Damit konnte über viele Jahrtausende auf der Welt nur eine kleine Bevölkerung auf niedrigem Niveau existieren. Die vielen Generationen vor uns waren, um mit Karl Marx zu sprechen, im “Reich der Notwendigkeit” gefangen. Für sie ging es ums Überleben. Verglichen damit ist für die Menschen in den Industrienationen heute das “Reich der Freiheit” angebrochen. Für sie geht es ums Wohlleben.

Gutes Leben kommt nicht gratis vom Himmel. Es erfordert immense Mengen an freier Energie [4], die die Sonne online nicht bereitstellen kann. Erst die Kohle, über viele Zeitalter konzentrierte gespeicherte Sonnenenergie, lieferte genügend freie Energie für den Zivilisationsschub, dem wir die heutige Lebensumwelt verdanken. Der Speichereffekt macht den entscheidenden Unterschied. Er gibt der Kohle eine viel höhere Leistungsdichte als die momentane Strahlung von der Sonne liefern kann.

Der dünne Momentanfluss ist gut für Lebewesen, aber zu schwach für die moderne Technosphäre, in der wir heute leben. Als Naturwesen kommt der Mensch mit rund 100 Watt an Leistung für Nahrung und Wärme über die Runden. In dieser Größenordnung, etwa 100, 200 Watt pro Quadratmeter, liegt die Sonnenstrahlung. Als Kulturwesen in einer technischen Umwelt benötigt er allerdings 5500 Watt – das 50fache! [5] Diese Menge konnte erst die Kohle bereitstellen.

Gespeicherte Energie in Form von Kohle, inzwischen auch Öl, Erdgas und Uran, ist jederzeit, an jedem Ort und in jeder gewünschten Menge verfügbar. Dies ist die zweite, vielleicht sogar wichtigste Voraussetzung für die Energierevolution des Kohlezeitalters. Sonne und Wind haben diese Eigenschaft nicht. Sie hängen vom Wetter und vom Klima ab, fluktuieren zeitlich und sind nicht jederzeit verfügbar. Als Antrieb einer Industriegesellschaft sind sie deshalb ungeeignet.

Viel Energie – das ist die Voraussetzung für ein Leben, das dem Menschen mehr bietet als das bloße Überleben. Die Energiewende dreht das Rad zurück ins vorindustrielle Zeitalter: Sie bringt weniger und teurere Energie. Sie ist damit ein Angriff auf den Lebensstandard. Und das scheint durchaus gewollt.

Die Deutschen mögen damit leben können – zumindest zeitweise. Der größte Teil der Welt, der immer noch in Energiearmut lebt, sicher nicht.

Die große Verschwendung

Alle Ökoenergieszenarien setzen eine drastische Senkung – zwischen 20 und 50 Prozent – des Energieverbrauchs voraus. Erreicht werden soll das über Sparen sowie über höhere Effizienz in Erzeugung und Nutzung von Energie, insbesondere Strom. Es entbehrt nicht einer gewissen Ironie, dass dazu Energiequellen dienen sollen, die selbst ineffizient sind. Denn die Erzeugung einer Einheit Strom aus Sonne oder Wind erfordert mehr Rohstoffe, mehr Energie, mehr Fläche als die Erzeugung einer Einheit Kohle- oder Nuklearstrom.

So sind, um eine Einheit Windstrom zu erzeugen, rund zehnmal so viel Eisen und Kupfer erforderlich wie zur Produktion einer Einheit Atomstrom. Eine Einheit Solarstrom (Fotovoltaik) benötigt das zehn- bis hundertfache an Material. Auch Kohlestrom ist, was den spezifischen Rohstoffverbrauch angeht, deutlich effizienter als Wind- und Solarstrom (siehe Tabelle). [6]

Eisen [kg/GWhel] Kupfer [kg/GWhel] Bauxit [kg/GWhel]
Steinkohle-Kraftwerk 1.700 8 30
Erdgas 1.239 1 2
Kernkraftwerk 457 6 27
Photovoltaik 5 kW 4.969 281 2.189
Wind 1500 kW 4.471 75 51

(Prof. A. Voss IER Stuttgart)
Tabelle 1: Gesamter Rohstoff und Materialaufwand

Sollen in den kommenden Jahrzehnten die bislang nuklear erzeugten Strommengen wie geplant durch Wind- oder Sonnenstrom ersetzt werden, muss man dafür grob geschätzt einige zehn Millionen Tonnen an Eisen mehr verbauen als für die gleiche Leistung aus Kernreaktoren. Für Beton liegt der Bedarf noch eine Größenordnung darüber.

Mit ihrem hohen Ressourcen- und Flächenbedarf sind die Ökoenergien große Verschwender – “Ökosauen”, würde ein Grüner sagen. Das ist ihrer Natur als dünne Energiequellen geschuldet. Ihre Energiedichte liegt deutlich unter der von Kohle oder Erdöl und um Größenordnungen unter der von Uran. Die Begriffe Energie- und Energieerzeugungsdichte (Leistungsdichte) [7] sind der Schlüssel zum Verständnis der Energiefrage. Kaum ein Politiker oder Journalist kennt sie. Das erklärt vielleicht ihren hartnäckigen Glauben an die Machbarkeit der Energiewende.

Ein Kilogramm Holz enthält eine Energie von vier kWh, Kohle bringt doppelt so viel. Aber: Ein Gramm Uran-235 enthält so viel Energie wie vier Tonnen Kohle. Das macht die Kernenergie zur wahren Zukunftsenergie. Bei erneuerbaren Energien liegt die Leistungsdichte im Bereich von Watt pro Quadratmeter, die für Kernreaktoren im Megawattbereich. Watt versus Megawatt – das macht die einen ineffizient, die anderen effizient. Die Erneuerbaren können deshalb zu Recht alsNeue ineffiziente Energiequellen (NIEs) bezeichnet werden.

Energiedichten

Die Bioenergie hat von allen NIEs die geringste Energieerzeugungsdichte. Das beginnt schon mit der Photosynthese; sie wandelt weniger als ein Prozent der Sonnenstrahlung in Pflanzenmasse um. Weitere Verluste treten auf, wenn man die geernteten Pflanzen in Sprit oder Strom umwandelt. Der deutsche Chemiker und Nobelpreisträger Hartmut Michel folgert: “Aus europäischer Biomasse hergestellte Biokraftstoffe enthalten gerade mal ein Tausendstel der Energie des Sonnenlichts, das auf das zur Produktion der Biomasse verwendete Ackerland gefallen ist.” [8] Das ergibt weniger als ein Watt pro Quadratmeter.

Entsprechend groß ist der Flächenbedarf. In Deutschland wachsen Energiepflanzen auf etwa zwei Millionen Hektar Ackerland, auf denen einst Nahrungs- und Futtermittel angebaut wurden. Laut EU sollen 2020 in Europa 9,5 Prozent der Energie für den Verkehr aus Biosprit stammen. Dafür, so hat das Londoner Institut für europäische Umweltpolitik (IEEP) vor zwei Jahren errechnet, würden 69.000 km2 an Ackerfläche benötigt, mehr als zweimal die Fläche Belgiens. [9]Selbst das grüne Umweltbundesamt empfiehlt inzwischen, weitgehend auf Bioenergie zu verzichten. [10]

Windräder müssen Abstand voneinander halten, da jede Anlage dem Luftstrom Energie entzieht. Je größer die Anlage, desto größer sind Abstand und Flächenbedarf. Ihre Leistungsdichte liegt deshalb nur bei einem Watt pro Quadratmeter Landfläche. Windräder benötigen 700.800 km2an Fläche, damit sie die Strommenge produzieren, die ein konventionelles Kraftwerk liefert. Immer häufiger müssen deutsche Windmüller deshalb ihre inzwischen bis zu 200 Meter hohen Monsteranlagen in Wälder, Naturparks oder Landschaftsschutzgebiete setzen. Keine Industrie hat bislang Natur und Landschaft so weiträumig industrialisiert wie die Ökoindustrie.

Sonnenenergie in Deutschland liefert im Jahresdurchschnitt 100 W/m2. Etwa ein Zehntel davon können Solarzellen in Strom umwandeln. Solarstrom lässt sich allerdings nur mit großflächigen Anlagen einsammeln; ein hoher Materialverbrauch pro Kilowattstunde ist die Folge. Und damit auch hohe Kosten. Solarstrom ist der mit Abstand teuerste Strom im erneuerbaren Portfolio.

Nachteilig für die Produktion von Solar- und Windstrom sind auch die natürlichen Bedingungen in Deutschland, wie ein europäischer Vergleich für 2009 und 2010 [11] zeigt. Danach liegt die jährliche Auslastung [12] der Sonnen- und Windanlagen im EU-Durchschnitt bei 20 Prozent für Windräder und 10 Prozent für PV-Anlagen. Deutsche Windräder sind mit 16 Prozent nur unterdurchschnittlich ausgelastet, Windräder in England und Spanien überdurchschnittlich mit 23 bis 24 Prozent. Das ist absolut gesehen auch nicht viel, aber um 50 Prozent besser als deutsche Windräder.

Noch schlechter steht es um die PV-Anlagen. Solaranlagen auf deutschen Dächern sind übers Jahr zu 8 Prozent ausgelastet; Anlagen in Spanien immerhin zu 20. Da passt der Ausspruch von Jürgen Großmann, ehemals Vorstandsvorsitzender der RWE: “Der Ausbau der Solarenergie in Deutschland ist so sinnvoll wie Ananaszüchten in Alaska.”

Fazit: Die geringe Leistungsdichte von Wind- und Sonnenenergie macht den Ökostrom teuer. Die Verhätschelung durch Einspeisevergütung, garantierte Abnahme und andere Privilegien haben daran nichts ändern können. Trotz hoher Subventionen mussten vor allem im Solarbereich eine Reihe von Firmen Insolvenz anmelden. Das belegt, wie brüchig die wirtschaftliche Substanz dieser Technologien ist.

Ein weiterer Kostenfaktor kommt hinzu, den die Ökoindustrie allerdings aufs Stromnetz abwälzt: die starken Fluktuationen von Wind und Sonnenschein. Um diese auszugleichen, brauchen Windräder und Solaranlagen Backup-Kapazität. Derzeit liefern Kohle, Gas und Uran diese Reserve – mit Aufpreis. Eine Studie der Nuclear Energy Agency, einer Organisation der OECD, vergleicht die Systemkosten für Strom aus stets verfügbaren Kraftwerken (Kernenergie, Kohle, Gas) und den unstetigen Erneuerbaren (Wind und Sonne). Die Systemkosten enthalten zusätzlich Kosten für erforderliche Backup-Kapazität, Netzanbindung und Regelung der Netzspannung. Ergebnis: Für Strom aus Wind und Sonne liegen diese eine Größenordnung über denen für Strom aus Uran, Kohle und Erdgas. [13] Damit nicht genug – die Kostenspirale hat noch einen weiteren Dreh parat. Mit der Energiewende sollen die konventionellen Kraftwerke mehr und mehr verschwinden. Damit entfällt auch diese kostengünstige Reserve. Dann müssen Speicher her, die ins erneuerbare Weltbild passen und die teuren Ökostrom in noch teureren “Speicherstrom” verwandeln. Dann könnte es richtig teuer werden.

Noch 2004 hatte der Grünen-Politiker Jürgen Trittin verkündet, dass das Ökostrom-Gesetz pro Haushalt “nur rund einen Euro im Monat – so viel wie eine Kugel Eis” koste. Ähnliches war von Frau Merkel noch vor zwei Jahren zu hören. 2012 schätzte der Ökonom Georg Erdmann von der Technischen Universität Berlin die Förderkosten des EEG auf bis zu eine Viertel-Billion Euro. [14]Und im Februar 2013 nannte Bundesumweltminister Altmaier die schöne runde Summe von einer Billion Euro. [15] Wohlgemerkt: eine Billion, um ein funktionierendes effizientes Energiesystem durch ein unbeständiges und ineffizientes zu ersetzen. Das sind keine Investitionen, sondern Ausgaben.

Der mit dem Hund wackelt

Derzeit stehen in Deutschland mehr als 23.000 Windräder mit über 30 Gigawatt (GW) an Nennleistung. Dazu kommen 1,2 Millionen Solaranlagen mit ebenfalls mehr als 30 GW. Zusammen macht das 60 GW. Pro Stunde benötigt das Land durchschnittlich 70 Millionen kWh; dafür müssen ständig 70 GW an Kraftwerken unter Volllast produzieren. Dazu trugen die 60 GW an Windrädern und PV-Anlagen im Jahresdurchschnitt gerade mal 12 Prozent bei. Zum Vergleich: Die neun verbliebenen deutschen Kernkraftwerke haben mit rund 12 GW nur ein Fünftel der Solar- und Windstromkapazität, liefern aber 125 Prozent mehr Strom.

Leistungsstarke konventionelle Kraftwerke sind immer noch die Hauptlieferanten für Strom – trotz der sechzig Öko-Gigawatt. Sie werden es auch dann bleiben, wenn die Ökostromkapazität vervielfacht würde (die Ökolobbyisten träumen von 200 GW Solar und 130 GW Wind). Auch dann könnten die KKWs nicht ersatzlos abgeschaltet werden. Denn es wird immer wieder, auch über mehrere Tage hinweg, Windstille und zu starken Wind, lange Nächte und Wolken am Himmel geben. Dann geht die Produktion von Wind- und Solarstrom gegen Null. Zur Deckung der Lücke müssen dann Erdgas- und Kohlekraftwerke bereitstehen.

Trotz unsteter, geringer Leistung geben Wind- und Sonnenenergie im deutschen Stromnetz den Takt vor. Ihr Strom hat Vorrang. Sie bestimmen, wann konventionelle Kraftwerke produzieren und wann nicht. Das ineffiziente Energiesystem kommandiert das effiziente; der Schwanz wackelt mit dem Hund. Willkommen in Absurdistan.

Ein verlässliches, wirtschaftliches System zur Stromerzeugung zeichnet sich durch folgende Elemente aus:

1.     Energiequellen/Kraftwerke mit hoher Leistungsdichte

2.     Verlässliche und stetig produzierende Kraftwerke für die Grundlast

3.     Augenblicklich verfügbare Kraftwerke für die Spitzenlast

4.     Nicht planbare, unbeständige Quellen sollten vermieden bzw. nur soweit genutzt werden, dass sie die grundlegende Elektrizitätsversorgung nicht beeinträchtigen.

Punkt 1 ist Voraussetzung dafür, dass Strom mit einem minimalen Verbrauch an Rohstoffen, Flächen und Energie erzeugt wird. Geringer Aufwand ist gut für Mensch und Natur; er steht für billigen Strom und geringe Auswirkungen auf die Umwelt. Erneuerbare Energien erfüllen Punkt 1 nicht. Sie sind teuer, trotz hoher Subventionen. Derzeit profitieren sie noch davon, dass das in Windrädern und PV-Anlagen verbaute Material – Eisen, Kupfer, Aluminium, Zement usw. – mit günstiger Kern- und fossiler Energie hergestellt wird. Damit wäre es bei fortschreitender Energiewende vorbei. Bislang vertraute die Ökoindustrie darauf, dass fossile Brennstoffe knapper und teurer und Ökoenergien dadurch wettbewerbsfähig würden. Inzwischen haben neue Ölvorkommen und die Schiefergasrevolution diese Hoffnung zerschlagen. “Peak Oil” ist in weite Ferne gerückt; Öl und Erdgas dürften weltweit noch für ein paar Jahrhunderte reichen, Kohle für ein Jahrtausend. Erdgas in den USA ist bereits konkurrenzlos billig.

Punkt 2. Deutschland benötigt eine Grundlastleistung zwischen 40 und 50 Gigawatt, die ständig, Tag und Nacht, geliefert werden muss. Das machen in Deutschland derzeit vor allem Braunkohle- und Kernkraftwerke. Effiziente Großkraftwerke für die Grundlast sind Voraussetzung für kostengünstigen Strom. Aufgrund ihrer zeitlich fluktuierenden Leistung sind Wind- und Solarstrom nicht grundlastfähig. Auch Punkt 3 ist nichts für Windräder und Solaranlagen. Sie haben zwar ausgeprägte Leistungsspitzen, die aber mit Verbrauchsspitzen selten zusammenfallen.

Grüne Energieszenarios sehen vor, einen Teil von Grund- und Spitzenlast mit Strom aus Biomasse abzudecken. 2030 sollen 20 Prozent des Stroms (100 TWh) von deutschen Äckern und Wäldern kommen. Eine grobe Schätzung ergibt dafür einen Flächenbedarf von etlichen 10.000 km2; mehrere zehn Millionen Tonnen an Mais, Rüben, Holz etc. müssten dafür pro Jahr bewegt und zwischengelagert werden. Außer Strom soll der deutsche Landwirt auch Sprit liefern, dazu noch Nahrung für Mensch und Tier. Und auch für Natur soll noch Raum da sein. Biostrom fürs Netz in den erforderlichen großen Mengen bereitzustellen, dürfte deshalb illusionär sein.

Damit bleiben zwei Krücken, um den launischen Ökostrom einzubinden: Stromspeicher und Smart Grids. Letztere sind eine nette Umschreibung dafür, dass der Stromverbrauch sich dem Angebot anzupassen hat. Regeln, also den Mangel verwalten, müssen das zentrale Instanzen. In welchem Maße das möglich ist, ist noch vollkommen ungeklärt. Stromspeicher sollen “überschüssigen” Wind- und Solarstrom speichern. Das klingt, als gäbe es etwas umsonst. Speichern ist allerdings zusätzlicher Aufwand und verteuert den Strom. Pumpspeicherkraftwerke sind derzeit die einzig wirtschaftlichen Anlagen zur Speicherung. Diese wandeln Strom in mechanische Energie und wieder zurück in elektrische. Ein Fünftel bis ein Viertel an Energie geht dabei verloren. Hinzu kommen Übertragungsverluste für den Transport des Stroms zu den Pumpen und anschließend zu den Verbrauchern.

Letztendlich geht es nicht um die Speicherung von Stromüberschüssen. Wenn immer mehr konventionelle Kraftwerke abgeschaltet werden, sind Speicher unerlässlich zur Verstetigung des Stromflusses (Kern- oder Kohlekraftwerke machen das von Natur aus – ohne Zusatzkosten). Zahlreiche Windräder werden nur damit beschäftigt sein, die Speicherbecken zu füllen. Der Aufwand dafür ist hoch. Bei einem 30-prozentigen Windanteil an der deutschen Stromversorgung, geplant für 2030, bräuchte man zur Überbrückung einer nahezu windfreien Woche 70 bis 80 große Pumpspeicher – zehnmal so viel wie heute. Das gibt allein schon Deutschlands Geographie nicht her.

Am Speicherproblem dürfte die Energiewende scheitern, letztlich also daran, dass Wind und Sonne keine stetige, stets verfügbare Gigawattleistung liefern können. Deshalb werden in Deutschland, nach Abschaltung der Kernkraftwerke, fossile Kraftwerke weiterhin die Hauptlast tragen. Auch noch mehr Windräder und noch mehr PV-Anlagen werden sie nicht überflüssig machen. Im Gegenteil, wie Fachleute bereits vor dreißig Jahren während der ersten großen Debatte um die damals so genannten “sanften Energietechnologien” zeigten. Die “Soft”-Technologien, so die Schlussfolgerung, können nur in einigen Nischen existieren, wenn sie in einer gut funktionierenden “Hard”-Infrastruktur eingebettet bleiben. [16] Die meisten Länder halten sich daran, insbesondere die, die dahin wollen, wo die Industrieländer bereits stehen. Nur Deutschland möchte das Gegenteil beweisen.

Was ist überhaupt gut an …

Strom aus Wind und Sonne ist teuer, unzuverlässig, verbraucht große Mengen an Rohstoffen, belegt und verhässlicht in bislang nicht gekanntem Ausmaß das Land. Inwieweit machen diese Energien überhaupt Sinn? Prof. Klaus Heinloth, der kenntnisreichste Energieexperte in Deutschland, hat in den 1990er Jahren untersucht, wie weit sich das Potential der Erneuerbaren ausschöpfen ließe. Für den zeitlich fluktuierenden Strom aus Wind und Sonne geht er von der vernünftigen Voraussetzung aus, dass dieser Teil des vorhandenen Strommixes sein sollte. Dann könnten “insgesamt maximal bis zu 20 GW aus Wind (10 GW) und Solarzellen (10 GW) ohne intolerable Verluste für die stetig verfügbaren Wärmekraftwerke eingespeist werden.” [17]

Heinloth weist aber auch darauf hin, dass sich diese Einbindung nur zu einem Mehrfachen der Investitionskosten für existierende Energietechniken realisieren lasse. Die Stromrechnungen für die deutschen Verbraucher belegen das. Deutschlands Stromkosten für Haushalte sind inzwischen die zweithöchsten der Welt; nur die Dänen zahlen mehr. Ein Zufall ist das nicht: Unsere skandinavischen Nachbarn führen bei der installierten Windleistung pro Kopf, Deutschland ist weltweit Spitzenreiter in Solarkapazität pro Kopf.

Aufgrund ihrer hohen Erzeugungs- und Zusatzkosten machen Wind- und Solarstrom nur bei lokalem Einsatz wirtschaftlich Sinn. Dann entfallen zumindest die erheblichen Netzleitungskosten. Auch in Regionen, wo es kein Netz gibt, sind Windräder und Solarzellen sinnvoll. David Bergeron, Präsident einer Solarenergiefirma in Tucson (Arizona), weiß, wovon er redet: “Wirtschaftlich ist ans Stromnetz angeschlossene Photovoltaik ein hoffnungsloser Fall (…) Photovoltaik ist phantastisch für Menschen, die dort leben, wo es kein Stromnetz gibt. Doch ist es Wunschdenken zu glauben, Photovoltaik könnte konventionelle Stromerzeugungtechnologien ersetzen oder gar kostengünstig Strom ins Netz einspeisen.” [18] Und das in Tucson, einer Wüstenregion, wo PV doppelt so ertragreich ist wie in Deutschland.

Hierzulande gibt es inzwischen 1,2 Millionen PV-Anlagen, zumeist auf Dächern, Nennleistung zwischen einigen und einigen zehn Kilowatt. All diese Kleinanlagen schicken ihren Strom in den oft wenigen Sonnenstunden ins Netz, oft bis zu dessen Überlastung. Das geschieht nach dem Motto “Produzieren und vergessen”; ob der Strom bedarfsgerecht geliefert wird, muss die Produzenten nicht kümmern. Geld erhalten sie in jedem Fall. Ihren Stromverbrauch decken sie aus dem Netz. Da zahlen sie für die Kilowattstunde weniger als sie für die gelieferte erhalten haben. Die Solarindustrie nennt das “wirtschaftlich”.

Die “Ananas vom Dach”, die sich “dank der lukrativen staatlichen Förderung rechnet” (Werbung von Solarfirmen), macht das groteske Ausmaß der Energiewende deutlich. Um die Mittagszeit herum können die Solarmodule bei Sonnenschein mehr Strom ins Netz schicken als die acht bislang stillgelegten Atomkraftwerke zusammen. Die Solarlobby wertet dies als Bestätigung der Energiewende; energiewirtschaftlich sind derart extreme Leistungsspitzen allerdings vom Übel. Die Versorgungsunternehmen können den Strom nur zu Niedrigstpreisen verkaufen bzw. müssen ihn verschenken. Die Besitzer der Solaranlagen erhalten trotzdem die per EEG garantierte hohe Vergütung. Das zahlt der Verbraucher über Zwangsumlage.

Dank billiger Photovoltaik-Module aus China kostet eine Kilowattstunde Solarstrom aus einer neuen Anlage heute rund 16 Cent (immer noch ein Mehrfaches der Gestehungskosten von Nuklear- oder Kohlestrom). Sie liegt damit unter dem inzwischen kräftig gestiegenen Strompreis. Damit ist es an der Zeit, dass der Solardachbesitzer den Strom selbst nutzt und nicht länger Stromnetz und die übrigen Strombezieher belastet. Nur in dieser Nische macht Solarstrom ökonomisch Sinn.

Wohin führt die Wende?

Bei der Energiewende hakt es inzwischen an allen Ecken und Enden. Es erinnert an Goethes Zauberlehrling: einmal losgetreten, ist sie nicht mehr in den Griff zu bekommen. Die Strompreise laufen davon. Das war vorhersagbar, und die Preise werden weiter steigen, wenn immer mehr Windräder und Solarmodule dazukommen. Altmaiers Strompreisbremse wird den Anstieg nicht stoppen können, solange die ineffizienten Energien weiter mit unbegrenzten Subventionen ausgebaut werden. Denn diese sind es, die den Strom teuer machen. Spanien hat dies vor zwei Jahren erkannt und die Förderung gedeckelt. Des Pudels Kern offenbarte sich schnell: Mit Wegfall der durch Subventionen garantierten Gewinne verlor die Ökobranche die Lust am Investieren.

In Deutschland wäre es nicht anders. Auf sich selbst gestellt, wären die Ökoenergien nicht überlebensfähig. Die Privatwirtschaft würde sich hüten, in diese technologische Sackgasse zu investieren. Die Energiewende existiert deshalb nur dank der massiven Intervention durch einen “gestaltenden Staat”. Das macht sie einzigartig und gefährlich. Dass ein Staat für den Energiesektor wie auch für andere Industrien Rahmen setzt, dass er zeitweise bestimmte Sektoren fördert, ist nicht ungewöhnlich. Die deutsche Energiewende aber bedeutet, dass dieser Staat dem Land und seinen Bürgern ein komplett anderes, nachweislich ineffizientes und nicht zukunftsfähiges Energiesystem aufzwingt. Dafür will er mit dem “nuklear-fossilen Komplex” ein Energiesystem aufgeben, das aufgrund seines hohen Nutzwertes weltweit die Grundlage des heutigen und zukünftigen globalen Wohlstands bildet. Zu sagen, die Welt liegt falsch, wir liegen richtig, erfordert schon ein großes Maß an Dünkel und Selbstgefälligkeit.

Der Staat kann die Energiewende nur umzusetzen versuchen, wenn er die Marktwirtschaft ausschaltet. Das ist mit dem von den Grünen entworfenen und eingeführten EEG erfolgreich gelungen. Damit befinden wir uns jetzt in der Planwirtschaft, deren Erfolgsgeschichte auch Frau Merkel bekannt ist. Scheitern wird die Energiewende also in jedem Fall. In der Ökonomie gibt es, wie in der Natur, Gesetzmäßigkeiten, über die man sich ungestraft nicht hinwegsetzen kann.

Die Kohle hat das lange Zeitalter der erneuerbaren Energien beendet, weil sie besser war als Energie aus Holz, aus Muskel-, Wind- und Wasserkraft. Öl und später Erdgas haben sich durchgesetzt, weil sie all das haben, was Kohle hat, nämlich konzentrierte, stets verfügbare Energie, und noch einige gute Eigenschaften mehr. Die Kernenergie setzt sich durch, weil die Energiedichte von Uran die der fossilen Brennstoffe um Größenordnungen übertrifft und sie dadurch große Mengen an Energie günstiger, sauberer und sicherer als ihre fossilen Partner liefern kann.

Der Staat hatte nichts oder nur wenig mit dem Erfolg dieser Energietechniken zu tun. Keine davon wurde planwirtschaftlich von oben, vom Staat, eingeführt. Keine durch gesetzliche Ausschaltung eines Konkurrenten bevorzugt, keine durch fortdauernde Subventionierung am Leben gehalten. Sie haben sich von unten, auf dem Markt durchgesetzt. Heute meinen deutsche Politiker, den freien Markt ignorieren zu können. Nur – er existiert. Er lässt sich nicht austricksen. Irgendwann setzt er sich durch, ob man ihn mag oder nicht. Es ist wie mit der Evolution: Die Kreationisten mögen sie auch nicht und können sie doch nicht aufhalten.

Der Markt ist für die Ökonomie das, was die Evolution für die lebende Natur ist. Auf dem Markt erweist sich, ob eine Technologie gut und effizient ist. Ist sie fortdauernd auf Sozialleistungen (auch Subventionen genannt) angewiesen, ist sie nicht gut genug. Keine Energietechnik ist bislang so verhätschelt worden wie Solarzellen, Windräder und Biogasanlagen. Dank großzügiger Förderung sind diese technisch ausgereift und können sich jetzt die ihnen angemessenen Nischen suchen. Wenn sie sich dort nicht wirtschaftlich behaupten können, werden sie es nie können. Ein Ende der Förderung ist damit überfällig.

Überfällig ist auch eine neue Sicht der Energiefrage. Im deutschen “Erneuerland” ist Energie etwas Böses. Man besteuert sie, verknappt sie, möchte sie am liebsten den Menschen nur in homöopathischen Dosen zukommen lassen. Wenn Energie teuer wird, freut man sich wie der Klimaforscher und gut versorgte Professor Mojib Latif, der sagt: “Energie muss wieder ein kostbares Gut werden!” [19] Energie war in Deutschland ein kostbares Gut – vor dem Kohlezeitalter. Und ein kostbares Gut ist sie heute immer noch – für Millionen von Menschen in den armen Regionen der Welt. Dort kann man sich den Luxus ineffizienter, erneuerbarer Energie nicht leisten. [20]

Deutsche Professoren können aber auch anders, zumindest konnten sie es früher. “Der kategorische Imperativ unserer traditionellen abendländischen Philosophie ist und bleibt die Maximierung der Summe des Glücks einer Vielzahl von Menschen”, so schrieb vor über dreißig Jahren der deutsche Kernphysiker Walter Seifritz in seinem immer noch aktuellen Buch über “Sanfte Energietechnologie”. [21] Wer unsere dichtbevölkerten Industrienationen vollständig auf die “regenerierbaren” Energiequellen umstellen wolle, so schlussfolgerte er damals, handele nicht human, sondern aus “ökologischer Böswilligkeit”, der zufolge die Welt sich in Selbstbeschränkung üben solle.

Von dieser Böswilligkeit gibt es in Deutschland zu viel.

Heinz Horeis ist freier Wissenschaftsjournalist.

Verwandte Artikel

Günter Keil: Die Energiewende – ein aussichtsloses Projekt
Rudolf Kipp: Energiewende: Exportüberschuss beim Strom – Und warum das keine gute Nachricht ist
Werner Marnette: Energiewende: Neustart erforderlich

Buchempfehlung: Günther keil: Die Energiewende ist schon gescheitert, Tvr Medienverlag, 136 S., 2012.

Jürgen Langeheine:  „Energiepolitik in Deutschland – Das Geschäft mit der Angst“, Athene Media Verlag, gebunden, Euro 16,98, 238 Seiten.

Anmerkungen

1Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen (WBGU): Gesellschaftsvertrag für eine Große Transformation, Hauptgutachten 2011.
2Cesare Marchetti: “Energy Supply: The Long-Time Horizon”, IIASA Laxenburg, 1997.
3Angus Maddison: The World Economy. Volume 1: A Millennial Perspective and Volume 2: Historical Statistics, OECD Publishing, 2006.
4Freie Energie bezieht sich auf jenen Anteil einer Energieform, der genutzt werden kann, um physikalische Arbeit zu verrichten. Die Erzeugung von Strom produziert freie Energie, die durch Sonnenstrahlung erwärmte Erdoberfläche nicht. Durch Photosynthese in chemische Energie umgewandeltes Sonnenlicht liefert freie Energie, die Mensch und Tier über die Nahrung aufnehmen.
5Es gibt einen plausiblen Zusammenhang zwischen der von Maddison berechneten Entwicklung des globalen Pro-Kopf-Einkommens und der Energiemenge, die dem Menschen zur Verfügung steht. Sein biologischer Energiebedarf, aufgenommen durch die tägliche Nahrung, liegt bei rund 100 Watt. Dazu kommt noch der Energiebedarf für die technische Umwelt, mit der sich der Mensch das Leben leichter macht. Diese Technosphäre war im vorindustriellen Zeitalter klein: Bekleidung, eine Hütte, Holzfeuer zum Kochen. Alles in allem dürften für den vorindustriellen Menschen wenige 100 Watt zusammenkommen. Dem Bundesbürger hingegen stehen durchschnittlich 5.500 Watt zur Verfügung, zehn- bis zwanzigmal so viel wie dem Menschen in vorindustrieller Zeit. Das entspricht annähernd dem, was Maddison für das Pro-Kopf-Einkommen errechnet hat: Eine Verzehnfachung der Energiemenge, die dem Menschen pro Kopf zur Verfügung steht, geht mit einer Verzehnfachung seines Einkommens pro Kopf einher!
6Der Rohstoffverbrauch verschiedener Energiequellen wurde bereits in den 1970er Jahren untersucht. Neuere Untersuchungen stammen u.a. vom Energiewirtschaftlichen Institut der Universität Stuttgart (IER), A. Voss: Wege der Energiewirtschaft zu einer nachhaltigen Energieversorgung, Vortrag beim VDI-Frühlingstreffen Neckarwestheim 2011. Die Zahlen ergeben sich aus dem gesamten Lebenszyklus einer stromerzeugenden Anlage und beinhalten also auch, im Fall von Kohle und Uran, den Aufwand für Entsorgung und Förderung.
7Energiedichte, gemessen in Joule, bezieht sich auf den Energiegehalt einer gegebenen Menge an Brennstoff (ein Kilogramm Kohle, ein Kubikmeter Erdgas, ein Liter Benzin). Leistungsdichte, gemessen in Watt pro Flächen- bzw. Volumeneinheit, beschreibt einen zeitlichen Energiefluss (1 Watt = 1 Joule pro Sekunde). Zum Beispiel beträgt die Leistungsdichte in einem Reaktordruckgefäß etwa 10 Megawatt/m3.
8Hartmut Michel: “Die natürliche Photosynthese”, in: Die Zukunft der Energie. Ein Bericht der Max-Planck-Gesellschaft, München 2008.
9Catherine Bowyer: Anticipated indirect land use change associated with expanded use of biofuels and bioliquids in the EU – An analysis of the national renewable energy action plans, Report for Institute European Environmental Policy, November 2010, ieep.eu.
10Financial Times Deutschland, 25.10.12.
11The State of Renewable Energies in Europe, 11th EurObserv’ER Report, 2011, eurobserv-er.org.
12Die Auslastung (auch Kapazitätsfaktor) ist das Verhältnis von tatsächlicher Jahresleistung zu der Leistung, die die Anlage bei stetiger Volllast (Nennleistung) pro Jahr produzieren könnte. Nennleistung ist die Wattzahl, die auf ihrem Typenschild steht. Für Solarzellen zum Beispiel wird dieser Wert, auch als “Watt Peak” bezeichnet, bei einer Bestrahlungsstärke von 1000 Watt/m2(und einer Anlagentemperatur von 25°C) ermittelt. Selbst in der Wüste erreicht die Sonnenstrahlung diesen Spitzenwert nur an wenigen Wochen im Jahr zur Mittagszeit.
13Nuclear Energy and Renewables: System Effects in Low-carbon Electricity Systems, NEA 2012. Eine vorangegangene Studie des IER Stuttgart kommt zu einem in der Größenordnung vergleichbaren Ergebnis: Erzeugungskosten zur Bereitstellung elektrischer Energie von Kraftwerksoptionen in 2015, IER Stuttgart 2010, ier.uni-stuttgart.de.
14“Neue Studie: Solarausbau kostet Deutschland mehr als 110 Milliarden Euro”, FAZ, 15.7.12.
15“Umweltminister Altmaier ‚Energiewende könnte bis zu einer Billion Euro kosten’”, FAZ, 19.2.13, faz.net.
16Walter Seifritz: Sanfte Energietechnologie – Hoffnung oder Utopie?, Thiemig, München 1980. Siehe auch: Energy in a Finite World. A Global Energy Systems Analysis, IIASA 1980.
17Klaus Heinloth: Die Energiefrage. Bedarf und Potentiale, Nutzung, Risiko und Kosten. Vieweg, Braunschweig 1997.
18David Bergeron: “Solar Power Cost: Don’t Forget Intermittency”, Energy Economics 101, masterresource.org, Übersetzung vom Autor.
19Hamburger Abendblatt, 9.8.10.
20Im November 2011 besuchte der Dalai Lama die vom Tsunami betroffenen Gebiete im Norden Japans. Auf einer anschließenden Pressekonferenz in Tokio plädierte er für die friedliche Nutzung der Kernenergie. Sie sei ein Mittel, um die großen gesellschaftlichen und wirtschaftlichen Unterschiede in den sich entwickelnden Ländern zu überbrücken. Die erneuerbaren Energien seien “zu ineffizient, um den Bedarf in den sich schnell entwickelnden Ländern praktisch decken zu können”.
21Walter Seifritz: Sanfte Energietechnologie – Hoffnung oder Utopie?, Thiemig, München 1980.

Der Beitrag erschien zuerst bei NOVO Argumente NovoArgumente 115 – I/2013 mit dem Schwerpunktthema Energie:

www.novo-argumente.com

 




Der totalitäre Charme der Erlösung! Von den historischen Wurzeln des Ökologismus

Während der Spätbronzezeit, gegen Ende des zweiten Jahrtausends v. Chr., ließ sich eine halbnomadisch lebende Sippe mit ihrem Gefolge inmitten versteckter Täler und Hänge nieder, die am Rande der Handelsrouten entlang der levantinischen Küste lagen. Sie verbündeten sich mit rechts und links des Flusses Jordan lebenden Stämmen, deren Namen wir in den Erzählungen der biblischen Bücher finden. In der politischen Geschichte dieses Landestriches, der bis in die Zeit Jesu von den Ägyptern, syrisch-anatolischen Herrschern, den Babyloniern, Assyrern, Persern, Griechen und Römern kontrolliert wurde, spielten sie zwar selten eine Rolle. Zu den Sagen jener kanaanäischen Sippengemeinschaft, die sich in der Bibel als Volk der Juden und als Israel präsentiert, gehörte aber auch die Erzählung eines in Ägypten versklavten Clans, der sich der Priesterfamilie eines Vulkangottes anschließt und so seinem Joch entfliehen kann. Diese Geschichte wurde zur Grundlage für eine literarische Gottesfigur, deren Erscheinungen durch die verschiedensten Einflüsse immer phantastischer angereichert wurden, vor allem während des babylonischen Exils, in dem die „oberen Zehntausend“ und ihre Priester die heiligen Schriften sammelten, erweiterten und redigierten. In Mesopotamien kamen sie auch mit dem orientalisch-indischen Endzeitdualismus des Propheten Zarathustra in Kontakt, der die monotheistischen Religionen fortan begleiten sollte. Die faszinierende, facettenreiche Persönlichkeit ihres Gottes konnte so vielfältig interpretiert werden, dass sie mit dem Religionsstifter Paulus das Volk der Juden verließ – nachdem den Aposteln und ihren Anhängern dämmerte, dass der erwartete Messias wohl doch so bald nicht erscheinen würde. Und bis heute befruchteten die jüdisch-orientalischen Gottespräsentationen eine Unzahl von Konfessionen in den verschiedensten christlichen, mohammedanischen und mystischen Ausprägungen.

Eines haben alle Erscheinungen dieses Gottes gemeinsam: Als Weltenherrscher und Menschenhirte verlangt er unbedingten Gehorsam und er setzt aufs Ganze: Auf die Bestrafung der Völker und die Erlösung der Menschheit. Dies ist der wichtigste Aspekt bei den im Folgenden behandelten religiösen und pseudoreligiösen Strömungen. Auch denen, die im Wirrwarr und der Unsicherheit antiker Völkerwanderungen verzweifelten, die nicht den dominierenden Glaubenssätzen folgten und ihren eigenen Weg zu Gott suchten, wie die vielen kleinen gnostischen und mystischen Zirkel, war eine so imposante Gottesfigur wichtig bei ihrer Suche nach Identität. Nun verstehen Fundamentalisten aber keinen Spaß und so gab es für die Abweichler etablierter Theologien selten etwas zu lachen. Nachdem sich der römische Kaiser Konstantin zu Anfang des vierten Jahrhunderts einer der christlichen Strömungen zuwandte und diese in seinem Sinne nutzte, wurden der kirchliche Kanon und die Glaubensaussagen nach und nach endgültig festgelegt. In den folgenden Jahrzehnten und Jahrhunderten wurden Unmengen abweichender Schriften und Gläubige vernichtet und so die dynamische Glaubensvielfalt des antiken Christentums verkrüppelt. Kirchenlehrer Augustinus, der eine Weile unter gnostischen Manichäern gelebt hatte – die Apostel des Lichts (Buddha, Zarathustra, Jesus, Mani) offenbaren ihr Erlösungswissen vom dualistischen Endkampf gegen die Mächte der Finsternis – trennte theologisch mit seiner Schrift „De Civitate Dei“ (Über den Gottesstaat) das Gottesreich im Himmel vom Erdenreich der Menschen. Seine Sicht auf die Menschen als massa damnata (die verurteilte Masse) begründete er mit der Erbsünde, dank derer Adam und damit jeder Mensch seine Begabung einbüßte. In der krisengeschüttelten Zeit des 4. Jahrhunderts lehrt er, dass Erlösung nur durch die Gnade Gottes möglich sei. Ein solches Sündenbewusstsein zieht sich bis heute durch die westliche Kultur, worauf wir noch zurückkommen.

Die islamische Philosophie blühte im Mittelalter in den kulturellen Zentren wie Cordoba, Granada, Kairo, Damaskus oder Bagdad und man disputierte dort unter Gelehrten auf den Höhen aristotelischer Kategorisierung menschlichen Daseins und Denkens. Allerdings wurde die philosophische Gedankenwelt immer wieder von den Anhängern der einfachen mohammedanischen Glaubenssätze und theologischen Reaktionären erstickt und verkümmerte nach dem Aufkommen der ersten fundamentalistischen Dynastien im 11./12. Jahrhundert in Nordafrika und Spanien (Almoraviden, Almohaden). Die Philosophie hatte sich mehr und mehr der Theologie unterzuordnen – einer der Gründe für die heutige Rückständigkeit der arabischen Welt – die Bedeutung des Wortes Islam/Unterwerfung, wurde in islamisch regierten Staaten dominant. Im Übrigen läge alles in Allahs Händen und schnelle Erlösung sei möglich durch das Martyrium im Kampf gegen die Ungläubigen.

So, wie sich der Blick auf die Welt erweitert und die Leute sich verstärkt den philosophischen Fragen widmen, verändert sich auch das Bewusstsein der Menschen. Der Gedanke, die Erlösung nicht passiv abzuwarten, sondern aktiv in das Geschehen einzugreifen, dem in der Antike gnostische Christen, Apokalyptiker und mystische Zirkel anhingen, wurde bestärkt und verbreitet durch die Verwüstungen des Hunnenzuges, durch die Kreuzzüge und die Pestepidemien, aber auch durch den enormen Wissensschub der Renaissance, den Buchdruck und die steigende Bildung. Messianische Bewegungen und fanatische Prediger wie Savonarola in Florenz versuchten das Sündenbewusstsein der Leute zu verschärfen und durch ihre apokalyptischen Prophezeiungen und rabiaten Handlungen die Macht über das Denken und Handeln der Menschen zu erlangen – ein Stil, der ebenfalls von den heutigen Öko-Priestern gepflegt wird. Doch wie elend auch immer das Dasein der Leute sein mag – nie wird eine Mehrzahl von ihnen bereit sein, ihr normales Leben im Diesseits gegen ein heiliges Leben einzutauschen, das sie erlöste vor einem verkündeten Endgericht.

Mit der Zeit der Aufklärung wurde der Drang nach Einsicht in die Geheimnisse der Natur und der Technik immer stärker, trat heraus aus den Sekten der Esoteriker, aus den Freidenkerzirkeln und spornte die Philosophen an, progressive Denksysteme zu entfalten. Hegel entwickelte seine Philosophie, die den Verlauf der Geschichte vorherbestimmt und dessen Dialektik kaum kritische Einwände zulässt. Die marxistischen Sozialisten folgten diesem Prinzip, entwickelten es weiter und einmal zur Macht gelangt, bekämpften sie die Ungläubigen, die sog. Konterrevolutionäre, unbarmherzig. Die nationalistischen Sozialisten folgten den Rassentheorien eines Gobineau und den Großmachtträumen einer idealisierten römischen Antike und begingen die grausamsten Verbrechen auf ihrem Wege der Erlösung. Viele Leute waren von geistigen Verheerungen und den Zerstörungen des ersten großen Krieges 1914 – 1918 so traumatisiert, dass sie nicht die Kraft besaßen, den fanatischen Führern zu widerstehen, die Erlösung im Diesseits erzwingen wollten.

Die im 18./19. Jahrhundert erwachende Naturbewegung pries die romantischen Bilder eines edlen Wilden (Rousseau) oder eines reinen Denkers in der Natur (Thoreau) und ihre Anhänger entwickelten esoterische Heilslehren, die nicht besser oder schlechter sind, als jene der antiken mystischen Glaubenszirkel, solange ihre Protagonisten sie nicht als unentbehrlich zur Welterlösung ansehen, die Apokalypse ausrufend zur Mission schreiten und Macht über das Bewusstsein der Menschen gewinnen wollen – wie es die Propagandisten der aktuellen Öko-Welle versuchen. Leider befinden wir uns schon seit einiger Zeit in einem solchen Prozess der Indoktrination. Ökologistische Endzeitbewegungen erzeugen ein aktualisiertes Sündenbewusstsein vor allem in der westlichen Welt, die ihre freiheitlichen Errungenschaften offenbar immer wieder gern zur Disposition stellt – abgesehen von Völkern mit einer langen parlamentarischen Geschichte und traditionellen Freiheitsliebe, wie den Engländern und den Schweizern. Wieder einmal lautet die Prophezeiung: Die Apokalypse sei nahe (Klimakatastrophe) und zwar aufgrund unseres westlichen Lebensstils (unserer Sünden), tut Buße (Ablass durch Handel mit CO2–Zertifikaten). Das predigen nicht etwa Wüstenpropheten, sondern Leute wie Al Gore, dessen privater Energieverbrauch in manchen Ländern eine mittlere Kleinstadt unterhalten könnte. Konkret bedeuten solche Forderungen irrationale Maßnahmen, um einerseits den CO2-Ausstoß einzuschränken, andererseits aber die sog. Energiewende einzuleiten, die die Schließung sicherer Kernkraftwerke zur Folge hat. Das ist keine Ökologie, sondern Öko-Logik. Die Gründe dieses Irrsinns liegen in einer panisch überzogenen Reaktion auf die Ereignisse nach dem schweren Erdbeben mit folgendem Tsunami, die Japan  am 11. März 2011 trafen, und in der umstrittenen Spekulation über die Auswirkungen anthropogener Abgase. Der gelehrte Schwätzer und Klimaforscher Prof. Latif erklärt anhand seiner offensichtlich unzureichenden Daten im Jahre 2000, dass es strenge Winter in unseren Breiten nicht mehr geben wird und nun behauptet er, dass auch außergewöhnlich strenge Winter nicht den früheren Vorhersagen zur Erderwärmung widersprechen. Wissenschaftler sollten die Dinge betrachten, wie sie sind und sich der Spekulationen und Glaubenssätze enthalten. Der in einer frei schwebenden Blase politischer Motivation existierende Prof. Schellnhuber hat sogar schon behauptet, das zulässige CO2–Kontingent eines jeden Erdenbürgers errechnen zu können. Was für eine Anmaßung, fast würde man als Nächstes eine Liste lebensunwerter CO2–Erzeuger erwarten. Was geschieht wohl mit denen, die ihr Kontingent überschreiten? Bekommen die Vielreisenden des Klimazirkus einen Erlöser-Rabatt? Vielleicht steckt ja unsere berüchtigte German Angst hinter den vielen sinnfreien Maßnahmen zum sog. Klimaschutz. Wir Deutschen haben ein besonderes Talent zu fragwürdigen Gesellschaftsexperimenten, zusätzlich haben wir leider auch ein Talent zu Hörigkeit und Zerstörung in großem Stil. Inzwischen wirkt der menschenverachtende Ökologismus so verheerend, dass die sog. Maßnahmen zur Rettung des Klimas weite Teile der Natur und große Bereiche nationaler Ökonomien vernichten (s. „Climate Crimes“). Die deutsche sog. Umweltpartei, Bündnis 90/Die Grünen, fordert in ihrem aktuellen Wahlprogramm die Energieversorgung ab dem Jahre 2030 100%ig durch sog. Erneuerbare Energien. Damit erführe der Morgenthau-Plan aus dem Jahre 1944 doch noch eine späte Würdigung, nach welchem Deutschland dem Siege der Alliierten folgend zu einem Agrarstaat degradiert werden sollte. Denn die Stromversorgung einer Industrienation im Norden Europas der Sonne, Windstärken und anderen Unwägbarkeiten zu unterwerfen, bedeutet die Abhängigkeit von Stromimporten und langfristig vielleicht den Ruin großer Industrien. Dank derartiger Maßnahmen ist die autarke Getreideversorgung in Deutschland schon seit 2 Jahren nicht mehr möglich. Die sog. Experten, die an Ihren Plänen zur Energiewende tüfteln, die Geschäftemacher und Lobbyisten des Öko-Industriellen Komplexes verschwenden sicherlich keinen Gedanken daran, dass eine stabile, bezahlbare Energieversorgung unser sicheres, angenehmes Leben erst ermöglicht. Die falschen Propheten erschaffen sich aber ihre eigene Phänomenologie des Klimas und wenn die Realität wieder einmal eine andere ist – „Umso schlimmer für die Wahrheit.“ (Hegel)

Den Erlöserbewegungen sind ihr Totalitarismus, ihre religiösen Aspekte, ihre pseudowissenschaftlichen Argumentationen und eine zerstörerische Maßlosigkeit gemein. Zwar ändern sich die jeweiligen messianischen Figuren von den religiösen Gestalten der Antike (Messias, Jesus, Mahdi) hin zu pseudoreligiösen Idolen (Führer, Proletarier, Kommunist, Klimaretter), doch geht es ihnen allen um den Endkampf mit dem Bösen, auf dass der Erlöser das Reich des Guten auf Erden errichten solle. Dieser Streit aber bringt das Chaos erst hervor, denn er ist wider die Vernunft, wider das Leben und er verlangt, wenn er Erfolg haben will, die Unterdrückung des kritischen Geistes und eine totalitäre Erziehungsdiktatur. Erlösung existiert in den Köpfen der Glaubensanhänger, in den Plänen der sozialistischen Funktionäre, in den Prophezeiungen der orthodoxen Ökologisten. Dem sollte das entgegenstehen, was unsere Kultur ausmacht: Kreativität, Realitätssinn, Intelligenz und der Wunsch der Menschen, ein Leben in Freiheit auf der Suche nach Glück zu führen – nicht mehr, aber auch nicht weniger. Eric Voegelin hat es einmal so ausgedrückt: Die Struktur des Seins ändert sich bei aller Verfälschung nicht. Also, liebe Umweltfreunde, Klimaforscher und sog. Klimaschützer: Denkt daran, dass wir alle fehlbar sind, auch ihr, die ihr euch wie Heilige spreizt. Unser Planet ist kein kompaktes Gebilde, das so bleibt, wie es im Moment des Auftauchens der Menschheit existierte. Er ist wie ein lebendiger, sich ständig wandelnder Organismus; mit einer von uns unabhängigen, sehr langen Geschichte von Klimaschwankungen, angetrieben von den Gesetzen des Universums und seinem heißen, strahlenden Kern, unterworfen den Launen einer übermächtigen Sonne. Die Umwelt zu schützen ist lobenswert, aller Ehren und sollte eine Selbstverständlichkeit sein, um die man kein Aufheben machen muss. Benutzt aber niemals das Klima als einen Glaubensfetisch und glaubt nicht aufgrund lückenhafter Erkenntnisse und fragwürdiger Spekulationen alle unverstandenen Aspekte des Wandels auf unserer schönen Erde kontrollieren zu können, als wäret ihr die Erlöser. Wer den Menschen für einen Schädling hält oder für überflüssig, den hindert niemand daran, freiwillig abzutreten, in seinen eigenen Abgrund zu springen – ohne die anderen mit hinunterzureißen. Erlösung aber überlasst dem Allmächtigen.

Bernd Hoenig ; Religionswissenschaftler, für EIKE

Lesen Sie hierzu auch eine kritische Würdigung des evangelischen Kirchentages: mit dem Motto „Soviel Du brauchst“ (Heerschau aller Weinerlichen und Betroffenen) 

von Alexander Grau in Cicero




Wiedervorlage: Weltbank warnt vor Klimakollaps- Schellnhuber führte die Feder

Herrn

Prof. Dr. Hans Joachim Schellnhuber

Potsdam Institut für Klimafolgenforschung

Telegrafenberg A 31

14473 Potsdam

Betr.:    dpa-Meldung vom 19.11. im Vorfeld des Doha-Gipfels: Weltbank warnt vor Klimakollaps

Sehr geehrter Herr Prof. Schellnhuber!

In mehreren Presseorganen (u.a. auch Focus Online und FAZ) war kürzlich zu lesen, dass die Weltbank mit Berufung auf eine vom PIK auftragsgemäß erstellte Studie wieder mal die schlimmsten Befürchtungen für unser zukünftiges Klima zum Ausdruck bringt. Bis zu 4 °C soll die Globaltemperatur dieses Jahrhunderts mit einer gewissen Wahrscheinlichkeit ansteigen, wenn die weltweiten anthropogenen CO2-Emissionen nicht radikal heruntergefahren werden. Möglich sei sogar, dass dieser Wert bereits im Jahr 2060 erreicht sein wird.

Hierzu kann ich mit Bezug auf Ihr eigenes Rechenprogramm (PIK und IPCC) nur feststellen, dass dieses in Wirklichkeit für den, der es kennt, die obige Aussage geradezu auf den Kopf stellt. Bei einer Verdoppelung des gegenwärtigen CO2-Gehalts von knapp 400 ppm errechnen Sie zunächst richtigerweise eine treibhausbedingte Erhöhung der Globaltemperatur um 1,1 °C (abgeleitet aus dem IR-Strahlungsantrieb von 3,7 Watt/m2 und dann umgerechnet nach der wohl immer noch gültigen Stefan-Boltzmann Gleichung). Bis 2060 werden von heute an nicht einmal 50 Jahre vergehen. Dies entspräche bei konstant angenommener CO2-Zunahme der Atmosphäre von derzeit 2 ppm pro Jahr gerade mal knapp 100 ppm, d.h. einem Viertel der o.g. Verdoppelung. Danach dürfte die globale Temperaturerhöhung bis 2060 gemäß Ihrer eigenen Rechnung nur höchstens 0,3 °C betragen, oder die Temperaturzunahme der letzten 100 Jahre hätte sogar noch größer als 4 °C ausfallen müssen, da der bisherige CO2-Anstieg um 100 ppm wegen der logarithmischen Degression stärker ins Gewicht fällt als der zu erwartende Anstieg bis 2060. Aber es wurden „offiziell“ doch nur 0,7-0,8 °C gemessen (nach „Climategate“ Bereinigung sind es gar nur 0,5 °C), und das auch noch einschließlich des Solareinflusses sowie der Wirkung der ebenfalls angestiegenen Treibhausgase Methan, Lachgas, Ozon und FCKW. Ferner hat noch niemand den Einfluß des Wärmeinseleffekts einigermaßen exakt ermittelt, der zwangsläufig sogar einen weiteren Temperaturabzug bedingen müßte. Für einen anthropogenen CO2-Einfluss bleibt hier höchstens noch Raum in einem Temperaturbereich unterhalb von 0,2 oC.

Nun muss aber noch eine besonders wichtige Klarstellung vorgenommen werden. Die o.g. errechnete Temperaturzunahme von 1,1 °C im Falle einer CO2-Verdoppelung gilt in Wirklichkeit nur unter der Bedingung, dass in der Atmosphäre keine weiteren treibhausaktiven Absorber vorhanden sind, die bei gegebener Anwesenheit das CO2 weitgehend entlasten würden. Dieser Fall liegt nun aber eindeutig vor und zwar einmal in Form von großräumig verbreiteten Wolkendecken und zum anderen in Form des überall vorhandenen Wasserdampfes im spektralen Überlappungsbereich der 15 µm-Bande. Hiernach dürfte der anthropogene Erwärmungseinfluss nicht einmal die Hälfte des oben errechneten Temperaturanstiegs von ca. 0,3 °C betragen, nämlich maximal nur noch mehr 0,15 °C. Dies deckt sich zudem noch sehr gut mit den eingangs beschriebenen Temperaturwerten, die sich schon allein aus der Messung ergeben haben. Auch wenn man noch einen angemessenen Rückkopplungseffekt konzediert, kann derselbe doch keine große Änderung mehr bewirken. Die bis zu 3000 m dicken Eispanzer auf Grönland und der Antarktis können hierdurch nun wirklich nicht zum Abschmelzen gebracht werden.

Wie kommen Sie unter diesen Umständen überhaupt auf einen globalen Erwärmungswert von 4 °C, wo für den gleichen Zeitraum nach Ihrem eigenen Rechenweg nur 0,15 °C erreichbar sind? Zwischen den o.g. Zahlen 0,15 und 4 °C liegen doch mehr als Welten. Lediglich der obligatorische Abzug von 0,3 auf 0,15 °C entspricht nicht dem Rechenprogramm Ihres Instituts und des IPCC, weil die hohen Temperaturprognosen, die offenbar gewollt sind, dann noch weniger erklärbar gewesen wären, selbst wenn sie durch die Wahrscheinlichkeitsklausel keinen Absolutheitscharakter haben mögen. Eine nachweislich saubere Rechnung (gemäß Ihrem eigenen Ansatz, der auch meinem eigenen Rechenweg entspricht), kann man nicht durch Einführung eines „deus ex machina“ in Form von dubiosen Wahrscheinlichkeitsbetrachtungen außer Kraft setzen und derart extrem verfälschen, selbst wenn man den Grad der Wahrscheinlichkeit noch so niedrig ansetzen würde. Gegen die Wahrscheinlichkeit, dass es bei einem weiteren CO2-Anstieg von 100 ppm um 4 °C wärmer werden könnte, haben Sie doch die Sicherheit, dass es bei dem letzten gleichhohen Anstieg längst nicht so warm geworden ist. Ihre Prognose ist damit falsifiziert. Selbst das politisch so hochgesetzte und von Ihnen verteidigte 2 °C-Ziel ist damit auf gleiche Weise obsolet geworden. Wenn man dann noch betrachtet, dass der deutsche Anteil an den weltweiten CO2-Emissionen nur 2,5 % beträgt, liegt unser Beitrag zur globalen Erderwärmung sogar nur im Bereich von wenigen Tausendstel Grad. Wie kommen wir bloß dazu, hierfür riesige Geldsummen zu opfern und über das hinaus unsere ganze Zukunft völlig unnötig aufs Spiel zu setzen!

Ich durfte im vergangenen Jahr einmal gemeinsam mit anderen kritisch eingestellten Wissenschaftlern von EIKE Gast Ihres Hauses sein bei einem kontroversen Gedankenaustausch zum gleichen Thema. Leider haben wir damals auf alle unsere Argumente keine wirklich konkreten Antworten erhalten. Gegen Schluss wurde auf meinen gut begründeten Diskussionsbeitrag pauschal erwidert, dass ohne die Annahme eines hohen CO2-Einflusses die großen Temperaturschwankungen während der einzelnen Eiszeitperioden nicht zu erklären wären. Mit dieser außer jeder Kausalität stehenden Bemerkung sind wir dann anschließend auseinandergegangen, ohne dass Sie dem selbst widersprochen haben. Ich wäre sehr erfreut, wenn ich diesmal eine konkretere Antwort erhalten würde, um den eklatanten Widerspruch unserer Ansichten vielleicht doch einmal aufzulösen. Mit Herrn Prof. Edenhofer habe ich dasselbe vor einiger Zeit mit ähnlichen Argumenten schon einmal versucht (Schreiben vom 12.03.2012).
Außer allgemeinen Floskeln ist nichts dabei herausgekommen, und mein anschließendes Erwiderungsschreiben wurde schon gar nicht mehr beantwortet, obwohl es wie schon mein erster Brief sehr sachlich abgefasst war. Von einem wissenschaftlichen Institut hätte ich eigentlich etwas mehr erwarten dürfen.

Wegen der hohen politischen Bedeutung erlaube ich mir, eine Kopie dieses Schreibens auch an die Frau Bundeskanzlerin sowie an die Herren Bundesminister für Umwelt und Wirtschaft zu senden.

Mit freundlichen Grüßen

Ihr

Dr. Siegfried Dittrich  

Kopie:       Frau Bundeskanzlerin Dr. Angela Merkel
                   Herrn Bundesumweltminister Dr. Peter Altmaier
                   Herrn Bundeswirtschaftsminister Dr. Philipp Rösler




Kernenergie: 100 Gründe und 100 gute Antworten. Fortsetzung #37 bis #41

Wenn man Zahlen schon frei erfindet, dachte sich Hohmeyer, so kann man sie auch gleich noch gründlich verfälschen. In Deutschland ist die Bevölkerungsdichte 10 mal so hoch wie im Umkreis von Tschernobyl. Da konnte Hohmeyer der Versuchung nicht widerstehen, den Tschernobyl-Reaktor in Hamburg explodieren zu lassen. Nun gibt es zwar in Deutschland überhaupt keine Reaktoren vom Typ RBMK, und ein derartiges Verhalten ist bei hiesigen Reaktoren physikalisch ausgeschlossen, aber egal, Hohmeyer ist schließlich kein Physiker oder Ingenieur, er kann dies also gar nicht wissen. Reaktor ist für unseren Volkswirten gleich Reaktor, ob RBMK, Druckwasserreaktor oder Kaffeemaschine, das ist alles gleich. Und es ist ja für einen guten Zweck, denn jetzt kann man schon 10 Millionen Opfer anbieten, und das macht schon was her.

Aber da geht doch noch was, richtig, der Reaktorkern! In Tschernobyl wurden nur einige Prozent des Reaktorkerns in die Luft geblasen. Gemäß der Devise „gar nicht erst kleckern, sondern gleich klotzen” kann man ja einfach mal behaupten, dass auch der gesamte Reaktorkern die Bevölkerung beglücken kann. Durch diesen phantastischen Trick kann man nun aus den 10 Millionen nochmals 100 Millionen Opfer machen.

Doch da kommt die fiese Statistik und macht Hohmeyer doch wieder einen Strich durch die Rechnung. Denn laut GRS-Studie ist die Wahrscheinlichkeit für ein Kraftwerk vom Typ „Biblis B”, durch einen Unfall und anschließendes „Däumchendrehen” Radioaktivität freizusetzen, 0,00003% pro Jahr. Damit käme man dann selbst für den oberen Wert für die Krebswahrscheinlichkeit „nur” auf 27 Opfer pro Jahr, schon wieder viel zu wenig. Also erfand Hohmeyer einen weiteren Trick. In fester Überzeugung, dass die GRS-Studie ohnehin keiner liest, erklärte er den „Schadensfall” kurzerhand zum „Super-GAU”. Die Wahrscheinlichkeit für einen Schadensfall ist nämlich einen Faktor 100 höher, womit wir schon bei 2.700 Opfern pro Reaktorjahr wären. Damit war Hohmeyer nun zufrieden, natürlich nicht ohne zu betonen, dass es noch viel schlimmer kommen könnte und die psychisch bedingten Schäden noch gar nicht erfasst sind.

Mit dieser Opferzahl kann man nun eine Menge anstellen. Man kann mit exorbitanten „versteckten” Kosten argumentieren, die Opferzahlen in Produktionsausfälle umrechnen und astronomische Versicherungssummen vorrechnen. Und dies alles nur, weil sich der Journalist Gerhard Bott, der als studierter Gesellschafts-, Rechts- und Staatswissenschaftler sicher für die Abschätzung radiologisch-medizinischer Risiken hoch qualifiziert ist, im Jahre 1987 durch eine Fernsehsendung profilieren musste.

Wir schließen nun unseren Rundgang durch die phantastische Welt der umgekehrten Wahrscheinlichkeiten (Kategorie „Unfall- & Katastrophenrisiko”) mit einem letzten Blick auf Hohmeyers unschlagbare Doktorarbeit, einmal in Form von 5 Millionen Krebserkrankungen (#37), zum anderen in Form exorbitanter Schadenssummen (#41), aber auch indirekt in Form von Betroffenheitsorgien (#38). Der Mythos „Jodtabletten” darf in diesem Reigen auch nicht fehlen (#40), aber es gibt wiederum einen klaren Sieger, Grund/Antwort #39. Hier hat die ehemalige Umweltorganisation Greenpeace mit einer völlig neuen Dimension der Strahlenausbreitung und -wirkung (man beachte das Diagramm auf der verlinkten Seite, da kann man nur noch schlucken. Begutachtete Publikationen schenkt sich Greenpeace angesichts dieses Horrors und hat eindeutig den Vogel abgeschossen.

Es existiert offensichtlich doch ein Parallel-Universum, in welchem eine parallele „Wissenschaft” stattfindet, die nach ganz eigenen Gesetzen funktioniert. In diesem leben neben Hohmeyer, Hickel, Bott, Körblein, dem IPPNW, Greenpeace und vielen anderen auch die Verantwortlichen der „100 guten Gründe”, Michael und Ursula Sladek, deren Elektrizitätswerke Schönau (EWS) wir alle mitfinanzieren, ob wir wollen oder nicht. Ein Parallel-Universum ist eben nicht ganz billig.

Hundert gute Antworten #37 – #41, die bisherigen Antworten finden Sie in den EIKE-News (Energie) vom 29.3.2013, 3.4.2013, 7.4.2013, 10.4.2013, 16.4.2013, 19.4.2013, 26.4.2013, 3.5.2013, 9.5.2013.

#37: Krebs für Millionen

Behauptung: Bei einem Super-GAU in Deutschland müssen Millionen von Menschen mit schweren Gesundheitsschäden rechnen.

Die EWS behaupten

Eine Studie im Auftrag des Bundeswirtschaftsministeriums hat – unter Berücksichtigung der Erfahrungen von Tschernobyl – die zu erwartenden Gesundheitsschäden nach einem schweren Atomunfall in Deutschland abgeschätzt. Für den Fall eines Super-GAUs etwa im Atomkraftwerk Biblis rechnet sie mit 4,8 Millionen zusätzlichen Krebserkrankungen. Hinzu kommen alle anderen direkten und indirekten Gesundheitsschäden durch Strahlung, Evakuierung und Verlust der Heimat.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die hier zitierte Zahl von „4,8 Millionen zusätzlichen Krebserkrankungen” stammt ursprünglich nicht von der besagten Studie, sondern aus der 1989 angerfertigten Doktorarbeit des bekannten Antiatom-Lobbyisten und Volkswirten Olav Hohmeyer, bzw. dessen Doktorvater Rudolf Hickel. Sie wird seitdem immer wieder zitiert. Aber wo haben Hohmeyer und Hickel sie her? Welche epidemiologischen Studien wurden angefertigt, welche Krebsregister durchforstet, wie viele Leute befragt, wie die jeweilige Strahlendosis ermittelt?

Schlägt man Hohmeyers Doktorarbeit auf, findet man von all dem nichts – die Zahl wurde lediglich aus der 1987 ausgestrahlten Fernsehsendung des NDR „Tschernobyl – ein Jahr danach” kopiert. Dies ist keine wissenschaftliche Quelle, vor allem wenn man bedenkt, dass ein Jahr danach derartige statistische Untersuchungen unmöglich in begutachteter Form vorliegen können.

Es gibt eine gewaltige Zahl wissenschaftlicher Untersuchungen, die sich dieser Thematik gewidmet haben. Die UN-Kommission zur Untersuchung gesundheitlicher Wirkung radioaktiver Strahlung, UNSCEAR, fasst in Kooperation mit der WHO all diese Ergebnisse in umfangreichen Berichten zusammen. Fazit des letzten Berichts von 2008: 6.000 zusätzliche Erkrankungen an Schilddrüsenkrebs, von denen „wahrscheinlich ein großer Teil der Radioaktivität geschuldet ist”. Abgesehen davon, dass die Ursache dieser zusätzlichen Erkrankungen nicht restlos geklärt ist, sind dies aber auf jeden Fall keine „Millionen”. Bisher, 25 Jahre danach, sind übrigens nur 15-20 an ihrer Erkrankung gestorben.

Da in Deutschland kein Tschernobyl-Reaktor steht, ist diese Überlegung ohnehin rein hypothetisch. Dass Biblis-B ein paar Prozent seines Reaktorinventars freisetzt kann statistisch seltener als einmal in 100 Millionen Jahren erwartet werden, so eine 1997 angefertigte OECD-Studie.

Quellen von KRITIKALITÄT


#38: Heimatverlust

Behauptung: Bei einem Super-GAU wird ein Gebiet von Zigtausend Quadratkilometern dauerhaft unbewohnbar.

Die EWS behaupten

Millionen von Menschen werden nach einem Super-GAU in einem deutschen Atomkraftwerk nicht mehr in ihre Häuser, Wohnungen, Betriebe zurückkehren können. Wo sollen sie leben, arbeiten, unterkommen? Wer kümmert sich um ihre Gesundheit? Wer kommt für ihren Schaden auf? Die Stromkonzerne sicher nicht – die sind dann längst pleite.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die stets wiederkehrende Behauptung der „Millionen Menschen” stützt sich ausschließlich auf die 1987 angefertigte Dissertation des Volkswirten Olav Hohmeyer, der seine absurd hohen Opferzahlen den Behauptungen einer NDR-Fernsehsendung über den Tschernobyl-Unfall entnommen und auf die deutsche Bevölkerungsdichte hochskaliert hat. Schon die Ausgangszahlen sind grob falsch, die Übertragung auf deutsche Verhältnisse erst recht, denn in Deutschland steht kein Reaktor vom Typ Tschernobyl.

Das schlimmste denkbare Szenario hat sich in Fukushima abgespielt, ausgelöst durch einen Tsunami historischen Ausmaßes. Die Evakuierung der 30-Kilometer-Zone war in Anbetracht der Kontaminierung, die etwa der natürlichen Radioaktivität in Teilen Finnlands und dem Schwarzwald entspricht, überflüssig. Die Freisetzung der Radioaktivität fand kontrolliert zur Entlastung des Containments statt. Die Sperrzonen werden zu 80% bis 2014 wieder dauerhaft bewohnt werden dürfen, der Rest einige Jahre später.

Alle deutschen Reaktoren sind mit sogenannten Wallmann-Ventilen ausgestattet, die im Falle einer Druckentlastung, sollte sie denn jemals notwendig werden, die Radioaktivität zurückhielten. Somit wäre die „Belastung” der Umgebung nochmals Größenordnungen geringer als in Fukushima und eine Evakuierung selbst nach den übertrieben strengen Strahlenschutzregeln überflüssig.

Wer sich so viel Sorgen um die Mitmenschen macht, sollte sich zunächst mal die Sicherheit von Staudämmen und Talsperren ansehen. Hier sind die Opfer real, die „Millionen Super-GAU-Opfer” hingegen rein hypothetisch.

Quellen von KRITIKALITÄT


#39: Evakuierung

Behauptung: Die Evakuierung einer ganzen Region binnen weniger Stunden ist nicht möglich.

Die EWS behaupten

Die Katastrophenschutzpläne für Atomkraftwerke gehen davon aus, dass die radioaktive Wolke nach Beginn des Unfalls noch mehrere Tage im Reaktor zurückgehalten werden kann – Zeit, um die Bevölkerung zu evakuieren.

Was aber, wenn ein Flugzeug, ein Erdbeben oder eine Explosion das Atomkraftwerk zerstört? Oder wenn, wie etwa in Krümmel möglich, der Sicherheitsbehälter binnen Minuten durchschmilzt? Dann bleiben, je nach Wetterlage, gerade einmal ein paar Stunden, um ganze Regionen zu räumen.

Neue Ausbreitungsrechnungen zeigen, dass die Strahlenbelastung selbst in 25 Kilometer Entfernung und bei Aufenthalt im Haus binnen weniger Stunden so hoch ist, dass sie in der Hälfte der Fälle zum Tod führt. Die radioaktive Wolke macht dort sicher nicht halt. Für alle weiter entfernten Gebiete aber gibt es gar keine Evakuierungspläne.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die Organisation Greenpeace, von der diese völlig neuartigen Strahlenschutzerkenntnisse und „neuen Ausbreitungsrechnungen” angeblich stammen, bleibt die zugehörigen Studien selbst leider schuldig. Es handelt sich demnach offensichtlich um einen makaberen PR-Gag, der nichts über Kernkraftwerke, aber viel über Greenpeace aussagt.

Das angebliche Durchschmelzen des Sicherheitsbehälters kann nur stattfinden, wenn der Reaktorkern selbst bereits geschmolzen ist und den Reaktordruckbehälter durchdrungen hat. Dazu müssen sämtliche anderen aktiven wie passiven Sicherheitsbarrieren bereits versagt haben, und das dauert mehrere Tage, wie Fukushima gezeigt hat. Und selbst dann befindet sich unter dem Sicherheitsbehälter jede Menge Beton, mit dem sich die Kernschmelze vermischt und langsam erstarrt. Frei werden schlimmstenfalls einige flüchtige Radionuklide, und auch nur, wenn das Reaktorgebäude beschädigt ist. An diesen Abläufen können weder Flugzeuge, Erdbeben und Explosionen etwas ändern.

Quellen von KRITIKALITÄT


#40: Jod-Mangel

Behauptung: Jod-Tabletten nützen nichts, wenn man das Haus verlassen muss, um sie zu erhalten.

Die EWS behaupten

Jodtabletten sollen im Falle eines Atomunfalls die Strahlenbelastung durch radioaktives Jod vermindern. Doch nur im engsten Umkreis um Atomkraftwerke wurden die Tabletten bereits vorsorglich an die Haushalte verteilt. In allen anderen Gebieten sind sie im Rathaus gelagert oder müssen erst noch eingeflogen werden. Abholen wird schwierig: denn der Katastrophenschutzplan rät, das Haus nicht zu verlassen.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Jodtabletten schützen nicht vor Strahlung, sie verhindern nur die Aufnahme radioaktiven Jods. Dieses muss, sollte es einen Reaktor verlassen, erst mal durch die Nahrungskette, d.h. aufs Gras über Kühe in die Milch, was einige Tage dauert. Warum sollte man aber im Zeitalter des internationalen Waren- und Nahrungshandels und strengster Lebensmittelkontrollen ausgerechnet die kontaminierte Milch aus der Umgebung eines havarierten Kernkraftwerks trinken?

Der Mythos „Jodtabletten” stammt aus der Zeit des kalten Krieges, als man mit einem nuklearen Fallout kontinentalen Ausmaßes gerechnet hat. Die Einnahme stabilen Jods sollte es dann ermöglichen, auch kontaminierte Nahrung zu verzehren, sollte nichts anderes mehr zu beschaffen sein.

Die zentrale Lagerung stabiler Jod-Tabletten ist sehr sinnvoll, da eine Einnahme zu Nebenwirkungen führen kann, die die Auswirkungen radioaktiven Jods bei weitem übersteigen. Die Gefährlichkeit des radioaktiven Jods hingegen konnte nie nachgewiesen werden, selbst bei hochbestrahlten Patienten (Radiojodtherapie).

Quellen von KRITIKALITÄT


#41: Wirtschafts-Kollaps

Behauptung: Ein Super-GAU führt zum volkswirtschaftlichen Zusammenbruch.

Die EWS behaupten

Ein Super-GAU in einem Land wie Deutschland würde einen Schaden von 2,5 bis 5,5 Billionen Euro verursachen. Das hat die Prognos AG bereits vor 20 Jahren in einer Studie für das Bundeswirtschaftsministerium errechnet. Inflationsbereinigt wäre die Summe heute sicher noch höher anzusetzen.

Zum Vergleich: Die Konjunkturpakete der 20 größten Wirtschaftsnationen der Welt zur Abfederung der aktuellen Wirtschaftskrise haben alle zusammen ein Volumen von insgesamt 3,5 Billionen Euro.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die bis zu 5,5 Billionen Euro basieren auf der Behauptung, Tschernobyl hätte 240 000 Strahlenkrebsopfer gefordert, von denen die Hälfte daran stirbt. In die Welt gesetzt wurde diese Zahl 1987 duch den Fernsehjournalisten Gerhard Bott. Von dort wanderte sie über die Doktorarbeit des Volkswirten Olav Hohmeyer in die „Studie” der Prognos AG. Der letzte UNSCEAR/WHO-Report 2008 zu Tschernobyl stellt hingegen klar: Es wurde ein Anstieg von 6.000 Schilddrüsenkrebserkrankungen beobachtet, von denen knapp 20 bisher daran gestorben sind. Wieviele davon durch Radioaktivität verursacht wurden bleibt unklar. Die Übertreibung ist also mindestens ein Faktor 40 bis 6.000.

Auch wird hier suggeriert, die Freisetzung des radioaktiven Inventars würde bei einem Reaktor wie Biblis-B mit gleicher Wahrscheinlichkeit auftreten wie beim Tschernobyl-Reaktor. Eine 1997 durchgeführte OECD-Studie berechnet jedoch, dass mit einem derartigen Ereignis schlimmenfalls alle 100 Millionen Jahre zu rechnen ist. Ereignisabläufe wie in Tschernobyl sind bei Reaktoren westlicher Bauart in ihrer Auswirkung eher mit Three Mile Island bei Harrisburg 1979 zu vergleichen, bei dem keine Verletzten auftraten.

Quellen von KRITIKALITÄT





Alarm um das Ausbleiben der globalen Erwärmung: die fortgesetzte Abkühlung könnte die Klimawissenschaft und die Förderung grüner Energien torpedieren!

Bild rechts: Eiszeitliche Erde zum glazialen Maximum.  (Global Biogeochemical Cycles, Vol. 9, 1995, pp. 377-389 (Photo credit: Wikipedia)

Kältere Temperaturen lassen Regierungs-Bürokraten, nach Profit gierenden Kapitalisten-Kumpanen und anderen Krämerseelen, deren Ambitionen von heißer Luft abhängen, den Wind kräftig ins Gesicht blasen. Selbst in Westeuropa, der Wiege der CO2-basierten Klima-Verrücktheit und der Zertifikatehandels-Korruption, fühlt man den kalten Atem. Alister Doyle, Reporter für Reuters in Oslo hat vor Kurzem beobachtet: „Schwaches wirtschaftliches Wachstum und der Stillstand der Erwärmung unterminieren den Willen der Regierung, eine rapide, Milliarden Dollar teure Verschiebung weg von fossilen Treibstoffen durchzuführen. Fast 200 Regierungen haben beschlossen, bis Ende 2015 einen Plan zur Bekämpfung der globalen Erwärmung auszuarbeiten“.

Im April hat das Europa-Parlament in Strassburg gegen ein künstliches Aufblähen des Preises im europäischen Zertifikatehandel votiert, und zwar nach dem Kollaps der Energienachfrage im Zusammenhang mit der ökonomischen Krise des Kontinents. Während der niedrige Preis für Kohlenstoff-Zertifikate für Energieverbraucher großartig ist, kann man sich sicher sein, dass dies durch Befürworter der so genannten „erneuerbaren“ Energie und des Kohlenstoffhandels ganz anders gesehen wird, hängen diese doch von höheren Treibstoffpreisen als der Markt hergibt ab, um im Geschäft zu bleiben. Das Veto des Parlaments reflektiert die ermutigende Erkenntnis, dass die ungerechtfertigte, die Wirtschaft schleifende Rationierung von Kohlenstoff eine wahnhafte Narretei ist.

Himmel… an welchem Punkt sind all die teuren Klimamodelle in die falsche Richtung gelaufen?

Der Kommentar eines Wissenschaftlers in einer Klimagate-E-Mail wurde gründlich missverstanden, als er schrieb: „Es ist unfasslich, dass politische Entscheidungsträger Entscheidungen mit einer Tragweite in Höhe von Milliarden und Billionen Dollar treffen aufgrund der Vorhersagen regionaler Klimaänderungen, die auf Modellen basieren, die nicht einmal in der Lage sind, die Prozesse, die die Klimavariabilität ausmachen, richtig zu beschreiben und zu simulieren“. Wie sich gezeigt hat, haben unsere Politiker diese horrend teuren Entscheidungen getroffen auf der Grundlage von hoch spekulativen Modell-Projektionen, zumeist vom IPCC kommend.

Ein anderer Forscher hat wohl ebenfalls den Punkt getroffen, wenn er einige sehr verstörende Konsequenzen befürchtet: „Was ist, wenn sich die Klimaänderung einfach als eine multidekadische natürliche Fluktuation herausstellt? Wahrscheinlich werden sie uns töten…“ Selbst Paul Ehrlich, am bekanntesten durch sein 1968 erschienenes Buch des Untergangs „The Population Bomb“, erkennt diese Gefahr. In einem Editorial in der Ausgabe von Nature im März 2010 schrieb er, dass eine Barriere von Herausforderungen, die der Vorstellung von einer drohenden globalen Erwärmungs-Katastrophe widersprechen, seine Alarmisten-Kollegen stärker als gewöhnlich alarmiert hat. Und weiter: „Jedermann ist bis zum Anschlag verängstigt, aber sie wissen nicht, was sie tun können”.

Es gibt gute Gründe für diese Betroffenheit bzgl. des sich abkühlenden Klimas. David Whitehouse von der Global Warming Policy Foundation weist darauf hin: „Wenn wir diesen Punkt nicht längst überschritten haben, sitzen wir auf einem großen Haufen globaler Beobachtungen die mit dem Konsens der Theorie der Klimaänderung immer weniger kompatibel sind“. Whitehouse merkt an, dass es seit 1997 keinen statistisch signifikanten globalen Temperaturanstieg mehr gegeben habe. Und weiter: „Wenn der Stillstand der Temperaturen noch einige weitere Jahre anhält, bedeutet das, dass niemand, der gerade das Erwachsenen-Alter erreicht hat oder noch jünger ist, Zeuge einer sich erwärmenden Erde während seines Lebens geworden ist“. (Seit 1997 hat der atmosphärische CO2-Gehalt von 370 ppm auf 390 ppm zugenommen).

Diese beobachteten Entwicklungen haben das Climate Center des UK Met.-Office dazu gebracht, seine Projektionen still und leise zu revidieren. Dort heißt es jetzt: „Die jüngste dekadische Vorhersage zeigt, dass [die Temperatur] während der nächsten fünf Jahre wahrscheinlich etwas niedriger liegen wird als in der Vorhersage zuvor angenommen“. Die vorhergesagte Zunahme von 2013 bis 2017 lag 0,43°C über dem Mittel der Jahre 1971 bis 2000, während es in der Prognose zuvor geheißen hatte, die Temperatur würde von 2012 bis 2016 um 0,54°C zunehmen. Einfacher gesagt, es wird kühler sein, als sie es vorhergesagt haben!

Die Daily Mail  in London veröffentlichte eine Graphik, die ihren Worten nach „enthüllt, wie sehr die IPCC-Schätzung von 95%, mit der sich die Erde erwärmen soll, eine Fehlkalkulation war“. Vergleicht man den aktuellen Temperaturverlauf mit diesen IPCC-95%-Projektionen, verlief die Temperatur bis vor einigen Jahren etwa im projizierten Bereich, während sie seitdem „dabei ist, aus den Grenzen der untersten Grenzwerte auszubrechen“. Angenommen worden war, dass sie nach 1990 stark steigen sollte.

Während das IPCC vorhergesagt hat, dass die Temperatur bis zum Jahr 2050 um 3°C steigen wird, falls sich der CO2-Gehalt der vorindustriellen Zeit von 1750 verdoppelt, bezog das Research Council of Norway die realen Temperaturdaten von 2000 bis 2010 ein und berechnete, dass eine solche Verdoppelung lediglich zu einem Anstieg von 1,9°C führen würde. In einer anderen Studie in dem Journal Proceedings of the National Academy of Sciences werden Temperaturänderungen seit 1750 mit natürlichen Änderungen in Verbindung gebracht (wie zum Beispiel der Wassertemperatur im Atlantik). Dabei zeigt sich: „…der anthropogene globale Erwärmungstrend könnte in der zweiten Hälfte des 20. Jahrhunderts um einen Faktor zwei überschätzt worden sein“.

Peter Stott, ein Forscher, der das jüngste Kapitel im IPCC-Bericht zu globalen Klimaprojektionen geschrieben hatte, kam zu der Überzeugung, dass die Klimamodell-Projektionen eines alarmierenden Temperaturanstiegs mit den derzeitigen Beobachtungen inkonsistent sind. Wenn er und seine Kollegen am UK Met.-Office den von den Modellen projizierten Temperaturanstieg und die tatsächliche gegenwärtige Erwärmung miteinander vergleichen, hat sich der angenommene Temperaturanstieg infolge menschlicher Treibhausgasemissionen substantiell verringert. Mit anderen Worten, je besser die Klimamodelle die Vergangenheit abbilden, umso weniger ängstigend sieht die wahrscheinliche Zukunft aus.

Stott steht nicht allein. Während der letzten zwei Jahre kamen mindestens sieben begutachtete Studien in der wissenschaftlichen Literatur zu dem Ergebnis, dass die Auswirkungen einer Verdoppelung des CO2-Gehaltes in der Erdatmosphäre wahrscheinlich substantiell geringer sind, als das IPCC berechnet hat. Sie haben die Projektionen mit dem gewaltigen Anstieg am Ende ausgeschlossen.

James Annan, einstmals ein starker Verteidiger von Michael Manns infam betrügerischen alarmistischen „Hockeyschläger“ und ein Experte hinsichtlich der „Klimasensitivität“ von CO2 und anderen Einflussgrößen, kam in seinem Blog vor kurzem zu dem Ergebnis, dass sich das IPCC zunehmend einem vollständig unwissenschaftlichen Wirken verschreibt.

Annan weiter: „Da das IPCC seine alten Analysen nicht mehr in irgendeiner bedeutenden Weise verteidigen kann, scheint es, als ob sie sich auf eine substanzlose Haltung verlegen, etwa ‚das ist es, was wir glauben, weil wir unsere Kumpel gefragt haben’ … es hat sich selbst mit seiner politisch bequemen langen Reihe hoher Werte verbündet, und seine Antwort auf neue Beweise ist wenig mehr als sich die Ohren zuzuhalten und zu singen , la la la I can’t hear you’.”

Jene IPCC-Berichte bilden die Basis für die regulatorischen Aktivitäten der EPA im Rahmen des Clean Air Act … genauso wie die Verkündigungen des Präsidenten, dass die politischen Maßnahmen seiner Administration auf „der überwältigenden Beurteilung der Wissenschaft“ beruhen. Im Rahmen seiner Ansprache an die Nation (State of the Union Address), dass die globale Erwärmung bei der Bildung  von tödlichen und zerstörerischen Stürmen wie Sandy eine Rolle spielt, sagte Präsident Obama: „Wir müssen mehr tun, um gegen die Klimaänderung zu kämpfen … Es stimmt, dass kein Einzelereignis einen Trend markiert. Aber Tatsache ist, dass die 12 wärmsten Jahre seit Beginn von Aufzeichnungen alle während der letzten 15 Jahre aufgetreten sind. Hitzewellen, Dürren, Buschfeuer und Überschwemmungen – alle kommen jetzt häufiger vor und sind intensiver“.

Aber hier gibt es eine starke Abweichung von den Fakten. In Wirklichkeit gab es keine Zunahme der Stärke oder Häufigkeit von auf das Festland übergetretenen Hurrikanen, jedenfalls in den fünf Haupt-Hurrikangebieten der Welt während der letzten 50 bis 70 Jahre; es gab keine Zunahme der Stärke und Häufigkeit bei der Entwicklung von Hurrikanen im tropischen Atlantik während der letzten 370 Jahre; die USA erleben derzeit die längste Periode denn je ohne einen Übertritt von Hurrikanen der Kategorie 3 bis 5 auf das Festland; es gab seit 1950 keinen Trend zu einer gesteigerten Häufigkeit starker Tornados (F3 bis F5); es gab keine Zunahme der Größenordnung von Überschwemmungen in den USA während der letzten 85 Jahre; und der langzeitliche Anstieg des Meeresspiegels beschleunigt sich nicht.

Aber, wenn das IPCC falsch liegt, was ist dann mit den jüngsten Hitzewellen?

Unter Verweis auf die hohen Temperaturen in den USA während des vorigen Sommers hat uns der frühere NASA-Mitarbeiter und ewige Anti-fossile-Treibstoffe-Aktivist James Hansen gewarnt, dass „der August die Art Zukunft gezeigt hat, die die Klimaänderung uns und unserem Planeten bringen würde“. Dies nachplappernd hat Al Gore auf seiner Website lamentiert: „schmutziges Wetter wird erzeugt durch schmutzige Energie“ … „eine Menge Leute rufen lauthals ‚mir ist zu heiß!’“. Selbst die NOAA sagte, dass das Festland der USA im Jahr 2012 das wärmste jemals erlebt hat.

Und doch, wie der bekannte Blogger Marc Morano bei Climate Depot feststellt: „Die NOAA kann nur wegen statistischer Tricks behaupten, das Jahr 2012 sei das wärmste jemals gewesen … einschließlich des ‚Anpassens’ von Rohdaten und der Hinzufügung von Daten zum Gesamt-Datensatz von Stationen, die zu Beginn der Aufzeichnungen noch gar nicht existiert hatten. Unterlässt man diese illegitimen Aktionen, zeigt sich, dass es in den dreißiger Jahren immer noch wärmer war als von 1990 bis 2010“.

Vielleicht ist es keine Überraschung, dass wir aus den Medien nicht viel über die Tatsache erfahren haben, dass im Juni vorigen Jahres in 46 US-Städten einschließlich einiger ganz im Süden, bestehende Kälterekorde eingestellt oder gebrochen worden waren … oder das Alaska, das nicht Teil der 48 zusammenhängenden US-Staaten ist, einen der kältesten Winter seit 2000 registriert hatte. Dem Alaska Climate Research Center an der University of Alaska-Fairbanks zufolge war dieser Rekord an 19 der 20 nationalen Wetterstationen aufgetreten, die sich von einer Ecke des Staates bis zur anderen erstrecken.

Die New York Times berichtete atemlos: „Die Temperaturunterschiede zwischen den Jahren werden gewöhnlich in Bruchteilen eines Grads gemessen, aber das Mittel von 55,3°F [ca. 13°C] in den zusammenhängenden Staaten brach den Rekord aus dem Jahr 1998 um ein ganzes Grad Fahrenheit [=ca. ein halbes Grad Celsius]“. Aber aus irgendwelchen Gründen sahen sie keinen Grund zu erwähnen, dass das Jahr 2008 zwei Grad kälter war als 2006, oder dass die Jahre 2000, 2003, 2004, 2008, 2009 und 2010 alle kälter ausgefallen waren als 1998, und zwar mehr als das Jahr 2012 verglichen mit 1998 wärmer ausgefallen war. Und übrigens sollte man nicht vergessen, dass die USA nicht der Globus sind. Jene 48 Staaten repräsentieren lediglich 1,58% der Erdoberfläche.

Die meiste Zeit im Winter 2011/2012 lag die Eisausdehnung in der Beringsee zwischen 20 und 30 Prozent über dem Mittel der Jahre 1979 bis 2000 (hier), wobei im Februar die größte Ausdehnung jemals gemessen worden ist. James Taylor berichtete, dass das antarktische Meereis ebenfalls eine Rekordausdehnung erreichte, wobei die größte jemals gemessene Eismenge am 256. Kalendertag des Jahres 2012 aufgetreten war. Tatsächlich hat sich das antarktische Meereis stetig ausgedehnt, seit die Überwachung mit Satelliten vor 33 Jahren begonnen hat, und die Ausdehnung lag das ganze Jahr 2012 über ununterbrochen über dem 33-jährigen Mittelwert.

Hitze- und Kältewellen der Vergangenheit: Vorsicht bei dem, was man sich wünscht

Vieles des gegenwärtigen Warm-Alarmismus’ konzentriert sich um einen Temperaturtrend, der in den achtziger Jahren begonnen hat, weniger als ein Jahrzehnt, nachdem unser Planet aus einer drei Jahrzehnte langen Abkühlungsphase gekommen war, die viele das Einsetzen einer neuen Eiszeit hat befürchten lassen. Wie sich der Klimatologe und Forbes-Mitarbeiter Patrick Michaels erinnert: „Als ich meine Schulausbildung abgeschlossen habe, war es allgemein verbreitet, dass die Eiszeit jetzt beginnen wird. Ich hatte auch Schwierigkeiten, mich dafür zu erwärmen“. Unter Hinweis auf den gegenwärtigen Alarmismus beobachtet er: „Diese Treibhaushysterie ist nicht die erste Klima-Apokalypse, aber mit Sicherheit die lauteste“.

Der weltbekannte Atmosphären-Wissenschaftler Reid Bryson, einst an vorderster Stelle der Warner vor einer neuen Eiszeit stehend, sagte: „Bevor es genug Menschen gab, um überhaupt einen Unterschied zu machen, vor zwei Millionen Jahren, hat niemand das Klima geändert, und doch hat es sich geändert, oder?“ Bryson sagte den Wisconsin Energy Cooperative News im Jahr 2007: „All dieser Streit darüber, ob die Temperatur steigt oder fällt, ist absurd. Natürlich steigt sie. Sie steigt seit den frühen achtziger Jahren vor der industriellen Revolution, weil wir aus der Kleinen Eiszeit gekommen sind, und nicht weil wir mehr Kohlendioxid in die Luft pumpen“. Er fuhr fort: „Man kann hinausgehen und auf den Boden spucken – das hat die gleiche Auswirkung wie die Verdoppelung des Kohlendioxids“.

Es könnte der Erwähnung wert sein, dass einige Schwergewichte von Sonnenphysikern in den USA wieder einmal vorhersagen, dass der Planet Erde sehr gut in eine verlängerte Periode der Abkühlung eintreten kann, und zwar wegen der langen Dauer geringer Sonnenflecken-Aktivität … potentiell eine weitere kleine Eiszeit. Diese Ankündigung kam von Wissenschaftlern am U.S. National Solar Observatory und dem U. S. Air Force Laboratory und basierte auf drei verschiedenen Analysen des jüngsten Verhaltens der Sonne.

Einer der führenden Solarwissenschaftler der Welt, Habibullo Abdussamatov, Leiter der Russian Academy of Sciences Pulkovo in St. Petersburg und Direktor der Russland-Abteilung der internationalen Weltraumstation, stimmt zu, dass der Planet Erde vor einer langen Kaltperiode stehen könnte. Er weist darauf hin, dass es während der letzten 1000 Jahre fünf mal zu intensiven Kaltphasen gekommen war. Jede einzelne stand in Zusammenhang mit einer Abnahme der Solarstrahlung, so wie wir sie auch jetzt wieder erleben (hier).

Dr. Abdussamatov glaubt: Eine globale Abkühlung (a global freeze) wird kommen, egal ob industrialisierte Länder einen Deckel auf ihre Treibhausgas-Emissionen setzen oder nicht. Die weit verbreitete Ansicht, dass menschliche Aktivitäten ein entscheidender Faktor bei der globalen Erwärmung sind, hat sich aus einer Verwechslung von Ursache und Wirkung ergeben“. Er sagt voraus, dass eine neue Kleine Eiszeit etwa in den Jahren 2013/2014 beginnen wird, die größte Abkühlung wird um das Jahr 2040 erreicht sein, und die Kaltphase (a deep freeze) wird das restliche Jahrhundert über anhalten.

Die letzte Kleine Eiszeit, die sich Mitte des 16. Jahrhunderts ereignet hatte, war allgemein nicht als eine gute Zeit angesehen worden. Diese Zeit, die etwa 150 Jahr gedauert hat, hat in Europa Millionen Todesopfer gefordert und endete nicht lange, nachdem Washingtons Truppen brutale Wintertemperaturen in Valley Forge im Jahre 1777 erdulden mussten und nach dem bitterkalten Rückzug Napoleons aus Russland im Jahr 1812.

Ob die Abkühlung nun weitergeht oder nicht, gibt es überhaupt einen Grund, um in Panik zu verfallen? Nein, und selbst wenn die globale Erwärmung aus welchen Gründen auch immer wieder einsetzt, was sie wahrscheinlich tun wird, jeweils immer wieder unterbrochen durch Abkühlungsphasen, dann wollen wir dankbar sein für die vielen Vorteile für die menschliche Gesundheit und das Wohlergehen, das die Wärme mit sich bringt. Lassen Sie uns feiern, wenn die vom CO2-Gehalt abhängige Landwirtschaft blüht, mit verlängerten Wachstumszeiten und mit abnehmenden Raten von Kältetoten.

Lassen Sie uns die Tatsache akzeptieren, dass sich das Klima aus vielen Gründen ändert. Ohne Erlaubnis oder Hilfe von uns … das hat es immer getan … das wird es immer tun … und nicht immer zum Schlechteren. Und lassen Sie uns skeptisch sein hinsichtlich der Ratschläge von Alarmisten, die offensichtlich von Angst erzeugenden Taktiken abhängen, um uns mit einer Flut von Rechnungen zu überziehen.

Larry Bell

Link: http://www.forbes.com/sites/larrybell/2013/04/30/global-warming-alarm-continued-cooling-may-jeopardize-climate-science-and-green-energy-funding/

Übersetzt von Chris Frey EIKE




Petition der Partei der Vernunft (PDV): Die Entscheidung über den Bau von Windkraftanlagen ist der Bürgerhand zu übergeben.

Die von der PDV-Petition angesprochenen Geschädigten sind, leider immer noch mehrheitlich, unwissende Anrainer, die den Windstrom prinzipiell sogar begrüßen. Er soll nur nicht vor der eigenen Haustüre geerntet werden, denn dann sinkt der Verkehrswert des Hauses und die Bewohner werden durch Schattenwurf und Infraschall geschädigt. „Bloß nicht vor meiner Haustüre“ ist das altbekannte St. Florians Prinzip „Oh heiliger St. Florian, verschon mein Haus, zünd’ andre an!“.

Bürgerinitiativen gegen Windräder könnten eine ganz andere Schlagkraft erhalten, wenn die Betroffenen aufwachten und sich über den gnadenlosen technisch-wirtschaftlichen Schwachsinn von Windernten in Deutschland auf der EIKE-Webseite kundig machen würden.

Die Betroffenen können sich (hier) über die PDV-Petition informieren und durch ihre Unterschrift zu ihrem Gelingen beitragen. EIKE befürwortet und unterstützt die Windenergie-Petition der PDV. In ihr heißt es: „Zweck dieser Petition ist es, die Eigenverantwortung der Bürger vor Ort zu stärken. Vieles in Deutschland geschieht, weil sich der Staat und unfähige, ideologisch verblendete Politiker in das Leben der Menschen auf unzulässige Weise einmischen. Eigenverantwortung und Moral werden Schritt für Schritt abgebaut. Menschen, die nicht einmal für sich selbst Verantwortung übernehmen wollen, werden auch keine Verantwortung mehr für unser Land und für unsere Umwelt übernehmen.“

Für diejenigen der betroffenen Anrainer, die etwas mehr nachdenken möchten, empfehlen wir das Studium der EIKE-Webseite „Energie“. Hier vergeht kaum eine Woche, in der nicht ein Beitrag über den Windradunsinn erscheint. Wer es besonders kurz haben möchte, dem sei der nachfolgende, leicht ergänzte Kommentar eines EIKE-Bloggers empfohlen, der die Fakten in unnachahmlicher Prägnanz auf den Punkt bringt:

Alle grünen Energien basieren im Kern auf folgendem Geschäftsmodell;  zufällig produzierter Strom (zufällig, weil die Sonne nicht immer scheint und der Wind nicht immer ausreichend stark weht) wird super teuer der Allgemeinheit aufs Auge gedrückt, egal ob sie dafür gerade Verwendung hat oder nicht. Im Gegenzug wird von der Allgemeinheit auch noch erwartet, dass sie zusätzlich eine komplette konventionelle Stromversorgungsinfrastruktur mit Backupkraftwerken (Kohle, Kernkraft, Gas) finanziert, für den häufig vorkommenden Fall, dass gerade kein Wind weht oder keine Sonne scheint oder irgend eines der vielen Öko-Wolkenkuckucksheime nicht funktioniert. Schließlich muss die Stromversorgung zu allen Zeitpunkten gewährleistet sein, sonst bricht unser Infrastruktur und Industrieproduktion zusammen. Den meisten Menschen ist nicht klar, dass Wind- und Sonnenstrom zu 100 % von den fossilen Kraftwerken und der Kernkraft abhängen. Und den meisten Menschen ist ebenfalls nicht klar, dass sie dadurch den ohnehin schon teuren Öko-Strom zweimal bezahlen.

EIKE Redaktion




Warum die Daten einer Reanalyse keine Daten sind.

Original-Bildunterschrift: Abbildung 1: OHC integriert von 0 bis 300 m (grau), 700 m (blau) und Gesamttiefe (violett) von ORAS4, repräsentiert von seinen 5 Ensemble-Gliedern. Die Zeitreihen zeigen monatliche Anomalien, geglättet mit einem über 12 Monate gleitenden Mittel mit Berücksichtigung der Basisperiode 1958 bis 1965. Die Schraffierung geht über die Bandbreite der Ensemble-Glieder hinaus, so dass der Spread eine Angabe hinsichtlich der Ungenauigkeit von ORAS4 ist (der nicht alle Quellen von Unsicherheit abdeckt). Die vertikalen farbigen Balken zeigen ein zweijähriges Intervall, die den Vulkanausbrüchen 6 Monate zuvor folgen (wegen des 12-monatigen gleitenden Mittels) sowie dem El Niño-Ereignis von 1997/98, ebenfalls mit 6 Monaten auf beiden Seiten. Unten rechts wird die lineare Steigung eines Satzes globaler Erwärmungsraten in W/m² gezeigt.

Ich habe mir das angeschaut und gesagt „Waaas???“ Ich habe noch nie derartige vulkanische Signale in den Daten des ozeanischen Wärmegehalts gesehen. Was war mir entgangen?

Nun, mir war entgangen, dass Trenberth et al. etwas benutzen, was sie lächerlicherweise „Reanalyse-Daten“ nennen. Aber wie die Überschrift schon zeigt, Reanalyse-„Daten“ sind keinerlei Daten im Wortsinne. Es handelt sich dabei um das Ergebnis eines Computer-Klimamodells, die als Daten verkleidet werden.

Nun ist der grundlegende Gedanke einer „Reanalyse“ kein schlechter Gedanke. Wenn man Daten mit „Lücken“ darin hat, oder wenn Informationen aus bestimmten Zeiten und/oder an bestimmten Orten fehlen, kann man eine Art „Best Guess“-Algorithmus benutzen, um die Lücken zu füllen. Im Bergbau ist diese Prozedur allgemein üblich. Man hat Einzel-Punkttdaten darüber, was im Untergrund los ist. Also verwendet man eine Kriging-Prozedur mit allen verfügbaren Informationen, und man bekommt den Best Guess [= beste Abschätzung?] darüber, was in den datenfreien Lücken passiert. (Man beachte jedoch: wenn man behauptet, dass die Ergebnisse des Kriging-Modells reale Beobachtungen sind; wenn man sagt dass die Ergebnisse des Kriging-Prozesses „Daten“ sind, kann man wegen Fehlinterpretation ins Gefängnis wandern … aber ich schweife ab, das ist die reale Welt und das ist Klima-„Wissenschaft“ in reinster Form).

Die Probleme tauchen auf, sobald man anfängt, immer komplexere Prozeduren durchzuführen, um die Lücken in den Daten zu füllen. Kriging ist reine Mathematik, und man erhält Fehlerbereiche um die Schätzungen. Aber ein globales Klimamodell ist ein horrend komplexes Erzeugnis und gibt überhaupt keine Fehlerschätzung irgendwelcher Art.

Nun, worauf Steven Mosher mit Stolz hinweist, es sind alles Modelle. Selbst so etwas Einfaches wie

Kraft = Masse mal Beschleunigung

ist ein Modell. In dieser Hinsicht hat Mosher also recht.

Das Problem ist, das es solche und solche Modelle gibt. Einige Modelle wie das Kriging sind gut verstanden und verhalten sich wie erwartet. Wir haben das „Kriging“ genannte Modell analysiert und getestet, bis zu dem Punkt, an dem wir seine Stärken und Schwächen verstanden haben, und wir können es mit vollem Vertrauen verwenden.

Dann gibt es noch eine andere Modellklasse mit sehr unterschiedlichen Charakteristiken. Diese nennt man „iterative“ Modelle. Sie unterscheiden sich von Modellen wie Kriging oder F = M x A, weil sie bei jedem Zeitschritt das vorhergehende Modellergebnis als neue Eingangsgröße für das Modell verwenden. Klimamodelle sind iterative Modelle. Ein Klimamodell beispielsweise beginnt mit dem gegenwärtigen Wetter und sagt voraus, wohin sich das Wetter beim nächsten Zeitschritt entwickeln wird (normalerweise eine halbe Stunde).

Dann wird dieses Ergebnis, die Vorhersage für eine halbe Stunde von jetzt an, als Eingangsgröße für das Klimamodell verwendet, und die nächste halbe Stunde wird berechnet. Man mache das 9000 mal, und man hat ein Jahr Wetter simuliert … waschen, spülen und genügend oft wiederholen, und – voila! Jetzt hat man das Wetter vorhergesagt, von halber Stunde zu halber Stunde, die ganze Zeit bis zum Jahr 2100.

Es gibt zwei sehr, sehr große Probleme bei iterativen Modellen. Der erste ist, dass Fehler dazu tendieren, sich zu akkumulieren. Falls man eine halbe Stunde auch nur ein wenig ungenau berechnet, beginnt die nächste halbe Stunde mit schlechten Daten, so dass die Ergebnisse noch stärker abweichen; und so weiter, bis das Modell vollständig von der Rolle ist. Abbildung 2 zeigt eine Anzahl von Modellläufen des Klimavorhersage-Klimamodells…

 

Abbildung 2: Simulationen von www.climateprediction.net. Man beachte, dass eine signifikante Anzahl von Modellläufen weit unter die Eiszeit-Temperaturen zurück gehen… schlechtes Modell, keine Cookies!

Sehen Sie, wie viele der Modellläufe von der Rolle springen und entweder in eine Schneeball-Erde münden oder Temperaturen der Stratosphäre anzeigen? Das ist das Problem der akkumulierten Fehler in Reinform.

Das zweite Problem mit iterativen Modellen besteht darin, dass wir oftmals keine Ahnung haben, wie das Modell zu seiner Antwort gekommen ist. Ein Klimamodell ist so komplex und wird so oft wiederholt, dass die internen Prozesse des Modells oftmals total undurchsichtig sind. Man stelle sich vor, dass man als Ergebnis von drei verschiedenen Modellläufen drei sehr verschiedene Antworten erhält. Wir haben keinerlei Handhabe zu sagen, dass die eine Lösung wahrscheinlicher ist als die andere … außer der einen versuchten und echten Methode, die oft in der Klimawissenschaft verwendet wird, nämlich:

Wenn die Ergebnisse unseren Erwartungen entsprechen, handelt es sich um einen guten, brauchbaren, soliden Goldmodell-Lauf. Und wenn es den Erwartungen nicht entspricht, können wir es offensichtlich mit Sicherheit ignorieren.

Wie viele „schlechte” Reanalyse-Läufe enden also im Abfalleimer, weil der Modellierer das Ergebnis nicht mag? Viele, sehr viele, aber niemand weiß wie viele.

Damit als Einführung schauen wir jetzt auf die Reanalyse-„Daten“ von Trenberth, die natürlich alles andere als Daten sind … Abbildung 3 vergleicht die ORAS4-Reanalyse-Modellergebnisse mit den Levitus-Daten [?]:

Abbildung 3: ORAS4-Reanalyse-Ergebnisse für die Schicht zwischen 0 und 2000 m (blau) im Vergleich zu den Levitus-Daten für die gleiche Schicht. Die ORAS4-Ergebnisse wurden aus Abbildung 1 digitalisiert. Man beachte, dass die OSAR4-„Daten“ vor etwa dem Jahr 1980 Fehlerbalken vom Boden bis zur Decke haben und daher wenig brauchbar sind (siehe Abbildung 1). Die Daten sind an ihren Startpunkt 1958 angeglichen (1958 = 0)

In Abbildung 3 treten die Schwächen des Reanalyse-Modells klar hervor. Die Computermodelle sagen einen großen Rückgang des OHC durch Vulkane voraus… was offensichtlich nicht geschehen ist. Aber anstatt diese Realität keiner OHC-Änderung nach den Ausbrüchen einzubringen, hat sich das Reanalyse-Modell die Daten einfach zurecht gebogen, so dass es nun den vermeintlichen Rückgang nach den Eruptionen zeigen konnte.

Und das ist das zugrunde liegende Problem, wenn man Reanalyse-Daten wie reale Daten behandelt – sie sind nichts dergleichen. Alles, was das Reanalyse-Modell tut ist, den effektivsten Weg zu finden, die Daten so zu verändern, dass sie den Phantasien, den Vorerwartungen und den Fehlern der Modellierer entsprechen. Hier möchte ich noch einmal den Plot zeigen, den ich schon in meinem vorigen Beitrag gezeigt habe. Dieser zeigt alle Arten der verschiedenen Messungen der Ozeantemperatur, von der Oberfläche bis hinab zu den tiefsten Tiefen, die wir extensiv vermessen haben, zwei Kilometer tief.


Abbildung 4: Messungen der ozeanischen Temperaturen. Es gibt zwei Messungen an der Oberfläche, nämlich von ERSST und ICOADS, zusammen mit individuellen Schicht-Messungen für drei separate Schichten von Levitus. ACHTUNG! Abbildung 4 ist aktualisiert worden, nachdem Bob Tisdale darauf hingewiesen hatte, dass ich aus Versehen geglättete Daten für die Oberflächentemperaturen verwendet hatte.

Was mich angeht – jeder, der Abbildung 4 betrachtet und dann behauptet, dass man die Auswirkungen der Eruptionen des Pinatubo und des El Chichon sowie des Agung in diesen tatsächlichen Daten erkennen kann, halluziniert. Es gibt keinen sichtbaren Effekt. Ja, es gibt einen Rückgang der SST im Jahr nach Pinatubo … aber die voran gegangenen beiden Rückgänge waren größer, und es gibt keinen Rückgang im Jahr nach El Chichon oder Agung. Außerdem waren die Temperaturen in den beiden Jahren vor Pinatubo stärker gestiegen als sie danach zurückgegangen sind. Nimmt man all das zusammen, sagt es mir, dass es nicht einmal den Hauch einer Chance gibt, dass Pinatubo einen kleinen Rückgang nach sich gezogen hätte.

Aber die armen Klimamodellierer sind gefangen. Die einzige Möglichkeit, dass sie behaupten können CO2 werde zum befürchteten Thermageddon besteht darin, die Klimasensitivität sehr hoch anzusetzen.

Das Problem ist Folgendes: wenn die Modellierer eine sehr hohe Sensitivität ansetzen wie 3°C pro Verdoppelung des CO2-Gehaltes, führt das zu einer starken Überschätzung der Auswirkungen durch Vulkanausbrüche. Man kann dies eindeutig in Abbildung 3 erkennen, die die Reanalyse-Modellergebnisse zeigt, die Trenberth trügerisch „Daten“ nennt. Verwendet man das berühmte Bett des Procustes [?] als das zugehörige Beispiel, hat das Modell einfach die realen Daten modifiziert und angepasst, um den Phantasien der Modellierer hinsichtlich einer hohen Klima-Sensitivität gerecht zu werden. Kurz gesagt, das Reanalyse-Modell hat die realen Daten einfach so lange vermischt, bis sie die starken Rückgänge nach den Ausbrüchen zeigen … und das soll Wissenschaft sein?

Aber bedeutet das jetzt, dass alle Reanalyse-„Daten“ Schwindel sind?

Nun, das wirkliche Problem ist, dass wir auf diese Frage die Antwort nicht kennen. Die Schwierigkeit ist, dass es wahrscheinlich erscheint, dass einige der Reanalyse-Ergebnisse gut sind und andere nutzlos, aber im Allgemeinen haben wir keine Möglichkeit, zwischen den beiden zu unterscheiden. Dieser Fall von Levitus et al. ist eine Ausnahme, weil die Vulkane das Problem haben hervor treten lassen. Aber in vielen Anwendungen von Reanalyse-„Daten“ gibt es keine Möglichkeit zu erkennen, ob sie gültig sind oder nicht.

Und wie Trenberth et al. bewiesen haben, können wir uns definitiv nicht von Wissenschaftlern abhängig machen, die die Reanalyse-„Daten“ verwenden, um auch nur den Hauch einer Andeutung einer Untersuchung zu machen, ob sie gültig sind oder nicht …

(Übrigens, lassen Sie mich einen Grund nennen, warum Klimamodelle sich mit Reanalysen schwertun – die Natur weist allgemein Ecken und Kanten auf, während die Klimamodelle allgemein Glättungsverfahren durchführen. Ich habe einen großen Teil meines Lebens auf dem Ozean verbracht. Ich kann versichern, dass man selbst mitten auf dem Ozean oft eine ausgeprägte Linie zwischen zwei verschiedenen Wasserarten erkennt, wobei die eine signifikant wärmer ist als die andere. Wolken haben ausgeprägte Kanten, und sie bilden sich und vergehen wieder ohne viel „dazwischen“. Der Computer ist nicht sehr gut in der Verarbeitung dieses Ecken-und-Kanten-Zeugs. Wenn man es dem Computer überlässt, die Lücke zwischen zwei Beobachtungen zu füllen, sagen wir 10°C und 15°C, kann der Computer das perfekt – wird es aber generell graduell und glatt machen, also 10, 11, 12, 13, 14, 15.

Aber wenn die Natur diese Lücke füllt, ist es viel wahrscheinlicher, dass es so aussieht: 10, 10, 10, 14, 15, 15 … die Natur macht zumeist nichts „graduell“. Aber ich schweife ab…)

Heißt das, dass wir niemals Reanalysen benutzen sollten? Nein, keinesfalls. Kriging ist ein exzellentes Beispiel eines Typs von Reanalyse, der wirklich wertvoll ist.

Was diese Ergebnisse wirklich bedeuten: Wir sollten aufhören, die Ergebnisse von Reanalyse-Modellen „Daten“ zu nennen, und wir sollten DIE REANALYSE-MODELLERGEBNISSE EXTENSIV TESTEN, bevor wir sie verwenden. [Blockschrift im Original]

Diese Ergebnisse bedeuten auch, dass man extrem vorsichtig sein sollte, wenn Reanalyse-„Daten“ als Eingabegrößen für ein Klimamodell verwendet werden. Wenn man das tut, benutzt man die Ergebnisse eines Klimamodells als Eingabegrößen für ein anderes Klimamodell … was allgemein eine Very Bad Idea™ aus einer ganzen Reihe von Gründen ist.

Außerdem sollte man in allen Fällen, in denen man Reanalyse-Ergebnisse verwendet, genau die gleiche Analyse unter Verwendung der realen Daten durchführen. Das habe ich in Abbildung 3 oben getan. Hätten Trenberth et al. diese Graphik zusammen mit ihren Ergebnissen gezeigt … nun … falls sie das getan hätten, wäre ihre Studie wahrscheinlich überhaupt nicht veröffentlicht worden.

Was vielleicht der Grund gewesen sein könnte oder auch nicht, diese vergleichende Analyse nicht zu präsentieren, und warum sie versucht haben zu behaupten, dass die Ergebnisse von Computer-Modellen „Daten“ sind…

Willis Eschenbach

Anmerkung: Die Studie von Trenberth et al. identifiziert als tiefste Schicht als von der Oberfläche bis in die „totale Tiefe“ reichend. Allerdings zeigt die Reanalyse keinerlei Änderungen unter 2000 m, so dass dies ihre „totale Tiefe“ ist.

DATEN:

The data is from NOAA , except the ERSST and HadISST data, which are from KNMI.

The NOAA ocean depth data is here.

The R code to extract and calculate the volumes for the various Levitus layers is here.

Link: http://wattsupwiththat.com/2013/05/10/why-reanalysis-data-isnt-2/

Übersetzt von Chris Frey EIKE




Die grüne Hölle der EU

Bild rechts: Windturbinen erzeugen grüne Energie in Nauen bei Berlin. Quelle: Ferdinand Ostrop/AP Photo

Das Spektrum der grünen Stagnation, der Verlust der Wettbewerbsfähigkeit und der wirtschaftliche Abschwung haben 20 Jahre kollektives Wunschdenken ersetzt. Die grüne Narretei basierte auf zwei apokalyptischen Befürchtungen: erstens, dass die globale Erwärmung eine unmittelbare Bedrohung war, die um jeden Preis verhindert werden musste, und zweitens, dass der Welt die fossilen Treibstoffe ausgehen werden, womit gemeint war, dass Öl und Gas unweigerlich immer teurer werden würden. Beide Vermutungen stellten sich jedoch inzwischen als falsch heraus [was die deutschen Medien wohl niemals mitkriegen werden! A. d. Übers.].

Der nicht vorhergesagte Stopp der globalen Erwärmung seit dem Jahr 1997 hat klargemacht, dass die Klimamodelle des IPCC die Dringlichkeit irgendeines Klimarisikos künstlich aufgebauscht haben, während das plötzliche Auftauchen enormer Vorräte an Schiefergas und –öl die Peak-Oil-Hysterie beendet hat

Mittlerweile sind jedoch die EU und ihre schwächelnden Ökonomien Gefangene der selbst angelegten Fesseln geworden. Der einst blühende Kontinent findet sich in einer selbst gestellten Falle von erneuerbaren Energie-Verpflichtungen und einheitlichen Klimazielen, die unerschwinglich teuer sind.

Die grüne Ideologie der Grenzen des Wachstums hat sich in eine sich selbst erfüllende Prophezeiung gewandelt. Mit der ökologisch begründeten Zurückweisung traditioneller Industrien, der Behinderungen neuer Technologien zusammen mit einer fast allumfassenden Feindseligkeit gegen jede Form des konventionellen (geschweige denn des unkonventionellen) Energieverbrauchs entfernt sich das Zentrum ökonomischen Wachstums und Innovation immer weiter von einem alternden und depressiven Europa.

Die grüne Energiewende in Deutschland allein könnte die Energieverbraucher mit bis zu einer Billion Euro belasten.

Grünen Prophetien des klimatischen Untergangs und salvationistischer Zentralpläne zur Schaffung von Millionen grüner Arbeitsplätze wird nicht länger vertraut. Anstelle der von politischen Führern und Aktivisten versprochenen blühenden grünen Energie wird Europa jetzt mit einer Wettbewerbs-Krise und einem ökonomischen Albtraum von fast 27 Millionen Arbeitslosen sowie dem drohenden Bankrott mehrer Länder konfrontiert.

Die europäischen Hersteller, die rapide an Boden hinsichtlich des internationalen Wettbewerbs verlieren, haben Pläne zur Expansion in die USA verkündet. Anstatt in der EU mit seiner teuren Energie zu investieren, verschieben sie hunderte Millionen Dollar in die USA, wo die Energiepreise inzwischen auf ein Drittel des Niveaus der EU gefallen sind, hauptsächlich wegen der Schiefergas-Revolution. Industriebosse warnen, dass noch mehr Hersteller in die USA gehen werden, wenn die Energiepreise nicht signifikant sinken. Sie machen einseitige Energieziele und die grüne Opposition gegen die Förderung von Schiefergas für die Energiekrise verantwortlich und warnen, dass dies zu einer der größten Bedrohungen für die europäische Industrie geworden ist.

Dem österreichischen Energie-Regulator zufolge haben die europäischen Verbraucher die Investoren in erneuerbare Energien bislang mit der erschreckenden Summe von 600 Milliarden Euro seit dem Jahr 2004 subventioniert. Die deutsche Energiewende allein könnte den Energieverbraucher bis zum Jahr 2020 mit bis zu einer Billion Euro zu stehen kommen.

Der naive Glaube der politischen Entscheidungsträger, dass die Hauptwettbewerber dieser Verschiebung von billigem fossilem Treibstoff hin zu teurer grüner Energie einfach folgen würden, hat sich in Rauch aufgelöst. Wie die Washington Post kürzlich gewarnt hat, ist „Europa ist zu einem Fall eines grünen Abfallkorbes geworden. Anstatt ein Modell zu zeigen, das beispielhaft für die Welt ist, ist Europa zu einem Modell dessen geworden, was man nicht tun sollte“.

Den EU-Führern beginnt das enorme Ausmaß ihres Fiaskos grüner Energie zu dämmern. Am 22. Mai werden sie sich in Brüssel zu einem Energiegipfel treffen, um zu besprechen, wie man dieser Krise begegnen könnte. „Hohe Energiepreise und Kosten behindern die Wettbewerbsfähigkeit Europas“, heißt es in einem durchgesickerten EU-Dokument, das auch darauf hinweist, dass die EU ihre nicht nachhaltige,  kostspielige Klimapolitik wird überdenken müssen.

Der europäische Zertifikatehandel, der während der letzten Monate mehr oder weniger kollabiert ist, hat die Verbraucher bis heute mehr als 300 Milliarden Euro gekostet. Massive Mengen grüner Investitionen, die mit einem bevorstehenden hohen Kohlenstoffpreis begründet worden waren, sind verflogen und nicht mehr verfügbar.

In den meisten Mitgliedsstaaten der EU sind die Energiepreise in die Höhe geschossen, während Millionen Familien in die Energiearmut getrieben worden sind. Öffentliche Proteste gegen die steigenden Energiepreise zwingen den Gesetzgeber, die Unterstützung für kostspielige politische Maßnahmen einzustellen, die normale Familien schädigen. Der rapide Verfall der Wettbewerbsfähigkeit hat die Regierungen alarmiert. Zum ersten Mal sind Viele nicht länger gewillt, die grüne Agenda als prioritär anzusehen, die die grüne Lobby bis in ihre Randbereiche betreibt.

Als Folge gibt es inzwischen Anzeichen, dass einige Regierungen versuchen, sich mit ihrer Politik von der grünen Agenda zu distanzieren und zu den goldenen Tagen ökonomischen Realismus’ zurückzukehren. Und doch bleibt die Frage im Raum, ob die europäischen Führer tatsächlich das grüne Glaubenssystem überwinden und diesem selbst eingebrockten Öko-Desaster entkommen können. Vor allem das Wettrennen zur Ausbeutung von Schiefergas wird darüber entscheiden, ob die Politiker die Schlacht gegen die massive grüne Ablehnungsphalanx gewinnen können.

Ohne die Entwicklung einer neuen pragmatischen Politik und einer starken Verteidigung einer Strategie für billige Energie gegen die grüne Opposition wird es vielen Regierungen nicht gelingen, sich von den grünen Fesseln zu befreien, die den technologischen Fortschritt und das ökonomische Vorankommen behindern. Aber selbst dann muss vieles des grünen Ballastes, der Europa behindert, über Bord geworfen werden, wenn Europa mit der übrigen Welt mithalten will.

Gerade weil die sozialistische Planwirtschaft so grandios gescheitert ist, bevor sie durch die freie Marktwirtschaft ersetzt wurde, muss die grüne Planwirtschaft erst vollständig verworfen werden, bevor Europa wieder in der Lage sein wird, zu ökonomischem Wachstum und technologischem Optimismus zurückzukehren.

Benny Peiser, Special to Financial Post

Benny Peiser is the director of the London-based Global Warming Policy Foundation. He will be the guest speaker at the 10th Annual Friends of Science luncheon in Calgary on May 14.

Link: http://opinion.financialpost.com/2013/05/13/the-eu-green-hell/

Übersetzt von Chris Frey EIKE




Der Schiefer-Boom ist eine Pleite für die Gaskraftwerke in Europa

Bild rechts: Gaskraftwerke in Europa verlieren gegen die Kohlekraftwerke, sind diese doch gegenwärtig wettbewerbsfähiger hinsichtlich Stromerzeugung und Verbrauchspreise. Auf dem Bild rechts sieht man ein Gaskraftwerk des deutschen Energieriesen E.ON in Bayern. (Reuters)

Das norwegische Staatliche Energieunternehmen Statkraft sagte vor Kurzem, dass es ein Gaskraftwerk in Deutschland geschlossen hat, weil es mit seinen mit Kohle befeuerten Rivalen nicht mithalten konnte. Und der deutsche Energieriese  E.ON EOAN.XE +0.23% SE ließ verlauten, dass man sich ernsthaft überlege, weitere Gaskraftwerke stillzulegen, einschließlich eines hypermodernen Kraftwerkes in der Slowakei.

Andere europäische Unternehmen haben ähnliche Aktionen durchgeführt, was die Politiker vor ein Dilemma stellt – billigerer Kohlestrom könnte für die schwächelnden Ökonomien der Region eine gewisse Erleichterung bedeuten, ist aber unvereinbar mit langfristigen Zielen der Reduktion von Kohlenstoff-Emissionen und erneuerbarer Energie.

Die Stilllegungen in ganz Europa sind ein weiteres Beispiel für die weit reichenden Auswirkungen des nordamerikanischen Booms hinsichtlich der Energieversorgung. Die rasant steigenden Vorräte an Erdgas in Nordamerika, zugänglich aus Schiefergestein durch eine neue, unter dem Namen hydraulisches Brechen bekannte Technologie, haben dazu geführt, dass sich viele US-Energieerzeuger von der Kohle entfernen, was zu zunehmenden billigen Importen dieses Treibstoffs nach Europa führt.

Im Jahr 2012 stiegen die Kohleexporte nach Europa den Daten der EIA in den USA zufolge um 23% auf 66,4 Millionen Amerikanische Tonnen.

Vieles von dieser Kohle ersetzt Erdgas als Treibstoff für die Stromerzeugung in Europa. In UK beispielsweise stieg der Anteil des aus Kohle erzeugten Stromes im Jahr 2012 auf den höchsten Stand seit 17 Jahren, während Gas als Energiequelle entsprechend auf einen Tiefststand fiel.

„Die ökonomische Situation unserer Geschäfte in Europa, besonders in der konventionellen Energieerzeugung, bleibt schwierig“, sagte das E.ON-Vorstandsmitglied Johannes Teyssen.

Gaskraftwerke verlieren also gegenüber ihren mit Kohle befeuerten Rivalen, sind diese doch hinsichtlich der gegenwärtigen Energiepreise wettbewerbsfähiger. Außerdem reduziert die Ausweitung erneuerbarer Energien die Betriebsstunden von Gaskraftwerken; Wind- und Solarenergie sind in Stunden maximalen Bedarfs allgemein höher, ein Markt, den eigentlich Gaskraftwerke bedienen sollen*.

[* Im Original lautet dieser Satz: …; wind and solar energy output is generally higher at peak demand hours, a market gas plants are designed to serve.]

„Die Unternehmen kämpfen darum, Gaskraftwerke ökonomisch zu betreiben, selbst wenn es sich dabei um hypermoderne Einrichtungen handelt”, sagte der HIS-Energieanalyst Kash Burchett.

Die Kohlepreise an der europäischen Energiebörse sind während der letzten 12 Monate um fast 19% gefallen. Der Großteil von Erdgas auf dem europäischen Festland wird relativ zu Öl ausgepreist, und im ersten Quartal 2013 fiel der mittlere Preis Daten von BP zufolge um lediglich 5%.

Das hat die Dynamik des Energiemarktes verändert. Der tschechische Energieerzeuger CEZ AS BAACEZ.PR -0.70% sagte kürzlich, dass es ein neues Gaskraftwerk, dessen Inbetriebnahme für diesen Sommer geplant war, weiterhin abgeschaltet belassen werde, weil es vom ersten Tag an nicht profitabel arbeiten würde. Der Energieerzeuger SSE SSE.LN +0.06% PLC in UK sagte im März, dass man ein Gaskraftwerk schließen und die Kapazität in einem zweiten reduzieren werde. Außerdem würde man mehrere Jahre lang wegen der schlechten ökonomischen Aussichten keine neuen Gaskraftwerke bauen.

Die Schließungen von E.ON-Kraftwerken hätten sogar noch weiter gehen können, wenn sie nicht ein Abkommen mit der Netzagentur und einem Netzbetreiber in Deutschland geschlossen hätten, um zwei moderne, aber nicht profitable Gaskraftwerke am Laufen zu halten. E.ON und seine Partner hatten überlegt, diese zu schließen, aber die Netzagentur betrachtete sie als unabdingbar für die Energieversorgung in Süddeutschland.

Eurelectric zufolge, der Gesellschaft für die Energieindustrie in Europa, erzeugten die 27 Mitgliedsstaaten der EU den jüngsten verfügbaren Daten zufolge im Jahr 2010 24% ihres Stromes mit Kohle und 23% mit Gas, den Rest erbrachten Kernkraft und Erneuerbare.

Billige Kohle sind für jedes Unternehmen schlechte Nachrichten. Die RWE AG, RWE.XE +1.07%, der Kapazität nach der größte Energieerzeuger in Deutschland, der 62% seiner Energie aus Kohle erzeugt, sagte Anfang dieses Jahres, dass die Erzeugung aus Kohle und Flüssiggas im Jahr 2012 um über 16% gestiegen ist. RWE erwartet gleichbleibende Umsätze im Jahr 2013, während E.ON einen Rückgang bis zu 15% in diesem Jahr projiziert hat.

Es könnte auch noch weitere Vorteile geben. „Derzeit profitiert die Wirtschaft umfassend von billigerer Energieerzeugung“, sagte Marcus Schenck, das für Finanzen zuständige Vorstandsmitglied bei E.ON in einer Konferenzschaltung mit Reportern. Das bleibt aber nur dann so, „wenn glaubhaft gemacht wird, dass der Umweltschutz nicht länger eine politische Priorität ist“.

Die EU hat sich einer Reduktion der Kohlendioxid-Emissionen um 20% des Niveaus aus dem Jahr 1990 verschrieben und will bis zum Jahr 2020 20% seiner Energie durch Erneuerbare erzeugen. Ein Sprecher von EU-Energiekommissar Günther Oettinger lehnte es vorige Woche ab, zu den jüngsten Kraftwerks-Schließungen Stellung zu nehmen. Oettinger sagte im April in einem Interview, dass der Block seine Konzentration auf die Energiepolitik weiter fassen sollte als nur auf die Reduktion von Treibhausgasen, um sicherzustellen, dass Energie bezahlbar bleibt.

Industrieexperten warnen, dass die Stilllegung einer ganzen Reihe von Gaskraftwerken die Energiesicherheit des Kontinents schwächen könnte, da die ständig schwankende erneuerbare Energie wie Wind immer verbreiteter wird.

„Tatsächlich erfordert eine schwankende Kapazität irgendeine Form von Backup”, sagte Mr. Burchett von IHS Energy. Ein heraufziehendes Fehlen von Gaskraftwerken, die ideal zum Ausgleich der Schwankungen und unvorhersagbaren Änderungen wären, könnten das Problem verstärken, sagte er.

Frankreich entwickelt derzeit ein neues Marktmodell, das finanzielle Anreize für die Unternehmen bietet, Gaskraftwerke wieder in Betrieb zu nehmen, sagte Mr. Burchett.

Teyssen erneuerte seine Forderung nach einem neuen Marktdesign in Deutschland, um ähnliche Anreize zu bieten, obwohl die kommende Bundestagswahl im September den Prozess für Marktreformen verlangsamt hat.

In Italien, wo solche finanziellen Anreize bereits bestehen, sagte ein Sprecher von Enel SpA ENEL.MI +1.23%, dass man keine Pläne habe, eigene Kraftwerke zu schließen.

—Kjetil Malkenes Hovland in Oslo, Liam Moloney in Rom und Sean Carney in Prag haben zu diesem Artikel beigetragen.

Jan Hromadko, jan.hromadko@dowjones.com

Link: http://online.wsj.com/article/SB10001424127887323744604578470841012284404.html#

Übersetzt von Chris Frey EIKE