1

IPPNW lügt! UNSCEAR stellt fest- Fukushima: Ein Industrieunfall ohne Personenschaden

So könnte man den UNSCEAR-Bericht über Radioaktivität und ihre gesundheitlichen Folgen zusammenfassen.

UNSCEAR 2013 Report, Volume I,

REPORT TO THE GENERAL ASSEMBLY SCIENTIFIC ANNEX A

Levels and effects of radiation exposure due to the nuclear accident after the 2011 great east-Japan earthquake and tsunami

UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) wurde 1955 gegründet, um Regierungen objektiv und unabhängig zu beraten.

Nun, unsere Regierung und auch die Landesregierungen sind da beratungsresistent. Sie bleiben bei Ansichten, wie sie z.B. der Niedersächsische Umweltminister Stefan Wenzel vertritt: „Die Ereignisse in Japan übersteigen die schlimmsten Befürchtungen von Atomkraftgegnern…….In Japan zeigt sich das ganze Grauen der Unbeherrschbarkeit der Risikotechnologie Atomkraft.“ (Stefan Wenzel >Home Juli 2011).

Politiker stehen nun einmal mit der Wirklichkeit auf Kriegsfuß und richten damit Schaden an; im letzten Jahrhundert hatten wir schlimmere.

Dass wir trotzdem ganz gut leben, verdanken wir anderen Berufsgruppen, z.B. den Medizinern. Leider gibt es aber auch unter denen manche, die Tatsachen nicht anerkennen und nicht logisch denken können. Durch eine solche Ärztin wäre ich fast Witwer geworden.

Insofern sind die bei IPPNW (International Physicians for the Prevention of Nuclear War) organisierten Ärzte (in Deutschland 6.500) gefährlich. Wer wäre nicht gegen Atomkriege, aber leider haben sie ihr Tätigkeitsfeld erweitert.

Der Verein schreibt (IPPNW-Seite April 2014):

UNSCEAR-Bericht zu Fukushima vertuscht gesundheitliche Folgen der Atomkatastrophe

Behauptet wird:

  1. Es sind mehrere 10.000 zusätzliche Krebserkrankungen zu erwarten.
  2. Die Mitarbeiter von UNSCEAR haben kritiklos die Angaben der Betreiber und atomfreundlicher Organisationen übernommen.
  3. Bei Kindern wurden extrem hohe Zahlen von Schilddrüsenveränderungen und von Schilddrüsenkrebs gefunden.
  4. Die betroffenen Menschen wurden nicht offen über die Risiken aufgeklärt.

Zum Schluss der Glaubenssatz aller Kernkraftgegner:

Unumstritten ist: Jede noch so kleine Dosis von Radioaktivität geht mit einem erhöhten Risiko für Krebserkrankungen einher.

Es mag zu viel der Ehre für IPPNW sein, wenn ich meine Zusammenfassung über den 314 Seiten langen Bericht von UNSCEAR anhand obiger Behauptungen gliedere. Der Bericht ist aber so lang und so gründlich, dass ich mich auf Weniges beschränken muss, und da hat IPPNW doch einige brauchbare Punkte zusammengestellt:

1. Wie beurteilt UNSCEAR biologische Strahlenwirkungen?

Der UNSCEAR-Bericht ignoriert komplett die steigende Zahl wissenschaftlicher Arbeiten, welche auf einen positiven Effekt geringer Strahlendosen hinweisen. Nach UNSCEAR hat Radioaktivität entweder keinen oder einen negativen Einfluss auf die Gesundheit, eine positive Wirkung wird nicht in Erwägung gezogen.

Wie man anhand einer Internet-Recherche zu diesem Thema schnell herausfinden kann, ist aber die Behauptung von IPPNW, die schädliche Strahlenwirkung wäre unumstritten, eine glatte Lüge.

Strahlendosen ab 100 Millisievert (mSv) werden von UNSCEAR als möglicherweise krebserzeugend angesehen. Allerdings berichtet UNSCEAR auch, dass viele Menschen in einigen Regionen der Welt von Natur aus 20 mSv pro Jahr ausgesetzt sind, diese 100 mSv also jeweils in 5 Jahren erhalten, ohne dass gesundheitliche Folgen beobachtet werden.

Strahlendosen unter 100 mSv beurteilt UNSCEAR sehr vorsichtig. Eine schädliche Wirkung wird nicht völlig ausgeschlossen. Es wird jedoch dargelegt, dass sie sich in einer Gesundheitsstatistik niemals zeigen kann.

Wäre die Evakuierung von etwa 100.000 Menschen nicht erfolgt, hätte es nach UNSCEAR keine erkennbare Erhöhung der Krebsraten gegeben. Die Unannehmlichkeiten der Umsiedlung waren für manche Menschen jedoch so schlimm, dass man sie ins Krankenhaus bringen musste, wo über 50 sehr bald gestorben sind.

UNSCEAR lehnt das Konzept der Kollektivdosis nicht ab, macht aber für Dosen im Bereich der natürlichen Umgebungsstrahlung keinen Gebrauch davon. Für Kernkraftgegner und auch die deutsche Politik ist es jedoch das Fundament. Damit werden die zehntausende von Toten begründet. Würde man dieselben Vorstellungen auf Blut anwenden, sähe das so aus: Verliert jemand 5 l Blut, ist er tot. Verlieren 1.000 Menschen je 5 ml, dann sind das zusammen wieder 5 l, und es gibt genau einen Todesfall.

So zählt man die Strahlendosen aller betroffenen Personen zusammen, das hat UNSCEAR mit den in 10 Jahren zu erwartenden Dosen getan und ist auf die beeindruckende Zahl von 36.000 Sievert gekommen. Den nächsten Schritt hat UNSCEAR unterlassen, aber das tun die Experten von IPPNW und andere. Sie rechnen so: Dosis ist Dosis, egal auf wie viele Menschen sie sich verteilt. Da nach ICRP 103 (International Commission on Radiological Protection) bei einer Dosis von einem Sievert 4,2 Krebsfälle unter 100 Personen zu erwarten sind, hat man damit den Risikofaktor 0,042 Fälle/Sievert und multipliziert:

3.000 Sv ∙ 0,042 = 1.512 Krebstote.

Der Faktor ist aus Vorsicht eher zu hoch angesetzt, wie man das von Strahlenschützern auch erwarten muss. Aber IPPNW hätte gern mehrere 10.000 Tote, das erreichen sie mit einem höheren Faktor. Gerade kleine Strahlendosen wären überproportional gefährlich, das behaupten sie.

Aber, das steht nicht im UNSCEAR-Bericht, berechnen wir doch einmal die Kollektivdosis der 11 Millionen Menschen in den betroffenen Regierungsbezirken Fukushima, Miyagi, Tochigi, Gunma und Ibaraki aufgrund ihrer natürlichen Lebensdosis von 170 mSv. Ergebnis:

11 ∙ 106 ∙ 0,17 = 1,87 ∙ 106,

also fast 2 Millionen. Die Erhöhung durch den Unfall von Fukushima beträgt

36 ∙ 103 : 1,87 ∙ 106 ∙ 100 ≈ 2 %.

Würden die Leute nach Indien oder Brasilien auswandern, dann könnten sie ihre Kollektivdosis um 500 bis 1000 % steigern, ohne dass es mehr Krebsfälle gäbe.

Ich nehme an, im Medizinstudium wird gelehrt, wie man den Tod von Menschen feststellt; durch einfache Multiplikation geht es jedenfalls nicht. Es ist anzunehmen, dass kleine Strahlenschäden vollständig repariert werden, wie auch eine kleine Wunde mit 5 ml Blutverlust. Das bei Medizinern bekannte Nachschlagewerk von Pschyrembel schreibt vorsichtig:

„….da die Bedeutung von Reparatursystemen nach Strahleneinwirkungen nur unvollkommen abgeschätzt werden kann …… Hieraus kann allerdings nicht direkt geschlossen werden, auch kleinste Strahlendosen könnten das Karzinomrisiko maßgeblich erhöhen.“

2. Haben die Mitarbeiter kritiklos Daten der Betreiber und Behörden übernommen?

Natürlich nicht. Ausführlich wird die Herkunft sämtlicher Daten offen gelegt und diskutiert. Schwachpunkte werden aufgezeigt. So gibt es für die Personendosen des Personals in den ersten Tagen und auch Wochen tatsächlich nur die Angaben von TEPCO. Zum Zeitpunkt der Untersuchungen durch UNSCEAR lagen aber die Ergebnisse der medizinischen Untersuchungen vor. Strahlenschäden hatte keiner.

Doch gab es beim Personal 7 Todesfälle, 2 direkt durch den Tsunami, 4 durch Infarkte und tatsächlich einen durch Leukämie. Keiner der Leute hatte in hoch belasteten Bereichen gearbeitet, ihre Strahlendosen lagen im Bereich von 0,7 bis 25 mSv.

Die Ermittlung von biologisch wirksamen Dosen ist immer schwierig, daher hat UNSCEAR durchgehend obere Abschätzungen verwendet, die oft über den von Behörden oder TEPCO erhaltenen Daten liegen, einmal bis zum Faktor 4. Diese Ungenauigkeiten haben aber keinen Einfluss auf die Schlussfolgerungen; auch bei wesentlich höheren Dosen hätte es keine erkennbare Erhöhung der Krebsrate gegeben.

Ein Beispiel für die Schwierigkeiten der Dosisermittlung und die Gründlichkeit von UNSCEAR: Man hat sich auch um Pflanzen und Tiere gekümmert. In den Bergwäldern leben schwarze Bären (Ursus thibetanus). Wie viel Radioaktivität haben die nun in ihren Körpern? Um dies zu ermitteln, hat man keinen erlegt, auch keinen gefangen und dann in den Ganzkörperzähler geschoben. Vielmehr wurde die Radioaktivität im Körper anhand der Ernährungsgewohnheiten errechnet. In den meisten Fällen konnte man es auch bei der Ermittlung menschlicher Körperdosen nicht anders machen.

Die Radioaktivität der Lebensmittel wurde genau gemessen, obwohl IPPNW das bestreitet. UNSCEAR hat realistische Ernährungsgewohnheiten zugrunde gelegt. Auch Japaner kaufen die meisten Lebensmittel im Lebensmittelmarkt und leben nicht vorwiegend aus dem eigenen Garten.

UNSCEAR hat alle bisher veröffentlichten Arbeiten über mutierte Schmetterlinge und dergleichen aufgelistet, konnte aber leicht zeigen, wie unplausibel das alles ist.

3. Gibt es Veränderungen der Schilddrüsen?

In den betroffenen Regierungsbezirken werden praktisch alle Kinder und Jugendlichen auf solche Veränderungen und auf Schilddrüsenkrebs untersucht. Dabei fielen tatsächlich Veränderungen auf. Dies ist aber auf die gründliche Untersuchung zurückzuführen. Zum Vergleich wurden solche Untersuchungen in genau der gleichen Weise in nicht betroffenen Gebieten durchgeführt; der Prozentsatz von Auffälligkeiten war teilweise höher.

4. Information der Bevölkerung über die Risiken

Darüber hat UNSCEAR nicht berichtet. So umfangreich der Bericht ist, man hat sich beschränkt auf die Ausbreitung von Radioaktivität, Aktivitätskonzentrationen in Luft, Wasser und Boden, Tieren und Pflanzen, sowie Personendosen  und mögliche gesundheitliche Folgen.

Eine ehrliche Information über die Risiken der Personen in Gebieten mit zu erwartenden Strahlendosen über 20 mSv wäre so gewesen: „Wenn Sie bleiben, steigt nach einer sehr zweifelhaften Hypothese Ihr Krebsrisiko von 35 % auf maximal 35,3 %. Wollen Sie tatsächlich in eine Notunterkunft?“




Scheinriesen der Moderne – Turturische Energien II Elektroperpetumobile

Heutiges Thema: Elektroperpetumobile

 

Wer einmal Gelegenheit hatte, einen Tesla Roadster zu fahren, und nur ein bisschen technikaffin ist und sich nur ein bisschen für PS erwärmen kann, wird sich kaum seiner Faszination entziehen können: das Ding geht ab wie Schmitz‘ Katze, liegt wie ein Brett auf der Straße, und ist dabei sehr leise. Hat man das nötige Kleingeld für dieses besondere Spielzeug gerade nicht zur Hand, und sucht ohnehin ein Fahrzeug für den Alltagsgebrauch, findet man Elektroautos, die – wenn sie nicht ohnehin in die Klasse der elektrifizierten Krankenstühle gehören – nicht nur viel zu teuer sind, sondern zu dem hohen Preis auch schlechtere Eigenschaften aufweisen. Sie sind lahm, langsam, und hinsichtlich sowohl Reichweite wie auch „Tankzeiten“ für den Alltag unbrauchbar.

Mit Range-Extendern kann man das Reichweitenproblem angehen. Aber nur ewig Gestrige werden dafür einen Verbrennungsmotor einbauen, mit dem ein Generator betrieben wird, der die Batterie im Fahren nachlädt. Wir stellen hier Antriebe für den modernen Weltenretter vor.

Auf www.speedmanagement.de (herunterscrollen bis zum 18.Dezember 2013) wird ein Elektroauto mit Reichweitenverlängerung vorgestellt. Hier der Originaltext:

Anhänger rollt und treibt zusätzlich einen Dynamo ( Lichtmaschine ,Stromerzeuger ) pro Rad an. Batterie wird während der Fahrt aufgeladen oder direkt zum einspeisen der Elektromotoren und kann so einer Reichweitenverlängerung von Elektroautos dienen. An roten Ampeln oder Kreuzungen könnte ein Schwungrad die Lichtmaschinen weiter bewegen und stabilisieren, so dass die Räder beim anfahren die Lichtmaschine nicht jedes Mal aus dem Stand antreiben müssen. Ein weiterer Vorteil: Die Batterien bekommen weniger Ladecyclen, jedes Laden verkürzt die Lebensdauer vom Akku und so die Reichweite vom Elektromobil.

 

Fassen wir zusammen: Die in der Batterie gespeicherte chemische Energie wird in elektrische Energie gewandelt, aus der ein Elektromotor mechanische Energie macht. Damit zieht das Auto einen Anhänger, dessen dadurch rollende Räder ihre mechanische Energie über Dynamos in elektrische Energie wandeln, die der Batterie zugeführt, und in chemische Energie gewandelt wird.

Mein Verbesserungsvorschlag: den Anhänger weglassen, und den Dynamo gleich am Elektromotor anflanschen. Oder noch besser: auch das Auto weglassen, und zu Hause auf ewig perpetumobile Energie erzeugen!

Einer geht noch.

Bei einem fahrenden Auto drehen sich ja nicht nur die Räder, sondern es weht auch ein Fahrtwind. Richtig, man kann ein Windrad betreiben! Wie sich diese „Cleanenergy – for a better environment“ Webseite begeistert, ist das

die Zukunft der Elektromobilität, wie der chinesische Farmer aus Banjiehe in der Nähe von Peking sie sich vorstellt. In nur drei Monaten hat der 55-Jährige ein eigenes Elektroauto entworfen: Er hat Elektromobilität mit Windkraft gekoppelt und sein E-Mobil mit einer Windturbine an der Spitze versehen, die zusätzlich Strom generiert. Das Auto funktioniert im Grunde wie eine Windmühle, erklärte Tang. … Der kleine hellblaue Elektroflitzer muss ungefähr 65 Kilometer pro Stunde erreichen, dann setzen sich die Turbinenblätter in Bewegung und erzeugen schadstofffreie Energie.“ ( ab ca min 0:40)

Die pseudotechnische Elektroauto-Jubel-Webseite www.mein-elektroauto.com hat auch noch welche. Auch sie wollen Das Elektroauto mit dem Fahrtwind aufladen, aber statt eines schnöden Ventilators nutzen sie eine Windturbine an einem Windkanal, und bemerken kritisch:

Der erzeugte Strom wahrscheinlich nicht für eine Verdopplung der Reichweite [reicht], aber ich schätze, das 10 bis 20 Prozent mehr an Reichweite durchaus möglich wären.

Alternativ könne man auch einen 6 Meter hohen Mast (natürlich aus regenerativem Bambus) mitnehmen, an dessen Spitze ein Windrad angebracht ist. Ein Video zeigt, wie es geht: um das zweisitzige Elektroauto (Typ Krankenstuhl) aufzuladen wird mit 9 Personen – zählen Sie nach – der Mast errichtet. Das offensichtlich erforderliche Begleitfahrzeug mit Verbrennerantrieb, in dem mindestens 7 Personen und der Mast befördert werden, wird im Video nicht gezeigt.

Und noch einer von Mein Elektroauto, ein Solarzellen-Autodach als Range Extender. Das Dach bringt 75 W Peak. Da das Auto 130km/h schnell sein kann, und eine Reichweite von 250 km hat, sind nach 2h die Batterien leer. Im Hochsommer, mittags, bei wolkenfreiem Himmel kommt es aber dank des Solardaches viel weiter: 75 W * 2h = 0.15 kWh. Ein Elektroauto VW eUp braucht 0.117 kWh/km, mithin verhilft das Dach zu einer zusätzlichen Reichweite von 1.3km! Hurra, es geht und ist kein Perpetuum Mobile.

Wir überlegen, Turturische Orden am grünen Juteband zu verteilen.

P.S. Wer in der Industrie beschäftigt war und mal in die unglückliche Lage kam, die Folgen eines konzernweiten Ideenwettbewerbs auswerten zu müssen, wird reichlich über Perpetuum Mobiles berichten können. Lassen Sie hören!

Über den Autor: 

Dr. Ulrich Steiner ist Physiker mit Diplom in Kernphysik. Seine Promotion erlangte er in der Krebsforschung mit einem biophysikalischen Thema. Nach über zwei Jahrzehnten in der Human-Pharmazeutischen Biotechnologie in Forschung, Entwicklung, Produktion und Planung begann er, Bioenergien und andere „Erneuerbare“ auf ihre Eignung für großtechnische Nutzung zu durchsuchen. Was er fand waren vor allem, nun ja, Turturische Energien.




VII. Internationale Klima- und Energiekonferenz (IKEK-7), ein Résumé

Der Vortragssaal im Steigenberger Hotel umfasste 100 Sitzplätze. Bei insgesamt etwa 130 Tagungsteilnehmern war es daher nötig, für zusätzliche Sitzgelegenheit zu sorgen. Wer zu spät kam, musste stehen. Das Programm und die fachliche Qualität der Konferenz – das Vortragsprogramm ist im Anhang abgreifbar – verdiente zweifellos dieses hohe Interesse. Und dies nicht nur, weil sich unter den Fach-Referenten auch drei Klimawissenschaftler von Weltruf (Prof. Richard Lindzen, Henrik Svensmark und Nir Shaviv)  sowie die bekannte kanadische Journalistin und Buchautorin Donna Lafromboise befanden. Alle Vorträge – teils in Deutsch, teils in Englisch – boten nämlich Sach-Information, wie man sie praktisch nie in den großen deutschen Medien findet. Sie wurden von Fachdolmetscherinnen jeweils in die andere Sprache simultan übersetzt und per Kopfhörer zur Verfügung gestellt.  

Ersichtlich war es nicht einfach, 10 Fachvorträge in einem einzigen Tag unterzubringen. Es gelang dennoch, allerdings waren dabei gelegentliche Zeitüberschreitungen unvermeidbar. Nicht deswegen, weil vielleicht Vortragende ihre Redezeit überzogen hätten, sondern weil jeder Vortrag in den anschließenden, leider viel zu kurzen Diskussionsphasen zu interessanten Fragen und Anmerkungen des Publikums führte. Dabei stellte sich schnell heraus, dass neben interessierten Laien auch erstaunlich viele Fachexperten gekommen waren.  

Es wirft ein bezeichnendes Licht auf die Presse, dass sich keine der drei von EIKE eingeladenen Lokalzeitungen, nämlich die Rhein-Neckar-Zeitung, die Badischen Neuesten Nachrichten oder der Mannheimer Morgen blicken ließen. Dabei werden von diesen Zeitungen keine noch so unbedeutenden lokalen Nebensächlichkeiten übersehen. War das Fach-Niveau für Lokalredakteure zu hoch oder verletzten die Vortragsthemen die in deutschen Medien sorgsam beachtete politische Korrektheit in unzulässiger Weise? Wie dem auch sei, wir kennen die Gründe des Absentismus der drei genannten "Qualitätsblätter" nicht. Eine rühmliche Ausnahme machte nur die kostenfreie Internet-Zeitschrift "Pfalz-Express", die objektiv und neutral über die Konferenz berichtete. Erkennt man an diesem Beispiel das Menetekel der Print-Medien, denen die Leser davonlaufen? Eigentlich kein Wunder, denn objektive Information, nicht Öko-Propaganda wünschen die Leser. Um fair zu sein ist freilich anzumerken, dass die Printmedien auf das Anzeigengeschäft angewiesen sind; ein Schelm, wer meint, dass Anzeigen-Auftraggeber in Form von geldschweren Ökogruppen nichts mit den Zeitungsredaktion zu tun haben. Haben nicht Anzeigenschalter wie große Versicherungen eigene Klimaabteilungen, verkaufen nicht Banken Beteiligungen an Windradfarmen …?

Wie dem auch sei, man muss an Stelle der oft beschworenen freien, objektiven deutschen Presse heute definitiv von medialen DDR-Zuständen sprechen. In so gut wie allen deutschen Medien wird nur grün-ideologisch und jeder Sachkenntnis bar über die hier interessierenden Themen "Klima" und "Energiewende" berichtet. Von Experten leicht zu erhaltene Sachinformationen wird konsequent ausgeblendet. Insbesondere das deutsche Fernsehen ist dabei Vorreiter. Wurde jemals in einer Energiewende-Talk-Show ein unabhängiger Energie- oder  Wirtschaftsexperte (unser Vorschlag Prof. Hans-Werner Sinn) gesehen? Nur grüne Politiker – besonders beliebt Cem Özdemir, Gott steh uns bei, das tut schon physisch weh, was der so zum Thema zu sagen hat – oder Leiter von Ökoinstituten, oder, und dies ist dann endgültig der Tiefpunkt jeder einschlägigen Sendung, eine Professorin namens Claudia Kemfert, die an Stelle von Sachaussagen mit peinlichem Grünsprech-Gequassel punkten möchte, sind zu vernehmen. Manche fragen sich inzwischen, wie Frau Kemfert zu ihrer Professur kam. Man wendet sich mit Grausen ab und zappt verzweifelt zum Fußball, weil der wenigstens anspruchsvoller ist als der Energie- und Klima-Quatsch im rotgrünen Ökofernsehen unserer Tage. Doch nun wieder zurück zur EIKE-Konferenz!

Der zweite Veranstaltungstag der EIKE-Konferenz war der Besichtigung des Kohle-Großkraftwerks Mannheim gewidmet. Hier konnte man sich mit eigenen Augen davon überzeugen, um was für eine Verdrehung der Fakten es sich handelt, wenn wieder einmal gegen "schmutzige Kohleverbrennung" Stimmung gemacht wird. Der Verfasser dieser Zeilen hat es anlässlich zahlreicher von ihm veranstalteter studentischer Exkursionen bereits vor längerer Zeit miterleben dürfen – es wurde unter anderem das moderne Braunkohlenkraftwerk Lippendorf bei Leipzig besichtigt. Nur unweit von diesem Kraftwerk entfernt konnte man damals blendend-weiße Bettwäsche sehen, die zum Trocknen aushing. Ein ehemaliger Hochschulkollege des Autors, seines Zeichens Volkswirt mit ökoideologischen Aktivitäten und entsprechenden Nebentätigkeiten, war übrigens trotz freundlicher Einladung und Aufforderung niemals dazu zu bewegen, die industrielle Realität auf einer Exkursion selber in Augenschein zu nehmen. Wozu auch? Die Realität ist doch nur für Dumme da, Propaganda, die die Realität verdreht, ist viel besser.

Nur alternative Veranstaltungen, wie die hier besprochene EIKE-Konferenz, sowie eine Medien- und Diskussionskultur ohne Ausblendung der dem politischen Mainstream zuwiderlaufenden Fakten können dem inzwischen bedenklichen Abbröckeln unserer demokratischen Gepflogenheiten entgegensteuern und unserer inzwischen niederliegenden Medienkultur wieder auf die Beine helfen. Die herrschenden politischen Klassen dürfen sich über das Aufkommen von Protestparteien in allen europäischen Ländern nicht wundern – Versuche, diese generell als rechtspopulistisch abzutun, werden nicht weiterhelfen. Eine Bundeskanzlerin, die ihre Entscheidungen mit "Alternativlosigkeit" begründet, weiß offenbar nicht, welchen Schaden sie damit unserer Demokratie zufügt.

Ein Sachhinweis: Die Vorträge können als pdf oder word Dokumente heruntergeladen werden. Eine Mail an Herrn Michael Limburg genügt, (m.limburg(at)eike-klima-energie.eu) dann werden die Interessenten authorisiert das zu tun. In ca. 6-8 Wochen stehen auch sämtliche Vorträge in Originalsprache auf Youtube und hier zur Verfügung.

Related Files




IPCC WG III Bericht aus Berlin: Und immer wieder warnt der „Weltklimarat“

Die schlechte Nachricht zuerst: Die IPCC Arbeitsgruppe III, die heute in Berlin ihre Ergebnisse den Medien präsentierte behauptet: Es kommt alles noch viel, viel schlimmer!

Abbildung 1: Vergleich der Modellprognosen mit der Realität. Die große Abweichung wird in 95 % ige Sicherheit, dass die Modelle richtig liegen umerklärt. Radio Eriwan als Lehrmeister.

Doch der Ablass folgt auf dem Fuße:

Wir können die zukünftige katastrophale Erwärmung auch jetzt noch aufhalten. Wir können den Planeten immer noch retten und müssten nur unsere Energieversorgung komplett und möglichst über Nacht umstellen.

Auf „Erneuerbare“, besser NIE (Neue Instabile Energien), versteht sich. Und das sei billiger als man denkt, sagt der bestens honorierte Multifunktionär Ottmar Edenhofer, Co-Vorsitzender des aktuellen IPCC-Berichts… "Es kostet nicht die Welt, den Planeten zu retten“. Es ist derselbe Edenhofer der 2010 frank und frei zugab: "Wir ver­tei­len durch die Kli­ma­po­li­tik de­fac­to das Welt­ver­mö­gen um".

Ihn berühren die realen astronomischen Kosten der NIE ja auch nicht weiter. Anders als die über 600.000 Haushalte, die schon heute in Deutschland ihre Stromrechnung vor allem wg. der Energiewende ihren Strom nicht mehr bezahlen können. Um die Welt zu retten ist diesem Mann und seinen Gefolgsleuten kein Opfer – der anderen versteht sich- zu hoch.

Die CO2 Emissionen müssen um jeden Preis runter, heißt die auf 2000 Seiten verteilte Botschaft. Und das geht nur mittels NIE. Und so „empfehlen Wissenschaftler eine schnelle und deutliche Verschiebung von Investitionen: weg von Förderung und Verbrennung von Kohle, Gas und Öl – hin zu klimafreundlichen Energien. Eine Kernbotschaft lautet, dass dieser Wechsel nicht so teuer ist, wie viele Menschen vermuten. Nach IPCC-Berechnungen schlägt er bei einem Wirtschaftswachstum von 1,6 bis 3 Prozent im Jahr mit einem Minus von rund 0,06 Prozentpunkten zu Buche.“

Das sind ja geradezu Peanuts, so wie die eine Kugel Eis im Monat, die uns der andere Wunderverkünder der Grünen, Jürgen Trittin, vor Jahren bei der Einführung des EEG glaubhaft machen wollte. Inzwischen ächzt die ganze Nation unter den Kosten der unbedingten Subventionierung der NIE.

Dass mit diesen heuchlerischen Prognosen, die in ihrer Qualität an die Versprechungen der Glücksritter vom grauen Finanzmarkt erinnern, nicht alles stimmen kann, merkt sogar Christoph Seidler vom sonst unkritischen SPON und wundert sich:

 „iDeutschland werden zwar die erneuerbaren Energien ausgebaut, die ausgestoßene CO2-Menge nimmt allerdings trotzdem zu – weil auch die Braunkohle boomt.

Abb. 2. Verlauf der Brutto Elektro-Energie Produktion und Elektroenergie bedingte CO2 Emissionen. Auffällig ist der unbedingte Gleichlauf beider Größen. Quelle Statista Erhebung durch BDEW, Statistisches Bundesamt, AGEB


Das die Braunkohle daran schuld sei, ist zwar falsch, klingt aber gut, und dann schreibt er weiter:

Die Regierung will daher in der kommenden Woche Eckpunkte für ein Sofortprogramm zur Eindämmung des Kohlendioxid-Ausstoßes vorstellen.

Abb. 3: Verlauf der „Erneuerbaren Energie“ Produktion und Elektroenergie bedingte CO2 Emissionen. Auffällig ist keinerlei Veränderung der CO2 Emissionen, trotz 3,5 facher Steigerung der Produktion „Eneuerbarer“ Energie. Quelle Statista Erhebung durch BDEW, Statistisches Bundesamt, AGEB


Da wird Frau Hendricks, die neue Bundes-Umwelt-Ministerin schnell aktiv. Sie will endlich dafür sorgen, dass..“.. das Klima nicht vor die Hunde geht!“. Nachdem sie vorher völlig konsterniert feststellen durfte, dass der Klimawandel jeden Tag passiert.

Eines ist jedoch tröstlich, die vorgeschobene Behauptung der Regierung die Energiewende sei auch deswegen unabdingbar, weil die fossilen Ressourcen bald zur Neige gingen konterten die „Wissenschaftler“ der WG III mit einem unmutigen Statement. SPON schreibt: Eine Sache stellen die Wissenschaftler in ihrem Bericht allerdings klar: Das Klimaschutzproblem lässt sich nicht dadurch lösen, dass die Reserven an fossilen Brennstoffen zur Neige gehen. Dafür sind die weltweiten Lagerstätten noch zu voll.

Dann müssen wir eben zu den alten Lügen zurückkehren mögen sich die versammelten Paniker der Regierungen und die von ihnen bezahlten „Wissenschaftler“ gedacht haben und schlugen erneut munter auf die alt bekannte – bei vielen verdienten Zeitgenossen- immer noch gern gehörte Paniktrommel. Der preisgünstige Ablass in Form schnellster und umfassender Einführung der NIE wurde ja gleich mitgeliefert.




Die endlose Liste von Klima-Fehlprognosen – Teil 2

Bemerkung: Mir scheint, dass einige der hier folgenden Prognosen doppelt auftauchen, wenn auch eventuell mit anderem Wortlaut. Aus Zeitgründen habe ich mir nicht die Mühe gemacht, diese lange Liste auch noch daraufhin abzuklopfen.

Bild rechts: Immer wieder diese Fehlprognosen… Bild: © Chris Frey

54. Shindells Modell sagt voraus: falls die Treibhausgase weiter zunehmen, wird der Winter in der Nordhemisphäre weiterhin immer wärmer werden. ‚In unserem Modell sehen wir ein sehr großes Signal globaler Erwärmung, und es ist kein natürlich vorkommendes Ereignis. Es hängt höchstwahrscheinlich mit Treibhausgasen zusammen‘, sagte er. – NASA GISS, 2. Juni 1999

55. Wir haben erlebt, dass die Winter in den letzten Jahren und Jahrzehnten viel milder als zuvor geworden sind und dass es nicht einmal annähernd so viel Schnee gab wie früher. Alle Simulationen zeigen, dass sich dieser Trend in Zukunft fortsetzen wird und dass wir eine intensive Erwärmung in den Alpen erwarten müssen … vor allem in den Voralpen wird Schnee in Regen übergehen und Wintersport wird nicht länger möglich sein“. – Mojib Latif, Leipniz-Institut für Ozeanographie der Universität Kiel, 17. Februar 2005.

56. Planungen für eine schneelose Zukunft: ‚Unsere Studie zeigt schon jetzt, dass es in 20 Jahren noch viel schlimmer sein wird‘. – Christopher Krull, Schwarzwald-Tourismusverband, Der Spiegel, 17. Februar 2005

57. Rheinland-Pfalz wird wie das gesamte Mitteleuropa durch höher als das Mittel liegende Erwärmungsraten betroffen sein, und winterlicher Schnee wird zunehmend verschwinden. – Prof. Dr. Hartmut Grassl, „international anerkannter Meteorologe“, emeritierter Direktor am Max Planck-Institut für Meteorologie, Hamburg, 20. November 2008

58. Mit der zunehmenden globalen Erwärmung sagen einige Experten der Klimaänderung voraus, dass die schottische Ski-Industrie innerhalb der nächsten 20 Jahre aufhören wird zu existieren. – Guardian, 14. Februar 2004

(4. Januar 2013: [Die Skigebiete] Nevis Range, The Lecht, Cairngorm, Glenshee und Glencoe bleiben allesamt heute geschlossen wegen heftiger Schneefälle und starker Winde)

59. Unglücklicherweise wird es für die schottische Ski-Industrie einfach zu warm. – David Viner, CRU der UEA, 14. Februar 2004

60. „Für die Ostsee-Ringelrobbe könnte die Klimaänderung das Verschwinden bedeuten”, warnte ein Wissenschaftler-Team auf der BALTEX-Konferenz in Göteborg (BALTEX = Baltic Sea Experiment). „Dies führt dazu, dass das Eis der Ostsee schneller schmilzt und in jedem Jahr früher“. – Der Spiegel, 3. Juni 2006

(The Local 2013: „Spätwinterlicher Frost sorgt für neuen Eisrekord in der Ostsee … Ich habe noch nie so spät in der Jahreszeit so viel Eis gesehen“.)

61. Prognostiker sagen einen weiteren milden Winter für Europa voraus

Das Wetter in Europa während des kommenden Winters scheint noch wahrscheinlicher auf der milden Seite zu liegen als in früheren Studien geschätzt, sagte der deutsche Meteorologe Georg Müller in einem monatlichen Bericht. Und weiter: „Die jüngsten Modellläufe sprechen allgemein für einen Winter, der milder als normal ausfällt, vor allem in Nordeuropa“. – Reuters, 9. November 2012

[Ich denke mal, dass die Erinnerung an den endlos langen und kalten Winter 2012/2013 in jedem von uns noch sehr lebendig ist. Allerdings ist dies natürlich keine Klimavorhersage. Sie zeigt jedoch, welchen Sinn es macht, über mehr als 1 Woche im Voraus das Wetter vorherzusagen. A. v. Dipl.-Met. Hans-Dieter Schmidt]

62. Der Frühling kommt jedes Jahr früher als Folge der Klimaänderung. Das ist der erste ‚schlüssige Beweis‘, dass die globale Erwärmung das Timing der Jahreszeiten verändert. Dies haben Wissenschaftler vor kurzem verkündet. – The Guardian, 26. August 2006 (hier)

63. bis 66. Angesichts der Zunahme der mittleren Temperatur im Winter ist es offensichtlich, dass die Anzahl der Frosttage und der Tage mit einer Schneedecke abnimmt. Für Europa zeigen die Modelle, dass kalte Winter wie zum Ende des 20. Jahrhunderts, die es einst im Mittel alle zehn Jahre gegeben hatte, im Laufe dieses Jahrhunderts immer mehr verschwinden werden (S. 19) … aber es kann gut sein, dass von den Winterfreuden in den Hautes Fagnes infolge der Klimaänderung nichts übrig bleibt außer ein paar vergilbten Fotos … außerdem wäre eine Zunahme winterlicher Niederschläge sicher einer Erholung nicht förderlich (S. 38)

Außerdem steht dort noch:

In Belgien wird eine Schneedecke im Winter zunehmend seltener auftreten, aber es wird viel grauen Himmel und Regen geben (S. 6)

Aus dem Greenpeace-Bericht der Sektion Belgien: Auswirkungen der Klimaänderung in Belgien – Jean-Pascal van Ypersele und Philippe Marbaix für Greenpeace, 2004. Der Klimawissenschaftler van Ypersele ist Vizevorsitzender des IPCC.

67. Das wärmste Jahr seit 1659 verbreitet den globalen Untergang! – The Telegraph, 14. Dezember 2006 (hier)

68. Wärmere und nassere Winter in Europa und dem westlichen Nordamerika stehen in Zusammenhang mit zunehmenden Treibhausgasen. – NASA, 2. Juni 1999 (hier)

69. Die globale Temperatur wird jedes Jahr um 0,2°C zunehmen. – Michael Müller, Staatssekretär im Bundesumweltministerium, in Die Zeit, 15. Januar 2007

70. Unglücklicherweise wird es einfach zu warm für die schottische Ski-Industrie. Die ist sehr verwundbar durch die Klimaänderung; die Skigebiete waren immer arm dran hinsichtlich Schnee, und mit zunehmender Rate der Klimaänderung ist eine längerfristige Zukunft hierfür nur schwer vorstellbar. – David Viner, CRU der UEA, 14. Februar 2004 (hier)

71. Die Klimaänderung wird immer mehr Wintersportgebiete immer weiter die Berge hinauf treiben…“ – Rolf Burki und Kollegen an der Universität Zürich (hier)

72. In Zukunft werden die Schneeglöckchen bereits im Januar blühen, die Primeln im Februar, Maiglöckchen und Flieder im April und die Wildrosen im Mai; die Teiche werden schon im März voller Kaulquappen sein, und einen Monat später werden sogar die Eichen in vollem Laub stehen. Falls das noch nicht reicht, wird der Herbst wahrscheinlich nicht vor Oktober beginnen. – Geraint Smith, Wissenschaftskorrespondent, The Standard (hier).

[Und wieso soll dieser paradiesische Zustand eine Katastrophe sein? Ist es nicht eher schade, dass es dazu wohl nicht kommen wird? A. d. Übers.]

[Ab hier folgen einige Prognosen aus wesentlich früherer Zeit für Zeitpunkte, die jetzt schon vergangen sind. Das heißt, jetzt wird es richtig lustig! A. d. Übers.]

73. „Der West Side Highway (der entlang des Hudson River verläuft), wird unter Wasser stehen. Und die Fenster auf der anderen Straßenseite werden vernagelt sein wegen schwerer Stürme. Und die gleichen Vögel werden nicht mehr da sein. Die Bäume auf dem Mittelstreifen werden sich verändern … Es wird mehr Polizeiautos geben … Sie wissen, wie das mit der Kriminalität ist bei steigender Temperatur“. Das erwiderte Dr. James Hansen im Jahre 1988 auf die Frage des Autors Rob Heiss, ob der Treibhauseffekt die Umgebung von Hansens Büro in New York während der nächsten 20 Jahre beeinflussen werde.

[D. h., die Vorhersage galt für das Jahr 2008. Da sieht man, dass der „Quatsch immer quätscher“ wird. Den Highway gibt es nämlich noch! A. d. Übers.]

74. Schnee in UK wird zu einem sehr seltenen und faszinierenden Ereignis werden, und Kinder werden einfach nicht mehr wissen, was Schnee ist. – Dr. David Viner in The Independent, 20. März 2000.

75. Wir müssen einfach alles in unserer Macht stehende tun, um die globale Erwärmung zu verlangsamen, bevor es zu spät ist … Die Wissenschaft ist eindeutig. Die Debatte um die globale Erwärmung ist vorüber. – Arnold Schwarzenegger bei der Unterzeichnung des Anti-Emissions-Gesetzes von Kalifornien im September 2006.

[Da war er dort Gouverneur. Ob es Fans von ihm dazu bringt, nicht mehr sein Fan zu sein? A. d. Übers.]

Bis zum Jahr 2000 – also in weniger als zehn Jahren – wird das Erdklima wärmer sein als seit über 100.000 Jahren. Falls wir nicht etwas tun, wird es innerhalb kürzester Zeit zu erheblichen Kalamitäten kommen. – Schauspielerin Meryl Streep im Jahre 1990.

[Ich würde sagen, „Schuster, bleib bei deinen Leisten“. A. d. Übers.]

77. Nichts zu tun wird katastrophal sein. In zehn, nein, in 30 oder 40 Jahren wird es acht Grad wärmer sein als heute, und nahezu keine Ernte wird noch eingefahren werden. Die meisten Menschen werden gestorben sein, und der Rest von uns wird zu Kannibalen geworden sein. – Medienmogul Ted Turner in der Charlie Rose TV-Show im April 2008 zum Thema: was passiert, wenn wir nicht drastische Maßnahmen ergreifen.

(Übersetzte Anmerkung im Original hierzu von Anthony Watts: Das heißt, dass es mindestens bis zum Jahr 2048 dauern würde, bevor unsere Nachbarn für ihr Mittagsmenü hinter uns her sind. Diese Vorhersage ist so bizarr, dass sie hier eingefügt wurde).

78. Wissenschaftler verfügen über solide experimentelle und theoretische Beweise, um die folgenden Prognosen zu unterstützen: In einem Jahrzehnt werden Stadtbewohner Gasmasken tragen müssen, um die Luftverschmutzung zu überleben … bis 1985 wird die Luftverschmutzung die auf die Erde einfallende Sonnenstrahlung um die Hälfte reduziert haben. – Life Magazine Januar 1970.

[Nun ja, wenn man an China denkt… Aber liegt das am Klima? A. d. Übers.]

79. Bei der gegenwärtigen Rate der Stickstoff-Anreicherung ist es nur eine Frage der Zeit, bevor das Licht aus der Atmosphäre herausgefiltert wird und wird nichts von unserem Land mehr nutzen können. – Ökologe Kenneth Watt 1970

80. Noch einmal der Ökologe Kenneth Watt 1970: Die Welt hat sich 20 Jahre lang stark abgekühlt. Falls sich dieser Trend fortsetzt, wird die globale Mitteltemperatur im Jahre 1990 um 4 Grad unter den heutigen Werten liegen und um 11 Grad darunter im Jahr 2000. Das ist mehr als doppelt so viel wie nötig, um uns in eine Eiszeit zu katapultieren.

****

[Und jetzt ein paar weitere Prognosen aus den siebziger Jahren, als der Eiszeit-Hype in aller Munde war. A. d. Übers.]

81. Es gibt bedrohliche Anzeichen, dass das Wetter auf der Erde angefangen hat, sich bedrohlich zu verändern … Beweise zur Stützung dieser Vorhersagen haben jetzt angefangen, sich so massiv zu akkumulieren, dass die Meteorologen Mühe haben, damit Schritt zu halten … Die im Mittelpunkt stehende Tatsache lautet, dass sich das Erdklima abzukühlen scheint … Sollte diese Klimaänderung so ausgeprägt sein, wie einige Pessimisten befürchten, könnten die daraus resultierenden Hungersnöte katastrophal sein. – Newsweek, 28. April 1975.

[Aus heutiger Sicht muss man fragen: ja was denn nun? Ist nun die Abkühlung katastrophal oder die Erwärmung? Es lässt sich wohl kaum noch besser auf den Punkt bringen, wie unsinnig solches Katastrophen-Gesäusel ist. A. d. Übers.]

82. Diese Abkühlung hat bereits hunderttausende Menschen getötet. Falls das so weitergeht und keine drastischen Maßnahmen ergriffen werden, wird es zu einer Welt-Hungersnot, einem Welt-Chaos und einem Welt-Krieg kommen, und das alles könnte noch vor dem Jahr 2000 eintreten. – Lowell Ponte in „The Cooling“, 1976

[Jeder weitere Kommentar dazu ist überflüssig! A. d. Übers.]

83. Während der nächsten 50 Jahre wird der vom Menschen in die Atmosphäre geblasene Feinstaub durch Verbrennung fossiler Treibstoffe so viel Sonnenlicht herausfiltern, dass die Temperaturen der Erde um sechs Grad fallen könnten. Nachhaltige Emissionen über fünf bis zehn Jahre könnten ausreichen, eine neue Eiszeit auszulösen. – Washington Post, 9. Juli 1971

84. Die fortgesetzte rapide Abkühlung der Erde seit dem Zweiten Weltkrieg passt sehr gut zur Zunahme der globalen Luftverschmutzung im Zusammenhang mit der Industrialisierung, der Mechanisierung, der Verstädterung und der explodierenden Bevölkerung. – Nigel Calder in International Wildlife, Juni 1975.

85. Ein UN-Funktionär sagt die Katastrophe vorher und sagt, dass der Treibhauseffekt einige Länder von der Landkarte ausradieren könnte – Ganze Nationen könnten vom Angesicht der Erde verschwinden infolge des steigenden Meeresspiegels, falls die globale Erwärmung bis zum Jahr 2000 nicht umgedreht werden kann. [Gut, dass die Natur das offenbar inzwischen selbst erledigt hat! A. d. Übers.] Die Überschwemmung von Küstengebieten und Ernteausfälle würden zu einem Exodus von ‚Öko-Flüchtlingen‘ führen, was ein politisches Chaos heraufbeschwören könnte. – Der Direktor des New Yorker Büros des UN-Umweltprogramms am 30. Juni 1989 lt. Associated Press. Er fügte noch hinzu: Die Regierungen haben noch ein Zeitfenster von zehn Jahren, um den Treibhauseffekt zu lösen.

[Nun ja, ein Flüchtlingsdrama spielt sich ja inzwischen tatsächlich im Mittelmeer ab, und ein politisches Chaos könnte daraus auch entstehen. Aber sind das wirklich ‚Öko-Flüchtlinge‘? A. d. Übers.]

86. In New York wird das Wetter in 15 Jahren vielleicht so sein wie heute in Florida. – Die Zeitung St. Louis Post-Dispatch, 19. September 1989.

[Eine Vorhersage, die also für das Jahr 2004 galt. Man erzähle das mal den New Yorkern heute, vor allem und gerade auch nach dem letzten Winter! A. d. Übers.]

87. Einige Vorhersagen für das nächste Jahrzehnt sind nicht schwer zu erstellen … Die Amerikaner könnten erleben, wie sich die Völkerwanderung der achtziger Jahre in den Sonnengürtel [der USA] umkehren könnte, wenn die globale Erwärmung die Leute wieder in ein kühleres Klima treibt. – Dallas Morning News, 5. Dezember 1989

88. Bis zum Jahr 1995 wird der Treibhauseffekt das Kernland von Nordamerika und Eurasien mit schrecklichen Dürren zerstört haben; mit Missernten und Hunger-Revolten … Bis zum Jahr 1996 würde der Platte River in Nebraska austrocknen, während ein kontinentweiter Staubsturm aus den Präriegebieten den Verkehr auf Autobahnen zum Stocken bringt, die Farbe von den Häusern schmirgelt und Computer zum Absturz bringt. – Michael Oppenheimer, The Environmental Defense Fund, 1990.

89. Gigantische Sanddünen könnten die Großen Ebenen begraben – riesige Sanddünen wie in der Wüste, die sich von der Front Range [ein Gebirgszug] in Colorado weit nach Osten ausbreiten. Sie würden jüngsten Forschungen zufolge die Hochebene des Mittleren Westens in eine Wüste verwandeln. Es wird erwartet, dass die auf NASA-Satellitenphotos entdeckten gigantischen Sanddünen während der nächsten 20 bis 50 Jahre erneut auftauchen werden, abhängig davon, wie schnell die Temperatur durch den vermuteten Treibhauseffekt steigt. – Die Zeitung Denver Post, 18. April 1990

90. Bis zum Jahr 2000 werden die britischen und amerikanischen Ölvorräte zu einem Rinnsal verkommen sein … Ozonzerstörung und globale Erwärmung bedrohen die Versorgung mit Nahrungsmitteln, aber der wohlhabende Norden wird eine vorübergehende Galgenfrist erhalten. Unruhen seitens der Hungrigen und der daraus resultierenden politischen Instabilität werden durch die größere militärische Macht des Nordens zunächst unter Kontrolle gehalten. Wirklich eine düstere Zukunft, aber unausweichlich, solange wir nicht unsere Lebensweise ändern … bei der gegenwärtigen Rate der Ausbeutung könnte es in 10 Jahren keinen Regenwald mehr geben. Wenn nicht sofort Maßnahmen ergriffen werden, könnte der Treibhauseffekt in 12 bis 15 Jahren unaufhaltsam werden. – Edward Goldsmith in ‚5000 Days to Save the Planet‘, 1991

91. Ich denke, dass wir in Schwierigkeiten stecken. Wenn man sich vor Augen führt, wie wenig Zeit wir noch haben – nicht einmal mehr 10 Jahre, um die Regenwälder zu erhalten; in vielen Fällen sogar höchstens fünf Jahre. Madagaskar wird in fünf Jahren weitgehend verschwunden sein, falls nichts passiert. Und es passiert nichts! – ABC-News, The Miracle Planet, 22. April 1990

92. Die meisten der großen Umweltprobleme sind in den neunziger Jahren entweder gelöst oder nicht. Im nächsten Jahrhundert wird es zu spät sein. – Thomas E. Lovejoy, Smithsonian Institution, Februar 1993

93. Es scheint, dass wir sehr gute Gründe für die Annahme haben, dass die El Niño-Ereignisse häufiger und in einigen Jahren intensiver werden, und in zehn Jahren oder so werden wir einen permanenten El Niño haben. Anstatt dass wir also ein oder zwei Jahre lang kühlere Bedingungen bekommen, wird ein El Niño dem nächsten folgen, und das wird zur Norm werden. Und El Niños werden dann nicht 18 Monate, sondern 18 Jahre lang dauern. – Ein BBC-Kommentator am 7. November 1997.

[Na, dann schauen wir mal… A. d. Übers.]

94. Wissenschaftler warnen, dass einige Himalaya-Gletscher innerhalb der nächsten zehn Jahre infolge der globalen Erwärmung verschwinden könnten. Die Zunahme der Treibhausgase wird für das Abschmelzen verantwortlich gemacht, was zu Dürren und Überschwemmungen in dem Gebiet führen könnte, die Millionen Menschen betreffen. – The Birmingham Post, 26. Juli 1999

95. Der Planet könnte im nächsten Jahrzehnt vor einer ‚ökologischen und landwirtschaftlichen Katastrophe‘ stehen, wenn sich der Trend der globalen Erwärmung fortsetzt. – Carl Sagan, 15. Oktober 1990

[Aha!]

96. Einem kürzlich erschienenen Bericht zufolge könnte sich die Malaria entlang der spanischen Küste ausbreiten. Die Auswirkungen der globalen Erwärmung rächen sich an der entwickelten Welt. – The Guardian, 11. September 1999

97. In zehn Jahren werden die meisten der niedrig liegenden Atolle rund um die neun Inseln von Tuvalu im Südpazifik unter Wasser verschwunden sein, da die globale Erwärmung den Meeresspiegel steigen lässt. – CNN, 29. März 2001

[Nun ja, 13 Jahre nach dieser Vorhersage gibt es sie jedenfalls noch, und zwar mit größerer Ausdehnung als damals. A. d. Übers.]

98. Es gibt inzwischen eine ziemlich weitgehende Übereinstimmung, dass der CO2-Gehalt in der Atmosphäre bis zum Jahr 2000 um 25% steigen wird. Dies könnte die mittlere Temperatur der Erde um 7 Grad Fahrenheit [über 3°C] steigen lassen. Dies wiederum könnte den Meeresspiegel um 10 Fuß [ca. 3 m] steigen lassen. Auf Wiedersehen New York! Auf Wiedersehen Washington! – Lubos Moti, tschechischer Physiker, 1969

[Er ist sicher nicht identisch mit dem Klimarealisten Luboš Motl und seinem lesenswerten Blog The Reference Frame]

99. Gelehrte sagen voraus, dass 50 Millionen Menschen weltweit im Jahre 2010 vor dem steigenden Meeresspiegel, vor Desertifikation, ausgetrockneter Wasserleitungen, Überschwemmungen und anderen ernsten Umweltveränderungen fliehen müssen. – Andrew Simms, politischer Direktor der New Economics Foundation, 2005

100. Die Führer der Welt haben 50 Tage, um die Welt vor einer irreversiblen globalen Erwärmung zu retten. – Gordon Brown, UK-Premierminister mit Beug auf die Kopenhagen-Klimakonferenz am 20. Oktober 2009

101. Möglicherweise kann man zum Ende dieses Sommers zum Nordpol segeln, rudern oder sogar schwimmen. Klimawissenschaftlern zufolge ist das arktische Meereis auf dem besten Wege, irgendwann im Jahr 2008 u schmelzen. – Ted Alvarez, Backpaper Magazine Blogs, Juni 2008

(Kurze Zeit nach Erstellung dieser Vorhersage war ein russischer Eisbrecher im Eis der Nordwest-Passage eine Woche lang eingeschlossen. Anmerkung von A. Watts im Original)

102. Die Debatte unter den Wissenschaftlern ist vorüber. Es gibt keine Debatte mehr. Wir stehen vor einem planetarischen Notstand. Es gibt keine wissenschaftliche Debatte mehr unter seriösen Menschen, die auf die Wissenschaft geschaut haben … Nun, ich denke, dass es in einigen Kreisen immer noch eine Debatte darüber gibt, ob die Mondlandung aus einem Filmschauplatz in Arizona stammt oder ob die Erde flach ist anstatt rund. – Al Gore auf der CBS Morning Show, 31. Mai 2006

103. Aber man braucht keinen Wissenschaftler, um die Auswirkungen schneeloser Winter auf Kinder zu skizzieren, die zu jung sind, um sich an die Rekord-Schneestürme des Jahres 1996 zu erinnern. Für sie sind die Vergnügungen des Schlittenfahrens oder einer Schneeballschlacht out, und ein Tag schneefrei an Schulen ist unbekannt. – Dr. Michael Oppenheimer vom Environmental Defense Fund in einem Kommentar in der NYT zu den milden Wintern in New York, Januar 2000

104. Die jüngsten milden Winter in UK sind ein Anzeichen, dass sich das Klima ändert. – Dr. James Hansen von NASA GISS bei einem Besuch in UK, 2008.

(Danach folgten zwei ausnehmend strenge Winter. Der Winter von 2009/2010 könnte der kälteste Winter in UK seit 1683 gewesen sein. Anmerkung von A. Watts im Original)

105. Hansen sagte voraus, dass die globalen Temperaturen in 20 Jahren fast 2 Grad höher liegen würden, was ‚das wärmste Niveau wäre, dass die Erde während der letzten 100.000 Jahre gesehen hat‘. – Dr James Hansen, NASA GISS, zitiert vom Milwaukee Journal in einer Anhörung vor dem Kongress, 11. Juni 1986

106. Der Arktis-Spezialist Bernt Balchen sagt, dass ein allgemeiner Erwärmungstrend am Nordpol die polare Eiskappe schmelzen wird, und dass der Arktische Ozean bis zum Jahr 2000 eisfrei sein könnte. – Christian Science Monitor, 8. Juni 1972

107. Unter Verwendung von Computermodellen kamen Forscher zu dem Ergebnis, dass die globale Erwärmung bis zum Jahr 2010 die Temperaturen in den USA um zwei Grad steigen lassen wird. – Associated Press, 15. Mai 1989

Wie gesagt, die Liste lässt sich sicher noch verlängern…

Link: http://wattsupwiththat.com/2014/04/02/the-big-list-of-failed-climate-predictions/

Übersetzt und mit Bemerkungen versehen von Chris Frey EIKE




Neue Studie: Politik der Dekarbonisierung ignoriert die technische Machbarkeit

Die Studie enthüllt, dass Größenordnung, Umfang, Machbarkeit, Kosten, Ressourcen und andere Erfordernisse der Dekarbonisierungs-Agenda niemals hinsichtlich anderer Aspekte menschlicher und physikalischer Ressourcen des Planeten getestet worden sind.

Die Tatsache, dass die Kohlenstoffemissionen trotz vieler Projekte, die es schon jetzt auf der ganzen Welt gibt, unaufhaltsam steigen, führt zu einer einfachen Frage. „Was bekommen wir für unser Geld?“

Die Studie von Prof. Kelly behandelt die Rolle technologischer Änderungen, die der globalen Dekarbonisierungs-Agenda auf die Sprünge helfen sollen: Erfolg in UK und Scheitern überall sonst bedeutet immer noch scheitern.

Der jüngste Bericht des IPCC zeigt, dass einige der schlimmeren Auswirkungen viel weniger wahrscheinlich sind, was die Frage aufwirft, wie viel dieser Agenda kurzfristig wirklich gebraucht wird.

Mit der neuen Studie ist beabsichtigt, einige zentrale Lehren aus der Realität erfolgreicher technologischer Änderungen in der jüngeren Vergangenheit zu ziehen und wie sie hinsichtlich der globalen Herausforderung der Klimaänderung einzuordnen sind.

Die Studie kommt zu dem Ergebnis, dass die Lücke zwischen der Rhetorik und der Wirklichkeit auf der Grundlage von einigen der einfachsten technologischen Voraussetzungen gefährlich groß ist.

—————————-

Bei obigem Text handelt es sich um die Presseerklärung der GWPF zu der genannten Studie. Diese soll jetzt aber auch hier näher erläutert werden, und zwar in Gestalt einer Zusammenfassung und der Übersetzung weiter Passagen. Alle Zwischentexte sind kursiv gesetzt, direkte Übersetzungen erscheinen in gerader Schrift.

Technologische Neuerungen im Zusammenhang mit der Dekarbonisierung

Lektionen aus der jüngeren Geschichte

Prof. Michael J. Kelly

Einführung

Die Gemeinschaft der Klimawissenschaftler hat viele Politiker und Entscheidungsträger von der Notwendigkeit der Dekarbonisierung der Weltwirtschaft in kürzester Zeit überzeugt. Aber deren Anliegen, und ob das glaubwürdig ist oder nicht, ist nicht Gegenstand dieser Studie. Vielmehr sollen hier einige der Lektionen der jüngsten Geschichte der technologischen Evolution beleuchtet werden, die in dem ganzen Durcheinander nicht untergehen sollten.

Es gibt Regeln hinsichtlich der Einführung neuer Technologien, und man wird bestraft, wenn man sich über diese Regeln hinwegsetzt. Falls wir darauf aus sind, die Weltwirtschaft zu dekarbonisieren, sollten wir danach trachten, dabei erfolgreich zu sein, und nicht wie derzeit zu Maßnahmen greifen, die mit Sicherheit nicht erfolgreich sein werden. In der Tat, wenn wir die Einführung der kohlebefeuerten Dampfmaschine von James Watt und das Aufkommen elektrischen Stromes als Energiequelle betrachten, können wir erkennen, warum das erfolgreich war und dann daraus ableiten, was für das Projekt der Dekarbonisierung erforderlich ist. Aus der jüngsten Geschichte leite ich neun Lektionen ab, die für alle von uns initiierten Programme relevant sind, und eine zehnte Lektion, falls der wissenschaftliche Konsens bzgl. der Klimaänderung auch im nächsten Jahrzehnt noch bestehen sollte. Ich mache auch drei konkrete Vorschläge, wie man weiter vorgehen könnte.

Die Lektionen

Lektion 1: Erfolgreiche neue Energie-Technologien verbessern das Los der Menschheit

Energie aus Dampfmaschinen und Strom von Turbinen haben viele Dinge des heutigen Lebens in der entwickelten Welt erst möglich gemacht. Man muss nur zu einer abgelegenen Gemeinde in den Bergen in einem Entwicklungsland gehen, die nicht am Stromnetz hängt, um zu sehen, dass Dinge wie Lebensweise, Gesundheitsrisiken, Nahrungsmittelsicherheit, Transportmöglichkeiten und Lebenserwartung allesamt schlechter bestellt sind als in UK. Niemand, auch keine Gemeinde schiebt die Option, Zugang zu Strom oder zu fossil betriebenen Annehmlichkeiten zu haben, auf der Grundlage beiseite, dass man ohne diese Dinge besser dran ist.

Beispielhaft beschrieben wird dies anhand der Entwicklung der Telefone bis hin zu den heutigen Möglichkeiten mobiler Apparate sowie die Vorteile aus dieser Entwicklung für Menschen, die auf sichere Planungsgrundlagen angewiesen sind und sich jederzeit vor Ort abstimmen können.

Weiter lesen wir:

Innerhalb von 20 bis 30 Jahren, in der Watts Dampfmaschine in der Landwirtschaft genutzt werden konnte, hörten die Windmühlen in UK auf, sich zu drehen. Hier gab es eine neue Energiequelle, die zuverlässig war, beweglich, bequem, preiswert und mit geringer Wartung. Die relativen Positionen fossiler Treibstoffe und der Windenergie haben sich hinsichtlich der Bequemlichkeit für die Menschen seitdem nicht geändert. Es gibt keinen Wettbewerb zwischen einem Generator der Firma Aggreko und einer Windmühle der Firma Vestas, wenn es um Zuverlässigkeit geht.

Das Erreichen einer dekarbonisierten Wirtschaft macht Verbesserungen der heutigen Technologie erforderlich mit der Produktion von Objekten, die hinsichtlich des Gewichtes leichter sind. Außerdem muss das Reisen von einer Notwendigkeit in die Option der Wahl verwandelt werden (d. h. Verwendung von Tele-Systemen für den nationalen und internationalen Handel), effizientere Recycling-Methoden, die Entwicklung einfacherer Lebenswege für die Älteren, viel sauberere Luft in Städten und andere Fortschritte. …

Lektion 2: Angesichts dessen, dass 90% der globalen Verbesserungen des menschlichen Lebens seit dem Jahr 1800 durch das Verbrennen fossiler Treibstoffe möglich geworden ist, ist die Größenordnung des Dekarbonisations-Projektes historisch beispiellos.

Ein Mensch in Westeuropa verbraucht heute im Mittel 6 bis 7 mal Energie pro Tag wie jemand, der dort im Jahre 1800 gelebt hat. … Es ist sicher keine Übertreibung zu sagen, dass die Zivilisation, so wie wir sie kennen, auf fossilen Treibstoffen basiert, die seitdem über 90% der verbrauchten Energie erzeugt haben. …

Im folgenden Absatz wird kurz angerissen, wie sehr die nachgewiesenen fossilen Vorräte nach Peak Oil und Co. inzwischen größer sind als jemals zuvor, und dass wir seit der industriellen Revolution bislang höchstens 10% davon verbraucht haben.

Der nächste Absatz scheint wieder sehr bedeutsam:

Eine dekarbonisierte globale Ökonomie muss die auf fossilen Treibstoffen beruhenden Errungenschaften überflügeln. Gelingt das nicht, wird sich das Vorankommen der Menschheit hinsichtlich des erreichten Lebensstandards umkehren. Wir sollten ehrlich sein und uns der schieren Größenordnung und der enormen Herausforderung durch Dekarbonisation bewusst sein. Allgemeiner Unmut über erste Anzeichen sinkenden Lebensstandards breitet sich in vielen westlichen Ländern aus, namentlich Japan, Australien, Deutschland, Kanada und die EU).

Im folgenden Absatz werden als Beispiel des immensen Aufwandes hierzu die Kosten genannt, die allein durch die Nachisolierung von Gebäuden entstehen – Kosten in Höhe von 1,7 Billionen Pfund innerhalb von 40 Jahren. Dann stellt der Autor die Frage:

Das Problem dieser außerordentlich gewaltigen Ausgaben besteht darin, dass kaum erkennbar ist, ob es diese Ausgaben wert sind. Was bekommt man letztendlich für 1 Billion oder 10 Billionen Pfund, die man zur Abschwächung des Klimas ausgegeben hat? Antwort: Niemand weiß es. Kommt es später wirklich zu einer Katastrophe, haben wir eindeutig noch viel zu wenig ausgegeben. Bleibt die Katastrophe aus, werden wir niemals wissen, ob dies unseren Bemühungen zu verdanken ist. In jedem Falle wird also das Geld ohne bekannte vorteilhafte Auswirkungen ausgegeben, auch wenn von offizieller Seite immer wieder die Notwendigkeit solcher Ausgaben beschworen wird.

Lektion 3: Da über 50% der Weltbevölkerung im Jahre 2050 in Megastädten wohnen werden, muss dieses Problem als Erstes angegangen werden; 35% des heutigen Energieverbrauchs erfolgen in Gebäuden, hauptsächlich durch Heizen und Kühlung. Die gegenwärtige Generation der Erneuerbaren kann Megastädte nicht einmal ansatzweise mit Energie versorgen.

Es folgt ein Absatz über den unterschiedlichen Flächenverbrauch von Kraftwerken und Erneuerbaren. Daran schließt sich eine Tabelle über die Energiedichteverschiedener Quellen an:

Tabelle 1 zeigt die Energiedichte verschiedener Treibstoffarten. Die Zahlen umfassen 13 Größenordnungen, wobei Kernkraft eine Million mal energiedichter ist als die chemischen Prozesse eines fossilen Treibstoffs. … Dies sind keine trivialen Proportionen und spiegeln sich ultimativ in den Kosten, im Landverbrauch, der Sicherheit und anderen Faktoren der Energie-Infrastruktur, besonders hinsichtlich Mobilität.

Es folgen zwei Absätze, in denen das Problem am Beispiel der Stadt Shanghai erläutert wird, was allgemein auf die zu erwartenden Mega-Städte übertragen wird.

Lektion 4: Erfolgreiche neue Infrastruktur- und Energie-Technologien können in großem Umfang nur eingeführt werden, wenn sie sowohl ausgereift als auch ökonomisch sind, und man wird bestraft, wenn man diese Bedingungen übergeht. Jede Lektion aus der Einführung neuer Software auf Infrastruktur-Projekte, die nicht ausgereift ist, zeigt das.

Zunächst wird diese Aussage am Beispiel Japan ausgeführt. Dort ist die Installation von Solaranlagen trotz einer neuen Spitze beim Ölpreis rückläufig, haben sie doch niemals die Erwartungen auch nur annähernd erfüllt.

Die nächsten beiden Absätze beziehen sich auf das Speicherproblem und die extrem hohen Kosten für Maßnahmen, die Industrien treffen müssen, um Stromausfällen vorzubeugen. Auch auf die Speicherung in Batterien wird eingegangen. Wenn es eine brauchbare diesbezügliche Speichermöglichkeit gäbe, wäre sie wohl längst gefunden worden, denn Batterien gibt es schon sehr lange.

Die nächste Lektion soll hier wieder in ganzer Länge übersetzt werden:

Lektion 5: Es gibt heilsame Lehren aus der ersten Runde erneuerbarer Technologien, die zurückgehen auf Reaktionen auf die Ölkrise der siebziger Jahre.

In den USA gab es in den siebziger Jahren hastig zusammen geschusterte Forschungs- und Entwicklungsprogramme bzgl. alternativer Energiequellen, die die Wirtschaft vor Ölpreisschocks bewahren können. Das war eine durch und durch angemessene Reaktion. Die voreilige Einführung einiger dieser Technologien in Kalifornien vor allem Ende der achtziger Jahre bietet eine eindrückliche Lektion. Beim Ergoogeln der Begriffe ‚abandoned solar farm‘ [aufgegebene Solarfläche] oder ‚abandoned wind farm‘ [aufgegebener Windpark] kann man ganze Quadratkilometer verfallener Solaranlagen und über 14.000 aufgegebene Windturbinen allein in der Mojave-Wüste sehen. Es scheint, dass beim Fehlen von Subventionen die Solarpaneele und Windmühlen nicht genügend verwertbare Energie erzeugen, um die Kosten der Wartung und die Zinsen der Investitionen abzudecken. Seit der jüngsten Finanzkrise gab es in den USA und Europa viele Bankrotte von Unternehmen erneuerbarer Energie, und alle derartigen Industrien in China arbeiten derzeit mit substantiellen Verlusten (um 30%), was in einer kapitalistischen Ökonomie ebenfalls Bankrott bedeuten würde.

Früher oder später wird das Zurückfahren oder die gänzliche Streichung von Subventionen in den USA, Spanien, Deutschland und UK zu ähnlichen grün-industriellen Beerdigungen führen. … Der Erneuerbare-Energie-Index entsprechender Unternehmen hat zwischen 2009 und Anfang 2013 etwa 80% seines Wertes verloren, und auch wenn diese Verluste im Jahre 2013 auf 60% reduziert werden konnten, ist dies kein Ort für Investitionen (was der Fall wäre, wenn die wirtschaftliche Infrastruktur erneuerbarer Energie sinnvoll wäre).

Lektion 6: Subventionen der Regierung für die verfrühte Einführung sind eine Autobahn in die Katastrophe, während sie für R&D [Research und Development] sowie für Großversuche angemessen sind.

Es gibt auf der ganzen Welt kein Gegenbeispiel für die Feststellung, dass Subventionen der Regierung für die Entwicklung neuer Technologien in liberalisierte Energiemärkte bislang eine Litanei des Scheiterns erzeugt haben und dies auch weiterhin tun werden. Im Gegensatz dazu unterstützt jedes entwickelte Land Forschungen und Versuche bzgl. erneuerbarer Energien zur kommerziellen Einführung. Der Kosten-Nutzen-Vergleich fällt sehr stark zuungunsten der Erneuerbaren aus, so dass das Investitionsrisiko einfach zu hoch ist. Man muss einfach warten bis die neue Technologie ausgereift ist und während ihrer Lebenszeit im Wettbewerb bestehen kann.

Lektion 7: technologische Entwicklungen sind in der Regel nicht im Voraus programmierbar.

Hier wird anhand mehrerer Beispiele einfach beschrieben, dass neue Technologien Zeit brauchen und dass wohl die Einführung in der westlichen Welt viel zu überhastet erfolgt ist.

Lektion 8: Nichts wird geschehen, wenn die Bevölkerung nicht dahinter steht.

Diese Aussage spricht für sich und wird auch nur in einem kurzen Absatz ausgeführt.

Lektion 9: Die Finanzierung hat Grenzen, darum müssen Handlungsebenen priorisiert werden.

Eine Zahl von 200 Milliarden Pfund wird der Öffentlichkeit präsentiert, um ihr ein Gefühl dafür zu geben, in welcher Größenordnung Investitionen in UK im nächsten Jahrzehnt für eine neue Energie-Infrastruktur erforderlich sind. … Diese Summen müssen aus den internationalen Geldmärkten entnommen werden, im Wettbewerb mit allen anderen Investitionen.

Am Beispiel Spanien wird dann ausgeführt, was das bedeuten kann, wenn man diese Investitionen nicht aufbringen kann. Im nächsten Abschnitt geht es u. a. um Deutschland:

Inzwischen haben die Kohlenstoff-Emissionen in Deutschland angefangen zuzunehmen, und das wird auch so weitergehen, da neue Braunkohle-Kraftwerke ans Netz gehen – erstens, um die Kernkraftwerke zu ersetzen, die ohne Ausgleichszahlungen an die Investoren abgeschaltet werden, und zweitens, um die Schwankungen in dem großen Erneuerbaren-Sektor dort auszugleichen. Selbst hoch effiziente Gaskraftwerke werden in Deutschland abgeschaltet, eingemottet oder außer Betrieb genommen, teilweise weil sie als Back-Up nicht mehr wettbewerbsfähig sind, wurden sie doch als Grundlage der Energieversorgung konzipiert; teilweise aber auch wegen des sehr niedrigen Kohlepreises auf dem internationalen Markt, weil die USA immer mehr auf Schiefergas umsteigen. … In UK und der EU fehlt es einfach an einer glaubwürdigen Energiepolitik. …

Lektion 10: Falls sich die wissenschaftliche Grundlage der gegenwärtigen Klimaobjektive im nächsten Jahrzehnt ändern sollte, werden alle derzeitigen Bemühungen hinsichtlich einer dringend notwendigen Dekarbonisierung geschwächt.

Hier folgt ein kurzer Abriss der Historie der IPCC-Vorhersagen und dass Änderungen und Auswirkungen im AR 5 immer weiter abgeschwächt werden. Angesprochen wird auch das Fehlen jeder Erwärmung seit 1997. Der Autor gibt auch seine eigene Einschätzung hinsichtlich eines weiteren Stillstands oder sogar einer Abkühlung an, die seiner persönlichen Meinung nach über 50% beträgt. Außerdem sieht er diesbezüglich die Klimamodelle als gescheitert an und hält sie für unfähig, die Zukunft überhaupt vorhersagen zu können. Dazu führt er im letzten Absatz dieses Abschnitts aus:

Angesichts der diskreditierten Klimamodelle wird die Dringlichkeit einer Low-Carbon-Zukunft schwinden, und zwar deutlich bis jenseits des Zeitrahmens , die derzeit bzgl. Entscheidungen einer neuen nationalen Energie-Infrastruktur getroffen werden. Mit dem Einströmen von Schiefergas in das System werden kombinierte Kreislauf-Gasturbinen wahrscheinlich die flexibelste und wirtschaftlichste Energiequelle der nächsten 40 Jahre werden, und zwar in UK und in den meisten Gebieten der Welt. Der restliche Fahrplan zu einer Zukunft mit weniger Kohlenstoff muss aus Business-As-Usual erfolgen, wobei effizienterer Energieverbrauch und weniger Luftverschmutzung schon jetzt kommerzielle Treiber sind.

Vorschläge

Vorschlag 1:

Man bleibe bei Business-As-Usual und arbeite daran, die Wirtschaft zu einem geringeren Kohlenstoffverbrauch zu führen. Der Fehler der Malthusianer ist es, das Problem zu überschätzen und die menschliche Fähigkeit zu Innovationen zur Lösung des Problems zu unterschätzen. Die Wirtschaft sucht immer nach Wegen, bessere Erzeugnisse billiger zu machen. … Wie die bisherige menschliche Innovationsfähigkeit zeigt, ist die Geschichte auf Seiten der Optimisten.

Vorschlag 2:

Der Erfolg eines jeden Programms zur Entwicklung von Infrastrukturen sollte virtuell garantiert werden, um den Verbrauch seltener Ressourcen zu rechtfertigen. Es wäre besser, gar nicht erst anzufangen als mit einem Projekt zu beginnen, das eine große Wahrscheinlichkeit des Scheiterns aufweist. Gescheiterte Projekte im Bereich Infrastruktur hinterlassen oftmals Beweise des Scheiterns, über die man sich noch Jahrzehnte lang lustig macht: Beispiele sind die verfallenden Windmühlen und Solarpaneele in der Mojave-Wüste, aber auch Autobahnen, die irgendwo im Nichts aufhören oder anfangen.

Danach in diesem Abschnitt beschreibt der Autor die vielen Zusatzkosten bei Erneuerbaren, die offiziell nicht genannt werden, und die vielen Möglichkeiten des Betrugs, denen hiermit Tür und Tor geöffnet werden.

Vorschlag 3:

Menschliche Eigenschaften und persönliches Verhalten sind beide wichtig. Die Mehrheit der Weltbevölkerung lässt sich nur einmal davon überzeugen, dass die Gefahren der Zukunft real sind – und während der letzten beiden Jahrhunderte haben zu viele Malthusianer zu laut gebrüllt, nur um umfassend widerlegt worden zu sein. … Die öffentliche Haltung zu Rauchen auf öffentlichen Plätzen sowie zu Trinken und Fahren hat sich während der letzten 40 Jahre geändert, gefolgt von der entsprechenden Gesetzgebung.

Im letzten Absatz dieses Abschnitts zählt Kelly die vielen Nachteile der derzeitigen Politik auf, und dass es unmoralisch ist, von den Menschen einen so hohen Preis bzgl. Einschnitte in ihren Lebensstandard zu fordern. Der Absatz endet mit:

Die führende Rolle Europas hinsichtlich Dekarbonisierung bestraft die europäische Wirtschaft, während China und Indien mit der rapiden Ausweitung ihres Kohlestromes fortfahren. Zu der Zeit, zu der die Entwicklungsländer einer Low-Carbon-Wirtschaft zustimmen, sollten die entwickelten Länder ausgereifte und ökonomische Alternativen zu fossilen Technologien für die globale Verteilung bereithalten. So weit sind wir noch nicht, und wie es aussieht, werden wir vor dem Jahr 2030 auch nicht so weit sein.

Schlussfolgerungen

Der gegenwärtige Ablauf der Low-Carbon-Technologien auf der Welt wird ausgesprochen falsch verstanden. Frühere Generationen haben die Warnungen der Experten hinsichtlich des bevorstehenden Untergangs ignoriert, und bislang haben sie gut daran getan. Höchstwahrscheinlich wiederholt sich Geschichte. Ohne wesentliche soziale Verwerfungen haben sich die Niederländer an steigende Meeresspiegel in früheren Jahrhunderten angepasst, und dies sollte als Modell für die Zukunft gelten. Soviel Anpassung wie nötig sollte verfolgt werden, während meiner Ansicht nach die Notwendigkeit der Abschwächung [des Klimawandels] durch Dekarbonisierung der Wirtschaft weiterhin unbewiesen bleibt, zumindest angesichts des Fehlens irgendwelcher zuverlässigen Technologien, die das Problem im globalen Maßstab lösen würden.

Michael J Kelly FRS FREng is Prince Philip Professor of Technology, Department of Engineering, University of Cambridge.

Hier die ganze Studie

Übersetzt und bearbeitet von Chris Frey EIKE




Die endlose Liste von Klima-Fehlprognosen – Teil 1

Bild rechts: Ob auch dieses Blümchen auf die falschen Prognosen hereingefallen ist? Bild: © Chris Frey

Klima-Fehlprognosen (und einige andere, damit zusammen hängende geäußerten Dummheiten)

1. „Infolge der globalen Erwärmung werden die kommenden Winter in den lokalen Regionen milder” – Stefan Rahmstorf, PIK, am 8. Februar 2008

2. „Mildere Winter, trockenere Sommer: Klimastudien zeigen die Notwendigkeit in Sachsen-Anhalt, sich daran anzupassen”. Presseerklärung des PIK, 10. Januar 2010

3. „Mehr Hitzewellen, kein Schnee im Winter … Klimamodelle sind über 20 mal genauer als die globalen IPCC-Modelle. In keinem anderen Land gibt es präzisere Berechnungen der Klimafolgen. Sie sollten die Grundlage politischer Planungen bilden … es wird weniger oft Kaltluftvorstöße nach Mitteleuropa aus dem Osten geben … In den Alpen werden die Winter schon zwischen 2021 und 2050 2°C wärmer werden“. – Max-Planck-Institut für Meteorologie, Hamburg, 2. September 2008

4. „Das neue Deutschland wird gekennzeichnet sein durch trocken-heiße Sommer und feuchtmilde Winter”. – Wilhelm Gerstengarbe und Peter Werner, PIK, 2. März 2007

5. „Klare Klimatrends ergeben sich aus den Computer-Simulationen. Vor allem die Wintermonate werden in ganz Deutschland wärmer sein. Abhängig von den CO2-Emissionen wird die Temperatur bis zu 4°C steigen, in den Alpen bis zu 5°C“ – Max Planck-Institut für Meteorologie, Hamburg, 7. Dezember 2009

6. „Die Wissenschaftler rechnen unter bestimmten Bedingungen mit einem kompletten Abschmelzen des arktischen Meereises. Für Europa erwarten wir eine Zunahme trockenerer und wärmerer Sommer. Die Winter andererseits werden milder und nasser werden“. – Erich Röckner, Max Planck-Institut für Meteorologie, Hamburg, 29. September 2005

7. „Das mehr als ‚ungewöhnlich’ milde Januar-Wetter ist ‚ein weiteres Extrem-Ereignis‘ und ‚ein Vorbote der vor uns liegenden Winter‘ … Die globale Temperatur ‚wird jedes Jahr um 0,2°C zunehmen‘“. – Michael Müller, Staatssekretär im Umweltministerium, Die Zeit, 15. Januar 2007

8. „Strenge Winter wird es wahrscheinlich immer seltener geben, und die Niederschläge im Winter werden überall stärker. Allerdings werden diese wegen der höheren Temperatur öfter als Regen und nicht als Schnee fallen“. – Online-Atlas der Helmholtz-Gemeinschaft, 2010

9. Wir hatten überwiegend milde Winter mit nur wenigen eingestreuten kalten Monaten, wie z. B. der Januar 2009. Dieser Winter ist ein kalter Ausreißer, ändert aber nicht das Gesamtbild. Allgemein wird es wärmer werden, auch im Winter“.

Gerhard Müller-Westermeier, Deutscher Wetterdienst DWD, 26. Januar 2010

10. „Winter mit strengem Frost und viel Schnee wie noch vor 20 Jahren wird es in unseren Breiten nicht mehr geben”. – Mojib Latif, Max Planck-Institut für Meteorologie, Hamburg, 1. April 2000

11. „Auf Wiedersehen, Winter! Nie mehr Schnee?” – Der Spiegel, 1. April 2000

12. In den nördlichen Gebieten des Kontinents [Europa] wird es vermutlich einige Vorteile geben, und zwar in Gestalt von kürzeren Kälteperioden und höheren Ernten. Aber die fortgesetzte Zunahme der Temperaturen wird diese Vorteile zunichte machen. In einigen Regionen könnten 60% aller Spezies bis zum Jahr 2080 aussterben“. – 3Sat, 26. Juni 2003

13. Obwohl die Größenordnung der Trends eine große Vielfalt unter verschiedenen Modellen zeigt, kommen Miller et al. (2006) zu dem Ergebnis, dass keines der Modelle einen Trend hin zu einem niedrigeren NAM*-Index und einem höheren arktischen SLP* kommen“. – AR 4, IPCC 2007, zitiert von Georg Hoffmann.

[*Es war nicht möglich herauszufinden, was hinter diesen Abkürzungen steckt. Wissen Fachleute da mehr? A. d. Übers.]

14. Infolge der steigenden Temperatur wird regional weniger Schnee fallen. Während gegenwärtig etwa ein Drittel des Niederschlags in den Alpen als Schnee fällt, könnte dieser Anteil bis zum Ende dieses Jahrhunderts auf ein Sechstel zurückgehen. – Germanwatch, Seite 7, Februar 2007

15. Nehmen wir an, dass sich der CO2-Gehalt wie projiziert bis zum Jahr 2030 verdoppeln wird. Die Folge könnten trockenere und heißere Sommer sowie mildere und nassere Winter sein. Eine solche Erwärmung fällt proportional in höher gelegenen Gebieten stärker aus – und wird besonders einen starken Einfluss auf die Gletscher der Firn-Region haben.

Und

Die Skigebiete mit zuverlässig ausreichendem Schnee werden sich von 1200 m auf eine Höhe um 1500 m zurückziehen, weil wegen der Klimaprognosen mildere Winter erwartet werden müssen. – Scinexx-Wissenschafts-Magazin, 26. März 2002

16. Schnee von gestern … weil die Temperaturen in den Alpen rasch steigen, wird es an vielen Stellen mehr Niederschlag geben. Aber weil es öfter regnet als schneit, sind das schlechte Nachrichten für Touristen. Für viele Skilifte bedeutet es das Aus. – Daniela Jacob, Max-Planck-Institut für Meteorologie, Hamburg, 8. August 2006

17. Ab dem Jahr 2030 wird der Frühling im Januar beginnen”. – Die Welt, 30. September 2010

18. Schnee, Eis und Frost werden verschwinden, d. h. mildere Winter … Ungewöhnlich milde Winter ohne Schnee und Eis werden inzwischen von Vielen als Zeichen der Klimaänderung gesehen“. – NABU Schleswig-Holstein, 10. Februar 2007

19. Auf Wiedersehen, Winter! … In der Nordhemisphäre sind die Abweichungen Berechnungen der NASA zufolge viel stärker, in einigen Gebieten bis zu 5°C. Das hat Konsequenzen, sagt Meteorologe Müller-Westermeier vom DWD: Wenn die Schneegrenze in vielen Gebieten steigt, wird der nackte Boden sogar noch stärker durch Sonnenlicht erwärmt. Das verstärkt die globale Erwärmung. Ein Prozess, der unkontrollierbar ist – und aus diesem Grunde tauchen verständlicherweise alte Kinderängste wieder auf: Erst verschwindet der Schnee, dann der Winter. – Die Zeit, 16. März 2007

[Wieder einmal Runaway-Effekte! Es tut richtig weh, solchen Unsinn zu übersetzen – noch dazu, wenn er von „Fachleuten“ stammt! A. d. Übers.]

20. Warm im Winter, trocken im Sommer … lange, harte Winter in Deutschland bleiben selten: Bis zum Jahr 2085 werden große Gebiete der Alpen fast schneefrei sein. Weil die Lufttemperatur im Winter schneller steigen wird als im Sommer, wird es mehr Niederschlag geben. Allerdings wird viel davon als Regen fallen, sagt Daniela Jacobs vom Max Planck-Institut für Meteorologie in  Hamburg. – Focus, 24. Mai 2006

21. Folgen und Auswirkungen auf die regionale Landwirtschaft: Heißere Sommer, mildere plus kürzere Winter (Palmen!). Landwirtschaft: Mehr CO2 in der Luft, höhere Temperaturen, vor allem im Winter. – Dr. Michael Schirmer, Universität Bremen, Vortrag am 2. Februar 2007

22. Winter: nass und mild! – Bayerisches „Staats”-Ministerium für Landwirtschaft, 23. August 2007

23. Die Prognosen der Klimamodelle zeigen derzeit, dass es zu folgenden Klimaänderungen kommen wird: Zunahme der Temperatur im Winter. – Landwirtschaftskammer von Niedersachsen, 6. Juli 2009

24. Sowohl die Prognosen für die globale Klimaentwicklung als auch für die klimatische Entwicklung im Fichtelgebirge zeigen eindeutig eine Erwärmung der durchschnittlichen Temperatur, was besonders für die Wintermonate zutrifft. – Willi Seigert, Universität Bayreuth, These seiner Diplomarbeit, S. 203, 7. Juli 2004

[Natürlich besteht man sein Diplom mit so etwas auf der Stelle! A. d. Übers.]

25. Schon im Jahr 2025 werden sich die Bedingungen für den Wintersport im Fichtelgebirge negativ entwickeln, vor allem hinsichtlich der ‚natürlichen‘ Schneeverhältnisse und des Potentials der künstlichen Schneeherstellung. Ein finanziell erfolgreicher Skibetrieb nach dem Jahr 2025 erscheint unter diesen Umständen extrem unwahrscheinlich. (Seifert, 2004). – Andreas Matzaris, Meteorologisches Institut der Universität Freiburg, 26. Juli 2006

26. Skilaufen unter Palmen? … Aus diesem Grunde würde ich niemandem raten, im Berchtesgadener Land in einen Skilift zu investieren. Die Wahrscheinlichkeit, damit Geld zu verdienen, wird mit der globalen Erwärmung immer geringer. – Hartmut Graßl, Direktor Emeritus am Max-Planck-Institut für Meteorologie, Seite 3, 4. März 2006

27. Die Klimaerwärmung führt zu einer steigenden Schneegrenze. Die Anzahl zukünftiger Skigebiete, die mit ausreichend Schnee rechnen können, nimmt ab. … Die Klimaänderung führt nicht nur zu höheren Temperaturen, sondern auch zu Änderungen der Niederschlagsverhältnisse im Sommer und im Winter. … Im Winter ist mit mehr Niederschlag zu rechnen, der jedoch künftig öfter als Regen und seltener als Schnee fallen wird. – Hans Elsasser, Direktor des Graphischen Instituts der Universität Zürich, 4. März 2006

28. Alle Klimasimulationen – global und regional – wurden am Deutschen Klimarechenzentrum durchgeführt. … In den Wintermonaten wird sich ein Temperaturanstieg von 1,5°C bis 2°C von Skandinavien bis zum Mittelmeer erstrecken. Nur in Gebieten, die direkt vom Atlantik beeinflusst werden (Großbritannien, Portugal, Teile von Spanien) wird die Zunahme der Temperatur im Winter geringer ausfallen. – Presseerklärung des Max Planck-Instituts für Meteorologie vom Dezember 2007/Januar 2013.

29. Bis zum Jahr 2050 … wird die Temperatur um 1,5°C bis 2,5°C im Sommer und um 3°C im Winter steigen. … Im Sommer wird die Regenmenge um 40% abnehmen und im Winter um 30% zunehmen. – German Federal Department of Highways [?], 1. September 2010

30. Wir haben jetzt genügend Informationen für verlässliche Prognosen über die Zukunft”. – Daniela Jacob, Max Planck—Institut für Meteorologie Hamburg, S. 44, Oktober 2001

31. Die Szenarien der Klimawissenschaft sind in einer Hinsicht einstimmig: In Zukunft werden wir in Deutschland mit trockeneren Sommern und sehr viel mehr Regen in den Wintern  leben müssen. – Gerhard Müller-Westermeier, Deutscher Wetterdienst DWD, 20. Mai 2010

[Wieder so ein Unsinn! Und das finanzieren wir auch noch mit unseren Steuergeldern! A. d. Übers.]

32. Im Winter wird es mehr Westwind geben, der Stürme nach Deutschland lenken wird. Vor allem in West- und Süddeutschland wird es Überschwemmungen geben. – Mojib Latif in FOCUS, Leipniz-Institut für Ozeanwissenschaften der Universität Kiel, 27. Mai 2006.

33. Während die Zunahmen im Frühling ziemlich moderat scheinen, zeigen die (späten) Sommer- und Wintermonate einen besonders starken Erwärmungstrend”. – Ministerium für Umwelt, Landwirtschaft und Geologie Sachsen, S. 133, Schriftenreihe Heft 25, 2009

34. Wissenschaftler in Columbia: Dem NASA-Modell zufolge resultieren warme Winter aus dem Treibhauseffekt … Obwohl sie als Teil einer natürlichen Klimavariation erscheinen, können daher die starken Temperaturzunahmen im Winter über den Kontinenten großenteils menschlichen Aktivitäten zugeordnet werden. – Science Daily, Dr. Drew Shindell, 4. Juni 1999

35. Innerhalb weniger Jahre wird winterlicher Schneefall zu einem sehr seltenen und begeisternden Ereignis werden … Kinder werden einfach nicht mehr wissen, was Schnee ist. – David Viner, Climate Research Unit, University of East Anglia, 20. März 2000

36. Diese Daten bestätigen, was viele Gärtner glauben – Winter sind nicht mehr so kalt wie früher … Und falls sich dieser Trend fortsetzt, werden Weiße Weihnachten in Wales mit Sicherheit ein Ding der Vergangenheit sein. – BBC, Dr. Jeremy Williams, Bangor University, 20. Dezember 2004

37. Der Temperaturanstieg in Verbindung mit der Klimaänderung führt zu einer allgemeinen Verringerung des Schneeanteils im Niederschlag und als Konsequenz daraus zu einer Reduktion der Dauer einer Schneedecke. – Global Environmental Change, Nigel W. Arnell, Geograph, 1. Oktober 1999

38. Computermodelle sagen voraus, dass der Temperaturanstieg beschleunigt weitergeht, falls die Emissionen Wärme einfangender Gase nicht reduziert werden. Sie sagen auch voraus, dass die Erwärmung im Winter besonders ausgeprägt sein wird. – Star News, William K. Stevens, New York Times, 11. März 2000

39. In einer wärmeren Welt fällt weniger winterlicher Niederschlag als Schnee, und die Schneeschmelze im Frühjahr setzt immer früher ein. Selbst ohne jede Änderung der Niederschlagsintensität führen diese beiden Effekte zu einer Verschiebung des Wassereintrags in Flüsse im Winter und Frühjahr. – Nature, T. P. Barnett et al., 17 November 2005

40. Wir nähern uns allmählich der Art Erwärmung, die man im Winter erleben wird. – Star News, Mike Changery, National Climatic Data Center, 11. März 2000

41. Mildere Wintertemperaturen werden die Anzahl schwerer Schneestürme abnehmen lassen, könnten aber zu einer Zunahme gefrierenden Regens führen, falls die täglichen Temperaturen um den Gefrierpunkt schwanken. – IPCC Climate Change, 2001

42. Die globale Klimaänderung wird wahrscheinlich begleitet von einer Zunahme der Dauer und Häufigkeit von Hitzewellen ebenso wie von wärmeren Sommern und milderen Wintern … unsere Studie schätzt eine Abnahme der Anzahl von Kältetoten in UK auf 20.000 in den fünfziger Jahren dieses Jahrhunderts (eine Reduktion um 25%) – IPCC Climate Change, 2001

43. Die niedrigsten Wintertemperaturen werden in Nordeuropa wahrscheinlich stärker zunehmen als die mittlere Wintertemperatur …  Die Dauer der Schnee-Saison wird sich sehr wahrscheinlich in ganz Europa verkürzen, und die Höhe der Schneedecke wird zumindest im größten Teil von Europa abnehmen. – IPCC Climate Change, 2007

44. Die Schneegrenze steigt in der ganzen Welt. Der Gedanke, dass wir weniger Schnee bekommen werden, liegt absolut auf einer Linie mit dem, was wir von der globalen Erwärmung erwarten. – WalesOnline, Sir John Houghton, Atmosphärenphysiker, 30. Juni 2007

45. In UK werden nassere Winter erwartet, die zu extremeren Regenfällen führen, während die Sommer trockener werden. Allerdings kann es sein, dass es im Zuge der Klimaänderung zu einer Zunahme extremer Regenfälle kommt, selbst unter einer allgemeinen Zunahme von Trockenheit. – Telegraph, Dr Peter Stott, Met. Office, 24. Juli 2007

46. Der Winter hat sich für immer verabschiedet, und wir sollten stattdessen den Frühling begrüßen … Es wird keine Winter mehr geben, trotz einer Kältewelle vor Weihnachten. Es ist nichts im Vergleich zu früheren Jahren, als ich jünger war. Es gibt ein echtes Problem mit dem Frühling, weil so viel Blühen von Jahr zu Jahr immer früher stattfindet. – Express, Dr. Nigel Taylor, Kurator von Kew Gardens [=der Botanische Garten in London, A. d. Übers.], 8. Februar 2008

47. Die Vergangenheit ist nicht länger der Wegweiser in die Zukunft. Wir haben kein stationäres Klima mehr… – Independent, Dr. Peter Stott, Met. Office, 27. Juli 2007

[Als ob es jemals ein stationäres Klima gegeben hätte. Was sind das bloß für „Fachleute“? A. d. Übers.]

48. Es ist konsistent mit der Klimaänderung. Es ist genau das, was wir im Winter erwarten müssen – wärmer und nasser sowie trockenere und heißere Sommer … der gerade vergangene Winter ist konsistent mit der Art Wetter, zu der es in Zukunft immer öfter kommen wird. – Wayne Elliott, Meteorologe am Met. Office, BBC, 27. Februar 2007

49. Falls Ihre Entscheidungen davon abhängen, was in dieser geringen Größenordnung von 25 km oder sogar 5 km Auflösung passiert, dann sollten Sie besser keine irreversiblen Investitionsentscheidungen treffen. – Myles Allen, „einer der führenden Klimamodellierer in UK“, Oxford University, 18. Juni 2009

50. Es ist großartig, dass die Regierung beschlossen hat, eine so wissenschaftlich robuste Analyse der potentiellen Auswirkungen der Klimaänderung in UK zu erstellen. – Keith Allott, WWF-UK, 18. Juni 2009

51. Die von den Experten an der University of Bangor gesammelten Daten zeigen, dass Weiße Weihnachten auf dem Snowdon-Berg – dem höchsten Berg in England und Wales – eines Tages nicht mehr sein wird als eine Erinnerung. – BBC News, 20. Dezember 2004

(Dazu aktuelle Meldung BBC 2013: „Seilbahn am Snowdon-Berg am Osterwochenende geschlossen – nachdem es in dem Gebiet Schneewehen bis zu 9,1 m Höhe gegeben hatte“)

52. Wissenschaftler: Der Frühling kommt als Folge der Klimaänderung in jedem Jahr früher; das ist der erste ‚aufschlussreiche Beweis‘, dass die globale Erwärmung das Timing der Jahreszeiten verändert. – Guardian, 26. August 2006

53. Angesichts des Anstiegs der mittleren Temperatur im Winter ist offensichtlich, dass die Anzahl der Frosttage und die Anzahl der Tage mit einer Schneedecke abnehmen wird. Für Europa zeigen die Modelle, dass kalte Winter wie am Ende des 20. Jahrhunderts, zu denen es im Mittel alle zehn Jahre gekommen war, allmählich im Laufe des Jahrhunderts verschwinden werden ( S. 19) – und

…aber es kann gut sein, dass von den Schneefreuden infolge der Klimaänderung nichts bleibt als einige vergilbte Fotos … Außerdem wäre eine Zunahme winterlicher Niederschläge mit Sicherheit nicht der Erholung förderlich (S. 38) – Jean-Pascale van Ypersele und Philippe Marbaix, Greenpeace 2004

Übersetzt von Chris Frey EIKE




„Energiepolitische Geisterfahrt – die deutsche Wendewirklichkeit“

I. AUSGANGSSITUATION

Die Energiewende soll zwei (vermeintliche?) Probleme lösen: Erstens die Abhängigkeit von fossilen Rohstoffen beseitigen, die nach den „Prophezeiungen“ des Club of Rome über die Grenzen des Wachstums aus dem Jahre 1972 „sehr zeitnah“ nicht mehr verfügbar sein werden, sprich die Begrenztheit der Vorräte an Kohle, Öl und Gas wird ins Kalkül gezogen. Dadurch sollen sich auch die anthropogen verursachten Emissionen des Gases CO2 verringern, die vom wissenschaftlichen „Mainstream“ ganz wesentlich für den Klimawandel verantwortlich gemacht werden – Stichwort: Menschengemachter Klimawandel. Zweitens soll das deutsche Energiesystem sukzessive, d.h. in vier Schritten von fossilen auf erneuerbare Energien wie Sonne, Wind, Biomasse und Wasserkraft umgestellt werden. Bis 2020 sollen jeweils mindestens 35%, bis 2030 50%, bis 2040 65% und bis 2050 80% der Stromerzeugung regenerativ erfolgen, die gesamte Energieversorgung zur Jahrhundertmitte zu mindestens 50%.

Parallel zum Umstieg von fossilen Energieträgern auf erneuerbare Energien erfolgt der Ausstieg aus der Kernenergie, der schon in 2022 zu 100% vollzogen sein soll (doppelter Ausstieg aus Kohle und Uran). Dies ist das Ergebnis der im Nachgang zu der Naturkatastrophe vom 11. März 2011 – dem Erdbeben und Tsunami mit anschließender Havarie von drei Reaktoren in Fukushima/Japan – von der Bundesregierung am 6. Juni 2011 getroffenen Entscheidungen (Eckpunkte für eine beschleunigte Energiewende). Kurz zuvor war der Kernkraftnutzung in Deutschland noch eine Funktion als „Brückentechnologie“ zugetraut und zugebilligt worden. D.h. sie sollte einen behutsamen Systemwechsel von Fossil auf Erneuerbar auch wirtschaftlich abfedern und begleiten (zum Status quo der Kernenergie in Deutschland siehe nur www.kernenergie.de).

Die Energiewende setzt damit einen gravierenden Umbau des gesamten deutschen Energieversorgungssystems in allen Sektoren (Erzeugung, Transport über Leitungsnetze, Speicher) voraus, einschließlich der Anpassungen in Industrie und Gesellschaft (Effizienzerhöhung, Energieeinsparung, Orientierung am Stromangebot). Zu beachten ist, dass sich Strom in energiewirtschaftlich relevantem Maße bis heute kaum speichern lässt. Hinzu kommt die Notwendigkeit, vermehrt Strom zu importieren. Wirtschaftlich mit vertretbarem Wirkungsgrad sind lediglich Pumpspeicherkraftwerke (PSKW) in der Lage, die Speicherfunktion (über einen Umweg) in einer nennenswerten Größenordnung zu übernehmen. Allein schon aufgrund der Topographie können aber gar nicht so viele PSKW gebaut werden, wie notwendig wären. Alle andern Speichersysteme sind noch „meilenweit“ von der großtechnischen Realisierbarkeit und Wirtschaftlichkeit entfernt.

Das Vehikel zur Umsetzung der Wende bildet das Erneuerbare Energien Gesetz (EEG). Es trat zum 1. April 2000 zu Zeiten einer rot-grünen Bundesregierung in Kraft und löste das Stromeinspeisungsgesetz – mit dem ersten Einspeise- und Vergütungssystem zugunsten regenerativen Stroms – ab, das seit dem 1. Januar 1991 gültig war.

Als Väter dieses ganze fünf Paragraphen starken „Gesetzes über die Einspeisung von Strom aus erneuerbaren Energien in das öffentliche Netz“ werden einzelne Politiker von CSU, Grünen und SPD kolportiert. Sicher ist, dass der entsprechende Gesetzesentwurf von der CDU/CSU-Fraktion eingebracht und u.a. von Helmut Kohl und dem FDP-Politiker Helmut Haussmann (dem damaligen Bundeswirtschaftsminister) unterzeichnet wurde. Also eine schwarz-rot-grüne Erfindung, die knapp 10 Jahre später unter der Mitwirkung von Solarunternehmern am Gesetzesvorhaben richtig „vergoldet“ wurde.

Das Markenzeichen des an die Bedingungen im liberalisierten Strommarkt angepassten und erheblich erweiterten EEG – zuletzt geändert am 20.12.2012, mit zwischenzeitlich 66 Paragraphen und fünf Anhängen – sind der Einspeisevorrang für Erneuerbare, die 20 Jahre lange Garantiezeit sowie die, trotz verschiedener Anpassungen nach unten (sog. Degressionen) immer noch stattlichen Einspeisevergütungen. Mit dieser in Kürze vorletzten Novellierung wurde – zum ersten Mal überhaupt – für die Förderung des weiteren Ausbaus von PV-Anlagen bei 52 Gigawatt eine Deckelung verfügt.

Der Anstieg der Nutzung von erneuerbaren Energien ist wesentlich auf das EEG zurückzuführen. Ihr Anteil an der Bruttostromerzeugung betrug im Jahr 2013 bereits 23,4 Prozent (siehe hierzu die umfangreichen Daten aus dem Bundesministerium für Wirtschaft und Energie – www.bmwi.de).

II. FEHLENDE „SOLLBRUCHSTELLEN“ IM KONZEPT DER ENERGIEWENDE

Zweifelsfrei hat das EEG zur Markteinführung und -durchdringung der Erneuerbaren einen ganz wesentlichen Beitrag geleistet. Nunmehr kommen aber in zunehmendem Maße Probleme zum Tragen, die allein aus dem Konstrukt heraus zu erklären, und somit systemimmanent sind. Ein grundsätzliches Problem ist sicher, dass nicht von Beginn an ein Verfallsdatum festgelegt worden ist und auch die Evaluation nicht mit der notwendigen Akribie erfolgte, vermutlich weil sich die Finanzierung zu großen Teilen außerhalb des Bundeshaushalts bewegt.

Systemdefekt 1: EU-Zertifikate und EEG ein Widerspruch an sich

Bei der Einführung von Emissionszertifikaten auf Ebene der Europäischen Union im Jahre 2005 hätte man das EEG ersatzlos streichen müssen. Denn obwohl beide Systeme eine Verringerung der CO2-Emissionen beabsichtigen, schließen sie sich im Grunde genommen aus. In der Folge kann „ … durch das EEG keine Kohlendioxidminderung erzielt werden, die über das durch den Emissionshandel allein bewirkte Maß hinausgeht.“ (Manuel Frondel u.a.: Solarweltmeister Deutschland? Ein gewaltig teurer Irrtum, in: List Forum, Bd. 39 (2013), S. 99-122, hier S. 111). Denn die geringeren CO2-Emissionen in Deutschland lassen den Preis der an der Börse gehandelten Zertifikate/Verschmutzungsrechte sinken. Dadurch wird es günstiger Zertifikate zu kaufen, anstatt CO2-Vermeidungsmaßnahmen zu finanzieren. Die Einsparungen an der einen Stelle werden also durch höhere Emissionen an anderer Stelle kompensiert, es findet lediglich eine Verlagerung im EU-Raum statt (vgl. ebenda; interessant auch die FAZ vom 7. März 2014 (www.faz.net) mit dem Blick auf die vor 10 Jahren gelaufene Auseinandersetzung zwischen den Ministern Clement (Wirtschaft) und Trittin (Umwelt), wobei letzterer und damit die Unvernunft die Oberhand behielt). Damit degeneriert das EEG zum reinen Umverteilungsmechanismus, der zudem Innovationen verhindert, wie die von der Bundesregierung eingesetzte Expertenkommission Forschung und Innovation (EFI) zu Beginn des Jahres schlussfolgert (siehe www.e-fi.de auf den Seiten 51-52).

Systemdefekt 2: planwirtschaftlicher Fremdkörper mit eingebauter Ausbreitungstendenz

Das EEG widerspricht im Grunde genommen der Sozialen Marktwirtschaft und dem liberalisierten Strommarkt. Während die Liberalisierung auf einen wettbewerblich organisierten Strommarkt setzt, hebelt das EEG mit seiner stark planwirtschaftlichen Ausrichtung (Bevorzugung einzelner Energieerzeugungsarten, feste Einspeisevergütungen) diesen aus. Fatal wirkt sich die Interventions- (Ludwig von Mises) oder Subventionsspirale aus, die zur Eindämmung unbeabsichtigter Nebenwirkungen immer weitere Korrekturen notwendig macht. Peter Heller umschreibt dies mit dem Dominoeffekt von EEG-Subventionen, der eine Überproduktion von Strom, ebenso wie Industrierabatte, eventuell sogar Kapazitätsmärkte, auf jeden Fall aber Investitionen in den Netzausbau und schließlich auch die finanzielle Entlastung von Haushalten zwangsläufig nach sich zieht und damit massiv weitere Kostentreiber bedingt (beim 16. Albstädter Wirtschaftsforum – www.zak.de).

Systemdefekt 3: in Kauf genommene Ressourcenvernichtung hinterlässt Scherbenhaufen

Der im EEG verfügte Einspeisevorrang für Erneuerbare setzt einen simplen Prozess in Gang: Die verringerte Nachfrage nach konventionellem Strom verdrängt entsprechend der Merit-Order (Einsatzreihenfolge von Kraftwerken nach deren kurzfristigen Grenzkosten) Kraftwerke mit höheren variablen Kosten (gleich Grenzkosten) und sorgt dafür, dass Kraftwerke mit vergleichsweise niedrigeren variablen Kosten preissetzend werden. Dies sind zum gegenwärtigen Zeitpunkt vor allem ältere, bereits abgeschriebene Kohlekraftwerke, die zusätzlich von fallenden Rohstoffpreisen profitieren. Dies führt wiederum zunehmend zur vorläufigen oder dauerhaften Stilllegung und sogar zur Nichtinbetriebnahme von hochmodernen Gas- und Dampfturbinen-Kraftwerken, die aber als Produzenten von Regelenergie zur Stabilisierung des Stromnetzes – hier hat die Physik das letzte Wort – dringend gebraucht werden.

Die von der Bundesnetzagentur geführte Liste wird länger und länger. Ihr sind aufgrund einer Ende 2012 beschlossenen Neuregelung Stilllegungen mindestens 12 Monate im Voraus anzukündigen, auch vorläufige Abschaltungen müssen angezeigt werden (aktueller Stand: www.bundesnetzagentur.de). Entsprechende Ankündigungen liegen gegenwärtig von drei der vier großen Energieversorger, ebenso von Stadtwerken vor. Ist ein Kraftwerk „systemrelevant“ kann die Bundesnetzagentur anordnen, dass es zwei Jahre lang weiterbetrieben werden muss. Im Januar hat die EnBW beim Oberlandesgericht Düsseldorf eine Beschwerde eingereicht, mit der sie sich dagegen wehrt, vier Kraftwerksblöcke in Marbach und Walheim nicht abschalten zu dürfen.

Hohe Abschreibungen, Gewinneinbrüche, notwendige Finanzspritzen für Stadtwerke, gravierender Kursverfall bei den vier großen Energieversorgungsunternehmen – RWE, Eon, EnBW und Vattenfall –, Arbeitsplatzverluste inklusive, sind an der Tagesordnung. Auch den so hoffnungsvoll gestarteten Solar- und Windkraftanlagenbauern geht reihenweise die Luft aus. „Die Energiewende wird zum eiskalten Kapitalvernichter“ ist unter Bezugnahme auf eine Liste der Deutschen Schutzvereinigung für Wertpapierbesitz in der Welt vom 6. März d.J. zu lesen. An den 50 größten Börsendebakeln der letzten Jahre in Deutschland partizipiert die Energie-Branche mit rund einem Viertel, obenauf Solar- und Windkraftfirmen (www.welt.de). Hinzu kommt ein schleichender Prozess der De-Industrialisierung, der insbesondere in energieintensiven Branchen bereits empirisch nachweisbar ist, und sich aufgrund der für die deutsche Volkswirtschaft typischen integrierten industriellen Wertschöpfungskette auch belastend auf die restlichen Glieder der Kette auswirkt (siehe hierzu die umfassende Analyse der Deutschen Bank vom 18. Dezember 2013 – www.dbresearch.de, hier S. 11-12). Dort wird auch sehr zu recht darauf hingewiesen, dass für eine Beurteilung der Energiewende die Netto-Effekte entscheidend sind. „Schließlich sind die häufig angeführten positiven Beschäftigungseffekte aufgrund von Investitionen in die Energiewende dadurch zu relativieren, dass sie zu nennenswerten Teilen auf … Subventionen zurückzuführen sind. Man muss sich also stets fragen, welche Beschäftigungseffekte man anderer Stelle mit den eingesetzten Mitteln hätte erzielen können. Da bei den Arbeitsplatzeffekten zudem häufig die Brutto-Effekte ausgewiesen werden, müsste zudem berücksichtigt werden, in welcher Höhe Beschäftigung in anderen Branchen verlorengegangen ist.“ (S. 7).

Nordrhein-Westfalen führt die Riege der stark Gebeutelten an, denn dort laufen die Problemlagen von Energieversorgern und klammen Kommunen unweigerlich zusammen. Die Städte sind in der Regel auch Anteilseigner an z.B. der RWE und/oder haben eigene Stadtwerke, die wiederum Beteiligungen halten. Hinzu kommt, dass NRW am wenigsten von den EEG-induzierten Zahlungsströmen profitiert, da die Fotovoltaik- bzw. Windkraftanlagen relativ stärker im Süden bzw. Norden der Republik massiert sind und der Stromverbrauch im bevölkerungsreichsten Bundesland mit der größten Dichte an Industriebetrieben am höchsten ist. Keinem anderen Bundesland kommt deshalb die Energiewende so „teuer“: 4,5 Mrd. € wurden 2013 in den EEG-Topf gelegt und nur 1,6 Mrd. € wieder „abgegriffen“ (siehe hierzu die ausführliche Analyse des BDEW vom Februar d.J. zur regionalen Verteilung auf den S. 82-92 – www.bdew.de). Nachvollziehbar, aber auch typisch und ganz konform mit der beschriebenen Interventionsspirale ist, dass der NRW-Wirtschaftsminister noch bevor die Bundesregierung die EEG-Novelle unter Dach und Fach hat, weitere Hilfen des Bundes anmahnt (siehe Handelsblatt vom 20.3.2014 www.handelsblatt.com).

Aber selbst im ansonsten gesunden Südwesten brennt es, so musste die Stadt Ulm für eine Kapitalerhöhung der Stadtwerke Ulm/Neu-Ulm, die Beteiligungen an Kohle-, Gas- und Offshore-Windkraftwerken halten, in zwei Schritten 30 Millionen € nachschießen und wird künftig auch Arbeitsplätze abbauen müssen (www.swp.de). Und die Anteilseigner der EnBW – grob je zur Hälfte das Land Baden-Württemberg und die neun Landkreise mit einer Beteiligung an den Oberschwäbischen Elektrizitätswerken (OEW) – müssen sich aufgrund einer Halbierung der EnBW-Ausschüttungen auf magere Jahre einstellen. Ob durch verminderte Ausschüttungen oder Verluste bei den Stadtwerken, alles kommt beim Bürger in Form von Leistungseinschränkungen an, denn im sogenannten Querverbund sorgten Gewinne aus dem Strom schon immer für kommunale Bäder, Verkehrsbetriebe und die Finanzierung weiterer Infrastrukturen. Die nächsten Hilferufe an Land und Bund sind hier schon vorprogrammiert.

Systemdefekt 4: unzureichende internationale Einbindung zwingt Deutschland auf Sonderweg

Sollbruchstellen schützen Systeme vor Überforderung – zumindest in technischen Anwendungen. Die Politik ist im Falle der Energiewende offenbar total überfordert, um von sich aus die richtigen Schlüsse und Konsequenzen zu ziehen. Zu den drei beschriebenen Defekten gesellt sich mit der mangelnden internationalen Einbindung die wohl offensichtlichste Schwachstelle.

Zwar haben 17 von 28 EU-Mitgliedstaaten unserem EEG vergleichbare Anreizsysteme, aber diese sind in ihrer Ausgestaltung und Zeitschiene wesentlich moderater. Österreich beispielsweise deckelt die Subvention auf maximal 27 Mio. € im Jahr, gibt „nur“ eine 13jährige Garantiezeit und wird in 2015 vom Einspeise- auf ein Quotenmodell umstellen. Italien, Spanien, Bulgarien, Griechenland und Tschechien haben schon längst die weit weniger opulente Förderung zurückgeschnitten.

Die Europäische Kommission unternimmt größte Anstrengungen, um zu einem gemeinsamen Energiebinnenmarkt zu kommen. Sie dringt unter anderem darauf, dass Förderregelungen bei sinkenden Technologiekosten schnell angepasst und die Erneuerbaren in den Energiemarkt integriert werden (z. B. durch den Wechsel von Einspeisevergütungen zu -prämien oder -quoten und durch Ausschreibungen) sowie die grenzüberschreitende Zusammenarbeit ausgebaut wird (siehe hierzu den Fortschrittsbericht „Erneuerbare Energien“ 2013, S. 14-15: www.bmwi.de).

Die Effizienzvorteile eines Energiebinnenmarktes zeigt Veit Böckers (Wettbewerbsökonomische Vorteile eines Europäischen Binnenmarktes für Stromerzeugung, in: DICE Policy Brief, September 2013, S. 6-7, hier S. 6) mit einer einfachen Überschlagskalkulation auf: „Würde die heute in Deutschland installierte Solaranlagenkapazität, die im Jahr 2011 18.500 GWh Solarstrom erzeugt hat, stattdessen in Spanien stehen, hätten damit 37.000 GWh Strom produziert werden können. So hätte sich bei einem durchschnittlichen Strompreis von 40 Euro/MWh zusätzlicher Strom im Wert von 740 Millionen Euro erzeugen lassen.“

Als Antwort auf die immer noch stark zersplitterte Förderlandschaft hat die Europäische Kommission Leitlinien entwickelt, denen zufolge die Förderung auf das notwendige Minimum und die Einführungsphase von Technologien beschränkt und letztendlich eingestellt werden soll. Auch soll der in den anderen Mitgliedstaaten erzeugte Strom aus Erneuerbaren Zugang zu nationalen Fördersystemen erhalten (siehe hierzu Moritz Bonn u.a.: „Brüsseler Spitzen“: Europäische Impulse für eine EEG-Reform, in: et Energiewirtschaftliche Tagesfragen, 30. März 2014, S. 1-2 – www.et-energie-online.de).

Gerade die zuletzt genannte Bedingung stellt einen richtigen „Sprengsatz“ dar, der schon im August dieses Jahres detonieren könnte. Beim Europäischen Gerichtshof (EuGH) ist die Klage eines finnischen Windkraftbetreibers anhängig, der Strom nach Schweden liefert, aber dort keine Ökostrom-Förderung bekommt. Generalanwalt Yves Bot fordert in seinem Schlussantrag, solche Ungleichbehandlungen innerhalb von zwei Jahren zu beseitigen. Laut FOCUS und FAZ – aber auch EU-Energiekommissar Günther Oettinger und andere Brüssel-Insider sehen das so – könne das die EEG-Umlage sprengen (www.faz.net). Locker könnte man formulieren, „bis dass der EuGH euch scheidet!“ Ein vergleichbares Verfahren mit Tschechien befindet sich übrigens im Anfangsstadium und hat noch nicht die Gerichtsebene erklommen.

Hinzu kommt das laufende Beihilfeverfahren wegen der sogenannten „Besonderen Ausgleichsregelung“ – so wird der Ausnahmetatbestand für befreite Unternehmen genannt: siehe hierzu Anhang 1 – mit weiteren ungeklärten juristischen Fragen, die allerdings nicht ganz die Brisanz des oben genannten Falles haben.

Offensichtlich ist, dass selbst in der Europäischen Union ein gemeinsamer Energiebinnenmarkt mit Nutzung sämtlicher Effizienzvorteile (d.h. auch des Einsatzes von Fotovoltaik- und Windkraftanlagen an den dafür optimalen Standorten) noch in den Sternen steht und die Unterschiede zwischen den 28 Mitgliedsstaaten so riesig sind, dass der notwendige Anpassungsprozess Jahre in Anspruch nehmen wird, von der technischen Seite mit den erforderlichen Übertragungsnetzen ganz zu schweigen. Und auch der beschlossene Ausstieg aus der Kernenergie wird immer mehr zum nationalen Alleingang. „Der deutsche Weg ist einer von vielen“ titelt die Stuttgarter Zeitung im Bericht über den Weltenergiekongress im südkoreanischen Daegu im Oktober letzten Jahres (www.stuttgarter-zeitung.de). Deutschland gesellt sich 2022 zu den 14 Ländern in Europa, die schon bisher ohne Atomkraft waren, während die Zahl derer weltweit wächst, die neue Kernkraftwerke planen und bauen. Laut der auch insgesamt sehr lesenswerten Energiestudie 2013 der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) in Hannover waren Ende 2012 68 Kernkraftanlagen in 14 Ländern in Bau und weitere 110 in der Planungs- oder Genehmigungsphase (www.bgr.bund.de. Siehe noch Anhang 2 zum häufig angestellten Vergleich der Kosten von Kernkraft und regenerativer Energie).

Bundeskanzlerin Angela Merkel weiß das: In ihrer Regierungserklärung vom 29. Januar 2014 (S. 4-5) spricht sie von einer Herkulesaufgabe und dass kein vergleichbares Land auf der Welt seine Energiewende so radikal anpacke wie Deutschland. Es lohnt, sich die folgende Textpassage genauer anzuschauen: „Die Welt schaut mit einer Mischung aus Unverständnis und Neugier darauf, ob und wie uns diese Energiewende gelingen wird. Wenn sie uns gelingt, dann wird sie – davon bin ich überzeugt – zu einem weiteren deutschen Exportschlager. Und auch davon bin ich überzeugt: Wenn diese Energiewende einem Land gelingen kann, dann ist das Deutschland.“ So die Kanzlerin. Sie ist also nicht überzeugt, dass uns die Energiewende gelingt und sie sieht realistischer Weise, dass alle anderen noch größere Schwierigkeiten in der Umsetzung haben. Und sie thematisiert nicht den Fall des Misslingens, des Scheiterns: dann sitzen wir Deutsche, neben reichlich Häme und Schadenfreude, auch auf einem wirtschaftlichen Scherbenhaufen. Und danach sieht es aus.

III. VERTEILUNGSEFFEKTE

Durch die Finanzierung über den Strompreis entstehen gravierende Umverteilungseffekte (un)sozialer (von unten nach oben) und regionaler Art, die an anderer Stelle (z.B. in der zitierten BDEW-Studie) ausführlich beschrieben wurden. Es gibt Gewinner und Verlierer, die regelrechten Verteilungskämpfe auf Ebene der Bundesländer und der Interessengruppen (ersichtlich an den Stellungnahmen zur EEG-Novelle, siehe unter VI.) geben ein klares Spiegelbild ab. So unkoordiniert das Vorgehen auf Länderebene in der Umsetzung der Energiewende bislang war, so einig ist man sich bei der Gesprächsrunde im Bundeskanzleramt am 2. April 2014 zum EEG, deren Ergebnis die FAZ tags darauf sauber zusammenfasst: „Verbraucher zahlen für Energie-Kompromiss. Der Bund gibt nach. Die Ökostromhilfen werden nicht so stark gedeckelt. Teurer wird es für Stromkunden und Bahnfahrer.“ Es ging (mit Ausnahme von NRW) nur um reine Besitzstandswahrung, bei der die Ministerpräsidentinnen und -präsidenten das große Ganze aus dem Blick verloren haben. Dabei sind die Größenordnungen um die es geht, auch im Vergleich zu anderen Ausgabeblöcken beachtlich: Das Volumen der EEG-Umlage mit 24 Mrd. € in diesem Jahr ist rund dreimal so groß wie der viel gescholtene Länderfinanzausgleich (8,5 Mrd. € in 2013) oder die Rundfunkgebühr (7,5 Mrd. € in 2012), auch der Solidaritätszuschlag liegt mit 15 Mrd. € immer noch kräftig darunter.

Nicht zu unterschätzen auch die Interessenlage des Bundesfinanzministers am EEG. Solange er die Energiewende nicht über den Bundeshaushalt finanzieren muss, verdient er daran mit. Da die Mehrwertsteuer auch auf die EEG-Umlagen erhoben wird, stecken rd. 4 Mrd. € im gesamten Umsatzsteueraufkommen in Höhe von 204 Mrd. € drin (die Energiesteuer mit 39 Mrd., Stromsteuer mit 7 Mrd. und Kernbrennstoffsteuer mit 1,3 Mrd. € werden davon unabhängig erhoben – Schätzungen für 2014 –www.bundesfinanzministerium.de). Müsste er umgekehrt die 24 Mrd. € selbst finanzieren, dann wäre das nach den Bundesministerien für Arbeit und Soziales mit 122 Mrd. und für Verteidigung mit 33 Mrd. sowie der Bundesschuld mit 30 Mrd. € der viertgrößte Haushaltsposten und würde etwa acht Prozent seines gegenwärtigen Gesamthaushalts in Höhe von 299 Mrd. € ausmachen (www.bundesfinanzministerium.de). Sicherlich gäbe es dabei im Parlament lange und harte Diskussionen, da bei anderen Budgets eingespart werden müsste.

IV. INTENTION VERSUS WIRKUNG: CO2-VERMEIDUNG FEHLANZEIGE

Ein Ziel der Energiewende ist, wie erwähnt, die anthropogen verursachten Emissionen des Gases CO2 zu verringern. Aus der Parallelität von Emissionshandel und EEG – Systemdefekt 1 – war aber eine Verminderung nicht zu erwarten. Dass nun darüber hinaus ein Anstieg von CO2 zu beobachten ist, resultiert aus dem beim Systemdefekt 3 beschriebenen Wirkungszusammenhang (siehe hierzu wiederum dbresearch, S. 11, auch zu Überlegungen, inwieweit ggf. die CO2-Emissionen bei einem Rückgang der Energiekosten infolge einer geringeren inländischen Wertschöpfung sinken könnten).

V. (ZWISCHEN)FAZIT

Welche Auswirkungen hat die gegenwärtige Energiewende auf unsere Volkswirtschaft: Schafft oder sichert sie Arbeitsplätze, regt sie zu Innovationen an, verbessert sie unsere Wettbewerbsfähigkeit? Ist der über das EEG in Gang gesetzte Umbau unseres gewachsenen Energieversorgungssystems überhaupt mit den physikalischen Gesetzmäßigkeiten (fehlende Speicherfähigkeit von Strom; Notwendigkeit konstanter Frequenz im Netz) in Einklang zu bringen? Sind die sich daraus ergebenden finanziellen Lasten und Belohnungen, sprich Kosten und Gewinne ausgewogen verteilt? Ist die deutsche Energiewende in Bezug auf die gewünschte Verringerung der CO2-Emissionen zielführend und besitzt sie eine solch überzeugende „Ausstrahlung“, dass mehr und mehr andere Länder nachfolgen?

Zusammenfassend betrachtet sind alle aufgeworfenen Fragen mit einem klaren Nein zu beantworten. Nach diesem eindeutigen, ernüchterndem Diktum kann man zu guter Letzt auch noch die eigentliche Sinnfrage stellen und diskutieren: ob der Klimawandel menschengemacht und überhaupt beeinflussbar ist? Die Antwort bleibt in dem einen wie anderen Falle spekulativ.

Marco Wehr hat sich (im FAZ-Feuilleton vom 7. Januar d.J. unter dem Titel “Kompetenzillusion” – www.faz.net) mit der Prognosefähigkeit und Güte wissenschaftlicher Berater, insbesondere auch von Klimatologen, auseinandergesetzt und es als reines “Orakelgekrakel” qualifiziert, das “… man guten Gewissens als unseriös bezeichnen …” kann. Dies bestätigen wunderbar die hilflosen Erklärungsversuche für die Stagnation der Erwärmung, die David Whitehouse aktuell zusammengetragen hat (Warming interruptus – Causes für the pause – www.thegwpf.org). Dem kann sich auch der am 31. März vorgestellte neueste Bericht des Weltklimarates (IPCC) nicht gänzlich entziehen. Von der Signalwirkung her nicht zu unterschätzen ist die unter Protest erfolgte Niederlegung des Mandats ausgerechnet durch einen Niederländer, Richard Tol, der nach eigenem Bekunden genug hat von Schwarzmalerei und übertrieben alarmistischen Szenarien. Tol – führender Klimaökonom und koordinierender Leitautor für das Kapitel über die wirtschaftlichen Auswirkungen – „ … vertritt die Position, dass die ökonomischen Auswirkungen des Klimawandels eher gering sind. Außerdem sei es weniger teuer, eine Strategie der Anpassung an den Klimawandel zu wählen, statt ihn durch drastische CO2-Reduktion verhindern zu wollen.“ (www.faz.net). Der jährliche Bericht der Weltorganisation für Meteorologie (WMO) – einer anderen UN-Organisation – hingegen widersteht (noch) nicht der alarmistischen Versuchung und kaschiert den Umstand, „ … dass es seit über 15 Jahren nicht mehr wärmer wird … “ auch indem die entsprechende Presseerklärung den „ … Begriff Stillstand (Hiatus) nicht einmal erwähnt.“ (Rudolf Kipp in www.science-skeptical.de).

VI. KURIEREN AN SYMPTOMEN UNTER ZEITDRUCK – DIE GABRIELSCHE EEG-NOVELLE

An dem Entwurf zur Novellierung des EEG wird mit Hochdruck gefeilt. Er „besticht“ durch zunächst 90 Paragraphen und, nachdem das Ergebnis der Verhandlungen mit EU-Wettbewerbskommissar Almunia zur „Besonderen Ausgleichsregelung“ (den Industrieausnahmen) eingearbeitet ist, im zweiten Entwurf vom 31. März 2014 mit 99 Paragraphen und vier Anhängen. Der Vorläufer war zur Regelung der Materie noch mit 66 Paragraphen, bei allerdings fünf Anhängen ausgekommen. Ein nie dagewesener Zeitdruck begleitet das Machwerk und ebenfalls einzigartig ist, dass ein Grüner als beamteter Staatssekretär in einer schwarz-roten Bundesregierung die Feder führen darf. Rainer Baake kennt zumindest die Materie, hat er doch selbst als Staatssekretär unter Bundesumweltminister Trittin im Jahre 2000 das EEG mit entwickelt. Im Handelsblatt vom 13. März d.J. wird er unter der Überschrift „Gabriels Problem-Grüner“ als einer der Väter des Atomausstieg und eben des EEG eingeordnet. Nicht nur das Gesetz selbst, auch die Stellungnahmen der Verbände sind mit heißer Nadel gestrickt. Bis zum Abgabetermin für den ersten Entwurf am 12. März sind 152 Stellungsnahmen und bis zum Abgabetermin für den überarbeiteten Entwurf am 2. April, 17.00 Uhr, nochmals weitere 97 eingegangen, die wiederum bis zur Kabinettssitzung nächste Woche (am 8., so das Ministerium, oder 9. April, so die Kanzlerin in ihrer Regierungserklärung) eingearbeitet sein müssen. Pauschalierend lässt sich sagen, dass die Stellungnahmen umso länger sind, als es Positionen oder Pfründe zur verteidigen galt, und dass es zwischenzeitlich eine sehr vielfältige Lobbyarbeit und aktive Lobbyisten-Szene im Bereich der erneuerbaren Energien gibt (Link zu den Entwürfen und Stellungnahmen zur EEG-Reform – www.bmwi.de).

Interessanterweise wird im Vorblatt zum Gesetzesentwurf bei der kategorischen Abfrage zu den Alternativen vermerkt, dass es keine gebe. Auch bezüglich der Frage nach dem Erfüllungsaufwand für Bürger, Wirtschaft und Verwaltung wird tiefgestapelt bzw. darauf verwiesen, dass dieser noch zu berechnen sei und im Laufe des Gesetzgebungsverfahrens nachgeliefert werde. Hier darf man gespannt sein, was vom Nationalen Normenkontrollrat – dem Wächter über eine bessere Rechtsetzung und angemessenen Erfüllungsaufwand – noch verlautbart werden wird (www.normenkontrollrat.bund.de).

Eine abschließende inhaltliche Beurteilung ist angesichts der kurzen Fristen und der Fortschreibung des Gesetzesentwurfs enorm schwer bis fast unmöglich. Auffällig ist, dass es auch von der Zeitschiene her eher zaghafte Ansätze sind, die Erneuerbaren im Zubau zu begrenzen und an den Markt heranzuführen. Dies trifft auch für die Direktvermarkungspflicht für die Betreiber größerer Anlagen zu, eine zunächst vorgesehene Beteiligung der Eigenstromerzeuger scheint hingegen wieder vom Tisch zu sein. Überlegungen in Richtung Kapazitätsmärkte waren von vorneherein nicht im Entwurf enthalten. Viel Raum im Rahmen der zweiten Anhörungsrunde nimmt das Pro und Kontra bei der „Besonderen Ausgleichsregelung“ ein. Während beispielsweise die IG Metall für die weitest gehende Beibehaltung der Industrieausnahmen im Rahmen einer europarechtskonformen Ausgestaltung plädiert, setzt sich Greenpeace für eine deutlich kürze Liste der zu befreienden Unternehmen ein. Die neuerliche, vier Seiten lange Stellungnahme von Greenpeace enthält auch eine Rüge für die eingeräumte Bearbeitungszeit von lediglich 34 Stunden sowie ein schon der ersten Stellungnahme beigefügtes, nun aktualisiertes „Kurzgutachten“ einer Hamburger Anwaltskanzlei mit ganzen 24 Seiten.

VII. AUSSTIEGSGEDANKEN

Es ist höchste Zeit, sich intensiver mit den Möglichkeiten eines verträglichen Ausstiegs aus der EEG-Geschichte zu befassen. Umso mehr als mit an Sicherheit grenzender Wahrscheinlichkeit vorherzusagen ist, dass dieses nun entstehende Gesetz die beschriebenen Systemdefekte nicht abschütteln und auch wegen seiner Komplexität und den sicher enthaltenen handwerklichen Fehlern nie und nimmer funktionieren kann. Hinzu kommt als „Damoklesschwert“ das im August zu erwartende Urteil des EuGH, das allerdings wie berichtet eine zweijährige Übergangsfrist einräumt.

Bislang existieren nur vereinzelte Überlegungen, unter anderem von Klaus Töpfer, der mit einem „Altlasten-Fonds“ die aufgelaufenen finanziellen Verpflichtungen aus dem EEG auffangen möchte (www.zfk.de). Auch Ilse Aigner hat schon einmal den „Versuchsballon“ Steuerfinanzierung aufsteigen lassen, musste allerdings zusehen, wie er ganz schnell zum Platzen gebracht wurde.

Jan Fleischhauer hat in einer Kolumne zum „Wahnwitz mit System“ folgenden Gedanken zu Papier gebracht:

„Wie immer, wenn Politiker merken, dass sie sich verrechnet haben, versuchen sie, die Spuren zu verwischen. Die einfachste Art, sich aus der Verantwortung zu stehlen, ist die Verschleierung der Kosten durch Ausgliederung in einen Schattenhaushalt. Für die Aufnahme von Schulden ist noch nie ein Politiker abgewählt worden. … Wenn der Preis für die Erneuerbaren nicht mehr auf der Stromrechnung auftaucht, vergisst der Bürger vielleicht, welchen Bären man ihm aufgebunden hat, als man ihm Wind und Sonne als preiswerte Alternativen verkaufte. Im normalen Geschäftsleben sind solche Deals aus gutem Grund verboten. Aber dort landet man ja bei vorsätzlicher Täuschung auch vor Gericht.“ (www.spiegel.de).

VIII. GEISTERFAHRT UND WENDEWIRKLICHKEIT – DIE POLITIK MUSS FARBE BEKENNEN!

Die Anekdote vom auf dem Kopf liegenden Streifenwagen umschreibt trefflich die Lage:

„Anfang der achtziger Jahre stellte eine Militärstreife im Bereich des Grazer Korps ihren Streifenwagen wortwörtlich auf den Kopf. Sie waren schlicht und einfach zu schnell gefahren. Um den Vorfall zu verschleiern, meldete der Streifenkommandant über Funk an seine vorgesetzte Dienststelle, er könne seinen Auftrag nicht weiter durchführen, da sein Blaulicht ausgefallen sei. Die Kommandostelle funkte zurück: Glühbirne auswechseln! Jetzt hieß es Farbe bekennen. Kleinlaut kam es aus dem Äther zurück: Wir können die Glühbirne nicht auswechseln. Das Fahrzeug liegt drauf.“

An unsere Bundestagsabgeordneten und diejenigen, die gegenwärtig in den Ministerien an der EEG-Novelle basteln gerichtet: Wer das kennt und weiß, macht sich nach meinem Verständnis der Untreue und des Betrugs durch Unterlassung schuldig: Im juristischen Sinne, aber vor allem auch moralisch im Hinblick auf den Eid, den Abgeordnete wie Beamte auf die Verfassung der Bundesrepublik Deutschland ablegen. Lassen Sie sich nicht weiter hinters Licht führen! Das EEG gehört ganz einfach abgeschafft!

Anhang 1:

Die begünstige Strommenge im Rahmen der “Besonderen Ausgleichsregelung” hat sich in den Jahren 2011 – 2012 – 2013 wie folgt entwickelt: von 85 über 86 auf 96 Terawattstunden, dabei wuchs die Anzahl der befreiten Unternehmen von 603 über 734 auf 1720 (infolge der EEG-Novelle 2012). Bei einem Gesamtvolumen der EEG-Umlage dieser Jahre in Höhe von 13,2 – 17,0 – 20,4 Mrd. € macht die Befreiung 2,2 – 2,5 – 4,0 Mrd. € aus. Interessant ist noch, dass zum Anstieg der EEG-Umlage in 2014 (um 0,96 ct/kWh) auf 6,24 ct/kWh, die Befreiung mit 0,14 ct/kWh beiträgt, das sind 15% (nachzulesen in der Antwort der Bundesregierung vom 27.12.2013 auf die Kleine Anfrage der Abgeordneten Bärbel Höhn und der Fraktion BÜNDNIS 90/DIE GRÜNEN – Drucksache 18/165).

Anhang 2:

In einer Publikation aus dem Jahre 2011 (www.kernenergie.de) ist zum Thema „Kostenvergleich“ auf S. 468 zu lesen:

„Die Kernkraftwerke, die heute Strom erzeugen, haben nie Subventionen erhalten.
Dies haben verschiedene Bundesregierungen, zuletzt die Regierung Schröder/Fischer, unmissverständlich erklärt. Eingesetzte FuE-Mittel der öffentlichen Hand waren als Anschubfinanzierung gedacht und haben dort, wo die einzelnen Technologien sich entfalten konnten, ihren Zweck überzeugend erfüllt. Andere Energieträger, wie beispielsweise regenerative Energien, erhielten und erhalten weiterhin Unterstützungsmittel, allerdings nach einem anderen Förderkonzept. Sie werden überwiegend unmittelbar vom Stromkunden aufgrund gesetzlicher Vorgaben unterstützt, ohne dass das Ziel wirtschaftlicher Stromerzeugung entscheidend näher rückt.“

Und zum Rückbau der Kernkraftwerke ist zu lesen:

„Ebenso falsch ist die Aussage in Politik und Medien, der Rückbau der Kernkraftwerke und ihre Entsorgung würden aus Steuermitteln bezahlt. Richtig ist, dass diese Kosten heute bereits im Strompreis enthalten sind. Der notwendige Aufwand für die Stilllegung der Kernkraftwerke wird in den Bilanzen zurückgestellt. Er wird angespart über 25 Jahre; die Mittel stehen also bereits jetzt nahezu vollständig zur Verfügung. Jährliche Anpassungen tragen Preissteigerungen und neuen regulatorischen Vorgaben Rechnung. Die notwendigen Kosten der Endlagerung, darunter aktuell die Umrüstung des Endlagers Konrad und die Erkundung des Salzstocks Gorleben auf seine Eignung als Endlager, werden im laufenden Jahr vom Bund vorfinanziert und unmittelbar danach den Abfallverursachern aus Industrie und öffentlicher Hand in Rechnung gestellt. Einzelheiten dazu regelt die Endlagervorausleistungs-Verordnung. Die späteren Kosten des Betriebs und der Stilllegung der Endlager sind und werden weiter bedarfsgerecht zurückgestellt. Auch die auf 2,5 Mrd. € begrenzte Deckungsvorsorge für Schäden aus der Kernenergie-Nutzung kann nicht als Subvention gelten. Die Haftungssumme bis 250 Mio. € wird zunächst über den Versicherungsmarkt gedeckt und darüber hinaus bis 2,5 Mrd. € über den, auch im Ausland üblichen Nuklearversicherungspool der betroffenen Unternehmen auf Gegenseitigkeit. Außerdem haften die jeweiligen Unternehmen aber mit ihrem ganzen Vermögen für Schäden, die diese Grenze überschreiten. Würde eine solche Forderung nach einer unbegrenzten Haftung auch an andere risikoträchtige Industrien gerichtet, so wäre deren Wettbewerbsfähigkeit im internationalen Bereich massiv eingeschränkt.“

PS.: Thomas Linnemann, der Mitautor der o.g. Publikation ist nicht identisch mit dem Albstädter Stadtwerkedirektor.

Über den Autor:

Dr. Jürgen Gneveckow ist ein deutscher Politiker der CDU und seit 1999 Oberbürgermeister der Stadt Albstadt. Nach dem Studium der Betriebs- und Volkswirtschaftslehre in Freiburg und Regensburg, Abschluss Diplom-Kaufmann und Diplom-Volkswirt promovierte er in Regensburg, arbeitete bis 1999 im Bundesumweltministerium und war von 1993 bis 1996 als Nationaler Experte zur Generaldirektion „Umwelt“ der Europäischen Kommission in Brüssel abgeordnet

Der Beitrag erschien am 4.April 2014 bei ScienceSceptical hier




Fakten statt Emotionen – Klimapolitik ohne Katastrophe

Fakten statt Emotionen – Klimapolitik ohne Katastrophe

Meine sehr verehrten Damen und Herren,

wenn ich der Bitte entspreche, Fakten statt Emotionen zu präsentieren, so wird mein Vortrag keineswegs emotionslos sein, denn der Mensch ist von Natur aus ein extrem klimasensibles Wesen. Unser Gefühlsleben ist keine konstante Größe und kann durch Neigungseinflüsse schnell aus der Balance geraten. Manchmal genügt ein Wort, um eine Stimmung plötzlich zu verändern und Zuneigung in Abneigung zu verwandeln. Wenn zwischen Menschen Liebe in Hass umschlägt, dann ist das eine Klimakatastrophe, die in Feindschaft, Trennung, Scheidung, gar zu Mord und Totschlag führen kann.

Es ist Aufgabe eines jeden Staates und der gesamten Staatengemeinschaft, eine Politik zu betreiben, die dem „Frieden auf Erden“ dient. Das wäre im wahrsten Sinne des Wortes eine „Klimapolitik ohne Katastrophe“. Gelänge es, alle Neigungsverhältnisse wie Egoismen aller Menschen untereinander sorgsam auszutarieren und zu stabilisieren, Missgunst und Neid könnten unterbunden und Kriege vermieden werden. Hierauf sollte sich die Politik konzentrieren. Dies wäre Klimapolitik in der ursprünglichen Bedeutung des Wortes „Klima“, das aus dem Griechischen kommt und „Neigung“ bedeutet. In allen Familien, Verbänden, Vereinen, Völkern und Staaten gibt es unzählige Bereiche, um ein „gutes Klima“ zu schaffen. Denken Sie an das Arbeitsklima, das Betriebsklima, das gesellschaftliche, politische und soziale Klima, das Konjunktur-, Wirtschafts- und Finanzklima, das Börsenklima. Der Grieche Heraklit sagte einmal „Alles fließt!“ Doch wie schnell und in welche Richtung ein Strom fließt, das hängt von der Neigung, dem Klima ab. 

Jeder Mensch wünscht sich allzeit ein „gutes Klima“, aber genau das wünschen sich alle anderen auch, so dass es Konflikte gibt. All die vielen persönlich wie gesellschaftlich sehr unterschiedlichen Neigungsströme friedlich nach rechtsstaatlichen Kriterien zu koordinieren und vor Problemen, ja Turbulenzen oder gar revolutionären Umbrüchen zu bewahren, das wäre eine sinnvolle Klimapolitik. Ihr Zweck ist, Katastrophen zu verhindern und nicht herbeizureden, wie es der US-Außenminister John Kerry in Indonesien getan hat. Das Handelsblatt vom 16. Februar 2014 zitierte Kerry: „In gewisser Weise kann der Klimawandel jetzt als eine weitere Massenvernichtungswaffe betrachtet werden, vielleicht sogar als die fürchterlichste Waffe der Welt.“ Hätte er vorher bloß den Rat des Philosophen Friedrich Hegel beherzigt, der mahnte, dass am Anfang jeder wissenschaftlichen Arbeit „die Arbeit am Begriff“ stehen müsse.

Der Klimawandel als Neigungswandel ist das Natürlichste auf der Welt. Wohl nichts ändert sich schneller als der Neigungswinkel der Sonnenstrahlen, wie jede Sonnenuhr zeigt. Die älteste Naturwissenschaft ist die Himmelskunde, die Astronomie. Die  Beobachtung des Wechsels von Tag und Nacht, des Wechsels des Neigungswinkels der Sonnenstrahlen von Sonnenaufgang bis Sonnenuntergang und auch des Höhenwinkels der Sonne im Jahresverlauf, mit dem auch der Wechsel der Tageslänge korrespondierte, alles führte zu der Erkenntnis, dass sich die Erde um die Sonne dreht. Steht die Sonne tief am Horizont, sind die Tage kurz, ist es Winter. Nach der Wintersonnenwende am 21. Dezember steigt die Sonne höher, werden die Tage länger, nimmt die Intensität der Sonnenstrahlung zu, wird es wärmer. Astronomische Beobachtungen führten die Griechen dazu, die kugelförmige sich täglich um die eigne Achse drehende wie jährlich die Sonne umrundende Erde in Klima- oder Neigungszonen einzuteilen. Den Bereich zwischen Äquator und den Wendekreisen in 23,5 Grad nördlicher wie südlicher Breite, wo mindestens einmal im Jahr die Sonne im Zenit steht, nannten sie Tropenzone. Den Bereich von den Polen bis zu den Polarkreisen in 66,5 Grad nördlicher wie südlicher Breite nannten sie Polarzone. Der Bereich zwischen jeweils 23,5 und 66,5 Grad war für sie die gemäßigte Zone. Diese solare Klimazonierung liegt allen Klimaklassifikationen zugrunde.

Die antik-astronomische, sich an der solaren Beleuchtung orientierende Klimaeinteilung besagt, dass die Neigung und Intensität der Sonnenstrahlung wie ihr jahreszeitlicher Verlauf von der geographischen Breite abhängen. Daher gibt es eine vom Äquator hin zu den Polkappen gerichtete Temperaturabnahme. Am Strahlungsgenuss orientierte sich Wladimir Peter Köppen (1846-1940), der 1936 mit seinem Werk „Geographisches System der Klimate“ die erste objektive Klimaklassifizierung der Erde vorlegte und dabei Temperaturdaten, Niederschlagsdaten und die Vegetation einbezog. Er unterteilte die Erde in fünf Klimazonen: Tropische Klimate, Trockenklimate, Warmgemäßigte Klimate, Schneewaldklimate, Eisklimate. Der Äquator als Wärmepol mit den thermisch aufsteigenden Luftmassen ist der solare Motor für die Allgemeine Zirkulation, die das geographisch extrem unterschiedliche Wetter auf der Erde erzeugt. Ebenso wenig wie ein „Globalwetter“ gibt es ein „Globalklima“.

Der US-Außenminister John Kerry war nicht gut beraten, einen Rundumschlag gegen die „Leugner des Klimawandels“ zu führen und sie mit denen zu vergleichen, die im Mittelalter glaubten, dass die Erde eine Scheibe ist. Unter dem Hinweis, dass sich die Klimaexperten einig seien, dass sich Kohlenstoffdioxid und andere Treibhausgase „als Schicht um die Erde anreichern und wie eine Art Gewächshaus die Sonnenenergie festhalten“ polterte er lautstark: „Wir haben einfach keine Zeit, um ein paar lautstarke Interessengruppen die Debatte an sich reißen zu lassen.“ Eine kleine Gruppe „schlechter Wissenschaftler und Ideologen“ dürfe nicht wissenschaftliche Tatsachen infrage stellen.

Im Schutz einer vermeintlichen Meinungsmehrheit ist leicht agieren, aber ist Mehrheit, ist Konsens ein wissenschaftliches Argument? Ich habe für diesen Vortrag zwei Bücher herangezogen: 1. Stefan Rahmstorf und Hans Joachim Schellnhuber, Der Klimawandel (2012); 2. Sven Plöger, Gute Aussichten für morgen. Wie wir den Klimawandel bewältigen und die Energiewende schaffen können (2012). Herausgeber dieses Buches ist die Bundeszentrale für politische Bildung. Sven Plöger ist ein ARD-bekannter Meteorologe und soll die Klimapolitik der Bundesregierung argumentativ in der Bildungspolitik stützen. Er bekennt: „Auch wir, die wir „vom Fach“ sind müssen uns einer Prüfung gefallen lassen.“ Das werde ich tun, sozusagen in einer Art Peer-Review-Verfahren. Seien Sie gespannt. Schellnhuber und Rahmstorf sind wohlbekannter Physiker. Sie leiten das PIK, das Potsdam-Institut für Klimafolgenforschung. Beide sind auch im WBGU, dem „Wissenschaftlichen Beirat Globale Umweltveränderungen“. Dieser wird von Professor Dr. Schellnhuber geführt und propagiert offen die „Große Transformation“. Sie schreiben: „Nach Lektüre dieses Buches wird der Leser hoffentlich unserer Ansicht zustimmen, dass die Bewältigung des Klimawandels einer Feuertaufe für die im Entstehen begriffene Weltgesellschaft darstellt.“ Ich kann dieser Ansicht nicht zustimmen.

Aber nun ins Detail. Was sagen uns die Klimaexperten Rahmtorf und Schellnhuber? „Das Klima unseres Heimatplaneten hat immer wieder spektakuläre Wandlungen durchgemacht. In der Kreidezeit (vor 140 bis 65 Millionen Jahren) stapften selbst in arktischen Breiten riesige Saurier durch subtropische Vegetation, und der CO2-Gehalt der Atmosphäre war ein Vielfaches höher als heute. Dann kühlte sich die Erde langsam ab und pendelt nun seit zwei bis drei Millionen Jahren regelmäßig zwischen Eiszeiten und Warmzeiten hin und her.“ (S.9) Einige Seiten weiter heißt es: „Die Daten zeigen zwei Phasen mit niedrigem CO2-Gehalt: die jüngere Klimageschichte der vergangenen Millionen Jahre und einen Zeitraum vor 300 Millionen Jahren. Ansonsten lag der CO2-Gehalt zumeist wesentlich höher, über 1000 ppm (parts per million).“ (S.17) Einige Seiten später: „Die Klimageschichte hat auch handfeste Überraschungen zu bieten. Im Verlauf der letzten Eiszeit kam es über zwanzigmal zu plötzlichen, dramatischen Klimawechseln. Innerhalb von nur ein bis zwei Jahrzehnten stieg in Grönland die Temperatur um bis zu 12°C an und blieb dann mehrere Jahrhunderte warm.“ (S.23) Dann beschreiben Sie das Klima des Holozäns, „der Warmzeit, in der wir seit 10 000 Jahren leben. Das Holozän ist nicht nur durch ein warmes, sondern auch durch ein vergleichsweise stabiles Klima gekennzeichnet.“ (S.25)

Doch wie sieht das „stabile Klima“ aus? Ich zitiere: „Von besonderem Interesse sind die Klimaschwankungen der letzten Jahrtausende, sind sie uns doch historisch am nächsten. Ein interessantes Beispiel ist das Schicksal der Wikingersiedlung in Grönland. Daten vom nächstgelegenen Eisbohrkern Dye 3 im Süden Grönlands zeigen, dass das Klima dort besonders warm war, als Erik der Rote im Jahr 982 seine Siedlung gründete. Doch die guten Bedingungen hielten nicht an, sondern sie verschlechterten sich in den folgenden 200 Jahren immer mehr. Eine vorübergehende Warmphase im 13. Jahrhundert gab nochmals Hoffnung, aber im späten 14. Jahrhundert war das Klima so kalt geworden, dass die Siedlung wieder aufgegeben werden musste. Erst in der Mitte des 20. Jahrhunderts wurden die warmen Temperaturen des Mittelalters in Südgrönland wieder erreicht.“ (S.26) Wenige Seiten vorher heißt es: „In den letzten Eiszeitzyklen haben die Kaltphasen meist viel länger angehalten (~90 000 Jahre) als die Warmphasen (~10 000 Jahre). Wenn das auch für das Holozän gälte, müsste es bald zu Ende sein.“ (S.21)

Zum Schluss des Kapitels „Klimageschichte“ eine Wertung der Autoren: „Die Klimageschichte belegt vor allem die dramatische Wechselhaftigkeit des Klimas. Das Klimasystem ist ein sensibles System, … zudem ein nichtlineares System, das … zu sprunghaften Änderungen neigt. Das Klima ist kein „träges Faultier, sondern gleicht einem wilden Biest“, wie es der bekannte amerikanische Klimatologe Wallace Broeker einmal formulierte.“ Dabei hatten sie am Anfang des Kapitels noch frohlockt: „Zum Glück ist die Berechnung von Klimagrößen (also Mittelwerten) einfacher als die Wettervorhersage, denn Wetter ist stochastisch und wird stark durch Zufallsschwankungen geprägt, das Klima dagegen kaum.“ Was heißt das im Klartext? Den Klimaverlauf zu rekonstruieren, bedeutet keineswegs, ihn auch ursächlich erklären zu können. Daher auch die Ungenauigkeiten und Widersprüche. Trotz der statistischen Mittelung übertragen sich die „Zufallsschwankungen“ des Wetters auf das Klima und spiegeln sich in dessen Schwankungen wider!

Haben Sie genau zugehört? Sind Ihnen die zahlreichen Widersprüche aufgefallen? Es ist schlimmer, man schreibt ein Buch über den „Klimawandel“ und erwähnt mit keinem Wort, was Klima bedeutet und wie Klima definiert ist. Klima ist statistisch vom Wetter abgeleitet und daher ein Abstraktum, ein rein wissenschaftliches Konstrukt ohne reale Existenz. Natürlich ist es leichter, „Mittelwerte“ aus vergangenen Wetterdaten zu berechnen, als Wettervorhersagen zu machen. Die Definition von Klima sagt aber auch, dass die einzig sinnvolle Darstellung des Klimaablaufs darin bestünde, gleitende 30-jährige Mittel zu zeichnen, um die Schwankungen des Wetters in der Zeit, wenn auch geglättet, zu verfolgen. Doch dies wird bewusst unterlassen, um ständig neue Anomalien zu konstruieren, wie jetzt wieder im Fünften Sachstandsbericht des IPCC der am 31. März 2014 in Yokohama der Öffentlichkeit präsentiert wurde. Das Papier für „politische Entscheidungsträger“ beginnt mit dem rätselhaften aber furchterregenden Satz: „Die Erwärmung des Klimasystems ist eindeutig, und viele dieser seit den 1950 Jahren beobachteten Veränderungen sind seit Jahrzehnten bis Jahrtausenden nie aufgetreten.“ Ohne konkrete Angaben, ohne geringsten Beweis werden Behauptungen in die Welt gesetzt, um Panikstimmung zu erzeugen. Deswegen hat der Klimaökonom Richard Tol demonstrativ seine Unterschrift zurückgezogen.

In dem Teilbericht 1 „Wissenschaftliche Grundlagen“ wird festgestellt, dass Klimadaten seit Mitte des 19. Jahrhunderts vorliegen, aber erst seit den 1950er Jahren „in ausreichender Vollständigkeit und Qualität.“ Dennoch wird behauptet: „Die globale Mitteltemperatur in Bodennähe stieg im Zeitraum von 1880 bis 2012 um 0,85°C. Jedes der drei vergangenen Jahrzehnte war wärmer als alle vorhergehenden seit 1850. In der Nordhemisphäre war die letzte 30-jährige Periode (von 1983 bis 2012) die wärmste seit 1 400 Jahren.“ Es gehört schon viel manipulative geistige Energie dazu, um solche Texte zu konstruieren. Was leitet der Weltklimarat IPCC daraus ab? „Risiken für Menschen bestehen durch die Beeinträchtigung von Dienstleistungen der Natur (z.B. durch Extremtemperaturen, Dürreperioden, Überflutungen, Ozeanerwärmung und –versauerung sowie den daraus resultierenden Verlusten an Biodiversität und Produktivität von Ökosystemen und Landwirtschaft) sowie durch Schäden an Infrastrukturen und Landverluste (z.B. durch Meeresspiegelanstieg).“ Solche Texte sind ein Fundgrube für alarmistische Schlagzeilen. Sie werden den Journalisten geradezu in den Mund gelegt!

Weiter der IPCC: „Zunehmender Klimawandel verlangsamt das Wirtschaftswachstum, gefährdet die Ernährungssicherheit, verschärft soziale Ungleichheiten und birgt damit die Gefahr gewaltsamer Konflikte und verstärkter Migrationsbewegungen.“ Das Wetter eine „Dienstleistung der Natur“? Wenn das Wetter uns ärgert, warum verzichten wir nicht einfach auf diese Dienstleistung? Der Mensch ist als „Endprodukt“ von Evolution oder Schöpfung in die Natur gestellt worden und hat es vorteilhaft verstanden, sich bei der Ausbreitung über die Erde stets klug den unterschiedlichsten Wetterbedingungen anzupassen. Doch zurück zum Kapitel „Aus der Geschichte lernen“ von Rahmtorf und Schellnhuber. Sie sprachen von den „spektakulären Wandlungen des Klima“, dem „Vielfach höheren CO2-Gehalt der Luft“ und fuhren dann fort: „Dann kühlte sich die Erde langsam ab…“ Die Frage „Warum“ ließen sie offen. Wieder ohne Erklärung schreiben sie im gleichen Kapitel: „dreht man am CO2 (wie derzeit der Mensch), so folgt wenig später die Temperatur“. Doch wie konnten Menschen am CO2 drehen,  lange bevor es sie gab? Man muss genau lesen, um solche Feinsinnigkeiten nicht zu überlesen.

Hätten die Experten doch nur den Ersten Bericht der Enquete-Kommission „Vorsorge zum Schutz der Erdatmosphäre“ vom 2. November 1988 gelesen, dem der Bundestag einhellig zugestimmt hat. Darin steht: „Die Gase in der Atmosphäre absorbieren die IR-Strahlung der Erdoberfläche in den meisten Spektralbereichen stark, in einigen dagegen nur geringfügig, wie etwa im Spektralbereich 7 bis 13µm. In diesem Bereich stammt der größte Teil der IR-Strahlung von der Erdoberfläche. Er wird als „offenes atmosphärisches Strahlungsfenster“ bezeichnet, da hier am wenigstens Wasserdampf- und Kohlendioxidabsorption stattfindet. 70 bis 90% der Abstrahlung der Erdoberfläche gelangen hier direkt in den Weltraum“ (S.371). Sodann heißt es: „Der Treibhauseffekt durch CO2 wird im wesentlichen durch seine Absorptionsbande bei 15 µm bewerkstelligt.“ Dies ist die Erklärung dafür, dass die Erde sich auch trotz einer Atmosphäre, die Unmengen von Wasserdampf und CO2 enthielt, abkühlen konnte, unter die kritische Temperatur von 100°C (373 K). Bei Unterschreiten der 100°C begann der Wasserdampf zu kondensieren. Erstmals bildeten sich Wolken. Es setzten sintflutartige Regenfälle ein, denen die Ozeane ihre Existenz verdanken. Warum? Das „Strahlungsfenster“ war offen, ist offen und wird offen bleiben! Die Erde ist kein Treibhaus und das ist die Überlebensgarantie für Fauna und Flora, für alles Leben auf Erden. Kritisch wird es für alles Leben erst, wenn manche Wunschträume nach einer „CO2-freien Atmosphäre“ Wirklichkeit würden. Dann würde bei der Photosynthese ein notwendiges Glied fehlen. Das CO2 ist ein Grundnahrungsmittel und kein „Umweltgift“! Ohne diesen „Schadstoff“ würde den grünen Pflanzen die Existenzgrundlage entzogen, würde das Symbol der „Grünen“, die Sonnenblume, sterben. Man sieht es auch beim Wasser. Fehlt dieses, dann vertrocknen die Pflanzen, mag der CO2-Gehalt der Luft noch so hoch sein. CO2, H2O und das Sonnenlicht sind unverzichtbar für grüne Pflanzen. Fehlt ein Faktor, dann gibt es keine Nahrungs- und Sauerstoffproduktion mehr. Allem Leben auf der Erde wäre die Existenzgrundlage entzogen.

Ziehen wir wieder Sven Plöger hinzu. Er beschreibt, dass die „zweite Atmosphäre“ wahrscheinlich zu „70% aus Wasserdampf und zu 25% aus Kohlendioxid“ bestand und fährt fort: „Der junge Planet kühlte sich weiter ab, und deshalb konnte der Wasserdampf nun kondensieren: Die wohl längste „Schlechtwetterperiode“ auf Erden setze ein. Etwa 40 000 Jahre hat es durchgeregnet, aber kräftig. Rund 3000 Liter Wasser fielen pro Tag auf jeden Quadratmeter… Infolgedessen entstanden unsere Ozeane.“ Die folgende „dritte Atmosphäre“ bestand hauptsächlich aus Stickstoff und Kohlendioxid, bevor Cyanobakterien (Blaualgen) als Vorstufe der grünen Pflanzen begannen, Photosynthese zu betreiben und dabei Sauerstoff abzugeben. Die Begrünung der Landmassen begann schließlich vor rund 440 Millionen Jahren. Heute leben wir in der „vierten Atmosphäre“ mit 28% Stickstoff, 21% Sauerstoff und 0,04% (400 ppm) Kohlenstoffdioxid. (S.47) Sven Plöger nennt einige Zahlen, um ein „Gefühl für CO2-Konzentrationen“ zu geben: Die Bedingungen für unsere Pflanzen wären bei 1000 ppm ideal; die maximale Arbeitsplatzkonzentration liegt bei 5000 ppm; die Luft, die wir ausatmen, enthält 40 000 ppm; Bewusstlosigkeit und Tod treten ab 80 000 ppm ein.

Sven Plöger verhält sich stets „politisch korrekt“, aber sein Buch enthält Stolpersteine, die zum Nachdenken anregen. Beispiel: „Wetter können wir mit unseren Sinnesorganen fühlen, es zu erleben löst unmittelbar Empfindungen in uns aus. Wetter ist uns emotional sehr nah. Klima hingegen ist Statistik und die können wir nicht fühlen. Deshalb ist das Klima uns emotional fern.“  Weiter: „Das gemittelte Wetter ist also kein Normwetter. So etwas gibt es nicht. Beim Wetter ist die Abweichung von der Norm die Norm!“ Doch dann macht er den Klima-Salto: „Das statistische Konstrukt ist jedoch unglaublich hilfreich und notwendig, denn man kann sich schließlich nicht alle Wetterlagen über alle Ewigkeiten merken.“ (S.21) Das Klima als lebloses statistisches Konstrukt wird politisch instrumentalisiert, um mit der Drohung vor der Klimakatastrophe mit zunehmendem Extremwetter Klimaängste zu schüren und zum Klimaschutz aufzufordern. Dieser apokalyptischen Argumentation  folgt haargenau der Weltklimarat IPCC. Welcher geängstigte Mensch merkt, dass da falsche Propheten am Werk sind, die klammheimlich Ursache und Wirkung vertauscht haben? Das Wetter ist und bleibt die Ursache für jedweden Klimawert. Veränderungen beim Wetter ziehen Veränderungen beim Klima nach sich.

Kommen wir nun zu dem alles entscheidenden Punkt, dem Treibhauseffekt und der Klimasensitivität. Nach Rahmstorf und Schellnhuber ist er „ein ganz natürlicher Vorgang“, der „sogar lebensnotwendig“ ist. Wörtlich: „Eine einfache Rechnung zeigt die Wirkung. Die ankommende Sonnenstrahlung pro Quadratmeter Erdoberfläche beträgt 342 Watt. Etwa 30% werden reflektiert, es verbleiben 242 Watt/m2, die teils in der Atmosphäre, teils von Wasser- und Landflächen absorbiert werden. Ein Körper, der diese Strahlungsmenge abstrahlt, hat nach dem Stefan-Boltzmann-Gesetz der Physik eine Temperatur von -18°C; wenn die Erdoberfläche im Mittel diese Temperatur hätte, würde sie also gerade so viel abstrahlen, wie an Sonnenstrahlung ankommt. Tatsächlich beträgt die mittlere Temperatur an der Erdoberfläche aber +15°C. Die Differenz von 33 Grad wird vom Treibhauseffekt verursacht, der daher erst das lebensfreundliche Klima auf der Erde möglich macht.“ (S.31) Diese Rechnung ist in der Tat einfach, und zwar einfach falsch, weil sie an der Wirklichkeit vorbei geht.

Jetzt muss ich mit Sven Plöger „Halt, stopp, langsam!“ rufen. Wie konstruiert er den Treibhauseffekt? Er erwähnt zuerst, dass unsere Erde rund 150 Millionen Kilometer von der Sonne entfernt ist, der Abstand aufgrund der elliptischen Erdbahn zwischen  147 und 152 Millionen Kilometer pendele, die Erde im Mittel eine Energie von rund 1370 W/m2 erhalte. Nun seine Rechnung: „Von diesen im Mittel 1370 W/m2 steht der Atmosphäre durch die Tatsache, dass die Erde sich dreht und wir damit die Hälfte der Zeit von der Sonne abgewandt sind, und dadurch, dass die Erde eine Kugel ist, nur ein Viertel zur Verfügung: also 342 W/m2. 107 W/m2 davon verschwinden durch Streuung und Reflexion an Atmosphäre und Erdboden ungenutzt wieder ins Weltall. Die verbleibenden 235 W/m2 erwärmen im Schnitt zu 30 Prozent die Atmosphäre, und zwar durch Absorption an Wolken, Wasserdampf, Staub und Ozon. Gute 70 Prozent werden von der Erdoberfläche absorbiert. Und genau diese durch Absorption entstandene Wärme strahlt der Erdboden seinerseits wieder ab.“ (S.39)

Beide Rechnungen sind mathematisch korrekt, doch physikalisch völlig abwegig. Plöger geht noch halbwegs von der Wirklichkeit aus und erwähnt, dass die Erde eine „Kugel“ ist und die Hälfte der Zeit von der Sonne abgewandt ist. Dann muss sie der andere Hälfte der Zeit der Sonne zugewandt sein. Das bedeutet, die der Sonne zugewandte Seite erhält 1370 W/m2, die andere Seite erhält 0 W/m2. Hebt man Tag und Nacht auf, was theoretisch denkbar aber unsinnig ist, und verteilt die Strahlung gleichmäßig auf beide Erdhälften, dann ergäbe die Halbierung 685 W/m2. Dass die Erde eine Kugelform hat und immer die Hälfte von der Sonne beschienen wird, zeigt jedes Sattelitenfoto. Um ein Viertel der Erde zu bestrahlen, müsste man diese am Äquator aufschneiden und die Schnittfläche der Sonne zuwenden. Diese Querschnittfläche ist eine Kreisfläche (πr2), die ein Viertel der Kugelfläche (4πr2) beträgt. Die Erde ist aber keine „Scheibe“, sondern eine rotierende „Kugel“, die immer zur Hälfte von der Sonne bestrahlt wird. Die Verteilung der Sonnenstrahlung durch 4-Teilung der „Solarkonstanten“ vom Kreis auf die Kugel macht die Sonne rechnerisch „kalt“. Aber auf solch unhaltbare Annahmen einen „Treibhauseffekt“ samt „Hitzekollaps“ zu konstruieren, ist kein Ruhmesblatt. Es ist nach Prof. Dr. Zbigniew Jaworowski „der größte Wissenschaftsskandal unserer Zeit“. Naturwissenschaftler, welche von solch widernatürlichen Annahmen ausgehend einen „natürlichen Treibhauseffekt“ ableiten, mögen zwar politisch verdienstvoll sein und gut verdienen, aber den Namen „Naturwissenschaftler“ verdienen sie nicht.

Rechnen Rahmstorf und Schellnhuber mit ihren Tricks die Strahlkraft der Sonne auf 242 W/m2 und damit die Erdtemperatur auf -18°C herunter, so geht Plöger noch ein Stück weiter. Er behauptet, dass von den verbleibenden 235 W/m2 nur 70% von der Erdoberfläche absorbiert werden und das wären etwa 165 W/m2. Die Erde wäre eisiger als eisig! Wenn die Analogie von Rahmstorf und Schellnhuber stimmt, dass ein Körper, der mit 242 W/m2 ausstrahlt, eine Temperatur von -18°C hat, dann muss ein Körper mit einer Temperatur von +15°C eine Energie von 390 W/m2 abstrahlen. An dem Punkt bricht das ganze Erklärungsgebäude wie ein Kartenhaus in sich zusammen. Wie kann eine Erde, die 242 W/m2 in die Atmosphäre abstrahlt, aus dieser eine Gegenstrahlung von 390 W/m2 empfangen, um eine Temperatur von 15°C zu haben? Dieses Wunder soll in etwa 6 km Höhe geschehen, wo sich angeblich die „Treibhausgase“ sammeln, um eine Art Spiegel zu bilden. Aber auch ein Spiegel könnte nur 242 W/m2 widerspiegeln! Da die Temperatur um 6,5°C pro Kilometer Höhe abnimmt, ist es unwahrscheinlich, dass dort ein Heizstrahler existiert, der mit 390 W/m2 strahlt und die „Globaltemperatur“ von 15°C erzeugt. Plöger führt seine Argumentation selbst ad absurdum, indem er sagt, dass die Wärmestrahlung der Erde „aus dem Erdboden“ hervorgehe, „unsere Atmosphäre vor allem von unten erwärmt wird. Deshalb ist es in der Höhe kälter als im Flachland“. Ja, in dem Treibhaus geht es gedanklich zu wie im Tollhaus.

Noch toller ist die Argumentation beim „anthropogenen Treibhauseffekt“, der auf dem „natürlichen Treibhauseffekt“ aufbaut. Plöger beziffert den „energetischen Beitrag des menschengemachten Treibhauseffektes“ mit 2,5 W/m2. Rahmstorf und Schellhuber geben die „Klimasensitivität“ oder den Strahlungseffekt bei Verdopplung des CO2-Gehalts von 280 auf 560 ppm mit 3-4 W/m2 an. Dabei war Sven Plöger auf der richtigen Fährte, als er den Begriff „Solarkonstante“ als gewagt ansah und auf den wechselnden Abstand der Erde von der Sonne hinwies. Im Aphel Anfang Juli beträgt dieser 152,5 und im Perihel Anfang Januar 147,5 Millionen km. Ist den Klimaexperten das 1/r2-Gesetz unbekannt, das für alle Energiegrößen und auch die Gravitation gilt? Danach nimmt die elektromagnetische Sonnenstrahlung, d.h. die Leistung pro Fläche mit dem Quadrat der Entfernung ab oder zu. Dies bedeutet, dass die „Solarkonstante“ gar nicht konstant sein kann, sondern um 3,5% um den Mittelwert zwischen Perihel und Aphel schwankt. Anfang Januar erhält die Erde 1416 W/m2 und Anfang Juli nur 1320 W/m2. Global betrachtet müsste es nach Rechnung der Klimaexperten im Januar wesentlich wärmer sein als im Juli. Geht man von einer „Klimasensitivität“ von 4°C bei 4 W/m2 aus, so müsste vom Juli bis zum Januar die „Globaltemperatur“ zunehmen und vom Januar bis zum Hochsommer abnehmen. Wer diesen Gedankengang bezweifelt, den verweise ich gerne auf das Buch „Physical Climatology for Solar and Wind Energy“ von Rodolfo Guzzi und Carl Gerald Justus (Singapore 1988).

Es gäbe noch viele, sehr viele weitere Ungereimtheiten zwischen Modellannahmen und der Wirklichkeit hervorzuheben, aber das würde bei weitem den Zeitrahmen sprengen. Nur noch einen Punkt: Rahmstorf und Schellnuber fragen, „Was bestimmt das Klima?“ und antworten: „Unser Klima ist im globalen Mittel das Ergebnis einer einfachen Energiebilanz: Die von der Erde ins All abgestrahlte Wärmestrahlung muss die absorbierte Sonnenstrahlung im Mittel ausgleichen.“ (S.12) Muss sie das? Nein! Auch diese Annahme ist wirklichkeitsfern, haben doch beide Energieströme eine völlig andere Qualität und sind daher quantitativ nicht vergleichbar. Sonne und Erde haben extrem unterschiedliche Temperaturen, so dass die Annahme eines „Strahlungsgleichgewichtes“ zwischen Sonne und Erde völlig absurd ist. Dies bestätigen sogar indirekt Rahmstorf und Schellnhuber: „Die Oberfläche strahlt, wie jeder physikalische Körper, Wärme ab – je höher die Temperatur, desto mehr.“ Dies ist Inhalt aller Strahlungsgesetze, seien sie von Stefan-Boltzmann, Wilhelm Wien und Max Planck. Die Wärmestrahlung eines Körpers nimmt proportional der 4. Potenz der absoluten Temperatur zu oder ab. Es ist unsinnig, zwischen zwei Körpern mit 6000K und 300K ein „Strahlungsgleichgewicht“ zu postulieren. Unter welchen Bedingungen sich dieses theoretisch einstellt, zeigte 1809 Pierre Prévost, der schon 1791 herausfand, dass alle Körper Wärme ausstrahlen, egal ob warm oder kalt. Und was die Erde betrifft, so gehen etwa 30% der Solarstrahlung gar nicht in die Erderwärmung, sondern in die Erdkühlung. Sie gehen direkt in die H2O-Verdunstung, mit der der Wasserkreislauf aufrechterhalten wird. Denn noch wichtiger als die Temperatur ist das Wasser für alles Leben.

Die Oberfläche der Erde strahlt rund um die Uhr, bei Tag und bei Nacht, Wärme ab.  Kein Körper, auch nicht die Erde, kann sich von selbst erwärmen. Er muss erwärmt werden. Dafür ist die Sonne da, die Licht und Wärme zur Erde strahlt. Deswegen haben wir bei klaren Nächten, wenn das „Strahlungsfenster“ nicht durch Wolken zugehängt ist, auch frühmorgens die tiefsten Temperaturen, und zwar direkt am Erdboden, wo sich Lithosphäre und Atmosphäre berühren. Dies war sehr gut bei den vielen wolkenarmen Hochdruckwetterlagen heuer im März zu beobachten. Am 11. März 2014 wurden in Oppenheim am Rhein morgens um 6 Uhr gemessen: Bodentemperatur 2,9°C in 5 cm Tiefe, in 20 cm Höhe -0,7°C und in 200 cm Höhe 3,0°C. Am 12. März wiederholte sich das: Boden 3,0°C, 20 cm -1,3°C, 200 cm 1,5°C. Fazit? Von der erwärmenden Wirkung der Gegenstrahlung am Boden keine Spur! Mittags um 14 Uhr war die Bodeninversion weggeheizt. Am 11. wurden in 20 cm Höhe 18,2°C und in 200 cm 17,1, am 12. in 20 cm 17,6°C und in 200 cm 16,4°C gemessen. Diese Temperaturschichtung ist wichtig, denn ohne diese Erwärmung von unten würde die Luft nicht thermisch aufsteigen, könnten sich keine Haufen- oder Konvektionswolken am Himmel bilden, gäbe es keine Schäfchenwolken, Schauer und Gewitter. Leider gibt es keine direkten Temperaturen von der Erdoberfläche oder zumindest in 2 cm Höhe. Dann würde noch deutlicher werden, dass die Sonne zwar die Energiequelle für alles Leben wie die Luftbewegungen ist, dass aber der Boden am Tage die Heizfläche und in der Nacht die Kühlfläche für die aufliegende Luft ist.

0 0 1 3996 25178 Management Consult 209 58 29116 14.0 Normal 0 21 false false false DE JA X-NONE

Der Vergleich „Erde = Treibhaus“ ist von Grund auf falsch! Das „Treibhaus“ ist ein Angst machendes ideologisches Gebilde, vergleichbar der „Hölle“! Die Erde ist ganz im Gegensatz ein „offenes Ökosystem“ mit allzeit offenen Strahlungsfenstern, sowohl für die solare als auch die terrestrische Strahlung! Wie die Erdgeschichte zeigt, verdanken wir die „Sintflut“ und dem solar getriebenen Wasserkreislauf auf der Erde mit einem „Globalniederschlag“ von 1000 mm Regen der Nichtexistenz des angeblich „natürlichen Treibhauseffektes“.

Dipl.-Met. Dr. phil. Wolfgang Thüne




Soeben erschienen: NIPCC Climate Change Reconsidered II: Biological Impacts

Einführung

Der Einfluss des Menschen auf das globale Klima ist klein, und jede Erwärmung , die als Ergebnis der menschlichen Emissionen von Kohlendioxid (CO2) und anderen Treibhausgasen auftreten könnten, haben wahrscheinlich wenig Einfluss auf die globalen Temperaturen, die Kryosphäre (Eis bedeckten Flächen), Hydrosphäre ( Ozeane, Seen und Flüsse ) oder das Wetter. (Siehe Abbildung 1 ).

Climate Change Reconsidered II : Biologische Auswirkungen ( CCR – IIb) , (hier)

Der Gegenstand der vorliegenden Zusammenfassung für Entscheider in der Politik, untersucht die wissenschaftliche Forschung über die Auswirkungen der steigenden Temperaturen und der atmosphärischen CO2- Konzentration auf die biologische Welt (Idso et al. , 2014). Es sind keine Netto- Schäden für die globale Umwelt oder die menschliche Gesundheit feststellbar, aber man findet oft das Gegenteil: Nämlich Netto-Vorteile für die Pflanzen, darunter wichtige Nahrungspflanzen und -Tiere und die menschliche Gesundheit. ( Siehe 2. )

Climate Change Reconsidered II : Biologische Auswirkungen

ist der zweite von drei Bänden in der „Climate Change Reconsidered Reihe“ die vom Nichtstaatlichen International Panel on Climate Change ( NIPCC ) erstellt wurde . Gemeinsam stellen sie die umfassendste und unabhängigste Überprüfung der Klimawissenschaft dar, unter Nutzung jeder möglichen wissenschaftlichen Quelle . Sie wurden zusammgestelt um als Alternative zu den alarmierenden Berichten des UN Intergovernmental Panel on Climate Change (IPCC) verfügbar zu sein .

Der erste Band der Climate Change Reconsidered Reihe II-Serie mit dem Untertitel Physical Science , wurde im September 2013 veröffentlicht. Er zeigte, dass es keine gefährlichen menschlichen Eingriffe in das Erd-Klima gibt. Dieses Ergebnis ist an sich schon logisch ausreichend, um fast alle negativen Klima bezogene Auswirkungen, wie vom IPCC vorhergesagt, zu streichen. Dennoch gibt es eine umfangreiche Literatur zu den Auswirkungen, Kosten und Nutzen von steigende Temperaturen und atmosphärischen CO2-Konzentrationen, die zeigen, dass Klimawandel, ob natürlich oder künstlich, keine Krise ist . 

Climate Change Reconsidered II : Biologische Auswirkungen

Experten zu den biologischen Auswirkungen sichteten fachmännisch die gegenwärtige Literatur.

Climate Change Reconsidered II  Biological Impacts  (hier der ganze Bericht) verfolgt weitgehend und kritisiert die Arbeit der IPCC -Arbeitsgruppe II, die zeitgleich  ihren Bericht über die Auswirkungen des Klimawandels um die gleiche Zeit wie dieser Bericht vorgestellt hat. Es scheint, das das IPCC ihr Verhalten der selektiven Berichterstattung fortsetzt, um der Politik der Panikmache zu den Auswirkungen des Klimawandels weiter folgen zu können.

CCR-IIb ist ein 1,062-Seiten Report co-authored and co-edited durch Dr. Craig Idso, Dr. Sherwood Idso, Dr. Robert Carter, and Dr. S. Fred Singer,  die mit einem Team von mehr als 30 Wissenschaftler aus 13 Ländern daran gearbeitet ahben. Sie kommen zu dem Schluss, dass die Wissenschaft zeige, dass steigende Temperaturen und atmosphärischen CO2-Konzentrationen "keine Netto Schaden für die globale Umwelt oder die menschliche Gesundheit verursachen aber man  oft das Gegenteil findet:Nettonutzen, für Pflanzen, darunter wichtige Nahrungspflanzen und Tiere und menschliche Gesundheit"




Zwei Seiten derselben Medaille!

Vor ein paar Tagen titelten die deutschen Wirtschaftsnachrichten: Max Planck-Ökonom: „Energiewende grenzt an Selbstmord“. Wenige Tage später schreiben die WiWo Green: Grünen Vordenker zieht Bilanz: „Die Energiewende ist ein voller Erfolg“.

Und recht haben beide. Denn während der Ökonom  Axel Börsch-Supan vom Max Planck-Institut für Sozialpolitik die reale Situation vor Augen hat und sieht der Grüne EEG Erfinder Hans-Josef Fell schon die erwünschte Zukunft, denn ökonomischer Selbstmord ist für viele Grüne das Traumziel, das es zu erreichen gilt. Denn nur dann kann der Mensch dem „Konsumterror“ entfliehen und im „Einklang mit der Natur“ leben. Das hat zudem den von vielen erwünschten Nebeneffekt, dass sich der Mensch als Störfaktor der Natur selbst stark dezimiert. Und da kommt die „Energiewende“ gerade recht.

Wer einen Einblick in die Gedankenwelt von grünen Weltenrettern nehmen will, lese das ganze Interview mit Hans-Josef Fell in WiWo Grün. Hier ein paar Auszüge

WiWo-Green: Viele Kritiker meinen, die Energiewende habe mit der von Ihnen angesprochenen Ökonomie überhaupt nichts zu tun. Schließlich wird Ökostrom zu einem staatlich festgesetzten Preis ins Netz eingespeist. 

Fell: Die Wirtschaftlichkeit der Erneuerbaren kommt mit der Technikentwicklung automatisch, wir haben sie durch das EEG nur massiv beschleunigt. Es wird zunehmend attraktiver, Wind- und Solaranlagen jenseits der EEG-Gesetzgebung zu bauen. Die Einspeisevergütung wird sich also nach und nach selbst abschaffen.

WiWo-Green: Aber billiger als Braunkohle sind Wind und Sonne noch nicht.

Fell: Wind- und Sonnenstrom sind schon lange billiger als Kohleenergie, aber eben nicht am Markt. Die externen Kosten, die durch Klima- und Gesundheitsschäden entstehen, sind nicht einberechnet. Die Politiker haben es nicht geschafft, diese Schadenskosten in den Markt zu integrieren. Aber selbst ohne Einberechnung der externen Kosten bei den Fossilen werden Sonne und Wind jetzt allmählich wettbewerbsfähig. 

WiWo-Green: Da wenden viele Kritiker ein, dass wir für die Erneuerbare-Energien-Anlagen doch auch noch Speicher brauchen – und neue Netze und Kraftwerke, die einspringen, wenn mal kein Wind weht. Das wird teuer.

Fell: Wir haben aber früher auch mit zwei D-Mark pro Kilowattstunde die Spitzenlast aus Pumpspeicherkraftwerken erzeugt. Das ist also nichts Neues, dass Strom teuer ist, wenn es einen hohen Bedarf gibt. Diese Pumpspeicherkraftwerke sind teuer, aber sie wurden trotzdem gebaut, so dass sie nachts Atomstrom aufnehmen konnten, den niemand brauchte. Neue Netze und Speicher sind nicht umsonst. Aber Atomkraftwerke waren es auch nie. Deren Kosten werden die gesamte Gesellschaft noch Jahrzehnte verfolgen, zum Beispiel bei der Müllentsorgung.

Abb. 1: Verlauf der „Erneuerbaren Energie“ Produktion und Elektroenergie bedingte CO2 Emissionen. Auffällig ist keinerlei Veränderung der CO2 Emissionen, trotz 3,5 facher Steigerung der Produktion „Eneuerbarer“ Energie. Quelle Statista Erhebung durch BDEW, Statistisches Bundesamt, AGEB

Fell: ….Wenn wir uns das ganze System ansehen und die volkswirtschaftlichen Gesamtkosten betrachten, sind Erneuerbare billiger als Atomstrom und Kohle…. Durch den Einsatz Erneuerbarer Energien hingegen konnten im Jahr 2011 Umwelt- und Gesundheitsschäden in Höhe von elf Milliarden Euro vermieden werden…usw. usw…

Dazu ein Zitat des Grünen Vordenkers und Autor des Weltbestsellers "Die Bevölkerungsbombe" Paul Ehrlich:

"Der Gesellschaft billige, reichliche Energie zu geben ist das Gleiche wie einem idiotischen Kind ein Maschinengewehr zu geben."

(Paul Ehrlich zitiert von R. Emmett Tyrrell in "The American Spectator", 6. September 1992)

 

Abb. 2. Verlauf der Brutto Elektro-Energie Produktion und Elektroenergie bedingte CO2 Emissionen. Auffällig ist der unbedingte Gleichlauf beider Größen. Quelle Statista Erhebung durch BDEW, Statistisches Bundesamt, AGEB

Der Max Plank Wissenchaftler sieht das realsitischer, nämlich von der Warte der Betroffenen, die die Energiewende bezahlen müssen und dazu noch ihren Job verlieren könnten oder bereits verloren haben.

„Die große Koalition schwächt mit ihrer Politik den Wirtschaftsstandort Deutschland. Das gilt insbesondere für die Energiewende, die an Selbstmord grenzt. Aber auch in der Beschäftigungs- und Sozialpolitik werden die Reformerfolge der Agenda 2010 verfrühstückt. Sozialleistungen müssen nun einmal aus dem Bruttoinlandsprodukt bezahlt werden. Dieser Grundsatz wird gerade mit Füßen getreten.”

Ähnlich harte Worte kommen aus dem Ifo-Institut. Ifo-Chef Hans-Werner Sinn bezeichnete die Energiewende in dem Blatt als einen „unfassbar teuren Irrweg“.

Marc Tüngler, Hauptgeschäftsführer der deutschen Schutzvereinigung für Wertpapierbesitz, bezeichnet die Energiewende als „Planwirtschaft ohne Plan mit falschen Anreizen, die die Energiewende für die Wirtschaft und Bürger unnötig unerträglich teuer macht”.




EEG – wie man Menschen herabwürdigt.

„Apropos Strompreis. Wie zum Beispiel finden Sie dies? Ein Ökonom sagt, das Unternehmen Deutsche Bahn könne (noch) höhere Strompreise gut verkraften (hier). Woher der Ökonom das weiß? Ganz einfach: Die Bahn kann die zusätzliche Verteuerung auf ihre Fahrpreise aufschlagen, also auf ihre Kundschaft abwälzen. So nämlich begründet der Ökonom, wessen er sich gewiss ist. Aber es geht bei der weiteren Stromverteuerung nicht bloß um die Bahn, der Ökonom nennt sie nur als pars pro toto für alle Unternehmen, die Strom fürs Geschäft brauchen, und es gibt bekanntlich kein Unternehmen, das keinen Strom braucht. Der Ökonom heißt Heinz Bontrup und arbeitet im Westfälischen Energieinstitut.*) Nach Bontrup werden auch andere Unternehmen die höheren Stromkosten verkraften, weil – wie die Deutsche Apropos Strompreis. Wie zum Beispiel finden Sie dies? Ein Ökonom sagt, das Bahn – auch sie höhere Preise relativ leicht bei ihren Kunden durchsetzen können, jedenfalls dann, wenn sie nicht im internationalen Wettbewerb stehen. Bontrups Botschaft an die Politik lautet: Wenn Strom als Folge der „Energiewende“ immer noch teurer wird, den Unternehmen macht das nichts, sie reichen die Zusatzbelastung einfach weiter. Nicht in den Sinn kommt ihm, ob die privaten Stromverbraucher, ob es die Menschen schaffen, die politisch verursachte, ständige Stromverteuerung zu verkraften. Dummerweise kommen auch sie nicht ohne Strom aus.

Die eigentliche, aber zu Personal degradierte Herrschaft: das Volk

Ja, ja, die Menschen, das Volk, die Wähler – sie kommen auch den Merkels, den Gabriels und all’ den anderen Energiewendehälsen samt den botmäßigen Claqueuren aus Wissenschaft und Wirtschaft nicht in den Sinn. Zwar tönen die Polit-Täter frömmelnd-heuchlerisch „Die Strompreise müssen bezahlbar bleiben“, aber mit dem, was sie tun und anrichten, kümmert sie das Volk nicht, es ist ihnen piep-egal. Dabei sind sie nur das politische Personal, das sich das Volk als dessen Herrschaft hält. So jedenfalls sollte es sein. Die politische Wirklichkeit sieht anders aus: Das Personal hat sich zur Herrschaft aufgeschwungen, und würdigt die Herrschaft zu Personal herab, das degradiert und erniedrigt zu parieren hat. Aber stimmt das Volk seiner Degradierung nicht zu, weil auch seine Mehrheit die Energiewende für notwendig hält? Ja, danach sieht es aus. Doch warum? Weil es desinformiert wird und sich täuschen lässt.

Das Personal tanzt der Herrschaft auf der Nase herum

Am 9. April (Mittwoch) soll das Kabinett Merkel den Gesetzentwurf von Wirtschafts- und Energieminister Sigmar Gabriel (SPD) zur Novelle des Erneuerbare-Energien-Gesetzes (EEG) beschließen. Es wird das sein, worauf sich Merkel, Gabriel und die Länder-Ministerpräsidenten beim Geschacher am späten Abend des 1. April im Bundeskanzleramt verständigt hatten (hier). Leider kein April-Scherz, deutsche Wirklichkeit. Alle Teilnehmer der Runde strahlten hinterher, nur Hannelore Kraft von NRW wohl eher gequält. Der einzige Verlierer: die privaten Stromverbraucher. Klar, keiner von ihnen saß in der Runde mit am Tisch, und hätte einer dort gesessen, alle übrigen wären gegen ihn gewesen, hätten ihn überstimmt. Die Herrschaft war ausgesperrt, das Personal tanzte ihr auf der Nase herum. Auch so drückt sich Menschenverachtung aus.

Wenn Subventionsempfänger Mehrheit werden

Bezeichnend für das Ergebnis der Kanzlerrunde ist, was zwei FAZ-Kommentatoren*) so formuliert haben: „Wer glaubt, bei den Einwänden der Länder – Schleswig-Holstein und Bayern taten sich besonders hervor – sei es um die Energiewende, um Ökologie oder gar um die gebeutelten Stromkunden gegangen, der nimmt das EEG von der falschen Seite wahr. Wenn daran etwas geändert wird, holen die Regierungschefs der Länder nicht das Ökobarometer aus der Tasche, um zu sehen, ob die Änderungen etwas taugen, sondern den Rechenschieber aus dem Finanzministerium. Denn das EEG ist eine Umverteilungsmaschine, die den einen, etwa dem SPD-regierten Schleswig-Holstein, ungeahnte Perspektiven öffnet, den anderen, zum Beispiel dem SPD-regierten Nordrhein-Westfalen, zusätzliche Belastungen bringt.“ Und die andere Feststellung:„Selbst die große Koalition schreckt vor den mächtigen Lobbygruppen der Energiewende zurück. Bundeskanzlerin Angela Merkel beschrieb die Wirkung des EEG vor dem Wirtschaftsrat der CDU einmal so: Man könne daran studieren, wie es sei, wenn Mehrheiten zu Subventionsempfängern würden und nicht mehr bereit seien, die eigene Subvention abzuschaffen.“**) Vulgo: Diese Subventionsempfänger beuten die Stromverbraucher ungehindert aus. Aber die Kanzlerin – wie lautet man noch ihr Amtseid? – tut dagegen nichts, sie spielt mit, könnte sonst vielleicht ihren Job verlieren.

Die Pfründen der Bundesländer auch diesmal wieder gesichert

Ursprünglich sollte es darum gehen, den zusätzlichen Bau von Windkraft- und Fotovoltaikanlagen deutlich zu beschränken und die Ausnahmen der energieintensiven Industrie von der EEG-Umlage EU-konform zu ändern. Michael Limburg vom Europäischen Institut für Klima und Energie (EIKE) kommentierte am 3. April in einer Mail: „Die Ziele wurden nicht erreicht. Die geplante ohnehin nur gering wirkende Deckelung der Zubauraten bei Wind- und Solar wurde mit Auslegungstricks erheblich aufgeweicht. Die Bundesländer sicherten, auch diesmal wieder, ihre Pfründe zu Lasten der Verbraucher. Die vereinbarten Korrekturen liegen daher im kosmetischen Bereich. Der Anstieg der EEG Umlage wird so gut wie ungebremst weitergehen. … Die EEG Umlage treibt die Stromkosten der deutschen Verbraucher immer weiter dramatisch in die Höhe. Schon jetzt gehören sie zu den höchsten in Europa. Seit Beginn des EEG summierten sich die Zahlungen deutscher Netzbetreiber an die Besitzer von „Erneuerbaren“ auf über 120 Milliarden Euro. Von den Verbrauchern bezahlt. Allein 2013 waren es 23 Milliarden. Tendenz stark steigend. Der damit erzeugte Strom war an der Börse nur ein Bruchteil von rund. 15 Prozent davon wert.“

Energiewende bedeutet Kosten ohne Ende

Limburg weiter: „Würde das EEG sofort beendet werden, müssten die Verbraucher immer noch rund 330 Milliarden an die Betreiber zahlen, denn dazu zwingt sie das EEG wegen seiner zwanzigjährigenjährigen Preisfestschreibung samt Abnahmegarantie in unbegrenzter Höhe für denselben Zeitraum. Diese Riesenbelastung wird dazu noch mit jedem Jahr weiter deutlich steigen. Deswegen ist jede zaghafte „Korrektur“ oder „Reform“ nur ein sinnloses herumdoktern an Symptomen. Die Kostenbelastung der deutschen Verbraucher ist schon jetzt immens und für über 600.000 Haushalte bereits nicht mehr tragbar. Gleichzeitig wandern immer mehr Industriearbeitsplätze ins billigere Ausland ab. Deren Zahl liegt bereits bei einigen zehntausend. Auch da ist die Tendenz stark steigend.“ Energiewende bedeutet Kosten ohne Ende. Sehen Sie sich diese Grafik an: hier und auch die Web-Seite der Stromverbraucherschutz-Vereinigung NAEBhier.

Die Strompreisspirale dreht sich weiter nach oben

Nur eine einzige konkurrenzfähige politische Partei tritt bisher dafür ein, das EEG und seine Folgeregelungen ersatzlos abzuschaffen: die noch junge Partei Alternative für Deutschland(AfD)***) – siehe hier. Ebendies empfiehlt auch die Expertenkommission Forschung und Innovation (EFI) in ihrem Gutachten für die Bundesregierung, siehe hier. Doch kritisiert sie nicht den Irrtum, mit Sonne, Wind und „Biogas“ volkswirtschaftlich und ökologisch sinnvoll Strom für das allgemeine Versorgungsnetz produzieren zu wollen, sondern nur das EEG. Die Energiewende steht für sie nicht zur Disposition, wird an keiner Stelle in Frage gestellt. Im Gegenteil, die Kommission beklagt ausdrücklich, mit dem EEG würden die CO2-Emissionen nicht verringert, und damit fehle es an der Wirksamkeit, das Klima im gewünschten Sinn zu beeinflussen. Im Übrigen leistet das Gutachten dem politischen Plan Vorschub, für das Subventionieren der Stromerzeugung mit Sonne, Wind und „Biogas“ ein anderes Entgeltverfahren (Quotenmodell) zu installieren. Aber die durch diesen Strom weiter steigende Kostenbelastung kann auch ein anderes Verfahren nicht aufhalten, geschweige denn senken. Mit dem weiter vorgesehenen Ausbau der „Ökostrom“-Erzeugung und dem deutschen Ausstieg aus der Kernkraft dreht sich die Strompreisspirale in Deutschland weiter nach oben.

Vernichtende Kritik von vielen Seiten

Zu den Kritikern von EEG und Energiewende gehört neben NAEB und EIKE inzwischen auch der Bundesrechnungshof. Er sieht enorme Risiken. Die Berliner Wochenzeitung Junge Freiheit hat darüber berichtet (hier). Schon früher hatten sich der Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung (Jahresbericht 2013/2014) und die Monopolkommission kritisch zur Energiewende geäußert. Nicht zu vergessen ist der Wirtschaftswissenschafter Hans-Werner Sinn (Präsident des Ifo-Instituts in München) mit dem Titel „Energiewende ins Nichts“ am 16. Dezember 2013 (hier). Abschließend verweise ich auf das „Energiepolitische Manifest“ der Energiefachleute Günter Keil, Michael Limburg und Burkhard Reimer. Ihr „Faktencheck“ ist für die Politik der Energiewende und des EEG vernichtend (hier). Berichtet darüber habe ich hier. Inzwischen liegt der Text auch gedruckt und geheftet vor (DIN-A4-Format, 29 Seiten). Wer mag, kann ein Exemplar bei mir bestellen und unentgeltlich bekommen.

Was getan werden muss

Die staatliche Planwirtschaft in der deutschen Stromversorgung ist zu beenden. Der Staat hat sich darauf zu beschränken, den Wettbewerb auf dem Markt für Strom zu schützen und ihn von Beschränkungen freizuhalten. Der Staat darf in allen Bereichen der Energieversorgung nur Forschung und Entwicklung unterstützen, aber hat es zu unterlassen, die Stromerzeugung zu subventionieren. Das EEG und die Folgegesetze (wie die EnEV, das EnLAG und EEWärmeG) sind ersatzlos zu streichen, Marktwirtschaft und Wettbewerb in der Stromversorgung wieder herzustellen. Die mit der sogenannten Energiewende beschäftigten staatlichen bzw. halbstaatlichen Institutionen wie Deutsche Energie-Agentur (DENA) und EEG-Clearingstelle müssen dementsprechend, weil überflüssig, ebenfalls verschwinden.

Erst handeln, wenn wirklich gesicherte Erkenntnisse vorliegen

Ob menschenverursachte CO2-Emissionen wirklich zu bedeutsamer Klimaerwärmung führen, ist wissenschaftlich sehr umstritten. Folglich sollte dies weiterhin und vorrangig genauer erforscht werden. Doch müssen dann auch solche Wissenschaftler öffentlich zu Wort kommen und berücksichtigt werden, die diese Erwärmungsthese plausibel und belegbar bestreiten. Solange die These umstritten bleibt, ist es wirtschaftlich vernünftiger, sich auf Überlegungen und Planen von Maßnahmen zu beschränken, wie man sich vor einer wahrnehmbaren Erwärmung schützen kann, statt mit staatlichen „Energiewende“-Interventionen und ohne Einsatz von Kernkraft die Kosten der Stromerzeugung in Hunderter-Milliarden-Höhe zu treiben und damit ein Land wirtschaftlich zu ruinieren. Der CO2-Zertifikate-Handel ist auszusetzen, bis gesicherte Erkenntnisse über seine tatsächliche Notwendigkeit vorliegen. Alle Reglementierungen für die Emissionen von CO2 sind solange einzustellen.

_________________________________________________________________________

*) Jasper von Altenbockum, FAZ vom 3. April 2014, Seite1 und Holger Steltzner in der gleichen Ausgabe Seite 17.

**) Leider greift die FAZ die FAZ noch immer nicht den CO2-Wahn und die Klimaschutzpolitik an, sondern nimmt sie hin, als sei die Erwärmungsthese bewiesen, was sie nicht ist.

***) Aber wie die FAZ wagt auch die AfD es nicht, entschieden genug gegen die Behauptung vorzugehen, dass die anthropogenen CO2-Emissionen gefährlich die Erde aufheize und daher das Klima zu „schützen“ sei.

Der Beitrag erschien zuerst auf dem Blog von Dr. K.P. Krause hier




IPCC Grosstreffen in Berlin – und keiner merkt es

Nur bei der  Lobby-Truppe für die "Erneuerbaren" Energien "IWR" findet sich erst heute, am 8.4.14, diese Meldung:

Weltklimarat: 600 Wissenschaftler beraten in Berlin über Schlussteil des IPCC-Berichts

Münster / Berlin – Der Weltklimarat ist in Berlin zusammengekommen, um über den anstehenden dritten Teil des Weltklimaberichts zu beraten. Dieser fünfte Sachstandberichts des Intergovernmental Panel on Climate Change (IPCC) soll im Oktober 2014 in Kopenhagen vorgestellt werden. Der zweite Berichtsteil wurde Ende März 2014 in Japan veröffentlicht: Demnach wirken die Folgen des weltweiten Klimawandels gravierender als noch vor einigen Jahren angenommen.
Der IPCC-Sachstandsbericht beinhaltet eine Übersicht des aktuellen Wissens zu naturwissenschaftlichen, technischen und sozioökonomischen Aspekten des Klimawandels sowie eine wissenschaftliche Bewertung. Ursachen, Folgen und Risiken des Klimawandels sowie Möglichkeiten der Minderung des Klimawandels und der Anpassung daran werden dargestellt. Dabei forscht der IPCC nicht selbst, sondern trägt alle sechs bis sieben Jahre den wissenschaftlichen Erkenntnisstand der Klimaforschung zusammen.

600 Wissenschaftler aus über 130 Staaten beraten in Berlin

Auf der einwöchigen IPCC-Konferenz in Berlin werden mehr als 600 Teilnehmer aus über 130 Staaten über den dritten und letzten Teilbericht des IPCC über den wissenschaftlichen Sachstand zum Klimawandel verabschieden. Themen sind der Klimaschutz und Handlungsmöglichkeiten für die Begrenzung der globalen Erwärmung auf zwei Grad gegenüber vorindustriellem Niveau. Dafür zeigt die Arbeitsgruppe 3, die für den dritten Teil des Berichts verantwortlich zeichnet, politische und technologische Maßnahmen zur Minderung des Klimawandels auf. Mit Blick auf die UN-Klimakonferenz in Paris Ende 2015 betont Umweltstaatssekretär Jochen Flasbarth: „Der aktuelle Bericht kommt genau zur richtigen Zeit, um das wissenschaftliche Fundament für die anstehenden Entscheidungen zu liefern.“
Vergangene Woche hatte der Weltklimarat im japanischen Yokohama den zweiten Teilbericht über die Auswirkungen des Klimawandels vorgestellt. Die Arbeitsgruppe 2 des IPCC hatte in ihrem Bericht mit dem Arbeitstitel „Klimawandel 2014: Auswirkungen, Anpassung und Anfälligkeit“ („Climate Change 2014: Impacts, Adaptation, and Vulnerability“) davor gewarnt, dass Länder, Gesellschaften und Unternehmen unvorbereitet mit dem Klimawandel konfrontiert werden.
Oxfam fordert mehr Engagement von der Bundesregierung
Zu Beginn der einwöchigen Konferenz in Berlin forderte der Entwicklungshilfe-Verbund Oxfam mehr Klimaschutz und eine gerechte Lastenverteilung zwischen armen und reichen Ländern. Andernfalls würden die Chancen, die Erderwärmung ausreichend zu begrenzen schwinden. Dies wäre mit gravierenden Folgen für die weltweite Nahrungsmitteproduktion und den Kampf gegen den Hunger verbunden. Kritik übt Oxfam in diesem Zusammenhang an der Bundesregierung. Diese plane, die finanziellen Klima-Hilfen für arme Länder zu kürzen, heißt es. Während die UN-Wissenschaftler nämlich im Estrel Hotel tagen, berät keine zehn Kilometer entfernt der Bundestag über den Haushalt 2014 und damit über die Pläne der Bundesregierung, die Gelder für neue bilaterale Klimaprojekte in Entwicklungsländern um Hunderte Millionen Euro zu kürzen. Jan Kowalzig, Klimaexperte bei Oxfam, ist empört. „Es ist grotesk“, sagt er. „Das ist das Gegenteil dessen, was wir jetzt brauchen. Deutschland muss seine internationalen Zusagen erfüllen.“
Weitere Infos und Meldungen zum Thema:
Weltklimarat: Erderwärmung wirkt schlimmer als erwartet




Ein Anwalt fragt: können Klimaskeptiker legal der kriminellen Fahrlässigkeit angeklagt werden?

Der Hintergrund hiervon ist, dass es in dem Streit um die Klimaänderung drei Seiten gibt: zum einen sind das die Warmisten, die mit Feuereifer glauben, dass menschliche Aktivitäten wie das Verbrennen fossiler Treibstoffe die Temperatur der Erde nach oben treiben, was zu allen möglichen schrecklichen Ereignissen führen wird. Zweitens gibt es die Skeptiker, die davon ausgehen, dass die Wissenschaft einfach keinerlei Unterstützung für die Ansichten der Warmisten liefert und dass jede Zunahme der globalen Temperatur natürlichen Zyklen geschuldet ist und nicht dem fossilen Treibstoffverbrauch der Menschen. Drittens gibt es die Zurückhaltenden, deren Ansichten irgendwo in der Mitte zwischen den ersten beiden Gruppen liegen. Ich bekenne: Meine eigene Ansicht nach langen und sorgfältigen Studien in den Bereichen Ingenieurswesen, Wissenschaft und Mathematik ist die eines festen Skeptikers, der in vollem Umfang versteht, dass Kohlendioxid tatsächlich thermische Strahlungsenergie absorbiert und emittiert.

Meine früheren Artikel auf meinem Blog SLB* umreißen meine Ansichten. Siehe die Artikel My Journey, Warmists are Wrong, Chemical Engineer Takes on Warming, Cold Winters, Climate Science is Not Settled und andere). Unter den führenden Klimawissenschaftlern, die meinen Ansichten am Nächsten stehen, sind Dr. S. Fred Singer von der University of Virginia und Dr. Richard Lindzen vom MIT. Von Letzterem stammt die Aussage: Die Behauptungen, dass sich die Erde erwärmt hat, dass es einen Treibhauseffekt gibt und dass menschliche Aktivitäten zur Erwärmung beigetragen haben, sind trivial und hinsichtlich irgendwelcher Alarme bedeutungslos“.

[*Auf diesem Blog ist eine umfangreiche, bislang 5 Teile umfassende Artikelserie erschienen, in denen die Kernkraft in Bausch und Bogen verdammt wird. Schaut man nur kurz rein, wird schnell deutlich, dass der Autor noch nie etwas von Thorium o. ä. gehört hat. Nur der Vollständigkeit halber! A. d. Übers.

Update A. Demmig: siehe Kommentar von Roger Sowell, 10. APRIL 2014 UM 8:00 – „… falscher Eindruck des Übersetzers, er kenne sehr wohl Thorium… „]

Grundlage für das Einsperren von Skeptikern ist, dass viele Menschen, vielleicht Millionen, unvermeidlich sterben werden, wenn nicht sofort drastische Maßnahmen ergriffen werden, um den zusätzlichen Verbrauch fossiler Energie zu verhindern. Mit dem Verbrennen fossiler Treibstoffe ist die Verbrennung von Kohle und Erdgas in Kraftwerken gemeint plus das Verbrennen von Erdölprodukten für das Transportwesen und Heizung. Die vermeintliche Gesetz-Theorie lautet, dass Personen der kriminellen Fahrlässigkeit schuldig sind, wenn deren Aktionen anderen Schäden zufügen bis hin zum Tod. In diesem speziellen Fall lautet die Anklage, dass jene, die Forschungen für den Beweis betreiben, dass kein Alarm gerechtfertigt ist, für Millionen Tote sorgen durch Ereignisse wie schmelzende Eiskappen, daraus folgend ein Anstieg des Meeresspiegels und Verwüstung von Küstengebieten, Dürren und Hitzewellen. Es ist kriminelle Fahrlässigkeit, so wird behauptet, wenn man versucht, die Verkündigungen solcher Alarme zu verhindern, wenn deren Konsequenzen so schlimm sind.

Vor diesem Hintergrund ist es notwendig,  die legalen Erfordernisse eines Falles von krimineller Fahrlässigkeit zu untersuchen. Es gibt zwei mögliche Vergehen, erstens fahrlässiger Totschlag als ein Bestandteil, zweitens vorsätzlichen Totschlag. Unter den derzeit bestehenden kalifornischen Gesetzen muss Folgendes bewiesen werden:

Fahrlässiger Totschlag

Um zu beweisen, dass der Angeklagte des fahrlässigen Totschlags schuldig ist, muss der Staat beweisen:

1. Der Angeklagte hat legal gehandelt, jedoch in ungesetzlicher Weise;

2. Der Angeklagte beging den Vorgang mit krimineller Fahrlässigkeit; und

3. Das Handeln des Angeklagten hat zum Tod einer anderen Person geführt.

Kriminelle Fahrlässigkeit involviert mehr als normale Unvorsichtigkeit, Unaufmerksamkeit oder Fehler bei der Beurteilung. Eine Person handelt kriminell fahrlässig, wenn:

1. er oder sie so rücksichtslos handelt, dass ein hohes Sterberisiko besteht oder erhebliche Verletzungen drohen; und

2. eine vernünftige Person gewusst hätte, dass ein solches Handeln ein solches Risiko hervorrufen würde.

Mit anderen Worten, eine Person handelt kriminell fahrlässig, wenn er oder sie auf eine Art und Weise agiert, die sich so stark davon unterscheidet, wie eine vernünftige Person in der gleichen Lage agieren würde, dass sein oder ihr Tun ohne Rücksicht auf menschliches Leben oder ohne Beachtung der möglichen Konsequenzen erfolgt.

Führt man die Gesetze hinsichtlich fahrlässigen Totschlags aus, ist es möglich, die Behauptung zu untersuchen, dass es kriminelle Fahrlässigkeit ist, Forschungen im Bereich Klima durchzuführen mit der Absicht zu zeigen, dass es keinen Grund für Alarm gibt.

Erstens, folgt das Vorgehen den Gesetzen? Die Antwort muss ja lauten: Forschungen im Bereich Klimawissenschaft sind legal.

Zweitens: werden diese Forschungen auf ungesetzliche Weise durchgeführt, das heißt mit krimineller Fahrlässigkeit? Um kriminelle Fahrlässigkeit zu beweisen, müssen zwei Dinge bewiesen werden: Das Handeln wurde auf rücksichtslose Weise ausgeführt, so dass ein hohes Risiko für schwere Verletzungen bis hin zum Tod bestand; und dass dieses Tun zum Tode einer anderen Person führte.

Der Vorgang, Klimaforschung aus skeptischer Sicht zu betreiben, könnte rücksichtslos sein oder das Risiko schwerer körperlicher Schäden erzeugen, aber nur dann, wenn die Forschung ausschließlich mit Daten durchgeführt wird, die das vorher beschlossene Ergebnis zeigen, oder mit ungeeigneten Analysen, oder unbegründete Schlussfolgerungen wurden aus den Daten und den Analysen gezogen oder irgendeine Kombination von all dem. Es muss angemerkt werden, dass es den Prozess der Begutachtung gibt, um derartige Forschungen zu eliminieren oder zumindest minimieren, weil sie zu schlechter Wissenschaft und falschen politischen Entscheidungen aufgrund der Informationen durch die schlechte Wissenschaft führen. Die Anwälte werden vor Gericht Beweise zeigen, welche Daten die Skeptiker bei ihren Klimaforschungen benutzt haben, welche Analysetechniken zugrunde lagen und welche Schlussfolgerungen gezogen worden sind. Es scheint viel wahrscheinlicher zu sein, dass die Skeptiker exzellente Gründe für die Behauptung haben, gute Wissenschaft zu betreiben, jedenfalls angesichts der vielen hundert begutachteten Veröffentlichungen, die die Behauptung stützen, dass keinerlei Alarm gerechtfertigt ist. Tatsächlich zeigt der NIPCC-Bericht genau solche skeptischen Publikationen.

Schließlich und letztlich: die Forschung muss den Tod einer anderen Person verursacht haben, aber in diesem Fall ist es extrem unwahrscheinlich, eine Verbindung zwischen Todesfällen und Forschungen zur Klimaänderung herstellen zu können. Selbst wenn die CO2-Konzentration in der Atmosphäre weiter zunimmt, nehmen Extremwetterereignisse an Zahl und Stärke ab.

Das Verbrechen des fahrlässigen Totschlags durch kriminelle Fahrlässigkeit kann sehr wahrscheinlich nie bis jenseits vernünftiger Zweifel bewiesen werden. Erstens gibt es keine Todesfälle, die ursächlich mit solchen Forschungen in Zusammenhang gebracht werden können, und zweitens ist die Forschung nicht auf rücksichtslose Weise durchgeführt worden, die das Risiko ernster körperlicher Schäden heraufbeschwört.

Absichtlicher Totschlag

In Kalifornien müssen bei absichtlichem Totschlag folgende Elemente bis jenseits vernünftiger Zweifel bewiesen werden, um zu einer Verurteilung zu führen:

1. Der Angeklagte hat absichtlich so gehandelt, dass eine andere Person zu Tode gekommen ist;

2. Die natürlichen Konsequenzen des Handelns waren für das menschliche Leben gefährlich;

3. Zum Zeitpunkt des Handelns wusste er, dass sein Tun gefährlich für menschliches Leben war; und

4. Er handelte ganz bewusst und ohne Rücksicht auf menschliches Leben.

Kausalität

In Kalifornien verursacht eine Handlung oder eine Unterlassung Verletzungen oder Tod, falls die Verletzung oder der Tod die direkte, natürliche und wahrscheinliche Folge einer Handlung oder einer Unterlassung ist und die Verletzung oder der Tod ohne diese Handlung oder Unterlassung nicht eingetreten wäre. Eine natürliche und wahrscheinliche Folge ist eine solche, von der eine vernünftige Person weiß, dass es wahrscheinlich dazu kommen wird, falls nichts Ungewöhnliches dazwischenkommt. Bei der Unterscheidung, ob eine Folge natürlich und wahrscheinlich ist, muss die Jury alle Umstände prüfen, die die Beweise hergeben. Es kann mehr als eine Ursache für Verletzung oder Tod geben. Eine Handlung oder eine Unterlassung verursacht nur dann Verletzungen oder Tod, falls sie ein substantieller Faktor hierbei ist. Ein substantieller Faktor ist mehr als ein trivialer oder abwegiger Faktor. Allerdings muss es nicht der einzige Faktor sein, der zu Verletzung oder Tod führt.

Siehe: California Pen. Code § 192(a); People v. Rios (2000) 23 Cal.4th 450, 463, 469 [97 Cal.Rptr.2d 512, 2 P.3d 1066].

Mit der Weiterführung obiger Regeln ist es möglich, die Behauptung zu untersuchen, dass es kriminelle Fahrlässigkeit ist, Forschungen im Bereich Klimaänderungen zu fördern, die zeigen, dass für Alarme kein Grund besteht.

Erstens, hat jemand, der derartige Forschungen unterstützt, absichtlich eine Handlung begangen, die zu Verletzung oder Tod einer anderen Person geführt hat?

Es muss festgelegt werden, ob es überhaupt Todesfälle gegeben hat. Falls das nicht der Fall ist, gibt es keinen Grund, irgendeines der dazu gehörigen Elemente zu untersuchen. Zum Zeitpunkt der Niederschrift dieses Artikels, erstes Quartal 2014, scheint es keine Toten gegeben  zu haben, die der vom Menschen verursachten Klimaänderung zuzuordnen wären. Allerdings kam eine Studie der WHO 2009 zu dem Ergebnis, dass es 140.000 Todesfälle pro Jahr gibt, die man der zunehmenden Erwärmung seit den siebziger Jahren zuordnen kann. Die Ereignisse, die diese Todesfälle verursacht haben, bleiben ziemlich vage, aber es scheint, dass die WHO auch Opfer von Ereignissen wie Überschwemmungen, schweren Stürmen und einer Hitzewelle im Jahre 2003 in Europa mitgezählt hat. Und doch räumt die gleiche Organisation ein, dass die Auswirkungen der Klimaänderung auf die Gesundheit nur sehr grob abgeschätzt werden können. Die WHO stellt auch fest, dass die Erwärmung Vorteile für das menschliche Leben zeitigt, wenn weniger Kältetote durch kalte Witterung zu beklagen sind (link).

Falls die Schätzungen der WHO richtig sind, dass es nämlich durch verschiedene Wetterereignisse pro Jahr etwa 140.000 Todesfälle gibt, muss die Frage beantwortet werden, ob es eine kausale Verbindung zwischen den Extremwetterereignissen und der fast trivialen Zunahme der globalen Temperaturen gibt. Einer Jury würden Experten-Aussagen zu diesem Thema vorgelegt, und höchstwahrscheinlich wird kein glaubwürdiger Wissenschaftler die Ansicht vertreten, dass es irgendeine Verbindung zwischen der trivialen Erwärmung und Wetterereignissen gibt. Tatsächlich lässt sich zeigen, dass nahezu jede Art von Wetterereignis entweder abnimmt (tropische Stürme und Hurrikane) oder dass sie nicht schlimmer sind als in der Vergangenheit. Dürren, Überschwemmungen, Hitzewellen – alle waren im Vergleich zu heute schon viel schlimmer.

Zur Erinnerung, die obige Definition von Kausalität lautet: „Eine Handlung oder eine Unterlassung verursacht Verletzung oder Tod, falls diese Verletzung oder die Todesfolge die direkte, natürliche und wahrscheinliche Folge der Handlung oder der Unterlassung ist, und Verletzung oder Tod wären ohne die Handlung oder Unterlassung nicht erfolgt“.

Daraus ergeben sich zwei Fragen, die jetzt gestellt werden müssen. Erstens: waren die 140.000 wetterbezogenen Toten die direkte, natürliche und wahrscheinliche Folge von Forschungen im Bereich der Klimaänderung, die zeigen sollen, dass es keinen Grund für Alarm gibt? Und zweitens: wäre es auch ohne diesbezügliche Forschungen zu diesen 140.000 Toten gekommen?

Um die erste Frage zu beantworten, muss geklärt werden, ob es die Todesfälle gegeben hat, weil die entsprechenden Personen keine Ahnung hatten, dass die Wettervorgänge stärker, intensiver und tödlicher sein würden. Falls die einzige Aussage der Klimaforscher darin bestand, dass es keinen Grund für Alarm gibt, könnte diese Position zutreffen. Allerdings haben die oben erwähnten Alarmisten viele Jahre lang die Medien und die Internet-Blogs mit schrecklichen Vorhersagen des Untergangs verstopft. Tatsache ist und würde auch Eingang in ein Verfahren finden, dass die Warmisten einen fast völligen Konsens proklamieren, dass die globale Erwärmung nicht nur real, sondern auch dem Verbrauch fossiler Treibstoffe seitens der Menschen geschuldet ist. Dieser vermeintliche Konsens findet sich in der Presse, in Sendungen und elektronisch im Internet. Es ist unwahrscheinlich, dass eine Jury zu dem Ergebnis kommen würde, dass irgendeiner der wetterbedingten Todesfälle die Folge skeptischer Klimaforschung gewesen war. Tatsache beispielsweise ist, dass Hurrikane während der letzten 40 Jahre an Anzahl und Stärke abgenommen haben. Darüber lässt sich nicht streiten, es ist einfach eine Tatsache. Gleiches gilt für Tornados, Dürren und Hitzewellen. Siehe hierzu diesen Link und „Global Hurricane Frequency“.

Der Definition von Kausalität folgend muss die Jury alle Umstände in Betracht ziehen, die durch Beweise belegt sind. Dies bedeutet, dass die Schlussfolgerungen der führenden Warmisten, nämlich des IPCC, in Betracht gezogen werden. Das IPCC räumt ein, dass es keinen aussagekräftigen Beweis gibt, der Extremwetterereignisse mit der globalen Erwärmung in Verbindung bringt. Tatsächlich würde es sehr schwierig sein, zu einem anderen Ergebnis zu kommen angesichts der eindeutigen Beweise, dass Hurrikane seltener und weniger intensiv auftreten und dass alle anderen Extremwetterereignisse einfach nicht an Ereignisse heranreichen, die aus früherer Zeit bekannt sind. Der Schlüsselbeweis hierfür ist das Eingeständnis der Warmisten, dass Ereignisse vor dem Jahr 1970 überhaupt keine Verbindung mit dem menschlichen Verbrauch fossiler Treibstoffe haben, sondern ganz und gar natürlichen Ursprungs waren. Folglich waren alle Hitzewellen wie die lange und starke Hitzewelle der dreißiger Jahre, alle Dürren einschließlich der schlimmen Dürre der fünfziger Jahre und die vielen starken Hurrikane vor 1979 durchweg natürliche Ereignisse.

Daraus folgt nun, dass Element 1 oben nicht wahr ist; es kann nicht über alle Zweifel erhaben bewiesen werden. Selbst wenn der Angeklagte absichtlich skeptische Klimaforschung betrieben hätte, kann diese Forschung nicht den Tod einer anderen Person verursacht haben.

In einem Strafverfahren wird der Angeklagte freigesprochen, falls irgendein Element nicht über alle Zweifel erhaben bewiesen werden kann. Allerdings kann der Verteidiger nicht wissen, welches der Elemente, falls überhaupt eines, als nicht diesem Standard genügend angesehen wird, also wendet er sich den anderen Elementen zu. Man weiß nie, wie sich die Jury entscheidet, bis das Urteil verkündet wird.

Kommen wir also zum zweiten Element: Der Staat muss beweisen, dass die natürlichen Konsequenzen der Handlung gefährlich für das menschliche Leben waren. Wie oben lautet die Handlung skeptische Klimaforschung. Welches sind die natürlichen Folgen skeptischer Klimaforschung? Wie sich gezeigt hat, erzeugte skeptische Klimaforschung mittlerweile viele hundert begutachtete und veröffentlichte Studien, die belegen, dass es hinsichtlich des menschlichen Verbrauchs fossiler Treibstoffe keinerlei Grund für Alarm gibt. Da es also keine kausale Beziehung zwischen derartigen Forschungen und Todesfällen gibt, kann es auch keine Gefahr für das menschliche Leben geben. Dieses Element ist also im Falle des Staates ebenfalls ein Fehlschlag. Siehe hier, und hier gibt es eine Liste mit hunderten skeptischer Studien.

Das dritte Element bei vorsätzlichem Totschlag lautet: zu der Zeit, als er seine Handlung beging, wusste er, dass die Handlung gefährlich für menschliches Leben war. Wieder ist die Handlung skeptische Klimaforschung. Der Jury würde man sagen, dass die Ergebnisse der skeptischen Klimaforschung zeigen, dass keine Gefahr besteht. Die Gründe für diese Schlussfolgerung würden sehr detailliert erklärt werden mit großen und farbigen Graphiken sowie visuellen Darstellungen zu jedem einzelnen Punkt. Der Angeklagte, der die skeptische Klimaforschung durchgeführt hatte, würde genau das Gegenteil wissen: er würde wissen, dass keine Gefahr für menschliches Leben besteht. Folglich würde auch das dritte Element scheitern.

Und schließlich lautet das vierte Element: Er handelte absichtlich und war sich der Missachtung der Gefahr für menschliches Leben bewusst. Hinsichtlich dieses Punktes muss der Staat prüfen, dass der Angeklagte seine skeptische Klimaforschung im Wissen durchgeführt hatte, dass menschliches Leben auf dem Spiel steht und dass er diese Gefahr bewusst missachtet hat. Nun ist allerdings genau das Gegenteil der Fall. Skeptische Forschung hat gezeigt, dass es aus den oben umrissenen Gründen keinen Anlass zu Alarm gibt.

Die unvermeidliche Schlussfolgerung wäre demnach ein Urteil „nicht schuldig“ des fahrlässigen Totschlags für jene, die skeptische Klimaforschung durchführen. Jedes der vier erforderlichen Elemente hat sich als negativ herausgestellt, das heißt, der Staat kann keines der vier Elemente über alle Zweifel erhaben beweisen.

Interessant ist jedoch, dass jene, die danach trachten, Skeptiker zu verhaften und wegen krimineller Fahrlässigkeit oder fahrlässigen Totschlags zu verurteilen, dieses Verbrechen bestraft sehen wollen, bevor die Opfer gestorben sind. Die Schreie der Alarmisten sind gewöhnlich im Futur abgefasst, d. h. die polaren Eiskappen WERDEN schmelzen und der Meeresspiegel WIRD steigen. Noch öfter wird der Konjunktiv benutzt, d. h. der Meeresspiegel KÖNNTE um 20 Fuß [ca. 6 m] in 100 Jahren steigen.

Nun gibt es einige Verbrechen, die auch ohne einen Todesfall zu einer Verurteilung führen, z. B. versuchter Mord, aber es gibt in Kalifornien kein Verbrechen einer Verschwörung, um einen Mord zu begehen (People v. Iniguez (2002) 96 Cal.App.4th 75). Es gibt auch das Verbrechen des versuchten fahrlässigen Totschlags, aber dies erfordert das Faktum einer Leidenschaft, die im Zusammenhang mit Klimaforschung nicht auftaucht People v. Iniguez (2002) 96 Cal.App.4th 75).

Schlussfolgerung:

Die Tatsachen hinsichtlich der Durchführung von Klimaforschung, die zu dem Ergebnis führen, dass kein Grund zu Alarm besteht, erfüllen nicht den Tatbestand des fahrlässigen Totschlags oder krimineller Fahrlässigkeit wie oben beschrieben. Selbst wenn einige Menschen durch heftige Wetterereignisse ums Leben gekommen sind, zeigen die Fakten, dass diese Wetterereignisse in keiner Weise mit der vom Menschen verursachten globalen Erwärmung verbunden sind. Die klaren Beweise zeigen, dass hunderte begutachteter Studien veröffentlicht worden sind, denen zufolge es keinen Anlass zu Besorgnis gibt, und tatsächlich sagt ja auch die führende Institution der Alarmisten, dass es keinen Zusammenhang gibt zwischen der globalen Erwärmung und Extremwetter. Für eine Verurteilung als Straftat muss jedes Element eines Verbrechens bis über alle Zweifel erhaben bewiesen werden. Hier in diesem Fall ist jedoch jedes Element der Anklage diskreditiert und nicht einmal ansatzweise bewiesen. Eine Ausnahme wäre lediglich, dass ein legaler Vorgang, nämlich Klimaforschung betrieben worden ist, allerdings wurde dieser Vorgang in legaler Weise betrieben.

Dieser Artikel stellt eine allgemeine Übersicht über die Gesetzeslage dar und soll kein juristischer Ratschlag sein. Für spezifische Ratschläge in diesem Zusammenhang kontaktiere man den Autor Roger E. Sowell.

Link: http://wattsupwiththat.com/2014/03/31/an-attorney-asks-are-climate-skeptics-legally-liable-for-criminal-negligence/

Übersetzt von Chris Frey EIKE




Was bedeutet eigentlich „Endlagerung?“

Was sind Abfälle aus einem Kernkraftwerk?

In einem Kernkraftwerk werden die Kerne von Uran-235 in je zwei Kerne von etwa dem halben Gewicht des Urans gespalten, es entstehen dadurch

1.     Spaltprodukte. Das sind die Abfälle, die nicht mehr zu gebrauchen sind. Diese Spaltprodukte sind zwar radioaktiv, werden aber wegen ihrer kleinen Halbwertszeiten schnell zu stabilen Elementen und strahlen dann nicht mehr.

Zu einem geringen Anteil entstehen aus Uran-238 durch Einfang von Neutronen

2.     Transurane. Diese sind schwerer als Uran. Jedes zweite der Transurane ist ebenfalls spaltbar und liefert bei der Spaltung Energie, genau so wie es beim Urankern geschieht. Diesen Vorgang nennt man brüten. Die Transurane sind daher ebenfalls wichtige Energielieferanten. Allen bekannt ist Plutonium, es gibt aber weitere Transurane. Und die ganz schweren Transurane spalten sich auch ganz von allein, sie spalten „spontan“. Gegen Ende der Einsatzzeit eines Brennelementes im Kernreaktor wird mehr Energie aus der Spaltung von erbrüteten Transuranen geliefert als aus der Spaltung vom Uran-235. Die Gesamtzahl der spaltbaren Kerne im Brennelement nimmt mit der Zeit seines Einsatzes ab, schließlich ist keine sich erhaltende Kettenreaktion mehr möglich, das Brennelement ist abgebrannt.

Abgebrannte Brennelemente enthalten ca. 5% Spaltprodukte und nur noch 1 bis 2% direkt spaltbare Kerne (z.T. die schweren Transurane). Der Rest von 93 bis 94% ist nicht direkt spaltbares Material, im wesentlichen Uran-238, das aber in spaltbare Kerne überführt werden kann. Abgebrannte Brennelemente enthalten also sehr viele Wertstoffe, die nach Wiederaufarbeitung wieder in neuen Brennelementen eingesetzt werden können. Daher ist Wiederaufarbeitung zur Ressourcenschonung dringend erforderlich. Nach der Regierungsübernahme 1998 durch Rot-Grün unter Schröder wurde die Wiederaufarbeitung von Brennelementen aus deutschen Kernkraftwerken per Gesetz verboten, zuvor war das noch in La Hague (Frankreich) und Sellafield (England) möglich.

Wie ist das mit Gorleben?

In Gorleben stehen in dem großen Lager gut 100 Castoren mit Kokillen (runde Behälter, ca. 80cm hoch, ca. 40cm Durchmesser), darin befinden sich die in Glas eingeschmolzenen Spaltprodukte. Diese werden so hergestellt: In eine Glasschmelze werden die Spaltprodukte eingerührt, dann wird das ganze in Stahlblechbehälter eingegossen und abgekühlt — fertig. Wegen der enthaltenen Spaltprodukte strahlen diese Kokillen, sie werden etwas warm. Eine Kokille hat heute eine Wärmeleistung von etwa 1kW, mit 5 solcher Kokillen könnte man in Dauerleistung sein Haus heizen (wenn es erlaubt wäre), aber die Strahlung müßte abgeschirmt werden. Die Spaltprodukte in den Glaskokillen haben kurze Halbwertszeiten, daher ist in etwa 300 Jahren deren Giftigkeit auf diejenige des Natururans abgeklungen. Natururan ist überall auf der Erde in einer Konzentration von ca. 3E-6 (=0,0003%) vorhanden.

Es geht in Gorleben darum, diese ca. 2500 Kokillen in den etwa 100 Castoren nach Untertage zu bringen. Aber die Regierenden sind offenbar der Meinung, daß diese Kokillen in der großen Halle besser aufgehoben sind als untertage. Ich bin da anderer Meinung. Zusätzlich stehen in der Halle in Gorleben noch 5 Castoren mit abgebrannten Brennelementen, also mit Wertstoffen.

Der Salzstock in Gorleben existiert seit 240 Millionen Jahren. Es gibt kein technisches Problem der Endlagerung in den Salzstock. Es gibt auch keine Gefahr, daß auf irgendeine Weise Wasser an den Salzstock gelangen könnte, und das Salz in dem Stock lösen könnte. In den vergangenen 240 Millionen Jahren war die Norddeutsche Tiefebenen oftmals vom Meer bedeckt, denn in der Zeit von vor ca. 20 Millionen Jahren sind die vielen Braunkohlenlager Norddeutschlands entstanden. Die Existenz des Gorlebener Salzstockes über 240 Millionen Jahre lässt vermuten, daß er die zum Abklingen der Spaltprodukte erforderlichen 300 Jahre ebenfalls noch existieren wird.

Was bedeutet direkte Endlagerung?

In Deutschland ist nur noch die direkte Endlagerung erlaubt. Das bedeutet, daß die abgebrannten Brennelemente (die seit etwa 1998 angefallen sind) NICHT mehr aufgearbeitet werden. Sie sollen in einer großen Presse zusammen gepresst werden (wegen Volumenverkleinerung) und dann direkt untertage gebracht werden. Diese Presse (Pilotkonditionierungsanlage) steht in Gorleben. Sie wurde laut Vereinbarung vom 14.6.2000 fertig gebaut, aber es wurde gleichzeitig festgelegt, sie NICHT in Betrieb zu nehmen. Das ist natürlich eine gute und kluge Festlegung, denn die direkte Endlagerung wäre eine Verschwendung von nützlichen Ressourcen. Die direkte Endlagerung ist auch in anderen Staaten der Welt zur Zeit die einzige gesetzlich erlaubte Form der „Entsorgung“ abgebrannter Brennelemente, aber sie wird noch nirgends durchgeführt bzw. auch nur in Angriff genommen, was zu begrüßen ist.

Es wurde mit dem 14.6.2000 festgelegt, zukünftig alle abgebrannten Brennelemente nach einer ersten Abklingzeit im Naßlager der Kernkraftwerke in Castoren zu packen und in diesen dann trocken in neu zu bauenden Zwischenlagern an den Standorten der Kernkraftwerke aufzubewahren. Diese Zwischenlager sind inzwischen alle gebaut worden und sie sind auf 40 Jahre genehmigt. Was nach diesen 40 Jahren geschehen wird, werden wir später sehen. Vielleicht wird man diese Wertstoffe dann nach Rußland verkaufen, weil dort der Brennstoffkreislauf mit der Entwicklung des Brüters weit fortgeschritten ist. Deutschland könnte dann den damit in russischen Kernkraftwerken erzeugten Strom kaufen, wenn es den dafür geforderten Preis bezahlen kann. Es lohnt sich heute nicht, über die Zeit in 40 Jahren zu spekulieren.

In einem Endlager mit direkt endgelagerten Brennelementen sinkt die Giftigkeit der darin enthaltenen Stoffe sehr langsam. Es gibt im Uran und in den Transuranen weiterhin Spaltungen, wenn auch in sehr geringer Anzahl. So entstehen immer neue radioaktive Spaltprodukte und durch die Spaltneutronen auch weitere Transurane, von denen einige sehr lange Halbwertszeiten besitzen. Das hat zur Folge, daß in einem derartigen Endlager die Giftigkeit des dort gelagerten Materials diejenige des Natururans erst nach etwa einer Million Jahre erreichen wird.

Wenn tatsächlich irgendwann auf der Erde abgebrannte Brennelemente in ein Tiefenlager kommen, dann wird damit Untertage ein ideales Wertstofflager für Energie geschaffen. Und das wird auch irgendwann wieder an die Oberfläche geholt werden, vielleicht nach 1000 Jahren, oder nach 10 000 Jahren, oder nach 100 000 Jahren, niemand kann das heute wissen. Daher sind Tiefenlager für abgebrannte Brennelemente unsinnig, man sollte die abgebrannten Brennelemente in oberflächlichen Lagern belassen, so wie es in Deutschland derzeit für 40 Jahre vorgesehen ist. Alles andere sollte man späteren Generationen überlassen.

Was könnte die Zukunft bringen?

Als es 1990 zur ersten Rot-Grünen Regierung in Niedersachsen unter Ministerpräsident Schröder kam, wurde im Koalitionsvertrag festgelegt „eine Gesamtstrategie zu verfolgen, um über eine Blockade der Errichtung von Endlagern den Ausstieg aus der Kernenergie zu erzwingen.“ Man findet diesen Hinweis beim Bundesamt für Strahlenschutz. An diese Vereinbarung haben sich seither alle Rot-Grünen Regierungen gehalten, inzwischen haben sich CDU/CSU/FDP dem angeschlossen. Zudem wurde durch Bundesgesetz in 2000 die Forschung zur Endlagerung verboten (wobei das Wort „verboten“ vermieden wurde und durch die harmloser klingende Bezeichnung „Moratorium“ ersetzt wurde).

Im Koalitionsvertrag zwischen CDU, CSU und SPD vom 11.11.2005 steht geschrieben: „CDU, CSU und SPD bekennen sich zur nationalen Verantwortung für die sichere Endlagerung radioaktiver Abfälle und gehen die Lösung dieser Frage zügig und ergebnisorientiert an. Wir beabsichtigen in dieser Legislaturperiode zu einer Lösung zu kommen.“ Der damals verantwortliche SPD-Minister Gabriel tat nichts, so konnte die Behauptung „Endlagerfrage nicht gelöst“ weiterhin benutzt werden. Es wäre Aufgabe der Kanzlerin gewesen, für ein Fortkommen in dieser Frage zu sorgen, aber Sie tat es nicht, offenbar hatte sie ebenfalls kein Interesse an der Lösung der Frage.

Heute ist die Bank, auf die man alle Aktivitäten rund um die Endlagerung geschoben hat, unendlich lang geworden: Man will die schwach aktiven Abfälle aus der ASSE wieder heraus holen, ein Termin für die Inbetriebnahme vom Schacht Konrad rückt in immer weitere Ferne, und mit der Suche nach einem Endlager für die hoch aktiven verglasten Spaltprodukte will man noch einmal von vorn beginnen. Vielleicht sind für die letzteren die erforderlichen 300 Jahre Abklingzeit schon um, wenn das Endlager gefunden sein wird? Nur schade, daß ich als Angehöriger der Gruppe Ü70 das nicht erleben kann.