1

EIKE Grundsätze zur Energiepolitik

Die aufgrund des EEG sowie des CO2-Zertifikat-Handels dramatisch weiter steigenden Strompreise werden zu Abwanderungen von Unternehmen aus den davon besonders betroffenen Industrie-Zweigen führen ("De-Industrialisierung"). Erhebliche Arbeitsplatzverluste werden die Folge sein, verbunden mit einschneidender Verminderung der staatlichen Steuer-Einnahmen.

EIKE unterstützt alle Bemühungen für einen rationellen Umgang mit Energie, wenn sie zu einer realen Senkung der Gesamtkosten führen. 

EIKE sieht keine Gefahren für die künftige Energieversorgung der Menschheit durch einen Mangel an Primärenergieträgern, da die schon heute bekannten fossilen und nuklearen Energieressourcen für überschaubare Zeiträume reichen werden

EIKE lehnt energiepolitische Maßnahmen ab, die zu einer unwirtschaftlichen, unzuverlässigen und umwelt-unverträglichen Energieversorgung führen. Eine solche Politik (EEG) fügt der wirtschaftlichen Entwicklung großen Schaden zu, und beeinträchtigt zugleich den Lebensstandard der Bürger erheblich.

EIKE fordert daher:

* Ersatzlose Streichung des "Erneuerbare-Energien-Gesetzes EEG“.

* Sofortige Einstellung des Handels mit Kohlendioxid-Emissions-Zertifikaten.

* Beendigung der Versuche, Kohlendioxid mit dem kostspieligen und für die Bevölkerung riskanten CCS-Verfahren in den Erdboden zu pressen. 

* Beendigung der Kernenergie-Diskriminierung

Dr. Dietmar Ufer EIKE, Michael Limburg EIKE

Den vollen Wortlaut unserer Energiegrundsätze finden Sie im Hauptmenue unter Mission/Energie oder klicken Sie hier!




Stockholm: Geniegipfel hat geniale Empfehlungen an die Welt“

Dies liest sich u.a so:

Nobelpreisträger und führende Umweltforscher haben die Entscheider in Politik und Wirtschaft aufgefordert, ihrer Verantwortung für den Planeten gerecht zu werden. „Wir sind die erste Generation, die die globalen Gefahren für die Menschheit erkennt“, heißt es in dem nach zweitägigen Beratungen beschlossenen Stockholm-Memorandum.

Ach nee, da gibt es Leute, die ernst genommen werden wollen, und meinen sie gehören zur ersten Generation wirklicher Schlaumeier? Bloß weil sie  Gefahren auch dort erkennen, wo gar keine sind. Jedenfalls unterscheidet sich das gegenwärtige Klima in nichts von dem früherer Zeiten, wenn wir von gelegentlichen bitteren Kaltzeiten und angenehmeren Warmzeiten mal absehen.

Und dann geht es ziemlich schwülstig im Text der Pressemitteilung weiter:

Die Wissenschaftler übergaben es am Mittwoch in der Königlichen Akademie, wo sonst die Nobelpreise verkündet werden, der vom UN-Generalsekretär eingesetzten hochrangigen Expertengruppe zur globalen Nachhaltigkeit. Dieser gehören Minister und Staatspräsidenten an. Die Empfehlungen der Nobelpreisträger fließen ein in die Vorbereitung der großen UN-Umweltkonferenz „Rio plus 20“ im kommenden Jahr.

Dass dem Gremium der "hochrangigen" Expertengruppe Minister und sogar Staatspräsidenten angehören, macht deren Kenntnisse natürlich ungleich wahrer, aber vor allem wertvoller.

 Tagungsteilnehmer Schellnhuber in PHOENIX am 13.11.2008 Mehr zu seinen mitunter bizarren Ideen finden Sie hier (leider in englisch)

Niemand dieser hochrangigen Experten hat zwar auch nur einen blassen Schimmer gehabt, bevor uns die  Finanzkrise überrollte. Und niemand von denen weiß, oder traut es sich zu sagen, wie man die weltweite Schuldenkrise – mit Sicherheit zu hundert Prozent anthropogen erzeugt- in den Griff kriegt. Aber mit zukünftigen Klimakatastrophen in hundert Jahren kennt man sich bestens aus. Denn das ist nachhaltig. Dafür ist man ja schließlich hochrangiger Experte. Fragt sich nur wofür? Bestimmt für leere Worthülsen wie Nachhaltigkeit! Und wofür sonst noch?

Dumm nur, dass alle Beobachtungsdaten seit zig Jahren weder einen Anstieg der Temperaturen, noch des Meeresspiegels, noch der Zahl oder Stärke von Stürmen, noch Dürren, noch, noch, noch zeigen. Macht nichts, man muss schließlich Prioritäten setzen. Die Beobachtungsdaten werden dann schlicht ignoriert. Die Modelle zeigen schließlich, dass eine Katastrophe droht. (Details z.B. dazu hier und hier)

Und der Chef des Potsdam Instituts für Klimafolgenforschung PIK Prof. Dr. Hans-Joachim Schellnhuber legte auch gleich noch ein paar Schippen drauf:

„Der Dialog zwischen Wissenschaft und Politik muss in eine neue Phase treten“, sagte Hans Joachim Schellnhuber, Initiator der vor vier Jahren begonnenen Nobelpreisträgertreffen und Direktor des Potsdam-Instituts für Klimafolgenforschung. „Es geht um erkenntnisgestützte Entscheidungen statt ideologiegetriebene Politik.“ Dieses Signal gehe von dem globalen Symposium in Stockholm aus, dem dritten nach Potsdam und London.

Das ist schon richtig toll. Schon dreimal durften sich die anerkannten Genies der Welt auf Kosten der Steuerzahler und diverser gutmenschlicher, aber wohldotierter Stiftungen (1) wie die schwedische Lotterie und die Volkswagenstiftung, um das Wohl des Planeten kümmern und dabei fortlaufend Signale aussenden. Das macht so richtig Spaß.

Da passt es ganz bestimmt nicht so gut, dass Schellnhubers Stellvertreter beim PIK der Volkswirt Edenhofer jüngst die Idelogie, der sie folgen, in der NZZ ganz ungeniert verkündete:

„Zunächst mal haben wir Industrieländer die Atmosphäre der Weltgemeinschaft quasi enteignet. Aber man muss klar sagen: Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch, fast nichts mehr zu tun.“

Das wird gern übersehen. Es geht nicht um Klimaschutz, es geht nicht um Umweltschutz, es geht um glasklare Umweltverteilung, verpackt in die Ideologie vom anthropogenen Klimawandel. Das können die Schlaumeier von Stockholm nicht übersehen haben. Oder doch?  Ganz zum Schluss nämlich werden dann von den Genies auch ein paar Unsicherheiten und viel Unwissen zugegeben…

„Trotz mancher Unsicherheiten wissen wir genug, um sagen zu können: Es gibt erhebliche Risiken“, sagte der Chemie-Nobelpreisträger Mario Molina, Professor an der Universität von Kalifornien. Ein Beispiel sei der Treibhauseffekt als Folge von CO2-Emissionen. „Wir verändern die Funktionsweise unseres Planeten, und wir stoßen an die Grenzen seiner Belastbarkeit“, sagte Molina.

Und als ob das noch nicht reicht, fügt Mr. Molina (augenzwinkernd vermutlich) an:

Die Nobelpreisträger seien in ihrem Urteil in besonderer Weise unabhängig, betonte Molina. Sie arbeiten mehrheitlich nicht im Feld Klima, Energie, Umwelt – kommen aber zu den gleichen Schlussfolgerungen wie die Nachhaltigkeitsforschung selbst.

Nach eigenem Eingeständnis ahnungslos, aber mit klarer Meinung ausgestattet.

Na, wer jetzt immer noch nicht überzeugt ist, dass die Welt groß transformiert werden muss, dem ist wohl nicht zu helfen.

meint

Michael Limburg  EIKE

Hauptsponsoren lt PM

 – The Swedish PostcodeLottery
– Folksam
– The Stichting af Jochnick Foundation
– VolkswagenStiftung
– Stiftung Mercator
– The City of Stockholm

Related Files




Schottische Windfarmen für Stopp der Stromproduktion bezahlt

Sechs schottische Windfarmen haben bis zu £300.000 erhalten, um die Stromproduktion einzustellen. Die über sechs Anlagen in Schottland verteilten Turbinen waren gestoppt worden, weil das Netz den erzeugten Strom nicht mehr aufnehmen konnte. Die Details der Auszahlungen kamen auf Grund von Nachforschungen der Renewable Energy Foundation (REF) heraus. REF erklärte, die Energiefirmen hätten £300.000 erhalten, damit sie die Turbinen  zwischen dem 5. und 6. April für mehrere Stunden abstellten
Den REF-Nachforschungen zufolge haben diese Auszahlungen dem 20fachen der Strommenge entsprochen, die mit laufenden Turbinen hätte erzeugt werden können.?Die größte Auszahlung in Höhe von £308.000 hat im April die Whitelee Windfarm in East Renfrewshire erhalten, die im Besitz von Scottish Power ist.?Die im Besitz von RWE nPower befindliche Farr Windfarm südlich von Inverness hat im gleichen Monat £265.000 erhalten.
Das im Besitz von SSE Renewables befindliche Hadyardhill in South Ayrshire hat für den Stopp der Energieproduktion £140.000 erhalten, die Blacklaw Windfarm in Lanarkshire – ebenfalls im Besitz von Scottish Power – hat £130.000 erhalten.
Die Millennium Windfarm in den Highlands und Beinn Tharsuin, nördlich von Alness, haben je  £33.000 und £11.500 erhalten.
Dr. Lee Moroney, Planungsdirektor für das REF, welches in der Vergangenheit die Subventionierung der Erneuerbaren kritisierte, sagte: "Die Unbeständigkeit der Windkraft stellt die Netzsteuerung vor Probleme, für die es keine billigen Lösungen gibt. Zukünftig brauchen wir größere elektrische Speichereinrichtungen und engere Vernetzung mit unseren EU-Nachbarn, so dass überschüssiger Strom verkauft oder gekauft werden kann, falls nötig."
Energie aber einfach nicht abzunehmen und Windfarmen noch großzügig dafür zu bezahlen, ist nicht nur teuer sondern auch sehr verschwenderisch.
"Die Regierung muss das Ausmaß und das Tempo des Windkraftausbaus überdenken, bevor die Kosten für den Umgang damit unerträglich hoch steigen und das Ausmaß der Verschwendung zu einem Skandal wird."
Vom National Grid verlautete, dass infolge starker Winde und schwerer Regenfälle in Schottland in der Nacht vom 5. auf den 6. April das Netz überlastet wurde, weil mehr Windkraft erzeugt als verbraucht worden wäre.
Sprecher Stewart Larque sagte: "Eine unserer Hauptaufgaben ist, das Energie-Angebot und den Bedarf aufeinander abzustimmen. In der Nacht vom 5. auf den 6. April stürmte und regnete es in Schottland sehr stark, daher wurde auch mehr Strom als normal aus Wasserkraft produziert."
Mr. Larque fügte hinzu, dass ein Fehler im Übertragungssystem den Transfer der Energie in den englischen Süden verhinderte und daher die Produktion abgeschaltet werden musste.
Er bestätigte auch, dass National Grid  £280m für den Ausgleich von Angebot und Nachfrage ausgegeben hätte.
Ein Sprecher des Department for Energy and Climate Change (DECC) beschrieb den Vorfall als "außergewöhnlich" und forderte mehr Speicherkapazität. "Zukünftig brauchen wir mehr Speicher für Strom und stärkere Vernetzung mit unseren EU-Nachbarn, um Stromüberschuss zu verkaufen oder bei Bedarf einzukaufen," fügte er hinzu.
Ein Sprecher der schottischen Regierung sagte, der Anteil der Erneuerbaren am schottischen Stromverbrauch betrüge 27,4% und fügte hinzu, dass National Grid für den netzweiten Ausgleich der Erzeugung aus allen Quellen und der Anpassung an den Verbrauch verantwortlich wäre und dass es vorkommen könnte, dass Erzeuger ihre Produktion im Rahmen des Prozesses drosseln müssten.: "Die schottische und die englische Regierung arbeiten gleichzeitig mit National Grid und Dritten in der Industrie zusammen, um die Netzkapazität zu stärken und Engpässe zu beheben."

Den Originalbetrag finden Sie hier

Die Übersetzung besorgte Helmut Jäger EIKE




Stockholm: „Genie-Gipfel“ der Nachhaltigkeit

Nachdem die aufwändigen „Klima-Gipfel“ von Kopenhagen und Cancún mit äußerst mageren Ergebnissen endeten, versucht die UN nun in Zusammenarbeit mit großen privaten Stiftungen zu verhindern, dass auch der „Rio+20-Gipfel“ im kommenden Jahr zu einem Flop wird. In Stockholm trat diese Woche eine Jury von an die 20 Nobelpreisträgern zusammen, um einem hochrangigen Expertengremium der UN ihr Urteil über den Zustand der Welt zu übermitteln.

 

Quelle: Büso „Der Weg zur Bevölkerungsreduktion“ Kommentar zum WBGU Berichtes zu großen Transformation

Zu den Honoratioren, die in Stockholm über die Menschheit richten und über Chancen einer „Wende zur Nachhaltigkeit“ berieten, zählen der deutsche Physik-Nobelpreisträger Peter Grünberg, der indisch-britische Wirtschaftsnobelpreisträger Amartya Sen, der Schweizer Medizin-Nobelpreisträger Werner Arber, der niederländisch-deutsche Chemie-Nobelpreisträger Paul Crutzen und die südafrikanische Literaturnobelpreisträgerin Nadine Gordimer. Aufgabe der Jury sei es gewesen, „Kipp-Prozesse hin zu nachhaltiger Entwicklung“ zu ermitteln, heißt es in einer Mitteilung des Potsdam Instituts für Klimafolgenforschung (PIK), das zu den Organisatoren des 3. Nobelpreisträger-Symposiums über globale Nachhaltigkeit gehört. Neben dem PIK waren die Königlich Schwedische Akademie der Wissenschaften, das Stockholm Resilience Center, das Stockholm Environment Institute und das Beijer Institute of Ecological Economics  maßgeblich an der Ausrichtung des Symposiums beteiligt. Gesponsert wurde die Veranstaltung unter anderen von der Volkswagen-Stiftung und der Essener Stiftung Mercator.
Ausdrücklich wies PIK-Direktor Hans Joachim Schellnhuber darauf hin, dass es sich bei den in Stockholm versammelten Nobelpreisträgern nicht um Experten für globale Probleme der Menschheit, sondern um „einige der klügsten Köpfe der Welt“ handelt, die „wissen, dass es ums Ganze geht.“ Wie aus dem vorab veröffentlichten „Executive Summary“ hervorgeht, ging das Stockholmer Symposium von der von Paul Crutzen formulierten Leitidee aus, dass die Menschheit dabei ist, eine neue Epoche der Erdgeschichte, das „Anthropozän“ einzuleiten. Nicht blinde Naturprozesse, sondern menschliche Einwirkungen prägten nun die Entwicklung der Erde. Deshalb dürften die Menschen nicht in der Rolle von Jägern und Sammlern verharren, sondern müssten zu Hütern der Erde werden. Notwendig sei eine globale Steuerung der Entwicklung durch ein „Erdsystem-Management“ (Hans Joachim Schellnhuber). Als wichtigste Stellschraube dafür gilt der Eintrag von Kohlenstoffdioxid in die Atmosphäre. Den Indizienbeweis für die Schlüsselrolle von CO2 können die in Stockholm versammelten Genies freilich nicht erbringen.
So bleibt es höchst zweifelhaft, ob die Menschen auf globaler Ebene tatsächlich jemals die ihnen von einigen überheblichen Weltverbesserern zugeschriebene Rolle werden spielen können. Denn dann müssten sie nicht nur mithilfe einer „Tektonik-Politik“ die Bewegungen der Erdkruste kontrollieren können, um schwere Erdbeben und Tsunamis verhindern zu können. Sie müssten auch die Zyklen der Sonne und die Bewegungen der Erdachse gezielt beeinflussen können. Es liegt auf der Hand, dass die Menschen trotz aller technischen Fortschritte dazu niemals imstande sein werden. Die klügsten Köpfe der Menschheit können weder definieren, was Nachhaltigkeit bedeutet, noch wie lange diese vorhalten soll. Was vom Stockholmer „Geniegipfel“ (O-Ton PIK) bleibt, sind die naiven Träumereien einiger Würdenträger, die nicht merken, dass sie lediglich die Rolle nützlicher Idioten der internationalen Finanzindustrie spielen. Deren Strategie zielt darauf ab, mithilfe des CO2-Zertifikatehandels die globale Kontrolle sämtlicher Kapital- und Stoffströme zu erlangen.

Edgar Gärtner EIKE

Anmerkung der Redaktion:

Zur Erinnerung:

Otmar Edenhofer, ehemaliger Jesuit, jetzt Chefvolkswirt des PIK und stellvertretender Vorsitzender des IPCC in einem NZZ [1](http://www.nzz.ch/nachrichten/hintergrund/wissenschaft/klimapolitik_verteilt_das_weltvermoegen_neu_1.8373227.html Neue Zürcher Zeitung) Interview ganz deutlich erklärte was von seiten der UNO und der sie unterstützenden Kreise eigentlich angestrebt wird:

„Zunächst mal haben wir Industrieländer die Atmosphäre der Weltgemeinschaft quasi enteignet. Aber man muss klar sagen: Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch, fast nichts mehr zu tun.“


[1] NZZ «Klimapolitik verteilt das Weltvermögen neu»

Related Files




Goldrausch für Schiefergas oder nur falsche Illusionen?

Auf dem Energiegipfel der Europäischen Union im Februar wurde kein anderer Punkt der Tagesordnung so kontrovers diskutiert wie die Auswirkungen der Gewinnung von Schiefergas. Trotz Protesten seitens der grünen Lobby stimmten die Energieminister der EU darin überein, dass die möglicherweise die gesamte Szene verändernde Natur von Schiefer während der kommenden Monate sorgfältig überdacht werden würde.

Unkoventionelle Gasvorräte sind in Schieferformationen tief unter der Erdoberfläche eingelagert. Diese geologischen Schichten enthalten riesige Vorräte an Schiefergas. Um diese Vorräte auszubeuten, bohren Energiefirmen viele Kilometer tief in den Felsen und danach horizontal in viele verschiedene Richtungen. Schätzungen der International Energy Agency zufolge könnten die Vorräte unkonventionellen Gases die Menschheit für mehr als 250 Jahre mit billiger und relativ sauberer Energie versorgen.

Jüngsten Studien zufolge befinden sich gewaltige Lagerstätten für Schiefergas auch in Europa. Polen, Frankreich und die Ukraine allein könnten Vorräte haben, die mindestens 200 oder 300 Jahre reichen. Da ist es kein Wunder, dass viele europäische Länder in Schiefergas eine goldene Möglichkeit sehen, sowohl billige Energie zu erzeugen als auch ihre Abhängigkeit von Importen aus Russland und dem Nahen Osten zu reduzieren. Schon jetzt ist in Deutschland die Wende im Energiemix weg von Kernkraft und hin zum Gas im Gange. Berlin hat erst in der vorigen Woche verlauten lassen, dass die neue deutsche Energiepolitik sich ab jetzt auf den Bau von mehr gasbetriebenen Kraftwerken konzentrieren will, um die drohende Lücke wegen der fortgeschrittenen Abkehr von der Kernkraft zu füllen. [Wenn das so in den deutschen Medien berichtet wurde, habe ich das überhört/überlesen. Aber ich übersetze ja auch nur… A. d. Übers.]

Mehr noch, die Finanzkrise zwingt die europäischen Regierungen, Subventionen zu kürzen und Anreize für grüne Energieprogramme zurückzufahren, die nicht verfügbar sind, um nicht zu sagen, dass sie zu einer langen Periode des Mangels führen. Auch Firmen reduzieren ihre Investitionen in grüne Energie, da natürliches Gas immer attraktiver wird, und ziehen ihr Investment von den Erneuerbaren ab.

Ein neuer Bericht für die Global Warming Policy Foundation von Matt Ridley "The Shale Gas Shock" [etwa: der Schiefergasschock] hebt hervor, dass unkonventionelles Gas nicht nur überreichlich vorhanden und relativ billig ist, sondern auch verspricht, den Markt zu verändern, ist doch dieses Gas auch noch billiger als Kernkraft, erneuerbare Energie und sogar Kohle. Ridley zufolge „verschiebt die Schieferrevolution die Erschöpfung fossiler Treibstoffe nach hinten und ermöglicht es, Kohlendioxidemissionen zu verringern, ohne dass die Energiepreise steigen“.

Während der Ölpreis in den letzten Monaten gestiegen ist, verspricht Schiefergas den Beginn einer neuen Ära billiger, reichlich vorhandener und relativ sauberer Energie. In immer mehr europäischen Ländern haben Energiefirmen damit begonnen, Bohrungen niederzubringen, um die Lagerstätten von Schiefergas sowie ihre kommerzielle Ausbeutung zu erkunden. Betreiber von erneuerbarer Energie sowie von Kohle- und Kernkraft werden zunehmend nervös über diesen neuen und billigen Wettbewerber.

Angesichts des heraufziehenden Schieferbooms versucht die grüne Energielobby der EU, mit allen Mitteln nach Wegen zu suchen, um Europas fragilen und hoch subventionierten Sektor der grünen Energie zu schützen. In scharfem Gegensatz dazu ist die Schiefergasrevolution ganz ohne vom Steuerzahler finanzierte Subventionen, Vorgaben der Regierung oder Zölle vorangekommen. Sie wird ausschließlich durch neue Technologien gefördert, die die Ausbeutung von Schiefer profitabel machen.

Wegen der massiven Fündigkeit von Schiefergas und der stetig zunehmenden Verfügbarkeit sind die Gaspreise dramatisch gefallen, was positive Auswirkungen für Industrie, Haushalte und die Energiesicherheit gleichzeitig hat. Die konventionelle Klima- und Energiestrategie in Europa sieht sich jetzt mit einer gewaltigen Herausforderung konfrontiert. Regierungen sind gut beraten, diese goldene Gelegenheit des Schiefergases nicht zu vergeuden. Und doch ist in Europa das Urteil zur Schieferrevolution noch nicht gesprochen, wie Ridley ausführt: „Schiefergas wird erheblicher Opposition von fest verwurzelten und mächtigen Interessen der Umweltgruppen, aber auch der Kohle- und Kernkraft sowie der Erneuerbaren gegenüber stehen, ebenso wie politischer Trägheit. Letztendlich wird es darum gehen, ob überschuldete europäische Regierungen, die Industrie oder die Bevölkerung in der Lage sind, dieser starken Quelle neuer Erträge und sauberer Energie zu widerstehen, die noch dazu ohne Subventionen auskommt.“

Dr. Benny Peiser ist Direktor der Global Warming Policy Foundation

Link: http://www.publicserviceeurope.com/article/317/gold-rush-for-shale-gas-or-false-dawn

Übersetzt von Chris Frey für EIKE




Man lasse nicht die Wasserköpfe die Schiefergasrevolution zerstören

Stellen Sie sich vor, wie Umweltaktivisten reagieren würden, wenn sich ein solches Wunder tatsächlich ereignen würde!

Tatsächlich brauchen wir uns das gar nicht mehr vorstellen, denn das Wunder ist bereits geschehen. Es nennt sich Schiefergas und ist Gegenstand eines spannenden neuen Berichtes für die Global Warming Policy Foundation von Matt Ridley mit einem Vorwort von Professor Freeman Dyson. Weder Ridley noch Dyson haben viele Zweifel, dass Schiefergas die Antwort auf unsere Gebete ist.

Wie Dyson in seinem Vorwort schreibt:

Wegen des Schiefergases wird die Luft in Peking sauber werden, genauso wie die Londoner Luft vor sechzig Jahren. Wegen des Schiefergases wird saubere Luft nicht länger nur ein Luxus sein, den sich nur reiche Leute leisten können. Wegen des Schiefergases werden sich Gesundheit und Wohlstand (wealth and health) viel gleichmäßiger über unseren Globus ausbreiten.

Und wie haben die Umweltaktivisten reagiert? Nun, sie haben natürlich versucht, das Ganze in Grund und Boden zu stampfen.

Zunächst erstellten sie, wie der Oberaktivist Josh Fox, eine Polemik im Stile von Michael Moore plus Al Gore, genannt Gasland.

Danach rückten sie mit einer katastrophal klingenden Studie von der Cornell University hier heraus, in der sie vor abscheulich zunehmenden Treibhausgasemissionen warnen.

Dann kommt unser eigener Lieferant pseudowissenschaftlicher Untergangsszenarien, das Tyndall Centre mit noch mehr Angst erzeugenden Warnungen daher, worüber schadenfroh hier berichtet wird,

Und bevor die Schiefergasindustrie so richtig loslegen kann, wurde in aller Eile bereits ein Bild in die empfänglichen Gehirne der Öffentlichkeit gepflanzt: Schiefergas ist schlecht, weil zu dessen Gewinnung ein Prozess namens „fracking“ erforderlich ist. Das klingt unnatürlich und ängstlich und ein bisschen wie ein Schimpfwort, und weil es zu Gaslecks unter Wasser und Methanlecks in die Atmosphäre oder so führt; und weil alle „Experten“ sagen, es sollte wegen des „Vorsorgeprinzips“ noch weiter untersucht (i. e. auf unbestimmte Zukunft verschoben) werden. Da waren wir doch schon mal, oder?

Sehen Sie, ich wollte nicht, dass es in meinem ersten Blog nach meiner Pause um die Umwelt oder die verflixte Erderwärmung oder um Energiefragen aller Art geht (ich wollte über Texas schreiben, aber das muss warten). Das Ganze ist die wichtigste Sache unserer Zeit. Es ist wichtiger als die königliche Hochzeit [in UK]; es ist viel, viel nachhaltiger als Osama Bin Laden; es wird unser Leben (und das unserer Urururenkel) in fast unvorstellbarer Vielfalt bereichern. Und doch, wie viele Leute tauchten auf der Pressekonferenz der GWPF heute früh auf? Etwa ein Dutzend. Und wie viel Raum wird diese wunderbare, positive, erhebende Geschichte in den Mainstreammedien einnehmen? Viel, viel weniger als der Raum, den man Fox’ tendenziösem Propagandastreifen einräumen wird, oder den (inzwischen rundum entlarvten) Berichten von Cornell und des Tyndall Centre, das ist sicher.

Ich überlasse es Matt Ridley, in seinem Bericht zu erklären, warum die Vorteile von Schiefergas  die (sehr geringen) Nachteile weit überwiegen.

Was ich hier einfach tun möchte … ist, Sie an die horrende soziopolitische Krise zu erinnern, der wir in der freien Welt heute gegenüber stehen: eine Krise, in der ökonomischer Fortschritt und der gesunde Menschenverstand in Gefahr sind, und zwar durch eine heimtückische, lügnerische und erschreckend mächtige globale grüne Bewegung, die ihre Tentakeln in fast jedem Kuchen hat, von der Obama Administration über David Camerons Koalition bis zur EU, den UN und den MSM (Mainstreammedien) sowie in Schulen, Universitäten und NGOS. Die Ideologie dieser Wasserköpfe (Original: Watermelons) hat fast nichts mit der Rettung der Umwelt zu tun (wenn doch, würden sie die Schiefergasrevolution umarmen), sondern fast alles mit einer instinktiven Abscheu vor ökonomischem Wachstum zusammen mit einem schikanösen, puritanischen Zwang, Energiepolitik mittels einem Diktat zu betreiben, anstatt sie den Marktkräften zu überlassen, die effektivste Methode zu finden.

Schiefergas wird nicht sterben; die ökonomischen Argumente zu seinen Gunsten sind zu stark, als dass es ignoriert werden könnte (besonders in Ländern wie Polen mit massiven Reserven von Schiefergas und in jenen Ländern des ehemaligen Ostblocks, die keine Sekunde länger von Wladimir Putins Russland betrogen werden wollen). Aber was wir während der kommenden paar Monate und Jahre erleben werden, sind gut aufeinander abgestimmte Bemühungen von grünen Kampagnen und ihren Sympathisanten in der EU, den Namen Schiefergas zu beschmutzen, um ihre bevorzugte (und natürlich katastrophal teure und umweltzerstörerische) Energiequelle zu fördern, die erneuerbare Energie.

Wir dürfen ihnen nicht erlauben, damit davonzukommen. Unsere ökonomische Zukunft – geschweige denn die Höhe unserer Rechnungen – hängt davon ab.

Link: http://blogs.telegraph.co.uk/news/jamesdelingpole/100086418/dont-let-the-watermelons-kill-the-shale-gas-revolution/

Übersetzt von Chris Frey für EIKE

Weiterführende Artikel hier in der Financial Times 

Brückentechnologie Schiefergas

Neues Gas macht Europa mächtiger

Deutschland kann für den Umbau seines Energiesystems auf langfristig niedrige Gaspreise setzen. Grund dafür ist ein dauerhaftes Gasüberangebot aus unkonventionellen Quellen in Europa. von Nikolai Fichtner Berlin




Das Atomzeitalter ist noch lange nicht zu Ende!

Weshalb Gates die hastige Abkehr der schwarz-gelben Bundesregierung von der Atomenergie mitleidig belächelte, erfuhren die Leser des Wall Street Journal schon Ende Februar. Gates leitet nämlich neben der größten privaten Stiftung der Welt unter anderem auch die kleine Start-up-Firma TerraPower LLC. Das einstweilen nur 30 Mann starke Unternehmen arbeitet daran, Kernreaktoren kleiner, billiger und sicherer zu machen. Gates träumt von einem inhärent sicheren Mini-Kernreaktor, der samt eingeschweißtem Brennstoff in der Erde verbuddelt oder auf Schiffen montiert werden könnte, wo er wartungsfrei 50 bis 100 Jahre lang arbeiten könnte. Die Ingenieure von TerraPower arbeiten bereits am Modell eines so genannten Wanderwellen-Reaktors, in Deutschland bekannt als „Brüter“ – allerdings bislang nur am Bildschirm.

Die Idee für einen solchen Reaktor stammt vom Atom-Pionier Edward Teller. Der Wanderwellen-Reaktor würde für die „Zündung“ nur eine kleine Menge spaltbares Uran 235 benötigen. Die bei der Spaltung von Uran 235 freiwerdenden Neutronen würden von einem Mantel aus abgereichertem Uran 238 aufgefangen, das dabei langsam in Plutonium 239 umgewandelt würde. Dieser Mantel aus abgereichertem Uran, das heißt Abfall aus herkömmlichen Kernkraftwerken, würde etwa 90 Prozent der gesamten Brennstoffmenge ausmachen. Das darin entstehende Plutonium würde durch die Aufnahme weiterer Neutronen über lange Zeit Energie freisetzen. Diese Energie würde durch flüssiges Natrium von Reaktorkern abtransportiert und könnte dann über einen Wärmetauscher auf Turbinen geleitet werden.

Bill Gates weist selbst darauf hin, dass ein solcher Reaktor zurzeit auch in den USA nicht genehmigungsfähig wäre. Es wird wohl noch etliche Jahre dauern, bis die Entwicklungsarbeit so weit gediehen ist, dass sich die Frage der Genehmigung überhaupt stellt. Er sieht aber große Chancen, für sein Projekt die Unterstützung der US-Regierung zu bekommen. Denn Präsident Barack Obama hat in seinem Ansatz für den Bundeshaushalt für 2012 nicht weniger als 853 Millionen Dollar für die Kernforschung einschließlich der Entwicklung von Kleinreaktoren in Aussicht gestellt.

Bill Gates und seine Firma stehen mit Der Idee, sichere Mini-Atomkraftwerke zu entwickeln, keineswegs allein. Schon vor knapp zwei Jahren stellte Prof. Craig F. Smith, der Inhaber des Lawrence Livermore National Laboratory  Lehrstuhls in Monterey/Kalifornien den Small Secure Transportable Autonomous Reactor (SSTAR) vor, bei dem flüssiges Blei als Kühlmittel dienen soll. Blei hat gegenüber Natrium den Vorteil, dass es nicht brennt und obendrein eventuell aus dem Reaktor entweichende Radioaktivität schluckt. Ein Wärmetauscher überträgt die Energie vom flüssigen Blei auf Kohlenstoffdioxid (CO2), das eine Gasturbine antreibt. Eine Kernschmelze ist bei diesem Reaktortyp ausgeschlossen. Smith weist darauf hin, dass schon 15 Länder bei der Internationalen Atomenergie-Behörde IAEA in Wien insgesamt 50 ähnliche Reaktorkonzepte angemeldet haben. Von den in den USA tätigen Nuklear-Firmen verfolgt der japanische Mischkonzern Toshiba, der im Jahre 2006 den bis dahin führenden großen US-Reaktorbauer Westinghouse übernommen hat, das SSTAR-Konzept. Schon relativ weit soll die Entwicklung eines transportablen Klein-Reaktors von 10 Megawatt Leistung gediehen sein. Toshiba arbeitet dabei eng mit der russischen Staatsholding Rosatom zusammen. Die US-Firma Hyperion Power arbeitet in Santa Fe an einem Kleinreaktor mit 25 Megawatt Leistung. Dabei handelt es sich um eine verbesserte Version der russischen Alpha-U-Boot-Klasse, die flüssiges Blei und Wismut für die Kühlung benutzt. Auch der etablierte Großreaktorbauer Babcock & Wilcox hat kleinere Reaktormodelle als neue Geschäftschance entdeckt.

Die Russen haben sich auf den Bau schwimmender „Brüter“ mittlerer Kapazität spezialisiert. Am 30. Juni 2010 fand in der baltischen Werft in St. Petersburg der Stapellauf des ersten schwimmfähigen Kernkraftwerks Akademik Lomonossow statt. Die Barke mit zwei modularen Kompakt-Reaktoren soll ab 2012 die schlecht zugängliche Siedlung Viljuchinsk auf der Halbinsel Kamtschatka von der See aus mit Strom versorgen. Rosatom möchte offenbar den Bau modularer schwimmfähiger Kernreaktoren zu einem originellen Geschäftsmodell ausbauen. Die Staatsholding sieht große Exportchancen für schwimmende Kernkraftwerke in Asien, Lateinamerika und Nordafrika, denn die Metropolen der Schwellenländer befinden sich meistens an der Küste. Neben der Stromversorgung könnten schwimmende Kernkraftwerke auch gut als Energiequelle für die Meerwasser-Entsalzung dienen.

Craig F. Smith sieht im Bau modularer Mini-Kernkraftwerke erst den richtigen Beginn des Atomzeitalters. Denn im Unterschied zu Großreaktoren können diese wie Henry Fords berühmtes Model T preisgünstig in Groß-Serie hergestellt und überall hin transportiert werden, sobald sich bestimmte Typen in der Praxis bewährt haben. Die Kleinreaktoren könnten so gebaut werden, dass sie mit passiver Kühlung auskommen und ihr kompakter Kern für die Nutzer unzugänglich bleibt. Den Kern könnte man in eine Kassette einschweißen, die nur en bloc ausgetauscht werden kann. Während bis heute nur 30 der 200 Länder der Erde über Kernreaktoren verfügen, werde die Atomenergie in Form von Kleinreaktoren für alle zugänglich und erschwinglich werden, meint Smith.

Wenn heute trotz der Katastrophe von Fukushima von einer möglichen „nuklearen Renaissance“ die Rede ist, gilt das wohl in erster Linie für Mini-KKW. Bei Groß-KKW auf der Basis verbesserter Druckwasser-Reaktoren (EPR) zeigen sich demgegenüber immer deutlicher Kosten-Hürden. Schon im Jahre 2008 wurden die Stromerzeugungskosten des französischen EPR bei Flammanville/Nordfrankreich auf mindestens 46 Euro je Megawattstunde geschätzt. Die Baukosten des EPR in Olkiluoto/Finnland gehen an die fünf Milliarden Euro. Weitere EPR-Projekte, etwa in Polen, haben sich denn auch hauptsächlich wegen ungelöster Finanzierungsfragen verzögert. Die Anbieter mobiler und preiswerter Mini-KKW werden sich also wohl nicht über mangelndes Kundeninteresse zu beklagen haben. In Deutschland müssen aber wohl erst die Lichter ausgegangen sein, bevor Bill Gates’ Idee hier auf fruchtbaren Boden fällt.

Edgar L. Gärtner EIKE

 Weiterführende Links: NZZ  Tiefe Wasserstände: «KKW müssen Leistung runterfahren»

dapd vom 11.5.11:  Merkel nimmt steigende Energiepreise in Kauf




Des Kaisers nachhaltige Kleider!

Der Gremium-Vorsitzende Hans Joachim Schellnhuber hat deshalb ein paar zünftige Ideen, wie diese beseitigt werden können, beispielsweise durch „Volksentscheide mit Teilnahmepflicht“ oder von „Ombudsleuten für die Rechte künftiger Generationen – vielleicht sogar mit Parlamentssitz“. Schellnhuber freut sich auf die nachhaltige Zukunft jenseits unserer gegenwärtigen „Mitläuferdemokratie“ und beruft sich dabei auf Umweltminister Norbert Röttgen, der den Weg in die Nachhaltigkeit für eine „zivilisatorische Höchstleistung“ hält. Bundeskanzlerin Merkel bezeichnet Nachhaltigkeit als „Leitprinzip der Bundesregierung“ und möchte sie zu einem „Markenzeichen des 21. Jahrhunderts“ machen. Deshalb fordert sie den deutschen Volkskörper auf, „über alle Lebensbereiche hinweg, den Nachhaltigkeitsgedanken zu verinnerlichen“.

Nun würden wir das ja gerne tun, wenn uns endlich jemand sagen könnte, was Nachhaltigkeit eigentlich ist. Der WBGU hilft mit seiner Definition nicht wirklich weiter: „Nachhaltigkeit ist nicht zuletzt Phantasie.“ Mit den verschiedenen Erläuterungen des Begriffs könnte man eine ganze Dussmann-Filiale füllen, was aber auch nicht schlauer machen würde, denn es handelt sich unisono um schwere Kopfgeburten, in denen eine gefühlte Elite dem dummen Volk das Denken abnimmt. „Nachhaltigkeit klingt so natürlich, so biologisch so ökologisch“, schrieb einmal Hubert Markl, der ehemalige Präsident der Max-Planck-Gesellschaft, „da unklar genug ist, was es eigentlich bedeuten soll, können sich von Wirtschaft und Wissenschaft bis zu Politik und Kirchentagen alle darauf einigen“.

Die bekannteste Definition stammt von der „Weltkommission für Umwelt und Entwicklung“ („Brundtland-Kommission“) der Vereinten Nationen aus dem Jahre 1987. Danach ist eine Entwicklung nachhaltig, wenn sie „die Bedürfnisse der gegenwärtig lebenden Menschen befriedigt, ohne die Fähigkeit künftiger Generationen in Frage zu stellen, ihre eigenen Bedürfnisse zu befriedigen.“ Nachhaltigkeit ist demnach eine Art Welterlösungsformel. Problematisch wird es erst, wenn der Kellner die Rechnung bringt: Welche Bedürfnisse dürfen es denn noch konkret sein? Eine vollwertige Mahlzeit pro Tag? Oder drei? Darf’s auch eine Wohnung sein, Altbau oder Platte? Steht uns ein Urlaub zu, womöglich gar mit dem Flugzeug? Und wer entscheidet das? Vielleicht der Wissenschaftliche Beirat für globale Umweltfragen?

Nachdem die Arbeiterschaft und die Dritte Welt sich selbstständig gemacht haben und als Mündel ausfallen, verschafft die „Nachhaltigkeit“ Weltbeglückern die Chance, sich zum Sprecher des „Klimas“ zu machen oder noch besser „künftiger Generationen“. „Es findet gleichzeitig eine Entmündigung und Anmaßung statt“, schreibt der Ökonom Oliver Marc Hartwich. Entmündigt wird die heutige Generation, denn ihr wird eine eigene Entscheidung, ihr Leben selbstverantwortlich zu führen, abgenommen. Außerdem maßt sich derjenige, der im angeblichen Interesse künftiger Generationen Forderungen erhebt, an, für eben jene Generationen sprechen zu können.

Doch welche Generationen sind überhaupt gemeint? Die in 50 Jahren, in 100 Jahren, in 1000 Jahren oder in 100 Millionen Jahren? Wird es dann überhaupt noch Menschen geben? Und was wird gut für sie sein? Was hätte ein Wissenschaftler Ende des 19.Jahrhunderts zu unserem heutigen Wohle empfohlen? Nachhaltige Pferdekutschen? Petroleumlampen? Raddampfer?
Und was ist vorzuziehen: zehn Millionen Familien für die nächsten 100 Jahre gut zu versorgen oder 100 Familien für die nächsten zehn Millionen Jahre? Sollen die Armen von heute etwa zugunsten der Reichen von Morgen verzichten? Könnte es nicht auch sein, dass die Menschen in 100 Jahren reicher sind als wir heute, genau wie wir reicher sind als unsere Großeltern? Es mag die Wohlmeinenden schmerzen und verstören: Unseren heutigen Wohlstand und Fortschritt verdanken wir weniger der Sorge früherer Generationen um uns, als vielmehr ihrem Wunsch selbst besser zu leben.

Anstatt die Zukunft als ergebnisoffenes Entdeckungsverfahren zu sehen, wird die Idee einer besseren Welt nach Plan wieder salonfähig. An die Stelle des tastenden Fortschritts durch Irrtum und Versuch, soll eine global gesteuerte Ressourcenbewirtschaftung treten. Sie soll im Hinblick auf einen hypothetischen paradiesischen Endzustand erfolgen. Eine solche Idee ist utopisch und Im Kern totalitär.

Auch die populäre Ansicht, dass Nachhaltigkeit gleichsam um ein ehernes Gesetz der Natur sei, ist ein Irrtum. Der Begriff stammt aus dem Waldbau und meint dort, dass man nicht mehr Holz einschlagen solle als nachwächst oder aufgeforstet wird. Dies ist kein natürliches, sondern ein ökonomisches Prinzip. Es geht um Bestandswahrung, wie sie beispielsweise auch bei Wildtier- oder Fischbeständen sinnvoll ist. Deutsche Forstmeister verhalfen dem Prinzip im 18. Jahrhundert erstmals zur Geltung, hatten dabei aber garantiert keine gesellschaftliche Leitidee im Sinn.

Es mag eine kosmische Kränkung sein, aber das Leben ist nicht nachhaltig. Natur ist Anarchie, Revolution, Chaos, Katastrophe. Natur ist ständige Veränderung und Anpassung an neue Umstände, ihr Erfolgsprinzip heißt Evolution, also permanente Veränderung. 98 Prozent aller jemals auf der Erde existenten Arten sind ausgestorben, bevor der Mensch überhaupt auf der Bildfläche erschien. Hätte sich die Natur vor ein paar Millionen Jahren entschieden nachhaltig zu sein, dann dominierten heute noch die Dinosaurier den Planeten. Die Krisen, in denen die Menschen an die Grenzen des Wachstums stießen, konnten bislang immer nur durch Veränderung, menschlichen Erfindungsgeist und neuartigen Einsatz von Technik gelöst werden.

Dass dabei Mäßigung und Vernunft nicht schaden können, ist eine Selbstverständlichkeit und schon gar nicht neu. „Für augenblicklichen Gewinn verkaufe ich die Zukunft nicht“, wusste schon im 19. Jahrhundert der deutsche Technik-Pionier und Unternehmer Werner von Siemens, ohne dafür eine Ethik-Komission oder partizipative Wissenschaft zu benötigen.

Autor: Dirk Maxeiner, Mit freundlicher Genehmigung zuerst erschienen in DIE WELT vom 14.5.2011 und auf Achgut.

Update:

„Wir bewegen uns in Richtung Ökodiktatur“

Auch FAS Redakteur  Winand v. Petersdorf erkennt die schreckliche Philosophie hinter grünen Wohlfühlversprechen Auszug aus FAS vom 15.5.11:

Vor allem Klimaforscher verlieren die Geduld mit zähen demokratischen Prozessen. Der weltberühmte Klimaforscher James Hansen, der das renommierte NASA Goddard Institute for Space Studies in New York leitet, äußert regelmäßig laute Zweifel, dass Demokratien die Klimaerwärmung stoppen können. Jüngst lobte er Chinas autokratisches Regime als Hoffnung. Dort könnte das nachhaltige Leben einfach verordnet werden. Von Angela Merkels oberstem Klimaberater Hans Joachim Schellnhuber stammt der Vorschlag, das Parlament um einen ungewählten Zukunftsrat zu ergänzen, der Gesetze mitbestimmt und dabei als Anwalt künftiger Generationen agiert – eine Art Wohlfahrtsausschuss.

Mehr hier:
http://www.faz.net/…~ATpl~Ecommon~Scontent.html




Die punktuelle Entrüstung über Michael Manns Klima-emails

Die Universität… „hat mehr als 34 000 Dokumente identifiziert, die für die FOIA-Anforderung relevant sind. Aber sie hatte sie bis Ende März nicht für die Freigabe begutachtet.“ Die Möglichkeit, dass diese FOIA-Anforderung tatsächlich Erfolg haben könnte, wohingegen Cuccinellis Bemühungen gerichtlich untersagt wurden, hat einige Leute ziemlich wütend gemacht.

In einem Brief von einer Horde linker Gruppen und Organisationen, die der These von der anthropogen verursachten globalen Erwärmung anhängen (oder tief darin verstrickt sind), an die Präsidentin der UVA, Teresa Sullivan, wurde diese gedrängt, hinsichtlich dieser Bemühungen durch die Hintertür, diese Dokumente zu bekommen, nicht einzuknicken. Die Gruppen unterstützten ihr Anliegen mit zahlreichen früheren Gerichtsurteilen, in denen es um akademische Anforderungen im Rahmen des FOIA ging. Sie machen (mit einem Zitat aus einem Urteil eines Obersten Gerichts in den USA) geltend, dass die Anforderung zurückgewiesen werden sollte, und zwar weil sonst die freie Untersuchung und die unmittelbare Zukunft der Zivilisation zugrunde gehen könnten.

Oh Mann!

Am interessantesten unter den Unterzeichnern ist Robert O’Neil, ein früherer Präsident der UVA und Vorsitzender des Thomas Jefferson Center für den Schutz der freien Meinungsäußerung, welches dafür bekannt ist, „Maulkörbe“ als Auszeichnung an jene zu verleihen, die versuchen, das freie Reden abzuwürgen.

Vielleicht stellt sich ja O’Neil nur vor seinen alten Arbeitgeber. Weniger wohlmeinend könnte man aber auch fragen, wo er während der politisch motivierten Hexenjagd war, die den vormals an der UVA tätigen Wissenschaftler Pat Michaels von der Universität vertrieben hatte, nur weil er weiter orthodoxe Ansichten über den Klimawandel hatte.

Das ist genau der Punkt, den Chris Horner in einer Pressemitteilung als Antwort auf den Brief aufwirft:

ATI stellt fest, dass die Entrüstung über die “akademische Freiheit” bei den 12 Gruppen gefehlt hatte, als Greenpeace ähnliche Aufzeichnungen von Manns früherem Kollegen im Department of Environmental Sciences an der UVA, dem wohlbekannten Klimaskeptiker Patrick Michaels einsehen wollte. Sie waren genauso ruhig, als Greenpeace die Aufzeichnungen von Professor David Legates an der University of Delaware sehen wollte sowie jene von Dr. Willie Soon und Dr. Sallie Baliunas an Harvard. Und sie waren ruhig, als mit Kampagnen Druck auf klimawissenschaftliche Akademiker in Washington (state) und Oregon ausgeübt worden ist, die ebenfalls skeptisch hinsichtlich des Alarmismus waren.

 „Aber natürlich waren diese früheren Bemühungen etwas ganz anderes”, sagte Horner. „Diese Gruppen mochten das Denken und die Ansichten jener Wissenschaftler nicht. Offensichtlich waren diese unbequem und daher nicht seriös.“

Vielleicht qualifizieren sie sich nicht für einen “Maulkorborden”, aber sie haben sich mit Sicherheit einen Platz in der Ruhmeshalle selektiver Entrüstung verdient.

Mein Kollege Scott Lee hat Horner zu dem UVA-Fall interviewt und zu den ziemlich eigenartigen Argumenten, mit denen man begründen wollte, ihm die Mann’schen Dokumente auszuhändigen. Diese jüngsten Entwicklungen machen klar, dass wir Chris erneut in der Show brauchen.

Update

Unser Folgeinterview mit Chris Horner ist hier. Ich habe dieses Interview hier schriftlich gefasst.

Link: http://scoreradionetwork.com/2011/04/the-selective-outrage-over-michael-manns-climate-emails/

[das erwähnte Interview liest sich so:]

Horner: Michael Mann könnte etwas zu verbergen haben

Von Norman Leahy 04/26/11 12:53 PM

In der Radiosendung „The Score” haben wir die Story von Chris Horner verfolgt, wie er in Zusammenarbeit mit dem American Tradition Institute ATI eine Anfrage an die UVA im Rahmen des FOIA gerichtet hat, und zwar nach Einsichtnahme in e-mails und Materialien, die der frühere Professor bei der UVA Michael Mann während seiner Zeit dort erstellt hat. Was wir im Interview mit Horner erfahren haben, hat uns den  Unterkiefer fallen lassen.

Als eine, wie Horner es nannte, „Horde von Interessengruppen“ Wind davon bekam, dass einige Leute auf Manns emails lauern, wurden sie bei der UVA vorstellig mit „wagen Sie es nicht, mit Berufung auf Gesetze die Aufzeichnungen zu veröffentlichen, für die der Steuerzahler gezahlt hat, und in einer betrügerischen Voruntersuchung unter einem Statut zu kooperieren, das einstimmig in der Virginia General Assembly beschlossen worden ist, und die nirgends eine Befreiung für Akademiker vorsieht.“

Horner sagte, dass die UVA, nachdem diese Gruppen einmal ihr Missfallen kundgetan hatten, „den Kurs um 180 Grad drehte“ und zu kämpfen beschloss, und zwar mit Hilfe der Anwaltskanzlei (des früheren US-Senators) John Warner in Washington, der gegen eine Zahlung von $ 500 000 dafür sorgte, dem Steuerzahler diese Aufzeichnungen vorzuenthalten.“

Er schilderte, wie er entdeckt hatte, dass die FOIA einen Richtlinienbeauftragten hatte – dessen Büro gar nicht schnell genug die emails des früher an der UVA tätigen Klimawissenschaftlers Pat Michaels an Greenpeace übergeben konnte (sobald der Verein einmal die festgelegte Gebühr entrichtet hatte) – und beschloss, eine eigene Anfrage unter dem FOIA nach Manns emails zu starten.

Aber das wissen wir alles. Die UVA und die anderen Interessenverbände standen auf Manns Seite und bekämpften Monate lang Cuccinellis Anforderung von Dokumenten. Aber es war jene Anfrage von Greenpeace an die UVA nach den Arbeiten von Pat Michaels, die Beine bekommen hatte.  Die Umweltgruppe richtete ähnliche Anfragen an andere Institutionen, um die Aufzeichnungen weiterer Klimaskeptiker zu sehen, die in einer Anzahl von Fällen in Kampagnen gipfelte, jene Skeptiker von ihren Stellungen zu feuern. Wo waren die Stimmen zur akademischen Redefreiheit während dieser Kampagnen? Sie saßen auf ihren Händen.

Nun jedoch wurden sie plötzlich aktiv, weil Michael Mann, der ihren Glauben an die Klimaänderung teilte, vermeintlich angegriffen wurde. Horner sagt, dass diese Gruppen „ein wenig zu spät zur Party gekommen waren“, weil, wie oben erwähnt, die UVA schon gesagt hat, dass sie gewillt ist, diese emails der Akademiker bekannt zu machen, „solange er ein Klimaskeptiker ist“.

Horner stellte fest, dass die erste von vielen Mann’schen Aufzeichnungen inzwischen veröffentlicht worden sein sollten. Aber er macht sich Sorgen, dass diese jüngste Intervention von den Unterstützern Manns dazu führt, die Führung der UVA davon zu überzeugen, die weitere Veröffentlichung abzulehnen. Für ihn ist das eine verstörende Möglichkeit.

Also warum kämpfen sie so schwer? Horner meint mit Hinblick auf die legale Vorgabe der UVA: „Sie haben uns eine halbe Millionen Gründe geliefert dafür, dass es etwas (in Manns emails) zu verbergen gibt“. Man hatte Horner gesagt, dass Manns eigener Rechtsanwalt die UVA kontaktiert und gefragt hat, ob die Universität die Absicht hatte, die Aufzeichnungen öffentlich zu machen. Seine Anfrage deutete darauf hin, wie besorgt er ist, was da enthüllt werden könnte, wenn sie wirklich veröffentlicht werden würden.

Wir könnten es nur zu bald erfahren.
Mehr dazu im Washington Examiner: http://washingtonexaminer.com/blogs/local-opinion-zone/2011/04/horner-michael-mann-may-have-something-hide#ixzz1LBHxgi3j

Link: http://washingtonexaminer.com/blogs/local-opinion-zone/2011/04/horner-michael-mann-may-have-something-hide

Beide Artikel übersetzt von Chris Frey für EIKE




Grüne Maßnahmen laden zu großangelegter Korruption ein

Die Organisationen warnt, dass die vom Klimawandel am meisten bedrohten 20 Nationen – wohin Millionen von Zuwendungen und Hilfen fließen sollen – zu den korruptesten der Welt gehören – stärkere Überwachung wäre nötig, um den zielgerichteten Einsatz der Gelder zu sichern. Keines der Länder, eingeschlossen Bangladesch, Simbabwe, Ägypten und Vietnam erreicht mehr als 3,6 auf dem internationalen Korruptionsindex von Transparency International. Null bedeutet völlig korrupt und zehn "sehr sauber".
Laut TI würde jegliches Absaugen grüner Zuwendungen die Anstrengungen zur Reduzierung der Auswirkungen des Klimawandels unterminieren: von Entwicklungsprojekten wie Windfarmen, Sonnenkraftwerken, Deichbauten, Bewässerungssystemen und Behausungen, die Naturkatastrophen standhalten könnten.
"Aus der Korruption kommt nichts Gutes, auch nicht für unserer Erde Zukunft," sagte Huguette Labelle, Vorsitzende von TI. "Das Versagen, Klimaschutzmaßnahmen richtig zu verwalten, führt nicht nur gegenwärtig zu fehlgeleiteten Geldern und betrügerischen Projekten, sondern geht auch zu Lasten der zukünftigen Generationen." Der Bericht "Global Corruption Report: Climate Change" schätzt die gesamten Aufwendungen zur Bekämpfung des Klimawandels bis 2020 auf fast $700 Milliarden (£420bn). Und er stellt fest: "Überall, wo große Summen Geldes durch neue und unerprobte Finanzmärkte und Mechanismen fließen, besteht ein Korruptionsrisiko".
Das hauptsächliche Finanzwerkzeug zur Bekämpfung des Klimawandels, der Kohlenstoffzertifikathandel ist bereits von Betrug durchzogen, sagt der Bericht. Im Januar war der Zertifikatehandel der Europäischen Union geschlossen worden, nachdem er von Cyber-Hackern angegriffen worden war. Mehr als drei Millionen Zertifikate waren von Regierungskonten und privaten Firmenkonten gestohlen worden.
Auch wiederholter Steuerbetrug fand statt. Die Vorstellung von der Bedarfsdeckung des europäischen Strombedarfs durch konzentrierte Sonnen-Kraftwerke, die 1 Prozent der Sahara überdecken sollen, ist bereits unterhöhlt von bürokratischen Problemen und der Korruption in Nordafrika, die zu einer Erhöhung der Risiken und Kosten der Investitionen führen. Nachforschungen spanischer Offizieller zufolge wurde entdeckt, das jedes zehnte seiner Sonnenkraftwerke fälschlicherweise als ’im Betrieb befindlich’ registriert war, obwohl es keine Einspeisung ins Netz lieferte.
TI warnt: Der Drang zu Lösungen mit niedrigem CO2-Ausstoß hat sich bereits zu einem Fluch für einige Kommunen entwickelt. Kommunale Behörden, die Land für die Erzeugung von Energiepflanzen verkaufen wollen, müssen lokale Besitzrechte berücksichtigen. Die Hälfte der bekannten Reserven des für Elektrofahrzeuge nötigen Lithiums liegen angeblich in Boliviens Uyuni Salzsee, aber Firmen, die die Vorräte ausbeuten, haben es unterlassen, sich mit der lokalen Bevölkerung zu verständigen, sie haben die Öko-Systeme geschädigt, die Wasserreserven bedroht und den Tourismus im Keim erstickt.
Laut dem Bericht ist illegaler Holzeinschlag, dessen Wert auf mehr als $10 Milliarden jährlich geschätzt wird, von korrupten Zoll- und anderen Behördenvertretern begünstigt worden. Einige Länder haben bereits CO2-Zertifikate für erlogene Aufforstungsprojekte beansprucht. In Kenia wird die Entwaldung durch die Korruption bei den unterbezahlten Waldhütern verschärft. TI schätzt, dass Kenia 1963 zu etwa 10 % von Wald bedeckt gewesen ist, 2006 nur noch von weniger als 2 %.
Alle Länder sind betroffen: England wurde kritisiert, weil man vor den sogenannten "green-washing" Marketing-Strategien der Firmen versagte, die fälschlicherweise die Umweltfreundlichkeit ihrer Produkte behaupteten.
Auch Amerikas Versagen zur Eindämmung der Kohle- und Braunkohlenlobby wird deutlich benannt – Mehr als 2 000 eingetragene Öl-, Gas-, Kohle- und Elektrizitätserzeuger-Lobbyisten haben 2009 mehr als $400 Mio. zur Verfügung gehabt im Vergleich mit $22 Mio. der Grünen Lobby.

Von David Connett and Chris Stevenson – Mai 2011

Der Originalartikel erschien am 1.5.11 im Independent hier

Die Übersetzung besorgte Helmut Jäger EIKE

Aktuelles Update aus Deutschland:  

Grüne als Lobbyisten Erst Bio, dann Bimbes

unter dieser Überschrift macht SPON Autor Gerd Langguth am 16.5.11 einen Bericht über die Lobbytätigkeit grüner Abgeordneten auf:

Auszug: 

Die Grünen geben sich gerne kritisch gegenüber Lobbyisten. Wenn aber Politiker der Ökopartei neue Karrierewege gehen, suchen sie sich häufig gutdotierte Posten bei Interessenvertretern. Vom Abgeordneten und BUND-Mitglied zum Freund der Chemieindustrie? Für Grüne kein Problem….

…..Die Industrie hat früh erkannt, wie wichtig gutvernetzte grüne Politiker sind, um für sie Lobbyismus zu betreiben. Dabei setzt die Industrie darauf, dass sich grüne Funktionsträger mit viel "Bimbes" (Ausdruck von Helmut Kohl für Geld) auch dann gewinnen lassen, wenn sie einst für diametral entgegengesetzte Zielsetzungen standen. Nur so ist zu erklären, dass Jens Katzek auf einmal – von heute auf morgen – für genveränderte Pflanzen lobbyierte.

Auch Grüne sind nicht mehr unbedingt immun gegen den schnöden Mammon.

Den ganzen Artikel finden Sie hier




Grüne ‚verloren’, sobald sich Wachstum durchsetzt

In einer Kolumne im Guardian hat sich Mr. Monbiot in dieser Woche darüber beklagt, dass grüne Aktivisten damit gescheitert sind, „tiefe Glaubenssätze … die in einigen Fällen ungeprüft bleiben“ zu überwinden. Er sagte, dass hauptsächlich die Schlacht um die Energieversorgung und Kohlenstoffemissionen dafür gesorgt hat, dass die Umweltbewegung in die Auswahl von Zielsetzungen gezwungen wurde, die „zueinander passen“.

Die grünen Vorhersagen des Zusammenbruchs wurden nicht Wirklichkeit, wächst doch die kohlenstoffbasierte Wirtschaft immer weiter. „Das Problem, dem wir gegenüber stehen“, sagt er, „ist nicht, dass wir zu wenig fossile Treibstoffe haben, sondern zu viele!“ Zwar nehmen die konventionellen Ölvorräte ab, doch wird die Wirtschaft dann auf Ölsände, Schiefergas und Kohle ausweichen. Wenn die Kohle zur Neige geht, werden andere fossile Treibstoffe deren Platz einnehmen. Weil die Grünen ihre politischen und ideologischen Ansätze nicht auf sinnvolle Weise in der Weltwirtschaft durchsetzen können, sieht Mr. Monbiot die Welt auf eine „Umweltzerstörung“ zugehen.

Mr. Monbiots Defätismus angesichts der ökonomischen und technologischen Realität repräsentiert nur einen Aspekt der anscheinend in Gang gekommenen großen Änderung in Politik und Wirtschaft rund um die Klimaänderung.

Ein anderes Omen: Jeff Immelt, der Chef des globalen Industrieriesen General Electric (GE), hat öffentlich den Umgang von GE mit Klimaaspekten und der Intervention der Regierung, um die Kohlenstoffemissionen zu kontrollieren, neu ausgerichtet. In Kommentaren dieser Woche, berichtet Reuters, hat Mr. Immelt – ein ausgesprochener Aktivist bzgl. der Klimaänderung und Berater von Präsident Obama – gesagt: „Wenn ich eines noch einmal machen müsste, würde ich nicht soviel über grün gesagt haben“.

Er sagte auch, dass er seine aktivistische Unterstützung einer umfassenden Energiepolitik der USA einstellen werde. „Obwohl ich an die globale Erwärmung und an die Wissenschaft glaube … hat diese eine zu elitäre Assoziation angenommen; es war zu wertvoll, und es brachte die Opponenten zu der Ansicht, wenn man grüne Initiativen fördert, sind einem die Arbeitsplätze egal. Ich bin ein Geschäftsmann. Das heißt, alles, worum es mir geht, sind Arbeitsplätze“. Über die nationale grüne Politik sagte er: „Ich bin in gewisser Weise darüber hinweg, für eine umfassende Energiepolitik zu werben. Ich halte meinen Kopf wieder gesenkt und arbeite“.

Mr. Immelts Konversion zur Schaffung von Arbeitsplätzen als eine Priorität könnte sehr gut in weiter gefasstem Sinne die öffentliche und politische Meinung über die Klimaänderungen und Kohlenstoffemissionen spiegeln. Dass die Öffentlichkeit in Klimadingen irgendwie unsicher ist, ist nichts Neues, wobei die Zweifel sich sicher verstärken werden im Zuge einer neuen Studie, die diese Woche in Science erschienen ist und die zeigte, dass sich die Klimaänderung von Land zu Land unterschiedlich auswirkt. Tatsächlich gab es seit 1980 in Kanada und den USA keine Anzeichen einer Erwärmung. Vielmehr sind die Temperaturen seit jenem Jahr zurückgegangen.

In der Studie in Science, angeführt von David Lobell von der Stanford University, haben Forscher entdeckt, dass die Stabilität des Klimas in Nordamerika zu einer Zunahme der landwirtschaftlichen Produktion geführt hatte, während Erwärmung in anderen Teilen der Welt einen Rückgang der Produktion einiger Ernteerzeugnisse in einigen Regionen gebracht haben könnte. Im Großen und Ganzen kam die stark abgesicherte Studie zu dem Ergebnis, dass noch mehr Forschung notwendig ist.

Ungewissheit und Doppelsinn, Markenzeichen der Klimawissenschaft, könnte die Ergebnisse einer Meinungsumfrage in UK erklären. Eric Berger, Wissenschaftsautor beim Houston Chronicle, sagt, dass eine britische Umfrage vor Kurzem gezeigt hatte, dass immer mehr Menschen davon überzeugt sind, dass die Vorteile der Klimaänderung die Risiken überkompensieren, viel mehr als umgekehrt. Mit anderen Worten, nur etwa ein Viertel der Antwortenden glaubt, dass die Risiken des Klimawandels größer sind als die Vorteile.

Für Politiker bedeutet das, dass die jüngsten Entwicklungen keine drastischen Aktionen gegen Kohlenstoff nahelegen, die von den Wählern automatisch begrüßt werden. In Nordamerika unterminiert die fehlende Erwärmung die politische Motivation. Anderswo werden die Menschen darauf aufmerksam, dass es im Falle einer tatsächlichen Erwärmung Gewinner und Verlierer gibt – also warum sollte man Kohlenstoffkontrollen einführen, die zu wirtschaftlichen Risiken führen können?

Mittlerweile werden die grünen Träume einer kohlenstofffreien Zukunft immer schwächer, fährt doch die Energieindustrie der Welt fort, ständig neue fossile Energiequellen zu erschließen. Riesige Ölfelder wurden in Brasilien entdeckt. Die größte Revolution bzgl. Energie liegt nicht bei Sonne und Wind, wie es die Grünen immer fasziniert hat, sondern bei Schiefergas. Eine Übersicht über die Schiefergasreserven, The Shale Gas Shock, durch den Journalisten Matt Ridley für die Global Warming Policy Foundation (GWPF), hebt die erstaunlichen Perspektiven für Schiefergas rund um die Welt hervor, einer Energiequelle mit geringerem Kohlenstoffausstoß – und viel billiger (Siehe den begleitenden Auszug.).

All dies treibt die George Monbiots dieser Welt zum Rückzug. Er stellte die, wie er es nannte, „heikle Frage für uns Grüne“, eine Frage, die die grüne Ideologie nicht beantworten kann. „Warum ist die globale Wirtschaft nicht zusammen gebrochen, so wie wir es vorhergesagt haben? Ja, sie schwankte, wenn auch hauptsächlich aus anderen Gründen. Inzwischen ist das globale Wachstum zurückgekehrt, und zwar mit Zins und Zinseszins: es erreichte im vorigen Jahr 4,6%, und das IMF nimmt die gleiche Rate 2011 und 2012 an… Nicht nur, dass die Wirtschaft offenbar viel widerstandsfähiger gegen Nachschubprobleme ist als wir angenommen haben, sondern auch, dass das Ergebnis dieser Probleme eine Zunahme und nicht eine Abnahme der Umweltzerstörung ist“.

Nach Mr. Monbiots Meinung erzeugen jedoch alle menschlichen Aktivitäten eine Umweltzerstörung, weshalb sich viele Menschen außerhalb der grünen Bewegung in etwas einbringen, was er umweltbedingte „Glaubenssysteme“ nannte. Was die Menschen wollen, ist, was Mr. Immelt dazu gebracht hat, sein „alles, was mich bewegt, ist die Schaffung von Arbeitsplätzen“ zur ersten Priorität zu erheben. Er könnte die Erzeugung von Wohlstand, Produktion und Reichtum hinzugefügt haben.

Link: http://opinion.financialpost.com/2011/05/05/terence-corcoran-greens-%E2%80%98lost%E2%80%99-as-growth-prevails/

Übersetzt von Chris Frey für EIKE




Offener Brief an Herrn Dr. Wolfgang Thüne zu „Statistiken vernebeln zunehmend die Realität“

Lieber Herr Thüne,

wir kennen uns persönlich und schätzen uns gegenseitig. Dennoch und unbeschadet auch unserer zukünftigen gegenseitigen Hochachtung und Wertschätzung: eine zentrale Aussage Ihres Beitrags kann nicht unwidersprochen bleiben, dazu gleich mehr. Ihr Beitrag enthält fast nur zutreffende Punkte, schon die Überschrift gehört dazu. Allerdings liegen diese Punkte mehr auf der gesellschaftlich-politischen Ebene. Auch Ihre Beschreibung von "Klima" sowie weitere die Meteorologie betreffenden Aspekte sind schön und richtig wiedergegeben und haben mir gut gefallen. Sie argumentieren aber leider und unnötigerweise

Der Treibhauseffekt ist eine simple Behauptung, die noch nie wirklich nachgewiesen werden konnte. Bevor sich ein Effekt, die Abhängigkeit der Temperatur vom Kohlenstoffdioxidgehalt der Luft, im globalen Maßstab zeigt, müsste er tatsächlich gemessen und gezeigt werden können.

Dieses Argument verfehlt den Punkt. Ein hoher Prozentsatz von Phänomenen und Effekten der Physik, die zudem Basis technischer Anwendungen sind, können nicht direkt gemessen werden. Nur ein stellvertretendes Beispiel – Druck und Temperatur im Sonneninneren. Der Bethe-Weizsäcker-Zyklus, der die Arbeitsweise des Fusionsofens „Sonne“ beschreibt, ist eine kernphysikalische Theorie, von der immer nur Details hier auf der Erde und im Labor gemessen werden können. Diese Theorie trifft zu. Das Verhalten und die bisherige Lebensdauer unserer Sonne, aber auch die Häufigkeitsverteilung der Elemente ist ohne sie völlig unerklärbar. Die Militärphysiker hätten ferner ohne Theorie der kernphysikalische Mechanismen, von denen ebenfalls nur ein kleiner Teil der direkten Messung zugänglich ist, keine Wasserstoffbombe bauen können (insofern wären diese Grundlagen vielleicht besser nicht bekannt worden). Die Liste solcher Beispiele ist beliebig fortsetzbar.

     Es fällt auf, dass insbesondere oft Ingenieure das Argument  vertreten, eine nicht mögliche Messung falsifiziere automatisch einen physikalischen Effekt. Dies liegt vermutlich daran, dass die gedankliche Schlussfolgerung „Es gibt keine direkte Messmöglichkeit für eine Hypothese oder Theorie, also ist sie Unsinn“ zwar im Ingenieurbereich in aller Regel seine Berechtigung hat, nicht aber in der Physik.

     Sie liegen natürlich absolut richtig mit Ihrer impliziten Aussage (s. Bild am Anfang Ihres Beitrags), dass „Treibhauseffekt“ eine falsche Bezeichnung ist, denn die Erwärmung des Gärtnertreibhauses erfolgt durch Konvektionsverhinderung und so gut wie nicht durch Strahlungsvorgänge. Bei der Erde verhält es sich anders. Die Erde hat kein Dach weder aus Glas noch aus Gas, und jede sommerliche Quellwolke steigt viele Kilometer ungebremst in die Höhe, einschließlich aller enthaltenen Gase. Im Fall der Erde gibt es keine Konvektionsverhinderung, hier sind allein die Strahlungsflüsse für die Erdtemperaturen maßgebend. Daraus darf aber nicht der Schluss folgen, es gäbe keinen Treibhauseffekt und es gäbe auch keine Gegenstrahlung. Da Sie so viel Wert auf Messungen legen, müssten Sie eigentlich die Messungen der Gegenstrahlung akzeptieren, die heute nun wirklich keine technischen Schwierigkeiten bereiten und inzwischen zum Standard gehören (hier). Lesern, die es vielleicht noch nicht wissen, sei zur Information weiterer Einzelheiten mein zusammen mit Dr. Link verfasster EIKE-Beitrag „Der Treibhauseffekt – wie funktioniert er?“ (hier) empfohlen, der die entsprechende Treibhaustheorie vollständig und allgemeinverständlich beschreibt, weitere Informationen findet der Leser unter den Menüpunkten „Publikationen“ und „Lüdecke“.

Ihrer Forderung wiederum

„Den heutigen, ganz auf Computermodelle fixierten Klimaforschern sei empfohlen, sich nicht mehr allein auf Ideen, Theorien und Modelle zu orientieren, sondern an dem Realen, Existenten und Gemessenen, der Empirie.“ 

schließe ich mich wieder voll und ganz an, denn nur mit einer fiktiven Wasserdampfrückkoppelung, die, eingebaut in die IPCC-Modelle, einen nicht messbaren Hot-Spot in der höheren Erdatmosphäre postuliert, ist Klima-Alarmismus überhaupt möglich. Mit dem Treibhauseffekt des anthropogenen CO2 als einem absolut vernachlässigbaren Effekt nicht. Wie im EIKE-PIK-Workshop (hier) Prof. Weber (em. Universität Dortmund) gezeigt hat, kann es auf Grund  des Lösungsgleichgewichts Erdatmosphäre-Ozeane und eines exponentiellen Sättigungseffekts niemals mehr als etwa 500-600 ppm CO2 in unserer Atmosphäre geben. Damit und des fehlenden Hot-Spots wegen sind alle IPCC-Modelle falsch. Ich bedaure, lieber Herr Thüne, dass ein so wertvoller und schöner Beitrag wie der Ihre sich durch die unbegründbare Abrede des elementaren Treibhauseffekts zwangsweise entwertet und nicht auf die tatsächlichen Schwächen der IPCC-Hypothese eingeht.

   Schlussendlich möchte ich betonen, dass Mehrheiten in der Wissenschaft zwar kein unbedingtes Qualitätsmerkmal sind, aber es dennoch jedem Vertreter eines nicht vorhandenen Treibhauseffekts zu denken geben sollte, dass sogar so gut wie alle wissenschaftlichen IPCC-Gegner – und zu denen gehören wir ja nun beide gemeinsam, Sie wie ich, lieber Herr Thüne – den Treibhauseffekt nicht in Frage stellen und damit das Ihrer Auffassung nach beste Argument gegen den IPCC-Klima-Alarmismus leichtfertig aus der Hand geben. Sie tun es natürlich nicht. Allein in unserem EIKE-Fachbeirat werden Sie wohl nur schwer einen Experten finden, der mit Ihnen übereinstimmt. Es gibt ferner lediglich eine Handvoll peer-reviewed Veröffentlichungen Ihrer Meinungsrichtung, ich nenne stellvertretend die von Gerlich/Tscheuschner, Kramm und Chilingar. Diese Veröffentlichungen wurden hinreichend fachlich widerlegt und werden nun von der Fachwelt ignoriert oder nicht ernst genommen.

Mit allerbesten Grüßen an Sie

Ihr

Horst-Joachim Lüdecke

EIKE-Pressesprecher




Smart Grid und dezentralisierte Stromerzeugung: Ein flüchtiger Blick auf eine ferne Zukunft

Ist es das richtige Gleis, 1. die Kapazität des Netzes zu erhöhen und neue Übertragungswege einzuführen, um die Integration von Wind- und Solarenergie in brauchbarem Umfang vorzubereiten, oder 2. Smart Meters zu implementieren, um die Versorgung aus dieser schwankenden und unzuverlässigen Quelle zu regeln (sprich zu begrenzen)?

Absolut nicht! Solche unklugen Initiativen werden eine unakzeptabel hohe Investition in die Elemente des Grids erfordern, die nur zu schnell irrelevant werden dürften, wenn die erforderlichen Änderungen der Strominfrastruktur in der Zukunft konstruiert und eingeführt werden.

Aber erste Dinge zuerst: Was bedeuten die Begriffe Dezentralisierte Erzeugung (DG) und Smart Grid?

Dezentralisierte Stromerzeugung (Distributed Generation DG)

Eines der vordergründigen Ziele der DG ist es, eine gewisse Ebene des lokalen Stromverbrauchs zu erreichen und nicht, diesen Strom in das Netz einzuspeisen. Das Aufzwingen eines bestimmten Niveaus Erneuerbarer Energien (RES) und von Einspeisetarifen mit Vorzugspreisen, um die Entwicklung der Wind- und Solartechnik voranzutreiben, wird für Letzteres zu einem „Goldrausch“ führen. Die Stromerzeugung durch Wind und Sonne im großindustriellen Maßstab ist ähnlich der traditionellen Erzeugung, in denen der Strombedarf in großen Gebieten gedeckt wird, und im Falle von Solar- und Windenergie häufig über weite Entfernungen. Der Strom wird geographisch verteilt, und das ist ein Element der Differenzierung von konventionellen Quellen der Stromerzeugung. Aber dies ist so wegen der weit verteilten Treibstoffe sowie Sonnenlicht und Wind.

Die korrekte Darstellung von DG enthält die kleinräumige Stromerzeugung, zum Beispiel durch Solarpaneele auf den Dächern und eventuell Mikrowindturbinen (bessere Designs sind möglich) ebenso wie viele andere kleinräumige Erzeugungsmöglichkeiten, und diese Liste kann ziemlich lang sein. Diese werden in Mikronetze integriert, die selbständig die lokale Produktion steuern, ebenso wie die Speicherung (was auf diesem Niveau auch heute schon möglich ist und in Zukunft vielversprechend aussieht) sowie den Verbrauch und die Verbindung zum Netz über intelligente Leitungen. Mikronetze können viele Arten von „Gemeinden“ bedienen, zum Beispiel Wohngebiete (vor allem in ländlichen Gebieten), eine Kombination von kommerziellen/industriellen/privaten Gemeinschaften und Universitäten. Mit solchen „Konzepten“ wird bereits experimentiert, zum Beispiel an der University of California, San Diego (UCSD). Die Konzepte schließen eine Kombination mit einem Heiz- und Stromsystem mittels Gasturbinen sowie solaren Technologien und Brennstoffzellen ein, die hier beschrieben werden, sowie Elektroautos, beschrieben hier. Ein Zitat von Byron Washom, dem Direktor der Strategischen Energieinitiativen auf dem Campus ist angemessen:

 „Die USCD wird zu einem Laboratorium werden, in dem Technologien getestet werden sowie das Verhalten der Verbraucher analysiert werden kann”.

Man ignoriere den Hype in den o. g. Beispielen, aber applaudiere dem Versuch, sich den beschriebenen Entwicklungen anzunähern, wie sie von Washom auf den Punkt gebracht worden sind.

Werden die “smart” meters, die heute schon installiert werden, mit den smart grids kompatibel sein, die erst noch entworfen und entwickelt werden müssen? Das ist unwahrscheinlich und birgt das Potential hoher unnützer Kosten, was künftige Generationen belasten dürfte. Heutzutage scheint die Hauptaufgabe der smart meters darin zu bestehen, ein Mittel zur Erhöhung der Stromraten zu sein, und zwar durch eine aggressive Preisgestaltung von Tag zu Tag. Damit sollen die erforderlichen großen Investitionen gedeckt werden, vor allem für Windfarmen samt deren zu ihrer Unterstützung erforderlichen Verteilungs- und Erzeugungsmöglichkeiten.

Das Smart Grid

In einer Broschüre des Department of Energy (DOE) werden kurzfristige Initiativen, wie sie im zweiten Abschnitt oben beschrieben werden, als das „intelligentere“ Netz bezeichnet und sollen den Weg zum „smart“ grid ebnen. Sogar ohne jedes Wissen über die involvierten Probleme wird jeder, dem unglaubwürdige Versprechen bekannt sind, die in manchen Werbungen nur zu offensichtlich sind, die Warnzeichen erkennen. Hier folgt ein Auszug aus dem Papier des DOE über Initiativen zum „smarter“ grid (Hervorhebung von mir):

  • Verbesserung der Zuverlässigkeit auf ein Niveau, wie es zuvor noch nie möglich war
  • Verbesserung der Bezahlbarkeit
  • Stärkung unserer globalen Wettbewerbsfähigkeit
  • Vollständige Verbindung von erneuerbaren und herkömmlichen Energiequellen
  • Potentielle Reduzierung unseres Kohlenstoff-Fußabdrucks (interessanter Aspekt)
  • Einführung von Fortschritten und einer Effizienz, die man noch entwerfen muss.

Mehr Informationen hierzu und über die Warnungen der North American Electric Reliability Corporation (NERC) wurden vor Kurzem hier beschrieben.

In Wirklichkeit weiß kein Mensch, wie die smart grids schließlich aussehen werden. Sie repräsentieren eine grundlegende Verschiebung der Infrastruktur unserer elektrischen Energie, die notwendigerweise lange brauchen wird, bis sie sich auswirkt, teilweise auch deshalb, weil sie zu sozialen Auswirkungen bei jeder dieser Umstrukturierungen führen wird. Wie schon erwähnt, ist es sinnvoll, als Zeitrahmen zur Verwirklichung dieser Pläne aus diesen Gründen sowie aus Gründen der Entwicklung und des Preises vieler Technologien innerhalb einer solide konstruierten Architektur die zweite Hälfte des 21. Jahrhunderts anzunehmen.

Führt man sich dies vor Augen, ist die heute vorgenommene aggressive Einführung wahrscheinlich nur vorläufig und hat fragwürdige Motive. Ebenso weiß kein Mensch, wie der Transport, die Kommunikation, die Informationsprozesse, die Bildung, eine Weltregierung, die Gesundheitsvorsorge, die Erzeugung von Nahrungsmitteln und die städtische Entwicklung im gleichen Zeitrahmen aussehen. Effektive Änderungen in all diesen Komplexen sind evolutionärer und nicht revolutionärer Natur. Die Stromerzeugung und –verteilung ist genauso fundamental wie dies alles, und jemand, der dies in kurzer Zeit revolutionieren will, ist einfach desinformiert.

In einem Artikel in der Ausgabe der Zeitschrift Power Magazine im April 2011 [Original: 2021; vermutet wird ein Schreibfehler. A. d. Übers.] mit der Überschrift „Smart Grid und dezentrale Erzeugung: besser beides zusammen“ findet sich ein gut dargestellter Hintergrund für diese Entwicklungen. Unter den vielen dort genannten Details sind einige, die einen vernünftigen Rahmen für diese bedeutende Änderung der Infrastruktur beschreiben:

  • Niemand weiß, wie die Smart Grids im Endeffekt aussehen. Daher sollten keine frühen und große Investitionen in die Entwicklung von Technologien gesteckt werden, bevor diese nicht besser verstanden sind.
  • Eine der primären Funktionen von DG ist es, den lokalen Bedarf zu decken, und nicht die Einspeisung ins Netz.
  • Wir sollten uns nicht durch Diskussionen über die teure Einführung von Konzepten ablenken lassen (d. h. in brauchbarem Umfang die Speicherung von Elektrizität, die großräumige Verbreitung von Elektromobilen), die erst in ferner Zukunft verwirklicht werden können.
  • Eine grundlegende Entwicklung muss der Sicherheit des Internets gelten. Dazu empfiehlt es sich, 1. übereilte Implementationen zu vermeiden und 2. die Wichtigkeit der lokalen Natur der wahrscheinlichsten Struktur künftiger smart grids zu beachten, die einer netzweiten Einspeisung entgegen steht.

Link: http://www.masterresource.org/2011/04/the-smart-grid-and-dg/#more-14745

Übersetzt von Chris Frey für EIKE

Bemerkung des Übersetzers: Unterstrichen wird in diesem Beitrag die lokale Natur der sog. smart grids. Für die großräumige Stromerzeugung z. B. für energieintensive Unternehmen werden sie also nie taugen. Auch wird gründlich mit dem Aktionismus aufgeräumt, der vor allem hierzulande derzeit in dieser Hinsicht an den Tag gelegt wird.

Nur am Rande kurz gestreift wird die Möglichkeit irgendwelcher Institutionen, unseren Stromverbrauch und damit unser gesamtes Verhalten lückenlos zu überwachen. Hier gilt es, besonders wachsam zu sein!

C. F.




Statistiken vernebeln zunehmend die Realität!

Das „Klima“ ist in der Tat ein anhand des Wetters auf statistischem Wege entstandenes Konstrukt. Mit dem Begriff „Klima“ soll das „mittlere Wetter“ an einem Ort versinnbildlicht werden. „Klima“ ist der Platzhalter für eine Idee, die sich nicht auf einen „Gegenstand der Erfahrung“, sondern nach Immanuel Kant (1724-1804) auf die „Totalität aller möglichen Erfahrungen“ bezieht. Nach Hans Blumenberg (1920-1996) schließt jegliche Rede über die Idee „Klima“ die Notwendigkeit einer „metaphorischen Fremdbestimmung“ ein. Nach Blumenberg gilt: „Der Begriff endet in der Mystik, die Metapher im Mythos“. Daher gehen die meisten Klimadispute ebenso ergebnislos aus wie das „Hornberger Schießen“. Mangels Wissen schlägt sich die Masse auf die Seite der Mehrheit der staatlich protegierten Klimaexperten.

Wer also, wie die „Klimaskeptiker“, nur mit der Metapher „Klima“ gegen die Metapher „Klima“ der Klimaexperten ankämpfen will, steht auf ziemlich verlorenem Posten. Dies gilt insbesondere dann, wenn man sich ausschließlich statistischer Waffen bedient und auf einen Kampf in dem von den Klimaexperten vernebelten „Treibhaus“ einlässt. Auch das „Treibhaus“ ist eine Metapher, für ein geschlossenes System oder „Gedankengebilde“, in dem sich die Klimaexperten mit der Politik und den Medien kommunikativ nahezu perfekt global vernetzt haben. Offensichtlich wird dies bei den jährlichen Weltklimakonferenzen oder „Klimagipfeln“ der Vereinten Nationen.

Das Verbindungsglied zwischen Wetter und Klima ist die Statistik, deren Anfänge Volkszählungen waren, wie in Babylon etwa 3800 oder in Ägypten etwa 3000 vor Christus. Die erste Volkszählung in Deutschland gab es 1449 in Nürnberg. Das Statistische Amt des Deutschen Reiches wurde 1872 gegründet. Das Wort Statistik leitet sich von den lateinischen Wort „statistikum“ ab und bedeutet „den Staat betreffend“. Der aus Elbing stammende Gottfried Achenwall (1719-1772) begründete 1749 die Statistik als „Lehre von den Daten über den Staat“. John Sinclair (1754-1835) gab ihr die heutige Bedeutung, das allgemeine Sammeln und Auswerten von Daten. Im Laufe der Zeit hat sich aus der beschreibenden über die mathematische schließlich eine Hypothesen generierende, zutiefst spekulative Statistik entwickelt. Es wird also nicht mehr nur die Verteilung eines Merkmals beschrieben und über statistische Korrelationen eine Verbindung zwischen der Erfahrung oder Empirie und der Theorie hergestellt, sondern es wird versucht zu ergründen, was an der Verteilung eines Merkmals bemerkenswert oder ungewöhnlich ist. Ist wenig oder kein Wissen über einen Forschungsgegenstand wie das „Globalklima“ vorhanden, dann inszeniert man Expertengespräche und erfindet nicht vorhandene Ursachen und Zusammenhänge wie zwischen CO2-Gehalt der Luft und der „Globaltemperatur“. Man nennt diese allein an Ideen, aber nicht an Realitäten gebundene Forschung Explorative Forschung („exploratory research“).

Die ursprüngliche Bedeutung „Klima“

Ein „Kind der Statistik“ ist die Soziologie, die von Auguste Comte (1798-1857) begründet wurde. Die Soziologie untersucht das Zusammenleben von Menschen. Ihr Forschungsgegenstand ist der Gefährte (lat. „socius“) als Gemeinschafts- oder Gesellschaftswesen, kurz „das Soziale“. Herrschen in einer Gesellschaft Frieden und Zufriedenheit, dann spricht man von einem guten sozialen oder gesellschaftspolitischen Klima. Dies ist ein Zustand allgemeiner Zuneigung zwischen den diversen sozialen Klassen und Schichten. Das Wort Klima hat hier seine ursprüngliche griechische Bedeutung „Neigung“. Herrscht Armut und begehren große Teile der Bevölkerung dagegen auf, so kann dies für ein Regime zu einer Klima- oder Neigungskatastrophe, zum Sturz führen. So wie die Soziologie sich nicht um den einzelnen Menschen kümmert, so die Klimatologie nicht um das Wetter.

Ein Produkt der Statistik ist die fiktive Gestalt Normalbürger. Sie gibt es realiter nicht, weder als „Otto Normalverbraucher“ noch als „Max Mustermann“. Dieser Normalbürger ist ein rein rechnerisches Konstrukt, „der Deutsche“. Dieser hat eine Lebenserwartung von 80,1 Jahre, misst 1,70 m, wiegt 87,35 kg, ist 0,4234 mal verheiratet und 0,823 mal geschieden, hat 1,4 Kinder und 0,7 Haustiere, trinkt 2,1 Liter Bier, usw. Doch „der Deutsche“ ist statistisch eine „die Deutsche“, wobei „die Deutsche“ nur 1,65 m und 13 cm kleiner ist als „Er“. Dafür hat Sie eine um 5,16 Jahre höhere Lebenserwartung als Er. Zerlegt man das Konstrukt Normalbürger in seine Einzelteile, dann ist nichts mehr normal im Sinne von natürlich. Jeder Mensch ist ein Individuum und damit weder normal noch unnormal. Jeder Mensch ist einzigartig, kein statistisches Wesen. Den Normalbürger mit Normalgewicht, Normalgröße, Normalmaß gibt es nicht, wie allein schon die verschiedenen Konfektions- und Schuhgrößen zeigen. Als normal wird gerne derjenige von den Machthabern angesehen, der sich ohne Widerspruch dem Zeitgeist anpasst. Ein guter Demokrat ist dann Jeder, der sich gehorsam den Mehrheitsmeinungen fügt.

Wenn die Soziologie auch den als Normalbürger („common man“) deklariert, der zum Durchschnitt der Bevölkerung gehört, so ist dieses konstruierte Wesen dennoch nicht wesenhaft, wenn auch für gewisse politische Ideologien eine fiktive Idealvorstellung. Es ist dann eine politische Machtfrage, was herrschende Mehrheiten für normal erklären, für normal halten. Wer von dieser willkürlichen Normalitätsdefinition abweicht, der wird als anormal, zum Außenseiter erklärt. Normalität ist kein Begriff der Statistik. Normalität bezieht sich auf ein ideologisches, politisch gewolltes Modell der Vollkommenheit. Normalität weist darauf hin, was wir theoretisch sein sollten. Es ist kein Ziel, wonach die meisten Menschen streben. Die Macht setzt Normen, auch über ihre Wortgewalt! Hugo von Hofmannthal (1874-1929) drückte es wie folgt aus: „Für gewöhnlich stehen die Worte nicht in der Gewalt der Menschen, sondern die Menschen in der Gewalt der Worte.“

Es ist die Gewalt der Worte und die Gewalt der Ängste, die zu dem besonders in den Medien wie auf den weltpolitischen Bühnen zelebrierten Klimaschutz-Enthusiasmus geführt haben. Dieser vor allem in den Geistes- und Sozialwissenschaften grassierende Enthusiasmus ist auf ungenügendes naturwissenschaftliches Grundwissen zurückzuführen. Schon Benjamin Franklin (1706-1790) hatte erkannt: „Der Enthusiasmus ist das Kind der Unwissenheit.“ Deswegen sind Kinder und Jugendliche eine politisch auserwählte Zielgruppe, aus der sich Stoßtrupps fanatischer Klimaschützer formieren lassen. Auch die „Klimatologie“ ist ein abstraktes „Kind der Statistik“ und bewegt sich außerhalb des persönlichen Erfahrungshorizonts. Das „Klima“ als durchschnittlicher Zustand der Atmosphäre an einem Ort ist nicht erfahrbar. Sind auch die meteorologischen Einzelwerte messbar und damit erfahrbar, der errechnete Mittelwert ist es nicht.

Alexander von Humboldt und seine Sicht zum Klima

Die Anfänge der empirischen Klimatologie gehen auf Alexander von Humboldt (1769-1859) zurück. 1817 veröffentlichte er eine Arbeit „Von den isothermen Linien und der Verteilung der Wärme auf dem Erdkörper“. Er orientierte sich an einer Arbeit von Edmund Halley (1656-1742) aus dem Jahre 1693. Halley hatte gezeigt, dass die Dauer der Tätigkeit der Sonne die Wirkung von der Schiefe oder Neigung der Strahlen ausgleichen könnte. Im ersten Band des „Kosmos“ definiert Humboldt 1844 „Klima“ wie folgt: „Der Ausdruck Klima bezeichnet in seinem allgemeinsten Sinne alle Veränderungen in der Atmosphäre, die unsere Organe merklich affizieren: die Temperatur, die Feuchtigkeit, die Veränderungen des barometrischen Druckes, den ruhigen Luftzustand oder die Wirkungen ungleichnamiger Winde,…“. Humboldt dachte noch dynamisch-empirisch, er war noch nicht erstarrt in theoretischen Schemata. Als physikalischer Geograph wäre er nie auf die abstruse Idee gekommen, eine „Globaltemperatur“ zu berechnen und ihr ein „Globalklima“ anzudichten, das unsere Sinne affizieren und vom Menschen gesteuert werden könne. Im Gegenteil, Humboldt warnte eindringlich: „Aus unvollständigen Beobachtungen und noch unvollständigeren Induktionen entstehen irrige Ansichten von dem Wesen der Naturkräfte, Ansichten, die, durch bedeutsame Sprachformen gleichsam verkörpert und erstarrt, sich, wie ein Gemeingut der Phantasie, durch alle Klassen der Nation verbreiten.“ Das Treibhaus wie der Treibhauseffekt sind solche unerschütterlichen Gemeingüter der Phantasie! Was solche Art Theorie betrifft, so vertritt Humboldt die Ansicht: „Sie ist in sich abgeschlossen, unveränderlich in ihren Axiomen; anmaßend wie alles Beschränkte, während die wissenschaftliche Naturkunde, untersuchend und darum zweifelnd, das fest Ergründete von dem bloß Wahrscheinlichen trennt, und sich täglich durch Erweiterung und Berichtigung ihrer Ansichten vervollkommnet.“

Das Dogma von der Treibhaushypothese

Da der von den Klimaexperten behauptete „natürliche Treibhauseffekt“ von plus 33 Grad weder empirisch nachgewiesen noch experimentell überprüft werden kann, ist er im Konsensverfahren in den Rang eines Dogmas erhoben. Die internationale Politik stützt alle ihre Klimaschutzmaßnahmen auf diesen Glaubenssatz und weist jede Kritik daran zurück. Sie glaubt, mit der Reduktion der Emission von Treibhausgasen den Klimawandel unterbinden oder bremsen zu können. Doch Dinge, die zwar theoretisch behauptet werden, aber weder messbar noch experimentell überprüfbar sind, sind nichts als bloße Hypothesen. Sie sind keine Basis für naturwissenschaftliche Theoriebildungen.

Unter Hinweis auf den großen Naturforscher Alexander von Humboldt sollte von der Politik gefordert werden, dass nur noch solche Forschungsprojekte mit Steuergeldern gefördert werden dürfen, die keine hypothetischen Behauptungen mit ihren Katastrophenszenarien immer wieder gebetsmühlenartig bestätigen, sondern auf der reinen Empirie aufbauen – auf systematischen Beobachtungen, streng kontrollierten Messungen und reproduzierbaren Experimenten. Ein Zeitgenosse von Humboldt, Friedrich Hegel (1770-1831), sagte einmal: „Das Wahre ist das Ganze“! Das „Ganze“ setzt sich zusammen aus dem Geist, der Idee und der Natur.

Die Treibhaushypothese beruht nur auf zwei Pfeilern, auf dem „Geist“ und der „Idee“. Sie entbehrt des wichtigsten Pfeilers, der „Natur“. Der „Treibhauseffekt“ ist eine simple Behauptung, die noch nie wirklich nachgewiesen werden konnte. Bevor sich ein Effekt, die Abhängigkeit der Temperatur vom Kohlenstoffdioxidgehalt der Luft, im globalen Maßstab zeigt, müsste er tatsächlich gemessen und gezeigt werden können. Doch noch nie hat sich an keinem Punkt der Erde zu keiner Jahreszeit so etwas wie eine beidseitige Abhängigkeit gezeigt. Im Gegenteil, überall wo man gleichzeitig die Tagesgänge von Temperatur und CO2-Gehalt gemessen hat, hat sich gezeigt, dass beiderlei Tagesgänge nichts, aber auch absolut nichts miteinander zu tun haben. Dies gilt gleichermaßen für die Jahresgänge. Mit Sonnenaufgang wird zuerst der Boden und dann erst die Luft erwärmt, während parallel dazu infolge der Photosynthese oder der CO2-Assimilation der Pflanzen der Luft das „Treibhausgas CO2“ entzogen wird. Wären beide Dinge kausal verknüpft, dann müssten nach den Messungen auf dem „Mauna Loa“ in Hawaii, die für global repräsentativ angesehen werden, zum Hochwinter auf der Nordhalbkugel die Lufttemperaturen steigen und zum Hochsommer hin abnehmen. Doch dies steht nicht im Einklang mit der Natur, unserer Lehrmeisterin!

Erfahrung ist gefordert

Den heutigen, ganz auf Computermodelle fixierten Klimaforschern sei empfohlen, sich nicht mehr allein auf Ideen, Theorien und Modelle zu orientieren, sondern an dem Realen, Existenten und Gemessenen, der Empirie. Nach Kurt Lewin (1890-1947) gilt: „Wirklich ist, was wirkt.“ Wirklich ist etwas, das, wie etwa die Lufttemperatur, messbar ist. Gemessen worden ist dagegen noch nie die atmosphärische „Gegenstrahlung“. Im Gegenteil, je klarer der Himmel, desto effektiver ist die nächtliche Abkühlung des Bodens durch Ausstrahlung! Gäbe es die „Gegenstrahlung“, dann dürfte es keine von den Meteorologen für die kommende klare Nacht* angekündigten Bodenfröste geben! An der Wetterstation Oppenheim wurden vom 8. zum 9. Februar in 2 m Höhe gemessen 16 Uhr +10,2°, 22 Uhr +5,1°, 8 Uhr –0,5°; in 20 cm Höhe +11,2°, 2,2° und -1,1°C. War es um 16 Uhr noch 1° wärmer in Bodennähe, so kehrte sich dies im Laufe der Nacht um; um 8 Uhr war es in Bodennähe 0,6° kälter. Diese Umkehrung nennt man Inversion.

Die Meteorologie ist eine analytische, diagnostische und, in sehr begrenztem Maße, prognostische Wissenschaft. Die Klimatologie dagegen ist eine historisch-beschreibende Wissenschaft. Sie wertet jahrzehntelang gesammelte meteorologische Messdaten aus und konstruiert daraus mittlere, für eine Region charakteristische Wetterabläufe, eben das „Klima“. Die klassische Klimatologie hat nie den Anspruch erhoben, am Wetter vorbei die Wetterzukunft vorherzusagen. Diese Unmöglichkeit schaffen auch nicht die modernsten Computer. Alles, was angeblich vorhergesagt wird, sind simple „Szenarien-Rechnungen“, primitive Spielereien ohne wissenschaftlichen Anspruch. Wer sich mit der klimatischen Arbeitsweise befassen möchte, der orientiere sich bitte an Julius von Hann (1839-1921), Wladimir Peter Köppen (1846-1940), Gustav Hellmann (1854-1939), Karl Knoch (1893-1972), Rudolf Geiger (1894-1981), Carl Troll (1899-1975). Von Karl Knoch stammt die Charakterisierung: „Klimatologie ist angewandte Meteorologie“!

Den Unterschied zwischen dem Wetter und dem „Klima“ kann man sich vor Augen führen, wenn man sich die Klimakarten in einem Schulatlas anschaut und danach in www.spiegel.de die Rubrik „Satellitenbilder“. Wer diese weltweit nur eine Woche verfolgt, kann ermessen, wie chaotisch das Wettergeschehen ist und wie schwierig demzufolge Prognosen des Wetters sind. 

Dr. Wolfgang Thüne, Dipl.-Met.

 * Der Artikel wurde a, 9. Februar 2011 verfasst




Die Irrtümer in der Kernenergiediskussion

Ist Radioaktivität gefährlich?

Die ganze Welt ist voller radioaktiver Stoffe. Auch der Mensch trägt Radioaktivität in seinem Körper, er ist eine Strahlenquelle mit ca. 10 000 Becquerel (Bq). Um die Bedeutung dieser Menge von Radioaktivität beurteilen zu können, ist ein Vergleichsmaßstab erforderlich. Man muß wissen, was eventuell gefährlich sein könnte und was harmlos ist. Die Zahl der radioaktiven Zerfallsprozesse in Becquerel (Bq) sagt wenig aus, maßgebend ist erst die Dosis in Sievert (Sv), ein Maß für die im menschlichen Körper durch radioaktive Strahlen umgesetzte Energie. Bei einer kurzzeitigen Ganzkörperdosis von ca. 1 Sievert leidet der Mensch unter der Strahlenkrankheit, aber er gesundet wieder. Bei der 5-fachen Dosis ist mit dem Tode zu rechnen.
Bei einer Teilkörperbestrahlung sieht es ganz anders aus: bei Krebsbehandlungen werden Organdosen von ca. 40 Sievert in ca. 20 Einzelportionen verabreicht, bei Röntgen oder CT können Organdosen größer als 100 Milli-Sievert erreicht werden, das verträgt der Mensch [1]. Immer spielt die körperliche Verfassung und die Zeit der Einwirkung eine Rolle, weil sich der Organismus erholen kann. Das ist individuell verschieden.
Ein passender Vergleich ist die Flasche Schnaps, in kurzer Zeit getrunken kann es extrem schädlich sein, nicht aber bei Verteilung über längere Zeit [Alkohol hat ebenso wie ionisierende Strahlung eine deterministische Wirkung (Strahlenkrankheit bzw. Alkoholvergiftung) und als stochastische Wirkung ein Krebsrisiko].

Die Hintergrundstrahlung in Japan (Fukushima) ist sehr niedrig, sie liegt bei 0,05 bis 0,07 Mikro-Sievert pro Stunde. Erst beim hundertmillionenfachen im Bereich einiger Sievert wird es gefährlich. Dazwischen liegen gesetzlich festgelegte „Grenz“-Werte, die als Vorsorgewerte zu sehen sind.

Grundsätzlich gilt der Satz des Paracelsus auch für Radioaktivität: „Alle Dinge sind Gift und nichts ist ohne Gift, allein die Dosis macht das Gift“. Und bei kleiner Dosis gibt es die „adaptive Antwort“ eines Organismus, denn das Immunsystem des Körpers wird trainiert. Der Organismus lernt es, sich gegen eine Einwirkung von außen zu wehren, wie am Prinzip der Schutzimpfung eindrucksvoll bewiesen wird. Eine kleine Dosis ist nicht schädlich, sie ist oft nützlich.

Die Halbwertszeit beträgt 30 Jahre!

So oder ähnlich heißt es, um eine immerwährende Gefahr zu suggerieren. Aber die Halbwertszeit besagt nichts über „Gefahr“. Es ist umgekehrt, eine große Halbwertszeit heißt, dass wenige Atomkerne zerfallen, das bedeutet wenig Strahlung und daher eher harmlos. Kleine Halbwertszeit bedeutet, dass viele Atomkerne pro Zeiteinheit zerfallen, das heißt dann starke Strahlung und höhere Gefahr. So wurde der ehemalige russische Agent Alexander Litwinenko mit Polonium-210 vergiftet, ein alpha-Strahler mit der Halbwertszeit 138 Tage. Zur Vergiftung reichte weniger als 1 Mikrogramm in seinem Körper. Andererseits kommt der größte Teil der Radioaktivität im menschlichen Körper vom Kalium-40. Es sind ca. 4500 Bq mit Halbwertszeit 1,3 Milliarden Jahre. Der Mensch strahlt fast unendlich lange, das ist harmlos.

Ist eine „verseuchte“ Gegend auf ewig unbewohnbar?

Beispiel Tschernobyl

Vier Jahre nach dem Tschernobyl-Unfall konnte erstmals das kontaminierte Gebiet in den Nachfolgestaaten der UdSSR von Leuten aus dem Westen betreten werden, es waren Fachleute der Wiener IAEO für ca. 3 Monate dort. Von 8000 an die Bewohner verteilten Filmdosimetern zeigten 90% nach 2 Monaten nichts an, weniger als die Nachweisgrenze 0,2 Milli-Sievert. Es errechnet sich weniger als 0,15 Mikrosievert pro Stunde, die ganz normale Hintergrundstrahlung [2]. Zum Vergleich: beim Fliegen auf Reiseflughöhe in unseren Breiten beträgt der Strahlenpegel 5 Mikro-Sievert pro Stunde, in der Concorde waren es wegen der größeren Höhe 10 bis 15 Mikro-Sievert pro Stunde. Daher kritisierte die IAEO in ihrem Bericht die Umsiedlungen als zu weitgehend aus Gesichtspunkten des Strahlenschutzes, dsgl. die Lebensmittelrestriktionen.

Für die evakuierte 30-km-Zone um Tschernobyl wird heute eine zusätzliche Jahresdosis zwischen 0,5 und 5 Milli-Sievert pro Jahr angegeben [3] (in Deutschland haben wir bis zu 10 Milli-Sievert pro Jahr, punktuell kann die Dosis noch höher sein). Es wohnen in der 30-km-Zone wieder Rückkehrer, die man gewähren lässt, und es arbeiten dort auch über 10 000 Menschen, die aber in der Regel in dem 45km entfernten neu erbauten Ort Slavutich schlafen. Man kann das Gebiet um Tschernobyl als Tourist besuchen, dann erhält man beim Flug dorthin eine höhere Dosisleistung und auch höhere Gesamtdosis als vor Ort selber [4].

Beispiel Fukushima

In Japan ist alles anders, es gab von Beginn an ausführliche Info über das Internet, auch in deutscher Übersetzung [5]. Aus dem Verlauf der veröffentlichten Daten zur Ortsdosisleistung an verschiedenen Messpunkten beim Kraftwerk von Fukushima ist alles wichtige zu sehen: Es gab Freisetzungen von Radioaktivität durch die Explosionen und die Druckentlastungen des Containment, dabei wurden während einiger Stunden etliche Milli-Sievert pro Stunde erreicht. Inzwischen geht der Strahlungspegel kontinuierlich an allen Messstellen zurück. Die Strahlung hat die höchsten Werte dicht an den Reaktorblöcken (inzwischen unter 500 Mikro-Sievert pro Stunde), an den ca. 1km entfernten Toren des Geländes < 100 Mikro-Sievert pro Stunde bis < 20 Mikro-Sievert pro Stunde.

Die Daten am Kraftwerksstandort werden in groben Zügen durch Messungen der Ortsdosisleistung am 3.4.2011 im 30-km-Umkreis bestätigt [6]:

Entfernung vom Kraftwerk in km

Ortsdosisleistung in Mikro-Sievert pro Stunde

30

1,1

20

1,3

17

2,5

15

6,5

8

5,5

3

3,6

2,9

1,2

2,5

7,8

1,8

11

1,5

94…109

Zum Vergleich: Ortsdosisleistung auf Reiseflughöhe um 5 Mikro-Sievert pro Stunde. Jahresdosis für fliegendes Personal im Mittel 2,2 Milli-Sievert und maximal 9,0 Milli-Sievert [7]. Es gibt auf der Welt Orte mit einer Jahresdosis > 100 Milli-Sievert, auch dort leben Menschen ohne Beeinträchtigung ihrer Gesundheit [8].

Die Daten zeigen, dass niemand außerhalb des Kraftwerkgeländes von Fukushima eine schädliche Dosis erhalten wird, die zur Strahlenkrankheit führt. Der Strahlenpegel ist im Vergleich zur Hintergrundstrahlung vor dem Unfall erheblich angestiegen, um das hundertfache oder noch mehr. Dennoch ist der Abstand zu einer schädliche Dosis noch groß genug. Die vorsorglich evakuierten Gebiete werden bald wieder bewohnbar sein, falls es die japanischen Gesetze erlauben. Es sind nach Beschluß der japanischen Regierung weitere Evakuierungen im größeren Abstand > 20 km Abstand geplant, wenn dort Jahresdosen > 20 Milli-Sievert erreicht werden können [5]. Ob diese Absichten tatsächlich umgesetzt werden, bleibt abzuwarten, ebenso die Dauer aller Maßnahmen.

Für die Mitarbeiter im Kraftwerk wurde ein Grenzwert von 250 Milli-Sievert festgesetzt [5]. Es bleibt zu hoffen, dass die Arbeiter vorsichtig sein werden und diese Grenze einhalten, dann werden sie mit hoher Sicherheit keine gesundheitlichen Schäden zu befürchten haben.

Was ist mit „verseuchten“ Lebensmitteln?

Natürlich kommt mit der Nahrung zusätzliche Radioaktivität in den Körper, das galt bei Tschernobyl, das gilt heute für Fukushima. Entscheidend ist die Dosis. Rechnen wir dazu ein Beispiel: radioaktiv „belastete“ Pilze mit 4000 Bq/kg, das kommt vor und liegt um den Faktor 100 über dem Durchschnitt unserer Lebensmittel von 40 Bq/kg. Durch Verspeisen von 100g dieser Pilze – das dürfte die Menge einer reichlichen Mahlzeit sein – ergibt sich die zusätzliche Bestrahlungsdosis von 5,6 Mikro-Sievert (errechnet durch Multiplikation mit dem Dosisfaktor 1,4 E-8 Sv/Bq für Cs-137 beim Verspeisen). Das ist auch die Zusatzdosis, die man bei einem 1-stündigen Flug auf Reiseflughöhe in unseren Breiten erhält, wie schon gesagt wurde.

Erst neulich hat Frau Ministerin Aigner mitgeteilt, dass aus Vorsorge der „Grenz“-wert für Lebensmittel von ca. 1000 Bq/kg auf die Hälfte verringert worden ist. Wer 1 kg Nahrungsmittel mit 500 Bq/kg verspeist, erhält eine Dosis, die rund einer Flugstunde entspricht. 70 Millionen Deutsche gehen im Jahr auf Flugreise, und das nicht nur für eine Stunde, das wird toleriert. Dieselbe Dosis durch Lebensmittel soll nicht erlaubt sein – warum, das hat Frau Ministerin Aigner nicht erläutert. Die Gesetzgebung um Strahlung und Radioaktivität ist nicht von Logik gekennzeichnet, es ist Politik!

Übrigens sind die Dosisfaktoren für Cäsium-137 und Jod-131 nahezu identisch (eff. Dosis, Ganzkörper, Ingestion), daher gilt oben gesagtes in ausreichender Genauigkeit auch für Jod-131.

Was sind die Schlussfolgerungen?

In unserer Welt – insbesondere in Deutschland – wird eine Strahlendosis durch Radioaktivität sehr unterschiedlich beurteilt, sehr streng bei Kernkraftwerken, großzügig hingegen bei Flugreisen, Medizin und Bodenstrahlung, das ist Politik [9]. In anderen Ländern ist es ähnlich. Die endgültigen Folgen für Japan müssen abgewartet werden. Heute ist abzuschätzen, dass durch die zerstörten Kraftwerke in Japan keine Menschen zu Schaden kommen werden, obwohl die Kraftwerken im Vergleich zu den in Deutschland schon Sicherheitsmängel aufweisen. Warum dennoch die Kernkraftwerke in Deutschland weg sollen, bleibt ein Geheimnis unserer Politiker. Die Kerntechnik ist keine Risikotechnologie, auch wenn in unzähligen Broschüren, Verlautbarungen, Studien ein Gegenteiliges behauptet wird.

Niedrige Strahlendosen sind nicht schädlich, sie sind nützlich für Lebewesen, das war gängiges Wissen in den 50-er und 60-er Jahren. Dieses Wissen wird heute nicht mehr beachtet, es wird aussterben. In Deutschland wird vom Bundesamt für Strahlenschutz versucht, die Schädlichkeit niedriger Dosen zu beweisen, Aufträge zu Studien wurden vergeben. Es ist zu erwarten, dass in den fertigen Arbeiten schwammige Formulierungen stehen, mit dem Hinweis auf die Notwendigkeit weiterer Untersuchungen.

Es gibt immer wieder Berechnungen von hohen zu erwartenden Opferzahlen infolge Krebs durch Strahlung. Diese sind bei solchen Krebsrisiken zu finden, die in die politische Diskussion geraten sind. Mit Hilfe der dazu benutzten LNT-Theorie können aus kleinen Risiken große beeindruckende Opferzahlen errechnet werden. Von renommierten Strahlenschutzfachleuten wird dieses Vorgehen als falsch beurteilt [8] [10]. Dazu wird später gesondert berichtet.

Dr. Lutz Niemann für EIKE

Literatur

[1] Hans Kiefer, Winfried Koelzer, „Strahlen und Strahlenschutz“, 2. Aufl. 1987, ISBN 3-540-17679-9

[2] „Das internationale Tschernobyl-Projekt“, Schlussfolgerungen und Empfehlungen, IAEO, Wien 1991

[3] Jürgen Kraemer, Dietmar Zappe: „Tschernobyl und die 30-km-Zone“, atw 56. Jg. (2011) Heft 2 Seite 88 ff

[4] Dr. Hermann Hinsch, "Das Märchen von der Asse", ISBN 978-3-8370-9977-5, Seite 30

[5] Radiologischer Lagebericht unter http://fukushima.grs.de/

[6] http://www.youtube.com/watch?v=yp9iJ3pPuL8&feature=player_embedded

[7] StrahlenschutzPRAXIS 1/09

[8] Z. Jaworowski, Symposium „Entwicklungen im Strahlenschutz“ am 29.11.2001, München, auch in atw 47, Januar 2002, Seite 22 – 27

[9] Dr. Klaus Henrichs, „Nutzen und Kosten der neuen deutschen Strahlenschutzverordnung aus pragmatischer Sicht“, Symposium „Entwicklungen im Strahlenschutz“ am 29.11.2001, München

[10] Prof. Klaus Becker, „Ursachen, Folgen und Therapie des Radiophobie-Syndroms“, Vortrag am 28.5.2003 an der University of Massachusetts, gedruckt in atw 49. Jg. (2004) Heft 3 – März, S. 177 ff